Hi Forum,
Is there currently someone in the forum able to get packages from Ru? I want to ask if someone is willing to help me with a package forward for a Anthony card?
Best regards so far
Hi Forum,
Is there currently someone in the forum able to get packages from Ru? I want to ask if someone is willing to help me with a package forward for a Anthony card?
Best regards so far
Was undertaker_2 da grade anspricht interessiert mich aber auch; Wahrscheinlich geht das nicht, aber: Könnte der Benchmark auch mehrere GPUs nutzen? Oder ist das Problem nicht so leicht aufteilbar? Bei manchen Sachen geht sowas ja; Einfach Daten in der Mitte auseinanderschneiden und zwei halbe Stücke auf zwei GPUs rechnen, Endergebnis wieder zusammensetzen. Ich weiß nur nicht ob es hier geht, weil ich kaum einen Tau davon habe was der Test echt rechnet, und wie genat.
Ja der Job ist Teilbar. Sogar sehr einfach. So sollte sich als Ergebnis auch Punktezahl 1 + Punktezahl 2 als gesamtpunktezahl ergeben vorausgesetzt die RAM Geschwindigkeit limitiert nicht.
Zum Ablauf-verständniss:
Es wird eine 3D Datei in den Ram Geladen ich nenne diese einfach mal Objekt.
Diese wird mit Positionsdaten abgelegt und dann die zusätzlichen Positionsdaten Vervielfältigt.
Somit Liegt dann Ein Objekt beim Laden im Ram zusammen mit sagen wir mal 10.000 Positionsdaten.
Dann wird das Objekt in Höhe durch eine Anzahl X Geteilt also sagen wir mal 100.
Hier raus entstehen 100 Höhenabhängige Schichtdaten vom Objekt oder auch Schichten Genannt. Der Benchmark schiebt jetzt Das Objekt in den Vram und lässt die GPU die für die Jeweilige Höhe notwendige Vektordatei berechnen von 10.000 Objekten.
Heißt es entsteht ein Schnittbild von 10.000 Objekten auf Schichthöhe 1 Dis dauert dann XXXX Millisekunden. Dieses 2D Vektorbild wird zurück in den Ram Geschrieben für die weitere Datenverarbeitung und die nächste Schicht (2) wird berechnet.
Nachdem alle 100 Schichten berechnet sind Fängt der Benchmark wieder bei Schicht 1 an und Wiederholt das so lange bis 5 min abgelaufen sind und Zählt die Anzahl der Errechneten Schichten = Punktzahl.
Genauere Details dazu muss ich mit der Programmierung absprechen wieviel zum Technischen Hintergrund ich Rausgeben darf.
Demnach ist es einfach X Schichten von X Grafikkarten Gleichzeitig berechnen zu lassen.
Lediglich das Rückspielen in den Ram ist hier natürlich von Relevanz. Daher auch der Aktuelle Ansatz die Zeitenmessung nochmal anzupassen und aufzuschlüsseln.
Die Untersuchung des Overheads am Anfang des Benchmarks steht hoch in der Priorität soll aber durch das "Warmlaufen" eliminiert werden.
Denn Schließlich wird auch nicht die Ladezeit von Crysis gemessen oder Ein Speedrun von Zelda auch nicht beim einschalten der Konsole.
Das Gleiche gilt auch beim Einladen von CAD Daten oder dem Laden eines Projektes bei der Filmproduktion.
Der Benchmark soll Grafikkarten orientiert bleiben und kein System Benchmark darstellen.
Bier.jpg Klingt das logisch für dich?
Weiterhin soll der Benchmark auch Purge unabhängig sein. demnach soll einfach der Durchlauf einer Schicht nach einladen in den Vram sowie das Rauspielen der Schicht gemessen werden. Dann ist es auch egal wie Gut oder Schlecht das OS oder das Programm das zeug wieder löscht.
Bei meinem System konnte ich die Abhängigkeiten während des Laufes meistens bei so 15 ms / Schicht einsortieren.
Es gab aber auch Ausreißer von durchaus 2 s. Das verfälscht natürlich das Ergebnis. Demnach der "Vorlade / Aufheiz Run" und auch die optimierte Zeitmessung.
Ebenso können Die Ergebnisse unabhängig von "ich leg mal schnell nen Kühl Pack bereit und lass die GK eiskalt schnell durchrechnen" gemacht werden.
Somit ist es Valider für eine stabile Konfiguration als ein Highscore Hunt mit Artefakten und Abstürzen.
Konsistenz Beim Power Target hat einen hohen Einfluss da die Laufzeit der Einzelschichten sich schnell aufaddieren wenn der Takt ein bisschen einbricht so entstehen leicht mal bis zu 100 schichten weniger.
Aber Danke fürs Validieren. Sieht sehr nach den Effekten aus die ich ebenfalls reproduzieren konnte.
Mein MSI GF63 Thin Laptop kann den Benchmark leider nicht durchlaufen.
Core i7 8750H/ 16GB DDR4 2600 und GTX1050Ti Max Q. Windows 10Pro 22H2 und die Grafiktreiber sind auch nicht veraltet. Aber der Benchmark stürzt nach einer Weile ab. Es gibt keine thermischen Probleme.
Hmm Das kommt mir seltsam vor. Da eine 1050 eigentlich durchlaufen sollte. Wir müssten auch eine 1050 da haben und würden mal gegentesten
undertaker_2 uhh die Ergebnisse sind schon ein bisschen arg inkonsistent aber danke dafür. Wir schauen mal in der nächsten revision ob wir 1.2 mit abdecken können.
Marlon Die R7 250 hat anscheinend auch nur auf Linux 1.3 support. Aber ich denke das momentan mit V1.1.0 des Benchmarks sowieso der Grafikspeicher das Hauptproblem sein wird.
undertaker_2 Wenn du den Test nochmal Widerholen Kannst wäre interessant zu wissen bei welcher zeit sich die 7770 einpendelt für die ersten 2 schichten. Ich gehe aber auch davon aus dass die 1024 MB V-RAM einfach volllaufen bei Schicht 3. Hier macht es wohl sinn auf V1.2.0 vom benchmark zu warten. Dann kommt der (hoffentlich) auch mit weniger Speicher aus. Das Gleiche Ergebnis mit 1.2 hab ich auch bei vulkan.gpuinfo.org gefunden.
Apropo GPU-Z
das Progrämmchen bietet genaue Details über die Grafikkarte. Also auch gut für euch mal zum Nachschauen.
Unter Advanced, Vuklan
Ich wüsste jetzt nicht, warum der erste Lauf langsamer sein sollte und alle nachfolgenden schnell, wenn der Cache nicht zuschlägt.
Wenn nichts gecached wird, sollte der erste Lauf genauso schnell sein wie die Restlichen. Evlt sogar Schneller (je nach System und Kühlung). Für mich macht es nur Sinn, dass der erste Lauf langsamer ist, wenn in allen Nachfolgenden Läufen etwas vom ersten Lauf genutzt werden kann um diese zu beschleunigen.
Das einladen in den Speicher. Im Detail kann ich nochmal im Entwicklerteam Fragen wenn es dich interessiert.
Höchste Priorität hat Homogenität.
Kleiner Hinweis für alle Alpha Tester:
Derzeit vermutlich nur ab Vulkan 1.3 ist ein erfolgreicher Run möglich:
Für die Kompatibilität könnt ihr die Karten/ Treiber und OS hier nachsehen:
Devices - Vulkan Hardware Database by Sascha Willems
undertaker_2 auch wenn die 7700 derzeit in Windows vom Treiber nicht läuft hab ich nachgesehen Auf Ubuntu ist sie mit 1.3 integriert also vielleicht auf unsere Linux Version warten.
undertaker_2 Das könnte tatsächlich mit Der Vulkan Version zusammenhängen. Wenn die Installierte Treiberversion nur 1.2 Unterstützt erklärt das auch die Treiberfehlermeldung. Eventuell kannst du es mit einer neueren Treiberversion nochmal überprüfen.
Der Erste Layer wurde ja sogar noch gerechnet da dieser aber wohl die kleinste Datenmenge Aufweist und schon 4s Rechnet denke ich dass das Ergebniss unter 50 ausgefallen wäre. Hier wird es wohl interessant werden wenn die Datenmenge Kleingenug wird und auch GK mit wesentlich weniger Grafikspeicher dann funktionieren.
Bier.jpg Das Caching Problem soll mit der "Aufheizphase" erschlagen werden um vorladen und Zwischenladen zu eliminieren. Sozusagen Startet das Hochzählen erst nach Abschluss der ersten 80 Schichten. Das einladen der Daten und das Leeren der Caches zwischen jeder Schicht wird Programmierseitig bereits berücksichtigt um die Querabhängigkeiten zwischen Auslagerungsdatei und Ram /Vram zu eliminieren ist ein erster Durchlauf notwendig. Dann sind die Ergebnisse auch homogen : Siehe Ergebnisliste unten. Das Chache Leeren ist inherent Bestandteil des Vorgangs zwischen den schichten und Erklärt auch die derzeitig auftretenden 15 ms Delay zwischen jeder Schicht. Diese Zeiten werden wie bereits geschrieben in V1.2.0 Herausgerechnet so dass der reine Rechenanteil der Kompletten einzelnen Schicht gemessen wird genauso wie das Raus-schreiben und Reinladen aus dem Ram getrennt davon. Siehe vorheriger Post.
Da wir außerdem eine Auslagerungsdatei auf der Festplatte unbedingt vermeiden wollen ist auch hier die Verkleinerung der Berechnungsdatei essenzieller schritt. Hier wird bereits an einem 3D Modell gearbeitet was nicht nur unter die 265MB Verarbeitungsgröße fällt sondern auch eine Vertikale konstante Komplexität aufweist so dass die Schichten 1-4 auch vergleichbar werden wir zum Rest. derzeit sind diese mit einer Laufzeit von knapp unter 200ms (Titan V) im Vergleich zu den Restlichen Schichten ca. 300ms nur 2/3 so komplex wie der Rest.
Aktueller Stand Sensitivitäts-testing
- Nach aktuellem Stand ist nach "Aufheizphase"/ erstmaligem Durchlaufen des Benchmarks die Konsistenz sehr gut
Die Testumgebung:
Windows 10 Pro 22H2 x64 |AMD Ryzen 9-5950 X | 32 GB DDR4/XXXX 16-18-18-35-63-1T | Nvidia Titan V
Kühlung Gepinnt auf 60°C, Power und Temp. Target der V hochgesetzt dass ich während des Benchmarks keine Frequenzeinbrüche auftreten.
Hier die Ergebnisse dazu als Referenz Durchnummeriert:
1: 925 @1866 Ram, 4x Durchlaufen (Referenz) 0,22% Abweichung
2: 930 @1866 Ram Mem +100Mhz, 3x Durchlaufen 0,10% Abweichung
3: 948 @1866 Ram Core +100Mhz, 3x Durchlaufen 0,05% Abweichung
4: 953 @1866 Ram Core & Mem +100Mhz, 3x Durchlaufen 0,14% Abweichung
Hier Zeigt sich:
V-Ram Geschwindigkeit hat nur 0,52-0,54% Einfluss pro 100 Mhz Sowohl zwischen 1 und 2 als auch zwischen 3 und 4
Dagegen hat Core Clock Zwischen 2,47-2,49% Einfluss pro 100 Mhz Ebenso Zwischen 1 und 3 als auch zwischen 2 und 4
Als nächstes wurde Ram Einfluss getestet:
5: 1007 @2666 Ram, 3x Durchlaufen 0,11% Abweichung
6:1032 @2666 Ram Core +100Mhz, 3x Durchlaufen 0,5% Abweichung
7:1038@2666 Ram Core & Mem +100Mhz, 3 x Durchlaufen 0,47% Abweichung
V-Ram erneut nur mit 0,58% Einfluss zwischen 6 und 7
Core Clock ebenso 2,48% Einfluss Zwischen 5 und 6
Neu dagegen ist der Einfluss von 8,86% - 8,92% höheren Ergebnissen im vergleich von 1 zu 5, 3 zu 6 und 4 zu 7
Also somit ca. 1,1% höhere Ergebnisse pro 100Mhz Ram Geschwindigkeit.
Demnach macht die Aufspaltung der Punkteberechnung in die 2 Separaten Schritte und einzelne Bewertung absolut sinn.
Hier Kann dann auch gut abgelesen werden ob der Ram oder die GK Leistung Limitiert.
Ich schaue mal ob ich mit noch 2 Zwischendatenpunkten da eine Linearität rausfahren kann. Dann mache ich ein Paar ordentliche Graphen mit dem man den Einfluss gut sehen kann.
GGF ist hier auch ein Scatter mit allen bisherigen Ergebnissen in einer Punktewolke interessant.
Liebe Grüße
Eisfuchs
So kleine Entwickler Update.
Leider gibt's Ressourcen Engpässe wegen der Beruflichen Situation des Hauptprogrammierers.
Aber der Funktionsumfang der V1.2.0 wurde festgelegt. Leider wird sich wohl diese Version auf Weihnachten verschieben.
Ich würde gerne euch ein schnelleres Voranschreiten des Projekts ermöglichen allerdings bleibt es ja auch ein Freizeitprojekt.
Aktuelle wird an einer Version getüftelt die schon einmal eine Berechnungsoptimierung enthält an der Datenkomplexität. Diese erhöht den score ca. um 10% da der Overhead reduziert wird. Hauptvorteil wird sein dass wir den benötigten Ram und Vram weiter Reduzieren können.
Außerdem sind einige Erkenntnisse dazugekommen.
- Der erste Run des Benchmarks "also kalt" ist immer schlechter so wie es aussieht. Hier planen wir einen "Aufheizrun" bevor die eigentliche Punkteermittlung erfolgt.
- Weiterhin hat die Konsistenz zwischen Run 2-3-4 derzeit eine Schwankung von bis zu 20% hier sind Nicht beachtete Lade-Delays das Problem. Diese wollen wir Rausrechnen. Also die Reine GPU Rechenzeit Pro Layer wird ermittelt. Ebenso soll die Punkteausgabe ein Gemittelter Wert werden im sinne von Schichten Pro 60 min
Heißt zum einen dass wir die Punkteanzahl erhöhen können ohne die Benchmark Zeit massiv nach oben zu schrauben und zum Anderen gibt es während der notwendigen Berechnung bereits Zwischenergebnisse die sich nur "Einpendeln" Heißt wenn ein Layer eine Laufzeit von durchschnittlich 300ms hat wird das auf 60 min geteilt und ergibt den score obwohl der Benchmark nur 5 min Läuft.
Ebenso durch das Herausrechnen der Delays soll ein weiterer Score hinzukommen die Grafikkarten Anbindung.
- Hier wurde Festgestellt dass bis zu 10% Leistung nur aus der RAM Geschwindigkeit kommt. Heißt es gibt dann einen schichtzahl Wert GPU Anbindung und einen Schichtzahl Wert GPU Speed und den Kombinierten Wert. Somit sieht man auch gut was das Bottleneck an der GPU ist.
Windows Taskmanager hat hier sehr langsame abtastraten was GPU Auslastung angeht. MSI Afterburner kann mit einer Abtastrate von 100 ms sehr gut die Schwankungen der GK anzeigen und hier könnt ihr auch gut im Graph währen des Benchmarks die 100% Peaks der GK sehen.
- Ebenso soll eine Ausführlichere Logdatei Erzeugt werden die Wesentlich mehr Informationen und Fehler Infos enthält.
Was genau abgefragt wird müssen wir noch aus der API raussuchen. Aber CPU/GPU/Ram Typ OS Version Vulcan Version sollte kein Problem sein.
GGF Kommt noch Takt und Temp mit dazu.
Hierauf soll auch erst einmal die Priorität gesetzt werden und die Unterstützung zu anderen Systemen wird nur im Kleinen Maßstab getestet (MAC/WIN 7/8/Linux/Android/IOS...)
Also Voraussichtliche Funktion von 1.2.0
- Aufheizrun
- Höherer Score
- Homogenere Schichtlaufzeit
- Aufgesplitteter Score Layer/h GPU Kommunikation, Layer/h GPU Performance, Layer/h Total
- Log Datei mit Systemdetails, Und Fehlerdetails
- Reduzierter Ram und Vram bedarf (angepeilt 256mb)
Grüße aus dem Entwicklerteam
Und danke fürs Fleißige Testen. Wir sind für jede Info Dankbar insbesonders Homogenität und Abhängigkeiten zu anderen Faktoren als GPU sind sehr wertvoll.
undertaker_2 Die HD7770 scheint einfach wieder ans limit zu stoßen mit dem Vram. und die FM Plattform müssen wir schauen ob 1.2 möglich sein wird. aber mehr kann ich dir mit version 1.2.0 sagen
Das sind interessante Erkenntnisse. ich denke mit ner Win 7 Debuggte Version könnten bei ggf HD 8730M und GT640 unter Win 8 auch laufen.
Ich glaube Kepler hat schon Vulkan. 472.12 War Nvidias Vulkan support release Treiber. Ka was für eine Treiberversion du auf Win 8 Fährst
Danke Marlon und undertaker_2 auch für eure Ergebnisse.
Die Fehlermeldung wurde mit aufgenommen und ist mit in die Arbeitsliste reingewandert.
Morgen ist unser Großes Weekly Meeting wo wir über Progress Sprechen und die Themen mal direkt Adressieren.
Ein kleiner Anstoß noch. Ramgeschwindigkeit also Taktung etc. wäre auch offen zum Testen.
Unsere Sammlung an Alpha Ergebnissen wächst:image.png
Kann gut sein dass ich direkt auf euch nächste Woche nochmal drauf zu komme um da nochmals Details abzufragen.
Derzeit werden täglich Buildtests auf der 3090 z.B. durchgeführt.
Wenn noch fragen offen sind beantworte ich die Gerne.
CPU technisch sind bisher keine Minimalanforderungen aufgepoppt.
Der Test sollt ja auch egal auf welcher Gurke max. 5 min (plus Ladezeiten) laufen.
Gruß
Ich würde zu gerne Beschreiben wie die Stimmung des Programmierers in das Nirvana Katapultiert wurde als ich meinte Vista hat Vulkan support aber das überlasse ich eurer Fantasie XD
Der Task ist schon sehr Parallelisiert. Wir arbeiten gerade an einer angepassten Quelldatei für den Benchmark dass wir unter eine 256 MB Vram Grenze kommen. Das sollte das auch noch ein bisschen entschärfen.
Wenn jemand einen V5-6000 / V5-5500 Treiber auf Win 7 optimiert und Vulkan mit reinschustert dann sorg ich für einen Max V-Ram Bedarf von 64 MB
Jedoch das Einlesen und Rücklesen von daten in Die Grafikkarte ist Dennoch das Bottleneck. Ob man 10000 Briefmarken oder ein Poster Berechnet der Datenaufwand ist ähnlich. V-Ram ist schon gestückelt. Entweder es geht rein oder der Fehler der auf deiner HD 515 auftritt Sagt *Meh*
Interessant wäre eine 6900XT mit PCIE 5.0 und DDR5 als Versorgung
Heißt Minimal wird maximal bis WIN 7 Support optimiert.
Hier stehen dann zumindest die Chancen gut dass Vista es auch frisst.
Hallo Liebe Tester,
Kleines Update:
Zum Benchmark und den Unterschieden der Leistungsperformance.
Der Benchmark testet das System auf mehreren ebenen eben nicht rein in der GK insbesonders die Querkommunikation von berechneten Schichten und das Zurückspielen in Die CPU hat Einfluss. Demnach sind Bottlenecks bei alten Systemen wohl gut sichtbar.
Strauchdieb Könntest du die 6900 XT mal im Stock durchlaufen lassen und deine Aktuelle Konfiguration dazu nochmal dazuschreiben ? OS/Ramspeed/CPU ...
GrandAdmiralThrawn Das mit der Erweiterten Logmöglichkeit wurde im Entwicklerteam mit aufgenommen und wird in die nächste Version mit eingearbeitet. Auch die Ablage der Log in der Gleichen Berechtigungstiefe im Dateisystem wurde mit auf die Liste gesetzt.
bschicht86 Win 7 Kompatibilität wird auch Debugged und weiter verfolgt. Ich denke dass aber weiter nach unten also Win XP / ME etc kein Support bestehen wird. soweit ich Weiß ist bei Windows da auch mit Vulcan support Schluss. Das wird wohl interressanter mit Linux Kerneln da hier eine wesentlich größere Abdeckung des Vulkan supports besteht.
undertaker_2 Gerade auch die Kleinen Systeme bzw. IGPU Systeme sind interessant da wir diese auf jedenfall abdecken möchten. Daher möchte ich dich gerne hiermit auch mit zu den Aplha Testern aufnehmen. Genaueres Folgt per PN Auch hier der Hinweis dass derzeit bei 2 GB VRAM Schluss ist. (steht auch in der Bearbeitung)
Zum Ablageort der Datei. Derzeit ist noch nicht komplett bekannt wie weit die anbindung des Exe Speichermediums einen einfluss auf dem Benchmark hat. Hier wäre ein Vergleich durchaus sinnvoll. Wer möchte kann das gerne mit seinem System Durchtesten:
Also Ablage 1: SD Karte, Ablage 2: HDD, Ablage 3: Sata SSD, Ablage 4:NVME SSD, Ablage 5: Ramdisk.
Auch sind mehrere Durchläufe mit identischer Konfiguration hilfreich um die Konsistenz der Tests zu sehen. Gerade auch wenn solche massiven Leistungseinbrüche wie bei Strauchdieb erkenntlich sind (5XX Punkte vs 11XX Punkte)
Ich arbeite Gerade daran zusammen mit den Entwicklern eine Minimalanforderungsliste Fertigzustellen so dass wir mit Spec genau festlegen können was abgedeckt werden soll (OS/Vram/Vulcan Version ...) Insbesonders alte Vulcan Versionen konnten wir noch nicht testen. Hier wären alte GPU's mit viel Vram interessant.
Ebenso ist der exakte Scope noch nicht festgelegt. wie "Systembenchmark - GPU Oriented (Firestrike like)" "GPU-CPU-Ram Anbindung - (Superposition z.b.)"
Was es vermutlich nicht werden wird ist ein Burn in Test wie "Furmark" oder GPU Load Only wie "Heaven",
Leider ist eine GPU meistens abhängig vom CPU und kommt irgendwann bei fast jedem Benchmark an sein Bottleneck (Vielleicht nicht bei Furmark)
Idealerweise soll der Benchmark Praktische Rückschlüsse auf Vulkan Performance bieten.
Aber Gerne Nehme ich auch hier eure Meinungen mit auf.
Die Unterschiede in der Auslastung wollen wir zumindest betrachten. Hier wäre ein Taskmanager Screenshot bzw. min Max wert während des 5 min Tests Hilfreich da wir auch hier schon Starke Schwankungen gesehen haben.
Achja:
GrandAdmiralThrawn zu den 2 Offenen Fragen. Quelloffen und Veröffentlichung der Ergebnisse:
Quelloffen können wir den Benchmark wohl nicht machen. Da gibt es ein Paar sachen in der Berechnungsmethodik die wir nicht rausgeben können.
Zum Thema Veröffentlichen via PHP finde ich sehr gut. Aber ich denke da würde ich im Nachhinein sprich gegen ende der Beta nochmal auf dich zukommen Aber vielen dank für das Angebot schonmal.
Vielen Dank soweit für eure Mühen, Wir arbeiten mit Hochdruck an einer V1.2.0
Gruß
Eisfuchs
So, und jetzt der letzte Schrott, die Klumpert-iGPU von Intel. Interessanterweise ist der Test beim ersten Versuch abgestürzt, und zwar mit folgender Fehlermeldung:
Also Hab gleich mal Nachgefragt.
Das müsste ein Grafikspeicher Problem sein.
Momentan müssten die Minimal Anforderungen an Vram irgendwas mit 2GB sein.
Da Die IGPU Dynamisch den Speicher da zu weist kanns sein dass da erstmal der Fehler aufkam und später dann ganz normal wieder weiterläuft.
Aber das wollen wir uns zusammen mit einer Optimierten Geometrie nochmal genauer anschauen wie weit wir den VRAM nach untern drücken können.
Wenn ich die Ergebnisse so sehe, denke ich, dass noch etwas an den Punkten gemacht werden muss. Um Ergebnisse besser darzustellen. Nehmen wir mal die Intel 520 mit 52 Punkten. Hier würde 1% mehr Leistung kaum merkbar in den Punkten sein. Und es wird noch weit langsamere GPUs mit Vulkan geben....
Das würde damit auch erschlagen werden. Derzeit ist die Hinterlegten CAD Daten noch recht anspruchsvoll wenn wir die Runter setzen wird sich natürlich auch der Score vervielfachen.
Also sollten auch hier deutlich höhere Punktezahlen möglich sein.
aber nur mal Nebenbei XD ich glaube weniger als ne HD 520 auf ein Vulcan optimiertes game zu schmeissen ist auch fragwürdig.
Weißt du zufällig ob Doom im Vulcan auf dem ding läuft oder BG3? XD also mit 10s/Frame
Gruß
QuoteNebenbei habe ich ein bisserl auf die Auslastung der CPU und GPU während des laufenden Tests geprüft, und muß sagen, daß die eher niedrig war, und meine Karte hat ganz normalen GDDR6 Speicher:
Also deine GPU läuft doch auf 46% meine TItan V war mehr auf 12% max
Der CPU Takt ist normal so niedrig
Aber Gratulation erstmal zum Highscore
Das mit dem Quelloffen muss ich nochmal Diskutieren
Derzeit ist geplant lieber so viel wie möglich abzudecken anstatt die Entwicklung abzugeben.
Also lieber Release bereits für Android, Linux, Mac, IOS ...
Das mit dem Auswerten Finde ich klasse Der H264 / H2654 Benchmark ist schon echt ne Hausnummer für das Forum. Aber ich werde es im nächsten Teammeeting definitiv ansprechen
Danke dir schonmal für die Mühe GAT
XD danke dir
Komisch das ist irgendwas mit der Library in der Vulcan Treiberinstallation.
Aber ich quatsch es mal durch.
Spannend 52 ist suuuper ähh wenig XD
aber Plausibel
Was ich feststellen konnte ist dass beim 2. Run sich wohl ein bisschen was optimiert und der score leicht höher ausfällt.
Soo um dem eigenen Zeitplan mal Vorraus zu kommen würde ich gerne die Ersten Alpha Tester hiermit bekannt geben und ggf. schon mal die Version 1.1.0 Rausgeben.
Derzeit nur in Windows Version Verfügbar sprich als .exe
Natürlich ist das noch nicht im MS Defender registriert kann also leicht sein dass der meckert.
Derzeit ist bekannt dass wir keine 100% Lineare Berechnungs Datei haben. die schwankt um die 20% pro Berechneten Punkt. Sollte sich aber ab nem Score von 50 Punkten bereits ausmitteln.
Weiterhin Wird hier auch die Kommunikation zwischen CPU und GK mitgetestet (Realitätsnäher) hier hängt die TItan V derzeit voll im Bottleneck da HBM2 memory. Die Auslastung bei anderen Grafikkarten ist wesentlich höher.
Der Benchmark läuft exakt 5 min und zählt die Berechneten Layer / Punkte innerhalb 5 Min. was den Score darstellt.
Derzeit würde ich im Ersten Wurf hier gerne Folgende Leute in den Alpha kreis aufnehmen.
Ihr bekommt von mir Eine PM mit Download Link zu V1.1.0
Ich bitte euch derzeit auf die Verteilung der Software zu verzichten.
Die EXE läuft derzeit komplett im CMD heißt über Konsole ausführen sonst ist das Fenster wieder futsch.
Gerne könnt ihr hier in diesem Forum Thread darüber euren aktuellen Stand und Testing veröffentlichen und die Ergebnisse Publik machen auch würde ich gerne hier das Feedback sammeln um weiter an der Software zu feilen.
Linux Version folgt ggf. bis ende der Woche.
Weitere Alpha Tester nehme ich nach eigenem ermessen von zeit zu zeit Hinzu.
Mehr Systeme = schneller zugriff
Liebe Grüße
Soo kleines Update.
Wir sind gerade am finalisieren der ersten Alpha Version und ich möchte euch die derzeitigen Ergebnisse nicht vorenthalten:
RTX 3090 :1182
M1 Mac Air: 258
GTX1050Ti : 301
RX6900XT : 859
Quadro P1000: 270
TItan V: 899
Titan V +100 mem +100 Clock :924
Derzeit aber noch ein kleines Load Bottleneck wobei die ergebnisse schon Plausibel scheinen.
Ich halte euch auf dem Laufenden.
Aktueller Plan 1.11.23 Veröffentlichung Alpha Tester
3.11.23 Ausgabe Alpha Version zum Vergewaltigen.
Abgabe Berichte / Verbesserungsvorschlage / Bugs etc. bis 17.11.
Zweiter Durchgang 1.12.23
Open Beta Geplant : 1.1.24
Refining 1.2.24
Release: 29.2.2024
Vulkan Wird ab HD7000 Serie von AMD, Kepler Architektur Nvidia, Und Intel um Skylake Unterstützt.
Generell ist der Standard von ca. 2016. Viel Älter wird wohl eher schwierig wobei Linux da fleißig Treiber für alte Sachen auf den Markt gespuckt hat.
bschicht86 : FM2 ist definitiv Interessant und müsste auch Auf jeden fall unterstützt werden, genau wie die Vega 64, 6900XT geht auch das haben wir schon ein durchlaufen lassen
Marlon Hast du zumindest ein Paar Grafikkarten hierzu zu nennen?
Hallo Liebe Gemeinde,
Ich möchte euch gerne mit einbinden in ein kleines Projekt was ich derzeit anpeile.
Ziel ist es einen Grafikkartenbenchmark zu erstellen welcher über die Vulkan Schnittstelle einen Performanceindex als Numerischen Wert ausgibt.
Vulkan ist relativ neu und für die meisten Topics hier im Forum sind GPU's nach 2016 eher "neumodischer kram"
Dennoch finde ich die API zukunftsweisend und durch ihr Quelloffenen Charakter auch Plattformübergreifend. (Mac M Architektur)
Schonmal vorweg. Meine Position hierbei ist die Position eines "Projektleiters" und nicht des Programmierers.
Dennoch kann ich schon einmal ein Paar Eckdaten Geben.
Das Programm wird derzeit in Rust Programmiert und sollte demnach auch weitestgehend Problemfrei für die Meisten Betriebssysteme kompilierbar sein.
Somit sollen auf jedenfalls Mac OS, Windows und Linux Abgedeckt werden. IOS und Android stünden auch noch im Raum.
Funktionsweise des Benchmark ist die Umwandlung von 3D Vektordaten in 2D Pixeldaten. Klassische Anwendung im 3D Druck wie z.B. Binder Jetting.
Die Größe des Benchmarks soll so schlank wie möglich gehalten werden.
In wie weit von einer Kommandozeilen Bedienung (CMD Prompt) und ggf. Log Datei. abgewichen wird steht noch zur Diskussion.
UND HIER KOMMT IHR INS SPIEL.
Gerne würde ich schon in den frühen Phasen viele Systeme und Grafikkarten Abtesten.
Daher möchte ich hiermit gerne ein Paar Freiwillige zur Bewerbung Aufrufen um ihnen den Ersten Prototypen schon zur Verfügung zu stellen und eben auch durch euer Feedback einen "schicken" kleinen Benchmark zu kreieren.
Für eure Bewerbung würde ich gerne eine Liste der von euch abzutestenden Systeme / Grafikkarten abfragen in Folgender Form.
Betriebssystem/Prozessor/Ram/Grafikprozessor/V-Ram/Systemspeicher
Zum Beispiel: WIN11/AMD X5950/16GB DDR4 3600/ Nvidia Quattro GV100/ 32GB HBM2
Personen die Mehrere Systeme Abdecken können sind hier vielleicht auch etwas im Vorteil
Derzeit Kann unser Kleines Team auf (Macbook Air M1/ RTX3090 / AMD 6900XT / Nvidia Titan V) testen.
Ich freue mich auf eure Meinung zu dieser Idee und vielleicht schon die ersten Anregungen.
Hier Nachgetragen die Derzeitige Ergebnisliste der V1.1.0
Punkte | User | Grafikkarte | Build |
1927 | Eisfuchs | RTX4090 @ DDR5 6000 | V1.1.0 Win |
1345 | GAT | RX 7900 XTX @DDR4 3200 | V1.1.0 Win |
1191 | Strauchdieb | RX 6900 XT (OC) @DDR4 3200 | V1.1.0 Win |
1173 | Strauchdieb | RX 6900 XT (OC) @DDR4 3200 | V1.1.0 Win |
1182 | DEV-Team | RTX 3090 - TB3 External GPU | V1.1.0 Win |
1038 | Eisfuchs | Titan V +100 mem +100 Clock @2666DDR4 | V1.1.0 Win |
1007 | Eisfuchs | Titan V @2666 DDR4 | V1.1.0 Win |
859 | DEV-Team | RX 6900 XT @ DDR3 2666 | V1.1.0 Win |
834 | bschicht86 | RX 6900 XT @DDR4 3000 | V1.1.0 Win |
380 | Marlon | Quadro P2000 | V1.1.0 Win |
301 | DEV-Team | GTX 1050Ti | V1.1.0 Win |
270 | DEV-Team | Quadro P1000 | V1.1.0 Win |
258 | DEV-Team | M1 Macbook Air | V1.0.1 Mac |
115 | Marlon | AMD Radeon WX Pro 3100 | V1.1.0 Win |
81 | undertaker_2 | i7-9700 @ HD630 | V1.1.0 Win |
52 | GAT | i5-6300U @ HD 520 | V1.1.0 Win |
Grüße
der Eisfuchs
I have two agp cards (in red and green) in a safe place near to you guys, that means quick delivery and no customs check. So if anyone is interested, don't hesitate to pm me. The most preferred payment method is tethered coins (usdt) but maybe we could arrange paypal payment as well.
Hi anthony,
Thats some news. I'm still interested and i may also be able to pay witth some crypto. But if possible i'm more interested in a PCI card.
Also i'm a little bit careful with the shipping situation.
I'm also willing to help with any customs translations if necessary.
Thanks for all your effort