Posts by eLuSiVe

    Das klingt schon ziemlich interessant. Könnte man das mit nem einfachen "Speicherbenchmark" austesten (Aida, Passmark, Userbenchmark ...)?
    12GB Bandbreitentests, das ganze nochmal mit 16 und anschließend vergleichen?

    Aha, ok.. Najo, dann werden halt drei Module in Triple laufen und eines solo, schätze ich halt einfach Mal so.

    Das könnte auch sein. Ich weiß nicht, ob man überhaupt testen kann. was die Bandbreite jenseits der 12GB macht. Falls das überhaupt sinnig ist.

    Der Rechner ist meine erste Erfahrung mit X58. Habe zwar ordentlich Zeit damit verbracht Tests, Reviews für das Board und OC Guides usw. durchzugehen aber da habe ich sicher auch nur an der Oberfläche gekratzt.

    Aber die Geschichte läuft. Schauen wir mal wie lange. Die Plattform hat ja auch schon 11 Jahre auf dem Buckel.

    Ich dachte auch immer entweder drei Steckplätze belegt oder sechs für Triple Channel.
    Vier Module à 4GB DDR 1600 hatte ich da und mir in der Anleitung die Belegung angesehen.

    Schwarz = belegt.
    Ich habe es dann so gemacht wie in Figur 4 und das BIOS zeigt beim Start auch "Three Channel Mode" an. Scheint also nach außen hin zu klappen. Ich weiß nur nicht, ob er intern das bei vier Modulen nicht doch irgendwie auftrennt und trotz "Dreikanal" mit weniger Bandbreite läuft oder sowas. Mein Wissen ist dafür nicht tiefgründig genug.


    "Best system performance" kann ja auch heißen "Ok, you got four modules there. No Triple Channel but you get the 'best' that's possible with four modules". Spinnerei ... weiß ich echt gerade nicht :topmodel:

    Kann mir gut vorstellen, dass die 6000er Radeons auch erstmal für eine Weile vergriffen sein werden. Ähnlich der Zen 3 CPUs.
    Da wird man auch warten müssen bis die ersten Welle an Käufern gesättigt ist und die Preise Richtung UVP gehen.
    Die Tuschelei um nVidias 3080 Ti 20GB oder deren angebliche Neuauflage von Ampere in 7nm in Q1 2021 tun ihr Übriges.

    Abwarten, Daumen drücken und noch nen Kaffee machen ;)

    Die Händler bekommen schon noch Nachschub ;) Ruhig Blut.
    Auf nen 5900 oder 5950 hoff' ich evtl. Anfang Dezember.
    Es käm zu der Zeit nämlich was zum Rendern rein und es wär nicht schlecht, wenn ich das auf der extra Maschine schon machen könnte.
    Aber ok. Wenn nicht, ist das auch kein Weltuntergang.


    Threadripper kommt mir erst wieder mit Zen 4 rein oder wenn man zur gleichen Zeit günstig nen 5970 herbekommt.

    Danke für'n Stream nochmal gestern!
    Zen 3 hat schon ordentlich Dampf.


    GATs Bench habe ich peinlicherweise noch nie laufen lassen. Vielleicht mach ich das mal auf dem 4ghz i7 950 und schau, was der noch so reißt :topmodel:


    Will sagen: Ich wünsche mir mehr Speicherbandbreite! Dual Channel @ 6000Mhz und ab geht die Post. :topmodel:

    Aber so ist für 1080p leider einfach noch nicht genug Dampf da.

    Könnte in 1,5 Jahren dann mit DDR 5 klappen :topmodel:


    Darum war das hier jetzt auch meine letzte Investition in DDR4.
    Mit DDR 5 geht's angeblich bei 5800 los. Damit sollen auch größere Module möglich sein, was 256GB dann leichter realisierbar macht.

    Bei ein paar Shops war der 5950X für rund 1100€ gelistet (UVP 850€). Auch ausverkauft.

    Schon krass, dass die selbst bei 250€ mehr, schon weg sind.

    Die Tests zu AMDs neuen Zen 3 CPUs sind nun da.
    Ryzen 5xxx als "Hammer 2.0" zu bezeichnen scheint gerechtfertigt. Selbst ein auf 5,3GHz getakteter 10900k kommt an die neuen AMDs nicht ran.


    CB: https://www.computerbase.de/2020-11/amd-ryzen-5000-test/
    PCGH: https://www.pcgameshardware.de…-5950X-Benchmark-1360653/

    Zen 3 Threadripper werden wahrscheinlich Q1 2021 vorgestellt.
    Core-Anzahl ist die gleiche wie bei Zen 2. Nur eben mehr IPC und die TR Pro Modelle bekommen Octachannel.


    Die AM4 CPUs sind vorerst schon überall ausverkauft. Mal schaun, wie es Ende Dezember / Anfang Januar aussieht.
    Mir fehlt noch der 5900x für den kleinen Renderknecht. Der Rest ist schon da (Danke nochmal an GAT für den RAM ;) ).

    Das habe ich auch schon gehört, dass ein paar 5700 Besitzer in meinem Bekanntenkreis mit den Treiberproblemen zu kämpfen haben.


    @GAT

    So wie ich das nun mitbekommen habe, hatten bisher die Devs ihre Games zu nVidia geschickt, um sie auf DLSS 1.0 trainieren zu lassen.

    Das lief dann auf 16k über nVidias eigene TCC Farm (Tesla Compute Cluster) und dauerte jenachdem ein paar Wochen (genau weiß ich nicht).

    Wie das geschäftlich abläuft bleibt wohl ein Geheimnis von nVidia. Vorstellbar wären Exklusivität, bevorzugte Optimierung, Werbung seitens des Publishers.

    Als nV die 3090 als 8K Karte präsentierte, wurden die Spiele auch in 4k gerendert und mit DLSS auf 8K ausgegeben.


    Mit DLSS 2.0 läuft es angeblich etwas anders. Dafür scheint nV ihre KI spieleunabhängig antrainieren zu wollen damit es breiter einsetzbar wird.

    Das Trainingsmaterial sind wahrscheinlich die Daten aus DLSS 1.0 und eigene Bildquellen aber genaueres weiß ich leider nicht.


    Von Digital Foundry gibt es ein gutes Video dazu https://youtu.be/3IiFbahWaqk


    Das Problem bei SLI / Crossfire war leider die starke Abhängigkeit beider GPUs voneinander. Im Real Time Rendering macht man eine Menge Tricksereien, die Daten / Infos aus den vorherigen Frames brauchen (zB nen Motion Vector).

    Wenn jetzt GPU A dabei ist Frame 23 zu rendern aber noch auf die Daten von GPU B warten muss und bis die mit Frame 22 fertig ist (evtl. weil ein Objekt, das in 22 noch im Frustrum ist und in 23 nicht mehr, fallen gelassen werden kann), bekommt man zB seine kleinen Mikroruckler. Das richtig hinzubekommen ist in DX 12 und Vulkan durchaus möglich, verlangt jedoch ne Menge Hirnschmalz und Aufwand, den sich die Devs nicht mehr leisten können oder wollen. Eines der wenigen Paradebeispiele, das zeigt, wie gut das funktionieren kann ist Shadow of the Tomb Raider. Oder war es Rise of the Tomb Raider? Eines der beiden jedenfalls.


    Im Offline Rendering ist das einfacher, da jede GPU unabhängig ist und es erst dann mit dem nächsten Frame weitergeht, wenn das aktuelle durch ist. So nach dem Motto "Der letzte macht das Licht aus". So kann man auch nVidia GPU unterschiedlicher Generationen verwenden. 1070Ti mit 980Ti. Redshift zB ist das sehr flexibel.

    Edit: RT ist das 32 Bit aus Voodoo3 oder Hardware T & L aus Voodoo 5 Zeiten. Außer in Benchmarks hat es doch kaum Relevanz. Warum sollten Spielfirmen ein Feature in die Engine einbauen, was keine 10% der Käufer nutzen können? Die, die es einbauen, machen es doch auch nur, weil es von Nvidia gesponsort wird. Bis RT wirklich ein Standard ist, sind wir bei der Geforce 5xxxx und Radeon 8xxxx angekommen.

    RT kann unter anderem das Authoring für die Devs leichter machen.

    Zum Beispiel könnte es den reinen Metallness Approach bei PBR Shadern wegfallen lassen. Metallness ist zwar ok und sieht gut aus bisher.

    Es wird halt immer ein extra Shader aufgerufen, der alles was Metall ist extra rendert (GGX lighting model). Bedeutet auch immer nen extra draw call.


    Mit RT könnte die Arbeit beim Surfacing / Texturieren schon einfacher werden, wenn das wegfallen würde.


    Aber wie Du schon sagst, wird das noch dauern. Bis man RT komplett für alle Arten von Oberflächen in Echtzeit nutzen kann, reicht die aktuelle Leistung noch nicht.

    Dafür schaffen die GPUs, selbst Ampere nicht genug Rays / Sek.


    Bis dahin gibt es eher weiterhin hybride Lösungen (UE4 ganz vorn mit dabei), die aber auch nicht unbedingt verkehrt sind und sehr cool ausehen können.

    RT die Softshadows im, in der Präsentation gezeigten Spiel Rift Breaker machen lassen, sieht sehr gut aus finde ich.

    Yup, zur RT-Leistung haben sie sehr wenig bis gar nichts gesagt. Die wird wohl auch niedriger sein als bei nV.
    Die Leistung kommt eher mit RDNA 3. Bis dahin ist RT auch fester ethabliert. Bisher ist es bei den Devs noch viel Experimentieren, um zu sehen, was man damit machen kann.


    Edit: die 6900XT ist zusammen mit einer AMD CPU sowohl im "Rage Mode" (so eine Art neuer Autooverclocker im Treiber) und Smart Access Memory betrieben worden.
    So konnte sie die RTX 3090 einholen. Wenn das Ding auf einer Intel CPU steckt kann das natürlich anders aussehen. Darum auf die Tests warten.

    Wollte keinen extra Thread aufmachen. Stattdessen beide kombinieren.
    Habe mir gerade die AMD Präsentation zu Big Navi, Radeon RX 6xxx angesehen.

    Vorgestellt wurden Radeon 6800, 6800XT und 6900XT. Alle mit 16GB.
    Und wenn die vorgestellten Zahlen sich wirklich in kommenden Tests bewahrheiten, holy shizzmizzle...
    6900 XT angeblich on par mit der 3090 für 500 USD weniger.


    Die 6800 non XT soll es mit der 2080Ti laut AMDs Benches aufnehmen können, was sie zu einem Konkurrent zur 3070 macht, die mit "nur" 8GB daherkommt.


    Auch die vorgestellten Features waren interessant. AMD CPU + AMD GPU etc..

    AMD scheint auf den ersten Blick zurück zu sein. Jetzt noch Tests abwarten.
    Wie es mit der Verfügbarkeit stehen wird, muss man sehen. Kann mir vorstellen, dass sich Miner bei der Leistung auch ordentlich die Hände reiben gerade.

    War eine schöne Präsentation. Hat mir gefallen :)


    Edit: die 3070 hat 8GB und keine 10 -> sorry, korrigiert :D

    Richtig ordentliche Vorstellung! Zen 3 sieht doch schon super aus. Auf Big Navi bin ich auch gespannt.

    Mal sehen wo die CPUs sich leistungsmäßig in den nächsten Monaten platzieren nach allen Tests, Erfahrungen der Nutzer, AGESA, RAM speeds, UEFI Updates ...


    Vor allem für 240+ HZ Low Latency / Sync Extravaganza / Hardcore Gamer scheinen die neuen AMDs nun interessanter zu werden.