Beiträge von eLuSiVe


    Will sagen: Ich wünsche mir mehr Speicherbandbreite! Dual Channel @ 6000Mhz und ab geht die Post. :topmodel:

    Aber so ist für 1080p leider einfach noch nicht genug Dampf da.

    Könnte in 1,5 Jahren dann mit DDR 5 klappen :topmodel:

    Darum war das hier jetzt auch meine letzte Investition in DDR4.
    Mit DDR 5 geht's angeblich bei 5800 los. Damit sollen auch größere Module möglich sein, was 256GB dann leichter realisierbar macht.

    Bei ein paar Shops war der 5950X für rund 1100€ gelistet (UVP 850€). Auch ausverkauft.

    Schon krass, dass die selbst bei 250€ mehr, schon weg sind.

    Die Tests zu AMDs neuen Zen 3 CPUs sind nun da.
    Ryzen 5xxx als "Hammer 2.0" zu bezeichnen scheint gerechtfertigt. Selbst ein auf 5,3GHz getakteter 10900k kommt an die neuen AMDs nicht ran.

    CB: https://www.computerbase.de/2020-11/amd-ryzen-5000-test/
    PCGH: https://www.pcgameshardware.de/Vermeer-Codena…chmark-1360653/

    Zen 3 Threadripper werden wahrscheinlich Q1 2021 vorgestellt.
    Core-Anzahl ist die gleiche wie bei Zen 2. Nur eben mehr IPC und die TR Pro Modelle bekommen Octachannel.

    Die AM4 CPUs sind vorerst schon überall ausverkauft. Mal schaun, wie es Ende Dezember / Anfang Januar aussieht.
    Mir fehlt noch der 5900x für den kleinen Renderknecht. Der Rest ist schon da (Danke nochmal an GAT für den RAM ;) ).

    Das habe ich auch schon gehört, dass ein paar 5700 Besitzer in meinem Bekanntenkreis mit den Treiberproblemen zu kämpfen haben.

    @GAT

    So wie ich das nun mitbekommen habe, hatten bisher die Devs ihre Games zu nVidia geschickt, um sie auf DLSS 1.0 trainieren zu lassen.

    Das lief dann auf 16k über nVidias eigene TCC Farm (Tesla Compute Cluster) und dauerte jenachdem ein paar Wochen (genau weiß ich nicht).

    Wie das geschäftlich abläuft bleibt wohl ein Geheimnis von nVidia. Vorstellbar wären Exklusivität, bevorzugte Optimierung, Werbung seitens des Publishers.

    Als nV die 3090 als 8K Karte präsentierte, wurden die Spiele auch in 4k gerendert und mit DLSS auf 8K ausgegeben.

    Mit DLSS 2.0 läuft es angeblich etwas anders. Dafür scheint nV ihre KI spieleunabhängig antrainieren zu wollen damit es breiter einsetzbar wird.

    Das Trainingsmaterial sind wahrscheinlich die Daten aus DLSS 1.0 und eigene Bildquellen aber genaueres weiß ich leider nicht.

    Von Digital Foundry gibt es ein gutes Video dazu https://youtu.be/3IiFbahWaqk

    Das Problem bei SLI / Crossfire war leider die starke Abhängigkeit beider GPUs voneinander. Im Real Time Rendering macht man eine Menge Tricksereien, die Daten / Infos aus den vorherigen Frames brauchen (zB nen Motion Vector).

    Wenn jetzt GPU A dabei ist Frame 23 zu rendern aber noch auf die Daten von GPU B warten muss und bis die mit Frame 22 fertig ist (evtl. weil ein Objekt, das in 22 noch im Frustrum ist und in 23 nicht mehr, fallen gelassen werden kann), bekommt man zB seine kleinen Mikroruckler. Das richtig hinzubekommen ist in DX 12 und Vulkan durchaus möglich, verlangt jedoch ne Menge Hirnschmalz und Aufwand, den sich die Devs nicht mehr leisten können oder wollen. Eines der wenigen Paradebeispiele, das zeigt, wie gut das funktionieren kann ist Shadow of the Tomb Raider. Oder war es Rise of the Tomb Raider? Eines der beiden jedenfalls.

    Im Offline Rendering ist das einfacher, da jede GPU unabhängig ist und es erst dann mit dem nächsten Frame weitergeht, wenn das aktuelle durch ist. So nach dem Motto "Der letzte macht das Licht aus". So kann man auch nVidia GPU unterschiedlicher Generationen verwenden. 1070Ti mit 980Ti. Redshift zB ist das sehr flexibel.

    Was mich da interessieren würde:

    1. Wie lange dauert es, um das neuronale Netz für eine Spieleengine im Kontext eines konkreten Spiels mit nur einer GPU anzulernen?
    2. Wieviele GPUs braucht es, um das aus ökonomischer Sicht praktikabel zu machen, in Hinsicht auf Zeit und Anschaffungs-/Betriebskosten?
    3. Was kostet das für den Entwickler in Summe?

    Dazu könnte ich mich die Tage mal umhören.

    Edit: RT ist das 32 Bit aus Voodoo3 oder Hardware T & L aus Voodoo 5 Zeiten. Außer in Benchmarks hat es doch kaum Relevanz. Warum sollten Spielfirmen ein Feature in die Engine einbauen, was keine 10% der Käufer nutzen können? Die, die es einbauen, machen es doch auch nur, weil es von Nvidia gesponsort wird. Bis RT wirklich ein Standard ist, sind wir bei der Geforce 5xxxx und Radeon 8xxxx angekommen.

    RT kann unter anderem das Authoring für die Devs leichter machen.

    Zum Beispiel könnte es den reinen Metallness Approach bei PBR Shadern wegfallen lassen. Metallness ist zwar ok und sieht gut aus bisher.

    Es wird halt immer ein extra Shader aufgerufen, der alles was Metall ist extra rendert (GGX lighting model). Bedeutet auch immer nen extra draw call.

    Mit RT könnte die Arbeit beim Surfacing / Texturieren schon einfacher werden, wenn das wegfallen würde.

    Aber wie Du schon sagst, wird das noch dauern. Bis man RT komplett für alle Arten von Oberflächen in Echtzeit nutzen kann, reicht die aktuelle Leistung noch nicht.

    Dafür schaffen die GPUs, selbst Ampere nicht genug Rays / Sek.

    Bis dahin gibt es eher weiterhin hybride Lösungen (UE4 ganz vorn mit dabei), die aber auch nicht unbedingt verkehrt sind und sehr cool ausehen können.

    RT die Softshadows im, in der Präsentation gezeigten Spiel Rift Breaker machen lassen, sieht sehr gut aus finde ich.

    Yup, zur RT-Leistung haben sie sehr wenig bis gar nichts gesagt. Die wird wohl auch niedriger sein als bei nV.
    Die Leistung kommt eher mit RDNA 3. Bis dahin ist RT auch fester ethabliert. Bisher ist es bei den Devs noch viel Experimentieren, um zu sehen, was man damit machen kann.

    Edit: die 6900XT ist zusammen mit einer AMD CPU sowohl im "Rage Mode" (so eine Art neuer Autooverclocker im Treiber) und Smart Access Memory betrieben worden.
    So konnte sie die RTX 3090 einholen. Wenn das Ding auf einer Intel CPU steckt kann das natürlich anders aussehen. Darum auf die Tests warten.

    Wollte keinen extra Thread aufmachen. Stattdessen beide kombinieren.
    Habe mir gerade die AMD Präsentation zu Big Navi, Radeon RX 6xxx angesehen.

    Vorgestellt wurden Radeon 6800, 6800XT und 6900XT. Alle mit 16GB.
    Und wenn die vorgestellten Zahlen sich wirklich in kommenden Tests bewahrheiten, holy shizzmizzle...
    6900 XT angeblich on par mit der 3090 für 500 USD weniger.

    Die 6800 non XT soll es mit der 2080Ti laut AMDs Benches aufnehmen können, was sie zu einem Konkurrent zur 3070 macht, die mit "nur" 8GB daherkommt.

    Auch die vorgestellten Features waren interessant. AMD CPU + AMD GPU etc..

    AMD scheint auf den ersten Blick zurück zu sein. Jetzt noch Tests abwarten.
    Wie es mit der Verfügbarkeit stehen wird, muss man sehen. Kann mir vorstellen, dass sich Miner bei der Leistung auch ordentlich die Hände reiben gerade.

    War eine schöne Präsentation. Hat mir gefallen :)

    Edit: die 3070 hat 8GB und keine 10 -> sorry, korrigiert :D

    Richtig ordentliche Vorstellung! Zen 3 sieht doch schon super aus. Auf Big Navi bin ich auch gespannt.

    Mal sehen wo die CPUs sich leistungsmäßig in den nächsten Monaten platzieren nach allen Tests, Erfahrungen der Nutzer, AGESA, RAM speeds, UEFI Updates ...

    Vor allem für 240+ HZ Low Latency / Sync Extravaganza / Hardcore Gamer scheinen die neuen AMDs nun interessanter zu werden.

    Scheinen schon alle weg zu sein nach dem, was man so liest.

    Stimmt das? 10-15% Mehrleistung von der 3080 kommend? Ich habe jetzt nur den Computerbasetest überflogen.

    Die 24GB machen wohl das Ding unter anderem so teuer.

    Double Precision soll bei GeForce Ampere sehr beschnitten sein und der Chip 1x nvLink 3.0 mit 50Gbps können im Vergleich zur Titan Turing mit 4x nvLink 2.0 bei 100Gbps. Gestern habe ich dazu erst einen Vergleichstest gelesen von jemanden, der sich mit Machine Learning und GPU Rendering befasst. Danach sollte ich nochmal suchen. Nicht, dass ich grad Unsinn erzählt hab.

    Es sieht so aus, als wäre es klüger einfach noch 4-6 Monate zu warten.

    Verfügbarkeit scheint schlecht bis chaotisch. Es ist frische Hardware mit jungen Treibern, die noch reifen müssen.

    Siehe Berichte über Abstürze mit 3080 weil sie manchmal höher taktet, als sie soll.

    Dazu die Geschichten über 3080 mit 20GB und wie Grandhavoc oben schon schrieb 16GB 3070Ti.

    Die 3090 soll angeblich auch nur 10-15% mehr Leistung zur 3080 haben .. etc .. pp ... bla bla :topmodel:

    In 20 min kann man das Ding eh vorbestellen glaub ich.

    Nach dem, was ich gelesen habe, hat nVidia ein großes Problem mit Bots, die die FE's nach kurzer Zeit weggekauft hatten.
    Manche nutzen angeblich Scripts wiederum, um die Preise von eBay-Angeboten so hoch zu treiben, dass die "gierigen" Verkäufer sind nicht mehr loswerden.

    Keine Ahnung was da läuft. Vor allem wie das technisch abgeht (ist nicht mein Gebiet).

    Über das ganze Tamtam kann ich eigentlich nur den Kopf schütteln. Mit jedem weiteren GPU-Release scheint das schlimmer zu werden.

    Habs jetzt doch nochmal bei Amazon mit der ZOTAC Gaming GeForce RTX 3080 Trinity für 699,- versucht.

    Mal sehen ob die wirklich zu Montag liefern können. (Habe kein Prime)

    Ah cool, dann drücke ich mal die Daumen, dass das klappt! :thumbup:

    GrandAdmiralThrawn

    Ah verstehe. Weil Du über Multi-GPU gesprochen hattest dachte ich Du meintest alles was dazugehört. Aber im Bezug auf SLI geb ich Dir Recht.

    Mit Deferred Rendering kannst halt leider kein Hardware AA mehr machen. Das spuckt dann nur unsinnige Werte aus (Z-Buffer, Point Position, Surface Normals ...) für's finale Shading.

    Dafür kamen dann diese ganze Post Process AA Methoden. Da hast dann auch Deine liebe Freude wenn's um Haare in Games geht, die technologisch im Moment noch hinterher hinken.

    Ich habe in Igor's 3080 Test mal die 3D Rendering Spalte bzw. den ArnoldGPU-Test angesehen. Da rendert die 3080 fast doppelt so schnell wie die 2080Ti. Wenn die 3090 noch einen draufsetzt und evtl. noch ne Titan kommt, dürfte die (jetzt mal sehr linear gedacht) nen Frame in der Hälfte der Zeit rendern, die eine Titan RTX dafür braucht. Das wäre schon sehr geil.

    Finde den Rechner richtig cool. :):thumbup:

    K7S5A ist doch voll in Ordnung. Es gab glaub ich so viele Revisionen davon, dass evtl. die ersten noch anfangs Probleme machten und somit für den bis heute bekannten, schlechten Ruf sorgten. Ich hatte anno 2002 eins mit nem 1700+ und GF4. Das Ding läuft bis heute und war nie wirklich zickig oder instabil. Ne V55 hatte es eine Zeit lang auch beherbergt.

    [...] Man kann auf jeden Fall gespannt sein, was AMD auf die Beine stellt.

    Schön wäre ein AMD-Konter auf Dual-GPU-Basis. [...]

    Na bitte nicht! So mies wie SLI und CF heutzutage in modernen Spielen schon funktionieren wäre das ein kompletter Rohrkrepierer. Und AMD LiquidVR für "Eine GPU pro Auge" in VR adaptiert auch keine Sau. Ich glaube der einzige Entwickler der sich das angetan hat waren die Jungs von Croteam (Serious Sam VR) und sonst überhaupt niemand.

    Multi-GPU ist heutzutage doch zu 80-90% für nix mehr?!

    Nicht ganz.

    Im Spielebereich wurde es mit der Zeit immer weniger relevant, ja. Und heute ist die Unterstützung kaum noch gegeben.

    Hingegen im progressionellen, kreativen Sektor ist das immer mehr am Abgehen. Renderer die vorher hauptsächlich auf CPU basis rechneten, verlagern die Aufgaben immer mehr auf die GPU.

    zB von Arnold zu ArnoldGPU, VRay wird zu VRayNEXT, dann noch relativ junge Renderer wie Redshift oder Octane rendern ausschließlich auf der GPU. Die Optimierung bringt 30-50x mehr speed im Vergleich zu ner aktuellen CPU.

    Die Multi GPU Unterstützung ist da richtig gut. Redshift kann sogar unterschiedliche GeForce Karten unterschiedlicher Generationen ansprechen und benutzen.

    Da gab es mal Tests dazu als sie ne 980Ti und eine 1070Ti zusammen rendern ließen und das lief einwandfrei.

    Na die waren ja schnell weg, eigentlich wollte ich mir eine 3080 Founders Edition bestellen...

    Dann hat das jetzt wohl Zeit bis AMD die Karten auf den Tisch gelegt hat.

    Es ist fast besser noch 4-5 Monate zu warten. Wo am Ende AMD landen wird und ob da vielleicht noch eine 12GB Version der 3080 kommt oder ne 3080 Super ... keine Ahnung.

    Dann isses frische Hardware mit jungen Treibern, die wohl auch noch etwas Zeit zum Reifen brauchen.

    Die ganze Aufregung um die neuen Karten kommt mir eh stellenweise übertrieben vor.

    Offiziell glaube ich hieß es zwar nicht "The RTX 3090 will take the Titan's place."

    Was Jensen in der Präsentation aber meinte war, dass die Nachfrage der Content Creators nach der Titan RTX trotz ihrer (angeblichen) Limitierung in der Verfügbarkeit so hoch war, dass man ne 3090 machte. Ne Menge Kollegen hatten sich die T-Rex gekauft für ihre Workstations daheim. Vielleicht wurden einfach zu wenig 6000er Quadros verkauft dadurch.

    Die Titan RTX war im Endeffekt ne Quadro RTX 6000 mit ein bisschen weniger Basistakt, kein ECC RAM und musste mit dem Creator Driver auskommen, der ein paar Quadro Optimierungen mitbrachte.

    Dafür hat sie auch "nur" ca. die Hälfte gekostet.

    Zur 1080, die ich vorher drin hatte war das allerdings ein Unterschied wie Tag und Nacht. Vor allem in 3D Software, wo es ne Menge CUDA Cores und VRAM braucht. Wieviel da Spiele in Maximaleinstellungen und 4K etc. brauchen hatte ich nie probiert. Aufm Arbeitsrechner zock ich so gut wie nichts. Hab' auch da keine Games installiert.

    Ist die 3090 nun der Vollausbau? Weiß das jemand?

    Mal warten, was AMD macht und dann noch weiter bis März was noch so kommt. Dann ist die Titan auch schon wieder 2 Jahre alt.

    Hey zusammen!

    Habe mir vorhin den nVidia Live Stream zur neuen Gaming Ampere (RTX 3xxx) angesehen.

    Die Eckdaten zeigen schon mal, dass die ordentlich Dampf mitbringen. RTX 3070 mit angeblich 2080Ti Performance für 500USD (UVB ohne Steuern) ist gar nicht mal so schlecht.

    Die Tests müssen halt noch zeigen, wie es in der Praxis aussieht.

    Die 3090 is natürlich nen Speicherfass :D

    Wenn die in VRayNEXT, Redshift & Co wirklich so abgeht und keine Titan mehr kommt, ist sie definitv eine Überlegung wert.

    Alles in allem soll die Raytracing Performance signifikant steigen.

    Mal sehen wie es sich die nächsten Monate entwickelt und nVidia nach AMD's Präsentation noch ein Model zwischen 3080 und 3090 nachschiebt.

    Hier mal ein aktueller Link von PCGH Klick

    Deren Test sollte auch bald online sein nehme ich an.

    RTX 3070 8GB 499 USD

    RTX 3080 10GB 699 USD
    RTX 3090 24GB 1500 USD aka the "BFGPU"