nVidia RTX GeForce 2080 / Quadro "Turing"

  • Auch wenn nVidia das so angibt, ist das eine teilweise Falschinformation. Die GeForce 2 beherrscht ein Subset vom Shader Model 1.0, dazu gehört Per-Pixel Lighting. Das ist ein Teil des T&L Featuresets (Transform & Lighting). Das "Transform" war die Frühform der Geometrieshader, heute bekannt als "Vertex Shader", der "Lighting" Part war die Frühform der Pixel Shader. Genau genommen hat sogar schon die GeForce 256 über solche Shader verfügt, siehe [hier]. Damals waren das noch Fixed-Function Einheiten, aber dennoch Shader.


    Diese Subsets erfüllen nur nicht die vollen Feature Sets eines Shader Models 1.0 oder gar 1.1, es sind aber ohne Zweifel Pixel Shader, und es gab auch Spiele, die sie z.B. auf einer GF2 nutzen konnten. Ich bilde mir ein, Soldier of Fortune wäre so ein Titel gewesen, aber das muß nicht stimmen - irgendein Shooter war es in jedem Fall.


    Die Aussage, die GF2 würde keinerlei Pixel Shader beherrschen ist damit definitiv falsch. Sie beherrscht nur keine, die die in Direct3D spezifizierten Shader Models voll erfüllen würde.

    1-6000-banner-88x31-jpg

    Stolzer Besitzer eines 3dfx Voodoo5 6000 AGP Prototypen:

    • 3dfx Voodoo5 6000 AGP HiNT Rev.A-3700 (defekt)

    [//wp.xin.at] - No RISC, no fun!

    QotY: Girls Love, BEST Love; 2018 - Lo and behold, for it is the third Coming; The third great Year of Yuri, citric as it may be!

    Einmal editiert, zuletzt von GrandAdmiralThrawn ()

  • Hmm das ist interessant. Ich hab jetzt nach dem heutigen Tag keinen Kopf mehr, der geeignet ist, sich da einzulesen, aber wenn das stimmt ist das ja schon interessant..

    Sind das denn sicher "nicht fest verdrahtete Funktionen"? Weil nur weil das ein oder andere Feature in ein spätere Spezifikation aufgenommen wird, heißt das mMn noch nicht, dass es sich allein gesehen um eine Art Shader handelt. Shader sind ja Funktionseinheiten, denen du Programme zum abarbeiten geben kannst ("programmierbar", wie das als Neuerung genannt wurde). Per-Pixel-Lightning hört sich für mich jetzt erstmal wie eine feste Funktion an, die immer gleich angesprochen wird und statisch funktioniert..


    Mehr Info wäre interessant, geht das aus den Dokumenten im Link hervor? Wie gesagt, jetzt brauch ich da nicht mehr reinkieken, mein Kopf ist Brei. Muss erstmal schlafen :D

  • Jo also, ich denke die Technologie wird wahrscheinlich Bestand haben, so wie fast alles, was jemals seinen Weg in die Direct3D API gefunden hat.

    Dazu habe ich eine Frage:

    In wie weit ist nVidias RTX "kompatibel" zur DirectX RayTracing (DXR) Schnittstelle?

    Ich meine mal gelesen zu haben, dass RTX wieder etwas Eigenes sei? Oder irre ich mich da?

    Voodoo5-PC: Athlon XP 2600+, Gigabyte GA-7VRXP, Voodoo 5 5500 AGP, 1,5GB RAM


    Realität ist eine Illusion, die durch Alkoholmangel hervorgerufen wird.
    MainPC: AMD Ryzen 7 2700X, ASRock X370 GamingX, 32 GB DDR4-2666 @ 3066 MHz, nVidia GeForce RTX 2080, Samsung 960 Evo NVMe SSD, Thermaltake Smart DPS 700W ( Stand 20.02.19 )

    Laptop: MacBook Pro (2017)

  • Die ersten "Pixel Shader" waren auch fixed Function. Sofern man das "Pixel Shader" nennen will. Volle Programmierbarkeit gab es imho bei nVidia sowieso erst ab G80, als auch die Unified Shader eingeführt wurden. Hier Mal eine [Quelle] dazu, das ist ein nVidia Technical Brief. Einige Infos zum darin erwähnten "nVidia Shading Rasterizer" der GeForce 2 gibt es auch noch auf der [nVidia Webseite] und im Rahmen eines Reviews der Karte bei [Anand]. nVidia nennt es auch explizit "Per-Pixel Shading".


    Allerdings sind es in der Tat Fixed-Function "Shader". Eben die Vorstufe zu den wirklich (zunehmend) programmierbaren Shadern späterer Generationen. Per-Pixel Lighting oder Dot3 Product Bump Mapping bezeichne ich aber trotzdem als Pixel Shader, auch wenn das aus heutiger Zeit vielleicht ein wenig übertrieben klingt - aber damals hat nVidia die Worte ja auch schon selbst in den Mund genommen gehabt. Der Nachfolger davon hieß marketingwirksam "nfiniteFX Engine", zu finden in der GF3, und zum ersten Mal wirklich voll kompatibel zu einem in Direct3D spezifizierten Shader Model (1.1).


    Der_Karlson : Die RTX unterstützt die DXR Schnittstelle. Mittels DXR realisiert z.B. Battlefield V seine Raytracing Effekte. Siehe [hier]. AMD hingegen hat nur "ein eigenes Süppchen" namens Radeon Rays, das aber nur im Profibereich und nur für OpenGL existiert, basierend auf Shadern. Da wird es wohl nie einen DXR Treiber für RT Emulation für den Desktop geben denke ich.

    1-6000-banner-88x31-jpg

    Stolzer Besitzer eines 3dfx Voodoo5 6000 AGP Prototypen:

    • 3dfx Voodoo5 6000 AGP HiNT Rev.A-3700 (defekt)

    [//wp.xin.at] - No RISC, no fun!

    QotY: Girls Love, BEST Love; 2018 - Lo and behold, for it is the third Coming; The third great Year of Yuri, citric as it may be!

  • Der_Karlson : Die RTX unterstützt die DXR Schnittstelle. Mittels DXR realisiert z.B. Battlefield V seine Raytracing Effekte. Siehe [hier]. AMD hingegen hat nur "ein eigenes Süppchen" namens Radeon Rays, das aber nur im Profibereich und nur für OpenGL existiert, basierend auf Shadern. Da wird es wohl nie einen DXR Treiber für RT Emulation für den Desktop geben denke ich.

    Lustig, dass selbst nvidia auf einer Ti nur "low" Settings für RayTracing empfiehlt :spitze:

    Voodoo5-PC: Athlon XP 2600+, Gigabyte GA-7VRXP, Voodoo 5 5500 AGP, 1,5GB RAM


    Realität ist eine Illusion, die durch Alkoholmangel hervorgerufen wird.
    MainPC: AMD Ryzen 7 2700X, ASRock X370 GamingX, 32 GB DDR4-2666 @ 3066 MHz, nVidia GeForce RTX 2080, Samsung 960 Evo NVMe SSD, Thermaltake Smart DPS 700W ( Stand 20.02.19 )

    Laptop: MacBook Pro (2017)

  • Für mich stellt sich eigentlich noch die Frage: Bis wann muss man mit einer DXR-fähigen Karte rechnen, auf der das Spiel auf Ultra laufen wird? So schnell wird es sicherlich nix geben?!

    Voodoo5-PC: Athlon XP 2600+, Gigabyte GA-7VRXP, Voodoo 5 5500 AGP, 1,5GB RAM


    Realität ist eine Illusion, die durch Alkoholmangel hervorgerufen wird.
    MainPC: AMD Ryzen 7 2700X, ASRock X370 GamingX, 32 GB DDR4-2666 @ 3066 MHz, nVidia GeForce RTX 2080, Samsung 960 Evo NVMe SSD, Thermaltake Smart DPS 700W ( Stand 20.02.19 )

    Laptop: MacBook Pro (2017)

  • Das läßt sich einfach schwer sagen. Ein Refresh wird's sicher nicht bringen, also wird man wohl definitiv auf die nächste Generation warten müssen. Keine Ahnung was AMD derweilen treibt, aber ich nehme Mal an, daß die eher hinten sein werden, nachdem sie bis jetzt noch nicht Mal irgendwie an eine 1080 Ti rankommen.


    Dem bisherigen Zyklus folgend... vielleicht 2020, frühestens? Und kein Mensch kann wissen wie schnell das Ding dann bei RT sein wird. Ist ja nicht so, als würde uns nVidia mit Einblicken in ihre GPU Roadmap segnen...

    1-6000-banner-88x31-jpg

    Stolzer Besitzer eines 3dfx Voodoo5 6000 AGP Prototypen:

    • 3dfx Voodoo5 6000 AGP HiNT Rev.A-3700 (defekt)

    [//wp.xin.at] - No RISC, no fun!

    QotY: Girls Love, BEST Love; 2018 - Lo and behold, for it is the third Coming; The third great Year of Yuri, citric as it may be!

  • Ich denke, wir werden "bald" erfahren, was AMD machen wird, bzw machen kann. Sony wird ja bei der Playstation 5 weiter auf AMD Hardware setzen. Man munkelt, dass das Ding 2020 released wird. Die Frage wird sein: Wird die Konsole voll auf 4K setzen, oder wird RayTracing implementiert. Beides zu realisieren halte ich für absolut unwahrscheinlich. Wie sollte AMD eine "kompakte" GPU aus m Hut zaubern, RayTracing in 4K darstellen kann?!


    Da Konsolen SDKs wahrscheinlich jetzt schon bei den Entwicklern herumgeistern, und da AMD erstaunlich ruhig zum Thema RayTracing ist, ist meine Vermutung: Playstation 5 wird eine 4K-NonRayTracing-Konsole, und AMD entwickelt zZ für diese Konsole eine GPU. Und daher werden wir von AMD bis 2020 wohl auch keine DXR-GPU am Desktop sehen.

    Also das ist das, was meine Glaskugel mir sagt...

    Voodoo5-PC: Athlon XP 2600+, Gigabyte GA-7VRXP, Voodoo 5 5500 AGP, 1,5GB RAM


    Realität ist eine Illusion, die durch Alkoholmangel hervorgerufen wird.
    MainPC: AMD Ryzen 7 2700X, ASRock X370 GamingX, 32 GB DDR4-2666 @ 3066 MHz, nVidia GeForce RTX 2080, Samsung 960 Evo NVMe SSD, Thermaltake Smart DPS 700W ( Stand 20.02.19 )

    Laptop: MacBook Pro (2017)

  • Das ist auch insofern realistisch, als daß die GPU Abteilung von AMD stark beschnitten worden ist, also monetär; Alles zugunsten der Entwicklung von Ryzen. Ich glaube einfach nicht, daß AMD momentan viel Spielraum im GPU Sektor hat. Und der Raytracing Craze interessiert Konsolenspieler vielleicht auch eher weniger als das technologieaffine "PC Gaming Master Race"... 4K/UHD hingegen wird schlagend, weil die Leute zunehmend solche Fernseher kaufen.


    Würde also durch die Bank Sinn ergeben.

    1-6000-banner-88x31-jpg

    Stolzer Besitzer eines 3dfx Voodoo5 6000 AGP Prototypen:

    • 3dfx Voodoo5 6000 AGP HiNT Rev.A-3700 (defekt)

    [//wp.xin.at] - No RISC, no fun!

    QotY: Girls Love, BEST Love; 2018 - Lo and behold, for it is the third Coming; The third great Year of Yuri, citric as it may be!

  • AMD weiß sicher woran es liegt und sie arbeiten dran.

    Mehr können sie im Moment nicht machen. Kam von denen nicht erst vor ein paar Tagen die Aussage Raytracing würde sich nicht lohnen bis nicht alle Karten von Low bis High End es "performant" können?

    Kann man jetzt mehrfach deuten. Könnte auch so viel heißen wie "Raytracing will be useless until we can provide our own products."


    Und ohne RTX rechnen die AMDs in Battlefield 5 ja gar nicht mal so schlecht. Die Vega 56 kommt der 2070 da schon sehr nahe.

    And der 1070 non-Ti zieht sie vorbei, wie auch die Vega 64 an der 2070 und 1080 non-Ti.

    Die RX 580 lässt dank 2GB mehr die 1060 hinter sich und ist nicht mehr weit weg von der 1070.

    So weit mein Stand von letzter Woche.

    Ob sich das durch Patches und Treiberupdates mittlerweile verändert hat, weiß ich nicht (hab's nicht so verfolgt seitdem).

    Voodoo-Kiste (seit 3dfx BayernLAN 2007):
    TUSL2-C, P3-S 1400, 512MB SDR, Voodoo 5 5500 AGP, 9,1GB IBM SCSI (OS), 40GB HDD (Games), Adaptec 2940-U2W SCSI
    Dualatin: GA-6VTXD, 2x P3-S 1400, 1GB SDR, 2x 60GB, Hercules Radeon 8500 128MB

    Work: ASRock X399 Taichi, AMD TR 1950X, 128GB RAM, GTX 1080, 480 GB SSD, 500GB NVME, 3x 2TB HDD

    Zock: GA-P67-D3-B3, i7 2600K 4,2GHz. 16GB RAM, RX 580 8GB, 240GB SSD, 1TB HDD

  • @GAT: Danke für die Aufklärung, war sehr interessant. Hatte das ähnlich im Kopf wie Tweakstone.


    BF5 ist m.E. nach ein ziemlich bescheidenes Spiel um die RTX Technik/ Karten zu präsentieren. In einem Onlineshooter zählen nun einmal FPS und ein niedriger Ping. Grafikspielereien sind da zwar nett, bleiben aber vorrangig nur "nett anzusehen". Das die Performance unterirdisch sein würde, war mir im Prinzip von Anfang an klar.


    Warten wir doch einfach mal das neue Metro ab, dort soll ja auch Ray Tracing zur Anwendung kommen, mal schauen wie da die Performance ist.

  • Ich finde es ja auch noch extra lustig, das man extra cores fuer RTX (Tensor cores hat). Mein Verstaendnis war immer, wenn man spezielle hardware hat, sei es Spezielle Cores oder den Algorithmus hardwired im chip, das man dann keinen Leistungsverlust hat, weil der Teil der hardware das halt uebernimmt. Aber vielleicht verstehe ich Hardware halt auch falsch, was ich bis jetzt doch ablehne.

  • Die Tensor Cores sind Spezialeinheiten für Machine Learning / Deep Learning, deren Befehlssatz ist also auf bestimmte Integerbefehle und Kombinationen davon getrimmt, die für neuronale Netzwerke optimal sind. Die kommen z.B. beim maschinell gelernten DLSS (Deep Learning Super Sampling) zum Einsatz. Der Spieleentwickler trainiert dabei ein neuronales Netzwerk auf einer RTX, das kann dort ja ruhig Monate laufen bis es antrainiert ist für das Spiel. Dann wird der State eingefroren, und deine Tensor Cores zu Hause spielen das fertig gelernte neuronale Netzwerk nur noch ab (ohne online Learning), um effiziente Glättung auf den Schirm zu zaubern.


    Die RT Einheiten sind separat ausgeführt.


    Und auch Hardware braucht Zeit für alles. Leistungsverlust wirst immer haben. Ein Intel 486er addiert ja auch nicht so schnell (auch nicht pro MHz) wie ein moderner Core i7 oder was auch immer.


    Müßtest Mal schauen, wie lahm das RT auf Shadern laufen würde, ohne Spezialeinheiten. Dann kannst wahrscheinlich einen Kaffee trinken gehen, bis der nächste Frame am Bildschirm angekommen ist... Sonst würde AMD schon pushen, um einen DXR Treiber um die Radeon Rays Technologie zu wickeln. Aber das Zeug ist für Echtzeitrendering einfach zu langsam, die RT Kerne der RTX also wohl doch zigmal schneller...

    1-6000-banner-88x31-jpg

    Stolzer Besitzer eines 3dfx Voodoo5 6000 AGP Prototypen:

    • 3dfx Voodoo5 6000 AGP HiNT Rev.A-3700 (defekt)

    [//wp.xin.at] - No RISC, no fun!

    QotY: Girls Love, BEST Love; 2018 - Lo and behold, for it is the third Coming; The third great Year of Yuri, citric as it may be!

  • Ich hab mal eine (vermeidlich blöde) Frage:
    Wenn man eine RTX übertaktet, was übertaktet man dann? Die Cuda-Cores? Die RT-Cores? Die Tensor-Cores? Oder alle gleichzeitig?

    Voodoo5-PC: Athlon XP 2600+, Gigabyte GA-7VRXP, Voodoo 5 5500 AGP, 1,5GB RAM


    Realität ist eine Illusion, die durch Alkoholmangel hervorgerufen wird.
    MainPC: AMD Ryzen 7 2700X, ASRock X370 GamingX, 32 GB DDR4-2666 @ 3066 MHz, nVidia GeForce RTX 2080, Samsung 960 Evo NVMe SSD, Thermaltake Smart DPS 700W ( Stand 20.02.19 )

    Laptop: MacBook Pro (2017)

  • Ich kann's dir nicht mit Sicherheit sagen, aber die Wahrscheinlichkeit ist sehr hoch, daß alles gemeinsam getaktet wird. Hot Clocks und mehrere Taktdomänen im Kern, das hat nVidia eigentlich schon mit Kepler fallen gelassen. Zumindest bei der Volta ist es auch so, daß die Tensor Kerne mitgetaktet werden. Der Einfachheit halber wird wohl auch Turing nur eine Taktdomäne für alles haben. Damit würdest also ROPs, Shader / CUDA Cores und RT Cores gleichsam übertakten.


    Aber das ist nur ein "educated guess", zu 100% wissen tu ich es nicht.

    1-6000-banner-88x31-jpg

    Stolzer Besitzer eines 3dfx Voodoo5 6000 AGP Prototypen:

    • 3dfx Voodoo5 6000 AGP HiNT Rev.A-3700 (defekt)

    [//wp.xin.at] - No RISC, no fun!

    QotY: Girls Love, BEST Love; 2018 - Lo and behold, for it is the third Coming; The third great Year of Yuri, citric as it may be!

  • Man übertaktet alles gemeinsam. Unterschiedliche Taktdomänen lohnen sich nicht, dafür sind moderne GPUs mittlerweile viel zu flexibel. Nicht benötigte oder wartende Einheiten werden blitzschnell schlafen gelegt und der Rest taktet flexibel je nach Auslastung, anliegender Spannung, Temperatur usw...


    ---


    Die kommende RTX 2060 wird scheinbar recht nahe bei der GTX 1080 liegen. Blöde ist irgendwie nur die künstliche Limitierung durch lediglich 6GB Speicher :(

    Alles in allem finde ich da die RTX 2070 sehr gelungen.

  • Sooo ich will mich nochmal zur Wort melden, mit meiner ASUS RTX2080.... Ich denke aber einen extra Thread braucht's dafür nicht, denn wirklich spektakulär ist die ganze Geschichte nicht.



    Erstmal kurz zum Tausch selbst: Ich habe meine GTX1080 Ti für 545 Euro verkauft - für 670 Euro hab' ich die ASUS geschossen. Sprich für 125 Euro habe ich bei der Leistung einen Sidestep gemacht und dafür "RTX Features" erhalten.


    Zur Leistung: Die Karte ist ohne OC etwa genauso schnell wie meine GTX1080 Ti, und mit jetzigem OC etwas schneller. Ich habe den Takt auf +102 MHz, den VRAM auf +604 MHz und das Powerlimit auf 120% im MSI Afterburner gestellt. Mein Benchmark-Ergebnis aus dem Superposition-Thread ist zwar gut und schön, aber nicht 24/7-Stabil, weshalb ich nach und nach mit dem Takt ein bisschen nach unten gegangen bin. Der VRAM ist hierbei wirklich ziemlich am Limit, die GPU nicht, denn ein höherer Takt wäre zwar drin, aber dann müsste der Lüfter auf ~80% drehen und die GPU-Temp steigt dennoch auf 84-85°C und das ist mir zu laut und zu heiß. Mit jetzigen Settings ist die Karte nur minimal lauter als ohne OC, und in Games pendelt die Temp. auf 74-78°C. Daher denke ich, habe ich den Sweetspot erreicht. Superposition-Score mit meinen 24/7-Settings: 7100, also kaum langsamer aber leiser und vor allem stabil :D

    Benchmarks sind zwar gut und schön, aber was ist mit Spielen? Die Leistung ist - wie zu erwarten - vorhanden und sollte auch noch in der Zukunft für WQHD mit max. Details reichen. Aber gut, das hat auch die GTX noch geschafft ;)

    Und wie schauts mit "RTX on" (und DLSS) aus? Was die Performance angeht: gut. Sowohl BF 5, als auch Metro lassen sich mit RTX high flüssig spielen. Flüssig heißt für mich: 60+ fps (bestenfalls 70, denn mein Monitor hat 70Hz). Metro spiele ich sogar mit DLSS (und VSync on) in WQHD und die fps sind praktisch auf 70 fps (=70Hz) festgenagelt. Selten, je nach Belichtungssituation, "bricht's" auch mal auf 60 ein, aber alles im grünen Bereich. Es gab ja die Meldungen, dass DLSS in Metro zu sehr verwaschener Grafik führt. Und auf Grund der verschlechterten Darstellungsqualität rutschen die fps trotz RTX wieder in spielbaren Regionen. Ich habe aber leider Metro erst nach dem DLSS-Patch gespielt; bei mir ist alles knackscharf.

    Und ist RayTracing nun "Grafik neu erfunden"? Ich sags mal so: nein :topmodel: Ja, die Spiegelungen in BF 5 sehen gut aus, WENN man explizit darauf achtet. Ja, die Gesamtbeleuchtung in Metro schaut auch sehr gut und vor allem atmosphärisch aus, aber auch mit "RTX off" schaut Metro richtig gut aus. Was ich übrigens bestätigen kann: Mit RTX ist das Spiel deutlich dunkler. Das mag realisitischer sein, aber machts auch schwieriger. Ich habe auch das Gefühl, dass die KI besser mit Dunkelheit zurecht kommt, als ich, da ich im Dunkeln leichter entdeckt werde, als dass ich die Gegner sehe. Funfact: ich hab jetzt die Gamma-Einstellungen höher gesetzt.... :bonk:


    Und sonst so? Was ist mit den 8 GB VRAM? Die werden nicht voll. Zumindest noch nicht. Und wenn mich das Overlay vom RivaTuner Tool vom Afterburner nicht anschwindelt, habe ich auch noch etwas Reserven. Von daher merkt man Stand heute noch keine Einschränkungen vom VRAM. Ich denke ehrlich gesagt auch, dass das noch eine weile so bleibt. Denn "11/12/16 GB VRAM-Karten" gibt's zwar, aber sind doch noch eher eine Seltenheit. Und solange 8 GB noch eher der Standard ist, werden 8 GB auch noch ne weile ausreichen - denke ich :)



    Fazit: Würde ich die Karte empfehlen? Wer technikbegeistert ist und scharf auf RTX ist, der wird auch seinen Spaß mit den neuen Features haben. Wer reine Leistung zum zocken sucht, der muss entweder zur 2080 Ti greifen, oder bleibt bei der letzten Generation. So wirklich vom Hocker gehauen hat mich die RTX 2080 also nicht - hergeben will ich sie aber auch nicht mehr, denn im direkten Vergleich ist RayTracing schon hübscher. Und wenn man es mal gesehen hat, will man es auch behalten ;)

    Voodoo5-PC: Athlon XP 2600+, Gigabyte GA-7VRXP, Voodoo 5 5500 AGP, 1,5GB RAM


    Realität ist eine Illusion, die durch Alkoholmangel hervorgerufen wird.
    MainPC: AMD Ryzen 7 2700X, ASRock X370 GamingX, 32 GB DDR4-2666 @ 3066 MHz, nVidia GeForce RTX 2080, Samsung 960 Evo NVMe SSD, Thermaltake Smart DPS 700W ( Stand 20.02.19 )

    Laptop: MacBook Pro (2017)

  • Ja moin nVidia schaltet RTX für Pascal frei: https://www.golem.de/news/rayt…gtx-frei-1903-140085.html


    Will jemand meine 2080 haben? Ich bau meine 1080TI wieder ein :spitze:

    Voodoo5-PC: Athlon XP 2600+, Gigabyte GA-7VRXP, Voodoo 5 5500 AGP, 1,5GB RAM


    Realität ist eine Illusion, die durch Alkoholmangel hervorgerufen wird.
    MainPC: AMD Ryzen 7 2700X, ASRock X370 GamingX, 32 GB DDR4-2666 @ 3066 MHz, nVidia GeForce RTX 2080, Samsung 960 Evo NVMe SSD, Thermaltake Smart DPS 700W ( Stand 20.02.19 )

    Laptop: MacBook Pro (2017)