GeForce RTX 3xxx Ampere & Radeon 6xxx XT RDNA2 aka Big Navi

  • Kompletter Irrwitz, der Kühler! Vom Highend kann ich mich mit meinem Slotlimit wohl verabschieden, zumindest solange ich kein Wasser im System will. Das Gerät ist wohl Mal wieder so richtig mit aller Gewalt entstanden. Dabei hätte nVidia den Push nach oben um jeden Preis eigentlich gar nicht so nötig jetzt?

    Was mich jedoch brennend interessieren würde: Wie sieht denn die Referenzversion der Karte aus? Oder gibt's bei der Ti gar keine?

    1-6000-banner-88x31-jpg

    Stolzer Besitzer eines 3dfx Voodoo5 6000 AGP Prototypen:

    • 3dfx Voodoo5 6000 AGP HiNT Rev.A-3700

    [//wp.xin.at] - No RISC, no fun!

    QotY: Girls Love, BEST Love; 2018 - Lo and behold, for it is the third Coming; The third great Year of Yuri, citric as it may be! Edit: 2019 wasn't too bad either... Edit: 2020... holy crap, we're on a roll here~♡! Edit: 2024, finally last year's dry spell is over!

    Quote Bier.jpg@IRC 2020: "Je schlimmer der Fetisch, desto besser!"

  • Bisher habe ich nichts mitbekommen, dass es auch eine FE geben soll.
    Für mich fühlt sich das eher wie ein Feldversuch der 40xx Serie an, denen man einen ähnlichen -wenn nicht höheren- Energieverbrauch nachsagt und die auch die neuen Netzteilstecker haben wird.
    Wie es kommt muss man abwarten.
    Für die leichte Mehrleistung der Ti finde ich den Aufwand halt schon sehr hoch.

    Voodoo-Kiste (seit 3dfx BayernLAN 2007):
    TUSL2-C, P3-S 1400, 512MB SDR, Voodoo 5 5500 AGP, 9,1GB IBM SCSI (OS), 40GB HDD (Games), Adaptec 2940-U2W SCSI
    Dualatin: GA-6VTXD, 2x P3-S 1400, 1GB SDR, 2x 60GB, Hercules Radeon 8500 128MB

    Work (CG): MSI TRX40 Creator, AMD TR 3970X, 128GB RAM, Titan RTX 24GB, Win10Pro

    Zock & Office: MSI X58 Pro-E, Xeon X5680 4,2GHz, 24GB RAM, RX590 8GB, KDE Neon

  • Kompletter Irrwitz, der Kühler! Vom Highend kann ich mich mit meinem Slotlimit wohl verabschieden, zumindest solange ich kein Wasser im System will.

    Dann nimm doch Öööl:

    https://www.pcbuildersclub.com/2018/04/mining…miner-abwaerme/

    https://www.pcgameshardware.de/Gehaeuse-Hardw…m-PC-V3-766115/

    :topmodel:

    Ich werde mich von keinem einzzzigen Prozzzessor trennen.
    Jedoch lockt es mich beinahe, ihn Dir zu überlassen, nur um zu sehen, wie er Dich in den Wahnsinn treibt :evil:

    Meine Begehren

  • Das mit "Feldtest für die 4000" wird vielleicht echt am ehesten stimmen... Weil wenn es nicht Mal eine FE (also ein Referenzmodell) gibt, dann will man vielleicht nur schauen wie die Boardpartner so mit "etwas mehr" TDP umgehen.

    Lotosdrache: Öltank frißt zuviel Platz! Nix über Mini-ITX! Zumindest nicht bei der Spielekiste. ;)

    1-6000-banner-88x31-jpg

    Stolzer Besitzer eines 3dfx Voodoo5 6000 AGP Prototypen:

    • 3dfx Voodoo5 6000 AGP HiNT Rev.A-3700

    [//wp.xin.at] - No RISC, no fun!

    QotY: Girls Love, BEST Love; 2018 - Lo and behold, for it is the third Coming; The third great Year of Yuri, citric as it may be! Edit: 2019 wasn't too bad either... Edit: 2020... holy crap, we're on a roll here~♡! Edit: 2024, finally last year's dry spell is over!

    Quote Bier.jpg@IRC 2020: "Je schlimmer der Fetisch, desto besser!"

  • Bisher habe ich nichts mitbekommen, dass es auch eine FE geben soll.

    Weil wenn es nicht Mal eine FE (also ein Referenzmodell) gibt, ...

    Sorry, ich war da anscheinend völlig auf dem Holzweg. Eine FE gibt es (Jeff Fisher hat sie Anfang Januar selbst in die Kamera gehalten). Um die ist es nur still geworden seitdem. Ist praktisch ne 3090 mit "Ti" hinten dran und hat den neuen 16Pin-Anschluss.
    Könnte also sowohl ein Feldversuch seitens der Boardpartner sein, als auch den Übergang zu den neuen Steckern einleiten.

    Voodoo-Kiste (seit 3dfx BayernLAN 2007):
    TUSL2-C, P3-S 1400, 512MB SDR, Voodoo 5 5500 AGP, 9,1GB IBM SCSI (OS), 40GB HDD (Games), Adaptec 2940-U2W SCSI
    Dualatin: GA-6VTXD, 2x P3-S 1400, 1GB SDR, 2x 60GB, Hercules Radeon 8500 128MB

    Work (CG): MSI TRX40 Creator, AMD TR 3970X, 128GB RAM, Titan RTX 24GB, Win10Pro

    Zock & Office: MSI X58 Pro-E, Xeon X5680 4,2GHz, 24GB RAM, RX590 8GB, KDE Neon

  • Hmm, ob das nur'n Mockup war? Leider sieht man auf dem Foto die Kühlerhöhe nicht so gut. Na Mal schauen! Dieser Ritt in Richtung 600W gefällt mir jedenfalls nicht, weil's mir halt nicht in die Pläne paßt. Mir wär's lieber die Karten blieben bei 2-Slot. Meine aktuelle 2.5-Slot war schon eine äußerst harte Herausforderung bei meinem Gehäuse. Und das geht sicher ned mit jeder 2.5-Slot Karte. Wenn die nur einen halben Millimeter dicker ist, isses vorbei. Bei so stark steigenden Abwärmen spielt's das halt so nicht mehr.

    Wahrscheinlich kauft man in Zukunft dann eh keine sonstigen Steckkarten mehr. Nur mehr alles onboard, und dann halt die fette CPU mit Kühler rein und drunter den 4-5 Slot Graka-Ziegelstein und die Hütte is eh voll. Und ITX is nur mehr zum Surfen geeignet.

    1-6000-banner-88x31-jpg

    Stolzer Besitzer eines 3dfx Voodoo5 6000 AGP Prototypen:

    • 3dfx Voodoo5 6000 AGP HiNT Rev.A-3700

    [//wp.xin.at] - No RISC, no fun!

    QotY: Girls Love, BEST Love; 2018 - Lo and behold, for it is the third Coming; The third great Year of Yuri, citric as it may be! Edit: 2019 wasn't too bad either... Edit: 2020... holy crap, we're on a roll here~♡! Edit: 2024, finally last year's dry spell is over!

    Quote Bier.jpg@IRC 2020: "Je schlimmer der Fetisch, desto besser!"

  • Hmm, ob das nur'n Mockup war? Leider sieht man auf dem Foto die Kühlerhöhe nicht so gut. Na Mal schauen! Dieser Ritt in Richtung 600W gefällt mir jedenfalls nicht, weil's mir halt nicht in die Pläne paßt. Mir wär's lieber die Karten blieben bei 2-Slot. Meine aktuelle 2.5-Slot war schon eine äußerst harte Herausforderung bei meinem Gehäuse. Und das geht sicher ned mit jeder 2.5-Slot Karte. Wenn die nur einen halben Millimeter dicker ist, isses vorbei. Bei so stark steigenden Abwärmen spielt's das halt so nicht mehr.

    Wahrscheinlich kauft man in Zukunft dann eh keine sonstigen Steckkarten mehr. Nur mehr alles onboard, und dann halt die fette CPU mit Kühler rein und drunter den 4-5 Slot Graka-Ziegelstein und die Hütte is eh voll. Und ITX is nur mehr zum Surfen geeignet.

    Der Rechner ist doch schon längst zur aufrüstbaren Spielekonsole mutiert. ;)

    Meiner Meinung nach ist High Hardware im ITX System der falsche Ansatz. Energieverbrauch und die daraus resultierende Hitze steht oftmals nicht im Verhältnis zur erzielten Leistung.

    In meinem Hauptsystem schlummert noch eine ehemalige HighEnd Pascal Karte.

    Diese war als FE völlig ungeeignet, der Wechsel zu einer wuchtigen 2,5Slot Partner Karte war Balsam für die Ohren und die Seele.

    Trotzdem läuft diese mit einer angepassten Spannungskurve....

    Dieses Rumfrickeln nervt aber mit der Zeit.

    Daher werde ich in Zukunft einen völlig anderen Weg gehen.

    Sobald ein aktuelles 50Ti Modell meine 80Ti sinnvoll ersetzen kann, werde ich mir diese auch kaufen.

    Diese Karten verbauchen deutlich weniger Energie, werden nicht so heiß, brauchen entsprechend kleinere Kühler.

    Bei den CPU's tut sich leider im Moment auch Recht wenig (oder ich habe es nicht mitbekommen). So warte ich immernoch auf einen flotten 35W Ryzen. Der Athlon 3000G ist ein guter Ansatz, aber 2Kerne sind doch schon dürftig. Ja sogar ein mittlerweile 10Jahre alter Core i3 2100 brachte 2C/4T und hat nur ungefähr 45W verbraten....

    Lange Rede kurzer Sinn!

    Ich will weg vom Heizkraftwerk.

  • Ja, seit ThomsenXE das vorgezeigt hat bin ich halt auch ein bißchen begeistert davon, sehr viel Leistung in eine sehr kleine, tragbare Box zu bringen. ;) Das ist schon cool, und eine eigene Art Herausforderung beim Systembau. Laustärke ist mir so gut wie wurscht. Es gibt da natürlich auch bei mir irgendwo Grenzen, aber die RX 6900 XT ist in Referenzausführung eh schon so leise im Vergleich zur vorangegangenen Vega 64 mit Radiallüfter und aggressiver Lüfterkurve. Wobei auch die Kurve von der jetzigen Karte auf höhere rpm hin getrimmt ist. Also ich schwimme da ned so auf der Silentwelle. Hab' eh auch gut isolierende, geschlossene Kopfhörer, Lautsprecher gibt es hier schon ewig keine mehr.

    Bei den CPUs war ich nicht so wählerisch. 65W sind okay für mich. Mehr soll es nicht sein, muß es aber auch nicht sein. Mit dem Energiebudget kriege ich genug CPU Leistung für aktuelle Spiele. 4 statt 6 Kerne wären auch noch denkbar, aber da gab es nichts so recht attraktives im Zen 3 Bereich.

    Problem: Es sollte halt schon genug Leistung rauskommen, um aktuelle Titel auf hohen Auflösungen und dabei mit hohen fps spielen zu können. Ich wage anzuzweifeln, daß eine hypothetische 3050 Ti (gibt's ja noch keine, oder?) reichen würde, um in aufwendigeren, aktuellen Spielen meine 3840×1600 zu treiben und dabei >60 fps rauszulassen. Und auf Quake 1 Level will ich auch ned alles runterdrehen müssen.

    1-6000-banner-88x31-jpg

    Stolzer Besitzer eines 3dfx Voodoo5 6000 AGP Prototypen:

    • 3dfx Voodoo5 6000 AGP HiNT Rev.A-3700

    [//wp.xin.at] - No RISC, no fun!

    QotY: Girls Love, BEST Love; 2018 - Lo and behold, for it is the third Coming; The third great Year of Yuri, citric as it may be! Edit: 2019 wasn't too bad either... Edit: 2020... holy crap, we're on a roll here~♡! Edit: 2024, finally last year's dry spell is over!

    Quote Bier.jpg@IRC 2020: "Je schlimmer der Fetisch, desto besser!"

  • Der größte Nachteil der LowEnd Grafikkarten ist die beschnittene Speicherbandbreite. Das ging mit der TNT2 M64 los und hört mit der 3050 auch nicht auf.

    Wer mit 1080p zufrieden ist, kann froh sein, dass die Hersteller endlich genug Bandbreite hierfür liefern. Aber natürlich wäre die Auflösung deiner Wahl für diese Grafikkarten unmachbar. ;)

    Eine aktuelle RX6500XT könnte noch nicht einmal Doom3 in dieser Auflösung flüssig stemmen. :D

    Das dir die Lautstärke egal ist, ist natürlich ein großer Pluspunkt für dich!

    So kannst du letzten Endes auch 1KW mit Luft kühlen, es stört ja nicht.

    Ich für mein Teil nutze auch einen 65W Ryzen.

    Leider ist der/die/das IPC geschätzt vom 1700er nur auf dem Level von Sandy Bridge, sodass ich gerne wechseln möchte.

    Athlon Gold 3150GE oder Ryzen 5600GE habe ich soeben entdeckt. Mit 35W finde ich diese hoch interessant, leider glänzen beide mit Abwesenheit in den Shops.

  • Leider klappt das so nicht. Ab einer gewissen Abwärme kriegst du das mit zuwenig Metall einfach nicht mehr weg mit Luft. Das kriegst du einfach nicht mehr hin! Deswegen werden die Dinger ja so riesig, weil's einfach nicht mehr geht ohne größere Kühlblöcke.

    Daher frage ich mich auch ehrlich wie die jemals die (scheinbar angepeilten?) 600W TDP schaffen wollen. Das is ja komplett wahnsinnig. Also ohne Wasser kann ich mir das schwer vorstellen. Außer der Plan wird wieder gekübelt... was weiß ich.

    1-6000-banner-88x31-jpg

    Stolzer Besitzer eines 3dfx Voodoo5 6000 AGP Prototypen:

    • 3dfx Voodoo5 6000 AGP HiNT Rev.A-3700

    [//wp.xin.at] - No RISC, no fun!

    QotY: Girls Love, BEST Love; 2018 - Lo and behold, for it is the third Coming; The third great Year of Yuri, citric as it may be! Edit: 2019 wasn't too bad either... Edit: 2020... holy crap, we're on a roll here~♡! Edit: 2024, finally last year's dry spell is over!

    Quote Bier.jpg@IRC 2020: "Je schlimmer der Fetisch, desto besser!"

  • 600W sind einfach nur dämlich.

    Dann sollte Nvidia lieber wieder SLi aufleben lassen, damit ließe sich wunderbar 4K oder 8K bei angemessener Bildrate realisieren.

    Zwei 3070er sollten deutlich weniger Energie verbrauchen und genauso flott sein.

    Eine GPU ist stark Parallelisiert, eine zweite würde diese Kette sinnvoll weiter führen.

  • Parallelisierung haben wir sehr gut gemerkt, als wir im letzten Jahr eine 600 Frame Animation auf einem Gespann mit einer 1080 und einer 3060 in Redshift gerendert hatten.
    Der Renderer ist sehr flexibel im Mischen von zwei bis drei Generationen. Außerdem liebt Redshift viel VRAM, danach Chipgeschwindigkeit.
    Darum wären zB zwei 3060 mit je 12GB empfehlenswerter als eine 3080.
    Sollte der VRAM mal ausgehen, wird der RAM genutzt.
    Der Stromverbrauch hält sich in Grenzen da nur die CUDA Cores ausgelastet werden und die restlichen Einheiten des Chips brach liegen.
    Die CPU hat in der Zeit fast so gut wie gar nichts zu tun.

    Aus diesem Grund bezweilfe ich, dass ich in Zukunft bei der CPU je über 32C/64T gehe. Der Arnold Renderer, der seit einigen Jahren nun standardmäßig bei Maya dabei ist, läuft angeblich auch nur bis 64 Threads. Für die nächsten 64 muss man eine weitere Lizenz kaufen :bonk:

    Also in Zukunft eher was in Richtung zweier 4070er, sofern nVidia mit dem VRAM nicht so geizt ;)

    Voodoo-Kiste (seit 3dfx BayernLAN 2007):
    TUSL2-C, P3-S 1400, 512MB SDR, Voodoo 5 5500 AGP, 9,1GB IBM SCSI (OS), 40GB HDD (Games), Adaptec 2940-U2W SCSI
    Dualatin: GA-6VTXD, 2x P3-S 1400, 1GB SDR, 2x 60GB, Hercules Radeon 8500 128MB

    Work (CG): MSI TRX40 Creator, AMD TR 3970X, 128GB RAM, Titan RTX 24GB, Win10Pro

    Zock & Office: MSI X58 Pro-E, Xeon X5680 4,2GHz, 24GB RAM, RX590 8GB, KDE Neon

  • Tja Mal sehen was die Zukunft bringt.

    Mit RTX40 habe ich mich noch gar nicht beschäftigt, glänzte die 30er doch mehr mit Abwesenheit als mit Leistung.

    Erwarten würde ich einen deutlichen Zuwachs an Performance.

    NV schmiss ja fast immer ein Chip in zwei Generation raus, die sich nur marginal unterschieden.

    (TNT/TNT2, GeForce 256/2... 6800/7800... 680/780... RTX20/30)

    Sollte also mit RTX40 wieder eine ordentliche Schippe drauf gelegt werden.

    Bleibt nur die Frage ob es Sinn macht?

    Die Großteil der Spieler dudelt mit 1050Ti oder 1060.

    Das müssen die Spieleentwickler berücksichtigen, wollen diese ihre Software verkaufen.

    Ich für mein Teil könnte die nächsten Jahre wunderbar mit einem sehr schnellen 4 Kerner auskommen.

    So habe ich in den meisten Spielen kein riesen Unterschied zwischen Core 3770 oder Ryzen 1700 feststellen können.

    Noch winziger die Differenz zwischen Xeon1650 und Ryzen 3500X.

    Dann suche ich mir lieber eine 35W CPU und freue mich über niedrige Temperaturen. :)

  • Was Games angeht sollte für jeden was dabei sein. Ist auch anspruchsabhängig zB möglichst hohe FPS im ESports-Bereich oder "RTX on" in Cyberpunk bei 2160p.

    Wobei das momentane Raytracing mit seinen 1-2 Rays pro Pixel und den sich daraus ergebenden Nutzungsmöglichkeiten noch ein paar Jahre braucht.

    Der Denoiser und DLSS machen da schon ordentlich Boden gut.

    Aber Du hast scho Recht. Über die Unterstützung bis runter zu Maxwell macht man sich schon Gedanken. Gefühlt mehr als vorher.

    Ich kenne Kollegen, die in ihren Studios / Teams noch mit 6800k und GTX 1070 arbeiten.

    Hatte selbst bis zu Beginn der Pandemie auch noch so ein Teil auf Arbeit. Und Software wie Substance, Maya & Co wird auch immer anspruchsvoller.

    Die Sache ist aber auch die, wenn Du jetzt ein AAA Game anfängst, bist Du in der Regel die ersten zwei Jahre in der Pre-Production,

    danach die nächsten drei bis vier in der Production bis zum Release. Schwer zu sagen, wo die Hardware in den nächsten sechs Jahren stehen wird.

    Da hängen viele Faktoren mit rein, aber Unterstützung für ältere Hardware ist -wie Du schon sagst- im letzten Jahr zu einem größeren Thema geworden.

    Voodoo-Kiste (seit 3dfx BayernLAN 2007):
    TUSL2-C, P3-S 1400, 512MB SDR, Voodoo 5 5500 AGP, 9,1GB IBM SCSI (OS), 40GB HDD (Games), Adaptec 2940-U2W SCSI
    Dualatin: GA-6VTXD, 2x P3-S 1400, 1GB SDR, 2x 60GB, Hercules Radeon 8500 128MB

    Work (CG): MSI TRX40 Creator, AMD TR 3970X, 128GB RAM, Titan RTX 24GB, Win10Pro

    Zock & Office: MSI X58 Pro-E, Xeon X5680 4,2GHz, 24GB RAM, RX590 8GB, KDE Neon

  • Jo kein Wunder wenn man keine neue GPU Hardware mehr kaufen kann! :topmodel: Oder zumindest zu keinem für die meisten Leute annehmbaren Preis. Aber was Parallelisierung angeht, sind GPGPU und Echtzeitrendering denke ich zwei Paar Schuhe, die man trennen sollte, völlig wurscht ob gerastert oder raytraced bei Echtzeit. Im Offlinerendering hast du einfach diese Synchronisationsprobleme nicht in Multi-GPU. Oder halt nicht die gleichen. Ich für meinen Teil will nVidia SLi eigentlich (für's Spielen, ich pfeif' auf GPGPU, ich arbeite nicht mit der GPU!) nicht zurück. Das war in Summe vielleicht 10% Spaß und 90% nur haarsträubender Ärger und Herumhacken im Treiber, damit das Zeug mit den anvisierten Spielen wirklich lief. Vor allem fehlerfrei. Und dann noch mikrorucklerfrei, uh.

    Mit zunehmend moderneren Engines isses mit der Unterstützung nur schlimmer geworden. Wahrscheinlich gibt es da zuviele intra- und inter-Frame Abhängigkeiten bei den Shadern, oder es liegt am Deferred Shading, was weiß ich. Keine Ahnung. Mir auch wurscht. Irgendwo hört sich der Spaß auf. Und ich hatte einige nVidia SLI Systeme, so isses ja ned. 2 × 7800 GTX, 2 × GTX 285, 2 × GTX 580 und kurzzeitig 2 × GTX 680. Dann hat's mir gereicht damit. Das letzte echt astrein funktionierende SLI war von 3dfx. Nur war das halt in einer Zeit von fixed Function Pipelines und viel simpleren Engines und damit einhergehend auch simplerem Multi-GPU im Echtzeitrendering. Aber bei NV war die Rückkehr zur Single GPU ein Augenöffner für mich. Gefühlt war alles viel flüssiger und weicher in der Animation als vorher. Tjo. Weil das SLI Zeug wohl dauernd Probleme mit dem Timing der Frames in Alternate Frame Rendering hatte. Und Split Frame Rendering hat ab einem gewissen Zeitpunkt eh quasi nirgends mehr funktioniert.

    Und ich mußte nicht mehr für 2 von 3 Spielen ewig lang undokumentierte Flags im Treiber umsetzen und korrekte Kombinationen eben dieser undokumentierten (!) Flags finden mit denen der Dreck endlich so lief wie er sollte. Nein danke. Für das fehlen mir heute echt die Zeit und die Muße.

    Wenn, dann muß das so gehen:

    1. SLI oder CF global im Treiber einschalten
    2. Tadaa, funktioniert fehler- und mikrorucklerfrei und mit nahe-linearer Skalierung in allen Spielen
    3. Profit.

    Leider sind wir da weit weg von der implementierten Realität die wir da hatten. Kein Wunder daß nVidia und AMD diese Technologie aussterben lassen, kriegen's ja scheinbar beide nicht hin. Da is Single GPU für den Spieler gefühlt schon deutlich einfacher und angenehmer heutzutage, finde ich.

    Aber es sollte halt Grenzen geben. Volle ATX Baubreite is ja noch das eine, aber wenn die Dinger Mal 4-5 Slots hoch werden, das ist schon etwas... nicht mehr so großartig. Soweit daß wir keine IPC-Steigerungen oder Die Shrinks mehr hinbekommen und deswegen auf sowas setzen müssen sollten wir noch nicht sein?

    1-6000-banner-88x31-jpg

    Stolzer Besitzer eines 3dfx Voodoo5 6000 AGP Prototypen:

    • 3dfx Voodoo5 6000 AGP HiNT Rev.A-3700

    [//wp.xin.at] - No RISC, no fun!

    QotY: Girls Love, BEST Love; 2018 - Lo and behold, for it is the third Coming; The third great Year of Yuri, citric as it may be! Edit: 2019 wasn't too bad either... Edit: 2020... holy crap, we're on a roll here~♡! Edit: 2024, finally last year's dry spell is over!

    Quote Bier.jpg@IRC 2020: "Je schlimmer der Fetisch, desto besser!"

  • So isses, heutzutage macht man (im Gegensatz zu früher) im Real Time Rendering halt einiges an Tricksereien, für die man Daten / Infos nicht nur aus dem letzten, sondern aus ein paar vorherigen Frames braucht.

    zB. nen Motion Vector. Wenn die für einen der letzten Frames zuständige GPU auch nur ein paar ms hinten dran ist, hast Deine Mikroruckler.

    Eines der wenigen Paradebeispiele, das es wirklich gut hinbekommen hat, war Shadow of the Tomb Raider. Oder war es Rise of the Tomb Raider?

    Weiß ich jetzt nimmer hundertprozentig. Auf jeden Fall war das für die Devs sehr zeitaufwändig, erforderte eine Menge Hirnschmalz und konnte bei einem Treiberupdate auch wieder auseinanderfallen.

    Ich glaub das war bei den alten Forward Renderern (zB. Id Tech 4) noch einfacher. Die hatten aber auch ihre Grenzen. Zum Beispiel wurde für jede Lichtquelle eine Oberfläche nochmal berechnet.

    Gut, dass Doom 3 ein dunkler Gruselshooter war ;D

    In einem Deferred Renderer kannst so viele Lichtquellen wie Pixel am Schirm haben ohne merkbaren Leistungsverlust.

    Deferred Rendering ist zwar sehr geil, hat auch so seine eigenen Probleme gebracht. zB das Layering bei Haaren vor SSS Shadern.

    Beim Offline Rendering hast das Problem natürlich nicht. Da wird jede GPU als unabhängiger Rendernode behandelt und ihr immer das nächste Render Tile zugeteilt.

    Der VRAM wird bei zwei Grakas im System auch nicht einfach so zusammengelegt. Außer Du hast NVLink.

    Dieses Jahr steht UE5 auf dem persönlichen Lehrplan. Das schiebe ich schon zu lange vor mich her...

    Aber die scheinen da ein paar sehr coole Sachen zu machen. Da hoffe ich halt, dass die Titan das noch packt.

    Voodoo-Kiste (seit 3dfx BayernLAN 2007):
    TUSL2-C, P3-S 1400, 512MB SDR, Voodoo 5 5500 AGP, 9,1GB IBM SCSI (OS), 40GB HDD (Games), Adaptec 2940-U2W SCSI
    Dualatin: GA-6VTXD, 2x P3-S 1400, 1GB SDR, 2x 60GB, Hercules Radeon 8500 128MB

    Work (CG): MSI TRX40 Creator, AMD TR 3970X, 128GB RAM, Titan RTX 24GB, Win10Pro

    Zock & Office: MSI X58 Pro-E, Xeon X5680 4,2GHz, 24GB RAM, RX590 8GB, KDE Neon

  • Und Deferred Rendering unterstützt keine Transparenz, was umständlich dann per Dithering "emuliert" werden muss und oftmals scheiße aussieht.

    "Du bist und bleibst a Mensch und du kannst eben net deine menschlichkeit überwinden."

    Dennis_50300

  • Ich glaube schon das wir in nächster Zeit keine nennenswerten IPC Steigerungen erfahren.

    Womöglich liegt es daran, dass es auf dem Consumermarkt keinen Bedarf gibt.

    Athlon 64 und Sandy Bridge waren wohl die vorerst letzten großen Sprünge.

    Bei beiden wanderte der Speichercontroller auf den CPU Die.

    Aus Jux spiele ich ab und zu mit einem alten Athlon 64 FX 62, geparrt mit 6GB DDR2 (Dual Channel) neue Spiele. Stellst dem Oldie eine 1080ti zur Seite wunderst dich das du Resi7 mit 100fps spielen kannst.

    Klar, Open World Games packt so ein System nicht, die Flut an Daten ist einfach zu groß.

    Um auf Nvidias 3090ti zurück zu kommen.

    Das 600W Bügeleisen erinnert mich an die letzten Atemzüge von Netburst.