Beiträge von eLuSiVe

    ... und habe eine 4090 gekauft. :spitze:

    Sauber ^^
    Ich harre noch aus, um zu sehen wie sich die Steckerproblematik entwickelt. Auch wegen eines neuen NT's.

    Die 4080 startete ja gestern. Was ist denn da mit den Preisen los? 1500+ € für das Teil? Hat da nVidia einfach mal aus dem alten 90er Preis einen 80er gemacht?

    Musste gerade an die AOpen Aeolus GF 4 Ti4200 denken, die ich vor 20 Jahren für 175€ gekauft hatte (und die Vendor-Auswahl war groß). Viel Knete für einen Schüler aber ordentlich Power für den Preis.
    Mit heute sicherlich nicht mehr vergleichbar.

    Die 4090 ist mit 16384 ALUs ja noch nicht mal der AD102 Vollausbau. Der wäre 18432. Evtl. schieben's noch eine Ti nach.

    Zwischen ihr und der 80er ist auch noch ordentlich Platz.

    In Sachen Multicore und Effizienz (verglichen mit dem 12900K) sollen die neuen AMDs ja recht gut sein.
    Im Spielebereich hat sich weniger getan. Aber gut, das ist jetzt nicht die Welt.
    Schauen wir mal was der 13xxxer Intel bringen wird.
    Sind die X3D Versionen der 7000er sicher geplant (hab da vielleicht was nicht mitbekommen)?

    Hey Dunge,

    schön Dich wieder zu sehen hier!

    Tut mir sehr Leid das zu hören mit Deinem Vater und wünsch Euch viel Kraft dafür sowie gute Erholung.

    Freud und Leid sind immer nah beeinander.

    Finde es gut, wie Du die Sache angehst und trotz der Herausforderungen das Positive in dem siehst, was Du machst.

    Dran bleiben!

    Die Ada Version der RTX 6000 wäre auch interessant. Da ich auf der Workstation nicht zocke (zocke überhaupt noch sehr selten), werfe ich auf die Karte auch mal einen Blick. 48GB VRAM wären schon sehr nett. Kann die ganze Szene in den Grafikspeicher schaufeln und die GPU muss so nicht mehr auf die langsamen Daten vom RAM warten.
    Sehr teuer sind sie halt, die Dinger ... ;(

    Was man so ließt sehen viele die 4080 12GB als eine umetikettierte 4070 zum doppelten Preis.
    Lassen wir's mal so liegen und warten den 3.11 ab. AMD hat es ja heute nochmal verlauten lassen, dass die Party an dem Tag steigen soll.

    Hey zusammen!

    Schon wieder zwei Jahre vergangen ... oh Mann.

    nVidia's Live Stream zur neuen Ada GPU bzw. RTX 40xx Serie wurde heute ausgestrahlt.

    Habe ihn leider nicht komplett ansehen können und mir daher im Nachhinein die Meldungen auf PCGH & Co durchgelesen.

    Wie immer gilt es mehr unabhängige Tests abzuwarten.

    Im Ratracing soll die 4090 zwischen 2-4 mal mehr Leistung als eine 3090 Ti liefern.

    Verspricht zumindest nVidia :/

    Von der 4080 soll's zwei Modelle geben. Eine mit 12GB und eine mit 16GB und ein paar weiteren Unterschieden.

    Die 12GB Variante soll im Vergleich zu einer 3090 angeblich auch noch die doppelte RT Leistung liefern können.

    Hier mal eine grobe Eckdatenliste:


    RTX 4090 24GB an 384Bit, 16384 ALUs, 1599 USD

    RTX 4080 16GB an 256Bit, 9728 ALUs, 1199 USD

    RTX 4080 12GB an 192Bit, 7689 ALUs, 899 USD

    Bei den Preisen muss man sehen, wie es sich entwickelt. Vor allem nach der Erfahrung der letzten zwei Jahre und in Anbetracht der aktuellen Lage.

    Das Argument Stromverbrauch dürfte diesmal größer sein denn je.

    Ich merk's selbst an der Stromrechnung am Ende eines Monats, wenn meine Kiste in der Zeit länger am Rendern war.

    Die 4090 wird zwar mehr saufen als meine alte RTX Titan, aber wenn sie ein Frame mit den neuen RT Cores 4 mal schneller rendert könnte sich das auch wieder ausgleichen?

    Das ist evtl. viel zu einfach gerechnet. Ich warte jetzt mal bis die Karten draußen sind. Ein neues Netzteil brauch ich nämlich auch, wenn ich ne 4090 betreiben will.

    Allein schon wegen der neuen Anschlüsse nehm ich an.

    AMD hat glaube ich heute morgen was vom 3. November als Vorstellungstermin von RDNA3 genannt.
    Wobei ich nicht sicher bin, ob damit die Vorstellung oder der Verkaufsstart gemeint ist. Evtl. weiß jemand von Euch da näheres.

    Anspannung und Aufregung scheinen auf jeden Fall groß zu sein in den entsprechenden Foren. Neue CPUs von AMD und Intel, neue GPUs von AMD und nVidia und wenn's klappt auch Intels A770 GPU.

    So isses, heutzutage macht man (im Gegensatz zu früher) im Real Time Rendering halt einiges an Tricksereien, für die man Daten / Infos nicht nur aus dem letzten, sondern aus ein paar vorherigen Frames braucht.

    zB. nen Motion Vector. Wenn die für einen der letzten Frames zuständige GPU auch nur ein paar ms hinten dran ist, hast Deine Mikroruckler.

    Eines der wenigen Paradebeispiele, das es wirklich gut hinbekommen hat, war Shadow of the Tomb Raider. Oder war es Rise of the Tomb Raider?

    Weiß ich jetzt nimmer hundertprozentig. Auf jeden Fall war das für die Devs sehr zeitaufwändig, erforderte eine Menge Hirnschmalz und konnte bei einem Treiberupdate auch wieder auseinanderfallen.

    Ich glaub das war bei den alten Forward Renderern (zB. Id Tech 4) noch einfacher. Die hatten aber auch ihre Grenzen. Zum Beispiel wurde für jede Lichtquelle eine Oberfläche nochmal berechnet.

    Gut, dass Doom 3 ein dunkler Gruselshooter war ;D

    In einem Deferred Renderer kannst so viele Lichtquellen wie Pixel am Schirm haben ohne merkbaren Leistungsverlust.

    Deferred Rendering ist zwar sehr geil, hat auch so seine eigenen Probleme gebracht. zB das Layering bei Haaren vor SSS Shadern.

    Beim Offline Rendering hast das Problem natürlich nicht. Da wird jede GPU als unabhängiger Rendernode behandelt und ihr immer das nächste Render Tile zugeteilt.

    Der VRAM wird bei zwei Grakas im System auch nicht einfach so zusammengelegt. Außer Du hast NVLink.

    Dieses Jahr steht UE5 auf dem persönlichen Lehrplan. Das schiebe ich schon zu lange vor mich her...

    Aber die scheinen da ein paar sehr coole Sachen zu machen. Da hoffe ich halt, dass die Titan das noch packt.

    Was Games angeht sollte für jeden was dabei sein. Ist auch anspruchsabhängig zB möglichst hohe FPS im ESports-Bereich oder "RTX on" in Cyberpunk bei 2160p.

    Wobei das momentane Raytracing mit seinen 1-2 Rays pro Pixel und den sich daraus ergebenden Nutzungsmöglichkeiten noch ein paar Jahre braucht.

    Der Denoiser und DLSS machen da schon ordentlich Boden gut.

    Aber Du hast scho Recht. Über die Unterstützung bis runter zu Maxwell macht man sich schon Gedanken. Gefühlt mehr als vorher.

    Ich kenne Kollegen, die in ihren Studios / Teams noch mit 6800k und GTX 1070 arbeiten.

    Hatte selbst bis zu Beginn der Pandemie auch noch so ein Teil auf Arbeit. Und Software wie Substance, Maya & Co wird auch immer anspruchsvoller.

    Die Sache ist aber auch die, wenn Du jetzt ein AAA Game anfängst, bist Du in der Regel die ersten zwei Jahre in der Pre-Production,

    danach die nächsten drei bis vier in der Production bis zum Release. Schwer zu sagen, wo die Hardware in den nächsten sechs Jahren stehen wird.

    Da hängen viele Faktoren mit rein, aber Unterstützung für ältere Hardware ist -wie Du schon sagst- im letzten Jahr zu einem größeren Thema geworden.

    Parallelisierung haben wir sehr gut gemerkt, als wir im letzten Jahr eine 600 Frame Animation auf einem Gespann mit einer 1080 und einer 3060 in Redshift gerendert hatten.
    Der Renderer ist sehr flexibel im Mischen von zwei bis drei Generationen. Außerdem liebt Redshift viel VRAM, danach Chipgeschwindigkeit.
    Darum wären zB zwei 3060 mit je 12GB empfehlenswerter als eine 3080.
    Sollte der VRAM mal ausgehen, wird der RAM genutzt.
    Der Stromverbrauch hält sich in Grenzen da nur die CUDA Cores ausgelastet werden und die restlichen Einheiten des Chips brach liegen.
    Die CPU hat in der Zeit fast so gut wie gar nichts zu tun.

    Aus diesem Grund bezweilfe ich, dass ich in Zukunft bei der CPU je über 32C/64T gehe. Der Arnold Renderer, der seit einigen Jahren nun standardmäßig bei Maya dabei ist, läuft angeblich auch nur bis 64 Threads. Für die nächsten 64 muss man eine weitere Lizenz kaufen :bonk:

    Also in Zukunft eher was in Richtung zweier 4070er, sofern nVidia mit dem VRAM nicht so geizt ;)

    Bisher habe ich nichts mitbekommen, dass es auch eine FE geben soll.

    Weil wenn es nicht Mal eine FE (also ein Referenzmodell) gibt, ...

    Sorry, ich war da anscheinend völlig auf dem Holzweg. Eine FE gibt es (Jeff Fisher hat sie Anfang Januar selbst in die Kamera gehalten). Um die ist es nur still geworden seitdem. Ist praktisch ne 3090 mit "Ti" hinten dran und hat den neuen 16Pin-Anschluss.
    Könnte also sowohl ein Feldversuch seitens der Boardpartner sein, als auch den Übergang zu den neuen Steckern einleiten.

    Bisher habe ich nichts mitbekommen, dass es auch eine FE geben soll.
    Für mich fühlt sich das eher wie ein Feldversuch der 40xx Serie an, denen man einen ähnlichen -wenn nicht höheren- Energieverbrauch nachsagt und die auch die neuen Netzteilstecker haben wird.
    Wie es kommt muss man abwarten.
    Für die leichte Mehrleistung der Ti finde ich den Aufwand halt schon sehr hoch.

    Bin gerade auf CB über den Artikel zur 3090 Ti von MSI gestolpert und hab' mir die Specs, Verbrauchs- sowie Leistungswerte angesehen.

    • 1×16-Pin (PCIe 5.0)
    • 1.880 MHz (Standard Mode) 1.900 MHz (Extreme Performance) Nun ja 20MHz sind schon extrem mehr ;D
    • 480 Watt Standard-TDP
    • 1.000 Watt PSU empfohlen
    • 24 GB GDDR6X mit 21,0 Gb/s
    • 10.752 CUDA-Cores
    • 3,5 Slots braucht das Teil für die gesamte Kühlung.

    Kommt laut ein paar Twitterbeiträgen angeblich auf bis 10% mehr Leistung in 2160p raus.

    Sowas kauft man sich doch inzwischen eher um's zu erwähnen, als zu gebrauchen? :/

    UVP soll angeblich gleich der standard 3090 sein, wobei ich mir denken kann, dass davon nicht viel übrig bleiben wird. Verfügbarkeit nicht zu vergessen.

    Hier geht's zum Artikel.