Posts by eLuSiVe

    In Sachen Multicore und Effizienz (verglichen mit dem 12900K) sollen die neuen AMDs ja recht gut sein.
    Im Spielebereich hat sich weniger getan. Aber gut, das ist jetzt nicht die Welt.
    Schauen wir mal was der 13xxxer Intel bringen wird.
    Sind die X3D Versionen der 7000er sicher geplant (hab da vielleicht was nicht mitbekommen)?

    Hey Dunge,


    schön Dich wieder zu sehen hier!

    Tut mir sehr Leid das zu hören mit Deinem Vater und wünsch Euch viel Kraft dafür sowie gute Erholung.

    Freud und Leid sind immer nah beeinander.

    Finde es gut, wie Du die Sache angehst und trotz der Herausforderungen das Positive in dem siehst, was Du machst.

    Dran bleiben!

    Die Ada Version der RTX 6000 wäre auch interessant. Da ich auf der Workstation nicht zocke (zocke überhaupt noch sehr selten), werfe ich auf die Karte auch mal einen Blick. 48GB VRAM wären schon sehr nett. Kann die ganze Szene in den Grafikspeicher schaufeln und die GPU muss so nicht mehr auf die langsamen Daten vom RAM warten.
    Sehr teuer sind sie halt, die Dinger ... ;(


    Was man so ließt sehen viele die 4080 12GB als eine umetikettierte 4070 zum doppelten Preis.
    Lassen wir's mal so liegen und warten den 3.11 ab. AMD hat es ja heute nochmal verlauten lassen, dass die Party an dem Tag steigen soll.

    Hey zusammen!


    Schon wieder zwei Jahre vergangen ... oh Mann.

    nVidia's Live Stream zur neuen Ada GPU bzw. RTX 40xx Serie wurde heute ausgestrahlt.

    Habe ihn leider nicht komplett ansehen können und mir daher im Nachhinein die Meldungen auf PCGH & Co durchgelesen.

    Wie immer gilt es mehr unabhängige Tests abzuwarten.


    Im Ratracing soll die 4090 zwischen 2-4 mal mehr Leistung als eine 3090 Ti liefern.

    Verspricht zumindest nVidia :/

    Von der 4080 soll's zwei Modelle geben. Eine mit 12GB und eine mit 16GB und ein paar weiteren Unterschieden.

    Die 12GB Variante soll im Vergleich zu einer 3090 angeblich auch noch die doppelte RT Leistung liefern können.


    Hier mal eine grobe Eckdatenliste:


    RTX 4090 24GB an 384Bit, 16384 ALUs, 1599 USD

    RTX 4080 16GB an 256Bit, 9728 ALUs, 1199 USD

    RTX 4080 12GB an 192Bit, 7689 ALUs, 899 USD


    Bei den Preisen muss man sehen, wie es sich entwickelt. Vor allem nach der Erfahrung der letzten zwei Jahre und in Anbetracht der aktuellen Lage.

    Das Argument Stromverbrauch dürfte diesmal größer sein denn je.

    Ich merk's selbst an der Stromrechnung am Ende eines Monats, wenn meine Kiste in der Zeit länger am Rendern war.


    Die 4090 wird zwar mehr saufen als meine alte RTX Titan, aber wenn sie ein Frame mit den neuen RT Cores 4 mal schneller rendert könnte sich das auch wieder ausgleichen?

    Das ist evtl. viel zu einfach gerechnet. Ich warte jetzt mal bis die Karten draußen sind. Ein neues Netzteil brauch ich nämlich auch, wenn ich ne 4090 betreiben will.

    Allein schon wegen der neuen Anschlüsse nehm ich an.


    AMD hat glaube ich heute morgen was vom 3. November als Vorstellungstermin von RDNA3 genannt.
    Wobei ich nicht sicher bin, ob damit die Vorstellung oder der Verkaufsstart gemeint ist. Evtl. weiß jemand von Euch da näheres.


    Anspannung und Aufregung scheinen auf jeden Fall groß zu sein in den entsprechenden Foren. Neue CPUs von AMD und Intel, neue GPUs von AMD und nVidia und wenn's klappt auch Intels A770 GPU.

    So isses, heutzutage macht man (im Gegensatz zu früher) im Real Time Rendering halt einiges an Tricksereien, für die man Daten / Infos nicht nur aus dem letzten, sondern aus ein paar vorherigen Frames braucht.

    zB. nen Motion Vector. Wenn die für einen der letzten Frames zuständige GPU auch nur ein paar ms hinten dran ist, hast Deine Mikroruckler.

    Eines der wenigen Paradebeispiele, das es wirklich gut hinbekommen hat, war Shadow of the Tomb Raider. Oder war es Rise of the Tomb Raider?

    Weiß ich jetzt nimmer hundertprozentig. Auf jeden Fall war das für die Devs sehr zeitaufwändig, erforderte eine Menge Hirnschmalz und konnte bei einem Treiberupdate auch wieder auseinanderfallen.

    Ich glaub das war bei den alten Forward Renderern (zB. Id Tech 4) noch einfacher. Die hatten aber auch ihre Grenzen. Zum Beispiel wurde für jede Lichtquelle eine Oberfläche nochmal berechnet.

    Gut, dass Doom 3 ein dunkler Gruselshooter war ;D

    In einem Deferred Renderer kannst so viele Lichtquellen wie Pixel am Schirm haben ohne merkbaren Leistungsverlust.

    Deferred Rendering ist zwar sehr geil, hat auch so seine eigenen Probleme gebracht. zB das Layering bei Haaren vor SSS Shadern.


    Beim Offline Rendering hast das Problem natürlich nicht. Da wird jede GPU als unabhängiger Rendernode behandelt und ihr immer das nächste Render Tile zugeteilt.

    Der VRAM wird bei zwei Grakas im System auch nicht einfach so zusammengelegt. Außer Du hast NVLink.


    Dieses Jahr steht UE5 auf dem persönlichen Lehrplan. Das schiebe ich schon zu lange vor mich her...

    Aber die scheinen da ein paar sehr coole Sachen zu machen. Da hoffe ich halt, dass die Titan das noch packt.

    Was Games angeht sollte für jeden was dabei sein. Ist auch anspruchsabhängig zB möglichst hohe FPS im ESports-Bereich oder "RTX on" in Cyberpunk bei 2160p.

    Wobei das momentane Raytracing mit seinen 1-2 Rays pro Pixel und den sich daraus ergebenden Nutzungsmöglichkeiten noch ein paar Jahre braucht.

    Der Denoiser und DLSS machen da schon ordentlich Boden gut.


    Aber Du hast scho Recht. Über die Unterstützung bis runter zu Maxwell macht man sich schon Gedanken. Gefühlt mehr als vorher.

    Ich kenne Kollegen, die in ihren Studios / Teams noch mit 6800k und GTX 1070 arbeiten.

    Hatte selbst bis zu Beginn der Pandemie auch noch so ein Teil auf Arbeit. Und Software wie Substance, Maya & Co wird auch immer anspruchsvoller.

    Die Sache ist aber auch die, wenn Du jetzt ein AAA Game anfängst, bist Du in der Regel die ersten zwei Jahre in der Pre-Production,

    danach die nächsten drei bis vier in der Production bis zum Release. Schwer zu sagen, wo die Hardware in den nächsten sechs Jahren stehen wird.


    Da hängen viele Faktoren mit rein, aber Unterstützung für ältere Hardware ist -wie Du schon sagst- im letzten Jahr zu einem größeren Thema geworden.

    Parallelisierung haben wir sehr gut gemerkt, als wir im letzten Jahr eine 600 Frame Animation auf einem Gespann mit einer 1080 und einer 3060 in Redshift gerendert hatten.
    Der Renderer ist sehr flexibel im Mischen von zwei bis drei Generationen. Außerdem liebt Redshift viel VRAM, danach Chipgeschwindigkeit.
    Darum wären zB zwei 3060 mit je 12GB empfehlenswerter als eine 3080.
    Sollte der VRAM mal ausgehen, wird der RAM genutzt.
    Der Stromverbrauch hält sich in Grenzen da nur die CUDA Cores ausgelastet werden und die restlichen Einheiten des Chips brach liegen.
    Die CPU hat in der Zeit fast so gut wie gar nichts zu tun.


    Aus diesem Grund bezweilfe ich, dass ich in Zukunft bei der CPU je über 32C/64T gehe. Der Arnold Renderer, der seit einigen Jahren nun standardmäßig bei Maya dabei ist, läuft angeblich auch nur bis 64 Threads. Für die nächsten 64 muss man eine weitere Lizenz kaufen :bonk:


    Also in Zukunft eher was in Richtung zweier 4070er, sofern nVidia mit dem VRAM nicht so geizt ;)

    Bisher habe ich nichts mitbekommen, dass es auch eine FE geben soll.


    Weil wenn es nicht Mal eine FE (also ein Referenzmodell) gibt, ...


    Sorry, ich war da anscheinend völlig auf dem Holzweg. Eine FE gibt es (Jeff Fisher hat sie Anfang Januar selbst in die Kamera gehalten). Um die ist es nur still geworden seitdem. Ist praktisch ne 3090 mit "Ti" hinten dran und hat den neuen 16Pin-Anschluss.
    Könnte also sowohl ein Feldversuch seitens der Boardpartner sein, als auch den Übergang zu den neuen Steckern einleiten.

    Bisher habe ich nichts mitbekommen, dass es auch eine FE geben soll.
    Für mich fühlt sich das eher wie ein Feldversuch der 40xx Serie an, denen man einen ähnlichen -wenn nicht höheren- Energieverbrauch nachsagt und die auch die neuen Netzteilstecker haben wird.
    Wie es kommt muss man abwarten.
    Für die leichte Mehrleistung der Ti finde ich den Aufwand halt schon sehr hoch.

    Bin gerade auf CB über den Artikel zur 3090 Ti von MSI gestolpert und hab' mir die Specs, Verbrauchs- sowie Leistungswerte angesehen.


    • 1×16-Pin (PCIe 5.0)
    • 1.880 MHz (Standard Mode) 1.900 MHz (Extreme Performance) Nun ja 20MHz sind schon extrem mehr ;D
    • 480 Watt Standard-TDP
    • 1.000 Watt PSU empfohlen
    • 24 GB GDDR6X mit 21,0 Gb/s
    • 10.752 CUDA-Cores
    • 3,5 Slots braucht das Teil für die gesamte Kühlung.


    Kommt laut ein paar Twitterbeiträgen angeblich auf bis 10% mehr Leistung in 2160p raus.

    Sowas kauft man sich doch inzwischen eher um's zu erwähnen, als zu gebrauchen? :/


    UVP soll angeblich gleich der standard 3090 sein, wobei ich mir denken kann, dass davon nicht viel übrig bleiben wird. Verfügbarkeit nicht zu vergessen.


    Hier geht's zum Artikel.

    Danke für den Treiberlink!
    Wenn die Stromaufnahme für den 440LX zuviel ist, wie sieht's mit dem BX aus?
    Bei der V3 3k und der GF256 kann ich mich auch noch an Stromversorgungsprobleme erinnern.
    Das GA-6BXC hatte in der Version 2.0 nen extra Voodoo-Jumper damals, um das zu beheben, wollte man eine V3 betreiben.


    Ansonsten hätte ich noch nen CUSL2-C (i815EP).

    In meinem kleinen Midrange werkelt auch nen C2D. Ich habe nen E4700 genommen. 200 MHz FSB und nen Multi von 13. Da kann man mit Übertakten noch richtig was rausholen, wenn das Board es mitmacht.

    Hatte damals einen E6600 auf einem MSI 975X Platinum. Den FSB auf 333 gehoben und die CPU lief seither auf 3GHz.
    Viele hatten das damals gemacht, kann ich mich erinnern. Waren schon coole CPUs :)

    Welcome to the forums, Skyye! :)


    Not to confuse the different compute units or shader cores is actually a very good point.

    I think there is much more to it than the amount of cores or CUs when comparing the different ASICs from NV, AMD and Intel in the future.

    AMD's GCN was very strong in pure compute with for instance Fiji being faster than NVidia's Maxwell back in the day.

    The problem with GCN's gaming performance seemed to be more at the front end as well as the geometry throughput.


    The following was put together based on scattered memories of the chip schematics... if something seems wrong, by all means feel free to correct me ;)


    RDNA 2 now has just like RDNA 1 so called WGPs (Work Group Processors / 40 in total) each combining two CUs. One WGP group contains 4 blocks.

    Each block as 32 Lanes for FP32, FP16 and INT32 as well as 2 Lanes for FP64. The results are way more memory bandwidth as well as compute power.


    One Ampere CU (82 in total) contains 4 blocks. Each block has 16 ALUs and 16 FPs. Only block 1 has 2 DPs, the others don't. The 16 ALUs are accessible through port 0 and seem to handle FP16, FP32 and INT32. The remaining 16 FPs are accessible via port 1. Looks like the interesting part is that only FP32 instructions can be scheduled onto both issue ports 0 and 1 which gives them access to all 32 ALUs that can double their performance. That's probably why they talk about "10496 Shaders".


    I'm very curious about what Intel might be able to pull off. I don't expect a killer chip that will compete in the high ranks with both AMD and NVidia.

    However a solid start in the right direction is something I'm hoping for.



    DEU:

    Die verschiedenen shader cores und CUs nicht miteinenander zu verwechseln, ist ein guter Hinweis.

    Ich denke auch, wenn man AMDs, NVidias und später Intels ASICs miteinander vergleicht, gilt es mehr zu beachten als die reine Anzahl der CUs.

    AMDs GCN Architektur wer sehr stark im reinen Compute. Zum Beispiel Fiji vs. Maxwell damals.

    Das Problem bei GCN schien damals am Front End und am Durchsatz der Geometry zu liegen.


    Folgendes habe ich aus meiner nebulösen Erinnerung an die Blockdiagramme zusammengetippt... korrigiert's mich also bitte, falls ich wo falsch liege ;)


    Bei RDNA heißen die Dinger Work Group Processors (40 insgesamt), von denen jeder zwei CUs zusammenfasst. Ein WGP besteht aus 4 Blöcken, von denen jeder 32 Lanes hat, die FP32, FP16 und INT32 können. Für FP64 sind zwei DP Lanes pro Block vorhanden. Das Ergebnis sind mehr Speicherbandbreite und mehr Leistung.


    Eine CU bei Ampere hat ebenfalls 4 Blöcke. Jeder Block besteht aus 16 ALUs und 16 FPs. Nur der erste der vier Blöcke hat zwei DPs. Auf die 16 ALUs kann über Port 0 zugegriffen werden, was Berechnungen in FP16, FP32 und INT32 erlaubt. Die übrigen 16 FPs sind erreichbar über Port 1, was angeblich nur den FP32 Instructionen vorbehalten ist.

    So hat man für FP32 über beide Ports alle 32 ALUs zur Verfügung, was die Performance verdoppeln kann. Wahrscheinlich redet man deswegen von "10496 Shadern".


    Ich bin sehr neugierig was Intel rausbringen wird. Ich erwarte keinen Killerchips, der es mit den großen von AMD und Nvidia aufnehmen kann.

    Aber ich hoffe auf einen guten Start in die richtige Richtung.