Posts by eLuSiVe

    So isses, heutzutage macht man (im Gegensatz zu früher) im Real Time Rendering halt einiges an Tricksereien, für die man Daten / Infos nicht nur aus dem letzten, sondern aus ein paar vorherigen Frames braucht.

    zB. nen Motion Vector. Wenn die für einen der letzten Frames zuständige GPU auch nur ein paar ms hinten dran ist, hast Deine Mikroruckler.

    Eines der wenigen Paradebeispiele, das es wirklich gut hinbekommen hat, war Shadow of the Tomb Raider. Oder war es Rise of the Tomb Raider?

    Weiß ich jetzt nimmer hundertprozentig. Auf jeden Fall war das für die Devs sehr zeitaufwändig, erforderte eine Menge Hirnschmalz und konnte bei einem Treiberupdate auch wieder auseinanderfallen.

    Ich glaub das war bei den alten Forward Renderern (zB. Id Tech 4) noch einfacher. Die hatten aber auch ihre Grenzen. Zum Beispiel wurde für jede Lichtquelle eine Oberfläche nochmal berechnet.

    Gut, dass Doom 3 ein dunkler Gruselshooter war ;D

    In einem Deferred Renderer kannst so viele Lichtquellen wie Pixel am Schirm haben ohne merkbaren Leistungsverlust.

    Deferred Rendering ist zwar sehr geil, hat auch so seine eigenen Probleme gebracht. zB das Layering bei Haaren vor SSS Shadern.


    Beim Offline Rendering hast das Problem natürlich nicht. Da wird jede GPU als unabhängiger Rendernode behandelt und ihr immer das nächste Render Tile zugeteilt.

    Der VRAM wird bei zwei Grakas im System auch nicht einfach so zusammengelegt. Außer Du hast NVLink.


    Dieses Jahr steht UE5 auf dem persönlichen Lehrplan. Das schiebe ich schon zu lange vor mich her...

    Aber die scheinen da ein paar sehr coole Sachen zu machen. Da hoffe ich halt, dass die Titan das noch packt.

    Was Games angeht sollte für jeden was dabei sein. Ist auch anspruchsabhängig zB möglichst hohe FPS im ESports-Bereich oder "RTX on" in Cyberpunk bei 2160p.

    Wobei das momentane Raytracing mit seinen 1-2 Rays pro Pixel und den sich daraus ergebenden Nutzungsmöglichkeiten noch ein paar Jahre braucht.

    Der Denoiser und DLSS machen da schon ordentlich Boden gut.


    Aber Du hast scho Recht. Über die Unterstützung bis runter zu Maxwell macht man sich schon Gedanken. Gefühlt mehr als vorher.

    Ich kenne Kollegen, die in ihren Studios / Teams noch mit 6800k und GTX 1070 arbeiten.

    Hatte selbst bis zu Beginn der Pandemie auch noch so ein Teil auf Arbeit. Und Software wie Substance, Maya & Co wird auch immer anspruchsvoller.

    Die Sache ist aber auch die, wenn Du jetzt ein AAA Game anfängst, bist Du in der Regel die ersten zwei Jahre in der Pre-Production,

    danach die nächsten drei bis vier in der Production bis zum Release. Schwer zu sagen, wo die Hardware in den nächsten sechs Jahren stehen wird.


    Da hängen viele Faktoren mit rein, aber Unterstützung für ältere Hardware ist -wie Du schon sagst- im letzten Jahr zu einem größeren Thema geworden.

    Parallelisierung haben wir sehr gut gemerkt, als wir im letzten Jahr eine 600 Frame Animation auf einem Gespann mit einer 1080 und einer 3060 in Redshift gerendert hatten.
    Der Renderer ist sehr flexibel im Mischen von zwei bis drei Generationen. Außerdem liebt Redshift viel VRAM, danach Chipgeschwindigkeit.
    Darum wären zB zwei 3060 mit je 12GB empfehlenswerter als eine 3080.
    Sollte der VRAM mal ausgehen, wird der RAM genutzt.
    Der Stromverbrauch hält sich in Grenzen da nur die CUDA Cores ausgelastet werden und die restlichen Einheiten des Chips brach liegen.
    Die CPU hat in der Zeit fast so gut wie gar nichts zu tun.


    Aus diesem Grund bezweilfe ich, dass ich in Zukunft bei der CPU je über 32C/64T gehe. Der Arnold Renderer, der seit einigen Jahren nun standardmäßig bei Maya dabei ist, läuft angeblich auch nur bis 64 Threads. Für die nächsten 64 muss man eine weitere Lizenz kaufen :bonk:


    Also in Zukunft eher was in Richtung zweier 4070er, sofern nVidia mit dem VRAM nicht so geizt ;)

    Bisher habe ich nichts mitbekommen, dass es auch eine FE geben soll.


    Weil wenn es nicht Mal eine FE (also ein Referenzmodell) gibt, ...


    Sorry, ich war da anscheinend völlig auf dem Holzweg. Eine FE gibt es (Jeff Fisher hat sie Anfang Januar selbst in die Kamera gehalten). Um die ist es nur still geworden seitdem. Ist praktisch ne 3090 mit "Ti" hinten dran und hat den neuen 16Pin-Anschluss.
    Könnte also sowohl ein Feldversuch seitens der Boardpartner sein, als auch den Übergang zu den neuen Steckern einleiten.

    Bisher habe ich nichts mitbekommen, dass es auch eine FE geben soll.
    Für mich fühlt sich das eher wie ein Feldversuch der 40xx Serie an, denen man einen ähnlichen -wenn nicht höheren- Energieverbrauch nachsagt und die auch die neuen Netzteilstecker haben wird.
    Wie es kommt muss man abwarten.
    Für die leichte Mehrleistung der Ti finde ich den Aufwand halt schon sehr hoch.

    Bin gerade auf CB über den Artikel zur 3090 Ti von MSI gestolpert und hab' mir die Specs, Verbrauchs- sowie Leistungswerte angesehen.


    • 1×16-Pin (PCIe 5.0)
    • 1.880 MHz (Standard Mode) 1.900 MHz (Extreme Performance) Nun ja 20MHz sind schon extrem mehr ;D
    • 480 Watt Standard-TDP
    • 1.000 Watt PSU empfohlen
    • 24 GB GDDR6X mit 21,0 Gb/s
    • 10.752 CUDA-Cores
    • 3,5 Slots braucht das Teil für die gesamte Kühlung.


    Kommt laut ein paar Twitterbeiträgen angeblich auf bis 10% mehr Leistung in 2160p raus.

    Sowas kauft man sich doch inzwischen eher um's zu erwähnen, als zu gebrauchen? :/


    UVP soll angeblich gleich der standard 3090 sein, wobei ich mir denken kann, dass davon nicht viel übrig bleiben wird. Verfügbarkeit nicht zu vergessen.


    Hier geht's zum Artikel.

    Danke für den Treiberlink!
    Wenn die Stromaufnahme für den 440LX zuviel ist, wie sieht's mit dem BX aus?
    Bei der V3 3k und der GF256 kann ich mich auch noch an Stromversorgungsprobleme erinnern.
    Das GA-6BXC hatte in der Version 2.0 nen extra Voodoo-Jumper damals, um das zu beheben, wollte man eine V3 betreiben.


    Ansonsten hätte ich noch nen CUSL2-C (i815EP).

    In meinem kleinen Midrange werkelt auch nen C2D. Ich habe nen E4700 genommen. 200 MHz FSB und nen Multi von 13. Da kann man mit Übertakten noch richtig was rausholen, wenn das Board es mitmacht.

    Hatte damals einen E6600 auf einem MSI 975X Platinum. Den FSB auf 333 gehoben und die CPU lief seither auf 3GHz.
    Viele hatten das damals gemacht, kann ich mich erinnern. Waren schon coole CPUs :)

    Welcome to the forums, Skyye! :)


    Not to confuse the different compute units or shader cores is actually a very good point.

    I think there is much more to it than the amount of cores or CUs when comparing the different ASICs from NV, AMD and Intel in the future.

    AMD's GCN was very strong in pure compute with for instance Fiji being faster than NVidia's Maxwell back in the day.

    The problem with GCN's gaming performance seemed to be more at the front end as well as the geometry throughput.


    The following was put together based on scattered memories of the chip schematics... if something seems wrong, by all means feel free to correct me ;)


    RDNA 2 now has just like RDNA 1 so called WGPs (Work Group Processors / 40 in total) each combining two CUs. One WGP group contains 4 blocks.

    Each block as 32 Lanes for FP32, FP16 and INT32 as well as 2 Lanes for FP64. The results are way more memory bandwidth as well as compute power.


    One Ampere CU (82 in total) contains 4 blocks. Each block has 16 ALUs and 16 FPs. Only block 1 has 2 DPs, the others don't. The 16 ALUs are accessible through port 0 and seem to handle FP16, FP32 and INT32. The remaining 16 FPs are accessible via port 1. Looks like the interesting part is that only FP32 instructions can be scheduled onto both issue ports 0 and 1 which gives them access to all 32 ALUs that can double their performance. That's probably why they talk about "10496 Shaders".


    I'm very curious about what Intel might be able to pull off. I don't expect a killer chip that will compete in the high ranks with both AMD and NVidia.

    However a solid start in the right direction is something I'm hoping for.



    DEU:

    Die verschiedenen shader cores und CUs nicht miteinenander zu verwechseln, ist ein guter Hinweis.

    Ich denke auch, wenn man AMDs, NVidias und später Intels ASICs miteinander vergleicht, gilt es mehr zu beachten als die reine Anzahl der CUs.

    AMDs GCN Architektur wer sehr stark im reinen Compute. Zum Beispiel Fiji vs. Maxwell damals.

    Das Problem bei GCN schien damals am Front End und am Durchsatz der Geometry zu liegen.


    Folgendes habe ich aus meiner nebulösen Erinnerung an die Blockdiagramme zusammengetippt... korrigiert's mich also bitte, falls ich wo falsch liege ;)


    Bei RDNA heißen die Dinger Work Group Processors (40 insgesamt), von denen jeder zwei CUs zusammenfasst. Ein WGP besteht aus 4 Blöcken, von denen jeder 32 Lanes hat, die FP32, FP16 und INT32 können. Für FP64 sind zwei DP Lanes pro Block vorhanden. Das Ergebnis sind mehr Speicherbandbreite und mehr Leistung.


    Eine CU bei Ampere hat ebenfalls 4 Blöcke. Jeder Block besteht aus 16 ALUs und 16 FPs. Nur der erste der vier Blöcke hat zwei DPs. Auf die 16 ALUs kann über Port 0 zugegriffen werden, was Berechnungen in FP16, FP32 und INT32 erlaubt. Die übrigen 16 FPs sind erreichbar über Port 1, was angeblich nur den FP32 Instructionen vorbehalten ist.

    So hat man für FP32 über beide Ports alle 32 ALUs zur Verfügung, was die Performance verdoppeln kann. Wahrscheinlich redet man deswegen von "10496 Shadern".


    Ich bin sehr neugierig was Intel rausbringen wird. Ich erwarte keinen Killerchips, der es mit den großen von AMD und Nvidia aufnehmen kann.

    Aber ich hoffe auf einen guten Start in die richtige Richtung.

    Danke für den Link und das Bild! Mit 1366 bin ich aber erstmal mit dem einen System bedient.

    Ich könnte sicher auch bei eBay nach einer 7800GTX stöbern und eine besorgen. Hier aus'm Forum wär's mir trotz allem erstmal lieber.
    Wennst eine abgeben kannst, wär prima. Falls nicht, ist es auch kein Weltuntergang ;)


    Hast Du noch DDR3 (ab 1600) rumliegen?
    An 3 der 500er SATAs (3.5 und 2.5) hätte ich auch Interesse.

    Ich will mich bei Backfire eh nochmal melden. Habe noch eine V55, die ich ihm zum Durchchecken schicken möchte.
    Da könnte ich gleich mal fragen, ob er auch BGA macht bzw. sich das ansehen will.

    Wenn er das machen kann und die Karte am Ende auch wieder läuft, würde ich sie gegen ein paar IDE HDDs (60er / 80er) eintauschen, falls Du noch solche hast.

    Ich hätte noch eine Hercules 8500 128MB (275/275).


    Aber: bei der bräuchten die BGA Rams auf der linken Seite oben (Vorderseite/Rückkseite oder beide) einen Reflow.
    Vielleicht kann ich die vorher nochmal jemanden hier im VA mit der entsprechenden Erfahrung und Ausrüstung anvertrauen.
    Die produziert nämlich Grafikfehler. Es sei denn man drückt sie an der Stelle über die Kühlkörper leicht zusammen, so dass die RAMs wieder Kontakt haben.
    Da müsste also erstmal ein Fachmann ran.

    Die Westmere Xeons von Löschzwerg kamen gestern an :):thumbup: Den X5680 eingebaut, eingeschaltet, läuft! Bin echt froh drüber.
    Erstens isses nen B0 ES und zweitens sind X5xxx Xeons + das MSI Board generell ein Pokerspiel.
    Den RAM auf 1600 MHz mag der IMC des Engineering Samples anscheinend nicht. An der DRAM oder QPI Voltage will ich aber auch nicht weiter drehen.

    Bleibt auch um einiges Kühler als der vorherige i7 950. Unter Last hängt er bei so 54°C rum.

    Klar, kann man da nochmal Feineinstellungen betreiben. Läuft bisher prima so und hat den x264 auch gerade durch.


    01:09:02.806 | eLuSiVe | So 1366/6/12 | Intel Xeon X5680 ES B0 @ 4,15GHz | MSI X58 Pro-E | X58 | 16GB DDR3 1333 | Win10 20H2


    Hier noch die Timings


    Files

    • RESULTS.txt

      (41 Byte, downloaded 146 times, last: )