Posts by GokuSS4

    So, hier noch der neue Ryzen auf der Arbeit im x264er, Standardversion unter Windows auch dabei, wenn auch nur in einer VM möglich:


    0000:17:22.162 | GAT | 1/8/16 | AMD Ryzen 7 5700G 3.80GHz | 64GiB DDR4/3200 16-18-18 | ASRock X570 Steel Legend | AMD X570 Bixby | RedHat Enterprise Linux 8.5 (Cust. GCC 8.5.0 r3094 Build)


    0000:39:24.718 | GAT | 1/8/16 | AMD Ryzen 7 5700G 3.80GHz | 2GiB DDR4/3200 16-18-18 | ASRock X570 Steel Legend | AMD X570 Bixby | Windows XP Pro SP3 on VBox 6.1.32/RedHat Enterprise Linux 8.5

    die 5700G skalieren super mit schnellem RAM, allerdings sicherlich bei x264 Benchmark nicht so hilfreich. Aber schon kuriose Config. 5700G auf X570 :D

    NFS1-4 mit Lenkrad? wtf :D

    NFS5 wäre das einzige was Sinn machen würde.


    Logitech Driving Force Pro wär doch etwas? vielleicht geht ja sogar DFGT

    http://www.vogonsdrivers.com/getfile.php?fileid=1034



    könnte höchstens damit dienen :)


    hier sonst noch ein Artikel von Igor

    https://www.igorslab.de/kommen…sparsamer-ohne-e-cores/5/

    https://www.igorslab.de/leistu…nahmemessungen-im-detail/



    Quote

    Wir messen die Leistungsaufnahme fürs Package bzw. die gesamte CPU direkt hinter den Spannungswandlern, deren Verluste man natürlich ebenfalls noch mit einplanen sollte. Der Vorteil unserer Direktmessung bzw. Sensorerfassung liegt darin, dass die Werte unabhängig vom Mainboard und dessen Effizienz ermittelt werden. Das hilft später bei der besseren Vergleichbarkeit.

    Spiele und Workstation-Workloads können sehr unterschiedlich bei der erforderlichen Leistungsaufnahme sein, je nach tatsächlicher CPU-Last. Unsere Beispiele zeigen deshalb jeweils ein eher durchschnittliches Szenario, welches dem Durchschnittswert aus allen Spielen und Anwendungen unserer Suite am ehesten entspricht.

    Dabei liegen die CPUs im 3D-Einsatz oft genug noch deutlich unterhalb der angegebenen TDP, was einmal mehr zeigt, dass diese lediglich ein Richtwert für die Auslegung der Kühlung ist, allerdings eben nicht ausschließlich.


    also wenn man GoldSrc Spiele (z.B. Adrenaline Gamer) competitive spielt, da hat man gerne stabile 1000/x fps.

    https://www.youtube.com/watch?v=JLaofotBTA8

    https://wiki.sourceruns.org/wiki/FPS_Effects


    [Blocked Image: https://wiki.sourceruns.org/w/images/6/65/Hl1-bhop-diff-fps.png]


    ich spiele mit fps_max 249.5, weil man halt so gewisse Vorteile hat. 500fps packt die 6800XT nicht, bzw. gibt halt starke drops. da hab ich ja bei CS:GO mehr fps :)

    Quake3e mit Vulkan läuft super, da merkt man, dass es nur am Treiber liegt.

    die ganzen phänomene gab es auch bei call of duty

    https://codpromod.fandom.com/wiki/FPS_Effects


    also dieses "man hat genug fps" ist halt nicht der Fall, außer man spielt nur singleplayer. da reichen auch 100 :)

    Quote

    The GoldSrc engine was written long before modern graphics programming techniques such as vertex buffer objects were around. The OpenGL in GoldSrc (and all other OpenGL games of the time) were executing OpenGL instructions in immediate mode, meaning that everything to be drawn on screen must be sent to the GPU and redrawn every frame -- the GPU forgets everything when it comes to rendering the next frame. AMD (and ATI) GPU's have bad performance issues with immediate mode OpenGL, whereas nVidia GPU's handle this much quicker.

    You can experience the same issue in Minecraft (before 1.8), as that was entirely using immediate mode OpenGL too. I have exactly the same issue with my AMD R9 280X, where as my (years older) nVidia GTX 560Ti handled Sven Co-op and Minecraft much faster. I did ask AMD about this but they blamed the games (GoldSrc and Minecraft), due to them not making the best use of a modern OpenGL API. I guess nVidia were just nicer when it came to retaining strong compatibility with older software.

    Quote

    "The GoldSrc engine was written long before modern graphics programming techniques such as vertex buffer objects were around. The OpenGL in GoldSrc (and all other OpenGL games of the time) were executing OpenGL instructions in immediate mode, meaning that everything to be drawn on screen must be sent to the GPU and redrawn every frame -- the GPU forgets everything when it comes to rendering the next frame. AMD (and ATI) GPU's have bad performance issues with immediate mode OpenGL, whereas nVidia GPU's handle this much quicker.

    You can experience the same issue in Minecraft (before 1.8), as that was entirely using immediate mode OpenGL too. I have exactly the same issue with my AMD R9 280X, where as my (years older) nVidia GTX 560Ti handled Sven Co-op and Minecraft much faster. I did ask AMD about this but they blamed the games (GoldSrc and Minecraft), due to them not making the best use of a modern OpenGL API. I guess nVidia were just nicer when it came to retaining strong compatibility with older software.|

    First to clear things up, OpenGL is just an API to perform rendering on the graphics card. The graphics engine, "GoldSource", uses this API in an old-fashioned way ("immediate mode") which does not suit modern graphics card architectures at all. My guess is that all the state changes undergo tremendous amounts of conversions through the graphics driver to suit the average modern graphics card, turning the CPU into a bottleneck.

    I've been reading up about OpenGL's history and they explicitly note that immediate mode is a deprecated feature kept in the API for backward compatibility only.

    Hardware drivers have to implement support, but can do this however they please. As noted, nVidia implements it pretty well, whereas AMD does not."


    https://steamcommunity.com/app…ns/0/1639788130268945932/

    https://github.com/ValveSoftware/halflife/issues/2796


    OpenGL 1.2 (immediate Mode) läuft auf ATi/AMD Karten deutlich schlechter.

    das merkt man an den Treibern. Unter Linux hab ich deutlich mehr FPS als in Windows.


    https://store.steampowered.com/app/225840/Sven_Coop/

    testet doch gerne mal AMD vs Nvidia Karte bei Sven Coop :)


    :)


    wenn Zeit ist teste ich mal


    Win98 vs WinXP

    und ATi vs nVidia vs 3dfx :)


    OpenGL war AMD/ATi schon immer schlecht.

    Erinnere mich damals noch extra gemoddete opengl32.dll genutzt zu haben

    omega? dna? ngo? irgendein Treiber brachte richtig was!

    die Geforce 4 Ti könnte sogar besser sein als die X850XT oder X1950 Pro, mal sehen :)

    natürlich hat die CPU ne große Auswirkung, aber der OpenGL Treiber muss passen

    bin von einem Haswell auf einen Zen3 umgestiegen und der Performancesprung ist sehr stark spürbar.

    Was waren deine Beweggründe? Können sonst gerne PN weiter, ist halt etwas OT :)

    Hätte ja verstanden, wenn du gesagt hast ich bin auf Alder Lake gewechselt, aber so? :)


    ein i7-4930K oder 1680 v2 wäre für ein ultimate WinXP System zwar nett, aber wenn ich schon nen Ryzen habe? :)

    X79? Schick!


    Ich nutze immernoch meinen 3930K auf einem Rampage IV Extreme als Hauptrechner, aber so langsam müsste ich die Mühle auch Mal ersetzen, der Stromverbrauch, die Lautstärke und Hitze steht irgendwie im Gegensatz zu nem Ryzen nicht mehr in sinnvollen Relationen...

    Lustig, ich habe mein Ryzen System verkauft. Muss aber eingestehen, dass ich mit dem Wechsel 169€ Plus gemacht habe. 1€ (zzgl. Versand) habe ich für einen Xeon E5 2650 noch zusätzlich ausgeben müssen.

    du bist von einem Ryzen (14nm, 12nm oder 7nm) auf einen E5-2650 (32nm) umgestiegen?