Half-Life Opposing Force Benchmark

  • Das einfach alles spezifische Kausalalgorithmen, die in Reihe gehen mit der Modularsequenzsynthese.

    „Wir leben in einer Welt, wo Ehrlichkeit als Schwäche zählt und die Lügner auf Händen getragen werden.“

  • Quote

    The GoldSrc engine was written long before modern graphics programming techniques such as vertex buffer objects were around. The OpenGL in GoldSrc (and all other OpenGL games of the time) were executing OpenGL instructions in immediate mode, meaning that everything to be drawn on screen must be sent to the GPU and redrawn every frame -- the GPU forgets everything when it comes to rendering the next frame. AMD (and ATI) GPU's have bad performance issues with immediate mode OpenGL, whereas nVidia GPU's handle this much quicker.

    You can experience the same issue in Minecraft (before 1.8), as that was entirely using immediate mode OpenGL too. I have exactly the same issue with my AMD R9 280X, where as my (years older) nVidia GTX 560Ti handled Sven Co-op and Minecraft much faster. I did ask AMD about this but they blamed the games (GoldSrc and Minecraft), due to them not making the best use of a modern OpenGL API. I guess nVidia were just nicer when it came to retaining strong compatibility with older software.

    Quote

    "The GoldSrc engine was written long before modern graphics programming techniques such as vertex buffer objects were around. The OpenGL in GoldSrc (and all other OpenGL games of the time) were executing OpenGL instructions in immediate mode, meaning that everything to be drawn on screen must be sent to the GPU and redrawn every frame -- the GPU forgets everything when it comes to rendering the next frame. AMD (and ATI) GPU's have bad performance issues with immediate mode OpenGL, whereas nVidia GPU's handle this much quicker.

    You can experience the same issue in Minecraft (before 1.8), as that was entirely using immediate mode OpenGL too. I have exactly the same issue with my AMD R9 280X, where as my (years older) nVidia GTX 560Ti handled Sven Co-op and Minecraft much faster. I did ask AMD about this but they blamed the games (GoldSrc and Minecraft), due to them not making the best use of a modern OpenGL API. I guess nVidia were just nicer when it came to retaining strong compatibility with older software.|

    First to clear things up, OpenGL is just an API to perform rendering on the graphics card. The graphics engine, "GoldSource", uses this API in an old-fashioned way ("immediate mode") which does not suit modern graphics card architectures at all. My guess is that all the state changes undergo tremendous amounts of conversions through the graphics driver to suit the average modern graphics card, turning the CPU into a bottleneck.

    I've been reading up about OpenGL's history and they explicitly note that immediate mode is a deprecated feature kept in the API for backward compatibility only.

    Hardware drivers have to implement support, but can do this however they please. As noted, nVidia implements it pretty well, whereas AMD does not."


    https://steamcommunity.com/app…ns/0/1639788130268945932/

    https://github.com/ValveSoftware/halflife/issues/2796


    OpenGL 1.2 (immediate Mode) läuft auf ATi/AMD Karten deutlich schlechter.

    das merkt man an den Treibern. Unter Linux hab ich deutlich mehr FPS als in Windows.


    https://store.steampowered.com/app/225840/Sven_Coop/

    testet doch gerne mal AMD vs Nvidia Karte bei Sven Coop :)

  • Na ja... Das ist ne uralte Quake-Engine, die von Valve verschlimmbessert wurde. Dennoch laufen die Spiele schnell genug und fehlerfrei.

    Daß ATI's OpenGL-Renderer scheiße ist, ist allgemein bekannt. Er iat aber ausreichend schnell.

    „Wir leben in einer Welt, wo Ehrlichkeit als Schwäche zählt und die Lügner auf Händen getragen werden.“

  • Man muss Nvidia lassen, dass se mit der Riva 128 eine mächtige OpenGL Karte hatte. Es war die einzige (Mainstream) Karte die in Quake2 flüssige Bildraten liefern konnte.

    Karten von ATi, S3 und Matrox waren zu dieser Zeit sehr langsam in OGL.

  • also wenn man GoldSrc Spiele (z.B. Adrenaline Gamer) competitive spielt, da hat man gerne stabile 1000/x fps.

    https://www.youtube.com/watch?v=JLaofotBTA8

    https://wiki.sourceruns.org/wiki/FPS_Effects


    [Blocked Image: https://wiki.sourceruns.org/w/images/6/65/Hl1-bhop-diff-fps.png]


    ich spiele mit fps_max 249.5, weil man halt so gewisse Vorteile hat. 500fps packt die 6800XT nicht, bzw. gibt halt starke drops. da hab ich ja bei CS:GO mehr fps :)

    Quake3e mit Vulkan läuft super, da merkt man, dass es nur am Treiber liegt.

    die ganzen phänomene gab es auch bei call of duty

    https://codpromod.fandom.com/wiki/FPS_Effects


    also dieses "man hat genug fps" ist halt nicht der Fall, außer man spielt nur singleplayer. da reichen auch 100 :)

  • genau genommen brauchst du nicht mehr FPS als dein Monitor anzeigen kann. Was allerdings wichtig ist, ist die Verteilung der Frames.

    z.b. wenn du exakt alle 0.03333 Sekunden einen neuen Frame bekommst und dein Monitor mit 60 hz rennt solltest du selbst mit 30 fps flüssig spielen können.

    Wenn du allerdings die ersten 29 frames in den ersten 100 ms generierst und den letzten Frame in den restlichen 900 ms dann Ruckelt es wie sau. Das gleiche gilt bei 100 oder 1000 fps ....


    Das nächste Problem ist die Synchronisierung zwischen Monitor und Grafikkarte. z.b. wenn Deine Grafikkarte die Frames unpassend zum Monitor abgibt hast du nicht mehr unbedingt ein flüssiges Bild.


    Als Beispiel:

    GPU neues Frame von der Grafikkarte.

    Monitor zeigt das letze Frame an.


    GPU GPU Monitor Monitor GPU GPU GPU Monitor GPU GPU GPU Monitor Monitor GPU


    hier sehen wir 2 Situationen:

    1. der Monitor hat ein neues Bild angezeigt als noch kein neues Frame da war.

    2. Die Grafikkarte hat schnell hintereinander 3 frames generiert wovon nur 1 angezeigt wurde.


    Solltest du einen Monitor haben, welcher 60 hz hat. Und eine Grafikkarte die ohne weiteres 80 fps erreichen kann, dann kann es sehr hilfreich sein einfach V-Sync zu aktivieren.

    Weniger Last auf der GPU, Passender Zeitpunkt für die Frames etc.


    GPU Monitor GPU Monitor GPU Monitor etc


    gruss

  • Das ist nicht falsch was du sagst (Stichwort Frametimes). Falsch ist aber die Aussage daß du bei perfekten Frametimes 30fps als flüssig wahrnehmen wirst, außer dein Hirn hat eine sehr langsame visuelle Verarbeitung am Start.


    Du kannst ja Mal ein altes, schnelles OpenGL Spiel mit Triple Buffer auf einer modernen GPU rendern und VSync aktivieren, um das zu testen. Damit kriegst zwar wahrscheinlich Input Lags, aber die Grafik ist stabil flüssig. Brauchst halt einen schnellen Schirm damit du zwischen 60Hz und 144Hz oder so umschalten kannst. Auch da sehe ich noch den Unterschied zwischen 60fps und 100fps, wenn auch nur knapp. Manche merken auch Unterschiede bis rauf zu 144fps, auch wenn ich das nicht mehr kann (oder nie konnte, ich weiß es nicht).


    Das geübte Auge kann das auch auf einem modernen, auf eine 3D Surface gerenderten Desktop schnell erkennen, indem man einfach Fenster rumschiebt. Da siehst den Unterschied zwischen 60Hz und 144Hz doch recht flott. Für mich ist der relativ gering, aber manche Leute merken das eben deutlicher. Genauso wie manche Leute bei einem 85Hz CRT immer noch Flimmern sehen, andere jedoch nicht mehr.

    1-6000-banner-88x31-jpg

    Stolzer Besitzer eines 3dfx Voodoo5 6000 AGP Prototypen:

    • 3dfx Voodoo5 6000 AGP HiNT Rev.A-3700 (defekt)

    [//wp.xin.at] - No RISC, no fun!

    QotY: Girls Love, BEST Love; 2018 - Lo and behold, for it is the third Coming; The third great Year of Yuri, citric as it may be! Edit: 2019 wasn't too bad either... Edit: 2020... holy crap, we're on a roll here~♡!

    Quote Bier.jpg@IRC 2020: "Je schlimmer der Fetisch, desto besser!"

  • GrandAdmiralThrawn du bringst es auf den Punkt. Ne Röhre sagt dir ganz genau wann dein Hirn keine schnelleren FPS mehr verarbeiten kann. Das lässt sich durch Training/ Gewohnheit auch ändern. Habe ich Mitte der 90er die PS1 als schnelle 3D Hardware empfunden, bekomme ich heute ein Brechreiz. Die Kiste rendert die Frames so langsam, die kannste zählen, da braucht es kein Framecounter.

    Das gibt sich aber nach einer gewissen Eingewöhnungszeit und man gewöhnt sich wieder daran. Ich nenne es das echte G-Sync (G=Gehirn), mein Hirn rendert fehlende Frames dazu. Es braucht nur etwas Übung. :D

  • [...] Es braucht nur etwas Übung. :D

    ...oder Bier! :topmodel:

    1-6000-banner-88x31-jpg

    Stolzer Besitzer eines 3dfx Voodoo5 6000 AGP Prototypen:

    • 3dfx Voodoo5 6000 AGP HiNT Rev.A-3700 (defekt)

    [//wp.xin.at] - No RISC, no fun!

    QotY: Girls Love, BEST Love; 2018 - Lo and behold, for it is the third Coming; The third great Year of Yuri, citric as it may be! Edit: 2019 wasn't too bad either... Edit: 2020... holy crap, we're on a roll here~♡!

    Quote Bier.jpg@IRC 2020: "Je schlimmer der Fetisch, desto besser!"

  • Mit LSD werden auch 5 fps flüssig wie Wasser.

    😂😂😂


    Wird quasi zum Geschwindigkeitsrausch!

    TUSL2-C, PIII-S 1,4GHz, 512MB, Voodoo3 3000 AGP, SB Live!
    TUSL2-C, PIII-S 1,4GHz, 512MB, Voodoo3 3000 AGP, SB Live!
    CUSL2-C, PIII 933MHz, 512MB, Millennium II AGP 4MB, 2x Monster II 12MB, SB Live!
    CUSL2-C, PIII 933MHz, 512MB, Millennium II AGP 4MB, 2x 3D Blaster Voodoo² 12MB, SB Live!
    P3B-F, PIII 800MHz, 512MB, G400 Max 32MB AGP, 2x Monster II 12MB, SB AWE64 Gold
    P2B-F, PIII 600MHz, 512MB, G200 8+8MB AGP, 2x Monster II 8MB, SB 32 PnP

  • genau genommen brauchst du nicht mehr FPS als dein Monitor anzeigen kann...

    diese Diskussion macht keinen Sinn, wenn du dir nicht durchliest was ich im Beitrag zuvor geschrieben habe.

    hier nochmal

    https://wiki.sourceruns.org/wiki/FPS_Effects