Die X1950 Pro ist definitiv schneller/besser als eine GeForce 4, egal welche.
Wäre auch komisch, wenn das nicht so wäre.
Die X1950 Pro ist definitiv schneller/besser als eine GeForce 4, egal welche.
Wäre auch komisch, wenn das nicht so wäre.
Oh ihr GeForce Jünger seht und kniet nieder vor dem Antlitz eures Meisters!
Also das ist jetzt auch nichts neues
Also das ist jetzt auch nichts neues
Sei doch mal nich so.
Das einfach alles spezifische Kausalalgorithmen, die in Reihe gehen mit der Modularsequenzsynthese.
ZitatThe GoldSrc engine was written long before modern graphics programming techniques such as vertex buffer objects were around. The OpenGL in GoldSrc (and all other OpenGL games of the time) were executing OpenGL instructions in immediate mode, meaning that everything to be drawn on screen must be sent to the GPU and redrawn every frame -- the GPU forgets everything when it comes to rendering the next frame. AMD (and ATI) GPU's have bad performance issues with immediate mode OpenGL, whereas nVidia GPU's handle this much quicker.
You can experience the same issue in Minecraft (before 1.8), as that was entirely using immediate mode OpenGL too. I have exactly the same issue with my AMD R9 280X, where as my (years older) nVidia GTX 560Ti handled Sven Co-op and Minecraft much faster. I did ask AMD about this but they blamed the games (GoldSrc and Minecraft), due to them not making the best use of a modern OpenGL API. I guess nVidia were just nicer when it came to retaining strong compatibility with older software.
Zitat"The GoldSrc engine was written long before modern graphics programming techniques such as vertex buffer objects were around. The OpenGL in GoldSrc (and all other OpenGL games of the time) were executing OpenGL instructions in immediate mode, meaning that everything to be drawn on screen must be sent to the GPU and redrawn every frame -- the GPU forgets everything when it comes to rendering the next frame. AMD (and ATI) GPU's have bad performance issues with immediate mode OpenGL, whereas nVidia GPU's handle this much quicker.
You can experience the same issue in Minecraft (before 1.8), as that was entirely using immediate mode OpenGL too. I have exactly the same issue with my AMD R9 280X, where as my (years older) nVidia GTX 560Ti handled Sven Co-op and Minecraft much faster. I did ask AMD about this but they blamed the games (GoldSrc and Minecraft), due to them not making the best use of a modern OpenGL API. I guess nVidia were just nicer when it came to retaining strong compatibility with older software.|
First to clear things up, OpenGL is just an API to perform rendering on the graphics card. The graphics engine, "GoldSource", uses this API in an old-fashioned way ("immediate mode") which does not suit modern graphics card architectures at all. My guess is that all the state changes undergo tremendous amounts of conversions through the graphics driver to suit the average modern graphics card, turning the CPU into a bottleneck.
I've been reading up about OpenGL's history and they explicitly note that immediate mode is a deprecated feature kept in the API for backward compatibility only.
Hardware drivers have to implement support, but can do this however they please. As noted, nVidia implements it pretty well, whereas AMD does not."
https://steamcommunity.com/app/70/discuss…88130268945932/
https://github.com/ValveSoftware/halflife/issues/2796
OpenGL 1.2 (immediate Mode) läuft auf ATi/AMD Karten deutlich schlechter.
das merkt man an den Treibern. Unter Linux hab ich deutlich mehr FPS als in Windows.
https://store.steampowered.com/app/225840/Sven_Coop/
testet doch gerne mal AMD vs Nvidia Karte bei Sven Coop
Na ja... Das ist ne uralte Quake-Engine, die von Valve verschlimmbessert wurde. Dennoch laufen die Spiele schnell genug und fehlerfrei.
Daß ATI's OpenGL-Renderer scheiße ist, ist allgemein bekannt. Er iat aber ausreichend schnell.
Man muss Nvidia lassen, dass se mit der Riva 128 eine mächtige OpenGL Karte hatte. Es war die einzige (Mainstream) Karte die in Quake2 flüssige Bildraten liefern konnte.
Karten von ATi, S3 und Matrox waren zu dieser Zeit sehr langsam in OGL.
also wenn man GoldSrc Spiele (z.B. Adrenaline Gamer) competitive spielt, da hat man gerne stabile 1000/x fps.
https://www.youtube.com/watch?v=JLaofotBTA8
https://wiki.sourceruns.org/wiki/FPS_Effects
[Blockierte Grafik: https://wiki.sourceruns.org/w/images/6/65/Hl1-bhop-diff-fps.png]
ich spiele mit fps_max 249.5, weil man halt so gewisse Vorteile hat. 500fps packt die 6800XT nicht, bzw. gibt halt starke drops. da hab ich ja bei CS:GO mehr fps
Quake3e mit Vulkan läuft super, da merkt man, dass es nur am Treiber liegt.
die ganzen phänomene gab es auch bei call of duty
https://codpromod.fandom.com/wiki/FPS_Effects
also dieses "man hat genug fps" ist halt nicht der Fall, außer man spielt nur singleplayer. da reichen auch 100
genau genommen brauchst du nicht mehr FPS als dein Monitor anzeigen kann. Was allerdings wichtig ist, ist die Verteilung der Frames.
z.b. wenn du exakt alle 0.03333 Sekunden einen neuen Frame bekommst und dein Monitor mit 60 hz rennt solltest du selbst mit 30 fps flüssig spielen können.
Wenn du allerdings die ersten 29 frames in den ersten 100 ms generierst und den letzten Frame in den restlichen 900 ms dann Ruckelt es wie sau. Das gleiche gilt bei 100 oder 1000 fps ....
Das nächste Problem ist die Synchronisierung zwischen Monitor und Grafikkarte. z.b. wenn Deine Grafikkarte die Frames unpassend zum Monitor abgibt hast du nicht mehr unbedingt ein flüssiges Bild.
Als Beispiel:
GPU neues Frame von der Grafikkarte.
Monitor zeigt das letze Frame an.
GPU GPU Monitor Monitor GPU GPU GPU Monitor GPU GPU GPU Monitor Monitor GPU
hier sehen wir 2 Situationen:
1. der Monitor hat ein neues Bild angezeigt als noch kein neues Frame da war.
2. Die Grafikkarte hat schnell hintereinander 3 frames generiert wovon nur 1 angezeigt wurde.
Solltest du einen Monitor haben, welcher 60 hz hat. Und eine Grafikkarte die ohne weiteres 80 fps erreichen kann, dann kann es sehr hilfreich sein einfach V-Sync zu aktivieren.
Weniger Last auf der GPU, Passender Zeitpunkt für die Frames etc.
GPU Monitor GPU Monitor GPU Monitor etc
gruss
Das ist nicht falsch was du sagst (Stichwort Frametimes). Falsch ist aber die Aussage daß du bei perfekten Frametimes 30fps als flüssig wahrnehmen wirst, außer dein Hirn hat eine sehr langsame visuelle Verarbeitung am Start.
Du kannst ja Mal ein altes, schnelles OpenGL Spiel mit Triple Buffer auf einer modernen GPU rendern und VSync aktivieren, um das zu testen. Damit kriegst zwar wahrscheinlich Input Lags, aber die Grafik ist stabil flüssig. Brauchst halt einen schnellen Schirm damit du zwischen 60Hz und 144Hz oder so umschalten kannst. Auch da sehe ich noch den Unterschied zwischen 60fps und 100fps, wenn auch nur knapp. Manche merken auch Unterschiede bis rauf zu 144fps, auch wenn ich das nicht mehr kann (oder nie konnte, ich weiß es nicht).
Das geübte Auge kann das auch auf einem modernen, auf eine 3D Surface gerenderten Desktop schnell erkennen, indem man einfach Fenster rumschiebt. Da siehst den Unterschied zwischen 60Hz und 144Hz doch recht flott. Für mich ist der relativ gering, aber manche Leute merken das eben deutlicher. Genauso wie manche Leute bei einem 85Hz CRT immer noch Flimmern sehen, andere jedoch nicht mehr.
GrandAdmiralThrawn du bringst es auf den Punkt. Ne Röhre sagt dir ganz genau wann dein Hirn keine schnelleren FPS mehr verarbeiten kann. Das lässt sich durch Training/ Gewohnheit auch ändern. Habe ich Mitte der 90er die PS1 als schnelle 3D Hardware empfunden, bekomme ich heute ein Brechreiz. Die Kiste rendert die Frames so langsam, die kannste zählen, da braucht es kein Framecounter.
Das gibt sich aber nach einer gewissen Eingewöhnungszeit und man gewöhnt sich wieder daran. Ich nenne es das echte G-Sync (G=Gehirn), mein Hirn rendert fehlende Frames dazu. Es braucht nur etwas Übung.
[...] Es braucht nur etwas Übung.
...oder Bier!
Mit LSD werden auch 5 fps flüssig wie Wasser.
Mit LSD werden auch 5 fps flüssig wie Wasser.
😂😂😂
Wird quasi zum Geschwindigkeitsrausch!
genau genommen brauchst du nicht mehr FPS als dein Monitor anzeigen kann...
diese Diskussion macht keinen Sinn, wenn du dir nicht durchliest was ich im Beitrag zuvor geschrieben habe.
hier nochmal
Aktualisiert!
Karre bist dir sicher mit den 1400fps sicher?
öhm, da liegt ein (Tipp)Fehler vor.
Hab nachgeschaut, es sind 104 FPS
640x480
49,9 | 3dfxminiGL | 16bit | Karre | Voodoo3 3500 | K6-2+ 615Hz | VIaMVP3 | Win98SE | AmigaMerlin 2.3
39,6 | D3D | 16bit | Karre | Voodoo3 3500 | K6-2+ 615Hz | VIaMVP3 | Win98SE | AmigaMerlin 2.3
17,6 | Software | 16bit | Karre | Voodoo3 3500 | K6-2+ 615Hz | VIaMVP3 | Win98SE | AmigaMerlin 2.3
800x600
49,7 | 3dfxminiGL | 16bit | Karre | Voodoo3 3500 | K6-2+ 615Hz | VIaMVP3 | Win98SE | AmigaMerlin 2.3
1024x768
45,2 | 3dfxminiGL | 16bit | Karre | Voodoo3 3500 | K6-2+ 615Hz | VIaMVP3 | Win98SE | AmigaMerlin 2.3
Super interessant! Ich würde sagen, dass der K6-2+ einen PII nicht knacken kann.