Posts by Aslinger

    Ich stimme Marlon auch zu.

    Die Wohlstandszeit in Europa geht langsam zu Ende, die hohen Energiekosten und stark steigen Lebensmittelpreise wird vielen noch um die Ohren fliegen.

    Die 150€ Energiebonuskosten der österr. Regierung sind auch ein Witz, das ist fast eine 70L Tankfüllung. Sollte normalerweise mind. 1500€ betragen.

    Wir steuern Richtung Hyperinflation zu, bei mir im Umfeld jammern schon viele wegen den Kosten, vor allem Alleinerziehende die auf ein Auto angewiesen sind.

    Am wenisten jammern natürlich die Gutverdiener (Leute die zB einen IT Beruf ausüben). xD

    Da darf der Sprit dann auch noch 3€/L kosten um in die Arbeit zu kommen...

    Descent 3: Mercenary (Level 6+7) aus dem Jahre 2000 (3dfx Glide, 1024x768/2x FSAA, Voodoo 5 6000, damit sind mind. um die 40-60 fps möglich, 4x FSAA frisst nochmals die Hälfte weg). Unbearbeitete Bilder, einfach die in-game Screenshotfunktion verwendet. Full Scene Antialiasing frisst in diesem Spiel immens Leistung. Mit der 5500er habe ich da bei gleicher Einstellung viell. um die ~25 fps.


    Der Athlon XP war ein verbesserter K7 mit einer SSE Einheit vom Pentium III, erweiteter Translation-Look-aside-Buffer (TLB), Hardware-Data-Prefetching und war bis zu 20% flotter als ein gleich getakter Thunderbird. Als die XP CPUs noch neu waren hatte ich den 1800er und 2100er Palomino im Einsatz, später dann einen 2800er Barton/XP-M Barton 2500/2600 und war immer zufrieden. Vom VIA KT133A, KT400, KT600 und nVidia nForce2 hatte ich auch einige Socket A Boards im Einsatz.


    Ich fand damals eher den Pentium 4 "Scheisse" wegen der lahmen Netburst Architektur. Nur der 130 nm Northwood P4 war höchstens noch interessant.

    Der normale K6-III (ohne + und noch mit altem 250 nm Prozess), K6-2+ oder III+ waren schon gut brauchtbar. Der 256kb fullspeed on-Die L2 Cache (128kb beim 2+ die man seit kurzem jetzt auch modden kann auf den III+, falls die andere Hälfte nicht defekt ist) holte schon einiges aus der K6 (eigentlich NexGen) Architektur raus.


    Ein K6-III+ 550 kam dann immerhin trotz weiterhin schwacher FPU, ca. an die Leistung eines PII 350 heran bei Fließkoma intensiven Anwendungen. Beim Mainboard wir der L2 Cache dann zum L3 Cache. Finde ich sehr cool bei einem Super Socket 7 System (L1/L2/L3 Cache) und der K6-III/2+/III+ hat noch den Vorteil, dass man ein normales Socket 7 Brett, zb mit einem i430TX Chipsatz, die max. cachemem Limitierung von 64MB umgehen kann, weil das ja dann der eigene L2 Cache der K6 CPU übernimmt. Da gibt es dann keinen Leistungabfall mit mehr als 64MB Speicher gegenüber einer anderen CPU ohne eigenem L2 Cache. Damit die alten Socket 7 Boards überhaupt mit den K6+ CPUs laufen, musste meistens das Bios gemoddet werden, dazu gibt es diese Seite: http://web.inter.nl.net/hcc/J.Steunebrink/k6plus.htm


    Die Seite funktioniert aber gerade nicht (letztes Update war im Dez 2021), darum: https://web.archive.org/web/20…/J.Steunebrink/k6plus.htm


    Die normalen K6-2s ohne L2 Cache auf dem Die waren wirkliche Krücken, vor allem die höher getakteten K6-2 brachten kaum mehr was, weil der 2nd Level 2 Cache des Mainboards ja auf 100 MHz FSB begrenzt war. Ist dann der limitierende Faktor.


    Ich hab selbst ein K6-III+ Retro System mit Voodoo Banshee in Betrieb und bin sehr zufrieden damit. Durch den freien Multi der + Varianten kann man die CPUs auch gut drosseln für alte DOS Games.

    Das Leben wird auch immer teurer und es wird noch schlimmer werden! Da wundert es mich dann nicht, wenn man da geldmäßig versucht alles raus zu holen.


    Ich hab einen K5 PR166, der ohne Probleme als PR200 läuft, sogar mit 0,2V weniger Spannung (von den Stock 3,52V). Für den habe ich vor Jahren um die 20€ berappt.

    Unreal Tournament 2004 mit max. Details (1280x800 nativ Displayauflösung) auf meinem alten HP Pavilion DV6700 von 2008 mit AMD Turion 64X2-TL68 2400MHz und GeForce 8400M GS mit 256MB.



    Heute hat sich die 1. CMOS CR2032 Batterie meines Gigabyte GA-X58-UD5 nach über 12 Jahren verabschiedet. Der Erstbetrieb war Oktober 2009 und läuft seitdem als Alltagssystem. Die Uhr war komplett verstellt, Bios Settings aber noch gespeichert. Spannung der alten Batterie laut Messgerät war noch 1,25V. Nicht schlecht, und der Rechner war bei Nichtnutzung auch immer komplett vom Strom (ohne Standby Verbrauch). Erfahrungsgemäß müssen die CR2032 ja sonst meistens nach meist ~7 Jahren ersetzt werden. Kommt wohl wie immer auch auf die Qualität an.


    Ist genau diese hier, eine JHT aus Taiwan: http://www.jht-energy.com/cr2032.html


    Die neue, eine VARTA, hat laut Messgerät 3.30V, und Aida meldet es fast korrekt, die alte hatte nach der letzten Prüfung vor ein paar Wochen noch um die 2.70V:



    Das die Spannung dann nach einer gewissen unteren Schwellenwert dann schlagartig runter fährt habe ich schon bei meinen Retro Systemen beobachtet, ein Tag davor lief noch alles, und am nächsten Tag waren alle Bios Settings auf Default. Die CMOS Batterie hatte dann nicht mal 0.10V laut Messgerät. Waren meist ältere, noch taufrische CR2032 von anderen Mainboards "geklaut", weil ich CMOS Batterien mit über 3V noch verbrauchen möchte von anderen Boards, bevor ich komplett neue verwende. Die Mainboards in meiner Kollektion lagere ich alle ohne Batterie ein und die guten Knopfzellen mit noch über 3V Spannung lege ich auf Seite für die Retro PC Armada.

    Ich hatte 1999 einen PII 400 auf einem Gigabyte GA-686BX, war das allererste BX Board von Gigabyte. Darauf lief eine Voodoo3 2000 AGP@3000 AGP Taktraten (da gabs keine Jumper), völlig stabil, obwohl vor allem die 1. Gigabyte BX Boards da mit der AGP Versorgung Probleme hatten.


    Testsystem mit den Screenshots war ein Asus P3C-LS i820 mit dem letzten Beta Bios und ein Asus TUSL2-C mit i815EP, darauf lief die Karte einwandfrei. Das CUSL2-C wird sicher auch einwandfrei laufen, als auch spätere BX Boards, wie zB das P3B-F.


    Das i440LX hat ein FIC VL-601 Mainboard aus 1997, da gabs wohl noch viele Probleme mit stromhungrigen AGP Karten, sogar mit Standardtreiber unter Windows freezte laufend das System.

    Ja, der Plan war ursprünglich die S3 Savage 4 Pro im i440LX System durch die 2000er zu ersetzen, schlug aber aus Stabilitätsgründen fehl.


    Treiber habe ich mehrere austesten müssen und bin beim letzten Diamond Treiber geblieben, damit lief auch der 3DMark2000 etwas flotter als mit dem letzten offiziellen S3 Treiber. Mit Hardware T&L habe ich über 1000 Punkte weniger, (2329 Punkte, anstatt der 3900) weil die T&L Einheit bei der Savage 2000 ja bekanntermaßen fehlerhaft war.


    GLQuake links ohne Hardware T&L und rechts mit aktivierter Hardware T&L unit


    Link zu S3 Savage 2000 Treiberpaketen


    Ja, geht halt nur per Goldfinger Device. Beim VIA KX133 ist meistens bei FSB 110 Ende im Gelände, aber die I/O Voltage rauf drehen wird viell. noch ein paar FSB MHz mehr bringen.


    Diamond Viper II Z200 mit S3 Savage 2000:

    In meinem i440LX System will die Karte nicht, das Sys hängt sich hier jedesmal auf. Wohl zu hohe Stromaufnahme am AGP Port, war ja oft ein Problem bei früheren AGP Boards, weil mit einer i820 und i815 Plattform läuft sie völlig normal.


    Die Frage wäre jetzt, läuft der auch als 900er nach original Spezifikation? Vielleicht wurden bei AMD die Chips erst nach dem labeln auf Taktstabilität geprüft.

    Die CPU läuft zumindest mit 825 MHz und 1.70V stabil, also mit einem FSB von 110 MHz, unter 1.70V VCore kamen dann erste Fehler in Prime95. Mangels Goldfinger habe ich nie weiter getestet. Ich kann mir vorstellen, dass die 900 MHz sicher mind. 1.75V VCore erfordern, aber dann wäre das geradeso noch in Spec.


    Der 1000er T-Bird Slot A den ich jetzt nutze, braucht für die 1GHz nur 1.60V VCore (anstatt den normalen 1.75V) um noch komplett Prime stable zu laufen. Der 750er läuft noch mit 1,63V stabil in Spec.


    Vielleicht ist der 750 T-Bird ein Aussschuss der 900er Dies?, der die Stabilitätstest für die 900er TBirds nicht bestanden hat, und wurde dann abgestuft für die 700er bis 850er Versionen.


    Undervolting deswegen, weil die Thunderbird Athlons heizen eh so stark und dann lebens auch noch länger. Mittlerweile bald 22 Jahre alt!

    Bei mir lädt es auch extrem langsam, dauert halt um die 5 Min bis alles da ist. Erinnert an ein 28k Modem, Browser ist der Waterfox classic.


    For me it also loads extremely slowly, just takes about 5 min until everything is there. Reminiscent of a 28k modem, browser is the Waterfox classic.

    Die Panetenmissionen unter Wing Commander IV waren im SVGA Modus performancetechnisch immer eine Herausforderung, auch mit einem 233 MMX ruckelte es dann, darum hab ich den 4. Teil letztens auf meinem AMD K6-III+ 550 Sys durchgezockt, jederzeit eine 1A Performance.


    Die WC IV Plantenmissionen müsste man mal mit einem Pentium 233 MMX und Pentium Pro auf 233 MHz getaktet, gegenüber stellen. 256kb/512kb/1024kb L2 Cache Versionen des PPro gibts ja auch noch.

    In 640x480 sind oft 60 fps drin. Die PowerVR Version von Tomb Raider 1 gefällt mir auch besser als die 3dfx Variante und ist auch nicht auf 30 fps (3dfx Version) begrenzt.

    Tomb Raider 1 zocke ich gerade mit der Matrox m3D PowerVR PCX2 in 1024x768, HIER eine kurze Videodemonstration, nicht auf YouTube xD. Der Celeron 333 Mendocino lastet die PCX2 meiner Meinung nach sehr gut aus, darum wanderte sie auch in dieses System.

    Quake 2 in 1024x768 mit 8x FSAA und einem LOD (Level of Detail Bias) Wert von -8 kann ich nur empfehlen! Gute Kühlung ist das A und O, denn bei hohe AA Settings wird die 6000er glühend heiss!


    Darum habe ich seitlich im Case noch einen 220 mm Lüfter, falls mal einer von den 4 Lüftern während des Betriebens den Geist aufgibt. Das dient das dann auch quasi als "Schutz".