Beiträge von FalconFly

    Tja, ich bleibe auch notgedrungen bei meinem SynthFont-Player (http://www.synthfont.com)...

    Leider kein Reverb und Echo im Player selbst, das muss ich ebenfalls notgedrungen in meinem Soundtreiber einstellen (und habe nur ein halbwegs passendes Preset)

    Wenigstens kann ich wenigstens die SoundFonts beliebig einbinden und komme je nach SoundFont (damit steht und faellt alles) dem Ergebnis des Threaderstellers schonmal verdammt nahe.

    Ich klinke mich mal mit einer kurzen Frage ein :

    Kann mir irgendjemand die AWE32/AWE64 SoundFonts (2/4/8MB) zukommen lassen ?

    Ich habe selbst noch eine Sammlung von Midis (meist Games), die ich mit LoopBe/Synthfont-Utilities abspiele (AWE Emulation in Software). Leider fehlt mir der 8MB Soundfont und die 2/4MB koennten veraltet oder fehlerhaft sein :(

    Mit der alten SB Live! Player 1024 gefiel mir der Midi-Sound auch, weiss aber nicht mehr, ob dort spezielle Live!-SoundFonts im Spiel waren (denke nicht, bin mir aber nicht sicher)

    Ich seh's mittlerweile auch so....

    Alle Hersteller kaufen und verbauen Komponenten vom billigsten Anbieter, so laeuft das mittlerweile nunmal.

    Die einzigen Phasen besonders hoher Defekt-Raten hatte ich mit der IBM "Deathstar" Serie und den fruehen Samsung 80-160GB Versionen (im Prinzip alle mit der ersten Generation der GMR Lesekopf-Technik).

    Ansonsten habe und hatte ich Exemplare von Quantum, IBM, Samsung, Maxtor, Hitachi, Seagate, Western Digital mit jeweils bis zu 30000 Betriebsstunden und mehr...
    Und die Dinger laufen und laufen und laufen (werden mit der Zeit bestenfalls lauter, machen haeufiger eine thermische Kalibrierung oder sonstige Zicken wie zufaelliger Power-loss, verzoegerte Initialisierung/Power-Up & Co.... aber sie laufen, manchmal halt nach etwas gut Zureden oder "Vorgluehen" wie alte Diesel *g*)

    Fuer mich sind Festplatten quasi "Verbrauchsmaterial", habe eigentlich immer einen Stapel verschiedenster Groessen und Hersteller einbaufertig hier liegen.
    Das hoechste Risiko nach so langem Dauerbetrieb ist fuer mich - Hersteller-unabhaengig - ein Power-On nach einer laengeren Pause. Die Dinger moegen's allesamt dann halt nicht unter ihrer normalen Betriebstemperatur *g*

    Zum Topic :
    Ich verbaue seit Ewigkeiten fast nur VIA (frueher hier und da SiS oder ALi/ULi, NVidia kommt fuer mich nicht in Frage).
    Absolut keine Probleme mit dem Chipsatz, mit Ausnahme des herausragenden und ungeschlagenen ULi M1695 sind es die sparsamsten Chipsaetze und haben alle Features die ich brauche.
    (und wir reden hier von 24/7 Dauerbetrieb auch unter Extrembedingungen, fast 200000 Betriebsstunden pro Jahr)

    Macken haben IMHO bestenfalls die Boards, auf denen sie verbaut sind oder der Hund ist in einem nicht ganz ausgereiften BIOS vergraben. Aber dafuer kann der Chipsatzhersteller nichts, das ist Sache der Boardhersteller (die meist natuerlich auch auf jeden Cent achten... All Made in China - mehr muss man da nicht dazu sagen)

    Abgesehen von "Montags-Boards" ist der Unterschied z.T. frappierend :
    Trotz identischem Chipsatzes arbeitet ein Board kaum stabil und ist nur mit extremen Aufwand zu betreiben (Albatron K8X800-ProII), der "Kollege" von MSI oder ASUS dagegen schnurrt mit identischer Config nur so vor sich hin... Passiert halt.

    ...und Windows 2000 war das beste Windows, das MicroSoft jemals zusammengebacken hat. Alles davor ist ihn unterlegen, alles danach einfach nur Resourcenfressend und von Spyware/Malware regelrecht zersetzt.

    Achtet in modernen Systemen mal darauf, wie warm bzw. wie heiss die Voodoo2-Chips werden.

    Banshee, Voodoo2 und z.T. auch Voodoo3 haben den "Overheat Bug".
    Der koennte zu den beobachteten Problemen fuehren, wenn der Chip stark ueberhitzt.

    Ansonsten ist die Kombination ATI Radeon und Voodoo2 als Problemkind bekannt, sollte aber mit den dafuer gefixten Treibern funktionieren.

    Zitat

    Original von DungeonKeeper1
    Was ist denn dann mit den CPU-lastigen Spielen, bei denen eine Änderung der Auflösung auch eine Entlastung der CPU zur Folge hat.
    Soweit ich weiß sind OpenGL und auch evtl. Glide Games mehr CPU-lastig, D3D-Games eher GPU-Lastiger.

    Mit manchen OpenGL- und Glide-Games hast du Recht, allerdings sind das in der Masse betrachtet aus meiner Erfahrung eher Ausnahmen.

    IMHO werden dort einige Effektberechnungen bzw. isolierte T&L-Funktionen auf die CPU umgelegt (aus welchen Gruenden auch immer), waehrend DirectX das konsequent vermeidet.
    Ist mir z.B. bei Doom3 auch aufgefallen, trotz sehr potenter Grafikhardware.

    Bei GLquake, UnrealTournament & Co hatte ich diesen Effekt allerdings nie beobachtet (bzw. er war nie deutlich sichtbar).
    Duerfte wohl fast nur mit sehr schwachen CPUs auftauchen, wenn diese klar das schwaechste Glied in der Performance-Kette sind.

    DungeonKeeper

    Die Geometrie aendert sich nicht bei Wechsel der Aufloesung.
    Das System muss weiterhin die identische Anzahl an Polygonen berechnen (egal ob 320x200 oder 1600x1200) - lediglich die Optik leidet entsprechend.

    Die Belastung des Videospeichers und in sehr geringem Umfang der GPU sinkt lediglich linear zur reduzierten Aufloesung ; die CPU-Last steigt dadurch sogar, weil die CPU nicht so oft auf die Grafikkarte warten muss.

    Mit der korrekten (kleineren) MTU steigt der Durchsatz normalerweise z.T. deutlich, weil Internet-Router die Pakete ansonsten erst Fragmentieren muessen, der Overhead (TCP Ack) sinkt und der Ping ebenfalls leicht.

    Grund ist einfach der, dass pro angefordertem Datenpaket nur ein Frame uebertragen werden muss und dieses praktisch in der Idealgroesse ankommt. Ansonsten vergeudet man die Zeit mit dem Splitting (Serverseitig) und dem Re-Assembling (Clientseitig) der Fragmente, die Fehlerwahrscheinlichkeit (TCP re-send / Packetloss) erhoeht sich entsprechend.

    Manche Internet-Router verweigern das Splitting sogar, sodass es zu stockendem Datenverkehr oder gar zu unerreichbaren Seiten kommen kann.

    Das Setzen der korrekten (idealen) MaxMTU gehoert daher zu den ersten Massnahmen nach Installation eines ADSL-Anschlusses.
    (gilt im Grundprinzip auch fuer ISDN oder Analog, allerdings mit anderen Schwerpunkten)

    -------

    Falls das ADSL-Modem allerdings den Sync verliert, hat das eigentlich nur den Grund, dass das Signal-to-Noise Ratio punktuell zu schlecht ist.
    Gruende gibt es mehrere (in einer der letzten CT's war ein hervorragender Artikel), meist eine Kombination aus Leitungsdaempfung, Anzahl der DSL-User im Einzugsbereichs des Access Concentrators und daraus resultierende Stoerstrahlung (Kabelleitungen zum und am Access Concentrator selbst)

    Bei 16MBit wuerde ich auch das Kabel zur Telefondose pruefen.
    - fuehrt es evtl. an starken elektrischen Verbrauchern entlang (passive Induktion) ?
    - sind Adapter/Steckverbindungen 100%ig okay ?
    - laeuft es parallel zu anderen Strom- oder Datenleitungen (Signal Coupling) ?
    - ist es geradlinig verlegt oder stellenweise eingerollt (Eigeninduktion aka Spulen-Effekt) ?
    - ist es ein nagelneues, speziell fuer den Einsatzbereich beschafftes Kabel oder noch ein altes ?

    Naja, fuer mich war Stalker ein gehypter Flop.

    Von dem, was alles drin sein sollte, fehlte das Meiste oder war stuemperhaft implementiert. Rausgekommen ist ein generischer 3D Shooter mit vollkommen linearer Story und sich immer wiederholenden "Gehe von A nach B und besorge X" oder "Laufe zu X und rede mal mit Z", von den 0815-Quests und den "Oh Toll auf dem PDA des Toten wird zum 50. Mal auf das gleiche Versteck hingewiesen - wo eh nur Muell zu holen ist" mal ganz abgesehen.

    Fuer mich wird "Clear Sky" daher ein must avoid.

    Off-Topic :

    Hm, einige der hier gelisteten Platten sind bedenklich warm (inklusive meiner zwei).
    Ich hatte nach einem Umbau vergessen, die zwei Frontluefter wieder anzustecken, jetzt sind beide wieder deutlich unter 40 Grad.

    IMHO sind Temperaturen von deutlich >40 Grad nicht gesund fuer moderne Platten, die Alten kommen meinen Erfahrungen nach scheinbar besser damit zurecht.

    Ich werd mal im Netzwerk wieder nachsehen, welche Frontluefter ich im Winter noch so abgeschaltet hab, jetzt werden sie wieder gebraucht.
    Die letzte 80'er, die mir am Wochenende Probleme gemacht hat, war beim Ausbau mehr als 50 Grad heiss - IMHO der Grund fuer das Herumzicken der Platte.

    Hmm...

    Nachdem ich mal meiner Radeon X1900XT eine Auszeit goenne (spiele eh so gut wie nicht mehr), habe ich eine Radeon 7000 64MB 4xAGP verbaut.
    So ist es leiser, spart Strom und reduziert die Hitze im Rechner...

    Kurios nur :
    In 1280x1024 32bit scheint die Karte zu langsam, um z.B. in Firefox 2.0.0.4 Webseiten wirklich fluessig zu scrollen. (Win2000 SP4)

    Besonders grafiklastige Seiten zuckeln merklich, die CPU-Auslastung (Kernel) meines Athlon64 3700+ steigt dabei extrem an.

    Aehnliches ist z.B. bei Minimieren/Maximieren von Fenstern zu beobachten (man kann regelrecht sehen, wie der Bildaufbau 1-2 Frames dauert)...

    Neueste Chipsatz-Treiber fuer das AsRock 939DUAL-SATA2 sind natuerlich installiert, als Grafiktreiber fiel meine Wahl auf den Catalyst 5.11 (der letzte, den es auch mit dem guten alten Control Panel gab).
    Die Ergebnisse waren mit moderneren Grafiktreibern zudem unveraendert.
    Die Karte laeuft allein auf IRQ 16 (ACPI), keine Konflikte erkennbar.

    3D Benches laufen dabei mit der zu erwartenden Performance, keine Probleme....

    In 16bit verdoppelt sich die 2D-Performance, die CPU-Auslastung ist beim Scrollen zwar immer noch ueberraschend hoch aber auf diesem Level weniger problematisch...

    Kennt jemand so ein Problem, kann der 2D-Treiber wirklich so lahm sein?
    Das Win2000 ist nagelneu installiert, also noch absolut clean.

    In Firefox ist "Sanfter Bildlauf" deaktiviert, sonstige Performance-saugende Optionen sind nicht aktiv (keine Schriftartenglaettung etc.). Mit 2GB RAM gibt's eigentlich auch sonst keine Performance-Probleme.

    ------

    Auch wenn ich damals nur 1024x768 32bit als Desktop hatte, sind mir derartige Probleme selbst von viel aelteren Karten nicht bekannt. *kopfkratz*

    Musst mal rausfinden, auf wieviel Ampere die Netzteile kommen, wenn sie ihre 12V-Schienen zusammenlegen (combined power)...

    Dass es nicht die Summe der 12V-Schienen ist, war mir beim BeQuiet! schon klar, allerdings ergab z.B. da die Rechnung 14A+16A lediglich 18A (216W), man kann also damit ganz gut auf die Nase fallen.

    Falls die Ampere oder mindestens Watt nicht explizit fuer "combined Power" der 12V-Schienen angegeben sind, waere ich zumindest vorsichtig - nicht dass dir das Gleiche passiert wie mir.

    -- edit --

    Beim Antec steht's selbst in den Specs nicht drin, ich wuerde deswegen davon abraten.
    IMHO hat es immer einen Grund, wenn ein Netzteilhersteller lediglich "Total combined Power" (Summe aus 3,5,12V) werbewirksam angibt - die Gesamtleistung der am staerksten belasteten 12V-Schienen trennt aber heutzutage die Spreu vom Weizen.

    Wenn es dort gute Werte erreicht, dann wuerde man es auch sicher angeben und damit die Qualitaet des Netzteils bewerben.

    Voodoo_Freak

    Aus dem P3D Forum habe ich mich schon vor Jahren abgemeldet, die sehen ganz sicher keinen Beitrag mehr von mir ;)

    @Boomerang

    Meins war auch leise und scheinbar stabil - bis es gekracht hat - allerdings duerfte deins die lediglich 3A noch gut wegstecken.
    Welches Modell ist es denn, das immerhin 27A combined liefert ? Mein BQT-E5 schaffte ja nur 350W - 18A combined.

    Ich wuerde auf die Angaben ueber die Anforderungen an die 12V-Schiene achten.

    Ein nagelneues beQuiet! 350W (14+16A 12V) wurde nach einem Monat im Betrieb mit einer Radeon X1900XT zerstoert, fuer welche die Anforderungen 30A auf 12V betragen. Bis zu diesem Tag lief es scheinbar tadellos.

    (ich hatte schlichtweg ueberlesen, dass das be Quiet! 350W nur auf 18A kombinierter 12V-Leistung kommt - Ergebnis : eine Hauptspule und angrenzende Plastikisolatoren geschmolzen... der 120'er Fan hat das fluessige Plastik zum Glueck aufgehalten/abgelenkt... Netzteil zerstoert - hat sich aber nicht abgeschaltet, dafuer konnte ich 3-4 elektrische Entladungen pro Sekunde aus dem angeschlagenen Netzteil hoeren... Und das geht mal gar nicht)

    Der Tod kam hier nicht durch den Watt-Verbrauch (max. ca 220W unter Volldampf, also eigentlich erstmal tief im gruenen Bereich), sondern durch Ueberlastungsspitzen auf den 12V Schienen.

    Ein Levicom 420W mit 22A auf 12V lief zwar sein einem Jahr scheinbar problemlos, allerdings machte es sich aufgrund der Ueberlastung mit "Spulen-Summen" und Spannungsabfall regelmaessig auf sich aufmerksam.

    Erst mit dem Einbau eines 500W Enermax Liberty mit 2x22A auf 12V laeuft jetzt alles wieder im gruenen Bereich - mitsamt Sicherheitspuffer.

    Mein persoenliches Fazit :
    Netzteilanforderungen grosser Grafikkarten nehme ich nicht mehr auf die leichte Schulter - das hatte ich bislang vernachlaessigt und nicht weiter beachtet.
    Das haette auch in's Auge gehen koennen... bei den Leistungen, die mittlerweile so durch einige Komponenten fliessen auch nicht verwunderlich.
    Das Lehrgeld von ca. 60 Euro zahle ich da aber gerne, bin so recht billig haarscharf an einer Katastrophe vorbeigeschrammt und habe eine wichtige Lektion gelernt [Blockierte Grafik: http://www.falconfly.de/img/scared.gif]

    Positiver Nebeneffekt :
    Bei der ueblichen, geringen Auslastung (nur CPU-last, keine 3D-Belastung) ist der Stromverbrauch von 135W auf 128W gesunken, das neue Netzteil spart mir also sogar Strom durch seine hohe Effizienz.