Posts by Dennis_50300

    CryptonNite :

    Ich werds messen...kommt noch :P

    Ist eben wenn auch manchmal ätzende..., Mathematik die sich immer wiederholt.


    Equilizer, hast du beispielsweie bei Bildbearbeitung auch, sind dieselben Formeln.

    "Zerobrain" hat das mal schön gezeigt wie ein Verstärker funktioniert..., nunja ist mit diesen Class-D an und für sich dasselbe, PWM eben...


    Back to Topic wäre mal ganz gut, also entweder gibt es eine ältere Version vom MSI Afterburner mitsamt RTSS oder eben eine alternative, die es dann hoffentlich ebenfalls ermöglicht ein FPS-Limit zu setzen.


    Warum das FPS Limit über RTSS besser ist b.z.w. im Energieverbrauch erstmal überhaupt greift macht ja auch zumindest insofern Sinn, als das es ja eh schon so ist, wenn das Game/Engine es selbst ermöglicht diese zu Begrenzen, der Afterburner b.z.w. RTSS machen das ja über Hooking und nunja, so tut's ja dann eben doch das Game/Engine es selbst auch wenn das dann ne Manipulation ist, die allerdings super funktioniert.


    Vielleicht sollte ich aber auch mal versuchen anstelle des LG Flachmanns, mal meine gute alte Iyama Röhre aus dem Keller holen und mal wieder zum Leben erwecken, könnte was mit Interlace auf sich haben, sprich für 60 oder 75Hz muss dann nur die Hälfte an FPS laufen, der LG hier der maximal 1280x1024 kann und zwar trotzdem auch 1024x768 gut darstellt...nunja... ist ja LCD.

    Das macht zumindest insofern Sinn warum Midtown Madness 1 und 2 laufen wie ein Sack Nüsse aufm P3, da reichen wohl die FPS schlichtweg nicht aus das der LCD das flüssig darstellt...hm...



    Gruss Dennis


    Öhm, deinereines hatte ich eigentlich anders in Erinnerung aber gut...., Öhm, stell Gemessene Stromverbrauchswerte einfach mal als Voodoo dahin, Mathematik ist Zauberrei ja.... :D

    Wie glaubst du bitte denn, das die Nullen und Einsen anders funktioneren hm ? Schaltvorgänge an/aus = 1/0, binär, *hust*, ich dachte da auch mal anders, aber da bist du völlig auf dem Holzweg mein Lieber :-)


    VSync..., Messergebnisse = nope, Grafikkarte arbeitet da AFAIK genauso wie die CPU ;-)

    VSync ist genauso für die Tonne, wie ohne FPS-Limit, Frametime ist in beiden Fällen, Vsync an sowie aus, schlechter als mit gescheitem FPS-Limit.


    VSync = funktioniert nicht, in Sachen Stromverbrauch, ist es dasselbe wie ohne FPS-Limit

    Zudem ist sowas wie Cool'n'Quiet/EIST also weniger Takt und abgesenkter Spannung totaler Unfug, siehe Messergebnisse, CPU und auch GPU, denn auch mit FPS-Limit ist Spannung und Takt dasselbe, nur die Last eben nicht, es werden eben nicht alle in dem Sinne "Umschalter" im Takt umgeschaltet. (Die Menge der Umschalter, nach Last macht den Stromverbrauch, nicht nur der Takt an sich mit der Spannung)


    Jop C0 dürfte es sein, was auch schon uralte P3's konnten (vermutlich funktionierts mit guten Boards dann vielleicht mal in der Prompt von MS-DOS), IDLE ist nunmal doch ne ganze Ecke mehr als nichts, sonst würde das Betriebsystem ja auch nicht laufen.

    Wie du an meinen Messergebnissen siehst, Cool'n'Quiet ist aus und ich habe nur durch Undervolting trotzdem mal eben 10 Watt bei derselben "Last" (IDLE) gespart :-)


    Edit:

    Was du später schreibst mit dem Leerlaufprozess, das Ding ist ne Gegenrechnung damit Windows die last aufteilen/zuweisen kann, das geht sogar insofern auf, als das alte eigentlich Single-Core Software, sogar mehrere Kerne verwendet anstelle von nur einem, die Zauberrei liegt in "Threads" die das OS zuteilt.

    Ein Athlon XP macht auf XP auch einige hunderte Threads, er arbeitet die ab und das sogar parallel mit nur einem Kern...öhm... Schaltwerk..nuja... :-) (Schalter, parallel) Genau aus diesem Grunde ist der Ryzen von AMD ja aktuell ja auch so genial am Start und AMD's wiedermal Comeback, Preis/Leistung und nuja es greift halt ne, Single-Core Leistung ist schon länger vollkommen uninteressant, das war schon beim FX so


    Das mit "Rain" werd ich mal probieren, es ändert aber dennoch nichts daran wie die CPU nunmal funktioniert, wie das damals mal schon implementiert war oder eben auch nicht, ist alles irgendwo Äpfel und Birnen vergleichen.


    Mein Gericom (Plus) Notebook hat AMD Powernow, was wohl was ähnliches darstellen wird wie "Rain", ich war dann mal interessiert und hab das von Gericom gelieferte mal auf meinem Athlon XP 3200+ mit WinXP installiert, da bringt es nichts, ist wohl auf die mobile-versionen der Athlon XP's zugeschnitten und oder auch der Chipset der da verbaut ist. (wenn es takt und spannung sein sollte, was irgendwie offensichtlich ist, wäre auch denkbar das man den FSB runtergeschraubt hat um den Takt zu senken, Spannung hätte man ja da auch dann senken können...denk ich mir..., FSB übertakten war immer ganz schlecht, aber den Takt runterstellen ohne Last, dürfte kein Ding sein)


    Am Ende des Tages ist das aber das worauf es nunmal ankommt, die Last, deshalb gehen die Sandy Bridge und wenn es davor schon was gab mit "Turbo"-Technik ja immer in den Turbo.

    Ich habe meinen i7 2600 unter Last nie zwischen dem IDLE-Takten und den Last-Takten gesehen, auch nicht den maximalen Basistakt, es ist dann immer der Turbo :D

    Das ist ja auch der Grund warum man recht einfach einen nicht "-K" Intel dennoch übertakten kann, solange das Board und das Bios es zulassen das man die Turbo-Multiplikatoren effektiv verstellen kann.


    Wie man an meinen Messergebnissen und deutlich dargelegten Fakten der Digitaltechnik und der Funktion der CPU aber sieht, Takt und Spannung senken bringt am Ende des Tages, einfach absolut garnichts im Stromverbrauch, wie man am Ryzen sehen kann, spart man sogar 10 Watt, wenn man während Undervolting genau diese Funktion abschaltet.


    @CryptonNite

    Genauso funktionieren auch Class-D Endstufen in modernen Audiovideoreceivern, Stromverbrauch nach Last, Dauerleistung und Impulsleistung, jenachdem was denn verstärkt werden soll, wie das Audiosignal nunmal aussieht, von dem was man da Abspielt/zuspielt, Loudness War = mehr Dauerlast, gut HiFi Quelle, eben mehr Impulsleistung (Dynamikleistung) anstelle von Dauerleistung.

    Lautsprecherchassis rein und raus ist genauso quasi binär, also an/aus, 1/0, prinzipiell könnte man ne CPU direkt als Ausgabegerät für digitale Soundausgabe nutzen, Lichtleiter raus oder eben Coax-Digital, müsste gehen :D

    Eventuell sogar analog, Wechselspannung, das hin/her (Lautsprecherchassis, raus/rein), könnte genauso auch 1/0 sein, ja nun, klemmt sicherlich noch deutlich mehr dahinter, sonst hätte man das sicherlich längst getan


    Gruss Dennis

    Nunja, es fühlt sich an wie haufenweise Mikroruckler, drück ich es mal so aus ^^


    Vsync ist aus, durch die Treiber, ähnlichen Effekt merke ich alelrdings auch auf nem 3200+ Barton mit x1950Pro auf dem WinXP..., mit NFS Most Wanted.

    Also entweder muss man bei entsprechenden Kisten die Details tatsächlich hier und dort rausnehmen (abgehesen von visueller nachbearbeitung, bloom, motion blur und sonstigen Effekten die es hässlich machen) oder man ist einfach lange schon viel zu verwöhnt von stabilen 60 bis 75 FPS und zuguterletzt heutzutage auch noch Freesync (Gsync compatible) :-)


    Früher ging das irgendwie alles mal, fühlte sich toller an, also entweder fehlt mir eine Konfiguration, irgendwas was ich heute nicht mehr blicke so mal eben auf die Schnelle oder aber da geht einfach nichts mehr und das war wirklich so schlecht damals nur besser in Erinnerung geblieben :D



    Gruss Dennis

    Hey Leute,


    das ist einfach nur merkwürdig, ich hatte das zumindest viel viel toller in Erinnerung gehabt :D

    Witzigerweise läufts auf ner aktuellen Kiste mit Win10 tatsächlich sogar auch, keine Setupprobleme, paar Patches aus "PCGamingwiki", xp mode sp2, dgvoodoo2

    Okay im Vollbild 60, im Fenster gehts dann aber ohne VSync mit FPS Limit auf 74 FPS.


    Öhm joa, das ganze mal auf einem Pentium III 1000EB mit 512mb ram und WinME installiert (9600er ATI mit 128mb, AGP), bäääh läuft das ekelhaft...

    Ist da irgendwas schräg mit dem Catalyst 6.2/ATI Karten bei dem Spiel oder hab ich das einfach tatsächlich viel besser in Erinnerung als es wirklich war/ist ?


    Ich mein die Systemvorrausetzungen die draufstehen sind ja ein Witz

    Pentium 233 (266 beim MM2)

    32MB RAM ( 32 auch bei MM2, es sei denn Win2000, dann 64MB)

    4MB Graka (b.z.w. 8MB MM2)

    DX7 b.z.w. DX7.0a API bei MM2


    Nuja mal sehen, hab ja noch 2 P3's einen davon mit NV (geforce 3, 64MB) und nen athlon XP2500+ mit 1GB für 98SE/ME mit ner 9600 XT mit 256mb und irgendwo ist auch ne 9800pro verbaut.

    Vielleicht ja auch einfach mal den 3200+ mit der x1950pro mal probieren was... hm...


    Ich meine aber das das mal auf nem PIII 600 und später dem 750er Slot noch super gelaufen ist, also entweder täuschen mich meine Erinnerungen, oder man ist von dem ganzen neuen so krass verwöhnt das einen das alte Zeug von den Socken hat wie schlecht das teilweise echt gelaufen ist.... :steinigung:


    Gruss Dennis

    Nun also wenn man GRID 2 Beispiel betrachtet, für denselben Effekt am Bildschirm ein Unterschied von 50 Watt ^^


    @GAT

    Solange die Umschalter des Schaltwerks bei weitem ausreichend sind, wird das nicht der Fall sein.

    An und für sich ist die reine Funktion der CPU schon sehr effizient ;-)


    @Bier & @Matrox

    einen ähnlichen Effekt wird man auch bei den Retrokisten erwarten können, die Games laufen besser (weniger schwankende FPS, konstantere Frametime) obendrein wird man im Durchschnitt auch eine gewisse Leistung einsparen.


    Der Vergleich ob und wieviel wäre halt interessant, es ist ja nunmal in der Grundfunktion her dasselbe System, es wäre interessant ob man da wirklich mittlerweile die Effizienz gesteigert hat, oder ob dabei Prozentual gesehen dasselbe dabei herauskommt.

    Schon alleine das ich effizienter und stromsparender unterwegs bin obwohl ich das runtertakten und Spannung senken (Cool'n'Quiet) abgeschalten habe, normalerweise dürfte das so ja nicht sein, wie kann denn eine Stromsparfunktion mehr Strom verbrauchen wenn Sie aktiviert ist nicht wahr :D :P


    Das Ding ist halt, da kann ja soviel Spannung anliegen wie will an den Umschaltern, der Takt wenn geschaltet wird kann auch derselbe bleiben, aber wenn die Umschalter nunmal nicht schalten, verbrauchen Sie wohl auch keinen Strom, so funktioniert das Ding ja nunmal.


    Verbrauch nach Last halt, da die Last der CPU durch ein FPS_Limit aber auch weniger wird, kann man sich Luft machen an der Performance wenn man nicht immer nur alte Schinken spielt, sondern aktuellere Sachen die die Kiste auch fordern, für Passagen wo es dann mal grenzwertig werden kann.

    Im Optimalfall sieht es dann so aus, das ohne FPS_Limit CPU oder GPU limitiert, aber mit FPS_Limit, limitiert eben nichts mehr, dann ist die Kiste insgesamt eben absolut ausreichend, aber eben nur mit dem Limit, ohne Limit, kann es dann halt mal ins Stocken geraten.

    Also wenn kein FPS-Limit geht an und für sich fühlt sich VSync zumindest besser an insgesamt, nur wie man sieht selbst auf modernen Kisten ist das einfach nur bescheuert wenn man den Stromverbrauch anschaut, mit fps limit vs. ohne FPS Limit vs. VSync.

    VSync verbrät ähnlich viel Strom aus der Buchse wie ohne FPS-Limit, das ist einfach sinnfrei, wenn man mit dem passendem FPS-Limit eine deutlich bessere Frametime bekommt und dabei im Vergleich sogar noch jede Menge Strom einspart. (...eben keine Leistung verschwendet)


    Gruss Dennis

    Hey Leut, hat jemand ne Idee wie man das anstellt am besten ?


    Zum einen geht es natürlich gewissermaßen um den Stromverbrauch, den ich die Tage gerne mal messen wollen würde, zum anderen, weniger bis garkeine Framedrops natürlich, ich will gerne ne konstantere Performance haben.

    Ausprobiert habe ich bislang noch nichts aber auf ner XP Retrokiste probiere ich einfach mal den Afterburner wie das heute halt auch so am besten funktioniert eben



    hier mal einige Messdaten zu meiner aktuelle Hauptkiste, einfach weil es zum Thema passt


    System besteht aus:

    - Asus B450-A Pro

    - AMD Ryzen 5 2600x (PBO aus, Core Boost aus, Cool'n'Quiet aus, fest auf 3,9GHZ mit Undervolting, bei um die 1.212V)

    - 3000er DDR4 32GB Kit, Corsair Vengeance LPX CL16, kann den bei XMP 1,35V auch auf 3200 laufen lassen (da könnt ich mich ärgern, die haben bei "hwhdotde" denselben als CL15 anstelle CL16, für exakt dasselbe Geld)

    - KFA2 GTX 1060 die mit dem GDDR5X Speicher (+100/+1000)

    - SB1040 X-Fi Xtreme Audio, ich wollt ja gerne wieder EAX haben für alte Games und da der OnBoard ohne digitale Ausgänge bei dem Brett völliger Käse ist, bot sich an diese auf eBay zu schiessen, PCIe eben, keine PCI Schnittstellen mehr.

    NVME hab ich mir bisher gespart, sehe ich für meine Zwecke keinen Sinn drin, hab ne 256er und ne 500er SSD drin und zwei Platten jeweils 3TB....

    - AOC G2590VXQ (Freesync von 30 bis 75HZ/FPS, Gsync compatible bei NV, Vorraussetzung ist dafür Windows 10, aber gut, damit kann man inzwischen leben)


    nun zu den Messdaten, im Schnitt spare ich so etwa 30 bis 60 Watt wohl, bei exakt derselben Performance wohlbemerkt, die 3,9 auf allen Kernen laufen nunmal eh meist und PBO und so reissen da nicht wirklich was, ausser ordentlich höhere Temperaturen zu erzeugen und den Stromverbrauch ordentlich in die Höhe zu treiben, man siehts ja an 4GHZ auf allen Kernen, deutlich mehr Spannung und dann ist es eben nichtmal stabil :D :P


    LLC 6, 3900 MHZ

    NB/SOC 1.1000V

    CPU VCore 1.2250V


    IDLE ~70 Watt

    LAST PRIME95 ~180 Watt

    LAST PRIME95+Fire Strike ~ 307 Watt

    LAST Shadow of the Tomb Raider DX12 ohne fps limit 238 Watt

    LAST Shadow of the Tomb Raider DX12 mit 74 FPS limit 230 Watt

    LAST Shadow of the Tomb Raider DX12 Menü 88fps 200 Watt

    LAST Shadow of the Tomb Raider DX12 Menü mit 74 FPS limit 191 Watt

    LAST Tomb Raider ohne fps limit 207 Watt

    LAST Tomb Raider mit 74 FPS limit 200 Watt

    LAST Tomb Raider Menü ohne fps limit 211 Watt

    LAST Tomb Raider Menü mit 74 FPS limit 168 Watt

    LAST GRID 2 Menü mit fps limit 75 FPS vsync 196 Watt 1FPS/Watt=2,614

    LAST GRID 2 Menü mit fps limit 74 FPS (nvidia profile inspector) 193 Watt 1FPS/Watt=2,61

    LAST GRID 2 Menü mit fps limit 74 FPS 168 Watt 1FPS/Watt=2,28

    LAST GRID 2 Menü mit fps limit 99 FPS 192 Watt 1FPS/Watt=1,94

    LAST GRID 2 Menü mit fps limit 136 FPS 211 Watt 1FPS/Watt=1,55

    LAST GRID 2 Menü ohne fps limit 198 fps 221 Watt 1FPS/Watt=1,12


    GZDoom FPS LIMIT über ini-datei

    200 FPS Vulkan 115 Watt 1FPS=0,58

    74 FPS Vulkan 107 Watt 1FPS=1,45


    GZDoom FPS LIMIT über ini-Datei

    200 FPS OpenGL 116 Watt 1FPS/Watt=0,58‬

    74 FPS OpenGL 106 Watt 1FPS/Watt=1,43


    nur C-State Control

    ---------------------------------------


    LLC Auto, Auto MHZ, PBO und Core Boost

    NB/SOC 1.1000V

    CPU VCore Auto


    IDLE ~80 Watt

    LAST PRIME95 ~214 Watt (3,9ghz, alle 6 Kerne)


    C-State Control, Cool'n'Quiet

    ----------------------------

    LLC Auto, Auto MHZ, PBO und Core Boost aus, Cool'n'Quiet

    NB/SOC 1.1000V

    CPU VCore Auto


    IDLE ~80 Watt

    LAST PRIME95 ~155 Watt (3,6ghz, alle 6 Kerne)


    ---------------------------------------------------

    LLC 6, 4000 MHZ

    NB/SOC 1.1000V

    CPU VCore 1.2875V


    IDLE ~70 Watt

    LAST PRIME95 201W

    LAST PRIME95+Fire Strike ~ 325 Watt (Prime95 nicht stabil, stürzt hinter Fire Strike komplett ab)


    nur C-State Control


    Zuguterletzt, für die Ungläubigen... meine FPSCapped Series, mehr als 74 oder 75 FPS braucht es nicht, die Frametime ist super und optisch ists eben dasselbe, abgesehen davon das man unnötig Energier verbrät für nüscht und wieder nüscht... ich zock so auch CS:GO :D

    https://www.youtube.com/watch?…cYFqOXqX2GWoj-X66PNLiI54r


    Und hier mal ein Vergleich Windows 8.1 vs.10

    https://www.youtube.com/watch?v=NxgMsLTiY6U

    Fazit:

    brachst, hast kein Freesync was Win10 Gsync compatible Vorrausetzt, brauchst kein DX12 (wo man bei Shadow of the Tomb Raider schon drauf verzichten könnte für den geringstfügigsten Performanceboost, dann eben besser noch nicht umsteigen auf Win10

    Man sieht im CPU-Limit bei Ice Storm und Ice Storm Extreme was uns auch schon der Task-Manager aufzeigt, da werden CPU-Ressourcen weggefressen was durchschnitt grob über den Daumen im benchmark ca. 30000 Punkte kostet.

    Und naja, wir kennen ja das alte Lied... "GPU braucht CPU" nech ;-)


    Gruss Dennis

    Hey Leut, ich hab da so nen Problem mit dem CoralSoft TaskManager


    "

    Im zweiten Post habe ich noch das Tool Powerdefrag3 verlinkt. Die downloadbare Free Version läuft nach 30 Tagen ab, hat aber eine wichtige Funktion :D

    Sie installiert und registriert eine wichtige Komponente für den Coralsoft Taskmager: mscomctl.ocx. Diese fehlt dem Taskmanager nach der Installation sonst :spitze:

    Alternative (um den Taskmanager ohne den "Umweg" mit der Installation des Defrag Tools zu nutzen:

    Das Microsoft Visual Basic 6.0 Paket HIER herunterladen, entpacken und die mscomctl.ocx ins \Windows\System Verzeichnis entpacken. Siehe Post von Avenger"


    Der Post von Avenger, also der Link der ist leider tot, ich hab das Visual Basic paket heruntergeladen und installiert, sowie die mscomctl.ocs entpackt/kopiert wie beschrieben, aber wenn ich den TaskManager starten möchte bekomme ich ne Fehlermeldung dabei "Die erforderliche DLL-Datei MSVBVM60.DLL wurde nicht gefunden"


    Hab das auf Win98SE


    Gruss Dennis

    Steam Key:

    Galactic Civilizations II: Ultimate Edition | 7C078-BTWQY-CALTW

    und noch ein zweiter | 7CKDE-D45NN-DZ06T

    wer zuerst kommt malt zuerst in Steam zum aktivieren ^^


    Gruss Dennis

    Das Spiel läuft sogar auf ner Voodoo 3...

    sag ich ja uralt, ist 3Dfx ja nunmal leider mittlerweile

    Jo, RTCW hat die klassische Quake 3 Engine. Die läuft fast überall.
    Auch Doom 3 habe ich schon auf einem dual Pentium Pro mit Voodoo 2 gespielt. Das war aber kein Spaß.

    o.O Ich würde nichtmal im Traum darauf kommen das auf der V5 zu probieren, aber voodoo2, startete das denn überhaupt ja ? :D


    Gruss Dennis

    Naja, kann ich unter Linux nicht machen :D Hab da kein CPU-Z. Aber es hat damit sonst doch nie Probleme gegeben, mit den Latenzen. Ich denke mal, dass da was kaputt ist. Will da demnaechst mal mehr testen.

    je nach Belastung, gewissen Updates die es ermöglichen überhaupt erstmal richtig alle Schalterchen zu nutzen, also bessere Auslastung kann das auch durchaus später erst auffallen, zumal Linux da sehr konservativ ist.


    soggi :

    siehe was ich zuvor schrieb, zum anderen hab ich genug sterbende Netzteile erlebt = unüblich

    Entweder geht die Kiste aus, geht wieder an, je nach Belastung eben b.z.w. Vollbelastung wenn's knallt oder die Kiste garnicht mehr angeht, letzteres ist eher der Fall, Board-LED pultsiert dann anstatt einfach zu leuchten...


    @CryptoNite:

    Specs angucken, wenn ein Netzteil 500 Peak kann, kann es sicherlich keine 500 Watt stabil, Amplituden dürften ja bekannt sein aus der Audiotechnik...., das man vergleichsweise nicht ständig Clipping haben möchte erklärt sich wohl von selbst, deswegen "überdimensioniert" man ja gezielt etwas, gibt der PSU Calculator von Be Quiet ca. maximale Leistungsaufnahme des Rechners in Wärme was um die 350 Watt maximal an ca. 500 Watt Netzteil rein, fertig.

    Genug Luft nach oben, für ne vernünftige Kühlung auch aktuell bei den Temperaturen, das Netzteil reicht definitiv, auch wenn mal noch paar Datenträger dazukommen sollen sowie Gehäuselüfter oder sonstiger Schnickschnack, ist in der Regel leise, einfach weil es wirklich was taugt und zudem hat man dann auch Cablemanagement auch definitiv mit dabei, was einen Wechsel/Umbau auch noch im Komfort immens erhöht.

    80+ = 80% Nutzung ist der beste Wirkungsgrad, damit die Effizienz dann super ist, dimensioniert man halt etwas grösser, aber eben niemals mehr als 500Watt Netzteil beim Homeuser-PC, bei solch einem Setup.


    http://www.sysprofile.de/id141281

    Be Quiet Straight Power 10 500 watt, interessant das das keine anstalten macht, bei einer ähnlichen Leistungsaufnahme des Rechners nicht wahr ?..., mein voriges Enermax 525W befeuert auch immernoch den FX8300 und ne 7970, ohne weitere Probleme.

    Ja es gibt sowas wie Verschleiss beim Netzteil, bis das aber tatsächlich eintritt.... nunja es sei denn es ist wirklich ein qualitativ eben nicht so gutes, deswegen erkundigt man sich aber auch da wo die Leute sich mit Netzteilen auskennen, im HWLuxx gibts nen Thread dazu, gefragt, Empfehlung bekommen, angenommen und nicht bereut. (obwohl in der Vergangenheit schlechte Erfahrungen mit Be Quiet bei mir vorhanden sind)

    Ähnlich war es mit dem Enermax 525er damals, auch nicht bereut, tut seinen Job.


    @MatrixMorpher

    ist sogar definitiv so bei dem Wetter aktuell , höhere Temperatur als sonst, die Geräte wärmer werden, Kühlung unterdimensioniert für die Verhältnisse, auch beim Netzteil und wenn das dann tatsächlich zu gering dimensioniert ist, kommt das Problem mit dem höheren Widerstand bei höherer Temperatur und ruckzuck ist ein wenn auch knapp aber eigentlich passendes Netzteil eben doch schlichtweg unterdimensioniert.


    Wenn man natürlich zuviele Geräte gleichzeitig laufen hat, da braucht man sich dann natürlich echt nicht wundern, tust du ja aber auch nicht ^^

    Staubsauger, Wasserkocher und Mikrowelle gleichzeitig, das sind nur 3 Elektronische Geräte die aber spätestens wenn noch ne Waschmaschine dazukommt dann mit insgesamt 4 schon die Sicherungen schmeissen können.


    Edit:

    Die Empfehlung des günstigen Netzteils aus Ebay, warum, ganz einfach, wenn es das nicht ist, hat man zu dem Preis tatsächlich was womit man sonst auch mal was anderes Testen kann, es ist nicht wirklich schlecht, Q6700 OC und 6870, laufen immernoch... , also kein Chinaböller.

    Und nen 450 Watt Netzteil notfalls an der Seite zu haben falls doch mal was ist, ist bei dem Setup für 30€ nen super Ersatzteil :-)


    Gruss Dennis

    Ich hab unter Linux eine RAM disk erstellt und darin dann mal angefangen zu kompilieren. Irgendwann ist es dann abgestuerzt. Hab leider kein anderes Netzteil zum testen da.

    wie schauts denn aus mit den Latenzen und Takt ?

    Einfach mal cpu-z, spd und memory mal abgleichen, am besten von hand passend einstellen, ja gibt zwar xmp, muss ja aber nicht zwangsweise immer gutgehen ne.

    Alao mit den sehr vagen Angaben kann das alles mögliche sein...

    Was haste denn gemacht? Irgendwas verändert?

    Ein verreckendes Netzteil erzeugt üblicherweise schon Probleme beim Einschalten und der Rechner wird extremst instabil.

    Schonmal was von Stromsparmechanismen gehört ? (und nein die Kiste qualmt nicht aus absolut allen Rohren bei maximaler Leistungsaufnahme beim Hochfahren)

    Ein verreckendes Netzteil oder eines was zu schwach ist, da hat man plötzlich nen Blackscreen, also Kiste aus ^^

    Wenn die danach nicht wieder anspringt, dann ist das Netzteil halt hinüber, klar es wäre denkbar das eine Spannung einbricht und man deswegen nen Bluescreen bekommt oder Freeze etc. , das ist aber eben so nicht üblich.


    Ich denk zwar nicht das es das Netzteil sein wird, es sei denn es kann es nicht ab das es so krass überdimensioniert ist... aber nuja...

    Was ich empfehlen kann, wenn es das doch sein sollte, es gibt für rund 30€ nen 450 watt netzteil von "Excelvan", scheint kein Chinaböller zu sein, ich hab da nen q6700 (@3,35ghz mit mugen I) , 6gb ram und einer asus 6870 drangehängt mit 2 120er gehäuselüftern , 1xssd und 1x hdd, keine Probleme, Kiste rennt.

    450 Watt Netzteil sollte es bei dem System in der Regel auch tun, der wird ja auch nur um die 360 Watt Maximal brauchen wenn die Kiste Volldampf macht.


    PSU Calculator von Be Quiet errechnet maximal 338 Watt, bei folgender Konfiguration:

    • CPU: Intel Core i7-2600k
    • GPU: GeForce GTX 1070
    • Laufwerke: S-ATA 2x, P-ATA 0x
    • RAM: 4x
    • Lüfter: 2x
    • Wasserkühlung: 0x
    • Übertaktet: Ja


    Hat halt kein Kabelmanagement, ist halt das nötigste dran, kann man für das Geld definitiv mit Leben, mein q6700 tuts jedenfalls.



    Gruss Dennis

    Hmm, kann ich leider nicht testen also RTCW. Aber ich meine das ist ein OGL Game und da soll Fury Maxx nicht so der "Booster" sein. Die Stärke der Karte liegt ganz klar in Direct3D.

    Stimmt, Doom3 war auch OpenGL da sind die ATI's bis zur 98SE/ME kompatiblen 9000er Serie alle nicht soo spitze, rtcw ging allerdings trotzdem oldschool am crt auf 1024x768 super :-) (Das Spiel ist einfach so uralt, dafür brauchste da nicht viel, denke das ging selbst mit einer Geforce FX5200 super und das ist ja nichtmal ne richtige Graka :D :P )


    Gruss Dennis

    Manchmal funktioniert C1E nicht, einfach mal abschalten im Bios/(U)EFI ;-)


    Ich vermute mittlerweile das das auch mit dem Microcode zusammenhängt ich hab mal bei nem Q6700 mit nem Asus Workstation Brett was ich hier aus dem Forum habe und mein Gigabyte GA-P67A-D3-B3 rev.1.0 mittlerweile gemoddet. (Meltdown und Spectre, lassen sich ja über 2 Regedit Einträge deaktivieren)

    Seitdem haben mein i7 2600 sowie der Q6700 damit mittlerweile auch kein Problem mehr, interessanterweise. (Übertaktet und @Stock bei beidem, OS's egal ob 7, 8.1 oder auch 10)


    Gruss Dennis

    Das Spiel hat noch nie was gekostet, seit es bei GOG erschien. ;)

    jetz wo du es sagst, seh ich das auch :-)



    ja so langsam ist damit vorbei, auch mit XP schon zum Teil



    Gruss Dennis