Posts by GrandAdmiralThrawn

    Abseits dieser Frage habe ich Mal die Pro auf mehreren Unterlagen getestet und bin dabei ein wenig, öhm... zu kreativ geworden:

    • Logitech K810 Tastatur, Rückseite, Hartplastik, schwarz, matt: Geht (ist nur etwas klein)
    • Stoff, bunt, matt: Geht
    • Gummi, schwarz, diffus reflektierend: Geht
    • Holz, schwarz lackiert, diffus reflektierend: Geht
    • Wurstpapier (beschichtete Seite): Geht
    • TFT, matt, in Betrieb: Geht
    • TFT, matt, außer Betrieb: Geht
    • TFT, glossy, hart reflektierend, außer Betrieb: 50/50. Ein solches Display ging, ein anderes gar nicht
    • Pappe, glossy, halbmatt reflektierend: Geht
    • Papier, matt: Geht
    • Gußeisen, matt mit Patina: Geht
    • Keramik, weiß, halbmatt reflektierend: Geht gar nicht
    • Stahl, weiß lackiert, halbmatt reflektierend: Geht
    • Aluminium, unlackiert, matt: Geht
    • Verspiegelter Kunststoff, hart reflektierend, schmutzig (voller Fingerabdrücke): Geht
    • Verspiegelter Kunststoff, hart reflektierend, poliert: Geht so gut wie gar nicht
    • Spiegel, hart reflektierend, poliert: Geht gar nicht. Nichts für Narzissten, diese Maus.


    Also macht euch nicht all zu viele Sorgen, ihr könnt eure Gußeisenmauspads weiterverwenden, und zur Not tut's auch der Bildschirm oder das Papier in das ihr euch letztens eure Salamischeiben habt einwickeln lassen an der Feinkosttheke!


    Wenn alle Stricke reißen, könnt ihr auch immer noch dem Nachbarn die Zeitung klauen, die tut's auch! Und falls der kein Abo haben sollte.. najo. Was auch immer nicht geht, kann gehend gemacht werden: Macht's die Oberfläche einfach saudreckig, dann läuft's!

    Bei der Pro gibt es keine Gummierung mehr. Sprich, die Oberfläche ist einfach Hartplastik, so ca. wie bei den ganz alten Modellen. Da geht maximal etwas Farbe ab denke ich Mal. Aber man wird's sehen. Ein alter Kumpel von mir, der die Pro seit einem halben Jahr im Büro nutzt, der meint das paßt. Und der hat sich im selben Atemzug auch über die Classic aufgeregt, weil das kompletter Scheiß sei laut ihm.


    Bei mir liegt die Maus auf schwarz lackiertem Holz. Der Sensor macht mir keine Probleme. Ich kann aber keine typischen Hartplastikpads testen, weil ich keines mehr habe. Grade ein Virpil Stoffpad hätte ich zum Ausprobieren, aber sowas verwendet ja eigentlich keiner mehr.


    Spannend: Mit der Roccat Kone Pure ging Maustaste 5 nicht über meinen Aten KVM Switch. Das ist eine der Daumentasten. Mit der Microsoft geht's aber. Keinen Plan wieso.. Wennst die Kone Pure direkt am Rechner ansteckst geht's, auch wenn die Roccat Software nicht drauf ist. Najo, verstehe ich nicht, aber funzt jetzt, paßt.


    Edit: Ob's wirklich wertig ist, sehen wir nach 6 Monaten eh nicht. Eher nach 6 Jahren. Wenn dann noch alle Mikroschalter und der Drehimpulsgeber sauber funktionieren, dann kann man anfangen was zur Haltbarkeit zu sagen. Also ob's beginnt, an Logitech heranzukommen.

    Habe zuerst leider den falschen Thread nekrofiziert, jetzt aber in den richtigen:


    Also, nachdem der Drehimpulsgeber (das Rasterrad mit Sensor) von meinem Mausrad bei der GeIL EpicGear AnurA nach 4 Jahren durchgewetzt war, und bei der Roccat Kone Pure nach 3 Jahren habe ich mir jetzt auch Mal wieder eine aktuelle "klassische" Microsoft geholt: Die IntelliMouse Pro in recht häßlichem Weiß.


    Haptisch ganz gut bis jetzt, und das Ding war um 25€ im Angebot, da kann man sich nicht aufregen. Die abgeschaltene LED hat er sich auch in der Firmware der Maus gemerkt, also nimmt das Ding die Einstellungen zu neuen Rechnern mit - ganz ohne Cloudmüll.


    Bin schon gespannt wie lange die hält.


    Eigentlich wollte ich die Drehimpulsgeber ja einfach selber tauschen, aber bei der AnurA konnte ich die passenden "Rotary Encoder" nur in den USA finden... und zu faul war ich dann leider auch. :(

    Would be cool to see some through-the-lens footage instead of just the desktop (lol "desktop" in DOS...) viewport though. But still cool to see it in action. :)


    Also, I've already checked out eBay in the afternoon, and... well. Prices are... what they are for rare retro stuff. ;) In theory I could buy it, but it's not worth that much to me. Not if it's just for fooling around a little bit. ;)

    Actually, there is a surprising lot of games which support the Forte VFX1 (which uses that connector). Like Hexen II, Mechwarrior 2, Comanche 3, Dark Forces 1 & 2, Magic Carpet 1 & 2, Quake I & II, System Shock and many more, heck, that's not even that bad, software-wise.


    And at its resolution of 263×230 pixels per eye it probably didn't matter that it could display only 256 colors. I mean... At that resolution you won't be able to see anything anyway... :spitze: Mind you, VR resolution is a whole different thing from 2D resolution, because your eye will only be able to focus on a small part of the panels, because they look so wide in VR.


    But I kinda still wanna try that headset now. Considering that something like 1440×1600 is barely passable in VR (unlike in 2D), 263×230 must make for one... "interesting" experience. ;)


    Mh, Mechwarrior 2 with HOTAS setup and that VFX1 hooked up to a Voodoo 5's VESA feature connector. Makes me curious.

    As far as I know (and that is only second-hand info), it's been used for certain DVD video acceleration cards and very early VR HMDs, whereas modern ones use HDMI or DP externally. It's been used only rarely and mostly in the OEM context I presume, which likely means the connectors on 3dfx cards remained unused in most (if not all) cases. Especially since DVD acceleration wasn't neccessary for systems based on faster CPUs (like Pentium II or later K6), and the initial VR craze died off pretty quickly.


    But as said, that's just second-hand knowledge.

    Geht auch mit Internet, wenn man weiß wo man hinklicken muß. ;) Aber ja, die Menüführung ist anders strukturiert ohne Netz, das habe ich selbst schon gesehen.


    Ich muß Mal schauen ob meine Regeln das auf der Win10 Box auch blocken oder ob nicht.

    Bissl was findet man im Netz, wenn auch nicht weiß Gott wie umfassend, aber siehe z.B. [hier]. Sind halt tlw. nur zwei Latenzvergleiche pro Takt drin. Ein klein wenig läßt sich davon schon ableiten. Wenn Englisch für dich ok ist, dann hätte auch Guru3D noch sowas für dich: [Hier]. Da gibt es zumindest für 3600MHz Datenrate drei Latenzstufen im Test.


    Nach der kurzen Durchschau scheinen mir beide Tests recht ähnliche Skalierungen über Latenz und Takt zu zeigen.

    Bei den Latenzen sollte man drauf achten, daß sowas wie CL16 kein absoluter Wert ist, sondern ein relativer. Diese Latenzen in Taktzyklen sind nämlich logischerweise vom Takt abhängig, also ist CL16 bei DDR4/4400 effektiv eine gut schärfere Latenz als CL16 bei DDR4/3200. Hier ein paar Beispiele zum CAS Timing:

    • DDR4/4400 CL16: 7,27ns
    • DDR4/4400 CL17: 7,73ns
    • DDR4/4400 CL18: 8,18ns
    • DDR4/4400 CL19: 8,64ns
    • DDR4/3200 CL16: 10,00ns
    • DDR4/3200 CL17: 10,63ns
    • DDR4/3200 CL18: 11,25ns
    • DDR4/3200 CL19: 11,88ns


    Diese Latenzangaben sind ehrlicherweise recht... irreführend. Besser wäre es eben, diese Werte in effektiven Nanosekunden anzugeben. Bei Geizhals steht das seit einiger Zeit sogar dabei, was ich sehr begrüße, lässige Sache! Weil sonst kennt sich ja keiner aus, bzw. man müßte jedes Mal nachrechnen wie schnell eine angegebene Latenz beim jeweiligen Takt wirklich ist. Anno dazumal habe ich dazu Mal eine [Gegenüberstellung] geposted, als DDR4 noch Neuland war.


    So ein DRAM Vergleich wäre sicher interessant, aber hier hängt wohl sehr stark vom Benchmarkparcours ab, den man da zusammenstellt. Da ist die Frage ob man neben Desktopsachen nicht auch Software dazunimmt für die schnelle Speicher eigentlich wirklich wichtig sein sollen, so wie Datenbankserver. Es sei denn man will wirklich gezielt messen, wie stark das die Performance von Spielen und Desktopprogrammen beeinflusst. Ich gehe da auch eher von "effektiv kaum bis gar nicht" aus. Aber stimmt schon, man muß es auch messen..

    Ich meinte bei meinem Kommentar zu OutOfRange's Aussage das CPU Adressierungsfeld des Schedulers des Systemkerns in Form eines Bitvektors bzw. einer Bitmaske, die pro Prozeß oder pro Prozeß und NUMA Knoten existiert. Neuzeitlich 32-bit oder 64-bit breit, weil's halt einfach ist. Die Adressierung der logischen CPUs folgt keinem 2n Schema, sondern ist ungleich simpler: Bit 0 => CPU 0, Bit 1 => CPU 1, Bit 2 => CPU 2, usw. Man kann das auch Affinity Mask bzw. Zuordnungsmaske nennen.


    Wenn der Thread Scheduler des Kernels meint ein Programm soll auf CPU 3, 7 und 18 laufen, dann werden Bits 3, 7 und 18 des Bitvektors von 0 auf 1 gesetzt. Wenn du das z.B. im Windows Task Manager manuell zuweist, passiert im Hintergrund dasselbe (nur daß der Kernel in der Regel schlauer ist als der Nutzer). Bannt man ein Programm z.B. auf CPU 0, wird im Hintergrund der Bitvektor umgesetzt; Bei 256 logischen CPUs: Bit 0 auf 1, Bits 1-255 auf 0.


    NUMA Architekturen haben's easy, weil hier hat jeder NUMA Knoten seinen eigenen Bitvektor. 16 Prozessoren mit je 256 logischen CPUs wären also mit NUMA kein Thema. Eine CPU mit 4096 Kernen aber schon, es sei denn man teilt sie künstlich in 16 NUMA Knoten gleicher NUMA Distanz/Latenz auf.


    Übrigens gelten auch überbreite Masken (also viel breiter als die Wortbreite der CPU Architektur) als leistungsmindernd. In der Praxis habe ich dafür aber auch noch keinerlei Nachweise gesehen.


    Wenn ein hypothetischer Zen 4 Threadripper jetzt wirklich mit 128 Kernen und 256 Threads (=logischen CPUs) daherkäme, dann wäre das Limit aktueller Betriebssystemscheduler erreicht; Von einem Teil mit sagen wir 384 logischen CPUs würde das Betriebssystem also nur mehr 256 sehen, es sei denn man teilt die CPU topologisch in zwei gleichwertige NUMA Knoten. So passiert ist das z.B. beim AMD Threadripper 2990WX, wenn auch aus anderen Gründen. Hat damals auch schön Schwächen im Windows Scheduler aufgezeigt, und die fehlende NUMA-Befähigung etlicher Programme demonstriert.


    Zu den restlichen Ausführungen habe ich nichts weiter beizutragen.


    Sprich: Das war rein an OutOfRange gerichtet, und hatte mit deinem Beitrag oben nichts zu tun.

    Bei konsequenter Reduktion eines vollends übertriebenen Mitteilungsbedürfnisses und einer Konsolidierung der dargebotenen Informationen ließe sich der ganze Schwulst da oben wahrscheinlich auf weniger als 100 Worte statt dieser ~1000 zusammenfassen. Sagen wir 200, wenn man sich eloquent präsentieren möchte (was hier nicht unbedingt passiert ist). Und dann wäre immer noch nichts hinreichend neues oder interessantes gesagt worden? ;) Nicht daß letzteres besonders schlimm wäre. Wäre da nicht die schier endlose Masse. Ich selbst als Täter - im Hinblick auf WallOfText™ Verbrechen - möchte sagen: Hier werden selbst die Grenzen des schlechten Geschmacks noch gesprengt! :topmodel:


    Es empfiehlt sich, einen Filter zwischen Hirn und Mund, sowie zwischen Hirn und Händen einzusetzen, um die ganze heiße Luft zu entsorgen, bevor man seinen Gehirnstürm in's zu publizierende Wort faßt. Oder sagen wir, 60-70% davon vielleicht?


    Damit fängt ein dann hoffentlich sachlicher Beitrag vielleicht auch nicht mehr mit "... Ich muss das mal hier so rauslassen," an.


    Obgleich ich in dieser Hinsicht ein völliger Laie bin, erlaube ich mir - nichts Böses wollend - folgende pseudomedizinische Diagnose: "Hört sich selbst zu gern reden."


    OutOfRange : Bald können's in den Betriebssystemkerneln das Limit wieder erhöhen. Aktuell stehen die Bitvektoren für die CPU Adressierung m.W.n. bei 256 was modernes Windows, Linux und manche andere unixoide Systeme angeht. Wird nicht mehr all zu lange ausreichen?

    Videoseven N110s. Gewölbter 19", 4:3. Hat eine ziemlich scharfe Schlitzmaske, aber leider hat das fix montierte Kabel schon einen Wackelkontakt, da kann's sein, daß plötzlich alles lila ist. Sonst ned so mies. Die Schärfe kann natürlich - wie immer - mit keinem LCD bei nativer Auflösung konkurrieren.


    Zwei Sony Trinitron GDM-F520, wurden im Dualschirmbetrieb benutzt. Vor Urzeiten. Sind flache Schirme mit 21" bei 4:3 und Streifenmaske mit zwei lästigen Haltedrähten. Das Modell ist quasi der kleine Bruder des monströsen GDM-FW900. Könnte wohl schärfer sein als er's ist, wenn Sony nicht so ein dünnes, scheinbar schlecht geschirmtes Kabel FIX (!) verdrahtet hätte. Klar, er hätte auch noch R/G/B/HD/VD BNC Stecker, aber dafür hatte ich nie ein Kabel. Und kA wie man das dann anschließt an einer Grafikkarte.


    Den V7 benutze ich hin und wieder zum Spaß wenn ich mit alten oder seltsamen Platinen rumspiele, so wie letztens mit diesem VIA Nano-ITX Ding. Die Sony's verschimmeln im Keller.


    Da ich im Prinzip keine Client-Retro-Systeme im klassischen Sinne (also 90er usw.) mehr betreibe und mich auch sehr alte Spiele nicht mehr wirklich jucken, machen die CRTs keinen echten Sinn. Arbeiten würde ich mit so etwas nie im Leben wieder wollen.

    Sony Trinitron Röhren gehören aber normal eh schon zu den besten die man so kriegen kann normalerweise. Ist das schon ein flacher Schirm, oder noch ein gewölbter? Ich bin mir anhand der Fotos nicht ganz sicher. Ich hatte (bzw. habe) ja selber zwei flache Sony Trinitrons, mich haben nur die beiden horizontalen Stabilisierungsdrähte immer gestört im Bild. Müßte dein Dell normal auch haben (es sei denn er hat eine andere Maske).


    Ganz so scharf wie eine Schlitzmaske war er dann bei 1600×1200 auch nicht mehr, aber vielleicht lag das auch am Kabel bei mir..

    Ist drin GokuSS4 , jetzt weiß ich auch Mal, was für eine Windows 10 Edition & Version das genau ist :)


    RaVeNsClaw : Hier war das System per AMD Precision Boost Overdrive Version 2 (also "PBO", v2) gut getuned. Das Feature verletzt die Garantiebedingungen, aber seit Zen 3 - glaube ich - ist es in Version 2 im UEFI verfügbar, sofern man eine AGESA Firmware hat, die für PBO2 neu genug ist. Damit lassen sich u.a. die hirnlos hohen Standardspannungen von AMD für den Betrieb unter voller Last reduzieren, was für durchgehend höher gehaltenen Boosttakt sorgt. Hauptverantwortlich für all meine Tweaks am Ryzen 5 5600X zeichnet sich 666psycho, der mich hier auf VA erstmals auf die Probleme der CPUs hingewiesen hatte.


    Im Prinzip brauchst nur die Spannungen zu reduzieren, weil der Chip seine Taktziele auch ohne irre >1.4V(Core) schafft. Damit senkst du den Energiebedarf der CPU beträchtlich, was dazu führt, daß es zu keinerlei Power Throttling mehr kommt. Das Resultat? Weniger Hitze, weniger Verbrauch, mehr Leistung. Wie bei der Radeon, so auch beim Zen: Unterspannung ist hier der Weg zum Ziel. Und bei mir ist das besonders zu beachten, weil hier sitzt die CPU in einem Mini-ITX System mit nicht mehr als einem Dual-Fan Noctua NH-L12S drauf.


    Davor hatte ich auch weit schlechtere Ergebnisse.