Beiträge von GrandAdmiralThrawn

    Hm, jo, die Titan... 500€ für meine Titan Black.. Aber die Zeiten in denen Titans irgendwie DP-schwach waren, sind auch vorbei. Die Titan RTX macht 8 TFLOPs in DP. Da steht meine alte full Kepler Karte bei 1.8 TFLOPs. Und das waren noch die Zeiten, als DP ein Ding war. Aber heutzutage hast Deep Learning und neuronale Netze, was eine größtenteils integerlastige Sache ist, und dafür hats die Tensor Cores.


    Ich denke es ist schon seit dem Titan Superrechner klar, daß man diese Produktreihe in Vergleich mit nVidias Tesla sehen muß. Das ist einfach kein "Enthusiast" Trumm mehr, sondern eine "Deep Learning Light" GPGPU. Wir überlegen z.B. eine billige Titan Maschine auf der Arbeit zu bauen weil "billiger als Tesla" und für Google Tensorflow oder Caffe als Machine Learning Frameworks gleichermaßen unter Linux benutzbar, ohne DP aufgeben zu müssen, falls wir es doch brauchen sollten.


    Das sind die echten Anwendungsfälle. Die Titan als Karte für den Windows PC Ethusiasten ist einfach kein Ding mehr. Das ist eine Deep Learning Karte für Forscher und Entwickler, die sich in dem Bereich nicht einfach Mal so eine Tesla OEM Maschine leisten können oder wollen. So sehe ich das zumindest.


    Dabei fällt mir nebst der ganzen AMD Ryzen Thematik auch wieder auf, wie sehr AMD seine GPU Sparte scheints verenden läßt. Ich hoffe nur, daß diese Budgetverschübe zugunsten der CPU Entwicklung nicht noch zum Ende der Radeon als wettbewerbsfähiger GPU hinführen... Würde eigentlich keine GeForce in meine AMD Gamingbox stecken wollen...

    Meinst wirklich? Also mein kompletter 2013-2015er Rebuild vom X58 Sys dürfte schon zwischen 8.000-10.000€ über ~3 Jahre verschlungen haben. Da würde so mancher respektable Mediziner wohl bereits eine ernste psychotische Geistesstörung diagnostizieren wollen (und wenn's nur darum geht, daß ihm die Krankenkasse ohnehin sinnlose Behandlungskosten fundiert). :topmodel:


    Also mit "mir wurscht" sollte man ggf. schon vorsichtig sein. Diese Aussage habe ich schon Mal blauäugig in einem HiFi Forum geschoben, als ich mir neue Kopfhörer kaufen wollte. Am nächsten Tag habe ich dann blöd geschaut ob der ganzen vierstellig dotierten Produkte, die mir da verlinkt worden waren.


    PS: Habe Kopfhörer um 150€ von Beyerdynamic gekauft. Gott dem Herrn sei Dank...

    Diese Wunschliste steht da schon seit gefühlt "ewig" drin. Die hat's schon mit dem ersten 16C TR gegeben, und ich schleppe diese Planung halt laufend so mit. Ich dachte mir, irgendwann, wenn ich mein FullHD Encoding komplett auf x265 bzw. H.265/HEVC migriere und 4K/UHD HDR mehr zur Mainline wird, dann brauche ich das wohl Mal (ich encode mit äußerst fordernden Einstellungen, also veryslow Profile und schlimmer). H.264/AVC würde dann nur mehr für Half-SBS 3D verbleiben.


    Aber auch wenn meine beiden S1366er Hexcores (XP x64 und Linux) zunehmend nach oben hin 24/7 zugedroschen sind... ich komme immer noch aus, selbst jetzt wo der FX-9590 gestorben ist, ist halt der Zen+ Rechner als Aushilfs-Maid am Plan, läuft ja jetzt schon 24/7.


    Bottom Line: Jo, is verdammt teuer, diese Wishlist. Aber sie hängt auch in der Luft und wurde bis dato nicht so gekauft. Ich bin ja hin und wieder schon Mal der "Depp", der so richtig hirnrissig teure Systeme anschafft (brauch ich mir nur meine X58 Workstation ansehen), aber dem gehen schon auch immer mehrere Jahre des vorsichtigen und sorgfältigen Planens und Wartens voraus.


    Bei TR4 isses bisher halt beim Planen und Warten geblieben...


    Edit: Aristo084 : Mein Server ist nächstes Jahr 23 Jahre alt.. gefeiert wird erst bei 30! 10 ist ja noch kindlich für Hardware, noch keine echte Reife!

    Ajo, da hast natürlich Recht, Mit meinem AM4 System habe ich ja auch auf den Re-release von Biostar mit X470 für Mini-ITX gewartet. Wegen Zen+. Wenn man schon wartet, dann kann man gleich darauf auch noch warten.


    Das heißt natürlich: Sofern ASRock in dem Fall auch einen Nachfolger des X399M Taichi für µATX herausbringt...

    Für mich gibt es sowieso nur ein einziges wählbares Mainboard. Das ASRock X399M Taichi. Weil ich will das so klein wie möglich. Hier Mal die entsprechende, halb-aktuelle [Geizhals Wunschliste] dazu von mir.


    Ist jetzt nur so schnell-schnell zusammengeklickt und hin und wieder Mal angepaßt, aber das Mainboard ist eine fixe Konstante in dem Setup.


    Eigentlich ist mir µATX ja schon zu groß für den headless UNIX Würfel, der das werden sollte. ;)

    Ich warte sowieso noch ab, die System-/Busarchitektur beim 2990WX behagt mir irgendwie nicht so ganz. Ich werde also wohl auf den Zen 2 Threadripper warten, denke ich. Es ist zwar nicht ganz optimal, die vollständige Migration von x264 auf x265 (wofür die Leistung gebraucht würde) noch weiter hinauszuzögern, aber das wird immerhin eine recht massive Investition, das muß mir einfach perfekt passen.

    Ajo. dazu fällt mir noch was ein CryptonNite : Selbst ein Abspeichern als Deep Color TIFF hätte nicht geholfen. Den erweiterten Farbraum kannst du nur sehen, wenn du auch lokal als Betrachter des Screenshots eine Grafikkarte und einen Monitor hast, die das können... Ajo, und ein Bildbetrachtungsprogramm, daß das korrekt darstellt. Ein verlustfreies Bildformat alleine reicht also nicht aus. Eine Grafikkarte, die nur 8-bit pro Kanal bzw. 24-bit Farbe ausgibt, kann einfach kein 10-bit bzw. 30-bit Bild vollumfänglich darstellen.


    Das ist so wie ein 24-bit Truecolor Bild anzeigen, wenn die Grafikkarte nur auf 16-bit Hicolor gestellt ist. Die Ausgabe ist dann logischerweise auch nur 16-bit Hicolor, egal in welcher Farbtiefe die Bilddatei vorliegt.


    Thomsen-XE : Mal schauen, was du als Fotograf dann dazu sagst.

    Hmm, wundert mich, daß der Single Tower Noctua noch so gut sein soll. Aber trotzdem, gegen einen NH-D15.. Ich mein, schau dir das Ding Mal an im Vergleich. Und wie gesagt, den gibt es für Sockel, auf denen CPUs mit weit geringeren TDPs die Spitze darstellen. Ich bleibe daher dabei: Das leuchtet nicht ein. Der stärkste Kühler ist nicht auf der energiereichsten Plattform verfügbar? Warum?


    Ich meine, die Konkurrenz ist jetzt auch nicht direkt reichhaltig präsent auf dem Sockel, muß man natürlich auch sagen.

    Ich kann's dir nicht mit Sicherheit sagen, aber die Wahrscheinlichkeit ist sehr hoch, daß alles gemeinsam getaktet wird. Hot Clocks und mehrere Taktdomänen im Kern, das hat nVidia eigentlich schon mit Kepler fallen gelassen. Zumindest bei der Volta ist es auch so, daß die Tensor Kerne mitgetaktet werden. Der Einfachheit halber wird wohl auch Turing nur eine Taktdomäne für alles haben. Damit würdest also ROPs, Shader / CUDA Cores und RT Cores gleichsam übertakten.


    Aber das ist nur ein "educated guess", zu 100% wissen tu ich es nicht.

    Oha, du hast Recht, grade nachgelesen: [Link]. Die Parhelia kennt für den Desktopbetrieb einen "anderen" 32-bit Modus, bei dem der Alphakanal von 8-bit auf 2-bit (4 Stufen) zusammengeschnitten wird. Die restlichen 30 Bit sind für pure Farbe reserviert (10-bit pro Kanal). Also nicht R:G:B:A = 8:8:8:8, sondern 10:10:10:2. Dafür hat die Karte auch einen 10-bit fähigen 400MHz RAMDAC verbaut.


    D.h. mit einer Parhelia kann man einen CRT tatsächlich als Deep Color Schirm benutzen. Spannend. Hatte ich nicht gewußt.

    Da bräuchtest aber auch erst Mal eine (alte) Grafikkarte, die 30-bit oder 36-bit Farbe zuläßt, und einen RAMDAC hat, der das dann in ein entsprechend erweitertes Analogsignal wandelt. Keine Ahnung ob's sowas jemals gegeben hat im analogen Bereich.


    Edit: Und bevor es hier zu Verwechslungen kommt: Die "32-bit" Modi, die man so üblicherweise einstellen kann, haben auch nur 24 Farbbits. Die restlichen 8 sind Alphabits für Transparenzeffekte auf der GUI.

    Aso, du brauchst Deep Color. Alles klar.


    V.F : Kann sinnvoll bei sehr feinen, weitläufigen und eher uniformen Farbverläufen sein (z.B. hellrot zu rot). Dazu sollte man ein 10-bit Display (pro Farbkanal gerechnet, 30-bit Summe) nutzen. Das ist auch in Verbindung mit sehr hellen Displays für HDR wichtig (HDR10 Standard). "Sehr hell", weil du bei HDR einen erweiterten Kontrastraum brauchst, also große hell/dunkel-Unterschiede, und damit halt einen großen Farbraum.


    Man bedenke: Mit unserem klassischen 24-bit Farbraum (8-bit pro Farbkanal) kannst zwar 16.7 Millionen Farben darstellen... wenn du aber z.B. nur Rotabstufungen hast und sonst nichts, dann bist auf 28 = 256 Stufen begrenzt. Und 256 Rotabstufungen sind nicht mehr so viel, da können schon Bandingartefakte sichtbar werden, speziell auf großen Schirmen. Man stelle sich einen Verlauf von Rot100 zu Rot110 über eine Breite von 50" vor. Bei grün und blau sollten wir sogar noch leichter Stufen erkennen.


    Gibt sicher andere Gründe auch noch für Deep Color, aber das sind die, die ich kenne.


    Ein 15/16-bit Display wie das deinige wird wahrscheinlich 5 Bits pro Farbkanal haben. Ein uniformer Farbverlauf hat dann nur mehr 25 = 32 Abstufungen. Das kannst dir anschauen, indem du z.B. in einem Malprogramm im Vollbild einen Gradient hinmalst, z.B. von RGB(255,255,255) zu RGB(0,255,0), also von weiß zu grün. Da müßtest Stufen erkennen können auf deinem Schirm.

    V.F : Der Vorschlag war auch weniger zur Geräuschreduktion gedacht (obwohl diese kleinen Axiallüfter schon Mal nervig sein können), als zur Ausfallsresistenz. Ich will nicht sagen, daß ich das immer machen würde, aber bei manchen Rechnern schau ich drauf, daß so wenige mechanisch verschleißende Komponenten drin sind, wie nur möglich. Bei solchen Low End Grakas bietet sich das ja direkt an. Ein Teil weniger, das sterben kann. ;)


    Thomsen-XE : Gibt es einen Grund, warum es eine Quadro sein mußte? Spezielle OpenGL Applikationen mit Treiberzertifizierung am Laufen?