Gibt es einen signifikanten Unterschied an Features zwischen den beiden Generationen? Oder ist die 3000er Reihe nur ein kleines Upgrade und eine Geschwindigkeitserhöhung?
Signifikanter Unterschied zwischen RTX 2000 und RTX 3000
-
-
Nvidia-GeForce-20-Serie – Wikipediade.wikipedia.orgNvidia-GeForce-30-Serie – Wikipediade.wikipedia.org
Vermutlich suchst du das hier:
CodeDie Ampere-Architektur ist eine Weiterentwicklung der Turing-Architektur und behält deren Grundgerüst aus Graphics-Processing-Cluster (GPC), Texture-Processing-Cluster (TPC) und Streaming-Multiprozessoren (SM) bei. Innerhalb dieses Gerüsts wurde jedoch der Aufbau deutlich modifiziert. Statt getrennte Einheiten für Fließkomma- (FP32) und Integer- (INT32) Berechnungen zu verwenden, beherrschen nun sämtliche Recheneinheiten FP32. Dadurch erhöht sich die Anzahl der CUDA-Kerne von 64 auf 128 je SM (Streaming Multiprozessor). Für reine FP32-Berechnungen wurde so die theoretische Rechenleistung verdoppelt, während für kombinierten FP32- und INT32-Berechnungen die Rechenleistung gleich bleibt. Die ROPs sind nicht mehr den Speicherinterfaces zugeordnet, sondern den GPCs, wodurch ihre Zahl bei dem größten vorgestellten Chip (GA102) auf 112 steigt, von 96 bei dem direkten Vorgänger. Für die RTX 3080 wird ein GPC deaktiviert, wodurch die Zahl der ROPs auf 96 sinkt. Bei erwähntem GA102-Chip setzt Nvidia erstmal auf GDDR6X-Speicher von Micron Technology, während günstigere Grafikkarten weiter GDDR6 nutzen. GDDR6X ermöglicht eine deutlich höhere Bandbreite unter anderem durch das PAM4-Verfahren, das Platinen-Layout wird jedoch hierdurch komplexer. Während die RTX 3060, 3070 und 3080 die direkten Nachfolger der RTX 2060, 2070 und 2080 (Super) sind, wird die als 8K-Gaming-fähig angepriesene RTX 3090[1] als Nachfolgerin der Titan RTX angesehen. Begründet wird dies mit derselben Größe des Videospeichers und dem Einsatzbereich des professionellen 3D-Renderings.[2] Der Energiebedarf steigt gegenüber der Turing-Generation erheblich an und erreicht 350 Watt für das Top-Modell RTX 3090 (Vorgänger RTX 2080 Ti: 260 Watt) bzw. 220 Watt und 200 Watt für die kleineren Modelle RTX 3070 sowie RTX 3060 Ti (Vorgänger RTX 2070: 175 – 185 Watt bzw. RTX 2060: 160 Watt).
-
Ok, kurz und prägnant. Also im Prinzip wie ich es schon vermutet habe, intern optimiert für mehr Leistung, aber keine neuen wesentlichen Features damit das Bild schöner aussieht.
Ich bin nämlich am überlegen welche Karte ich im Zock-Rechner drin lasse. Ich hatte mir eine RTX 3070 gekauft, Anfang dieses Jahres aber eine Quadro RTX 8000 geschenkt bekommen (hatte ich auch hier gepostet). Die Quadro finde ich eigentlich geiler, zumal sie auch ein kleines Stück schneller ist als die 3070. -
Je nach Spiel werden heute die 8gb Vram der 3070 etwas knapp. Wenn du die Quadro 8000 hast, dann steck die und gut ist. RTX sollte bei der 3000er Generation etwas "neuer" sein, aber sonst...? Evolution statt Revolution würde ich sagen.
-
Gibt es einen signifikanten Unterschied an Features zwischen den beiden Generationen? Oder ist die 3000er Reihe nur ein kleines Upgrade und eine Geschwindigkeitserhöhung?
Hauptsächlich den Preis
Solange Du keine 4K Gloze dran hängen hast, kannst Du Dir die Investition sparen
-
Äh, da gibt es nix zu investieren, wie geschrieben besitze ich bereits beide Karten.
Ich habe mich jetzt auch für die RTX 8000 entschieden, die ist ein kleines Stück schneller als die 3070 und sie ist nicht ganz die übliche Standardkost. Die 3070 liegt jetzt sicher verwahrt im Schrank. -
Verkauf die 3070, die wird im Preis stark fallen.
-
Nix verkaufe……ich sammle doch Gigabyte-Karten!
-
Zum Glück gibt es auch dafür einen Sammler, sonst würde der Müllberg immer größer.
-
-
Ich habe noch eine Gigabyte GTX 750Ti OC in OVP zum tauschen.
-
Na, so eine habe ich schon. Schau mal im Bild im Vordergrund links.
-
Dir fehlt die 2GB
-
Ich bin zwar Nerd aber (noch) nicht Freak!
-
Ich bin zwar Nerd aber (noch) nicht Freak!
Ja und wie erklärst du dir die 11 Gigabyte Karten???
-
Das kann ich erklären, das ist ein älteres Bild vom Juni diesen Jahres, da ist natürlich inzwischen was dazu gekommen:
- eine GTX 760 als 4GB-Version
- ein GTX 470
Ich entschuldige mich für diese Unsäglichkeit.
-
Kein Problem
-
Das mit den Unterschieden ist eine gute Frage. Ich würde eher sagen die Unterschiede halten sich in Grenzen aber man sollte meine Aussage with a grain of salt nehmen so wie die Amerikaner sagen würden. Ich kann nämlich keinen fairen Vergleich anstellen um fair zu sein.
Ich besitze nämlich "nur" einen Gaming Laptop mit einer RTX 2060 und einen Standard PC mit einer RTX 3070. Aber bei den bisherigen Spielen die ich so gecheckt habe schlägt sich der Laptop sehr gut im Vergleich zum Standard PC mit einer 1080p Auflösung.
Hinke da etwas mit der Zeit hinterher und nutze immer meinen alten Samsung 1080p Monitor. Bei höheren Auflösungen könnten die Unterschiede signifikanter ausfallen.
Daher mein Disclaimer mit dem Salz.