Hardwareluxx.de hat am heutigen Sonntag ein ausführliches Review zu Gigabyte´s kürzlich vorgestellter Dual-GPU Karte - der "3D1" - online gestellt.
Hierbei handelt es sich um eine PCI-Express Karte, die zwei GeForce 6600 GT Chips auf einer Platine vereint und diese über einen internen SLI Link verbindet.
Natürlich wirft dies einige Fragen auf. Ist Gigabytes patentierte Technik besser als zwei separate Karten? Wie sieht es mit dem Stormverbrauch der Dual Lösung aus, wie schlägt sie sich im Vergleich zu einer Single Variante und kann sie die Highend Modelle 6800 GT/Ultra hinter sich lassen?
Das Ergebnis ist zwiespältig. An der Performance sollte es eigentlich nicht scheitern, vielmehr hapert es aber noch an den Treibern und damit an der Unterstützung der Spiele/Anwendungen.
Wer sich selbst ein Bild machen will, führt sich am besten den kompletten Artikel zu Gemüte.
[Blockierte Grafik: http://mitglied.lycos.de/flobos/Gigabyte_3D1_9_resize.JPG]
Fazit:
ZitatAlles anzeigenPositive Punkte der Gigabyte 3D1:
* gute Performance in durch SLI unterstützte Anwendungen
* gute Overclocking-MöglichkeitenNegative Punkte der Gigabyte 3D1:
* recht hoher Stromverbrauch
* an Gigabyte K8NXP-SLI Mainboard gekoppelt
* in den meisten Anwendungen nicht schneller als NVIDIA GeForce 6800 GT Karten
* wird SLI nicht unterstützt, wird nur die Leistung einer normalen 6600GT erreichtDie Frage nach dem Preis wäre noch zu beantworten. Im Set mit dem K8NXP-SLI wird die Gigabyte 3D1 knapp 500 Euro kosten. Geht man davon aus, dass der Preis auf der Straße noch etwas niedriger ist und zieht man knapp 150 Euro für das gut ausgestattete Board ab, dann darf man für die Karte knapp 300 Euro berappen. Damit liegt man etwas unter einer GeForce 6800GT - und das wäre durchaus in Ordnung, da die Karte ja nur in einigen Spielen SLI tatsächlich unterstützt. Die bessere Flexibilität bietet jedoch die GeForce 6800GT - denn trotz SLI-Board fällt das Upgrade durch eine zweite Karte ab.
Wie sich die Dual-GeForce 6600GT-Lösung am Markt schlägt, bleibt also abzuwarten - vielleicht schafft man es ja noch, die Karte auch für andere Chipsätze fit zu machen, in dem Fall könnte sie durchaus interessant werden.