Man darf auch nicht vergessen, das AMD schon optimierungen an den Treibern vornehmen konnte, was nVidia bisher durch den Release noch nicht durchfuehren konnte. Es steckt also noch potential drin.
Wilde Gerüchte um NV GT300, C++ (!!) GPU usw...
-
-
Ich find den vergleich mit der 5800 Ultra geil, ich sag die is besser!
Was ich interessant finde ist das die "FLOPs (MADD/ADD)" rechenleistung ja extrem gering ist laut den angaben von CB. NV meinte doch diese ist überragend auf CPU-GPUing optimiert...
Aber wie Harrold schon sagt abwarten mal sehen was treiber noch bringen eventuell wird sie auch kühler und sparsamer.
-
Mir gefallen die Karten
Empfehlenswertes Review:
http://www.hardwareluxx.de/index.php/arti…k.html?start=24Und hier eine GTX470:
http://www.hartware.net/review_1079.htmlErinnern mich irgendwie an Muscle Cars - brachiale Leistung, Verbrauch jenseits von Gut und Böse und verdammt heiß
-
Ich seh schon, alle Leute (666psycho mal ausgenommen) werden sie hassen, und ich werd sie kaufen. Das mit rockys Kommentar stimmt wohl, aber die Frage in Bezug auf GPGPU Computing ist wohl die der Leistung beim Einsatz von Double-Precision. kA..
Bei [H]ard|OCP stand glaube ich auch, daß die 32 zusätzlichen Shader per BIOS deaktiviert wurden. Wenn das stimmt, könnte man die Karte vielleicht per Software Hack auf 512 Shader aufbohren... Übrigens gibts bei [H] auch SLI Tests mit der 480er, scheints sonst nirgends zu geben. [Link].
Verfügbarkeit scheint aber erwartungsgemäß Arsch zu sein. Preislich gibts 480er momentan um ~480€ bei Alternate, aber eben ned lieferbar. 12. April hat's geheißen.
-
Ja schade, ich dachte die wird der Hammer, so das die von mir angestrebte ATI günstiger wird!
Was wird die am Strom fressen?
-
Durch warten wird man älter, aber nicht schneller. Der Fermi Kram ist mal wieder der beste Beweis dafür
-
Wohl doch, nur eine Frage von wann.
Und älter werden und verstanden zu haben, das die Karte die mann bis Dato benutzt hat, voll und ganz gereicht hat.
Ist auch eine Erfahrung die sich lohnt, gemacht zu haben.
Aber der Hauptgrund, ist natürlich der Preis, da Wir ja nicht alle das selbe Geld, für so eine Karte überhaben.
Gruß, Andy.
-
Nuja schön laut ist sie anscheinend knapp 63db bei ca 86% lüfterdrehzahl unmittelbar daneben... http://www.youtube.com/watch?v=xfQOU3T0O3Q
will nich wissen wie die geht mit 100%!Meine 5800 Ultra kann das auch.
-
Hab mir schon gedacht dass das n Drecksteil wird
Naja ich sag mal so richtig schlecht isse ja nicht, aber mit heisser Nadel gestrickt irgendwie..
Wenn man sieht dass unter Furmark die 300W, die die Grenze der PCI-E + 6- und 8Pol Stromstecker Stromzufuhrspezifikation schon erreicht werden, sieht man warum NV nochn paar Shader deaktiviert hat. Da wurd eben auf Teufel komm raus alles aus einer zu schlechten Architektur rausgeholt, ordentlich Saft drauf und ma schaun was rauskommt
Wie gesagt - nich so schlecht wie die 5800er damals, aber definitiv kein rundes Produkt, welches man nach so langer Zeit erwarten dürfte.
Mal sehen was NV da noch rausholt und wanns Refreshes mit kleineren Fertigungsprozess gibt -
Hat jemand zufällig nen Test GTX480 vs GTX280 SLI gesehen?
-
Mit 280ern im SLI kann ich zwar nicht dienen, aber Anand hat zumindest Vergleichsbenchmarks zu einem 285 GTX SLI im [Angebot], das kommt der Sache neben den vielen Vergleichen mit 295ern wohl noch am nächsten.
-
Ich weiß ja nicht wie es euch geht, aber ich erwarte mir sehr viel von dem sog. Performance Chip GF104.
256Bit und das ganze am besten noch mit 2Gbyte Ram.
Da ich doch auf den Stromsparkarren aufgesprungen bin, ist mir der Verbrauch im High-End Segment einfach zu hoch! -
naja die GF104 und GF108 sind ja auch nicht mehr als GF100 mit weniger Kernen
also wird die Verlustleistung wohl so ziemlich genau soviel sinken wie die Rechenleistung nicht genau aber ±10%
Bei der Architektur hilft eigentlich nur eins, ne kleinere Strukturbreite -
Hab mir schon gedacht dass das n Drecksteil wird
Naja ich sag mal so richtig schlecht isse ja nicht, aber mit heisser Nadel gestrickt irgendwie..
Wenn man sieht dass unter Furmark die 300W, die die Grenze der PCI-E + 6- und 8Pol Stromstecker Stromzufuhrspezifikation schon erreicht werden, sieht man warum NV nochn paar Shader deaktiviert hat. Da wurd eben auf Teufel komm raus alles aus einer zu schlechten Architektur rausgeholt, ordentlich Saft drauf und ma schaun was rauskommt
Wie gesagt - nich so schlecht wie die 5800er damals, aber definitiv kein rundes Produkt, welches man nach so langer Zeit erwarten dürfte.
Mal sehen was NV da noch rausholt und wanns Refreshes mit kleineren Fertigungsprozess gibt
NV wird die Shader deaktieviert haben um überhaupt Karten liefern zu können da TSMC ja aktuell Probleme bei der Ausbeute hat und man diese durch abschalten leicht erhöhen kann. Und vieleicht behält sich NV die karten mit allen Shadern für die Teslareihe vor.Und du wirst sehen die werden auch die Spez. des PCIe demächst anpassen und dann isst das kein Problem mehr (kaufen würde ich mir Termi allerdings vor dem ersten shrink jedoch auch nicht, das is mir dann auch zuviel)
-
geht laut specs nicht mehr als 300watt wenn man einen 3Slot Kühler verbaut?
und noch mehr stromstecker -
dann kannste mehr strom ziehen, richtig aber das läuft dann nich mehr innerhalb der spezifikationen .
-
PCIe Spec sieht - soweit mir bekannt - maximal einen 6-Pin plus einen 8-Pin pro Karte vor, und nicht mehr.
-
75Watt gehen über den PCIe, 75Watt über den 6 poligen und 150Watt über den 8 poligen.
müssen se also nur den 6 poligen zu nem 8 poligen machen und schon passts wieder[MSIE_newline_end ] -
Bei "XFX" hat man anscheinend kein Interesse an Fermi
http://extreme.pcgameshardware.de/user-news/9569…-verkaufen.html
-
Laut PCIe Spec darfst aber keine 2 x 8-poligen Stecker einsetzen.
@XFX: Jo, die Jungs, die mir übertaktete 7800er verkauft haben, die dann sauber mit Pixelschnee gelaufen sind. Nicht ganz so gut wie die Jungs von Gainward, die mir übertaktete 6800er verkauft haben, die dann einfach ABGESCHMIERT sind (außer man hat den Takt reduziert natürlich!), aber hey!
Die wollen sich doch nur rächen dafür, daß sie als nVidia Partner rausgeflogen sind...
-