Wilde Gerüchte um NV GT300, C++ (!!) GPU usw...

  • Shit, I didn´t know that the situation became so hopeless...

    well NVIDIA is still around, ATI which is now AMD, to most still called ATi, is still around and yups there is Intel as welll :thumbup:

    But even how bad it may seem for NVIDIA they will survive they have tons of credits, they can take hits like this, if something like this would of happened ATi again, probably they won't be able to take sucha sacrifice since we all know what happened to their X1800 series and especially the HD 2000 series heh they both came too late, the HD 2000 series was ATi's worst ride ever, NVIDIA has a much greater survivability to such events and they are almost like Intel, they have very strong shields.

    3 Mal editiert, zuletzt von Gold Leader (8. Oktober 2009 um 23:13)

  • Ihr Ziel ist es definitiv, den Supercomputingmarkt im Sturm zu nehmen, also zu erschließen, bevor jemand anders darauf kommt, dasselbe in so einem Ausmaß mit einer GPU oder etwas ähnlichem zu versuchen. Grund ist einfach das liebe Geld. Eine Teslastation bringt WEIT mehr Kohle ein, als ein kleiner Haufen Fermi GPUs, die du als GeForces vertickst.

    Wenn wir den Worst Case annehmen, dann werden Teslas und Quadros profitabel sein, wohingegen GeForces im Top End und Midrange Sektor nur defizitär an den Mann gebracht werden können (wie gesagt, Worst Case). In so einem Fall wirst du also wollen, soviele deiner GPUs wie nur möglich als Teslas und Quadros verkaufen zu können...

    Daher können wir wohl mit folgender Announcement-/Releasereihenfolge rechnen:

    • Tesla
    • Quadro
    • GeForce


    Fazit: Die Wissenschafter und Ingenieure werden die ersten sein, Spieler die letzten (weil unwichtigsten).

    1-6000-banner-88x31-jpg

    Stolzer Besitzer eines 3dfx Voodoo5 6000 AGP Prototypen:

    • 3dfx Voodoo5 6000 AGP HiNT Rev.A-3700

    [//wp.xin.at] - No RISC, no fun!

    QotY: Girls Love, BEST Love; 2018 - Lo and behold, for it is the third Coming; The third great Year of Yuri, citric as it may be! Edit: 2019 wasn't too bad either... Edit: 2020... holy crap, we're on a roll here~♡!

    Quote Bier.jpg@IRC 2020: "Je schlimmer der Fetisch, desto besser!"

    2 Mal editiert, zuletzt von GrandAdmiralThrawn (11. November 2009 um 13:31)

  • Das kann ich nicht glauben, da ich der Meinung bin, dass weitaus mehr Spieler Grafikkarten kaufen, als solche Supercomputerzeugs verkauft wird.
    Höchstens die sinnlosen horrenden Preise von deren selbsternannten Quadro Grafikkarten, die nichts anderes als normale Karten sind könnten dies ausgleichen, aber glaub ich nicht.

    Die dürfen jetzt mal endlich die Hosen runterlassen und sollten einfach sagen, dass der "Fermi" langsamer als die Radeon 5870 ist :spitze:

  • Das kann ich nicht glauben, da ich der Meinung bin, dass weitaus mehr Spieler Grafikkarten kaufen, als solche Supercomputerzeugs verkauft wird.
    Höchstens die sinnlosen horrenden Preise von deren selbsternannten Quadro Grafikkarten, die nichts anderes als normale Karten sind könnten dies ausgleichen, aber glaub ich nicht.

    Vereinfachtes Worst-Case-Beispiel: Wenn du eine jede GeForce 385 GTX mit -$50 Verlust verkaufst, und jede Quadro mit +$500 Gewinn, und jede Tesla mit einem +$1000er Gewinn, dann verkaufst zwar immer noch mehr GeForces als sonst was, aber es ist auch klar wo hier Defizit und wo Profit stecken... Und wennst zuwenig Teslas und Quadros verkaufst, bleibst am defizitären GeForce-Geschäft sitzen, wo du immer weiter in den Ruin gerätst, je mehr du verkaufst!!

    Und wenn dann ECHT viele Spieler die Karten kaufen bedeutet das nur Probleme in so einem Fall. Monströser Umsatz, monströse Verluste. DAS ist der Worst Case. Und ich vermute, daß man genau DAS abfedern will, indem man sich ein zweites Standbein mit garantiert hoher Gewinnspanne schafft. In einem Markt, wo es normal ist, daß du ein paar hunderttausend oder Millionen rausläßt, um einen Computation Cluster zu bauen. Wenn der dann dank Fermi auch noch 50 Mal so schnell ist....


    ich werd ne 5850 bzw. 5870 kaufen. Nach Weihnachten


    [Blockierte Grafik: http://mcfjbayer.de/julian/images/thx4info.jpg]

    1-6000-banner-88x31-jpg

    Stolzer Besitzer eines 3dfx Voodoo5 6000 AGP Prototypen:

    • 3dfx Voodoo5 6000 AGP HiNT Rev.A-3700

    [//wp.xin.at] - No RISC, no fun!

    QotY: Girls Love, BEST Love; 2018 - Lo and behold, for it is the third Coming; The third great Year of Yuri, citric as it may be! Edit: 2019 wasn't too bad either... Edit: 2020... holy crap, we're on a roll here~♡!

    Quote Bier.jpg@IRC 2020: "Je schlimmer der Fetisch, desto besser!"

    4 Mal editiert, zuletzt von GrandAdmiralThrawn (11. November 2009 um 19:41)

  • NV macht an nicht einem Chipi verlust, irrglaube, wenn dann Boardpartner oder TSMC etc.

    NV entwickelt und designt nur die Chips sowie die Standart Schaltplatinen PCB's. Gibt Chips in Auftrag bei zb TSMC, davon gehen dann halt von einem Auftrag sagen wir 1000 GPU's von TYP XY. 333 an XFX 333 an ASUS und 334 an Gigabyte...

    bzw alles kommt aus einer fabrik und dort werden nur die Aufkleber dann verteilt von den Partner, so genau weiß ich das nicht.

    Zumindest will ich mal gelesen haben das NV eh nur der entwickler und disigner ist nich mehr und nich weniger.

  • Ich kenne die genauen Details nicht, bin mir aber ziemlich sicher, daß nVidia an der Fertigung bzw. den Chips Umsatzbeteiligt ist (100% würde ich meinen), die verkaufen ja die Chips an die Boardpartner, und nicht TSMC. TSMC bietet nur für einen gewissen Preis pro Wafer die Dienstleistung der Fertigung an, und die fertigen Wafer bzw. Chips gehören dann nVidia. Und nVidia müßte dann entscheiden, wie teuer man die Teile je nach Verschnitt und Ausbeute noch anbringen kann, damit man das Geld, das man an TSMC für die Fertigung und Wafer gezahlt hat, auch wieder reinholt. Und der Boardpartner schlägt dann nochmal was drauf für die Fertigung der Platine.

    Klar baut nVidia nicht selber. Aber den Chip-Umsatz regeln sie sehr wohl selber. Bin mir ziemlich sicher, daß das so funktioniert. Sonst würden ja nur die Boardpartner und TSMC cashen, und nicht der Entwickler. Ein sehr starker Indikator hierfür ist auch, daß die Gewinne von nVidia selbst bei hohem Umsatz einbrechen, wenn die pro-Chip Preise nicht mehr stimmen. Und nicht (nur) jene von TSMC oder den Boardpartnern.

    1-6000-banner-88x31-jpg

    Stolzer Besitzer eines 3dfx Voodoo5 6000 AGP Prototypen:

    • 3dfx Voodoo5 6000 AGP HiNT Rev.A-3700

    [//wp.xin.at] - No RISC, no fun!

    QotY: Girls Love, BEST Love; 2018 - Lo and behold, for it is the third Coming; The third great Year of Yuri, citric as it may be! Edit: 2019 wasn't too bad either... Edit: 2020... holy crap, we're on a roll here~♡!

    Quote Bier.jpg@IRC 2020: "Je schlimmer der Fetisch, desto besser!"

  • Also soviel ich mal gelesen habe, liegt das Risiko beim Waferproduzenten.

    Sprich wenn NV 1000 Chips bestellt und TSMC pro Wafer 50% in die Tonne wirft a 500 ist das TSMC ihr verlust daher mehr Wafer um auf 1000 Chips zu kommen, sicherlich Kalkulieren die das mit ein und machen NV wiederrum dann einen quasi teureren Preis. Bei ATi/AMD wird es nicht anders sein, vielleicht sinds auch Waferfestpreise?

    Vom prinzip her ist es schon so wie ich sagte NV und auch andere Chipdesigner ohne FAB's entwerfen/entwickeln und designen Chips deren Referenssetup a PCB's Platinen etc. das sie soweit Marktfähig sind und an den endverbraucher gehen könnten. Dazu gehört auch der Treibersupport.

    Aber die Herstellung übernehmen ganz andere Unternehmen und auch die Boardpartner, Gigabyte, Asus, Gainward uso oder die machen es auch nur so und für die Herstellung sind wieder andere Firmen zuständig daher nur die Aufkleber.

    Ich weiß es auch nicht genau?

    Zumindest könnte man es auch auf das Fiasko zurückschließen mit 3dfx die ja durch Ihre FAB in Mexico alles übernehmen wollten und selbst Herstellen was sich wie wir wissen aber anscheinend nicht Rentierte. Soviel ich weiß macht das NVIDIA nicht bis auf Testsamples und Prototypen?

    2 Mal editiert, zuletzt von Deletet (12. November 2009 um 10:59)

  • Soweit ich das verstanden habe, kaufst du bei TSMC Waferweise ein, wie die Ausfallrate aussieht ist TSMC selber wohl egal und somit dem Auftraggeber sein Problem. Die Produktion der Units an sich ist im Vergleich zum Wafer vermutlich eh ein sehr kleiner Kostenanteil.
    Du kaufst also deine Wafer mit gewissen Optionen ein (Grösse, Zusatzbeschichtungen), lässt deinen Chip herstellen und was davon rauskommt verscherbelst du dann selber.

    Ich könnte mir zudem auch vorstellen, das nV bei einigen OEMs sehr dumm dasteht mit dem Bumpgate Problem (zumindest im Notebooksektor) und es würde mich auch nicht wundern, wenn das in Zukunft noch einiges an Kosten verursachen würde.
    Da wird man sich kaum nocheinmal einen Schnellschuss erlauben können.

    Dass die zuerst auf Supercomputing gehen liegt wohl eher daran, dass auf dem Markt im Moment in absehbarer Zeit mehr Geld zu holen ist als im direkten Gamingsektor. Würde mich eh interessieren, in wie weit die Schwarzmalerei vonwegen die Konsolen würden den PC als Spielerplattform verdrängen da noch mitspielen.
    Zudem hat ATI mit den neuen 5xxx einen sehr potenten Gegner im Rennen, wenn man dem auf Weihnachten kein Paroli bieten kann ist vermutlich der lukrativste Zeitraum im Jahr eh verspielt.

    We'll see ;) hab seit einigen Wochen ne 5780 drin und bin happy damit :)

    Einmal editiert, zuletzt von OutOfRange (12. November 2009 um 11:08)

  • es gibt neuigkeiten von Nvidia

    der Fermi unterstützt maximal 1TB Videospeicher
    zunächst gibt es zwei Tesla Versionen, die C2050 mit 3 GB GDDR5 RAM und die C2070 mit 6GB für 2500 bzw 4000 US-Dollar
    maximal 630 GFlops bei doppelter Genauigkeit (Dual Precision/DP) bzw doppelt so viel leistung bei einfacher Genauigkeit

    zur Spieleleistung gibt es aber immer noch keine aussage seitens Nvidia

    quelle


    VoodooAlert IRC Channel


    Und hier noch ein blöder Spruch den nicht jeder sehen kann.
    :spitze: Anscheinend ist es ja mittlerweile modern, Schriftfarben zu nutzen die man nur in einem der beiden Designs sehen kann :spitze:

    2 Mal editiert, zuletzt von exxe (16. November 2009 um 19:37)


  • maximal 630 GFlops bei doppelter Genauigkeit (Dual Precision/DP) bzw doppelt so viel leistung bei einfacher Genauigkeit

    Darf ich fragen wie du zu dieser Annahme kommst? Double Precision ist nicht gleich halbierte Leistung ;)

    Hier mal als Beispiel die Specs des GT200:
    - 933 GFLOPs bei Single Precision
    - 78 GFLOPs bei Double Precision

    Die Stream Prozessoren takten beim GT200 mit 1300MHz, beim GT300 werden es bis zu 1230MHz sein. Jetzt hat sich beim GT300 die Anzahl der Stream Prozessoren allerdings mehr als verdoppelt! Welche Leistungswerte sich also bei Single Precision ergeben kann sich jeder selbst ausmalen ;)

  • evtl liegts daran das der Fermi nun ECC hat


    VoodooAlert IRC Channel


    Und hier noch ein blöder Spruch den nicht jeder sehen kann.
    :spitze: Anscheinend ist es ja mittlerweile modern, Schriftfarben zu nutzen die man nur in einem der beiden Designs sehen kann :spitze:

  • Ok, bin inzwischen etwas schlauer geworden ;)

    Der GT200 kann 2xMADD+1xMul pro Takt, daraus ergeben sich 933GFLOPS (1300MHz x 3 x 240). Wobei die Mul pro Takt fast nie ins Gewicht fällt bzw genutzt werden kann... man muss also eher von 624GFLOPs beim GT200 an "realer" Leistung ausgehen.

    Beim GT300 setzt nvidia auf 2x FMA (fused multiple add) Operationen pro Takt, Angaben dazu können schon als "reale" Leistung betrachtet werden.

    Also ergibt sich für den GT300 folgendes:
    512 x 2 x 1230MHz => 1260GFLOPs

    Damit haben wir also unsere Verdopplung von 624 GFLOPs beim GT200 zu 1260GFLOPs beim GT300.

    Für alle ATI Anhänger die sich jetzt anfangen zu freuen:
    Der ATI Cypress kann seine 2720GFLOPs auch nicht wirklich ausspielen, das ist schlichtweg den Vec5 Shader Einheiten verschuldet. Es sind auch eigentlich keine echten 1600 Shader Einheiten, sondern 320 Vec5 Shader Einheiten ;)

  • Ich möchte gard noch mal auf die "Fake" Karte aus der ersten Präsentation zurück kommen. Auf Computerbase gibt es jetzt erste Bilder einer lauffähigen Tesla Karte zu sehen. Wenn ich die shots der Rückseite mit denen der "Fake" Karte vergleiche muss man schon sagen das das jetzt gezeigte PCB garnicht so weit weg vom damals gezeigten ist. Selbst die Backplate scheint Authentisch zu sein.

    http://www.computerbase.de/news/hardware/…i-grafikkarten/

  • Zum gleichen Zeitpunkt wie der "Fake"-Karte hatte nv auch schon etliche lauffähige Karten, mich wundert es daher eigentlich nicht dass das PCB gleich ist bzw. evtl. wenige Änderungen aufweist.