• Was denkt Ihr selbst, hält AMD absichtlich per Treiber schon bei der Pro Vega FE fähigkeiten und leistung durch deaktivieren zurück oder haben die wirklich Probleme mit dem Chip?

  • Ich vermute dass die weniger mit dem Chip als mit den Treibern Probleme haben.. wie üblich bei AMD :topmodel:
    Bin mir sicher, dass da noch einiges geht.

    Von den Rohdaten müsste noch VIEL mehr gehen, aber um realistisch zu bleiben würde ich tippen, dass zumindest in absehbarer Zeit die 1080 klar eingeholt wird, die 1080Ti vermutlich nicht. Aber scheinbar ist die Karte jetzt schon in den min FPS sehr stark, d.h. die von AMD derzeit stark so hervorgehobene "gefühlte" Performantze dürfte sehr konkurrenzfähig werden.

    Bin gespannt auf die nächsten Wochen :)

  • Bin gewillt mir die große Vega 64 aber mit Luftkühler zu holen und hoffe das sie kein bild unter 4k verliert wie die RX 580... mir gehts nicht um die neuesten Spiele sondern auch gerne ältere wo sowas kein problem sein sollte und dürfte.

  • Nein zur vorallem befeuerung von 4k ich spiele aber nicht jedes neueste Topspiel aus der COD weiß der geier reihe sondern auch alte gute Klassiker Crysis etc. mit Mods die dann schon ordentlich abgehen.

    Als bestes bsp. Stalker COP Misery 2.1 da bricht selbst meine 780 Ti gnadenlos ein vorallem am RAM, aber baller da mal alles rein was geht, einfach nur schön anzusehen!

    Moderne Klassiker sind für mich Spiele mit ab ShaderModell 3.0 ergo ab grob 2005 rum bzw. ~10 Jahre. Alles davor ist für mich schon real Retro...

    Einmal editiert, zuletzt von Deletet (3. August 2017 um 19:38)

  • Zu Beginn der Vermarktungskampagne hat AMD selbst Vega nur als kleinen Fortschritt in Sachen Performance bezeichnet und erst mit Navi wieder einen größeren Schritt angekündigt. Nur durch deren Geheimniskrämmerei bei den Vergleichssystemen mit Geforcekarten entstand dann der Eindruck, als könne es Vega mit den Topmodellen von Pascal aufnehmen.

    Gefickt eingeschädelt! So hält man Leute von der Konkurrenz fern, sorgt aber halt auch für lange Gesichter, wenn man dann endlich ins Wasser springen und schwimmen muß :rolleyes:

    Da bin ich ehrlich keine Ausnahme, was das lange Gesicht betrifft: 4096 Vega-Shader können es nicht annähernd mit den 3584 einer GTX 1080 Ti/Titan X bzw. 3840 bei Titan Xp aufnehmen und schaffen gerade so ein Patt gegen 2560 Shaderkerne einer GTX 1080.
    Da fragt man sich natürlich, woran das liegen könnte:
    1. Am Treiber?
    2. An der Optimierung der Spieleengines?
    3. Fehlende Zusammenarbeit mit Entwicklern oder Spielestudios?
    3. An der Chiparchitektur?

    In meinen Augen muß da schon mehr als ein Wundertreiber kommen, damit Vega noch zur Spitze aufschließen kann. Aber das stand wohl von Anfang an nicht zur Debatte und ist IMHO auch sehr unwahrscheinlich geworden.

    Ich werde mich von keinem einzzzigen Prozzzessor trennen.
    Jedoch lockt es mich beinahe, ihn Dir zu überlassen, nur um zu sehen, wie er Dich in den Wahnsinn treibt :evil:

    Meine Begehren

  • Irgendwo verpufft ja sinnlos die Leistung wenn man wieder bei anwendungen von über 13/26Tflops denkt stimmt ja irgendwas nicht im bezug auf reine Spiele 3D sachen die können Ihre Cores einfach nicht wirklich ausnutzen.

    Die Architektur selbst ist auf dem Papier schon ein Tiger...

  • Das Problem bei AMD liegt nicht am Shader Core!

    In reinem Compute hat Fiji Maxwell auch schon vorne und hinten zerlegt.
    Also Berechnungen wie Machine Learning, Raytracing und solche Sachen.

    Denke bei Fiji war eines der Probleme eher die Geo Unit.
    AMD macht 1 Dreieck pro Takt pro Shader Engine.
    Fiji: 4 SEs sind 4 Dreiecke / Takt. Immer.

    Nvidia kann sich als Input zwei Dreiecke pro Takt/GPC (Graphics Processing Cluster) anschauen aber nur maximal ein sichtbares kann in die Pipeline dahinter.
    Wenn beide Dreiecke unsichtbar sind, schafft nVidia 2/Takt.

    Eine RX480 schafft 4 sichtbare pro Takt, nVidia 5-6.
    Dazu ist bei 1070/1080 der Takt sehr hoch. Ne 1080 macht so ca. 6 Mrd. sichtbare Dreiecke pro Sekunde.
    Die RX480 macht 3.5 Mrd.
    Das ist jetzt nicht die Welt. Nur sind durch das ganze Backface Culling in einem Game in der Regel 50% der Dreiecke unsichtbar.
    Und eben bei den unsichtbaren steht es 4,8 Mrd/s (RX480) zu 13 Mrd (1080).

    Vega macht da schon vieles besser. Aber erstmal die richtigen Tests abwarten. Dann sieht man ob das reicht.

    Voodoo-Kiste (seit 3dfx BayernLAN 2007):
    TUSL2-C, P3-S 1400, 512MB SDR, Voodoo 5 5500 AGP, 9,1GB IBM SCSI (OS), 40GB HDD (Games), Adaptec 2940-U2W SCSI
    Dualatin: GA-6VTXD, 2x P3-S 1400, 1GB SDR, 2x 60GB, Hercules Radeon 8500 128MB

    Work (CG): MSI TRX40 Creator, AMD TR 3970X, 128GB RAM, Titan RTX 24GB, Win10Pro

    Zock & Office: MSI X58 Pro-E, Xeon X5680 4,2GHz, 24GB RAM, RX590 8GB, KDE Neon

  • Danke für die super Erklärung!

    Verstehe ich das richtig: Wenn Nvidia 2 Dreiecke im Input anschaut und beide unsichtbar sind, läuft die Pipeline dahinter im nächsten Takt leer. Bei AMD passiert das dagegen schon, wenn nur 1 Dreieck im Input unsichtbar ist.

    So wie Du das schreibst, ist die Sache mit dem Input von 2 Dreiecken pro Takt schon länger bekannt. Warum macht AMD das dann nicht genauso, wenn es einen Vorteil verspricht, mehr Dreiecke im Input geleichzeitig anzuschauen?
    Könnte man mit 3 Dreiecken im Input die Auslastung dann noch weiter steigern oder würde das dann zu einer längeren Verzögerung führen, wenn die Pipeline wegen Benutzereingaben verworfen werden muß?

    Ich werde mich von keinem einzzzigen Prozzzessor trennen.
    Jedoch lockt es mich beinahe, ihn Dir zu überlassen, nur um zu sehen, wie er Dich in den Wahnsinn treibt :evil:

    Meine Begehren

  • Yoshi

    Super Test! :thumbup: Vorallem die MilkyWay Crunch Geschichte, jetzt kann ich das Teil (Vega) auch in etwa einschätzen!

    Diskutiere niemals mit Idioten, sie ziehen dich auf ihr Niveau runter und schlagen dich mit ihrer Erfahrung.
    Mein Herzblut:
    AMD 5x86-P75, 64MB-Ram, Voodoo I, Win3.11
    AMD K6-2+ 550 @ 600MHz, 256 MB-Ram, Voodoo II SLI, Win98SE
    AMD 3700+, 3072MB-Ram, ATi FireGL X3-256
    , WinXP SP3 (Sockel 754)

  • Ich denke nVidia dropt unsichtbare Dreiecke bevor sie in den Rasterizer dahinter gehen.
    Aber so ganz fit bin ich da im Detail nicht.

    Hawaii und Fiji sind limitiert bei 1 Triangle / Clock / Shader Engine.
    Ist also hardwaregebunden (@rocky).
    Wobei es auf der Softwareseite interessante Ansätze gibt wie zB Cluster Culling was in der Theorie 30% Leistungszuwachs bringen kann.
    Ubisoft hat das 2015 schon mal getestet.

    Vegas vier neue Geo Engines können ja jetzt bis zu 11 Dreiecke pro Takt.
    Die sind zwar programmierbar aber sieht so aus, als wären maximal 11/Clock drin.
    Wenn ein Dreieck kleiner als ein Pixel ist, wird es direkt vom Primitive Discard Accelerator (seit Polaris) verworfen.
    Dreiecke kleiner als ein Pixel waren schon immer ein Problem. Und mit dichterer in game geo, wird's auch wichtiger da GPU-seitig was zu machen.

    Polaris hat das schon besser gemacht als Fiji. Das erklärt warum ne RX580 in manchen Spielen schneller als ne Fury ist.

    Vegas neue Geo Unit ist schon um einiges besser geworden. Darum glaub ich, dass es noch an den Geschichten dahinter haken könnte, falls die theoretische Rohleistung nicht erbracht wird.
    Vielleicht am Rasterizer oder so. Ob das dann über den Treiber optimiert werden kann, müssen wir abwarten.

    Low Level APIs werden da eben wichtiger. Richtig optimiert wäre ne Fury X mindestens auf dem Niveau einer Maxwell Titan X.
    Bis die Game Devs aber mal realisieren, dass sie bei DX12, Vulcan etc. mehr Hirnschmalz brauchen als bei DX11, wo zB nVidia das meiste im Treiber abfängt, kann es noch dauern.

    Voodoo-Kiste (seit 3dfx BayernLAN 2007):
    TUSL2-C, P3-S 1400, 512MB SDR, Voodoo 5 5500 AGP, 9,1GB IBM SCSI (OS), 40GB HDD (Games), Adaptec 2940-U2W SCSI
    Dualatin: GA-6VTXD, 2x P3-S 1400, 1GB SDR, 2x 60GB, Hercules Radeon 8500 128MB

    Work (CG): MSI TRX40 Creator, AMD TR 3970X, 128GB RAM, Titan RTX 24GB, Win10Pro

    Zock & Office: MSI X58 Pro-E, Xeon X5680 4,2GHz, 24GB RAM, RX590 8GB, KDE Neon

  • Wollte ich auch gerade posten, musste den Thread aber erst mal suchen :P

    Ich finde die RX Vega 56 recht interessant. Besonders der Radiallüfter gefällt mir.
    Weniger Leistungsaufnahme, leiserer Lüfter, günstigerer Preis und mischt trotzdem gut vorne mit. Wer braucht da noch das Topmodell?

    Vom obiger Karte bin ich entsprechend auch recht überrascht, vom Topmodell habe ich nicht viel mehr erwartet als man jetzt sehen kann.

  • Danke für die Links :D

    Auf den allerersten Eindruck gar nicht mal sooo übel, ordentliche Steigerung zu meiner Fury.
    Jetzt muss ich doch nochmal genauer alles durchlesen :spitze:

    Voodoo5-PC: Athlon XP 2600+, Gigabyte GA-7VRXP, Voodoo 5 5500 AGP, 1,5GB RAM

    Realität ist eine Illusion, die durch Alkoholmangel hervorgerufen wird.
    MainPC: AMD Ryzen 9 5950X, MSI MAG X570 TOMAHAWK, 32 GB DDR4 @ 3600 MHz CL18, Radeon RX6900XT, Kingston FURY RENEGADE NVMe, be quiet! Straight Power 11 750W ( Stand 30.03.22 )

    Laptop: MacBook Air M1 - 2020

  • Die Leistung pro Watt ist eigentlich schon schlimm :topmodel:
    Die Testergebnisse sollten seit Release der FE nicht wirklich überraschen.
    Es gibt wieder Konkurrenz, wenn auch erstmal nur in Reihe 2. Nichtsdestotrotz lässt sich damit ebenso zocken ;)

    Ich warte mal die custom models ab in der Hoffnung, dass die Miner nicht wieder alles leergekauft haben bis dahin.

    Voodoo-Kiste (seit 3dfx BayernLAN 2007):
    TUSL2-C, P3-S 1400, 512MB SDR, Voodoo 5 5500 AGP, 9,1GB IBM SCSI (OS), 40GB HDD (Games), Adaptec 2940-U2W SCSI
    Dualatin: GA-6VTXD, 2x P3-S 1400, 1GB SDR, 2x 60GB, Hercules Radeon 8500 128MB

    Work (CG): MSI TRX40 Creator, AMD TR 3970X, 128GB RAM, Titan RTX 24GB, Win10Pro

    Zock & Office: MSI X58 Pro-E, Xeon X5680 4,2GHz, 24GB RAM, RX590 8GB, KDE Neon

  • Die Leistung pro Watt ist eigentlich schon schlimm :topmodel:
    (...)
    Ich warte mal die custom models ab in der Hoffnung, dass die Miner nicht wieder alles leergekauft haben bis dahin.

    Is doch geil, der hohe Verbrauch - somit ist die VEGA für Mining total uninteressant, bei dem Verbrauch :topmodel: :topmodel:

    Ich warte auch erstmal. Eine Referenz-AMD kauf ich so schnell nicht mehr xD Aber wenn die OC-Berichte stimmen, dann könnte ich mir eine "Sapphire Fury56 Nitro" gut vorstellen. Andererseits wäre eine "vollwertige" Vega64 auch cool. Hach....

    Voodoo5-PC: Athlon XP 2600+, Gigabyte GA-7VRXP, Voodoo 5 5500 AGP, 1,5GB RAM

    Realität ist eine Illusion, die durch Alkoholmangel hervorgerufen wird.
    MainPC: AMD Ryzen 9 5950X, MSI MAG X570 TOMAHAWK, 32 GB DDR4 @ 3600 MHz CL18, Radeon RX6900XT, Kingston FURY RENEGADE NVMe, be quiet! Straight Power 11 750W ( Stand 30.03.22 )

    Laptop: MacBook Air M1 - 2020

  • It's not much faster than a GTX 1080 FE, my EVGA GTX 1080 FTW2 11GBps would be about on par with the best Vega 64 the water cooled one most probably.
    Plus with the GTX 1080 FTW2 I have now It will give me far better game optimization and better drivers, thus I am staying away from Radeons for some time;
    That all because I am a loved Fallout 3 / New Vegas & 4 player, Radeons have given me nothing but Graphical issues, not even one AMD driver release can solve.

    Here an example I had with my RX 480 when I had it some time ago:

    Before 20 Minutes:
    [Blockierte Grafik: http://abload.de/img/fallout4onrx48020minsfbalr.jpg]

    After 20 Minutes:
    [Blockierte Grafik: http://abload.de/img/fallout4onrx48020minsseao2.jpg]

    My R9 290X did this far worse this was after a run of around 70 Minutes:
    [Blockierte Grafik: http://abload.de/img/r9290xandfallout4afetw2zwf.jpg]

    here more Cyan colored LSD Trees I had with the RX 480:
    [Blockierte Grafik: http://abload.de/img/cyantreesa63yxb.jpg]

    [Blockierte Grafik: http://abload.de/img/cyantreesbtxzmr.jpg]

    And this I had with the HD 5870, up close nothing is wrong:
    [Blockierte Grafik: http://abload.de/img/rainbowalzx14.jpg]

    And this is what you see from a greater distance:
    [Blockierte Grafik: http://abload.de/img/rainbowbhzbva.jpg]

    Everywhere I looked I got the same crappy rendered nonsense:
    [Blockierte Grafik: http://abload.de/img/rainbowc8ra07.jpg]

    And that ^ ^ ^ is why I went back to NVIDIA :sleeping: Got tired of this misrendered crap, when I play my games I want all games to look good and issue free.
    So from now on NVIDIA only for me, got my reasons which I clearly have proven with those valid screenshots I made in game at the time of being.

    So to sum that up the Radeons that gave me the same issues were HD 5870, R9 290X & RX 480, all cards showed the same issues.
    After using my 7 year old EVGA GTX 480 I found out these issues were gone, this is the main reason I went for the best GTX 1080 the market could give, EVGA's GTX 1080 FTW2 that being.

    As for Vega? it' came way too late, the GTX 1080 has been around for more than a year, I w as expecting it to be at least on par with the performance of the GTX 1080 Ti / TITAN Xp, but sadly it isn't.
    It's taking on a card that has been around for more than 15 months, not really good if you'd ask me.

    As my issue goes, that is mainly to blame of bad game optimization and bad drivers, it's a sweet cocktail for such troubles.
    Just not only that, NVIDIA pays Developers tons of money to make games run much better on their hardware, it's a sad yet a sad truth we all face.
    Although I always shall wish games were neutral to be very honest, so both AMD & NVIDIA VGA card owners would get trouble free runtimes, and that is how it always should be 8)
    But sadly that is not the case with many games I do play.

    Whelp I am willing to try out Vega 64 once such things improve or are completely fixed, even I doubt that happening for quite some time.
    So as that goes it won't be worth my money and time.

    4 Mal editiert, zuletzt von Gold Leader (15. August 2017 um 07:53)

  • It's not a secret that nVidia does not stick to API specifications (DX, OGL).
    Basically nVidia allows things in compatibility, AMD forbids things in core.
    If a dev works in OpenGL for instance and parts of his code don't match GL core specs, he usually gets a warning by the driver.
    Either the code he's putting together will cause a crash or will not perform as requested.
    Unlike AMD, nVidia's drivers don't warn the dev instead they solve his mistakes within the driver by specific workarounds - by making it "compatible" outside the core specs.
    That way software runs or seems to run perfectly on nVidia whilst it doesn't on AMD.

    By "allowing" functionality outside the core specs, developers demand other vendors who are actually conform to "repair" their implementations.
    The comments I therefore hear a lot from dev colleagues: AMD's drivers are unacceptale and a hassle to work with.
    - Well, they're just doing what they're supposed to.

    It's time for low level APIs like Vulkan and DX12.

    Voodoo-Kiste (seit 3dfx BayernLAN 2007):
    TUSL2-C, P3-S 1400, 512MB SDR, Voodoo 5 5500 AGP, 9,1GB IBM SCSI (OS), 40GB HDD (Games), Adaptec 2940-U2W SCSI
    Dualatin: GA-6VTXD, 2x P3-S 1400, 1GB SDR, 2x 60GB, Hercules Radeon 8500 128MB

    Work (CG): MSI TRX40 Creator, AMD TR 3970X, 128GB RAM, Titan RTX 24GB, Win10Pro

    Zock & Office: MSI X58 Pro-E, Xeon X5680 4,2GHz, 24GB RAM, RX590 8GB, KDE Neon