Seit wann ist DirectX offen?
Es wird von Vulkan, OpenGL, freier und offener Software hier geblubbert, aber schön Windows eingesetzt. Wenn das mal nicht konsequent ist...
Mitdenken. Deutsche Vereinsbank.
Seit wann ist DirectX offen?
Es wird von Vulkan, OpenGL, freier und offener Software hier geblubbert, aber schön Windows eingesetzt. Wenn das mal nicht konsequent ist...
Mitdenken. Deutsche Vereinsbank.
Leute, das war eine erste Demo.
Square hat selber gesagt, dass die Implementation noch in einem frühen Stadium ist und RT aktuell sogar als nachträglicher Patch geplant ist.
Erst einmal abwarten was erste richtige Benches bringen und bis dahin einfach mal tief durchatmen.
ZitatNvidia demonstrierte DLAA auf einer Geforce RTX 2080 Ti in 4K mit Epics Infiltrator-Demo, die mit 78 fps laufen soll - wegen Vsync wurden 60 fps ausgegeben. Eine Geforce GTX 1080 Ti mit TXAA schafft laut Hersteller rund 30 fps.
Quelle: https://www.golem.de/news/geforce-r…808-136117.html
ZitatFor existing games, Turing will deliver 2x the performance and 4K HDR gaming at 60 FPS on even the most demanding titles.
Quelle: https://blogs.nvidia.com/blog/2018/08/2…me-ray-tracing/
Das sind bis jetzt die einzigen Aussagen hinsichtlich der Leistung bei normalen Spielen. Falls das so zutrifft hat NV auch abseits Tensor-/RT-Cores ordentlich an den normalen Cuda Kernen gebastelt.
---
Nuja nur für paar optische Gimmicks ist das Schwachsinn, genauso wie Physx im Enddefekt somit eine Totgeburt war... weil es am spiel selbst und dadurch direkt beeinflussbar überhaupt nichts änderte außer das, was ich halt sehe.
Mit diesem hybriden RT-Verfahren kannst du viele Probleme (Beleuchtung, Schattenwurf, Reflexionen...) recht einfach und ohne Handstände im Code lösen. Dagegen haben wir aktuell Flickschusterei die zwar stellenweise gut aussieht, aber viel zu oft offensichtliche Fehler produziert (screen space seflextions als Beispiel).
Man kann das als optische Gimmicks abstempeln, aber dann können wir Weiterentwicklung auch irgendwie ganz bleiben lassen. Es sind einfach keine Sprünge wie zu Beginn mehr möglich.
Edit:
Im Gegensatz zu Physx fließt diese ganze Sache offiziell in DirectX und Vulkan ein d.h. es bleibt keine proprietäre Lösung. Intel und AMD haben gleichermaßen die Möglichkeit mitzuziehen.
Edit2:
https://developer.nvidia.com/rtx
Man beachte den Punkt "Rasterization"
ZitatThe Turing architecture’s new Streaming Multiprocessor (SM) includes advanced shading technologies, as well as new features designed to accelerate the graphics pipeline.
Seit wann ist DirectX offen?
Es wird von Vulkan, OpenGL, freier und offener Software hier geblubbert, aber schön Windows eingesetzt. Wenn das mal nicht konsequent ist...
Mitdenken. Deutsche Vereinsbank.
Jeder Grafikchip-Hersteller kann darauf zugreifen... das es nur ein Sinnvolles BS gibt ist nicht mein Problem. Und für meine Anwendungen kann ich mit Linux und Konsorten nichts anfangen!
Aus Mantle wurde Vulkan und war auch frei, selbst NVIDIA hätte es nutzen können, wollte aber nicht.
Wenn man so schaut, ist alles was die letzten Jahre aus AMD Hand kam frei gewesen, NVIDIA und Intel machen immer Ihren schiss für sich und genau da ist für mich der Punkt die schlicht nicht mehr zu kaufen!
Wenn der Vega64 refresh kommt, werde ich schauen ob es sich Lohnt und dann zuschlagen ansonsten überspringe ich, CPU Power nutze ich ja Nichtmal aus da ich eh nur Zocke, browse und mir Vids anschaue.
Löschzwerg und co., du kannst es aber nur für die Optik anwenden... ist ja nicht so, wie seinerzeit Havoc wo du so Physikalisch dinge Bewegen konntest und im Spiel sinnvoll Abläufe veränderten, beste bsp. war damals HL2.
nVidia liefert sehr wohl die Vulkan API mit ihren Grafikkarten aus, hat also vollen Support dafür. Daß sie Mantle niemals nutzen würden war schon aus marktpolitischen Gründen klar, weil man dem Konkurrenten natürlich kein Zugeständnis liefern will, ist auch verständlich. Auch nVidia hat einmal postuliert, daß die CUDA Standards offen wären, und ein anderer Hersteller die Technologie ohne weiteres auf seinen eigenen Chips würde umsetzen können. Passiert ist das nie. Wahrscheinlich aus denselben Gründen. Dabei besteht auch die Gefahr sich in ein technologisches Abhängigkeitsverhältnis von der Konkurrenz hineinzubewegen, und das wird man niemals wollen.
Aber wenn es in APIs wie Vulkan und Direct3D verankert wird, dann schaut die Sache schon anders aus.
Seit wann ist DirectX offen?
Es wird von Vulkan, OpenGL, freier und offener Software hier geblubbert, aber schön Windows eingesetzt. Wenn das mal nicht konsequent ist...
Mitdenken. Deutsche Vereinsbank.
Das ist aber recht heuchlerisch von oben herab. Die Bewegung hin zu freier Software geschieht nicht mit dem Umlegen eines Schalters. Das ist ein langwieriger, mühsamer Prozeß der über Jahre oder Jahrzehnte andauern kann. Es spricht meines Erachtens nach absolut nichts dagegen, mit freier Software auf MS Windows (oder Apple macOS) anzufangen, und sich von dem Punkt aus weiterzubewegen. Oder - was momentan auch technisch nur schwerlich anders geht - zweigleisig zu fahren, mit MS Windows als reinem Spielebetriebssystem. Denn es ist eben bedauerlicherweise einfach so, daß viele Spiele nach wie vor nicht auf freien Betriebssystemen laufen. Und selbst wenn sie es tun, macht das 99% der Spiele noch nicht zu freier Software.
Zudem muß man zwischen offenen Standards (also API Spezifikationen) und quelloffener Software unterscheiden. Die DirectX APIs (so wie die Win32 API) sind alle offen dokumentiert, jeder kann das im MSDN einsehen. Es ist nur die dahinterliegende Software nicht frei. Es gibt auch APIs, in die erhältst du ohne zu zahlen nicht einmal einen Einblick in die Header!
Unfrei lizenzierte Spiele werden übrigens auch nicht besser, freier oder quelloffener, nur weil man sie auf Linux spielt.
Ich denke, dass die hohen Preise die Tonnen an Altlasten der vorigen Generation aus dem Lager treiben soll.
Seit Monaten brodelt es ja schon, dass die neuen nvidia Chips fertig in den Lagern liegen.
Zur Preisoptimierung will man aber auch die Karten der vorigen Generation zu unverändert hohen Preisen verkaufen.
Nun wurde einfach ein anderer Weg gewählt:
Man macht die neuen Karten einfach nochmal deutlich teurer, als die alten.
So verkauft man die alten Karten zum Vollpreis und die Verrückten zahlen für die neuen Karten 50% mehr.
Ob die Preise aber jemals sinken, hängt von der Nachfrage und der Konkurrenz ab.
Und da sieht es leider gerade sehr mau aus.
Ich kann mir gut vorstellen, dass eine Vega64 teurer in der Produktion ist, als die 2080Ti; Allein wegen dem HBM2.
Ich werde mir aber definitiv keine neue nvidia Karte kaufen. So wie ich kein 1200€ iPhone kaufe.
Ich mag es nicht, wenn die Gewinne so unverhältnismäßig zu den Produktionskosten sind.
Unabhängig davon finde ich es toll, dass endlich mal jemand Raytracing wagt. Auch wenn es mit diesem Ansatz floppen wird. Ohne einheitliche Umsetzung in Vulkan und DX wird das eine Eintagsfliege.
Schließlich baut AMD die Konsolenchips und für die Programmierer bedeutet das viel Mehraufwand für eine - anfangs - kleine Randgruppe.
Nvidia muss da sicher viel seiner Marktmacht nutzen, um Entwickler zu überzeugen.
EDIT: Ups, war fehlinformiert. THX GAT!
Es gibt jetzt erste Angaben von Nvidia zur Leistung im Vergleich zur Vorgängergeneration:
https://www.computerbase.de/2018-08/nvidia…ance-benchmark/
Bei Golem berichtet man auch darüber und hat sich bissle verplappert:
Letzteres soll fast 50 Prozent schneller als auf einer Geforce GTX 1080 laufen, was zu unseren internen Benchmarks passt.
Hätte schon Bock vorzubestellen, dann hab ich Raytracing von Tag 1 an in Battlefield. Zurückschicken kann man ja immer noch...
Ja warten, mich interessiert die nächste Low Profile, eventuell, aber das dürfte ja auch noch gut, ein Jahr dauern können oder noch länger eben.
Würde ja auch die alten FXx8 Teile voll auslasten können.
Auch wenn es mit diesem Ansatz floppen wird. Ohne einheitliche Umsetzung in Vulkan und DX wird das eine Eintagsfliege.
Eben diese wird es ja aber geben. Also eine offizielle Unterstützung in den von dir genannten APIs. Damit ist der Weg für RT geebnet, für alle GPU Hersteller.
Und die Produktionskosten sind ja nicht alles, was du decken mußt. Da kommen noch die sicher nicht unerheblichen Kosten aus Forschung und Entwicklung dazu.
Nur um das Mal zu beziffern: Alleine in den letzten beiden Quartalen hat nVidia mehr als eine Millarde (!) US Dollar in Forschung und Entwicklung gesteckt. Die Quartale davor sind tendenziell schwächer, aber in den letzten Jahren war es immer zumindest mehr als 1 Mrd. pro Jahr, bis ca. 2011/2012 zurück. [Quelle]. Die Kohle mußt auch erst Mal reinholen, nicht nur die Herstellungskosten. Bei einer Profitmarge von $500 USD (eh irre hoch) müßtest da immer noch eine glatte Million der Karten verkaufen, nur um ein Quartal an R&D hereinzuholen. Und das is auch nur ein Bruchteil der Gesamtbetriebskosten...
Mit der jetzigen Marktsituation will man sich wohl zusätzlich einen Finanzpolster anhamstern, schätze ich Mal.
Oh, da waren meine Infos veraltet.
Wenn das in DX und Vulcan einfließt, dann hat das natürlich echte Chancen.
Und die Forschungs- und Entwicklungskosten sind weit mehr als ich erwartet hätte.
Ich frage mich, was da dazu gezählt wird.
Da nvidia afaik bei TSMC und co. herstellt, könnten fast ihre Gesamtausgaben in Forschung und Entwicklung stecken.
Ich denke schon, daß nVidia sich dafür einsetzen wird.
Und wenn es etwas sinnvolles ist, dann wird es sich behaupten. Physx ist ja als Engine auch recht etabliert.
Auch das GPU Computing wurde wesentlich von den Grünen vorangetrieben und ist heute da, wo es sich rentiert, auch eine feste Größe.
So viel dazu, daß nVidias Techniken nix taugen. Stop trolling!
Bei Mantle gabs nur ne handvoll Spiele, die man an zehn Fingern abzählen kann. TrueAudio na ja... Was war das gleich?
AMD hat mit Mantle auch nicht das Rad neu erfunden, sondern nur etwas altes ausgegraben, schließlich ist Glide nichts anderes gewesen...
Jedoch kam Mantle zur richtigen Zeit.
Nochmal für alle, Mantle wurde zu Vulkan und Vulkan ist somit Mantle, es ist quasi zu 99% darin aufgegangen. Nix mit wie Glide, sondern es war schon als offen vorgesehen wie zb. OpenGL/CL!
Es ist aber was anderes, wenn nVidia "AMD Mantle" verwendet als wenn nVidia "Vulkan" (das marktstrategisch deutlicher von AMD abgegrenzt ist) nutzt. Man könnte das gleiche über die CUDA Compiler Suite sagen, die seit Version 4.x von nVidia quelloffen bereitgestellt wird, und so auf jede Zielarchitektur portiert werden kann. Nach wie vor gibt es aber nur CUDA Code für nVidia Chips und für x86 (portiert von PGI, die zu NV gehören), aber nicht für AMDs' Radeon Chips. CUDA ist extrem verbreitet im Deep Learning, warum also nutzt AMD nicht einfach CUDA? Tjo...
Zusätzlich dazu pushed nVidia für die Zukunft die Entwicklung von OpenACC, das von zig Compilern adaptiert wird, auch von freien wie GCC (seit [Version 6] auf ordentlichem Level), dem [Omni Compiler], [UpenUH], [OpenARC] (letzterer noch in closed Beta) usw. Die könn endann Code für unterschiedlichste Targets bauen, nicht nur für nVidia Chips.
Dabei wird man sicher NV und AMD Targets sehen, aber bei "nVidia CUDA" bei AMD niemals. Grund ist einfach der, daß es dann den Anschein hätte, als müsse man auf die Technologien des Gegners zurückgreifen, um weiterzukommen. Ich weiß nicht, ob derartige Dinge auf die Aktionäre grade so sexy wirken... Deswegen wäre es egal gewesen wie quelloffen Mantle ist, das spielt einfach keine Rolle. Auf Mantle klebte die AMD Flagge, und damit war es für nVidia eben strategisch ausgeschlossen, die API auf ihre Chips zu portieren.
Mantle und CUDA sind zwar grundverschiedene Dinge, aber die Situation ist recht ähnlich. Keiner wird sich dazu herablassen wollen, am Rock des Gegners zu zupfen.
Trotzdem Mantle ist Vulkan und andersrum, ob sich da NV drauf Aufgeilt oder nicht.
Dann könnte AMD auch einfach bei Cuda einsteigen oder Emulieren es anders nennen, wieauchimmer... Ich würde mir sogar ein Lachen wenn die dabei schneller wären.
Neuer Tag, neue News zur RTX...
Habe eben auch die hier schon genannten Angaben von nVidia gelesen. "RTX 2080 laut Nvidia ~50 % schneller als GTX 1080". Getreu dem Motto: Traue keinem Benchmark den du nicht selbst gefälscht hast
Demnach müsste die 2080 ~20-30% vor der 1080 TI liegen. Abwarten. Vorstellen kann ich mir das nicht, wenn man die technischen Details, und auch gerade Indikatoren die TFlop-Leistung gegenüberstellt.
Deletet: Das ist eine Diskussion, die zu führen sinnlos ist. So funktioniert der Markt einfach nicht. Mantle ist nicht Vulkan, weil eben auch wichtig ist, in welchen Gewändern das Kind daherkommt. Und klar "könnte AMD" bei CUDA, aber sie tun's nicht. Und das hat Gründe.
Ich habe jetzt die Lizenzvereinbarungen des CUDA Compilers nicht gelesen, aber auch wenn der Compiler an sich quelloffen ist, heißt das wahrscheinlich nicht, daß du mit Markennamen und Logos einfach machen kannst was du willst...
Daß sowas nicht passiert, hat schon Gründe. Und die sind halt oft nicht technischer Natur. Damit hat sich das.
Ich will nur anmerken, daß man AMD hier nicht auf einen "Sauberkeits"-Thron setzen sollte, der ihnen vielleicht nicht zusteht, weil sie da nicht viel anders vorgehen als nVidia, wenn's um APIs und GPGPU SDKs geht. Jeder kocht sein eigenes Süppchen, provoziert den Gegner ein wenig damit, daß man Teile davon unter eigener Flagge quelloffen legt (weil viel was anderes ist das nicht, wenn AMD in Richtung nVidia winkt "kommt's es könnt's eh auch AMD MANTLE benutzen, kein Problem, olololo"), und am Ende versucht man die Technologie in offene, oder zumindest herstellerunabhängige Schnittstellen oder Frameworks zu bringen (OpenACC, Vulkan, Direct3D).
Ich seh da zwischen NV und AMD nicht so den großen Unterschied in der Vorgehensweise, das ist alles.
Ja sollen doch eigentlich immer jetzt so um die 30% sein, an Zusatzleistung die 30% würde ich wohl als real ansehen wollen.
Huch G.A.T noch dazwischen mit seinen Beitrag ; )
@GAT, stimmt schon sind ja Marktwirtschaftliche Unternehmen und man möchte Geld verdienen.
Aber dennoch vieles ist Affig, es würden beide von einer Zusammenarbeit hier und da Profitieren und am ende auch der Verbraucher.
Wann fällt das NDA oder wie das heißt und es darf öffentlich getestet und gebencht werden?
Ab dem 14. September geht es los mit den Tests.
Da bin ich schon gespannt, ob sich dann ein Teil der Vorbesteller in den Arsch beißt oder doch nicht.
Gibt zwar die DHE von ASUS, aber ich kauf's trotzdem nicht. Nicht nur wegen dem Preis, sondern einfach weil ich mich jetzt erst Mal mit AMD rumspielen will, auch wenn's lahmt und preislich ned so super war im Vergleich (zur 1080Ti jetzt, ned zur 2080Ti)...