Nutzt DeepL, wenn Google Translator nur Bullshit ausspuckt.
nVidia RTX GeForce 2080 / Quadro "Turing"
-
-
@GAT:
Dual Fermi? Wow.In dem Winter hast du kein Heizöl gebraucht, oder?
-
Chosen_One: Kannte ich noch gar nicht. Scheint aber leider keine asiatischen Sprachen zu unterstützen? Na egal, ich setz mir's Mal auf's Speed Dial und werde das beizeiten Mal testen.
RaVeNsClaw: Jo, es war... "speziell". Und meine nachfolgenden beiden EVGA Classified Ultras (580er mit 3GB und superdickem VRM + Custom Kühler) waren da auch nicht leiser. Aber jetzt fahr ich sowas nicht mehr. Und die modernen Radiallüfter sind mir meist leise genug, najo, mit Ausnahme meiner Vega 64 halt, die schreit eh fast wie eine GTX 480. Der muß ich erst noch eine niedrigere V(GPU) beibringen. Bin noch nicht dazu gekommen.
edit: Beitrag gesplitet
-
Fragen zum Thema "Beiträge in englischer Sprache" bitte HIER weiterdiskutieren!
Back to Topic:
Dinge die die Welt nicht braucht, ich warte einfach mal 5~6 Jahre dann kauf ich den Scheis im SLI Pack für 200 bei ebay
-
Danke für die Extraarbeit mit dem Split einzelner Beiträge! Hätte nicht gedacht, daß du dir das echt antust.
-
Ach naja, kommt ja nicht jeden Tag vor
-
Guten Morgen zusammen,
da ist man mal eine Woche im Urlaub, und schon verpasst man die Reviews der RTX Karten
Kurz und knapp: Ich bin wenig angetan von der neuen Generation. Über die Raytracing-Spieleleistung weiß man aktuell noch gar nix, weil einfach die Spiele fehlen. Und was "aktuelle" Titel angeht, ist mMn die 1080(TI) der bessere Deal - im Vergleich zur 2080. Der Aufpreis zu einer 2080 TI ist und bleibt pervers. Es gäbe für mich lediglich ein Argument, und zwar wenn man wüsste, dass man mit der Karte die nächsten 3-4 Jahre Ruhe hätte, dann könnte ich über so eine Anschaffung nachdenken. Aber was man bisher über die Raytracing-Leistung weiß, sieht es wohl so aus, als sollte man besser auf die RTX 2180(?)Generation warten...
Ich bin dieses Jahr wirklich auf den Battlefield-Release gespannt. Nicht wegen des Games ansich, sondern wegen RTX on/off Vergleiche.. sowohl Bildqualität als auch Benchmarks.
-
Jedes Jahr das gleiche Lied, denn jedes Jahr ein Battlefield?
-
Weiß nicht - ich verfolge BF kaum bis gar nicht. Irgendwie ist das auch nicht mein Spiel. Ich bin einfach nur mega schlecht in dem Spiel
Ich musste auch erstmal bei Wiki nachschauen, aber die Hauptteile werden wohl "nur" alle 2-3 Jahre released: https://en.wikipedia.org/wiki/Battlefield_(video_game_series)
BF3 kam 2011 -> BF4 2013 -> Hardline war ja n totaler Flop, das lassen wir mal untern Tisch fallen -> BF1 kam 2016 -> und jetzt haben wir 2018
Aber wie gesagt, dieses Jahr weckt es mein RTX-Interesse. Also rein technisch - nicht spielerisch.
-
Ich hab mir ja die 2080ti geholt, einerseits um meinen WQHD-Bildschirm mit hohen Bildraten befeuern zu können und weil ich Raytracing spannend finde. Als riesen Battlefield-Fan hab ich das Feature heute Nacht bei Release der Deluxe-Version sofort getestet.
Und tja, im momentanen Zustand ist die Umsetzung enttäuschend. Die Spiegelungen — für die RT hier genutzt werden — sind zwar klar besser. Aber der Leistungseinbruch ist unverkraftbar. Die Framerate bricht auf ca. ein Drittel ein, also 30-40 fps und das mit geringster RT-Qualitätsstufe.
Die Grafikkarte ist ansonsten Top, aber ich hoffe echt, dass da leistungstechnisch noch optimiert wird, bzw andere Spiele besser funktionieren.
-
Siehe auch hier: https://www.hardwareluxx.de/index.php/arti…xr-im-test.html
Ach und vielleicht auch sehenswert ist, auch wenn es nur indirekt was mit der RTX zu tun hat:
https://youtu.be/Ep9nCrO8D2E?t=559 <-- "Raytracing" ohne RTX? | Hitman 2 von der PCGH
-
Das ist ein verdammt alter Trick. Das gab es schon in Doom 3, Portal und dem alten Prey.
-
Da wurde das aber glaube ich noch anders realisiert, indem der ganze Raum samt Playermodel hinter dem "Spiegel" nochmal gerendert wurde. Half-Life 1 oder ne Extension hat auch so nen spiegelnden Boden.
-
Noch älter. Das hat auch Serious Sam: The Second Encounter schon so gemacht, da hab es einige Räume mit verspiegeltem Boden. War das System so schon nur knapp bei den 60fps was die Leistung anging, isses bei den Stellen dann richtig schlimm eingebrochen. Weiß ich noch davon, wie ich den Titel auf der v5 6000 durchgespielt habe.
-
Der reflektierende Boden in Unreal lässt auch schön die Leistung einbrechen.
-
Wer meine Posts liest, weiß wahrscheinlich, dass ich kein nVidia-Freund bin (trotz GTX 1080 Ti im Gehäuse)... und klar könnte man jetzt einfach sagen "LOL RTX Features auf mehr als 1080p unspielbar.", wenn man die Messlatte bei 60fps setzt, was ein Shooter schon liefern sollte.
Auch wenn man das Video von Hitman sieht, könnte man sagen "Wieso RTX nutzen, wenn man mit herkömmlicher Technik bei gleichem fps-Verlust das gleiche Ergebnis erzielt"...
Aber ich muss sagen, ich bin komischerweise von Raytracing angetan. Mir gefällt was ich sehe, vor allem im direkten Vergleich RTX on/off, was man auf YouTube und Co. so sehen kann.
Allerdings muss ich sagen, dass das auf jeden Fall eine Zukunftstechnologie ist. Wenn schon der "RTX-Launch-Titel Battlefield 5" die RTX 2080Ti derart ins Schwitzen bringt, will ich gar nicht wissen, was mit künftigen RayTracing-Titeln noch passiert.
Dann kommt noch dazu, dass ich einen 1440p Monitor besitze und FullHD-Gaming für mich ein no-go ist.
Ich bin auf jeden Fall gespannt, wie das in den nächsten Monaten mit der Technologie weiter geht.... Dass aber mal eine 2080Ti den Weg in mein Gehäuse findet, zu den Preisen und der Leistung bei 1440p... extrem unwahrscheinlich
-
Ich gehe davon aus, daß sie weiterentwickelt wird. Wäre schade drum. Wäre ja nicht die erste Technik, die im Anfangsstadium Probleme machte. Die Einführung der Shadertechnik mit der GeForce 3 war auch ziemlich riskant. Die stammte zwar ursprünglich nicht von nVidia, aber die haben es großflächig verfügbar gemacht (ATi zog nach). Wenn man mal darüber nachliest, dann fragt man sich, warum es keine Grafikkarten mit Shadermodell 1.0 gibt... Weil diese Karte nie das Licht der Welt erblickte...
-
Najo, eine GeForce 3 war auch verdammt Scheiße in Sachen Pixel Shading. Sie konnte das zwar prinzipiell, aber rein leistungstechnisch war das in den meisten Fällen doch ziemlich unhaltbar. Ganz zu schweigen von den sehr frühen Pixel Shadern in der GeForce 2, da war von Spielbarkeit erst Mal gar überhaupt keine Rede mehr. So ist das halt manches Mal, wenn eine völlig neue Renderingtechnologie daherkommt.
Wird halt 2-3 weitere "Major" Generationen brauchen.
Edit: Holla, CryptonNite hat gepostet, während ich noch am Schreiben war.
Jo also, ich denke die Technologie wird wahrscheinlich Bestand haben, so wie fast alles, was jemals seinen Weg in die Direct3D API gefunden hat.
-
Wo hat denn eine Geforce 2 Pixel Shader?!
Die wurden bei NV todsicher erst mit der GF3 eingeführt, die GF2 hat da keine Hardware für
-
Doch, aber erheblich primitiver. Eine GeForce FX kann z.B. auch HDR darstellen, aber eben nur beschissen... Hab ich mal von DungeonKeeper gelernt
-