Archiv verlassen und diese Seite im Standarddesign anzeigen : Real-time Raytracing
Seiten :
1
2
3
[
4]
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Chris Lux
2019-09-12, 10:07:54
@und und @Ganon:
Genau. Damals hatte ich einen Pentium 200 MMX als ich eine Voodoo in den Rechner steckte. Als Monitor hatte ich einen 17" LG, der bei den üblichen Auflösungen 85Hz machte. Ja, der 3dFX Effekt war da, aber wie ich schon sagte, eher bei den 30fps von 10-15fps mit den Software Renderern. Mit der Voodoo2 dann später zu Zeiten von Half-Life war ich, glaube ich, auf einen Celeron 400 umgestiegen. Danach war für mich die Voodoo Zeit auch schon vorbei. Der nächste Rechner hatte einen auf knapp über 900MHz übertakteten Celeron und eine TNT2Ultra an einem 20" Iyama Monitor. Ich glaube Counterstrike wurde dann schon mit knapp 60fps spielbar (genaue Zahlen habe ich leider nicht mehr im Kopf), erst mit der GeForce3 kann ich mich an 90fps erinnern.
Ganon
2019-09-12, 11:00:40
Ab ner Voodoo 2, samt passender Konfiguration, sah das schon anders aus. Was gab's damals?
Digital Foundry hat kürzlich ein Video gemacht, mit einem High-End PC von 1999 (PIII 700Mhz, Voodoo 2 und TNT2) und sich dort mal Quake 3, Half-Life, Unreal und Trespasser angesehen. https://www.youtube.com/watch?v=eFqqsYoT4hk
Auch in 640x480 in Default-Details waren 60fps bei Action-Szenen oftmals nicht drin. Bei älteren Spielen wie Quake 2 dann natürlich schon.
Ich denke letztendlich hatte man es den vergleichsweise schwachen Konsolen aus der 2005er++ Zeit zu verdanken, dass PCs an sich immer genug Leistungsreserven hatten, um 60fps zu halten. Spiele haben halt selten den PC wirklich ausgenutzt, da sie für Konsolen designed wurden. Das ist jetzt mit Raytracing (noch) anders.
][immy
2019-09-12, 13:20:56
...
Man muss schon ein bisschen Weitsicht mitbringen. Pionierprodukte und Pionierzeit sind bei HW idR teuer und mittelmäßig. 1-2 Generationen weiter, sieht die Sache sowohl bei HW als auch SW mit Sicherheit ganz anders aus.
Jep, so wird es wohl sein. Könnte mir auch gut vorstellen, das die aktuelle RT Hardware nicht mehr Kompatibel zu Spielen in 2-3 Jahren sein wird, weil dann irgendwelche Features fehlen, die man in einer neuen Version reinbekommen hat, welche dann unbedingt benötigt wird.
Allerdings RT-hardware kommt aktuelle zu einem ziemlich schlechten Zeitpunkt. Viele shrinks kann es nicht mehr geben (rein physikalisch) d.h. der Leistungszuwachs ist stark eingeschränkt. Wenn geht es nur über intelligentere Schaltkreise, aber wenn man in Richtung 4k denkt … kann ziemlich eng werden oder halt teuer.
Digital Foundry hat kürzlich ein Video gemacht, mit einem High-End PC von 1999 (PIII 700Mhz, Voodoo 2 und TNT2) und sich dort mal Quake 3, Half-Life, Unreal und Trespasser angesehen. https://www.youtube.com/watch?v=eFqqsYoT4hk
Auch in 640x480 in Default-Details waren 60fps bei Action-Szenen oftmals nicht drin. Bei älteren Spielen wie Quake 2 dann natürlich schon.
Ich denke letztendlich hatte man es den vergleichsweise schwachen Konsolen aus der 2005er++ Zeit zu verdanken, dass PCs an sich immer genug Leistungsreserven hatten, um 60fps zu halten. Spiele haben halt selten den PC wirklich ausgenutzt, da sie für Konsolen designed wurden. Das ist jetzt mit Raytracing (noch) anders.
Tja, die scheinen aber nicht die WickedGL Sachen von damals genutzt zu haben, sondern die Basis-Spiele ohne Patches. Da hat sich noch einiges getan, auch bei der Voodoo Unterstützung. Zudem scheinen sie Vsync nicht abgeschaltet zu haben über den Treiber, was die Voodoo-Karten doch arg in der Performance einschränkte. Und sie haben aufgrund der Videoaufzeichnung auf höhere Auflösung als auch Frequenzen verzichtet.
An die extremen Probleme mit nvidia Karten und OpenGL kann ich mich auch noch erinnern. Da gab es wohl ziemliche Speicherlecks. Allerdings dachte ich das wäre damals auf die Riva128 beschränkt gewesen und mit der TNT dann endlich mal gelöst gewesen.
Das mit der Framerate kann natürlich gut sein. Gefühlt wurden die Frames damals in den engines gleichmäßiger ausgegeben, was für weniger zuckeln sorgte. Dieses Microruckeln hat meiner Erinnerung nach damals mit Nolf angefangen. Das empfand ich nie wirklich als flüssig, trotz sehr hoher FPS.
Btw, die Framerate von z.B. Crusader No Regret war damals 15FPS fix (Software). Nur damit man mal eine Ahnung davon bekommt wie unflüssig es früher eigentlich war, bevor die Voodoos kamen.
Ganon
2019-09-12, 14:01:48
[immy;12094655']Zudem scheinen sie Vsync nicht abgeschaltet zu haben über den Treiber, was die Voodoo-Karten doch arg in der Performance einschränkte.
[...]
Gefühlt wurden die Frames damals in den engines gleichmäßiger ausgegeben, was für weniger zuckeln sorgte.
Konsolen liefen damals auch nicht ohne V-Sync. Ist also dann kein guter Vergleich. Ansonsten lag die Bildwahrnehmung eher an dem CRT Bildschirm. Ein TFT zeigt immer ganze Bilder und aktualisiert diese. Ein CRT malt im Endeffekt nur eine schmale Linie und der Rest ist das Nachleuchten der Beschichtung. Du siehst also bei einem TFT eine Bildänderung wesentlich besser und breitflächiger als bei einem CRT und darum sieht's auf einem TFT halt auch ruckeliger aus.
][immy
2019-09-12, 14:14:13
Konsolen liefen damals auch nicht ohne V-Sync. Ist also dann kein guter Vergleich. Ansonsten lag die Bildwahrnehmung eher an dem CRT Bildschirm. Ein TFT zeigt immer ganze Bilder und aktualisiert diese. Ein CRT malt im Endeffekt nur eine schmale Linie und der Rest ist das Nachleuchten der Beschichtung. Du siehst also bei einem TFT eine Bildänderung wesentlich besser und breitflächiger als bei einem CRT und darum sieht's auf einem TFT halt auch ruckeliger aus.
Das ist klar, allerdings hatte ich zu dem Zeitpunkt (Nolf) noch nen CRT. CRTs waren definitiv nicht so anfällig wie heutige Monitore für ungleiche Frameraten.
wolik
2019-09-12, 15:00:35
Bessere Grafik kostet nunmal Performance.
Genauer. Und was ist Bessere Grafik? Für mich 4-8K und 60-144 FPS Und nicht 720p 30 fps. Von VR will ich überhaupt nicht sprechen. Dort hat RT (mit diese Leistung) nichts zu suchen.
Schade nur das ATI schafft nicht mit +20-30% mehr Leistung (zu 2080Ti) Grafik Karte rauszubringen ohne RT. Dann werden wir sehen was für Verbraucher wichtiger ist.
@Ganon
Ich müßte da jetzt in mich gehen, um herauszugraben, was ich damals genau für Konfiguration hatte - 700MHz waren's nicht. Ich erinnere mich an die GPUs besser, als an die CPUs, was wesentlich ist, da bis zur GeForce 256 (T&L) die Performance sehr mit den CPUs skalierte. Irgendwann hatten wir dann auch ein Paar Monster 2, aus zwei Kisten in eine, für SLI zusammengesteckt.
Ich denke, dass bei RT mehr drin ist (Optimierung, Abstimmung, Stacking etc.), als manche hier (sinkender Grenzertrag) erwarten.
@Chris Lux
Hmm, die GeForce 3 mit Doom III war auch ein großer Schritt - später durch eine 9800 Pro ersetzt.
TheAntitheist
2019-09-14, 19:46:16
Genauer. Und was ist Bessere Grafik? Für mich 4-8K und 60-144 FPS Und nicht 720p 30 fps. Von VR will ich überhaupt nicht sprechen. Dort hat RT (mit diese Leistung) nichts zu suchen.
Schade nur das ATI schafft nicht mit +20-30% mehr Leistung (zu 2080Ti) Grafik Karte rauszubringen ohne RT. Dann werden wir sehen was für Verbraucher wichtiger ist.
Auflösung und Framerate haben aber nichts mit besserer Grafik zu tun...
Du siehst also bei einem TFT eine Bildänderung wesentlich besser und breitflächiger als bei einem CRT und darum sieht's auf einem TFT halt auch ruckeliger aus.
Genau umgekehrt.
Ein LCD verschmiert die Bildänderungen und sieht damit bei niedrigen Framerates flüssiger aus. Umgekehrt brauchst du bei einem LCD mit ULMB wesentlich mehr FPS für einen flüssigen Eindruck.
wolik
2019-09-15, 12:24:25
Auflösung und Framerate haben aber nichts mit besserer Grafik zu tun...
Na klar doch. 1080p auf 65" Monitor will ich nicht. Und beide letzte Spiele (Control und Greedfall)zeigen das RT kein besondere Nutzwert darstellt.
Control (sieht mal kaum unterschied ausser Leistung Verlust. (DLSS voll ok)) und in Greedfall 8K sieht bezaubernd aus.
Natürlich auf 27" sieht das anders aus. (IMHO)
Fragman
2019-09-15, 12:40:58
Na klar doch. 1080p auf 65" Monitor will ich nicht. Und beide letzte Spiele (Control und Greedfall)zeigen das RT kein besondere Nutzwert darstellt.
Control (sieht mal kaum unterschied ausser Leistung Verlust. (DLSS voll ok)) und in Greedfall 8K sieht bezaubernd aus.
Natürlich auf 27" sieht das anders aus. (IMHO)
Dann lass RT aus und schraub die Auflösung hoch, wo ist das Problem?
Dafür ist die 2080TI auch mehr als gut, da die Rohleistung schon recht hoch ist.
Hier aber von 8K zu reden und gleichzeitig zu fordern, die Grafik soll besser werden, ist dann doch leicht weltfremd. ;)
wolik
2019-09-15, 12:58:13
Dann lass RT aus und schraub die Auflösung hoch, wo ist das Problem?
Dafür ist die 2080TI auch mehr als gut, da die Rohleistung schon recht hoch ist.
Hier aber von 8K zu reden und gleichzeitig zu fordern, die Grafik soll besser werden, ist dann doch leicht weltfremd. ;)
8K / 60 fps (auf 65") ist "Heilige Gral" für mich. BF5 mit SLI oder Greedfall.
Jetzt spreche ich über das eigentliches Problem was RTX "mitbrachte". Verschwendung von Transistoren und lächerlich Leistungsteigerung zwischen 1080Ti vs 2080Ti. SLI wurde beerdigt. Einzelne GK kann kaum 4K/60 fps schaffen. In "paar Jahre" wird als Top 8K/85" (120Hz?) Monitor sein.
Wo kommt die Leistung her?
Natürlich ohne Konkurrenz (in Top Segment), kann man sich alles erlauben. (IMHO)
Timbaloo
2019-09-15, 13:34:23
Jetzt spreche ich über das eigentliches Problem was RTX "mitbrachte". Verschwendung von Transistoren und lächerlich Leistungsteigerung zwischen 1080Ti vs 2080Ti. SLI wurde beerdigt.
Also dass SLI wegen RTX tot ist, ist komplett hanebüchen. Und dass die Transistoren welche für RT-Cores (und Tensor-Cores) deiner Meinung nach "verschwendet" wurden zu signifikanter Rasterization-Leistungssteigerung hätten führen können, ist ein Mythos der sich in Diskussionen hier noch niemals wirklich erhärtet hat.
wolik
2019-09-15, 21:02:04
Also dass SLI wegen RTX tot ist, ist komplett hanebüchen. Und dass die Transistoren welche für RT-Cores (und Tensor-Cores) deiner Meinung nach "verschwendet" wurden zu signifikanter Rasterization-Leistungssteigerung hätten führen können, ist ein Mythos der sich in Diskussionen hier noch niemals wirklich erhärtet hat.
Ich habe doch nicht gesagt "dass SLI wegen RTX tot ist" Es ist einfach tot. Gibts mehrere Gründe. Aber RTX das ist nicht. (Man kann das "leben" in TR sehen) Welche Mythos? RTX ist doch "in Hardware verdrahtet" ? Und nur für RT (DLSS) nutzbar ist. Oder?
Ich habe doch nicht gesagt "dass SLI wegen RTX tot ist" Es ist einfach tot. Gibts mehrere Gründe. Aber RTX das ist nicht. (Man kann das "leben" in TR sehen) Welche Mythos? RTX ist doch "in Hardware verdrahtet" ? Und nur für RT (DLSS) nutzbar ist. Oder?
Am Vergleich von Turing ohne RTX und Turing mit RTX lässt sich abschätzen, dass RTX in Hardware maximal 10% der Transistoren kostet.
Damit hätte man jetzt durch den Verzicht auf RTX nicht wesentlich mehr Leistung erreichen können.
Dass es nur so wenig Steigerung gab liegt nicht an RTX sondern daran, dass wir immer noch den selben Prozess haben.
Timbaloo
2019-09-16, 00:43:16
Ich habe doch nicht gesagt "dass SLI wegen RTX tot ist" Es ist einfach tot. Gibts mehrere Gründe. Aber RTX das ist nicht. (Man kann das "leben" in TR sehen) Welche Mythos? RTX ist doch "in Hardware verdrahtet" ? Und nur für RT (DLSS) nutzbar ist. Oder?
Dann verstehe ich nicht was du mit SLI in einem Thread über Raytracing willst.
Wenn du frustriert bist, dass keiner Hardware für 0,1% der User baut, dann heul bitte woanders rum.
cya.
ich auch
2019-09-16, 10:13:08
World of Tanks: Infos vom WG Fest, Raytracing und die 8. Frontline-Episode
https://www.computerbase.de/2019-09/world-tanks-wg-fest-raytracing-frontline/
wolik
2019-09-16, 10:45:23
Dann verstehe ich nicht was du mit SLI in einem Thread über Raytracing willst.
Wenn du frustriert bist, dass keiner Hardware für 0,1% der User baut, dann heul bitte woanders rum.
cya.
Normalerweise man soll auf solche Anmache nicht reagieren, aber ich versuche noch mal zu erklären.
Weil SLI (Quad seit langem) tot scheint zu sein (trotz NVLink) und man ist jetzt nur auf ein Einzige GK angewiesen, dann ist zu schade das Transistoren / Leistung für RT verschwendet wird. Nutzen habe ich bis jetzt nicht gesehen. Statt DLSS hätte man lieber 20% mehr Leistung rausgeholt. RT ist kaum brauchbar. (IMHO)
Timbaloo
2019-09-16, 13:37:55
20% ist Bullshit. Punkt.
robbitop
2019-09-16, 14:12:44
RT ist genauso „Verschwendung“ wie vor 1,5 Jahrzehnten vollprogrammierbare Pixelshader.
Die ersten Implementierungen sehen nie toll aus und die ersten HW Gens sind idR noch zu langsam.
Ein paar Generationen später, wenn HW stärker/ausgereifter und die SW Implementierungen besser sind, will es keiner mehr missen.
Das wird bei RT auch so sein. Der Anfang ist prinzipbedingt halt immer eine Pionierphase wo alles mehr oder weniger semi ist.
aufkrawall
2019-09-16, 14:14:11
Eigentlich sah der Wassershader in Morrowind ziemlich toll aus.
AnnoDADDY
2019-09-16, 14:15:32
Normalerweise man soll auf solche Anmache nicht reagieren, aber ich versuche noch mal zu erklären.
Weil SLI (Quad seit langem) tot scheint zu sein (trotz NVLink) und man ist jetzt nur auf ein Einzige GK angewiesen, dann ist zu schade das Transistoren / Leistung für RT verschwendet wird. Nutzen habe ich bis jetzt nicht gesehen. Statt DLSS hätte man lieber 20% mehr Leistung rausgeholt. RT ist kaum brauchbar. (IMHO)
Dann solltest du dir dringend eine Brille aufsetzen. Selbst durch dieyoutube Kompression hindurch sind für mich die Vorteile durch raytracing eklatant sichtbar.
Oldskool 8K/16K-Rendering ist so halt kein Markt. Mit 1080p hat man bereits den Großteil des PC-Marktes, mit 1440p 95% in der Tasche. Bei ausreichend Performance verschiebt sich das entsprechend nach oben. Die Performance wird in RT investiert, da's besser aussieht und zukunftsweisender ist. Bei VR gesellt sich zu dem Gedöns aus dedizierter Hardware, optimierter Software, all der Variabilität, AI-Upscaling etc. noch FOVeated Rendering dazu - entweder eye tracked oder statisch wie in der Quest. Ist alles nicht so easy, aber das wird schon. Ich finde den Zuwachs an Grafikqualität enorm. Vom schöneren Ansatz und was dies für die Entwicklung bedeuten kann, mag ich jetzt gar nicht erst anfangen - und das was robbitop schrieb.
Bei der Grafikbeschleuniger-Historie könnte man auch annehmen, dass man das sieht. :)
Chris Lux
2019-09-18, 09:12:44
8k auf 65" LOL... selbst im Kino ist jeder mit max. 4k auf sonst wievelen Metern Diagonale zufrieden.
Selbst auf 75" bei 2.5m Abstand kann man über den Unterschied von 1440p zu echtem 4k streiten (bei gutem AA).
8k auf 65" LOL...
Jo, das wäre mir auch zu fein ...
Wohingegen mir 4K mit nur 65" fast schon zu grob sind.
8K 80" kann ich mir aber sehr gut vorstellen, hätte ich gerne :smile:
(4K 40" sehen ja auch toll aus)
M.f.G. JVC
HotSalsa
2019-09-18, 12:55:09
RT ist genauso „Verschwendung“ wie vor 1,5 Jahrzehnten vollprogrammierbare Pixelshader.
Die ersten Implementierungen sehen nie toll aus und die ersten HW Gens sind idR noch zu langsam.
Ein paar Generationen später, wenn HW stärker/ausgereifter und die SW Implementierungen besser sind, will es keiner mehr missen.
Das wird bei RT auch so sein. Der Anfang ist prinzipbedingt halt immer eine Pionierphase wo alles mehr oder weniger semi ist.
Genau so ist es! Henne - Ei Problem, irgendwo muss man mal anfangen.
Eigentlich ist der Zeitpunkt von nVidia sehr schlau gewählt. Man hat einen Performance Vorteil gegenüber dem Wettbewerb, es gibt eigentlich nur noch NV und ATI/AMD. Die Leistung reicht für 1080p, 1440p und in den allermeisten Fällen auch für 4K - das ist DER Zeitpunkt um neue Technologien in die GPU zu integrieren. Verfeinert werden diese dann in den nächsten 2 Versionen 3080TI und 4080TI.
Dafür zu verlangen man sollte heutzutage lieber auf 4k - 8K @ mind. 60 fps (besser mehr) @ultra Details setzen ist am Markt vorbei. Das betrifft nichtmal die vorhin genannten 0,1% der Spieler und der potentiellen Käufer.
Morgenlicht
2019-09-21, 02:10:24
"NVIDIA" - Patent - Reflection Denoising In Ray-Tracing Applications
Publication Number: 20190287294
Publication Date: 20190919
Disclosed approaches may leverage the actual spatial and reflective properties of a virtual environment–such as the size, shape, and orientation of a bidirectional reflectance distribution function (BRDF) lobe of a light path and its position relative to a reflection surface, a virtual screen, and a virtual camera–to produce, for a pixel, an anisotropic kernel filter having dimensions and weights that accurately reflect the spatial characteristics of the virtual environment as well as the reflective properties of the surface. In order to accomplish this, geometry may be computed that corresponds to a projection of a reflection of the BRDF lobe below the surface along a view vector to the pixel. Using this approach, the dimensions of the anisotropic filter kernel may correspond to the BRDF lobe to accurately reflect the spatial characteristics of the virtual environment as well as the reflective properties of the surface.
https://patent.yivian.com/wp-content/uploads/2019/09/455a495047441f718c3458cc82b7be1a.png
dargo
2019-09-21, 11:34:47
Ähm... korrigiert mich wenn ich falsch liege. Aber wenn schon Patente fürs Denoising bei RT gezückt werden sehe ich keine rosige Zeiten für Spieleentwickler in Zukunft. Wohin soll das führen wenn wieder jeder IHV seine eigene Suppe kocht und dann zwei verschiedene Ansätze (mit Intel u.U. dann sogar drei) ins Spiel implementiert werden müssen?
Fragman
2019-09-21, 12:32:01
Ähm... korrigiert mich wenn ich falsch liege. Aber wenn schon Patente fürs Denoising bei RT gezückt werden sehe ich keine rosige Zeiten für Spieleentwickler in Zukunft. Wohin soll das führen wenn wieder jeder IHV seine eigene Suppe kocht und dann zwei verschiedene Ansätze (mit Intel u.U. dann sogar drei) ins Spiel implementiert werden müssen?
Also zumindest nv kann teilweise recht großzügig sein, wenn man deren Tech nutzt oder supported zum Beispiel. Ja, das gibt es auch, die Welt ist nicht immer schwarz weiß. ;)
aufkrawall
2019-09-21, 12:40:43
Also zumindest nv kann teilweise recht großzügig sein
Sie können auch ganz arschig sein und den Sauerstoff abdrehen...
robbitop
2019-09-21, 13:34:17
Ähm... korrigiert mich wenn ich falsch liege. Aber wenn schon Patente fürs Denoising bei RT gezückt werden sehe ich keine rosige Zeiten für Spieleentwickler in Zukunft. Wohin soll das führen wenn wieder jeder IHV seine eigene Suppe kocht und dann zwei verschiedene Ansätze (mit Intel u.U. dann sogar drei) ins Spiel implementiert werden müssen?
Den gleichen Gedanken hatte ich auch. Es läuft ja leider (nicht nur bei nv) so: Schön propertäre Verfahren einführen und dann versuchen, nen Vendorlock durchzusetzen. Monopole sind was schönes...
Dreht NV schon das nächste Ding ? :ulol:
(ich wäre echt froh, wenn ich nicht mehr zu ner NV Karte greifen muss.
Die Bude kotzt mich irgendwie echt an)
M.f.G. JVC
Fragman
2019-09-21, 16:07:54
Sie können auch ganz arschig sein und den Sauerstoff abdrehen...
Also im Renderingbereich machen sie das eher nicht.
robbitop
2019-09-21, 16:47:01
Trotzdem blöd jemandem ausgeliefert zu sein.
Fragman
2019-09-21, 18:11:05
Trotzdem blöd jemandem ausgeliefert zu sein.
Naja, nv steckt in r&d doch einiges an Resourcen, wer macht das schon.
Das müssen sie schützen, wie andere auch, sonst wird das kopiert. ;)
robbitop
2019-09-21, 18:34:22
Naja AMD investiert auch ne Menge RnD und macht viel Open Source / Industriestandards draus.
Alle Patente von Teslar Motors sind bspw auch Open Source. Kann jeder nutzen aber eben nicht mehr dazu um andere auszuschließen.
Das Motiv verstehe ich schon. Ist halt Kapitalismus. Ist halt unschön wenn es eh nur wenig Wettbewerb gibt und dann noch jemand versucht ein Monopol zu bauen. Monopol heißt immer wenig Fortschritt und hohe Preise. Nicht schön für den Endverbraucher. Ich will Auswahl und gute Preise. Das geht nur über Wettbewerb.
Fragman
2019-09-21, 19:14:45
Das Motiv verstehe ich schon. Ist halt Kapitalismus. Ist halt unschön wenn es eh nur wenig Wettbewerb gibt und dann noch jemand versucht ein Monopol zu bauen. Monopol heißt immer wenig Fortschritt und hohe Preise. Nicht schön für den Endverbraucher. Ich will Auswahl und gute Preise. Das geht nur über Wettbewerb.
Definitiv,
in dem Bereich ists zb auch so, das einige gar nicht erst investieren wollen, weil es denen zu teuer ist. Die lizensieren das dann am Ende.
gnomi
2019-09-26, 14:20:31
Quake 2 RTX macht ja noch richtig Laune mit der neuen Beleuchtung. :up:
Überraschend schönes Retro Feeling muss man sagen, auch wenn ich für gute Performance von um die 120 fps von 1440P ausgehend auf 60% Skalierung umstellen muss. (2080 OC)
Die Demo mit den 3 Leveln ist natürlich schnell durchgespielt. (nicht, dass ich jetzt alles spielen muss, aber ein wenig weiter hätte es noch gehen können)
Muss wohl nochmal auf dem Dachboden suchen, aber ich meine, ich habe nur noch Quake 3 Arena & IV. :(
Also so als Goodie ist das schon nicht schlecht.
Sonst gibt es ja immer nur Tech Demos. (haben natürlich auch was für sich :wink: )
][immy
2019-09-26, 14:36:23
Also zumindest nv kann teilweise recht großzügig sein, wenn man deren Tech nutzt oder supported zum Beispiel. Ja, das gibt es auch, die Welt ist nicht immer schwarz weiß. ;)
???
besonders nvidia hat sich in der Vergangenheit gerne als Patent-Troll engagiert. Alles immer schön verschlossen, damit es auch ja kein Standard wird.
MartinRiggs
2019-09-27, 10:01:44
Ich hab mir die Quake 2 RTX-Demo auch mal installiert, aber das zündet bei mir nicht mehr.
Die Grafik ist nicht gut gealtert und die Beleuchtung reißt das auch nicht mehr raus, dazu ist die Performance ein Witz.
Fragman
2019-09-27, 10:07:03
dazu ist die Performance ein Witz.
Die Performance ist sehr gut, eigentlich überraschend gut. Wir reden hier von Pathtracing. Die Rekonstruktion hat mittlerweile auch ein beachtliches Niveau erreicht, das hätte ich vor 10 Jahren nicht für möglich gehalten und da ist ja auch noch nicht Schluss.
Rancor
2019-09-27, 10:24:39
Den gleichen Gedanken hatte ich auch. Es läuft ja leider (nicht nur bei nv) so: Schön propertäre Verfahren einführen und dann versuchen, nen Vendorlock durchzusetzen. Monopole sind was schönes...
Vermutlich wird derjenige sich durchsetzten welcher die größte Marktmacht hat und das ist NV.
Ich finde das auch ablehnenswert, aber RTX ist kein Physix und wird sich über kurz oder lang etablieren und dann ist man, wenn man denn die volle Grafikpracht haben will, auf NV Karten angewiesen.
Aus NVs Sicht natürlich hervorragend, aus Sicht der Kunden nen Katastrophe.
Timbaloo
2019-09-27, 12:59:36
Das Problem ist das Patentsystem und Firmen die patentieren sind das Symptom.
Hat auch überhaupt nichts mit Raytracing zu tun.
btt
Blediator16
2019-09-27, 14:58:04
Vermutlich wird derjenige sich durchsetzten welcher die größte Marktmacht hat und das ist NV.
Ich finde das auch ablehnenswert, aber RTX ist kein Physix und wird sich über kurz oder lang etablieren und dann ist man, wenn man denn die volle Grafikpracht haben will, auf NV Karten angewiesen.
Aus NVs Sicht natürlich hervorragend, aus Sicht der Kunden nen Katastrophe.
Wird nicht passieren. Da bin ich mir ganz Sicher.
dargo
2019-09-27, 15:10:04
Vermutlich wird derjenige sich durchsetzten welcher die größte Marktmacht hat und das ist NV.
Wie kann sich was durchsetzen was nicht in den Konsolen verbaut ist?
Dural
2019-09-27, 16:09:10
Die neuen Konsolen haben ja RT... AMD musste nach bessern weil es MS und Sony haben wollten.
Das sagte selbst Jensen :rolleyes:
dildo4u
2019-09-27, 16:19:38
Konsolen Entwickler hatten schon 2018 RT geteased.
https://youtu.be/qzvzELq13HI?t=441
dargo
2019-09-27, 16:24:09
Thema war Patent von Nvidia fürs Denoising bei RT. Warum sollte dieses Patent MS/Sony interessieren? Die werden schon andere Ansätze nutzen würde ich tippen.
N0Thing
2019-09-27, 16:26:56
@Dural
Selbst Jensen? :ugly:
Wenn RT, wie von Nvida behauptet, jahrelange Grundlagenforschung erfordert hat, wird AMD wohl kaum auf Wunsch von Sony und Microsoft spontan nach der Vorstellung der RTX-Karten nachträglich RT in die Chips der Konslen eingefügt haben. Es sei denn, sie hätten bis dahin auch schon diese Grundlagenforschung erfolgreich betrieben, nur den Zeitpunkt nicht für passend erachtet, um ihre Chips damit auszustatten. In dem Fall würde deine Aussage einen Sinn ergeben.
dildo4u
2019-09-27, 16:43:53
In dem Patent steht nix von ML oder Tensor Cores,Nvidia hat in den letzten Jahren einige Techniken von Cuda auf DX Compute umgeschrieben um die Verbreitung zu fördern.Für RT sollten sie das gleiche Ziel haben, Ansonsten kommt das Game was RT voraussetzt nicht innerhalb der nästen Konsolen Gen.
olletsag-Gast
2019-09-27, 16:45:58
Den gleichen Gedanken hatte ich auch. Es läuft ja leider (nicht nur bei nv) so: Schön propertäre Verfahren einführen und dann versuchen, nen Vendorlock durchzusetzen. Monopole sind was schönes...
Viel interessanter ist doch, dass es kein KI Rauschunterdrückungsverfahren ist. Komisch wo RTX doch dafür beworben wurde. Das cross-bilaterale Denoising muss man dann schützen. Das hat mit Kapitalismus eigentlich wenig zu tun. Sie liefern nicht mal was für Entwickler, denn ob das zur Engine passt muss man allein herausfinden, bzw. sich allein darum kümmern. Ich behaupte mal das ist open source'r als sonst. BDRF Integrale erzeugen auch kein Rauschen, da sie vorintegriert werden.
https://www.reddit.com/r/nvidia/comments/8mzfsh/nvidias_rtx_denoising_is_not_based_on_ai_thats/
Viel interessanter ist doch, dass es kein KI Rauschunterdrückungsverfahren ist.
Die KI-Rauschunterdrückung ist auch für die 3D-Animationssoftware.
Die KI-Rauschunterdrückung ist auch für die 3D-Animationssoftware.
Nö - der CBF ist nichts weiter als Weichzeichner ohne Kanten zu glätten und genau das wollte nVidia (DLSS 1x und 2x). Er schreibt ja nicht umsonst "Engine"! Imagefusion based Pixelsignifikanz kann jeder. Das wird das Hauptproblem sein, das KI/AI-Denoising kostet zuviel Zeit, ein Kreuzfilter kostet im Vergleich fast nichts. Der Koeffizient steht anhand der Pixelmenge fest und es wird nicht mehr adaptiv abgetastet. Das Bild wird auf Grundlage gewichteter Pixe und mit Hilfe des Mittelwertes aller Eingabepixel rekonstruiert.
Das wird das Hauptproblem sein, das KI/AI-Denoising kostet zuviel Zeit, ein Kreuzfilter kostet im Vergleich fast nichts.
Eben, deshalb ist es aktuell noch nicht für Real-Time-Anwendungen verwendbar, für die Anwendung in Animationssoftware aber schon.
y33H@
2019-10-01, 22:51:28
Ich hab zuletzt nicht nachgehakt, aber meines Wissen nutzen alle Studios einen wohl eher schnöden Computer-Shader für das Denoising in Spielen - das sagte Oles Shishkovtsov von 4A Studios im Kontext von Metro Exodus und auch Nvidias eigener Jonah Alben bestätigte das. Hat Nvidia jemals explizit gesagt, dass in Spielen die Tensor-Cores für AI-Denoising genutzt werden?
aufkrawall
2019-10-01, 23:05:49
Wäre es nicht deine Aufgabe als Journalist, dem auf den Grund zu gehen, anstatt Fragen zu formulieren, die klingen wie Rechtfertigungen aus der Firmen-Rechtsabteilung?
y33H@
2019-10-01, 23:44:01
Ich habe zumindest in meinen Artikeln und Notizen nichts gefunden, was belegt, dass Nvidia explizit (öffentlich) sagte, dass in Spielen die Tensor-Cores für AI-Denoising genutzt werden - daher meine Frage. Aber danke für den völlig unnötigen Seitenhieb ...
Locuza
2019-10-02, 00:29:07
Man kann die Tensor-Cores vermutlich erst mit DirectML ausnutzen und das kam erst mit W10 1903, also dem H1-Update.
Es gibt für Vulkan mittlerweile Erweiterungen für Tensor-Cores:
https://devblogs.nvidia.com/machine-learning-acceleration-vulkan-cooperative-matrices/
Wie immer ist die Frage, wann wurde Projekt-X angefangen, wann war Funktion-X verfügbar und wirklich einsatzbereit für die anvisierte Kundenmasse?
Was läuft nur exklusiv und proprietär und was läuft herstellerübergreifend und wie viel Aufwand kostet das Ganze?
Entsprechend hat das wohl seinen Grund wieso jeder noch schnöde Compute-Shader über die normalen Shader-Cores laufen lässt.
Die PR wird sicher Bescheid geben, wenn sich das ändert.
Hat Nvidia jemals explizit gesagt, dass in Spielen die Tensor-Cores für AI-Denoising genutzt werden?
Nicht das ich wüsste. Wenn ich mich recht erinnere war auf einer der Folien zum KI-Denoising sogar irgendeine Animationssoftware im Hintergrund.
BTW: Streng genommen werden die Tensor-Cores von Turing immer auch in normalen Shadern benutzt.
Nämlich für FP16-Berechnungen, nur eben nicht für die Matrixmultiplikationen sondern "nur" für FMADD. Der Durchsatz ist dann nur mehr 2x FP32 und nicht ein vielfaches davon.
Aber das beste an Turing ist, dass er nicht nur FP16 mit doppelter Geschwindigkeit kann, er kann das sogar parallel zu FP32.
Morgenlicht
2019-10-06, 00:52:53
"Ghostrunner" - Game - ...will use Ray Tracing to improve reflections, ambient occlusion and shadows - 03. Oktober 2019
RTX effects in Ghostrunner: (https://www.dsogaming.com/news/ghostrunner-will-use-ray-tracing-to-improve-reflections-ambient-occlusion-and-shadows/)
“So we’re basically using Ray Tracing to improve three major parts of the game. We have plenty of dynamic lights that cast soft shadows so those applied to both area lights and point lights. We also have fully real-time ray traced reflections which is pretty cool for the kind of environment we set our game in. There is plenty of wet surfaces that reflect a lot of light. And obviously ambient occlusion which is much better with ray tracing. The kind of ambient occlusion we are getting right now does not produce any artifacts you might know from screen space ambient occlusion.”
https://i.ytimg.com/vi/n9AKySplpis/sddefault.jpg
klick auf Bild für YouTube-Video 03:12 Minuten (https://www.youtube.com/embed/n9AKySplpis)
dildo4u
2019-10-14, 08:27:57
PBhnTVuD31I
Bucklew
2019-10-14, 10:40:00
Hat Nvidia jemals explizit gesagt, dass in Spielen die Tensor-Cores für AI-Denoising genutzt werden?
Nein. Auch wieder so eine typische FakeNews.
Man hat immer gesagt, dass man die Tensor-Cores für DLSS nimmt, um die RTX-Effekte in niedrigerer Auflösung rendern zu können.
gnomi
2019-10-14, 11:24:08
https://youtu.be/PBhnTVuD31I
So langsam kommt echt genug Spielefutter rein.
Ich finde die Überarbeitungen im Indoor Bereich sehr gut, muss aber auch sagen, dass Metro schon im Basis Spiel eine für die Zeit gute Umsetzung mit den Outdoor Szenen hatte. Zudem lief es trotz geöffneter Level noch ganz gut. :up:
Die Hardwareanforderungen von Breakpoint sind weit heftiger auch ohne RTX wegen der krassen Vegetation im Nahbereich...
Was ist denn nun eigentlich mit Youngblood?
Kommt da noch was. :confused:
blaidd
2019-10-16, 13:48:24
Wahrscheinlich hat es der eine oder andere schon mitbekommen, aber World of Tanks bekommt ein Raytracing-Update für (Soft-)Shadows. Interessant dabei ist, dass es unter DX11 und ohne Raytracing-spezifische Hardware funktioniert (tut es wirklich, eine Demo/Benchmark ist hier (https://wotencore.net/en/)).
Dazu gibt es auch ein Video:
-w7wUs30OXk
Und ich hab ein ziemlich ausführliches Interview mit den Jungs gemacht. (https://www.pcgameshardware.de/World-of-Tanks-Spiel-42967/Specials/World-of-Tanks-Software-Raytracing-Direct-X-11-Interview-1334337/) ;)
dildo4u
2019-10-16, 14:08:06
Bin mal gespannt ob die erste Version von Intels 7nm GPU keine RT Beschleunigung hat und es deswegen dieses SDK gibt,für die aktuellen IGP dürfte es zu langsam sein.
Fragman
2019-10-16, 14:29:58
Embree von Intel gibt es schon länger und ist als RT Core in diversen offline Renderern drin.
Ich glaub Intel hat Hardware RT auch schon direkt angekündigt für deren neue GPU, oder?
dildo4u
2019-10-16, 14:45:59
Jup scheint nix mit der GPU Zukunft zu tun zu haben sondern war dazu da Multicore CPUs besser auszulasten,was Intel natürlich auch Hilft High-End Modelle zu verkaufen.
Paar Benches dazu Turing kommt besser mit dem RT Zurecht auch ohne direkte Untersützung.
https://www.computerbase.de/2019-10/world-of-tanks-encore-rt/
Paar Benches dazu Turing kommt besser mit dem RT Zurecht auch ohne direkte Untersützung.
War eigentlich klar, die Software RTX-Variante läuft ja auf den RTX-losen Turing-Karten auch wesentlich besser als auf Pascal.
Troyan
2019-10-25, 15:14:24
Laut nVidia kosten die Schatten in Call of Duty ca. 18% an Leistung: https://www.nvidia.com/en-us/geforce/guides/call-of-duty-modern-warfare-pc-graphics-and-performance-guide/#call-of-duty-modern-warfare-directx-raytracing
Da muss man über die World of Tanks Marketingaktion keine weiteren Worte verlieren. DXR mit Hardware-RT ermöglichen eine viel bessere Qualität, angewendet auf alle Objekte bei deutlich geringerem Leistungsverlust.
blaidd
2019-10-25, 15:49:15
Laut nVidia kosten die Schatten in Call of Duty ca. 18% an Leistung: https://www.nvidia.com/en-us/geforce/guides/call-of-duty-modern-warfare-pc-graphics-and-performance-guide/#call-of-duty-modern-warfare-directx-raytracing
Da muss man über die World of Tanks Marketingaktion keine weiteren Worte verlieren. DXR mit Hardware-RT ermöglichen eine viel bessere Qualität, angewendet auf alle Objekte bei deutlich geringerem Leistungsverlust.
Da ist aber auch irgendwas seltsam, schau mal auf die Performance bei WQHD und Full HD bei angeschaltetem RT und ausgeschaltetem. Da liegen jeweils nur ein paar Prozent dazwischen. Da scheint irgendwas zu limitieren (CPU?)
---
Ich habe mit einer RTX 2080 Ti teils knapp 50 % Performance-Verlust, aber die Performance ist generell sehr hoch, daher klappt's relativ gut mit den 60 Fps (ohne RT sind's dann halt 90-100, Maxed UHD).
Was ich ein bisschen lahm finde: Nur Schatten, die von dynamischen Lichtquellen geworfen werden, die auch ohne RT Schatten werfen, werden per Raytracing behandelt. Alle, die von der Sonne, Mond etc. kommen sind weiterhin Shadow-Maps, die Schatten, welche die Taschenlampe des Protagonisten wirft, sind auch mit RT perspektivisch inkorrekte Screen-Space-Shadows und selbst wenn keine RT-Schatten zu sehen sind (z.B. Außenszene mit Sonnenlicht), kostet die Option etwas Leistung (aber nur ca. 10-15 %).
Außenszene (kein RT zu erkennen):
RT an:
https://live.staticflickr.com/65535/48957710426_1ec4c8c708_k_d.jpg
RT aus:
https://live.staticflickr.com/65535/48957880207_6dc48b6f32_k_d.jpg
Bei Innenszenen (oder Außenszenen, in denen schattenwerfende Lichter vorkommen) sieht's aber ganz gut aus - vor allem passen jetzt die Pre-Rendered Shadows zu den dynamischen Schatten, das sieht ohne RT recht seltsam aus, wenn man drauf achtet. Allerdings kostet da RT auch recht viel und nicht alle Objekte werden verschattet, hier wird z.B. die Vegetation wird ausgenommen.
Innenszene:
RT an:
https://live.staticflickr.com/65535/48957880357_df3528af17_k_d.jpg
RT aus:
https://live.staticflickr.com/65535/48957880492_3daf9ae066_k_d.jpg
Ganz cool sind auch die Raytracing-Kontaktschatten, die sehen ohne RT deutlich schlechter aus. Allerdings gibt es da auch öfter mal ein paar kleine Fehler (siehe Blech links, da werden ganze Polygone seltsam und unrealistisch verschattet)
Kontaktschatten:
RT an:
https://live.staticflickr.com/65535/48957880867_edad5b7a14_k_d.jpg
RT aus:
https://live.staticflickr.com/65535/48957880712_f9f4404310_k_d.jpg
Beispiel für Screen-Space-Schatten (oder etwas in der Art, die blenden am Bildrand aus). Man sieht gut, dass die optisch komplett unrealistisch sind, selbst mit Raytracing (die werden ja offenbar auch nicht damit behandelt, obwohl sie leicht anders aussehen - aufgrund der Pixelation mit RT aber sogar ein wenig schlechter, würde ich sagen):
RT on:
https://live.staticflickr.com/65535/48957742741_8b821ec752_k_d.jpg
RT off:
https://live.staticflickr.com/65535/48957929727_bb17725825_k_d.jpg
Ich würde sagen: Nett, aber nicht voll überzeugend. ;)
Edit: Aus der Szene, die Nvidia häufig zu Demonstrationszwecken genutzt hat:
Diese von der Vegetation geworfenen Schatten sind augenkundig keine regulären Shadow-Maps, sondern eine andere Technik (eventuell Distant Field Shadows?). Mit Raytracing fehlen die komplett.
RT off:
https://live.staticflickr.com/65535/48958021291_2e87d44b62_k_d.jpg
RT on:
https://live.staticflickr.com/65535/48958206147_3b0aa36c0f_k_d.jpg
und selbst wenn keine RT-Schatten zu sehen sind (z.B. Außenszene mit Sonnenlicht), kostet die Option etwas Leistung (aber nur ca. 10-15 %).
Das ist klar, Raytracing ist ja trotzdem immer an, auch wenn es effektiv keinen Pixel verändert.
Die Primary Rays müssen ja trotzdem abgeschossen werden, und haben dann eben keinen Treffer im BVH.
gnomi
2019-10-27, 10:56:13
Irgendwie ist Call of Duty so ein Kompromiss.
Bisschen mehr RTX als bei Tomb Raider mit vertretbarer Performance und direkt zum Launch.
Mir gefällt es abgesehen vom Onlinezwang und gerade als Beilage zur GPU auch sehr gut.
Eine Killerapp und Aushängeschild für PC Gaming ist es so zwar nicht gerade, aber mir sagt es eher als das zu weichgezeichnete Control zu, wo man schon extrem viele Berechnungen zuschalten kann, diese aber irgendwie nicht ein so toll aussehendes Spiel hinterlassen. (hier stimmen imho eher die Teilergebnisse als das Gesamtwerk :()
aufkrawall
2019-10-27, 11:06:14
Thx @blaidd für die weiteren Eindrücke und fürs genaue Hinschauen.
Tja, wie es schon früher häufig bei GameWürks war: Es fügt sich einfach nicht nahtlos in den Rest der Technik ein und die damit verbunden Seltsamkeiten intensivieren das Uncanny Valley mitunter eher noch. Brauch ich echt nicht.
dildo4u
2019-10-27, 11:14:01
Schätze mal das ist eine Performance Sache aber hie fehlt die Verschattung der Vegetation ohne RT.Ich schätze mal die PC Version unterscheidet sich kaum von der Konsole und dort gibt es einige Kompromisse durch das 60fps Target.
https://images.nvidia.com/geforce-com/international/comparisons/call-of-duty-modern-warfare/call-of-duty-modern-warfare-directx-raytracing-interactive-comparison-001-on-vs-off.html
Troyan
2019-10-27, 11:19:48
Thx @blaidd für die weiteren Eindrücke und fürs genaue Hinschauen.
Tja, wie es schon früher häufig bei GameWürks war: Es fügt sich einfach nicht nahtlos in den Rest der Technik ein und die damit verbunden Seltsamkeiten intensivieren das Uncanny Valley mitunter eher noch. Brauch ich echt nicht.
Lmao. Wie kann eine bessere Verschattung den "Uncanny Valley" Effekt "intensivieren", wenn es ohne aussieht wie unnatürlicher Quatsch:
https://i.imgur.com/9l6lDPm.png
https://www.resetera.com/threads/call-of-duty-modern-warfare-pc-performance-thread.149100/post-25840978
Fragman
2019-10-27, 11:25:36
Schätze mal das ist eine Performance Sache aber hie fehlt die Verschattung der Vegetation ohne RT.Ich schätze mal die PC Version unterscheidet sich kaum von der Konsole und dort gibt es einige Kompromisse durch das 60fps Target.
https://images.nvidia.com/geforce-com/international/comparisons/call-of-duty-modern-warfare/call-of-duty-modern-warfare-directx-raytracing-interactive-comparison-001-on-vs-off.html
Deshalb ist der fps Vergleich eigentlich auch immer nicht ganz korrekt. Man müsste, um es realistisch zu machen, die Shadowmap Auflösung deutlich höher setzen, vielleicht 8k oder sogar 12k. Dann käme auch mehr in den Pflanzendetails an. Das macht aber keiner, weil es wohl einen mächtigen Framedrop gäbe. Bei 8k und drüber macht dann das Shadowmap System auch so langsam keinen Sinn mehr. Will man bessere Schatten haben, muss man da aber ansetzen sonst verbessert sich das ja nicht. Genau da setzt dann RT an und der Frameverlust wäre bei realistischen Vergleichen wohl kaum noch so ein Problem.
(Mir ist klar das Du das weisst, wollt das nur hinzufügen, weil oft nur den Framedrop geredet wird ;) )
aufkrawall
2019-10-27, 11:33:24
Lmao. Wie kann eine bessere Verschattung den "Uncanny Valley" Effekt "intensivieren", wenn es ohne aussieht wie unnatürlicher Quatsch:
https://i.imgur.com/9l6lDPm.png
https://www.resetera.com/threads/call-of-duty-modern-warfare-pc-performance-thread.149100/post-25840978
Danke, dass du meinen Punkt bestätigst: Wenn es an dieser von dir cherry gepickten Szene eindeutig besser aussieht, aber in den von Phil gezeigten Szenen Seltsamkeiten auffallen, erhöht dieser Gegensatz den Uncanny Valley Effekt. Logik und so.
Schätze mal das ist eine Performance Sache aber hie fehlt die Verschattung der Vegetation ohne RT.
Auch, vor allem aber, dass Shadowmapping in diesen Situationen mit sehr feinen Details bzw. wenn der Schatten extrem nah beim Schattenwerfenden Objekt ist, hässliche Artefakte erzeugt.
Da lässt man dann den Schatten besser gleich weg.
Troyan
2019-10-27, 13:51:26
Danke, dass du meinen Punkt bestätigst: Wenn es an dieser von dir cherry gepickten Szene eindeutig besser aussieht, aber in den von Phil gezeigten Szenen Seltsamkeiten auffallen, erhöht dieser Gegensatz den Uncanny Valley Effekt. Logik und so.
Genau, das macht auch Sinn. Wenn also das Spiel ohne Raytracing viel mehr Fehldarstellungen aufweist, dann ist dies in Ordnung. Wenn ein Spiel mit Raytracing diese Probleme reduziert, erhöht sich dadurch der "Uncanny Valley" Effekt.
Du bist schon brilliant in deiner Argumentationskette.
Modern Warfare ist meilenweit von dem beschriebenen Effekt entfernt, da das Spiel weiterhin wie ein normales Computerspiel aussieht. Eben mit besseren Schatten bei Point-Lights dank Raytracing.
Timbaloo
2019-10-29, 09:02:38
Wenn man den Begriff "Uncanny Valley" nicht versteht, sollte man ihn vielleicht auch nicht anwenden. Der bezieht sich nämlich eindeutig auf die Darstellung humanoider Figuren. Nicht Rendering allgemein.
Nicht Wissenschaft missbrauchen um die eigene krude Unlogik zu stützen.
aufkrawall
2019-10-29, 09:42:33
"Wissenschaft missbrauchen", sehr angemessene Wortwahl in dem Zusammenhang.
Und wenn man nicht nur borniert rumranzen will, würde man auch merken, dass hier das gleiche Problem der Befremdlichkeit zugrunde liegt.
dildo4u
2019-10-29, 09:59:28
Paar RT Benches zu COD es ist relativ billig,wundert mich es war In Tomb Raider deutlich teurer.
https://www.computerbase.de/2019-10/cod-modern-warfare-test/2/
Könnte Natürlich sein das hier schon mit Next-Gen Specs im Kopf entwickelt wurde.
Troyan
2019-10-29, 12:37:24
Call of Duty ist nur mit "Medium" bei TR vergleichbar, da es ebenfalls nur für Point Lights eingesetzt wird. Der Leistungsverlust sollte daher vergleichbar sein.
Paar RT Benches zu COD es ist relativ billig,wundert mich es war In Tomb Raider deutlich teurer.
Call of Duty ist da eher mit der niedrigsten RT-Stufe von Tomb Raider vergleichbar, und da kostet RT in Tomb Raider praktisch gar keine Leistung.
DrFreaK666
2019-11-06, 19:21:50
Ich weiss nicht ob die Frage schon gestellt wurde: werden alle Games problemlos mit AMDs zukünftiger RT-Hardware laufen oder bedarf es dazu Patches??
Spiele mit DXR sollten eigentlich OOTB lauffähig sein, oder?
Ich weiss nicht ob die Frage schon gestellt wurde: werden alle Games problemlos mit AMDs zukünftiger RT-Hardware laufen oder bedarf es dazu Patches??
Spiele mit DXR sollten eigentlich OOTB lauffähig sein, oder?
Das hängt von der Implementierung ab.
DXR sollte von AMD in Zukunft vollständig unterstützt werden.
RTX ist allerdings eine Middleware und Teil des Gameworks-Paketes, die zwar DXR verwendet, aber Nvidia-Exklusiv ist.
Es ist zu vermuten, dass aller bisherigen Raytracing-Titel RTX benutzen und bisher kein RTX-loser DXR-Fallback integriert ist, die Spiele also Patches benötigen.
Genaues kann dir aber nur der jeweilige Entwickler sagen.
dildo4u
2019-11-13, 18:02:02
Crytek hat jetzt ein RT Benchmark gebastelt der per Compute läuft.
https://live.staticflickr.com/65535/49060564582_7502fb226f_o.png (https://flic.kr/p/2hKjdB9)rtcrytek (https://flic.kr/p/2hKjdB9) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
https://www.hardwareluxx.de/index.php/news/software/benchmarks/51472-raytracing-geht-auch-ohne-rtx-der-neon-noir-benchmark.html
Coreauslastung scheint aber noch scheiße zu sein es kommt DX11 zum Einsatz.
dargo
2019-11-13, 18:15:55
Schade, dass Pascal dort nicht aufgeführt ist.
btw.
Turing über Compute bei RT effizienter als über die eigenen RT-Einheiten? :freak: Jedenfalls sehen mir die Frameraten in 1440p brauchbarer aus. Ok... schwer vergleichbar da unter RT-Ultra sich alles mögliche verbergen kann.
dildo4u
2019-11-13, 18:22:53
Mit was soll es Vergleichbar sein?Crytek müsste die RTX und Compute Version einbauen dann könnte man es vergleichen.
Quer vergleiche mit komplett anderen Engines macht kein Sinn.
dargo
2019-11-13, 18:37:08
Eben. ;)
Fragman
2019-11-13, 18:40:01
Also rein von den Frames per second ist das für 4k unbrauchbar, wenn man 4k als Benchmark ansetzt. Die Karten müssten wohl doppelt so schnell sein, damit das passt, in real world games wohl noch schneller. RTX Benches wären sehr hilfreich, schon allein um zu sehen, was die Einheiten besser machen, oder auch nicht. 1440p mit Upscaling auf 4K wäre aber grad so machbar.
dargo
2019-11-13, 18:48:04
Ich glaub natives 4k + RT und brauchbare Frames sehen wir mit Glück in 5 Jahren aufwärts. ;) Wobei ich mir selbst hier nicht sicher bin. Dank Konsolen werden die GPU-Anforderungen auch ohne RT rapide steigen.
dildo4u
2019-11-13, 20:35:49
Hier ist es mit Very High statt Ultra RT.
sgdBsBR4UGk
dargo
2019-11-13, 20:44:10
Ist schon mal eine ordentliche Performancesteigerung. Man darf auch nicht vergessen es ist 4k. Allerdings sind ~350W keine Standard 2080TI. :D
-=Popeye=-
2019-11-13, 20:59:31
Neon Noir Ray Tracing Benchmark 1440p Ultra @ GTX 1080 Ti
vsrBRAb3DqA
dildo4u
2019-11-13, 21:18:50
WCCF hat GTX 1080 auf RX 5700 Level also keine Katastrophe.
https://wccftech.com/neon-noir-cryengine-hardware-api-agnostic-ray-tracing-demo-tested-and-available-now/
Fragman
2019-11-13, 21:21:06
Ich hatte die Grafik irgendwie besser in Erinnerung. Reflections und so schauen gut aus, aber das lighting und vor allem shadowing überhaupt nicht. Alles sehr grob und halt die typischen Probleme die Metro längst gelöst hat. Wenn man das on top packt, falls lösbar, neben den anderen Problemen, ist die Performance nicht zu gebrauchen. Wobei ich das nicht so wild sehe, denn ati und nv bieten bzw werden Hardwaresupport bieten. Die Frage ist halt, wie lange die Halbwertzeit dieser Tech sein wird. Außer man kann das auf DX12 in "Hardware" laufen lassen.
dildo4u
2019-11-13, 21:28:13
Crytek nutzt nur für die Reflektionen RT was natürlich sinnvoll ist wenn man da Effekte überlagert wird es zu langsam,es ist schon Flott dafür das es Native Auflösung nutzt.
Die RTX Games die Effekte überlagern laufen für diese Performance schon lange mit DLSS.
dargo
2019-11-13, 21:32:00
WCCF hat GTX 1080 auf RX 5700 Level also keine Katastrophe.
https://wccftech.com/neon-noir-cryengine-hardware-api-agnostic-ray-tracing-demo-tested-and-available-now/
Ich frage mich dabei auch immer wie gut die Radeon Treiber dafür überhaupt optimiert sind? Nvidia gab es für Pascal frei RT über Compute. Von AMD hörte ich dergleichen noch nichts. Vielleicht gibts ne kleine Überraschung im Jahresupdate.
dildo4u
2019-11-13, 21:35:10
Macht vermutlich kein Sinn dort jetzt Treiber Arbeit reinzustecken,da es sowie erst Produktions reif wird wenn der DX12 Renderer da ist.
Radeonfreak
2019-11-13, 22:15:45
Entweder bin ich blind, aber ich finde keinen Download Link?
Troyan
2019-11-14, 08:21:56
Crytek nutzt nur für die Reflektionen RT was natürlich sinnvoll ist wenn man da Effekte überlagert wird es zu langsam,es ist schon Flott dafür das es Native Auflösung nutzt.
Die RTX Games die Effekte überlagern laufen für diese Performance schon lange mit DLSS.
Was soll "schon flott" sein? Control bietet Reflektionen für alles an. Das Spiel ist weiter als die Techdemo von Crytek. Ist exakt das selbe wie bei World of Tanks.
Es ist längst ersichtlich, dass DXR der Weg vorwärts ist und alle diese versuche, irgendwie mit DX11 sind DoA.
dildo4u
2019-11-14, 10:06:27
Jup deswegen läuft es mit RT Medium auch nur mit 40fps mit einer 2060 trotz RT Core Nutzung.
https://www.computerbase.de/2019-08/control-benchmark-raytracing-test/3/#diagramm-raytracing-in-control-1920-1080
Cryteks Effekt wird noch deutlich schneller wenn der RTX Support + DX12 Final ist.
Im Gegensatz zu dir hat Crytek vermutlich eine Ahnung was die nästen Konsolen können und danach wird die Komplexität ausgerichtet.
Deswegen kotzen alle grad über Red Dead 2 es ist extrem selten das deutlich mehr als auf Konsole angeboten wird,die Masse der Games werden sich wieder danach richten.
Cryteks Effekt wird noch deutlich schneller wenn der RTX Support + DX12 Final ist.
Steht das irgendwo auf der Roadmap? Also RT-Core-Support? Sinnvoll wär's, denn warum sollte man generalisierte Einheiten überfordern, statt es Spezialisten machen zu lassen, die ansonsten arbeitslos sind?
Deswegen kotzen alle grad über Red Dead 2 es ist extrem selten das deutlich mehr als auf Konsole angeboten wird,die Masse der Games werden sich wieder danach richten.
Das Problem ist, dass PC-Spieler mit High-End-Hardware glauben, alles maximieren zu können und dass das dann noch mit 60 Fps laufen muss. Das ist so ähnlich wie die Autokäufer mit der eingebauten Vorfahrt. ;)
[x] Für versteckte "Hyper-Detail"-Modi, die nicht explizit angeboten werden, sondern in einer Config angeknipst werden müssen
[x] Für Updates nach 1-2 Jahren, welche es erlauben, absolut alles aufzurotzen (inkl. Option, LoD-Systeme abzuschalten)
MfG
Raff
pixeljetstream
2019-11-14, 18:11:18
Steht das irgendwo auf der Roadmap? Also RT-Core-Support? Sinnvoll wär's, denn warum sollte man generalisierte Einheiten überfordern, statt es Spezialisten machen zu lassen, die ansonsten arbeitslos sind?
Vielleicht warten die auf dxr 1.1 das ermöglicht einen direkten Zugang zu den tracing Fähigkeiten der HW in Compute shadern.
Slipknot79
2019-11-14, 21:06:03
2560x1440
RT Ultra
RTX 2080 @ 2000/7700mhz
https://abload.de/img/unbenannt3njmp.png
1920x1080
RT Ultra
In 1080p bremst meine CPU aber schon etwas, deswegen wäre in dieser Auflösung mehr drin.
https://abload.de/img/unbenanntipkdv.png
Die CPU bumst auch in 1440p bei dir und das nicht zu knapp. :cool:
Ex3cut3r
2019-11-14, 22:52:15
Wie kommst du darauf? Hast du mein OSD bei dir am Monitor?
In 1440p bremst nix. 98% GPU Auslastung klebend.
Slipknot79
2019-11-14, 23:41:19
Wie kommst du darauf? Hast du mein OSD bei dir am Monitor?
In 1440p bremst nix. 98% GPU Auslastung klebend.
Axo, sehe gerade du hast ne non-TI. K, dann passts wieder. How rain. :cool:
Mr. Pink
2019-11-15, 04:45:58
[edit]
dildo4u
2019-11-15, 09:42:58
GPU Test mit GCN,Turing,Pascal und Navi.
efOR92n9mms
gnomi
2019-11-15, 13:08:32
Die neuen Architekturen laufen langsam glasklar davon.
Turing speziell finde ich hier heftig, weil da ja nicht einmal was zusätzlich hardwarebeschleunigt ist.
Der Ansatz mit DX11 ist dennoch schon sehr spannend, da es auch auf allen Systemen läuft. :up:
Very High kostet einiges an Qualität, bringt aber auch Performance und entlastet viele GPU's merklich.
Natürlich würde ich mich über eine Erweiterung mit DX 12 und RTX aber sehr freuen.
Ich bin mir auch sehr sicher, dass Crytek an der Crysis Trilogie Remastered arbeitet, und diese zur neuen Konsolengeneration dann ansteht.
Eventuell läuft die dann auch auf allen gängigen Plattformen (bisherige und kommende Generation plus PC) und mit noch mehr Erweiterungen und Optimierungen. =)
@ Neon Noir Benchmark
I7 8700k@4,7 GHZ, 32GB DDR 4 Ram @ 3866, RTX 2080 OC (441.20; 1950-1980/8000, High Quality, Ultra Low Latency, GSYNC)
WQHD Ultra 7316 Punkte (60-100 fps)
Very High 9102 (~25% mehr Performance)
Forciertes 16*AF kann knapp 10% Performance kosten @ Ultra.
IS erscheint vergleichsweise günstig.
Achill
2019-11-15, 16:03:58
Ich habe bei ein paar der Postings darum gebeten, dass diese den Benchmark-Thread verschoben werden. Finde gut, dass ihr Tests gemacht habt, aber für Technologie > Real-time RayTracing doch gut Off-Topic - hoffe ihr könnt mit leben. :redface:
--
@Mods, mein Post hier kann dann gern gelöscht werden.
Vielleicht warten die auf dxr 1.1 das ermöglicht einen direkten Zugang zu den tracing Fähigkeiten der HW in Compute shadern.
Das kommt im Windows 10 Update 20H1, oder? Q1 wäre besser. Hmm, aber Q2 wäre genug Zeit, damit nicht wieder alles beim Ausspielen des Updates kaputt ist ... :ugly:
Die neuen Architekturen laufen langsam glasklar davon.
Turing speziell finde ich hier heftig, weil da ja nicht einmal was zusätzlich hardwarebeschleunigt ist.
Da fände ich etwas mehr Beef hinsichtlich der Implementierung interessant. Turing hat als Architektur-Spezialität ja die INT32-Cores neben den Gleitkomma-Spezis. Ob da ein von Turing goutierter Instruktionsmix eingesetzt wird? Wenn ja, ist das Zufall?
MfG
Raff
Mr. Pink
2019-11-15, 18:35:35
https://s19.directupload.net/images/191115/cd7468du.jpg
2080ti@2,085ghz/ 7550mhz
2560x1440 RT Ultra
Der Benchmark-Faden für Ergebnisse ist übrigens hier: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=597407
Im Thread, den wir gerade zutexten, geht es um die Diskussion zur Technik etc. :)
MfG
Raff
Mr. Pink
2019-11-15, 18:59:46
Stimmt, gerade gesehen :)
Turing speziell finde ich hier heftig, weil da ja nicht einmal was zusätzlich hardwarebeschleunigt ist.
Ein Problem warum Raytracing auf GPUs nicht so toll läuft obwohl es eigentlich perfekt parallelisierbar ist ist das dadurch verurachte Cache Trashing.
Turing wirkt dem ja beispielsweise durch deutlich vergrößerte Caches entgegen, das könnte also auch hier ohne Hardwarebeschleunigung helfen.
AintCoolName
2019-11-20, 20:38:58
Bringing Ray Tracing to Vulkan
https://www.youtube.com/watch?v=xpxVAoXaVgg
Bringing Ray Tracing to Vulkan
https://www.youtube.com/watch?v=xpxVAoXaVgg
Da wäre ein subtiler (pun intended) Tipp Richtung Machine Games respektive id Software gewiss hilfreich. Wir warten schließlich alle noch auf den wolfenschweinischen RTX-Patch.
MfG
Raff
dargo
2019-12-08, 09:27:01
Der Zug ist bereits abgefahren. Wenn man schon RT bringen möchte dann wäre es sinnvoller im kommenden Doom.
Da wäre ein subtiler (pun intended) Tipp Richtung Machine Games respektive id Software gewiss hilfreich. Wir warten schließlich alle noch auf den wolfenschweinischen RTX-Patch.
Vermutlich ist die Engine einfach zu Effizient.
Wie es Aussieht ist mit aktueller Hardware nur mit vielleicht etwas mehr als 100FPS drinnen.
Was ja gar nicht so schlecht ist, und wenn deine Engine eh nicht mehr als 120FPS schafft fällt das nicht mehr so ins Gewicht.
Wenn deine Engine aber 400FPS schafft und mit RT sind es dann plötzlich nur mehr 100 schaut es halt blöd aus.
Slipknot79
2019-12-08, 22:12:53
jbiB3ekfgI4
Hier auch mal was kritisches zu Nvidia, zusammengayfasst sollen AMD/Intel Nvidia in 1-2 Jahren schrotten. :cool:
Screemer
2019-12-08, 22:14:19
jbiB3ekfgI4
https://www.youtube.com/watch?v=jbiB3ekfgI4&
Dunno, das mit dem Shice Code funzt ned?
Hier auch mal was kritisches zu Nvidia, zusammengayfasst sollen AMD/Intel Nvidia in 1-2 Jahren schrotten. :cool:
So
Slipknot79
2019-12-08, 22:20:07
kk thx e high 5
TheAntitheist
2019-12-09, 17:20:14
nächstes Jahr wird Nvidias Vorsprung noch größer sein als dieses... da ändert das Konsolengeld mal gar nix, haben wir in der Vergangenheit auch gesehen.
Fragman
2019-12-09, 19:19:15
Das wär schon gut wenn amd endlich an Turing rankommt und etwas vergleichbares zur 2080ti bieten kann, dazu aber auch entsprechende RT Leistung, das dürfte wichtiger sein. Eigentlich müssen sie ja etwas konkurenzfähiges haben, sonst gäbe es die RT Ankündigung für nexgen Konsolen ja nicht.
Hier auch mal was kritisches zu Nvidia, zusammengayfasst sollen AMD/Intel Nvidia in 1-2 Jahren schrotten. :cool:
Ich kann ganz ehrlich die ganze Performancejammerei nicht mehr hören.
Kostet Raytracing viel Leistung? Ja keine Frage.
Ist es deshalb auf Turing unbrauchbar? Keineswegs.
Ja man kann nicht alles auf max aufdrehen, gleichzeitig 4k Auflösung + Raytracing und mit einer 2060RTX noch eine flüssige Performance erzielen.
Ganz im Gegenteil, ich kann mich in der Grafikkartengeschichte an kein einziges neues Feature erinnern, das in First Gen Hardware dermaßen gut gelaufen ist.
32bit Rendering kam schon mit der Riva TNT, und brauchte bis zur Geforce 1 DDR um vernünftig einsetzbar zu sein.
Dot 3 Bump Mapping kam mit der ersten Geforce, Doom 3 war das erste Spiel dass es auch Flächendeckend einsetzen konnte und brauchte was in die Richtung Geforce 3/4 dafür.
T&L kam mit der ersten Geforce, und wurde erst mit den Vertex Shadern ab Geforce 3 wirklich eingesetzt.
Pixel/Vertexshader kamen mit Geforce 3. Bis man damit mehr machen konnte als Fixed-Function-Effekte der Vorgängergenerationen endlich performant einzusetzen (Stichwort Dot3 Bump Mapping) brauchte es SM2.0, und das auch nur auf AMD-Hardware. Bei Nvidia brauchte es überhaupt bis zur Geforce 6 und SM3 bis man diese gut verwenden konnte.
Tesselation und Displacement Mapping es seit der Matrox Parhelia, bzw. war prinzipiell seit VS 3.0 im Vertex Shader möglich.
Es hat aber bis Maxwell/Pascal gedauert bis das wirklich performant möglich war, und AMD hat es bis heute nicht so richtig hinbekommen.
2007 kam Crysis und lief auf den damals schnellsten Karten mit vollen Details in 1024x768 auf etwa 30FPS.
Waren die damaligen Karten deshalb Fehlschläge?
Noch mehr, Crysis läuft selbst auf heutigen RTX-Karten auf gleicher Auflösung teilweise nicht schneller als die Raytracing Spiele mit aktivem RTX.
Ja man kann nicht alles haben, 4k + max Details + RTX + 144FPS, dafür reicht auch eine 2080Ti nicht.
Deshalb ist RTX aber auch schon heute sehr gut nutzbar. Ja man muss je nach Karte und Spiel Kompromisse eingehen, und vielleicht mit nur 60FPS spielen, was noch immer doppelt so viel wie damals in Crysis ist, und man muss vielleicht auch die Auflösung auf FullHD verringern, was auch mehr als doppelt so viel wie damals in Crysis ist. Oder man verzichtet auf das eine oder andere Detail-Setting.
Dass man aber auf First-Gen-Hardware immerhin in FullHD mit 60+FPS, und wenn man eine 2080Ti hat teilweise sogar deutlich mehr, spielen kann ist eine verdammt gute Leistung.
Langenscheiss
2019-12-12, 00:14:48
https://youtu.be/jbiB3ekfgI4
Hier auch mal was kritisches zu Nvidia, zusammengayfasst sollen AMD/Intel Nvidia in 1-2 Jahren schrotten. :cool:
Lol, von über 100 auf unsagbar schlechte 70 FPS. Stimme meinem Vorredner da absolut zu: viele Leute hier wollen oder können sich nicht mehr an die alten Zeiten erinnern. Das ist wirklich Gemecker auf einem absurd hohen Niveau. Ja, man kann drüber streiten, ob es in einem kompetitiven Multiplayer-Shooter schon sinnvoll ist, Raytracing anzustellen, aber in einem single-player game... .
Kriegsgeier
2019-12-12, 09:46:12
Wo der Gast Recht hat, hat er Recht!
Super Beitrag! Danke dafür!
Troyan
2019-12-12, 12:44:39
Dass man aber auf First-Gen-Hardware immerhin in FullHD mit 60+FPS, und wenn man eine 2080Ti hat teilweise sogar deutlich mehr, spielen kann ist eine verdammt gute Leistung.
Bingo. Viele interessieren sich eben nicht mehr für Grafik und haben kein Problem mit Flimmeroptik, Low-Poly Modelle, LoD aus der Hölle, kaputte und fehlende Schatten etc. Solange das Spiel in 4K mit 120FPS läuft, sieht auch der letzte Rotz immer schön aus.
Und mal zu Crysis zurückzukommen. 2007 schaffte die 8800GTX ($699) 9,2FPS in 2560x1600: https://www.computerbase.de/2007-11/test-nvidia-geforce-8800-gt-sli/21/
Eine GTX2080TI ($1200 Custom-Modelle) erreicht in Control mit allen Effekten zwischen 45 bis 60FPS. Inflationbereinigt hat man einen Aufpreis von 50% und erhält zwischen 4x bis 6x mehr Leistung.
Wir leben in goldenen Zeiten, wo man mit Raytracing in Auflösungen und mit FPS spielen kann, für die man vor 12 Jahren getötet hätte.
pixeljetstream
2019-12-12, 23:31:27
Naja das mit der goldenen Zeit klingt schon übertrieben bei first generation. In 5 Jahren wenn die hw und sw weiter ist auf Grund der Erfahrung wird's sicher goldener sein ;) dann wird sowas wie quake2 rtx näher an modernen content dran sein.
Bzw. wegen der Verbreitung können dann auch mehr Titel ohne mega art budget zumindest mit hübscher einheitlicher Beleuchtung arbeiten.
Troyan
2019-12-19, 16:01:29
Deliver us the Moon hat nun Raytracing-Unterstützung: https://www.nvidia.com/en-us/geforce/news/deliver-us-the-moon-fortuna-ray-tracing-dlss/
Sieht gut aus. Das zeigt mal wieder, Raytracing erlaubt auch kleineren Studios Grafik zu ermöglichen, die heute nur den großen vorbestimmt ist.
dargo
2019-12-19, 16:36:38
Zeigt eigentlich wieder wunderbar wie grauenvoll die Performance ist. Selbst eine 700€+ Graka fällt unter 50 avg.fps in 1440p. :ulol:
AnnoDADDY
2019-12-19, 16:45:25
Grauenvoll? Das ist völlig ausreichend ;)
dildo4u
2019-12-19, 16:53:42
Es performt besser wie Gears 5 mit DLSS,hoffentlich guckt sich mal jemand die Umsetzung genauer an.
https://www.computerbase.de/2019-12/grafikkarten-testparcours-2020/2/#diagramm-gears-5-2560-1440
Das default UE TAA ist immer noch eine Katastrophe daher ist DLSS vermutlich besser.
via-LSKo_q4
dargo
2019-12-19, 17:36:43
Grauenvoll? Das ist völlig ausreichend ;)
Najo... das sieht selbst Nvidia anders wenn du dir die Marketing-Bildchen anschaust. Stichwort... DLSS.
Zeigt eigentlich wieder wunderbar wie grauenvoll die Performance ist. Selbst eine 700€+ Graka fällt unter 50 avg.fps in 1440p. :ulol:
Das ist extrem gut, damit ist man in 1080p locker weit über 60FPS.
Slipknot79
2019-12-19, 20:54:15
Zeigt eigentlich wieder wunderbar wie grauenvoll die Performance ist. Selbst eine 700€+ Graka fällt unter 50 avg.fps in 1440p. :ulol:
Seit wann spielt Geld bei einem dicken Porsche eine Rolle? :cool:
gravitationsfeld
2019-12-19, 21:43:41
Deliver us the Moon hat nun Raytracing-Unterstützung: https://www.nvidia.com/en-us/geforce/news/deliver-us-the-moon-fortuna-ray-tracing-dlss/
Sieht gut aus. Das zeigt mal wieder, Raytracing erlaubt auch kleineren Studios Grafik zu ermöglichen, die heute nur den großen vorbestimmt ist.
Genau, denn die Assets haben natuerlich ueberhaupt nichts mit der Grafik zu tun. Das Spiel sieht ohne RT-Reflexionen aus wie ein DOS-Spiel :rolleyes:
Der Unterschied faellt einem beim Spielen doch nicht mal auf wenn man nicht bewusst hinsieht.
Die Vorteile von RT wird man sehen, wenn es fundamental in die Engines integriert ist und das wird vor Next-Gen-Konsolen nicht der Fall sein. Alles vorher sind Spielereien.
robbitop
2019-12-19, 22:02:34
Ja das ist gefühlt bei jedem wesentlichen neuen Effekt so. Erst Spielerei und oft wird übertrieben.
Chris Lux
2019-12-19, 22:14:42
Der Unterschied faellt einem beim Spielen doch nicht mal auf wenn man nicht bewusst hinsieht.
Die Vorteile von RT wird man sehen, wenn es fundamental in die Engines integriert ist und das wird vor Next-Gen-Konsolen nicht der Fall sein. Alles vorher sind Spielereien.
Das gilt aber auch für viele heutige Standard-Effekte: AO (welche Implementierung auch immer) sieht man auch nur wenn man genau hinsieht. Trotzdem fehlt was wenn es nicht da ist oder die bekannten Screen-Space Artefakte zeigt.
P.S. Control, bestes Beispiel wo RT extrem gut integriert ist - und keine Spielerei ist. Einmal mit gespielt will ich das nicht mehr ohne, auch wenn man beim vertieften Spielen sicher nicht mental die physikalische Korrektheit der Reflektionen oder AO/GI nachvollzieht.
P.P.S. Ist doch toll, dass im PC-Segment mal wieder Gas gegeben wird, wo selbst die neuen Konsolen das Nachsehen haben. Ich denke trotzdem, dass aus dieser Ecke gute Innovationen kommen werden. In ein paar Jahren ist das selbst auf den Konsolen dann auch keine Spielerei mehr.
dargo
2019-12-19, 22:27:28
Seit wann spielt Geld bei einem dicken Porsche eine Rolle? :cool:
Oh... cool, Autovergleiche. ;D Einen RT-Porsche gibt es noch nicht. ;) Vielleicht in 5+ Jahren, dann sehen wir weiter. Aktuell hast du eher einen RT-Trabi. :D
Slipknot79
2019-12-19, 23:06:01
Oh... cool, Autovergleiche. ;D Einen RT-Porsche gibt es noch nicht. ;) Vielleicht in 5+ Jahren, dann sehen wir weiter. Aktuell hast du eher einen RT-Trabi. :D
Falsch. :wink:
Tesla macht in 10 Jahren 0-100 in 3s, nur dass das derzeit niemanden interessiert, auch nicht aktuelle Teslafahrer. Sie leben hier und jetzt und fahren/genießen eben einen Tesla und du hast eben blos deinen Polski Fiat, der nicht mal zum RT Rennen antreten darf, also nicht mal die Startlinie überqueren wird, vermutlich ist die Linie bereits zu hoch, so dass du nicht mal den Höhenunterschied schaffst. :wink:
So, na dann wirf mal RT an und zeig deine fps lol. Und 60fps-Youtube Videos mit RT Content auf AMD GPUs schauen zählt nicht :biggrin:
Es ist aber auch völlig normal, dass Polski Fiat User eben jede Münze 2x umdrehen müssen, das ist nun mal so in den unteren Ligen wo du dich aufhälst. Ab der 700EUR Liga gehts da schon anders zur Sache, so dass hier Geld tatsächlich kaum noch eine Rolle spielt. "mimimimimi aber Lewandowski ist doch sooo teuer", nie von Bayern München solche Sprüche gehört. :wink:
Um die Geldfrage auch anders zu sehen:
Auf Spielstunden umgelegt ist es sowas von Shice egal ob das Hobby nun 0,5EUR oder 1EUR in der Stunde kostet, ich glaube wir haben dann doch andere Sorgen als sowas. Kinobesuch ist teurer. :wink:
gravitationsfeld
2019-12-19, 23:30:06
P.S. Control, bestes Beispiel wo RT extrem gut integriert ist - und keine Spielerei ist. Einmal mit gespielt will ich das nicht mehr ohne, auch wenn man beim vertieften Spielen sicher nicht mental die physikalische Korrektheit der
Control ist wirklich das beste Beispiel bisher. Aber es ist halt immer noch nicht komplett auf Raytracing angewiesen was immer Kompromisse erfordert.
Troyan
2019-12-20, 09:45:53
Genau, denn die Assets haben natuerlich ueberhaupt nichts mit der Grafik zu tun. Das Spiel sieht ohne RT-Reflexionen aus wie ein DOS-Spiel :rolleyes:
Der Unterschied faellt einem beim Spielen doch nicht mal auf wenn man nicht bewusst hinsieht.
Die Vorteile von RT wird man sehen, wenn es fundamental in die Engines integriert ist und das wird vor Next-Gen-Konsolen nicht der Fall sein. Alles vorher sind Spielereien.
Aha. "Spielereien". Ich nenne vernünftige Schatten, Ausleuchtung und vorallem nutzbare Reflektionen keine Spielerei sondern grafischen Fortschritt.
"Deliver us the Moon" ist ein 25€ Indie-Spiel, dass nun grafisch ganz oben mitspielt. Die Reflektionen in dem Spiel sind bahnbrechend.
dargo
2019-12-20, 09:59:03
Mit einer an der Kotzgrenze wassergekühlten RTX 2080TI.
2K9mBQqESmM
Chris Lux
2019-12-20, 11:23:30
Control ist wirklich das beste Beispiel bisher. Aber es ist halt immer noch nicht komplett auf Raytracing angewiesen was immer Kompromisse erfordert.
Mit Sicherheit. Ich bin auch der Meinung, dass hybride Renderer der Weg für lange Zeit sein werden. Warum auch nicht... Deswegen denke ich auch, dass weiterhin 1080p/4kCB mit 30Hz ein gutes Ziel auch für die neuen Konsolen sein wird - für gewisse Spiele. Dafür 'kann' die RT Hardware ggf. reichen.
Control ist wirklich das beste Beispiel bisher. Aber es ist halt immer noch nicht komplett auf Raytracing angewiesen was immer Kompromisse erfordert.
Das wird auch noch mindestens 10 Jahre dauern, und das auch nur wenn die Performancezuwächse vergleichbar bleiben.
Und ob das angesichts der immer schwierigerer Fertigungsfortschritte wirklich der Fall sein wird ist fraglich.
gravitationsfeld
2019-12-20, 17:27:52
Selbst mit Hybrid-Renderern macht es einen großen Unterschied ob ich mich auf RT verlassen kann oder nicht. Sonst bleibt es bei Spielereien.
Das wird auch noch mindestens 10 Jahre dauern, und das auch nur wenn die Performancezuwächse vergleichbar bleiben.
Und ob das angesichts der immer schwierigerer Fertigungsfortschritte wirklich der Fall sein wird ist fraglich.
Auch mit der jetzt verfuegbaren Leistung koennte man weitaus sinnvollere Dinge machen als die immer gleichen Reflexionen.
Troyan
2019-12-20, 21:29:56
Auch mit der jetzt verfuegbaren Leistung koennte man weitaus sinnvollere Dinge machen als die immer gleichen Reflexionen.
Was denn? Mit SSR die Gamer nerven?
Ein Beispiel aus "Deliver us the Moon", dass immer gleiche Reflexionen" erstmal Standard werden sollten, bevor man einen grafischen Quantensprung verteufelt:
https://abload.de/thumb/moonman-win64-shippinltksg.png (https://abload.de/image.php?img=moonman-win64-shippinltksg.png)
https://abload.de/thumb/moonman-win64-shippinzej65.png (https://abload.de/image.php?img=moonman-win64-shippinzej65.png)
Ich habe ein paar Stunden gespielt und es ist der Showcase-Titel für Raytracing, noch vor Control. Die Reflektionen in den Scheiben, Spiegeln und co. sind bahnbrechend und erfrischend beeindruckend. Und das ganze von einem Indie-Entwickler in einem 25€ Spiel umgesetzt.
Fragman
2019-12-20, 21:49:14
Selbst mit Hybrid-Renderern macht es einen großen Unterschied ob ich mich auf RT verlassen kann oder nicht. Sonst bleibt es bei Spielereien.
Was meinst Du genau mit "sich drauf verlassen" können?
Weil Du als Entwickler Kontrolle aus der Hand gibst oder weil es Konsistenzprobleme gibt dank zu weniger Rays oder sowas?
Demirug
2019-12-21, 11:19:04
Was meinst Du genau mit "sich drauf verlassen" können?
Weil Du als Entwickler Kontrolle aus der Hand gibst oder weil es Konsistenzprobleme gibt dank zu weniger Rays oder sowas?
Er meint wohl das man sicher sein kann das jeder Spieler überhaupt entsprechenden Hardware hat. Hat nur ein Bruchteil der Spieler Hardware für ein bestimmtes Feature kannst du dieses Feature auch nur als Option oben drauf packen da du erst einmal eine Lösung brauchst die überall funktioniert.
Fragman
2019-12-21, 11:22:26
Achso gut. Ist sicher ein Punkt.
ChaosTM
2019-12-21, 12:15:33
Ich bin mir immer noch nicht sicher, ob NV´s RT Kerne wirklich dedizierte Kerne oder nur umgelabelte "Normalo" Shader sind und die Karte im Prinzip nur als Dongle fungiert, um einen Zugriff mit AMD Karten zu verhindern ;)
y33H@
2019-12-21, 12:17:07
Zugriff mit AMD-Karten?!
ChaosTM
2019-12-21, 12:22:45
Um dieses Feature für AMD Karten unbrauchbar zu machen..
Das war nicht wirklich ernst gemeint aber zutrauen würde ich ihnen so-was schon ..
"Volles" RTRT wird sich mit der derzeitigen Silizium Technik aber wahrscheinlich nicht mehr realisieren lassen. Hybrid also für die nächsten paar Jahre ..
gravitationsfeld
2019-12-21, 14:18:30
Nein, Turing hat keine "umgelabelten normalo Shader". DXR ist ein Standard den AMD jederzeit implementieren könnte. Nvidias HW-Einheiten können überhaupt nichts verhindern.
Troyan
2019-12-21, 15:49:34
Er meint wohl das man sicher sein kann das jeder Spieler überhaupt entsprechenden Hardware hat. Hat nur ein Bruchteil der Spieler Hardware für ein bestimmtes Feature kannst du dieses Feature auch nur als Option oben drauf packen da du erst einmal eine Lösung brauchst die überall funktioniert.
Das ist doch kein Argument. Spiele haben zich verschiedene Optionen für Grafik. Der selben Logik folgend, dürfte man Effekte wie SSR, AO, vernünftige Schatten nicht anbieten.
Kann es nicht einfach nur sein, dass einige Angst haben um ihren Job? Raytracing demokratisiert Effekte, die zur Zeit nur von den besten mit massiven Aufwand realisierbar sind. Raytracing gibt sprichwörtlich jedem die Möglichkeit nun grafische Optionen anzubieten und Spiele zu designen, die vorher unmöglich oder nur mit Abstrichen möglich sind.
Man muss sich nur mal wirklich im klaren sein, dass ein Indie-Entwickler hier ein Versprechen eingelöst hat Raytracing in sein Spiel zu implementieren. MachineGun Games und Bethesda sind das bis heute für Wolfenstein schuldig geblieben.
pixeljetstream
2019-12-21, 15:58:57
Lol ne diese Job Angst gibt es nicht, gibt auch keinen Grund dafür. Imo unterschätzt du den Aufwand an Technik der so oder so existiert. Die Rendering Algorithmen sind nur ein Bruchteil des Ganzen.
Die denke ist insofern auch unlogisch weil die Leute die Ahnung haben sich auch am meisten auf neue Möglichkeiten freuen. Es ist nur ein weiteres Werkzeug.
Und natürlich isses ein Argument, weil man dann auf alte Techniken komplett verzichten kann, während sonst viel Dopplung herrscht.
gravitationsfeld
2019-12-21, 16:17:27
Was meinst Du genau mit "sich drauf verlassen" können?
Weil Du als Entwickler Kontrolle aus der Hand gibst oder weil es Konsistenzprobleme gibt dank zu weniger Rays oder sowas?
Verlassen, dass es eine Mindestanforderung ist und sonst das Spiel nicht läuft.
Ich bin mir immer noch nicht sicher, ob NV´s RT Kerne wirklich dedizierte Kerne oder nur umgelabelte "Normalo" Shader sind und die Karte im Prinzip nur als Dongle fungiert, um einen Zugriff mit AMD Karten zu verhindern ;)
Weder noch.
Raytracing besteht aus mehreren Schritten, und der erste davon ist die Oberfläche zu finden die der Ray schneidet (üblicherweise die nächste).
Genau das hat Nvidia in Hardware abgebildet, die "RT-Kerne" sind nichts anderes als ein in Hardware gegossener Suchalgorithmus im BVH-Tree.
Alle weiteren Schritte laufen auch bei Nvidia ganz normal in den Shaderkernen.
Fragman
2019-12-21, 18:16:50
Mal schauen was die neuen Konsolen können, in wieweit AMD das vielleicht für Navi supported und neue Engineversionen DX12 als Minimum nutzen, um RT insgesamt zu pushen.
dildo4u
2019-12-22, 11:32:55
Warthunder bekommt Ray Traced Global Illumination,die High End Version kommt 2020.
https://warthunder.com/en/news/6523-development-better-graphics-for-the-northern-wind-update-en
Gaston
2019-12-25, 09:13:25
Weder noch.
Raytracing besteht aus mehreren Schritten, und der erste davon ist die Oberfläche zu finden die der Ray schneidet (üblicherweise die nächste).
Genau das hat Nvidia in Hardware abgebildet, die "RT-Kerne" sind nichts anderes als ein in Hardware gegossener Suchalgorithmus im BVH-Tree.
Alle weiteren Schritte laufen auch bei Nvidia ganz normal in den Shaderkernen.
Die logische Schlussfolgerung: GPUs sind ausgesprochen schlecht darin, diesen von dir genannten Arbeitsschritt auszuführen. Andernfalls hätte man diesen Aufwand nicht betrieben.
Es ist ja allgemein bekannt, dass Ray Tracing maßgeblich durch die Speicherzugriffszeit limitiert wird. Die Tensor Cores sind vermutlich notwendig, weil Nvidia die Oberflächensuche aus Latenzgründen nicht auf die CPU auslagern kann.
Interessant zu wissen ist jetzt natürlich, ob die next-gen Konsolen so eine (und vielleicht auch andere) Berechnung, die bei Hybrid Ray Tracing anfallen, dank APU-Bauweise auf der CPU ausführen können. Gegebenenfalls ließe sich der großzügig bemessene L3 Cache von Zen2 für eben diesen Zweck sogar an die integrierte rDNA2 GPU anbinden.
Die logische Schlussfolgerung: GPUs sind ausgesprochen schlecht darin, diesen von dir genannten Arbeitsschritt auszuführen. Andernfalls hätte man diesen Aufwand nicht betrieben.
So ist es. GPUs profitieren seit jeher von hoher Datenlokalität.
Weil beim Rasterizing wird ja Dreieck für Dreieck gerendert, und wenn ein Pixel eines Dreiecks gerendert wird ist logischerweise die Wahrscheinlichkeit sehr hoch, dass das nächste Pixel zum gleichen Dreieck gehört, und man damit den Großteil der benötigten Daten dafür schon hat.
Bei der eigentlichen Strahlenverfolgung ist das aber in vielen Fällen nicht der Fall. Je nachdem was man machen will schießt man ja nachdem der Primary Ray das Polygon gefunden hat weitere Rays vom Schnittpunkt ab, und diese auch mehr oder weniger zufällig, was dann natürlich auch unvorhersehbar auf andere Polygone trifft.
Raytracing kann dir damit die Cacheeffizienz extrem verringern.
Turing hat deshalb auch nicht bloß die RT-Kerne sondern ist als Gesamtkonzept auf Raytracing ausgelegt, unter anderem durch wesentliche Vergrößerung verschiedenster Caches innerhalb der GPU.
Der Aufwand der expliziten RT-Kerne ist auch gar nicht so wahnsinnig groß, wenn man die Turings mit und ohne RT vergleicht kann man abschätzen, dass diese wohl maximal 10% Die-Size kosten.
Die RT-Kerne in Turing sind quasi kleine Hilfsprozessoren, vergleichbar mit den TMUs für die Texturen. Beide werden wenn benötigt von den eigentlichen Shader-Prozessoren für bestimmte Aufgaben eingesetzt, und können eben ihr Spezialgebiet deutlich effizienter Durchführen als die generischen Shader-Prozessoren.
Gaston
2019-12-26, 08:40:03
Sehr interessant. Danke.
Raytracing kann dir damit die Cacheeffizienz extrem verringern.
Ich kann mich an einen Versuch erinnern, bei dem die Effizienz eines Computersystems in verschiedenen Ray-Tracing-Szenen ermittelt wurde.
Bei steigender Komplexität der Szene kam es unweigerlich zu Cache Thrashing.
Interessant war vor allen Dingen, dass der Großteil des Systemverbrauchs, nämlich mehr als 60%, aufgrund der unzähligen Cache Misses auf den DRAM zurückzuführen war. Der Stromverbrauch durch die Computing-Logik war hingegen verschwindend gering.
Die Anforderungen an den DRAM waren in diesem Versuchsaufbau ohnehin brutal: Es wurden riesige Mengen an Bandbreite benötigt, um die Daten schnellstmöglich bereit zu stellen. Im Falle eines Cache Misses zählte aber auf einmal nur noch die geringstmögliche Speicherlatenz. Von der Energieeffizienz ganz zu schweigen.
Es gibt derzeit nur einen Speichertyp, der high-bandwith low-latency DRAM bietet und das ist HBM. Gleichzeitig hat HBM einen um 40% geringeren Stromverbrauch als GDDR. Die neue Xbox setzt bekanntermaßen auf GDDR6. Vielleicht geht Sony die Sache ja ein wenig anders an.
HBM wurde ursprünglich entwickelt, um Systeme mit Storage Class Memory zu ergänzen. So einen selbstentwickelten SCM wird Sony laut eigenen Angaben bereits 2020 in Form des X-Point ReRam auf den Markt bringen und dieser wird günstiger sein als NAND Flash.
Einer der Gründe, warum offline Ray Tracing auf CPUs durchgeführt wird, ist der vielfach größere Speicherpool im Vergleich zum schnellen VRAM einer Grafikkarte. Alles was vom Laufwerk kommen muss, ist quasi unbrauchbar. Mit SCM könnte man sämtliche Texturen eines Spiels jederzeit vorhalten und bei Bedarf in den HBM laden.
dargo
2019-12-26, 12:01:35
Wie schafft es eigentlich ein Spiel wie Beyond Two Souls ohne RT so gute Reflektionen so günstig zu liefern? Meine Navi 10 braucht dort in 1440p rund 1/4 bis 1/3 der normalen Verlustleistung von 150W für 60fps. :freak:
https://abload.de/thumb/beyondtwosouls_2019_11jk44.jpg (https://abload.de/image.php?img=beyondtwosouls_2019_11jk44.jpg) https://abload.de/thumb/beyondtwosouls_2019_1dgk71.jpg (https://abload.de/image.php?img=beyondtwosouls_2019_1dgk71.jpg)
Mir ist klar, dass die Shader hier kaum gefordert werden. Dennoch finde ich das erstaunlich. Das Game kam ursprünglich 2013 für die alten Konsolen.
pixeljetstream
2019-12-26, 12:05:51
Einer der Gründe, warum offline Ray Tracing auf CPUs durchgeführt wird, ist der vielfach größere Speicherpool im Vergleich zum schnellen VRAM einer Grafikkarte. Alles was vom Laufwerk kommen muss, ist quasi unbrauchbar.
out of core memory handling ist allerdings genauso ein essentieller Teil für CPU raytracer: https://www.yiningkarlli.com/projects/hyperiondesign/hyperiondesign.pdf
Ganz so schlecht sind gpus im Vergleich zu cpus auch ohne rtx im raytracing nicht. Sonst gäbe es nicht seit Jahren diverse kommerzielle renderer, bzw. open-source. Man sieht auch Engagement der Film Studios in dem Bereich.
anorakker
2019-12-26, 12:24:44
Wie schafft es eigentlich ein Spiel wie Beyond Two Souls ohne RT so gute Reflektionen so günstig zu liefern? Meine Navi 10 braucht dort in 1440p rund 1/4 bis 1/3 der normalen Verlustleistung von 150W für 60fps. :freak:
https://abload.de/thumb/beyondtwosouls_2019_11jk44.jpg (https://abload.de/image.php?img=beyondtwosouls_2019_11jk44.jpg) https://abload.de/thumb/beyondtwosouls_2019_1dgk71.jpg (https://abload.de/image.php?img=beyondtwosouls_2019_1dgk71.jpg)
Mir ist klar, dass die Shader hier kaum gefordert werden. Dennoch finde ich das erstaunlich. Das Game kam ursprünglich 2013 für die alten Konsolen.
Die angezeigten Polygone kann man ja fast an einer Hand abzählen, was soll da jetzt sonderlich fordernd sein?
Wie schafft es eigentlich ein Spiel wie Beyond Two Souls ohne RT so gute Reflektionen so günstig zu liefern?
Weil diese hier sichtbaren Reflexionen eigentlich gar keine sind.
Was hier gemacht wird, ist ganz einfach den Raum 2x nebeneinander zu Rendern, und das was wie der Spiegel aussieht ist einfach ein Fenster in den 2. Raum.
Das ist eine ganz alte Technik und ging sogar schon vor den ersten echten 3D-Engines, ich glaube in Doom oder Duke Nukem.
Das hat logischerweise auch einige Einschränkungen. Beispielsweise kann sich ein derartiger "Spiegel" nur am Rand des Levels befinden.
dargo
2019-12-26, 13:10:14
Immerhin mehr Polygone als in einem Quake 2. :rolleyes:
pixeljetstream
2019-12-26, 15:20:48
Falls es nicht im Scherz gemeint war: eine begrenzte Zahl planarer Spiegel war noch nie ein Problem für rasterization.
Mir ist klar, dass die Shader hier kaum gefordert werden. Dennoch finde ich das erstaunlich. Das Game kam ursprünglich 2013 für die alten Konsolen.
Hier sieht man übrigens auch schön eine Limitierung der eingesetzten Technik.
Die weißen Flächen sind keine Spiegel, weil ansonsten hättest du einen Spiegel der wieder in einem Spiegel dargestellt wird, und das ist mit Rasterizing nicht vernünftig möglich.
dargo
2019-12-27, 15:31:55
Das stimmt natürlich... Spiegel in Spiegel wird dann zum Problem.
Nein, Turing hat keine "umgelabelten normalo Shader". DXR ist ein Standard den AMD jederzeit implementieren könnte. Nvidias HW-Einheiten können überhaupt nichts verhindern.
Guter Punkt. Wie wird das denn sein, wenn AMD morgen sagt, dass Software-DXR im Treiber unterstützt wird? Irgendwie glaube ich nicht daran, dass bestehende "RTX"-Spiele dann einfach mit Radeons zusammenarbeiten. Bestimmt ist da etwas hard-coded, zumindest bei manchen Spielen. GPU Vendor-ID Check oder sowas. Wie viel geschieht denn da in Richtung NVAPI? Und dann ist da noch NGX, das wohl für DLSS benötigt wird. Es wäre klasse, wenn man das mal jemand aufdröseln könnte, der schon damit gearbeitet hat. =)
Ich kann mich an einen Versuch erinnern, bei dem die Effizienz eines Computersystems in verschiedenen Ray-Tracing-Szenen ermittelt wurde.
Bei steigender Komplexität der Szene kam es unweigerlich zu Cache Thrashing.
Interessant war vor allen Dingen, dass der Großteil des Systemverbrauchs, nämlich mehr als 60%, aufgrund der unzähligen Cache Misses auf den DRAM zurückzuführen war. Der Stromverbrauch durch die Computing-Logik war hingegen verschwindend gering.
Die Anforderungen an den DRAM waren in diesem Versuchsaufbau ohnehin brutal: Es wurden riesige Mengen an Bandbreite benötigt, um die Daten schnellstmöglich bereit zu stellen. Im Falle eines Cache Misses zählte aber auf einmal nur noch die geringstmögliche Speicherlatenz. Von der Energieeffizienz ganz zu schweigen.
Es gibt derzeit nur einen Speichertyp, der high-bandwith low-latency DRAM bietet und das ist HBM. Gleichzeitig hat HBM einen um 40% geringeren Stromverbrauch als GDDR. Die neue Xbox setzt bekanntermaßen auf GDDR6. Vielleicht geht Sony die Sache ja ein wenig anders an.[...]
Wie wohl die Radeon VII mit ihren 1 TByte/s abschneiden würde? :naughty: Nun, keine RT-Kerne ...
Falls es nicht im Scherz gemeint war: eine begrenzte Zahl planarer Spiegel war noch nie ein Problem für rasterization.
Schöne Planar Reflections sieht man auch in Hitman 2 und WoW. Dabei wird aus Performance-Gründen auch "gecheatet", beispielweise sieht man bei WoWasserflächen die Gebirgsketten, aber keine Bäume und sonstige Mini-Assets.
MfG
Raff
gravitationsfeld
2019-12-27, 18:11:19
Guter Punkt. Wie wird das denn sein, wenn AMD morgen sagt, dass Software-DXR im Treiber unterstützt wird? Irgendwie glaube ich nicht daran, dass bestehende "RTX"-Spiele dann einfach mit Radeons zusammenarbeiten. Bestimmt ist da etwas hard-coded, zumindest bei manchen Spielen. GPU Vendor-ID Check oder sowas. Wie viel geschieht denn da in Richtung NVAPI? Und dann ist da noch NGX, das wohl für DLSS benötigt wird. Es wäre klasse, wenn man das mal jemand aufdröseln könnte, der schon damit gearbeitet hat. =)
Waere ne ziemliche Scheiss-Nummer von Entwicklern Vendor-Lock-Ins zu programmieren wenn sie einfach nur DXR verwenden.
Gaston
2019-12-27, 19:06:34
Wie wohl die Radeon VII mit ihren 1 TByte/s abschneiden würde? :naughty: Nun, keine RT-Kerne ...
Garantiert besser als die GCN-Karten mit GDDR5.
Soweit ich informiert bin, profitiert die INT8 Leistung maßgeblich von besseren Speicherzugriffszeiten. Genau deswegen werden TPUs für professionelle Einsatzzwecke ja auch mit HBM und nicht mit GDDR RAM kombiniert.
Daher wäre es ja spannend von jemandem zu hören, der schon damit gearbeitet hat.
Denn wenn dann doch für die Umsetzung diverse Nvidia Bibliotheken genutzt werden, die selber einen Lock beinhalten oder intern an DXR vorbei auf Funktionen zugreifen, dann können AMD und Intel damit natürlich nichts anfangen.
Und es wäre ja bei Nvidia auch nicht das erste mal, dass sowas zum Marketing gehört.
SaschaW
2019-12-27, 23:14:42
Guter Punkt. Wie wird das denn sein, wenn AMD morgen sagt, dass Software-DXR im Treiber unterstützt wird? Irgendwie glaube ich nicht daran, dass bestehende "RTX"-Spiele dann einfach mit Radeons zusammenarbeiten. Bestimmt ist da etwas hard-coded, zumindest bei manchen Spielen. GPU Vendor-ID Check oder sowas. Wie viel geschieht denn da in Richtung NVAPI? Und dann ist da noch NGX, das wohl für DLSS benötigt wird. Es wäre klasse, wenn man das mal jemand aufdröseln könnte, der schon damit gearbeitet hat. =)
Unter Vulkan wird das Ganze über eine Extension aktiviert. Sobald die jemand implementiert, wird die Funktion auf der entsprechenden GPU laufen. Analog zu OpenGL prüfen Programme da nicht auf Vendor- oder GPU-IDs, sondern auf das Vorhandensein der Extension. Man schaut halt ob die Extension da ist, und wenn ja kann man davon ausgehen das RTX da ist und man nutzt es. Aktuell ist das halt eine Extension die mit NV geprefixt ist, aber das hat auch unter OpenGL keine (anderen) IHVs davon abgehalten eine Extension zu implementieren. Es gibt einige NV-Extensions die auch bei AMD angeboten werden und vice versa. Selbiges für Intel-Extensions.
Wenn AMD das also möchte, können die VK_NV_ray_tracing implementieren und dann wird das da laufen wo die Extension abgefragt und aktiviert wird.
Aktuell arbeitet man bei Khronos eh an einer herstellerunabhängigen Extension für Ray Tracing, die vermutlich recht nah an der von NV sein wird. Ich gehe deshalb nicht davon aus dass AMD (oder Intel *hust*) da vorher was implementieren.
pixeljetstream
2019-12-28, 08:01:07
Titan V nutzt HBM (hat aber auch deutlich größere Caches) und schlägt sich bekanntlich ganz gut.
Diese Ergebnisse sind leider ohne sie
https://techgage.com/article/blender-2-80-viewport-rendering-performance/
Aber eine R7 ist dabei und kann einmal glänzen.
Alle Benchmarks waren ohne rtx/rt-core Benutzung. Deren Auswirkung kann man hier sehen:
https://code.blender.org/2019/07/accelerating-cycles-using-nvidia-rtx/
Wobei das ganze ja nicht direkt Real-Time ist, ergo shading komplexer als in Spielen.
Wie Sascha schreibt ist die standardisierte Vulkan Version in Entwicklung. Alle Hersteller beteiligen sich dort sehr aktiv (bin selbst dabei). Deswegen ist's nur ne Frage der Zeit bis wir die Implementierungen anderer Hersteller sehen.
gravitationsfeld
2019-12-28, 08:21:47
AMD hat mir gesagt, dass sie die NV-Extension nicht unterstützen werden. Wir brauchen die KHR-Extension. Wird langsam echt Zeit.
danarcho
2019-12-28, 09:35:50
Waere ne ziemliche Scheiss-Nummer von Entwicklern Vendor-Lock-Ins zu programmieren wenn sie einfach nur DXR verwenden.
Stimmt, wäre es. So wie bei Crysis 3, das 20% besser performt, wenn die GPU als Nvidia gefakt wird, scheint es trotzdem nicht überall angekommen zu sein, dass man Extensions (oder was auch immer DX benutzt) abfragen sollte.
Ich denke, bei Vulkan würden wir die NV extension implementieren wenn (a) die KHR ext nah genug dran ist und (b) mindestens ein spiel profitiert. Aber oft genug wenn schon Hersteller extensions verwendet werden, sind es gleich mehrere.
pixeljetstream
2019-12-28, 10:39:46
Da DX keine offiziellen Extensions hat, geht's da leider nicht ohne nvapi/AMD Intel equivalent. Wobei die von dxvk meist nun generisch abgebildet werden, da vk diese features meist nativ hat.
Guter Punkt. Wie wird das denn sein, wenn AMD morgen sagt, dass Software-DXR im Treiber unterstützt wird? Irgendwie glaube ich nicht daran, dass bestehende "RTX"-Spiele dann einfach mit Radeons zusammenarbeiten.
RTX ist die Implementierung von DXR als teil von Gameworks und das ist Nvidia-Exklusiv.
dargo
2019-12-28, 22:00:22
Die angezeigten Polygone kann man ja fast an einer Hand abzählen, was soll da jetzt sonderlich fordernd sein?
Hier hast du paar Beispiele mit neueren Technik.
https://abload.de/thumb/detroitbecomehuman_202ajy3.jpg (https://abload.de/image.php?img=detroitbecomehuman_202ajy3.jpg) https://abload.de/thumb/detroitbecomehuman_20m9kyj.jpg (https://abload.de/image.php?img=detroitbecomehuman_20m9kyj.jpg) https://abload.de/thumb/detroitbecomehuman_2007jwx.jpg (https://abload.de/image.php?img=detroitbecomehuman_2007jwx.jpg) https://abload.de/thumb/detroitbecomehuman_20syj0r.jpg (https://abload.de/image.php?img=detroitbecomehuman_20syj0r.jpg)
Geiler ist der Rundspiegel am Anfang des Spiels bzw. der Demo. Dort, wo der Befehlshabende sitzt. ;) Einfach eine Textur, die zwar rudimentär den Raum drumherum "spiegelt", aber dennoch nur eine Textur. Wie die meisten anderen Reflexionen des Spiels. Planar, Render to texture, Cube Map, SSR: Ich glaube, da kommt alles mal vor. Fakes über Fakes, für die es nun eine Alternative gäbe. :)
MfG
Raff
-=Popeye=-
2019-12-29, 01:28:12
Warum wird denn hier über diverse Spiegelungen in Game XY diskutiert?
Sowas gab es schon viel früher, klar RayTracing ist was anderes.
zoqKVx6CYDc
Sind wir doch mal ehrlich, auch wenn geschummelt sieht doch es fantastisch aus. Ich bin echt gespannt was uns die neuen Consolen auf den Schirm zaubern.
Mr. Lolman
2019-12-29, 08:42:01
Das hat logischerweise auch einige Einschränkungen. Beispielsweise kann sich ein derartiger "Spiegel" nur am Rand des Levels befinden.
Nö. Schon bei Duke Nukem 3D konnte man Sektoren überlagern.
Die weißen Flächen sind keine Spiegel, weil ansonsten hättest du einen Spiegel der wieder in einem Spiegel dargestellt wird, und das ist mit Rasterizing nicht vernünftig möglich.
Sowas hab ich bisher auch noch nicht mit RT gesehen.
dargo
2019-12-29, 08:44:38
Geiler ist der Rundspiegel am Anfang des Spiels bzw. der Demo. Dort, wo der Befehlshabende sitzt. ;) Einfach eine Textur, die zwar rudimentär den Raum drumherum "spiegelt", aber dennoch nur eine Textur. Wie die meisten anderen Reflexionen des Spiels. Planar, Render to texture, Cube Map, SSR: Ich glaube, da kommt alles mal vor. Fakes über Fakes, für die es nun eine Alternative gäbe. :)
Mir ist es sche... egal ob Fakes oder keine Fakes solange es gut aussieht und ich keine Diashow bekomme. Apropo SSR, die SSRs in Detroit: Bekome Human dürften zu den schönsten und vorallem effizientesten gehören.
https://abload.de/thumb/2019.12.28-20.5478j60.jpg (https://abload.de/image.php?img=2019.12.28-20.5478j60.jpg) https://abload.de/thumb/2019.12.28-18.45pjkxm.jpg (https://abload.de/image.php?img=2019.12.28-18.45pjkxm.jpg) https://abload.de/thumb/2019.12.28-18.48_027nj76.jpg (https://abload.de/image.php?img=2019.12.28-18.48_027nj76.jpg)
Zumindest wenn ich mir den mickrigen Verbrauch meiner Navi 10 dabei anschaue.
Auch die Darstellung der Charaktere oder die Mimik sucht ihrens gleichen.
https://abload.de/thumb/detroitbecomehuman_20fojeg.jpg (https://abload.de/image.php?img=detroitbecomehuman_20fojeg.jpg) https://abload.de/thumb/detroitbecomehuman_20v4j7e.jpg (https://abload.de/image.php?img=detroitbecomehuman_20v4j7e.jpg) https://abload.de/thumb/detroitbecomehuman_20bzk6l.jpg (https://abload.de/image.php?img=detroitbecomehuman_20bzk6l.jpg) https://abload.de/thumb/detroitbecomehuman_20zkj0y.jpg (https://abload.de/image.php?img=detroitbecomehuman_20zkj0y.jpg) https://abload.de/thumb/detroitbecomehuman_20a2jv7.jpg (https://abload.de/image.php?img=detroitbecomehuman_20a2jv7.jpg) https://abload.de/thumb/detroitbecomehuman_20g4k2w.jpg (https://abload.de/image.php?img=detroitbecomehuman_20g4k2w.jpg)
Es gibt imho zig andere Baustellen in heutigen Games die einen wesentlich größeren Einfluss auf die Grafikqualität haben als Korrektheit von Schatten, Licht, Spiegelungen. Wie ich schon mehrmals sagte... die Zeit für RT in Hardware ist noch nicht reif. Kommt in Zukunft potentere Hardware kommt auch RT.
Fragman
2019-12-29, 09:44:39
Das sind Spezialfälle wie hier schon oft erwähnt wurde und mit dem, was RT kann, nicht vergleichbar. Bei komplexeren Oberflächen ist das vorbei, bei diffusen Materialien ist das vorbei, das läßt sich also nicht übertragen.
Und natürlich ist die Zeit reif, das zeigen die Beispiele die es schon gibt. Einmal was RT angeht und zum anderen die zig Beispiele mit SSR, das einfach nicht funktioniert und soviele Artefakte erzeugt, das ich persönlich lieber drauf verzichte.
dargo
2019-12-29, 10:22:33
Und natürlich ist die Zeit reif, das zeigen die Beispiele die es schon gibt.
Die wären? Metro Exodus zählt für mich nicht. Die haben immer noch nicht den Gamma Bug ohne RT behoben. Böse Zungen würden behaupten es ist pure Absicht. Control ist schwierig. Das implementierte SSR ist grausam und völlig ineffizient. Ist schwer einzuschätzen da es genug Softwaremüll auf dem Markt gibt.
Troyan
2019-12-29, 10:25:38
Zeige doch mal in Detroit Reflektionen in vertikalen Scheiben. Oh wait, gibt es nicht. Alles ist nur horizontal auf dem Boden. Dazu reflektiert in den Raytracing-Games alles in verschiedenen Materialen 360°. Das sind Lichtjahre von den 08/15 SSRs in heutigen Spielen.
Aber gut, wer mal wieder Geld in 2013 Technik investiert hat und von vornerein schon von grafischen Optionen ausgeschlossen ist, der muss auch dauernd hier mitteilen, wie unwichtig bessere Grafik ist.
Kenne ich aus den letzten Jahren. Spiele wieder The Witcher 3 und Hairworks ist einfach fantastisch, wie vor 4 1/2 Jahren. Da haben die selben AMD Leute die selbe Propaganda-Schiene gefahren.
Fragman
2019-12-29, 10:30:22
Das implementierte SSR ist grausam und völlig ineffizient..
Sowas liest man ja immer, nur, wo sind die guten Beispiele?
Alle Games, die ich bisher gespielt hab, sehen einfach nicht gut aus mit SSR. Das funktioniert im Standbild für bestimmte Kameraperspektiven, geht aber kaputt, sobald man sich bewegt und endet dann in Artefakten, die auch mal das ganze Bild einnehmen können.
Und ja, man kann das auch ohne RT rendern, generell, nur ist der Aufwand dann wohl viel zu hoch und implementiert hat man so eine tech bisher auch nicht. Das Voxeltracing hat man ja aufgegeben, bevor es überhaupt genutzt wurde. Bis auf Crytek und selbst dort sieht man die Detailprobleme, die sich ja nicht lösen lassen, ohne das die Performance ganz im Eimer ist. Da machen ein paar mehr Hardwareeinheiten einfach mehr Sinn. Aber das hab ich hier auch schon einmal geschrieben. Ist am Ende halt eine reine Aufwandskostenfrage.
robbitop
2019-12-29, 10:36:54
Transparente Spiegelungen (wie in Fensterscheiben) gehen auch nicht richtig.
dargo
2019-12-29, 10:37:25
Sowas liest man ja immer, nur, wo sind die guten Beispiele?
Hatte ich letzte Seite geschrieben... Detroit: Become Human. Hier könnte natürlich die eingeschränkte Führung der Kamera eine entscheidende Rolle spielen. Was sollts, funktioniert bestens.
Aber gut, wer mal wieder Geld in 2013 Technik investiert hat und von vornerein schon von grafischen Optionen ausgeschlossen ist, der muss auch dauernd hier mitteilen, wie unwichtig bessere Grafik ist.
Kenne ich aus den letzten Jahren. Spiele wieder The Witcher 3 und Hairworks ist einfach fantastisch, wie vor 4 1/2 Jahren. Da haben die selben AMD Leute die selbe Propaganda-Schiene gefahren.
Du hast es immer noch nicht kapiert oder? Aber was will man von dir schon erwarten.
Zeige doch mal in Detroit Reflektionen in vertikalen Scheiben. Oh wait, gibt es nicht. Alles ist nur horizontal auf dem Boden.
Gibt es auch... bsw. an dem vorbei fahrenden Zug.
MkmVsCj1xEQ
Bei dir hat man schon lange das Gefühl du hast ein großes Problem damit wenn Nvidia ihre Finger in diversen Games nicht hat. Und gleichzeitig ein Witcher 3 von 2015 in die Diskussion zu bringen hat schon wieder was von Comedy.
btw.
Mal sollte hierbei auch nicht vergessen, dass bei Detroit: Become Human der kleinste Nenner @PS4 mit ihren poppeligen 1,84 TFLOPs im Fokus stand.
Mr. Lolman
2019-12-29, 11:12:35
Kenne ich aus den letzten Jahren. Spiele wieder The Witcher 3 und Hairworks ist einfach fantastisch, wie vor 4 1/2 Jahren. Da haben die selben AMD Leute die selbe Propaganda-Schiene gefahren.
Eigentor: Hairworks rennt auch wunderbar auf der CPU. ;D
pixeljetstream
2019-12-29, 11:17:38
@dargo, nur weil die Einschränkungen der Technik in einigen Titeln nicht zum Problem werden, heißt das nicht das sie nicht existieren. Wie fragman schrieb, wenn Du ordentliche Beleuchtung umsetzen willst, brauchst du eine globale Lösung. Die vergangenen Techniken orientierten sich ja auch immer an dem was die Hardware an Möglichkeiten hergibt, nun gibt es neue, die sich eher an dem orientieren was wir von der computergrafik mit raytracing gewohnt sind um diese Defizite zu umgehen. Es klingt für mich wie ein Umdrehen der Logik, als würdest Du sagen die älteren Techniken waren das "Ziel", weil es gut genug aussieht, aber deren Vereinfachungen sind das Resultat weil es nicht anders ging.
Das Ziel der globalen Beleuchtung ist bekannt, wir versuchen immer mit der zur Verfügung stehenden Technik da so nah ran zu kommen wie möglich. Dieser Prozess steht niemals still. Bei Raytracing weiß man wie man das Shading realistisch umsetzt, das problem ist "nur" es schnell zu machen.
dargo
2019-12-29, 11:28:18
@pixeljetstream
Ich habe das Gefühl wir reden aneinander vorbei. Hübsche Grafik macht bei mir noch lange nicht ausschließlich Raytracing. Es ist nur ein neues Werkzeug welches noch einen ordentlichen Boost braucht. Mehr gibt es dazu eigentlich nicht zu sagen. Den nächsten Grafiksprung erwarte ich ab Ende 2020 wo als Target die nächsten Konsolen im Fokus stehen. Und auch das liegt nicht nur an RT.
Monsta
2019-12-29, 11:42:00
Für mich als Endkunde ist es egal wie die Qualität erreicht wird.
Detroit sieht auf der Ps4 Pro sehr gut aus, und die Hardware ist schon sehr alt.
Da stellt man neuere Techniken auf Gpus die mindestens das dreifache an Transistoren haben in Frage.
Das liegt sicher auch daran das Rt ist games mehr reingefrickelt wird.
Wenn die PS5 hardware RT hat, wird sich bestimmt einiges ändern.
pixeljetstream
2019-12-29, 11:42:20
@dargo
Wenn du es auch als neues Werkzeug anerkennst, warum dann die Infragestellung der Technik? Warum dein post von wegen "spiegel gehen auch ohne raytracing", in einem thread wo es um den fortschritt von real-time raytracing geht? Wenn dann der Rest schreibt dass es nicht um Spiegel etc. geht, und du immer einen nachschiebst, dann entsteht schon der Eindruck dass Du absichtlich die Argumente der anderen ignorierst.
dargo
2019-12-29, 12:05:44
Wo stelle ich die Technik in Frage? Das einzige was ich in Frage stelle sind aktuell die Kosten vs. Ergebnis. Dass wir an RT in Zukunft nicht vorbei kommen dürfte jedem klar sein. Die Frage ist nur wann ist es für jeden Spieler bezahlbar? Auch halte ich nicht besonders viel von diesem angeflaschten RT, also das was aktuell passiert. Wenn die Entwickler von vorne rein bei der Umsetzung von Effekt XY nur an RT denken und die konventionelle Methode komplett fallen lassen, erst dann bin ich der Überzeugung, dass es auch sehr gut umgesetzt wird. Und besonders letzteres wird noch viele Jahre dauern. Bis dahin ist es noch ein langer, langer Weg.
AffenJack
2019-12-29, 12:06:19
@dargo
Wenn du es auch als neues Werkzeug anerkennst, warum dann die Infragestellung der Technik?
Weil der falsche Hersteller da gerade vorne liegt. Dargo ist sonst der größte Verfechter von neuen Sachen, aber nur wenn es gut für den "richtigen" Hersteller ist. Z.B. DX12, Lowlevel.
Wo stelle ich die Technik in Frage? Das einzige was ich in Frage stelle sind aktuell die Kosten vs. Ergebnis.
LOL das kannst du doch garnicht beurteilen.
dargo
2019-12-29, 12:18:28
Da stellt man neuere Techniken auf Gpus die mindestens das dreifache an Transistoren haben in Frage.
Das liegt sicher auch daran das Rt ist games mehr reingefrickelt wird.
Wenn die PS5 hardware RT hat, wird sich bestimmt einiges ändern.
Eben. Allerdings frage ich mich wie man das ab Ende 2020 lösen will? Bei Exklusives für die PS5 ist es ja kein Problem. Bei Multiplattform inkl. PC wirds halt schwierig. Ich meine RT-Effekte nur über RT-Hardware wäre finanzieller Selbstmord.
Weil der falsche Hersteller da gerade vorne liegt. Dargo ist sonst der größte Verfechter von neuen Sachen, aber nur wenn es gut für den "richtigen" Hersteller ist. Z.B. DX12, Lowlevel.
Der nächste Komiker... ohne DX12/Vulkan kein RTX. :rolleyes:
robbitop
2019-12-29, 12:23:20
Weil der falsche Hersteller da gerade vorne liegt. Dargo ist sonst der größte Verfechter von neuen Sachen, aber nur wenn es gut für den "richtigen" Hersteller ist. Z.B. DX12, Lowlevel.
Das ist etwas zu dünn und einseitig. DX12 und Lowlevel bringen Performance und kosten keine Transistoren. Ich tippe darauf, dass er kritisiert dass RT relativ teuer ist (fps) und Transistoren kostet, die hätten mehr Rohleistung bringen können.
Am Ende kann das jeder sehen wie er will. Beide Seiten haben so ihre Punkte in denen sie Recht haben.
Ich sehe es mittlerweile so, dass RT ein neues Werkzeug ist, dass irgendwann eingeführt werden muss, wenn man die Grafikqualität weitersteigern will. Mittelfristig wird es nicht mehr wegzudenken sein.
pixeljetstream
2019-12-29, 12:35:10
Wo stelle ich die Technik in Frage? Das einzige was ich in Frage stelle sind aktuell die Kosten vs. Ergebnis. Dass wir an RT in Zukunft nicht vorbei kommen dürfte jedem klar sein. Die Frage ist nur wann ist es für jeden Spieler bezahlbar? Auch halte ich nicht besonders viel von diesem angeflaschten RT, also das was aktuell passiert. Wenn die Entwickler von vorne rein bei der Umsetzung von Effekt XY nur an RT denken und die konventionelle Methode komplett fallen lassen, erst dann bin ich der Überzeugung, dass es auch sehr gut umgesetzt wird. Und besonders letzteres wird noch viele Jahre dauern. Bis dahin ist es noch ein langer, langer Weg.
Okay das liest sich imo anders und ich sehe das ähnlich mit der Übergangsphase und bin auch gespannt was die Konsolen dann bringen an Leistung.
AffenJack
2019-12-29, 12:39:52
Eben. Allerdings frage ich mich wie man das ab Ende 2020 lösen will? Bei Exklusives für die PS5 ist es ja kein Problem. Bei Multiplattform inkl. PC wirds halt schwierig. Ich meine RT-Effekte nur über RT-Hardware wäre finanzieller Selbstmord.
Wird alles am Anfang nur angeflansht, vor allem solange man noch die PS4/Xbox One mitzieht. Sobald es pur Next-Gen wird, kann man auch die PCler ohne RT Hardware einfach weglassen und nur auf RT setzen. Oder man reduziert zwischenzeitlich den Aufwand für non-RT immer mehr, so dass die Beleuchtung ohne RT einfach Rückschritte machen wird. Wird aber natürlich etwas dauern.
Der nächste Komiker... ohne DX12/Vulkan kein RTX. :rolleyes:
Jupp, das ist auch gut so. Aber selbst nach zig Jahren DX12/Vulkan hab ich da noch nix gesehen, was irgendwie besonders im Vergleich zu DX11 wäre oder atemberaubend performt. (Wolfenstein, Doom performen zwar gut, aber ich seh da nix besonderes, was mit DX11 nicht so gehen würde). Dazu war es mit DX12 am Anfang noch deutlich holpriger und es waren viel weniger Games vertreten, als jetzt schon mit RT kommen. Trotzdem wäre es dir da nie in den Sinn gekommen krampfhaft zeigen zu wollen wie DX11 nicht viel schlechter ist (wie es einige versucht haben). Bei RT dagegen bist da natürlich gleich ganz vorne:wink:.
Gibt es auch... bsw. an dem vorbei fahrenden Zug.
https://youtu.be/MkmVsCj1xEQ
Eben nicht, die Fenster in dem vorbeifahrenden Zug sind nicht transparent, wie es echte Fenster wären, weil das mit der eingesetzten Technik nicht geht.
Man kann durchaus auch mit anderen Techniken sehr gute Spiegelungen darstellen.
Man könnte beispielsweise auch in Echtzeit geupdatete Cubemaps einsetzen, das würde sehr gut aussehen und könnte auch Spiegelungen von Objekten außerhalb des Bildschirms darstellen, sowie auch auf transparenten Objekten. Nur Spiegelungen in Spiegelungen gingen damit immer noch nicht.
Das Problem, mit all diesen "Fake-Techniken" ist aber, wenn sie wirklich in jeder Situation richtig gut aussehen sollen, werden diese auch schnell sehr teuer. Deshalb bedient man sich in der Realität meist schnellen Vereinfachungen, wie statische Cubemaps, angereichert mit SSR, oder ähnlichem. Das kann auch gut aussehen, zeigt aber eben in Grenzbereichen oft auch Probleme.
Das Problem ist aber, dass eben diese Probleme das Leveldesign einschränken. Ein guter Leveldesigner weiß wie und wann Probleme auftreten und baut sein Level eben so, dass diese möglichst niemals sichtbar sind.
Das fehlende Raytracing schränkt in vielen Fällen die Freiheit der Leveldesigner ein, das Spiel so zu gestalten wie er will.
Auch sind Spiegelungen auch nur eine Möglichkeit für den Einsatz von Raytracing und meiner Meinung der unwichtigste. Weil wenn man die Einschränkungen im Leveldesign in kauf nimmt, kann man mit bisherigen Techniken wirklich sehr schöne Grafik erzeugen, ohne dass es real groß auffällt.
Viel wichtiger finde ich da beispielsweise GI und Schatten.
Ich hab noch keine Shadow Mapping Technik gesehen, die es wirklich vernünftig schafft, glaubhaft darzustellen wie Schatten weicher werden je weiter diese vom schattenwerfenden Objekt entfernt sind, und die die es annähernd schaffen kosten auch schon extrem viel Performance.
Und Global Illumination mit wechselnden Lichtbedingungen sind auch nie wirklich glaubhaft.
Es gibt sicher auch einige Spiele, wie z.B. Control, die auf Raytracing angewiesen sind, damit die Spiegelungen gut aussehen, aber fast jedes Spiel würde von RT-Schatten und RT-GI sehr stark profitieren.
Und natürlich ist die Zeit reif, das zeigen die Beispiele die es schon gibt. Einmal was RT angeht und zum anderen die zig Beispiele mit SSR, das einfach nicht funktioniert und soviele Artefakte erzeugt, das ich persönlich lieber drauf verzichte.
Wobei SSR eigentlich quasi sowas wie Raytracing ist, nur wird das Raytracing hier nicht im 3D-Raum durchgeführt, sondern aufgrund der errechneten Oberflächennormalen im 2D-Screen.
dargo
2019-12-29, 13:23:17
Wird alles am Anfang nur angeflansht, vor allem solange man noch die PS4/Xbox One mitzieht. Sobald es pur Next-Gen wird, kann man auch die PCler ohne RT Hardware einfach weglassen und nur auf RT setzen.
Und wer soll dann die Games auf der PC-Plattform kaufen? Die ~5-10% mit RTX? :freak: Ich habe zwar global keine Zahlen was RTX angeht, der Anteil dürfte aber verschwindend gering sein. Das wäre der nächste Untergang der PC-Plattform. Es sei denn du meinst noch viele Jahre in Zukunft. Ich sag nur so viel... DX11 kam vor 10 Jahren und wir haben heute immer noch nicht durchgängig DX12/Vulkan Games am PC.
In Enthusiastenkreisen (https://extreme.pcgameshardware.de/quickpolls/556992-welche-grafikkarte-nutzt-du-derzeit-zum-spielen-q4-2019-a.html) sind bereits ~22,5 Prozent der Leute "enabled", verfügen also über RT(X)-Hardware. Sicher, PCGH ist nur eine Stichprobe und gewiss sehr High-End-lastig. Im Gesamtmarkt sind das Promille. Aber wir sind ja unter uns - im 3DCenter dürfte es genauso aussehen wie bei PCGH, und das nicht nur weil viele Leute in beiden Foren unterwegs sind. :D
MfG
Raff
dargo
2019-12-29, 13:39:22
Wen interessiert Deutschland? Wir hier genießen noch den Luxus vom guten Einkommen, betrachte das global. Laut Steam ist eine GTX1060 immer noch weit vorne. Ich weiß, Steam ist eine relativ blöde Quelle. Wenn jemand bessere hat nur her damit.
Macht denn echt keine große US-Site (oder sonstwo) Umfragen? :confused: Das wäre hilfreich. Echte Marktforschung gäbe es nicht umsonst.
MfG
Raff
dargo
2019-12-29, 13:48:05
Keine Ahnung. Ich kenne nichts wo schön aufgebröselt ist wie viele Stückzahlen im jeweiligen Preissegment abgesetzt werden.
AffenJack
2019-12-29, 14:56:46
Und wer soll dann die Games auf der PC-Plattform kaufen? Die ~5-10% mit RTX? :freak: Ich habe zwar global keine Zahlen was RTX angeht, der Anteil dürfte aber verschwindend gering sein. Das wäre der nächste Untergang der PC-Plattform. Es sei denn du meinst noch viele Jahre in Zukunft. Ich sag nur so viel... DX11 kam vor 10 Jahren und wir haben heute immer noch nicht durchgängig DX12/Vulkan Games am PC.
So schnell wird das natürlich nicht gehen, aber Ende nächsten Jahres/Anfang 2021 dürften sowohl Nvidia als auch AMD ein Top to Bottom RT Lineup haben. Crossgen Titel wird es auch noch eine gute Zeit lang geben, nachdem die Konsolen nächstes Jahr launchen. Gab ja mal den Twitterpost von dem einen Nv Ing. der schätzte, dass 2023 der erste AAA Titel kommt, der RT vorraussetzt und wo auch nen AMD Typ dann zugestimmt hat.
Da gehts dann um die pure Abwägung:
Ich hab zb RT Global Illumination für die Konsolen und RT PC, designe ich also nur für Lower-End Pcs alles nochmal mit Shadow Maps? Der gesamte Designaufwand dürfte so teuer sein, dass es sich da mehr lohnt diesen Teil der PCler einfach fallen zu lassen.
Ich bin ja gespannt, ob Nvidia für exklusive Geschichten sorgen wird. Man will ja mindestens ältere Spiele im Stile von Quake II RT-remastern. Die Frage ist, was Nvidia davon hat, sobald auch AMD RT-Hardware am Markt hat. Bundle Games? Exklusive Effekte in Spielen à la PhysX? :confused:
MfG
Raff
Daredevil
2019-12-29, 15:07:58
Ist AMD nicht eigentlich meilenweit entfernt von Nvidia, wenn es in Richtung Raytracing geht?
Ich meine klar, ne doppelte 5700xt kann ne 2080ti schlagen ( Milch und so ), aber man muss ja obendrauf noch Raytracing in Hardware einpflanzen, das ist doch sicherlich ein immenses Problem, vor dem AMD steht, oder nicht ?
Nvidia ist ja den "sicheren" Weg gegangen und hat RT eingepflanzt in ihrer neuen Generation, ohne riesige große Leistungssprünge zu machen, AMD muss beides in einem Schritt machen.
Mehr Power, wenig Verbrauch UND "überflüssige" RT Hardware. Sicherlich kein einfaches Vorhaben.
PS: Und das ganze noch im Konsolen Faktor, wo jeder Euro zuviel ist. :X
Klingt für mich Laie jetzt erstmal unmöglich, oder Qualitativ beschissen.
Langlay
2019-12-29, 15:35:53
Ist AMD nicht eigentlich meilenweit entfernt von Nvidia, wenn es in Richtung Raytracing geht?
Ich meine klar, ne doppelte 5700xt kann ne 2080ti schlagen ( Milch und so ), aber man muss ja obendrauf noch Raytracing in Hardware einpflanzen, das ist doch sicherlich ein immenses Problem, vor dem AMD steht, oder nicht ?
Nvidia ist ja den "sicheren" Weg gegangen und hat RT eingepflanzt in ihrer neuen Generation, ohne riesige große Leistungssprünge zu machen, AMD muss beides in einem Schritt machen.
Mehr Power, wenig Verbrauch UND "überflüssige" RT Hardware. Sicherlich kein einfaches Vorhaben.
PS: Und das ganze noch im Konsolen Faktor, wo jeder Euro zuviel ist. :X
Klingt für mich Laie jetzt erstmal unmöglich, oder Qualitativ beschissen.
Ich glaub hier siehst du arg schwarz. AMD wird DXR schon umgesetzt kriegen, da hab ich wenig Sorgen. Und die Konsolen werden ja nicht gezwungen RT zu unterstützen. Das ist ja ne freiwillige Entscheidung das Feature dazu zuholen. Und das Feature hat dann halt seinen Preis.
Daredevil
2019-12-29, 15:43:25
Ja das mag sein, aber was spricht denn dagegen, dass ich nicht so schwarz sehen sollte? ^^
Woran machst du fest, dass du wenig Sorgen hast?
dargo
2019-12-29, 15:46:29
So schnell wird das natürlich nicht gehen, aber Ende nächsten Jahres/Anfang 2021 dürften sowohl Nvidia als auch AMD ein Top to Bottom RT Lineup haben.
Und du glaubst ernsthaft AMD und Nvidia werden bis runter in den 150€ Bereich (von mir aus 200€ Bereich) bis dahin RT in Hardware haben? Träumen darf man ja. :tongue: Vor allem wie performant stellst du dir das dann vor? Wir haben heute RTX in Hardware am Desktop bei Grakas für 300+€. Das ist erst der Einstieg, denn mit den mickrigen TFLOPs einer RTX2060 kommt du selbst heute nicht weit. Wie soll das dann erst bei den neuen Next-Gen Games aussehen?
Gab ja mal den Twitterpost von dem einen Nv Ing. der schätzte, dass 2023 der erste AAA Titel kommt, der RT vorraussetzt und wo auch nen AMD Typ dann zugestimmt hat.
Mal davon ab, dass ich daran noch so meine Zweifel habe (da muss man erstmal schauen wie sich der Markt bis dahin entwickelt) ist das noch lange in der Zukunft. Wir reden hier immerhin von bis zu 4 Jahren. Ende 2023/2024 könnte schon der "Refresh" der neuen Konsolen anstehen.
Linmoum
2019-12-29, 15:51:25
Ja das mag sein, aber was spricht denn dagegen, dass ich nicht so schwarz sehen sollte? ^^
Woran machst du fest, dass du wenig Sorgen hast?
Die Frage ist eher, woran du das festmachst, nachdem es bisher noch keine konkreten Anhaltspunkte dafür gibt, wie AMDs Hardware-Implementierung von RT überhaupt aussehen wird. ;)
Dass es bereits nächstes Jahr soweit ist zeigt hingegen, dass sie ebenfalls schon sehr lange daran arbeiten und gearbeitet haben.
Ist AMD nicht eigentlich meilenweit entfernt von Nvidia, wenn es in Richtung Raytracing geht?
Nicht unbedingt.
Raytracing ist ja nichts neues wo man jetzt Grundlagenforschung betreiben müsste.
Die Algorithmen sind ja bekannt, und diese in Hardware zu gießen ist jetzt nicht das schwierigste.
Wo Nvidia vermutlich einen Vorsprung hat der nicht so einfach einholbar ist, ist eher.
Sind eher die Supportfeatures, wie AI-Basiertes DLSS.
Daredevil
2019-12-29, 16:42:02
Die Frage ist eher, woran du das festmachst, nachdem es bisher noch keine konkreten Anhaltspunkte dafür gibt, wie AMDs Hardware-Implementierung von RT überhaupt aussehen wird. ;)
Dass es bereits nächstes Jahr soweit ist zeigt hingegen, dass sie ebenfalls schon sehr lange daran arbeiten und gearbeitet haben.
Das habe ich doch dargelegt?
Raytracing in Hardware nimmt Platz weg, Platz(Marge) den AMD aktuell nicht hat, da sie in 7nm auf Augenhöhe sind mit Nvidia bei 12nm, welche Raytracing mit auf dem Package haben.
Also entweder entscheidet sich AMD für Rohleistung und stellt RT hinten an, oder sie entscheiden sich für RT und stellen Rohleistung hinten an.
In erster Stelle schlagen sie Nvidia, weil die schon das RT "Handycap" mitschleppen, in zweiter Stelle sind sie dann in der ungünstigen Lage, weil ihnen vorgeworfen wird, nicht mehr Leistung zu bieten.
Beides, also deutlich mehr Leistung UND nützliches RT in 1st Gen würden mich stark überraschen, da AMD halt nicht die Ressourcen hat und auch gar nicht der Technologietreiber sein will, um Geld zu verdienen. Navi ist ja auch nun mal kein Wunderprodukt, sondern tatsächlich einfach "nur" sehr solide.
Es sei denn natürlich, sie bekommen ordentlich Knowhow von Microsoft und Sony bezahlt und lernen damit, ihre Desktop Sparte ebenfalls zu füllen.
PS: Schwarz sehe ich nicht, ich bin da eher realistisch. Ich würde mir durchaus wünschen, wenn AMD Nvidia mal kräftig in den Arsch tritt, aber die haben irgendwie mehr in der Hinterhand als Intel. :<
dargo
2019-12-29, 16:51:35
Das habe ich doch dargelegt?
Raytracing in Hardware nimmt Platz weg, Platz(Marge) den AMD aktuell nicht hat, da sie in 7nm auf Augenhöhe sind mit Nvidia bei 12nm, welche Raytracing mit auf dem Package haben.
Hast du schon mal die Die Sizes verglichen? :freak: Kannst auch gerne von 7nm auf 12nm hochrechnen. Außerdem wurde schon lange dargelegt, dass RT in Hardware gar nicht so viel Fläche kostet. Der große Anteil kommt durch die aufgeblasenen SMUs die für RT auch notwendig sind. Ansonsten wäre das noch langsamer als es jetzt schon ist. Und nicht zuletzt schleppt RTX Turing die unnützen Tensorcores mit sich rum. Außerhalb von DLSS habe ich für diese keinen Einsatz bisher gesehen.
Also entweder entscheidet sich AMD für Rohleistung und stellt RT hinten an, oder sie entscheiden sich für RT und stellen Rohleistung hinten an.
Auch Quatsch denn ohne genug Rohleistung keine vernünftige RT-Performance. Das wird auch der Grund sein warum TU116/117 kein RT in Hardware haben.
Troyan
2019-12-29, 17:22:51
Hatte ich letzte Seite geschrieben... Detroit: Become Human. Hier könnte natürlich die eingeschränkte Führung der Kamera eine entscheidende Rolle spielen. Was sollts, funktioniert bestens.
Du hast es immer noch nicht kapiert oder? Aber was will man von dir schon erwarten.
Jeder weiß, warum du hier schreibst. Und es funktioniert in Detroit? Aha, aber vielleicht findest du den Fehler im Bild:
https://abload.de/thumb/detroitbecomehuman_20prks4.png (https://abload.de/image.php?img=detroitbecomehuman_20prks4.png)
Und zum Vergleich Deliver us the Moon:
https://abload.de/thumb/moonman-win64-shippinv9krs.png (https://abload.de/image.php?img=moonman-win64-shippinv9krs.png)
Mehr muss man eigentlich hier auch nicht sagen.
Daredevil
2019-12-29, 17:36:27
Hast du schon mal die Die Sizes verglichen? :freak:
Jap.
AMDs kleiner 7nm DIE kostet leicht weniger als Nvidia großer 12nm DIE mit RTX bei nahezu gleicher Performance.
Jetzt rate doch mal, was passieren wird, wenn ne 5700xt Raytracing dazu bekommt. Ich gebe dir einen Tipp, ich meine damit den Preis.
Ich meine, das kann man ja machen, weil du sagst ja schon, es kostet "kaum Fläche" und Nvidia macht ja vor, dass es auch genug Performance sind. :D
Ex3cut3r
2019-12-29, 17:56:53
Natürlich wird AMD im GPU Sektor weiterhin abstinken. Selbst mit einem Prozess Vorsprung sind Sie nicht in der Lage auch nur mal an der Leistungskrone zu kratzen. Und von RT braucht man gar nicht zu reden, da hat Nvidia auch nochmal einen Vorsprung auf Jahre hinaus. Jeder der etwas anderes behauptet, sollte Mal die Augen öffnen.
Linmoum
2019-12-29, 18:00:27
Selbst mit einem Prozess Vorsprung sind Sie nicht in der Lage auch nur mal an der Leistungskrone zu kratzen.Ein 251mm² Chip kann nicht mit einem 754mm² Chip mithalten. Sachen gibt's.
Und von RT braucht man gar nicht zu reden, da hat Nvidia auch nochmal einen Vorsprung auf Jahre hinaus. Jeder der etwas anderes behauptet, sollte Mal die Augen öffnen.Du scheinst von Entwicklungszyklen nicht den blassesten Schimmer zu haben.
Ex3cut3r
2019-12-29, 18:02:45
Es sind mittlerweile fast 2 Jahre seit Turing? Wo ist AMDs RT?
Wo ist der 2080 TI Konkurrent?
Man muss sich nur die FP32-Einheiten ansehen. AMD hat es mit Navi bisher vermieden, direkt anzugreifen. Da kam bisher nur Kleinkram. Warum auch immer. Angst vor zu viel Ruhm und Lieferengpässen, oder so. :ugly: Man kann Navi und Turing pro Einheit und Takt gut vergleichen. Mit 5.120 ALUs (doppelter Navi 10) wäre die Titan RTX kein Problem, milchmädchenhaft extrapoliert. Alles schön verdoppeln und ab geht die Party. Halt ohne RT, aber wer das braucht, kann auch eine RTX kaufen.
MfG
Raff
Monsta
2019-12-29, 18:29:59
Ich denke AMD wollte keinen Ti Killer bringen, hätte sich finanziell villeicht nicht gelohnt.
Aber das ein 251mm2 Chip in der Performanceregion zwischen Tu106 und Tu104 liegt, die zwischen 450 und 550mm2 groß sind, hat ja wohl Nvidia technologisch Rückstand.
Ich gehe stark davon aus, das Amd den Chip sehr lange bauen wird. Nvidia wird froh sein diese Brecher lieber früher als später aus dem Programm nehmen zu können, und durch 7mn Produkte ersetzen.
danarcho
2019-12-29, 19:05:42
Angst vor zu viel Ruhm und Lieferengpässen, oder so. :ugly:
Definitiv Ruhm! :D
Im Ernst, das mit den Lieferengpässen könnte reinspielen. 7nm wird auch für Ryzen gebraucht, und das ist die sicherere Bank momentan.
Zum Thema: Ich finde es gut, dass AMD sich Zeit lässt. Erstens ist dann der Standard schon recht klar und zweitens hat man nicht einen legacy Schnellschuß am Bein, den man zich Jahre im Treiber pflegen muss, falls sich die Lösung doch als weniger gut rausstellt.
Und nicht zuletzt schleppt RTX Turing die unnützen
Tensorcores mit sich rum. Außerhalb von DLSS habe ich für diese keinen Einsatz bisher gesehen.
Die Tensorcores sind nichts anderes als spezialisierte FP16-Einheiten, und die berechnen auch in "normalen" Shadern die FP16 Befehle.
Dadurch kann Turing nicht nur FP16 mit doppelter Geschwindigkeit sondern auch FP16 gleichzeitig mit FP32.
Der Shaderkern bei Turing hat 3 Blöcke, 1x INT32, 1x FP32 und 1x FP16/Tensor. Der Scheduler kann dabei pro Takt an 2 der 3 Blöcke aufgaben verteilen.
dargo
2019-12-29, 19:46:11
Und zum Vergleich Deliver us the Moon:
https://abload.de/thumb/moonman-win64-shippinv9krs.png (https://abload.de/image.php?img=moonman-win64-shippinv9krs.png)
Seit wann spielst du Grafik von 2013? X-D
Es sind mittlerweile fast 2 Jahre seit Turing? Wo ist AMDs RT?
Wo ist der 2080 TI Konkurrent?
15 Monate sind bei dir fast 2 Jahre? :freak: Wo der 2080TI Konkurrent ist? Genau dort wo die 1000+€ Konsolen sind. Nirgends... weils die meisten Gamer nicht interessiert.
Edit:
Recht passend zum Thema... RT als Gamechanger. ;D
Oe37xKHlQHM
Daredevil
2019-12-29, 20:30:46
Vielleicht sind große 7nm Chips halt auch arschteuer und deswegen stark unwirtschaftlich. Ein doppelt so großer Chip kostet aufgrund der Fehleranfälligkeit ja mehr als doppelt soviel, deswegen trennt und presst AMD ja auch alles in winzige DIEs und hantiert mit Chiplets.
Ein 7nm DIE ist deutlich winziger, aber halt gleich teuer. Das ist weder Fort- noch Rückschritt als Kunde.
Dem ist es doch egal, ob die Kiste 250mm2 hat oder 550mm2, wenn die Kiste das gleiche liefert, gleich kostet und gleich viel verbraucht.
Und RT kostet halt dem Kunden direkt Geld. Geld, welches der sparsame AMD Kunde erstmal ausgeben soll.
PS: 2019 war ziemlich lahm für RTX Käufer. :<
Edit:
Recht passend zum Thema... RT als Gamechanger. ;D
https://youtu.be/Oe37xKHlQHM
Also das Video zeigt das eindeutig, selbst mit der grauenhaften Youtube-Kompression.
Das Lighting in Metro sieht ja mal dermaßen beschissen aus, nachdem man die RTX-Version einmal gesehen hat.
Guter Punkt. Wie wird das denn sein, wenn AMD morgen sagt, dass Software-DXR im Treiber unterstützt wird? Irgendwie glaube ich nicht daran, dass bestehende "RTX"-Spiele dann einfach mit Radeons zusammenarbeiten. Bestimmt ist da etwas hard-coded, zumindest bei manchen Spielen. GPU Vendor-ID Check oder sowas. Wie viel geschieht denn da in Richtung NVAPI? Und dann ist da noch NGX, das wohl für DLSS benötigt wird. Es wäre klasse, wenn man das mal jemand aufdröseln könnte, der schon damit gearbeitet hat. =)
[...]
MfG
Raff
Zu der Frage hatten sich doch die Entwickler von DICE schon geäußert:
https://www.tomshardware.com/news/battlefield-v-ray-tracing,37732.html
GeForce RTX owners should get the option to turn ray tracing off. However, there is no DXR (DirectX Ray Tracing) fallback path for emulating the technology in software on non-RTX graphics cards. And when AMD comes up with its own DXR-capable GPU, DICE will need to go back and re-tune Battlefield V to support it.
Holmquist clarifies, “…we only talk with DXR. Because we have been running only Nvidia hardware, we know that we have optimized for that hardware. We’re also using certain features in the compiler with intrinsics, so there is a dependency. That can be resolved as we get hardware from another potential manufacturer. But as we tune for a specific piece of hardware, dependencies do start to go in, and we’d need another piece of hardware in order to re-tune.”
Ist kein vendor lock-in im eigentlichen Sinne, aber Abhängigkeiten kriechen "von ganz allein" in den Code.
https://www.dsogaming.com/news/battlefield-5-real-time-ray-tracing-effects-exclusive-to-nvidia-devs-will-have-to-add-support-for-amds-new-gpus/
So let’s assume that AMD is late to the party and releases a GPU that is capable of real-time ray tracing via DXR in 2020. If DICE is busy with its next Battlefield game, those AMD owners will not be able to enjoy these ray tracing effects from the get-go. Holmquist made it crystal clear that DICE will have to add support for them. And since DICE is a big company, that may happen but what about other smaller teams like those behind Enlisted, Assetto Corsa Competizione and Atomic Heart? Are they also using ray tracing effects in such a way that they depend on NVIDIA’s hardware?
Damit werden AMD-Benutzer also voraussichtlich leben müssen, aber erstens war Ihnen ja RT nicht so wichtig (ist ja meistens bei AMD-Käufern wirklich so) und zweitens gibt es ja auch wieder neue Spiele.
robbitop
2019-12-30, 09:28:23
Es sind mittlerweile fast 2 Jahre seit Turing? Wo ist AMDs RT?
Wo ist der 2080 TI Konkurrent?
Einen Kalender kannst du schon nutzen? Turing launchte im September 2018. Das sind keine 2 Jahre.
AMDs RT wird wohl mit Navi 2 (2020 GPUs und Konsolen) kommen. Ein TU102 Konkurrent hat sich für AMD im Geschäftsmodell offenbar nicht gelohnt. Dazu kommt, dass man die knappen 7nm Kapazitäten für Epyc brauchte (der eine wesentlich bessere Marge als jede Endkunden GPU bringt und somit mehr Gewinn ins Unternehmen bringt - das ist notwendig dass AMD sich weiter erholen kann - ein starkes AMD wird für uns alle gut sein* - also mittelfristig die richtige Entscheidung)
Was hatte man bisher von RT? Wenig. Sehe das Problem nicht.
*Allerdings brauchen wir Enduser ein starken starken Wettbeweber. Ansonsten sinkt P/L in´s Bodenlose. Seit der 5700XT ist zumindest alles an GPUs bis 400€ echt ok in der Hinsicht und darüber wird es unschön. Hatten wir im CPU Markt vor Ryzen auch. Monopol führt zum Melken der Konsumenten.
anorakker
2019-12-30, 10:27:40
Es wäre ja schön gewesen wenn AMD wenigstens mal eine Karte gebaut hätte, die schneller als eine uralte 1080TI ist.
Ex3cut3r
2019-12-30, 10:51:30
Gab es mal, ist aber EOL, hieß Radeon 7. Ansonsten gibt es noch die 5700XT die aber nicht ganz daran kommt IMO.
Werkseitig aufgemotzte Modelle der XT, die knapp 2.000 MHz erreichen, liegen in FHD und WQHD vor der Seven (Speicherfresser ausgenommen). Das ist angesichts des Rohleistungsunterschieds beachtlich, allerdings nix Weltbewegendes. In Ultra HD ist die VII im Radeon-Vergleich meist ungeschlagen.
Zu der Frage hatten sich doch die Entwickler von DICE schon geäußert:
https://www.tomshardware.com/news/battlefield-v-ray-tracing,37732.html
GeForce RTX owners should get the option to turn ray tracing off. However, there is no DXR (DirectX Ray Tracing) fallback path for emulating the technology in software on non-RTX graphics cards. And when AMD comes up with its own DXR-capable GPU, DICE will need to go back and re-tune Battlefield V to support it.
Holmquist clarifies, “…we only talk with DXR. Because we have been running only Nvidia hardware, we know that we have optimized for that hardware. We’re also using certain features in the compiler with intrinsics, so there is a dependency. That can be resolved as we get hardware from another potential manufacturer. But as we tune for a specific piece of hardware, dependencies do start to go in, and we’d need another piece of hardware in order to re-tune.”
Ist kein vendor lock-in im eigentlichen Sinne, aber Abhängigkeiten kriechen "von ganz allein" in den Code.
https://www.dsogaming.com/news/battlefield-5-real-time-ray-tracing-effects-exclusive-to-nvidia-devs-will-have-to-add-support-for-amds-new-gpus/
So let’s assume that AMD is late to the party and releases a GPU that is capable of real-time ray tracing via DXR in 2020. If DICE is busy with its next Battlefield game, those AMD owners will not be able to enjoy these ray tracing effects from the get-go. Holmquist made it crystal clear that DICE will have to add support for them. And since DICE is a big company, that may happen but what about other smaller teams like those behind Enlisted, Assetto Corsa Competizione and Atomic Heart? Are they also using ray tracing effects in such a way that they depend on NVIDIA’s hardware?
Damit werden AMD-Benutzer also voraussichtlich leben müssen, aber erstens war Ihnen ja RT nicht so wichtig (ist ja meistens bei AMD-Käufern wirklich so) und zweitens gibt es ja auch wieder neue Spiele.
Okay, also grundsätzlich kompatibel, aber mit Ansage unperformant (es sei denn, Navi "2" verhält sich beim RT genauso wie Turing). Vermutlich wird AMD die Architektur ähnlich anpassen, mit größeren Caches.
Aus Sicht der Kompatibilität ist es gut, dass niemand die Tensorkerne fürs Denoising verwendet, denn das wäre Nvidia-exklusiv und somit inkompatibel. Steckt hier ein Punkt, bei dem Nvidia in Zukunft punkten könnte: Denoising "for free" bzw. bei höherer Leistung via TC? Sogar bei Quake II RTX wird das anscheinend über die normalen ALUs gemacht, mit einem heftigen Leistungseinbruch von ca. 1/3 (ab hier im Video zu sehen (https://youtu.be/aEYxVmh31jw?t=588)).
MfG
Raff
robbitop
2019-12-30, 11:00:21
Es wäre ja schön gewesen wenn AMD wenigstens mal eine Karte gebaut hätte, die schneller als eine uralte 1080TI ist.
2020 sollen endlich Highend Modelle kommen mit RT. Ohne HW RT wäre es 2019 ggf ein zu großer PR Nachteilgewesen.
dargo
2019-12-30, 11:17:29
Aus Sicht der Kompatibilität ist es gut, dass niemand die Tensorkerne fürs Denoising verwendet, denn das wäre Nvidia-exklusiv und somit inkompatibel. Steckt hier ein Punkt, bei dem Nvidia in Zukunft punkten könnte: Denoising "for free" bzw. bei höherer Leistung via TC? Sogar bei Quake II RTX wird das anscheinend über die normalen ALUs gemacht, mit einem heftigen Leistungseinbruch von ca. 1/3 (ab hier im Video zu sehen (https://youtu.be/aEYxVmh31jw?t=588)).
Apropo RTX in Quake II. Ich habe jetzt erst entdeckt wie katastrophal die Performance dort vs. non RT ist. :eek:
LRwGMnQEF5k
Das muss man sich mal vorstellen... in 1080p bleibt bei einer 2080TI (was eh schon Witz genug bezüglich der Auflösung bei dieser Karte ist) weniger als 1/10 der ursprünglichen Performance übrig. WTF? :freak: Leider hat der Youtuber kein 1440p oder gar 4k ohne RT getestet. Der Einbruch dürfte noch stärker sein da die Karte sich ohne RT in 1080p total langweilt, siehe GPU-Auslastung und/oder GPU Taktrate.
anorakker
2019-12-30, 11:24:27
Gab es mal, ist aber EOL, hieß Radeon 7. Ansonsten gibt es noch die 5700XT die aber nicht ganz daran kommt IMO.
Wo und wann war die schneller? Mit good will war sie maximal gleich schnell.
Aber es ist eigentlich auch eine müssige Diskussion, AMD und NVidia scheissen eigentlich auf PC Gamer. AMD hat sich mit dem Mining Boom die Taschen voll gemacht und wird in Zukunft genug mit den Konsolen verdienen. Nvidia nutzt das voll aus und ruft einfach absurde Preise für ihre HW auf.
Ich sehe RT aktuell auch nur als Gimmick und das ist mit der mickrigen Performance was für die Zukunft. Deswegen hätte ich mir auch ne AMD Karte geholt, wenn sie denn wenigstens wieder brachiale Rohpower bringen würde (vor allem für VR!)
Fragman
2019-12-30, 11:36:28
Apropo RTX in Quake II. Ich habe jetzt erst entdeckt wie katastrophal die Performance dort vs. non RT ist. :eek:
Kann mich erinnern wie katastrophal die 32bit Performance damals war, trotzdem hat man es aktiviert. Das Argument ist so gesehen uninteressant, da der Mehrwert einfach überdeutlich ist (die, die sowas nicht interessiert, machen es eh aus). Aber die Diskussion ist alt und Du hast scheinbar den Anfang von 3D Karten und den "feature creep" dieser Jahre nicht mit gemacht? Ist wohl auch der Grund, weshalb ich die Argumente nicht verstehen kann. Giants damals hab ich teilweise mit 15 frames oder so gespielt, weil ich die Features nicht ausmachen wollte (dot3 bump und cubic env mapping). Dagegen laufen die RT Games wie Butter und das auch noch in 1440p. :D ;)
dargo
2019-12-30, 11:48:24
Früher war früher, heute ist heute. Früher musste man auch selbst auf die Jagd gehen, heute gehe ich in den Supermarkt.
Fragman
2019-12-30, 11:51:01
Deine Präferenz ist halt anders. Ich zb spiele Q2RTX mit 34 Frames (nach dem letzten Patch) in 1440p auf ner 2080 und hab damit keine Probleme. ;)
robbitop
2019-12-30, 11:54:24
Innovationen kosten nunmal. Besonders in der Pionierzeit. Ohne Pionierzeit aber auch keine Innovation. Und „später“ ist kein valider Weg weil die Kostem relativer Natur sind.
Ohne Shader könnte man heute wahrscheinlich Monster DX7 GPUs bauen mit 1-2 Größenordnung mehr Geometrie und Texturleistung.
Da da vielen Endnutzern der Weitblick dafür fehlt, wird das zum Glück von Profis entschieden wann welche Hardware verbaut wird.
AMD sieht es offenbar auch so. Sonst würde in der Nextgem Konsolen HW kein RT verbaut werden und in Navi 2 auch nicht. Intel beteiligt sich in den Gremien ebenfalls - also sehen sie es auch so.
Dampf
2019-12-30, 12:04:33
Aus Sicht der Kompatibilität ist es gut, dass niemand die Tensorkerne fürs Denoising verwendet, denn das wäre Nvidia-exklusiv und somit inkompatibel. Steckt hier ein Punkt, bei dem Nvidia in Zukunft punkten könnte: Denoising "for free" bzw. bei höherer Leistung via TC? Sogar bei Quake II RTX wird das anscheinend über die normalen ALUs gemacht, mit einem heftigen Leistungseinbruch von ca. 1/3 (ab hier im Video zu sehen (https://youtu.be/aEYxVmh31jw?t=588)).
MfG
Raff
Stimmt, die Performance-Einbuße allein vom Denoising ist schon heftig.
Nvidia zeigt ja zur Zeit mit Optix, dass die Tensor Kerne extrem gut beim Denoising sind, seltsam also, dass man die nicht in den Games verwendet.
Meine Vermutung ist, dass man das bisher über die ALUs macht, weil für DirectX derzeit noch keine ML-Plattform zur Verfügung steht. Bei Optix hat man ja dafür CUDA.
Im ersten Halbjahr nächstes Jahr soll DirectML zusammen mit DXR Tier 1.1 erscheinen, sollte sich meine Vermutung also bewahrheiten, könnte man dann die Tensor-Cores für RTX Denoising benutzen, was für einen merkbaren Leistungsschub bei RT sorgen könnte. Zusammen mit den DXR 1.1 features könnte das also, sobald die Games mit DXR 1.1 in mind entwickelt werden, den Leistungsverlust bei aktiviertem RT von Turing spürbar verringern.
Zur Zeit beträgt der Leistungsverlust bei aktiviertem RT in Control (was ja das volle Programm bietet) ungefähr 40%. Wenn wir Glück haben, bin jetzt mal optimistisch, könnte der Leistungsverlust mit all diesen Optimierungen nur noch 25-30% betragen, was schon eine merkliche Steigerung der FPS bedeutet.
Wenn Ampere dann noch kommt, wird sich das nochmal weiter verringern, eventuell sogar auf 10-15%. Dann hat man kaum noch Leistungseinbußen bei RT. Wäre schon ne coole Sache.
pixeljetstream
2019-12-30, 12:14:47
die gaming denoiser sind zum teil spezialisiert für schatten, etc. während der optix denoiser path tracing bilder als input erwartet und nicht auf gaming real-time ausgelegt ist (sondern professioneller Markt). Etwas anderer fokus. In der Tat hilft DirectML in zukunft, aber auch jetzt kann man per intrinsics tensor cores nutzen (gerade in Vulkan was q2rtx nutzt gibts die NV extension), oder halt per interop CUDA etc... DirectML zielt eher auf ganzheitliche Lösungen ala DLSS, animationssysteme... die dann von Entwicklern selber kommen.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.