Archiv verlassen und diese Seite im Standarddesign anzeigen : Real-time Raytracing
Seiten :
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
[
16]
17
18
The_Invisible
2023-07-16, 10:06:22
https://docs.unrealengine.com/5.2/en-US/hardware-ray-tracing-in-unreal-engine/
DrFreaK666
2023-07-16, 10:13:54
Ja gut, das erklärt nur die unterschiedlichen Techniken, aber nicht wieso man RTAO nicht durch RT Shadows ersetzen kann.
So gesehen sind RT Shadows ja nicht komplette Schatten bei der Szene, wenn man zusätzlich RTAO benötigt.
Nach meinem Verständnis müsste es möglich sein, dass RT Shadows RTAO ersetzt.
Wenn man es mir genau (!) erklären könnte, wieso man RT Shadows nicht erweitert um RTAO überflüssig zu machen, dann wäre ich sehr dankbar
Ex3cut3r
2023-07-16, 10:57:12
RT Shadows werden benutzt, wenn Rays von der Sonne/Mond, Schatten für Objekte bilden. RT AO wird in Verbindung mit GI genutzt (Bounced Light) für refletkionen und lights, die sonst keine Schatten hätten. Z.B. unter einem Auto.
1. Minute Google Suche, aber anscheind zu schwierig.
Wie schon gesagt, selber googeln?
https://abload.de/thumb/screenshot2023-07-161pcexi.png (https://abload.de/image.php?img=screenshot2023-07-161pcexi.png)
dildo4u
2023-07-16, 11:08:30
Ja gut, das erklärt nur die unterschiedlichen Techniken, aber nicht wieso man RTAO nicht durch RT Shadows ersetzen kann.
So gesehen sind RT Shadows ja nicht komplette Schatten bei der Szene, wenn man zusätzlich RTAO benötigt.
Nach meinem Verständnis müsste es möglich sein, dass RT Shadows RTAO ersetzt.
Wenn man es mir genau (!) erklären könnte, wieso man RT Shadows nicht erweitert um RTAO überflüssig zu machen, dann wäre ich sehr dankbar
Weil es teuer ist man backt das AO in die Level weil Ratchet feste Tageszeiten hat, die RT Schatten können dann den dynamischen Schatten der Figur erzeugen wenn sie z.b eine Fackel trägt.
Ich vermutet selbst Spider-Man 2 wird wieder feste Tageszeiten haben damit sie weiterhin ein 60fps Modus anbieten können.
DrFreaK666
2023-07-16, 11:37:57
Weil es teuer ist man backt das AO in die Level weil Ratchet feste Tageszeiten hat, die RT Schatten können dann den dynamischen Schatten der Figur erzeugen wenn sie z.b eine Fackel trägt...
Wie wird dann das AO berechnet, wenn man mit einer Fackel in den dunklen Bereich läuft, aber das AO gebaked ist?
Aus einem anderen Thread:
Wieso kann man RT Shadows nicht auch für AO nutzen?
In der Frage sind viele häufige Missverständnisse. Es ist eine sehr gute Frage, die aber eigentlich sehr viel Erklärung für eine Antwort bedarf :)
Erstmal Raytracing:
Raytracing ist im Grunde nicht mehr als ein Check, ob 2 Punkte im Raum sich gegenseitig sehen können. Wenn die Antwort nein ist, ist halt noch interessant, welches Objekt zwischen den 2 Punkten liegt und wo die Linie (optional: das erste/letzte Mal) zwischen den zwei Punkten das Objekt trifft.
Das wars. Alles andere sind Algorithmen, die Dinge aufbauend auf diesem Primitiv berechnen.
Man kann grundlegend zwischen zwei 2 Schattentypen unterscheiden: Direct Shadows und Indirect Shadows
Direct Shadows sind einfach. Du renderst einen Pixel an einem Punkt im Raum und du hast eine definierte Lichtquelle an einem anderen Punkt im Raum. Entweder befindet sich etwas zwischen dem Punkt und der Lichtquelle oder nicht. Ist deine Lichtquelle eine Punktlichtquelle, hast du harte Schatten, hat deine Lichtquelle ein Volumen, hast du weiche Schatten.
Unter RT Shadows versteht man normal die Berechnung von Direct Shadows mit Raytracing
Indirect Shadows sind komplizierter.
https://abload.de/img/indirectshadows6mfv3.jpg
Es sind Schatten, die entstehen, wenn das Licht nicht direkt von der Lichtquelle kommt, sondern zuerst von einer anderen Oberfläche reflektiert wird. Wenn zwischen dem Punkt mit der Reflexion und deinem gerenderten Punkt sich ein Objekt befindet, entsteht wieder ein Schatten.
Diese Schatten sind in der Regel relativ weich, weil das Licht von einer relativ großen Fläche reflektiert wird.
Ohne diesen Effekt wirken Regionen im Schatten sehr flach und undefiniert (Grüße an Forspoken), aber um ihn korrekt zu berechnen, braucht man eine gute Global Illumination Lösung.
Nun zu AO:
Ambient Occlusion entstand aus der Not heraus, dass die Berechnung von Indirect Shadows zu teuer ist, man aber trotzdem eine grobe Lösung braucht, um feine Details besonders in Regionen im Schatten sichtbar zu machen. Man kann nun relativ einfach die Beobachtung machen, dass Indirect Shadows entstehen, wenn in der direkten Umgebung der Raum verdeckt ist. In der Regel wird es dunkler, wenn mehr Verdeckung existiert.
Erklären lässt sich das auch einfach mit der allgemeinen Renderinggleichung, die sehr stark vereinfacht sagt, dass das ausgestrahlte Licht in eine bestimmte Richtung durch die Summe alles Lichtes aus der oberen Hemisphäre über dem Punkt entsteht, dass von dem Material an der Stelle reflektiert wird.
https://d3i71xaburhd42.cloudfront.net/c5f00985a7678e09a25f853766af2876c8c654f0/2-Figure1-1.png
Umso mehr von der Hemisphäre verdeckt ist, desto weniger Licht kommt in den meisten Fällen an.
https://www.ozone3d.net/tutorials/images/ambient_occlusion/occ_principle.jpg
AO ist eine billige Approximation, um diesen Effekt zu bekommen, indem man einfach den Prozentsatz der geometrischen Verdeckung berechnet. Allerdings kann die auch kräftig schiefgehen. Wird das verdeckende Objekt so beleuchtet, dass es Licht reflektieren würde, würde es in einer korrekten Simulation heller statt dunkler werden.
Um jetzt AO zu berechnen, braucht man im Endeffekt immer Raytracing. Man kann das Raytracing im Z-Buffer machen, der im Grunde eine Heightmap ist, und bekommt dann Screenspace AO. Das andere Extrem ist die Berechnung der Verdeckung durch Raytracing. Teuer aber exakt. Bleibt am Ende aber eine ungenaue Approximation.
Wie wird dann das AO berechnet, wenn man mit einer Fackel in den dunklen Bereich läuft, aber das AO gebaked ist?
Zusammen mit der Erklärung obendrüber: AO interessiert sich nicht für Lichtquellen. Ob man AO vorberechnen kann, hängt nur davon ab, ob die Geometrie dynamisch ist.
DrFreaK666
2023-07-16, 21:02:59
Danke für die Erklärung :up:
Ja gut, das erklärt nur die unterschiedlichen Techniken, aber nicht wieso man RTAO nicht durch RT Shadows ersetzen kann.
Man kann alle einzelnen RT-Effekte dadurch ersetzen dass man die komplette Szene Raytraced.
Siehe Cyberpunk Pathtraced, oder auch Portal RTX. Hier gibt es kein explizites AO, und auch keine explizite Schattenberechnung. Jegliche Beleuchtung und Schatten entstehen ganz "automatisch" als Resultat des Pathtracings.
Warum man AO, Schatten, Reflexionen etc. extra berechnet? Ganz einfach weil es deutlich billiger ist.
Man kann alle einzelnen RT-Effekte dadurch ersetzen dass man die komplette Szene Raytraced.
Du kannst auch die ganze Szene raytracen und nicht mal einen Schatten drin haben, weil man nach den Primary Rays aufgehört hat.
The_Invisible
2023-07-18, 19:54:23
Portal: Prelude RTX ist jetzt verfügbar, auch mit RTX-IO: https://store.steampowered.com/app/2410180/Portal_Prelude_RTX/
Du kannst auch die ganze Szene raytracen und nicht mal einen Schatten drin haben, weil man nach den Primary Rays aufgehört hat.
Dann hat man nicht die komplette Szene getraced, dafür kann man nicht nach den Primary rays aufhören.
Chris Lux
2023-07-19, 10:02:52
Awesome. Danke für den Hinweis!
Dann hat man nicht die komplette Szene getraced, dafür kann man nicht nach den Primary rays aufhören.
Was ist denn die Definition von "komplett getraced"?
Raytracing ist eine sehr primitive Operation. Wenn man Pathtracing meint, sollte man das auch so schreiben. Ansonsten gibt einen gigantisch großen Blumenstrauß an Algorithmen beim Rendering, die auch Raytracing nutzen.
Fragman
2023-07-19, 10:35:54
Ja, da herrscht oft Verwirrung.
Man kann die gesamte Szene tracen ohne Schatten oder shading.
Es geht erstmal nur darum, wie man die Informationen einer Szene ermittelt.
In dem Fall halt indem man Strahlen sendet um zu schauen was drin ist.
Half-Life 2 RTX, An RTX Remix Project - Announce Trailer
aM_gzfAMdNs
Half-Life 2 RTX: An RTX Remix Project is a new community-made remaster of one of the highest-rated games of all time, Valve’s Half-Life 2. Half-Life 2 RTX is being developed by four of Half-Life 2’s top mod teams, now known as Orbifold Studios. Using the latest version of RTX Remix, the modders are leveraging NVIDIA technologies including full ray tracing, NVIDIA DLSS 3, NVIDIA Reflex, and RTX IO to deliver a fantastic experience for GeForce RTX gamers. Take a first look at the announce trailer for Half-Life 2 RTX: An RTX Remix Project.
https://www.nvidia.com/en-us/geforce/news/half-life-2-rtx-remix-in-development/
Portal with RTX | Ray Reconstruction Off/On Comparison
M9yHtS8EoFg
Radeonfreak
2023-08-22, 15:09:54
Geil.
basix
2023-08-22, 15:28:38
HL2 RTX, geil :)
Mordekai2009
2023-08-22, 15:30:40
Hammer!
DrFreaK666
2023-08-22, 16:55:13
Läuft wahrscheinlich wieder wie Grütze auf Nicht-Geforces
Läuft wahrscheinlich wieder wie Grütze auf Nicht-Geforces
Dann sollten die Entwickler von Nicht-GeForces eben mal ordentliche RT-Hardware einbauen
Was ein Beschiss wieder mal von Nvidia! Beim original HL sind es die original Polygon Modelle und bei der RTX Version natürlich die aufgehübschten! LOL
basix
2023-08-23, 13:38:41
Und was ist das Problem? Besser aussehendes Spiel = Schlecht, oder was?
Zudem ist es ein Community Projekt...
redpanther
2023-08-23, 13:39:42
Was ein Beschiss wieder mal von Nvidia! Beim original HL sind es die original Polygon Modelle und bei der RTX Version natürlich die aufgehübschten! LOL
Naja, remix ist ja nicht nur "wir schalten mal RTX ein".
Wie ich verstanden habe, ist es ein Modding toolset auch für Testuren, Assets etc. Eben um ein altes game komplett zu Modernisieren.
Damit Raytracing richtig mit der Umgebung interagieren = geil aussehen kann, müssen die Materialien angepasst, also modernisiert werden.
MfG
Raff
Lurtz
2023-08-23, 15:59:50
Es suggeriert halt, als würde die gesamte Optik nur von RTX kommen, was nicht der Fall ist. Die Models, Materilien etc. wurden ja auch angepasst.
Wirkt ein wenig überinterpretiert. ;) Allerdings finde ich auch und generell schlimm, dass Nvidia weiterhin Vergleiche und Videos zwischen "RTX Off" und "RTX On" macht, denn das suggeriert "Raytracing = Nvidia". Bis Ende 2020 hat das gestimmt, seitdem nicht mehr.
MfG
Raff
redpanther
2023-08-23, 16:10:28
Wirkt ein wenig überinterpretiert. ;) Allerdings finde ich auch und generell schlimm, dass Nvidia weiterhin Vergleiche und Videos zwischen "RTX Off" und "RTX On" macht, denn das suggeriert "Raytracing = Nvidia". Bis Ende 2020 hat das gestimmt, seitdem nicht mehr.
MfG
Raff
Nennt sich Marketing Raff, das kann Nvidia schon sehr gut.
Für den DAU ist RTX das Uber-RT :biggrin:
The_Invisible
2023-08-23, 16:13:22
Naja, remix ist ja nicht nur "wir schalten mal RTX ein".
Wie ich verstanden habe, ist es ein Modding toolset auch für Testuren, Assets etc. Eben um ein altes game komplett zu Modernisieren.
Genauso ist es. Das einzig verwirrende ist das Nvidia fast alles RTX nennt obwohl mehr dahintersteckt, für mich ist RTX eigentlich auch nur der RT part. Aber gut, PR Leute habe und werde ich nie verstehen können
DrFreaK666
2023-08-23, 16:53:39
Für den DAU ist Gaming=Nvidia.
Viel schlimmer finde ich, wenn Youtuber RTX hinschreiben, wenn z.B. ein Spiel auf Konsole RT hat. Das hab ich auch schon gesehen.
Complicated
2023-08-23, 17:01:10
Ist halt ein "Tempo" - der größte Marketingerfolg, den sich ein Unternehmen an die Fahne schreiben kann, wenn der allgemeine Begriff durch die Marke ersetzt wird im Sprachgebrauch.
Grendizer
2023-08-23, 17:03:39
Ist halt ein "Tempo" - der größte Marketingerfolg, den sich ein Unternehmen an die Fahne schreiben kann, wenn der allgemeine Begriff durch die Marke ersetzt wird im Sprachgebrauch.
Nein... das ist ehrlich gesagtfür das Unternehmen eher schlecht, wenn das passiert, deshalb wehrt sich Lego so massiv, das es eben keine Legos und Legosteine sind, sondern Klemmbausteine sein müssen.
Complicated
2023-08-23, 17:31:04
Das hat eher was mit dem Kartellamt zu tun, das dann ein Monopol unterstellt bei Segmentierung ;)
Die Gefahr hatte weder Tempo, noch Nvidia mit RTX hier :)
Gibt immer einen Haken, auf den man achten muss ;P
Edit: So wird man Opfer seines eigenen Marketingerfolgs - der Erfolg bleibt dennoch.
Nein... das ist ehrlich gesagtfür das Unternehmen eher schlecht, wenn das passiert, deshalb wehrt sich Lego so massiv, das es eben keine Legos und Legosteine sind, sondern Klemmbausteine sein müssen.
Das wäre/ist für Nvidia überhaupt nicht schlecht.
Das schlimmste was Nvidia passieren könnte wäre, dass man die Marke RTX nicht mehr exklusiv verwenden darf.
Nur ist RTX bereits dermaßen mit nvidia verbunden, dass jeder der die Bezeichnung benutzen würde, im Endeffekt gratis Werbung für Nvidia machen würde.
Transistoryland
2023-08-24, 18:59:58
Hallo das ist mein erster Beitrag hier im Forum weil ich einen Entwickler entdeckt habe der aufzeigt was aktuell möglich ist beim Raytracing.
Momentan haben alle Raytracing Versuche in Spielen eine hybride Engine als Basis und der Begriff Path-Tracing wird recht großzügig ausgelegt.
Die folgenden Beispiele zeigen reines Path-Tracing in Echtzeit ohne einen Funken Rasterei. Der Kanal gehört einem Grafik Entwickler von Wargaming.
Laut ihm ist das ganze Material auf einer RTX 3080 mobile gerendert worden.
Soweit man sehen kann werden hier auch schon Härtefälle in Angriff genommen wie Animationen, durchsichtige Materialien, Innenräume,
Vegetation und Wolken.
FLLFobydhis
ooBk3dDCTj0
NER_UusR2OU
yMt6AqclKI8
Rooter
2023-08-24, 21:12:51
Sorry für blöde Frage: Welche Engine ist das? UE5?
MfG
Rooter
qu3x^
2023-08-25, 02:22:33
Sorry für blöde Frage: Welche Engine ist das? UE5?
MfG
Rooter
Dürfte die Wargaming Engine oder was Eigenes sein. https://twitter.com/VrKomarov
Transistoryland
2023-08-25, 08:34:57
Sorry für blöde Frage: Welche Engine ist das? UE5?
MfG
Rooter
Das hat der selber programmiert. Eine klassische Engine macht auch keinen Sinn weil er 100% Path Tracing betreibt. Man muss das wie V-Ray oder OctaneRender betrachten.
Im vergleich dazu ist UE5 ein Flickwerk an verschiedenen Techniken und sieht auch entsprechend schlechter aus.
The_Invisible
2023-08-25, 09:02:25
Alan Wake 2 macht Lust auf mehr
rVLEWq8bgQA
Im vergleich dazu ist UE5 ein Flickwerk an verschiedenen Techniken und sieht auch entsprechend schlechter aus.
Auch mit UE5 kann man 100% Pathtracing betreiben und damit ein qualitativ vergleichbares Niveau erreichen. Vermutlich ist allerdings eine Engine die nur auf Pathtracing ausgelegt ist und den anderen Ballast nicht mitschleppen muss effizienter.
Transistoryland
2023-08-25, 15:45:57
Auch mit UE5 kann man 100% Pathtracing betreiben und damit ein qualitativ vergleichbares Niveau erreichen. Vermutlich ist allerdings eine Engine die nur auf Pathtracing ausgelegt ist und den anderen Ballast nicht mitschleppen muss effizienter.
Die UE5 hat eine Path Tracer eingebaut der allerdings mehrere Sekunden braucht bis ein Bild gerendert ist und dann doch eher in den offline Bereich gehört.
Lumen scheint auch zu enttäuschen was die Performance angeht.
Die RTX Lösungen welche von Nvidia in die Rasterengines gestopft werden können auch nicht so recht über die low poly Assets und mäßigen Materialshader hinwegtäuschen.
Cyberpunk ist da so ein Beispiel.
Troyan
2023-08-26, 12:19:38
Ihr müsst mal die nVidia Videos zu Cyberpunk und Alan Wake 2 Abends auf einem vernünftigen Display oder Fernseher ansehen: Die Durchzeichnung in dunklen Szenen ist unglaublich. Bei der Licht-Szene für RayReconstruction kommt das bessere Denoising unglaublich gut zur Geltung.
Da merkt man erst, wie wichtig vernünftiges Rendering ist.
basix
2023-09-05, 00:24:26
Pathtracing in Desordre mit Patch 1.3.0 Beta:
https://steamdb.info/patchnotes/12106485/
Läuft mit schnuckeligen 17-25fps in 4K DLAA auf einer 4090 (2.55GHz), je nach "Universum" ;)
Mit DLSS Performance schafft man es auf >50fps, auch im "blauen" Universum.
Zieht ganz schön saftt mit 4K DLAA. Im Schnitt ~320W, was mitunter am Maximum liegt was ich bisher in Spielen gesehen habe.
Fehlen noch ein paar Features (Partikel Reflexionen) und DLSS 3.5 mit Ray Reconstruction ;)
DrFreaK666
2023-09-19, 17:52:48
Qv9SLtojkTU
DrFreaK666
2023-10-10, 12:39:10
Vergleich RZ vs RT vs PT
ZFsz0O93c88
Das "Ultra" bei RT Ultra ist wohl ein schlechter Witz
The_Invisible
2023-10-10, 12:49:15
Das Problem ist, obwohl Pathtracing sicher noch nicht perfekt ist (Preview Status ahoi) will man nicht mehr zurück wenn man es gewohnt ist weil sonst vieles einfach falsch aussieht. Gerade das PhantomLiberty Addon durch und es war ein Erlebnis sondergleichen.
Freu mich auf Alan Wake 2, bin gespannt ob das dann noch immer unter "Preview" läuft
DrFreaK666
2023-10-10, 12:50:43
Da fehlt oft Ambient Occlusion. Da überzeugt Metro deutlich mehr.
Kein Schatten z.B. bei 9:30.
Was ist daran Ultra? Mit dem RTGI-Shader via Reshade wäre dort ein Schatten
Da fehlt oft Ambient Occlusion. Da überzeugt Metro deutlich mehr.
Kein Schatten z.B. bei 9:30.
Was ist daran Ultra? Mit dem RTGI-Shader via Reshade wäre dort ein Schatten
Ich habe das Video nicht gesehen, aber Reshade ist ganz sicher keine Referenz. Zu Tode gespartes Raytracing kann tatsächlich falsch aussehen, weil etwa der Ray Count nicht ausreicht oder der Denoiser Details ausradiert, allerdings sind das Ausnahmen. Irgendwelche Raster-Hacks & -Fallbacks sehen mitunter "besser" aus (etwa, weil ein Schatten deutlich und scharf gezeichnet wird), aber nicht realistischer.
MfG
Raff
dargo
2023-10-10, 14:33:02
Das Problem ist, obwohl Pathtracing sicher noch nicht perfekt ist (Preview Status ahoi) will man nicht mehr zurück wenn man es gewohnt ist weil sonst vieles einfach falsch aussieht.
Ersetze "man" durch "dich" dann passt dieser Satz auch. Das muss nicht für viele andere Spieler gelten.
aufkrawall
2023-10-10, 14:43:48
Ich habe das Video nicht gesehen, aber Reshade ist ganz sicher keine Referenz. Zu Tode gespartes Raytracing kann tatsächlich falsch aussehen, weil etwa der Ray Count nicht ausreicht oder der Denoiser Details ausradiert, allerdings sind das Ausnahmen.
Das ist in CP77 überhaupt keine Ausnahme mit dem "normalen" RT, sondern die Regel.
DrFreaK666
2023-10-10, 14:56:40
Ich habe das Video nicht gesehen, aber Reshade ist ganz sicher keine Referenz. Zu Tode gespartes Raytracing kann tatsächlich falsch aussehen, weil etwa der Ray Count nicht ausreicht oder der Denoiser Details ausradiert, allerdings sind das Ausnahmen. Irgendwelche Raster-Hacks & -Fallbacks sehen mitunter "besser" aus (etwa, weil ein Schatten deutlich und scharf gezeichnet wird), aber nicht realistischer.
MfG
Raff
Das sieht aber einfach kacke aus und hat das "Ultra" nicht verdient.
https://abload.de/thumb/rtultraw3d48.jpg (https://abload.de/image.php?img=rtultraw3d48.jpg)
Das macht es das sogenannte Hack besser.
https://abload.de/thumb/20231010144441_1o5icj.jpg (https://abload.de/image.php?img=20231010144441_1o5icj.jpg) https://abload.de/thumb/20231010144447_1emf2a.jpg (https://abload.de/image.php?img=20231010144447_1emf2a.jpg)
dargo
2023-10-10, 14:59:35
Das sieht aber einfach kacke aus und hat das "Ultra" nicht verdient.
Namen sind doch eh nur Schall und Rauch. Mit "Ultra", "Psycho" etc. kannst du halt besser Marketing betreiben. ;)
aufkrawall
2023-10-10, 15:00:56
Das macht Fortnite ggf. durch HWRT bald auch auf den Konsolen bei 60fps besser. ;)
Troyan
2023-10-10, 15:07:47
Das sieht aber einfach kacke aus und hat das "Ultra" nicht verdient.
https://abload.de/thumb/rtultraw3d48.jpg (https://abload.de/image.php?img=rtultraw3d48.jpg)
So sieht nunmal heutige Rasterizing-Grafik aus. Ultra hat kein GI und kann daher hier kaum verbessern. Man muss schon wissen, was Einstellungen bewirken.
Das macht Fortnite ggf. durch HWRT bald auch auf den Konsolen bei 60fps besser. ;)
Klar, Disko-Lumen mit erbärmlicher 2018 Grafik. Haha.
Sumpfmolch
2023-10-10, 15:10:58
Ich habe das Video nicht gesehen, aber Reshade ist ganz sicher keine Referenz. Zu Tode gespartes Raytracing kann tatsächlich falsch aussehen, weil etwa der Ray Count nicht ausreicht oder der Denoiser Details ausradiert, allerdings sind das Ausnahmen. Irgendwelche Raster-Hacks & -Fallbacks sehen mitunter "besser" aus (etwa, weil ein Schatten deutlich und scharf gezeichnet wird), aber nicht realistischer.
MfG
Raff
Ich glaube nicht, dass die Meisten bei dem Video an "realistischer" denken, sondern sich mehr Gedanken über die FPS bzw. den Stromverbrauch (falls man es über das eingestellte fps-limit schafft) machen.
Raytracing scheint da eher die Energiesparleuchte zu sein und Pathtracing die LED-Birne.
Kurz: Bis man eine Karte hat, die Pathtracing problemlos mit 80-100fps abliefert, kann man auch bei Raster bleiben und sich die massiven Performanceeinbrüche mit RT sparen.
DrFreaK666
2023-10-10, 15:11:28
So sieht nunmal heutige Rasterizing-Grafik aus. Ultra hat kein GI und kann daher hier kaum verbessern. Man muss schon wissen, was Einstellungen bewirken...
Hab danach gesucht. Wo steht das?
Und was hat GI mit AO zu tun?
Troyan
2023-10-10, 15:14:35
Hab danach gesucht. Wo steht das?
Und was hat GI mit AO zu tun?
Was denkst du denn, wie Schattierungen im indirekten Licht stattfinden? AO ist ein Abfallprodukt von GI.
Ich glaube nicht, dass die Meisten bei dem Video an "realistischer" denken, sondern sich mehr Gedanken über die FPS bzw. den Stromverbrauch (falls man es über das eingestellte fps-limit schafft) machen.
Raytracing scheint da eher die Energiesparleuchte zu sein und Pathtracing die LED-Birne.
Kurz: Bis man eine Karte hat, die Pathtracing problemlos mit 80-100fps abliefert, kann man auch bei Raster bleiben und sich die massiven Performanceeinbrüche mit RT sparen.
Kannst Cyberpunk in 4K mit DLSS Performance, Ray Reconstruction mit >60 FPS auf einer 4090 zocken. Das sieht dann besser aus als nativ 2560x1440.
aufkrawall
2023-10-10, 15:19:42
Klar, Disko-Lumen mit erbärmlicher 2018 Grafik. Haha.
Weil die Nvidia-Reflexionen in Desordre in Bewegung auch gar nicht komplett zum Kotzen verschwimmen.
Mal abgesehen davon, dass ein paar Bäume in Fortnite zusammen wahrscheinlich einen höheren Polycount haben als jede Szene in CP77. Dessen LOD ist auch eher so 2008. :freak:
DrFreaK666
2023-10-10, 15:23:25
Was denkst du denn, wie Schattierungen im indirekten Licht stattfinden? AO ist ein Abfallprodukt von GI.
Klar, deswegen gabs auch noch nie AO wenn Spiele kein GI haben :rolleyes:
Nochmal: Wo finde ich, welche Einstellung in CP2077 was bewirkt
Troyan
2023-10-10, 15:27:01
Klar, deswegen gabs auch noch nie AO wenn Spiele kein GI haben :rolleyes:
Nochmal: Wo finde ich, welche Einstellung in CP2077 was bewirkt
Schau bei nVidia von 2020 vorbei. Die haben einen Artikel über Cyberpunk und was jede Einstellung so macht.
Weil die Nvidia-Reflexionen in Desordre in Bewegung auch gar nicht komplett zum Kotzen verschwimmen.
Mal abgesehen davon, dass ein paar Bäume in Fortnite zusammen wahrscheinlich einen höheren Polycount haben als jede Szene in CP77. Dessen LOD ist auch eher so 2008. :freak:
Wow, die Bäume haben einen höheren Poly-Count. Cool Story, bro. Hilft das gegen Disco-Lumen? Nein? Na dann. Wie sehen eigentlich die Reflektionen aus? Schaffen es wenigsten mehr als zwei Dreiecke übrig zu bleiben? ;D
Die Reflektionen in Desordre sind wenigsten nicht auf 5m vor dem Spieler beschränkt. Aber wahrscheinlich freust du dich einfach am Disko-Lumen so sehr, dass dich das nicht stört (wie alles andere an der Rückständigkeit).
Lumen ist absoluter technischer Rotz. In Robocop diskot es frühlich vor sich hin, die SW-Lumen Reflektionen sehen aus wie billige Cubemaps.
Und das ganze läuft im Worst-Case mit 60 FPS in 3440x1440. Ja, technischer Fortschritt für Rückständige.
Achja, "Deliver us Mars" mit UE4 hat Lichtjahre bessere Reflektionen. :cool:
dargo
2023-10-10, 15:28:01
Kurz: Bis man eine Karte hat, die Pathtracing problemlos mit 80-100fps abliefert, kann man auch bei Raster bleiben und sich die massiven Performanceeinbrüche mit RT sparen.
Als Kunde bzw. Spieler stimme ich dir da definitiv zu. Als IHV wird die Sache schon etwas schwieriger. Kein IHV geht von jetzt auf gleich in die Vollen in dieser Hinsicht. Und irgendwie müssen die kleinen Fortschritte von Gen zu Gen finanziert werden. Also versucht man auf Teufel komm raus es irgendwie schmackhaft den Kunden zu machen viel Geld in die Hand zu nehmen und dieses langfristige Projekt zu finanzieren.
aufkrawall
2023-10-10, 15:31:29
Wow, die Bäume haben einen höheren Poly-Count. Cool Story, bro. Hilft das gegen Disco-Lumen? Nein? Na dann.
Zeigt halt, wessen Geistes Kind du bist, wenn du Probleme bei x ständig unerwähnt lässt, aber bei y alles breittrittst.
Deinem lächerlichen Aggro-Post nach muss dich UE5 ja sehr stören. Empfehle dann schon mal ein anderes Hobby. :cool:
DrFreaK666
2023-10-10, 15:34:03
Schau bei nVidia von 2020 vorbei. Die haben einen Artikel über Cyberpunk und was jede Einstellung so macht...
Den Artikel habe ich auf die Schnelle nicht gefunden, aber 2020 wurde "Ray-Traced Ambient Occlusion" und da war RT Ultra wohl das Maximum. Das AO ist halt irgendwie schlecht umgesetzt
The_Invisible
2023-10-10, 15:36:15
Kurz: Bis man eine Karte hat, die Pathtracing problemlos mit 80-100fps abliefert, kann man auch bei Raster bleiben und sich die massiven Performanceeinbrüche mit RT sparen.
Gibts ja schon mit der 4090, sogar in UHD und Phantom Liberty damit durchgespielt, ist aber nicht erst seit heute bekannt...
edit: sogar die 4060Ti kann das schon problemlos in 1080p und drüber auch in 1440p
aufkrawall
2023-10-10, 15:37:39
Den Artikel habe ich auf die Schnelle nicht gefunden, aber 2020 wurde "Ray-Traced Ambient Occlusion" und da war RT Ultra wohl das Maximum. Das AO ist halt irgendwie schlecht umgesetzt
Natürlich ist sie das. Für Dying Light 2 gibts eine extra Option, und sieht da auch zigfach besser als in CP77 ohne PT aus.
Fragman
2023-10-10, 15:43:18
Wenn ich die Vergleichsbilder oben mit dem AO sehe, dann passt doch etwas nicht.
Das AO scheint zu fehlen oder nutzt eine extrem kurze Distanz für die Strahlen. Da aber selbst Kontaktschattierungen fehlen ist das AO entweder kaputt oder gar nicht im Einsatz?
Wird das überhaupt über RT berechnet in dem Fall?
EDIT:
Ach, mir fällt grad wieder ein, der Denoiser kann das Problem sein.
Der hat doch vor RR auch Details gekillt. Das ist ja ein Feature von RR, sowas zu erhalten. Hatte ich ganz vergessen...
Sumpfmolch
2023-10-10, 16:14:29
Gibts ja schon mit der 4090, sogar in UHD und Phantom Liberty damit durchgespielt, ist aber nicht erst seit heute bekannt...
edit: sogar die 4060Ti kann das schon problemlos in 1080p und drüber auch in 1440p
Jo, komm ich drauf zurück, wenn es auf Midrangekarten in 80fps ohne Upcaler läuft.
aufkrawall
2023-10-10, 16:18:31
EDIT:
Ach, mir fällt grad wieder ein, der Denoiser kann das Problem sein.
Der hat doch vor RR auch Details gekillt. Das ist ja ein Feature von RR, sowas zu erhalten. Hatte ich ganz vergessen...
So riesige Bereiche mit massiv stärkerer Schattierung killt der Denoiser nun auch wieder nicht.
The_Invisible
2023-10-10, 17:18:01
Jo, komm ich drauf zurück, wenn es auf Midrangekarten in 80fps ohne Upcaler läuft.
Native ist tot, willkommen in der Zukunft
Sumpfmolch
2023-10-11, 02:33:57
Native ist tot, willkommen in der Zukunft
Ach als ob ich irgendwas gegen solche modernen Methoden hätte. Gerade bei sündhaft teurer Grafikhardware möchte ich aber upscaling und frame generation nicht schon gleich zu Beginn einsetzen müssen.
Jo, komm ich drauf zurück, wenn es auf Midrangekarten in 80fps ohne Upcaler läuft.
Ohne Upscaler wird in naher Zukunft Geschichte sein.
Warum auf eine dermaßen riesige Steigerung des Performance-Qualitäts-Verhältnisses verzichten?
Exxtreme
2023-10-11, 08:32:36
Ohne Upscaler wird in naher Zukunft Geschichte sein.
Warum auf eine dermaßen riesige Steigerung des Performance-Qualitäts-Verhältnisses verzichten?
Das ist nicht für jeden eine Steigerung des Performance/Qualität-Verhältnisses.
Cubitus
2023-10-11, 08:48:45
Wer nativ will, spielt eben in Zukunft auf High und nicht auf Ultra und lässt PT sowieso aus.
Das ist nicht für jeden eine Steigerung des Performance/Qualität-Verhältnisses.
Ist es schon, die Performance steigt dermaßen, dass selbst geringfügige Qualitätsrückschritte das Verhältnis aus Performance und Qualität immer noch massiv steigen lassen.
Sumpfmolch
2023-10-11, 10:51:55
Ohne Upscaler wird in naher Zukunft Geschichte sein.
Warum auf eine dermaßen riesige Steigerung des Performance-Qualitäts-Verhältnisses verzichten?
Will ich gar nicht.
Ich habe aber nichts davon, wenn ich bei neuer Hardware sofort Upscaler und Frame Generation anwerfen muss, um aktuelle Spiele mit Path Tracing zu spielen. Dann kann ich die nächste Spielegeneration ja gleich vergessen.
Und spätestens wenn alle Entwickler Upscaling für die Engine Performance fest einplanen, werden wir trotz Upscaler wieder mit schlechten Framerates da hocken.
Dovregubben
2023-10-11, 10:56:24
Ach als ob ich irgendwas gegen solche modernen Methoden hätte. Gerade bei sündhaft teurer Grafikhardware möchte ich aber upscaling und frame generation nicht schon gleich zu Beginn einsetzen müssen.
Der Unterschied bei der Performance liegt im Bereich von mehreren Grafikkartengenerationen und steigt immer weiter an. Nvidia wird ja nicht bei DLSS 3.5 aufhören. Wir sind da noch am Anfang der ganzen Geschichte.
Kein Entwickler wird in Zukunft auf natives Rendering Rücksicht nehmen.
Exxtreme
2023-10-11, 11:00:28
Ist es schon, die Performance steigt dermaßen, dass selbst geringfügige Qualitätsrückschritte das Verhältnis aus Performance und Qualität immer noch massiv steigen lassen.
Das Problem ist, für den einen sind es geringfügige Qualitätsrückschritte, für den anderen sind diese Rückschritte sehr deutlich sichtbar. Und ja, mir ist klar, dass ich hier womöglich eine Nische bin.
basix
2023-10-11, 11:14:09
Wer "nativ" spielen will, kann ja DLAA, XeSS, TSR oder FSR3 nativ verwenden. Diese neuen AA-Techniken sind viel besser als jegliches herkömmliche TAA.
Das Problem ist, für den einen sind es geringfügige Qualitätsrückschritte, für den anderen sind diese Rückschritte sehr deutlich sichtbar.
Selbst wenn sie sichtbar sind, sind die Performancegewinne um ein vielfaches höher als die Qualitätsrückschritte.
Das gilt sogar für FSR2 und erst recht für die NN-basierten Verfahren.
The_Invisible
2023-10-11, 11:42:29
Will ich gar nicht.
Ich habe aber nichts davon, wenn ich bei neuer Hardware sofort Upscaler und Frame Generation anwerfen muss, um aktuelle Spiele mit Path Tracing zu spielen. Dann kann ich die nächste Spielegeneration ja gleich vergessen.
Und spätestens wenn alle Entwickler Upscaling für die Engine Performance fest einplanen, werden wir trotz Upscaler wieder mit schlechten Framerates da hocken.
Hat nichts mit RT/PT zu tun, sieh dir mal Starfield oder Remnant 2 an, dann nehm ich lieber Pathtracing mit Upscaling+FG wie in CP2077. Auch Konsolen machen davon massiv Gebrauch.
Wenn die nächste Pixelerhöhung auf 5k/6k/8k ansteht kommt man da nativ nie mit der Performance nach weil man ja auch immer mehr Spieldetails will.
Sumpfmolch
2023-10-11, 14:33:53
Hat nichts mit RT/PT zu tun, sieh dir mal Starfield oder Remnant 2 an, dann nehm ich lieber Pathtracing mit Upscaling+FG wie in CP2077. Auch Konsolen machen davon massiv Gebrauch.
Wenn die nächste Pixelerhöhung auf 5k/6k/8k ansteht kommt man da nativ nie mit der Performance nach weil man ja auch immer mehr Spieldetails will.
Naja eigentlich doch. Ich habe das ja ganz speziell zum Thema Raytracing geschrieben, weil es hier wie üblich mit recht neuen Sachen ist, dass Hardware jede Generation geradezu pulverisiert wird, weil massive Performancesteigerungen kommen.
Wenn eine 4090 heute in CP2077 mit PT schon DLSS und FG anwerfen muss, dann kann nichts die Karte bei der nächsten Generation von Spielen mehr retten. Außer es gibt dann auch einen PT Mode für "Arme" aka "PT low"...
Ich gehe davon aus, dass wir mind. die nächsten beiden Grafikkarten-Generationen Steigerung im RT von mind. 100% sehen werden und sich daran auch die Spieleentwickler orientieren. Alles unter einer 4090 pfeift dann schon nächste Generation aus dem letzten Loch und spätestens mit der übernächsten Generation kann man auf den älteren Karten RT abschalten oder man hat einen Modus, der die Anzahl der Strahlen massiv runterschraubt.
DrFreaK666
2023-10-11, 14:56:29
... Auch Konsolen machen davon massiv Gebrauch...
4TFLOLS Series S als Vorbild :ugly:
Auch Konsolen machen davon massiv Gebrauch.
Konsolen verwenden schon seit mehreren Generationen fast ausschließlich Upscaling.
Troyan
2023-10-11, 15:19:41
Wenn eine 4090 heute in CP2077 mit PT schon DLSS und FG anwerfen muss, dann kann nichts die Karte bei der nächsten Generation von Spielen mehr retten. Außer es gibt dann auch einen PT Mode für "Arme" aka "PT low"...
Und du kannst kein UE5 mit mehr als 60 FPS in 4K auf einer 4090 zocken und erhälst dabei noch schlechtere Grafik. ;D
aufkrawall
2023-10-11, 15:37:36
Wie üblich, ziemlicher Stuss von dir. 4k TAA macht eine 4090 in Fortnite@max um die 70fps. Mit VSM@medium sinds dann direkt ~90.
Btw. ist die Skalierung gegenüber der 4080 beschissen. Wer hat noch gleich die Verantwortung für den verkrüppelten Cache der 4090...
Und nochmal zu deinen Fake News zu Lumen-Reflexionen:
https://abload.de/thumb/talos2-win64-shippingmwcim.png (https://abload.de/image.php?img=talos2-win64-shippingmwcim.png) https://abload.de/thumb/talos2-win64-shippingswcs9.png (https://abload.de/image.php?img=talos2-win64-shippingswcs9.png)
Voll der ineffiziente Schrott, dass ich mit 6700 XT RT-GI, RT-AO, RT-Schatten und RT-Reflexionen bei 1440p TSR Epic Quality bei ~60fps habe. :freak:
https://abload.de/thumb/talos2-win64-shippingacf2m.png (https://abload.de/image.php?img=talos2-win64-shippingacf2m.png) https://abload.de/thumb/talos2-win64-shippingx6io7.png (https://abload.de/image.php?img=talos2-win64-shippingx6io7.png)
Und da ploppt nicht mal ein Grashalm (zumindest nicht von den Büschen in der Wüste) oder ein Stein am Strand...
Kann natürlich nicht mit den geilen Röntgen-Reflexionen mit PT in CP77 mithalten, wo bei Nebel Wasserreflexionen diesen komplett ignorieren und die Reflexion so lauter Dinge zeigt, die man direkt gar nicht sehen kann. ;D
Diverse Screen Space-Probleme ist man selbst mit PT immer noch nicht los. Ist ja auch nicht so überraschend, weil es immer noch eine abgespeckte Spar-Variante ist. Also auch nur ein sehr teurer Kompromiss.
Da fehlt oft Ambient Occlusion. Da überzeugt Metro deutlich mehr.
Kein Schatten z.B. bei 9:30.
Was ist daran Ultra? Mit dem RTGI-Shader via Reshade wäre dort ein Schatten
an der stelle sind doch Schatten... und wenn ein Scheinwerfer drauf leuchtet, sollte da auf keinen fall AO sein, das gibts nur bei indirekter Beleuchtung.
Transistoryland
2023-10-11, 17:26:01
Wenn eine 4090 heute in CP2077 mit PT schon DLSS und FG anwerfen muss, dann kann nichts die Karte bei der nächsten Generation von Spielen mehr retten. Außer es gibt dann auch einen PT Mode für "Arme" aka "PT low"...
Ich gehe davon aus, dass wir mind. die nächsten beiden Grafikkarten-Generationen Steigerung im RT von mind. 100% sehen werden und sich daran auch die Spieleentwickler orientieren. Alles unter einer 4090 pfeift dann schon nächste Generation aus dem letzten Loch und spätestens mit der übernächsten Generation kann man auf den älteren Karten RT abschalten oder man hat einen Modus, der die Anzahl der Strahlen massiv runterschraubt.
Ich schätze es geht viel Leistung verloren aufgrund veralteter Engines in die Raytracing reingedrückt wurde. Die Red Engine ist veraltet mit ihren schlechten Materialien und low Poly Assets. Von der lachhaften Physik will ich gar nicht erst anfangen.
Da wird dann die Nvidia Technik drübergebügelt und das kann niemals effizient sein. Nvidia Pathtracing ist eigentlich keines mit den ganzen Einschränkungen was die lightbounces angeht und der geringen Renderdistanz. Wir brauchen vor allem bessere Software.
Dovregubben
2023-10-11, 17:35:03
Nvidia Pathtracing ist eigentlich keines mit den ganzen Einschränkungen was die lightbounces angeht und der geringen Renderdistanz. Wir brauchen vor allem bessere Software.
Das ist auch keine Magie. Mehr Bounces, mehr Sichtweite, mehr irgendwas = braucht mehr Leistung.
Troyan
2023-10-11, 18:23:47
Wie üblich, ziemlicher Stuss von dir. 4k TAA macht eine 4090 in Fortnite@max um die 70fps. Mit VSM@medium sinds dann direkt ~90.
Btw. ist die Skalierung gegenüber der 4080 beschissen. Wer hat noch gleich die Verantwortung für den verkrüppelten Cache der 4090...
Klar 70 FPS. Leider nicht in der Realität. Hier sind es 50 FPS:
https://abload.de/thumb/fortniteclient-win64-mrirf.png (https://abload.de/image.php?img=fortniteclient-win64-mrirf.png)
Kein Raytracing, Billo-GI, keine Reflektionen, beschissene Schatten. Ja voll geil.
Ich schätze es geht viel Leistung verloren aufgrund veralteter Engines in die Raytracing reingedrückt wurde. Die Red Engine ist veraltet mit ihren schlechten Materialien und low Poly Assets. Von der lachhaften Physik will ich gar nicht erst anfangen.
Da wird dann die Nvidia Technik drübergebügelt und das kann niemals effizient sein. Nvidia Pathtracing ist eigentlich keines mit den ganzen Einschränkungen was die lightbounces angeht und der geringen Renderdistanz. Wir brauchen vor allem bessere Software.
Was redest du hier? Overdrive ist Pathtracing, da nichts mehr per Rasterizing errechnet wird. Nichts ist effizienter als das Pathtracing in Cyberpunk.
ChaosTM
2023-10-11, 18:35:46
Klar 70 FPS. Leider nicht in der Realität. Hier sind es 50 FPS:
[/URL][URL]https://abload.de/thumb/fortniteclient-win64-mrirf.png (https://abload.de/image.php?img=fortniteclient-win64-mrirf.png)
Kein Raytracing, Billo-GI, keine Reflektionen, beschissene Schatten. Ja voll geil.
Was redest du hier? Overdrive ist Pathtracing, da nichts mehr per Rasterizing errechnet wird. Nichts ist effizienter als das Pathtracing in Cyberpunk.
Die Bildrate sagt da aber was anderes. Selbst mit 4090er. ;)
aufkrawall
2023-10-11, 19:01:18
Klar 70 FPS. Leider nicht in der Realität. Hier sind es 50 FPS:
https://abload.de/thumb/fortniteclient-win64-mrirf.png (https://abload.de/image.php?img=fortniteclient-win64-mrirf.png)
Kein Raytracing
"Kein RT". :lol:
Läuft tatsächlich in etwa so langsam wie bei dir, allerdings seh ich diese Schatten nicht mal mit DLSS Performance und VSM medium so kaputt aus...
https://abload.de/thumb/screenshot3g4dcg.png (https://abload.de/image.php?img=screenshot3g4dcg.png)
(Sollte bei 60fps auf den Konsolen zu denken geben.)
Mal abgesehen davon, dass Fortnite auch mit Legacy-Grafik schon immer seine eigene Ladung an Glitches hatte und hat, die man nicht unbedingt in anderen UE-Titeln findet...
Klar, deswegen gabs auch noch nie AO wenn Spiele kein GI haben :rolleyes:
Nochmal: Wo finde ich, welche Einstellung in CP2077 was bewirkt
bei aller liebe, es gab auch Schatten ohne RT... was ist das für ein Vergleich? AO ist doch einfach nur ein Quatscheffekt der oft an falschen stellen ist, RT ersetzt AO... das solltest du schon wissen.
Transistoryland
2023-10-11, 22:21:38
Das ist auch keine Magie. Mehr Bounces, mehr Sichtweite, mehr irgendwas = braucht mehr Leistung.
Naja ich vermute das eine RTX 5000er richtiges Pathtracing stemmen könnte wenn man eine Engine komplett darauf programmiert und optimiert.
Diese halbgaren Lösungen mit viel Raster Anteil werden das allerdings verhindern. Soll heißen das Software Problem ist größer als das Hardware Problem. Die meisten Leute scheinen das nicht zu sehen.
DrFreaK666
2023-10-12, 02:22:22
bei aller liebe, es gab auch Schatten ohne RT... was ist das für ein Vergleich? AO ist doch einfach nur ein Quatscheffekt der oft an falschen stellen ist, RT ersetzt AO... das solltest du schon wissen.
Sieht man an dem Beispiel oben, wie toll das funktioniert... :rolleyes:
Ist es dein Ding Off-topic zu labern?
Exxtreme
2023-10-12, 09:37:05
Naja ich vermute das eine RTX 5000er richtiges Pathtracing stemmen könnte wenn man eine Engine komplett darauf programmiert und optimiert.
Diese halbgaren Lösungen mit viel Raster Anteil werden das allerdings verhindern. Soll heißen das Software Problem ist größer als das Hardware Problem. Die meisten Leute scheinen das nicht zu sehen.
Naja, da kommen noch andere Faktoren ins Spiel ala die Menge der Strahlen, die verschossen werden und dann auch noch wie oft ein Strahl abprallen soll. Da wird wohl auch ein Blackwell schnell Federn lassen. Für deutlich bessere RT-Ergebnisse bräuchte man wohl 20x so viel RT-Performance im Vergleich zu jetzt.
][immy
2023-10-12, 10:14:51
Naja, da kommen noch andere Faktoren ins Spiel ala die Menge der Strahlen, die verschossen werden und dann auch noch wie oft ein Strahl abprallen soll. Da wird wohl auch ein Blackwell schnell Federn lassen. Für deutlich bessere RT-Ergebnisse bräuchte man wohl 20x so viel RT-Performance im Vergleich zu jetzt.
Und ohne Rastergrafik wird es dann noch schwer mit der Sichtweite, weil auch hier massig strahlen notwendig sind um ein stimmiges Bild hin zu bekommen.
Von richtigen/vollen RT sind wir noch ne Ewigkeit entfernt. Tricks führen nur wieder zu Artefakten bis zu einem Punkt wo es zu Rastergrafik keinen Unterschied mehr macht.
Das man mit einer 4090 schon tricksen muss um das hin zu bekommen sollte einem zeigen das wir noch sehr, sehr weit von reinem RT Lösungen entfernt sind. Zumal dies ja auch von Lowend Produkten abgebildet werden müsste damit man entsprechend etwas am Markt absetzen kann.
Ich fänd es ja schon gut wenn allein die Beleuchtung gut abgebildet werden könnte und selbst da hakt es (besonders nach unten).
Naja ich vermute das eine RTX 5000er richtiges Pathtracing stemmen könnte wenn man eine Engine komplett darauf programmiert und optimiert.
Diese halbgaren Lösungen mit viel Raster Anteil werden das allerdings verhindern. Soll heißen das Software Problem ist größer als das Hardware Problem. Die meisten Leute scheinen das nicht zu sehen.
Ist aber nicht so. Die erste Intersection über Rasterisierung zu bestimmen ist aus vielen Gründen sehr viel effizienter. Das wird erst verschwinden, wenn der Teil für die Performance nicht mehr relevant ist. Auf absehbare Zeit wird es also nicht passieren.
Troyan
2023-10-12, 12:09:43
[immy;13414130']Und ohne Rastergrafik wird es dann noch schwer mit der Sichtweite, weil auch hier massig strahlen notwendig sind um ein stimmiges Bild hin zu bekommen.
Von richtigen/vollen RT sind wir noch ne Ewigkeit entfernt. Tricks führen nur wieder zu Artefakten bis zu einem Punkt wo es zu Rastergrafik keinen Unterschied mehr macht.
Das man mit einer 4090 schon tricksen muss um das hin zu bekommen sollte einem zeigen das wir noch sehr, sehr weit von reinem RT Lösungen entfernt sind. Zumal dies ja auch von Lowend Produkten abgebildet werden müsste damit man entsprechend etwas am Markt absetzen kann.
Ich fänd es ja schon gut wenn allein die Beleuchtung gut abgebildet werden könnte und selbst da hakt es (besonders nach unten).
Man trickst nicht. Man bekommt am Tag in Cyberpunk fast native 60 FPS in 1440p mit einer 4090. Das ist kaum langsamer gegenüber dem billigen Rasterizing von UE5.
Raytracing/Pathtracing ist unglaublich effizient, weil es wesentlich einfachere Berechnungen sind.
dargo
2023-10-12, 12:26:27
Wow... wir bekommen heute also mit 1650+€ alleine für eine Grafikkarte fast 60fps in 1440p nativ, ich falle vor Glück um. :lol: Du hast längst jeglichen Bezug zur Realität im Bereich Gaming verloren.
The_Invisible
2023-10-12, 12:36:12
Schon wieder so komische Argumente hier, bei Raster darf anscheinend getrickst werden ohne Ende (seit Jahrzehnten) aber bei RT/PT muss natürlich alles perfekt sein ab Day 1. Ihr widerspricht euch ja selber...
Bin gestern erst mit Phantom Liberty mit PathTracing fertig geworden und trotz technical preview war es ein visuelles Fest, erinnerte fast an das erste Crysis. Enthusiasmus gibts heute anscheinend ja nicht mehr...
aufkrawall
2023-10-12, 12:37:44
Es ploppt auch noch genau wie das originale Crysis. :lol:
Fragman
2023-10-12, 12:42:00
Beim LOD mach ich mir am wenigsten Sorgen da man das ja eigentlich unter Kontrolle haben kann.
Ist halt ne Macke der Engine.
ChaosTM
2023-10-12, 12:42:41
Ja, das LOD ist eine Frechheit. Das zerstört die "imörschn" mehr als wenn man PT komplett ausschaltet. ;)
The_Invisible
2023-10-12, 12:43:11
Es ploppt auch noch genau wie das originale Crysis. :lol:
Von Gesamteindruck hast auch noch nie was gehört... Muss das schwer sein als Erbsenzähler, da kannst ja gar nichts mehr genießen...
aufkrawall
2023-10-12, 12:44:50
Das sind eher, vielleicht der Jahreszeit nicht unangemessen, gruselige Kürbisse statt Erbsen.
So ein Low Poly-Müll dürfte RT sicher den Job auch um einiges einfacher machen...
ChaosTM
2023-10-12, 12:58:11
Von Gesamteindruck hast auch noch nie was gehört... Muss das schwer sein als Erbsenzähler, da kannst ja gar nichts mehr genießen...
Der Gesamteindruck wird für mich durch das konstante Aufpoppen völlig ruiniert. Und nein, das ist kein Engine Problem sondern viel einfacher.
Mit vernünftigen LOD Einstellungen würden alle NV Karten < 4080er als das entlarvt was sie sind - Speicherkrüppel. Die Bildrate würde ganz böse einbrechen und das lässt NV nicht zu.
aufkrawall
2023-10-12, 13:03:44
Denke nicht, dass besseres LOD so viel VRAM kosten würde. Dafür sind die Assets in der Open World ja auch aus der Nähe immer noch völlig kaputtkomprimiert.
Aber es würde ohne etwas wie Nanite halt deutlich mehr GPU- und ggf. auch CPU-Leistung kosten. Wenn das RT dann nicht versagen soll, wahrscheinlich nochmal deutlich mehr.
Exxtreme
2023-10-12, 13:28:17
Mit vernünftigen LOD Einstellungen würden alle NV Karten < 4080er als das entlarvt was sie sind - Speicherkrüppel. Die Bildrate würde ganz böse einbrechen und das lässt NV nicht zu.
LOD kostet praktisch kaum VRAM. Denn vorgehalten werden müssen die Daten so oder so. Und das zieht sich durch alles durch wie Sichtweite, Auflösung etc.
Dovregubben
2023-10-12, 13:38:43
bei aller liebe, es gab auch Schatten ohne RT... was ist das für ein Vergleich? AO ist doch einfach nur ein Quatscheffekt der oft an falschen stellen ist, RT ersetzt AO... das solltest du schon wissen.
RT ersetzt kein AO.
Raytracing ist ein Berechnungsprimitiv.
Man kann AO auch mit RT berechnen oder man nutzt andere Algorithmen, die möglicherweise auf RT basieren, und den Effekt inhärent abbilden.
Troyan
2023-10-12, 13:42:14
Wow... wir bekommen heute also mit 1650+€ alleine für eine Grafikkarte fast 60fps in 1440p nativ, ich falle vor Glück um. :lol: Du hast längst jeglichen Bezug zur Realität im Bereich Gaming verloren.
Nicht jeder will weiterhin mit Billig-Grafik und massiven Bildfehlern spielen.
Achja, aufpoppen: In Fortnite poppt auch alles auf, was nicht bei drei auf dem Baum ist und die Details bei Weitsicht sind genauso bescheiden:
https://abload.de/thumb/fortniteclient-win64-btd3l.png (https://abload.de/image.php?img=fortniteclient-win64-btd3l.png)
In 1440p gerade mal 88 FPS. Lächerlich, Cyberpunk schafft ca. 60 FPS. :eek:
aufkrawall
2023-10-12, 13:55:32
https://abload.de/thumb/fortniteclient-win64-8jepe.png (https://abload.de/image.php?img=fortniteclient-win64-8jepe.png)
Da muss ja echt der Arsch auf Grundeis gehen, dass die UE das ganze Nvidia-Gedöns killt...
(Btw. TSR Epic 720p Render-Auflösung)
Troyan
2023-10-12, 14:01:55
Soll mich das beeindruckend? Fünf Bäume und komplett fehlendes Grass? Und dann in 720p gerendert? Wow.
Aber 720p - immerhin PS3 Auflösung.
aufkrawall
2023-10-12, 14:08:12
Sind wohl eher >500 Bäume, alle in 3D gerendert. ;) Was er wohl für einen Stuss absondern wird, wenn die UE noch weiter aufdreht? Mag man sich kaum ausmalen. :ucrazy3:
Mit dem CP77-LOD wär der Trailer-Park wahrscheinlich einfach nur noch eine einzelne Bodentextur. ;D
Mit Nanite wird jede einzelne Lampe an der Lichterkette gerendert...
The_Invisible
2023-10-12, 14:14:15
https://abload.de/thumb/fortniteclient-win64-8jepe.png (https://abload.de/image.php?img=fortniteclient-win64-8jepe.png)
Da muss ja echt der Arsch auf Grundeis gehen, dass die UE das ganze Nvidia-Gedöns killt...
(Btw. TSR Epic 720p Render-Auflösung)
Braucht halt Nvidia Gedöns damit es wirklich gut aussieht bzw ue5 Nvidia Branch siehe desordre
aufkrawall
2023-10-12, 14:29:57
Ob das in komplexeren Leveln mit hoher Sichtweite und Polycount überhaupt funktionieren würde, weiß kein Mensch.
Troyan
2023-10-12, 14:39:18
Sind wohl eher >500 Bäume, alle in 3D gerendert. ;) Was er wohl für einen Stuss absondern wird, wenn die UE noch weiter aufdreht? Mag man sich kaum ausmalen. :ucrazy3:
Mit dem CP77-LOD wär der Trailer-Park wahrscheinlich einfach nur noch eine einzelne Bodentextur. ;D
Mit Nanite wird jede einzelne Lampe an der Lichterkette gerendert...
Statische Geometrie. Wo ist das Grass? Also das, was dann reinploppt...
Cyberpunk hat auch keine Probleme:
https://abload.de/thumb/cyberpunk2077_2023_09cieam.png (https://abload.de/image.php?img=cyberpunk2077_2023_09cieam.png)
aufkrawall
2023-10-12, 14:45:47
Cyberpunk hat auch keine Probleme:
https://abload.de/thumb/cyberpunk2077_2023_09cieam.png (https://abload.de/image.php?img=cyberpunk2077_2023_09cieam.png)
Aha, fast gar keine Pflanzen, alles 2D, eckig und die Lüfter-Texturen links sind schon ganz vorne im Bild 640x480. An dem Bild ist in etwa so viel verkehrt wie an deinen wirren Posts, das geht echt auf keine Kuhhaut mehr...
dargo
2023-10-12, 15:02:28
Cyberpunk hat auch keine Probleme:
https://abload.de/thumb/cyberpunk2077_2023_09cieam.png (https://abload.de/image.php?img=cyberpunk2077_2023_09cieam.png)
Dieses Bild kann jetzt nicht dein ernst sein oder? ;D ;D ;D
Aha, fast gar keine Pflanzen, alles 2D, eckig und die Lüfter-Texturen links sind schon ganz vorne im Bild 640x480. An dem Bild ist in etwa so viel verkehrt wie an deinen wirren Posts, das geht echt auf keine Kuhhaut mehr...
Nicht zu vergessen das Nextgen-Gebirge im Hintergrund. :lol:
/Locutus oB
2023-10-12, 15:25:18
soll Leute geben die kaufen sich eine Konsole für ein paar hundert euro und sind glücklich.
technologischer Fortschritt ist super aber die preise dafür stehen für MICH in keinem Verhältnis mehr.
ChaosTM
2023-10-12, 15:28:15
LOD kostet praktisch kaum VRAM. Denn vorgehalten werden müssen die Daten so oder so. Und das zieht sich durch alles durch wie Sichtweite, Auflösung etc.
Wenn man schnell durch die Gegend fährt werden die Texturen natürlich nachgeladen und da zu wenig Speicherplatz zur Verfügung steht, passiert der Austausch der Texturen zu spät. Es poppt auf bzw wird die niedrigste LOD Stufe zuerst geladen. Das ließe sich mit mehr Speicher sicher abmildern bzw. völlig verhindern.
Es gab ja für frühere Versionen schon Mods die das unterbunden haben.
Die Engine sollte es also nicht sein, oder zumindest nicht nur...
Wenn man schnell durch die Gegend fährt werden die Texturen natürlich nachgeladen und da zu wenig Speicherplatz zur Verfügung steht, passiert der Austausch der Texturen zu spät. Es poppt auf bzw wird die niedrigste LOD Stufe zuerst geladen. Das ließe sich mit mehr Speicher sicher abmildern bzw. völlig verhindern.
Es gab ja für frühere Versionen schon Mods die das unterbunden haben.
Die Engine sollte es also nicht sein, oder zumindest nicht nur...
du vermischt da etwas, LOD gibts bei geometry, Mipmaps bei Texturen.
OgrEGT
2023-10-14, 09:28:51
Solange es Spiele Grafik gibt wie bei RDR2 brauch ich kein PTRT... Das läuft auf Ultra nativ ohne FSR Gedöns super smooth ohne LOD Geploppe o.ä.
Transistoryland
2023-10-15, 16:13:13
Was redest du hier? Overdrive ist Pathtracing, da nichts mehr per Rasterizing errechnet wird. Nichts ist effizienter als das Pathtracing in Cyberpunk.
Ich hatte bereits auf Seite 190 echtes Path Tracing verlinkt und da ist Cyberpunk noch ganz weit davon entfernt. Zeig mir mal nur ein Wasserglas in Cyberpunk und dann sehen wir was für ein pseudo Mist Nvidia uns hier andreht.
Mal nebenbei bemerkt braucht man in einer Path Tracing Engine keine low poly assets mehr aber das weißt du halt nicht.
Was redest du hier? Overdrive ist Pathtracing, da nichts mehr per Rasterizing errechnet wird. Nichts ist effizienter als das Pathtracing in Cyberpunk.
Der Primary Pass wird auch bei Overdrive mit Rasterizing realisiert.
basix
2023-10-16, 08:26:10
Solange es Spiele Grafik gibt wie bei RDR2 brauch ich kein PTRT... Das läuft auf Ultra nativ ohne FSR Gedöns super smooth ohne LOD Geploppe o.ä.
Spiele wie RDR2 sind aber eine Ausnahme. Da waren sehr fähige Entwickler mit viel Zeit und Geld am Werk. Viel hängt bei solchen Spielen zudem an den Assets und der Weltgestaltung.
Eine der Prämissen von Raytracing wäre ja, dass die durchschnittliche Grafik qualitativ angehoben wird, da es die schlimmsten Beleuchtungs-Mängel beheben würde. Schlechte Implementationen und zu wenig GPU-Leistung (zu wenig Rays, nur selektives RT) verwaschen momentan aber dieses Bild.
Der Primary Pass wird auch bei Overdrive mit Rasterizing realisiert.
Was bei allen Echtzeit-Anwendungen wie Spielen so bleiben wird. Den Primary Pass mit HW-Rasterizing auszuführen ist effizienter als reines Pathtracing. Macht also keinen Sinn, das zu ändern.
Was bei allen Echtzeit-Anwendungen wie Spielen so bleiben wird. Den Primary Pass mit HW-Rasterizing auszuführen ist effizienter als reines Pathtracing. Macht also keinen Sinn, das zu ändern.
Bei QuakeRTX wird der Primary-Pass auch getraced, bei Portal RTX bin ich mir nicht sicher, aber möglicherweise auch.
Primary-Rays sind sehe effizient zu Tracen weil sie im Gegensatz zu fast allen anderen nicht divergieren, bei Quake RTX hat man dazu gesagt dass es zwar langsamer als rastern ist, aber nur geringfügig. Das war allerdings auf Ampere, nachdem Lovelace beim Raytracing relativ zugelegt hat könnte das Verhältnis noch enger oder gar schon der break even erreicht sein.
Holundermann
2023-10-16, 12:16:17
Bei QuakeRTX wird der Primary-Pass auch getraced, bei Portal RTX bin ich mir nicht sicher, aber möglicherweise auch.
Primary-Rays sind sehe effizient zu Tracen weil sie im Gegensatz zu fast allen anderen nicht divergieren, bei Quake RTX hat man dazu gesagt dass es zwar langsamer als rastern ist, aber nur geringfügig. Das war allerdings auf Ampere, nachdem Lovelace beim Raytracing relativ zugelegt hat könnte das Verhältnis noch enger oder gar schon der break even erreicht sein.
Interessantes Thema, hat einer von den wissenden evtl. kurz Lust auszuführen für was der 'Primary Pass' ist oder entsprechende Erklärungen zu verlinken?
Platos
2023-10-16, 12:53:58
Der Begriff ist mir jetzt auch neu. Was ist denn Primary Pass?
Bezüglich Pathtracing: Bei Cyberpunk wird ja auch nicht wirklich jedes Pixel "ge-pathtraced" (keine Ahnung, ob man das so sagen kann). Da werden ja mehrere Pixel zu einem "Block" zusammengefasst und nur diese Blöcke werden dann mit Pathtracing berechnet. Von "echtem" Pathtracing (entsprechend der Pixelauflösung 1-zu-1) sind wird vermutlich noch 20 Jahre entfernt). Zumindest habe ich das so gelesen, aber finde die Quelle grad nicht.
Mayhem
2023-10-16, 13:13:52
Ich versuch's mal. Der "Primary-Pass" sendet für jeden Bildschirmpixel (meist) 1 Ray aus der Kameraperspektive in die Welt und findet den nahesten Schnittpunkt mit der Levelgeometrie. Ausserdem speichert man sich noch weitere Eigenschaften dieses Punktes, wie z.B. Normale und Material-ID etc.
Wenn man nur das macht, hat man dann etwas ähnliches wie den G-Buffer bei einem Deferred Render, wie er aktuell in modernen Spielen eingesetzt wird.
Wenn man jetzt weitere "Passes" nutzen will, kann man die abgespeicherten Informationen in den Bildschirmpunkten nutzen, um z.B. sekundäre Rays auszusenden (Spiegelungen, Shadows, GI, etc.)
Diese "sekundären" Rays gehen dann in die BVH (Beschleunigungsstruktur) der Raytrace-HW, die meist, mit vereinfachter Levelgeometrie gefüllt ist.
Deswegen nutzt man normalerweise auch den herkömmlichen Rasterizer für den "Primary-Pass" des Ray-/Pathtracers ... weil er mit voller Levelgeometrie rendert.
Bei so einfacher Geometrie wie Quake kann man natürlich gleich alles in den BVH schmeissen und auch den "Primary-Pass" raytracen.
basix
2023-10-16, 13:41:43
Primary Pass wird öfters wohl mit Primary Rays ausgedrückt. Und wie Mayhem richtig erklärt hat, sind das die Rays von der Kameraperspektive: https://www.scratchapixel.com/lessons/3d-basic-rendering/ray-tracing-generating-camera-rays/definition-ray.html
Rasterizing macht vom Prinzip her genau das selbe, weswegen es schnell und effizient auf den GPUs läuft.
Alle weiteren Strahlen werden dann Secondary Rays genannt.
Edit:
Hier noch ein Artikel von EA (Frostbite) und wie sie den G-Buffer nutzen
https://link.springer.com/content/pdf/10.1007/978-1-4842-4427-2_25.pdf
Interessantes Thema, hat einer von den wissenden evtl. kurz Lust auszuführen für was der 'Primary Pass' ist oder entsprechende Erklärungen zu verlinken?
Der Renderpass der den G-Buffer füllt.
Dieser kann per Rasterizing oder Raytracing erfolgen, wobei es für die Qualität prinzipiell erstmal egal ist.
Alle weiteren Effekte werden dann aus dem G-Buffer berechnet, egal ob mit Raytracing oder Rasterizing oder einer Kombination aus beiden.
Exxtreme
2023-10-16, 13:53:59
Der Begriff ist mir jetzt auch neu. Was ist denn Primary Pass?
Es ist so, Raytracing funktioniert exakt andersrum wie die Beleuchtung in der realen Welt. In der realen Welt strahlt eine Lichtquelle Strahlen aus. Und die Strahlen, die unsere Augen treffen, die sehen wir. Beim Raytracing hingegen werden Strahlen von der Bildschirmoberfläche in Richtung virtueller Raum geschossen. Und die Strahlen, die eine Lichtquelle treffen, die werden dann auf dem Bildschirm als etwas leuchtendes angezeigt. Das spart unglaublich viel Rechenleistung.
Und der "primary pass" ist die allererste Schicht an Strahlen, die von der Bildschirmoberfläche in den Raum geschossen wird. Und das kann man per Rastersizer machen weil hier das Kosten-/Nutzen-Verhältnis viel besser ist. Und wenn man das weiss, dann weiss man auch, dass das derzeitige PT nicht ohne Rastersizer auskommt. Wollte man ohne auskommen dann müsste man die Strahlen unendlich oft abprallen lassen. Ansonsten wären sehr viele Teile einer Szene einfach schwarz.
Von "echtem" Pathtracing (entsprechend der Pixelauflösung 1-zu-1) sind wird vermutlich noch 20 Jahre entfernt).
Grundsätzlich nicht falsch, allerdings ziemlich irrelevant.
Raytracing erfolgt im Worldspace, die Bildschirmauflösung liegt im Screenspace und mit Ausnahme von Primary Rays gibt es meistens keinen direkten Zusammenhang zwischen beiden.
Es macht daher überhaupt keinen Sinn von "echtem" Pathracing zu sprechen wenn pro Pixel und Frame ein Ray abgeschossen wird und darunter nicht. Und von was reden wir dann wenn wir pro Pixel mehr als ein Ray abschießen? Hyper-Pathtracing oder was?
Und wie zählen wir die Rays? Es ist mit heutiger Hardware überhaupt kein Problem im Durschschnitt pro Renderpixel und Frame einen Ray abzuschießen. Nur sagt das rein gar nichts aus und ist eine komplett sinnlose Metrik. Es gibt Effekte die brauchen sehr viele Rays/Pixel um ordentlich auszusehen, andersrum gibt es wiederum Effekte die kann man sehr gut mit weniger Rays/Pixel approximieren.
Und wenn das unser Ziel wäre, müsste man eben genau den Primary Pass mit Raytracing durchführen damit bekommt man nämlich sehr billig einen hohen Ray-Count und hätte schon ohne jegliche secondary Rays die Metrik von 1 Ray/Pixel erfüllt. Wenn man natürlich.
Wenn unsere Hardware immer noch großteils mit Rastern beschäftigt ist, können wir die dafür benötigte Performance natürlich nicht fürs Raytracing benutzen, und wenn wir nur die teuren secondary Rays durchführen lassen bekommen wir natürlich einen viel niedrigeren Ray-Count/Pixel.
Das ist aber nicht per se schlecht, und niemand will und wird irgendwie versuchen den RayCount/Pixel zu maximieren weil es einfach Schwachsinn ist.
Es ist so, Raytracing funktioniert exakt andersrum wie die Beleuchtung in der realen Welt.
Ja und nein. Raytracing schreibt keine Richtung vor. Rein prinzipiell schreibt die Rendergleichung die Verfolgung aller Strahlen die von allen Lichtquellen der virtuellen Welt ausgesendet werden vor, also eigentlich gleich wie in der Realität.
Da ein Großteil dieser Strahlen allerdings im Nirvana landet und damit keinen bedeutenden Einfluss auf das Endergebnis haben, kann man in einem ersten großen Optimierungsschritt die Richtung umkehren und damit ohne das Ergebnis zu beeinflussen sehr viele Berechnungsschritte sparen, indem wir nur Strahlen betrachten die unser Fenster in die Virtuelle Welt, den Bildschirm, treffen berechnen.
Beim Raytracing hingegen werden Strahlen von der Bildschirmoberfläche in Richtung virtueller Raum geschossen.
Etwas genauer, die Strahlen werden von der Virtuellen Kamera bzw. unserem Virtuellen Auge vor dem Bildschirm abgeschossen, von wo sie die Bildschirmoberfläche, treffen und danach die Geometrie dahinter.
Genau dabei handelt es sich um die diskutierten Primary Rays, Strahlen die von der Bildschirmoberfläche abgeschossen werden sind die anschließenden Secondary rays.
Und die Strahlen, die eine Lichtquelle treffen, die werden dann auf dem Bildschirm als etwas leuchtendes angezeigt.
Klar, allerdings ist die Wahrscheinlichkeit sehr gering, der Großteil der Geometrie ist eben nicht selbstleuchtend, und von dort müssen weitere Rays abgeschossen werden um zu ermitteln ob das Pixel beleuchtet wird oder nicht.
Und das kann man per Rastersizer machen weil hier das Kosten-/Nutzen-Verhältnis viel besser ist.
Eben genau dafür ist das Kosten/Nutzen-Verhältnis vom Rasterizer zumindest nicht viel Besser, sondern nur geringfügig. Und je Komplexer die Geometrie, desto mehr verschiebt sich das Ganze Richtung Raytracing, da Raytracing O(n Log (n)) aufweist, Rasterizing O(n).
Wollte man ohne auskommen dann müsste man die Strahlen unendlich oft abprallen lassen.
Genau das macht man im RT-Overdrive-Mode. Dass man dort den Primary Renderpass mit Rasterizing macht, macht keinen Unterschied, das Ergebnis ist die unbeleuchtete Geometrie. Und die gesamte Beleuchtung wird durch Raytracing ermittelt. Freilich nicht mit unendlich vielen Bounces (nur 2), sondern mit all den Tricks wie ReSTIR und Ray Reconstruction um mit einer beschränkten Anzahl an Rays auf ein gutes Ergebnis zu kommen.
Rasterizing hilft hier aber überhaupt nicht weiter, die komplette Beleuchtung ist zu 100% Raytracing.
Holundermann
2023-10-16, 15:50:46
Ok, danke für die tolle Erklärung. Mir erschließt sich zwar der nutzen nicht warum man erst von einem virtuellen Auge die rays auf die Bildschirmoberfläche zaubert. Mit der O-Notation und dem Hinweis auf die Raytracing Implementierung kann ich aber etwas Anfangen: dh. je komplexer die Geometrie desto vernachlässigbarer wird der Overhead den Primary Pass mit Raytracing anstatt mit Rasterizing zu machen weil log(n) zwar monoton steigend ist aber mit hohen n kaum mehr ansteigt.
Ist es evtl. so das beim Primary Pass ermittelt wird welche Elemente überhaupt zum Gesamtbild etwas beitragen können. Also all jene Objekte welche entweder direkt oder indirekt (=light bounce) über das virtuelle Auge welches durch den Bildschirm (=Auflösung) in die virtuelle Welt blickt 'gesehen' werden.
Edit: beim Pathtracing werden also ausgehend vom virtuellen Auge Rays verschossen - in Cyberpunk zB.: 2 rays per pixel - in irgendeine Richtung (?). Dh. die Rays müssen vom Auge so verschossen werden das pro pixel 2 rays auftreffen. Diese Rays werden dann 2 mal gebounced und das ergebnis wird dann in den denoiser gejagd.
TheAntitheist
2023-10-16, 17:33:16
Ok, danke für die tolle Erklärung. Mir erschließt sich zwar der nutzen nicht warum man erst von einem virtuellen Auge die rays auf die Bildschirmoberfläche zaubert.
Hat doch der Gast beschrieben warum die rays von der Virtuellen Kamera aus gesendet werden, damit nur das berechnet wird, was wir auch sehen können, um Rechenleistung zu sparen. Es gibt keinen primary pass bei reinem raytracing rendering, nur ein primary bounce/hit.
den primary pass gibts nur beim rastern. RT allgemein hat zwar passes intern, da spaltet man einfach informationen ab, ist aber nicht wirklich ein eigenständiger pass der gerendert wird...
Platos
2023-10-16, 19:46:59
Ah ok, also kann man sich das wie ein Fenster in der Nacht vorstellen, durch das man mit einer Taschenlampe leuchtet (berechnet wird dann nur das beleuchtete, also das, was man sieht durchs Fenster und nicht die ganze Welt, die man von draussen sehen würde).
Bezüglich dem primary pass: Nur weil man es nicht mit Raytracing-Hardware berechnet, ist es doch trotzdem Raytracing, nur eben mit normalen Shader berechnet. Oder verstehe ich da was falsch? Also wo ist der Unterschied abseits davon, welche Hardware-Einheiten das berechnen?
Und wo ist dann der Unterschied von Raytracing und Pathtracing bezogen auf primary und secondary pass?
Wenn ich bei Pathtracing die Bounces auf 1 stelle, habe ich dann Raytracing?
Anderes Thema: Was denkt ihr, wird es Eyetracking jemals am Monitor/TV geben? Man könnte so ne Art "Eye Tracking Set" mit 1-2 Kameras anbieten, die man sich wie Webcams am Monitor/TV befestigen könnte und die kommunizieren dann mit dem PC. Wäre doch technisch eig. möglich. So könnte man sich wieder enorm Rechenleistung sparen.
...
Anderes Thema: Was denkt ihr, wird es Eyetracking jemals am Monitor/TV geben? Man könnte so ne Art "Eye Tracking Set" mit 1-2 Kameras anbieten, die man sich wie Webcams am Monitor/TV befestigen könnte und die kommunizieren dann mit dem PC. Wäre doch technisch eig. möglich. So könnte man sich wieder enorm Rechenleistung sparen.
gibt es schon, z.B.:
https://www.eurogamer.de/psvr2-eye-tracking-ermoeglicht-foveated-rendering-heatmaps-mehr
Platos
2023-10-16, 21:24:20
Das ist aber nicht am Monitor/TV. Ich rede ja nicht von VR Brillen. Ich rede von Eye-Tracking am Monitor/TV, indem man dort Kameras installiert, die die Augenbewegung messen und so am Monitor/TV Eytracking und Foveated Rendering nutzen.
Aber trotzdem danke für den Artikel. Der sagt bis zu 3.6x höhere Perfomance durch Eye Tracking + Foveated Rendering. Diesen Boost könnten wir (bzw. ich) einfach so gut gebrauchen.
TheAntitheist
2023-10-16, 21:39:53
Ah ok, also kann man sich das wie ein Fenster in der Nacht vorstellen, durch das man mit einer Taschenlampe leuchtet (berechnet wird dann nur das beleuchtete, also das, was man sieht durchs Fenster und nicht die ganze Welt, die man von draussen sehen würde).
Bezüglich dem primary pass: Nur weil man es nicht mit Raytracing-Hardware berechnet, ist es doch trotzdem Raytracing, nur eben mit normalen Shader berechnet. Oder verstehe ich da was falsch? Also wo ist der Unterschied abseits davon, welche Hardware-Einheiten das berechnen?
Und wo ist dann der Unterschied von Raytracing und Pathtracing bezogen auf primary und secondary pass?
Wenn ich bei Pathtracing die Bounces auf 1 stelle, habe ich dann Raytracing?
Anderes Thema: Was denkt ihr, wird es Eyetracking jemals am Monitor/TV geben? Man könnte so ne Art "Eye Tracking Set" mit 1-2 Kameras anbieten, die man sich wie Webcams am Monitor/TV befestigen könnte und die kommunizieren dann mit dem PC. Wäre doch technisch eig. möglich. So könnte man sich wieder enorm Rechenleistung sparen.
Ja das Fenster ist die Kamera, wo deine Taschenlampe kein Objekt bis X meter trifft, brauch der Strahl/ray nicht weiter verfolgt werden.
Pathtracing ist raytracing+ das rays bei einem treffer eines Objektes bounces auch in zufällige Richtungen gehen und nicht durch den mathematisch korrekten. und nicht jedes pixel muss ein ray versenden. Monte Carlo raytracing (PT) verbessert das Bild, umso länger es rendert und das Rauschen geht dann weg. Pathtracing IST Raytracing. man kann bei beiden nur einen bounce einstellen.
Ist es evtl. so das beim Primary Pass ermittelt wird welche Elemente überhaupt zum Gesamtbild etwas beitragen können.
So ähnlich könnte man es ausdrücken, der Primary pass befüllt die G-Buffer.
Alles weitere passiert dann ausgehend von den G-Buffer + am Ende noch ein paar Tricks für Dinge die mit G-Buffer nicht vernünftig abgebildet werden können wie z.B. Transparenzen.
Also all jene Objekte welche entweder direkt oder indirekt (=light bounce) über das virtuelle Auge welches durch den Bildschirm (=Auflösung) in die virtuelle Welt blickt 'gesehen' werden.
Nach dem Primary pass gibt es noch keine Beleuchtung, alles was man kennt ist für jeden Pixel die Oberfläche die am nächsten zum Monitor lieg, sowie deren Eigenschaften. Ob diese direkt oder indirekt beleuchtet ist, ist zu diesem Zeitpunkt noch nicht bekannt.
Edit: beim Pathtracing werden also ausgehend vom virtuellen Auge Rays verschossen - in Cyberpunk zB.: 2 rays per pixel - in irgendeine Richtung (?). Dh. die Rays müssen vom Auge so verschossen werden das pro pixel 2 rays auftreffen. Diese Rays werden dann 2 mal gebounced und das ergebnis wird dann in den denoiser gejagd.
Wie bereits mehrmals erwähnt verwendet Cyberpunk für den Primary Renderpass Rasterizing und kein Raytracing und schickt damit gar keine Rays vom virtuellen Auge in die Szene.
Es schickt danach im darauffolgenden Renderpass Rays von der im G-Buffer gespeicherten Geometrie in den virtuellen Raum. Wie genau ist nicht bekannt, und hängt wohl von den Materialeigenschaften als auch von den vorherigen Frames und den von ReSTIR "umgeleiteten" Strahlen ab.
Die 2 Bounces sind eine Obergrenze, wie oft weitere Rays nach dem ersten aus dem G-Buffer abgeschossen werden können und kein Minimum. Ob es nach dem ersten Ray überhaupt einen Bounce gibt hängt davon was dieser trifft und welche Materialeigenschaften dort vorhanden sind.
Ein Vorteil des ganzen ist, dass in Cyberpunk RT-Overdrive auch Spiegelungen korrekt beleuchtet aussehen. In den meisten Spielen mit RT-Spiegelungen, insbesondere denen mit lediglich Spiegelungen und komplett traditioneller Rasterizer-Beleuchtung, ist die Beleuchtung in den Spiegelungen komplett falsch.
Normalerweise werden auch für jeden Effekt darauf angepasste Denoiser verwendet. Beispielsweise kann man GI sehr stark blurren, was man bei Mirror-Reflections eher nicht tun sollte. Bei Reflections selbst kann man den denoiser nach der Oberflächenrauheit tunen. Shadows sind irgendwo dazwischen, sie sollten zwar noch Struktur zeigen im Gegensatz zu GI, so detailliert wie Reflections müssen sie aber nicht sein.
Was NVidias DLSS 3.5 "Magic" daraus macht ist nicht so ganz klar, mich würde es jedenfalls nicht wundern wenn der "einer für alles Holzhammer" nicht ganz der Wahrheit entspricht. Auch wenn es nur ein großes NN gibt, und ziemlich sicher nur 1 großer Algo dahinter steckt, gehe ich zumindest davon aus dass das ganze noch als Input mitbekommt was es da gerade so denoisen soll und damit bestimmte Parameter für den jeweiligen Fall setzt.
Ah ok, also kann man sich das wie ein Fenster in der Nacht vorstellen, durch das man mit einer Taschenlampe leuchtet (berechnet wird dann nur das beleuchtete, also das, was man sieht durchs Fenster und nicht die ganze Welt, die man von draussen sehen würde).
Wenn du dir die Taschenlampe quasi als Scanline vorstellst welche die ganze Szene abtastet dann kommt das hin. Wenn das Licht der Taschenlampe Teil der Szene sein soll dann nein.
Bezüglich dem primary pass: Nur weil man es nicht mit Raytracing-Hardware berechnet, ist es doch trotzdem Raytracing, nur eben mit normalen Shader berechnet. Oder verstehe ich da was falsch? Also wo ist der Unterschied abseits davon, welche Hardware-Einheiten das berechnen?
Der wesentliche Unterschied ist:
Rasterizing: Ich hab einen Haufen Polygone und suche mir die Pixel welche diese Abdecken.
Raytracing: Ich schieße Strahlen von der virtuellen Kamera ausgehend durch jedes Pixel und schau welche Polygone davon getroffen werden.
Für beides gibt es in modernen GPUs spezialisierte Hardware.
Und wo ist dann der Unterschied von Raytracing und Pathtracing bezogen auf primary und secondary pass?
Defakto gar keiner. Raytracing ist ganz einfach das Verfolgen eines Strahls zum Ziel. Pathtracing macht Raytracing, es macht nichts anderes als Strahlen zu verfolgen. Es gibt keine Definition wieviele Strahlen es nun sein müssen damit es als "Pathtracing" gelten kann.
Die 2 Begriffe sind mehr oder weniger Interchangable.
Wenn ich bei Pathtracing die Bounces auf 1 stelle, habe ich dann Raytracing?
Ja, und auch mit 0 Bounces, oder 100 Bounces. Es ist immer Raytracing, alles was sich ändert ist das Ausmaß davon.
Anderes Thema: Was denkt ihr, wird es Eyetracking jemals am Monitor/TV geben? Man könnte so ne Art "Eye Tracking Set" mit 1-2 Kameras anbieten, die man sich wie Webcams am Monitor/TV befestigen könnte und die kommunizieren dann mit dem PC.
Das gibts schon. Ich wüsste jetzt zwar nicht dass es wo für Foveated Rendering verwendet wird, aber EyeTracking selbst gibt es schon seit gefühlten Ewigkeiten.
Platos
2023-10-17, 11:10:55
@ Gast, danke für die Erklärung.
Ist dass denn so viel besser, wenn man primary pass mit Raytracing macht ? Also vom Nutzen/Kosten-Verhältnis?
Also Cyberpunk z.B nutzt ja kein RT beim Primary Pass bei Pathtracing. Trotzdem scheint es recht gut auszusehen.
Bezüglich Eye Tracking: Ja ich meinte eben Analog zur VR-Brille (z.B PS VR2). Die nutzt ja Eye Tracking + entsprechendes Rendering (Foveated Rendering). Das am TV/Monitor mittels Kamera.
Das wäre m.M.n schon ziemlich sinnvoll. Laut dem oben verlinkten Artikel ist man dadurch bis zu 3.6x schneller. Das wäre halt achon krass. Und am besten mit Schieberegler, so dass man den scharfen Bereich vergrössern kann (für die mit gutem peripherem Sehen).
Ist dass denn so viel besser, wenn man primary pass mit Raytracing macht ? Also vom Nutzen/Kosten-Verhältnis?
Großartig Nutzen hat es keinen, die Kosten sind sind schwer zu schätzen, aber insbesondere mit einer Engine die nicht von Grund auf für Raytracing designt wurde geringer wenn man Rastert.
Also Cyberpunk z.B nutzt ja kein RT beim Primary Pass bei Pathtracing. Trotzdem scheint es recht gut auszusehen.
Es macht auch keinen Unterschied, es ist für die Optik völlig egal ob man den Primary Pass Rastert oder Traced.
Das wäre m.M.n schon ziemlich sinnvoll. Laut dem oben verlinkten Artikel ist man dadurch bis zu 3.6x schneller. Das wäre halt achon krass. Und am besten mit Schieberegler, so dass man den scharfen Bereich vergrössern kann (für die mit gutem peripherem Sehen).
Hauptproblem ist einerseits, dass jede Situation unterschiedlich ist, andererseits das berühmte Henne-Ei-Problem keiner hat die Hardware, und niemand implementiert dann was dafür, umgekehrt wird niemand die Hardware kaufen wenn es dafür keine Software gibt.
Das ist denke ich viel zu sehr Nische in der Nische. Man kann eigentlich kaum ein allgemein gültiges sinnvolles Setting finden.
Wirklich sinnvoll, dass man viel Performance sparen kann ohne dass man es sieht ist es eigentlich nur bei sehr großen Bildschirmen mit kurzem Abstand, so dass ein großer Teil des Bildschirmes tatsächlich ins periphere Sehen fällt.
TVs sind eigentlich komplett außen vor, da wird in den allermeisten Fällen die Kombination aus Größe und Sitzabstand so sein, dass es negativ auffallen würde wenn ein Teil nicht mehr scharf wäre.
Bei Monitoren gibt es mit 38-42" durchaus Größen, bei denen mit "normalen" Sitzeabstand von etwa einer Armlänge foveated Rendering Sinn machen würde.
Allerdings haben schon sehr wenig solche Monitore, ein Teil davon nutzt sie nicht mal als "richtige" Monitore sondern kompensiert die Größe durch höheren Sitzabstand, was es mal ad absurdum führt überhaupt so einen großen Monitor zu kaufen, aber das ist eine andere Geschichte, und den winzigen Bruchteil eines Bruchteils müsstest du dann noch überzeugen zusätzlich Geld auszugeben um Leistung zu sparen, wenn das selbe Geld vielleicht die nächst stärkere Hardware kaufen könnte.
Falls Eye-Tracking jemals massentauglich wird, müsste es denke ich eine andere "Killer-Anwendung" dafür geben, welche die Hardware verbreitet, dann könnte man zusätzlich über Foveated Rendering als "Abfallprodukt" nachdenken.
Scruffy
2023-10-17, 17:50:33
Eyetracking am PC gibt es von Tobii (https://www.tobii.com/products/eye-trackers#screenbased). Wird von ein paar Spielen unterstützt, ich glaube aber dabei eher als Headtrackingersatz genutzt. Hab ich noch nie selbst testen können. Ich glaube hier gab es auch mal einen Thread im Forum.
Die Technik von Tobii wird auch in der Pimax Crystal fürs Eyetracking benutzt, da sind die ersten Tests (bei den Spielen die es unterstützen) glaube ich so im Bereich von ~10-40%?
Platos
2023-10-17, 20:16:40
Hmm, interessant. Aber leider kann man das nicht über jedes Spiel drüber stülpen. Also am besten wäre es, wenn das irgendwie per Treiber erzwungen werden kann (also Foveated Rendering nach vorlage von Eye-Tracking Daten).
Aber welche Spiele sollen das sein, die das unterstützen ?
Und 10-40% ist ja echt lame. Bei der PSVR2 soll es deutlich mehr sein.
Edit: https://gaming.tobii.com/discover-eye-head-tracking/
Hier wird das Eye-Tracking vermarktet zur Interaktion mit dem Spiel, also nicht wirklich für Foveated Rendering. Also ich denke, das geht nicht.
Niall
2023-10-18, 13:57:11
Wenn ich bei Pathtracing die Bounces auf 1 stelle, habe ich dann Raytracing?
Du hast immer Raytracing. Pathtracing ist Raytracing, nur auf eine bestimmte Art und Weise. ;)
MiamiNice
2023-10-18, 14:06:54
Bezüglich Eye Tracking: Ja ich meinte eben Analog zur VR-Brille (z.B PS VR2). Die nutzt ja Eye Tracking + entsprechendes Rendering (Foveated Rendering). Das am TV/Monitor mittels Kamera.
Das wäre m.M.n schon ziemlich sinnvoll. Laut dem oben verlinkten Artikel ist man dadurch bis zu 3.6x schneller. Das wäre halt achon krass. Und am besten mit Schieberegler, so dass man den scharfen Bereich vergrössern kann (für die mit gutem peripherem Sehen).
Das würde definitiv gehen mit dem Tobi Eye Tracker 5. Im Prinzip müsste der GPU Treiber nur die (Positions)Daten aus der Tobi Software abgreifen und dann das menschliche Auge simulieren. Sprich scharf bzw. volle Auflösung, da wo man hinschaut. Und dann immer weniger Renderauflösung, je weiter man sich von diesem Punkt entfernt.
Ich nutze den Eyetracker um in größeren Raumfights in Star Citizen die Übersicht zu behalten. Der Tobi Eye Tracker ist ein super Produkt, kann man nicht anders sagen. Latenz ist vor allem super.
Dovregubben
2023-10-18, 14:57:01
Raytracing sagt nicht aus, dass irgendeine Kamera oder überhaupt Grafik involviert ist.
Es ist einfach der Vorgang für einen/mehrere Strahlen im virtuellen Raum rauszufinden, ob und wo sie ein anderes Objekt treffen. Physik und Audio Engines machen auch viel Raytracing.
Wenn wir von der Kamera ausgehen, reden wir von Inverse Raytracing. Gegenbeispiel wäre Photon Mapping. Da wird von den Lichtquellen aus Raytracing für eine definierte Anzahl von Photonen in die Szene gemacht.
Pathtracing versucht einen Pfad von der Lichtquelle zur Kamera zu finden. Das muss nicht von der Kamera ausgehen. Da gibt es alle Varianten bis hin zu bidirektionalem Pathtracing. Wer sich in dem Kontext das Gehirn martern will, kann sich mal Metropolis Light Transport anschauen.
Fragman
2023-10-18, 15:31:12
Pathtracing versucht einen Pfad von der Lichtquelle zur Kamera zu finden. Das muss nicht von der Kamera ausgehen. Da gibt es alle Varianten bis hin zu bidirektionalem Pathtracing. Wer sich in dem Kontext das Gehirn martern will, kann sich mal Metropolis Light Transport anschauen.
PT ist immer von der Kamera.
Deshalb tut man sich auch so schwer verdeckte Lichter zu finden, die muss man erstmal finden. Und wenn man sie gefunden hat, muss ich für eine bessere Auflösung trotzdem wieder den vollen Weg von der Kamera bis zu dem Punkt gehen.
Bidirectional PT erweitert das PT um die Möglichkeit zusätzlich von der Lichtquelle Strahlen zu verschießen. Dafür wird gern Photon Mapping genutzt, weil es dank der Interpolation von nur einigen Rays viel schneller ist als ein weiterer Brute Force Ansatz.
Die Strahlen von der Kamera und die von den Lichtern versucht man über Schnittpunkte auf Oberflächen zu verbinden. Weil man so weiß woher mehr Energie kommt, kann man entsprechend mehr Rays dort konzentrieren.
Ist am Ende eine Art von Importance Sampling.
Aber hier wird es halt kompliziert, da der PT Ansatz ständig über weitere Methoden erweitert wird um bestimmte Probleme zu lösen.
Caustics sind so ein Beispiel, im besonderen komplexe.
Theoretisch kann ich mit PT allein all das machen, nur muss ich mehr Rays rendern um die Lösung entsprechend sauber zu ermitteln.
Platos
2023-10-18, 15:52:39
Das würde definitiv gehen mit dem Tobi Eye Tracker 5. Im Prinzip müsste der GPU Treiber nur die (Positions)Daten aus der Tobi Software abgreifen und dann das menschliche Auge simulieren. Sprich scharf bzw. volle Auflösung, da wo man hinschaut. Und dann immer weniger Renderauflösung, je weiter man sich von diesem Punkt entfernt.
Ich nutze den Eyetracker um in größeren Raumfights in Star Citizen die Übersicht zu behalten. Der Tobi Eye Tracker ist ein super Produkt, kann man nicht anders sagen. Latenz ist vor allem super.
Ja in der Theorie funktioniert es sicher, aber es gibt nunmal keinen Treiber, der das unterstützt.
Was meinst du damit, dass du die Übersicht bei Star Citizen behälst? Was macht der Eyetracker in diesem Spiel bei dir? Foveated Rendering?
Dovregubben
2023-10-18, 16:37:10
...
Du verbastelst da viel, was nicht zusammengehört.
Pathtracing bleibt ne einfache Pfadsuche. Die kann man von beiden Seiten starten. In der Regel macht man das von der Kamera, weil man für das Ende/Tail in einen Fallback springen kann.
Ein Fallback kann Photon Mapping sein, aber das hat dann wieder nichts mit bidirektionalem Pathtracing zu tun.
Fragman
2023-10-18, 16:57:40
Ein Fallback kann Photon Mapping sein, aber das hat dann wieder nichts mit bidirektionalem Pathtracing zu tun.
Wäre dann VCM, hatte das etwas durcheinander gebracht.
Ist eine Weile her... :redface:
DrFreaK666
2023-11-04, 16:05:47
tXfwvohROPA
Mordekai2009
2023-11-04, 16:40:10
Beeindruckend. Hätte nie gedacht, dass Alan Wake 2 mit Pathtracing so bombatisch aussieht aber nicht immer perfekt.
ChaosTM
2023-11-04, 16:46:08
Ja, endlich ein Spiel, wo RT wirklich glänzt.
Und das Ding schaut auch ohne besser aus als fast alles andere.
Ich verneige mich vor Remedy.
Achill
2023-11-04, 17:11:42
https://youtu.be/tXfwvohROPA
Interessantes Video, leider fällt mir auch hier wieder auf, das DF bzw. Alex ihre eigene Interpretation (warum etwas so ist wie es ist) einseitig einbringen. Konkret geht es mir um die Stelle um ab ~15:40 ... warum RT/PT Fehler in bestimmten Bereichen hat. Die Begründung aus dem Video ist, weil andere Beleuchtungsmodelle mit verrechnet werden. Dies wird sogar stimmen, den entscheidenden Schritt weiter zu gehen, warum das Studio/Teams/Entwickler sich so entschieden hat, das passiert nicht.
Die offensichtliche Erklärung ist imho, dass das HW Budget für RT/PT (auch auf den großen 4000er) nicht reicht ... am Besten beim späteren Beispiel mit dem Spiegel im spiegelnden Boden, das ist eine Optimierung indem die Bounces von Rays begrenzt wird. Ähnliches mit den fehlenden Schatten von Blättern bei der Tür, will man diese haben, so muss auch den äußere und aktuell nicht sichtbare Bereich als Daten vorliegen haben und berechnen.
Daher passt es für das Narrative viel besser, das (wie alle wissen) schlechtere alte Render-Modell zu blamen anstatt imho das Kind beim Namen zu nennen. Ich tippe drauf, dass mit der 5000er Serie es dann ein Update vom Spiel kommen wird. :devil:
ChaosTM
2023-11-04, 17:13:58
Das dachte ich mir auch, aber die Szenen um die es geht waren nicht soo komplex.
Alex könnte da schon recht haben..
The_Invisible
2023-11-04, 18:09:16
Leistung kann man nie genug haben, das ist auch bis jetzt in Raster so, die Frage ist was man mit der Leistung macht. Ansonsten zeigt das Video eigentlich gut warum man kein Raster mehr haben will ;)
Lurtz
2023-11-04, 21:51:08
Gutes Video, das auch nicht an Kritik spart :up:
Ich hoffe wirklich, nVidia nimmt sich die Kritik an RR zu Herzen. Also insbesondere das Überschärfen, das umso stärker auffällt, je niedriger die interne Auflösung wird.
Remedy sollte das Kameraruckeln bei Mausbewegungen fixen.
Und beeindruckend zu sehen wie Ada mit vollem PT vor Ampere zieht - mit FG ist es dann gar kein Contest mehr.
Lurtz
2023-11-04, 21:53:09
Das dachte ich mir auch, aber die Szenen um die es geht waren nicht soo komplex.
Alex könnte da schon recht haben..
Vielleicht eher eine Engineeinschränkung, da es vor allem bei Übergängen Indoor/Outdoor auftritt.
][immy
2023-11-04, 22:43:47
Ja, endlich ein Spiel, wo RT wirklich glänzt.
Und das Ding schaut auch ohne besser aus als fast alles andere.
Ich verneige mich vor Remedy.
Schaut aber auch ohne RT/pt ziemlich gut aus. Endlich mal ein Spiel wo der alternative Modus nicht vernachlässigt wird, sobald es den anderen gibt ;)
Zeigt aber auch wieder das es noch ne Weile dauert. Die 4090 ist ja Grad mal in der Lage das einigermaßen vernünftig zu schaffen. Dauert noch bis diese Leistung in den anderen Bereichen an kommt.
ChaosTM
2023-11-04, 22:55:01
[immy;13429790']Schaut aber auch ohne RT/pt ziemlich gut aus. Endlich mal ein Spiel wo der alternative Modus nicht vernachlässigt wird, sobald es den anderen gibt ;)
Zeigt aber auch wieder das es noch ne Weile dauert. Die 4090 ist ja Grad mal in der Lage das einigermaßen vernünftig zu schaffen. Dauert noch bis diese Leistung in den anderen Bereichen an kommt.
Ja, Remedy hat das geschafft.
best looking Game - mit oder ohne RT ;)
RDR2 hatte diese Krone viel zu lange
aufkrawall
2023-11-04, 23:19:25
Die Schatten sind ohne RT offenbar schlicht unerträglich:
https://youtu.be/DSyOR9mcwr4?t=29
Aber Hauptsache, bei <10% der Spieler sieht es besser aus...
ChaosTM
2023-11-04, 23:23:07
gewisse Sachen schauen ohne RT gar nicht mal so gut aus.. wär hätte das erwartet ;)
jesus christ ..
außer ein paar Leuten spielt kaum wer mit 4-facher Vergrößerung auf ein bestimmtes Objekt bezogen
Linmoum
2023-11-04, 23:25:20
Sollte auch besser aussehen, wenn man Schatten nicht nur auf Medium stellt...
aufkrawall
2023-11-04, 23:32:08
Stimmt, Video-Fail. Hier siehts besser aus:
https://youtu.be/ANcq4xBMmzw
Jupiter
2023-11-05, 00:50:13
Ja, Remedy hat das geschafft.
best looking Game - mit oder ohne RT ;)
RDR2 hatte diese Krone viel zu lange
Welche Krone, wenn Remedys Control von 2019 schon erheblich besser aussah?
Es wird sk häufig auf unscharfen Texturen herumgeritten. Dabei ist RDR2 mit Abstand das Spiel mit den unschärfsten Texturen auf meiner Festplatte. RdR2 sieht gut aus, aber überholt wurde es schon lange.
RDR2 hatte diese Krone viel zu lange
Haha RDR2 mit dem grausamen Antialiasing soll die "Krone" haben, selben so gelacht.
DrFreaK666
2023-11-05, 17:50:47
Haha RDR2 mit dem grausamen Antialiasing soll die "Krone" haben, selben so gelacht.
Weil beste Grafik sich nur aus AA definiert
aufkrawall
2023-11-05, 18:02:52
Ist schon wichtig. Allerdings vollbringt RR hier auch keine Glanztaten, gerade Linien scheinen auch in unbewegten Szenen etwas "wobbly" auszusehen. Selbst gegen die Legacy-DLSS-Presets, die mit C/D auch noch recht ausgeprägte Mini-Sägezähne aufweisen. Ein Fortschritt gegenüber den alten Presets ist das abseits von RT nicht (Smearing und Oil Paint-Look noch gar nicht mitgezählt). Zumal Performance visuell auch wieder stärker gegenüber Quality abfällt. Wieder ganz viel Fortschritt, der nicht ohne deutliche Nebenwirkungen erfolgt. :frown: Wobei echter Fortschritt bei AA wirklich bitter nötig wäre, in Talos 2 läuft auch DLSS komplett am Limit, mit aberdutzenden komplexer Assets von Nanite-Vegetation hintereinander. Da würde besseres AA jedenfalls mehr bringen als "PT".
Weil beste Grafik sich nur aus AA definiert
Nein, aber gutes AA ist Vorraussetzung für eine gute, und erst recht für die beste Grafik.
Wenn die Basics nicht stimmen, kann der Rest noch so gut sein, es sieht scheiße aus.
DrFreaK666
2023-11-11, 15:40:59
Nein, aber gutes AA ist Vorraussetzung für eine gute, und erst recht für die beste Grafik.
Wenn die Basics nicht stimmen, kann der Rest noch so gut sein, es sieht scheiße aus.
In 1080p vielleicht. Je höher die Auflösung, desto unwichtiger wird AA.
Quake 1 wäre mit 1024 SGSSAA trotzdem noch hässlich
In 1080p vielleicht. Je höher die Auflösung, desto unwichtiger wird AA.
Auch in 4K ist AA noch bitter nötig. Damit AA "unwichtig" wird, musst du schon immense Auflösungen von 8K+ fahren.
DrFreaK666
2023-11-11, 20:51:51
Auch in 4K ist AA noch bitter nötig. Damit AA "unwichtig" wird, musst du schon immense Auflösungen von 8K+ fahren.
Hab nichts anderes behauptet
In 1080p vielleicht. Je höher die Auflösung, desto unwichtiger wird AA.
Dafür bräuchtest du schon 400-500DPI, und selbst diese helfen nicht gegen Temporales Aliasing.
In allem praktisch möglichem ist AA enorm wichtig, mittlerweile sogar wichtiger als Texturfilterung.
Platos
2023-11-11, 21:08:56
Hab nichts anderes behauptet
Und warum erwähnst du es dann? Er hat eine allgemeine Aussage gemacht, dass AA wichtig ist und du sagst, nicht immer und meinst dann einen Fall (8k+), der völlig irrelevant ist, für eine allgemeine Aussage ?
Selbst bei 5k etc. brauchts AA.
Sinnfreie Antwort...
Und warum erwähnst du es dann? Er hat eine allgemeine Aussage gemacht, dass AA wichtig ist und du sagst, nicht immer und meinst dann einen Fall (8k+), der völlig irrelevant ist, für eine allgemeine Aussage ?
Selbst bei 5k etc. brauchts AA.
Selbst bei 8k braucht es das auf real erhältlichen Pixeldichten.
Zudem ist es extrem ineffizient mit brachialer Auflösung gegen Aliasing vorzugehen, in einem Bereich in dem höhere Auflösung längst keine höheren sichtbaren Details abbilden kann.
Timbaloo
2023-11-12, 11:33:55
Wer glaubt, dass Anti-Aliasing bei hohen Auflösungen immer unwichtiger wird, denkt nur an Kantenglättung und hat Aliasing nicht verstanden.
][immy
2023-11-12, 11:45:51
Wer glaubt, dass Anti-Aliasing bei hohen Auflösungen immer unwichtiger wird, denkt nur an Kantenglättung und hat Aliasing nicht verstanden.
Naja, wie der Name schon sagt, geht es erst mal nur um das verhindern der Treppchen. Heutzutage dienen dann noch andere Dinge dazu das auch das shaderflimmern reduziert wird und das Bild beruhigt, was zeitgleich eine leichte Unschärfe (minimal) nach sich zieht, was heutzutage bei dem überscharfen Material auch nicht mehr tragisch ist.
Aber gerne nicht beachtet wird, das mit der Auflösungserhöhung gleichzeitig eine größere Bilddiagonale einher geht, so das die Pixeltreppen wieder sichtbarer werden. Auch daher sehen Switch spiele trotz kleiner Auflösung auf dem Display trotzdem noch irgendwie gut aus.
Aber eigentlich ist das hier der raytracing Thread.
Platos
2023-11-12, 12:10:56
Selbst bei 8k braucht es das auf real erhältlichen Pixeldichten.
Zudem ist es extrem ineffizient mit brachialer Auflösung gegen Aliasing vorzugehen, in einem Bereich in dem höhere Auflösung längst keine höheren sichtbaren Details abbilden kann.
Da ich selbst kein natives 8k habe, wollte ich mich nicht zu weit aus dem Fenster lehnen, aber ich würde auch sagen, dass man bei 8k immer noch AA braucht.
[immy;13434028']Naja, wie der Name schon sagt, geht es erst mal nur um das verhindern der Treppchen.
Der Name sagt es geht um die Reduktion von Aliasing, nicht beschränkt nur auf Treppchen.
Da ich selbst kein natives 8k habe, wollte ich mich nicht zu weit aus dem Fenster lehnen, aber ich würde auch sagen, dass man bei 8k immer noch AA braucht.
8k alleine hat 0 Aussagekraft.
Bei 8k auf einem 7“ Smartphone Screen könnte man tatsächlich an den Verzicht von Antialiasing denken.
Bei 8k auf 85“ eher nicht.
Rooter
2023-11-12, 13:36:51
Wenn ich einen 8K Monitor mit albern hoher ppi habe, ist das nicht dasselbe wie FSAA? In hoher Auflösung rendern und klein darstellen.
MfG
Rooter
MadManniMan
2023-11-12, 14:19:30
Wenn ich einen 8K Monitor mit albern hoher ppi habe, ist das nicht dasselbe wie FSAA? In hoher Auflösung rendern und klein darstellen.
Dann hast du aber noch immer sehr hohe Kontraste auf sehr kleinen Flächen, die dann für Flimmern, Moiré und ähnliche hochfrequente Effekte sorgen, die die Aufmerksamkeit des Auges auf sich lenken.
Wenn das reduziert werden soll, musst du schon deutlich unter das Auflösungsvermögen der Augen beim gegebenen Abstand zum Screen - und da ist es dann schlicht effizienter, auf anderem Weg für ein ähnlich flimmerarmes Bild zu sorgen, als mit brute force 4- oder 16-fache Pixel zu berechnen.
Dann hast du aber noch immer sehr hohe Kontraste auf sehr kleinen Flächen, die dann für Flimmern, Moiré und ähnliche hochfrequente Effekte sorgen, die die Aufmerksamkeit des Auges auf sich lenken.
Wenn die Pixel klein genug sind, dass diese vom Auge nicht mehr erfasst werden können ist auch das weg.
Wobei es natürlich außerordentlich ineffizient wäre, die Pixeldichten die man dafür bräuchte würden auf großen Bildschirmen zu abartigen Auflösungen führen, die man einerseits gar nicht über die Display-Schnittstelle bekommen würde und noch weniger in Echtzeit berechnen könnte.
DrFreaK666
2023-11-28, 11:36:08
Was wurde eigentlich aus Racer RTX?
Vor gut einem Jahr wurde es auf 2023 verschoben
https://i.postimg.cc/Sxb0zmqX/Screenshot-20231128-113306-com-brave-browser-edit-180539487145887.jpg (https://postimages.org/)
aber seitdem hört man nichts mehr davon. 2023 ist bald vorbei
Sardaukar.nsn
2023-11-28, 11:55:12
Würde mich auch interessieren. Zur Not nehme ich es auch nur als Benchmark ;)
Dampf
2023-11-28, 12:32:16
Das ist eigentlich irreführende Werbung. Es wurde mehrmals gesagt, dass die Demo auf Ada läuft und auch verfügbar sein wird.
Wenn ich Ada gekauft hätte, würde ich mich echt veralbert vorkommen.
dildo4u
2023-12-08, 11:50:14
Das nimmt auswüchse an Nvidia hat nur genug Marketing Power für Lobbys in Modern Warfare einfach nur Absurd.
https://www.nvidia.com/en-us/geforce/news/call-of-duty-modern-warfare-3-season-1-warzone-dlss-3/
Ich hätte ja gerne Pathtracing im Treiber-Panel. ;D
MfG
Raff
Radeonfreak
2023-12-08, 12:03:42
Das ist eigentlich irreführende Werbung. Es wurde mehrmals gesagt, dass die Demo auf Ada läuft und auch verfügbar sein wird.
Ja, das war echt die größte Verarsche ever.
BlacKi
2023-12-08, 12:50:12
Das nimmt auswüchse an Nvidia hat nur genug Marketing Power für Lobbys in Modern Warfare einfach nur Absurd.
https://www.nvidia.com/en-us/geforce/news/call-of-duty-modern-warfare-3-season-1-warzone-dlss-3/FG im competitive shooter:freak:
auf der anderen seite spielen aber auch viele am pc mit dem controller + aimassist, da spielt die letzte ms inputlag eh keine rolle mehr^^
basix
2024-01-09, 23:12:56
Neues von der ReSTIR Front:
https://research.nvidia.com/labs/rtr/publication/kettunen2023conditional/
- Ein erster Prototyp eines verbesserten Ansatzes
- Output-Qualität nach Denoising weniger "Flickery & Wobbly"
- Weniger Artefakte, weniger Biased
- Weniger temporal Lag und Disocclusion Artifacts
- Reflexionen, Speculars, usw. werden besser abgebildet
Irgendwie liest sich das so, als ob man die positiven Qualitäten von DLSS Ray Reconstruction (DLSS-RR) erhalten kann, ohne DLSS-RR zu nutzen. Doch die Cherry on top: DLSS-RR obendrauf geht auch noch ;) Die Performance des Algorithmus ist laut Autoren noch nicht optimiert (mit etwas besserer Qualität und weniger Artefakten etwa gleich schnell wie ReSTIR PT, mit deutlich besserer Qualität einiges langsamer). Man ist aber anscheinend zuversichtlich, dass man einige Optimierungsvektoren hat und man bei gleichem Rechenbedarf wie ReSTIR PT die Qualität deutlich steigern kann.
DrFreaK666
2024-01-14, 15:41:05
n4hMZ_QmK4Y
Bestimmt wieder für alle Nicht-RTX-Karten deoptimiert ^^
Sieht aber ganz nice aus für den alten Titel
Relex
2024-01-16, 00:12:11
Nvidia schafft es gerade so echtzeit Pathtracing auf der aktuellsten GPU Generation vernünftig und mit brauchbarer Bildqualität lauffähig zu bekommen, baut Hardwarefeatures ein, um es weiter zu beschleunigen, haut ständig neue Paper raus, um die Algorithmen zu verbessern, kurz gesagt, Forschung und Entwicklung laufen gerade auf Hochturen und dann wirft man ihnen vor, dass die Implementierungen Nvidia optimiert seien, obwohl AMD weder hardware noch softwareseitig irgend was richtung pathtracing unternimmt…
Also mal ehrlich. Dass es Nvidia optimiert ist, ist bei dem aktuellen Entwicklungsstand einfach Voraussetzung, damit es gut läuft und das einzige, was ich erwarte. Ich ordne echtzeit Pathtracing momentan auch klar als experimentell ein und nicht als allgemeiner Standard.
Es ergibt aktuell aus meiner Sicht nichtmal Sinn, zu verlangen, dass es auf AMD überhaupt läuft. Die Karten wurden nie dafür gemacht. Und ohne Ray Reconstruction und entsprechend gutem Denoising ist Pathtracing eh kaum praktikabel (gut, bei Portal RTX gings noch da simple levelgeometrie, aber bei Cyberpunk wars ohne RR stellenweise schon furchtbar)
Pathtracing wird sich sicherlich irgendwann als Standard etablieren. Aber aktuell ist es nunmal Nvidias alleinige Spielwiese.
][immy
2024-01-16, 08:32:44
Nvidia schafft es gerade so echtzeit Pathtracing auf der aktuellsten GPU Generation vernünftig und mit brauchbarer Bildqualität lauffähig zu bekommen, baut Hardwarefeatures ein, um es weiter zu beschleunigen, haut ständig neue Paper raus, um die Algorithmen zu verbessern, kurz gesagt, Forschung und Entwicklung laufen gerade auf Hochturen und dann wirft man ihnen vor, dass die Implementierungen Nvidia optimiert seien, obwohl AMD weder hardware noch softwareseitig irgend was richtung pathtracing unternimmt…
Also mal ehrlich. Dass es Nvidia optimiert ist, ist bei dem aktuellen Entwicklungsstand einfach Voraussetzung, damit es gut läuft und das einzige, was ich erwarte. Ich ordne echtzeit Pathtracing momentan auch klar als experimentell ein und nicht als allgemeiner Standard.
Es ergibt aktuell aus meiner Sicht nichtmal Sinn, zu verlangen, dass es auf AMD überhaupt läuft. Die Karten wurden nie dafür gemacht. Und ohne Ray Reconstruction und entsprechend gutem Denoising ist Pathtracing eh kaum praktikabel (gut, bei Portal RTX gings noch da simple levelgeometrie, aber bei Cyberpunk wars ohne RR stellenweise schon furchtbar)
Pathtracing wird sich sicherlich irgendwann als Standard etablieren. Aber aktuell ist es nunmal Nvidias alleinige Spielwiese.
Na, was man Nvidia wohl eher anlasten kann, ist das sie seit Jahren damit werben, aber nur jeweils die aktuellste Hardware von ihnen Unterstützen. Tatsächlich gab es jetzt mal eine Ausnahme mit ein paar DLSS 3(.5) Features aber im allgemeinen ist es leider so. Und von bezahlbar haben sie sich in dem Bereich auch schon lange verabschiedet. Das ist ja eher der Knackpunkt an dem ganzen.
Es war noch nie so günstig ins PC gaming einzusteigen und gleichzeitig sind die GPUs die den Werbeversprechen nachkommen einfach viel zu teuer. So kann halt kein Standard draus werden der wirklich breitflächig als Ersatz für bestehende Techniken genutzt werden kann.
Natürlich ist die Konkurrenz auch nicht ganz unschuldig an dieser Situation. Wäre schön wenn Intel hier zumindest mal was größeres anbieten würde als den 770, dann könnte es auch mal ein wenig zum Preiskampf kommen.
Btw, diese Kritik gilt aus Konsumentensicht ;)
The_Invisible
2024-01-16, 08:56:51
Einstieg ist 1080p und da schafft eine 4070 auch PT, mein Bruder hat selbst mit einer 4060Ti 16GB CP2077 und AW2 mit PT durchgespielt. Wer mehr will muss halt mehr löhnen, war aber schon immer so. Da es seitens AMD keine Konkurrenz in Sachen RT/PT gibt und Intel allgemein zu weit zurückliegt kann sich NV hier halt austoben.
Exxtreme
2024-01-16, 09:05:57
Einstieg ist 1080p und da schafft eine 4070 auch PT,
Dieser Einstieg kostet mehr als eine Konsole. Und das ist nur die Grafikkarte ohne den restlichen PC. Von daher nicht verwundern, dass Leute auf so einen exorbitant teuren Einstieg pfeifen. :)
[immy;13472134']Na, was man Nvidia wohl eher anlasten kann, ist das sie seit Jahren damit werben, aber nur jeweils die aktuellste Hardware von ihnen Unterstützen.
Was für ein Blödsinn. Mit Ausnahme von FG kann Turing alles was Ada kann.
Lurtz
2024-01-16, 09:51:39
Wer sind Leute? Der Mobile-Markt ist übrigens bereits mit Abstand am größten, also wenn reine Popularität der Faktor ist, an dem man sich orientiert, siehts eh schlecht aus für unser Hobby...
Ich habe AW2 mit PT, FG und DLSS Performance auf der 4070 gespielt und abseits ein paar ekliger Drops war das ein tolles Erlebnis, das mir in dem Spiel mehr gegeben hat als 2160p oder 144 fps.
The_Invisible
2024-01-16, 11:52:33
Dieser Einstieg kostet mehr als eine Konsole. Und das ist nur die Grafikkarte ohne den restlichen PC. Von daher nicht verwundern, dass Leute auf so einen exorbitant teuren Einstieg pfeifen. :)
Naja Einstieg in PT auf Konsole wird noch 2 Gens/Refreshes dauern, bleeding edge tech hat schon immer gekostet. RT auf Konsolen ist ja dank AMD GPU auch nicht erwähnenswert.
Aber ja, den Großteil der Konsolenspieler ist das wohl egal, wenn nicht dann sieht man sich eh beim PC um.
DrFreaK666
2024-01-16, 16:06:35
Mein Sohn spielt hauptsächlich an seinem Tablet mit Touchsteuerung. Die Series S nutzt er eigentlich fast nur für Fortnite
Ihm ist RT egal, und wie ich schonmal erwähnt habe: Ich hab ihm mal CP2077 mit PT auf Youtube gezeigt.
Für ihn waren die 100% spiegelnden Pfützen total unrealistich. "Yo, so sehen keine Pfützen aus."
Er wünscht sich zwar einen PC, aber eher für Mods und nicht wegen RT
The_Invisible
2024-01-16, 16:15:15
Mein Sohn spielt hauptsächlich an seinem Tablet mit Touchsteuerung. Die Series S nutzt er eigentlich fast nur für Fortnite
Ihm ist RT egal, und wie ich schonmal erwähnt habe: Ich hab ihm mal CP2077 mit PT auf Youtube gezeigt.
Für ihn waren die 100% spiegelnden Pfützen total unrealistich. "Yo, so sehen keine Pfützen aus."
Er wünscht sich zwar einen PC, aber eher für Mods und nicht wegen RT
Dann würde ich öfter mit ihm rausgehen in die Stadt oder so, und nein, ich kram jetzt nicht wieder die Fotos raus, Google Suche kannst selber benutzen.
DrFreaK666
2024-01-16, 16:16:10
Dann würde ich öfter mit ihm rausgehen in die Stadt oder so, und nein, ich kram jetzt nicht wieder die Fotos raus, Google Suche kannst selber benutzen.
Deine Cherrypicking Fotos würden mich eh nicht überzeugen. Gibt sicherlich deutlich mehr Fotos ohne Spiegel, die auf dem Boden liegen ;)
Langlay
2024-01-16, 16:30:23
Deine Cherrypicking Fotos würden mich eh nicht überzeugen. Gibt sicherlich deutlich mehr Fotos ohne Spiegel, die auf dem Boden liegen ;)
Dich versuchen zu überzeugen ist ja wahrscheinlich auch zwecklos solange du dein Schubladendenken nicht ablegst. Ich würde aber vermuten dein Sohn ist noch nicht so festgefahren wie du und vielleicht offen für neues.
DrFreaK666
2024-01-16, 16:32:07
Was du so alles vermutest. Hast du Kids?
The_Invisible
2024-01-16, 16:41:38
Warten bis es auf AMD Karten akzeptabel läuft und dann ist es plötzlich der geilste Schei* ;)
DrFreaK666
2024-01-16, 16:45:52
Meine Kritik bezieht sich auf übertrieben starke Spiegelungen.
Hab schon anfangs gesagt, dass RTGI das wichtigste Feature für mich ist.
Ich nutze nicht umsonst Reshade mit RTGI für ältere Games
Langlay
2024-01-16, 16:48:26
Hast du Kids?
Was tut das den jetzt zur Sache? Nur weil ich eventuell Kinder habe die ich ggf. nie sehe qualifiziert mich das irgendwie? Oder andersrum wenn ich keinen eigene Kinder hab aber z.b. mit einer Partnerin zusammenlebe die Kinder hat disqualifiziert mich das?
Und das jüngere Menschen allg. weniger festgefahren sind als ältere Menschen ist jetzt keine steile These sondern einfach Fakt.
Ganz ehrlich imo kann man Raytracing Implementierungen gerne kritisieren tu ich ja auch. Aber es gibt mehr als Schwarz und Weiss.
Ich find es in CP77 auch nicht so richtig geil das rechts und links liegt Müll und Unrat und dazwischen spiegelt es sich als ob die Putzfrau ne Doppelschicht geschoben hat. Dafür reissen es halt andere Sachen wieder raus.
The_Invisible
2024-01-16, 16:49:07
Gibt bei Google einfach "city puddle mirror" ein und erfreue dich an den tausenden cherrypicked spiegelungen
DrFreaK666
2024-01-16, 16:53:48
...Und das jüngere Menschen allg. weniger festgefahren sind als ältere Menschen ist jetzt keine steile These sondern einfach Fakt...
Klar, deswegen spielen jüngere Menschen kein Roblox und Minecraft mehr, weil sie nicht festgefahren sind.
Langlay
2024-01-16, 17:03:32
Klar, deswegen spielen jüngere Menschen kein Roblox und Minecraft mehr, weil sie nicht festgefahren sind.
Das hab ich nicht behauptet, leg mir keine Worte in den Mund die ich nicht gesagt habe.
Ist mir aber eigentlich auch egal. Ich muss halt nich irgendwelche unbekannten dritten vorschieben um meine Meinung zu untermauern.
Für mich ist die Sache dann auch damit durch.
DrFreaK666
2024-01-16, 17:18:04
Richtig. Ich hab meine Meinung und du deine :)
boxleitnerb
2024-01-16, 18:10:56
Die Realität verweigern ist aber keine Meinung, sondern Quark. Eine ruhende Wasseroberfläche wie in Pfützen reflektiert nunmal je nach Blickwinkel bis zu 100%:
https://www.researchgate.net/figure/Reflectance-and-transmittance-vs-incident-angle-for-air-water-interface_fig6_343127494
Regnet es in deiner Realität nie? Gibt es keine Unebenheiten, in denen sich Pfützen bilden können?
Der Ratschlag, mal rauszugehen mit offenen Augen ist jetzt nicht so verkehrt...
DrFreaK666
2024-01-16, 18:12:38
Die Realität verweigern ist aber keine Meinung, sondern Quark. Eine ruhende Wasseroberfläche wie in Pfützen reflektiert nunmal je nach Blickwinkel bis zu 100%:
https://www.researchgate.net/figure/Reflectance-and-transmittance-vs-incident-angle-for-air-water-interface_fig6_343127494
Regnet es in deiner Realität nie? Gibt es keine Unebenheiten, in denen sich Pfützen bilden können?
Der Ratschlag, mal rauszugehen mit offenen Augen ist jetzt nicht so verkehrt...
Richtig, je nach Blickwinkel. Deswegen erwähnte ich vorhin auch "Cherrypicking"
Finds halt wierd, wenn die spiegelnde Oberfläche besser aussieht als der Untergrund/Boden. Das passt für mich einfach nicht
boxleitnerb
2024-01-16, 18:17:55
Richtig, je nach Blickwinkel. Deswegen erwähnte ich vorhin auch "Cherrypicking"
Finds halt wierd, wenn die spiegelnde Oberfläche besser aussieht als der Untergrund/Boden. Das passt für mich einfach nicht
Jetzt schauen wir noch mal auf das Diagramm:
Ja, es reflektiert kaum, wenn ich flache Einfallswinkel habe. Also z.B. eine Leuchte neben eine Pfütze stelle und mich als Betrachter dann auf die andere Seite auf den Boden lege - Einfallswinkel = Ausfallswinkel.
DAS ist Cherrypicking.
Wenn jetzt ein beleuchtetes Hochhaus/Werbereklame über die Pfütze mich anleuchtet, kannst du dir ja mal die Einfallswinkel aufmalen. Die sind nicht 0..30° sondern wahrscheinlich deutlich größer. Bei einer großen Pfütze kann ich näher hingehen oder weiter weg und mehrere Winkel erleben.
Und was heißt "besser"? Es spiegelt und der Dreck daneben spiegelt nicht bzw. wenn er feucht ist vielleicht diffus. Das ist halt so :freak:
Also ehrlich:
Kritik ist ja ok, aber sich gar keine Gedanken zu machen und einfach irgendwas rauszuhauen hat nur Stammtischniveau. Tut mir leid.
Slipknot79
2024-01-16, 18:23:12
https://www.youtube.com/results?search_query=walking+tour+rain
MOAR RT, Lederjacke liefert nachwievor, die Aktien ballern heute deswegen wieder durch. (y)
DrFreaK666
2024-01-16, 23:42:00
...
Kritik ist ja ok, aber sich gar keine Gedanken zu machen und einfach irgendwas rauszuhauen hat nur Stammtischniveau. Tut mir leid.
Du scheinst ein Problem damit zu haben, dass andere Menschen andere Geschmäcker haben können.
Ich mag auch eher scharfe Schatten als unscharfe. Sind unscharfe Schatten realistischer? Schon. Na und? Scharfe gefallen mir trotzdem besser.
Kannst natürlich wieder mit Diagrammen kommen, aber das interessiert mich nicht.
Das sind Games, die müssen bei mir nicht die Realität abbilden.
Realität habe ich tagtäglich.
Wenn es dir gefällt, dann nutze es; versuche mich aber nicht zu bekehren - das funktioniert nicht.
][immy
2024-01-17, 00:00:06
Die Realität verweigern ist aber keine Meinung, sondern Quark. Eine ruhende Wasseroberfläche wie in Pfützen reflektiert nunmal je nach Blickwinkel bis zu 100%:
https://www.researchgate.net/figure/Reflectance-and-transmittance-vs-incident-angle-for-air-water-interface_fig6_343127494
Regnet es in deiner Realität nie? Gibt es keine Unebenheiten, in denen sich Pfützen bilden können?
Der Ratschlag, mal rauszugehen mit offenen Augen ist jetzt nicht so verkehrt...
Ja, die Sache mit der Realität... Wer will am Bildschirm schon Realität sehen?
Wichtig ist doch das es gut aussieht. Pfützen können super Spiegel sein, aber nur unter Idealbedingungen. Schon der kleinste Luftzug macht für gewöhnlich keinen 1:1 Spiegel mehr draus. Ist halt in Spielen meist stark übertrieben und auf viele Lichtbrechungen wird verzichtet weil es eben zu teuer zu berechnen ist. Meistens sieht man in echten Pfützen dann auch nur eine undeutliche Spiegelung des grauen Himmels, zusammen mit der Farbe des Drecks der enthalten ist.
Zudem sehen die Dinge auch normalerweise nicht aus wie auf Fotos oder Videos, denn die Kameras sind deutlich lichtempfindlicher. Dementsprechend gibt es meist Enttäuschung wenn man Dinge live sieht, weil es eben nicht mehr so pompös aussieht (auch im Dunkeln nicht).
Meist wird in Spielen daher das Kamerabild nachempfunden und nicht das, was das menschliche Auge eigentlich sieht. Sieht halt cooler aus, was bei Spielen auch sinnvoll sein kann, aber im übertriebenen Maßstab halt wieder unwirklich aussieht und dann einfach falsch aussehen kann (das andere uncanny valley).
Das hat halt auch viel mit dem persönlichen empfinden zu tun. Manche stört es nicht, für andere wirkt es eventuell zu echt wodurch kleinste Fehler dann dafür sorgen das das Hirn sagt "sieht mies aus".
Mich persönlich stören z.B. die ganzen temporalen Artefakte teilweise so sehr daß ich lieber auf so manches verzichte weil sonst das uncanny valley voll zu schlägt. Selbst wenn es dann eigentlich schlechter aussieht, mag mein Hirn es dann trotzdem lieber ;)
Als Beispiel, ich fand das originale Tomb Raider sah am besten mit der s3 virge (mit 3d patch) aus. Es war zwar weich gewaschen, versteckte aber auch die harten Übergänge ganz gut, so das das Bild stimmiger wirkte. War von der Technik her aber wohl die schlechteste Version.
boxleitnerb
2024-01-17, 09:27:40
Du scheinst ein Problem damit zu haben, dass andere Menschen andere Geschmäcker haben können.
Ich mag auch eher scharfe Schatten als unscharfe. Sind unscharfe Schatten realistischer? Schon. Na und? Scharfe gefallen mir trotzdem besser.
Kannst natürlich wieder mit Diagrammen kommen, aber das interessiert mich nicht.
Das sind Games, die müssen bei mir nicht die Realität abbilden.
Realität habe ich tagtäglich.
Wenn es dir gefällt, dann nutze es; versuche mich aber nicht zu bekehren - das funktioniert nicht.
Du kennst scheinbar deine eigenen Beiträge nicht. Dass in #3953 dein Sohn und wohl auch du nicht wisst, wie Spiegelungen in der Realität aussehen, hat nichts mit Geschmack zu tun. Hättest du jetzt gesagt: „Doch, so ungefähr kann das schon aussehen, lass uns mal rausgehen oder Fotos ansehen.“ und ihr nachher dennoch feststellt, dass euch vorberechnete Spiegelungen besser gefallen, hätte niemand was sagen können.
Haben dir dann die vielen Spiegelungen in den Spielen vor RT dann auch nicht gefallen? Die gab es schließlich auch, nur haben sie eben statisch irgendwas dargestellt.
Was gefällt dir denn?
The_Invisible
2024-01-17, 09:34:01
Immer die gleichen "Argumente" und wenn man dann ansteht kommt man halt zum "persönlichen Geschmack" weil man da nix dagegen bringen kann. Gabs im AW2 Thread schon so eine Diskussion wegen den Schatten weil die ja nicht unscharf sein dürfen.
Ach AMD, bring mit RDNA4 endliche gute RT Performance dann hört diese sinnlose Diskussion endlich auf...
boxleitnerb
2024-01-17, 09:35:26
[immy;13472829']Ja, die Sache mit der Realität... Wer will am Bildschirm schon Realität sehen?
Wichtig ist doch das es gut aussieht. Pfützen können super Spiegel sein, aber nur unter Idealbedingungen. Schon der kleinste Luftzug macht für gewöhnlich keinen 1:1 Spiegel mehr draus. Ist halt in Spielen meist stark übertrieben und auf viele Lichtbrechungen wird verzichtet weil es eben zu teuer zu berechnen ist. Meistens sieht man in echten Pfützen dann auch nur eine undeutliche Spiegelung des grauen Himmels, zusammen mit der Farbe des Drecks der enthalten ist.
Zudem sehen die Dinge auch normalerweise nicht aus wie auf Fotos oder Videos, denn die Kameras sind deutlich lichtempfindlicher. Dementsprechend gibt es meist Enttäuschung wenn man Dinge live sieht, weil es eben nicht mehr so pompös aussieht (auch im Dunkeln nicht).
Meist wird in Spielen daher das Kamerabild nachempfunden und nicht das, was das menschliche Auge eigentlich sieht. Sieht halt cooler aus, was bei Spielen auch sinnvoll sein kann, aber im übertriebenen Maßstab halt wieder unwirklich aussieht und dann einfach falsch aussehen kann (das andere uncanny valley).
Das hat halt auch viel mit dem persönlichen empfinden zu tun. Manche stört es nicht, für andere wirkt es eventuell zu echt wodurch kleinste Fehler dann dafür sorgen das das Hirn sagt "sieht mies aus".
Mich persönlich stören z.B. die ganzen temporalen Artefakte teilweise so sehr daß ich lieber auf so manches verzichte weil sonst das uncanny valley voll zu schlägt. Selbst wenn es dann eigentlich schlechter aussieht, mag mein Hirn es dann trotzdem lieber ;)
Als Beispiel, ich fand das originale Tomb Raider sah am besten mit der s3 virge (mit 3d patch) aus. Es war zwar weich gewaschen, versteckte aber auch die harten Übergänge ganz gut, so das das Bild stimmiger wirkte. War von der Technik her aber wohl die schlechteste Version.
Hm es kann realistischer aussehen und trotzdem gut. Das schließt sich doch nicht aus. Kommt auf die Implementierung und den Artist sowie auch die Assets an. Funktioniert Raytracing mit durch Wind aufgewühlten Wasseroberflächen? Ich bin sicher es würde gehen. Genau wie auch diffuse Reflexe an lambertschen Streuern zB. Wie man Verunreinigungen berücksichtigt, weiß ich nicht - aber willst du das überhaupt, wenn du keine vollkommen realistische Abbildung möchtest? Du musst dich schon entscheiden.
Ich fotografiere sehr viel. Man kann die Realität im PP möglichst gut versuchen nachzubilden oder einen völlig kreativen Ansatz wählen. Deine Absolutaussage teile ich nicht.
P.S.
Den Gedanken mit dem uncanny Valley teile ich. Im Grunde sagst du mit dem Großteil deines Posts nichts Falsches, aber wie ich DrFreak schon schrieb: Ich argumentiere gegen Falschaussagen (sein Cherrypicking), explizit nicht gegen Geschmack. Ich bin echt gespannt, was für ihn denn dann überhaupt gut aussieht.
Im nächsten Spiel könnte RT dann nach eurem Geschmack umgesetzt sein, weil die Artists da zufällig dasselbe wollen wie ihr. Und dann?
[immy;13472829']Ja, die Sache mit der Realität... Wer will am Bildschirm schon Realität sehen?
Raytracing will diese zumindest simulieren.
Wichtig ist doch das es gut aussieht. Pfützen können super Spiegel sein, aber nur unter Idealbedingungen. Schon der kleinste Luftzug macht für gewöhnlich keinen 1:1 Spiegel mehr draus.
Das ist ein wichtiger Punkt, bei Windstille sind Pfützen immer perfekte Spiegel.
Ist halt in Spielen meist stark übertrieben
Eher umgekehrt, um Rays einzusparen werden die meisten Spiegelungen untertrieben, da man eben nicht das Ray-Budget für schöne scharfe Spiegelungen hat.
Meistens sieht man in echten Pfützen dann auch nur eine undeutliche Spiegelung des grauen Himmels, zusammen mit der Farbe des Drecks der enthalten ist.
In Pfützen sieht man immer eine perfekte Spiegelung von was auch immer, außer es ist windig.
Zudem sehen die Dinge auch normalerweise nicht aus wie auf Fotos oder Videos, denn die Kameras sind deutlich lichtempfindlicher.
Das ist nun quatsch, Kameras können bei der Lichtempfindlichkeit und Dynamik bei weitem nicht mit unseren Augen mithalten.
Complicated
2024-01-17, 10:08:52
Immer die gleichen "Argumente" und wenn man dann ansteht kommt man halt zum "persönlichen Geschmack" weil man da nix dagegen bringen kann. Gabs im AW2 Thread schon so eine Diskussion wegen den Schatten weil die ja nicht unscharf sein dürfen.
Ich glaube das Thema entzweit euch in der Argumentation, weil ihr beide Recht habt. Ich nenne mal das Stichwort "uncanny valley", wenn es um die Annäherung zum Realismus geht. Irgendwann muss dieser Punkt kommen um dann darüber hinweg zu kommen.
Der "Persönliche Geschmack" ist insofern sehr relevant, um die Adaption über den Punkt hinaus zu pushen. Wer den Begriff nicht kennt:
Das „Uncanny Valley“ beschreibt eine Kurve der menschlichen Reaktion: Je mehr eine künstliche Figur einem Menschen ähnelt, desto positiver ist deine Reaktion — bis zu einem gewissen Punkt. Wenn die Figur fast, aber nicht ganz menschlich aussieht, fühlst du dich nämlich unwohl.
Dieser plötzliche Abfall deiner positiven Gefühle sieht auf einer Grafik aus wie ein Tal, daher der Name „Uncanny Valley“, zu Deutsch „unheimliches Tal“.
redpanther
2024-01-17, 10:57:06
Ich glaube das Thema entzweit euch in der Argumentation, weil ihr beide Recht habt. Ich nenne mal das Stichwort "uncanny valley", wenn es um die Annäherung zum Realismus geht. Irgendwann muss dieser Punkt kommen um dann darüber hinweg zu kommen.
Der "Persönliche Geschmack" ist insofern sehr relevant, um die Adaption über den Punkt hinaus zu pushen. Wer den Begriff nicht kennt:
Aber den Uncanny Effekt gibts doch nur bei Menschlichen Figuren, oder?
Hat IMHO auch nicht unbedingt etwas mit Raytracing oder Computergrafik zu tun. Könnte zB demnächst auch bei Humanoiden Robotern in RL passieren.
[immy;13472829']
Als Beispiel, ich fand das originale Tomb Raider sah am besten mit der s3 virge (mit 3d patch) aus. Es war zwar weich gewaschen, versteckte aber auch die harten Übergänge ganz gut, so das das Bild stimmiger wirkte. War von der Technik her aber wohl die schlechteste Version.
OT: du kannst nach 30 Jahren noch solche Bildvergleiche ziehen? Respekt.
Die s3 war meine erste Graka, ich weiß nur noch, das Descent 2 damit recht bescheiden lief. Mehr leider nicht.
Complicated
2024-01-17, 11:15:29
Ich denke es kommt immer zum tragen wenn es um Realitätsnähe geht und dann eben minimale, fast nur unterbewußt wahrnehmbare, Abweichungen vorhanden sind. Da spielt auch der Rest eine Rolle. z.B. Wenn das Umfeld weit deutlicher von der Realität abweicht als die Pfützen - das Gefühl entsteht aus dem Gesamteindruck der Szene.
DrFreaK666
2024-01-17, 12:07:00
Du kennst scheinbar deine eigenen Beiträge nicht. Dass in #3953 dein Sohn und wohl auch du nicht wisst, wie Spiegelungen in der Realität aussehen, hat nichts mit Geschmack zu tun...
Hast die Diskussion mit dem Wind wohl überlesen.
In Night City gibt es wohl absolut kein laues Lüftchen. Und dass man sich als Spielfigur nicht in den nie von Wind betroffenen Pfützen spiegelt, ist auch nicht gerade hilfreich. Oder gibt es eine Option, die ich übersehen habe?
Vor meiner Haustür ist eine Pfütze. Darin spiegelt sich der graue Himmel und ein Hausdach. Es sieht nicht aus wie ein Spiegel, weil es regnet.
Ist jetzt kein Wind, aber Bewegung sorgt dafür, dass die Pfütze kein Spiegel ist
boxleitnerb
2024-01-17, 12:58:47
Hast die Diskussion mit dem Wind wohl überlesen.
In Night City gibt es wohl absolut kein laues Lüftchen. Und dass man sich als Spielfigur nicht in den nie von Wind betroffenen Pfützen spiegelt, ist auch nicht gerade hilfreich. Oder gibt es eine Option, die ich übersehen habe?
Vor meiner Haustür ist eine Pfütze. Darin spiegelt sich der graue Himmel und ein Hausdach. Es sieht nicht aus wie ein Spiegel, weil es regnet.
Ist jetzt kein Wind, aber Bewegung sorgt dafür, dass die Pfütze kein Spiegel ist
Nein, zum Wind habe ich was geschrieben. Aber auch da ist bei RT der Inhalt korrekter, selbst wenn es diffuser streut. Farben, Intensitäten, Formen.
Oft beschwert man sich, dass RT/PT zu viel kostet und jetzt soll noch eine caustics simulation draufkommen? 😁
Also nicht falsch verstehen, ich fände das geil! Es ist mir klar, dass nicht jeder das zu schätzen wüsste und den abnehmenden Grenzertrag scheiße findet. Aber man muss sich eben schon entscheiden, was man will.
The_Invisible
2024-01-17, 13:03:31
Womit wir wieder beim Thema sind das Raster jahrzehntelang "falsch" sein durfte aber RT/PT sofort perfekt sein muss.
Man dreht sich im Kreis, Computergrafik ist immer ein Kompromiss nur wirds eben immer besser
boxleitnerb
2024-01-17, 13:12:50
Womit wir wieder beim Thema sind das Raster jahrzehntelang "falsch" sein durfte aber RT/PT sofort perfekt sein muss.
Man dreht sich im Kreis, Computergrafik ist immer ein Kompromiss nur wirds eben immer besser
Korrekt. Früher hat 32 Bit, AF, Bump Mapping, AA teilweise Unmengen an Leistung gekostet. Lange wurde SSSA über die Spiele drübergebügelt und über Schärfe gestritten 😜
Heute ist der Pioniergeist nicht mehr da, vermutlich weil viele älter sind und die Hardware viel teurer. Früher war es krass, den Nature Test im 3DMark2001 oder Crysis über den Bildschirm ruckeln zu sehen. Heute wird lieber die Mistgabel ausgepackt und gemeckert.
dargo
2024-01-17, 13:22:18
Korrekt. Früher hat 32 Bit, AF, Bump Mapping, AA teilweise Unmengen an Leistung gekostet. Lange wurde SSSA über die Spiele drübergebügelt und über Schärfe gestritten ��
Heute ist der Pioniergeist nicht mehr da, vermutlich weil viele älter sind und die Hardware viel teurer. Früher war es krass, den Nature Test im 3DMark2001 oder Crysis über den Bildschirm ruckeln zu sehen. Heute wird lieber die Mistgabel ausgepackt und gemeckert.
Der Wow-Effekt war früher auch wesentlich größer als die heutigen Minischritte bei dennoch horrenden Kosten. Die beinah Stagnation bei dGPUs der letzten Jahre ist dabei auch nicht gerade förderlich.
boxleitnerb
2024-01-17, 13:27:57
Der Wow-Effekt war früher auch wesentlich größer als die heutigen Minischritte bei dennoch horrenden Kosten. Die beinah Stagnation bei dGPUs der letzten Jahre ist dabei auch nicht gerade förderlich.
Das würde ich so pauschal nicht sagen, gerade bei Extra Features. Grundsätzlich ist die Aussage aber nicht falsch. Es gibt heute und auch damals Effekte, die unverhältnismäßig teuer waren.
redpanther
2024-01-17, 13:45:07
Der Wow-Effekt war früher auch wesentlich größer als die heutigen Minischritte bei dennoch horrenden Kosten. Die beinah Stagnation bei dGPUs der letzten Jahre ist dabei auch nicht gerade förderlich.
Etwas was schon sehr gut ist, weiter zu verbessern ist halt nicht so einfach und vor allem nicht in so großen Schritten möglich.
Ist doch in fast allen Bereichen so. Oder findest du ein gutes Auto aus den 90ern ist irgendwas grundsätzlich anders als heute.
Bei Autos hatte ich jedenfalls nie einen WOW Effekt. Konstante verbesserung die man merkt, ja. Aber kein WOW.
Ich persönlich habe nur einen WOW effekt der mir in Erinnerung geblieben ist und das war als ich die erste Voodoo in meinen Rechner geschraubt habe und dann sowas wie Unreal und POD spielen durfte.
Das war tatsächlich ein Quantensprung, wo mir nichts vergleichbares einfällt. Habt ihr mehr WOW Effekte an die ihr euch erinnert?
DrFreaK666
2024-01-17, 14:36:39
...Aber man muss sich eben schon entscheiden, was man will.
Habe gesagt, was ich will: weniger scharfe Spiegelungen, die es in der Realität nur in winddichten Hallen gibt.
...Habt ihr mehr WOW Effekte an die ihr euch erinnert?
Das Quecksilber... äh Wasser in Morrowind :D
Unreal war damals aber schon was Besonderes
boxleitnerb
2024-01-17, 15:02:08
Habe gesagt, was ich will: weniger scharfe Spiegelungen, die es in der Realität nur in winddichten Hallen gibt.
Das macht doch schon wieder keinen Sinn. Ohne Wind ist (sauberes) Wasser ein perfekter Spiegel bei großen Einfallswinkeln. Die Spiegelung ist also knackscharf. Es gibt übrigens in der Realität auch Tage ohne Wind. Aber was weiß ich schon...
Diskussionen machen nur Sinn, wenn auch ein gewisses Grundwissen besteht. Das sehe ich bei dir nicht.
DrFreaK666
2024-01-17, 15:20:36
Gut, vielleicht habe ich da nicht kange genug nachgedacht. Wir haben aber einige Seen bei uns in der Nähe (mehr oder weniger) und ich kann mich an keine perfekte Spiegelung im Wasser erinnern.
Ein Beispiel aus dem Netz zum Thema "Windstille"
https://i.postimg.cc/6QGdpPf6/windstille-am-see-3d7463f7-b6c1-4df4-b93c-ce13da62fd13.jpg (https://postimg.cc/bGpG6354)
Das Boot vorne ist scharf, aber die Spiegelung weiter hinten nicht.
Bei The Witcher 3 sieht es auch in Ordnung aus und da wird sich bewegendes Wasser simuliert
The_Invisible
2024-01-17, 15:27:02
auch in cp2077 sind große wasserflächen keine perfekten spiegel, ka was du uns eigentlich sagen willst...
DrFreaK666
2024-01-17, 15:29:36
ok. Habe noch keine große Wasserfläche gesehen, sondern nur die kleinen Pfützen in der Stadt
Rooter
2024-01-17, 20:30:19
Gut, vielleicht habe ich da nicht kange genug nachgedacht. Wir haben aber einige Seen bei uns in der Nähe (mehr oder weniger) und ich kann mich an keine perfekte Spiegelung im Wasser erinnern.
Ein Beispiel aus dem Netz zum Thema "Windstille"
https://i.postimg.cc/6QGdpPf6/windstille-am-see-3d7463f7-b6c1-4df4-b93c-ce13da62fd13.jpg (https://postimg.cc/bGpG6354)
Das Boot vorne ist scharf, aber die Spiegelung weiter hinten nicht.
Bei The Witcher 3 sieht es auch in Ordnung aus und da wird sich bewegendes Wasser simuliertAus welchem Spiel ist das?
:tongue:
MfG
Rooter
boxleitnerb
2024-01-17, 20:49:17
Windstill ist es jedenfalls nur begrenzt, man sieht ja schon die Wellenfronten vorne. Ob eine Wasseroberfläche jemals völlig ruhig ist? Eine gewisse Unschärfe bei entfernteren Spiegelungen ist normal, denke ich.
Aus welchem Spiel ist das?
Aus dem Spiel Canon EOS 60D
Ich persönlich habe nur einen WOW effekt der mir in Erinnerung geblieben ist und das war als ich die erste Voodoo in meinen Rechner geschraubt habe und dann sowas wie Unreal und POD spielen durfte.
Der bewegte Himmel in POD. :eek:
Das war tatsächlich ein Quantensprung, wo mir nichts vergleichbares einfällt. Habt ihr mehr WOW Effekte an die ihr euch erinnert?
Hatte ich erst, als ich vor einigen Wochen die Quest 3 aufsetzte. Ansonsten hat mich das erste echte PhysX Spiel Batman geflasht. Schade, daß es nicht mehr so konsequent weiter eingesetzt wird.
DrFreaK666
2024-01-18, 00:55:59
Aus welchem Spiel ist das?
:tongue:
MfG
Rooter
Nennt sich Realität. Solltest auch mal versuchen :D
Erinnert an Toussaint (Witcher 3). ;)
MfG
Raff
vinacis_vivids
2024-01-18, 21:35:50
CP2077 Raster vs Ray-Tracing bei AMD
1pzd_XTKqB0
Bewertet selbst, ob die ~70% Leistungshit es wert sind auf AMD-GPU.
Relex
2024-01-19, 18:56:08
Bewertet selbst, ob die ~70% Leistungshit es wert sind auf AMD-GPU.
Seltsame Frage. Heavy RT loht sich auf AMD GPUs nie, weil die FPS ins Bodenlose einbrechen.
Die Karten sind halt nicht dafür gemacht. Aber ist ja nix neues, dass man für RT auf Nvidia setzt.
Die Bewertungsgrundlage ob es sich lohnt ist auf AMD und Nvidia daher ne völlig andere.
Nichtsdestotrotz finde ich die Vergleiche schlecht gewählt.
Bei Nacht und bei direktem Sonnenlicht tut sich mit RT recht wenig am Bild. Da profitiert man von Detailverbesserungen, die im Gesamtbild aber weniger dramatisch ausfallen.
Die primäre Stärke von RT und letztendlich Pathtracing ist das Verteilen von Licht in der Szene durch mehrere Bounces. Und das sieht man bei Cyberpunk eben an allen Stellen die indirekt beleuchtet werden bzw. im Schatten liegen.
Also einfach nicht vor ein Gebäude in die Sonne stellen, sondern mal dahinter.
Da die Stadt mit den Hochhäusern viele Gassen und Häuserschluchten hat, die auch tagsüber verschattet sind, macht das einen massiven Unterschied.
Hier mal ein paar einfache Beispiele:
Raster
Man achte darauf, wie die Schatten unter und innerhalb der Terrasse komplett fehlen
https://i.postimg.cc/3wNMQLV6/01-Raster.png
RT
https://i.postimg.cc/9M9ncspx/01-RT.png
PT
Schatten unter der Terrasse ist da, die Terrasse selbst liegt im Schatten und man erkennt jetzt auch, dass an der Hauswand und bei der Terrasse Lampen platziert wurden.
https://i.postimg.cc/hGZBJFVc/01-PT.png
Raster
Besonders deutlich beim Einkaufswagen in der mitte bzw. rechts daneben zu sehen. Da fehlen zig Schatten.
Aber auch die Hauswand wird bläulich von der blauen Skybox im Spiel beleuchtet, obwohl die Skybox verdeckt ist, statt indirekt von dem einfallenden Licht der Sonne.
https://i.postimg.cc/5thsKnV8/02-Raster.png
RT
Schon besser.
https://i.postimg.cc/sXP46zKR/02-RT.png
PT
Viel besser. Viel mehr Schattierungen, deutlich realistischere Ausleuchtung. Keine Spur mehr vom comic look und selbst der Einkaufswagen wirkt jetzt, als wäre er aus Metall. Mit Raster sah er eher nach Kunststoff aus.
Auch die Wand wird jetzt indirekt vom einfallenden Licht der Sonne beleuchtet, das links im Bild den Boden beleuchtet und damit auch die Wand beleuchtet und hat dadurch nen deutlich wärmeren Farbton (Kein Light leaking der Skybox mehr)
https://i.postimg.cc/FHKCYYpk/02-PT.png
Unterm Strich: Die Rastergrafik wirkt im Vergleich zu RT und PT extrem comichaft, und die Objekte heben sich teilweise deutlich von der Szene ab oder leuchten förmlich, weil so viele großflächige Verschattungen fehlen. Ambient Occlousion in Rastergrafik kann nur in sehr begrenztem Radius für Schattierungen sorgen und kommt hier sehr schnell an die Grenze.
Sobald die Leistung mal da ist, macht man RT oder PT so schnell nicht mehr freiwillig aus. :up:
Edit:
Und nochmal, just for the lulz
Raster
https://i.postimg.cc/GtCWrtPg/Raster.png
PT
https://i.postimg.cc/mgpWMbRh/PT.png
Raster Grafik sieht im Vergleich aus, als hätte man alles auf Ultra-Low gestellt. ;D
Da kommt man fast ins grübeln, ob es sich nicht doch auf AMD lohnen würde^^
dildo4u
2024-01-21, 09:00:41
Hoffnung für RDNA3?Fand die neuen Werte von PCGH interessant.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13475542&postcount=3291
The_Invisible
2024-01-21, 10:08:07
Der hat gegengetestet und nur max 15% gesehen:
DEG-flOOXw8
Und selbst wenn ist es ein Einzelgänger und keine allgemeine Bremse da es sich sonst überall auswirken müsste.
dargo
2024-01-21, 10:41:32
Edit:
Und nochmal, just for the lulz
Raster
https://i.postimg.cc/GtCWrtPg/Raster.png
PT
https://i.postimg.cc/mgpWMbRh/PT.png
Raster Grafik sieht im Vergleich aus, als hätte man alles auf Ultra-Low gestellt. ;D
Für mich sieht beides aus wie Lastgen. :ulol: Daran ändert die andere Beleuchtung rein gar nichts.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.