PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Unreal Engine 5


Seiten : 1 2 3 4 5 6 7 [8] 9

1ch0
2024-05-20, 15:32:59
Oh, ich bin gespannt auf Wukong. :) Das wird sicher ein optisches Fest. Ich hoffe nur, dass es kein bockschweres Dark Souls wird.

Relex
2024-05-20, 17:29:09
Na ja, die Kämpfe erinnern schon an ein Soulslike und mich würde es wundern wenn es kein (schweres) Soulslike wird.

Auf Steam steht auch z.B. folgendes:

Als Auserkorener triffst du auf deiner Reise auf mächtige Feinde und würdige Rivalen. Begegne ihnen furchtlos in epischen Kämpfen, in denen Aufgeben keine Option ist.


Deutet also an, dass es schwer wird.

Aber gut, noch sagt das wenig aus. Könnte ja auch verschiedene Schwierigkeitsgrade geben.

Falls nicht kann ich natürlich nur empfehlen sich dem Genre mal anzunehmen.
Soulslikes sind zwar teilweise bzw. stellenweise ziemlich schwer, aber das meiste ist eher oberflächliche Schwierigkeit, weil diese Spiele in erster Linie mangelnde Auffassungsgabe und Ungeduld bestrafen. :biggrin:
Die wichtigste Ressource in Soulslikes ist schlichtweg "wissen". Wissen über das Spiel, wissen über die Welt und Gegner und wissen über die eigenen Fähigkeiten und Möglichkeiten als Spieler bzw. Charakter.
Wenn man die Spiele verstanden hat und rausgefunden hat, wie man dieses wissen erlangt, ohne ständig zu sterben und das Spiel quasi "lesen" kann, dann werden sie sehr, sehr viel einfacher.
Bei den meisten anderen Spielen brauchst du auf höchstem Schwierigkeitsgrad viel mehr spielerischen Skill und Geschick als bei einem Soulslike.
Deswegen macht es häufig auch keinen Sinn, bei einem Soulslike andere Schwierigkeitsgrade anzubieten, weil es eben nicht auf Skill und Geschick ankommt sondern auf Spielverständnis. Und dieses Gameplaykonzept bzw. diesen integralen bestandteil des Spieldesigns würde man mit einem niedrigeren Schwierigkeitsgrad zunichte machen.

Fairerweise muss man aber auch dazu sagen, dass manche Entwickler diesen Gedanken nicht oder nicht ganz erfasst haben und dann ein Spiel unter dem Label "Soulslike" auf den Markt werfen, was die genannten Aspekte gar nicht bieten kann und wirklich nur auf völlig stumpfe Weise bock schwer ist. Auf sowas hab ich persönlich auch keine Lust.

The_Invisible
2024-05-20, 21:10:49
Wenn es so wird wie Elden Ring passt es doch. Mich interessiert aber eher wie es mit Pathtracing performt, wahrscheinlich aber eh gleich wie CP2077 und AW2

Fusion_Power
2024-05-20, 21:31:12
du hast vergessen deinen Post mit einem /s zu markieren.
Grayzone in einem Absatz in Verbindung mit "ohne Ruckler", "smooth" und "bleibt smooth" zu lobhudeln kann ja nur gelebter Sarkasmus sein.

Wenn du nun Grayzone gegen Arena Breakout: Infinite ersetzt hättest würde ich die Aussage glaubhaft finden.;D
Und beide Extraction Shooter Games laufen schon jetzt besser und sehen besser aus als es Tarkov je tat. :freak:
Ok, ist Unity aber auch in der Unreal-Familie scheints gigantische Performance Unterschiede bei ähnlichen Games zu geben, ich sag nur Fortnite<-->PubG. Ok, grafisch nicht vergleichbar aber von der Art des Spiels her schon.
Ich war echt überrascht als ich neulich erst realisierte, dass PubG auch die Unreal Engine verwendet, dachte immer Unity oder so. Sieht jedenfalls nach Unity aus und performt auch ähnlich mies. Sie wollen wohl auf UE 5 wechseln aber wenn ein game schon mit UE4 mies läuft, wird das vermutlich dann auch nicht mehr so viel reißen, oder?

aufkrawall
2024-05-20, 21:37:05
Fortnite läuft einfach nur wie Gülle auf GeForces im Vergleich zu Radeons. Je langsamer die CPU, desto schlimmer wird es. 4070 fliegt gleich wieder raus, ertrage das selbst bei reduzierten Details nicht länger. :freak:

Fusion_Power
2024-05-20, 23:10:08
Fortnite läuft einfach nur wie Gülle auf GeForces im Vergleich zu Radeons. Je langsamer die CPU, desto schlimmer wird es. 4070 fliegt gleich wieder raus, ertrage das selbst bei reduzierten Details nicht länger. :freak:
Davon höre ich tatsächlich das erste mal... :eek:

Sardaukar.nsn
2024-05-20, 23:40:45
Davon höre ich tatsächlich das erste mal... :eek:

Kann ich auch nicht bestätigen, meine Kids zocken gerade das Star Wars Addon für LEGO Fortnite. https://www.youtube.com/watch?v=OxweH-5prtI

aufkrawall
2024-05-20, 23:59:19
Ihr könnt ja ein Video mit NV-GPU, Zen 3 und Frame Time Graph posten, der bei Traversal am Boden halbwegs glatt bleibt (natürlich mit gecacheten Shadern).
Bzw. will ich mal arg bezweifeln, dass ihr fündig werdet, wenn der Graph halbwegs sinnvoll eingestellt ist. Und Kids & Lego-Modus, also bitte... :freak:

Fusion_Power
2024-05-21, 01:02:30
Ihr könnt ja ein Video mit NV-GPU, Zen 3 und Frame Time Graph posten, der bei Traversal am Boden halbwegs glatt bleibt (natürlich mit gecacheten Shadern).
Bzw. will ich mal arg bezweifeln, dass ihr fündig werdet, wenn der Graph halbwegs sinnvoll eingestellt ist. Und Kids & Lego-Modus, also bitte... :freak:
Ich habe eine GTX 1050 TI aber kein Fortnite, sorry. :freak: Aber ich behaupte mal, Fortnite würde sogar darauf spielbar laufen, natürlich nicht mit vollen Details. ;)
Hey, ich schaffe über 120FPS in Overwatch, bei 1080p und mittleren Details mit der Karte. OK, ist keine Unreal Engine aber zeigt dass vieles geht wenns nur richtig optimiert wurde. Minecraft läuft wesentlich beschissener drauf. ^^

Raff
2024-05-21, 01:41:10
Heute um 10 Uhr gibt's eine neue Ladung Benchmark-Daten – Unreal Engine 5.3.2, incoming! :D

MfG
Raff

Sardaukar.nsn
2024-05-21, 06:53:24
Bzw. will ich mal arg bezweifeln, dass ihr fündig werdet, wenn der Graph halbwegs sinnvoll eingestellt ist. Und Kids & Lego-Modus, also bitte... :freak:

Läuft auch auf der 4090 nicht dauerhaft mit nativ 4k/60. Lumen Illumination, Reflection und Hardware RT hauen auch da rein. Ähnlich wie der Raytracing Showcase "Builder's Journey" vor zwei Jahren: https://www.youtube.com/watch?v=2p71ltZ_qH0

tadhh4JU5Xg

Raff
2024-05-21, 10:05:16
Heute um 10 Uhr gibt's eine neue Ladung Benchmark-Daten – Unreal Engine 5.3.2, incoming! :D

There you go: Hellblade 2 im Tech Test: Umwerfende Grafik, bodenständige Performance (https://www.pcgameshardware.de/Senuaxs-Saga-Hellblade-2-Spiel-72402/Specials/Release-Test-Benchmarks-1447825/)

Eine würzige Mischung, die Radeons schmeckt - Alchemist und die UE5 werden aber wohl keine Freunde mehr.

MfG
Raff

dildo4u
2024-05-21, 10:08:02
Ziemlich normal die 4090 kann sich 30% absetzen vermutlich nicht sonderlich CPU Limitiert.

Entspricht eurem Raster 4k Index.


fpX39HY7ujI

DrFreaK666
2024-05-21, 10:30:55
There you go: Hellblade 2 im Tech Test: Umwerfende Grafik, bodenständige Performance (https://www.pcgameshardware.de/Senuaxs-Saga-Hellblade-2-Spiel-72402/Specials/Release-Test-Benchmarks-1447825/)

Eine würzige Mischung, die Radeons schmeckt - Alchemist und die UE5 werden aber wohl keine Freunde mehr.

MfG
Raff

Meine 6700XT ist a bissl zu schwach für 1440p ^^
Hoffe, dass die 8800XT tatsächlich die Leistung der 7900XT erreichen wird

dildo4u
2024-05-21, 10:41:52
Warum zu schwach passt das nicht zur XBox Version?
Niedrige FPS würden mich nicht stören das Gameplay schient fast immer Walking Simulator.

DrFreaK666
2024-05-21, 11:27:49
Meinte ja nicht im Vergleich zur XBox-Version. Aber 60FPS sind sooooo weit weg. Bin gespannt wie weit ich die Grafik abspecken muss um 60FPS zu erreichen

Raff
2024-05-21, 11:35:01
Gar nicht arg - die Entwickler müssen nur FSR FG implementieren, dann hast du deine 60. :D Dass das noch nicht drin ist (nur DLSS DG), ist mal wieder Bullfug.

MfG
Raff

DrFreaK666
2024-05-21, 12:17:34
Ja ne. Hab noch einen uralt-Monitor mit 60Hz. Qnix sagt dir noch was? :D

Relex
2024-05-21, 12:18:48
Vielleicht hatten sie auch wieder mit dem Framepacing zu kämpfen?

Die Entwickler scheinen ja daran irgendwie zu verzweifeln.

Bei Ghost of Tsushima hats ja nichtmal nixxes hinbekommen. Auf AMD ruckelts, bei Nvidia ist es zumindest brauchbar, wenn auch leicht schlechter als DLSS FG- Bei Horizon fehlt es auch komplett und die Avatar Entwickler hatten ja zuletzt auch gesagt, dass es ne große Herausforderung ist. Glaub Avatar läuft ja noch immer nicht flüssig mit FG. Bei Last of Us hat man auch etliche Anläufe gebraucht.

Selbst CD Projekt wollte FSR3 FG bringen und die haben es noch immer nicht veröffentlicht.

Also sorry, dann kann man das doch kaum den Entwicklern ankreiden, wenn die durch die Bank Probleme damit haben.

Aus Kunden sich natürlich sehr ärgerlich, aber ich denke da muss in erster Linie wohl AMD nachbessern.

The_Invisible
2024-05-21, 12:20:55
Gar nicht arg - die Entwickler müssen nur FSR FG implementieren, dann hast du deine 60. :D Dass das noch nicht drin ist (nur DLSS DG), ist mal wieder Bullfug.

MfG
Raff

Laut CB ist hier die FSR-Upscaling Qualität aber wieder mangelhaft, selbst XeSS wird nicht empfohlen, da rät man zu DLSS/TSR. Wenns FSR 3.1 verwenden kanns was werden.

DrFreaK666
2024-05-21, 12:32:16
Laut CB ist hier die FSR-Upscaling Qualität aber wieder mangelhaft, selbst XeSS wird nicht empfohlen, da rät man zu DLSS/TSR. Wenns FSR 3.1 verwenden kanns was werden.

Raff sprach von FSR FG. In Zukunft wird es öfter mit anderen Upscalern nutzbar sein

Raff
2024-05-21, 12:33:57
Yep, ich meine nur FG, nicht den "Super Resolution"-Teil. Dass FSR in Hellblade 2 nicht gut aussieht, schreibt (hoffentlich) jeder mit Augen. :D XeSS finde ich aber ordentlich.

MfG
Raff

DrFreaK666
2024-05-21, 13:22:57
Habe nun alles auf Mittel, Texturen auf Hoch. Wegen den Upscalern muss ich noch schauen

aufkrawall
2024-05-21, 17:28:14
Glaub Avatar läuft ja noch immer nicht flüssig mit FG.
Das läuft ähnlich gut wie mit DLSS 3 FG via PureDark-Mod, für die man ebenfalls die schlechte spieleigene Latenz-Optimierung in der Config deaktivieren muss.
Du verbreitest ständig Fake News über FSR 3 FG mit deiner "Für FSR 3 Frame Pacing muss das Spiel quasi komplett neu geschrieben werden!11"-Räuberpistole, langsam nervt es.
Es wurde btw. auch in vielen Titeln auch noch nachträglich gefixt...

Relex
2024-05-21, 17:34:49
Das läuft ähnlich gut wie mit DLSS 3 FG via PureDark-Mod, für die man ebenfalls die schlechte spieleigene Latenz-Optimierung in der Config deaktivieren muss.
Du verbreitest ständig Fake News über FSR 3 FG mit deiner "Für FSR 3 Frame Pacing muss das Spiel quasi komplett neu geschrieben werden!11"-Räuberpistole, langsam nervt es.
Es wurde btw. auch in vielen Titeln auch noch nachträglich gefixt...

Klar ich verbreite Fake news, obwohl ständig Seiten wie Digital Foundry oder Computerbase schreiben, dass es ruckelt oder zumindest das Framepacing nicht passt.

Avatar ruckelt mit FSR FG wie verrückt, mit der DLSS Mod läuft es perfekt.
Talos 2 läuft mit FSR FG flüssig.
Starfield auch.
Bei GoT läuft es auch flüssig, das Framepacing ist aber nicht auf dem Niveau von DLSS, das sieht man, stört aber nicht wirklich.

Wenn FSR FG funktioniert, sag ich das auch. Nur ist das halt definitiv nicht in allen Spielen der Fall und es gibt eben ständig Probleme damit auch auf AMD Karten. Das ist nunmal fakt.


Wenn du denkst dass ich kein Interesse daran hätte, dass auf AMD Bildqualität und Framepacing mit FG gut ist, nur weil ich Nvidia ziemlich häufig lobe, dann liegst du leider falsch.
Ich hätte gerne beim nächsten Kauf die freie Wahl zwischen AMD und Nvidia, aber so dinge wie FG und Upscaling sind eben für mich mittlerweile essenziell und kein optionales gimmick. Wenn da die Qualität nicht stimmt, ist das für mich eben ein Ausschlusskriterium.
Mit der Kritik will ich nur auf Probleme aufmerksam machen in der Hoffnung, dass sie früher oder später bei AMD ankommt und das priorisiert wird.

aufkrawall
2024-05-21, 17:40:56
Avatar ruckelt mit FSR FG wie verrückt, mit der DLSS Mod läuft es perfekt.

Ja, liegt an der Latenzreduktion, die es offenbar in keinem anderen Spiel gibt. Wie oft muss man dir das noch mitteilen?
Und nein, die muss man für die DLSS-Mod genauso abschalten, sonst limitiert sich das Spiel intern auf 10fps, genau wie mit FSR via Mod...


Talos 2 läuft mit FSR FG flüssig.

Und du glaubst, die haben da mit ihren geschätzt 1-3 Programmierern ewig dran rumgeschraubt, damit es erst richtig funktioniert? :freak:
Voll logisch...

Relex
2024-05-21, 17:45:16
Ja, liegt an der Latenzreduktion, die es offenbar in keinem anderen Spiel gibt. Wie oft muss man dir das noch mitteilen?
Und nein, die muss man für die DLSS-Mod genauso abschalten, sonst limitiert sich das Spiel intern auf 10fps, genau wie mit FSR via Mod...


Wenn ich mit der DLSS FG Mod weit über 100 FPS habe, dann kann doch das Game intern nicht mit 10 FPS rendern. Ergibt für mich keinen Sinn.


Für FSR FG kann ich das aber natürlich mal ausprobieren und schauen obs dann vielleicht flüssig läuft. Wo stell ich das ein?



Und du glaubst, die haben da mit ihren geschätzt 1-3 Programmierern ewig dran rumgeschraubt, damit es erst richtig funktioniert? :freak:
Voll logisch...

Ich bezweifle, dass man mehr als 1-2 Entwickler abstellt, um FSR FG zu implementieren. Egal wie groß das Studio ist. Die einen kommen eben damit zurecht, die anderen nicht. Liegt halt an individuellen Persionen und Know How und weniger am Budget und Teamgröße.

aufkrawall
2024-05-21, 17:48:10
Wenn ich mit der DLSS FG Mod weit über 100 FPS habe, dann kann doch das Game intern nicht mit 10 FPS rendern. Ergibt für mich keinen Sinn.

Warum waren es hier dann nur 10fps bzw. 20?


Ich bezweifle, dass man mehr als 1-2 Entwickler abstellt, um FSR FG zu implementieren. Egal wie groß das Studio ist. Die einen kommen eben damit zurecht, die anderen nicht. Liegt halt an individuellen Persionen und Know How und weniger am Budget und Teamgröße.
Wurd auch in Robocop gefixt, auch kleines Studio. Muss für andere ja unmöglich schwierig sein...

Und nochmal: Wieso siehts per Mod fast immer flüssig aus? Damit gibts gar kein spezifisches tuning fürs Frame Pacing. Das reicht als Argument schon, um deine Aussage als völlig widersinnig auszuweisen.

Gast
2024-05-22, 12:05:05
Gar nicht arg - die Entwickler müssen nur FSR FG implementieren, dann hast du deine 60. :D Dass das noch nicht drin ist (nur DLSS DG), ist mal wieder Bullfug.



Ohne 60FPS als base ist es sinnlos überhaupt über FG zu diskutieren.

Raff
2024-05-22, 23:43:23
Ohne 60FPS als base ist es sinnlos überhaupt über FG zu diskutieren.

Das wird zwar gern als Gesetz formuliert, stimmt aber nicht. Es gibt genug Spiele, die man auch mit weniger als 60 Basis-Fps prima spielen kann. Etwa Alan Wake 2 oder auch das neue Hellblade 2 (https://www.pcgameshardware.de/Senuaxs-Saga-Hellblade-2-Spiel-72402/Specials/Release-Test-Benchmarks-1447825/). Hier habe ich mit DLSS FG zwischen 60 und 80 Fps. Kein Problem, das ist ein Walking Simulator mit zwischenzeitlichen Action-Einlagen. Und wer mit Gamepad spielt (was ich nicht tue), hat sowieso einen "Schwamm" zwischen Hand und Spiel, der keine ruckartigen Kamerabewegungen erlaubt. Damit fühlt sich FG auch mit <60 Basis-Fps prima an.

MfG
Raff

1ch0
2024-05-23, 00:06:23
Jap, Cyberpunk hab ich mit unter 60 fps auch dann mit FG mit Pathtracing hochgepusht.

TheAntitheist
2024-05-23, 04:01:22
Gar nicht arg - die Entwickler müssen nur FSR FG implementieren, dann hast du deine 60. :D Dass das noch nicht drin ist (nur DLSS DG), ist mal wieder Bullfug.

MfG
Raff
du solltest gut genug wissen das man FG, egal welches, nicht mit 30fps nutzen sollte... was los Raff?
das empfehlen AMD, Intel und Nvidia nicht ohne Grund. dann nutzt doch lieber eine höhere DLSS Stufe. Auch wenn du denkst das es okay in manchen Spielen läuft, trifft das auf keinen Fall auf alle zu. und wenn die frametimes nicht total sauber sind, was eigentlich nie mit UE Spielen passiert, dann sind die Spikes ja noch viel extremer zu spüren.

DrFreaK666
2024-05-23, 06:56:50
...das empfehlen AMD, Intel und Nvidia nicht ohne Grund...

Ich habe bei Nvidia tatsächlich keine solche Empfehlung gesehen; und bei Intel sowieso noch nicht

basix
2024-05-23, 07:39:39
Auch ich finde, dass man FG mit weniger FPS einschalten kann, solange das Gameplay es zulässt. Wie Raff es erklärt hat, geht das am besten in eher langsamen und gemächlichen Spielen. In einem schnellen Shooter ist es weniger optimal.

60fps Base als Minimum sind zudem eine "Empfehlung". Kein Gesetz.

DrFreaK666
2024-05-23, 07:49:38
Es ist von AMD eine Empfehlung. Bei Nvidia habe ich sowas nirgends gelesen

The_Invisible
2024-05-23, 08:18:12
Doch NV hat mal was von 50-60 FPS geschrieben, finds aber nicht mehr... Aber egal, wie schon gesagt, ist auch mit weniger nutzbar, finds immer nett wenn man es zur verfügung hat

DrFreaK666
2024-05-23, 08:27:17
Ja, habs auch nicht mehr gefunden.
Denke mal nach der 4060 war das nicht mehr so wichtig ^^

Gast
2024-05-23, 09:50:20
Das wird zwar gern als Gesetz formuliert, stimmt aber nicht. Es gibt genug Spiele, die man auch mit weniger als 60 Basis-Fps prima spielen kann.

Solche Spiele brauchen auch nicht mehr FPS.
Alles was von mehr FPS profitiert braucht auch zwangsweise eine geringe Latenz.

Klar kann man mit einem "Walking Simulator" auch bei 30FPS FG einschalten nur kann man den genauso gut gleich mit 30FPS spielen.

DrFreaK666
2024-05-23, 10:15:21
...Klar kann man mit einem "Walking Simulator" auch bei 30FPS FG einschalten nur kann man den genauso gut gleich mit 30FPS spielen.

Nein, da man trotzdem ein flüssigeres Bild erhält

Gast
2024-05-23, 11:35:18
Nein, da man trotzdem ein flüssigeres Bild erhält

Wenn man bereits bei 30FPS nicht mehr als 1 Pixel pro Frame an Bewegung hat, können mehr FPS gar kein flüssigeres Bild bieten (und das ist schon der Extremfall, je nach Pixeldichte sind auch 5-10 Pixel pro Frame nicht mehr an "Flüssigkeit" zu überbieten).

dildo4u
2024-05-23, 12:37:06
y8Hk_Pg49SE

TheAntitheist
2024-05-23, 12:54:09
Es ist von AMD eine Empfehlung. Bei Nvidia habe ich sowas nirgends gelesen
das stimmt einfach nicht, Nvidia hat das von Anfang an gesagt. aber eher von 55-60fps (min) gesprochen...

1ch0
2024-05-23, 12:57:25
Diese angeblichen "Anforderungen" für mindestens 60 fps sind doch eh nur absoluter Quatsch, zumindest für mich. Und ich wette, der Großteil der Spieler, die das wirklich nutzen, nutzt es eher, um über 60 fps zu kommen. Diese Diskussionen darüber, dass man mindestens 60 fps braucht, sind eh nur absolute "Elite"-Diskussionen in Foren wie hier. :freak:

Raff
2024-05-23, 13:12:03
du solltest gut genug wissen das man FG, egal welches, nicht mit 30fps nutzen sollte... was los Raff?
das empfehlen AMD, Intel und Nvidia nicht ohne Grund. dann nutzt doch lieber eine höhere DLSS Stufe. Auch wenn du denkst das es okay in manchen Spielen läuft, trifft das auf keinen Fall auf alle zu. und wenn die frametimes nicht total sauber sind, was eigentlich nie mit UE Spielen passiert, dann sind die Spikes ja noch viel extremer zu spüren.

Empfehlung = Richtlinie
Gesetze = Pflichten

Ich kann auf Richtlinien pfeifen, sollte aber keine Gesetze übertreten. ;)

Es wurden mehrere Beispiele genannt, bei denen man mit weniger als 60 Basis-Fps leben kann. Wenn man das will. Ein Beispiel, bei dem ich Kopfschmerzen bekam, war Call of Mutti: Modern Warfare 3. Partikel sind nämlich von der Frame Generation ausgenommen. Heißt, selbst wenn das Bild auf 60+ gepumpt wird, ruckelt etwa die Gischt eines Wasserfalls weiter mit ~40 Fps vor sich hin (bei dieser Szene (https://www.youtube.com/watch?v=KCrynZq4lGU)). So ein Bruch ist viel schlimmer als kleinere Geister oder eine dauerhaft schwammigere Maus.

MfG
Raff

DrFreaK666
2024-05-23, 14:37:40
das stimmt einfach nicht, Nvidia hat das von Anfang an gesagt. aber eher von 55-60fps (min) gesprochen...

Link or it never happened.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88129&stc=1&d=1715523460

Die 4060 kommt hier mit FG so auf ~66FPS. Willst mir erzählen, dass es ohne 55 wären?

aufkrawall
2024-05-23, 17:01:57
Gibt ständig komischen Judder mit DLSS FG, wenn der Frame Time Graph bei niedrigen fps zu fett wird. Dafür muss man in CP77 mit einer 4070 mit PT & DLSS Q nur schnell in den Himmel und wieder runter schauen, jedes mal zuckt es rum. Einfach nur eine grässliche Erfahrung, das ganze PT-Ghosting wird mit den Ruckel-fps auch nicht schöner.

Relex
2024-05-23, 17:45:07
Das Problem kenn ich nur von Witcher 3.
Wenn man in den Himmel schaut wird man CPU limitiert, wenn man wieder runter schaut GPU Limitiert. Dieser Wechsel hat für Ruckler mit FG gesorgt.

Wurde mit einem Patch gefixed.

In Cyberpunk oder anderen Spielen tritt das bei mir nicht auf. Hab grad extra nochmal Cyberpunk angeworfen und unterschiedlichste Settings getestet, um das verhalten CPU limit -> GPU Limit zu triggern. Nix.

aufkrawall
2024-05-23, 18:03:04
Wie schon gesagt: bei zu niedrigen fps. Mit DLSS Q gab es das "Judder-Event", mit P nicht. Du hast eine 4080.

Relex
2024-05-23, 18:19:59
Was sind denn dann niedrige FPS?

Ich habs auch mit 4K DLAA probiert. Da wirds eh schon unspielbar.

DeadMeat
2024-05-23, 18:26:24
Gibt ständig komischen Judder mit DLSS FG, wenn der Frame Time Graph bei niedrigen fps zu fett wird. Dafür muss man in CP77 mit einer 4070 mit PT & DLSS Q nur schnell in den Himmel und wieder runter schauen, jedes mal zuckt es rum. Einfach nur eine grässliche Erfahrung, das ganze PT-Ghosting wird mit den Ruckel-fps auch nicht schöner.

Kann ich genau so bestätigen zumindest mit einer 4060 ti/ non ti in CP77.
Bei der kleinen non ti war das echt schlimm vom Spielgefühl her, fg fand ich dort weitestgehend nutzlos.

dildo4u
2024-05-23, 19:12:50
cpsRNCKiVCk

dargo
2024-05-25, 16:09:33
Hier gibts einiges an Gameplay vom kommenden "THE FIRST DESCENDANT".

7L4pZEc0XYY

https://store.steampowered.com/app/2074920/The_First_Descendant/

Ob die Info mit UE 5.4 stimmt weiß ich nicht.

Raff
2024-06-01, 23:06:12
Paar aktuelle Werte aus Ark: Survival Ascended inkl. Vergleich mit den Hellblade-2-Werten neutlich:

TsUHJUPiI50

Ein Port auf die UE5.4 könnte sich hier richtig lohnen.

MfG
Raff

1ch0
2024-06-01, 23:33:40
Die Leute haben aber auch einfach unrealistische Anforderungen. Man muss doch mal den grafischen Unterschied sehen und dann auch mal akzeptieren, dass hier nichts zu ‘optimieren’ ist, sondern man einfach mal akzeptieren muss, dass solche Optik eben Leistung braucht. Ich kann das Gejammer über ‘Optimierung’ einfach nicht mehr lesen.

Holundermann
2024-06-03, 10:54:50
Die Leute haben aber auch einfach unrealistische Anforderungen. Man muss doch mal den grafischen Unterschied sehen und dann auch mal akzeptieren, dass hier nichts zu ‘optimieren’ ist, sondern man einfach mal akzeptieren muss, dass solche Optik eben Leistung braucht. Ich kann das Gejammer über ‘Optimierung’ einfach nicht mehr lesen.

Naja - das finde ich nicht. Es ist doch lächerlich wenn man die Probleme die man hat mit Rechenleistung erschlagen will. Ich denke das die UE5 für das Grafisch gebotene sehr performant sein kann - der kosten/nutzen Faktor bei Senua zB ist schon schwer OK - die Optik bei 60 FPS hätt ich mir auf meiner Kiste nicht erträumen lassen.

Aber bei Ark Survivial scheint man sich da wenig Gedanken zu machen, man aktiviert alle features und jeder macht was man will - die Engine wirds schon richten. Was dabei rauskommt hat DF herausgearbeitet:

jvVm5-5AyH8

selbst wenn man alle Grafischen Effekte deaktiviert kommt man nicht auf 60 FPS auf Konsole. Das scheint massiv CPU limitiert zu sein - eine schwäche der UE - nur muss man sich halt da im klaren sein als Entwickler und sich dann evtl. selber drum kümmern das man tasks auf mehr Threads auslagert und sich nicht nur auf die Engine verlässt. Was optimiert möglich ist zeigt ja Avatar auf Konsole - hier werden die vorhandenen Ressourcen erstklassig genutzt und es gibt sogar RT GI - gekonnt eingesetzt - auf Konsole.

Dampf
2024-06-03, 11:45:13
Hellblade 2 ist aber auch ein Schlauch, während Ark Open World ist. Das kann man imo nicht vergleichen.

Döner-Ente
2024-06-03, 11:53:03
Ja. Aber trotzdem ist die Kritik daran, dass Spielefirmen sich bei der UE5 teilweise relativ geringe optische Mehrwehrte mit der groben Kelle aka Geld des Benutzers erkaufen, nicht falsch. Nur weils neu ist, nur weil "UE5" dran steht und nur weil es ein bisschen besser als vorher aussieht, sollte es nicht unangemessen Rohleistung verbraten. Die Frage nach dem Optik-/Performance-Verhältnis muss sich jede Engine und jede ihrer konkreten Umsetzungen gefallen lassen.
Im besten Falle ist das noch den ersten Gehversuchen mit der neuen Engine geschuldet und die Programmierer fuchsen sich da rein und können sie in Zukunft effizienter nutzen.

dargo
2024-06-03, 12:11:10
Hellblade 2 ist aber auch ein Schlauch, während Ark Open World ist. Das kann man imo nicht vergleichen.
Man kann aber sehr wohl Avatar mit Ark vergleichen. Ark ist ein typischer Fall von Bananensoftware, völlig am Markt vorbei produziert. Ich weiß aber auch ehrlich gesagt nicht was die PCGH in Ark so toll findet. Die Assets finde ich jetzt eher schwach, da hilft mir dann auch Lumen nicht sonderlich wenn "Grütze" im besseren Licht erscheint.

DrFreaK666
2024-06-03, 12:28:16
Schon das erste Ark hat Hardware zum Frühstück gefressen. Liegt vermutlich auch am Entwickler

BlacKi
2024-06-03, 12:32:25
Man muss doch mal den grafischen Unterschied sehen und dann auch mal akzeptieren, dass hier nichts zu ‘optimieren’ ist, sondern man einfach mal akzeptieren muss, dass solche Optik eben Leistung braucht. tja, sag das mal den konsolenspielern... selbst bei 360p keine 60fps.


da ist was bei der UE engine, was leistung kostet, aber nicht mit der auflösung skaliert.

Raff
2024-06-03, 12:38:26
Man kann aber sehr wohl Avatar mit Ark vergleichen. Ark ist ein typischer Fall von Bananensoftware, völlig am Markt vorbei produziert. Ich weiß aber auch ehrlich gesagt nicht was die PCGH in Ark so toll findet. Die Assets finde ich jetzt eher schwach, da hilft mir dann auch Lumen nicht sonderlich wenn "Grütze" im besseren Licht erscheint.

Klassischer Fall von "ich zitiere mich mal selbst":

Man kann gar nicht oft genug betonen, wie sehr selbst der beste Stream der Grafik schadet. Hi-Def-Titel wie Hellblade 2 oder Avatar: Frontiers of Pandora werden in Videos beinahe bis zur Unkenntlichkeit kaputtkomprimiert. Ja, auch in 4K60 mit scheinbar guter Bitrate und AV1-Basismaterial. Frag mal den Alex von Digital Foundry, der wird dir auch ein Leidlied singen. ;) Nativ an der eigenen Kiste sind die Farben satter und die Pixel schärfer, ein ganz anderes Erlebnis. Ich verstehe ehrlich gesagt auch nicht, warum Youtube & Co. immer noch so bescheiden aussehen, da müsste längst (optional) mehr gehen. Das kann nicht nur Rücksicht auf das Digi-Entwicklungsland Germanien sein. :ugly:

Unoptimierte Bananensoftware ist's trotzdem, yep.

MfG
Raff

1ch0
2024-06-03, 12:41:48
Klassischer Fall von "ich zitiere mich mal selbst":

Ja, auch in 4K60 mit scheinbar guter Bitrate und AV1-Basismaterial.

Also, Twitch-Streams sollten sicherlich nicht der Maßstab sein, generell nicht. Aber Videos auf YouTube in 4K und guter Bildrate sind schon akzeptabel, finde ich. Das ist dann schon Meckern auf hohem Niveau.

Raff
2024-06-03, 12:46:26
Nah dran, aber doch anders. Es knallt einfach nicht mehr so. Ich verstehe jedenfalls, wenn einen das nicht so beeindruckt - wenn bestimmte Grafikhuren allerdings in Lobhurerei ;) ausbrechen, darf man das schon glauben.

MfG
Raff

Lurtz
2024-06-03, 13:14:22
Ich verstehe ehrlich gesagt auch nicht, warum Youtube & Co. immer noch so bescheiden aussehen, da müsste längst (optional) mehr gehen. Das kann nicht nur Rücksicht auf das Digi-Entwicklungsland Germanien sein. :ugly:

Dürfte eher daran liegen dass Speicher und Bandbreite teuer sind.

Relex
2024-06-03, 13:20:27
Jap, ich hab das hier zuletzt selbst erlebt, als ich das FSR Flimmern in Ghost of Tsushima zeigen wollte.

Bitrate aufs absolute maximum geknallt, 4K, aber selbst nach der Aufnahme ist es nicht so scharf wie ingame und verliert bereits deutlich an Schärfe.
Packt man das ganze dann auf YouTube geht nochmal sehr viel mehr Schärfe im Vergleich zum hochgeladenen Video verloren.

Was da übrig bleibt hat kaum noch was mit dem zu tun, was man am Bildschirm gesehen hat. Das Flimmern das ich zeigen wollte war im Video nur noch halb so ausgeprägt wie live am Bildschirm.

Absolut kein Wunder, dass Digital Foundry mit 400% zooms und Standbildern arbeiten muss. Anders bekommst du die Komprimierung nicht überwunden.



Was Ark angeht.
Für mich kein Maßstab. Teil 1 war auch schon grottig optimiert und lief selbst mit extrem reduzierten Settings (und dann richtig hässlicher Optik) ziemlich schlecht im Vergleich zu anderen Spielen.

Gast
2024-06-03, 22:54:16
Ich verstehe ehrlich gesagt auch nicht, warum Youtube & Co. immer noch so bescheiden aussehen, da müsste längst (optional) mehr gehen.


Geht ja auch, mit Premium gibt es höhere Bitraten, kostet freilich was.


Das kann nicht nur Rücksicht auf das Digi-Entwicklungsland Germanien sein. :ugly:


Youtube nimmt da sicher keine Rücksicht, die liefern die Bitrate aus welche die Bandbreite hergibt, bis zum Maximum logischerweise.

TheAntitheist
2024-06-06, 00:54:24
Meistens liegt die fehlende Schärfe aber auch einfach am Chroma Subsampling. Selbst UHD Blu rays nutzen es und dadurch werdet ihr niemals gute Schärfe bekommen. Wenn die Farbinformationen immer nur 1/4 der Auflösung haben kannst du wenig daran ändern.

Und ich kenne keinen Anbieter der auf Chroma Subsampling verzichtet. Aber die user wissen zu 99% davon sowieso nichts also bringt das auch nichts

Raff
2024-06-07, 13:21:46
Haben wir eigentlich noch Entwickler hier, die die Unreal Engine nutzen? Ich meine, dass hier mal ein paar Wissende anwesend waren. Ich hätte eine Frage, die ich nicht zufriedenstellend aus der Dokumentation und anderen Quellen beantwortet bekomme:

Werden beim Einsatz von Software-Lumen die Raytracing-Rechenwerke angesprochen – oder nicht?

Billige Distance Fields hin oder her, es muss eine BVH aufgebaut und gewartet werden. Aber welche Einheiten übernehmen das bei der aktuellen Unreal Engine? Ist das ein Spezial-Ansatz wie bei Snowdrop/Avatar oder Hand in Hand mit DirectX (unter Windows)? Werden die RT-Cores bei Geforce RTX benutzt? Oder läuft das alles generalisiert über die FP32-ALUs? Es sieht halt alles nach Letzterem aus, denn RDNA-GPUs sind meistens sehr flott, was auf reines Compute/Shading schließen lässt. Falls jemand wasserdichte Informationen abseits "Der Nvidia-Branch zieht nutzen aus den RTX-Rechenwerken" hat, immer her damit. :up:

MfG
Raff

Troyan
2024-06-07, 13:26:04
Software Lumen ist reine Software. RT Cores dienen auch nur zum Tracen und Intersection-Tests von Rays. BVH Erzeugung, Updating etc. ist eine Kombination aus CPU und GPU bei DXR.

Natürlich rennt reine minderwertige Software auf AMD GPUs schnell. Ist eben für die optimiert. Aber dafür bekommt man eben auch 10 jahre alte Technik, die meilenweit von modernen Raytracing-Implementierungen entfernt ist.

Raff
2024-06-07, 13:28:51
Software Lumen ist reine Software. RT Cores dienen auch nur zum Tracen und Intersection-Tests von Rays. BVH Erzeugung, Updating etc. ist eine Kombination aus CPU und GPU bei DXR.

Jo, das ist mir klar. Die Frage ist explizit, was wann und wo bei der UE5 verwendet wird. Evtl. gibt es sogar Unterschiede zwischen den Iterationen ...

Software-Lumen: reines Compute – aber optional mit Unterstützung durch die Fixed-Function-Einheiten (was sinnvoll wäre)?
Hardware-Lumen: standardmäßige Einbindung der Fixed-Function-Einheiten – oder auch hier optional (was Quatsch wäre)?

Natürlich rennt reine minderwertige Software auf AMD GPUs schnell. Ist eben für die optimiert. Aber dafür bekommt man eben auch 10 jahre alte Technik, die meilenweit von modernen Raytracing-Implementierungen entfernt ist.

Die "minderwertige Software" ist um Dimensionen besser als alles auf Basis der UE4 und ~1335 von 1337 verfügbaren Engines am Markt. ;)

MfG
Raff

P.S: Lolli, ich hab dich gesehen! :biggrin:

Relex
2024-06-07, 13:54:32
Damit die Hardware zur Beschleunigung angesprochen werden kann müssen auch die richtigen Daten vorbereitet werden. Ich denke mal dass das ein völlig anderer Codepfad ist, der überhaupt nicht kompatibel mit dem Konzept ist, welches man für Software RT verwendet.

Sprich Software RT hat wahrscheinlich gar keine Anteile, die in der Form via Hardware beschleunigt werden könnten, weswegen so ein einfaches zu und abschalten einer Hardwarebeschleunigung wahrscheinlich überhaupt nicht möglich oder sinnvoll sein kann.

Wenn du auf Hardware RT umschaltest muss wahrscheinlich der gesamte Renderpfad anders aufgezogen werden.

Aber ich lasse da gerne den Experten den Vortritt. Mein Wissen stammt nur aus zu vielen Stunden Digital Foundry Videos. Und die sind sicherlich auch keine UE5 cracks. Wo ich mir aber relativ sicher bin ist eben der aspekt, dass ein Mischbetrieb wie du ihn beschreibst so gar nicht möglich sein dürfte.

aufkrawall
2024-06-07, 17:06:26
Werden beim Einsatz von Software-Lumen die Raytracing-Rechenwerke angesprochen – oder nicht?

Dürfte null Unterschied geben, wenn man unter Linux HWRT off spooft. Also klares nein.

GerryB
2024-06-07, 21:59:38
In Desodre müsste sich doch HardwareLumen on/off direkt vgl. lassen.
Bleiben Takt und Watt gleich für dieselben Fps?
Oder ändern sich gar die Fps und/oder der Inhalt?


natürlich
nicht den NV-RTGI oder wie sich das Dingens nennt, nutzen

dildo4u
2024-06-08, 08:19:48
Laut dem gibt es ein Speed Up aber keiner Integriert es?

https://i.ibb.co/wKmqpHc/Screenshot-2024-06-08-081922.png (https://ibb.co/mHWKhsN)

https://youtu.be/XnhCt9SQ2Y0?si=CNDQHZNivjYQreS0&t=227

Aktiv in Cinematics?Das Level wäre Nice für Ingame.

Q4_SvPFGVyI

GerryB
2024-06-08, 12:02:59
Laut dem gibt es ein Speed Up aber keiner Integriert es?


Im selben Video gibts aber auch Stellen wo HardwareLumen schlechter läuft, deshalb vllt. nicht generell aktiv!?

Gast
2024-06-08, 14:08:15
Laut dem gibt es ein Speed Up aber keiner Integriert es?


Vor allem sehen die Reflexionen mit Software Lumen komplett beschissen aus, selbst Cubemaps sind da oft besser.

gnomi
2024-06-08, 15:20:34
Muss ja alles zunächst mal auf den Konsolen und mit weniger CPU Power an Bord gut laufen.
Schätze, wie werden also erst so nach und nach bei bestimmten Prestige Titeln und hohem Entwicklungsbudget besseres als Software Lumen sehen.
Ist auch nicht so wichtig imho. Hauptsache, überhaupt UE5 statt noch 4...

dildo4u
2024-06-09, 10:59:45
Bodycam UE5.2 Shooter jetzt als EA Beta

https://store.steampowered.com/app/2406770/Bodycam

3F5ZXl67ECk

blaidd
2024-06-12, 17:54:00
Zuvor hat Hardware-RT spezifische Anpassungen benötigt, um wirklich zu funktionieren. EDIT: In früheren Versionen war es laut EPIC eher langsamer/anspruchsvoller als Software-RT. Mit dem neuen Performance-Boost ("+50 %") eventuell nicht mehr.

Und da hatten die Konsolen obendrein einen Flaschenhals (wenn ich mich recht erinnere, hatte das etwas mit der Verwaltung/Beschleunigungs-Struktur zu tun - die sind wohl unterschiedlich oder zumindest nicht identisch), das war quasi nicht umzusetzten. Und nur für den PC Extrawurst? Lohnt eher nicht, außer irgendein Hardware-Hersteller kommt für die Zusatzkosten auf bzw. lockt mit irgendwelchen Vorzügen.

Theoretisch kann man es nun "On-the-Fly" zuschalten. Das ist aber noch im experimentellen Zustand.

Hier ist ein bisschen was dazu (auch, was für Effekte etc. unterstützt werden.)

https://dev.epicgames.com/documentation/en-us/unreal-engine/hardware-ray-tracing-in-unreal-engine

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88495&stc=1&d=1718208086

EDIT: Something like this... irgendwie sowas (kann nicht mehr sagen, ob es genau dieses Dokument war, aber da lag/liegt wohl in gewissem Rahmen der Hund begraben):

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88509&stc=1&d=1718276756


https://dev.epicgames.com/documentation/de-de/unreal-engine/ray-tracing-performance-guide-in-unreal-engine?application_version=5.1 (https://dev.epicgames.com/documentation/de-de/unreal-engine/ray-tracing-performance-guide-in-unreal-engine?application_version=5.1)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88508&stc=1&d=1718276572

ChaosTM
2024-06-16, 10:25:47
GIv_gWth27w


vor allem Exodus könnte recht nett werden - mit vielen Ex-Bioware Leuten.
Was aber generell auffällt ist die Uncanny Valley Zeit die auf uns zukommt.


Exodus umgeht das mit leicht stilisierten Figuren..

basix
2024-06-19, 11:37:26
Evtl. sehen wir bald ReSTIR Pathtracing in der UE5 ;)
https://forums.unrealengine.com/t/lumen-gi-and-reflections-feedback-thread/501108/1697

DrFreaK666
2024-06-19, 16:50:47
Da steht nur was von RESTIR. Das hat nicht unbedingt was mit PT zu tun

1ch0
2024-06-19, 17:24:04
Restir haste nur bei Pathtracing.

ReSTIR, which stands for Reservoir Spatio-Temporal Importance Resampling, is primarily a technique developed to enhance path tracing. It’s an advanced algorithm that allows for high-quality renderings of scenes with millions of light sources by resampling multi-bounce indirect lighting paths obtained by path tracing. This technique significantly improves the efficiency of path tracing, making it suitable for real-time applications, even on modern GPUs that support hardware-accelerated ray tracing.

blaidd
2024-06-19, 17:26:55
Das Pathtracing in der UE5 ist schon etwas überarbeitet worden, unterstützt nun zusätzliche Effekte (spezifisch bezogen auf UE5.4, zum Beispiel Heterogenerous Volumes) und ist laut Epic rund 15 % (gegenüber 5.3) schneller.

Dafür sind allerdings noch eine ganze Reihe neuer Dinge angekündigt. Allerdings nicht nur für PT, für RT (Hardware und Software) auch - auf der Roadmap wie vielleicht auch anderswo ersichtlich:
Interessant ist, dass offenbar nahezu alle RT-Effekte (Software- und Hardware-Lumen) erneuert werden. In der Dev-Documentation steht da jetzt außer bei Schatten und AO fast überall "deprecated" (veraltet, überholt, abgelehnt) dran.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88569&stc=1&d=1718810794

DrFreaK666
2024-06-19, 17:48:40
Restir haste nur bei Pathtracing.

Quelle?

Spatiotemporal reservoir resampling for real-time ray tracing
with dynamic direct lighting
https://benedikt-bitterli.me/restir/bitterli20restir-supplemental.pdf

Das Original

1ch0
2024-06-19, 17:55:14
https://research.nvidia.com/publication/2021-06_restir-gi-path-resampling-real-time-path-tracing

Quelle

DrFreaK666
2024-06-19, 18:37:35
https://research.nvidia.com/publication/2021-06_restir-gi-path-resampling-real-time-path-tracing

Quelle

Yo, und da steht: While the recently-developed ReSTIR algorithm [Bitterli et al. 2020], was meine Quelle meint.
Ergo: ReSTIR hilft nicht nur bei PT

The_Invisible
2024-06-19, 19:01:26
Yo, und da steht: , was meine Quelle meint.
Ergo: ReSTIR hilft nicht nur bei PT

Wo hast sonst Mio. Lichtquellen, ka auf was du hinaus willst...

1ch0
2024-06-19, 19:14:31
Wo hast sonst Mio. Lichtquellen, ka auf was du hinaus willst...

Darauf läuft es eben hinaus, daher findet ReSTIR nur Anwendung bei Pathtracing wirklich.

DrFreaK666
2024-06-19, 19:58:17
Wo hast sonst Mio. Lichtquellen, ka auf was du hinaus willst...

Ich glaube ich rede nicht chinesisch.
ReSTIR wurde zuerst mit RT gezeigt, daher ist es keine PT-only Tech.
Ganz einfach eigentlich

Relex
2024-06-19, 20:57:09
ReSTIR ist vermutlich bei hybridem Raytracing viel zu teuer oder? Lohnt sich wahrscheinlich nur bei richtigem Pathtracing.

DrFreaK666
2024-06-19, 21:04:14
Habs so verstanden, dass ReSTIR verwendet wird um Overhead zu sparen :confused:

Relex
2024-06-19, 21:37:19
Ich hab grad nochmal das Paper überflogen, da steht doch sogar überall drin, dass es Leistung kostet.

Also in eigenen Worten ganz grob (ohne alles gelesen zu haben, im Detail ist mir das eh zu hoch :redface:) verstehe ich es so, dass ReSTIR die Qualität der GI erhöht, indem die Rays die verschossen werden effizienter genutzt werden.

Wie das genau funktioniert ist für die Betrachtung irrelevant.

Also kurz gesagt wird die Qualität bzw. der Ertrag durch das Pathtracing gesteigert, was es letztendlich dann auch den Denoisern einfacher macht oder eben auch ermöglicht, Rays einzusparen. Kurz gesagt wird das ganze wohl deutlich effizienter.

Der Algorithmus kostet aber grundsätzlich erstmal Leistung.

Am Ende steht sogar folgendes:


6.1. Limitations
The cost of ReSTIR GI may still be too high for some real-time
applications, especially with lower-end GPUs. For example, most
video games expect >30 fps performance, which usually allows less
than a 2 ms computational budget for global illumination. In such
cases, the resolution of the reservoir buffers can be decreased in or-
der to reduce computation. However, in this case, spatial reuse may
be unstable when there are detailed normal maps.


Basierend darauf kann ich mir eben gut vorstellen, dass sich das für normales RT einfach nicht lohnt, weil man dort mit viel weniger Rays arbeitet und wahrscheinlich der Algo im Verhältnis zur RT Last viel zu teuer ist und weniger Ertrag bringt.


Das gleiche Thema sehen wir doch auch bei RayReconstruction.

Bei normalem RT ist das Denosing durch RR zu teuer und kostet je nach Spiel etwas Leistung oder ist gleich schnell. Bei PT hingegen müssen so viele konventionelle Densoiser eingesetzt werden, die alle durch RR ersetzt werden können, dass RR am ende günstiger ist und die Performance sogar steigert.


Am ende würde ich mich auf sowas aber auch nicht versteifen. Die Algos sind doch mittlerweile ständig im Wandel und es gibt unzählige Techniken die da bei RT und PT Anwendung finden.
Ist imho sinnlos sich da über irgend ein paper den Kopf zu zerbrechen. Nvidia und die Leute bei Epic wissen schon genau was sie machen. Bringt doch eh nichts, auf die Integration irgendwelcher Techniken oder Papers zu hoffen, wenn man nie damit gearbeitet hat und gar nicht richtig versteht, was es im konkreten Fall an Vor und Nachteilen gibt.

blaidd
2024-06-19, 21:45:47
Ist vielleicht eher ein wenig mit DLSS und Co zu vergleichen, eine Art Upsampling - das ist aber maximal grob vergleichbar.

Das "Wichtige" daran ist im Grunde das hier: Importance Sampling und Reservoir Resampling.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88571&stc=1&d=1718824792
[Paper (https://research.nvidia.com/publication/2021-06_restir-gi-path-resampling-real-time-path-tracing)]

Das Problem: Normalerweise müsste man für jeden Pixel UND für jeden Pixel zu jeder einzelnen Lichtquelle Strahlenbündel verschicken. Das ist aber viel, viel, viel zu teuer. Vor allem natürlich bei Pathtracing.

Mit dem Importance Sampling werden die "wichtigsten" Lichtquellen in einer Szene festgelegt. Um auch den Rest zu "erwischen" werden Frame für Frame die "unwichtigen" zufällig ausgewählt und Lichtquellen mit Strahlen bedacht. Dann wird das ganze temporal vermengt, dazu ist das "Reservoir" dienlich, also im Grunde ein Speicher, wo Informationen aus vorherigen Frames geparkt wurden und die man darauf wieder rausfischen kann um sie für den aktuellen Frame zu nutzen - Reservoir RE-sampling.

Das kommt mit dem Nebeneffekt, dass man dann "tanzende" Flecken auf dem Bildschirm hat, das kann man besonders gut bei metallernen oder nassen Oberflächen erkennen, und je niedriger die Auflösung, desto heftiger.

Hier ist ein Beispiel, wo es mal (mit niedriger Auflösung bzw. viel Upsampling) etwas "hervorgekitzelt" ist. Aber dafür hat sich Nvidia ja DLSS 3.5 angedacht, das genau verhindert die Hüpferei (gibt dafür ein paar andere leichte Artefakte, aber hey. So ist das nunmal).
https://youtu.be/CIDQcQAa71E?t=619


Interessanter Weise nutzt auch Lumen Importance Sampling. Und diverse Caches, um fühere Informationen zu speichern und wiederzuverwenden. In gewissem Sinne sind die sich also ähnlich - zumindest beim Ansatz. Der Algorithmus ist wahrscheinlich schon ziemlich unterschiedlich. Wie dann die RT-Effekte gerendert werden etc. ist natürlich schon anders. Aber der Optimierungsansatz ist zumindest im Rahmen ähnlich. Und die Artefakte. Die "tanzenden" Flecken kann man auch bei Lumen sehen, besonders bei GI und AO. Zum Beispiel hier (https://youtu.be/dG7RLc-lrlU?t=955) (unterm Dach, da sieht man die Flecken tanzen - allerdings fällt es da nicht groß auf, weil ich die Kamera schnell bewege).

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88572&stc=1&d=1718826398

Bei Fort Solis sieht man es z.B. besonders gut innen und bei der AO, aber wenn man es einmal gesehen hat, kann man es fast überall sehen (gesetzt den Fall, es gibt indirektes Licht, Kontrast und/oder metallische Oberflächen und Spiegelungen.)


Das findet sich ja aber auch durchaus häufiger mal bei gerade aktuellen Techniken. Viel davon ist recht ähnlich. Weil die sich oft auch auf wiederum andere Paper und Studien beziehen, und die Techniken dann darauf basieren. Das ist im Prinzip Wissenschaft, und da gibt es eben auch oft und häufigen Wissensaustausch. Also zumindest Paper wie das von Nvidia. Das ist schon ziemlich hohes Niveau, da schwirrt auch mir recht schnell die Birne^^

Hier ist das Lumen-Siggraph-Paper (https://advances.realtimerendering.com/s2022/SIGGRAPH2022-Advances-Lumen-Wright%20et%20al.pdf) (oder: Präsentation. Trifft's wohl eher.). Das ist eher ein bisschen für Dumbos ;) (Also eher für Otto-Normal-UE5-Nutzer). Und nicht für dedizierte Grafik-Programmierer. Das ist relativ einfach zu begreifen.

Das steht btw auch viel bezüglich HW und SW-Lumen drin, auch Vor- und Nachteile. Das ist allerdings alles schon ein wenig überholt, ist von 2022. Das Meiste dürfte aber noch zutreffen, zumindest im Großen und Ganzen. Ich kann da auch noch weiterreichen, gibt auch noch neuere Infos zu HW/SW-Lumen.

Wüsste also im Grunde nicht, weshalb ReSTIR nicht auch für "normales" Raytracing eingesetzt werden könnte. Das bringt bei PT natürlich einen besonders großen Performance-Vorteil und bei regulärem RT tendenziell wahrscheinlich deutlich weniger (kann eben auch weniger sparen, optimieren), aber prinzipiell funktionieren sollte es eigentlich. Das ist mehr oder minder nur eine Art Optimierungsalgorithmus (und vielleicht auch als eine Art "Gegen-Lumen" zu verstehen; als eine Art Konkurrenz.)

Nachtrag: Laut Epic ist die Performance beim Hardware-RT übrigens verdoppelt worden. Also plus 100 %. Die 50 Prozent sind noch mal extra bzw. gesondert und nur für den Render-Thread (den haben sie entschlackt und parallelisiert). PT ist +15 % performanter gegenüber UE5.3(!). Shader-Cook-Time ist auch noch mal reduziert worden, Redundanzen entfernt, 30 % weniger Compiling nötig (laut Epic). Betrifft sowohl Pre-Compile als auch Ingame während der Runtime.

EDIT: Die Next-Gen-Snowdrop nutzt das eventuell auch (oder so etwas ähnliches). Da sieht man insbesondere im Navi-Baum an den Wänden und hinter feinen Strukturen auch einige "tanzende" Artefakte, die ein wenig an die von ReSTIR und Lumen erinnern, aber nur ein wenig. Die tricksen definitiv auch mit den Lichtquellen und Strahlen. Von dem bisschen, was man bisher im Netz findet ("wir haben das Visibility Testing auf die GPU geschoben), außerdem vielleicht etwas in die Richtung von dem hier (https://dspace5.zcu.cz/bitstream/11025/11052/1/Gaitatzes.pdf), damit sie die ganze Vegetation mit erfassen konnten, ohne den nötigen Raycount durch die Decke zu treiben (feine Strukturen müssen tendenziell besonders fein, also mit besonders vielen Strahlen bedacht werden; RT und Vegetation: Ohne Optimierung Bildratentod.).

EDIT2: Beispiel, wie sich Grafik-Programmierer gegenseitig Wissen zuschieben und inspirieren: Praktisch jede Ozeansimulation basiert jetzt auf der von Sea of Thieves (und die wiederum auf Daten, die wissenschaftliche Sonden dem Meer in der Realität entnommen haben). Die man dank wissenschaftlichem Paper einfach "nachbauen" kann. Die ist jetzt mehr oder minder so auch in neueren UE5-Games zu sehen.

yPfagLeUa7k

1ch0
2024-06-19, 21:54:14
Bei Fort Solis sieht man es z.B. besonders gut innen und bei der AO, aber wenn man es einmal gesehen hat, kann man es fast überall sehen (gesetzt den Fall, es gibt indirektes Licht, Kontrast und/oder metallische Oberflächen und Spiegelungen.)

Bei Fort Solis wars ganz schlimm drin. Das war überall am rauschen und sehr unruhig. Was hätte ich mir da RR gewünscht. ^^

Die verschiedenen Caching-Ansätze, die beim Ray- und Pathtracing verwendet werden, sind ziemlich cool. Es werden clevere Abkürzungen genutzt, wo immer es möglich ist. Das klassische Pathtracing verwendet bereits die Monte-Carlo-Methode, bei der nicht mehr alle Strahlen verfolgt werden, da dies sonst nicht umsetzbar wäre.

"Monte Carlo" bezieht sich auf eine statistische Methode, bei der Lichtstrahlen in zufällige Richtungen gesendet werden, um die endgültige Pixel-Farbe zu schätzen. Das Durchschnittsergebnis aus mehreren Simulationen bestimmt das Ergebnis und verbessert die Realitätsnähe.

ReSTIR ist eine Technik, die beim Monte-Carlo-Pathtracing zur Leistungssteigerung eingesetzt wird. Sie verwaltet das Licht-Sampling effizient, indem sie ein "Reservoir" verwendet, um Lichtproben zu speichern und zu aktualisieren, und konzentriert die Berechnungen auf die Lichtquellen, die am wahrscheinlichsten das Endbild beeinflussen. Dies führt zu schnellerem Rendering und weniger Rauschen, was Echtzeit- und interaktiven Anwendungen zugutekommt.

Man könnte ReSTIR als eine Abkürzung auf einer Abkürzung betrachten. Das Monte-Carlo-Pathtracing ist bereits eine Vereinfachung des realen Lichtverhaltens, das statistische Methoden verwendet, um das Endbild anzunähern. ReSTIR optimiert diesen Prozess weiter, indem es Lichtproben intelligent verwaltet und den Rendering-Prozess effizienter gestaltet.

blaidd
2024-06-19, 22:18:30
Bei Fort Solis wars ganz schlimm drin. Das war überall am rauschen und sehr unruhig. Was hätte ich mir da RR gewünscht. ^^

Die verschiedenen Caching-Ansätze, die beim Ray- und Pathtracing verwendet werden, sind ziemlich cool. Es werden clevere Abkürzungen genutzt, wo immer es möglich ist. Das klassische Pathtracing verwendet bereits die Monte-Carlo-Methode, bei der nicht mehr alle Strahlen verfolgt werden, da dies sonst nicht umsetzbar wäre.

"Monte Carlo" bezieht sich auf eine statistische Methode, bei der Lichtstrahlen in zufällige Richtungen gesendet werden, um die endgültige Pixel-Farbe zu schätzen. Das Durchschnittsergebnis aus mehreren Simulationen bestimmt das Ergebnis und verbessert die Realitätsnähe.

ReSTIR ist eine Technik, die beim Monte-Carlo-Pathtracing zur Leistungssteigerung eingesetzt wird. Sie verwaltet das Licht-Sampling effizient, indem sie ein "Reservoir" verwendet, um Lichtproben zu speichern und zu aktualisieren, und konzentriert die Berechnungen auf die Lichtquellen, die am wahrscheinlichsten das Endbild beeinflussen. Dies führt zu schnellerem Rendering und weniger Rauschen, was Echtzeit- und interaktiven Anwendungen zugutekommt.

Man könnte ReSTIR als eine Abkürzung auf einer Abkürzung betrachten. Das Monte-Carlo-Pathtracing ist bereits eine Vereinfachung des realen Lichtverhaltens, das statistische Methoden verwendet, um das Endbild anzunähern. ReSTIR optimiert diesen Prozess weiter, indem es Lichtproben intelligent verwaltet und den Rendering-Prozess effizienter gestaltet.

Ja, irgendwie so^^
Ich muss mich da bei Gelegenheit noch mal richtig reinfuchsen, irgendwie renn ich die ganze Zeit irgendwas hinterher (jüngst durch die ganzen UE5.4-Neuigkeiten gekämpft). Die packen da auch alles Mögliche in irgendwelche Buffer, dazu die ganzen Surface Caches und World und Screen Space Radiance Cache, aus denen sie wiederum Informationen aus des letzten Frames nutzen, um akkurater die "Importence" der Lichtquelle für den aktuellen zu berechnen... Optimierungen über Optimierungen multipliziert mit Optimierungen :freak:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88573&stc=1&d=1718828300

1ch0
2024-06-19, 22:33:11
Optimierungen über Optimierungen multipliziert mit Optimierungen :freak:


Ja, das ist wirklich so. :D Je mehr man sich damit beschäftigt, desto mehr wird einem klar, dass mit allen möglichen Tricks versucht wird, immer wieder etwas zu filtern und wegzuschneiden, um die Last zu verringern, aber dennoch die Qualität beizubehalten oder sogar zu verbessern.

Gast
2024-06-20, 11:39:55
ReSTIR wurde zuerst mit RT gezeigt, daher ist es keine PT-only Tech.



Pathtracing ist Raytracing, das ist keine andere Technologie.

BlacKi
2024-06-20, 13:03:23
sieht echt geil aus. auch der entwicklungsstand scheint recht weit zu sein.

C1_wM55Y_3s

ChaosTM
2024-06-20, 13:46:52
Schaut ganz witzig aus. Limb Simulator :)

1ch0
2024-06-20, 14:09:57
Sieht wieder aus wie ein weiterer belangloser Loot-Shooter oder so.

dargo
2024-06-20, 15:13:54
Mich erinnert das Game an The Division (2), ergo bin interessiert. :)

1ch0
2024-06-20, 17:20:43
Die Unterschiede zwischen Raytracing und Pathtracing sind gar nicht so leicht zu verstehen, wenn man bei Null anfängt. Am einfachsten ist: Raytracing traced Rays nur einen bounce von direct light. Pathtracing traced mehr als nur einen bounce und ermöglicht damit auch diffuses Licht.

basix
2024-06-20, 22:21:03
Interessanter Weise nutzt auch Lumen Importance Sampling. Und diverse Caches, um fühere Informationen zu speichern und wiederzuverwenden.

Alle modernen RT & PT Algorithmen verwenden Caching / Temporal Reuse und irgendeine Form von Importance Sampling. Das spezielle an ReSTIR ist, dass es faktisch O(1) mit mehr Lichtquellen skaliert. Egal wie viele Lichtquellen in der Szene vorhanden sind, ReSTIR berechnet immer die gleiche Anzahl Samples. Das ist bei Epics Lumen nicht so, dort kosten mehr Lichtquellen auch mehr. Deswegen wird dort z.B. der Radius eingeschränkt, wo Lichtquellen einen Effekt auf die Beleuchtung haben. Das muss man bei ReSTIR nicht machen, das ist inhärent in die Funktionsweise des Algorithmus gegossen. Schlussendlich also der allgemeinere und "elegantere" Ansatz, kostet aber mehr Rechenleistung (Grundleistung). Bei sehr vielen Leuchtquellen wird ReSTIR vermutlich dann sogar schneller sein als SW/HW Lumen.

Ich sehe das bei der UE5 so, dass man mit der Einführung von ReSTIR eine zusätzliche Skalierungsstufe erreichen würde:
1) SW Lumen (realtime)
2) HW Lumen (realtime)
3) ReSTIR Pathtracing (realtime)
4) Offline Pathtracer (non-realtime, Monte Carlo Sampling)

Gast
2024-06-21, 07:30:41
Quelle?


https://benedikt-bitterli.me/restir/bitterli20restir-supplemental.pdf

Das Originalpathtracing ist doch auch raytracing... es macht doch nur sinn mit pathtracing (mit monte carlo bla). beim normalen raytracing gibt es kein rauschen, da wird das ganze bild komplett gerendert und nicht per iterationen verbessert. Ergo ist es nur für pathtracing raytracing.

TheAntitheist
2024-06-21, 18:03:13
Die Unterschiede zwischen Raytracing und Pathtracing sind gar nicht so leicht zu verstehen, wenn man bei Null anfängt. Am einfachsten ist: Raytracing traced Rays nur einen bounce von direct light. Pathtracing traced mehr als nur einen bounce und ermöglicht damit auch diffuses Licht.
Nein das ist nicht der Unterschied, du kannst "unendlich" viele bounces mit RT haben, aber die haben keinen random ray, der in eine random richtung streut. DAS ist der einzige Unterschied.

und genau deswegen ist PT immer iterativ, weil der random strahl nichts sinnvolles treffen muss. Aber nur so bekommt man auch indirekte Beleuchtung

Dovregubben
2024-06-21, 18:32:36
Die Unterschiede zwischen Raytracing und Pathtracing sind gar nicht so leicht zu verstehen, wenn man bei Null anfängt.
Eigentlich ist es einfach:
- Raytracing: "atomare" Operation, die eine Intersection für einen "Strahl" mit der Szene sucht
- Pathtracing: Ein Algorithmus, der rekursiv Raytracing nutzt und die globalen Beleuchtung/die allgemeinen Rendering-Gleichung "löst".
Du setzt Raytracing aber fälschlicherweise mit Algorithmen gleich, die Raytracing für einen gewissen Zweck nutzen. Beispielsweise Raytraced Reflections, Raytraced Ambient Occlusion, etc. In der Praxis nutzen die Algorithmen meistens nicht exklusiv Raytracing, sondern kombinieren es mit anderen Dingen.

Noch ein Wort zur Monte Carlo Methode, die du auch mit Rendering verbindest: Rendering ist am Ende die Berechnung eines Integrals. Die Monte Carlo Integration ist am Ende eine der häufigsten Lösungen für komplexe Integrale in fast jedem Bereich. Sehr viele Optimierungen, die wir beim Rendering sehen, basieren auf allgemeinen mathematischen Erkenntnissen und wurde nicht fürs Rendering erfunden. Unterschiedliche Noise Typen sind da ein gutes Beispiel.

Ab einem gewissen Punkte hilft es sich Renderingprobleme nicht mehr bildlich vorzustellen. Man muss nur verstehen, welches mathematisches Problem man an einem bestimmten Punkte lösen muss, und kann dann Jahrhunderte an Erkenntnissen draufwerfen.

1ch0
2024-06-21, 18:42:10
Ich lerne ja immer gerne dazu, aber man neigt halt immer dazu sich alles bildlich vorzustellen. :)

https://i.ibb.co/tqbK3Gy/2024-06-21-18-40-41.png

https://cs184.eecs.berkeley.edu/public/su20/lectures/lec-10-raytracing/lec-10-raytracing.pdf

Fragman
2024-06-21, 20:27:44
RT ist PT, diese Trennung ist recht beliebig und irgendwie nicht richtig. Bei PT hat man nur einen Light Path den man verfolgt und aus dem man dann all die Informationen zieht, die man haben will.
Dieser Path endet wenn all die Energie absorbiert wurde.
Rein theoretisch natürlich.
Bei RT kann ich die Art der Rays direkt steuern und festlegen, was überhaupt wie verfolgt wird.
PT ist ganzheitlicher, sprich universeller und wird nur über die Depth begrenzt die aussagt, wie oft der Path irgendwas trifft.
Dabei ist egal ob er reflektiert wird oder in Teilen sowie ganz absorbiert wird. Diese Unterscheidung wie beim klassischen RT gibt es nicht.

Das was wir in den Spielen sehen hat aber so viele Optimierungen drin bis hin zu Schätzungen von Ergebnissen das diese theoretischen Definitionen sowieso kaum noch greifen.
Was am Ende aber egal ist solang es stabil ist und recht nah an der ground truth.

TheAntitheist
2024-06-21, 22:11:24
genau, perfektes PT brauch man überhaupt nicht in Spielen und ich finde das wir nach so kurzer Zeit, schon ziemlich gute Ergebnisse erzielen. mit der 10X Leistung wäre man schon wirklich bei einem sehr sauberen Bild (natürlich nur mit den Filtern)

Dovregubben
2024-06-22, 13:09:14
Ich lerne ja immer gerne dazu, aber man neigt halt immer dazu sich alles bildlich vorzustellen. :)

https://i.ibb.co/tqbK3Gy/2024-06-21-18-40-41.png

https://cs184.eecs.berkeley.edu/public/su20/lectures/lec-10-raytracing/lec-10-raytracing.pdf
Nur weil was auf Slides in einer Vorlesung landet, macht es das nicht korrekter.
Die Definition hier macht auch null Sinn, da sich nur auf die Primary Rays bezieht. Ganz offensichtlich haben wir in aktuellen Games schon hunderte von Anwendungsfälle auch außerhalb von Grafik, die von der Definition nicht abgedeckt sind.

aufkrawall
2024-06-25, 10:28:15
Besseres MT ist endlich in Fortnite gelandet, oft >70% Auslastung auf dem 8C 16T 5700X (Shader schon gecached). Damit sind nun recht problemlos 120fps im CPU-Limit mit HWRT-Lumen drin, das ging vorher nicht mal mit SWRT (auch nicht in der OG Season):
d5HCzrfK47E

Gibt aber leider immer noch üble Slow Downs mit epic effect details und vermutlich Niagara-Effekten wie Partikel/Flüssigkeit von Nitro. Auf high läufts ziemlich gut, wie im Video zu sehen. Bleibt also noch viel zu tun, aber ist schon ein guter Fortschritt.

dildo4u
2024-06-26, 16:36:10
The First Descendants bekommt eine PS4 Version.
Bin gespannt wie es nach unten skaliert.

Infos zu PS5
Firstly, we added a Balanced Mode to the graphics settings, which was unavailable during the Beta. PS5 users can now choose from three modes: Fidelity, Balanced, and Performance, offering a variety of options to suit your preferences.

Additionally, we have implemented the high-resolution shadow mapping technique, Virtual Shadow Map (VSM), provided by Unreal Engine 5 after extensive optimization efforts, enhancing the overall visual quailti

Furthermore, we added options for Ray Tracing and AMD Frame Generation, offering choices for those who desire higher visual quality or improved performance.

https://blog.playstation.com/2024/06/26/the-first-descendant-launches-on-ps5-and-ps4-july-2-new-character-gameplay-revealed

BlacKi
2024-06-28, 21:17:45
atmosphärisch holt mich das ab. aber ob die spielmechanik das tut?

FaO1xx88omk

Raff
2024-06-28, 23:10:23
Das Riven-Remake zeigt übrigens (erneut), dass sich UE5 und gute Peformance nicht ausschließen, wenn man keinen Gigantismus verfolgt: https://www.pcgameshardware.de/Riven-Spiel-30332/News/Unreal-Engine-5-2024-Remake-Benchmark-Test-1450609/

"Wir haben Riven auf einer stark undervolteten Geforce RTX 4090 mit maximalen Details in Ultra HD mit DLSS Quality gespielt. Welche Bildrate würden Sie erwarten? 50, vielleicht 60 Fps? Weit gefehlt - stets dreistellig, meist sogar am von uns festgelegten Framelimit von 120 Fps!"

... und das ist noch nicht mal Version 5.4. :)

MfG
Raff

Gast
2024-06-28, 23:48:49
Das Riven-Remake zeigt übrigens (erneut), dass sich UE5 und gute Peformance nicht ausschließen, wenn man keinen Gigantismus verfolgt: https://www.pcgameshardware.de/Riven-Spiel-30332/News/Unreal-Engine-5-2024-Remake-Benchmark-Test-1450609/



Bei der statischen Welt kein Wunder. Das sollte nicht der Maßstab für ein "modernes" Spiel sein.

x-force
2024-06-29, 01:06:03
Das Riven-Remake zeigt übrigens (erneut), dass sich UE5 und gute Peformance nicht ausschließen

wo hat ue5 bisher für das gebotene zu schlecht performt?

dildo4u
2024-06-29, 06:26:48
PC hat immer noch Probleme mit Laden selbst bei einem komplett Linearen Game.

https://youtu.be/iC5BabrJOqs?si=aR9xaA-FoG3giGUv&t=748

Das lässt sich nicht mit aggressivem Upsampling retten.

CPU Performance scheint nicht bereit für Open World.

https://youtu.be/29ZZTlJt9K8?si=1vI4mwPPQ7BLkA2Q&t=633

1ch0
2024-06-29, 18:22:16
Neues Digital Foundray Video:
BMGwItchbHs

Transcript und Summary by GPT4:

The title of the video is "DF Clips: Are We Starting To See The Full Power of Unreal Engine 5 In Games?" and the transcript is as follows:

With the release of Hellblade 2 this week and Black Myth Wukong set to release later this summer, there's a question if this marks the beginning of a slew of games coming out this generation using the full suite of Unreal Engine 5 features such as Lumen, Photogrammetry, Metahuman, etc. However, considering how demanding this technology is on current generation hardware, there's also a question if we'll see limited use of all this technology.

The discussion suggests that we're hopefully past the teething phase with a lot of the games. We've had the Matrix Awakens demo and a lot of cool stuff, but it's not quite over the line on current gen console hardware for getting a locked performance with good image quality. If we're going into an era with mid-gen refresh consoles, which looks increasingly likely, we're going to see a lot of developers be encouraged on those machines to push for those features and hopefully not leave the base machines in the dust.

Hellblade is seen as an inspiring example to a lot of developers because of its visual quality. A lot of developers will be looking at that and thinking they could have that quality of visuals in their action game or whatever it happens to be. Black Myth Wukong has had a couple of gameplay reveals and it looks impressive, but the jury's still out on that one.

Ultimately, Unreal Engine is a toolbox and it will be scaled according to the needs of the game. Not every game is going to need to use all of those features, but obviously, we will see more fully featured deployments. One thing from Hellblade that comes to mind is that it doesn't seem to be using the hardware ray tracing version of Lumen, it's using the software path. This could be something that would differentiate the PS5 Pro from the PS5, or maybe we'll just see a natural evolution of Unreal Engine 5 because it's already getting better and better all the time.

This game was one of the first or earlier UE5 games in development, so they were somewhat limited in certain areas by performance limitations of the older Unreal Engine 5 stuff. All this stuff is expected to continue to improve and speed up in time. It's just going to come down to the scale of the project, the needs to use all of those features, and how performant they actually become across the fullness of time.

Part of the appeal of Unreal Engine to many is that there are some really high-profile developers that are sort of almost working hand in glove with Epic to make the engine better and to the betterment of all. So, long may that continue.

Raff
2024-06-29, 21:37:54
wo hat ue5 bisher für das gebotene zu schlecht performt?

Überall, wenn man sich das User-Feedback ansieht. ;) Ich teile diese Wahrnehmung nur sehr bedingt (von nichts kommt eben nichts), aber Epic ist gut beraten, die Effizienz weiter zu erhöhen, um auch den "normalen Spieler" abzuholen.

MfG
Raff

DrFreaK666
2024-06-29, 21:59:37
... um auch den "normalen Spieler" abzuholen.

MfG
Raff

Was sind "normale Spieler"?

Raff
2024-06-29, 22:07:35
Solche, die sich darüber beschweren, dass man alle fünf Jahre mal eine neue GPU für mehrere Hundert Euro kaufen muss, um am Fortschritt teilzuhaben. ;)

MfG
Raff

Gast
2024-06-29, 22:15:20
Überall, wenn man sich das User-Feedback ansieht. ;) Ich teile diese Wahrnehmung nur sehr bedingt (von nichts kommt eben nichts), aber Epic ist gut beraten, die Effizienz weiter zu erhöhen, um auch den "normalen Spieler" abzuholen.

MfG
Raff

Bisher fehlts doch eher an richtigen Games, bis auf Hellblade II gabs bisher nichts brauchbares in UE5 und selbst da wird nur Software-Lumen genutzt...

Relex
2024-06-29, 22:30:22
Na ja. Stell dir vor, du hast 2019 eine RTX2070 Super für 500€ gekauft und merkst dass die Karte viel zu langsam geworden ist.

Jetzt kaufst du 2024 eine neue Karte. Gibst wieder 500-600€ aus und bekommst dafür eine RTX4070.

Die Karte ist gerade mal ca 65% schneller.

Das ist nicht gerade die Welt.


Hatte man vorher eine RTX2060 Super für ca 400€ und gibt heute wieder 400€ aus bekommt man eine 4060ti mit 8 GB. Performancezuwachs <50% und VRAM krüppel.


Spule 10-15 Jahre zurück hat man nach 4-5 Jahren eher 200% Performancezuwachs fürs gleiche Geld bekommen. Da hat man fürs Upgrade auch was geboten bekommen.

Heute beudeten hohe Anforderungen von Spielen nicht "kauf dir eine neue Karte und ersetze deine alte" nein, denn wenn du das machst fühlst du dich verarscht. Es bedeutet viel eher "kauf dir eine neue Karte und verdopple dein Budget, wenn es sich halbwegs lohnen soll"


Ich selbst hab auch immer Karten im 300-500€ Bereich gekauft. Mittlerweile bin ich bei der 4080 bei deutlich über 1000€ angelangt, weil alles andere einfach ein Witz im Vergleich war.

Raff
2024-06-29, 22:38:10
Meh, ich wollte eigentlich keine Neuauflage dieses Evergreens anstoßen. :ugly: Hier kommen mehrere Faktoren zusammen. Neben den hohen GPU-Preisen ist in erster Linie problematisch, dass der "normale Spieler" den Unterschied zwischen statischer Beleuchtung mit flachen Texturen und dem neuen UE5-Standard mit dynamischer Beleuchtung und komplexer Geometrie erst mal nicht sieht oder verstehen will. Das muss also noch besser laufen, damit die Akzeptanz steigt.

MfG
Raff

DrFreaK666
2024-06-29, 22:46:32
Na ja. Stell dir vor, du hast 2019 eine RTX2070 Super für 500€ gekauft und merkst dass die Karte viel zu langsam geworden ist...

Stell dir vor, dass es trotz reduzierten Details am Ende trotzdem noch UE5 ist

Rooter
2024-06-29, 22:51:04
Gibt es überhaupt irgendein Stück Software, das Hardware-Lumen nutzt? :uponder:

Spule 10-15 Jahre zurück hat man nach 4-5 Jahren eher 200% Performancezuwachs fürs gleiche Geld bekommen. Da hat man fürs Upgrade auch was geboten bekommen.Ist doch bei CPUs auch nicht anders. Wenn ich meinen 3600XT durch einen 5600X ersetzen würde, hätte ich kaum 30% mehr Performance. ¯\_(ツ)_/¯

MfG
Rooter

Raff
2024-06-29, 23:00:12
Gibt es überhaupt irgendein Stück Software, das Hardware-Lumen nutzt? :uponder:

Jo – Desordre (https://www.pcgameshardware.de/Unreal-Engine-Software-239301/Specials/Desordre-Tech-Lumen-RTXGI-RTXDI-Raytracing-DLSS-Frame-Generation-1426790/), Fortnite und ein Dino-Spiel, dessen Name mir immer noch entfallen ist (nein, nicht Ark Survival Ascended).

MfG
Raff

x-force
2024-06-29, 23:03:13
Ich teile diese Wahrnehmung nur sehr bedingt (von nichts kommt eben nichts), aber Epic ist gut beraten, die Effizienz weiter zu erhöhen, um auch den "normalen Spieler" abzuholen.

ich bin froh, dass es endlich wieder vorwärts geht und kenne abgesehen davon auch keine andere engine die mehr bietet und besser läuft.

unrealengine ist die neue cryengine

1ch0
2024-06-29, 23:05:39
Meh, ich wollte eigentlich keine Neuauflage dieses Evergreens anstoßen. :ugly: Hier kommen mehrere Faktoren zusammen. Neben den hohen GPU-Preisen ist in erster Linie problematisch, dass der "normale Spieler" den Unterschied zwischen statischer Beleuchtung mit flachen Texturen und dem neuen UE5-Standard mit dynamischer Beleuchtung und komplexer Geometrie erst mal nicht sieht oder verstehen will. Das muss also noch besser laufen, damit die Akzeptanz steigt.


Ich hab da tatsächlich schon ein Template mit Hilfe von AI erarbeitet und zurecht gefeilt und der aktuelle Stand is der: :freak:

OK, Raytracing and Pathtracing are very similar. Imagine throwing a tennis ball into a corner; it bounces off the ground, hits the wall, and keeps bouncing. Now, think of that tennis ball as a ray of light. It hits a surface, bounces off, and carries light to the next surface, creating effects like a red surface reflecting red light onto nearby objects. Imagine every light source in the game shooting tennis balls/light rays thousands of times every second, just like a real light source. That’s how it works. 😊 Raytracing simulates exactly that.

Without Raytracing, games can’t realistically simulate light behavior and need manual adjustments to appear natural. Over the years, games have started using tricks to fake it as well as possible. But there comes a point where it’s much more work to fake it than to just do it for real. It becomes easier for developers to use a Ray/Pathtracer, which makes the picture automatically realistic, so they don’t need to fake it anymore. This is why more games are using Raytracing.

If you want to make games look better and reduce the work for developers, there is no way around Raytracing.

1ch0
2024-06-29, 23:10:09
unrealengine ist die neue cryengine

Ich finde, es wird sich zu sehr auf UE5 versteift. Sicher, sie ist weit verbreitet und ermöglicht es, Spiele relativ einfach gut aussehen zu lassen wegen der verfügbaren Features im Baukastenformat - aber eine Engine ist ja auch nur ein Werkzeug. Wenn ich da an die Snowdrop-Engine denke, von Avatar und bald auch Star Wars Outlaws… Die ist schon verdammt gut und performant bei der gebotenen Optik von Avatar und der großen Welt. Und da gibt es auch kein elendes Shader-Stottern. ^^ Da will ich mal ein Spiel sehen, das das mit UE5 ebenfalls schafft.

DrFreaK666
2024-06-29, 23:20:28
Ich sehe es kommen: die Spielwelt sieht super realistisch aus, bleibt aber super statisch.
Performance nur für Grafik verpulvern ist falsch

Raff
2024-06-29, 23:23:12
Ich finde, es wird sich zu sehr auf UE5 versteift. Sicher, sie ist weit verbreitet und ermöglicht es, Spiele relativ einfach gut aussehen zu lassen wegen der verfügbaren Features im Baukastenformat - aber eine Engine ist ja auch nur ein Werkzeug. Wenn ich da an die Snowdrop-Engine denke, von Avatar und bald auch Star Wars Outlaws… Die ist schon verdammt gut und performant bei der gebotenen Optik von Avatar und der großen Welt. Und da gibt es auch kein elendes Shader-Stottern. ^^ Da will ich mal ein Spiel sehen, das das mit UE5 ebenfalls schafft.

Ich finde Snowdrop ebenfalls beeindruckend, aber die Entwicklerwelt hat Unreal auserwählt. Das fand ich vor einigen Jahren auch schlimm und meine Skepsis bezüglich Version 5 war groß, aber bereits nach dem ersten Jahr mit der UE5 kann man sagen, dass sie enorm viel besser ist als Version 4. :up: Die vorgeschalteten Compiling-/Caching-Verfahren sind effektiv. Jetzt fehlt nur noch Feintuning, etwa, dass das nicht bei jedem Spielstart gemacht werden muss.

Ich sehe es kommen: die Spielwelt sieht super realistisch aus, bleibt aber super statisch.

Ich denke, dass genau das Gegenteil der Fall ist. Einer der Gründe gegen voll dynamische Spielwelten war historisch (neben der Performance), dass das Lighting nicht Schritt halten konnte. Man denke an in Texturen "gebackene" Schatten von kleinen Assets, etwa in Max Payne 2. Mit Strahlverfolgung ist das kein Problem mehr. =)

MfG
Raff

Gast
2024-06-29, 23:38:00
Ich sehe es kommen: die Spielwelt sieht super realistisch aus, bleibt aber super statisch.
Performance nur für Grafik verpulvern ist falsch


Das zweite ist notwendig für ersteres.

Der Hauptgrund für statische Spielwelten ist, dass man diese ohne Raytracing nicht vernünftig dynamisch darstellen kann.

DrFreaK666
2024-06-30, 07:21:38
Das zweite ist notwendig für ersteres.

Der Hauptgrund für statische Spielwelten ist, dass man diese ohne Raytracing nicht vernünftig dynamisch darstellen kann.

Das ist Quatsch. In Ultima IX konnte ich z.B. jeden gedeckten Tisch abdecken. Das ist ein viertel Jahrhundert her. Red Faction von 2001 ließ uns schon manche Wände zerstören. Das ging auch ohne super korrekte Beleuchtung.
Sorry, das klingt für mich wie ne Ausrede.
Eine lebendige, nicht statische Welt kostet halt Geld.
Und wenn daran denke, dass man in CP2077 sich nirgends spiegelt... danke RT. Der Charakter ist wohl ein Vampir

Fragman
2024-06-30, 09:29:57
Das Problem sehe ich eher darin, das so eine Welt schwer zu directen ist.
Wenn Du alles zerstören kannst musst der Spieldesigner mit allem rechnen.
Als Spieler kannst Du Dinge zerstören die dann das Narrativ kaputt machen und die Story wäre dann nicht weiter verfolgbar.

ChaosTM
2024-06-30, 10:03:13
Das imho größte Problem der Unreal Engines generell ist die inflationäre Verwendung der Engine eigenen Assets. Daher erkennt man die Herkunft der meisten Spiele bereits nach ein paar Sekunden.

Daher finde ich jeden "Tod" einer guten proprietären Engine (CDProjekt Red etc.) sehr schade.
Dank Mesh Shader kann man eigentlich fast jede moderne Engine auf ein ähnliches Niveau* bringen.
Siehe remedy, Snowdrop etc.


*mit Abstrichen bei der Beleuchtung

aufkrawall
2024-06-30, 13:09:15
aber eine Engine ist ja auch nur ein Werkzeug.
Nein, eine Engine ist ein Werkzeugkasten. Da ist bei Unreal mit weitem Abstand am meisten drin.
Performance-Wunder im GPU-Limit würd ich mit neuen Versionen nicht erwarten. Erst recht nicht, wenn irgendwann die PS5 Pro das Hauptziel ist. Da wird wohl eher die Qualität von Lumen weiter ansteigen, was mit etwas Glück auf Nvidia und RDNA4+ durch mehr HWRT und weniger SWRT nicht viel kosten wird.

DrFreaK666
2024-06-30, 13:20:47
Wieso ist die Nischen-PS5 Pro das Ziel und nicht die Switch 2?

aufkrawall
2024-06-30, 14:33:38
Die Frage kannst du dir mit etwas mentaler Aktivität und einem Blick auf die Situation mit der Switch 1 selbst beantworten.
Aber falls das trotzdem nicht klappt, hier die Antwort: Die Switch spielt keine Rolle für PC-Versionen.

DrFreaK666
2024-06-30, 14:59:49
... Die Switch spielt keine Rolle für PC-Versionen.

Deswegen erwähnte ich auch die Switch 2.
Aber auch für die Switch gabs Doom, Wolfenstein, The Witcher 3, Hogwarts Legacy...
Und die Switch 2 hat Nvidia-Technologie, was bei sogenannten PC-Versionen sehr wohl eine Rolle spielt

aufkrawall
2024-06-30, 15:17:16
Ja, mit extremen Downgrade-Versionen Monate nach Release. Switch 2 hat die Hälfte der Kerne einer 3060, wie soll darauf Lumen/VSM laufen.

DrFreaK666
2024-06-30, 15:23:03
ja angeblich wurde die Matrix-Demo hinter verschlossenen Türen gezeigt

Gast
2024-06-30, 15:38:04
Das ist Quatsch. In Ultima IX konnte ich z.B. jeden gedeckten Tisch abdecken.


Ein komplett unpassender Vergleich, damals hatte man noch überhaupt keine vernünftige Beleuchtung, wo nichts ist kann auch nichts kaputt gehen.

Wir habe jetzt aber schon lange grundsätzlich ordentliche Beleuchtung, die aber ohne Raytracing nur in hauptsächlich statischen Szenen funktioniert.
Wenn du eine gute Beleuchtung hast, die aber komplett auseinander fällt wenn du das Level drum herum änderst, fällt das natürlich viel negativer auf.

Und Raytracing, vor allem eine Steigerung der Raytracing-Performance ist die einzige Möglichkeit um gute Beleuchtung mit einer dynamischen Welt zu kombinieren.

[dzp]Viper
2024-07-02, 23:25:50
ok.. das ist beeindruckend. Können wir das nicht als Benchmark haben? :D

OPUhp28j1qo

DrFreaK666
2024-07-07, 12:38:03
Spielt hier noch jemand WOW?

MlzOOiJ4puk

edit:

6PsHKKB86z8

Relex
2024-07-09, 10:32:48
Gründe, warum Entwickler nur Software und kein Hardware Lumen nutzen:

https://www.youtube.com/watch?v=G7WwySMDFHs&t=6864s


Ein besonders interessanter Aspekt den er genannt hat war auch Shader Kompilierung.
Muss separat für HW und SW Lumen gemacht werden.

Das heißt wenn ein Entwickler eine Shaderprekompilierung im Menü macht muss man hoffen, dass die Entwickler alle möglichen Shader Permutationen im Spiel nicht nur für Software sondern eben auch für Hardware Lumen aufgezeichnet und in die Kompilierung integriert haben.


Die Forderung nach Hardware Lumen könnte also durchaus dafür sorgen, dass so mancher Entwickler dann die Shaderkompilierung für HW Lumen vergisst und das Spiel schlichtweg deutlich ruckeliger läuft.


Wenn das tatsächlich die Konsequenz ist und Epic das nicht deutlich vereinfacht, dann ist der aktuelle Weg mit SW Lumen wohl tatsächlich der praktikablere.

Wir kommen gerade an einen Punkt wo UE5 Spiele relativ ruckelfrei genießbar sind. Wäre dumm das ganze mit HW Lumen jetzt wieder zunichte zu machen. Ich finde da muss Epic ran und nicht die Entwickler, denn die versauen es idr. nur.

robbitop
2024-07-09, 10:38:18
IMO ist es schlimm (aber leider Realität) dass sich Entwickler/Studios entweder nicht um gutes Framepacing scheren oder es einfach nicht bemerkt wird.
Shaercompiling vor Spielestart wird bei Epic als Novum verkauft - iirc gab es aber schon in den 2000ern Spiele die beim Laden angezeigt haben „compiling shaders“. Das irgendwie zu verzögern kann doch wohl kein Hexenwerk für die 2020er sein. Das ist Zeug an das man von Anfang an hätte denken können. Ohne Multicore CPUs eben 100% offline (bis mitte der 2000er) und ab da an dann eben vergezogen und parallelisiert.

Da lobe ich mir id Tech. So ein Kram passiert bei denen iirc nie. Tiago und Axel würden das wohl auch nie zulassen. :)

1ch0
2024-07-09, 11:04:36
Ein besonders interessanter Aspekt den er genannt hat war auch Shader Kompilierung. Muss separat für HW und SW Lumen gemacht werden.


Ich glaube, das versucht es nur komplizierter zu erklären, als es wahrscheinlich ist. Siehe Occams Razor.

Ich denke, der wahre Grund ist, dass Unreal Engine 5 Software Lumen auf jeder Grafikkarte gleich gut läuft, weil alles über die Shader läuft und man nicht auf Raytracing-Einheiten der Hersteller achten muss. Nvidia ist in diesem Bereich einfach überlegen, während AMD stark zurückliegt. Zudem ist in den Konsolen nur AMD-Hardware verbaut. Es ist daher naheliegend, Software Lumen zu aktivieren und Hardware-Lumen zu ignorieren, da es Aufwand bedeutet, für einige wenige Nvidia-Nutzer Anpassungen vorzunehmen. Ich vermute, dass der größte Gewinn weiterhin bei den Konsolen erzielt wird und Software Lumen offenbar “gut genug” ist, sodass man sich nicht die Mühe macht, für den PC-Markt zu optimieren. Wenn AMD jedoch endlich aufholt und entsprechende Einheiten verbaut, wird sich auch Hardware-Lumen stärker verbreiten, da dann der Großteil der Nutzer davon profitieren wird.

robbitop
2024-07-09, 11:11:47
Naja so weniger NV Nutzer sind es ja nicht. Nvidia gehört iirc mittlerweile 80% des dGPU Marktes.

Gast
2024-07-09, 11:19:43
Shaercompiling vor Spielestart wird bei Epic als Novum verkauft - iirc gab es aber schon in den 2000ern Spiele die beim Laden angezeigt haben „compiling shaders“.


Da hat sich die Architektur mehrfach geändert.
Anfangs wurden Shader in einer Assembler-Language geschrieben, die waren einerseits extrem simpel, und der Compiler muss da nichts großartiges machen.

Dann kamen erst die Shader-Hochssprachen, aber Shader waren immer noch sehr simpel, so dass man die JIT kompiliert hat ohne große Probleme.

Dann wurden Shader immer komplexer, die Architektur hat sich aber nicht großartig geändert.


Das irgendwie zu verzögern kann doch wohl kein Hexenwerk für die 2020er sein.

Es ist kein Hexenwerk, die Entwickler versuchen eben einen Kompromiss zwischen kurzer/"gar keiner" Ladezeit und flüssiger Wiedergabe in Laufzeit zu finden. Keine Frage oft genug nicht optimal.

josefYY
2024-07-09, 14:16:08
IMO ist es schlimm (aber leider Realität) dass sich Entwickler/Studios entweder nicht um gutes Framepacing scheren oder es einfach nicht bemerkt wird.
Shaercompiling vor Spielestart wird bei Epic als Novum verkauft - iirc gab es aber schon in den 2000ern Spiele die beim Laden angezeigt haben „compiling shaders“. Das irgendwie zu verzögern kann doch wohl kein Hexenwerk für die 2020er sein. Das ist Zeug an das man von Anfang an hätte denken können. Ohne Multicore CPUs eben 100% offline (bis mitte der 2000er) und ab da an dann eben vergezogen und parallelisiert.

Da lobe ich mir id Tech. So ein Kram passiert bei denen iirc nie. Tiago und Axel würden das wohl auch nie zulassen. :)
Aehm, Axel ist schon seit längerem nicht mehr bei id Software :wink:

Raff
2024-07-09, 14:33:27
Oh, wo isser denn hin?

MfG
Raff

robbitop
2024-07-09, 14:46:53
Aehm, Axel ist schon seit längerem nicht mehr bei id Software :wink:

Oh das ist für mich neu! Laut seinem linked in war er bei Tesla und ist jetzt bei Zeromatter

dildo4u
2024-07-09, 15:24:00
First Descendants UE5 Skalierung von PS4 zu PS5

cyOXPx-LaVI

dildo4u
2024-07-18, 08:23:39
Ziemlich enttäuscht nicht mal ein extrem Simpler Hero Shooter kannste 120fps erreichen.
Zen 5 könnte reichen oder erst X3D?

Bmukzu-YpW0

Relex
2024-07-18, 08:26:24
Für nen Shooter schon ziemlicher Mist, aber bei SP Games würde ich so oder so Frame Gen nutzen und wahrscheinlich eher im GPU Limit hängen.

Von daher wahrscheinlich in der Praxis erstmal kein Dealbreaker. Trotzdem ziemlich lächerlich, dass man nichtmal bei nem simplen Hero Shooter ohne Open World, ohne Nanite und Lumen nicht viel mehr CPU-FPS schafft.


Zum glück ist CD Projekt bei der UE5 mit an Board. In der DF Direct hat Alex kürzlich gezeigt, dass CD Projekt auf irgend ner Messe nen Beitrag über "#StutterStruggle" in UE5 gemacht hat.

Bezieht sich zwar jetzt nicht direkt auf die CPU last, spielt da aber sicherlich stark mit rein.
Ich hab schon einige Hoffnungen, dass CD Projekt da einiges zum Besseren drehen kann.

Cyberpunk war zwar mit RT auch CPU Lastig, dafür hat man aber bei der BVH für RT keine Kompromisse gemacht, hatte trotz dichter Open World Stadt sehr gute Performance und keinerlei Streaming und Shader Compile Ruckler.
Das ist Know How von dem die UE5 extrem profitieren könnte. (und letztendlich auch muss, wenn man ein Cyberpunk 2 will, das die UE5 voll ausnutzt und nicht ruckelt wie Sau)

qu3x^
2024-07-18, 18:47:52
Ziemlich enttäuscht nicht mal ein extrem Simpler Hero Shooter kannste 120fps erreichen.
Zen 5 könnte reichen oder erst X3D?

https://youtu.be/Bmukzu-YpW0
Macht nix der Titel ist DoA :freak:

Mordekai2009
2024-07-23, 19:29:48
Endlich dass ich Nanite und Lumen zum ersten Mal in Talos Principle 2 sah und selbst erleben durfte. Ich war ziemlich beeindruckend in Sachen guter Modellqualität bei sehr hohen Sichtweite und die Belichtung in vielen Orten wo dann meine Kinnlade sich aus dem Staub machte.

In Talos Principle 2 lief es sehr flüssig trotz niedrigem FPS zwischen 16-30 FPS* auf nativem 3840x2160 ohne TAA(U). Mit TAA testen kommt noch.

*RTX 4060 Ti 16GB.

Von daher... Hut ab! Unreal Engine! Vielleicht entdecke Ich noch mehr in diesen Spiel. Das kommt mit der Zeit.

Raff
2024-07-30, 15:36:29
Nobody Wants to Die im Tech-Test: UE5-Pracht trifft auf Film Noir, Cyberpunk und Bioshock (https://www.pcgameshardware.de/Nobody-Wants-To-Die-Spiel-74703/Specials/Tech-Test-Steam-Unreal-Engine-5-Benchmarks-1452128/)

UE 5.3.2 mit Software-Lumen, Benchmarks von 22 Grafikkarten in 5 Auflösungen. "Performance Bias" liegt irgendwo zwischen Hellblade 2 und The First Descendant.

MfG
Raff

dildo4u
2024-08-08, 17:56:28
Ninja Theory Interview zur Umstieg auf UE5


u-zmFVzUmPc

Raff
2024-08-14, 12:03:04
RTXGI in Aktion: Black Myth: Wukong im Test mit Benchmark-Tool - Erste GPU-Messungen zum UE5-Abenteuer (https://www.pcgameshardware.de/Black-Myth-Wukong-Spiel-72938/Specials/Test-Benchmark-Tool-Review-Release-1453634/)

"Verzichten Sie auf 'Full Ray Tracing', steigt die Bildrate einer Radeon-GPU um bis zu Faktor 6!"

Wow. Einfach nur wow. Aber nicht auf die gute Art. :ugly:

MfG
Raff

Gast
2024-08-14, 13:31:19
Wow. Einfach nur wow. Aber nicht auf die gute Art. :ugly:


Fragt sich nur ob sich das auf die präsentierte Qualität oder die grausame Radeon-Performance bezieht.

][immy
2024-08-14, 14:05:35
RTXGI in Aktion: Black Myth: Wukong im Test mit Benchmark-Tool - Erste GPU-Messungen zum UE5-Abenteuer (https://www.pcgameshardware.de/Black-Myth-Wukong-Spiel-72938/Specials/Test-Benchmark-Tool-Review-Release-1453634/)

"Verzichten Sie auf 'Full Ray Tracing', steigt die Bildrate einer Radeon-GPU um bis zu Faktor 6!"

Wow. Einfach nur wow. Aber nicht auf die gute Art. :ugly:

MfG
Raff

Ist das jetzt wirklich überraschend? Verzichtest du bei rtx Karten auf raytracing ist der Effekt ähnlich, aber nicht ganz so extrem. Du dampfst halt mit vollem Effekten die framerate ganz schön ein, es sei denn das bottleneck liegt halt woanders.

Raff
2024-08-14, 14:10:41
Yep, das Ausmaß ist außergewöhnlich, selbst mit dem Wissen, dass das Nvidia-Code ist. Aber gut, da wird’s wohl noch etwas Optimierung geben.

MfG
Raff

Exxtreme
2024-08-14, 14:13:29
Bei Full Raytracing sieht alles ausser der RTX 4090 richtig übel aus. Und das ist auch schon mit Upsampling gebencht. Sprich, ohne US darf man da so 40% abziehen.

Troyan
2024-08-14, 14:15:32
Bei Full Raytracing sieht alles ausser der RTX 4090 richtig übel aus. Und das ist auch schon mit Upsampling gebencht. Sprich, ohne US darf man da so 40% abziehen.

Die 4070 verliert in 960p (also 1440p DLSS Quality) 17% Leistung.

Übel sieht doch die UE5 an sich aus. Einfach eine absolut grottige Engine.

Raff
2024-08-14, 14:23:20
Bei Full Raytracing sieht alles ausser der RTX 4090 richtig übel aus. Und das ist auch schon mit Upsampling gebencht. Sprich, ohne US darf man da so 40% abziehen.

22 Fps (https://www.instagram.com/pcgh.de/p/C-mpHlJsNu-/?img_index=1) in UHD mit allem volle Kanone. :ulol:

MfG
Raff

Relex
2024-08-14, 14:31:10
Full RT kostet eigentlich nicht viel Leistung, wenn man Upsampling nutzt und dann mit Cinematic bei gleicher Auflösung vergleicht.

Wie immer ist RT extremst auflösungsabhängig. Erhöhe die Pixelzahl um faktor 4 und du bekommst im Gegenzug ~1/4 performance die übrig bleibt. 4K ist halt unfassbar teuer mit RT.

Das ist jetzt absolut keine neue Erkenntnis. So läuft das eben mit RT.
Spätestens da wird den Nativ predigern der Zahn gezogen.

Thunder99
2024-08-14, 14:47:49
Was ist nochmal der Unterschied zwische SW und HW Lumen?
Erstere über CPU, letztere über GPU/RT Einheiten?

1ch0
2024-08-14, 16:01:21
Was ist nochmal der Unterschied zwische SW und HW Lumen?
Erstere über CPU, letztere über GPU/RT Einheiten?

Software Lumen nutzt kein BVH, sondern einfache Signed Distance Fields, die deutlich gröber und nur eine Annäherung sind, keine wirkliche Geometrie. Das nutzt keine RT-Einheiten und daher läuft es überall.

Gast
2024-08-14, 16:01:27
SW Lumen läuft auf den Computeeinheiten, HW Lumen nutzt die RT Einheiten.

Fusion_Power
2024-08-14, 16:15:37
RTXGI in Aktion: Black Myth: Wukong im Test mit Benchmark-Tool - Erste GPU-Messungen zum UE5-Abenteuer (https://www.pcgameshardware.de/Black-Myth-Wukong-Spiel-72938/Specials/Test-Benchmark-Tool-Review-Release-1453634/)

"Verzichten Sie auf 'Full Ray Tracing', steigt die Bildrate einer Radeon-GPU um bis zu Faktor 6!"

Wow. Einfach nur wow. Aber nicht auf die gute Art. :ugly:

MfG
Raff
Ich wette, die Optik wird dadurch aber nicht gleich 6x schlechter. Also alles gut. :D Echt, ich hab viele Vergleichsbilder zwischen RT On/Off gesehen, das Wenigste davon haute mich bisher aus den latschen. Also in Relation zu dem hohen Performance Preis den man oft zahlen muss.
Man könnte fies sein und sagen: selbst modernste RT Grafikkarten sind im Grunde noch gar keine "richtigen" RT Karten.

aufkrawall
2024-08-14, 16:20:50
Merkbarster Hauptunterschied ist offenbar weniger Schatten-Flimmern, weil das Spiel mit seiner Uralt-Engine noch die Legacy-Schatten nutzt. Virtual Shadow Maps wurden erst mit 5.2 als production-ready deklariert. Wobei das blurrige FSR 3.1 mit der temporalen Keule die Flimmer-Schatten auch erstaunlich gut in den Griff zu bekommen scheint. :freak:
Das Spiel ist technisch ein Blick zurück in die UE5-Vergangenheit, schon einigermaßen langweilig. Und offenbar sind selbst die Nvidia-Effekte veraltet?

Atma
2024-08-14, 16:39:23
Die ersten Trailer von Wukong hatten mich noch beeindruckt. Was ich nun live auf dem eigenen Monitor sehe beeindruckt mich hingegen nicht mehr. Selbst mit DLAA ist das für mich nur eine (aufs Bild bezogene) weichgespülte Post-Processing Hölle.

aufkrawall
2024-08-14, 16:42:32
Jo. Ganz ehrlich: Far Cry New Dawn im HDR-Modus sieht auf einem OLED beeindruckender aus. :freak:
Gibts eigentlich irgendein UE5-Spiel, wo das HDR nicht kacke aussieht? Talos 2 etwa ist hässlich blass.

Fusion_Power
2024-08-14, 16:50:29
Die ersten Trailer von Wukong hatten mich noch beeindruckt. Was ich nun live auf dem eigenen Monitor sehe beeindruckt mich hingegen nicht mehr. Selbst mit DLAA ist das für mich nur eine (aufs Bild bezogene) weichgespülte Post-Processing Hölle.
Yo. Das erste was ich bei Games mache, ist möglichst viele "Post Processing" zu deaktivieren. :D Blur, Kamera- und diverse Weichspüleffekte sollten nicht in die Bewertung der optischen Qualität mit einfließen. Fraglich ist dann halt was vom jeweiligen Game noch an "purer Grafik übrig bleibt wenn der ganze Firlefanz deaktiviert ist.

Atma
2024-08-14, 17:07:19
Yo. Das erste was ich bei Games mache, ist möglichst viele "Post Processing" zu deaktivieren. :D
Geht mir nicht anders. CA, Motion Blur, Filmkorn etc. - alles aus was geht. Wenn es sein muss auch per Config Datei oder dem UUU (Universal Unreal Engine Unlocker)

Fragman
2024-08-14, 17:28:13
Also optisch schaut der Benchmark ganz nett aus.
Das es weich gespült aussieht kann ich nicht bestätigen, Schärfe hatte ich bei 75% und MB auf niedrig.
Es wird sicher wieder über DLSS Artefakte gestritten werden (das Wasser), aber das gehört ja dazu. ;)

aufkrawall
2024-08-14, 17:53:23
Die Reflexion der Fackel auf dem Wasser sieht auch mit FSR seltsam hell aus. Dafür triggert aber später der Insektenschwarm definitiv manchmal den DLSS-exklusiven Bloom-Bug. :freak:

Relex
2024-08-14, 18:11:49
Die ersten Trailer von Wukong hatten mich noch beeindruckt. Was ich nun live auf dem eigenen Monitor sehe beeindruckt mich hingegen nicht mehr. Selbst mit DLAA ist das für mich nur eine (aufs Bild bezogene) weichgespülte Post-Processing Hölle.


DLAA bringt nichmal den effekt den es in anderen Spielen bringt. Finde den Unterschied selbst zu DLSS performance marginal, weil praktisch alles durch schlecht gesampletes Postprocessing und scharfzeichner kaputt gemacht wird. Man bekommt einfach kein sauberes Bild. Keine Chance.

Na ja, ich versuch mich da jetzt mal nicht reinzusteigern. :biggrin:

Am Ende hoffe ich auf ein spaßiges Spiel. Das ist mir persönlich wichtiger, als ein paar Pixel, auch wenns natürlich spaß macht sich das alles im Detail anzusehen. Am ende mach ich das auch nur, weil ich das Spiel genießen will. Die Technik ist und bleibt mittel zum Zweck und ist niemals der ausschlaggebende Grund, warum ich ein Spiel kaufe.

1ch0
2024-08-14, 18:27:58
Mich hat bisher noch nichts visuell von Black Myth: Wukong beeindruckt. Ich habe immer auf echte Grafik am Heim-PC gewartet, wie jetzt bei dem Benchmark. Aber selbst hier bin ich nicht wirklich beeindruckt, und das „Pathtracing“, wenn es das wirklich ist, beeindruckt mich nicht wirklich. Sie hätten vielleicht einfach eine andere Gegend für den Benchmark auswählen sollen. Im Wald bei dem bisschen Beleuchtung kommt da nicht viel rüber.

RoNsOn Xs
2024-08-14, 18:33:47
"Den dunklen Wald" in schwarz-grün empfinde ich auch als absolut nichtssagend. Ist das erste, was mir aufstieß.

Relex
2024-08-14, 18:41:50
Vielleicht die einzige Stelle im Spiel, wo man die RTX Wasser Reflexionen bewundern kann :D

Thunder99
2024-08-14, 19:25:59
Danke für die Klarstellung mit SW Lumen vs. HW Lumen.

Zu dem Benchmark, hat eher wenig mit den fertigen Spiel zu tun. Daher abwarten auf richtige Tests mit der fertig implentierten UE5 Version.

Exxtreme
2024-08-14, 22:58:47
OK, hab jetzt das Wukong-Benchmark-Tool ausprobiert. Das Ding ist wohl ein Upscaler-Endgegner. Alle sehen IMHO richtig übel aus, DLSS sieht aber am Besten aus insgesamt. Aber auf 67% bekomme ich Augenkrebs. :freak: Auffällig ist auch das extreme Geschmiere wenn Vegetation sehr schnell an der Kamera vorbei huscht.

Hier sieht man das Geschmiere sehr deutlich rechts im Bild:
https://i.ibb.co/qr29kX2/63.jpg (https://ibb.co/710V280)

Man kann auf das Bild klicken für volle Qualität.

Sardaukar.nsn
2024-08-14, 23:01:05
Das sieht mir aber schon nach Motion Blur aus. Den Benchmark könnte ich aber auch gleich mal testen.

aufkrawall
2024-08-14, 23:02:38
OK, hab jetzt das Wukong-Benchmark-Tool ausprobiert. Das Ding ist wohl ein Upscaler-Endgegner.
Hast du also auch mal ein Spiel mit Nanite gestartet.

Relex
2024-08-15, 01:42:26
Das ist kein Upscaler Problem, weil es mit DLAA auch nicht viel besser ist, sondern ein Postprocessing Problem.

Wie ich schon im anderen Thread sagte macht das Motion Blur das Bild kaputt. Viel zu bröselig. Das sieht man auch sehr deutlich im screenshot. Das sind keine Upscaler Artefakte.
Genauso der Scharfzeichner, der bei 1440p und 1080p fast unerträglich und viel zu stark ist.
In 4K noch am ehesten erträglich, weil die Kanten feiner sind, aber wenns irgendwie möglich ist, das abzuschalten, wird es das erste sein, was ich zum Release mache. Vielleicht auch mal DLSS Preset F ausprobieren, das ist tendenziell weicher und könnte den Scharfzeichner hier ein wenig eindämmen.

aufkrawall
2024-08-15, 01:44:56
Ist in Talos 2 ganz ohne unscharfes PP mitunter noch mehr am Limit als in dieser Benchmark-Szene.
Nanite braucht noch wesentlich besseres AA als das, was es momentan gibt.

Relex
2024-08-15, 01:54:27
Ich weiß zwar was du meinst, aber Talos 2 sowie praktisch jedes UE5 Game hatte mMn eine ordentliche Bildqualität. Das ist doch überhaupt kein Vergleich zu dem hier.

Zumal das Hauptproblem die Vegetation insbesondere die Baumkronen sind, die in UE5.0 noch gar kein Nanite haben.

aufkrawall
2024-08-15, 02:20:50
In der Vegetation ploppt im Benchmark exakt gar nichts, ist mit hoher Wahrscheinlichkeit komplett Nanite. Ggf. zurückportiert oder mit irgendwelchen Krücken ans Laufen gebracht.

dargo
2024-08-15, 07:52:08
Hier sieht man das Geschmiere sehr deutlich rechts im Bild:
https://i.ibb.co/qr29kX2/63.jpg (https://ibb.co/710V280)

Man kann auf das Bild klicken für volle Qualität.
Lol... mache mal unter Anzeige die Bewegungsunschärfe auf niedrig oder aus, hier sieht das definitiv nicht so blurry aus. ;) Manchmal versteckt sich auch was bei PP wenn du dort max. wählst.
https://www2.pic-upload.de/thumb/37402292/BlackMythWukongBenchmarkTool_2024.08.15-07.48.png (https://www.pic-upload.de/view-37402292/BlackMythWukongBenchmarkTool_2024.08.15-07.48.png.html)

Da sich dort eigentlich immer mehrere Effekte als Bündel verstecken ist es manchmal sinnvoller über Ini-Gefrickel zu gehen. Bei deinem Bild kriegt man wirklich Augenkrebs. War schon ähnlich in Hellblade 2.

Edit:
Sehe gerade, dass hier ein zusätzlich Problem zum tragen kommt. Das Screenshoten spiegelt definitiv nicht 1:1 das wieder im Bild was ich live in Bewegung am Bildschirm sehe. Mit MB low sieht das hier beim Screenshoten so aus.
https://www2.pic-upload.de/thumb/37402294/b1-Win64-Shipping_2024_08_15_08_06_52_259.png (https://www.pic-upload.de/view-37402294/b1-Win64-Shipping_2024_08_15_08_06_52_259.png.html)

Live am Bildschirm sehe ich diese Geschiemere außerhalb der Mitte überhaupt nicht. Komplett ohne MB kommt die Screenshotfunktion besser mit klar.
https://www2.pic-upload.de/thumb/37402295/b1-Win64-Shipping_2024_08_15_08_10_10_010.png (https://www.pic-upload.de/view-37402295/b1-Win64-Shipping_2024_08_15_08_10_10_010.png.html)

basix
2024-08-15, 08:34:44
4K mit 50% (also DLSS-P) fand ich erstaunlich gut. Alles auf Maximum ausser Motion Blur auf "Schwach". Einzig das bröselige Wasser stört ein wenig (kriegt man aber auch mit DLAA nicht weg). Doch andere Geometrie ist erstaunlich wenig mit Artefakten behaftet, auch die ganz feinen Nadeläste usw.

Ich habe nicht mit der Lupe nach Fehlern gesucht, der Gesamteindruck war für micht gut genug.

Und was Schule machen sollte:
Den Slider von 25...100% für die Auflösungsskalierung finde ich genial. Jetzt noch bitte einen zweiten Slider, wo man min./max. Auflösung zusammen mit einer Target-Framerate definieren kann und ich bin zufrieden :)

Ausserdem finde ich die Benchmark History noch cool, wo man die FPS inkl. allen Details wie Einstellungen, Frametimegraph usw. verfügbar hat.

Sardaukar.nsn
2024-08-15, 15:38:39
Statt einer Demo direkt einen Benchmark raus zu bringen, finde ich auch ziemlich smart.

Troyan
2024-08-15, 16:11:46
With multi-bounce ray-traced indirect lighting, natural colored lighting bounces up to two times throughout the world of Black Myth: Wukong, creating more realistic indirect lighting and occlusion. Rendering techniques including Screen Space Reflections, Screen Space Ambient Occlusion, and the existing GI solutions were replaced by a single, unified algorithm that delivers more accurate lighting of scenes and objects, making each scene as immersive as possible.
https://www.nvidia.com/en-us/geforce/news/black-myth-wukong-full-ray-tracing-dlss-3/

Lumen ist schon absurder Unsinn. Auf Lovelace ist Pathtracing in 720p genauso schnell. Und in 1080p ist es ca. 23% langsamer.

Raff
2024-08-15, 16:30:32
https://www.nvidia.com/en-us/geforce/news/black-myth-wukong-full-ray-tracing-dlss-3/

Lumen ist schon absurder Unsinn. Auf Lovelace ist Pathtracing in 720p genauso schnell. Und in 1080p ist es ca. 23% langsamer.

Ich zitiere mal von hier (https://www.pcgameshardware.de/Black-Myth-Wukong-Spiel-72938/Specials/Test-Benchmark-Tool-Review-Release-1453634/2/#a1):

"Beim Direktvergleich fällt auf, dass RTX-GI besonders deutlich mit der Auflösung skaliert, sodass die größten Unterschiede in Ultra HD vorzufinden sind. Hier kostet das hübschere Bild zwischen 39 (RTX 4090) und 83 Prozent (6950 XT) der Fps - ein enormer Impact, den kaum eine Grafikkarte verdauen kann."

Das bezieht sich auf Ultra HD. Der Workload skaliert erwartungsgemäß enorm mit der Auflösung und ist keineswegs vergleichbar (niedrige Auflösung = CPU-Limit). Selbst mit einer RTX 4090 muss man Abstriche machen.

MfG
Raff

Troyan
2024-08-15, 16:35:17
Lumen skaliert nicht nach unten. Offensichtlich ist das so ein Softwaremüll, dass die Grundperformance auf niedrigem Niveau verweilt. Nennt sich auch "oversampling".

Ich stelle auch fest, dass mit besserer GI Qualität die Leistungsnahme auf Lovelace sinkt. Die Limitierung ist also in der seriellen Abarbeitung zu finden.

dargo
2024-08-15, 17:21:03
https://www.nvidia.com/en-us/geforce/news/black-myth-wukong-full-ray-tracing-dlss-3/

Lumen ist schon absurder Unsinn. Auf Lovelace ist Pathtracing in 720p genauso schnell. Und in 1080p ist es ca. 23% langsamer.
Die Welt dreht sich beim Gaming nicht um Lovelace und mit hoher Wahrscheinlichkeit beziehst du dich da sogar nur auf AD102. Dass ein Troyan das nicht versteht wundert hier allerdings keinen.

dildo4u
2024-08-16, 08:46:08
Lumen skaliert nicht nach unten. Offensichtlich ist das so ein Softwaremüll, dass die Grundperformance auf niedrigem Niveau verweilt. Nennt sich auch "oversampling".

Ich stelle auch fest, dass mit besserer GI Qualität die Leistungsnahme auf Lovelace sinkt. Die Limitierung ist also in der seriellen Abarbeitung zu finden.
Skaliert ok mit Lumen selbst in 1080p Upsampling.
+50% von 7800 zu 7900XTX
4070 zu 4090 + 90% was passt wenn wir von 200 zu 400 Watt sprechen.(4090 muss wesentlich mehr Ram Befeuern)

https://i.ibb.co/BscXJqB/Bildschirmfoto-vom-2024-08-16-08-40-42.png (https://ibb.co/s3b04yq)

https://www.computerbase.de/2024-08/black-myth-wukong-benchmark/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd

gnomi
2024-08-16, 09:11:54
Die alte Engine Build Version ist ja mal wieder schade.
Performance 60fps 4080 in 4K mit Quality Upscaling Normal Mode ist für mich so der Sweet Spot bis zur nächsten GPU Generation.
Dann wäre 4090 Power wahrscheinlich anzuraten, wenn UE5 mit neueren Build Versionen verbreiteter wird.

Raff
2024-08-16, 09:36:32
In Ultra HD ist eine RTX 4090 übrigens um bis zu 127 Prozent schneller als eine RTX 4070 (Faktor 2,3). Das ist eine ziemlich starke Skalierung mit den Rechenwerken (wenngleich längst nicht linear): https://www.pcgameshardware.de/Black-Myth-Wukong-Spiel-72938/Specials/Test-Benchmark-Tool-Review-Release-1453634/2/#a1

Dann steht’s aber ~430 zu 200 Watt, ebenfalls passend.

MfG
Raff

ChaosTM
2024-08-16, 09:49:46
Die 4090er verliert bei mir @ 350W nur 1 ganzes FPS an Leistung gegenüber Vollgas, aber da dürfte irgendwas unrund laufen..

+
Die Auslastung sinkt dann auf unter 100%. GPU Takt bleibt aber gleich @ 2900mhz. CPU Limit bei einer 7800X3D sollte es auch nicht sein. Dümpelt um die 20% vor sich hin.
Komischer BM.

++

Ab DLSS 80% wird die Karte dann besser ausgelastet und säuft über 400 Watt. Ist dann aber nur mittels FG spielbar.
Erst Nativ werden die vollen 450 gezogen, aber das ist selbst mit FG kein Spass mehr..

Daher sollte man die 200 Watt der 4070er eher mit 350-370 Watt vergleichen.

The_Invisible
2024-08-16, 10:09:03
Skaliert ok mit Lumen selbst in 1080p Upsampling.
+50% von 7800 zu 7900XTX
4070 zu 4090 + 90% was passt wenn wir von 200 zu 400 Watt sprechen.(4090 muss wesentlich mehr Ram Befeuern)

https://i.ibb.co/BscXJqB/Bildschirmfoto-vom-2024-08-16-08-40-42.png (https://ibb.co/s3b04yq)

https://www.computerbase.de/2024-08/black-myth-wukong-benchmark/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd

Eine 4090 verliert in 4k im PT Mode nur 20fps gegenüber SW-Lumen? Äh dann bitte mehr PT in UE5 Games :D

aceCrasher
2024-08-16, 10:38:23
Die Welt dreht sich beim Gaming nicht um Lovelace und mit hoher Wahrscheinlichkeit beziehst du dich da sogar nur auf AD102
Das 3DCenter dreht sich allerdings maßgeblich um AD102 :tongue:

Relex
2024-08-16, 10:46:27
Die 4090er verliert bei mir @ 350W nur 1 ganzes FPS an Leistung gegenüber Vollgas, aber da dürfte irgendwas unrund laufen..

+
Die Auslastung sinkt dann auf unter 100%. GPU Takt bleibt aber gleich @ 2900mhz. CPU Limit bei einer 7800X3D sollte es auch nicht sein. Dümpelt um die 20% vor sich hin.
Komischer BM.

++

Ab DLSS 80% wird die Karte dann besser ausgelastet und säuft über 400 Watt. Ist dann aber nur mittels FG spielbar.
Erst Nativ werden die vollen 450 gezogen, aber das ist selbst mit FG kein Spass mehr..

Daher sollte man die 200 Watt der 4070er eher mit 350-370 Watt vergleichen.


Teste mal ohne Nvidia RT. Mit Lumen sehe ich nen deutlich höheren Verbrauch. Geht bis auf über 300W bei mir von maximal möglichen 320W.

Verliere bei 250W allerdings auch nur 1 FPS. Aber das ist bei mir in absolut jedem Spiel so. Was anderes als ein 250W limit bei meiner GPU einzustellen ist komplett sinnfrei, selbst wenn sie die 320W ausnutzt geht bei 250W so gut wie keine Leistung flöten.
Die 4090 hat wahrscheinlich auch so nen Sweetspot. Aber hängt ggf. auch von der Chipgüte ab. Die könnte auch beim Powerlimit etwas reinspielen. (und nicht nur bei UV/OC)

Also ja, so wirklich aussagekräftig ist der Vergleich der TDP nicht. Ich denke, die 4080 und 4090 profitieren mit abstand am meisten in Sachen Effizienz von einem Powerlimit.

The_Invisible
2024-08-16, 10:55:07
PT-Limit spielt schon rein, einfach mal Q2RTX starten, da spikt sogar mein UV Profil das sonst bei ~300W liegt bis so 400W. Wenn man da ein PT Limit von 250W einstellt gehen die Takraten wohl in Richtung 2Ghz

ChaosTM
2024-08-16, 11:28:53
Teste mal ohne Nvidia RT. Mit Lumen sehe ich nen deutlich höheren Verbrauch. Geht bis auf über 300W bei mir von maximal möglichen 320W.

Verliere bei 250W allerdings auch nur 1 FPS. Aber das ist bei mir in absolut jedem Spiel so. Was anderes als ein 250W limit bei meiner GPU einzustellen ist komplett sinnfrei, selbst wenn sie die 320W ausnutzt geht bei 250W so gut wie keine Leistung flöten.
Die 4090 hat wahrscheinlich auch so nen Sweetspot. Aber hängt ggf. auch von der Chipgüte ab. Die könnte auch beim Powerlimit etwas reinspielen. (und nicht nur bei UV/OC)

Also ja, so wirklich aussagekräftig ist der Vergleich der TDP nicht. Ich denke, die 4080 und 4090 profitieren mit abstand am meisten in Sachen Effizienz von einem Powerlimit.




..irgendwo um die 350W liegt der Süßpunkt dieser Karte und in dem Bereich betreibe ich sie momentan.


Im Winter wird dann voll aufgedreht, auch wenn der Zugewinn an Leistung sehr überschaubar ist.

Relex
2024-08-16, 11:47:20
PT-Limit spielt schon rein, einfach mal Q2RTX starten, da spikt sogar mein UV Profil das sonst bei ~300W liegt bis so 400W. Wenn man da ein PT Limit von 250W einstellt gehen die Takraten wohl in Richtung 2Ghz

Ah guter Tipp, hast Recht.

62 FPS mit 320W und 57 FPS mit 250W. So viel hab ich tatsächlich noch nirgends gesehen.

Rund 8,8% mehr Performance bei 320W bzw. 28% höhere Leistungsaufnahme.

Aber gut, solange es selbst bei Cyberpunk und AW2 mit PT viel weniger Unterschied ausmacht ist das auch nicht wirklich relevant, aber gut zu wissen.

dargo
2024-08-16, 12:12:15
Das 3DCenter dreht sich allerdings maßgeblich um AD102 :tongue:
Mag sein, nur ist das 3DC global unbedeutender Fliegenschiss.

Raff
2024-08-16, 12:44:35
Ersetze "3DC" durch "alle Nerd-Hochburgen". Siehe die perverse Verbreitung der High-End-GPUs generell und der 4090 im Speziellen: https://extreme.pcgameshardware.de/threads/welche-grafikkarte-nutzt-du-derzeit-zum-spielen-q3-2024.651002/

MfG
Raff

dargo
2024-08-16, 13:00:40
Jo... das Upselling in der letzten Gen hat bei den IHVs ganz gut unter den Nerds funktioniert. :tongue:

Relex
2024-08-16, 13:33:55
Das funktioniert grundsätzlich bei jedem, wenn das Budget nicht tatsächlich hart limitiert ist.

Heute gibst du 700€ für ne GPU aus und darfst dir trotzdem noch sorgen um den VRAM machen.


Ich wollte ja eigentlich sowas wie ne 4070, generell hat mir die 70er Reihe immer locker(!) gereicht. Selbst wenn ich die dann 2-3 Generationen behalten habe.

Aber bei dem relativ geringen Abstand zu den Konsolen und dem knappen VRAM ist es dann eben ne 4080 geworden.

Logisch, wenn ich mir als traditioneller xx70er Käufer ne 4080 hole, greifen alle ehemaligen 80er und 80ti Käufer direkt zur 4090.

Mir war dann den Vorsprung von rund 30% im Schnitt viiiel zu gering, dafür dass das Upgrade von der alten Karte bei weit über 500% bzw. faktor 5 lag. :D


Und ja, für die ganzen PS4 Ports hat das in 1080p bei 60 FPS mit High settings noch sehr gut ausgereicht. Ich rüste eigentlich erst auf, wenn High Settings bei 60+ FPS nicht mehr möglich sind, ganz egal, was am Markt an GPU Leistung verfügbar ist.

dargo
2024-08-16, 16:49:49
Heute gibst du 700€ für ne GPU aus und darfst dir trotzdem noch sorgen um den VRAM machen.

Also mich kannst du damit nicht meinen, denn ich würde heute auf keinen Fall 700€ für einen 12GB "Krüppel" ausgeben. Zumal ich sogar von 16GB komme. :ulol: Und da es selbst bei 16GB+ für mich aktuell nichts Lohnenswertes von AMD oder Intel (nicht mal im höheren Preissegment) gibt chille ich erstmal. :cool:

aufkrawall
2024-08-16, 17:21:54
Imho ist das kein PT wie in bisherigen Spielen, das müsste ohne RR viel mehr Artefakte haben. Entsprechend gibts ja in vielen Szenen die Unterschiede vs. Lumen auch nur mit der Lupe, obwohl das nur SWRT-Lumen ist.

Raff
2024-08-20, 09:44:53
Laut Nvidia ist es ReSTIR GI (mit zwei Bounces), einige Infos dazu hier: https://www.pcgameshardware.de/Black-Myth-Wukong-Spiel-72938/Specials/Benchmark-Test-Review-Tuning-Tipps-1453917/

Die Performance ist der Wahnsinn, native Darstellung ist komplett vom Tisch.

MfG
Raff

Exxtreme
2024-08-20, 09:55:51
Da lag ich mit meiner Einschätzung doch richtig, dass der RTX 4090 für brauchbares RT so Faktor 5 an Leistung fehlt. :)

The_Invisible
2024-08-20, 10:13:48
Da lag ich mit meiner Einschätzung doch richtig, dass der RTX 4090 für brauchbares RT so Faktor 5 an Leistung fehlt. :)

Wennst in Steinzeit native Auflösungsmodi denkst eventuell

Exxtreme
2024-08-20, 10:17:28
Wennst in Steinzeit native Auflösungsmodi denkst eventuell

Für mich ist nativ nicht Steinzeit sondern ich empfinde Upscaling als megahässlich. Kann sein, dass ich eine Ausnahme bin aber mein Gehirn reagiert extrem empfindlich drauf.

Raff
2024-08-20, 10:18:59
Steter Tropfen ... ;) Nativ ist tot. Eventuell brauchst du nur einen anderen Bildschirm, bei dem das Verhältnis besser passt.

MfG
Raff

Fragman
2024-08-20, 10:19:24
Die RT Leistung wird nie so in Hardware kommen sondern in Software durch AI Training und von der GPU dann nur noch "abgespielt" werden.

Das wurde generell auch von nv schon so angekündigt.

Exxtreme
2024-08-20, 11:47:27
Die RT Leistung wird nie so in Hardware kommen sondern in Software durch AI Training und von der GPU dann nur noch "abgespielt" werden.

Das wurde generell auch von nv schon so angekündigt.

Intel oder AMD könnten das in Hardware bringen.

ChaosTM
2024-08-20, 11:57:38
Da lag ich mit meiner Einschätzung doch richtig, dass der RTX 4090 für brauchbares RT so Faktor 5 an Leistung fehlt. :)


Das kommt ca hin. :) - wenn man auf nativ besteht - Faktor 3-5



War auch lange gegen alle Arten des Upscalings, aber speziell DLSS ist mittlerweile so gut, dass man es quasi "verlustfrei" einsetzten kann.
FG ist schon etwas heikler..

1ch0
2024-08-20, 12:04:26
Nativ is einfach tot und interessiert mich auch nicht mehr. Genauso tot wie SSAA, MSAA etc.. DLSS AI etc is die Zukunft.

aufkrawall
2024-08-20, 18:52:51
Für mich ist nativ nicht Steinzeit sondern ich empfinde Upscaling als megahässlich. Kann sein, dass ich eine Ausnahme bin aber mein Gehirn reagiert extrem empfindlich drauf.
Na ja, TAA hat wenigstens in 4k schon einige Vorteile, ja. Aber 4k ist halt auch ohne RT auf einer 4090 schon ziemlich grenzwertig, 110fps sehen auf einem OLED in Bewegung schon ziemlich ruckelig aus...

Hab auch gerade für ein paart Wochen/Monate 4k und ist schon verblüffend, wie gut TSR noch (um mal wieder zum Thema zu kommen) selbst bei 50% pro Achse in Fortnite aussieht. Die Bewegungsunschärfe von TSR high nervt wesentlich weniger als mit 1440p-Monitor, und, bis auf minimal bei Partikeln, absolut null Ghosting. Wieso kann kein anderes TAA/U das (inklusive DLSS)...

qu3x^
2024-08-20, 22:36:55
Hab auch gerade für ein paart Wochen/Monate 4k und ist schon verblüffend, wie gut TSR noch (um mal wieder zum Thema zu kommen) selbst bei 50% pro Achse in Fortnite aussieht. Die Bewegungsunschärfe von TSR high nervt wesentlich weniger als mit 1440p-Monitor, und, bis auf minimal bei Partikeln, absolut null Ghosting. Wieso kann kein anderes TAA/U das (inklusive DLSS)...
Von welchem Spiel aus legst du diesen Entschluss fest? TSR ist imho in jenen Spielen besser wo der Artstyle überstilisiert wirkt und das Oberflächendesign schlicht gehalten scheint wie auch bei Abiotic Factor. Pauschal kann ich das aber nicht sagen das ein Temporales AA oder AI gestütztes AA besser ist.

aufkrawall
2024-08-20, 23:53:21
Ich habe nicht gesagt, dass TSR besser als DLSS ist, sondern dass es im Gegensatz dazu nicht ghostet. Dass DLSS andere Vorteile hat, stellt das nicht in Abrede.

Raff
2024-08-20, 23:56:11
TSR ist wirklich „erschreckend” gut für einen handgebauten Algo. In Fortnite sieht man wohl schon das neueste TSR der UE 5.4? Das hatte ich noch nicht vor der Iris. Jedenfalls schön, dass Epic mit der UE5 zu alter Stärke zurückgefunden hat. Version 3 und 4 waren irgendwie nie richtig geil.

MfG
Raff

aufkrawall
2024-08-21, 02:35:34
Fortnite war auf 5.4 seit November, das ist offenbar eine Art Staging-Branch für das Spiel. Mittlerweile ist es 5.5. Was da drin ist und was genutzt wird, lässt sich von außen nur mutmaßen. Aber hatte schon den Eindruck, dass TSR seit 5.4 nochmal eine Schippe besser aussieht. Aber bei Weitem ein nicht so großer Sprung wie mit wohl in erster Linie 5.1.
Das Spiel scheint übrigens seit dem letzten Update insbesondere auf Nvidia offenbar die Nicht-Shader-Compile-bedingten Ruckler zwischendurch deutlich reduziert zu haben.

UE4 wirkte in der Tat teilweise wie eine Fehlentwicklung, von den ganzen Tools für einen modernen Workflow und Content-Erstellung abgesehen. Aber das war dann so gesehen ein wichtiges Fundament und erklärt die hohe Beliebtheit bei Entwicklern. Mit UE3 ging es imho mit DX11 bergab, da fing das Gestottere an und nur halbgare und uninteressante Grafik-Features etc. Davor gabs wenigstens die goldene UE3 DX9-Zeit mit Borderlands 2, Bulletstorm etc.

basix
2024-08-21, 11:38:42
Vielleicht hat es etwas damit zu tun, dass TSR ab Scalability = Epic und höher die History intern super-sampled?

Dazu hat Epic auch noch ein paar theoretische Hintergrund-Infos:
https://dev.epicgames.com/documentation/en-us/unreal-engine/temporal-super-resolution-in-unreal-engine#tsrnyquist-shannonhistory

Daneben sind noch viele andere interessante Sachen dabei wie Temporal Flickering Analysis, Translucency Handling, Spatial Anti-Aliaser usw. welche TSR ergänzen.

AintCoolName
2024-08-21, 11:51:17
Hier mal was anderes zu UE5 das viel gerühmte Nanite soll garnicht so gut sein.
M00DGjAP-mU

Fragman
2024-08-21, 15:38:06
Leicht tendenziös das Video...,
spannend wäre gewesen er ordnet die Engine Entscheidungen etwas besser ein.
An einem Punkt macht er das auch, Photogrammetry, aber davon ist er scheinbar auch kein Fan?
Das er allerdings LOD so lobt, kann ich nicht nachvollziehen.
Die Beispiele von ihm sind dahingehend auch eigentlich ein contra LOD.

Dovregubben
2024-08-21, 16:03:05
Seine Argumentation ist schon niedlich.
Am Ende schlägt er ja dann vor, dass nur eine magische AI Technologie erfunden muss, die perfekte LODs baut, damit man für Entwickler eine gleiche Experience zu besseren Runtimekosten liefert.

Relex
2024-08-21, 18:24:15
Natürlich ist Nanite teuer, der Kommentar hier bringt ganz gut auf den Punkt, was es möglich macht.


https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=89248&stc=1&d=1724256600


Der payoff kommt halt erst dann, wenn man die Qualität maximieren will oder den Detailgrad im Vergleich zu heute in Zukunft massiv steigern möchte.

Dass das bei einzelnen Tests oder Szenen für bisherige/ältere Spiele langsamer ist, liegt in der Natur der Sache und ist zu erwarten.


Fakt ist auch, dass ich bisher kein Game mit so wenig pop-in gesehen habe, wie bei hellblade 2 und noch nie war der Detailgrad dabei auf mittlere Entfernung so hoch.

Also irgendwie scheint es ja dann doch zu funktionieren. Wenn man das bisher schon ohne LoD Übergänge bei dem (!) Detailgrad hinbekommen hätte, hätte man das ja in irgend nem Game gesehen.


Aber klar, der Junge weiß natürlich alles besser als die Entwickler.

x-force
2024-08-21, 18:24:34
Seine Argumentation ist schon niedlich.
Am Ende schlägt er ja dann vor, dass nur eine magische AI Technologie erfunden muss, die perfekte LODs baut, damit man für Entwickler eine gleiche Experience zu besseren Runtimekosten liefert.

das ist auch zweifelsfrei der nächste schritt.

assets werden teilweise schon jetzt so on the fly erzeugt.

Achill
2024-08-21, 18:38:33
Der YTuber hat seine eigene Webseite ... :freak:


Our goal is to raise 900K to pay a team of graphic programmers to modify Unreal’s source code. Including more optimized effects that take full advantage of the environmental properties most games ship with as well as better Anti-Aliasing options/accessibility.

We are dead serious about making sure all new software integrated & paid for by your contribution resolves independently of blurry TAA or upscalers.

Once a single change is made, our UE5 branch will always be accessible to all developers so that all studios and gamers can reap the benefits of our accomplishments immediately.

Make a one-time donation
Choose an amount

$5.00
$15.00
$100.00
Or enter a custom amount

Your contribution is appreciated.

Donate
*We are not actively seeking donations until we unveil our game prototype and speak more about what other effects we want implemented into unreal.

We set this up because some of our supporters asked us to.

Gast
2024-08-21, 18:44:14
Hier mal was anderes zu UE5 das viel gerühmte Nanite soll garnicht so gut sein.
https://youtu.be/M00DGjAP-mU

Ist das nicht der Typ der die Flimmerhölle zurück will, nur weil TAA etwas Unschärfe erzeugt?

basix
2024-08-21, 18:48:34
Ein paar Punkte kann ich schon verstehen. Doch er vergisst zwei Sachen: Skalierbarkeit nach oben (Zukunft) und Entwickler-Stunden. Beides scheint bei der UE5 sehr gut zu sein, weswegen die Engine auch beliebt ist. Insbesondere das angesprochene LoD ist doch genau das, was eines der grossen Nanite Stärken ist. Und bei herkömmlichem LoD hätte man deutlich mehr Arbeit und ab einem gewissen Punkt mit steigender Qualität auch deutlich grössere Assets (von der Speichermenge her)

Das Problem mit Blur in Bewegung, TAA usw. ist aber ein Punkt, wo ich ihm zustimme. Gibt zu viele Spiele, wo man nur im Stillstand wirklich gute und knackige Bilder hat.

Ein weiteres Thema ist, dass die PS5 und Co. gerade so am Limit laufen für die UE5. Da fehlt ein bisschen Rechenleistung. Insgesamt ist das aber mal nicht unbedingt schlecht, da es Epic dazu zwingt, die Engine auf diesen Punkt hin zu optimieren.

aufkrawall
2024-08-21, 19:09:32
Vielleicht hat es etwas damit zu tun, dass TSR ab Scalability = Epic und höher die History intern super-sampled?

Auch auf high hats kein Ghosting, bei immer noch massiv besserer Stabilität als FSR 3.0 und ca. gleichen Kosten.


Das Problem mit Blur in Bewegung, TAA usw. ist aber ein Punkt, wo ich ihm zustimme.

Es gibt kein TSSAA mit weniger Motion Blur als TSR epic, und auch das normale TAA ghostet mittlerweile wesentlich weniger als zu 4-Zeiten.
Kommt mir nach ziemlich gestrigen Argumenten vor.

basix
2024-08-21, 20:35:58
Das war ganz allgemein auf TAA-Methoden bezogen. Gestrig heisst in diesem Fall Durchschnitt, wo es halt bei sehr vielen Spielen noch nicht so toll ausschaut.

aufkrawall
2024-08-21, 20:53:21
Ich meinte mit gestrig die Argumente von dem Typen im Video, nicht deine Ideen dazu. ;)

qu3x^
2024-08-29, 19:26:23
Macht nix der Titel ist DoA :freak:
https://www.golem.de/news/concord-acht-jahre-entwicklung-fuer-697-pc-spieler-2408-188393.html
Da hilft "die beste Technologie" nix, offensichtlich ist die Grafik doch noch immer nur Nebenschauplatz

redpanther
2024-08-29, 19:31:40
Das war schon immer so und wird sich auch nie ändern.

Trap
2024-09-27, 22:44:32
Zufällig drüber gestolpert - ein schickes Hobbyprojekt, bei dem jemand eine kleine Insel bei Neuseeland nachgebaut hat:

ct6FS6CW1A0

basix
2024-09-28, 09:42:09
Die Wassersimulation gehört zum Besten, was ich bisher gesehen habe. Ich nehme aber an, dass das nicht in Realtime gerendert wurde.

Das benutzte Plugin ist Fluid Flux:
https://www.unrealengine.com/marketplace/en-US/product/fluid-flux

dargo
2024-09-28, 10:30:09
Die Wassersimulation gehört zum Besten, was ich bisher gesehen habe.
Absolut! Das ist Next-Gen! :eek: Jetzt nur noch den Blur an den Rändern und Grain deaktivieren und es ist perfekt. :up:

Mr. Lolman
2024-09-28, 11:04:20
Die Wassersimulation gehört zum Besten, was ich bisher gesehen habe. Ich nehme aber an, dass das nicht in Realtime gerendert wurde.

Das benutzte Plugin ist Fluid Flux:
https://www.unrealengine.com/marketplace/en-US/product/fluid-flux
Er schreibt aber auch, dass er den Schaum mit Davinci Resolve verbessert hat...

basix
2024-09-28, 11:09:43
Weiss ich, aber der Ozean, Wellenverhalten usw. sehen ziemlich OK aus. Es fühlt sich "einigermassen natürlich an". Das sieht man bei den meisten Wassersimulationen nicht, dort passt Wasser oftmals nicht in die Szene, da es mit dem Rest der Landschaft bricht (deutlicher Qualitätsunterschied Land vs. Wasser) oder Wasser sich mehr wie Gelatine verhält. Das ist hier deutlich weniger der Fall. Wasser ist immer noch zu "zähflüssig" (sieht man an den brechenden Wellen), doch eben schon ein beachtbarer Fortschritt. Evtl. ist Horizon Forbidden West noch in einer ähnlichen Liga (vermutlich nicht ganz so gut wie das Fluid Flux System), sonst sieht es ziemlich dünn aus was Spiele mit solch einer Wasserqualität anbelangt.

Schaum, schnelle Strömungen usw. ist sicher die Schwachstelle von Fluid Flux (siehe das Demo Material im UE Marketplace), der Entwickler arbeitet momentan an einer nächsten Generation des Plugins.

dargo
2024-09-28, 11:45:03
Evtl. ist Horizon Forbidden West noch in einer ähnlichen Liga...
Kommt nicht mal ansatzweise ran.

Wuge
2024-09-28, 11:52:04
Nice. Wie viel Arbeit steckt denn in so einer Umsetzung falls das jemand hier beurteilen kann...?