PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Unreal Engine 5


Seiten : 1 2 3 4 [5] 6 7 8 9

ChaosTM
2023-06-18, 01:23:58
Die Demo hat sofort mal eine Reboot eingeleitet ;)

2x..Ok.. ich bin skeptisch

aufkrawall
2023-06-18, 02:01:47
Hat da wieder irgendein Schlaumeier die Auslagerungsdatei abgeschaltet?

ChaosTM
2023-06-18, 02:04:18
Hat da wieder irgendein Schlaumeier die Auslagerungsdatei abgeschaltet?


nein, den Fehler hab ich trotz 64GB RAM nur einmal gemacht..

Nuon
2023-06-18, 09:03:36
Das LOD ist wirklich beeindruckend. Nur bei den Wänden könnte es etwas mehr Detail sein:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=84285&d=1687071621

@ChaosTM: Ein Problem mit CTDs hatte ich auch bei verschiedenen UE 5 Demos, seit dem ich die 3080 durch eine 4080 ersetzt habe, ist das Problem verschwunden.
Verzögern konnte ich die CTDs durch starkes Reduzieren des Powertargets, aber nicht ganz eliminieren.

The_Invisible
2023-06-18, 09:32:04
UE5 scheint recht empfindlich auf OC zu reagieren, hatte ich bei Fortnite schon mal gemerkt. Da würde ich sonst mal die Settings prüfen ;)

basix
2023-06-18, 10:27:33
Ja, kann ich bestätigen. OC führt in der UE5 schneller zu Instabilität als in anderen Engines / Spielen.

Raff
2023-06-18, 10:30:02
Ja, kann ich bestätigen. OC führt in der UE5 schneller zu Instabilität als in anderen Engines / Spielen.

Bei mir killt Cyberpunk 2077 mit Pathtracing schneller und zuverlässiger. :D

MfG
Raff

The_Invisible
2023-06-18, 10:43:52
Die Demo haut jedenfalls gut rein, weiter oben in den Höhlen drückts meine UV 4090 auf niedrige 60er fps auf 4k@max, schade das kein DLSS oder so gibt, ist ja eigentlich nur ein Schalter in UE.

Raff
2023-06-18, 10:50:58
Jetzt, wo du's sagst ... ich wollte eigentlich nur Beleuchtung und Geometrie angucken und habe daher gar nicht weiter gesucht. Da ist mit Sicherheit TSR aktiv, also das Software-Upsampling der UE5. Wenn sich die Zahlen von Layers of Fear (https://www.pcgameshardware.de/Layers-of-Fear-Spiel-55923/Specials/2023-Unreal-Engine-5-Release-Benchmarks-Steam-1421920/2/) bestätigen, ist DLSS pro Pixel zwar schneller, aber TSR ist nicht übel.

MfG
Raff

aufkrawall
2023-06-18, 10:55:51
Komisch, dass die Spiele nicht TSR-Qualitätsstufen anbieten. Zwischen high und epic liegen in Fortnite sowohl bei Performance als auch BQ ziemlich große Unterschiede.
Der Knaller ist dann epic @100%, von der Bewegtbildschärfe kann man mit DLAA nur träumen:
https://abload.de/thumb/fortniteclient-win64-z8iit.png (https://abload.de/image.php?img=fortniteclient-win64-z8iit.png)

ChaosTM
2023-06-18, 12:21:16
Hab jetzt alle Über- und Untertaktungen rausgenommen und den Stromhunger der Karte begrenzt, um das Netzteil weitestgehend ausschießen zu können.
Sobald ich "Press any key" drücke startet der Rechner brav neu...

BlacKi
2023-06-18, 12:43:15
Hab jetzt alle Über- und Untertaktungen rausgenommen und den Stromhunger der Karte begrenzt, um das Netzteil weitestgehend ausschießen zu können.
Sobald ich "Press any key" drücke startet der Rechner brav neu...kann trotzdem das netzteil sein, denn die reduzierung des powerlimits reduziert die spikes kaum.


du solltest, um das netzteil auszuschließen, die voltage limitieren. nimm mal alle frequenzkurven punkte über 0,86v raus.

Wake
2023-06-18, 14:48:25
Die Demo haut jedenfalls gut rein, weiter oben in den Höhlen drückts meine UV 4090 auf niedrige 60er fps auf 4k@max, schade das kein DLSS oder so gibt, ist ja eigentlich nur ein Schalter in UE.
Yep, bei mir zieht es 432W (Rail Powers 504W) maximal aus der GPU auf 5K DSR+max. Settings - Crashes oder Abstürze blieben aus (7800X3D+4090 auf nem 750W bq).

Einzig mein Charakter ist paar Mal abgestürzt und im Seil gehangen, hab aber auch versucht Nathan Drake-artig mit Doppelsprung Meter zu machen ;).
Bis kurz vorm Schluss bei einer Stelle war es aber geradlinig und recht einfach ersichtlich, was das Game von einem will und wo es weitergeht.

ChaosTM
2023-06-18, 17:29:56
kann trotzdem das netzteil sein, denn die reduzierung des powerlimits reduziert die spikes kaum.


du solltest, um das netzteil auszuschließen, die voltage limitieren. nimm mal alle frequenzkurven punkte über 0,86v raus.

Thx, Data hab ich nicht gedacht.

Rooter
2023-06-18, 18:04:16
Hab jetzt alle Über- und Untertaktungen rausgenommen und den Stromhunger der Karte begrenzt, um das Netzteil weitestgehend ausschießen zu können.
Sobald ich "Press any key" drücke startet der Rechner brav neu...Und was steht dann in der Ereignisanzeige?

MfG
Rooter

Radeonfreak
2023-06-18, 20:10:04
Sobald ich "Press any key" drücke startet der Rechner brav neu...

Its not a bug its a feature.

Raff
2023-06-21, 22:49:14
Es gibt schon wieder eine neue MAWI-Techdemo: https://www.pcgameshardware.de/Unreal-Engine-Software-239301/News/Techdemo-Tropical-Rainforest-1422573/

Absolut perverse Qualität und brutaler Anspruch, wenn man alles aufrotzt. Meine RTX 4090 ist selbst mit 2,8 GHz & 24 GT/s am Boden (rund 40 Fps).

MfG
Raff

Gast
2023-06-21, 22:56:59
Es gibt schon wieder eine neue MAWI-Techdemo: https://www.pcgameshardware.de/Unreal-Engine-Software-239301/News/Techdemo-Tropical-Rainforest-1422573/

Absolut perverse Qualität und brutaler Anspruch, wenn man alles aufrotzt. Meine RTX 4090 ist selbst mit 2,8 GHz & 24 GT/s am Boden (rund 40 Fps).

MfG
Raff

Sind euch die Techdemos nicht langsam mal albern?

Raff
2023-06-21, 23:04:08
Gerade an Nanite-Mikrodetails kann man sich nicht sattsehen, solange Spiele nur flache Oberflächen haben. :biggrin: Tankt mit Regen und Taschenlampe ordentlich:

AzUlK9tSops

MfG
Raff

Radeonfreak
2023-06-22, 00:12:47
Soweit ganz nett, aber doch recht statisch und langweilig.

35fps bei Ultra 4k und ca 55 bei very high. Ideale Vorrausetzungen für ein Game.

Ich hätte lieber gerne mal die RTX Racer Demo ...so nach 7 Monaten.

DrFreaK666
2023-06-22, 00:40:38
NV hat ja noch sechs Monate um es zu releasen

Raff
2023-06-22, 00:55:46
Was ist denn dann? Das Ding hat mich auch angefixt, würde gerne ein paar Runden drehen. =)

MfG
Raff

Platos
2023-06-22, 02:30:31
Ja wo bleiben denn die ganzen Spiele, die so aussehen wie diese ganzen Demos hier :freak:

Sardaukar.nsn
2023-06-22, 05:54:37
35fps bei Ultra 4k und ca 55 bei very high. Ideale Vorrausetzungen für ein Game.


DLSS 3 soll es dann reißen. NVIDIA DLSS 3 Now Available for Unreal Engine 5 (https://www.techpowerup.com/310346/nvidia-dlss-3-now-available-for-unreal-engine-5)

dargo
2023-06-22, 06:53:18
Ja wo bleiben denn die ganzen Spiele, die so aussehen wie diese ganzen Demos hier :freak:
Die Durchschnittshardware bei den Gamern ist dafür noch zu langsam, ergo werden keine Spiele mit dieser Grafiklast released. Auch wenn ich mich wiederhole... niemand entwickelt Games für sowas wie eine RTX 4090. Schnellste, verfügbare Gaminghardware ist für DEVs uninteressant.

The_Invisible
2023-06-22, 08:08:11
Sind euch die Techdemos nicht langsam mal albern?

Früher gabs Techdemos immer zur neuen GPU Generation von NVIDIA/AMD/ATI selbst, das war immer geil und zeigte die Zukunft. Weiß nicht was da albern sein soll, wir sind in einem 3D-Enthusiastenforum :freak:

@Topic
Gibts eigentlich schon Games mit den OTA-Updates für die DLSS-DLLs?

Radeonfreak
2023-06-22, 09:20:25
NV hat ja noch sechs Monate um es zu releasen

Der 1. April ist aber noch länger hin. :confused:

basix
2023-06-22, 10:47:34
Es gibt schon wieder eine neue MAWI-Techdemo: https://www.pcgameshardware.de/Unreal-Engine-Software-239301/News/Techdemo-Tropical-Rainforest-1422573/

Absolut perverse Qualität und brutaler Anspruch, wenn man alles aufrotzt. Meine RTX 4090 ist selbst mit 2,8 GHz & 24 GT/s am Boden (rund 40 Fps).

MfG
Raff

Auf diese Demo habe ich gewartet, sie hatten sie ja schon vor einiger Zeit angekündigt.


Schon einen Benchmark-Thread aufgemacht? :D

Sind euch die Techdemos nicht langsam mal albern?
Sich an guter und neuer Technologie erfreuen ist albern? Ok...

Früher gabs Techdemos immer zur neuen GPU Generation von NVIDIA/AMD/ATI selbst, das war immer geil und zeigte die Zukunft. Weiß nicht was da albern sein soll, wir sind in einem 3D-Enthusiastenforum :freak:
This!

DrFreaK666
2023-06-22, 10:48:39
Der 1. April ist aber noch länger hin. :confused:

NV sagte, dass es 2023 released wird.

aufkrawall
2023-06-22, 13:35:48
Die Streaming-Verbesserungen der letzten Fortnite-Versionen & UE 5.2 haben btw. Nvidia massiv geholfen, die krassen Streaming-Einbrüche sind jetzt wohl ca. auf Radeon-Niveau gesunken. Etwas zappeliger als Radeons ist es generell wohl nach wie vor, aber ist bei hohen fps nicht so schlimm (und es gibt den Reflex-Bonus).
Auf GeForces macht Fortnite in 4k 50% DLSS/TSR btw. keine 8GB VRAM voll. ;D

Edit: In nativen 4k mistet er mit GeForce aber definitiv zu aggressiv aus, gibt dann wesentlich mehr Spikes als mit Radeons und langsameres Texturenladen bei Szenenwechseln.

Thunder99
2023-06-22, 18:53:04
Die Durchschnittshardware bei den Gamern ist dafür noch zu langsam, ergo werden keine Spiele mit dieser Grafiklast released. Auch wenn ich mich wiederhole... niemand entwickelt Games für sowas wie eine RTX 4090. Schnellste, verfügbare Gaminghardware ist für DEVs uninteressant.
*HUST* Crisis 1 "HUST* :D
Es würde ja langen wenn man wirklich Regler drin hat die einem die Grafikpracht möglich macht und bei reduzierten Details immer noch sau gut aussieht :). Also alles voll aufgedreht ist dann der "Picture Mode" :freak:

aufkrawall
2023-06-22, 19:31:59
Nanite hat offenbar Einschränkungen bei der Skalierbarkeit, in Fortnite richtet sich der Poly-Count von Objekten nach den Performance-Anforderungen auf den Konsolen.

basix
2023-06-22, 21:03:58
Es würde ja langen wenn man wirklich Regler drin hat die einem die Grafikpracht möglich macht und bei reduzierten Details immer noch sau gut aussieht :). Also alles voll aufgedreht ist dann der "Picture Mode" :freak:

Ehrlich gesagt sieht die UE5 auf High noch sehr gut aus und die FPS sind auch auf mittelmässiger HW ganz OK (~PS5 Setting). Very High steigert die Qualität nochmals und ist auf High End HW was Perf/Optik angeht ganz ansprechend. Ultra ist nochmals einiges feiner was die Beleuchtung angeht, aber dann geht selbst der 4090 die Puste aus.

Gast
2023-06-22, 21:09:41
Sich an guter und neuer Technologie erfreuen ist albern? Ok...


Das hat mit aktueller Technologie nichts, aber auch garnichts gemeinsam.
UE konnten schon immer gute Techdemos, Samaritan usw. Dumm nur, kein echter Content verfügbar... Tja...

basix
2023-06-23, 09:55:08
Das hat mit aktueller Technologie nichts, aber auch garnichts gemeinsam.
UE konnten schon immer gute Techdemos, Samaritan usw. Dumm nur, kein echter Content verfügbar... Tja...

Bitte erläutere uns doch, wieso das nichts mit aktueller Technologie zu tun hat. Was sind deine Überlegungen?

Mit Samaritan beschreibst du frühere Techdemos von Epic selbst. Die Mawi Demo ist 3rd Party Content und Realtime-Rendering auf dem lokalen PC mit ansprechender Auflösung sowie FPS. Einfach als Executable downloadbar und ausführbar. Das ist was ganz anderes als Samaritan (nur als Video verfügbar, keine Interaktivität, lief auf 3x GTX580, 1080p, 30fps, unmöglich auf Konsolen ausführbar (https://www.neogaf.com/threads/epic-reveals-samaritan-processing-requirements-10x-360-at-1080p-4-4x-360-at-720p.462801/)).

Für mich ist diese Demo "echter Content". Genau so wie die Matrix Demo. Ich kann ihn selbst auf dem PC erleben, rumwandern und alles so lange bestaunen wie ich will ;) Noch ist es kein komplettes Spiel aber das wird bald kommen. Sowas wie Samaritan gab es in dieser Qualität erst einige Jahre später und war für den Endnutzer nie lokal ausführbar. Und wie gesagt, keine Interaktivität....

Gast
2023-06-23, 20:29:29
Für mich ist diese Demo "echter Content". Genau so wie die Matrix Demo. Ich kann ihn selbst auf dem PC erleben, rumwandern und alles so lange bestaunen wie ich will ;) Noch ist es kein komplettes Spiel aber das wird bald kommen. Sowas wie Samaritan gab es in dieser Qualität erst einige Jahre später und war für den Endnutzer nie lokal ausführbar. Und wie gesagt, keine Interaktivität....

"Das komplette Spiel" darauf kannste ewig warten. :) Ja selbst im alten 3DMark 2001 SE konnte man mit dem Truck ein paar Runden drehen, nur was bringt dir das? Matrix mag optisch "Average" wirken, spätestens nach ein paar Minuten rumfliegen in der Map und der schnellen Erkenntnis dass elementare Dinge fehlen, ist die Illusion dann mindestens genauso schnell wieder verflogen... Hat 0,0 mit echtem Content zu tun und ist unterm Strich, mehr Schein als Sein (!) ;-)

Radeonfreak
2023-06-25, 13:53:02
Unreal Engine 5.2: Epic Games veröffentlicht beeindruckende Electric Dreams-Techdemo

https://www.pcgameshardware.de/Unreal-Engine-Software-239301/News/5-2-Electric-Dreams-Download-Techdemo-Release-1422854/

Wobei veröffentlicht so ne Sache ist, nur als Project Datei und nur im Unreal und Epic Launcher Startbar.


Eine ausführbare Exe, das wäre eine veröffentlichte Techdemo.

aufkrawall
2023-06-25, 14:09:48
Benchmark für die Tropical Rainforest Demo:
https://gamegpu.com/action-/-fps-/-tps/unreal-engine-5-2-tropical-rainforest-demo-test-gpu-cpu

Radeons gehen mal wieder völlig unter, können halt RT nur auf einem CPU-Kern.

crux2005
2023-06-25, 15:18:46
Benchmark für die Tropical Rainforest Demo:
https://gamegpu.com/action-/-fps-/-tps/unreal-engine-5-2-tropical-rainforest-demo-test-gpu-cpu

Radeons gehen mal wieder völlig unter, können halt RT nur auf einem CPU-Kern.

:confused: Ich finde die Radeons schlagen sich sehr gut dafür das Epic auf ihren Vorführungs PCs Intel + NVidia Hardware benutzt.

Eher wundert es mich wie schlecht die 4080 ist ggü. 7900 XT/XTX.

vinacis_vivids
2023-06-25, 16:07:41
https://abload.de/img/screenshot_20230625_1f0ccg.jpg

Die Abstände sind ganz normal, nur dass NV-Karten unter der 4090 sehr schwach sind. Das ist aber keine Überraschung, sondern Huangs Strategie, den Gamer auszupressen.
Ein Halo-Produkt soll abfärben auf die schwachen Produkte in der Mittelklasse (4080, 4070Ti usw.). Preis-Leistung bei NV ist eine Frechheit für den PC-Gamer.

Lurtz
2023-06-25, 18:54:48
:confused: Ich finde die Radeons schlagen sich sehr gut dafür das Epic auf ihren Vorführungs PCs Intel + NVidia Hardware benutzt.
Ich glaube das Stilmittel nennt sich Sarkasmus.

Mr. Lolman
2023-06-26, 14:06:11
Hat jemand die Electric Dreams Demo schon irgendwo als Standalone/Export gefunden? Soll ja deutlich genügsamer sein, sowohl vom RAM als auch vom Plattenplatz.

basix
2023-06-26, 14:39:14
Ich kann es am Abend mal versuchen zu builden und dann hochladen. Interessiert mich auch ;)

Das UE5 Projekt ist 67 GByte gross ;)

Radeonfreak
2023-06-26, 16:21:33
Bitttteeeee...:)

Gast
2023-06-26, 18:53:19
Hier gibt es die Demo für 1$ +MwSt. Sogar incl. DLSS3
https://www.artstation.com/marketplace/p/JwjKg/unreal-engine-5-2-electric-dreams-with-dlss-3

Wäre natürlich super, wenn es jemand hier selbst packen könnte und dann auf google drive oder so bereitstellen kann.

basix
2023-06-26, 19:19:35
Klappt gerade nicht ohne weiteres. Bin momentan mit nur 24 GByte RAM unterwegs und wenn ich die volle Map öffne, crashed der Editor mit "out of memory" :D

RoNsOn Xs
2023-06-26, 19:54:07
Klappt gerade nicht ohne weiteres. Bin momentan mit nur 24 GByte RAM unterwegs und wenn ich die volle Map öffne, crashed der Editor mit "out of memory" :D
https://extreme.pcgameshardware.de/threads/unreal-engine-5-2-epic-games-veroeffentlicht-beeindruckende-electric-dreams-techdemo.636240/#post-11338486 :D

Radeonfreak
2023-06-26, 19:57:40
Ich versteh nicht warum nicht gleich von Epic eine Executable zur Verfügung gestellt wird. Mannomann. :rolleyes: Nicht jeder hat Bock erst mal 100 GB Unreal Editor und Project Files zu installieren.

vinacis_vivids
2023-06-26, 20:15:06
Habe derzeit nur 32GB RAM, reicht das aus?

Dovregubben
2023-06-26, 20:22:48
Ich glaube das Stilmittel nennt sich Sarkasmus.
Das funktioniert halt nicht mehr, wenn man es gewohnt ist, dass die Person solche Dinge stockernst.
Ich versteh nicht warum nicht gleich von Epic eine Executable zur Verfügung gestellt wird. Mannomann. :rolleyes: Nicht jeder hat Bock erst mal 100 GB Unreal Editor und Project Files zu installieren.
Weil du nicht Zielgruppe bist. Epic verdient an dir 0 Cent. Warum sollen die den ganzen zeitlichen und finanziellen Aufwand treiben?

aufkrawall
2023-06-26, 20:33:30
Das funktioniert halt nicht mehr, wenn man es gewohnt ist, dass die Person solche Dinge stockernst.

Wer nicht mal einen Satz zu Ende geschrieben bekommt, mag es nicht verstehen.

redpanther
2023-06-26, 20:39:16
Weil du nicht Zielgruppe bist. Epic verdient an dir 0 Cent. Warum sollen die den ganzen zeitlichen und finanziellen Aufwand treiben?

Weil es eine gute Werbung wäre?
(Vielleicht machen sie es nicht, weil es keine gute Werbung ist, k.a.)

Dovregubben
2023-06-26, 20:55:56
Weil es eine gute Werbung wäre?
(Vielleicht machen sie es nicht, weil es keine gute Werbung ist, k.a.)
Für Endkundenwerbung reicht ein Video. Da müssen sie auch nicht 10+GB Traffic für jeden zahlen. Entwickler und wirklich interessierte User/Developer wollen eh die Editorversion

Radeonfreak
2023-06-26, 21:01:12
Ständig nur Videos von Demos zu bringen steigert meinen Missmut schon seit langem. Jahre. Auch bei Nvidia oder Amd.

Gute Werbung ist was anderes. Und es ist ja jetzt auch nicht so als würde Epic ein paar Traffic Gebühren jucken.

Dovregubben
2023-06-26, 21:17:56
Gute Werbung ist was anderes. Und es ist ja jetzt auch nicht so als würde Epic ein paar Traffic Gebühren jucken.
Die beste Werbung ist es die Sourcen anzubieten. Das tun sie und das ist wesentlich sensationeller als eine Demo rauszufeuern, die 5 Minuten angetestet wird.

Gast
2023-06-26, 22:01:07
Habe derzeit nur 32GB RAM, reicht das aus?

Um das Projekt im Editor laufen zu lassen? Nein.

Um die gepackte, ausführbare Datei laufen zu lassen? Ja.

Nuon
2023-06-26, 23:00:03
Ich habe es mal mit nur 32GB Ram probiert.
Wenn ich die PCG Version builde wird nur die nähere Umgebung mit in die Exe übernommen.
Wie kann ich den ganzen PCG Level, der im Editor sichtbar ist, in den Build übernehmen?

basix
2023-06-27, 01:06:06
Hier unter dem Video findet man die Executable inkl. Menü und DLSS3 für 1$ zum Download:
https://www.youtube.com/watch?v=cyjOPPQBxBc&embeds_referring_euri=https%3A%2F%2Fextreme.pcgameshardware.de%2F

Ziehe es mir gerade runter. Darf es aber nicht teilen (Lizenzbedingungen)

Hier gibt es die Demo für 1$ +MwSt. Sogar incl. DLSS3
https://www.artstation.com/marketplace/p/JwjKg/unreal-engine-5-2-electric-dreams-with-dlss-3

Wäre natürlich super, wenn es jemand hier selbst packen könnte und dann auf google drive oder so bereitstellen kann.
Ah da war einer schneller.

Ich habe es mal mit nur 32GB Ram probiert.
Wenn ich die PCG Version builde wird nur die nähere Umgebung mit in die Exe übernommen.
Wie kann ich den ganzen PCG Level, der im Editor sichtbar ist, in den Build übernehmen?
Ja die kleine habe ich auch geschafft zu builden (nur so 97% RAM Belegung :D). Nicht ganz 10min mit dem 5800X3D, ging eigentlich relativ flott. Mit 13GByte ist die gleich schwer wie die komplette grosse Demo :uponder:

Radeonfreak
2023-06-27, 05:15:41
Die beste Werbung ist es die Sourcen anzubieten. Das tun sie und das ist wesentlich sensationeller als eine Demo rauszufeuern, die 5 Minuten angetestet wird.

Why not both? :frown:

Nuon
2023-06-27, 18:30:39
Die volle Map lässt sich öffnen und abspielen im Editor, aber wenn ich versuche sie zu builden, meckert er nach einiger Zeit wegen knappem Speicher (unter 1GB frei), läuft aber trotzdem durch.
Leider ist die resultierende exe wieder die verkrüppelte Version, identisch mit der, die bei dem kleinen PCG Level entsteht, die nur wenige Quadratmeter groß ist. :confused:

basix
2023-06-27, 22:24:31
So, habe es jetzt hingekriegt. Prinzipell ist es ganz einfach: RTFM :D
https://docs.unrealengine.com/5.0/en-US/packaging-unreal-engine-projects/

Ich habe die kompilierte Version hier raufgeladen (13.4 GByte), bitte bedient euch ;)
https://drive.google.com/file/d/1KSIwcEtkcuwHhPbcBk73Rxx5qYfNMZVK/view?usp=sharing

Wenn ihr die Settings ändern wollt: Führt die EXE der Demo mindestens 1x aus. Dann wird hier automatisch ein Ordner angelegt: C:\Users\EuerBenutzerName\AppData\Local\ElectricDreamsEnv\
Im GameUserSettings.ini File könnt ihr dann die Werte anpassen. Damit sie übernommen werden: Demo ist nicht gestartet -> Settings anpassen & speichern -> Demo starten C:\Users\EuerBenutzerName\AppData\Local\ElectricDreamsEnv\Saved\Config\Windows\G ameUserSettings.ini
Settings-Parameter:

0...4
0 = Low, 1 = Medium, 2 = High, 3 = Epic, 4 = Cinematic


Default ist 3 = Epic. Soweit ich weiss ist "ResolutionQuality" die ScreenPercentage der Renderauflösung. Standard ist 75 = 75% pro Achse = ~TSR Balanced Quality. Ansonsten kann man das File mit anderen Settings erweitern, gibt entsprechende Guides im Internet.

@Nuon:
Im Anhang findest du einen Screenshot vom Projektsetting, dass du anpassen musst. Dann klappt das mit der grossen Map ;) Am besten "map" im Suchfeld eingeben, dann findest du es sofort. Die Map an sich muss man nicht geöffnet haben. Man kann das Projekt im Editor starten und gleich mit dem Packaging beginnen (das schwarze Einstiegsbild mit den Systemrequirements etc. wird im Editor Viewport angezeigt, mehr nicht). Dann klappt das Packaging auch ohne Probleme mit 24 GByte RAM.

ChaosTM
2023-06-27, 22:26:23
Hab hier momentan nur 16GB RAM. Werde ich mir wohl sparen. ;)

basix
2023-06-27, 22:30:34
Die Exe der gepackten Version läuft auch mit 16 GByte RAM und 12 GByte VRAM locker ;) Und das mit 4K Cinematic Settings, ausser Antialiasing = Epic.

Mit Shift+C started man das Flythrough, 15-20fps auf der 4090 @ 2.55 GHz :D
https://abload.de/img/electricdreamsdemo_stp1dqc.jpg

aufkrawall
2023-06-27, 22:33:23
Standard ist 75 = 75% pro Achse = ~TSR Balanced.
In Fortnite ist TSR Quality afair schon 67%.

Thx fürs Packaging.

basix
2023-06-27, 22:36:58
In Fortnite ist TSR Quality afair schon 67%.

Stimmt, hast recht :) Ist ja 1.5x pro Achse bei DLSS Quality und Co.

Edit:
Dieses punktuelle Flackern im Bild wo so dunkle Punkte / Tiles im Bilder herumwabern kommt übrigens von TSR. Ist mir schon bei der Matrix City Demo im UE-Editor aufgefallen. Arbeitet TSR mit Tiles? Bei der DLSS3 Version ist das nicht vorhanden. Das ist nicht dasselbe wie das rumwabern des GI algemein, wenn man die Auflösung reduziert. Das ist eher etwas grossflächiger und sanftere Übergänge. Das wabern von TSR sind kleinere Punkte und dafür stärker ausgeprägt (=dunkler) und mit stärkeren Kontrastkanten and den "Tilekanten"(?).

Radeonfreak
2023-06-28, 05:12:59
Thx fürs Packaging.

+1

Nuon
2023-06-28, 07:05:40
@basix: Vielen Dank, das Packaging ist durchgelaufen und es läuft! :)

ChaosTM
2023-06-28, 14:54:12
Die Exe der gepackten Version läuft auch mit 16 GByte RAM und 12 GByte VRAM locker ;) Und das mit 4K Cinematic Settings, ausser Antialiasing = Epic.

Mit Shift+C started man das Flythrough, 15-20fps auf der 4090 @ 2.55 GHz :D
https://abload.de/img/electricdreamsdemo_stp1dqc.jpg


Die alte Gurke hat nur 8/16 (V)RAM. Der "neue" kommt eh bald vom RMA Urlaub zurück.


Zufällig drüber gestolpert.:

eQVV-rIdXiA


Schaut aus wie eine Love, Sex & Robots Episode.

aufkrawall
2023-06-28, 15:12:46
Edit:
Dieses punktuelle Flackern im Bild wo so dunkle Punkte / Tiles im Bilder herumwabern kommt übrigens von TSR. Ist mir schon bei der Matrix City Demo im UE-Editor aufgefallen. Arbeitet TSR mit Tiles? Bei der DLSS3 Version ist das nicht vorhanden. Das ist nicht dasselbe wie das rumwabern des GI algemein, wenn man die Auflösung reduziert. Das ist eher etwas grossflächiger und sanftere Übergänge. Das wabern von TSR sind kleinere Punkte und dafür stärker ausgeprägt (=dunkler) und mit stärkeren Kontrastkanten and den "Tilekanten"(?).
Imho passt bei diesen Demos irgendwas mit TSR nicht, selbst auf 4 mit 100% sieht das Ergebnis komisch unsauber aus. Kein Vergleich zu Fortnite. Bzw. ist dir das "Tile-Problem" in Fortnite schon aufgefallen?

Dampf
2023-06-28, 15:28:32
So, habe es jetzt hingekriegt. Prinzipell ist es ganz einfach: RTFM :D
https://docs.unrealengine.com/5.0/en-US/packaging-unreal-engine-projects/

Ich habe die kompilierte Version hier raufgeladen (13.4 GByte), bitte bedient euch ;)
https://drive.google.com/file/d/1KSIwcEtkcuwHhPbcBk73Rxx5qYfNMZVK/view?usp=sharing

Wenn ihr die Settings ändern wollt: Führt die EXE der Demo mindestens 1x aus. Dann wird hier automatisch ein Ordner angelegt: C:\Users\EuerBenutzerName\AppData\Local\ElectricDreamsEnv\
Im GameUserSettings.ini File könnt ihr dann die Werte anpassen. Damit sie übernommen werden: Demo ist nicht gestartet -> Settings anpassen & speichern -> Demo starten C:\Users\EuerBenutzerName\AppData\Local\ElectricDreamsEnv\Saved\Config\Windows\G ameUserSettings.ini
Settings-Parameter:

0...4
0 = Low, 1 = Medium, 2 = High, 3 = Epic, 4 = Cinematic


Default ist 3 = Epic. Soweit ich weiss ist "ResolutionQuality" die ScreenPercentage der Renderauflösung. Standard ist 75 = 75% pro Achse = ~TSR Balanced Quality. Ansonsten kann man das File mit anderen Settings erweitern, gibt entsprechende Guides im Internet.

@Nuon:
Im Anhang findest du einen Screenshot vom Projektsetting, dass du anpassen musst. Dann klappt das mit der grossen Map ;) Am besten "map" im Suchfeld eingeben, dann findest du es sofort. Die Map an sich muss man nicht geöffnet haben. Man kann das Projekt im Editor starten und gleich mit dem Packaging beginnen (das schwarze Einstiegsbild mit den Systemrequirements etc. wird im Editor Viewport angezeigt, mehr nicht). Dann klappt das Packaging auch ohne Probleme mit 24 GByte RAM.

Sehr cool, vielen Dank. Werde es mir herunterladen!

BTW, hast du die Build Configuration von Development auf Shipping gestellt? Wenn nicht, läuft da noch unnötiger Ballast mit, der die Performance reduziert und die Memory Consumption erhöht.

https://docs.unrealengine.com/5.0/Images/understanding-the-basics/packaging-projects/settings.webp

basix
2023-06-28, 17:15:43
Imho passt bei diesen Demos irgendwas mit TSR nicht, selbst auf 4 mit 100% sieht das Ergebnis komisch unsauber aus. Kein Vergleich zu Fortnite. Bzw. ist dir das "Tile-Problem" in Fortnite schon aufgefallen?

Kann sein, ist erst seit UE 5.2 ein "Problem". Mit der UE 5.1 ist mir das nicht aufgefallen.

Fortnite spiele ich nicht ;) Habe aber noch von niemandem gehört, dass es dort ein Problem gäbe. Dir wäre es wohl sicher aufgefallen ;)

BTW, hast du die Build Configuration von Development auf Shipping gestellt? Wenn nicht, läuft da noch unnötiger Ballast mit, der die Performance reduziert und die Memory Consumption erhöht.

Ja, ist Shipping. Habe es in den Settings umgestellt. Muss man aber seit einem der neueren Editor Updates nicht mehr machen, da man direkt Shipping anwählen kann und dann das Packaging starten (siehe Bild)

Radeonfreak
2023-06-28, 19:17:41
Muss sagen die Grafik gefällt mir...das schöne Gras und die schwebenden Bäume von Pandor....Unreal.

Next Gen.

https://abload.de/img/unbenanntodf7k.png

Dovregubben
2023-06-28, 19:31:23
Muss sagen die Grafik gefällt mir...das schöne Gras und die schwebenden Bäume von Pandor....Unreal.

Next Gen.

Deswegen bauen die auch keine fertigen Demos für dich ;)
Du bist da außerhalb des eigentliches Demobereichs. Jedes Spiel sieht da mindestens genauso schlimm aus. Würde man die Demos überall polishen, würden sie ein Vielfaches kosten. Hätte aber null Mehrwert.

Radeonfreak
2023-06-28, 19:34:45
Ich weiß. War ja auch nur Spaß. ;)

The_Invisible
2023-06-28, 19:37:34
Habs bei mir lokal sogar mit DLSS/FG Plugin zum laufen hinbekommen, DLSS-Quickstart PDF sei dank :D

Zumindest sollts ab 5.2 keine Ausrede geben kein DLSS/FG einzubauen, wer keine Dateien kopieren und paar Params setzen kann, vielleicht 1 Stunde Arbeit, sollte sich net Entwickler schimpfen

vinacis_vivids
2023-07-02, 10:53:41
Falls sich jemand am Shader-Compiling UE4/UE5 versucht:

https://abload.de/thumb/memory-channel-perforltecg.png (https://abload.de/image.php?img=memory-channel-perforltecg.png)

Mit Dual Channel siehste kein Land gegen Octa-Channel RAM. Da gehts nicht nur um Geschwindigkeit, sondern um die Memory Channel-Multiplikation mit Faktor 8!

ChaosTM
2023-07-02, 11:07:04
Die fliegenden Bäume erinnern mich an die Baumschiffe bei Dan Simmons Hyperion ^^

basix
2023-07-02, 12:22:10
Falls sich jemand am Shader-Compiling UE4/UE5 versucht:

https://abload.de/thumb/memory-channel-perforltecg.png (https://abload.de/image.php?img=memory-channel-perforltecg.png)

Mit Dual Channel siehste kein Land gegen Octa-Channel RAM. Da gehts nicht nur um Geschwindigkeit, sondern um die Memory Channel-Multiplikation mit Faktor 8!

Interessant. Wusste nicht, dass das so stark am Speicherinterface hängt. Gibt es da neuere Benches mit der UE5? Und wie sieht es mit V-Cache aus? Der soll beim Compiling ja helfen.

Achill
2023-07-02, 12:59:58
Interessant. Wusste nicht, dass das so stark am Speicherinterface hängt. Gibt es da neuere Benches mit der UE5? Und wie sieht es mit V-Cache aus? Der soll beim Compiling ja helfen.

Der Test (https://www.pugetsystems.com/labs/articles/amd-threadripper-pro-memory-channel-performance-scaling/ - warum gibt es neuerdings immer nur noch Bilder anstatt Quellen hier im Forum) zeigt m.E. eher die Besonderheit mit dem 64C Threadripper, dass dieser in Fällen wie Kompilierung besser mit 4x oder 8x Channels betrieben wird. Wenn nichts schief gegangen ist, dann deutet dies eher auf eine Architektur Schwäche oder ein Win11 Kernel Problem hin. Würde solch ein Test gern mal mit aktuellen Linux-Kernel sehen ...

basix
2023-07-04, 23:42:03
Ue 5.3 Roadmap ist draussen:
https://portal.productboard.com/epicgames/1-unreal-engine-public-roadmap/tabs/88-unreal-engine-5-3-in-progress

z.B. schnelleres TSR auf RDNA ;)
We've added initial support for 16-bit operations on desktop GPUs where backed by hardware support, including on Radeon RX 5000 series (RDNA) cards and newer.

aufkrawall
2023-07-05, 01:16:22
Sehr schön.
Wieso kann man bei AMD eigentlich RPM offenbar via D3D nutzen und bei Nvidia die TC-Beschleunigung für FP16 nur via CUDA/NVAPI?

basix
2023-07-05, 12:42:54
Wird soweit ich das sehe auf FP16-Befehle der APIs gemapped:
https://gpuopen.com/learn/first-steps-implementing-fp16/

Oder auch:
https://therealmjp.github.io/posts/shader-fp16/
When working with HLSL, the way you get this behavior is by using the min16float type and its variants (min16float2, min16float3x3, etc.)

aufkrawall
2023-07-06, 05:24:55
Wird soweit ich das sehe auf FP16-Befehle der APIs gemapped
Dann hat Nvidia wohl keinen Weg gefunden, das ohne Nebenwirkungen "automagically" den TCs zuzuweisen.
TSR high dürfte mit RPM in etwa gleich teuer wie FSR 2 sein, ggf. auch etwas schneller.

Noch besser wären natürlich weitere Verbesserungen für Szeneninhalte, die für TAA/U schwierig sind. Das UE5.2 TAA in Fortnite liefert dahingehend in nativer Auflösung immer noch bessere Ergebnisse als TSR mit Upsampling und ist im Vergleich spottbillig (und sieht generell viel besser aus als früher).
Hoffentlich gibts da bei Disocclusion/animierte Texturen auch noch einen entsprechenden Durchbruch ohne neurales Netzwerk. Man hat ja auch lange gedacht, effektives TAA wäre ohne deutlich ausgeprägte Ghosting-Probleme kaum möglich, bis dann doch das Gegenteil bewiesen wurde.

Gast
2023-07-06, 09:43:57
Dann hat Nvidia wohl keinen Weg gefunden, das ohne Nebenwirkungen "automagically" den TCs zuzuweisen.

Alles was FP16 ist wird bei Nvidia "automatisch" von den Tensorcores erledigt.

aufkrawall
2023-07-06, 11:03:23
Ist das in einem Durchsatztest nachgewiesen?
Nvidia unterscheidet selbst zwischen FP16-Leistung der regulären Shader-Blöcke und TCs:
https://images.nvidia.com/aem-dam/Solutions/geforce/ada/nvidia-ada-gpu-architecture.pdf

basix
2023-07-06, 14:07:33
Ich glaube Nvidias "Problem" ist, dass es nur bei Matrix-Befehlen mit maximalem FP16 Throughput klappt. Das ist in HW gegossen. AMDs CUs können das als Vektorbefehle ausführen, was die APIs als Befehlsformat supporten. Das ist der "Trick".

Bei DX12 kommen nun WMMA Befehle dazu. Dann sieht das anders aus. Dann sollten die Tensor-Cores das ohne Probleme unterstützen können.

aufkrawall
2023-07-06, 14:38:56
The GA10x SM continues to support double-speed FP16 (HFMA) operations which are
supported in Turing. And similar to TU102, TU104, and TU106 Turing GPUs, standard FP16
operations are handled by the Tensor Cores in GA10x GPUs.
https://images.nvidia.com/aem-dam/en-zz/Solutions/geforce/ampere/pdf/NVIDIA-ampere-GA102-GPU-Architecture-Whitepaper-V1.pdf
Dann müsste ja FSR 2 jetzt weniger Leistung auf GeForces als auf Radeons kosten. :confused:
Aber die FP16-Optimierung für TSR erwähnt auch nur Navi. Was auch komisch ist, da schon Vega RPM unterstützt.

Gast
2023-07-06, 15:12:52
Ist das in einem Durchsatztest nachgewiesen?
Nvidia unterscheidet selbst zwischen FP16-Leistung der regulären Shader-Blöcke und TCs:
https://images.nvidia.com/aem-dam/Solutions/geforce/ada/nvidia-ada-gpu-architecture.pdf

Sie unterscheiden zwischen Matrix und Vektorleistung.

Die Hardware welche die Berechnungen macht sind immer die Tensorcores.

Und was viele immer vergessen, wenn sie nur auf die Peakleistung schauen, die Tensorcores arbeiten parallel zu FP32 und damit quasi "for free*".

Sofern es keine anderen Limitierungen wie z.B. Register oder dergleichen gibt.

Gast
2023-07-06, 15:14:09
Ich glaube Nvidias "Problem" ist, dass es nur bei Matrix-Befehlen mit maximalem FP16 Throughput klappt.

Ein Vector ist einfach eine 1-Dimensionale Matrix. Das können die Tensorcores natürlich auch, auch wenn der Rest der Matrix nichts zu tun hat.

basix
2023-07-06, 17:47:16
@aufkrawall:
Wieso? Vega & RDNAx unterstützen RPM. Und FSR2 läuft auf gleichschnellen GPUs von AMD und Nvidia in etwa gleich schnell. Passt doch?

TSR ist eine andere Geschichte. Dort gibt es Herstelleroptimierungen anscheinend noch nicht (ausser auf Konsole). Wird nun aber nachgereicht. Dass RDNA hier als erstes kommt ist nicht verwunderlich, eben wegen den Konsolen.

Oder was ist dein Issue mit dem?

Ein Vector ist einfach eine 1-Dimensionale Matrix. Das können die Tensorcores natürlich auch, auch wenn der Rest der Matrix nichts zu tun hat.
Danke für diese Erleuchtung ;)

aufkrawall
2023-07-07, 08:38:26
Oder was ist dein Issue mit dem?

Scheint dann ja zu bedeuten, dass die Optimierung für RDNA nicht einfach so auf Vega funktioniert. Sonst hätten sie ja Vega als Minimum genannt und nicht RDNA1.

aufkrawall
2023-07-08, 19:35:45
Mal for the lulz:
smubi6EsdLU

Diese Qualität des Motion Capturings ist schon ziemlich heftig. Wüsste nicht, was flüssiger und detaillierter aussieht und dabei so kompatibel mit einer so großen Varietät an Modellen wäre.

blaidd
2023-07-10, 13:04:26
The Isle (bzw. der Evrima-Beta/Developer-Branch) hat mit Version 6.5 auch ein Update auf die UE5 erhalten.

Hat Lumen und ein paar Raytracing-Extras bekommen. Die Assets und Stuff sind (noch?) die alten. Interessant ist, dass es deutlich besser und ruckelärmer läuft. Geht sogar mit einer RX 6600 XT EDIT: 7600 - gleicher Hersteller (Sapphire Pulse), habe ich auch hier rumliegen, sehen sich recht ähnlich.^^

Ist (immer) noch eine sehr frühe Version (und hat auch noch ein paar technische Macken), aber ganz interessant ist es trotzdem. DLSS/TSR ist auch dabei.


https://www.theisle-game.com/de/ (https://www.theisle-game.com/de/)

Ex3cut3r
2023-07-11, 16:19:06
XnhCt9SQ2Y0

Zusammenfassung:

UE 5.2 hat leider immer noch Probleme aus MC CPUs mehr rauszuholen. Ab 8C gibt es keinen Gewinn mehr.

DLSS 3 (FG) war selbst für Alex per Plugin sehr leicht zu integrieren, (und vermutlich wird man auch nur mit FG High Refresh Experience in Zukunft bekommen. Meine persönliche Meinung)

Traversal Stutters immer noch vorhanden.

Shader Compile Stutter soll nun vermieden werden, indem man per Async Shader im voraus lädt, leider klappt dieses immer noch nicht zu 100% und es ist nicht die Default-Einstellung der Engine, heißt vermutlich werden die meisten Entwickler es gar nicht aktivieren.

Da graust es mir jetzt schon, wenn ich sehe wie viele Entwickler auf die UE5 geswitcht sind, das wird IMHO jedes mal ein Stutter Fest werden. Tolle Wurst. Die sollen einfach die Option anbieten, die Shader vor Spielstart alle zu kompilieren mit Wartezeit. Als ob das für die Intel Raptor Riege ein großes Problem wäre, die 5 Minuten zu warten.

dildo4u
2023-07-11, 16:30:53
Dort sieht man warum 30 FPS zurück kommt die Konsolen sind nicht das Problem sondern die miese Kern Skalierung.
Das ist noch ohne KI und mögliche Zerstörungs Physik.

Lurtz
2023-07-11, 17:20:54
Die Konsolen haben doch nur 8 Kerne.

Rooter
2023-07-11, 20:59:05
Ich vermute auch, dass die Konsolen der Grund waren, den Kram erstmal nur auf 8C zu optimieren.

MfG
Rooter

aufkrawall
2023-07-11, 21:05:01
UE 5.2 hat leider immer noch Probleme aus MC CPUs mehr rauszuholen. Ab 8C gibt es keinen Gewinn mehr.

Ist aber nicht so wild, weil Lumen im Vergleich zu dem Nvidia-Crap eher moderate Anforderungen an die CPU hat.
Man dürfte mit Lumen in Fortnite weit mehr als die doppelten fps im CPU-Limit haben als mit dem Nvidia-RT, das es vorher für das Spiel mit der UE4 noch gab.
Außerdem kann das Streaming + Physik sehr wohl Auslastungs-Spikes deutlich über 50% CPU-Gesamtauslastung mit 8C 16T verursachen.
Fortnite läuft mit UE 5.2 um Welten besser als mit 5.0 oder noch 4, aber der Weg ist da offenbar das Ziel...

Btw. ist PCG immer noch als experimentell markiert. Irgendwie nicht sehr seriös, aus einem Demo-Projekt damit Ableitungen über die Performance ziehen zu wollen.

Jupiter
2023-07-11, 22:52:43
Der Kernskalierungsvergleich zu Cyberpunk 2077 zeigt deutlich, welcher Spielmotor der bessere ist. Unreal nutzt noch immer nur einen Render-Thread?! Ich dachte CIG wäre mit Star Ciztzen langsam gewesen aber das Epic das bis jetzt in 2023 noch nicht einmal mit tausenden Mitarbeitern geschafft hat ist erstaunlich.

aufkrawall
2023-07-11, 22:58:17
Du solltest dich eher mal fragen, wieso Fortnite im CPU-Limit trotz schlechterer Kernskalierung locker doppelt so schnell läuft wie CP77 mit Psycho-RT. Echt ein völliger BS-Vergleich von DF, die haben echt den Schuss nicht mehr gehört...

Gast
2023-07-12, 07:40:36
Cyberpunk skaliert so viel besser weil es eine ganze Stadt simuliert, nicht wegen dem Rendering.

Bei Aufgaben die sich nicht in gleich große Teile aufteilen lassen, wird die erreichbare Performance sehr schnell vom aufwändigsten Thread limitiert, das wird sich auch nicht ändern lassen.

Was man mit mehr Threads machen kann, ist mehr parallel zu machen, nicht unbedingt das was man schon macht schneller zu machen.

dildo4u
2023-07-12, 08:38:02
Die Konsolen haben doch nur 8 Kerne.
Mit SMT laut dem Video bringt das Zero.
Nach diesen Messungen wäre 9700k die ideale UE 5 CPU.

ChaosTM
2023-07-12, 09:29:31
Der Kernskalierungsvergleich zu Cyberpunk 2077 zeigt deutlich, welcher Spielmotor der bessere ist. Unreal nutzt noch immer nur einen Render-Thread?! Ich dachte CIG wäre mit Star Ciztzen langsam gewesen aber das Epic das bis jetzt in 2023 noch nicht einmal mit tausenden Mitarbeitern geschafft hat ist erstaunlich.


Kernsdalierung ist nur ein Indikator für die Quali einer Engine. Nanite etc und die prozedurale Generierung werden für CD-Projekt RED wohl deutlich wichtiger gewesen sein. Viel weniger Aufwand, speziell für die Erstellung eines Spiels wie dem Witcher.
jetzt muss man nur mehr das grausliche Shader Gezuckel unter Kontrolle bringen.

dargo
2023-07-12, 09:32:46
Die Konsolen haben doch nur 8 Kerne.
Aber 16 Threads, wovon afaik bis zu 14 in Games verwendet werden können.

gnomi
2023-07-12, 09:33:29
Mit SMT laut dem Video bringt das Zero.
Nach diesen Messungen wäre 9700k die ideale UE 5 CPU.


Hatte auch noch nicht vor, Coffee Lake zu ersetzen.
So lange 60fps mit DLSS 2 da sind, bin ich zufrieden.
Lieber sehe ich die dann stabil ohne Nachlader.
Nach 18-24 Monaten werde ich gucken, ob ich groß was tausche.
Ne 4090 wäre unter normalen Umständen schon drin.
Nur macht das bei den technischen Schwierigkeiten und dem Preis so recht keinen Spaß mehr.
Hinzu kommt, dass die Software seit etwa 10Jahren für SP Games Genießer auch nicht mehr unbedingt bahnbrechend ist...

Troyan
2023-07-12, 11:11:36
Du solltest dich eher mal fragen, wieso Fortnite im CPU-Limit trotz schlechterer Kernskalierung locker doppelt so schnell läuft wie CP77 mit Psycho-RT. Echt ein völliger BS-Vergleich von DF, die haben echt den Schuss nicht mehr gehört...

Was? Hä? Fortnite läuft bestimmt nicht mit 200FPS+ im CPU Limit.

basix
2023-07-12, 12:56:23
Was? Hä? Fortnite läuft bestimmt nicht mit 200FPS+ im CPU Limit.

Beweise?

aufkrawall
2023-07-13, 00:46:32
Was? Hä? Fortnite läuft bestimmt nicht mit 200FPS+ im CPU Limit.
Bei den 1% low natürlich nicht, das kriegt auch die UE 5.2 noch nicht auf die Reihe.
CP77 dropt aber auch mit einem 13700K in einigen dichteren Gebieten während der Fahrt deutlich unter 90fps bzw. dürften die schlimmsten Worst Cases noch deutlich drunter sein. Und das mit dem Psycho-RT, das nach LastGen + Ekel-LOD vs. Lumen aussieht.
Einbrüche, die nennenswert länger als 1s dauern, dürften in Fortnite eher bei 130-140fps liegen, wenn nicht deutlich drüber. Screenshot von aufkrawall kommt noch irgendwann.

dildo4u
2023-07-14, 14:34:50
The Old West Demo in UE5 mit DLSS3/FSR 2.1.1

https://stunningvanilla.itch.io/the-old-west-northwood-walking-simulator

Changelog

https://docs.google.com/document/d/1MsSFuENbwqRsVsJXPR4tVDLHV8T8AW1hCqxPLvn7oaY/edit?pli=1#heading=h.vnf01mi3wgl6

The_Invisible
2023-07-14, 15:02:18
The Old West Demo in UE5 mit DLSS3/FSR 2.1.1

https://stunningvanilla.itch.io/the-old-west-northwood-walking-simulator

Changelog

https://docs.google.com/document/d/1MsSFuENbwqRsVsJXPR4tVDLHV8T8AW1hCqxPLvn7oaY/edit?pli=1#heading=h.vnf01mi3wgl6

Benchmarks: https://gamegpu.tech/rpg/role-playing/the-old-west-northwood-unreal-engine-5-1-test-gpu-cpu

Braucht AMD noch ein paar "Wundertreiber" :D

edit: lol Video cards for 8 and 10 gigabytes were not tested, because the frame rate on them at all settings is near zero and they are catastrophically short of memory.

Exxtreme
2023-07-14, 15:24:25
Benchmarks: https://gamegpu.tech/rpg/role-playing/the-old-west-northwood-unreal-engine-5-1-test-gpu-cpu

Braucht AMD noch ein paar "Wundertreiber" :D


Da brauchen alle Wundertreiber. Denn in UHD sehen alle richtig schlecht aus.

Radeonfreak
2023-07-14, 15:38:37
The Old West Demo in UE5 mit DLSS3/FSR 2.1.1

https://stunningvanilla.itch.io/the-old-west-northwood-walking-simulator

Changelog

https://docs.google.com/document/d/1MsSFuENbwqRsVsJXPR4tVDLHV8T8AW1hCqxPLvn7oaY/edit?pli=1#heading=h.vnf01mi3wgl6

Sieht genau so aus wie Call of Juarez in Erinnerung habe. :freak:

The_Invisible
2023-07-14, 15:52:07
Da brauchen alle Wundertreiber. Denn in UHD sehen alle richtig schlecht aus.

Ist ohne DLSS3, mal kurz getestet, in UHD/Photorealistic + DLSS-B+FG so 50-60fps herum, VRAM >18GB.

Ansonsten: Will ja nur bissl stänkern ;)

ChaosTM
2023-07-14, 16:30:29
Sieht genau so aus wie Call of Juarez in Erinnerung habe. :freak:


Nicht ganz so schlimm, aber richtig gut ist das definitiv nicht.

dargo
2023-07-14, 17:47:05
Benchmarks: https://gamegpu.tech/rpg/role-playing/the-old-west-northwood-unreal-engine-5-1-test-gpu-cpu

Was zur Hölle ist das denn wieder für ein Schrott? X-D

RTX 4090 @1080p:
Ryzen 3 3100 = 41 avg.fps
Core i9 13900K = 41 avg.fps

RTX 4080 @1080p:
Ryzen 3 3100 = 31 avg.fps
Core i9 13900K = 31 avg.fps

RX 7900XTX @1080p:
Ryzen 3 3100 = 30 avg.fps
Core i9 13900K = 30 avg.fps

:lol: :lol: :lol:

ChaosTM
2023-07-14, 17:57:39
Zeigt die Mächtigkeit des Ryzen 3 3100 ! :D

dargo
2023-07-14, 18:01:53
Ah, ok. :D

aufkrawall
2023-07-14, 18:04:00
Was zur Hölle ist das denn wieder für ein Schrott? X-D

Das denke ich mir bei diesen ganzen Demo-Leveln/Projekten. :biggrin:
Schatten, TSR usw. sehen quasi immer komisch kaputt vs. Fortnite aus. Sehe bei dieser Schrott-Optimierung da echt 0 technischen Reiz.

/Locutus oB
2023-07-14, 18:56:55
Zitat von der Seite "This demo is the result of those experiments and several months of learning."

ich glaube da kann man keine großen Optimierungen erwarten... er fummelt halt im editor rum... (nicht böse gemeint)

The_Invisible
2023-07-14, 20:49:30
Klar als wären alle kürzlich erschienenen AAA-Titel so optimiert :D

Gast
2023-07-15, 17:42:29
Was zur Hölle ist das denn wieder für ein Schrott? X-D


Sieht mir nach perfekter GPU-Auslastung aus.

dildo4u
2023-07-22, 07:06:51
Remnant II Benchmarks rennt gut auf RDNA2/3 es wird kein RT genutzt.

https://gamegpu.com/rpg/role-playing/remnant-ii-test-gpu-cpu

Das Game nutzt Nanite aber kein Lumen.

https://wccftech.com/remnant-ii-is-powered-by-ue5-though-it-doesnt-use-lumen-yet/

Relex
2023-07-22, 11:18:39
Das performt ja echt gut auf AMD.
Mein first guess wäre die verbesserte FP16 performance von TSR auf RDNA GPUs gewesen, aber das soll ja erst für die UE5.3 kommen. Daher fällt das raus.

Bei Layers of Fear war eher Nvidia "minimal" im Vorteil. Da gabs aber auch Lumen bzw. RT und kein Nanite.

Von daher könnte ich mir durchaus vorstellen, dass wir solche Ergebnisse in Zukunft öfter sehen.
Wobei letztendlich wohl doch nicht, da man davon ausgehen kann, dass viele Spiele Lumen nutzen werden.

TSR dürfte auf AMD ja wie angekündigt nochmal was rausholen, aber da stellt sich dann eh die Frage, ob man nicht lieber FSR oder DLSS nutzt.
Vor allem mit Version 3 beider Verfahren (ggf. mit Frame Generation) gibts wahrscheinlich immer weniger Gründe, für TSR, welches mMn. generell etwas zu "teuer" ist.


So oder so finde ich schonmal sehr positiv, dass die VRAM Nutzung ziemlich effizient zu sein scheint. Das ist zumindest etwas, was man sowohl aus den Demos als auch den ersten Spielen als valides Fazit mitnehmen kann.
Mit der UE5 scheinen die 8 GB Karten zumindest bis 1440p vorerst relativ "safe" zu sein. Vor allem, wenn man die Settings um eine Stufe verringert oder Upscaling nutzt. Was sich ja bei den relativ hohen Anforderungen für mittelklasse GPUs sowieso anbietet. Denn die kommen in 1440p mit max Settings ja eh kaum über 60 FPS.

DrFreaK666
2023-07-25, 14:08:30
Mit Remnant 2 erscheint heute ein weiteres UE5 Spiel
lEgKHOePQqI

Das ist aber eher ein AA-Projekt

dildo4u
2023-07-25, 17:56:16
Leider nur Tests mit Nvidia GPU.(2060/3060/4060/3080/4090)

RVS3H9oMnhw

DrFreaK666
2023-07-25, 18:11:04
Bei ihm folgen sicherlich auch noch AMD-GPUs. Da ist er ja nicht allergisch.
Danke für den Link

The_Invisible
2023-07-25, 20:54:43
Für die Performance sieht es aber auch nur mittelmäßig aus, keine Ahnung was die DEVs derzeit so verbrechen, auf Konsole sogar bis auf 720p runter und trotzdem keine stable 60fps ;D

Relex
2023-07-25, 21:31:07
Der Detailgrad ist stellenweise schon enorm hoch, also dass es nicht ganz so performant ist ist da natürlich zu erwarten.

Das "einzige" was hier optisch abfällt ist eben die Beleuchtung aber die macht halt schon viel aus. Dabei muss man aber bedenken, dass das keine Triple-A Produktion ist, die Level zufallsgeneriert sind (also vermutlich kein baked lighting möglich?) und dass kein Lumen genutzt wird.


Stellt sich nur die Frage, warum Lumen und Nanite nicht zusammen ins performancebudget passen bzw. warum das performanceniveau allgemein so niedrig ist.
Epic hat sich ja extra nochmal Mühe gegeben, dass beides auf den Konsolen nutzbar ist und jetzt haben wir nur mit Nanite alleine schon so eine schlechte Performance bei einer dermaßen niedrigen Auflösung.

Irgendwo scheint es da noch zu haken.

aufkrawall
2023-07-26, 08:07:30
Autschi, bei den min fps fällt die 4090 ab 1440p hinter die 7900 XTX zurück :freak: :
https://www.techpowerup.com/review/remnant-2-benchmark-test-performance-analysis/5.html

dildo4u
2023-07-26, 08:15:44
Frage ist wie viele Games nur Nanite und kein Lumen nutzen und so performen laut dem DF Video renn RT Lumen jetzt besser als Software zumindest auf Lovelace.

https://youtu.be/XnhCt9SQ2Y0?t=229


Jedenfalls scheint man sich daran gewöhnen zu müssen das Upsampling ein muss wird für 60fps.

aufkrawall
2023-07-26, 08:18:41
Aus den Demo-Levels/Projekten kann man schlicht gar nichts schließen. Ist echt ein neuer Tiefpunkt für DF (mal wieder).

Ganon
2023-07-26, 08:31:40
https://www.techpowerup.com/review/remnant-2-benchmark-test-performance-analysis/5.html

In a statement responding to users reporting "WTF? Performance?", the developer stated "we designed the game with upscaling in mind (DLSS/FSR/XeSS)."

;D Es kommt wie erwartet. Einfach nur zu gut. ;D

The_Invisible
2023-07-26, 08:40:28
Aus den Demo-Levels/Projekten kann man schlicht gar nichts schließen. Ist echt ein neuer Tiefpunkt für DF (mal wieder).

Stimmt sind ja meist nur Demos von den UnrealEngine Machern selbst, die kennen sich sicher nix aus. Da nimmt man lieber ein AA Game das schon OOTB schlecht läuft. ;D

Exxtreme
2023-07-26, 08:43:16
;D Es kommt wie erwartet. Einfach nur zu gut. ;D

Jepp. Und genau das habe ich befürchtet. Mit Upscalern kann man die Kosten der eigenen Unfähigkeit externalisieren.

https://i.ibb.co/kQWXq0n/Fo-I-Ovm-Xw-AEmd-N3.jpg (https://ibb.co/D5SQwkX)

dildo4u
2023-07-26, 08:45:24
Ich würde mich an die Anforderungen gewöhnen Avenum will auch eine 6800XT/3080 TI für 1440p Medium-High.
Nativ haut rein daher wird man vermutlich am besten mit Upsampling und High Settings fahren.

https://www.ea.com/de-de/games/immortals-of-aveum/immortals-of-aveum/news/ioa-unreal-5

aufkrawall
2023-07-26, 08:59:50
Stimmt sind ja meist nur Demos von den UnrealEngine Machern selbst, die kennen sich sicher nix aus.
Die sind nur für andere Entwickler/Artists, um mit den neuen Features vertraut zu machen. Deshalb sind es auch nur importierbare Projekte und keine fertigen Demos, die in irgendeiner Weise optimierte Performance versprechen würden. Ist wirklich nicht besonders schwer zu kapieren, wenn man nicht absichtlich was anderes reininterpretieren will.
DF bringts natürlich Klicks.

Es zählen nur echte Spiele und fertig.

The_Invisible
2023-07-26, 09:20:29
Dann wäre EpicGames wohl die einzige Softwarefirma die unoptimierte Samples auf Devs/User rauslässt, macht sicher ein gutes Bild. Das kenne ich höchstens von Hobby-Github Projekten, aber gut, es sollen ja mit der Zeit immer mehr Games damit rauskommen damit man sich ein Bild machen kann...

aufkrawall
2023-07-26, 09:28:30
UE-Nutzer wissen das, das uninformierte Consumer-Publikum wie bei DF ist fürs Business komplett irrelevant.
Mal abgesehen davon, dass ruckelnde PC-Spiele niemanden interessieren, der Geschäftsentscheidungen trifft, die für ein Studio schnell mit tödlich enden können, wenn wesentlich wichtigere Dinge wie ansprechendes Gameplay gar nicht funktionieren.

Exxtreme
2023-07-26, 09:28:53
Dann wäre EpicGames wohl die einzige Softwarefirma die unoptimierte Samples auf Devs/User rauslässt, macht sicher ein gutes Bild. Das kenne ich höchstens von Hobby-Github Projekten, aber gut, es sollen ja mit der Zeit immer mehr Games damit rauskommen damit man sich ein Bild machen kann...
Nein, sie sind nicht die einzige Firma, die sowas macht. Sehr viele Tutorials sind per se unoptimiert. Und mehr sind diese Projekte nicht: Tutorials. Die haben nicht einmal F&F Alphastatus.

Gast
2023-07-26, 10:45:51
In a statement responding to users reporting "WTF? Performance?", the developer stated "we designed the game with upscaling in mind (DLSS/FSR/XeSS)."

;D Es kommt wie erwartet. Einfach nur zu gut. ;D

Ist auch sehr sinnvoll, Upscaling bringt mit Abstand die meiste Performance mit geringstem Verlust an Optik.

Insbesondere auf Konsolen ist das auch nichts neues, das einzige was neu ist, ist dass es dermaßen offen kommuniziert wird.

vinacis_vivids
2023-07-26, 11:00:17
Remnant 2 Ultra Settings 4K | RX 7900 XTX + 7950X 3D VS RTX 4090 + i9 13900K
0lrltAjP_Gk

Bei UE5 herrscht Gleichstand zwischen N31XTX und AD102, mit leichten Vorteilen für N31XTX. Die Lumen-Optimierung für Konsolen schlägt hier durch.

aufkrawall
2023-07-26, 11:04:21
Das Spiel nutzt überhaupt kein Lumen.

DrFreaK666
2023-07-26, 11:04:56
Das Spiel unterstützt kein Lumen soweit ich weiß.
edit: zu spät

Exxtreme
2023-07-26, 11:09:15
Remnant 2 Ultra Settings 4K | RX 7900 XTX + 7950X 3D VS RTX 4090 + i9 13900K
https://youtu.be/0lrltAjP_Gk

Bei UE5 herrscht Gleichstand zwischen N31XTX und AD102, mit leichten Vorteilen für N31XTX. Die Lumen-Optimierung für Konsolen schlägt hier durch.

Die CPUs sind bei diesem "Vergleich" komplett unterschiedlich. Also ist die Aussage, dass N31XTX leichte Vorteile hätte erstmal anhand dieses Videos nicht haltbar.

Ganon
2023-07-26, 11:41:32
Ist auch sehr sinnvoll, Upscaling bringt mit Abstand die meiste Performance mit geringstem Verlust an Optik.

Das ist alles andere als sinnvoll. Spiele einfach nicht mehr optimieren und die Spielbarkeit auf High-End Systemen erst mittels Upscaling / Frame Generation zu erreichen ist genau das Gegenteil von dem, was die Technologien ursprünglich versprochen haben.

Man baut sich doch keine 2000€ GPU in den Rechner, um 60fps nur mittels Upscaling zu erreichen. Wer sowas feiert, braucht sich auch nicht wundern, wenn die Qualität der Spiele immer weiter in den Boden sinkt.

Man hat Upscaling/FrameGeneration einfach nicht "im Design mit zu berücksichtigen". Das sollte immer ein Bonus sein.

Lurtz
2023-07-26, 12:03:29
Konsolen nutzen Upscaling seit Jahrzehnten, jetzt gibts immerhin Technologien, die ordentliche Bildqualität ermöglichen. Naiv zu glauben, dass die frei werdende Performance nicht gleich mit eingeplant wird. Native Auflösung ist tot.

Relex
2023-07-26, 12:08:44
In dem Video von Daniel Owen ist auffällig, dass das Spiel extrem gut auf DLSS reagiert und selbst im Quality Modus schon einen riesen Sprung macht.

Von 70 FPS ohne Upscaling auf 125 FPS mit DLSS Quality. Das macht rund 80% mehr Performance in 1440p.

Kann es sein, dass das Spiel TSR @ 100% nutzt, wenn man das Upscaling deaktiviert?
TSR ist ziemlich teuer und das würde sowohl die schlechte Performance ohne Upscaling als auch den hohen Performancegewinn durch DLSS erklären.

Sieht man auch hier im Layers of fear Test von PCGH sehr schön.
https://www.pcgameshardware.de/Layers-of-Fear-Spiel-55923/Specials/2023-Unreal-Engine-5-Release-Benchmarks-Steam-1421920/2/

Da ist der Performancegewinn von TAA zu DLSS Q mit 60% mehr FPS zwar auch schon sehr hoch, man sieht aber auch, dass DLSS Quality um 32% schneller als TSR Quality ist, was eben zeigt wie teuer TSR ist.

Stellt sich nur die Frage, ob die interne Renderauflösung von TSR Quality die gleiche wie bei DLSS Quality ist?
Weiß das jemand?

Ich denke am einfachsten könnte man es verifizieren, wenn man DLAA mit "nativ" vergleicht. DLAA ist zwar idr. ein wenig teurer als TAA, aber wenn es dann trotzdem schneller als "nativ" ist, wüsste man, dass TSR @ 100% aktiv ist, was ziemlich fragwürdig wäre.

Letztendlich wärs natürlich auch möglich, dass einfach Nanite so gut auf upscaling reagiert. Da Nanite ja angeblich die Detaildichte der geometrie immer auf Pixellevel anpasst wäre es logisch, dass die Renderauflösung sich auch darauf besonders auswirkt. Der Effekt wäre dann ähnlich wie bei Raytracing wo man durch das verringern der Auflösung einen deutlich höheren performancegewinn erzielt, als beim reinen rasterizing.


Das heißt, wir haben bei der UE5 mit Lumen und Nanite gleich zwei Techniken, die mit steigender Auflösung überproportional mehr Rechenleistung kosten.
Lässt sich denn die Qualität von Lumen und Nanite nicht unabhängig von der Renderauflösung steuern? Das sollte doch möglich sein?

Ganon
2023-07-26, 12:12:21
Konsolen nutzen Upscaling seit Jahrzehnten, jetzt gibts immerhin Technologien, die ordentliche Bildqualität ermöglichen. Naiv zu glauben, dass die frei werdende Performance nicht gleich mit eingeplant wird. Native Auflösung ist tot.

Das hat nichts mit Naivität zu tun. Ich bin von Anfang an davon ausgegangen, dass DLSS, FSR und Co. dafür sorgen, dass die Optimierungen der Spiele weiter zurückgefahren wird.

Daher bleibe ich dabei: Wer sowas feiert, braucht sich auch nicht wundern, wenn die Qualität der Spiele immer weiter in den Boden sinkt.

Gast
2023-07-26, 12:35:50
Das ist alles andere als sinnvoll. Spiele einfach nicht mehr optimieren und die Spielbarkeit auf High-End Systemen erst mittels Upscaling / Frame Generation zu erreichen ist genau das Gegenteil von dem, was die Technologien ursprünglich versprochen haben.


Das wird seit Ewigkeiten gemacht. Checkerboarding ist auch eine Form von Upscaling und wird seit locker 10 Jahren eingesetzt.
Das proprietäre Verfahren der Engine von Remedy ist auch im Endeffekt Upscaling was es schon ewig gibt und ins Framebudget mit "eingepreist" wird.

Und "optimieren" existiert quasi nicht, wenn man optimieren als das selbe Ergebnis mit weniger Aufwand definiert, dafür müsstest du für ein bestehendes Problem erstmal einen neuen Algorithmus entwickeln, der das selbe Ergebnis mit weniger Befehlen erreicht, und solche Algorithmen wachsen nicht auf Bäumen, da gibt es vielleicht alle paar Jahre was wirklich neues.
>90% des Optimierens besteht daraus Dinge wegzulassen, so dass es möglichst wenig auffällt, und Upsampling ist eines der besten Möglichkeiten Berechnungen mit geringstmöglichem Qualitätsimpact einzusparen.

Und das Video von Remenant beweist das eindrucksvoll, DLSS Q bringt hier alleine so viel Performance wie von Ultra auf Low, mit wesentlich geringeren optischen Einbußen.

RLZ
2023-07-26, 13:00:34
Nachdem Upscaling nun überall verfügbar ist, macht es immer weniger Sinn als Entwickler es nicht einzuplanen. Wir reden hier ja über Faktor 2-4 mehr verfügbare Rechenleistung pro Pixel, die man nutzen kann. Das sind mehrere GPU Generationen...

Ganon
2023-07-26, 14:00:16
Das würde ich ja prinzipiell einsehen, wenn das Resultat auch 2-4 mal bessere Ergebnisse erzeugt. Aber wo seht ihr das bitte in diesem Fall hier?

Gast
2023-07-26, 14:14:24
Das würde ich ja prinzipiell einsehen, wenn das Resultat auch 2-4 mal bessere Ergebnisse erzeugt. Aber wo seht ihr das bitte in diesem Fall hier?

Diminishing returns, wir sind schon lange weit weg von dem Punkt an dem wir mit doppelten Performanceanforderungen eine Verdopplung der Grafikqualität erreichen. Doppelte Performanceanforderungen mit 10% Grafikverbesserung ist eher realistisch.

basix
2023-07-26, 14:31:47
In dem Video von Daniel Owen ist auffällig, dass das Spiel extrem gut auf DLSS reagiert und selbst im Quality Modus schon einen riesen Sprung macht.

Von 70 FPS ohne Upscaling auf 125 FPS mit DLSS Quality. Das macht rund 80% mehr Performance in 1440p.

Kann es sein, dass das Spiel TSR @ 100% nutzt, wenn man das Upscaling deaktiviert?
TSR ist ziemlich teuer und das würde sowohl die schlechte Performance ohne Upscaling als auch den hohen Performancegewinn durch DLSS erklären
TSR ab Epic ist teuer (4x Outputbuffer Resolution). TSR High ist kostengünstiger als FSR2.


Stellt sich nur die Frage, ob die interne Renderauflösung von TSR Quality die gleiche wie bei DLSS Quality ist?
Weiß das jemand?

TSR Quality nutzt ebenfalls 1.5x als Faktor, ist also gleich wie bei DLSS und FSR2.



Letztendlich wärs natürlich auch möglich, dass einfach Nanite so gut auf upscaling reagiert. Da Nanite ja angeblich die Detaildichte der geometrie immer auf Pixellevel anpasst wäre es logisch, dass die Renderauflösung sich auch darauf besonders auswirkt. Der Effekt wäre dann ähnlich wie bei Raytracing wo man durch das verringern der Auflösung einen deutlich höheren performancegewinn erzielt, als beim reinen rasterizing.

Nanite skaliert sehr gut mit der Auflösung. Sehr nahe an "perfekt proportional". Und das ist auch gut so.


Das heißt, wir haben bei der UE5 mit Lumen und Nanite gleich zwei Techniken, die mit steigender Auflösung überproportional mehr Rechenleistung kosten.
Lässt sich denn die Qualität von Lumen und Nanite nicht unabhängig von der Renderauflösung steuern? Das sollte doch möglich sein?
Überproportional ist gar nicht möglich ;) Es skaliert stark mit der Auflösung aber maximal proportional.

Prinzipell müssten Nanite und Lumen hinsichtlich Performance mit der Renderauflösung skalieren, die Qualität aber mit der Outputauflösung wenn man TSR, FSR2 und Co. nutzt. Bei RT-Reflexionen wissen wir aber, dass in den meisten Fällen an die Renderauflösung gebunden ist. Schlussendlich ist es so, dass das Sampling-Jittering aufgrund TSR usw. mit Nanite und Lumen harmonieren müssen. Die Nanite Geometrie wird ja gecached, was in der Outputauflösung passieren müsste. Ob das wirklich so ist? Weiss ich nicht. Ist eine starke Verschränkung dieser Systeme mit TSR Sample-Jittering.

Gast
2023-07-26, 14:37:20
Überproportional ist gar nicht möglich ;) Es skaliert stark mit der Auflösung aber maximal proportional.




Selbstverständlich ist das möglich, es gibt genügend Algorithmen die stärker als O(n) skalieren. (Was jetzt nicht heißt, dass es mit Lumen/Nanite der Fall ist)

Lurtz
2023-07-26, 15:38:32
Das hat nichts mit Naivität zu tun. Ich bin von Anfang an davon ausgegangen, dass DLSS, FSR und Co. dafür sorgen, dass die Optimierungen der Spiele weiter zurückgefahren wird.

Daher bleibe ich dabei: Wer sowas feiert, braucht sich auch nicht wundern, wenn die Qualität der Spiele immer weiter in den Boden sinkt.
Es gibt Spiele mit Upsampling, die super skalieren, und Spiele mit Upsampling, die mies skalieren. Du suchst die Schuld da einfach an der falschen Stelle.

Hat auch nichts mit "sowas feiern" zu tun, denn grundsätzlich sind das sehr gute Technologien, die einen deutlichen Fortschritt gegenüber dem bisherigen Status Quo bedeuten. Aber eben auch kein Allheilmittel sind.

Relex
2023-07-26, 15:42:18
Das Überpropotional war bezogen auf das was man von reinem Rasterizing bzw. ohne Nanite/Lumen gewohnt ist.

Wenn ich mit einer GPU ohne Nanite in 1080p 60 FPS erreiche und in 4K 30 FPS, jedoch Nanite die Performance in 1080p um meinetwegen 10% verringert, in 4K jedoch um sagen wir 30%, dann ist das doch zumindest im Verhältnis zur Referenz überproportional?
Nanite kann ja dann trotzdem proportional zur Auflösung fordernder werden. Das steht ja nicht im widerspruch. Der Punkt ist eben, dass reines Rasterizing in den meisten Spielen eben nicht proportional skaliert. Von 1080p auf 4K werden die FPS eben oft nur halbiert und nicht geviertelt.

Aber gut, das war auch nur so dahergesagt, hab mir darüber jetzt keine weiteren gedanken gemacht. Falls das nicht korrekt ist, gerne korrigieren ;)


@basix danke für die infos

Ganon
2023-07-26, 15:49:08
Diminishing returns, wir sind schon lange weit weg von dem Punkt an dem wir mit doppelten Performanceanforderungen eine Verdopplung der Grafikqualität erreichen. Doppelte Performanceanforderungen mit 10% Grafikverbesserung ist eher realistisch.

Ja, und das ist genau das was du (?) oben auch unter "Optimierung" beschrieben hast, dessen Fehlen ich kritisiere. Entsprechende Features machen die Entwicklung einfacher, weil sie z.B. nicht mehr per Hand gemacht werden müssen, oder kein entsprechendes Baking mehr nötig ist und all so ein Kram.

Aber das Resultat? "Haken rein", kaum Aufwand, DLSS/FSR müssen es fixen, deine 2000€ GPU kotzt im Strahl und es sieht weiterhin mittelmäßig aus.

Ich sehe hier halt an dem Punkt kein sinnvolles Nutzen von vorhandener Leistung (sei es nun mit oder ohne Upscaling), so wie "ihr" es hier darstellt, sondern einfach nur sinnloses Verballern davon. Ansonsten wäre der Titel eine neue Grafikreferenz und nicht nur "meh".

Es gibt Spiele mit Upsampling, die super skalieren, und Spiele mit Upsampling, die mies skalieren. Du suchst die Schuld da einfach an der falschen Stelle.

Davon rede ich gar nicht. Ich kritisiere auch gar nicht die Technologie an sich. Ich kritisiere den Einsatz dieser als Hilfsmittel um Optimierungen anderswo zu verschleppen.

edit:
Ich will das Thema auch gar nicht ewig breit treten hier. Wie gesagt, wenn ihr das das nicht kritisch seht, ist das halt euer Ding. Ich sehe es jedenfalls als sehr kritisch an.

RoNsOn Xs
2023-07-26, 15:53:54
Ganon (y)
Spiegelt auch eher meine Gedankengänge wieder. Upscaler sollten "on Top" sein, die Kirsche augf der Torte. Ansonsten läuft bald kein Spiel mehr ohne Upscaler vernünftig, was man aber so ziemlich erwarten sollte. "Optimierung? Why? Use upscaling".

Gast
2023-07-26, 17:21:06
Ganon (y)
Spiegelt auch eher meine Gedankengänge wieder. Upscaler sollten "on Top" sein, die Kirsche augf der Torte. Ansonsten läuft bald kein Spiel mehr ohne Upscaler vernünftig, was man aber so ziemlich erwarten sollte. "Optimierung? Why? Use upscaling".
Darf man gespannt sein, wenn die intern wieder mit 640*480 und 320*240 rechnen lassen, dann dem fleißig hochskalierten Brei noch mit Zwischenbildberechnung zu 60 fps und zusätzlich noch mehr Matsch verhelfen und es als state-of-the-art verkaufen. War das Ziel des PC-Gaming doch mal, knackscharfe Bilder zu liefern.
Ein Vorteil hat es aber, die Bewegungsunschärfe von LCDs spielt dann keine Rolle mehr.

Fragman
2023-07-26, 18:18:46
Man muss nur die grafisch anspruchsvollen Features ausmachen, weswegen die Upscaler im Game sind und schon kann man drauf verzichten.

Optimieren geht halt nicht, weil die Hardware das nicht her gibt.
Man kann jetzt argumentieren, das man dann grafische Features weglassen soll.
Aber mit Upscaler sind die möglich, also warum drauf verzichten?
In grafisch weniger anspruchsvollen Titeln sorgen die dann für mehr FPS.

/Locutus oB
2023-07-26, 19:17:23
eigentlich hängt alles von epic ab. macht sich scheinbar kein Entwickler mehr die Mühe groß am Code zu fummeln. is vielleicht auch sinnvoll wenn der eigene Code dann nicht mehr mit engine updates von Epic kompatibel ist...

john carmack sollte eine neue Opensource engine starten... :)

Gast
2023-07-27, 07:34:21
john carmack sollte eine neue Opensource engine starten... :)

Der Grund warum id-Tech Engines (meistens) so gut performen, ist eben dass sie keine "Mädchen für alles" Engine ist sondern spezifisch für deren Bedürfnisse gebaut wurde.

Epics Grundidee ist ja, dass jeder die Engine nehmen kann und direkt egal was für ein Spiel er machen will verwenden kann, wodurch man sich natürlich auch einigen Overhead einhandelt.

RLZ
2023-07-27, 11:18:56
Dann wäre EpicGames wohl die einzige Softwarefirma die unoptimierte Samples auf Devs/User rauslässt, macht sicher ein gutes Bild. Das kenne ich höchstens von Hobby-Github Projekten, aber gut, es sollen ja mit der Zeit immer mehr Games damit rauskommen damit man sich ein Bild machen kann...
Das Optimierungsziel ist da gute Verständlichkeit für neue Features. Das beißt sich grundsätzlich mit Performanceoptimierung. Eigentlich sollte man davon ausgehen, dass Entwickler dazu selbst in der Lage sind.

rentex
2023-07-27, 11:37:23
Der Grund warum id-Tech Engines (meistens) so gut performen, ist eben dass sie keine "Mädchen für alles" Engine ist sondern spezifisch für deren Bedürfnisse gebaut wurde.

Epics Grundidee ist ja, dass jeder die Engine nehmen kann und direkt egal was für ein Spiel er machen will verwenden kann, wodurch man sich natürlich auch einigen Overhead einhandelt.

Wer alles kann, macht eben alles nicht so gut.

Troyan
2023-07-27, 12:08:28
Es macht wenig Sinn kein Upscaling ala DLSS zu verwenden, wenn die Verlust in Bildqualität minimal ist. Das selbe gilt auch für FrameGeneration.

Das Problem kommt bei Renmant 2 doch davon, dass das Spiel dank der UE5 einfach miserabel läuft und gleichzeitig null moderne Techniken unterstützt.

Schaut man sich an, dass dieses Rasterizing-Spiel gerade mal ein bisschen mehr als doppelt so schnell wie Cyberpunk mit Pathtracing in 4K läuft und in 1080p null skaliert (also kaum schneller als Cyberpunk mit Pathtracing), liegt das Problem auf der massiven Ineffizienz von Konsolenengines.

Rasterizing ist sozusagen am Ende. Und laut DSOG ist die 4090 gerademal 33% schneller als eine 6900XT, was schon auf absoluten Murks hinweist: https://www.dsogaming.com/pc-performance-analyses/remnant-2-pc-performance-analysis/

aufkrawall
2023-07-27, 12:25:01
Check mal lieber, ob Nanite ohne Lumen in Fortnite auf deiner 4090 den Stromverbrauch deutlich senkt. Afair war das auf der 3060 so, mit der 6700 XT ist das gar nicht der Fall. Nvidia-Hardware spielt nun mal nur die zweite Geige, wenn man für die gesamte Industrie entwickelt.

Gast
2023-07-27, 15:25:29
Check mal lieber, ob Nanite ohne Lumen in Fortnite auf deiner 4090 den Stromverbrauch deutlich senkt. Afair war das auf der 3060 so, mit der 6700 XT ist das gar nicht der Fall. Nvidia-Hardware spielt nun mal nur die zweite Geige, wenn man für die gesamte Industrie entwickelt.
80% beim PC und über 50% bei den Konsolen dank der Switch ist also die zweite Geige, ja genau

Gast
2023-07-27, 16:43:54
Der Grund warum id-Tech Engines (meistens) so gut performen, ist eben dass sie keine "Mädchen für alles" Engine ist sondern spezifisch für deren Bedürfnisse gebaut wurde.

Epics Grundidee ist ja, dass jeder die Engine nehmen kann und direkt egal was für ein Spiel er machen will verwenden kann, wodurch man sich natürlich auch einigen Overhead einhandelt.
Na, mit viel Geometrie/Polygone/Streaming kam die Unreal Engine noch nie gut klar. Das hat man schon in UT99 damals extrem bemerkt, gerade bei den größeren Maps.
Selbst heute noch bringen einige Custom Maps wie Morpheus Town mit Bots (Original Morpheus x 2, also eigentlich nix besonderes) aktuelle CPUs an einigen Stellen leicht ins Schwitzen. Da ist nix mit 200 fps konstant.
Quake 3 ist da signifikant besser, vor allem hat es mit Speichergeschwindigkeit/FSB sehr gut bis heute skaliert und extrem große Maps und konstant gute fps sind möglich, wie beispielsweise Chartres von QkennyQ. UT malträtiert nur die Ghz der CPU mit miesem Wirkungsgrad.
Das zieht sich durch bis heute, Grundgerüst der Engine ganz unten ist wahrscheinlich immer noch das von damals.

Gast
2023-07-27, 22:30:50
Na, mit viel Geometrie/Polygone/Streaming kam die Unreal Engine noch nie gut klar. Das hat man schon in UT99 damals extrem bemerkt, gerade bei den größeren Maps.


Also von über 20 Jahre alten Engines auf die heutigen zu schließen ist schon sehr gewagt.
Dass idtech3 für damalige Verhältnisse sehr gut mit hohen Polygonzahlen klar kam stimmt schon. Bei idtech4 und idtech5 sieht es aber ganz andes aus, die brauchten ziemlich geringe Polygonzahlen um gut zu laufen.

Mr. Lolman
2023-07-28, 08:43:52
UT malträtiert nur die Ghz der CPU mit miesem Wirkungsgrad.

Nö. Ich hab damals viele Levedesignexperimente mit UT99 und UT2003 durchgeführt und tatsächlich ist die Q3a-Engine deutlich polygonlimitierter als UT99. Das wurde auch zT ausgiebig in den 3DCenter Foren diskutiert. Kai fiel mit seinen Q3a Maps viel schneller in ein Limit, als ich. Der große Vorteil von Q3a war das Gouraud Shading und die Subdivisions der Meshes , Ersteres ging mit UT99 nur mit Trixereien, zweiteres gar nicht. Außerhalb des Leveleditors war die Performance aber ok (Der Editor hat mich damals wahnsinnig gemacht, weil nicht Multicore optimiert). Mit ner 9700pro hab ich dennoch geschafft >30 Mio Poly/s am Schirm zu bringen: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=829102#post829102

EDIT: Hier noch was, anderes, was ich vor 20 Jahren in UT2K3 zusammengebastelt hab:
http://www.fug-clan.de/lolman/
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=44386

EDIT2: Hier hat sich Kai über Q3a geärgert ;) https://www.forum-3dcenter.org/vbulletin/showthread.php?p=401662#post401662

aufkrawall
2023-07-28, 08:57:57
80% beim PC und über 50% bei den Konsolen dank der Switch ist also die zweite Geige, ja genau
Die Switch-Versionen kommen gerne mal Monate später, weil man so viel zusätzlich zu den Engine-Parametern rausnehmen und runterschrauben muss. Sollen Nvidia-Karten vielleicht auch diese Versionen erhalten? :freak:

Ganon
2023-07-28, 09:56:06
Die Switch-Versionen kommen gerne mal Monate später, weil man so viel zusätzlich zu den Engine-Parametern rausnehmen und runterschrauben muss. Sollen Nvidia-Karten vielleicht auch diese Versionen erhalten? :freak:

Nicht nur Engine-Parameter. Hogwarts Legacy hat z.B. auf der PS4 ein anderes Level Design (siehe https://www.reddit.com/r/HarryPotterGame/comments/13d5e4o/more_platform_hogwarts_differences_between_ps4/ )

Je nach Spiel (Plattformern z.B.) tauscht man auch 3D Effekte durch vorgerenderte Sprites aus, da Nutzer dort eh nicht an der Auflösung drehen. Der optische Unterschied geht dort gegen 0.

basix
2023-07-28, 13:46:14
Na, mit viel Geometrie/Polygone/Streaming kam die Unreal Engine noch nie gut klar. Das hat man schon in UT99 damals extrem bemerkt, gerade bei den größeren Maps.
[...]
Das zieht sich durch bis heute, Grundgerüst der Engine ganz unten ist wahrscheinlich immer noch das von damals.

Also von über 20 Jahre alten Engines auf die heutigen zu schließen ist schon sehr gewagt.

Die UE5 ist exzeptionell gut bei Geometrie und auch Streaming: Nanite. Und Nanite läuft zu 95% auf der GPU und entlastet die CPU enorm (sehr wenige Draw Calls). Wenn da noch DirectStorage inkl. GPU-Decompression oben drauf kommt, hat die CPU fast nichts mehr zu tun hinsichtlich Geometrie & Texturstreaming.

https://www.reddit.com/r/pcgaming/comments/vwreiu/epic_engineer_confirms_that_directstorage_will_be/
Dieser "Epic" Engineer der DirectStorage für Nanite und Virtual Texturing angekündigt hat ist kein geringerer als Brian Karis, der "Vater" von Nanite.

DSD512
2023-07-28, 23:17:14
So wie das aussieht, werden wie bei der UE4-Engine, nur ganz wenige Studios wissen, wie man aus der UE5 Engine das Beste rausholt (G4\5).

Die restlichen Entwickler-Pfeiffen bringen dann so ein Technik-Dreck ala Remnant 2.
Solche Studios sollen gleich mal Pleite gehen und in der Versenkung verschwinden.

DrFreaK666
2023-07-29, 01:23:47
Bullshit. Man spielt Spiele vorrangig wegen dem Gameplay und nicht wegen der Technik.
Darksiders 1+2 waren auch keine technischen Meisterwerke (die Remaster erst recht nicht (waren aber auch von einem anderen Studio)), die Spiele selbst find ich aber großartig

ChaosTM
2023-07-29, 01:43:00
Bin ich noch auf 3DCenter ?
Wir zerlegen selbst die besten Spiele bis runter auf die Kochen, und wenn das Ergebnis dann noch halbwegs brauchbar spielen wir es immer noch nicht, weil es entweder von NV oder AMD gesponsert ist .. :D

qu3x^
2023-07-29, 05:11:29
Bin ich noch auf 3DCenter ?
Wir zerlegen selbst die besten Spiele bis runter auf die Kochen, und wenn das Ergebnis dann noch halbwegs brauchbar spielen wir es immer noch nicht, weil es entweder von NV oder AMD gesponsert ist .. :D
Das ist tatsächlich ein neues trauriges Tief das wir hier erreichen. Selbiges im R&C Rift Apart Thread. Das Game ist in so vielen Aspekten einfach nur der reinste Codeflex zum Quadrat und da wird gejammert wenn 3 Texturen im falschen Mip geladen werden. :freak:

aufkrawall
2023-07-29, 06:45:53
R&C hat eine komplette Grafik-Dichotomie: Die urbanen Gegenden sehen top aus, aber etwa diese Mondlandschaft oder irgendwas mit Vegetation ist dann das pure Elend.
Und dürfte, sobald RT auf Radeons geht, vermutlich 5-6GB mehr VRAM als Fortnite@max brauchen, trotz DirectStorage und Streaming-Einbrüchen.
Da haben die CPU Streaming-Verbesserungen in UE5.2 aber wesentlich mehr gebracht. :freak:

Hat bei Spectator-Spielerwechseln auch besseres MT als R&C ohne DS:
https://abload.de/thumb/fortniteclient-win64-l5dq1.png (https://abload.de/image.php?img=fortniteclient-win64-l5dq1.png)
Hab schon 85% auf 8C 16T gesehen. Nach etwas Caching gehts aber meist nicht mehr groß >50%.

Troyan
2023-08-01, 12:25:47
Indie-Spiel DESORDRE wurde vollständig auf 5.2 geupdatet - inkl. nVidias RTXDI, SER und FrameGeneration: https://store.steampowered.com/app/2097490/DESORDRE__A_Puzzle_Game_Adventure/

Habe mir das Spiel mal gekauft, alleine auch um solche Sachen aktiv zu unterstützen. Mit RTXDI sieht das Bombe aus.

Läuft auch ziemlich gut, wenn man überlegt, dass GI und DI nun per Tracing erfolgt. Mein Notebook mit 4090 schafft in 3440x1440 mit allen an (DLAA) und ohne FrameGeneration ca. 30FPS.

DrFreaK666
2023-08-01, 12:43:23
Gibt es irgendwo Vergleiche zwischen RTXDI und anderen RT Shadows Verfahren?
Und RTX Dingsbums klingt nach NV-Tech und nicht Epic-Tech

Troyan
2023-08-01, 12:51:09
RTXDI ist kein "RT Shadows Verfahren". Es simuliert direkte Beleuchtung aus hunderten bis tausenden individuellen Lichtquellen.

DrFreaK666
2023-08-01, 13:08:06
RTXDI ist kein "RT Shadows Verfahren". Es simuliert direkte Beleuchtung aus hunderten bis tausenden individuellen Lichtquellen.

Ja gut, aber wo Licht ist, ist auch Schatten ;)

Geometry of any shape can emit light, cast appropriate shadows, and move freely and dynamically.
https://developer.nvidia.com/rtx/ray-tracing/rtxdi

The_Invisible
2023-08-02, 14:50:12
Indie-Spiel DESORDRE wurde vollständig auf 5.2 geupdatet - inkl. nVidias RTXDI, SER und FrameGeneration: https://store.steampowered.com/app/2097490/DESORDRE__A_Puzzle_Game_Adventure/

Habe mir das Spiel mal gekauft, alleine auch um solche Sachen aktiv zu unterstützen. Mit RTXDI sieht das Bombe aus.

Läuft auch ziemlich gut, wenn man überlegt, dass GI und DI nun per Tracing erfolgt. Mein Notebook mit 4090 schafft in 3440x1440 mit allen an (DLAA) und ohne FrameGeneration ca. 30FPS.

Sieht schon ziemlich geil aus, läuft in UHD+max+FG auch so mit 70-80fps, mehr als genug für das Game. Hat auch gerade auf 5.2.1 aktualisiert, ist wirklich bleeding edge :D

dildo4u
2023-08-11, 21:52:57
Titan Quest 2 nutzt UE5


https://wccftech.com/titan-quest-ii-announced-for-pc-and-consoles-as-an-open-world-game-powered-by-ue5/

Sardaukar.nsn
2023-08-11, 22:20:59
Titan Quest 2 nutzt UE5


https://wccftech.com/titan-quest-ii-announced-for-pc-and-consoles-as-an-open-world-game-powered-by-ue5/

Wat? Titan Quest 2? Hatte den Nachfolger überhaupt nicht auf dem Schirm aber den Vorgänger und Addons geliebt. :eek:

https://www.pcgames.de/screenshots/original/2023/08/TitanQuest2-PCGAMES-06-pc-games.jpg

https://www.pcgames.de/screenshots/original/2023/08/TitanQuest2-PCGAMES-01-pc-games.jpg

Lurtz
2023-08-11, 22:51:23
Wieder eine Inhouse-Engine weniger.

Fragman
2023-08-12, 00:48:45
Schon gefreut, dann lese ich Open World... .
Nach D4 gerade hab ich gar keine Lust auf sowas wieder.

Raff
2023-08-12, 01:12:25
Wieder eine Inhouse-Engine weniger.

Arrrrgh! :(

MfG
Raff

ChaosTM
2023-08-12, 01:23:36
Schade.. UE ist das neue Microsoft.
So gut oder einfach UE5 zu sein scheint, so sehr schränkt das zukünftige Entwicklungen ein.

Ubisoft und Rockstar - keep on doing your own thing

SamLombardo
2023-08-12, 07:33:30
Schade.. UE ist das neue Microsoft.
So gut oder einfach UE5 zu sein scheint, so sehr schränkt das zukünftige Entwicklungen ein.

Ubisoft und Rockstar - keep on doing your own thing
Genau meine Rede, als CDPR damals angekündigt hatte, die RED Engine aufzugeben. Meiner Kritik wurde damals hier mehrheitlich nicht zugestimmt. Ich sehe es aber immer noch so.

DrFreaK666
2023-08-12, 09:08:49
Ist natürlich etwas schade, aber laut den ersten Screenshots wurde der Art Style von Titan Quest perfekt getroffen

00-Schneider
2023-08-12, 09:26:33
Wat? Titan Quest 2? Hatte den Nachfolger überhaupt nicht auf dem Schirm aber den Vorgänger und Addons geliebt. :eek:

https://www.pcgames.de/screenshots/original/2023/08/TitanQuest2-PCGAMES-06-pc-games.jpg

https://www.pcgames.de/screenshots/original/2023/08/TitanQuest2-PCGAMES-01-pc-games.jpg


Haben die da einen Vaseline-Filter drübergelegt?

AnnoDADDY
2023-08-12, 09:36:27
Haben die da einen Vaseline-Filter drübergelegt?

Ist doch gut so. Schärfer ist unrealistisch...

dildo4u
2023-08-17, 09:55:12
Neues Third Party UE 5.2 Game Fort Solis kommt am 22.8.


https://store.steampowered.com/app/1931730/Fort_Solis/


nmiJPojIzuo

EOVI
2023-08-17, 11:04:43
Was mir nach 2 min schon auffällt:

- Texturen sind schlecht
- Animationen sind abgehackt
- Kamera ist zu nahe an der Spielfigur

DrFreaK666
2023-08-17, 18:34:31
"Immortals of Aveum to Support DLSS 3, FSR 2.2; 60+FPS Recommended PC Specs Shared by Devs"
https://wccftech.com/immortals-of-aveum-to-support-dlss-3-fsr-2-2-60fps-recommended-specs-shared-by-devs/

Es gibt auch ein paar UE Vergleichs-Clips

Raff
2023-08-22, 10:59:43
Desordre: Glänzend knobeln mit Unreal Engine 5.2, Raytracing und einer Vielzahl Grafik-Features (https://www.pcgameshardware.de/Unreal-Engine-Software-239301/Specials/Desordre-Tech-Lumen-RTXGI-RTXDI-Raytracing-DLSS-Frame-Generation-1426790/)

Geiler Showcase - mehr spannende Grafikoptionen habe ich in keinem anderen aktuellen Spiel gesehen. =) Besonders spannend ist, dass man die Lumen-Qualität in mehreren Stufen regeln und mit RTXDI vergleichen kann.

MfG
Raff

Gast
2023-08-22, 11:54:46
Geiler Showcase - mehr spannende Grafikoptionen habe ich in keinem anderen aktuellen Spiel gesehen. =) Besonders spannend ist, dass man die Lumen-Qualität in mehreren Stufen regeln und mit RTXDI vergleichen kann.




Damit ist nun endlich das Märchen von der NV-Optimierung von RTXDI widerlegt.

Exxtreme
2023-08-22, 12:20:17
Deshalb bringt AMD wohl den Schalter "RT Optimization". ;D Damit sie nicht ganz so verloren aussehen. Faktor 2 was Performance angeht ist schon krank. Und mal sehen wie das aussieht wenn die Treiber auch mal richtig angepasst sind auf solche extremen Beispiele.

The_Invisible
2023-08-22, 12:30:25
Selbst die 3090Ti ist ein gutes Stück vor der XTX, ob das Schule macht? Wenn dann nächste Gen auch kein Highend von AMD kommt siehts nicht so gut aus... und DLSS3.5 kam auch wie aus dem nichts...

Raff
2023-08-22, 13:54:05
Ich würde annehmen, dass das künftig der "normale" Abstand wird, denn der Entwickler gibt bei Steam an, dass Shader Execution Reordering (SER) unterstützt wird. Das steckt in der UE5 und sorgt für Adas beeindruckenden Abstand nicht nur zu RDNA 3, sondern auch gegenüber Ampere.

MfG
Raff

Achill
2023-08-22, 14:53:08
Desordre: Glänzend knobeln mit Unreal Engine 5.2, Raytracing und einer Vielzahl Grafik-Features (https://www.pcgameshardware.de/Unreal-Engine-Software-239301/Specials/Desordre-Tech-Lumen-RTXGI-RTXDI-Raytracing-DLSS-Frame-Generation-1426790/)

Geiler Showcase - mehr spannende Grafikoptionen habe ich in keinem anderen aktuellen Spiel gesehen. =) Besonders spannend ist, dass man die Lumen-Qualität in mehreren Stufen regeln und mit RTXDI vergleichen kann.

MfG
Raff

Interessanter Test, was ich aber nicht verstehe ist: Warum bei "Lumen vs. RTXDI" bei den NV GPUs nicht TAA genommen wurde. Im "Upscaling Comparison" sieht man, dass zwischen TAA und DLAA bei 3090TI es ~6% und bei der 4090 ~7% mehr FTPs mit DLAA gibt.

Wenn "Lumen vs. RTXDI" rein Lumen und RTXDI zwischen den AMD und NV GPUs vergleichen soll, dann imho die restlichen Settings die Gleichen sein. Es würde nichts an der Aussage ändern, dass die AMD GPUs bei beiden Verfahren langsamer sind ...

aufkrawall
2023-08-22, 14:58:42
Es scheint offenbar je nach Spiel/Szene große Unterschiede bei der Lumen-Performance Radeon vs. GeForce zu geben. :confused:

Achill
2023-08-22, 14:59:26
Ich würde annehmen, dass das künftig der "normale" Abstand wird, denn der Entwickler gibt bei Steam an, dass Shader Execution Reordering (SER) unterstützt wird. Das steckt in der UE5 und sorgt für Adas beeindruckenden Abstand nicht nur zu RDNA 3, sondern auch gegenüber Ampere.

MfG
Raff

Das muss man aber reflektieren, meines Wissens geht SER mit UE5 nur im Branch von NV, es ist also nicht die "Standard Unreal Engine 5". Wie spezifisch hier Sachen von NV für ihre GPUs angepasst werden mussten kann ich nicht überblicken. Es ist aber unwahrscheinlich, dass auf AMD GPUs seitens NV Rücksicht genommen wird, wenn Änderungen vorgenommen werden ...


[..]

Integration of Unreal Engine 5 NvRTX
Unreal Engine developers can take advantage of SER within the NVIDIA branch of Unreal Engine (NvRTX). The following section explains how SER provides performance gains in ray tracing operations and provides optimization tips for specific use cases.

The NVIDIA Unreal Engine 5 NvRTX 5.0.3 release will feature SER integration to support the optimization of many of its ray tracing paths. With SER, you’ll see additional frame rate optimization on 40 series cards with up to 40% increased speeds in ray tracing operations and zero impact on quality or content authoring. This improves the efficiency of complex ray tracing calculations and provides greater gains in scenes that take full advantage of what ray tracing has to offer.

[..]


---
Edit: Ich habe kurz mal geschaut, für das Release von der Unreal Engine 5.2 hat das Release im NV-Branch ~500 neue oder geänderte Files mehr. Dies sind nicht nur File für NV Plugins wie StreamLine sondern auch Anpassungen in der Engine ... man kann also schon mal sagen, nicht jede UE 5.2 ist gleich ... wer die nötigen Accounts verknüpft hat, kann sich den Diff selbst anschauen: https://github.com/EpicGames/UnrealEngine/compare/5.2...NvRTX:UnrealEngine:nvrtx-5.2?diff=split

DrFreaK666
2023-08-23, 12:14:35
"Denuvo Unreal Engine Protection Is Set to Make Modding More Difficult for a Lot of Games"

https://wccftech.com/denuvo-unreal-engine-protection/

bad news!?

Raff
2023-08-23, 13:34:14
Das muss man aber reflektieren, meines Wissens geht SER mit UE5 nur im Branch von NV, es ist also nicht die "Standard Unreal Engine 5". Wie spezifisch hier Sachen von NV für ihre GPUs angepasst werden mussten kann ich nicht überblicken. Es ist aber unwahrscheinlich, dass auf AMD GPUs seitens NV Rücksicht genommen wird, wenn Änderungen vorgenommen werden ...

---
Edit: Ich habe kurz mal geschaut, für das Release von der Unreal Engine 5.2 hat das Release im NV-Branch ~500 neue oder geänderte Files mehr. Dies sind nicht nur File für NV Plugins wie StreamLine sondern auch Anpassungen in der Engine ... man kann also schon mal sagen, nicht jede UE 5.2 ist gleich ... wer die nötigen Accounts verknüpft hat, kann sich den Diff selbst anschauen: https://github.com/EpicGames/UnrealEngine/compare/5.2...NvRTX:UnrealEngine:nvrtx-5.2?diff=split

Jo - ich bin auch gespannt, wie sich das entwickelt. Von außen kann man ja bei kompilierten Projekten leider nicht sehen, ob der normale oder der Nvidia-Branch verwendet wird (oder doch?) ...
_____

Wer sich für ofenfrischen Tech-Talk zur Gegenwart interessiert, hier entlang:

Immortals of Aveum - Das große Tech-Interview zur Unreal Engine 5.1 (https://www.pcgameshardware.de/Immortals-of-Aveum-Spiel-74248/Specials/Unreal-Engine-51-Release-Review-Interview-1426984/)

MfG
Raff

dildo4u
2023-08-23, 17:06:06
Immortals of Aveum Performance Test mit 1060,4060,6700XT,3080,ARC750,4090


FbJA-P3sRgo

Achill
2023-08-24, 16:38:58
Von außen kann man ja bei kompilierten Projekten leider nicht sehen, ob der normale oder der Nvidia-Branch verwendet wird (oder doch?) ...
[..]


Nicht das ich wüsste ..

aufkrawall
2023-08-25, 18:23:47
Fortnite hat auf eine 5.3-Version (vermutlich ein interner Custom Vorab-Branch) aktualisiert.

-Es shipt nun StreamLine, inklusive FG-DLL (FG ist aber nicht auswählbar)
-Die DLSS-DLL ist aber weiterhin die uralte 2.2.6-Version.
-HW-RT ist nun offenbar kaputt, das Toggeln der Option macht keinen Unterschied.
-Die Virtual Shadow Maps sind nun offenbar wie in Immortals of Aveum auf Nvidia kaputt und flackern, auf AMD nicht
-Die VSM sehen aber auch mit Radeon auf Distanz etwas unruhiger aus, wenn auch kein Vergleich zum Nvidia-Problem
-Performance wirkt deutlich gesteigert. Aber abwarten, was davon mit gefixtem HW-RT übrig bleibt.
-TSR wurde in einigen der letzten Patches imho verschlechtert, jittert jetzt etwa unschön auf dünnen Linien vs. TAA (war eigentlich meist umgekehrt)

Und nun das Beste:
-Der DLSS Bloom-Bug wurde gefixt. Hoffentlich also dann auch in anderen Spielen mit zukünftigen UE-Versionen. :cool:

ChaosTM
2023-08-25, 19:03:30
again..

Fortnite ist für die meisten von uns eher irrelevant.
Dass es das einzige UE5 Spiel ist das da hast, sei dir verziehen..

Wie weit das für neue Spiele relevant ist? Nobody knows

add.: nicht böse sein, aber Fortnite UE5 ist ein Versuchsballon

DrFreaK666
2023-08-25, 19:07:37
Fortnite bekommt als erstes Spiel die neuesten Features. Wieso ist das bei 3D Center irrelevant?

ChaosTM
2023-08-25, 19:09:07
Fortnite bekommt als erstes Spiel die neuesten Features. Wieso ist das bei 3D Center irrelevant?


Weil es für all die anderen Spiele ziemlich irrelevant, ist wegen der Simplizität der Grafik..

DrFreaK666
2023-08-25, 19:28:09
Was haben neue Features mit der Anzahl Polygone usw. zu tun?
Fortnite ist das fortschrittlichste UE-Spiel

aufkrawall
2023-08-25, 19:31:40
Fortnite ist für die meisten von uns eher irrelevant.

Das geht mir doch sonst wo vorbei? Wer hier nicht an der Technik interessiert ist, nur weil es Fortnite ist, kann sich auch gleich abmelden. Echt selten dummer Kommentar.

ChaosTM
2023-08-25, 19:47:36
Das geht mir doch sonst wo vorbei? Wer hier nicht an der Technik interessiert ist, nur weil es Fortnite ist, kann sich auch gleich abmelden. Echt selten dummer Kommentar.


Ich verstehe deinen Frust.
Fortnite ist zwar die Speerspitze des UE5 Fortschritts, aber für das Gros der kommenden Spiele ist das eher irrelevant.

DrFreaK666
2023-08-25, 19:50:35
Ich verstehe deinen Frust.
Fortnite ist zwar die Speerspitze des UE5 Fortschritts, aber für das Gros der kommenden Spiele ist das eher irrelevant.

Das macht absolut keinen Sinn. Man kann jetzt schon sehen, was in Zukunft in Games verwendet wird

ChaosTM
2023-08-25, 19:58:40
Es ging vorrangig um Fortnite.

Die meisten neuen Spiele werden Nanite und Lumen unterstützen, ob mit oder ohne Hardeware Unterstützung sei dahingestellt

DrFreaK666
2023-08-25, 20:24:03
Du verstehst es nicht. Ich gebs auf.
Oder ich bin zu blöd, um es zu erklären.
Oder wir sind beide zu blöd :D

basix
2023-08-27, 09:11:12
Mit SW-Lumen rennt AMD verglichen mit Nvidia richtig gut:
https://www.techpowerup.com/review/immortals-of-aveum-benchmark-test-and-performance-analysis/5.html
https://tpucdn.com/review/immortals-of-aveum-benchmark-test-and-performance-analysis/images/performance-2560-1440.png

dildo4u
2023-08-27, 09:24:40
Skaling scheint sehr mäßig auf Nvidia 4090 kann Optimal 40% zur 4080 schaffen wäre mal interessant ob 7800x3D mehr rausholt als der 13900k.

basix
2023-08-27, 09:30:17
Ja die 4090 fällt ab. Sonst läuft Lovelace aber OK, besonders verglichen mit Ampere.

The_Invisible
2023-08-27, 10:38:15
Scaling zwischen 4070Ti und 4080 scheint aber zu stimmen, schon merkwürdig

basix
2023-08-27, 10:39:38
Anscheinend lässt sich die 4090 einfach schwer auslasten. 12 GPC vs. 5/7 GPC ist ein grosser Unterschied. Und vermutlich hängt es bei TPU von der Testszene ab. Bei GameGPU sieht es normal aus (1.75x zwischen 4090 und 4070 Ti): https://gamegpu.com/action-/-fps-/-tps/immortals-of-aveum-test-gpu-cpu

Dann liegen auch wieder ~1.3x zwischen 4090 und 7900XTX.

Exxtreme
2023-08-27, 10:44:20
Kann sein, dass Ada einen, für Aussenstehende unbekannten Flaschenhals hat und das Spiel lastet diesen Flaschenhals voll aus. Ada performt hier allgemein nicht sehr gut. Kann sein, dass später Treiber noch was bringen werden. Keine Ahnung.

basix
2023-08-27, 10:52:58
UE5 performt auf RDNA2/3 relativ gut verglichen mit anderen Engines, da halt stark darauf optimiert (Konsolen). Eigentlich tanzt primär die 4090 aus der Reihe und auch Ampere schneidet im Vergleich zu Lovelace mässig ab. Und wie gesagt, bei GameGPU sind diese Effekte nicht zu sehen.

dildo4u
2023-08-27, 10:56:54
Ich finde eher das AMD endlich so performt wie gedacht UE4 wurde auf Nvidia Hardware entwickelt überleg mal wie alt die ist, das war vor den ersten AMD Konsolen.(Es gab zuerst Demos auf GTX 680 lange vor PS4)

Following is the real-time video of the Unreal Engine 4 based Elemental demo running off a single GeForce GTX 680 GPU. In a later comparison, it was revealed that the Elemental demo showcased on the PC was still far more impressive than the console version shown during the PS4 announcement event as seen from the direct feed screen shot below

https://wccftech.com/nvidia-geforce-gtx-680-powers-nextgeneration-unreal-engine-4-infiltrator-demo/

Das Ziel war diesmal von Anfang an Konsolen mit Ryzen plus Radeon.

Troyan
2023-08-27, 11:05:41
In Spielen wie Cyberpunk mit Pathtracing sieht man, was die Hardware kann. UE5 ist eine Rasterizing Engine mit billigen Lichtberechnungen. Da ist null auf nVidia optimiert.

Alan Wake 2 soll mit 30 FPS in 4K laufen. Da rechtfertigt nichts die miserable Leistung von Lovelace in solchen UE5 Spielen.

robbitop
2023-08-27, 11:08:50
Kann sein, dass Ada einen, für Aussenstehende unbekannten Flaschenhals hat und das Spiel lastet diesen Flaschenhals voll aus. Ada performt hier allgemein nicht sehr gut. Kann sein, dass später Treiber noch was bringen werden. Keine Ahnung.
Es ist grundsätzlich je nach Workload schwierig alle Einheiten auszulasten. Das ist der Grund warum die IHVs nicht einfach die CUs/SMs einfach nur hochskalieren sondern nach (zT sehr teuren) Möglichkeiten suchen, Takt und IPC (pro SM/CU) zu steigern.
Das konnte man schon in den ersten 4090 reviews sehen, dass der Abstand zu ad103 kleiner war als anzunehmen.
Je mehr Rechenlast pro Pixel und desto höher die Inputresolution desto kleiner das Problem. Bei CP77 mit pathtracing zog die 4090 iirc wieder ab.

robbitop
2023-08-27, 11:11:54
In Spielen wie Cyberpunk mit Pathtracing sieht man, was die Hardware kann. UE5 ist eine Rasterizing Engine mit billigen Lichtberechnungen. Da ist null auf nVidia optimiert.

Alan Wake 2 soll mit 30 FPS in 4K laufen. Da rechtfertigt nichts die miserable Leistung von Lovelace in solchen UE5 Spielen.
UE5 hat natürlich genauso Raytracing mit Lumen. Eine Optimierung auf einen spezifischen IHV (noch schlimmer auf nur bestimmte GPUs dieses IHVs) ist überhaupt nicht wünschenswert für einen gesunden Markt. Idealerweise läuft auf guter HW einfach alles gut und braucht keine Optimierungen speziell auf diese HW.

GerryB
2023-08-27, 11:18:04
RTXDI ist aber wohl ein Marketplace-Plugin, was aus der NV-Ecke kommt.(in Desordre)
Lumen-Hardware-RT soll bitte weiterhin daneben existieren als "einfache" neutrale Lösung.

basix
2023-08-27, 11:20:34
Alan Wake 2 benutzt ja wohl nicht nur RTXDI. DI = Direct Illumination.

Edit:
OK, RTXDI inkludiert auch ReSTIR GI. Somit ist RTXDI ein etwas irreführender Name.
https://github.com/NVIDIAGameWorks/RTXDI
https://github.com/NVIDIAGameWorks/RTXDI/blob/main/doc/Integration.md

Edit 2:
Ah, ist mir jetzt in den Sinn gekommen. ReSTIR GI transformiert GI in ein Direct Illumination Problem, was deutlich einfacher zu lösen ist. Dann passt es vom Prinzip her wieder ungefähr.

blaidd
2023-08-29, 15:58:19
Nightingale hier ist btw. noch ein neuer ("Next-Gen-Only"-) UE5-Titel mit sowohl Nanite- und Lumen-Support.
Sieht echt ganz fett aus, das Ding hat mich auf der Messe ein wenig überrascht...

Preview:
https://www.pcgameshardware.de/Nightingale-Spiel-73528/Tests/Nightingale-Preview-Gamescom-2023-Unreal-Engine-5-1427550/
(https://www.pcgameshardware.de/Nightingale-Spiel-73528/Tests/Nightingale-Preview-Gamescom-2023-Unreal-Engine-5-1427550/)

Trailer zum Guggen:
1dcRqDhVVV8

Jupiter
2023-08-29, 18:35:11
Ich kaufte Desordre und mir gefällt es spielerisch wie auch visuell.

Wenn man Raytracing High-End-Grafik sehen möchte, lohnt sich der Kauf für 6,99 Euro auf Steam. Dazu hat es eine Vielzahl von Grafikeinstellungen von Software-Lumen, Hardware-Lumen und RTXDI. RTXDI gefällt mir optisch am besten und in Kombination mit den "Let My PC Burn"-Einstellungen für Spiegelungen kann auf SSR verzichtet werden.

Das Spiel hat auch nur eine Festplattengröße von etwa 2 GB.

aufkrawall
2023-08-29, 18:57:28
Die GitHub-Seiten für die Nvidia UE-Branches sind irgendwie weg oder nicht mehr öffentlich einsehbar?
https://forums.developer.nvidia.com/t/nvrtx-branches-for-5-2/247079/7

blaidd
2023-08-30, 01:51:32
Ich kaufte Desordre und mir gefällt es spielerisch wie auch visuell.

Wenn man Raytracing High-End-Grafik sehen möchte, lohnt sich der Kauf für 6,99 Euro auf Steam. Dazu hat es eine Vielzahl von Grafikeinstellungen von Software-Lumen, Hardware-Lumen und RTXDI. RTXDI gefällt mir optisch am besten und in Kombination mit den "Let My PC Burn"-Einstellungen für Spiegelungen kann auf SSR verzichtet werden.

Das Spiel hat auch nur eine Festplattengröße von etwa 2 GB.

Jo, das ist echt nicht schlecht.
Und zum Rumspielen mit den ganzen Settings außerdem ein wirklich gutes Anschauungsobjekt.

Raff
2023-08-30, 02:03:22
Mit SW-Lumen rennt AMD verglichen mit Nvidia richtig gut:
https://www.techpowerup.com/review/immortals-of-aveum-benchmark-test-and-performance-analysis/5.html
https://tpucdn.com/review/immortals-of-aveum-benchmark-test-and-performance-analysis/images/performance-2560-1440.png

Schade, dass man nirgends sieht, was da getestet wird und wie die Settings aussehen. Ich kann aber aus frischen Messungen anhand einer Raytracing-schwangeren Szene von vorhin bestätigen, dass hier nicht die typischen Raytracing-Machtverhältnisse vorherrschen, AMD kann hier mithalten. Interessanterweise trifft das auf das hier bereits diskutierte Desordre nicht zu - egal, ob Lumen oder RTXDI.

MfG
Raff

aufkrawall
2023-08-30, 02:56:43
Sieht sehr nach der typischen Blässe von Software-RT aus. Die Lumen-Reflexionen auf Wasserflächen gehen hier auch eher Richtung einfarbige Flächen...

Gast
2023-08-30, 07:12:29
Sieht sehr nach der typischen Blässe von Software-RT aus. Die Lumen-Reflexionen auf Wasserflächen gehen hier auch eher Richtung einfarbige Flächen...

Ja, die Reflexionen sind, wenn sie außerhalb vom Screenspace sind, maximal ein klein wenig besserer Ersatz für Cubemaps.

Raff
2023-08-30, 09:26:03
Immortals of Aveum mischt wild Techniken, je nach Wasserfläche. Ich habe das Spiel beinahe durch (schätze ich nach den Erfahrungen heute Nacht jedenfalls) und kann das daher mit Sicherheit bewerten. :) Das Problem ist, dass man nur in den seltensten Fällen eine ordentliche Raytracing-Spiegelung zu Gesicht bekommt - aber es gibt sie. Der beste Spielplatz, um sich das anzusehen, ist das Palathon, genauer gesagt die Garten-Anlage. Hier gibt's das "volle" Paket, bestehend aus den vereinfachten Lumen-RT-Reflections.

Lumen Reflections allein:
https://abload.de/thumb/immortalsofaveum_lumes8ip0.jpg (https://abload.de/image.php?img=immortalsofaveum_lumes8ip0.jpg)

Lumen + SSR:
https://abload.de/thumb/immortalsofaveum_lumeiwid4.jpg (https://abload.de/image.php?img=immortalsofaveum_lumeiwid4.jpg)

In vielen anderen Fällen sieht die Basis-Reflexion von Wasserflächen tatsächlich noch simpler und eher nach Cube-Map aus. Damit das nicht so auffällt, gibt's stets Screen Space Reflections obendrauf. Diese sind, wie immer, bröselig und flüchtig, weshalb man sich fragt, warum das nicht vollständig ersetzt wird. Man ist eben nur den halben Weg gegangen.

MfG
Raff

The_Invisible
2023-08-30, 09:30:51
Es ist grundsätzlich je nach Workload schwierig alle Einheiten auszulasten. Das ist der Grund warum die IHVs nicht einfach die CUs/SMs einfach nur hochskalieren sondern nach (zT sehr teuren) Möglichkeiten suchen, Takt und IPC (pro SM/CU) zu steigern.
Das konnte man schon in den ersten 4090 reviews sehen, dass der Abstand zu ad103 kleiner war als anzunehmen.
Je mehr Rechenlast pro Pixel und desto höher die Inputresolution desto kleiner das Problem. Bei CP77 mit pathtracing zog die 4090 iirc wieder ab.

4090 hat 68% mehr Einheiten als 4080, das beste was ich gesehen habe war mal 45% Vorsprung. Nur die Speicherbandbreite skaliert so nicht mit, da müsste die 4090 eher so 1,2TB/s haben statt die 1TB/s.

blaidd
2023-08-30, 09:34:18
[/url]

In vielen anderen Fällen sieht die Basis-Reflexion von Wasserflächen tatsächlich noch simpler und eher nach Cube-Map aus. Damit das nicht so auffällt, gibt's stets Screen Space Reflections obendrauf. Diese sind, wie immer, bröselig und flüchtig, weshalb man sich fragt, warum das nicht vollständig ersetzt wird. Man ist eben nur den halben Weg gegangen.

MfG
Raff

Bei "vollen" RT-Spiegelungen hast du allerdings auch oft Screenspace. Natürlich auch häufig weniger, aber der Weg-Wisch-Umstand bleibt. Brauchst du allein schon, wenn die AO nicht ebenfalls sind, weil dann die indirekte Verschattung erst nach dem Raytracing appliziert würde.

Die würde also in den Spiegelungen nicht auftauchen und dann wären die viel zu hell. Also brauchst du wiederum SSRs auf den Raytracing-Spiegelungen, damit die auch die AO erfassen können...

Oder feine Details (oft Vegetation), oft ist da auch ein LoD, das den einen Teil der Spiegelung mit RT und den anderen Teil mit SSRs darstellt.
Schau mal genauer hin, kannst du bei nahezu allen RT-Spiegelungen sehen, wenn es denn nicht gleich volles Pathtracing ist.

Raff
2023-08-30, 09:36:32
4090 hat 68% mehr Einheiten als 4080, das beste was ich gesehen habe war mal 45% Vorsprung. Nur die Speicherbandbreite skaliert so nicht mit, da müsste die 4090 eher so 1,2TB/s haben statt die 1TB/s.

Was in den RTX-4090-Reviews die Skalierung hemmte, war eher die Infrastruktur - ein Klassiker, fragt mal die V5 6000. ;) Mit plus 40 Prozent kann man in Ultra HD eigentlich immer rechnen, in höheren Auflösungen mehr (bei gleichem Kerntakt).

Bei "vollen" RT-Spiegelungen hast du allerdings auch oft Screenspace. Natürlich weniger, aber der Weg-Wisch-Umstand bleibt. Brauchst du allein schon, wenn die AO nicht ebenfalls RT sind, weil dann die indirekte Verschattung erst nach dem Raytracing appliziert würde.

Die würde also in den Spiegelungen nicht auftauchen und dann wären die viel zu hell. Also brauchst du wiederum SSRs auf den Raytracing-Spiegelungen, damit die auch die AO erfassen können...

Schau mal genauer hin, kannst du bei nahezu allen RT-Spiegelungen sehen, wenn es denn nicht gleich volles Pathtracing ist.

Nix anderes habe ich doch geschrieben. ;) Reines RT kriegt man in Immortals leider nicht, es wird immer mit SSR-Quatsch supplementiert.

MfG,
Raff

Gast
2023-08-30, 09:55:15
In vielen anderen Fällen sieht die Basis-Reflexion von Wasserflächen tatsächlich noch simpler und eher nach Cube-Map aus.


Ich glaube es sind schon immer Lumen-RT-Reflections (wahrscheinlich die Software-RT-Variante), jedenfalls wirken sie zumindest perspektivisch korrekt, was bei Cubemaps normalerweise auch nicht der Fall ist, aber sie sind doch extrem grob sowohl was die abgetastete Geometrie als auch die Reflektionsauflösung selbst betrifft.

The_Invisible
2023-08-30, 12:05:42
Was in den RTX-4090-Reviews die Skalierung hemmte, war eher die Infrastruktur - ein Klassiker, fragt mal die V5 6000. ;) Mit plus 40 Prozent kann man in Ultra HD eigentlich immer rechnen, in höheren Auflösungen mehr (bei gleichem Kerntakt).


Ja aber nach CPU-Limit sieht das nicht aus in Immortals of Aveum, zumindest in dem Techpowerup Bench, da fällt sie deutlich ab von 1440p auf UHD. Was sonst noch limitieren könnte ka...

Exxtreme
2023-08-30, 12:57:59
Ja aber nach CPU-Limit sieht das nicht aus in Immortals of Aveum, zumindest in dem Techpowerup Bench, da fällt sie deutlich ab von 1440p auf UHD. Was sonst noch limitieren könnte ka...

Meine Vermutung ist, Nvidia hat da irgendwo einen Flaschenhals und das Spiel lastet diesen voll aus. Kann sein, dass der Flaschenhals im Treiber ist, dass einige Dinge nicht effizient bearbeitet werden. Dann hilft eine Treiberoptimierung.

dildo4u
2023-08-30, 13:12:56
5.1 übernimmt die absurde CPU last beim Streaming eine 2080 ist CPU limitiert mit Ryzen 3600.
Leider haben sie keine Radeon im Test.

https://youtu.be/JxxIx9ZE_8A?si=oK3BJTlIDaz2u_J6&t=420

Gast
2023-08-30, 13:36:34
5.1 übernimmt die absurde CPU last beim Streaming eine 2080 ist CPU limitiert mit Ryzen 3600.
Leider haben sie keine Radeon im Test.


Das ein Ryzen 3600 CPU-Limitiert ist wundert jetzt aber keinen.

dildo4u
2023-08-30, 14:53:15
Mich schon da die Konsolen Version für 60fps optimiert wurde und die weniger CPU Takt und Cache haben.

Chris Lux
2023-08-30, 15:03:25
Sollte etwa die UE5 auf die Konsolen optimiert sein? Nein *surprisedpikatchuface*

P.S. ...und damit auf AMD GPUs?

/s ;)

blaidd
2023-08-30, 15:11:13
Preview von Lords of the Fallen ist jetzt auch up.
https://www.pcgameshardware.de/Lords-of-the-Fallen-Spiel-12615/Specials/Release-Gameplay-Test-auf-der-Gamescom-Preview-Unreal-Engine-5-1427753/ (https://www.pcgameshardware.de/Lords-of-the-Fallen-Spiel-12615/Specials/Release-Gameplay-Test-auf-der-Gamescom-Preview-Unreal-Engine-5-1427753/)