PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Unreal Engine 4


Seiten : 1 2 3 4 5 6 7 [8] 9

Dampf
2020-04-11, 17:04:06
Hast du schon mal eine Messedemo gebaut? Das Problem ist sicherlich nicht, dass man die Demo nicht einfach deployen könnte. Irgendwelche Qualitätskriterien für Endnutzer hat man damit aber noch lange nicht erfüllt. Dazu kommen noch jede Menge Lizenzfragen auf einen zu.
Hab ich tatsächlich noch nicht, meine Erfahrung basiert eher wie du schon sagtest auf das deployen von UE4 Projekten. Da hast du absolut recht.

Naja ich halte es trotzdem für einen klugen Schachzug diese Demos zu veröffentlichen (wenn sie denn laufen) Die Vorstellung dass sowas wie die Troll Demo auf dem eigenen Computer laufen könnte sorgt sicherlich für viel Begeisterung unter der Fan Gemeinde und höhere Appreciation für sowohl die GPUs als auch die Engine selbst. Ist halt immer schade wenn ich solch geniale Demos nur als Videos betrachten kann...

Gast
2020-04-11, 18:13:23
Bitte schön.

https://www.nvidia.de/coolstuff/demos

Genau, Froggy und Adrianne waren es.
Das war echt erst mit der 8800?

Aber ich kann in der Demo immer noch nicht der Adrianne am Badeanzug herumzupfen, würde doch viel mehr Spaß machen als beim blöden Froggy. :D

starfish
2020-04-15, 15:44:01
Wobei es ja in der Tat viele fertige Demos gibt, die man eigentlich auch ohne Kostenaufwand für den Konsumer als .exe veröffentlichen könnte. Z.B. die Troll Demo, Project Sol oder Heretic. Der einzige Grund warum das nicht getan wird ist sicherlich weil diese sowieso nicht auf herkömmlichen PCs laufen werden, wurden bestimmt von ein paar RTX Titans berechnet. Dann macht das natürlich kein Sinn.

Zumindest fuer Troll stimmt das schlicht nicht.
Aber das hab ich schonmal ausgefuehrt.
Troll gehoert Epic nicht, darum gibt es keine Demo.

Troll laeuft ausserdem problemlos auf einer 2080ti.

(Sorry, englische Tastatur.)

gnomi
2020-04-19, 06:54:32
Gerade bei DLSS und RTX kam doch jetzt wieder einiges was nvidia auf dieser Geforce Seite mal gleich verlinkt hatte. (Star Wars, Atomic Demo von diesem russischen Entwickler und so ein Asia Spiel u.a.)
Oder einfach gleich sein Quake 2 neu erleben.
Vorher auch die ganzen UE4 Sachen bei Pascal und als die Engine sehr neu war. Okay, teilweise musste man die downloaden.
Zuletzt war auch die Crytek Demo noch ganz spannend mit diesem universellen Ansatz, der es jetzt auch in das Crysis Remake schafft.
Kann mich da jetzt nicht beschweren.
Ist immer noch ähnlich wie Dusk, Dawn oder Gameworks. Nvidia bringt da schon genug zum Spielen. Genau wie Epic. :up:

dildo4u
2020-05-06, 08:10:20
4.25 kommt mit der ersten Implementation von PS5/ Xbox Series X support.


https://www.unrealengine.com/en-US/blog/unreal-engine-4-25-released


Scorn UE 4.0 Game auf Series X. http://www.scorn-game.com/


t0ue0jsQaPk

starfish
2020-05-10, 12:06:06
https://youtu.be/SeNM9zBPLCA


Ich freu mich schon wahnsinnig auf das Cloud System.

dildo4u
2020-05-13, 16:59:27
UE 5 auf PS5.

qC5KtatMcUw


IIdn6yNdHMY

starfish
2020-05-13, 17:24:15
Und ja, bevor die Frage kommt, es ist wirklich PS5 Hardware. :)

qu3x^
2020-05-13, 17:33:29
Absolut wow

Gouvernator
2020-05-13, 18:10:07
Absolut wow
Naja geht so. Viel Shaderflimmern. Natives 8K ist demnächst ein Muss.

Troyan
2020-05-13, 18:11:55
Irgendwie gespalten. Tolles Geometrieniveau und GI ist klasse. Aber wirklich langweiliges Setting und verdeckt auch schön eventuelle Leistungsschwächen.

Wüstenlandschaft eben. Reflektionen? Keine. In der Pfütze SSR und das wars. Das hat nVidia mit UE4 gebastelt:
https://www.youtube.com/watch?v=pNmhJx8yPLk
https://www.youtube.com/watch?v=b2WOjo0C-xE&t=0s

Aber das Geometrieniveau ist wirklich top.

Rooter
2020-05-13, 18:18:59
Ja, wow! :O
Das ist nach vielen Jahren (seit 2013; The Dark Sorcerer von Quantic Dream) die erste Techdemo, die mir das Höschen feucht macht.
Wenn ich auf sehr hohem Niveau jammern darf:
- Das Wasser ist ziemlich zäh. Kann man aber vermutlich einstellen.
- Das Gesicht ist immer noch Uncanny Valley. Das hat Quantic Dream 2013 besser gemacht.

Aber die (runtergerechneten) Assets und das GI --> Wow! :usex:

Was ich mich frage:
- Nutzen die Voxel Octrees für das GI?
- Wie groß ist diese Demo? :ugly:

MfG
Rooter

dildo4u
2020-05-13, 18:26:01
Der Fokus war wirklich die Umgebung was mit der Figur geht hat man bei Hellblade 2 gesehen, wobei nicht klar ist ob das 4.0 oder 5.0 ist.

Scrypt0n
2020-05-13, 18:32:34
Natives 8K ist demnächst ein Muss.Ein Muss?
Ja... in einigen Jahren vermutlich - vor 2025 aber sicherlich nicht.

starfish
2020-05-13, 18:36:56
Der Fokus war wirklich die Umgebung was mit der Figur geht hat man bei Hellblade 2 gesehen, wobei nicht klar ist ob das 4.0 oder 5.0 ist.

4.
Alles bis auf die aktuelle Demo, was ihr bisher gesehen habt, ist immer UE4.

Ja, Niagra für das Wasser steht noch am Anfang. Die Fluid Simulation wird noch besser zum Release.
Und ja, die Demo ist groß.
Es wird aktuell an Kompressionen gearbeitet.

Edit: Wie bereits richtig erkannt, das Gesicht ist absichtlich stilisiert.
Zu Digital Humans wird aber noch mehr Info kommen mit der Zeit. :)

just4FunTA
2020-05-13, 18:41:37
Ein Muss?
Ja... in einigen Jahren vermutlich - vor 2025 aber sicherlich nicht.
lol ja, wir warten immernoch auf Grafikkarten die 4k bei aktuellen Spielen schaffen und der fantasiert von 8k. ;D

dargo
2020-05-13, 19:17:44
Ich hoffe die UE5 ist endlich voll für DX12/Vulkan am PC konzipiert worden und nicht dieses Gefrickel wie bei der UE4.

Ravenhearth
2020-05-13, 19:22:19
Die UE 5 verdient einen eigenen Thread :)

Ghost1nTh3GPU
2020-05-13, 19:27:16
Die UE 5 verdient einen eigenen Thread :)
Schon angefordert.

https://www.unrealengine.com/en-US/blog/a-first-look-at-unreal-engine-5

Scheint wohl in der Basis niedrige Anforderungen zu haben, wenn man Android und iOS mit der UE5 unterstützen will.
Da könnte Nanite und Lumen wohl selbst auf mobilen Geräte einiges bringen, wenn diese entsprechende Render-Features und fixen NAND mitbringen. Switch Pro...;)

Dampf
2020-05-13, 19:39:09
Hehe und das liebe Leute ist die Power durch ausgelagerten RAM auf SSDs!

Screemer
2020-05-13, 19:45:53
Ich fand's ja mal ziemlich beeindruckend. Vor allem den Sound reverb. Endlicu kommt was ordentliches in der Richtung. Hat ja nur ein Jahrzehnt gedauert.

Grendizer
2020-05-13, 19:50:11
Ich fand's ja mal ziemlich beeindruckend. Vor allem den Sound reverb. Endlicu kommt was ordentliches in der Richtung. Hat ja nur ein Jahrzehnt gedauert.


Ich fand das Fallen der Steine sehr beeindruckend. Da hat man richtig große und kleine Steine hören können. Beim Springen, als die Gebäude zusammenbrechen ist das aber ein wenig untergegangen,

starfish
2020-05-13, 19:51:27
Glaubt mir, der Sound ist an der laufenden Konsole noch viel beeindruckender als im Video.

RLZ
2020-05-13, 19:56:05
Es wird aktuell an Kompressionen gearbeitet.
Wird die Geometrie noch Polygon-basiert gespeichert?

starfish
2020-05-13, 20:04:41
Wird die Geometrie noch Polygon-basiert gespeichert?

Ja, das was du siehst sind Polygone.
Es handelt sich aber um ein Nanite asset, kein StaticMesh.

Du kannst aber zB. auch CAD/Nurbs Daten in die Engine laden, diese wahnsinnig hoch tesselieren und dann mit Nanite darstellen.
Also, sofern der Speicher der SSD reicht. :D

just4FunTA
2020-05-13, 20:06:32
Glaubt mir, der Sound ist an der laufenden Konsole noch viel beeindruckender als im Video.


ok erst sprichst du von "was wir hier zeigen wollten" und jetzt erzählst du davon wie es sich an der Konsole anhört, was hast du mit dem ganzen zu tun? Entwickler bei Epic? Oder nextgen oder wie?

Edit: ah ok gerade gesehen bist ja tatsächlich bei Epic. :up:

Epic Games Technical Account Manager

Grendizer
2020-05-13, 20:07:47
ok erst sprichst du von "was wir hier zeigen wollten" und jetzt erzählst du davon wie es sich an der Konsole anhört, was hast du mit dem ganzen zu tun? Entwickler bei Epic? Oder nextgen oder wie?

Laut Eigenbeschreibung:

Epic Games Technical Account Manager

starfish
2020-05-13, 20:08:27
ok erst sprichst du von "was wir hier zeigen wollten" und jetzt erzählst du davon wie es sich an der Konsole anhört, was hast du mit dem ganzen zu tun? Entwickler bei Epic? Oder nextgen oder wie?

Achso, sorry, ja steht auch im Profil. :)

RLZ
2020-05-13, 20:08:38
Ja, das was du siehst sind Polygone.
Es handelt sich aber um ein Nanite asset, kein StaticMesh.
Naja. Auch volumetrische Modelle kann man gut mit Polygonen rendern. Also keine direkte Antwort ;)

Du kannst aber zB. auch CAD/Nurbs Daten in die Engine laden, diese wahnsinnig hoch tesselieren und dann mit Nanite darstellen.
Also, sofern der Speicher der SSD reicht. :D
Hört sich gut, aber hab ich dann pro Modell stundenlanges Preprocessing und/oder bin bei der Dynamik beschränkt?
Mesh Simplication is ja ein super komplexes Problem und Voxelisierung kann da für die Performance helfen. Deswegen auch die erste Frage.
Das hört sich im Moment noch alles zu gut an, um keinen massiven Drawback zu haben.

starfish
2020-05-13, 20:13:55
Hm, lass es mich so beantworten:

Natürlich haben Nanite und Lumen noch ein paar Probleme.
Die meisten davon lassen sich aber durch Entwicklungszeit, man beachte die Timeline, beheben/ausmerzen.

Manches wird konzeptionsbedingt bleiben.

Welches Drawbacks es genau gibt und welche davon ausgemerzt werden, kann ich aber im Moment nicht beantworten.
Dazu wird es zu gegebener Zeit Antworten geben. :)

Ravenhearth
2020-05-13, 20:28:18
Vimeo-Link (https://vimeo.com/417882964) (bessere Qualität)

Fragman
2020-05-13, 20:30:27
Was ist Nanite und Lumen genau, geo und light core?
Gibts da schon genaue Informationen zur tech im besonderen beim Lighting?

Radeonfreak
2020-05-13, 20:37:07
UE 5 auf PS5.

https://youtu.be/qC5KtatMcUw


https://youtu.be/IIdn6yNdHMY

Bin Beeindruckt. =)

Dampf
2020-05-13, 20:54:27
Also Nanite klingt sehr nach MESH SHADING von dx12 ultimate. Ich frag mich ob die hier genutzt werden. DX12 Ultimate support fehlt ja noch in der UE4.

RLZ
2020-05-13, 21:06:59
Also Nanite klingt sehr nach MESH SHADING von dx12 ultimate. Ich frag mich ob die hier genutzt werden. DX12 Ultimate support fehlt ja noch in der UE4.
Mesh Shading ist ein Konzept auf einer ganz anderen Abstraktionsebene.

Ex3cut3r
2020-05-13, 21:09:49
Einfach Mega was doch möglich sein wird. PCIe 4.0 SSD, 32GB RAM, 16GB VRAM, sowie 8C/16T CPUs wird man 2021/2022 aber dafür brauchen.
Bei mir sieht es schon heute so aus.

[X] 3700X 8C/16T
[X] 32GB DDR4 3600mhz CL14-15-14
[/] 8GB RTX 2080 - Ampere PCIe 4.0 GPU mit 16GB VRAM ist eingeplant
[X] PCIe 4.0 NVME 1TB Corsair MP600

:smile:

starfish
2020-05-13, 21:11:37
Mesh Shading ist ein Konzept auf einer ganz anderen Abstraktionsebene.

Hab nochmal nachgesehen und ja, das darf ich teilen:
Es sind Polygone.

Dampf
2020-05-13, 21:13:45
Einfach Mega was doch möglich sein wird. PCIe 4.0 SSD, 32GB RAM, 16GB VRAM, sowie 8C/16T CPUs wird man 2021/2022 aber dafür brauchen.


Das läuft auch auf einer 2070 Super. Wurde bereits bestätigt. Ebenfalls ausreichend ist eine derzeit handelsübliche Gen 3 NVMe SSD.

D4ve
2020-05-13, 21:22:45
Hab nochmal nachgesehen und ja, das darf ich teilen:
Es sind Polygone.

Im Video wird von Polygonen auf Pixel-Ebene gesprochen, also quasi Micropolygone. Bei Pixar ist das seit Reyes ein Thema, im Realtime-Bereich erinnere ich mich an die letzten Diskussionen dazu auf der SIGGRAPH 2010, danach wurde es -für mein Gefühl- ruhig um das Thema. Ein Grund war wohl dass GPUs nicht so gut Micropolygons verarbeiten können, ohne entsprechende Anpassungen der Hardware. Ist das mit RDNA2 nun passiert?


Edit:
Ich sehe grad dass Sweeny das Thema 2009 auf der HPG (https://www.highperformancegraphics.org/previous/www_2009/presentations/TimHPG2009.pdf) auch schon angesprochen hat.

Grendizer
2020-05-13, 21:23:07
Das läuft auch auf einer 2070 Super. Wurde bereits bestätigt. Ebenfalls ausreichend ist eine derzeit handelsübliche Gen 3 NVMe SSD.


Hier mal die Quelle dazu:

https://wccftech.com/unreal-engine-5-demo-is-rendering-at-1440p-most-of-the-time-on-ps5-rtx-2070-super-could-run-it-at-pretty-good-performance/

Edit: Original https://www.pcgamer.com/unreal-engine-5-tech-demo/

Ex3cut3r
2020-05-13, 21:41:23
Mein Comment war auch eher auf die kommende Generation allgemein bezogen und nicht auf einen Titel.

Dampf
2020-05-13, 21:46:31
Mein Comment war auch eher auf die kommende Generation allgemein bezogen und nicht auf einen Titel.

Ja, aber diese Demo reizt was Texturen (8K), Streaming und Polygon-Count angeht alles aus. Das sind tatsächlich Assets und Texturen, die direkt aus der Filmproduktion importiert wurden. Richtige Spiele werden da bestimmt nicht so auf die Tube drücken.

Also zumindest was den Speicher angeht sollte man mit einer NVMe SSD und einer 8 GB VRAM Karte sehr gut klar kommen. Trotzdem kann es nicht schaden auf 32 GB RAM aufzurüsten. Es könnte eventuell sein, dass man so die fehlende Speicherbandbreite der PC SSD ausgleichen möchte.

Ex3cut3r
2020-05-13, 21:50:40
Ja, aber diese Demo reizt was Texturen (8K), Streaming und Polygon-Count angeht alles aus. Das sind tatsächlich Assets und Texturen, die direkt aus der Filmproduktion importiert wurden. Richtige Spiele werden da bestimmt nicht so auf die Tube drücken.

Also zumindest was den Speicher angeht sollte man mit einer NVMe SSD und einer 8 GB VRAM Karte sehr gut klar kommen. Trotzdem kann es nicht schaden auf 32 GB RAM aufzurüsten. Es könnte eventuell sein, dass man so die fehlende Speicherbandbreite der PC SSD ausgleichen möchte.

Sehe ich nicht so. Open World Next Gen Titel werden schon reinhauen. Wer weiß schon was uns erwartet. Ich hoffe Sie drücken auf die Tube. Ich will so eine Qualität beim nächsten Tomb Raider. 2-4GB VRAM sollten ja damals beim PS4 release auch reichen. Die Realität 1-2 Jahre später, sah anders aus.

Dampf
2020-05-13, 22:10:32
Sehe ich nicht so. Open World Next Gen Titel werden schon reinhauen. Wer weiß schon was uns erwartet. Ich hoffe Sie drücken auf die Tube. Ich will so eine Qualität beim nächsten Tomb Raider. 2-4GB VRAM sollten ja damals beim PS4 release auch reichen. Die Realität 1-2 Jahre später, sah anders aus.

Die Assets und Texturen in dieser Demo sind so groß, dass sie viel zu viel Speicher benötigen würden. Nicht VRAM, sondern Festplattenspeicher, heißt, du müsstest bei einem Spiel mit der Asset Quality wahrscheinlich mehrere hundert GB bis TB runterladen, was man seiner Kundschaft natürlich nicht zumuten kann.

https://twitter.com/gwihlidal/status/1260597164318711808

Trotzdem werden die Spiele bestimmt so aussehen, wahrscheinlich dank cleveren Kompressionsverfahren und ich vermute mal Einsparungen an der ein oder anderen Ecke. Die Asset und Texturenqualität wird massiv zunehmen, das steht außer Frage!

Raff
2020-05-13, 22:17:04
Das sieht wirklich extrem geil aus. Der Detailgrad ist Wahnsinn, vor allem wenn man's mit aktuell als "hübsch" bezeichneten Spielen vergleicht. Und die LoD-/Streaming-Systeme arbeiten zweifellos unauffällig - so, wie sich das gehört! Möchte jemand eine bis gestern wirklich schnieke RTX 2080 Ti kaufen? Nur 999 Euro! :naughty:

MfG
Raff

Radeonfreak
2020-05-13, 22:22:55
Die wird das schon stemmen, Verkauf unnötig. Hat immer noch weit mehr TF als eine PS5 .

Raff
2020-05-13, 22:24:42
Bis der Krempel live spielbar ist, lebt Turing garantiert nicht in meiner Kiste. Magst du eine zweite? :D Es ist extrem schade, dass wir keine Echtzeit-Techdemos mehr bekommen (das ist ja schon Thema eines anderen Threads). Jetzt müsste eigentlich Nvidia was Dickes raushauen - evtl. morgen? :naughty:

MfG
Raff

Grendizer
2020-05-13, 22:25:43
Aber für die Zukunft braucht man ein Board mit 2x PCI-E 4 NVME Steckplätzen.... und dann hoffen, das die 5gb/sec Dinger mit 2 Tb speicher dann irgendwann auch mal für 200 Euro das Stück verfügbar sein werden.

grizu
2020-05-13, 22:28:00
Damit bitte ein Unreal 1 Remake, oder von mir aus ein Unreal 3 :)

Radeonfreak
2020-05-13, 22:30:22
Au ja. :usweet:

Bis der Krempel live spielbar ist, lebt Turing garantiert nicht in meiner Kiste. Magst du eine zweite? :D

MfG
Raff

Nee danke. Aktuelle Planungen sehen eigentlich vor das sie noch mindestens 1 Jahr drin bleibt und irgendwann gegen eine RTX 4090 TI getauscht wird.

Dampf
2020-05-13, 22:36:53
Was ich komisch find ist, dass man immer noch kein DX12 Ultimate Support angekündigt hat. Wo bleibt der? Wo bleibt DXR 1.1, mesh shading, VRS und Sampler Feedback? Diese Features sind enorm wichtig für die nächste Generation, Epic sollte sie zügig implementieren.

w0mbat
2020-05-13, 22:40:32
Ich glaube die features sind halt doch nicht so wichtig, DX12U braucht noch 1-2 Jahre bis es wirklich am Markt angekommen ist. Zumal Vulkan eh Welten besser ist.

Raff
2020-05-13, 22:41:17
Wenn sie mit Sony einen zeitlichen Deal haben (wonach das Video klingt), wirst du da keine Microsoft-Features genannt bekommen. Nur außerhalb des Kontexts. In einem medienunwirksamen Blogpost, oder so. :D

MfG
Raff

RLZ
2020-05-13, 22:41:28
Was ich komisch find ist, dass man immer noch kein DX12 Ultimate Support angekündigt hat. Wo bleibt der? Wo bleibt DXR 1.1, mesh shading, VRS und Sampler Feedback? Diese Features sind enorm wichtig für die nächste Generation, Epic sollte sie zügig implementieren.
Epic hat ihre High-Level Vision vorgestellt. Du willst Implementierungsdetails auf API Level wissen. Das ist aber komplett irrelevant für das was vorgestellt wurde. Die UE5 wird viele verschiedenste Grafik-APIs bedienen und wird auch noch ein paar neue Generationen davon erleben.

Ex3cut3r
2020-05-13, 22:48:42
Wenn sie mit Sony einen zeitlichen Deal haben (wonach das Video klingt), wirst du da keine Microsoft-Features genannt bekommen. Nur außerhalb des Kontexts. In einem medienunwirksamen Blogpost, oder so. :D

MfG
Raff

Scheiße, jetzt wo ich das Video nochmal von Vimeo runtergeladen habe und es mir am PC mit MadVR angesehen habe, sieht jedes Spiel was ich auf der Platte momentan habe, altbacken dagegen aus. :redface: :mad:

https://abload.de/img/unbenanntv0jpe.png

Rooter
2020-05-14, 00:00:08
Bin Beeindruckt. =)Jetzt musst du dir in einem Jahr schon wieder neue Hardware kaufen! :usad:

Im Video wird von Polygonen auf Pixel-Ebene gesprochen, also quasi Micropolygone.Nein, den Begriff hast du gerade erfunden.
Der Deal ist, dass Meshes mit 1 Mrd. Polygonen automatisch auf z.B. 20 Mio. runter gerechnet werden, ohne, dass der Grafiker sich darum kümmern muss. Wundert mich ehrlich gesagt, dass das nicht schon länger passiert. Und mit AI!! :usweet:

Die Assets und Texturen in dieser Demo sind so groß, dass sie viel zu viel Speicher benötigen würden. Nicht VRAM, sondern Festplattenspeicher, heißt, du müsstest bei einem Spiel mit der Asset Quality wahrscheinlich mehrere hundert GB bis TB runterladen, was man seiner Kundschaft natürlich nicht zumuten kann.Mit halber Qualität und cleverer Kompression - die generell bei Spielen imho viel zu wenig eingesetzt wird! - wird das 2021 beherrschbar sein.

MfG
Rooter

JaniC
2020-05-14, 00:37:59
Gerade die 4K Vimeo Version geguckt.. heilige Kacke, endlich! Das letzte mal, dass mir bei Grafik die Kinnlade runtergefallen ist, ist einige Jährchen her. Gerade vor ein paar Tagen noch im Dirt 5 Thread über fehlende grafische Evolution geredet und jetzt kommt die UE5. Sind die blöden Konsolen also doch für was gut.

PS: Future of the Tomb Raider sieht echt cool aus. ;)

D4ve
2020-05-14, 00:43:54
Nein, den Begriff hast du gerade erfunden.
Ich fürchte eher nicht :freak: - der Begriff ist schon 30 Jahre alt... kam von Pixar (http://graphics.pixar.com/library/Reyes/paper.pdf).

Der Deal ist, dass Meshes mit 1 Mrd. Polygonen automatisch auf z.B. 20 Mio. runter gerechnet werden, ohne, dass der Grafiker sich darum kümmern muss. Wundert mich ehrlich gesagt, dass das nicht schon länger passiert. Und mit AI!! :usweet:
Alles cool, aber das ist für mich erstmal "nur" ein Vorverarbeitungschritt, mich interessiert, wie das die GPU schafft solche Meshes zu verarbeiten. Mein letzter Wissenstand ist, dass GPUs nicht auf die Rasterisierung solcher kleinen Polys (Polys die so groß sind wie ein Pixel) ausgelegt sind und sich daraus Geschwindigkeitsverluste ergeben. Aber vielleicht bin ich bei den aktuellen GPU-Architekturen auch einfach nicht mehr ganz auf dem Stand...

pixeljetstream
2020-05-14, 00:44:38
Auch nett die Lizenz für kommerzielle Nutzung wurde geändert und royalties werden erst ab 1 Mio $ Umsatz fällig.

Find die Demo auch sehr sehr cool. Bin gespannt wie fix die Tool Chain dafür ist und welche Restriktionen es gibt (Animation etc.)

Was die Kosten von so high Details angeht, so ist es meist nicht so schlimm weil vieles ja prozedural machbar ist und selbst jetzt die hi polygon assets mit höherer Qualität hergestellt werden als sie im Game landen. Die Kosten sind im Moment eher beim runterrechnen, bzw. manuellem nachbessern der Low poly Sachen, lods etc. Wenn das nun deutlich wegfällt, ist das top.

Rooter
2020-05-14, 00:56:26
Ich fürchte eher nicht :freak: - der Begriff ist schon 30 Jahre alt... kam von Pixar (http://graphics.pixar.com/library/Reyes/paper.pdf)Ah, okay, das kannte ich noch nicht.
Aber wo steht, dass UE5 das nutzt?

MfG
Rooter

TheAntitheist
2020-05-14, 03:56:56
Ah, okay, das kannte ich noch nicht.
Aber wo steht, dass UE5 das nutzt?

MfG
Rooter
micropolys = tesselation. Oder einfach ultra viele wie zB in Zbrush.

UE5 reduziert ja immer auf ca. 20mio polys egal wieviel man in die engine schmeißt (wurd im video gesagt)

pixeljetstream
2020-05-14, 08:30:01
Tessellation amplifiziert, das hier reduziert. Ist schon was anderes. Selbiges gilt für Reyes, was ähnlich zu tessellation ist.

basix
2020-05-14, 08:31:47
UE5 reduziert ja immer auf ca. 20mio polys egal wieviel man in die engine schmeißt (wurd im video gesagt)

Ist es nicht so, dass das jetz bei Nanite direkt proportional mit der Auflösung zusammenhängt? Bei 1440p hast du 3.7 MPixel. Somit 5x Polys pro Pixel.

Bei 1080p müssten es dann 2.1 MPixel und somit ca. 10mio Polygone sein, bei 4K entsprechend ca. 40mio Polygone.

Ravenhearth
2020-05-14, 12:52:58
Ah, okay, das kannte ich noch nicht.
Aber wo steht, dass UE5 das nutzt?

MfG
Rooter
https://www.unrealengine.com/en-US/blog/a-first-look-at-unreal-engine-5

Dampf
2020-05-14, 13:07:48
Ist es nicht so, dass das jetz bei Nanite direkt proportional mit der Auflösung zusammenhängt? Bei 1440p hast du 3.7 MPixel. Somit 5x Polys pro Pixel.

Bei 1080p müssten es dann 2.1 MPixel und somit ca. 10mio Polygone sein, bei 4K entsprechend ca. 40mio Polygone.

Ja ich glaub auch. Denn die Polygone sind ungefähr so groß wie Pixel, daher sollte das theoretisch so skalieren.

dargo
2020-05-14, 13:21:37
Vimeo-Link (https://vimeo.com/417882964) (bessere Qualität)
Link geht nicht.

https://www.unrealengine.com/en-US/blog/a-first-look-at-unreal-engine-5
Das geht. :)

Edit:
Jetzt wo ich es in 4k gesehen habe stören mich drei Sachen etwas. Grain, Motion Blur und Chromatic Aberration. Wird imho zu stark eingesetzt. Sind aber Settings die man hoffentlich abmildern bzw. deaktivieren kann. Detailgrad ist natürlich fantastisch. =)

sven2.0
2020-05-14, 13:39:41
Link geht nicht.

geht

Grendizer
2020-05-14, 13:43:55
ich komme auch nur auf die Vimeo Startseite mit dem Fetten Link ... "Hole dir Vimeo Pro"

Ravenhearth
2020-05-14, 14:42:57
Der Link scheint mal zu gehen und mal nicht... das Video ist aber auch im verlinkten Blog-Eintrag

https://www.unrealengine.com/en-US/blog/a-first-look-at-unreal-engine-5

RLZ
2020-05-14, 15:26:29
Jetzt wo ich es in 4k gesehen habe stören mich drei Sachen etwas. Grain, Motion Blur und Chromatic Aberration. Wird imho zu stark eingesetzt. Sind aber Settings die man hoffentlich abmildern bzw. deaktivieren kann. Detailgrad ist natürlich fantastisch. =)
Drei Effekte, die ich extrem mag :D
Aber natürlich kann man die immer abschalten, wenn der Entwickler die Option dazu gibt.

starfish
2020-05-14, 16:59:13
Freitag wird es zwei Techtalks von uns auf youtube geben.

Gast
2020-05-14, 17:26:15
Im Video wird von Polygonen auf Pixel-Ebene gesprochen, also quasi Micropolygone.

Was dann wohl auch kaum so in Echtzeit laufen wird, das sollte eigentlich gut skalierbar sein, es wird also mehr oder weniger einstellbar sein wie weit der Input-Mesh für die Echtzeit-Darstellung verringert wird.

Nachdem GPUs ja bekanntermaßen in Quads Rendern, wäre es extrem Ineffizient, das mit 1 Polygon/Pixel zu Rendern, da sich der Durchsatz der GPU damit vierteln würde.

Abgesehen davon würde man dann ja gar keine Texturen mehr benötigen, wenn wir jedes Polygon auf genau 1 Pixel rendern, reicht es ja jedem Poly eine solid Color zu verpassen, die der entsprechenden Textur an diesem Punkt entsprechen würde.

starfish
2020-05-14, 17:31:26
Ist es nicht so, dass das jetz bei Nanite direkt proportional mit der Auflösung zusammenhängt? Bei 1440p hast du 3.7 MPixel. Somit 5x Polys pro Pixel.

Bei 1080p müssten es dann 2.1 MPixel und somit ca. 10mio Polygone sein, bei 4K entsprechend ca. 40mio Polygone.

Ohne die spezifischen Zahlen zu kommentieren, möchte ich anmerken, dass die Polygondensity natürlich auch einstellbar ist.
(Wie auch zB. bei Raytracing reflections, die man durchaus nicht in 100% Auflösung bei 4k fahren muss. => UE 4)
Und dazu kommt noch, dass es sich nicht um Mesh Shading handelt.
Es ist also kein exklusives DX12 Feature das wir hier nutzen.

Edit: Außerdem würde ich mal in eine andere Richtung denken. Denn es ist nicht zwangsweise so, dass Nanite hier der Grund für „nur 30fps“ ist.

Dampf
2020-05-14, 17:47:48
Ohne die spezifischen Zahlen zu kommentieren, möchte ich anmerken, dass die Polygondensity natürlich auch einstellbar ist.
(Wie auch zB. bei Raytracing reflections, die man durchaus nicht in 100% Auflösung bei 4k fahren muss. => UE 4)
Und dazu kommt noch, dass es sich nicht um Mesh Shading handelt.
Es ist also kein exklusives DX12 Feature das wir hier nutzen.

Edit: Außerdem würde ich mal in eine andere Richtung denken. Denn es ist nicht zwangsweise so, dass Nanite hier der Grund für „nur 30fps“ ist.

Ah, sehr gut. Ich dachte schon, das wäre fix zur Auflösung und nicht einstellbar. Hab mir schon gedacht, wie man das dann mit Rekonstruktion aka DLSS löst.

Aber ihr nutzt Primitive Shading, nicht wahr?

"The vast majority of triangles are software rasterised using hyper-optimised compute shaders specifically designed for the advantages we can exploit," explains Brian Karis. "As a result, we've been able to leave hardware rasterisers in the dust at this specific task. Software rasterisation is a core component of Nanite that allows it to achieve what it does. We can't beat hardware rasterisers in all cases though so we'll use hardware when we've determined it's the faster path. On PlayStation 5 we use primitive shaders for that path which is considerably faster than using the old pipeline we had before with vertex shaders." https://www.eurogamer.net/articles/digitalfoundry-2020-unreal-engine-5-playstation-5-tech-demo-analysis

Ist das nicht die Sony Geometry-Engine Version von Mesh Shading? Auf RTX/PC RDNA2 und Xbox sollte das dann doch eigentlich mesh shading nutzen, oder lieg ich da falsch? Mesh shading soll angeblich wesentlich effizienter sein. Auf nicht unterstützen GPUs kann es ja dann den Fallback zu Primitive nutzen, man will ja jede GPU bestmöglich ausreizen.

Grendizer
2020-05-14, 17:52:22
Primitive Shader ist doch das, was auf der Vega als neue Renderpipeline noch massive Verbesserungen nach Release bringen sollte, aber wohl broken war, so das der nie aktiviert werden konnte.
Also funktioniert das jetzt in RDNA2 ?

https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/45513-amd-stellte-eigenen-entwicklungspfad-fuer-primitive-shader-ein.html

RLZ
2020-05-14, 20:29:46
Primitive Shader ist doch das, was auf der Vega als neue Renderpipeline noch massive Verbesserungen nach Release bringen sollte, aber wohl broken war, so das der nie aktiviert werden konnte.
Er gibt nur die Möglichkeit die 20 Jahre Geometrie-Pipeline aus Fixed Function Zeiten durch einen Compute Shader zu ersetzen.
Das führt nicht automatisch zu massiven Verbesserungen, aber kann halt auch neue zu komplett neuen Rendering-Pipelines führen. Wir werden da imo in den nächsten Jahren noch ein paar andere Ansätze sehen als das, was nun mit der UE5 vorgestellt wurde.
Also funktioniert das jetzt in RDNA2?
Wäre peinlich, wenn nicht. Schließlich will man ja auch mit DX 12 Ultimate Support werben...

Dampf
2020-05-14, 21:11:44
Er gibt nur die Möglichkeit die 20 Jahre Geometrie-Pipeline aus Fixed Function Zeiten durch einen Compute Shader zu ersetzen.
Das führt nicht automatisch zu massiven Verbesserungen, aber kann halt auch neue zu komplett neuen Rendering-Pipelines führen. Wir werden da imo in den nächsten Jahren noch ein paar andere Ansätze sehen als das, was nun mit der UE5 vorgestellt wurde.

Wäre peinlich, wenn nicht. Schließlich will man ja auch mit DX 12 Ultimate Support werben...

DX12U ist mesh shading, nicht primitive shading. Sind aber wohl sehr ähnliche Technologien, letztere ist aber deutlich moderner und performanter.
Generell scheint die UE5 aber nur die Hardware-Lösung zu nehmen, wenn sie schneller ist als die Software-Lösung. Wenn die Engine in gewissen Situationen die Hardware-Lösung bevorzugen will, dann sollte die Engine natürlich Gebrauch von den modernen Features machen, die neue Hardware bietet, u.a. Mesh Shading.

Grendizer
2020-05-14, 21:12:52
Er gibt nur die Möglichkeit die 20 Jahre Geometrie-Pipeline aus Fixed Function Zeiten durch einen Compute Shader zu ersetzen.
Das führt nicht automatisch zu massiven Verbesserungen, aber kann halt auch neue zu komplett neuen Rendering-Pipelines führen. Wir werden da imo in den nächsten Jahren noch ein paar andere Ansätze sehen als das, was nun mit der UE5 vorgestellt wurde.

Wäre peinlich, wenn nicht. Schließlich will man ja auch mit DX 12 Ultimate Support werben...


Ja, aber bei Navi war das ja kein Thema mehr.

RLZ
2020-05-14, 21:36:10
DX12U ist mesh shading, nicht primitive shading. Sind aber wohl sehr ähnliche Technologien, letztere ist aber deutlich moderner und performanter.
Mächtiger und moderner, weil man noch unbedingt einen Input braucht?
Erleuchte mich :)

pixeljetstream
2020-05-15, 00:14:36
da bin ich jetzt aber auch mal gespannt auf die Erklärung der Unterschiede von mesh vs primitive shader.

Dampf
2020-05-15, 00:44:21
Von einem developer, welcher gerade an XSX und PC Titel arbeitet:
https://twitter.com/Kirby0Louise/status/1249459281189056519

Ist ja klar, Primitive Shader sind nur auf alten AMD GPUs zu finden, Mesh Shading ist eine neue Technologie, die erst mit Turing eingeführt wurde. Die muss zweifelsfrei besser sein.

Edit: oops, ich bin vielleicht so einer... mit letztere wollt ich mich auf mesh shader beziehen, nicht primitive shader. Richtig müsste der Satz heißen: " DX12U ist mesh shading, nicht primitive shading. Sind aber wohl sehr ähnliche Technologien, erstere ist aber deutlich moderner und performanter. "

pixeljetstream
2020-05-15, 00:56:59
> DX12U ist mesh shading, nicht primitive shading. ... letztere ist aber deutlich moderner und performanter.

das "letztere" in Deinem Satz klang komisch, dachte das bezieht sich auf primitive shader

Dampf
2020-05-15, 01:03:16
> DX12U ist mesh shading, nicht primitive shading. ... letztere ist aber deutlich moderner und performanter.

das "letztere" in Deinem Satz klang komisch, dachte das bezieht sich auf primitive shader

Ja, das hab ich verdreht! Meinte eigentlich mesh shader.

Da die Ps5 mit ihrer Geometrie Engine nur Primitive Shader unterstützt, ist es logisch dass die für den Hardware Pfad von Nanite benutzt werden. Hoffe auf dem PC und XBox sinds dann die mesh shader.

Wobei ich mich frage, eventuell läuft bei der PS5 die Nanite Lösung größtenteils im Software Modus um die Nachteile der Primitve Shader auszugleichen. Auf dem PC und der XBOX könnte das eventuell vollständig in Hardware laufen, also Mesh Shading nutzen. Falls dem so wäre, könnte man sicherlich der Nanite Engine ordentlich Dampf geben. Naja, mal sehen vielleicht wird das ja im Tech Talk den Starfish erwähnt hat, erläutert.

dildo4u
2020-05-15, 07:29:35
Weitere Erklärungen von Lumen vs RayTracing etc.


iIDzZJpDlpA

DrumDub
2020-05-15, 09:20:01
Weitere Erklärungen von Lumen vs RayTracing etc.


https://youtu.be/iIDzZJpDlpA top! danke für das video.

JVC
2020-05-15, 10:01:04
Weitere Erklärungen von Lumen vs RayTracing etc.

https://youtu.be/iIDzZJpDlpA
Nice, Danke :)

Mein Englisch ist nicht wirklich gut ...
Klingt für mich in Summe so, wie wenn RT doch nicht so toll und der heilige Gral wäre.

M.f.G. JVC

dildo4u
2020-05-15, 10:04:31
Ist wie vorher RT ist genauer Lumen schneller zeigt aber mehr Artefakte.

Asaraki
2020-05-15, 10:09:50
Er sagt sinngemäss, dass RT immer noch sehr teuer ist, aber auch konkurrenzlos ist was die Qualität angeht. Lumen ist eine "Emulation" im weitesten Sinne, eine trickreiche Kombination verschiedener Verfahren um eine RT-like Bild zu erzeugen, das auf den ersten Blick vielleicht nicht einmal sehr unterschiedlich ist, aber deutlich schneller berechnet ist.

Ist schon sehr cool die Tech :)

Radeonfreak
2020-05-15, 10:09:58
Ist wie vorher RT ist genauer Lumen schneller zeigt aber mehr Artefakte.


Richtig. Nur vermutlich sieht die niemand in einem normalen Spiel.

Fragman
2020-05-15, 10:28:10
Richtig. Nur vermutlich sieht die niemand in einem normalen Spiel.

Abwarten, selbst in dem tech Video sieht man es ja schon.
Aufpoppen von Lightdetails ist eigentlich ein nogo, hat die xbx GoW Demo ja wieder schön gezeigt. UE5 Verschiebt das ganze wohl nur in eine kleinere Dimension, in der es nicht so wahrgenommen wird, hoffentlich.

RT kam für die neuen Konsolen zu spät, das kann man jetzt nach dieser Demo wohl festhalten. Man hat RT bei der Entwicklung nicht auf dem Schirm gehabt, weder bei der Hardware noch bei der Software. Man nutzt die gestiegene Leistung um das zu machen, was in UE4 noch zu kostenintensiv war.

Die Frage bleibt halt wie schon öfter erwähnt, wie es bei dynamischer geo aussieht ala Fooliage oder reflections generell und was für Artefakte uns da erwarten könnten.

JVC
2020-05-15, 10:57:50
RT kam für die neuen Konsolen zu spät, das kann man jetzt nach dieser Demo wohl festhalten.
Wie sinnvoll wäre es dann eigentlich, das NV RTX jetzt schon puscht ?
(die meisten Spiele werden doch (auch) für Konsolen entwickelt)
Oder ist RTX so simpel drauf zu setzen ?

M.f.G. JVC

pixeljetstream
2020-05-15, 10:58:07
Imo ist GI zu wichtig um auf RT allein zu setzen, damit wäre die engine nicht mehr in dem Maß skalierbar. UE5 muss ja nachwievor die Masse der Gamer erreichen können, damit brauchen sie immer lòsungen die "jetzt" für die meisten funktionieren. Das schließt eine Erweiterung mit HW RT imo nicht aus, aber das es auch ohne gehen muß ist die für ihre Kunden wichtigere Message. Daß sie es mit der ps5 zeigen halte ich für ein "Zuckerl", es geht ja mehr darum was UE5 bringt

Dampf
2020-05-15, 11:03:10
Ich frage mich, ob Lumen von RT cores profitieren könnte. Ich lese in anderen Foren, dass man für die Nutzung der RT cores zwingend BVH Beschleunigungsstrukturen aufbauen müsste. Wenn das wahr ist, könnte man das nicht mit einem Treiber Update umgehen? Lumen auf den RT Cores würde bestimmt stark beschleunigt werden, denn es nutzt ja ray marching.

Troyan
2020-05-15, 11:04:47
Naja, welche Relevanz hat das für das Jahr 2022+? iOS und Switch-Spiele werden kaum Lumen verwenden.

Es ist doch eher so, dass die Konsolen den Maßstab darstellen und der heißt, sowenig Raytracing wie möglich und soviel Compute wie vorhanden.

w0mbat
2020-05-15, 11:13:31
Wie sinnvoll wäre es dann eigentlich, das NV RTX jetzt schon puscht ?
(die meisten Spiele werden doch (auch) für Konsolen entwickelt)
Oder ist RTX so simpel drauf zu setzen ?

M.f.G. JVC
RT ist ganz sicher die Zukunft und irgendwann muss man anfangen. Ich finde das ziemlich geil von Nvidia, aber es wird noch eine ganze Weile brauchen, bis wir RT als normal ansehen werden.

pixeljetstream
2020-05-15, 11:13:40
Imo ist eher die Masse verantwortlich. Ergo wenn die Anteile der HW (Konsole und PC) mit RT Fähigkeit hoch genug ist, ist ein darauf ausgerichtetes Design damit auch profitabel. Apple baut ziemlich ordentliche GPUs denke die als negativ Beispiel zu bringen ist auch unpassend.

Fragman
2020-05-15, 11:17:11
Wie sinnvoll wäre es dann eigentlich, das NV RTX jetzt schon puscht ?
(die meisten Spiele werden doch (auch) für Konsolen entwickelt)
Oder ist RTX so simpel drauf zu setzen ?

M.f.G. JVC

Epic hat rt unterschätzt, könnte man behaupten ODER, sie hatten keine andere Wahl, da AMD nichts in dieser Richtung hatte. Möglich ist auch, das rt da war, man die specs kannte, aber die tech an dem Punkt noch nicht reif war für production, AMD nicht die Resourcen ala nv hatte, um die Software zu pushen? Keine Ahnung, da kann man wild spekulieren. Vielleicht auch, weil sich epic dachte, das diese tech sicherer ist was die abwärtskompatibilät angeht, da man die Details dann einfach runter fährt und es läuft auch noch auf einer PS4, ohne das man verschiedene Versionen vom lighting erstellen muss.

Ich würd daraus kein Signal gegen rt ableiten. Da lumion ja nicht gebaked ist, sollte es nicht so schwer sein, auf einen rt renderer umzustellen, könnt ich mir vorstellen. Aber da ist ziemlich viel Spekulation in meinen Post hier. :D

JVC
2020-05-15, 11:23:15
Imo ist GI zu wichtig um auf RT allein zu setzen, ...
..., es geht ja mehr darum was UE5 bringt
Imo ist eher die Masse verantwortlich.
Ergo wenn die Anteile der HW (PC und Konsole) mit RT Fähigkeit hoch genug ist, ist ein darauf ausgerichtetes Design damit auch profitabel.

Jo, so wird es vermutlich sein.

Dann wird die "Durchdringung" von Standardisiertem RT vermutlich noch nicht so bald stattfinden?
Das es mal die Zukunft ist, steht außer Frage.

Edit:
Vielleicht auch, weil sich epic dachte, das diese tech sicherer ist was die abwärtskompatibilät angeht,

Ich würd daraus kein Signal gegen rt ableiten. Da lumion ja nicht gebaked ist, sollte es nicht so schwer sein, auf einen rt renderer umzustellen, könnt ich mir vorstellen. Aber da ist ziemlich viel Spekulation in meinen Post hier. :D
Das könnte auch gut möglich sein.

M.f.G. JVC

pixeljetstream
2020-05-15, 11:34:19
Ich weiß nicht was du mit "standardisiertem RT" meinst. HW RT Einsatz wird zunehmen, aber bis es die Basis/Voraussetzung ist, muss der Marktanteil einfach hoch genug sein.

JVC
2020-05-15, 11:47:55
bis es die Basis/Voraussetzung ist,

Das meine ich mit Standard :)
Wann eben RT ganz normal ist und die Variante ohne RT zur Sonderlösung verkommt.

Wenn mal Alles und Jeder RT hat, spricht man eh nicht mehr soviel darüber...
(dann ist RT sowieso eine Grundvoraussetzung für 3D Spiele)

M.f.G. JVC

RLZ
2020-05-15, 13:08:05
Meine Meinung zu Lumen:
Das ist mehr als eine konkrete GI Implementierung. Epic hat in fast jedem System mehrere Fallbacks in unterschiedlicher Qualität und für unterschiedlichen Usecases. Wichtig ist für Epic auch immer, dass ihre Systeme nicht nur für einen speziellen Fall nutzbar sind. Imo wird zukünftig auch Raytracing Support geben, aber aktuell könnte die RT Leistung an anderer Stelle besser aufgehoben sein.

Zu RT und Nanite:
Aktuell wissen wir alle nicht, wie es wirklich funktioniert. Epic hat aber sicher zu den ersten Studio gehört, die von den RT Plänen wussten. Schließlich hatten sie auch Launch-Demos geliefert. Bei den 3 Jahre Entwicklungszeit von Brian für Nanite wusste sie also schon am Anfang, dass RT ein Thema wird.

Ansonsten müssen wir einfach mal auf die Erklärungen von Brian und Daniel warten.

mboeller
2020-05-15, 15:20:46
Epic hat rt unterschätzt, könnte man behaupten

was'n Schmarrn ...


Unreal Engine 5 will be available in preview in early 2021, and in full release late in 2021, supporting next-generation consoles, current-generation consoles, PC, Mac, iOS, and Android.


https://www.unrealengine.com/en-US/blog/a-first-look-at-unreal-engine-5

aufkrawall
2020-05-15, 15:26:02
Hoffentlich sieht Lumen auch abseits von typischer direktionaler Lichtquelle wie Sonne + 1-3 Bounces gescheit aus. Ich sag nur: Fortnite Interiors.

Fragman
2020-05-15, 16:09:51
was'n Schmarrn ...


Deshalb liest man auch den kompletten Kommentar und zitiert nicht Bruchstückhaft... :D

Rooter
2020-05-15, 16:44:59
Was ist eigentlich von der Aussage "infinite bounces" zu halten? Unendlich ist doch Käse, wie aufkrawall schon schrieb macht man 1-3 Bounces und fertig, mehr als 3 berücksichtigt ja nicht mal die Rendergleichung.

MfG
Rooter

Fragman
2020-05-15, 16:49:51
Was ist eigentlich von der Aussage "infinite bounces" zu halten? Unendlich ist doch Käse, wie aufkrawall schon schrieb macht man 1-3 Bounces und fertig, mehr als 3 berücksichtigt ja nicht mal die Rendergleichung.

MfG
Rooter

Da gibts Unterschiede solang genug Energie da ist, die reflektiert werden kann. Unendlich ist natürlich übertrieben, aber zumindest limitiert man nicht künstlich die Energie, die noch bouncen könnte und verliert so Helligkeit.

RLZ
2020-05-15, 17:40:34
mehr als 3 berücksichtigt ja nicht mal die Rendergleichung.
Da hast du wohl von Verständnisproblem.

Rooter
2020-05-15, 17:47:47
Da hast du wohl von Verständnisproblem.Will ich gar nicht ausschließen aber warum? Habe ich diesen Satz zu wörtlich genommen?
Sie beschreibt, wie viel Licht einen Oberflächenpunkt x von einem anderen Oberflächenpunkt x' aus erreicht. Dabei wird ein dritter Oberflächenpunkt x'' berücksichtigt, dessen Licht zunächst auf x' trifft und von dort aus nach x reflektiert wird.https://de.wikipedia.org/wiki/Rendergleichung#Formel

MfG
Rooter

pixeljetstream
2020-05-15, 18:00:21
Ja zu wörtlich, das ganze ist ja integral über alles, das ist nicht über diskrete Schritte definiert.

RLZ
2020-05-15, 18:19:31
Will ich gar nicht ausschließen aber warum? Habe ich diesen Satz zu wörtlich genommen?
Der englische Wikipedia-Artikel fasst das schön zusammen:
The rendering equation describes the total amount of light emitted from a point x along a particular viewing direction, given a function for incoming light and a BRDF.

Global gesehen wird die Lichtverteilung damit rekursiv definiert.

Jupiter
2020-05-16, 13:38:25
Drei Effekte, die ich extrem mag :D
Aber natürlich kann man die immer abschalten, wenn der Entwickler die Option dazu gibt.

Motion Blur und Tiefenunschärfe sind für ein realistisches Bild wichtig. Achromatische Aberration ist dagegen unnütz und ein billiger Effekt. Bei Filmkorn kommt es darauf an. In der Realität sehe ich besonders bei gleichfarbigen Flächen und dunklen Stellen auch ein Rauschen. Am nervigsten ist dies beim betrachten des Sternenhimmels.

Gast
2020-05-16, 14:54:19
Motion Blur und Tiefenunschärfe sind für ein realistisches Bild wichtig.


Nicht wirklich. Motion Blur entsteht automatisch, wenn man auf einen Punkt am Bildschirm starrt und sich etwas schnell vorbeibewegt, ein künstliches zusätzliches Motion Blur braucht es da nicht wirklich, insbesondere so lange wir immer noch LCDs mit den dazugehörigen Schaltzeiten verwenden.

Motion Blur bringt eigentlich hauptsächlich einen flüssigeren Bildeindruck bei niedrigen Frameraten, bzw. wenn die Frameraten zu niedrig sind, wirkt die LCD-Trägheit nicht mehr als Blur, sondern als Ghosting mehrere individuell sichtbarer Frames. Ausreichend Frames und ein Latenzarmes Display wären aber die weit bessere und vor allem realistischere Wahl, da man dann umgekehrt auch ein bewegendes Objekt scharf sehen würde, wenn man dieses mit den Augen verfolgt. Ein künstliches Motion Blur wäre da extrem unrealistisch.

Tiefenunschärfe würde nur Sinn machen, wenn man diese mit Eye-Tracking kombiniert, schließlich ist es komplett unrealistisch, dass sich das Auge nicht selbst auf den Bereich scharf stellt, auf den man gerade blickt.

Beide Effekte können das Bild cineastischer machen und aus künstlerischer Sicht auch besser, aber sie machen das Bild in jedem Fall unrealistischer.


Achromatische Aberration ist dagegen unnütz und ein billiger Effekt. Bei Filmkorn kommt es darauf an. In der Realität sehe ich besonders bei gleichfarbigen Flächen und dunklen Stellen auch ein Rauschen. Am nervigsten ist dies beim betrachten des Sternenhimmels.

Hast du Kameras als Augen? Meine Augen haben auf jeden Fall noch nie ein Rauschen erzeugt.

Es ist schon mehr als befremdlich, dass man bei Kameras mittels DSP alles versucht soweit wie möglich das Bildrauschen, sowie Abbildungsfehler der Objektive wie chromatische Aberrationen zu unterdrücken und man umgekehrt bei der syntetischen Bildberechnung gerade diese Abbildungsfehler versucht künstlich nachzuahmen.

RLZ
2020-05-16, 16:01:54
Motion Blur und Tiefenunschärfe sind für ein realistisches Bild wichtig. Achromatische Aberration ist dagegen unnütz und ein billiger Effekt. Bei Filmkorn kommt es darauf an. In der Realität sehe ich besonders bei gleichfarbigen Flächen und dunklen Stellen auch ein Rauschen. Am nervigsten ist dies beim betrachten des Sternenhimmels.
Es ist ein gewaltiger Unterschied, ob man ein Auge und eine Kamera simulieren will. Achromatische Aberration ist bei Fotos/Videos immer präsent und gibt auch Bildern/Videos einen speziellen Look. Es gibt einen guten Grund warum jedes halbwegs ernsthafte Foto/Video-Bearbeitungsprogramm etliche Parameter dazu anbietet.

x-force
2020-05-16, 16:06:49
künstlich das bild zu verschlechtern ist höchstens eine sache: kunst.

wer das bild erst teuer glätten(aa) und filtern(af) lässt, aber anschließend die qualität künstlich mindert, merkt doch die einschläge nicht mehr.

ergänzend kann man nur noch sagen, daß motion blur in der realität ebenfalls nicht existiert und damit überflüssig ist. es kaschiert maximal den hold&sample effekt des monitors.
solange die augen nicht vernünftig getrackt werden, sollte man sich mit sämtlichen effekten zurück halten, denn die software kennt vektor und fokus meiner augen nicht.

Jupiter
2020-05-16, 16:17:24
Nein. Schüttle mal deine Hand schnell vor deinen Augen und du wirst keine klare Hand sehen. Im schnell fahrendem Fahrzeug kannst du die nahen Objekte auch nicht scharf sehen. Herausgeworfene Patronenhülsen auch nicht. Tiefenschärfe ist ebenfalls realistisch. Ohne Bewegungsunschärfe sehen Bewegungen unrealistischer aus.

Es ist ein gewaltiger Unterschied, ob man ein Auge und eine Kamera simulieren will. Achromatische Aberration ist bei Fotos/Videos immer präsent und gibt auch Bildern/Videos einen speziellen Look. Es gibt einen guten Grund warum jedes halbwegs ernsthafte Foto/Video-Bearbeitungsprogramm etliche Parameter dazu anbietet.

Gute Fotographen wollen CA so weit es geht verringern. Warum sollten wir uns diesen Effekt, welchen Profis gern los los werden wollen, freiwillig antun?

x-force
2020-05-16, 16:53:34
Nein. Schüttle mal deine Hand schnell vor deinen Augen und du wirst keine klare Hand sehen. Im schnell fahrendem Fahrzeug kannst du die nahen Objekte auch nicht scharf sehen.
Herausgeworfene Patronenhülsen auch nicht. Tiefenschärfe ist ebenfalls realistisch. Ohne Bewegungsunschärfe sehen Bewegungen unrealistischer aus.


beachte meine ausführungen zu fokus und vektor des auges.

davon ab kommt der effekt automatisch, wenn du korrekt scharf renderst und abbildest.

der effekt wird nämlich durch die physiologie des menschen vorgegeben. die realität ist niemals unscharf abseits von quantenzuständen.

Gast
2020-05-16, 17:00:32
Nein. Schüttle mal deine Hand schnell vor deinen Augen und du wirst keine klare Hand sehen.

Folge mit den Augen deiner Hand und du wirst eine scharfe Hand sehen, dafür aber einen unscharfen Hintergrund.

Nachdem ein Spiel aber nicht wissen kann worauf ich gerade meinen Fokus lege ist künstlicher Motion Blur einfach nur falsch, und der natürliche Motion Blur entsteht alleine durch die Bewegung an sich, bzw. welcher Bewegung gerade meine Augen folgen.

Einzig wenn die Framerate zu gering für die darzustellende Bewegung ist, kann Motion Blur den Bildeindruck verbessern, ohne dabei aber das Bild realistischer zu machen.

da Vinci
2020-05-16, 17:28:01
...
davon ab kommt der effekt automatisch, wenn du korrekt scharf renderst und abbildest.
...

Um Motion Blur in Echtzeit darzustellen bräuchte es aber Frameraten im dreistelligen Bereich und entsprechende Ausgabegeräte. Davon sind wir bei der aktuellen Grafikqualität noch ein bisschen entfernt.

x-force
2020-05-16, 17:35:05
Um Motion Blur in Echtzeit darzustellen bräuchte es aber Frameraten im dreistelligen Bereich und entsprechende Ausgabegeräte. Davon sind wir bei der aktuellen Grafikqualität noch ein bisschen entfernt.

wie gut, daß >=144hz mittlerweile schon eher die regel, als eine ausnahme sind.
regler für die bildqualität bietet auch jedes bessere spiel.

geht schon, wenn man will.

da Vinci
2020-05-16, 17:40:42
wie gut, daß >=144hz mittlerweile schon eher die regel, als eine ausnahme sind.
regler für die bildqualität bietet auch jedes bessere spiel.

geht schon, wenn man will.

Richtig. 144 hz heißt aber auch weniger Bling Bling. Und da entscheiden sich die meisten Spieler/Entwickler dann fürs zweite und simulieren die Unschärfe.
Edit: Immer gut wenns die Option Motion Blur an aus gibt. Dann kann jeder selber entscheiden.

x-force
2020-05-16, 17:47:03
Und da entscheiden sich die meisten Spieler/Entwickler dann fürs zweite und simulieren die Unschärfe.

nur eben leider gerne an den falschen stellen


Edit: Immer gut wenns die Option Motion Blur an aus gibt. Dann kann jeder selber entscheiden.

die wahl haben ist immer gut!

starfish
2020-05-16, 20:12:11
Kollege von mir hat das auf LinkedIn geschrieben, drum kopier ich es mal hier rein:

Mesh shaders are not the main component of Nanite by any means but just a subcomponent used as a backup path for some cases. There are many other key things in Nanite that play a more fundamental role. Brian Karis (the creator of Nanite) gave more details in the following link. You can see in the answers some people say they were wrong thinking this was just mesh shaders:

https://twitter.com/BrianKaris/status/1261098487279579136

Nanite is the result of a decade of research of Brian. He wrote a first article on the topic ten years ago:
http://graphicrants.blogspot.com/2009/01/virtual-geometry-images.html

RLZ
2020-05-16, 21:24:57
Gute Fotographen wollen CA so weit es geht verringern. Warum sollten wir uns diesen Effekt, welchen Profis gern los los werden wollen, freiwillig antun?
Gute Fotografen wollen ihre Idee umsetzen. Dazu kann auch achromatische Aberration gehören. Sieht man auch in Filmen oft genug.

künstlich das bild zu verschlechtern ist höchstens eine sache: kunst.
Exakt. Das wird doch für Spiele auch immer zurecht beansprucht, dass sie Kunst sind.

aufkrawall
2020-05-16, 22:59:09
Ich stehe dann auch immer verdutzt vor dem Monitor und frage mich, was sich wohl der "Künstler" beim Einsatz dieser Effekte gedacht haben mag. :freak:
Es ist nun wirklich einfach komplett indiskutabel, solche Effekte nicht abschaltbar zu machen, nur weil man anderen seine Vision aufzwingen will.

dargo
2020-05-16, 23:14:19
Ich stehe dann auch immer verdutzt vor dem Monitor und frage mich, was sich wohl der "Künstler" beim Einsatz dieser Effekte gedacht haben mag. :freak:

Der stand bestimmt unter Drogen beim Einsatz von CA, übertriebenem MB und Grain. :ulol:

Jupiter
2020-05-17, 00:16:06
Ich stehe dann auch immer verdutzt vor dem Monitor und frage mich, was sich wohl der "Künstler" beim Einsatz dieser Effekte gedacht haben mag. :freak:
Es ist nun wirklich einfach komplett indiskutabel, solche Effekte nicht abschaltbar zu machen, nur weil man anderen seine Vision aufzwingen will.

Hubschrauberrotorblätter kann man gar nicht glasklar bei hoher Geschwindigkeit mit den eigenen Augen rotieren sehen. In The Division 2 sehen Hubschrauber ohne Bewegungsunschärfe lächerlich aus. Gleiches gilt für Kameraaufnahmen, wo die Bewegungsunschärfe bei solchen Effekten fehlt.

aufkrawall
2020-05-17, 00:25:31
Ist ein Content-Fail.

just4FunTA
2020-05-17, 04:40:23
Die ps5 demo lief wohl mit vsync.

https://redirect.viglink.com/?format=go&jsonp=vglnk_158968313140414&key=de2ccb8ca8943c06669720e0a267a9f6&libId=kaafgrx50100ag8y000MAf2fhmdmh&loc=https%3A%2F%2Fwww.neogaf.com%2Fthreads%2Fnext-gen-ps5-xsx-ot-speculation-analysis-leaks-thread.1480978%2Fpage-1948&v=1&out=https%3A%2F%2Fmobile.twitter.com%2FTimSweeneyEpic%2Fwith_replies&ref=https%3A%2F%2Fwww.neogaf.com%2Fthreads%2Fnext-gen-ps5-xsx-ot-speculation-analysis-leaks-thread.1480978%2Fpage-1947&title=Next-Gen%20PS5%20%26%20XSX%20%7COT%7C%20Speculation%2FAnalysis%2FLeaks%20Thread%20%7C %20NeoGAF&txt=https%3A%2F%2Fmobile.twitter.com%2FTimSweeneyEpic%2Fwith_replies

Fragman
2020-05-17, 09:58:30
Zumindest im Video sahen die 30 Frames relativ smooth aus. Kann ich von aktuellen UE4 Titeln bei 30 Frames, trotz Gsync, nicht behaupten, siehe Borderlands3.

Xergon
2020-05-17, 14:53:24
Augen? Meine Augen haben auf jeden Fall noch nie ein Rauschen erzeugt.

Es ist schon mehr als befremdlich, dass man bei Kameras mittels DSP alles versucht soweit wie möglich das Bildrauschen, sowie Abbildungsfehler der Objektive wie chromatische Aberrationen zu unterdrücken und man umgekehrt bei der syntetischen Bildberechnung gerade diese Abbildungsfehler versucht künstlich nachzuahmen.

Das ist primär befremdlich weil dir die praktische Erfahrung fehlt. Typischer Fall von IYI.

Einfaches Beispiel:
Sonnenuntergang, dunkelblauer Himmel, 8bit / Farbkanal, starkes Entrauschen -> sichtbares, hässliches Banding

Gleiches Bild, ebenfalls denoised, aber mit künstlichem Rauschen: Banding verschwindet.

Hat schon 3DFX früher gemacht, das berühmte "22bit Dithering" der Voodoo3 Karten um Banding-Artefakte zu minimieren.


Um tiefer Einzutauchen:
Die Wirklichkeit rauscht.
Es gibt keine Bilder und auch keine visuelle Wahrnehmung ohne Rauschen. Wenn wir dies so wahrnehmen, dann weil unser Hirn eingebaute Denoise-Filter im visuellen Cortex besitzt, genau so wie es Nachschärft, Interpoliert, Extrapoliert und Bewegungskanten verstärkt.

Fakt ist dass LichtQUANTEN Diskret übertragen werden, habe ich nun eine kurze Belichtungszeit bei wenig Licht, dann rauscht das Bild einer perfekten Kamera nicht wegen dem Sensor oder anderweiten elektronischen Unzulänglichkeiten, sondern weil nicht genügend Photonen eintreffen um ein homogenes Bild zu generieren.

Inzwischen ist die Sensortechnik so weit dass dieser Effekt das Sensorrauschen - bei entsprechender Filterung und Senselgröße - übersteigt.

aufkrawall
2020-05-17, 15:09:08
Vernünftiges temporales Dithering ist mit 8bpc-Ausgabe mit dem Auge defakto nicht zu erkennen, das hat nichts mit künstlichem Grain oder CA gemein.

Gast
2020-05-17, 16:40:51
Es gibt keine Bilder und auch keine visuelle Wahrnehmung ohne Rauschen. Wenn wir dies so wahrnehmen, dann weil unser Hirn eingebaute Denoise-Filter im visuellen Cortex besitzt, genau so wie es Nachschärft, Interpoliert, Extrapoliert und Bewegungskanten verstärkt.


Prinzipiell ja, das liegt aber nicht an irgendeiner Interpolation, sondern dass in der Realität immer mehr als genug Photonen eintreffen so dass diese nicht einzeln wahrnehmbar sind.


Fakt ist dass LichtQUANTEN Diskret übertragen werden, habe ich nun eine kurze Belichtungszeit bei wenig Licht, dann rauscht das Bild einer perfekten Kamera nicht wegen dem Sensor oder anderweiten elektronischen Unzulänglichkeiten, sondern weil nicht genügend Photonen eintreffen um ein homogenes Bild zu generieren.


Sowohl als auch, in signifikanter Teil des sichtbaren Rauschens einer Kamera kommt von der Elektronik, aber durchaus auch ein Teil einfach aus der Realität, insbesondere bei wenig Licht, da einfach nicht genug Photonen vorhanden sind.

mboeller
2020-05-17, 18:51:49
bzgl. der PS5 SSD Geschwindigkeit, würde im PC ein Raid0 Verbund helfen?

Radeonfreak
2020-05-17, 20:11:03
Ist doch gar nicht nötig.

Epic Games claims that Unreal Engine 5 Tech Demo can run with 40fps on RTX2080 notebook at 1440p

https://www.dsogaming.com/news/epic-games-claims-that-unreal-engine-5-tech-demo-can-run-with-40fps-on-rtx2080-notebook-at-1440p/

DoomGuy
2020-05-17, 23:18:17
rJpdziVFgGk
:usweet:

Rooter
2020-05-17, 23:38:48
Die Höhle in matschig nachgebaut. Toll. :uclap:

MfG
Rooter

Simon
2020-05-18, 08:40:03
Ist doch gar nicht nötig.

Epic Games claims that Unreal Engine 5 Tech Demo can run with 40fps on RTX2080 notebook at 1440p

https://www.dsogaming.com/news/epic-games-claims-that-unreal-engine-5-tech-demo-can-run-with-40fps-on-rtx2080-notebook-at-1440p/
Das Statement wurde mittlerweile zurück gezogen: https://www.pcgameshardware.de/Unreal-Engine-Software-239301/News/UE5-Techdemo-laeuft-bereits-auf-Notebooks-fluessig-1350354/

Radeonfreak
2020-05-18, 09:15:23
Vermutlich weil es stimmt. :freak:

Ansonsten frag ich mich was für Leute bei EPIC China arbeiten, die ein Video nicht von einer Demo unterscheiden können.

x-force
2020-05-18, 15:50:25
Vermutlich weil es stimmt. :freak:


wird es wohl auch.
vor allem bleiben sie die erklärung schuldig, warum ein in 30fps aufgenommenes video auf einmal mit 40fps auf einer nvidia abgespielt werden sollte :freak:

Asaraki
2020-05-18, 15:55:44
Vermutlich weil es stimmt. :freak:

Ansonsten frag ich mich was für Leute bei EPIC China arbeiten, die ein Video nicht von einer Demo unterscheiden können.

Nicht garantiert, aber halte ich auch für die wahrscheinlichste Option :D

Was klar ist :
- EPIC hat das Ding öfters auf PCs laufen lassen und wissen ganz genau wie gut das läuft

- Ich sehe absolut keinen Grund, warum das nicht heute schon auf einem Highend-PC besser laufen sollte. Übersehe ich was? Ich meine, da ist ja keiner wirklich überrascht ausser die "Konsolenfans ohne Technikwissen", die halt glaubten, dass die neue PS5 mit Highend-PCs den Boden wischt... (wie das gehen soll, ohne dass Sony 1000€ drauflegt pro Konsole ist mir aber ein Rätsel :D)

Ich wurde in ner Zockrunde gefragt, warum die das auf der PS zeigen und ich hab da schon gesagt, dass das bestimmt auf Wunsch von Sony war/irgendein Deal. Ist halt cool für Sony wenn die "geile neue Grafik" von der PS kommt, ansonsten würde EPIC sie wohl fast sicher lieber auf einem PC zeigen.... geht ja mehr ^^

Radeonfreak
2020-05-18, 15:56:00
wird es wohl auch.
vor allem bleiben sie die erklärung schuldig, warum ein in 30fps aufgenommenes video auf einmal mit 40fps auf einer nvidia abgespielt werden sollte :freak:

Pssttt...das ist ein noch geheimes Video Boost Feature der neuen Engine.

Crazy_Bon
2020-05-18, 17:34:45
Vermutlich weil es stimmt. :freak:

Ansonsten frag ich mich was für Leute bei EPIC China arbeiten, die ein Video nicht von einer Demo unterscheiden können.
Gab es nicht damals bei der UE3-Techdemo auf der PS3 auch nicht was kurioses? Dass das gezeigte Material auf einem PC lief, da es noch kein UE3 für die PS3 gab?

Distroia
2020-05-18, 21:05:13
- Ich sehe absolut keinen Grund, warum das nicht heute schon auf einem Highend-PC besser laufen sollte. Übersehe ich was?

Das vielleicht?

why PS5 and not a PC? Was it due to SSD perf?

Systems integration and whole-system performance. Bringing in data from high-bandwidth storage into video memory in its native format with hardware decompression is very efficient.

https://twitter.com/TimSweeneyEpic/status/1261424581216047111

Radeonfreak
2020-05-18, 23:56:23
Mal angenommen die Laptop Geschichte stimmt, dann lügt der Sweeney doch schon wenn er den Mund auf macht.


btw derart käufliche Menschen widern mich an.

schoppi
2020-05-19, 00:21:16
... würden dich anwiedern.

Radeonfreak
2020-05-19, 00:41:08
Ja.

Warten wir mal bis die Fakten auf dem Tisch liegen.

just4FunTA
2020-05-19, 00:52:35
vielleicht gibt es sogar recht bald infos.

https://i.imgur.com/rsd3XPD.jpg

Gauß
2020-05-19, 16:09:16
Das ist primär befremdlich weil dir die praktische Erfahrung fehlt. Typischer Fall von IYI.

Einfaches Beispiel:
Sonnenuntergang, dunkelblauer Himmel, 8bit / Farbkanal, starkes Entrauschen -> sichtbares, hässliches Banding

Gleiches Bild, ebenfalls denoised, aber mit künstlichem Rauschen: Banding verschwindet.

Hat schon 3DFX früher gemacht, das berühmte "22bit Dithering" der Voodoo3 Karten um Banding-Artefakte zu minimieren.


Um tiefer Einzutauchen:
Die Wirklichkeit rauscht.
Es gibt keine Bilder und auch keine visuelle Wahrnehmung ohne Rauschen. Wenn wir dies so wahrnehmen, dann weil unser Hirn eingebaute Denoise-Filter im visuellen Cortex besitzt, genau so wie es Nachschärft, Interpoliert, Extrapoliert und Bewegungskanten verstärkt.

Fakt ist dass LichtQUANTEN Diskret übertragen werden, habe ich nun eine kurze Belichtungszeit bei wenig Licht, dann rauscht das Bild einer perfekten Kamera nicht wegen dem Sensor oder anderweiten elektronischen Unzulänglichkeiten, sondern weil nicht genügend Photonen eintreffen um ein homogenes Bild zu generieren.

Inzwischen ist die Sensortechnik so weit dass dieser Effekt das Sensorrauschen - bei entsprechender Filterung und Senselgröße - übersteigt.Von der dunkelsten Punktquelle, die gerade noch sichtbar ist (Mag 6,5 Sterne), treffen noch immer tausend Photonen pro Sekunde die Netzhaut. Da rauscht also nichts fundamental.

Ex3cut3r
2020-05-19, 17:29:14
Was für Spannende Zeiten für jeden PCler. Ich glaube wir werden alle eine NVME SSD brauchen. Ob es unbedingt eine mit PCIe 4.0 sein muss? Zum Anfang wohl eher nicht, bei den riesigen Next Gen Open World Titeln die nicht mehr für PS4 und XBO erscheinen werden, wohl schon eher. Ist aber nur spekulativ von mir.

pixeljetstream
2020-05-19, 19:51:57
Die Gigabytes dieser Welten müssen erstmal bezahlt werden. Nicht umsonst meinte ein art director dass der detailgrad für Titel mit 30 Stunden content schon sehr sportlich wäre. Also paar Jahre sind’s noch bis die asset creation dann auch echt günstiger wird für so ein Niveau

Achill
2020-05-19, 19:58:41
Nur mal so am Rande, ich habe mir die Tweets von wangxingyu1999 (https://twitter.com/wangxingyu1999/with_replies) angeschaut. Nicht ein Tweet davor oder danach deutet auch nur an, dass er/sie Entwickler*in bei Epic ist oder generell für GPUs SW entwickelt.

Ich finde die Indizen doch eher schwach, dass der- oder diejenige dort wirklich Zugriff auf die UE5 Demo hat und es sich um die gleiche Demo wie auf der PS5 handelt. Ich denke natürlich das es möglich sein wird, auf dem PC UE5 Spiele spielen zu können ...

RLZ
2020-05-20, 12:41:43
Nur mal so am Rande, ich habe mir die Tweets von wangxingyu1999 (https://twitter.com/wangxingyu1999/with_replies) angeschaut. Nicht ein Tweet davor oder danach deutet auch nur an, dass er/sie Entwickler*in bei Epic ist oder generell für GPUs SW entwickelt.
Noch ein Gegenargument: Er/Sie ist aus Osaka und Epic Japan sitzt in Yokohama

EOVI
2020-05-20, 14:56:42
Noch ein Gegenargument: Er/Sie ist aus Osaka und Epic Japan sitzt in Yokohama
HomeOffice / Corona

starfish
2020-05-20, 22:37:03
Ja.

Warten wir mal bis die Fakten auf dem Tisch liegen.

Solltet ihr, ja.
Es gibt schon einen Grund, warum ich mich bisher zu den PC Specs nicht geäußert habe.

Tech Talk wird noch kommen, ist wie bereits gesagt verschoben.
Und ja, die PS5 SSD ist weit vor allem was am PC oder von der Konkurrenz geboten wird.
Und ja, Nanite ist, wie bereits auch schon gesagt, skalierbar über verschieden Systeme und Hardware Ausstattungen.

Damit sage ich nicht, dass diese spezielle Demo nur auf PS5 Hardware läuffähig ist.
Ich sage damit auch nicht, dass sie exakt so auf der Xbox One X laufen würde.

Und um mit noch etwas aufzuräumen:
Nein, die Demo ist kein Statement für Sony oder gegen Microsoft.
Unsere Technologien sind, wie wir es immer versuchen, Hardware unabhängig und skalierbar. (Natürlich gibt es Ausnahmen wie Raytracing etc.)
Es hat also nichts mit Politik zu tun, sondern schlicht mit dem Zeitpunkt wann ein Devkit zur Verfügung stand.

Eine SSD als Standard ist also viel eher der treibende Faktor und so ist Tim auch zu verstehen.
Der Rest ist halt dann nett gegenüber Sony zu sein.

Gast
2020-05-21, 00:10:52
Solltet ihr, ja.

Tech Talk wird noch kommen, ist wie bereits gesagt verschoben.
Und ja, die PS5 SSD ist weit vor allem was am PC oder von der Konkurrenz geboten wird.

Die SSD ist nicht so großartig viel besser.

Was die PS5 aber einzigartig macht ist ein Hardware-Entpacker im SoC zusammen mit dem dazugehörigen Format in dem die Daten auf der SSD abgelegt werden.

Die Daten des Spiels liegen immer in einem komprimierten Format vor und müssen bevor sie verwendet werden können erstmal entpackt und in eine für die GPU verwendbare Datenstruktur gebracht werden.

Das ist auch der Grund, warum man heute in Spielen kaum von einer PCIe-SSD gegenüber S-ATA profitiert und erst recht nicht von einer PCIe4.0 SSD, ganz einfach weil man durch das Entpacken der Daten großteils CPU-Limitiert ist und nicht von der Übertragungsrate des Massenspeichers.

Der SoC von der PS5 kann diese Daten aber direkt entpacken und das Ergebnis ist ein direkt von der GPU verwendbares Datenformat, das schon im richtigen Speicher liegt.

Damit hat man einerseits keine CPU-Belastung beim Laden der Daten, was insbesondere für open world bzw. Spiele die keine expliziten Ladesequenzen haben wichtig ist, da damit nebenher Daten geladen werden, während die eigentliche Spielperformance nicht beeinflusst wird.
Zusätzlich hat man weniger Latenz, weil auf dem PC ist der Datenstrom SSD -> gepackte Daten in RAM --> CPU entpackt und muss gegebenenfalls die Daten noch ins richtige Format für die GPU bringen, das alles im RAM --> Kopie der entpackten und nutzbaren Daten vom RAM in den VRAM.

Das einzige Problem was ich sehe ist, dass die SSD viel zu klein ist, weil ein vollständiges Spiel mit der Detailfülle der U5 Demo wird kaum in die 800GB reinpassen.

Dampf
2020-05-21, 00:31:48
Interessant: es gibt einen speziellen Branch von der UE4.25 der speziell für RTX und DLSS optimiert ist: https://developer.nvidia.com/unrealengine

Mich wunderts dass diese Optimierungen nicht im offiziellen UE4 Branch von Epic sind. :confused:

starfish
2020-05-21, 02:57:55
Du musst das Ganze eher als Spielwiese von Nvidia betrachten, weil der Sourcecode der Engine nunmal frei verfügbar ist.

Was macht nun Nvidia im konkreten Fall anders?
Zum einen nutzen sie ihre eigenen Algorithmen und unsere Rendering Entwickler haben eventuell andere Ideen.
Manchmal optimiert Nvidia auch auf Kosten der Qualität und Epic will diese nicht mitgehen.
Zum andren wollen wir natürlich offen bleiben.

Dampf
2020-05-21, 09:56:23
Du musst das Ganze eher als Spielwiese von Nvidia betrachten, weil der Sourcecode der Engine nunmal frei verfügbar ist.

Was macht nun Nvidia im konkreten Fall anders?
Zum einen nutzen sie ihre eigenen Algorithmen und unsere Rendering Entwickler haben eventuell andere Ideen.
Manchmal optimiert Nvidia auch auf Kosten der Qualität und Epic will diese nicht mitgehen.
Zum andren wollen wir natürlich offen bleiben.

Ja versteh ich schon, aber bei Nvidia handelt es sich um den größten Grafikvendor, kann man nicht mit denen zusammen arbeiten und die Optimierungen sowie Algos in den offiziellen UE4 branch einfügen? Die Engine wäre dann natürlich immer noch offen (der RTX branch ist ja auch open source), aber der Zugriff auf diese Optimierungen wären für Entwickler wesentlich leichter, da diese dann nicht mehr zwei Branches haben müssen. Das selbe gilt natürlich für AMD, die werden sicherlich auch einige Optimierungen für ihre Architektur parat haben. So kann die UE4 jede Architektur perfekt ausreizen, was ja der Sinn einer guten Engine ist!

Was die Bildqualität angeht, ist das nicht so dass Entwickler diese Optimierungen erst aktivieren müssen? Dann wäre das ja kein Nachteil, wenn diese einfach zur Verfügung stehen. Wer will kann sie aktivieren, wer nicht der lässt es.

Die UE4 ist klasse ohne Frage, aber wenn ich ehrlich bin, was ich bisher von der DXR Implementation gesehen hab, überzeugt mich nicht wirklich. Beispielsweise halbieren nur Reflektionen in Deliver Us To The Moon und Bright Memory die Framerate. Währenddessen gibts in Metro Exodus für 20% Performance richtig aufwendige Global Illumination. Oder in Control gibts für 40% Leistung das gesamte Reportoire an RT Effekten also Schatten, GI und Reflektionen.


Sicherlich kann es sein, dass diese Spiele irgendwo mehr an der Performance-Schraube drehen als in den UE4 Games, beispielsweise weniger bounces, geringere Auflösung der Effekte oder halt zusätzliche Optimierungen die es so nicht in der UE4 gibt, aber wenn das Endergebnis so gut aussieht wie in Control oder Metro, dann sollte man das auch machen denn sonst wird die Hardware imo unnötig belastet und die Performance leidet zu extrem.

Benutzername
2020-05-21, 14:07:32
Was für Spannende Zeiten für jeden PCler. Ich glaube wir werden alle eine NVME SSD brauchen. Ob es unbedingt eine mit PCIe 4.0 sein muss? Zum Anfang wohl eher nicht, bei den riesigen Next Gen Open World Titeln die nicht mehr für PS4 und XBO erscheinen werden, wohl schon eher. Ist aber nur spekulativ von mir.

Naja, Wird man sehen müssen wie die neuen Verfahren zum streaming der Daten auf den PC konvertiert werden in Zukunft. Am PC kann man ja mit mehr RAM auch mehr puffern als die Konsolen und mit mehr Kernen dann die Dekompression machen. Also rohe Rechengewalt und Speicher anstatt spezialisierter Dekompessionschips und sehr schneller SSD. Aber anfänglich wird es wohl besser und runder laufen auf den neuen Konsolen vermute Ich, wenn die Programmierer etwas Übung haben die neuen Verfahren zu nutzen.


---------------------------
Du musst das Ganze eher als Spielwiese von Nvidia betrachten, weil der Sourcecode der Engine nunmal frei verfügbar ist.


Also quasi wie Quake2 mit raytracing?


Was macht nun Nvidia im konkreten Fall anders?
Zum einen nutzen sie ihre eigenen Algorithmen und unsere Rendering Entwickler haben eventuell andere Ideen.
Manchmal optimiert Nvidia auch auf Kosten der Qualität und Epic will diese nicht mitgehen.
Zum andren wollen wir natürlich offen bleiben.

nVidia bevorzugt Geschwindigkeit ja traditionell vor Qualität. Von daher wudnert das nicht. Epic dürfte mittlerweile auch mit einem Auge auf den Filmmarkt blicken und da kann man mindere Bildqualität ja nicht brauchen.

aufkrawall
2020-05-21, 14:18:01
nVidia bevorzugt Geschwindigkeit ja traditionell vor Qualität.
Sorry, aber das ist FUD-Müll.

Benutzername
2020-05-21, 15:30:39
Sorry, aber das ist FUD-Müll.

War so mein Eindruck. :redface:

Troyan
2020-05-21, 15:55:45
Also quasi wie Quake2 mit raytracing?


So ähnlich. UE ist frei zugänglich uznd open source. nVidia kann relativ einfach neuere Entwicklungen und Fortschritte in eine produktive Engine einbauen ohne dauernd mit den Hersteller zusammenarbeiten zu müssen.

Radeonfreak
2020-05-21, 17:27:26
Und ja, die PS5 SSD ist weit vor allem was am PC oder von der Konkurrenz geboten wird..

Ja gut, aber was ist an dem Gerücht dran dias die SSD gar nicht so gefordert wird und nur MB weise übertragen wurde bei der Demo.

Doch nicht nur diese Angabe ist interessant, sondern auch die hochgelobte SSD der neuen Sony-Konsole soll von Epic Games China erwähnt worden sein. Diese sei von der Techdemo gar nicht ausgereizt worden, und für das Gezeigte solle bereits eine NVMe 970 SSD eine ausreichende Übertragungsgeschwindigkeit bieten. Sollte diese Angabe stimmen, würde das auch neues Licht auf den vielerorts vermuteten Nachteil der Xbox Series X bei der SSD-Geschwindigkeit werfen.

https://www.pcgameshardware.de/Unreal-Engine-Software-239301/News/UE5-Techdemo-laeuft-bereits-auf-Notebooks-fluessig-1350354/

Ex3cut3r
2020-05-21, 17:37:51
Ich glaube auch das eine Standarrd NVME mit PCIe 3.0 erstmal reichen wird, interessant wirds dann, wenn die wirklichen Next Gen Open World Games mit zig NPCs und Co. kommen werden. ;)

Aber die Anforderungen werden steigen. Ein 3700X mit leicht abgeschwächten Taktraten wird verbaut in einer Konsole für AAA 30FPS. Das heißt für den PC, schlimmstenfalls kommt du mit nem 3700X + schnellen RAM auf 45- 50FPS im CPU Limit. Gut, in 2-3 Jahren ist ein 3700X auch nicht mehr Top Neu natürlich.

DoomGuy
2020-05-21, 17:44:42
PC vs. Konsolen. Muss man sich nicht (mehr) aufregen. Die Dinger sind halt sehr sicher, was Piraterie angeht. Darum wird wohl auch von allen Seiten mehr darin investiert. Cloud wird folgen, aber sowas von.

Ex3cut3r
2020-05-21, 17:56:06
PC vs. Konsolen. Muss man sich nicht (mehr) aufregen. Die Dinger sind halt sehr sicher, was Piraterie angeht. Darum wird wohl auch von allen Seiten mehr darin investiert. Cloud wird folgen, aber sowas von.

Bist du dir da so sicher? Die PS4 wurde gecrackt. Soweit ich weiß, kann man alle Spiele bis zu einer gewissen FW (5.05) runterladen und zocken.

DoomGuy
2020-05-21, 18:06:23
Wenn das so ist, hat es aber lange gedauert ;). Wie lange dauert es heute, bis Spiel X auf dem PC gecrackt wurde?

Dampf
2020-05-21, 18:06:38
Ich glaube auch das eine Standarrd NVME mit PCIe 3.0 erstmal reichen wird, interessant wirds dann, wenn die wirklichen Next Gen Open World Games mit zig NPCs und Co. kommen werden. ;)

Aber die Anforderungen werden steigen. Ein 3700X mit leicht abgeschwächten Taktraten wird verbaut in einer Konsole für AAA 30FPS. Das heißt für den PC, schlimmstenfalls kommt du mit nem 3700X + schnellen RAM auf 45- 50FPS im CPU Limit. Gut, in 2-3 Jahren ist ein 3700X auch nicht mehr Top Neu natürlich.

Die Konsolen CPUs sind nicht bloß ein 3700X mit geringfügig geringeren clock speeds. Die haben 4x geringeren Cache und natürlich ne wesentlich geringere TDP. Noch dazu wird 1 Kern fürs OS reserviert, effektiv hast du also 7 Kerne und 14 Threads. Klar, beim PC nutzt Windows auch CPU Leistung aber guck mal in den Task-Manager wie viel Leistung Windows beansprucht. Fast nichts!

PC CPUs mit 6c/12t die vernünftig getaktet sind (4 GHz+) sollten eigentlich schon ausreichen, um mit den Konsolen mithalten zu können, zumal du die CPU eher nicht zu 100% stressen wirst, da sowieso eher die GPU in Games gefordert wird (auch wenn Games später wesentlich fordernder für die CPU werden, das wird auch dann noch wahr sein)

Sicherlich wird auch ne PCIe Gen 3 reichen. Auch wenn diese Titel kommen die du beschreibst. Kann mir aber dann vorstellen, dass mehr RAM benötigt wird. 32 GB sollten in Zukunft dann Standard werden und 16 GB minimum erforderlich.

Ich bin am Überlegen, ob eventuell auch schon eine SATA SSD ausreichen würde, wenn der PC den RAM als Puffer nutzen wird.

Ex3cut3r
2020-05-21, 18:15:42
Wenn das so ist, hat es aber lange gedauert ;). Wie lange dauert es heute, bis Spiel X auf dem PC gecrackt wurde?

Hat nicht sooo lange gedauert. Der erste gecrackte FW war von 2016. 3 Jahre nach PS4 rls. Ein halbes Jahr nach Pro Release. ;D

Ja, es gibt PC Spiele die wegen Denuvo über ein Jahr nicht geknackt worden sind, und ich rede nicht mal von den Online Only Titel.

Die Konsolen CPUs sind nicht bloß ein 3700X mit geringfügig geringeren clock speeds. Die haben 4x geringeren Cache und natürlich ne wesentlich geringere TDP. Noch dazu wird 1 Kern fürs OS reserviert, effektiv hast du also 7 Kerne und 14 Threads. Klar, beim PC nutzt Windows auch CPU Leistung aber guck mal in den Task-Manager wie viel Leistung Windows beansprucht. Fast nichts!

PC CPUs mit 6c/12t die vernünftig getaktet sind (4 GHz+) sollten eigentlich schon ausreichen, um mit den Konsolen mithalten zu können, zumal du die CPU eher nicht zu 100% stressen wirst, da sowieso eher die GPU in Games gefordert wird (auch wenn Games später wesentlich fordernder für die CPU werden, das wird auch dann noch wahr sein)

Sicherlich wird auch ne PCIe Gen 3 reichen. Auch wenn diese Titel kommen die du beschreibst. Kann mir aber dann vorstellen, dass mehr RAM benötigt wird. 32 GB sollten in Zukunft dann Standard werden und 16 GB minimum erforderlich.

Ich bin am Überlegen, ob eventuell auch schon eine SATA SSD ausreichen würde, wenn der PC den RAM als Puffer nutzen wird.
Will ich mal hoffen, dass du recht hast. :freak:

Rooter
2020-05-21, 18:46:38
Ich bin am Überlegen, ob eventuell auch schon eine SATA SSD ausreichen würde, wenn der PC den RAM als Puffer nutzen wird.Das tut der PC doch schon ewig (Dateicache).

MfG
Rooter

Hauwech
2020-05-21, 23:42:59
Ja versteh ich schon, aber bei Nvidia handelt es sich um den größten Grafikvendor, kann man nicht mit denen zusammen arbeiten und die Optimierungen sowie Algos in den offiziellen UE4 branch einfügen? Die Engine wäre dann natürlich immer noch offen (der RTX branch ist ja auch open source), aber der Zugriff auf diese Optimierungen wären für Entwickler wesentlich leichter, da diese dann nicht mehr zwei Branches haben müssen. Das selbe gilt natürlich für AMD, die werden sicherlich auch einige Optimierungen für ihre Architektur parat haben. So kann die UE4 jede Architektur perfekt ausreizen, was ja der Sinn einer guten Engine ist!

Was die Bildqualität angeht, ist das nicht so dass Entwickler diese Optimierungen erst aktivieren müssen? Dann wäre das ja kein Nachteil, wenn diese einfach zur Verfügung stehen. Wer will kann sie aktivieren, wer nicht der lässt es.

Die UE4 ist klasse ohne Frage, aber wenn ich ehrlich bin, was ich bisher von der DXR Implementation gesehen hab, überzeugt mich nicht wirklich. Beispielsweise halbieren nur Reflektionen in Deliver Us To The Moon und Bright Memory die Framerate. Währenddessen gibts in Metro Exodus für 20% Performance richtig aufwendige Global Illumination. Oder in Control gibts für 40% Leistung das gesamte Reportoire an RT Effekten also Schatten, GI und Reflektionen.


Sicherlich kann es sein, dass diese Spiele irgendwo mehr an der Performance-Schraube drehen als in den UE4 Games, beispielsweise weniger bounces, geringere Auflösung der Effekte oder halt zusätzliche Optimierungen die es so nicht in der UE4 gibt, aber wenn das Endergebnis so gut aussieht wie in Control oder Metro, dann sollte man das auch machen denn sonst wird die Hardware imo unnötig belastet und die Performance leidet zu extrem.

Nur zur Info:

Metro Exodus - 4A Games - Stand 2017: 170 Mitarbeiter (mittlerweile vielleicht mehr)
Control - Remedy Entertainment - Stand 2019: 250+ Mitarbeiter
Deliver us the Moon - Koeken Interactive - Mitarbeiter lt Webseite: 9 :freak:
Bright Memory - FYQD Personal Studio - Mitarbeiter 1 - entwickelt in seiner Freizeit! :O:freak:

Also da finde ich deine Kritik des Leistungsverlustes in Bezug auf Reflektionen in DutM und BM schon ein bisschen hart... ;(:redface:

pixeljetstream
2020-05-22, 11:37:49
Technik in eine „generische“ Engine wie ue zu verbauen vs custom ist auch ein Unterschied.

RLZ
2020-05-22, 12:38:15
Ja versteh ich schon, aber bei Nvidia handelt es sich um den größten Grafikvendor, kann man nicht mit denen zusammen arbeiten und die Optimierungen sowie Algos in den offiziellen UE4 branch einfügen?
Natürlich wird das getan. Den Nvidia Branch kann man als Prototyping sehen.
As optimizations or equivalent solution are adopted into mainline UE4, they are dropped from the RTX branches, so if an item present in RTX-4.24 is missing here, it is likely already be present in 4.25 core.

dildo4u
2020-06-13, 17:30:22
Einige neue UE Games von der PS5 Konferenz.


https://www.unrealengine.com/en-US/blog/unreal-engine-developers-shine-at-playstation-5-showcase

Badesalz
2020-06-13, 19:01:21
@dildo4u
Ich würde nie behaupten, daß ich nicht blind bin, aber mir fehlen da irgendwie die Infos, daß es dabei um UE4 geht. Außer jetzt bei Koola, der sein Twitteraccount halt Koola_UE4 nennt. Das wahrscheinlich aber eben nicht seit vorgestern...

starfish
2020-06-13, 20:19:52
@dildo4u
Ich würde nie behaupten, daß ich nicht blind bin, aber mir fehlen da irgendwie die Infos, daß es dabei um UE4 geht. Außer jetzt bei Koola, der sein Twitteraccount halt Koola_UE4 nennt. Das wahrscheinlich aber eben nicht seit vorgestern...

Naja, zum einen haben wir keinen Thread für die UE5, zum andren sind das alles UE4 Spiele, zum gegenwärtigen Zeitpunkt.

Edit:
Wen es interessiert: Am 14. Juli um 14:00 halten die Kollegen einen Vortrag mit dem Titel:

„Unreal Engine for Next-Gen Games“

Auch sehr interessant diesbezüglich:
„The Evolution of Real-Time VFX with Unreal Engine's Niagara“

https://www.unrealengine.com/en-US/events/unreal-fest-online-2020

Badesalz
2020-06-13, 21:06:39
Naja, zum einen haben wir keinen Thread für die UE5Das wundert mich schon seit Tagen, nach dem PS5 Demo :freak:

dildo4u
2020-06-14, 08:43:25
Kena ist schon im EGS Empfehlung ist eine GTX 1070,es ist aber auch ein Cross Gen Game sieht aber exzellent aus.

https://www.epicgames.com/store/en-US/product/kena-bridge-of-spirits/home


TNttnsLZtZw

gnomi
2020-06-14, 10:50:59
Sieht echt spitze aus. :up:
ist aber bestimmt UE4 bisschen besser genutzt.
Ist jedenfalls nicht das Niveau von UE5 oder Ratchet & Clank Demos Next Gen.

Rooter
2020-06-14, 11:38:03
Ja, Kena gefält mir auch. Wie ein Shrek oder Rapunzel Animationsfilm.
Ansonsten sieht Stray interessant aus, der Rest des PS5-Lineups triggert mich aber null.

MfG
Rooter

Dampf
2020-06-14, 12:01:00
Kena ist schon im EGS Empfehlung ist eine GTX 1070,es ist aber auch ein Cross Gen Game sieht aber exzellent aus.

https://www.epicgames.com/store/en-US/product/kena-bridge-of-spirits/home


https://youtu.be/TNttnsLZtZw

Ja, das sieht super aus und wirkt Next Gen.

Beeindruckend dass die Anforderungen so niedrig sind und es auch auf die PS4 kommt. Sollte dort dann wesentlich schlechter aussehen.

Ehrlich gesagt steigert das meine Erwartungen an Cross Gen. Vielleicht kann man ja doch mehr skalieren als ich dachte.

pixeljetstream
2020-06-14, 12:50:03
Die Skalierbarkeit ist eine wirtschaftliche Notwendigkeit. IMO gibt es keine Grund zur Sorge, eher Freude dass langfristig in paar Jahren dann viel neue Technik sich im Mainstream etablieren wird.

Dampf
2020-06-14, 13:05:37
Die Skalierbarkeit ist eine wirtschaftliche Notwendigkeit. IMO gibt es keine Grund zur Sorge, eher Freude dass langfristig in paar Jahren dann viel neue Technik sich im Mainstream etablieren wird.

Die Frage ist halt ob Spiele, die von Grundauf für eine Technologie, zum Beispiel SSDs entwickelt wurden, auf normalen HDDs mit der sehr langsamen Transferraten und hohen Zugriffszeiten überhaupt lauffähig sind. Ratchet und Clank beispielsweise ladet innerhalb von weniger Sekunden ganze Welten mit sehr hoch detailierten Assets, wie soll dieses Spielkonzept auf einer HDD möglich sein? Irgendwo ist halt die Grenze der Skalierbarkeit erreicht.

Das selbe kann man auch von Physik und AI behaupten, wenn das Spielkonzept für die hohe CPU-Leistung der neue Konsolen ausgelegt ist, da wird Skalierung schon schwieriger. Ein anderes Beispiel wären neue Geometrie Techniken wie Mesh Shading.

Meine Sorge ist eigentlich nur, dass Cross Gen die Qualität von zukünftigen Games behindert, immerhin muss man die alten Krücken ja noch 2 Jahre mit rumschleifen.

Eben da hat mich Kena überrascht, trotz Cross Gen sieht das Game ne Liga darüber aus, was man da sonst sieht. Die Assetqualität, das Lighting, die Draw Distance alles vom Feinsten. Ich bin sehr gespannt, wie das Spiel auf der PS4 aussieht.

pixeljetstream
2020-06-14, 15:01:30
Es ist ja nicht nur einfach SSD sondern ja noch die Steigerung. Mit Wirtschaftlichkeit meine ich aber eher die Frage wie viel Entwickler es sich leisten können exklusiv "nicht skalierbar" mit der Technik der neuen Konsolen zu entwickeln. Das werden halt in den nächsten Jahren nicht so viele sein, wie sagen wir in fünf. Deswegen sehe ich eben sowas als positiven Anschub für die Zukunft, so wie die letzten Male halt auch.

Badesalz
2020-06-14, 16:06:49
Ein anderes Beispiel wären neue Geometrie Techniken wie Mesh Shading.Mush-Shading ist eine Geometrietechnik?

danteinfernal
2020-06-14, 18:58:57
was meint ihr denn zur Architektur Visualisierung? Ich mache alles mir 3dsmax und vray... allerdings ist die ü4 natürlich mit relative eine ganz andere Kiste. Ist es denn möglich wirklich realistische Umgebungen herzustellen. Ich meine wirklich wirklich realistisch :)

BeetleatWar1977
2020-06-14, 19:26:14
was meint ihr denn zur Architektur Visualisierung? Ich mache alles mir 3dsmax und vray... allerdings ist die ü4 natürlich mit relative eine ganz andere Kiste. Ist es denn möglich wirklich realistische Umgebungen herzustellen. Ich meine wirklich wirklich realistisch :)
Wirf mal einen Blick hier rein: https://docs.unrealengine.com/en-US/Engine/Content/Importing/Datasmith/index.html

Ich hab mal nen Build gemacht:
https://drive.google.com/file/d/1z_V8o0efTcHb9IqipKQ8iySfkomXwT1t/view?usp=sharing

starfish
2020-06-14, 19:45:59
was meint ihr denn zur Architektur Visualisierung? Ich mache alles mir 3dsmax und vray... allerdings ist die ü4 natürlich mit relative eine ganz andere Kiste. Ist es denn möglich wirklich realistische Umgebungen herzustellen. Ich meine wirklich wirklich realistisch :)

Na klar. :)

https://www.unrealengine.com/en-US/blog/new-archviz-interior-rendering-sample-project-now-available

Ansonsten kannst du dir auch mal TwinMotion anschauen.
https://www.unrealengine.com/en-US/twinmotion

danteinfernal
2020-06-15, 10:41:44
Danke Danke, ja den Datasmith kenne ich. Das Sampleprojekt hatte ich mir auch gelade. Aber wie bei Twinmotion auch finde ich, bitte keine Steine werfen. Es sieht meistens doch sehr Gaming oder Comichaft aus. Ich finde es ist nicht knackig genug. Kennt ihr Beispiele von UE4 was ihr selber gemacht habt? Ich stelle mir das eher so vor: Ein Link von einer Architektur Visualisierung (https://estaterender.com/wp-content/uploads/2020/06/3d-visualisierung-architektur.jpg?f25c64&f25c64)

Ich weiß es geht immer besser, aber ich hoffe ihr wisst was ich meine.

just4FunTA
2020-06-15, 11:40:03
Seite wurde nicht gefunden

danteinfernal
2020-06-15, 11:44:32
Seite wurde nicht gefunden
komisch ok dann der normale LINK: https://estaterender.com

und das Rendering (https://estaterender.com/wp-content/uploads/2020/06/3d-visualisierung-architektur.jpg?f25c64&f25c64)

just4FunTA
2020-06-15, 11:52:41
vielleicht liegt es ja an mir aber ich sehe da nur "seite wurde nicht gefunden" wenn ich auf den Link klicke.

dildo4u
2020-06-15, 12:09:33
Ja, das sieht super aus und wirkt Next Gen.

Beeindruckend dass die Anforderungen so niedrig sind und es auch auf die PS4 kommt. Sollte dort dann wesentlich schlechter aussehen.

Ehrlich gesagt steigert das meine Erwartungen an Cross Gen. Vielleicht kann man ja doch mehr skalieren als ich dachte.
Es wurden Tonnen RTX 2060 verkauft viel höher wird man über mehrere Jahre nicht gehen für 1080p@60fps,wenn die PS5 das selbe Game nur in 1440p darstellen will ist die Mehrleistung schon komplett aufgefressen.

Badesalz
2020-06-15, 12:31:53
vielleicht liegt es ja an mir aber ich sehe da nur "seite wurde nicht gefunden" wenn ich auf den Link klicke.Das Ding ist auch offline ;)

Dampf
2020-06-15, 12:39:53
Es wurden Tonnen RTX 2060 verkauft viel höher wird man über mehrere Jahre nicht gehen für 1080p@60fps,wenn die PS5 das selbe Game nur in 1440p darstellen will ist die Mehrleistung schon komplett aufgefressen.

Was hat das mit Cross Gen zu tun?

Die RTX 2060 bzw Xbox Lockhart wird das Target der Generation für 1080p bleiben, das ist wohl wahr. Im Gegensatz zu den alten Konsolen Krücken sind das aber moderne und leistungsfähige Architekturen, d.h. die Grafik kann deutlich gesteigert werden. Solange Cross Gen aber noch ist, wird das nicht das Target sein, sondern unsere altbekannten Freunde, die GTX 770, Xbox One und Konsorten.

danteinfernal
2020-06-15, 12:43:20
Das Ding ist auch offline ;)
Hä das ist meine Seite , die ist nicht offline... Ich bekomme gerade Panik, sorry für offtopic. Wenn jemand sich mit Webseiten auskennt einfach mal pn, wenn möglich.

Badesalz
2020-06-15, 12:50:15
Ok. Sorry. Falsch ausgedrückt. Die Seite ist nicht offline, sondern nicht erreichbar =)

edit:
ROFL. Kaum geschrieben, schon geht es :ulol:

edit2:
Ist das Mädel auch gerendert? Ich sehe du hast da die nötige Begabung :wink: Ich weiß nur nie woher so junge Leute soviel Kohle für solche Anwesen nehmen sollen :wink:

Du machst das aber soweit gut, daß mir jetzt so nicht wirklich einfällt was man da unbedingt noch besser/realistischer machen müßte. Mir als Kunde würde sowas dicke reichen. Das ist weit über dem sonstigen Durchschnitt.

danteinfernal
2020-06-15, 13:11:44
Ok. Sorry. Falsch ausgedrückt. Die Seite ist nicht offline, sondern nicht erreichbar =)

edit:
ROFL. Kaum geschrieben, schon geht es :ulol:

edit2:
Ist das Mädel auch gerendert? Ich sehe du hast da die nötige Begabung :wink: Ich weiß nur nie woher so junge Leute soviel Kohle für solche Anwesen nehmen sollen :wink:

Du machst das aber soweit gut, daß mir jetzt so nicht wirklich einfällt was man da unbedingt noch besser/realistischer machen müßte. Mir als Kunde würde sowas dicke reichen. Das ist weit über dem sonstigen Durchschnitt.

Vielen lieben Dank, ja das Mädel ist auch gerendert. Liebe zum Detail :D.
Ja ich Renner auch kleine Sachen :D Ok aber nun ist bei mir Alarm weil die Seite scheint zu spinnen... Dann hab ich ja heut schön was zu tun :(

AintCoolName
2020-07-14, 14:57:05
roMYi7BU1YY

Hier neue Infos über UE4 aber auch viel zu UE5 und die UE5 Demo die vor Kurzem auf der PS5 gezeigt wurde. Eine Aussage zu Lumen besagt das aktuell nicht mehr als 30fps nicht drin sind auf next gen. Optimierung auf 60fps scheint aber möglich.

Dampf
2020-07-14, 15:26:50
Ich finds komisch, dass immer noch nicht über DX12 Ultimate gesprochen wurde.

AintCoolName
2020-07-14, 19:10:45
Das wundert mich auch. Ich kann mir kaum vorstellen das bei der Entwicklung von Unreal 5 das nicht auf DX12 Ultimate oder die neue Konsolen Hardware abgestimmt wurde. Oder umgekehrt die Konsolen Hardware wurde mit dem Wissen was Epic für Unreal plant entworfen. Aber bis jetzt ist davon nichts zu merken. Die ganzen Erklärungen gehen Null auf irgendwas ein, Klingt alles nach reiner Software Lösung.

Radeonfreak
2020-07-14, 19:16:07
Vielleicht warten Sie ja erst mal den Realease der Konsolen ab. War ja das Aushängeschild für Sony...die UE5 Demo.

Wenn Sie jetzt schon plaudern um wieviel besser das erst mit DX12U läuft ist es schlecht fürs Geschäft. :freak:

starfish
2020-07-14, 22:12:14
https://youtu.be/6xbxA8tnlbY

Das kam heute auch noch. :)

starfish
2020-07-14, 22:19:15
https://youtu.be/roMYi7BU1YY

Hier neue Infos über UE4 aber auch viel zu UE5 und die UE5 Demo die vor Kurzem auf der PS5 gezeigt wurde. Eine Aussage zu Lumen besagt das aktuell nicht mehr als 30fps nicht drin sind auf next gen. Optimierung auf 60fps scheint aber möglich.

Jein.
Die Demo wie gezeigt läuft nicht in 60fps auf Nextgen.
Ja, Lumen ist hierfür eher verantwortlich als Nanite.
Was aber eher an der Entwicklungszeit der Features und weniger an der Hardwarefähigkeit liegt.

Dampf
2020-07-15, 10:58:40
Vielleicht warten Sie ja erst mal den Realease der Konsolen ab. War ja das Aushängeschild für Sony...die UE5 Demo.

Wenn Sie jetzt schon plaudern um wieviel besser das erst mit DX12U läuft ist es schlecht fürs Geschäft. :freak:

So wirds wohl sein. Glaube kaum, dass Nanite und Lumen wirklich nur in Software laufen. Ich meine, da hat man schon RT-Beschleunigung und Mesh Shader in modernen GPUs und dann nutzt man diese nicht? Dann wäre ja die Hardware inaktiv was ja eigentlich voll die Resourcenverschwendung wäre. Da wird sich EPIC schon was einfallen lassen, um moderne Hardware voll auszureizen.

dildo4u
2020-07-15, 11:08:20
Epic braucht eine Lösung die auf ARM SOC runter skalieret gerade jetzt wo Apple anfängt auf eigene Hardware in ihren PCs zu setzten.

urpils
2020-07-15, 11:18:28
Epic braucht eine Lösung die auf ARM SOC runter skalieret gerade jetzt wo Apple anfängt auf eigene Hardware in ihren PCs zu setzten.

was heißt denn bitte "unterskaliert"? die Apple SoCs für ihre Laptops/Desktops werden hoch leistungsfähig sein - Metal hat mittlerweile auch RT-Untersützung, somit ist auch ne ordentliche GPU-Leistung zu erwarten.

dildo4u
2020-07-15, 11:32:33
Komptabilität heißt nicht Speed AMD und Nvidia Designen nicht mit Low Power im Kopf können also wesentlich verschwenderischer sein was Transistor Counts z.b für RT Hardware angeht.
Apple wird potente GPUs bringen aber niemand erwartet ernsthaft das sie ihre komplette High-End Workstation Palette vor 2022 ersetzen.

Gast
2020-07-22, 01:51:40
Komptabilität heißt nicht Speed AMD und Nvidia Designen nicht mit Low Power im Kopf können also wesentlich verschwenderischer sein was Transistor Counts z.b für RT Hardware angeht.
Apple wird potente GPUs bringen aber niemand erwartet ernsthaft das sie ihre komplette High-End Workstation Palette vor 2022 ersetzen.
Absoluter Quatsch. Bei GPUs ist weniger Verlustleistung = bessere Performance. Die zwei sind untrennbar. Das ist eigentlich bei jedem Chip so.

dildo4u
2020-08-19, 16:02:26
Der neue Tony Hawk Remaster nutzt UE 4.0 sehr erfolgreich.


R1t64YJUATE

pixeljetstream
2020-09-04, 17:21:26
https://www.twitch.tv/videos/730229146
Unreal und DLSS/RTXGI
this is propaganda

Dampf
2020-09-05, 00:37:36
Die Unreal Engine 4 scheint wohl massive Probleme mit Raytracing zu haben.

https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/galerie/3433157/

Fortnite läuft nur in 4K und 28 FPS auf einer 3080 mit RTX.

Das ist nicht akzeptierbar. Fortnite läuft selbst auf einer 2080 in 4K60 ohne Probleme. Ampere hat doppelte Leistung (seien wir mal großzügig), würde also 120 FPS machen. Dann RTX on mit allen Features, wären wir wieder bei 60 FPS, da die besten Implementierungen wie in Control die FPS halbieren (naja 40%). Control sieht wunderbar aus und hat ebenso GI, Schatten und Reflektionen. Metro, feinste GI. 20%. BF5 schöne Reflektionen, 18%.

Aber unter 30 FPS in Fortnite? Was geht hier vor sich? Entweder sind die RT Effekte unnötig hoch eingestellt (wie 100% screen resolution der RT Reflektionen oder son Quatsch) oder es ist einfach schlecht optimiert. Wäre ja nicht das erste mal dass die Framerate unverhältnismäßig den Keller runtergeht in UE4, während andere Engines RT mit Bravour meistern.

Wird echt Zeit dass die UE5 kommt.

Geldmann3
2020-09-05, 01:37:12
Naja, schwer zu sagen was da mit der UE 4 in Fortite abgeht.
Je nachdem wie realitätsnah man rendern möchte, sollten auch QHD bei 30FPS mit Raytracing schon eine Meisterleistung sein und im Prinzip ist ja nichts dagegen einzuwenden, wenn ein Spiel Ultra-Optionen bietet, die eigentlich erst von zukünftiger Hardware gestemmt werden können, es dafür aber gut in die Zukunft skaliert.

Ist natürlich auch Nvidias Geld drinne, sie wollen zeigen, dass mit DLSS Dinge möglich sind, die vorher nicht denkbar waren. Dafür wird halt so lange an der Schraube gedreht, bis es ohne DLSS unspielbar ist und mit DLSS stabil die 60FPS hält.

Ich habe viel mit Raytracing experimentiert und kann bestätigen, dass es absolute Leistungsverschwendung ist, die RT-Effekte mit mehr als 50% Screen-Resolution laufen zu lassen. Es bringt in 4k etwa +5% Optik bei -40% Performance und in 8k+TAA oder DLSS sehe ich wirklich überhaupt keinen Unterschied mehr zu half-res Beleuchtung.

Fragman
2020-09-05, 10:11:57
Meine bisherige Beobachtung;
Alles was ich bisher in der UE Engine in Verbindung mit RT gesehen hab war nicht überzeugend (ein paar Archvizvideos ausgenommen, aber die waren auch nicht Realtime, oder?).
Einfach mal ein paar Videos anschauen, in denen RT gezeigt wird im Editor. Das war völlig unbrauchbar oder da wird ein Mode genutzt, der mit den Games nichts zu tun hat?
Die Frames waren niedrig und die Qualität unterirdisch da massiv Artefakte zu sehen waren weil eine Art progressiv Mode lief?

Vielleicht kann ja mal einer der User der UE schreiben was da los ist und wie allgemein der Stand von RT in dieser Engine ist?

Von dem bisher gesehen würd ich nicht auf die Performance schließen wollen.

Dampf
2020-09-05, 10:24:52
Meine bisherige Beobachtung;
Alles was ich bisher in der UE Engine in Verbindung mit RT gesehen hab war nicht überzeugend (ein paar Archvizvideos ausgenommen, aber die waren auch nicht Realtime, oder?).
Einfach mal ein paar Videos anschauen, in denen RT gezeigt wird im Editor. Das war völlig unbrauchbar oder da wird ein Mode genutzt, der mit den Games nichts zu tun hat?
Die Frames waren niedrig und die Qualität unterirdisch da massiv Artefakte zu sehen waren weil eine Art progressiv Mode lief?

Vielleicht kann ja mal einer der User der UE schreiben was da los ist und wie allgemein der Stand von RT in dieser Engine ist?

Von dem bisher gesehen würd ich nicht auf die Performance schließen wollen.

Die Archiv Demos sind Real Time.

Abgesehen von RT hat die UE4 auch noch das Problem, dass immer noch kein DX12 Ultimate unterstützt wird. Hab schon mit ein paar Entwicklern gesprochen, die sehnsüchtig darauf warten (zum Beispiel der Bright Memory Entwickler) aber bisher kommt da nix.

Das wirkt sich natürlich auch auf Raytracing aus, DXR 1.1 Features werden noch nicht unterstützt.

DXR 1.1 ist ziemlich wichtig. Minecraft RTX wurde neulich auf DXR 1.1 geupgradet und der Performance-Zuwachs ist wirklich beachtlich.

Naja, ich will die UE4 jetzt auch nicht schlecht reden. Die ist definitiv oberste Liga und die neue DLSS und RTXGI Implementation sieht wirklich cool aus. Aber da ist noch Raum für Verbesserung!

dildo4u
2020-09-05, 11:11:47
Die werden RTX erst schneller machen wenn es für Konsole kommt das wird nästes Jahr mit dem umstiegt auf UE 5 passieren.
Für Nvidia bringt es nix wenn es gut auf Turing läuft wenn sie Ampere verkaufen wollen.

Dampf
2020-09-05, 12:44:57
Die Unreal Engine 4 scheint wohl massive Probleme mit Raytracing zu haben.

https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/galerie/3433157/

Fortnite läuft nur in 4K und 28 FPS auf einer 3080 mit RTX.

Das ist nicht akzeptierbar.

Ich muss mich selbst berichtigen. Nach dem ich einen Videovergleich gesehen hab, konnte ich teils deutlich höhere Asset-Quality und LOD sowie weitere Verbesserungen abseits von Raytracing feststellen. In meiner Erinnerung sah das Spiel deutlich beeindruckender aus, als die alte non-RTX Version.

Das macht diesen Vergleich natürlich hinfällig. Gegen solch dramatischen Unterschiede in der Grafik hab ich natürlich überhaupt nichts, lasst euer Spiel ruhig von der Leistung der Grafikkarten profitieren! Gerade stilistisch angehauchte Spiele profitieren ungemein von der verbesserten Technik.

Bin gespannt wie Raytracing in Fortnite läuft, eventuell doch besser als zuvor, schließlich waren bei all den Games die wir bisher gesehen haben, die RT Effekte in der Beta Phase.

Die werden RTX erst schneller machen wenn es für Konsole kommt das wird nästes Jahr mit dem umstiegt auf UE 5 passieren.
Für Nvidia bringt es nix wenn es gut auf Turing läuft wenn sie Ampere verkaufen wollen.

Schon möglich, denn da müssen sie optimieren, wenn die Konsolen nicht unter 1440p laufen sollen. Das Gute ist, dank der DX12U API sollte auch der PC davon profitieren.

Doch schon, denn wenn es auf Turing gut läuft, läuft es auf Ampere noch besser, dieses Ziel sollte Nvidia auch haben. Und die untere Mittelklasse GPU 2060 sowie die Laptop GPUs werden noch eine Weile auf Turing bleiben.

Was die 2060 angeht, die sollte man jetzt richtig verramschen und als RTX for everyone bepreisen. Für die meisten Leute reicht die, um ein gutes Raytracing Erlebnis in 1080p/1440p zu haben.

Kartenlehrling
2020-09-26, 13:11:14
Lieber Spät als Nie.

Chaos ersetzt standardmäßig PhysX.
Das Chaos-Physiksystem gilt jetzt als produktionsbereit und ersetzt PhysX als Standardsystem.

Physics Updates:
Chaos replaces PhysX by default. The Chaos physics system is now considered production ready, and replaces PhysX as the default system.
Chaos RBAN. With the deprecation of PhysX, Chaos Rigids, or RBAN (Rigid Body Animation Nodes), is the replacement light-weight physics simulation solution now utilized in the PhAT editor of UE4.
Users should see little change to their workflow because the existing user interface and parameters remain in place.
Chaos Cloth. By default, the Chaos Cloth solver will replace PhysX for cloth simulation in use cases ranging from mobile to high-end cinematics.
Chaos Vehicle (Experimental). By default, the Chaos Vehicle physics system will replace PhysX for developers who need real-time vehicles with real-world physics simulation.

https://forums.unrealengine.com/unreal-engine/announcements-and-releases/1814986-unreal-engine-4-26-preview

ApMGZHcgMVg

dildo4u
2020-10-06, 06:13:30
Godfall PS5 Gameplay das Game nutzt UE 4.0.

https://twitter.com/PlayGodfall/status/1271881479010869248


fRaBo-j5uTs

dargo
2020-10-06, 08:09:06
Sieht das schlecht aus. :eek: Das soll NextGen sein? :ulol:

dildo4u
2020-10-06, 08:21:16
Multiplattform Launch Game, die Knaller kommen in ein paar Jahren wie immer.
Hellblade 2 nutzt z.b UE 5 kommt deshalb vermutlich erst Ende 2021 oder noch später.


https://www.xboxdynasty.de/news/hellblade-2-senuas-saga/action-adventure-setzt-auf-unreal-engine-5/

aufkrawall
2020-10-29, 23:53:40
Das UE-TAA ist ja bei einigen verhasst, aber damit geht immerhin noch gescheit Upscaling bei <1440p Render-Auflösung. 75% RS (1080p) mit 2x CAS (da Stärke im Spiel nicht einstellbar):
https://abload.de/thumb/borderlands3_2020_10_53ket.png (https://abload.de/image.php?img=borderlands3_2020_10_53ket.png) https://abload.de/thumb/borderlands3_2020_10_rhkkk.png (https://abload.de/image.php?img=borderlands3_2020_10_rhkkk.png)

Wenn ich bedenke, wie furchtbar BF5 und HZD in nativen 1440p aussehen... :freak:

Gast
2020-10-30, 18:17:51
Das UE-TAA ist ja bei einigen verhasst, aber damit geht immerhin noch gescheit Upscaling bei <1440p Render-Auflösung. 75% RS (1080p) mit 2x CAS (da Stärke im Spiel nicht einstellbar):
https://abload.de/thumb/borderlands3_2020_10_53ket.png (https://abload.de/image.php?img=borderlands3_2020_10_53ket.png) https://abload.de/thumb/borderlands3_2020_10_rhkkk.png (https://abload.de/image.php?img=borderlands3_2020_10_rhkkk.png)


Ja toll ein Spiel im Comicstil und ohne feine Details sieht in niedriger Auflösung mit Sharpining gut aus, was für eine Überraschung.

aufkrawall
2020-10-30, 22:26:40
Der Kommentar war dir wohl zu blöd für deinen Account, oder? Kann ich nachvollziehen.

Jupiter
2020-10-30, 23:14:09
Horizon flimmrt sehr viel. Das bemerkte ich beim Erscheinen auf der PlayStation 4 sofort und komischerweise wurde das nirgens kritisiert. Die Bildqualität von Dice-Spielen litt nach Battlefront 2015 auch extrem. Ich bevorzuge ein ruhiges und filmisches Bild und hier punktet oft die UE.

aufkrawall
2020-10-30, 23:20:02
Ja, das Bild ist natürlich weiterhin sehr ruhig. Es gibt halt "nur" noch mehr Object Motion Blur und wahrnehmbaren Jitter als in nativen 1440p. Feinerer Content ändert daran nicht so viel, man sieht ja auch oben den Blur von der groben Vegetation und Gegnern deutlich.
Ist aber schon angenehm, wie die Texturen auf Entfernung mit CAS noch detailliert aussehen und es quasi kein Ringing gibt. Wird spannend, wie DL die TAA-Heuristiken noch wird verbessern können bez. der oben genannten Schwachpunkte (+ allgemein bessere Rekonstruktion).

dildo4u
2020-11-08, 04:48:58
dAQlp1ORQmg

crux2005
2020-11-08, 05:03:32
Sieht richtig gut aus. Ist das die UE4? oder wieso linkst du es hier?

dildo4u
2020-11-08, 05:07:55
Sieht richtig gut aus. Ist das die UE4? oder wieso linkst du es hier?
Ja.

Beyond the change in platform, however, Days Gone differs on the engine side. While most first-party studios within Sony have focused on home grown, in-house technology, Bend has opted to build Days Gone utilising Epic's very powerful Unreal Engine 4 - possibly a first for a major Sony first-party studio. It also presents an interesting challenge for the team and technology alike. This is a massive open world environment rivaling the density of a Far Cry game with traversal both on-foot and on-bike. While Unreal has proven very capable of delivering large scale games, there aren't many examples quite like Days Gone - and the results are fascinating.

https://www.eurogamer.net/articles/digitalfoundry-2019-days-gone-ps4-and-ps4-pro-tech-analysis

AcKPcx_EgVQ

starfish
2020-11-14, 14:00:58
Ab Minute 3:50:

https://youtu.be/03XMTFjZaUY

Radeonfreak
2020-11-14, 14:07:31
Ist ja niedlich. :redface:

Dampf
2020-11-14, 14:13:23
Das sieht unglaublich aus.

Fragt sich nur, auf welcher Hardware das in Real Time gerendert wurde. Bestimmt auf 4x 3090

Edit: Okay er sagte auf einer 3090... Das ist echt krass. Vermutlich ist das nur möglich mit dem 24 GB RAM Puffer der 3090.

Mit Sampler Feedback Streaming wäre das eventuell auch auf einer 3080 möglich!

starfish
2020-11-14, 14:32:15
Das sieht unglaublich aus.

Fragt sich nur, auf welcher Hardware das in Real Time gerendert wurde. Bestimmt auf 4x 3090

Edit: Okay er sagte auf einer 3090... Das ist echt krass. Vermutlich ist das nur möglich mit dem 24 GB RAM Puffer der 3090.

Mit Sampler Feedback Streaming wäre das eventuell auch auf einer 3080 möglich!

Unreal kann kein Multi GPU, außer ab 4.26 für ndisplay oder Lightmass Berechnung.

BlacKi
2020-11-14, 16:00:59
und dann in echten spielen tötet LoD alle details für performance^^

Dampf
2020-11-14, 16:17:02
und dann in echten spielen tötet LoD alle details für performance^^

Nicht zwangsweise. Mit Mesh Shading könnte man deutlich mehr Geometrie bzw ein deutlich feineres LOD zu einer besseren Performance liefern.

dargo
2020-11-14, 17:07:44
Das sieht unglaublich aus.

Und so ganz ohne RT-Reflections. ;)

Nette Assets... allerdings sind solche Grafik-Demos mit Vorsicht zu genießen. Da konzentriert man sich nur auf sehr wenige Meter Sichtweite. Im Prinzip ist das nichts weiter als eine schöne Cutszene. Zum Gesamtkunstwerk @Spiel gehört viel, viel mehr.

sven2.0
2020-11-14, 18:38:15
Und so ganz ohne RT-Reflections. ;)

RT ist ein wenig mehr als Reflections

Dampf
2020-11-14, 18:47:58
Und so ganz ohne RT-Reflections. ;)


Es wird wohl RT GI, Schatten und RT AO genutzt.

RT ist die Zukunft, du musst der Wahrheit ins Auge blicken. :tongue:

dargo
2020-11-14, 19:16:09
Ich spiele Games in der Gegenwart, nicht der Zukunft. ;)

Dampf
2020-11-14, 19:18:57
Ich spiele Games in der Gegenwart, nicht der Zukunft. ;)

Aber selbst die sind mittlerweile voller RT Effekte :D

dargo
2020-11-14, 19:19:15
Laufen mir aber zu langsam. ;)

Gast
2020-11-14, 20:02:18
Laufen mir aber zu langsam. ;)

Dank DLSS nicht.

Dampf
2020-11-14, 22:15:46
Laufen mir aber zu langsam. ;)

Naja es kommt halt immer drauf an wie es implementiert wurde. UE4's RT GI zerfrisst beispielsweise die Performance ohne visuell deutlichen Mehrheit, zu sehen bei Fortnite. RTXGI tut das nicht und sieht auch deutlich besser aus. Metro's GI ist auch super und ist ziemlich performant.

RT Reflektionen in Fortnite beispielsweise zerfrisst auch die Performance. In BF5 hingegen ist der Performance-Einbruch auf Medium kaum der Rede wert. Und ich hab ja auch schon eine RT GI getestet, die sogar auf Medium noch schneller läuft als die gebackene GI.

Basically, alles was keine UE4 nutzt hat in der Regel gutes und performantes RT (mir tut es leid das immer schreiben zu müssen besonders auch weil Starfish hier mitguckt aber ich bin nun mal wirklich kein Freund von UE4's RT.) Also bitte bilde dir deine Meinung nicht mit UE4 Titeln! Ich meine guck dir das mal an : https://www.youtube.com/watch?v=OloRAbCIoNw von 166 FPS auf 44 FPS in 1080p auf einer 3070, das kann nun nicht wahr sein. Und das schlimme ist, die Settings skalieren nicht mal richtig, egal ob Medium oder Ultra, sobald es an ist, killt es die FPS. DLSS kann so viel Performance Verlust nicht mehr abfedern. Keine Ahnung was man sich hier gedacht hat, vor allem weil die GI und das AO so ziemlich broken ist und nicht mal richtig funktioniert.

Aber egal, wenn wir die UE4 ausklammern, ist RT eigentlich gut optimiert, auch von Ubisoft. Wäre da nicht das CPU Limit, wären auch die RT Reflektionen in Watch Dogs super effizient.

Naja jetzt mit den neuen Konsolen wird sich da in Sachen Optimierung sehr viel tun. Alex von DF hat schon getestet, dass das abgespeckte RT der Konsolen in WDL auf einer 2060 Super schon in nativen 4K ohne DLSS mit über 30 FPS läuft. Nur eine Frage der Zeit, bis es solche Settings auch auf den PC schaffen.

-/\-CruNcher-/\-
2020-11-14, 23:55:31
Ich hoffe ehrlich wir sehen mal wieder ein ordentliches AAA Game von Epic mit ihren eigenen tech advances dieses Kinder Gebalere im Comic Still hält keiner aus ausser die Chinesischen Main Investoren die sich die Hände reiben über die User zahlen.
Es sollte keinen verwundern das die Tech hier überhaupt nicht richtig zur geltung kommt ein vergleich mit Metro ist totaler schwachsinn.

Mann kann echt nur noch auf 3rd parties hoffen bis diese Fortnite Pixar like Phase irgendwann zu ende geht zumal der still nichtmal so gut wie Pixars ist mir wird von dem Spiel brechend übel.

Dampf
2020-11-15, 00:07:21
Ich hoffe ehrlich wir sehen mal wieder ein ordentliches AAA Game von Epic mit ihren eigenen tech advances dieses Kinder Gebalere im Comic Still hält keiner aus ausser die Chinesischen Main Investoren die sich die Hände reiben über die User zahlen.
Es sollte keinen verwundern das die Tech hier überhaupt nicht richtig zur geltung kommt ein vergleich mit Metro ist totaler schwachsinn.

Naja das würde ich keinesfalls so sehen. Richtig eingesetzt, bringt die Technik gerade bei Comic Stilen auch sehr großen Mehrwert. Man sieht es ja in Epic's Render-Trailern, dass da noch sehr viel Luft nach oben ist.

Aber ja ich würde mir auch mal wieder ein neues Vorzeigespiel wünschen. Eventuell wirds ja eins geben, auf Basis der UE5.

Aber bin auch noch skeptisch was die UE5 angeht. Lumen nutzt kein hardwarebeschleunigtes Raytracing und lässt daher viel Leistung einfach ungenutzt. Nanite nutzt anscheinend nur Primitive Shader statt die besseren und schnelleren Mesh Shadern und von Sampler Feedback, DXR 1.1 und VRS hört man auch nix. Gerade die Next Gen Techniken, die kombiniert den Generationsunterschied ergeben werden, sind anscheinend nicht vorhanden.

Erst wenn die UE5 vollen DX12 Ultimate Support kriegt und Lumen durch RTXGI ersetzt wird oder mit RTXGI fusioniert, bin ich komplett auf dem Next Gen Hype Train, aber vorher bleibe ich skeptisch.

-/\-CruNcher-/\-
2020-11-15, 00:26:48
Ehh bitte nicht die sollten ihren Arsch mehr in Vulkan reinhängen als DX12 Ultimate

starfish
2020-11-15, 00:33:48
Naja das würde ich keinesfalls so sehen. Richtig eingesetzt, bringt die Technik gerade bei Comic Stilen auch sehr großen Mehrwert. Man sieht es ja in Epic's Render-Trailern, dass da noch sehr viel Luft nach oben ist.

Aber ja ich würde mir auch mal wieder ein neues Vorzeigespiel wünschen. Eventuell wirds ja eins geben, auf Basis der UE5.

Aber bin auch noch skeptisch was die UE5 angeht. Lumen nutzt kein hardwarebeschleunigtes Raytracing und lässt daher viel Leistung einfach ungenutzt. Nanite nutzt anscheinend nur Primitive Shader statt die besseren und schnelleren Mesh Shadern und von Sampler Feedback, DXR 1.1 und VRS hört man auch nix. Gerade die Next Gen Techniken, die kombiniert den Generationsunterschied ergeben werden, sind anscheinend nicht vorhanden.

Erst wenn die UE5 vollen DX12 Ultimate Support kriegt und Lumen durch RTXGI ersetzt wird oder mit RTXGI fusioniert, bin ich komplett auf dem Next Gen Hype Train, aber vorher bleibe ich skeptisch.

Bitte bedenken, dass alles was ihr über UE5 wisst, Monate alt ist.
Zudem habt ihr bis dato kein UE5 Spiel gesehen.
Lediglich die PS5 Demo von Epic direkt und auf Sony‘s Konsole gibt es unter Umständen rechtliche Probleme, wenn gleiche/ähnliche Dinge so heißen würden wie bei DX12.

Vielen Dank, dass du auf meine Gefühle achtest. Ist aber nicht notwendig.
Ich nehm die Kritik sogar sehr dankbar auf und gebe sie an meine Kollegen weiter. :smile:

Dampf
2020-11-15, 00:44:26
Bitte bedenken, dass alles was ihr über UE5 wisst, Monate alt ist.
Zudem habt ihr bis dato kein UE5 Spiel gesehen.
Lediglich die PS5 Demo von Epic direkt und auf Sony‘s Konsole gibt es unter Umständen rechtliche Probleme, wenn gleiche/ähnliche Dinge so heißen würden wie bei DX12.

Vielen Dank, dass du auf meine Gefühle achtest. Ist aber nicht notwendig.
Ich nehm die Kritik sogar sehr dankbar auf und gebe sie an meine Kollegen weiter. :smile:

Stimmt, da hast du recht, ist schon wieder ein paar Monate her und die Präsentation war in der Tat sehr auf die PS5 fokusiert.

Gut, da bin ich ja beruhigt. Danke auch, dass du die Kritik weiterleitest.:)

-/\-CruNcher-/\-
2020-11-15, 01:13:05
Ich warte ja immernoch auf das Release ;)
https://www.youtube.com/watch?v=hQlEt6XfesI

msilver
2020-11-15, 08:00:54
Finde es auch schade, daß epic selbst nichts mehr in dieser Richtung macht.