PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Echtzeit-Raytracing mit Unreal Engine, Vulkan & Linux


nikk
2017-06-05, 14:45:58
IMG zeigt Echtzeit-Raytracing in Vulkan mit der Unreal Engine:
https://www.youtube.com/watch?v=Xcf35d3z890&list=PLnOXj03cuJjmRN_Y8aN0vUH_jNbjyDXjB&index=1
https://www.imgtec.com/blog/video-ray-tracing-powervr-wizard/

"The initial stages involved adapting the engine’s render pass mechanism to perform a ray tracing scene build operation. The Vulkan ray tracing extension API makes this very easy, as the code flow required is very similar to an existing Vulkan raster render pass, requiring only wrapping the render sequence in with begin/end commands, and the use of a different Vulkan pipeline object with vertex and ray shaders instead of the regular raster shaders. We were able to reuse the existing “static mesh” geometry draw loop from the engine code, adapting it only to remove the frustum culling visibility checks, as we desired all geometry to be rendered into the ray tracing scene hierarchy."
https://www.imgtec.com/blog/unreal-engine-and-the-ray-tracing-revelation/

Angaben aus 2016 zum Verbrauch:
"Aktuell verbraucht die Gesamtlösung ohne optimiertes Energiemanagement noch rund 4,5 Watt."
https://www.computerbase.de/2016-01/powervr-gr6500-imgtec-demonstriert-ray-tracing-auf-mobile-gpu/

"2 watt PowerVR Ray Tracing mobile GPU core"
https://home.otoy.com/otoy-and-imagination-unveil-breakthrough-powervr-ray-tracing-platform/

https://pics.computerbase.de/6/9/8/7/3/article-630x354.ef6ca242.jpg


Bitte eine 200-Watt-Version davon für Desktop-PCs.https://forums.merdeka.com/images/smilies/shut-up.gif

Timbaloo
2017-06-05, 15:07:39
Hab mich schon länger gefragt wann sich bezüglich Raytracing/Pathtracing mal was tut. Ich bin gespannt :)

RLZ
2017-06-05, 15:10:30
http://i.imgur.com/2s7xzEb.gif

Hab mich schon länger gefragt wann sich bezüglich Raytracing/Pathtracing mal was tut. Ich bin gespannt
Pathtracing mit maximal einer Handvoll Strahlen pro Pixel? Viel Spaß :freak:

Screemer
2017-06-05, 15:27:10
Rod Stewart macht in gpus?

Demirug
2017-06-05, 17:10:00
http://i.imgur.com/2s7xzEb.gif


Pathtracing mit maximal einer Handvoll Strahlen pro Pixel? Viel Spaß :freak:

"Future work will include dynamic geometry, support for point lights, and a reimplementation of our hybrid single-ray soft shadow algorithm."

Für Spiele damit sowieso noch weitgehend uninteressant.

aufkrawall
2017-06-05, 17:15:10
So lange nicht bewiesen ist, dass das Ergebnis in dynamischen Szenen nicht in sich zusammen bricht, bin ich nicht sonderlich gehyped.

gravitationsfeld
2017-06-05, 17:52:48
Ich weiss nicht warum immer alle so negativ sind. Selbst wenn man nicht das ganze Bild mit Tracing rendert ist es potentiell nuetzlich fuer gescheites AO, Contact Shadows, Reflexionen, etc.

nikk
2017-06-05, 18:00:14
Dynamische Szenen hat IMG schon 2016 (https://www.youtube.com/watch?v=psDRzQw3v0o&t=90) gezeigt. Weitere sind bereits in der Playlist zu sehen.

Ich weiss nicht warum immer alle so negativ sind.

Vielleicht weil es nicht von Nvidia ist.;)

Niall
2017-06-05, 18:34:51
Öhm hier geht es doch weniger darum dass Realtime-Raytracing überhaupt geht, sondern wieviele Rays/s man mit der Lösung pro Watt schafft oder nicht? V-Ray unter 3ds Max kann bspw. mit ordentlichem GPU Unterbau und CUDA / OpenCL auch komplexe Szene in nahezu Realtime auf die Oculus Rift schieben, das ist ja 2017 keine Kunst mehr. Also mal leicht übertrieben gesprochen. Da bist Du dann nur schnell bei 2 KW. :D

RLZ
2017-06-06, 12:05:16
Ich weiss nicht warum immer alle so negativ sind. Selbst wenn man nicht das ganze Bild mit Tracing rendert ist es potentiell nuetzlich fuer gescheites AO, Contact Shadows, Reflexionen, etc.
Sobald man nicht harte Schatten oder Reflektionen auf perfekt glatten Oberfläche hat, braucht man wieder richtig viele Strahlen.

Natürlich wäre schnelleres (Ray-)Tracing an vielen Stellen nützlich, aber hier wird wieder der Heilige Gral verkauft und liefert dann nur 300 MRays/s im Best Case (5 Strahlen pro Pixel bei 30fps Full-HD)

gravitationsfeld
2017-06-06, 18:45:21
Ist mir alles bewusst. Ich will's trotzdem haben wenn es nicht viel Die-Space braucht. Es ist auf jeden Fall zehn Mal nuetzlicher als Geometry Shader oder Tesselation.

Timbaloo
2017-06-06, 19:14:55
Pathtracing mit maximal einer Handvoll Strahlen pro Pixel? Viel Spaß :freak:
Die ersten 3D-Beschleuniger waren 3D-Entschleuniger. An den Algorithmen tut sich ständig was, wird Zeit dass sich da auch hinsichtlich HW mal was tut.

Ich weiss nicht warum immer alle so negativ sind.
Imho weil die Leute mittlerweile vollkommen desillusioniert (oder degeneriert?) sind, dass sie sich mit lächerlichen "Innovationen" zufriedengeben (F/TXAA, HBM, Vulkan/DX12, 4K, ...). Teilweise sicher auch zurecht, wenn man sieht wie träge die HW- wie auch die SW-Entwickler agieren, da gibt man sich halt mit halbgarer, aufgewärmter Kacke zufrieden.

Trap
2017-06-06, 19:24:05
Raytracing-Hardware ist das Fusionskraftwerk der Computergrafik: seit Ewigkeiten abstrakt betrachtet super, praktisch immer noch nutzlos und immer hinter dem herbeifantasierten Zeitplan.

nikk
2017-06-06, 20:23:34
Natürlich wäre schnelleres (Ray-)Tracing an vielen Stellen nützlich, aber hier wird wieder der Heilige Gral verkauft und liefert dann nur 300 MRays/s im Best Case (5 Strahlen pro Pixel bei 30fps Full-HD)

Für die 300 MRays/s braucht der Chip aber nur 2 Watt. (Sogar in einem Laptop hat man also noch Reserven für mehr Takt und Chips.) Nvidia GPUs hingegen brauchen dafür etwa 100 mal soviel. Der Vorteil ist offensichtlich. Um per CUDA genauso effizient zu sein, bräuchte Nvidia einen riesigen Fertigungsvorsprung.
ASIC-Mining ist auch viel effizienter als Mining auf Nvidia-GPUs. Dass spezialisierte Schaltungen viel effizienter sind (siehe auch Videotranscodierung), sollte eigentlich bekannt sein.

Raytracing-Hardware ist das Fusionskraftwerk der Computergrafik: seit Ewigkeiten abstrakt betrachtet super, praktisch immer noch nutzlos und immer hinter dem herbeifantasierten Zeitplan.

Den 90nm-Vorgänger mit 2x50MRays/s für Workstations konnte man bereits 2013 kaufen:
"The Caustic R2500 is the full-size card for dual CPU workstations, with two RTUs and 16GB RAM and is priced at $1,495." (https://www.imgtec.com/blog/caustic-previews-r2500-and-r2100-openrl-ray-tracing-pc-boards-at-ces-2013/)

https://www.youtube.com/results?search_query=Caustic+R2500

GR6500 schafft inzwischen 6 mal soviel bei weniger als einem Zehntel Verbrauch.

aufkrawall
2017-06-06, 20:27:07
Ist es dann wirklich realistisch, dass IMG da seit Jahren an einer heißen Sache ist und AMD & Nvidia es einfach nicht hinbekommen?

gravitationsfeld
2017-06-06, 21:02:19
Ich glaube AMD und NVIDIA haben bisher einfach kein Interesse.

Raytracing-Hardware ist das Fusionskraftwerk der Computergrafik: seit Ewigkeiten abstrakt betrachtet super, praktisch immer noch nutzlos und immer hinter dem herbeifantasierten Zeitplan.
Die Offline-Rendering-Welt hat komplett umgeschwenkt. Alle benutzen Path-Tracing. Selbst Renderman hat kein Reyes mehr was jahrelang dominiert hat damit.

In recent years, the off-line rendering world has a seen a shift from multipass rasterization techniques towards single pass ray tracing, particularly for global illumination effects. PRMan's support for this has traditionally focused on distribution ray tracing and the physically plausible framework is built with distribution ray tracing in mind.


Es ist nur eine Frage der FLOPS, ab einem bestimmten Punkt ist es ineffizienter mit Rasterizing und Tricks rumzupfuschen als es einfach zu tracen. Spiele haben jetzt schon damit zu kaempfen das Dreiecke immer kleiner werden und Rasterizing ineffizienter wird.

RLZ
2017-06-06, 21:15:11
Für die 300 MRays/s braucht der Chip aber nur 2 Watt. (Sogar in einem Laptop hat man also noch Reserven für mehr Takt und Chips.) Nvidia GPUs hingegen brauchen dafür etwa 100 mal soviel.
Dafür tun sie auch noch viel mehr. Wenn du nicht grade AO berechnen willst, musst du ja pro Ray auch noch ein Fragment shaden. Das ist bei Raytracing wegen wesentlich schlechtere Cache Hit Rate sogar noch teurer als beim Rasterisierer.

anorakker
2017-06-06, 23:29:34
Seit 20 Jahren seh ich da eine statische Tech-Demo nach der anderen, Spiegelsachen ftw!!!11elf gefühlt ist das immer noch das hier:

-yJNGwIcLtw

Fragman
2017-06-07, 11:15:18
Dafür tun sie auch noch viel mehr.

jup, sie stellen das ganze ecosystem zur verfuegung.

nv arbeitet doch an den problemen die hier garnicht zur sprache kommen. normalerweise musst du beim pt die daten alle im speicher halten. gut, texturen kann man streamen, aber wirklich massen an daten brauchen auch massen an ram. die reine rays/pixel angabe allein bringt da nicht viel.


interessant waere es auch zu wissen wie gut diese chiploesung skaliert, entweder als multichip (was das problem der datenmengen bei der kommunikation mit sich bringt) oder eben den chip um den faktor 10 aufblasen, ob das so einfach geht?

Niall
2017-06-07, 14:17:20
Die Offline-Rendering-Welt hat komplett umgeschwenkt. Alle benutzen Path-Tracing. Selbst Renderman hat kein Reyes mehr was jahrelang dominiert hat damit.

Wut? So ein Blödsinn. Path Tracing gehört zu Ray Tracing! Ray Tracing ist der Oberbegriff wenn man so will. Rays are indeed not dead. :whisper:

EDIT:
Vor allem steht es selbst auf der RENDERMAN Site selbst: »… RenderMan has been completely modernized, with a state-of-the-art ray tracing architecture. …«

gravitationsfeld
2017-06-07, 16:34:46
Du hast mich nicht verstanden. Renderman war ein Micro-Poly-Rasterizer (Reyes) seit Ewigkeiten. Den Raytracer (RIS) gibt es erst seit kurzer Zeit und ist in der letzten Version die einzige Option.

Alles andere (Vray, Arnold, etc.) ist auch path tracing. Niemand rastert mehr.

Ich sehe nicht ein, warum die Gründe dafür nicht auch im Realtime-Bereich in Zukunft zu tragen kommen werden.

Niall
2017-06-07, 18:00:57
Du hast mich nicht verstanden. Renderman war ein Micro-Poly-Rasterizer seit Ewigkeiten. Den Raytracer (RIS) gibt es erst seit kurzer Zeit und ist in der letzten Version die einzige Option.

Alles andere (Vray, Arnold, etc.) ist auch path tracing. Niemand rastert mehr.

Ich sehe nicht ein, warum die Gründe dafür nicht auch im Realtime-Bereich in Zukunft zu tragen kommen werden.

... und Du mich offenbar nicht. :D
Path Tracing ist "nur" eine Evolution des Ray Tracings und damit quasi immer noch Ray Tracing. Du vermengst hier irgendwie Realtime und Offline Techniken oder wir verwenden unterschiedliche Termini. Ray Tracing wird im Offline Rendering seit Jahrzehnten gefahren, mit einigen wenigen Ausnahmen und in Kombination anderer Techniken. Und das immer noch. Sei es Mental Ray, Maxwell, V-Ray, Arnold. Allesamt Ray Tracer die auch Path Tracing nutzen.

gravitationsfeld
2017-06-07, 18:10:29
Wo bestreite ich denn das Path Tracing eine Evolution von Raytracing ist? WTF? Wo liest du das denn aus meinen Posts raus?

Renderman war KEIN Raytracing. Es war Micropoly-Rendering (Reyes). Das ist der Punkt. Sie haben es aufgegeben weil es mehr Probleme gemacht hat als einfach alles zu tracen.

Niall
2017-06-07, 18:37:04
Wo bestreite ich denn das Path Tracing eine Evolution von Raytracing ist? WTF? Wo liest du das denn aus meinen Posts raus?

Renderman war KEIN Raytracing. Es war Micropoly-Rendering (Reyes). Das ist der Punkt. Sie haben es aufgegeben weil es mehr Probleme gemacht hat als einfach alles zu tracen.

Du hast da V-Ray und Arnold mit reingezogen die schon immer Raytracer waren. Dass Du dich nur auf Renderman und dessen alten Unterbau beziehst, ist – zumindest bei mir – nicht ganz durchgekommen. :D

gravitationsfeld
2017-06-07, 18:46:41
Was ist an "Selbst Renderman hat kein Reyes mehr" so schwer zu verstehen :rolleyes:

Okay, war vielleicht undeutlich. Alles andere war schon immer Raytracing, hatte aber nie den grossen Marktanteil wie Renderman weil es zu langsam war. Und Arnold ist ja erst ein paar Jahre alt.

nikk
2017-06-07, 19:28:47
Ist es dann wirklich realistisch, dass IMG da seit Jahren an einer heißen Sache ist und AMD & Nvidia es einfach nicht hinbekommen?

Konzerne sind nicht unfehlbar.
Es soll sogar vorkommen, dass Konzerne Fehlentscheidungen treffen, die Millionen- (https://www.heise.de/newsticker/meldung/Entschaedigung-fuer-GeForce-GTX-970-Nvidia-zahlt-gesteht-aber-keine-Fehler-ein-3282566.html) und Milliardenschäden (http://www.businessinsider.de/intel-kills-its-next-smartphone-and-tablet-chips-2016-5) bis hin zur Pleite (3dfx) zur Folge haben.
Die Quasi-Monopolkonzerne Nvidia, der VW unter den Halbleiter-Konzernen (https://blogs.nvidia.com/blog/2015/02/24/gtx-970/), und Intel treten zwecks Profitmaximierung seit Jahren auf die Innovationsbremse und investieren nur das Nötigste, um ihre bisherigen R&D-Investitionen nicht zu entwerten. Stattdessen wird lieber in Marketing investiert und durch illegale Praktiken und Gimpworks die Konkurrenz behindert. AMD fehlen sowieso die Mittel - nicht zuletzt wegen illegaler Intel-Praktiken.


Dafür tun sie auch noch viel mehr. Wenn du nicht grade AO berechnen willst, musst du ja pro Ray auch noch ein Fragment shaden. Das ist bei Raytracing wegen wesentlich schlechtere Cache Hit Rate sogar noch teurer als beim Rasterisierer.

Du hast da etwas falsch verstanden. Es ging dabei nicht um Raytracing vs. Rasterizing, sondern um Raytracing mit dedizierter HW vs. CUDA-GPGPU-Raytracing.
Du ignorierst außerdem die Flexibilität des PowerVR-Chips. GR6500 beherrscht Rasterizing, Raytracing und Hybrid-Rendering in HW.

Demo mit OpenRL:
"OpenRL Hybrid Example"
https://community.imgtec.com/developers/powervr/openrl-sdk/

Ein dritter (dedicated) GPU-Anbieter wäre gut für alle - insbesondere für die zur Zeit abkassierten Nvidia-Fans und als sparsamere und schnellere (https://www.youtube.com/watch?v=ND96G9UZxxA&t=2m) Alternative für >1KW-Rendering-Workstations. Am sinnvollsten wäre am Anfang der Einsatz der PowerVR-Chips in Laptops, da es sich schließlich um Low-Power-GPUs handelt, die für den mobilen Einsatz entwickelt wurden.

RLZ
2017-06-07, 20:49:14
Du hast da etwas falsch verstanden. Es ging dabei nicht um Raytracing vs. Rasterizing, sondern um Raytracing mit dedizierter HW vs. CUDA-GPGPU-Raytracing.
Hier wird doch ein Mobile Design vermarktet.
Wieviele Raytracing CUDA Anwendungen auf mobilen Plattformen kennst du denn?

Du ignorierst außerdem die Flexibilität des PowerVR-Chips. GR6500 beherrscht Rasterizing, Raytracing und Hybrid-Rendering in HW.
jack of all trades, master of none :D

Raytracing hat die Angewohnheit, dass der Anteil der Primärstrahlen sehr gering wird, wenn man wirklich Vorteile aus dem Raytracing ziehen will und dann deren Rechenzeitanteil irrelevant wird. Hybrid Rendering kann man sicherlich noch sinnvoller machen, als das die OpenRL Demos zeigen, aber den grundsätzlichen Sinn habe ich da schon immer in Frage gestellt.

Ein dritter (dedicated) GPU-Anbieter wäre gut für alle
Wird nur mittelfristig nicht passieren.

gravitationsfeld
2017-06-07, 20:56:36
Hybrid Rendering kann man sicherlich noch sinnvoller machen, als das die OpenRL Demos zeigen, aber den grundsätzlichen Sinn habe ich da schon immer in Frage gestellt.
Ach so? Hast du? Geile Einstellung.

Was ist denn dein Ersatz fuer Screen Space Reflexionen? Das ist naemlich ziemlich ghetto im Moment. Es gibt Erweiterungen mit mehreren Layern und Rendern ausserhalb des Viewports aber irgendwann wird es laecherlich lahm. Gleiches Problem mit AO.

Was ist mit Transparenz? Sortieren, OIT mit Linked Lists oder McQuire sind entweder lahm ohne Ende oder haben Artefakte. Ich garantiere dir dass ein HW-Tracer allein fuer den Use-Case jetzt schon schneller waere und bessere Qualitaet liefern wuerde.

Wenn man Qualitaet natuerlich nicht verbessern will kann man damit noch Jahre leben, schon klar.

RLZ
2017-06-07, 21:04:22
Was ist denn dein Ersatz fuer Screen Space Reflexionen? Das ist naemlich ziemlich ghetto im Moment. Es gibt Erweiterungen mit mehreren Layern und Rendern ausserhalb des Viewports aber irgendwann wird es laecherlich.
ScreenSpace Reflections sind ja schon Raytracing. Mehrere Layer erhöht nur die Menge die möglichen Intersection Geometrie.
Ich hab gehört, es gibt Rendering Verfahren, die werden sogar günstiger, wenn die Unschärfe bei Depth of Field, Reflektionen, Schatten, etc. steigt. Raytracing tut das aber leider nicht :P

Was ist mit Transparenz? Sortieren, OIT mit Linked Lists oder McQuire sind entweder lahm ohne Ende oder haben Artefakte.
Da gibts viele Varianten. Das Alpha-Sorting über Raytracing zu lösen ist aber arschteuer. Bei jedem Intersect muss man einen neuen Strahl spawnen. Da kommst du mit den 300 Millionen/Sekunde aber nicht mehr sehr weit...

gravitationsfeld
2017-06-07, 22:45:12
Es ist nicht teurer als linked list OIT und alles andere ist Pfusch.

RLZ
2017-06-08, 09:34:01
Es ist nicht teurer als linked list OIT und alles andere ist Pfusch.
Ja du hast recht. Ich muss dann mal für die Grafikrevolutions-Party einkaufen gehn. :weg:

iuno
2017-06-08, 13:26:43
Ist es dann wirklich realistisch, dass IMG da seit Jahren an einer heißen Sache ist und AMD & Nvidia es einfach nicht hinbekommen?
Ist es denn nicht so, dass man das ueber Konsolen einfuehren muesste, um ueberhaupt auch nennenswertes Interesse bei Entwicklern zu bekommen?

gravitationsfeld
2017-06-08, 17:31:58
Ja du hast recht. Ich muss dann mal für die Grafikrevolutions-Party einkaufen gehn. :weg:
Betonkopf. Ich habe nichts von einer "Revolution" gesagt. Ich sage, dass es nuetzlich waere zusaetzlich zum Rasterizer Raytracing-Hardware in den Chips zu haben.

Ich rede auch nicht von dem popligen ImgTec-Zeug. NVIDIA und AMD wuerden da schon groessere Geschuetze auffahren.

nikk
2017-06-08, 18:26:09
Hier wird doch ein Mobile Design vermarktet.

Dessen RTE auf der Caustic R2500 für Workstations basiert und auch für Blender, OctaneRender(+Cloud) usw. genutzt werden kann.


Wieviele Raytracing CUDA Anwendungen auf mobilen Plattformen kennst du denn?


Den Anwendungen ist es egal, ob sie auf einem Laptop oder Desktop laufen.
http://www.nvidia.de/page/quadrofx_go.html


jack of all trades, master of none :D


Schönes Eigentor. Genau das ist der Nachteil von GPGPU (GP=General Purpose) gegenüber dedizierter Hardware.


Raytracing hat die Angewohnheit, dass der Anteil der Primärstrahlen sehr gering wird, wenn man wirklich Vorteile aus dem Raytracing ziehen will und dann deren Rechenzeitanteil irrelevant wird. Hybrid Rendering kann man sicherlich noch sinnvoller machen, als das die OpenRL Demos zeigen, aber den grundsätzlichen Sinn habe ich da schon immer in Frage gestellt.

Wird nur mittelfristig nicht passieren.

Du ignorierst die gezeigten Demos, die Leistungssteigerung durch mehrere Chips und verstehst noch immer nicht den Vorteil dedizierter Hardware. ASIC-Mining ist auch viel effizienter als Mining auf Nvidia-GPUs. Dass spezialisierte Schaltungen viel effizienter sind, sollte dir eigentlich bekannt sein (siehe auch Videotranscodierung).

gravitationsfeld
2017-06-20, 05:55:24
http://www.highperformancegraphics.org/2017/program/

13/18 papers sind über Raytracing.

RLZ
2017-06-20, 11:42:50
http://www.highperformancegraphics.org/2017/program/

13/18 papers sind über Raytracing.
4 von 6 gegebenen Topics enthalten Raytracing
Fast alle Chairs aus dem Raytracing Bereich.
Intel als Hauptsponsor "pusht" seit fast 2 Jahrzehnten Raytracing

Das ist eine kleine Veranstaltung von der Raytracing Community für die Raytracing Community. War sie schon immer.

Ganon
2017-06-20, 12:25:14
Auch wenn man jetzt mal annimmt, dass man mit einem ASIC/FPGA die Performance von 1h/Bild auf 30 Bilder/s beschleunigen könnte, so hat man doch immer noch das Problem, dass einem schlecht beleuchtete bzw. dunkle Szenen einfach nur das Bild zerstören würden, wie im echten Leben auch. Das wäre (wie bei einer echten Kamera auch) doch nur ein großer krissliger Brei der da entstehen würde.

Dann müsste man auch wieder die Schummelei anfangen und wäre dann im Endeffekt wieder in der gleichen Situation, nur von der anderen Seite aus gesehen.

Timbaloo
2017-06-20, 12:37:26
Dann müsste man auch wieder die Schummelei anfangen und wäre dann im Endeffekt wieder in der gleichen Situation, nur von der anderen Seite aus gesehen.
Ich glaube es macht einen deutlichen Unterschied ob man beim Rendern des Content "schummelt" oder bereits beim Erstellen schummeln muss.

Clever schummelnde, schneller konvergierende Ansätze gibt es neuerdings ja einige.

RLZ
2017-06-20, 12:44:39
Dann müsste man auch wieder die Schummelei anfangen und wäre dann im Endeffekt wieder in der gleichen Situation, nur von der anderen Seite aus gesehen.
Ohne jedigliche Schummeleien könnten wir wahrscheinlich kein einziges Bild in einem annehmbaren Zeitraum berechnen. Die Frage ist immer wie viel man schummelt und wo man Rechenzeit in einen vorgelagerten Offlineprozess verlagern kann.

Ganon
2017-06-20, 12:50:02
Also wenn ich schnelle Renderzeiten will kann ich Cycles nehmen. Da muss ich aber auch für ein Stillleben ordentlich schummeln, um ein halbwegs attraktives Bild zu haben, weil ich sonst von FireFlys und Co. erschlagen werde.

Wenn ich vom Content her meine Szene realistisch gestalten will, nach physikalischen Ansätzen, dann kann ich LuxRender nehmen. Da warte ich dann aber auch gut und gerne 3-5h auf das Bild und habe in dunklen Szenen trotzdem schreckliche Bilder, weil einfach nicht genug Licht da ist.

Ebenfalls muss ich aufpassen, dass ich mit der Geometrie nicht den Grafikkarten-Speicher flute. So ein Ozean, der "echt" sein soll und nicht nur eine große Bumb/Normal/Parallax Map, da brauche ich einige GB an Speicher, oder eben ich schummle mit LOD...

Also ich beschäftige mich ja schon seit einigen Jahren als Hobby mit Raytracern (nicht wissenschaftlich) und ich sehe hier halt noch einige Probleme die unabhängig der Rendering-Performance sind. Ganz einfach die Dinge die ich habe, wenn ich selbst eine Szene für einen Raytracer baue. Selbst dort, wo Speicher und Performance kein limitierender Faktor sind, muss ich schummeln ohne Ende.

Auch dort ist man weit weg von "ich haue einfach irgend einen Content in die Szene und der Raytracer macht das schon". Selbst ein simples Stück Glas (Non-Architectural) kann dir dort einfach mal komplett die Szene zerstören.

RLZ
2017-06-20, 13:11:38
Da muss ich aber auch für ein Stillleben ordentlich schummeln, um ein halbwegs attraktives Bild zu haben, weil ich sonst von FireFlys und Co. erschlagen werde.
In dem Bereich gab es die letzten Jahre durchaus Fortschritte. Im Endeffekt laufen sie auf räumliche und temporale Filter für Sekundärstrahlen hinaus. Manche experimentieren auch mit neuralen Netzen für den Zweck rum. Aber auch die sind in dem Fall nur Filter mit ein paar Parametern mehr und können sichtbares temporales Flackern/Flimmern durch eine räumliches Unterabtastung von feinen Strukturen bisher nicht verhindern.

Ganon
2017-06-20, 13:24:38
Ja, Blender Cycles hat auch (und bekommt) diverse Filter genau dafür. Aber wie du sagst, es ist im Endeffekt nur ein Filter.

Aber wenn ich solche (http://zeealpal.deviantart.com/art/Simple-is-Beautiful-Caustics-263606354) oder solche (http://schmiegel.deviantart.com/art/Prisma-483057499) Bilder in LuxRender haben will, warte ich schon ewig. Wenn das dann auch noch animiert funktionieren soll, ja... puh... da macht soweit ich weiß schon mal der Algorithmus schlapp, weil es pro Frame nicht unbedingt ein Ergebnis halten kann.

Das sind in meinen Augen die letzten Hürden die so eine Echtzeit-Engine von einem guten Raytracer unterscheiden. So ein normaler Vergleich zwischen Cycles und einer Demo Szene aus der Unreal-Engine lassen einen schon grübeln, ob man den puren Raytracing-Ansatz überhaupt noch verfolgen will, so als Privatmensch. Das ist der Blender Foundation auch bewusst (https://code.blender.org/2017/03/eevee-roadmap/)

RLZ
2017-06-20, 14:47:12
So ein normaler Vergleich zwischen Cycles und einer Demo Szene aus der Unreal-Engine lassen einen schon grübeln, ob man den puren Raytracing-Ansatz überhaupt noch verfolgen will, so als Privatmensch.
Die Qualität kommt bei der UE4 auch nur durch Vorberechnung zustande. Aktuell wird da mit Lightmass ein Photon-Mapper verwendet, der für das Raytracing Embree nutzt. Jemand in der Community baut auch gerade eine Optix-Version. Otoy und VRay arbeiten auch an Path-Tracing Plugins.
Wenn Renderzeit nur eine untergeordnete Rolle spielt, is das alles super...

aufkrawall
2017-06-20, 15:22:49
Jede Lösung, die gegenüber den bewährten Rendering-Methoden erstmal mit einem dicken Performance-Impact daher kommt, wird es schwer haben, sich durchzusetzen.
Fakt ist, dass selbst für viele Spiele, wo Backen eine sinnvolle Option ist, das Lighting aussieht wie Grütze. Daher bezweifle ich, dass viele Entwickler derzeit nennenswert Interesse an besseren Reflexionen, Kaustiken etc. hätten, wenn nicht mal Interesse an GI da ist.
SVOGI in Cryengine scheint für die Qualität des Ergebnisses bislang am praktikabelsten im Vergleich zu anderen Lösungen zu sein, und auch das wird derzeit nur von PC-only/first Indies genutzt.
Erstmal muss diese Konsolen-Gen weg.

gravitationsfeld
2017-06-20, 22:26:26
Also wenn ich schnelle Renderzeiten will kann ich Cycles nehmen. Da muss ich aber auch für ein Stillleben ordentlich schummeln, um ein halbwegs attraktives Bild zu haben, weil ich sonst von FireFlys und Co. erschlagen werde.

Wenn ich vom Content her meine Szene realistisch gestalten will, nach physikalischen Ansätzen, dann kann ich LuxRender nehmen. Da warte ich dann aber auch gut und gerne 3-5h auf das Bild und habe in dunklen Szenen trotzdem schreckliche Bilder, weil einfach nicht genug Licht da ist.

Ebenfalls muss ich aufpassen, dass ich mit der Geometrie nicht den Grafikkarten-Speicher flute. So ein Ozean, der "echt" sein soll und nicht nur eine große Bumb/Normal/Parallax Map, da brauche ich einige GB an Speicher, oder eben ich schummle mit LOD...

Also ich beschäftige mich ja schon seit einigen Jahren als Hobby mit Raytracern (nicht wissenschaftlich) und ich sehe hier halt noch einige Probleme die unabhängig der Rendering-Performance sind. Ganz einfach die Dinge die ich habe, wenn ich selbst eine Szene für einen Raytracer baue. Selbst dort, wo Speicher und Performance kein limitierender Faktor sind, muss ich schummeln ohne Ende.

Auch dort ist man weit weg von "ich haue einfach irgend einen Content in die Szene und der Raytracer macht das schon". Selbst ein simples Stück Glas (Non-Architectural) kann dir dort einfach mal komplett die Szene zerstören.
Man wird immer Schummeln muessen. Die Frage ist halt wo der Punkt erreicht wird wo man mehr Performance mit Raster-Schummeleien verliert als Raytracing kostet.

Und ich schliesse immer noch nicht aus, dass das in manchen Bereichen schon jetzt der Fall waere, koennte die Hardware tracen.