PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Real-time Raytracing


Seiten : [1] 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18

iuno
2018-08-27, 12:35:09
Ich dachte, es waere cool einen Thread fuer RT zu haben, auch da im Turing-Thread viele andere Sachen diskutiert werden.

Kurze Zusammenfassung der letzten paar Jahre:
Caustic hat dedizierte RT-Beschleuniger gebaut, die auch nur RT koennen, also keine GPU. 2013 (http://www.extremetech.com/extreme/161074-the-future-of-ray-tracing-reviewed-caustics-r2500-accelerator-finally-moves-us-towards-real-time-ray-tracing) war von einem 90nm ASIC mit 50 MRays/s die Rede. Eine Karte mit zwei Stueck davon lag bei 65 Watt.

ImgTec hat Caustic geschluckt und die Einheiten in ihre GPUs eingebaut (https://www.imgtec.com/blog/real-time-ray-tracing-on-powervr-gr6500-ces-2016/), sodass darauf ein hybrider Ansatz moeglich war, also primaer Rasterisieren und Reflexionen usw. was sonst mit screen-space Effekten gemacht wird per Ray-Tracing. Damals wurden 300 MRays/s mit einer Wizard GPU genannt.

Nvidia forscht wohl auch schon laenger daran und hat jetzt mit Turing (https://www.nvidia.com/de-de/geforce/turing/) eine GPU Architektur mit hardware-tracern vorgestellt. Dort werden beim groessten Modell bis zu 10 GRays/s genannt. Dabei wird weiterhin ein hybrider Ansatz verfolgt. Das besondere an Nvidia ist, dass sie das ganze mit machine learning paaren (https://research.nvidia.com/sites/default/files/publications/dnn_denoise_author.pdf). Da das durch den Mangel an SPP (samples pro pixel) entstandene Rauschen hinterher per trainiertem denoiser entfernt wird, sind weniger SPP moeglich, was der performance hilft. Die Adaption soll durch Erweiterungen in Direct3D und Vulkan vorangetrieben werden.

Compute-basierte Loesungen sind natuerlich auch moeglich und werden schon laenger von verschiedenen Parteien versucht, aber eine Auflistung erspare ich mir hier mal.

Jetzt habe ich noch das hier (https://venturebeat.com/2018/08/12/adshir-enables-real-time-ray-tracing-on-mobile-devices/) gefunden, ein start-up, das eine Softwareloesung fuer Echtzeit-RT auf normalen GPUs haben will. Viele Infos gibt es dazu nicht, ausser dass alles proprietaer ist und durch Patente geschuetzt und fuer AR eingesetzt werden soll. Also keine Ahnung, was wirklich dahintersteckt, aber ich lasse es mal da.

Weitere Links/Infos gerne posten ;)
Was mich besonders interessiert ist der aktuelle Stand der Dinge, was sind noch die groessten Probleme oder gibt es weitere Ansaetze mit denen sich durch Fortschritte in der "konventionellen" Rastergrafik RT weiter beschleunigen liesse. Ich koennte mir z.B. vorstellen, dass auch TAA als "denoiser" dienen koennte. Mich interessiert auch wie eine komplett in RT (also ohne rasterizing) gerenderte Demo aussaehe, die man mit Turing hin bekaeme. Ausserdem stellen sich mir Fragen wie wie wohl ein in Software implementierter rasterizer mit all den Effekten die typischerweise noch oben drauf kommen im Vergleich zu einem compute-ray tracer abschneiden wuerde.

deekey777
2018-08-27, 12:41:27
Endlich hat sich einer getraut! :up:

Das ist der alte gute RT-Thread, https://www.forum-3dcenter.org/vbulletin/showthread.php?t=407773

Damals (vor zehn Jahren!) gab es erhebliche Bedenken, was Ra-Tracing angeht, heute scheinen diese Bedenken aus der Welt zu sein, zumindest scheinen die Vorteile, die mit DXR und Nvidias neuer Hardware kommen, zu überwiegen.

Sven77
2018-08-27, 12:42:49
Realtime Raytracing wird auf den neuen RTX ja auch nur durch die Fortschritte in der KI möglich sein.. das hatte damals keiner auf dem Schirm

iuno
2018-08-27, 12:48:19
Nicht unbedingt.
Denoising im Falle von BF5 ist ein Compute Shader laut Dice.
Und fuer was anderes wurden die Tensor Cores meines Wissens zumindest noch nicht genannt.

Sven77
2018-08-27, 12:50:36
Das Denoising ist aber nicht so simpel. Sonst bekommst du flackernde Bereiche. Ob KI oder statistisches Verfahren (was auch durch KI beschleunigt werden kann), das Problem einfach mit Compute zu erschlagen würde imho nicht funzen.

iuno
2018-08-27, 12:54:14
Der ML-Denoiser kann auch Artefakte aufweisen. Da muss man glaube ich auch erstmal richtige Ergebnisse abwarten. Zumal Raytracing momentan sowieso auf relativ wenige Pixel des ganzen Bildschirms ueberhaupt Einfluss hat, wuerde ein solches Flackern vielleicht nicht uebermaessig stoeren. Es werden ja z.B. auch sowieso idR. keine perfekten Spiegel vorkommen sondern eher blurry Reflexionen gibt, das ganze also eh nochmal "geglaettet" wird.

Also ich wuerde keineswegs sagen, dass das nur durch AI ueberhaupt moeglich ist. ImgTec hatte damit auch nichts zu tun. Ueberhaupt moeglich wird es eher durch die Hardwarebeschleuniger und davon koennte man auch ohne AI "einfach" noch mehr verbauen ;)

RLZ
2018-08-27, 13:04:24
Kurze Zusammenfassung der letzten paar Jahre:
Caustic hat dedizierte RT-Beschleuniger gebaut, die auch nur RT koennen, also keine GPU. 2013 (http://www.extremetech.com/extreme/161074-the-future-of-ray-tracing-reviewed-caustics-r2500-accelerator-finally-moves-us-towards-real-time-ray-tracing) war von einem 90nm ASIC mit 50 MRays/s die Rede. Eine Karte mit zwei Stueck davon lag bei 65 Watt.
Eigentlich kann man da noch viel weiter zurückgehen. SaarCor und Nachfolger haben schon ein FPGA Raytracing implementiert. Die meisten der Leute sind bei Intel/Nvidia gelandet, wobei es da "zufälligerweise" in letzter Zeit nochmal ein paar Wechsel zu Nvidia gab.
Ich hab damals mit einem Kollegen zusammen mit Oasen wohl an einem der ersten Raytracing Spielprototypen angefangen.

ImgTec hat Caustic geschluckt und die Einheiten in ihre GPUs eingebaut (https://www.imgtec.com/blog/real-time-ray-tracing-on-powervr-gr6500-ces-2016/), sodass darauf ein hybrider Ansatz moeglich war, also primaer Rasterisieren und Reflexionen usw. was sonst mit screen-space Effekten gemacht wird per Ray-Tracing. Damals wurden 300 MRays/s mit einer Wizard GPU genannt.
Rasterisierung liefert für die Primärstrahlen (Strahlen von der Kamera aus) ein identisches Ergebnis. Erst bei den Sekundärstrahlen (alle Strahlen danach) muss man bei Rasterisierung andere Lösungen finden. In den letzten Jahren hat man dann viele Raytracingvarianten eingeführt, die die auf anderen Datenstrukturen (Screenspace, Distancefields, ...) gearbeitet haben, um solche Spezialfälle besser approximieren zu können.

Nvidia forscht wohl auch schon laenger daran
Wie jeder andere auch....
Dort werden beim groessten Modell bis zu 10 GRays/s genannt.
Ein gigantischer Sprung gegenüber bisherigen CPU/GPU Lösungen
Dabei wird weiterhin ein hybrider Ansatz verfolgt.
Was solange der Fall sein wird, bis die Kosten der Primärstrahlen irrelevant werden.

Das besondere an Nvidia ist, dass sie das ganze mit machine learning paaren (https://research.nvidia.com/sites/default/files/publications/dnn_denoise_author.pdf). Da das durch den Mangel an SPP (samples pro pixel) entstandene Rauschen hinterher per trainiertem denoiser entfernt wird, sind weniger SPP moeglich, was der performance hilft. Die Adaption soll durch Erweiterungen in Direct3D und Vulkan vorangetrieben werden.
Generell gab es große Fortschritte bei den Denoisern in den letzten Jahren.

Jetzt habe ich noch das hier (https://venturebeat.com/2018/08/12/adshir-enables-real-time-ray-tracing-on-mobile-devices/) gefunden, ein start-up, das eine Softwareloesung fuer Echtzeit-RT auf normalen GPUs haben will. Viele Infos gibt es dazu nicht, ausser dass alles proprietaer ist und durch Patente geschuetzt und fuer AR eingesetzt werden soll.
Es gibt ein paar Firmen mit "Echtzeit" Path-/Raytracing. Otoy ist wohl einer der bekanntesten.

Was mich besonders interessiert ist der aktuelle Stand der Dinge, was sind noch die groessten Probleme
Die Performance bei der BSP Neuberechung würde mich stark interessieren.
Transparenzen sind auch kein Zuckerschlecken für Raytracing, da man sehr viele Strahlen braucht, um durch eine Partikelwolke zu kommen. Allerdings könnte man das auch anders lösen.
gibt es weitere Ansaetze mit denen sich durch Fortschritte in der "konventionellen" Rastergrafik RT weiter beschleunigen liesse.
Garantiert... Dafür ist Forschung da.

Ich koennte mir z.B. vorstellen, dass auch TAA als "denoiser" dienen koennte.
Es hilft extrem. Siehe auch die SEED Präsentationen.

Mich interessiert auch wie eine komplett in RT (also ohne rasterizing) gerenderte Demo aussaehe, die man mit Turing hin bekaeme.
Schlechter. Warum sollte man das für Echtzeitanwendungen tun?

Ausserdem stellen sich mir Fragen wie wie ein in Software implementierter rasterizer mit all den Effekten die typischerweise noch oben drauf kommen im Vergleich zu einem compute-ray tracer abschneiden wuerde.
Warum sollte man das tun?

Damals (vor zehn Jahren!) gab es erhebliche Bedenken, was Ra-Tracing angeht, heute scheinen diese Bedenken aus der Welt zu sein, zumindest scheinen die Vorteile, die mit DXR und Nvidias neuer Hardware kommen, zu überwiegen.
Ich habe immer noch Bedenken, aber Nvidia scheint es geschafft zu haben die Performance in eine Region zu heben, die ein paar Anwendungsfälle abdeckt.

iuno
2018-08-27, 13:30:16
:up:

Eigentlich kann man da noch viel weiter zurückgehen.
Klar, aber ich habe wie gesagt nur ein paar Sachen aus den letzten paar Jahren hergenommen.

Transparenzen sind auch kein Zuckerschlecken für Raytracing, da man sehr viele Strahlen braucht, um durch eine Partikelwolke zu kommen. Allerdings könnte man das auch anders lösen.
Transparenz ist fuer Rasterisierung aber AFAIK auch nicht besonders toll, da man dafuer alles vorher extra sortieren muss. Inwieweit ist Transparenz problematischer als eine Reflexion? In beiden Faellen muss man halt nach dem ersten Hit einen neuen Strahl schiessen.

Schlechter. Warum sollte man das für Echtzeitanwendungen tun?

Warum sollte man das tun?
Ich hatte ja auch nie gesagt, dass es fuer die Produktion sinnvoll ist. Es wuerde mich einfach nur interessieren.

Armaq
2018-08-27, 13:32:19
Wie viel giga rays braucht es denn?

deekey777
2018-08-27, 15:17:18
...

Ich habe immer noch Bedenken, aber Nvidia scheint es geschafft zu haben die Performance in eine Region zu heben, die ein paar Anwendungsfälle abdeckt.

Wird man damit Kosten/Zeit einsparen können?

Es ist mir klar, dass wir noch ganz am Anfang sind, so dass zusätzliches RT für AO oder Reflektionen eher Kosten verursacht, weil man so oder so noch eine "abwärtskompatible" Lösung braucht, weil die überwiegende Teil der Nutzer (und auch Konsolen) keine "Raytracing-Cores" hat.

RLZ
2018-08-27, 15:30:51
Transparenz ist fuer Rasterisierung aber AFAIK auch nicht besonders toll, da man dafuer alles vorher extra sortieren muss. Inwieweit ist Transparenz problematischer als eine Reflexion? In beiden Faellen muss man halt nach dem ersten Hit einen neuen Strahl schiessen.
Du hast aber bei komplexen Partikelsystem oder Vegetation mal ganz schnell ein paar dutzend Layer durch die man durch muss. Die Kosten für einen Strahl sind halt wesentlich größer.

Wird man damit Kosten/Zeit einsparen können?
Schau dir mal die Zeiten für ein GI Preview in der UE4 an (der Umstieg auf Embree hatte die Zeiten schon halbiert). Das wird in Zukunft bei der Entwicklung von Spielen massiv Zeit sparen und die Anzahl der Iterationen erhöhen.
Dass es bei der Implementierung viel Zeit spart, halte ich für unwahrscheinlich. Es ist ja nicht so, dass man einfach Strahlen schießt und sich um nichts mehr weiter kümmern muss. Zumindest, wenn wir kein harten Schatten und scharfe Reflektionen wollen. Außerdem macht man neue Baustellen auf.
Die Frage kann dir aber ein Entwickler, der aktuell in dem Bereich arbeitet besser beantworten. Ich bin eh aus der Spieleentwicklung seit über 5 Jahren raus und zudem nie Grafikentwickler.

deekey777
2018-08-27, 15:40:56
Du hast aber bei komplexen Partikelsystem oder Vegetation mal ganz schnell ein paar dutzend Layer durch die man durch muss. Die Kosten für einen Strahl sind halt wesentlich größer.

.
Darum nimmt man Infrarot, geht einfach durch Staub durch. X-D

(Sorry, aber der musste sein).

Sonst Danke :up:

Gast
2018-08-27, 16:06:14
Wie viel giga rays braucht es denn?

Mit den Gigarays ist es so wie mit dem Hubraum, man kann nie genug davon haben.

mboeller
2018-08-27, 16:31:38
hier noch ein Link:

https://www.researchgate.net/publication/319442281_Toward_Real-Time_Ray_Tracing_A_Survey_on_Hardware_Acceleration_and_Microarchitecture_Techniq ues

Das PDF gibt einen Überblick über die Entwicklungen der letzten 10-20 Jahre bis 2017. Die Hardware Lösung von IMG wird leider nur erwähnt aber nicht in der Tabelle aufgeführt.

Bzgl. der 10 GigaRays steht folgendes drin:


The graphics pipeline on computers and mobile platforms is responsible for real-time rendering. Today’s videos and games typically require a frame rate of 60 frames per second (FPS) or higher [Hoffmann et al. 2006], but an FPS of 30 is a minimum requirement. Meanwhile, a high-end display has a resolution of 2560x1440, or around 3.7M pixels. For each pixel, we shoot 10 rays to minimize aliasing. Then totally we have 37M primary rays. When a ray hits a primitive, multiple reflection and/or refraction rays will be generated. Such second rays will incur newer rays and usually we set a limit on the depth of recursion. For a reasonable rendering quality, a conservative estimation is that a primary generates 10 secondary rays on average. Now the ray count is 370M. For a frame rate of 30, we need a processing throughput of 10G rays per second. The above analysis is just for the ray traversal stage, while the construction stage is also compute intensive. For instance, the construction process needs to sort the primitives according to their coordinates, while a typical scene in today’s graphics applications has over 1 million primitives.


10 GigaRays könnten also wenn ich das richtig verstehe so eine Art Minimum-Anforderung sein bei >FHD + 30fps.

Das Papier zeigt aber auch sehr gut wie weit die bisherigen Lösungen von einer realtime Anwendung weg waren.

Poook
2018-08-27, 17:25:17
Die Performance bei der BSP Neuberechung würde mich stark interessieren.
Transparenzen sind auch kein Zuckerschlecken für Raytracing, da man sehr viele Strahlen braucht, um durch eine Partikelwolke zu kommen. Allerdings könnte man das auch anders lösen.


Da Nvidia eh schon ein hybrid System nutzt, könnte man nicht "einfach" sagen: If Nebel -> delete random x% rays? Welche von den Strahlen gelöscht werden ist eigentlich egal, die Prozentzahl kann man von der Dichte abhängig machen. Vll müsste noch ein Distributionsalgorythmus rein, damit nicht alle gelöschten Strahlen in der selben Ecke landen.

PHuV
2018-08-27, 17:35:17
Ich dachte, es waere cool einen Thread fuer RT zu haben, auch da im Turing-Thread viele andere Sachen diskutiert werden.

Kurze Zusammenfassung der letzten paar Jahre:

Super, daß Du das machst, (y), aber da hast Du Dir einen kleinen Fauxpas geliefert und den aktuell größten (?) VR-Anbieter unterschlagen. ;)
PowerVR
https://www.imgtec.com/legacy-gpu-cores/ray-tracing/?cn-reloaded=1
https://www.imgtec.com/blog/video-ray-tracing-powervr-wizard/?cn-reloaded=1

Wenn das Nvidia wirklich auf die Reihe bekommt, wirds eng für sie.
Siehe Beitrag unten von Loeschzwerg.

Loeschzwerg
2018-08-27, 17:41:39
Super, daß Du das machst, (y), aber da hast Du Dir einen kleinen Fauxpas geliefert und den aktuell größten (?) VR-Anbieter unterschlagen. ;)
PowerVR


:confused::confused::confused:


ImgTec hat Caustic geschluckt und die Einheiten in ihre GPUs eingebaut (https://www.imgtec.com/blog/real-time-ray-tracing-on-powervr-gr6500-ces-2016/), sodass darauf ein hybrider Ansatz moeglich war, also primaer Rasterisieren und Reflexionen usw. was sonst mit screen-space Effekten gemacht wird per Ray-Tracing. Damals wurden 300 MRays/s mit einer Wizard GPU genannt.


---

Mit größer Anbieter ist btw. nichts mehr, IMG hat alles zum Thema RT eingestampft.

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11774078#post11774078

PHuV
2018-08-27, 18:10:35
Oh, sorry, dann nehme ich alles zurück. Echt, einfach alles so dichtgemacht? :eek:

pixeljetstream
2018-08-29, 11:08:00
EA Seed HPG 2018
https://www.highperformancegraphics.org/wp-content/uploads/2018/Keynote1/HPG2018_RealTimeRayTracing.pdf
Und das Turing Update SIGGRAPH 2018
https://www.slideshare.net/DICEStudio/siggraph-2018-pica-pica-and-nvidia-turing


Vulkan Raytracing (GTC 2018)
http://on-demand.gputechconf.com/gtc/2018/presentation/s8521-advanced-graphics-extensions-for-vulkan.pdf

iuno
2018-08-29, 12:01:08
Danke fuer die Links :up:

In der einen Praesentation steht was davon, dass man RT nicht nur fuer Grafik, sondern halt auch fuer Physik oder Sound benutzen kann. Bzgl. Sound habe ich auch vor einiger Zeit schon von woanders was gehoert, halt nur ueber Compute.
Koennte man denn so wie RTX designt ist bereits berechnete rays fuer so einen Zweck weiterverwenden?

Ihm
2018-08-29, 12:08:28
Was mich besonders interessiert ist der aktuelle Stand der Dinge, was sind noch die groessten Probleme oder gibt es weitere Ansaetze mit denen sich durch Fortschritte in der "konventionellen" Rastergrafik RT weiter beschleunigen liesse. Ich koennte mir z.B. vorstellen, dass auch TAA als "denoiser" dienen koennte. Mich interessiert auch wie eine komplett in RT (also ohne rasterizing) gerenderte Demo aussaehe, die man mit Turing hin bekaeme. Ausserdem stellen sich mir Fragen wie wie wohl ein in Software implementierter rasterizer mit all den Effekten die typischerweise noch oben drauf kommen im Vergleich zu einem compute-ray tracer abschneiden wuerde.

Die Frage ist eher, was erwartet man anno 2018 von Echtzeit-Raytracing?
Kann eine Turing-GPU eine Szene mit global diffusem Raytracing oder sogar Path Tracing in Echtzeit rechnen, um damit z.B. eine Szene wie aus einem SFX-Blockbuster zu kreieren?
Wenn das erwartet wird, dann ist die Antwort ganz klar nein.
Wenn jedoch partiell angewendetes Raytracing jeglicher Art erwartet wird, ja, das kann heute schon funktionieren.

Zu deiner Frage nach "neuen" Ansätzen:
Es ist in erster Linie ein Problem der Rechenleistung, die auch unter Einbeziehung von effizienten Algorithmen Echtzeit-Raytracing in einer uns gewohnten Szenenqualität zu Hause noch unmöglich macht. An besseren Algorithmen und Software-Techniken zur Senkung der Rechenlast wird natürlich immer geforscht, damit man sich entgegenkommt.
Auf industrieller Ebene gibt es wie immer auch verschiedene Hardwareansätze wie z.B. den Klassiker FPGA.

Meine Meinung:
Viel Wind um eine Technologie mit Feldstudien-Charakter; ein bekannter Marketingtrick.
Zum Aha-Erlebnis beim Gaming durch Raytracing ist es noch ein sehr weiter Weg.
Wenn die Renderfarmen schneller rechnen können, dann sind wir schon einmal einen großen Schritt weiter. ;)

Troyan
2018-08-29, 12:12:21
Danke fuer die Links :up:

In der einen Praesentation steht was davon, dass man RT nicht nur fuer Grafik, sondern halt auch fuer Physik oder Sound benutzen kann. Bzgl. Sound habe ich auch vor einiger Zeit schon von woanders was gehoert, halt nur ueber Compute.
Koennte man denn so wie RTX designt ist bereits berechnete rays fuer so einen Zweck weiterverwenden?

Ja, nVidias VR Audio 2 wird über die RT Cores beschleunigt werden: https://blogs.nvidia.com/blog/2018/08/20/turing-vr-full-immersion/

Screemer
2018-08-29, 12:21:04
Die Frage ist eher, was erwartet man anno 2018 von Echtzeit-Raytracing?
Kann eine Turing-GPU eine Szene mit global diffusem Raytracing oder sogar Path Tracing in Echtzeit rechnen, um damit z.B. eine Szene wie aus einem SFX-Blockbuster zu kreieren?

also zumindest BF V scheint das nicht zu schaffen. Ich hab im BF V Thread (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11785047#post11785047) ein vid verlinkt, bei dem angeblich eine 2080ti zum einsatz kam. zum einen läuft es ziemlich unrund bei 1080p und zum anderen ist für AO HBAO im einsatz. da frag ich mich dann schon ob man sich bei gen 1 dafür entscheiden muss was ich implementiere oder alles implementiere und dem user dann die möglichkeit gebe einzellne effekte an und aus zu schalten. mir ist klar, dass das alles noch alpha ist und sich noch einiges tun kann.

Ihm
2018-08-29, 12:35:28
also zumindest BF V scheint das nicht zu schaffen. Ich hab im BF V Thread (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11785047#post11785047) ein vid verlinkt, bei dem angeblich eine 2080ti zum einsatz kam. zum einen läuft es ziemlich unrund bei 1080p und zum anderen ist für AO HBAO im einsatz. da frag ich mich dann schon ob man sich bei gen 1 dafür entscheiden muss was ich implementiere oder alles implementiere und dem user dann die möglichkeit gebe einzellne effekte an und aus zu schalten. mir ist klar, dass das alles noch alpha ist und sich noch einiges tun kann.

Das wird BF V leistungsmäßig auch nicht mit einer 3080, 4080, 5080, 6080, 7080 und 8080 schaffen.
Davon abgesehen ist eine Implementierung dieser Verfahren in Echtzeit aktuell überhaupt nicht möglich.
Was ich in dem Video sehe ist eine Form von rekursivem Raytracing.

Das kann man auch sehr schön hier erkennen:
http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/Specials/Battlefield-5-Nvidia-RTX-2080-Ti-Raytracing-1263364/

PHuV
2018-08-29, 13:03:00
Da warte ich schon lange drauf, um sich die teuren UAD-Karten zu sparen. Es gab schon mal Prototypen, die für Audiobearbeitung mit Effekten CUDA verwenden, ist aber leider eingeschlafen.

RLZ
2018-08-29, 15:36:02
Koennte man denn so wie RTX designt ist bereits berechnete rays fuer so einen Zweck weiterverwenden?
Die wirfst da eine geometrische Szene und eine Menge von Strahlen rein und bekommst für jeden Strahl eine Intersection oder ein Miss, wenn nach der definierten Entfernung nix getroffen wurden.

Das hat erstmal nix mit Grafik zu tun und kann verwendet werden wofür auch immer du willst. AI Sensorik ist auch ein häufiger Anwendungszweck dafür.

Audio ist (langfristig gesehen) nochmal ein Sonderfall, da die Wellenlänge relativ zur Geometrie teilweise extrem groß sind und das Verhalten physikalisch nicht so wirklich exakt mit Strahlen beschrieben werden kann. Aktuell wäre es aber auch hier erstmal ein Fortschritt.

Ihm
2018-08-29, 20:00:43
Da warte ich schon lange drauf, um sich die teuren UAD-Karten zu sparen. Es gab schon mal Prototypen, die für Audiobearbeitung mit Effekten CUDA verwenden, ist aber leider eingeschlafen.

Das hat aber nichts mit der Leistung zu tun.
UA sichert sich mit den Karten in erster Linie gegen Cracks/Hacks ab.
Die Qualität der Plugins ist nicht so gut, weil die UAD-Karten so viel Leistung bringen, sondern weil es ein geschlossenes System ist, bei dem man als Entwickler im Normalfall keine Angst vor der Einspielung der Entwicklungskosten haben muss. Vor UA hat das kein einziger Hersteller von Audio-Plugins und Plugin-Systemen derart professionell aufgezogen.
Das Leistungsargument zieht heute, wenn überhaupt, nur noch bei Notebook-DAWs. Ansonsten sind Octo-Core-CPUs für Workstations heute absolut bezahlbar und mehr braucht man nicht um bei einem "normalen" Projekt ausreichend gute Plugins zu öffnen.
Beispiel FabFilter: Hervorragende CPU-Plugins mit praktisch unendlich Instanzen auf einem aktuellen Quad-Core-Prozessor.
Oder Altiverb 7: High-End CPU-Faltungshall-Plugin. Wie viele Instanzen will man davon bitte in einem Projekt in Echtzeit rechnen lassen? Ich frage mich immer wie wir damals mit max. zwei Hardware 480L ausgekommen sind? :rolleyes:

Ich will ehrlich gesagt auch nicht wissen, wie viele sich Plugins im Sale kaufen, um sie dann zweimal zu nutzen oder glauben, dass ihr Mix durch andere Presets besser wird, weil sie nicht einmal einen EQ bedienen können.
Wenn wir ehrlich sind, dann ist schon lange genügend Leistung vorhanden und hervorragende CPU-Plugins gibt es auch. Am Ende entscheidet man sich also nur, welches Plugin einem persönlich am besten gefällt. Denn mit Objektivität hat das nichts mehr zu tun.
Warum? Ganz einfach: Viele Songs, die Ende der 90er produziert worden sind, sind audiotechnisch auch heute noch hervorragend. Und damals gab es auch schon etliche Produktionen mit Waves-Plugins, die heute noch fast unverändert verkauft werden.

Fazit:
Die Leute sollten erst einmal anfangen wieder Tontechnik zu lernen und zu verstehen.
Dann würden sie sich wundern, was man schon mit den mitgelieferten Plugins von z.B. Cubase oder Logic qualitativ bewerkstelligen kann.
Dafür braucht man auch keine GPGPU-Plugins.
Aber warum sollte es im Audiobereich anders sein: Kopf aus, Konsum!

Bösewicht
2018-08-29, 21:24:59
Die Powercore Karten sind eigentlich auch sehr gut gewesen aber seid Fabfilter, SPL, plugin-alliance und iZotope braucht es nicht unbedingt mehr DSP Chips für Audio.
Ich wollte mir damals grade eine Powercore kaufen da wurde sie mehr oder weniger eingestellt, glück gehabt:tongue:
@Ihm

Altiverb habe ich bei Orchester Musik im Einsatz.
3 oder 4 Instanzen reichen um 3 bis 4 Orchester reihen zu simulieren.
Eigentlich reichen für Normale Aufnahme auch schon 1 2 oder max 3 immer aus, Effekte sind mit Algorithmischen Halls völlig ausreichend und bei Plates sollte auch ein Algorithmischen völlig reichen.

Manche UAD wie die SPL oder die älteren Oxford Geschichten wie denn immer noch Genialen EQ gibt es ja auch Nativ und klanglich gibt es da glaub ich keine Unterschiede.

Die Idee mit Grafik Einheiten alla RT auch sowas beschleunigen zu können währe aber wirklich Fantastisch!

Ihm
2018-08-29, 21:57:52
@Bösewicht:
GPGPU-Audio-Versuche für Consumer-Plugins gab es vermehrt ja schon seit der Nvidia G80 GPU.
Ich erinnere mich da noch an Nebula, nsGPUImpulse oder GPUDelay.
Das Problem war einfach, dass durch die Quad-Core-Prozessoren im Jahr 2007 die Notwendigkeit massiv in den Hintergrund gerückt ist.
Weiterhin gab es auch noch ein paar technische Limitierungen:
https://www-sop.inria.fr/reves/projects/GPUAudio/

Ich hatte damals für die Uni sogar selber Tests durchgeführt und ein Freund von mir hat GPGPU unabhängig davon auch für CAA (computational aeroacoustics) genutzt:
https://www.researchgate.net/publication/290571965_Acceleration_of_CAA_methodology_for_liner_applications_using_graphics_ processors

Im wissenschaftlichen und forschenden Sektor hat sich GPGPU letztendlich für bestimmte Berechnungen durchgesetzt; was auch Sinn macht.
Im Consumer-Bereich eher nicht, weil es einfach mit zu vielen Restriktionen verbunden ist und die Notwendigkeit einfach nicht bestand und auch heute nicht besteht.

Ich würde an deiner Stelle also nicht darauf tippen, dass die Audio-Plugin-Entwickler jetzt voll auf RT setzen werden.
Ich tippe eher, dass 99% es nicht tun werden. Würde ich auch nicht machen. ;)

PHuV
2018-08-30, 00:19:55
Vor UA hat das kein einziger Hersteller von Audio-Plugins und Plugin-Systemen derart professionell aufgezogen.

Äh, nein, Du vergißt TC Powercore. Und die waren damals wirklich der Knaller, mit Teil habe ich endlich mal Studioqualität bekommen. Und ja, als dann die ersten Multicore-CPUs entsprechend zu kaufen waren, war das alles kein Thema mehr. Ebenso hat es Yahama probiert, oder nimm Avid mit ProTools, bisher im Markt noch sehr erfolgreich.

Dann würden sie sich wundern, was man schon mit den mitgelieferten Plugins von z.B. Cubase oder Logic qualitativ bewerkstelligen kann.
Ja, aber nicht so ganz. Du vergißt, das die mitgelieferten Plugins damals zwar nicht schlecht oder sogar gut waren, aber die Bedienung war an machen Stellen sehr sehr suboptimal. Nimm allein mal den EQ, der ist jetzt erst mit Cubase 9 wirklich gut bedienbar und bietet fast ähnlichen Komfort wie der Fabfitler Pro Q2.

Das Powercore-Thema war mit der Einstellung für mich die Hersteller-Plugin-Bindung gegessen, und seitdem setze ich nur noch Plugins ein, die normal über CPUs laufen, sei es Waves oder eben Fabfilter und Co. Genau aus Deinem genannten Grund habe ich auf UAD bisher verzichtet, obwohl es bestimmt einige Plugins da gibt, für die es keine richtige Alternativen gäbe, wenn man direkt darauf angewiesen ist.

Aber danke für Deine Erklärungen. Ich teile Meinung nicht ganz, weil heute CUDA gut ausreift ist und heute durchaus als "Standard" bezeichnet werden könnte. Klar, die Kosten-Nutzenfrage gilt auch hier, und wenn CPU-Power ausreicht, wäre es wenig sinnvoll, auf GPUs und Tensor-Cores zu setzen. Wobei, wenn im Audiobereich auch mal KI zur Anwendung kommen sollte, könnte es über GPUs mit Tensor Cores wieder interessant werden. ;)

Argo Zero
2018-08-30, 11:55:29
Bitte beim Thema bleiben.

hilo
2018-08-30, 13:32:29
Ich "re-poste" füge mal Dildos Link (:up:) aus dem Vorbesteller-Thread hier ein, da geht er nicht so unter und passt viel besser.

digitalfoundry:
https://youtu.be/8kQ3l6wN6ns.

Da Videos nicht unbedingt jedermanns Sache sind und papers kürzer und informativer, hier ein kurzer Überblick (sicher ohne Anspruch, alle Aspekte ausreichend würdigen zu können [klar hingeschludert von mir, also wenn jemand sich die Mühe machen möchte, bitte mich maßregeln korrigieren/widerlegen/ergänzen/kreuzigen...]):

- Ray Tracing ist großartig :D
- Ray Tracing wird in jetziger Implementierung benutzt, um specular reflections zu rendern
- Transparenz wird in zwei Durchgängen erschlagen (1. Durchgang ermittelt die maximale Länge des Strahls, 2. Durchgang dann mit einer eingeschränkten "structure" (05:20; weiß nicht, ob damit das C-Konstrukt gemeint ist oder der allgemeine Begriff) für die Partikel (Reflektionen der CPU-Partikel inklusive, korrekte Alphakanalinformationen, korrekte Tiefeninformationen, benutze DXR-API-Funktion "AnyHitShaders()")
- Turing erst seit zwei Wochen bei Entwicklung nutzbar, vorher auf Titan V (keine RT cores -> geringere Framerate bei Entwicklung; Tricks/Optimierungen bei Volta noch wichtiger -> konservativere Voreinstellungen im präsentierten build noch aktiv)
- gewisses culling von Objekten war im build aktiv
- Reflektionen in Reflektionen ("sekundärer Strahl") werden nicht über BVH realisiert, sondern über boxprojected cubemaps (sind für die non-RT Version des Spiels notwendigerweise im Spiel vorhanden) -> keine Spiegel-in-Spiegel-Effekte (wie in Atomic Heart zu sehen) möglich
- Dice nutzt ein custom temporal filter (09:35; basierend auf TAA + räumlichen Filter danach statt Denoising (iuno :up:) -> API-"Problem" so umgangen (siehe y33H@ Post 7387 im Turing-Thread; "Problem" deshalb, weil sonst womöglich für AMD noch ein Extra-API im Code angesprochen werden müßte (für das Denoising)- aber alles (mir) noch nicht so wirklich klar -> vielleicht also auch gar kein "Problem")
- bei 2560 x 1440 framerate (geschätzt) bei 40-50 fps, in 4k unter 30 fps
- Dice ist dabei herauszufinden, wie Ray Tracing individueller eingestellt werden und vielleicht von anderen Grafikeinstellungen (stärker) separiert werden kann
- Dice hat noch einige Verbesserungsmöglichkeiten (ab 10:58):

RT-Auflösung kleiner als Rasterizer-Auflösung z.B.

Teil/Subgrafiken (Fenster + Türen eines Hauses z.B.) könnten in eine Überstruktur ("Haus") eingeordnet werden, um die schiere Zahl von (Sub)-Grafikobjekten zu reduzieren -> Dice rechnet mit Potenzial für 30 % mehr Ray-Tracing-Leistung
asynchrone Nutzung der RT-cores (um sie so früh wie möglich in die rendering pipeline einzubinden) wäre eine ausichtsreiche Verbesserung der Ray-Tracing-Leistung

Troyan
2018-08-30, 16:19:23
Vorführung von nVidias ATAA von der Siggpraph: https://t.co/WC4PHZMBOO

AA mit Unterstützung von Raytracing.

Loeschzwerg
2018-08-30, 17:14:31
Da wir gerade bei ray/path tracing sind... Hat eigentlich noch jemand das Techdemo Spiel "It's About Time" auf Basis der Brigade-2 Engine?

https://www.youtube.com/watch?v=84HBJjPJsOE

Es wäre interessant zu sehen wie diese auf aktueller Hardware läuft.

Screemer
2018-08-30, 17:49:26
Da wir gerade bei ray/path tracing sind... Hat eigentlich noch jemand das Techdemo Spiel "It's About Time" auf Basis der Brigade-2 Engine?

https://www.youtube.com/watch?v=84HBJjPJsOE

Es wäre interessant zu sehen wie diese auf aktueller Hardware läuft.
hier ist die doktor arbeit vom autor der brigade engine: https://jbikker.github.io/literature/Ray%20Tracing%20in%20Real-time%20Games%20-%202012.pdf

damals war er wohl bei otoy. dort kann man brigade 3 auch als engine "erwerben".

die datei hieß brigade2_r2017.zip falls einer sein downloadarchiv durchforsten möchte.

Screemer
2018-08-31, 09:59:09
hab ein bisschen mit Herrn Bikker hin und her geschrieben. derzeit hat er leider keine demos für echtzeit rt aber er wird in naher zukunft wieder was veröffentlichen. derzeit ist er dozent an der uni in utrecht.

die demo von brigade 2 kann er leider nicht mehr hochladen, da die engine von otoy gekauft wurde. er hat brigade 2 auch mit jeroen van schijndel erstellt und zum damaligen zeitpunkt auch bei otoy gearbeitet. van schijndel ist immer noch bei otoy und dort lead engineer.

pixeljetstream
2018-08-31, 10:35:41
viele videos von der siggraph zum thema sind in diesem thread
https://community.foundry.com/discuss/topic/142472/siggraph-2018-recaps-octane-4-radeon-prorender-alchemist-etc?page=1

Loeschzwerg
2018-08-31, 11:20:45
hab ein bisschen mit Herrn Bikker hin und her geschrieben. derzeit hat er leider keine demos für echtzeit rt aber er wird in naher zukunft wieder was veröffentlichen. derzeit ist er dozent an der uni in utrecht.

Danke für die Info :) Klingt spannend.

Timbaloo
2018-08-31, 16:08:09
Müsste man mit (konsequentem) Raytracing nicht die Kosten einer Spieleproduktion für Artists massiv reduzieren können? Bzw. bei gleichem Budget noch deutlich bessere/mehr Modelle und Tiefe erreichen können?

Wieviel Aufwand geht denn aktuell da rein das Lighting/Shatten/Reflektionen etc. so hinzufaken, dass es halbwegs passabel aussieht?

vinacis_vivids
2018-08-31, 16:45:19
Nein und nein.

Gast
2018-08-31, 17:10:56
Müsste man mit (konsequentem) Raytracing nicht die Kosten einer Spieleproduktion für Artists massiv reduzieren können? Bzw. bei gleichem Budget noch deutlich bessere/mehr Modelle und Tiefe erreichen können?


Ja, nur müsste dafür logischerweise die Hardware weit genug verbreitet sein, dass man ein Spiel als Raytracing only ausliefern könnte.

AwesomeSauce
2018-08-31, 17:33:55
Ja und ja.

aufkrawall
2018-08-31, 17:40:22
Ist nur eine hypothetische Frage, weil die Leistung eh noch lange nicht für den Verzicht von Raster-Grafik ausreicht.
Magische Miesmuschel sagen: "Irgendwann vielleicht."

Sven77
2018-08-31, 17:41:07
Ja und ja

Gast
2018-08-31, 17:47:26
Nein und nein.

Wie kommst du darauf?

Mein laienhaftes Verständnis ist aktuell so:

Vorher mussten Künstler selber die Cubemaps für alles was reflektiert werden soll im Editor erzeugen. Das hat teilweise wohl gedauert und man bekommt nur hässliche ungenaue Reflektionen. Wie z.B. in Watch Dogs oder GTA. IMHO gerade sichtbar wenn man in Städten in einer OpenWorld herumrennt.

Mit RTX setzt man nur noch die Strahlen und bekommt die korrekte Berechnung "geschenkt". Dafür muss man in Zukunft wohl nur darauf achten mit wie vielen Strahlen weiterberechnet wird? Sodass man nicht in die "Endlosigkeit" berechnet.

Das ist ein unglaubliches Ersparnis an Zeit und Arbeit.

gravitationsfeld
2018-08-31, 18:24:46
Modellqualitaet hat mit Raytracing nichts zu tun. Und was ist "bessere Tiefe? Die Iterationszeit fuer die Beleuchtung wird besser.

Mayhem
2018-08-31, 22:20:27
Die Performance bei der BSP Neuberechung würde mich stark interessieren.
Das war bisher der grosse Knackpunkt bei RT und dynamischen Szenen. Alles was ich bisher in den RTX Demos sah war ja extrem statisch. Und wir waren ja mal an einem Punkt an dem Physik halbwegs realistsich war. Wird interessant zu sehen wie das mit RT sich entwickelt (hat).

Troyan
2018-08-31, 22:23:15
Das war bisher der grosse Knackpunkt bei RT und dynamischen Szenen. Alles was ich bisher in den RTX Demos sah war ja extrem statisch. Und wir waren ja mal an einem Punkt an dem Physik halbwegs realistsich war. Wird interessant zu sehen wie das mit RT sich entwickelt (hat).

DXR funktioniert mit Dynamik. Siehe die SOL-Demo von nVidia, wo es auch harte Schnitte gibt, womit man keine Informationen aus vorigen Frames weiterverwenden kann: https://twitter.com/CasualEffects/status/1029795608494669824

pixeljetstream
2018-08-31, 22:38:01
Dem bvh refitter ist egal ob die Dreiecke rigid oder soft sind. Der ist flott genug für ein paar Millionen Tris pro Frame. Es gibt zwei Level:
Top Level ist Instanzen mit Matrizen und Verweis auf Geometrie (bottom level). Z.b Stadt mit vielen Autos. Ein Auto hätte seinen eigenen Geometrie BVH der statisch bleibt, man schiebt dann nur die Instanzen im Top Level rumm.
Bei Menschen würden man deren Geometrie auch nach Animation updaten.
Das alles ist natürlich nicht gratis und kostet Zeit.

Zu ja und ja:

Die Filmindustrie ist nicht ohne Grund zum Raytracing. Pixar hatte auch früher viele "manuelles" GI, aber nun machen alle ordentliches raytracing. So wie PBR pipeline den asset workflow um Materialien vereinfachte (robustere Materialien in verschiedenen Lichtsituationen) wird das Echtzeit raytracing am Ende auch "gewinnen", aber da ist noch ne Ecke hin ;)

Im Grunde hat es ja schon gewonnen nur ist's halt nicht voll Echtzeit. Screenspace reflections werden in einer 2d Tiefenkarte getraced. Lightmaps werden vorher getraced, Environment cubemaps dienen später auch als Vereinfachung.

Das teure sind bei Spielen oft die Assets selbst und darüber hinaus hast du auch mehr Dynamik als im Film. Streaming, Levelgeometrie an Performance anpassen etc. Selbst mit super raytracing würde das nicht verschwinden. Paar Arbeitsschritte würden sicher wegfallen oder jetzt erstmal viel flotter (lightmap baking). Aber imo ist AI/DL eher das Ding was viel mehr Potential hat massiv bei Content Creation Geld zu sparen. Aber ich weiß auch nicht wie viel vom Budget für Beleuchtung beim Level Design drauf geht.

Mayhem
2018-09-01, 04:15:56
Dem bvh refitter ist egal ob die Dreiecke rigid oder soft sind. Der ist flott genug für ein paar Millionen Tris pro Frame. Es gibt zwei Level:
Top Level ist Instanzen mit Matrizen und Verweis auf Geometrie (bottom level). Z.b Stadt mit vielen Autos. Ein Auto hätte seinen eigenen Geometrie BVH der statisch bleibt, man schiebt dann nur die Instanzen im Top Level rumm.
Bei Menschen würden man deren Geometrie auch nach Animation updaten.
Das alles ist natürlich nicht gratis und kostet Zeit.

Genau das. Wie sieht das bei einer Waldszene aus in Witcher 3? Wo mal locker 30 Mio Polys/Frame im BVH neu einsortiert werden müssen? War doch schon immer das größere Problem von RT und nicht wieviel Strahlen ich schiessen kann (was natürlich auch wichtig ist, aber nunmal massgeblich durch die BVH-Struktur abhängig ist).

pixeljetstream
2018-09-01, 07:31:46
Genau, das ist noch keine magische Lösung. Da werden halt dann wie bei rasterization Tricks mit LOD, partielle Updates etc. betrieben. Du kannst im bvh auch imposter proxies hinterlegen. Zum Glück muss ja kein perfektes Bild rauskommen bei Echtzeit, sondern "nur" ein Mehrwert zu dem was man bisher erreichte.

Für mich ist der bvh/raytracing halt ein Werkzeug mehr was man zur Verfügung hat. Durchaus möglich dass du den Wald eben anders approximierst. Das ist ja das praktische diese Möglichkeiten zu haben. Durch Hybrid kann man Stärken und Schwächen der jeweiligen Systeme ausgleichen.

Gleichzeitig wird die Evolution immer weiter gehen, anhand des Einsatzes der Technik werden die Verfahren für spätere Generationen immer besser. Man kann auch Anfangen solche Dinge wie bvh building in Hardware zu gießen, wenn sich die Gebrauchsmuster etablieren. The wheel of innovation keeps on turning. Auf allen Seiten (hw sw, engine Entwickler) und keiner ist isoliert, die Seiten beeinflussen sich ja wo die Reise hin soll.

pixeljetstream
2018-09-01, 08:05:33
http://on-demand.gputechconf.com/siggraph/2018/video/sig1813-2-morgan-mcguire-ray-tracing-research-update.html

Ihm
2018-09-02, 02:39:02
@PHuV, Off-Topic:


Äh, nein, Du vergißt TC Powercore. Und die waren damals wirklich der Knaller, mit Teil habe ich endlich mal Studioqualität bekommen.

1.
TC Works Powercore war herrlich verbuggt. Etliche Leute waren irgendwann mit den Nerven am Ende und haben die Teile verkauft. Von Knaller kann man hier also wirklich nicht sprechen.
Ich arbeite seit Ende der 90er in professionellen Studios. Kein einziges größeres Studio hat längere Zeit mit Powercore gearbeitet. ;)

2.
Die Powercore-Beschleuniger waren nie als Dongles gedacht, sondern haben "wirklich" gearbeitet und DAWs die Möglichkeit gegeben fast so gut wie Hardware zu klingen. Dasselbe gilt für die Creamware-Karten.
Auf der UAD-1 sitzt hingegen ein MPACT2-AV-Prozessor und kein "echter" DSP.
Daran war schon zu erkennen, dass UAD eine andere Strategie verfolgen würde.
Und diesen Weg ist vor ihnen wirklich niemand gegangen und keiner hat es wie schon gesagt in allen Bereichen so professionell aufgezogen. Auch nicht Creamware, TC und auch nicht später Waves oder SSL.

Und ja, als dann die ersten Multicore-CPUs entsprechend zu kaufen waren, war das alles kein Thema mehr. Ebenso hat es Yahama probiert, oder nimm Avid mit ProTools, bisher im Markt noch sehr erfolgreich.

Ich glaube du bist schon länger raus aus dem Bereich.
Pro Tools findet man heute gehäuft nur noch in Infrastrukturen, die älter als 20-25 Jahre sind und eine gewisse Größe haben. AVID geht es schon seit längerem alles andere als gut.

Ja, aber nicht so ganz. Du vergißt, das die mitgelieferten Plugins damals zwar nicht schlecht oder sogar gut waren, aber die Bedienung war an machen Stellen sehr sehr suboptimal. Nimm allein mal den EQ, der ist jetzt erst mit Cubase 9 wirklich gut bedienbar und bietet fast ähnlichen Komfort wie der Fabfitler Pro Q2.

Ich meinte die Plugins, die man heute mitgeliefert bekommt.
Dasselbe gilt für Software-Instrumente und Sample-Libaries.
Was man heute für ein paar Kröten schon dabei hat, wurde früher für richtig viel Geld als 3rd-Party-Software verkauft.
Was man heute z.B. bei Logic X für 229€ mitgeliefert bekommt ist einfach unglaublich. Es ist möglich ohne 3rd-Party-Software sehr amtliche Projekte zu produzieren.


Das Powercore-Thema war mit der Einstellung für mich die Hersteller-Plugin-Bindung gegessen, und seitdem setze ich nur noch Plugins ein, die normal über CPUs laufen, sei es Waves oder eben Fabfilter und Co. Genau aus Deinem genannten Grund habe ich auf UAD bisher verzichtet, obwohl es bestimmt einige Plugins da gibt, für die es keine richtige Alternativen gäbe, wenn man direkt darauf angewiesen ist.

Aber danke für Deine Erklärungen. Ich teile Meinung nicht ganz, weil heute CUDA gut ausreift ist und heute durchaus als "Standard" bezeichnet werden könnte. Klar, die Kosten-Nutzenfrage gilt auch hier, und wenn CPU-Power ausreicht, wäre es wenig sinnvoll, auf GPUs und Tensor-Cores zu setzen. Wobei, wenn im Audiobereich auch mal KI zur Anwendung kommen sollte, könnte es über GPUs mit Tensor Cores wieder interessant werden. ;)


Sehe ich nicht anders.
Die Daseinsberechtigung von z.B. "CUDA-Plugins" muss erst einmal jemand vorbringen. Wobei CUDA die schlechteste Schnittstelle wäre, weil eben nur mit Nvidia-Karten kompatibel. Das wird alleine schon deshalb keiner machen, weil man damit so einige Macs ausschliessen würde, diese aber gerade in der Audiobranche eine weiterhin große Rolle spielen.
Dann eher OpenCL, OpenACC oder C++ AMP, wobei letzteres wieder Einschränkungen mitbringt.

Digidi
2018-09-02, 02:55:22
Interessantes Spiel mit Raytracing

https://twvideo01.ubm-us.net/o1/vault/gdc2018/presentations/Aaltonen_Sebastian_GPU_Based_Clay.pdf

@Raff
Bencht mal das Spiel!

Interessanter Tweet dazu!
https://twitter.com/SebAaltonen/status/1032897644123901952

Locuza
2018-09-02, 04:30:55
Auf jeden Fall ein technisch sehr innovatives Spiel von einem tollen Entwickler, welcher eine Menge über low-level-optimizations weiß und gerne technische Themen ausführt und Frage beantwortet.
Bezüglich der DX12-Performance vs. DX11 wäre ich auch sehr gespannt, wobei für Claybook das keine Priorität dargestellt hat.

pixeljetstream
2018-09-02, 08:58:47
http://fumufumu.q-games.com/archives/Cascaded_Voxel_Cone_Tracing_final.pdf

Schon was älteres ps4 Spiel: The Tomorrow Children. Benutzten cascaded voxel cone tracing.

Sebbi benutzt signed distance fields für Claybook.

pixeljetstream
2018-09-02, 09:53:07
http://on-demand.gputechconf.com/siggraph/2018/video/sig1813-5-edward-liu-low-sample-count-ray-tracing-denoisers.html

Alle öffentlichen NV Siggraph 2018 Talks
https://on-demand-gtc.gputechconf.com/gtcnew/on-demand-gtc.php?searchByKeyword=&searchItems=&sessionTopic=&sessionEvent=11&sessionYear=2018&sessionFormat=&submit=&select=

iuno
2018-09-02, 11:37:35
Ich kann den Startpost leider nicht mehr editieren, sonst haette ich die ganzen Links zur "Sammlung" zu Threadbeginn hinzugefuegt.
Aber danke fuers posten :up:

pixeljetstream
2018-09-02, 11:51:15
https://twitter.com/OTOY/status/1030269165318287360?s=19
Otoy experiment mit NV Vulkan Raytracing

Kriton
2018-09-02, 13:01:37
Ich kann den Startpost leider nicht mehr editieren, sonst haette ich die ganzen Links zur "Sammlung" zu Threadbeginn hinzugefuegt.
Aber danke fuers posten :up:

Die Mods können Dir sicher helfen.

aufkrawall
2018-09-02, 15:38:53
Warum schafft man es eigentlich nicht, wenn man schon ordentlich Rays für jeweils Reflexionen oder Schatten aussendet, die Effekte in einem Rutsch zu erledigen, inkl. IL und AO?
Dieses Entweder, Oder kommt mir ziemlich half-assed für den Performance Hit vor.

just4FunTA
2018-09-02, 15:40:51
ärgerlich finde ich das bei Battlefield zum Beispiel Holzbalken spiegeln. Sowas fällt doch auf..

gravitationsfeld
2018-09-02, 15:46:53
Holz hat relativ viel specular. Auch ohne Lack.

aufkrawall
2018-09-02, 15:47:27
Wenn sie nass oder lasiert sind, ist das doch auch normal?

Demirug
2018-09-02, 16:07:53
Warum schafft man es eigentlich nicht, wenn man schon ordentlich Rays für jeweils Reflexionen oder Schatten aussendet, die Effekte in einem Rutsch zu erledigen, inkl. IL und AO?
Dieses Entweder, Oder kommt mir ziemlich half-assed für den Performance Hit vor.


Weil man dafür noch mehr Rays in andere Richtungen braucht. Gerade für AO/IL müsste man in alle Richtungen Rays schießen.

gravitationsfeld
2018-09-02, 16:43:32
AO ist kein Problem, die Rays sind super kurz.

Warum schafft man es eigentlich nicht, wenn man schon ordentlich Rays für jeweils Reflexionen oder Schatten aussendet, die Effekte in einem Rutsch zu erledigen, inkl. IL und AO?
Dieses Entweder, Oder kommt mir ziemlich half-assed für den Performance Hit vor.
Fuer volles Path Tracing ist die Perf einfach noch nicht da.

Willkommen zu Real-Time-Graphics. Alles ist "half assed". Seit Jahrzehnten.

pixeljetstream
2018-09-02, 16:52:12
Warum schafft man es eigentlich nicht, wenn man schon ordentlich Rays für jeweils Reflexionen oder Schatten aussendet, die Effekte in einem Rutsch zu erledigen, inkl. IL und AO?
Dieses Entweder, Oder kommt mir ziemlich half-assed für den Performance Hit vor.

Es ist afaik kein entweder oder, sondern halt dedizierte Passes. GPUs mögen es wenn die Arbeit möglichst ähnlich ist. Ergo nur Schatten oder nur AO ist sehr gleichförmige Arbeit, simple raytracing shader. So wie du bei postfx auch mehrere Passes machst. Dazu kannst dann auch die denoiser anpassen.
AO brauchst auch an Stellen wo keine Reflektionen sind etc.
Wie SEED zeigt setzen sie das RT ja immer als Ergänzung ein wo bei herkömmlichen Methoden die Daten fehlen würden.

Die Film Tools (otoy Link) path-tracen alles, dann hast aber deutlich mehr Noise noch.

Demirug
2018-09-02, 16:54:47
AO ist kein Problem, die Rays sind super kurz.

Ich gehe davon aus das jeder Ray Setup kosten hat egal wie kurz er ist.

gravitationsfeld
2018-09-02, 19:08:45
Dann sind die Sachen die ich gemessen habe wohl Magie.

Demirug
2018-09-02, 19:22:26
Dann sind die Sachen die ich gemessen habe wohl Magie.

Wenn es funktioniert ist es ja OK. Ich schrieb ja auch extra "gehe davon aus" und nicht das ich weiß das es so ist. Für das Projekt für das ich im Moment arbeite ist RT sowieso erst mal keine Option. Entsprechend war nvidia auch nicht sonderlich daran interessiert.

just4FunTA
2018-09-02, 23:20:40
Wenn sie nass oder lasiert sind, ist das doch auch normal?

in battlefield sah das schon schlecht aus und in keinster Weise normal.

gravitationsfeld
2018-09-02, 23:31:18
Screenshot?

Troyan
2018-09-02, 23:38:28
Ab hier: https://youtu.be/A8roxrR9ZpY?t=587

just4FunTA
2018-09-02, 23:47:43
genau das meinte ich..

aufkrawall
2018-09-02, 23:53:25
Offenbar wird da die Reflexion des Ambient Lightings nicht verdeckt. Wenn solche hässlichen Patzer "normal" mit dem derzeitigen Stand der Technik sind, wärs schon ein ziemlicher Fail.

HOT
2018-09-03, 00:09:14
Nasses und lasiertes holz ist matt...

gravitationsfeld
2018-09-03, 00:15:16
Nasses und lasiertes holz ist matt...
Was? Nein.

aufkrawall
2018-09-03, 00:23:30
Nasses und lasiertes holz ist matt...
*doh*
https://www.pinterest.de/pin/313000242826316674/

HOT
2018-09-03, 08:48:50
Ich hatte jetzt keine polierten Böden im Kopf, wenn man über Holz redet.

pixeljetstream
2018-09-03, 09:17:35
Es liegt nicht am raytracing wie das Holz in BFv aussieht, sondern am Entwickler, es ist alles in deren Hand. Da stand nicht ohne Grund Alpha.

aufkrawall
2018-09-03, 17:03:00
Es liegt nicht am raytracing wie das Holz in BFv aussieht, sondern am Entwickler, es ist alles in deren Hand. Da stand nicht ohne Grund Alpha.
Hat wohl wirklich nichts mit dem RT zu tun, das Spiel sieht allgemein einfach völlig unfertig aus:
https://abload.de/thumb/mpv-shot00011qeqo.jpg (https://abload.de/image.php?img=mpv-shot00011qeqo.jpg)

basix
2018-09-03, 19:19:27
Ich habe mal die auf der Hauptseite verlinkten Papers ein wenig durchgesehen. Da findet man einige interessante Sachen.
http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-12-september-2018

Zum Beispiel Flächenbedarf von RT Cores. Die Bilder im Anhang sind die konkretesten Beispiele dazu. MIMD sieht hier sehr flächeneffizient aus. Ob MIMD auf einer GPU läuft weiss ich nicht, oder sind die Tensor-Cores MIMD fähig?

Zum SIMT Beispiel im "Toward Real Time Ray Tracing" Paper (Nvidia Angaben) weitergeführt für die Umsetzung auf einer RTX 2080 Ti (10 GRay/s @ 1.5 GHz):

Startpunkt = 1.2M Gates @ 100MHz = 0.67 MRay/s
1 Gate = ca. 4-6 Transistoren (NAND im einfachsten Fall = 4T)
Annahme: 1 Gate = 6T
1.2M Gates * 6T = 7.2 MT
10 GRay/s / 0.67 MRay/s = 15'000
15'000 / 1.5 GHz * 100 MHz = 1'000 --> So viele Male müsste man die HW aus dem Startpunkt vervielfachen, um auf 10 GRay/s zu kommen
1'000 * 7.2 MT = 7.2 BT --> Viel zu viel ;D
Gut, rechnen wir den SRAM weg: 14.5kB = 700k Gates (bei 6T Zellen)
Dann sind es noch 1'000 * 3.0 MT = 3.0 BT --> Immer noch zu viel, geht nicht auf


Gut, nehmen wir mal den MIMD Ansatz:

Startpunkt = 10.6mm2 @ 65nm @ 500MHz = 383 MRay/s
10 GRay/s / 383 MRay/s = 26
26 / 1.5 GHz * 500 MHz = 9 --> So viele Male müsste man die HW aus dem Startpunkt vervielfachen, um auf 10 GRay/s zu kommen
Transistordichte GT200 = 2.4 MT / mm2 --> 65nm Referenzwert
Transistordichte GP102 = 25 MT / mm2 --> 12 / 16nm Referenzwert
25 MT / 2.4 MT = 10
9 * 10.6mm2 / 10 = 10mm2 --> Das sieht doch schon viel schöner aus :D
Neuer Startpunkt = 25mm2 @ 65nm @ 500MHz = 175 MRay/s
Das ganze nach dem obigen Verfahren durchgerechnet, ergäbe ca. 50mm2


Meine Zusammenfassung: Entweder hat Nvidia den SIMT Ansatz massiv verbessert oder sie setzen bei den RT Cores auf einen MIMD Ansatz. Weil bei MIMD ergeben sich realistische Zahlen. 10mm2 für 10 GRay/s hören sich wahnsinnig klein an, aber wieso nicht, wäre der mit Abstand flächeneffizienteste Ansatz. Das würde darauf hoffen lassen, dass wir in Zukunft noch viel mehr von den von Jensen so gern ausgesprochenen "Gigarays" sehen werden. Die 10mm2 sind sicher am unteren Ende des realen Flächenverbrauchs, da die GPU wohl noch andere Zusatzlogik braucht, welche hier nicht inkludiert sind. Aber so in ungefähr ein Gefül für die Grössenordnungen ergibt sich schon.

Ich denke, Tensor Cores sind der deutlich grössere Flächenfresser im Verhältnis zu den RT-Cores. Sind auf der anderen Seite aber auch flexibler einsetzbar.

gravitationsfeld
2018-09-04, 06:01:44
Es ergibt nicht so richtig Sinn von "SIMD" oder "MIND" zu reden wenn es um fest verdrahtete Hardware geht. Es ist wahrscheinlich, dass die RT-Einheit die Strahlen eines kompletten Warps verarbeitet (32 lanes) und dann diese vermutlich unabhaengig durch den BVH traced.

urpils
2018-09-04, 06:39:04
wen es interessiert, der Klassiker "Real Time Rendering" hat gerade ein Raytracing-Kapitel kostenlos veröffentlicht :)

http://www.realtimerendering.com/Real-Time_Rendering_4th-Real-Time_Ray_Tracing.pdf

vinacis_vivids
2018-09-06, 16:37:43
AMD über "GPU accelerated ray tracing and rasterization with Vulkan"
xyP3Ut97zVY

Kernpunkte:
- engines sind single threaded und CPU-limitert
- API sind veraltet
- Mischung von graphic und compute shader ineffizient
- schlechte Qualität
- schwache Performance bei feinen Objekten

Entwicklung:
- API zum programmieren für Vulkan
- vereint alle Vorteile von Vulkan und Umstieg so einfach wie möglich zu machen
- typischer CAD Support
- Mischung von graphics und compute shader im LL für die nächste Stufe

Screemer
2018-09-06, 18:06:33
das ganze ist ja schon etwas her aber sehr interessant ist, dass AMD sponsor der develop3dlive war und nvidia nicht. das ist eines der größten events, wenn es um cad geht. auch bei der nächsten iteration in den usa im oktober ist amd und hp main sponsor und von nvidia ist nichts zu sehen: https://d3dliveusa.com/

ChaosTM
2018-09-06, 19:12:42
Lumberyard nutzt etwas das sich Voxel-based Global Illumination (SVOGI) nennt.


K.A. inwieweit es sich dabei um "echtes" RTRT handelt.



https://docs.aws.amazon.com/lumberyard/latest/userguide/rendering-graphics-svogi.html


https://robertsspaceindustries.com/spectrum/community/SC/forum/3/thread/lumberyard-ray-tracing

gravitationsfeld
2018-09-06, 19:43:53
Das hat nichts mit klassischem Raytracing oder was in Turing implementiert ist zu tun.

blaidd
2018-09-06, 21:44:12
Das hat nichts mit klassischem Raytracing oder was in Turing implementiert ist zu tun.

Abgesehen, dass Nvidias Raytracing Bildinhalte offenbar ebenfalls in Rechtecke unterteilen kann um Leistung zu sparen bzw. die Komplexität der Berechnungen zu reduzieren. ;)

K.A. inwieweit es sich dabei um "echtes" RTRT handelt.

Ansonsten sind die Techniken aber auch nach meinem Verständnis komplett unterschiedlich. Wenn man SVOTI mit einer Nvidia-Technik vergleichen müsste, dann wäre am ehesten noch VXAO bzw. VXGI passend, wobei ich davon ausgehe, dass sich die Herangehensweisen auch da recht deutlich unterscheiden, allein schon wegen des Leistungsunterschieds. SVOTI ist tatsächlich recht flott, VXGI kostet (jedenfalls nachdem, was man anhand Techdemos beurteilen kann) recht viel Leistung, zumindest in der Lunar-Demo sieht die Herangehensweise auch anders aus. (https://youtu.be/Fo12c5fFphw?t=262)

Man kann SVOTI hier in Hunt anhand von einer kurzen Editor-Szene in Aktion sehen. (https://youtu.be/Ffxd-vFspcs?t=31)

gravitationsfeld
2018-09-07, 01:25:09
Abgesehen, dass Nvidias Raytracing Bildinhalte offenbar ebenfalls in Rechtecke unterteilen kann um Leistung zu sparen bzw. die Komplexität der Berechnungen zu reduzieren. ;)[/URL]
Alles moegliche hat eine Beschleunigungsstruktur. Wenn du danach gehst ist auch Occlusion Culling und Raytracing das selbe.

blaidd
2018-09-07, 13:35:30
Das hab ich auch nicht ganz ernst gemeint. ;)

vinacis_vivids
2018-09-07, 22:30:23
Nvidia`s ehem. Chefentwickler David Kirk vs. Prof. Philipp Slusallek Uni - Saarbrücken
http://www.scarydevil.com/~peter/io/raytracing-vs-rasterization.html

Locuza
2018-09-08, 06:03:21
David Kirk von Nvidia war damals z.B. nicht der Ansicht das man spezielle Raytracing HW braucht und generische Shader-Cores ausreichen würde, ebenso folgte er nicht dem Narrative das Raytracing massiv Zeit bei der Contenterstellung sparen würde.
Prof. Philipp Slusallek lag dagegen genau richtig, welcher eher HW-Anpassungen vorausgesehen hat, die Vorteile bei der Erstellung von Content, wenn man die ganze Szene betrachten muss und das die damalige HW viel zu langsam und ineffizient für Raytracing war.

Spasstiger
2018-09-08, 15:31:20
Ich frage mich noch, wieso sich Nvidia ab Volta für die Implementierung von Hardware-Raytracing und von Tensor-Cores entschieden hat, was in Summe zu enormen Produktionskosten führt (Chipflächen > 700 mm²). Ich sehe hier drei Erklärungsansätze:
a) Nvidia wollte in erster Linie den Schritt hin zu Echtzeit-Raytracing gehen und benötigt die Tensor-Cores für das Denoising. Praktischerweise profitiert davon auch der Profi-Markt im Bereich maschinelles Lernen und künstliche neuronale Netze.
b) Nvidia hat im professionellen Umfeld Abnehmer für Hardware, die z.B. für autonomes Fahren eine hohe Echtzeitperformance im Bereich maschinelles Lernen und neuronale Netze benötigen. Daher hat man die spezialisierten Tensor-Cores für Matrixmultiplikationen implementiert. Da man die Tensor Cores also im Design hat, die für Denoising taugen, hat man den Raytracer als Show-Case zunächst bei überschaubarem Hardwareaufwand dazu implementiert.
c) Nvidia hatte eine Gesamtstrategie im Kopf, zu der künstliche neuronale Netze genauso dazu gehören wie Echtzeit-Raytracing. Da Nvidia im High-End schon länger außer Konkurrenz agiert, konnte man das Preisniveau kontinuierlich anheben und bekommt nun auch solche Monsterchips wie GV100 und GT102 von den Kunden finanziert.

Gegen These b) spricht, dass mit DirectX Raytracing eine sehr prominente API für Echtzeit-Raytracing geschaffen wird, was für reine Demo-Zwecke seitens Nvidia nicht nötig gewesen wäre.

vinacis_vivids
2018-09-08, 15:34:59
Ein kurzer Blick auf die Webseite und alles klärt sich auf:
Tensor Core:
https://www.nvidia.de/data-center/tensorcore/
"Diese wurden speziell für das Deep Learning entwickelt und bieten überragende Leistung:"

Die FMA Tflops kann man wie folg errechnen:
640TR x 64FMA x 1455Mhz GPU-CLK x 2 ~ 119,2 Tflops

Mixed RayTracing&Rasterizing ist allenfalls ein Nebenprodukt von "Tensor Core"

gravitationsfeld
2018-09-08, 19:26:29
Mixed RayTracing&Rasterizing ist allenfalls ein Nebenprodukt von "Tensor Core"
Nein.

ferwen-Gast
2018-09-08, 20:12:51
David Kirk von Nvidia war damals z.B. nicht der Ansicht das man spezielle Raytracing HW braucht und generische Shader-Cores ausreichen würde, ebenso folgte er nicht dem Narrative das Raytracing massiv Zeit bei der Contenterstellung sparen würde.
Prof. Philipp Slusallek lag dagegen genau richtig, welcher eher HW-Anpassungen vorausgesehen hat, die Vorteile bei der Erstellung von Content, wenn man die ganze Szene betrachten muss und das die damalige HW viel zu langsam und ineffizient für Raytracing war.
RT benötigt keine Tensor-Cores oder etwas ähnliches, die gibt es nur weil nVidias Gen1 Rechenleistung für echtes und "pixelgetreues" Raytracing nicht reicht und sie bei der Berechnung mit der Auflösung umher spielen. Problem ist, dass dies nicht alle Engines unterstützen können, weil diese teilweise selbst schon Auflösungen skalieren.

Ich vermute daher wird der Großteil wohl eher auf Compute RT setzen, wie Dice das jetzt in BF5 umzusetzen scheint, indem sie mitteilen sie reduzieren die RT API zugunsten spielbarer Frameraten, damit kann nur Gameworks RT gemeint sein. Für Optimierungen auf AMD Hardware fehlt ihnen der Treiber.

Ansonsten braucht DXR eine Reihe neuer HLSL-Shadertypen, einschließlich Raygeneratoren, Nothinghit-/, Anyhit-/ und Miss-/Shadertypen.

RLZ
2018-09-08, 23:04:31
Prof. Philipp Slusallek lag dagegen genau richtig, welcher eher HW-Anpassungen vorausgesehen hat, die Vorteile bei der Erstellung von Content, wenn man die ganze Szene betrachten muss und das die damalige HW viel zu langsam und ineffizient für Raytracing war.
Sagen wir eher seine Doktoranden zu der Zeit, die allesamt bei Intel und Nvidia gelandet sind und unter anderem für Embree verantwortlich waren. Da gab es in letzter Zeit aber nochmal Personalbewegung von Intel zu Nvidia.

Ailuros
2018-09-09, 18:30:59
IMH(L)O (L fuer Layman): natuerlich braucht man dedizierte hw bzw. Logik fuer ray tracing und ja der ingesamte Aufwand dafuer duerfte schaetzungsweise tatsaechlich nicht besonders mehr prozentuell einnehmen als dedizierte hw wie N rasterizer pro high end GPU chip.

Am Rand es gibt vieles welches man mit dedizierten NN cores bzw. hw heute anstellen koennte. Was zuerst als durchdachte Bescheisserei seitens Huawei klang, koennte vielleicht ein Gedankensporn fuer die Zukunft und hauptsaechlich System bzw. ServerOnChip(s) sein: https://www.anandtech.com/show/13285/huawei-gpu-turbo-investigation/3

Gast
2018-09-09, 19:31:23
IMH(L)O (L fuer Layman): natuerlich braucht man dedizierte hw bzw. Logik fuer ray tracing und ja der ingesamte Aufwand dafuer duerfte schaetzungsweise tatsaechlich nicht besonders mehr prozentuell einnehmen als dedizierte hw wie N rasterizer pro high end GPU chip.

Am Rand es gibt vieles welches man mit dedizierten NN cores bzw. hw heute anstellen koennte. Was zuerst als durchdachte Bescheisserei seitens Huawei klang, koennte vielleicht ein Gedankensporn fuer die Zukunft und hauptsaechlich System bzw. ServerOnChip(s) sein: https://www.anandtech.com/show/13285/huawei-gpu-turbo-investigation/3
dann fragt man sich warum man auf einer 550ti schon raytracing ausführen könnte, ohne dediziertes gedoens? sondern auf glsl - open gl bei 14fps in 720p. 1080p schafft die 1080ti ja nun gerade mal 1,8fps.

daran liegt nvidia aber nichts, kostet ja nicht extra. die tensor-its a Feature-ai-cores-strategie, die man verkauft sind dann eher für downsampling "layman" aa, als für raytracing. dxr und compute rt braucht keine dedizierten cores, was auch immer du damit anstellen willst ausser bei gameworks rt und wegen cheaten aus benchmarkdatenbanken rausfliegen, wie gerade huawei.

betruegereien haben wir schon genug gesehen.

gravitationsfeld
2018-09-09, 20:51:33
Turing hat dedizierte Hardware fuer Raytracing, da ist nichts mit "Betrug". Was ist denn das fuer eine Schwachsinns-Diskussion hier mal wieder?

pixeljetstream
2018-09-09, 21:57:55
Natürlich brauch man keine extra Einheiten. Gibt ja ewig raytracing auf GPUs. Wurde doch mit Volta auch demonstriert und Optix gibt's ewig. Aber es ist halt deutlich langsamer.
Dedizierte Cores die genau den Strahltest beschleunigen sind schneller & effizienter als das gleiche mit generischen compute units zu machen. Die rasterization ist ja auch in HW gegossen...

Lest doch das verlinkte Material. Es gibt auch Artikel zu DXR etc.

Das upsampling, denoising etc. ist alles von Entwicklern selbst ausgeführt. Das wird doch jetzt auch schon von vielen Spielen gemacht. Wenn ihr Screen space occlusion seht, oder Reflektionen dann sind da immer diverse Filter drauf die das glätten.

Wieso immer wilde Theorien starten anstatt sich mit der Thematik auseinander zu setzen.

Ihm
2018-09-09, 22:38:42
Damit diese Diskussion ein schnelles Ende findet:

"The RT core essentially adds a dedicated pipeline (ASIC) to the SM to calculate the ray and triangle intersection. It can access the BVH and configure some L0 buffers to reduce the delay of BVH and triangle data access. The request is made by SM. The instruction is issued, and the result is returned to the SM's local register. The interleaved instruction and other arithmetic or memory io instructions can be concurrent. Because it is an ASIC-specific circuit logic, performance/mm2 can be increased by an order of magnitude compared to the use of shader code for intersection calculation. Although I have left the NV, I was involved in the design of the Turing architecture. I was responsible for variable rate coloring. I am excited to see the release now."

Yubo Zhang, heute Ingenieur bei Pony.ai, früher Ingenieur bei Nvidia.

Gast
2018-09-09, 23:41:52
Raytracing braucht keine Tensorcores. Es reichen imho die Shadertypen die ferwen-Gast beschrieben hat. NVidias Variante ist Gameworks RT closed. Ihre RT Einheiten sind einfach die neuen Shader die DXR beschleunigen und auch erfordert. Das beschreibt auch Microsoft so.

What is DirectX Raytracing?

At the highest level, DirectX Raytracing (DXR) introduces four, new concepts to the DirectX 12 API:

The acceleration structure is an object that represents a full 3D environment in a format optimal for traversal by the GPU. Represented as a two-level hierarchy, the structure affords both optimized ray traversal by the GPU, as well as efficient modification by the application for dynamic objects.
A new command list method, DispatchRays, which is the starting point for tracing rays into the scene. This is how the game actually submits DXR workloads to the GPU.
A set of new HLSL shader types including ray-generation, closest-hit, any-hit, and miss shaders. These specify what the DXR workload actually does computationally. When DispatchRays is called, the ray-generation shader runs. Using the new TraceRay intrinsic function in HLSL, the ray generation shader causes rays to be traced into the scene. Depending on where the ray goes in the scene, one of several hit or miss shaders may be invoked at the point of intersection. This allows a game to assign each object its own set of shaders and textures, resulting in a unique material.
The raytracing pipeline state, a companion in spirit to today’s Graphics and Compute pipeline state objects, encapsulates the raytracing shaders and other state relevant to raytracing workloads.
https://blogs.msdn.microsoft.com/directx/2018/03/19/announcing-microsoft-directx-raytracing/

Vulkan setzt sicher nicht auf Gameworks auf. DXR lässt wohl einen Fallbackmodus zu, wobei es sich ja nicht um wirkliches RT handelt.

Spasstiger
2018-09-09, 23:41:57
Ergo berechnen die SMs pro Takt einen Strahlenschnitt (und 64 fp32-FMA-OPs). War kein Zufall, dass NV genauso viele RT-Cores wie SMs hat.
Ich schätze, dass der Mehraufwand für die RT-Cores deutlich weniger als 5% der Chipfläche ausmacht. So bleibt bei Bedarf auch genug Luft für signifikante Steigerungen bei den nächsten Chipgenerationen.
Die Tensor-Cores dagegen dürften ziemlich schwergewichtig sein, belegen vermutlich zusammen mindestens genauso viel Fläche wie alle CUDA-Cores.

/EDIT: Die letzte Aussage deckt sich auch mit der Darstellung der Tensor-Cores im Blockschaltbild der Volta-SMs, welche den Turing-SMs mit Abweichungen bei den fp64- und den RT-Cores stark ähneln dürften: https://www.techpowerup.com/img/17-05-11/351c45accab8.jpg

Fusion_Power
2018-09-10, 00:18:07
Wenn so eine RT Grafikkarte gerde nicht für Ray tracing herhält, sind die speziellen RT cores da noch zu was anderem gut? reguläre games noch schneller machen oder irgend wie beim "Grafikalltag" helfen?

PHuV
2018-09-10, 01:15:26
AI/KI-Anwendungen, um z.B. Bilder und Videos zu bearbeiten.

KI: Nvidia zeigt beeindruckenden Fake (https://www.pcwelt.de/a/ki-nvidia-zeigt-beeindruckenden-fake,3449038)
NVIDIA - KI kann Fotos reparieren (https://www.profifoto.de/notizen/2018/07/10/ki-kann-fotos-reparieren/)
Nvidia-KI-Software kann Bilder täuschend echt rekonstruieren (https://www.turn-on.de/tech/news/nvidia-ki-software-kann-bilder-taeuschend-echt-rekonstruieren-373098)

Überleg mal die Möglichkeiten, gerade alte Bilder oder Videoaufnahmen zu verbessern. Das wird ein ganz heißes Eisen mit den Tensor Cores. Dazu noch DLSS auf Videoebene, um z.B. alte Aufnahmen auf 4 oder 8k zu skalieren mit Bildverbesserungsalgorithmen. Man kann ja noch so vieles auf Hochleistungsservern verbessern lassen, und die lokalen Nvidia-Karten bearbeiten dies dann anhand des ermittelten Algorithmen in Echtzeit.

Tensor Cores mögen am Anfang noch nicht so gefragt sein, aber das wird kommen, da sie für KI/AI viel schneller und optimaler arbeiten als z.B. CPUs. Die Möglichkeiten sind fast unbegrenzt. Eine Möglichkeit wäre, die Spieler-KIs besser zu simulieren. Sieh mal das Beispiel AlphaGo Zero:
Künstliche Intelligenz: AlphaGo Zero übertrumpft AlphaGo ohne menschliches Vorwissen (https://www.heise.de/newsticker/meldung/Kuenstliche-Intelligenz-AlphaGo-Zero-uebertrumpft-AlphaGo-ohne-menschliches-Vorwissen-3865120.html)
Dabei kommt AlphaGo Zero mit deutlich weniger Hardware aus als die erste AlphaGo-Version, nicht zuletzt dank der von Google eigens als Neuronale-Netze-Beschleuniger entwickelten Spezialchips TPU (Tensor Processing Unit). Nur noch eine Maschine mit 4 TPUs braucht AlphaGo Zero; bei der ersten Version war es noch ein Cluster mit über 1000 CPU-Kernen und 176 GPUs.

Siehe auch:
https://wr.informatik.uni-hamburg.de/_media/teaching/wintersemester_2017_2018/ntbd-1718-dominik_-report.pdf

Screemer
2018-09-10, 02:09:43
Das ist komplett ot

pixeljetstream
2018-09-10, 06:50:12
Wenn so eine RT Grafikkarte gerde nicht für Ray tracing herhält, sind die speziellen RT cores da noch zu was anderem gut? reguläre games noch schneller machen oder irgend wie beim "Grafikalltag" helfen?
Die RT cores sind wie der rasterizer zweckgebunden. Man kann aber auch Kollision für AI oder Audio damit berechnen. Alles wo man so räumliche Anfragen an bvh stellt.

Gast
2018-09-11, 21:39:28
Raytracing braucht keine Tensorcores. Es reichen imho die Shadertypen die ferwen-Gast beschrieben hat. NVidias Variante ist Gameworks RT closed. Ihre RT Einheiten sind einfach die neuen Shader die DXR beschleunigen und auch erfordert. Das beschreibt auch Microsoft so.


Raytracing braucht keine Tensor cores.
Aber die Tensor Cores sind es die schon in erster Generation zumindest eine halbwegs brauchbare Performance zulassen, für vollständiges Raytracing ist auch die 1080Ti viel zu langsam.
Die Tensor Cores ermöglichen es aber massiv Rays/Auflösung einzusparen mit minimalem Qualitätsverlust, und ermöglichen damit erst das Raytracing in annehmbarer Geschwindigkeit und Qualität auf heutiger Hardware.

dildo4u
2018-09-19, 19:37:10
FPS Werte in der Star Wars Demo.


https://youtu.be/BxoX34erPu0?t=3m30s

Opprobrium
2018-09-21, 13:19:33
Ich bin mal sehr gespannt wie sich das Thema die nächsten Jahre entwickelt.

NVidia hat ja jetzt erstmal vorgelegt. Ironische Randbeobachtung: NVidia bekommt jetzt einen Haufen Häme ab für etwas, was AMD seit Jahren tut (und davon Häme aus dem anderen Lager bekommt): Eine technologische Neuerung veröffentlichen, für die es noch keine Unterstützung gibt, mit dem Versprechen, daß sich das in X Jahren rentieren wird :smile: (Sage ich als AMD Nutzer).

Da nVidia aber nicht unbedingt dafür bekannt ist, auf offene Standards zu setzen wird es interessant sein zu sehen, wie AMD und Intel reagieren.

Theoretisch könnten die beiden nVidia richtig in die Parade fahren, wenn sie soetwas wie OpenRT entwickeln würden (OpenRT gab es sogar schon mal vor ~10 Jahren). Zwischen AMD mit Konsolen und APUs, sowie Intel mit der immer noch quasi absoluten Marktdominanz im iGPU Bereich und den kommenden Intel GPUs hätte nVidia dann einen richtig schweren Stand. Vor allem, weil sie ja mehr und mehr den Mainstream Markt links liegen lassen.

Daredevil
2018-09-21, 13:23:58
Vielleicht ist das ja gerade Nvidias Strategie. ;)
Etwas zu schaffen, was Gamer geil finden und man bei AMD aber eben nicht finden kann.

Damit die Konsolen Hersteller unter Druck geraten und doch mal bei Nvidia anfragen wegen der nächsten Generation bzw. Nvidia dort evtl. mit verdienen kann.

Raytracing ist ja keine kleine Nummer.

mboeller
2018-09-21, 13:50:06
Damit die Konsolen Hersteller unter Druck geraten und doch mal bei Nvidia anfragen wegen der nächsten Generation bzw. Nvidia dort evtl. mit verdienen kann.

du meinst sicher die übernächste Generation, oder?

pixeljetstream
2018-10-03, 18:42:58
https://github.com/Microsoft/DirectX-Graphics-Samples/blob/master/Samples/Desktop/D3D12Raytracing/readme.md
Dx12 raytracing sample

PHuV
2018-10-03, 19:18:44
Für RT werden wohl alle Windows 10 updaten müssen:

Microsoft Windows 10 Oktober 2018 Update mit DXR verfügbar (https://www.hardwareluxx.de/index.php/news/software/betriebssysteme/47483-microsoft-windows-10-oktober-2018-update-mit-dxr-verfuegbar.html)

Für Spieler und Besitzer einer der neuen GeForce-RTX-Karten ist das Windows 10 Oktober 2018 Update vor allem dahingehend interessant, weil damit die Voraussetzungen für die Unterstützung von DirectX Raytracing geschaffen werden.

Troyan
2018-10-03, 19:27:52
Hardwareluxx hat den kompletten Foliensatz von nVidia veröffentlicht und folgende Folie passt perfekt hier rein:
https://cdn01.hardwareluxx.de/razuna/assets/1/53B794F5D59B426390A52E7DFFE202AE/img/62502F1F952443E0BA89E7FC46DC2D9D/Turing-EditorsDay-Presentation-141_62502F1F952443E0BA89E7FC46DC2D9D.jpg
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/47269-nvidia-geforce-rtx-2080-mit-turing-architektur-im-test.html

Es wird ja dauernd die Nutzbarkeit bei Turing in Frage gestellt.

x-dragon
2018-10-03, 19:43:29
Und an dem Beispiel soll man eine reele Nutzbarkeit ableiten können? :D Wenn man den Nutzen bei einem realem Spiel nachvollziehen könnte, aber so ...

Wobei ich das schon seltsam finde eine 3D-Audio-Demo in fps zu messen (natürlich ohne weitere Angaben wie diese zustanden kommen).

pixeljetstream
2018-10-03, 19:52:22
Daneben stehen die Millisekunden. Die Demo richtet sich eher an Architekten die in VR audiovisuell ihr Gebäude inspizieren können.

Raytracing geht mit Vulkan auch ohne rs5

Troyan
2018-10-03, 19:53:06
Nichts seltsam. Raytracing für Soundberechnungen gibt es z.B. in Steam mit der AMD-Umsetzung.

x-dragon
2018-10-03, 20:00:28
Ja, aber als normaler Anwender kann man da kaum etwas konkretes rauslesen. Die Unterstützung muss ja wie beim "normalen" Raytracing erstmal von den Entwicklern entsprechend eingebaut werden.

iuno
2018-10-03, 20:17:18
Raytracing geht mit Vulkan auch ohne rs5
Dazu muesste man trotzdem ueberhaupt erstmal Vulkan benutzen, was auch so bisher schon kaum einer macht. Juckt doch keinen der Entwickler oder Publisher dass man von einem aktuellen W10 abhaengt. Wieso solls mit RT anders sein?

pixeljetstream
2018-10-03, 20:43:57
Es wird nicht anders sein… dennoch wollte ich das ergänzen.

Digidi
2018-10-05, 05:19:10
Ein paar samples zum Rumspielen:
https://github.com/Microsoft/DirectX-Graphics-Samples

crux2005
2018-10-20, 05:41:21
Was Raytracing-Effekte an Leistung kosten können
https://www.golem.de/news/geforce-rtx-was-raytracing-effekte-an-leistung-kosten-koennen-1810-137115.html

Das sind insgesamt 9,2 ms pro Frame [für RT] und damit ein um fast ein Drittel höherer Rechenaufwand, wenn wir 30 Bilder pro Sekunde als Basis nehmen (42,2 ms statt 33 ms pro Frame).

70W2aFr5-Xk

Screemer
2018-10-20, 07:05:07
Was wird denn da fürs denoising benutzt? Das grieselt nämlich ordentlich.

dargo
2018-10-20, 08:39:27
Da steht was von 1 rpp. Wobei ich mit rpp nichts anfangen kann. Heißt es nicht eigentlich spp... sample per pixel?

Edit:
Hier steht wieder was von rpp. :confused:
https://www.google.de/imgres?imgurl=https%3A%2F%2Fwww.ixbt.com%2Fimg%2Fx780x600%2Fr30%2F00%2F02%2F09%2 F07%2Fremedyaorpp.jpg&imgrefurl=https%3A%2F%2Fwww.ixbt.com%2F3dv%2Fdirectx-raytracing.html&docid=dUc0Hy4yO2xVBM&tbnid=9bWPDvLbjAkFaM%3A&vet=10ahUKEwjX3Nbfs5TeAhXICuwKHfBOC9cQMwg0KAIwAg..i&w=780&h=433&bih=1298&biw=2560&q=1rpp%20denoising%20bei%20raytracing&ved=0ahUKEwjX3Nbfs5TeAhXICuwKHfBOC9cQMwg0KAIwAg&iact=mrc&uact=8

Radeonfreak
2018-10-20, 08:44:55
ray per pixel vermutlich.

dargo
2018-10-20, 08:48:31
Logisch... bin wohl noch zu müde. :freak: In dem Bild von Golem ist auch ein Komma nach 1rpp. Aber ist das eigentlich normal, dass mehr Lichtstrahlen pro Pixel zu weniger Grieseln führt? Jedenfalls verstehe ich das so bei dem Remedy Bild mit dem AO. Besonders mit 16 rpp ist das Grieseln deutlich weniger.

RLZ
2018-10-20, 10:34:54
Aber ist das eigentlich normal, dass mehr Lichtstrahlen pro Pixel zu weniger Grieseln führt?
Wie immer, wenn man ein hochfrequentes Signal samplet.

dargo
2018-10-20, 11:12:23
Oje... dann sieht es für Raytracing noch schlimmer aus als ich dachte. Wenn schon 1rpp insgesamt 9,2ms pro Frame auf einer 2080TI in 1080p kostet was kosten dann erst 16rpp? :freak:

Achill
2018-10-20, 11:53:51
Neben dem Denoising sind m.E. alle Demos (die ich bisher gesehen habe) immer ein "Best Case" - die Tiefe/Komplexität der Szene ist immer einfach (Reduktion des Object-Trees), sprich es gibt deutlich weniger Dichte bei (dynamische) Objekten und auch die Objekte selbst haben i.d.R. planar bzw. konvexe Oberflächen die faktisch die Reflection an der Oberfläche eines Objekts selbst ausschließt / vermeidet.

RLZ
2018-10-20, 11:55:01
Oje... dann sieht es für Raytracing noch schlimmer aus als ich dachte.
Die Angaben im Golem Artikel sind viel zu unterspezifiert um irgendeine Schlussfolgerung daraus zu ziehen zu können.

Wenn schon 1rpp insgesamt 9,2ms pro Frame auf einer 2080TI in 1080p kostet was kosten dann erst 16rpp? :freak:
Wo hast du die Zahl schon wieder her?

anorakker
2018-10-20, 12:31:53
Bei all dem NVIDIA Gebashe muss ich auch mal sagen, dass man diesen Schritt zu RTX wahrscheinlich erst in ein paar Jahren wirklich wertzuschätzen weiss, denn das ist endlich mal ein Schritt in die Zukunft der 3D Grafik.
Wie bei fast jeder neuen Technologie ist die erste oder zweite Generation nur eine Demo, das haben wir ja nun schön häufig genug erlebt. Aber langfristig freue ich mich auf wahnsinnig realisitische Beleuchtungen, die imo der zentrale Knackpunkt für foto-realisitsche 3D Grafik ist. Die synergie aus Rasterizing und Raytracing wird wohl die nächsten 10 Jahre bestimmen.

aufkrawall
2018-10-22, 14:06:55
Ganz schön schwach, dass es immer noch rein gar nichts an Software gibt (weder DLSS, noch RT). Da wurde mit der langen Liste der DLSS-Spiele etwas ganz anderes suggeriert. Aber das überrascht jetzt ja hoffentlich keinen. ;)

pixeljetstream
2018-10-24, 09:44:52
https://www.chaosgroup.com/blog/profiling-the-nvidia-rtx-cards

HOT
2018-10-24, 11:10:02
Neben dem Denoising sind m.E. alle Demos (die ich bisher gesehen habe) immer ein "Best Case" - die Tiefe/Komplexität der Szene ist immer einfach (Reduktion des Object-Trees), sprich es gibt deutlich weniger Dichte bei (dynamische) Objekten und auch die Objekte selbst haben i.d.R. planar bzw. konvexe Oberflächen die faktisch die Reflection an der Oberfläche eines Objekts selbst ausschließt / vermeidet.

Und die Demos sind stets steril.

crux2005
2018-10-31, 06:06:24
Als ich gerade die RDR2 Realtime Schatten und co. gesehen habe (auf Xbox One X) fragte ich mich wer in den nächsten 1-2 Jahren RayTracing für ähnliche Qualität "verschwenden" will. Ja, mit RTX ist es einfacher für die Devs. Nur, wollen die Kunden auch diesen Weg? Ich glaube nicht. Sehr Beeindruckend was Rockstar Technisch abliefert.

Dnzuh6I8gnM

crux2005
2018-10-31, 21:27:26
DICE empfehlt für RayTracing in BFV eine RTX 2070.
http://www.4players.de/4players.php/spielinfonews/PC-CDROM/39331/2178724/Battlefield_5-Systemanforderungen_benannt.html

Bin sehr gespannt wie es mit der Karte laufen wird. 1080p, DXR slider auf low? :uponder:

Blediator16
2018-11-01, 17:27:14
DICE empfehlt für RayTracing in BFV eine RTX 2070.
http://www.4players.de/4players.php/spielinfonews/PC-CDROM/39331/2178724/Battlefield_5-Systemanforderungen_benannt.html

Bin sehr gespannt wie es mit der Karte laufen wird. 1080p, DXR slider auf low? :uponder:

Sie haben kaum eine andere Wahl. Die 2070 ist die kleinste Karte, die theoretisch dazu in der Lage ist.

aufkrawall
2018-11-14, 20:25:35
Aus dem BF5-Thread:
Ich hab auch noch ein paar Benchmarks gemacht, damit man die Leistung und den Einfluss der Qualitätsstufen noch ein bisschen besser einschätzen kann. Mal sehen, ob Cheffe das heute noch online stellt.

Aber mal grob formuliert (eher ein bisschen auf der strengen Seite): Von RTX off zu RTX on (ultra) viertelt sich die Leistung ungefähr (ein bisschen weniger, wenn man von dem schlechter laufenden DX12-Pfad ausgeht). Das ist ungefähr das, was ich nach der Gamescom eingeschätzt habe... (~ -75 %)
Anders ausgedrückt müssten die RT-Cores einer RTX 2080 Ti etwa 4 Mal so potent ausfallen, um die regulären Grafikeinheiten nicht auszubremsen (gesetzt den Fall, das skaliert alles linear und RT benötigt nicht auch noch zusätzlich Leistung von der GPU).

Dauert wohl noch ein wenig bis dieses Leistungsverhältnis passt...;) bis dahin kann Nvidia wohl noch ein oder zwei Generationen GPUs verkaufen.
Was ein Desaster. Die-Size explodiert, trotzdem unbrauchbar langsam, und das nur für Reflexionen. Wenn man die beschissen optimierten SSR in Frostbite ausschalten würde, wäre der relative Performance-Hit sogar noch viel heftiger. ;D

Daredevil
2018-11-14, 20:33:24
Deswegen kann man ja auch zwei Karten zusammen schnallen. :>

Linmoum
2018-11-14, 20:42:26
Hätte man ihnen bei der 2070 dann mal sagen sollen. :P

gravitationsfeld
2018-11-14, 21:13:05
Aus dem BF5-Thread:

Was ein Desaster. Die-Size explodiert, trotzdem unbrauchbar langsam, und das nur für Reflexionen. Wenn man die beschissen optimierten SSR in Frostbite ausschalten würde, wäre der relative Performance-Hit sogar noch viel heftiger. ;D
Ist das wirklich so die allgemeine Sicht von den Leuten? Die Karten scheinen sich zu verkaufen. Das Raytracing-Feature hat meiner Meinung nach einen Halo-Effekt.

Womoeglich hatten sie auch damit gerechnet, dass sie 10nm benutzen koennen und wollten nicht laenger warten. 10nm wurde von AMD und NVIDIA ja uebersprungen. Das Feature ist echt ein bisschen komisch fuer eine weitere 14nm-Generation.

iuno
2018-11-15, 03:03:54
Ist das wirklich so die allgemeine Sicht von den Leuten? Die Karten scheinen sich zu verkaufen.
Ich glaube aber dass die Anzahl derer die es trotzdem cool finden, obwohl es absehbar diese Generation zu lahm ist, waere bedeutend groesser wenn die Mondpreise nicht waeren.
Und verkaufen tut sich eh alles.

][immy
2018-11-15, 09:34:54
Auch hier nochmal:
SpZmH0_1gWQ

Die 2070er scheint absolut nicht geeignet zu sein für den Job. So viel zum Thema einer RTX 2060 die einige sich erhofft haben.

SSR ist nach wie vor the way to go, aber natürlich sollte man beachten das DICE wohl noch allgemein Probleme mit DX12 hat. Die Effekte sind zwar schön für Screenshots, aber zum Spielen nicht wirklich geeignet.

THEaaron
2018-11-15, 09:43:52
Keine Ahnung.. im Vergleich zu den RTX Spiegelungen sieht SSR einfach nur richtig scheiße aus. Gerade die ganzen Artefakte bei SSR nerven unglaublich plus den Viewport Beschränkungen die ständig schon am am Bildrand sichtbar sind.

Wenn es mal performant genug ist weitere Lichtquellen einzubeziehen finde ich Battlefield als Beispiel gar nicht so schlecht. Sieht schon geil aus wenn eine V1 explodiert und in Rotterdam alle Fenster die Explosion spiegeln oder sich das Feuer korrekt in Waffe und umliegenden Materialien spiegelt. Das trägt unglaublich zu einem wesentlich besseren Gesamteindruck bei. Ist aber early adopter Zeugs und warten schadet ja nicht.

w0mbat
2018-11-15, 10:05:40
@THEaaron: Keine Frage, RT ist schöner. Aber darum geht es doch gar nicht. Wir reden hier nur um Reflektionen und die Performance bricht extrem ein. Zudem sieht man den Unterschied nur wenn man darauf achtet, im Spiel selber ist das nicht von Vorteil.

Das SSR Arifakte haben merke ich im MP gar nicht. Das ist völlig egal.

aufkrawall
2018-11-15, 10:10:39
Ich bemerke sie zumindest dann nicht, wenn ich sie ausschalte (Postprocessing medium). ;)
Wer hatte denn in BF4 im MP dynamische Reflexionen vermisst...

THEaaron
2018-11-15, 10:15:57
Ich finde nicht dass man den Unterschied nur sieht wenn man darauf achtet. Das ganze Bild ist mit wesentlich mehr korrekten Beleuchtungsinformationen angereichert. Z.B. dass sich ein Feuer in viel mehr Materialien korrekt spiegelt resultiert einfach in einem stimmigeren Gesamtbild. Obwohl ich auch mit verringerten Details spiele um möglichst viel FPS zu haben finde ich den Mehrwert von RTX wesentlich höher als alle Regler ingame nach rechts zu schieben.

Die SSR Artefakte sehe ich auch in einem Spiel wie BF - das ist doch eine absolute Artefakt- und Flimmerhölle sobald sich da was bewegt.

Dass man mit dem ersten Wurf keine 120fps bekommt war doch von vornherein klar. Hier wird in 3 Threads über 20 Seiten rumgeritten was schon zig mal bestätigt wurde. Wer hier early adopter spielt muss einfach damit klarkommen, dass es nur mit 30-60fps je nach Settings läuft.

Ich mein sollen sich jetzt noch 20 weitere Threads im Kreis drehen und sich selbst bestätigen? Man kann jetzt nur auf weitere Optimierungen hoffen und abwarten. Wer sich eine Turing für RTX gekauft hat und das ganze nicht komplett blind angegangen ist wusste doch ziemlich genau was ihn erwartet.


€: but hey, maybe that's just me. :D

Ganon
2018-11-15, 10:39:32
Wer sich eine Turing für RTX gekauft hat und das ganze nicht komplett blind angegangen ist wusste doch ziemlich genau was ihn erwartet.

Och, in weniger technischen Kreisen gibt es genug Blindkäufer. Ich hatte in anderen Chats auch schon gesagt, dass man von der ersten Generation keine großen Ergebnisse erwarten sollte, glauben wollte mir aber kaum jemand. Das Marketing funktioniert da ziemlich gut.

THEaaron
2018-11-15, 10:44:59
Ja, aber hier in unserer 3DC Nische wird auch gesagt dass man MP nicht mit <=60 fps spielen kann. Ich glaube kaum, dass alle PC Spieler mit >=60fps rumrennen. Meine persönlich nicht signifikante Erfahrung sagt da eher aus, dass die Leute sogar mit VSYNC im MP spielen wo die FPS mal 30, 45 und was weiß ich was sind. Ob die das Ruckeln merken? Nö. Input lag kennen die nichtmal.

:D

Ganon
2018-11-15, 11:48:48
Hier geht's halt allgemein um die Diskussion zu Realtime Raytracing und nicht wie irgendwer seine Spiele zocken mag. Und Battlefield 5 ist dann halt gerade mal ein aktueller Vertreter. Das Ding ist halt, dass man daraus jetzt ein bisschen ableiten kann was in Zukunft so nötig ist, gerade auch in Anbetracht, dass Battlefield 5 halt wirklich nur Reflexionen über Raytracing macht, sonst gar nichts.

THEaaron
2018-11-15, 11:55:20
Irgendwo muss man halt anfangen. Ob man wirklich jetzt ableiten kann was nötig ist? Imho fragwürdig. Selbst DICE hat noch nicht wirklich viel Zeit in das Thema investiert. Als BFV mit RTX zum ersten Mal gezeigt wurde hatte DICE gerade mal 2-3 Wochen in das Thema investiert.

Das Thema ist so taufrisch, dass die Optimierungen auf beiden Seiten (HW+SW) hier noch zu beachten sind. Außerdem ist das ja auch kein Thema wie Hairworks, da nVidia afaik den DXR Standard implementiert. Sobald die Aufwände auch von AMD in die Richtung gesteckt werden dürfte das Thema an Fahrt aufnehmen. Könnte aber auch einfach komplett zum erliegen kommen.

Irgendwer muss halt Pionier spielen.

Gast
2018-11-15, 19:54:55
[immy;11852870']

SSR ist nach wie vor the way to go, aber natürlich sollte man beachten das DICE wohl noch allgemein Probleme mit DX12 hat. Die Effekte sind zwar schön für Screenshots, aber zum Spielen nicht wirklich geeignet.

Wie erwartet ungefähr 60FPS@FullHD. Für eine erste Generation finde ich ist das eine verdammt gute Leistung.

Wobei die RTX-Spiegelungen auf Low und Medium deutlich schneller sind, und dabei immer noch 1000x besser aussehen als die SSR.

Es gibt nur einen Bug im Spiel, wodurch die Medium Quality nur aktiviert wird, wenn man "von unten" auf Medium schaltet, also von Low auf Medium schalten.
Wenn man nämlich von High auf Medium schaltet wird die Qualität nicht verändert und auch die Performance bleibt logischerweise identisch.

danarcho
2018-11-15, 19:57:33
Ist das wirklich so die allgemeine Sicht von den Leuten?

Mich würde an der Stelle mal deine Meinung dazu interessieren. Vor allem auch im Hinblick auf mögliche Verbesserungen der klassischen Art und Weise.
Sind nicht Portal und Serious Sam Beispiele dafür, dass auch so Spiegelungen von Bereichen außerhalb der Sicht möglich sind? Vllt mit weniger Performance-Einbrüchen?

][immy
2018-11-15, 20:57:46
Mich würde an der Stelle mal deine Meinung dazu interessieren. Vor allem auch im Hinblick auf mögliche Verbesserungen der klassischen Art und Weise.
Sind nicht Portal und Serious Sam Beispiele dafür, dass auch so Spiegelungen von Bereichen außerhalb der Sicht möglich sind? Vllt mit weniger Performance-Einbrüchen?
Ein aktuelles Beispiel ist Hitman 2 was auch einen ziemlich alten Trick nutzt. Andere Beispiele sind die Rückspiegel bei Autorennen.
Reflektionen sind eigentlich schon lange keine wirkliche Herausforderung. Nur in der Masse wird halt die Kompromiss-Variante auch teuer.
Mit RT werden Reflektionen aber deutlich besser und genauer dargestellt. Ob es das letztlich wirklich bringt ist so eine andere Sache. Bis nvidia damit angefangen hat ist mir bei SSR auch nie aufgefallen das dort nur Teile zu sehen sind die auch im Bild sind, was aber einfach daran liegt das ich normalerweise in einem Spiel nicht darauf achte. Es spiegelt sich halt die Welt irgendwie in einer Pfütze etc wieder, und 2s später bin ich daran vorbei. Dafür brauche zumindest ich kein RT. Die Variation mit der Beleuchtung finde ich da schon interessanter.

Btw, ich habe noch nie so viele Reflektierende Matche wie in BFV gesehen. Die haben es scheinbar einfach übertrieben. Auch das sich in einer Pfütze oder einem kleine Bach durch den ständig jemand latscht so viel und deutlich Reflektiert wird (da müssten wellen und schlamm dafür sorgen das die Oberfläche einfach nur braun wirkt und maximal ein wenig schattierter ist wo sich etwas dezent "spiegelt"), ist eher nicht realistisch. So viele Details gibt es normalerweise einfach nicht zu sehen, das müsste deutlich dezenter werden.

AffenJack
2018-11-16, 09:51:04
Generell einige sehr interessante Posts zu RT von Sebastian Aaltonen (Claybook Raytracing Spiel) auf seinem Twitter, teils sehr technisch, wovon ich kein Plan mehr habe. Wen RT interessiert, der sollte sich seinen Account zu Gemüte führen.

Sebastian Aaltonen
‏I wouldn't judge RTX performance by BF5 alone. They might hit both i$ badly and might spill registers badly, etc. BF5 art and shaders weren't designed for RT in mind. Artist authored 10K+ permutation shader graphs might not be viable if we want efficient real time ray-tracing.


https://twitter.com/SebAaltonen/status/1063318522112155648

Zeigt so in etwas das Problem auf. RT einfach obendrauf wird einfach ineffizient sein. Für performantes RT, wird man auch den Rasterpfad verändern müssen und dann sollte auch mehr Performance rauszuholen sein. Er kriegt die Tage auch einen Turing und dann wirds mal interessant, was er so zu der Performance, Vorteilen, Einschränkungen sagt.

RaumKraehe
2018-11-16, 10:03:44
Als ich in dem Thread geschrieben hatte das ich eh der Meinung bin das neue Features in der ersten Generation schlicht und ergreifend eher suboptimal umgesetzt werden und erst ab der zweiten Generation das ganze dann auch performant funktioniert wurde mein Beitrag einfach gelöscht.

War das nicht auch bei der Einführung von T&L, DX10 und 11 usw. das gleiche?

Schade. Denn im Grunde, und das zeigen die Benchmarks, lag ich nicht so wirklich daneben.

Grundlegend denke ich auch über einen Kauf der 2070 oder 2080 nach. Allerdings wird mein Wunsch eher durch die VR-Technologie angetrieben als durch RTX.

Troyan
2018-11-20, 16:15:37
Eurogamer hat ein Interview mit DICE über Raytracing in BF5: https://www.eurogamer.net/articles/digitalfoundry-2018-battlefield-5-rtx-ray-tracing-analysis

Ziemlich interessant und zeigt eben, dass man hier (Softwareseitig) komplett am Anfang stehen.

Timbaloo
2018-11-20, 18:00:28
Bei BF5 wirkt RT einfach wie kurz vor Release mal schnell "reingeproggt" und imho auch einfach "zuviel" reingemacht. Reflektionen sind sicher nett, aber halt nur punktuell wirklich sichtbar und dann auch nur vom Fake zu unterscheiden wenn man gezielt draufschaut. Gaijin zeigt mit Enlisted wie man die Technologie für GI effizient einsetzen kann und einen allgegenwärtigen Mehrwert bringt (gegenüber Reflektionen). 4K@90FPS auf einer 2080 (oder doch einer TI?) ist eine Ansage mit der ich gut leben könnte.

Troyan
2018-11-20, 20:31:17
Dice wollte zum Launch draußen sein. nVidia wollte etwas zum Zeigen haben. Nicht umsonst labeln die das Ingame noch als "Experimentell".

Ich finds so besser. Warum weiter warten? Der Zustand in drei Monaten wäre so oder so identisch.

Timbaloo
2018-11-20, 21:13:37
Man hätte sich ein geeigneteres Projekt als Showcase raussuchen können.

Troyan
2018-11-20, 22:47:55
Wieso? Rotterdam und Twisted Steel sind Paradebeispiele für Raytracing. Große Flächen sind mit SSR umgesetzt. Die Unterschiede sind für jeden sichtbar.

Ich denke einfach, dass Dice von Anfang an Interesse gezeigt hat. Der Wunsch nach Perfektion ist immerhin Voraussetzung für Programmierung.

Timbaloo
2018-11-20, 23:07:30
Ja, ein Paradebeispiel wie man einem sinnvollen Feature (Raytracing) einen schlechten Ruf (miese Performance) anhängt.

Der Grund warum NV auf BF5 als "Zugpferd" für RT gesetzt hat, liegt auf der Hand. Es ist ein Spiel mit großem Interessentenkreis. Aber ganz sicher nicht weil Dice hier den total großen technischen Wurf hingelegt hat.

Aber O.K., wir sind da offenbar anderer Meinung. Und gehört auch eher in den Turing-Thread.

Digidi
2018-11-20, 23:26:02
Wieso? Rotterdam und Twisted Steel sind Paradebeispiele für Raytracing. Große Flächen sind mit SSR umgesetzt. Die Unterschiede sind für jeden sichtbar.

Ich denke einfach, dass Dice von Anfang an Interesse gezeigt hat. Der Wunsch nach Perfektion ist immerhin Voraussetzung für Programmierung.

Deshalb verkauft sich Call od Duty auch besser als Battelfield?

Denen Leuten geht es Gottseidank mehrdimensionale Inhalt und Spielerlebis als Bunte Bilder wobei es bei Call od Duty schon grentzwertig ist die Grafik.

Gast
2018-11-21, 00:33:13
Turing ist im Vergleich zum 3 Jahre alten PowerVR Raytracer (trotz 28nm etwa gleiche RT-Leistung bei nur 1% Verbrauch) viel zu ineffizient beim Raytracing. Würde man diesen auf die gleiche Chipgröße wie Turing mit 12nm und 1800 Mhz skalieren, hätte man etwa die 50x RT-Leistung. In 7nm bekäme man etwa 200x RT-Leistung und damit etwa 480 Rays pro Pixel bei 60fps in 1080p. Bereits 2016 reichte es immerhin schon für rauschfreie 20fps in 1080p und das ohne Denoising. (https://www.youtube.com/watch?v=uxE2SYDHFtQ)

hasebaer
2018-11-21, 17:33:03
Justice Online

4gqzZREHhMY

crux2005
2018-11-21, 18:28:25
Die Szene auf dem Marktplatz war aber alles andere als flüssig. :D

Daredevil
2018-11-21, 18:40:32
Wenn man nicht mal Promovideos flüssig hinbekommt, sollte man es echt gleich lassen. ^^
Die Rüstung ist mal wieder zuviel des guten, das Wasser ist aber schick.

Troyan
2018-11-24, 11:51:36
Ja, ein Paradebeispiel wie man einem sinnvollen Feature (Raytracing) einen schlechten Ruf (miese Performance) anhängt.

Der Grund warum NV auf BF5 als "Zugpferd" für RT gesetzt hat, liegt auf der Hand. Es ist ein Spiel mit großem Interessentenkreis. Aber ganz sicher nicht weil Dice hier den total großen technischen Wurf hingelegt hat.

Aber O.K., wir sind da offenbar anderer Meinung. Und gehört auch eher in den Turing-Thread.

Es hat nichts mit Turing zu tun. Dice hat eine Vorstellung davon, wie die Maps aussehen sollen. Hier mal ein simpler Vergleich zwischen DXR und SSR: https://youtu.be/PIzf3XfaTf4?t=180

Ich bezweifel, dass Dice mit der Qualität vom SSR zufrieden ist. Aber in Zeiten, wo es die einzige Möglichkeit darstellt, den gewünschten künstlerischen Aspekt umsetzen, hat es seinen Zweck erfüllt.

Wenn die Hardware jedoch soweit ist, Raytracing in vernünftiger Geschwindigkeit umsetzen zu können, werden auch die Entwickler wechseln - vollkommen lösgelöst, ob die Spieler es wollen oder nicht.

Morgenlicht
2018-11-24, 17:38:09
Es ist schon erstaunlich, daß gut zu 99 % der Artikel, die sich mit Echtzeit-RayTracing befassen immer wieder die Leistungsschwäche auf NVIDIA und deren neue Grafikgeneration (RTX) schieben. Der Softwareentwickler hat keine Schuld. Denn, so steht es in den Artikeln, die Grafikkartenleistung ist für Echtzeit-RayTracing einfach zu langsam.

So viel Blödsinn zum Kopfschütteln, unfassbar.

Ich bin mal kurz ein wenig off-topic und beziehe mich auf den Windows XP Taschenrechner. Wenn dort die Fakultät von 10.000 berechnet werden sollte, kam nach ca. 30 Sekunden ein Fenster ob denn die Rechenaufgabe fortgesetzt werden sollte, oder abgebrochen. Bei Windows 8 steigt der Taschenrechner bei der Berechnung von Fakultät 10.000 wegen Überlauf aus. Nimmt man nun diesen Taschenrechner SpeedCrunch (Download Link (10 MB) (https://bitbucket.org/heldercorreia/speedcrunch/downloads/SpeedCrunch-0.12-win32.zip)) spielt es keine Rolle ob die Fakultät 10.000, 100.000 oder gar von 10.000.000 (10 Million!) Berechnet werden soll. Kaum die Zahl eingegeben und Funktion (!-Symbol) aufgerufen, sofort ist das Ergebnis vorhanden.

Worauf ich in diesem Fall hinaus möchte, ist derer, daß eben ein Programmierer erst einmal lernen muß die vorhandene Rechenleistung optimiert und sinnvoll einzusetzen.

Zur Zeit haben wir die Situation, ganz fies und böse beschrieben, weil die Programmierer einfach zu blöd sind, richtig zu programmieren, muß der Fehler bei der Hardware zu suchen sein. (So kommt es bei den Artikeln heraus)

Ich nehme mal an, auch wenn die Rechenleistung für RayTracing um den Faktor 1 Million höher ist, wird es immer noch Szenarien geben, die die vorhandene Rechenleistung überreizt und alles ruckeln lässt. Dazu gibt es genügend aktuelle Beispiele mit herkömmlicher Berechnungsweise. Einfach alle Regler nach rechts, Auflösung bis ins utopische und noch zusätzlich diverse AntiAliasing Methoden aktiviert und man erhält eine Standbildshow.

pixeljetstream
2018-11-24, 18:18:16
Finde auch nicht gut dass die technisch Bewertung an genau einem Titel festgemacht wird. Aber blöd sind die Entwickler deswegen auch nicht.
Es ist ein Lernprozess wie alle Neuerungen vorher auch, das gilt für beide Seiten (ISV und IHV). Treiber/Compiler etc. müssen angepasst werden. Und Feedback ausgetauscht was man anders machen könnte.
Letztendlich wurde hier raytracing an eine bestehende Engine drangebaut die dafür nicht ausgelegt war (was beim jetzigen Markt Sinn macht). Für Außenstehende vielleicht nicht nachvollziehbar, aber dass es überhaupt in der Komplexität tut, in eine große Engine eingebaut, ist imo schon ein Erfolg.
Manche werden sagen weil sie seit Volta was zum entwickeln hatten, müsste es jetzt doch alles super sein, Launchtitel der Technik blablabla, aber die Realität ist anders. Das Analysieren, der Austausch etc. ist im Gange und das wird noch ne Weile so gehen bis es sowas wie best practices gibt. Das passiert im Dialog und da braucht man nicht unreflektiert mit dem Finger zeigen.

Morgenlicht
2018-11-24, 18:44:58
Finde auch nicht gut dass die technisch Bewertung an gensu einem Titel festgemacht wird. Aber blöd sind die Entwickler deswegen auch nicht.
Es ist ein Lernprozess wie alle Neuerungen vorher auch, das gilt für beide Seiten (ISV und IHV). Treiber/Compiler etc. müssen angepasst werden. Und Feedback ausgetauscht was man anders machen könnte.
Letztendlich wurde hier raytracing an eine bestehende Engine drangebaut die dafür nicht ausgelegt war (was beim jetzigen Markt Sinn macht). Für Außenstehende vielleicht nicht nachvollziehbar, aber dass es überhaupt in der Komplexität tut, in eine große Engine eingebaut, ist imo schon ein Erfolg.
Manche werden sagen weil sie seit Volta was zum entwickeln hatten, müsste es jetzt doch alles super sein, Launchtitel der Technik blablabla, aber die Realität ist anders. Das Analysieren, der Austausch etc. ist im Gange und das wird nicht ne Weile so gehen bis es sowas wie best practices gibt. Genau dieser angesprochene Punkt fließt leider nicht in die Artikel mit ein bzw. kommt in den Diskussionen seltenst auf. RayTracing wurde in Battlefield V in eine fertige Engine (nachträglich) eingebaut. Dafür daß dies noch Alpha-Stadium ist, ist das Resultat umwerfend.

Es ist schon seltsam, daß es als normal angesehen wird, wenn im Laufe der Lebenszeit eines Spiels durch fortwährender Weiterentwicklung und Patches die Geschwindigkeit erhöht wird, aber RayTracing muß vom ersten freilaufen in der Spielewelt gleich perfekt und mit über 100 FPS laufen.

Ich freue mich auf jeden Fall schon einmal, wenn die Erfahrungen und Optimierungen durch Forschung und Entwicklung dann immer mehr Einsatz in den Spielen erfolgt.

Auf dem folgenden Bild ist endlich das bald in Spielen zu sehen, worauf ich schon seit Jahren gewartet habe. Keine Frage, bisher sehen die Spiele schon recht gut aus, fatal war immer noch, daß die Objekte und auch die Figuren die sich über den Bildschirm bewegen, so aussehen, als ob sie schweben würden. Es gibt zwar eine Animation des Laufens, aber insgesamt sieht es immer noch so aus, als wenn irgendetwas dort nicht stimmen würde. Durch die Aktivierung von Ray-traced Schatten ist mit einem Mal die Glaubhaftigkeit der Spielewelt endlich ein Stückchen weiter zu Hause angekommen. Es sieht mehr danach aus wie aus einem Guss:
https://abload.de/img/powervr-ray-tracing-cm6i30.png (https://mk0imgtecp2od63rj429.kinstacdn.com/wp-content/uploads/2015/07/PowerVR-Ray-Tracing-cascaded-vs-ray-traced-3.png)
Quelle - www.imgtec.com/blog/ray-traced-shadows-vs-cascaded-shadow-maps/ (https://www.imgtec.com/blog/ray-traced-shadows-vs-cascaded-shadow-maps/)

Spasstiger
2018-11-25, 09:43:34
Gibts in BF5 mit RTX on die Möglichkeit, per HUD die im Durchschnitt tatsächlich geworfenen Rays pro Szene bzw. pro Pixel anzuzeigen?

Die 10 GRay/s einer RTX 2080 Ti geben in UHD @ 60 fps theoretisch 20 Rays pro Pixel her, was eigentlich in Verbindung mit dem Denoising für ansehnliche Resultate genügen müssten.

Troyan
2018-11-25, 10:49:48
Dice verwendet folgende Anzahl an Rays pro Pixel per Auflösung:
Low: 15,5%
Medium: 23,3%
High: 31,6%
Ultra: 40,5%

https://www.eurogamer.net/articles/digitalfoundry-2018-battlefield-5-rtx-ray-tracing-analysis

AffenJack
2018-11-25, 11:25:45
Wobei die maximale Rayzahl pro Bildausschnitt bei 1Ray per Pixel liegt und die niedrigste bei 1 Ray per 256 Pixel. Das klappt dadurch auch in sogut wie allen Szenen, solange nicht sogut wie nur reflektierende Flächen auftretten, wie beim Gamersnexus Wasserbild mit viel Noise. Da greifen dann die Limits und entsprechend wird es weniger als 1R/P, was nicht mehr ausreicht.

Interessanter Vortrag von Remedy zu deren RT Demo nochmal:
https://www.youtube.com/watch?v=ERlcRbRoJF0

Eins der too long, didn't watch des Videos: Raytracing performance der RT Cores ist in Ordnung mit Turing. Problem ist, dass durch das RT der Shadingworkload auch stark steigt.

Performance Numbers aus dem Video auf Titan V in 1080p:
RT AO: 5ms
Schatten: 4ms
Reflektionen: RT 5-9 ms, Shading 3-5 ms.
Indirect Difuse Illumination: RT 3-5 ms, Shading 2-3 ms.

Auf Turing ist das Raytracing 5x schneller als auf der TV, Shading bleibt aber gleich, dementsprechend sind z.b. Reflektionen immernoch sehr teuer. Dabei wurde das Shading schon stark optimiert und brauchte vorher noch mehr als 2mal soviele ms.

Nimmt man mal ein Bsp mit FPS, da das für viele einfacher vorzustellen ist.
150 FPS sind 6,66 ms pro Frame. Nun addieren wir das Worst Case nach obigen Beispiel, Reflektionen, 2 ms für RT auf Turing plus 5 ms Shading -> Also 13,66 ms, ergo 73 FPS.
Ziemlich vergleichbar mit den Werten bei Battlefield. Das mag sogar noch etwas mehr Shadingheavy sein und dann kommen wir zu den noch größeren Performanceverlusten bei BF.
Beim Shading wird man wohl darauf hoffen müssen, dass den Entwicklern neue Ideen einfallen, um die Last etwas zu optimieren.
RT Cores kann Nvidia einfach mit der Shaderanzahl weiter skalieren. Überproportionale Erhöhungen in den nächsten Gens scheinen nicht sofort nötig.

pixeljetstream
2018-11-25, 12:05:54
Wie Sebastian Aaltonen tweeted, beim Shading ist das Problem die Divergenz. Die schlägt mehrfach zu. Einmal allein die unterschiedlichen Daten, dann aber auch die unterschiedlichen Instruktionen. Gerade letzteres ist nicht unwesentlich bei Engines mit tausenden von shadern. DXR bietet deswegen auch sowas wie Funktionspointer. Hierfür gibt es aber jenseits DXR noch kein Equivalent, was die adaptation hemmt (das shader system der engine müsste für raytracing anders aufgebaut sein).
Die Ironie ist dass man eigentlich unter GL "subroutinen" hatte, auch für alle klassischen stages, aber die API hatte einige Mängel weswegen sich das nicht durchsetzte. Jetzt aber evtl wieder interessant wird.
Nichtsdestotrotz glaube ich, dass es ein lösbares Problem ist, da Hardware sowas kann. Ist nur eine Frage diese Sachen sinnvoll zu abstrahieren.

danarcho
2018-11-25, 12:30:15
Wie Sebastian Aaltonen tweeted, beim Shading ist das Problem die Divergenz. Die schlägt mehrfach zu. Einmal allein die unterschiedlichen Daten, dann aber auch die unterschiedlichen Instruktionen. Gerade letzteres ist nicht unwesentlich bei Engines mit tausenden von shadern. DXR bietet deswegen auch sowas wie Funktionspointer.
Interessant. Kannst du mir kurz erklären, wie das bei Divergence helfen soll? Bei ISPC wird dann die Funktion für jedes unterschiedliche Element einmal aufgerufen, was möglicherweise schneller ist als einmal mit allen Vektoreinheiten drüber zu rennen. Aber was ist "sowas wie Funktionspointer"? Es dürfte recht klar sein, dass zumindest Vulkan irgendwann auch Funktionspointer wegen OpenCL einführen wird.

pixeljetstream
2018-11-25, 12:55:22
Viele games benutzen eine handvoll "übershader", die als Skelett dienen. Der grundsätzliche Ablauf ist hier festgehalten, Beleuchtungsmodelle, etwaige Animation etc.
Bei Unreal sieht man das schön an dem Hauptknoten im shader editor. An diesen docken nun die Artists beliebige Parametergraphen an (texture fetches, Vermischen von Werten...). Das jagt schonmal die Anzahl der shader im Spiel ordentlich hoch, dann gibt es noch diverse Permutationen die von der Engine selbst kommen (shadow pass...).
Am Ende entstehen also viele shader die "einzigartigen" Programmcode haben, sie werden ja als "eine" Funktion kompiliert.
Allerdings (so die Hoffnung/bzw. man kann darauf designen), da sie ja von ähnlichen Gerüsten kommen, oder auch ähnliche Parameterteilgraphen haben, sind ihre eigentlichen Instruktionen teilweise gleich. Diese Information ist aber durch den "eine Funktions" Ansatz der in den Grafikapis vorliegt, verloren gegangen. Das heißt der Instruction-cache des Programmcodes kann nicht allzu gut arbeiten, wenn alles einzigartige Programme sind. Insbesondere wenn die Programme sehr komplex sind.

Der Vorteil der "einen Funktion" ist, dass wir aggressiv über alles hinweg optimieren können, register, load, stores... Je moderner die hardware und flexibler (und je größer die Shaderpermutationen) desto eher ist es hier aber sinnvoll an Alternativen zu arbeiten. Deswegen hatte sowas wie Optix auch früh diese "callable programs", bzw. CUDA/CL die funktionspointer, oder jetzt eben DXR/VK_NV_ray_tracing "callable shaders".
Bei Grafik apis ist bisher das Problem, dass diese von sehr einfacher bis super high-end hw skalieren müssen. Während die Compute APIs immer sehr hw-nah sich am Bestmöglichen orientieren und die Entwickler (weil meistens auf eine Platform optimierend) selber entscheiden können ob nun der Nutzen gleicher Programmcodes besser ist, als ein voll-durch-optimierter Kernel.

Das Problem existiert auch ohne Raytracing, aber hier tritt es deutlich stärker hervor. Im Prinzip hat man beim raytracing die Wahl:
* beim "Auftreffen" zu shaden und dann diese Divergenz in Kauf nehmen, dafür den einfacheren "on-chip" Datenfluss der Ergebnisse.
* die Treffer extern zu speichern, dann versuchen dort uniformer zu shaden, und wieder zurück vermischen mit dem wo es herkam. (wavefront Ansatz).
Klingt vertraut, weil es ein bißchen an deferred shading vs forward shading erinnert.

DXR/VK_NV erlauben grundsätzlich beides, es liegt am Entwickler. Manche nehmen das eine, manche das andere Modell. Eben genau wie bei forward vs deferred, wo es auch die unterschiedlichsten Variationen gibt.
Während wir dort schon paar Jahre "Evolution" hatten, ist bei Raytracing halt alles frisch, man weiß noch nicht genau wo die Reise im Detail hingeht. Das macht es für alle eben recht spannend. Den eigentlichen "trace" in HW gegossen zu haben, erleichtert das ganze, weil dann die Operationen dafür, das Problem nicht weiter verkomplizieren.

dargo
2018-11-26, 08:57:25
Ich denke einfach, dass Dice von Anfang an Interesse gezeigt hat. Der Wunsch nach Perfektion ist immerhin Voraussetzung für Programmierung.
DICE und Perfektion? Guter Witz. ;D Der DX12 Renderer ist immer noch Grütze.

Troyan
2018-11-29, 13:50:22
Der Raytracing-Benchmark für 3DMark kommt im Januar: https://benchmarks.ul.com/news/new-ray-tracing-benchmark-coming-to-3dmark-in-january-2019

Gibt kein Compute-Fallback-Modus. Wird also nur auf Turing laufen.

AffenJack
2018-11-29, 14:30:15
Wo steht da, dass es kein Compute-Fallback gibt? Es steht, dass es auf jeder Karte mit DXR Treibersupport laufen wird. Da das auch mit Compute geht, würde das also auch gehen. Ist nur die Frage ob AMD und Intel Treiber bringen, die DXR im Fallback können. Bei Nvidia geht das mit Pascal ja, soweit ich das verstanden hatte.

Troyan
2018-11-29, 15:50:14
Der DXR-Fallback wurde abgekündigt. Man muss also einen Compute-Fallback-Modus einbauen, der nicht über DXR läuft. Battlefield 5 läuft ja auch nicht auf Pascal mit DXR.

Spasstiger
2018-12-03, 06:35:49
AMD will DXR-Support erst anbieten, wenn die nötige Performance für Echtzeit-Raytracing von Low-End bis High-End gegeben ist. Und ein DXR-Fallback mit einstelligen fps selbst auf 500€-Karten hilft ja auch Niemandem.
Ergo dürfte DXR erstmal exklusiv für Nvidias RTX-Serie da sein.

RLZ
2018-12-03, 07:01:17
Die 10 GRay/s einer RTX 2080 Ti geben in UHD @ 60 fps theoretisch 20 Rays pro Pixel her, was eigentlich in Verbindung mit dem Denoising für ansehnliche Resultate genügen müssten.
Nvidia verwendet zwar Testszenen für die Leistungsermittlung, aber die haben nicht viel mit Realwelt-Szenen in Spielen zu tun. Das gleiche Problem hatten auch Benchmarks von der PowerVR Implementierung. Da ist auch Null Vergleichbarkeit gegeben.

Eine Anzeige der Realleistung fände ich aber auch sehr interessant.

pixeljetstream
2018-12-03, 09:46:58
Es gibt zu viele Faktoren, als das man da auf was sinnvolles kommt. Die Gigarays Angabe bezieht sich primär auf das was die rtcores leisten. Das Shading was über die SMs läuft war bei jenen Testszenen stark vereinfacht.

Die sw Entwickler haben sehr viel Freiheit wie sie die Effekte umsetzen. Es ist letztendlich wie bei Rasterization auch, wo Dreiecksdurchsatz als Metrik auch nicht wirklich hilft, weil die Spiele zu komplex geworden sind in dem wie sie alles umsetzen.

Troyan
2018-12-03, 14:58:48
Laut nVidia steigert sich die Leistung von Raytracing in BF5 durch den neuen Treiber und Patch von morgen um bis 50%.

Mal sehen, obs dies nur in den richtigen Worst-Case Szenen sein wird oder wenn auch kein Shading durchgeführt werden muss.

/edit: Video von nVidia über die Änderungen: https://www.youtube.com/watch?time_continue=156&v=-wy45bQe_XA

Platos
2018-12-03, 15:19:11
AMD will DXR-Support erst anbieten, wenn die nötige Performance für Echtzeit-Raytracing von Low-End bis High-End gegeben ist. Und ein DXR-Fallback mit einstelligen fps selbst auf 500€-Karten hilft ja auch Niemandem.
Ergo dürfte DXR erstmal exklusiv für Nvidias RTX-Serie da sein.

Nach Navi wird man das sicher sehen, denke ich. Das wäre dann nämlich nvidias 3. RT Generation und diese wird wahrscheinlich bis in die XX50(ti)-Region hinab RT Cores bieten und grob zwischen RTX 2070&-80 sein.
Spätestens dann "muss" AMD mitziehen. Da aber Navi sehr wahrscheinlich davon nichts bekommen wird, und mit der Next-Gen sicher schon 7nm EUV vorhanden ist, sollte/muss das also dann passieren.

crux2005
2018-12-03, 18:30:47
Das neue Battlefield V Update (4. Dez. für alle verfügbar) soll die Leistung mit Raytracing bis zu 50% verbessern:

RTX 2080 Ti - stabile 60+ FPS in 1440p mit RayTracing auf Ultra
RTX 2080 - stabile 60+ FPS in 1440p mit RayTracing auf Medium
RTX 2070 - stabile 60+ FPS in 1080p mit RayTracing auf Medium

-wy45bQe_XA

BiZiNiZz
2018-12-03, 18:38:03
Das neue Battlefield V Update (14. Dez. für alle verfügbasr) soll die Leistung mit Raytracing bis zu 50% verbessern:

RTX 2080 Ti - stabile 60+ FPS in 1440p mit RayTracing auf Ultra
RTX 2080 - stabile 60+ FPS in 1440p mit RayTracing auf Medium
RTX 2080 - stabile 60+ FPS in 1080p mit RayTracing auf Medium

http://youtu.be/-wy45bQe_XA

War doch zu erwarten, komplett neue Technik, kein Entwickler hat einen Plan wie er das effizient umsetzen kann. Learning by doing.

Daher finde ich es absolut lächerlich wie hier in den einzelnen Threads immer wieder über das "sinnlose" Feature Raytracing hergezogen wird.........

Gast
2018-12-03, 19:27:40
AMD will DXR-Support erst anbieten, wenn die nötige Performance für Echtzeit-Raytracing von Low-End bis High-End gegeben ist.

Also bei AMD nie :D

Sorry aber der musste sein.

HOT
2018-12-03, 20:13:17
Man scheint ja etliches aus dem RT-Rendering entfernt haben, sodass deutlich weniger RT-Leistung "verschwendet" wird.

dildo4u
2018-12-05, 18:30:45
DQnY5-nTFwM

blaidd
2018-12-05, 19:23:49
Höhö... ich hab grad festgestellt dass auf meinem Shirt "Destination RT" steht... Unbeabsichtigtes Easter-Egg. :cool:

Die Performance ist jetzt wirklich ganz gut. Ein paar Fehlerchen sind leider immer noch zu sehen (die verdammten God-Rays und andere wohl etwas kompliziert zu raytracende Transparente z.B.) und ob ich den Umstand so sexy finde, dass man in den sonst recht geleckt aussehenden RT-Spiegelungen nun doch wieder Screen-Space-Artefakte hat, lasse ich mal dahingestellt... es ist ein Kompromiss, könnte man wohl sagen.

EDIT: Man soll's laut neuer Nvidia-Guide "eventuell" mit einem Konsolenbefehl abstellen können (bzw. dann RT erzwingen können?), aber den Befehl kennt die Konsole nicht, hab's gecheckt... Eventuell funktioniert's eben auch nicht. Der Befehl sieht auch eher aus wie einer der Einträge in der Konfigurationsdatei, aber ich hatte noch nicht die Muße, das zu checken. Aber das geht dann eben wahrscheinlich auch wieder auf die Performance.

crux2005
2018-12-05, 20:50:07
Danke Phil und Raff.

RT und Transparenz ist und bleibt ein Problem. Also nicht verwunderlich das DICE tricksen muss.

Interessant finde ich die "low FPS" Anzeige (Orange Uhr) auf Rotterdam. :D

blaidd
2018-12-05, 21:22:16
Danke Phil und Raff.

RT und Transparenz ist und bleibt ein Problem. Also nicht verwunderlich das DICE tricksen muss.

Interessant finde ich die "low FPS" Anzeige (Orange Uhr) auf Rotterdam. :D

Naja, ist ja der Job. Aber Danke. :)

Das ist der Ping. ;) Gibt leider immer noch nicht wirklich viele Server. Multiplayer-Benchmarks sind daher echt die Pein.

Vor allem, seitdem man das Team nicht mehr Wechseln kann (soweit ich weiß, falls das geht, bitte antworten...), das verdoppelt mal eben den Aufwand, die Szene zu reproduzieren. Eigentlich müsste der Ping, das Wetter auf der Karte, der Spielmodus (Conquest, da volle Map), die Spielerzahl und die Seite des Teams stimmen, bevor man auch nur daran gedenken kann, vernünftig Benchmarks zu machen. Ich hab's diesen Monat mal für die Print-Ausgabe gemacht, das ist ohne Witz allermindestens 4-5 Mal so zeitaufwändig wie ein SP-Benchmark. Und dabei hab ich noch außer Acht gelassen, dass man im Multiplayer ständig erschossen wird... oder die Runde nach anderthalb Messungen vorbei ist, und man sein Glück auf's Neue versuchen darf. Letzteres ist besonders gemein.

crux2005
2018-12-05, 21:51:00
Naja, ist der ja der Job. Aber Danke. :)

Ich habe gehört Leute mögen es wenn ihre gute Arbeit gelobt wird. :biggrin:

Das ist der Ping. ;) Gibt leider immer noch nicht wirklich viele Server. Multiplayer-Benchmarks sind daher echt die Pein.

Ahso, alles klar.

Vor allem, seitdem man das Team nicht mehr Wechseln kann (soweit ich weiß, falls das geht, bitte antworten...), das verdoppelt mal eben den Aufwand, die Szene zu reproduzieren. Eigentlich müsste der Ping, das Wetter auf der Karte, der Spielmodus (Conquest, da volle Map), die Spielerzahl und die Seite des Teams stimmen, bevor man auch nur daran gedenken kann, vernünftig Benchmarks zu machen. Ich hab's diesen Monat mal für die Print-Ausgabe gemacht, das ist ohne Witz allermindestens 4-5 Mal so zeitaufwändig wie ein SP-Benchmark. Und dabei hab ich noch außer Acht gelassen, dass man im Multiplayer ständig erschossen wird... oder die Runde nach anderthalb Messungen vorbei ist, und man sein Glück auf's Neue versuchen darf. Letzteres ist besonders gemein.

Ja, darüber haben sich auch schon paar YouTuber beschwert (HW Unboxed und co).

Stretcher
2018-12-06, 03:42:54
Soweit ich sehen kann, werden nur Gräser oder Blätter per SSR gespiegelt.

aufkrawall
2018-12-06, 11:31:50
Inklusive SS-Artefakten, zusätzlich zu denen von RT und der offenbar amoklaufenden temporalen Komponente (Ballsaal). Ich finds immer noch eine misslungene Vorstellung.

Troyan
2018-12-06, 11:40:07
In Twisted Steel funktioniert der Trick mit den Speicherdaten nicht - zu viele Gräser und Bäume. In Rotterdam ist es nur wahrnehmbar beim Hafen - also irrelevant.

Ansonsten sieht Ultra schon ziemlich schick aus. Jetzt müsste nur das Shading angepasst werden werden. Einiges sieht ziemlich falsch aus, wenn man es mit "Low" oder "Off" vergleicht.

dildo4u
2018-12-06, 15:58:50
Es scheint so das sie nicht RT teilweise mit SSR Ersetzt haben sondern ergänzt.Daher gibt es jetzt mehr Artefakte.

https://www.resetera.com/threads/battlefield-v-pc-performance-thread.79761/page-16#post-15698033

aufkrawall
2018-12-06, 16:07:28
Erzähl uns etwas neues?

Troyan
2018-12-09, 09:42:47
Video vom Raytracing Benchmark, der für 3DMark kommt: https://www.youtube.com/watch?v=QX0VbzXs548

pixeljetstream
2018-12-09, 10:01:06
Vortrag vom RTX-Core Lead
http://on-demand.gputechconf.com/gtc-eu/2018/video/e8527/
Nicht umbedingt viel neues, das realtime lightmap baking am Ende ist ganz nett.

Gimmick
2018-12-09, 10:05:39
Video vom Raytracing Benchmark, der für 3DMark kommt: https://www.youtube.com/watch?v=QX0VbzXs548

Gefällt mir gut, erinnert mich vom Stil her an den 3DMark 99.

Radeonfreak
2018-12-09, 10:08:19
:confused: Wie das? Da gibts nicht die geringste Ähnlichkeit.

Gimmick
2018-12-09, 15:11:31
:confused: Wie das? Da gibts nicht die geringste Ähnlichkeit.

Die Form des Raumschiff, die Drohne am Anfang mit dem Licht, die Kameraführung,... irgendwie alles mehr oldschool.

dargo
2018-12-09, 16:19:46
Video vom Raytracing Benchmark, der für 3DMark kommt: https://www.youtube.com/watch?v=QX0VbzXs548
Früher war der 3DMark irgendwie eine Vorschau auf bombastische, zukünftige Grafik in Spielen. Heute finde ich den 3DMark einfach nur überflüssig und zudem noch recht häßlich. Da sehen viele Szenen in neueren Games besser aus. Das galt aber auch schon für den Vorgänger mit der völlig übertriebenen Postprocessing Seuche. Der Witz an der Sache ist dann noch, dass die Games wesentlich effizienter laufen. Ob man dabei trickst ist mir ziemlich wurscht, das Gesamtbild muss einfach stimmen.

Geächteter
2018-12-09, 16:39:06
Früher war der 3DMark irgendwie eine Vorschau auf bombastische, zukünftige Grafik in Spielen. Heute finde ich den 3DMark einfach nur überflüssig und zudem noch recht häßlich. Da sehen viele Szenen in neueren Games besser aus. Das galt aber auch schon für den Vorgänger mit der völlig übertriebenen Postprocessing Seuche. Der Witz an der Sache ist dann noch, dass die Games wesentlich effizienter laufen. Ob man dabei trickst ist mir ziemlich wurscht, das Gesamtbild muss einfach stimmen.
Liegt wohl daran, dass das gute Gesamtbild (handerstellten) Content ausmacht, der natürlich durch die über die Jahre zunehmende Detaillierung sackteuer geworden ist wegen der benötigten Manpower.
Paar Befehle für neue Bling-Bling-Effekte implementieren hingegen nicht. Man sieht doch heute auf den ersten Blick, ob die Szene von einer Klitsche erstellt worden ist oder von einer Heerschar.

Ex3cut3r
2018-12-09, 21:58:29
Also ich habe mir mal BF5 gestern Nacht ausgiebiger getestet.

Testsystem:
4770k @ 4,2
16GB DDR3 @ 2400
RTX 2080 voll aufgerotzt (300W Bios) @ 2040mhz/7700mhz

Mit RT On auf Ultra sind die FPS jetzt zwischen @ 3440x1440 zwischen 50-60 vor dem Update bei 25-30FPS. Aber es ist trotzdem unspielbar, weil die Spikes echt heftig sind, KA ob es an DX12 liegt, aber ich bin mit RT nochmal schlimmer im CPU Limit, wo vorher unter 110FPS nicht drin waren, schafft jetzt die CPU teilweise nur 50FPS, worst Case bei Auto/Tank/V1 Explosioen, wo der Spike/Drop so heftig ist, dass das Bild für 2 Sekunden komplett freezt. Ja, die VRAM/RAM Anforderungen steigen mit RT On auch nochmal sehr ordentlich, wo woher nur Max 3,5 VRAM und 8GB RAM belgegt worden sind, sind es mit RT ON auf einmal 7GB VRAM und 11GB RAM. :freak:

Digital Foundry kann mich übrigens bestätigen, der Ryzen 1700X mit 8/16 @ 3,5 spiked auch ordentlich rum, und ist auch derbst im CPU Limit (55FPS)
Erst der Intel i5 8400 schafft hier bessere Frametimes bzw. hohere FPS trotz viel weniger Cores/Threads. :freak:

Ab Minute 13:37

QKV8VdhZuW4


Also hier muss DICE wirklich nochmal sehr dran arbeiten! Bezweifle aber, dass das noch passieren wird, bin auf Metro gespannt.

Warum steigen mit RT ON die CPU Anforderungen so massiv? Ich dachte die größte Arbeit macht die GPU mit den speziellen extra dafür entwickleten Einheiten? Stattdessen wird die CPU damit beauftragt? :confused: ?

Außerdem kann mich auch täuschen, glaube ich aber nicht, wird das Bild mit RT On, nochmal unschärfer. bzw. das Bild hat mehr Grain...gefällt mir nicht, weil ich Filmgrain/Grain allemein hasse, sei es Film/Spiel. :D

Gast
2018-12-09, 22:24:04
Warum steigen mit RT ON die CPU Anforderungen so massiv? Ich dachte die größte Arbeit macht die GPU mit den speziellen extra dafür entwickleten Einheiten? Stattdessen wird die CPU damit beauftragt? :confused: ?

Außerdem kann mich auch täuschen, glaube ich aber nicht, wird das Bild mit RT On, nochmal unschärfer. bzw. das Bild hat mehr Grain...gefällt mir nicht, weil ich Filmgrain/Grain allemein hasse, sei es Film/Spiel. :D

Die CPU ist dafür verantwortlich die Bounding Volume Hierachie dynamisch zu updaten. Das ist eine Last die anfällt bevor man überhaupt einen einzelnen Strahl getraced hat und damit auch der Hauptgrund warum Hybrid-Rendering in der Form nur begrenzt sinnvoll sein kann.

Wenn man einen Großteil der Effekte eben doch über Rasterisierung abdeckt, dann lohnt es sich eben kaum nur für ein paar Reflektionen eine BVH anzuwerfen...

Damit meine ich nicht das RT ansich nichts taugt, sondern eher das man das halt nicht einfach so hinrotzen kann und denkt es funktioniert.

pixeljetstream
2018-12-09, 22:57:39
Der BVH wird in den RT Apis über die GPU gebaut.

Radeonfreak
2018-12-10, 00:35:23
Also ich habe mir mal BF5 gestern Nacht ausgiebiger getestet....


Hab heute die Kriegsgeschichten in BF5 beendet. Vor allem die Tiger Mission war der Hammer.

Sehr schick. Und ich hab weder Spikes noch Ruckler gehabt. WQHD @ RTX Ultra.

blaidd
2018-12-10, 11:24:33
Warum steigen mit RT ON die CPU Anforderungen so massiv? Ich dachte die größte Arbeit macht die GPU mit den speziellen extra dafür entwickleten Einheiten? Stattdessen wird die CPU damit beauftragt? :confused: ?

Natürlich macht die GPU bei Raytracing mit großer Wahrscheinlichkeit die Hauptarbeit. Trotzdem muss ihr natürlich irgendwie befohlen werden, was sie zu rendern hat. Außerdem muss eventuell mehr um den Spieler berechnet werden, was ohne Raytracing und die Möglichkeit bzw. Notwendigkeit, die Inhalte in Spiegelungen zu zeigen, zuvor mittels Culling entfernt werden kann, um Leistung zu sparen. Wenn das bei Raytracing sichtbar sein soll, muss das auch irgendwie berechnet werden. Was zumindest theoretisch die Hardware-Anforderungen erhöhen würde, noch bevor ein einziger Raytracing-Strahl verschossen wurde.

Außerdem läuft DX12 noch alles andere als rund. Ich würde daher mal davon ausgehen, dass da CPU-technisch noch Optimierungspotenzial existiert.

Ex3cut3r
2018-12-10, 14:56:41
Hab heute die Kriegsgeschichten in BF5 beendet. Vor allem die Tiger Mission war der Hammer.

Sehr schick. Und ich hab weder Spikes noch Ruckler gehabt. WQHD @ RTX Ultra.

Ich habe auch auf Rotterdam MP mit 64 Spielern gleichzeitig getestet, SP habe ich in 2 Stunden komplett durch gehabt. Was soll ich damit noch? :wink:

SP rennt meilenweit besser, aber auch überhaupt nicht perfekt, und das mit dem Ruckelfrei hatten wir auch schon im BF5 Thread, da behaupte jemand das DX12 auch bei ihm ohne Spike lief, dann haben wir ihn dazugebracht in den Ingame Graphen anzuschalten und er hat ein Video gemacht, tja rauskam dann riesige Spikes die man ihm Graphen sah, manche sind da anscheinend nicht empfindlich gegenüber. Will ich dir jetzt nicht unterstellen, aber ich zweifle dran. Im Digital Foundry Video, ist ja ein 1700X @ 3,5-3,9 drin, der spikt auch mit RT on auf Rotterdam. Erst wie gesagt der i5 8400 schafft es besser, witzigerweise trotz erheblich weniger Threads/Cores. ST Leistung mit niedrigen Latenzen wtf... ;D

Siehe:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11858553&postcount=2118

Und das Video dazu:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11858533&postcount=2115

Ich beineide solche Leute eher, ich bin da zu empfindlich. :freak:

pixeljetstream
2018-12-12, 12:05:19
edit: löschen war offtopic

Morgenlicht
2019-01-08, 01:46:50
Diese RayTracing Umsetzung vom Spiel Justice Online sieht ja mal echt lecker aus :) ... Demonstration auf CES 2019
https://i.ytimg.com/vi/xeADg7XmqPg/sddefault.jpg (https://www.youtube.com/embed/xeADg7XmqPg)
Klick auf Bild führt zum YouTube-Video 03:14 Minunten

Nightspider
2019-01-08, 02:45:03
Gibts irgendwo Tests um wie viel % RT die CPU Last erhöht in BF5 ?

][immy
2019-01-08, 08:27:33
Diese RayTracing Umsetzung vom Spiel Justice Online sieht ja mal echt lecker aus :) ... Demonstration auf CES 2019
https://i.ytimg.com/vi/xeADg7XmqPg/sddefault.jpg (https://www.youtube.com/embed/xeADg7XmqPg)
Klick auf Bild führt zum YouTube-Video 03:14 Minunten
ja, theoretisch ganz nett, aber die haben es mal wieder vollkommen übertrieben. Aber mir ist schon klar das es eine tech-demo ist.
Aber mich stören immer wieder (wie schon bei BF V) das jetzt jede Oberfläche scheinbar zu einem glatten Spiegel aus so ziemlich jedem Winkel wird. Da fehlt noch viel Feinarbeit um die Spieglungen auch einigermaßen realistisch aussehen zu lassen. Schon mal so eine stark spiegelnde Porzellan-Vase gesehen?
Auch das Schwert oder die Rüstung, klar in einem gewissen spiegelt es gewiss (je nachdem wie es verarbeitet wurde) aber das ist mal wieder ein vollkommen überzogener Effekt.
Die Pfützen sind auch wieder plane Spiegel ohne wirkliche Verzerrungen hier fehlt ebenfalls die Beachtung des Winkels. Abgesehen davon das sich im Dunkeln eine Pfütze normalerweise nicht so gut ausgeleuchtet ist, das sie viel reflektieren könnte.
Das sind halt alles Sachen die mich dann doch daran stören. Das ist ähnlich wie damals mit Incoming wo jede metallische Oberfläche stark glänzend war. Es sah zwar ganz nett aus, aber war eindeutig übertrieben.


btw. das BFV unter DX12 eventuell schlecht läuft, hat nichts mit DX12 zu tun, sondern eher mit der Engine von BFV. Da haben die Entwickler einfach noch nicht die Abläufe unter Kontrolle um die sie sich nun selbst kümmern müssen. DX12 macht da ja nicht mehr viel.

Tatwaffe
2019-01-08, 19:18:43
Ist genau das Problem jede Fläche sieht aus als hätte jemand sie 12 Stunden lang poliert, keine Oberfläche reflektiert aber zu 100% in der Realität (auch Spiegel nicht), deswegen wirkt alles so unreal und wie aus dem Bonbon laden übertrieben.

Die Performance Probleme werden wohl durch den Rasterizer kommen da jetzt ne Menge berechnet werden muss was vorher weggefallen ist weil nicht im sichtbaren Blickfeld, da wird wohl das culling noch Probleme machen, und das würde auch den erhöhten Speicherbedarf und Resourcehunger erklären.

Aber nvidia konnte den Leuten glaubhaft verkaufen das man jetzt sogar Vorteile in Multiplayer Spielen hätte durch die Spiegelung, Hut ab dafür.

dildo4u
2019-01-08, 20:30:57
pNmhJx8yPLk

Radeonfreak
2019-01-08, 20:42:29
Ach wieder mal ein Video von Nvidia? Solange es keine ausführbare Demos gibt können sie sich die ganzen Youtube Videos eigentlich dahin stecken wo die Sonne nicht scheint.

wolik
2019-01-08, 20:47:34
Merken dir überhaupt, dass das Gameplay lebt nicht von irgendwelche Arschspiegelungen? Nextgen? Chrompoliertes Oberflächen gabs natürlich früh (vor 20 Jahren?) nicht...

gravitationsfeld
2019-01-08, 21:26:17
Was laberst du? Das ist ein Tech-Demo kein Spiel.

Gast
2019-01-08, 21:39:09
Ist genau das Problem jede Fläche sieht aus als hätte jemand sie 12 Stunden lang poliert, keine Oberfläche reflektiert aber zu 100% in der Realität (auch Spiegel nicht), deswegen wirkt alles so unreal und wie aus dem Bonbon laden übertrieben.

Die Performance Probleme werden wohl durch den Rasterizer kommen da jetzt ne Menge berechnet werden muss was vorher weggefallen ist weil nicht im sichtbaren Blickfeld, da wird wohl das culling noch Probleme machen, und das würde auch den erhöhten Speicherbedarf und Resourcehunger erklären.

Aber nvidia konnte den Leuten glaubhaft verkaufen das man jetzt sogar Vorteile in Multiplayer Spielen hätte durch die Spiegelung, Hut ab dafür.

Raytracing kann man aber auch für glossy (nicht perfekt) spekulare reflektionen verwenden. Einfach mal das hier anschauen: http://filmicworlds.com/blog/everything-is-shiny/

In traditionellen Rasterizern wird der spekulare anteil (macht im Schnitt gerne mehr als 50% des Gesamteindrucks aus) komplett fehlerhaft oder gar nicht simuliert und auch der diffuse Anteil ist falsch (fällt meist nicht so auf).

Um das zu ändern müsste man eigentlich komplett raytracen, bisher wird sich aber auf die perfekt spiegelnden flächen (roughness <= 0.1) beschränkt. Das wirkt dann eben nicht immer stimming und teilweise übetrieben, weil es komplett inkonsistent ist. Das ist dann aber vorallem ein artistisches Problem (die Entwickler wissen nicht wie man es richtig verwendet) und kein Problem der Technik.

Timbaloo
2019-01-08, 21:43:44
Eine Tech-Demo mit furchtbarem gameplay :D

Tatwaffe
2019-01-08, 21:52:00
Mir fällt jedenfalls auf je mehr ich auf Spiegelungen achte, desto mehr verpasse ich das eigentlich wichtige einer Szene.

Ex3cut3r
2019-01-08, 22:25:17
Ach wieder mal ein Video von Nvidia? Solange es keine ausführbare Demos gibt können sie sich die ganzen Youtube Videos eigentlich dahin stecken wo die Sonne nicht scheint.

https://abload.de/img/0f1vqdlr.jpg

Eins muss man Nvidia lassen, der Spruch RTX On wird noch in 10 Jahren, auch wenn RT immer mehr Beachtung bekommen wird, ausgesprochen werden, da haben sie im Gegenzug zu AMD schon Marketing mäßig den Schritt voraus. :biggrin:

anorakker
2019-01-08, 22:34:56
Also da finde ich jedes ForzaGranTurismoProjectCarsWhatever Video spektakulärer als dieses gelegentliche BlingBling. Die Ratracing Spiegelkugel ist Demo-mässig so 1993 aktuell gewesen!
Wenn das Raytracing nicht für wirklich überzeugendes Lighting taugt, dann kann man sich das echt schenken, die paar Bling-Reflections kann man sich ohne RT hinfaken.

TheAntitheist
2019-01-09, 07:19:43
Mir fällt jedenfalls auf je mehr ich auf Spiegelungen achte, desto mehr verpasse ich das eigentlich wichtige einer Szene.

Ich verpasse alles durch diese Texturen und Schatten... und dann noch diese Polygone, weg mit dem unnötigen schnick schnack, das lenkt alles ab!

sag mal.. was ist das für ne Logik hier.
Der eine beschwert sich übers gameplay wobei es eine tech demo ist, der andere über neue Technik.

Du achtest doch im RL auch nicht auf jede Spiegelung, denkst du nicht das auch du dich daran gewöhnen wirst? ;D

TheAntitheist
2019-01-09, 07:20:59
Ich verpasse alles durch diese Texturen und Schatten... und dann noch diese Polygone, weg mit dem unnötigen schnick schnack, das lenkt alles ab!

sag mal.. was ist das für ne Logik hier.
Der eine beschwert sich übers gameplay wobei es eine tech demo ist, der andere über neue Technik.

Du achtest doch im RL auch nicht auf jede Spiegelung, denkst du nicht das auch du dich daran gewöhnen wirst? ;D


Und nur weil DICE eine schlechte Implementierung hat, heißt das nicht das andere es genauso machen und nur für Spiegelungen benutzen...

Digidi
2019-01-09, 07:41:40
Dice sind aber gut darin. Interessant ist ja das Squareenix von RTX bei ffv abgesprungen sind warum nur?

Rancor
2019-01-09, 09:19:40
Dice sind aber gut darin. Interessant ist ja das Squareenix von RTX bei ffv abgesprungen sind warum nur?

Weil der PC Support von FF XV komplett eingestellt wurde.

https://www.gamestar.de/artikel/final-fantasy-15-fast-alle-dlcs-mod-support-gestrichen-chefentwickler-kuendigt,3336815.html

dildo4u
2019-01-09, 13:05:47
DLSS wurde erst vor kurzem ins Game selber gepatcht die News ist vom November.Möglich das Nvidia noch Geld reinpumpt um den Support zu verlängern DLSS ist z.b noch im Beta Status.

wolik
2019-01-09, 13:32:58
Was laberst du? Das ist ein Tech-Demo kein Spiel.
Denkst du tatsächlich ich habe nicht mit gekriegt das ist ein Tech Demo ist, und dachte das ist ein neue AAA Titel von Nvidia :eek::confused:

Ich rede nicht nur über schlechte Geschmack bei diese Tech Demo, sondern das kein Mensch braucht diese Heilige Mist. Und mit 65 glotzen mit 144Hz, braucht man Leistung.
Immer noch ein einzige Titel BFV mit RT. Und? Ich spiele denn in 8K/60 fps (SLI patch) (4K 200%) auf Ultra (fast) weil Grafik sieht dann richtig Geil aus. Sogar in vergleich zum 4K. Nicht weil RT hater bin, sondern als "Grafikporn Liebhaber" sehe in RT nichts besonders, nur als verlorene Leistung.

RLZ
2019-01-09, 13:56:00
Könnte ein Mod mal hier aufräumen? Hier sollte es generell um die Technologie rund um RTRT gehen und nun sind wir wieder bei Nvidia/Turing Bashing angelangt.

Tatwaffe
2019-01-09, 15:26:00
Ich verpasse alles durch diese Texturen und Schatten... und dann noch diese Polygone, weg mit dem unnötigen schnick schnack, das lenkt alles ab!

Du achtest doch im RL auch nicht auf jede Spiegelung, denkst du nicht das auch du dich daran gewöhnen wirst? ;D

Bei Schatten geh ich mit die beobachtet auch keiner aktiv die sind halt da um den Gesamteindruck realistisch zu machen, und fallen nur auf wenn sie extrem schlecht sind oder fehlen, aber Spiegelungen laufen bei mir im Augenwinkel ab, da liegt nicht der Focus drauf, deine Polygone und Texturen sind aber Quatsch, denn genau auf Polygone und Texturen liegt ja der Focus beim Gameplay, eine hohe Polygonzahl und hochauflösende Texturen verbessern den Eindruck enorm denn da schaut man die ganze Zeit drauf.

Spiegelungen lenken halt zu 99% ab im RL, vielleicht ignoriere ich die deswegen, wer fährt Auto und schaut wie sich alles im Vorderman spiegelt, oder in der eigenen Motorhaube?

Für mich ist die Technik aktuell viel verschwendete Leistung die nur im Augenwinkel abläuft und den Focus vom eigentlich wichtigen im Bild nimmt, und sie zieht natürlich Leistung die man meiner Meinung für anderes besser verwenden könnte.

Vielleicht liegts auch nur an den Kinderschuhen der Technik im Moment und in einem Jahr haben wir deutlich realistischere Bilder vom Gesamteindruck bei der die Spiegelungen eher wieder in den Hintergrund rücken, und das Bild nicht zu dominieren versuchen.

Fusion_Power
2019-01-09, 16:06:05
Schatten finde ich schon wichtig in Spielen, gerade in Shootern kann man so manchmal die Gegner schon anhand ihrer Schatten erkennen, bevor sie um die Ecke kommen. Warum so viele Spieler gerade die Schatten deaktivieren, versteh ich daher nicht. hab die immer an, zumindest auf niedrigen Stufen.
Leider sind Schatten in Spielen meißt sehr unrealistisch, oft insgesammt viel zu scharf dargestellt, wo sie mit zunehmender Distanz zum schattenwerfenden Objekt eigentlich unschärfer werden müßten. Vllt. kann da Raytracing helfen, wenn man das mit konventionellen Mitteln nicht hinbekommt.
Spiegelungen kann man auch weiterhin mit Environment Maps oder sonstwas gut genug darstellen. Ich finde, der zusätzliche Rechenaufwand rechtfertigt in keinster Weise den kleinen Bonus, absolut realistische Spiegelungen zu haben. Also wenn man BF5 als Maß nimmt z.B. Da ist Raytracing echt noch viel viel zu teuer für so nen kleinen Effekt.
Mir reicht ne Spiegelung wie es sie schon in Duke 3D gab: "Damn, I'm looking good!" :cool:

Tatwaffe
2019-01-09, 16:51:57
Ich sag ja Schatten sind wichtig für eine Szene aber man schaut auch nicht permanent drauf,
rtx Schatten kann man in der Tombraider Demo Szene sehn, sieht auch gut aus, muss aber sagen als Rasterizer sieht die Szene auch gut aus, sie haben halt in 20 Jahren gelernt es gut zu zu faken.
https://www.youtube.com/watch?v=6RwQ7H_EBoM

Nen Release Date scheint es aber noch nicht zu geben für den RTX-patch, was auch wieder heisst mit "it simply works" geht da garnichts, da sitzen viele Leute viele Stunden dran um das zum Laufen zu bringen, Zeit die man für anderes evtl. besser verbrauchen kann.

aufkrawall
2019-01-09, 17:12:50
Leider sind Schatten in Spielen meißt sehr unrealistisch, oft insgesammt viel zu scharf dargestellt, wo sie mit zunehmender Distanz zum schattenwerfenden Objekt eigentlich unschärfer werden müßten. Vllt. kann da Raytracing helfen, wenn man das mit konventionellen Mitteln nicht hinbekommt.

Das bekommt man mit dem bisherigen Rendering eigentlich schon ziemlich lange hin (im Sinne von: sieht viel besser als ohne aus), hatte bereits Crysis 3. Letztes Jahr hatte das z.B. SotTR.
Bei Mirrors's Edge 2016 seh man den Effekt etwa auch auf pre-release Bullshots, im fertigen Spiel war dann nichts mehr davon zu sehen. Zeigt einmal mehr, wie viele Entwickler zig Potenzial einfach liegen lassen.

Jupiter
2019-01-09, 17:18:53
Nach meiner Einschätzung machen die meisten Spiele (die so etwas überhaupt nutzen) nur bei globalen Lichtquellen (Sonne/Mond). Nicht bei Point Lights, Area Lights usw.

Troyan
2019-01-09, 17:26:59
Selbst dann nicht. Die meisten Entwickler benutzen entweder nur harte oder weiche Schatten. So etwas wie PCSS (also hart -> weich) benötigen zuviel Leistung. Und von HFTS müssen wir erst garnicht anfangen.

Futuremarks Port Royal verwendet Raytracing für (einige) Schatten. Die sind zwar komplett falsch (hart), aber die Auflösung und der Detailgrad ist allem überlegen (da kommt nur HFTS ran).

Gast
2019-01-09, 19:57:53
Bei Schatten geh ich mit die beobachtet auch keiner aktiv die sind halt da um den Gesamteindruck realistisch zu machen, und fallen nur auf wenn sie extrem schlecht sind oder fehlen,


Gerade Schatten finde ich extrem wichtig, die gehören nach den Polygonen und Texturen quasi zu den Basics. Das merkt man vor allem wenn man sie mal deaktiviert, dann sieht es aus als würde alles schweben.

Bisher hat mich leider keine Schattentechnologie wirklich überzeugen können, und gerade hier erwarte ich von Raytracing sehr viel.
RT-Schatten werden imo wesentlich wichtiger als die Spiegelungen.
Also liebe Tomb-Raider Entwickler, wo bleiben die tollen RT-Schatten?

Tatwaffe
2019-01-11, 12:42:31
Wo die RT Schatten bleiben bei Tombraider kann man nur spekulieren, ich schätz für kleine Areale reicht die Leistung noch grade (schnelle Kamerabewegungen machen sie jedenfalls nicht in der Demo), kommst du aber in die Openworld mit extrem viel Jungel und Vegetation und Weitsicht reicht die Leistung einfach nicht, da mit der Technik wohl nicht nur die Schatten selbst sondern halt dann auch die Beleuchtung von den RTX Einheiten übernommen werden muss.

aufkrawall
2019-01-11, 12:48:19
Selbst dann nicht. Die meisten Entwickler benutzen entweder nur harte oder weiche Schatten. So etwas wie PCSS (also hart -> weich) benötigen zuviel Leistung.
Das ist eine Falschaussage. GameWorks-PCSS ist arschteuer, viele in-engine Lösungen sind es nicht. Und nein, die kennen auch nicht nur "zwei Stufen". Was eine abstruse Vorstellung... :facepalm:

Fusion_Power
2019-01-11, 16:09:21
Das bekommt man mit dem bisherigen Rendering eigentlich schon ziemlich lange hin (im Sinne von: sieht viel besser als ohne aus), hatte bereits Crysis 3. Letztes Jahr hatte das z.B. SotTR.
Bei Mirrors's Edge 2016 seh man den Effekt etwa auch auf pre-release Bullshots, im fertigen Spiel war dann nichts mehr davon zu sehen. Zeigt einmal mehr, wie viele Entwickler zig Potenzial einfach liegen lassen.
Also Overwatch hats nicht. :freak: Umgebungsschatten werden mit höheren Detail-Optionen immer schärfer dargestellt und zwar durchgehend. Sieht für mich extremst bescheiden aus, da hab ich die Schatten lieber auf low und finde sie so verschwommen sogar noch am hübschesten. ^^

Gast
2019-01-11, 18:40:47
Wo die RT Schatten bleiben bei Tombraider kann man nur spekulieren, ich schätz für kleine Areale reicht die Leistung noch grade (schnelle Kamerabewegungen machen sie jedenfalls nicht in der Demo), kommst du aber in die Openworld mit extrem viel Jungel und Vegetation und Weitsicht reicht die Leistung einfach nicht, da mit der Technik wohl nicht nur die Schatten selbst sondern halt dann auch die Beleuchtung von den RTX Einheiten übernommen werden muss.


Das sollte eigentlich nicht so viel ausmachen, Raytracing hat eine Laufzeit von log(n) (n = Anzahl der Polygone).

Größere Umgebungen sollten also kaum extra an Leistung kosten, und mit Raytracing gibt es auch inheränt keinen unnötigen Overdraw.

pilzsammler2002
2019-01-14, 10:07:50
https://www.youtube.com/watch?v=l0sT9JvStGY

Raytracing und Raster im 3dmark - comparison :freak:

Timbaloo
2019-01-14, 14:13:00
Ich glaube es ist viel zu früh RT-Features in so einen Benchmark zu packen. Mal davon abgesehen, dass ich von 3Dmark eh nichts halte.