Archiv verlassen und diese Seite im Standarddesign anzeigen : Real-time Raytracing
Seiten :
1
2
3
4
[
5]
6
7
8
9
10
11
12
13
14
15
16
17
18
19
Dampf
2019-12-30, 12:29:35
die gaming denoiser sind zum teil spezialisiert für schatten, etc. während der optix denoiser path tracing bilder als input erwartet und nicht auf gaming real-time ausgelegt ist (sondern professioneller Markt). Etwas anderer fokus. In der Tat hilft DirectML in zukunft, aber auch jetzt kann man per intrinsics tensor cores nutzen (gerade in Vulkan was q2rtx nutzt gibts die NV extension), oder halt per interop CUDA in dx etc... DirectML zielt eher auf ganzheitliche Lösungen ala DLSS, animationssysteme... die dann von Entwicklern selber kommen.
Hm, das ist natürlich wahr. Aber wenn ich mir den Leistungsverlust beim Denoising in Quake ansehe, kann ich mir kaum vorstellen, dass die Tensor cores wirklich für Denoising benutzt werden. Für Metro hat Nvidia ja auch gezeigt, wie ein Frame zustande kommt und auch da wurden die Tensor Cores nur am Ende anscheinend zum upscaling genutzt.
Könnte es vielleicht sein, dass Nvidia noch kein vernünftiges Denoising AI-Modell hat und die Zeit jetzt quasi mit Denoising über die CUDA Cores überbrückt? So ein ML-Modell braucht ja seine Zeit bis es genug gelernt hat und ausgereift ist. Bei DLSS ist das ja auch der Fall, wenn man sich die ersten Modelle in BF5 und Metro mal ansieht und jetzt mit Control oder gar Deliver us to the Moon vergleicht (wo das DLSS ja wirklich sehr gut funktioniert)
Das muss man sich mal vorstellen... in 1080p bleibt bei einer 2080TI (was eh schon Witz genug bezüglich der Auflösung bei dieser Karte ist) weniger als 1/10 der ursprünglichen Performance übrig.
Das ist aber auch 100% Raytracing, und kein Hybrid wie in anderen Games.
Spezialisierte Hardware hin- oder her, Raytracing bleibt extrem Anspruchsvoll.
die gaming denoiser sind zum teil spezialisiert für schatten, etc. während der optix denoiser path tracing bilder als input erwartet und nicht auf gaming real-time ausgelegt ist (sondern professioneller Markt). Etwas anderer fokus. In der Tat hilft DirectML in zukunft, aber auch jetzt kann man per intrinsics tensor cores nutzen (gerade in Vulkan was q2rtx nutzt gibts die NV extension), oder halt per interop CUDA etc... DirectML zielt eher auf ganzheitliche Lösungen ala DLSS, animationssysteme... die dann von Entwicklern selber kommen.
Guter Punkt mit den Extensions. Möglicherweise weißt du dazu etwas. Das Spiel mit dem Patch heißt Quake II RTX. Nicht Quake II DXR (jetzt mal unabhängig davon, dass DXR zu DirectX und eben nicht zu Vulkan gehört ;)). Nvidia hat Aufwand betrieben und das Ding bleibt gewiss RTX-exklusiv. Warum wird da nicht noch weiterer Aufwand betrieben, um die Tensorkerne zu verwenden? Oder wird vielleicht daran gearbeitet? Einen Patch bekam der Patch ;) ja schon. Es wäre doch ein schöner Showcase, die Tensörchen ein- und ausschalten zu können. Nvidia sagt, dass das um Faktoren schneller sei. Das könnte man dann testen. Das Denoising kann man hier auch gezielt ein- und ausschalten, was in keinen anderen Spiel geht (oder doch, habe ich etwas verpasst?). Nvidias neue "RTX developer division", um sie mal so zu nennen, hat viele ungenutzte Möglichkeiten.
MfG
Raff
pixeljetstream
2019-12-30, 12:49:47
der source zu q2rtx ist hier https://github.com/NVIDIA/Q2RTX/tree/master/src/refresh/vkpt
dxr = directx, q2rtx basiert auf vulkan, ergo nix mit dxr ;)
Mr. Lolman
2019-12-30, 12:52:39
Kann mich erinnern wie katastrophal die 32bit Performance damals war, trotzdem hat man es aktiviert.
Nur wenn man eine GraKa mit krüppeliger 16bit-Qualität hatte. :cool:
Aus Sicht der Kompatibilität ist es gut, dass niemand die Tensorkerne fürs Denoising verwendet, denn das wäre Nvidia-exklusiv und somit inkompatibel. Steckt hier ein Punkt, bei dem Nvidia in Zukunft punkten könnte: Denoising "for free" bzw. bei höherer Leistung via TC? Sogar bei Quake II RTX wird das anscheinend über die normalen ALUs gemacht, mit einem heftigen Leistungseinbruch von ca. 1/3 (ab hier im Video zu sehen (https://youtu.be/aEYxVmh31jw?t=588)).
Die Tensor-Cores dürften dafür noch um einiges langsamer sein.
Das in Optix verwendete Denoising über die Tensorcores ist für Standbilder gedacht.
In Spielen bekommt man, da man ja viele Bilder pro Sekunde berechnet, schon einen großen Teil des Denoisings "for free", ähnlich wie TAA einfach durch die Vermischung mehrerer Bilder, die man eh berechnen muss, einiges "for free" bekommt.
Zudem berechnet man gerade in Hybrid-Renderern die einzelnen Effekte extra, also beispielsweise Schatten, Spiegelungen und GI. Das Ergebnis liegt also in jeweils eigenen Buffern vor, weshalb man dafür auch spezielle Denoiser-Techniken verwenden kann.
Beispielsweise kann man die Schatten oder GI deutlich mehr blurren, ohne dass es negativ auffällt, was man bei Spiegelungen eher nicht machen wird.
Bei Schatten kommt es auch darauf an, dass der Denoiser erkennt was innerhalb und was außerhalb der Schatten ist. Weil kritisch ist hier im wesentlichen nur der Randbereich an dem der Schatten aufhört, alles was innerhalb ist wird mehr oder weniger einheitlich abgedunkelt, alles was außerhalb ist gar nicht. Man kann hier also mehr Rechenleistung genau dort einsetzen wo es sinnvoll ist.
Aber die Tensor-Kerne werden so oder so verwendet, weil gerade beim Raytracing für viele Operationen auch FP16 ausreicht, und FP16 rechnen bei Turing die Tensorkerne.
Stimmt, die Performance-Einbuße allein vom Denoising ist schon heftig.
Nvidia zeigt ja zur Zeit mit Optix, dass die Tensor Kerne extrem gut beim Denoising sind, seltsam also, dass man die nicht in den Games verwendet.
Meine Vermutung ist, dass man das bisher über die ALUs macht, weil für DirectX derzeit noch keine ML-Plattform zur Verfügung steht. Bei Optix hat man ja dafür CUDA.
Im ersten Halbjahr nächstes Jahr soll DirectML zusammen mit DXR Tier 1.1 erscheinen, sollte sich meine Vermutung also bewahrheiten, könnte man dann die Tensor-Cores für RTX Denoising benutzen, was für einen merkbaren Leistungsschub bei RT sorgen könnte. Zusammen mit den DXR 1.1 features könnte das also, sobald die Games mit DXR 1.1 in mind entwickelt werden, den Leistungsverlust bei aktiviertem RT von Turing spürbar verringern.
Zur Zeit beträgt der Leistungsverlust bei aktiviertem RT in Control (was ja das volle Programm bietet) ungefähr 40%. Wenn wir Glück haben, bin jetzt mal optimistisch, könnte der Leistungsverlust mit all diesen Optimierungen nur noch 25-30% betragen, was schon eine merkliche Steigerung der FPS bedeutet.
Wenn Ampere dann noch kommt, wird sich das nochmal weiter verringern, eventuell sogar auf 10-15%. Dann hat man kaum noch Leistungseinbußen bei RT. Wäre schon ne coole Sache.
Erstmal: Hallo und willkommen! Bist du einer der fleißigen Gäste hier, jetzt mit eigenem Account? :)
Was die Tensorkerne angeht, erhoffe ich mir auch einen ordentlichen Boost. Über die Ausmaße kann man nur spekulieren, wir haben viel zu wenige Infos und es gibt auch viel zu viele Parameter zu bedenken. Es tut sich einfach zu wenig, obwohl Nvidia schon seit Spätsommer 2018 aktiv ist.
Eine Sache möchte ich hierzu noch in den Raum werfen: Die Tensorkerne können Inferencing/Denoising/Whatevering zwar um Größenordnungen schneller durchboxen als generalisierte ALUs, brauchen aber auch Strom. Heißt, wenn die Tensoren richtig ackern, geht ein Teil des Powerbudgets für sie drauf. Da die ALUs dafür deutlich entlastet werden, ist die Bilanz natürlich trotzdem positiv.
Die Tensorkerne können übrigens auch limitieren. DLSS kostet (oder kostete?) unter unglücklichen Umständen Leistung - nämlich dann, wenn man Richtung CPU-Limit geht. Hier dürfte, neben den Trainingsaufwand, einer der Gründe liegen, warum Nvidia nicht alle Auflösungen für DLSS freischaltet. Ich wüsste ja gerne, ob der Flaschenhals ein Datenpfad ist oder echt die Rechenleistung der TCs.
der source zu q2rtx ist hier https://github.com/NVIDIA/Q2RTX/tree/master/src/refresh/vkpt
dxr = directx, q2rtx basiert auf vulkan, ergo nix mit dxr ;)
Das mit DXR/Vulkan hatte ich oben noch parallel zu dir ergänzt. :D
Was möchtest du mir jetzt damit sagen? Dass sich jeder an eine Implementierung der Tensorkerne machen könnte? Na dann los! Wie, ich? Nee, da fehlt es nicht nur an einer Programmierumgebung, sondern weit mehr. ;)
Nur wenn man eine GraKa mit krüppeliger 16bit-Qualität hatte. :cool:
Jo, wobei spätestens in Quake 3 die Rundungsfehler alles kaputtmachen, 22 Bit hin oder her (auch mit 4× SSAA). Das konnte nur der/die/das Kyro mit dem internen "Anti-Cheat" (32 Bit interne Genauigkeit) ausbügeln.
MfG
Raff
Fragman
2019-12-30, 13:17:59
Nur wenn man eine GraKa mit krüppeliger 16bit-Qualität hatte. :cool:
Ich hatte damals beide, eine V2 und eine RivaTNT. :D
Dampf
2019-12-30, 13:21:18
Erstmal: Hallo und willkommen! Bist du einer der fleißigen Gäste hier, jetzt mit eigenem Account? :)
Was die Tensorkerne angeht, erhoffe ich mir auch einen ordentlichen Boost. Über die Ausmaße kann man nur spekulieren, wir haben viel zu wenige Infos und es gibt auch viel zu viele Parameter zu bedenken. Es tut sich einfach zu wenig, obwohl Nvidia schon seit Spätsommer 2018 aktiv ist.
Eine Sache möchte ich hierzu noch in den Raum werfen: Die Tensorkerne können Inferencing/Denoising/Whatevering zwar um Größenordnungen schneller durchboxen als generalisierte ALUs, brauchen aber auch Strom. Heißt, wenn die Tensoren richtig ackern, geht ein Teil des Powerbudgets für sie drauf. Da die ALUs dafür deutlich entlastet werden, ist die Bilanz natürlich trotzdem positiv.
Die Tensorkerne können übrigens auch limitieren. DLSS kostet (oder kostete?) unter unglücklichen Umständen Leistung - nämlich dann, wenn man Richtung CPU-Limit geht. Hier dürfte, neben den Trainingsaufwand, einer der Gründe liegen, warum Nvidia nicht alle Auflösungen für DLSS freischaltet. Ich wüsste ja gerne, ob der Flaschenhals ein Datenpfad ist oder echt die Rechenleistung der TCs.
Hehe, bin nur ein stiller Mitleser und eher in englischen Technikforen unterwegs :biggrin: danke :)
Den Strombedarf muss man natürlich auch berücksichtigen, da geb ich dir recht, aber wie du schon sagtest, das dürfte kaum ins Gewicht fallen, bei dem Mehrnutzen der Tensor Cores
Ich denke meine Vermutung, dass das AI-Denoising Modell noch Zeit braucht, erscheint mir plausibel.
Meine Spekulation allerdings, dass man die RT Leistung um ungefähr 10-15% erhöhen kann dank DXR 1.1 mit inline RT und eventuell das bessere Ausnutzen der Tensor Cores, das ist natürlich pure Spekulation und wie du schon sagtest, da spielen viele Faktoren eine Rolle.
Wenn Nvidia die RT Leistung erhöht hat, werden sie uns das schon mitteilen! Eventuell auch schon auf der CES 2020. Bin gespannt !
Mr. Lolman
2019-12-30, 13:36:08
Jo, wobei spätestens in Quake 3 die Rundungsfehler alles kaputtmachen, 22 Bit hin oder her (auch mit 4× SSAA). Das konnte nur der/die/das Kyro mit dem internen "Anti-Cheat" (32 Bit interne Genauigkeit) ausbügeln.
MfG
Raff
Nur bei massivem Alphablending.Und selbst dann sah es häufig besser aus als mit NV, weil die FXT1 Implementation im Ggs zu NVs S3TC ordentlich funktionierte.
Da lobe ich mir meine damalige V3 3000. Die hielt nix von modernem Schnickschnack wie Kompression oder feinen Texturen, also gab's auch keine Blockartefakte. Nur ehrliches Ruckeln, wahlweise in 16 Bit oder mit 22-Bit-Filterung. :ugly:
MfG
Raff
dargo
2019-12-30, 13:59:30
Was die Tensorkerne angeht, erhoffe ich mir auch einen ordentlichen Boost. Über die Ausmaße kann man nur spekulieren, wir haben viel zu wenige Infos und es gibt auch viel zu viele Parameter zu bedenken. Es tut sich einfach zu wenig, obwohl Nvidia schon seit Spätsommer 2018 aktiv ist.
Also zumindest bei Quake 2 wäre das nur ein Tropfen auf den heißen Stein wenn ich in dem von dir verlinkten Video sehe was Denoising alleine kostet vs. Gesamtkosten von RT.
Das ist ja der Gag: Ohne Denoising wäre die Bildrate um Faktoren geringer, da man die Löcher mithilfe vieler weiterer Strahlen füllen müsste. Die "Grundkosten" des RT wären viel höher – so aber kann man das relativ effizient mittels Post-Processing lösen. In den nächsten Jahren wird Denoising eine elementare Rolle dabei spielen, Raytracing mit echtzeittauglichen Bildraten zu ermöglichen. Hätte man diese Idee nicht gehabt, wäre man noch beim Offline-Rendering.
MfG
Raff
dargo
2019-12-30, 14:09:26
Das ist ja der Gag: Ohne Denoising wäre die Bildrate um Faktoren geringer, da man die Löcher mithilfe vieler weiterer Strahlen füllen müsste.
Ich kann dir nicht folgen. In deinem Video sehe ich 140fps an Stelle X ohne Denoising und 102fps mit.
Ja, aber die Alternative, um ein bröselfreies Bild ohne Denoising zu erhalten, wäre, wesentlich mehr Rays abzufeuern. Wie viele? Keine Ahnung (und materialabhängig), aber Faktoren. Daher spart man sich die Rays, erhält damit (erfundene Zahl incoming) +90 Prozent Leistung und glättet das dann mit -30 Prozent. Vielleicht hat ja jemand echte Zahlen zur Hand. Die EA Forschungsgruppe Seed hat interessante Daten veröffentlicht; bestimmt gibt's das auch etwas neuer und mit weniger Fokus auf Volta/Software-RT.
MfG
Raff
dargo
2019-12-30, 14:31:28
Achso meinst du das. Wobei ich bisher dachte Raytracing wäre ohne Ameisenhaufen(:D) gar nicht erst realisierbar. Sprich... Denoising immer ein Muss.
Rancor
2019-12-30, 14:40:41
Deine Präferenz ist halt anders. Ich zb spiele Q2RTX mit 34 Frames (nach dem letzten Patch) in 1440p auf ner 2080 und hab damit keine Probleme. ;)
Was willst du auch erwarten? Dargo spielt jedes Spiel mit RTSS Overlay :D
Als Besitzer einer 2080 kann ich über RTX aber nur Lachen, denn mehr als Spielerei ist es ( noch ) nicht.
Müsste ich heute nochmal neukaufen würde es ein 5700XT werden.
Dampf
2019-12-30, 18:52:29
Denkt ihr, dass es mit Turing noch gute Leistungssteigerungen (so wie meine beschriebenen 10-15%) in der RT-Leistung durch Optimierungen wie Treiber, DXR1.1, bessere Ausnutzung der Tensor Cores, whatever geben wird?
Oder wird man erst bessere RT Leistung mit Ampere sehen? Was denkt ihr?
pixeljetstream
2019-12-31, 11:11:03
Das mit DXR/Vulkan hatte ich oben noch parallel zu dir ergänzt. :D
Was möchtest du mir jetzt damit sagen? Dass sich jeder an eine Implementierung der Tensorkerne machen könnte? Na dann los! Wie, ich? Nee, da fehlt es nicht nur an einer Programmierumgebung, sondern weit mehr. ;)
ich wollte damit sagen, dass man dort sieht wie das denoising gemacht wird. Und es geschieht eben über herkömmliche filter. Modifikation des Algorithmus von Christoph Schied: https://github.com/NVIDIA/Q2RTX/blob/master/src/refresh/vkpt/shader/asvgf.glsl
Der Sinn der Tensor-cores ist bei inferencing nicht ALU sondern bandwidth bound zu sein (eingangs daten + gewichte des neuralen netzwerks als limiter). Wenn man gute Ergebnisse über andere Algorithmen erreicht und diese insgesamt weniger Bandbreite brauchen, dann ist das vorzuziehen. Das Gebiet ist nicht ganz meine Expertise, aber wenn ich die shader dort überfliege, dann sieht man auch dass die filter relativ klein sind mit wenigen gewichten, also nicht wie bei neuralen netzwerken, und dass die memory operationen mit shared memory etc. schon optimiert wurden.
Zu einer vorherigen Aussage von Dir dass es RTX-exklusiv sei: Da der code komplett open-source ist (und wegen GPL sein muss), wird es sicher dann auch Leute geben die eine Variante mit der zukünftigen khronos extension für raytracing basteln. Ausser der raytracing extension gibt es keine NV Abhängigkeit.
Slipknot79
2019-12-31, 16:02:19
Kann mich erinnern wie katastrophal die 32bit Performance damals war, trotzdem hat man es aktiviert. Das Argument ist so gesehen uninteressant, da der Mehrwert einfach überdeutlich ist (die, die sowas nicht interessiert, machen es eh aus). Aber die Diskussion ist alt und Du hast scheinbar den Anfang von 3D Karten und den "feature creep" dieser Jahre nicht mit gemacht? Ist wohl auch der Grund, weshalb ich die Argumente nicht verstehen kann. Giants damals hab ich teilweise mit 15 frames oder so gespielt, weil ich die Features nicht ausmachen wollte (dot3 bump und cubic env mapping). Dagegen laufen die RT Games wie Butter und das auch noch in 1440p. :D ;)
Ist leicht zu verstehen, er will Quake II RTX mit RT in 1000fps ballern bei 10W elektrischem Leistungsinput. In 15 Jahren wird seine Zeit gecumen sein. Bis dahin muss er eben mit AMD weiter rumgurken. :biggrin::cool:
Ich weiß, um ehrlich zu sein, auch nicht wo sein Problem liegt. Ist immer wieder das selbe Verhaltensmuster in das er hineindropt. oO Vielleicht brauchts mal eine kräftige Gehaltserhöhung, damit er an RT auch mal randarf. Bis dahin wird er seine Präferenzen eben anders anlegen und sich seine Lebenswelt zurechtargumentieren müssen.
Habe ich neulich bei einem Freund so bebachtet, unverständlich für ihn wie ich so viel Kohle für Hardware rausballern kann, "was soll das bringen?"
Zu Weihnachten bau ich ihm, seinen Budgetvorgaben entsprechend, nen 5700XT+3700X+IPS TFT rein, und schon ged ihm einer up. Plötzlich "boa die Grafik und Auflösung, diese Details und Farben, wow 60fps+". Er cumt von einer 1060GTX. :cool:
Rancor
2020-01-02, 08:29:55
Ist leicht zu verstehen, er will Quake II RTX mit RT in 1000fps ballern bei 10W elektrischem Leistungsinput. In 15 Jahren wird seine Zeit gecumen sein. Bis dahin muss er eben mit AMD weiter rumgurken. :biggrin::cool:
Ich weiß, um ehrlich zu sein, auch nicht wo sein Problem liegt. Ist immer wieder das selbe Verhaltensmuster in das er hineindropt. oO Vielleicht brauchts mal eine kräftige Gehaltserhöhung, damit er an RT auch mal randarf. Bis dahin wird er seine Präferenzen eben anders anlegen und sich seine Lebenswelt zurechtargumentieren müssen.
Habe ich neulich bei einem Freund so bebachtet, unverständlich für ihn wie ich so viel Kohle für Hardware rausballern kann, "was soll das bringen?"
Zu Weihnachten bau ich ihm, seinen Budgetvorgaben entsprechend, nen 5700XT+3700X+IPS TFT rein, und schon ged ihm einer up. Plötzlich "boa die Grafik und Auflösung, diese Details und Farben, wow 60fps+". Er cumt von einer 1060GTX. :cool:
Naja das ist ja was anderes. Zwischen dem 3700x und der 5700XT und deinem Rechner liegen grafisch keine Welten mehr. P/L suckt halt bei High End Hardware.
Zwischen einer ausgereizten RX 5700 XT und einer ausgereizten RTX 2080 Ti liegen durchaus mehr als 50 Prozent.
MfG
Raff
Monsta
2020-01-02, 15:13:45
Zwischen einer ausgereizten RX 5700 XT und einer ausgereizten RTX 2080 Ti liegen durchaus mehr als 50 Prozent.
MfG
Raff
Das stimmt, aber von der Qualität ist es max eine Auflösungstsufe. Die 5700xt sollte bei wqhd schneller als ne 2080ti bei 4k sein.
Und mehr als alles Ultra kann man halt nicht einstellen :)
Slipknot79
2020-01-02, 21:30:29
Naja das ist ja was anderes. Zwischen dem 3700x und der 5700XT und deinem Rechner liegen grafisch keine Welten mehr. P/L suckt halt bei High End Hardware.
Darum ging es eigentlich nicht.
Aber bleiben wir mal bei 50% von Raff. Also 40 vs 60fps. Manche entscheiden sich bei 40fps zu nem Grakakauf, andere geben sich mit 60fps noch zufrieden und überspringen den Kauf.
Wie schauts mit dem P/L nun aus? :wink: :cool:
Rancor
2020-01-03, 08:36:36
Darum ging es eigentlich nicht.
Aber bleiben wir mal bei 50% von Raff. Also 40 vs 60fps. Manche entscheiden sich bei 40fps zu nem Grakakauf, andere geben sich mit 60fps noch zufrieden und überspringen den Kauf.
Wie schauts mit dem P/L nun aus? :wink: :cool:
Ich würde aber für 50% mehr Leistung nicht 300% mehr Geld bezahlen ;) P/L sieht da immer noch beschissen aus.
Letztendlich muss es ja jeder selber wissen...
Zerozerp
2020-01-03, 15:08:29
Sowas hab ich bisher auch noch nicht mit RT gesehen.
Ging hier um Spiegel in Spiegeln.. das ist schon ne andere Nummer, als die übliche "Shaderkost", auch mit noch so vielen Tricks, wäre das ein extrem unangenehmes Szenario, welches man unter allen Umständen vermeiden würde.
68881
Ab 2:29
https://www.youtube.com/watch?v=1IIiQZw_p_E
LG
Zero
][immy
2020-01-03, 15:59:41
Ging hier um Spiegel in Spiegeln.. das ist schon ne andere Nummer, als die übliche "Shaderkost", auch mit noch so vielen Tricks, wäre das ein extrem unangenehmes Szenario, welches man unter allen Umständen vermeiden würde.
68881
Ab 2:29
https://www.youtube.com/watch?v=1IIiQZw_p_E
LG
Zero
naja, ja und nein.
Klar ist es was anderes, aber Beispielsweise Portal hat das auch schon geschafft mit Klassischen Methoden. Klar war die Anzahl der Reflektionen begrenzt (ist sie auch bei RT) aber es ist jetzt nicht so als wenn es unmöglich wäre es gut genug zu Faken.
Nach wie vor finde ich eine gute Beleuchtung um einiges wichtiger. Aber das wieder kostet recht viel Leistung mit RT.
Mit den Spieglungen ist es aktuell ist es halt wie damals mit Bloom, übertrieben häufig eingesetzt. Da wird jedes Objekt plötzlich zu einem fast perfektem Spiegel.
Ein Problem von RT Spieglungen ist allerdings auch, das es immer Leistung frisst auch wenn nichts da ist was Spiegeln könnte, da man nicht direkt weiß ob eine Spiegelnde Oberfläche vorhanden ist oder nicht, bevor man nicht die Rays "los schickt".
Ließen sich die RT Hardware eigentlich auch für andere Dinge zweckentfremden? Z.B. für Physik-Berechnungen (auch wenn diese durchaus sehr viel grober sein könnten)?
dargo
2020-01-03, 16:02:39
Warum flimmert das so extrem in den Spiegelungen wieder? Ist das der bekannte Ameisenhaufen aufgrund von zu wenig Denoising oder ist die Auflösung so mickrig in Spiegeln?
][immy
2020-01-03, 16:27:48
Warum flimmert das so extrem in den Spiegelungen wieder? Ist das der bekannte Ameisenhaufen aufgrund von zu wenig Denoising oder ist die Auflösung so mickrig in Spiegeln?
Tja, das ist wohl das Denoising, aber der Spiegel scheint auch uneben zu sein (eventuell durch das Denoising). Zudem wurde in den Spiegeln die Auflösung verringert, anders kann ich mir das plötzliche Aliasing nicht erklären. Die Videokompression macht es aber auch nicht besser.
Zerozerp
2020-01-03, 16:56:26
[immy;12182595']... aber es ist jetzt nicht so als wenn es unmöglich wäre es gut genug zu Faken.
Genau das ist der Punkt. Immer eine Frage der "Kosten" sowohl was die Berechnungzeit, als auch den betriebenen Fakeaufwand in Manntagen ausmacht.
Hier mal das aktuellere Video... da wirds für die Standardverfahren schon schwer. Sind ja mehrere für ein reines Rasterszenario wirklich unangenehme Szenen dabei (z.B. das Aquarium):
https://www.youtube.com/watch?v=zxDqn0W7dbU
Mit den Spieglungen ist es aktuell ist es halt wie damals mit Bloom, übertrieben häufig eingesetzt. Da wird jedes Objekt plötzlich zu einem fast perfektem Spiegel.
Weils am wenigsten Strahlen schluckt und man um Rechenzeit und Strahlen zu sparen auchergänzend im Screenspace abfischen kann. Wobei man derzeit zum Teil als Grundlage im Screenspace fischt
und dann dort mit RT abtastet, wo man damit eben sonst nicht hinkommen würde.
LG
Zero
robbitop
2020-01-03, 16:57:56
Die Anzahl der Rays ist begrenzt -> das führt nunmal zu Noise - ansonsten wäre RT unbezahlbar. Bei RT gibt es auch mWn kein LOD entsprechend verletzt man schnell das Abtasttheorem und es flimmert (feine Geometrie zu weit weg). Deshalb Denoising - was aber auch nicht perfekt ist und nicht zu 100% fehlende Samples ersetzen kann.
Physik auf der GPU ist eh unschön- zu hohe Latenz zur CPU und kein Kohäherenter gemeinsamer Speicher. Nur für Effektphysik zu gebrauchen.
APUs könnten ggf zu sowas zu gebrauchen sein. Aber die sind idR zu stranguliert in Bezug auf Bandbreite.
Radeonfreak
2020-01-03, 17:16:44
Ich würd mir ja im Zeitalter der Mehrkern-Cpus eher mehr ordentliche Physik wünschen als die nächste Spiegelung.
Zerozerp
2020-01-03, 17:20:33
Ich würd mir ja im Zeitalter der Mehrkern-Cpus eher mehr ordentliche Physik wünschen als die nächste Spiegelung.
Hmmm... Eine Technik, die die Grafik trotz überbordender Physik korrekt darstellt ist ja irgendwie eine Voraussetzung dafür, oder nicht?
Ist ja auch nicht schön, wenn alles fliegt, zerstörbar ist und was sonst noch, aber man grafisch qualitativ um Jahre zurückfällt?
Dafür werden durch die ersten RT Gehversuche jetzt gerade einfache Grundlagen geschaffen.
robbitop
2020-01-03, 20:04:30
Ich würd mir ja im Zeitalter der Mehrkern-Cpus eher mehr ordentliche Physik wünschen als die nächste Spiegelung.
Das ene schließt das andere nicht aus. ;)
Das ene schließt das andere nicht aus. ;)
Das eine erfordert aber das andere. Wir haben durch Vorberechnungen mehr grafischen Fortschritt erreicht als rein durch die Rechenleistung möglich gewesen wäre. Nun kann man mit Raytracing wieder ein größeren Teil zur Laufzeit berechnen und hat so weniger Probleme mit dynamischen Welten.
robbitop
2020-01-03, 21:19:16
Gerne etwas konkreter. ;)
Gaston
2020-01-03, 22:03:56
Gerne etwas konkreter. ;)
Er spricht von Baked Global Illumination.
Als prominentestes Beispiel sind die Naughty-Dog-Spiele zu nennen. In denen kommt bereits jetzt schon ohne Ende Ray Tracing zum Einsatz, aber das wird nicht in Echtzeit berechnet und gilt daher nur für statische Objekte.
Bei statischen Objekten hast du in Uncharted 4 dann zB einen perfekten Schattenwurf, der alle ultra Einstellungen auf high-end PCs locker deklassiert. Bei dynamischen Objekten wie Nathan Drake hast du aber verpixelte Schatten.
Mit den neuen Konsolen kannst du viele GI-Berechnungen wie zB den Albedoeffekt in Echtzeit durchführen. Alles was dann nicht mehr vorberechnet werden muss, kann wiederum einer komplexen Gameplay-Physik unterliegen.
Das Naughty Dog mit The Last of Us Part 2 auf richtig weitläufige Level umschwenkt, ist sicher kein Zufall: Mit Ray Tracing wird der grafische Unterschied zwischen Open-World-Spielen und Schlauchleveln verschwinden.
Gaston
2020-01-04, 07:27:42
Hier kann man sich das Baked GI in ein paar ausgewählte Uncharted-4-Szenen ansehen:
Boon Cotter - Artstation (https://booncotter.artstation.com/projects/yZz05)
Boon Cotter ist Lighting Artist bei Naughty Dog.
Die Beleuchtung in den statischen Innenräumen (da bewegt sich gar nix) ist auf einem viel höheren Niveau, als in jedem "RTX on" Spiel. In Echtzeit kann eine PS4 das aber natürlich nicht berechnen. Die ganzen Light Bounces und der Schattenwurf sind in die Textur "gebacken".
Würde man die Szene zerstören, zB mit einer Handgranate, sähe alles ziemlich lächerlich aus, weil die Beleuchtung komplett falsch ist: Dann hast du Color Bleeding und Schatten an Stellen wo es gar keinen Sinn macht.
In den Außenleveln hast du viele dynamische Objekte: Spielcharacter, NPCs, Pflanzen. Da wird's dann tricky, das Niveau zu halten.
Gerne etwas konkreter. ;)
Viele Grafikeffekte die Raytracing "faken" funktionieren nur mit möglichst statischen Levels und Beleuchtung wirklich gut.
Je mehr Dynamik rein kommt, desto höher ist die Chance dass diese nicht mehr funktionieren.
Beispielsweise kannst du GI fast perfekt faken, so lange sich die Lichtquelle nicht bewegt und die Geometrie nicht ändert.
Bei einem dynamischem Tag/Nacht-Verlauf funktioniert das schon deutlich schlechter, und bei veränderter Geometrie auch nicht.
Mehr Physik heißt aber in der Regel auch mehr Dynamik, und damit das gut aussieht ist Raytracing quasi Voraussetzung.
Wobei das bei Raytracing auch noch mal wesentlich deutlicher auf die Performance gehen wird.
Wenn es nämlich bei voll dynamischer Geometrie notwendig wird für jeden Frame den BVH neu zu bauen, wird Raytracing noch mal wesentlich deutlicher an Performance kosten als heute.
Gaston
2020-01-04, 17:26:05
Bei einem dynamischem Tag/Nacht-Verlauf funktioniert das schon deutlich schlechter
Guerilla Games hat Baked GI in Horizon Zero Dawn trotz eines dynamischen Tag-Nacht-Zyklus implementiert:
For our indirect lighting solution, we used irradiance volumes. (...) It allowed us to have a dynamic time of day. We baked the indirect lighting of our sunlight at 4 times of our day/night cycle, to 4 different sets of irradiance volume textures, which we then blended overtime to give the illusion of having accurate indirect lighting across all times of the day.
Next to this, we rendered a static indirect pass, which was stored into its own irradiance volume texture. It contained all static non-moving/non-destructible lights in the world. The third thing we baked was the sky visibility term, which is like a volumetric 3D AO map. We used it to mask out the skylight on all static objects, allowing us to have things like slightly darker lighting in forests (even at a large distance). The reason we chose to once again use a prebaked solution instead of a fully real-time solution is simple: the quality is higher, and the memory cost and runtime performance cost is really low compared to a fully real-time solution. We have the opportunity to stack multiple irradiance volumes as well, giving us higher fidelity and resolution.
Our renderer is built into our engine and works by voxelizing the world and baking information like albedo, normal data and translucency into a voxel cache, which is then re-lit for each time of day and the static indirect bake. This way we get material information and correct color bounce across the game.
Rendering the indirect lighting can either be done locally or on our render farm, which, like most things at Guerrilla, runs on our own custom distribution system and enables fast turnaround times.
Horzion: Zero Dawn - Interview with the Team (https://80.lv/articles/horizon-zero-dawn-interview-with-the-team/)
Wie man an den Bildern sehen kann, ist das Endergebnis ziemlich beeindruckend.
Viele Grafikeffekte die Raytracing "faken" funktionieren nur mit möglichst statischen Levels und Beleuchtung wirklich gut.
Je mehr Dynamik rein kommt, desto höher ist die Chance dass diese nicht mehr funktionieren.
Beispielsweise kannst du GI fast perfekt faken, so lange sich die Lichtquelle nicht bewegt und die Geometrie nicht ändert.
Bei einem dynamischem Tag/Nacht-Verlauf funktioniert das schon deutlich schlechter, und bei veränderter Geometrie auch nicht.
Mehr Physik heißt aber in der Regel auch mehr Dynamik, und damit das gut aussieht ist Raytracing quasi Voraussetzung.
Wobei das bei Raytracing auch noch mal wesentlich deutlicher auf die Performance gehen wird.
Wenn es nämlich bei voll dynamischer Geometrie notwendig wird für jeden Frame den BVH neu zu bauen, wird Raytracing noch mal wesentlich deutlicher an Performance kosten als heute.
Nivdia Ampere soll ja +50% Shadereinheiten bei verdoppelten RT-Einheiten pro SM. Ergäbe 3x RT Performance und obendrauf noch die kommenden DXR Updates. Damit sollte Ampere 2x schneller als Turing mit RT sein. Selbst Spiele wie Control könnte man in 4K mit ca. 40-50fps spielen, das ist schon recht nice und Control hat für heutige Verhältnisse viel Dynamik.
Ergäbe 3x RT Performance und obendrauf noch die kommenden DXR Updates.
Definitiv nicht.
Die RT-Einheiten machen nur die BVH-Suche, der ganze Rest vom Raytracing läuft weiter in den Shader-ALUs, also selbst mit 3x RT-Einheiten wird Raytracing deshalb niemals 3x so schnell werden.
Dampf
2020-01-05, 21:02:12
Definitiv nicht.
Die RT-Einheiten machen nur die BVH-Suche, der ganze Rest vom Raytracing läuft weiter in den Shader-ALUs, also selbst mit 3x RT-Einheiten wird Raytracing deshalb niemals 3x so schnell werden.
Ja, das erklärt weshalb eine RTX 2060 die selbe Performance-Einbuße hat bei RT wie eine 2080Ti, auch wenn letztere deutlich mehr RT cores hat.
Bin aber auf kommende Updates von DXR gespannt, könnte einen schönen Schub liefern.
Ja, das erklärt weshalb eine RTX 2060 die selbe Performance-Einbuße hat bei RT wie eine 2080Ti, auch wenn letztere deutlich mehr RT cores hat.
Und CUDA-Cores und TMUs.
Das Verhältnis der einzelnen Einheiten ist komplett identisch bei beiden Karten.
Das Wolfenstein Raytracing Update ist endlich da.
Das Highlicht des Updates ist aber IMO das DLSS, was man auf jeden Fall verwenden sollte selbst wenn man auf Raytracing verzichtet.
Kaum zu glauben, aber in der Quality-Einstellung sieht das deutlich besser aus als die native Auflösung + TAA, und bringt dabei jede Menge Performance.
Dampf
2020-01-09, 23:19:43
Das Wolfenstein Raytracing Update ist endlich da.
Das Highlicht des Updates ist aber IMO das DLSS, was man auf jeden Fall verwenden sollte selbst wenn man auf Raytracing verzichtet.
Kaum zu glauben, aber in der Quality-Einstellung sieht das deutlich besser aus als die native Auflösung + TAA, und bringt dabei jede Menge Performance.
Tolle Sache. DLSS hat sich echt unglaublich gemacht. Leider wissen die meisten Leute noch gar nicht, wie gut DLSS mittlerweile geworden ist, da das neue Modell bis jetzt nur bei kleinen Titeln und eben Wolfenstein (was keinen mehr interessiert) eingesetzt wurde.
Mit Cyberpunk und Minecraft kann sich die Öffentlichkeit von DLSS überzeugen.
Wolfenstein Youngblood RTX-Update: Raytracing ist da - erste Vergleichsbilder und Performance-Test (https://www.pcgameshardware.de/Wolfenstein-Youngblood-Spiel-61757/Specials/RTX-Patch-Benchmarks-1340784/)
Was haltet ihr von der Beleuchtung im Innenbereich (zweiter Vergleich)? :confused:
MfG
Raff
aufkrawall
2020-01-10, 01:29:53
Gefällt mir nicht. Ich finde den Benefit für die Kosten in den gewählten Szenen erschreckend mickrig. Schließt nahtlos an bestimmte GameWürks-Effekte an...
Troyan
2020-01-10, 02:18:46
Gefällt mir nicht. Ich finde den Benefit für die Kosten in den gewählten Szenen erschreckend mickrig. Schließt nahtlos an bestimmte GameWürks-Effekte an...
Natürlich nicht. Wem wunderts auch. :freak:
Wer das Spiel zockt, wird den grafischen Sprung sehen. Wobei mir persönlich die Reflektionen in Pfützen viel zu scharf daher kommen. Kommt einen vor als ob man in einen Abgrund schaut... surreal.
Ansonsten top. Gibt ein paar LoD-Probleme, aber generell ein richtiger Sprung nach vorne. Da fallen die anderen Probleme der Engine um so mehr auf, wie z.B. die Schatten.
Leistungstechnisch sind rund 60FPS in 4K mit 2080TI drin. Mit DLSS sind es dann über 80FPS.
dildo4u
2020-01-10, 06:18:23
Hier ist ein bissel Youngblood RTX Gameplay in 4k.
https://youtu.be/V3GGXA3NB3c?t=724
robbitop
2020-01-10, 08:24:22
Warum hat man DLSS ohne RT nicht erlaubt? Ich hasse Einschränkungen die nicht notwendig sind...
Dampf
2020-01-10, 12:16:09
Hier ein Vergleich zwischen DLSS Qualität und nativer Auflösung rangezoomt in einen PCGH Vergleich (ja, die Bilder sind nicht vertauscht!)
Native Auflösung
https://extreme.pcgameshardware.de/attachments/1076081d1578654345-wolfenstein-youngblood-rtx-update-raytracing-ist-da-erste-vergleichsbilder-und-performance-test-r24mpyb.png
DLSS Qualität
https://extreme.pcgameshardware.de/attachments/1076082d1578654512-wolfenstein-youngblood-rtx-update-raytracing-ist-da-erste-vergleichsbilder-und-performance-test-oaz9enh.png
aufkrawall
2020-01-10, 12:20:43
Ist hier OT. ;)
Trotzdem der Kommentar von mir dazu, dass ich das Ringing als störend empfinde. Fairerweise muss man aber festhalten, dass schon ordentlich mehr fps zur Verfügung stehen. Für langsame Karten wär es nett. Dummerweise gibts das Feature nur ab RTX... :facepalm:
Edit: Ist da mit DLSS noch das spiel-interne Sharpen aktiv?
Dampf
2020-01-10, 12:26:25
Ist hier OT. ;)
Trotzdem der Kommentar von mir dazu, dass ich das Ringing als störend empfinde. Fairerweise muss man aber festhalten, dass schon ordentlich mehr fps zur Verfügung stehen. Für langsame Karten wär es nett. Dummerweise gibts das Feature nur ab RTX... :facepalm:
Edit: Ist da mit DLSS noch das spiel-interne Sharpen aktiv?
Die Settings sind abseits von DLSS und Raytracing unberührt.
Könnte aber gut sein, dass DLSS selbst ein bisschen sharpening hinzufügt.
Ex3cut3r
2020-01-10, 12:44:11
DLSS Qualität schaut noch gut aus und bringt +50%
Troyan
2020-01-10, 12:46:14
Warum hat man DLSS ohne RT nicht erlaubt? Ich hasse Einschränkungen die nicht notwendig sind...
DLSS hat einen Overhead. nVidia hat es letztes Jahr beschrieben. Wolfenstein läuft mit hohen Frames. Wahrscheinlich wäre es dann kaum schneller als nativ.
DLSS schärft eigenständig nach, ist auch bei anderen Spielen so. Dadurch soll der Detailverlust durch die reduzierte Auflösung (über)kompensiert werden. Das Ingame-Sharpening steht bei allen Shots auf der Standardstellung 2,0 und greift wohl auch bei DLSS. Wem die Shots ohne DLSS zu "unscharf" sind, der kann ergo selbst nachschärfen (mehr als 3,0 ist ohne Downsampling aber bröselig).
MfG
Raff
][immy
2020-01-10, 12:58:55
Warum hat man DLSS ohne RT nicht erlaubt? Ich hasse Einschränkungen die nicht notwendig sind...
Soweit ich mich erinnere, kann die verbaute Hardware nicht so hohe FPS mit DLSS verarbeiten. Daher ist DLSS auch immer entsprechend begrenzt und nur bestimmte Stufen für bestimmte Hardware freigegeben.
Insgesamt keine Technik die die Jahre überdauert, da zu Hardwarespezifisch.
DLSS auf Shots finde ich ehrlich gesagt nicht so interessant. Die großen Nachteile kommen meist erst in Bewegung zur Geltung wo dann Artefakte auftauchen die auch noch Kräuseln etc.
DLSS schärft eigenständig nach, ist auch bei anderen Spielen so. Dadurch soll der Detailverlust durch die reduzierte Auflösung (über)kompensiert werden. Das Ingame-Sharpening steht bei allen Shots auf der Standardstellung 2,0 und greift wohl auch bei DLSS. Wem die Shots ohne DLSS zu "unscharf" sind, der kann ergo selbst nachschärfen (mehr als 3,0 ist ohne Downsampling aber bröselig).
DLSS ist weit mehr als nur einfaches Sharpening.
DLSS erzeugt wirklich Details, Sharpening kann immer nur Details hervorheben die in der Quelle schon vorhanden sind.
Beispielsweise hier sichtbar:
Native Auflösung Default
https://i.imgur.com/WP1NLDu.jpg
Native Auflösung mit max Sharpening
https://i.imgur.com/CsKGYA0.jpg
DLSS Quality @ Default Sharpening
https://i.imgur.com/w7zoaY6.jpg
Wie man hier sieht, ist beispielsweise das 3. Seil an dem die kleinen Fähnchen hängen in nativer Auflösung komplett unsichtbar, und selbst maximales Sharpening, mit schon grausamen Halos bringt das nicht zurück.
Im DLSS Bild dagegen, ist das Seil so gut wie es eben mit der eingestellten Auflösung möglich ist abgebildet.
Die JPEG-Kompression verschleiert das leider ein wenig, in real ist der Vorteil noch etwas größer, aber ich denke es ist trotzdem gut erkennbar, dass DLSS mehr Details darstellt als die native Auflösung.
Warum hat man DLSS ohne RT nicht erlaubt? Ich hasse Einschränkungen die nicht notwendig sind...
Vermutlich hat man zumindest bisher das neuronale Netzwerk nur mit Raytracing trainiert.
Durch Raytracing ändert sich in Wolfenstein auch das Lighting, womit das Modell für Raytracing, ziemlich sicher nicht ohne Raytracing funktioniert bzw. bestenfalls suboptimale Ergebnisse bringt.
blaidd
2020-01-10, 19:00:36
Hat schon noch ein paar Macken...
Positiv ist die Performance (zumindest solange der Speicher reicht).
jn4G95_5zQg
aufkrawall
2020-01-10, 19:11:38
Daumen rauf fürs genaue Hinschauen. So viele Fails, da kann man auch gleich bei dem SSR-Müll bleiben. Bzw. bleibt es für große Flächen wie Wasser ja ohnehin...
[immy;12188311']Soweit ich mich erinnere, kann die verbaute Hardware nicht so hohe FPS mit DLSS verarbeiten.
Hab ich auch mal gelesen.
Wolfenstein beweist aber das Gegenteil, mit DLSS hänge ich praktisch konstant im Framelimiter, der bei mir auf 150FPS steht.
DLSS ist weit mehr als nur einfaches Sharpening.
DLSS erzeugt wirklich Details, Sharpening kann immer nur Details hervorheben die in der Quelle schon vorhanden sind.
Beispielsweise hier sichtbar:
Native Auflösung Default
https://i.imgur.com/WP1NLDu.jpg
Native Auflösung mit max Sharpening
https://i.imgur.com/CsKGYA0.jpg
DLSS Quality @ Default Sharpening
https://i.imgur.com/w7zoaY6.jpg
Wie man hier sieht, ist beispielsweise das 3. Seil an dem die kleinen Fähnchen hängen in nativer Auflösung komplett unsichtbar, und selbst maximales Sharpening, mit schon grausamen Halos bringt das nicht zurück.
Im DLSS Bild dagegen, ist das Seil so gut wie es eben mit der eingestellten Auflösung möglich ist abgebildet.
Die JPEG-Kompression verschleiert das leider ein wenig, in real ist der Vorteil noch etwas größer, aber ich denke es ist trotzdem gut erkennbar, dass DLSS mehr Details darstellt als die native Auflösung.
Was auch noch auffällt, DLSS glättet viel besser, beispielsweise an den Absperrgittern oder an der weißen Säule links.
Hab ich auch mal gelesen.
Wolfenstein beweist aber das Gegenteil, mit DLSS hänge ich praktisch konstant im Framelimiter, der bei mir auf 150FPS steht.
DLSS vor und nach Control sind zwei verschiedene Welten...
https://www.nvidia.com/en-us/geforce/news/dlss-control-and-beyond/
Seit Control gefällt DLSS und leistet in ungefähr das, was ganz zu Anfang bei der Nutzung von DLSS versprochen aber nicht gehalten wurde.
DLSS ist weit mehr als nur einfaches Sharpening.
DLSS erzeugt wirklich Details, Sharpening kann immer nur Details hervorheben die in der Quelle schon vorhanden sind.
Beispielsweise hier sichtbar:
Native Auflösung Default
https://i.imgur.com/WP1NLDu.jpg
Native Auflösung mit max Sharpening
https://i.imgur.com/CsKGYA0.jpg
DLSS Quality @ Default Sharpening
https://i.imgur.com/w7zoaY6.jpg
Wie man hier sieht, ist beispielsweise das 3. Seil an dem die kleinen Fähnchen hängen in nativer Auflösung komplett unsichtbar, und selbst maximales Sharpening, mit schon grausamen Halos bringt das nicht zurück.
Im DLSS Bild dagegen, ist das Seil so gut wie es eben mit der eingestellten Auflösung möglich ist abgebildet.
Die JPEG-Kompression verschleiert das leider ein wenig, in real ist der Vorteil noch etwas größer, aber ich denke es ist trotzdem gut erkennbar, dass DLSS mehr Details darstellt als die native Auflösung.
Jau, bei der PCGH sitzen ein paar Pixelzähler und Grafikhuren. Denen ist bekannt, dass die modernen Iterationen von DLSS mehr können als die Fps zu erhöhen. :D
Mittlerweile gibt's weitere Impressionen und Benchmarks aller RTX-Grafikkarten: https://www.pcgameshardware.de/Wolfenstein-Youngblood-Spiel-61757/Specials/Raytracing-Benchmarks-1340830/
MfG
Raff
Mittlerweile gibt's weitere Impressionen und Benchmarks aller RTX-Grafikkarten: https://www.pcgameshardware.de/Wolfenstein-Youngblood-Spiel-61757/Specials/Raytracing-Benchmarks-1340830/
Und ich hab mich schon gewundert warum die Abby bei euch in den Screenshots so einen Verband hat. Jetzt weiß ich´s :D
Sieht langsam richtig gut aus->
https://www.youtube.com/watch?v=gpzFX4P1Jow
DLSS tut was es soll und RT auch (deutlich sichtbar und schön, weil nicht übertrieben integriert).
gnomi
2020-01-19, 15:38:08
Die Umsetzung bei Wolfenstein entschädigt dafür, dass es so lange dauerte. :up:
Eventuell geht es in Doom Eternal ja jetzt schneller.
Bei dem PCGH Bericht stört mich irgendwie der Unterton mit dem VRAM ein wenig. Ist AFAIR auch nicht das erste Mal. F.E.A.R./ Doom3/Quake 4 unkomprimiert/ Mordor/ Deus Ex MD- wir haben das ja immer mal wieder. :freak:
Zwar stimme ich zu, dass 6GB Mittelklasse und 8GB High End schon eher eng sind, aber es wirkt andernfalls konstruiert, denn mehr als Regler bedienen und passende GPU für die Monitorauflösung kaufen muss man ja nicht.
Wenn sich da mal überhaupt ein Titel finden lässt, denn hunderte von Spielen sind mit 4GB VRam in Full HD unkompliziert spielbar.
Aber gut, ist auch nur eine Meinung jetzt. Einschätzungen sind subjektiv.
Und ab 2021 wird es tatsächlich etwas haariger. (wobei MS schon angekündigt hat, dass Neuerscheinungen auf bestehenden Konsolen auch laufen werden- das verlängert eventuell nochmalig die Lebensspanne vieler Grafikkarten)
Bei dem PCGH Bericht stört mich irgendwie der Unterton mit dem VRAM ein wenig. Ist AFAIR auch nicht das erste Mal. F.E.A.R./ Doom3/Quake 4 unkomprimiert/ Mordor/ Deus Ex MD- wir haben das ja immer mal wieder. :freak:
Besonders in Wolfenstein, da der Regler hier ja nur das Streamingbudget im VRAM einstellt, und damit auch wenn verringert die Texturen nicht schlechter aussehen.
Und ich hab mich schon gewundert warum die Abby bei euch in den Screenshots so einen Verband hat. Jetzt weiß ich´s :D
100 percent completion, fan of the game. ;)
(Vor dem Patch, jetzt wollen noch die neuen Schätze gefunden werden.)
___
Ich muss - zähneknirschend - sagen, dass sich die RTX 2080 Ti irgendwie doch schon gelohnt hat. :ugly: Control war der erste Streich mit offener Kinnlade, dann folgten Quake II RTX und just Deliver us the Moon sowie Wolfenstein Youngblood. Diese Entwicklung ist fantastisch und bietet sogar einen spielerischen Mehrwert. Einen, der bei Battlefield 5 erhofft wurde, doch erst in Youngblood wirklich nutzbar ist: Man sieht Gegner in Spiegelungen. Davon ab sieht das natürlich auch einfach geil aus, Nutzen hin oder her. Kollege Turing ist zwar völlig am Ende, auch wenn man ihm 400 Watt zu saufen gibt, aber für First-Gen-Hardware ist das wirklich beeindruckend. Das Jahr 2020 und alle darüber hinaus werden schön! =)
MfG
Raff
Dampf
2020-01-25, 23:12:17
100 percent completion, fan of the game. ;)
(Vor dem Patch, jetzt wollen noch die neuen Schätze gefunden werden.)
___
Ich muss - zähneknirschend - sagen, dass sich die RTX 2080 Ti irgendwie doch schon gelohnt hat. :ugly: Control war der erste Streich mit offener Kinnlade, dann folgten Quake II RTX und just Deliver us the Moon sowie Wolfenstein Youngblood. Diese Entwicklung ist fantastisch und bietet sogar einen spielerischen Mehrwert. Einen, der bei Battlefield 5 erhofft wurde, doch erst in Youngblood wirklich nutzbar ist: Man sieht Gegner in Spiegelungen. Davon ab sieht das natürlich auch einfach geil aus, Nutzen hin oder her. Kollege Turing ist zwar völlig am Ende, auch wenn man ihm 400 Watt zu saufen gibt, aber für First-Gen-Hardware ist das wirklich beeindruckend. Das Jahr 2020 und alle darüber hinaus werden schön! =)
MfG
Raff
Hehe und das war ja noch lang nicht das Ende der Fahnenstange. Man darf gespannt sein was passiert, wenn Entwickler mit den neuen Konsolen RT richtig nutzen und damit auch am PC besser optimieren. Cooles Zeugs ist da möglich!
Turing ist ja auch so ne Architektur bei der sich das Potenzial erstmal entfalten muss. Die wirklich krassen Features wie VRS (abseits der VRS 1 Implementation von Wolf) und Mesh Shader werden ja noch nicht richtig genutzt. Und DXR 1.1 kommt ja auch noch... das wird ziemlich spannend! :biggrin:
Ja, wir brauchen mehr davon! :biggrin:
Übrigens nochmal zu Wolfenstein: Man kann da einiges tweaken: https://extreme.pcgameshardware.de/news-kommentare-zu-action-spielen/558890-wolfenstein-youngblood-rtx-update-raytracing-ist-da-erste-vergleichsbilder-und-performance-test-4.html#post10166898 (Posting #142)
Die AtlasSize hat nichts mit dem Raytracing zu tun und kann zu Flackern führen, der Rest hilft aber den Spiegelungen auf die Sprünge.
MfG
Raff
Übrigens nochmal zu Wolfenstein: Man kann da einiges tweaken: https://extreme.pcgameshardware.de/news-kommentare-zu-action-spielen/558890-wolfenstein-youngblood-rtx-update-raytracing-ist-da-erste-vergleichsbilder-und-performance-test-4.html#post10166898 (Posting #142)
Die AtlasSize hat nichts mit dem Raytracing zu tun und kann zu Flackern führen, der Rest hilft aber den Spiegelungen auf die Sprünge.
Hm, überzeugt mich jetzt nicht so.
Schatten sind da eben schärfer, aber immer noch überall gleich blurry, und so lange man nicht den Übergang von hart auf weich hat, sehen Schatten halt eher nicht so toll aus.
Das 2. Beispiel bei den Spiegelungen ist mir auch ingame negativ aufgefallen, ich hoffe die fixen das nochmal per Patch.
Und bei den diffusen Spiegelungen, nun ja die Oberfläche schaut mit den Tweaks eben mehr glossy aus, aber ich finde das Original sieht eher wie vom Leveldesigner gedacht aus.
Was mir auch an einer Stelle aufgefallen ist, ist dass die Engine offenbar Räume die man noch nicht sieht nicht rendert, was ja Sinn macht. Allerdings hätte man an einer Stelle schon vorher den Raum in einer Spiegelung gesehen, bevor er tatsächlich eingeblendet wird.
deekey777
2020-02-24, 11:12:34
4A Games on next-gen: "We are fully into ray tracing" (https://www.eurogamer.net/articles/digitalfoundry-2020-4a-games-on-next-gen-we-are-fully-into-ray-tracing)
Naja. Da stecken doch noch viele Entwickler von GSC, oder?
Radeonfreak
2020-02-24, 11:25:35
Die sollen sich lieber mal um die ganzen Bugs und die Performance seit dem letzten Patch in Metro kümmern bevor sie große Sprüche um Raytracing klopfen.
y33H@
2020-02-24, 11:26:11
Unterschiedliche Abteilungen :P
Dampf
2020-03-07, 16:49:35
Raytracing scheint wohl in Zukunft schneller zu werden.
Als AMD ihre RDNA2 Architektur ankündigte, verwiesen sie auf Performance-Steigerungen durch die Lower Level API, also DXR 1.1.
https://www.pcgamesn.com/wp-content/uploads/2020/03/amd-ray-tracing.jpg
Sieht so aus als könnte DXR 1.1 wie erhofft wirklich gute Performance-Sprünge erzielen, d.h. es wird nicht mehr so viel Leistung kosten wie jetzt. Da Turing auch DXR 1.1 unterstützt und Windows 2004 bald kommt, können wir das wohl bald sehen, vielleicht ja mit Cyberpunk.
pixeljetstream
2020-03-24, 09:23:43
https://news.developer.nvidia.com/announcing-nvidia-rtxgi-sdk/?ncid=so-twit-79832#cid=dl13_so-twit_en-us
RTXGI SDK
Schön (auch für Nvidia im Sinne der Verbreitung), dass dafür nur DXR und nicht irgendwelche proprietären Erweiterungen benötigt werden. :up:
MfG
Raff
dildo4u
2020-03-24, 09:32:53
Wichtig ist das es in UE 4.0 integriert wird die haben keine gute Lösung und die Engine dominiert die komplette Industrie.
Da hast du Recht. Die UE4 kann jede Hilfe gebrauchen, damit die Masse der Spiele quasi-automatisch besser wird. :ugly: Aber eigentlich ... hat Epic genug Input von Nvidia. Die bräuchten eigentlich Code(r) von AMD.
MfG
Raff
dildo4u
2020-03-24, 09:45:03
Laut dem Talk soll es von GTX 1060 nach oben skalieren,das sollte auf den neuen Konsolen gute Resultate erzielen.
robbitop
2020-03-24, 12:12:31
Da hast du Recht. Die UE4 kann jede Hilfe gebrauchen, damit die Masse der Spiele quasi-automatisch besser wird. :ugly: Aber eigentlich ... hat Epic genug Input von Nvidia. Die bräuchten eigentlich Code(r) von AMD.
MfG
Raff
Sollte doch dank RDNA2 Nextgenkonsolen HW automatisch passieren, oder?
War das denn bei GCN der Fall?
robbitop
2020-03-25, 08:28:09
War das denn bei GCN der Fall?
Zumindest in Bezug auf die Ausnutzung der Rechenleistung eher weniger. Sony/MS hatten eigene (und bessere!) Shadercompiler als AMD selbst (was IMO ein Armutszeugnis war).
Du hast schon Recht - die API ist sogar eine andere (zumindest auf der PS5) - der Einfluss ist sehr eingeschränkt gewesen und kann dies bei Nextgen auch weiterhin bleiben.
Ich kann mir zumindest eine gewisse (wenn auch nicht volle) Synergie vorstellen.
Ich gehe zumindest davon aus, dass die Entwickler eine sehr genaue Vorstellung von RDNA2 haben müssen, um für die Konsole alles herauszuquetschen. Das kann zumindest für die Entwicklung am PC nicht schaden. Auch ist die Dokumentation der uArch bei AMD ja immer recht offen.
Da hast du Recht. Die UE4 kann jede Hilfe gebrauchen, damit die Masse der Spiele quasi-automatisch besser wird. :ugly: Aber eigentlich ... hat Epic genug Input von Nvidia. Die bräuchten eigentlich Code(r) von AMD.
MfG
Raff
Epic ist der Haus und Hofladen von NV, da scheitert es sicher nicht an Code(r) von AMD.
dildo4u
2020-03-30, 18:51:30
Mehr Infos zu Minecraft RTX.
https://www.nvidia.com/en-us/geforce/news/minecraft-with-rtx-coming-soon-screenshots-and-guides/
Da hast du Recht. Die UE4 kann jede Hilfe gebrauchen, damit die Masse der Spiele quasi-automatisch besser wird. :ugly: Aber eigentlich ... hat Epic genug Input von Nvidia.
Genug hat man nie.
Die bräuchten eigentlich Code(r) von AMD.
AMD könnte sich ja mal beteiligen und den Code von Epic nehmen.
Nvidia macht ja auch kontinuierlich Experimente und Optimierungen.
Hier mal die neusten Branches aus den Nvidia UE4 Repo:
https://abload.de/img/clipboard01igj18.png
Von AMD sieht man nichts... absolut nada
starfish
2020-03-31, 20:54:59
Epic ist der Haus und Hofladen von NV, da scheitert es sicher nicht an Code(r) von AMD.
Nvidia hat sicher ein sehr gutes Verhältnis mit Epic, das ist unbestritten, die Schlussfolgerung ist natürlich trotzdem einfach falsch.
Und ja, der Raytracing Code wird natürlich auch auf AMD Hardware laufen, sobald diese in Hardware verfügbar sind.
Alles andere wäre auch betriebswirtschaftlich schwachsinnig.
Edit: Als Beispiel sei 4.24 genannt, dort gibt es für jede Nvidia Lösung eine per default genutzte Eigenlösung.
Das gilt für den Denoiser wie auch zB. das GI, wo Epic die Nvidia Lösung überhaupt nicht nutzen.
pixeljetstream
2020-04-02, 12:29:52
https://developer.nvidia.com/gtc/2020/video/s22678
GTC Talk zum Minecraft RTX Renderer
Dampf
2020-04-02, 13:14:55
https://developer.nvidia.com/gtc/2020/video/s22678
GTC Talk zum Minecraft RTX Renderer
Nutzt man jetzt die Tensor Kerne fürs Denoising? Hab dazu nix in dem Video gefunden.
Winter[Raven]
2020-04-02, 15:49:36
Wäre ja mal nett, wenn Nvidia mal mit der Info kommen würde, wann das Update für Minecraft veröffentlicht werden soll.
Nutzt man jetzt die Tensor Kerne fürs Denoising? Hab dazu nix in dem Video gefunden.
Höchstwahrscheinlich nicht, man nutzt auf jeden Fall kein DL-Denoising.
Das ist auch für statische Bilder gedacht, beim Echtzeitrendering kann man wesentlich besseres Denoising verwenden, da man temporale Informationen übere mehrere Frames hat und auch die jeweiligen Effekte in verschiedene Buffer rendert und dann einen jeweils angepassten denoiser verwenden kann.
Nutzt man jetzt die Tensor Kerne fürs Denoising? Hab dazu nix in dem Video gefunden.
Denoise wird ausführlich erklärt. Wie kann man die notwendigen Aussagen verpassen?
pixeljetstream
2020-04-04, 10:31:03
GTC 2020 Talk über RTX GI
https://developer.nvidia.com/gtc/2020/video/s22692
pixeljetstream
2020-04-09, 01:11:10
Blog post über Profiling von RTX. Beispiel Youngblood
https://devblogs.nvidia.com/optimizing-vk-vkr-and-dx12-dxr-applications-using-nsight-graphics-gpu-trace-advanced-mode-metrics/
Und blog post von Jacco Bikker über seine Raytracing engine
https://jacco.ompf2.com/2020/04/07/speeding-up-lighthouse-2/
https://developer.nvidia.com/gtc/2020/video/s22678
GTC Talk zum Minecraft RTX Renderer
Die machen nun endlich Nägel mit Köpfen: Minecraft RTX-Patch: Klötzengrafik trifft auf modernes Pathtracing und DLSS 2.0 (https://www.pcgameshardware.de/Minecraft-Spiel-15576/Specials/Minecraft-RTX-Patch-DLSS-20-Test-1347782/)
Allerdings ist's ein "Salami-Launch". :ugly:
MfG
Raff
Fragman
2020-04-14, 18:51:17
Interessant wäre der Vergleich zur Java pt version, optisch und wegen der Performance.
Aber rein technisch ist diese hier spannend zum reinschauen, auch wegen DLSS2 natürlich.
y33H@
2020-04-16, 15:20:28
Benchmarks etc zu Minecraft RTX:
https://www.golem.de/news/minecraft-rtx-im-test-kloetzchen-klotzen-mit-pathtracing-2004-147789.html
https://www.pcgameshardware.de/Minecraft-Spiel-15576/Specials/Minecraft-RTX-Benchmark-Test-1348012/
https://www.hardwareluxx.de/index.php/artikel/software/spiele/52883-minecraft-rtx-im-technik-check.html
][immy
2020-04-16, 15:41:27
Benchmarks etc zu Minecraft RTX:
https://www.golem.de/news/minecraft-rtx-im-test-kloetzchen-klotzen-mit-pathtracing-2004-147789.html
https://www.pcgameshardware.de/Minecraft-Spiel-15576/Specials/Minecraft-RTX-Benchmark-Test-1348012/
https://www.hardwareluxx.de/index.php/artikel/software/spiele/52883-minecraft-rtx-im-technik-check.html
Nun, da fragt man sich ja welche Einstellungen auf der xbox series x verwendet wurden in dem Video aus den letzten Tagen. Hat AMD dann doch einen potenten Weg gefunden RT zu implementieren. Andererseits spricht MS immer von einer custom Lösung in der nächsten xbox.
Und was z.B. das PC-Games Hardware Video auch gut demonstriert (die anderen hab ich mir noch nicht angeschaut), Sichtweite ist der Performancekiller bei der Nutzung von RT.
Ich muss immer lachen, wenn ein von Nvidia befeuertes Spiel klar aufzeigt, dass eigentlich jede Turing-GPU abseits der Titan RTX zu wenig Speicher für ihren Möchtegern-Einsatzzweck hat. Und dann weinen. Aber geil ist die Entwicklung trotzdem. :D
MfG
Raff
][immy
2020-04-16, 15:54:55
Ich muss immer lachen, wenn ein von Nvidia befeuertes Spiel klar aufzeigt, dass eigentlich jede Turing-GPU abseits der Titan RTX zu wenig Speicher für ihren Möchtegern-Einsatzzweck hat. Und dann weinen. Aber geil ist die Entwicklung trotzdem. :D
MfG
Raff
Allerdings frage ich mich warum da zu wenig Speicher bei der ersten Map (PC-Games Video) vorhanden ist. Beim "Disney"-Level war ja deutlich mehr Speicher frei, obwohl deutlich mehr sichtbar war.
Bei dem Baum-Level kann ich es ja noch ansatzweise verstehen, denn die "Blatt-Blöcke" sind ja teildurchlässig. Da gibt es dann vermutlich einige Verzweigungen durch das "Blattwerk". Da könnte ich mir noch vorstellen, das eine Performance-Optimierung wäre, die Blatt-Blöcke von Bäumchen nach x Blöcken nicht mehr teildurchlässig zu gestalten.
y33H@
2020-04-16, 15:58:31
[immy;12281328']Nun, da fragt man sich ja welche Einstellungen auf der xbox series x verwendet wurden in dem Video aus den letzten Tagen. Hat AMD dann doch einen potenten Weg gefunden RT zu implementieren. Andererseits spricht MS immer von einer custom Lösung in der nächsten xbox.1440p mit Upscaling und 16 Chunks sollten auf der XBX-GPU locker laufen mit Pathtracing, selbst wenn die RT-Implementierung ähnlich performt wie bei Turing.
Dampf
2020-04-16, 16:15:53
Ich muss immer lachen, wenn ein von Nvidia befeuertes Spiel klar aufzeigt, dass eigentlich jede Turing-GPU abseits der Titan RTX zu wenig Speicher für ihren Möchtegern-Einsatzzweck hat. Und dann weinen. Aber geil ist die Entwicklung trotzdem. :D
MfG
Raff
Zum Glück kommt bald Sampler Feedback ;)
Wow, Neon District sieht mal richtig geil aus. Es ist wirklich pervers, was man mit Riesenvoxeln anstellen kann, wenn die gescheit beleuchtet werden. =)
Digital Foundry zeigt die Errungenschaften gekonnt mithilfe eines selbst gebauten Levels: https://www.youtube.com/watch?v=s_eeWr622Ss
Sehr beeindruckend, wenn man sich mal vor Augen hält, was da gemacht wird. :up:
MfG
Raff
Slipknot79
2020-04-19, 00:14:33
Kann es sein, dass RT in Minecraft "statisch" ist?
Also, wenn man Klötze zerstört, dass RT Effekte nicht in den neuen Raum hinberechnet werden?
(Habe das Spiel ned)
Ravenhearth
2020-04-19, 00:42:26
Nein, ist nicht statisch. Das wäre in dem Spiel dann ja völlig sinnfrei.
Crazy_Bon
2020-04-19, 01:08:57
Kann es sein, dass RT in Minecraft "statisch" ist?
Also, wenn man Klötze zerstört, dass RT Effekte nicht in den neuen Raum hinberechnet werden?
(Habe das Spiel ned)
Dann wäre es auch kein Realtime Raytracing mehr. :biggrin:
Oder schau dir das Golem-Video ab 3:45min mit RTX-Minecraft an, da werden Klötzchen an- und abgebaut. Mit dementsprechenden Veränderungen in der Raytracing-Welt/Raum.
Slipknot79
2020-04-19, 11:09:47
kk thx nice, habe das hinterfragt weil nen Freund meinte, es wäre "statisch" bzw "pre rendered auf die Klötze/Oberflächen die es seit Mapstart gibt" und ich selbst das nicht glauben konnte.
Werde ihn drauf hinweisen. :freak:
Minecraft RTX deep dive mit Interview der Nvidia-devs
TVtSsJf86_Y
anorakker
2020-04-21, 08:27:28
Was wird da für ein Wuss um Minecraft gemacht? Sieht immer noch nach langweiligem Minecraft aus, hätte man wahrscheinlich mit diversen anderen Rendertricks schon vor 15 Jahren so aussehen lassen können.
AintCoolName
2020-04-21, 08:54:09
Was wird da für ein Wuss um Minecraft gemacht? Sieht immer noch nach langweiligem Minecraft aus, hätte man wahrscheinlich mit diversen anderen Rendertricks schon vor 15 Jahren so aussehen lassen können.
Ich denke nicht. Weil vor 15 Jahren und bis heute hätte man das mit vor berechneten Daten machen müssen. Dann wäre das aber nicht so dynamisch wie Minecraft nun mal ist. Das ist auch das besondere eine komplett dynamische Welt und passend dazu alle Licht und Schatten in Echtzeit wie man es sonst nur mit pre baked content machen könnte.
dildo4u
2020-04-21, 09:34:28
Was wird da für ein Wuss um Minecraft gemacht? Sieht immer noch nach langweiligem Minecraft aus, hätte man wahrscheinlich mit diversen anderen Rendertricks schon vor 15 Jahren so aussehen lassen können.
Einfach logisch denken,das Gimmick von Minecraft ist das man die Umgebung ändern kann,alte Render Techniken funktionieren super wenn man die Beleuchtung in die Texturen backen kann.(z.b Schatten und Globale Beleuchtung)
Das geht nur wenn sich die Umgebung nicht dynamisch verändert.
Minecraft RTX deep dive mit Interview der Nvidia-devs
https://youtu.be/TVtSsJf86_Y
Interessant finde ich, dass es nicht auf DXR 1.1 sondern "nur" auf 1.0 ausgerichtet ist - ab Minute 8:33.
Wenn sie also wollen/wollten hätte man ab Win 20h1 noch diverses Optimierungspotential :biggrin:.
Obwohl die Entwickler nur meinten, dass man es sich anschaut aber nicht mehr dazu sagen kann ob es auch umgesetzt wird.
Spannend :smile:.
Klevapalis
2020-04-21, 14:54:34
Habe Minecraft RTX gestern mal ausprobiert und es macht richtig Laune, mit Glas, Licht, Feuer usw. im eigenen Haus zu experimentieren.
Einfach eine neue Dimension zum optimieren. Bin gespannt was die Freaks damit noch bauen :)
Dampf
2020-04-21, 16:17:20
Interessant finde ich, dass es nicht auf DXR 1.1 sondern "nur" auf 1.0 ausgerichtet ist - ab Minute 8:33.
Wenn sie also wollen/wollten hätte man ab Win 20h1 noch diverses Optimierungspotential :biggrin:.
Obwohl die Entwickler nur meinten, dass man es sich anschaut aber nicht mehr dazu sagen kann ob es auch umgesetzt wird.
Spannend :smile:.
Glaube nicht, dass DXR 1.1 bei Minecraft PT so viel bringt.
AI-Denoising auf den Tensor Cores hat jedoch sehr hohes Optimierungspotenzial, da Denoising 45% des Frames in Anspruch nimmt.
anorakker
2020-04-21, 16:42:13
Einfach logisch denken,das Gimmick von Minecraft ist das man die Umgebung ändern kann,alte Render Techniken funktionieren super wenn man die Beleuchtung in die Texturen backen kann.(z.b Schatten und Globale Beleuchtung)
Das geht nur wenn sich die Umgebung nicht dynamisch verändert.
Da hast du irgendwie recht :freak: Aber da ich kein Minecraft spiele und in den (tech)Videos auch wenig typisches Minecraft Gameplay gezeigt wurde, ist mir dieser offensichtliche Unterschied entgangen :redface:
Robspassion
2020-04-22, 10:39:12
Ich spiele zum ersten Mal Minecraft und es macht einfach nur Bock mit den ganzen neuen Materialien zu experimentieren. Ray-Tracing oder Path-Tracing ist echt perfekt für das Game.
Fragman
2020-04-22, 10:55:04
Ich spiele zum ersten Mal Minecraft und es macht einfach nur Bock mit den ganzen neuen Materialien zu experimentieren. Ray-Tracing oder Path-Tracing ist echt perfekt für das Game.
Jep, oder einfach tiefe Lichtschächte bis zum Weltboden anzulegen und dabei zuzuschauen, wie Sonne und Mond langsam darüber ziehen. :D
][immy
2020-04-22, 11:37:34
Ich spiele zum ersten Mal Minecraft und es macht einfach nur Bock mit den ganzen neuen Materialien zu experimentieren. Ray-Tracing oder Path-Tracing ist echt perfekt für das Game.
Da kann man dann jetzt auch Prozessoren mit Lichtwellenleitern nachbauen ;)
Btw, April Update für Windows 10 ist jetzt im letzten Preview-Kanal gelandet, sollte also bald kommen. Ich würde mal drauf tippen, das AMD dieses benötigt um überhaupt neue Chips mit RT Unterstützung vorzustellen.
Glaube nicht, dass DXR 1.1 bei Minecraft PT so viel bringt.
AI-Denoising auf den Tensor Cores hat jedoch sehr hohes Optimierungspotenzial, da Denoising 45% des Frames in Anspruch nimmt.
Hast du da ein paar mehr Infos für mich, würde gerne mehr dazu lesen.
pixeljetstream
2020-04-22, 16:59:16
Hast du da ein paar mehr Infos für mich, würde gerne mehr dazu lesen.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12267437#post12267437
Allerdings nix zum lesen
pixeljetstream
2020-04-22, 17:01:24
[immy;12286727']Da kann man dann jetzt auch Prozessoren mit Lichtwellenleitern nachbauen ;)
Btw, April Update für Windows 10 ist jetzt im letzten Preview-Kanal gelandet, sollte also bald kommen. Ich würde mal drauf tippen, das AMD dieses benötigt um überhaupt neue Chips mit RT Unterstützung vorzustellen.
Es gibt ja auch noch Vulkan ;)
@ pixeljetstream
Vielen Dank für den Link
Fusion_Power
2020-05-06, 00:14:10
Hey, jetzt hat's auch Super Mario 64 erwischt:
1sxwPd0hDBc
Zugegeben, ohne HD-Texturen und -Umgebungen bewirkt RT hier nun auch keine Wunder aber immerhin, es glänzt halt hier und da ganz nett. ^^
pixeljetstream
2020-05-15, 00:31:28
https://news.developer.nvidia.com/rendering-millions-of-dynamics-lights-in-realtime/
rendering-millions-of-dynamics-lights-in-realtime
Sieht Sexy aus:
https://www.youtube.com/watch?v=HiSexy6eoy8
basix
2020-05-15, 21:40:53
Ich habe das Paper mal quergelesen. Die Verbesserung zu anderen Techniken ist wirklich drastisch. Es gibt zwar noch Limitationen (Screen Space, GI) aber darauf kann man aufbauen.
Was ich beeindruckend finde, dass man hier sehr gut sichtbare Fortschritte erzielt hat. Raytracing und Pathtracing an sich ist ja nicht so jung.
Zugegeben, ohne HD-Texturen und -Umgebungen bewirkt RT hier nun auch keine Wunder aber immerhin, es glänzt halt hier und da ganz nett. ^^
Das Problem ist nicht die Auflösung irgendwelcher Texturen. GI funktioniert ohne PBR Materialien nicht oder nur mit massivem Tunen der Parameter. Die meisten pre-PBR Materialien haben einfach den Energieerhaltungssatz ignoriert und nicht selten bei jedem Bounce Energie erzeugt.
Dampf
2020-05-22, 15:55:21
Ich habe das Paper mal quergelesen. Die Verbesserung zu anderen Techniken ist wirklich drastisch. Es gibt zwar noch Limitationen (Screen Space, GI) aber darauf kann man aufbauen.
Was ich beeindruckend finde, dass man hier sehr gut sichtbare Fortschritte erzielt hat. Raytracing und Pathtracing an sich ist ja nicht so jung.
Screen Space ist ja nichts schlechtes. Bei Techniken wie GI und Schatten würde das kaum auffallen und spart ne Menge Performance. Bei Reflektionen sieht's halt anders aus, da ist Screen Space keine gute Idee.
Mal ne Frage, gibts derzeit eigentlich sowas wie ein Raytracing LOD? Also dass in der Nähe vom Spieler mehr Strahlen geschossen und getraced werden als in der Distanz?
GI in screen space hat endlose Artefacts. Stell dir doch einfach eine rote Wand vor, die rotes Licht auf den Boden bounced und dann ist sie entweder im screen space sichtbar oder nicht nach kleinstem Kamera-Schwenk. Das funktioniert einfach nicht gescheit.
Fragman
2020-05-22, 16:03:49
Screen Space ist ja nichts schlechtes. Bei Techniken wie GI und Schatten würde das kaum auffallen und würde ne Menge Performance sparen. Bei Reflektionen sieht's halt anders aus, da ist Screen Space keine gute Idee.
Da muss ich wiedersprechen. Die Gear Demo auf der neuen XBox hat gezeigt, das das für GI unbrauchtbar ist, da die Schattierung genauso ausblendet, wie schon die Spiegelungen. Und das deutlich im Sichtfeld und nicht erst am Rand.
Dampf
2020-05-22, 16:05:02
Da muss ich wiedersprechen. Die Gear Demo auf der neuen XBox hat gezeigt, das das für GI unbrauchtbar ist, da die Schattierung genauso ausblendet, wie schon die Spiegelungen. Und das deutlich im Sichtfeld und nicht erst am Rand.
Findest du? Genau diesen Screenshot fand ich nämlich sehr überzeugend. Mir ist da kaum sowas aufgefallen.
Fragman
2020-05-22, 16:11:54
https://youtu.be/oNZibJazWTo?t=641
Minute 10:40 wenn er den Step up macht. Man sieht aber schon wie die Schattierung um die Figur vom Felsvorsprung verschwindet. Ich reagier da mittlerweile empfindlich drauf.
Ravenhearth
2020-05-22, 16:24:26
Ja Screenshots sind das eine, ein Spiel in Bewegung das andere...
hacky
2020-05-26, 22:42:09
NVIDIA Marbles RTX
https://www.youtube.com/watch?v=H0_NZDSqR3Y
y33H@
2020-05-26, 23:58:35
Haha, die Büste von Jensen!
70337
Radeonfreak
2020-05-27, 00:03:09
Hail Jensen. Es wurde wieder mal ein Youtube Video heraus gebracht.
Achill
2020-05-28, 13:15:47
NVIDIA Marbles RTX
H0_NZDSqR3Y
Die Demo ist gut gemacht. Leider ist die Wahl der Kugel aber ungünstig, da eine Glaskugel einen ganz anderen Schatten wirft inkl. Brennpunkt sowie Abwandlung der Farben durch das eingefasste Objekt. Mir ist dies lieder sehr schnell aufgefallen, es trifft mich hier wahrscheinlich der Effekt vom Uncanny Valley.
Eine Metall-Kugel mit rauer Oberfläche, um z.B. das Logo unter zu bringen, hätte dann auch nette Spiegelungen auf der Oberfläche zeigen können in einer doch sehr komplexen Szene.
aufkrawall
2020-05-28, 13:22:18
Hoffentlich kann man wirklich in Echtzeit auf einer GPU diese saubere Grafik erreichen, das wär schon ein großer Fortschritt vs. die temporalen Artefakte in Minecraft.
Morgenlicht
2020-06-07, 14:05:48
NVIDIA Publication - Spatiotemporal reservoir resampling for real-time ray tracing with dynamic direct lighting
https://research.nvidia.com/sites/default/files/publications/piratesTeaser_nvrSite_scaled.png (https://research.nvidia.com/publication/2020-07_Spatiotemporal-reservoir-resampling)
Quelle: research.nvidia.com/publication/2020-07_Spatiotemporal-reservoir-resampling (https://research.nvidia.com/publication/2020-07_Spatiotemporal-reservoir-resampling)
FlashBFE
2020-06-09, 14:18:32
Die Demo ist gut gemacht. Leider ist die Wahl der Kugel aber ungünstig, da eine Glaskugel einen ganz anderen Schatten wirft inkl. Brennpunkt sowie Abwandlung der Farben durch das eingefasste Objekt. Mir ist dies lieder sehr schnell aufgefallen, es trifft mich hier wahrscheinlich der Effekt vom Uncanny Valley.
Nein, es ist schlimmer: NV hat hier einfach getrickst. In den veröffentlichten Standbildern, die schön von der Fachpresse bejubelt werden, beugen brechen die Glaskugeln sehr wohl das Licht, bilden einen Brennpunkt und erzeugen ein verzerrtes Abbild ihrer farbigen Innereien.
Im Video aber haben die Kugeln nur noch einen billigen Schatten und ich bilde mir ein, dass auch Reflexionen nicht mehr so gut aussehen.
Nein, es ist schlimmer: NV hat hier einfach getrickst. In den veröffentlichten Standbildern, die schön von der Fachpresse bejubelt werden, beugen die Glaskugeln sehr wohl das Licht, bilden einen Brennpunkt und erzeugen ein verzerrtes Abbild ihrer farbigen Innereien.
Im Video aber haben die Kugeln nur noch einen billigen Schatten und ich bilde mir ein, dass auch Reflexionen nicht mehr so gut aussehen.
Du meinst vermutlich Brechung und nicht Beugung, sprich die Bildung von Kaustiken. Dazu muss man sagen, dass auch nicht bei jeder Lichtsituation solche Kaustiken wahrnehmbar sind...das kann, muss aber nicht getrickst sein.
Du meinst vermutlich Brechung und nicht Beugung, sprich die Bildung von Kaustiken.
Beugung kann von Raytracing auch gar nicht dargestellt werden, da Raytracing die Welleneigenschaften des Lichtes nicht berücksichtigt.
FlashBFE
2020-06-09, 23:49:43
Du meinst vermutlich Brechung und nicht Beugung, sprich die Bildung von Kaustiken. Dazu muss man sagen, dass auch nicht bei jeder Lichtsituation solche Kaustiken wahrnehmbar sind...das kann, muss aber nicht getrickst sein. Da hast du natürlich Recht, hab es korrigiert.
Irgendwas im Sinne von Helligkeitsänderungen müsste im Video aber durch die Kugel zu sehen sein, aber ist es im kompletten Verlauf nicht. Hier nochmal der direkte Vergleich, auch wenn leider nicht genau derselbe Kamerawinkel vorhanden ist.
https://abload.de/thumb/nv_murmeln2akqp.jpg (https://abload.de/image.php?img=nv_murmeln2akqp.jpg)
Irgendwas im Sinne von Helligkeitsänderungen müsste im Video aber durch die Kugel zu sehen sein, aber ist es im kompletten Verlauf nicht. Hier nochmal der direkte Vergleich, auch wenn leider nicht genau derselbe Kamerawinkel vorhanden ist.
https://abload.de/thumb/nv_murmeln2akqp.jpg (https://abload.de/image.php?img=nv_murmeln2akqp.jpg)
Hm also hier müsste im rechten Bild die Kaustik eigentlich von der Kugel selbst verdeckt sein.
Fragman
2020-06-10, 09:58:47
Im linken Bild sehe ich auf dem Metall vom Pinsel erst einmal eine starke Spiegelung, das müssen keine Caustics sein. Ausserdem scheint im linken die Kugel in direktem Licht zu stehen, was im rechten fehlt bzw scheint die Lichtsituation im rechten etwas anders zu sein.
Die Frage allgemein ist, was generiert wann diese Caustics. RT heißt ja nicht, das automatisch alle Lichter und Flächen in die Berechnung mit einbezogen werden.
Die Frage allgemein ist, was generiert wann diese Caustics. RT heißt ja nicht, das automatisch alle Lichter und Flächen in die Berechnung mit einbezogen werden.
Die Demo nutzt ja explizit Path-Tracing. Hier hat man offensichtlich für die Screenshots die Anzahl der Recursions und Samplezahl pro Recursion erhöht. Dadurch bricht er bei der Glaskugel aus Performancegründen "zu früh" ab. Finde ich jetzt nicht allzu verwerflich. In kommenden Hardware-Generationen wird man die Parameter ja auch wieder hochdrehen können.
FlashBFE
2020-06-10, 13:31:13
RT heißt ja nicht, das automatisch alle Lichter und Flächen in die Berechnung mit einbezogen werden.
Finde ich jetzt nicht allzu verwerflich. In kommenden Hardware-Generationen wird man die Parameter ja auch wieder hochdrehen können.
Prinzipiell habe ich damit ja auch kein Problem, wenn die Performance sonst nicht ausreichen würde. Aber wenn es eben nicht echtzeitfähig ist, warum dann mit diesen "verschönerten" Standbildern für eine spielbare Echtzeit-Demo werben? Und warum nehmen sie dann überhaupt Glasmurmeln (mit Inhalt) und nicht Metallkugeln?
Und warum nehmen sie dann überhaupt Glasmurmeln (mit Inhalt) und nicht Metallkugeln?
Weil es vielleicht ihr Target war, dass es mit der Glaskugel klappt. Und dann haben sie festgestellt, dass es in Echtzeit noch zu verrauscht ist, und haben es für das Video einfach etwas runtergedreht.
Hier wird extrem oft viel zu viel in solche Entscheidungen reininterpretiert. Da arbeiten Teams unter Druck mit einem festen Budget daran eine coole Demo zu bauen. Zuerst baut man da ein MVP und danach verbessert man solange Zeit ist. Was danach am Ende funktioniert, funkioniert halt. Alles drüber hinaus wäre Ice-on-the-cake. Das ist auch der Grund warum wir das nur als Video bekommen.
Loeschzwerg
2020-06-13, 15:34:56
Da wir gerade bei ray/path tracing sind... Hat eigentlich noch jemand das Techdemo Spiel "It's About Time" auf Basis der Brigade-2 Engine?
https://www.youtube.com/watch?v=84HBJjPJsOE
Es wäre interessant zu sehen wie diese auf aktueller Hardware läuft.
Ich hab eine Sicherung der Demo auf einer meiner alten USB Festplatten gefunden :freak: Besteht Bedarf an einem Upload?
https://web.archive.org/web/20131001000000*/http://igad.nhtv.nl/~bikker/files/brigade2_r2017.zip
Gruß
BUG
Dampf
2020-06-13, 20:53:14
Godfall wurde grad im PC Gaming Stream gezeigt. Hab eigentlich erwartet, dass da RTX Support kommt, aber nope... Sieht ziemlich düster aus für RTX Titel gerade...
Hat RTX überhaupt noch eine Zukunft? Könnte mir vorstellen dass wenn AMD ihre Karten rausbringt, das einfach nur Raytracing genannt wird auf beiden Karten, läuft ja beides mit DXR.
Ex3cut3r
2020-06-13, 21:05:59
Nope hat keine Zunkunft. RT und DLSS 2.0 sind einfach nur ganz schlechte Technologien. AMD hat auch gerade Nvidia aufgekauft, kein Wunder bei dem miserablen Umsatz der letze Jahre. Ganz schlimm...wie es bergab ging. Navi 2 ist auch einfach mal doppelt so schnell wie die RTX 3080Ti. Jensen wechselt freiwillig zu AMD. Den Sauladen kann er nicht mehr führen. :freak:
gnomi
2020-06-14, 10:57:05
Bei der letzten Konsolen Generation von Sony und MS waren ja auch schon ausschließlich AMD GPU's drin.
Das hat nvidia auch nicht die Technologie Führerschaft gekostet.
Die Arbeit an DLSS und RT sollte sich auf jeden Fall auszahlen, denn genau in diese Richtung geht es eh und gesagt ist nicht einmal, dass PS5 und Xbox Next in Sachen GPU Turing ab 2018 überhaupt schlagen von den Rohdaten.
danteinfernal
2020-06-15, 10:42:57
Kurze Frage in den Thread, sind hier Archivs unterwegs die bereits mit Raytracing Kundenprojekte machen?
pixeljetstream
2020-06-15, 14:21:41
Gibt ein paar Firmen die da was haben, eine ist auch aus Deutschland zum Beispiel:
https://enscape3d.com/
Manche nehmen auch ue4 Raytracing. Die diversen gpu Raytracing Firmen (otoy, vray...) arbeiten auch an real-time Varianten.
Nvidia bastelt auch was https://developer.nvidia.com/nvidia-omniverse-AEC-experience
Loeschzwerg
2020-06-15, 18:31:48
https://web.archive.org/web/20131001000000*/http://igad.nhtv.nl/~bikker/files/brigade2_r2017.zip
Gruß
BUG
Thx für die Idee mit archive.org :)
Hier der Link zur Demo (läuft aber leider nur mit Fermi und Kepler):
https://archive.org/details/abouttime-brigade2 (Blog)
https://archive.org/download/abouttime-brigade2/abouttime.7z (Download)
Gibt da auch einen recht neuen Benchmark (Lighthouse 2) von Jacco Bikker:
https://jacco.ompf2.com/lighthouse-2-rtx-path-tracing-benchmark/
Dampf
2020-06-15, 21:16:14
Summer of RTX
https://twitter.com/NVIDIAGeForce/status/1272566051083964422
Scheinbar werden morgen neue Raytracing-Games angekündigt!
y33H@
2020-06-15, 22:12:36
Wo liest du das raus? Klingt für mich eher danach als ob RT-Games bei Steam rabattiert werden.
Dampf
2020-06-16, 13:40:10
Wo liest du das raus? Klingt für mich eher danach als ob RT-Games bei Steam rabattiert werden.
Weil es fast keine RT Titel diesen Sommer gibt. Das heißt es müssen neue angekündigt werden, wegen einem Indie Titel wie AMID Evil wird man kaum einen Sommer of RTX vermarkten :biggrin:
Steam Game Fest ist keine Rabatt-Show sondern es gibt Demos von Spielen.
Ice-on-the-cake
Was soll man denn mit Eis auf dem Kuchen? Du meinst wohl das icing (https://dictionary.cambridge.org/de/worterbuch/englisch/icing-on-the-cake), zu Deutsch etwa das sprichwörtliche "Sahnehäubchen".
Scheinbar werden morgen neue Raytracing-Games angekündigt!
Klingt eher danach, als wären einige Raytracing Games im Steam Summer Sale dabei.
dildo4u
2020-06-17, 14:20:56
RT in GT7.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12340202&postcount=31
Ex3cut3r
2020-06-17, 14:23:33
Bist du sicher? Sieht mir einfach nach Matt Lack aus und einmal nach Metallic. :biggrin:
Mr. Lolman
2020-06-17, 16:00:09
Ja klar, wenn man einfach aufs Fallback (SSR, SSGI) verzichtet, dann schaut das halt so aus.. :biggrin:
dildo4u
2020-06-17, 17:05:49
Hier werden die Unterschiede zu Cubemaps etc von DF aufgezeigt.
GT7 nutzt RT Reflektionen in 1080p damit es mit 4k/60fps läuft.
Azl772uylh4
Dampf
2020-06-17, 17:31:01
Also wie auf dem PC. Der nutzt auch half und quarter resolution für RT Reflektionen.
Troyan
2020-06-17, 17:34:18
Mehr ist auch sinnlos, wenn die Rechenleistung nicht vorhanden ist. PS5 hat 10 FTLOPs, mehr Rays bedeutet auch mehr shading. Das Checkerboarding in GT sieht auch ziemlich schlecht aus. DLSS in Battlefield 5 ist deutlich besser bei Reflektionen.
Die benötigen bei Sony deutlich bessere Denoiser. So ist das eine echte Flimmerhölle, wenn man nicht mit massiven Post-AA das Bild vermatchen will.
Dampf
2020-06-17, 18:07:11
Mehr ist auch sinnlos, wenn die Rechenleistung nicht vorhanden ist. PS5 hat 10 FTLOPs, mehr Rays bedeutet auch mehr shading. Das Checkerboarding in GT sieht auch ziemlich schlecht aus. DLSS in Battlefield 5 ist deutlich besser bei Reflektionen.
Die benötigen bei Sony deutlich bessere Denoiser. So ist das eine echte Flimmerhölle, wenn man nicht mit massiven Post-AA das Bild vermatchen will.
Egal, versuch mal BF5 auf einer 2080Ti in 4K60 und Raytracing abzuspielen.
Die Raytracing Leistung die Sony hier bietet ist zweifellos sehr beeindruckend.
dildo4u
2020-06-17, 19:19:22
Ich meine seine 1000€ GPU bekommt das nicht gebacken wenn nicht das ganze Bild von 1440p hochgerechnet wird und nicht nur das RT.
dildo4u
2020-06-25, 21:10:29
Alle RTX Features für Cyberpunk 2077 bestätigt.
https://www.nvidia.com/en-us/geforce/news/cyberpunk-2077-ray-tracing-dlss-geforce-now-screenshots-trailer/
Daredevil
2020-06-25, 21:16:56
War ja auch irgendwie absehbar, wenn es eine Cyberpunk 2080ti gibt. :D
Nice! Damit kann man die neue Hardware fein quälen.
Dampf
2020-06-25, 22:46:12
Laut PCGH läuft CBP 2077 mit RTX derzeit auf 1080p mit DLSS rendering Auflösung auf 720p.
Nein, nicht auf einer 2060. Auf einer 2080 Ti.
Das wird noch optimiert, aber Wunder kann man auch nicht erwarten. Und das sind nur Schatten und GI, nicht mal mit RT Reflektionen. Es soll laut dem Tester auch unter 30 FPS droppen.
Das kann doch nicht Nvidia's Ernst sein, selbst wenn da noch optimiert wird, werden die unteren RTX Karten gnadenlos rausfallen. Scheinbar ist Turing's RT wirklich so schlecht wie Leute behaupten...
unl34shed
2020-06-25, 22:52:14
Die Screenshots auf der Nvidia Page sahen jetzt auch nicht so toll aus, viel zu matschig...
Und bei dem Ersten sehen die Reflexionen in der großen Pfütze irgendwie falsch aus.
- Der Busch müsste heller reflektiert werden oder ist zum Spieler zu hell (schlechte Ausleuchtung?)
- Rechts die 2 Licher?
- Mittig das Helle Gitter gibt es nicht am Dach.
Slipknot79
2020-06-26, 00:11:04
Laut PCGH läuft CBP 2077 mit RTX derzeit auf 1080p mit DLSS rendering Auflösung auf 720p.
Nein, nicht auf einer 2060. Auf einer 2080 Ti.
Das wird noch optimiert, aber Wunder kann man auch nicht erwarten. Und das sind nur Schatten und GI, nicht mal mit RT Reflektionen. Es soll laut dem Tester auch unter 30 FPS droppen.
Das kann doch nicht Nvidia's Ernst sein, selbst wenn da noch optimiert wird, werden die unteren RTX Karten gnadenlos rausfallen. Scheinbar ist Turing's RT wirklich so schlecht wie Leute behaupten...
Das RT ist nicht schlecht, es wird von den devs einfach so eingestellt (zB 1 bounce moar), damit wir 30fps auf einer 2080Ti erhalten, damit wird uns ne 3080Ti holen.
Bei der 3080Ti kommt dann in 2 Jahren in nem AAA Titel wieder nen Bounce dazu, damit wir uns ne 4080Ti holen usw. :redface: :wink:
RT einfach so einstellen, dass es unspielbar wird -> infinte money :redface:
Rooter
2020-06-26, 00:29:33
Laut PCGH läuft CBP 2077 mit RTX derzeit auf 1080p mit DLSS rendering Auflösung auf 720p.
Nein, nicht auf einer 2060. Auf einer 2080 Ti.
Das wird noch optimiert, aber Wunder kann man auch nicht erwarten. Und das sind nur Schatten und GI, nicht mal mit RT Reflektionen. Es soll laut dem Tester auch unter 30 FPS droppen.
Das kann doch nicht Nvidia's Ernst sein, selbst wenn da noch optimiert wird, werden die unteren RTX Karten gnadenlos rausfallen. Scheinbar ist Turing's RT wirklich so schlecht wie Leute behaupten...Naja, hat bei Crisis ja auch funktioniert.
"But can it run CyberPunk2077?"
MfG
Rooter
Fragman
2020-06-26, 11:25:31
Laut PCGH läuft CBP 2077 mit RTX derzeit auf 1080p mit DLSS rendering Auflösung auf 720p.
Nein, nicht auf einer 2060. Auf einer 2080 Ti.
Das wird noch optimiert, aber Wunder kann man auch nicht erwarten. Und das sind nur Schatten und GI, nicht mal mit RT Reflektionen. Es soll laut dem Tester auch unter 30 FPS droppen.
Das kann doch nicht Nvidia's Ernst sein, selbst wenn da noch optimiert wird, werden die unteren RTX Karten gnadenlos rausfallen. Scheinbar ist Turing's RT wirklich so schlecht wie Leute behaupten...
Sich darüber jetzt aufzuregen macht null Sinn.
Bis Ende November ist zum einen noch lange hin und zum anderen wissen wir nicht, was da bei der Implementierung noch an Optimierungen fehlt.
Das RT ist nicht schlecht, es wird von den devs einfach so eingestellt (zB 1 bounce moar), damit wir 30fps auf einer 2080Ti erhalten, damit wird uns ne 3080Ti holen.
Vielleicht auch einfach weil vielen Menschen 30fps genug ist? Und warum müssen Spiele in Max Settings auf aktueller Hardware immer auf 8k mit 200fps laufen? Für manche Menschen fühlt sich das tatsächlich nach Verschwendung von Rechenleistung an. Wer die Bildqualität nicht braucht, kann ja immer noch selbst die Settings runterstellen und bekommt dann seine Wunschperformance.
Und das sind nur Schatten und GI, nicht mal mit RT Reflektionen.
"nur GI" - You made my day :freak:
dildo4u
2020-06-26, 11:46:35
Die Screenshots auf der Nvidia Page sahen jetzt auch nicht so toll aus, viel zu matschig...
Das Game nutzt tonnen chromatic aberration was das Bild misshandelt wird man sicherlich abschalten können.
Dampf
2020-06-26, 12:24:33
Vielleicht auch einfach weil vielen Menschen 30fps genug ist? Und warum müssen Spiele in Max Settings auf aktueller Hardware immer auf 8k mit 200fps laufen? Für manche Menschen fühlt sich das tatsächlich nach Verschwendung von Rechenleistung an. Wer die Bildqualität nicht braucht, kann ja immer noch selbst die Settings runterstellen und bekommt dann seine Wunschperformance.
"nur GI" - You made my day :freak:
Wenn man denn überhaupt die Qualität der Raytracing Effekte einstellen kann. Es wäre echt blöd, wenn man für z.B. Reflektionen nur die Wahl zwischen an und aus wie bei Control hat, und man dann als Beispiel volle Bildschirmauflösung für die Reflektionen gezwungermaßen nutzen muss was die Performance runterbringt.
Sinnvoller wäre es, RT Effekte mit verschiedenen Qualitätseinstufen anzubieten, z.B. bei Reflektionen Auflösung 25% (Hoch, Standard für Turing), 50% (Ultra, Standard für Ampere, Enthusiast für Turing), 100% (Cyber, Enthusiast für Ampere) So kann jede Karte perfekt ausgereizt werden. Cyber z.B. kann man dann für Ampere anbieten.
Ja, ich weiß dass RT GI sehr aufwendig ist. Hab mich aber verschrieben, ich meinte eigentlich die indirekte Beleuchtung die es auch in Control schon gab, hat schon ordentlich gezogen aber mit Abstand waren es die Reflektionen, die am meisten Leistung benötigten.
pixeljetstream
2020-06-26, 12:52:36
Je nachdem was für shading systeme die Entwickler so implementieren hauen die Reflektionen halt besonders durch. Aber es ist definitiv noch lange hin bis zum Release, ob RT oder nicht, auf die Performance würde ich da heute nix geben. Im Normalfall ein zwei Monate nach Release ;)
Die Berechnung der Reflektionen hängt stark an der normalen shading performance, nicht so sehr an den RTcores.
crux2005
2020-06-27, 21:23:04
Kann jemand der sich besser auskennt dabei helfen? https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12349988&postcount=11622
Es geht um die aussage "Raytraced Reflections" in Killzone.
Diskussion darüber startet hier: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12350070#post12350070
aufkrawall
2020-06-27, 22:13:50
Das sind einfach nur Cubemaps + SSR wie schon in Crysis 2.
Ravenhearth
2020-06-28, 00:25:04
Es sind nicht nur normale SSRs:
Shadow Fall's reflection system also contributes to the often spectacular lighting effects work. Michal Valient previously explained the basics in Guerrilla's post-mortem of the PlayStation Meeting demo, but was on-hand to go into more depth during our visit to the studio.
"What we do on-screen for every pixel we run a proper ray-tracing - or ray-marching - step. We find a reflection vector, we look at the surface roughness and if you have a very rough surface, that means that your reflection is very fuzzy in that case," he explains.
"So what we do is find a reflection for every pixel on screen, we find a reflection vector that goes into the screen and then basically start stepping every second pixel until we find something that's a hit. It's a 2.5D ray-trace... We can compute a rough approximation of where the vector would go and we can find pixels on-screen that represent that surface. This is all integrated into our lighting model."
https://www.eurogamer.net/articles/digitalfoundry-the-making-of-killzone-shadow-fall
aufkrawall
2020-06-28, 00:38:05
Geht es ähnlich kaputt wie SSR in ausnahmslos jedem anderen Spiel oder nicht?
Die Antwort wird "ja" sein, von daher imho irreführende Diskussion.
BeetleatWar1977
2020-06-28, 09:53:51
Hm - wenn ich das richtig interpretiere wird für die Performance erstmal geguckt ob die Reflektion im Sichtbereich liegt - und dann SSR verwendet, ansonsten RT mit halber Auflösung......und wenn gar nichts geht wird auf die Cubemaps zurückgegriffen...
pixeljetstream
2020-06-28, 12:53:40
Die Verwirrung hier kommt daher, dass der Schritt wo im Bildraum (Screen space) nach der intersection gesucht wird, ebenfalls als Raytracing bezeichnet wird. Nur nicht auf Geometrie Ebene sondern mit dem depthbuffer, daher auch das 2.5D
Die ganz billigen anfangs Screen Space reflections haben einfach den Reflektionsvektor direkt in den Bildraum transformiert und dann den Farbwert genommen. Ob der Strahl den erreichen konnte oder nicht war egal, aber super billig. Die Verbesserung war dann mittels des depthbuffers soweit zu gehen bis der Strahl blockiert wird. Dazu muss man dann aber den Strahl im Bildraum immer wieder gegen den depthbuffer testen (man interpretiert den depthbuffer wie ne Art Terrain heightmap). Das kostet ordentlich Performance, man bewegt sich Pixelweise entlang des Strahls. Es gibt diverse Tricks das dann zu beschleunigen, wie eben die Schrittweite zu erhöhen (was im Interview auch erwähnt wird), und meist nutzt man eine mipchain der tiefenwerte, so kann man Bereiche schneller überspringen, wenn man weiß dass alle Tiefen darin den Strahl nicht schneiden können.
Diese Verfahren sind heute Standard und Blenden in Übergangen je nach Schätzung zwischen Bildraum, dynamischen probes/cubes und statischen. Und bei sowas wie BFV dann halt auch „echtem“ Geometrie Raytracing. Es ist ein tradeoff aus Performance und Genauigkeit des Resultats.
Neben dem klassischen Geometrie RT, gibt es auch Verfahren die voxel oder andere volumetrische Repräsentationen nutzen um Informationen die räumlich akkurater sind bereit zu stellen.
Es sind also viele Systeme die ineinander greifen.
Es ist bissl doof dass hier ray tracing für die Bildraum Varianten gewählt wird, der Begriff ray marching wäre besser IMO, da wird das iterative deutlicher.
Ex3cut3r
2020-06-28, 13:10:08
Danke für die Aufklärung!!!! :up:
Und gut, dass wir dich haben. :)
Es sind nicht nur normale SSRs:
SSR ist im Grunde billiges Raytracing.
Billig deshalb weil bei dem Raytracing nicht die gesamte Geometrie berücksichtigt wird, sondern nur der 2D Screenspace, angereichert mit den Tiefeninformationen aus dem Z-Buffer.
Es ist bissl doof dass hier ray tracing für die Bildraum Varianten gewählt wird, der Begriff ray marching wäre besser IMO, da wird das iterative deutlicher.
Raymarching ist halt eine Implementierung von Raycasting was Raytracing mit Pfadlänge 1 ist (im Gegensatz zu Pathtracing mit Pfadlänge > 1).
Ich finde es daher nicht verkehrt.
@Allgemein: Auch POM ist Raytracing im 2.5D Texture Space. Dreiecksbasierte Raytracing ist auch nicht das "richtige" Raytracing. Wir haben ganz viele verschiedene Geometrie-Repräsentationen (2.5D, Voxel, Distance Fields, Polygone, Freiform, Solid Geometry,...), die wir nutzen können, um Schnittpunkte mit Strahlen zu testen. Das ganze funktioniert natürlich auch hybrid.
Raymarching ist halt eine Implementierung von Raycasting was Raytracing mit Pfadlänge 1 ist (im Gegensatz zu Pathtracing mit Pfadlänge > 1).
Ich finde es daher nicht verkehrt.
@Allgemein: Auch POM ist Raytracing im 2.5D Texture Space. Dreiecksbasierte Raytracing ist auch nicht das "richtige" Raytracing. Wir haben ganz viele verschiedene Geometrie-Repräsentationen (2.5D, Voxel, Distance Fields, Polygone, Freiform, Solid Geometry,...), die wir nutzen können, um Schnittpunkte mit Strahlen zu testen. Das ganze funktioniert natürlich auch hybrid.
Kleine Anmerkung: Pfadlänge >1 heisst nicht zwangsläufig Path tracing. Path tracing beschreibt eigentlich nur wie man die weiteren Pfade sampelt, aber man kann auch raytracing mit größeren Pfadlängen betreiben. Allerdings ist das spätestens ab 4 bounces ziemlich dumm.
Grundsätzlich aber jedoch hast du Recht, man muss zwischen Geometrierepresentation und dem tracing Verfahren unterscheiden. Manchmal gehen sie zwar hand in hand (z.b. Voxel und Cone Tracing), aber das oben beschriebene Verfahren kann man durchaus Raytracing nennen.
Leider jedoch werden durch die 2.5D Geomtriererepresentation alle Vorteil von Raytracing zunichte gemacht und dann ist es halt schon irreführend es so zu nennen, da viele natürlich triangle raytracing assozieren...
pixeljetstream
2020-08-11, 08:58:31
https://developer.nvidia.com/blog/best-practices-using-nvidia-rtx-ray-tracing/
Best practices zu real time raytracing.
Gibt auch Aufschlüsse was man in Zukunft noch verbessern kann.
YourFriendlyDevBro
2020-08-11, 09:30:22
Raymarching ist halt eine Implementierung von Raycasting was Raytracing mit Pfadlänge 1 ist (im Gegensatz zu Pathtracing mit Pfadlänge > 1).
Ich finde es daher nicht verkehrt.
Nicht 100% korrekt. Du kannst zwar Raycasting damit implementieren, aber nicht jedes Raymarching ist auch Raycasting "eine Implementierung von Raycasting".
Wie du sagst: Raycasting => Pfadlänge ==1, aber z.B. sind Reflektionen schon der Bounce, von daher Pfadlänge == 2, und das trotz Raymarching. Voxel Cone stepping ist auch eine Implementierung von Raymarching und kann für Multi-Bounce benutzt werden.
tl;dr :
1. Raymarching ist ein mögliches Verfahren wie die Szene abgetastet/abgebildet wird
2. Raycasting, Pathtracing, Whitted Ray Tracing, Adjoint, Photon tracing usw. ist wie der Abtastalgorithmus verwendet wird.
3. SSR sagt aus dass Spiegelung von Whitted Tracing mittels Raymarching erreicht wird.
Morgenlicht
2020-08-15, 18:26:42
Alexey Panteleev | August 13, 2020 | Rendering Perfect Reflections and Refractions in Path-Traced Games
developer.nvidia.com/blog/rendering-perfect-reflections-and-refractions-in-path-traced-games/ (https://developer.nvidia.com/blog/rendering-perfect-reflections-and-refractions-in-path-traced-games/)
Dampf
2020-08-16, 10:50:27
Hier ein schöner Vergleich von RTX bei Control, auf dem man alle Effekte in Aktion sieht:
https://imgsli.com/MjA1MzI
dildo4u
2020-08-21, 16:24:51
Crysis Remaster mit RT.
1OPCixigR7E
Daredevil
2020-08-21, 16:26:02
Bester Titel, den man zum Launch von Ampere bringen kann. :D
Can it run Crysis RT?
dildo4u
2020-08-21, 16:27:50
DLSS und RTX Support würde bestätigt.
https://twitter.com/digitalfoundry/status/1296821256139005952
basix
2020-08-21, 18:42:18
DLSS und RTX Support würde bestätigt.
Nice. Ich bin gespannt, weckt alte Erinnerungen mit einer GeForce 7600 GS AGP und später einer 8800 GT ;D
Slipknot79
2020-08-21, 20:19:19
Horny. :redface:
Darkman.X
2020-08-21, 20:38:10
DLSS und RTX Support würde bestätigt.
https://twitter.com/digitalfoundry/status/1296821256139005952
Huch, RTX-Support? Ich dachte, die würden eher ihr Software-RT präsentieren. Das überrascht doch sehr....
][immy
2020-08-21, 23:00:26
Huch, RTX-Support? Ich dachte, die würden eher ihr Software-RT präsentieren. Das überrascht doch sehr....
Mhh.. Software RT auf xbox one X und PS4 Pro?
Kommt eventuell auch drauf an, was alles RT-Support bedeutet.
dildo4u
2020-08-22, 03:56:03
Huch, RTX-Support? Ich dachte, die würden eher ihr Software-RT präsentieren. Das überrascht doch sehr....
Sie brauchen eine Hardware Lösung für die neuen Konsolen, vorallem wenn es dort mit 60fps laufen soll.
Die alten Konsolen können nur 30.
woodsdog
2020-08-22, 07:49:51
Es gibt ein pflicht target auf 60 FPS? wär mir neu.
wir werden doch garantiert wieder 30 sehen so bald es Grafikkracher sein sollen und da spielt RTX für mich klar mit rein. Titel welche das ausgiebig nutzen werden keine 60 FPS rendern.
dildo4u
2020-08-22, 09:13:07
Bei reinen Next Gen Games klar aber der Remaster kommt für die alte Gen 60fps sollten Möglich sein, es spricht nix dagegen auf der PS5 zwei Modi anzubieten z.b 1440p 60 und 4k 30.
Sony hat z.b schon 60fps für Spiderman bestätigt und da ist volle Open World mit Tonnen NPC Verkehr etc.
Jupiter
2020-08-22, 12:00:59
30 Bilder in der Sekunde sind genau so veraltet wie 720p. Beides ist schlecht, unansehnlich und kaum spielbar. 30 Bilder in der Sekunde reichen maximal für Wandersimulationen.
AnnoDADDY
2020-08-22, 13:15:04
Ich frage mich wie man früher mit 10fps klar gekommen ist. 30 saubere FPS sind definitiv gut spielbar.
Spasstiger
2020-08-22, 13:43:09
Ich setze 30 fps Minimum als meinen Anspruch an. Meistens sind es 40 - 60 fps.
anorakker
2020-08-22, 14:10:52
Ich frage mich wie man früher mit 10fps klar gekommen ist. 30 saubere FPS sind definitiv gut spielbar.
Ist man auch damals schon nicht, jedes Arcade Game (zumindest in den Spielhallen) war schon ab Anfang der 80er auf fixe 50/60Hz geproggt, auch 3D Spiele (Racinggames etc.). Selbst Pong war >30fps :freak:
Ich setze 30 fps Minimum als meinen Anspruch an. Meistens sind es 40 - 60 fps.
Stabile 40 fps mit Platz nach oben ist ein sehr interessanter Bereich, weil das die VRR Range von vielen Fernsehern trifft. Da hat man aber dann nur die Hälfte des Performance-Impacts von stabilen 60fps.
aufkrawall
2020-08-22, 14:42:52
Gibt es denn Fernseher die VRR können, aber kein HDMI 2.1 120Hz (gibt VRR bei Geizhals nicht als Suchkriterium für Fernseher)? Falls die alle 2.1 120Hz sind, ist sollte wegen LFC die Range bis 120Hz komplett abgedeckt sein.
Gibt es denn Fernseher die VRR können, aber kein HDMI 2.1 120Hz (gibt VRR bei Geizhals nicht als Suchkriterium für Fernseher)? Falls die alle 2.1 120Hz sind, ist sollte wegen LFC die Range bis 120Hz komplett abgedeckt sein.
Keine Ahnung. Die LG können es wohl. Aber mehr als 60 fps ist für den Massenmarkt ziemlich irrelevant.
Dampf
2020-08-23, 17:36:46
Auf Crysis Remastered bin ich schon richtig gespannt. Denn dort wird man wieder Software und Hardware-Raytracing miteinander vergleichen können.
Wenn Nvidia/Crytek schlau sind, werden sie die Qualität der Reflektionen mit VKRay kaum oder gar nicht erhöhen (ganz ehrlich, das sieht man sowieso nicht) und dafür alles in die Geschwindigkeit setzen, die sie durch die Hardwarebeschleunigung erlangen können.
So würde die RT Reflektionen dann auf einer nicht beschleunigten Karten wie einer RDNA1 GPU deutlich langsamer laufen als auf einer Turing und Ampere GPU. Folglich würden die RTX GPUs in Crysis generell deutlich besser performen als die AMD-Karten (bis dann RDNA2 kommt). Raytracing muss man in den Köpfen der Leute endlich mit schnell und effizient assozieren, bisher denkt ja jeder an große Frame-Drops.
Gebrechlichkeit
2020-08-23, 17:46:51
Warum ist SVOGI (https://youtu.be/9mLThryWpkg?t=2201)? nur auf den enhanced consolen machbar und nicht auch auf den amateur consolen von 2013? Die Switch Version macht angelbich ja Gebrauch von SVOTI, SVOGI.
e: ok, dachte Global Illumination waere RT, eine form von RT.
Dampf
2020-08-23, 17:58:35
Warum ist SVOGI? nur auf den enhanced consolen machbar und nicht auch auf den amateur consolen von 2013? Die Switch Version macht angelbich ja Gebrauch von SVOTI, SVOGI.
SVOGI nutzt kein Raytracing.
dildo4u
2020-08-29, 08:42:31
Verbessertes RT in der neuen Demo.
Ae0Nv0Eb7tw
Dampf
2020-09-02, 00:20:51
Das ging in der ganzen Ampere Geschichte heute unter: Minecraft RTX hat ein Update mit neuen Welten und ein Update auf DXR 1.1 erhalten - mit deutlich gesteigerter Performance. Ich konnte einen Anstieg von 30 FPS auf 45 FPS in 1440p in der selben Szene (Aquatic World, 16 Chunks) verzeichnen! Sehr beeindruckend!
https://www.nvidia.com/en-us/geforce/news/minecraft-with-rtx-creator-worlds-pack-3-free-download/
Nvidia Marbles at Night Ampere RTX Demo
NgcYLIvlp_k
Behind the Scenes of Marbles at Night RTX
hsRcahyojtA
pixeljetstream
2020-09-04, 17:20:30
void
basix
2020-09-05, 08:18:12
The Witcher 3 bekommt Raytracing für alle NextGen Plattformen (XBSX, PS5, PC)!
https://thewitcher.com/en/news/32792/the-witcher-3-wild-hunt-is-coming-to-the-next-generation
pixeljetstream
2020-09-05, 11:33:56
https://youtu.be/r8G2qECeoqU
Raytracing von Simulationsergebnisse.
Nicht mehr ganz real-time. Aber viele, viele Daten.
Lanicya
2020-09-05, 13:43:56
Ich plane mit RTX 3000 o. Big Navi mir eine Ray Tracing fähige Karte zu zulegen.
Habe dies bezüglich mal ein paar Fragen die RT und DLSS betreffen.
Es soll die nächsten Jahre weiterhin in 1080p gespielt werden. Nun habe ich schon auf diversen Seiten gelesen, dass mit aktiviertem RT der VRAM bedarf steigt, DLSS den bedarf aber wohl reduziert (bitte korrigieren wenn ich da falsch liege).
Was ich bis jetzt gesehen habe das RT ca. 500MB - 1GB zusätzlichen VRAM benötigt und DLSS ca. 500MB - 700MB weniger VRAM benötigt.
Gibt es dafür einen groben Anhalt was man zusätzlich an VRAM benötigt, wenn man mit RT + DLSS spielen möchte?
Vielen Dank schon mal im voraus.
gruß
Troyan
2020-09-05, 13:54:19
Das BVH benötigt zurzeit zwischen 500 bis 1000MB. Das ist ungefähr der Mehrbedarf, den man für Raytracing für die Beschleunigungsstruktur benötigt. DLSS senkt den Verbrauch, weil in einer geringeren Auflösung gerendert wird. Jedoch benötigt das Model auch Speicher (50mb?!).
Ich denke, man sollte vom Worst-Case ausgehen und 1GB einplanen.
pixeljetstream
2020-09-05, 13:56:45
IMO wird das vom Spiel abhängen. Zum eine sind die Daten die pro Pixel gebraucht werden je nach Spiel sehr unterschiedlich und es überwiegen die Assets (abgesehen von sehr hohen Auflösungen), oder andere Daten.
DLSS verringert zwar die Buffer in die gerendert wird, es ist aber durchaus möglich dass ein Titel dennoch die volle Größe alloziert um einfacher dynamisch die Auflösung zu skalieren. Ich würde das nicht so als sparfaktor mit einplanen.
RT wird erstmal immer extra Kosten. Wieviel wird auch von den Game Settings abhängen.
Das BVH benötigt zurzeit zwischen 500 bis 1000MB. Das ist ungefähr der Mehrbedarf, den man für Raytracing für die Beschleunigungsstruktur benötigt. DLSS senkt den Verbrauch, weil in einer geringeren Auflösung gerendert wird. Jedoch benötigt das Model auch Speicher (50mb?!).
Ich denke, man sollte vom Worst-Case ausgehen und 1GB einplanen.
Dafür fallen beispielsweise Shadowmaps weg. Aktuell ist das alles etwas kalkulieren mit Glaskugel. Beim BVH werden wir über die Jahre bestimmt auch noch Verschiebungen in verschiedene Richtungen sehen. Das ist immer ein Kompromiss zwischen Buildtime, Speicherbrauch und Traversalperformance.
Gibt es dafür einen groben Anhalt was man zusätzlich an VRAM benötigt, wenn man mit RT + DLSS spielen möchte?
Kurze Antwort es kommt darauf an.
Es hängt von der Implementierung im jeweiligen Spiel ab.
Für Raytracing wird einmal Platz für den BVH gebraucht und der hängt in erster Linie davon ab wieviel Geometrie überhaupt in einer Szene vorhanden ist, und auch von der genauen Umsetzung. Reines Raytracing werden wir ja noch lange nicht sehen und für die aktuellen hybrid Renderer wird die Geometrie für das Raytracing teilweise mehr oder weniger vereinfacht und teilweise auch mit einer wesentlich geringeren Sichtweite im Raytracing-Part gearbeitet, so dass nur in der Nähe des Spielers wirklich Raytracing zum Einsatz kommt und auf Entfernung weiterhin traditionelle Methoden.
Zusätzlich braucht das Hybrid-Rendering zusätzliche Buffer. Das Raytracing findet ja nicht direkt im Framebuffer statt, sondern es wird typischerweise sogar jeder einzelne Raytracing-Effekt in einen eigenen Buffer gerendert. Das ist sogar in Quake2 RTX der Fall, wo keine traditionelle Rasterisierung mehr zum Einsatz kommt, da man damit für jeden Effekt einen angepassten Denoiser verwenden kann. Spiegelungen erfordern beispielsweise eine komplett andere Denoising-Strategie als Schatten.
DLSS selbst braucht auch erstmal mehr VRAM, weil das neuronale Netzwerk will ja auch irgendwo gespeichert werden. Das merkt man übrigens mit RTX-Voice, wenn das aktiv ist braucht es je nach Stufe bis zu 800MB an VRAM.
Das Einsparungspotential an VRAM durch DLSS ist dagegen gar nicht mal so groß. Der eigentliche Framebuffer liegt ja beispielsweise immer noch in voller Auflösung vor.
Die ganzen Renderbuffer, für RTX-Effekte und auch für das Rasterizing können potentiell verringert werden und damit auch VRAM einsparen, wobei es im Detail natürlich davon abhängt was jetzt wirklich mit reduzierter und was weiterhin mit voller Auflösung gerendert wird.
Insgesamt würde ich sagen, dass die Einsparungsmaßnahmen beim VRAM durch DLSS doch eher überschaubar sind, und wenn eventuell in Zukunft das NN aufwändiger wird möglicherweise gar nicht mehr vorhanden sind.
Das gilt insbesondere wenn die Darstellungsauflösung nur gering ist. Je höher diese ist, desto mehr Unterschied zwischen Renderauflösung und Darstellungsauflösung kann man sich Leisten ohne dass die Qualität sichtbar leidet.
In 1080p würde ich beispielsweise nichts unter Quality für DLSS nehmen, in 1440p mindestens Balanced und in 4k kann man auch locker Performance nehmen, und der neue 8k Modus verringert ja sogar die Renderauflösung pro Achse um 1/3.
Wie du siehst sind die potentiellen Einsparungsmaßnahmen also gerade in 1080p durch DLSS eher gering.
dildo4u
2020-09-08, 15:53:03
zVzGCGMbrsM
Dampf
2020-09-08, 16:58:01
Software Raytracing ist eine ganz große Sache. Ich denke das wird jetzt immer mehr Verwendung finden und die alten Methoden ersetzen (auf non-HW RT GPUs). Die alten Mid-Gen Konsolen kann man noch mitziehen, indem man die Auflösung reduziert.
Troyan
2020-09-08, 17:04:07
Ja, echt "große Sache". 30FPS in 1080p bei einer Qualität, die weit von dem entfernt ist, was man auf dem PC in Battlefield 5 gesehen hat. Lief schon letztes Jahr mit >30FPS auf einer GTX1070 mit "Low"-Settings. Und das "Low"-Settings ist meilenweit der Crysis-Implementierung überlegen.
N0Thing
2020-09-08, 17:19:00
Software Raytracing ist eine ganz große Sache. Ich denke das wird jetzt immer mehr Verwendung finden und die alten Methoden ersetzen (auf non-HW RT GPUs). Die alten Mid-Gen Konsolen kann man noch mitziehen, indem man die Auflösung reduziert.
Ziemlich coole Sache, dass man auf den ollen Konsolen Raytracing tatsächlich in Software laufen lassen kann. Es hilft sicherlich, dass Crysis so alt ist, aber trotzdem: Keine extra Hardware notwendig und es läuft auch nicht schlechter als andere Spiele auf den Konsolen.
Ravenhearth
2020-09-08, 17:31:04
Naja schon irgendwie? Ist mit RT halt nur bei 1080p, ohne kriegt man (dynamisches) 4K.
dildo4u
2020-09-09, 08:09:20
Wenn man es hochrechnet könnte eine 5600XT 1080p 60fps laufen wird interessant wie viel besser RDNA als Polaris läuft.
Dampf
2020-09-09, 09:22:30
Wenn man es hochrechnet könnte eine 5600XT 1080p 60fps laufen wird interessant wie viel besser RDNA als Polaris läuft.
https://www.tweaktown.com/images/content/9/4/9482_101_neon-noir-benchmarked-cryteks-ray-tracing-benchmark-tool-tested.jpg
RDNA eignet sich gut für Software Raytracing (umso unverständlicher also, warum man DXR immer noch nicht freigeschaltet hat).
Pascal hingegen braucht die Rohleistung einer GTX 1080Ti um eine 5700XT zu schlagen, und eine 1080 die sonst von der Rohleistung gleich auf zu einer 2060 ist, geht gnadenlos unter. Das liegt wohl daran, dass Raytracing Async Compute und INT intensiv ist, letzteres kann Pascal nicht konkurrent mit FP berechnen und ersteres ist nicht gerade Pascal's Paradedisziplin.
GCN mag Raytracing auch nicht besonders, wie es scheint.
Die kleinen und großen Turings haben jedoch mächtig Dampf, selbst ohne RT Cores (bei den großen werden in dem Benchmark keine RT Cores genutzt).
Dampf
2020-09-12, 23:57:46
https://i.imgur.com/3Xo8Qom.png
Raytracing Optionen in Fortnite.
Sehr schön, dass es verschiedene Qualitätsstufen für GI und Reflektionen gibt. Sollte gut auf vielen verschiedenen RTX GPUs skalieren und eventuell ja auch sogar auf Pascal.
Ist eigentlich schon bekannt, ob Fortnite als erstes Spiel RTXGI für die GI nutzen wird?
just4FunTA
2020-09-13, 00:04:15
dein link geht nicht.
und übrigens sieht der crysis remaster scheisse aus. ;)
Rooter
2020-09-13, 00:15:09
https://i.imgur.com/3Xo8Qom.png
Raytracing Optionen in Fortnite.Auf einem Athlon 64 X2 würde ich das aber eher nicht nutzen. :wink:
MfG
Rooter
Ist eigentlich schon bekannt, ob Fortnite als erstes Spiel RTXGI für die GI nutzen wird?
Ich denke nicht. Das wird die Inhouse GI Lösung sein bis auf Lumen umgestellt wird.
Dampf
2020-09-14, 00:08:37
Ich denke nicht. Das wird die Inhouse GI Lösung sein bis auf Lumen umgestellt wird.
Da sprichst du was gutes an.
RTXGI macht eigentlich so ziemlich das gleiche wie Lumen, dynamische GI mit unendlichen Bounces. Der Unterschied ist wohl der, dass bei RTXGI die Probes mit Raytracing aktualisiert werden, während bei Lumen wohl Ray-Marching verwendet wird.
Eigentlich macht RTXGI doch Lumen überflüssig, oder nicht? Läuft auf allen GPUs und nutzt vor allem die Hardwarebeschleunigung moderner Hardware, sollte also dementsprechend zügig laufen, während bei Lumen die zusätzliche RT Hardware ungenutzt bleibt.
Vielleicht integriert man RTXGI ja mit der UE5 in Lumen, sonst wird das etwas verwirrend.
Rooter
2020-09-14, 00:51:25
Was wurde eigentlich aus VXGI? Außer ein paar Demos, z.B. Lunar Landing, habe ich davon nie wieder was gehört. :uponder:
MfG
Rooter
Da sprichst du was gutes an.
RTXGI macht eigentlich so ziemlich das gleiche wie Lumen, dynamische GI mit unendlichen Bounces. Der Unterschied ist wohl der, dass bei RTXGI die Probes mit Raytracing aktualisiert werden, während bei Lumen wohl Ray-Marching verwendet wird.
Eigentlich macht RTXGI doch Lumen überflüssig, oder nicht? Läuft auf allen GPUs und nutzt vor allem die Hardwarebeschleunigung moderner Hardware, sollte also dementsprechend zügig laufen, während bei Lumen die zusätzliche RT Hardware ungenutzt bleibt.
Vielleicht integriert man RTXGI ja mit der UE5 in Lumen, sonst wird das etwas verwirrend.
Lumen nutzt nicht einen Algorithmus. Es kombiniert Screenspace GI (near range) mit Distance Field GI (midrange) und irgendwas mit Voxeln (long range). Es gibt keinen Grund das nicht zu erweitern oder beispielsweise den Screenspace Teil durch RT zu ersetzen, wenn es sinnvoll ist.
Auch wenn RTXGI DXR nutzt, erwarte ich jetzt keine tollen Performance auf AMD Hardware (Nvidia Source Code optimiert für Nvidia Hardware) und auf Konsolen läuft es damit ja auch noch nicht überall.
Dampf
2020-09-14, 13:03:36
RTXGI Performance:
On:
https://i.imgur.com/dSPvUQE.png
44 FPS
Off:
https://i.imgur.com/6oodkBj.png
46 FPS
Man sieht, RTXGI hat einen deutlichen Effekt auf das Bild, aber die Performance ist dennoch sehr gut. Sehr beeindruckende Technologie
Dampf
2020-09-16, 18:50:14
Fortnite RTX:
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/6/#abschnitt_fortnite_mit_rtx_und_dlss_20
Fortnite unterstützt mit dem Start von GeForce RTX 3000 auch Raytracing und DLSS 2.0. Das Spiel selbst wurde schon angepasst. Wer auf einer GeForce RTX 2000 oder einer GeForce RTX 3000 nach dem 17. September 15 Uhr den Launch-Treiber der GeForce RTX 3080 installiert, kann die neuen Effekte sofort nutzen. Fortnite bietet dabei nicht nur „Raytracing An“ und „Raytracing Aus“ an, sondern lässt die Strahlen für einzelne Einsatzzwecke separat an und abschalten. Und das ist auch gut so, denn wer Raytracing maximiert, erreicht in Ultra HD auch mit vollem DLSS auf einer GeForce RTX 3080 kein flüssiges Ergebnis.
Von den vier vorhandenen Optionen können die RT-Schatten und die RT-Umgebungsverdeckung bedenkenlos aktiviert werden. Die zwei anderen Optionen kosten dagegen massiv Leistung. Dazu gehören auch Reflexionen, die in mehrere Qualitätseinstellungen unterteilt sind, sowie die globale Beleuchtung, bei der es zwei Einstellungen gibt. Für die folgenden Benchmarks sind die RT-Schatten und die RT-Umgebungsverdeckung aktiviert, die RT-Reflexionen stehen auf Niedrig. Die globale Beleuchtung mit RT ist abgeschaltet, alles andere ist auch mit einer GeForce RTX 3080 in hohen Auflösungen nicht praktikabel.
Auch mit nur ein paar aktivierten Effekten ist der Performaceeinfluss von Raytracing in Fortnite sehr groß. Selbst die GeForce RTX 3080 verliert mal eben 45 beziehungsweise 55 Prozent ihrer Performance und Fortnite stockt störend. Den Turing-Modellen geht es wie – wie bereits dargelegt – noch etwas schlechter: Die GeForce RTX 2080 Ti verliert 48 und 52 Prozent der FPS, die GeForce RTX 2080 Super 49 und gar 65 Prozent. Wer sämtliche Raytracing-Effekte nutzt, drittelt selbst auf der GeForce RTX 3080 die Performance.
UE4 + Raytracing = keine Liebe.
dildo4u
2020-09-17, 11:02:19
J50dJmxXaL0
Dampf
2020-09-17, 23:56:27
Ich hab auf PCGH eine kurze Analyse zu Fortnite RTX geschrieben: https://extreme.pcgameshardware.de/threads/fortnite-rtx-raytracing-und-comic-grafik-funktioniert-das.578306/#post-10470151
dildo4u
2020-09-18, 10:02:05
LZfV8puzZ-E
y33H@
2020-09-18, 10:56:02
Crysis Remastered mit Software-Raytracing:
https://www.golem.de/news/crysis-remastered-im-technik-test-but-can-it-run-crysis-hell-no-2009-150942.html
https://scr3.golem.de/screenshots/2009/Crysis-Remastered-Raytracing/Crysis-Remastered-Raytraced-01.png
https://scr3.golem.de/screenshots/2009/Crysis-Remastered-Raytracing/Crysis-Remastered-Raytraced-02.png
https://scr3.golem.de/screenshots/2009/Crysis-Remastered-Raytracing/Crysis-Remastered-Raytraced-03.png
https://scr3.golem.de/screenshots/2009/Crysis-Remastered-Raytracing/Crysis-Remastered-Raytraced-04.png
https://scr3.golem.de/screenshots/2009/Crysis-Remastered-Raytracing/Crysis-Remastered-Raytraced-09.png
https://scr3.golem.de/screenshots/2009/Crysis-Remastered-Raytracing/Crysis-Remastered-Raytraced-10.png
Dino-Fossil
2020-09-18, 11:48:11
Ich halte die Reflexionen speziell des Ozeans (im Rahmen der Lichtbedingungen) und der Metalloberfläche am Anhänger für zu stark.
Da wollte man wohl zeigen, wie toll es funktioniert und hat z.B. dem Wasser die Reflektivität von Quecksilber gegeben. :ugly:
y33H@
2020-09-18, 12:21:12
Morrowind ;D
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.