Archiv verlassen und diese Seite im Standarddesign anzeigen : DirectX 12 Grafik-API
Ganon
2018-03-20, 16:10:17
Dynamik hat ja nichts mit Grafik zu tun. Und beides schließt sich auch nicht aus - siehe Cuda-Rauch in Batman:AK.
Wenn man überschüssige GPU-Leistung in noch mehr Grafik steckt, dann beeinflusst sich das schon. Effekt-Physik ist das eine, aber richtige Spiel-Physik kann man halt nicht einfach in den Grafikoptionen deaktivieren.
Loeschzwerg
2018-03-20, 17:52:39
Und wenn mir der Spieledesigner nicht erklären kann, warum mich eine verschlossene Holz-Tür aufhält, obwohl ich einen Raketenwerfer (oder ein Fantasy-Äquivalent davon) auf dem Rücken habe, dann ist "Komplexität" keine Antwort darauf. Ebenso die Frage warum Wand A auf eine Rakete nicht reagiert, aber Wand B komplett zerbröselt.
Red Faction 1 (2001) mit der GeoMod Engine war da teilweise schon recht weit. Seitdem hat sich aber irgendwie nichts mehr großartig getan.
gravitationsfeld
2018-03-20, 18:03:01
Koennen wir vielleicht zurueckkommen zum Thema?
deekey777
2018-03-20, 18:16:26
Koennen wir vielleicht zurueckkommen zum Thema?
Ja: Über welche dedizierte HW soll Volta verfügen?
Digidi
2018-03-20, 18:44:38
Ja: Über welche dedizierte HW soll Volta verfügen?
Mich würde überhaupt mal interessieren was man in Hardware braucht für Ray Tracing? Ein komplett neues Frontend?
Troyan
2018-03-20, 18:57:30
Läuft über Compute.
nVidia hat ein Blog-Post über DXR: https://devblogs.nvidia.com/introduction-nvidia-rtx-directx-raytracing/
Und auf Github gibt es ein bisschen was zum Spielen: https://github.com/NVIDIAGameWorks/DxrTutorials
Das Microsoft-SDK wurde hier ja schon verlinkt.
gravitationsfeld
2018-03-20, 18:58:44
Mich würde überhaupt mal interessieren was man in Hardware braucht für Ray Tracing? Ein komplett neues Frontend?
Wenn man's in HW machen will, dann ja, komplett andere Hardware um Arbeit zu erzeugen fuer den Chip.
Ganon
2018-03-20, 18:59:19
Ja: Über welche dedizierte HW soll Volta verfügen?
https://www.heise.de/newsticker/meldung/Raytracing-fuer-Spiele-kommt-Microsoft-Schnittstelle-DirectX-Raytracing-und-Nvidia-RTX-angekuendigt-3998690.html
Nvidia erklärte telefonisch gegenüber heise online, dass Raytracing-Berechnungen auch von den extrem leistungsfähigen, aber nur eingeschränkt programmierbaren Tensor-Core-Spezialkernen ausgeführt werden können, die bisher nur in Volta-GPUs stecken. Dadurch ließen sich Raytracing-Berechnungen über GPUs noch wesentlich stärker beschleunigen als bisher.
Man könnte natürlich zusätzlich noch irgendwelche Algorithmen fest verdrahten, fragt sich nur, ob das gewollt ist.
Mich würde überhaupt mal interessieren was man in Hardware braucht für Ray Tracing? Ein komplett neues Frontend?
Mich auch. Das ist ja eigentlich das einzig interessante ueberhaupt an der Geschichte.
Wenn man's in HW machen will, dann ja, komplett andere Hardware um Arbeit zu erzeugen fuer den Chip.
Was heisst "komplett neu"? So wie ich das verstanden habe, will man ja immer noch einen Hybriden haben, also weiterhin Rasterisieren und Einzelnes wie AO, Schatten, Reflexionen, mithilfe von RT machen?
ImgTec hat das ja afaik schon, halt zusaetzlich zur "normalen GPU" noch einen Block, der halt rays macht und das bei laecherlichem Verbrauch, verglichen mit einer desktop GPU.
Die hatten dazu auch eine Vulkan extension vorgeschlagen und mit der UE was gezeigt, das hatten wir auch schon hier.
btw, aus entsprechendem Thread (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=581440):
Ich weiss nicht warum immer alle so negativ sind.
Vielleicht weil es nicht von Nvidia ist.;)
q.e.d ;D
https://www.heise.de/newsticker/meldung/Raytracing-fuer-Spiele-kommt-Microsoft-Schnittstelle-DirectX-Raytracing-und-Nvidia-RTX-angekuendigt-3998690.html
Bin mir immer noch unsicher, was ich davon halten soll. Wenn Volta HW fuer RT haette, haette man doch davon sicher schon vor laengerem gehoert, da das ja insbesondere auch fuer Tesla oder Quadro interessant waere. Das einzige, wovon man gehoert hat, ist aber der antrainierte denoiser, der dann auf den Tensor cores laeuft, sodass man halt weniger samples fuer ein vergleichbares Ergebnis braucht. Passt fuer mich auch immer noch in die Ausdrucksweise "Rayracing beschleunigen".
Digidi
2018-03-20, 20:30:58
Ist da was dran?
Right now our main bottleneck for hybrid raster and raytracers is that there's no way to access the entire triangle unless you count geometry shaders. Primitive Shaders sounded like the solution we were waiting for.
https://twitter.com/matiasgoldberg/status/975839454173847553
Ganon
2018-03-20, 20:34:56
Was heisst "komplett neu"? So wie ich das verstanden habe, will man ja immer noch einen Hybriden haben, also weiterhin Rasterisieren und Einzelnes wie AO, Schatten, Reflexionen, mithilfe von RT machen?
Prinzipiell, ja. So steht es zumindest überall im Blog-Artikel von MS. Der Satz "Eventually, raytracing may completely replace rasterization as the standard algorithm for rendering 3D scenes." ist auch mehr nur Zukunftsblafasel.
Wie gut das letztendlich alles funktioniert wird sich zeigen. Hängt vermutlich auch davon ab wie gut der Denoiser so funktioniert. Je nach Sample-Anzahl sind die ja auch nicht unbedingt artefaktefrei.
gravitationsfeld
2018-03-20, 20:51:05
Ist da was dran?
https://twitter.com/matiasgoldberg/status/975839454173847553
Keine Ahnung wovon er spricht. DXR hat keine Interaktion zwischen Rasterization und Raytracing. Fragment-Shader koennen keine Rays erzeugen.
Was heisst "komplett neu"?
Komplett neu halt. Der Hardware-Block haette keine Interaktion mit der existierenden Raster-Pipeline. Einzig die ALUs/TMUs werden von beiden benutzt.
pixeljetstream
2018-03-20, 20:52:02
Ist da was dran?
https://twitter.com/matiasgoldberg/status/975839454173847553
Der Zusammenhang erschließt sich mir nicht so ganz was der Autor genau meint. Er gehört nicht zu denen die schon mit DXR gearbeitet haben. Es klingt ein bisschen so als wäre die Erwartungshaltung an die API eine tiefe Integrierung gewesen. Also shader typen die sowohl in Raster als auch Raytrace Bedeutung haben.
Digidi
2018-03-20, 21:46:08
Das LOD soll wohl ein großes Problem bei Raytracing sein. Wenn ich mir mal überlege, wenn man eine komplexe weitläufige Umgebung hat und man die Reflextionen mit Lichtstrahlen händeln will, wie macht man das wenn man Polygonen weg Cullt?
100x more efficient art production isn't going to happen either. Big teams such as Assassin's Creed have 100+ artists. Can you replace their art team with just 1-2 persons? Polygon model authoring still takes as much time as before. You still can't model environments with huge distances without any geometric LOD. Without LOD, rays would basically hit random polygons in the billion polygon soup trashing the GPU caches. You still need to draw/capture all your PBR material textures. PBR already reduced the number or artist hacks required a lot. Patch tracing is a step further, but nowhere close to 100x productivity improvement for art side.
https://forum.beyond3d.com/threads/path-tracing-denoising.60315/#post-2020238
So langsam sind wir halt in einer Sackgasse, dass eben weitere Grafikeffekte exorbitant mehr Hardware-Power brauchen.
Sackgasse ist wohl das falsche Wort dafür.
Wir kriegen jetzt mit all den TFLOPS weichere Schatten ein bisschen Global Illumination und endlich mal ordentliche Reflexionen.
Ist doch toll. Besser als nichts neues :)
Die größten Forschritte wurden in den letzten Jahren meiner Meinung nach in der Contenterstellung gemacht und das wird auch noch einige Zeit so weiter gehen.
..., dann ist "Komplexität" keine Antwort darauf.
Natürlich ist es die Antwort darauf. Nur nicht die Antwort, die du als Spieler hören willst.
Das LOD soll wohl ein großes Problem bei Raytracing sein. Wenn ich mir mal überlege, wenn man eine komplexe weitläufige Umgebung hat und man die Reflextionen mit Lichtstrahlen händeln will, wie macht man das wenn man Polygonen weg Cullt?
https://forum.beyond3d.com/threads/path-tracing-denoising.60315/#post-2020238
Da der Aufwand von Raytracing nur logarithmisch mit der Anzahl der Polygone steigt, hat man solche Probleme eher nicht. LODs werden oftmals gar nicht erst verwendet. Gecullt werden muss auch nichts. (Beides kann aber verwendet werden um Speicher einzusparen)
gravitationsfeld
2018-03-21, 02:48:40
LODs braucht man trotzdem aus mehreren Gruenden. Die beiden wichtigsten sind Cache-Lokalitaet und Aliasing.
DXR ist hierarchisch, d.h. man kann mit der Distanz einfach die Objekte durch niedrigere LODs ersetzen ohne die komplette Beschleunigungs-Struktur neu bauen zu muessen.
Locuza
2018-03-21, 04:47:55
Das LOD soll wohl ein großes Problem bei Raytracing sein. Wenn ich mir mal überlege, wenn man eine komplexe weitläufige Umgebung hat und man die Reflextionen mit Lichtstrahlen händeln will, wie macht man das wenn man Polygonen weg Cullt?
https://forum.beyond3d.com/threads/path-tracing-denoising.60315/#post-2020238
Nicht bei Raytracing, sondern allgemein, denn Sebastian hat gegenüber der Aussage argumentiert, dass man dank Raytracing um Faktor 100 Art-Kosten und Codekomplexizität spart, was eben nicht der Fall sein wird, da viele Faktoren zu den Kosten beitragen und Raytracing nicht bei allen zu Kosteneinsparungen führen wird.
G3cko
2018-03-21, 10:57:16
Ist da was dran?
https://twitter.com/matiasgoldberg/status/975839454173847553
Würde mich auch brennend interessieren. Kann das jemand hier näher einschätzen?
Troyan
2018-03-21, 10:59:21
Raytracing-Demo von Futuremark: https://www.youtube.com/watch?v=81E9yVU-KB8
Pressemitteilung: https://www.futuremark.com/pressreleases/watch-our-new-directx-raytracing-tech-demo
/edit:
We are happy to announce that we will be using DirectX Raytracing in a new 3DMark benchmark test that we plan to release towards the end of the year.
dildo4u
2018-03-21, 18:45:43
During today’s “State of Unreal” opening session at the Game Developers Conference (GDC) the three companies presented an experimental cinematic demo using Star Wars characters from The Force Awakens and The Last Jedi built with Unreal Engine 4. The demonstration is powered by NVIDIA’s RTX technology for Volta GPUs, available via Microsoft’s DirectX Ray Tracing API (DXR).
https://www.unrealengine.com/en-US/blog/epic-games-demonstrates-real-time-ray-tracing-in-unreal-engine-4-with-ilmxlab-and-nvidia
J3ue35ago3Y
YWcawaa_9HA
tjf-1BxpR9c
N0Thing
2018-03-21, 19:01:24
https://www.unrealengine.com/en-US/blog/epic-games-demonstrates-real-time-ray-tracing-in-unreal-engine-4-with-ilmxlab-and-nvidia
http://youtu.be/J3ue35ago3Y
Die Fahrstuhlmusik. :D
dildo4u
2018-03-22, 13:36:18
AMD erwartet Raytracing bei Ultra-Settings im Grafikmenü
https://www.golem.de/news/computergrafik-amd-erwartet-raytracing-bei-ultra-settings-im-grafikmenue-1803-133464.html
2NsdM1VS5u8
We have utilized true raytracing to render both Ambient Occlusion and Indirect Lighting in full realtime, in a practical in-game scenario.
“For many years, proper global illumination has been the holy grail of real-time rendering. There have been various solutions in the past, but all have had to compromise in some critical area.
Offline pre-rendered GI offers a great visual target, but sacrifices flexibility in production, in-game dynamics, and uses a lot of memory. Prior realtime solutions were always limited by distance of light propagation, lack of data behind objects or screen edges and produced visual issues like leaks or unnatural lighting.
But this is the point where hardware steps in bringing truly scale-independent ambient occlusion by allowing brute force tracing of multiple rays from each pixel several hundreds of meters each frame.
Dynamic lighting has always been a priority for the Metro series. We intentionally avoided pre-baked data and were relying on real-time methods to build our visuals to support more flexible, dynamic gameplay. Global Illumination is highly important for the proper "grounding" of objects and readability of shapes, which in turn create improved ease of navigation and enhanced visual impact for the player.
Previously, we had utilized a mix of several custom-made systems to satisfy our hungry demand for dynamic content of varying scale. Now we are able to replace it with one single system that covers all our needs and outputs the quality of offline renderers.” - 4A Games’ Chief Technical Officer, Oleksandr Shyshkovtsov.
http://www.4a-games.com.mt/4a-dna/2018/3/22/nvidia-reveals-collaboration-with-4a-games-on-rtx-technology-at-gdc-2018
dargo
2018-03-23, 06:59:08
Also irgendwie lassen mich die Raytracing Effekte noch kalt. Wobei... erstmal abwarten wie das Verhältnis Kosten/Nutzen bei den ersten Implementierungen überhaupt damit ausfällt. Das einzig Positive was ich am Raytracing sehe ist, dass endlich der Fokus breitflächig Richtung DX12/Vulkan gerichtet wird. Manchmal ist kein Fallback doch vom großen Vorteil.
][immy
2018-03-23, 08:29:28
Ist das jetzt eigentlich was neues?
Wird nicht schon seit Jahren Ray-Tracing/Casting für einige Beleuchtungseffekte genutzt?
Digidi
2018-03-23, 09:00:01
Das neue Metro sieht jetzt grafisch nicht so berauschend aus. Texturen sind total matschig und die Texturen brauchen ja ewig bis sie nachgeladen sind. Hmm
dildo4u
2018-03-23, 09:08:22
[immy;11656353']Ist das jetzt eigentlich was neues?
Wird nicht schon seit Jahren Ray-Tracing/Casting für einige Beleuchtungseffekte genutzt?
Nicht als Echtzeit Lösung GI ist oft gebacken daher erreichen Games wie Forza 7 100gb.
Kaum einer wird Games mit Echtzeit GI entwickeln die auf den neuen Konsolen mit 1080p laufen würden,da das Marketing auf 4k ausgerichtet ist.
Der Erste Metro 2035 Trailer vs die Raytracing Demo:
https://i.imgur.com/chunNP4.png
https://i.imgur.com/VVa26zL.png
https://i.imgur.com/7SRNgyC.png
Troyan
2018-03-23, 11:27:37
So stellt sich EA Seed die Zukunft vor:
https://pbs.twimg.com/media/DY2l9pNXcAAFkOr.jpg:large
https://twitter.com/vicki_ferg/status/976619197982756865
Demirug
2018-03-23, 12:25:55
https://www.unrealengine.com/en-US/blog/epic-games-demonstrates-real-time-ray-tracing-in-unreal-engine-4-with-ilmxlab-and-nvidia
http://youtu.be/J3ue35ago3Y
http://youtu.be/YWcawaa_9HA
http://youtu.be/tjf-1BxpR9c
Das Problem dabei ist nur das die Hardwareanforderungen für diese Demo äußert heftig sind.
4 wassergekühlte Tesla V100 mit einem NVLINK Interconnector (PCIe reicht nicht) für ein Ziel 24FPS bei 1080P das aber nicht durchgängig eingehalten werden kann.
Das selbst mit massive reduzierter Anzahl von Rays per Pixel damit es überhaupt läuft.
aufkrawall
2018-03-23, 12:32:40
Für saubere, scharfe glossy Reflexionen wird man doch sicherlich die Ray-Anzahl nicht so stark reduzieren können?
In der Futuremark-Demo gabs jedenfalls noch gut Artefakte. Ich weiß auch noch, wie erbärmlich langsam die Apollo-Demo zum Maxwell 2-Release lief.
dildo4u
2018-03-23, 12:33:04
Das Problem dabei ist nur das die Hardwareanforderungen für diese Demo äußert heftig sind.
4 wassergekühlte Tesla V100 mit einem NVLINK Interconnector (PCIe reicht nicht) für ein Ziel 24FPS bei 1080P das aber nicht durchgängig eingehalten werden kann.
Das selbst mit massive reduzierter Anzahl von Rays per Pixel damit es überhaupt läuft.
Deswegen ist es eine Star Wars Demo von ILM und nicht Dice.
ILM arbeitet schon einige Zeit mit UE 4.0,um schnellere Iterationen am Set zu ermöglichen,ohne das man die Szene Offline Rendern muss um ein Eindruck von der Beleuchtung zu bekommen.
In Rouge One wurde z.b UE 4.0 genutzt um den Droid zu realisieren.
https://www.polygon.com/2017/3/1/14777806/gdc-epic-rogue-one-star-wars-k2so
Demirug
2018-03-23, 12:55:48
Für saubere, scharfe glossy Reflexionen wird man doch sicherlich die Ray-Anzahl nicht so stark reduzieren können?
1 ray pro pixel mit maximal 2 Reflectionen + ein Filter um den Noise zu reduzieren. Es wurde noch erwähnt das sie für den statischen Anteil nach wie vor prebaken. In wie weit das auch für die Reflektieren gilt wurde allerdings nicht gesagt.
Troyan
2018-03-23, 12:58:06
Hier ist die Präsentation von Epic: https://www.youtube.com/watch?v=JAKXySYfLWo
Dort geht man auch auf DXR ein und wie man, Demirug hat es ja schon erwähnt, die einzelnen Effekte umgesetzt hat.
N0Thing
2018-03-23, 13:44:14
Also irgendwie lassen mich die Raytracing Effekte noch kalt. Wobei... erstmal abwarten wie das Verhältnis Kosten/Nutzen bei den ersten Implementierungen überhaupt damit ausfällt. Das einzig Positive was ich am Raytracing sehe ist, dass endlich der Fokus breitflächig Richtung DX12/Vulkan gerichtet wird. Manchmal ist kein Fallback doch vom großen Vorteil.
Ich finde den Sprung schon ziemlich groß und wenn man den Blick eher auf die Beleuchtung und weniger auf die Reflexionen lenkt, kann ich die ersten Spiele mit der Technik gar nicht früh genug haben.
Ich denke mir oft genug in Spielen, dass bei Position der Sonne / Lichtquelle diese und jene Fläche niemals im Schatten liegen kann, oder einen Schatten werfen sollte.
DX12/Vulkan werden dadurch sicherlich nicht stärker gepuscht, als der normale Wandel der Zeit die Entwickler eh zu den aktuellen APIs bewegen wird. Die meisten Studios bauen ja nicht für jedes Spiel eine neue Engine von Grund auf neu, wie es ID für Wolfenstein gemacht hat.
aufkrawall
2018-03-23, 14:06:33
Ich denke mir oft genug in Spielen, dass bei Position der Sonne / Lichtquelle diese und jene Fläche niemals im Schatten liegen kann , oder einen Schatten werfen sollte.
Entweder, Directional Light Source ist verdeckt oder nicht. Schatten von zusätzlichen Spot-/Point Lights sind schon ohne weiteres möglich, nur extrem teuer. Das wird sich mit den RT-Methoden der nächsten Jahre nicht ändern.
IL, AO und Schattenfilterung werden viel präziser sein, aber das dürfte es auch schon gewesen sein.
Jupiter
2018-03-23, 14:16:50
Schatten finde ich erst einmal am wichtigsten (es gibt bessere Screen Space AOs vs. Raytracing AO als Shadowmaps vs. Raytracing Shadows) und die Reflexionen sind meines Wissens generell noch teurer. In der UE Star Wars-Demo wurde die meiste Leistung für die Reflexionen benötigt.
][immy
2018-03-23, 14:44:44
Das Problem dabei ist nur das die Hardwareanforderungen für diese Demo äußert heftig sind.
4 wassergekühlte Tesla V100 mit einem NVLINK Interconnector (PCIe reicht nicht) für ein Ziel 24FPS bei 1080P das aber nicht durchgängig eingehalten werden kann.
Das selbst mit massive reduzierter Anzahl von Rays per Pixel damit es überhaupt läuft.
*autsch*
Also das mag interessant sein für das rendern von Filmchen die dann gespeichert werden, aber da werden wir in Jahren noch nicht sein. Die Fertigungstechnik geht immer langsamer voran. Es gibt limits die wir nicht überschreiten können dabei. Wie will man da diese geballte Rechenkapazität bekommen für 4k >30fps?
Ich schätze mal wenn man Rays einspart damit es lauffähig wird, wird es irgendwann nicht besser aussehen als die aktuelle "fake"-Darstellung.
aufkrawall
2018-03-23, 14:52:14
[immy;11656619']
Ich schätze mal wenn man Rays einspart damit es lauffähig wird, wird es irgendwann nicht besser aussehen als die aktuelle "fake"-Darstellung.
Meine Hoffnung wäre, dass man die Ergebnisse von Reflexionen bei weniger Rays per Filterung durch neuronale Netzwerk-Algorithmen irgendwann so hinbekommt, dass sie zwar weniger scharf, aber ansonsten passabel sind. Das würde für viele Oberflächen schon eine Menge bringen gegenüber dem SSR-Müll.
Aber bei RT ist skeptisch sein angebracht. :cool:
Demirug
2018-03-23, 14:59:26
[immy;11656619']Ich schätze mal wenn man Rays einspart damit es lauffähig wird, wird es irgendwann nicht besser aussehen als die aktuelle "fake"-Darstellung.
In der Demo ist wohl schon alles auf jeweils 1 ray per Pixel reduziert. Man könnte also nur noch was einsparen wenn man die rays auf die Bildteile begrenzt welche es brauchen. Das ist aber gar nicht so einfach.
][immy
2018-03-23, 15:07:39
In der Demo ist wohl schon alles auf jeweils 1 ray per Pixel reduziert. Man könnte also nur noch was einsparen wenn man die rays auf die Bildteile begrenzt welche es brauchen. Das ist aber gar nicht so einfach.
Würde es nicht reichen die Rays in einer niedrigeren Auflösung zu berechnen und dann Annäherungsweise die Ergebnisse verarbeiten?
dargo
2018-03-23, 15:15:18
DX12/Vulkan werden dadurch sicherlich nicht stärker gepuscht, als der normale Wandel der Zeit die Entwickler eh zu den aktuellen APIs bewegen wird. Die meisten Studios bauen ja nicht für jedes Spiel eine neue Engine von Grund auf neu, wie es ID für Wolfenstein gemacht hat.
Ohne DX12/Vulkan kein RT in Games. Wollen die Entwickler also RT in ihre Games implementieren kommen sie an den neuen APIs nicht vorbei. Darauf wollte ich hinaus.
pixeljetstream
2018-03-23, 19:50:27
Ich glaube ILM würde sich nicht zufrieden geben wenn ihre Arbeit nicht bestmöglichst aussieht, also spielte da hardware keine Rolle. Insgesamt sehe ich auch den professionellen Markt, wie auch bei VR, eher als denjenigen der die Technik sofort einsetzt, weil schon Bedarf da ist.
Imo ist das ganze erst der Anfang, so wie OpenGL auch mal die Rasterisierung standardisierte und dann die APIs und vor allem die Hardware über die Zeit besser wurden. Man wird sehen wie schnell die Entwickler das ganze annehmen, der Rest geht dann von selbst, auch wenn es natürlich ein paar Generationen dauern wird bis es wirklich voll im Mainstream ist. Das "gehackte" Niveau mit all den Trick ist ja schon relativ hoch.
Die Rasterisierung wird auch nicht verschwinden, dafür ist sie für viele Dinge, insbesondere "Primärstrahl" einfach zu performant, so dass diese Hybridansätze sicherlich der richtige Weg sind.
Wirklich neu isses ja nicht, beide Hersteller haben ja schon lange GPU Raytracing frameworks, aber nun eine vereinheitlichte Lösung zu haben, die voll integriert ist, ist schon viel Wert und dank der deep learning Magie kann man halt nun selbst mit so wenig Strahlen was halbwegs vernünftiges hinkriegen. Der Filtermagie isses ja egal woher die Daten kommen, so dass wir da allgemein in Zukunft mehr Qualität sehen sollten.
Was die Spielkomplexität angeht, so gebe ich den Leuten Recht, dass weniger Photorealismus und etwas mehr Detail bei Interaktion etc. cool wären, aber wenn die Spiele über so verschiedene Hardware skalieren müssen, ist Grafik halt immer noch das, was man am einfachsten entkoppeln kann. Vielleicht hilft da aber auch dann die AI, die besser auf dynamische Umwelt reagieren kann, mal sehen, aber wird definitiv spannen die nächsten Jahre.
pixeljetstream
2018-03-23, 20:41:18
https://twitter.com/ZigguratVertigo/status/977225599805669376?s=19
Kriton
2018-03-23, 21:21:15
Was macht eigentlich der Denoiser? Mein (sehr laienhaftes) Verständnis wäre gewesen, dass RT doch gerade punktgenau ist. Wo habe ich denn da "noise", bzw: was soll das in dem Zusammenhang sein?
Hübie
2018-03-23, 21:35:41
Für mein bescheidenes Verständnis 'interpoliert' der umliegende Pixel, da Licht divergent ist und bei steigender Distanz sowie konstantem Winkel grössere Öffnungen klaffen. Male mal eine Linie und eine mit 1° Steigung. Je länger die Linien sind, desto größer der Abstand zwischen beiden. Hier wird pro Pixel ein Strahl 'losgeschossen' und die divergieren ebenso. Der denoiser schließt diese Lücken am Ende. Ist also ein Kompromiss zwischen Anzahl der Strahlen und Optik.
Hab ich das so richtig verstanden? :D
Was macht eigentlich der Denoiser? Mein (sehr laienhaftes) Verständnis wäre gewesen, dass RT doch gerade punktgenau ist. Wo habe ich denn da "noise", bzw: was soll das in dem Zusammenhang sein?
Punktgenau aka scharfe Reflektionen/Schatten will halt heutzutage niemand mehr.
Ich versuch es mal einfach verständlich am Beispiel von Reflektionen:
https://abload.de/img/dgseiqks.png
Wird die Oberfläche rauer, wird die Lobe breiter und ein größerer Bereich der Hemisphäre wird relevant für das Ergebnis. Da dies in der Praxis nicht durch eine exakte analytische Berechnung gelöst werden kann, fängt man an den entsprechenden Bereich mit Strahlen zufällig zu sampeln.
Da jedesmal der Zufallsgenerator pro Pixel und pro Frame andere Richtungen ausspuckt, entsteht ein Rauschen. Das kann man mit einer hohen Anzahl von Strahlen (drei bis vierstellig pro Pixel ist guter Startpunkt) beseitigen und/oder setzt Denoiser ein.
Dabei wird noch zwischen biased und unbiased unterschieden aka man kann versuchen Bereiche zu erraten, die "wichtiger" für das Ergebnis sind.
Das gleiche hat man für Softshadows. Diese entstehen durch Flächenlichtquellen und man muss die Fläche der Lichtquelle ausreichend sampeln.
Für mich ist eigentlich schon die Sensation, dass sie mit 1-2 Strahlen pro Pixel rauschfrei werden. Man sieht zwar ab und zu Artefakte, aber trotzdem WOW.
Digidi
2018-03-23, 23:56:51
Ich dachte Noise kommt von zu wenig Informationen. Für jeden Pixel muss 1 Lichstrahl mindestens durch den Pixel gehen. Ich kann mir gut Vorstellen das man z.B. bei einer Rauen sich spigelnden oberfläche sehr sehr viele Licht Strahlen, die die Oberläche abstrahlt, berechnet werden müssen. Das spart man sich wahrscheinlich ein indem man die Anzahl der Lichtstrahlen begrenzt und dann zwischen den Lichtstrahlen interpoliert. Das dürfte den Rechenaufwand enorm senken.
Das ist auch Interessant. https://www.ea.com/seed/news/seed-gdc-2018-presentation-slides-shiny-pixels
Folie 9 beschreibt es ganz gut. Man senkt die Auflösung um sie dann wiedr auzuinterploieren.
Ich frage mich nur wie das mit Tensor Cors beschleunigt werden soll? Raumberechnungen in FP16 sind schon recht kompliziert. Da gab es bei FarCry 5 ein Beitrag von AMD wo man FP16 für das Wasser benutzt und man an manchen stellen auf FP32 wechseln musste weil es sonst nichts aussieht. Ich kann mir nur Vorstellen das man die Tensor Cores fürs Training des RayTracing Algorithmus vorher benutzt hat. Also auf einem Server von Nvidai.
Ich frage mich nur wie das mit Tensor Cors beschleunigt werden soll?
Du trainierst neuronale Netze darauf aus verrauschten Ergebnissen ein nicht verrauschtes zu machen. Die Trainingsdatensätze dafür sind ja einfach zu erstellen.
Digidi
2018-03-24, 00:13:25
Du trainierst neuronale Netze darauf aus verrauschten Ergebnissen ein nicht verrauschtes zu machen. Die Trainingsdatensätze dafür sind ja einfach zu erstellen.
Ja aber was hat das mit dem Endanwender zu tun? Wozu braucht der Tensor Cores für die Titan V?
Hübie
2018-03-24, 00:21:01
Wenn ich das richtig verstanden habe dann nur in Kombination mit TAA, weil die vorherigen Referenzframes noch Ergebnisse liefern. In dem Video zur UE erwähnte einer der Spreche Probleme bei Szenenwechsel (also keine Kameraschwenks).
@RLZ: Du hast es natürlich fachmännischer erklärt. Dass die Strahlen zufällige Winkel bekommen war mir nicht klar. Dachte es wäre ein alternierendes Muster dass zwischen ein paar Stufen wechselt. :up:
Ja aber was hat das mit dem Endanwender zu tun? Wozu braucht der Tensor Cores für die Titan V?
Ich vermute das der BIAS eben das c * b + y in der Gleichung aus der Matrizenmultiplikation ist und das können die Tensor Cores eben in einem cycle. Was sagen die Experten? =)
pixeljetstream
2018-03-24, 00:24:26
@Digidi, Die Operation ist die gleiche, Konvolution. Beim Training passt Du die Gewichte nach jeder Iteration an, beim Inferencing (z.b. der filter im Spiel) wendest du das fertig Netzwerk einfach nur an.
Training führt die Operation also N Mal pro Iteration aus. N die Größe der Testdaten. Die Anzahl der iterationen hängt vom gewünschten Ergebnis ab. Selbst auf nem GPU Cluster kann sowas in der Entwicklung Tage dauern.
Beim Inferencing hast dann halt nur einen Durchlauf. Dafür aber nun noch weniger Zeit.
Da die Bilddaten selbst bei HDR in fp16 passen reicht die Präzision der Tensor cores aus.
RLZ hat sehr gut beschrieben wie man die Reflektionen umsetzt.
Ja aber was hat das mit dem Endanwender zu tun? Wozu braucht der Tensor Cores für die Titan V?
Für das Ausführen der neuralen Netzwerke?
Ahhh das tut weh beim lesen... Das heißt im Deutschen Reflexion!
Hübie
2018-03-24, 02:52:25
:uclap: HOT im Auftrag des Bildungsministeriums unterwegs. ;D
:uclap: HOT im Auftrag des Bildungsministeriums unterwegs. ;D
Das ist mir jetzt schon in etlichen Theads in einigen Foren untergekommen, da konnt ich nicht mehr an mich halten.
Hübie
2018-03-24, 02:59:44
Ja, ist an sich auch gut. Aber finde es eher aufdringlich, wenn es als Hauptsatz auftaucht. :D
Tobalt
2018-03-24, 11:09:14
hier ein kurzes anschauliches video zum denoising:
https://youtu.be/YjjTPV2pXY0
Ahhh das tut weh beim lesen... Das heißt im Deutschen Reflexion!
Nach ein paar Sekunden Selbstreflektion... Scheiß drauf ;D
dargo
2018-03-25, 20:34:27
Ich verstehe nur Bahnhof. Den ersten Videos nach verwendet Far Cry 5 doch nur DX11.
NRwrLzZBwO0 iprhgnYIgJE
Ich dachte RPM braucht mindestens DX11.1. :confused: Und Async Compute geht jetzt auch unter DX11? :freak: Die PCGH spricht zumindest von Async Compute, unten sieht man auch die Bilder von der GDC.
http://www.pcgameshardware.de/Far-Cry-5-Spiel-60934/Specials/FP16-Berechnungen-1252784/
gravitationsfeld
2018-03-26, 05:23:10
Ich glaube nicht, dass RPM von DX11.1 abhaengt. Das ist eh so ein Bytecode-Hack vorbei an der Spec in DirectX, weil es keine Extensions gibt.
Was RPM angeht bin ich eh bisschen desillusioniert. Funktioniert wirklich gut nur in Spezialfaellen. Kommt auf's Spiel drauf an.
Async Compute geht definitiv nicht. Ausser AMD hat was spezifisches fuer das Spiel in den Treiber gehackt.
dargo
2018-03-26, 08:23:07
Danke für die Infos.
Ok... dann hatte das jemand mit RPM letztes Jahr falsch weiter gegeben oder ich hatte es falsch aufgefasst. Bleibt also nur noch die Sache mit Async Compute, wie es hier gelöst wurde. Morgen ist offiziell Release, vielleicht erfahren wir mehr.
dildo4u
2018-03-26, 10:26:03
In der Präsentation steht auch nix von PC,das kann sich auch alles auf die Konsole beziehen sein,die PS4 Pro unterstützt FP 16.Und dort wird vielleicht auch Async Compute genutzt.
dargo
2018-03-26, 10:44:25
Dann ist die ganze Berichterstattung der PCGH absurdum. Zuerst spricht man von Grafikkarten und dann soll sich AC nur auf Konsole beziehen? In der Präsentation ist aber auch die Rede von Tessellation. Gibts die überhaupt auf Konsole? Das ist in der Regel das worauf man aus Kostengründen verzichtet.
Kartenlehrling
2018-03-26, 10:57:10
Wie sieht es den mit HDR und Freesync2 auf dem PC aus,
das wird doch nur unter Windows 10 unterstützt oder nicht?
dildo4u
2018-03-26, 11:06:33
Dann ist die ganze Berichterstattung der PCGH absurdum. Zuerst spricht man von Grafikkarten und dann soll sich AC nur auf Konsole beziehen? In der Präsentation ist aber auch die Rede von Tessellation. Gibts die überhaupt auf Konsole? Das ist in der Regel das worauf man aus Kostengründen verzichtet.
PS4 Pro und Xbox One X basieren doch auf Polaris kein Grund dort keine Tesselation zu nutzen.
https://youtu.be/UerFogW1m-0?t=8m21s
dargo
2018-03-26, 11:16:52
PS4 Pro und Xbox One X basieren doch auf Polaris kein Grund dort keine Tesselation zu nutzen.
Schön, nur ist die große Mehrheit immer noch PS4 und XB1. :rolleyes:
Rancor
2018-03-26, 11:20:24
Schön, nur ist die große Mehrheit immer noch PS4 und XB1. :rolleyes:
Was keine Rolle spielt, denn die Pro/X Modi sind optional und zuschaltbar. D.H es ist durchaus möglich, das die Base Version aus Performance Gründen keine Tesselation nutzt, der Pro/X Modus aber schon. Ist mittlerweile in vielen Konsolen Spielen so.
Laut den PC Streams, die ich bisher sehen konnte,nutzt Game tatsächlich einfach nur DX 11. Vllt. gibts noch nen Day One Patch der DX 12 freischaltet.
dildo4u
2018-03-26, 11:28:42
Das ist von der XBox One X der Baum sieht mir sehr nach Tesselation aus.
https://abload.de/img/26.03.2018_01-33-574vu43.png
https://www.resetera.com/threads/far-cry-5-ot-big-cry-country.31651/page-16#post-5992906
Rancor
2018-03-26, 13:23:20
Im PCGH Test ist auch nur noch die Rede von DX 11 und RPM. Also keine LL API, kein AC.
aufkrawall
2018-03-26, 13:26:04
Also, damit konnte ja nun wirklich niemand rechnen.
Meine Prognose: Far Cry 5 wird auch wieder DX11 only. Das wird nur besser auf Radeons laufen, weil das Dunia seit FC4 allgemein tut (außer natürlich, die Engine kann nun MT, was den AMD-Treiber wieder überfordert :freak: ). Die Rapid Packed Math-Sau ist ja offenbar schon gestorben, bevor man überhaupt mit dem durchs Dorf Treiben anfangen konnte.
Rancor
2018-03-26, 13:27:10
Also, damit konnte ja nun wirklich niemand rechnen.
Sei doch nicht so gemein :D
dargo
2018-03-26, 13:36:50
Im PCGH Test ist auch nur noch die Rede von DX 11 und RPM. Also keine LL API, kein AC.
Dann hat sich die PCGH Online einen verfrühten Aprilscherz erlaubt. :D
Dann hat sich die PCGH Online einen verfrühten Aprilscherz erlaubt. :D
In der GDC-Session hat Ubisoft anscheinend nicht zwischen PC und Konsole unterschieden. Im PC-Reviewer's-Guide wird AC jedenfalls gar nicht erwähnt. Wird in der PC-Version also nicht genutzt.
Locuza
2018-03-26, 17:59:27
Danke für die Infos.
Ok... dann hatte das jemand mit RPM letztes Jahr falsch weiter gegeben oder ich hatte es falsch aufgefasst. Bleibt also nur noch die Sache mit Async Compute, wie es hier gelöst wurde. Morgen ist offiziell Release, vielleicht erfahren wir mehr.
Solange der Entwickler FP16 verwenden kann, egal auf welchem Wege und AMDs Compiler/Treiber das unterstützt, läuft es halt schneller.
Erst ab DX11.1 bietet DX selber Datentypen mit niederer Präzision an, aber AMD kann auch einen eigenen Hack/Erweiterung anbieten, wie Sie und die anderen Hersteller es schon lange für die zahlreichen APIs machen.
[...] In der Präsentation ist aber auch die Rede von Tessellation. Gibts die überhaupt auf Konsole? Das ist in der Regel das worauf man aus Kostengründen verzichtet.
Solange der Faktor gering bleibt bzw. auch das Pixel-per-Triangle-Ratio gut aussieht, stellt es kein großes Problem dar.
Mehrere Frostbite Spiele verwenden Tessellation auch auf Konsolen, wie Star Wars Battlefront für die Bodengeometrie.
The Witcher 3 hat glaube ich auch auf allen Plattformen Tessellation für das Wasser verwendet.
dargo
2018-03-26, 18:53:52
Solange der Entwickler FP16 verwenden kann, egal auf welchem Wege und AMDs Compiler/Treiber das unterstützt, läuft es halt schneller.
Erst ab DX11.1 bietet DX selber Datentypen mit niederer Präzision an, aber AMD kann auch einen eigenen Hack/Erweiterung anbieten, wie Sie und die anderen Hersteller es schon lange für die zahlreichen APIs machen.
Jetzt mal Butter bei die Fische... sind die Daten bei Wikipedia korrekt oder nicht diesbezüglich?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11658270&postcount=281
Kriton
2018-03-26, 19:36:10
Danke für die Erklärungen zum RT.
Locuza
2018-03-26, 19:45:45
@ dargo
Diesbezüglich ja, aber dafür braucht es mindestens DX11.1 bzw. D3D11.1.
Die Übersicht bezieht sich auf D3D11.4.
DX11.0 beinhaltet nur D3D11.0.
Das FL11_0 stellt nur eine Grundlinie an vorgeschriebenen Funktionen dar, neue Funktionen die mit neuen APIs dazu gekommen sind, können damit einfach in Kombination verwendet werden und gelten als optional.
Ab DX11.3 bzw. D3D11.3 gibt es viele neue Funktionen und vier FLs, FL11_0, 11_1, 12_0 und 12_1, wie unter DX12 und auch Conservative Rasterization mit 3 Funktionsstufen bzw. Tiers.
Du kannst FL11_1 verwenden und gleichzeitig Conservative Rasterization Tier 2 oder FL12_0 + CR2 oder FL12_1 + CR2.
So ist das auch mit FP16, ab D3D11.1 kannst du es unter verschiedenen FLs verwenden.
dildo4u
2018-03-26, 20:37:03
Selbst DX11.1 ist doch schon uralt Dice hatte das 2013 in BF4.
http://www.pcgameshardware.de/Battlefield-4-Spiel-18685/Tipps/Battlefield-4-CPU-Test-Windows-8-1091767/
dargo
2018-03-26, 20:46:53
So ist das auch mit FP16, ab D3D11.1 kannst du es unter verschiedenen FLs verwenden.
Widerspricht das nicht irgendwie dem Post von gravitationsfeld?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11658393&postcount=5310
Ich muss zugeben das ganze ist echt verwirrend.
Locuza
2018-03-26, 20:56:42
Selbst DX11.1 ist doch schon uralt Dice hatte das 2013 in BF4.
http://www.pcgameshardware.de/Battlefield-4-Spiel-18685/Tipps/Battlefield-4-CPU-Test-Windows-8-1091767/
Und sind den öffentlichen Informationen nach bis Heute die Einzigen, die es noch extra anbieten?
Fast niemand macht eine extra Wurst für die API-Updates nach DX11.0, da W8(.1) und höher exklusiv und das scheint für fast alle es einfach nicht wert zu sein.
Erst wenn der Marktanteil von W7 einen relativ kleinen Anteil besitzt, werden sich die meisten bewegen und zeitlich fällt das vermutlich sogar gleich mit dem Upgrade zu DX12 zusammen.
Widerspricht das nicht irgendwie dem Post von gravitationsfeld?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11658393&postcount=5310
Ich muss zugeben das ganze ist echt verwirrend.
Nein, DX11.1 ist das Minimum was du brauchst für offizielle FP16-Funktionalität, aber herstellerspezifische Hacks und Erweiterungen können die Funktionalität natürlich auch für ältere Versionen bereitstellen.
AMD bietet z.B. AGS an, mit zahlreichen extra Funktionen zusätzlich zur Standard DX-API:
https://gpuopen.com/gaming-product/amd-gpu-services-ags-library/
Intel hat auch zwei Hacks für PixelSync und InstantAccess für DX11.0 angeboten, weil das sind keine offiziellen DX-Features und DX bietet keinen offiziellen Erweiterungsmechanismus an wie OGL oder Vulkan, wo Hersteller solche Erweiterungen einreichen können und dann andere Hersteller diese auch unterstützen, wenn sie wollen.
Bei DX sind das externe hacks oder extra APIs die zusammen mit DX funktionieren.
Far Cry 5 verwendet vermutlich DX11.0 und eine AMD spezifische Erweiterung für RPM.
dargo
2018-03-26, 21:16:15
Ich danke dir. (y)
dildo4u
2018-03-26, 23:02:12
Also können sie sogar Shader Intrinsic ohne DX12 nutzen vielleicht kommt das ja noch als Patch.
gravitationsfeld
2018-03-26, 23:48:03
DX12 von Ubisoft, guter Witz :D
N0Thing
2018-03-26, 23:50:02
Gab es doch schon in The Division. :confused:
dargo
2018-03-26, 23:54:02
Jo... eher ist es verwunderlich, dass nach The Division nichts mehr mit DX12 kam. :freak: Vielleicht muss wirklich erstmal was wieder mit Snowdrop kommen.
Edit:
Spätestens erwarte ich es aber beim zweiten Teil sonst gibts einen auf die Nüsse. :D
The Division 2 wird mit einer aktualisierten Version der Snowdrop-Engine laufen.
https://mein-mmo.de/the-division-2-ist-offiziell-bestaetigt/
Hoffentlich dann auch nativ DX12.
Demirug
2018-03-27, 00:03:38
DX12 von Ubisoft, guter Witz :D
Die Engine Situation bei Ubisoft ist halt schwierig. Und bevor jemand fragt ich würde gerne mehr schreiben darf aber nicht (Maulkorb)
Spätestens erwarte ich es aber beim zweiten Teil sonst gibts einen auf die Nüsse. :D
https://mein-mmo.de/the-division-2-ist-offiziell-bestaetigt/
Hoffentlich dann auch nativ DX12.
Ich würde nicht darauf wetten. ;)
dildo4u
2018-03-27, 00:07:01
DX12 von Ubisoft, guter Witz :D
Ich meinte die Shader Intrinsic könnten per Patch kommen ohne DX12.
Hübie
2018-03-27, 00:26:36
Die Engine Situation bei Ubisoft ist halt schwierig. Und bevor jemand fragt ich würde gerne mehr schreiben darf aber nicht (Maulkorb)
Ich würde nicht darauf wetten. ;)
Aber vielleicht darfst Du ja darüber sprechen wie FP16 und sonstige nette Spielereien in Dunia gelöst wurden. Ist das überhaupt noch Dunia? :uponder:
Was hat Ubisoft?
Dunia (ging aus CryEngine 1 aka Far Cry 1 hervor), Snowdrop, AnvilNext (war das nicht ne Verschmelzung???)... So viele sind das nicht. Snow Drop wurde glaub ich mit Massive Entertainment eingekauft.
aufkrawall
2018-03-27, 01:16:11
Natürlich ist das noch Dunia.
dildo4u
2018-03-27, 01:52:07
Aber vielleicht darfst Du ja darüber sprechen wie FP16 und sonstige nette Spielereien in Dunia gelöst wurden. Ist das überhaupt noch Dunia? :uponder:
Was hat Ubisoft?
Dunia (ging aus CryEngine 1 aka Far Cry 1 hervor), Snowdrop, AnvilNext (war das nicht ne Verschmelzung???)... So viele sind das nicht. Snow Drop wurde glaub ich mit Massive Entertainment eingekauft.
http://www.pcgameshardware.de/Far-Cry-5-Spiel-60934/Specials/Benchmark-Test-Review-1253058/galerie/2860569/
dargo
2018-03-27, 08:12:57
Die Engine Situation bei Ubisoft ist halt schwierig. Und bevor jemand fragt ich würde gerne mehr schreiben darf aber nicht (Maulkorb)
Ich würde nicht darauf wetten. ;)
Bist du bei Ubi? :)
Bei solchen Sachen frage ich mich echt wozu der ganze Aufwand dann beim ersten Teil? Eigentlich sollte man meinen die ganzen Erfahrungen nimmt man für spätere Titel mit.
Ex3cut3r
2018-03-27, 09:13:02
Dx12 interessiert keine Sau. Seit 2015 gibt es DX12 und jeder Titel bis auf vlt. 1-2 war eine totale Enttäuschung damit. Meine Erfahrung ist, es läuft entweder gleich oder sogar im GPU Limit schlechter, oder stottert alle paar Minuten (BF1). Desweiteren sehe ich nicht wirklich warum man DX12 so dringend braucht, grafisch ändert sich nix gegenüber DX11 und mit 4K und noch höheren Auflösungen in Zunkunft verschiebt sich das Limit noch weiter Richtung GPU, wenn die CPU keine befriedigenden FPS mehr ausspuckt wird eben die CPU ausgewechselt, und nicht auf DX12 gewartet. Schließlich müssen auch CPUs verkauft werden, man soll seinen alten Schinken doch nicht 15 Jahre behalten.
Ja in Tomb Raider hat es etwas gebracht, aber in DX12 hatte ich Grafikfehler (flackern an bestimmten Objekten) und in meiner Spielauflösung 3440x1440 hat es nix gebracht, da schon GPU Limit mit DX11.
dargo
2018-03-27, 09:18:56
Na dann können wir froh sein, dass die Entwickler keine Säue sind.
Demirug
2018-03-27, 09:20:11
Aber vielleicht darfst Du ja darüber sprechen wie FP16 und sonstige nette Spielereien in Dunia gelöst wurden. Ist das überhaupt noch Dunia? :uponder:
Mit Dunia habe ich nichts zu tun. Aber im Allgemeinen gibt es spezielle Backdoors der IHVs um GPU Features zu nutzen die eigentlich nicht von einer DX Version unterstützt werden.
Was hat Ubisoft?
Dunia (ging aus CryEngine 1 aka Far Cry 1 hervor), Snowdrop, AnvilNext (war das nicht ne Verschmelzung???)... So viele sind das nicht. Snow Drop wurde glaub ich mit Massive Entertainment eingekauft.
Es ist komplizierter als es von außen aussieht. ;)
Bist du bei Ubi? :)
https://www.gamasutra.com/view/pressreleases/206594/Envision_Entertainment_New_German_game_development_studio_upand_running.php
Den Rest musst du dir selbst zusammen reimen.
Bei solchen Sachen frage ich mich echt wozu der ganze Aufwand dann beim ersten Teil? Eigentlich sollte man meinen die ganzen Erfahrungen nimmt man für spätere Titel mit.
Ja und gerade dass reduziert die Wahrscheinlichkeit das man auf eine andere Renderapi als Minimum setzt.
dargo
2018-03-27, 09:25:48
Ja und gerade dass reduziert die Wahrscheinlichkeit das man auf eine andere Renderapi als Minimum setzt.
Achso... du meintest vorhin also kein natives DX12.
Locuza
2018-03-27, 10:29:42
Also können sie sogar Shader Intrinsic ohne DX12 nutzen vielleicht kommt das ja noch als Patch.
Ja, AMD bietet mehrere Shader Intrinsics unter DX11, 12 und Vulkan an:
https://github.com/GPUOpen-LibrariesAndSDKs/Barycentrics11/commit/194ca0f0b5b215397c505a00e10ffb9c47616868
DX12 von Ubisoft, guter Witz :D
The Division besitzt DX12 Support in ihrer Snowdrop-Engine.
Anno 1800 soll DX12 integrieren:
http://www.pcgameshardware.de/Anno-1800-Spiel-61247/News/Vorschau-Gamescom-1236693/
Und auf der GDC 2017 hat Ubisoft auch ihre Erfahrung mit der DX12 Integration unter der AnvilNext-Engine für ihre Assassin's Creed Spiele präsentiert:
https://www.gdcvault.com/play/1024656/Advanced-Graphics-Tech-Moving-to
Assassin's Creed Origins ist noch ohne DX12 veröffentlicht worden, vielleicht hat man Glück beim nächsten mal.
Jo... eher ist es verwunderlich, dass nach The Division nichts mehr mit DX12 kam. :freak: Vielleicht muss wirklich erstmal was wieder mit Snowdrop kommen.
[...]
South Park: The Fractured But Whole hat leider kein DX12-Support. :freak:
[...]
Was hat Ubisoft?
Dunia (ging aus CryEngine 1 aka Far Cry 1 hervor), Snowdrop, AnvilNext (war das nicht ne Verschmelzung???)... So viele sind das nicht. Snow Drop wurde glaub ich mit Massive Entertainment eingekauft.
Dunia (Far Cry), AnvilNext (AssCreed), Snowdrop (The Division, South Park), Disrupt (Watch Doge), UbiArt-Framework (Rayman, The Valiant Heart, Child of Light), die Anno-Engine, die Engine von RedLynx für die Trials-Spiele und vielleicht noch 20 weitere? :redface:
Als Außenstehender ist es leider nicht offensichtlich, wie viel Codesharing die Studios untereinander betreiben und wie ähnlich oder unterschiedlich die Engines ausfallen.
dargo
2018-03-27, 23:29:59
South Park: The Fractured But Whole hat leider kein DX12-Support. :freak:
Was ist denn das? :D Ich meine natürlich AAA-Titel.
Mich würde es sehr interessieren was Ubisoft dazu bewegt hat DX12 in The Division nachzureichen. Solche Internas gelangen leider nicht an die Öffentlichkeit. Der DX12 Renderer war auch wirklich gut gelungen. Bei manchen Patches haben sie die Frametimes komplett versaut. Später hat man aber wieder die Kurve gekriegt.
Locuza
2018-03-28, 08:07:54
Du meintest es muss vermutlich wieder etwas mit Snowdrop kommen, bevor wieder etwas mit DX12 erscheint.
South Park: The Fractured But Whole wurde mit der Snowdrop-Engine entwickelt. :)
Und wenn das Rendering-Backend wirklich gut ausfällt, dann ist der Typ und das Budget vom Spiel dann eig. auch egal.
Fifa 2018 hat auch DX12 Support, bloß läuft es dort soweit ich mich an PCGH Benches erinnere noch schlechter im Vergleich zu DX11, als bei den anderen Frostbite-Spielen.
So eine Situation braucht natürlich niemand.
Bezüglich Far Cry 5, laut Phil von PCGH und CB steht im Reviewer-Guide das RPM AMD exklusiv über Shader-Intrinsics umgesetzt worden sind, also wie vermutet:
Laut Reviewer's Guide (die tatsächlich mal halbwegs hilfreich ist) wird Rapit Packed Math bei Vega via Shader Intrinsics (die erlauben durch den closer-to-the-metal-artigen Zugriff auf die Shader den Nutzen des Features) genutzt, um die Wasserdarstellung und die Beleuchtung dort zu beschleunigen
http://extreme.pcgameshardware.de/news-kommentare-zu-action-spielen/504903-far-cry-5-im-technik-test-das-huebscheste-und-performanteste-far-cry-24.html#post9302691
dargo
2018-03-28, 09:30:02
Du meintest es muss vermutlich wieder etwas mit Snowdrop kommen, bevor wieder etwas mit DX12 erscheint.
South Park: The Fractured But Whole wurde mit der Snowdrop-Engine entwickelt. :)
Du weißt wie ich es meine. Ist ähnlich wie bei DICE. Frostbite kann auch DX11.1, trotzdem wirds nur durch DICE verwendet. Alle anderen Studios nehmen trotz gleicher Engine DX11.0. Wenn ich von Snowdrop spreche dann meine ich Spiele vom Kaliber The Division 2 oder das nächste Assassin’s Creed.
Bezüglich Far Cry 5, laut Phil von PCGH und CB steht im Reviewer-Guide das RPM AMD exklusiv über Shader-Intrinsics umgesetzt worden sind, also wie vermutet:
http://extreme.pcgameshardware.de/news-kommentare-zu-action-spielen/504903-far-cry-5-im-technik-test-das-huebscheste-und-performanteste-far-cry-24.html#post9302691
Hmm... bin gespannt ob FC5 ein Sonderfall war oder ob dieser "Hack" jetzt öfter in anderen Spielen bei der alten API Verwendung findet.
G3cko
2018-03-28, 12:42:21
Dx12 interessiert keine Sau. Seit 2015 gibt es DX12 und jeder Titel bis auf vlt. 1-2 war eine totale Enttäuschung damit. Meine Erfahrung ist, es läuft entweder gleich oder sogar im GPU Limit schlechter, oder stottert alle paar Minuten (BF1). Desweiteren sehe ich nicht wirklich warum man DX12 so dringend braucht, grafisch ändert sich nix gegenüber DX11 und mit 4K und noch höheren Auflösungen in Zunkunft verschiebt sich das Limit noch weiter Richtung GPU, wenn die CPU keine befriedigenden FPS mehr ausspuckt wird eben die CPU ausgewechselt, und nicht auf DX12 gewartet. Schließlich müssen auch CPUs verkauft werden, man soll seinen alten Schinken doch nicht 15 Jahre behalten.
Ja in Tomb Raider hat es etwas gebracht, aber in DX12 hatte ich Grafikfehler (flackern an bestimmten Objekten) und in meiner Spielauflösung 3440x1440 hat es nix gebracht, da schon GPU Limit mit DX11.
Dir ist aber schon klar, dass die Grafikleistung um ein vielfaches schneller steigt als die Singlethread-Performancegewinne bei CPUs. Entweder man bekommt sehr gutes Multithreading mit DX11 hin oder benötigt zwingend Low-level-APIs.
So oder so kommt man langfristig aber nicht um Löw-Level drum rum. Das zeigen ab Titel wie asassins creed welches gut mit Kernen skaliert und dennoch im overhead hängt. Auch mit nvidias wundertreiber.
Zum topic. Raytracing ist ja eine compute Berechnung. Könnte Vega hier auch mit halber genauigkeit rechnen?
Und was bringt primitiv shaders hier für einen mehrwert? Kann das jemand erläutern?
dildo4u
2018-03-28, 13:05:17
DX12 war wichtig als Intel 300€ für Quad Cores mit HT haben wollte.
AMD hat den Preis von CPUS so gedrückt das man selbst Open World gemütlich mit DX11 bauen kann.
Beide CPUs kosten um 170€.
1600 77 min fps:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=587513
i5 8400 90fps 45% schneller als der Quad Core .
https://www.computerbase.de/2018-03/far-cry-5-benchmark-test/3/
Ex3cut3r
2018-03-28, 18:45:54
Dir ist aber schon klar, dass die Grafikleistung um ein vielfaches schneller steigt als die Singlethread-Performancegewinne bei CPUs. Entweder man bekommt sehr gutes Multithreading mit DX11 hin oder benötigt zwingend Low-level-APIs.
So oder so kommt man langfristig aber nicht um Löw-Level drum rum. Das zeigen ab Titel wie asassins creed welches gut mit Kernen skaliert und dennoch im overhead hängt. Auch mit nvidias wundertreiber.
Zum topic. Raytracing ist ja eine compute Berechnung. Könnte Vega hier auch mit halber genauigkeit rechnen?
Und was bringt primitiv shaders hier für einen mehrwert? Kann das jemand erläutern?
Da weiß ich schon, aber AMD sei Dank, wird das jetzt auch langsamer von statten gehen als bisher. AMD wird 2018 nicht eine neue GPU releasen. Vega bleibt bis Mitte 2019 das Flaggschiff, und das obwohl eine 1070Ti oft gleich schnell ist, wir reden hier von einen Performance Chip von Mitte 2016.
Dazu Mining und die allgemeinen Teuren Preise, sei es für SSDs, GPUs oder RAM. Bisher auch eher schmächtige Game Ankündigung, zwischen Far Cry 5 und Shadow of the Tomb Raider liegen 6 Monate. HDR gibt es immer noch nicht zufriedenstellend für den PC Gamer usw. also das ist alles super enttäuschend.
Blediator16
2018-03-28, 19:03:30
Da weiß ich schon, aber AMD sei Dank, wird das jetzt auch langsamer von statten gehen als bisher. AMD wird 2018 nicht eine neue GPU releasen. Vega bleibt bis Mitte 2019 das Flaggschiff, und das obwohl eine 1070Ti oft gleich schnell ist, wir reden hier von einen Performance Chip von Mitte 2016.
Dazu Mining und die allgemeinen Teuren Preise, sei es für SSDs, GPUs oder RAM. Bisher auch eher schmächtige Game Ankündigung, zwischen Far Cry 5 und Shadow of the Tomb Raider liegen 6 Monate. HDR gibt es immer noch nicht zufriedenstellend für den PC Gamer usw. also das ist alles super enttäuschend.
Jetzt hat AMD Schuld :freak:;D
Kartenlehrling
2018-03-28, 20:41:00
https://blogs.msdn.microsoft.com/pix/2018/03/27/pix-1803-25/
PIX 1803.25 – GPU Occupancy, CPU sampling, automatic shader PDB resolution, and more
Auf jedenfall scheint sich Nvidia beim Pix Tool reinzuhängen, erinnert ein wenig an Facebook Datenweitergabe an Dritte.
Ex3cut3r
2018-03-28, 21:10:03
Jetzt hat AMD Schuld :freak:;D
Ne, aber ist schon traurig, wenn man 2 Jahre (gefühlte 3 J. aufgrund des Minings) keine High-End GPU ausliefern kann. Intel hat deswegen auch nur das gemacht, was nötig war...Konkurzenz ist für alle gut, aber so. :redface:
Naja, vlt. sehe ich das alles zu schwarz.
gravitationsfeld
2018-03-28, 21:25:28
DX12 war wichtig als Intel 300€ für Quad Cores mit HT haben wollte.
AMD hat den Preis von CPUS so gedrückt das man selbst Open World gemütlich mit DX11 bauen kann.
:rolleyes:
dargo
2018-03-28, 22:37:53
@Locuza
Jetzt haben wir es offiziell bezüglich Far Cry 5.
https://abload.de/img/zwischenablage06aypjk.jpg https://abload.de/img/zwischenablage07wgoqx.jpg
Quelle (https://www.youtube.com/watch?v=UL02UjZbTFk)
Finde das Video irgendwie witzig. :tongue:
Locuza
2018-03-28, 23:39:20
Du weißt wie ich es meine. Ist ähnlich wie bei DICE. Frostbite kann auch DX11.1, trotzdem wirds nur durch DICE verwendet. Alle anderen Studios nehmen trotz gleicher Engine DX11.0. Wenn ich von Snowdrop spreche dann meine ich Spiele vom Kaliber The Division 2 oder das nächste Assassin’s Creed.
Hmm... bin gespannt ob FC5 ein Sonderfall war oder ob dieser "Hack" jetzt öfter in anderen Spielen bei der alten API Verwendung findet.
Nicht sofort, da ich nicht wusste, ob du auch weißt das South Park mit der Snowdrop-Engine gemacht wurde.
Und ich habe ja das FIFA 2018 Beispiel mit DX12 genannt, ich denke nicht, dass man zwangsläufig von AAA-Spielen ausgehen muss.
Es macht natürlich je nach Spiel Sinn, nur bei denen mit entsprechender Last und/oder entsprechendem Budget und Qualitätssicherung DX12 zu implementieren.
[...]
Und was bringt primitiv shaders hier für einen mehrwert? Kann das jemand erläutern?
Ich nicht, aber wirklich relevant ist es auch nicht, da AMD keine entsprechenden Möglichkeiten und Schnittstellen bereitstellt.
Das ist entsprechend so oder so nur ein theoretischer Gedankengang.
[...]
Auf jedenfall scheint sich Nvidia beim Pix Tool reinzuhängen, erinnert ein wenig an Facebook Datenweitergabe an Dritte.
Könntest du hier deinen Denkmuster erörtern, die Sache mit Facebook und wie das ganze im Vergleich Sinn ergibt?
[...]
Finde das Video irgendwie witzig. :tongue:
Finde ich auch, auf jeden Fall besser als so trash Videos mit dem Fixxer.
Digidi
2018-03-28, 23:54:14
Und was bringt primitiv shaders hier für einen mehrwert? Kann das jemand erläutern?
Primitive Shader bringen eine sehr hohe culling rate. Das heißt Polygonen die nicht im Sichtfeld sind werden schnell aussortiert und belasten so nicht den Rest der Pipeline.
Man könnte also mehr Polygonen durchsetzen und damit die Pipeline besser auslasten uns gleichzeitig unnütze Arbeit von der Pipeline fernhalten.
Soll in der Vulkan API kommen. Siehe die Patente dazu.
http://www.freepatentsonline.com/20180082399.pdf
http://www.freepatentsonline.com/20180082470.pdf
source:
https://forum.beyond3d.com/threads/amd-vega-10-vega-11-vega-12-and-vega-20-rumors-and-discussion.59649/page-258
@Locuza
Eine Schnittstelle in der API von Vulkan soll doch kommen, die Frage ist ob es einer nutzt.
gravitationsfeld
2018-03-29, 01:24:29
Nur weil etwas in Patenten steht, heisst es noch lange nicht, dass es so implementiert wurde oder in eine API kommt.
Digidi
2018-03-29, 05:20:27
AMD bietet ja schon den Entwicklern an es zu implementieren. Das nimmt halt nur keiner an.
Es wäre schön wenn Entwickler und Journalisten den Druck hoch halten auf diesem Feature und würde begrüßen wenn AMD eine Tech Demo bringt wo das Feature Mal getestet wird.
gravitationsfeld
2018-03-29, 07:00:26
Nein, tun sie nicht. Es gibt keine API fuer Primitive Shader.
Locuza
2018-03-29, 09:17:46
[...]
@Locuza
Eine Schnittstelle in der API von Vulkan soll doch kommen, die Frage ist ob es einer nutzt.
Du hast den Sachverhalt von Timothy Lottes von AMD doch gelesen:
@TimothyLottes btw what happened to Primitive Shaders? There's barely any info other than marketing stuff. I was looking forward to it
CS index culling + draw merging is a portable solution. Given how many devs have yet to adopt a portable solution, it is hard to justify exposing an AMD specific solution when we have a lot of other higher priority Vulkan tasks pending.
https://twitter.com/TimothyLottes/status/970441675175813120
Das war am vierten März 2018, in den nächsten Monaten würde ich damit überhaupt nicht rechnen und wenn AMD mal eine Schnittstelle definiert hat, stellt sich dann die Frage, ob alle Möglichkeiten verfügbar sein werden und wer sich die Mühe machen wird ein AMD exklusives Feature umzusetzen, welches dann aktuell auch nur unter einer GPU-Familie funktioniert.
AMD wird sich da höchstwahrscheinlich erst "einkaufen" müssen, bevor irgendein Studio von sich aus grünes Licht für so ein Nischenexperiment gibt.
grauenvoll
2018-03-29, 09:24:56
Primitive Shader können wir begraben. Da wird nichts mehr passieren.
dargo
2018-03-29, 10:02:52
Och... würde ich jetzt nicht unbedingt sagen. Hängt alles davon ab wie erfolgreich Vega langfristig wird. Neben Vega 10 haben wir ja noch Raven Ridge und Intel NUC. Kurzfristig würde ich da natürlich keine Wunder erwarten.
Edit:
@Locuza
Jetzt haben wir es offiziell bezüglich Far Cry 5.
https://abload.de/img/zwischenablage06aypjk.jpg https://abload.de/img/zwischenablage07wgoqx.jpg
Quelle (https://www.youtube.com/watch?v=UL02UjZbTFk)
Finde das Video irgendwie witzig. :tongue:
Lol... schon am 07.01.18 gabs dazu offizielle Infos. :D
https://www.youtube.com/watch?v=6FKFjAFnGJA#t=1m05s
Ist irgendwie an mir vorbei gegangen. :redface:
Locuza
2018-03-29, 11:30:16
Es steht so aber nicht fest, wie RPM umgesetzt wird und bezüglich Shader-Intrinsics hätte ich jedenfalls gerne mehr Informationen darüber, welche genau verwendet werden und welche Performancewerte sich daraus ergeben.
So ist das Ganze eine grobe Angabe.
dargo
2018-03-29, 12:19:51
Klar, mehr Details wären mir auch lieber.
Digidi
2018-03-29, 16:28:32
Nein, tun sie nicht. Es gibt keine API fuer Primitive Shader.
Laut AMD soll eine Erweiterung der API kommen und man könnte jetzt schon mit Devs anscheind darn arbeiten. Natürlich kann man sich darüber streiten wann es kommt.
Ich bin mir ziemlich sicher das es kommt. Die Intel GPUs und Navi werden auch noch auf diese Technik setzen.
][immy
2018-03-29, 17:17:06
Laut AMD soll eine Erweiterung der API kommen und man könnte jetzt schon mit Devs anscheind darn arbeiten. Natürlich kann man sich darüber streiten wann es kommt.
Ich bin mir ziemlich sicher das es kommt. Die Intel GPUs und Navi werden auch noch auf diese Technik setzen.
Das kann (was Spiele angeht) zumindest sinnvoller eingesetzt werden, als das was NVidia letzte Tage präsentiert hat mit dem Ray-Tracing.
Allerdings sind Polygone heutzutage immer noch so sehr die bremse das sich das lohnt? Bisherige Culling-Verfahren arbeiten doch (soweit ich weiß) auch schon recht gut.
gravitationsfeld
2018-03-30, 18:20:28
Kann es nicht, weil es keine API gibt.
Digidi
2018-03-30, 23:11:26
Kann es nicht, weil es keine API gibt.
Sia arbeiten aber dran
The company explained that instead of being an "it just works" affair, full support for primitive shaders will require explicit inclusion in future versions of APIs like Direct3D 12 and Vulkan. Unlike some Vega features, AMD says that "primitive shader support isn't something we can just turn on overnight and it happens," noting instead that it'll need to work with the development community to bring this feature to future API versions.
https://techreport.com/news/33153/radeon-rx-vega-primitive-shaders-will-need-api-support
gravitationsfeld
2018-03-31, 09:29:55
Solang es nicht konkret irgendwo in einer Spec steht ist das Marketing-Gefasel.
Kartenlehrling
2018-03-31, 10:52:47
Update 31.03.2018 09:35 Uhr
Interessierte Entwickler können ab sofort mit den Arbeiten an der Umsetzung von DirectX Raytracing in Spielen beginnen.
Der entsprechende DirectX-12-Layer für den Kompatibilitätsmodus auf bereits verfügbarer Hardware wurde von Microsoft auf GitHub zur Verfügung gestellt.
https://www.computerbase.de/2018-03/directx-12-raytracing-dxr/#update2
dildo4u
2018-04-17, 11:28:18
moKV5_BpxjM
Lightning
2018-04-17, 19:51:02
Der Beitrag wurde entsprechend sanktioniert, weil er über den Rahmen einer ordentlich Diskussion hinausging.
Ab hier bitte wieder zurück zum Thema.
josefYY
2018-04-17, 20:37:25
@gravitationsfeld: darf ich fragen wo du tätig bist?
Screemer
2018-04-17, 23:16:39
Del. da ich nicht sicher bin ob er will, dass das hier wieder breit getreten wird.
BigKid
2018-04-19, 14:49:42
Mal eine Frage: Ich hab mir das Thema eGPU mal (wieder) angesehen da mein Gaming Notebook a) durch Gewicht und b) durch Lautstärke immer noch nicht das Optimium ist (nur der aktuell beste Kompromiss - für mich).
Er hat aber einen Thunderbolt Anschluss weshalb ich mal mit dem HP Omen rummgespielt habe um zu sehen ob das generell denn eine Option für die nähere Zukunft wäre.
Für mich überraschendes Resultat: Meine MSI GTX1070 Gaming war am Ende c.a. 15% im 3DMark langsamer als die interne GTX1070. Der Vergleich ist nicht ganz einfach, da die GTX1070 in Laptops mehr Einheiten hat und dafür niedriger Taktet - gleichzeitig aber auch ein deutlich niedrigeres Power Limit hat. Am Ende fand ich die Differenz dann doch heftig (die GTX1070 im Laptop ist sicher schon ~10% langsamer als im Desktop - und darauf nun nochmal 15% ?)
(Und eh jetzt jemand fragt: Ich hatte halt zugriff auf beides... ich würde natürlich keine GTX1070 als eGPU für ein Notebook das schon eine GTX1070 intern hat kaufen).
Nun ist es klar, dass durch den Thunderbolt Anschluss sicher Performance im Vergleich zu nem PCIe auf der Strecke bleibt.
Weshalb ich das nun hier poste: Könnte DirectX12 hier eigentlich auch helfen ? Man spricht immer davon dass es im CPU Limit hilft - aber wie siehts eigentlich aus wenn man im Bandbreiten Limit hängt ?
gravitationsfeld
2018-04-20, 00:51:09
Vielleicht. Eher nicht. Kommt drauf an. Weil der Entwickler in DX12 asynchrone DMA-Transfers explizit benutzen kann, kann es vielleicht etwas effizienter die vorhandene Bandbreite verwenden. Ich wuerde aber eher nicht davon ausgehen.
Locuza
2018-05-03, 22:57:11
World of Warcraft: Battle of Azeroth hat sei paar Tagen eine Beta-Phase und ein paar Leute haben schon den DX12-Renderer ausprobiert:
https://us.battle.net/forums/en/wow/topic/20762288174
Aktuell gibt es noch crashes und AA wird nicht unterstützt, aber ansonsten scheint es einen Tick schneller zu laufen, als unter DX11:
Tested with a budget AMD card as these are supposed to be good with DirectX12. The RX-480 got a nice 10fps improvement with the same quality settings. Played for a good few hours. Seemed stable but did notice when the fps dipped, as it sometimes does as your move through different areas and stuff is loading, it seemed to dip a lot more noticeably with DirectX 12.
Und folgendes System:
It's an i7 8700k running at 4.9
Gtx 1070
Hat auch ~17% höhere FPS-Werte erreicht (89,8 FPS vs. 104,9 FPS):
https://imgur.com/a/hUjzdyV
Das Lightning unter DX12 für einige Lichtquellen ist aber kaputt, entsprechend ist das ganze nicht repräsentativ.
Immerhin implementiert das größte MMO DX12 und zum Launch gibt es hoffentlich gute Ergebnisse.
Kartenlehrling
2018-06-26, 00:37:04
Today we released PIX 1806.20 which provides GPU Occupancy for AMD GPUs.
GPU Occupancy for AMD GPUs provides detailed insight into how shader workloads execute on the GPU.
Many thanks to our partners at AMD for helping us enable this great feature in PIX on Windows.
While the Execution Duration timeline lane shows the total execution time for draws and
other rendering operations, the new Occupancy lane shows the associated work as it moves through the GPU’s rendering pipeline.
You’ll see how work is broken into vertex shader work, pixel shader work,
and so forth giving you a much more accurate view of how the hardware handles your rendering.
The Occupancy lane shows VS, HS, DS, GS, PS, and CS work corresponding to the different pipeline stages as well
as a stage labeled Internal which allows GPU vendors to account for work that doesn’t map to any of the conventional pipeline stages.
With this release GPU Occupancy is available for both AMD and NVIDIA GPUs.
Fixed several bugs. Thanks to all of you out there who reported issues!
As always, please let us know if you have feedback on any of the features in PIX on Windows.
https://blogs.msdn.microsoft.com/pix/2018/06/25/pix-1806-20-gpu-occupancy-for-amd-gpus/
PIX 1806.20 – GPU Occupancy for AMD GPUs
Troyan
2018-07-19, 12:13:49
Wieder mal eine Glanzleistung von DX12: https://www.computerbase.de/2018-07/world-of-warcraft-wow-dx12-directx-12-benchmark/2/#diagramm-prozessor-benchmarks-auf-einer-gtx-1080-1920-1080
im CPU-Limit ist der nVidia-Treiber erheblich schneller. Er ist auch schneller als DX12 auf AMD-Seite. ;D
vinacis_vivids
2018-07-19, 13:06:13
Nvidia kann kein ordentliches DX12, wie oft denn noch?
Troyan
2018-07-19, 13:08:18
Seit wann ist nVidia für "ordentliches DX12" verantwortlich? Dachte ja eigentlich, das wäre eine Entwicklersache mit den Low-Level APIs. Lmao.
unl34shed
2018-07-19, 13:28:37
Hardwareimplementierung ist immernoch Nvidias Aufgabe und da haben sie "geschlampt". Async Compute zB.
AwesomeSauce
2018-07-19, 13:39:47
Was ist das denn für eine Logik? Angenommen, Nvidia zieht keine Verbesserungen aus DX12, warum ist es dann so erheblich langsamer als DX11 (bleiben wir mal bei WoW)? Die Entwickler haben doch jetzt volle Kontrolle. Vielleicht wissen die Nvidia Treiber Entwickler wohl eher eine NV GPU auszulasten als ein durchschnittlicher Game-Entwickler...
aufkrawall
2018-07-19, 13:44:50
Dass DX11 offenbar im CPU-Limit auf Nvidia schneller als DX12 auf AMD läuft, ist schon absolut lächerlich. Unnützes Schrott-Update einer Gammel-Engine...
Edit: Ich sehe allerdings gerade im WoW-Thread, dass der CB-Test offenbar absoluter Müll sein soll.
Linmoum
2018-07-19, 14:02:02
Auf 'ner Vega64 (und einem 1600 @3,8GHz) hab ich deutliche fps-Gewinne mit DX12. Wenn's ans CPU-Limit geht versteht sich natürlich. Aus diesem Grund behaupte ich auch, dass CB letzteres nicht berücksichtigt hat. Was den ganzen Test ad absurdum führen würde.
vinacis_vivids
2018-07-19, 14:22:33
Vielleicht wissen die Nvidia Treiber Entwickler wohl eher eine NV GPU auszulasten als ein durchschnittlicher Game-Entwickler...
Deswegen läuft der DX12-Treiber bei NV ja immer zur höchstform auf :facepalm:
Daredevil
2018-07-19, 14:34:18
Vielleicht kann man ja auch einfach nicht mehr viel optimieren und die Entwicklung macht dort mit der Pascal Architektur einfach keinen Sinn mehr.
Ist ja jetzt nicht so, als hätte es Nvidia nötig, das aktuellste Beispiel ist da ja gerade WoW.
AMD in DX12 schneller als vorher, Nvidia in DX11 aber allgemein schneller. Warum soll man sich also die Kosten geben, wenn das aktuelle Produkt eh besser funktioniert?
Selbst wenn Nvidia sich mit Turing nur auf Rohperformances ( Pascal +30% ) konzentriert und nicht viel mit DX12 am machen ist, ist das doch allgemein die sicherere Option.
Lieber habe ich ne Karte die überall durch die Bank schnell ist, als eine Karte, die für jedes Spiel irgendwie optimiert werden muss um dann "richtig schnell" zu laufen.
aufkrawall
2018-07-19, 14:44:24
Blizzard dürfte zig Jahre sehr eng mit NV für die beste DX11-Performance zusammengearbeitet haben, da ist sicher ne Tonne an gezielten Optimierungen im Treiber aktiv. Über das DX12-Schmankerl kann man sich als AMD-Nutzer freuen, mit NV kann es einem in diesem Spiel schlicht egal sein.
Daredevil
2018-07-19, 14:48:57
Vor allem ist das Potential bei einer 100%@DX11 Karte auch deutlich höher als bei einer, die nur 80%@DX12 packt. Sich darüber freuen, dass DX12 "kaputt" ist kann man sich auch nur solange, bis Nvidia ne gescheite DX12 Lösung findet. BFA ist schließlich noch nicht erschienen.
BlacKi
2018-07-19, 15:00:38
Auf 'ner Vega64 (und einem 1600 @3,8GHz) hab ich deutliche fps-Gewinne mit DX12. Wenn's ans CPU-Limit geht versteht sich natürlich. Aus diesem Grund behaupte ich auch, dass CB letzteres nicht berücksichtigt hat. Was den ganzen Test ad absurdum führen würde.
absurdum? ich würde sagen, der test ist nicht umfangreich genug ausgearbeitet worden. das trifft aber auch auf die meisten anderen tests zu, die werte sind ohne weitere cpu gpu kombos kaum aussagekräftig. oder man schaltet die gemischten limits aus. also gpu tests ohne cpu limit, und cpu tests ohne gpu limit. dieses problem sehe ich in den meisten benchmarks.
aus einem benchmarkparkour mit gemischtem gpu und cpu limit kann man eben keine schlüsse ziehen.
Blediator16
2018-07-19, 15:06:38
3570k stock und asus 1060 6gb strix stock mit dx12 erheblich schlechter als mit dx11 in dalaran.
Im GPU Limit profitiert Intel am meisten, immerhin 9%. Nur die Speicheranforderung scheint beim Start anspruchsvoller zu sein für eine GPU mit langsamer DDR4 Anbindung.
WoW DirectX 11 vs. DirectX 12: Ausprobiert auf Ryzen 5 2400G mit Vega-11-GPU (http://www.pcgameshardware.de/World-of-Warcraft-Spiel-42971/Videos/World-of-Warcraft-DirectX-11-vs-DirectX12-Ryzen-5-2400G-1261157/)
Nicht so geil. Frametime-Spikes aka Nachladeruckler, aber ohne Gegenwert.
MfG,
Raff
Grendizer
2018-07-19, 17:38:45
WoW DirectX 11 vs. DirectX 12: Ausprobiert auf Ryzen 5 2400G mit Vega-11-GPU (http://www.pcgameshardware.de/World-of-Warcraft-Spiel-42971/Videos/World-of-Warcraft-DirectX-11-vs-DirectX12-Ryzen-5-2400G-1261157/)
Nicht so geil. Frametime-Spikes aka Nachladeruckler, aber ohne Gegenwert.
MfG,
Raff
30 fps in Stormwind ? Was kommt den da in Suramar raus ? Und vor allem, das nähert sich ja dann vermutlich Richtung unspielbar für BFA.
gravitationsfeld
2018-07-19, 18:43:24
WoW DirectX 11 vs. DirectX 12: Ausprobiert auf Ryzen 5 2400G mit Vega-11-GPU (http://www.pcgameshardware.de/World-of-Warcraft-Spiel-42971/Videos/World-of-Warcraft-DirectX-11-vs-DirectX12-Ryzen-5-2400G-1261157/)
Nicht so geil. Frametime-Spikes aka Nachladeruckler, aber ohne Gegenwert.
MfG,
Raff
Ich vermute das ist wieder wegen kompilierden Shadern. Fail.
just4FunTA
2018-07-19, 19:20:04
Ich vermute das ist wieder wegen kompilierden Shadern. Fail.
was hat es denn damit auf sich? werden bei jedem Start neu Kompiliert während unter dx11 die Shader im Cache liegen oder wie?
Wolfenstein 2 läuft beim ersten Spielstart auch langsamer als nach dem zweiten. ;) Neben weiteren Spielen. Ich frage mich, was so schwer daran ist, alle Shader beim ersten Spielstart zu zimmern und abzulegen.
MfG,
Raff
Ex3cut3r
2018-07-19, 21:53:46
Mein Fazit nach 3,5 Jahren DX12.
DX12 ist einfach ein Fail. Ich habe da schon längst die Hoffnung aufgegeben, dazu gibt es teilweise solche bescheuten Restriktionen wie, kein richtiges Vollbild, also Dekstop wird im Hintergrund weiter dargestellt, das gibt mehr Input Lag und die FPS und auch die Frametimes sind einfach ein Ticken schlechter. Bis auf Hitman, ROTTR, bringt es einfach mal gar nix, sei es AMD oder Nvidia, im gegenteil im GPU Limit sind die FPS niedriger als mit DX11 und bei allen DX12 "Spielen" außer die eben genannten stockt es mit DX12 immer mal wieder vor sich hin, ohne Grund. Lächerlich. Vulkan mit Doom 2016 und Wolfenstein 2 haben mich da weit aus mehr überzeugt.
WoW DirectX 11 vs. DirectX 12: Ausprobiert auf Ryzen 5 2400G mit Vega-11-GPU (http://www.pcgameshardware.de/World-of-Warcraft-Spiel-42971/Videos/World-of-Warcraft-DirectX-11-vs-DirectX12-Ryzen-5-2400G-1261157/)
Nicht so geil. Frametime-Spikes aka Nachladeruckler, aber ohne Gegenwert.
MfG,
Raff
Sehr gutes Video, danke dafür.
Troyan
2018-07-19, 21:54:17
Was ist das denn für eine Logik? Angenommen, Nvidia zieht keine Verbesserungen aus DX12, warum ist es dann so erheblich langsamer als DX11 (bleiben wir mal bei WoW)? Die Entwickler haben doch jetzt volle Kontrolle. Vielleicht wissen die Nvidia Treiber Entwickler wohl eher eine NV GPU auszulasten als ein durchschnittlicher Game-Entwickler...
Über Twitter anzugeben, wie toll man ist und wieso man LL-Apis benötigen würde, ist eben einfacher als wirklich richtig gute Arbeit abzuliefern.
Bei Youtube habe ich das gefunden: https://www.youtube.com/watch?v=6oS9GYv6ukY
Muss man eigentlich nicht viel dazu sagen. Der DX11 Treiber von nVidia ist eben so dermaßen gut, dass es im Grunde eine reine Zeitverschwendung ist diesen per DX12 abbilden zu wollen.
Savay
2018-07-19, 22:24:26
Nicht so geil.
Probier mal Varimathras in nem 20er Raid aus!
Da dümpelte meine Vega64 (mit nem 2700X) bisher in 7.x@DX11 fast durchweg mit imposanten 40W ASIC rum...und das nicht wegen einer besonders tollen UV Leistung. :tongue:
Mit DX12 hat sich die Performance da ungefähr verdoppelt.
Wieviel besser es wirklich ist, ist schwer zu sagen da vorher der Detailregler auf 5 stand...beim Run gestern aber auf 7...trotzdem kam der Kampf unter 7.x@DX11 bei ca ~30FPS raus wohingegen 8.x@DX12 zu meinem absoluten Erstaunen eher bei ~50-60FPS+ lag.
In den Hauptstädten ist das entgegen anders lautender Gerüchte ehrlich gesagt gar nicht so einfach nen echtes CPU Limit zu erzeugen...schon gar nicht mit dem Detailregler auf 10!
Um ehrlich zu sein bin ich ziemlich raus aus dem WoW-Geschehen. Meine Suchti-Zeit ist über zehn Jahre her. Ich hoffe aber auf ein paar nette Stunden mit dem neuen Addon. Und vor allem, dass man da schnell an hübsche, fiese und gleichzeitig reproduzierbare Szenen herankommt. Die letzte ihrer Art war das große Portal in Warlords of Draenor.
MfG,
Raff
Savay
2018-07-19, 22:35:12
Outdoor ist es mittlerweile aber irgendwie recht heftig GPU limitiert...vor allem mit aufgerissenen Details.
Ich hab heute und gestern schon gesucht aber mit "nur" nem 2700X als Unterbau ist das ausserhalb von Raids bisher schon schwer die Vega nicht auf fast 99% auszulasten...insbesondere, aber nicht nur mit maximalen Details.
Da musst du dann schon nen Zeitpunkt erwischen wo 20-40 Leute sich Outdoor mal wo tümmeln und irgendwas niederzergen.
Ich denke an einem der kommenden Worldbosse hat man wenn überhaupt am ehesten eine derartige Chance (auch wenn die in Legion nie ein echtes FPS Problem waren)
gravitationsfeld
2018-07-19, 22:37:21
Wolfenstein 2 läuft beim ersten Spielstart auch langsamer als nach dem zweiten. ;) Neben weiteren Spielen. Ich frage mich, was so schwer daran ist, alle Shader beim ersten Spielstart zu zimmern und abzulegen.
MfG,
Raff
Was meinst du mit "langsamer"?
Die Shader werden immer gleich kompiliert. Wenn's einen Unterschied gibt dann im Treiber.
Savay
2018-07-19, 22:39:42
Hat AMD deswegen nicht diesen ominösen und abschaltbaren Shadercache Schalter im Menü versteckt?
Bringt der überhaupt was?! :biggrin:
Ich hab noch nie ausprobiert den mal auszustellen.
Zugeschaltetes MSAA läuft bei mir unter DX12 in WoW übrigens reproduzierbar schneller als unter DX11...auch im GPU Limit...gibt es dafür eine Erklärung?!
Outdoor ist es mittlerweile aber irgendwie recht heftig GPU limitiert...vor allem mit aufgerissenen Details.
Ich hab heute und gestern schon gesucht aber mit "nur" nem 2700X als Unterbau ist das ausserhalb von Raids bisher schon schwer die Vega nicht auf fast 99% auszulasten...insbesondere aber nicht nur mit maximalen Details.
Da musst du dann schon nen Zeitpunkt erwischen wo 20-40 Leute sich Outdoor mal wo tümmeln und irgendwas niederzergen.
Ich denke an einem der kommenden Worldbosse hat man wenn überhaupt am ehesten eine derartige Chance (auch wenn die in Legion nie ein echtes FPS Problem waren)
Interessant – danke für deine Einschätzung und Beobachtung. :) Ich war auch schon erstaunt, wie GPU-lastig WoW 8.0 auf "kleinen" GPUs bzw. APUs ist, schob das aber auf die Probanden. Wird Zeit, dass Blizzard weitere Infos zur Technik rausrückt. Was da auch gemacht wurde, es zieht Leistung, die keine gut sichtbaren Ergebnisse bringt.
Was meinst du mit "langsamer"?
Die Shader werden immer gleich kompiliert. Wenn's einen Unterschied gibt dann im Treiber.
Einfach mal machen:
- Treiber mittels Neuinstallation draufpacken (dabei werden alte Einstellungen gelöscht)
- Wolfenstein 2 starten, etwas herumrennen und dabei auf die Fps achten. Dann raus aus dem Spiel und nochmal starten.
- Tadaa – die Bildrate ist mehr oder minder deutlich höher. War man vorher nur drei Sekunden ingame, reicht es nicht. Wie lange da gewurschtelt wird: kA.
Ich kann das sowohl mit dem "Mittel"-Preset als auch mit aufgerotzten Details auf einer Geforce reproduzieren, hatte aber bisher keine Zeit für eine Ursachenanalyse. Schauplatz Mahattan. Entweder das liegt an den treibereigenen Shader-Caches oder an der recht neuen Steam-Pre-Caching-Funktion. Betrifft laut Steam-eigener Info nur OpenGL und Vulkan. Das Feature hat mich schon mal getrollt; da half ebenfalls ab- und wieder einschalten. Dürfte aber nur bei Quervergleichen mit oft gewechselten IHVs problematisch sein.
MfG,
Raff
Savay
2018-07-19, 22:53:12
Was da auch gemacht wurde, es zieht Leistung, die keine gut sichtbaren Ergebnisse bringt.
Nicht falsch verstehen...bei meinem Setup und Settings ist das Spiel nicht langsamer als vorher...im Gegenteil...im Worst-Case ist es echt signifikant besser geworden.
Der Varimathras Kampf ist bisher wirklich der mit Abstand größte CPU Bremsklotz der mir in diesem Addon einfällt und der "reproduzierbar" auch jedesmal ähnlich übel über die gesamte Kampflänge war. :)
Da hattest du wirklich ungefähr 5 Minuten ein reines hartes CPU Limit bei 20-35 FPS am Stück bis der Boss endlich tot war. (war BTW auch mit der GTX970 auf dem Xeon Haswell so!)
Ich habe nur Outdoor das Problem, dass die CPU offensichtlich schon schlicht "zu schnell" ist für die GPU! :wink:
Was bei mir aber wirklich reproduzierbar ist, ist der Einfluss von MSAA.
Grendizer
2018-07-19, 23:09:11
Nicht falsch verstehen...bei meinem Setup und Settings ist das Spiel nicht langsamer als vorher...im Gegenteil...im Worst-Case ist es echt signifikant besser geworden.
Der Varimathras Kampf ist bisher wirklich der mit Abstand größte CPU Bremsklotz der mir in diesem Addon einfällt und der "reproduzierbar" auch jedesmal ähnlich übel über die gesamte Kampflänge war. :)
Da hattest du wirklich ungefähr 5 Minuten ein reines hartes CPU Limit bei 20-35 FPS am Stück bis der Boss endlich tot war. (war BTW auch mit der GTX970 auf dem Xeon Haswell so!)
Ich habe nur Outdoor das Problem, dass die CPU offensichtlich schon schlicht "zu schnell" ist für die GPU! :wink:
Was bei mir aber wirklich reproduzierbar ist, ist der Einfluss von MSAA.
Ja .. mit 8x MSAA bei QHD bekommt man dann auch bei einer 1080 in Suramar nur noch so um die 40 fps.
gravitationsfeld
2018-07-20, 02:44:31
Einfach mal machen:
- Treiber mittels Neuinstallation draufpacken (dabei werden alte Einstellungen gelöscht)
- Wolfenstein 2 starten, etwas herumrennen und dabei auf die Fps achten. Dann raus aus dem Spiel und nochmal starten.
- Tadaa – die Bildrate ist mehr oder minder deutlich höher. War man vorher nur drei Sekunden ingame, reicht es nicht. Wie lange da gewurschtelt wird: kA.
Ich kann das sowohl mit dem "Mittel"-Preset als auch mit aufgerotzten Details auf einer Geforce reproduzieren, hatte aber bisher keine Zeit für eine Ursachenanalyse. Schauplatz Mahattan. Entweder das liegt an den treibereigenen Shader-Caches oder an der recht neuen Steam-Pre-Caching-Funktion. Betrifft laut Steam-eigener Info nur OpenGL und Vulkan. Das Feature hat mich schon mal getrollt; da half ebenfalls ab- und wieder einschalten. Dürfte aber nur bei Quervergleichen mit oft gewechselten IHVs problematisch sein.
MfG,
Raff
Muss am Treiber liegen. Wolf 2 hat selber ueberhaupt nichts was Shader im Dateisystem speichert.
aufkrawall
2018-07-20, 14:58:33
Jetzt gibts mit WoW das erste Opfer der WDDM 2.4 borderless-Verwirrung:
Nachdem mit WDDM 2.3 und CU2/1709 DX11 borderless gleich DX12 war (Vsync off, sofern nicht angefordert), ist es mit WDDM 2.4 und 1803 wieder so wie noch mit 1703 (DWM-Vsync im borderless mit DX11 nicht abschaltbar).
Blizzard scheint das aber nicht zu wissen und streicht einfach fullscreen exclusive für DX11. :freak:
Diese Microsoft-Hampel haben nur noch Stroh im Kopf...
gravitationsfeld
2018-07-20, 18:02:59
Ich vermute sie haben es wieder entfernt, weil es zu viele Probleme gemacht hat. 1709 hatte absurd viele Bugs. Mal sehen ob sie es naechstes Mal hinbekommen.
aufkrawall
2018-07-20, 18:11:08
Ich hoffe, AMD bringt noch für Vulkan einen borderless-Modus. Bisher gibts nur exclusive und der bringt mpv beim Verlassen des Vollbild-Moduses immer kurz zum Einfrieren.
Meintest du nicht, das Linux-Windowing gehört auf den Müll? Dann gehört der Windows-Crap ins All geschossen. :freak:
Ex3cut3r
2018-07-20, 19:36:16
Jetzt gibts mit WoW das erste Opfer der WDDM
Diese Microsoft-Hampel haben nur noch Stroh im Kopf...
Kann ich nur zustimmen, dazu noch diese "Vollbild Optmierungen" der größte Rotz ever, was habe die bei MS nur geraucht?
aufkrawall
2018-07-20, 20:21:40
Die Vollbildoptimierungen haben überhaupt erst Vsync off im DX11 borderless mit WDDM 2.3 erlaubt. ;)
Ex3cut3r
2018-07-20, 20:40:41
Ok. Ich spiele aber nie im Borderless irgendwas, ich will einfach im Vollbild ohne Desktop im Hintergrund spielen, alle System Ressourcen sollen der Vollbild App/Spiel zur Verfügung gestellt werden, Spikes/Mini Ruckler sollen minimiert werden, stattdessen muss ich für jedes Spiel, immer in den Kompatibilitäts Tab und per Hand für jedes Game einzeln, die Vollbild Optimierungen deaktivieren, gut, ich hab nur 10 Spiele installiert, aber man stelle ich sich vor ich hätte 50 Games installiert.
gravitationsfeld
2018-07-20, 21:13:55
Ich hoffe, AMD bringt noch für Vulkan einen borderless-Modus. Bisher gibts nur exclusive und der bringt mpv beim Verlassen des Vollbild-Moduses immer kurz zum Einfrieren.
Meintest du nicht, das Linux-Windowing gehört auf den Müll? Dann gehört der Windows-Crap ins All geschossen. :freak:
Selbst im jetztigen Zustand is es um ein billionenfaches besser als X11.
aufkrawall
2018-07-20, 22:01:18
Spiele laufen auf Xorg optimal.
Selbst im jetztigen Zustand is es um ein billionenfaches besser als X11.
Was hast denn fuer ein Problem damit? Ernsthafte Frage, falls man das dazusagen muss.
In Serious Sam Fusion läuft DX12 deutlich schlechter als Vulkan auf der GTX 1080. Im GPU Limit sind beide langsamer als DX11, im CPU Limit jedoch kann sich Vulkan absetzen. DX12 bringt selbst im CPU Limit keine Vorteile.
aufkrawall
2018-07-21, 00:17:38
Mit Vulkan sind die Frametimes wegen Shader Compile kaputt, es freezt teilweise für hunderte ms.
Bezüglich WoW Dx12:
System:
AMD Threadripper 1950x (kein OC)
AMD Fury 1050 / 500 (18.7.1)
Windows 10 1803
WoW BETA 8.0.1 (27144)
Standort: Dazar'alor / Das große Siegel (Richtung Norden schauend) / Questabgabeort für: "Rastakhan"
Abkürzungen:
SW: Sichtweite
x / y: x = Mit Interface / y = Ohne Interface
1920 x 1080 Details: 10
DX 12: 62 / 64
DX 11: 42 / 44
3840 x 2160 Details: 10
DX 12: 53
DX 11: 47 / 50
3840 x 2160 Details: 7
DX 12: 76
DX 11: 66 / 69
3840 x 2160 Details: 10 (SW 1)
DX 12: 64
DX 11: 67
1920 x 1080 Details: 10 (SW 1)
DX 12: 82 / 90
DX 11: 66 / 71
960 x 540 Details: 10 (SW 1)
DX 12: 82 / 86
DX 11: 63 / 65
960 x 540 Details: 1
DX 12: 200 / 235
DX 11: 147 / 165
3840 x 2160 Details: 1
DX 12: 180 / 205
DX 11: 143 / 159
Besonders interessant:
- Ein echtes GPU-Limit liegt eigentlich nur bei 4k mit Details auf 10 (SW 1) vor, alles andere ist CPU Limit
- DX 12 ist im CPU-Limit teils deutlich schneller (50%), kann es jedoch nicht komplett aufheben
- DX 11 lastet im CPU-Limit einen Kern zu 100%, einen zweiten zu 50% aus
- DX 12 lastet im CPU-Limit nur einen Kern zu 100% aus
- Das Interface erhöht das CPU-Limit, wird es ausgeblendet steigen die fps teils deutlich (200 -> 235)
- Downsampling / Upsampling kostet auch CPU Leistung, sichtbar an den 960 x 540 Werten verglichen mit 1920 x 1080 auf gleicher Detailstufe
DinosaurusRex
2018-07-22, 16:37:59
Hat jetzt zwar nix direkt mit DX12 zu tun, da ich Win7 + DX11 Karte nutze, aber WoW erlaubt mir kein MSAA mehr, was vorher problemlos möglich war. Und wenn ich irgendwelche Grafikdetails verringere, ist die Framerate schlechter als mit der von Blizzard für meinen Rechner empfohlenen Einstellung. Eigentlich ist das Spiel überhaupt nur noch mit der empfohlenen Einstellung flüssig spielbar, selbst wenn ich irgendwas runterdrehe. Scheint ne technische Bruchlandung zu sein...
Achja: Und es fühlt sich nicht mehr so super mega flüssig und responsiv an. Also das was WoW immer ausgemacht hat im Vergleich zu anderen MMOs. Das was Spiele wie Counter Strike, die frühen Call of Dutys oder eben halt auch WoW immer ausgemacht hat. Alles fühlt sich laggy an. Fast schon wie ein anderes Spiel.
Dieser Patch wird denen noch richtig um die Ohren fliegen.
aufkrawall
2018-07-22, 17:11:29
Alles fühlt sich laggy an.
Weil nun mit DX11 das DWM-Vsync läuft, das Frames buffert, wiederholt und dropt.
DinosaurusRex
2018-07-28, 00:35:36
Guckt mal, das sind jetzt fast die niedrigsten Einstellungen mit DX11:
https://abload.de/img/unbenannte4fse.png
Blightcallers Umhang sieht aus als wäre da PBS im Einsatz. Ist es aber nicht. Blizzard hat echt ein paar richtig geniale Leute. Was die aus dieser beschissenen Engine rausholen ist bemerkenswert.
Troyan
2018-08-02, 12:06:57
Blizzard ist der erste Entwickler, der mal ehrlich über DX12 spricht, wieso es implementiert wurde: https://eu.battle.net/forums/de/wow/topic/17621502258
Nicht, weil es besser als DX11 ist, sondern weil die DX11 Treiber von bestimmten Herstellern ein niedriges Niveau haben.
Die Entwickler sollten DX12 einfach als bezahlen DLC verkaufen. Irgendwie lächerlich, dass man auf Spielentwickler-Seite einen massiven Mehraufwand betreiben muss, weil Hardwarehersteller ihren Job nicht machen.
Savay
2018-08-02, 12:17:23
Es ist ja auch überhaupt nicht Sache der Entwickler dafür zu sorgen, dass deren (immerhin gegen ein angemessenes Entgeld feilgebotene) Software bei möglichst vielen zahlenden Kunden eben auch möglichst gut performt! :facepalm:
Wenn die Software auf bestimmter Hardware halt unnötigerweise scheiße rennt, obwohl schlicht ungenutztes Optimierungspotzenzial brach liegt, ist es zunächst sehr wohl Sache der Entwickler das so weit abzustellen wie es ihnen möglich ist.
dargo
2018-08-02, 12:17:58
Die Entwickler sollten DX12 einfach als bezahlen DLC verkaufen.
Jo... und für jeden Gameworks Effekt der vom Spieleentwickler ins Spiel intergriert wird bitte auch gleich Summe X an die Entwickler. Aber bitte nur wenn ne Geforce im Rechner steckt. Deine Statements werden immer peinlicher. :facepalm:
Es ist ja auch überhaupt nicht Sache der Entwickler dafür zu sorgen, dass deren gegen ein angemessenes Endgeld angebotene Software bei möglichst vielen zahlenden Kunden eben auch möglichst gut performt! :facepalm:
Wenn der Treiber von minderwertiger Qualität ist, wie AMD und DX11, kann der Entwickler auch nichts machen, es wird immer zurückhängen.
Savay
2018-08-02, 12:26:59
Selbst wenn dem so wäre (es gibt DX11 Spiele in denen der Treiber offensichtlich absolut kein "Problem" ist!)...deshalb hätte Blizzard ernsthaft darauf verzichten sollen die Situation für einen nicht unerheblichen Teil der zahlenden Kundschaft zu verbessern obwohl es in ihrer Macht lag?
Was ist das denn bitte mal wieder für ne oberaffige Diskussion?! :freak:
Ihr tut ja so, als ob Performanceoptimierungen eine reine IHV Sache wäre...echt albern....wie eine Software auf gegebener Hardware läuft liegt zunächst primär in der Verantwortung des Entwicklers!
Schließlich entwickeln sie die Software ja auch für den Kunden...und NICHT für einen IHV.
aufkrawall
2018-08-02, 12:34:13
Nicht, weil es besser als DX11 ist, sondern weil die DX11 Treiber von bestimmten Herstellern ein niedriges Niveau haben.
Genau, das hochmoderne Vorzeigeprojekt WoW steht repräsentativ für den AMD DX11-Treiber. :uclap:
Gibt genug Spiele, die mit DX11 gut genug auf AMD rennen, und das btw. im Gegensatz zu Nvidia ohne eklige Creators Update Ruckler. Microsoft fixt das auf ihrer Seite nicht, Nvidia lässt ihre Kunden damit komplett im Regen stehen. Da liegt die Vermutung nahe, dass das zu fixen Performance kosten würde. Toller Treiber, der das OS so hackt, dass er irgendwann notorisch inkompatibel wird (siehe auch Gsync borderless...)...
Selbst wenn dem so wäre (es gibt DX11 Spiele in denen der Treiber offensichtlich absolut kein "Problem" ist!)
Ist doch logisch, ein Tetris braucht nicht die gleichen drawcalls wie ein Spiel mit hochkomplexer Physik. Dann kommt auch der AMD Treiber mit.
Savay
2018-08-02, 12:50:29
Klar...WoW ist physikalisch und vom Rendering halt auch massivst komplexer und moderner als bspw. ein Jurassic World Evolution. :rolleyes:
Was für ein billiger Trollversuch.
Die Engine und der Content liegt den Radeons halt grundsätzlich nicht so besonders...wahrscheinlich zu wenig Arithmetik- und Shaderlast und bisher generell schlecht auf moderne Multicore CPUs optimiert...so what?! Gibt ja genug Beispiele bei denen es sich das Verhältnis auch mal (massiv) umkehrt.
Das ist aber noch lange kein Argument einen Teil der Kundschaft einfach im Regen stehen zu lassen und die Situation, trotz brachliegendem Potenzials, für sie nicht zu verbessern!
Letzteres wäre zudem der eigentliche Skandal gewesen.
Ich verstehe eh nicht wieso man sich darüber aufregen kann, dass eine Firma mal was für ihre Kunden tut...auch wenn es ausnahmsweise vorerst "nur" eine Minderheit betrifft. :facepalm:
robbitop
2018-08-02, 12:52:27
Trolling? Meines Wissens nach sind ein Großteil der aktuellen AAA Spiele DX11. Und die laufen mWn sehr gut auf Radeons.
WoW ist ja nun wahrlich weit weg davon bleeding edge zu sein. Ggf. kann auch Intel gemeint sein.
Meines Wissens nach ist GCN auch extrem gut dokumentiert, wohin gegen NV mArchs nur spärlich dokumentiert sind. NV fixt/optimiert laut einigen Devs hier im Forum vieles über den Treiber statt dem Entwickler zu sagen, was im Quellcode optimiert werden soll.
dargo
2018-08-02, 12:53:54
Ist doch logisch, ein Tetris braucht nicht die gleichen drawcalls wie ein Spiel mit hochkomplexer Physik.
Wenn erstmal ein Entwickler Unmengen an Drawcalls auf die Software loslässt nützt dir dein toller DX11-Nvidia Treiber auch nichts mehr denn dann ist die Steinzeit-API schlicht und ergreifend endgültig am Ende. :rolleyes: Nur wird es dann vermutlich keine derartig hirnrissigen Statements gewisser Leute mehr geben weil die Applikation gleich mit nativem DX12 kommt und somit auch kein Vergleich zu DX11 auf Userseite möglich ist. Wo seid ihr eigentlich alle mit euren Argumenten gewesen bevor der 337.50 (oder wie der hieß) kam?
Gipsel
2018-08-02, 13:24:39
Blizzard ist der erste Entwickler, der mal ehrlich über DX12 spricht, wieso es implementiert wurde: https://eu.battle.net/forums/de/wow/topic/17621502258
Für zukünftige Patches sind weitere Optimierungen für DirectX 12 geplant. Ergeben sich hier visuelle Verbesserungen oder höhere Leistung, wird für die entsprechende Hardware [also nV] ebenfalls DirectX 12 vorgeschlagen.
Schlußfolgerung: DX12 ist die zukunftsweisendere API (für komplexen Content)? :rolleyes:
Bucklew
2018-08-02, 14:46:31
Schlußfolgerung: DX12 ist die zukunftsweisendere API (für komplexen Content)?
Nein, wo steht das da? :rolleyes:
Aktuell ist NVIDIA unter DX11 die Messlatte bei WoW (ne GTX1080 ist ca. 20% schneller als die schnellste AMD-Karte unter DX12).
aufkrawall
2018-08-02, 14:55:18
Es ist offensichtlich, dass der DX11-Renderer des Spiels für NV besser optimiert ist als der -12 für AMD.
Daraus irgendwelche allgemeingültigen Aussagen von DX11 vs. 12 oder AMD vs. NV abzuleiten, ist doch völlig hirnverbrannt...
][immy
2018-08-02, 14:57:33
Aktuell ist NVIDIA unter DX11 die Messlatte bei WoW (ne GTX1080 ist ca. 20% schneller als die schnellste AMD-Karte unter DX12).
Vorsicht mit der Aussage. Die mag aktuell stimmen, hier wird auch eine API auf die über Jahre schon in der Engine optimiert wurde nun mit einer Neuimplementierung von DX12 in der Engine verglichen. Hier hatte bisher weder Blizzard noch AMD wirklich die Zeit die entsprechenden Optimierungen für dieses eine Spiel rauszubringen.
Man könnte auch sagen "der DX9 modus von WoW lief viel besser als der DX11 Modus", was in der Tat auch so war, wobei das inzwischen nicht mehr vergleichbar ist weil seitdem die Optik in Wow auch ziemlich aufgebohrt wurde. Allein die Sichtweiten wurden im vergleich zur damaligen DX9-basierten Engine massiv erhöht. Wassereffekte usw mal gar nicht erst erwähnt.
Die Umstrukturierung der Engine ohne bisher sichtbaren Vorteil war wohl halt notwendig für die Zukunft. DX12 wird dann vermutlich nicht von Nachteil sein. Und für Linux kann man dann hoffentlich in Zukunft Vulkan Unterstützung erwarten.
Btw, man muss WoW echt lassen, die Grafik (wenn sie auch wirklich stark über die Jahre aufgebohrt wurde) sieht echt noch klasse aus. Wenn man sich da einige der Konkurrenten ansieht, die sind nicht so gut gealtert. Ist natürlich viel dem Comic-Look zu verdanken, aber auch das trotz grafischer Verbesserungen der Look von WoW ziemlich identisch geblieben ist. Es sieht nach wie vor so aus als gehöre das alle in diese Welt.
Bucklew
2018-08-02, 15:01:36
[immy;11759133']Vorsicht mit der Aussage. Die mag aktuell stimmen
Warum sollte ich dann Vorsicht walten lassen? Ich beziehe mich nur auf den aktuellen Zustand. :freak:
Die Aussage von Blizzard ist ja nicht ohne Grund im Konjunktiv geschrieben. Es kann sein, dass der DX12-Renderpfad irgendwann mal gleich gut oder besser ist, als der DX11-Pfad (oder auch z.B. neue Effekte ermöglicht), aber das ist nur eine Möglichkeit. Es ist genauso gut möglich, dass DX11 für immer der Default für NVIDIA bleibt.
DinosaurusRex
2018-08-02, 15:11:12
Weil nun mit DX11 das DWM-Vsync läuft, das Frames buffert, wiederholt und dropt.
Das haben die übrigens gefixt. Es kommt ja fast jeden Tag ein Hotfix. Spielt sich wieder so wie früher.
aufkrawall
2018-08-02, 15:16:09
Also gibts jetzt wieder exklusives Vollbild mit DX11, oder gibt es im borderless ohne explizit zugeschaltetes Vsync wieder Tearing?
Gipsel
2018-08-02, 17:17:38
Nein, wo steht das da? :rolleyes:
Aktuell ist NVIDIA [..]Ich schrieb von "zukunftsweisend" und Du kommst mit "aktuell"? :rolleyes:
Ich habe schlicht eine alternative Interpretation der von Troyan verlinkten Meldung angeboten (mit Fragezeichen!), die sich mindestens genau so gut aus dem von mir zitierten Teil der Meldung ergibt, wie die von Troyan.
Blizzard sagt ja, daß sie den DX12-Pfad weiter optimieren werden und eben in Zukunft mit gewisser Wahrscheinlichkeit erwarten (sonst hätten sie es wohl nicht geschrieben), diesen dann auch als Standard auf aktueller bzw. zukünftiger nV-Hardware einzusetzen. Keine Ahnung, was Dein Problem damit ist. ¯\_(ツ)_/¯
DinosaurusRex
2018-08-02, 18:13:46
Also gibts jetzt wieder exklusives Vollbild mit DX11, oder gibt es im borderless ohne explizit zugeschaltetes Vsync wieder Tearing?
Keine Ahnung was die gemacht haben, ich habs nicht überprüft und bei technischen Sachen geht Blizzard in den Patch Notes ja eh nie ins Detail. Aber es spielt sich jetzt wieder vorher. Unmittelbar nach dem Patch war es trotz unter 20ms Ping alles zäh und laggy, als würde man durch Gelee laufen. Jetzt ist es so responsive wie vor dem Patch.
Savay
2018-08-02, 18:19:00
Also gibts jetzt wieder exklusives Vollbild mit DX11, oder gibt es im borderless ohne explizit zugeschaltetes Vsync wieder Tearing?
Ich hab es grade mal getestet...da muss bei ihm im Endeffekt was anderes dahinterstecken.
DX12 teart weiterhin ohne VSync und Freesync, DX11 bleibt soweit ich das beurteilen konnte aber auch so DWM gesynct...zumindest konnte ich kein Tearing erkennen im ggs. zu DX12.
Ich hatte und habe übrigens keine Probleme damit, dass das Spiel irgendwie besonders zäh laufen würde...egal ob Freesync, ohne VSync, in DX11 oder DX12.
Das Spielgefühl ist nur naturgemäß mit FS+Limiter@DX12 am besten.
aufkrawall
2018-08-02, 18:23:48
Thx, hätt mich auch gewundert. Das borderless-Gezuckel ohne FreeSync/Gsync macht mich mit 75Hz-Monitor jedenfalls wahnsinnig. Vsync an im Spiel ist wahrscheinlich auch eine mistige Lösung, weil sowohl Spiel als auch Compositor einen eigenen Buffer fürs Vsync haben dürften und sich der Input Lag davon addiert.
Savay
2018-08-02, 18:49:15
Gibt deswegen nicht extra die Option "Eingabeverz. verringern"?
DiscoInferno
2018-08-02, 21:56:26
Bin seit heute auf Win 10 Pro x64 und DX12 mit AMD, und kann sagen dass Freesync nun zumindest gleichwertig gut läuft wie unter Win7/DX11 mit dem alten exklusiven Fullscreen wie aus 7.3.5 bekannt.
Eigentlich sogar besser, denn die MinFPS haben sich deutlich verbessert - in den kritischen Bereichen (OG vorm AH auf Thrall mit vielen Spielern in der Nähe, Dalaran) läufts definitiv etwas besser (hatte vorher teils immer Einbrüche auf 40-45fps, nun eher 55 bis sogar relativ konstant mindestens 60). Raids noch nicht probiert.
Also, scheint als würde AMD mit DX12 schon ganz gut profitieren.
DinosaurusRex
2018-08-02, 22:13:28
Also eingebildet habe ich mir das nicht. Ich habe nach dem Patch ingame nachgefragt, ob ich der einzige bin, bei dem es sich so anfühlt und da haben sehr viele meine Meinung geteilt. Kommt vermutlich auch auf die Klasse an. Bei meinem Schurken ist es ganz extrem aufgefallen. Bei einem Caster ist das vermutlich was anderes.
Bucklew
2018-08-02, 22:23:51
Blizzard sagt ja, daß sie den DX12-Pfad weiter optimieren werden und eben in Zukunft mit gewisser Wahrscheinlichkeit erwarten
Nein, steht da nicht.
diesen dann auch als Standard auf aktueller bzw. zukünftiger nV-Hardware einzusetzen.
Es ist möglich, ja. Es kann aber auch anders kommen und DX11 immer noch Standard (= die bessere Wahl) bleiben. Sogar für immer.
Dass sogar Blizzard sich nicht sicher ist, ob DX12 jemals besser wird, als DX11, sagt schon Einiges aus.
Locuza
2018-08-02, 23:46:44
[...]
Dass sogar Blizzard sich nicht sicher ist, ob DX12 jemals besser wird, als DX11, sagt schon Einiges aus.
Was denn?
DiscoInferno
2018-08-02, 23:59:38
Sagt nix aus. DX12 ist schneller im CPU-Limit, zumindest wenn man die richtige HW dazu hat... :smile:
Okay, man muss dazu sagen, dass die Performance mit nV Karten eh schon immer besser war, aber zumindest scheint AMD hier unter DX12 etwas oder sogar ziemlich aufgeholt zu haben. Zumindest kann ich nun keinen großen Unterschied mehr sehen was die Leistung im CPU Limit angeht zu der GTX 1060 die ich vor einiger Zeit hatte. Teils sogar etwas besser.
Nimmt sich wohl nicht mehr viel, nur ist es wohl so, dass man momentan mit nV noch DX11 nutzen sollte, mit AMD läufts wohl unter DX12 besser.
Gipsel
2018-08-03, 00:18:51
Nein, steht da nicht.Zerstückele bitte den Satz nicht. Dann ergibt der nämlich auch Sinn. :wink:
Es ist möglich, ja.Also "mit gewisser Wahrscheinlichkeit erwartbar". Gut, daß wir hier übereinstimmen. ;)
Klar...WoW ist physikalisch und vom Rendering halt auch massivst komplexer und moderner als bspw. ein Jurassic World Evolution. :rolleyes:
Was für ein billiger Trollversuch.
Für den AMD Treiber anscheinend schon. Deine Argumentation ist leider sehr billig. Spiel A läuft gut, also ist AMDs Treiber die Perfektion schlechthin, der Entwickler ist zu dämlich wenn es mal nicht gut läuft. Dass es an minderwertigen Treiber seitens AMD liegen könnten, kommt dir nicht in den Sinn.
Locuza
2018-08-03, 01:20:39
Und minderwertige Treiber von Intel.
Hat überhaupt ein Unternehmen außer Nvidia "wertige Treiber"?
Wenn nicht, macht es dann global gesehen nicht auch Sinn für den Rest der Welt DX12/Vulkan zu verwenden, wenn scheinbar nur ein Unternehmen fähig ist hoch optimierte Treiber auszuliefern?
Oder hofft man lieber das jedes Unternehmen auf das Level kommt?
DinosaurusRex
2018-08-03, 05:20:20
Ist schon krass, was man aus einem Projekt mit viel harter Arbeit rausholen kann. WoW Konzeptphase vs WoW 2018:
http://static1.gamespot.com/uploads/original/1539/15391776/2881336-cg6a0tpugaa9ddx.png-large.png
https://i.imgur.com/ERbiv3hl.jpg
Blizzard hat für dieses Mammutprojekt allerhöchste Anerkennung verdient, ohne Scheiß. Und wenn man bedenkt, dass Blizz das Spiel nur deswegen gemacht hat, weil die Bosse damals Everquest gesuchtet haben und mit den Designentscheidungen der EQ Entwickler nicht zufrieden waren, dann bekommt das ganze sowieso noch was richtig sympathisches.
Ich finde WoW ist auch das perfekte Beispiel dafür, was an Valve alles scheiße ist. Blizzard hat jahrzehntelang immer weiter und weiter entwickelt, tonnenweise Content hinzugefügt, die Engine bis zum geht nicht mehr verbessert. Die haben viel Geld verdient, klar, aber die haben nie aufgehört, viel Geld zu investieren. Vergleicht das mal mit Counterstrike: Die Evolution von Counterstrike ist dermaßen rudimentär was den Spielinhalt anbelangt. Wenn Valve irgendwas gemacht hat, dann eigentlich nur die Monetarisierung immer weiter zu optimieren. Newell hockt auf seinen Milliarden und alleine die Tatsache, dass sich eine einzelne Person so krass an der Arbeit von anderen Entwicklern bereichert, ist schon grenzwertig. Es wird immer auf EA, Ubi und Co rumgehackt, aber ich finde Valve ist heute tatsächlich der größte Parasit dieser Branche. Und trotzdem werden sie für ihre Faulheit abgefeiert. Unfassbar das ganze...
gravitationsfeld
2018-08-03, 07:26:02
Ich bitte dich, Blizzard hat 10 Milliarden an WoW verdient, da können sie auch ein paar gescheite Low-Poly-Assets bauen.
DinosaurusRex
2018-08-03, 07:29:47
Ich bitte dich, Blizzard hat 10 Milliarden an WoW verdient, da können sie auch ein paar gescheite Low-Poly-Assets bauen.
Aber das ist doch eine klassische Henne-Ei-Situation: Blizzard hat in 13 Jahren so viel Geld an dem Spiel verdient. Das entspricht rund 750 Millionen pro Jahr. Die Frage ist, ob WoW nach 13 Jahren immer noch eins der profitabelsten Spiele wäre, wenn sie nicht ständig reinvestiert hätten? Fakt ist: Mit Vanilla haben sie die 10 Milliarden ganz sicher nicht verdient.
Mal zum Vergleich: Fortnite hat alleine im März 2018 $223 Mio Umsatz gemacht. Im April waren es $300 Millionen und im Mai $318 Millionen. Im Juli haben sie die Milliarde geknackt. Soundtrack, Animationen, Voice Acting, Writing, Content Umfang, Server Infrastruktur, Social Features, etc, das alles ist bei WoW viel aufwändiger als bei Fortnite. Blizzard hat sich schon richtig ins Zeug gelegt über die Jahre.
Rockstar ist in dieser Hinsicht ein ähnlicher Fall wie Blizzard: Die verdienen viel Geld, aber die investieren auch richtig, richtig, richtig viel. Die GTA Spiele sind beim Erscheinen immer die Referenz für Open World und jeder Teil ist größer, besser, geiler als der vorherige. GTA V hätte sich sicher nicht mehr als 90 Mio mal verkauft, wenn es einfach nur ein GTA 4 mit besserer Grafik gewesen wäre.
Sich über so viele Jahre hinweg immer wieder neu zu erfinden und sich dabei auch noch immer wieder zu übertreffen, das muss man erstmal schaffen. Nur im Gegensatz zu GTA war es bei WoW stets eine Operation am offenen Herzen und das macht das Ganze um so beeindruckender.
Bucklew
2018-08-03, 09:38:16
Was denn?
Dass DX12 mitnichten ein Selbstläufer ist und DX11 längst nicht so schlecht, wie es gern gemacht wird.
20% Vorsprung der GTX1080 unter DX11 gegenüber der Vega64 unter DX12 ist schon ein Wort.
Zerstückele bitte den Satz nicht. Dann ergibt der nämlich auch Sinn.
Musste ich leider, weil genau das nicht die Aussage von Blizzard war.
Also "mit gewisser Wahrscheinlichkeit erwartbar". Gut, daß wir hier übereinstimmen.
Lass doch das Trollen, Gipsel :rolleyes:
Es gibt genau drei Möglichkeiten: DX11 ist besser, DX12 ist besser und beide sind identisch. Der Status Quo ist die 1. Möglichkeit (deshalb hatte ich es nochmal erwähnt, scheinbar vergessen viele das, sobald es ums Trollen geht). Für deine Aussage "Schlußfolgerung: DX12 ist die zukunftsweisendere API (für komplexen Content)?" ist die Aussage von Blizzard aber schlicht null Indiz oder Beleg.
Wenn nicht, macht es dann global gesehen nicht auch Sinn für den Rest der Welt DX12/Vulkan zu verwenden, wenn scheinbar nur ein Unternehmen fähig ist hoch optimierte Treiber auszuliefern?
Oder hofft man lieber das jedes Unternehmen auf das Level kommt?
Vielleicht entscheidet der "Rest der Welt", dass sie es selbst mit LL, egal ob DX12 oder Vulkan, es nicht besser hinkriegen?
Gipsel
2018-08-03, 09:57:16
@Bucklew: Ich habe ursprünglich gar keine Aussage getroffen sondern eine mögliche Interpretation in den Raum gestellt (deswegen grammatikalisch als Frage formuliert). ;)
Und da Du ja das Zutreffen der Umschreibung des Blizzard-Statements bereits bestätigt hast und sich daraus logisch zwingend die Möglichkeit des Zutreffens der von mir in den Raum gestellten alternativen Interpretation ergibt (auch wenn Du das nicht eingestehst), gibt es in dem Punkt schlicht nichts mehr zu diskutieren.
Du kannst jetzt maximal noch über die Höhe der Wahrscheinlichkeiten der Alternativen diskutieren, nicht über die Existenz der Alternativen.
PS:
Bitte unterlasse doch die Flames gegen andere Diskussionsteilnehmer!
Troyan
2018-08-03, 10:08:47
Es ist ja auch überhaupt nicht Sache der Entwickler dafür zu sorgen, dass deren (immerhin gegen ein angemessenes Entgeld feilgebotene) Software bei möglichst vielen zahlenden Kunden eben auch möglichst gut performt! :facepalm:
Wenn die Software auf bestimmter Hardware halt unnötigerweise scheiße rennt, obwohl schlicht ungenutztes Optimierungspotzenzial brach liegt, ist es zunächst sehr wohl Sache der Entwickler das so weit abzustellen wie es ihnen möglich ist.
Deswegen bezahlbarer DLC: AMD kümmert sich nicht um einen besseren DX11 Treiber für ihre Kundschaft? Kein Problem, für 10€ übernehmen wir mit DX12 die Aufgabe.
Warum sollten 80% der Kundschaft für das Nichtunterstützen des Herstellers der restlichen 20% aufkommen? Gleichzeitig ist ja der Aufwand immens den DX11 Treiber der 80% Kundschaft überhaupt gleichwertig zu ersetzen...
Es kommt nicht von ungefähr her, dass DX12 so gut wie tot ist. Bis auf gesponserte AAA Spiele, fasst es niemand an. Der Nutzen von DX12 tangiert gegen Null. Vielleicht ändert es sich in 3-5 Jahren nachdem die Konsolen erneuert werden. Bis dahin kann Microsoft sich überlegen das ganze unter DX13 zu rebranden.
DinosaurusRex
2018-08-03, 10:20:21
Deswegen bezahlbarer DLC: AMD kümmert sich nicht um einen besseren DX11 Treiber für ihre Kundschaft? Kein Problem, für 10€ übernehmen wir mit DX12 die Aufgabe.
Ja und am besten noch 10€ für Multicore Support bezahlen, weil AMD nicht für genug Singlecore-Leistung in einem 13 Jahre alten WoW sorgt.
Bucklew
2018-08-03, 10:58:32
Ich habe ursprünglich gar keine Aussage getroffen sondern eine mögliche Interpretation in den Raum gestellt
Nur ist diese Interpretation überhaupt gar nicht durch die Blizzard-Aussage gedeckt. Von irgendwelchem "komplexen Content" ist da nämlich nirgends die Rede :rolleyes:
Bitte unterlasse doch die Flames gegen andere Diskussionsteilnehmer!
Sobald die "Diskussionsteilnehmer" ihr Trolling unterlassen, sehr gerne :up:
][immy
2018-08-03, 11:01:52
Deswegen bezahlbarer DLC: AMD kümmert sich nicht um einen besseren DX11 Treiber für ihre Kundschaft? Kein Problem, für 10€ übernehmen wir mit DX12 die Aufgabe.
Warum sollten 80% der Kundschaft für das Nichtunterstützen des Herstellers der restlichen 20% aufkommen? Gleichzeitig ist ja der Aufwand immens den DX11 Treiber der 80% Kundschaft überhaupt gleichwertig zu ersetzen...
Es kommt nicht von ungefähr her, dass DX12 so gut wie tot ist. Bis auf gesponserte AAA Spiele, fasst es niemand an. Der Nutzen von DX12 tangiert gegen Null. Vielleicht ändert es sich in 3-5 Jahren nachdem die Konsolen erneuert werden. Bis dahin kann Microsoft sich überlegen das ganze unter DX13 zu rebranden.
Du glaubst doch nicht ernsthaft das blizzard das nur wegen AMD gemacht hat. Die hätten auch auf Vulkan setzen können und nv wäre trotzdem mit DX11 weiter gelaufen. Die setzen auf neuere Technologien weil es sich in zukunft lohnen wird.
Sonst hätten sie auch gleich bei dx9 bleiben können. Dann wäre aber die engine-umstellung wohl noch schwieriger gewesen und man würde technologisch weiter zurück fallen.
Sei doch einfach froh, das blizzard für die beiden großen derzeit 2 wege drin hat welche auf der jeweiligen hardware besser laufen.
Übrigens, ein DX13 wird es wohl nicht geben. Die Amis überspringen diese Zahl gerne ;)
Savay
2018-08-03, 11:10:01
Spiel A läuft gut, also ist AMDs Treiber die Perfektion schlechthin,
Aber deine "billige" "Argumentation" ist besser oder wie?!
Spiel B läuft "schlecht" also sind die Treiber absolut "grottig"...und deswegen haben die Kunden in dem Produkt dann gefälligst mit unnötigen Performanceproblemen zu leben, obwohl es behebbar wäre?! :crazy:
Zudem musst du halluzinieren, denn ich habe das Wort "Perfektion" niemals in den Mund genommen (bei dem Wetter solltest du unbedingt auf deinen Flüssigkeitshaushalt achten! ;) )...
Ich habe nur als Gegenbeispiel ein offensichtlich absolut hervorragend optimiertes DX11 Spiel genannt...das noch dazu nicht mal ein AAA Titel ist.
Also ist das ja wohl doch problemlos möglich, wenn der Softwarehersteller es kann und will...trotz des angeblich ach so "grottigen" (:lol:) DX11 Treibers.
Du bist echt extremst drollig! (oder trollig?!)
Warum sollten 80% der Kundschaft für das Nichtunterstützen des Herstellers der restlichen 20% aufkommen? Gleichzeitig ist ja der Aufwand immens den DX11 Treiber der 80% Kundschaft überhaupt gleichwertig zu ersetzen...
Nochmal für dich zum Mitmeißeln...
Es ist Aufgabe eines Softwareherstellers dafür zu sorgen, dass seine Software bei möglichst vielen Kunden möglichst gut performt und das unnötige(!!!!!!!!!!!) Performancprobleme beseitigt werden!
Die übrigens schon seit Jahren in den Foren ständig angesprochen wurden...und dafür wie WoW läuft ist zunächst einmal ausschließlich Blizzard verantwortlich...und nicht irgendeine Drittpartei!
Das ist doch nun absolut Elementar.
Übrigens sind und waren das Performanceprobleme die zum Teil AUCH nV betreffen/betrafen. Ich darf her gerne mal an Varimathras erinnern...das lief bei mir im harten CPU Limit auf ner nV bei mir auch keinen Fatz besser als auf der AMD Karte. :lol:
Wie sie das Ziel erreichen ist doch wurscht...sie hätten vielleicht auch die Engine komplett umstricken können und allgemein bei DX11 bleiben können...aber offensichtlich war es einfacher nen DX12 Renderer zu implementieren und darauf aufbauend dann weiter zu optimieren. :P Offensichtlich haben sie das nämlich auch genutzt um die Engine allgemein etwas zu entschlacken...bzw. sind noch mitten im Prozess das zu tun.
Aber du bist doch eh nur angepissst weil es bisher ausnahmsweise mal nicht ausschließlich und primär nV profitiert! ;D
dargo
2018-08-03, 11:11:53
[immy;11759761']
Sei doch einfach froh, das blizzard für die beiden großen derzeit 2 wege drin hat welche auf der jeweiligen hardware besser laufen.
Genau das wurmt ihn so sehr. Troyan hat ein riesen Problem damit, dass AMD mit DX12/Vulkan auf Nvidia mindestens aufschließt. Einfach nicht ernst nehmen. Richtig absurd wird sein Kreuzzug gegen DX12 wo Raytraycing jenes voraussetzt. Das ganze Thema finde ich nur noch zum tot lachen. Bald haben Troyan, Bucklew und Co nichts mehr zum daddeln (oder zumindest wesentlich weniger) denn alles was von Microsoft Studios kommt bekommt nur noch DX12. Mein :popcorn: steht schon bereit.
btw.
Von id Software (Bethesda Softworks allgemein?) kommt mit OpenGL auch nichts mehr.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11759193&postcount=34
Bleibt also nur Vulkan (deutlich wahrscheinlicher bei denen) und DX12. ;)
DinosaurusRex
2018-08-03, 11:13:23
[immy;11759761']Du glaubst doch nicht ernsthaft das blizzard das nur wegen AMD gemacht hat. Die hätten auch auf Vulkan setzen können
Eben. Blizzard ist ohnehin einer der größten Kritiker von Microsoft/Windows. Aber es sind halt Profis. Und am Ende zählt nur, dass die Spieler zufrieden sind.
Troyan
2018-08-03, 11:21:34
Es ist Aufgabe eines Softwareherstellers dafür zu sorgen, dass seine Software bei möglichst vielen Kunden möglichst gut performt und das unnötige(!!!!!!!!!!!) Performancprobleme beseitigt werden! Übrigens Performanceprobleme die AUCH nV betreffen. (ich darf mal an Varimathras erinner...das lief bei mir im harten CPU limit auf ner nV auch keinen Fatz besser als auf der AMD)
Das ist doch nun absolut Elementar.
Wo ist hier die Logik? Blizzard ist nicht dafür verantwortlich den miserabeln Treibersupport von AMD zu fixen. Das sollte ja wohl Aufgabe von AMD sein. Mit DX12 können nun Entwickler dieses Problem umgehen. Aber gleichzeitig kostet es Ressourcen und Geld. Und wer bezahlt dafür? Richtig, die Käufer, die kein Problem haben. :freak:
Aber du bist doch eh nur angepissst weil ausnahmsweise mal nicht ausschließlich und primär nV profitiert! :crazy:
Aber nVidia-User dürfen Spieler zweiter Klasse sein, die nicht durch DX12 profitieren? Vielleicht solltest du nochmal Blizzards' Posting lesen: nVidia hat Blizzards Arbeit gemacht. Bei DX12 gibt Blizzard doch zu, dass der Pfad schlechter ist und nur bei der Hardware profitiert, wo der Hardwarehersteller sich weigert die Arbeit zu machen.
Savay
2018-08-03, 11:23:42
Wo ist hier die Logik?
Raffst du es nicht? :facepalm:
World of Warcraft ist ein Blizzard Produkt...ergo sind sie auch in erster Linie dafür verantwortlich wie das Produkt funktioniert...nicht irgendwer anders!
Aber nVidia-User dürfen Spieler zweiter Klasse sein, die nicht durch DX12 profitieren?
Aber zahlende(!!!) AMD Nutzer durften Jahrelang Spieler zweiter Klasse sein deren, zum teil gänzlich unnötige, Probleme komplett ignoriert wurden?!
Du bist schon echt ganz schön "speziell" eine Verbesserung für andere in einen faktisch nicht vorhandenen(!) "Nachteil" für dich selbst umzudeuten! :lol:
Davon abgesehen: natürlich können auch nV Nutzer davon profitieren! :rolleyes: Im harten CPU-Limit tun sie es auch garantiert....und wer sagt denn das sie in Zukunft nicht noch stärker davon profitieren werden?!?!
Selbst Blizzard deutet doch schon an das die Möglichkeit besteht und sie daran arbeiten den Renderer zu verbessern.
Außerdem sprechen wir hier immer noch von einer allerersten Iteration der Implementierung.
Von der Entschlackung der Codebase dürfte ohnehin garantiert auch der DX11 Pfad zu einem gewissen grad profitieren.
dargo
2018-08-03, 11:25:40
Wo ist hier die Logik? Blizzard ist nicht dafür verantwortlich den miserabeln Treibersupport von AMD zu fixen. Das sollte ja wohl Aufgabe von AMD sein. Mit DX12 können nun Entwickler dieses Problem umgehen. Aber gleichzeitig kostet es Ressourcen und Geld. Und wer bezahlt dafür? Richtig, die Käufer, die kein Problem haben. :freak:
Du verbreitest wie üblich Bullshit. Oder um mal es mit deinen Worten auszudrücken Fake News. Gravitationsfeld hatte sich man dazu geäußert und sagte, dass das Team mit Vulkan weniger Aufwand bei diversen Sachen hatte. Ich wüsste jetzt nicht warum das bei DX12 viel anders sein sollte.
Troyan
2018-08-03, 11:31:31
Du verbreitest wie üblich Bullshit. Oder um mal es mit deinen Worten auszudrücken Fake News. Gravitationsfeld hatte sich man dazu geäußert und sagte, dass das Team mit Vulkan weniger Aufwand bei diversen Sachen hatte. Ich wüsste jetzt nicht warum das bei DX12 viel anders sein sollte.
Absoluter Unsinn. DX12 und Vulkan erhöhen den Komplexitätsgrad der Software, da die Treiberlogik dort hinwandert. Deswegen sind DX12 Pfade auch langsamer, da der Aufwand deutlich erhöht wird.
In keiner Welt ist es einfacher mit DX12 oder Vulkan Dinge umzusetzen.
Aber zahlende(!!!) AMD Nutzer durften Jahrelang Spieler zweiter Klasse sein deren, zum teil gänzlich unnötige, Probleme komplett ignoriert wurden?!
Du bist schon echt ganz schön "speziell"! :lol:
Du meinst die Probleme, die durch den fehlenden Treibersupport von AMD entstanden sind? Sorry, aber du kannst Blizzard nicht dafür kritisieren. Es war und ist AMDs Aufgabe für ihre Kunden den besten Support liefern. Genauso ist es Blizzards Aufgabe den besten Support für nVidia User bei Verwendung von DX12 anzubieten. Und wie man sieht, scheint dies bei Blizzard aufgrund des DX11 Treibers nicht relevant zu sein.
Du schreibst oben ja, dass es Blizzards Software ist. Also, wo ist der DX12 Support für nVidia-User, der nicht in 90% der Fälle in bis zu 20% Leistungsverlust mündet?
Gipsel
2018-08-03, 11:33:51
Nur ist diese Interpretation überhaupt gar nicht durch die Blizzard-Aussage gedeckt. Von irgendwelchem "komplexen Content" ist da nämlich nirgends die Rede :rolleyes:Na dann machen wir die These allgemeiner (durch Weglassen des Beispiels vom komplexen Content [Renderingverfahren wäre auch noch ein Punkt den man hätte einfügen können]) und Du stimmst zu? Super, machen wir so.
Die Klammer hatte ich nur eingeschoben, da für einfache Sachen die API praktisch unerheblich ist und sich somit der Aufwand für eine LL-API nicht lohnt (bei WoW können die sich das aber locker leisten bei den Umsätzen und gewinnen). Aber wenn Dir die nicht gefällt, lassen wir die halt weg und haben somit Alles geklärt (zumindest wenn es Dir wirklich darum ging).
dargo
2018-08-03, 11:36:12
Absoluter Unsinn. DX12 und Vulkan erhöhen den Komplexitätsgrad der Software, da die Treiberlogik dort hinwandert.
Gut, dass sich hier auch der eine oder andere Entwickler zu gewissen Themen äußert. Denn für mich ist bsw. gravitationsfeld um Welten glaubwürdiger als ein Troyan mit grüner Brille.
Gipsel
2018-08-03, 11:37:00
Absoluter Unsinn. DX12 und Vulkan erhöhen den Komplexitätsgrad der Software, da die Treiberlogik dort hinwandert. Deswegen sind DX12 Pfade auch langsamer, da der Aufwand deutlich erhöht wird.Was genau ist da langsamer?
In keiner Welt ist es einfacher mit DX12 oder Vulkan Dinge umzusetzen.Kommt stark darauf an, was Du umsetzen willst (und welche Mindestperformance das dann haben soll, das gehört ja zusammen). Da kann es dann mit DX12 zwar schwierig, mit DX11 aber praktisch unmöglich (also schwieriger) sein. So stimmt das also nicht.
DinosaurusRex
2018-08-03, 11:39:37
DX12 und Vulkan erhöhen den Komplexitätsgrad der Software, da die Treiberlogik dort hinwandert. Deswegen sind DX12 Pfade auch langsamer, da der Aufwand deutlich erhöht wird.
Also ich bin ja kein Profi, aber ich denke es verhält sich genau gegenteilig wie du es beschreibst.
Ich habe nix mit Informatik am Hut, aber selbst ich weiß, dass je nach Framework/Language/Abstraktionsebene/etc mehr Komplexität im Code bei blitzsauberer Programmierung zu besserer Performance führt. Das beste Beispiel dafür ist wohl der Cell in der PS3.
Mit C++ hast du komplexeren Code als mit C#. Aber was ist am Ende schneller?
Savay
2018-08-03, 11:43:27
Du meinst die Probleme, die durch den fehlenden Treibersupport von AMD entstanden sind? Sorry, aber du kannst Blizzard nicht dafür kritisieren
Nein, ich meine Probleme die durch einen am Ende der Tage eher schlecht als recht optimierten Renderer, Content und Codebase seitens des SPIELS(!) entstanden sind! :freak:
Nur weil zufällig nV sich die Mühe gemacht hat das durch die Brust ins Auge irgendwie halbwegs in den Griff zu bekommen entbindet das doch den Softwarehersteller nicht von seiner grundlegenden Verantwortung ein für ALLE! Kunden anständig funktionierendes Produkt zu entwickeln.
Das man darüber überhaupt diskutieren muss ist doch der reinste Irrsinn.
Also, wo ist der DX12 Support für nVidia-User, der nicht in 90% der Fälle in bis zu 20% Leistungsverlust mündet?
Wenn DX11 toll funktioniert ist nV der Oberheld...und wenn DX12 "schlecht" (in der allerersten Iteration :rolleyes:) läuft ist es auf einmal dann wieder Blizzards Schuld?! :popcorn:
Du bist echt ein Komiker!
nV bleibt ja bis auf weiteres eh immernoch der DX11 Renderer...also was soll dein Gejammer hier eigentlich?!
Wir sprechen hier sowieso von Blizzard...wenn die sich die Arbeit an dem DX12 Renderer nicht aus der Portokasse leisten können wer dann?!
Außerdem ist das garantiert eine Investition in die Zukunft...so wie sie die Engine und das Spiel bisher aufgebohrt haben, kommen die sicher eh an eine Grenze ohne (mal wieder) tiefgreifendere Eingriffe vorzunehmen.
Schießlich wird das Spiel von Addon zu Addon immer Bombastischer und Bombastischer...irgendwann ist es da mit cleveren Assets allein auch nicht mehr getan.
Gipsel
2018-08-03, 11:46:01
Also ich bin ja kein Profi, aber ich denke es verhält sich genau gegenteilig wie du es beschreibst.Ich denke, er rechnet die CPU-Zeit im Treiber nicht mit. Aber selbst dann ist es nicht klar, daß seine Behauptung stimmt (also selbst wenn man die wall clock time mißt [und den Treiber rausrechnet]).
Edit:
FWIW, von Microsoft selber (https://blogs.msdn.microsoft.com/directx/2014/03/20/directx-12/) ein Vergleich von 3DMark unter DX11 und DX12. Und zwar auf einem i7-4770R mit Iris Pro Grafik, also nix AMD vs. nV hier (oben DX11, unten DX12):
https://msdnshared.blob.core.windows.net/media/MSDNBlogsFS/prod.evol.blogs.msdn.com/CommunityServer.Blogs.Components.WeblogFiles/00/00/01/20/72/2806.cpucompare.png
DinosaurusRex
2018-08-03, 12:07:10
Vielleicht kann Gravitationsfeld ja mal die Grafik kommentieren, wie sich da eine PS4 einordnen würde. :)
dargo
2018-08-03, 12:10:27
Was willst du da großartig kommentieren? :) Da eine Konsole noch näher am Metal ist wirst du alles außer der App Logic in der Rendertime wesentlich reduzieren können.
DinosaurusRex
2018-08-03, 12:13:35
Wofür steht eigentlich KM und UM?
user- und kernel-mode vermutlich.
Gipsel
2018-08-03, 12:19:27
Genau. Das bezeichnet dort unterschiedliche Teile des Grafikkartentreibers (die beide vom Hersteller kommen, den User Mode Treiber muß also nicht der Entwickler schreiben).
DinosaurusRex
2018-08-03, 12:20:23
Kernel Mode fällt dann ja bei DX12 komplett weg. Laut Google ist das eine reine CPU Last.
Gipsel
2018-08-03, 12:21:06
Kernel Mode fällt dann ja bei DX12 komplett weg. Laut Google ist das eine reine CPU Last.Der Abschnitt ist super winzig und deswegen in der Grafik kaum zu erkennen.
DinosaurusRex
2018-08-03, 12:21:31
Der Abschnitt ist super winzig und deswegen in der Grafik kaum zu erkennen.
Du meinst bei DX12?
Gipsel
2018-08-03, 12:24:39
Ignorier das mal, das war wohl ein Mißverständnis. Da ist nichts eingezeichnet.
Aber ja, der Zeitanteil ist offensichtlich weg. Die Sachen werden dort nach dem im Usermode laufendem Treiberanteil nur noch an die GPU durchgereicht.
dargo
2018-08-03, 12:28:09
Kernel Mode fällt dann ja bei DX12 komplett weg. Laut Google ist das eine reine CPU Last.
Eigentlich ist alles in der Grafik reine CPU-Last. ;)
DinosaurusRex
2018-08-03, 12:29:12
Eigentlich ist alles in der Grafik reine CPU-Last. ;)
Hast recht... :D
Gibts so ne Grafik auch für GPU?
Bucklew
2018-08-03, 13:22:45
Na dann machen wir die These allgemeiner [...]
Mir wäre "sachlicher" lieber, weg von "trollig".
Fakt ist nun mal, dass DX12 mitnichten das Allheilmittel ist und LowLevel eben auch für viele Entwickler ein Problem dar stellt. Je kleiner das Entwicklungsstudio, desto eher wird man wohl in Richtung DX11 tendieren wollen (oder eine fertige Engine nehmen).
Gipsel
2018-08-03, 13:50:23
Fakt ist nun mal, dass DX12 mitnichten das Allheilmittel ist und LowLevel eben auch für viele Entwickler ein Problem dar stellt. Je kleiner das Entwicklungsstudio, desto eher wird man wohl in Richtung DX11 tendieren wollen (oder eine fertige Engine nehmen).
Also nehmen wir die Klammer mit dem komplexen Content (oder auch: neue, mehr Flexibilität erfordernde Renderingmethoden) wieder rein. Denn wie ich ja schrieb, war genau das der Grund für die eingefügte Klammer.
Troyan
2018-08-03, 13:50:29
Was genau ist da langsamer?
Kommt stark darauf an, was Du umsetzen willst (und welche Mindestperformance das dann haben soll, das gehört ja zusammen). Da kann es dann mit DX12 zwar schwierig, mit DX11 aber praktisch unmöglich (also schwieriger) sein. So stimmt das also nicht.
Ich rede nicht von Unmengen von Draw Calls, wo man in die Limitierung von DX11 läuft. Da sind wir ja noch Jahre entfernt - dank den Konsolen.
Ich rede von "leichteren Umsetzungen", die hier erwähnt worden sind. Die gibt es nicht, da man ja zu erst den erheblichen Mehraufwand von DX12 in Kauf nehmen muss.
Mir ist absoluts nicht bekannt, was sich leichter durch die DX12 API umsetzen lässt.
DinosaurusRex
2018-08-03, 13:54:20
Also hier kommt noch einmal mein absolutes Laienverständniss zum Einsatz.
Wenn man es leicht haben möchte, dann ist es halt nicht so hardwarenah/performant.
Wenn man voll auf die Kacke hauen möchte, dann macht man einen auf Mark Cerny und programmiert die ganze Scheiße für den Assembler.
Mir ist absoluts nicht bekannt, was sich leichter durch die DX12 API umsetzen lässt.
Schrott-CPUs auslasten
---
Stell dir mal vor du bist mega kreativ und du sollst was malen. Auf der einen Seite hast du freie Auswahl was du machst, auf der anderen ist es Malen nach Zahlen. Was machst du?
Gipsel
2018-08-03, 13:57:52
Ich rede nicht von Unmengen von Draw Calls, wo man in die Limitierung von DX11 läuft. Da sind wir ja noch Jahre entfernt - dank den Konsolen.Frage mal Gravitationsfeld, wieviel Drawcall-Overhead auf den Konsolen existiert. Das ist super niedrig. Die können das also. ;)
Ich rede von "leichteren Umsetzungen", die hier erwähnt worden sind. Die gibt es nicht, da man ja zu erst den erheblichen Mehraufwand von DX12 in Kauf nehmen muss.
Mir ist absoluts nicht bekannt, was sich leichter durch die DX12 API umsetzen lässt.Lies Dir meinen Post dazu nochmal genau durch! Wenn Du ein bestimmtes Featureset und Performancetarget mit DX11 nicht erreichen kannst (es also praktisch unmöglich ist), mit DX12 aber schon, womit ist die Umsetzung dann einfacher?
Und die Performance ist geklärt? Also ich meine, daß es mit DX12 auch auf App-Seite schneller werden kann im Vergleich zu DX11 und es nicht nur der reduzierte Treiberoverhead ist?
Bucklew
2018-08-03, 14:02:57
Also nehmen wir die Klammer mit dem komplexen Content (oder auch: neue, mehr Flexibilität erfordernde Renderingmethoden) wieder rein.
Davon schreibt Blizzard nix. Es heißt ja nicht ohne Grund "Optimierungen". Du sprichst ja quasi von einer kompletten Runderneuerung. Das wird Blizz für WoW wohl kaum mehr noch machen.
DinosaurusRex
2018-08-03, 14:04:31
Frage mal Gravitationsfeld, wieviel Drawcall-Overhead auf den Konsolen existiert. Das ist super niedrig. Die können das also. ;)
Echt ey. Wo isn der? Leonidas sollte dem eh was abdrücken... Hier gibt es hunderte oder tausende Member und alle provozieren nur die Aussagen von einer Hand voll Experten :D
DinosaurusRex
2018-08-03, 14:08:19
Davon schreibt Blizzard nix. Es heißt ja nicht ohne Grund "Optimierungen". Du sprichst ja quasi von einer kompletten Runderneuerung. Das wird Blizz für WoW wohl kaum mehr noch machen.
Das größte Problem von WoW werden die Assets bleiben. Die müssen das alles einheitlich halten. Du kannst nicht einfach ein neues Addon raushauen und es sieht 1000% geiler aus als alles andere (und Blizzard hat locker die Ressourcen dazu).
Wenn du von einem Addon Content in den anderen wechselst, darf es nicht wie ein anderes Spiel aussehen.
Ich finde den Sprung von MoP nach WoD schon richtig krass. Ich glaube bei so theoretischen Diskussionen wir einfach vergessen, was dem Spieler gut tut.
Blizzard hat schon immer Gameplay über Grafik gestellt und deswegen rocken die auch so dermaßen.
Savay
2018-08-03, 14:13:09
Davon schreibt Blizzard nix. Es heißt ja nicht ohne Grund "Optimierungen". Du sprichst ja quasi von einer kompletten Runderneuerung. Das wird Blizz für WoW wohl kaum mehr noch machen.
Ach...und was meinst du warum geben sie sich den Aufwand mit DX12 sonst?!
Die haben nix zu verschenken und sind doch nicht blöd und DX12 ist entgegen der Gerüchte hier im Faden auch primär keine Optimierung für bestimmte IHVs, sondern eine Investition in die Zukunft um die Ausbaufähigkeit der technischen Basis weiter zu gewährleisten...denn komplett "unspielbar" war es auf AMD bisher noch nie...es ist nur so das es jetzt schlicht besser geworden ist.
Für Blizzard ist das technisch betrachtet schlicht ne Win-Win Situation...alle Kunden die keine nV-GPU und/oder High-End CPU nutzen können sich im harten CPU-Limit über bessere Performance freuen...und Blizzards Künstler und Designer bekommen perspektivisch mehr Spielraum bei der Gestaltung des Contents.
Die Objektdichte geht in dem Spiel übrigens langsam durch die Decke...vergleich mal die Partikeleffekte und Foliage Dichte + die deutlich gesteigerte Sichtweite auf max Details mit dem was ggü. Vanilla, BC oder WotLK geboten wurde! Die bauen ständig an den Assets und Effekten und bohren die immer weiter auf.
Was dazu führt, dass das Spiel von Addon zu Addon immer aufwändiger wurde ohne das die Codebase scheinbar in den letzten Jahren mal großartig in der Beziehung mitgewachsen ist...da kannst du ab nem gewissen Punkt noch so gute Künstler haben...irgendwann limitiert die Technik so sehr das man es nicht mehr ignorieren kann wie sie es bisher taten. (hat man am Varimathras Kampf auch gut erkennen können...der lief unter 7.x sowohl unter AMD als auch nV(!!) meistens einfach nur echt Scheiße! :freak: und das war nun echt nicht der erste Raidboss wo die Codebase scheinbar langsam zum echten Problem wurde)
Natürlich wird über Nacht kein komplett anderes Spiel draus weil sie grade angefangen haben Richtung DX12 optimieren und umbauen...aber sie würden den Aufwand sicher jetzt nicht geben, wenn sie sich davon zukünftig keinen Vorteil versprechen.
Es ist ja nicht so, als ob BfA jetzt plötzlich das letzte Addon würde! :rolleyes:
Gipsel
2018-08-03, 14:13:54
Davon schreibt Blizzard nix. Es heißt ja nicht ohne Grund "Optimierungen". Du sprichst ja quasi von einer kompletten Runderneuerung. Das wird Blizz für WoW wohl kaum mehr noch machen.Du kannst Dich auch nicht entscheiden, oder? Ist DX12 jetzt (meinetwegen auch nur auf WoW bezogen) eventuell die API der Zukunft:
a) immer und für Alles (das wäre die Version ohne die Klammer, die ich nicht vorgeschlagen habe, aber Du störtest Dich ja an der Klammer)
b) abhängig von dem, was der Entwickler genau will (mit Klammer [mein Vorschlag])
c) nie?
c) hast Du ja selber praktisch schon ausgeschlossen. Und Blizzard schreibt selbst von der Möglichkeit, daß nach zukünftigen Optimierungen am DX12-Pfad es auch als Standard für (existierende und/oder zukünftige) nV-Hardware eingesetzt werden wird (wegen Vorteilen bei Features/bessere Optik/Performance). Und für AMD-Hardware ist es bereits Standard. c) fällt also logisch bereits aus. Was soll es also sein, a) oder b)?
DinosaurusRex
2018-08-03, 14:20:17
Ist DX12 jetzt (meinetwegen auch nur auf WoW bezogen) eventuell die API der Zukunft? (...)
Ja. Blizzard hat massivst gegen Win10 gewettert.
---
Erklärung:
Blizzard hat extrem auf Microsoft geschimpft aber letztendlich hat der neue Client doch DX12 bekommen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.