PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : DirectX 12 Grafik-API


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 [24] 25

robbitop
2018-09-14, 11:01:06
Man darf auch nicht vergessen, dass Sony/MS laut ein paar decs massiv bessere Shadercompiler haben als AMD (was traurig ist). Sie holen also einiges an Mehrleistung aus den CUs heraus.
Auch wird insbesondere auf Konsolen per compute Geometrie gecullt.
Unterm Strich kommt auf der Konsole mehr rohleistungsnormoerte Leistung heraus als auf dem PC.

bnoob
2018-09-14, 11:24:48
Wäre es dann nicht in ihrem Interesse, den Shadercode mit AMD zu teilen?

Locuza
2018-09-14, 11:46:49
Man könnte gerne die Kosten von AF untersuchen.
CB bencht in 4K nur mit dem Hoch-Preset, was in 1440p gerade mal 2% mehr kostet, als das Normal-Preset, was der Xbox One ungefähr gleich kommt bzw. wo diese einen Mix aus unterschiedlichen Einstellungen verwendet und die Xbox One rennt in den Szenen von DF mit 26-30FPS.
https://youtu.be/AGMmxnPU0cU?t=19m51s

Bei der CB Szene schafft Vega64 38FPS im Schnitt bzw. ~35FPS als 99th Percintile.
Man könnte vielleicht behaupten, dass Vega ungefähr 35% schneller läuft.
Im PC-Spiel ist eine Vega64 ungefähr 57% schneller, als eine RX580 unter 1440p mit Ultrahoch-Preset.

Bei Rise of the Tomb Raider weiß man aber gar nicht, ob über Compute Shader Geometrie geculled wird, man weiß auch nicht wie es um Async Compute bestellt ist, was auf Konsolen sowieso effektiver funktioniert.
Ebenso wenig, ob die Entwickler Wave-Operations verwenden.

@bnoob

Als Entwickler schreibst du deine Shader in irgendeiner spezifizierter Sprache, HLSL (DX, Mantle, mittlerweile auch unter Vulkan unterstützt), GLSL (OpenGL, Vulkan) oder PSSL (PS4).
Diese Shader werden dann von einem Shader-Compiler (von AMD, MS oder Sony) in die passende Maschinensprache für GCN übersetzt.
Wenn der Shader-Compiler besser optimiert, dann läuft es auch besser.

Sony und MS haben aber scheinbar aus mehreren Gründen das Interesse ihr eigenes Software-Team zu pflegen und die APIs, Shader-Compiler etc. selber zu spezifizieren und zu optimieren.

robbitop
2018-09-14, 11:51:43
Was manche Studios machen ist wohl (iirc) den MS/Sony Compiler kompilieren zu lassen und den Code per Intrinsics auf dem PC zu nutzen. Das hat wohl einiges gebracht - hat aber sicherlich eine Menge Limitationen und ist dann sehr mArch spezifisch. Besser wäre ein generell guter Compiler im Treiber.

Locuza
2018-09-14, 12:03:56
So funktioniert das nicht.
Auf dem PC kannst du nur das verwenden, was unterstützt wird.
Du kannst nur eine High-Level-Shading Language verwenden und Intrinsics, welche AMD und Nvidia bereitstellen und von deren Treibern unterstützt werden, entsprechend kannst du nicht alles nachstellen, was auf den Konsolen herausgespuckt wird.
Und wenn du die angebotenen Intirnsics verwendest, dann weil du die speziellen Funktionen ausnutzen möchtest, dafür brauchst du keine Compiler-Ergebnisse von Sony/MS anschauen.

dargo
2018-09-14, 12:08:26
Die Konsole spart massig Teure Effekte schon alleine das DOF kann massig kosten.AF ist auch nur 4X.

https://youtu.be/KvN0w51xYdY?t=13m44s
Kann oder ist so? In deinen Posts sind mir immer zu viele Fragezeichen enthalten. In dem Video muss ich die Unterschiede wieder mit einer Lupe suchen? Hat sich überhaupt schon einer damit befasst welche Effekte massiv kosten?

robbitop
2018-09-14, 12:22:29
So funktioniert das nicht.
Auf dem PC kannst du nur das verwenden, was unterstützt wird.
Du kannst nur eine High-Level-Shading Language verwenden und Intrinsics, welche AMD und Nvidia bereitstellen und von deren Treibern unterstützt werden, entsprechend kannst du nicht alles nachstellen, was auf den Konsolen herausgespuckt wird.
Und wenn du die angebotenen Intirnsics verwendest, dann weil du die speziellen Funktionen ausnutzen möchtest, dafür brauchst du keine Compiler-Ergebnisse von Sony/MS anschauen.
So oder irgendwie ähnlich hatte es aber iirc gravitationsfeld beschrieben von rund 1 Jahr.

dildo4u
2018-09-14, 12:22:36
Kann oder ist so? In deinen Posts sind mir immer zu viele Fragezeichen enthalten. In dem Video muss ich die Unterschiede wieder mit einer Lupe suchen? Hat sich überhaupt schon einer damit befasst welche Effekte massiv kosten?


Ich kanns erst Testen wenn es Heute Abend freigeschaltet wird habe nur ein billigen Key gekauft.

Locuza
2018-09-14, 12:45:15
So oder irgendwie ähnlich hatte es aber iirc gravitationsfeld beschrieben von rund 1 Jahr.
You don't remember correctly. :D

Nein, er hat voellig recht. Der Grossteil der Probleme beim Compiler ist die Register-Zuteilung und die wird davon nicht beeinflusst. Die Intrinsics machen vielleicht auch nur 1% des Codes aus. Wir schreiben nicht tausende Zeilen in intrinsics :ugly:

Uebrigens geht das auch gar nicht, die Intrinsics am PC sind nur fuer einen Bruchteil des Instruction-Sets, an den man sonst nicht ran kommt.

Noch etwas davor:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11557215#post11557215

gravitationsfeld
2018-09-14, 17:01:46
Was manche Studios machen ist wohl (iirc) den MS/Sony Compiler kompilieren zu lassen und den Code per Intrinsics auf dem PC zu nutzen.
Nein. Das Geruecht haelt sich hartnaeckig. Das geht nicht.

danarcho
2018-09-14, 17:22:09
Nein. Das Geruecht haelt sich hartnaeckig. Das geht nicht.
Was mich mal in dem Zusammenhang interessieren würde: Habt ihr für die switch tools um die binaries zu sehen oder auch nur ptx? Und: Haben Sony und MS wirklich eigene (offline?) shader compiler?

Dann scheinen sie es ja als Möglichkeit zu sehen, sich von der Konkurrenz abzusetzen. (Und nein, die wird AMD dann sicher nicht benutzen/nachbauen dürfen. AFAIk darf das AMD open source team nicht mal den windows Treiber sehen.)

Thema Intrinsics: Ihr könnt euch einfach mal die AMD_ extensions und capabilities von vulkan und spirv ansehen. Außer den crosslane sachen (die eigentlich gar nicht genau auf die ISA mappen), ist da wenig. Und sowas wie trinary_minmax kann eigentlich der compiler auch locker selbst finden.

gravitationsfeld
2018-09-14, 18:59:16
Was mich mal in dem Zusammenhang interessieren würde: Habt ihr für die switch tools um die binaries zu sehen
Am PC? Ja. Gibt mehrere Moeglichkeiten GCN-Disassembly zu bekommen. Sind auch alle Tools oeffentlich.

oder auch nur ptx?
PTX ist NVIDIA spezifisch.

Und: Haben Sony und MS wirklich eigene (offline?) shader compiler?
Ja. Sony den besten.

Thema Intrinsics: Ihr könnt euch einfach mal die AMD_ extensions und capabilities von vulkan und spirv ansehen. Außer den crosslane sachen (die eigentlich gar nicht genau auf die ISA mappen), ist da wenig. Und sowas wie trinary_minmax kann eigentlich der compiler auch locker selbst finden.
readFirstInvocationARB und mbcntAMD sind wichtig.

danarcho
2018-09-14, 19:29:45
Am PC? Ja. Gibt mehrere Moeglichkeiten GCN-Disassembly zu bekommen. Sind auch alle Tools oeffentlich.
Ich meinte die Nintendo Switch. Mit GCN schlage ich mich selbst schon rum ;)

Ja. Sony den besten.
ok, krass.

readFirstInvocationARB und mbcntAMD sind wichtig. deshalb ist ersteres jetzt auch in Core...

Locuza
2018-09-14, 23:41:20
Resource Heap Tier 2 yeah:
DX12 introduced the ability to allow resource views to be directly accessed by shader programs without requiring an explicit resource binding step.
Turing extends our resource support to include bindless Constant Buffer Views and Unordered Access Views, as defined in Tier 3 of DX12’s Resource Binding Specification.
Turing’s more flexible memory model also allows for multiple different resource types (such as textures and vertex buffers) to be co-located within the same heap, simplifying aspects of memory management for the app.
Turing supports Tier 2 of resource heaps.
https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf

Damit hat jeder Hersteller, zumindest auf dem Papier, die Basis für fortschrittliche DX12-Systeme ohne eklige Restriktionen.

gravitationsfeld
2018-09-15, 01:30:14
deshalb ist ersteres jetzt auch in Core...
Das hat halt auf keiner anderen GPU den selben Effekt wie bei GCN. Die Optimierungen damit wuerden NVIDIA langsamer machen.

Resource Heap Tier 2 yeah:

https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf

Damit hat jeder Hersteller, zumindest auf dem Papier, die Basis für fortschrittliche DX12-Systeme ohne eklige Restriktionen.
Das war immer das nervigste bei NVIDIA-Karten. Muss man halt trotzdem noch fuenf Jahre unterstuetzen.

pixeljetstream
2018-09-15, 16:03:16
Ich meinte die Nintendo Switch. Mit GCN schlage ich mich selbst schon rum ;)

Via NDA kann man auch für PC den nsight/pix support für SASS (NV shader assembly) bekommen.

aufkrawall
2018-09-23, 23:06:38
SotTR darf man wohl als state of the art DX12 bezeichnen:
https://abload.de/thumb/sottr_2018_09_23_23_0w3e7l.png (https://abload.de/image.php?img=sottr_2018_09_23_23_0w3e7l.png) https://abload.de/thumb/sottr_2018_09_23_22_5c3ezp.png (https://abload.de/image.php?img=sottr_2018_09_23_22_5c3ezp.png)
Finde auch nicht, dass die fps für 4C + HTT mit DX12 allgemein zu niedrig wären. Es ploppt halt kaum was und die NPCs sind auch keine billige Crowd.

dildo4u
2018-09-24, 10:17:55
Ein Must have für Ryzen habt dort 45fps mit DX11 80 mit DX12.

aufkrawall
2018-09-24, 13:22:36
Doch nicht mit diesen Settings, oder?
https://abload.de/thumb/1qpivl.png (https://abload.de/image.php?img=1qpivl.png) https://abload.de/thumb/2adf50.png (https://abload.de/image.php?img=2adf50.png)
(Volumetric Lighting muss man btw. im Spiel abschalten, der Launcher übernimmt das nicht richtig.)

dildo4u
2018-09-24, 13:44:49
Achso nein 720p reicht bei mir vollkommen um ins CPU Limit zu kommen.

Low Details macht aber kaum ein Unterscheid.


https://farm2.staticflickr.com/1918/43973134715_c661fcd4a6_o.png (https://flic.kr/p/29ZKNX6)trlow (https://flic.kr/p/29ZKNX6) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

aufkrawall
2018-09-24, 14:08:42
Blöd, dann läuft das ja wieder elendig langsam auf Ryzen. Zumindest mit Nvidia.

dildo4u
2018-09-24, 14:12:14
Oder es reagiert massiv auf schnellen Ram,CB hat mit dem 2700X bei einem Game bis zu 20%+ von 2933 aus gesehen.

aufkrawall
2018-09-24, 15:13:40
Skaliert hier quasi gar nicht mit dem RAM-Speed, fast nur im Rahmen der Messungenauigkeit langsamer mit 2666 statt 3200:
https://abload.de/thumb/sottr_2018_09_24_15_1u3ddt.png (https://abload.de/image.php?img=sottr_2018_09_24_15_1u3ddt.png)

Damit zieht mein 4C + HTT bei fast gleichem Takt deinen Sechskerner + HTT ab, das läuft also völlig katastrophal auf Ryzen (+Nvidia?).

dildo4u
2018-09-24, 15:18:19
Muss jemand mit 2700X und guten Ram testen,Ram macht bei Intel natürlich weniger was aus da du nicht zwei Dies hast.So wie ich das im Kopf habe haben die i7 ja auch über 300€ gekostet.

Savay
2018-09-24, 15:28:04
das läuft also völlig katastrophal auf Ryzen (+Nvidia?).


Tut es das?!
Sind das wenigstens die gleichen Settings?!

Die Zahlen von CB bestätigen das bspw. mal wieder nicht im mindesten.
Ansonsten kenne ich auch nur noch das:
https://wccftech.com/shadow-of-the-tomb-raider-dx11-vs-dx12-does-ryzen-still-suffer-under-geforce/

aufkrawall
2018-09-24, 15:33:49
Tut es das?!
Sind das wenigstens die gleichen Settings?!

Ja und ja.


Die Zahlen von CB bestätigen das bspw. mal wieder nicht im mindesten.
Ansonsten kenne ich auch nur noch das:
https://wccftech.com/shadow-of-the-tomb-raider-dx11-vs-dx12-does-ryzen-still-suffer-under-geforce/
GPU-Limit.

Savay
2018-09-24, 15:43:43
Ja und ja.

Interessant...es erstaunt mich immer wieder was man alles von 2 dahin geworfenen Screenshots ableiten kann ;)


GPU-Limit.

Ja klar...wenn das soooo ist...dann läuft es ja auf den Ryzen wirklich echt total "katastrophal" und "elendig langsam", wenn es selbst auf ner Ti (bei CB!) damit nicht komplett CPU limitiert ist.
Davon abgesehen ist es auch nicht komplett GPU limitiert bei CB...das passt hinten und vorne nicht zur Skalierung.

Bessere Zahlen haben wir momentan aber leider nicht....du etwa?

aufkrawall
2018-09-24, 16:26:24
Interessant...es erstaunt mich immer wieder was man alles von 2 dahin geworfenen Screenshots ableiten kann ;)

dildo hat gesagt, dass er mit low details getestet hat. Vielleicht solltest du deine Energie auch in Lesen investieren, anstatt in Vorwürfe, was nicht sein darf?


Ja klar...wenn das soooo ist...dann läuft es ja auf den Ryzen wirklich echt total "katastrophal" und "elendig langsam", wenn es selbst auf ner Ti (bei CB!) damit nicht komplett CPU limitiert ist.

Andere Szene (Dschungel).


Davon abgesehen ist es auch nicht komplett GPU limitiert bei CB...das passt hinten und vorne nicht zur Skalierung.

Whatever. Der Test von dildo und mir ist komplett CPU-limitiert. Wenn andere Tests das nicht sind, interessieren die mich herzlich wenig, wenn es darum geht, die CPU-Performance zu ermitteln.

An der Stelle versagt der Ryzen bei ihm nun mal komplett. 50% mehr Kerne, fast gleicher Takt und IPC, und das Teil liefert wesentlich niedrigere fps. Was ist daran nicht zu verstehen?
Weitere Tests mit schnellerem Speicher, Ryzen 2 oder Vega sind natürlich herzlich willkommen...

Edit: Das mit der wohl extrem hohen RAM-Skalierung bei Ryzen deutet jedenfalls auf ungünstige CCX-Verteilung.

dildo4u
2018-09-24, 16:26:46
Für die 1070 reicht der 2600X dicke in 1080p,würde ich jetzt aufrüsten auf 2080 würde ich eher versuchen die Auflösung zu erhöhen.Mein 4k TV kann nur 60hz.


https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11800065&postcount=23

gravitationsfeld
2018-09-24, 18:27:39
SotTR darf man wohl als state of the art DX12 bezeichnen:
https://abload.de/thumb/sottr_2018_09_23_23_0w3e7l.png (https://abload.de/image.php?img=sottr_2018_09_23_23_0w3e7l.png) https://abload.de/thumb/sottr_2018_09_23_22_5c3ezp.png (https://abload.de/image.php?img=sottr_2018_09_23_22_5c3ezp.png)
Finde auch nicht, dass die fps für 4C + HTT mit DX12 allgemein zu niedrig wären. Es ploppt halt kaum was und die NPCs sind auch keine billige Crowd.
Koennen wir es dann langsam mal zu Grabe tragen, dass low level APIs "nichts bringen"?

dildo4u
2018-09-24, 20:16:01
https://www.gamestar.de/artikel/shadow-of-the-tomb-raider-performance-directx-12-schlaegt-directx-11,3334559.html

https://abload.de/img/screenshot_2018-09-12y1c49.png
Da haste es ja mal was geschafft was Nützliches zu posten mein System ist also ok 45fps in DX11.

Gipsel
2018-09-24, 20:40:24
Aufgeräumt.

Rancor
2018-09-25, 08:56:49
Mich würde halt mal interessieren wieso das so ist? Dafür muss es doch einen Grund geben. Und gabs es das bei Rise of the Tomb Raider nicht auch? Ich erinnere mich das es da einen Ryzen Patch gab.... hmmm

dildo4u
2018-09-25, 09:05:41
Was meinst du Ryzen war immer für DX12 prädestiniert,daher pusht es AMD ja massiv,das hat nicht nur mit deren GPUs zu tun.Die DX11 Performance bleibt grottig so lange sie nicht die Boost Taktraten von Intel erreichen.

Rancor
2018-09-25, 10:27:16
Naja in anderen Spiele ist das nicht so.

dildo4u
2018-09-25, 10:30:16
Kaum ein anderes Spiel ist so CPU Lastig bis auf vielleicht Assassin Creed origins.
60fps für ein 8700k ist extrem selten.

Savay
2018-09-25, 11:34:59
Vielleicht solltest du deine Energie auch in Lesen investieren, anstatt in Vorwürfe, was nicht sein darf?


Wo steht das mit den Low Details?!...er schrieb nur, dass er dort schon ab 720p im CPU Limit ist und das Low (unter DX11??!) kaum einen Einfluss hat....von irgendwelchen konkreten Settings kann ich da immer noch nichts lesen. High? Highest? Was war es denn nu?

Außerdem war das kein Vorwurf, sondern ich habe lediglich meine Verwunderung(!) geäußert, wie man über 2 Screenshots quervergleiche zwischen zwei verschiedenen Systemen ziehen kann und darüber dann zu solchen Diagnosen und einem derartigen Fazit gelangen will, welche noch dazu im wesentlichen allen anderen Zahlen widersprechen die es sonst aus anderen Quellen bisher dazu gibt....egal wie gut oder schlecht (da ggf. partielles GPU Limit) die auch sein mögen. :freak:


An der Stelle versagt der Ryzen bei ihm nun mal komplett. 50% mehr Kerne, fast gleicher Takt und IPC, und das Teil liefert wesentlich niedrigere fps. Was ist daran nicht zu verstehen?

In welchem Universum ist es bitte ein "komplettes Versagen" wenn es in realitätsnahen Settings >1080p sowieso wieder GPU limitiert wird? :freak:

Mich stört nicht, dass es langsamer sein könnte (bei dem niedrigeren Takt und anscheinend eher flachem Core-Scaling wohl auch kaum verwunderlich!) sondern nur diese vollkommen übertriebene "Hop oder Top" Mentalität basierend auf 2 Screenshots. :rolleyes:
Außerdem hätte ich, wenn es schon um Balkenvergleiche geht, immer noch gerne mal ein paar mehr Zahlen dazu.

Die Skalierungstests auf anderen Seiten deuten halt bisher schlicht eher daraufhin, dass das Spiel mit DX12 im wesentlichen GPU limitiert wird und unter DX11 einfach generell die API massiv limitiert, weil die Objektdichte so hoch ist.
Und DAS finde ich eh wesentlich interessanter, als irgendwelche IHV Vergleiche!

Zumal es ein gutes Beispiel ist, das LL zwar nicht generell "besser" ist, aber vor allem dann viel bringen kann, wenn der Content und die Technik auch von vornherein daraufhin ausgelegt wurden!

aufkrawall
2018-09-25, 14:10:11
Wo steht das mit den Low Details?!...er schrieb nur, dass er dort schon ab 720p im CPU Limit ist und das Low (unter DX11??!) kaum einen Einfluss hat....von irgendwelchen konkreten Settings kann ich da immer noch nichts lesen. High? Highest? Was war es denn nu?

Was soll dieser nervtötende Tonfall mit den Doppelsatzzeichen? Möchtest du normal diskutieren oder nicht?

Was ist an

Low Details macht aber kaum ein Unterscheid.

nicht zu verstehen? Es macht keinen Unterschied (bitte mal merken). Und von DX11 seh ich da nichts, der Screenshot ist mit DX12.


Außerdem war das kein Vorwurf, sondern ich habe lediglich meine Verwunderung(!) geäußert, wie man über 2 Screenshots quervergleiche zwischen zwei verschiedenen Systemen ziehen kann und darüber dann zu solchen Diagnosen und einem derartigen Fazit gelangen will, welche noch dazu im wesentlichen allen anderen Zahlen widersprechen die es sonst aus anderen Quellen bisher dazu gibt....egal wie gut oder schlecht (da ggf. partielles GPU Limit) die auch sein mögen. :freak:

Weil die Stelle absolut reproduzierbar ist. Es gibt schlicht keinen Grund anzunehmen, dass die Performance dort, aus was für Gründen auch immer, nicht valide ist.


In welchem Universum ist es bitte ein "komplettes Versagen" wenn es in realitätsnahen Settings >1080p sowieso wieder GPU limitiert wird? :freak:

Weil es z.B. noch schlimmere Stellen in dem Level gibt, etwa, wenn man am Anfang von der Anhöhe runterschaut. Da gehts bei mir unter 100fps. Auf wie viel würde wohl ein 4C Ryzen einbrechen? Wegen der nicht fixen Kameraperspektive leider nicht gut zu benchmarken.


Mich stört nicht, dass es langsamer sein könnte (bei dem niedrigeren Takt und anscheinend eher flachem Core-Scaling wohl auch kaum verwunderlich!) sondern nur diese vollkommen übertriebene "Hop oder Top" Mentalität basierend auf 2 Screenshots. :rolleyes:

Was für flaches Core-Scaling? Die Engine hat mit das beste MT überhaupt mit DX12. Wenn da etwas flach skaliert, liegt das wohl eher wieder an der CCX-Limitierung der Ryzens. Jede Wette, dass ein 8700k dort völlig abgeht (und in 720p ins GPU-Limit läuft, GPU-Auslastung bei mir in 720p mit reduzierten GPU-Details ist meist so bei ca. ~85%).


Außerdem hätte ich, wenn es schon um Balkenvergleiche geht, immer noch gerne mal ein paar mehr Zahlen dazu.

Ich bin jetzt in dieser Siedlung, in der Gamestar gebencht hat. Können dildo und ich vllt. auch noch vergleichen.


Zumal es ein gutes Beispiel ist, das LL zwar nicht generell "besser" ist, aber vor allem dann viel bringen kann, wenn der Content und die Technik auch von vornherein daraufhin ausgelegt wurden!
DX12 ist generell besser, weil es u.a. besseres MT ermöglicht.

Kriton
2018-09-25, 16:09:59
Ich bin nicht sicher, ob ich eure Diskussion verstehe. Die Tabelle von V_V sagt für mich aus:

1. Unter DX11 limitiert der Ryzen 2700X, beim 8700k sind es die GPUs, wobei die 1080TI schneller ist als Vega 64.
2. DX12 ist immer schneller als DX11 (in dem Test).
3. Unter DX12 limitiert der 2700X nicht mehr, sondern es sind allein die GPUs.

Rancor
2018-09-26, 08:29:55
Es geht um die Aussage von Dildo, das er an der selben Stelle in DX 11 nur 45FPS hat und Aufkrawall mit seinen I7-6700k 72FPS unter DX 11. Ist wirklich ziemlich bitter für Ryzen.
Aber wie gesagt, ich erinnere mich das es in Rise of the Tomb Raider ähnliche "Probleme" mit Ryzen gegeben hat und Square Enix das durch einen Patch gefixt hat.

Ein i7-6700k ist nicht ~ 60% schneller als ein R5 2600x ;) Da muss was anderes im Busch sein.

dildo4u
2018-09-26, 09:36:05
Es wird kein DX11 Patch mehr kommen,das Game sagt dir im Menü das man DX12 nutzen soll so lange man die passende Hardware bzw OS hat.
Ich glaube Ryzen hat gar kein offiziellen Win 7 Support mehr.


https://farm2.staticflickr.com/1931/44011125355_12d1bc8123_h.jpg (https://flic.kr/p/2a47wf8)Shadow of the Tomb Raider Screenshot 2018.09.26 - 09.38.06.85 (https://flic.kr/p/2a47wf8) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

Raff
2018-09-26, 10:01:08
Man sieht doch an jeder Ecke, dass das Spiel auf Low-Level ausgelegt wurde. Die Objektdichte ist unfassbar viel höher als beim Vorgänger. Ist doch klar, dass man diese Qualität nicht umsonst bekommt, sondern durch den Fokus auf moderne Möglichkeiten. DX11 ist ein Fallback.

MfG,
Raff

dildo4u
2018-09-26, 10:08:11
Ja auch die NPC's in Mexiko sehen extrem gut aus,das sind nicht die typischen Open World NPC.Umso erstaunlicher das sie überhaupt ein 60fps Modus auf Konsole versuchen.

https://farm2.staticflickr.com/1894/44750662742_e5fd480c03_h.jpg (https://flic.kr/p/2bbsQWJ)Shadow of the Tomb Raider Screenshot 2018.09.20 - 11.58.35.10 (https://flic.kr/p/2bbsQWJ) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

Rancor
2018-09-26, 13:37:53
Aber selbst unter DX 12 ist Aufkrawalls I7 deutlich schneller als der R5 2600x von Dildo. Das habe ich in der Deutlichkeit bei einem nicht übertakteten I7 noch nicht gesehen.

112 FPS vs 82FPS. Sind immerhin noch ~36% mehr.

Linmoum
2018-09-26, 13:41:40
Für bessere Vergleichbarkeit fehlt AMD+Ryzen, dildo hat ja 'ne 1070. Da gab es beim Vorgänger schon Auffälligkeiten.

dildo4u
2018-09-26, 13:47:19
Aber selbst unter DX 12 ist Aufkrawalls I7 deutlich schneller als der R5 2600x von Dildo. Das habe ich in der Deutlichkeit bei einem nicht übertakteten I7 noch nicht gesehen.

112 FPS vs 82FPS. Sind immerhin noch ~36% mehr.
Noch mal mein System ist nicht optimal konfiguriert,da mir der Ram ständig abschmiert,man sollte Ryzen zumindest mit 3200 Ram benchen.
Und davon ab waren Ryzen 5 immer als i5 Gegner gedacht,ein 8400 wäre interessant der boostet nicht so hoch.

aufkrawall
2018-09-26, 13:52:50
Falls du mal noch die Stelle testen willst: Zum Tempeldistrikt schnellreisen, auf die höchste Stufe stellen, das Holz wie zu sehen anvisieren und dann wieder rauszoomen:
https://abload.de/thumb/sottr_2018_09_26_13_4q6ikr.png (https://abload.de/image.php?img=sottr_2018_09_26_13_4q6ikr.png) https://abload.de/thumb/sottr_2018_09_26_13_44rdvd.png (https://abload.de/image.php?img=sottr_2018_09_26_13_44rdvd.png)
(Schatten auf niedrig ergeben im CPU-Limit btw. die gleichen fps wie ultra.)

In der Stadt kackt es im CPU-Limit kurzzeitig während des Durchlaufens etwas an, in WQHD merk ich das allerdings nicht mehr. Jedenfalls viel besser als die hässlichen Spikes in AC: O.

teezaken
2018-09-26, 14:10:49
Hab mal die selbe Stelle versucht bei meinem 2700x. (ohne SMT)
3.9GHz und 3366MHz RAM CL14, alles @ Max außer AA (SMAAT2X)
https://abload.de/thumb/shadowofthetombraider51ct1.png (https://abload.de/image.php?img=shadowofthetombraider51ct1.png)https://abload.de/thumb/shadowofthetombraiderpvimo.png (https://abload.de/image.php?img=shadowofthetombraiderpvimo.png)
Selbe Stelle bei 6 Cores 89FPS und 104FPS
4 Cores 65FPS und 77FPS.

dildo4u
2018-09-26, 14:13:04
Danke für die Werte hab bisher noch gar nicht weiter gezockt.

Raff
2018-09-26, 14:25:25
Kann bestätigen, dass das quasi der Wurstkäse unter den Käsesorten des Spiels ist.

MfG,
Raff

aufkrawall
2018-09-26, 14:37:04
Hab mal die selbe Stelle versucht bei meinem 2700x. (ohne SMT)
3.9GHz und 3366MHz RAM CL14, alles @ Max außer AA (SMAAT2X)
https://abload.de/thumb/shadowofthetombraider51ct1.png (https://abload.de/image.php?img=shadowofthetombraider51ct1.png)https://abload.de/thumb/shadowofthetombraiderpvimo.png (https://abload.de/image.php?img=shadowofthetombraiderpvimo.png)
Selbe Stelle bei 6 Cores 89FPS und 104FPS
4 Cores 65FPS und 77FPS.
Ist das CPU-limitiert? Mit "Höchste Stufe" meinte ich die Treppe, nicht die Grafikdetails. :D
Bei denen alles minimal einstellen, außer LOD und Texturqualität @max und Schatten @low.

teezaken
2018-09-26, 14:39:46
Ist das CPU-limitiert? Mit "Höchste Stufe" meinte ich die Treppe, nicht die Grafikdetails. :D
Bei denen alles minimal einstellen, außer LOD und Texturqualität @max und Schatten @low.
Oh achso sorry. xD
Ja das passiert wenn man alles nur überfliegt.
Aber habs eben nochmal getestet mit deinen Settings und die FPS bleiben gleich.. gut beim Zoomen sind es statt den 116FPS halt 120FPS. Kann auch Zufall sein, weil habe es dann nochmal neu gestartet und es waren 107FPS und 126FPS.
Aber die Richtung passt ja.

aufkrawall
2018-09-26, 14:55:34
Ok. Ryzen 2 + schneller RAM entschärft das Problem also deutlich, irgendwo klemmt es offenkundig aber weiterhin. Zeigen die Tests halt nicht, weil das Spiel mit DX12 und ab 1080p ständig im GPU-Limit läuft (was der Sache natürlich die Dramatik in der Praxis nimmt, keine Frage).

dildo4u
2018-09-26, 15:04:48
Er lässt auch nur mit 3.9Ghz laufen der 2700X sollte mit XFR 2 noch bissel höher boosten.

aufkrawall
2018-09-26, 15:08:56
Das ist doch nur Gefeilsche um ein paar %, durch die gute MT-Skalierung sollte der 8700k der Gegner sein. Der ist aber sicherlich ziemlich außer Reichweite.

teezaken
2018-09-26, 15:09:57
Er lässt auch nur mit 3.9Ghz laufen der 2700X sollte mit XFR 2 noch bissel höher boosten.
Ich glaube ja nicht das diese 1-2FPS noch so viel bringen würden.
Das ist doch nur Gefeilsche um ein paar %, durch die gute MT-Skalierung sollte der 8700k der Gegner sein. Der ist aber sicherlich ziemlich außer Reichweite.
Ja denke ich auch.

Rancor
2018-09-26, 15:14:15
Was hast du denn fürn RAM @ Dildo?

dildo4u
2018-09-26, 15:28:43
Corsair LPX mit Hynix Chips.Hab ihn Mitte 2017 für 130€ bekommen,Samsung Ram war dort schon bei 200€+.Also so teuer wie die CPU. :down:


https://www.corsair.com/de/de/Memory-Size/vengeance-lpx-black/p/CMK16GX4M2B3000C15

Rancor
2018-09-26, 16:11:09
Und den bekommst du nicht auf 3000 Mhz stabil ?
Mein Corsair Vengeance rennt mittlerweile mit 3200 Mhz XMP oder 3000MHZ CL 14. Ist auch Hynix Ram. Und ich hab noch den alten Ryzen.

kruemelmonster
2018-09-26, 16:21:24
@dildo4u:

Habe exakt den gleichen RAM mit einem 7800X am laufen, die zwei DualChannel Kits machen bei mir 3200 @ CL16, 3466 @ CL17 und 3733 @ CL18 mit. Für die beiden höchsten Taktraten hab ich 1,38v anliegen.

dildo4u
2018-09-26, 16:23:36
Und den bekommst du nicht auf 3000 Mhz stabil ?
Mein Corsair Vengeance rennt mittlerweile mit 3200 Mhz XMP oder 3000MHZ CL 14. Ist auch Hynix Ram. Und ich hab noch den alten Ryzen.
Es ist unmöglich genau zu testen,der Ram macht keine Probleme direkt nach dem Boot,aber wenn der Rechner ne Weile läuft kann er beim zocken abkacken.
Ist extrem nervig wenn man für jede neue Einstellung erstmal Stunden warten muss um zuverlässige Werte zu bekommen.

kruemelmonster
2018-09-26, 16:42:06
Es ist unmöglich genau zu testen,der Ram macht keine Probleme direkt nach dem Boot,aber wenn der Rechner ne Weile läuft kann er beim zocken abkacken.
Ist extrem nervig wenn man für jede neue Einstellung erstmal Stunden warten muss um zuverlässige Werte zu bekommen.

https://www.techpowerup.com/memtest64/

Deckt bei mir RAM-Fehler durch OC um Längen schneller auf als y-cruncher oder Memtest86+. Tested Memory auf RAM-Menge minus 4 GB, Stop after 5 Loops sowie Stop on Error einstellen und laufen lassen.

Kriton
2018-09-26, 17:50:23
Vielleicht könnt ihr die RAM-Diskussion auslagern?

Ex3cut3r
2018-10-03, 17:02:59
Muss sagen, DX12 bei SOTTR ist einfach göttliich, teilweise riesige Dörfer mit NPCs und es gibt im Vergleich zum Wichter 3 oder ACO nicht einen Nachladeruckler/Spike, bitte mehr DX12 in Zukunft, aber genau so umgesetzt. :)

dargo
2018-10-03, 17:15:29
Lol... vor kurzem wolltest du DX12 nicht mal mit der Kneifzange anfassen. :biggrin:

Linmoum
2018-10-03, 17:40:01
Da hatte er ja auch noch Pascal. :tongue:

dildo4u
2018-10-03, 17:50:16
Du brauchst bei dem Game auch mit Pascal DX12.

https://www.gamestar.de/artikel/shadow-of-the-tomb-raider-performance-directx-12-schlaegt-directx-11,3334559.html

gravitationsfeld
2018-10-03, 18:08:56
Lol... vor kurzem wolltest du DX12 nicht mal mit der Kneifzange anfassen. :biggrin:
Als ich solche Aussagen getroffen hatte was den Detailgrad angeht, hat man mich ausgelacht.

dargo
2018-10-03, 18:18:36
Als ich solche Aussagen getroffen hatte was den Detailgrad angeht, hat man mich ausgelacht.
Ich weiß... manche ohne technisches Hintergrundwissen müssen halt erst mit einem praktischen Beispiel überzeugt werden. Ist nun mal so. Aktuell könnte ich wieder über die technische Umsetzung bei Assassin's Creed: Odyssey abkotzen. :usad:

IchoTolot
2018-10-03, 18:28:26
Is Assassins Creed Odysee DX12?

aufkrawall
2018-10-03, 18:28:38
Hab mal die selbe Stelle versucht bei meinem 2700x. (ohne SMT)
3.9GHz und 3366MHz RAM CL14, alles @ Max außer AA (SMAAT2X)
https://abload.de/thumb/shadowofthetombraider51ct1.png (https://abload.de/image.php?img=shadowofthetombraider51ct1.png)https://abload.de/thumb/shadowofthetombraiderpvimo.png (https://abload.de/image.php?img=shadowofthetombraiderpvimo.png)
Selbe Stelle bei 6 Cores 89FPS und 104FPS
4 Cores 65FPS und 77FPS.
Hm, läuft etwas langsam bei dir mit 6C. Bei meinem Bruder mit 2600@4GHz und optimiertem 3200er CL 14 RAM läuft es eine Spur schneller als mit meinem 6700k, in der herausgezoomten Kamera >100fps. Dann wirds mit der 1060 schon schwer mit dem GPU-Limit in 720p.

Ex3cut3r
2018-10-03, 18:34:08
Lol... vor kurzem wolltest du DX12 nicht mal mit der Kneifzange anfassen. :biggrin:

Spinn nicht rum, ich hatte damals auch Screens gepostet die einen großen FPS Unterschied zwischen DX11 und DX12 in Rise of the Tomb Raider zeigten, ein Großteil der DX12 Spiele laufen halt mies.

dargo
2018-10-03, 18:42:17
Is Assassins Creed Odysee DX12?
Leider nein.

Spinn nicht rum, ich hatte damals auch Screens gepostet die einen großen FPS Unterschied zwischen DX11 und DX12 in Rise of the Tomb Raider zeigten, ein Großteil der DX12 Spiele laufen halt mies.
Nimm doch nicht alles gleich so ernst. :) Eigentlich wollte ich nur damit sagen, dass DX12 nicht per se schlecht ist. Es kann immer nur das sein, was die Entwickler draus machen. Die ersten Schritte waren halt oft ausbaufähig.

Ex3cut3r
2018-10-03, 19:50:08
Das sehe ich jetzt auch ein. Auf jeden fall bitte mehr DX12 aber richtig umgesetzt. :)

Locuza
2018-10-06, 17:53:35
Für DX12 kommen bzw. sind ein paar Neuigkeiten an Board.
TiledResources Tier 4, MSAA64KBAlignedTextures, AtomicShaderInstructions, RenderPass Tier und Raytracing Tier.

Pascal unterstützt schon Tiled Resourecs Tier 4 und MSAA64KBAlignedTextures, wobei es leider keine Dokumentation über die Features gibt:
https://forum.beyond3d.com/posts/2044959/

Wem langweilig ist, kann sich D3D12CheckFeatureSupport.zip herunterladen und falls nötig Visual C++ Redistributable for Visual Studio 2017 (x64), dann einfach checkfeatures.cmd laufen lassen und anschließend D3D12FeatureOptions.txt auslesen.
Am Besten ist es den Entwicklermodus davor zu aktivieren, unter Einstellungen --> Updates und Sicherheit --> Für Entwickler und dann den Entwicklermodus aktivieren, somit werden mehr Features angezeigt bzw. welche nur experimentel zugänglich sind, wie Tiled Resources Tier 4, ansonsten wird maximal Tier 3 angezeigt.

gravitationsfeld
2018-10-06, 18:02:42
Die Microsoft-Dokumentation fuer DX12 ist eine absolute Katastrophe.

Locuza
2018-10-06, 18:11:56
Ach was, nur ein wenig outdated, so ca. ein Jahr und löchrig wie ein Schweizer Käse, nichts was leading edge developer wirklich bräuchten. :freak:

Auf Twitter meinten ein paar das es eine nicht öffentliche DX12 Dokumentation für Entwickler gibt, wobei ich nicht einschätzen kann, ob das stimmt und in wie weit vielleicht die Xbox One DX12 API gemeint war.

dargo
2018-10-06, 19:29:16
Die Microsoft-Dokumentation fuer DX12 ist eine absolute Katastrophe.
Ich kann das ehrlich gesagt als Außenstehender nicht nachvollziehen. Warum zum Geier gehen die Entwickler dann nicht alle auf Vulkan?

Digidi
2018-10-06, 22:23:43
Ich kann das ehrlich gesagt als Außenstehender nicht nachvollziehen. Warum zum Geier gehen die Entwickler dann nicht alle auf Vulkan?

Weil wie Locuza beschreibt es externe und wahrscheinlich interne Dokumente gibt. ;)

Locuza
2018-10-06, 22:53:30
Ich bin da sicher eine kaputte Schaltplatte die sich ständig wiederholt, aber Vulkan 1.0 kam später als DX12, bot kein HLSL-Shader Frontend was für viele Studios sehr wichtig war, dass die bestehenden Shader einfach funktionieren, ohne viel zusätzliches Gefrickel und langer Übersetzungspipeline, MultiGPU Support hat auch gefehlt.
Dieser Headstart ist sicherlich dafür verantwortlich, wieso es teilweise mehr DX12-Implementierungen gibt.

Mit Vulkan 1.1 sind aber viele Faktoren aus dem Weg geräumt und jetzt stelle ich mir die Frage, ob wir bald eine größere Verbreitung erwarten können?
Jedenfalls ein paar Sachen sind positiv zu bewerten.
Die Nitrous Engine hat einen Vulkan-Pfad bekommen und Ashes of the Singularity damit ausgestattet, obwohl es schon einen DX11 und DX12 Pfad gab.
Strange Brigade von Rebellion hat DX11 ganz fallen gelassen und stattdessen Vulkan für W7/8/10 User eingebaut, wobei DX12 erhalten blieb.
The Elder Scrolls Online hat Vulkan eingebaut, jedenfalls verwenden sie es für MacOS mit MoltenVK und ebenso Valve für Dota2, wobei hier ja auch schon seit längerem klar ist, dass dort kein Interesse an anderen APIs besteht.

Und eine gänzlich andere Ebene, aber der GameCube/Wii-Emulator Dolphin hat auch ein Vulkan Backend und es gab Arbeiten an einem nativen Metal-Backend, welches dank MoltenVK auf Eis gelegt wurde.
Der PSP-Emulator PPSSPP besitzt auch ein Vulkan-Backend, ebenso RPCS3 für die PS3 und Xenia für die Xbox 360.
Und jedenfalls früher meinte der Entwickler vom WiiU-Emulator CEMU das 2019 ein Vulkan-Backend ansteht, bisher gibt es dort nur OGL.

Ein Teil der Community nimmt es auf jeden Fall an.

Zurück zu Kommerzprodukten, Tamas Rabel von Creative Assembly meinte bei Total War: Warhammer folgende Gründe haben damals gegen DX12 gesprochen:

Tamas Rabel says:
August 4, 2016 at 4:59 pm

Two main reasons: DX12 was in a more mature state when we started porting, and our primary tech is DX11. Since DX12 is much closer to our (DX11 based) API abstraction than Vulkan, it was a better fit for our needs.

+

Tamas Rabel says:
August 5, 2016 at 3:33 pm

I wouldn’t say being another DirectX is a downside of DX12. DirectX has a well designed architecture and that hasn’t changed with DirectX 12.
Yes, it would have been much better to redesign the engine from scratch, but time is of the essence. Professional game development is not just about building something for yourself. It’s a cooperative result of hundreds of people working together towards a common goal, with _very_ tight deadlines. It doesn’t mean it’s not going to happen, it just means that it will happen in small increments. We definitely learned a lot from this effort and will factor all this experience into the never-ending stream of improvements.
Building on the new paradigms which are shared between DX12 and Vulkan is much more important than the actual choice of APIs (especially if they are as similar as Vulkan and DX12).

gravitationsfeld
2018-10-06, 23:31:12
Weil wie Locuza beschreibt es externe und wahrscheinlich interne Dokumente gibt. ;)
Nein, gibt es nicht. Ist wirklich ein Trauerspiel.

Ich kann das ehrlich gesagt als Außenstehender nicht nachvollziehen. Warum zum Geier gehen die Entwickler dann nicht alle auf Vulkan?
FUD

pixeljetstream
2018-10-07, 00:10:13
So sehr ich selbst an Vulkan hänge, aber es hat mehr Gründe als nur FUD imo. Wie Locuza meinte, VK wird für vieles immer hinter DX sein was Standardisierung angeht. MS kann stärker auf Desktop wertlegen und mit whql immerhin Treiber für seine Platform zertifizieren, während bei Khronos die Firmen schon sehr stark unterschiedlich ausgeprägt sind und viele Platformen existieren.

Design by committee dauert. MS kann Dinge entscheiden. In Khronos ist das Stimmrecht für alle gleich.

Es ist zwar schon sehr gut was mit Vulkan verbessert wurde (sdk etc.) Aber vieles basiert halt auf good will (conformance, tools).

Ich bin gespannt wann der Übergang passiert an dem noch mehr Spielefirmen sich noch mehr an Vulkan beteiligen (sei es als Mitglieder, oder stärker an den open-source Tools). Es fühlt sich immer noch was zaghaft an, aber es rollen jedes Jahr mehr Steine.

Imo überwiegt noch die Business-Entscheidung (verständliches Maß Trägheit/Komfort von MS). Es ist im Moment "noch" teurer von DX wegzugehen, aber irgendwann wird die Abhängigkeit von MS und deren Entscheiden noch teurer kommen als selbst mehr Verantwortung zu übernehmen. Es geht imo um mehr als nur die API.

aufkrawall
2018-10-07, 00:39:45
Was bringt denn eigentlich eine WHQL-Zertifizierung? Bisher hat noch jeder Hersteller absolute Katastrophen-Treiber damit veröffentlicht.

pixeljetstream
2018-10-07, 00:55:01
Hihi, es ist besser als gar nix. Du musst bei Vulkan oder GL nur einmal den conformance test besiegen und kannst dann dein Produkt VK 1.0 konform nennen, egal mit welchem Treiber und wie löchrig der Test damals war (was nicht böse gemeint ist, in der Natur der Sache werden die über Zeit besser). Natürlich kann man das immer wiederholen mit neueren Tests und Treibern ber Du musst das afaik nicht machen.

Für Android wird Google tests forcieren, aber MS ist VK/GL egal. Deswegen ist das Geschäft bei Workstation (quadro etc.) mit zertifizierten Treibern ja auch echt was wert und die Karten indirekt teurer. Weil hier NV in Abstimmung mit Partnern immer wieder Treiber testet, mit deren Tests etc.

aufkrawall
2018-10-07, 01:24:59
Interessant. :)
Das Problem ist aber bestimmt auch die für proprietäre Treiber typische fehlende Transparenz? Mir ist jetzt nicht bekannt, dass die Mesa OGL-Treiber in der jüngeren Zeit problematisch mit Konformitätstests gewesen wären. Hinter denen stehen ja auch mehr oder weniger direkt Intel und AMD selbst, und nicht nur Hobby-Bastler.

pixeljetstream
2018-10-07, 01:33:38
Ne das hat damit nix zu tun. Es geht nur um die Masse der Tests (kann ja jenseits Konformität gehen), und die Möglichkeit solche Tests zu forcieren um den Treiber zu kennzeichnen.
Transparent ist es ja, weil die Test Suite als auch Ergebnisse öffentlich sind (auf Khronos Website). Die conformance tests selbst sind ja auch Software die weiter entwickelt wird.

Ich will damit nur verdeutlichen dass MS hier etwas für Windows/DX tun kann, wofür es im Vulkanfall keine direkte Equivalenz gäbe. Genau wie Google hier Macht über Android hat.

danarcho
2018-10-07, 01:58:36
Hihi, es ist besser als gar nix. Du musst bei Vulkan oder GL nur einmal den conformance test besiegen und kannst dann dein Produkt VK 1.0 konform nennen, egal mit welchem Treiber und wie löchrig der Test damals war (was nicht böse gemeint ist, in der Natur der Sache werden die über Zeit besser). Natürlich kann man das immer wiederholen mit neueren Tests und Treibern ber Du musst das afaik nicht machen.
Zeig mir mal einen aktuellen Treiber mit Test regressions. Die Conformance Tests von VK sind alle öffentlich. Jeder kann seinen Treiber selbst testen (das wird aber sowieso dauernd durch die Treiber-Entwickler vorgenommen) und einen Bug filen, wenn einer failed. Jeder Entwickler kann selbst pull requests erstellen, wenn ihm etwas fehlt oder unklar ist oder um Tests bitten. Ich kenne die DX Tests nicht, aber meinst du wirklich, dass die aussagekräftiger sind?

hilo
2018-10-07, 02:01:47
X4 Foundations (Release 30.11.2018) von Egosoft nutzt Vulkan und X-Plane 11 soll von OpenGL auf Vulkan (und Apple Metal) portiert werden (Sollte m.W. eigentlich sogar als public beta dieses Jahr noch passieren, aber das wird wohl nichts mehr.). Immerhin Airfoil-Maker läuft wohl schon mit Vulkan (69 % weniger Treiberaufrufe als mit OpenGL). Also es tut sich schon was.

pixeljetstream
2018-10-07, 05:32:19
Zeig mir mal einen aktuellen Treiber mit Test regressions. Die Conformance Tests von VK sind alle öffentlich. Jeder kann seinen Treiber selbst testen (das wird aber sowieso dauernd durch die Treiber-Entwickler vorgenommen) und einen Bug filen, wenn einer failed. Jeder Entwickler kann selbst pull requests erstellen, wenn ihm etwas fehlt oder unklar ist oder um Tests bitten. Ich kenne die DX Tests nicht, aber meinst du wirklich, dass die aussagekräftiger sind?
Allein weil es die whql tests schon lange gibt, würde ich vermuten daß MS hier mehr hat und als Platformhalter auch Macht hat. Am Ende kümmert sich jeder um seins, und da fehlt halt für Windows/Desktop der große Player. Es ist kein technisches oder grundsätzliches Problem. Aber in der Diskussion Entwickler bei Windows von DX wegzubekommen ist es imo eben legitim zu sagen, dass es dann keinen "großen" gibt der die Finger drauf hat.

dargo
2018-10-07, 08:16:44
FUD
Geht das auch ausführlicher? :D

Ganon
2018-10-07, 09:54:01
Und eine gänzlich andere Ebene, aber der GameCube/Wii-Emulator Dolphin hat auch ein Vulkan Backend und es gab Arbeiten an einem nativen Metal-Backend, welches dank MoltenVK auf Eis gelegt wurde.
Der PSP-Emulator PPSSPP besitzt auch ein Vulkan-Backend, ebenso RPCS3 für die PS3 und Xenia für die Xbox 360.
Und jedenfalls früher meinte der Entwickler vom WiiU-Emulator CEMU das 2019 ein Vulkan-Backend ansteht, bisher gibt es dort nur OGL.

Ein Teil der Community nimmt es auf jeden Fall an.

Der Cross-Plattform Teil der Community hat auch keine andere Wahl. Die Programme sollen ja auch alle auf Linux und teilweise Android laufen. ;) Xenia ist aber soweit ich weiß auf DX12-only umgeschwenkt seit einiger Zeit. Angeblich aufgrund der besseren Debugging-Möglichkeiten. Vulkan soll aber wiederkommen, irgendwann.

Locuza
2018-10-07, 10:19:37
Sollen aus freier Motivation in dem Fall, da die meisten Entwickler nicht bezahlt werden und auch ansonsten keine Verpflichtungen bezüglich der Plattformen oder User zu erfüllen haben.
RPCS3 und CEMU sind die einzigen die wirklich Geld pro Monat reinbekommen und wo die Entwickler davon leben können, wobei CEMU nur ein OGL-Backend besitzt, wie viele anderen Emulatoren davor auch, also Vulkan hat es an der Stelle für Cross-Plattform Support nicht benötigt und trotzdem haben sich viele relativ früh an Vulkan gewagt, was von der Komplexität und bei der Emulator-Codebase sicherlich kein Zuckerschlecken war.
Da gab es auch fleißig Reports bezüglich Treiber-Bugs oder in Bezug auf MoltenVK und fehlende Features.

An der Stelle ist es großartig das Bethesda und ihre Studios sich mit Vulkan beschäftigen und Spiele veröffentlichen, neben bisher nur wenigen anderen, hilft das immerhin das Ökosystem zu stärken und eine Vertrauensbasis aufzubauen, denn teilweise kommt man trotz legitimer Argumente nicht herum zu denken, dass FUD durchaus in den Köpfen einiger Studios dafür verantwortlich ist, trotz oder gerade wegen Business-Geldern.

Ganon
2018-10-07, 10:34:31
Sollen aus freier Motivation in dem Fall, da die meisten Entwickler nicht bezahlt werden und auch ansonsten keine Verpflichtungen bezüglich der Plattformen oder User zu erfüllen haben

Woher die Motivation kommt ist unterschiedlich (Dolphin z.B. hatte die Vorteile von LL-APIs lange abgestritten, bis jemand mit einem DX12-Backend kam, dass das Gegenteil zeigte, vor allem auf AMD-Hardware). Gerade bei Emulatoren neuerer Systeme ist eine Low-Level API so ziemlich die einzige Option überhaupt irgendwas mit anständiger Performance auf den Schirm zu bringen. Selbst ein GameCube-Spiel kann unter Umständen mehr Drawcalls raushauen als ein heutiger PC über eine API wie OpenGL "vertragen" kann. Oder anders ausgedrückt: Die Performance ist dann deutlich schlechter in Relation zu anderen Spielen.

Der Blogeintrag (https://de.dolphin-emu.org/blog/2018/07/21/myth-debugging-wii-more-demanding-emulate-gamecube/) befasst sich etwas damit.


As mentioned above in the GPU section, one particularly difficult thing about emulating the GameCube/Wii is that Flipper/Hollywood can pipeline a lot of state changes that require modern PC GPUs to flush the pipeline. These games may be doing something that is tolerable for their target hardware but is incredibly inefficient to do on a modern GPU!

[...]

When properties are varying per-batch, modern GPUs struggle to keep up and Dolphin does little to help currently. The one thing to note is that Vulkan helps a lot in draw call bottlenecked situations thanks to more efficient handling of draw calls and far fewer API calls. This is because Vulkan has a single immutable pipeline switch and can be potentially cut down to just three API calls, compared to tens in OpenGL.

[...]

Unlike OpenGL, Vulkan is able to power through the Minimap's many draw calls.

pixeljetstream
2018-10-07, 11:49:33
An der Stelle ist es großartig das Bethesda und ihre Studios sich mit Vulkan beschäftigen und Spiele veröffentlichen, neben bisher nur wenigen anderen, hilft das immerhin das Ökosystem zu stärken und eine Vertrauensbasis aufzubauen, denn teilweise kommt man trotz legitimer Argumente nicht herum zu denken, dass FUD durchaus in den Köpfen einiger Studios dafür verantwortlich ist, trotz oder gerade wegen Business-Geldern.

Beschäftigen tun sich zum Glück alle großen. Für mich klingt FUD hier nach Misinformation, was denke ich nicht dominiert. Man muss die Kritik (die nicht technischer Natur ist) an VK ernst nehmen um sie durch die passenden Taten abzubauen. Aber man kann dabei eben nicht so leicht mit dem Finger auf jemanden zeigen.

Locuza
2018-10-07, 12:34:12
Mit dem Finger auf das Problem zeigen würde viele interessieren, denn FUD selber steht nur für Fear, Uncertainty und Doubt und das scheint grob betrachtet in Teilen zu herrschen, denn wenn nirgendwo eine eindeutig rote Flagge gegen Vulkan gehisst wird, wo sich alle einig sind, kann man sich als Außenstehender nur wundern, wieso DX12 aber nicht Vulkan implementiert wird.
Es scheint nämlich keine so frappierenden Argumente dagegen zu geben.

pixeljetstream
2018-10-07, 12:57:18
ich dachte eigentlich die Argumente die ich genannt habe (features später, kein Platformhalter der sich um das ökosystem bei desktop kümmert) seien valide, die Leute tendenziell bei DX zu halten. Aber ja im Prinzip hast mit FUD Recht, es ist der Zweifel dass sich der Wechsel lohnt.
"Finger zeig" war im Sinne der Verantwortlichkeit gedacht: einer (MS) vs viele (Khronos) die sich diese teilen.

aufkrawall
2018-10-07, 13:03:09
Wofür braucht es denn für Vulkan einen Plattformhalter? Die IHVs haben selbst ein starkes Interesse daran, für eine anständige Implementierung zu sorgen. Ich hatte mit dem AMD Windows-Treiber noch nicht einen einzigen Bug in irgendeiner Vulkan-Anwendung.

pixeljetstream
2018-10-07, 13:26:40
Das beste Beispiel ist die Macht gewissen Featureumfang als Minimum zu definieren und einen Zeitplan vorzugeben. OS version foo soll mit N features an Tag X shippen. AMD und NV sind nur zwei von unzähligen Mitgliedern in Khronos (https://www.khronos.org/members/list contributor und promoter können abstimmen ), ohne externen Druck ist's schwer ;)
Wir haben nur drei große Player (google, apple, ms) die diese Macht besitzen, jeder setzt auf ein Ökosystem (vk, metal, dx) für die Zukunft seines Zielmarkts. Vielleicht kommt mit dem Gamestreaming von google ja nochmal eine deutlicherer push.
Das heißt nicht dass AMD und NV oder Intel kein Interesse am Fortschritt hätten, aber wohin die Reise geht und was in den Standard wandert liegt nicht an ihnen allein.
Ich will kein "düsteres" Bild malen, ich arbeite ja selbst quasi nur als Teil von Khronos, und mit vulkan hat man sehr sehr vieles besser gemacht, aber man muss sich dem "big picture" halt auch bewusst sein.

Locuza
2018-10-07, 13:42:55
Das Gespür für das Gewicht von den Argumenten fehlt leider.
Mir fallen auch einige Gründe ein wie PIX von Microsoft, einige API-Features die bei DX12 schöner ausfallen, wie Over-Commitment beim Speicher, aber wie sehr interessieren die Gründe zusammen in der Praxis?
Es gibt schließlich auch Gründe für Vulkan, dort fallen einige andere API-Entscheidungen schöner aus, die Möglichkeit schneller Erweiterungen für wichtige Funktionen zu bekommen und immerhin an Prototypen zu basteln ist auch toll.
Es ist auch eine Standard-API unter Android, was für Cross-Platform-Support ein starkes Argument darstellt und dann fragt man sich wieder erneut, okay wieso schlägt bei vielen das Pendel lieber Richtung DX12 aus?

Für einige Spiele kommt bald DXR/RTX-Support, dass ist für ein paar wichtig, aber es gibt auch Spiele die nur stupide DX12 ohne besondere Features implementiert haben, wo es Vulkan genau so getan hätte.

Vulkan scheint beim Featureset auch nicht stark hinterherzuhinken, dass war vorübergehend mit OGL ein größeres Problem.
Die Offenheit scheint indem Aspekt auch sehr zu helfen.
Viele Entwickler können auf GitHub direkt Feedback zur Dokumentation, den Conformance Tests und bei einigen Herstellern gar zum Treiber-Source-Code geben.
Einige Probleme lösen sich dort ziemlich schnell, während bei DX man die Dinge weniger direkt adressieren und lösen kann.

Als Außenstehender bin ich auf die Landschaft in ungefähr 2 Jahren gespannt, dass ist ungefähr der Zeitrahmen, wo ich im Schnitt viel mehr Spiele mit explicit API-Support erwarte und man dann genauer sehen kann, wie die Verteilung ausfällt.

aufkrawall
2018-10-07, 13:51:55
Einige Probleme lösen sich dort ziemlich schnell, während bei DX man die Dinge weniger direkt adressieren und lösen kann.

Man ist allerdings unter Windows auch mit Vulkan WDDM und dem Windows-Kernel unterworfen.

Ich muss mir nur anschauen, wie neue Windows 10-Versionen Performance-Probleme in manchen Spielen verursachen, und schon tritt der Brechreiz ein.
Windows gehört komplett in die Tonne, wir sollten Valve einen Altar errichten...

pixeljetstream
2018-10-07, 14:48:08
Der Extension Mechanismus ist schon super, wer die Backdoor Apis für DX gesehen hat weiß warum ;)
Aber wir machen den Thread gerade zum DX/VK Thread...

@Locuza, Android ist kein high-end gaming. De facto ist Windows die Platform dafür.
Ja 2020 wird sicher spannend, auch wegen Intel und wir beim streaming wieder was weiter sind. Der Vorteil dürfte auch sein dass das lag von vulkan dann etwas weniger ins Gewicht fällt wie gerade noch. Vorausgesetzt die Apis stabilisieren sich im Featureumfang etwas.

gravitationsfeld
2018-10-07, 17:54:51
So sehr ich selbst an Vulkan hänge, aber es hat mehr Gründe als nur FUD imo. Wie Locuza meinte, VK wird für vieles immer hinter DX sein was Standardisierung angeht. MS kann stärker auf Desktop wertlegen und mit whql immerhin Treiber für seine Platform zertifizieren, während bei Khronos die Firmen schon sehr stark unterschiedlich ausgeprägt sind und viele Platformen existieren.

Design by committee dauert. MS kann Dinge entscheiden. In Khronos ist das Stimmrecht für alle gleich.

Es ist zwar schon sehr gut was mit Vulkan verbessert wurde (sdk etc.) Aber vieles basiert halt auf good will (conformance, tools).

Ich bin gespannt wann der Übergang passiert an dem noch mehr Spielefirmen sich noch mehr an Vulkan beteiligen (sei es als Mitglieder, oder stärker an den open-source Tools). Es fühlt sich immer noch was zaghaft an, aber es rollen jedes Jahr mehr Steine.

Imo überwiegt noch die Business-Entscheidung (verständliches Maß Trägheit/Komfort von MS). Es ist im Moment "noch" teurer von DX wegzugehen, aber irgendwann wird die Abhängigkeit von MS und deren Entscheiden noch teurer kommen als selbst mehr Verantwortung zu übernehmen. Es geht imo um mehr als nur die API.
Wir hatten die Diskussion schon mal, aber das stimmt einfach nicht. Es gibt zig Sachen die ich in Vulkan machen kann, die nicht in DX12 sind weil MS einfach keinen Bock hat oder keine herstellspezifischen Extensions will. Unter anderem eure Mesh Shader.

Raytracing war die erste Ausnahme seit einiger Zeit und das auch nur wegen foul play, so wie das mir kommuniziert wurde. Sprich: Geld.

pixeljetstream
2018-10-07, 18:22:30
Was genau stimmt nicht?
Die Features kamen fast immer als vendor extension in GL/VK früher als in DX. Aber bei der Standardisierung ist es leider meist nicht so. Allein schon von Berufswegen würde ich mich freuen wenn es anders wäre. Aus der reinen "gib mir die Technik" Sicht stimme ich dir zu, aber mein Argument ist ja gerade darüber hinaus zu gucken, was andere Faktoren sind. Wir sind uns imo einig, dass es nicht das API Design oder die Features selbst sind, die dx12 noch die stärkere Rolle geben.

gravitationsfeld
2018-10-07, 21:13:43
Viel Spaß noch mal 5 Jahre auf 8 bit storage zu warten oder nicht mit CS in den Backbuffer schreiben zu können. Present von async gibt's auch nicht - wir haben zwei Titel damit veröffentlicht und es entfernt 10+ms Latenz. Du bist dem FUD selber komplett erlegen.

Locuza
2018-10-08, 18:26:04
Man ist allerdings unter Windows auch mit Vulkan WDDM und dem Windows-Kernel unterworfen.

Ich muss mir nur anschauen, wie neue Windows 10-Versionen Performance-Probleme in manchen Spielen verursachen, und schon tritt der Brechreiz ein.
Windows gehört komplett in die Tonne, wir sollten Valve einen Altar errichten...
Ich würde denen erst einen Altar bauen, wenn Proton umfangreich und robust funktioniert, mehr Linux-Infrastruktur steht und Half Life 3, Portal 3 und Left 4 Dead 3 (3 Games von Valve mit einer 3 im Namen) auf den Markt erschienen sind und Valve keinen Shit wie Gloves verkaufen möchte. :P

Aktuell ist es für mich noch die Wahl zwischen Pest&Cholera, wo weder das eine, noch das andere zufrieden macht.

Der Extension Mechanismus ist schon super, wer die Backdoor Apis für DX gesehen hat weiß warum ;)
Aber wir machen den Thread gerade zum DX/VK Thread...

@Locuza, Android ist kein high-end gaming. De facto ist Windows die Platform dafür.
Ja 2020 wird sicher spannend, auch wegen Intel und wir beim streaming wieder was weiter sind. Der Vorteil dürfte auch sein dass das lag von vulkan dann etwas weniger ins Gewicht fällt wie gerade noch. Vorausgesetzt die Apis stabilisieren sich im Featureumfang etwas.
Android ist kein High-End-Gaming, aber XCOM wurde umgesetzt, es gibt Civ6 auf dem iPhone/iPad, auf der Switch gibt es Doom und Wolfenstein II, die SoCs in den Handys sind stellenweise ausreichend potent um das auch zu schultern und die 7nm Generation wird tolle Fortschritte bringen.
Ich erwarte in der Zukunft mehr Cross-Platform-Umsetzungen und da wäre DX12 außen vor.
Die API-Wrapper auf Basis von Vulkan sind auch relativ beeindruckend und machen es den Leuten einfacher nahezu alle Plattformen anzusprechen.

Bezüglich High-End-Gaming klingt mir die Geschichte mit den Min-Features nach einer netten Bequemlichkeit, aber keinen bedeutenden Problem, wenn man primär AMD, Intel und Nvidia Produkte anspricht.
Die Planungssicherheit ist auch etwas, wo ich kein großes Problem sehe, vor allem da MS eher abgeschottet ist und bisher nach einer starren Kadenz arbeitet, die auch stören kann.

-----

Ein WoW DX12 Spieleupdate werfe ich dann noch einmal rein für das eig. Thema:
https://www.wowhead.com/news=287727/new-multithread-optimizations-coming-in-patch-8-1-tides-of-vengeance

Mit 8.1 gibt es dann exklusive Multithreding-Verbesserungen für DX12, die aktuell für ordentlich Performance-Boost sorgen.
1080p, i7 8700K @5Ghz + GTX 1070:
Setting Min Avg Max
DX 11 56.3 62.3 64
DX 12 no MT 55.4 61 62.7
DX 12 w/ MT 68.9 76.8 79.2

Als Bild wirkt es schöner:
https://wow.zamimg.com/uploads/screenshots/normal/795810.jpg


4K, i9 7980xe @3.8Ghz + GTX 1080Ti
Min Avg Max
DX 11 46 50 54
DX 12 no MT 43 47 53
DX 12 w/ MT 56 58 61

Endlich geht es woran. :)

Kartenlehrling
2018-10-08, 22:25:50
Download: 3DMark v2.6.6174 - Adds DirectX 12 Night Raid test
https://steamcommunity.com/games/223850/announcements/detail/1697185560968314322

Ganon
2018-10-10, 08:59:05
API-Wrapper Diskussion hier hin ausgelagert: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=591133

Locuza
2018-10-24, 21:41:40
Almost all AAA games I work on have a boat load of Dx12 validation errors. Drives me mad!
https://twitter.com/Biblo_Shwag/status/1055106084422250496

Nice state of the art.

pixeljetstream
2018-10-24, 22:43:49
The world is bugged.
Apps machen workarounds für Treiber Bugs.
Treiber workarounds für App Bugs.

Find ja immer noch witzig wie damals Mr.GL Carmack persönlich in Quake nen Fehler beim Extension String lesen machte, der dazu führte dass alle Hersteller dafür nen workaround bauten...

Ganon
2018-10-25, 08:06:57
Nice state of the art.

Man kann von Spielen halt keinen eleganten Code erwarten. Knappe Deadlines, Überstunden in Massen, Bugs in Treibern, je nach Phase 2-3 verschiedene Treiber Stacks (NVidia, AMD, ggf. Intel) mit diversen Versionen (Release Treiber, Beta Treiber, Dev Treiber).

Spiele sind halt keine Long-Term Projekte. Die werden entwickelt, veröffentlicht, etwas nachgepflegt und dann fallen gelassen. Ob der Code in 10 Jahren noch funktioniert ist da in der Regel vollkommen egal.

Wenn's dann doch noch mal gebraucht werden sollte, kriegt das zum "Nachfixen" eh ein komplett anderes Team.

dildo4u
2018-10-30, 12:39:17
Paar neue Tests mit Threadripper 2Gen in Tomb Raider,12 Cores scheinen was zu bringen 16 weniger.Scheint bis jetzt das beste skaling in DX12 zu sein vergleichbar mit AC: Origins.

https://www.techspot.com/review/1737-amd-threadripper-2970wx-2920x/page2.html


https://www.computerbase.de/2018-10/ryzen-threadripper-2000-test-2920x-2970wx-quartett/2/#diagramm-assassins-creed-origins-1920-1080

vinacis_vivids
2018-10-31, 08:24:01
AC:O skaliert mit zunehmenden Core`s eher mit Takt statt Cores wegen der API-Core-Limitierung.
SoTR skaliert eher mit Cache und Takt denn mit Core`s. Darf nicht verwundern, da beide mit NV-Treiber bzw. Hardware getestet worden.

Troyan
2018-11-11, 21:54:14
IO Interactive steht nicht mehr in der Knechtschaft von AMD und schmeißt anscheinend DX12 aus Hitman 2... https://www.dsogaming.com/pc-performance-analyses/hitman-2-pc-performance-analysis/

Ravenhearth
2018-11-11, 22:05:02
Und das ist jetzt gut oder wie?

Digidi
2018-11-11, 22:18:14
IO Interactive steht nicht mehr in der Knechtschaft von AMD und schmeißt anscheinend DX12 aus Hitman 2... https://www.dsogaming.com/pc-performance-analyses/hitman-2-pc-performance-analysis/

Lol kaum ist DX12 weg läuft das game schlechter. Eine 2080ti auf level einer Vega 64 bis 2k. Erst ab 4k wird es besser. lol

HOT
2018-11-11, 22:20:01
Vor allem Kenchtschaft, lol. Dann ist Dice wohl analog dazu in Knechtschaft von NV, ja dann...

Noch gibts halt Win7 und solange das noch so ist, wird man immer Kosten/Nutzen abwägen. Ab April 20 hört das dann schlagartig auf bei den großen Titeln. Bei kleineren wird man DX11 wohl noch ne ganze Weile weiter nutzen, was aber kein Problem ist, weil da ja eh nicht das letzte Quäntchen Leistung gefordert wird. Da ist es ja auch sinnvoll, dass die Studios die doch beschränkten Ressourcen auf das Spielerlebnis konzentrieren und nicht nur auf die Technik.

Locuza
2018-11-11, 22:58:14
Mal abgesehen davon das Troyan von der Moderation geknechtet werden sollte, habe ich Graham Wihlidal gefragt, ob die vorgestellte Frame Graph Architektur (GDC 2017) von Spielen verwendet wird:
https://de.slideshare.net/DICEStudio/framegraph-extensible-rendering-architecture-in-frostbite

Zu meiner Überraschung schon von einigen:
A number of games shipped with it (including FIFA, Battlefront 2, NFS, etc..). Nearly all games going forward use it too (like Anthem)
https://twitter.com/gwihlidal/status/1061479032393359360

Ich habe vermutet, dass die vorgestellten Konzepte mit einer gewissen Verzögerungen erst in finalen Produkten verwendet werden, aber wenn es schon verwendet wird, ist die DX12-Performance schon sehr enttäuschend.
Man weiß natürlich nicht wie optimiert die Implementierung pro Spiel ausfällt, aber das vorgestellte System sollte in der Theorie die Effektivität von DX12 deutlich erhöhen, stattdessen läuft es selbst bei BF5 noch ziemlich mies.

Das mit Hitman 2 ist auch eine Überraschung.
Das erste Spiel, welches DX12 nach einem vorherigen nicht anbietet.
Möglicherweise ist das den Umständen geschuldet, dass IO sich von Square Enix trennen musste und einen neuen Publisher suchen und man sich zeitlich nicht darauf einlassen konnte.

Ex3cut3r
2018-11-11, 23:21:25
Das Hitman 2 kein DX12 hat, wundert mich und macht mir gleichzeitig Sorgen, bei mir könnte DX12 die CPU Bremse in bestimmten Leveln mit vielen NPCs @ 3440x1440 massiv runterschrauben, hatte damals nur eine 1070 drin, jetzt mit der RTX 2080 bin ich eigentlich noch mehr drauf angewiesen, bin mal gespannt wie es performen wird. CPU Limit @ Max Level? :ulol:

Tesseract
2018-11-12, 01:23:42
die typen sind sowieso völlig durchgeknallt. in hitman haben sie mit einem patch einen framelimiter eingebaut der auf ~85fps limitiert und microstutter aus der hölle erzeugt und scheinbar ist der im 2er noch immer drin wenn man sich die benchmarks ansieht. die haben sich wohl gedacht DX12 braucht eh keiner wenn das spiel sowieso wie <60fps aussieht egal wie schnell die hardware ist. :freak:

crux2005
2018-11-12, 01:27:10
Bin echt von IOI enttäuscht. Aber WB als Publisher sagt schon alles. :facepalm:
Vielleicht auch das erste Hitman was ich nicht spielen werde...

Edit: Es soll ja DLSS unterstützen: https://www.nvidia.com/en-us/geforce/news/geforce-rtx-dlss-new-games-september-2018/
Bin gespannt ob das zusammen mit einem "DX12 Update" kommt oder es bei DX11 bleibt.

dildo4u
2018-11-12, 05:50:55
IO wollte sich vermutlich nie mit DX12 beschäftigen ebend weil es den Aufwand erhöht,das war immer ne Vorgabe von Square Enix.Siehe Tomb Raider und Deus Ex.Ich meine Dice hat es bis Heute nicht vernünftig hinbekommen und nicht mal Epic selber nutzt es in Fortnite.Und diese beiden Teams haben endlose Ressourcen.

aufkrawall
2018-11-12, 07:00:58
die typen sind sowieso völlig durchgeknallt. in hitman haben sie mit einem patch einen framelimiter eingebaut der auf ~85fps limitiert und microstutter aus der hölle erzeugt und scheinbar ist der im 2er noch immer drin wenn man sich die benchmarks ansieht.
Ne, gibt kein 85er Limit. Mit DX12 und der 1070 Ti schaff ich mit reduzierten GPU-Details häufig >100fps.
Die Frametimes lassen durch neue Spiel- und Windows-Versionen allerdings wirklich sehr zu wünschen übrig. DX11 läuft 100% sauber, aber halt zu langsam.

Dann wird der 2. Teil halt höchstens zum Spottpreis gekauft. Der Vorgänger hatte eh tonnenweise Bugs, insbesondere bei der KI.

gravitationsfeld
2018-11-12, 09:07:33
IO wollte sich vermutlich nie mit DX12 beschäftigen ebend weil es den Aufwand erhöht,das war immer ne Vorgabe von Square Enix.Siehe Tomb Raider und Deus Ex.Ich meine Dice hat es bis Heute nicht vernünftig hinbekommen und nicht mal Epic selber nutzt es in Fortnite.Und diese beiden Teams haben endlose Ressourcen.
Solange Windows 7 und aeltere Hardware unterstuetzt werden muss seh ich da auch keine Bewegung.

Zwei APIs sind doppelter Testaufwand, das ist ein Alptraum.

Warum du Tomb Raider erwaehst versteh ich aber nicht, das laeuft unter DX11 ja wirklich bescheiden und duerfte das erste wirklich Beispiel sein wo es wirklich ausgenutzt wird - und vergleichbar mit einer alten API ist. Wolfenstein 2 war davor, aber da hat's ja keiner geglaubt.

Tesseract
2018-11-12, 13:54:21
Ne, gibt kein 85er Limit. Mit DX12 und der 1070 Ti schaff ich mit reduzierten GPU-Details häufig >100fps.

dann haben sie das inzwischen wohl wieder behoben, du (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11546055#post11546055) hattest das problem damals selbst.

aufkrawall
2018-11-12, 14:10:49
Ich weiß. ;)
Treiber ist ggf. nicht auszuschließen imho. Letztlich auch wurst, außer mit NV AU läuft das DX12 eh mit zu schlechten Frametimes und mit DX11 sind die min-fps lächerlich schlecht.

Ich hätte eigentlich erwartet, dass für DX12 nur etwas Feinschliff gefehlt hätte...

Ex3cut3r
2018-11-12, 16:48:19
Ich weiß. ;)
Ich hätte eigentlich erwartet, dass für DX12 nur etwas Feinschliff gefehlt hätte...

Dachte ich auch, war nicht perfekt, aber um Welten besser als DICE DX12 versuche, wenigstens hat es CPU Limitierte Szenen entlastet, und das sollte schließlich die Hauptaufgabe für DX12 sein.

Mit einer der Anfangspatches lief DX12 damals auch imo sehr rund auf AU, später haben sie es kaputttgepatcht und Win 10 1703 kam raus. ;)

crux2005
2018-11-12, 17:47:40
Noch gibts halt Win7 und solange das noch so ist, wird man immer Kosten/Nutzen abwägen. Ab April 20 hört das dann schlagartig auf bei den großen Titeln. Bei kleineren wird man DX11 wohl noch ne ganze Weile weiter nutzen, was aber kein Problem ist, weil da ja eh nicht das letzte Quäntchen Leistung gefordert wird. Da ist es ja auch sinnvoll, dass die Studios die doch beschränkten Ressourcen auf das Spielerlebnis konzentrieren und nicht nur auf die Technik.

Glaube ich nicht. Gerade die großen Publisher wollen die Spiele wirklich an die Masse bringen (5-10+ Millionen verkaufte Einheite). Ohne DX11 wird das schwer. Ich glaube also das erst mit der nächsten Konsolen gen. weniger DX11 Spiele erscheinen.

Raff
2018-11-12, 23:35:24
Das Hitman 2 kein DX12 hat, wundert mich und macht mir gleichzeitig Sorgen, bei mir könnte DX12 die CPU Bremse in bestimmten Leveln mit vielen NPCs @ 3440x1440 massiv runterschrauben, hatte damals nur eine 1070 drin, jetzt mit der RTX 2080 bin ich eigentlich noch mehr drauf angewiesen, bin mal gespannt wie es performen wird. CPU Limit @ Max Level? :ulol:

Der/die/das Mumbai-Level ist auf meiner Kiste am CPU-limitiertsten. Kein Wunder angesichts der vielen Objekte und NPCs. Grundsätzlich performt Hitman 2 aber ziemlich dufte. Das Spiel ist auch prima mit 40 Fps spielbar, ist ja kein Multiplayer-Battlefield. :)

MfG,
Raff

aufkrawall
2018-11-12, 23:51:10
40fps auf schnellen CPUs sind nicht mehr zeitgemäß.

Locuza
2018-11-13, 00:15:09
Ryzen 1700X sucked übelst in Hitman 2, ein i5 8400 ist viel schneller:
https://youtu.be/1G4Kajunecc?t=417

Auf Zen+ Werte wäre ich gespannt, der liegt manchmal grotesk weit vor Zen.

Das Spiel braucht noch einige Patches.

aufkrawall
2018-11-13, 01:09:28
Ich würd nicht davon ausgehen, dass es ohne DX12 noch nennenswerte Verbesserungen geben wird. Es war seit der ersten Episode des Vorgängers fast drei Jahre Zeit.

Ex3cut3r
2018-11-13, 01:49:12
Ryzen 1700X sucked übelst in Hitman 2, ein i5 8400 ist viel schneller:
https://youtu.be/1G4Kajunecc?t=417

Auf Zen+ Werte wäre ich gespannt, der liegt manchmal grotesk weit vor Zen.

Das Spiel braucht noch einige Patches.

Krass, die Latenzen zum Gamen sind einfach ein Witz, wenigsten haben Sie es mit Zen+ schon verbessert, und mit Zen 2 wird hoffe ich nochmal die Latenz gesenkt.

gravitationsfeld
2018-11-13, 01:59:52
Welche "Latenzen"? RAM? Woher weisst du dass es daran liegt? Das kann alles Moegliche sein.

Ex3cut3r
2018-11-13, 02:52:04
Woran sollte es denn sonst liegen? Single Thread Leistung und/oder Latenzen, wenn Zen+ viel besser performt, dann ist die Sache klar.

gnomi
2018-11-13, 06:48:09
Es ist schon sehr schade, dass DX 12 rausfiel.
Beim letzten Hitman war es zwar eher Bonus und unsauber, aber man konnte ja die CPU Entlastungen mal gut sehen, weil das Spiel dieses schöne System mit den vielen Menschen Massen hat.
Die Erwartungen waren dementsprechend für den Nachfolger hoch. Allerdings ist DX 12 eben wie vorhergesagt zu wenig Notwendigkeit und zu viel Aufwand.
Wenn es selbst hier dann rausfliegt, sagt das im Grunde genommen doch alles zu dieser API. (DX 10 ging es ähnlich)
Von der Performance her hat mein alter 2600k OC das Spiel trotzdem in DX 11 locker gestemmt. 4
Ich gehe mal davon aus, dass bei Hitman 2 mein jetziger 8700k dann leichtes Spiel hat.
Interessant wäre die Performance an der Xbox One X. Gibt es neben Ultra HD hier wieder einen Target 60 fps Modus mit 1440P?
Falls sie hier den Aufwand reingesteckt haben, werde ich diese Version gleich zum Release kaufen...

gravitationsfeld
2018-11-13, 08:04:09
Woran sollte es denn sonst liegen?
Es ist nicht so einfach wie du dir das ausmalst. Ich vermute es wurde nur auf Intel entwickelt (sehr ueblich) und irgend ein Edge-Case performt sehr schlecht auf AMD.

deekey777
2018-11-13, 08:57:33
Bin echt von IOI enttäuscht. Aber WB als Publisher sagt schon alles. :facepalm:
Vielleicht auch das erste Hitman was ich nicht spielen werde...

Edit: Es soll ja DLSS unterstützen: https://www.nvidia.com/en-us/geforce/news/geforce-rtx-dlss-new-games-september-2018/
Bin gespannt ob das zusammen mit einem "DX12 Update" kommt oder es bei DX11 bleibt.

IOI? Das sind doch die Bösen aus RPO!?

Raff
2018-11-13, 09:23:31
Ich weiß gar nicht, was ihr habt. Ich hatte gestern zwei vergnügliche Stunden in 4K. Da oben, in der Pixelflut, hat man ganz andere Probleme als zu wenig CPU-Leistung. :D Und die Grafik macht schon einiges her, vor allem die Materialdarstellung des PB-Rendering.

MfG,
Raff

gnomi
2018-11-13, 11:05:46
Spiel und Grafik sind sicher speziell mit Intel/Nvidia top und auch mit DX 11 weiterentwickelt.
Trotzdem finde ich es bezeichnend, derart mit Ressourcen bei API und Einstellungen zu sparen.
Schön, dass sie Hitman 2 nicht in Episoden veröffentlichen, (obwohl die Grund Struktur so bleibt und es quasi DLC ist, was man bei der Konsolen Installation ja gut sieht) aber ich werde es auf PC erst verbessert etwas später vergünstigt nachkaufen.
Die XBox One X Fassung musste ich nicht komplett digital erwerben und herunterladen, (12 GB lädt man leider nach) und der Kauf ging mit 55 Euro auch in Ordnung.
60 fps Target bei 1440P plus HDR sind trotz etwas reduzierter Details beim LOD und den Reflexionen imho auch super. (und eventuell verbessern sie die Framerate im 4k Modus wie bei Tom Raider auch noch etwas, damit es für stabile 30 fps alternativ langt...)

aufkrawall
2018-11-13, 11:10:13
Spiel und Grafik sind sicher speziell mit Intel/Nvidia top und auch mit DX 11 weiterentwickelt.

Bitte genau hinsehen: Es läuft mit Nvidia im CPU-Limit kaum schneller als mit AMD-GPU. Die Benchmarks des zweiten Teils bestätigen genau das, was ich vor ein paar Seiten in diesem Thread bez. des Vorgängers gepostet hatte.

Wake
2018-11-13, 11:21:09
Anscheinend arbeitet DICE an den DX12-Rucklern in BF 5 laut Community Manager.

Mal sehen ob sie es endlich hinbekommen, hat Nvidia wohl ein wenig Feuer gemacht wegen RTX ;D.

THEaaron
2018-11-13, 11:30:42
https://www.resetera.com/threads/battlefield-v-pc-performance-thread.79761/page-7#post-14881644

Abwarten und Tee trinken. :D

gnomi
2018-11-13, 11:34:01
@ Hitman 2
Ich sprach eher von der Kombination.
Also Intel CPU (kann auch bis 2600k vergleichbar alt sein) plus schnelle Nvidia GPU.
Damit fährt man bei DX 11 schon seit Jahren am besten. (man will eben nicht immer nachgucken und sich Gedanken machen...)
Mit Midrange Karten kann man nicht ganz die Auflösungen mehr fahren- auch weil Details teils nicht konfigurierbar sind.
Da sollten die Entwickler wenigstens nachbessern.
Eine 1060 bringt 50 Avg./40Min mit einem 8700k in 1440P.
Da ist der optimierte Performance Modus der Xbox One X OOTB eben besser! (vergleichbar mit 980 TI bis 1070)
Aber ja, bei Game GPU sieht man, dass die AMD GPU's auch keine Probleme haben.
Schwächere CPU's kann man ja scheinbar per LOD Einstellung entlasten.
Die Konsolenversionen arbeiten hier auch mit Tweaks, weil sie eh nicht die Power haben.
Beim PC ist genau das oft die Lebensversicherung mangels Optimierung. Kaufe immer das schnellste und verbreiteste.

aufkrawall
2018-11-13, 12:27:49
Damit fährt man bei DX 11 schon seit Jahren am besten. (man will eben nicht immer nachgucken und sich Gedanken machen...)

Eigentlich auch das nicht mehr, siehe Creators Update Ruckler @ Nvidia.

Gast
2018-11-13, 15:05:22
Mal sehen ob sie es endlich hinbekommen, hat Nvidia wohl ein wenig Feuer gemacht wegen RTX ;D.
Das glaube ich nicht, die dürften froh sein jede Verzögerung für eigene Optimierungen mitnehmen zu dürfen. DLSS für natives UHD lässt grüßen und der 2080ti gehts zur Zeit ja auch nicht besonders gut.:)

Anscheinend bekommt es AMD treiberbalanciert (GPU/CPU) besser hin. Die 1080 sieht ja richtig alt aus und 1080ti verzückt auch niemanden, oder hat nV sie bereits wegen neuerem Portfolie fallen gelassen?

Ex3cut3r
2018-11-13, 19:10:21
https://www.computerbase.de/2018-11/hitman-2-test/

Wie hier schon geschätzt, hängt vollkommen an der CPU, in FHD ist es eigentlich egal, welche GPU man hat. ^^
Ein gutes DX12 wurde hier wahre Wunder aufzeigen.

Ich frage mich langsam echt was dieser Blödsinn der DEVS allgemein soll, die CPU Leistung stagniert seit Jahren, die GPU Leistung wächst aber fröhlich weiter, wie stellen die sich das vor? In DX12 muss einfach viel mehr investiert werden, und wenn richtig umgesetzt (SoTTR) ist es einfach klasse.

Leider habe ich bei Shadow of the Tomb Raider aber blödes Banding bei Lichtquellen, KA ob es hier an der GPU und/oder Monitor dran liegt. Ist aber auch ein anderes Thema.

AffenJack
2018-11-13, 19:22:37
Ich frage mich langsam echt was dieser Blödsinn der DEVS allgemein soll, die CPU Leistung stagniert seit Jahren, die GPU Leistung wächst aber fröhlich weiter, wie stellen die sich das vor? In DX12 muss einfach viel mehr investiert werden, und wenn richtig umgesetzt (SoTTR) ist es einfach klasse.

Naja, Blödsinn der Devs. Es ist schlicht ein Haufen Mehrarbeit und auch nicht alle Entwickler kommen mit Low-Level APIs klar. Auch zu Vulkan gabs von Sebastian Aaltonen (Früher Ubisoft Engine Dev, heute Claybook) schon mal Posts, dass viele Devs irgendein bestimmtes Feature/Erweiterung benutzen, dass viel Performance kostet, aber das Programmieren erleichtert. KA mehr was das genau war. Aber das zeigt einfach, dass sich bezüglich Low-Level hier ein lauter Teil der Programmierer durchgesetzt hat, während viele davon nicht so begeistert sind (Auch Demirug hier fand das Low-Level ja auch so mittel).

dargo
2018-11-13, 19:30:24
@Ex3cut3r

Ist doch schön wenn eine RX580 in 1080p genau so schnell wie ne Vega64 oder gar RTX 2080TI ist. X-D Ich bin schon auf das Desaster gespannt wenn die PS5 kommt und noch der eine oder andere Entwicker auf DX11 am PC beharrt. :ulol:

btw.
Die Kritik von CB finde ich sehr lobenswert.

Das mit seinen dicht bewuselten Arealen optisch teils sehr überzeugende Hitman 2 krankt auf dem PC an DirectX 11, das machen die Benchmarks mehr als deutlich. Wer eine sehr schnelle GPU besitzt, kann deren Potential in Full HD gar nicht und in Ultra HD nur gedämpft abrufen – ist die CPU darüber hinaus nicht besonders stark, sinkt die Leistung weiter. Ohne DirectX 12 erweist sich die neue Version der Glacier-Engine so als extrem ineffizient.


Das müssten viel mehr Redaktionen machen.

PS: ich könnte wetten in 1440p ist die RTX 2080TI immer noch genau so schnell wie die Vega64. Zumindest in der Testszene bei CB.

Ex3cut3r
2018-11-13, 19:45:01
@Ex3cut3r
PS: ich könnte wetten in 1440p ist die RTX 2080TI immer noch genau so schnell wie die Vega64. Zumindest in der Testszene bei CB.

Darauf wurde ich auch wetten, ich werde mit meiner "Krüppel CPU" (4770k @ 4,2 und DDR3 16GB @ 2400mhz) auch in 3440x1440 mit der RTX 2080 im CPU Limit stecken, das Problem hat ich schon teilweise beim ersten Teil mit der 1070 damals, auch 3440x1440.

gnomi
2018-11-14, 06:31:37
Eigentlich auch das nicht mehr, siehe Creators Update Ruckler @ Nvidia.

Habe von den Problemen da aber jetzt eher gelesen, als die selber zu spüren.
Bei nvidia fällt mir die gestiegene Treibermenge auf.
Game Ready für jedes Game und so.
MS scheint mir so einschneidende Wndows Updates bei 10 zu schnell und oft in letzter Zeit rauszuhauen.
Ein umfangreiches pro Jahr länger getestet wäre besser.
Leider muss ja immer alles schnell gehen.
Und die basteln auch viel mehr am System als bei 7, was man nur mit Sicherheitsupdates Sammlungen aktualisieren kann.
Bei 10 braucht man immer das neuste. Sonst läuft vielleicht wieder was im Store nicht richtig oder was weiß ich.
Windows umsonst als Service mag ja seine Notwendigkeit im Markt haben, aber es hat so seine Nachteile und ist jetzt nicht so die riesen Erfolgsgeschichte für mich.

@ Hitman 2

Ich konnte jetzt Dank der Episoden Struktur bereits in die Xbox One X Fassung reingucken.
Also so gut läuft die dann doch nicht überall.
Im Prolog Level dachte ich zu Beginn bei dem Strandhaus, dass der Qualitätsmodus drin ist. Tatsächlich war aber schon der High Framerate Modus standardmäßig eingestellt.
Die Entwickler haben definitiv sehr mit Ressourcen haushalten müssen.
Story Sequenzen sind zum Beispiel auch nicht aufwendig und alle Energie scheint darin gesteckt worden zu sein, fünf Level auf Sapienza Niveau hinzukriegen.
Aber es wird sicherlich im Rahmen der Möglichkeiten auch was an der PC Version gemacht denke ich.
Und mit einer guten CPU wie dem 8700k OC läuft es schon locker über 60 fps (von den Computerbase Werten ausgehend vielleicht 85), was strenggenommen einfach reicht. (ist auch maximiert getestet, die Details fahren die Konsolen beim LOD ja zurück)
DX 12 kann man eben im Zweifel/Notfall weglassen, da jede Gamer CPU trotz der höheren fps Ansprüche am PC mehr Power mitbringt.
Ich kann die Entwickler auch eher verstehen.
Die haben ja selber als erste mit gespielt und müssen es daher wissen. (Epic und Dice kriegen es auch nicht hin und Tomb Raider überraschte voll- das sagt doch alles)

Raff
2018-11-14, 10:16:52
Hitman 2 seziert: Grafikkarten-Benchmarks, CPU-Kernskalierung und mehr (http://www.pcgameshardware.de/Hitman-2-Spiel-6334/Specials/PC-Benchmark-Test-Review-Release-1269180/)

Die Glacier-Engine zeichnet keine schwarz-weiße Welt. DX12 fehlt aber definitiv (performance-wise).

MfG,
Raff

BlacKi
2018-11-14, 10:19:42
shit wo liegt denn die 970? 56% schneller als hawaii on steroids.

Troyan
2018-11-14, 10:35:28
PCGH verwendet die Testszene, die auf AMD Hardware ziemlich miserabel läuft. Digitalfoundry hat das auch in derem Video gezeigt.

Raff
2018-11-14, 11:01:58
Dazu gibt's bei PCGH auch ein recht umfangreiches Video, das die GPU- und CPU-Szenen zeigt, inklusive Erläuterung.

MfG,
Raff

gnomi
2018-11-14, 11:07:43
Leider ist das nicht das Prolog Level, welches man selber testen kann.
Die fps Raten sind aber so schlecht nicht.
60 fps bekommt der 8700k ja zusammen @ Worst Case.
Ein alter Sandy I7 sollte dann 35-40 schaffen können.
Etwas am LOD drehen oder GSync nutzen, und das "Problem hat sich auch schon erledigt"
Gemessen am Vorgänger haben sich Grafik und Performance nicht verschlechtert.
Nur der DX 12 Boost fehlt eben, was bei einem neuen Spiel und unter diesen Voraussetzungen, dass die API bereits da war, eben ärgerlich ist.


@ Raff
Thx :)
Schade, dass ihr die auslaufende 1080 oft nicht mehr testet.
Eine maximierte Custom kann ich mit 10-15% + gegenüber 1070 und - 10% gegenüber der 2070 FE ansetzen. :confused:

BlacKi
2018-11-14, 11:24:21
Dazu gibt's bei PCGH auch ein recht umfangreiches Video, das die GPU- und CPU-Szenen zeigt, inklusive Erläuterung.

MfG,
Raff
schade das kein 9900k vs 2700x in den cpu benchmarks vorkommt.

Ex3cut3r
2018-11-14, 19:11:08
Danke für die 3440x1440 Benches, ihr seit die einzigen die so etwas für jedes neue Game anbietet. :up:

Generell sehen AMD Karten bei GPU Lastigen Szenen kein Land. Vega 64 in WQHD satte 100% langsamer als die 2080 Ti :freak:

In 2 Monaten wird AMD wohl einigermaßen mit den Treibern gegengesteuert haben, wie halt oft.

aufkrawall
2018-11-14, 19:34:02
Generell sehen AMD Karten bei GPU Lastigen Szenen kein Land. Vega 64 in WQHD satte 100% langsamer als die 2080 Ti :freak:

Das ist einfach mal Unfug, bei jedem anderen Test zu dem Spiel im Netz sind die Radeons gerade in höheren Auflösungen stark im Vergleich zu den GeForces...

dargo
2018-11-14, 20:11:40
Die werden dann gekonnt ignoriert. ;) Ich halte mich bei dem Thema generell raus, ich weiß wozu das wieder führt.

Ex3cut3r
2018-11-15, 15:30:20
Das ist einfach mal Unfug, bei jedem anderen Test zu dem Spiel im Netz sind die Radeons gerade in höheren Auflösungen stark im Vergleich zu den GeForces...

Raff hat aber extra ein GPU Lastiges Level genommen, ich vertraue Raff da mehr als den anderen, klingt vlt. naiv. ist aber so. Oder die Treiber bei AMD anscheinend für Hitman nicht genug optimiert wie ich ja sagte, in 2 Monaten wird wohl anders aussehen.

][immy
2018-11-15, 16:04:07
Hitman 2 seziert: Grafikkarten-Benchmarks, CPU-Kernskalierung und mehr (http://www.pcgameshardware.de/Hitman-2-Spiel-6334/Specials/PC-Benchmark-Test-Review-Release-1269180/)

Die Glacier-Engine zeichnet keine schwarz-weiße Welt. DX12 fehlt aber definitiv (performance-wise).

MfG,
Raff
Ja, das ist schon seltsam. Besonders wo es auf der Xb1x und PS4P doch recht gut läuft. Seltsam das sie DX12 diesmal rausgelassen haben.

aufkrawall
2018-11-15, 16:11:34
Raff hat aber extra ein GPU Lastiges Level genommen,
Raff hat eine Szene aus einem Level genommen, wo die Radeons komisch langsam sind. Umgekehrt sind auch Fälle denkbar, bei denen GeForces verkacken. Pauschal zu behaupten, es liefe "in GPU-lastigen Szenen" langsam auf Radeons, ist schlicht Quatsch.
YouTube will tell.

Ex3cut3r
2018-11-15, 16:19:02
Woher weiß man das, dass Radeons in den Level besonders langsam sind? Weil bei anderen Reviewern die Radeons schneller sind? Woher willst man das wissen? Die anderen zeigen nicht mal ihren Benchszenen, die werden wohl Stellen gewählt haben, wo man halt doch die CPU wichtiger ist?!

aufkrawall
2018-11-15, 16:20:55
Das weiß man, wenn man sich auch andere Benchmarks ansieht, dem du dich offensichtlich verweigerst...

Edit: Jetzt kommt die Unlogik mit der CPU wieder...

Troyan
2018-11-15, 16:23:11
[immy;11853309']Ja, das ist schon seltsam. Besonders wo es auf der Xb1x und PS4P doch recht gut läuft. Seltsam das sie DX12 diesmal rausgelassen haben.

An der Stelle läuft die Xbox One X mit Low/Medium LoD.

Ex3cut3r
2018-11-15, 16:39:47
Das weiß man, wenn man sich auch andere Benchmarks ansieht, dem du dich offensichtlich verweigerst...

Edit: Jetzt kommt die Unlogik mit der CPU wieder...

Raff hat im Video gesagt, er hat Stunden nach einer Szene gesucht, die auch mit einer schwachen CPU im GPU Limit läuft, er hat ein Level gefunden, wo man fast ohne NPCs am Anfang unterwegs mit Herbstbäumen, wenn die GPUs da alle mit 99% GPU Auslastung "rumlaufen" und wenn die Vega 64 halt 100% langsamer ist als eine RTX 2080 Ti, dann hat AMD ein Problem, sei es durch Treiber oder sonst was. Fakt ist Fakt.

https://abload.de/img/unbe2nanntl7ffp.png

aufkrawall
2018-11-15, 16:46:36
Es ging nie darum, dass die Werte in dieser Szene falsch seien, sondern um die Repräsentativität. Eher ist die nicht gegeben, wenn sich trotz GPU-Limit die Performance mit NPCs anders darstellt. Schließlich gibts die ständig und belasten ja nicht nur die CPU.

Savay
2018-11-15, 16:48:33
Naja wenn ne V64 unter ner 1070 und ne RX580 derart deutlich unter ner 1060 und 970 liegt ist doch eh irgendwas im Busch....kann auch einfach grottig auf AMD und/oder ausschließlich auf Intel und NV optimiert sein seitens der Entwickler oder die Szene liegt der GCN Arch. einfach gar nicht.
Es ist ja nicht so, dass die relativen Abstände der IHVs untereinander tatsächlich in jeder Szene linear wären.
Was bei unterschiedlichen Architekturen auch irgendwie erwartbar sein sollte.

Davon abgesehen wird das nicht langsam etwas OT?

Kartenlehrling
2018-11-15, 17:07:23
Wenn das eine Zone ist wo eine CPU Limitierung stattfinde, beschränkt das die AMD GPU zusätzlich ein,
da es fast immer auch zu einer GPU Limiterung führt, Nvidia GPU im gleichen Leistunglevel haben einen 10-15% puffer bis sie auch ins Limit laufen.
Das zieht sich schon über 9 Jahre, darum ist eine Absage an DX12/Vulkan auch immer eine Bremse für AMD GPU.

Ich mag mir nicht vorstellen wie die GPU Geschichte abgelaufen wär wenn Blizzard WOW (Release 2004) früher DX11 unterstützte und
nicht nur Singlecore CPU und nach Nvidia GPUs verlangte, man kann natürlich auch sagen die Schuld liegt einzig und allein bei AMD,
sie hätten ja was anständiges Entwickeln können, nur wurde von Microsoft Multithreading schon für DX11 versprochen.

aufkrawall
2018-11-15, 17:44:42
Würdet ihr bitte mal kapieren, dass ~99% GPU-Auslastung zu ~99% ein CPU-Limit ausschließt? Danke.

dargo
2018-11-15, 18:35:13
Komplett unspielbar mit einer 200+€ Grafikkarte @P20.

XtcnBnCilLQ

lqELHKwWVCE

Aber Hauptsache man konzentiert sich wieder auf eine Testszene der PCGH mit ~20 Sekunden wo Radeon offenbar schwächelt und ignoriert 99,x% vom weiteren Spielverlauf von Hitman 2. 3DCenter mal wieder on the best. :uup:

dildo4u
2018-11-15, 18:38:41
BF5 DX12 auf der 2080 Ti,ganz ok bis auf 4k.


https://www.computerbase.de/2018-11/battlefield-v-dxr-raytracing-test/#abschnitt_day1patch_verbessert_directx12pfad

fondness
2018-11-15, 20:14:29
Die werden dann gekonnt ignoriert. ;) Ich halte mich bei dem Thema generell raus, ich weiß wozu das wieder führt.

Ich nicht. Es ist halt ein weiteres Mal in einer Kette von Benchmarks, bei denen es pcgh geschafft hat eine Szene zu finden die auf AMD Karten besonders schlecht läuft. Kann natürlich alles nur Zufall sein...

N0Thing
2018-11-16, 01:23:37
Ich nicht. Es ist halt ein weiteres Mal in einer Kette von Benchmarks, bei denen es pcgh geschafft hat eine Szene zu finden die auf AMD Karten besonders schlecht läuft. Kann natürlich alles nur Zufall sein...

Das ist eben die Prämisse der PCGH, Benchmark möglichst im worst case, um die GPUs maximal zu fordern. Andere Seiten haben eine andere Philosophie, das Gesamtbild ist entscheidend. Deshalb ist es immer absolut bescheuert auf Einzelergebnisse zu verweisen, um einen Sachverhalt zu untermauern.

Ex3cut3r
2018-11-16, 01:36:14
Komplett unspielbar mit einer 200+€ Grafikkarte

Aber Hauptsache man konzentiert sich wieder auf eine Testszene der PCGH mit ~20 Sekunden wo Radeon offenbar schwächelt und ignoriert 99,x% vom weiteren Spielverlauf von Hitman 2. 3DCenter mal wieder on the best. :uup:

Kann deiner Argumentation nicht folgen. PCGH hat eine GPU Lastige Szene mit zig Grafikkarten getestet, mit dem Ergebnis das eine RTX 2080 Ti satte 100% schneller ist als eine Vega 64 Wasser in WQHD, deine Logik ist jetzt also Random Youtube Videos mit einer GPU zu verlinken, und davon zu schließen, das alles Dufte Läuft? Na denn, eigenartige Wahrnehmung. Ich gehe durch die PCGH davon aus, das AMD Karten in GPU Lastigen Szenarien um einiges langsamer laufen als die gleichwertigen Geforce.

BlacKi
2018-11-16, 02:53:32
Ich nicht. Es ist halt ein weiteres Mal in einer Kette von Benchmarks, bei denen es pcgh geschafft hat eine Szene zu finden die auf AMD Karten besonders schlecht läuft. Kann natürlich alles nur Zufall sein...
wieso kann worst case in games nicht auch worst case bei amd grafikkarten sein?

dargo
2018-11-16, 05:50:01
Ich gehe durch die PCGH davon aus, das AMD Karten in GPU Lastigen Szenarien um einiges langsamer laufen als die gleichwertigen Geforce.
Genau das ist der Fehler den du aus dem Test der PCGH ableitest. Hättest du den Test von CB verfolgt wäre dir das u.U. auch aufgefallen. Dort ist die RX580 in 4k 20% bei den avgs. vor der GTX1060 FE.
https://www.computerbase.de/2018-11/hitman-2-test/

Ex3cut3r
2018-11-16, 16:05:37
Ok. Und welches Level hat CB getestet? Keine Angabe, wenn es das es im Bild, dann gute Nacht, das ist bei mir zumindest vollkommen CPU Limitiert, habe mir das Game besorgt.

75% GPU Auslastung DX12 wie im Vorgänger wurde mir hier echt helfen.
https://abload.de/thumb/hitman2_2018_11_16_16mgdmr.jpg (https://abload.de/image.php?img=hitman2_2018_11_16_16mgdmr.jpg)

Aber ey, mit 1,5 Scaling =5160x2160 sind es immer noch 60 FPS. :ulol:

aufkrawall
2018-11-16, 16:19:25
Hast du das auch mal kurz überdacht? Wie sollte die Radeon schneller sein, wenn es größtenteils im CPU-Limit wäre? Ist jetzt der Radeon DX11-Treiber im CPU-Limit auf einmal schneller, oder was? :rolleyes:

iuno
2018-11-16, 16:20:52
Soweit mir bekannt hat das Spiel gar kein d3d12, oder liege ich da falsch? Was soll das seitenlange OT?

Savay
2018-11-16, 17:19:33
Ok. Und welches Level hat CB getestet?


Ist doch wurscht, wenn die gleiche Szene in 1080p mit 60FPS rennt, in UHD aber mit lächerlichen 30! :rolleyes:

Einfach mal alle Balken ansehen und nicht nur einen...dann sieht man doch schon das die CB Szene spätestens(!) unter UHD(!) wohl kaum CPU limitiert sein kann. :freak:

Ex3cut3r
2018-11-16, 18:48:04
Trotzdem wäre etwas mehr Transparenz von CB mal lobenswert, welche Testszene? Wie sieht die aus? Welches Testsystem?Nicht nur AVG. sodern vlt. auch mal die Min. drunter schreiben? all das ist nicht (sofort) erkenntlich. Nachbenchen @ Privat kann man vergessen.

Kriton
2018-11-19, 19:11:45
Dieses Argument mit der GPU-Lastigkeit (allein) ist doch Quatsch. Spielen wir mal wieder Bullshit-Bingo, oder was?
Als ob eine GPU-lastige Szene automatisch nicht aufgrund sonstiger ungewöhnlicher Umstände auf einer konkreten Architektur nicht schlechter laufen könnte als dies ansonsten im Spiel (auch in anderen GPU-lastigen Szenen) der Fall sein könnte.

Dieses unqualifizierte (in Bezug auf technische Grundlagen) AMD-Bashing ist echt ätzend. Und das sage ich als jemand, der im Vergleich hier zu den meisten Forum-Teilnehmern sein technisches Wissen üblicherweise nicht überschätzt.

Raff
2018-11-20, 11:05:07
Nochmal zum Thema DX12 vs. DX11: Hitman 1 vs. Hitman 2 - DX12 vs. DX11: Darum wäre eine Rückkehr von DirectX 12 wünschenswert (http://www.pcgameshardware.de/Hitman-2-Spiel-6334/Specials/DX12-vs-DX11-Benchmark-1269571/)

Ich bin gespannt, ob Io Interactive noch einen Low-Level-Patch rausrückt, oder ob's das gewesen ist. Wäre schade für Nutzer älterer Prozessoren.

MfG,
Raff

aufkrawall
2018-11-20, 11:06:12
Es wäre schade für jeden, der stabilere Bildraten will. Schon wieder so eine seltsame Einschränkung von dir...

Raff
2018-11-20, 11:08:33
Erst lesen, dann flamen. Bitte. :)

MfG,
Raff

aufkrawall
2018-11-20, 11:09:02
Muss ich nicht lesen, ich kenne die Performance beider Spiele aus erster Hand.

Raff
2018-11-20, 11:13:54
... auf einem starken Prozessor. Es geht um die CPU-Entlastung. Mit einem Skylake ist die Sache nicht spielentscheidend.

Wirkt DX12 in Hitman 1 bei dir positiv oder negativ?

MfG,
Raff

aufkrawall
2018-11-20, 11:26:59
Wenn man in Hitman 2 durch die Maps läuft, gibt es diverse Stellen, an denen die fps wegen der CPU einkacken. Dafür müssen gar nicht mal viele NPCs direkt im Bild sichtbar sein. Außerdem hat auch nicht jeder einen 5GHz Intel, sondern viele etwa auch einen Ryzen 1 (ohne Samsumg B-die OC...).
Und natürlich hat dafür DX12 in Hitman 1 quasi Wunder gewirkt. Deshalb wäre DX12 (und zwar noch besser optimiertes) für Teil 2 kein Bonus gewesen, sondern Pflicht.

gnomi
2018-11-20, 11:28:44
Scheinbar war das Budget gerade für die PC Version knapp. :(
Allerdings sehe ich DX 12 nur als einen kleinen Bonus.
Ich konnte da zwar auf meinem I7 2600k @ 4400 MHz auch Entlastungen an bestimmten Stellen beim letzten Teil merken, aber es lief OOTB prinzipiell nicht so glatt.
Ich habe das auch wegen GSync und Minimum 40 fps dann sowieso nicht so recht benutzt.
Und der Prozessor ist jetzt beinahe 8 Jahre alt.
Jeder aktuelle Prozessor ist weit weg von der Leistung der Konsolen und schultert das Spiel prinzipiell mühelos mit vielen FPS in DX 11.
Natürlich wäre es super, wenn DX 12 wie bei Tomb Raider dann begeistert, aber das ist jetzt die erste positive Ausnahme, die mir so unterkam in letzter Zeit. (und wo man einen direkten Vergleich und nicht DX 12 only hat)
Es ist nicht gesagt, dass das hier so gelaufen wäre.

Ich bin auch überrascht, wie flüssig die Xbox One X Version in 1440P mit 60 fps Target läuft.
Es mögen mehr Optimierungen hier reingeflossen sein, aber die sind natürlich bei der schwachen CPU Power dann weitaus notwendiger.
Es gibt auch hier kleinere Kompromisse (ein paar Einstellungen sind reduziert), aber das grafische Ergebnis ist meines Erachtens spitze.
Auf PC kann man auch etwas an den Details drehen und gut tunen, um GPU und CPU zu entlasten.
Ich würde sagen, dass Spiel läuft mit allen Features auf Uralt Hardware in Full HD oder mit 4 Jahre alter noch in WQHD.
Diese Detail Verliebtheit der Level sucht übrigens seinesgleichen und ist nochmals besser als beim 2016er Teil.
Und mit meinem aktuellen 8700k interessiert mich das CPU Limit muss ich sagen dann wahrscheinlich sowieso nicht mehr.
Ich nehme mal stark an, dass jetzt auch Marrakesch, Mumbai und Miami mit 60 fps+ in den Menschenmassen laufen. (PC Version gucke ich mir diese Woche mal an)
Also bisschen unverständlich ist die Klagerei imho ja schon, gerade weil Spiel und grafische Ergebnisse gemessen am Entwicklungsaufwand erstaunen!

aufkrawall
2018-11-20, 11:30:04
Ein 4770k geht an manchen Stellen in Hitman 2 auf fast 30fps runter. Nuff said, ich bin raus.

gnomi
2018-11-20, 11:39:10
AFAIR konnte ich so knapp 40 fps damals auf meinem System beim Vorgänger messen.
Natürlich dabei alles auch noch maximiert.
Für Teil 2 sollte so eine Konfiguration also auch noch reichen.
Es wird Dir wenig übrig bleiben, als auch andere Meinungen zuzulassen. :wink:
Ich hätte zum Beispiel weitaus lieber eine professionelle deutsche Sprachausgabe wie in Hitman 2 Silent Assassin bis Absolution gesehen.
Ich fand die eben immer gut.
Die fiel sicher auch wegen des Aufwands runter, und damit muss ich auch leben. (wobei die zwei Teile jetzt schon spitze original vertont sind)
Na ja. Vielleicht kommt ja tatsächlich noch was.
Prima wäre das schon. =)

aufkrawall
2018-11-20, 11:59:48
Was ist daran intolerant, zu fordern, dass ein Spiel fortschrittliche Techniken nutzt, damit die Performance besser ist? :freak:

gnomi
2018-11-20, 12:39:05
Es ist eben die Frage, wo die Entwickler bei ihren Spielen wieviel investieren.
Technologie ist auch nur ein Teil dieses ich nenne es mal Ressourcen Managements. (gilt imho auch für alle Bereiche im Leben und auch beim Menschen an sich)
Für den nativen 4k Xbox One X Modus hätte ich mir auch eine bessere Performance gewünscht. Der High Performance 1440P Modus Richtung 60 fps ist imho top, aber den High Quality 4k Modus würde ich so nicht nutzen. (geht unter 30 fps)
Bei Tomb Raider war es ähnlich, nur war der Performance Modus eben nur Full HD, weshalb das glatt noch ärgerlicher war.
Jetzt haben sie nachgepatcht, und ich fand das beim Weiterspielen dann plötzlich okay.
Und auf der Konsole kann man ja überhaupt nichts machen. (okay, langsam gibt es mal den ein oder anderen Schalter)
Auf PC hat man so viel Möglichkeiten. Auch hier und ohne DX 12 zur Zeit.
Ich denke, das Spiel erst einmal für viele Konfigurationen zu bringen macht Sinn. (die meisten haben auf PC vergleichsweise auch genug CPU Power - selbst höhere Ansprüche mit eingerechnet; viele auch noch Windows 7)
Aber okay. Vielleicht kommt ja was und es wird noch besser.
Ich würde auch gerne mal 4K mit HDR nativ am OLED flüssiger spielen.
Am PC sind mir die Hardware Komponenten oben raus zu teuer.

dildo4u
2018-11-20, 19:23:09
F1 2018 hat eine DX12 Beta bekommen.

http://forums.codemasters.com/discussion/141667/the-f1-2018-dx12-beta/p1?new=1

Locuza
2018-11-20, 20:56:33
Die Performance auf einer 1060GTX mit einem i5 4460 @ 3,2 Ghz scheint im wesentlichen identisch zu sein, andere Berichten die Performance ist ein wenig besser unter einem Ryzen und einer 1070 oder Threadripper mit einer Vega64:
http://forums.codemasters.com/discussion/141668/the-f1-2018-dx12-beta-discussion-thread/p2

dildo4u
2018-11-30, 12:48:04
F1 2018 mit DX12 (Beta) im Test: Mehr FPS auf allen Systemen sind noch nicht nutzbar


https://www.computerbase.de/2018-11/f1-2018-dx12-benchmark/


Leider noch buggy sieht aber ansonsten vielversprechend aus.

Locuza
2018-11-30, 15:06:59
Lol @4K sind die Gewinne durch DX12 bei AMD richtig groß, bei Nvidia immerhin etwas, aber unter 1080p ist DX12 bei Nvidia sogar langsamer, als DX11.
Das ist zwar nicht das erste mal, aber es ist durchaus seltsam zu sehen das bei einem Entwickler DX12 im GPU-Limit für Performancezuwachs sorgt, im CPU-Limit aber für Verluste.
Außer bei AMD, die gewinnen auch unter 1080p ein wenig.

Und nach 3 Jahren gibt es endlich ein Spiel was offenbar ROVs verwendet, endlich kann man das benchen, wenn es dann bei jedem Hersteller funktioniert.
Seltsam das es bisher Nvidia exklusiv ist.

dargo
2018-11-30, 15:13:25
Lol @4K sind die Gewinne durch DX12 bei AMD richtig groß, bei Nvidia immerhin etwas, aber unter 1080p ist DX12 bei Nvidia sogar langsamer, als DX11.

Stimmt nicht ganz, Turing ist in DX12 auch @1080p schneller. ;)

btw.
Wird da was spezielles eigentlich an Features @DX12 verwendet? Plus 21% sowohl auf Polaris als auch Vega im GPU-Limit finde ich recht ordentlich.

gravitationsfeld
2018-11-30, 17:16:06
Und nach 3 Jahren gibt es endlich ein Spiel was offenbar ROVs verwendet, endlich kann man das benchen, wenn es dann bei jedem Hersteller funktioniert.
Seltsam das es bisher Nvidia exklusiv ist.
Es verwendet niemand weil es ungefaehr so nuetzlich wie Geometry Shader ist.

Uebrigens hat es Shadow of Mordor auch unterstuetzt. Hat dann die Framerate in die einstelligen FPS befordert wenn viel Transparenz auf dem Bild war.

Locuza
2018-11-30, 18:49:18
Stimmt nicht ganz, Turing ist in DX12 auch @1080p schneller. ;)
[...]
Du hast Recht, ich bin nur schnell drüber geflogen und musste in wenigen Sekunden schon unbedingt meinen falschen Senf abgeben. ;D

Es verwendet niemand weil es ungefaehr so nuetzlich wie Geometry Shader ist.

Uebrigens hat es Shadow of Mordor auch unterstuetzt. Hat dann die Framerate in die einstelligen FPS befordert wenn viel Transparenz auf dem Bild war.
Nach 3 Jahren wäre ich aber endlich auf konkrete Werte gespannt.
Xenia der X360 Emulator verwendet ROVs, aber ich habe da nicht nachgeschaut, ob es vergleichbare Benchmarks unter unterschiedlichen Systemen gibt.

Und Shadow of Mordor war doch nur ein DX11.0-Spiel?
Ich meine es war einer der wenigen oder das einzige sonderliche Spiel, was die Mac-Portierung anging, wo OGL + OCL für Compute Shader verwendet wurde, ansonsten habe ich keine besonderen Eigenschaften in Erinnerungen.

aufkrawall
2018-11-30, 18:53:36
Was ist eigentlich aus Partially Resident Textures geworden, der großen Verheißung für effizientes, hochaufgelöstes Megatexture + AF-Kompatibilität?

Locuza
2018-11-30, 20:31:45
Soweit ich gehört habe müssen die Texture-Updates von Seiten der CPU ausgeführt werden, weswegen das in der Praxis crap ist.
Das die Tiles 64KB groß sind, ist scheinbar auch nicht erste Sahne.

Aber Gears of War 4 hat Tiled Resources in den Settings gehabt:
"Tiled Resources: Reduces VRAM consumption on resources by avoiding the storage of tiles which will go without access for a particular scene."

Edit: Im Windows10 Devmode gibt es Tiled Resources Tier 4, aber die exzellente Dokumentation von MS hat noch keine Infos dazu.
https://docs.microsoft.com/en-us/windows/desktop/api/D3D12/ne-d3d12-d3d12_tiled_resources_tier

gravitationsfeld
2018-11-30, 23:10:17
Was ist eigentlich aus Partially Resident Textures geworden, der großen Verheißung für effizientes, hochaufgelöstes Megatexture + AF-Kompatibilität?
Muell. Es ist lahmer als normale Texturen auf der GPU und extra lahm auf der CPU fuer die Page-Table-Updates. Da kannst nen kompletten Core damit beschaeftigen.

aufkrawall
2018-12-01, 10:58:12
Da hat man aber wieder fein Gehirnschmalz in eine API gegossen. :freak:

gravitationsfeld
2018-12-02, 03:15:23
AMD weigert sich sogar es in Vulkan zu implementieren. Gibt keinen der es will.

Was nuetzlich waere ist "sparse binding" mit 4 MiB pages. 64 KiB ist einfach ineffizient, viel zu viele TLB-Eintraege.

Troyan
2018-12-11, 15:58:54
Laut nVidia soll das heutige Update für WoW die DX12 Leistung im CPU-Limit deutlich steigern: https://www.nvidia.com/en-us/geforce/news/world-of-warcraft-directx-12-performance-update/

Linmoum
2018-12-11, 16:32:36
War für Nvidia ja auch bitter nötig. Ansonsten kommt mit dem Patch jetzt auch offiziell allgemein endlich etwas, das schon seit Jahren überfällig ist.

Integrated new multi-threaded performance optimizations for clients using DirectX 12 and Metal.
https://worldofwarcraft.com/en-us/news/22824892/tides-of-vengeance-update-notes

MikePayne
2018-12-29, 03:23:04
https://www.computerbase.de/2018-12/unity-engine-directx-12-xbox-one/

Ein Update der Unity Engine unterstützt nun auch DirectX 12 auf der Xbox One. Je nach Auflösung und Projekt könne die Leistung durch die Nutzung von DirectX 12 und den geringeren Treiber-Overhead sowie bessere Multi-Core-Unterstützung deutlich zulegen, so die Entwickler.

In eigenen Tests kommen die Entwickler auf einer Xbox One X bei einer Auflösung von 2.560 × 1.440 Bildpunkten auf einen Performancezuwachs von 8 Prozent. Hierfür nutzten sie das frei zugängliche „Projekt Book Of The Dead: Environment“.
[...] Standardmäßig ist DirectX 12 im neuen Unity 2018.3 aber trotzdem auch weiterhin deaktiviert und muss von den Entwicklern explizit aktiviert werden, um es zu nutzen. Im Laufe des nächsten Jahres soll DirectX 12 allerdings zur Standard-API für alle neuen Projekte in Unity werden. Gleichzeitig werde dann auch der Fokus der Entwicklung auf die Funktionen und die Leistungsverbesserung mit der neuen API gelegt.

gravitationsfeld
2018-12-29, 06:08:46
Wolfenstein New Colossus ist uebrigens auch DX12 auf Xbox One. Falls es jemanden interessiert. Doom war noch DX11 (mit viel Xbox-Zeug).

deekey777
2019-01-17, 22:20:22
AMD: DirectML als mögliche Antwort auf Nvidias DLSS (https://www.computerbase.de/2019-01/amd-directml-antwort-nvidia-dlss/)

Wisst ihr da mehr?

Locuza
2019-01-17, 22:36:04
Was willst du genau wissen?

AffenJack
2019-01-17, 22:48:14
Die Artikel dazu gerade sind nicht gerade toll. Leider schon in der Überschrift völlig sinnlos. Direct ML ist sicherlich keine Antwort auf DLSS. Über Direct ML kann so etwas wie DLSS vendor-agnostisch realisiert werden. Aber Nvidia ist selber ein großer Verfechter von Direct ML, da man darüber ihre Tensor Cores nutzen kann. Daher hab ich arge Zweifel, ob AMD da irgendwelche Blumentöpfe mit gewinnen kann.

Daredevil
2019-01-17, 23:10:56
AMD hat aber viel ( ungenutzte ) Compute Performance in VegaI und Vega II, das könnte denen vielleicht ein wenig zuspielen.
We are currently experimenting with obtaining the evaluation version SDK of DirectML, but Radeon VII shows excellent results in that experiment. By the way, Radeon VII scored about 1.62 times the " GeForce RTX 2080 " in "Luxmark" which utilizes OpenCL-based GPGPU-like ray tracing renderer . Based on these facts, I think NVIDIA's DLSS-like thing can be done with GPGPU-like approach for our GPU. Adam Kozak von AMD

dildo4u
2019-01-18, 00:44:59
Das wird mit der Bandbreite zu tun haben die 1.62 gelten auch zu Vega 64.

https://farm8.staticflickr.com/7881/39816519263_702456e952_h.jpg (https://flic.kr/p/23Es4Zr)AMD-Radeon-VII-CES-2019-3--pcgh (https://flic.kr/p/23Es4Zr) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

Troyan
2019-01-18, 02:24:01
Die Artikel dazu gerade sind nicht gerade toll. Leider schon in der Überschrift völlig sinnlos. Direct ML ist sicherlich keine Antwort auf DLSS. Über Direct ML kann so etwas wie DLSS vendor-agnostisch realisiert werden. Aber Nvidia ist selber ein großer Verfechter von Direct ML, da man darüber ihre Tensor Cores nutzen kann. Daher hab ich arge Zweifel, ob AMD da irgendwelche Blumentöpfe mit gewinnen kann.

Laut nVidia benötigt DL-Workload für Spiele rund 20% der Frameberechnung. Die TensorCores von Turing liefern 4x mehr Leistung gegenüber den normalen Einheiten. Da kann man sich selbst ausrechnen, dass die Zeit bei AMD mit 1/3 (28TFLOPs gegen 80TFLOPS FP16) der Leistung gegenüber der RTX2080 deutlich höher liegen wird. Wahrscheinlich wäre eine ähnliche Technik auf AMD Hardware ineffizienter als gleich in der Zielauflösung zu rendern. Inference ist eben nicht einfach mal so umsetzbar...

aufkrawall
2019-01-19, 19:06:32
Ex3cut3r hat offenbar recht mit seiner Befürchtung, dass das Fehlen des "alten" exklusiven Vollbildmodus mit DX12 durch den DWM die verfügbare Menge des mit voller Geschwindigkeit nutzbaren VRAMs reduziert.

Tja, 8GB GeForce durch 8GB Radeon ausgetauscht, und das Problem ist weg.
Witzig war auch, dass ich mit 1070/1070 Ti in WQHD DX12 gar nicht im Geothermal Valley bei Nacht & Regen mit GeForce Experience aufnehmen konnte, weil der VRAM offenbar nicht mehr ausreichte.
Mit der 580 und ReLive ebenfalls kein Problem:
Nh0n84yuQKE

Mit DX12 sind in dem Spiel 8GB Radeon eindeutig besser als 8GB GeForce. :ulol:

dildo4u
2019-02-05, 11:33:17
Die Anno 1800 Beta hat schon DX12 Support,das Game wurde aber auf April verschoben sie haben also noch Zeit für Optimierungen.


https://www.computerbase.de/2019-02/anno-1800-closed-beta-eindruck/2/

Metro DX12 mit GTX,RTX und Vega.

https://www.computerbase.de/2019-02/metro-exodus-test-benchmarks/2/#diagramm-metro-exodus-cpu-savegame-directx-11-vs-directx-12-2560-1440

aufkrawall
2019-02-19, 10:56:31
Angeblich soll jetzt RE2 mit DX12 schneller als mit 11 auf Radeons laufen:
https://gamegpu.com/action-/-fps-/-tps/resident-evil-2-test-gpu-cpu
War mit der Beta-Demo noch krass umgekehrt. Nvidia verliert aber immer noch, inkls. Turing.

dildo4u
2019-02-19, 11:58:56
HardOCP,CB,PCGH schreiben was anderes,ehrlich ich bezweifle gamegpu öfter die produzieren oft Stunden nach Release eine abartige Anzahl an Werten.

https://www.hardocp.com/article/2019/02/14/amd_radeon_vii_video_card_review/5

https://www.computerbase.de/2019-01/resident-evil-2-test-benchmark/2/#abschnitt_directx_11_vs_directx_12

http://www.pcgameshardware.de/Resident-Evil-2-Remake-Spiel-61776/Specials/Resident-Evil-2-Technik-Test-Benchmarks-1273998/2/

aufkrawall
2019-02-19, 12:11:34
ehrlich ich bezweifle gamegpu öfter die produzieren oft Stunden nach Release eine abartige Anzahl an Werten.

Tja, ihre Werte zur Demo waren aber plausibel. Da hatten sie selber noch den Performance-Verlust von DX12 auf Radeons festgestellt.

Pirx
2019-02-19, 13:02:57
HardOCP,CB,PCGH schreiben was anderes,ehrlich ich bezweifle gamegpu öfter die produzieren oft Stunden nach Release eine abartige Anzahl an Werten....
Du bezweifelst sie und fällst selbst, nur Minuten nach Release, immer wieder sogar völlig absolute Urteile?

Kartenlehrling
2019-02-19, 13:06:25
Das nur 4 Thread/Core ausgelaste werden egal ob DX11 oder DX12 ist aber bezeichend,
das sie es nach 3 Jahre immer noch nicht geschaft haben die Lasten wirklich zu verteilen.

dargo
2019-02-19, 13:30:36
Angeblich soll jetzt RE2 mit DX12 schneller als mit 11 auf Radeons laufen:
https://gamegpu.com/action-/-fps-/-tps/resident-evil-2-test-gpu-cpu
War mit der Beta-Demo noch krass umgekehrt. Nvidia verliert aber immer noch, inkls. Turing.
Woran machst du das fest? :)

Ich sehe dort nur in 1080p, dass bsw. eine Radeon VII oder V64 LCE mit DX12 minimal schneller ist. Ab 1440p sieht es wieder anders aus. Ich finde den CPU-Test von denen aber extrem merkwürdig. Schau dir mal diesen mit einer Radeon VII @DX12 an. Dort ist bsw. ein i7-2600K gleich schnell wie ein i9-9900K? :| Wo sind hier die ganzen IPC-Verbesserungen geblieben selbst wenn die Engine schlecht multithreaded? Der i9-9900K läuft sogar mit 5,2Ghz. Ja selbst ein poppeliger i3-7100 oder R3 1200 sind praktisch gleich schnell. :confused:

PS: bei der RTX 2080 genau das selbe. Hmm... vollständiges GPU-Limit in 1080p @DX12 mit beiden Karten?

aufkrawall
2019-02-19, 13:41:10
Sieht so aus, als hätten sie ihre Ergebnisse korrigiert.

Rancor
2019-02-19, 15:03:09
Gamegpu produziert ständig unsinnige Benchmarks.. Keine Ahnung warum das immer noch verlinkt wird.

dargo
2019-02-19, 15:07:24
So unsinnig finde ich die gar nicht. Immerhin verwenden sie mehrere Karten für ihre CPU-Tests und nicht stur wie im deutschen Raum nur Nvidia Karten. Mit den Ergebnissen von gamegpu hat man eine viel größere Benchmarkbasis. Manchmal verhält sich eine Applikation unsinnig. Da kannst du als Reviewer auch nichts machen außer mit dem Kopf schütteln. :D

Rancor
2019-02-19, 15:33:58
Möglich. Trotzdem produzieren sie aufällig häufig in sich nicht schlüssige Benchmarks.

blaidd
2019-02-19, 16:17:37
Resi 2 hat seit unseren Tests mindestens einen größeren Patch erhalten, der auch ein paar Performance-Fixes enthielt. Eventuell hat sich da auch was an der DX12-Performance geändert. Ich hatte bislang keine Zeit, das nochmal nach zu kontrollieren.

Locuza
2019-03-12, 20:57:54
WoW ist das erste Spiel mit DX12 Support für Windows 7 :ugly:
https://blogs.msdn.microsoft.com/directx/2019/03/12/world-of-warcraft-uses-directx-12-running-on-windows-7/

Es sollen noch andere Spiele mit DX12 Support für W7 folgen, DX12 Support für W7 läuft also nicht automatisch.
Darüber hinaus wird darauf hingewiesen, dass die Performance mit W10 besser ausfallen soll, dank modernerer Infrastruktur.

Darkman.X
2019-03-12, 23:27:04
WTF? DX12 für Win7? Und das im letzten Support-Jahr von Win7?

Da sagt man jahrelang, dass DX12 nicht für Win7 portiert wird und es gab afaik in der Anfangszeit irgendwelche düsteren Hacks und jetzt DAS.....

Ich glaube jetzt ist dauerhaft Eiszeit in der Hölle. Erst Nvidia mit VRR-Support für FreeSync-Monitor, jetzt DX12 für Win7......was kommt als nächstes? :eek:


EDIT: Ich sehe gerade, dass es im Spiele-Unterforum auch einen DX12-Thread (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=593807) dazu gibt.

][immy
2019-03-13, 00:00:14
Um mal aus einem anderen Thread zu zitieren
Da steht doch das sie nur den User Mode Teil portiert haben. Entsprechend kann alles was Unterstützung im Kernel Teil braucht nicht funktionieren. Ich nehme mal an das ist so ähnnlich wie die 9.X FeatureLevel für DX 11. Damit konnte man DX 11 auch mit alter DX 9 Hardware nutzen aber es gab jede Menge Einschränkungen und man musste seinen Code für die alte Hardware trotzdem noch anpassen.

Ist also kein wirklich richtiges DX12. Abgesehen davon naht langsam aber sicher das Ende von Windows 7 (vom Support her).

gravitationsfeld
2019-03-13, 16:17:53
Solange keine Dokumentation zur Verfuegung steht bleibt das alles im Dunkeln. Ich erwarte, dass man zumindest Command Buffer parallel fuellen kann. Das braucht aber schon auch Treiber-Aenderungen.

Rancor
2019-03-14, 15:41:33
Seit heute kann man in World of Warcraft DX 12 unter Win 7 nutzen. Ein Doku muss es ja demnach schon geben oder nicht ?

Demirug
2019-03-14, 15:47:00
Seit heute kann man in World of Warcraft DX 12 unter Win 7 nutzen. Ein Doku muss es ja demnach schon geben oder nicht ?

Keine öffentliche. Das ganze ist jetzt in einer Art private Beta wo man sich als interessierter Entwickler für anmelden kann. Microsoft möchte dafür allerdings wissen für welches Spiel man den DX12 unter Windows 7 braucht. Mich würde es ehrlich gesagt nicht wundern wenn es am Ende nie öffentlich wird da der offizielle Windows 7 Suppport ja sowieso bald endet.

dargo
2019-03-14, 22:55:45
Solange keine Dokumentation zur Verfuegung steht bleibt das alles im Dunkeln. Ich erwarte, dass man zumindest Command Buffer parallel fuellen kann. Das braucht aber schon auch Treiber-Aenderungen.
Die gibt es offenbar bei AMD schon seit dem Adrenalin 18.12.2.

DirectX® 12 on Windows®7 for supported game titles

AMD is thrilled to help expand DirectX® 12 adoption across a broader range of Windows operating systems with Radeon Software Adrenalin 2019 Edition 18.12.2 and onward, which enables consumers to experience exceptional levels of detail and performance in their games.

https://www.amd.com/en/support/kb/release-notes/rn-rad-win-19-3-2

Troyan
2019-03-18, 19:01:30
Microsoft bringt Variable Rate Shading nach DX12: https://devblogs.microsoft.com/directx/variable-rate-shading-a-scalpel-in-a-world-of-sledgehammers/

Blediator16
2019-03-18, 20:47:12
Dürfte mit Navi dann auch von AMD unterstützt werden.

https://twitter.com/0x22h/status/1101137300405121026

horn 12
2019-03-18, 21:05:50
Wohl mit dem Treiber Update am Mittwoch.

Blediator16
2019-03-18, 21:13:40
Wohl mit dem Treiber Update am Mittwoch.

Ne, soweit ich weiß wird am Mittwoch nur RTX bei der R7 aktiviert, aber nur bei Exorus: Mero

dildo4u
2019-03-26, 15:07:59
Hitman 2 bekommt Heute DX12 Support.


https://www.ioi.dk/hitman-2-march-update/

dargo
2019-03-26, 15:19:59
Lol... warum nicht gleich so? :freak:

Edit:
Einen Vorteil hat es. Das Game kostet mittlerweile nur noch 16€. Mal sehen, vielleicht hole ich es mir.

aufkrawall
2019-03-26, 16:08:37
Ist im GPU-Limit ~10% langsamer als DX11 und sie haben jetzt AF mit DX11 genau so verkackt wie mit DX12. :freak:
11:
https://abload.de/thumb/hitman2_2019_03_26_16vtjdc.jpg (http://abload.de/image.php?img=hitman2_2019_03_26_16vtjdc.jpg)

12:
https://abload.de/thumb/hitman2_2019_03_26_15azj3y.jpg (http://abload.de/image.php?img=hitman2_2019_03_26_15azj3y.jpg)

(nein, die Bilder sind nicht vertauscht)

11 mit forciertem AF via Treiber:
https://abload.de/thumb/hitman2_2019_03_26_15bskpj.jpg (http://abload.de/image.php?img=hitman2_2019_03_26_15bskpj.jpg)

Wie inkompetent kann man bitte sein?

dildo4u
2019-03-26, 18:11:50
Das selbe mit Pascal. Ryzen 2600X GTX1070


1080p Maxed

https://farm8.staticflickr.com/7914/46557631895_1d74439d2f_h.jpg (https://flic.kr/p/2dW92Vi)Hitman 2 Screenshot 2019.03.26 - 17.30.27.44 (https://flic.kr/p/2dW92Vi) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://farm8.staticflickr.com/7924/46557630035_ba4dee26e1_h.jpg (https://flic.kr/p/2dW92ne)Dx12retail Screenshot 2019.03.26 - 17.34.24.29 (https://flic.kr/p/2dW92ne) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

dargo
2019-03-26, 18:23:53
Ist im GPU-Limit ~10% langsamer als DX11 und sie haben jetzt AF mit DX11 genau so verkackt wie mit DX12. :freak:
11:

Die paar Prozent sind mir recht egal. Wie sieht es in den cpu-limitierten Szenen aus?

aufkrawall
2019-03-26, 18:33:49
Ich hab das Spiel nicht, ist nur die Demo. Immerhin scheint es recht sauber zu laufen.
Allerdings bricht das Spiel nicht nur im CPU-Limit übel ein, sondern im Demo-Level bei mir auch um ~40%, wenn ich ins Dichte Gras gehe. Der Performance-Verlust von DX12 im GPU-List ist also recht tragisch.

dargo
2019-03-26, 18:59:18
Ich hab das Spiel nicht, ist nur die Demo. Immerhin scheint es recht sauber zu laufen.

Die Demo hat auch DX12 bekommen? :confused:

aufkrawall
2019-03-26, 19:14:45
Die Demo ist das Hauptspiel, nur ohne Level-"DLCs" in Steam.

dildo4u
2019-03-27, 12:40:17
DX12 bringt einiges im CPU Limit zumindest mit Ryzen,möglich das mit Intel der Unterschied geringer ist.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11958679&postcount=26

dargo
2019-03-27, 12:59:36
Selbst mit nem Geforcetreiber +56%? Not bad. :cool: Genau solche Dimensionen erwarte ich von LL. :) Jetzt müsste es mal einer mit ner Vega testen.