Archiv verlassen und diese Seite im Standarddesign anzeigen : Vulkan Grafik-API
Seiten :
1
2
3
4
5
[
6]
7
8
9
10
11
12
13
14
DanMan
2016-07-12, 20:10:26
In ultra hd ändert sich nach wie vor fast nichts, aber genau dort müsste man mehr leistung haben. :rolleyes:
Ich kann das ganze nicht wirklich nachvollziehen, von mir ausgesehen macht es doch null sinn die cpu weiter zu entlasten wenn wir doch zu wenig gpu leistung haben. Zudem sind die cpus seit jahre so wie so kein problem mehr.
Aber ich muss sagen das amd dies richtig gut eingefädelt hat.
Geht weniger um's Entlasten als das Verwenden alle Kerne. Multithreading war bisher immer schlecht umsetzbar. Wenn jetzt die CPU wirklich am Limit arbeitet, dann bekommt auch die GPU mehr zu tun. Zumal die GPUs deutlich größere Fortschritte machen als die CPUs. Intel ruht sich sehr auf den eigenen Lorbeeren aus... Hoffentlich kommt Zen bald.
Bei Battlefield 4 habe ich locker auch Faktor 2,5 gesehen und dabei habe ich nicht mal ausgelotet wie weit das geht.
Wäre nett wenn mal einer Doom mit 1Ghz CPU OpenGL vs Vulkan testen könnte. :D
Du wirst trotzdem kein Faktor 4 sehen. Faktor 2,5 könnte schon das Maximum gewesen sein in BF4.
Troyan
2016-07-12, 20:15:11
Hat das Spiel nicht ein 200FPS Limit? Weniger als 5ms sind bei mir nicht drin...
Loeschzwerg
2016-07-12, 20:15:38
Danke, meinte aber eher sowas wie
"Vulkan mit AC gegen OpenGL"
und
"Vulkan ohne AC gegen OpenGL" - auf NV und AMD
und nicht
"Vulkan mit AC gegen Vulkan ohne AC"
;)
Wie viel kostet eig. TSSAA vs. SMAA bei OGL?
Wenn wir das vernachlässigen können, dann liegt der Vorteil dank AC bei ~14% (Für die Szene, auf dem System natürlich).
Was mich sehr interessieren würde und was vermutlich bei einigen untergehen wird dank Tunnelblick auf Async Compute, welchen Anteil die Shader-Intrinsics am Performance-Gewinn haben.
DICE wird wenn ich mich richtig erinnere auch davon Gebrauch machen.
Die Optimierungen gehen hier also schon über die neuen APIs alleine hinaus.
Die Ergebnisse sind auf jeden Fall brutal für die Radeon-Seite.
Wenn das nur so von Anfang an ausgesehen hätte *seufz*.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11099415#post11099415
Habe OGL mit SMAA hinzugefügt :)
Ich komm in der selben Szene auf gerade mal 96FPS mit 1733Mhz und GTX1080. Kannst du 4K testen?
UHD SMAA TX1:
56657 ~46fps
UHD TSSAA TX8:
56656 ~51fps
Wie gehabt Ultra und 16x AF
Ich weiß nicht obs mit Vulcan funzt aber F12 ist standard bei Steam um Screenshots zu machen.
Nope, da stürzt Steam derzeit ab. Ein Fix dürfte bald da sein, denke ich.
Hübie
2016-07-12, 20:15:52
Laut Raff steigt die Performance massiv in 4k,vielleicht hängst von der Stelle ab ob es durchschlägt.
http://www.pcgameshardware.de/Doom-2016-Spiel-56369/News/Vulkan-Patch-bessere-Performance-Benchmarks-1201321/galerie/2604855/?fullsize
http://www.pcgameshardware.de/Doom-2016-Spiel-56369/News/Vulkan-Patch-bessere-Performance-Benchmarks-1201321/galerie/2604856/?fullsize
Das ist ne Fury. AMDs Treiber sind scheiße in OGL, daher die riesigen Sprünge. Mit ner 980 Ti sind es +/- 7% inklusive Mikroruckeln unter VKL.
LOL, +114%.^^
Siehe oben.
Disco_STFU
2016-07-12, 20:17:03
Hoffentlich kommt Zen bald und taugt was.
Ftfy
;) :tongue:
Dural
2016-07-12, 20:17:27
Gut man muss naturlich auch beachten das die open gl treiber von amd recht "bescheiden" sind. Da hat es vulkan natürlich relativ leicht.
Aber ich sehe für ultra hd derzeit leider keinen vorsprung, nur zum vergleich ich zocke mit meiner 1080 in ultra/ultra immer über 60fps. Wenn es um gpu last geht, hilft einfach nur viel gpu power und die cpu ist klar zweitrangig.
Digidi
2016-07-12, 20:17:30
@Hübie
Auch wenn die Treiber mist sind unter Open GL man schlägt in Vulkan die GTX 1070 um 17% in FHD und in WQHD sogar um 27%. Sind dann Nvidias Treiber dann in Vulkan Mist und AMD Super? Eher nicht! Ändlich wird mal so programmiert das die Leistung von Shadern auch genutzt wird. AMD hat es vorraus gesagt das man aus Ihrer Architektur mehr Heraushohlen kann und jetzt ist es eingetroffen! Man sieht es ja an den Gflops Werten.
War denn der Treiber wirklich scheiße oder war Open GL einfach nicht auf AMD zugeschnitten?
Jetzt erkennt man auch mal was für eine Behinderung Nvidia ist weil alle für Nvidia Programmieret haben danke Gameworks und DX11! Wir hätten heute schon längst Chips die viel mehr Leistung pro mm² bringen würden, wenn Nvidia nicht wäre.
Achill
2016-07-12, 20:17:42
letzteres könnte man eh nicht testen weil es nur opencl 1.1 treiber von nvididia gibt.
ich fände is im übrigen sau cool, wenn sich coda mal hier zu wort melden würde. er und dein team haben hier mal mega starke arbeit geleistet!
Von 1.1 zu 1.2 gibt es schon Unterschiede (https://streamcomputing.eu/blog/2011-11-19/difference-between-opencl-1-2-and-1-1/).
Richtig interessant wird es aber anscheinend mit OpenCL 2.0 (https://anteru.net/blog/2013/07/23/2164/), 'shared virtual memory', 'pipes' und u.a. 'C11 atomics' oder 'work-group functions' ... da es Teil von SPIR und damit auch mit Vulkan verbandelt sind wir gar nicht Off-Topic ... :)
Hat eigentlich mal jemand mal 2nd_stage_boss (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/PC-4K-Demo-Radeon-Geforce-Future-GPU-1187323/) auf eine 10X0 oder 4X0 laufen lassen?
dildo4u
2016-07-12, 20:18:27
Das ist ne Fury. AMDs Treiber sind scheiße in OGL, daher die riesigen Sprünge. Mit ner 980 Ti sind es +/- 7% inklusive Mikroruckeln unter VKL.
Er meinte die Fury Benches bei Computerbase dort sind es nur 11% in 4k.
Nightspider
2016-07-12, 20:19:38
Du wirst trotzdem kein Faktor 4 sehen. Faktor 2,5 könnte schon das Maximum gewesen sein in BF4.
Tja das werden wir erst herausfinden wenn es wirklich jemand probiert hat. ;)
Also nochmal die Frage: Kann mal bitte jemand mit CPU @ 1Ghz testen zwischen OGL und Vulkan?
Stebs
2016-07-12, 20:23:58
letzteres könnte man eh nicht testen weil es nur opencl 1.1 treiber von nvididia gibt.OpenCL 1.2, um genau zu sein.
@SachaW (falls du hier immer noch mitliest, geht hier ja grad etwas ab...):
Wie werden denn AMDs Shader Intrinsics in deiner Vulkan Datenbank genannt? Ist das die VK_AMD_gcn_shader Extension?
Und Frame Flip Optimizations? - (Und wie schaut es da bei Nvidia aus...)
fondness
2016-07-12, 20:26:26
Das ist ne Fury. AMDs Treiber sind scheiße in OGL, daher die riesigen Sprünge. Mit ner 980 Ti sind es +/- 7% inklusive Mikroruckeln unter VKL.
Das mag zwar zum teil stimmen, unter Vulkan kratzt aber selbst die RX 480 / 390 an der GTX1070 / 980 Ti.
MartinRiggs
2016-07-12, 20:28:00
Da widerspreche ich ja nicht direkt, aber nicht jeder ist so leidensfähig. Kurz umrissen kann man also sagen, dass man bei NV regelmäßig Geld lassen muss um die Performance schon 1-2 Jahre vorher zu haben.
Da weiß ich echt nicht was mir besser gefällt. NVIDIA auf der einen Seite als der kreisende Geier und AMD auf der anderen als der Mann mit Monokel.
Bevor jemand explizit auf diesen Beitrag antwortet, bitte lesen:
Bitte verschont mich mit euren Schubladendenken (rot/grün,schwarz/blau oder was auch immer). :P
Nix Schubladendenken, du hast das Perfekt umschrieben.
Mir geht Nvidia auf den Sack und AMD noch viel mehr, aber man muss entweder Pest oder Cholera kaufen wenn man Zocker ist :frown:
Screemer
2016-07-12, 20:28:22
oh sorry. hatte ich dann falsch im kopf. cuda all the way ;)
Loeschzwerg
2016-07-12, 20:30:09
Tja das werden wir erst herausfinden wenn es wirklich jemand probiert hat. ;)
Also nochmal die Frage: Kann mal bitte jemand mit CPU @ 1Ghz testen zwischen OGL und Vulkan?
Morgen, falls du so lange warten kannst ;)
-=Popeye=-
2016-07-12, 20:35:01
Viel interessanter sind doch die Szenen die CB/PCGH und Co verwendet haben für ihre Benchmarks.
M4xw0lf
2016-07-12, 20:40:25
Er meinte die Fury Benches bei Computerbase dort sind es nur 11% in 4k.
"Nur". Nicht schlecht in einem ohnehin GPU-limitierten Szenario, hm?
Gynoug MD
2016-07-12, 20:42:10
Doom`16+Vulkan+Nano: Sorry, aber was ist das bitte für eine geile Scheiße, in allen Situationen ~20-30 Fps mehr!:up:
PS: 1440p@Ultra+Freesync
Loeschzwerg
2016-07-12, 20:43:11
Viel interessanter sind doch die Szenen die CB/PCGH und Co verwendet haben für ihre Benchmarks.
Ich finde die Anfangsszene besser nachzustellen und unter OGL ist diese ebenfalls beschissen für AMD Karten.
Aber gut, hier der "Imp-Fight" Raum :)
OGL TSSAA:
56658 ~44fps
VLK TSSAA:
56659 ~82fps (SMAA sind es ~76fps)
dargo
2016-07-12, 20:49:42
So viel zu "Nvidia lässt es mit Vulkan schleifen". Man kann NV nicht vorwerfen, dass es kaum Performance-Zuwachs gibt, wenn die Besserung bei AMD in der Hauptsache (und Async, jaja...) daher kommt, dass deren OpenGL Treiber furchtbar ist.
*g*
Ich muss dabei gleich an dildo denken... "NV braucht kein LL". :D Jetzt einfach mal bei Geizhals schauen was eine um 70% schnellere CPU an Mehrkosten verursacht. :wink:
Also nochmal die Frage: Kann mal bitte jemand mit CPU @ 1Ghz testen zwischen OGL und Vulkan?
Bitte dabei aber die Grundlast nicht vergessen. Bei sehr tiefen fps kann diese das Ergebnis erheblich verfälschen.
-=Popeye=-
2016-07-12, 21:00:58
5820k@1,2GHz // TitanX@1390/4001 GF 368.69 (HQ) // Win8.1 x64
Vulkan
https://abload.de/thumb/20160712204102_15zk2d.jpg (http://abload.de/image.php?img=20160712204102_15zk2d.jpg) https://abload.de/thumb/20160712204122_1zejim.jpg (http://abload.de/image.php?img=20160712204122_1zejim.jpg) https://abload.de/thumb/20160712204149_1tiku5.jpg (http://abload.de/image.php?img=20160712204149_1tiku5.jpg) https://abload.de/thumb/20160712204307_1szkgc.jpg (http://abload.de/image.php?img=20160712204307_1szkgc.jpg)
OpenGL
https://abload.de/thumb/20160712204444_1acjrw.jpg (http://abload.de/image.php?img=20160712204444_1acjrw.jpg) https://abload.de/thumb/20160712204450_1aakbn.jpg (http://abload.de/image.php?img=20160712204450_1aakbn.jpg) https://abload.de/thumb/20160712204457_12gje8.jpg (http://abload.de/image.php?img=20160712204457_12gje8.jpg) https://abload.de/thumb/20160712204558_10djsm.jpg (http://abload.de/image.php?img=20160712204558_10djsm.jpg)
Wieviel Prozent sind das jetzt?
dargo
2016-07-12, 21:03:02
WTF? X-D
Wieviel Prozent sind das jetzt?
+151%. :biggrin:
Screemer
2016-07-12, 21:04:28
5820k@1,2GHz // TitanX@1390/4001 GF 368.69 (HQ) // Win8.1 x64
Vulkan
https://abload.de/thumb/20160712204102_15zk2d.jpg (http://abload.de/image.php?img=20160712204102_15zk2d.jpg) https://abload.de/thumb/20160712204122_1zejim.jpg (http://abload.de/image.php?img=20160712204122_1zejim.jpg) https://abload.de/thumb/20160712204149_1tiku5.jpg (http://abload.de/image.php?img=20160712204149_1tiku5.jpg) https://abload.de/thumb/20160712204307_1szkgc.jpg (http://abload.de/image.php?img=20160712204307_1szkgc.jpg)
OpenGL
https://abload.de/thumb/20160712204444_1acjrw.jpg (http://abload.de/image.php?img=20160712204444_1acjrw.jpg) https://abload.de/thumb/20160712204450_1aakbn.jpg (http://abload.de/image.php?img=20160712204450_1aakbn.jpg) https://abload.de/thumb/20160712204457_12gje8.jpg (http://abload.de/image.php?img=20160712204457_12gje8.jpg) https://abload.de/thumb/20160712204558_10djsm.jpg (http://abload.de/image.php?img=20160712204558_10djsm.jpg)
Wieviel Prozent sind das jetzt?
was zum fick? 150.82 %? :ugly:
w0mbat
2016-07-12, 21:06:32
Wie geil :D
DanMan
2016-07-12, 21:11:33
...
M4xw0lf
2016-07-12, 21:11:56
Der stark untertaktete 6-Kern-Prozessor ist euch aufgefallen, ja? ;)
Digidi
2016-07-12, 21:13:37
5820k@1,2GHz // TitanX@1390/4001 GF 368.69 (HQ) // Win8.1 x64
Vulkan
https://abload.de/thumb/20160712204102_15zk2d.jpg (http://abload.de/image.php?img=20160712204102_15zk2d.jpg) https://abload.de/thumb/20160712204122_1zejim.jpg (http://abload.de/image.php?img=20160712204122_1zejim.jpg) https://abload.de/thumb/20160712204149_1tiku5.jpg (http://abload.de/image.php?img=20160712204149_1tiku5.jpg) https://abload.de/thumb/20160712204307_1szkgc.jpg (http://abload.de/image.php?img=20160712204307_1szkgc.jpg)
OpenGL
https://abload.de/thumb/20160712204444_1acjrw.jpg (http://abload.de/image.php?img=20160712204444_1acjrw.jpg) https://abload.de/thumb/20160712204450_1aakbn.jpg (http://abload.de/image.php?img=20160712204450_1aakbn.jpg) https://abload.de/thumb/20160712204457_12gje8.jpg (http://abload.de/image.php?img=20160712204457_12gje8.jpg) https://abload.de/thumb/20160712204558_10djsm.jpg (http://abload.de/image.php?img=20160712204558_10djsm.jpg)
Wieviel Prozent sind das jetzt?
1,2 GHZ 5820K natürlich hast du da 150% Performance weil du voll im CPU Overhead bist!
dargo
2016-07-12, 21:14:00
Der stark untertaktete 6-Kern-Prozessor ist euch aufgefallen, ja? ;)
Ja, das Thema war allerdings eher der "super duper" Nvidia-OpenGL-Treiber. ;)
M4xw0lf
2016-07-12, 21:15:38
Ja, das Thema war allerdings eher der "super duper" Nvidia-OpenGL-Treiber. ;)
Naja, dass bei niedriger CPU-Leistung auch Nvidia von LL profitiert ist doch nicht neu.
DanMan
2016-07-12, 21:15:47
1,2 GHZ 5820K natürlich hast du da 150% Performance weil du voll im CPU Overhead bist!
"Natürlich"....
Nightspider
2016-07-12, 21:19:52
Er hat ja bei 1,2 Ghz immer noch 60fps.
Wie tief kannst du die CPU untertakten? :D Noch ein Versuch mit 600 Mhz vllt? :D Oder 400? :ugly:
PS: Danke für den Test
Hübie
2016-07-12, 21:20:38
2560x1440, Ultra, 16x AF
R9 Nano Crimson 16.7.2
Xeon E5 v3 14 Cores @ 2.5GHz
OGL SMAA (TX1):
56655 ~59fps
OGL TSSAA (TX8):
56649 ~45fps
VLK SMAA (TX1):
56651 ~84fps
VLK TSSAA (TX8):
56650 ~96fps
Zum Vergleich:
2560x1440, Ultra, 8x AF
GTX 980 Ti
i7 3930k 6 Cores @4.172GHz
OGL SMAA (TX1):
https://abload.de/thumb/doom4_ogl4.5_ultra_smewup9.jpg (http://abload.de/image.php?img=doom4_ogl4.5_ultra_smewup9.jpg) ~102 fps
OGL TSSAA (TX8):
https://abload.de/thumb/doom4_ogl4.5_ultra_tsgcurs.jpg (http://abload.de/image.php?img=doom4_ogl4.5_ultra_tsgcurs.jpg) ~104fps
VLK SMAA (TX1):
https://abload.de/thumb/doom4_vkl_ultra_smaa1rauvn.jpg (http://abload.de/image.php?img=doom4_vkl_ultra_smaa1rauvn.jpg) ~104fps
VLK TSSAA (TX8):
https://abload.de/thumb/doom4_vkl_ultra_tssaa6cuwn.jpg (http://abload.de/image.php?img=doom4_vkl_ultra_tssaa6cuwn.jpg) ~110fps
Eigenartig dass 8Tx immer schneller arbeitet als 1Tx :confused::freak:
Edit:
Nachtrag mit 3840x2160:
OGL TSSAA (TX8):
https://abload.de/thumb/doom4_ogl4.5_ultra_tsxeuob.jpg (http://abload.de/image.php?img=doom4_ogl4.5_ultra_tsxeuob.jpg) ~57fps
VLK TSSAA (TX8):
https://abload.de/thumb/doom4_vkl_ultra_tssaaxauvn.jpg (http://abload.de/image.php?img=doom4_vkl_ultra_tssaaxauvn.jpg) ~58fps
dildo4u
2016-07-12, 21:21:57
Er hat ja bei 1,2 Ghz immer noch 60fps.
Wie tief kannst du die CPU untertakten? :D Noch ein Versuch mit 600 Mhz vllt? :D Oder 400? :ugly:
PS: Danke für den Test
Kein Plan was das zeigen soll der NV Open GL Treiber ist der Hammer wenn man dem AMD als Maßstab nimmt.AMD hat vorallen sich selbst massig Kohle gekostet weil sie kein Geld in die Software Entwicklung gesteckt haben.
Troyan
2016-07-12, 21:22:18
Ihr könnt auch die "Druck"-Taste verwenden. Funktioniert unter Windows 10 prächtig mit Vulkan...
dargo
2016-07-12, 21:22:36
Naja, dass bei niedriger CPU-Leistung auch Nvidia von LL profitiert ist doch nicht neu.
In so einem hohen Maße schon. ;)
Ihr könnt auch die "Druck"-Taste verwenden. Funktioniert unter Windows 10 prächtig mit Vulkan...
Für Screenshots? Geht bei mir schon mal nicht, gibt nur schwarzen Bildschirminhalt.
-=Popeye=-
2016-07-12, 21:23:00
Ich wollte damit nur zeigen das der Superduperhyper 66% Bench von CB Schrott ist und nVidia ebenfalls nutzen aus Vulkan ziehen kann, siehe dildo4you.
Hübie
2016-07-12, 21:24:51
Ihr könnt auch die "Druck"-Taste verwenden. Funktioniert unter Windows 10 prächtig mit Vulkan...
Teste ich gleich mal. :up:
Nightspider
2016-07-12, 21:24:54
Kein Plan was das zeigen soll der NV Open GL Treiber ist der Hammer wenn man dem AMD als Maßstab nimmt.AMD hat vorallen sich selbst massig Kohle gekostet weil sie kein Geld in die Software Entwicklung gesteckt haben.
Steht doch auf der letzten Seite.
Es soll zeigen welcher Faktor an Leistungsgewinn im CPU-Bereich durch Vulkan derzeit möglich ist.
Schon mit Mantle waren damals locker 100-150% Gewinn möglich und das war noch nicht mal das Maximum.
Ich halte Faktor 3-3,5 (+200-250%) auch noch locker für realistisch.
5820k@1,2GHz // TitanX@1390/4001 GF 368.69 (HQ) // Win8.1 x64
Vulkan
https://abload.de/thumb/20160712204102_15zk2d.jpg (http://abload.de/image.php?img=20160712204102_15zk2d.jpg) https://abload.de/thumb/20160712204122_1zejim.jpg (http://abload.de/image.php?img=20160712204122_1zejim.jpg) https://abload.de/thumb/20160712204149_1tiku5.jpg (http://abload.de/image.php?img=20160712204149_1tiku5.jpg) https://abload.de/thumb/20160712204307_1szkgc.jpg (http://abload.de/image.php?img=20160712204307_1szkgc.jpg)
OpenGL
https://abload.de/thumb/20160712204444_1acjrw.jpg (http://abload.de/image.php?img=20160712204444_1acjrw.jpg) https://abload.de/thumb/20160712204450_1aakbn.jpg (http://abload.de/image.php?img=20160712204450_1aakbn.jpg) https://abload.de/thumb/20160712204457_12gje8.jpg (http://abload.de/image.php?img=20160712204457_12gje8.jpg) https://abload.de/thumb/20160712204558_10djsm.jpg (http://abload.de/image.php?img=20160712204558_10djsm.jpg)
Wieviel Prozent sind das jetzt?
Heftig. :eek: Noch heftiger ist die Szenenabhängigkeit, der Gewinn von OGL auf VLK schwankt offenbar von Szene zu Szene um Größenordnungen. Hier (http://www.pcgameshardware.de/Doom-2016-Spiel-56369/News/Vulkan-Patch-bessere-Performance-Benchmarks-1201321/) habe ich mit 1,2 GHz Kerntakt und einer TX @ 1.500/4.200 MHz "nur" +71 % raus.
MfG,
Raff
Nightspider
2016-07-12, 21:26:52
was zum fick? 150.82 %? :ugly:
Wie geil :D
Habt ihr damals geschlafen vor 2-3 Jahren als es um Mantle und LLAPI ging? ^^
Ist doch jetzt noch nicht mal was besonderes für den Leistungszuwachs im CPU Bereich durch LLAPI.
Alles absolut wie erwartet. Das war damals schon mit BF4 nicht anders.
M4xw0lf
2016-07-12, 21:31:30
Ich wollte damit nur zeigen das der Superduperhyper 66% Bench von CB Schrott ist und nVidia ebenfalls nutzen aus Vulkan ziehen kann, siehe dildo4you.
Hä? Der völlig andere Ansatz deinerseits ist dir bewusst? Schau dir doch mal deine Unterschiede mit CPU @Standardtakt an.
AMD gewinnt sowohl im CPU-Limit als auch im GPU-Limit dazu, das ist der Unterschied.
Loeschzwerg
2016-07-12, 21:32:53
Ihr könnt auch die "Druck"-Taste verwenden. Funktioniert unter Windows 10 prächtig mit Vulkan...
Bei AMD gibts da nur ein schwarzes Bild, hab ich gestern schon geschrieben. NV müsste funktionieren.
Troyan
2016-07-12, 21:33:01
5820k@1,2GHz // TitanX@1390/4001 GF 368.69 (HQ) // Win8.1 x64
Vulkan
https://abload.de/thumb/20160712204102_15zk2d.jpg (http://abload.de/image.php?img=20160712204102_15zk2d.jpg) https://abload.de/thumb/20160712204122_1zejim.jpg (http://abload.de/image.php?img=20160712204122_1zejim.jpg) https://abload.de/thumb/20160712204149_1tiku5.jpg (http://abload.de/image.php?img=20160712204149_1tiku5.jpg) https://abload.de/thumb/20160712204307_1szkgc.jpg (http://abload.de/image.php?img=20160712204307_1szkgc.jpg)
Selbe Einstellungen, GTX1080@2000Mhz/5500Mhz:
https://abload.de/thumb/doom_vulkan_10803upds.png (http://abload.de/image.php?img=doom_vulkan_10803upds.png)
Yeah, langsamer als eine TitanX. :rolleyes:
/edit: FOV 105 eingestellt.
Gorkon
2016-07-12, 21:33:54
Ich wollte damit nur zeigen das der Superduperhyper 66% Bench von CB Schrott ist und nVidia ebenfalls nutzen aus Vulkan ziehen kann, siehe dildo4you.
Ganz anderer Ansatz...du bist im CPU-Limit mit 1,2GHz, CBase (OC 6700k) zeigt was im GPU-Limit geht (1440p + 2160p)
Trotzdem wtf :freak: LL-APIs ftw...
Hübie
2016-07-12, 21:45:11
Ihr könnt auch die "Druck"-Taste verwenden. Funktioniert unter Windows 10 prächtig mit Vulkan...
Nö. In Fullscreen nimmt er beide Monitore auf, aber wenn man Alt-Tab macht und in ein Bildbearbeitungsprogramm einfügt kommt nur Doom4 mit dem Bild vom Menü, obwohl man während der Spielszene "Druck" drückt.
AMD gewinnt sowohl im CPU-Limit als auch im GPU-Limit dazu, das ist der Unterschied.
Weil wie gesagt die Treiber unter OGL unbrauchbar sind, wie man deutlich sieht. Durch Zauberei gewinnt man jedenfalls nicht so große Sprünge. Wie auch immer - die low level API ist durchaus zweckmäßig für AMD.
Bei AMD gibts da nur ein schwarzes Bild, hab ich gestern schon geschrieben. NV müsste funktionieren.
Nein. Weder Fullscreen noch Borderless gehen. Fullscreen siehe oben, Borderless gibt schwarzes Bild. :confused:
Ich fasse zusammen:
D3D11 und davor: Der Hardware-Hersteller musste viel Aufwand für Treiber betreiben.
D3D12 und Vulkan: Der Hardware-Hersteller muss viel Aufwand für die Akquise von Entwicklern betreiben, damit diese pro µArch das beste heraus holen.
Frage die sich mir stellt: Was ist kosteneffizienter? Eine Armee von Programmierern wie NVIDIA sie beschäftigt sicher nicht... oder? :confused:
ps: Mir ist klar, dass es sich für den Leser dieses Beitrags so liest, wie eine beleidigte Leberwurst eines NVIDIA-Karten-Besitzer, aber bedenkt: Ich würde mich von beiden IHVs betrogen fühlen, wenn ich beides hätte (Hallo, Dural). Wieso muss ich alle Nase lang Geld in NVIDIA pumpen oder warum muss ich Ewig und drei Tage auf Performance warten, damit ich endlich spielen kann? :confused:
dargo
2016-07-12, 21:49:29
Hat das Spiel nicht ein 200FPS Limit? Weniger als 5ms sind bei mir nicht drin...
Ja... bei 200fps ist Schluss.
Ihr könnt auch die "Druck"-Taste verwenden. Funktioniert unter Windows 10 prächtig mit Vulkan...
Oder einfach G12, funzt prima auf der G19;-)
Wie schon im DOOM Thread geschrieben. Habe mit PhenomII X6 und FuryTriX immer ca. 60FPS gehabt. Jetzt ca. 100 unter FULLHD. Läuft also super, dabei ist die Fury kaum zu hören.
Hübie
2016-07-12, 21:53:32
Falls Wolle von cb hier mitliest: Sag mal bitte welche Szene ihr verwendet und wie ihr das messt. Danke. :smile:
MechWOLLIer
2016-07-12, 21:56:48
Falls Wolle von cb hier mitliest: Sag mal bitte welche Szene ihr verwendet und wie ihr das messt. Danke. :smile:
Szene ist die in dem Video:
https://www.computerbase.de/2016-05/grafikkarten-testsystem-2016/5/#abschnitt_doom
Gemessen ist das mit PresentMon.
Hübie
2016-07-12, 22:01:04
Danke. War mir nicht klar, dass ihr die Standardszene genommen habt. Muss auch zugeben den Text nicht ganz gelesen zu haben (der Schock saß zu tief :biggrin:).
-=Popeye=-
2016-07-12, 22:24:10
Heftig. :eek: Noch heftiger ist die Szenenabhängigkeit, der Gewinn von OGL auf VLK schwankt offenbar von Szene zu Szene um Größenordnungen. Hier (http://www.pcgameshardware.de/Doom-2016-Spiel-56369/News/Vulkan-Patch-bessere-Performance-Benchmarks-1201321/) habe ich mit 1,2 GHz Kerntakt und einer TX @ 1.500/4.200 MHz "nur" +71 % raus.
MfG,
Raff
Also wenn ich eure Benchmark-Szene nehme dropt es (siehe Settings) mit OpenGL auf 45 und mit Vulkan nie unter 100.
Ich hoffe doch schwer das in naher Zukunft viel mehr Vulkan oder DX12 Spiele erscheinen und das auch gleich zum Release und nicht paar Wochen bzw. Monate später. Erinnert mich an Quake 2 mit 3DNow. :biggrin: Geil aber ich will den Scheiß übarall. :freak:
ChaosTM
2016-07-12, 22:42:41
War das nicht Glide (3dfx Api) bei Quake2? egal.. :)
-=Popeye=-
2016-07-12, 22:43:34
Ganz anderer Ansatz...du bist im CPU-Limit mit 1,2GHz, CBase (OC 6700k) zeigt was im GPU-Limit geht (1440p + 2160p)
Trotzdem wtf :freak: LL-APIs ftw...
Warum? Den selben Ansatz hat AMD damals auch mit Mantle gezeigt und wir können froh sein das sie damals diesen Schritt gegangen sind, ohne Mantle kein Vulkan oder DX12.
Das der ganze Quark bei einer schnellen CPU nicht wirklich viel bringt sollte mittlerweile auch klar sein.
Kartenlehrling
2016-07-12, 22:45:26
https://community.bethesda.net/thread/54585
Vulkan Now Available - FAQ DOOM '16 PC
Langenscheiss
2016-07-12, 22:45:53
Schön wäre es ja, wenn ein paar mehr Titel mit Vulkan kämen. Dann müsste man nicht auf Windows 10 wechseln, um in den Genuss einer konkurrenzfähigen API zu kommen.
Gorkon
2016-07-12, 23:00:38
Warum? Den selben Ansatz hat AMD damals auch mit Mantle gezeigt und wir können froh sein das sie damals diesen Schritt gegangen sind, ohne Mantle kein Vulkan oder DX12.
Das der ganze Quark bei einer schnellen CPU nicht wirklich viel bringt sollte mittlerweile auch klar sein.
Wenn du absichtlich auf 1,2GHz gehst in 1080p, bist du ganz klar CPU-Limitiert und zeigst, was die API genau in diesem Fall bringt, nämlich die CPU massiv zu entlasten. Steht doch sogar alles Rot/Gelb auf Grün in den Performance-Metrics :D
Und jetzt erklär mir mal, wo wir uns bei CBase mit einem 4,5GHz laufendem 6700k mit max. Details in 1440p / 2160p befinden...na, dämmerts? Dieser "Quark" bei einer schnellen CPU bringt immerhin in 4K noch 11% bei Fiji, in 1440p sogar 52%, bzw. 40% mit Polaris / Hawaii.
-=Popeye=-
2016-07-12, 23:23:59
Hmm... bewegen sich AMD CPUs nicht auf dem selben Niveau? Ok... ich habe ein paar Threads mehr, dieser Test sollte nur zeigen das nicht nur AMD nutzen aus dieser API ziehen kann.
edit:
erklär mir die +150% in 1080p mit einem i7@1200MHz+TX
Digidi
2016-07-12, 23:26:49
Wenn du absichtlich auf 1,2GHz gehst in 1080p, bist du ganz klar CPU-Limitiert und zeigst, was die API genau in diesem Fall bringt, nämlich die CPU massiv zu entlasten. Steht doch sogar alles Rot/Gelb auf Grün in den Performance-Metrics :D
Und jetzt erklär mir mal, wo wir uns bei CBase mit einem 4,5GHz laufendem 6700k mit max. Details in 1440p / 2160p befinden...na, dämmerts? Dieser "Quark" bei einer schnellen CPU bringt immerhin in 4K noch 11% bei Fiji, in 1440p sogar 52%, bzw. 40% mit Polaris / Hawaii.
Ich glaube du hast da eienen Denkfehler denn der 6700k ist es nicht der die 11% Mehr Leistung in 4k bringt sondern die Async Compute Fähigkeiten der GPU.
Das muss man wirklich trennen. Es gibt 2 Performanschübe in Vulcan
1.) Die CPU wird entlastet und kann so die GPU bessern füttern (Das sieht man gut das Nvidia hier trotzt mäßiger CPU sehr viel mehr Performance abrufen kann)
2.) Die Grafikkarten Ressourcen werden dank Async Compute besser benutzt. (Dies erkennt man das Nvidia keine Sprünge mehr macht weil Async Compute auf Nvidia nicht richtig geht)
Bei 4k langweilt sich der Prozessor wahrscheinlich zu Tode.
illidan
2016-07-12, 23:29:50
Für Screenshots müsst ihr derzeit den Fenstermodus und Druck-Taste verwenden.
Ihr könnt ja zur Sicherheit checken, ob die fps mit Vollbild und Fenster gleich sind.
2560x1440, Ultra, 16x AF
R9 Nano Crimson 16.7.2
Xeon E5 v3 14 Cores @ 2.5GHz
OGL SMAA (TX1):
56655 ~59fps
OGL TSSAA (TX8):
56649 ~45fps
VLK SMAA (TX1):
56651 ~84fps
VLK TSSAA (TX8):
56650 ~96fps
Vielen Dank!
Das ist schon ein ordentlicher Boost. ohne AC etwa +40%, mit aber mehr als 100% :eek: TX8 wird sogar durch AC billiger als SMAA :eek:
illidan
2016-07-13, 00:00:46
TAA sollte nicht so teuer sein, komisch ist das schon.
Bei der Cryengine kostet das mit DX11 so gut wie überhaupt keine Leistung.
Digidi
2016-07-13, 00:03:58
Passt doch ganz gut dazu:
https://www.reddit.com/r/pcmasterrace/comments/4ql4l4/amd_robert_spent_more_than_10_hours_on_the_amd_ama/d4vppym
2) Because 32 ROPs is the correct number for the size of the graphics engine, the L2 cache and the various buffers placed throughout the chip. It is a common misconception that ROPs solely determine AA or resolution performance. Instead you should be designing your chip in such a way that transactions and workloads that could pressure the ROPs are handled elsewhere. We have done that.
Schaffe89
2016-07-13, 00:09:23
Meine Nano dreht Kreise um die kürzlich erworbene GTX 980, fast in allen Szenen 50% schneller, heftigst.
Das Strommessgerät zeigt auch keinen höheren Strombedarf?!
Sehr nicer Shit.
Troyan
2016-07-13, 00:21:00
Wenn OpenGL im CPU-Limit schneller ist als Vulkan im GPU-Limit, dann weiß man, wieso der Lead Designer über Twitter die "tolle Leistung von einer GTX1080" nicht lobt. :lol:
Gynoug MD
2016-07-13, 00:24:11
Meine Nano dreht Kreise um die kürzlich erworbene GTX 980.
Oh yes! Das läßt mich die "nur" 4GB VRam, das relativ laute Lüfterchen (Besserung in Arbeit) und das am Anfang nervige Freesync-Gefrickel schnell vergessen!
Ich habe selten so einen Leistungsboost und so viel Spaß mit neuer Hardware gehabt.
Achill
2016-07-13, 00:24:24
2560x1440, Ultra, 16x AF
R9 Nano Crimson 16.7.2
Xeon E5 v3 14 Cores @ 2.5GHz
OGL SMAA (TX1):
56655 ~59fps
OGL TSSAA (TX8):
56649 ~45fps
VLK SMAA (TX1):
56651 ~84fps
VLK TSSAA (TX8):
56650 ~96fps
KD hat fertig ...
Ultra + 16xAF, Startraum siehe Loeschzwerg
1920x1080: 123-128 fps
2560x1440: ~87 fps
3360x2100: ~53 fps
Find ich gut. 2560x1600 gehen mit 60 fps vsynced.
Hübie
2016-07-13, 00:35:35
KD hat fertig? Was meinst du damit?
decimad2
2016-07-13, 00:54:15
Leider wurde gar nicht gemessen, ob die Mehrleistung auf AMD-Karten auch zu entsprechend erhöhter Verlustleistung führt, d.h. Einheiten*Zeit gewachsen ist, oder ob schlicht besser aufgeteilt wird, sodass weniger bei "krummen" Threadgrößen weggeschmissen werden muss. Außerdem meine ich doch gelesen zu haben, dass Doom auf AMD-Vulkan die Intrinsics verwendet?
Ich möchte das jetzt gar nicht schlechtreden, bin aufgrund dieser Resultate doch wieder am Tendieren Richtung Rx480 zwecks Langlebigkeit, mal davon ab, dass mir nVidia eigentlich auf den Puffer geht. Aber nicht, wenn die dann auf einmal 175W*1.5= 260W zieht.
-/\-CruNcher-/\-
2016-07-13, 03:15:36
Brutal. Der Name "Fury" kommt nicht von ungefähr.
Gibt doch endlich zu das das euer Marketing war, subliminal marketing @ its best ;)
https://youtu.be/ZTidn2dBYbY?t=62
Möcht nicht wissen wie oft das bei AMD rauf und runter gedudelt wird ;)
Neuling bekommt erstmal die Kopfhörer aufgesetzt, wie ist das Gefühl ? ;)
illidan
2016-07-13, 03:24:35
Leider wurde gar nicht gemessen, ob die Mehrleistung auf AMD-Karten auch zu entsprechend erhöhter Verlustleistung führt
Der Strombedarf von Doom mit Vulkan ist harmlos, Powervirus-Spiele gibts außerdem selbst mit DX9.
dargo
2016-07-13, 06:11:44
Leider wurde gar nicht gemessen, ob die Mehrleistung auf AMD-Karten auch zu entsprechend erhöhter Verlustleistung führt, d.h. Einheiten*Zeit gewachsen ist, oder ob schlicht besser aufgeteilt wird, sodass weniger bei "krummen" Threadgrößen weggeschmissen werden muss.
Wie ich schon schrieb ist der Takt bei meiner R9 390 identisch zu anderen DX11 Games. Da meine Karte in der Regel immer durch das PT limitiert wird ändert sich am Stromverbrauch nichts. Es sind weiterhin die üblichen 990-1000Mhz im GPU-Limit bei knapp über 200W und gleichen Temps. sowie Lüfterdrehzahl. In Witcher 3 @DX11 habe ich eher avg. von 980-990Mhz.
MikePayne
2016-07-13, 06:47:14
DOOM läuft wunderbar mit Vulkan :)
Bei meiner RX 480 sind es einiges mehr an FPS (Screenshot unter Vulkan bisher nicht möglich:
Druck = Schwarzer Bildschirm / Steamscreenshot = Steamabsturz), 1266 MHz liegen dauerhaft ingame an.
Die Levels in der Hölle sind sehr beeindruckend!
Frank1974
2016-07-13, 07:50:32
Sorry hier stand Blödsinn von mir, kann gelöscht werden.
fondness
2016-07-13, 07:56:12
Weil wie gesagt die Treiber unter OGL unbrauchbar sind, wie man deutlich sieht. Durch Zauberei gewinnt man jedenfalls nicht so große Sprünge. Wie auch immer - die low level API ist durchaus zweckmäßig für AMD.
Was in dieser Verkürzung wie schon von vielen gesagt Blödsinn ist. Aber sämtliche Aussagen dahingehend ignorierst du ja einfach und behauptest immer wieder dasselbe. AMD lag unter OpenGL zwar leicht unterdurchschnittlich, die Leistungssteigerungen im GPU-Limit rühren allerdings aus Funktionen her, die unter OpenGL schlicht nicht zur Verfügung stehen. Nicht umsonst liegt eine Fury X unter Vulkan wohl selbst vor einer GTX1080.
D3D11 und davor: Der Hardware-Hersteller musste viel Aufwand für Treiber betreiben.
D3D12 und Vulkan: Der Hardware-Hersteller muss viel Aufwand für die Akquise von Entwicklern betreiben, damit diese pro µArch das beste heraus holen.
Ergänzung zu D3D12 und Vulkan: Die Architektur muss diese Optimierungen auch ermöglichen. GCN bietet hier mit AsyncCompute und viele tollen Shader Intrinsics viele Möglichkeiten um low-level zusätzliche Performance heraus zu holen. Nvidia hingegen hat ihre Architekturen in der Vergangenheit immer mehr versimplifiziert bzw. vieles raus geschmissen was unter DX11 nichts brachte.
dargo
2016-07-13, 08:00:55
@Frank1974
:facepalm: :facepalm: :facepalm:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11099066&postcount=3197
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11099537&postcount=1272
Hier sieht man erst richtig wie schlecht der OpenGL-Treiber von NV ist. Der AMD-OpenGL-Treiber ist dann nur noch "etwas" schlechter. ;)
PS: mir scheint so, dass NV nicht die gleiche Energie in den OpenGL Treiber gesteckt hat wie in DX11 seit dem FW337.50. ;) Was auch irgendwo verständlich ist wenn man sich anguckt was so alles an Games @OpenGL kommt.
Achill
2016-07-13, 08:03:45
@Frank1974
:facepalm: :facepalm: :facepalm:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11099066&postcount=3197
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11099537&postcount=1272
Wir brauchen wieder IQ-Tests :devil: ... sieht aus also ob bei OGL der Schärfefilter von Doom nicht an ist.
Foobar2001
2016-07-13, 08:43:51
Oh AMD hat es vorraus gesagt...
Vulkan ist von AMD entwickelt worden, erst unter dem Namen Mantle und dann in Vulkan übergegangen, wer für mich jetzt klar betrügt ist AMD, nix gebacken bekommen unter DX11 oder OpenGL sind sogar zwei Schnittstellen, wo sie versagt haben, aber immer Lügen gegen Nvidia verbreiten, AMD hat sich selbst ausgebremst in DX11, da musste Nvidia gar nichts machen.
AMD entwickelt etwas worauf Nvidia dann genauso schnell läuft, glaubst du an den Weihnachtsmann..., es ist eine große Sauerei was AMD jetzt hier abzieht, Vulkan ist nur auf AMD Architektur optimiert, Nvidia muss dafür eine ganz neue Architektur entwerfen, das kann man nicht mal eben in Maxwell oder Pascal integrieren, aber toll wie jeder AMD jetzt hier feiert...
Ich hoffe Nvidia entwickelt selbst eine API und wirft AMD dann endlich aus der Bahn, schade das Intel mit AMD nicht längst kurzen Prozess gemacht hat, aber vielleicht kommt das ja noch, dann brauch ich mir nicht mehr von den 20% AMD Usern(Extrem Fanboys) Unsinn anhören, wie gesagt denk darüber nach, Vulkan = AMD also kann Nvidia gar nicht gleich auf sein, alle DX Versionen waren vorher neutral auch OpenGL, aber AMD wusste nicht mehr weiter also nur der Weg über eine eigene Architektur und dann von Behinderung durch Nvidia reden was für ein hohn...
Mit nicht Freundlichem Gruss
Was für ein Gelaber, NVIDIA hat selber große Teile der Vulkan-Spec mit geschrieben:
https://github.com/KhronosGroup/Vulkan-Docs/blob/1.0/doc/specs/vulkan/appendices/credits.txt
u.A. "Jeff Bolz, NVIDIA (extensive contributions, exhaustive review and rewrites for technical correctness)"
Darüber hinaus gab es gravierende Änderungen gegenüber Mantle. Vor allem für mobile GPU-Kram.
Disco_STFU
2016-07-13, 08:57:50
BF1 wird DX 12 und Vulkan haben.
https://twitter.com/repi/status/585558771604316161?ref_src=twsrc%5Etfw
Oder doch nicht? Den zweiten Satz versteh ich nicht so ganz mit dem "ship"... ööhh?
edit: Achso die bauen das für sich ein und gucken was besser läuft und bieten dann entweder das eine, das andere oder beides an.
ALso nichts genaues weiß man nicht. :freak:
dargo
2016-07-13, 09:00:53
Nicht "und" sondern "oder". Beides würde auch wenig Sinn machen und unnötig Resourcen verschwenden.
dildo4u
2016-07-13, 09:02:55
BF1 wird DX 12 und Vulkan haben.
https://twitter.com/repi/status/585558771604316161?ref_src=twsrc%5Etfw
Oder doch nicht? Den zweiten Satz versteh ich nicht so ganz mit dem "ship"... ööhh?
Der Post ist vom April 2015 und da steht sie testen beides,es könnte sein das es mit Beidem kommt oder nur mit DX12.In der Alpha steht nur was von DX12 bis jetzt.
Da EA keine Linux Games verkauft wird's whol DX12 only bleiben.
https://www.phoronix.com/scan.php?page=news_item&px=EA-Frostbite-No-Linux
Disco_STFU
2016-07-13, 09:10:04
Man sollte sich echt mal angewöhnen mehr aufs Datum zu schauen... -.-
AffenJack
2016-07-13, 09:12:52
So etwas geben mir dei CB ergebnisse noch ein Rätsel auf. Bei 4K gewinnt Fury nur 11% und ist nur ganz knapp vor der GTX1070. Aber wieso gewinnt man in 2560 soviel und ist dann soviel besser als Nv? Ist AMDs Treiber soviel besser in der CPU Last bei Vulkan als Nvs Treiber? Ich dachte ja erst es liegt einfach daran, dass man die Gflops endlich auf die Straße bringen kann, aber das passt mit 4K einfach nicht. Oder limitieren da die 4gb Ram Fury bei 4K?
kuj0n
2016-07-13, 09:12:56
Wenn du schon übersetzt, dann auch richtig.
...could be that we ship only DX12, or only Vulkan, or both
Sie implementieren beides und zum Start gibt dann nur DX12, oder nur Vulkan, oder beides.
Was eben besser läuft. Was Dildo wieder unterschlägt, BF1 könnte auch nur Vulkan Support bekommen, wenn das einfach besser läuft.
dargo
2016-07-13, 09:15:50
So etwas geben mir dei CB ergebnisse noch ein Rätsel auf. Bei 4K gewinnt Fury nur 11% und ist nur ganz knapp vor der GTX1070. Aber wieso gewinnt man in 2560 soviel und ist dann soviel besser als Nv? Ist AMDs Treiber soviel besser in der CPU Last bei Vulkan als Nvs Treiber?
Ja. Sobald die CPU-Last eine größere Rolle spielt kann sich die Fury besser absetzen. Sieht man auch ganz gut bei 1080p vs. 1440p.
Edit:
Argh... falsche Werte im Kopf gehabt. :freak:
https://www.computerbase.de/2016-07/doom-vulkan-benchmarks-amd-nvidia/#diagramm-doom-mit-vulkan-2560-1440
1080p +18%
1440p +26%
2160p +4%
Das sieht in der Tat etwas merkwürdig bei 1080p vs. 1440p aus. Kann es eventuell daran liegen, dass die max.fps schon über 200 liegen und die avgs. etwas verfälschen? Das Game ist auf 200fps begrenzt.
fondness
2016-07-13, 09:24:58
So etwas geben mir dei CB ergebnisse noch ein Rätsel auf. Bei 4K gewinnt Fury nur 11% und ist nur ganz knapp vor der GTX1070. Aber wieso gewinnt man in 2560 soviel und ist dann soviel besser als Nv? Ist AMDs Treiber soviel besser in der CPU Last bei Vulkan als Nvs Treiber? Ich dachte ja erst es liegt einfach daran, dass man die Gflops endlich auf die Straße bringen kann, aber das passt mit 4K einfach nicht. Oder limitieren da die 4gb Ram Fury bei 4K?
Ich würde auf VRAM tippen. Da braucht man unter D3D12/Vulkan auch gerne mal etwas mehr. Und die 4GB sind wahrlich nicht viel für 4K.
Locuza
2016-07-13, 09:37:47
Ergänzung zu D3D12 und Vulkan: Die Architektur muss diese Optimierungen auch ermöglichen. GCN bietet hier mit AsyncCompute und viele tollen Shader Intrinsics viele Möglichkeiten um low-level zusätzliche Performance heraus zu holen. Nvidia hingegen hat ihre Architekturen in der Vergangenheit immer mehr versimplifiziert bzw. vieles raus geschmissen was unter DX11 nichts brachte.
Nvidias Architektur bietet etwa keine Funktionen an, welche noch für Performancegewinne verwendet werden könnten?
Was hat denn Nvidia immer mehr versimplifiziert?
Ich weiß das ab Kepler Nvidia das Hardware-Scheduling herausgeworfen hat und intern einige Sachen simpler gestaltet, aber insgesamt muss man natürlich fragen, welche Umgestaltung negativ und nicht positiv zu bewerten ist?
Auch da ab Kepler es mit Maxwell und Pascal schon zwei Nachfolger gibt, haben die etwa etwas negativ versimplifiziert?
Digidi
2016-07-13, 10:07:01
Gibt es Stromverbrauchmessungen? Wenn was bei Nvidia klemmt wurde der Stromverbrauch ja reduziert werden, das ware ein super Zeichen das die gpu nicht vo!l ausgelastet wird. Muss man halt mit anderen Spielen ins Verhältnis setzen!
Das gleiche gilt natürlich auch für Amd!
BlacKi
2016-07-13, 10:12:50
Gibt es Stromverbrauchmessungen? Wenn was bei Nvidia klemmt wurde der Stromverbrauch ja reduziert werden, das ware ein super Zeichen das die gpu nicht vo!l ausgelastet wird.
siehst du doch am boost...
Digidi
2016-07-13, 10:16:10
Nicht unbedingt!
BlacKi
2016-07-13, 10:22:25
Nicht unbedingt!
nicht bei allen, aber zumindest bei der referenz!
570rm
2016-07-13, 10:42:29
https://youtu.be/5WuoRTm4xoQ
Des ist eh nur Best-Case...beim CB Bench.
Wenn ich da kein Video aufnehme, hängt die Karte die meiste Zeit im 200 Frame-Limit :rolleyes: Aber so ca, schauen die Werte eine Custom 1080 aus...
Und teilweise hab ich auch in Vulkan Ecken, bei denen ich in OGL mehr Frames habe... Alles halb so wild :D
Gorkon
2016-07-13, 10:51:53
Hmm... bewegen sich AMD CPUs nicht auf dem selben Niveau? Ok... ich habe ein paar Threads mehr, dieser Test sollte nur zeigen das nicht nur AMD nutzen aus dieser API ziehen kann.
edit:
erklär mir die +150% in 1080p mit einem i7@1200MHz+TX
Massive Overhead-Reduktion durch Vulkan, brauchst halt nur noch einen Bruchteil der CPU-Leistung dafür, der Rest kann sinnvoll verwendet werden. Was anderes hab ich auch nicht geschrieben...
Ich glaube du hast da eienen Denkfehler denn der 6700k ist es nicht der die 11% Mehr Leistung in 4k bringt sondern die Async Compute Fähigkeiten der GPU.
Das muss man wirklich trennen. Es gibt 2 Performanschübe in Vulcan
1.) Die CPU wird entlastet und kann so die GPU bessern füttern (Das sieht man gut das Nvidia hier trotzt mäßiger GPU sehr viel mehr Performance abrufen kann)
2.) Die Grafikkarten Ressourcen werden dank Async Compute besser benutzt. (Dies erkennt man das Nvidia keine Sprünge mehr macht weil Async Compute auf Nvidia nicht richtig geht)
Bei 4k langweilt sich der Prozessor wahrscheinlich zu Tode.
Schon klar, dass im GPU-Limit dann Sachen wie Shader Intrinsics, AC, etc. durchschlagen, wenn die reine Rechenleistung in 4K halt sonst am Ende ist.
Ich hab dich schon verstanden ;) Genau wie du sagst gibt es 2 Leistungsschübe. Und Popeyes Test zeigt eher, was im CPU-Limit, CBase Test was im GPU-Limit passiert. Bäm, 2 Szenarien, was ich genau so auch geschrieben habe. Klassisch aneinander vorbeigeredet ;) oder von mir nicht genau genug geschrieben, war halt schon spät für mich gestern ;(
mfg
Der HeinZ
2016-07-13, 11:02:25
Sind irgendwelche Benches mit AMD Prozessoren (und potenter AMD Grafikkarte) außer dem FX83X0 zu Doom zu finden? Kaveri und co wären vielleicht mal interessant, oder ein X4 Phenom.
Das der FX so ungemein viel zulegt erscheint mir äußerst logisch, schließlich nutzt Vulcan CMP richtig gut aus, die schlechte Singelthread Leistung ist damit erstmal Geschichte.
Denke aber der NB-Takt wird dann irgendwann limitieren, die ist bei den Intels einfach enorm viel höher getaktet.
Der X6 geht ja, wie mir ja bereits mitgeteilt worden ist, extrem gut ab.
Was sich daraus für coole Szenarien ergeben könnten, wenn man die brachliegende Rechenleistung dann einfach in irgendwelche anderen Berechnungen packt.
Allerdings... fallen mir da im Moment garkeine ein ;), Physik kann ja mittlerweile die GPU ganz gut.
Edit: Einen Punkt den ich einmal hinterfragen möchte: Ist der FX nun im Verhältniss genauso viel schneller geworden wie ein Intel 4 Kerner + SMP, oder profitiert er mehr als ein Intel von Vulcan. Ich errinnere mich dass die DX12 (theoretischen) Benchmarks den FX prozentual nicht besser zeigten als einen Intel, ich glaube sogar teilweise schlechter.
Gruss Matthias
Hübie
2016-07-13, 11:09:35
So etwas geben mir dei CB ergebnisse noch ein Rätsel auf. Bei 4K gewinnt Fury nur 11% und ist nur ganz knapp vor der GTX1070. Aber wieso gewinnt man in 2560 soviel und ist dann soviel besser als Nv? Ist AMDs Treiber soviel besser in der CPU Last bei Vulkan als Nvs Treiber? Ich dachte ja erst es liegt einfach daran, dass man die Gflops endlich auf die Straße bringen kann, aber das passt mit 4K einfach nicht. Oder limitieren da die 4gb Ram Fury bei 4K?
Ich habe auch keine Ahnung was die da messen. In exakt dieser Szene erreiche ich >55 fps. Drossel ich den Takt auf unter 1300 sind es etwa die FuryX-Werte. Wieso ziehen die ständig die Handbremse an:confused: Merkwürdigerweise ist es nur die Presse wo AMDs Karten so derbe gewinnen.
Digidi
2016-07-13, 11:11:16
@Gorkon
Passiert wenn man mude ist! Ich hab auch einen Fehler gemacht!
1.) Die CPU wird entlastet und kann so die GPU bessern füttern (Das sieht man gut das Nvidia hier trotzt mäßiger CPU sehr viel mehr Performance abrufen kann)
M4xw0lf
2016-07-13, 11:19:54
Merkwürdigerweise ist es nur die Presse wo AMDs Karten so derbe gewinnen.
Ahja? Ich lese bei Steam und in Foren andauernd von AMD-Usern die sogar nahezu doppelte Performance bekommen.
Oder meinst du die absolute Performance AMD vs. Nvidia? Dazu gibts natürlich keine guten Daten Abseits vom CB-Test.
Hübie
2016-07-13, 11:27:26
Oder meinst du die absolute Performance AMD vs. Nvidia? Dazu gibts natürlich keine guten Daten Abseits vom CB-Test.
Ja natürlich meine ich die Relationen. Man könnte sich ja mal die Mühe machen und messen wie hoch die Karten im Schnitt nun wirklich takten als immer nur die worst case darzustellen. Auf NV-Besitzer verzeichnen ordentliche Zuwächse, was aber irgendwie nicht so kommuniziert wird.
Bei mir sind es zwar nur 7% aber unter 4k schon immerhin etwas. Jetzt wo mein "Stotterproblem" weg ist, läuft es auch ziemlich rund. :cool:
Es kann ja mal jemand mit einer FuryX (gerne mit OC) testen wieviel er in der computerbase-Szene unter 4k (Ultra+Nightmare) erhält. Meine Karte ist überdurchschnittlich gut im boost. Also einigen wir uns auf 48-50 statt 55-57 fps im Mittel.
Edit:
Was in dieser Verkürzung wie schon von vielen gesagt Blödsinn ist. Aber sämtliche Aussagen dahingehend ignorierst du ja einfach und behauptest immer wieder dasselbe. AMD lag unter OpenGL zwar leicht unterdurchschnittlich, die Leistungssteigerungen im GPU-Limit rühren allerdings aus Funktionen her, die unter OpenGL schlicht nicht zur Verfügung stehen. Nicht umsonst liegt eine Fury X unter Vulkan wohl selbst vor einer GTX1080.
Liegt sie nicht. Muss sie bei den Preisen von NV auch nicht. Und dass die Treiber von AMD unter OGL Mist sind ist auch kein Blödsinn. Wieso dementierst du das offensichtliche? Damit meine ich auch nicht nur Doom (wo eine AMD Karte nur OGL 4.3 nutzt).
Ergänzung zu D3D12 und Vulkan: Die Architektur muss diese Optimierungen auch ermöglichen. GCN bietet hier mit AsyncCompute und viele tollen Shader Intrinsics viele Möglichkeiten um low-level zusätzliche Performance heraus zu holen. Nvidia hingegen hat ihre Architekturen in der Vergangenheit immer mehr versimplifiziert bzw. vieles raus geschmissen was unter DX11 nichts brachte.
Das ist wohl der Preis für die geringere Leistungsaufnahme. Aber was genau meinst du mit hinausgeschmissen??
M4xw0lf
2016-07-13, 11:39:31
Ja natürlich meine ich die Relationen. Man könnte sich ja mal die Mühe machen und messen wie hoch die Karten im Schnitt nun wirklich takten als immer nur die worst case darzustellen.
Bei CB weiß man ja die Taktraten wieder nicht, worst case ist also nicht gesagt.
Hübie
2016-07-13, 11:44:13
Doch steht in deren Messmethoden-Artikel (https://www.computerbase.de/2016-05/grafikkarten-testsystem-2016/2/). Und auf Seite 5 dann die Settings für Doom.
Kann nicht nachvollziehen warum hier Intrinsics ploetzlich was Gutes sein sollen. Wuerde NV Derartiges durchdruecken (machen sie ja vielleicht mit GW, aber zumindest ist nichts bekannt), gaebe das einen ordentlichen shitstorm
Doom (wo eine AMD Karte nur OGL 4.3 nutzt).
Wieso denn das? Quelle?
dildo4u
2016-07-13, 11:53:55
Wieso denn das? Quelle?
http://www.pcgameshardware.de/Doom-2016-Spiel-56369/News/Vulkan-Patch-bessere-Performance-Benchmarks-1201321/galerie/2604855/?fullsize
Locuza
2016-07-13, 11:54:14
Ich meine Axel hat getwittert das bei beiden IHVs OGL 4.3 als Baseline mit Erweiterungen genutzt wird.
Wieso der MSI Afterburner (?) aber bei Nvidia eine höhere Versionsnummer angezeigt hat, wurde glaube ich nicht direkt beantwortet.
Hübie
2016-07-13, 11:58:31
@Frank1974
:facepalm: :facepalm: :facepalm:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11099066&postcount=3197
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11099537&postcount=1272
Hier sieht man erst richtig wie schlecht der OpenGL-Treiber von NV ist. Der AMD-OpenGL-Treiber ist dann nur noch "etwas" schlechter. ;)
PS: mir scheint so, dass NV nicht die gleiche Energie in den OpenGL Treiber gesteckt hat wie in DX11 seit dem FW337.50. ;) Was auch irgendwo verständlich ist wenn man sich anguckt was so alles an Games @OpenGL kommt.
Er redet Blech. Nicht drauf eingehen. Bei LL ist der Unterschied einfach, dass der IHV hier nicht mehr viel per Treiber herausholen kann, wenn es sich nicht um einen schwerwiegenden Bug handelt. Und die kleineren Gewinne mit VKL sprechen doch eine deutliche Sprache, meinst du nicht? ;)
Kann nicht nachvollziehen warum hier Intrinsics ploetzlich was Gutes sein sollen. Wuerde Derartiges durchdruecken (machen sie ja vielleicht mit GW, aber zumindest ist nichts bekannt), gaebe das einen ordentlichen shitstorm
Du vergisst, dass AMD die Heilsarmee ist. :D SCNR (Bitte nicht ernst nehmen!)
Wieso denn das? Quelle?
Guck doch mal auf die Screenshots mit der Anzeige. Steht immer OGL 4.3. Bei allen NV-Karten 4.5.
@Locuza: Hab nix dergleichen gelesen und eben auch nix gefunden. Irgendwie konnte man doch bei id_tech mal sehen welche extensions verwendet werden. Weißt du noch wie?
dargo
2016-07-13, 12:11:05
Er redet Blech. Nicht drauf eingehen. Bei LL ist der Unterschied einfach, dass der IHV hier nicht mehr viel per Treiber herausholen kann, wenn es sich nicht um einen schwerwiegenden Bug handelt. Und die kleineren Gewinne mit VKL sprechen doch eine deutliche Sprache, meinst du nicht? ;)
Die kleineren bis keinen Gewinne im GPU-Limit bei NV deuten darauf hin, dass deren Architekturen noch nicht vollständig für moderne APIs ausgerichtet sind. Ich hatte schon mal gesagt, dass GCN dem API-Zeitalter am PC deutlich voraus ist. Das kommt auch nicht von ungefähr... siehe PS4 und XB1 wo man schon immer direkter an der Hardware hantiert.
SaschaW
2016-07-13, 12:12:04
Ich meine Axel hat getwittert das bei beiden IHVs OGL 4.3 als Baseline mit Erweiterungen genutzt wird.
Wieso der MSI Afterburner (?) aber bei Nvidia eine höhere Versionsnummer angezeigt hat, wurde glaube ich nicht direkt beantwortet.
Ich gehe davon aus dass man einen versionierten Kontext anfordert und dort dann explizit Major 4 und Minor 3. Ob man jetzt 4.5 oder 4.3 anfordert spielt prinzipiell keine Rolle wenn man evtl. 4.5-Core Features nur über Extensions nutzt.
Was mich an dem Screenshot aber verwundert ist der Context mit Kompatibilitätsprofil. Da hätte ich jetzt eher auf einen Forward Context getippt. Spielt aber letztendlich kaum eine Rolle.
Und kurz zum Thema NV und Vulkan (besonders an @Frank1974):
Vulkan ist NICHT auf die Architektur von AMD gemünzt. Es gibt auch ein Leben außerhalb des Desktops, und da sind TBRs dominant, und da passt Vulkan auch gut zu.
Und NV nimmt das Thema Vulkan sehr ernst (spreche aus Erfahrung), siehe z.B. VK_NV_dedicated_allocation. K.a. ob das in Doom schon implementiert wurde, aber damit kann man dann auch auf NV nochmal etwas an Performance rausholen.
Hmm ok, das war mir noch gar nicht aufgefallen...
Vulkan ist von AMD entwickelt worden, erst unter dem Namen Mantle und dann in Vulkan übergegangen, wer für mich jetzt klar betrügt ist AMD [...]
AMD entwickelt etwas worauf Nvidia dann genauso schnell läuft, glaubst du an den Weihnachtsmann..., es ist eine große Sauerei was AMD jetzt hier abzieht, Vulkan ist nur auf AMD Architektur optimiert, Nvidia muss dafür eine ganz neue Architektur entwerfen, das kann man nicht mal eben in Maxwell oder Pascal integrieren, aber toll wie jeder AMD jetzt hier feiert...
Ich hoffe Nvidia entwickelt selbst eine API und wirft AMD dann endlich aus der Bahn, schade das Intel mit AMD nicht längst kurzen Prozess gemacht hat, aber vielleicht kommt das ja noch, dann brauch ich mir nicht mehr von den 20% AMD Usern(Extrem Fanboys) Unsinn anhören, wie gesagt denk darüber nach, Vulkan = AMD also kann Nvidia gar nicht gleich auf sein, alle DX Versionen waren vorher neutral auch OpenGL, aber AMD wusste nicht mehr weiter also nur der Weg über eine eigene Architektur und dann von Behinderung durch Nvidia reden was für ein hohn...
:facepalm: :facepalm:
Vielen Dank fuer den unsinnigsten Beitrag des Jahres. Habe mich herzlich amuesiert.
Schon mal einen Blick in die Mitglieder der Arbeitsgruppe geworfen?
Kurze Sortierung fuer dich nach Anzahl der Mitglieder:
15 Intel
13 NVIDIA
12 Samsung Electronics
11 LunarG
10 Google
8 Qualcomm Technologies, Inc.
8 Imagination Technologies
7 AMD
6 ARM
4 Valve
4 Codeplay Software Ltd.
3 Oculus VR
3 Mediatek
3 Epic Games
2 Unity
2 Red Hat
2 Independent
2 Freescale
2 Broadcom
1 Vivante
1 Transgaming
1 The Brenwill Workshop
1 Sony Mobile
1 Pixar
1 Oxide Games
1 Mobica
1 Lucasfilm
1 Kyungpook National University
1 KDAB
1 Core Avionics & Industrial Inc.
1 Continental Corporation
1 Canonical
1 Blizzard Entertainment
Locuza
2016-07-13, 12:17:15
@Locuza: Hab nix dergleichen gelesen und eben auch nix gefunden. Irgendwie konnte man doch bei id_tech mal sehen welche extensions verwendet werden. Weißt du noch wie?
Ich habe den tweet gefunden:
why is the game using a opengl 4.3 and not 4.5?
It's using 4.3 with extensions from 4.4 and 4.5. There is no advantage in initializing a 4.5 context.
So could you please tell us why it is utilized for NVidia then? Just I am curious...
We use as much or little of 4.5 on NVIDIA as we do on AMD. No difference.
https://twitter.com/axelgneiting/status/731573399172960256
Ich weiß nicht wo und ob man nachgucken könnte, welche Erweiterungen Doom genau verwendet
Unicous
2016-07-13, 12:20:18
15 Intel
Vulkan=Intel
:eek::eek::eek:
Ganon
2016-07-13, 12:20:37
Vermutlich ist das auch schlicht der glGetString(GL_VERSION) Text vom Treiber, der da angezeigt wird. Würde mich nicht wundern, wenn NVidia immer den 4.5 Context zurückliefert, egal was angefragt wird. NVidia ignoriert unter OpenGL ja auch die ein oder andere Spec...
Hübie
2016-07-13, 12:26:21
Na das kann man ja auch mit Caps Viewer und gibt ja nicht wieder was genutzt wird. Vielleicht meldet sich ja hier ein "Wissender". :smile:
-/\-CruNcher-/\-
2016-07-13, 12:31:20
Kann nicht nachvollziehen warum hier Intrinsics ploetzlich was Gutes sein sollen. Wuerde NV Derartiges durchdruecken (machen sie ja vielleicht mit GW, aber zumindest ist nichts bekannt), gaebe das einen ordentlichen shitstorm
Wieso denn das? Quelle?
AMD damals: "We have to go back to Low Level"
das erfüllen sie damit, viele haben nur darauf gewartet das es endlich realität wird und man diese Kontrolle erhält abseits der IHV Engineers und Konsolen NDAs.
SaschaW
2016-07-13, 12:31:29
Na das kann man ja auch mit Caps Viewer und gibt ja nicht wieder was genutzt wird. Vielleicht meldet sich ja hier ein "Wissender". :smile:
Zwar etwas OT:
Ab GL 3.0 sollte man glGetIntegerV mit GL_MAJOR_VERSION / GL_MINOR_VERSION statt glGetString verwenden. Das macht mein CapsViewer auch so.
Bei einem Kompatibilitätskontext wird ja explizit keine Versionsnummer angefragt, dort liefert ein glGetString(GL_VERSION) dann immer die höchste verfügbare Version, das ist bei einem Forward-Context dann anders. Dabei spielt es keine Rolle welche Kernfeatures man eigentlich nutzt.
@Vulkan:
Wer sehen will wie Doom was rendert: Es gibt bald ein Update für RenderDoc: https://twitter.com/SaschaWillems2/status/752918136953896964 :)
Wollte mir gestern eigentlich mal das MRT Setup von DOOM ansehen, aber mit Renderdoc hängts nach dem ersten Loadingscreen.
fondness
2016-07-13, 12:39:24
Vermutlich ist das auch schlicht der glGetString(GL_VERSION) Text vom Treiber, der da angezeigt wird. Würde mich nicht wundern, wenn NVidia immer den 4.5 Context zurückliefert, egal was angefragt wird. NVidia ignoriert unter OpenGL ja auch die ein oder andere Spec...
Tja und auf Basis irgendwelcher OpenGL Nummern, glauben dann manche Leute beurteilen zu können, ob ein Treiber Mist ist oder nicht. Eigentlich meldet also Nvidia die falsche Version und AMD die korrekte.
Hübie
2016-07-13, 12:43:08
Du redest Blech. Eine GPU mit 4096 ALUs, mehr Bandbteite und mehr GFLOPs ist unter OGL langsamer. DANACH beurteile Leute nicht nach Versionsnummern. Ist doch wirklich nicht schwierig. :rolleyes:
Ganon
2016-07-13, 12:48:07
Es geht mehr darum, dass Leute glauben, dass DOOM einen speziellen "NVidia-Pfad" hat, weil sie dort OpenGL 4.5 angezeigt bekommen und bei AMD 4.3 und "nur darum" halt die AMD-Karten langsamer sind.
Aber naja, dass AMDs OpenGL Treiber lahm sind ist ja nichts neues. Aber das NVidia nicht Spec-konform arbeitet und diverse Checks einfach knallhart ignoriert ist auch nichts neues.
illidan
2016-07-13, 12:50:09
Merkwürdigerweise ist es nur die Presse wo AMDs Karten so derbe gewinnen.
Was ist denn das für ein FUD-Geschmiere?
Du bist ja soo neutral und gar nicht grün...
Troyan
2016-07-13, 12:50:13
Ohne Async Compute ist Fury X kaum besser als GM200: http://www.purepc.pl/karty_graficzne/doom_z_api_vulkan_wybuchowy_test_wydajnosci_kart_graficznych?page=0,7
Pascal kann vom Vergleich ausgenommen werden, da id eine Engine programmiert hat, die auf Pascal nicht skaliert. Traurig, dass man in zwei Monaten nicht mal irgendwas für nVidia-User gemacht hat.
Hübie
2016-07-13, 12:50:23
Es geht mehr darum, dass Leute glauben, dass DOOM einen speziellen "NVidia-Pfad" hat, weil sie dort OpenGL 4.5 angezeigt bekommen und bei AMD 4.3 und "nur darum" halt die AMD-Karten langsamer sind.
Aber naja, dass AMDs OpenGL Treiber lahm sind ist ja nichts neues. Aber das NVidia nicht Spec-konform arbeitet und diverse Checks einfach knallhart ignoriert ist auch nichts neues.
Quark. Wer denkt das? Auf NV werden vielleicht einige Extensions genutzt die AMD (treiberbedingt?) nicht anbietet. Das glauben einige Leute.
Was ist denn das für ein FUD-Geschmiere?
Du bist ja soo neutral und gar nicht grün...
M4xw0lf hats verstanden; du nicht. :rolleyes: Und bevor du mir nicht deine Märchengeschichte von D3D12 und SGSSAA per Treiber zu Ende erzählst bist du für mich eh in jeglicher Diskussion ein Platzhalter. Also was soll dein Beitrag hier? Pack endlich deine Würfel ein.
Ganon
2016-07-13, 12:52:49
Quark. Wer denkt das? Auf NV werden vielleicht einige Extensions genutzt die AMD nicht anbietet. Das glauben einige Leute.
Guck dir einfach den Tweet + Antworten von Axel Gneiting, der oben verlinkt ist, an.
Vulkan nimmt zum Glück den ganzen riesengroßen implementierungsspezifischen Kram raus.
Hübie
2016-07-13, 12:56:46
Hab ich gelesen. Da lese ich aber nicht heraus, dass man keine 4.4 oder 4.5 Extensions benutzt. :confused: Erinnert mich gerade an Skyrim. Da wird D3D9 initialisiert, aber man benutzt partiell einiges von D3D10. Wie so etwas funktioniert weiß ich nicht. Berufe mich da auf ein Interview mit Todd (glaub ich).
Ohne Async Compute ist Fury X kaum besser als GM200: http://www.purepc.pl/karty_graficzne/doom_z_api_vulkan_wybuchowy_test_wydajnosci_kart_graficznych?page=0,7
Pascal kann vom Vergleich ausgenommen werden, da id eine Engine programmiert hat, die auf Pascal nicht skaliert. Traurig, dass man in zwei Monaten nicht mal irgendwas für nVidia-User gemacht hat.
Wieso bencht man ohne TSAA? Das ist bei mir schneller als SMAA...
Digidi
2016-07-13, 12:58:38
Hmm ok, das war mir noch gar nicht aufgefallen...
:facepalm: :facepalm:
Vielen Dank fuer den unsinnigsten Beitrag des Jahres. Habe mich herzlich amuesiert.
Schon mal einen Blick in die Mitglieder der Arbeitsgruppe geworfen?
Kurze Sortierung fuer dich nach Anzahl der Mitglieder:
15 Intel
13 NVIDIA
12 Samsung Electronics
11 LunarG
10 Google
8 Qualcomm Technologies, Inc.
8 Imagination Technologies
7 AMD
6 ARM
4 Valve
4 Codeplay Software Ltd.
3 Oculus VR
3 Mediatek
3 Epic Games
2 Unity
2 Red Hat
2 Independent
2 Freescale
2 Broadcom
1 Vivante
1 Transgaming
1 The Brenwill Workshop
1 Sony Mobile
1 Pixar
1 Oxide Games
1 Mobica
1 Lucasfilm
1 Kyungpook National University
1 KDAB
1 Core Avionics & Industrial Inc.
1 Continental Corporation
1 Canonical
1 Blizzard Entertainment
Wo hast du denn die Info mit den Mitgliedern her?
Blediator16
2016-07-13, 13:04:27
Ohne Async Compute ist Fury X kaum besser als GM200: http://www.purepc.pl/karty_graficzne/doom_z_api_vulkan_wybuchowy_test_wydajnosci_kart_graficznych?page=0,7
Pascal kann vom Vergleich ausgenommen werden, da id eine Engine programmiert hat, die auf Pascal nicht skaliert. Traurig, dass man in zwei Monaten nicht mal irgendwas für nVidia-User gemacht hat.
purepc :freak:#
Und komm schon sag das, was du in anderen englisch sprachigen Foren bereits gesagt hast. ID hat sich an AMD verkauft und alles ist total unfair...;D
illidan
2016-07-13, 13:06:53
M4xw0lf hats verstanden; du nicht.
Klar, weil man bei FUD ja auch so eindeutig verstanden werden will. :freak:
FUD ist auch, dass du einfach mal so ohne Argumente die Werte NV vs. AMD anzweifelst. Ob das wohl daran liegen könnte, dass NV nun so mies dasteht? :eek:
Gorkon
2016-07-13, 13:10:13
Ohne Async Compute ist Fury X kaum besser als GM200: http://www.purepc.pl/karty_graficzne/doom_z_api_vulkan_wybuchowy_test_wydajnosci_kart_graficznych?page=0,7
Pascal kann vom Vergleich ausgenommen werden, da id eine Engine programmiert hat, die auf Pascal nicht skaliert. Traurig, dass man in zwei Monaten nicht mal irgendwas für nVidia-User gemacht hat.
Man kanns auch so formulieren: Fiji Salvage ist ohne Async auch nicht schlechter als GP104-Salvage bei gleichem Preis. Wo nix zu holen ist...
Btw. Extra auf nen Cherrypick-Test ohne AC gewartet? ;D
Achill
2016-07-13, 13:16:47
Es geht mehr darum, dass Leute glauben, dass DOOM einen speziellen "NVidia-Pfad" hat, weil sie dort OpenGL 4.5 angezeigt bekommen und bei AMD 4.3 und "nur darum" halt die AMD-Karten langsamer sind.
Aber naja, dass AMDs OpenGL Treiber lahm sind ist ja nichts neues. Aber das NVidia nicht Spec-konform arbeitet und diverse Checks einfach knallhart ignoriert ist auch nichts neues.
Ich habe bei mir unter Settings in Doom 'OpenGL 4.5' oder so ähnlich zu stehen. Ich mach ein Screen wenn ich heute Abend zu hause bin ... evtl. hab ich gar keine 390x :eek:
Ohne Async Compute ist Fury X kaum besser als GM200: http://www.purepc.pl/karty_graficzne/doom_z_api_vulkan_wybuchowy_test_wydajnosci_kart_graficznych?page=0,7
Pascal kann vom Vergleich ausgenommen werden, da id eine Engine programmiert hat, die auf Pascal nicht skaliert. Traurig, dass man in zwei Monaten nicht mal irgendwas für nVidia-User gemacht hat.
:comfort:
Wo hast du denn die Info mit den Mitgliedern her?
https://www.khronos.org/registry/vulkan/specs/1.0/xhtml/vkspec.html#credits
Hübie
2016-07-13, 13:17:30
Klar, weil man bei FUD ja auch so eindeutig verstanden werden will. :freak:
FUD ist auch, dass du einfach mal so ohne Argumente die Werte NV vs. AMD anzweifelst.
Ohne Argumente? Siehst du meine Bilder nicht? :rolleyes: Oh man ist ja echt anstrengend mit dir zu kommunizieren. Ich glaub ich lass das. Schau dir noch mal in Ruhe meine ganzen Graphen an. Vielleicht fällt dir was auf.
Ob das wohl daran liegen könnte, dass NV nun so mies dasteht? :eek:
NV steht doch nicht mies da. Was redest du für Unsinn? Nur weil deine 390 kein 4k @Nightmare packt oder was? (So könnte ich jetzt gegen argumentieren, wenn ich das Niveau senken möchte)
illidan
2016-07-13, 13:21:04
Was für Graphen?
Und natürlich steht Nvidia mies da, wenn eine 390X fast 980 Ti Performance erreichen dürfte, wtf. :freak:
Hübie
2016-07-13, 13:36:53
Was für Graphen?
Und natürlich steht Nvidia mies da, wenn eine 390X fast 980 Ti Performance erreichen dürfte, wtf. :freak:
Ich fasse es nicht. EOD, echt jetzt.
Stebs
2016-07-13, 13:39:27
@Vulkan:
Wer sehen will wie Doom was rendert: Es gibt bald ein Update für RenderDoc: https://twitter.com/SaschaWillems2/status/752918136953896964 :)
Wollte mir gestern eigentlich mal das MRT Setup von DOOM ansehen, aber mit Renderdoc hängts nach dem ersten Loadingscreen.
[Reposte mal meinen eigenen Post]:
@SaschaW:
Wie werden denn AMDs Shader Intrinsics in deiner Vulkan Datenbank genannt? Ist das die VK_AMD_gcn_shader Extension?
Und Frame Flip Optimizations? - (Und wie schaut es da mit Unterstützung bei Nvidia aus...)
SaschaW
2016-07-13, 13:47:45
VK_AMD_shader_ballot, VK_AMD_shader_trinary_minmax und VK_AMD_shader_explicit_vertex_parameter auf API-Seite.
VK_AMD_gcn_shader ist die Extension für SPIR-V
Details siehe http://gpuopen.com/gcn-shader-extensions-for-direct3d-and-vulkan/
FFO ist afaik implizit und müsste auf der Swap Chain passieren (da ja von Haus aus schon verschiedene Modi kennt). Da gibt es dann keine Extension für. Aber das müsste jemand von AMD beantworten.
Stebs
2016-07-13, 14:12:41
Details siehe http://gpuopen.com/gcn-shader-extensions-for-direct3d-and-vulkan/Dankeschön!, ist schon zu lange her dass ich die Seite gelesen hatte.
FFO ist afaik implizit und müsste auf der Swap Chain passieren. Da gibt es dann keine Extension für. Aber das müsste jemand von AMD beantworten.Wobei Swap chain in Vulkan ja tatsächlich eine Extension ist (VK_KHR_swapchain), warum das so ist, hab ich auf die kürze hier (https://software.intel.com/en-us/articles/api-without-secrets-introduction-to-vulkan-part-2#_Toc445674462) gefunden.
Also ist wohl davon auszugehen, dass FFO nicht AMD-exklusiv ist.
SaschaW
2016-07-13, 14:16:38
Wobei Swap chain in Vulkan ja tatsächlich eine Extension ist (VK_KHR_swapchain), warum das so ist, hab ich auf die kürze hier (https://software.intel.com/en-us/articles/api-without-secrets-introduction-to-vulkan-part-2#_Toc445674462) gefunden.
Ja, die Erklärung von Intel simmt. Vulkan kann auch headless, d.h. eine Bildschirmausgabe anhand von z.B. einer Swapchain ist kein Muss. Dadurch kann man dann auch im Compute-Umfeld Anwendungen schreiben die nur rechnen. Momentan noch nicht ganz so interessant weil GLSL, aber auf zukünftige Sicht betrachtet (möglicherweise OpenCL->SPIR-V Interop) eine Weise Entscheidung die Präsentation zu entkoppeln.
Also ist wohl davon auszugehen, dass FFO nicht AMD-exklusiv ist.
Denke ich auch. Es gibt zwar kaum Infos zu FFO (bzw. hab ich auf die Schnelle nix gefunden), aber die Beschreibung klingt nach etwas dass eh fast alle IHVs machen.
Stebs
2016-07-13, 14:32:25
VK_AMD_shader_ballot, VK_AMD_shader_trinary_minmax und VK_AMD_shader_explicit_vertex_parameter auf API-Seite.
Für OpenGL gibt es übrigens GL_ARB_SHADER_BALLOT, unterstützt von AMD und Nvidia.
GL_AMD_SHADER_TRINARY_MINMAX gibt es bis jetzt nur für AMD, und was entsprechendes für VK_AMD_shader_explicit_vertex_parameter hab ich nicht gefunden.
(Um die Datenbank einmal sinnvoll zu nutzen :wink: )
570rm
2016-07-13, 14:37:25
Da stimmt eh hinten und vorne einiges nicht...
http://i.imgur.com/lPfVz20.jpg Vulkan http://i.imgur.com/heNPv5d.jpg OGL
http://i.imgur.com/yz2vpM6.jpg Vulkan http://i.imgur.com/O9CByDQ.jpg OGL
http://i.imgur.com/6FieHTJ.jpg Vulkan http://i.imgur.com/1g0LaFe.jpg OGL
Kann doch nicht sein, dass ich an den Stellen, an denen ich wenig Frames habe, mit Vulkan noch weniger habe und an denen mit vielen Frames noch mehr ;D
dargo
2016-07-13, 14:42:57
Damit meine ich auch nicht nur Doom (wo eine AMD Karte nur OGL 4.3 nutzt).
Hmm... :uponder:
http://www2.pic-upload.de/thumb/31194042/DOOMx64_2016_07_13_14_39_29_830.jpg (http://www.pic-upload.de/view-31194042/DOOMx64_2016_07_13_14_39_29_830.jpg.html)
SaschaW
2016-07-13, 14:45:50
und was entsprechendes für VK_AMD_shader_explicit_vertex_parameter hab ich nicht gefunden.
(Um die Datenbank einmal sinnvoll zu nutzen :wink: )
VK_AMD_shader_explicit_vertex_paramter entspricht unter OpenGL GL_AMD_shader_explicit_vertex_parameter (https://www.opengl.org/registry/specs/AMD/shader_explicit_vertex_parameter.txt). Beides sind Shader-Extensions (also für SPIR-V bzw. GLSL). Die OpenGL Variante ist noch im Status "Pending", also noch nicht fertig. Deshalb gibts da auch noch keinen Treiber der das unterstützt.
Wer sich im Detail für die einzelnen Intrinsics bzw. SPIR-V Extensions interessiert: https://www.khronos.org/registry/spir-v/extensions/AMD/
dildo4u
2016-07-13, 15:18:28
Hmm... :uponder:
http://www2.pic-upload.de/thumb/31194042/DOOMx64_2016_07_13_14_39_29_830.jpg (http://www.pic-upload.de/view-31194042/DOOMx64_2016_07_13_14_39_29_830.jpg.html)
Das Grafik Menü wird sich nicht an die verbaute Karte anpassen.
Argo Zero
2016-07-13, 15:20:11
In der Beta lief es mit 4.5.
Wurde das mit dem letzten Patch wieder eingeführt?
Hübie
2016-07-13, 15:23:06
Hmm... :uponder:
http://www2.pic-upload.de/thumb/31194042/DOOMx64_2016_07_13_14_39_29_830.jpg (http://www.pic-upload.de/view-31194042/DOOMx64_2016_07_13_14_39_29_830.jpg.html)
Guck mal auf die Anzeige links rechts X-D Sorry. Da steht bei AMD immer 4.3. Warum auch immer. Ich vermute ja nur, dass man hier nicht alle Extensions anbietet. Ich sage ja nicht dass es so ist. *hust*
Linmoum
2016-07-13, 15:23:13
In der Beta lief es mit 4.5.
Wurde das mit dem letzten Patch wieder eingeführt?
Es läuft schon seit Release auf AMD-Karten mit 4.3.
dargo
2016-07-13, 15:26:55
Guck mal auf die Anzeige links. Da steht bei AMD immer 4.3. Warum auch immer. Ich vermute ja nur, dass man hier nicht alle Extensions anbietet. Ich sage ja nicht dass es so ist. *hust*
Du meinst rechts. :D
Ja... natürlich sehe ich dort V4.3, bei der API im Grafikmenü steht halt V4.5. Etwas verwirrend das Ganze. Mir ist die Versionnummer aber auch völlig latte. Vulkan for the Win. ;)
SaschaW
2016-07-13, 15:27:48
Nur mal so am Rande: Über die OpenGL Versionsnummer lassen sich kaum Rückschlüße über die verwendeten Features ziehen, also kann man sich die Versionsvergleiche eigentlich sparen. Interessant wäre in dem Zusammenhang eine Liste der wirklich genutzten Extensions. Ich gehe davon aus dass man ganz viel in Richtung DSA und AZDO verwendet, also auf NV z.B. GL_NV_command_list. Grade mit letzterer Extension wäre man auf NV unter OpenGL schon recht nahe an Vulkan.
M4xw0lf
2016-07-13, 15:31:01
Ein id-Mensch hat doch verlauten lassen dass bei beiden IHVs OGL 4.3 die Basis ist, und dann diverse extensions dazu kommen.
€ also was SaschaW sagt, mehr oder weniger.
Hübie
2016-07-13, 15:31:36
Das können wir wohl weniger beurteilen als du :D Da streite ich mich nicht. Es fiel mir nur auf, dass wenn die Performance unter OGL halt so schlecht ist man laienhaft nach Erklärungen sucht. Aber dargo hats schon ganz gut auf den Punkt gebracht: "Vulkan for the Win. ;)"
Screemer
2016-07-13, 15:46:37
Ein id-Mensch hat doch verlauten lassen dass bei beiden IHVs OGL 4.3 die Basis ist, und dann diverse extensions dazu kommen.
€ also was SaschaW sagt, mehr oder weniger.
der id-mensch ist im übrigen coda (https://twitter.com/axelgneiting/status/731573399172960256).
MikePayne
2016-07-13, 15:53:10
OpenGL:
http://fs5.directupload.net/images/160713/757ku2hj.jpg
Vulkan:
http://fs5.directupload.net/images/160713/ts2uybyb.jpg
20 fps mehr (VSR: 1440p / alles auf max) :D
M4xw0lf
2016-07-13, 15:59:01
der id-mensch ist im übrigen coda (https://twitter.com/axelgneiting/status/731573399172960256).
War mir nicht mehr sicher ob er oder Tiago Sousa. ;)
Kartenlehrling
2016-07-13, 16:02:38
Die Russen haben seltsamerweise mit SMAA gemessen,
wo Asynchronous Compute ja nicht greift.
http://gamegpu.com/action-/-fps-/-tps/doom-api-vulkan-test-gpu
N0Thing
2016-07-13, 16:06:40
Coda wird bei der Siggraph über die Erfahrungen mit Vulkan sprechen. :)
https://twitter.com/idSoftwareTiago/status/752593060555403265
dargo
2016-07-13, 16:30:47
Die Russen haben seltsamerweise mit SMAA gemessen,
wo Asynchronous Compute ja nicht greift.
http://gamegpu.com/action-/-fps-/-tps/doom-api-vulkan-test-gpu
Man achte mal auf Tahiti vs. Kepler. X-D Perf/W schlägt hier in ganz andere Dimensionen. Die R9 280X zersägt sogar die Titan und 780TI. Tonga XT schneidet imho etwas schwach ab.
Sunrise
2016-07-13, 17:44:57
Das sieht ziemlich schlecht für NV aus, und zwar quer durch die Bank.
VooDoo7mx
2016-07-13, 17:50:00
Man achte mal auf Tahiti vs. Kepler. X-D Perf/W schlägt hier in ganz andere Dimensionen. Die R9 280X zersägt sogar die Titan und 780TI. Tonga XT schneidet imho etwas schwach ab.
Und in 10258 anderen PC Spielen ist es umgedreht.
Ist dir vielleicht aufgefallen, dass bei den Kepler Karten im vergleich zu OGL, sogar die fps weniger werden bei Vulkan?
Ich vermute hier ein Treiberpoblem. Lassen wir einfach mal AMD Karten komplett außen vor. Dann kann sich die nVidia GTX960 sich bei min FPS vor die Titan schieben und das ist einfach unmöglich. Low Level hin oder her eine Titan kann nicht langsamer sein als eine GTX 960. Und das kann man ganz objektiv beurteilen ohne ein Fanboy von nVidia oder AMD zu sein.
Also feierst du jetzt so auf ein Treiber Problem bei Kepler Chips ab. :uclap:
Machst du das auch wenn ein neues AAA Game kommt, wo AMD erst mal wieder 25-50% hinter der erwarteten Leistung zurück liegt, bis mal 2 Monate später der passenden Treiber nachgeschoben wird? Dann ist es natürlich wieder die böse nVidia Gameworks Verschwörung. :rolleyes:
Und ich kann diese ganze Hysterie nicht verstehen hier. Ich finde es toll das Nutzer mit einer langsamen CPU oder allgmein langsamen System gute Zuwächse bekommen. Besonders für langsame Spielekonsolen ist das wichtig.
Wenn man jedoch mal wirkliche High End Systeme mit hohen Auflösungen nimmt, verpuffen doch diese ganzen großen Gewinne in der Bedeutungslosigkeit.
Ich bin ein Hardware Enthusiast mit einen übertakteten Hexa Core i7 auf 4,4GHz und spiele meine Games in UHD Auflösung. Da kommt doch kaum was rum. Also ganz ehrlich: Wayne?
http://gamegpu.com/images/stories/Test_GPU/Action/DOOM/test/vulkan/doom_2560_v.jpg
http://gamegpu.com/images/stories/Test_GPU/Action/DOOM/test/vulkan/doom_3840_v.jpg
Wenn ich mir die Grafiken anschaue, haben AMD Karten schon gute Zuwächse unter Vulkan. Sie kommen aber im Endeffekt da raus wo sie von vornherein sein sollten. Also eine Fury X erreicht unter UHD bei Vulkan eine stock GTX980Ti. Aber ob das jetzt der große Grund für Jubeltänze von AMD Fanboys ist, kann ich absolut nicht nachvollziehen. Wir sprechen hier immer noch von 4096 Shader vs 2816 und HBM vs GDDR5. Und trotzdem reicht es gerade mal für einen Gleichstand unter Vulkan. Wenn man noch dazu nimmt, das praktische alle Pertnerdesign der 980Ti noch deutlich häheren Takt haben, fährt man auch bei Vulkan bei Doom besser mit nVidia. Wie bei allen anderen Spielen auch. Was ist also jetzt so toll und neu?
Ich verstehe es nicht.
Loeschzwerg
2016-07-13, 17:54:23
Thema Leistungsaufnahme OGL vs VLK:
Bei mir (R9 Nano usw...) sind es bei der Anfangsszene knapp 60Watt mehr unter Vulkan.
OGL: ~235 Watt (301 Watt max.)
VLK: ~293 Watt (313 Watt max.)
Gesamtsystem.
Linmoum
2016-07-13, 17:58:56
Wenn ich mir die Grafiken anschaue, haben AMD Karten schon gute Zuwächse unter Vulkan. Sie kommen aber im Endeffekt da raus wo sie von vornherein sein sollten. Also eine Fury X erreicht unter UHD bei Vulkan eine stock GTX980Ti. Aber ob das jetzt der große Grund für Jubeltänze von AMD Fanboys ist, kann ich absolut nicht nachvollziehen. Wir sprechen hier immer noch von 4096 Shader vs 2816 und HBM vs GDDR5. Und trotzdem reicht es gerade mal für einen Gleichstand unter Vulkan. Wenn man noch dazu nimmt, das praktische alle Pertnerdesign der 980Ti noch deutlich häheren Takt haben, fährt man auch bei Vulkan bei Doom besser mit nVidia. Wie bei allen anderen Spielen auch. Was ist also jetzt so toll und neu?
Ich verstehe es nicht.
Dann schalt mal noch Async Compute dazu, das haben die Russen in ihrem Test nicht mit bei, da SMAA aktiviert.
dargo
2016-07-13, 18:00:41
Und in 10258 anderen PC Spielen ist es umgedreht.
Nein... echt? :eek:
Ist dir vielleicht aufgefallen, dass bei den Kepler Karten im vergleich zu OGL sogar die fps weniegr sind bei Vulkan?
Ich vermute hier ein Treiebrpoblem.
Das Thema fallender Support bei älteren NV GPUs ist bekannt... ja.
Also feierst du jetzt so auf ein Treiber Problem bei Kepler Chips ab. :uclap:
Machst du das auch wenn ein neues AAA Game kommt, wo AMD erst mal wieder 25-50% hinter der erwarteten Leistung zurück liegt, bis AMD erst mal 2 Monate später nen passenden Treiber nachgeschoben hat? Dann ist es natürlich wieder die böse nVidia Gameworks Verschwörung. :rolleyes:
Gameworks ist mit LL quasi tot.
Und ich kann diese ganze Histerie nicht verstehen hier. Ich finde es toll das Nutzer mit einer langsamen CPU oder allgmein langsamen System gute Zuwächse bekommen. Besonders für langsame SPielekonsolen ist das wichtig.
Wenn man jedoch mal witrkliche High End Systeme nimmt mit hohen Auflösungen, verpuffen doch diese ganzen großen Gewinne in der Bedeutungslosigkeit.
Ich bin ein Hardware Enthusiast mit einen übertakteten Hexa Core i7 auf 4,4GHz und spiele meine Games in UHD Auflösung. Da kommt doch kaum was rum. Also ganz ehrlich: Wayne?
Ja... wir vergessen jetzt mal ganz schnell die RX480 Präsentation wo die Aufschlüsselung kam wieviel $ über 80% der PC-Spieler max. in eine Grafikkarte investieren, bei der CPU wird es nicht viel anders aussehen. Am PC gibt es nur 1000+ € Systeme. :rolleyes:
Loeschzwerg
2016-07-13, 18:03:42
Gameworks ist mit LL quasi tot.
:confused::confused::confused:
Troyan
2016-07-13, 18:09:08
Thema Leistungsaufnahme OGL vs VLK:
Bei mir (R9 Nano usw...) sind es bei der Anfangsszene knapp 60Watt mehr unter Vulkan.
OGL: ~235 Watt (301 Watt max.)
VLK: ~293 Watt (313 Watt max.)
Gesamtsystem.
Hast du Rise of the Tomb Raider? Könntext du kurz vergleichen, was dort im Benchmark mit DX12 als Gesamtverbrauch rauskommt?
Loeschzwerg
2016-07-13, 18:10:35
Besitze ich leider nicht. Auch kein Hitman oder Quantum Break.
dargo
2016-07-13, 18:12:39
Thema Leistungsaufnahme OGL vs VLK:
Bei mir (R9 Nano usw...) sind es bei der Anfangsszene knapp 60Watt mehr unter Vulkan.
OGL: ~235 Watt (301 Watt max.)
VLK: ~293 Watt (313 Watt max.)
Gesamtsystem.
Vorsicht beim Gesamtsystem. Unter OpenGL hatte sich deine CPU sicherlich ganz schön gelangweilt. ;)
Screemer
2016-07-13, 18:14:53
Thema Leistungsaufnahme OGL vs VLK:
Bei mir (R9 Nano usw...) sind es bei der Anfangsszene knapp 60Watt mehr unter Vulkan.
OGL: ~235 Watt (301 Watt max.)
VLK: ~293 Watt (313 Watt max.)
Gesamtsystem.
da passt der tweet auch super:
Playing @DOOM for an hour w/ my Fury, 1920x1200 max settings w/ @VulkanAPI getting 150-200FPS. No dropped frames. GPU running HOT!
Troyan
2016-07-13, 18:19:09
Besitze ich leider nicht. Auch kein Hitman oder Quantum Break.
3DMark Firestrike? Der Stresstest ist anspruchsvoll für die GPU.
just4FunTA
2016-07-13, 18:19:49
ist doch klar das der Verbrauch steigt wenn die GPU besser ausgelastet wird (am Limit läuft).
Loeschzwerg
2016-07-13, 18:30:17
Vorsicht beim Gesamtsystem. Unter OpenGL hatte sich deine CPU sicherlich ganz schön gelangweilt. ;)
Die CPU spielt sicher mit rein, aber man hört auch deutlich dass der Nano Lüfter mehr verarbeiten muss. Eine Detailmessung wäre schön.
dargo
2016-07-13, 18:34:39
ist doch klar das der Verbrauch steigt wenn die GPU besser ausgelastet wird (am Limit läuft).
Es ist überhaupt nichts klar. Wie oft muss ich sagen, dass mein Grenada den gleichen Takt beim gleichen PT wie in anderen DX11 Games verwendet? Das selbe hatte auch schon illidan beobachtet. Mag sein, dass es bei Fury da etwas anders aussieht. Sie legt auch stärker unter Vulkan zu.
Die CPU spielt sicher mit rein, aber man hört auch deutlich dass der Nano Lüfter mehr verarbeiten muss. Eine Detailmessung wäre schön.
Auch hier Vorsicht. Stärker ausgelastete CPU = höhere Temps. Steigt die Gehäusetemp. muss der Grakalüfter auch mehr ackern. Wie gesagt... bei mir ändert sich bei der Graka nichts. Aber wie du schon sagst... eine Detailmessung bei Fury wäre aufschlussreich.
Disco_STFU
2016-07-13, 18:38:26
kann weg...
fondness
2016-07-13, 18:38:37
Ich verstehe es nicht.
Du willst es nicht verstehen. Deshalb verlinkst du auch den Test ohne AsyncCompute, der für NV noch am besten aussieht.
Loeschzwerg
2016-07-13, 18:54:31
Auch hier Vorsicht. Stärker ausgelastete CPU = höhere Temps. Steigt die Gehäusetemp. muss der Grakalüfter auch mehr ackern. Wie gesagt... bei mir ändert sich bei der Graka nichts. Aber wie du schon sagst... eine Detailmessung bei Fury wäre aufschlussreich.
Nö, CPU AiO Wakü mit Kühler außerhalb des Gehäuses ;)
Funktioniert der RTSS unter Vulkan?
just4FunTA
2016-07-13, 18:57:31
Es ist überhaupt nichts klar. Wie oft muss ich sagen, dass mein Grenada den gleichen Takt beim gleichen PT wie in anderen DX11 Games verwendet? Das selbe hatte auch schon illidan beobachtet. Mag sein, dass es bei Fury da etwas anders aussieht. Sie legt auch stärker unter Vulkan zu.
Auch hier Vorsicht. Stärker ausgelastete CPU = höhere Temps. Steigt die Gehäusetemp. muss der Grakalüfter auch mehr ackern. Wie gesagt... bei mir ändert sich bei der Graka nichts. Aber wie du schon sagst... eine Detailmessung bei Fury wäre aufschlussreich.
nichts für ungut aber da verlasse ich mich lieber auf löschzwergs gemessene Ergebnisse, als auf deine Tipps Vorsicht hier Vorsicht da. ;)
Troyan
2016-07-13, 18:57:59
Mit Pascal und Afterburner funktionieren die Systemsettings - also GPU-Load und Power-load. Kein Overlay, aber der Service funktioniert.
Loeschzwerg
2016-07-13, 19:01:10
Ja, meinte das Overlay. Gut, aber ich lasse mal dei CPU Last mitprotokollieren, dann sieht man was Sache ist.
Firestrike (Extreme, Ultra???) Gesamtleistungsaufnahme kann ich mir mal anschauen, aber was bringen uns diese Werte?
Edit: CPU Auslastung knapp ~8% höher unter Vulkan; GPU Takt bei VLK zwischen 960-980 MHz unter OGL sind es immer 1000MHz (-60mV, +15%, HBM @ 545MHz). GPU Auslastung unter VLK durchgehend 100%, bei OGL gibt es vereinzelt Drops.
@Igor/Raff und Co: Wäre super wenn ihr bei Zeiten mal die Leistungsaufnahme vermessen könntet :)
Gimmick
2016-07-13, 19:21:28
Was ist also jetzt so toll und neu?
Ich verstehe es nicht.
Geradezu perfekte CPU-Auslastung, in einigen Konstellationen gigantischen FPS-Zuwachs.. aber was ist daran jetzt toll? Hm. :freak:
just4FunTA
2016-07-13, 19:40:28
verstehe ich auch nicht mehr FPS wer will das schon, das ist doch bloß mehr Arbeit für das Gehirn während es früher nur 30 Bilder pro Sekunde verarbeiten musste muß es plötzlich 60 Bilder pro Sekunde verarbeiten das ist doch glatt doppelt so anstrengend. :D
dargo
2016-07-13, 19:46:23
Ich muss dabei sofort an die cinematischen 24fps denken. ;D
Es ist schon echt bei manchen lustig wenn nicht sogar beängstigend. Bei Treiberoptimierungen wo ein Spiel 5-15% zulegt wird gefeiert. Und wenn eine hardwarenähere API massive Zuwächse (auch bei NV) je nach Szene und Hardwarekonstellation verzeichnet ist es "wayne". :crazy:
just4FunTA
2016-07-13, 19:51:38
Ich muss dabei sofort an die cinematischen 24fps denken. ;D
Es ist schon echt bei manchen lustig wenn nicht sogar beängstigend. Bei Treiberoptimierungen wo ein Spiel 5-15% zulegt wird gefeiert. Und wenn eine hardwarenähere API massive Zuwächse (auch bei NV) je nach Szene und Hardwarekonstellation verzeichnet ist es "wayne". :crazy:
so ein bisschen verstehen kann ich es ja schon, mir geht es ja auch teilweise so hab nen i5@4.4Ghz und ne gtx1080 und spiele in 1440p und dort bringt es absolut nichts und wenn ich ehrlich bin was juckt es mich ob es in 720p von mir aus 100fps mehr bringt was habe ich davon? Genau nichts.
Aber allgemein muß man es schon anerkennen was vulkan bringt auch wenn es mir selbst rein garnichts bringt.
Troyan
2016-07-13, 19:58:05
Firestrike (Extreme, Ultra???) Gesamtleistungsaufnahme kann ich mir mal anschauen, aber was bringen uns diese Werte?
Anhaltspunkt. Extreme reicht aus. Einfach den Stresstest eine Minute zum Einheizen laufen lassen.
Wäre klasse, vielen Dank!
dargo
2016-07-13, 20:00:16
so ein bisschen verstehen kann ich es ja schon, mir geht es ja auch teilweise so hab nen i5@4.4Ghz und ne gtx1080 und spiele in 1440p und dort bringt es absolut nichts und wenn ich ehrlich bin was juckt es mich ob es in 720p von mir aus 100fps mehr bringt was habe ich davon? Genau nichts.
Tja... es gibt zwei Sichtweisen dabei. Du hast zuviel Kohle in den Prozessor reingesteckt. Oder freue dich einfach, dass dein i5 noch einige Jahre länger ausreichende fps dank LL liefern wird.
Loeschzwerg
2016-07-13, 20:07:37
Anhaltspunkt. Extreme reicht aus. Einfach den Stresstest eine Minute zum Einheizen laufen lassen.
Wäre klasse, vielen Dank!
Nach einer Aufwärmphase (Pinkelpause :D)
~279 Watt (+/- 5 Watt; Max waren 286 Watt)
just4FunTA
2016-07-13, 20:10:02
Tja... es gibt zwei Sichtweisen dabei. Du hast zuviel Kohle in den Prozessor reingesteckt. Oder freue dich einfach, dass dein i5 noch einige Jahre länger ausreichende fps dank LL liefern wird.
ist doch Quatsch das Ding hat vor Jahren gerade mal ~200€ gekostet.. und die bisherigen Spiele kriegen ja kein Vulkan/DX12 Support also war das bitter nötig.
Troyan
2016-07-13, 20:19:07
Nach einer Aufwärmphase (Pinkelpause :D)
~279 Watt (+/- 5 Watt; Max waren 286 Watt)
~10W weniger als in Doom.
Meine GTX1080:
Vulkan:
36% Auslastung - 102FPS - 181W
OpenGL:
31% Auslastung - 96FPS - 174W
Firestrike Stresstest:
201W
20W mehr im Firestrike. Deckt sich auch mit der Poweranzeige meiner GPU:
58%-62% stehen 47-48% gegenüber.
dargo
2016-07-13, 20:21:30
ist doch Quatsch das Ding hat vor Jahren gerade mal ~200€ gekostet.. und die bisherigen Spiele kriegen ja kein Vulkan/DX12 Support also war das bitter nötig.
Jetzt stelle dir mal vor es wären für gleiche fps dank LL nur 100€ nötig gewesen. Klar wäre das nur realisierbar wenn wir low level schon paar Jahre breitflächig über viele Spiele auf dem Markt hätten. Mit deinem Kaufverhalten im Bereich der GPU hast du allerdings nicht gerade was dazu beigetragen. ;)
PS: ich bin übrigens auch nicht gerade stolz darauf jahrelang Intel-CPUs gekauft zu haben. Sollte Zen überzeugen bin ich ganz schnell weg von Intel wenn P/L stimmt. The Next Level... Zen mit 8C/16T. =)
Aus Neugier habe ich meine CPU auf 1 Ghz untertaktet. 70% bringt es mit meiner GTX 970 im CPU Limit.
i7-6700k @ 1,0 Ghz
GTX 970
OpenGL= 53-54 fps
Vulkan= 91 fps +70%
dargo
2016-07-13, 20:26:15
Es ist sehr szenenabhängig. Hier wurden mit einer NV-Graka schon +151% gemessen.
tjo, wir kommen nun, mehr als ein Jahrzehnt nach dem ersten Dualcore (von AMD natürlich), langsam, gaaanz langsam in eine Zeit, wo die Kerne tatsächlich auch breitflächig genutzt werden.;)
Disco_STFU
2016-07-13, 20:53:17
so ein bisschen verstehen kann ich es ja schon, mir geht es ja auch teilweise so hab nen i5@4.4Ghz und ne gtx1080 und spiele in 1440p und dort bringt es absolut nichts und wenn ich ehrlich bin was juckt es mich ob es in 720p von mir aus 100fps mehr bringt was habe ich davon? Genau nichts.
Aber allgemein muß man es schon anerkennen was vulkan bringt auch wenn es mir selbst rein garnichts bringt.
Mein FX 6300 freut sich. Beste 90€ Investition! :tongue: :D
dargo
2016-07-13, 20:53:18
Mal was anderes... wie sieht es eigentlich kurzfristig bei den üblichen Tools wie Afterburner, Fraps, DxTory etc. aus? Irgendwie kommt das alles nicht hinterher was die neue API angeht. Finde ich etwas schade.
MikePayne
2016-07-13, 20:59:23
Mein FX 6300 freut sich. Beste 90€ Investition! :tongue: :D
Mein oller FX-8320 (2013 gekauft) freut sich auch über Vulkan :D
VooDoo7mx
2016-07-13, 21:05:54
Mein oller FX-8320 (2013 gekauft) freut sich auch über Vulkan :D
Meinen Core i7-5820K auf 4,4GHz (2015 gekauft) juckt das nicht die Bohne.
MikePayne
2016-07-13, 21:14:27
Meinen Core i7-5820K auf 4,4GHz (2015 gekauft) juckt das nicht die Bohne.
Der hat auch ein anderes Preislevel gehabt ;)
dargo
2016-07-13, 21:21:46
Meinen Core i7-5820K auf 4,4GHz (2015 gekauft) juckt das nicht die Bohne.
Es wird ihn später jucken wenn die lahme 980TI durch was Anständiges mit Faktor 2-3 ersetzt wird. ;) In kommenden Open-World Spielen schon früher.
just4FunTA
2016-07-13, 21:29:15
Es wird ihn später jucken wenn die lahme 980TI durch was Anständiges mit Faktor 2-3 ersetzt wird. ;) In kommenden Open-World Spielen schon früher.Faktor 2x bis 3x? Also frühstens in ~4 Jahren? Oder wann soll ne Graka kommen mit der 2 bis 3 fachen Leistung?
StefanV
2016-07-13, 22:19:53
Meinen Core i7-5820K auf 4,4GHz (2015 gekauft) juckt das nicht die Bohne.
Nicht jeder hat 500€ für Board + CPU bzw möchte es dafür ausgeben...
Aber das macht ja auch die nVidia Fans so 'Symphatisch'...
Rincewind
2016-07-13, 23:23:08
Nicht jeder hat 500€ für Board + CPU bzw möchte es dafür ausgeben...
Aber das macht ja auch die nVidia Fans so 'Symphatisch'...
sogar sehr...
DanMan
2016-07-13, 23:37:39
Meinen Core i7-5820K auf 4,4GHz (2015 gekauft) juckt das nicht die Bohne.
Was für eine überflüssige Poser-Bemerkung.
Langenscheiss
2016-07-13, 23:44:10
Bestreitet ja keiner, dass Doom + AMD + Vulkan ein echter Mehrwert gegenüber OGL ist, aber wie viele relevante Spielen werden denn mit Vulkan kommen, und wieviele davon werden einen Renderer bekommen, der dann auch davon profitiert? (Man bedenke, dass bei id z.B. mit Tiago Sousa und unserem lieben Coda zwei absolute Grafikenthusiasten, die sich bei Crytek auch einen Namen gemacht haben, gewerkelt haben (und noch werkeln)).
Ich würde es ja echt begrüßen, wenn Vulkan sich mehr verbreiten würde, denn Dx12 + Windows 10 Gängelung (+MS Software, welche sämtliche Performance Zuwächse durch irgendwelche hirnverbrannte Ideen zunichte macht, wie bei Quantum Break) ist bei mir ein absolutes Killkriterium für aktuelle Spiele.
Aber in der Realität kommen nun mal die meisten Games immer noch mit Dx11/12 raus, und für diese APIs haben AMD Karten oft entweder (anfänglich) schlechte Treiber oder eine nicht gut funktionierende Architektur, was dann dazu führt, dass die theoretisch erreichbaren Werte eben nicht erreicht werden. Ich gönne es den roten ja echt, dass sie bei Doom tatsächlich einen Vorteil haben, aber bis LL wirklich relevant wird (lese: bis es mehr Spiele als nur Doom gibt), werden auch die grünen ihre Karten/Treiber auf LL optimiert haben, und erst dann wird der Vergleich wirklich interessant.
Hübie
2016-07-13, 23:46:39
Ich bin mir auch sicher, dass wenn NV da keinen Riegel vorgeschoben hat, die bereits an Problemlösungen arbeiten, so es denn welche gibt. Kann ja schlicht sein, dass man nicht mehr herausholen kann.
Jeder GM200-Besitzer kann sich nach wie vor zurücklehnen.
Troyan
2016-07-13, 23:55:51
Ich bin mir auch sicher, dass wenn NV da keinen Riegel vorgeschoben hat, die bereits an Problemlösungen arbeiten, so es denn welche gibt. Kann ja schlicht sein, dass man nicht mehr herausholen kann.
Jeder GM200-Besitzer kann sich nach wie vor zurücklehnen.
Ich denke nicht, dass es viel zu holen gibt bei Maxwell. Liegt an der Konsolenengine, die viel zu viel last auf das Backend legt:
http://www.eurogamer.net/articles/digitalfoundry-2016-doom-vulkan-patch-shows-game-changing-performance-gains
Bei Pascal kann bis zu 25% drin sein durch Async Compute. Sieht man auch am Stromverbrauch und der fehlenden Skalierung gegenüber Maxwell. Die Hardware wird einfach nicht ausgelastet. Aber zeigt dann auch wieder, mit einer bessere Programmierung würde noch mehr Leistung möglich sein.
Ganon
2016-07-14, 00:14:13
Aber in der Realität kommen nun mal die meisten Games immer noch mit Dx11/12 raus
Naja, so viele "nicht-MS" DX12 Spiele, ohne geplantes Vulkan-Backend, sind es nun auch nicht.
Es wäre aber mal interessant wie schnell (und kompatibel) ein DX12->Vulkan Wrapper in WINE wäre.
Digidi
2016-07-14, 01:11:52
Ich denke nicht, dass es viel zu holen gibt bei Maxwell. Liegt an der Konsolenengine, die viel zu viel last auf das Backend legt:
http://www.eurogamer.net/articles/digitalfoundry-2016-doom-vulkan-patch-shows-game-changing-performance-gains
Bei Pascal kann bis zu 25% drin sein durch Async Compute. Sieht man auch am Stromverbrauch und der fehlenden Skalierung gegenüber Maxwell. Die Hardware wird einfach nicht ausgelastet. Aber zeigt dann auch wieder, mit einer bessere Programmierung würde noch mehr Leistung möglich sein.
Ich weis nicht wie du das da raus liest! Aber die Performancegewinne hängen nicht von Async Compute ab sondern von der CPU Limitierung.
Nochmal unter Vulan und DX12 werde zwei Totpunkte beseitigt:
1.) Überlastung der CPU durch unnötige Aufgaben
2.) Besser Auslastung der GPU durch Async Compute
Bei der GTX 1080 trift nur Fall Nr. 1 ein nicht Fall Nr. 2
Ex3cut3r
2016-07-14, 04:02:03
Bei der GTX 1080 trift nur Fall Nr. 1 ein nicht Fall Nr. 2
Und woher kommst du zu dieser Annahme? Hast du es selbst getestet oder was?
Screemer
2016-07-14, 06:42:41
Wobei ich auch nicht den aktuellsten nVidia Treiber installiert hab, In den Release Notes stand aber nix zu Doom mit Vulkan. Vielleicht teste ich das nochmal.
Please use 368.69 on NVIDIA with Vulkan. Lots of bugfixes.
Hauptsache erst mal die Keule auspacken. Der Rest von deinem Post ist einfach nur die pure Überheblichkeit. Unglaublich.
Nightspider
2016-07-14, 08:53:22
Gehts nur mir so oder ist der Thread voll von inkonsistenter Meinungen? :freak:
Ich bin mir auch sicher, dass wenn NV da keinen Riegel vorgeschoben hat, die bereits an Problemlösungen arbeiten, so es denn welche gibt. Kann ja schlicht sein, dass man nicht mehr herausholen kann.
Jeder GM200-Besitzer kann sich nach wie vor zurücklehnen.
Sicher? Das klang vorgestern aber noch ganz anders bei dir.
https://abload.de/img/hbies8j6q.jpg
dildo4u
2016-07-14, 08:55:10
Sry, wenn ich es irgendwo im Thread verpasst habe, aber gibt es da eine Art Liste oder sowas, welche Titel/ Studios Vulkan Support zumindest andenken?
Games
The Talos Principle – The first game with Vulkan rendering support.
Doom – Vulkan support released in July 2016.
Dota 2 – Vulkan support released in May 2016.
Game engines
id Tech 6 - On May 7, 2016, id announced Doom, running the id Tech 6 engine, would support Vulkan.
Unreal Engine 4 – On February 21, 2016, Epic Games announced Unreal Engine 4 support for Vulkan at Samsung's Galaxy S7 Unpacked event.
Source 2 – On March 3, 2015, Valve announced the Source 2 engine, the successor engine to the original Source, would support Vulkan.
Serious Engine 4 – On February 4, 2016, Croteam announced that they were supporting Vulkan in their Serious Engine.
https://en.wikipedia.org/wiki/Vulkan_(API)
mkh79
2016-07-14, 11:36:12
Vielen Dank. :smile:
Bleibt also erstmal überschaubar, es sei denn die UE4 wird oft lizensiert und die Studios nutzen das.
SaschaW
2016-07-14, 11:49:01
Die Liste ist leider nicht komplett, zumindest Unity fehlt. Auf der SIGGRAPH wird es in Richtung Vulkan vermutlich noch ein paar Ankündigungen geben.
DanMan
2016-07-14, 11:51:56
Da fehlt noch Unity in der Liste: http://blogs.unity3d.com/2016/05/19/make-your-daydreams-a-reality/. Außerdem Android.
Ich denke, dass wir in naher Zukunft erst mal nur von einigen AAA-Studios Vulkan (oder DX12) Spiele sehen werden. Man muss da schon wirklich Ahnung von GPUs und so haben um sich nicht selber ins Bein zu schießen, und es am Ende nich schlimmer zu machen, als es mit einer High-Level API gewesen wäre.
Digidi
2016-07-14, 12:17:23
Und woher kommst du zu dieser Annahme? Hast du es selbst getestet oder was?
Die Entwickler von ID haben doch gesagt das Async Compute bei Doom noch deaktiviert ist und das man eher nicht mit Leistungssprüngen bei Nvidia rechnen sollte wenn es aktiviert ist.
Da muss man halt bis in die Zukunft warten.
Was aber komplett misstrauisch macht, ist das die Entwickler bei Nvidia schon seit 1 Jahr am Async Treiber für Maxwell arbeiten!
Hübie
2016-07-14, 12:32:16
Gehts nur mir so oder ist der Thread voll von inkonsistenter Meinungen? :freak:
Sicher? Das klang vorgestern aber noch ganz anders bei dir.
https://abload.de/img/hbies8j6q.jpg
Hast PN! Lass es einfach sein. :rolleyes:
@Digidi: Afaik ist das doch "freigeschaltet". Bei Maxwell wird es halt nur mittels eines (teuren) context switch auf SM-Ebene oder gar GPC-Ebene ausgeführt (weiß ich gerade nicht mehr genau). Also nicht so wirklich asynchron und auch nicht so wirklich granular. Das merkt man halt an der Performance. Im beyond3d gibt es einen Benchmark zu AsyncCompute. Der läuft hier auch deutlich besser durch als damals mit den alten Treibern.
AotS hab ich leider nicht um es mal nachzumessen.
Digidi
2016-07-14, 12:40:13
Hast PN! Lass es einfach sein. :rolleyes:
@Digidi: Afaik ist das doch "freigeschaltet". Bei Maxwell wird es halt nur mittels eines (teuren) context switch auf SM-Ebene oder gar GPC-Ebene ausgeführt (weiß ich gerade nicht mehr genau). Also nicht so wirklich asynchron und auch nicht so wirklich granular. Das merkt man halt an der Performance. Im beyond3d gibt es einen Benchmark zu AsyncCompute. Der läuft hier auch deutlich besser durch als damals mit den alten Treibern.
AotS hab ich leider nicht um es mal nachzumessen.
Hier das es bei Doom noch deaktiviert ist:
https://community.bethesda.net/thread/54585?start=0&tstart=0
Does DOOM support asynchronous compute when running on the Vulkan API?
Asynchronous compute is a feature that provides additional performance gains on top of the baseline id Tech 6 Vulkan feature set.
Currently asynchronous compute is only supported on AMD GPUs and requires DOOM Vulkan supported drivers to run. We are working with NVIDIA to enable asynchronous compute in Vulkan on NVIDIA GPUs. We hope to have an update soon.
Click here for additional information on asynchronous compute.
Hübie
2016-07-14, 12:41:23
Vielleicht weil die Performance dann zu sehr weg bricht, wer weiß? Ich weiß leider nicht wie man eine gezielte query auf AC macht, sonst hätte ich es direkt mal getestet. Der Treiber macht es jedenfalls, soviel kann ich dir sagen.
Sicher? Das klang vorgestern aber noch ganz anders bei dir.
Was soll das Bild? Voellig ueberfluessig. Die Zitierfunktion ist dir doch bekannt oder?
Die Liste ist leider nicht komplett, zumindest Unity fehlt. Auf der SIGGRAPH wird es in Richtung Vulkan vermutlich noch ein paar Ankündigungen geben.
Schoen :up: wird aber auch Zeit.
Bei Unity und Unreal scheint da aber leider vor allem der mobile Markt im Fokus zu stehen. Unreal macht auch noch viel in Richtung DX12. Verschwendete Ressourcen :rolleyes:
Geld besitzen != Intelligenz
Gratulation zum schäbigsten Beitrag seit Jahren (gemeldet)
Wirklich unfassbar. Zu Enthusiasmus gehoert schon ein bisschen mehr als den moeglichst groessten Geldbatzen wegzuschmeissen und auch noch in Foren damit rumzuprahlen ;D
Zumal jeder, der ein regelmaessiges Einkommen hat, sich die Hardware leisten kann. :rolleyes:
Es wäre aber mal interessant wie schnell (und kompatibel) ein DX12->Vulkan Wrapper in WINE wäre.
Wuerde mich auch interessieren, wobei die Geschwindigkeit eher das kleinere Problem waere, denke ich. Interessanter wird, ob auch alle Funktionen irgendwie abgebildet werden koennen.
danarcho
2016-07-14, 12:48:38
Weiß jemand, wie weit die ganze SPIR-V Geschichte schon gediehen ist?
Wird das schon aktiv als IR beim Vulkan-Treiber eingesetzt?
Leider ist das ja praktisch alles noch closed-source und bei Intel kann ich (so auf einen Blick) nur die Verwendung von NIR erkennen.
https://cgit.freedesktop.org/mesa/mesa/tree/src/intel/vulkan
Bitte korrigieren, wenn ich was übersehe.
Interessant wäre es schon, wenn man shader und kernel von anderen Sprachen nach SPIR-V compiled. Auch bräuchte ein OpenCL->SPIR-V compiler nur einmal plattform-unabhängig existieren und die Treiber übersetzen nur noch von der IR.
@SaschaW
Weißt du, was bei den älteren Intel-GPUs fehlt für Vulkan-Support? Sind die nicht auch schon lange Turing-complete und dürften daher (theoretisch) alles emulieren können? Am Ende ist es vielleicht nur Intel's Interesse, was fehlt.
SaschaW
2016-07-14, 12:50:08
Vielleicht weil die Performance dann zu sehr weg bricht, wer weiß? Ich weiß leider nicht wie man eine gezielte query auf AC macht, sonst hätte ich es direkt mal getestet. Der Treiber macht es jedenfalls, soviel kann ich dir sagen.
AC muss man in Vulkan explizt implementieren. D.h. man hat neben der Graphics Queue auch noch eine separate Compute Queue (die aber durchaus aus der selben Queue Familiy stammen kann). Die kann man dann "zeitgleich" starten und muss diese entsprechend synchronisieren. Also z.B. für GPU Partikel so dass die Vertex Stage der Graphics Queue erst auf die Daten der Compute Queue zugreift wenn diese die Partikel aktualisiert hat. Oder im Falle von Post Processing muss der Zugriff im Fragment Shader der Graphics Queue darauf warten dass der Compute Shader fertig mit der Bildausgabe ist. Mit Vulkan hat man hier sehr explizite Kontrolle, muss dafür aber auch entsprechend synchronisieren um nicht bestimmte Teile der Pipeline zu blockieren. Das schicke daran dass das so explizit ist: Man kann das bis runter auf die Pipeline Stages runter steuern. Also z.B. schon ein weiteres async compute starten während die Graphics Queue schon mit dem Vertex Processing fertig ist dass die Daten des letzten Compute durchlaufs verwendet hat (sry für das Denglisch xD).
@SaschaW
Weißt du, was bei den älteren Intel-GPUs fehlt für Vulkan-Support? Sind die nicht auch schon lange Turing-complete und dürften daher (theoretisch) alles emulieren können? Am Ende ist es vielleicht nur Intel's Interesse, was fehlt.
Genau das. Unter Windows totale Katastrophe was die Treiber und den Support angeht. Unter Linux hab ichs mit Mesa sogar auf nem Ivy Bridge laufen. Geht zwar nicht alles, aber Compute Kram, MRT, etc. klappen wunderbar. Da fehlts bei Intel an Interesse. Als wir das Khronos Meeting im April aufgesetzt haben waren ja von drei IHVs Leute da, aber Intel hat sich nicht gemeldet.
Ganon
2016-07-14, 13:01:32
Genau das. Unter Windows totale Katastrophe was die Treiber und den Support angeht. Unter Linux hab ichs mit Mesa sogar auf nem Ivy Bridge laufen. Geht zwar nicht alles, aber Compute Kram, MRT, etc. klappen wunderbar. Da fehlts bei Intel an Interesse. Als wir das Khronos Meeting im April aufgesetzt haben waren ja von drei IHVs Leute da, aber Intel hat sich nicht gemeldet.
Also unter Haswell mit Kernel 4.6, und Mesa 12.0.1 läuft nichts von deinen Demos :D
Aber Kernel 4.7 soll da ja was bringen... mal warten.
http://www.phoronix.com/scan.php?page=news_item&px=Linux-4.7-i915-DRM-Next
SaschaW
2016-07-14, 13:06:28
Also unter Haswell mit Kernel 4.6, und Mesa 12.0.1 läuft nichts von deinen Demos :D
Das betrifft aber vermutlich nicht nur meine Demos. Zumindest lt. Issue Tracker.
Hübie
2016-07-14, 13:06:55
AC muss man in Vulkan explizt implementieren. D.h. man hat neben der Graphics Queue auch noch eine separate Compute Queue (die aber durchaus aus der selben Queue Familiy stammen kann). Die kann man dann "zeitgleich" starten und muss diese entsprechend synchronisieren. Also z.B. für GPU Partikel so dass die Vertex Stage der Graphics Queue erst auf die Daten der Compute Queue zugreift wenn diese die Partikel aktualisiert hat. Oder im Falle von Post Processing muss der Zugriff im Fragment Shader der Graphics Queue darauf warten dass der Compute Shader fertig mit der Bildausgabe ist. Mit Vulkan hat man hier sehr explizite Kontrolle, muss dafür aber auch entsprechend synchronisieren um nicht bestimmte Teile der Pipeline zu blockieren. Das schicke daran dass das so explizit ist: Man kann das bis runter auf die Pipeline Stages runter steuern. Also z.B. schon ein weiteres async compute starten während die Graphics Queue schon mit dem Vertex Processing fertig ist dass die Daten des letzten Compute durchlaufs verwendet hat (sry für das Denglisch xD
Kein Problem. Wir reden ja alle irgendwie Denglisch :D Das sind alles Hintergrundinfos die ich selber gar nicht in Bezug auf Doom beantworten könnte, da ich weder weiß, was mit compute shader läuft, noch wie weit man da mit der Implementierung auf NVIDIAs Hardware ist. Wahrscheinlich wird es mit AMD einfacher gehen (und perfromanter).
@Digidi: Ich habe mal eben einen Graphen vom Bench erstellt. Da sieht man dass es eigentlich Schrott ist:
https://abload.de/thumb/ac_auf_gm2008rz8m.jpg (http://abload.de/image.php?img=ac_auf_gm2008rz8m.jpg)
Ist DX12...
Ganon
2016-07-14, 13:11:39
Das betrifft aber vermutlich nicht nur meine Demos. Zumindest lt. Issue Tracker.
Ja, deine Demos crashen, vkcube rendert ein graues Fenster. Mal gucken was mit Kernel 4.7 ist.
StefanV
2016-07-14, 13:16:26
Was aber komplett misstrauisch macht, ist das die Entwickler bei Nvidia schon seit 1 Jahr am Async Treiber für Maxwell arbeiten!
Genau und an DX12 Treibern für Fermi ebenso, die ja auch auf Geforce.com als DX12 fähig bezeichnet werden...
Um es noch mal klar zu sagen:
Das schlimme an dieser Sache ist die Ankündigung von nVidia, dass sie DX12 Treiber für Fermi liefern, es aber dann doch nicht tun!
Wenn sie von Anfang an gesagt hätten: kein DX12 für Fermi, wäre alles in Butter...
danarcho
2016-07-14, 14:19:41
Genau das. Unter Windows totale Katastrophe was die Treiber und den Support angeht. Unter Linux hab ichs mit Mesa sogar auf nem Ivy Bridge laufen. Geht zwar nicht alles, aber Compute Kram, MRT, etc. klappen wunderbar. Da fehlts bei Intel an Interesse. Als wir das Khronos Meeting im April aufgesetzt haben waren ja von drei IHVs Leute da, aber Intel hat sich nicht gemeldet.
Ist das ein eigener Build oder wo finde ich den?
Bei Sandy wurde ja nicht einmal OpenCL eingebaut. Naja, falls ich diesen Sommer extreme Langeweile verspüren sollte von zu viel Urlaub und so :freak:, dann schau ich mir mal die Specs und die Driver Pipeline an.
SaschaW
2016-07-14, 14:37:46
Ich bin noch auf einer älteren Ubuntu-Version, deshalb baue ich den Treiber vom aktuellen Master immer selbst (siehe hier (https://gist.github.com/SaschaWillems/47be6970a3e99a3d30e1)).
Für neuere Versionen gibts afaik aber PPAs.
Stebs
2016-07-14, 16:18:16
https://en.wikipedia.org/wiki/Vulkan_(API)
Games
The Talos Principle – The first game with Vulkan rendering support.
Doom – Vulkan support released in July 2016.
Dota 2 – Vulkan support released in May 2016.
Game engines
id Tech 6 - On May 7, 2016, id announced Doom, running the id Tech 6 engine, would support Vulkan.
Unreal Engine 4 – On February 21, 2016, Epic Games announced Unreal Engine 4 support for Vulkan at Samsung's Galaxy S7 Unpacked event.
Source 2 – On March 3, 2015, Valve announced the Source 2 engine, the successor engine to the original Source, would support Vulkan.
Serious Engine 4 – On February 4, 2016, Croteam announced that they were supporting Vulkan in their Serious Engine.
Da sollten noch dazukommen an Games:
ARK: Survival Evolved
Ashes of the Singularity
Serious Sam 3
Serious Sam 4
Star Citizen
Hitman (2016) ? - afair zumindest Andeutungen in die Richtung
Natürlich alles nicht in Stein gemeißelt.
Bei den Engines:
Frostbite 3.0 Engine / DICE/EA
Nitrous Engine / Oxide
Unity3D / Unity Technologies - Offiziell noch "Investigations & design work", zumindest für Mobile aber relativ sicher - mehr Infos wohl auf der SIGGRAPH
Lucasfilm
Cryengine / Crytek - Wobei es evtl. "wackelig" ist, wie es überhaupt mit Crytek weitergeht
Blizzard Entertainment Game Engine / Blizzard
Galcier 2 Engine / IO Interactive ? - Da gab es afair zumindest Andeutungen in die Richtung, also evtl. recht unsicher.
Müsste mir in Zukunft auch mal notieren was wann genau gesagt wurde...
Nightspider
2016-07-14, 16:35:11
Hat nicht neulich einer einen Twitter-Post verlinkt indem inoffiziell Vulkan für BF1 bestätigt wurde?
Screemer
2016-07-14, 17:16:15
Dice meinte es wird sowohl als auch eingebaut, intern getestet, was für gut befunden wird behalten und evtl kommt beides.
Disco_STFU
2016-07-14, 17:58:15
Dice meinte es wird sowohl als auch eingebaut, intern getestet, was für gut befunden wird behalten und evtl kommt beides.
Das war allerdings 2015... bis jetzt gibts dazu keinerlei Aussagen mehr. Kann man da eventuell was aus der Beta filtern?
dildo4u
2016-07-14, 20:03:09
Das war allerdings 2015... bis jetzt gibts dazu keinerlei Aussagen mehr. Kann man da eventuell was aus der Beta filtern?
Ja DX12 steht in den Optionen geht aber vermutlich noch nicht.
https://youtu.be/0p_t4xBbEyg
Frank1974
2016-07-14, 20:41:12
Sorry hier stand Blödsinn von mir, kann gelöscht werden.
danarcho
2016-07-14, 21:44:58
Naja, das Einzige, das ich aus dem Post herauslese, ist, dass du mal siehst wie scheiße das ist, wenn nur für einen Hersteller optimiert wird.
Ich bin sicher, einige Leute hier können dir eine ganze Palette an (aktuellen) Gegenbeispielen bringen (CD Project *hust*).
Um Nvidia brauchst du dir bei den 2-3 AMD-optimierten Spielen keine Sorge machen.
Die haben sich eine wahnsinnig starke Marke aufgebaut, Geld wie Heu, extreme Margen, und aktuell auch die bessere Effizienz.
Ein AMD Monopol wird es in den nächsten ~5 Jahren sicher nicht geben, vielleicht rückt sich aber wieder ein bisschen was gerade, wobei ich nur sehr verhalten optimistisch bin. Nvidia hat einen ursprünglich sehr geringen Vorteil gut genutzt.
Eigentlich wäre es gut, wenn der LL Kram Nvidia zu etwas mehr Offenheit zwingt. Intrinsics bilden nämlich ziemlich exakt die Hardware-Instructions ab. Sie sperren sich halt selbst dagegen, dass gut auf ihre Hardware optimiert wird. Man, für GCN gibt es sogar Assembler, wenn mans richtig dirty machen möchte.
mkh79
2016-07-15, 07:30:51
Ich werde mich ab dem nächsten Post sofort professionell verhalten und nur noch objektiv posten, wenn ich denn mal wieder posten sollte, dieser ganze Hass in den Foren gefällt mir nämlich nicht, also bis dann.
mfg
Frank
Oh AMD hat es vorraus gesagt...
Vulkan ist von AMD entwickelt worden, erst unter dem Namen Mantle und dann in Vulkan übergegangen, wer für mich jetzt klar betrügt ist AMD, nix gebacken bekommen unter DX11 oder OpenGL sind sogar zwei Schnittstellen, wo sie versagt haben, aber immer Lügen gegen Nvidia verbreiten, AMD hat sich selbst ausgebremst in DX11, da musste Nvidia gar nichts machen.
AMD entwickelt etwas worauf Nvidia dann genauso schnell läuft, glaubst du an den Weihnachtsmann..., es ist eine große Sauerei was AMD jetzt hier abzieht, Vulkan ist nur auf AMD Architektur optimiert, Nvidia muss dafür eine ganz neue Architektur entwerfen, das kann man nicht mal eben in Maxwell oder Pascal integrieren, aber toll wie jeder AMD jetzt hier feiert...
Ich hoffe Nvidia entwickelt selbst eine API und wirft AMD dann endlich aus der Bahn, schade das Intel mit AMD nicht längst kurzen Prozess gemacht hat, aber vielleicht kommt das ja noch, dann brauch ich mir nicht mehr von den 20% AMD Usern(Extrem Fanboys) Unsinn anhören, wie gesagt denk darüber nach, Vulkan = AMD also kann Nvidia gar nicht gleich auf sein, alle DX Versionen waren vorher neutral auch OpenGL, aber AMD wusste nicht mehr weiter also nur der Weg über eine eigene Architektur und dann von Behinderung durch Nvidia reden was für ein hohn...
Mit nicht Freundlichem Gruss
Und das ist kein Hass? :confused:
Vulkan ist ja jetzt kein proprietäres Mittel, wie es z.B. das Gameworks-Zeugs ist oder PhysX war. Es mag seine Wurzeln in Teilen von Mantle haben, aber es ist nichts AMD exklusives. Beide IHVs profitieren davon, auf Grund der Situation im Moment halt AMD etwas mehr als nvidia. (Wobei nvidia da sicher noch die Treiber optimieren kann, um mehr rauszuholen.)
Und Vukan ist ja jetzt auch nicht alternativlos mit DX12. Im Gegenteil, durch MS und seiner Basis mit Win10 wird es DX12 leichter haben, die Schnittstelle für Spiele zu stellen.
Ich denke nicht, dass sich durch Vulkan/Async die Marktsituation von nvidia drastisch (wenn überhaupt) verändern wird.
Argo Zero
2016-07-15, 07:35:47
Mantle war mal AMD, Vulkan ist es nicht mehr.
Die Frage die sich mir stellt, auch im Hinblick auf Doom: Kann AMD mit OpenGL nicht so gut oder Nvidia mit Vulkan (Treiber). Der Performancesprung ist nämlich beachtlich.
DanMan
2016-07-15, 09:17:56
Mantle war mal AMD, Vulkan ist es nicht mehr.
Die Frage die sich mir stellt, auch im Hinblick auf Doom: Kann AMD mit OpenGL nicht so gut oder Nvidia mit Vulkan (Treiber). Der Performancesprung ist nämlich beachtlich.
Auch für dich nochmal: AMD profitiert mehr, weil sie unter OpenGL so grottig sind. Auch dort gibts Compute Shader, nur irgendwie bringt ihnen das erst unter Vulkan etwas.
Bl@de
2016-07-15, 09:33:36
Was mir bei den Benchmarks und Berichten in letzter Zeit zu denken gibt:
Während AMD große Sprünge macht unter DX12/Vulkan (weiß nicht ob es am besseren CPU/GPU Zusammenspiel liegt oder Asynchronous Compute), geht die Performance bei Nvidia sogar zurück. Als jemand der sich gerade Maxwell geholt hat, frage ich mich, ob es ein Fehler war. Kann Nvidia die DX12/Vulkan Performance für Maxwell per Treiber verbessern oder liegt es an der Hardware? Ich kenn mich bei den neuen APIs nicht wirklich aus und schaue mit Verwunderung auf die Entwicklung, bei der alte AMD Midrangekarten plötzlich schneller sind als die Titan :/
dildo4u
2016-07-15, 09:45:00
Kein Plan welche Benches zu meinst Doom unter Open GL läuft ok bis runter zu Kepler.
Das Problem mit Vulkan ist dort übernimmt der Entwickler die Optemierung und der wird sich nicht die Mühe machen,für 4 verschiedene GPU Generationen zu optemieren.(Kepler,Maxwell,Pascal und GCN)
Maxwell und Pascal sind relativ gleich bis auf den Asynchron Compute support die 7% Gewinn haste dann nicht,der Rest der Optermierungen für Pascal sollte auf Maxwell übertragbar sein.
EDIT:
Schätze mal du meinst das Kepler läuft unter Open GL deutlich schneller als unter Vulkan,da NV dort selber per Treiber optemieren kann.
Open GL 290= 780TI,Vulkan 780 Ti langsamer als AMD 370.
http://gamegpu.com/action-/-fps-/-tps/doom-api-vulkan-test-gpu
Ätznatron
2016-07-15, 09:48:49
Was mir bei den Benchmarks und Berichten in letzter Zeit zu denken gibt:
Während AMD große Sprünge macht unter DX12/Vulkan (weiß nicht ob es am besseren CPU/GPU Zusammenspiel liegt oder Asynchronous Compute), geht die Performance bei Nvidia sogar zurück. Als jemand der sich gerade Maxwell geholt hat, frage ich mich, ob es ein Fehler war. Kann Nvidia die DX12/Vulkan Performance für Maxwell per Treiber verbessern oder liegt es an der Hardware? Ich kenn mich bei den neuen APIs nicht wirklich aus und schaue mit Verwunderung auf die Entwicklung, bei der alte AMD Midrangekarten plötzlich schneller sind als die Titan :/
Was den Maxwell-Kauf angeht: Ja, das kann ein Fehler gewesen sein.
Wenn die Aktivierung von AC bei nVidias Maxwell-Karten tatsächlich nur eine Treibersache wäre, warum ist seit über einem Jahr nichts passiert? Fehlende Hardwarefähigkeiten können halt nicht herbeigezaubert werden.
BTW: AMDs große Sprünge mit DX12 und Vulkan erklären sich über deren relativ großes brachliegendes Potential unter DX11 und besonders OGL.
Die haben halt jetzt gut aufschließen können.
DarknessFalls
2016-07-15, 10:03:53
Ich finde es relativ amüsant, wie die grüne Fraktion hier darauf herumreitet, dass AMD nur mehr profitiert, weil der OGL-Support so miserabel ist. Selbst wenn dem so wäre, ist doch letztlich interessant, was am Ende dabei herauskommt:
Die AMD-Karten sind durch die Bank weg (deutlich) schneller als ihr jeweiliger nV-Konkurrent unter Vulkan. Wie viel da hinzugewonnen wurde, ist wumpe, das Resultat ist doch letztlich das Interessante, oder?
Mehrleistung für Lau. Ist doch bombe!
Bl@de
2016-07-15, 10:10:36
Kein Plan welche Benches zu meinst Doom unter Open GL läuft ok bis runter zu Kepler.
Das Problem mit Vulkan ist dort übernimmt der Entwickler die Optemierung und der wird sich nicht die Mühe machen,für 4 verschiedene GPU Generationen zu optemieren.(Kepler,Maxwell,Pascal und GCN)
Maxwell und Pascal sind relativ gleich bis auf den Asynchron Compute support die 7% Gewinn haste dann nicht,der Rest der Optermierungen für Pascal sollte auf Maxwell übertragbar sein.
EDIT:
Schätze mal du meinst das Kepler läuft unter Open GL deutlich schneller als unter Vulkan,da NV dort selber per Treiber optemieren kann.
Open GL 290= 780TI,Vulkan 780 Ti langsamer als AMD 370.
http://gamegpu.com/action-/-fps-/-tps/doom-api-vulkan-test-gpu
980 Ti: OpenGL = 141fps / Vulkan = 135fps (-4,3%)
1080: OpenGL = 165fps / Vulkan = 167fps (+1,2%)
Fury X: OpenGl = 101fps / Vulkan = 140fps (+38,6%)
Bei Maxwell sinkt in der Performance während die anderen Architekturen steigen (mehr oder weniger). Das meine ich^^
Ätznatron
2016-07-15, 10:13:30
Selbst wenn dem so wäre, ist doch letztlich interessant, was am Ende dabei herauskommt:...
Eben.
Und bisher kam halt eine vergleichweise schlimme Minderperformance bei der Verwendung von AMD-Karten und OGL heraus, was mich besonders interessiert, da ich hauptsächlich wegen des OGL-Flusis X-Plane eine hohe Performance in dem Bereich benötige.
X-Plane wird jetzt auf Vulkan-Unterstützung hin (um-) programmiert.
Mal schauen, ob dann wieder eine AMD-Karte in den Rechner wandert.
DanMan
2016-07-15, 10:38:55
Ich finde es relativ amüsant, wie die grüne Fraktion hier darauf herumreitet, dass AMD nur mehr profitiert, weil der OGL-Support so miserabel ist. Selbst wenn dem so wäre, ist doch letztlich interessant, was am Ende dabei herauskommt:
Die AMD-Karten sind durch die Bank weg (deutlich) schneller als ihr jeweiliger nV-Konkurrent unter Vulkan. Wie viel da hinzugewonnen wurde, ist wumpe, das Resultat ist doch letztlich das Interessante, oder?
Mehrleistung für Lau. Ist doch bombe!
Er hat gefragt, und ich habe geantwortet. Welchen anderen Schluss willst du denn aus den Benchmarks ziehen?
dargo
2016-07-15, 10:41:42
Was mir bei den Benchmarks und Berichten in letzter Zeit zu denken gibt:
Während AMD große Sprünge macht unter DX12/Vulkan (weiß nicht ob es am besseren CPU/GPU Zusammenspiel liegt oder Asynchronous Compute), geht die Performance bei Nvidia sogar zurück. Als jemand der sich gerade Maxwell geholt hat, frage ich mich, ob es ein Fehler war. Kann Nvidia die DX12/Vulkan Performance für Maxwell per Treiber verbessern oder liegt es an der Hardware? Ich kenn mich bei den neuen APIs nicht wirklich aus und schaue mit Verwunderung auf die Entwicklung, bei der alte AMD Midrangekarten plötzlich schneller sind als die Titan :/
Vereinfacht ausgedrückt.... AMD konnte unter einer High-Level-API (alles älter als DX12/Vulkan) nicht die volle Leistung aus GCN herausholen im Gegensatz zu Nvidia. Die GPU Designs unterscheiden sich mehr oder weniger stark. Hinzu kommen die aktuellen Konsolen. Was einer XB1/PS4 gut schmeckt (und das müssen Devs beachten um das letzte rauszuholen) wird keinen Desktop GCN ab Pitcairn aufwärts "erdrücken".
StefanV
2016-07-15, 10:53:10
Ich kann ganz freundlich sein, es sieht aber in letzter Zeit so aus als ob alle gegen Nvidia arbeiten und nur noch für AMD optimieren, man sieht es ja an Doom, oder das ganz schlimme Beispiel "AoS"(enger wie da kann ein Spielehersteller nicht mit einem GK Hersteller zusammen arbeiten), es ist voll auf AMD optimiert, aber bei Nvidia haben sie fast gar nix geleistet(sind sogar noch frech gegenüber Nvidia geworden), man sollte keinen Hersteller bevorzugen, man ist es den Kunden schuldig das beste aus beiden zu holen, und das scheint mir im Moment nicht mehr zu funktionieren, auch weil alle 3 Konsolen AMD verbaut haben, da ist es zwangsläufig das die faulen Hersteller nur auf AMD optimieren und es auf den PC portieren, aber Nvidia verdient die gleiche Arbeit auch, sieh haben auch Kunden die Geld bezahlen, und jetzt eine ernste Frage, wollen wir von einem Nvidia Monopol zu einem AMD Monopol?
mfg
Frank
Sorry, aber hier kann man nur sagen: Wer Wind sät, wird sturm ernten.
Und das passiert hier gerade mal.
nVidia ist ein ziemlich übler Verein, der sich gegenüber den Spieleherstellern richtig übel verhalten hat. Insbesondere deren Gameworks Versuche waren echt mies. Da gibt es sogar einige Dinge, die Huddy darüber gesagt hat.
Klar, wäre es schön, wenn man auf beide gleich gut optimieren würde, allerdings darfst du nicht vergessen, dass:
a) nVidia sich wie die Axt im Walde verhält und ein äußerst arroganter und überheblicher Haufen ist, insbesondere durch diesen Gameworks Mist und auch den ganzen eigenen Spielen haben sie doch recht gut bewiesen, wie toll es ist, mit denen zusammenzuarbeiten. Das beste Beispiel ist doch der neue Grab Räuber, der ja nur auf nVidias neusten Sprösslingen wirklich brauchbar lief. Dazu macht nVidia gerne auch irgendwelche völlig bescheuerten Dinge, nur weil sie bei 'den anderen' noch schlechter laufen als auf der eigenen Hardware (Hairworks mit Tesselation wäre so ein Beispiel)...
b) die Hardware, die nVidia verwendet, ist in der Basis 10 Jahre alt, immer wieder aufgehübscht worden und AMD verwendet eine eher junge Architektur, die mit Blick nach vorn entwickelt wurde. Da kann dann auch nicht ausgeschlossen werden, dass es schlicht an der Hardware liegt...
Das ganze kann man halt damit zusammenfassen, dass nVidia jetzt den Sturm erntet, für den sie selbst verantwortlich sind.
Die Leute haben alle keinen Bock mehr, mit nVidia zusammenzuarbeiten, eben weil nVidia gern das ganze Zeugs verdongeln würde, sei es mit dem PhysX Zeugs oder dem Gameworks Zeugs.
Und auch untersagen sie es in den Verträgen anscheinend, mit anderen Unternehmen ernsthaft zusammen zu arbeiten.
Wenn nVidia mit den ISVs netter umgegangen wäre und sie nicht so gegängelt hätten, könnte ich deinen Unmut verstehen.
Aber sie haben die ISVs quasi mit Füßen getreten und denen vorgeschrieben, was sie machen dürfen und mit wem sie reden dürfen...
Dazu kommt, dass Gameworks für einige Negative Schlagzeilen gesorgt hat, so dass die ISVs aufgehört haben, das zu nutzen.
Das dürfte durchaus Spuren hinterlassen und für einigen Unmut sorgen.
Aber hier sind wir wieder beim Thema, dass nVidia ihr Verhalten ändern muss, denn so wie sie bisher agieren, scheinen sie ja volle kanne auf 'ne Wand zu zu rasen...
Und soo schlecht schaut die Performance von AMD unter OGL ja nun auch wieder nicht aus:
https://www.computerbase.de/2016-07/doom-vulkan-benchmarks-amd-nvidia/
Klar, nVidia ist besser, aber hier reden wir nicht von Welten sondern 'nur' etwa 10%, die die GTX 970 flotter ist, unter OGL...
Bl@de
2016-07-15, 10:54:04
BTW: AMDs große Sprünge mit DX12 und Vulkan erklären sich über deren relativ großes brachliegendes Potential unter DX11 und besonders OGL.
Die haben halt jetzt gut aufschließen können.
Die AMD Performance kann ich mir erklären. Und mehr Konkurrenz finde ich nicht schlecht. Maxwell vs. Pascal Unterschiede interessieren mich mehr. Obwohl die Architekturen ähnlich sein sollen, gibt es zwischen den APIs einen 5% Performancezuwachs zu Gunsten von Pascal.
Iruwen
2016-07-15, 10:59:20
im wesentlichen durch die verbesserte Preemption (http://www.tomshardware.com/reviews/nvidia-geforce-gtx-1080-pascal,4572-3.html) oder?
Ätznatron
2016-07-15, 11:22:31
im wesentlichen durch die verbesserte Preemption (http://www.tomshardware.com/reviews/nvidia-geforce-gtx-1080-pascal,4572-3.html) oder?
Genau dadurch.
UnderTheRock
2016-07-15, 11:37:34
Mehrleistung für Lau. Ist doch bombe!
Wenn man damit leben kann, dass in 99% der Spiele (weil Direct <12) diese Mehrleistung brach liegt: Klar.
Außer man zockt exklusiv die handvoll Spiele, in denen AMD deutlich besser abschneidet, ist NVIDIA die bessere, weil rundere Wahl.
Ätznatron
2016-07-15, 11:42:19
Wenn man damit leben kann, dass in 99% der Spiele (weil Direct <12) diese Mehrleistung brach liegt: Klar.
Außer man zockt exklusiv die handvoll Spiele, in denen AMD deutlich besser abschneidet, ist NVIDIA die bessere, weil rundere Wahl.
AMD optimiert kontinuierlich auch DX11-Treiber. Karten, die vor nicht allzu langer Zeit relativ deutlich in DX11-Spielen zurücklagen, können sich jetzt gut mit ihren damals überlegenen Konkurrenten messen.
Und wenn ich mir so anschaue, wie Kepler-Karten stetig zurückfallen, wäre ich sehr vorsichtig, da jetzt nVidia irgendeine längerfristige Überlegenheit zuzuschreiben.
Linmoum
2016-07-15, 11:48:12
Wenn man damit leben kann, dass in 99% der Spiele (weil Direct <12) diese Mehrleistung brach liegt: Klar.
Außer man zockt exklusiv die handvoll Spiele, in denen AMD deutlich besser abschneidet, ist NVIDIA die bessere, weil rundere Wahl.
Kommt auf die eigenen Prioritäten an.
Wenn du Leistungs sofort willst und brauchst, bist du aktuell mit Nvidia besser dran.
Wenn du allerdings weißt, dass du deine Karte nicht direkt im nächsten Jahr wieder austauschst, sondern sie 2-3 Jahre (oder womöglich sogar noch etwas mehr) ihren Dienst tun soll, ist ein Griff zu AMD die bessere Wahl.
Eigentlich reicht da aktuell schon ein Blick auf Maxwell, das ist traurig, was die Karten für ein Bild unter DX12 und jetzt auch Doom @Vulkan abgeben.
UnderTheRock
2016-07-15, 12:35:48
Man sollte nicht den Fehler machen, von den 2-3 AMD-optimierten Vulkan/DX12-Titeln plötzlich auf das Groß der Spiele zu schließen.
3DMark zeigt ja, wo die Reise dann in DX12 doch hingeht - die Hackordnung bleibt identisch, nur die Abstände variieren etwas. Das ist aber etwas völlig Normales.
Was ihr immer vergisst: Selbst angenommen die AMD-Karte ist in einem oder zwei Jahren wirklich unterm Strich schneller (was ja erstmal passieren muss!), muss man trotzdem erstmal mit der langsameren Karte leben.
Gern als Beispiel genannt: Der Käufer einer GTX980 zum Launch. Der ist immer noch schneller unterwegs als der Käufer einer RX480. Nutzt seine Karte aber schon fast zwei Jahre. Unterm Strich wird er damit billiger fahren, als der RX480-Käufer.
dargo
2016-07-15, 12:58:17
Man sollte nicht den Fehler machen, von den 2-3 AMD-optimierten Vulkan/DX12-Titeln plötzlich auf das Groß der Spiele zu schließen.
Ich zähle da schon mehr Spiele.
3DMark zeigt ja, wo die Reise dann in DX12 doch hingeht - die Hackordnung bleibt identisch, nur die Abstände variieren etwas. Das ist aber etwas völlig Normales.
Ist das dein Ernst? :D Wo kann man 3DMark spielen? Oder anders gefragt... welches Spiel verwendet die Engine vom 3DMark? Und kommt 3DMark auch für die Konsolen? X-D
Was ihr immer vergisst: Selbst angenommen die AMD-Karte ist in einem oder zwei Jahren wirklich unterm Strich schneller (was ja erstmal passieren muss!), muss man trotzdem erstmal mit der langsameren Karte leben.
Gern als Beispiel genannt: Der Käufer einer GTX980 zum Launch. Der ist immer noch schneller unterwegs als der Käufer einer RX480. Nutzt seine Karte aber schon fast zwei Jahre. Unterm Strich wird er damit billiger fahren, als der RX480-Käufer.
Oh man... wie oft denn noch? Wieviele DX12/Vulkanspiele hast du Ende 2014 denn gespielt?
Edit:
Du übersieht auch völlig, dass AMD bei Low-Level besonders im CPU-Limit am stärksten gegenüber Nvidia zulegt, nicht im GPU-Limit. Die Zugewinne im GPU-Limit sind ein netter Bonus wo es zu kleineren Verschiebungen in den jeweiligen Leistungsklassen kommt.
Nakai
2016-07-15, 13:24:43
AMDs Treiber brauchen eben deutlich mehr Overhead. Und wenn eine GPU in irgendein Limit hineinläuft, dann bringt AsyncC nur bedingt etwas, wenn ein anderer Kernel diesbezüglich auch limitiert ist.
danarcho
2016-07-15, 13:49:31
Das Problem mit Vulkan ist dort übernimmt der Entwickler die Optemierung und der wird sich nicht die Mühe machen,für 4 verschiedene GPU Generationen zu optemieren.(Kepler,Maxwell,Pascal und GCN)
*optimieren
Ist das so? Ich weiß, dass oft für jeden IHV ein eigener Code-zweig programmiert wird, aber ist das bei Vulkan wirklich notwendig? Ich meine, normalerweise gibt es einen generischen Zweig, der immer funktionieren sollte. Klar, wenn man Intrinsics verwendet, werden die nur auf der entsprechenden Hardware laufen, aber es wird ja auch möglich sein mit Vulkan generisch zu programmieren. Kann da jemand etwas zu sagen, inwiefern Vulkan den Programmierer zwingt, speziell angepasst für jede Hardware zu programmieren? Vor allem Intel dürfte dabei ja komplett hinten runterfallen...
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.