PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : DirectX 12 Grafik-API


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 [15] 16 17 18 19 20 21 22 23 24 25

Blediator16
2016-07-08, 13:26:32
Bin ich blind oder ist keinem aufgefallen dass Async hinzugefügt wurde?

[immy;11095288']wtf?

Warum nur für GCN 1.1+ GPUs?
Oder geht es darum das einfach mehr "asynchrone" aufgaben an die GPUs gleichzeitig übergeben werden.

Nicht nur das. Auch Kepler und Maxwell wurden "ausgelassen".

Naitsabes
2016-07-08, 13:28:21
GCN 1.0 hat doch nur FL11 und nicht 12.

][immy
2016-07-08, 13:29:35
GCN hat doch nur FL11 und nicht 12.
sag das den GPUs in der xbox und PS4, die das durchaus können.

iuno
2016-07-08, 13:32:03
Die meinen wohl 1.1+ und bei Gen 1 wird es schlicht nichts/zu wenig gebracht haben, genauso wie bei Kepler und Maxwell, wo es womoeglich sogar kontraproduktiv war. Daher laesst man die halt aus, ist doch kein Thema

Dass die min. FPS einfach mal um 100% steigen liegt aber sicher nicht an AC

Troyan
2016-07-08, 13:55:19
Ich finde mit meiner Pascal-Karte keinen zusätzlichen Compute-Workload, der gleichzeitig läuft. Habe das mit GPUView überprüft.

Der Async-Compute Eintrag in der Registry bringt mir zwar nachweislich ein FPS (:eek:), aber GPUView ändert sich nicht. Kein Vergleich z.B. zu Hitman.

tdon
2016-07-08, 14:27:18
http://www.neogaf.com/forum/showpost.php?p=209455224&postcount=3175

Das scheinen wirklich durchgaengig ueber 20% zu sein, bei den min. FPS nochmal deutlich mehr.

Nett dass sie puenktlich ein halbes Jahr nach Launch mal an der GCN Performance drehen, was ja von Beginn an angekuendigt wurde. oder sehen GeForces dieselben Steigerungen?


Hat der das mit dem gleichen Treiber getestet? Weil das alte Ergebnis ja vom März stammt.

illidan
2016-07-08, 14:41:58
Oder er hat sich einfach vertan und sein März-Screenshot ist mit DX11. Oder die neue TR-Version kann besser mit knappem VRAM umgehen.

Ich lads mal wieder...

Naitsabes
2016-07-08, 14:42:50
[immy;11095293']sag das den GPUs in der xbox und PS4, die das durchaus können.


Ich habe das GCN1.0 vergessen. Dass die auch ACEs etc. haben ist mir klar. Die Frage ist aber, ob die bei Tahiti und Cape Verde mit DX12 auch angesprochen werden können.

illidan
2016-07-08, 14:52:25
Natürlich, wurde längst durch Ashes belegt.

Naitsabes
2016-07-08, 14:56:21
Okay, dann ziehe ich meine Zweifel zurück :)

dargo
2016-07-08, 15:16:43
Neuer Tomb Raider Patch.


http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11095128&postcount=1077
Endlich kann ich das Game fuer Grenada kaufen, hat ja nur nen halbes Jahr gebraucht. :cool:

illidan
2016-07-08, 15:17:47
390, WQHD, max Details (SSAO):
DX11: 43,96fps
DX12: 41,73fps
:freak: ;D

Atma
2016-07-08, 15:23:19
390, WQHD, max Details (SSAO):
DX11: 43,96fps
DX12: 41,73fps
:freak: ;D
Beeindruckende Steigerung :D

Achill
2016-07-08, 15:23:45
Also die Min. FPS sind doch wirklich am Interessantesten. Durchgängig mehr als verdoppelt ist eine Ansage. Da fragt man sich, was CD/Nixxes da verbrochen haben.:confused:

Man musste erstmal die "Grünen" Dollars ausgeben ...

d2kx
2016-07-08, 15:28:20
390, WQHD, max Details (SSAO):
DX11: 43,96fps
DX12: 41,73fps
:freak: ;D

Ich vermute, dass die min FPS mit DX12 allerdings deutlich besser aussehen bei dir.

illidan
2016-07-08, 15:32:08
Gerade nochmal gestartet, jetzt liegt DX12 mit 2fps in Führung.
Hat sich aber auch vor dem Patch bei den realen fps im Spiel nicht viel genommen im GPU-Limit, jetzt ist das offenbar auch noch so. Also nicht besonders amazing für die Bewerbung mit Async Compute etc.
Die min-fps waren schon immer mit DX12 wesentlich besser und eigentlich ziemlich stabil.

BlacKi
2016-07-08, 15:44:48
bei solchen leistungssteigerungen sollte man mal LoD und texturen belegung betrachten. bringt der patch optische nachteile um nicht den vram zu überfüllen, dann wären die steigerungen ziemlich schnell geklärt.

illidan
2016-07-08, 15:45:23
Unwahrscheinlich, wenn genug vorhanden ist. Waren gerade 7,5GB belegt.

y33H@
2016-07-08, 15:57:04
Nixxes spricht von GCN v1.1 bzw GCN v2 aufwärts.

Async Compute bringt bei mir mit Hawaii nichts und mit Polaris 10 auch nichts ... dafür ist D3D12 im CPU-Limit (zB 720p) generell flotter als D3D11.

][immy
2016-07-08, 15:57:56
390, WQHD, max Details (SSAO):
DX11: 43,96fps
DX12: 41,73fps
:freak: ;D
naja, man kann bei der Implementierung von DX12 Features (oder auch Vulkan) mehr falsch machen als vorher
Wenn deine CPU aber vorher schon nicht komplett ausgelastet war, ändert sich durch diese Anpassung vermutlich auch nix. Da Tomb Raider aber auf der xbox one auch läuft, dürften die cpu-anforderungen eher moderat sein.

BlacKi
2016-07-08, 15:58:16
Unwahrscheinlich, wenn genug vorhanden ist. Waren gerade 7,5GB belegt.
ich meinte auch bei den karten die nur 4gb haben aka fury die 20% mehr leistung bringt?

Andron
2016-07-08, 17:16:09
390, WQHD, max Details (SSAO):
DX11: 43,96fps
DX12: 41,73fps
:freak: ;D

Kann ich nicht nachvollziehen:
390, WQHD, max Details (SSAO):
DX 11: 46,45 fps
DX 12: 49,16 fps

Verspätetes Pop-in unter DX12 bei der Geothermales Tal Szene ist auch gefixt.
Verwendeter Treiber ist der 16.7.1.+

edit: GPU/VRam läuft mit 1060/1650 Mhz.

y33H@
2016-07-08, 17:39:39
Was ein Sprung :ulol:

http://www.hardwareluxx.de/images/stories/newsbilder/tfreres/2016/DX12.PNG

http://www.hardwareluxx.de/index.php/news/software/spiele/39732-patch-fuer-rise-of-the-tomb-raider-verbessert-directx-12-leistung.html

M4xw0lf
2016-07-08, 17:46:10
Was ein Sprung :ulol:

http://www.hardwareluxx.de/images/stories/newsbilder/tfreres/2016/DX12.PNG

http://www.hardwareluxx.de/index.php/news/software/spiele/39732-patch-fuer-rise-of-the-tomb-raider-verbessert-directx-12-leistung.html
Wuhaaa, plus 200%!!!1

Balkenlänge

tdon
2016-07-08, 17:55:07
Bei fast der dreifachen Balkenlänge unglaubliche 5% Unterschied, hardwareluxx übertrifft sich wieder mal.

Butterfly
2016-07-08, 18:05:06
Was ein Sprung :ulol:

http://www.hardwareluxx.de/images/stories/newsbilder/tfreres/2016/DX12.PNG

http://www.hardwareluxx.de/index.php/news/software/spiele/39732-patch-fuer-rise-of-the-tomb-raider-verbessert-directx-12-leistung.html
Der Sprung deutet doch nur die Multi-GPU Support an der nun auch unter DX12 läuft.
Bisher ging CrossfireX (und SLI) nur mit der DX11 API bei Rise of the TombRaider.

Wie immer bei AMD, Benchmarks werden nicht Optimiert, nur inGame for the Players! :biggrin:

http://abload.de/img/rottr_2016_07_03_08_5czshl.jpg (Sys@stock)

iuno
2016-07-08, 18:09:29
Was ein Sprung :ulol:

http://www.hardwareluxx.de/images/stories/newsbilder/tfreres/2016/DX12.PNG

http://www.hardwareluxx.de/index.php/news/software/spiele/39732-patch-fuer-rise-of-the-tomb-raider-verbessert-directx-12-leistung.html


Sorry fuer OT, aber das ist zu gut.
Link anklicken, nach unten scrollen:
Alle Artikel rund um Rise of the Tomb Raider:

Rise of the Tomb Raider angespielt
Rise of the Tomb Raider im Technikcheck
Wer hat die Haare schöner? FressFX vs. PureHair vs. HairWorks
Rise of the Tomb Raider unter DirectX 12 und mit VXAO: AMD und NVIDIA verlieren Leistung

;D

illidan
2016-07-08, 19:23:45
FressFX, ein neuer Bloom-Shader für strahlend weiße Zähne?
Demnächst@gpuopen. :uhippie:

dargo
2016-07-08, 19:57:34
390, WQHD, max Details (SSAO):
DX11: 43,96fps
DX12: 41,73fps
:freak: ;D
Solange die Frametimes mit DX12 um Welten besser sind (ist zumindest mein letzter Stand) sind mir persoenlich die 2 Frames voellig latte, erst recht mit Freesync. Funzt denn Freesync unter DX12 endlich einwandfrei?

illidan
2016-07-08, 20:02:53
Hab kein FreeSync und die Frametimes waren von Anfang an sehr gut mit DX12.

Lurtz
2016-07-08, 21:04:32
Was ein Sprung :ulol:

http://www.hardwareluxx.de/images/stories/newsbilder/tfreres/2016/DX12.PNG

http://www.hardwareluxx.de/index.php/news/software/spiele/39732-patch-fuer-rise-of-the-tomb-raider-verbessert-directx-12-leistung.html
Manche Leute sollten einfach keine Diagramme erstellen dürfen.

dildo4u
2016-07-08, 21:22:26
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11095514&postcount=107

Er hat recht ordentliche Gewinne schätze mal Sandy Bridge hat leichte Probleme unter DX11.

Locuza
2016-07-09, 03:25:19
Bin ich blind oder ist keinem aufgefallen dass Async hinzugefügt wurde?

Da muss man sich echt den Kopf kratzen, da laut Blog-Eintrag Async Compute von Anfang an dabei war:
Another big feature, which we are also using on Xbox One, is asynchronous compute.
http://tombraider.tumblr.com/post/140859222830/dev-blog-bringing-directx-12-to-rise-of-the-tomb

Die Einstellung Async-Compute = true gab es von Anfang an, aber der Schalter hat keine Auswirkung, früher wie auch Heute?
http://steamcommunity.com/app/391220/discussions/0/405692758725104525/

Die meinen wohl 1.1+ und bei Gen 1 wird es schlicht nichts/zu wenig gebracht haben[...]
Bei Ashes hat Tahiti mehr profitiert als Tonga.

Achill
2016-07-09, 11:46:40
Ich habe CFX im Benchmark-Thread von RotTR (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11095985#post11095985) getestet, die Werte können sich sehen lassen.

DX12, CFX, Very High, 1920x1080: 126fps
DX12, CFX, Very High, 3360x2100: 61fps

-/\-CruNcher-/\-
2016-07-09, 17:18:47
Bei fast der dreifachen Balkenlänge unglaubliche 5% Unterschied, hardwareluxx übertrifft sich wieder mal.

Yeah der Redakteur (Autor) kann sich gleich bei Nvidia bewerben, was für ein "Balkentalent" ;)

Manche Leute sollten einfach keine Diagramme erstellen dürfen.

Du würdest dich wundern einige werden dafür sogar bezahlt genau das in dieser Art und Weise manipulativ zu tun :D
Andere wiederum machen es ohne zu wissen kostenlos ;)

Fliwatut
2016-07-09, 17:26:23
Ist wohl schon korrigiert: http://www.hardwareluxx.de/images/stories/newsbilder/tfreres/2016/DX12_neu.PNG

-/\-CruNcher-/\-
2016-07-09, 17:36:20
Da muss man sich echt den Kopf kratzen, da laut Blog-Eintrag Async Compute von Anfang an dabei war:

http://tombraider.tumblr.com/post/140859222830/dev-blog-bringing-directx-12-to-rise-of-the-tomb

Die Einstellung Async-Compute = true gab es von Anfang an, aber der Schalter hat keine Auswirkung, früher wie auch Heute?
http://steamcommunity.com/app/391220/discussions/0/405692758725104525/


Bei Ashes hat Tahiti mehr profitiert als Tonga.

Nö die Entwickler sagen ausschlieslich das Async Compute in der Xbox Version by default aktiv ist der Async Compute Support kam später mit dem Directx 12 Patch der Optimierte noch später jetzt mit dem Patch 7.

Foobar2001
2016-07-10, 23:32:03
[immy;11095288']wtf?

Warum nur für GCN 1.1+ GPUs?
Oder geht es darum das einfach mehr "asynchrone" aufgaben an die GPUs gleichzeitig übergeben werden.
GCN 1.1 hat mehr compute queues.

blaidd
2016-07-11, 10:26:09
Performance in Total War: Warhammer (Direct X 11 und Direct X 12 - BETA!)
http://www.pcgameshardware.de/Total-War-Warhammer-Spiel-55149/Specials/Direct-X-12-Benchmarks-Test-1200551/#comment

Ich lass das hier mal so stehen... ;)

Raff
2016-07-11, 10:32:17
Kraut und Rüben – außer im internen Benchmark. :ugly: Ein Schelm ... ;)

MfG,
Raff

dildo4u
2016-07-11, 10:36:18
Also eine reine PR Übung für AMD mit einem extra Benchmark der sie gut aussehen lässt.Schätze mal da gabs Druck das zum 480 Launch zu veröffentlichen.

StefanV
2016-07-11, 11:23:08
Ja, natürlich, lieber dildo.
Das sagst du natürlich nur, weil AMD hier besonders gut dasteht.

Das ganze erinnert, wie schon in einem anderen Thread geschrieben, an die R300 vs. nV30 Situation, bei der die nVidia Fans ja auch gewaltsam versucht haben, die FXen besonders gut/schnell zu reden...

Und das ist heute irgendwie genau so: Mit Async Compute gewinnt AMD massiv(st), das muss man natürlich irgendwie wegreden, leider...

dargo
2016-07-11, 12:23:06
Seht ihr da andere Benchmarks als ich? :confused: Ich sehe dort auch bei AMD unter DX12 überall geringere Performance als DX11.

dildo4u
2016-07-11, 12:23:33
@StefanV
Lies den Artikel DX12 bringt im eigentlich Game in normalen Auflösungen nix,wie gesagt reiner PR Move.
Fury X in 1080p DX11:46fps DX12:42fps,AMD 480 DX11 36fps, DX12 32fps.

Seht ihr da andere Benchmarks als ich? :confused: Ich sehe dort auch bei AMD unter DX12 überall geringere Performance als DX11.
Nur Stefan liest was er lesen will.


Immerhin interresant die 1080 kackt nich so massiv ab wie Maxwell,zumindest scheint Nvidia's neue Asynchron Compute implementation das Schlimmste zu verhindern.

Troyan
2016-07-11, 13:01:18
Halten wir fest:
AMD hat für einen internen Benchmark bezahlt, der nicht die Wirklichkeit wiedergibt.
AMD hat für einen DX12 Pfad bezahlt, der im Grunde nur im bezahlten internen Benchmark einen deutlichen Leistungssprung bringt.
AMD hat für einen DX12 Pfad bezahlt, der die Leistung der nVidia-Karten im bezahlten internen Benchmark um 25% einbrechen lässt.

In 720p ist DX12 33% langsamer als DX11(!!!!!) auf einer nVidia-Karte. Selbst in Tomb Raider ist DX12 in CPU-limitierenden Szenen deutlich schneller als DX11.

Lässt tief blicken in das "Gaming Evolved" Programm.

dargo
2016-07-11, 13:05:02
In 720p ist DX12 33% langsamer als DX11(!!!!!) auf einer nVidia-Karte. Selbst in Tomb Raider ist DX12 in CPU-limitierenden Szenen deutlich schneller als DX11.

Lässt tief blicken in das "Gaming Evolved" Programm.
Du widersprichst dir selbst und merkst es nicht mal. Es liegt nicht an AMD sondern am Entwickler. Da das ganze eh erstmal Beta ist würde ich da nicht zuviel Bias hinein interpretieren.

Kartenlehrling
2016-07-11, 13:11:30
Ich lass das hier mal so stehen... ;)


Halten wir fest:
AMD hat für einen internen Benchmark bezahlt, ...

Ich weiß aber auch nicht wieso man überhaupt sich auf das Interne verlässt, gerade als PC Hardware Testseite.
Die Ausrede man kann DX12 und DX11 in TotalWar:Warhammer nicht vergleichen zieht nicht, man kann sich ja ein Savegame erspielen und vergleichen.
Das Streaming Tool Action! (https://mirillis.com/de/products/action.html)kann man zum Benchmark nehmen, es gibt sogar gleich ein Benchmark aus, wie Fraps aber "auch" unter DX12.

blaidd
2016-07-11, 13:13:02
Halten wir fest:
AMD hat bezahlt[...].

Auch auf die Gefahr hin, dass mir mal wieder AMD-Bias unterstellt wird (was ich für ein bisschen weit hergeholt halten würde, in Anbetracht der Beobachtungen im Artikel; und ganz sicher werde ich nicht von AMD bezahlt :wink: ): Das kann man nicht feststellen, höchstens mutmaßen - und das wäre schon ein bisschen auf der verschwörerischen Seite - ich halte es für wahrscheinlicher, dass die Optimierungen für AMD eventuell jenen für Nvidia vorgezogen werden, diese aber generell bei Weitem noch nicht abgeschlossen sind. Der DX12-Support ist einfach noch nicht fertig (die CPU-Seite und damit wohl der wichtigste Faktor fehlt beispielsweise offenbar noch komplett.)

Ich weiß aber auch nicht wieso man überhaupt sich auf das Interne verlässt, gerade als PC Hardware Testseite.
Die Ausrede man kann DX12 und DX11 in TotalWar:Warhammer nicht vergleichen zieht nicht, man kann sich ja ein Savegame erspielen und vergleichen.
Das Streaming Tool Action! (https://mirillis.com/de/products/action.html)kann man zum Benchmark nehmen, es gibt sogar gleich ein Benchmark aus, wie Fraps aber "auch" unter DX12.

Ich hab mich ja ausdrücklich nicht auf den internen Benchmark verlassen, sondern die Werte mit in den Artikel aufgenommen, um einmal zu demonstrieren, warum nicht.... Scroll doch den Artikel mal ein Stück weiter nach unten ;)

tdon
2016-07-11, 13:18:19
Du widersprichst dir selbst und merkst es nicht mal. Es liegt nicht an AMD sondern am Entwickler. Da das ganze eh erstmal Beta ist würde ich da nicht zuviel Bias hinein interpretieren.


Komisch, dass die Argumentation bei "Nvidia Spielen" immer andersrum geht, da ist dann immer gleich Nvidia Schuld, die zu viel bezahlt haben. Bei einem Gaming-Evolved-Programm wird genau von dieser Argumentation Abstand genommen.

Wenn der interne Benchmark wirklich so ein ganz anderes Bild zeichnet, ist das schon sehr fragwürdig. Davon abgesehen finde ich DX12 bis jetzt arg enttäuschend.

dildo4u
2016-07-11, 13:26:16
Jup ich sehe hier auch nur ein DX12 Flop nach den anderen,schäzte mal Dice werden die ersten sein die mit BF1 was vernüftiges auf die Beine stellen.Nur gibt es dann kein Gratis Update auf Win 10 mehr.Bin echt mal gespannt wie sich die Win 10 Verbreitung ab August entwickelt.


An die PCGH bencht ihr noch mal Tomb Raider mit dem neuen Patch?

Raff
2016-07-11, 13:31:06
Jo, anlässlich der Veröffentlichung einer neuen Grafikkarte wird's paar Werte geben.

MfG,
Raff

Kartenlehrling
2016-07-11, 13:32:36
Scroll doch den Artikel mal ein Stück weiter nach unten

Ich habe das schon gelesen, genauso das die Entwickler geschrieben haben das sie es geschaft haben es auf 2! Haupthread zu verteilen was früher nur Singlecore war.
Die Russischen CPU Thread zeigen es wohl auch auf.
(http://gamegpu.com/images/stories/Test_GPU/strategy/Total_War_Warhammer/test/12/w12_intel.jpg)
Wie sind einem DX12 heute immer noch weit entfernt, solange man sich von seine "Altlasten" nicht befreien kann.

M4xw0lf
2016-07-11, 13:32:41
Jo, anlässlich der Veröffentlichung einer neuen Grafikkarte wird's paar Werte geben.

MfG,
Raff
Uh, welche mag das sein? :uponder:
:wink:

Linmoum
2016-07-11, 13:36:19
An die PCGH bencht ihr noch mal Tomb Raider mit dem neuen Patch?
Zwar nicht PCGH, aber hier gibt's entsprechendes.


http://www.overclock3d.net/gfx/articles/2016/07/10100423341l.jpg
http://www.overclock3d.net/gfx/articles/2016/07/10100505809l.jpg
http://www.overclock3d.net/gfx/articles/2016/07/10100531222l.jpg

http://www.overclock3d.net/gfx/articles/2016/07/10100606688l.jpg

http://www.overclock3d.net/reviews/gpu_displays/rise_of_the_tomb_raider_directx_12_performance_update/1

Raff
2016-07-11, 13:36:35
Uh, welche mag das sein? :uponder:
:wink:

Radeon RX 490. Wir möchten warten, bis DX12 endlich ausgereift ist. ;D

MfG,
Raff

M4xw0lf
2016-07-11, 13:39:29
Radeon RX 490. Wir möchten warten, bis DX12 endlich ausgereift ist. ;D

MfG,
Raff
Sehr... gewissenhaft! :uup:

Troyan
2016-07-11, 13:43:24
Auch auf die Gefahr hin, dass mir mal wieder AMD-Bias unterstellt wird (was ich für ein bisschen weit hergeholt halten würde, in Anbetracht der Beobachtungen im Artikel; und ganz sicher werde ich nicht von AMD bezahlt :wink: ): Das kann man nicht feststellen, höchstens mutmaßen - und das wäre schon ein bisschen auf der verschwörerischen Seite - ich halte es für wahrscheinlicher, dass die Optimierungen für AMD eventuell jenen für Nvidia vorgezogen werden, diese aber generell bei Weitem noch nicht abgeschlossen sind. Der DX12-Support ist einfach noch nicht fertig (die CPU-Seite und damit wohl der wichtigste Faktor fehlt beispielsweise offenbar noch komplett.)


Der interne Benchmark (und DX12 btw) wurden Ende Mai von AMD an Reviewer als Patch versandt.

Und der DX12 Patch ist noch nicht fertig? Wieso wurde er dann diesem Status veröffentlicht? Das ist hier kein Early-Access Titel.

Selbst in Tomb Raider gab es massive Leistungssteigerungen im CPU-Limit. Hier ist DX12 sogar langsamer. :rolleyes:

blaidd
2016-07-11, 14:00:37
Der interne Benchmark (und DX12 btw) wurden Ende Mai von AMD an Reviewer als Patch versandt.

Der war mit einiger Wahrscheinlichkeit wirklich ein PR-Tool - und hat deshalb auch den deutlichsten Vorsprung für AMD unter DX12.

Im Spiel läuft's aber eben etwas anders - und da ist der DX12-Support auch noch sehr ausbaufähig, nicht nur was Nvidia betrifft.

Wundern tut mich das aber eigentlich nicht sonderlich, ich hatte noch kein einziges DX12-Spiel, dass zum Release (der DX12-Fassung) nicht gewaltige Probleme machte (und viele tun das noch immer) - und trotzdem so veröffentlicht wurde. Die Schnittstelle ist offensichtlich ein bisschen schwierig.

dildo4u
2016-07-11, 14:08:19
Zwar nicht PCGH, aber hier gibt's entsprechendes.


http://www.overclock3d.net/gfx/articles/2016/07/10100423341l.jpg
http://www.overclock3d.net/gfx/articles/2016/07/10100505809l.jpg
http://www.overclock3d.net/gfx/articles/2016/07/10100531222l.jpg

http://www.overclock3d.net/gfx/articles/2016/07/10100606688l.jpg

http://www.overclock3d.net/reviews/gpu_displays/rise_of_the_tomb_raider_directx_12_performance_update/1

Danke leider keine 1080 dabei,AMD legt bei den min fps ordentlich zu.
Hoffentlich verhält sich Pascal so wie GCN,damit wir nicht noch ewig Games haben die mal hier oder mal da besser laufen.

Kartenlehrling
2016-07-11, 14:27:38
Jetzt kann man nur noch als AMD Fanboy anführen das DX12 zwar auf Mantle aufbaut, aber laut Microsoft und Nvidia ... Ihre 8 Jahre altes "Baby" ist.
Aber Vulkan kommt ja auch nicht in die Pötte, was ist mit Dooms Vulkanpatch? (http://help.bethesda.net/app/answers/detail/a_id/33889/~/how-do-i-run-doom-with-vulkan-api-support%3F)

http://cdn.wccftech.com/wp-content/uploads/2014/03/NVIDIA-DirectX-12-API-GDC-2014-635x357.jpg

dargo
2016-07-11, 15:33:45
Komisch, dass die Argumentation bei "Nvidia Spielen" immer andersrum geht, da ist dann immer gleich Nvidia Schuld, die zu viel bezahlt haben.
Du hast schon mitbekommen, dass beide IHVs @DX12 langsamer sind?

iuno
2016-07-11, 16:18:02
Jetzt kann man nur noch als AMD Fanboy anführen das DX12 zwar auf Mantle aufbaut, aber laut Microsoft und Nvidia ... Ihre 8 Jahre altes "Baby" ist.
Aber Vulkan kommt ja auch nicht in die Pötte, was ist mit Dooms Vulkanpatch? (http://help.bethesda.net/app/answers/detail/a_id/33889/~/how-do-i-run-doom-with-vulkan-api-support%3F)

http://cdn.wccftech.com/wp-content/uploads/2014/03/NVIDIA-DirectX-12-API-GDC-2014-635x357.jpg

Das hat weniger mit Fanboytum zu tun. Natuerlich nimmt MS da alle ins Boot, sonst braeuchte keiner mehr DX und NV wuerde wohl alles tun um Vulkan und vendor-spezifische erweiterungen zu pushen.
Natuerlich wird AMD genauso beruecksichtigt, alleine schon wegen der XBox. Dass das bei einer NV Praesentation nicht auftaucht, hat doch gar nichts zu sagen.

Die Frage zu DOOM@Vulkan ist heute ganz besonders passend, weil eben heute der Start dafuer ist ;p

captain_drink
2016-07-11, 22:42:34
Du hast schon mitbekommen, dass beide IHVs @DX12 langsamer sind?

Außer im internen Benchmark...

just4FunTA
2016-07-12, 04:21:49
Hab mal ein Thread erstellt, wie seht ihr das? Floppt DX12/Vulkan (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11098606#post11098606)

dildo4u
2016-07-12, 11:29:29
http://videocardz.com/62122/nvidia-geforce-gtx-1060-official-performance-leaked

NV hat die 1060 vor der 480 in Ashes,schätze mal MSAA killt die AMD da die Kompression nix taugt ich hätte sie bei dem Game vor der 1060 erwartet.

Disco_STFU
2016-07-12, 11:33:31
Hauptsache mal einpaar Zahlen hingerotzt... :freak:

Kartenlehrling
2016-07-13, 16:26:47
http://www.golem.de/news/firaxis-civilization-6-unterstuetzt-direct3d-12-und-async-compute-1607-122098.html
Civilization 6 unterstützt Direct3D 12 und Async Compute
Civilization 6 erscheint im Herbst exklusiv für Windows-PCs und nutzt die D3D12-Schnittstelle.
Kann ich nicht nachvollziehen, wenn es schon nicht für Consolen kommt, wieso dann Win10+DX12?
Warum kann man da nicht Vulkan nehmen, wenn von zusammenarbeit zwischen AMD und Firaxis geschrieben steht,
jetzt nach Doom/Vulkan und Civ:BE/Mantle kann ich es nicht nachvollziehen?!??

iuno
2016-07-13, 16:39:58
Ganz Klasse :facepalm:
Zumal die Linux Version schon angekündigt ist.

TYVM

Unicous
2016-07-13, 17:11:04
http://www.golem.de/news/firaxis-civilization-6-unterstuetzt-direct3d-12-und-async-compute-1607-122098.html
Civilization 6 unterstützt Direct3D 12 und Async Compute

Kann ich nicht nachvollziehen, wenn es schon nicht für Consolen kommt, wieso dann Win10+DX12?
Warum kann man da nicht Vulkan nehmen, wenn von zusammenarbeit zwischen AMD und Firaxis geschrieben steht,
jetzt nach Doom/Vulkan und Civ:BE/Mantle kann ich es nicht nachvollziehen?!??

Es wird IMHO definitiv für Konsole kommen, allein deswegen gehen sie auf DX12. Siehe auch XCOM 2.:wink:

Einen Vulkan-Pfad würde ich nicht ausschließen, weil Firaxis ja sehr Unix-affin ist (MacOS und Linux).

Kartenlehrling
2016-07-13, 17:16:31
http://www.firaxis.com/?/games/single/sid-meiers-civilization-vi

hier steht aber auch was anderes und vorbestellen kann man nur PC,
wenn Consol in einem Jahr nachgereicht wird für PS4k(Neo) und XBone (Scorpio) aber am 21.10.2016 gibt nur PC.

N0Thing
2016-07-13, 17:17:47
Es wird IMHO definitiv für Konsole kommen, allein deswegen gehen sie auf DX12. Siehe auch XCOM 2.:wink:

Einen Vulkan-Pfad würde ich nicht ausschließen, weil Firaxis ja sehr Unix-affin ist (MacOS und Linux).

Aber man fragt sich schon, warum es einen DX12-Pfad geben wird, es aber trotz Mantle im Vorgänger kein Vulkan angekündigt wurde, was ja gerade einer Portierung auf Mac und Linux zum Vorteil gereicht hätte.

just4FunTA
2016-07-13, 17:21:44
Kannst du F1 2015 aus der Liste nehmen, da kommt ja offensichtlich nichts mehr. Wirklich schade hätte gern gesehen ob es im Regen einen Unterschied ausmacht. Das bricht ja aktuell bei 4 Kernen völlig ein.

dildo4u
2016-07-13, 17:30:29
Just Cause 3 läuft auch grottig wenn man keine High-End CPU hat,DX12 würde massiv was bringen es ist aber immer noch nix passiert.Ich glaube das das Game ein Mega Flops war und sie den Geldhahn für die Entwicklung zugedreht haben.

dargo
2016-07-13, 17:32:15
Kannst du F1 2015 aus der Liste nehmen, da kommt ja offensichtlich nichts mehr.
Solange kein Dementi von Intel kommt bleibt es da. ;)

Unicous
2016-07-13, 17:33:58
http://www.firaxis.com/?/games/single/sid-meiers-civilization-vi

hier steht aber auch was anderes und vorbestellen kann man nur PC,
wenn Consol in einem Jahr nachgereicht wird für PS4k(Neo) und XBone (Scorpio) aber am 21.10.2016 gibt nur PC.

Ich habe auch nicht behauptet, dass sie es angekündigt haben. ;)

Sie sagen ungefähr "we have nothing to announce", was einerseits alles und nichts bedeuten kann, aber durch Comic-Look (-> Civ Revolution) und Ankündigung dass MP etwas "schneller" wird, sehe ich da durchaus eine gute Chance, dass Civ für Konsolen kommt.

Aber man fragt sich schon, warum es einen DX12-Pfad geben wird, es aber trotz Mantle im Vorgänger kein Vulkan angekündigt wurde, was ja gerade einer Portierung auf Mac und Linux zum Vorteil gereicht hätte.

Prioriäten. Das Gleiche gab es doch bei XCOM 2. Warum gibt es keinen "Port" auf Konsolen... Kohle und Entwicklungszeit. Wäre XCOM 2 gefloppt hätte es auch keine Konsolenversion gegeben. Bei Civ VI sieht es wohl ähnlich aus, nachdem Beyond Earth nicht gerade ein Bringer war (im Vergleich zum Riesenerfolg Civ V).

Vulkan-Support ist also auch eine Prioritätssache... wenn sie denn daran Interesse haben.

dildo4u
2016-07-13, 17:34:16
Der F1 Nachfolger kommt im August,ist wie bei Projekt Cars das alte Game bekommt keine LL API.

just4FunTA
2016-07-13, 17:48:47
Der F1 Nachfolger kommt im August,ist wie bei Projekt Cars das alte Game bekommt keine LL API.

Ja der Zug für F1 2015 ist abgefahren das kann er ruhig aus der Liste nehmen. Mit etwas Glück kommt es dann in F1 2016

Edit: Gerade erst gesehen wir sind ja im Falschen Thread.

BK-Morpheus
2016-07-13, 17:50:39
http://videocardz.com/62122/nvidia-geforce-gtx-1060-official-performance-leaked

NV hat die 1060 vor der 480 in Ashes,schätze mal MSAA killt die AMD da die Kompression nix taugt ich hätte sie bei dem Game vor der 1060 erwartet.
Mal auf Benches warten, die nicht von Nvidia veröffentlich sind und dann schauen.
Die Werte der RX480 sind bei einigen Games in der Nvidia Liste schon mal definitiv niedriger, als das, was alle Reviewer so gemessen haben.

dargo
2016-07-13, 17:51:59
Der F1 Nachfolger kommt im August,ist wie bei Projekt Cars das alte Game bekommt keine LL API.
Nö... bei pCars hat Intel nicht seine Finger im Spiel im Gegensatz zu F1 2015. Es bleibt da bis der Nachfolger kommt.

just4FunTA
2016-07-13, 18:01:34
Nö... bei pCars hat Intel nicht seine Finger im Spiel im Gegensatz zu F1 2015. Es bleibt da bis der Nachfolger kommt.

Das war doch bloß ne "Fallstudie" von Intel da steht nirgends das F1 2015 wegen Intel DX12 bekommt..

dargo
2016-07-13, 18:15:51
Die Vermutung liegt bei Intel aber nahe, dass sie eventuell auch finanziell beteiligt sind. Bei einigen Codemasters Spielen gibt es immer wieder exklusive Inteleffekte.

Foobar2001
2016-07-13, 18:17:35
Es wird IMHO definitiv für Konsole kommen, allein deswegen gehen sie auf DX12. Siehe auch XCOM 2.:wink:

Einen Vulkan-Pfad würde ich nicht ausschließen, weil Firaxis ja sehr Unix-affin ist (MacOS und Linux).
MacOS unterstuetzt kein Vulkan. Danke Apple.

Locuza
2016-07-13, 18:23:53
Das war doch bloß ne "Fallstudie" von Intel da steht nirgends das F1 2015 wegen Intel DX12 bekommt..
Will F1 2015 get dx12 update in next patch for PC?
Not in the next patch but it will be added at some point.
http://forums.codemasters.com/discussion/27428/will-f1-2015-get-dx12-update

Es war nicht nur eine Fallstudie, aber da der Nachfolger schon ansteht, würde ich nicht unbedingt davon ausgehen das da noch etwas kommt.

just4FunTA
2016-07-13, 18:37:32
Oktober 2015 ohja jungs dx12 kommt für f12015;D

Ganon
2016-07-13, 19:18:23
MacOS unterstuetzt kein Vulkan. Danke Apple.

Wenn ein Vulkan Pfad steht, dann sollte ein Metal-Pfad nicht allzu schwierig sein. Müssen nur ein paar Sachen abspecken.

Foobar2001
2016-07-13, 19:20:45
Toll. Muss man trotzdem alles neu schreiben. Und es gibt erhebliche Unterschiede. Memory Management ist komplett im Treiber und Tesselation haben sie ohne Hull- und Domain-Shader implementiert.

Geht mir auf den Sack. Gibt's absolut nichts schoen zu reden. Sollen sie an ihrem Metal-Scheiss ersticken.

Ganon
2016-07-13, 19:30:23
Naja, bei Apples verbuggten und unvollstänigen OpenGL musst du bei OS X eh viel anders machen. Einfach so z.B. den Linux Codepfad nutzen ist da auch nicht drin.

Foobar2001
2016-07-13, 19:33:58
Und was hat das jetzt mit Vulkan zu tun? Die Entscheidung fuer Metal war ganz klar boeswillig, sie wollen einfach ihren walled garden haben.

Screemer
2016-07-13, 20:51:04
Wenn ein Vulkan Pfad steht, dann sollte ein Metal-Pfad nicht allzu schwierig sein. Müssen nur ein paar Sachen abspecken.
Gibt doch schon zumindest eine framework mit dem sich aus ner vulkan-aplikation recht schnell ne performante Metslversion bauen lassen sollte: https://moltengl.com

Ganon
2016-07-13, 21:06:24
Und was hat das jetzt mit Vulkan zu tun? Die Entscheidung fuer Metal war ganz klar boeswillig, sie wollen einfach ihren walled garden haben.

Klar, daran zweifelt auch keiner. Aber wenn das Management sagt, dass OS X unterstützt werden soll, dann braucht man da auch nicht groß rumweinen. Da muss man schlicht mit den Fakten leben. Genauso könnte man MS DX12 um die Ohren hauen. Und wenn MS sich sein DX12 werkeln kann, dann darf Apple auch Metal bauen.

Dass sie sich gerade den kompletten Pro Bereich endgültig verprellen, das ist ja nichts neues... der aktuelle MacPro ist immerhin schon 3 Jahre alt.

Ebenso stört es mich wenn irgendjemand schreibt er baue jetzt DX12 Unterstützung ein... das ist doch auch total unnötg. Zumal glslang auch HLSL->SPIR-V unterstützt.

Gibt doch schon zumindest eine framework mit dem sich aus ner vulkan-aplikation recht schnell ne performante Metslversion bauen lassen sollte: https://moltengl.com

Naja, dort steht auch schon ein gutes Jahr "Coming Soon"... Es ist auch weiterhin fraglich wie sie das anstellen, da Metal gar nicht die volle Funktionalität von Vulkan bietet. Das ist am Ende vermutlich nur ein Wrapper der aus Metal ein "MetalVulkan" macht mit geringerem Featureset macht.

Aber gut, das ist im DX12 Thread nun endgültig OT :D

Unicous
2016-07-13, 23:01:43
MacOS unterstuetzt kein Vulkan. Danke Apple.

Ging mir eher darum, dass sie seit Langem *nix unterstützen eine Metal-Umsetzung sehe ich aber auch eher nicht, das wäre zu viel des Guten.:frown:

fondness
2016-07-14, 17:01:13
Hat Nvidia eigentlich noch einen Dev-Support?^^

AMD Partners With Firaxis To Bring DX12, Full Async Compute & Explicit Multi-Adapter To Civilization VI
http://wccftech.com/amd-partners-firaxis-bring-dx12-full-async-compute-explicit-multi-adapter-civilization-vi/

hmmm
2016-07-14, 17:38:37
Hat Nvidia eigentlich noch einen Dev-Support?^^

AMD Partners With Firaxis To Bring DX12, Full Async Compute & Explicit Multi-Adapter To Civilization VI
http://wccftech.com/amd-partners-firaxis-bring-dx12-full-async-compute-explicit-multi-adapter-civilization-vi/
Ja haben sie _noch_. ;)
Es ist sehr mühsame mit denen über Asynchronous Shader zu sprechen, die kommen dir dann mit Preemption und deren Preemption "Lösung" unterscheidet sich auch noch in fast jeder Generation.

Pirx
2016-07-14, 17:42:42
Hat Nvidia eigentlich noch einen Dev-Support?^^

AMD Partners With Firaxis To Bring DX12, Full Async Compute & Explicit Multi-Adapter To Civilization VI
http://wccftech.com/amd-partners-firaxis-bring-dx12-full-async-compute-explicit-multi-adapter-civilization-vi/
Wieso überhaupt DX12? Im Grunde spricht doch mittlerweile alles rationale für Vulkan.

Troyan
2016-07-14, 19:13:56
Timespy: https://www.computerbase.de/2016-07/3dmark-time-spy-dx12-benchmark/

Async Compute bringt 7% Leistung auf Pascal. Und kein Leistungsverlust auf Maxwell-Karten.

Da gucken die AMD-Partner alle irgendwie dumm aus der Wäsche. Aber hey, die würden nie, aber nie nVidia benachteiligen. :lol:

Foobar2001
2016-07-14, 19:17:34
Falls du auf Doom anspielst: Der Vulkan-Treiber von NVIDIA hat derzeit keine Unterstuetzung fuer Async Compute.

dildo4u
2016-07-14, 19:23:38
Timespy: https://www.computerbase.de/2016-07/3dmark-time-spy-dx12-benchmark/

Async Compute bringt 7% Leistung auf Pascal. Und kein Leistungsverlust auf Maxwell-Karten.

Da gucken die AMD-Partner alle irgendwie dumm aus der Wäsche. Aber hey, die würden nie, aber nie nVidia benachteiligen. :lol:
Tesselation würgt Fiji ordentlich was rein die 480 holt im zweiten Test auf.

Blediator16
2016-07-14, 19:33:13
3d Mark Benches sind sowieso nichtssagend.

Hübie
2016-07-14, 19:39:16
Jein. Oftmals passt das Performance-Bild wenn man es auf Spiele überträgt. Früher war es wirklich so, dass im 3D Mark ganz andere Modelle oben waren als in den meisten Spielen. Das hat man mittlerweile wohl bei Futuremark erkannt.
Dennoch haben solche Benchmarks den Nachteil dass die sehr repetitiv sind und man so den Treiber sehr gut drauf optimieren kann.

Interessant ist wenigstens dass man einen Ausblick auf die Grafik in ein paar Jahren erhält X-D

Andron
2016-07-14, 19:39:28
Tesselation würgt Fiji ordentlich was rein die 480 holt im zweiten Test auf.

Aber selbst Hawaii/Grenada holt auf die Fury auf und die sollten noch mehr Probleme mit Tessellation haben. Die bei Tessellation nochmal deutlich stärkere GTX 980 kann sich in Szene 2 auch gerade mal um 2 % von der 390 absetzen. Ich glaube, da spielt noch etwas anderes rein.

fondness
2016-07-14, 19:39:55
Und kein Leistungsverlust auf Maxwell-Karten.


Jede Wette, dass Async auf Maxwell gar nicht verwendet wird.

dildo4u
2016-07-14, 19:54:14
http://abload.de/img/timespy-3a5sxs.png

http://www.pcper.com/reviews/Graphics-Cards/3DMark-Time-Spy-Looking-DX12-Asynchronous-Compute-Performance

hmmm
2016-07-14, 20:18:59
Bei Nvidia sieht es doch wohl _WIEDER EINMAL_ nur nach Preemption und nicht nach Asynchronous Shader aus. Senkt man den Takt der Pascal GPUs leidet die Effizienz von Nvidias "Asynchronous Shader" was ja eigentlich so nicht sein sollte und bei AMD nicht so ist.
Aber eigentlich auch logisch, die Zeit für den context switch wird mit höherem Takt immer kleiner und damit "billiger".

Schnoesel
2016-07-14, 20:53:20
Dabei müsste man doch Async bei Maxwell nur per Treiber mal freischalten ... und wenn sie nicht gestorben sind... :biggrin:

Ich finde es gut das Pascal davon auch profitiert, so hat man die Hoffnung, dass das Feature auch mal zur Anwendung kommt und nicht wieder untern Teppich gekehrt wird.

M4xw0lf
2016-07-14, 21:00:19
Jede Wette, dass Async auf Maxwell gar nicht verwendet wird.
Wäre schon ein ziemlicher Zufall, sonst genau bei +- 0 rauszukommen. :wink:

Linmoum
2016-07-14, 21:04:29
Ich hoffe mal, dass das bei Doom jetzt nicht mehr ewig dauern wird. Dann sieht man, wo Pascal und Co. mit AC stehen. Es sei denn, bei Nvidia schweigt man es so tot wie bei AotS oder der vor Monaten getätigten Äußerung hinsichtlich nur noch fehlender Freischaltung im Treiber... :P

dargo
2016-07-14, 21:13:11
Bei Nvidia sieht es doch wohl _WIEDER EINMAL_ nur nach Preemption und nicht nach Asynchronous Shader aus. Senkt man den Takt der Pascal GPUs leidet die Effizienz von Nvidias "Asynchronous Shader" was ja eigentlich so nicht sein sollte und bei AMD nicht so ist.
Aber eigentlich auch logisch, die Zeit für den context switch wird mit höherem Takt immer kleiner und damit "billiger".
Ich kann dir hier nicht folgen. Bei der Nano ist der Takt auch niedriger als Fury X bei gleichen SPs. Die 1080 hat mehr SPs und mehr Takt als die 1070.

Digidi
2016-07-14, 21:19:03
Ich hab den Test gerade mal laufen lassen mit I7 4790 und einer 290x komme ich auf 4150 Punkte

hmmm
2016-07-14, 21:29:39
Ich kann dir hier nicht folgen. Bei der Nano ist der Takt auch niedriger als Fury X bei gleichen SPs. Die 1080 hat mehr SPs und mehr Takt als die 1070.
ZB
Taktest du eine AMD immer weiter runter ändert sich die "Effizienz" von AS nur relative wenig.
Macht man dies mit einer 1070 o. 1080 kann man die ""Effizienz" von AS auf 0 bringen.
Dürfte doch eigentlich nicht sein. Oder?

dargo
2016-07-14, 21:32:41
Macht man dies mit einer 1070 o. 1080 kann man die ""Effizienz" von AS auf 0 bringen.

Gibts dafür auch eine Quelle? Oder hast du das selbst getestet? Denn im Bild von dildo ist so ein Vergleich nicht zu sehen.

Troyan
2016-07-14, 22:01:12
Bei Nvidia sieht es doch wohl _WIEDER EINMAL_ nur nach Preemption und nicht nach Asynchronous Shader aus. Senkt man den Takt der Pascal GPUs leidet die Effizienz von Nvidias "Asynchronous Shader" was ja eigentlich so nicht sein sollte und bei AMD nicht so ist.
Aber eigentlich auch logisch, die Zeit für den context switch wird mit höherem Takt immer kleiner und damit "billiger".

Man, hoffenlich bist du besser gebildet in deinem Beruf als in deinem Hobby - GTX1080:

2000Mhz/5500Mhz
Async On:
Graphics score
7 157
Graphics test 1
46.54 FPS
Graphics test 2
41.11 FPS

Async Off
Graphics score
6 684
Graphics test 1
43.86 FPS
Graphics test 2
38.10 FPS

1000Mhz/5500Mhz
Async On
4 133
Graphics test 1
26.98 FPS
Graphics test 2
23.66 FPS

Async Off:
Graphics score
3 785
Graphics test 1
24.81 FPS
Graphics test 2
21.60 FPS

Schau an. Der Gewinn ist sogar höher mit 1000Mhz als mit 2000Mhz. :rolleyes:

N0Thing
2016-07-15, 01:49:43
Man, hoffenlich bist du besser gebildet in deinem Beruf als in deinem Hobby - GTX1080:

2000Mhz/5500Mhz
Async On:
Graphics score
7 157
Graphics test 1
46.54 FPS
Graphics test 2
41.11 FPS

Async Off
Graphics score
6 684
Graphics test 1
43.86 FPS
Graphics test 2
38.10 FPS

1000Mhz/5500Mhz
Async On
4 133
Graphics test 1
26.98 FPS
Graphics test 2
23.66 FPS

Async Off:
Graphics score
3 785
Graphics test 1
24.81 FPS
Graphics test 2
21.60 FPS

Schau an. Der Gewinn ist sogar höher mit 1000Mhz als mit 2000Mhz. :rolleyes:

Wie sieht es aus, wenn du auch den Speichertakt auf 50% absenkst?

inspectah
2016-07-15, 09:38:46
Der DX12 MultiGPU abstraction layer ist nun auf Github:
I have committed the MultiGPU abstraction layer and sample to the develop branch and merged to master today. Take a look at the samples and the abstraction layer and let us know what you think. There are additional details about the layer in the readme.md files for both the sample and the library
https://github.com/Microsoft/DirectX-Graphics-Samples/issues/173#issuecomment-232180604

Isen
2016-07-15, 10:32:04
Wasn das fürn Benchmark @Time Spy, der kein 12_0 und 12_1 testet noch voraussetzt, sich aber DX12 schimpft :facepalm:
Das ist ein verdammter DX11 Benchmark, wo auch noch W10 benötigt wird, auch keine DX12 Karte (Reicht den passenden Treiber installiert zu haben)
Tessellation auf 64 noch oben drauf.

Was soll die verarsche?

Kann ich ja gleich Witcher 3 nehmen und hab das selbe

StefanV
2016-07-15, 10:40:02
Hm, hat das Spiel zufällig ein nVidia Logo?
Das könnte das erklären...

Isen
2016-07-15, 10:52:21
Here is how Futuremark details the integration of asynchronous compute in Time Spy.

With DirectX 11, all rendering work is executed in one queue with the driver deciding the order of the tasks.

With DirectX 12, GPUs that support asynchronous compute can process work from multiple queues in parallel.

https://www.pcper.com/reviews/Graphics-Cards/3DMark-Time-Spy-Looking-DX12-Asynchronous-Compute-Performance


Wie kann AS verwendet werden, wenn es zu DX12 gehört aber zu keinem Zeitpunkt getestet noch vorausgesetzt wird?

For many tasks in the graphics rendering pipeline, the GPU needs to know about ordering; that is, it
requires information about which tasks must be executed in sequence (synchronous tasks), and
which can be executed in any order (asynchronous tasks). This requires a graphics application
programming interface (API) that allows developers to provide this information. This is a key
capability of the new generation of graphics APIs, including Mantle, DirectX® 12, and Vulkan™.
In DirectX 12, this is handled by allowing applications to submit work to multiple queues. The API
defines three types of queues:
 Graphics queues for primary rendering tasks
 Compute queues for supporting GPU tasks (physics, lighting, post-processing, etc.)
 Copy queues for simple data transfers
http://amd-dev.wpengine.netdna-cdn.com/wordpress/media/2012/10/Asynchronous-Shaders-White-Paper-FINAL.pdf

Die neuen Hardware-Features von DirectX 12 (FL 12_0 und 12_1) setzt der Benchmark weder voraus, noch testet er sie.
https://www.computerbase.de/2016-07/3dmark-time-spy-dx12-benchmark/


Hallo?!
Übersehe ich was?

Locuza
2016-07-15, 11:16:05
Nochmalige Erklärung zum API-Aufbau:

DX12 besitzt vier Feature-Levels, 11.0, 11.1, 12.0 und 12.1.
Das Feature-Level 11.0 ist fast identisch mit dem vom FL11.0 unter DX11.
Das Feature-Level ist dabei eine Ansammlung an Funktionen, welche aber nicht die gesamte API und all ihre Funktionen einschließen muss.
Unabhängig vom Feature-Level sind grundlegende Funktionalitäten bei DX12 gegeben:
- Command-Buffer können von jedem CPU-Thread erstellen werden. (Die Multithread-Fähigkeit von DX12)
- Die Verwaltung vom Speicher ist immer eine explizite Aufgabe des Entwicklers.
- Multiengine, wodurch Async Compute ermöglicht wird, ist eine Grund-API von DX12 und unter jedem Feature-Level verfügbar.
- ExecuteIndirect wodurch sich die GPUs teilweise selber mit Befehlen versorgen können und nicht immer auf einen CPU-Aufruf angewiesen sind, steht auch grundlegend zur Verfügung.

Die Time-Spy Demo ist eine DX12-Anwendung, die DX12 Treiber für die Hardware benötigt.

AffenJack
2016-07-15, 11:18:15
Wasn das fürn Benchmark @Time Spy, der kein 12_0 und 12_1 testet noch voraussetzt, sich aber DX12 schimpft :facepalm:
Das ist ein verdammter DX11 Benchmark, wo auch noch W10 benötigt wird, auch keine DX12 Karte (Reicht den passenden Treiber installiert zu haben)
Tessellation auf 64 noch oben drauf.

Was soll die verarsche?

Kann ich ja gleich Witcher 3 nehmen und hab das selbe

Du kannst jedes andere DX12 Game nehmen, denn bisher sind sogut wie alle DX12 Games FL11_0. Nur Quantum Break oder so ist glaube 12_0.

Ätznatron
2016-07-15, 11:20:20
Hm, hat das Spiel zufällig ein nVidia Logo?
Das könnte das erklären...

Irgendwann während der Demo taucht des Logo des nVidia-Kartenherstellers Galax auf... ;)

y33H@
2016-07-15, 11:22:02
Hm, hat das Spiel zufällig ein nVidia Logo? Das könnte das erklären ...Nö, aber Galax :biggrin:

Ätznatron
2016-07-15, 11:26:09
Nö, aber Galax :biggrin:

Dann kann man ab jetzt Futuremark-Benches getrost in die Tonne kloppen...

Offenbar haben die es dringend nötig, sich so zu verkaufen.

Locuza
2016-07-15, 11:27:34
Du kannst jedes andere DX12 Game nehmen, denn bisher sind sogut wie alle DX12 Games FL11_0. Nur Quantum Break oder so ist glaube 12_0.
Das FL11.0 reicht jedenfalls für Quantum Break schon aus, GCN Gen 1 und Kepler funktionieren unter Quantum Break.
Ich glaube es gibt zu fast keinem Spiel weitreichende Informationen welche FLs oder extra abgefragte Funktionen sie verwenden.

Ich habe nur in zwei Fällen etwas mitbekommen.
- Ashes of the Singularity verwendet bis zu Resource-Binding-Tier 3 wenn es die Hardware unterstützt.
- Forza Motorsport 6: Apex setzt Resource-Binding-Tier 2 voraus, FL11.0 reicht alleine nicht aus.

dildo4u
2016-07-15, 11:30:48
Dann kann man ab jetzt Futuremark-Benches getrost in die Tonne kloppen...

Offenbar haben die es dringend nötig, sich so zu verkaufen.
Das ist nix Neues.

https://youtu.be/Z50J7JHms_I

AffenJack
2016-07-15, 11:31:56
Das FL11.0 reicht jedenfalls für Quantum Break schon aus, GCN Gen 1 und Kepler funktionieren unter Quantum Break.
Ich glaube es gibt zu fast keinem Spiel weitreichende Informationen welche FLs oder extra abgefragte Funktionen sie verwenden.

Ich habe nur in zwei Fällen etwas mitbekommen.
- Ashes of the Singularity verwendet bis zu Resource-Binding-Tier 3 wenn es die Hardware unterstützt.
- Forza Motorsport 6: Apex setzt Resource-Binding-Tier 2 voraus, FL11.0 reicht alleine nicht aus.

Läuft damit Kepler bei Forza? Irgendwie hatte ich in erinnerung, dass es 1 game gab wo Kepler bei DX12 nicht ging, deshalb nannte ich QB. Aber mag mich getäuscht haben, dann gibts noch kein 12_0 Game.

Bzgl. Galax, Futuremark wurde schon immer von wem gesponsered. Ob das nun Galax oder sonstwer ist.

Loeschzwerg
2016-07-15, 11:32:40
Das ist nix Neues.

https://youtu.be/Z50J7JHms_I

MSI, Antec, Asus, KFA², GALAX... Das Sponsoring kratzt mich ehrlich gesagt nicht wirklich.

Ätznatron
2016-07-15, 11:36:33
MSI, Antec, Asus, KFA², GALAX... Das Sponsoring kratzt mich ehrlich gesagt nicht wirklich.

Solange es die Konkurrenz nicht behindert, okay.

Aber irgendwie passen Sponsoring und Unparteilichkeit nie so recht zusammen, siehe Project Cars.

Loeschzwerg
2016-07-15, 11:41:50
In diesem Fall geht es nur um den Markennamen (Antec ;) => nix mit Grafik und so). Futuremark könnte sich eine Parteilichkeit (AMD/NV) auch nicht leisten, dann würde das Ding als Benchmark in der Versenkung verschwinden.

Locuza
2016-07-15, 11:42:07
Läuft damit Kepler bei Forza? Irgendwie hatte ich in erinnerung, dass es 1 game gab wo Kepler bei DX12 nicht ging, deshalb nannte ich QB. Aber mag mich getäuscht haben, dann gibts noch kein 12_0 Game.

Kepler unterstützt Resource-Binding-Tier 2 und läuft auch entsprechend unter Forza.
Intels ältere Haswell/Broadwell-Hardware mit Gen 7.5/8 wird allerdings ausgeschlossen, da diese nur Resource-Binding-Tier 1 unterstützen.

dildo4u
2016-07-15, 11:45:47
Solange es die Konkurrenz nicht behindert, okay.

Aber irgendwie passen Sponsoring und Unparteilichkeit nie so recht zusammen, siehe Project Cars.
Den Tesselation Komplex können die AMDler jetzt langsam ablegen,die 480 scheint kaum noch behindert zu werden.Die alten AMD Karten sind halt nicht in allen Lebenslagen so Mega Zukunftstauglich wie es uns einige hier verkaufen wollen.

dargo
2016-07-15, 11:48:01
Dann zähl mal die Spiele auf wo Nvidia nicht seine Finger drin hatte was völlig übertiebene Tessellation angeht. :rolleyes: Sonst kommst du auch immer gerne mit den Parallelen zu Konsolen.

dildo4u
2016-07-15, 12:57:11
Auch ziehmlich interresant Crytek hat sich noch mal die Mühe gemacht den DX11 Renderer zu verbessern,vermutlich rechnen sie auch mit einer langsameren DX12 Verbreitung wenn das freie Update zu Ende ist.


https://www.cryengine.com/

iuno
2016-07-15, 13:34:06
Der DX12 MultiGPU abstraction layer ist nun auf Github:

https://github.com/Microsoft/DirectX-Graphics-Samples/issues/173#issuecomment-232180604

Currently, this library tries to help developers implement one of the most commonly used MultiGPU techniques, Alternate Frame Rendering (AFR) using linked GPUs.

as predicted...

Auch ziehmlich interresant Crytek hat sich noch mal die Mühe gemacht den DX11 Renderer zu verbessern,vermutlich rechnen sie auch mit einer langsameren DX12 Verbreitung wenn das freie Update zu Ende ist.
Spielt Crytek ueberhaupt noch eine Rolle? Anhaltende finanzielle Probleme, Fluktuation in Richtung id und CIG, inkonsistentes Geschaeftsmodell. Verwendet ueberhaupt ein nennenswertes Spiel noch deren Engine? CE V afaik nur eigenes (Robinson und dieses VR-Kletterspiel). Zudem nimmt Amazon dann wohl auch noch einiges ab.
Haetten lieber auf Vulkan gesetzt, OGL war ja auch schon drin. Das haette mehr Zielsysteme erreicht als DX11+12 zusammen. Bevor sie komplett in der Bedeutungslosigkeit verschwinden sollen sie das aber bitte noch unter freie Lizenz stellen :ulol:

Isen
2016-07-15, 15:12:26
Star Citizen, vergessen :)?
Edit: In dem Boot sitzen doch schon (alle?:D) von Crytek bei denen.
Wenn das Game nicht total floppt bzw. annähernd als fertig zu bezeichnen ist, sollte es dort wieder lauter werden @Cryengine.

Thunder99
2016-07-15, 15:21:56
Ist eigentlich DX12 mit der UWP von MS verknüpft oder will MS nur unbedingt das man es verknüpft? Gibt ja auch Spiele mit DX12 von Steam vertrieben

dargo
2016-07-15, 15:28:28
Ist eigentlich DX12 mit der UWP von MS verknüpft oder will MS nur unbedingt das man es verknüpft?
Weder noch. MS versucht einfach eine Plattform wie Steam, Origin und uPlay auf die Beine mit UWP zu stellen. Zudem kommen leider alle XB1-Ports mit UWP.

iuno
2016-07-15, 16:04:48
Star Citizen, vergessen :)?
Nein, CIG hatte ich ja extra erwaehnt. Das ist aber nicht die CE V und wohl sehr viel selbst umgebaut.

kruemelmonster
2016-07-17, 11:21:05
Hm, hat das Spiel zufällig ein nVidia Logo?
Das könnte das erklären...

Come on, this is now beyond silly. Galax paid for ad spots in the test and for bundling Time Spy with their cards. They had zero input to the test.
Nuff said.

Ätznatron
2016-07-17, 11:31:47
Nuff said.

Nur, wenn man auch an den Weihnachtsmann glaubt...

M4xw0lf
2016-07-17, 11:34:01
Nuff said.
In deinem Zitat gehts um Galax/KFA2, nicht um Nvidia, gell.

kruemelmonster
2016-07-17, 11:52:32
Da Galax ein exklusiver NV-Partner ist, ist das genau das Thema auf das StefanV anspielen wollte.

Aber schon klar, NV hat direkt oder indirekt wieder alle eingekauft. :comfort2:

Schau doch mal hier rein: https://www.futuremark.com/business/benchmark-development-program und überlegt dann nochmal wieviel Macht NV ggü den anderen Mitgliedern haben dürfte...und auch ggü Futuremark selber.
Merkt ihr eigentlich dass ihr auch den jeweiligen ISVs die Eigenständigkeit absprecht? Als ob die ISVs billige Hafennutten sind die sich sofort NV an den Hals werfen wenn die Lederjacke mit Überseedollars wedelt.

Kommt mal klar.

Ätznatron
2016-07-17, 12:09:53
Als ob die ISVs billige Hafennutten sind die sich sofort NV an den Hals werfen wenn die Lederjacke mit Überseedollars wedelt.



Was spricht dagegen?

-/\-CruNcher-/\-
2016-07-17, 12:44:15
Galax sponsert Futuremark wegen ihrem Prestige des Overclocking nichts anderem, das man hier nicht gleich das HOF Brand mit ihns spiel gebracht hat wundert mich.

3DMark ist ein OC Benchmark mehr nicht oder man kann es auch Balkengenerator nennen ;)

Remedy ist mittlerweile x Jahre voraus mit Northlight zu ihrer alten Max-FX Engine dessen Kern noch in 3DMark genutzt wird ;)

kruemelmonster
2016-07-17, 13:45:38
Was spricht dagegen?

Die Zusammensetzung des BDP und die erwähnte Eigenständigkeit der Unternehmen...es sei denn man hat ein Weltbild in dem sich NV und alle anderen gegen AMD verschworen haben.

Was spräche denn dafür, und aus welche Gründen macht AMD dann immer noch beim BDP mit?

Ätznatron
2016-07-17, 14:03:16
Die Zusammensetzung des BDP und die erwähnte Eigenständigkeit der Unternehmen...es sei denn man hat ein Weltbild in dem sich NV und alle anderen gegen AMD verschworen haben.

Was spräche denn dafür, und aus welche Gründen macht AMD dann immer noch beim BDP mit?

Weder Galax noch Futuremark dürfen sich wundern , wenn deren Vorgehen ein gewisses Geschmäckle - ob berechtigt oder unberechtigt - hinterlässt.

Insgesamt erinnert mich das doch sehr an die Vorgänge um Project Cars (läuft super mit nVidia-Hardware, AMD schneidet weniger gut ab), in dessen Werbetrailer nach etwas über 10 Sekunden das erste nVidia-Logo an der Werbebande auftaucht.

dargo
2016-07-17, 14:17:38
Wir hatten gestern oder vorgestern (ich weiß gar nicht mehr wo, eventuell im Vulkan-Thread) eine Diskussion über den aktuellen Stand von UWP und DX12 gehabt. Das hat mich dazu veranlasst Forza 6: APEX nochmal nach einer etwas längeren Zeit zu testen. Und ich muss zur meiner Überraschung sagen so langsam wird es was mit Microsoft und UWP. :cool:

Mit dem letzten Patch 1.3.11.0 sind einige Verbesserungen reingekommen. Unter anderem lässt sich nun auch die Bildwiederholrate Ingame anzeigen lassen. Leider nur im Rennen und nicht in den Cutszenen/Replays. Warum weiß wohl nur Turn 10. Seit diesem Patch funktioniert bei mir auch Vsync Off einwandfrei. Unglaublich wie lange Turn 10 dafür gebraucht hat. :freak: In den Grafikoptionen muss bei Performanceziel "freigeschaltet" stehen. Dann sind die Frameraten tatsächlich endlich nicht mehr an die Bildschirmfrequenz gekoppelt und auch nicht mehr halbiert (Bildschirm @120Hz). Freesync funktioniert nun auch endlich einwandfrei. :eek: Zu 95% läuft das Game hier mit meiner Möhre absolut butterweich. In Rio mit avgs. von ca. 100fps in 1440p und max. Details (4xMSAA), im Tunnel sogar 120+fps (alleine auf der Strecke). Im Prinzip fehlt nur noch der letzte Feinschliff, ganz selten gibt es noch minimale Ruckler/Mikroruckler. Aber kein Vergleich zu vorher. So langsam wird es wirklich was. Wollen wir hoffen, dass bis Forza Horizon 3 etc. die Probleme aus der Welt geschafft sind.

PS: Performanceziel muss unbedingt auf "freigeschaltet" stehen. Mit Vsync 60 gibts ein Dauergeruckel (Freesync On). Mit dem ganzen Vsync-Gedöns muss Turn 10 wohl noch einiges lernen.

PPS: bitte G-Sync erneut testen!

dildo4u
2016-07-17, 14:23:21
Weder Galax noch Futuremark dürfen sich wundern , wenn deren Vorgehen ein gewisses Geschmäckle - ob berechtigt oder unberechtigt - hinterlässt.

Insgesamt erinnert mich das doch sehr an die Vorgänge um Project Cars (läuft super mit nVidia-Hardware, AMD schneidet weniger gut ab), in dessen Werbetrailer nach etwas über 10 Sekunden das erste nVidia-Logo an der Werbebande auftaucht.
3DMark zeigt ein komplett anderes Bild als Projekt Cars,Fury X liegt dort vor der 980 Ti.In Projekt Cars liegt sie weit unter der 980.

http://abload.de/img/pasvcal56zjk.png

http://abload.de/img/porjektcarsd26xdd.png

fondness
2016-07-17, 14:32:28
Wir hatten gestern oder vorgestern (ich weiß gar nicht mehr wo, eventuell im Vulkan-Thread) eine Diskussion über den aktuellen Stand von UWP und DX12 gehabt. Das hat mich dazu veranlasst Forza 6: APEX nochmal nach einer etwas längeren Zeit zu testen. Und ich muss zur meiner Überraschung sagen so langsam wird es was mit Microsoft und UWP. :cool:

Mit dem letzten Patch 1.3.11.0 sind einige Verbesserungen reingekommen. Unter anderem lässt sich nun auch die Bildwiederholrate Ingame anzeigen lassen. Leider nur im Rennen und nicht in den Cutszenen/Replays. Warum weiß wohl nur Turn 10. Seit diesem Patch funktioniert bei mir auch Vsync Off einwandfrei. Unglaublich wie lange Turn 10 dafür gebraucht hat. :freak: In den Grafikoptionen muss bei Performanceziel "freigeschaltet" stehen. Dann sind die Frameraten tatsächlich endlich nicht mehr an die Bildschirmfrequenz gekoppelt und auch nicht mehr halbiert (Bildschirm @120Hz). Freesync funktioniert nun auch endlich einwandfrei. :eek: Zu 95% läuft das Game hier mit meiner Möhre absolut butterweich. In Rio mit avgs. von ca. 100fps in 1440p und max. Details (4xMSAA), im Tunnel sogar 120+fps (alleine auf der Strecke). Im Prinzip fehlt nur noch der letzte Feinschliff, ganz selten gibt es noch minimale Ruckler/Mikroruckler. Aber kein Vergleich zu vorher. So langsam wird es wirklich was. Wollen wir hoffen, dass bis Forza Horizon 3 etc. die Probleme aus der Welt geschafft sind.

PS: Performanceziel muss unbedingt auf "freigeschaltet" stehen. Mit Vsync 60 gibts ein Dauergeruckel. Mit dem ganzen Vsync-Gedöns muss Turn 10 wohl noch einiges lernen.

PPS: bitte G-Sync erneut testen!

Danke für die Info, muss ich gleich mal downloaden...

dargo
2016-07-17, 14:43:55
Danke für die Info, muss ich gleich mal downloaden...
Die GPU-Last in dem Spiel ist übrigens recht winzig. Trotz max. Details und alleine auf der Strecke läuft meine R9 390 fast durchgehend mit 1020Mhz bei 100% PT.

kruemelmonster
2016-07-17, 14:51:18
Weder Galax noch Futuremark dürfen sich wundern , wenn deren Vorgehen ein gewisses Geschmäckle - ob berechtigt oder unberechtigt - hinterlässt.

Insgesamt erinnert mich das doch sehr an die Vorgänge um Project Cars (läuft super mit nVidia-Hardware, AMD schneidet weniger gut ab), in dessen Werbetrailer nach etwas über 10 Sekunden das erste nVidia-Logo an der Werbebande auftaucht.

In game there are a number of company logos used, e.g. on billboards around tracks. These are simply there as recognition for the work done by those companies in helping to promote Project CARS at a range of events. The companies include :
- NVIDIA
- Panasonic
- Oculus Rift
Quelle (http://forum.projectcarsgame.com/showthread.php?32809-About-the-nVidia-banners/page2)

Lustig, mich erinnert die Diskussion auch an Project Cars weil auch dort manche nicht lesen wollten was die beteiligten Parteien sagten und lieber ihrem Weltbild fröhnten (wie du gerade eben mit dem Anführen des pCars Beispiels wunderbar gezeigt hast).

Es ist auch immer die Frage ob man ein gewisses Geschmäckle bekommen möchte bzw erwartet sobald man irgendwo was Grünes sieht. ;)

/edit: Du hast übrigens meine Frage nicht beantwortet warum AMD immer noch beim BDP mitmacht wenn deiner Meinung dort alles so unredlich abläuft.
Bonusfrage: falls sich NV mit FM (und allen weiteren Mitgliedern des BDP) gegen AMD verschworen haben sollte, ist es dann nicht dämlich das Symbol der Verschwörung in Form eines AIB-Logos dermaßen prominent zu platzieren? Ich dachte NV fliegt mit Ray-Bans um den Globus und macht ein Mafia-mäßiges entweder-Geldkoffer-oder-Betonschuh-Angebot hinter den Kulissen und setzt dann einen Strohmann wie das Antec-Logo im 3DMark11 ein. :freak:

Hübie
2016-07-17, 15:10:01
Die GPU-Last in dem Spiel ist übrigens recht winzig. Trotz max. Details und alleine auf der Strecke läuft meine R9 390 fast durchgehend mit 1020Mhz bei 100% PT.

Wie passt das zusammen? :confused: 100% PT und GPU ist nicht ausgelastet? Steh gerade auf dem Schlauch.

iuno
2016-07-17, 15:10:41
Seine Karte taktet sonst unter hoher Last runter mit "nur" 100% PT

dargo
2016-07-17, 15:15:45
Wie passt das zusammen? :confused: 100% PT und GPU ist nicht ausgelastet? Steh gerade auf dem Schlauch.
Die HiS R9 390 (Revision 1!) hat für eine 390 ein sehr tiefes Default PT von knapp über 200W. Die 1020Mhz sehe ich eigentlich nur bei geringerer GPU-Last, zb. in 1080p oder stärkeres CPU-Limit. Da ich in 1440p spiele sind es in der Regel eher 980-1000Mhz da die Karte dann ins PT-Limit läuft. Man könnte fast sagen die HiS ist eine Nano unter Grenada, nur die Länge passt nicht so ganz. :D

Hübie
2016-07-17, 15:20:32
Ah okay. Ja bin heut nicht ganz da. :D Sorry.

captain_drink
2016-07-17, 16:57:40
Aber schon klar, NV hat direkt oder indirekt wieder alle eingekauft. :comfort2:

NV schneidet in Bench XY gut ab: Offenkundig gekauft, Gameworks etc.
AMD schneidet in Bench XY gut ab: Endlich zeigt sich die überlegene Roheistung von AMD etc.

Es ist bemerkenswert, dass gute Ergebnisse beim einen IHV automatisch mit der Vermutung einhergehen, dass es mit unrechten Dingen zugegangen sein muss, beim anderen diese hingegen ungeprüft als Abbild der Leistungswirklichkeit akzeptiert werden. Man könnte sich gar zu der Behauptung versteigen, dass hierbei ein gewisser Bias im Spiel ist.

Blediator16
2016-07-17, 17:21:58
Wen jucken die 3dmark benches überhaupt sind doch sowieso seit Jahren total unwichtig und nicht repräsentativ was leistungsvergleiche von gpus betrifft.

-/\-CruNcher-/\-
2016-07-17, 18:02:08
Die GPU-Last in dem Spiel ist übrigens recht winzig. Trotz max. Details und alleine auf der Strecke läuft meine R9 390 fast durchgehend mit 1020Mhz bei 100% PT.

Clustered Shading ist der King hier :)

Mancko
2016-07-17, 18:52:20
NV schneidet in Bench XY gut ab: Offenkundig gekauft, Gameworks etc.
AMD schneidet in Bench XY gut ab: Endlich zeigt sich die überlegene Roheistung von AMD etc.


Ja oder es zeigt sich wie DX12 umzusetzen ist. Genauso ein Blödsinn. Viele Wege führen nach Rom und es wird immer Architekturbedingte Unterschiede zwischen den IHVs geben. Deswegen gibt es auch nicht den einen Weg und auch nicht den einen DX12 Approach. Es steck in DX12 auch noch sehr viel mehr als AC. Zusätzlich dazu gibt es auch für VR noch Unterschiede im Ansatz.

So oder so es wird Spiele und Benchmarks geben, die dem einen IHV und andere dem anderen IHV bei Hardware ähnlicher Netto Leistungsfähigkeit liegen. Das nennt man Wettbewerb und das ist gut so.


Es ist bemerkenswert, dass gute Ergebnisse beim einen IHV automatisch mit der Vermutung einhergehen, dass es mit unrechten Dingen zugegangen sein muss, beim anderen diese hingegen ungeprüft als Abbild der Leistungswirklichkeit akzeptiert werden. Man könnte sich gar zu der Behauptung versteigen, dass hierbei ein gewisser Bias im Spiel ist.

Traurig ist das. Aber ich gebe mich da keiner Illusion hin. Es wird weitere Benchmarks und Spiele geben, die für derartige Kommentare sorgen werden. Das Gute dabei: Es juckt am Ende im Markt keinen Schwanz und nervt höchstens hier im Forum.

fondness
2016-07-17, 19:04:49
Die GPU-Last in dem Spiel ist übrigens recht winzig. Trotz max. Details und alleine auf der Strecke läuft meine R9 390 fast durchgehend mit 1020Mhz bei 100% PT.

So gerade getestet, läuft in 4K @ FreeSync fast durchgehend mit 60 fps und sieht auch sehr gut aus. Probleme hatte ich keine. Für ein Gratisspiel nicht schlecht. Ich finde allerdings keine Einstellung "Performaceziel"?!

dargo
2016-07-17, 19:34:08
https://abload.de/thumb/zwischenablage01poota.jpg (http://abload.de/image.php?img=zwischenablage01poota.jpg)

Ich muss die Aussage oben allerdings ergänzen. Ohne KI läuft es wie oben gesagt. Mit KI gibt es häufiger Ruckler. Die sind so kurz, dass sie kaum bis gar nicht in der Framerate ersichtlich sind. Wahrscheinlich sehr kurze, dafür aber hohe Spikes in den Frametimes. Da stimmt also immer noch was nicht. Immerhin funzt schon mal Freesync wie man es vom exklusiven Fullscreen gewohnt ist, trotz UWP. Mal nächsten Patch abwarten. Vielleicht schafft es Turn 10 irgendwann mal. :freak:

Hübie
2016-07-17, 19:37:12
Hast du das nicht?

https://abload.de/img/forza6_menuoyump.png (http://abload.de/image.php?img=forza6_menuoyump.png)

Edit: Zu spät :redface:

@dargo: Hier wird nach wie vor ein Thread 100% ausgelastet, ein weiterer mit ~66% und der Rest schwankt um die 10-25% herum. Wahrscheinlich ist hier so etwas wie ein Bottleneck vorhanden.

woodsdog
2016-07-17, 19:54:01
Nein, das stimmt alles nicht...

Weder geht Freesync (Fenstermodus!?) noch GSync in dem Game.
Hast du - Dargo - by the way selber in dem Spku-*sync thread mit mir festgestellt.

hier, ich helf dir mal mit einem Link:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11101947#post11101947

Hast du eigentlich noch irgend einen Überblick was du in deinem Beiträge-Spam so von dir gibst...? Was soll der quatsch... das ist doch alles Bullshit hier.

man muss lediglich die Wiederholrate auf "Freigestellt" stellen und die Leistung der Graka soweit ausreizen/drosseln das sie unter 60 Hz fällt.
Wer dann noch VRR synced Frames hat möge sich melden.

Hübie
2016-07-17, 20:00:57
Okay, mag ja sein, aber weshalb bist du dann gleich so unhöflich?

Erstaunlich für mich ist, dass ich kein Tearing habe. UWP scheint die Ausgabe irgendwie zu verändern. Das es stottert deutet für mich darauf hin dass mal eins, zwei Frames übersprungen werden. Denn unter 60 Hz / fps komme ich nicht.

dargo
2016-07-17, 20:10:19
@dargo: Hier wird nach wie vor ein Thread 100% ausgelastet, ein weiterer mit ~66% und der Rest schwankt um die 10-25% herum. Wahrscheinlich ist hier so etwas wie ein Bottleneck vorhanden.
Ist bei mir auch so... könnte in der Tat das Problem sein.

Nein, das stimmt alles nicht...

Weder geht Freesync (Fenstermodus!?) noch GSync in dem Game.
Hast du - Dargo - by the way selber in dem Spku-*sync thread mit mir festgestellt.

hier, ich helf dir mal mit einem Link:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11101947#post11101947

Hast du eigentlich noch irgend einen Überblick was du in deinem Beiträge-Spam so von dir gibst...? Was soll der quatsch... das ist doch alles Bullshit hier.

Das war noch vor dem aktuellen Spielpatch. Hatte das Game mehrere Wochen nicht mehr angerührt. ;) Nun funktioniert Freesync sehr wohl. Deshalb auch mein Hinweis... bitte G-Sync erneut testen.

woodsdog
2016-07-17, 20:11:29
Tearing gits bei Triple Buffer nicht. Nix erstaunliches hier.


Irgendwas muss seit dem von mir verlinkten Post aber tatsächlich passiert sein.
Das ist merklich besser. Regen, irgend eine strecke, PT@50% und bei 40ish FPS sieht das flüssig aus.

:)

dargo
2016-07-17, 20:38:21
@woodsdog ;)
https://youtu.be/ZTpauAV4_V4

Sorry für die miese Aufnahme, meine Kamera kann es nicht besser. Man kann aber das wesentliche erkennen. Nur in der starken Nahaufnahme wirds schwieriger.

Hübie
2016-07-18, 00:42:08
Tearing gits bei Triple Buffer nicht. Nix erstaunliches hier.

Ich hab V-Sync aus. :P

Lurtz
2016-07-18, 09:06:48
Wenn ich bei mir dank Freesync-Range bis 60 Hz den ingame-Limiter auf 60 ohne VSync stelle, habe ich Microruckeln. Kann man die Framerate irgendwie anders cappen?

Allerdings kein Tearing, ich weiß aber nicht ob das an der Frameausgabe oder an funktionierendem Freesync liegt.

dargo
2016-07-18, 11:17:53
Wenn ich bei mir dank Freesync-Range bis 60 Hz den ingame-Limiter auf 60 ohne VSync stelle, habe ich Microruckeln.

Habe ich auch, da hat Turn 10 noch einiges zu tun bezüglich Vsync. Nur Vsync Off ist hier brauchbar.


Kann man die Framerate irgendwie anders cappen?

Geht der treibereigene nicht? Hatte ehrlich gesagt den unter DX12 noch nicht probiert.

Edit:
Gerade probiert, über den Treiber gehts nicht. Da muss noch AMD nachbessern. Die Frage ist bloß... liegts an DX12 oder UWP? Habe hier nichts @DX12 ohne UWP zum Vergleich.


@dargo: Hier wird nach wie vor ein Thread 100% ausgelastet, ein weiterer mit ~66% und der Rest schwankt um die 10-25% herum. Wahrscheinlich ist hier so etwas wie ein Bottleneck vorhanden.
Um das mal zu zeigen.
56744

Bei mir ist es sogar der virtuelle Core vom zweiten Kern der da "blockiert" wird. Ist das nicht eher kontraproduktiv? Keine Ahnung was sich Turn 10 dabei gedacht hat. Vielleicht kann einer der Gurus was dazu sagen.

btw.
Man stelle sich vor alle Threads wären einigermaßen gut ausgelastet. Wie hoch wäre die Framerate in dem Spiel? 300+fps mit einem 3,7Ghz Hassi? :ulol:

Arcanoxer
2016-07-18, 12:25:34
Nanu, noch gar nichts zu den Warhammer Benchmarks gepostet?!

Total War: Warhammer - Test der DirectX-11-Version sowie erste Ergebnisse mit DirectX 12 (http://www.pcgameshardware.de/Total-War-Warhammer-Spiel-55149/Specials/Direct-X-12-Benchmarks-Test-1200551/)

Die 980 Ti wischt ja ganz schön den Boden mit der Konkurrenz auf und AMD ownt sich mit ihren Gaming Evolved Titel selber.
Unterm Strich ist der DX12 Port aber ein recht harter fail.

dargo
2016-07-18, 12:31:33
Guten morgen.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11097866&postcount=3539

Die GTX1080 geht da so richtig ab in DX12 gegenüber der GTX970. ;D

Arcanoxer
2016-07-18, 12:34:41
Guten morgen.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11097866&postcount=3539
Tatsächlich, ist unkommentiert untergegangen.
Gut das es nun zwei mal steht. ;)

Habe es auch erst heute in den news von Leo gesehen.

Die GTX1080 geht da so richtig ab in DX12 gegenüber der GTX970.
Endlich sind wir mal einer Meinung, finde ich auch super das sich die GTX970 noch immer so gut hält.
In DX11 schneller als eine FuryX, da kann man doch nicht meckern!

-/\-CruNcher-/\-
2016-07-18, 12:39:05
Habe ich auch, da hat Turn 10 noch einiges zu tun bezüglich Vsync. Nur Vsync Off ist hier brauchbar.


Geht der treibereigene nicht? Hatte ehrlich gesagt den unter DX12 noch nicht probiert.

Edit:
Gerade probiert, über den Treiber gehts nicht. Da muss noch AMD nachbessern. Die Frage ist bloß... liegts an DX12 oder UWP? Habe hier nichts @DX12 ohne UWP zum Vergleich.


Um das mal zu zeigen.
56744

Bei mir ist es sogar der virtuelle Core vom zweiten Kern der da "blockiert" wird. Ist das nicht eher kontraproduktiv? Keine Ahnung was sich Turn 10 dabei gedacht hat. Vielleicht kann einer der Gurus was dazu sagen.

btw.
Man stelle sich vor alle Threads wären einigermaßen gut ausgelastet. Wie hoch wäre die Framerate in dem Spiel? 300+fps mit einem 3,7Ghz Hassi? :ulol:


Du könntest ja mal mit der Options ausschluss methode versuchen ob du vielleicht einen Verursacher findest oder zumindest den höchsten overhead ;)

Prozedurale Qualität z.b hört sich CPU Intensiv an ;)

dargo
2016-07-18, 12:58:28
Schon alles hinter mir, allerdings nicht mit dem aktuellen Patch. Selbst mit min. Details sind gewisse Zuckler nicht komplett weg. Ich meine aber, wenn ich mit langsamer Geschwindigkeit fahre (zb. max. 100km/h) wirds einiges besser. Möglicherweise muss beim Streaming noch nachgebessert werden.


Endlich sind wir mal einer Meinung, finde ich auch super das sich die GTX970 noch immer so gut hält.

Wir werden nie einer Meinung sein, da kann ich dich beruhigen. Bisher konnte ich nichts Sachliches in diesem Forum von dir lesen.

Undertaker
2016-07-18, 13:17:16
Die GTX1080 geht da so richtig ab in DX12 gegenüber der GTX970. ;D

+20 - 25% im GPU-Limit auf die 980 TI sind für die GTX 1080 durchaus üblich. Bei der GTX 970 habe ich keine üblichen Abstände im Kopf, aber 80% Differenz zu GP104 sind erscheinen jetzt auch nicht vollkommen abwegig.

Das eine RX 480 unter DX 12 noch hinter die GTX 970 fällt, ist aber schon bemerkenswert. Da merkt man halt wieder, dass es wirklich eine größere Bandbreite an LL-Titeln braucht, um aussagekräftige Relationen zu bekommen.

Pirx
2016-07-18, 13:36:59
und vor allem aktuelle Treiber und halbwegs ausgereifte Software

N0Thing
2016-07-18, 13:50:46
Die Bezeichnung Beta für den DX12 Modus von TW:Warhammer ist schon fast schmeichelhaft, Alpha würde es wohl besser treffen, da DX12 bei keinem IHV eine merkliche Verbesserung bringt, sondern meist das Gegenteil. Wird jetzt ja keiner behaupten wollen, dass die DX11 Treiber schon so gut für Warhammer optimiert sind, als dass man mit DX12 keinen Zugewinn im CPU-Limit schaffen sollte. ;)

Ich frage mich, ob das vielleicht typisch für einen nachträglichen DX12-Pfad bei einer (sehr) alten Engine ist.

Undertaker
2016-07-18, 13:55:24
und vor allem aktuelle Treiber und halbwegs ausgereifte Software

Absolut. War es nicht z.B. auch so, dass Nvidias Vulkan-Treiber noch nicht einmal AC unterstützt?

dargo
2016-07-18, 14:12:53
+20 - 25% im GPU-Limit auf die 980 TI sind für die GTX 1080 durchaus üblich. Bei der GTX 970 habe ich keine üblichen Abstände im Kopf, aber 80% Differenz zu GP104 sind erscheinen jetzt auch nicht vollkommen abwegig.

Das eine RX 480 unter DX 12 noch hinter die GTX 970 fällt, ist aber schon bemerkenswert. Da merkt man halt wieder, dass es wirklich eine größere Bandbreite an LL-Titeln braucht, um aussagekräftige Relationen zu bekommen.
Schau dir die Ergebnisse mal genauer an (CPU-Test) und dir wird auffallen, dass der DX12 Patch noch den Alpha bis Betastatus hat. :wink:

Hübie
2016-07-18, 14:13:01
Preisfrage: Natives DX12 mit der "Vision" schon während des Entwicklungsprozesses oder doch wieder nur half baked backend? :| Ich mein mal ehrlich: Seit wann ist eine Fiji-Karte SO lahm? Für mich sieht's hier ständig nach billigen Tr0llversuche beider "Parteien" aus.

Ich hatte mich vor ein paar Monaten mal mit der Frameausgabe von UWP/D3D12 befasst und wenn ich es richtig verstanden habe, dann werden scanout nur dann durchgeführt, wenn ein kompletter Frame dargestellt wurde. Schaltet man v-sync also aus, werden irgendwann im Verlauf einer Sekunde Frames gedropped (denglish ftw!:D). Dadurch stottert es mglw. trotz oder gerade wegen hoher Frameraten. V-sync on habe ich zugegebenermaßen nicht mehr getestet, wegen inputlag...

dargo
2016-07-18, 14:23:41
UWP ist wiederum ne Baustelle für sich, das müsste man schon fast differenziert betrachten.

Undertaker
2016-07-18, 14:25:17
Schau dir die Ergebnisse mal genauer an (CPU-Test) und dir wird auffallen, dass der DX12 Patch noch den Alpha bis Betastatus hat. :wink:

Erinnert an vergleichbare Vulkan-Benches würde ich sagen. ;)

Generell ist das ganze Thema Treiber- und Software-mäßig noch alles alles andere als final. Nicht nur in diesem Fall bei TW...

dargo
2016-07-18, 14:27:08
Erinnert an vergleichbare Vulkan-Benches würde ich sagen. ;)

Sorry, aber jetzt versuchst du selbst zu trollen. Ich hätte von dir eigentlich mehr Erkenntnis im Hinblick auf eine low level API erwartet.

-/\-CruNcher-/\-
2016-07-18, 15:34:13
Preisfrage: Natives DX12 mit der "Vision" schon während des Entwicklungsprozesses oder doch wieder nur half baked backend? :| Ich mein mal ehrlich: Seit wann ist eine Fiji-Karte SO lahm? Für mich sieht's hier ständig nach billigen Tr0llversuche beider "Parteien" aus.

Ich hatte mich vor ein paar Monaten mal mit der Frameausgabe von UWP/D3D12 befasst und wenn ich es richtig verstanden habe, dann werden scanout nur dann durchgeführt, wenn ein kompletter Frame dargestellt wurde. Schaltet man v-sync also aus, werden irgendwann im Verlauf einer Sekunde Frames gedropped (denglish ftw!:D). Dadurch stottert es mglw. trotz oder gerade wegen hoher Frameraten. V-sync on habe ich zugegebenermaßen nicht mehr getestet, wegen inputlag...

E3wTajGZOsA

Hübie
2016-07-18, 16:03:46
Oh sorry, ich meinte in Bezug auf Forza 6 Apex. :redface: Müsste nach dem Schema iflip sein.

dargo
2016-07-18, 22:51:42
@Hübie

Ist dir schon mal in Forza 6: APEX aufgefallen, dass die Replays wesentlich besser laufen? Oder verhält es sich bei NV ganz anders? Ich habe gerade folgenden Test gemacht... in Rio bei Tag mit dem Nissan 370Z eine Runde (Cockpitview) gefahren. Gezählt habe ich 13x kleinen Ruckler (deutlich unter einer Sekunde) 1x großen Ruckler. Die ganze Runde dauerte ca. 3 Minuten. Nach dem Rennen kannst du dir ja das Replay anschauen. Im Replay selbst wieder Cockpitview gewählt und mir das ganze angeschaut. Ich konnte nur noch 3 Miniruckler zählen, fast perfekt. Auch beim Replay steht ein Thread voll auf 100%.

Screemer
2016-07-18, 23:01:56
Wenn da mehrere sagen beteiligt sind, dann liegt vielleicht daran, dass die Kinder nicht mehr berechnet werden muss und somit weniger cpulast entsteht.

Hübie
2016-07-18, 23:03:53
Ja ist bei mir auch. Deshalb kann man es nach dem Rennen irgendwie gar nicht mehr reproduzieren oder nachvollziehen. Mich wundert es jedoch, dass du selbst mit Freesync Ruckler hast. Deutet darauf hin, dass die Present-times und display-times also nicht die Ursache sind.

Man müsste das Spiel nun in eine RAM-DISK schmeißen um dem Streaming wohl entgegenzuwirken, sollte dies die Ursache sein.

dargo
2016-07-18, 23:08:34
Mich wundert es jedoch, dass du selbst mit Freesync Ruckler hast.
Die Spikes werden sicherlich hoch, dafür aber extrem kurz sein. Das kann natürlich kein VRR glätten.


Man müsste das Spiel nun in eine RAM-DISK schmeißen um dem Streaming wohl entgegenzuwirken, sollte dies die Ursache sein.
Wenn selbst reine SSDs nicht reichen haben die Entwickler gepennt. :freak: Und mal ehrlich... ne XB1 hat nur eine lahme HDD. Dennoch reicht es für flüssige 16,66ms.

Lurtz
2016-07-19, 10:10:53
Habe ich auch, da hat Turn 10 noch einiges zu tun bezüglich Vsync. Nur Vsync Off ist hier brauchbar.
VSync off ist wie gesagt auch nicht ugt.

Geht der treibereigene nicht? Hatte ehrlich gesagt den unter DX12 noch nicht probiert.

Edit:
Gerade probiert, über den Treiber gehts nicht. Da muss noch AMD nachbessern. Die Frage ist bloß... liegts an DX12 oder UWP? Habe hier nichts @DX12 ohne UWP zum Vergleich.
Der ging bei mir noch nie unter DX12. Dürfte nicht (nur) an UWP liegen.

Schaffe89
2016-07-19, 12:04:35
Rust lässt sich, wie ich gerade festgestellt habe nun auch mit der Directx12 API unter Windows 10 starten, wäre interessant da mal ein paar Vergleiche mit einer r9 Nano anzustellen, vielleicht komm ich nachher dazu.

inspectah
2016-07-19, 12:10:14
as predicted...
Und was bedeutet das nun?

dargo
2016-07-19, 13:14:24
VSync off ist wie gesagt auch nicht ugt.

Hier schon... ich habe aber auch deutlich mehr Spielraum nach oben mit bis zu 144Hz.

Hübie
2016-07-19, 14:13:41
Rust lässt sich, wie ich gerade festgestellt habe nun auch mit der Directx12 API unter Windows 10 starten, wäre interessant da mal ein paar Vergleiche mit einer r9 Nano anzustellen, vielleicht komm ich nachher dazu.

Na wenns denn läuft. Was ich lesen durfte war nicht schön. Aber okay ist wohl noch Beta *Alpha*Hust* :freak:

Iruwen
2016-07-20, 11:15:08
Statement von Futuremark: http://www.futuremark.com/pressreleases/a-closer-look-at-asynchronous-compute-in-3dmark-time-spy
"Diskussion": http://steamcommunity.com/app/223850/discussions/0/359543951706921455/

Rancor
2016-07-20, 11:47:37
Statement von Futuremark: http://www.futuremark.com/pressreleases/a-closer-look-at-asynchronous-compute-in-3dmark-time-spy
"Diskussion": http://steamcommunity.com/app/223850/discussions/0/359543951706921455/

Und was heisst das jetzt. Das ist mir zu hoch ^^

Achill
2016-07-20, 12:01:14
Und was heisst das jetzt. Das ist mir zu hoch ^^

Es wird AC verwendet, aber nur eine kleine Dose. Die Begründung ist, dass man ein neutralen Benchmark erstellt hat und nicht optimierte Pfade für einen/die IHVs.

Das Problem ist, dass die AMD-Hardware ohne weiteres mit mehr AC klar kommt (und Profitiert - Annahme) und auf der anderen Seite (Annahme), dass NV GPUs mit mehr AC deutlich schlechter klar kommen (da Preamtion nicht mehr gut greift und viele Context-Switches Leistung kosten).

Nimmt man dies zusammen, so ist je nach Blickwinkel alles ok (NV Lager) oder optimiert für NV (AMD Lager).


Ob jetzt 3DMark biased ist, dass muss jeder für sich aus machen ...

-/\-CruNcher-/\-
2016-07-20, 12:15:54
For benchmarks to be relevant and useful tools, they must be fair, impartial, and unbiased. This is why 3DMark Time Spy, and all other Futuremark benchmarks, are developed with industry-leading hardware and software partners through our Benchmark Development Program using a process that's been government vetted for fairness and neutrality. This process ensures that our benchmarks are accurate, relevant, and impartial.

Dieser Absatz beschreibt es am Besten auch wenn man wie oben geteilter Meinung dazu sein kann, im Vergleich zu Tessellation sieht die Lage und implikationen hier deutlich anders aus.

Achill
2016-07-20, 12:44:17
Dieser Absatz beschreibt es am Besten auch wenn man wie oben geteilter Meinung dazu sein kann

Laut http://www.futuremark.com/pressreleases/a-closer-look-at-asynchronous-compute-in-3dmark-time-spy könnten alle oder ein Teil davon async Berechnet werden: Particle simulation, Light culling and tiling, Environment reflections, Horizon based ambient occlusion, Unshadowed surface illumination

Das Bild von FurtureMark spricht dann aber auch Bände (oder es ist ein sehr schlecht gewählter Ausschnitt).

http://www.futuremark.com/static/images/news/time-spy-async-queue.jpg

Man erkennt hier die Abhänigkeiten von wenigen verschiedenen Operationen untereinander in der Render- und Compute-Queue. Je höher die Abhängikeiten sind und je mehr Synchronisationspunkte exitieren, desto geringer ist die Asynchronität.

"Execute_Particles_Simulation_Commands" kann async zu "Execute_gbuffer_Commands" ausgeführt werden (laut Grafik) genauso wie “Execute_Async_Illumination_Commands” zu "Execute_Shadow_Map_Commands”. Da es jedoch Abhängigkeiten von zwischen den Operationen der Queues gibt, muss man dafür sorge tragen, dass diese sich nicht gegenseitig Ausbremsen da ansonsten der Effekt der Async (Verwendung von freien Ressourcen) verpufft.

Des weiteren gibt es (zumindest laut diesem Diagramm) nicht den Fall, dass 2 oder mehr Operationen asynchrone und parallel zu einander in der Compute-Queue ablaufen. Solch ein Scenario wäre für einen SW-Scheduler deutlich schwerer in eine Sequence von optimal Operationen zu bringen (Optimierungsproblem der klassischen Informatik/Mathematik) - bei möglichst geringer Rechenzeit (wir können ja nicht beliebig lang nach einer optimalen Sequenz suchen).

iuno
2016-07-20, 13:24:54
Naja, war ja eigentlich schon bekannt. Ich finde es trotzdem noch ziemlich laecherlich. Sollen sie doch regen Gebrauch davon machen. Die API unterstuetzt es, ein Hardware vendor unterstuetzt es besser und der andere laut eigenen Aussagen (!) mit der neuen Architektur auch.
Dafuer koennen sie meinetwegen auch Gebrauch von CV machen und das auf AMD in Software implementieren.
So ein Benchmark soll imho zeigen, was technisch Moeglich ist und was es kosten kann. Als Tesselation neu war hat man darauf in Benchmarks auch nicht verzichtet weil der eine Vendor es besser konnte als der andere :facepalm: Das kann man doch nicht mehr ernst nehmen

Screemer
2016-07-20, 14:16:36
Wenn da mehrere Wagen(sagen) beteiligt sind, dann liegt vielleicht daran, dass die KI (Kinder) nicht mehr berechnet werden muss und somit weniger cpulast entsteht.
Ohhh mann. Autokorrektur vom feinsten.

@iuno: das würde ich so unterschreiben. Für mich ist der Bench biasd. Die stärken eines ihvs zu nicht zu nutzen um die Schwächen des anderen nicht zu zeigen, dass war für futuremark früher auch kein Problem. Da wurde lieber richtig auf die kacke gehauen als an verfügbaren Optionen zu sparen. Das hat für mich ein ordentliches gschmäckle. Wegen mir nutzen die auch cv und rovs und suchen ne Möglichkeit das bei amd in Software umzusetzen. Wenn das dann kacke läuft, dann ist das halt so.

deekey777
2016-07-20, 14:56:13
Naja, war ja eigentlich schon bekannt. Ich finde es trotzdem noch ziemlich laecherlich. Sollen sie doch regen Gebrauch davon machen. Die API unterstuetzt es, ein Hardware vendor unterstuetzt es besser und der andere laut eigenen Aussagen (!) mit der neuen Architektur auch.
Dafuer koennen sie meinetwegen auch Gebrauch von CV machen und das auf AMD in Software implementieren.
So ein Benchmark soll imho zeigen, was technisch Moeglich ist und was es kosten kann. Als Tesselation neu war hat man darauf in Benchmarks auch nicht verzichtet weil der eine Vendor es besser konnte als der andere :facepalm: Das kann man doch nicht mehr ernst nehmen

Du kapierst gar nichts! 3D Mark ist ein Gamer's Benchmark, mit dem man Leistung einer Grafikkarte bzw. eines PC-Systems pauschal für viele Spiele messen kann, auch wenn keines der Spiele auf der Engine von Futuremark basiert (das Mondspiel interessiert keinen). Also darf AC nur wenig eingesetzt werden, weil man sonst den einen IHV bevorteilen würde, dessen Hardware in realen Spielen aber deutlich bessere Leistung zeigt, je mehr die Entwickler auf AC setzen. Alles klar?

Der heftige Einsatz der Tessellation in Benchmarks wurde aber durchgehend kritisiert und von den Besitzer einer Geforce kräftig verteidigt. Das Problem damals war, dass die Tessellation in Spielen wie Lost Planet 3 ohne Sinn und Verstand eingesetzt wurde, während in Crysis 2 die Tessellation recht angenehm war (die Sache mit dem Ozeanwasser ist noch im Kopf). Egal, wie man es macht, man macht es falsch.

For benchmarks to be relevant and useful tools, they must be fair, impartial, and unbiased. This is why 3DMark Time Spy, and all other Futuremark benchmarks, are developed with industry-leading hardware and software partners through our Benchmark Development Program using a process that's been government vetted for fairness and neutrality. This process ensures that our benchmarks are accurate, relevant, and impartial.

Wie war das mit dem Umstieg von Havok auf PhysX und der Auslagerung der PhysX-Berechnungen auf die Beschleuniger-Karte bzw. die grünen GPUs?

DarknessFalls
2016-07-20, 15:37:40
Wie war das mit dem Umstieg von Havok auf PhysX und der Auslagerung der PhysX-Berechnungen auf die Beschleuniger-Karte bzw. die grünen GPUs?

Du vergleichst ernsthaft einen Teil von Vulkan / DX12 mit einer proprietären Schnittstelle?

Edit: Und Tesselation in Crysis 2 angenehm? Ich geb Dir ein Stichwort: Flood Barriers.

dargo
2016-07-20, 15:45:11
Er hat paar Sarkasmus-Smileys vergessen. Sein Wohnort ist hier Programm. ;)

DarknessFalls
2016-07-20, 15:47:01
Er hat paar Sarkasmus-Smileys vergessen. Sein Wohnort ist hier Programm. ;)

Ah. My bad. Die Hitze. :D

deekey777
2016-07-20, 16:15:39
Du vergleichst ernsthaft einen Teil von Vulkan / DX12 mit einer proprietären Schnittstelle?

Soll ich für dich den zitierten Absatz übersetzen?
Es geht um die beanspruchte Neutralität in 3DMark 2013, die im Widerspruch zu 3DMark 2006 steht.

DarknessFalls
2016-07-20, 16:16:38
Alles gut, ich hatte die Ironie-Tags übersehen. ;)

Pappenheimer
2016-07-20, 16:18:57
finde ich auch amüsant das futuremark so schön rücksicht auf die kleine firma nvidia nimmt mit ihrem benchmark und für neutralität sorgt.

Rancor
2016-07-20, 16:28:43
Ich denke man kann festhalten das auch Pascal AC nicht vollständig unterstützt. Bei AC lastigen Games wird AMD die Nase vorn haben und mit VEGA könnte das wirklich zum Problem für NV werden, das ist glaube ich schon absehbar und da braucht man sich auch nichts vor machen.

Die Frage ist einfach wie heftig AC in Zukunft ( also Mitte/Ende 2017 / Anfang 2018 in nativen DX 12/Vulkan Games ) genutzt wird.

Unspielbar werden die Games auf NV Karten aber wohl kaum werden, nur eben signifikant langsamer.

just4FunTA
2016-07-20, 16:41:13
Soll ich für dich den zitierten Absatz übersetzen?
Es geht um die beanspruchte Neutralität in 3DMark 2013, die im Widerspruch zu 3DMark 2006 steht.

Neutralität würde aber bedeuten das man unabhängig von NV und AMD hingeht und eine Engine Programmiert die DX12 voll nutzt und testet und da AC nunmal ein Teil von dx12 ist gehört das auch getestet.

Im Moment sieht es ja aus das ac auf nv und amd Karten gleichermaßen viel bringt. Wenn das stimmt toll, wenn das aber nicht stimmt dann sollte das aus dem Benchmark auch ersichtlich sein sonst ist der Benchmark doch völlig nutzlos. Ich würde sogar noch einen Schritt weiter gehen und es Betrug am Kunden nennen. Wozu habe ich mir ein Benchmark gekauft wenn ich damit genau solche Sachen nicht benchen kann.

fondness
2016-07-20, 16:48:26
Ich denke man kann festhalten das auch Pascal AC nicht vollständig unterstützt. Bei AC lastigen Games wird AMD die Nase vorn haben und mit VEGA könnte das wirklich zum Problem für NV werden, das ist glaube ich schon absehbar und da braucht man sich auch nichts vor machen.

Die Frage ist einfach wie heftig AC in Zukunft ( also Mitte/Ende 2017 / Anfang 2018 in nativen DX 12/Vulkan Games ) genutzt wird.

Unspielbar werden die Games auf NV Karten aber wohl kaum werden, nur eben signifikant langsamer.

Auch schon egal, die Leute werden trotzdem wie immer Nvidia kaufen und sich dann wiedermal wundern, warum die Preise steigen^^
Nachher wird dann wieder die Erkenntnis kommen, dass man mit einer AMD-Karte wesentlich zukunftssicherer investiert hätte.

just4FunTA
2016-07-20, 16:55:29
Auch schon egal, die Leute werden trotzdem wie immer Nvidia kaufen und sich dann wiedermal wundern, warum die Preise steigen^^
Nachher wird dann wieder die Erkenntnis kommen, dass man mit einer AMD-Karte wesentlich zukunftssicherer investiert hätte.

wenn du eine Highendkarte kaufen willst hast du doch garkeine Wahl, da gibt es von AMD aktuell nichts. Du kannst entweder eine gtx1080 kaufen oder nichts..

dreas
2016-07-20, 16:57:37
ac interessiert real keine sau. es gibt bisher ein mittelmäßiges spiel, wo die frames geringfügig schlechter sind. das ist ein paperfeature wie t&l damals. kann man erbenchen spielte aber real keine rolle.

Rancor
2016-07-20, 16:59:17
Auch schon egal, die Leute werden trotzdem wie immer Nvidia kaufen und sich dann wiedermal wundern, warum die Preise steigen^^
Nachher wird dann wieder die Erkenntnis kommen, dass man mit einer AMD-Karte wesentlich zukunftssicherer investiert hätte.

Das Problem bei AMD ist einfach, das sie momentan darauf angewiesen sind das AC unter Vulkan und DX 12 massiv eingesetzt wird, ansonsten sehen sie halt kein Land gegen Nvidia. Von älteren Titeln mal ganz zu schweigen. Die DX 11.1 Performance von Nvidia ist wirklich extrem gut.

Es kommt jetzt wirklich darauf, an wie die Spiele umgesetzt werden. Da die Konsolen aber auch auf GCN Technik basieren, sieht es für AMD gar nicht so schlecht aus und NV könnte wirklich ernsthaft in Bedrängnis kommen.
Man darf gespannt sein.

StefanV
2016-07-20, 17:13:18
ac interessiert real keine sau
DAS ist schlicht gelogen.

Korrekt ist, dass das nur ide nV Nutzer nicht interessiert, da das schlicht nicht in Hardware implementiert ist.

Auf AMD GPUs im PC sowie auf Konsolen interessiert es sehr wohl, da es dort einiges an Performance bringt.

Screemer
2016-07-20, 17:19:53
ac interessiert real keine sau. es gibt bisher ein mittelmäßiges spiel, wo die frames geringfügig schlechter sind. das ist ein paperfeature wie t&l damals. kann man erbenchen spielte aber real keine rolle.
ziemlich gewagte aussage. wenn die großen engine leads über dx12/vulkan spreche, dann ist es das thema. rovs, cv oder auch shader instrincts sind eher nebenbei erwähnt. die ersten beiden nutzt z.b. derzeit wirklich keine mensch. wird sich aber sicherlich auch ändern.

Linmoum
2016-07-20, 17:20:18
ac interessiert real keine sau. es gibt bisher ein mittelmäßiges spiel, wo die frames geringfügig schlechter sind. das ist ein paperfeature wie t&l damals. kann man erbenchen spielte aber real keine rolle.
Na wenn du meinst, das AC niemanden interessiert und es unter DX12 keine Rolle spielt bzw. keine Rolle spielen wird, dann lasse ich dich mal in diesem Glauben. :)

Dural
2016-07-20, 17:25:23
AMD-Grafikkarten gewinnen bei der Leistung mit AC nicht so stark wie in den bisherigen DirectX-12- und Vulkan-Spielen, weil Futuremark laut eigenen Aussagen auf spezielle Architekturoptimierungen sowohl bei AMD als auch Nvidia verzichtet habe. Es ging also nicht darum, so viel zu parallelisieren, dass selbst ein unausgewogener Fiji optimal ausgelastet wird. Durch den Verzicht auf Optimierungen wolle man die Unabhängigkeit wahren.

http://www.pcgameshardware.de/DirectX-12-Software-255525/News/3DMark-Time-Spy-Asynchronous-Compute-Kritik-1201886/


Heist mit anderen Worten, GCN läuft ohne Optimirungen auch auf DX12 / Vulkan nicht so rund wie NV.

Linmoum
2016-07-20, 17:39:13
Na dann nehmen die Reviewer jetzt hoffentlich auch keine Spiele mehr in ihre Benchmark-Parcours auf, wo der Abstand zwischen AMD und Nvidia zugunsten des einen bzw. anderen gewaltig(er) ist. Muss ja schließlich fair und vergleichbar für beide sein... ;D

Sorry, aber die ganzen Statements von Futuremark lassen den Benchmark noch weniger ernst nehmen. Oder fangen in Zukunft die Entwickler jetzt auch damit an, AC womöglich auch bei AMD einzubremsen bzw. nicht freizuschalten, weil es sonst unfair gegenüber der Konkurrenz wäre?

Das gehört genauso dazu wie beispielsweise Tesselation. Ganz oder gar nicht, alles andere ist Schwachsinn.

Nightspider
2016-07-20, 17:44:35
ac interessiert real keine sau

An dir ist wohl vorbei gegangen wie viele Entwickler schon seit Jahren von AC schwärmen oder? :rolleyes:


Heist mit anderen Worten, GCN läuft ohne Optimirungen auch auf DX12 / Vulkan nicht so rund wie NV.

https://media.giphy.com/media/LPbANJio8EZ3i/giphy.gif

Ist ja logisch das GCN seine Vorteile nicht ausspielen kann wenn die Hardware-Features nicht oder kaum genutzt werden. Hat aber lange gedauert bist du das verstanden hast.

Achill
2016-07-20, 17:56:18
AMD-Grafikkarten gewinnen bei der Leistung mit AC nicht so stark wie in den bisherigen DirectX-12- und Vulkan-Spielen, weil Futuremark laut eigenen Aussagen auf spezielle Architekturoptimierungen sowohl bei AMD als auch Nvidia verzichtet habe. Es ging also nicht darum, so viel zu parallelisieren, dass selbst ein unausgewogener Fiji optimal ausgelastet wird. Durch den Verzicht auf Optimierungen wolle man die Unabhängigkeit wahren.


Heist mit anderen Worten, GCN läuft ohne Optimirungen auch auf DX12 / Vulkan nicht so rund wie NV.


Nop, die Implikation müsste PCGH erst einmal zeigen. Die Kontraposition lautet anders als von dir formuliert und es gilt immer: Ex falso quodlibet (aus Falschem folgt Beliebiges)

iuno
2016-07-20, 18:24:59
ac interessiert real keine sau. es gibt bisher ein mittelmäßiges spiel, wo die frames geringfügig schlechter sind. das ist ein paperfeature wie t&l damals. kann man erbenchen spielte aber real keine rolle.
Ersetze "AC" durch "DX12" und die Aussage ist noch genauso "richtig". Finde den Zusammenhang :rolleyes:
DOOM hast du wohl auch verpasst?


Heist mit anderen Worten, GCN läuft ohne Optimirungen auch auf DX12 / Vulkan nicht so rund wie NV.
Ist doch purer Unsinn. Man verwendet einfach die Moeglichkeiten, die man in den Rahmenbedingungen mit den neuen APIs zur Verfuegung hat. Wie gesagt - man kann evtl. auch etwas eleganter loesen wegen AC. Das hat mit Optimieren auf eine Architektur rein gar nichts zu tun.
Zumal es Pascal nichts kostet. Wenn NV context switches quasi in "0 Zeit" macht kann man so viel AC machen wie man will. Zumindest gilt das, wenn man den Aussagen Glauben schenken darf - und wenn sie gelogen sind ist das nicht unser Problem.
Parallele Programmierung, Verzweigung und Synchronisation ist ein voellig alter Hut. Heute kann man alles multithreaded machen, alle anstaendigen Prozessoren unterstuetzen multithreading. Man schreibt auch keinen x86 Benchmark der genau 8 Threads nutzt, nur um Intel nicht zu bevorteilen weil sie CPUs haben, die mehr als 8 Threads abarbeiten koennen :facepalm:

Hübie
2016-07-20, 22:05:55
Also DX12 regelt da ja nicht wie viele Queues abgearbeitet werden müssen oder wie tief diese mindestens zu sein haben geschweige denn wie es in Hardware gelöst sein muss. Futuremark hat vielleicht keinen exzessiven Einsatz genommen, weil es vielleicht nicht nötig war. Wer weiß...

Iruwen
2016-07-20, 22:12:58
Die Low-Level Optimierung für unterschiedliche IHVs muss auch erstmal gemacht werden, und auch wenn Parallelisierung theoretisch ein "alter Hut" ist muss man es erstmal richtig machen. AMD sagt nicht umsonst, dass man im Zweifelsfall einfach DX11 benutzen soll.
Und Doom ist nicht (nur) wegen AC so deutlich schneller. Mein letzter Stand ist, dass sowohl das auch als Shader Intrinsics für NV noch gar nicht aktiviert ist. Die Optimierungen die früher der IHV im Treiber gemacht hat muss jetzt der Spieleentwickler vornehmen.

/e: mal ganz davon abgesehen, dass Vulkan mit DX12 nüscht zu tun hat und das OT ist.

dargo
2016-07-20, 22:23:00
Womit konnte man Frametimes noch unter DX12 messen? Da gabs afaik mal ein Tool, ich habe den Namen vergessen.

blaidd
2016-07-20, 22:27:49
Womit konnte man Frametimes noch unter DX12 messen? Da gabs afaik mal ein Tool, ich habe den Namen vergessen.

perfmon. presentmon64. - Sorry, langer Arbeitstag heute...

Ist aber eine ganz schöne Arbeit - ich mach damit grad Doom-Benchmarks (OGL + Vulkan), und bekomme pro Grafikkarte ungefähr 2-3 MiByte Datenmüll zum Auswerten.

Das Teil zeigt aber praktischerweise auch an, wenn die Bildausgabe synchronisiert wird, Frames fallengelassen werden etc. Was btw. bei Nvidia unter Vulkan momentan der Fall ist (Vergleichbar mit UWP-Apps. Und das wiederum ist natürlich ein zusätzliches und total tolles Plus an Arbeit... :ugly:)

Foobar2001
2016-07-20, 22:31:56
Die Low-Level Optimierung für unterschiedliche IHVs muss auch erstmal gemacht werden, und auch wenn Parallelisierung theoretisch ein "alter Hut" ist muss man es erstmal richtig machen. AMD sagt nicht umsonst, dass man im Zweifelsfall einfach DX11 benutzen soll.
Und Doom ist nicht (nur) wegen AC so deutlich schneller. Mein letzter Stand ist, dass sowohl das auch als Shader Intrinsics für NV noch gar nicht aktiviert ist. Die Optimierungen die früher der IHV im Treiber gemacht hat muss jetzt der Spieleentwickler vornehmen.

/e: mal ganz davon abgesehen, dass Vulkan mit DX12 nüscht zu tun hat und das OT ist.
NVIDIA hat keine Shader Intrinsics.

blaidd
2016-07-20, 22:32:46
NVIDIA hat keine Shader Intrinsics.

Dafür aber Triple Buffering - Hurray!

Foobar2001
2016-07-20, 22:36:03
Meine letzte Information war, dass NVIDIA an der Bildausgabe arbeitet. Kinderkrankheiten.

dargo
2016-07-20, 22:36:13
perfmon.

Hast mal einen Link damit ich mir das anschauen kann?

blaidd
2016-07-20, 23:19:03
Hier ist ein Artikel dazu:
http://www.howtogeek.com/256108/how-to-monitor-your-fps-in-uwp-games-on-windows-10/
(http://www.howtogeek.com/256108/how-to-monitor-your-fps-in-uwp-games-on-windows-10/)

Das Ding muss höchstwahrscheinlich noch kompiliert werden. Ich kann dir aber Morgen gern mal einen Download-Link mit der aktuellen Version einrichten. Heut pack ich das nervlich nicht mehr, sorry - war beinahe eine Doppelschicht ;)

Hübie
2016-07-21, 00:08:40
Dann genieße mal deinen Feierabend. :smile: Ich hab mir ein kleines Skript geschrieben wo du nur noch "pm xxxx" eingeben musst (xxxx ist die PID) und auch für den Import in Excel. Das mit Punkt und Komma ist z.B. nervig.
Für jemanden wie dich sind so kleine Dinge sicher hilfreich, da du ja sicher 50 Benchmarks am Tag machst. Stell ich hier gern inklusive exe Datei hier rein. Aber ebenfalls nicht mehr heute. :D

dargo
2016-07-21, 08:36:00
Hier ist ein Artikel dazu:
http://www.howtogeek.com/256108/how-to-monitor-your-fps-in-uwp-games-on-windows-10/
(http://www.howtogeek.com/256108/how-to-monitor-your-fps-in-uwp-games-on-windows-10/)

Das Ding muss höchstwahrscheinlich noch kompiliert werden. Ich kann dir aber Morgen gern mal einen Download-Link mit der aktuellen Version einrichten. Heut pack ich das nervlich nicht mehr, sorry - war beinahe eine Doppelschicht ;)
Kein Stress bei dem Wetter. :) Danke schon mal im voraus.

PS: deswegen habe ich nichts gefunden, ich hatte nach perfmon gesucht. :freak:

fondness
2016-07-21, 10:43:59
Und Doom ist nicht (nur) wegen AC so deutlich schneller. Mein letzter Stand ist, dass sowohl das auch als Shader Intrinsics für NV noch gar nicht aktiviert ist. Die Optimierungen die früher der IHV im Treiber gemacht hat muss jetzt der Spieleentwickler vornehmen.


Kleiner Tipp: Shader Intrinsics muss die Hardware auch unterstützen.

NV hat ihre Hardware in den vergangenen Jahren mehr und mehr DX11 angepasst, man hat wohl sehr vieles raus geworfen/nicht beachtet, was unter DX11 nicht verwendbar war. AMD ist den umgekehrten Weg gegangen und hat eine API für ihre Hardware entworfen und durchgesetzt.

Foobar2001
2016-07-21, 10:59:14
Kleiner Tipp: Shader Intrinsics muss die Hardware auch unterstützen.
Das ergibt keinen Sinn. Intrinsics sind einfach ein direkter Zugriff auf die Befehle der jeweilige Architektur. Auch NVIDIA koennte bestimmte Sachen als Intrinsic-Extension bringen, zum Beispiel 24-Bit-Integer.

fondness
2016-07-21, 11:04:29
Das ergibt keinen Sinn. Intrinsics sind einfach ein direkter Zugriff auf die Befehle der jeweilige Architektur. Auch NVIDIA koennte bestimmte Sachen als Intrinsic-Extension bringen, zum Beispiel 24-Bit-Integer.

Was ergibt keinen Sinn? Genau das meine ich ja, NV wird kaum die Intrinsic functions von AMD können. Bzw. muss man auch erstmal sehen was die NV Architektur erlaubt, das über die API-Fähigkeiten hinaus geht oder ob sie überhaupt solche Intrinsic-Extensions zur Verfügung stellen. Bis jetzt hat man da von NV AFAIK noch gar nichts gehört, bzw. waren sie immer sehr verschlossen wenn es um Architektur-Details ging.

Foobar2001
2016-07-21, 11:07:04
Es stimmt trotzdem nicht was du schreibst, nicht die Hardware muss es unterstuetzen, sondern der Treiber. Im Prinzip koennte man jede einzelnen Befehl als Intrinsics anbieten. Egal welcher Chip.

fondness
2016-07-21, 11:07:45
Es stimmt trotzdem nicht was du schreibst, nicht die Hardware muss es unterstuetzen, sondern der Treiber.

Der Treiber kann nichts unterstützen was die HW nicht kann, so what? (außer er emuliert es in SW, was extrem langsam wären)

/Edit:

Im Prinzip koennte man jede einzelnen Befehl als Intrinsics anbieten. Egal welcher Chip.

Naja, das sollte ja auch einen Sinn haben, im Sinne von Spezialbefehle die deutlich schneller ablaufen bzw. gewisse Sachen in HW bündeln können, sonst kann man es sich auch gleich sparen.

y33H@
2016-07-21, 11:14:47
Das Ding muss höchstwahrscheinlich noch kompiliert werden. Ich kann dir aber Morgen gern mal einen Download-Link mit der aktuellen Version einrichten. Heut pack ich das nervlich nicht mehr, sorry - war beinahe eine Doppelschicht.Mittlerweile kann man auch mit Delay eine Messungen über einen bestimmen Zeitraum starten. Immer noch bissi frickelig, aber ein gutes Werkzeug =)

dargo
2016-07-21, 11:19:24
Link please... :usad:

Foobar2001
2016-07-21, 11:22:19
Der Treiber kann nichts unterstützen was die HW nicht kann, so what? (außer er emuliert es in SW, was extrem langsam wären)

/Edit:


Naja, das sollte ja auch einen Sinn haben, im Sinne von Spezialbefehle die deutlich schneller ablaufen bzw. gewisse Sachen in HW bündeln können, sonst kann man es sich auch gleich sparen.
Du verstehst es immer noch nicht. Intrinsics sind IMMER HW spezifisch, was soll da "emuliert" werden müssen? Es sind andere Befehle auf GCN als auf Pascal, genauso wie ARM Neon und x86 AVX unterschiedliche Intrinsics haben.

fondness
2016-07-21, 11:26:19
Du verstehst es immer noch nicht. Intrinsics sind IMMER HW spezifisch, was soll da "emuliert" werden müssen? Es sind andere Befehle auf GCN als auf Pascal, genauso wie ARM Neon und x86 AVX unterschiedliche Intrinsics haben.

Du musst nicht bei jedem Beitrag schreiben ich verstehe es nicht. Ich verstehe sehrwohl was du sagst, nur du scheinst nicht verstehen zu wollen, was ich sage.

Das Intrinsics HW-spezifisch sind schreibe ich seit drei Beiträgen. Deshalb wird NV auch nicht die Intrinsics von AMD unterstützen können, wenn man sie nicht umständlich emulieren will.

Und ob und was Pascal für Intrinsics erlaubt, die auch eine entsprechenden performace boost bringen können, gilt es erstmal abzuwarten. Intrinsic extensions anzubieten, die ohnehin auch unter DX12/Vulkan zur Verfügung stehen, macht ja wenig Sinn.

iuno
2016-07-21, 11:31:39
Link please... :usad:
immer noch https://github.com/GameTechDev/PresentMon
command line options stehen ganz unten in der readme.

-scroll_toggle: only record events while scroll lock is enabled.
Das scheint doch ganz nuetzlich, die "Rollen"-Taste braucht doch sonst eh keiner ;p

Rancor
2016-07-21, 11:33:21
Naja es ist doch klar das bei LL Apis auf die entsprechende Architektur Rücksicht genommen werden muss oder nicht? Schließlich sind GCN und Pascal sehr unterschiedlich.

Um zu bewerten wie schlecht Nvidia denn nun wirklich unter LL APIs ist, müsste man erstmal wissen wie sehr zB. DOOM und Hitman auf AMD Hardware optimiert ist?

Oder es müsste mal ein Renderpfad geben der auf Nvidia LL optimiert ist. Dann wäre es interessant zu sehen wie sich AMD schlägt. Dann kann man auch bewerten, wieviel besser AMD sein wird.

dargo
2016-07-21, 11:38:06
immer noch https://github.com/GameTechDev/PresentMon
command line options stehen ganz unten in der readme.

Ich meine Delay. Sorry, bin mit den neuen Tools noch nicht so vertraut.

Naja es ist doch klar das bei LL Apis auf die entsprechende Architektur Rücksicht genommen werden muss oder nicht? Schließlich sind GCN und Pascal sehr unterschiedlich.

Um es mal einfacher auszudrücken. Kepler/Maxwell/Pascal sind sehr gute Designs für high level. GCN für low level. Wo nichts mehr zu holen ist ist eben nichts mehr zu holen. Einzige Ausnahme Doom... wenn die Frameausgabe gefixt ist sollten die NVs etwas schneller werden.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11108835&postcount=1606

iuno
2016-07-21, 11:43:24
Ich meine Delay. Sorry, bin mit den neuen Tools noch nicht so vertraut.
Steht genau auch dort drin
-delay [seconds]: wait before starting to consume events.
Also einfach z.B.
-delay 120
anhaengen, dann startet die Messung nach 2 Minuten

dargo
2016-07-21, 11:44:48
Oh man... ich dachte Delay wäre ein anderes Programm. X-D

Iruwen
2016-07-21, 13:04:50
Kepler/Maxwell/Pascal sind sehr gute Designs für high level. GCN für low level. Wo nichts mehr zu holen ist ist eben nichts mehr zu holen.

Das ist eine elegante Formulierung dafür, dass man bei GCN Verrenkungen machen muss um die Rohleistung der Hardware auf die Straße zu bekommen.

Rancor
2016-07-21, 13:15:23
Ich meine Delay. Sorry, bin mit den neuen Tools noch nicht so vertraut.


Um es mal einfacher auszudrücken. Kepler/Maxwell/Pascal sind sehr gute Designs für high level. GCN für low level. Wo nichts mehr zu holen ist ist eben nichts mehr zu holen. Einzige Ausnahme Doom... wenn die Frameausgabe gefixt ist sollten die NVs etwas schneller werden.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11108835&postcount=1606

Und was bleibt dann neben Hitman und Quantum Break noch übrig, wo Nvidia im Vergleich zu AMD signifikant schlechter ist? Du vergisst auch das AC für Pascal Karten in dem Vulkan Treiber noch gar nicht aktiviert ist.

Ich verstehe ehrlich gesagt nicht wie du auf deine Prognose kommst, das es in Zukunft nur AC lastige LL Spiele geben wird, wo Nvida abkackt?

Bis jetzt ist da nicht viel von zu sehen und es ist auf Grundlage der zur Verfügung stehenden Informationen äußerst schwer zu sagen, wie sich diese Generation schlagen wird.
Es sind höchstens Tendenzen zu erkennen ja und in diesen steht AMD besser da, aber mehr ist da auch nicht zu sehen.

Man sollte noch 3 - 4 Monate abwarten um da wirklich urteilen zu können.

Iruwen
2016-07-21, 13:46:57
Von "abkacken" kann wohl eh nicht die Rede sein. Zumindest nicht aufgrund von AC.
http://wccftech.com/async-compute-boosted-hitmans-performance-510-amd-cards-devs-super-hard-tune/

Locuza
2016-07-21, 14:15:23
[...]
NV hat ihre Hardware in den vergangenen Jahren mehr und mehr DX11 angepasst, man hat wohl sehr vieles raus geworfen/nicht beachtet, was unter DX11 nicht verwendbar war. AMD ist den umgekehrten Weg gegangen und hat eine API für ihre Hardware entworfen und durchgesetzt.
Ich wäre überrascht, wenn du bezüglich deiner Behauptung etwas handfestes auf der Kralle hättest.