PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : DirectX 12 Grafik-API


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15 16 17 18 19 20 21 22 23 24 25

illidan
2016-05-13, 18:15:25
UWP wurde schon gepatcht. Bei mir läuft es einwandfrei in 4k. Macht Laune und geht wie Butter.
Du hast doch kein Gsync?
Mit ungelockter/dynamischer Framerate ist jedenfalls immer noch kein Vsync off bei dem Spiel möglich. Das betrachte ich ohne funktionierendes A-Sync schon mal als schweren Makel.
Ist aber wie gesagt ja nicht die Schuld von DX12. Womöglich ginge es jetzt auch schon mit UWP besser, Turn 10 haben es aber noch nicht hinbekommen.

Tomb Raider läuft übrigens mit DX12 auf AMD & Nvidia perfekt, wenn man von den minimal niedrigeren avg-fps absieht (und von AMD Treiberfehlern ab Crimson 16.4.2).

dargo denkt schon wieder, FreeSync wär genau so gut wie Gsync. Dass Ersteres überhaupt keinen borderless windowed Modus unterstützt, hat er wohl schon wieder verdrängt. :D

dargo
2016-05-13, 18:26:18
dargo denkt schon wieder, FreeSync wär genau so gut wie Gsync. Dass Ersteres überhaupt keinen borderless windowed Modus unterstützt, hat er wohl schon wieder verdrängt. :D
Und wie kommst du jetzt darauf? Irgendwas muss Microsoft bei UWP anders machen wenn ich eine variable Refreshrate trotz borderless am Bildschirm habe. Das Problem dabei ist nur das üble Mikroruckeln.

illidan
2016-05-13, 18:27:04
Funktioniert FreeSync denn mit Tomb Raider DX12 Steam?

FreeSync unterstützt kein borderless window:
https://community.amd.com/thread/198164

Gsync schon:
http://www.geforce.com/whats-new/articles/g-sync-gets-even-better

Da Vollbild bei DX12 technisch wohl eher borderless windowed ist, kann FreeSync ohne Support von AMD dafür gar nicht funktionieren, soweit ich das gerade beurteilen kann.
Die Verantwortung dafür liegt klar bei AMD.

dargo
2016-05-13, 18:44:16
Lies einfach mein Edit. Hast du überhaupt einen Freesync Bildschirm oder spekulierst du gerade nur?

Isen
2016-05-13, 19:12:28
Hm.... irgendwie läuft Forza Apex nicht mehr auf NV GPU... kommt Fehlermeldung das kein DX12 unterstützt wird. Weiß einer mehr?

illidan
2016-05-13, 19:13:16
Haben mehrere mit NV & AMD seit dem letzten Update, halt Betasoftware.

Isen
2016-05-13, 19:18:29
AMD auch... das check ich dann mal aus.

Kartenlehrling
2016-05-13, 19:21:06
Hm.... irgendwie läuft Forza Apex nicht mehr auf NV GPU... kommt Fehlermeldung das kein DX12 unterstützt wird. Weiß einer mehr?

Hmmm, läuft jetzt. IGpu war disabeld aber shared memory auf 32mb - auf "Auto" und es startet.




Du hast wohl eine Intel iGPU älter als HD4200 (DX12 fähig),
laut forum muss du im Bios die igpu deaktiveren und anscheinen den Speicherzugriff auf AUTO.

Isen
2016-05-13, 19:22:44
@Kartenlehrling,

handelt sich um Desktop mit GTX 980 und Xeon. Freund klagt und will die neuen Strecken fahren - forza Nerd ...
Beim Notebook gibt es im Bios beide Optionen nicht.

Bei mir läuft es jedenfalls mit amd... andere Karten nicht da zum gegenchecken.


Kartenlehrling, hättest du mal nen Link zu dem Forum? Wäre nett.


[UPDATE: 4:47 p.m. Pacific -- We are aware that a number of users are running into issues with starting Apex since the latest update. For those users who are seeing the 501 Error Code message, you can bypass this error message by holding the "Page Up" button on your keyboard and then clicking the "Quit" button in the popup. The team is continuing to investigate the root cause of these issues.]


Funktioniert. Problem geklärt.

Hübie
2016-05-13, 21:09:31
Ne hab kein G-Sync und finde es deshalb ja so erstaunlich gut. Das fühlte sich einfach super fluffig an. Und grafisch liest das Spiel doch ganz weit vorn, finde ich.
@dargo: Nix für ungut aber du bist echt leidensfähig. :D

dargo
2016-05-13, 21:15:19
Kann dir nicht folgen.

Kartenlehrling
2016-05-13, 21:47:08
For those users who are seeing the 501 Error Code message, you can bypass this error message by holding the "Page Up" button on your keyboard and
then clicking the "Quit" button in the popup. The team is continuing to investigate the root cause of these issues.

Funktioniert. Problem geklärt.


Das funktioniert wirklich, aber die igpu abschalten auch vorallem kommt da keine Fehlermeldung.

Also wer eine intel iGPU (älter HD4200) kann diese im Bios deaktivieren, nicht vergessen igpu-memory sollte auf AUTO stehen.
Oder wie oben beschrieben Fehlermeldung wegdrücken und Page-Up (Bild-nach oben) gedrückt halten.

Mir fehlt das MSI-Afterburner OSD, 6 Monate DX12 und kein OSD für AMD Karten .... *Heul*.

Funktioniert eigentlich die FPS Anzeige von den Asus Gaming-Monitor in DX12 und Vulkan?

dargo
2016-05-13, 21:50:05
Mir fehlt das MSI-Afterburner OSD, 6 Monate DX12 und kein OSD für AMD Karten .... *Heul*.

Das wird sich denke ich auch nicht so schnell ändern wenn Unwinder private Probleme hat.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11024493&postcount=97

tdon
2016-05-13, 21:58:25
Also wer eine intel iGPU (älter HD4200) kann diese im Bios deaktivieren, nicht vergessen igpu-memory sollte auf AUTO stehen.



Das ist nicht korrekt. Jede Intel GPU älter als Gen9 (Skylake) wird nicht funktionieren, da es mindestens eine Tier 2 resource Binding GPU für Forza braucht. Im übrigen würde ich es bequemer finden, die GPU in der Systemsteuerung zu deaktivieren für diesen Zweck.

Isen
2016-05-13, 22:05:13
@Kartenlehrling,

Bei dem Fehler war es egal ob sie deaktiviert wurde.
Und bei dem Desktop existierte keine iGPU ;)

Kartenlehrling
2016-05-13, 22:14:41
wieso brauchen, wieso sollte Intel lügen, reicht es nicht das Nvidia dies schon macht?
Laut Treiberinfo sind alle Intel nach HD4200+ DX12 fähig, man muss ja nicht alle Feature unterstützen.

We’re also pleased to announce that this driver is ready to support Forza Motorsport 6: Apex* when the title launches.
This document provides information about Intel’s Graphics Driver for:
6thGeneration Intel® Coreprocessors, Intel Core™ M, and related Pentium® processors with Intel® HD Graphics 510, 515, 520, 530, Intel® Iris™ Graphics 540, Intel® Iris™Graphics 550, and Intel® Iris™ Pro Graphics 580.
Intel® Xeon® processor E3-1500M v5family with Intel®HD Graphics P530
5thGeneration Intel®Core processors with Intel HD Graphics5500, 5600, 6000, Intel Iris™ Graphics 6100, Iris Pro Graphics 6200 and select Pentium®/ Celeron® processors with Intel®HD Graphics

Intel® Core™ M with Intel HD Graphics 5300
4thGeneration Intel® Core™ Processors with Intel HD Graphics 4200, 4400, 4600, 5000, Intel Iris™ Graphics 5100 and Intel Iris Pro Graphics 5200 and select Pentium®/ Celeron®Processors with Intel® HD Graphics
https://downloadmirror.intel.com/25957/eng/ReleaseNotes_GFX_15%2040%204444.pdf

Hübie
2016-05-13, 22:24:24
Das wird sich denke ich auch nicht so schnell ändern wenn Unwinder private Probleme hat.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11024493&postcount=97

Oh, das wusste ich gar nicht. Armer Kerl. Hoffe er kommt mit einem blauen Auge davon. Hatte mich gewundert das bis jetzt keine Antwort kam, was unüblich für ihn ist / war. Vielleicht macht er den AB ja Open Source. :naughty:

Ps: Mit leidensfähig meine ich dass du in letzter Zeit häufig Probleme hast, die aber gelassen nimmst. :up:

dargo
2016-05-13, 22:27:23
Ps: Mit leidensfähig meine ich dass du in letzter Zeit häufig Probleme hast, die aber gelassen nimmst. :up:
Von was sprichst du? :confused:

tdon
2016-05-13, 22:47:38
wieso brauchen


Frag den Entwickler.


, wieso sollte Intel lügen, reicht es nicht das Nvidia dies schon macht?


Die Textstelle mit This document provides information about Intel’s Graphics Driver for ist ein Standardtext der dort immer geschrieben steht, das bezieht sich nicht explizit auf Forza.


Laut Treiberinfo sind alle Intel nach HD4200+ DX12 fähig, man muss ja nicht alle Feature unterstützen.


Was heißt hier man muss nicht. DX12 fähig alleine reicht eben nicht aus in Forza 6.


A GPU with resource Binding Tier 2 is required to run this game. Some older cards may support DirectX 12 but not the features required to run this title.


Was ist daran jetzt so undeutlich?

Kartenlehrling
2016-05-13, 23:07:15
woher hast du dein Zitat?

Locuza
2016-05-14, 01:24:18
Hey "cool" wir haben schon das erste(?) DX12 Spiel was nicht auf jeder DX12 fähigen GPU funktioniert:

Error AP203 occurs when you launch Forza Motorsport 6: Apex

You get the following error code when you try to launch Forza Motorsport 6: Apex:

AP203

This means that Forza Motorsport 6: Apex has detected an unsupported graphics processing unit (GPU). A GPU with resource Binding Tier 2 is required to run this game. Some older cards may support DirectX 12 but not the features required to run this title
https://support.xbox.com/en-GB/xbox-on-windows/gaming-on-windows/error-code-ap203

Hübie
2016-05-14, 01:27:10
Kann man Frametimes in dem Spiel messen? Wenn ja welches Tool geht?

illidan
2016-05-14, 01:28:45
Das wäre zum jubeln, würde es irgendeinen Aha-Effekt bei der Grafik oder Performance geben. imho gibt es den bei diesem Spiel aber nicht.

Hübie
2016-05-14, 01:40:31
Redest du von Forza 6? Ich finde das sieht fantastisch aus.

illidan
2016-05-14, 02:40:34
Ich finde, es sieht nicht besser als NfS aus und das läuft theoretisch auf Hardware von 2009.

Hübie
2016-05-14, 02:41:51
NFS sieht doch auch verdammt gut aus. Und wenn es auf alter Hardware läuft und gut aussieht ist das doch ein positives Prädikat. :|

illidan
2016-05-14, 02:49:06
Mein Argument war ja auch, dass das Abschneiden von Kompatibilität sich gerne auch in der optischen Qualität bemerkbar machen sollte und der Vergleich mit NfS diente dazu aufzuzeigen, dass das bei Forza imho nicht gegeben ist.

Hübie
2016-05-14, 02:54:30
Ach so. :D Jetzt hab ich verstanden.

Also da steckt ja seitens Microsoft ein eigennütziger Gedanke dahinter. Das ist natürlich nicht schön. Aber afaik ist das Spiel Beta, also warten wir mal ab. Bisher sehe ich DX12 noch als nicht sonderlich sinnvoll. Hat imo mehr Ärger, als (versprochene) Performance gebracht. Die Gefahr dass sich die beiden "Großen" nun um AAA-Titel-Exklusivität kloppen steigt weiter an.

illidan
2016-05-14, 03:01:25
Ich bin geneigt, dir zuzustimmen.

Ich fasse mal kurz zusammen:
Ashes of the Singularity: flackerndes Terrain mit DX12
Hitman: alle möglichen Probleme mit DX12
Quantum Break: ohne Worte
Tomb Raider: läuft wohl gut
Forza: gemischte Reports
Fable: nur ein geleakter Presse-Benchmark übrig geblieben
Ark/UE4: so ziemlich nur heiße Luft

Was ein Disaster.

Hübie
2016-05-14, 03:09:49
Ich plaudere mal eben aus dem Nähkästchen (ohne allzuviele Details zu nennen):
Es wurde von uns aus mal ein Benchmarking ausgerichtet. 10 erfahrene Programmierer sollten einen Algorithmus optimieren. Der Gegner war ein lernfähiger Compiler (okay klingt einfach, aber ist echt ein Lebenswerk). Letzterer hat 30% mehr Leistung aus dem Code herausgeholt als die Programmierer. Und die sind teils schon viele Jahre dabei. Das nur mal so am Rande, wie toll es klappt wenn Menschen programmieren. :D
Okay hat nix mit DX12 zu tun, aber das wir eine begrenzte Aufnahmefähigkeit haben und es einfach mehr Aufwand ist pro Architektur zu optimieren könnte also hier als Grund zu suchen sein.

StefanV
2016-05-14, 05:26:30
Hey "cool" wir haben schon das erste(?) DX12 Spiel was nicht auf jeder DX12 fähigen GPU funktioniert:

https://support.xbox.com/en-GB/xbox-on-windows/gaming-on-windows/error-code-ap203
Damit meinen die wohl Fermi, laut dieser Liste:
http://www.pcgameshardware.de/DirectX-12-Software-255525/News/Unterschiede-Feature-Levels-Tiers-AMD-1161045/

dargo
2016-05-14, 08:15:55
Hey "cool" wir haben schon das erste(?) DX12 Spiel was nicht auf jeder DX12 fähigen GPU funktioniert:

Die Frage ist wieviel Budget Microsoft bei Turn 10 da freigemacht hat? Denn Forza 6: APEX ist im Grunde genommen nichts weiter als eine etwas größere Demo und zudem kostenlos.

Ich plaudere mal eben aus dem Nähkästchen (ohne allzuviele Details zu nennen):
Es wurde von uns aus mal ein Benchmarking ausgerichtet. 10 erfahrene Programmierer sollten einen Algorithmus optimieren. Der Gegner war ein lernfähiger Compiler (okay klingt einfach, aber ist echt ein Lebenswerk). Letzterer hat 30% mehr Leistung aus dem Code herausgeholt als die Programmierer. Und die sind teils schon viele Jahre dabei. Das nur mal so am Rande, wie toll es klappt wenn Menschen programmieren. :D
Okay hat nix mit DX12 zu tun, aber das wir eine begrenzte Aufnahmefähigkeit haben und es einfach mehr Aufwand ist pro Architektur zu optimieren könnte also hier als Grund zu suchen sein.
Du weißt aber schon, dass DX12 selbst auf Nvidia bereits 57% im CPU Limit rausholt?
http://www.computerbase.de/2016-03/hitman-benchmarks-directx-12/2/

Wenn man sich natürlich immer die fettesten CPUs kauft merkt man davon nicht viel. Bis wieder eine neue Grafikkartengeneration mit deutlich mehr Leistung erscheint und die Limits wieder ein gutes Stück verschoben werden sofern die "alte" CPU verbleibt.

tdon
2016-05-14, 09:20:38
Damit meinen die wohl Fermi, laut dieser Liste:
http://www.pcgameshardware.de/DirectX-12-Software-255525/News/Unterschiede-Feature-Levels-Tiers-AMD-1161045/


Fermi hat aber eh kein DX12 Treiber Support. Es betrifft nur Intel in der Generation Haswell und Broadwell mit DX12 support.


https://en.wikipedia.org/wiki/Feature_levels_in_Direct3D#Direct3D_12

Da sieht man es.

StefanV
2016-05-16, 20:16:32
Fermi hat aber eh kein DX12 Treiber Support.
Was, immer noch nicht?!
Und das, obwohl nVidia das so groß angekündigt hat!

Verstehe nicht, dass man solch ein Unternehmen auch noch toll finden kann, obwohl sie die User regelmäßig verarschen...

<- hat noch 2 Fermi Karten und auf den DX12 Treiber gehofft...

Locuza
2016-05-19, 14:53:23
We’re pleased to confirm that Total War: WARHAMMER will also be DX12 compatible, and our graphics team has been working in close concert with AMD’s engineers on the implementation. This will be patched in a little after the game launches, but we’re really happy with the DX12 performance we’re seeing so far, so watch this space!
http://wiki.totalwar.com/w/Optimisation_Blog

Im Blog stehen noch weitere Infos, kurz:
- 64-Bit, statt zuvor 32-Bit
- Partikel-Pipeline von Pixel-Shader auf Compute-Shader umgestellt, auch andere Sachen wurden Richtung Compute-Shader umgestellt.
- Game-Draw und der Graphics Renderer laufen nicht mehr zusammen in einem Thread, sondern wurden jetzt getrennt und das Task-System verbessert, also bessere Multithread-Skalierung.
- Nur MLAA und MSAA werden unterstützt, beim letzteren hat man versucht das ganze intelligenter umzusetzen, wo nur noch die Pixelkanten geglättet werden

iuno
2016-05-19, 15:30:39
Jetzt geht es etwas kreuz und quer, habe aber gerade etwas interessantes gesehen

Man haette es schon irgendwie nutzen koennen, mit Mantle oder herstellerspezifischen Erweiterungen.
(die Aussage bezog sich auf QRQ aber auch AC im Allgemeinen)

DICE hat schon bei BF3 die Faehigkeit der asynchronen Kopiervorgaenge genutzt, siehe Seite 35/36 hier: http://www.dice.se/wp-content/uploads/2014/12/GDC11_DX11inBF3_Public.pdf
Es wurden also damals schon die DMA Engines verwendet, um beim streamen stalls zu verhindern. Bei DX12/Vulkan mit "Async Compute" gibt es dafuer die Copy Queues, die standardisiert sind und parallel zu anderen Queues abgearbeitet werden koennen.
Insofern ist es durchaus auch moeglich, dass auch andere Spiele oder Engines diesen Aufwand getrieben haben (nicht-standardisiert, Loesung zusammen mit "Microsoft, Nvidia & AMD" gefunden).
Man muss daher keine Streaming-Wunder erwarten, wenn ein Spiel wie RotTR mit copy queues verwendet.

Eigentlich hatte ich die eher neuere Info gesucht, bei der ein DICE Mitarbeiter kurz darauf eingegangen ist, in welchem Masse AMD, Intel und Nvidia AC Features unterstuetzen. Hat das noch jemand zur Hand?

Kartenlehrling
2016-05-19, 17:18:16
http://www.gamestar.de/spiele/total-war-warhammer/news/total_war_warhammer,51988,3272785.html
Total War: Warhammer - Endlich 64bit-Engine, wird DirectX 12 unterstützen

Was ich halt wieder nicht verstehe, das DX12 wieder erst nachgereicht wird,
wieso nicht noch 6 Wochen verschieben und dafür zum Release gleich mit allen Features?
Und wo ist der Nvidia HDR-DX12 Patch von RotTR, soo beschissen wie DX12 im Moment bei RotTR läuft kann man damit nicht werben?!!

iuno
2016-05-19, 17:19:55
Was laeuft bei RotTR beschissen? Hatte ich glaube ich schonmal gefragt, war aber vergesslich ^^
Da gibt es doch verglichen mit der DX11 Version keine Probleme oder?

illidan
2016-05-19, 17:21:34
Nein, es läuft nur mit minimal langsameren avg-fps bei aber wesentlich geringeren Einbrüchen im CPU-Limit.

just4FunTA
2016-05-19, 17:33:53
Du weißt aber schon, dass DX12 selbst auf Nvidia bereits 57% im CPU Limit rausholt?
http://www.computerbase.de/2016-03/hitman-benchmarks-directx-12/2/

Wenn man sich natürlich immer die fettesten CPUs kauft merkt man davon nicht viel. Bis wieder eine neue Grafikkartengeneration mit deutlich mehr Leistung erscheint und die Limits wieder ein gutes Stück verschoben werden sofern die "alte" CPU verbleibt.

Die fettesten CPU? Ist es nicht so das es selbst bei nem i5 nichts bringt?

Kartenlehrling
2016-05-19, 17:56:25
Was laeuft bei RotTR beschissen? Hatte ich glaube ich schonmal gefragt, war aber vergesslich ^^
Da gibt es doch verglichen mit der DX11 Version keine Probleme oder?

Was soll ich dir belegen, die ganzen Ten80 Benchmarks in den letzten 3 Tage zeigen es doch auf,
nichtmal 5% Mehrwert zur DX11 Version und AMD Grafikkarten rennen selbt unter DX12 bei RotTR ins CPU Limit.

illidan
2016-05-19, 18:01:15
Genau wie Nvidia-Karten...

Nightspider
2016-05-19, 18:24:08
Die fettesten CPU? Ist es nicht so das es selbst bei nem i5 nichts bringt?

Wie meinst du das?
DX12 bzw. Low Level Programmierung bringt auf allen CPUs gleich viel. Du siehst es aber natürlich nur bei Benchmarks wenn der Test im CPU Limit stattfindet bzw. da sieht man es halt am stärksten.
Bei eine zu starke CPU bringt vielleicht schon genug CPU Leistung auf die Straße (egal ob mit oder ohne DX12) weshalb DX12 in diesem Fall nicht viel bewirken würde, weil du schon im GPU Limit bist.

Achill
2016-05-19, 19:16:31
Was soll ich dir belegen, die ganzen Ten80 Benchmarks in den letzten 3 Tage zeigen es doch auf,
nichtmal 5% Mehrwert zur DX11 Version und AMD Grafikkarten rennen selbt unter DX12 bei RotTR ins CPU Limit.

Wie oft denn noch, meine CPU wird unter DX11/12 in RotTR nicht ausgelastet, es gibt da kein "CPU-Limit" ... auch beim x-ten Wiederholen wird es nicht wahrer.

illidan
2016-05-19, 19:20:23
Es gibt mit DX11 ein CPU-Limit in dem Spiel mit Radeons. Im Geothermal Valley ist es unschön am stottern, was es auf Nvidia nicht tut und mit AMD DX12 auch nicht.

dargo
2016-05-19, 19:28:41
Die fettesten CPU? Ist es nicht so das es selbst bei nem i5 nichts bringt?
Nein.

Kartenlehrling
2016-05-19, 19:46:04
Wie oft denn noch,...

Bis das Problem beseitig ist,
nur weil Du behauptes das es bei Dir nicht so ist, wird es damit auch nicht richtig.

Die alten Benchmarks zur Einführung von DX12 RotTR (http://www.computerbase.de/2016-03/rise-of-the-tomb-raider-directx-12-benchmark/2/) hatten es gezeigt und die erst 3 Tage alten GPU Benchmarks lassen die "Vermutung" zu das sich daran immer noch nichts geändert hat.

Achill
2016-05-19, 20:00:22
Bis das Problem beseitig ist,
nur weil Du behauptes das es bei Dir nicht so ist, wird es damit auch nicht richtig.

Die alten Benchmarks zur Einführung von DX12 RotTR (http://www.computerbase.de/2016-03/rise-of-the-tomb-raider-directx-12-benchmark/2/) hatten es gezeigt und die erst 3 Tage alten GPU Benchmarks lassen die "Vermutung" zu das sich daran immer noch nichts geändert hat.

Es zeigt, das mit DX12 die Performance nicht besser geworden ist, mehr jedoch nicht. Man sieht auch, wenn man sich die CPU Auslastung anschaut, dass man nicht in einen CPU Limit ist. In dem Spiel limitiert etwas anderes die AMD GPUs.

Schnäppchenjäger
2016-05-19, 21:22:29
DX12 sollte mal für die hauseigene Blizzardengine rauskommen, vor allem für SC2.
4v4 laufen echt nicht so pralle auf meinem 2500k. Der fehlende Cache gegenüber Haswell/Skylake macht einen enormen Unterschied.

Foobar2001
2016-05-19, 21:47:59
StarCraft ist vermutlich alles Gamecode was limitiert, bringt DX12 nen Nuller.

Kartenlehrling
2016-05-20, 14:23:20
Total War: Warhammer

Etwas anspruchsvoller ist die rundenbasierte Strategiekarte, auf der ihr zwischen Schlachten Heere verschiebt und Provinzen verwaltet.
Besonders die hohen Einstellungen für Multisampling ziehen hier gewaltig Leistung.
Unsere Testversion krankte zudem noch an kleinen Bildfehlern, die bei aktiviertem V-Sync auftraten, sowie einer übermäßig starken CPU-Auslastung.
Ein Patch zu Release soll diese Probleme beheben, zudem liefert Creative Assembly dann einen Modus für Direct X 12 nach.
Der funktioniert allerdings ausschließlich mit AMD-Grafikkarten.
Die Low-Level-Schnittstelle Direct X 12 könnte gerade in Sachen CPU-Last deutliche Vorteile gegenüber Direct X 11 bringen.
http://www.pcgames.de/Total-War-Warhammer-Spiel-55149/Tests/mit-Video-Review-zum-PC-Release-Wertung-von-Creative-Assemblys-Strategiespiel-1195328/

Wieso sollen nur AMD Grafikkarten mit dem DX12 update laufen, ist das ein Redaktionsfehler oder haben wir was verpasst?
Das bei Forza-Apex nicht alle Intel iGPUs DX12 funktionieren soll wurde ja auch noch nicht offizell veröffentlich.

iuno
2016-05-20, 14:24:59
Vermutlich gewinnt man mit Nvidia nichts und sie sparen sich dadurch einfach die Arbeit alles erneut durchzutesten mit Nvidia Hardware/Treibern.
Ist ja auch verstaendlich, wenn es am Ende nichts bringt.

Locuza
2016-05-20, 14:37:55
Wenn es nichts bringt, bewegt sich der Entwickler automatisch auf einem enttäuschenden Niveau was DX12 betrifft.

dildo4u
2016-05-20, 15:01:44
Es wird auch auf Nvidia was bringen,die Serie ist massiv CPU limitiert ich erwarte massive Sprünge vorallem auf meinem FX 8320.Davon ab verliert ja jetzt Pascal auch mit Asynchron Compute nix mehr.

Hier + 22% unter DX12 bei Ashes of the Singularity mit einer 1080 auf einem Sandy Bridge 6 Core.

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/39124-nvidia-geforce-gtx-1080-mit-pascal-architektur-im-xxl-test.html?start=32

Nicht jeder hat immer die neuste Intel CPU,warum auch wenn die Konsolen Netbook CPUs haben.

Blediator16
2016-05-20, 15:03:48
Ich sehe da nirgends auch nur annähernd +22%

Locuza
2016-05-20, 15:06:11
Massiv CPU limitiert, aber die Frage ist auch immer, ob massiv API limitiert?
CA hat(te) definitiv Probleme was den Engineaufbau bezüglich der Skalierung anging.
Jetzt haben sie angeblich soviel daran gearbeitet wie bei keinem TW-Teil zuvor, na hoffentlich spürt man das auch.

Ich sehe da nirgends auch nur annähernd +22%
1080p GTX 1080 DX11 vs DX12 (AC on) = 22%. (Durchschnittsergebnis ganz oben)
Bei der 980Ti ist der DX12 (AC on) Renderer gerade mal 5% schneller.

dargo
2016-05-20, 15:17:31
Lustigerweise ist bei denen die 980TI mit AC On nicht langsamer als AC Off @DX12. ;D

Isen
2016-05-20, 15:28:06
Treiber für AC bis Pascal aufbewahrt :D

Blediator16
2016-05-20, 15:40:09
Angeblich ist AS bei Nvidia immnoch nicht im Spiel aktiv bedeutet man sollte nochmal abwarten was spätere Tests zeigen werden.

captain_drink
2016-05-20, 17:23:50
Angeblich ist AS bei Nvidia immnoch nicht im Spiel aktiv bedeutet man sollte nochmal abwarten was spätere Tests zeigen werden.

Nicht default aktiv, ja. Manuell lässt und ließ sich seit längerem AC aktivieren.

illidan
2016-05-20, 17:25:58
Das ist nicht korrekt, es ist offenbar auch auf Nvidia immer an, sofern man es nicht explizit per Config-Tweak ausschaltet:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11038398&postcount=1803
Oxide verwirrt alle, indem sie wiederholt Müll erzählen...

captain_drink
2016-05-20, 17:39:19
Womöglich ist es auch bei dem einen standardmäßig an und bei einem anderen nicht.
So oder so, AC lässt sich auf NV auf jeden Fall aktivieren und somit auch vergleichen.

illidan
2016-05-20, 17:41:41
Womöglich ist es auch bei dem einen standardmäßig an und bei einem anderen nicht.

Jede Wette, dass auf jeder System-Config Async Compute off in der ini auf 0 steht und das Stellen auf 1 auf jeder Maxwell/Kepler-Karte Performance bringt.

Kartenlehrling
2016-05-20, 18:59:25
Die Serie sei traditionell sehr CPU-limitiert gewesen, da die Game-Draw- und Render-Prozess beide in einem Thread verarbeitet wurden.
Das sei im Laufe der Zeit zu einem immer größeren Flaschenhals geworden und daher wurden diese beiden Prozesse nun für Total War: Warhammer in zwei Threads aufgeteilt.
http://www.pcgameshardware.de/Total-War-Warhammer-Spiel-55149/News/Details-zur-CPU-und-GPU-Optimierung-DirectX-12-1195919/


LOL, anstelle nur eines CPU Thread sind es jetzt Zwei, .... Hurra!!

Dann sieht es wie bei Forza-apex aus :)

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=55936&d=1463253667

StefanV
2016-05-21, 08:28:19
Wieso sollen nur AMD Grafikkarten mit dem DX12 update laufen, ist das ein Redaktionsfehler oder haben wir was verpasst?
Gibt da mehrere Gründe...

Mal vermuten:
a) die Treiber von nVidia funktionieren nicht besonders mit DX12 und sind schlicht Mist.
b) es werden nicht alle Features unterstützt
c) man plant eine Konsolen Version und muss daher eh für AMD optimieren, auch a+b
d) man wurde von nVidia (oder ev. AMD?) gebeten, das nicht zu tun...

Gibt da viele Möglichkeiten..

Am wahrscheinlichsten halte ich, dass man eine Konsolenversion machen möchte und auch keinen Bock (mehr) auf nVidia hatte, aufgrund von Gameworks und den ganzen anderen Kram, den sie in letzter Zeit so verbrochen haben.

Das könnte wohl noch bei anderen Spielen passieren.

Denn, wenn man den Bogen überspannt, was bei nVidia durchaus der Fall ist, kann das durchaus auch ablehnende Haltungen von diversen Spielentwicklern zur Folge haben.

iuno
2016-05-21, 10:27:46
Ganz ehrlich? Ich halte die Varianten a-e für unwahrscheinlich.
Es wird schlicht und einfach den Mehraufwand nicht rechtfertigen - wenn es überhaupt stimmt...

Kartenlehrling
2016-05-21, 11:21:29
DirectX 11 6.01.7600.0000 Windows Vista SP2, Windows 7 22. Oktober 2009

Selbst heute noch werden Spiele für DX9 entwickelt, gerade Online Browsergames bevorzugen wegen dem grossen Hardwarepool in Asien immer noch DX9.
Wenn ein MMO nur noch 64bit unterstüzt ist das schon eine Besonderheit.

Ich glaube zwar nicht das DX11 so lange bestehen kann wie DX9 aber mit der Brechstange wie es Microsoft es mit seinem Win10 Universal Windows Platform versucht wird es nicht gehen.
Aber das DX12 mehrere Monate nach dem Release nachgereicht werden hilft im Moment auch keinem.

dargo
2016-05-21, 11:32:26
Aber das DX12 mehrere Monate nach dem Release nachgereicht werden hilft im Moment auch keinem.
Und wie kommst du auf diese Schnapsidee? Nicht jeder hetzt jedem neuen Release gleich hinter her wie ein Lemming. Zudem halten sich gute MP-Games über viele Monate, ja sogar Jahre.

d2kx
2016-05-21, 12:41:47
Total War: Warhammer DirectX 12 performance preview: Radeon reigns supreme (http://www.pcworld.com/article/3073538/software-games/total-war-warhammer-directx-12-performance-preview-radeon-reigns-supreme.html)
PCWorld

Kartenlehrling
2016-05-21, 12:59:23
Since the AMD-provided benchmark only runs in DirectX 12,
we couldn’t verify frame rates or times with a tool like FRAPS, which doesn’t work with DirectX 12 yet.

Auch wenn ich rumheule das MSI-Afterburner+RTSS nicht DX12 tauglich ist kann man DX12 doch gegentesten.
Das Aufnahme Tool Action! von mirillis.com, zeigt die FPS unter DX12 an und man kann sogar ein benchmark-Auszeichnung aktivieren.
Die Russen Benchmarkseite gamegpu.com bedient sich schon seit langem diesem Tool.

dargo
2016-05-21, 13:07:04
Total War: Warhammer DirectX 12 performance preview: Radeon reigns supreme (http://www.pcworld.com/article/3073538/software-games/total-war-warhammer-directx-12-performance-preview-radeon-reigns-supreme.html)
PCWorld
Laufen die Geforces jetzt unter DX11 oder DX12? Blicke da nicht ganz durch.

Kartenlehrling
2016-05-21, 13:16:07
So wie ich das rauslese hat die Testversion keine DX11 API, somit lauft alles auf DX12 auch Nvidia, nur es gibt keinen Nvidia optimierten Treiber.
Somit ist die PCgames.de aussage falsch. (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11039110&postcount=3301)


Leider können wir nicht DX11 vs. DX12 vergleichen, da dieser Total War Benchmark DX12-only ist.

Soo, also könnte man schon DX11 gegenüber DX12 Testen wenn man sich eine InGame Szene auswählt und mit zb. Action! benchmark.

d2kx
2016-05-21, 14:43:29
Ich vermute, dass NVIDIA schon prinzipiell Total War: Warhammer DX12 unterstützt, aber dass sie es im finalen Spiel (+ finales DX12 Update) für NVIDIA-Karten einfach deaktivieren werden, da es keine brauchbaren Performancesteigerungen gibt.

Locuza
2016-05-21, 17:03:05
Es gibt von GameStar einen ziemlich brauchbaren Technik-Check von der Vorabversion unter DX11:
http://www.gamestar.de/spiele/total-war-warhammer/artikel/total_war_warhammer,51988,3272806.html

Die Arbeiten an der Engine haben sich definitiv gelohnt, mit einem Haswell 4790K und einer 970 kommt man unter hohen Details stets über 60 FPS.
Ich weiß nicht genau wie vergleichbar die dargestellte Last zu vorherigen Teilen ist, aber die Frameraten die man erreicht sind wesentlich höher, als in der Vergangenheit.

Kaputt ist noch das MSAA, dass kollidiert noch mit anderen Berechnungen und führt zu einer anderen Farbbeleuchtung.

Die Radeon Performance ist schwach, besonders die Fury (mal wieder) extrem.
Hier könnte es auch mit dem finalen Spielcode und passenden Treiber noch besser aussehen.

HOT
2016-05-21, 17:21:40
Bei dem Spiel könnte auch das Drawcall-Limit eine Rolle spielen.

dildo4u
2016-05-21, 17:38:58
Die 1080 performt doch gut unter DX12 ohne Game Ready Driver.
In 4k 32 zu 46 FPS gegen eine 390X,Fury liegt vermutlich irgendwo dazwischen.

Schnäppchenjäger
2016-05-22, 00:27:18
StarCraft ist vermutlich alles Gamecode was limitiert, bringt DX12 nen Nuller.
Naja, wenn die GPU die Aufgaben übernimmt, die die CPU dann nicht stemmen muss?
Der Code ist scheiße, ja. Sieht man auich wunderbar an D3^^

BlacKi
2016-05-22, 00:47:23
Naja, wenn die GPU die Aufgaben übernimmt, die die CPU dann nicht stemmen muss?
Der Code ist scheiße, ja. Sieht man auich wunderbar an D3^^
es ist doch eher so das dx12 rechenarbeit erleichtert, aber die gpu nimmt der cpu nix ab oder so.

iuno
2016-05-22, 02:28:17
Das kann man so pauschal nicht sagen. Ich denke, gerade auf Konsolen mit den eher schwachen CPUs und den AC Fähigkeiten der AMD Hardware wird man zukünftig vielleicht noch mehr mit compute shadern machen als das sonst der Fall wäre. Das könnte schon auch auf den PC überschwappen

illidan
2016-05-26, 19:14:51
In den Medien wird ja gerne so getan, dass man mit AMD bei DX12 besser fahren würde.
Wenn man nur auf Balken bei Benchmarks gafft, mag das sicher zutreffen, aber was passiert, wenn man besagte Spiele wirklich spielen möchte?

Hitman DX12: je nach Stelle schwere Grafikfehler mit AMD und nur 4xAF:
https://abload.de/thumb/amd2xwu47.png (http://abload.de/image.php?img=amd2xwu47.png)
Das passiert etwa, wenn man im Paris-Level im Empfangssaal vor der Treppe mit der Pistole zielt. Auf Kepler konnte ich das nicht feststellen.

Da das Spiel mit DX12 nur 4xAF nutzt, egal was man einstellt, hat man matschige Texturen:
https://abload.de/thumb/amd3bgks0.png (http://abload.de/image.php?img=amd3bgks0.png)
Bei Nvidia kann man einfach per Treiber auch für DX12 16xAF erzwingen, bei AMD geht das nicht.
Ebenso funktioniert der fps-Limiter von AMD nicht für DX12, was insbesondere mit FreeSync ärgerlich sein dürfte. Der von Nvidia geht, genau wie Gsync übrigens auch für den borderless Modus, was bei AMD ebenfalls nicht geht.

Ashes of the Singularity wird ja gerne als Vorzeigetitel für AMD mit Async Compute gefeiert. Tatsächlich funktioniert das bei dem Spiel auch einwandfrei auf Radeons.
Leider funktioniert DX12 bei dem Spiel mit einer Radeon aber allgemein nicht fehlerfrei, egal ob Async Compute an oder nicht:
Es gibt an Terrain-Abhängen übles Z-Fighting zu beobachten, es flimmern also verschiedene Terrain-Schichten durcheinander:
https://abload.de/thumb/amd1uiugq.png (http://abload.de/image.php?img=amd1uiugq.png)
Diese kleinen, weißen "risse" in den Wänden flackern in Bewegung unschön.
Auch das konnte ich wieder mit Nvidia bzw. Kepler nicht feststellen.

Tomb Raider DX12 ist auf Hawaii seit Crimson 16.4.2 übel am stottern, es ist defakto unspielbar damit.

wtf ist da los bei AMD? Für mich sieht das aus, als ob man nach dem Overhead-Trauerspiel nun mit Low Level anderweitig genau so einen Mist baut und die Chance auf einen Neuanfang ziemlich verpatzt.
Ich schau mir noch die Polaris-Treiber an, aber wenn sich die Situation nicht grundlegend ändert, kann ich von AMD nur abraten und werd mir stattdessen eine 1070 holen.

dildo4u
2016-05-27, 12:33:17
Der Warhammer Benchmark schließt ältere DX12 Karten aus

Der Benchmark von Total War: Warhammer ist die erste DirectX-12-Anwendung, bei der ältere GPUs die Arbeit verweigerten. Dies betrifft offenbar Maxwell v1 sowie GCN 1.0 und älter. Ausprobiert haben wir dies unter anderem mit drei Grafikkarten der Kepler-Architektur (GTX 770, GTX 780 und GTX 780 Ti) sowie zwei GCN-GPUs der ersten Baureihe (HD 7970 alias R9 280X sowie HD 7950 beziehungsweise R9 280). Die erste GCN-1.1-Generation (HD 7790 beziehungsweise R7 260X) funktionierte indes, die erste Maxwell-Generation (GTX 750 Ti) hingegen nicht.


http://www.pcgameshardware.de/Total-War-Warhammer-Spiel-55149/Specials/Benchmarks-Test-DirectX-12-1196355/

Kein Plan ob das für's Game auch der Fall sein wird.Schätze mal der 390X Wert unter 1440p ist ein Fehler hat die selben FPS wie unter 1080p.

Kartenlehrling
2016-05-27, 14:34:54
In einem Beitrag stand, das man anstelle von einem CPU Thread nun zwei nutzt, klingt wenig aber anscheinend reicht es für AMD.
Das man keine AMD Fury oder Nvidia Ten80 für eine Intel i3(2/4) verbaut ist zwar klar,
aber schön zu sehen wie gut AMD von DX12 und 2x CPU? Threads profitiert.

Wär toll wenn jemand eine CPU Thread Auslastung posten kann.

dildo4u
2016-05-27, 14:40:46
Min fps sind auf 2 und 4 Core CPU's schlechter kein eindeutiger DX12 Gewinn für AMD.

Kartenlehrling
2016-05-27, 14:50:52
weiss nicht worauf Du hinaus willst,
ein i5-4690 4/4core (ohne K) ist auf Augenhöhe von einem i7-5930k 6/12core.

Achill
2016-05-27, 15:17:08
In einem Beitrag stand, das man anstelle von einem CPU Thread nun zwei nutzt, klingt wenig aber anscheinend reicht es für AMD.
Das man keine AMD Fury oder Nvidia Ten80 für eine Intel i3(2/4) verbaut ist zwar klar,
aber schön zu sehen wie gut AMD von DX12 und 2x CPU? Threads profitiert.

Wär toll wenn jemand eine CPU Thread Auslastung posten kann.

Die Skalierung vom i5-4690 (4x3.5/3.9T) hin zum i7-5930k (6x3.5/3.7T) ziegt deutlich, dass mehr als 2 Cores verwendet werden, auch dass es eine Skalierung bei DX11 gibt - wenn auch nicht so hoch - zeigt dass auch dort mehr als 2 Core (bzw. 4) verwendet werden können.

Min fps sind auf 2 und 4 Core CPU's schlechter kein eindeutiger DX12 Gewinn für AMD.

Im Bild von Kartenlehrling sind bei allen AMD/NV GPUs die min. FPS unter DX12 besser als im Vergleich zu DX11 und gleicher CPU.

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=56059&stc=1&d=1464352368

Tamagothi
2016-05-27, 15:19:23
weiss nicht worauf Du hinaus willst,
ein i5-4690 4/4core (ohne K) ist auf Augenhöhe von einem i7-5930k 6/12core.

Nein die min. FPS sind deutlich besser beim 5930k

dargo
2016-05-27, 16:56:17
In einem Beitrag stand, das man anstelle von einem CPU Thread nun zwei nutzt, klingt wenig aber anscheinend reicht es für AMD.
Das man keine AMD Fury oder Nvidia Ten80 für eine Intel i3(2/4) verbaut ist zwar klar,
aber schön zu sehen wie gut AMD von DX12 und 2x CPU? Threads profitiert.

Wär toll wenn jemand eine CPU Thread Auslastung posten kann.
Lol... verstehe ich die Grafik richtig? Die 1080 liefert unter DX12 quasi Faktor 2, genauso wie die Fury X mit dem I5? Dabei hieß es angeblich, dass Nvidia DX12 in dem Spiel gar nicht braucht weil DX11 so gut läuft. ;D

Nein die min. FPS sind deutlich besser beim 5930k
Schade, dass es zum Vergleich keinen Hassi 4C/8T gibt.

Botcruscher
2016-05-28, 10:06:09
Warhammer scheint eh eine ganz seltsame Skalierung zu haben. Da liegen dann die BD Abkömmlinge vor den Intel CPUs.

dargo
2016-05-28, 10:15:33
Und warum sollte das jetzt seltsam sein? Mir scheint, dass Warhammer enorm von mehr als 4 Threads profitiert. Jedenfalls lassen das die Ergebnisse vom Hassi 6C/12T vermuten.

Kartenlehrling
2016-05-28, 10:35:17
Der im PCgamer test genutzte i5-4690 takte bei Ausnutzung aller 4core auf 4x3600mhz,
ein K modell das 4x4200(BCLK Anhebung) sollte die CPU-Limitierung um 8-10% anheben.
Welcher Gamer verbaut keine Overclockfähige CPU wenn immer noch Singlecore Leistung so wichtig ist?

Wenn die CPU Thread Auslastung genauso aussieht wie beim ForzaApex ist ein i7-4790k@4.2ghz (HT deaktivieren) die beste Wahl.

dargo
2016-05-28, 11:37:06
Der im PCgamer test genutzte i5-4690 takte bei Ausnutzung aller 4core auf 4x3600mhz...

Passt wunderbar, damit hat man einen prima Vergleich zum Sixcore mit 3,6Ghz.

Kartenlehrling
2016-05-30, 19:24:37
Hitman

PC-specific Improvements

The Game Launcher now displays resolutions higher than 2560×1440. These options were previously available but only via the in-game graphics settings.
Fixed an issue where the FPS may lock to 60 after alt+tab
Performance and framerate improvements, particularly for DX12.
Fixed various crash issues when loading and restarting missions.


...

illidan
2016-05-31, 15:05:27
Immer noch komplett unbrauchbar auf Radeons, alle Probleme sind noch da.

dargo
2016-05-31, 15:11:53
Warum sieht man die Probleme hier dann nicht?
http://www.tomshardware.de/nvidia-geforce-gtx-1070-8gb-pascal-performance,testberichte-242123-4.html

Oder ist es nur eine spezielle Szene?

illidan
2016-05-31, 15:17:04
Tja, genau das meinte ich hier:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11045579&postcount=3330
(Abload lädt gerade nicht richtig)
Es wird einfach irgendwas gebencht, aber ob das Spiel wirklich spielbar ist, interessiert bei den Testern keine Sau.

dargo
2016-05-31, 15:21:45
Ich lese da bei dir nichts von Frametimes, nur was von Grafikfehlern. RotTR mal ausgenommen, da ist es bekannt.

illidan
2016-05-31, 15:22:47
Wie kommst du jetzt auf Frametimes? Es geht um schwere Grafikfehler.

dargo
2016-05-31, 15:27:13
Bei "komplett unbrauchbar" war das mein erster Gedanke. Kann die Grafikfehler jemand anders hier bestätigen? Bisher konnte ich das nur bei dir lesen. Oder spielt sonst niemand die genannten Spiele? :tongue: Ich kanns nicht gegentesten da mich die genannten Spiele nicht interessieren. Außer RotTR, da warte ich aber auf einen vernünftigen Patch für Radeons. Bis dahin wirds nicht gekauft.

Kartenlehrling
2016-05-31, 15:29:08
At 10am CEST on May 31st, the HITMAN servers will be taken down for maintenance in preparation for Episode Three.
The downtime is scheduled to end at 13:00 CEST and from that point, all PS4, Xbox One and PC players will be able to download a new game update and play the Marrakesh location.

Wenn es überhaupt Veränderung sichbar sind,
kann man sie auch erst ab heute Mittag gesehen haben.

Achill
2016-05-31, 15:40:39
Kann die Probleme bei Hitman und AotS bei mir nicht bestätigen, evtl. ist deine GPU/Speicher beschädigt @illidan?

illidan
2016-05-31, 15:57:13
Was hast du bei Hitman getestet? Geh in den Palast vor die Treppe, zück die Waffe und ziel damit.
Ashes scheint allgemein Probleme mit Terrain-Flackern mit DX12 zu haben, auf YT zeigen das auch Maxwell-Karten. Mit Kepler gibts das aber definitiv nicht, sehr seltsam.
Meine Hardware hat sicher keinen Knacks weg.

Isen
2016-05-31, 16:10:43
Geh in den Palast vor die Treppe, zück die Waffe und ziel damit.


Kann es ebenfalls nicht bestätigen...

Loeschzwerg
2016-05-31, 16:12:27
Ashes scheint allgemein Probleme mit Terrain-Flackern mit DX12 zu haben,

Jup, kann ich so bestätigen, ist unter DX11 nicht der Fall.

Isen
2016-05-31, 16:14:26
Was hast du und, Illidan für eine Karte? 390er?

Loeschzwerg
2016-05-31, 16:17:52
Nano mit dem Crimson 16.5.3 und aktuellster AotS Version.

Isen
2016-05-31, 16:20:36
AotS kann ich nicht testen, hab es nicht, nur Hitman. Dort läuft jedenfalls alles. 290x hab ich.

Hast du mal den 16.5.1 getestet? - Ab dem 16.5.2 gab es ja einige Änderungen.

Loeschzwerg
2016-05-31, 16:27:22
Speziell an den 16.5.1 kann ich mich nicht erinnern, aber es hat sich seit dem 16.3.x nichts verändert und ich habe eigentlich alle Treiber durch (Beta User :D).

Hier mein Beitrag vom April:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10995798#post10995798

Isen
2016-05-31, 16:33:25
Betrifft dann wohl mehr Fiji...

illidan
2016-05-31, 16:54:52
Ich hab eine 390. Mach mal einen Screenshot von der Stelle, wo es bei dir in Hitman keine Fehler gibt.

Kartenlehrling
2016-06-02, 20:02:18
http://www.guru3d.com/articles-pages/total-war-warhammer-directx-12-pc-graphics-performance-benchmark-review.html
Total War WARHAMMER DX12: PC graphics performance benchmark review - PC VGA Graphics card guide

Loeschzwerg
2016-06-02, 20:16:13
Die GTX 960 kackt ja voll ab ;D Sonst ist das Feld ja eher dicht gestaffelt, wobei Fiji ganz gut im Rennen liegt.

dargo
2016-06-02, 21:30:06
Alter Schwede... die wird ja von der 380 komplett überfahren. :usweet:

http://www2.pic-upload.de/img/30833397/WH.jpg

Das erinnert mich irgendwie an AotS mit dem Abkacken der GTX960.

dildo4u
2016-06-02, 22:34:58
Hätte ich für die 970 schlimmer erwartet schätze mal eine Custom 970 ist im Bereich der 390.

StefanV
2016-06-02, 22:54:01
Sind Cusom 970er denn flotter als 'ne 980??
Bzw kommen in die Nähe davon?

Kartenlehrling
2016-06-02, 23:06:28
Total Warhammer leidet wohl trotz DX12 an eine CPU Limitierung.
Ein i5-4690 (noK) also 4x3600mhz bremst eine R9390 aus.
Ausserdem hat guru3d ohne ... Unlimited video memory geteste,
wobei die maxFPS (1080p) sich mit der von PCgamer gleichen, die wiederum mit UVM geteste haben.

dildo4u
2016-06-02, 23:51:10
DX12 ist nicht die Heilung für jedes CPU Limit,das zeigt das Game und der Ashes Crossfire 480 Bench.Und das alles mit 6 oder 8 Core Intel CPU's am Ende muss man halt immer abwarten was vom Hype übrig bleibt.

gedi
2016-06-03, 00:32:16
sehe ich auch so: http://www.guru3d.com/articles_pages/total_war_warhammer_directx_12_pc_graphics_performance_benchmark_review,8.html

Da hätte ich mir mehr erhofft ;(

-/\-CruNcher-/\-
2016-06-03, 10:40:09
Alter Schwede... die wird ja von der 380 komplett überfahren. :usweet:

http://www2.pic-upload.de/img/30833397/WH.jpg

Das erinnert mich irgendwie an AotS mit dem Abkacken der GTX960.

Das war schon von anfang an anhand der FCAT Ergebnissen in den ersten Review Messungen bekannt das die GTX 960 nicht mehr das ist was sie einmal war und das Nvidia sie mit der GTX 970 ersetzt bzw die Performance und damit den Preis verschiebt.
Deswegen blieb ja auch x60 Nvidia usern nichts anderes übrig als sich für etwas Zukunftsicherheit für die GTX 970 zu entscheiden, vor allem war es klar das sie vor allem innerhalb von GameWorks total zussammenbrechen wird in Zukunft, das selbe spiegelt sich nun bei den andere LL Apis wieder.

Sind Cusom 970er denn flotter als 'ne 980??
Bzw kommen in die Nähe davon?

Das kommt auf den Workload an allen voran GameWorks overhead, aber in den Min FPS hat auch keine Custom GTX 970 eine Chance die GTX 980 zu erreichen ;)

Die -10 FPS im Max sind einfach zu packen aber das hat nichts mit GameWorks zu tun ;)

iuno
2016-06-03, 15:51:55
http://community.remedygames.com/forum/games/quantum-break/windows-10-help-issues/263306-quantum-break-title-update-1-6-2016

Forced V-Sync entfernt, zudem Free-G-Sync moeglich.
Kann man den Titel jetzt also ordentlich benchen? Dann mal los ;p

gnomi
2016-06-04, 11:31:07
Zumindest läuft es nun besser.
Auf einer 980OC geht 1440P mit Upscaling ganz gut, lediglich die volumetrische Beleuchtung zieht ab Hoch dann eben enorm.
VSync Off deaktiviert jedoch auch DX Tory, um die fps anzuzeigen.
Außerdem kann es nach Reinladen der Map oder Verändern der Settings stark ruckeln, weshalb man dann noch mal kurz ins Menü und zurück gehen muss.:confused:
Alles in allem würde ich den ganzen UWP und DX 12 Kram höchstens gesondert getestet sehen wollen.
Das ist alles dermaßen unfertig und nach all den Versprechungen auch sehr enttäuschend.
Egal, ich warte hier gerade auf meine 1080 und hoffentlich dann knapp 1,7x Performance in dem Spiel. Dann muss es doch mal erlebenswert sein.
Gestern habe ich nach ein paar Wochen Pause schon bald die Belegung des Pads vergessen.
Das Spiel ist wirklich gut und vor allem ein Erlebnis mit spannender Geschichte! Aber so darf man das nicht auf die Käufer loslassen.

Troyan
2016-06-04, 11:50:53
Du wirst wohl keine 70% Verbesserung sehen. Das Spiel schreit förmlich nach Bandbreite. Eine GTX1080 mit 18xxMHz ist <20% schneller als eine GTX980TI mit 1200Mhz:
https://www.youtube.com/watch?v=VsaSdTMv7ms

Spiel ist auf nVidia-hardware einfach kaputt.

gnomi
2016-06-04, 12:11:56
Danke für den Link.
Habe die 1080 FE Karte jetzt hier und gucke es mir mal an. =)
Wie gesagt, ich muss es jetzt nicht unbedingt ausfahren mit der volumetrischen Beleuchtung und deaktiviertem Upscaling, was unverhältnismäßig reinhaut.
Schöne 60 fps in 1440P wären schon gut und weit über One Niveau und auch ein Fortschritt zur 980. Mal sehen. :wink:

Lurtz
2016-06-04, 12:24:50
Nicht nur auf nVidia-Hardware, es läuft auch auch AMD kacke :ugly: Trotz Freesync sind die Frametimes einfach beschissen.

Ich hoffe mal Vulkan wird besser als der DX12-Müll.

-/\-CruNcher-/\-
2016-06-04, 12:32:58
Du wirst wohl keine 70% Verbesserung sehen. Das Spiel schreit förmlich nach Bandbreite. Eine GTX1080 mit 18xxMHz ist <20% schneller als eine GTX980TI mit 1200Mhz:
https://www.youtube.com/watch?v=VsaSdTMv7ms

Spiel ist auf nVidia-hardware einfach kaputt.

Fang einfach an dich daran zu gewöhnen dan tuht es nicht so weh, in dem Fall dort oben Limit auf 30 FPS and enjoy everywhere ;)

gnomi
2016-06-04, 12:37:54
Wie meinst du das? :confused:
30 fps sind selbst mit Gamepad Müll bei Quantum Break.

-/\-CruNcher-/\-
2016-06-04, 12:53:38
Hast du das selbe Gefühl auf der Xbox One ?

Wenn ja, kann nichts daran geändert werden wenn nein bestehen noch möglichkeiten es zu verbessern.

fbPSix0ECUQ

StefanV
2016-06-04, 13:09:16
Und wo wir gerade bei DX12 sind:

Gibts Neuigkeiten zum DX12 Fermi Treiber?!

-/\-CruNcher-/\-
2016-06-04, 13:36:01
Das beste ist aber immernoch das gegenteil wenn PC Entwickler 0 Ahnung haben von HSA und es mal auf der Konsole versuchen mit einer CryEngine die noch voll auf den PC optimiert war, und dann auch noch auf die Wahnwitzige idee kommen lassen wir es 1080p Nativ laufen ;)

L6JXeX9sYYE

gnomi
2016-06-04, 13:42:15
Hast du das selbe Gefühl auf der Xbox One ?

Wenn ja, kann nichts daran geändert werden wenn nein bestehen noch möglichkeiten es zu verbessern.

http://youtu.be/fbPSix0ECUQ

Xbox One Performance ist wieder was anderes und optimiert bei vergleichsweise wenigen Details und Auflösung.
Ich habe da nur den Anfang gespielt. Die hat kleinere Performanceeinbrüche, die aber tatsächlich jetzt nicht so wild sind.
Das kann man nicht mit der PC Version mit UWP und 30 fps Cap vergleichen. Richtig.
Dennoch kann man Quantum Break PC mit den richtigen Einstellungen mit höherer Framerate ohne Cap besser als auf der One spielen. Entsprechend Hardware und neusten Patch vorausgesetzt. Also selbst so eine miese Version ist in meinen Augen besser als gar keine und okay, wenn man den Key dazu bekam. :wink:

iuno
2016-06-04, 14:14:30
Gibts Neuigkeiten zum DX12 Fermi Treiber?!
Der ist abgesagt, das ist aber schon aelter

Kriton
2016-06-04, 15:00:50
Der ist abgesagt, das ist aber schon aelter

Das weiß er auch.

Unicous
2016-06-04, 15:02:32
Nicht nur auf nVidia-Hardware, es läuft auch auch AMD kacke :ugly: Trotz Freesync sind die Frametimes einfach beschissen.

Ich hoffe mal Vulkan wird besser als der DX12-Müll.

Auf eine DX11 Engine DX12 draufzuklatschen ist generell keine gute Idee. Du kannst dich bei Microsoft bedanken, dass sie das Remedy aufs Auge gedrückt haben.

dargo
2016-06-04, 15:10:07
Spiel ist auf nVidia-hardware einfach kaputt.
Tja... RotTR ist auf Radeons auch kaputt, wird trotzdem in Benchmarks verwendet. Hoffentlich wird bald Quantum Break in Benchmarkparcours aufgenommen. ;)

Auf eine DX11 Engine DX12 draufzuklatschen ist generell keine gute Idee. Du kannst dich bei Microsoft bedanken, dass sie das Remedy aufs Auge gedrückt haben.
Ohne den Vergleich mit keinem UWP wäre ich bei solchen Aussagen vorsichtig.

Troyan
2016-06-04, 15:21:38
Tja... RotTR ist auf Radeons auch kaputt, wird trotzdem in Benchmarks verwendet. Hoffentlich wird bald Quantum Break in Benchmarkparcours aufgenommen. ;)


Läuft Tomb Raider auf einer Fury X Karte auch nur mit weniger als 35FPS in 1080p und allen Details? Oh warte, nein.

illidan
2016-06-04, 15:32:02
Genau wie bei QB musst du mit Radeons aber auch Details wie AF runterdrehen, damit die Bildraten halbwegs akzeptabel sind.
Optimierung für Radeons von RotTR ist schon frech schlecht, so langsam lief im GPU-Limit im Vergleich schon lange kein anderes Spiel mehr.

Troyan
2016-06-04, 15:52:24
"AF"? Das ist ein Hardwareproblem. Kann wohl kaum der Entwickler fixen...

Rise of the Tomb Raider läuft außerhalb der OpenWorld-Bereiche astrein auf AMD-Hardware (https://youtu.be/YHhPOvlnLGM?t=69). Und in den OpenWorld-Bereichen ist einfach die Hardware und der Treiber am Limit (auch dank schlechter Programmierung).

Kein Vergleich zu Quantum Break, das in ähnlichen Bereichen absolut grottig auf nVidia-Hardware läuft.

dargo
2016-06-04, 16:03:19
Läuft Tomb Raider auf einer Fury X Karte auch nur mit weniger als 35FPS in 1080p und allen Details? Oh warte, nein.
Seit wann sind mit einer Fury X in 1080p lächerliche 35fps die Vorgabe? :ulol:

Troyan
2016-06-04, 16:04:03
Seitdem jemand Rise of the Tomb Raider auf eine Stufe mit Quantum Break gestellt hat.

illidan
2016-06-04, 16:06:33
"AF"? Das ist ein Hardwareproblem. Kann wohl kaum der Entwickler fixen...

Als Entwickler sollte man sicherstellen, dass grundlegende Features auf den verschiedenen GPUs akzeptabel schnell laufen.
Womöglich hat man aus Schlampigkeit ein Texturformat genutzt, bei dem Radeons verkacken.
Kann so einen Performance-Hit bei keinem anderen aktuellen Spiel feststellen.

StefanV
2016-06-04, 18:27:27
Der ist abgesagt, das ist aber schon aelter
Hast 'nen Link dazu?!

Hab beim googeln nix gescheites gefunden...

kruemelmonster
2016-06-04, 18:30:59
@StefanV:

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11028866#post11028866

dildo4u
2016-06-05, 11:09:53
Auf eine DX11 Engine DX12 draufzuklatschen ist generell keine gute Idee.
Jup Forza 6 scheint ein gutes Beispiel zu sein läuft gut auf NV und AMD und ist sogar noch in Beta.Ich schätze mal Turn 10 hat NV's Vorgaben beachtet damit die Engine gut mit Maxwell zusammen arbeitet.Leider wird es noch länger Dauern bis Games außerhalb der MS Studios DX12 only sind.

Kartenlehrling
2016-06-05, 11:22:54
Es läuft gar nichts gut, nimm deine rosa brille ab, das zwei CPU Threads mit 100% laufen und CPU Takt skaliert ist ein schlechtes Zeichen,
auch haben sie anscheinend letzten Patch kaputt repariert, MSAA greift wohl nicht mehr, es macht kein unterschied ob 1x oder 8x MSAA,
selbst Treiber erzwingen geht nicht dafür müsste das Spiel nur MSAA unterstützen :)


Ich schätze mal Turn 10 hat NV's Vorgaben beachtet

Meinst du jetzt Deine Do`s und Don´t Liste?!! (https://developer.nvidia.com/dx12-dos-and-donts)
Du meinst bestimmt die Busenfreundschaft und 7? Jahre enge zusammenarbeit am DX12.
http://cdn.wccftech.com/wp-content/uploads/2014/03/NVIDIA-DirectX-12-API-GDC-2014-635x357.jpg

StefanV
2016-06-06, 10:37:37
@StefanV:

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11028866#post11028866
Ah, danke.
Aber was ist denn nun mit der Angabe von DX12 auf Geforce.com?!

dargo
2016-06-06, 11:48:32
Jup Forza 6 scheint ein gutes Beispiel zu sein läuft gut auf NV und AMD und ist sogar noch in Beta.
Was du wieder für einen Blödsinn hier verbreitest. Forza 6: APEX ist genauso Beta auf NV wie AMD, je nach Patch. Dazu muss man sich nur im entsprechenden Thread seine Infos holen. Entweder Turn 10 sind absolute Anfänger auf PC-Plattform oder Microsoft mit seinem UWP-Mist. Die Software heißt zurecht Beta. Die kriegen nicht mal so simple Sachen wie Vsync Off ohne Framelimiter (bzw. Kopplung an die Refreshrate ab 120Hz und anschließender Halbierung der Frames) auf die Reihe. Freesync/G-Sync sind immer noch kaputt. Seit letzten Patch gibts kein MSAA usw. usf. Reinste Baustelle.

Hübie
2016-06-06, 12:12:10
Kann ich bestätigen X-D

dildo4u
2016-06-06, 12:42:46
Was du wieder für einen Blödsinn hier verbreitest. Forza 6: APEX ist genauso Beta auf NV wie AMD, je nach Patch. Dazu muss man sich nur im entsprechenden Thread seine Infos holen. Entweder Turn 10 sind absolute Anfänger auf PC-Plattform oder Microsoft mit seinem UWP-Mist. Die Software heißt zurecht Beta. Die kriegen nicht mal so simple Sachen wie Vsync Off ohne Framelimiter (bzw. Kopplung an die Refreshrate ab 120Hz und anschließender Halbierung der Frames) auf die Reihe. Freesync/G-Sync sind immer noch kaputt. Seit letzten Patch gibts kein MSAA usw. usf. Reinste Baustelle.
Es geht um die Performance nicht um Winstore Beschränkungen.
Es sollte nur ein Beispiel für ein DX12 Game sein was auf beiden Architekturen gut läuft im Gegensatz zu z.b Hitman oder Ashes.Nicht vergessen Forza kommt von einer GCN Konsole es ist also durchaus möglich Maxwell freundlich zu schreiben,obwohl das Game bis zum kotzen auf GCN ausgerichtete wurde.

Hübie
2016-06-06, 12:50:39
In dem Punkt magst du nicht ganz unrecht haben, aber nach wie vor kann man noch gar kein Urteil abgeben. Weder über Forza 6 noch über DX12 insgesamt. Da ist einfach noch zu sehr alles im Baustellenbereich.

dargo
2016-06-06, 12:55:12
Es geht um die Performance nicht um Winstore Beschränkungen.

Dann sag es gleich so. Ja... die Framerate ansich ist ganz ok. Nützt allerdings wenig wenns nicht rund läuft.


Es sollte nur ein Beispiel für ein DX12 Game sein was auf beiden Architekturen gut läuft im Gegensatz zu z.b Hitman oder Ashes.Nicht vergessen Forza kommt von einer GCN Konsole es ist also durchaus möglich Maxwell freundlich zu schreiben,obwohl das Game bis zum kotzen auf GCN ausgerichtete wurde.
Du vergleichst gerade Äpfel und Birnen.

Kartenlehrling
2016-06-08, 14:46:40
Wahnsinn !!
Microsoft biete ein eigenes Aufnahme Tool an, kann das mal einer fix mit einigen DX12 Spiele testen.
Fehlt nur noch das man Overlay Daten einblenden kann mit FPSmeter.

http://o.aolcdn.com/hss/storage/midas/fa7cef555f34398f992280940ce60700/203919396/winxbo.jpg


It used to be that if you needed to create a recording of a program on the PC, you had to get Expressions Encoder or some other capture program.
But the feature is now built into Windows 10, assuming you're willing to do some pretending.
Windows 10 brings the Xbox Game DVR feature to the PC. The Game DVR feature lets you record yourself playing a video game,
so you can share the recording with your friends.

Suppose you have some program that you want to record, say for a bug report or for an instructional video. Just pretend it's a game:

Put focus on the program you want to record.
Press Win+G to open the Game Bar. If it asks whether you want to open the Game Bar, say, "Yes, this is a game."

Press the red circle to start recording, or press Win+Alt+R.

Do the thing you want to record.
Open the Game Bar and press the red square to stop recording. Or use the hotkey Win+Alt+R.

Optional: Open the Game Bar, click the gear icon, and uncheck "Remember this app as a game."
The recording is placed in your Videos\Captures folder.
You can configure the capture settings from the Xbox app.

https://blogs.msdn.microsoft.com/oldnewthing/20160607-00/?p=93605

iuno
2016-06-08, 14:57:02
Gibt es das nicht schon laenger?
Als ich RotTR mit DX12 getestet habe kam ungefragt bei jedem Start ein Popup, ob ich nicht das Game aufnehmen will...
Ist aber tatsaechlich ein nettes Tool, wenn es funktioniert, ordentlich konfigurierbar ist und nicht einfach ungefragt auftaucht.
Dazu gehoert fuer mich auch, dass es VCE/NVEnc/QS Support haben muss.

-/\-CruNcher-/\-
2016-06-08, 15:50:19
Es ist Agnostisch supportet jeden IHV der eine schnitstelle dafür implementiert aus dem Treiber heraus..

Es geht in direkte Konkurenz mit allen 3rd Party Game Recordern so gesehen selbst Shadowplay ;)

Diese 3rd Party Game Recorder wie Bandicam, Action, Dxtory,D3DGear und was da noch allles herumkrabelt werden es äusserst schwer haben in den kommenden Jahren wenn sie nicht mehr bieten einige haben ja schon Angefangen (Action Live) aber Microsoft wird das Ganze im Zuge ihrer UWP auch weiter ausbauen ;)

blaidd
2016-06-08, 15:58:21
Wahnsinn !!
Microsoft biete ein eigenes Aufnahme Tool an, kann das mal einer fix mit einigen DX12 Spiele testen.
Fehlt nur noch das man Overlay Daten einblenden kann mit FPSmeter.

Das ist Microsofts GameDVR. Das funktioniert auch unter DX12. Ich hab den TW: Warhammer Benchmark damit aufgezeichnet, weil alles andere gestreikt hat.

Die Standard-Settings sind leider Murx, ich müsste mir das mal genauer ansehen, was da so geht. Das Video vom Bench hat leider die ziemlich aggressive Kompression (~10 Mbit) und das automatische Runterrechnen von 1440p auf 1080p versaut, außerdem hat's keinen Ton aufgenommen (wahrscheinlich falsche Quelle). Da geht aber wahrscheinlich noch was, ich hab allerdings keine Settings zu Gesicht bekommen...

Das man sich mit irgendwelchen Xbox-Konten und Gamertags (hatte ich noch von der ollen 360) anmelden muss und dann da direkt das Win10-Konto verknüpft wird, nervt auch ein bisschen. ;)

Hübie
2016-06-08, 17:10:39
Wahnsinn !!
Microsoft biete ein eigenes Aufnahme Tool an, kann das mal einer fix mit einigen DX12 Spiele testen.
Fehlt nur noch das man Overlay Daten einblenden kann mit FPSmeter.

http://o.aolcdn.com/hss/storage/midas/fa7cef555f34398f992280940ce60700/203919396/winxbo.jpg

https://blogs.msdn.microsoft.com/oldnewthing/20160607-00/?p=93605

lol. Das war hier nicht bekannt? Habs sogar abgeschaltet, weil zu unzuverlässig und unflexibel.

-/\-CruNcher-/\-
2016-06-08, 17:48:54
Das ist Microsofts GameDVR. Das funktioniert auch unter DX12. Ich hab den TW: Warhammer Benchmark damit aufgezeichnet, weil alles andere gestreikt hat.

Die Standard-Settings sind leider Murx, ich müsste mir das mal genauer ansehen, was da so geht. Das Video vom Bench hat leider die ziemlich aggressive Kompression (~10 Mbit) und das automatische Runterrechnen von 1440p auf 1080p versaut, außerdem hat's keinen Ton aufgenommen (wahrscheinlich falsche Quelle). Da geht aber wahrscheinlich noch was, ich hab allerdings keine Settings zu Gesicht bekommen...

Das man sich mit irgendwelchen Xbox-Konten und Gamertags (hatte ich noch von der ollen 360) anmelden muss und dann da direkt das Win10-Konto verknüpft wird, nervt auch ein bisschen. ;)

Natürlich keiner von den anderen hat eine Ahnung von den neuen Sicherheitslayern. Microsoft lässt da schön alle noch im Dunkeln.

Irgendwann muss das ja alles mal stabil werden man hat die Treiber und Application Entwickler ja nicht erst seit gestern auf die Veränderungen und updates drauf hingewiesen (auf die nicht Top Secret sachen jedenfalls) und zumindestens die IHVs sollten ausführlich um den Sicherheitslayer aspekt wissen immerhin implementieren sie ihn ja auch mit und schaffen die interfaces über ihre WDDM 2.0 Treiber und UEFI Firmware.

E3wTajGZOsA


Das ist immernoch alles eine Katastrophe (von der Stabilität)

dargo
2016-06-08, 18:01:24
Wahnsinn !!
Microsoft biete ein eigenes Aufnahme Tool an, kann das mal einer fix mit einigen DX12 Spiele testen.

Ist für die Mülltonne, Qualität unter aller Sau.

-/\-CruNcher-/\-
2016-06-08, 18:17:05
Die Qualität ist wohl auf ein Balanciertes Ergebniss jedes IHV Hardware Blocks optimiert. jedenfalls scheint das das Ziel, vielleicht legen es die IHVs sogar selbst fest über den Treiber, was wiederum möglichkeiten zur Differenzierung von z.b Shadowplay zulassen würde ;)

Es ist halt eine AVG user mach dir keine Gedanken Lösung wie auf der Xbox One eben nur das man auf der Xbox One gar keine Auswahl von irgendwas hat so ziemlich alles vorgegeben, man darf hier und da mal eine Basic Entscheidung treffen das wars, hoffen wir das der PC nie so endet ;)

illidan
2016-06-08, 18:28:57
Chroma Subsampling sieht grundlegend verkackt aus, die OSD-Schrift von Afterburner/RTSS ist furchtbar entstellt.

Kartenlehrling
2016-06-08, 18:50:54
Am liebsten wär mir Afterburner+RTSS, da ich damit lange zufrieden war und HWinfo64 einbinden kann.
Action! von mirillis.com funktioniert unter DX12 und Win10 Fenstermode,
und hat auch ein Benchmark tool nur fehlt mir HWinfo64.

Aufnehmen ist ja anscheinend nicht mehr so das Problem unter DX12 und Vulkan?,
was aber bei vielen nicht hinhaut bzw. fehlt ist das Overlay für die Technischen Daten.
für Win10 Games brauch man halt Fenstermode.

dargo
2016-06-08, 19:06:10
Action! von mirillis.com funktioniert unter DX12 und Win10 Fenstermode,
und hat auch ein Benchmark tool nur fehlt mir HWinfo64.

Aktion! kannst du auch vergessen. Sehr teuer bei Aufnahmen und keine sauberen Videos möglich. Die Quali mit AMDs App ist auch für die Tonne. Das taugt höchstens für 720p einigermaßen. Bei absolut flüssigen Videos und sauberer Quali ist immer noch Fraps konkurrenzlos. Leider wird das nicht weiter für die neuen APIs entwickelt. :(

-/\-CruNcher-/\-
2016-06-08, 21:27:03
Nur Quicksync ist brauchbar, Intels gesammt Ansatz seit Sandy Bridge schaft es als einiziger zu überzeugen und sich kontinuerlich zu verbessern :)

AMD und Nvdiai hängen dort jetzt Jahre hinterher mit ihren VPU Kernen.

Kartenlehrling
2016-06-08, 21:27:31
Nur Quicksync ist brauchbar
Es funktioniert seit gut 2 Jahren bestens.

Ich nehme seit 3Jahre, es sind sogar 4 Jahren mit QuickSync auf und damit reicht mir immer die Qualität für 1080p/60fps.
Jedenfalls ist es gut das Microsoft auch ein Aufnahmeprogram anbieten das unter DX12 funktioniert.

Aktion! kannst du auch vergessen.
Naja typische @Drago Anwort wenn er mit den einstellung überfordert ist, wiegesagt Quicksync funktioniert und
es soll sogar NVENC-Hevc aufnehmen (https://mirillis.com/de/company/newsroom.html) ausserdem bekommt es ständig updates,
die kostelose Testversion funktioniert das nötiges auch so.

NEW FEATURE: Hardware accelerated HEVC/H.265 video recording support added for NVIDIA graphics cards



Wir gehen aber wieder zu weit OT.

-/\-CruNcher-/\-
2016-06-08, 21:37:27
Glaub mir du kannst Nvidias H.265 effizienz gegen Intels H.264 effizienz vergessen ;)

Hübie
2016-06-08, 23:38:39
Und wo wir gerade bei DX12 sind:

Gibts Neuigkeiten zum DX12 Fermi Treiber?!

Es gibt einen 3D Mark run mit einer 580:

http://www.3dmark.com/3dm/12345651

kruemelmonster
2016-06-09, 00:21:18
@Hübie:

Das ist nichts neues (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10818424#post10818424), der 358.70 ist bis dato der einzige öffentliche Treiber für Fermi welcher DX12 im 3DMark ermöglicht. Allerdings auch nur im 3DMark, mit jeder anderen DX12 Anwendung gibts sofort Fehlermeldungen und Appcrashes; das hab ich erst kürzlich mit der GTX 470 im Zweitrechner getestet.

Match-Maker
2016-06-09, 00:21:52
Es gibt einen 3D Mark run mit einer 580:

http://www.3dmark.com/3dm/12345651
Neu ist das allerdings nicht, da mit dem 358.70 entstanden. ;)
Schätze Nvidia wird versuchen es weiter auszusitzen. :freak:
Vielleicht hätten sie von Anfang an ehrlich sein sollen, anstatt die User anzulügen... ;D

-/\-CruNcher-/\-
2016-06-09, 00:24:28
Wenn dann ist davon auszugehen das sie es versucht haben aber irgendwo gescheitert sind einen stabilen WDDM 2.0 Treiber zu garantieren.

Was so oder so scheisse ist da es nicht wirklich seriös ist wenn i rausposaune das schaff ich schon und versage dann Grandios dabei ;)

Aber wer sagt eigentlich das sie 3D Technisch gescheitert sind vieleicht sind sie auch Sicherheitstechnisch gescheitert Microsoft garantieren zu können das mit Fermi alles innerhalb SecureBoot und UEFI ready verläuft mit WDDM 2.0 oder es war die Kosten/Nutzen Rechnung, aber wie gesagt alles scheisse und macht keinen guten Eindruck, wieder einmal.

kruemelmonster
2016-06-09, 00:50:06
Neu ist das allerdings nicht, da mit dem 358.70 entstanden. ;)
Schätze Nvidia wird versuchen es weiter auszusitzen. :freak:
Vielleicht hätten sie von Anfang an ehrlich sein sollen, anstatt die User anzulügen... ;D

Ich vermute (selbst als "Betroffener") keine böse Absicht dahinter. Die NV-interne Entwicklung und Validierung von DX12 wird mit Sicherheit auch auf Fermi gelaufen sein, und eine Veröffentlichung des Treibers nach dem offiziellen 1511er Release (10586) von Win10 ist immer geplant gewesen.
Meine Theorie: nachdem mit einem Windows Update (ka welches genau, aber lässt sich ja nachprüfen) gewisse Möglichkeiten bzgl DX12 eingeschränkt wurden um die Stabilität der API zu erhöhen war es NV aus technischen Gründen nicht mehr möglich Fermi zu supporten, es bleibt somit bei DX11.3 und WDDM 2.0 (welches schon seit Monaten tadellos auf Fermi läuft, ka was cruncher da schon wieder gebissen hat).

Match-Maker
2016-06-09, 01:06:24
Nur welche technischen Gründe sollten das sein?
Haswell (Intel Gen 7.5) & Kepler haben ja auch Support bekommen und sind beides keine Hardware-Feature-Bomben.
Im Februar sagte Blaire zudem noch "ganz sicher" und das war schließlich nach dem November-Update.

kruemelmonster
2016-06-09, 01:24:02
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=56225&stc=1&d=1465428139

Resource Binding und/oder Tiled Resources wäre mein laienhafter Tipp.
Die Haswell iGPU unterstützt DX12 übrigens genauso gut wie Fermi mit dem einen Treiber, sprich: 3DMark läuft, sonst aber nix. Das hab ich grad vor ein paar Wochen durch.

/edit:

Die Wikipedia (https://en.wikipedia.org/wiki/Feature_levels_in_Direct3D) hat eine aktuellere Übersicht, von der Fermi auch schon verschwunden ist:

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=56227&stc=1&d=1465429008

Match-Maker
2016-06-09, 02:04:00
Der einzige Unterschied zu Kepler scheint im Resource Binding Tier 1 zu liegen.
Laut PCGH 06/2016 S.41ff läuft RotTR DX12 auch fehlerfrei auf Broadwell, welcher selbst kaum besser als Haswell ist.
IMO schlechter als Broadwell kann Fermi nicht sein (zumindest in den relevanten Aspekten)...

dargo
2016-06-09, 08:17:14
Naja typische @Drago Anwort wenn er mit den einstellung überfordert ist, wiegesagt Quicksync funktioniert und
es soll sogar NVENC-Hevc aufnehmen (https://mirillis.com/de/company/newsroom.html) ausserdem bekommt es ständig updates,
die kostelose Testversion funktioniert das nötiges auch so.
Was soll ich mit Quicksync mit einem Xeon? :rolleyes: Zudem sollte man sich die Videos auch genauer anschauen. Nicht nur die Quali ist wichtig sondern vor allem auch die Fluffigkeit. Was nützt mir ein Video @60fps wenn es immer wieder ruckelt? Ich habe schon so einige Programme durchprobiert, natürlich ohne Quicksync und bin letztendlich immer wieder bei Fraps gelandet. Wenn das System genug Power hat und man die Framerate bei 60fps auch cappt gibts in den Videos keinen einzigen (Mikro)ruckler.

HOT
2016-06-09, 08:46:45
Da wird ganz simpel irgendein Hardware-Limit geben, dass sich im Treiber nicht kompensieren lässt. Als Fermi designt wurde hat an sowas wie DX12 niemand auch nur entfernt gedacht. Featurelisten sind ja gut und schön, aber die Hardware ist ja da noch mal ne ganz andere Kiste.

iuno
2016-06-09, 08:49:37
Das weiss man aber auch schon vorher. Ich denke, dass sie bei der Sache ehrlich waren: es gibt einfach kein Interesse an der Umsetzung, weil zu wenige Kunden noch diese Karten nutzen und diejenigen wohl kaum davon profitieren wuerden.

Hübie
2016-06-09, 10:20:56
Was soll ich mit Quicksync mit einem Xeon? :rolleyes: Zudem sollte man sich die Videos auch genauer anschauen. Nicht nur die Quali ist wichtig sondern vor allem auch die Fluffigkeit. Was nützt mir ein Video @60fps wenn es immer wieder ruckelt? Ich habe schon so einige Programme durchprobiert, natürlich ohne Quicksync und bin letztendlich immer wieder bei Fraps gelandet. Wenn das System genug Power hat und man die Framerate bei 60fps auch cappt gibts in den Videos keinen einzigen (Mikro)ruckler.

GFE ist ebenfalls ganz brauchbar. Fraps wird ja afaik nicht mehr weiter entwickelt und so richtige Alternativen gibt es (leider) nicht.

Bei Quicksync vergessen viele, dass nur die kleinen CPUs noch eine iGPU haben. :wink:
Einen echten Sinn sehe ich zwar auch nicht Fermi für DX12 zu bringen, aber jeder wie er mag.

dargo
2016-06-09, 10:59:03
GFE ist ebenfalls ganz brauchbar.
Jein.

Kosten Top, Quali Flop. Auch hier gilt... für 720p durchaus zu gebrauchen. Bei 1080p @60fps war die Quali dann nicht mehr so toll, besonders bei schneller Bewegung. Die ganzen Aufnahmetools sind imo mit zu vielen Kompromissen behaftet.

Kartenlehrling
2016-06-09, 11:01:47
Bei Quicksync vergessen viele, dass nur die kleinen CPUs noch eine iGPU haben. :wink:


Was soll ich mit Quicksync mit einem Xeon? :rolleyes:



Prozessor
Intel Xeon E3-1230 v3 @3,7Ghz @1,0459V
Anzahl der Kerne 4
Anzahl der Threads 8

Im Fall @Drago ist das einfach nur an der falschen Stelle gespart und wieso 6 und 8 core keine iGPU haben verstehen ich bis heute nicht.

dargo
2016-06-09, 11:03:35
Im Fall @Drago ist das einfach nur an der falschen Stelle gespart und wieso 6 und 8 core keine iGPU haben verstehen ich bis heute nicht.
Was ein Blödsinn mal wieder... bei einem "günstigen" Zen mit 8C/16T ist dann auch an der falschen Stelle gespart wah? :rolleyes: Will man kompromisslos Videos aufnehmen kommt man um eine vernünftige Capture Karte eh nicht herum. Alles andere sind nur Notlösungen.

iuno
2016-06-09, 11:42:00
Waere ja noch schoener wenn man bei jeder grossen CPU, die sowieso mit einer starken GPU gekoppelt wird (oder mit einer billigen Workstation Karte), die IGP noch mitbezahlen darf. Laesst das Ding halt einfach nochmal um ~50% wachsen.
Es stimmt schon, das die brachliegende IGP mit QS ganz nuetzlich fuers Recording ist, aber wie viele Leute brauchen das wirklich?

Bei Windows bin ich nicht so informiert. Ist mit WDDM2 das Problem dass Apps keinen Zugriff auf Bildinhalte haben, was das Aufnehmen erschwert? Dann sollte MS aber doch zumindest eine Schnittstelle anbieten, die das moeglich macht, nach Erlaubnis durch den User und meinetwegen auch der App.
Wobei ich mich auch frage, warum man die Moeglichkeit nicht gleich mit DX direkt anbietet.

dildo4u
2016-06-09, 11:51:32
Jein.

Kosten Top, Quali Flop. Auch hier gilt... für 720p durchaus zu gebrauchen. Bei 1080p @60fps war die Quali dann nicht mehr so toll, besonders bei schneller Bewegung. Die ganzen Aufnahmetools sind imo mit zu vielen Kompromissen behaftet.
Man kann bei Shadowplay jetzt 1080p in 4k aufnehmen,Bitrate geht dann Richtung 100-130 Mbps.Wenn man in 1080p aufnimmt bleibt es bei 50 Mbps.

https://mega.nz/#!lVlChaZT!lic4F9GBQhlqCiAHdXh_yepmtphAom5lNKfzes8iPbg

Gimmick
2016-06-09, 11:57:23
Man kann bei Shadowplay jetzt 1080p in 4k aufnehmen,Bitrate geht dann Richtung 100-130 Mbps.Wenn man in 1080p aufnimmt bleibt es bei 50 Mbps.

https://mega.nz/#!lVlChaZT!lic4F9GBQhlqCiAHdXh_yepmtphAom5lNKfzes8iPbg

FHD wird auf HD skaliert oder wie?

Was ein Blödsinn mal wieder... bei einem "günstigen" Zen mit 8C/16T ist dann auch an der falschen Stelle gespart wah? :rolleyes: Will man kompromisslos Videos aufnehmen kommt man um eine vernünftige Capture Karte eh nicht herum. Alles andere sind nur Notlösungen.

Kompromisslose Capture Karten sind aber teuer ;)

dargo
2016-06-09, 12:45:59
Man kann bei Shadowplay jetzt 1080p in 4k aufnehmen,Bitrate geht dann Richtung 100-130 Mbps.Wenn man in 1080p aufnimmt bleibt es bei 50 Mbps.

https://mega.nz/#!lVlChaZT!lic4F9GBQhlqCiAHdXh_yepmtphAom5lNKfzes8iPbg
Für so hohe Bitrate ist das Ergebnis eher mau. Mal davon ab, dass durch den völlig übertriebenen Blur eh nicht so viel neben der Strecke zu erkennen ist. :tongue: Und es gibt immer wieder Ruckler. Du musst schon einen Cut bei 60fps machen und natürlich muss das System durchgehend diese auch liefern können damit es ruckelfrei ist.


Kompromisslose Capture Karten sind aber teuer ;)
Ach was... :eek:, sind High-End Grafikkarten auch.

Gimmick
2016-06-09, 13:41:45
Für so hohe Bitrate ist das Ergebnis eher mau. Mal davon ab, dass durch den völlig übertriebenen Blur eh nicht so viel neben der Strecke zu erkennen ist. :tongue: Und es gibt immer wieder Ruckler. Du musst schon einen Cut bei 60fps machen und natürlich muss das System durchgehend diese auch liefern können damit es ruckelfrei ist.


Es gibt wenige Stellen mit Doppelframes, aber ein paar Momente wo die Position der Autos irgendwie ne Macke hat. Das Video läuft da normal, aber die Autos zucken.


Ach was... :eek:, sind High-End Grafikkarten auch.

Ja und vieles andere auch, genial.

Trotzdem kann man in Software so aufnehmen, dass man die Unterschiede zu einer Capturecard mit der Lupe suchen muss.
Und schaut man sich ein Video des Inhalts wegen an und nicht mit der Absicht die Qualität genau zu beobachten fällt einem eh kaum was auf.

Kompromisslos ist halt nicht immer sinnvoll.

dildo4u
2016-06-09, 13:47:28
FHD wird auf HD skaliert oder wie?

Nein Nvidia begrenzt unter 1080p Aufnahme die Bitrate auf 50Mbps unter 4k gehts bis 130,das hat nix mit dem Game zu tun.

Das Video ist immer noch 1080p nur mit höhere Bitrate.

http://abload.de/img/pcardfx1xs8.png

Gimmick
2016-06-09, 13:49:36
Nein Nvidia begrenzt unter 1080p Aufnahme die Bitrate auf 50Mbps unter 4k gehts bis 130,das hat nix mit dem Game zu tun.

Das Video ist immer noch 1080p nur mit höhere Bitrate.

http://abload.de/img/pcardfx1xs8.png

Dann versteh ich nicht was 4k bedeuten soll.
Das Game läuft in FHD und das Video hat FHD. Ist 4k dann eine Art Modus zum Einstellen oder wie?

Edit: DX12 sollte man doch eigentlich relativ problemlos über Monitoraufnahme statt Spielaufnahme aufnehmen können. (Um die Kurve zur Topic wieder zu kriegen :D)

dildo4u
2016-06-09, 14:00:25
Dann versteh ich nicht was 4k bedeuten soll.
Das Game läuft in FHD und das Video hat FHD. Ist 4k dann eine Art Modus zum Einstellen oder wie?

Ja es gibt verschiedene Aufnahme Modi bei Shadowplay.

http://abload.de/img/shadow2bex20.png

http://abload.de/img/shadowe4z33.png

Hübie
2016-06-10, 00:26:16
Im Fall @Drago ist das einfach nur an der falschen Stelle gespart und wieso 6 und 8 core keine iGPU haben verstehen ich bis heute nicht.

Weil die primär für Server konzipiert werden (die haben oft nicht mal eine GPU drin->putty etc) und wir Gamer den "Abfall" kaufen dürfen. Die haben afaik auch gar keinen Interconnect / Bus für eine iGPU. Man müsste also das reguläre PCI-Interface nehmen oder neu designen.

@Dargo: Na ja für die meisten Zwecke reichts. Was will ich mit extrem hoch aufgelösten Videos? Da spiel ich lieber selber. :biggrin: Bin da pragmatisch.

illidan
2016-06-10, 01:14:50
Ashes of the Singularity wird ja gerne als Vorzeigetitel für AMD mit Async Compute gefeiert. Tatsächlich funktioniert das bei dem Spiel auch einwandfrei auf Radeons.
Leider funktioniert DX12 bei dem Spiel mit einer Radeon aber allgemein nicht fehlerfrei, egal ob Async Compute an oder nicht:
Es gibt an Terrain-Abhängen übles Z-Fighting zu beobachten, es flimmern also verschiedene Terrain-Schichten durcheinander:
https://abload.de/thumb/amd1uiugq.png (http://abload.de/image.php?img=amd1uiugq.png)
Diese kleinen, weißen "risse" in den Wänden flackern in Bewegung unschön.
Auch das konnte ich wieder mit Nvidia bzw. Kepler nicht feststellen.

Tomb Raider DX12 ist auf Hawaii seit Crimson 16.4.2 übel am stottern, es ist defakto unspielbar damit.

Die beiden Probleme existieren nicht mehr, TR wurde im Treiber gefixt und Ashes wohl per Patch 1.2.
Bleibt noch Hitman als ziemliche Baustelle. Hoffentlich taugt der Vulkan-Renderer mehr, falls der denn wirklich für das Spiel kommen sollte.

Kartenlehrling
2016-06-24, 09:40:28
So soll Time Spy von Anfang an auf DirectX 12 hin entwickelt worden sein.
Mit unterstützt werden vom Benchmarks auch DX12-Techniken wie Asynchronous Compute,
Explicit Multi-Adapter (unterschiedliche GPUs von unterschiedlichen Herstellern können in einem Multi-GPU-System zusammengefasst werden) und ein erweitertes Multi-Threading.

Time Spy wird ein Bestandteil der Windows Edition des 3DMark werden
http://www.hardwareluxx.de/index.php/news/software/benchmarks/39601-trailer-und-screenshots-zum-directx-12-benchmark-des-3dmark.html
Trailer und Screenshots zum DirectX-12-Benchmark des 3DMark

Anscheinend steht das DX12 update für Futuremarks 3DMark in den Startlöcher, bei Steam gibts es für 5€ mal wieder.

Unicous
2016-06-29, 11:35:26
Gibt hier wohl keine Civ-Fans?:confused:

Civilization 6: "Wir planen eine DirectX-12-Unterstützung" - Interview mit Firaxis (http://www.pcgameshardware.de/Civilization-6-Spiel-56986/Specials/Interview-Technik-1199994/)

Leider nichts annähernd Aussagekräftiges aber immerhin die Bestätigung. Aber es lag ja auf der Hand.:wink:


PCGH: Civ 5 war das erste native DX11-Spiel, als es veröffentlicht wurde und die Verwendung von Hardware-Tessellation und Direct Compute wurde besonders betont. Wird Civ 6 spezielle DX12-Funktionen verwenden?

Dennis Shirk: Wir haben einen Plan für den Einbau von DirectX 12. Wir werden später mehr Details dazu mitteilen.

iuno
2016-06-29, 11:41:54
Civ Fan hier ;p

http://vignette3.wikia.nocookie.net/theamazingworldofgumball/images/9/99/Luke_NOOOOOO.jpg/revision/latest?cb=20120402180634

Linux Support ist auch schon angekuendigt, warum nicht gleich Vulkan? :(

Unicous
2016-06-29, 12:04:22
Das frage ich aber auch. Aber da sie es mit hoher Wahrscheinlichkeit auch für Konsolen bringen, bietet sich DX12 natürlich (zumindest für XO) an.

4 APIs zu unterstützen ist aber auch nicht gerade eine prickelnde Vorstellung.:eek:

Und ja, ich habe alle (ALLE!) PC-Teile gezockt, bin also Hardcore-Fan.(y) Bin deswegen auch noch nicht überzeugt von den Neuerungen, besonders beim Grafikstil.:rolleyes:

Hübie
2016-06-29, 12:06:03
Doch aber unwichtig. Civ ist grafisch einfach nicht sehr anspruchsoll bzw. bietet einfach kaum grafische Highlights (spielerisch umso mehr).

Unicous
2016-06-29, 12:16:51
Das ist natürlich ganz großer Quatsch und zeigt, dass du offensichtlich Civ V nicht gespielt hast. Gerade im Late Game braucht man eine ordentliche CPU, weil die Rundenzeiten sich bis ins Unendliche ziehen. Eine Entlastung der CPU ist also eine gute Sache. Nicht umsonst war Civ V das erste Spiel mit DX11 MT-Implementierung. Darüber hinaus poppen im Late Game die Texturen und die Leader sind auch sehr nett animiert, das wird beim sechsten Teil genauso sein. Bedenke bitte, dass Civ V mittlerweile 6 Jahre auf dem Buckel hat und zu der Zeit fantastisch aussah. Civ V wurde auch lange Zeit als Compute-Benchmark von Anandtech genutzt.

iuno
2016-06-29, 12:27:46
Kann zustimmen. Die Rundenzeiten steigern sich mitunter ins Endlose. Wenn man ueber die Karte bewegt hat man auch ueberall popups und zu langsam nachladende Texturen usw. Da ist technisch schon noch einiges machbar, auch wenn es natuerlich stimmt, dass bei dem Spiel die Optik eigentlich keine allzugrosse Rolle spielt. Uebrigens hatte ja der Einschieber CIV:BE Mantle support, auch daher hatte ich gehofft, dass sie dahingehend flexibel sind und Vulkan relativ einfach reinbekommen...

OT: Im Multiplayer ist es mit den Rundenzeiten ganz schlimm, kennt ihr das Problem? Liegt das eher an der mangelnden Rechenleistung einzelner Clients oder an niedriger Uebertragungsrate im Internet?

Hübie
2016-06-29, 12:28:33
Erzähl doch keinen Quark. Dann ist dein Anspruch an Grafik einfach im Mittelfeld. Ich habe Civ V sehr wohl in meiner Bib und ausgiebig gedaddelt (zeigt mir nur 36 Stunden an aber es waren 100%ig deutlich mehr... keine Ahnug wie Steam zählt - vielleicht nur wenn man on is).

Edit: Du tust ja gerade zu so als hätte ich es verteufelt, dass man DX12 nutzt. Ich sagte lediglich dass Civ 6 einfach nicht so interessant in dem Belang ist. Aber stimmt schon im late game hatte ich beim scrollen noch Nachlader.

Damit mir geglaubt wird:
https://abload.de/img/civvpsubq.png (http://abload.de/image.php?img=civvpsubq.png)

Unicous
2016-06-29, 12:30:12
Das Spiel ist 6 Jahre alt.

:facepalm:


Warum haben sie wohl extra MT implementiert. Der Typ der das gemacht (geleitet) hat, heißt übrigens Dan Baker. Vllt. kommt dir der Name ja bekannt vor.


Ich habe das 10-Fache. Du hast also Civ nie wirklich geliebt.:P

Hübie
2016-06-29, 12:33:04
Ja weiß ich alles. Dan Baker redet sehr viel. Daher ist er mir bekannt. Civ 6 wird grafisch ebenfalls keine Bäume ausreißen. Genau wie Teil 5 vor 6 Jahren.

Unicous
2016-06-29, 12:40:36
Civ 5 war und ist (IMHO) weiterhin das bestaussehendste 4X Rundenstrategiespiel (auch Beyond Earth kommt da nicht heran). Und dass Grafikpracht nicht im Fokus steht, sollte klar sein. Diese Diskussion ist wirklich großer Quatsch.

Ich glaube du solltest dich noch einmal über Civ V informieren. So einfach wie du es darstellst ist es eben nicht. Es geht nicht um State of the Art Grafikpracht sondern die Engine dahinter.


Und den Seitenhieb auf Dan Baker kann ich absolut nicht nachvollziehen. Aber kannst du gerne noch mal erklären was du damit meinst.

Hübie
2016-06-29, 12:42:44
Oh man, als würde ich diesen großen, breit-gelatschten Artikel mit der Technik dahinter nicht kennen :rolleyes: Beeindruckt mich nur einfach nicht so wie dich. Die Diskussion ist wirklich Quark.

Unicous
2016-06-29, 12:47:16
Sechs. Jahre. :rolleyes:

Hübie
2016-06-29, 14:09:51
Na. Und?

dildo4u
2016-06-29, 21:12:51
Der Warhammer DX12 Patch kommt Morgen.


http://wiki.totalwar.com/w/Total_War_WARHAMMER_DirectX_12_System_Requirements

Troyan
2016-06-29, 21:17:05
Nette "?" bei Pascal. :lol:

dildo4u
2016-06-29, 21:19:00
Wundert mich das NV ihnen keine Karte gegeben hat im Gegensatz zu Ashes wird das Game nämlich tatsächlich gezockt. ;)

Troyan
2016-06-29, 21:24:55
Gaming Evolved Spiel. Spielentwickler interessieren sich nicht für nVidia - siehe IO Interactive mit dem klasse DX12-Pfad, der 3 Monate unbenutzbar war...

Kartenlehrling
2016-06-29, 21:35:11
Rede dir das nur weiter ein.


Ich finde die Tabelle Witzig. (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11084690&postcount=12964)

dildo4u
2016-06-29, 23:24:23
Maxwell scheint unter Warhammer DX12 gar nicht so schlecht zu laufen selbst laut AMD's Reviewer Guide.

http://abload.de/img/warhammerdmsx8.png

Pirx
2016-06-30, 09:18:50
Die "damals" edit: eigentlich vor kurzem hochgelobte GTX 960, sogar OC geht aber ganz schön ein gegen die 380, Geschichte wiederholt sich?

dildo4u
2016-07-01, 19:10:40
GTX 1080 Vs GTX 1070 Vs AMD Fury X DX12 Total War Warhammer Frame Rate Comparison

https://youtu.be/uxnFv8cnjZA

-=Popeye=-
2016-07-01, 19:42:28
Der Vergleich hinkt statt der 1080 hatte da eine 980Ti stehen soll'n da diese sich auf einem ähnlichen Performance-Level bewegt wie die anderen zwei.

Troyan
2016-07-01, 20:37:00
Der Vergleich hinkt statt der 1080 hatte da eine 980Ti stehen soll'n da diese sich auf einem ähnlichen Performance-Level bewegt wie die anderen zwei.

GTX1070 ist doch auf GTX980TI Niveau.

Lustig ist, dass die GTX1080 mit DX11 bis 100% schneller ist als die Fury X mit DX12. :freak:

Meisterleistung AMD und Creative Assembly.

/edit: 13 FPS weniger auf der GTX1080: https://youtu.be/s9dIGqnYK_A?t=34
Haha.

y33H@
2016-07-02, 00:45:18
kA ob das sonst noch jemanden aufgefallen ist: Rise of the Tomb Raider läuft unter D3D12 nun flotter als unter D3D11, zumindest in tendenziell CPU-limitierten Auflösungen.

Komme mit der GTX 1080 FE in 720p auf 140 vs 120 fps, in 1440p jeweils auf 79 fps und in 2160p auf 42 fps (Very High mit HBAO+ und Pure Hair).

Troyan
2016-07-02, 00:49:18
Das lief mit meinen i7-3770 schon immer schneller im CPU-Limit. :D

Kritisch sind die Rail-Passagen, wo die Grafik deutlich hübscher aussieht. Z.B. das zweite Lagerfeuer in Syrien in den Katakomben. Dort hatte ich mit Maxwell immer rund 5% weniger Leistung.

illidan
2016-07-02, 00:51:43
Im CPU-Limit lief das mit DX12 schon immer schneller und im GPU-Limit häufig nur minimal langsamer.

Foobar2001
2016-07-02, 00:58:03
Ich versteh immer noch nicht, warum alle wieder Microsofts Arsch lecken und DX12 benutzen, was auf der Haelfte aller PCs nicht verfuegbar ist anstatt Vulkan zu benutzen. Das gilt sogar fuer PC Exklusivtitel wo man nicht mal mit dem Xbox-One-Argument kommen kann.

Hat sogar bessere Tools (RenderDoc) und ansonsten gibt's auch nicht viel Unterschiede. Zum Heulen.

y33H@
2016-07-02, 00:58:11
@ illidan

Nö, bei mir lief's zum Launch auf der Nano und 6700K auch in 720p unter D3D12 viel lahmer.

illidan
2016-07-02, 01:23:08
Ich habe Hawaii, zu Nano kann nichts sagen.

Hübie
2016-07-02, 02:10:26
Ich versteh immer noch nicht, warum alle wieder Microsofts Arsch lecken und DX12 benutzen, was auf der Haelfte aller PCs nicht verfuegbar ist anstatt Vulkan zu benutzen. Das gilt sogar fuer PC Exklusivtitel wo man nicht mal mit dem Xbox-One-Argument kommen kann.

Hat sogar bessere Tools (RenderDoc) und ansonsten gibt's auch nicht viel Unterschiede. Zum Heulen.

https://abload.de/img/axelgneitning_twittermluhx.png (http://abload.de/image.php?img=axelgneitning_twittermluhx.png)

:biggrin::biggrin::biggrin: Full ack!

Locuza
2016-07-02, 02:36:01
*Persönliche Agenda incoming*

Was Vulkan (noch) nicht hat und wo AMD nichts verbessert hat:
Boo :( I was hoping we'd at least have ROV's by now. Really starting to hold algorithms back at this point.
https://twitter.com/AndrewLauritzen/status/748952410140217348

Foobar2001
2016-07-02, 03:19:05
ROVs funktionieren nur auf Intel gut. NVIDIA und AMD raten davon ab es zu benutzen. Falls es wirklich dringend waere gaebe es schon lange eine Extension, sollte relativ einfach sein.

Sorry, ich dachte die Rede waere von Vk, DX12 muss man wohl damit leben.

Gimmick
2016-07-02, 06:45:44
GTX1070 ist doch auf GTX980TI Niveau.

Lustig ist, dass die GTX1080 mit DX11 bis 100% schneller ist als die Fury X mit DX12. :freak:

Meisterleistung AMD und Creative Assembly.

/edit: 13 FPS weniger auf der GTX1080: https://youtu.be/s9dIGqnYK_A?t=34
Haha.

Hier siehts direkt besser aus:
GameGPU.com (http://gamegpu.com/rpg/%D1%80%D0%BE%D0%BB%D0%BB%D0%B5%D0%B2%D1%8B%D0%B5/total-war-warhammer-directx-12-test-gpu)

Tamagothi
2016-07-02, 08:35:09
GTX 1080 Vs GTX 1070 Vs AMD Fury X DX12 Total War Warhammer Frame Rate Comparison

https://youtu.be/uxnFv8cnjZA

Entweder es kommt mir nur so vor oder das Bilder der beiden GTX ruckelt andauernd.

Disco_STFU
2016-07-02, 09:30:32
Entweder es kommt mir nur so vor oder das Bilder der beiden GTX ruckelt andauernd.

Die Frametimes scheinen jenseits von Gut und Böse zu sein...

Tamagothi
2016-07-02, 10:11:20
Dann nehme ich lieber die 30 FPS der FuryX anstatten der 40-60 FPS der GTX 1070/80

Troyan
2016-07-02, 11:39:30
Hier siehts direkt besser aus:
GameGPU.com (http://gamegpu.com/rpg/%D1%80%D0%BE%D0%BB%D0%BB%D0%B5%D0%B2%D1%8B%D0%B5/total-war-warhammer-directx-12-test-gpu)

Internal-Benchmark, der nicht mit dem wirklichen Spiel vergleichbar ist.
Und immer daran denken: nVidia Hardware ist mit DX11 10%+ schneller. Wären also mit DX11 (deutlich) schneller als AMD mit DX12. :freak:

Gimmick
2016-07-02, 21:34:40
Internal-Benchmark, der nicht mit dem wirklichen Spiel vergleichbar ist.
Und immer daran denken: nVidia Hardware ist mit DX11 10%+ schneller. Wären also mit DX11 (deutlich) schneller als AMD mit DX12. :freak:

Ok.
Mich würde bei dem Frameverlauf-Video mal interessieren in welchem Limit man da auf welcher Karte hängt.

Irgendwie hats Creative Assembly doch verkackt. Im Vergleich lief ja sogar Mantle in seinen paar Titeln besser :freak:

Kartenlehrling
2016-07-03, 00:16:20
Sie haben es doch geschaft von Singlethread die Hauptarbeit auf 2 Threads zu legen, bravo.
Die CPU limitert immer noch AMD, selbst wenn man eigentlich im GPU Limit schon sein sollte.
Ein Indikator ist für mich immer wenn ein i3-4330 einen FX8350 ganz schlecht aussehen läst.

http://gamegpu.com/images/stories/Test_GPU/strategy/Total_War_Warhammer/test/12/w12_intel.jpg

HOT
2016-07-03, 00:37:24
Die civ5-Vergleiche könnt ihr euch klemmen, das Spiel ist 32Bit und kämpfte stets mit dem Adressraumlimit.
Die Vorteile, die die neue Api bringt konnte man bei BE bewundern. Der eigentliche Sprung bei Civ 6 sind aber der Verzicht suf Python und natives 64 Bit. Die Api rundet das Bild nur ab.

tdon
2016-07-03, 00:46:02
Die civ5-Vergleiche könnt ihr euch klemmen, das Spiel ist 32Bit und kämpfte stets mit dem Adressraumlimit.



Gibt es dazu eine Quelle?

Locuza
2016-07-03, 00:58:22
ROVs funktionieren nur auf Intel gut. NVIDIA und AMD raten davon ab es zu benutzen.
Die Befürchtung liegt bei Nvidia in der Luft, aber mangels Software kann man es leider nicht testen.
Ich habe gehofft Just Cause 3 und F1 2015 würden ihren DX12 Patch früher erhalten, mittlerweile herrscht aber Funkstille.

Troyan
2016-07-03, 01:02:37
nVidia hat ein OpenGL-Beispiel für ROVs. Und nVidia rät nicht davon ab. Man soll es nur nicht durchgehend einsetzen.

iuno
2016-07-05, 19:40:58
Uuuund MS vereinfacht mGPU:
https://github.com/Microsoft/DirectX-Graphics-Samples/issues/173

Es soll ein abstraction layer geben, der Code kommt auf GitHub.

Foobar2001
2016-07-05, 20:54:05
Das wird mit grosser Sicherheit AFR sein und extrem beschissen skalieren, wenn es ohne weitere Anpassungen an die Engine gemacht wird. Aber ich lasse mich gerne eines besseren belehren.

Hübie
2016-07-05, 21:01:00
Na da bin ich mal gespannt X-D

Tamagothi
2016-07-05, 21:26:13
SFR Beispiel

Mann müsste DX12 doch nur so Programmieren das es

1. erkennt das 2 Karten oder mehr karten vorhanden sind

2. automatisch erkennt welche Bereich im spiel wie viel Rechenzeit braucht.

3. automatisch auf die jeweiligen Karten verteilt.

Ich kann mir echt schwer vorstellen das das nicht gehen sollte. Oder will MS das einfach nicht?

Screemer
2016-07-05, 22:17:24
Für sfr das Balancing der tiles zu machen stelle ich mir alles andere als trivial vor und da sind nur 2 tiles die gewichtet werden müssen. Ich bin ja bei Multi GPU für tbr. Also zig tiles für den ganzen screenspace ;)

Foobar2001
2016-07-05, 22:41:32
Ich kann mir echt schwer vorstellen das das nicht gehen sollte. Oder will MS das einfach nicht?
Dann verstehst du nichts davon. Sorry, aber ich muss das so brutal ausdruecken. Das ist voellig naiv.

Achill
2016-07-05, 22:51:31
Die Engines müssen einfach zwischen Single- und mGPU unterschieden lernen. Das große Übel ist sich ändernder Zustand der zwischen zwei oder mehr Frames verwendet wird. Das ist gut für Single-GPUs weil hier Berechnungen nur alle n-Frames gemacht werden (z.B. Schatten / Teile der Beleuchtung) - ist aber schlecht für mGPUs da dies zwischen den Frames der GPU-Nodes sync. werden muss.

mGPU -> Stateless => Bei B2B- und C2B-SW vermeidet man in vielen Fällen auch Zustand - seit Jahren - um diese Horizontal skalieren zu können (Netzwerk-Bandbreite & Latenz).

iuno
2016-07-05, 23:46:27
Ich denke auch, dass es erstmal "einfaches" AFR ist.
Ehrlich gesagt halte ich aber auch (noch) nichts von SFR.

Kartenlehrling
2016-07-06, 12:14:17
Nvidia will es ja mit Gsync sauber synchronisieren,
vielleicht hilft aber auch die VR Entwicklung und wiederbelebt das mGPU auch am Monitor.

iuno
2016-07-06, 13:02:21
Microruckler sind mit G-Sync trotzdem noch unangenehm.
Natuerlich koennte das Problem trotzdem etwas abgeschwaecht werden, minimal frame pacing und synchronisierte Ausgabe wuerden AFR schon deutlich helfen. Aber mal sehen.

illidan
2016-07-06, 13:24:45
AFR ist nicht zu helfen. Da kommt irgendein Patch oder neuer Treiber, und schwupps gibts wieder Kompatibilitätsprobleme. Das Framepacing kann in bestimmten Situationen auch einfach schon mal ausfallen.
Mal abgesehen davon, dass man eigentlich immer >60fps braucht, damit der AFR-Lag die Spielbarkeit nicht unter das Niveau von sGPU zieht.

Foobar2001
2016-07-08, 06:25:27
@tjukic, this first iteration of the layer will focus on providing a solution for alternate frame rendering (AFR). We will be publishing some documentation with the layer explaining what it does and does not provide and how to weave it into your project. It's more information than would fit nicely into an issue thread such as this, so I'll hold off on that for now.
Hab's ja gesagt.

dildo4u
2016-07-08, 11:07:04
Neuer Tomb Raider Patch.


http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11095128&postcount=1077

Kartenlehrling
2016-07-08, 11:24:50
Woher sollen die 20% Steigerung her sein?
Aber an den gestiegen minFPS kann man sehen das selbst unter DX12 eine AMD Karte gebremst wurde.

Jetzt will ich aber HDR-Patch sehen ob sich am Speicherverbrauch was ändert.

iuno
2016-07-08, 13:11:37
http://www.neogaf.com/forum/showpost.php?p=209455224&postcount=3175

Das scheinen wirklich durchgaengig ueber 20% zu sein, bei den min. FPS nochmal deutlich mehr.

Nett dass sie puenktlich ein halbes Jahr nach Launch mal an der GCN Performance drehen, was ja von Beginn an angekuendigt wurde. oder sehen GeForces dieselben Steigerungen?

Unicous
2016-07-08, 13:19:32
Also die Min. FPS sind doch wirklich am Interessantesten. Durchgängig mehr als verdoppelt ist eine Ansage. Da fragt man sich, was CD/Nixxes da verbrochen haben.:confused:

dildo4u
2016-07-08, 13:25:11
Also die Min. FPS sind doch wirklich am Interessantesten. Durchgängig mehr als verdoppelt ist eine Ansage. Da fragt man sich, was CD/Nixxes da verbrochen haben.:confused:
Man müsste noch ne 8GB AMD gegentesten,das massive abkacken der Fury könnte vor dem Patch am Vram gelegen haben.PCGH hat bei Hitman das selbe beobachtet unter DX12 wurde deutlich mehr Vram belegt,vielleicht wurde das jetzt bei Tomb Raider gefixt.

][immy
2016-07-08, 13:25:35
Neuer Tomb Raider Patch.


http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11095128&postcount=1077

wtf?

Adds utilization of DirectX 12 Asynchronous Compute, on AMD GCN 1.1 GPUs and NVIDIA Pascal-based GPUs, for improved GPU performance.

Warum nur für GCN 1.1+ GPUs?
Oder geht es darum das einfach mehr "asynchrone" aufgaben an die GPUs gleichzeitig übergeben werden.