PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : DirectX 12 Grafik-API


Seiten : 1 2 3 4 5 6 7 8 9 10 11 [12] 13 14 15 16 17 18 19 20 21 22 23 24 25

BlacKi
2016-03-10, 23:40:35
eigentlich muss man amd an dieser stelle mal gratulieren. endlich hat man was am start und vergeigt es nicht von anfang an (abgesehen von den kleinen bugs, und tweaks), so wie es die amd tradition verlangt. ich hoffe Deus Ex wird im sommer flüssig spielbar sein auf meiner 970 denn vor gp102 hatte ich nicht vor eine neue grafikkarte zu kaufen.

Datarecovery09
2016-03-11, 01:40:07
Warum läuft Gears of War auf nVidia hardware erheblich schneller? Der Entwickler hat keine Optimierung auf AMD Hardware vorgenommen.

Kann ja auch keineswegs daran liegen, dass GoW für sich genommen einfach eine technische Katastrophe ist... :rolleyes:
Mal im Ernst: Wir reden hier im Grunde von einem Spiel auf UE3(!)-Basis, das jemand mit Hilfe einiger Spax-Schrauben und Tesafilm um ein paar kümmerliche DX12-Brocken erweitert hat. Das ist kein Benchmark, das ist eine Verlegenheitslösung.

Wie sich das Ganze am Ende darstellt werden wir sehen, wenn einige DX12-Spiele mehr auf dem Markt sind. Da kommt in nächster Zeit ja auch noch Quantum Break, um mal eines zu nennen.

Hübie
2016-03-11, 07:56:15
Also meiner Meinung nach sind die jüngsten Resultate das Ergebnis mehrerer Faktoren:

1. Die neuen Engines sind nun auf die Konsole angepasst. Daher hat es auch lange gedauert, bis der Konsolendeal Wirkung hatte. Alle neuen Engines (Frostbite/Dunia (ohne Gameworks)/Snowdrop/Cryengine) scheinen schon recht gut mit den GCN umzugehen auch unter DX 11.

2. GCN war im GPU Limit nie schwach aber der Overhead in niedrigen Auflösungen hat Ihnen immer zu schaffen gemacht (tut es teilweise immer noch). Da hat Nvidia einfach entweder besser gearbeitet oder es ist architekturbedingt bei AMD nicht mehr möglich.

3. AS spielt AMD in die Hände. Es ist kein Überfeature aber es kann die paar % rausholen die man oftmals zurücklag.

So oder so werden wir sehen, dass sich in Sachen Performance beide wieder stärker annähern und ich hoffe es zahlt sich für AMD aus. Es kann nicht schaden 2 starke Wettbewerber zu haben, nur dann bewegt sich was.

Amen! So sieht es aus. AMD nimmt Fahrt auf und ich denke noch drei, vier Treiber, dann ist Crimson in seiner Implementierung erst mal fertig und das CCC endgültig Geschichte. Es kann also nur besser werden. Die Frage ist nur wer sich an wen anpassen wird, in puncto Preisgefüge.

radical83
2016-03-11, 09:46:00
Hitman ist technisch genauso schlecht wie GoW, wenn man The Division dagegen setzt.

Wenn du jetzt geschrieben hättest Hitman ist keine Augenweide oder würdest die hohen Hardwareanforderungen in Relation zur Grafik bemängeln, dem könnte man sicherlich nur schwer widersprechen.

Hitman hat einen eigenwilligen Grafikstil und soweit mir bekannt noch nicht einmal einen Level bei Tag. Wie will man da einen Vergleich heranziehen zu Division, dass neben seinem Detailreichtum auch viel Faszination durch die tolle wechselnde Beleuchtung ausübt.
Gibt es bei Division eigentlich auch so viele NPCs auf so wenig Raum?

Letztendlich zeugt dein Vergleich mit GoW, dass auf den Grafikkarten des einen der beiden Herstellers nahezu unspielbar ist, von deiner einseitigen Sichtweise.

Soweit ich das sehe gibt es keine Probleme mit Hitman auf der Geforce. Das dir die Performance auf dieser nicht zusagt ist wohl eher der Hardware der Nvidia-Grafikkarten geschuldet.



Hat eigentlich jemand GoW mit Hawaii/Grenada gebencht?
Ich konnte nichts finden und soweit ich den Forbes Artikel richtig verstanden habe, scheint es auf diesen keine Performanceprobleme oder zumindest nicht in diesem Maße.
Möglicherweise hat GCN 1.2 noch treiberbedingte Probleme mit DX12?

Raff
2016-03-11, 10:17:21
Ein paar neue Messungen zu DX12 vs. DX11, einmal im absoluten CPU-Limit und einmal mit weitgehendem Grafiklimit: http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/DirectX-12-Benchmark-Test-1188758/#a6

Sieht aktuell einfach nicht gut aus in Hitman, auch wenn gute Ansätze da sind.

MfG,
Raff

gnomi
2016-03-11, 10:35:57
Genau wie gedacht.
Bei nvidia bleibt man wohl am besten beim DX 11 Pfad, bis die explizit für das jeweilige DX 12 Spiel was anderes empfehlen...

radical83
2016-03-11, 10:43:43
Das betrifft jedoch voraussichtlich nur Geforce-Grafikkarten, Radeon-Chips legen laut unseren obigen Benchmarks unter DX12 konsequent zu. Weitere Messungen werden folgen.
Das heißt ihr testet das noch mit einer AMD Grafikkarte gegen? Vielleicht kann diese eine geschmeidigere Bildausgabe bewerkstelligen.

Nach dem ich euch gestern noch für eure Mühe gelobt habe, folgt heute etwas Kritik:
Wir haben außerdem unter Direct X 12 mit der HIS R9 390X IceQ X²/8G einen verhältnismäßig hoch getakteten Hawaii-Vollausbau gemessen, der sich erwartungsgemäß nah an die GTX 980 Ti heranschieben kann.

Wiese wird bei AMD so etwas explizit erwähnt? Die Karte ist Werkseitig mit sage und schreibe weniger als 2% höher getaktet als der Durchschnitt aller anderen R9 390X.

Hingegen wird der hohe Boosttakt einer 980ti mit keiner Silbe erwähnt?

Armaq
2016-03-11, 10:45:53
Ein paar neue Messungen zu DX12 vs. DX11, einmal im absoluten CPU-Limit und einmal mit weitgehendem Grafiklimit: http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/DirectX-12-Benchmark-Test-1188758/#a6

Sieht aktuell einfach nicht gut aus in Hitman, auch wenn gute Ansätze da sind.

MfG,
Raff
Warum ist da keine Fury dabei? Also sorry pcgh, aber das ist schon echt offensichtlich. Die 390X ist doch kein Wettbewerb zu einer Strix. :rolleyes:

Euer Werbekunde wird so langsam richtig offensichtlich unterstützt. Der Hitman Nachtest ist wirklich eine absolute Frechheit und mehr BIAS geht nicht. Da wird ne 300 € Karte gegen eine 700 € Karte gebencht und es kommt nicht zu einem ganz deutlichen Statement.

radical83
2016-03-11, 10:50:36
@ Armaq

Du hättest vielleicht mal den Artikel lesen und dir nicht nur die Balken angucken sollen.

Raff
2016-03-11, 10:50:48
Warum ist da keine Fury dabei? Also sorry pcgh, aber das ist schon echt offensichtlich. Die 390X ist doch kein Wettbewerb zu einer Strix. :rolleyes:

Euer Werbekunde wird so langsam richtig offensichtlich unterstützt. Der Hitman Nachtest ist wirklich eine absolute Frechheit und mehr BIAS geht nicht. Da wird ne 300 € Karte gegen eine 700 € Karte gebencht und es kommt nicht zu einem ganz deutlichen Statement.

Was ist das denn nun für ein Unsinn? Da steht dick und fett, dass es große Probleme gibt, weshalb sich die Tests verzögern. Der Artikel erfährt laufend Updates, gerade ist eine R9 280 dazu gekommen.

MfG,
Raff

dildo4u
2016-03-11, 10:50:53
Warum ist da keine Fury dabei? Also sorry pcgh, aber das ist schon echt offensichtlich. Die 390X ist doch kein Wettbewerb zu einer Strix. :rolleyes:

Euer Werbekunde wird so langsam richtig offensichtlich unterstützt. Der Hitman Nachtest ist wirklich eine absolute Frechheit und mehr BIAS geht nicht. Da wird ne 300 € Karte gegen eine 700 € Karte gebencht und es kommt nicht zu einem ganz deutlichen Statement.
Lies den Text bevor du rumflamst.

Achill
2016-03-11, 10:50:55
Ein paar neue Messungen zu DX12 vs. DX11, einmal im absoluten CPU-Limit und einmal mit weitgehendem Grafiklimit: http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/DirectX-12-Benchmark-Test-1188758/#a6

Sieht aktuell einfach nicht gut aus in Hitman, auch wenn gute Ansätze da sind.

MfG,
Raff

Könntest du ein Vergleichstest mit einer 390X oder Fury(X) machen (wenn 60fps lock gefixed). Der NV-Treiber unterstützt schon multi-threaded Command-Lists in DX11 (Optionales Feature) und ggf. noch weitere Optimierung in der Richtung hat.

Edit: Bedenkt man die Aufwände der entsprechenden Treiber-Team(s) die an den DX11 NV-Treiber gearbeitet haben, so ist ein Plus unter DX12 erreicht durch eine LL-API trotzdem nicht zu unterschätzen und der "Richtige Weg" - da DX12 (und so denn auch Vulkan) bei allen GPUs Wirkung zeigt.

dildo4u
2016-03-11, 10:54:27
Das kann wieder am HT liegen ich habe gute Zuwächse in Ashes von DX11 zu DX12 mit meinem AMDX6.Oder Async Compute wird auf NV erzwungen das könnte ne weitere Falle sein.

dargo
2016-03-11, 10:55:48
Ein paar neue Messungen zu DX12 vs. DX11, einmal im absoluten CPU-Limit und einmal mit weitgehendem Grafiklimit: http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/DirectX-12-Benchmark-Test-1188758/#a6

Sieht aktuell einfach nicht gut aus in Hitman, auch wenn gute Ansätze da sind.

MfG,
Raff
Naja... im absoluten CPU-Limit sehe ich da bei 2,5Ghz schon Nvidia überall bis auf 3 Sekunden in DX12 vorne, teilweise sogar deutlich.

Armaq
2016-03-11, 10:56:25
Was ist das denn nun für ein Unsinn? Da steht dick und fett, dass es große Probleme gibt, weshalb sich die Tests verzögern. Der Artikel erfährt laufend Updates, gerade ist eine R9 280 dazu gekommen.

MfG,
Raff
Ja, genau. Man macht aber noch einen kompletten CPU Testlauf bevor man die Karten vom Wettbewerb testet. Insbesondere testet man erstmal die 280 und wie gesagt, baut die CPU Tests durch. Diese Dinger werden ja schließlich nach 2 Wochen am häufigsten geklickt. ;)

dildo4u
2016-03-11, 10:58:29
NV steht doch schlecht da passt doch in deine Agenda kein Plan was du hast.

radical83
2016-03-11, 11:08:58
Naja... im absoluten CPU-Limit sehe ich da bei 2,5Ghz schon Nvidia überall bis auf 3 Sekunden in DX12 vorne, teilweise sogar deutlich.

Warum aber DX12 trotzdem nicht besser ist haben die bei PCGH auch direkt begründet:

Das Spielgefühl fällt jedoch nicht besser aus, sondern tendenziell schlechter. Die Ursache dafür ist die sehr unregelmäßige Bildausgabe unter DX12, es kommt immer wieder zu Slowdowns, die klar fühlbar und vor allem im roten Verlauf sichtbar sind.

Tru
2016-03-11, 11:11:35
Ja, genau. Man macht aber noch einen kompletten CPU Testlauf bevor man die Karten vom Wettbewerb testet. Insbesondere testet man erstmal die 280 und wie gesagt, baut die CPU Tests durch. Diese Dinger werden ja schließlich nach 2 Wochen am häufigsten geklickt. ;)
Text lesen soll helfen.

y33H@
2016-03-11, 11:31:12
Und ich dachte, sie verbessern den Launcher :usad: schmiert immer noch gerne ab ... toll, weil das Erste, was man von Hitman sieht.

55189

Raff
2016-03-11, 11:32:48
Kreative Bugs. Das hatten wir hier noch nicht. :uup:

MfG,
Raff

dargo
2016-03-11, 11:39:33
Warum aber DX12 trotzdem nicht besser ist haben die bei PCGH auch direkt begründet:
Ich schätze mal die Treiber müssen noch reifen.

Kriton
2016-03-11, 11:46:43
Niemals, die Grünen machen nur gute Treiber, dass sind die anderen mit den schlechten...:weg:

SCNR

radical83
2016-03-11, 11:48:09
Ich schätze mal die Treiber müssen noch reifen.

Das mag stimmen, allerdings ist dies mal wieder ein gutes Beispiel wie AMD sich erneut selbst sabotiert.

EDIT: ach, du beziehst das sicherlich auf die DX12 Leistung von Nvidia. Hab ich missverstanden.

Achill
2016-03-11, 12:03:54
Der AMD-Treiber kann keine Driver-Command-Lists unter DX11 nutzen, damit geht dann auch kein Multithreaded-Rendering via DCL.

Ein langer NV-Blog-Post zur Thematik (http://forums.anandtech.com/showpost.php?p=31520674&postcount=28), es begann laut Quelle mit Civ5.

Das erklärt warum DX12 jetzt nicht so viel mehr bringt gegenüber DX11 (bei NV), bei AMD um so mehr und was der sonst betitelt "vermeintliche DX11-Overhead" sehr Wahrscheinlich ist.

blaidd
2016-03-11, 12:19:35
So, wir haben das Framelock ausgehebelt :)
Diesmal wirklich. (http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/DirectX-12-Benchmark-Test-1188758/) (fixed.)

dildo4u
2016-03-11, 12:21:06
Da verpufft immer noch massig Leistung bei der Fury nur 6% vor der 390X.

Raff
2016-03-11, 12:24:11
Das Spiel futtert reichlich Grafikspeicher, das wird in Zukunft wohl immer Fijis Hemmschuh bleiben, selbst bei bestmöglicher Auslastung dank Async Compute.

MfG,
Raff

dildo4u
2016-03-11, 12:26:13
Ist Vram schon in 1080p ein Faktor?

radical83
2016-03-11, 12:28:41
So, wir haben das Framelock ausgehebelt :)
Diesmal wirklich. (http://www.pcgameshardware.de/The-Division-Spiel-37399/Specials/PC-Benchmarks-1188384/)


Dein link ist glaube ich falsch. Oder möchtest du uns bei "The Division" auf etwas aufmerksam machen?

dargo
2016-03-11, 12:30:41
So, wir haben das Framelock ausgehebelt :)
Diesmal wirklich. (http://www.pcgameshardware.de/The-Division-Spiel-37399/Specials/PC-Benchmarks-1188384/)
The Division. :confused:

blaidd
2016-03-11, 12:32:02
The Division. :confused:
Dein link ist glaube ich falsch. Oder möchtest du uns bei "The Division" auf etwas aufmerksam machen?

Jetzt könnt ihr nochmal klicken - ich hab zu viele Fenster offen ;)

dildo4u
2016-03-11, 12:32:25
The Division. :confused:
Er meint das Update 3.
http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/DirectX-12-Benchmark-Test-1188758/

dargo
2016-03-11, 12:33:17
Das Spiel futtert reichlich Grafikspeicher, das wird in Zukunft wohl immer Fijis Hemmschuh bleiben, selbst bei bestmöglicher Auslastung dank Async Compute.

MfG,
Raff
Auch in DX11 oder nur DX12? Falls letzteres muss man paar Patches abwarten. Ich erinnere da gerne an Thief und Mantle.
http://www.planet3dnow.de/cms/9983-thief-patch-1-5-bringt-crossfire-fuer-mantle-api-und-senkt-vram-verbrauch/

Jetzt könnt ihr nochmal klicken - ich hab zu viele Fenster offen ;)
Danke.

Werdet ihr noch den CPU-Test mit einer Radeon (ob R9 390X oder Fury ist egal) durchführen? Das fände ich auch ganz interessant in Bezug auf DX12.

radical83
2016-03-11, 12:42:48
Um den Speicherhunger des Spiels etwas transparenter darzulegen, haben wir außerdem eine Sapphire R9 290 Tri-X OC/4G gegengetestet.

390 8Gb vs 290 4Gb

In DX11 + 2%
In DX12 + 10%

Stellt sich die Frage ob es am größeren oder am schneller getakteten Speicher liegt.

Der Framelock Workaround ist auch zu geil. Aber schön das ihr an der Sache drangeblieben seit.
Jetzt bin noch auf die Ergebnisse der (Achtung, Provokation folgt!) "Krüppelkarte" gespannt.

Isen
2016-03-11, 12:45:24
Am Speicher.... selbst höher getaktet ( 290x Lightning ) komme ich nicht ran.
Die Timings sind bei den 390 auch was getuned worden, das fehlt halt für die letzten Promille.

Mal davon ab, zu release die lightning gekauft... mit UV auf 390 Niveau gehoben, weniger verbrauch ( fullcover ) ... hatte echt noch nie solange ne Karte im Rechner ...

radical83
2016-03-11, 12:51:38
@Isen
Du meinst jetzt der Vorteil resultiert aus dem größeren Speicher? Sorry, wenn ich nochmal blöd nachfrage.

@Blaidd
In der Benchmarktabelle steht bei der 280 nonX "Only medium textures",
bei der 280X jedoch fällt der Zusatz. Ist das ein Fehler oder wurden die wirklich unterschiedlich getestet?

Isen
2016-03-11, 12:55:39
@radical83,

nein. Speichertakt und schärfere Timings. Das ist so in etwa der große Unterschied zwischen den beiden. Bis auf die Größe (8GB) halt noch.

Nur den Speichertakt kriege ich mit meiner Lightning deutlich höher, als es die 390 haben und komme nicht auf das Niveau. Timings halt... die reißen es halt nochmal was raus. Hängt dann aber auch vom jeweiligen Spiel ab, wo das relevant wird. Davon zieht meine erst, wenn ich ihr erlaube saufen zu können was sie will... ( siehe THG Bench mit der MSI 390 im Ashes test )

iuno
2016-03-11, 14:07:16
CB hat jetzt auch Messungen zu Hitman: http://www.computerbase.de/2016-03/hitman-benchmarks-directx-12/2/#diagramm-hitman-mit-directx-12-1920-1080
:lol:
390X = Fury > 980 Ti (FHD!)

Auch in DX11 ist AMD in dem Test auch unglaublich stark. Das Spiel ist einfach alles andere als repraesentativ

dildo4u
2016-03-11, 14:14:25
Vermutlich wieder ein Problem mit HT vom skylake,die 980 Ti ist mit der AMD CPU schneller als FuryX.

dargo
2016-03-11, 14:41:31
CB hat jetzt auch Messungen zu Hitman: http://www.computerbase.de/2016-03/hitman-benchmarks-directx-12/2/#diagramm-hitman-mit-directx-12-1920-1080
:lol:
390X = Fury > 980 Ti (FHD!)

Auch in DX11 ist AMD in dem Test auch unglaublich stark. Das Spiel ist einfach alles andere als repraesentativ
Ich hoffe du denkst daran, dass CB QAF und eine Default 980TI nimmt. Dadurch wirken die Ergebnisse noch stärker Richtung Radeons.

btw.
Ist bei Hitman AC bei den Nvidias automatisch Off? Oder ist es On und deswegen verlieren die etwas Leistung?

PS: witzig ist aber auch, dass Tonga Pro in DX11 minimal schneller als in DX12 ist. :D Da brauchts wohl noch den einen oder anderen Spielpatch/Treiber.

Lowkey
2016-03-11, 14:46:22
Im Grunde gleichen sich die Ergebnisse aus dem AotS Test: buggy, Nvidia verliert, AMD gewinnt.

Thunder99
2016-03-11, 14:49:03
Finde die CPU Benches ein Vorgeschmack was in DX12 so drin steckt. Das Performance Plus ist echt mal heftig zwischen DX11 und 12. Ob überall das Potential abgerufen werden kann wird sich zeigen :)

dargo
2016-03-11, 14:50:43
Vermutlich wieder ein Problem mit HT vom skylake,die 980 Ti ist mit der AMD CPU schneller als FuryX.
65,2fps vs. 64,9fps. :uconf3:

Strange finde ich wie die FX-CPU abgeht. Die kommt ja fast an den Skylake i7 dran der doppelt so viel kostet. :freak: Allerdings nur bei Nvidia @DX12. Wobei da oben die GPUs wieder etwas limitieren dürften. Besser wäre ein Test mit 720p.

Thunder99
2016-03-11, 14:51:13
Im Grunde gleichen sich die Ergebnisse aus dem AotS Test: buggy, Nvidia verliert, AMD gewinnt.
Warum muss was buggy sein wenn AMD gewinnt? Es wird wohl eher oder auch Sachen genutzt wo die brachliegende Performance von AMD Chips mal genutzt wird ;). Für mich sieht es eher danach aus, dass AMD dadurch wieder Boden gut macht und zeigt was in den Chips stecken kann wenn man es ausnutzen kann :)

dildo4u
2016-03-11, 14:52:43
Warum muss was buggy sein wenn AMD gewinnt? Es wird wohl eher oder auch Sachen genutzt wo die brachliegende Performance von AMD Chips mal genutzt wird ;). Für mich sieht es eher danach aus, dass AMD dadurch wieder Boden gut macht und zeigt was in den Chips stecken kann wenn man es ausnutzen kann :)
Es ist auch auf AMD buggy Tonga XT verliert Performance in DX12.DX11 48 auf 45fps mit DX12 laut PCGH.
Scheint so also wenn es das selbe Problem wie bei Mantle gibt der Entwickler muss das Game für jede neue GPU Generation extra anpassen,kacke natürlich wenn der Support des Games irgendwann eingestellt wird.

Atma
2016-03-11, 14:56:20
Warum muss was buggy sein wenn AMD gewinnt?
Das ist jetzt unabhängig davon ob AMD gewinnt oder nicht: Die Entwickler sagen selbst, dass DX12 in Hitman noch in einer frühen Phase ist ;). Erkennt man auch daran, dass Fiji und Tonga lange nicht so gut davonkommen wie Hawaii.

Robspassion
2016-03-11, 14:56:25
"...zumal AMD den Titel im Vorfeld massiv beworben und mit den eigenen Grafikkarten und ausgewählten Prozessoren verkauft hat."

Denke schon dass Amd da gut mitgeholfen hat, dass es dieses Mal besser auf deren Hardware performt. Aber dass eine 390x fast auf 980ti Niveau ist...

Loeschzwerg
2016-03-11, 15:01:04
Ich finde es toll wie schlecht Fiji zu Hawaii aussieht ^^

dildo4u
2016-03-11, 15:03:15
Ich finde es toll wie schlecht Fiji zu Hawaii aussieht ^^
Raff sagt das Game will viel Vram schwer zu sagen ob der Treiber die Karte nicht auslastet oder 4GB zu wenig sind.

Korvaun
2016-03-11, 15:03:57
So langsam zeigt sich also warum die aktuellen Konsolen trotz alter AMD-Hardware noch so gut mit aktuellen PCs mithalten können....

Kartenlehrling
2016-03-11, 15:08:17
ist die CB-Test Tonga R380(970 MHz) nicht mit 2gb? da ist wohl die bremse zu finden.

dargo
2016-03-11, 15:10:35
Es ist auch auf AMD buggy Tonga XT verliert Performance in DX12.DX11 48 auf 45fps mit DX12 laut PCGH.
Scheint so also wenn es das selbe Problem wie bei Mantle gibt der Entwickler muss das Game für jede neue GPU Generation extra anpassen,kacke natürlich wenn der Support des Games irgendwann eingestellt wird.
Es gibt sicherlich einen sogenannten Fallback-Modus, gab es schon bei Mantle. Wenn ein Game eingestellt wird hast du schon eine bis zwei neue Grafikkartengenerationen. Da wird es auch kaum jemanden jucken. Die GPUs sind dann auch schon in diesem Modus schnell genug für alte Spiele.

Lowkey
2016-03-11, 15:14:11
Warum muss was buggy sein wenn AMD gewinnt?

Das Spiel ist buggy. AMD gewinnt nichts, solange es nicht final ist.


Es zeichnet sich wie bei AotS ein Trend zugunsten einzelner AMD Karten ab.

Loeschzwerg
2016-03-11, 15:15:16
Raff sagt das Game will viel Vram schwer zu sagen ob der Treiber die Karte nicht auslastet oder 4GB zu wenig sind.

Ja, da müsste man mal etwas mit den Einstellungen spielen und evtl. die Hawaii Karten (290X und 390X) beim Takt angleichen.

dildo4u
2016-03-11, 15:15:42
ist die CB-Test Tonga R380(970 MHz) nicht mit 2gb? da ist wohl die bremse zu finden.
PCGH hat die 380X mit 4GB im Test auch die ist langsamer in DX12.

Troyan
2016-03-11, 15:25:43
Vermutlich wieder ein Problem mit HT vom skylake,die 980 Ti ist mit der AMD CPU schneller als FuryX.

Wieso sollte HT Probleme machen?!

Gears of War legt bei nVidia mit HT noch mal zu. Ich komme auf ca. 20% in 720p...


Es zeichnet sich wie bei AotS ein Trend zugunsten einzelner AMD Karten ab.

Nicht wirklich. Weder Ashes noch Hitman sind Spiele, die auf nVidia Karten optimiert sind. Gears of War zeigt ein komplett konträres Bild. Wir sehen vielmehr, was passiert, wenn man andere Architekturen gekonnt ignoriert und den Treiber die Arbeit machen lässt: Läuft, läuft nicht. Ist schneller oder langsamer. Reines Glückspiel.

Kriton
2016-03-11, 15:29:23
Wir sehen vielmehr, was passiert, wenn man andere Architekturen gekonnt ignoriert und den Treiber die Arbeit machen lässt: Läuft, läuft nicht. Ist schneller oder langsamer. Reines Glückspiel.

Das klingt nach DX 11 - nicht, dass Du das gemeint hättest...;D

dildo4u
2016-03-11, 15:31:40
Das klingt nach DX 11 - nicht, dass Du das gemeint hättest...;D
DX12 Games müssen scheinbar noch viel genauer auf die Architektur angepasst werden daher verkackt Tonga aber Hawaii hat keine Probleme.
Das liegt nicht nur an den 8 GB der 390,die 290 läuft bei PCGH auch sehr gut.

aufkrawall
2016-03-11, 15:34:49
GCN 1.2 ist irgendwie ein Sorgenkind von AMD. Schon mit DX11 und OpenGL ist das hier und da mit Problemen aufgefallen.

Atma
2016-03-11, 15:36:27
DX12 Games müssen scheinbar noch viel genauer auf die Architektur angepasst werden
Das bewahrheitet sich hoffentlich nicht. Sonst sehe ich schwarz für kommende GPU Architekturen.

Effe
2016-03-11, 15:38:05
DX12 Games...daher verkackt Tonga..
Was verkackt Tonga? Die 380X ist immerr noch schneller als die 280X und dazu noch auf einem Level mit der GTX970. Letztere verkackt, aber komplett.

dildo4u
2016-03-11, 15:39:02
Was verkackt Tonga? Die 380X ist immerr noch schneller als die 280X und dazu noch auf einem Level mit der GTX970. Letztere verkackt, aber komplett.
DX12 ist langsamer als DX11 mit Tonga.


Gears lief und läuft unter DX12 besser auf Geforce es kommt scheinbar extrem drauf an auf welcher Architektur der Entwickler das Game entwickelt.

Troyan
2016-03-11, 15:39:18
Es wird sich bewahrheiten. Jede Architektur muss optimiert werden, um das Maximale herauszuholen.

Der Treiber hat einen deutlich geringen Einfluss. Probleme müssen also nun auf der Applikationsseite gelöst werden.

captain_drink
2016-03-11, 15:40:26
Es zeichnet sich wie bei AotS ein Trend zugunsten einzelner AMD Karten ab.

Allerdings. Die 270X z.B. stürzt bei PCGH unter DX12 auch massiv ab, unter DX11 kann sie sich noch an eine 770 ranschieben.
Generell scheint GCN 1.2 und insbesondere Fiji mit DX12 gg. GCN 1.1 nicht so zu skalieren, wie man es eigentlich erwarten würde.

Aktuell ergibt das insgesamt ein sehr unausgewogenes Bild, bei dem man sich schwertut, allgemeine Tendenzen abzuleiten, und das die Frage entstehen lässt, woran es im jeweiligen Einzelfall hakt.
Daher (und wegen der Vsync-Nummer) bin ich bislang trotz der teils bemerkenswerten Zugewinne von DX12 insgesamt noch alles andere als überzeugt.

Atma
2016-03-11, 15:48:09
Es wird sich bewahrheiten. Jede Architektur muss optimiert werden, um das Maximale herauszuholen.

Der Treiber hat einen deutlich geringen Einfluss. Probleme müssen also nun auf der Applikationsseite gelöst werden.
Dann kommen rosige Zeiten auf uns zu. Bei aktuellen DX12 Titeln wird man mit Pascal & Polaris dann auf DX11 zurückschalten dürfen. Nachträglich wird für die neuen Architekturen eh nicht optimiert :freak:

Troyan
2016-03-11, 15:50:31
Naja, die 5 Titel oder so sind auch egal. Die Frage wird jedoch sein, wie es in 5-10 Jahren aussieht...

Hübie
2016-03-11, 16:50:43
Es muss nicht jede Architektur angepasst werden. Problem ist nur dass die query sagt du kannst Feature XY, aber nicht wie es implementiert ist. Gibt immer weniger workarounds da der Treiber nicht mehr alles abfangen kann. Wenn ein Spiel also Feature XY will und es ist schlecht oder gar nicht implementiert, dann wirds halt schwierig, für den Betroffenen IHV und somit dem Gamer, ein anständiges Substitut anzuwenden.

dildo4u
2016-03-11, 17:11:55
Tomb Raider DX12 Patch ist Online!

Added support for DirectX 12
DirectX 12 is a new advanced graphics API that on the right hardware can offer far better performance.
For the best DX12 performance and stability please install the latest drivers for your GPU.
For NVIDIA: http://www.nvidia.com/download/driverResults.aspx/99512/en-us
For AMD: http://support.amd.com/en-us/kb-articles/Pages/AMD_Radeon_Software_Crimson_Edition_16.3.aspx
Adds NVIDIA VXAO Ambient Occlusion technology. This is the world’s most advanced real-time AO solution, specifically developed for NVIDIA Maxwell hardware. (Steam Only)
Added a new benchmark feature to allow easy comparison of performance on different systems, as well as at different graphics settings.
Fixed some HBAO+ and other Ambient Occlusion issues.
Fixed motion blur problems in Stereoscopic 3D mode.
A variety of other smaller optimizations, bug-fixes, and tweaks

http://steamcommunity.com/app/391220/discussions/0/405694115202867954/

Radeonfreak
2016-03-11, 17:14:10
Jippeh: :ucatch: Saug...

Atma
2016-03-11, 17:17:09
Tomb Raider DX12 Patch ist Online!



http://steamcommunity.com/app/391220/discussions/0/405694115202867954/
:eek::eek::eek:

*Saug*

aufkrawall
2016-03-11, 17:17:28
Damit sollte die miese AMD CPU-Performance bei dem Spiel gegessen sein.
Hoffentlich haben zieht auch AF nicht mehr so viel Leistung. Das wird jetzt spannend.

dargo
2016-03-11, 17:19:35
Wo bleiben die Tests? :anonym:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10968583&postcount=974

@blaidd
Schon wieder Überstunden fällig? X-D

dildo4u
2016-03-11, 17:22:44
Tomb Raider schneller Test.


DX11

http://abload.de/img/rottr_2016_02_05_19_1t0rcv.png

DX12

http://abload.de/img/tombraiderdx12hjrhr.png

Selbe Settings 1080p Maxed High Texturen mit SMAA AMDX6 3.4Ghz GTX 970 1.3Ghz,ist die CPU Lastigste Stelle die ich bisher gefunden hab.

dargo
2016-03-11, 17:26:27
Tomb Raider schneller Test.


DX11

http://abload.de/img/rottr_2016_02_05_19_1t0rcv.png

DX12

http://abload.de/img/tombraiderdx12hjrhr.png

Selbe Settings 1080p Maxed mit SMAA AMDX6 3.4Ghz GTX 970 1.3Ghz,ist die CPU Lastigste Stelle die ich bisher gefunden hab.
:up:

Das wird ein Fest mit Radeon und Hassi i7. :naughty: Jetzt fehlt mir nur der Ersteindruck zur Fluffigkeit @DX12, oder noch besser Frametimes.

Locuza
2016-03-11, 17:38:06
Adds NVIDIA VXAO Ambient Occlusion technology. This is the world’s most advanced real-time AO solution, specifically developed for NVIDIA Maxwell hardware. (Steam Only)
Wie sieht das aus? Wie viel kostet es? Ist es Maxwell exklusiv wie HTFS bei The Division?

fondness
2016-03-11, 17:39:45
Tomb Raider DX12 Patch ist Online!



http://steamcommunity.com/app/391220/discussions/0/405694115202867954/

Offenbar kein AsyncCompute, obwohl in der Konsolenversion vorhanden. Da hat sich wohl der Deal für Nvidia ausgezahlt^^

blaidd
2016-03-11, 17:43:39
Haha, jetzt geht's los mit der DX12-Schlammschlacht - in Rise of the Tomb Raider kratzen offebar die Radeons ab ;)

R9 Fury (integrierter Bench, 1080p, HBAO+ deaktiviert, Texturen hoch, ansonsten maxed) - Overall Score:

DX11: 67,98
DX12: 56,29

EDIT: ACHTUNG!, Gleicher Vsync-Bullshit wie bei Hitman - ich hab grad alles runtergeschraubt, 720p eingestellt 59,94 Fps - 60 Fps-Lock! Die Max-Fps sind offenbar kurze Ausreißer, die gab's bei Hitman auch.

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=55193&stc=1&d=1457715273

dildo4u
2016-03-11, 17:45:07
Wie schon gesagt es hängt extrem davon ab worauf das Game entwickelt wurde.

Locuza
2016-03-11, 17:47:20
Laut Nixxes im Steamforum:
You should see VXAO as the rightmost ambient occlusion option, assuming you are on Maxwell hardware, have up to date drivers, and are running on DX11. VXAO is not yet available on DX12 from NVIDIA.

captain_drink
2016-03-11, 17:48:35
Wie ich vor ein paar Tagen schon schrieb:
Es ist zu befürchten, dass Fanboy-Spiele künftig eher die Regel als die Ausnahme sein werden.
Benchmarks und unabhängige/neutrale Einschätzungen der Leistungsfähigkeit einer GPU werden eher schwieriger als leichter.

Da wünscht man sich glatt die Zeiten von DX11 zurück, das war noch IHV-agnostischer.

Atma
2016-03-11, 17:49:28
Laut Nixxes im Steamforum:
Buhhhh, warum nur DX11? :mad:

dargo
2016-03-11, 17:55:48
Da wünscht man sich glatt die Zeiten von DX11 zurück, das war noch IHV-agnostischer.
Du meinst die Grünen wünschen sich das. :biggrin:

Locuza
2016-03-11, 17:57:17
Buhhhh, warum nur DX11? :mad:
Von mir gibt es ein Buh, wenn Nvidia ihr Zeug nicht offiziell in DX12 umsetzt und dann noch ein Buh, wenn AMD auch mit Polaris nicht vorhat CR und ROVs zu unterstützen.

Oh interessante Zeiten kommen auf uns zu. ;D

Thunder99
2016-03-11, 17:57:27
Ist DX12 mit Window Mode gekoppelt? Also generell? Was für Einschränkungen gibt es noch? Da fragt man sich worauf sie sich sonst eingelassen haben (die wo an DX12 beteiligt waren...)

gedi
2016-03-11, 17:59:40
Wie sieht das aus? Wie viel kostet es? Ist es Maxwell exklusiv wie HTFS bei The Division?

Unendlich viel - getestet auf einem Notebook!
Auflösung: 1440p
Maxed out + smaa
6700hq+gtx980m (+135, +580)

http://up.picr.de/24840496fu.jpg

Es fühlt sich nicht sehr geschmeidig an

Linmoum
2016-03-11, 17:59:56
Offenbar kein AsyncCompute, obwohl in der Konsolenversion vorhanden. Da hat sich wohl der Deal für Nvidia ausgezahlt^^
The above advantage we feel is the most important one for Rise of the Tomb Raider, but there are many more advantages that make us excited about DirectX 12. Another big feature, which we are also using on Xbox One, is asynchronous compute. This allows us to re-use GPU power that would otherwise go to waste, and do multiple tasks in parallel. And there is a never before seen level of control over NVIDIA SLI and AMD CrossFireX configurations, which means that as a developer we can take full control over those systems and ensure users get a great experience with them.

http://tombraider.tumblr.com/post/140859222830/dev-blog-bringing-directx-12-to-rise-of-the-tomb

Läuft mit Async Compute.

d2kx
2016-03-11, 18:00:06
Nicht vergessen, vorher noch schnell auf den AMD Crimson 16.3 zu updaten, bevor ihr die arme Lara in unzähligen Durchläufen in Rise of the Performance Raider quält.

fondness
2016-03-11, 18:04:13
The above advantage we feel is the most important one for Rise of the Tomb Raider, but there are many more advantages that make us excited about DirectX 12. Another big feature, which we are also using on Xbox One, is asynchronous compute. This allows us to re-use GPU power that would otherwise go to waste, and do multiple tasks in parallel. And there is a never before seen level of control over NVIDIA SLI and AMD CrossFireX configurations, which means that as a developer we can take full control over those systems and ensure users get a great experience with them.

http://tombraider.tumblr.com/post/140859222830/dev-blog-bringing-directx-12-to-rise-of-the-tomb

Läuft mit Async Compute.

Thx für die Info, dann nehme ich alles zurück :)

aufkrawall
2016-03-11, 18:05:36
Toll, ich habe im Benchmark 2fps weniger als mit DX11 und obendrein im Spiel noch schlechtere Frametimes: Ab und zu stockts mal, was es mit DX11 afair überhaupt nicht tut (High Texturen WQHD).

Läuft das auf Hawaii im GPU-Limit mit DX12 besser als mit DX11?

Übrigenas funktioniert der exklusive Vollbildmodus ohne Vsync hier offenbar perfekt, auch nach Minimieren und "Fenster" Wiederherstellen.
Sogar prerenderlimit 1 per Treiber scheint bei Dx12 zu greifen, der Input Lag ist damit niedriger als mit app-controlled Einstellung.

dildo4u
2016-03-11, 18:06:24
The above advantage we feel is the most important one for Rise of the Tomb Raider, but there are many more advantages that make us excited about DirectX 12. Another big feature, which we are also using on Xbox One, is asynchronous compute. This allows us to re-use GPU power that would otherwise go to waste, and do multiple tasks in parallel. And there is a never before seen level of control over NVIDIA SLI and AMD CrossFireX configurations, which means that as a developer we can take full control over those systems and ensure users get a great experience with them.

http://tombraider.tumblr.com/post/140859222830/dev-blog-bringing-directx-12-to-rise-of-the-tomb

Läuft mit Async Compute.
Nett da haben sie auch ein Bench mit einem 2600k.

Atma
2016-03-11, 18:10:00
In 1440p mit gemaxten Settings und FXAA tut sich wie erwartet rein gar nichts auf einem 4790K und einer Titan X. Ich werd mal 1080p testen.


DX11
http://abload.de/img/20160311175350_1wzsk9.jpg

DX12
http://abload.de/img/20160311180026_1fws8x.jpg

fondness
2016-03-11, 18:10:13
Toll, ich habe im Benchmark 2fps weniger als mit DX11 und obendrein im Spiel noch schlechtere Frametimes: Ab und zu stockts mal, was es mit DX11 afair überhaupt nicht tut (High Texturen WQHD).

Läuft das auf Hawaii im GPU-Limit mit DX12 besser als mit DX11?

Übrigenas funktioniert der exklusive Vollbildmodus ohne Vsync hier offenbar perfekt, auch nach Minimieren und "Fenster" Wiederherstellen.
Sogar prerenderlimit 1 per Treiber scheint bei Dx12 zu greifen, der Input Lag ist damit niedriger als mit app-controlled Einstellung.

Würde mich nicht wundern, wenn die Stocker am VRAM liegen, DX12 benötigt da gerne mehr wenn man nicht gründlich optimiert.

blaidd
2016-03-11, 18:10:17
Toll, ich habe im Benchmark 2fps weniger als mit DX11 und obendrein im Spiel noch schlechtere Frametimes: Ab und zu stockts mal, was es mit DX11 afair überhaupt nicht tut (High Texturen WQHD).

Läuft das auf Hawaii im GPU-Limit mit DX12 besser als mit DX11?

Übrigenas funktioniert der exklusive Vollbildmodus ohne Vsync hier offenbar perfekt, auch nach Minimieren und "Fenster" Wiederherstellen.
Sogar prerenderlimit 1 per Treiber scheint bei Dx12 zu greifen, der Input Lag ist damit niedriger als mit app-controlled Einstellung.

Ich schau's mir daheim mal kurz mit meiner Möhre an... mit Hawaii klappt's vielleicht wieder. Dann ist es wahrscheinlich doch ein Treiber-Bug (streitet AMD_Robert zwar ab (https://www.reddit.com/r/Amd/comments/49u358/early_hitman_dx12_benchmarks_390_is_15_faster/d0vilqy), aber vielleicht ist da bei Fiji einfach was durch die Maschen gegangen)

Radeonfreak
2016-03-11, 18:11:16
Ich habe mal einen Bennchmarkthread gemacht. :redface:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=571602

fondness
2016-03-11, 18:11:41
Wenn AsyncCompute wirklich drinnen ist, sollte DX12 auf GCN auf jeden Fall auch im GPU-Limit was bringen.

aufkrawall
2016-03-11, 18:20:09
Würde mich nicht wundern, wenn die Stocker am VRAM liegen, DX12 benötigt da gerne mehr wenn man nicht gründlich optimiert.
Sollte nicht am VRAM liegen, es sind 3,5GB belegt.
Außer, es läuft eben doch nicht wirklich als exklusive Fullscreen-App und der DWM kann weiter stören.

Da aber auch einfach die fps etwas niedriger sind, erscheint mir ein gewisses "Async Compute" als Ursache nicht völlig abwegig...
Zumindest, wenn es auf Hawaii tatsächlich besser laufen sollte.

Ach ja: VXAO scheint gar nicht zu funktionieren, er nimmt hier einfach HBAO+. GameWorks funktioniert ja immer soo toll...

Locuza
2016-03-11, 18:28:13
Ja, sieht nicht so aus, als ob sich bei VXAO was tut:
http://www.neogaf.com/forum/showpost.php?p=198154247&postcount=2946

Edit:
Vielleicht doch...
http://www.neogaf.com/forum/showpost.php?p=198155937&postcount=2962

Ehh...

fondness
2016-03-11, 18:32:00
Ach ja: VXAO scheint gar nicht zu funktionieren, er nimmt hier einfach HBAO+. GameWorks funktioniert ja immer soo toll...

Auch unter DX11 nicht?

aufkrawall
2016-03-11, 18:34:45
Auch unter DX11 nicht?
Man kann es nur unter DX11 auswählen.

Gerade ist es mir übrigens in 720p mit DX12 abgeschmiert und der Treiber hängt nun in einem niedrigen Takt-State fest.
Die Frametimes waren auch in 720p beschissen (sogar eher noch schlechter als in WQHD), eine weitere üble Parallele zu AC on bei Ashes...

Na ja, ich mach mal OC aus und probier mal weiter rum...

dildo4u
2016-03-11, 18:37:11
Bei mir läuft DX12 ok. 1080p Maxed High Texturen GTX 970.

Extreme CPU Last am Sägewerk.

DX11

https://mega.nz/#!ABMTFCjJ!H5NYomcDMtwa30cuGHg47znX3AtB6DDDGRRjAAtfBE0

DX12

https://mega.nz/#!ZAd3ELRQ!9aBWGh61JuIn-gSsC9aVxPhpEKF-ztcsHdcLur_7kFU

MechWOLLIer
2016-03-11, 18:37:49
Die Noob-Frage ist:
Wie kommt man denn überhaupt am besten zu einer CPU-fordernden Szene?

Bei mir lässt sich auf einer AMD Fiji mit dem Crimson 16.3 Vsync erfolgreich abschalten - kein Hack wie bei Hitman nötig.

aufkrawall
2016-03-11, 18:39:21
Die Noob-Frage ist:
Wie kommt man denn überhaupt am besten zu einer CPU-fordernden Szene?

Im Sibirian-Hub (vom Lager Holzfällercamp zum Sägewerk gehen) in 720p rumlaufen.

MechWOLLIer
2016-03-11, 18:50:03
Lustig, da war ich gerade.
Ich frage mich gerade nur, ob mein System spinnt, oder ob AMD DX12 in TR gar icht schmeckt. Zumindest in Full HD bin ich mit DX12 nur langsamer, teils gar nicht so wenig.

Unicous
2016-03-11, 18:52:57
Scheint ja richtig gut zu sein, dieses DX12.;D :ulol5:

Dazu ein Interview mit MS-Repräsentanten und Dan Baker von Oxide Games.

Discussing the State of DirectX 12 With Microsoft & Oxide Games (http://anandtech.com/show/10136/discussing-the-state-of-directx-12-with-microsoft-oxide-games)


Ahead of next week’s show, I had a chance to sit down and talk shop with an interesting trio of techies: Brian Langley, Microsoft’s DirectX 12 lead, Max McMullen, Microsoft’s principle lead for Direct3D, and Dan Baker, co-founder and guru developer for Oxide Games.

Radeonfreak
2016-03-11, 18:54:47
Ich bin gerade beim ROTTR beim Aufstieg am Ende des Games. Unter DX11 alles flüssig aber und DX12 hab ich echt derbe Slowdowns manchmal.

Tolle Sache.

Hübie
2016-03-11, 19:03:42
"With great power, comes great responsibility." :D

fondness
2016-03-11, 19:06:47
Da ging wohl die vermeidlich gute Publicity möglichst schnell DX12 zu haben vor der Qualität, mal ein paar weitere Patches abwarten...

aufkrawall
2016-03-11, 19:09:07
Lustig, da war ich gerade.
Ich frage mich gerade nur, ob mein System spinnt, oder ob AMD DX12 in TR gar icht schmeckt. Zumindest in Full HD bin ich mit DX12 nur langsamer, teils gar nicht so wenig.
Mir scheint so, als hätten sie mit diesem oder vorherigen Patches auch die CPU-Performance für DX11 deutlich verbessert. Ich hab stellenweise in 720p viel höhere fps als zu Release.

Atma
2016-03-11, 19:12:04
Mir scheint so, als hätten sie mit diesem oder vorherigen Patches auch die CPU-Performance für DX11 deutlich verbessert. Ich hab stellenweise in 720p viel höhere fps als zu Release.
Einfach weiter DX11 totoptimieren bis es nicht mehr geht. Wer braucht schon DX12? :D

Spaß ;). Mit Ruhm bekleckert sich bisher aber definitiv kein DX12 Titel.

blaidd
2016-03-11, 19:17:54
Hier auch Performance-Verlust mit DX12 - i7-5820K @4,2 GHz, 32 GiByte DDR4-2800 RAM, R9 290X/4G (1.050/2.600 MHz)

Kurzer Check bei Soviet Base, alles maxed nur SSAO statt HBAO+

DX11
1080p: 42,3/38
11440p: 32,6/29

DX12
1080p: 38,8/34
1440p: 29.7/27

Immerhin kein dämliches Framelock (kann an Hawaii liegen oder an 144 Hz)

dildo4u
2016-03-11, 19:20:44
Bei 4GB würde ich mit Texturen auf High testen.

aufkrawall
2016-03-11, 19:23:26
Die CPU-Performance des Spiels überzeugt hier auch mit DX12 jetzt nicht so völlig, die fps dürften bei dem wenigen, was abgeht, echt höher sein.
Die CPU-Auslastung knallt im CPU-Limit auf 100% mit DX12 hoch. Müsste das mal mit DX11 vergleichen.
Assassin's Creed Syndicate hat mit DX11 aber auch schon konstante 100% CPU-Auslastung hier geschafft, und da wuselten bei vergleichbaren fps überall NPCs in einer ähnlichen offenen Welt rum (die eigentlich viel beeindruckender ist).
Die TR-Engine ist einfach nicht toll, DX12 wirkt da keine Wunder.

blaidd
2016-03-11, 19:24:16
Bei 4GB würde ich mit Texturen auf High testen.

Hab ich auch danach auch mal gemacht, kommt quasi auf's gleiche raus - stockt minimal weniger... aber avg. sieht's mehr oder minder identisch aus.

Lurtz
2016-03-11, 19:26:22
Was haben die mit dem Spiel gemacht, ich hab im Geothermal Valley mit den gleichen Settings mit einer HD 7950 viel schlechtere fps, teils sekundenlange Stocker.

Was ist nur los mit DX12?

aufkrawall
2016-03-11, 19:31:46
Was ist nur los mit DX12?
Es ist im Vergleich zu DX11 für mehrere GPUs arschschwer vernünftig zu implementieren? ;)

fondness
2016-03-11, 19:33:59
Ich würde das erstmal unter erste Gehversuche einordnen.

wn612953
2016-03-11, 19:36:53
Was ist nur los mit DX12?


Ist doch gut wenn DX12 failed. Den proprietären Schei** braucht doch eh niemand wo es mit Vulkan auch eine equivalente Open Source Alternative gibt.

Vulkan und Open Source for the win.

dargo
2016-03-11, 19:56:12
Ist dildo der einzige hier der mit seinem X6 von DX12 profitiert? :D

dildo4u
2016-03-11, 19:59:14
Ist dildo der einzige hier der mit seinem X6 von DX12 profitiert? :D

Hier sind die min fps besser in Leveln die CPU lastig sind.Nur der erste Test ist GPU limitiert.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10968665&postcount=6

Es nutzt ja Asynchronous Compute daher vielleicht die schlechteren Werte im GPU Limit.

aufkrawall
2016-03-11, 20:04:34
Ist dildo der einzige hier der mit seinem X6 von DX12 profitiert? :D
In 720p bringts schon stellenweise etwas, ich mach mal Screenshots. Die CPU geht auch nur mit DX12 bei dem Spiel auf 100% Auslastung mit vier Threads.
Ich war aber schon zum Release in WQHD zu ~99% GPU-limitiert.

Edit:
DX11:
http://abload.de/thumb/rottr_2016_03_11_20_1kwsfo.png (http://abload.de/image.php?img=rottr_2016_03_11_20_1kwsfo.png)

DX12:
http://abload.de/thumb/dx12hass2.png (http://abload.de/image.php?img=dx12hass2.png)

Ist an der Stelle 20% schneller im CPU-Limit.
Ich seh aber gerade, dass Objekte mit DX12 fehlen. :freak:

captain_drink
2016-03-11, 20:42:42
Vulkan und Open Source for the win.

Vulkan ist ebenfalls LL und wird womöglich vor ähnlichen Problemen stehen.
Talos Principle z.B. lief unter DX11 auch noch besser, wobei man dazu sagen muss, dass die Unterstützung noch Alpha-Status hatte.

Zumindest die Hoffnung einiger, dass die Ablösung der vermeintlichen "Steinzeit-API" DX11 durch LL-APIs perfekte Glückseligkeit verheißt, wird sich vorerst zumindest noch nicht einstellen, fürchte ich.

dildo4u
2016-03-11, 20:54:04
Hab jetzt noch Hitman getestet massive Zuwächse wenn die GPU nicht limitiert.


http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10968826&postcount=115

wn612953
2016-03-11, 20:54:20
Vulkan ist ebenfalls LL und wird womöglich vor ähnlichen Problemen stehen.
Talos Principle z.B. lief unter DX11 auch noch besser, wobei man dazu sagen muss, dass die Unterstützung noch Alpha-Status hatte.


Wenigstens ist Vulkan nicht an ein Betriebssystem gebunden (welches noch dazu in die Privatsphäre eingreift).

Außerdem wäre es besser wenn es nur eine Low Level API gäbe. Völlig schwachsinnig zwei APIs mit dem gleichen Ziel zu entwickeln, wo eine davon bereits Open Source ist.

Microsoft soll sich lieber an der Entwicklung von Vulkan beteiligen anstatt eine API zu entwickeln welche es noch nicht mal schafft Mehrleistung zu bieten.

aufkrawall
2016-03-11, 20:56:43
anstatt eine API zu entwickeln welche es noch nicht mal schafft Mehrleistung zu bieten.
Du laberst Müll.

DiscoInferno
2016-03-11, 20:58:12
Okay, so wie es ausschaut, ist DX12 im GPU-Limit (noch) nicht ganz so performant und sowohl AMD und nV Karten verlieren etwas Performance in Tomb Raider, allerdings scheinen gerade bei schwächeren CPUs die min-fps teils stark anzusteigen und das CPU-Limit wird auch hier relativ gut angehoben. Das ist meiner Meinung nach doch schon ein guter Schritt vorwärts - GPU-Settings lassen sich immerhin recht einfach nach unten anpassen.

Bei CPUs ist halt schwieriger, wenn man da eh schon am Anschlag ist, hilft nur das bissel OC was evtl möglich ist, dann ist eben Ende.

Ne stärkere GPU ist ja mal eben schnell gekauft und eingebaut, neue CPU+Unterbau ist dann doch etwas aufwändiger...

Finds gut, kann der alte Ivy noch länger überleben als geplant.

dargo
2016-03-11, 20:58:30
Hab jetzt noch Hitman getestet massive Zuwächse wenn die GPU nicht limitiert.


http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10968826&postcount=115
Das Spiel glänzt aber wirklich nicht mit schöner Optik. :freak: Ok, dafür kann die API natürlich nichts.

wn612953
2016-03-11, 20:58:32
Du laberst Müll.


Nicht gleich weinen, lieber lesen:

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/38457-rise-of-the-tomb-raider-unter-directx-12-und-mit-vxao-amd-und-nvidia-verlieren-leistung.html

:freak:

aufkrawall
2016-03-11, 20:59:06
hardwareluxx lesen doch nur Deppen.

dildo4u
2016-03-11, 21:00:17
Das Spiel glänzt aber wirklich nicht mit schöner Optik. :freak: Ok, dafür kann die API natürlich nichts.
Das Paris Level ist deutlich besser.

https://youtu.be/L9pTAOJntho

wn612953
2016-03-11, 21:03:26
By the way:

Ich seh aber gerade, dass Objekte mit DX12 fehlen. :freak:


lol...

maximus_hertus
2016-03-11, 21:12:07
Hier auch Performance-Verlust mit DX12 - i7-5820K @4,2 GHz, 32 GiByte DDR4-2800 RAM, R9 290X/4G (1.050/2.600 MHz)

Kurzer Check bei Soviet Base, alles maxed nur SSAO statt HBAO+

DX11
1080p: 42,3/38
11440p: 32,6/29

DX12
1080p: 38,8/34
1440p: 29.7/27

Immerhin kein dämliches Framelock (kann an Hawaii liegen oder an 144 Hz)

Du kannst ja mal die CPU underclocken (deutlich unter 3 GHz, evtl. unter 2 GHz) und dann mal in 1080p vergleichen.

Ich habe immer mehr das Gefühl, dass DX12 ein reiner CPU Lebensverlängerer ist ;)

Vor allem scheint ja AMD enorm von DX12 zu profitieren, der FX8370 teils auf Augenhöhe mit dem i7-6700K.

aufkrawall
2016-03-11, 21:15:10
AMD-CPUs dürften dann profiteren, wenn es gutes Multithreading gibt und mit DX11 ein massives Overhead-Limit vorliegt.
Trotzdem werden die CPUs dadurch nicht schneller, im reinen CPU-Limit sollte der Intel-Abstand trotzdem ziemlich groß sein. Ist natürlich irgendwo egal, wenn man schon in 1080p komfortabel im GPU-Limit landet.

dildo4u
2016-03-11, 21:17:54
SLI Systeme sollten auch massiv profitieren Digital Foundry hatte da vor kurzem ein Test wo ein Haswell i7 zu wenig war.

https://youtu.be/yLnU4rCGYik

GTA5 würde massiv zulegen.

y33H@
2016-03-11, 21:23:34
Meine Nano bricht in 1440p von 61 auf 45 fps ein :usad:

dargo
2016-03-11, 21:26:39
SLI Systeme sollten auch massiv profitieren Digital Foundry hatte da vor kurzem ein Test wo ein Haswell i7 zu wenig war.

https://youtu.be/yLnU4rCGYik

GTA5 würde massiv zulegen.
Eben... heute starke SLI/CF Systeme. "Morgen" die neuen (Single)High-End GPUs. Ich erwarte jedenfalls keine doppelt so schnellen CPUs in knapp einem Jahr. ;)

Meine Nano bricht in 1440p von 61 auf 45 fps ein :usad:
Ich sags mal so... ich warte noch mit Tomb Raider. :wink: Vielleicht richtet es der nächste Patch. Schauen wir mal.

dildo4u
2016-03-11, 21:32:41
Klingt nach Vram Management Problemen bei AMD unter DX12 bei Hitman ist Fury Nitro ja auch kaum besser als die 390X.(PCGH Test)Dann noch die extremen Ruckler mit Fury Karten bei Gears vor dem Treiber fix,da ergibt sich langsam ein Bild.

M4xw0lf
2016-03-11, 21:44:01
Klingt nach Vram Management Problemen bei AMD unter DX12 bei Hitman ist Fury Nitro ja auch kaum besser als die 390X.(PCGH Test)Dann noch die extremen Ruckler mit Fury Karten bei Gears vor dem Treiber fix,da ergibt sich langsam ein Bild.
:ulol:

dildo4u
2016-03-11, 22:06:23
Hier ein Beispiel 1080p läuft mit Fury besser im CPU Limitierten Bench Abschnitt,vieleicht ist 1440p zu viel für den Vram.


http://www.neogaf.com/forum/showpost.php?p=198174807&postcount=75

aufkrawall
2016-03-11, 22:11:51
Nicht nur vielleicht, die Very High-Textureneinstellung ist Overkill für 4GB.
Die teilweise kaputte Technik dieses Spiels hätte zum Launch viel mehr kritisiert werden müssen.
Schlechte fps im CPU-Limit, Matschtexturen, Ekellighting, Ekelflimmern, allgemein nicht besonders hohe fps, VRAM-Hunger, Flimmerschatten, 16xAF kostet auf AMD 40% Leistung...

Isen
2016-03-11, 22:19:47
Füllen sich wenigstens die Foren wieder. Einzig gute an DX12 momentan.
Ein Scheiß nach dem anderen :D

Kartenlehrling
2016-03-11, 22:38:30
Ist wie ein neues Spielzeug wo man die Gebrauchsanleitung nicht liest und
wenn man sie dann doch lesen will ist sie auf Koreanisch.

Isen
2016-03-11, 22:41:14
:D

-/\-CruNcher-/\-
2016-03-11, 22:44:43
Ist dildo der einzige hier der mit seinem X6 von DX12 profitiert? :D

Wenn es darauf hinausläuft das nur Massiv 6 und 8 Kerne davon ordentlich profetieren freut sich vor allem Intel und AMDs CPU Sparte ;)

Die Performance Gewinne müssen auf den Low End Platformen sichtbar werden sonst ist Ziel verfehlt vor allem 4 Kerne die auf DX 11 schon sehr ordentlich von Nvidia ausgelastet wurden.

Schaffe89
2016-03-11, 23:24:59
Klingt nach Vram Management Problemen bei AMD unter DX12 bei Hitman ist Fury Nitro ja auch kaum besser als die 390X.(PCGH Test)Dann noch die extremen Ruckler mit Fury Karten bei Gears vor dem Treiber fix,da ergibt sich langsam ein Bild.

Man muss sich immerwieder fragen wie du es schafft derart selektiv deine Infos aufzubereiten.:eek:

Ich sehe bei PCGH die Fury in 4K vor einer 1,4ghz GTX 980 Ti, ohne Stocker.
Da wird bei Fijii einfach noch ein paar Prozent mehr gehen, hatten wir schon öfters dass die nicht so gut skaliert.

dildo4u
2016-03-11, 23:26:46
Man muss sich immerwieder fragen wie du es schafft derart selektiv deine Infos aufzubereiten.:eek:

Ich sehe bei PCGH die Fury in 4K vor einer 1,4ghz GTX 980 Ti, ohne Stocker.
Da wird bei Fijii einfach noch ein paar Prozent mehr gehen, hatten wir schon öfters dass die nicht so gut skaliert.
GCN 1.2 macht allgemein Probleme siehe Tonga XT(Langsamer unter DX12) da liegt massiv was brach bei Fiji.

aufkrawall
2016-03-11, 23:50:02
Hm, warum läuft DX12 hier jetzt aufeinmal gut?
Hatte keine Frametime-Probleme mehr. Entweder hat eines der Mini-Updates noch was gebracht, oder mein Treiber lief bei der letzten Session nicht so, wie er sollte.

Es geht hier aber auch mit DX12 noch manchmal <60fps in 720p. Echt keine tolle Engine.

Kartenlehrling
2016-03-11, 23:55:41
Kannst du mal ein Screen von der CPU Auslastung machen und
nur die "echten" Kerne laufen lassen, also ohne HTT.

aufkrawall
2016-03-12, 00:01:59
Kann ich dir auch so sagen:
Mit DX12 läuft die CPU im CPU-Limit häufig mit ~100% Auslastung, während sie mit DX11 in CPU-limitierten Szenarien häufig bei ~85% kleben bleibt.
Mein i5 hat nur physische Kerne. Wie es mit mehr Kernen aussähe, weiß ich nicht.
Wie schon gesagt, schafft Assassin's Creed: Syndicate das aber auch mit DX11 und auch vier Kerne + HTT lastet das meist durchweg zu kranken 85-100% aus (getestet bei meinem Bruder).

dildo4u
2016-03-12, 00:03:28
Hm, warum läuft DX12 hier jetzt aufeinmal gut?
Hatte keine Frametime-Probleme mehr. Entweder hat eines der Mini-Updates noch was gebracht, oder mein Treiber lief bei der letzten Session nicht so, wie er sollte.

Es geht hier aber auch mit DX12 noch manchmal <60fps in 720p. Echt keine tolle Engine.
Ist bei mir selbst in 1080p noch CPU limiert mit DX12,ich erwarte auch keine Wunder von Games wo DX12 nachgepatcht wurde.Mal sehen wie sich Quantum Break macht das hat kein Fallback auf DX11.

Kartenlehrling
2016-03-12, 00:19:07
Mal sehen wie sich Quantum Break macht das hat kein Fallback auf DX11.


Nur das Problem ist es gibts nichts zum vergleichen,
da es nur DX12 gibt, sie werden kaum für Dich eine DX11 version schreiben.

iuno
2016-03-12, 02:56:26
Habe auch kurz rottr mit meiner 290X getestet, allerdings noch mit dem 16.1.1.
dx12 ist etwas langsamer als dx11, hat Grafikfehler und kein exklusives Vollbild (= kein freesync).

ist auch nur in meiner test-vm, habe sonst kein w10.

Troyan
2016-03-12, 03:35:07
Tomb Raider in 1080p mit allen Effekten ohne SMAA und Film Grain:
DX11:
http://abload.de/thumb/rottr_2016_03_12_03_212l6r.png (http://abload.de/image.php?img=rottr_2016_03_12_03_212l6r.png)
http://abload.de/thumb/rottr_2016_03_12_03_2rebxb.png (http://abload.de/image.php?img=rottr_2016_03_12_03_2rebxb.png)

DX12:
http://abload.de/thumb/rottr_dx12_1bhsxh.png (http://abload.de/image.php?img=rottr_dx12_1bhsxh.png)
http://abload.de/thumb/rottr_dx12_2fvs77.png (http://abload.de/image.php?img=rottr_dx12_2fvs77.png)

Leistungssprung durch DX12:
Bild 1: 24%
Bild 2: 34%

i7-3770 mit GTX980TI@1468MHz/3900MHz

Ich denke, es zeigt eindrucksvoll, dass die ganzen Benches aus Hitman oder Ashes eben nicht die Realität entsprechen, wenn in Tomb Raider der Sprung größer ist als in den Spielen. Vor Allem im Vergleich mit Ashes, dass ja so gehypt wurde als "Showcase" Titel und auf nVidia-Karten selbst in 1080p mit allen Effekten einen deutlich geringen Mehrwert gegenüber DX11 bietet.

Linmoum
2016-03-12, 04:21:05
Und das aus Tomb Raider entspricht der Realität? ;)
Wenn man mal in diversen Foren so querliest, dann läuft Tomb Raider bei der (großen) Mehrheit @DX12 bescheidener als mit DX11 - unabhängig von AMD oder Nvidia.

Hübie
2016-03-12, 07:49:38
AotS baut nun mal auf dem Konzept auf. Jedes Geschoss und jeder Einschlag selbiges wird dynamisch berechnet, da die Panzerung punktuell wohl abnimmt wenn ein Geschoss eintrifft. Man kann nun streiten ob es ein RTSG besser macht oder nicht, aber es ist eben integraler Bestandteil der Engine / des Spiels und damit kommen Radeons besser klar.
GoW ist, mMn, eher ein showcase um DX12 zu pushen. Hier würde ich einfach nix drauf geben, was die Benchmarks sagen.
RotTR ist das einzig fertige Spiel, welches jetzt ein angepasstes Renderbackend bekommen hat und noch eins, zwei Patches benötigt, eh man Rückschlüsse ziehen darf. Also immer locker durch die Hose atmen. :D

dargo
2016-03-12, 08:31:11
Kann ich dir auch so sagen:
Mit DX12 läuft die CPU im CPU-Limit häufig mit ~100% Auslastung, während sie mit DX11 in CPU-limitierten Szenarien häufig bei ~85% kleben bleibt.
Mein i5 hat nur physische Kerne. Wie es mit mehr Kernen aussähe, weiß ich nicht.
Wie schon gesagt, schafft Assassin's Creed: Syndicate das aber auch mit DX11 und auch vier Kerne + HTT lastet das meist durchweg zu kranken 85-100% aus (getestet bei meinem Bruder).
Hier bitte nicht vergessen, dass Nvidia seit Treiber X da ein wenig "trickst". Es wird eine gewisse Treiberlast auf die hinteren Threads/Cores verschoben. Das funktioniert nur so lange gut wenn genug Resourcen auf der CPU frei sind.

Habe auch kurz rottr mit meiner 290X getestet, allerdings noch mit dem 16.1.1.
dx12 ist etwas langsamer als dx11, hat Grafikfehler und kein exklusives Vollbild (= kein freesync).

ist auch nur in meiner test-vm, habe sonst kein w10.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10968639&postcount=2838

Tomb Raider in 1080p mit allen Effekten ohne SMAA und Film Grain:
DX11:
http://abload.de/thumb/rottr_2016_03_12_03_212l6r.png (http://abload.de/image.php?img=rottr_2016_03_12_03_212l6r.png)
http://abload.de/thumb/rottr_2016_03_12_03_2rebxb.png (http://abload.de/image.php?img=rottr_2016_03_12_03_2rebxb.png)

DX12:
http://abload.de/thumb/rottr_dx12_1bhsxh.png (http://abload.de/image.php?img=rottr_dx12_1bhsxh.png)
http://abload.de/thumb/rottr_dx12_2fvs77.png (http://abload.de/image.php?img=rottr_dx12_2fvs77.png)

Leistungssprung durch DX12:
Bild 1: 24%
Bild 2: 34%

i7-3770 mit GTX980TI@1468MHz/3900MHz

Ich denke, es zeigt eindrucksvoll, dass die ganzen Benches aus Hitman oder Ashes eben nicht die Realität entsprechen, wenn in Tomb Raider der Sprung größer ist als in den Spielen. Vor Allem im Vergleich mit Ashes, dass ja so gehypt wurde als "Showcase" Titel und auf nVidia-Karten selbst in 1080p mit allen Effekten einen deutlich geringen Mehrwert gegenüber DX11 bietet.
Hör auf zu trollen. Sowohl Ashes als auch Hitman zeigen im stärkeren CPU-Limit sehr wohl starke Zuwächse bei Nvidia in DX12. Bei Hitman sind es mit einer FX-CPU sogar bis zu +57% laut CB in 1080p.
http://www.computerbase.de/2016-03/hitman-benchmarks-directx-12/2/

Du bist in deinen Szenen vermutlich im starken CPU-Limit. Teste es einfach gegen. GPU auf 1174/3120Mhz (-20%) runter. Oder halt die Auflösung rauf.

dargo
2016-03-12, 08:45:44
doppelpost

gnomi
2016-03-12, 09:44:49
CPU limitierende Stellen zu finden ist praktisch betrachtet nur gar nicht so einfach, wenn man mit einem I7 und GSync in hohen Auflösungen unterwegs ist.
Selbst 25% oder so bekommt man kaum mit, so lange man bereits bei 35 fps herum ist.
Gegen DX 12 bin ich nicht. Aber die Realität sieht eben so aus, dass bessere CPU's seit Jahren weit weg von Konsolenhardware sind und DX 12 nicht mal so eben eingebaut ist. (auch wenn es jetzt endlich losgeht)
Also insofern wird das wohl ein schleichender Übergang sein.
Und nvidia kann ich irgendwo auch verstehen. Man sehe sich The Division mit Gameworks an. Da kommt grafisch und performancetechnisch aktuell nichts dran auch ohne DX12. VXAO in Tomb Raider macht auch einen guten Eindruck.
Insofern müssen sie überlegen, inwieweit es Ressourcen technisch überhaupt Sinn macht und es bis zu entsprechend neuen GPU's "blockieren".
Richtig interessant wird es bei nvidia erst wieder mit Pascal.

dargo
2016-03-12, 09:54:58
CPU limitierende Stellen zu finden ist praktisch betrachtet nur gar nicht so einfach, wenn man mit einem I7 und GSync in hohen Auflösungen unterwegs ist.

Ach was... dann ist deine GPU eben zu langsam. Es gibt auch genug Spieler die keinen hochgezüchteten i7 im Rechner haben und noch mit 1080p unterwegs sind.

blaidd
2016-03-12, 10:03:21
Dann noch die extremen Ruckler mit Fury Karten bei Gears vor dem Treiber fix,da ergibt sich langsam ein Bild.

Für mich sieht das folgendermaßen aus: AMD hat beim 16.3 DirectFlip für GCN-1.2-GPUs irgendwie versaubeutelt (das ist mit der Treiberversion neu dazugekommen). Bei Fiji grätscht dann die Windows Composing Engine ein. Daher das Framelock, und daher auch die miese Performance. Hier mal die Ergebnisse einer Fury in Hitman mit und ohne Framelock (letzteres ausgehebelt).

Mit Framelock:

Full HD - 59,9/59
WQHD – 55,7/52
UWQHD – 24,7/21
UHD – 10,6/6

Ohne Framelock:

Full HD - 75,4/71
WQHD - 58,6/54
UWQHD - 48,7/45
UHD - 38,1/36

Bei Tomb Raider ist das Lock ebenfalls aktiv (zumindest bei Fiji), da ist ein Performance-Verlust beispielsweise mit eine R9 Nano ;) für mich nachvollziehbar. Mit einer Hawaii weniger.

Hm, warum läuft DX12 hier jetzt aufeinmal gut?
Hatte keine Frametime-Probleme mehr. Entweder hat eines der Mini-Updates noch was gebracht, oder mein Treiber lief bei der letzten Session nicht so, wie er sollte.

Es geht hier aber auch mit DX12 noch manchmal <60fps in 720p. Echt keine tolle Engine.

Da kam tatsächlich ein Update: Hat bei mir Gestern um 23.43 Uhr einen 70,1 MiByte-Patch runtergeladen... hmm, mal sehen :)

EDIT: Keine deutliche Fps-Verbesserung, aber die Stocker sind weg.

gnomi
2016-03-12, 10:05:04
Ach was... dann ist deine GPU eben zu langsam. Es gibt auch genug Spieler die keinen hochgezüchteten i7 im Rechner haben und noch mit 1080p unterwegs sind.

Die kaufen neuerdings PS4 Konsolen. :wink:

dargo
2016-03-12, 10:14:15
Für mich sieht das folgendermaßen aus: AMD hat beim 16.3 DirectFlip für GCN-1.2-GPUs irgendwie versaubeutelt (das ist mit der Treiberversion neu dazugekommen). Bei Fiji grätscht dann die Windows Composing Engine ein. Daher das Framelock, und daher auch die miese Performance. Hier mal die Ergebnisse einer Fury in Hitman mit und ohne Framelock (letzteres ausgehebelt).

Mit Framelock:

Full HD - 59,9/59
WQHD – 55,7/52
UWQHD – 24,7/21
UHD – 10,6/6

Ohne Framelock:

Full HD - 75,4/71
WQHD - 58,6/54
UWQHD - 48,7/45
UHD - 38,1/36

Das ist echt interessant. Was für komische Sachen macht dieses WCE da? Das ist nicht einfach nur ein Framelock von 60fps @60Hz. Dann dürften nämlich die höheren Auflösungen nicht so schlecht ausfallen.

Die kaufen neuerdings PS4 Konsolen. :wink:
Quark, die Dinger sind dank low level am PC wieder schneller gealtert.

gnomi
2016-03-12, 10:40:32
@ dargo
Du siehst das nur viel zu technisch.
Entscheidend ist doch, was da an poliertem Content über den Schirm läuft, oder?
So ein Spiel wie Uncharted 4 wird grafisch sicher auf seine Weise aufsehenerregend.
DX 12 dürfte tatsächlich ein guter Sprung sein. Bis es sich verbreitet und alle zufrieden sind, kommen jedoch noch einen Haufen gut angepasster Multiplattformtitel, die natürlich auf PS4 enorm optimiert sind und auf PC ganz gewöhnlich mit DX 11 und zusätzlichen GPU Features laufen.

dargo
2016-03-12, 10:44:44
@ dargo
Du siehst das nur viel zu technisch.
Entscheidend ist doch, was da an poliertem Content über den Schirm läuft, oder?
So ein Spiel wie Uncharted 4 wird grafisch sicher auf seine Weise aufsehenerregend.

Nein, entscheidend ist das Gesamtkonzept von guter Grafik und Performance. Auch wenn vielen Konsoleros ein Target von 30fps reicht muss das nicht für PC-ler auch gelten. Und bevor gleich wieder der Einwand kommt.... für 60fps braucht man High-End. Alles Quatsch dank VRR. Damit entfallen jegliche Targets.

blaidd
2016-03-12, 10:46:58
Goil, mein Privatsystem geht in Hitman sogar nochmal deutlich besser ab, als das PCGH-Testsystem :)
... ist ungefähr genauso schnell...

DX12, 1440p, 1080p!, gleiche Settings, gleiche Szene:

PCGH-Testsystem (i7-6700K, 16 MiByte DDR4-2800):

R9 390: 65,6/59

Privatsystem: (i7-5820K @ 4,2 GHz, 32 GiByte DDR4-2800 RAM)

Asus R9 290X Strix (1.050/2.700 MHz): 65,9/59

Komplett plattgemacht hat meine Kiste das Testsystem glaub ich noch nie... :biggrin:


EDIT: Ach, Scheisse :freak: - zu viele Benchmarks diese Woche, ich hör jetzt mal auf und zock lieber mal ne Runde :wink:

dargo
2016-03-12, 10:48:40
Hat sich erledigt.

Troyan
2016-03-12, 11:20:58
Hör auf zu trollen. Sowohl Ashes als auch Hitman zeigen im stärkeren CPU-Limit sehr wohl starke Zuwächse bei Nvidia in DX12. Bei Hitman sind es mit einer FX-CPU sogar bis zu +57% laut CB in 1080p.
http://www.computerbase.de/2016-03/hitman-benchmarks-directx-12/2/

Ich erreiche mit meinem i7-3770 in 1080p Sprünge von 40%. Stell dir erstmal vor, wie weit das mit einem AMD Prozessor raufgehen würde. :rolleyes:


Du bist in deinen Szenen vermutlich im starken CPU-Limit. Teste es einfach gegen. GPU auf 1174/3120Mhz (-20%) runter. Oder halt die Auflösung rauf.

Tomb Raider hat einige Stellen, die sind selbst in 1440p CPU limitierend. Der letzte Hub-Bereich z.B. Dort erhalte ich auf den Dächern immer noch knapp 20% mehr Leistung in 1440p.

Vorallem spielen sich die Hub-Bereiche mit DX12 deutlich besser. In 1440p ist es vielleicht nicht so extrem, aber in 1080p ist DX12 einfach überlegen. Was u.a. auch daran liegt, dass die Copy-Engine gleichzeitig zur Graphics-Queue die Daten zur GPU scheffeln darf. Funktioniert prächtig auf nVidia-Hardware und ist eben auch Asynchronous Compute.

DX12 hat vielleicht noch das ein oder andere Problem (Fehldarstellung), aber es läuft runder als DX11 bei mir in den Hub-Bereichen. Und die waren bis jetzt das größte Problem vom Spiel.

dargo
2016-03-12, 11:30:26
Vorallem spielen sich die Hub-Bereiche mit DX12 deutlich besser. In 1440p ist es vielleicht nicht so extrem, aber in 1080p ist DX12 einfach überlegen. Was u.a. auch daran liegt, dass die Copy-Engine gleichzeitig zur Graphics-Queue die Daten zur GPU scheffeln darf. Funktioniert prächtig auf nVidia-Hardware und ist eben auch Asynchronous Compute.

Hä? Es liegt einfach daran, dass bei deiner Hardwarekonstellation in 1440p immer noch ein CPU-Limit in entsprechenden Szenen überwiegt. Das hat doch mit AC bei NV nichts zu tun.

Blediator16
2016-03-12, 11:43:50
LS dürfte einer der einzigen Menschen auf der Welt sein, die mit einer 980ti 1. perf dazugewonnen hat und 2. auch gleich so viel. Tolle Leistung :freak:

dildo4u
2016-03-12, 12:55:16
Ich erreiche mit meinem i7-3770 in 1080p Sprünge von 40%. Stell dir erstmal vor, wie weit das mit einem AMD Prozessor raufgehen würde. :rolleyes:
.
Es haben noch massig Leute 2500k,das betrifft nich nur AMD und ihr bencht immer noch keine harten Stellen.

iuno
2016-03-12, 13:15:17
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10968639&postcount=2838
Schon klar, der 16.3er installiert bei mir in der VM aber wieder nicht. 15.12 ging ebenso nicht, 16.1.1 schon.
Aber ich denke da kam/kommt hier auch sonst genuegend Feedback zusammen ;)

Botcruscher
2016-03-12, 15:09:29
Es haben noch massig Leute 2500k,das betrifft nich nur AMD und ihr bencht immer noch keine harten Stellen.

Bei Minimum 4,5GHz. Sonst ist es Perlen vor die Säue. :rolleyes:

Lurtz
2016-03-12, 15:12:06
Bei Minimum 4,5GHz. Sonst ist es Perlen vor die Säue. :rolleyes:
Klar, jeder 2500k läuft in jedem System mit 4,5 Ghz (Minimum!), muss man wissen :ugly:

Botcruscher
2016-03-12, 15:15:38
Ich hab noch keinen gesehen der das mit moderate Spannungszugabe nicht macht. :rolleyes:
Ansonsten nimmst du halt die absolut unproblematischen 4,2 und kaufst noch mal ordentlichen Speicher. Letzterer ist eh wichtiger.

Lurtz
2016-03-12, 15:24:39
Wenn wir über "massig Leute" reden muss man auch bedenken dass nicht jeder überhaupt die Kühllösung für OC hat (ohne wirds auch bei moderater Spannungszugabe knapp) und sich viele überhaupt nicht an OC rantrauen.

Viele werden auch nur Speicher mit 1.333 oder 1.600 Mhz haben weil es damals generell hieß, dass mehr Geschwindigkeit nichts bringt (und auch nicht immer läuft).

aufkrawall
2016-03-12, 15:35:13
Bei Minimum 4,5GHz. Sonst ist es Perlen vor die Säue. :rolleyes:
Geht mit 4,6Ghz hier mit DX11 auf 45fps runter, mit DX12 sinds mindestens 10fps mehr.
Mit 980 in 1080p oder 980 Ti in WQHD ist das schon eine spürbare Verbesserung.
Das Spiel ist trotzdem kein guter Showcase für Low Level, Hitman ist da mit den Menschenmassen und der gesteigerten Leistung im GPU-Limit mit Async Compute auf Radeons wesentlich interessanter.

RotTR läuft mit dem letzten Update hier jetzt immerhin ziemlich gut mit DX12, quasi perfekte Frametimes und auch bisher sonst keine Fehler.
Es braucht aber etwas mehr VRAM als mit DX11, da sollte der Entwickler noch optimieren. 4GB sind manchmal voll mit High Texturen in WQHD, läuft aber gut dabei.

Auf DX12 wurde hier in letzter Zeit zu unrecht rumgehackt. Bei dem Spiel funktioniert es tadellos mit und ohne Vsync, lässt sich perfekt minimieren, nach dem Maximieren ist Vsync weiterhin aus und es kann offenbar wie bei fullscreen exclusive üblich der VRAM komplett genutzt werden.
DX12 hat technisch überhaupt nichts mit der Microsoft-Bevormundung im Store zu tun.

Radeonfreak
2016-03-12, 16:34:11
Du musst ne komische 980 haben. Bei mir läuft DX12 ziemlich Beschissen. Mal im geothermalen Tal probiert....bei jeder Drehung stockt das Bild das es eine wahre Freude ist.

dildo4u
2016-03-12, 16:35:19
Geht mit 4,6Ghz hier mit DX11 auf 45fps runter, mit DX12 sinds mindestens 10fps mehr.
Mit 980 in 1080p oder 980 Ti in WQHD ist das schon eine spürbare Verbesserung.
Das Spiel ist trotzdem kein guter Showcase für Low Level, Hitman ist da mit den Menschenmassen und der gesteigerten Leistung im GPU-Limit mit Async Compute auf Radeons wesentlich interessanter.

RotTR läuft mit dem letzten Update hier jetzt immerhin ziemlich gut mit DX12, quasi perfekte Frametimes und auch bisher sonst keine Fehler.
Es braucht aber etwas mehr VRAM als mit DX11, da sollte der Entwickler noch optimieren. 4GB sind manchmal voll mit High Texturen in WQHD, läuft aber gut dabei.

Auf DX12 wurde hier in letzter Zeit zu unrecht rumgehackt. Bei dem Spiel funktioniert es tadellos mit und ohne Vsync, lässt sich perfekt minimieren, nach dem Maximieren ist Vsync weiterhin aus und es kann offenbar wie bei fullscreen exclusive üblich der VRAM komplett genutzt werden.
DX12 hat technisch überhaupt nichts mit der Microsoft-Bevormundung im Store zu tun.


Jup mir kam der umstiegt von DX9 auf 11 holpriger vor gerade was Performance angeht.


Du musst ne komische 980 haben. Bei mir läuft DX12 ziemlich Beschissen. Mal im geothermalen Tal probiert....bei jeder Drehung stockt das Bild das es eine wahre Freude ist.

Ich bin noch weiter am Anfang aber bei mir gibt's wenige Probleme in den Hubwelten mit einer 970.

https://mega.nz/#!AQ1QwRhZ!-C_Vam64sF13RSKiOcS6OgSfMs9ReYZ0JxWmyb6V__w

Radeonfreak
2016-03-12, 16:44:14
Ja das geht auch.

Aber im Tal zum Beispiel passiert es das bei schnellen Drehungen alles zu einer kurzfristigen Diashow wird. Egal ob 1080p FXAA oder 1440p + SMAA.

Unter DX11 läufts sogar mit letzterer Einstellung akzeptabel.

Lurtz
2016-03-12, 16:44:16
Sorry, muss meine Meinung von gestern revidieren, der blöde Browser hat die Karte wieder nicht hochtakten lassen.

Läuft mit DX12 spürbar flüssiger mit 2500k @4Ghz und einer HD 7950. Gerade in der Soviet Installation sind die fps und vor allem Frametimes deutlich angenehmer, die Karte wird komplett ausgelastet.

Die fps gehen auch problemlos über 60.

aufkrawall
2016-03-12, 16:46:25
Du musst ne komische 980 haben. Bei mir läuft DX12 ziemlich Beschissen. Mal im geothermalen Tal probiert....bei jeder Drehung stockt das Bild das es eine wahre Freude ist.
Wohl eher hast du ne komische Einstellung drin, nämlich Texturen@Very High.
Vielleicht mal die Warnmeldung des Launchers lesen, dass 4GB dafür nicht ausreichen?

Radeonfreak
2016-03-12, 16:49:21
Sowas kommt bei mir nicht.

Unter 1080p sollte es wohl reichen.

Und wenn`s unter Dx11 sogar unter 1440p läuft kann mich das DX12 in diesem Spiel mal kreuzweise.(in diesem Zustand)

dildo4u
2016-03-12, 16:49:56
CB hat jetzt auch Tomb Raider getestet.

Mit einem FX-8370 legt Nvidias Flaggschiff im GPU-fordernden Spielstand dann vier Prozent zu und im CPU-lastigen gar gute 30 Prozent.


http://www.computerbase.de/2016-03/rise-of-the-tomb-raider-directx-12-benchmark/2/

Bringt den FX-8370 wieder an den 6700k,das scaling über 8 Core's ist immens läuft deutlich besser als der FX6300.AMD GPU's brauchen noch ein Patch/neue Treiber.


Sowas kommt bei mir nicht.

Unter 1080p sollte es wohl reichen.

Und wenn`s unter Dx11 sogar unter 1440p läuft kann mich das DX12 in diesem Spiel mal kreuzweise.(in diesem Zustand)
4GB reichen nicht unter 1080p Very High Texturen.

Radeonfreak
2016-03-12, 16:57:36
Wieso konnte ich das Spiel dann ziemlich gut sogar unter 1440p durchzocken?

aufkrawall
2016-03-12, 17:02:02
Sowas kommt bei mir nicht.

Es kommt hier sowohl auf Deutsch als auch Englisch, 1080p und WQHD. ;)


Unter 1080p sollte es wohl reichen.

Es reicht nicht mal unter 720p mit DX11, die Very High Einstellung ist absoluter Overkill.


Und wenn`s unter Dx11 sogar unter 1440p läuft kann mich das DX12 in diesem Spiel mal kreuzweise.(in diesem Zustand)
Auch mit DX11 gibts in WQHD mit VH Texturen stellenweise Einbrüche, gestern noch getestet. Mit DX12 stockt es dann halt gleich von Anfang an. So weiß man wenigstens direkt, was los ist.
Allerdings hab ich ja schon angemerkt, dass der Verbrauch mit DX12 noch etwas reduziert werden sollte. afair waren mit DX11 nie 4GB mit High-Texturen in WQHD belegt. Mit DX12 sind es meist 3,85GB und bis zu 4GB.

16x Anisotrope Filterung kostet auch mit DX12 auf NV immer noch 20%, bei AMD dürften es wohl weiterhin 40% sein.

dildo4u
2016-03-12, 17:02:13
Wieso konnte ich das Spiel dann ziemlich gut sogar unter 1440p durchzocken?

Weil du da schon die GPU komplett überladen hast,da fällt das nicht mehr auf,eine OC 980 reicht gerade so für 1080p /60fps.


Die 980 Ti schafft im zweiten Bench grad mal 71fp in 1080p.

http://www.computerbase.de/2016-03/rise-of-the-tomb-raider-directx-12-benchmark/2/

Lurtz
2016-03-12, 17:05:05
Das läuft so flüssig mit AMD @DX12, einfach fantastisch. Da merkt man erstmal wieder wie grottig die DX11-Version lief.
Hätte ich gewusst dass der Patch so früh kommt, hätte ich das Durchspielen um ein paar Wochen verschoben ^^

dildo4u
2016-03-12, 17:10:55
Jup hab ich ja gesagt es hilft nicht nur Leuten mit AMD CPU,es gibt noch viele Leute mit einem 2500k.

iuno
2016-03-12, 17:27:24
Naja jetzt fangen CPU Benches wieder an, Sinn zu machen, vorher hiess es quasi nur noch "zum Spielen ein Intel mit 4 Kernen und moeglichst viel Takt". Interessant waere dazu jetzt noch ein Intel 6- oder 8-Kerner sowie eine FX auf 5 GHz. Achja und dann nochmal das Ganze mit mGPU, damit man nicht so im GPU Limit rumhaengt und sieht, ob es da aehnliche Verbesserungen wie bei AotS gibt :P
Seid ihr euch jetzt eigentlich also darin einig, der Einsatz von DX12 resultiere in besseren Frametimes?

DiscoInferno
2016-03-12, 17:31:26
Das läuft so flüssig mit AMD @DX12, einfach fantastisch. Da merkt man erstmal wieder wie grottig die DX11-Version lief.
Hätte ich gewusst dass der Patch so früh kommt, hätte ich das Durchspielen um ein paar Wochen verschoben ^^

Das klingt vielversprechend, aus genau diesem Grund hatte ich das Spiel auch erstmal auf Eis gelegt. Ähnliches Sys wie Du (3570K+7950), hatte auch extreme CPU Last und Graka ständig nicht ausgelastet.

Macht Mut das Spiel dann demnächst nochmal anzugehen, wäre nur noch der zwingend notwendige Wechsel auf W10, den ich eigentlich gar nicht möchte... Vulkan Patch wär mir lieber gewesen... :biggrin:

Lurtz
2016-03-12, 17:34:05
Was schreibt CB denn da wieder? :confused:

Ein Blick auf die gesamte Palette der getesteten Grafikkarten und in die Ergebnisse der höheren Auflösungen zeigt: Das, was die AMD-Grafikkarten eigentlich stark von DirectX 12 profitieren lassen sollte, wirkt in Tomb Raider nach dem Patch vorerst kontraproduktiv. Je mehr der Prozessor limitiert, desto mehr Performance verliert AMD durch DirectX 12. Limitiert dagegen mehr der 3D-Beschleuniger, nähern sich beide APIs plötzlich an und DirectX 12 ist nicht mehr weit von DirectX 11 entfernt.

Schnoesel
2016-03-12, 17:35:55
Hab kurz den internen Benchmark durchlaufen lassen und mit DX 12 teils über doppelt so hohe min Fps als mit DX 11 allerdings sind auch die max Fps deutlich geringer unter DX 12 und auch average verliere ich. Muss das mal testen was sich besser anfühlt.

dildo4u
2016-03-12, 17:38:29
Was schreibt CB denn da wieder? :confused:
Ich vermute immer noch das HT Probleme macht mal bei Nvidia mal bei AMD.
Die Hardware Seiten testen ja alle immer nur mit 300€+ Intel CPU's,die alle HT haben.

Radeonfreak
2016-03-12, 17:44:10
Es kommt hier sowohl auf Deutsch als auch Englisch, 1080p und WQHD. ;)


Es reicht nicht mal unter 720p mit DX11, die Very High Einstellung ist absoluter Overkill.


Auch mit DX11 gibts in WQHD mit VH Texturen stellenweise Einbrüche, gestern noch getestet. Mit DX12 stockt es dann halt gleich von Anfang an. So weiß man wenigstens direkt, was los ist.
Allerdings hab ich ja schon angemerkt, dass der Verbrauch mit DX12 noch etwas reduziert werden sollte. afair waren mit DX11 nie 4GB mit High-Texturen in WQHD belegt. Mit DX12 sind es meist 3,85GB und bis zu 4GB.

16x Anisotrope Filterung kostet auch mit DX12 auf NV immer noch 20%, bei AMD dürften es wohl weiterhin 40% sein.

Aha. Na dann Danke für die Erläuterungen. :)

Dann muss es wohl doch ein Pascal im Juni mit 8GB werden. :freak:

Nakai
2016-03-12, 18:47:03
Tomb Raider DX12, wieder eine absolute Nebelleuchte. DX12 könnte gut sein, wenn man nicht zu murksen würde. Bescheidener DX12 Hype

Achill
2016-03-12, 20:38:11
Mit dem DX12-Pfad in RotRT gibt es natürlich auch ein neues GameWorks - und ich tippe darauf, das GameWorks für DX12 min. zwei Pfade hat:
- FL_2_1
- FL_11_1

Es brechen ja nicht nur die AMD GPUs ein, sondern auch die (leider einzig getestete) GTX770. Ich lasse mich ja noch gern pos. Überraschen, aber ich habe das vor ein paar Monaten im GameWorks schon prophezeit.

aufkrawall
2016-03-12, 20:41:16
Nein. VXAO gibt es in TR nur für DX11 und wird offenbar über NVAPI realisiert.

iuno
2016-03-12, 20:53:26
Die Funktionen kommen aber 100% noch für dx12 nach, sobald es Sinn macht, dx12 zu verwenden, also viele Spieler (eigene Kunden) auch Vorteile davon haben und es einsetzen. Sonst wurden sie die Nutzer ja für GW verlieren.
Dass es momentan noch nicht geht lag wohl an der schnellen Portierung der Titel und daran, dass NV aktuell bei 11 einfach noch das sagen hat. Da ist die Leistung vor der Konkurrenz und es kann eigener kram (CR, ...) eingesetzt werden, mit der Rechtfertigung, dass es noch nicht in der API offiziell vorhanden ist. Ist halt nochmal besser, die Konkurrenz kann es gar nicht darstellen als nur ein wenig langsamer

Achill
2016-03-12, 20:53:40
Nein. VXAO gibt es in TR nur für DX11 und wird offenbar über NVAPI realisiert.

Wie VXAO realisiert wird, darauf wollte ich gar nicht hinaus, nur das es jetzt geht sowie weitere GW-Funktionalität auch in DX12 verfügbar ist.

Das bedeutet, es ist eine neue Revision von GW oder aber in RotTR ist so gut wie nix DX12 und es wird DX11-Zeug über DX12 abgefackelt (einfach ausgedrückt, k.a. ob das so einfach geht).

wn612953
2016-03-12, 21:22:25
Dazu musst du Microsoft befragen warum sie kein Remaster mit der UE4 gemacht haben sondern einer fast 10 Jahre alten DX9 Engine einen DX12 Renderer verpasst haben.


Siehe:

[...] While Gears of War 4 is in development using Unreal Engine 4, Gears Ultimate instead opts for more familiar ground - the original 2006 source code. From the beginning, the Ultimate Edition was designed to capture the original experience as accurately as possible while updating its presentation for the current generation. More recent versions of Unreal Engine 3, and even UE4, were considered early in development, but the decision to stick with the original codebase was made in order to preserve the original simulation. Re-scripting things such as enemy behavior in a new engine would have changed its core DNA, resulting in something that wasn't quite Gears of War. Despite the huge visual upgrades, authenticity to the original experience is a key component of the Ultimate Edition. [...]


Was ne faule Ausrede. Als wenn es nicht möglich gewesen wäre das Gegner-Verhalten auf der Unreal Engine 4 nachzustellen... lol...

Andererseits: Unreal Tournament 4 (UE4) fühlt sich auch nicht mehr so an wie Unreal Tournament 3 (UE3)..., sondern schlechter...

-/\-CruNcher-/\-
2016-03-14, 02:22:06
http://www.gamesindustry.biz/articles/2016-03-11-microsoft-needs-to-clearly-articulate-its-vision-for-pc-gaming

Microsoft reagiert sehr panisch momentan ihr Ökosystem für die Zukunft zu sichern man spürt die Verzweifelung förmlich man verlässt sich auch nicht gänzlich auf DX 12 da ist Microsoft diesmal sehr realistisch das es die jüngste Generation nicht mehr überzeugen wird und als Druckmittel und Bonus nicht mehr den selben Drive wie noch zu NT5/6 Zeiten hat ;)

http://techrights.org/2016/03/10/charm-offensives-distract/http://techrights.org/2016/03/10/charm-offensives-distract/

Hübie
2016-03-14, 07:21:06
Nein. VXAO gibt es in TR nur für DX11 und wird offenbar über NVAPI realisiert.

Natürlich nicht. Über die NVAPI wird die query der capabilities abgefragt. Es läuft grafisch über D3D11 oder über die Engine als eigene API des HRI. NVAPI hat keine Umsetzung von Grafik vorgesehen.

][immy
2016-03-14, 07:47:14
http://www.gamesindustry.biz/articles/2016-03-11-microsoft-needs-to-clearly-articulate-its-vision-for-pc-gaming

Microsoft reagiert sehr panisch momentan ihr Ökosystem für die Zukunft zu sichern man spürt die Verzweifelung förmlich man verlässt sich auch nicht gänzlich auf DX 12 da ist Microsoft diesmal sehr realistisch das es die jüngste Generation nicht mehr überzeugen wird und als Druckmittel und Bonus nicht mehr den selben Drive wie noch zu NT5/6 Zeiten hat ;)

http://techrights.org/2016/03/10/charm-offensives-distract/http://techrights.org/2016/03/10/charm-offensives-distract/
Directx hat immer Jahre gebraucht um sich durchsetzen zu können.
Normalerweise gab es seitens der GPU Hersteller damals auch mehr Innovationen, die dann in die nächste dx Version kamen.
Die initiative der Hersteller scheint in den letzten Jahren aber stark nachgelassen zu haben. Inzwischen ist es fast nur noch ein abhaken der specs.
Naja, dafür braucht man nicht für alles eine eigene api

Robspassion
2016-03-14, 09:23:35
Ist es möglich, wenn man den neusten Patch für Rise of the Tomb Raider installiert hat, auch auf DX11 zu switchen?

Oder ist das dann ausschließlich DX12?

Hab bisher nicht gepatched, weil ich keine Lust auf DX12 habe zur Zeit bei dem Game :(

Radeonfreak
2016-03-14, 09:27:49
Na klar geht das. :)

dargo
2016-03-14, 10:00:25
@Robspassion

Guckst du.
http://imgur.com/a/3kwp6

Robspassion
2016-03-14, 10:26:39
Perfekt ich danke euch :=)

dildo4u
2016-03-14, 15:05:55
DF hat bei Hitman übrigens bessere DX12 Performance mit einer 970 selbst mit 1440p.


https://youtu.be/1SZw7XhRx6A?t=3m25s

dargo
2016-03-14, 15:11:31
Die Frametimes sind aber in beiden APIs übel.

dildo4u
2016-03-14, 15:14:47
Bei 1440p braucht man vermutlich 6GB oder 8GB Vram.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10968273&postcount=2777

Kartenlehrling
2016-03-14, 15:33:20
die Ergebnisse welche die Russen von Hitman haben kann ich nicht nachvollziehen.
Die CPU Thread auslastung unter 6/12 und 8/16 Kern mit einem Thread von >80% und dann das sehr gute abschneiden vom i3-4330,
das man nicht krampfhaft versuchen darf 8Thread zu befeuert kann ich ja verstehen, aber seltsam ist das schon.

http://gamegpu.com/images/stories/Test_GPU/Action/Hitman_Beta/Hitman_%D0%B2_DirectX_12_/test/hit_proz11.jpghttp://gamegpu.com/images/stories/Test_GPU/Action/Hitman_Beta/Hitman_%D0%B2_DirectX_12_/test/hit_proz12.jpg
http://gamegpu.com/action-/-fps-/-tps/hitman-v-directx-12-test-gpu.html
Hitman in DirectX 12 GPU-Test

dildo4u
2016-03-14, 18:43:13
die Ergebnisse welche die Russen von Hitman haben kann ich nicht nachvollziehen.
Die CPU Thread auslastung unter 6/12 und 8/16 Kern mit einem Thread von >80% und dann das sehr gute abschneiden vom i3-4330,
das man nicht krampfhaft versuchen darf 8Thread zu befeuert kann ich ja verstehen, aber seltsam ist das schon.

http://gamegpu.com/images/stories/Test_GPU/Action/Hitman_Beta/Hitman_%D0%B2_DirectX_12_/test/hit_proz11.jpghttp://gamegpu.com/images/stories/Test_GPU/Action/Hitman_Beta/Hitman_%D0%B2_DirectX_12_/test/hit_proz12.jpg
http://gamegpu.com/action-/-fps-/-tps/hitman-v-directx-12-test-gpu.html
Hitman in DirectX 12 GPU-Test

Der Test ist Müll da SLI unter DX12 vermutlich nicht geht.

deekey777
2016-03-14, 19:42:11
Der Test ist Müll da SLI unter DX12 vermutlich nicht geht.
Stimmt, der Test is Müll, weil SLI nicht funktioniert. Damit sind andere Ergebnisse irrelevant.

dildo4u
2016-03-14, 20:29:59
Er hat speziell die CPU Test's angesprochen war nicht so schwer zu kapieren was ich gemeint habe.

Unicous
2016-03-15, 00:45:21
Total War: Warhammer wird DX12 unterstützen. Quelle: AMD GDC Event

Locuza
2016-03-15, 20:48:42
CryEngine 5 mit einem Pay what you want price model, Marketplace, Community Funding Sachen, VR focus, DX12 Support:
https://www.vrfocus.com/2016/03/gdc-2016-liveblogs-cryengine-media-briefing/

https://imgur.com/a/NaM1n

M4xw0lf
2016-03-15, 20:55:50
CryEngine 5 mit einem Pay what you want price model, Marketplace, Community Funding Sachen, VR focus, DX12 Support:
https://www.vrfocus.com/2016/03/gdc-2016-liveblogs-cryengine-media-briefing/

https://imgur.com/a/NaM1n
Hab ich was verpasst? Gabs eine CE4? :uconf:

Locuza
2016-03-15, 21:02:45
Du hast Windows 9 verpasst. :P

-/\-CruNcher-/\-
2016-03-15, 23:41:35
Hui Crytek wird ja bescheidener :)

Mitz admits that there's some features that engine competitors have surpassed Crytek on, but that the team are working on delivering greater documentation and making working in CRYENGINE 'more intuitive'.

Mittring macht ja den Talk für Unreal Engine 4 ;)

Locuza
2016-03-16, 00:28:31
Wer ein paar DX12 Infos mag:
Quantum Break DX12 Informationen:
http://api.viglink.com/api/click?format=go&jsonp=vglnk_14580839502549&key=de2ccb8ca8943c06669720e0a267a9f6&libId=iltza5de0100ag8y000DL7v9esz39&loc=http%3A%2F%2Fwww.neogaf.com%2Fforum%2Fshowthread.php%3Ft%3D1197318&v=1&out=http%3A%2F%2Fwili.cc%2Fresearch%2Fnorthlight_dx12%2FGDC16_Timonen_Northlight _DX12.pptx&ref=http%3A%2F%2Fwww.neogaf.com%2Fforum%2Fforumdisplay.php%3Ff%3D2&title=GDC%202016%20papers%20and%20presentations%20-%20NeoGAF&txt=Developing%20The%20Northlight%20Engine%3A%20Lessons%20Learned

Hitman DX12 Präsentation:
http://www.dualshockers.com/2016/03/15/directx-12-compared-against-directx-11-in-hitman-advanced-visual-effects-showcased/
The interface of the game is still based on DirectX 11. Programmers still prefer it, as it’s significantly easier to implement.

Asynchronous compute on the GPU was used for screen space anti aliasing, screen space ambient occlusion and the calculations for the light tiles.

Asynchronous compute granted a gain of 5-10% in performance on AMD cards, and unfortunately no gain on Nvidia cards, but the studio is working with the manufacturer to fix that. They’ll keep on trying.

The downside of using asynchronous compute is that it’s “super-hard to tune,” and putting too much workload on it can cause a loss in performance.


Es gab eine gemeinsame Präsentation von AMD und Nvidia zu DX12 und spezifischen Anpassungen auf beiden Seiten:
http://www.dualshockers.com/2016/03/14/directx12-requires-different-optimization-on-nvidia-and-amd-cards-lots-of-details-shared/

IHV spezifische Optimierungen werden empfohlen, um das jeweilige Optimum heraus zu holen. Wer sich die Mühe nicht leisten kann, sollte lieber DX11 verwenden.
Es gibt eine Menge Unterschiede, was bei AMD/Nvidia besser als Pixel- oder Computeshader umgesetzt werden sollte.
Auch was Bundles und Signature Tables angeht.
Bezüglich letzterem:
The use of root signature tables is where optimization between AMD and Nvidia diverges the most, and developers will need brand-specific settings in order to get the best benefits on both vendors’ card.
http://cdn4.dualshockers.com/wp-content/uploads/2016/03/Direct-X12-Panel-Slides-38.jpg

dargo
2016-03-16, 09:16:59
IHV spezifische Optimierungen werden empfohlen, um das jeweilige Optimum heraus zu holen. Wer sich die Mühe nicht leisten kann, sollte lieber DX11 verwenden.
Es gibt eine Menge Unterschiede, was bei AMD/Nvidia besser als Pixel- oder Computeshader umgesetzt werden sollte.

Das wird interessant. Stichwort GCN-GPUs in Konsolen. Also ob sich die Mehrheit der Entwickler auch wirklich die Mühe bei DX12 bezüglich Optimierung auf NV-Hardware macht. Oder zumindest im gleichen Ausmaß wie auf GCN. Ich frage mich nur wie weit dieser Vorschlag mit DX11 gehen kann wenn mal ein Spiel kommt welches nur so mit jeder Menge Draw Calls um sich schlägt?

iuno
2016-03-16, 09:30:27
CryEngine 5 mit einem Pay what you want price model, Marketplace, Community Funding Sachen, VR focus, DX12 Support:
https://www.vrfocus.com/2016/03/gdc-2016-liveblogs-cryengine-media-briefing/

https://imgur.com/a/NaM1n

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=571715 ;)
btw. warum Screenshots? die Seite ist inzwischen online

AintCoolName
2016-03-16, 17:31:56
Hab ich was verpasst? Gabs eine CE4? :uconf:

Das ist Cryengine V für VR nicht 5. Ist natürlich ein netter Gag sich so Nummern mäßig vor UE4 zu setzen.

dildo4u
2016-03-16, 22:44:21
Gears of War hat ein neuen Patch bekommen AMD Performance sieht jetzt gut aus.


http://www.overclock3d.net/gfx/articles/2016/03/16084932632l.jpg


Gibt immer noch ein 60fps lock.

http://www.overclock3d.net/reviews/gpu_displays/gear_of_war_ultimate_edition_performance_retest_-_the_game_has_been_fixed/2

Kartenlehrling
2016-03-16, 22:57:22
für das gebotene trotzdem zu schlecht.

dargo
2016-03-16, 23:26:24
Ich fände einen überarbeiteten Patch für Tomb Raider spannender. :cool:

y33H@
2016-03-16, 23:36:58
Gibt immer noch ein 60 fps Hz Lock.Fixed that 4 u :tongue:

Locuza
2016-03-17, 05:26:58
Großartige Neuigkeiten beim Thema UWP, Tools und DX12:
http://www.dualshockers.com/2016/03/16/microsoft-shares-its-vision-for-the-future-of-windows-and-xbox-one-development-directx-12-and-more/

Bei UWP-Apps wird man Vsync bald deaktivieren können, G-Sync/Freesync-Support wird bald funktionieren, plus mehr Updates.

Microsoft versucht eine gemeinsame Toolchain für Xbox One, PC und andere Geräte unter dem Windows 10 Schirm bereitzustellen.

Und aus meiner Sicht die coolste Neuigkeit:
A new and improved shader compiler and Shader Model 6 are coming.
Sehr schön zu sehen das MS nicht vorhat wieder 5 Jahre zu pennen, sondern das nächste große Update ankündigt.
Das ganze HLSL-Zeug ist extrem alt und sub-optimal für moderne GPUs.

Wenn MS dort richtig anpackt und dann noch den Compute Part ordentlich verbessert, hat man eine state of the art API.

PS: Star Wars Battlefront ist/war das erste DX12 Spiel auf der Xbox One.

Locuza
2016-03-17, 08:03:25
Eine andere Präsentation von MS geht auf die DX12 Pläne mit Shader Model 6 tiefer ein:
http://www.dualshockers.com/2016/03/17/directx-12-adoption-huge-among-developers-hdr-support-coming-in-2017-as-microsoft-shares-new-info/

Clap clap*

Tolle Pläne für die Zukunft.

N0Thing
2016-03-17, 08:04:12
Ich frage mich nur wie weit dieser Vorschlag mit DX11 gehen kann wenn mal ein Spiel kommt welches nur so mit jeder Menge Draw Calls um sich schlägt?

Wenn der Entwickler lieber DX11 nutzen möchte, weil er die nötigen Anpassungen an die Hardware der Hersteller nicht stemmen kann, sollte er auch nicht mit Draw Calls um sich schlagen. Ich denke, die Entwickler sind sich über diese Einschränkungen dann im Klaren.

dargo
2016-03-17, 08:06:39
Wenn der Entwickler lieber DX11 nutzen möchte, weil er die nötigen Anpassungen an die Hardware der Hersteller nicht stemmen kann, sollte er auch nicht mit Draw Calls um sich schlagen. Ich denke, die Entwickler sind sich über diese Einschränkungen dann im Klaren.
Das klappt vielleicht noch in der "Übergangszeit". Aber was ist in sagen wir mal 5 Jahren?

Locuza
2016-03-17, 08:07:14
In 5 Jahren wird in dem fiktiven Fall unweigerlich auf DX12 gesetzt.

N0Thing
2016-03-17, 08:13:26
Das klappt vielleicht noch in der "Übergangszeit". Aber was ist in sagen wir mal 5 Jahren?

Ich denke man hat jetzt einen Zeitpunkt, wo DX12 aus Marketinggründen an DX11-Spiele rangeklatscht wird. Ich hoffe, dass sich in der Zukunft das mehr in zwei Lager spalten wird. Reine DX11 und reine DX12/Vulkan Titel. Die großen Studios werden die Ressourcen haben, Anpassungen für die unterschiedliche Hardware vorzunehmen, während kleine Studios, deren Titel nicht direkt von low level profitieren, oder nicht die Ressourcen dafür haben, eben bei DX11 verbleiben.

Es gibt ja auch heute noch einige kleinere Titel, die (aus unterschiedlichen Gründen) auf DX9 oder OpenGL setzen. Genauso wird es auch in 5 Jahren keinen Zwang geben, auf DX12 setzen zu müssen.

dargo
2016-03-17, 08:17:47
Ich glaube du hast mich falsch verstanden. Ich spreche von immer besseren Grafik. Mehr Details pro Frame bedeuten auch mehr Draw Calls. Irgendwann ist DX11 einfach am Limit, deswegen mein Beispiel mit den 5 Jahren. Und natürlich meine ich AAA-Titel und keine Indies.

Großartige Neuigkeiten beim Thema UWP, Tools und DX12:
http://www.dualshockers.com/2016/03/16/microsoft-shares-its-vision-for-the-future-of-windows-and-xbox-one-development-directx-12-and-more/

Bei UWP-Apps wird man Vsync bald deaktivieren können, G-Sync/Freesync-Support wird bald funktionieren, plus mehr Updates.

Perfekt. :up:

N0Thing
2016-03-17, 08:23:36
Schon klar. Nur brauchen manche Spiele keine immer bessere Grafik. Die sich gut verkaufen Indie-Spiele werden jetzt ja auch nicht auf Grund ihrer Grafikpracht gekauft. Von daher sehe ich auch in 5 Jahren noch Titel mit DX11.
Wenn die Verbreitung von Windows 10 kontinuierlich voran geht, dann werden die großen Publisher in 5 Jahren DX12/Vulkan als Mindestvoraussetzung bei ihren Spielen fordern, wenn sie ihre Inhouse Engines auf die low level APIs umgestellt haben. Ich sehe einfach keinen Grund, warum es diesmal anders ablaufen soll als bei DX9 und DX11.

E:\Um mal ein extremes Beispiel zu nennen: Für einen Titel wie Stardew Valley braucht es nicht unbedingt eine low level API.
E²:\ Da du deinen Beitrag editiert hast, wollte ich nochmal kurz darauf hinweisen, dass ich Entwickler, die DX12 nicht stemmen können, nicht im Bereich der AAA-Titel einsortiere...

Kartenlehrling
2016-03-17, 14:46:32
Ich glaube alle haben sich gefragt wieso nach BF3 Mantle, kein starwars mit DX12 gekommen ist.
Jetzt sehe ich diese Folie wo Microsoft Battelfront als 1. !! DX12 Spiel auf der XBone bewirbt.

http://cdn.wccftech.com/wp-content/uploads/2016/03/swbattlefrontdx12-635x386.jpg

wn612953
2016-03-17, 17:26:08
"CryEngine 5 New Features" Video, zeigt DX11 vs. DX12:

http://www.gamersyde.com/download_cryengine_cryengine_5_new_features-36902_en.html

;)

Nightspider
2016-03-17, 17:57:09
Ich glaube alle haben sich gefragt wieso nach BF3 Mantle, kein starwars mit DX12 gekommen ist.
Jetzt sehe ich diese Folie wo Microsoft Battelfront als 1. !! DX12 Spiel auf der XBone bewirbt.

http://cdn.wccftech.com/wp-content/uploads/2016/03/swbattlefrontdx12-635x386.jpg

Interessant. Entweder sie haben sich gesagt das es auf dem PC so schon flüssig genug läuft oder sie bringen es noch in Zukunft mit einem Update.

TheAntitheist
2016-03-17, 18:32:57
Interessant. Entweder sie haben sich gesagt das es auf dem PC so schon flüssig genug läuft oder sie bringen es noch in Zukunft mit einem Update.
oder die sagen sich, für die 5000 Leute brauchen wir auch kein dx12 port machen

dargo
2016-03-17, 18:35:22
Ich denke für Battlefront am PC war es einfach zu spät. DICE will die Frostbite 3 2016 komplett auf DX12 umstellen. Das heißt alle FB3 Spiele nach Tag X werden mit DX12 kommen.

Locuza
2016-03-17, 18:48:46
Johan Andersson meinte auf Twitter sie waren noch nicht so weit bei DX12 für den PC und der Rest auch nicht (Vom Ökosystem, vermutlich Treiber, Runtime-Stuff, whatever).

fondness
2016-03-19, 20:43:08
Vq3A2OiRfco

Kartenlehrling
2016-03-19, 21:09:26
Ich weiße zwar das alles läuft unter einem Lernprozess, aber mir dauert das alles zu lang vorallem dachte ich durch Mantle hätte gerade AMD Vorteile.
Und solche bescheuerte Benchmarks wie die Russen von RotTR DX12 veröffentlich zeigt auch das viele die Messwert überhaupt nicht hinterfragen.
Ich würde mich überhaupt nicht trauen diese Ergebnisse zu veröffentlich vorallen da es Weltweit schon genug andere Messunge geben.

Wie kann man eine DX12 Messung die halbe FPS zur DX11 zeigen (http://gamegpu.com/action-/-fps-/-tps/rise-of-the-tomb-raider-v-rezhime-directx-12-test-gpu.html), wo der rest der Welt von ca. gleichauf bis -15% schreiben.

Kartenlehrling
2016-03-20, 17:00:02
oberes Video (mit DICE) bei 01:03:
Zitat:
I'm especially looking forward to the HLSL extensions, because they allow us to use a more console-like access to the hardware.
Was meint der damit und warum?

Vielleicht erklären diese Folienbilder mehr auf ...

http://www.dualshockers.com/2016/03/17/directx-12-adoption-huge-among-developers-hdr-support-coming-in-2017-as-microsoft-shares-new-info/
DirectX 12 Adoption “Huge” Among Developers; HDR Support Coming in 2017 as Microsoft Shares New Info




The HLSL update (HLSL stands for High-Level Shader Language, which is the proprietary shader language for Direct3D)
has the objective to expose the latest hardware features in order to enable developers to innovate.
There’s focus on GPU programming, and the team will adopt the best ideas from across the industry.
Shader Model 6 will be implemented, introducing new features.

dildo4u
2016-03-20, 19:26:45
Übrigens Lustig das Games wie Hitman jetzt zur Story beitragen das Maxwell immer Probleme mit Asynchron Compute hätte.Das Problem sind in dem Fall die Schatten aber nicht Asynchron Compute.Hier mal der Bench DX12 vs DX11 mit allem Max 1080p SMAA und Schatten auf Medium.

FX 8320e@4GHz GTX 970 1.3Ghz

DX11 62fps

http://abload.de/img/dx11ywshu.png

DX12 76 fps

http://abload.de/img/dx12hitman0esv2.png

Logischerweise sind die Gewinne vorallem in der Menschenmenge massiv.

DX11
http://abload.de/img/dx11crowdn9sx6.png

DX12
http://abload.de/img/crrowddx12yrslp.png

aufkrawall
2016-03-20, 19:29:06
Was soll das mit Async Compute zu tun haben?

dildo4u
2016-03-20, 19:42:41
Das Game nutzt es und NV gewinnt trotzdem ordentlich Performance.
Wenn man Max Schatten Bencht ist DX11 vor DX12,dadurch könnte man zum Schluss kommen das Asynchron Compute das Problem ist.

aufkrawall
2016-03-20, 19:46:20
Meinst du nicht, dass du nicht einfach nur vom GPU- ins CPU-Limit gekommen bist?

Hübie
2016-03-20, 19:51:06
Übrigens Lustig das Games wie Hitman jetzt zur Story beitragen das Maxwell immer Probleme mit Asynchron Compute hätte.Das Problem sind in dem Fall die Schatten aber nicht Asynchron Compute.Hier mal der Bench DX12 vs DX11 mit allem Max 1080p SMAA und Schatten auf Medium.

FX 8320e@4GHz GTX 970 1.3Ghz

DX11 62fps

http://abload.de/img/dx11ywshu.png

DX12 76 fps

http://abload.de/img/dx12hitman0esv2.png

Logischerweise sind die Gewinne vorallem in der Menschenmenge massiv.

DX11
http://abload.de/img/dx11crowdn9sx6.png

DX12
http://abload.de/img/crrowddx12yrslp.png

Nanu? :confused: Wo ist dein X6? Sry4Ot :D

dildo4u
2016-03-20, 19:59:12
Meinst du nicht, dass du nicht einfach nur vom GPU- ins CPU-Limit gekommen bist?
Habs mal mit 2XSSAA getestet GPU immer bei 99% Last.Gibt sich nix jedenfalls hab ich kein Nennenswerten Verlust.

DX11
http://abload.de/img/dx11ssa9as4l.png

DX12
http://abload.de/img/dx12ssa14svr.png

Nanu? :confused: Wo ist dein X6? Sry4Ot :D
DX12 scalt unter Tomb Raider so gut das ich noch mehr Cores wollte,DX12 mit 8 Cores für 120€ macht Laune.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10977081&postcount=1043

aufkrawall
2016-03-20, 20:01:09
Ich hab mit DX12 allerdings am Anfang des Benches Gestotter, dass es mit 11 nicht gibt.