Archiv verlassen und diese Seite im Standarddesign anzeigen : DirectX 12 Grafik-API
-/\-CruNcher-/\-
2016-11-04, 15:42:49
BF1 und Battelfront sind mehr cashback projekte als alles andere ;)
Sowas reizt nicht wirklich seine Zeit in Multiplayer Optimierungen zu feuern
aufkrawall
2016-11-04, 15:47:37
Aha, so so. Ich dacht schon, es wär die Vorzeige-Marke.
Wenn dir das von den Frametimes her völlig kaputte Mirror's Edge mehr zusagt, bitte...
dildo4u
2016-11-04, 18:45:07
Hier aus der PCGH Fury rennt mal richtig Fett in Gears 4,wichtig für Vega damit sie ihre Leistung umsetzen kann.
http://abload.de/img/img_20161104_18421454s0s9c.png
Nightspider
2016-11-04, 19:01:53
Fury X 20% vor einer GTX 1080 OC - mies. :ugly:
dargo
2016-11-04, 19:34:54
Hier aus der PCGH Fury rennt mal richtig Fett in Gears 4,wichtig für Vega damit sie ihre Leistung umsetzen kann.
http://abload.de/img/img_20161104_18421454s0s9c.png
Das beißt sich aber ganz schön mit der Skalierung bei GameGPU zwischen 4C/4T und 4C/8T. Erklärung?
aufkrawall
2016-11-04, 19:36:16
Tut es das? Zumindest die min-fps explodieren auch bei PCGH mit HTT & NV.
just4FunTA
2016-11-04, 19:36:53
720p? Gibt es auch 1440p?
blaidd
2016-11-04, 19:38:13
Das beißt sich aber ganz schön mit der Skalierung bei GameGPU zwischen 4C/4T und 4C/8T. Erklärung?
UWP? Hätte ich das nicht nativ in 720p gebencht, wäre da wahrscheinlich auch Murks rausgekommen... ;) Dann verwirft das Mistding Frames, ruckelt und läuft synchronisiert mit dem Display. Aber darauf muss man ja auch erstmal kommen... :tongue:
aufkrawall
2016-11-04, 19:41:29
Das hat doch nichts mit den vom Spiel gemeldeten fps zu tun.
blaidd
2016-11-04, 19:48:45
Das hat doch nichts mit den vom Spiel gemeldeten fps zu tun.
Das stimmt. Aber ich würde als Tester auch nicht beim Benchen mit einem halben Auge auf den Fps-Counter schielen und dann Pi mal Daumen daraus danach einen Durchschnitt bilden (wäre auch ganz schön schwierig, bei so hohen und wechselhaften Bildraten) – zumindest ich bräuchte da ein paar handfestere Daten ;). Aber genau diese ausgelesenen Frametimes (und die daraus abgeleiteten Fps) werden sehrwohl von UWP beeinflusst, wenn es nicht nativ läuft...
und bei so niedriger Auflösung kommend von einem 60Hz-UHD-Display, das meines Erachtens wohl praktisch jeder Tester einfach schon aus Bequemlichkeit nutzt, wäre das ein noch größerer Faktor als beispielsweise bei einem 1080p-Display. UWP macht echt fast alles anders als gewohnt, auch was die ganzen Daten betrifft... :wink:
dargo
2016-11-04, 19:52:11
Tut es das? Zumindest die min-fps explodieren auch bei PCGH mit HTT & NV.
Wo siehst du da was explodieren? Ich sehe selbst bei NV "nur" 40%. Hier warens noch 96% bei Sandy Bridge und Haswell.
http://gamegpu.com/action-/-fps-/-tps/gears-of-war-4-test-gpu
Gut... die 100Mhz muss man abziehen, dann eben >90%.
UWP? Hätte ich das nicht nativ in 720p gebencht, wäre da wahrscheinlich auch Murks rausgekommen... ;) Dann verwirft das Mistding Frames, ruckelt und läuft synchronisiert mit dem Display. Aber darauf muss man ja auch erstmal kommen... :tongue:
Oh weiha... kann man sich bei dem UWP-Mist echt auf gar nichts mehr verlassen? :mad:
dargo
2016-11-08, 11:10:09
Na endlich. :up:
Edit:
Da denkst du nach Forza 6: APEX geht es nicht mehr schlimmer. Doch... Microsoft und seine Studios schaffen es. :uup:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11202515&postcount=944
Ich verlinkte das mal hier weil es einfach zu köstlich ist. :biggrin:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11206122&postcount=1146
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11206170&postcount=1149
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11206211&postcount=1156
Ganz, ganz blöder Bug. Jetzt ist nur die Frage obs der Treiber oder die Application ist? Aus irgendeinem bescheuersten Grund wird auf vielen Systemen nur ein Bruchteil der Hardwareleistung genutzt wodurch sich die CPU und GPU langweilen.
Edit:
The Division DX12 Renderer Introduced with Update 1.5, Yields Slightly Faster & Smoother Frame Rate
http://wccftech.com/the-division-dx12-renderer-introduced-yields-faster-smoother-frame-rate/
Danke an 4Fighting.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11206501&postcount=81
Deathcrush
2016-11-08, 19:01:41
DX12 scheint in The Division sauber zu funktionieren. Keine Mauslags, weniger Framedrops als mit DX11(bisher eine Mission getestet, lincoln tunnel).... einzig die Ladezeiten sind eine katastrophe.
The Division v1.5 PTS – PCGH hat erste Messungen angestellt:
http://www.pcgameshardware.de/The-Division-Spiel-37399/News/Patch-15-DirectX-12-1212814/
... und DX12 enttäuscht erneut.
MfG,
Raff
M4xw0lf
2016-11-09, 10:23:07
The Division v1.5 PTS – PCGH hat erste Messungen angestellt:
http://www.pcgameshardware.de/The-Division-Spiel-37399/News/Patch-15-DirectX-12-1212814/
... und DX12 enttäuscht erneut.
MfG,
Raff
Hm, fette CPU + Maxwell dürfte aber auch ungefähr der worst case für DX12 vs DX11 sein.
Nichtsdestotrotz könnte man DX12 auch so implementieren, dass es im Grafiklimit hilft (Asynchronous Compute, you know). :)
MfG,
Raff
M4xw0lf
2016-11-09, 10:30:22
Seit wann profitiert Maxwell von AC? Ernst gemeinte Frage... kein Leistungsverlust ist das beste Ergebnis, woran ich mich erinnern kann.
StefanV
2016-11-09, 10:31:25
Könnte, muss es aber nicht...
Dazu kommt, dass ja immer gesagt wurde, dass DX12 die CPUlast senken soll. Warum also mit 'ner CPU testen, die mehr Leute besitzen? Einem i3 zum Beispiel?
Oh und das hier hast anscheinend ausgeblendet:
Ein Nutzer hat den integrierten Benchmark mit einem FX-8350 und einer Geforce GTX 1070 in 1080p verglichen, in dem rund 96 statt 77 Fps im Durchschnitt erreicht wurden. Die CPU-Auslastung stieg von 61 auf 82 Prozent an. Ein anderer Spieler mit Core i5-2500K und Geforce GTX 970 vermeldet eine minimale Verbesserung von etwa 49 auf 50 Fps - dort limitierte jedoch die GPU, während die CPU-Auslastung von 68 auf 61 Prozent sank.
Also +19fps mehr beim FX8350, -7% weniger CPUlast bei 'nem i5-2500K sind ja auch keine nennenswerten Verbesserungen, was??
Seit wann profitiert Maxwell von AC? Ernst gemeinte Frage...
Seit es von nVidia den "Maxwell AC Treiber" gibt. ;-)
M4xw0lf
2016-11-09, 10:32:37
Könnte, muss es aber nicht...
Dazu kommt, dass ja immer gesagt wurde, dass DX12 die CPUlast senken soll. Warum also mit 'ner CPU testen, die mehr Leute besitzen? Einem i3 zum Beispiel?
Die Messungen stammen von Raffs Privatsystem, siehe Signatur. Also immer mit der Ruhe.
Deathcrush
2016-11-09, 10:36:29
The Division v1.5 PTS – PCGH hat erste Messungen angestellt:
http://www.pcgameshardware.de/The-Division-Spiel-37399/News/Patch-15-DirectX-12-1212814/
... und DX12 enttäuscht erneut.
MfG,
Raff
Sorry, aber was hast du da für ein Mist gemessen? Ich habe mit einem Corei5 6600 und einer GTX1070 rund 15%-20% mehr Frames in den kritischen Stellen. (min FPS) Und nein, ich meine nicht den integr. Benchmark.
Zitat "Die Ergebnisse ernüchtern und erinnern frappierend an die eingangs erwähnten Spiele: Wie Deus Ex Mankind Divided und Total War Warhammer bringt DirectX 12 im integrierten Benchmark Fps-Gewinne, von denen in der Praxis nichts übrig bleibt - im Gegenteil, DX12 ist in The Division 1.5 Stand jetzt immer langsamer als DX11"
Kanne dem absolut nicht zustimmen!!!! Habe genau das Gegenteil festgestellt.
Seit wann profitiert Maxwell von AC? Ernst gemeinte Frage... kein Leistungsverlust ist das beste Ergebnis, woran ich mich erinnern kann.
Ich finde die Logdatei gerade nicht, erinnere mich aber an die Messungen von Ashes of the Singularity mit DX12 (siehe PCGH 11/2016, neuer Index). Dort hat das Spiel eigenmächtig AC auf diversen Geforce-GPUs deaktiviert. Auf Pascal bringt's mehr, aber auch Maxwell konnte (minimal) zulegen. Ich grabe mal weiter – oder teste es nochmal exemplarisch neu ...
Die Messungen stammen von Raffs Privatsystem, siehe Signatur. Also immer mit der Ruhe.
Jo. Ich wollt's eigentlich auf meiner FX-Nano-Kiste testen, die für sowas ein dankbares "Opfer" ist. Da hat aber das WLAN herumgezickt und so beschloss ich, es zuerst auf dem Hauptsystem durchzuziehen. Entsprechende Hardware haben immerhin sehr viele Leute (GTX 980 Ti, ahoi). AMD-Werte folgen.
Sorry, aber was hast du da für ein Mist gemessen? Ich habe mit einem Corei5 6600 und einer GTX1070 rund 15%-20% mehr Frames in den kritischen Stellen. Und nein, ich meine nicht den integr. Benchmark.
Zitat "Die Ergebnisse ernüchtern und erinnern frappierend an die eingangs erwähnten Spiele: Wie Deus Ex Mankind Divided und Total War Warhammer bringt DirectX 12 im integrierten Benchmark Fps-Gewinne, von denen in der Praxis nichts übrig bleibt - im Gegenteil, DX12 ist in The Division 1.5 Stand jetzt immer langsamer als DX11"
Kanne dem absolut nicht zustimmen!!!! Habe genau das Gegenteil festgestellt.
Ich warte auf den Tag, an dem die Menschen endlich verstehen, dass bei sowas die Hardware-Kombination eine entscheidende Rolle spielt. Es gibt folglich kein "richtig" und kein "falsch", sondern nur eine Bandbreite. Deine CPU fällt mit ihren vier Kernen ohne SMT offenbar in den Bereich, wo es hilft.
Oh: Und ich warte auf den Tag, an dem endlich Manieren im Internet Einzug halten – vermutlich vergeblich ...
MfG,
Raff
M4xw0lf
2016-11-09, 10:43:42
Jo. Ich wollt's eigentlich auf meiner FX-Nano-Kiste testen, die für sowas ein dankbares "Opfer" ist.
Hehe, Fiji+FX liegt genau am anderen Ende des Spektrums der potentiellen DX12-Vorteile im Vergleich zu Maxwell+i7 - wenn sich da auch nichts tut, dann enttäuscht DX12 in der Tat erneut; was ich auch sowieso inzwischen eher erwarte.
Deathcrush
2016-11-09, 10:44:21
Dann schreibe deine Artikel weniger reisserisch und nicht so auf Bildzeitungsniveau, dann muss man sich auch nicht so aufregen.
Ich jedenfalls merke einen enormen Perfomanceboost beim Lincoln Tunnel Einsatz. Ich kam zum ende des Levels in gewissen Situationen immer unter 60fps, jetzt sind es knapp über 70.
M4xw0lf
2016-11-09, 10:47:18
Dann schreibe deine Artikel weniger reisserisch und nicht so auf Bildzeitungsniveau, dann muss man sich auch nicht so aufregen.
Die Messwerte sind nunmal so, und der Einfluss der gewählten Komponenten wird im Text erwähnt, also lass mal den Blödsinn stecken.
Deathcrush
2016-11-09, 10:50:12
Das ist nun mal schlicht und ergreifend falsch
Zitat "Die Ergebnisse ernüchtern und erinnern frappierend an die eingangs erwähnten Spiele: Wie Deus Ex Mankind Divided und Total War Warhammer bringt DirectX 12 im integrierten Benchmark Fps-Gewinne, von denen in der Praxis nichts übrig bleibt - im Gegenteil, DX12 ist in The Division 1.5 Stand jetzt immer langsamer als DX11."
Aber Hauptsache mal ebend schnell ein paar News auf die Homepage klatschen.
EDIT
Unter anderem diese Stelle meinte ich, vor allem im Koop sind die Frames gerne mal unter 60 FPS gerutscht. Das ist mit DX12 nicht mehr der fall.
https://abload.de/thumb/screenshot8zvox0.png (http://abload.de/image.php?img=screenshot8zvox0.png)
dargo
2016-11-09, 12:42:46
DX12 scheint in The Division sauber zu funktionieren. Keine Mauslags, weniger Framedrops als mit DX11(bisher eine Mission getestet, lincoln tunnel).... einzig die Ladezeiten sind eine katastrophe.
Übesehe ich was oder warum habe ich keinen Schalter für DX12 in den Grafikoptionen?
M4xw0lf
2016-11-09, 12:48:08
Das ist nun mal schlicht und ergreifend falsch
Zitat "Die Ergebnisse ernüchtern und erinnern frappierend an die eingangs erwähnten Spiele: Wie Deus Ex Mankind Divided und Total War Warhammer bringt DirectX 12 im integrierten Benchmark Fps-Gewinne, von denen in der Praxis nichts übrig bleibt - im Gegenteil, DX12 ist in The Division 1.5 Stand jetzt immer langsamer als DX11."
Aber Hauptsache mal ebend schnell ein paar News auf die Homepage klatschen.
EDIT
Unter anderem diese Stelle meinte ich, vor allem im Koop sind die Frames gerne mal unter 60 FPS gerutscht. Das ist mit DX12 nicht mehr der fall.
https://abload.de/thumb/screenshot8zvox0.png (http://abload.de/image.php?img=screenshot8zvox0.png)
Das macht die anderen Ergebnisse nicht falsch. Das Fazit ist sicher verfrüht und auf zu wenig Daten gestützt, aber statt hier gleich ausfällig zu werden, hättest du einfach nur deine eigenen Messwerte posten können, um die Datenbasis zu erweitern.
dargo
2016-11-09, 12:53:21
Ich warte auf den Tag, an dem die Menschen endlich verstehen, dass bei sowas die Hardware-Kombination eine entscheidende Rolle spielt. Es gibt folglich kein "richtig" und kein "falsch", sondern nur eine Bandbreite. Deine CPU fällt mit ihren vier Kernen ohne SMT offenbar in den Bereich, wo es hilft.
Naja... auf der anderen Seite würde ich schon von einer PCGH erwarten, dass sie versteht wie ein DX11 Nvidia Treiber tickt. Ihr haut da einen 12 Threader in den Benchmark rein und "wundert" euch. NV lagert u.a. die Treiberlast auf andere Kerne/Threads aus. Wenn also Application X unter DX11 so einen 12 Threader nicht komplett auslasten kann dann ist eben noch genug Luft für die Treiberlast da. Bei einem 4 Threader kann das schon anders aussehen. Und genau das beobachtet offenbar Deathcrush. Er sieht die direkte Overheadreduzierung der API.
Übesehe ich was oder warum habe ich keinen Schalter für DX12 in den Grafikoptionen?
Den gibt es bisher nur auf dem PTS mit Patch 1.5 und dort unter den Video- nicht Grafikoptionen.
dildo4u
2016-11-09, 13:41:45
Bei mir ist es mit Pascal in DX12 schneller selbst im GPU Limit.
FX 8320e@4.2Ghz GTX 1070 SC Einstellungen im Video:
DX11 74fps
https://mega.nz/#!ER8zhKha!tFucC9MLEgGga7qVi1i9NgAe07uoMo9FUdZHapN9VYA
DX12 76fps
https://mega.nz/#!Nd0WzLAB!vCeJLYvrK9cd66jglKitT0AaRQSTblA8WJsvHxj0FJg
CPU Auslastung sinkt GPU Auslastung steigt.
Wundert mich nicht NV hat das Team vermutlich so schnell wie möglich mit Pascal Karten versorgt,wenn man sieht wie viel NV Tech im Game ist.
Hübie
2016-11-09, 13:44:44
Na ja, Raff. Deathcrush hat schon Recht. Gewöhnt euch an neutrale Überschriften zu verwenden und wenn es eben erst ein Testsystem ist alles im Kontext des vorläufigen Fazit zu stellen. Er bringt es nicht sehr gut rüber, daher nimmt ein Mensch automatisch eine Abwehrhaltung an. Das ist okay. Dennoch solltest du dich mal mit den Kollegen darüber beraten. ;) Meine Meinung. Ich bin natürlich trotzdem dankbar dass ihr die Arbeit macht, die ihr macht. Spielraum für Verbesserungen sind jedoch immer gegeben.
Das ist die Überschrift: The Division: Patch 1.5 mit DirectX-12-Renderpfad [Update mit ersten PCGH-Benchmarks]
Total reißerisch, Bild könnte es nicht besser. :| Meint ihr etwa mein Posting zum Link?
Man könnte sich ja auch über die ersten Erkenntnisse freuen (Maxwell und dicke CPU fahren mit DX11 besser), aber stattdessen wird gemotzt, was alles nicht da ist – obwohl es auch einen Text zu den ersten Werten gibt und dort eindeutig steht, dass das nur eine Seite der Medaille ist. Jungs, echt ... *seufz*
MfG,
Raff
Hübie
2016-11-09, 13:54:19
Entschuldige. :redface: Ich habe nicht drauf geklickt und dacht dass diese Phrase "DX 12 enttäuscht schon wieder" da drin wäre. Mea culpa. Dann ist die Kritik natürlich nicht angemessen.
fondness
2016-11-09, 14:14:41
Statt "DX12 enttäuscht erneut" wäre wohl passender "Maxwell enttäuscht erneut unter DX12".... :D *scnr*
Deathcrush
2016-11-09, 14:27:16
Man könnte sich ja auch über die ersten Erkenntnisse freuen (Maxwell und dicke CPU fahren mit DX11 besser), aber stattdessen wird gemotzt, was alles nicht da ist – obwohl es auch einen Text zu den ersten Werten gibt und dort eindeutig steht, dass das nur eine Seite der Medaille ist. Jungs, echt ... *seufz*
Es nervt aber einfach nur, wenn man so halbgares Zeug irgendwo liest, vor allem wenn da so etwas dort steht
Zitat "Die Ergebnisse ernüchtern und erinnern frappierend an die eingangs erwähnten Spiele: Wie Deus Ex Mankind Divided und Total War Warhammer bringt DirectX 12 im integrierten Benchmark Fps-Gewinne, von denen in der Praxis nichts übrig bleibt - im Gegenteil, DX12 ist in The Division 1.5 Stand jetzt immer langsamer als DX11"
Und ja es ist reisserisch und auf Bildzeitungsniveau, gerade der letzte Satz zeigt doch eindeutig, du hast dich mit DX12 im Spiel nicht mal ansatzweise beschäftigt. Schnell messen, Ergbnisse raushauen, erster....!
Wenn man den Text nicht komplett liest, könnte man davon ausgehen, das DX12 in The Division komplett versaut wurde, was aber nicht der Fall ist. Hauptsache die ersten sein die irgendwelche Messergebnisse vö, egal wie sinnlos sie sind.
@Raff: Ja kommt da noch ein Nachtest mit GCN und/oder Pascal?
Wir liefern entsprechende Messwerte schnellstmöglich nach
Es ist nicht ganz klar, worauf sich das bezieht: Tests im Freien, AMD Hardware (CPU oder GPU)? Von Pascal lese ich da gar nichts
dildo4u
2016-11-09, 14:54:01
Hier noch mal Ingame.
1080p Ultra Preset ohne Vsync:
DX11
https://mega.nz/#!RA8j3ShJ!H6a4cq_41AaWs_2wa55mhRpnQaJ18flDsHAkVx0BB4k
DX12
https://mega.nz/#!FddC2KLZ!NQ3XQV07VmxRJ3T-Z-dN5DlENkTPE3E1EjN6trrCW2w
Hab die Stelle genommen da die immer recht CPU Limitiert war auf meinem FX System.
Deathcrush
2016-11-09, 16:12:50
Schwer zu vergleichen, einmal mit und einmal ohne Nebel.
The Division: Patch 1.5 mit DirectX-12-Renderpfad [Update 2 mit AMD-Werten]
(http://www.pcgameshardware.de/The-Division-Spiel-37399/News/Patch-15-DirectX-12-1212814/)
:naughty:
MfG,
Raff
dargo
2016-11-10, 10:18:37
Den gibt es bisher nur auf dem PTS mit Patch 1.5 und dort unter den Video- nicht Grafikoptionen.
Habe ich das jetzt richtig verstanden? "Offiziell" kommt DX12 also erst in Dezember? Und zu Testzwecken erstmal nur mit PTS? Weil dann haben die Entwickler noch genug Zeit für weitere Optimierungen.
dildo4u
2016-11-10, 10:32:57
Ja 1.4 kam grad erst raus.
M4xw0lf
2016-11-10, 10:38:48
The Division: Patch 1.5 mit DirectX-12-Renderpfad [Update 2 mit AMD-Werten]
(http://www.pcgameshardware.de/The-Division-Spiel-37399/News/Patch-15-DirectX-12-1212814/)
:naughty:
MfG,
Raff
Danke für die Werte :)
Ganz okayes Ergebnis für DX12 immerhin.
N0Thing
2016-11-10, 10:52:25
Naja... auf der anderen Seite würde ich schon von einer PCGH erwarten, dass sie versteht wie ein DX11 Nvidia Treiber tickt. Ihr haut da einen 12 Threader in den Benchmark rein und "wundert" euch. NV lagert u.a. die Treiberlast auf andere Kerne/Threads aus. Wenn also Application X unter DX11 so einen 12 Threader nicht komplett auslasten kann dann ist eben noch genug Luft für die Treiberlast da. Bei einem 4 Threader kann das schon anders aussehen. Und genau das beobachtet offenbar Deathcrush. Er sieht die direkte Overheadreduzierung der API.
Die Unterschiede zwischen PCGH und den Ergebnissen von Deathcrush könnten auch stark von der Benchmark-Szene abhängen. Denn die PCGH testet in Innenräumen, weil dort das Wetter keinen Einfluss auf die Performance hat, Deathcrush und auch dildo4u außer Haus.
Die Tests finden im Madison Field Hospital statt, einem anspruchsvollen Innenareal, das PC Games Hardware bereits bei älteren Division-Benchmarks verwendete. Zwar handelt es sich um eine Hardware-fordernde Szene, an die Last der weitläufigen Außenwelt kommt sie jedoch nicht heran. Das Problem an Outdoor-Benchmarks ist die hohe Dynamik des Spiels, Tageszeit und Wetter ändern sich kontiniuerlich. Da wir für die DX12-vs.-DX11-Messungen eine hohe Präzision benötigen, setzen wir auf den Innenlevel, bei dem stets dieselbe Grafiklast vorherrscht.
dargo
2016-11-10, 10:54:56
Ist auch egal. Für mich persönlich hört sich das erstmal nach "experimentell" an. Bis Dezember sollte sich noch Einiges ändern.
Das wurde bei Betafield 1 auch gehofft, doch Finalfield 1 läuft unter DX12 immer noch durchwachsen. Total War: Warhammer und Deus Ex: Mankind Divided werden ebenfalls ständig gepatcht, aber DX12 läuft immer noch schlechter als DX11. Zeit hilft nicht immer. Aber The Division ist auf einem guten Weg.
MfG,
Raff
dargo
2016-11-10, 11:02:09
Das wurde bei Betafield 1 auch gehofft, doch Finalfield 1 läuft unter DX12 immer noch durchwachsen. Total War: Warhammer und Deus Ex: Mankind Divided werden ebenfalls ständig gepatcht, aber DX12 läuft immer noch schlechter als DX11.
Not.
Um dich mal selbst zu zitieren. ;)
Ich warte auf den Tag, an dem die Menschen endlich verstehen, dass bei sowas die Hardware-Kombination eine entscheidende Rolle spielt. Es gibt folglich kein "richtig" und kein "falsch", sondern nur eine Bandbreite.
Ah, du hast also die eine Kombination, wo's minimal etwas bringt? :biggrin: In meinem Umfeld, wo viele Rechner stehen, gibt's keine. Ich rede selbstverständlich vom "echten" Spiel – in den integrierten Benchmarks ist DX12 total geil und so.
MfG,
Raff
dargo
2016-11-10, 11:34:24
Dann musst du dich halt noch etwas gedulden. Nixxes haut bei Deus Ex quasi im 2 Wochen Rhythmus einen neuen Patch raus.
w0mbat
2016-11-10, 11:54:12
Vielleicht wird der Crimson-Nachfolger ja auch einen Fokus auf DX12 haben, mal sehen. Kann mir gut vorstellen, dass da auch die Treiber noch einiges besser machen könnten.
Rancor
2016-11-10, 13:27:52
Ahh also die nächste DX 12 Nullnummer. Einfach nur ein Trauerspiel die API.
dildo4u
2016-11-10, 13:45:30
Auf Pascal läuft es.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11207689&postcount=4530
Schnoesel
2016-11-10, 14:43:04
Du meinst ein schwacher Prozessor profitiert auf jeden Fall, das wird ja wohl bei Nvidia auch bei den "älteren" Architekturen ebenfalls der Fall sein. Mit Pascal hat das imo gar nix zu tun.
Rancor
2016-11-14, 13:00:43
Übrigens auf einem FX-4300 mit GTX 960 hat DX 12 in noch gar keinen Fall irgendetwas geholfen. Es ist eine einzige Grütze momentan, zumindest mit Kepler Maxwell. Eventuell hol ich mir noch ne 380er um das gegen zu testen.
GTX 960 = Maxwell. :) Passt aber zu den Werten meiner Geforce GTX Titan X.
Nächste Woche (http://www.pcgameshardware.de/The-Division-Spiel-37399/News/Patch-15-Survival-PTS-Release-1213254/) geht der Patch auf die Live-Server, dann schauen wir nochmal.
MfG,
Raff
Rancor
2016-11-14, 14:44:34
GTX 960 = Maxwell. :) Passt aber zu den Werten meiner Geforce GTX Titan X.
Jap korrigiert :) War gedanklich irgendwie noch bei meiner 780er ^^
Locuza
2016-11-15, 15:34:01
BF1 Patchnotes für das Herbstupdate:
https://eaassets-a.akamaihd.net/dice-commerce/battlefield1/Patch%20Notes%20Assets/Fall%20Update/FallUpdate_DE.pdf
TAA wurde auf PS4 und Xbox One verbessert.
Diverse CPU-Optimierungen.
Diverse DX12-Optimierungen.
Mehrere DX12-Abstürze wurden behoben.
Ein Problem wurde behoben, durch das zerstörte Gebäude massive Auswirkungen auf die CPU-Leistung hatten, was zu niedrigen Frameraten führte.
aufkrawall
2016-11-15, 15:43:34
Immerhin ist die Performance jetzt mit DX12 nicht mehr schlechter. Weil es offenbar sowohl auf AMD als auch NV direkt crasht. :lol:
PSXRacer
2016-11-15, 15:48:44
Immerhin ist die Performance jetzt mit DX12 nicht mehr schlechter. Weil es offenbar sowohl auf AMD als auch NV direkt crasht. :lol:
Finde ich gut, so wird keiner ausversehen mit DX12 Spielen. :D
Ex3cut3r
2016-11-15, 17:58:17
Bei mir geht Dx12, aber nur ohne Afterburner OSD.
Bin mit 3440x1440 und i7 Haswell, sicherlich nicht der optimale User um DX12 zu testen.
Mit DX11 und 1070er bin eigentlich fast immer sehr gut GPU Limitiert @ Ultra, TAA, HBAO+ 70-90FPS
EDIT:
Sieht so aus als ob DX12 wieder nur im Randlosen Fenster läuft obwohl Vollbild gewählt ist. Ist das irgendwie eine DX12 Volkskrankheit?
dargo
2016-11-15, 19:54:37
EDIT:
Sieht so aus als ob DX12 wieder nur im Randlosen Fenster läuft obwohl Vollbild gewählt ist. Ist das irgendwie eine DX12 Volkskrankheit?
Nö.
Ex3cut3r
2016-11-15, 20:17:58
Und wieso taucht der Bug dann in so vielen Dx12 Ports auf? Muss Nvidia, dass jetzt für jedes Game manuell im Treiber Fixen?
DX12 ist einfach immer noch so verbuggt, unglaublich kam eindeutig viel zu früh raus, hoffentlich ist der Nachfolger (DX12.1 ?) reifer.
dargo
2016-11-15, 20:19:20
Frag Nvidia, nicht mich.
aufkrawall
2016-11-15, 20:19:43
Du hast kein Tearing?
Wenn nicht: App-Bug.
Ex3cut3r
2016-11-15, 20:25:10
Du hast kein Tearing?
Wenn nicht: App-Bug.
Damit kann ich was anfangen, nö kein Tearing, zumindest nach kurzem anspielen, ganz ehrlich, kein Bock aufs Beta Testen, wieder zurück auf DX11. Soll einer der dafür bezahlt wird, sich damit auseinander setzen, mir ist die Lust auf DX12 schon wieder vergangen, weil immer irgendwas ist, mit dieser Drecks Api.
aufkrawall
2016-11-15, 20:41:34
Liegt an den Entwicklern, in RoTR DX12 ging von Anfang an jeder Vsync on/off-Modus richtig auf NV (auf AMD erst später per Treiber).
Entropy
2016-11-17, 23:37:26
Ich gebe zu, ich habe ein wenig den Überblick verloren. Welches Spiel bietet z.Z. die beste DirectX 12 Erfahrung? Ich will es einfach nur mal ausprobieren, weil ich einen langsamen AMD Quadcore habe.
w0mbat
2016-11-17, 23:54:31
DOOM mit Vulkan, sonst nix.
aufkrawall
2016-11-17, 23:55:14
Rise of the Tomb Raider.
Locuza
2016-11-18, 05:29:17
Nach AMD bietet Deus EX jetzt auch für Nvidia Multi-Adapter-Support an:
Hi everyone!
Today we are officially releasing Multi-GPU support for DirectX 12 for NVIDIA GeForce users. This will mean that the dx12_mgpu_preview Beta branch will be removed. We strongly advise players with NVIDIA GeForce Multi-GPU capable systems to make sure that you have the latest driver installed and confirm that your SLI is active in your NVIDIA Control Panel.
NVIDIA’s latest driver (375.86) will focus on fixing stability issues for Multi-GPU support for DirectX 12.
Don't hesitate to share your feedback on your experience with Multi-GPU on the forums!
http://steamcommunity.com/games/337000/announcements/detail/710835733869097404
Vielleicht noch 1 oder 2 Patches (falls sie überhaupt noch kommen) und der DX12 Renderer könnte als fertig bezeichnet werden.
Lurtz
2016-11-18, 09:01:08
Civ VI hat jetzt DX12. Hat schon jemand getestet ob es jetzt so flüssig wie Beyond Earth läuft?
dildo4u
2016-11-18, 09:28:48
Bin auch mal gespannt wie der Support aussieht dort steht ab Maxwell und alle AMD Karten,klingt danach das Async Compute keine Rolle spielt oder sie haben eine Abfrage und es ist nur bei Pascal aktiv.
http://steamcommunity.com/games/289070/announcements/detail/646658987742411203
Lurtz
2016-11-18, 10:33:02
Ist wahrscheinlich wieder so eine Alibi-Implementierung die höchstens auf schwachen AMD-CPUs was bringt.
Locuza
2016-11-18, 11:32:33
Steam-Nutzer sind scheinbar das Beste was es aktuell gibt. :redface:
Did a test on my 6700K+GTX1080.
Graphics Benchmark:
DX11 14.468ms average, 22.257 99th.
DX12 14.698ms average, 21.312 99th.
AI Benchmark:
DX11 17.24 turn time.
DX12 17.95 turn time.
99th is better in DX12. Average FPS is lower and the AI is slower. No visual changes.
Framerates improved noticeably with the newest AMD driver on my RX480 compared to DX11. A big overview of my empire dipped to around 30fps last night, and now it's actually 60fps fluid for the most part.
http://steamcommunity.com/app/289070/discussions/0/215439774858137864/#c215439774858369488
Troyan
2016-11-18, 11:43:25
Lustiger ist viel mehr, dass man den Kepler-Support nicht liefert. GTX650 und GTX660 kommen bei Steam noch vor AMD Karten vor. Diese Spieler einfach zu ignorieren, ist schon ziemlich dreist.
dargo
2016-11-18, 11:47:28
Ist jetzt der Entwickler oder Nvidia schuld? Fehlt Kepler was Bestimmtes?
Entropy
2016-11-18, 12:43:53
Laut der DirectX 12 Support Seite von Nvidia sollte Kelpler Funktionieren:
http://www.geforce.com/hardware/technology/dx12/supported-gpus
Locuza
2016-11-18, 12:45:04
Lustiger ist viel mehr, dass man den Kepler-Support nicht liefert. GTX650 und GTX660 kommen bei Steam noch vor AMD Karten vor. Diese Spieler einfach zu ignorieren, ist schon ziemlich dreist.
Besonders die zwei Karten würden vermutlich am meisten von DX12 profitieren und da DX11 als Alternative fehlt, bleibt den Kunden ja nichts anderes übrig außer Suizid zu begehen.
Die Dreistigkeit stinkt schon bis hier oben.
Ist jetzt der Entwickler oder Nvidia schuld? Fehlt Kepler was Bestimmtes?
Die DX12 Umsetzung müsste schon ausgefallener sein, um Kepler zwingend auszuschließen.
Da das Spiel mit DX11 gelaunched ist, denke ich das es keine "harten" Gründe gibt.
Troyan
2016-11-18, 12:59:14
Besonders die zwei Karten würden vermutlich am meisten von DX12 profitieren und da DX11 als Alternative fehlt, bleibt den Kunden ja nichts anderes übrig außer Suizid zu begehen.
Die Dreistigkeit stinkt schon bis hier oben.
Das ist vollkommen belanglos. Die Leute mit Kepler-Karten bezahlen den vollen Preis. DX12 diesen Kunden vorzuenthalten, ist dreist.
dargo
2016-11-18, 13:06:42
Maxwell-Kunden hatten auch den vollen Preis für ihre Grafikkarten bezahlt und warten bis heute auf den Wundertreiber für Async-Compute. Die Dreistigkeit die Nvidia bei der GTX970 abgezogen hat ist auch ohne große Folgen geblieben.
N0Thing
2016-11-18, 13:24:55
Steam-Nutzer sind scheinbar das Beste was es aktuell gibt. :redface:
http://steamcommunity.com/app/289070/discussions/0/215439774858137864/#c215439774858369488
Benchmarks mit meinen Einstellungen, die ich im normalen Spiel verwende.
Laut GPU-Z und Taskmanager scheint die CPU unter DX12 etwas weniger Arbeit zu bekommen, dafür ist die GPU etwas stärker ausgelastet. In einem echten Spiel, habe ich den neuen Patch noch nicht ausprobiert.
Locuza
2016-11-18, 13:32:25
Das ist vollkommen belanglos. Die Leute mit Kepler-Karten bezahlen den vollen Preis. DX12 diesen Kunden vorzuenthalten, ist dreist.
Dreist ist es nur, wenn DX12 ohne Hürden umsetzbar gewesen wäre und reale Vorteile erbracht hätte, ansonsten interessiert das nicht.
N0Thing
2016-11-18, 13:46:05
Benchmarks mit meinen Einstellungen, die ich im normalen Spiel verwende.
Als Ergänzung die gleichen Einstellungen aber in 1920x1080 und 1024x768:
Unicous
2016-11-18, 13:52:04
Dreist ist nur, dass hier schon wieder Schuldzuweisungen vorgetragen werden, die auf nichts fußen außer der eigenen Voreingenommenheit.:rolleyes:
Wieso, weshalb Kepler *hustundFermihust:freak:* nicht unterstützt werden weiß hier bislang niemand, ich kann mir jedenfalls nicht vorstellen, das Firaxis das mit Absicht gemacht hätte, sondern es eher zu keinen signifikaten Leistungssteigerungen kam und man den Kepler deswegen nicht supporten will. Oder Nvidia es nicht supporten wollte oder konnte. Civ ist kein Shooter, oder RTS. Das sollte man vllt. einmal bedenken.
Diese Aluhut-Diskussion ist jedenfalls schon wieder großer Müll. Einfach mal als gegeben hinnehmen und gegebenenfalls bei Firaxis direkt nachfragen... wobei das wahrscheinlich zu keinem Ergebnis führen wird, da sie und 2K sich so wirklich gar nicht um die community kümmern. Das Spiel kam vor knapp einem Monat raus und gestern!, gestern, haben sie ein Lebenszeichen gegeben, das ein Patch kommen wird... und ihn dann heute veröffentlicht. Beschissener kann man mit der community nun wirklich nicht kommunizieren. :facepalm:
Interessant finde ich jedenfalls, dass Explicit Mulitadapter implementiert wurde. Wäre interessant, wie das Spiel mit mGPU und gemischten IHVs funktioniert... und ob auch die Mitnutzung der Intel GPU Leistungssteigerungen bringt.
N0Thing
2016-11-18, 14:00:25
Und als Rest vom Schützenfest auch noch der AI-Benchmark, gleiche Einstellungen und 3440x1440 und 1024x768 als Auflösung:
Vielleicht hat Firaxis unter DX12 SM5.1 eingesetzt und Kepler kann aber nur SM5.0 oder so. Irgendeinen Grund wirds dafür schon geben.
Locuza
2016-11-18, 14:47:37
Kleine Randnotiz, The Division bekommt am 22. November den 1.5 Patch, aber ohne DX12.
Der DirectX-12-Renderpfad schafft es indes noch nicht in das finale Spiel. Man habe diesen auf dem PTS testen wollen, möchte aber weiter daran feilen, bevor er auf alle Spieler losgelassen wird. In unseren Benchmarks zeigte sich bereits, dass sich die Vorteile in Grenzen halten, sofern man nicht hart im CPU-Limit hängt.
http://www.pcgameshardware.de/The-Division-Spiel-37399/News/Survival-Release-DirectX-12-1213743/
Ich persönlich mag es jedenfalls mehr, wenn sich die Entwickler Zeit lassen und keinen Unfall releasen, den sie dann über Monate patchen.
dildo4u
2016-11-18, 15:01:10
Steam-Nutzer sind scheinbar das Beste was es aktuell gibt. :redface:
http://steamcommunity.com/app/289070/discussions/0/215439774858137864/#c215439774858369488
Das die 480 zulegt ist nicht sonderlich bemerkenswert wenn man DX11 Benches sieht.
http://abload.de/img/1440nkuk7.png
Ich schätze mal die Entwickler können unter DX12 weiterhin nicht alles aus den AMD Karten holen gegenüber Vulkan.
Locuza
2016-11-18, 15:06:33
Es würde mich wundern wenn es praktisch einen relevanten Unterschied gäbe, Shader Intrinsics werden unter beiden APIs unterstützt und die APIs selber trennt insgesamt nur wenig.
Edit:
Anscheinend gibt Civ VI eine Warnmeldung heraus, falls man DX12 mit Kepler aktiviert, laut einem User läuft es aber dennoch ohne Probleme mit einem low-end-Kepler:
I have a GT 740 running in DX12 without any issues.
http://steamcommunity.com/app/289070/discussions/0/215439774857336506/?ctp=3#c215439774859042342
dildo4u
2016-11-18, 18:36:58
Hard OCP hat ne Weile gewartet und jetzt Deus Ex in DX12/11 gebencht.
http://www.hardocp.com/article/2016/11/18/deus_ex_mankind_divided_dx12_performance_review/1
Besonders die zwei Karten würden vermutlich am meisten von DX12 profitieren und da DX11 als Alternative fehlt, bleibt den Kunden ja nichts anderes übrig außer Suizid zu begehen.
Die Dreistigkeit stinkt schon bis hier oben.
:ulol: :up:
Das ist vollkommen belanglos. Die Leute mit Kepler-Karten bezahlen den vollen Preis. DX12 diesen Kunden vorzuenthalten, ist dreist.
Ja, schon klar. Windows 7/8/8.1 Nutzer bezahlen auch den vollen Preis und bekommen keine Version mit "besserer" API. Linuxer bezahlen auch den vollen Preis und bekommen kein Vulkan sondern nur OpenGL, noch dazu lahmer als d3d11 und zu einem spaeteren Termin. Ist das nicht dreist?
Ich schätze mal die Entwickler können unter DX12 weiterhin nicht alles aus den AMD Karten holen gegenüber Vulkan.
Wie viele Beispiele hast du denn? Bei Doom wurde es halt richtig gemacht. Schau mal die Mantle Spiele an. Als ob es an der API liegt. Dass Vulkan aus Gruenden besser waere, ist unabhaengig davon aber klar.
Entropy
2016-11-19, 15:48:41
DOOM mit Vulkan, sonst nix.
Bei mir ist schon die OpenGL version am Grafikkartenlimit (im SLI and FX mit 4GHz). Wenn ich die Einstellungen runterschraube, bin ich ab ca 90FPS am CPU limit. Die Shaderoptimierungen die die Entwickler unter Vulkan veröffentlichen bringen meinen Nvidia-Karte nichts und SLI soll nicht gehen, ich hab es deswegen mit dem Vulkan Patch nicht mehr getestet.
Rise of the Tomb Raider.
Danke, hab ich heute Morgen ausprobiert, aber kann keine Beschleunigung feststellen bei Einstellungen die 70 FPS halten. Auf der positiven Seite scheint mein SLI zu funktionieren.
Es ist nun fast ein Jahr vergangen seitdem beide "Next Gen APIs" vorhanden sind und genau wie bei DirectX 10 gibt es entweder keine unterstützung, die Spiele laufen langsammer (wie damals Crysis) oder haben Grafikkartenoptimierungen nur auf der neuen API um Vergleiche unmöglich zu machen, zum Vorteil der neuen APIs.
So rein logisch haben die neuen APIs als Ziel:
1.) Verbesserung der CPU-Auslastung:
- Gamer-PC-CPUs drehen gelangweilt Kreise, wenn nicht gerade AI- oder Physikberechnungen die CPU auslasten, weil es keine GPU gibt die bei Max-Einstellungen nicht das Limit ist.
- alte PCs und Nicht-Gamer-PCs sind eigentlich noch viel mehr Grafikkartenlimitiert als Gamer-PC, und weil die CPUs Leistungssteigerungen von 10% pro Generation haben, GPUs jedoch eher 100% zulegen, werden CPUs noch weniger limitieren.
- Wenn FPS zählt, läuft z.B. Overwatch trotz alter APIs bei 300 FPS, sogar auf meinem lächerlichen gaming PC.
- Jeder Spieleentwickler programmiert jetzt nach, was vorher Experten in Vollzeit einmal im Treiber geschrieben haben. Das klingt nicht als ob es ökonomisch noch leistungssteigernd sein kann. Schlimmer: die Zeit hätte doch für wirklich einmalige Verbesserungen investiert werden können.
2) API Erweiterungn von Konsolen.
- Das wäre ein wenig ein Argument, wenn nicht de facto die Spiele auf XBox One all diese Möglichkeiten schon unter DirectX 11 haben würden und viele dieser Erweiterungen auch auf OpenGL existieren.
3) Nachteil:
- Es benötigt jetzt Patches von Entwicklern um Verbesserungen zu bekommen. Vorher hat AMD/Nvidia alle Zeitlang ihre Wundertreiber mit 25%-Leistungssteigerung veröffentlich, auf einen Schlag liefen viele Spiele besser. Jetzt werden Sie im besten Fall an die Spieleentwickler schreiben wenn es Verbesserungspotential gibt und wir Spieler sind auf das Wohlwollen von ihnen angewiesen noch ein Leistungs-Patch rauszubringen. (Wie lange bis einer wieder mit API-Hacks anfängt?)
Ich hoffe alle Spiele werden weiterhin DirectX 11 bieten. Wenn erstmal keine Referenzversion vorhanden ist und jeder mit DirectX 12 und Vulkan rauskommt, werden wir garnicht mehr sehen wie Leistungsverschwendent die Spiele sind.
Edit: Ich sollte erst den Thread durchlesen :)
Besonders die zwei Karten würden vermutlich am meisten von DX12 profitieren und da DX11 als Alternative fehlt, bleibt den Kunden ja nichts anderes übrig
Ack!
Es ist nun fast ein Jahr vergangen seitdem beide "Next Gen APIs" vorhanden sind und genau wie bei DirectX 10 gibt es entweder keine unterstützung, die Spiele laufen langsammer (wie damals Crysis)
Soll das ein Witz sein? Mit DX10 ist in Crysis die Qualitaet stark gestiegen, natuerlich war das langsamer.
Jeder Spieleentwickler programmiert jetzt nach, was vorher Experten in Vollzeit einmal im Treiber geschrieben haben. Das klingt nicht als ob es ökonomisch noch leistungssteigernd sein kann. Schlimmer: die Zeit hätte doch für wirklich einmalige Verbesserungen investiert werden können.
Ganz genau, weil jeder Entwickler fuer jedes Spiel seine eigene Engine schreibt und nichts davon wiederverwendbar ist. Wer entwickelt schon wiederverwendbaren Code? Das machen doch nur hipster oder?
Es benötigt jetzt Patches von Entwicklern um Verbesserungen zu bekommen. Vorher hat AMD/Nvidia alle Zeitlang ihre Wundertreiber mit 25%-Leistungssteigerung veröffentlich, auf einen Schlag liefen viele Spiele besser.
Ja, es gab wirklich unzaehlige "Wundertreiber". Ist auch naheliegend, dass Hardwarehersteller die Fehler der Spieleentwickler ausbuegeln muessen, wenn sie schlampen. Wo kaemen wir denn hin, wenn man selber fuer sein Produkt verantwortlich waere?
/s
Entropy
2016-11-19, 18:04:56
iuno, ich sehe wie aufgeregt du schon auf den halb gelesene Post antwortest und danach noch editierst um mehr feurigen Text zu liefern. Ich weiss, dass ich jetzt wie ein Oberlehrer klingt, aber das ist weniger schlimm als wenn wir hier nicht miteinander wie Menschen umgehen. Deswegen, grundsätzlich:
1.) Wenn du in soeiner Verfassung bist, bevor du deine Antworten abschickst, steh kurz auf und atme durch. Nicht nur sparst du dir das Editieren, eventuell ist die Lage nicht so dramatisch und vielleicht fällt dir eine Falschannahme deinerseits auf.
2.) Tausche dich mit Menschen so aus, wie sie zu dir sind, bzw. wie du hier in der Community als Referenz siehst. Versuch sachlich und freundlich zu sein. Ausrufe, Denunzierungen, unterstellende falsch Annahmen, groteske Lächerlichstellungen usw. führen bei deinem Gegenüber nur dazu sich auf deine geistige Verfassung zu konzentrieren, jedoch nicht dazu sich deiner eventuell validen Meinung anzuschliessen, denn diese geht in deinem Verhalten komplett unter.
3.) Auch wenn du einmal zurecht aufgeregt bist, analysiere die Texte die du kommentierst Sachlich. Viele Dinge die du anprangerst stehen garnicht im Text. Das macht es schwer, beim besten Willen, etwas zu Antworten. Schlussendlich muss dann jeder etwas llarstellen und ignorieren was du aufgrund falscher Annahmen unfruendlich schriebst.
Ich werde einmal auf deine Kommentare eingehen. Wenn du weiteren Austausch möchtest, sei normal wie jeder andere hier. (Jedenfalls hab ich in meinem kurzen Beisein in diesem Forum ausnahmslos nette Menschen getroffen. Ich habe kein Verlangen mit dir nicht auszukommen.)
Soll das ein Witz sein? Mit DX10 ist in Crysis die Qualitaet stark gestiegen, natuerlich war das langsamer.
Ich bin sehr zuversichtlich, dass die vielen Magazine die das getestet haben, dieselben Einstellungen unter DirectX 9 wie auch DirectX 10 benutzten.
Ansonsten, kannst du ein Feature nennen, dass grundsätzlich die DirectX 10 Version verlangsamte?
Ganz genau, weil jeder Entwickler fuer jedes Spiel seine eigene Engine schreibt und nichts davon wiederverwendbar ist.
Du extrahierst falsche Schlussfolgerungen aus meiner Aussage, vermutlich weil du schon aufgrund des vorherigen Absatzes so in Rage bist.
Um also nicht leere Behauptungen in den Raum zu stellen, wo wir beiden nur gegeneinander reden, zitiere ich, um ein Beispiel zu nennen, einfach NVidia:
"On DX11 the driver does farm off asynchronous tasks to driver worker threads where possible – this doesn’t happen anymore under DX12" aus https://developer.nvidia.com/dx12-dos-and-donts
Entsprechend ist sowas:
Don’t forget that PSO creation is where shaders get compiled and stalls get introduced
It is really important to create PSO asynchronously and early enough before they get used
Tread carefully with thread priorities for PSO compilation threads
Use Idle priority if there is no ‘hurry’ to prevent slowdowns for game threads
Consider temporarily boosting priorities when there is a ‘hurry’
Das gibt es in den 3 nennenswerte DirectX 11 Treibern (AMD,Nvidia,Intel). Das wird in jedem DirectX 12 und Vulkan Spiel gelöst werden müssen, auf welche Art auch immer.
Du hast recht "Code" wird wiederverwendet, aber
1) bevor der Entwickler "Code" wiederverwenden kann, wird er diesen erst einmal implementieren müssen.
2) "Code" ist nie fertig. Auch beim nächsten Spiel wird der Entwickler den "Code" erweitern und ergänzen. Die Erstimplementierung wird nicht so gut sein wie die über Jahre gewachsene Version vom Treiber.
Ja, es gab wirklich unzaehlige "Wundertreiber". Ist auch naheliegend, dass Hardwarehersteller die Fehler der Spieleentwickler ausbuegeln muessen, wenn sie schlampen. Wo kaemen wir denn hin, wenn man selber fuer sein Produkt verantwortlich waere?
/s
Vielleicht geht das unter, aber in fast jeder "Release Note" zu offiziellen Treibern gibt es eine Liste von Spielen die x% Leistung gewinnen.
z.B. eine von Nvidia http://www.nvidia.com/download/driverResults.aspx/75991/en
Mir fällt das auf, weil ich wegen meinem SLI nachsehe. Deswegen lese ich auch "Release Notes" von Spielen, gerade wenn SLI garnicht funktioniert bzw. sogar langsammer ist.
Entwickler veröffentlichen in den seltensten Fällen Patches nur um die Leistung zu verbessern. Starke Multiplayer-Titel sind da die positive Ausnahme z.B. Battlefield. Aber ansonsten nur wenn Kunden sturmlaufen, wie z.B. bei Batman, oder Hardwarehersteller-Marketing zahlt, wie jetzt die ganzen Next-Gen-API patches.
Das hat nicht viel mit Verantwortung zu tun, die kommt erst wenn man dir Fehler beweist, und selbst dann (siehe Witchers Hairworks oder TombRaiders TressFX) winden sie sich eher als Verantwortung zu übernehmen.
Achill
2016-11-19, 19:03:37
[..]
Es ist nun fast ein Jahr vergangen seitdem beide "Next Gen APIs" vorhanden sind und genau wie bei DirectX 10 gibt es entweder keine unterstützung, die Spiele laufen langsammer (wie damals Crysis) oder haben Grafikkartenoptimierungen nur auf der neuen API um Vergleiche unmöglich zu machen, zum Vorteil der neuen APIs.
Das gilt aber nicht für alle Hersteller und/oder alle GPU-Architekturen.
So rein logisch haben die neuen APIs als Ziel:
1.) Verbesserung der CPU-Auslastung:
- Gamer-PC-CPUs drehen gelangweilt Kreise, wenn nicht gerade AI- oder Physikberechnungen die CPU auslasten, weil es keine GPU gibt die bei Max-Einstellungen nicht das Limit ist.
- alte PCs und Nicht-Gamer-PCs sind eigentlich noch viel mehr Grafikkartenlimitiert als Gamer-PC, und weil die CPUs Leistungssteigerungen von 10% pro Generation haben, GPUs jedoch eher 100% zulegen, werden CPUs noch weniger limitieren.
- Wenn FPS zählt, läuft z.B. Overwatch trotz alter APIs bei 300 FPS, sogar auf meinem lächerlichen gaming PC.
- Jeder Spieleentwickler programmiert jetzt nach, was vorher Experten in Vollzeit einmal im Treiber geschrieben haben. Das klingt nicht als ob es ökonomisch noch leistungssteigernd sein kann. Schlimmer: die Zeit hätte doch für wirklich einmalige Verbesserungen investiert werden können.
Du Entwickelst keine Software oder? Je höher das Abstraktionsniveau und je größer die Variabilität des SW-Stacks ist, den du verwendest, desto schneller, öfter und fieser sind die Probleme in die man läuft.
Meist muss man um diese "drum-herum" entwickeln und ist auf das Mitwirken des Herstellers angewiesen.
Eine dünne, flache Implementierung über die Hardware-Schicht hat den großen Vorteil, dass man viel besser Versteht was passiert / wo es hackt. Man kann sich eigene, angepasste und abgestimmte Algorithmen und Libs schreiben und ist nicht dem Hersteller ausgeliefert.
Der wichtigste Aspekt ist jedoch, eine flache und schlanke API kann viel besser Spezifiziert werden und mittels Confirmation-Suits wirklich umfassen testbar gemacht werden - nie mehr Treiber die sich unterschiedlich verhalten / eine Spec unterschiedlich interpretieren. (Und man kann mittels Treiber viel weniger Sachen "ändern" - das ist ein Vorteil).
2) API Erweiterungn von Konsolen.
- Das wäre ein wenig ein Argument, wenn nicht de facto die Spiele auf XBox One all diese Möglichkeiten schon unter DirectX 11 haben würden und viele dieser Erweiterungen auch auf OpenGL existieren.
Die letzte Generation der Konsolen und auch die jetzige verwenden LL-APIs - es ist für die Entwickler nur sinnvoll, wenn diese auf der PC-Plattform (Win/OX/Linux) verfügbar sind.
3) Nachteil:
- Es benötigt jetzt Patches von Entwicklern um Verbesserungen zu bekommen. Vorher hat AMD/Nvidia alle Zeitlang ihre Wundertreiber mit 25%-Leistungssteigerung veröffentlich, auf einen Schlag liefen viele Spiele besser. Jetzt werden Sie im besten Fall an die Spieleentwickler schreiben wenn es Verbesserungspotential gibt und wir Spieler sind auf das Wohlwollen von ihnen angewiesen noch ein Leistungs-Patch rauszubringen. (Wie lange bis einer wieder mit API-Hacks anfängt?)
Kauf einfach das Spiel erst wenn es fertig ist. Außerdem kenne ich keine Entwicklern die aus freien Stücken schlechte SW frei gaben - das macht das Management.
Ich hoffe alle Spiele werden weiterhin DirectX 11 bieten. Wenn erstmal keine Referenzversion vorhanden ist und jeder mit DirectX 12 und Vulkan rauskommt, werden wir garnicht mehr sehen wie Leistungsverschwendent die Spiele sind.
Trivial-Spiele, mir egal solange es gut auf allen drei Herstellern läuft. Spiele mit Grafiklast, bitte nicht - die APIs sind zu verschieden um beides gut unterstützen zu können. Was aber weg muss, ist dieser Win10 App-Müll im Window-Screen.
aufkrawall
2016-11-19, 19:12:31
Soll das ein Witz sein? Mit DX10 ist in Crysis die Qualitaet stark gestiegen, natuerlich war das langsamer.
Unsinn. Das lag an der künstlichen Beschränkung der höchsten Detailstufe für DX10-only, die bei Warhead aber auch für DX9 freigeschaltet war.
Optisch ging mit DX10 nur minimal mehr als bei dem DX9-Renderer.
fondness
2016-11-19, 19:17:40
Danke, hab ich heute Morgen ausprobiert, aber kann keine Beschleunigung feststellen bei Einstellungen die 70 FPS halten. Auf der positiven Seite scheint mein SLI zu funktionieren.
Man sollte nicht immer von seiner eigenen HW auf die Allgemeinheit schließen.
Ich habe den post nebenbei verfasst und bin dann gegangen. Mit rage hat das rein gar nichts zu tun. Vielleicht beruhigt dich das ja. Wenn du ansonsten noch der Meinung bist, der Inhalt sei nicht angebracht oder dich mit mir über den Schreibstil unterhalten willst kannst du den Beitrag melden oder mir eine PN schicken. Ich kann dir aber versichern, dass ich gegenüber MS und ihrem dx12 keinerlei positive Emotionen verspüre, die mich derart reagieren ließen
Natürlich gibt es noch game ready Treiber, aber es ist einfach auch Quatsch dass es regelmäßig Wundertreiber gab, die mal eben 25% in vielen Spielen brachten.
Und klar ist auch: wer keine Verantwortung übernimmt den trifft keine Schuld oder wie? Wenn die Studios dann halt technischen Müll abliefern findest du das vielleicht noch OK. Es gibt trotzdem genug Beschwerden und weniger Verkäufe und deshalb wird nachgebessert.
Entropy
2016-11-19, 20:33:40
Das gilt aber nicht für alle Hersteller und/oder alle GPU-Architekturen.
Ich hatte bisher kein Spiel gefunden, dass rein aufgrund von DirectX 12 besser läuft. Manche, wie z.B. "Ashes of the Singularity" laufen aufgrund von "Asynchronous Compute" schneller (ich berufe mich auf fremde Benchmark, hab keine AMD Karte), aber nur weil ein "Feature" zugänglich gemacht wurde. Das hat aber wenig mit der eigentlichen API zu tun, deswegen gibt es das auf XBox unter DirectX 11:
"This means that the Xbox One can successfully access Asynchronous Compute without requiring the DX12 API."
http://wccftech.com/xbox-one-directx-12-asynchronous-compute-hardware-specifications-ps4-comparison/4/
Ich bin ja bereit zu glauben, dass eine ganz neue API nötig war, ich möchte nur ein Spiel sehen, wo ohne Birne<->Apfel -Vergleiche, 1 zu 1 dasselbe Spiel unter DirectX 12 schneller ist. Die API wird als Zukunft beworben, aber jeglicher Versuch das zu beweisen zeigt 0 oder negative Resultate.
Du Entwickelst keine Software oder?
Doch, in diesem Jahr sind es 30Jahre. Dass du mich dran erinnern musst :/
Gegenfrage, du bist ein recht junger Entwickler, oder? </Scherz>
Je höher das Abstraktionsniveau und je größer die Variabilität des SW-Stacks ist, den du verwendest, desto schneller, öfter und fieser sind die Probleme in die man läuft.Da bin ich mir mit dir einig, dennoch verlassen sich, gerade erfahrene, Entwickler sehr oft auf bestehende Software-Stacks. Treiber die tausende Male verifiziert und poliert wurden nachzubauen? Welche Softwareentwickler denkt da nicht an "Second-system Syndrom"?
Meist muss man um diese "drum-herum" entwickeln und ist auf das Mitwirken des Herstellers angewiesen.
Das passiert zweifelsfrei, die Alternative bei DirectX 12 und Vulkan ist nun, dass jeder Entwickler den SW-Stack selbst implementiert. Als Spieler bist du darauf angewiesen, dass jeder einzelne jedes Feature nachbaut.
Das hat natürlich mehr Potential, aber...
GL -> Vulkan is like complaining that your Prius is too slow, so someone gives you all the pieces of a Ferrari.
Eine dünne, flache Implementierung über die Hardware-Schicht hat den großen Vorteil, dass man viel besser Versteht was passiert / wo es hackt. Man kann sich eigene, angepasste und abgestimmte Algorithmen und Libs schreiben und ist nicht dem Hersteller ausgeliefert.Da stimme ich 100% zu, bis auf das "kann". Der Entwickler _muss_ das jetzt machen. Wenn du nicht eine Engine aus dem Regal willst (weil du jemand bist der SW-Stacks nicht mag), musst du erstmal vieles nachimplementieren. Das sind aberwitzig viele kleine Dinge, die vielleicht garnicht von Interesse für dich sind, aber wenn du es falsch machst, wird es das werden.
Der wichtigste Aspekt ist jedoch, eine flache und schlanke API kann viel besser Spezifiziert werden und mittels Confirmation-Suits wirklich umfassen testbar gemacht werden - nie mehr Treiber die sich unterschiedlich verhalten / eine Spec unterschiedlich interpretieren.
Wünschenswert wäre das. Bei manchen Spielen kannst du auch bei DirectX 11 solche Confirmation-Tests einschalten. Als ich das vor Ewigkeiten gemacht hatte, hatten die meisten Spiele unmengen von Warnings und manche auch Errors.
(Und man kann mittels Treiber viel weniger Sachen "ändern" - das ist ein Vorteil).Das kann auch ein Nachteil sein.
Jetzt kann es aber Treiber geben, die sich anfangen an die Spec zu halten und deswegen alte Spiele die das ignorierten nicht mehr laufen. In alten Treibern haben die Treiberentwickler dann Profile gemacht um Ihr verhalten anzupassen damit Spiele dennoch laufen. Jetzt wird es die Arbeit von Entwicklern sein das 2 Jahre alte Spiel zu patchen.
Die letzte Generation der Konsolen und auch die jetzige verwenden LL-APIs - es ist für die Entwickler nur sinnvoll, wenn diese auf der PC-Plattform (Win/OX/Linux) verfügbar sind.Ich hätte das super gefunden, wenn das DirectX 11 von der XBox auf PC verfügbar wäre. Selbst wenn nicht alles, wenigstens Asynchronous Compute, Shader Intrinsics und vermutlich Pinned Memory (wie auf OpenGL).
Kauf einfach das Spiel erst wenn es fertig ist. Außerdem kenne ich keine Entwicklern die aus freien Stücken schlechte SW frei gaben - das macht das Management.
Dieser schwarze Peter ist es auch was mir Sorgen macht. Ich denke viele Entwickler sind sehr Kompetent, aber sie werden dennoch nicht die Freiheit bzw. den Druck haben wie es die Treiberentwickler haben um nicht die "nicht schlechte" SW freizugeben.
Nvidia und AMD sind nunmal in Konkurenz, wenn einer der Treiber schlecht ist bei einem Spiel, gibt es 1:1 Beweise. (Hatte da nicht gerade jemand was von CIV-AMD verlinkt?)
Wenn du nicht vergleichen kannst, dann bekommst du ein DirectX12 support wie in den letzten 10Jahren Multicore unterstützt war. Paar seltene Spiele wie CIV.
Entropy
2016-11-19, 20:44:35
Man sollte nicht immer von seiner eigenen HW auf die Allgemeinheit schließen.
Ich sprach auch Explizit von meiner Hardware, ich wollte keinen anderen Eindruck erwecken. Ich gehe nunmal davon aus, dass meine langsame AMD CPU noch am ehersten profitieren sollte.
Da die meisten Tests die ich sah nicht positiv waren (rein auf die API bezogen, nicht Asynchronous Compute oder so), wollte ich eines testen was mir hier als bestes empfohlen wird.
Vielleicht hätte ich nicht antworten müssen, aber wenn jemand so freundlich ist mir zu antworten, wollte ich ihm sagen, dass ich seinen Tipp ausprobierte.
pixeljetstream
2016-11-19, 21:06:32
Meist muss man um diese "drum-herum" entwickeln und ist auf das Mitwirken des Herstellers angewiesen.
Eine dünne, flache Implementierung über die Hardware-Schicht hat den großen Vorteil, dass man viel besser Versteht was passiert / wo es hackt. Man kann sich eigene, angepasste und abgestimmte Algorithmen und Libs schreiben und ist nicht dem Hersteller ausgeliefert.
Der wichtigste Aspekt ist jedoch, eine flache und schlanke API kann viel besser Spezifiziert werden und mittels Confirmation-Suits wirklich umfassen testbar gemacht werden - nie mehr Treiber die sich unterschiedlich verhalten / eine Spec unterschiedlich interpretieren. (Und man kann mittels Treiber viel weniger Sachen "ändern" - das ist ein Vorteil).
.
Auf das Mitwirken des Herstellers ist man immer angewiesen, auch wenn der Treiber nun schlanker ist.
Ich glaube du überschätzt ein wenig die conformance tests, das heißt nur dass man die unit tests zu einem gewissen zeitpunkt schaffte und gut. Das heißt nicht, dass man keine bugs im Treiber hat ;)
Spec conformance ist auch so ne Sache, die Specs werden ja auch nicht ohne Grund ständig nach verbessert, weil das große Ganze einfach sehr kompliziert ist, und selbst mit dem low-level Ansatz, es genug komplizierte Fälle gibt, die vergessen wurden usw.
Historisch gesehen haben die alten APIs auch "low-level" angefangen, daher würde ich sagen in 5-10 Jahren ist dx12/vulkan auch wieder weiter weg von der Hardware.
Das Pipeline State Object in den neuen APIs ist ein Paradebeispiel dass Abstraktion nachwievor sehr stark vorhanden ist. Jeder Hersteller gruppiert verschiedene States anders/gar nicht. Da kann eine glEnable artige API also mal super billig sein, wenn sie auf ein Hardwarestate 1:1 tritt, oder halt sehr doof weil der ganze shader code angepasst werden muss.
Jetzt ist alles in dem PSO vereint, Hardware die also fein granular wäre, muss nun entweder die redundanzen in Kauf nehmen (von PSO zu PSO ändert sich ja meist nur minimal was) oder eben die Unterschiede extrahieren, das was der Entwickler mit der fein granularen API direkt sagen konnte.
Eigentlich wäre low-level zu sagen die API sagt welche states die hardware gruppiert, und nun muss der Entwickler je nach Architektur den bestmöglichen Pfad wählen... wäre das jenseits von Konsolen wirklich wirtschaftlich?
Es ist also immer ein trade-off, und immer muss im Treiber eine Anpassung an die Hardware stattfinden. Mal mehr, mal weniger, gleichzeitig steht die Hardwareentwicklung ja auch nicht still...
Wie Du sagst, wo der Entwickler mit der neuen API dem Treiber halt helfen kann, ist durch diverse usage flags usw. deutlicher klar zu machen was man eigentlich will ;) oder nun halt in Sachen Synchronisierung, object life-time management usw. wesentlich mehr Kostenkontrolle zu haben, wann potentiell langsame Dinge passieren.
Er muss aber nachwievor nicht sehr exakt sein und kann einfach konservativ den worst-case angeben. Er kann nachwievor Speicherarten wählen die gut/schlecht für eine Architektur sind... am Ende hat er keinen direkten Nutzen das bestmögliche für alle Hersteller rauszuholen.
Die Umstellung, die neue Verantwortung, und auch das wirklich echte designen einer Engine die grundlegend auf das neue setzt, braucht alles noch etwas Zeit. Da ist ein Jahr zu wenig. Daran "Schuld" hat aber meiner Meinung nach keiner, sowas muss einfach alle paar Jahre mal sein.
Dennoch glaube ich das Metal gut daran war, sich im Abstraktionslevel zwischen alten und den "low-level" apis zu positionieren. Ich glaube die Spieleentwickler haben das low-level dasein für offene Platformen jenseits der Konsolen ein bißchen unterschätzt. Aber mit der Zeit wird das schon. Persönlich würde ich ja mehr auf Vulkan hoffen als DX12 ;)
pixeljetstream
2016-11-19, 21:22:35
Das kann auch ein Nachteil sein.
Jetzt kann es aber Treiber geben, die sich anfangen an die Spec zu halten und deswegen alte Spiele die das ignorierten nicht mehr laufen. In alten Treibern haben die Treiberentwickler dann Profile gemacht um Ihr verhalten anzupassen damit Spiele dennoch laufen. Jetzt wird es die Arbeit von Entwicklern sein das 2 Jahre alte Spiel zu patchen.
Ich glaube nicht dass sich hier wirklich was ändert, denn wenn die Hersteller es hätten hart auslegen wollen, hätten sie auch früher die Spiele crashen lassen. Und wie gerade erwähnt sind die Specs auch "lebende Gebilde" ;)
Man hat jetzt lediglich eine neue API definiert, aber deswegen wird sich der Zirkus drum herum nicht fundamental ändern.
Achill
2016-11-20, 12:24:22
Auf das Mitwirken des Herstellers ist man immer angewiesen, auch wenn der Treiber nun schlanker ist.
Ich glaube du überschätzt ein wenig die conformance tests, das heißt nur dass man die unit tests zu einem gewissen zeitpunkt schaffte und gut. Das heißt nicht, dass man keine bugs im Treiber hat ;)
Es heißt erst einmal, dass alles was getestet wird, sich bei jeder Implementierung (Treiber) gleich verhält - das ist jetzt nicht unbedeutend und war ja wohl ein Problem bei den OpenGL-Treibern, dass diese wohl alle unterschiedlich viel "verzeihen" - was übersetzt heißt, es gibt deutliche Abweichungen im Verhalten.
BTW, Bugs gibt es immer - wichtig ist doch nur, dass man es durch Tests und Spec aufdecken/klären kann und es keine Definitionslücke gibt. Ansonsten ist man schnell beim alten MS Embrace, Extend and Extinguish (https://en.wikipedia.org/wiki/Embrace,_extend_and_extinguish) - MS war/ist leider nicht die einzige Firma die so vorgeht.
Spec conformance ist auch so ne Sache, die Specs werden ja auch nicht ohne Grund ständig nach verbessert, weil das große Ganze einfach sehr kompliziert ist, und selbst mit dem low-level Ansatz, es genug komplizierte Fälle gibt, die vergessen wurden usw.
Specs dürfen sich gern weiter entwickeln, aber sie müssen stringent bleiben und hier sehe ich eine LL-API immer im Vorteil - eben weil diese "dünner" ist.
Ein High-Level-API mag zwar einfacher in der Benutzung sein, man wird deren interne Funktionsweise aber im Vergleich zu einer LL-API nie genauso gut spezifizieren oder testen können - eben wegen der Abstraktion.
Historisch gesehen haben die alten APIs auch "low-level" angefangen, daher würde ich sagen in 5-10 Jahren ist dx12/vulkan auch wieder weiter weg von der Hardware.
Wenn es dann so kommen wird, dann muss eben wieder was neues her - aber über Zukunft zu spekulieren ist müssig genauso wie zu sagen, dass die API dann wie OpenGL/DX11 ist - bei sowas schwingt für mich immer schon fast der Teilsatz mit: "... dann kann man gleich bei DX11/OpenGL bleiben."
Das Pipeline State Object in den neuen APIs ist ein Paradebeispiel dass Abstraktion nachwievor sehr stark vorhanden ist. Jeder Hersteller gruppiert verschiedene States anders/gar nicht. Da kann eine glEnable artige API also mal super billig sein, wenn sie auf ein Hardwarestate 1:1 tritt, oder halt sehr doof weil der ganze shader code angepasst werden muss.
Jetzt ist alles in dem PSO vereint, Hardware die also fein granular wäre, muss nun entweder die redundanzen in Kauf nehmen (von PSO zu PSO ändert sich ja meist nur minimal was) oder eben die Unterschiede extrahieren, das was der Entwickler mit der fein granularen API direkt sagen konnte.
Eigentlich wäre low-level zu sagen die API sagt welche states die hardware gruppiert, und nun muss der Entwickler je nach Architektur den bestmöglichen Pfad wählen... wäre das jenseits von Konsolen wirklich wirtschaftlich?
Mein Verständnis von API-Leveln wäre:
- Low-Level: Eine API die sehr nach an der Domain (GPU/Compute) ausgerichtet ist aber immer noch alle Architekturen / Hersteller abstrahiert.
- Native/Proprietär: API die auf einen bestimmten Hersteller/Architektur ausgerichtet ist und mit anderen Herstellern/Architekturen nicht mehr funktioniert.
Es ist also immer ein trade-off, und immer muss im Treiber eine Anpassung an die Hardware stattfinden. Mal mehr, mal weniger, gleichzeitig steht die Hardwareentwicklung ja auch nicht still...
Wie Du sagst, wo der Entwickler mit der neuen API dem Treiber halt helfen kann, ist durch diverse usage flags usw. deutlicher klar zu machen was man eigentlich will ;) oder nun halt in Sachen Synchronisierung, object life-time management usw. wesentlich mehr Kostenkontrolle zu haben, wann potentiell langsame Dinge passieren.
Er muss aber nachwievor nicht sehr exakt sein und kann einfach konservativ den worst-case angeben. Er kann nachwievor Speicherarten wählen die gut/schlecht für eine Architektur sind... am Ende hat er keinen direkten Nutzen das bestmögliche für alle Hersteller rauszuholen.
Hier helfen nur Tools und Libs (und ideal OpenSource wo alle Hersteller contributen und keine allein Gänge) sowie Verbesserungen der Hardware - weil die Schwäche in dem Bespiel entsteht nicht durch die LL-API oder den Entwickler der nicht den optimalen Pfad wählt, sondern das die HW-Architektur etwas nicht mag.
Locuza
2016-11-20, 13:08:00
Die Russen haben sich Civ VI mal genauer mit DX12 angeschaut:
http://gamegpu.com/rts-/-%D1%81%D1%82%D1%80%D0%B0%D1%82%D0%B5%D0%B3%D0%B8%D0%B8/sid-meier-s-civilization-vi-test-gpu
Im GPU-Limit verliert Nvidia durchgehend Leistung und bei AMD tut sich irgendwie nicht wirklich etwas.
Auf Seiten der CPU kann man aber klar festhalten, dass DX12 gewinnt, solange dort ein Flaschenhals besteht.
Das führt auch dazu, dass unter 1080p die 1080 GTX von Nvidia die einzige GTX ist, die von DX12 profitiert, weil unter DX11 die CPU nicht mitkommt.
Übrigens unterstützt Civ VI wie damals unter Mantle SFR beim Multi-GPU-Support. (Die Benchmarks spiegeln aber aktuell gar nichts in der Richtung wider)
Lurtz
2016-11-20, 13:09:40
Ich weiß nicht was die sich genau angeschaut haben, kann kein Russisch. @AMD (R9 390) ist das Spiel mit DX12 jedenfalls viel viel besser spielbar. Die heftigen Framedrops beim Scrollen über die Karte bspw. sind mit DX12 komplett verschwunden, da hatte man vorher teilweise 15-30 fps weniger.
DX11 kann man bei dem Spiel getrost vergessen :)
Locuza
2016-11-20, 13:15:05
- CPU-bound perf is significantly better. GPU-bound is roughly comparable
- Frame-time variance should be a lot lower as well
https://twitter.com/JoshuaBarczak/status/799825840238424065
Na dann scheinen die Tweets ungefähr der Wahrheit zu entsprechen.
Wolfgang von CB ist gerade im Urlaub, deswegen hat es sich dort noch niemand angeschaut.
Bei PCGH???
Thunder99
2016-11-20, 13:19:56
Wäre das erste Spiel wo man DX12 empfehlen kann, oder? IHV unabhängig natürlich :)
dildo4u
2016-11-20, 13:23:57
Die Russen haben sich Civ VI mal genauer mit DX12 angeschaut:
http://gamegpu.com/rts-/-%D1%81%D1%82%D1%80%D0%B0%D1%82%D0%B5%D0%B3%D0%B8%D0%B8/sid-meier-s-civilization-vi-test-gpu
Im GPU-Limit verliert Nvidia durchgehend Leistung und bei AMD tut sich irgendwie nicht wirklich etwas.
Auf Seiten der CPU kann man aber klar festhalten, dass DX12 gewinnt, solange dort ein Flaschenhals besteht.
Das führt auch dazu, dass unter 1080p die 1080 GTX von Nvidia die einzige GTX ist, die von DX12 profitiert, weil unter DX11 die CPU nicht mitkommt.
Übrigens unterstützt Civ VI wie damals unter Mantle SFR beim Multi-GPU-Support. (Die Benchmarks spiegeln aber aktuell gar nichts in der Richtung wider)
Die CPU ist viel zu stark um ordentliché Vorteile zu sehen,interessanter wäre ein 6600k.Das ist ne realistische CPU für die Masse.
Wäre das erste Spiel wo man DX12 empfehlen kann, oder? IHV unabhängig natürlich :)
Tomb Raider läuft auf AMD und Nvidia gut:
https://www.techpowerup.com/reviews/Gigabyte/GTX_1060_Xtreme_Gaming/21.html
Gears 4 auch:
https://www.computerbase.de/2016-10/gears-of-war-4-benchmark/3/
Locuza
2016-11-20, 14:18:51
GameGPU bencht unten bis hinab auf einen i3-2100 oder FX 4100, allerdings unter 1080p mit einer 1080 GTX.
In dem Fall liegen die Vorteile glaube ich stets über 15%.
Achill
2016-11-20, 14:20:12
[..]
Übrigens unterstützt Civ VI wie damals unter Mantle SFR beim Multi-GPU-Support. (Die Benchmarks spiegeln aber aktuell gar nichts in der Richtung wider)
Funktioniert in DX11 & DX12 hier bei mir. Unter DX12 und mGPU sind die Frame-Times deutlich besser im Vergleich zu DX11. Siehe: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11216814#post11216814
pixeljetstream
2016-11-20, 15:07:31
Wenn es dann so kommen wird, dann muss eben wieder was neues her - aber über Zukunft zu spekulieren ist müssig genauso wie zu sagen, dass die API dann wie OpenGL/DX11 ist - bei sowas schwingt für mich immer schon fast der Teilsatz mit: "... dann kann man gleich bei DX11/OpenGL bleiben."
Es war auch als "es kommt wieder was neues" gemeint. Je weiter sich die hardware vom Programmiermodell wegbewegt, desto "higher-level" ist es für mich. Ein gewisser Wandel ist Pflicht. Diesmal dauert der Wechsel vielleicht etwas länger bis er durch die Bank vollzogen ist, aber es ist notwendig immer wieder zu aktualisieren.
Hier helfen nur Tools und Libs (und ideal OpenSource wo alle Hersteller contributen und keine allein Gänge) sowie Verbesserungen der Hardware - weil die Schwäche in dem Bespiel entsteht nicht durch die LL-API oder den Entwickler der nicht den optimalen Pfad wählt, sondern das die HW-Architektur etwas nicht mag.
Das ist denke ich Ansichtssache, die API ist ja ein Kompromis der mal mehr mal weniger von diversen Herstellern beeinflusst wird. Nichts davon existiert ja aus dem Paradies, jeder hat andere Interessen, wirtschaftliche usw... Ein Softwarehersteller würde sicherlich wollen das alle Hardware relativ gleich funktioniert, muss man nur ein "System" verinnerlichen und senkt die Kosten (GCN-lastige Konsolen). Ein Hardwarehersteller will aber schon ausbrechen können, oder halt mehr als nur das was die API in erster Linie adressiert leisten, bzw. hat halt andere Mittel und Wege gefunden zum Ziel zu kommen, sei es um Strom zu sparen oder was auch immer. Ich sehe das nicht so schwarz weiß. Denn weder API noch Hardware sind ja "perfekt", es gibt immer N Lösungen die zum Ziel führen. Eventuell verstehe ich Dich hier aber auch falsch.
Ich finde Vulkan ist die etwas bessere API, weil hier die Hersteller & Entwickler das ganze etwas mehr unter sich ausmachten und schon aus dx12 wieder lernen konnten. Auch wenn es dadurch immer bissl länger dauert ;)
edit: ich hoffe ich komm nicht zu negativ Dir gegenüber rüber, Deine Argumente sind ja okay, sie klingen für mich halt zu optimistisch / zu sehr nach marketing: jetzt "low-level" und alles wird automatisch super/besser ;) Ein api refresh war notwendig, da gehe ich voll mit.
dildo4u
2016-11-23, 11:09:51
Noch ein Civ 6 DX12 Test:
http://abload.de/img/22172319934lhnkx7.jpg
https://www.overclock3d.net/reviews/software/civilization_vi_directx_12_pc_performance_review/3
Erstaunlich wie schlecht das Game allgemein auf AMD läuft,wundert mich da es ja mit der 480 gebundelt wird.
Ja, quasi unspielbar. 150 fps müssen's schon sein bei Civ, sonst ist der Inputlag einfach nicht zu beherrschen.
Was heißt schlecht? Das ist kein Shooter. Ob ich 60 oder 80 FPS habe, ist bei dem Spiel nun so was von egal.
Lurtz
2016-11-23, 13:09:47
Noch ein Civ 6 DX12 Test:
http://abload.de/img/22172319934lhnkx7.jpg
https://www.overclock3d.net/reviews/software/civilization_vi_directx_12_pc_performance_review/3
Erstaunlich wie schlecht das Game allgemein auf AMD läuft,wundert mich da es ja mit der 480 gebundelt wird.
Keine Ahnung was die da messen, mit DX11 bricht die Framerate spätestens beim Scrollen enorm ein, mit DX12 nicht.
Unicous
2016-11-24, 01:23:45
Was heißt schlecht? Das ist kein Shooter. Ob ich 60 oder 80 FPS habe, ist bei dem Spiel nun so was von egal.
Ironie ist wohl nicht so deins, oder? :wink:
Herr Dildo ist mir hier noch nicht durch Ironie aufgefallen.
Ex3cut3r
2016-11-25, 19:07:25
Die AMDs und Nvidia sind doch alle im Lot, eine FuryX kann keine 1070 und erst recht keine 1080 einholen.
erschenkender wenn überhaupt finde ich eher, das DX11 mal wieder schneller als DX12 ist?!
BlacKi
2016-11-25, 19:34:09
Was heißt schlecht? Das ist kein Shooter. Ob ich 60 oder 80 FPS habe, ist bei dem Spiel nun so was von egal.
untergeordnet ja, egal nicht. sonst wären mir auch 144hz auf dem desktop egal. ist es aber nicht.
Schnoesel
2016-11-25, 20:41:34
Die AMDs und Nvidia sind doch alle im Lot, eine FuryX kann keine 1070 und erst recht keine 1080 einholen.
erschenkender wenn überhaupt finde ich eher, das DX11 mal wieder schneller als DX12 ist?!
Was nützt der größere Balken wenn das Spielgefühl unsauber ist. Trotz weniger Frames hat DX12 in ROTR einfach Sinn gemacht, weil die Frametimes sauberer waren und es keine Drops mehr gab. Ich dachte über die Balkenlänge wären wir hier schon lange raus.
dildo4u
2016-11-25, 20:56:09
Was heißt schlecht? Das ist kein Shooter. Ob ich 60 oder 80 FPS habe, ist bei dem Spiel nun so was von egal.
64fps min unter DX12 mit der 480 in 1080p erscheint mir doch als relativ wenig Spielraum wenn mal mehr los ist.Mich wundert es eher wie das bei der Optik so an der GPU saugen kann.
Hugo40
2016-11-25, 21:23:47
Die AMDs und Nvidia sind doch alle im Lot, eine FuryX kann keine 1070 und erst recht keine 1080 einholen.
Doch, kann sie. Sogar überholen.
Ex3cut3r
2016-11-26, 00:55:23
Doch, kann sie. Sogar überholen.
Kannst du das auch beweisen? Oder nur große Töne spucken? Meine Quelle ist PCGH (Heft), was ist deine? Deine Vorstellungskraft?
Mit 4GB, und exorbitanten Mehrverbrauch, ist eine FuryX einfach von vorgestern.
Locuza
2016-11-26, 02:32:26
Da fällt mir pauschal nur Doom mit Vulkan + Shader Intrinsics ein:
https://www.computerbase.de/2016-07/doom-vulkan-benchmarks-amd-nvidia/
Halt die 0,1% Fälle. :redface:
aufkrawall
2016-11-26, 02:36:50
Kommt auf die gebenchte Szene an. Nie im Leben ist meine 1070 OC-taktbereinigt in dem Spiel im Schnitt nur ~20% vor der 390, die ich vorher hatte. Im MP bei den min-fps dürfte der Abstand eher doppelt so hoch sein.
Kommt auf die gebenchte Szene an. Nie im Leben ist meine 1070 OC-taktbereinigt in dem Spiel im Schnitt nur ~20% vor der 390, die ich vorher hatte. Im MP bei den min-fps dürfte der Abstand eher doppelt so hoch sein.
Im Schnitt könnte dies sicher hinkommen.
Hier ist die 1070 mal 40% aber auch mal nur 10% schneller als ne olle 390, eben je nach Szene. Und das obwohl im 390 System eine langsamere CPU Steckt. Doom 2016 ist kein Nvidia Feld.
Troyan
2016-11-26, 09:40:39
Kommt auf die gebenchte Szene an. Nie im Leben ist meine 1070 OC-taktbereinigt in dem Spiel im Schnitt nur ~20% vor der 390, die ich vorher hatte. Im MP bei den min-fps dürfte der Abstand eher doppelt so hoch sein.
Doch kann sein. Doom ist ein AMD-optimiertes Spiel. Das Spiel nutzt doch die nVidia-Hardware in keinster Weise aus. Pascal skaliert hier überhaupt nicht gegenüber Maxwell.
Wo skaliert Pascal denn gegenüber Maxwell, also takt und einheitennormiert? Ohne dass das Spiel, auch im Zusammenhang mit der Hardware (ac) irgendwie kaputt ist?
Rancor
2016-11-28, 11:27:17
Pascal skaliert takt bereinigt 0. Es ist einfach ein Maxwell auf Steroiden mit allerhöchtens Detail Verbesserungen und viel viel besserer Energieeffizienz. IPC Leistung ist nahezu identisch.
dildo4u
2016-11-28, 12:07:32
In DX12 kackt Maxwell massiv ab da gibt es deutliche Unterschiede,das wird sich nästes Jahr nur verschlimmern.
https://www.techpowerup.com/reviews/MSI/GTX_1070_Quick_Silver_OC/18.html
https://www.techpowerup.com/reviews/MSI/GTX_1070_Quick_Silver_OC/23.html
Rancor
2016-11-28, 12:12:20
In DX12 kackt Maxwell massiv ab da gibt es deutliche Unterschiede,das wird sich nästes Jahr nur verschlimmern.
https://www.techpowerup.com/reviews/MSI/GTX_1070_Quick_Silver_OC/18.html
https://www.techpowerup.com/reviews/MSI/GTX_1070_Quick_Silver_OC/23.html
JA und dann takte den Pascal doch mal auf Maxwell Niveau und wiederhole das ganze :rolleyes: Deshalb steht ja auch taktbereinigt...
MechWOLLIer
2016-11-28, 12:30:48
Die ALUs sind halt komplett gleich. Es muss schon außenrum eine Limitierung geben, damit Pascal schneller als Maxwell taktbereinigt ist. Async Compute zum Beispiel. Sonst sollte es da aber auch keine wirklichen Unterschiede geben.
Das war eine rhetorische Frage. Ich verstand nur troyans Problem nicht.
Kartenlehrling
2016-11-28, 19:29:10
System requirements for X-Plane 11 have just been announced!
Minimum Hardware Requirements:
CPU: Intel Core CPU (e.g. i3, i5, i7), 2 or more cores, 3.0 Ghz or faster, or AMD equivalent
Memory: 8 GB RAM
Video Card: a DirectX 11-capable video card from NVidia, AMD or Intel with at least 1 GB VRAM
Recommended Hardware Requirements:
CPU: Intel “Core” i5 6600K at 3.5 ghz or faster
Memory: 16-24 GB RAM or more
Video Card: a DirectX 12-capable video card from NVidia, AMD or Intel with at least 4 GB VRAM (GeForce GTX 1070 or better or similar from AMD)
http://www.x-plane.com/desktop/try-it/
mmmhh
Das klingt vielversprechend, CPU Multicore wär wohl wichtiger.
Thunder99
2016-12-04, 23:26:35
Bei wem ist mit einer Nvidia GPU Civ VI in DX12 langsamer als mit DX11, auch wenn es geringfügig ist? Bei mir ist es so mit der E3 1230v3 und GTX1070. :confused: Egal ob GPU Benchmark oder CPU Benchmark (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11226781&postcount=60)
Troyan
2016-12-06, 16:44:19
Dank AMD und deren Partner sieht Linux-Gaming im Vergleich zu DX12 garnicht so schlecht aus: https://www.youtube.com/watch?v=w9S5dZN--xE
Das ist hier OpenGL 4 gegenüber DX12 auf einer GTX1070 in Warhammer. Da der DX12 Pfad von AMD bezahlt wurde, sieht man mal, wie lächerlich die ganzen Vergleiche sind. DX12 ist 10% langsamer als DX11 und gerade mal 9,5% schneller als OpenGL 4 in 1080@Ultra. In 720p@Low ist es im Grunde ein Gleichstand und DX11 ist weit davon...
Naja, vielleicht muss Microsoft wirklich einschreiten und AMD mal auf die Finger hauen.
Ich glaub das ist nicht so schwer zu verstehen, warum DX11 bei NV oft noch so viel schneller läuft. NV patcht den DX11-Treiber laufend, der Shadercompiler wird einfach effizienter arbeiten, als das, was die Entwickler selbst mit DX12 fabrizieren, einfach, weil NV so viel Zeit und Geld da reinsteckt und jeder suboptimal laufenden Shader systematisch ersetzen wird. Von daher finde ich es einfach zu leicht zu behaupten, dass "DX12 immer noch schlechter als DX11" ist. Das ist in Wirklichkeit eine Sache des NV-Treibermanagements.
Und bezüglich Maxwell vs. Pascal:
Der DX12-Treiber für Pascal wird einfach besser optimiert, das ist alles. An Maxwell verdient NV nix mehr und mit der Marktdominanz wär es schön blöd die Maxwell-Treiber immer noch so krass zu pflegen. Weil ja absehbar ist, dass der gesamte Markt auf SM6.0 umsteigen wird, allein wegen der neuen XBox, wird sich Maxwell von ganz allein erledigen und man wird wieder mal gezwungen neue Hardware zu kaufen (mal ganz davon abgesehen, dass die 4GB von GM204 schon jetzt nicht mehr reichen und die 6GB der 980ti ebenfalls absehbar zu wenig sein werden).
Foobar2001
2016-12-06, 17:09:07
Der Shader-Compiler ist exakt der selbe bei allen APIs.
Der Shader-Compiler ist exakt der selbe bei allen APIs.
Zu einem Compiler gehoert nach meinem Verstaendnis auch das Frontend. Sind die IRs noch so abstrakt, dass das keinen Unterschied macht?
Foobar2001
2016-12-06, 18:43:36
DX11 und DX12 verwenden die gleiche IR. (Shader Model 6 wird eine neue IR bringen, das spielt aber im Moment noch keine Rolle).
Aber auch sonst ist die IR nicht so wichtig, der Compiler ist ziemlich gut darin bei gleicher Semantik gleich guten Code zu erzeugen.
Demirug
2016-12-06, 19:17:32
Der Shader-Compiler ist exakt der selbe bei allen APIs.
Das ist nicht ganz richtig.
Der nvidia DX11 Treiber erzeugt in den zusätzlichen Treiber Threads (gibt es bei DX12 nicht) sogenannte " constant optimized shader". Der DX 12 Treiber macht das nicht. Darum muss man sich ale Entwickler jetzt selbst kümmern.
Ein "constant optimized shader" ist ein Shader bei dem Teile der Berechnung wegfallen wenn die Shaderkonstanten bestimmte Werte haben. Ein typisches Beispiel ist wenn mit einer Konstante multipliziert wird und diese Konstante ist 0. Der Treiber erkennt dann das im aktiven Konstanten Buffer für den Shader an der entsprechenden Stelle eine 0 ist und benutzt den optimierten Shader. Bei DX12 muss man diese Logik selbst implementieren.
Foobar2001
2016-12-06, 20:58:48
Korrekt, den Fall hatte ich unterschlagen.
Locuza
2016-12-07, 07:19:49
http://cdn.wccftech.com/wp-content/uploads/2016/12/Radeon-Software-Crimson-ReLive-NDA-Only-Confidential-v4-page-005-copy-840x473.jpg
(15+ Titel aktuell, über 50 im Jahr 2017)
2017 scheint es dann endlich loszugehen, hoffentlich mit besseren Beispielen, als noch 2016. :redface:
Hübie
2016-12-07, 10:18:19
Wenigstens da muss AMD sich keine Sorgen machen. :D Bin gespannt wie es aussieht, wenn man ohne D3D11 im Hinterkopf entwickelt.
Troyan
2016-12-07, 10:21:03
Toll, wie man mit 15 Spielen wirbt, wovon 90% durch den DX11 -> DX12 Konverter geworfen werden und bis zu 30% Leistungsverluste offenbaren.
Wenn das die Qualität der anderen 50 Spielen sein wird, kann man das ganze in der Pfeife rauchen.
dargo
2016-12-07, 11:52:52
Ich kenne keinen einzigen DX12 Titel (mal vor irgendwelchen Betas/Alphas abgesehen) wo GCN bis 30% langsamer ist als mit dem DX11 Renderer. Vielleicht ist es dir noch nicht aufgefallen, aber in den Marketingfolien geht es nicht um Nvidia.
btw.
Über 50 DX12 Games in 2017 ist ne Menge. Kommen überhaupt so viele AAA-Titel in einem Jahr raus? :freak:
gnomi
2016-12-07, 12:16:20
Ich bin da für 2017 auch noch etwas skeptisch.
Wo ich DX 11 auswählen kann, (BF 1, Hitman, Deus Ex, ROTTR, Quantum Break Steam Version) nehme ich das aktuell auch. (gibt jeweils verschiedene Gründe wie Leistung, Kompatibilität, Features oder kein Support @ Launch)
Also da müssten schon gute Umsetzungen von den größeren AAA Projekten demnächst kommen, damit ich da eine positivere Meinung zu habe. (siehe Gears of War 4)
Technische Vorteile sind das eine, aber es interessiert eben nicht, wenn ich da mit meinem Spielesystem nichts groß von habe.
Ich denke, erst wenn nvidia die nächste Generation bringt, wird es richtig spannend. Pascal ist eben nur ein schneller Maxwell und AMD hat es bekanntlich schwer im Markt.
Locuza
2016-12-07, 12:32:12
[...]
btw.
Über 50 DX12 Games in 2017 ist ne Menge. Kommen überhaupt so viele AAA-Titel in einem Jahr raus? :freak:
Dank der UE4 und Unity-Engine könnten theoretisch auch eine Menge Indie Titel mit einem DX12 Renderer erscheinen.
Caffeine war glaube ich sogar der erste DX12 Titel auf dem Markt und der hat einfach den Alpha/Beta-Status der DX12-Umsetzung von der UE4 einfach mitausgeliefert.
gnomi
2016-12-07, 12:53:01
Fragt sich nur, wie das dann so läuft mit nicht Final Support. :confused:
Das muss nicht gerade Werbung sein.
Dann lieber kappen, bis alles einwandfrei läuft.
Dieses kann aber muss nicht besser laufen je nach Konfiguration derzeit finde ich unschön...
dargo
2016-12-07, 12:53:03
@Locuza
Ich ging eher davon aus, dass Indies erstmal ein Zeit lang bei DX11 bleiben. Wenn die jetzt auch noch verstärkt auf DX12 setzen umso besser. =)
Fragt sich nur, wie das dann so läuft mit nicht Final Support. :confused:
Das muss nicht gerade Werbung sein.
Dann lieber kappen, bis alles einwandfrei läuft.
Dieses kann aber muss nicht besser laufen je nach Konfiguration derzeit finde ich unschön...
Du meinst also nur weil dein System von DX12 nicht profitiert soll der Renderer dem Rest der Welt verwehrt bleiben? Findest du das nicht etwas egoistisch?
captain_drink
2016-12-07, 12:59:07
btw.
Über 50 DX12 Games in 2017 ist ne Menge. Kommen überhaupt so viele AAA-Titel in einem Jahr raus? :freak:
Derart stattliche Zahlen wurden damals auch für Mantle-Titel kolportiert. Was dann tatsächlich rumkam, ist ja hinlänglich bekannt.
dargo
2016-12-07, 13:02:35
Super Vergleich. :uclap:
Dass man Mantle fallen lässt sobald DX12/Vulkan kommen würde jedes Kind verstehen, alles andere macht überhaupt keinen Sinn.
Troyan
2016-12-07, 13:09:17
Du meinst also nur weil dein System von DX12 nicht profitiert soll der Renderer dem Rest der Welt verwehrt bleiben? Findest du das nicht etwas egoistisch?
nVidia-User müssen auch auf Tessellation für effziente Rendertechniken verzichen, weil die veralterte AMD-Hardware die Basis stellt.
Entwickler sollen Spiele effizienter machen anstelle Ressourcen in sinnbefreite Low-Level APIs zu investieren, die die Leistung stark reduzieren.
DX11 hat weitaus mehr erreicht nach einem Jahr als DX12. Es gab entweder massive Leistungssteigerungen (Battleforge, Stalker) oder deutliche Bildqualitätsgewinne (z.B. Metro2033, HAWX2).
DX12 liefert bei gleicher Qualität 30% weniger Leistung. ;D
Unicous
2016-12-07, 13:09:52
Was dann tatsächlich rumkam, ist ja hinlänglich bekannt.
Ja, Vulkan. :up:
aufkrawall
2016-12-07, 13:11:13
Dank der UE4 und Unity-Engine könnten theoretisch auch eine Menge Indie Titel mit einem DX12 Renderer erscheinen.
Caffeine war glaube ich sogar der erste DX12 Titel auf dem Markt und der hat einfach den Alpha/Beta-Status der DX12-Umsetzung von der UE4 einfach mitausgeliefert.
DX12 in der UE4 ist immer noch experimentell und ich halte es für wahrscheinlich, dass es noch auf absehbare Zeit schlechter als DX11 laufen wird.
"50 DX12-Spiele" sind völliger Blödsinn. Schon bei Mantle hatte AMD teilweise so übertrieben.
Lurtz
2016-12-07, 13:40:15
Du meinst also nur weil dein System von DX12 nicht profitiert soll der Renderer dem Rest der Welt verwehrt bleiben? Findest du das nicht etwas egoistisch?
Je stärker die Hardware, desto weniger kann man anscheinend über den eigenen Tellerrand blicken.
Am besten sind immer Aussagen wie "also mit meinem 6700k und meiner GTX 1080 läuft alles bestens".
Ja, danke für die Info, war jetzt nicht zu erwarten...
captain_drink
2016-12-07, 14:28:04
Super Vergleich. :uclap:
Dass man Mantle fallen lässt sobald DX12/Vulkan kommen würde jedes Kind verstehen, alles andere macht überhaupt keinen Sinn.
Deshalb kamen die angekündigten Mantle-Titel ja auch alle mit DX12/Vulkan, richtig? Richtig...?
Ja, Vulkan. :up:
Dass sich beide in relevanten Aspekten durchaus unterscheiden, wurde hier im Forum ja schon des Öfteren erörtert.
aufkrawall
2016-12-07, 14:30:30
Och, Kinners.. ;)
Ihr habt beide recht: Ohne Mantle hätten wir wohl jetzt noch kein Vulkan. Es stimmt aber auch, dass auf konkrete Spiele bezogen Vulkan Mantle eben nicht ersetzt hat.
Stattdessen gabs dann DX11-only, und bei Frostbite nur kaputtes DX12 für BF1.
dildo4u
2016-12-07, 14:50:39
http://cdn.wccftech.com/wp-content/uploads/2016/12/Radeon-Software-Crimson-ReLive-NDA-Only-Confidential-v4-page-005-copy-840x473.jpg
(15+ Titel aktuell, über 50 im Jahr 2017)
2017 scheint es dann endlich loszugehen, hoffentlich mit besseren Beispielen, als noch 2016. :redface:
Erstaunlich wie schlecht teilweise die Performance in den von AMD gepimpten Games selbst nach einigen Patches ist.
http://abload.de/img/dx12480ieo97.png
http://www.hardocp.com/article/2016/11/18/deus_ex_mankind_divided_dx12_performance_review/4
AMD sollte lieber Vulkan pimpen und nicht MS Jobs übernehmen uns Win 10 zu verkaufen.
Locuza
2016-12-07, 14:56:43
Abseits davon, dass die Resultate mit Vulkan praktisch genauso ausgehen hätten, ist das eine ISV-Entscheidung und nicht vom IHV bestimmt, selbst wenn dieser Hilfestellung anbietet.
][immy
2016-12-07, 15:51:27
nVidia-User müssen auch auf Tessellation für effziente Rendertechniken verzichen, weil die veralterte AMD-Hardware die Basis stellt.
Entwickler sollen Spiele effizienter machen anstelle Ressourcen in sinnbefreite Low-Level APIs zu investieren, die die Leistung stark reduzieren.
DX11 hat weitaus mehr erreicht nach einem Jahr als DX12. Es gab entweder massive Leistungssteigerungen (Battleforge, Stalker) oder deutliche Bildqualitätsgewinne (z.B. Metro2033, HAWX2).
DX12 liefert bei gleicher Qualität 30% weniger Leistung. ;D
Also Tesslation wird durchaus eingesetzt, nur gibt es hier auch Grenzwerte wo die benötigte Leistung nicht mehr zum Bildqualitätsgewinn passt. Irgendwo ist halt schluss und nvidia hat teilweise über ihre eigenen Frameworks irrwitze Tesslationsstufen gefahren, die zwar ihre eigene Hardware "problemlos" konnte die der Konkurrenz (sprich amd) nicht. Tesslation macht halt nur in gewissen Grenzen überhaupt sinn.
DX11 hat sich nie so richtig durchsetzen können. Ähnlich wie DX10. Das meiste ist dank Windows XP noch auf DX9 geblieben. Dabei hatte DX11 noch den Vorteil das es nicht grundsätzlich anders war als die Vorgänger, sondern einfach nur mehr bot.
Mit DX12/Vulkan/mantle gibt es nun gravierende Änderungen, mit denen auch nicht jeder wirklich umgehen kann. Die Entwickler haben mehr Kontrolle an die Hand bekommen (was immer gefordert wurde), müssen nun aber dinge erledigen die zuvor der Treiberhersteller schon relativ effizient gelöst hatten. Nun müssen sich die Spieleentwickler und engines erst mal da hin entwicklen mit dieser Verantwortung auch umgehen zu können. Man wird nicht von heute auf Morgen alles bis zum ende ausnutzen können. Das braucht massig Zeit und irgendwo muss sich es für den Entwickler auch rentieren. Normalerweise ist es ok wenn es läuft. Dann noch zu optimieren wenn man es nicht benötigt, kostet Zeit & Geld.
Hinzu kommt, das auch AMD/nvidia noch ihre Treiber hinsichtlich DX12 optimieren/fixen müssen.
Foobar2001
2016-12-07, 15:52:42
[immy;11230707']DX11 hat sich nie so richtig durchsetzen können.
Starker Tobak.
Ex3cut3r
2016-12-07, 16:04:33
Jajaja...DX12 das einzige wo es brauchbar ist, ( bei mir zumindest) ist ROTTR, sonst läuft es entweder schlechter, stottert sich zu Tode, oder aber die Max FPS sind viel niedriger als beim DX11 Pfad. 50+Games in 2017???, da lach mich echt tot, hat da Roy Taylor wieder seine Finger drin gehabt? :D Weckt mich wenn DX12.1 erscheint.
Ansonsten wäre es auch mal schön wenn endlich Reshade/SweetFx mit DX12 funktionieren wurden.
BlacKi
2016-12-07, 16:16:13
bei mir läuft dx12 in dxmd genau gleich gut. nicht besser und nicht schlechter, ich hab nochmals framerate verläufe verglichen. liegt vl an meinen einstellungen die nicht überall auf max stehen.
https://abload.de/img/unbenanntxuxur.jpg
Lurtz
2016-12-07, 16:24:37
[immy;11230707']DX11 hat sich nie so richtig durchsetzen können. Ähnlich wie DX10. Das meiste ist dank Windows XP noch auf DX9 geblieben.
Gibt es zu der These auch harte Zahlen?
Ex3cut3r
2016-12-07, 16:33:11
bei mir läuft dx12 in dxmd genau gleich gut. nicht besser und nicht schlechter, ich hab nochmals framerate verläufe verglichen. liegt vl an meinen einstellungen die nicht überall auf max stehen.
https://abload.de/img/unbenanntxuxur.jpg
Ist das der Benchmark oder echtes Ingame? :smile:
BlacKi
2016-12-07, 16:40:23
ingame einmal um den block^^
Ex3cut3r
2016-12-07, 16:43:46
Alles klar, danke.
Foobar2001
2016-12-07, 18:17:50
Gibt es zu der These auch harte Zahlen?
Es ist kompletter Quatsch, praktisch alles war DX11 seit der Xbox One/PS4 Generation an Spielen.
Thunder99
2016-12-07, 19:26:42
Es ist kompletter Quatsch, praktisch alles war DX11 seit der Xbox One/PS4 Generation an Spielen.
Fast alles bitte. World of Warships hat einen (beschissenen) DX9 Renderer.
Bis jetzt scheint ja DX12 primär AMD zu pushen und nicht Nvidia, da ja AMD ihre DX11 Treiber nicht so effizient entwickelt haben wie Nvidia. Bin mal gespannt wann erste DX12 only Features kommen :). Dann wird es wohl erst richtig spannend :D
][immy
2016-12-07, 21:05:43
Es ist kompletter Quatsch, praktisch alles war DX11 seit der Xbox One/PS4 Generation an Spielen.
Und seit wann gibt es dx11?
Der umschwung auf dx11 ist erst wirklich ende 2013 vollzogen worden, wo langsam win xp starb und die neuen konsolen raus kamen.
Und ihr wollt hier nach nicht mal 2 jahren bei einem riesen bruch zur vorherigen api direkt resultate sehen... das ist einfach illusorisch
Kartenlehrling
2016-12-07, 21:18:10
October 22, 2009 wurde Win7 mit DX11 veröffentlich.
Nov.2009 gab es wohl die ersten DX11 Spiel, BattleForge und S.T.A.L.K.E.R.: Call of Pripyat , DX11 wurde aber erst im Frühjahr 2010 veröffentlich
nov.2012 Crysis 3 war glaub ich erste dx11 only, nur 64bit war noch später aber da fällt mir nicht ein welches Spiel das erst war, ...
Troyan
2016-12-07, 21:50:13
Je stärker die Hardware, desto weniger kann man anscheinend über den eigenen Tellerrand blicken.
Am besten sind immer Aussagen wie "also mit meinem 6700k und meiner GTX 1080 läuft alles bestens".
Ja, danke für die Info, war jetzt nicht zu erwarten...
Dank AMD und deren Partner kostet DX12 auf High-End Hardware sogar mehr Leistung als auf "Low-End" - BF1 mit 6700K im Multiplayer: https://www.computerbase.de/2016-10/battlefield-1-benchmark/3/#diagramm-battlefield-1-auf-dem-i7-6700k-1920-1080
20% weniger Leistung auf einer GTX1080 gegenüber 2% weniger Leistung mit einer GTX1060. ;D
October 22, 2009 wurde Win7 mit DX11 veröffentlich.
Nov.2009 gab es wohl die ersten DX11 Spiel, BattleForge und S.T.A.L.K.E.R.: Call of Pripyat , DX11 wurde aber erst im Frühjahr 2010 veröffentlich
nov.2012 Crysis 3 war glaub ich erste dx11 only, nur 64bit war noch später aber da fällt mir nicht ein welches Spiel das erst war, ...
DX11 gibt es seit August 2009 und war mit Cypress seit September 2009 nutzbar und im Jahr 2009 gab es mit Dirt:2, Battleforge und Stalker drei Spiele. Hier mal ein Vergleich zwischen DX10 und DX11 mit Cypress und Fermi nach 6 Monaten: https://www.computerbase.de/2010-04/bericht-nvidia-geforce-gtx-400/5/
In Battleforge stieg die Leistung auf Fermi um 50% und auf Cypress um 31%. Bei DX12 nach 18 Monaten muss man sich glücklich schätzen, wenn der Leistungsverlust bei weniger als 10% liegt...
Foobar2001
2016-12-07, 21:51:31
[immy;11230992']Und seit wann gibt es dx11?
Der umschwung auf dx11 ist erst wirklich ende 2013 vollzogen worden, wo langsam win xp starb und die neuen konsolen raus kamen.
Und ihr wollt hier nach nicht mal 2 jahren bei einem riesen bruch zur vorherigen api direkt resultate sehen... das ist einfach illusorisch
Er sprach von "durchsetzen", nicht von "seit immer ist alles DX11". Es hat sich durchgesetzt. Punkt aus, fertig. Die Diskussion ist ueberfluessig wie ein Kropf.
Locuza
2016-12-09, 09:22:08
Nächste Woche am 15. November Dezember soll es den DX12 Patch für The Division geben:
http://www.gamestar.de/spiele/tom-clancys-the-division/news/the_division,50012,3306531.html
dargo
2016-12-09, 09:27:57
Wir haben schon Dezember. :redface: Die Nachricht freut mich aber. =)
Rancor
2016-12-09, 11:08:07
Ich gehe jede Wette ein das er nichts bringen wird ;D
Ich gehe jede Wette ein das er nichts bringen wird ;D
Die hast du schon verloren, denn er wird DX12 bringen.:ugly:
dargo
2016-12-09, 11:16:05
Ich gehe jede Wette ein das er nichts bringen wird ;D
Ich wette dagegen.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11206674&postcount=4513
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11207459&postcount=4520
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11207470&postcount=4523
Birdman
2016-12-09, 12:40:09
Ich wette dagegen.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11206674&postcount=4513
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11207459&postcount=4520
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11207470&postcount=4523
Solange die Ladezeiten höher sind als bei DX11 wird kein normaler Mensch auf DX12 umstellen (ausser um Benchmarks anzustellen), denn schon jetzt verbringt man ja die halbe Spielzeit im Ladescreen...
dargo
2016-12-09, 12:50:19
Was ein Blödsinn wieder. Ich bin in wenigen Sekunden im Spiel. Die Ladezeiten waren am Anfang in Deus Ex unter DX12 auch deutlich länger. Wurde mit einem weiteren Patch gefixt. Wer sagt denn, dass die längeren Ladezeiten in The Division @DX12 so bleiben? :rolleyes: Die Testversion von DX12 ist am 15 Dezember über einen Monat her. Meinst du die Entwickler drehen in dieser Zeit Däumchen?
Kartenlehrling
2016-12-09, 17:51:59
Ubisoft will in der kommenden Woche den DirectX-12-Renderpfad im MMO-Shooter The Division für alle Nutzer aktivieren.
Umgehen kann die Snowdrop-Engine mit der API schon seit Spielversion 1.5, die vor rund vier Wochen veröffentlicht wurde;
sie wird nun jedoch nach Abschluss der Testphase als neue Standardoption genutzt.
https://www.computerbase.de/2016-12/the-division-dx12-patch/
gnomi
2016-12-12, 10:37:35
Klingt zunächst mal gut und vielversprechend. :)
Was meinen die mit Standard Option genau? Normal im Menü als Option auswählbar, oder tatsächlich voreingestellt als Haupt Renderpfad? :confused:
dargo
2016-12-12, 11:47:23
Standardoption = kein PTS
N0Thing
2016-12-12, 14:27:26
Klingt zunächst mal gut und vielversprechend. :)
Was meinen die mit Standard Option genau? Normal im Menü als Option auswählbar, oder tatsächlich voreingestellt als Haupt Renderpfad? :confused:
Ubisoft selber spricht nur von "This patch will also activate DirectX12 which should provide better optimization for higher resolutions.".
http://steamcommunity.com/games/365590/announcements/detail/511553355750161129
Da es ja auch weiterhin einen DX11-Pfad geben wird, kann man davon ausgehen, dass wie bei der Testversion in den Optionen ein Schalter vorhanden sein wird, um zwischen den APIs wechseln zu können. Ob DX12 für passende System direkt automatisch ausgewählt sein wird, wird man abwarten müssen.
gnomi
2016-12-14, 11:01:46
Es klingt nicht so, dass das automatisch aktiviert wird.
Eben nur als Option jetzt drin.
Trotzdem denke ich, dass es diesmal von Beginn an mal überzeugend werden könnte. Die Entwickler haben es glücklicherweise nicht so überhastet und uns Spieler Probespielen lassen. =)
dargo
2016-12-14, 18:15:33
DX12 ist nun bei The Division verfügbar.
Zu den angeblich deutlich längeren Ladezeiten... die Testphase habe ich leider nicht mitgemacht. Aktuell sind die Ladezeiten noch einen Tick schneller als in DX11. Habe allerdings nicht die Zeit gehalten. Unter DX11 waren die Ladezeiten bei mir gefühlt schnell mit ca. 10-15 Sekunden.
dildo4u
2016-12-14, 18:18:54
The Division DX12 Test:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11237047&postcount=5032
DX12 scheint zu rocken so lange Nvidia der Hardware Partner ist,bin auf Watch Dogs 2 gespannt.
BlacKi
2016-12-14, 19:04:07
auf meinem system fast gleich auf
fps fast genau gleich
dx11 https://abload.de/img/dx115hxsb.jpg
dx12 https://abload.de/img/dx12y6ubz.png
AintCoolName
2016-12-14, 20:14:13
Bei mir ist fällt die AFPS von 53 auf 45 bei DX12 im internen Benchmark. CPU Auslastung geht aber runter von 45% auf 33% und die GPU Auslastung steigt von 96 auf 99%.
Auch im Game sieht man den Effekt, ich habe in DX11 in Innenräumen immer 60FPS, im DX12 Modus auch mal ein paar fps weniger. Was besser zu sein scheint ist das Streamen der Details, die kommen jetzt viel früher was dann eventuell auf die FPS geht.
aufkrawall
2016-12-15, 21:02:48
Bin in WQHD mit DX11 im Benchmark komplett GPU-limitiert (max. Details ohne GW) und verliere mit DX12 ca. 3% Performance.
Loeschzwerg
2016-12-15, 22:16:08
GPU Auslastung und avg. FPS fallen mit der Iris Pro 580 ebenfalls.
DX11, 98%, 30.1 FPS
DX12, 97%, 25.5 FPS
Habe aber noch nicht großartig an den Einstellungen geschraubt.
Positiv: Wie auch schon bei RotTR werden bei The Division @ DX12 die Texturen wesentlich schneller geladen/dargestellt.
aufkrawall
2016-12-15, 22:23:27
Imho stimmt die Auslastung, die vom Spiel ermittelt wird, nicht ganz. Die zeigte mir auch nur ~97% für die GPU an, während die Afterburner-Anzeige mit 1s Polling konstant bei 99% festklebte.
Immerhin ist die Performance-Penalty auf Pascal nicht spürbar. Müsste noch 720p testen, um auszuloten, ob es sich im CPU-Limit lohnt.
Jedenfalls läuft DX12 genau wie DX11 mit gefühlt völlig oder sehr sauberen Frametimes.
Loeschzwerg
2016-12-15, 22:47:00
Bei Intel sind die Frametimes schlechter, da spielt die FPS Anzeige regelrecht verrückt (Werte springen wild zwischen 18-31 => avg 25.5).
Aber gut, weder wird Massive die Intel IGP im Fokus haben, noch Intel DX12 :D
Troyan
2016-12-16, 00:31:19
Ist DX12 überhaupt mit DX11 in The Division vergleichbar? PCSS und HFTS funktionieren nicht.
Nach dem Prolog gleich am Anfang am Lager ist DX12 in 4K bei selben Einstellungen 10% schneller als DX11 auf meiner GTX1080...
/edit: Okay, HBAO+ funktioniert auch nicht unter DX12. In 4K mit wirklich selben Einstellung ist DX12 leicht schneller (0,5 FPS^^). Sieht gut aus. Viel besser als die -7 bis -10%, die man in Tomb Raider hat.
N0Thing
2016-12-16, 00:45:16
Mit meinen Einstellungen unter 3440x1440 und der RX 480 bin ich in The Division so sehr im GPU Limit, dass ich mit DX12 eher 1-2fps verliere. Hatte da in meinem Fall aber auch keine Erwartungen. ;)
Troyan
2016-12-16, 01:01:40
Laut RTSS Overlay bin ich mit meinem i7-3770 selbst in 1080p nicht CPU-limitiert. Meine GPU-Auslastung wird mit 98% angezeigt, der Stromverbrauch liegt jedoch bei rund 80%.
Mit DX12 steigen meine Frames von 84 auf 94FPS bei gleichbleibener GPU-Auslastungsanzeige von 98%. Stromverbrauch steigt auf 93%.
Gut, das ist jetzt nur eine Szene. Aber das ist stand heute die beste DX12-Implementierung für nVidia-User, die es gibt.
/edit: Kurzer Auszug aus GPUView für ein Frame:
https://abload.de/img/thedivision_dx12jruid.png
Erklärt auch die gute Leistung. Alle drei DX12-Queues werden verwendet. Gute Leistung von Massive!
Rancor
2016-12-16, 08:07:43
Ist DX12 überhaupt mit DX11 in The Division vergleichbar? PCSS und HFTS funktionieren nicht.
Nicht? Also laut Menü ist es aktiviert bei mir ? Wird Zeit das PCGH mal nen ordentlichen Benchmark Pacours durchläuft :D
Ich teste es am WE mal auf nem Fx-4300 mit einer GTX960. Mal sehen was Maxwell so macht. CPU Limit müsste ja trotzdem da sein.
dargo
2016-12-16, 09:29:13
Gute Leistung von Massive!
Wie? Jetzt ist Massive nicht von AMD gekauft wo es bei AMD auch gut läuft? *scnr*
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11238222&postcount=5133
Übrigens ist die DX12 Implementierung von The Division die heftigste bisher für meinen Grenada. Ich musste mit meinen UV weiter runter (reduzieren) ansonsten verabschiedet sich das Game gelegentlich.
Edit:
Ich muss allerdings sagen, dass ich mir nicht sicher bin ob die Abstürze am zu hohen UV liegen. Gestern über eine Stunde ohne Probleme gespielt. Heute komme ich noch nicht mal bis zum Menü, das Spiel stürzt sofort ab. Beim zweiten Start gehts. Vielleicht liegts am RTSS, der macht auch Probleme.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11238173&postcount=340
Ich teste es am WE mal auf nem Fx-4300 mit einer GTX960. Mal sehen was Maxwell so macht. CPU Limit müsste ja trotzdem da sein.
Schwer zu sagen da die GTX960 auch einiges schwächer ist. Probieren geht über studieren. :)
Troyan
2016-12-16, 11:21:43
Nicht? Also laut Menü ist es aktiviert bei mir ? Wird Zeit das PCGH mal nen ordentlichen Benchmark Pacours durchläuft :D
Das Menü wurde für den jetzigen DX12-Zustand nicht angepasst. Man muss also aufpassen, dass man mit aktivierten nVidia-Features und HBAO+ nicht einfach nur auf DX12 umsteigt und dann die Frames vergleicht.
dildo4u
2016-12-16, 12:50:37
Golem hat's mal kurz getestet:
Im integrierten Benchmark steigt die Bildrate bei manuell maximierten Details mit SMAA 1X Ultra, aber ohne die Nvidia-Schatten PCCSS+ oder HFTS (siehe Techniktest von The Division) messbar an: Im integrierten Benchmark sind es in 720p immerhin 91 statt 76 fps, und in 1440p erreichen wir 44 statt 39 fps. Ähnliche Resultate erzielten wir bei Stichproben in Innenräumen, da dank des Afterburner-OSDs die Bildrate unter D3D12 angezeigt wird.
http://www.golem.de/news/ubisoft-the-division-unterstuetzt-direct3d-12-grafikschnittstelle-1612-125099.html
Wenn ich zu Hause bin teste ich mal ob HBAO+ unter DX12 geht.Beim Tomb Raider wird nur VXAO ausgeblendet wenn man dX12 nutzt also müsste HBAO+ eigentlich gehen.
dargo
2016-12-16, 13:13:36
Hier mal ein Vergleich mit dem Benchmark mit Hassi 4C/8T @3,7Ghz, DDR3-1600 und R9 390 in 720p.
DX12
58303
DX11
58304
Der Zuwachs ist jetzt nicht unbedingt groß. DX11 performte schon ganz gut. Könnte aber auch daran liegen, dass es keine max. Settings sind.
Kartenlehrling
2016-12-16, 13:39:47
https://www.computerbase.de/2016-12/the-division-dx12-benchmark/#diagramm-the-division-mit-directx-12-1920-1080
The Division : DirectX-12-Patch bringt nicht immer mehr Leistung
Seltsam ist das Nvidia sobald sie im GPU Limit kommen (1440p/UHD) DX11 wieder schneller ist, in 1080p ist DX12 15% schneller als die DX11 version.
dildo4u
2016-12-16, 13:42:40
Ich find's erstaunlich das es auf dem 6700k mher zulegt als auf dem FX.
BlacKi
2016-12-16, 13:49:04
576p.
Troyan
2016-12-16, 13:49:46
Sind die Benchmarks überhaupt vergleichbar? In 1080p ist die GTX1080 mit DX12 95% schneller als die GTX1060 mit DX11. In 1440p verringert sich der Abstand auf 73%...
Ob man "Ingame" überhaupt testen kann, ist fragwürdig. Selbst beim "schnellen" Wechseln ist der Sonnen/Mond Stand deutlich unterschiedlich.
BlacKi
2016-12-16, 13:51:12
Ob man "Ingame" überhaupt testen kann, ist fragwürdig. Selbst beim "schnellen" Wechseln ist der Sonnen/Mond Stand deutlich unterschiedlich.
in gebäuden schon.
MechWOLLIer
2016-12-16, 13:55:25
Es geht auch draußen. Es ist nicht ganz einfach, es kostet etwas Zeit und es ist auch nicht 99 Prozentig reproduzierbar. Doch liegt die Abweichung bei höchstens zwei, maximal ein Prozent. De rinterne Benchmark zeigt dabei auch das Pänomen, dass der Abstand 1080/1060 beim Wechsel von 1.920 auf 2.560 schrumpft.
dildo4u
2016-12-16, 14:06:23
Auch fällt auf wie gut der FX hier wieder geht,ich schätze mal er wäre hier schneller als ein 6600k?
dargo
2016-12-16, 14:20:16
Sagt mal... kann es sein, dass das Game die Details dynamisch an die Systemleistung anpasst? Ich kann mir nicht vorstellen, dass die CPU-Anforderung von diesem Spiel so gering ist. :freak:
Hassi 4C/8T @3,7Ghz, DDR3-1600 und R9 390 in 720p und max. Details (keine Nvidia Effekte).
DX12:
58309
DX11:
58310
Hier sinds sogar nur 17%.
Hassi 4C/8T @2,0Ghz, DDR3-1600 und R9 390 in 720p und max. Details (keine Nvidia Effekte).
DX12:
58311
DX11:
58312
Das wird ja kaum langsamer. :| Oder muss ich mit der CPU runter auf 800Mhz? ;D
fondness
2016-12-16, 14:25:08
Bitte löschen, zu spät.
BlacKi
2016-12-16, 14:25:28
kann ich auf meinen 576p nicht erkennen ob dynamisch angepasst wird^^
dildo4u
2016-12-16, 14:29:23
Sagt mal... kann es sein, dass das Game die Details dynamisch an die Systemleistung anpasst? Ich kann mir nicht vorstellen, dass die CPU-Anforderung von diesem Spiel so gering ist. :freak:
Hassi 4C/8T @3,7Ghz, DDR3-1600 und R9 390 in 720p und max. Details (keine Nvidia Effekte).
DX12:
58309
DX11:
58310
Hier sinds sogar nur 17%.
Hassi 4C/8T @2,0Ghz, DDR3-1600 und R9 390 in 720p und max. Details (keine Nvidia Effekte).
DX12:
58311
DX11:
58312
Das wird ja kaum langsamer. :| Oder muss ich mit der CPU runter auf 800Mhz? ;D
HT abschalten?
dargo
2016-12-16, 14:53:00
kann ich auf meinen 576p nicht erkennen ob dynamisch angepasst wird^^
Bei 720p traue ich mich da auch kein endgültiges Urteil abzugeben. :D So auf Anhieb ist mir nichts aufgefallen. Neuer Test...
Hassi 4C/8T @1,0Ghz, DDR3-1600 und R9 390 in 720p und max. Details (keine Nvidia Effekte).
DX12:
58313
DX11:
58314
Endlich zeigt sich langsam das Potential von DX12. Die Ladezeiten sind allerdings mit 1Ghz unzumutbar. :freak: Aber Respekt an Ubisoft bzw. Massive. Ich finds Wahnsinn wie mickrig die CPU-Last (zumindest im Benchmark) bei den Details pro Frame ist. Hätte ich nicht für möglich gehalten. Bei DX12 müssen wir langsam umdenken. Wir haben dank jahrelangen Begleitung von high level viel zu starke CPUs in den Rechnern. Oder anders ausgedrückt... die GPUs sind für low level zu langsam. :D
BlacKi
2016-12-16, 14:58:05
ist aber auch nur der benchmark, in der open world braucht man 2 ghz für flüssige fps.
dargo
2016-12-16, 15:10:55
Nicht nur das. Mit nur einem Ghz hatte ich trotz hohen fps gut sichtbare Ruckler. Eventuell kommt das Streaming da nicht mehr mit.
Kartenlehrling
2016-12-16, 15:29:39
The Division : DirectX-12-Patch
Bei mir ( i7-3770k@4,4ghz 4/4core+R9nano) sind es nur ca. 3fps mehr unter DX12 bei einer ca. 60fps Einstellung (1440p),
was ja dann ca. 5% sind unter 1440p wiederrum nicht schlecht.
Aber ich bin froh das Ubisoft es besser hinbekommen hat umzusetzen,
nur Freesync funktioniert wohl nicht.
dildo4u
2016-12-16, 15:46:12
Das Menü wurde für den jetzigen DX12-Zustand nicht angepasst. Man muss also aufpassen, dass man mit aktivierten nVidia-Features und HBAO+ nicht einfach nur auf DX12 umsteigt und dann die Frames vergleicht.
Du hast recht HBAO+ geht nicht unter DX12.
AO auf Ultra:
http://abload.de/img/thedivision_2016_12_1eguof.png
AO auf HBAO+
http://abload.de/img/thedivision_2016_12_1dsuvb.png
Ich hab's jetzt noch mal mit Ultra Preset gebencht also ohne HBAO+.
FX8320e@4.2GHz GTX 1070@2Ghz
DX12:
http://abload.de/img/tomclancysthedivisionnksms.png
DX11:
http://abload.de/img/tomclancysthedivision0nsuf.png
pixeljetstream
2016-12-16, 15:50:06
Seltsam ist das Nvidia sobald sie im GPU Limit kommen (1440p/UHD) DX11 wieder schneller ist, in 1080p ist DX12 15% schneller als die DX11 version.
ist einfach leichter in der high-level api die shader dynamisch zu optimieren
just4FunTA
2016-12-16, 15:51:05
Bei 720p traue ich mich da auch kein endgültiges Urteil abzugeben. :D So auf Anhieb ist mir nichts aufgefallen. Neuer Test...
Hassi 4C/8T @1,0Ghz, DDR3-1600 und R9 390 in 720p und max. Details (keine Nvidia Effekte).
DX12:
58313
DX11:
58314
Endlich zeigt sich langsam das Potential von DX12. Die Ladezeiten sind allerdings mit 1Ghz unzumutbar. :freak: Aber Respekt an Ubisoft bzw. Massive. Ich finds Wahnsinn wie mickrig die CPU-Last (zumindest im Benchmark) bei den Details pro Frame ist. Hätte ich nicht für möglich gehalten. Bei DX12 müssen wir langsam umdenken. Wir haben dank jahrelangen Begleitung von high level viel zu starke CPUs in den Rechnern. Oder anders ausgedrückt... die GPUs sind für low level zu langsam. :D
alle Benchmraks unter 1440p kann man heute doch nicht mehr ernst nehmen, das hat doch nichts mit der Praxis zu tun. Selbst Fullhd ist doch nicht mehr aktuell aber 720p kann man nur nutzen um theoretische Zuwächse zu messen die aber nichts mit den praktischen Werten zu tun haben. Kein Gamer kauft sich ne gtx1080/1070 und spielt dann in 720p..
dargo
2016-12-16, 15:55:44
alle Benchmraks unter 1440p kann man heute doch nicht mehr ernst nehmen, das hat doch nichts mit der Praxis zu tun.
Wer sagt hier was von praktischen Spielauflösungen? Wenn du die Tests nicht verstehst kann ich dir auch nicht mehr helfen. Nur mal so als Tipp... mit der nächsten Grafikkarte die ich mir kaufe (voraussichtlich Vega) verschieben sich die Limits wieder schlagartig Richtung CPU. ;) Keine Ahnung was daran so schwer zu verstehen ist. Man könnte auch sagen dank DX12/Vulkan würde heute auch noch ein Quadcore von 2011 locker für hohe Frameraten reichen. Und dann würdest du ähnliche Zuwächse in 1080p sehen. Mit 720p erzwinge ich nur ein stärkeres CPU-Limit da meine CPU unter low level für die vorhandene Grafikkarte zu schnell ist, zumindest mit max. Details.
just4FunTA
2016-12-16, 16:01:13
Bei DX12 müssen wir langsam umdenken.
Der Satz ist von dir, umdenken müssen wir aber erst wenn es in realen Bedingungen einen Unterschied macht. Irgendwelche Einkäufe aufgrund dieser Benchmarks zu planen ist schlichtweg dämlich..
dargo
2016-12-16, 16:03:10
Denke einfach mal in Ruhe nochmal nach was ich gesagt habe.
Ex3cut3r
2016-12-16, 16:14:35
Bin da bei just4FunTA, 720p schon und gut, kann mal einer DX11 vs DX12 mit Max oder fast Max Details testen? am besten in 1080p, 1440p und 2160p?
Das mit einer neuen GPU (VEGA, neue TitanX) stimmt was Dargo zwar sagt, aber wer kauft sich denn noch einen 720p Monitor? 3440x1440 und 3840x2160 wären wohl die nächsten 1-2 Jahre Dominieren, und ob DX12 dann wirklich sooooo gebraucht wird....naja...unter einen Haswell i7 vlt. schon...darüber...wohl eher nicht.
Locuza
2016-12-16, 17:24:28
Falls es übersehen wurde, CB hat mit max-details unter 1080/1440/2160p getestet:
https://www.computerbase.de/2016-12/the-division-dx12-benchmark/#diagramm-the-division-mit-directx-12-1920-1080
BlacKi
2016-12-16, 17:45:22
Bin da bei just4FunTA, 720p schon und gut, kann mal einer DX11 vs DX12 mit Max oder fast Max Details testen? am besten in 1080p, 1440p und 2160p?
Das mit einer neuen GPU (VEGA, neue TitanX) stimmt was Dargo zwar sagt, aber wer kauft sich denn noch einen 720p Monitor? 3440x1440 und 3840x2160 wären wohl die nächsten 1-2 Jahre Dominieren, und ob DX12 dann wirklich sooooo gebraucht wird....naja...unter einen Haswell i7 vlt. schon...darüber...wohl eher nicht.
von uns spielt doch keiner mehr in 720p, aber cpu tests macht man in niedriger auflösung. wie bescheuert wäre es in 4k cpu tests zu machen...
da war doch was...
ah ja, das horizon event:biggrin:
just4FunTA
2016-12-16, 17:45:34
Die Ladezeit beim ersten laden ist mehr als doppelt so hoch mit dx12, aber es scheint wirklich flüßig zu laufen ohne komische hänger oder ähnliches. Das ist ja auch schon mal ein Erfolg BF1 ist ja unter dx12 komplett unspielbar..
von uns spielt doch keiner mehr in 720p, aber cpu tests macht man in niedriger auflösung. wie bescheuert wäre es in 4k cpu tests zu machen...
da war doch was...
ah ja, das horizon event
das ist schon klar das man in niedriger Auflösung cpus testet, hier geht es aber nicht darum zu testen welche CPU schneller ist, sondern welche API in Spieleauflösung wie performt und dann sind 720p tests eher theoretischer Natur.
Ich meine klar testen kann man es, aber groß abfeiern würde ich einen 720p Benchmark wenn der Performancezuwachs in 1440p nicht auch auftritt halt nicht..
BlacKi
2016-12-16, 18:05:18
wir wollten herausfinden ab wann die cpu limitiert und ob es im cpu limit performance unterschiede gibt. 1440p/4k tests gibt doch überall. 720p tests sind leider mangelware.
PS: selbst mit 576p bin ich größtenteils im gpu limit^^
dargo
2016-12-16, 18:17:48
Ich meine klar testen kann man es, aber groß abfeiern würde ich einen 720p Benchmark wenn der Performancezuwachs in 1440p nicht auch auftritt halt nicht..
Nochmal... wenn du keine Zuwächse in deiner Szene mit deiner Auflösung hast ist deine CPU zu schnell bzw. deine Graka zu langsam. Such dir was aus. Freue dich einfach, dass du dein nächstes System-Upgrade (CPU, Mainboard, Speicher) dank low level um einige Jahre hinauszögern kannst. Höchstwahrscheinlich erst bei der übernächsten Grafikkarte mit ~20-25 TFLOPs.
Ex3cut3r
2016-12-16, 20:12:12
Falls es übersehen wurde, CB hat mit max-details unter 1080/1440/2160p getestet:
https://www.computerbase.de/2016-12/the-division-dx12-benchmark/#diagramm-the-division-mit-directx-12-1920-1080
Ist leider mit Skylake i7 und ueber schnellen RAM, wurde gerne Haswell/Ivy/Sandy i7 mit DDR3 1600 sehen.
just4FunTA
2016-12-16, 20:37:45
Ist leider mit Skylake i7 und ueber schnellen RAM, wurde gerne Haswell/Ivy/Sandy i7 mit DDR3 1600 sehen.
haswell i5 @4,4ghz @1440p gleiche FPS im Benchmark unter dx11 und dx12 == 71fps..
BlacKi
2016-12-16, 21:42:48
Ist leider mit Skylake i7 und ueber schnellen RAM, wurde gerne Haswell/Ivy/Sandy i7 mit DDR3 1600 sehen.
dargo hat doch ebenfalls schon gepostet, das ein haswell selbst mit 2ghz in division reicht um keine bremse darzustellen. ein skylake macht eine grafikkarte auch nicht schneller.
dargo
2016-12-16, 21:55:29
dargo hat doch ebenfalls schon gepostet, das ein haswell selbst mit 2ghz in division reicht um keine bremse darzustellen.
Hier ist Vorsicht geboten. Man nimmt halt den Benchmark weils einfacher ist. Der muss aber nicht die CPU-Last vom tatsächlichen Spiel wiederspiegeln. Es ist auch etwas schwierig reproduzierbar The Division mit viel Aktion zu vergleichen. Für solche Sachen fehlt mir auch Fraps. Leider kam bisher immer noch kein neues Fraps mit DX12 Support. (no)
Linmoum
2016-12-16, 22:16:00
Für solche Sachen fehlt mir auch Fraps. Leider kam bisher immer noch kein neues Fraps mit DX12 Support. (no)
OCAT schon mal probiert? Funktioniert auch mit DX12.
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=577829
dargo
2016-12-16, 22:23:11
Ops... noch nicht. Muss ich mir anschauen, danke. :)
Edit:
Fantastisches Programm in Verbindung mit FLAT. :up:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11234979&postcount=7
Auf sowas warte ich schon ewig. =)
Ex3cut3r
2016-12-17, 00:08:03
dargo hat doch ebenfalls schon gepostet, das ein haswell selbst mit 2ghz in division reicht um keine bremse darzustellen. ein skylake macht eine grafikkarte auch nicht schneller.
Doch das macht er, wenn man z.B Games wie GTA5, WD2, Doom 2016, ME:C, ROTTR in FHD zockt, ab einer GTX 980Ti, 1070, 1080, Titan XP.
Foobar2001
2016-12-17, 00:19:05
Doom ist mit Vulkan nicht CPU limitiert.
just4FunTA
2016-12-17, 00:30:48
dargo hat doch ebenfalls schon gepostet, das ein haswell selbst mit 2ghz in division reicht um keine bremse darzustellen. ein skylake macht eine grafikkarte auch nicht schneller.ja habe das mal ausprobiert und meine cpu von 4.4Ghz runtergetaktet auf 2Ghz und egal ob mit dx11 oder dx12 die fps fallen gerade mal auf 69fps von 71fps. Schon sehr krass das ganze aber die Ladezeiten werden ätzend lang.
Wenn sie den Bug mit den Ladezeiten unter DX12 fixen werde ich Division auch mit dx12 zocken. Schön das man zumindest keine Nachteile beim spielen durch DX12 hat (ok ausser halt das die nvidia Schatten nicht gehen).
aufkrawall
2016-12-17, 00:33:30
Problem ist bei mir, dass mit meinem Sandy i5 die Ladezeiten wirklich unschön sind (auch mit DX11). Mit der langen Einlogzeit addiert, wirklich ein pain in the a** zu benchen.
BlacKi
2016-12-17, 00:58:27
Doch das macht er, wenn man z.B Games wie GTA5, WD2, Doom 2016, ME:C, ROTTR in FHD zockt, ab einer GTX 980Ti, 1070, 1080, Titan XP.
sry, ich dachte hier ging es um division.
Schön das man zumindest keine Nachteile beim spielen durch DX12 hat (ok ausser halt das die nvidia Schatten nicht gehen).
und dildo sagt das hbao fehlt.
Du hast recht HBAO+ geht nicht unter DX12.
BlacKi
2016-12-17, 01:01:43
Sry doppelpost.
Deathcrush
2016-12-17, 01:06:00
dargo hat doch ebenfalls schon gepostet, das ein haswell selbst mit 2ghz in division reicht um keine bremse darzustellen. ein skylake macht eine grafikkarte auch nicht schneller.
Also ich habe einen deutlichen Anstieg der Frames von i5 6600 -> i7 6700k. Gerade in der DZ kann es mit einem langsameren Prozessor eng werden.
aufkrawall
2016-12-17, 02:24:51
und dildo sagt das hbao fehlt.
Braucht kein Mensch in dem Spiel.
Foobar2001
2016-12-17, 03:29:30
Ich gehe davon aus, dass sie das nachpatchen. Wird wohl an NVIDIA haengen die es noch nicht fuer DX12 in Gameworks haben.
just4FunTA
2016-12-17, 03:35:50
also schlimmer finde ich da die Ladezeiten, aber das wird sicherlich auch gepatcht. Aktuell 40Sekunden unter dx11 und 2minuten und 20sekunden unter dx12 bei mir. :eek:
aufkrawall
2016-12-17, 03:51:53
Ich gehe davon aus, dass sie das nachpatchen. Wird wohl an NVIDIA haengen die es noch nicht fuer DX12 in Gameworks haben.
HBAO+ gibts schon lange für DX12.
dargo
2016-12-17, 09:12:23
ja habe das mal ausprobiert und meine cpu von 4.4Ghz runtergetaktet auf 2Ghz und egal ob mit dx11 oder dx12 die fps fallen gerade mal auf 69fps von 71fps. Schon sehr krass das ganze aber die Ladezeiten werden ätzend lang.
Wenn sie den Bug mit den Ladezeiten unter DX12 fixen werde ich Division auch mit dx12 zocken. Schön das man zumindest keine Nachteile beim spielen durch DX12 hat (ok ausser halt das die nvidia Schatten nicht gehen).
Ihr habt immer noch sehr lange Ladezeiten in The Division? Hier geht alles sehr zügig. :confused: Vielleicht nur ein Problem bei einem 4 Threader?
also schlimmer finde ich da die Ladezeiten, aber das wird sicherlich auch gepatcht. Aktuell 40Sekunden unter dx11 und 2minuten und 20sekunden unter dx12 bei mir. :eek:
Vom Menü bis man in der Spielwelt ist? :eek: Ich messe es gleich mal genau nach.
Edit:
Also bei mir dauert es 34 Sekunden vom Menü bis zur Spielwelt unter DX12. So lange Ladezeiten wie du hatte ich erst bei 1Ghz auf der CPU.
@Linmoum
Dieses OCAT ist leider inkompatibel mit The Division (möglicherweise nur DX12). Sobald ich das Tool starte startet das Spiel nicht mehr, bei RotTR gehts. Vielleicht verhindert das Anticheat-Programm von The Division den Start?
dargo
2016-12-17, 09:14:30
doppelpost
Loeschzwerg
2016-12-17, 18:05:44
nO9tE9H9s0c
1366x768 -- DX11 -- DX12
Avg. FPS -- 32.9 -- 29.8
Typ. FPS -- 33.1 -- 30.3
GPU -- 98% -- 96%
1280x720 -- DX11 -- DX12
Avg. FPS -- 37.6 -- 33.9
Typ. FPS -- 37.7 -- 34.5
GPU -- 98% -- 97%
aufkrawall
2016-12-17, 18:09:38
720p max Details (GW off)
DX11: 113fps
DX12: 116fps
(immer noch ziemlich GPU-limitiert)
So lob ich mir das: Erstmal DX11 sehr gut optimieren, wovon sofort jeder etwas hat. Dann kann man immer noch über einen DX12-Patch für eine Minderheit nachdenken, und das auch erst rausbringen, wenns vernünftig läuft.
Der Frostbite-Bughaufen oder UE4/CE-Hinkefuß kommen im Vergleich echt nicht gut weg.
just4FunTA
2016-12-17, 19:21:22
Ihr habt immer noch sehr lange Ladezeiten in The Division? Hier geht alles sehr zügig. :confused: Vielleicht nur ein Problem bei einem 4 Threader?
Vom Menü bis man in der Spielwelt ist? :eek: Ich messe es gleich mal genau nach.
Edit:
Also bei mir dauert es 34 Sekunden vom Menü bis zur Spielwelt unter DX12. So lange Ladezeiten wie du hatte ich erst bei 1Ghz auf der CPU.
@Linmoum
Dieses OCAT ist leider inkompatibel mit The Division (möglicherweise nur DX12). Sobald ich das Tool starte startet das Spiel nicht mehr, bei RotTR gehts. Vielleicht verhindert das Anticheat-Programm von The Division den Start?
Also 34sek geht hier nur mit dx11 aktiviere ich DX12 bin ich sofort bei über 2minuten.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.