PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : DirectX 12 Grafik-API


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17] 18 19 20 21 22 23 24 25

aufkrawall
2016-09-27, 01:59:54
Und bzgl. der Thematik Konsole-PC schaue man sich mal an, wie Fiji und Hawaii gegen Polaris abschneiden, offenbar hat auch das letzte Update seitens AMD einiges fuer Polaris gebracht. Das passiert ja nicht zum ersten Mal und ist wieder ein Hinweis darauf, dass es da offenbar trotz der wesentlich duenneren Schicht treiberseitig immer noch einiges zu machen gibt...
...und auch kaputtbar ist.

Isen
2016-09-27, 02:11:10
@Isen: bei dir wird also keine erzwungene Sync aktiv?
Hast du deine Ergebnisse auch festgehalten/aufgeschrieben?


Du scheinst nicht verstanden zu haben was ich meine...
(daher leg mir nichts in den Mund!)

Kurz: CB Analysiert die einzelnen Probleme nicht, sondern betrachtet diese Oberflächlich. Probleme die dem DRM zuzuordnen sind (wie verlinkt) werden von CB als generelles Problem zu X zugeordnet, ohne zu wissen, dass es am DRM liegt.

Darüberhinaus ist die Performance des Spiels - wenn man die DRM Problematik mal beiseite lässt; was nur geht, wenn man weiß, das dort ein Problem besteht - absolut nicht so, wie es von CB dargestellt wird.

Ich sehe im Allgemeinen ziemlich wenig Eigeninitiative beim Thema DX12, W10 und co. - was unter anderem daran liegt, dass im deutschsprachigem Raum kaum noch Expertise vorhanden ist, die auch mal tiefer ins Detail gehen können, anstelle mit der groben Keule böse DX12, UWP/W10 zu schwingen.

Es ist nämlich eben NICHT nur DX12 oder UWP. Sondern auch DRM.

Die Festgehaltenen Daten wirst du ohnehin bald hier verlinkt kriegen.

Linmoum
2016-09-27, 03:06:52
CB hat jetzt auch einen Test zu FH3: https://www.computerbase.de/2016-09/forza-horizon-3-benchmark/
Wolfgang hat hier auch nochmal was dazugeschrieben, nämlich dass die Probleme UWP-bedingt sind und nicht an DX12 liegen.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11167376#post11167376

Foobar2001
2016-09-27, 03:28:46
Du scheinst nicht verstanden zu haben was ich meine...
(daher leg mir nichts in den Mund!)

Kurz: CB Analysiert die einzelnen Probleme nicht, sondern betrachtet diese Oberflächlich. Probleme die dem DRM zuzuordnen sind (wie verlinkt) werden von CB als generelles Problem zu X zugeordnet, ohne zu wissen, dass es am DRM liegt.

Darüberhinaus ist die Performance des Spiels - wenn man die DRM Problematik mal beiseite lässt; was nur geht, wenn man weiß, das dort ein Problem besteht - absolut nicht so, wie es von CB dargestellt wird.

Ich sehe im Allgemeinen ziemlich wenig Eigeninitiative beim Thema DX12, W10 und co. - was unter anderem daran liegt, dass im deutschsprachigem Raum kaum noch Expertise vorhanden ist, die auch mal tiefer ins Detail gehen können, anstelle mit der groben Keule böse DX12, UWP/W10 zu schwingen.

Es ist nämlich eben NICHT nur DX12 oder UWP. Sondern auch DRM.

Die Festgehaltenen Daten wirst du ohnehin bald hier verlinkt kriegen.
Das mit dem DRM halte ich fuer unschluessig. Es ist sehr ueblich, dass Spiele ihre Daten verschluesseln.

iuno
2016-09-27, 04:17:30
Du scheinst nicht verstanden zu haben was ich meine...
Das habe ich, du verstehst aber offenbar auch nicht, worum es mir geht.
Es ist mir einfach ziemlich egal. Ich sehe und verstehe, dass es offenbar Probleme mit den verschluesselten Daten gibt. Ist ok, ist ein Problem, aber damit ist das ist fuer mich abgehakt.
Hier geht es um d3d12 und im direkten Zusammenhang damit um die UWP und die Probleme diesbezueglich.

(daher leg mir nichts in den Mund!)
Wo soll ich dir was in den Mund gelegt haben?
Die Fragen habe ich komplett ernst und ohne Haeme oder sonst was gestellt.

Die Festgehaltenen Daten wirst du ohnehin bald hier verlinkt kriegen.
schoen :up:

Wolfgang hat hier auch nochmal was dazugeschrieben, nämlich dass die Probleme UWP-bedingt sind und nicht an DX12 liegen.
Das steht auch so im Artikel und waere auch sonst schon klar. Es geht aber Hand in Hand, von daher ist das fuer mich nachrangig.

Ich wusste nur nicht, dass es hier einen Forza Thread gibt, wo das schon besprochen wird, sonst haette ich das hier auch nicht angefangen...

dildo4u
2016-09-27, 12:29:27
PCGH hat jetzt den Gears Remaster neu getestet.

http://www.pcgameshardware.de/Gears-of-War-Ultimate-Edition-Spiel-55573/Specials/DirectX-12-Benchmarks-Test-1208296/

Die zu Hohe CPU Last wegem der Treiber verfolgt AMD auch in DX12 weiter,die 1060 zersägt alle AMD Karten.
Und ich find die Performance im Gegensatz zu PCGH nicht so schlecht,das ist im SP kein 60fps Game auf Konsole,über 100fps sind also schon mal über 3 facher Speed im Vergleich zur Xbox

dargo
2016-09-27, 12:42:07
Eine sehr kleine Anzahl von Hardware Konfigurationen auf die man als Entwickler direkten Zugriff vs. eine aus praktischer Sicht unendliche Anzahl von Konfiguration.

Mit diesen "Problemen" muss sich id bei Vulkan auch herumschlagen. Warum kriegen die es bei Doom so problemlos hin?

dildo4u
2016-09-27, 12:46:54
Pascal wird bei Doom immer noch nicht komplett ausgenutzt ich sehe hier 96% GPU Last.Läuft also nur auf AMD optimal.

M4xw0lf
2016-09-27, 12:57:26
Pascal wird bei Doom immer noch nicht komplett ausgenutzt ich sehe hier 96% GPU Last.Läuft also nur auf AMD optimal.
Sehr suboptimal, ja. :freak:

dargo
2016-09-27, 12:57:33
PCGH hat jetzt den Gears Remaster neu getestet.

http://www.pcgameshardware.de/Gears-of-War-Ultimate-Edition-Spiel-55573/Specials/DirectX-12-Benchmarks-Test-1208296/

Über den Softwaremüll zu diskutieren lohnt nicht. Ansonsten kannst du mir die Logik gerne erklären warum die GTX1060 in 1440p bei den avgs. 16% vor der RX480 liegt und bei den min.fps die RX480 plötzlich 42% schneller ist. Oder warum die min. fps der GTX1060 beim Wechsel von 1440p auf 1080p um 122% steigen. X-D

Edit:
Ich sehe gerade das ist ein weiterer UWP-Unfall.

dildo4u
2016-09-27, 12:59:25
Sehr suboptimal, ja. :freak:
Kein Plan wie du so zockt aber idealerweise hat man 99 oder 100% GPU Last gerade unter Vulkan sollte die CPU nicht limitieren und die GPU voll auslasten.

Über den Softwaremüll zu diskutieren lohnt nicht. Ansonsten kannst du mir die Logik gerne erklären warum die GTX1060 in 1440p bei den avgs. 16% vor der RX480 liegt und bei den min.fps die RX480 plötzlich 42% schneller ist. Oder warum die min. fps der GTX1060 beim Wechsel von 1440p auf 1080p um 122% steigen. X-D

Edit:
Ich sehe gerade das ist ein weiterer UWP-Unfall.
Alles wo AMD nicht vorne liegt ist Müll ist klar,wo ist unter Doom die ideale Nutzung von Nvidia Karten?

dargo
2016-09-27, 13:02:28
Pascal wird bei Doom immer noch nicht komplett ausgenutzt ich sehe hier 96% GPU Last.
Das ist völlig unwichtig. Vulkan läuft mittlerweile auf Nvidia nicht langsamer als OpenGL und die Frametimes sind auch sauber. Was übrigens nicht an id sondern Nvidia Treiber lag.

dildo4u
2016-09-27, 13:07:55
Warum soll das unwichtig sein Doom ist eins der wenigen Game's wo Fury X dicht an der 1080 ist,da liegt offensichtlich einiges Brach wenn man keine volle GPU Auslastung hat.Das ist das Einzige Game was meine 1070 nicht unter 2GHz zwingt.Ich glaube das einzige Low Level Game was jetzt überall halbwegs läuft ist Tomb Raider und dort ist die 1080 Meilen vor Fury X.

dargo
2016-09-27, 13:08:46
Alles wo AMD nicht vorne liegt ist Müll ist klar,wo ist unter Doom die ideale Nutzung von Nvidia Karten?
Junge... schau dir die einzelnen Ergebnisse genauer an bevor der Kindergarten wieder losgeht. Da gibt es so viele Ungereimheiten, dass sich die Balken biegen.

dildo4u
2016-09-27, 13:12:57
Das Game zeigt das selbe Verhalten wie Forza und nutzt eine komplett andere Engine.UWP ist Schrott ja das ändert aber nix daran das der AMD Treiber immer noch absolute Amateur Stunde ist.

dargo
2016-09-27, 13:17:44
Das Game zeigt das selbe Verhalten wie Forza und nutzt eine komplett andere Engine.
Also ein weiterer UWP-Unfall. :uup:

Botcruscher
2016-09-27, 13:21:19
Also ein weiterer UWP-Unfall. :uup:
Aber so was von.
nsbesondere mit AMD-, aber auch schnellen Geforce-GPUs bemerken wir eine stark schwankende Performance, die nicht auf die gesteigerte Grafiklast zurückzuführen ist. Die Schwankungen treten während des gesamten Spiels auf und gehen offensichtlich auf eine CPU-Limitierung zurück. CPU-Optimierungen sind offenbar nicht in die Ultimate Edition von Gears of War eingeflossen. Ein im Kern fast 10 Jahre altes Spiel, das von jenem Konzern stammt, welcher die API entwickelte und nun kräftig bewirbt, scheitert selbst nach 5 Updates ausgerechnet an jener Hürde, die Direct X 12 ausräumen soll - sehr enttäuschend! Auch die restliche Performance enttäuscht etwas, ab 1440p wird das Spiel recht anspruchsvoll und ist kaum ohne Ruckler und Slowdowns spielbar. Und trotz prinzipiell altbackener Technik sind selbst mit einer GTX 1080 sind in Ultra HD keine stabilen 60 Fps möglich. Gemessen an der aufgebohrten, jedoch nicht übermäßig ansehnlichen oder gar beeindruckenden Optik ist das etwas wenig.
:freak:

dildo4u
2016-09-27, 13:34:55
Also ein weiterer UWP-Unfall. :uup:
Was soll die bessere Performance der 1060 gegenüber der 480 mit UWP zu tun haben?

dargo
2016-09-27, 14:31:04
Blind?

57540

Bei den min.fps bricht sie komplett ein. Dieser Softwaremüll ist keiner weiteren Diskussion würdig. Und das kann man mittlerweile 1:1 auf alle UWP-Titel übertragen solange Microsoft unfähig ist echtes Vsync Off zu liefern.

dildo4u
2016-09-27, 14:33:48
Nein ich bin nicht Blind wenn man die Auflösung erhöt reichen die 6GB nicht mehr kein besonders auffälliges Verhalten.
Das Scaling ist sogar ziemlich gut wenn man sieht wie die 1080 abgeht.
Das einzige was mir auffällt ist das deine Karte wie bei Forza besonders abkackt,kein Plan ob AMD bewusst nur noch für Polaris optimiert.

dargo
2016-09-27, 14:56:01
Nein ich bin nicht Blind wenn man die Auflösung erhöt reichen die 6GB nicht mehr kein besonders auffälliges Verhalten.

Deshalb liefert eine verkrüppelte GTX970 und eine Fury etwas mehr min.fps. :facepalm:

Hübie
2016-09-27, 14:59:36
Meine Beobachtung im Falle von Doom ist, dass es sehr gut mit Anzahl der ALUs skaliert. Klar Takt ist dann nicht unwichtig... ;)

dildo4u
2016-09-27, 15:00:30
@dargo

Welche neue AAA PC Games sind Heute denn 100% Konsistent?Doom läuft nicht gescheit auf Pascal,Deus EX ist ne Katastrophe unter DX12,Mirrors Edge läuft laut deinen Test's kacke auf AMD etc.

Meine Beobachtung im Falle von Doom ist, dass es sehr gut mit Anzahl der ALUs skaliert. Klar Takt ist dann nicht unwichtig... ;)

Pascal läuft nur mit 94 bis 96% im GPU Limit unter Vulkan schwer da Vergleiche mit AMD anzustellen.

http://abload.de/img/doomrbtuqw.png

BlacKi
2016-09-27, 15:08:37
dx12 ist kacke es lebe dx13^^

dargo
2016-09-27, 15:13:41
@dargo

Welche neue AAA PC Games sind Heute denn 100% Konsistent?Doom läuft nicht gescheit auf Pascal,Deus EX ist ne Katastrophe unter DX12,Mirrors Edge läuft laut deinen Test's kacke auf AMD etc.
Bei Doom reimst du dir irgendwelche Märchen zusammen.
http://www.pcgameshardware.de/Doom-2016-Spiel-56369/Specials/Vulkan-Benchmarks-Frametimes-1202711/

Deus Ex ist ne Dauerbaustelle unter DX12, kennen wir schon von RotTR. Mirrors Edge läuft mit einem i5 auch müllig auf NV, ist aber hier gar nicht das Thema da DX11.x.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11167170&postcount=624

Achja... und lernt endlich UWP und DX12 zu trennen!

BlacKi
2016-09-27, 15:15:10
Achja... und lernt endlich UWP und DX12 zu trennen!
was bleibt dann übrig? 3 spiele pro jahr?

Botcruscher
2016-09-27, 15:17:49
was bleibt dann übrig? 3 spiele pro jahr?
Der Kern der Sache: Das Werbemusthave für W10 Spyware.

Hübie
2016-09-27, 15:19:59
@dargo

Welche neue AAA PC Games sind Heute denn 100% Konsistent?Doom läuft nicht gescheit auf Pascal,Deus EX ist ne Katastrophe unter DX12,Mirrors Edge läuft laut deinen Test's kacke auf AMD etc.



Pascal läuft nur mit 94 bis 96% im GPU Limit unter Vulkan schwer da Vergleiche mit AMD anzustellen.

http://abload.de/img/doomrbtuqw.png

Na ja bei deiner CPU kann es durchaus sein. Weiß nicht wie es bei anderen Pascal-Usern mit Intel Quad- oder Hexacore aussieht. ;)

aufkrawall
2016-09-27, 15:21:27
Doom läuft nicht gescheit auf Pascal
Jetzt mal nicht übertreiben. Spiel ein paar Runden MP mit der 1070 mit OGL und ein paar mit einer 390 Vulkan, und schon bist du wieder mit der 1070 happy.

fondness
2016-09-27, 15:38:42
Jetzt mal nicht übertreiben. Spiel ein paar Runden MP mit der 1070 mit OGL und ein paar mit einer 390 Vulkan, und schon bist du wieder mit der 1070 happy.

Wäre auch traurig, wenn eine 1070 nicht schneller wäre als eine 390.

HOT
2016-09-27, 16:57:52
was bleibt dann übrig? 3 spiele pro jahr?
Hm was haben wir denn da:
- die 3 Nixxes-Umsetzungen (Hitman, RotTR und DE:MD (noch beta) (im allgemeinen gelungen nach viel Nachpatcherei, aber nur SM5.0 und FL11_0, im Prinzip DX12 @ DX11 mit async-Compute)
- Timespy (DX12 FL11_0 mit vielen Drawcalls)
- BF1 (nichts bekannt bislang, Implementierung derzeit beta)
- Watchdogs2 (noch nicht erschienen, nichts bekannt, nur die Implementierung wurde angekündigt)
- ARK (DX12 hat allerdings keine große Priorität und soll nach der grundsätzlichen Optimierung des Spieles konzentriert angegangen werden, daher die Verschiebung)
- QuantumBreak (UWP-Problematik)
- GoW (U3 + DX12@DX11 :freak: dementsprechend schrottig performt das, wird nach ein paar Patches sicherlich gehen, UWP-Problematik)
- JustCause 3 (auch eine Nixxes-Umsetzung AFAIK, Edit: War nur als DX11.3-Umsetzung geplant aber bislang offenbar nicht umgesetzt)
- ArmA 3 (DX12 für die Erweiterung definitiv gecancelt, keine Manpower für das Projekt)
- DayZ (gleiches Schicksal wie ArmA3 fürchte ich)
- ProjectCars (zu DX12 gibts keine neuen Einträge, sehr sicher gecancelt)
- Forza (DX12 FL11_0, SM5.0, Tiled Resources Tier2, UWP-Problematik)
- Warhammer (DX12 irgendwas zwischen alpha und beta nach wie vor)
- Ashes (gute DX12-Implementierung, nur SM5.0, adaptives FL)
- StarCitizen (Projekt wird letztendlich aufgrund der Drawcall"massen" nur mit DX12 überhaupt durchführbar sein, DX11 im finalen Spiel ist dort mMn absolut ausgeschlossen)
- Civ6 (Grafikperformance bei DX12 irrelevant, reine CPU-Optimierung wie bei CivBE)
- F1 2015 (Engine auch grund-sätzlich DX12-fähig (also nichts drangefrickeltes), man möchte das komplette FL12_1 implementieren (wird also auf Paxwell auch optisch ein Upgrade), vermutlich SM6.0 - das wird sicher noch dauern)
- Descent Underground (wenig Details, soll mit DX12 bessere Optik bieten, DX12 aber schon implementiert)
- Rust (DX12-Implementation alpha)

Wahrscheinliche künftige Kandidaten: MassEffect, DragonAge4 ...

Aller Anfang ist schwer, aber er ist gemacht ;). Für das erste Jahr DX12 ist die Liste allerdings schon beachtlich. Das wird in 2017 mehr werden, das ist sicher.
Allgemein profitieren wird man wahrscheinlich erst, wenn man díe FL11_0/1 Hardware mit DX11 verfrühstückt und SM5.0 DX11 überlässt, alles Weitere mit SM6.0 und FL12_0 macht. Im Großen und Ganzen kann man sagen, dass DX12 mal wieder ein totaler Schnellschuss war seitens M$, was die Verbreitung zwar beförderte aber bei allen Beteiligten ziemlich viel Frust erzeugte. Letztendlich wird die überhastete Verbreitung allerdings ein Vorteil sein - Frust vergeht.

Edit

iuno
2016-09-27, 17:18:17
Die Frage war nach DX12 Titeln ohne UWP, also kannst du ein paar direkt aus der Liste streichen.
- QuantumBreak (DX12 Renderer von M$ selber, nicht von Remedy, leider Schrott, UWP tut sein übriges)
- StarCitizen (Projekt wird letztendlich aufgrund der Drawcall"massen" nur mit DX12 überhaupt durchführbar sein, DX11 im finalen Spiel ist dort mMn absolut ausgeschlossen)
Bekommt die Steam Version von QB ueberhaupt DX12 Support? Dazu habe ich bisher nichts gelesen.
Bei SC kann ich mir sogar vorstellen, dass man letztendlich noch auf Vulkan umschwenkt.

dildo4u
2016-09-27, 17:22:03
Bei Steam steht nix zu DX12 bei Quantum Break,wird man also wieder nicht vernünftig testen können was besser läuft.

http://abload.de/img/qautumbreakj9u2l.png

HOT
2016-09-27, 17:27:31
Die Frage war nach DX12 Titeln ohne UWP, also kannst du ein paar direkt aus der Liste streichen.

Ich hab sie der Vollständig halber dringelassen. Da kommen ja auch noch ein paar dazu, Halo5 und HaloWars 2 z.B.

Bekommt die Steam Version von QB ueberhaupt DX12 Support? Dazu habe ich bisher nichts gelesen.

Sicherlich war Ramedy mit der DX12-Umsetzung nicht zufrieden. Vllt. gehts ja doch.

Bei SC kann ich mir sogar vorstellen, dass man letztendlich noch auf Vulkan umschwenkt.
Ist eigentlich naheliegend, da Chris Roberts ja schon Umsetzungen für Linux/Unix quasi angekündigt hat, dafür braucht man eh zwingend Vulkan.
Bislang sieht die Planung allerdings für Windows PC DX12 vor (ich nehme mal an, Crytek + CIG ist damit einfach schon weiter) und für Linux eben Vulkan. Man will die Windows-Variante auch sicherlich deutlich früher auf den Markt bringen könnt ich mir vorstellen. Man sollte sich aber keiner Illusion hingeben, ich bezweifle, dass SC auf Win7 noch startet, selbst wenn es Vulkan bekommt. Windows7 hat keine Zukunft im PC-Spielemarkt, es wird zunehmend irrelevant werden.

Locuza
2016-09-27, 18:37:48
Hm was haben wir denn da:
- die 3 Nixxes-Umsetzungen (Hitman, RotTR und DE:MD (noch beta) (im allgemeinen gelungen nach viel Nachpatcherei, aber nur SM5.0 und FL11_0, im Prinzip DX12 @ DX11 mit async-Compute)
- Timespy (DX12 @ DX11, wie oben nur ohne echtes asnyc-Compute aber mit vielen Drawcalls)
- BF1 (nichts bekannt bislang, Implementierung derzeit alpha - weiss jemand ob DX12 dort auf GCN gen1 bzw. Kepler überhaupt geht? Wär mal spannend)
- Watchdogs2 (noch nicht erschienen, nichts bekannt, nur die Implementierung wurde angekündigt)
- ARK (DX12 hat allerdings keine große Priorität und soll nach der grundsätzlichen Optimierung des Spieles konzentriert angegangen werden, daher die Verschiebung)
- QuantumBreak (DX12 Renderer von M$ selber, nicht von Remedy, leider Schrott, UWP tut sein übriges)
- GoW (U3 + DX12@DX11 :freak: dementsprechend schrottig performt das)
- JustCause 3 (sicherlich mittlerweile DX12 gecancelt)
- ArmA 3 (DX12 für die Erweiterung definitiv gecancelt, keine Manpower für das Projekt)
- Forza (DX12 status unbekannt, da UWP-Mist)
- Warhammer (DX12 irgendwas zwischen alpha und beta nach wie vor)
- Ashes (gute DX12-Implementierung, nur SM5.0, vermutlich aber auch hier nur maximal FL11_0, vielleicht weiss das jemand genaueres)
- StarCitizen (Projekt wird letztendlich aufgrund der Drawcall"massen" nur mit DX12 überhaupt durchführbar sein, DX11 im finalen Spiel ist dort mMn absolut ausgeschlossen)
- Civ6 (Grafikperformance bei DX12 irrelevant, reine CPU-Optimierung wie bei CivBE)

Aller Anfang ist schwer, aber er ist gemacht ;).
Allgemein profitieren wird man wahrscheinlich erst, wenn man díe FL11_0/1 Hardware mit DX11 verfrühstückt und SM5.0 DX11 überlässt, alles Weitere mit SM6.0 und FL12_0 macht. Im Großen und Ganzen kann man sagen, dass DX12 mal wieder ein totaler Schnellschuss war seitens M$, was die Verbreitung zwar beförderte aber bei allen Beteiligten ziemlich viel Frust erzeugte. Letztendlich wird die überhastete Verbreitung allerdings ein Vorteil sein - Frust vergeht.
Remedy hat die DX12 Umsetzung sicherlich selber programmiert oder hast du eine Quelle dafür, wer von MS dafür verantwortlich gewesen sein soll, denn auf der GDC wurde die technische Umsetzung und Engine von Quantum Break von einem Remedy Entwickler präsentiert.
Ville Timonen von Remedy stellte mit seinem Team die firmeninterne Northlight Engine, die zuletzt bei Alan Wake zum Einsatz gekommen ist, auf DirectX 12 um. "Ich wünschte, ich hätte meinen heutigen Vortrag vor diesem Unterfangen gehabt", grinst Timonen auf der GDC. "In DirectX 12 sitzt man zwar jetzt selbst hinter dem Lenkrad und hat deshalb deutlich mehr Kontrolle - aber auch gleichzeitig deutlich mehr Arbeit."
http://www.pcgameshardware.de/Quantum-Break-Spiel-15745/Specials/PC-gespielt-DX12-1189459/
http://twvideo01.ubm-us.net/o1/vault/gdc2016/Presentations/Timonen_Ville_Developing%20The%20Northlight.pdf


Timespy fördert bei CB bessere Ergebnisse zu Tage für AMD und Nvidia, als jedes aktuelle DX12 Spiel, wo man Daten und Aussagen bezüglich der Async Compute Performance hat.
Mahigans Ausführungen bitte nicht als bare Münzen nehmen.

BF1 läuft laut Youtuber auf Tahiti:
https://www.youtube.com/watch?v=-CVWktJO9eY

Just Cause 3 war nicht mit einem DX12 Patch geplant, sondern einem DX11.3:
https://twitter.com/_Humus_/status/758875964042424320
Die Beschreibung von der GDC-Session und dem Microsoft Werbevideo von Just Cause 3 mit DX12 Support waren insofern sehr irreführend bzw. falsch.
Wobei geplant ist vielleicht auch hier wieder zuweit gegriffen, nach all den Monaten gab es nichts für Just Cause 3 oder F1 2015 von Codemasters.

Forza Motorsport 6: Apex verwendet DX12 FL11.0, allerdings setzt es zwingend Tiled Resources Tier 2 voraus, auf Intel iGPUs vor Skylake läuft es entsprechend nicht, dass selbe gilt wahrscheinlich auch für Forza Horizon 3.

Ashes arbeitet scheinbar teilweise adaptiv, laut Kollock von Oxide verwenden sie Tiled Resources Tier 3 falls verfügbar und wenn es auch auf Intels iGPUs vor Skylake läuft, dann bis hinunter zu Tier 1.

Kartenlehrling
2016-09-27, 19:33:56
GPA 2016 R3 Released! UWP Support, more DX12!


https://www.youtube.com/watch?v=7pCMR5VeLvY
Intel® Graphics Performance Analyzers 2016 R3 Release

In this release, we have added more DirectX 12 profiling features and cleaned up the Graphics Frame Analyzer user experience.
We have also added a unified Frame open dialog, Added overdraw experiments, perf marker regions, and much more…

Fusion_Power
2016-09-27, 19:45:21
Sieht trotzdem nicht gut aus für DX12, würde es wirklich funktionieren, würden wir das ja bestimmt IRGENDWO sehen, aber da DX12 offenbar sogar schlechter performt als DX11 und derzeit keinerlei Vorteile bringt, bin ich doch skeptisch. Ich meine, Glide hat doch auch von Anfang an funktioniert, und wie! Sollen die mal einige der alten Garde für DX12 rekrutieren, die wußten damals wie man ne gescheite Grafik API nahe der Hardware macht.

Von den angeblich ~40% oder was das war, die DX12 schneller sein soll als DX11 kann man sich wohl verabschieden.

HOT
2016-09-27, 22:29:39
Sieht trotzdem nicht gut aus für DX12, würde es wirklich funktionieren, würden wir das ja bestimmt IRGENDWO sehen, aber da DX12 offenbar sogar schlechter performt als DX11 und derzeit keinerlei Vorteile bringt, bin ich doch skeptisch. Ich meine, Glide hat doch auch von Anfang an funktioniert, und wie! Sollen die mal einige der alten Garde für DX12 rekrutieren, die wußten damals wie man ne gescheite Grafik API nahe der Hardware macht.

Von den angeblich ~40% oder was das war, die DX12 schneller sein soll als DX11 kann man sich wohl verabschieden.
Dass die bisherigen Produkte diese Leistungen nicht bringen heißt noch lange gar nichts. Das kein Schalter den man anmacht und dann 40% mehr Leistung bekommt :freak:. Oh geht nicht, kaputt. Schade - ja dann nicht :freak:. Meine Güte... :rolleyes:
Wenn ich daran denke, wie lange DX8 und DX11 gebraucht haben um sich durchzusetzen - da sind wir aber grade mit Lichtgeschwindigkeit unterwegs. Oben in der Aufstellung sind 12 nicht-UWP-Titel (minus SC) enthalten. Das ist schon ganz schön enorm für ein Startjahr. Und natürlich geht das nicht alles glatt. Da gibts sogar noch mehr, aber den VR-Krampf hab ich mal weggelassen.
Und das mit Glide zu vergleichen - bitte :rolleyes:. Du vergleichst grad eine Tante Ju mit nem A380.

N0Thing
2016-09-28, 00:22:02
Hm was haben wir denn da:


- StarCitizen (Projekt wird letztendlich aufgrund der Drawcall"massen" nur mit DX12 überhaupt durchführbar sein, DX11 im finalen Spiel ist dort mMn absolut ausgeschlossen)
- Civ6 (Grafikperformance bei DX12 irrelevant, reine CPU-Optimierung wie bei CivBE)


Star Citizen könnte sicherlich von Vulkan/DX12 profitieren, aber die Performance ist zur Zeit von den Servern limitiert, offline läuft es schon erstaunlich gut. Von daher wird Star Citizen wohl zum Release mit DX11 kommen und erst später mit DX12/Vulkan ergänzt werden.

CIV6 könnte dagegen von den neuen APIs profitieren, da es im Gegensatz zu den bisherigen Spielen eher CPU-limitiert ist als ganzen anderen Spielen. Ein GPU-Limit war bisher nicht das Problem von CIV.

Nightspider
2016-09-28, 00:38:47
Star Citizen könnte sicherlich von Vulkan/DX12 profitieren, aber die Performance ist zur Zeit von den Servern limitiert, offline läuft es schon erstaunlich gut. Von daher wird Star Citizen wohl zum Release mit DX11 kommen und erst später mit DX12/Vulkan ergänzt werden.

Das ist doch extrem Offtopic.
Bis zum Release von Star Citizen gibts schon lange den neuen Netcode der bis dahin wahrscheinlich noch mindestens 3 mal verbessert wurde.

Die Chancen stehen sogar gut das Squadron42 schon DX12 bekommt, wenn SQ42 erst gegen März erscheinen sollte. Schließlich arbeiten die Coder schon seit einem Jahr an der API und man könnte eine größere Kundschaft ansprechen, deren Rechner schnell genug sind (dank DX12) und damit potentielle Käufer gewinnen.

PS: SC ""könnte"" nicht nur von DX12/Vulkan profitieren sondern wird es in erheblichen Maße. Denn kaum ein anderes Spiel wird ansatzweise so viele Drawcalls erzeugen. Mal davon abgesehen das sich die Programmierer bei CIG der großen Vorteile der ACEs bewusst sind und damit AMD GPUs damit deutlich an Leistung gewinnen können.

Aber jetzt back to topic.

HOT
2016-09-28, 00:41:44
Star Citizen könnte sicherlich von Vulkan/DX12 profitieren, aber die Performance ist zur Zeit von den Servern limitiert, offline läuft es schon erstaunlich gut. Von daher wird Star Citizen wohl zum Release mit DX11 kommen und erst später mit DX12/Vulkan ergänzt werden.

CIV6 könnte dagegen von den neuen APIs profitieren, da es im Gegensatz zu den bisherigen Spielen eher CPU-limitiert ist als ganzen anderen Spielen. Ein GPU-Limit war bisher nicht das Problem von CIV.

Was wir bisher bei SC gesehen haben ist nichts mit dem Detailgrad im fertigen Spiel. Als Entwicklerschnittstelle reicht DX11, für das finale Game kannst du das vergessen.

Schaffe89
2016-09-28, 05:12:51
Über den Softwaremüll zu diskutieren lohnt nicht. Ansonsten kannst du mir die Logik gerne erklären warum die GTX1060 in 1440p bei den avgs. 16% vor der RX480 liegt und bei den min.fps die RX480 plötzlich 42% schneller ist. Oder warum die min. fps der GTX1060 beim Wechsel von 1440p auf 1080p um 122% steigen. X-D

Edit:
Ich sehe gerade das ist ein weiterer UWP-Unfall.

Alles mögliche wo AMD nicht vorne ist, ist ein Unfall, das werden aber mittlerweile schon ziemlich viele Directx12 Unfall- Spiele wo AMD nicht mehr vorne ist.

Da wären jetzt Forza, da wären Warhammer in Game, da wären BF1 Beta , Deus Ex Ingame, Ashes of the Singularity, Gears of War, Tombraider, 3DMark.

Hitman ein AMD supportetes Spiel und joa Doom mit Shader Intrinsics,ein proprietäres AMD Feature Gameworks-like unabhängig der genutzten API, sind die einzigen die noch auf AMD schneller laufen.

Aber das hätte man auch Monate zuvor sagen können, dass das mitunter alles Wunschdenken ist. Die rx480 setzt sich auch nicht mit Directx12 vor eine GTX 1060. Dann muss man halt solange warten bis der V-ram der GTX 1060 mal entscheidend limitiert, das kann ja abgesehen von Kirschen, lange dauern.

Foobar2001
2016-09-28, 05:33:50
Nichts an der Verwendung eines spezifischen Befehlssatzes ist "Gameworks-like". Es ist kein Feature, es ist einfach eine Optimierung.

Darf man jetzt auch nicht mehr AVX-512 etc. verwenden weil man damit Intel bevorzugt oder wie?

dargo
2016-09-28, 07:55:58
Alles mögliche wo AMD nicht vorne ist, ist ein Unfall, das werden aber mittlerweile schon ziemlich viele Directx12 Unfall- Spiele wo AMD nicht mehr vorne ist.

Ach Junge, leg doch mal deine grüne Brille ab.

Das war der Stand bei der ach so tollen Software nach Day 1 und "Day 2 Patch" (unabhängig davon hast du immer noch mit dem UWP-Rotz zu kämpfen).
http://www.overclock3d.net/reviews/gpu_displays/gear_of_war_ultimate_edition_performance_retest_-_the_game_has_been_fixed/6

Wer weiß was die wieder im letzten Patch verschlimmbessert haben. Ich warte immer noch auf die Erklärung warum die GTX1060 in 1440p bis auf 35fps einbricht während die RX480 mit min. 50fps rendert. Auch lustig... P10 hat in 1440p höhere min.fps als in 1080p. :ulol:

Thunder99
2016-09-28, 15:55:25
Jetzt nochmal nachgefragt:

Heißt DX12 = UWP oder wird das nur häufig kombiniert?

dargo
2016-09-28, 16:04:31
DX12 hat absolut nichts mit UWP zu tun. Dieser "Unfall" wird nur von Microsoft zusätzlich bei Games aus dem Windows Store verwendet.

Thunder99
2016-09-28, 17:17:12
DX12 hat absolut nichts mit UWP zu tun. Dieser "Unfall" wird nur von Microsoft zusätzlich bei Games aus dem Windows Store verwendet.
Danke für die Klarstellung :)

Fusion_Power
2016-09-28, 20:47:23
Dass die bisherigen Produkte diese Leistungen nicht bringen heißt noch lange gar nichts. Das kein Schalter den man anmacht und dann 40% mehr Leistung bekommt :freak:. Oh geht nicht, kaputt. Schade - ja dann nicht :freak:. Meine Güte... :rolleyes:
Wenn ich daran denke, wie lange DX8 und DX11 gebraucht haben um sich durchzusetzen - da sind wir aber grade mit Lichtgeschwindigkeit unterwegs. Oben in der Aufstellung sind 12 nicht-UWP-Titel (minus SC) enthalten. Das ist schon ganz schön enorm für ein Startjahr. Und natürlich geht das nicht alles glatt. Da gibts sogar noch mehr, aber den VR-Krampf hab ich mal weggelassen.
Und das mit Glide zu vergleichen - bitte :rolleyes:. Du vergleichst grad eine Tante Ju mit nem A380.
Keine Ahnung, hatten DX8 und 11 solche Startschwierigkeiten? Ich erinnere mich nur daran, dass DX10 quasi mehr oder weniger übersprungen wurde, entweder man hatte Spiele mit DX9 oder gleich mit DX11. War blöd weil ich mir zu der Zeit ne DX10 Graka gekauft hatte... :freak:
Und im Gegensatz zum A380 flog die Tante Ju über Jahrzehnte ohne Komplikationen, weniger is halt doch manchmal mehr. Hab gehofft, DX12 wird wieder einfacher weils halt näher an der Hardware ist und überflüssiger "Ballast" entfernt wurde.

dargo
2016-09-28, 22:03:13
Hab gehofft, DX12 wird wieder einfacher weils halt näher an der Hardware ist und überflüssiger "Ballast" entfernt wurde.
Letzteres trifft auch zu, dadurch wirds aber nicht für jeden einfacher.

Foobar2001
2016-09-28, 22:22:50
Ich sag immer es ist einfacher fuer Leute, die wissen was sie tun, aber nicht fuer alle anderen.

Mit DX11 raet der Treiber was die Applikation will und die Applikation raet was der Treiber will. Jetzt ist eindeutig klar, was gemacht wird, aber es ist halt auch deine eigene Schuld wenn die Bude abbrennt.

dargo
2016-09-28, 22:24:00
Ich sag immer es ist einfacher fuer Leute, die wissen was sie tun, aber nicht fuer alle anderen.

Gut umformuliert. :D

hmmm
2016-09-28, 22:57:33
..
Hitman ein AMD supportetes Spiel und joa Doom mit Shader Intrinsics,ein proprietäres AMD Feature Gameworks-like unabhängig der genutzten API, sind die einzigen die noch auf AMD schneller laufen.
...

Gameworks = In der regel liefert Nvidia den Code (Hier mach rein in dein Spiel. Aus Basta!)
ZB: Alle Gameworkstitel

Gaming Evolved = AMD und das Entwicklerstudio entwickeln gemeinsam (co-develop!!!)
ZB: TressFX, Mantle

Erkennst du den Unterschied?

aufkrawall
2016-09-28, 23:22:03
Mit DX11 raet der Treiber was die Applikation will und die Applikation raet was der Treiber will. Jetzt ist eindeutig klar, was gemacht wird, aber es ist halt auch deine eigene Schuld wenn die Bude abbrennt.
Nope, gab schon Grafikfehler und Stuttering durch den AMD-Treiber mit DX12.

Foobar2001
2016-09-28, 23:27:16
Du hast mich schon richtig verstanden. Es ist mit DX12 immer die Schuld der Applikation wenn sie moeglicherweise blockierende Sachen nicht asynchron ausfuehrt oder irgend welchen andernen Bockmist baut.

Wahrscheinlich ist der Fix im Treiber also wieder irgendwelche Applikations-Bugs zu umgehen.

Demirug
2016-09-28, 23:32:34
Du hast mich schon richtig verstanden. Es ist mit DX12 immer die Schuld der Applikation wenn sie moeglicherweise blockierende Sachen nicht asynchron ausfuehrt.

Wahrscheinlich ist der Fix im Treiber also wieder irgendwelche Applikations-Bugs zu umgehen.

So einfach ist das nicht.

Der Treiber muss ja immer noch die abstrahierten Kommandos in ein Format übersetzten das die GPU auch versteht. Das ist ja nicht wie bei den CPUs wo der low level Befehlssatz (x86, x64, armv7 etc) normiert ist. Dabei kann immer noch so einiges falsch laufen.

Foobar2001
2016-09-28, 23:33:26
Beispiele?

Speicher ist in der Hand der Applikation. Sie macht die DMA-Transfers selber und ist dafuer verantwortlich wann Speicher-Heaps alloziert werden und muss dann die Heaps selber verwalten.
Shader werden kompiliert wenn man das PSO erstellt.

Was soll denn sonst rumhaengen?

Das ein Shader in einem Frame auf einmal wesentlich langsamer laeuft als im anderen ist jedenfalls ziemlich unwahrscheinlich.

aufkrawall
2016-09-28, 23:51:56
Du hast mich schon richtig verstanden. Es ist mit DX12 immer die Schuld der Applikation wenn sie moeglicherweise blockierende Sachen nicht asynchron ausfuehrt oder irgend welchen andernen Bockmist baut.

Wahrscheinlich ist der Fix im Treiber also wieder irgendwelche Applikations-Bugs zu umgehen.
Es gibt weiterhin Treiber-Regressions, die Ursache ist mir als Endanwender herzlich egal.
Und Performance-Probleme mit DX11 waren fast immer verkorkstes Streaming der Anwendung selbst, die dann auch auf den Konsolen nicht besser liefen. Ab und zu mal kleinere Grafikfehler für ein paar Treiber-Versionen ist nun wirklich kein desaströses Zeugnis für DX11. So dürfte jedenfalls die Erfahrung der meisten Spieler sein.

Demirug
2016-09-29, 00:00:30
Beispiele?

Speicher ist in der Hand der Applikation. Sie macht die DMA-Transfers selber und ist dafuer verantwortlich wann Speicher-Heaps alloziert werden und muss dann die Heaps selber verwalten.
Shader werden kompiliert wenn man das PSO erstellt.

Was soll denn sonst rumhaengen?

Das ein Shader in einem Frame auf einmal wesentlich langsamer laeuft als im anderen ist jedenfalls ziemlich unwahrscheinlich.

Dank Async Compute gibt es ja jetzt das Scenario das selbst wenn man jeden Frame mit den gleichen Shadern rendert sich die Kombination welche davon gleichzeitig aktiv sind von Frame zu Frame verändern kann. Ein Fehler im Shadercompiler kann dann dazu führen das bestimmte Kombinationen Probleme machen. Noch schlimmer sind Hardwarefehler die nur bei solchen Kombinationen auftreten. Wenn sowas passiert und es ein "wichtiges" Spiel ist kotzt das Treiberteam weil sie dann irgendeinen Workaround dafür in den Treiber einbauen müssen.

Foobar2001
2016-09-29, 00:16:26
Ach komm, das verursacht doch keine Haenger im mehrere Millisekunden-Bereich. Im schlimmsten Fall kann das Async-Compute nicht gescheduled werden bis zur Fence und laeuft dann synchron.

Es gibt weiterhin Treiber-Regressions, die Ursache ist mir als Endanwender herzlich egal.
Und Performance-Probleme mit DX11 waren fast immer verkorkstes Streaming der Anwendung selbst, die dann auch auf den Konsolen nicht besser liefen. Ab und zu mal kleinere Grafikfehler für ein paar Treiber-Versionen ist nun wirklich kein desaströses Zeugnis für DX11. So dürfte jedenfalls die Erfahrung der meisten Spieler sein.
Ich gehe jede Wette ein, dass es ein App-Problem war und der neuere Treiber einen Workaround hat.

aufkrawall
2016-09-29, 00:21:52
Dann war der Workaround für ein paar Treiberversionen zwischendurch kaputt, an der Anwendung hatte sich in der Zwischenzeit gar nichts geändert.
Wo wir wieder bei Treiber-Regressions wären.

Foobar2001
2016-09-29, 03:56:07
Meine Theorie dazu: Das Spiel kompiliert PSOs on demand (was ohne Probleme 100ms dauern kann). AMD und NVIDIA shippen deshalb die vorkompilierten Shader und laden sie schon beim Start um das zu beheben. Spiel aendert seine Shader wieder, Treiber muss wieder ein Update erhalten.

Was definitiv auch fail ist ist Forza Horizon 3. Die Ruckler wenn Geometrie nachgeladen wird sind unentschuldbar.

aufkrawall
2016-09-29, 04:36:27
Lies nochmal was ich geschrieben hab. Am Spiel hat sich in der Zeit, in der das kaputt war, nichts geändert. Nur am Treiber.
http://forums.guru3d.com/showpost.php?p=5278160&postcount=26

StefanV
2016-09-29, 06:36:43
Ja und genau DAS schreibt doch foobar2001!

Dass der Treiber eben die Shader enthält und lädt, bevor das ganze vom Spiel verursacht wurde.
Sowas nennt man nunmal Workaround...

Auf deutsch würde man dazu sagen, dass das eine (unnötige) Implementation für den Mist ist, den irgendwer anders verbockt hat.

Korvaun
2016-09-29, 07:43:12
Wenn die "großen" Engines (CryEngine/Unreal/Frostbite/etc.) ausgereiften DX12-Support out-of-the-box liefern und AMD/nV-Treiber auch etwas mehr Zeit hatten zu reifen, dann kann man mal sinnvoll vergleichen.... (das gleiche gilt natürlich auch für Vulkan).

HOT
2016-09-29, 10:31:05
Lies nochmal was ich geschrieben hab. Am Spiel hat sich in der Zeit, in der das kaputt war, nichts geändert. Nur am Treiber.
http://forums.guru3d.com/showpost.php?p=5278160&postcount=26
Zwischendurch kam der DX12 asyncCompute-Patch. Der brachte ein paar %, erst dieser löste die AMD-Probleme.
http://www.pcgameshardware.de/Rise-of-the-Tomb-Raider-Spiel-54451/News/Patch-DirectX-12-Asynchronous-Compute-1201126/

aufkrawall
2016-09-29, 14:39:03
Der kam erst, nachdem das im Treiber schon wieder behoben war. Einfach mal aufs Datum achten.

dargo
2016-09-29, 15:15:46
Von welchen Treiber sprichst du? Der Crimson 16.7.3 kam später und brachte nur 10%.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=575005

aufkrawall
2016-09-29, 15:55:17
Das Stutter-Problem wurde mit 16.4.2 eingeführt und mit 16.6.1 behoben:
http://forums.guru3d.com/showpost.php?p=5288062&postcount=119
16.6.1 erschien vor dem AC-Patch.

Loeschzwerg
2016-09-29, 17:31:33
https://www.computerbase.de/2016-09/civilization-vi-test/3/
Dafür lief der Titel auf unserem Testsystem bei sehr hohen Details in einer Auflösung von 1.920 × 1.080 Pixeln selbst im späten Spielverlauf durchgängig flüssig. Für ein Civilization ist das keine Selbstverständlichkeit: Gut, dass die Entwickler hier zuletzt immer besser geworden sind.

Möglicherweise ein Beitrag von DX12.

Lurtz
2016-09-29, 17:41:10
Beyond Earth lief mit Mantle schon wunderbar flüssig.

iuno
2016-09-29, 17:42:00
In dem Artikel steht nichts von dx12, ich wuerde nicht erwarten, dass diese Version das unterstuetzt oder habe ich es ueberlesen?
In Civ waren aber imho vor allem die langen Berechnungszeiten nach jedem Zug im late game nervig, man wird also auch sonst viel fuer die CPU Leistung gemacht haben.

Kartenlehrling
2016-09-29, 17:47:42
Das ist doch bestätigt.

http://www.marketwired.com/press-release/radeon-graphics-best-for-conquering-the-known-world-in-sid-meiers-civilizationr-vi-nasdaq-amd-2142057.htm

July 13, 2016 08:00 ET
Radeon™ Graphics Best for Conquering the Known World in Sid Meier's Civilization® VI Gamers Can Depend on Radeon™ GPUs for a World Class DirectX® 12 Experience With Full Support for Asynchronous Compute and Explicit Multi-Adapter

iuno
2016-09-29, 18:13:33
Das schon, aber zur Vorabversion die CB hat und ob sie es auch nutzen, steht nicht im Test.

Locuza
2016-09-30, 16:29:00
Der Vergleich auf den die gesamte Menschheit gewartet hat:
https://www.youtube.com/watch?v=-PK55-kCviA

Quantum Break DX12 (Win-Store) vs. DX11 (Steam-Version).
Die GTX 970 (Maxwell) hat weiterhin unter DX12 Freezes, unruhige Frametimes und sogar Treiber-Crashes.
Die GTX 1060 (Pascal) bleibt davon teilweise verschont, beide GPUs haben aber eins gemeinsam, DX11 läuft flüssiger und im Falle der 970 ohne Freezes und Crashes.
Für AMD dagegen ändert sich praktisch nichts, die FPS sind nahe zu gleich, mit vielleicht 1-2 FPS Vorsprung für DX12, da Nvidia aber kräftig aufholt mit DX11, stellt sich eine 970 auf ein gleiches Niveau wie die neue RX 480 ein und die GTX 1060 nimmt einen größeren Vorsprung ein, mit Medium-Settings ist die 1060 sogar deutlich schneller als eine RX480 (30%+), was vermutlich am Volumetric Lighting liegt, was den Geforces soweit ich mich erinnere gar nicht schmeckt.

Kartenlehrling
2016-09-30, 16:32:56
Eigentlich ist es immer noch nicht der Testvergleich auf den die Welt warte,
dafür hätte man "im Spiel" zwischen DX11 und DX12 wechseln können ... müssen.

Locuza
2016-09-30, 16:48:19
Zusätzlich hat auch Computerbase einen Vergleich erstellt, mit weiteren Erkenntnissen:
https://www.computerbase.de/2016-09/quantum-break-steam-benchmark/4/#diagramm-frametimes-unter-steam-auf-dem-fx-8370

So kann AMD durchaus unter schwächeren CPUs teilweise stark von DX12 profitieren, Nvidia dagegen ist mit DX11 immer schneller.
Die Frametimes sind unter der UWP-Variante interessanterweise bei beiden etwas ruhiger, als die Steam-Version, dabei hat aber Nvidia mit stärkeren Spikes zu kämpfen.
Unterm Strich ist die Steam-Variante deutlich für Nvidia zu bevorzugen, bei AMD kommt es auf das System an.

Man kann sich der letzten Bemerkung von CB völlig anschließen, wieso Remedy die APIs auf die jeweiligen Store-Versionen beschränkt ist völlig unverständlich und nimmt den Kunden viele Optimierungsmöglichkeiten weg.

iuno
2016-09-30, 18:25:51
Naja, voellig "unverstaendlich" ist mir das jetzt nicht. Nachdem man so ein Desaster hatte besinnt man sich auf das Bekannte. Klar sind die Frametimes jetzt mit dx12 vielleicht etwas besser, aber die Steam Version ist immerhin keine Katastrophe wie die UWP damals zum Release. Wenn sie nichts besseres zu tun haben, kommt ja vielleicht noch dx12 nach.

Wenn einige ab und zu auftretende und durchaus störende Ausreißer bei den Frametimes nicht wären – die wahrscheinlich durch UWP geschuldet sind [...]
Wie kommen sie eigentlich zu der Ansicht?

dargo
2016-09-30, 18:32:14
Ich weiß nicht wo die Steamversion jetzt besser sein soll? Die Framerate ist bei NV gestiegen, bei AMD gefallen. Frametimes sind bei beiden IHVs bei DX12 und UWP besser.

Locuza
2016-09-30, 19:00:29
Kommt auf das System an, Nvidia mit einem FX 8370 zeigt große Framespikes unter UWP, die bei Steam nicht auftreten.
Da Remedy aber sowohl einen DX12-, als auch einen DX11-PFad schon fertig entwickelt hat, sollte der Aufwand sehr gering sein einfach beides zur Wahl zu stellen und das spart man sich leider.

dargo
2016-09-30, 19:03:37
Kommt auf das System an, Nvidia mit einem FX 8370 zeigt große Framespikes unter UWP, die bei Steam nicht auftreten.

Nicht nur die CB-Ergebnisse betrachten sondern auch dein verlinktes Video von DF. ;) Die Stärke der Fluktuationen wird sicherlich auch etwas szenenabhängig sein.

Ex3cut3r
2016-09-30, 19:06:49
Welches DF Video? Das vom Mai? das ist 2 Patches und zig Treiber hinterher.

Das Fazit von CB trifft es doch, DX12 lohnt sich nur bei schwacher CPU, wer eine schnelle hat (ab Sandy) kann auf DX11 setzen.

dargo
2016-09-30, 19:09:04
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11171648&postcount=4074

Wobei ich gerade bei dem Video etwas unsicher bin. Vergleicht DF da tatsächlich mit Vsync On? :usweet:

Edit:
Das Video ist total verwirrend. Am Anfang mit der GTX970 wird mit Vsync On verglichen. Dadurch kommen erst diese ständigen Wechsel zwischen 16,66 und 33,33ms. Wenn letzteres nicht gehalten werden kann gehts halt eine Stufe höher Richtung 50ms usw. Später bei der GTX1060 vs. RX480 nehmen die plötzlich Vsync Off. Muss man nicht verstehen. :freak:


Das Fazit von CB trifft es doch, DX12 lohnt sich nur bei schwacher CPU, wer eine schnelle hat (ab Sandy) kann auf DX11 setzen.
Nur passt das Fazit nicht wirklich zu den eigenen Frametimediagrammen, auch wenn es bei NV unter DX11 nicht ganz so dramatisch wie bei AMD aussieht. ;)

Ex3cut3r
2016-09-30, 20:15:41
Nur passt das Fazit nicht wirklich zu den eigenen Frametimediagrammen, auch wenn es bei NV unter DX11 nicht ganz so dramatisch wie bei AMD aussieht. ;)

Das stimmt, ist halt wieder allgemeine AMD DX11 schwäche. Amd Karte + AMD CPU = Arschkarte. Obwohl FPS mäßig verliert die R9 390 nicht viel, nur die Frametimes wie du sagst sind scheiße, selbst mit starker Intel CPU nicht optimal, vlt kann AMD da noch Treiber seitig nachbessern.

dargo
2016-09-30, 20:36:54
Das stimmt, ist halt wieder allgemeine AMD DX11 schwäche. Amd Karte + AMD CPU = Arschkarte.
Umso unverständlicher warum Remedy kein DX12 unter Steam bietet. Ohne den UWP-Rotz würde das Spiel richtig gut auf Radeons laufen.

hmmm
2016-09-30, 20:57:17
...
Nur passt das Fazit nicht wirklich zu den eigenen Frametimediagrammen, auch wenn es bei NV unter DX11 nicht ganz so dramatisch wie bei AMD aussieht. ;)
Die Frametimes sind gerade unter DX11 ein Witz, vergleicht man die Frametimes zwischen AMD@DX12 und Nvidia@DX11 sieht es für Nvidia, trotz DEUTLICH mehr FPS, einfach nur bitter aus.

Thunder99
2016-10-01, 10:05:47
Leute, sehe nur ich das so oder verkackt es nvidia mal wieder total mit DX12? Ist deren HW außer Feature LV gar nicht DX12 tauglich?
Unter Full HD ist die 1080 in DX11 30% schneller als in DX12, hingegen bei AMD die DX12 immer schneller ist und bleibt (+12% bei der R9 390, bei der RX480 weniger). Da muss doch was im Argen liegen :confused:

Kartenlehrling
2016-10-01, 10:53:11
Mir geht auch alles viel zu langsam voran, aber beim DX12 gibt Microsoft und Nvidia den Takt an.
Ich hoffe das mit dem angekündigten AMD Software update am 15.11.2016 auch DX12 ein grosses Update bekommt,
angesagt hat Microsoft es ja im Video.
HLSL Shader Model 6.0, DXIL und HDR FP16.


dcDDvoauaz0

dargo
2016-10-01, 10:58:07
Microsoft sollte erstmal ihren UWP-Müll in den Griff bekommen bevor sie wieder mit neuen Features um sich schmeißen.

HOT
2016-10-01, 11:08:41
Na ja, gut, DX12 muss ja unabhängig von UWP weiterentwickelt werden :D.
QuantumBreak DX11 wird AMDs Treiber einfach überfordern und ziemlich viele Drawcalls benötigen. Das könnte auch bei NV negativ wirken, trotz besserer Optimierung.

Kartenlehrling
2016-10-01, 11:09:22
Aber vielleicht sind die ganzen Probleme da weil die neuen Features noch fehlen,
Shader Intrinsic Functions und HLSL nehmen doch noch heutige nötige Zwischenschritte weg.

HOT
2016-10-01, 11:30:49
Hm, vielleicht verzögert Remedy DX12 für Steam einfach nur, weil man die alte Implementation nicht weiterverwenden möchte und stattdessen einen erneuerten Renderer anbieten möchte. Kann ja sein.

Kartenlehrling
2016-10-01, 11:47:28
Die Ausssage von Remedy zur DX11 fand ich nur belustigend, vorallen nach dem Ergebniss.

dargo
2016-10-02, 10:19:46
Bei all der Euphorie was die mittlerweile perfekten Frametimes @DX12 in RotTR mit Radeons angeht... die Grafikkarten werden immer noch nicht gut ausgelastet. Ich habe hier in Sibirien teilweise nur 35fps in 1440p und mein Grenada läuft mit einem recht tiefen PT trotzdem fröhlich mit vollen 1020Mhz. Im Vergleich zu Doom @Vulkan sind es 30-40Mhz mehr. Es ist auch kein CPU-Limit, denn die gleiche Szene liefert mit 720p 64fps.

aufkrawall
2016-10-02, 16:25:59
Die sind nicht "mittlerweile" perfekt, das war schon von Anfang an mit DX12 so bzw. spätestens mit dem Mini-Patch, der noch am selben Tag kam (von den Unterbrechungen mit den kaputten Treibern abgesehen).
Im Geothermal Valley wirst du auch noch viel niedrigere fps mit max Details in WQHD haben. Vor einer Höhle im Geothermal Valley (die, die direkt hinter dem Anfangs-Dorf kommt) geht das bei Regen/Nacht auf bis zu 23fps runter.
16xAF frisst bei dem Spiel mit einer 390 40% Performance gegenüber kein AF, bei NV ist es die Hälfte. Ist einfach richtig schlecht für GCN optimiert.

Ex3cut3r
2016-10-02, 16:41:04
Das ganze Game war voll der "Fake" meiner Meinung nach, man hat nur Bilder vom ersten Level in Syrien gepostet, mit der schönen Beleuchtung und viel weniger geflimmer als in den späteren Level, weiß der Teufel warum die weiteren Level nicht die Qualität weiterführten. Der Reboot von 2013 war insgesamt das viel bessere Spiel imo.

dargo
2016-10-02, 18:14:25
Boah... ich habe den Flaschenhals gefunden, es ist tatsächlich das AF. 16xAF in Szene X = 37fps, 1xAF = 49fps. :ubash: Mit 1xAF ist das Spiel wie ausgewechselt. Selbst in Sibirien überwiegend ~60fps nun in 1440p. :freak: Dachte schon es wäre sinnvoller das Game bis Vega bei Seite zu legen. Mit 1-2xAF wird die GPU auch besser ausgelastet. Nun liegen ca. 1000Mhz an.

Thunder99
2016-10-02, 18:25:59
Das riecht nach einem Report an die Entwickler und AMD mit deren Treiber.

Verstehe wie vorhin angesprochen nicht, was daran Schuld ist, dass bei Quantum Break nvidia mit DX12 so viel schlechter ist als mit DX11

aufkrawall
2016-10-02, 18:33:19
Das riecht nach einem Report an die Entwickler und AMD mit deren Treiber.

Als ob die das nicht wüssten, nach all den Update und der Zusammenarbeit mit den Entwicklern für DX12/Async Compute.
Wahrscheinlich haben sich die Entwickler kaum dafür interessiert, wie AF performt, weil das auf den Konsolen eh kaum bis gar nicht genutzt wird.
Womöglich läuft man auf dem PC dann in einen Falschenhals der GPU-Architektur, GCN ist bei manchen Texturformaten sehr langsam.
Muss nicht so sein, aber plausibel wär es.


Verstehe wie vorhin angesprochen nicht, was daran Schuld ist, dass bei Quantum Break nvidia mit DX12 so viel schlechter ist als mit DX11
Was ist so schwer daran zu verstehen, dass mit DX12 der Entwickler noch viel mehr die Verantwortung dafür hat, wie die Performance mit verschiedenen GPUs ist?
Gibt ja nun genug Spiele, die ohne Nachteile mit DX12/Vulkan auf Pascal laufen, bzw. nicht schlechter als GCN.

dargo
2016-10-02, 18:49:56
Das riecht nach einem Report an die Entwickler und AMD mit deren Treiber.

Wie aufkrawall schon sagt, das dürfte lange bekannt sein. Ich habe zusätzlich auch noch Tessellation deaktiviert, das wird sicherlich auch noch was bringen. Bis auf die Spuren im Schnee (die sowieso etwas merkwürdig in Bewegung aussehen) weiß ich allerdings nicht ob noch was tesselliert wird. Nun ist das Spiel imo sehr gut in 1440p mit Freesync spielbar. =)

Foobar2001
2016-10-02, 18:51:45
Wahrscheinlich haben sich die Entwickler kaum dafür interessiert, wie AF performt, weil das auf den Konsolen eh kaum bis gar nicht genutzt wird.
Das ist nicht wahr.

Niemand verwendet 16x, weil es kompletter Overkill ist. 2-4x AF sieht in sehr vielen Szenen fast identisch aus.

Womöglich läuft man auf dem PC dann in einen Falschenhals der GPU-Architektur, GCN ist bei manchen Texturformaten sehr langsam.
Ist es nicht.

Boah... ich habe den Flaschenhals gefunden, es ist tatsächlich das AF. 16xAF in Szene X = 37fps, 1xAF = 49fps. :ubash: Mit 1xAF ist das Spiel wie ausgewechselt. Selbst in Sibirien überwiegend ~60fps nun in 1440p. :freak: Dachte schon es wäre sinnvoller das Game bis Vega bei Seite zu legen. Mit 1-2xAF wird die GPU auch besser ausgelastet. Nun liegen ca. 1000Mhz an.
Shader-Compiler benutzt wahrscheinlich mal wieder zu viele Register, deshalb zu niedrige Occupancy und deshalb schlaegt das hohe AF voll durch. Nichts neues.

dargo
2016-10-02, 19:00:04
Shader-Compiler benutzt wahrscheinlich mal wieder zu viele Register, deshalb zu niedrige Occupancy und deshalb schlaegt das hohe AF voll durch. Nichts neues.
Für mich schon, ich kenne kein anderes Spiel wo AF so teuer ist.

Foobar2001
2016-10-02, 19:17:20
Ah, Deus Ex verwendet auch fully deferred, muss also die Gradienten an die GPU manuell uebergeben. Mag GCN auch ueberhaupt nicht.
Ich versteh sowieso nicht, warum sie das gemacht haben. In der Praxis ist das Resultat ziemlich erbaermlich.

Edit: Du redest glaube ich von Tomb Raider, oder? Dann weiss ich auch nicht warum.

Locuza
2016-10-02, 19:39:48
Das ist nicht wahr.

Niemand verwendet 16x, weil es kompletter Overkill ist. 2-4x AF sieht in sehr vielen Szenen fast identisch aus.

Von der Preis/Leistung mag das auf Konsolen overkill sein, aber ich kenne keinen Bildvergleich wo 16x nicht offensichtlich besser aussieht.


Ist es nicht.
Int16/FP16 is half-rate im Gegensatz zu Nvidia und auch Intel.
http://techreport.com/review/28513/amd-radeon-r9-fury-x-graphics-card-reviewed/4
http://www.hardware.fr/articles/937-4/performances-theoriques-pixels.html

Ein alter Skalierungsvergleich zwischen dem GK104 und einem alten Tahiti:
https://www.computerbase.de/2012-03/test-nvidia-geforce-gtx-680/8/

Beim AF muss GCN teilweise deutlich mehr bezahlen.

dargo
2016-10-02, 19:56:39
Edit: Du redest glaube ich von Tomb Raider, oder? Dann weiss ich auch nicht warum.
Rise of the Tomb Raider, ja.

aufkrawall
2016-10-02, 20:15:54
2-4x AF sieht in sehr vielen Szenen fast identisch aus.

Aber so was von nein.
Egal, OT...

Foobar2001
2016-10-02, 20:18:56
Aber sowas von ja. Egal, OT.

Von der Preis/Leistung mag das auf Konsolen overkill sein, aber ich kenne keinen Bildvergleich wo 16x nicht offensichtlich besser aussieht.
Ich lasse mich gerne von was anderem Ueberzeugen, aber das 16x gegenueber 4x so viel besser ist seh ich halt nicht. Das betrifft nur Verzerrungen ueber 4:1, was sehr wenige Oberflaechen in einer Szene sind.

Gerade bei so organischer Geometrie wie in Tomb Raider ist es relativ sinnlos. Wenn man klare, gerade Flaechen hat sieht man den Unterschied eher.

Int16/FP16 is half-rate im Gegensatz zu Nvidia und auch Intel.
Texturen sind BC1-BC7, nicht FP16. Das braucht man nur in Spezialfaellen.

Beim AF muss GCN teilweise deutlich mehr bezahlen.
Das hat nichts mit dem Format zu tun.

aufkrawall
2016-10-02, 20:24:40
Aber sowas von ja. Egal, OT.

Die meiste Texturier-Leistung dürfte das Terrain/Bodentexturen fressen, und dafür sieht 4xAF in vielen Spielen komplett zum Kotzen aus.
Abgesehen davon ging es hier überhaupt nicht darum, was auf den Konsolen Sinn macht.

Foobar2001
2016-10-02, 20:52:41
Willst du mich verarschen?

"Wahrscheinlich haben sich die Entwickler kaum dafür interessiert, wie AF performt, weil das auf den Konsolen eh kaum bis gar nicht genutzt wird."

aufkrawall
2016-10-02, 20:57:43
Wie viel AF wird wohl auf der XB1 laufen, wenn es schon auf Hawaii bei dem Spiel (unabhängig von DX11 oder 12) abnorm kostet?
Dafür, dass du hier munter Spiele durcheinander bringst, ist dein Ton auch mal wieder völlig daneben.

Locuza
2016-10-02, 21:24:44
Ich lasse mich gerne von was anderem Ueberzeugen, aber das 16x gegenueber 4x so viel besser ist seh ich halt nicht. Das betrifft nur Verzerrungen ueber 4:1, was sehr wenige Oberflaechen in einer Szene sind.

Gerade bei so organischer Geometrie wie in Tomb Raider ist es relativ sinnlos. Wenn man klare, gerade Flaechen hat sieht man den Unterschied eher.
In der Tat zeigt sich beinahe kein Unterschied zwischen 4xAF und 16xAF bei Rise of the Tomb Raider oder Fallout 4:

http://images.nvidia.com/geforce-com/international/comparisons/rise-of-the-tomb-raider/alt/rise-of-the-tomb-raider-anisotropic-filtering-interactive-comparison-001-16x-vs-4x.html
http://images.nvidia.com/geforce-com/international/comparisons/fallout-4/fallout-4-anisotropic-filtering-interactive-comparison-001-16x-vs-4x.html

Unter GTA5 sieht es ähnlich aus, wobei es keinen Screenshot mit 4xAF gibt:
http://international.download.nvidia.com/geforce-com/international/comparisons/grand-theft-auto-v/grand-theft-auto-v-anisotropic-filtering-interactive-comparison-1-16x-vs-8x.html

Leider existiert so etwas unter Quantum Break:
http://www.pcgameshardware.de/commoncfm/comparison/clickSwitch.cfm?id=131220


http://www.geforce.com/whats-new/guides/rise-of-the-tomb-raider-graphics-and-performance-guide#rise-of-the-tomb-raider-anisotropic-filtering
http://www.geforce.com/whats-new/guides/fallout-4-graphics-performance-and-tweaking-guide#fallout-4-anisotropic-filtering
http://www.geforce.com/whats-new/guides/grand-theft-auto-v-pc-graphics-and-performance-guide#grand-theft-auto-v-anisotropic-filtering

Texturen sind BC1-BC7, nicht FP16. Das braucht man nur in Spezialfaellen.
Ich kann es nicht einordnen, aber Sebastian Aaltonen spricht von einer starken Nutzung:

AMD also has some clear bottlenecks left. RGBA16 (both unorm and float) bilinear filtering is half rate. Nvidia and Intel have been full rate for long time already. AMDs filtering hardware has better subpixel interpolation quality when zoomed up massively. But that is almost never relevant. 2x better performance would be highly relevant. Most games nowadays are using 16 bit float textures extensively.
https://forum.beyond3d.com/posts/1946116/


Das hat nichts mit dem Format zu tun.
Wir sind offen für Vorschläge. ;)

aufkrawall
2016-10-02, 21:34:52
In der Tat zeigt sich beinahe kein Unterschied zwischen 4xAF und 16xAF bei Rise of the Tomb Raider oder Fallout 4:

Mit größeren Bildern und anderen Stellen würd man zu einer anderen Einschätzung kommen.
Bei RoTR merkt mans in den Hubs tatsächlich weniger, dafür aber etwa schon im Hauptmenü mit der Villa & dem Teppich.
Bei FO4 gibts auch Stellen, wo der Boden sehr leer ist, da fällt es dann auch massiv stärker auf.

Und last, but not least: Wahrscheinlich haben sie in dem Guide nur in-game das AF eingestellt. Da leider viele von Codas Kollegen ähnlich wie er ticken, ist das häufig gar kein echtes 16xAF, obwohl so eingestellt. Wenn man dann nämlich über den Treiber forciert, siehts auf einmal viel besser aus, weil dann nämlich wirklich jede Textur entsprechend gefiltert wird.

Das sieht man z.B. bei Hitman in Sapienza (sogar mit DX11, mit DX12 haben sie sogar für die Boden-Textur nur maximal 4x eingestellt). Wenn man durch die engen Gassen geht, fällt auf, dass die Hauswände um einen herum auf einmal völlig matschig sind.
Macht man ein Savegame von der exakt gleichen Stelle, forciert AF über den Treiber und vergleicht, sieht es dann auf einmal aus, als hätte man einen Texturmod installiert...

Foobar2001
2016-10-03, 01:22:41
In der Tat zeigt sich beinahe kein Unterschied zwischen 4xAF und 16xAF bei Rise of the Tomb Raider oder Fallout 4:

http://images.nvidia.com/geforce-com/international/comparisons/rise-of-the-tomb-raider/alt/rise-of-the-tomb-raider-anisotropic-filtering-interactive-comparison-001-16x-vs-4x.html
http://images.nvidia.com/geforce-com/international/comparisons/fallout-4/fallout-4-anisotropic-filtering-interactive-comparison-001-16x-vs-4x.html

Unter GTA5 sieht es ähnlich aus, wobei es keinen Screenshot mit 4xAF gibt:
http://international.download.nvidia.com/geforce-com/international/comparisons/grand-theft-auto-v/grand-theft-auto-v-anisotropic-filtering-interactive-comparison-1-16x-vs-8x.html

Leider existiert so etwas unter Quantum Break:
http://www.pcgameshardware.de/commoncfm/comparison/clickSwitch.cfm?id=131220


http://www.geforce.com/whats-new/guides/rise-of-the-tomb-raider-graphics-and-performance-guide#rise-of-the-tomb-raider-anisotropic-filtering
http://www.geforce.com/whats-new/guides/fallout-4-graphics-performance-and-tweaking-guide#fallout-4-anisotropic-filtering
http://www.geforce.com/whats-new/guides/grand-theft-auto-v-pc-graphics-and-performance-guide#grand-theft-auto-v-anisotropic-filtering
Danke fuer die Vergleiche, kann sich jeder selber ein Bild machen.

Quantum Break sieht danach aus als waere auf der Textur AF komplett aus gewesen.

Ich kann es nicht einordnen, aber Sebastian Aaltonen spricht von einer starken Nutzung:

https://forum.beyond3d.com/posts/1946116/

Wir sind offen für Vorschläge. ;)
Unkomprimiertes FP16 ist extrem teuer. Das sind 8 Bytes/Texel. Das benutzt man nur wenn man Render-Targets samplen will fuer HDR, und selbst dort ist R11G11B10 ueblicher.

Fuer Lightmaps etc. gibt es BC6H (1 Byte/Texel), das sollte GCN full rate filtern koennen. Falls nicht, waere das tatsaechlich schon eher ein Bottleneck.

Macht man ein Savegame von der exakt gleichen Stelle, forciert AF über den Treiber und vergleicht, sieht es dann auf einmal aus, als hätte man einen Texturmod installiert...
Bilder zeigen und nicht labern. Ansonsten ordne ich das unter mentalem Bias ein. Wenn du zweimal ein Savegame laedst vergehen Minuten dazwischen, das kannst du ueberhaupt nicht mehr objektiv vergleichen.

aufkrawall
2016-10-03, 01:38:39
http://abload.de/thumb/257510201610030136501arr9v.png (http://abload.de/image.php?img=257510201610030136501arr9v.png) http://abload.de/thumb/25751020161003013629149os4.png (http://abload.de/image.php?img=25751020161003013629149os4.png)
Das ist 4x vs. 16x, und er spricht sogar von 2x als annehmbar...
In 1080p wärs sogar noch schlimmer. :freak:

Foobar2001
2016-10-03, 01:40:37
Talos ist ein Worst-Case-Szenario. Komplett blanke, flache Flaeche ohne jegliche Geometrie-Details oder Hoehenunterschiede. Das sieht doch auch ohne AF schon aus wie Schrott.

Und selbst dort wuerde ich nur das Terrain auf 8x/16x stellen und den Rest in Ruhe lassen. Siehst du sonst irgendwo einen Unterschied?

aufkrawall
2016-10-03, 01:42:33
Ja, ja. :rolleyes:
Hitman ist dann auch ein Worst Case, oder was? Und nein, ich installier mir das jetzt nicht extra für dich.
Gibt in zig Spielen solche Flächen, etwa auch Witcher 3 Novigrad. Was ist denn das für ein Cherry Picking...

Foobar2001
2016-10-03, 01:43:31
Cherry Picking ist exakt das richtige Wort. Global fuer alles 16xAF ist totaler Schwachsinn. Und ich habe gesagt "viele Szenen" und nicht "immer". Du hoerst mir nicht zu.

Und das AF auf Konsolen nicht benutzt wird ist immer noch nicht wahr. Man stellt es nur nicht global auf 16x. Das ist grundlose Verschwendung von Rechenleistung.

aufkrawall
2016-10-03, 01:54:37
Mit NV ist global 16x kein Schwachsinn, weil es gegenüber 8x oder selektivem AF absolut nie Leistung im spürbaren Bereich kostet. Bei der Texturwüste Talos in 4k max Details sind 8x vs. 16x 86 vs 83fps. Da muss man sich überhaupt keinen Kopf drum machen.
Meinetwegen hab halt recht, dass ständig 2x statt gar kein AF auf den Konsolen verwendet wird. Wenn man 16x gewohnt ist, ist das leicht zu verwechseln...

Es ist eben keine Verschwendung von Rechenleistung, global 16x zu forcieren, wenn in zig Spielen Texturmatsche auffällt.
So ne ganz tolle "Optimierung" gibts etwa auch in Far Cry Primal: Die Baum-Texturen bekommen auch nur 2x-4x ab. Steht man weit genug weg, ist alles prima. Geht man näher ran und schaut nach oben, werden die guten Texturen auf einmal zu Brei. Außer man erzwingt wieder mal eine hohe Stufe per Treiber. :rolleyes:

Spar-AF ist mit auf dem PC mit max. Details einfach Schwachfug, in den meisten Spielen übrigens auch mit GCN.

Hübie
2016-10-03, 01:55:38
Ich erinnere mich an einen Test wo auf NV 16x per Treiber 5-8% kostete. Das ist es in Open World Games wie Fallout 4 und GTA V wert. Aber ob ich es jetzt in jedem Spiel anhaben muss... Hitman ist in jeder Hinsicht ein schlechtes Beispiel.

aufkrawall
2016-10-03, 01:57:30
Hitman ist in jeder Hinsicht ein schlechtes Beispiel.
Ich erbitte mir eine Begründung.

Foobar2001
2016-10-03, 02:07:21
Nur ergibt es keinen Sinn zum Beispiel die Lightmap mit 16x zu filtern in einer nicht "Ultra for the Future"-Option. Schon gar nicht, wenn 30% des Marktes auch immer noch diese komischen AMD-Karten haben, die es eben nicht so einfach wegstecken.

Dann kommen wir auch schon wieder in den komischen Bereich, wo alle Spieler aus irgend einem Grund alles auf Maximum drehen wollen und wenn es dann scheisse laeuft ist es "schlecht optimiert". Egal wie hirnlos diese Einstellung fuer derzeitige Hardware ist.

Bestes Beispiel war "Dying Light" das komplett zerissen wurde fuer "schlechte Optimierung", weil alle den Distance-Detail-Slider auf Max gestellt haben, obwohl die Minimal-Einstellung schon besser war als auf den Konsolen. Oder Deus Ex wo MSAA wegen fully deferred super teuer ist.

Wie man es implementiert, man ist immer "unfaehig" und "faul" und versteht sowieso nichts davon was man jeden Tag macht. Und wenn es nicht gefuehlt exakt gleich gut auf AMD und NVIDIA laeuft ist man "gekauft".

aufkrawall
2016-10-03, 02:32:47
Ich hatte bis vor Kurzem noch eine R9 390 und konnte in zig Spielen ohne große Performance-Einbußen 16xAF forcieren, mit teils deutlicher Grafiksteigerung.
Etwa in den besagten Spielen Witcher 3 und Dying Light. So schlimm ist die Performance-Situation nun auch wieder nicht.

Und ich wär ja sehr dafür, dass Entwickler nur das entsprechend filtern, wo es Sinn macht. In der Praxis sieht man das aber ständig daneben gehen. Ich beziehe mich auf den PC mit max. Details, natürlich gelten für Konsolen andere Maßstäbe.

Foobar2001
2016-10-03, 02:44:53
Ich denke wir sind uns einig, dass auf dem PC im Allgemeinen in letzter Zeit gehaeuft gepfuscht wird.

Witcher 3 hab ich mir mal in RenderDoc angeschaut, die haben sogar ein negatives LOD auf den Texturen, deshalb flickert z.B. die Ruestung. Und auch sonst ist das Rendering eher suboptimal.

aufkrawall
2016-10-03, 03:11:26
Das erscheint mir zusammen mit dem ausbleibenden 16x fürs Terrain als Sparfilterungs-Kombi, die unglückseligerweise von den Konsolen übernommen wurde.
Kann man zum Glück in der Config ausschalten und eben stattdessen 16x über den Treiber forcieren. Einige Texturen flimmern leider weiterhin etwas, womöglich irgendein suboptimaler Shader-Effekt oder es wird doch noch irgendwas mit Bias gefiltert.

Beim direkt sichtbaren Rendering ist vieles suboptimal bei W3, dafür sind andere Dinge gut (CPU-Performance, Multithreading, VRAM-Optimierung, kein sichtbares Streaming...). Gibt Prügelknaben, die es mehr verdient haben.
Ich kann aber auch kein Spiel mehr mit der Grafik spielen. :D

x-force
2016-10-03, 05:45:37
16x af benutzt man schon etliche jahre. es ist kein anlass aufgrund einer mangelhaften architektur in vorindustrielle zustände zurück zu fallen.
vor allem wenn der eigene visus brauchbar ist.:cool:

DinosaurusRex
2016-10-03, 07:20:20
Dann kommen wir auch schon wieder in den komischen Bereich, wo alle Spieler aus irgend einem Grund alles auf Maximum drehen wollen und wenn es dann scheisse laeuft ist es "schlecht optimiert". Egal wie hirnlos diese Einstellung fuer derzeitige Hardware ist.

Bestes Beispiel war "Dying Light" das komplett zerissen wurde fuer "schlechte Optimierung", weil alle den Distance-Detail-Slider auf Max gestellt haben, obwohl die Minimal-Einstellung schon besser war als auf den Konsolen. Oder Deus Ex wo MSAA wegen fully deferred super teuer ist.

Wie man es implementiert, man ist immer "unfaehig" und "faul" und versteht sowieso nichts davon was man jeden Tag macht. Und wenn es nicht gefuehlt exakt gleich gut auf AMD und NVIDIA laeuft ist man "gekauft".

Ein Entwickler von BioWare hat darüber mal sehr ausführlich gesprochen. Er sagte das die Grafikregler eigentlich nur eine virtuelle Bedeutung besitzen, im PC Gamer-Alltag aber ohne Relevanz sind. Der Löwenanteil der PC Gamer kann offenbar keine Freude an einem Spiel haben, wenn nicht alle Regler auf Max stehen. Das geht sogar so weit, dass die Spieler bewusst eine schlechte Performance in Kauf nehmen, obwohl das Spiel mit ein paar Handgriffen super flüssig laufen könnte. Die BioWare-Spiele werden daher bewusst so konzipiert, dass die maximalen Settings auf dem Großteil der Hardware flüssig laufen.

Ich finde das ist ein hochinteressantes Phänomen. Mich würde mal interessieren, was die psychologische Ursache ist. Ich würde vermuten, es liegt vielleicht an den hohen Preisen für die Hardware. Ich denke viele verstehen nicht, dass die Preisstrategie nicht gekoppelt ist an die Herstellungskosten. Unternehmen konzipieren gerne Prestigeprodukte, bspw die Titan-Grafikkarten oder die Core i Extreme-Prozessoren. Das die hohen Preise für diese Produkte zu einem großen Teil auf Marketingfaktoren (Image, Suggerieren von Innovationsfähigkeit/Exklusivität) beruhen, erfährt der Kunde natürlich nicht. Wenn ein Spiel mit maximalen Settings auch auf so einem Premium-PC nicht flüssig läuft, dann neigen die Spieler womöglich dazu, die Performance in Relation zu den Hardware-Preisen zu stellen und nicht die Auswirkungen der Settings in Relation zu der verfügbaren Rechenleistung.

Foobar2001
2016-10-03, 08:22:58
16x af benutzt man schon etliche jahre. es ist kein anlass aufgrund einer mangelhaften architektur in vorindustrielle zustände zurück zu fallen.
NVIDIA verbaut deutlich mehr Textur-Einheiten pro Floating-Point-Einheit als AMD. "Mangelhaft" ist da ueberhaupt nichts bei AMD, das sind alles Kompromisse.

Ich argumentiere, dass das Verschwendung ist und man die Die-Flaeche besser in Rechenleistung investieren sollte, anstatt es zu ermoeglichen dass 16xAF ueberall billig ist.

vor allem wenn der eigene visus brauchbar ist.:cool:
:rolleyes:

Hübie
2016-10-03, 13:08:51
Jetzt könnte man ja mal durch exerzieren wann, welcher IHV mehr Leistung pro Fläche hat / hatte; stets mit dem Hintergedanken dass 16xAF auf NV insgesamt weniger kostet. Dass würde dein Argument oberflächlich stützen oder schwäche.

Edit: Ok hab das mal grob für die letzten Chips bis Tonga gemacht und es sieht nicht gut für deine Argumentation aus. :D

Ex3cut3r
2016-10-03, 14:45:50
Hier stand Mist. Sry

d2kx
2016-10-03, 16:10:13
Deus Ex: Mankind Divided Patch build 565.4

DX12 specific changes (*only applicable to the DX12_preview branch)

- Fixed an issue that could cause a DXGI_DEVICE_HUNG error.
- Improved performance stability, this should result in less stuttering.
- Slightly improved loading times.

aufkrawall
2016-10-03, 16:30:02
Die BioWare-Spiele werden daher bewusst so konzipiert, dass die maximalen Settings auf dem Großteil der Hardware flüssig laufen.

Bioware ist doch nur noch ein generic EA-Studio von vielen und mit Frostbite hat man wahrscheinlich eh kein Effekt-Repertoire, womit man ohne dumme Einstellungen überhaupt nennenswert Leistung verbraten könnte. Zumindest nicht, wenn man auf der alten PS4 wieder 1080p 60fps anpeilt, wie jüngst alle EA-Spiele (Ausnahme NfS, das sieht aber auch besser als andere Rennspiele aus).
Entsprechend langweilig sah das bisher gezeigte von ME: Andromeda schon aus.

DinosaurusRex
2016-10-03, 16:38:17
Die Aussage ist noch aus der Zeit der Doctors. Da gab es PS4 und Co noch gar nicht.

BioWare war einst ein PC-exklusiver Entwickler. Die werden schon wissen, wovon sie sprechen.

aufkrawall
2016-10-03, 16:42:50
Der Aussage kann man nur widersprechen, wenn man Wert auf saubere Optik legt.
Keine Wahl zu haben ist immer schlechter. Außer, man wurde im Sozialismus sozialisiert o.ä...

Foobar2001
2016-10-03, 17:16:01
2xAF reicht? Bitte was 16xhq AF Global wtf... Welcher EX Account ist eigentlich deiner Foobar? Grestorn? ;)
4x, und ich sagte "in den meisten Szenen". Kann man keine zivilisierte Diskussion ohne Anfeindungen mehr haben?

Jetzt könnte man ja mal durch exerzieren wann, welcher IHV mehr Leistung pro Fläche hat / hatte; stets mit dem Hintergedanken dass 16xAF auf NV insgesamt weniger kostet. Dass würde dein Argument oberflächlich stützen oder schwäche.

Edit: Ok hab das mal grob für die letzten Chips bis Tonga gemacht und es sieht nicht gut für deine Argumentation aus. :D
Du hast meinen Punkt nicht verstanden. Es spielt keine Rolle, wer im Moment mehr Leistung pro Fläche hat, NVidia könnte mehr FLOPs verbauen. Auf dem GP102-Die machen die TMUs extrem viel Fläche aus.

DinosaurusRex
2016-10-03, 17:43:31
Keine Wahl zu haben ist immer schlechter. Außer, man wurde im Sozialismus sozialisiert o.ä...

Das ist individuell unterschiedlich. Die Wahl zu haben bedeutet auch immer Verzicht. Je vielfältiger die Auswahl, desto größer auch der Verzicht. Diesen Verzicht kann man als Opportunitätskosten quantifizieren und je größer diese Kosten ausfallen, desto unglücklicher bist du mit deiner Entscheidung. Du wirst tagtäglich in jedem Supermarkt basierend auf diesem Prinzip verarscht. BioWare macht es genauso: In dem sie dir die Auswahl nur vorgaukeln und du am Ende sowieso alle Regler auf Max stellen wirst, fallen diese Opportunitätskosten für dich weg. Du bist zufrieden, lehnst dich zurück und genießt das Spiel.

aufkrawall
2016-10-03, 18:00:32
Wenn bestimmte Schatten wie in der BF1-Beta Dank der 640x480 Auflösung aussehen wie eine abstrakte Szene-Demo, bin ich weit vom Genießen entfernt.
Von der Konsole kommend kennt man natürlich nur Schrott-Schatten, die weit unterhalb von Crysis 1-Niveau sind.

dargo
2016-10-03, 18:03:18
Deus Ex: Mankind Divided Patch build 565.4

DX12 specific changes (*only applicable to the DX12_preview branch)

- Fixed an issue that could cause a DXGI_DEVICE_HUNG error.
- Improved performance stability, this should result in less stuttering.
- Slightly improved loading times.
Immer noch nicht zu gebrauchen.

Die Spikes sind im Benchmark an den gleichen Stellen. Ca. 11% höhere min.fps im GPU-Limit und 13% höhere min.fps im CPU-Limit, beides im Benchmark. Die Ladezeiten haben sich in der Tat verbessert.

DinosaurusRex
2016-10-03, 18:10:04
Wenn bestimmte Schatten wie in der BF1-Beta Dank der 640x480 Auflösung aussehen wie eine abstrakte Szene-Demo, bin ich weit vom Genießen entfernt.
Von der Konsole kommend kennt man natürlich nur Schrott-Schatten, die weit unterhalb von Crysis 1-Niveau sind.

Doom hatte sehr schicke Schatten auf der Konsole meiner Meinung nach und das lief auch noch mit 60fps.

Grundsätzlich ist das häufig szenenabhängig. In Innenräumen gibt es eigentlich nie was zu meckern. In großen Arealen mit viel Weitsicht gibt es Verbesserungspotenzial.

aufkrawall
2016-10-03, 18:19:59
Die Schatten sind gut geblurt und es gibt afair höher aufgelöste Per Object Shadows für kleine Objekte wie die Waffe.
Die Auflösung an sich ist auf den Konsolen lächerlich gering, völlig unscharfer Brei:
https://www.youtube.com/watch?v=9sXp0poccPI
Mit bewegter Vegetation wär das unsäglich am flimmern, hat das Spiel nur zufälligerweise nicht.
Außerdem haben die Doom-Schatten keinen CH-Effekt. Auf dem PC gibts statt wirklich besserer Filterung auch nur die unsinnig hoch aufgelöste Nightmare-Stufe, die häufig nur schärfer, aber nicht unbedingt besser aussieht als die nächstkleinere Stufe (die auch schon zigmal besser als auf den Konsolen aussieht).
Deshalb ist dieser 60fps Konsolen-Wahn die reinste Seuche, vernünftige Grafikeffekte kommen völlig zu kurz.

DinosaurusRex
2016-10-03, 18:24:42
Mit bewegter Vegetation wär das unsäglich am flimmern, hat das Spiel nur zufälligerweise nicht.

Ja ganz toll argumentiert ;D

aufkrawall
2016-10-03, 18:27:48
Du wirfst Technik und Content durcheinander.
Nur mal als Hinweis: Selbst Uncharted 4 als PS4-only und teilweise <30fps hat Probleme mit feinen Schatten.

DinosaurusRex
2016-10-03, 18:52:22
Nur mal als Hinweis: Selbst Uncharted 4 als PS4-only und teilweise <30fps hat Probleme mit feinen Schatten.

Bei sehr viel Weitsicht, ja.

Hübie
2016-10-03, 18:55:16
Du hast meinen Punkt nicht verstanden. Es spielt keine Rolle, wer im Moment mehr Leistung pro Fläche hat, NVidia könnte mehr FLOPs verbauen. Auf dem GP102-Die machen die TMUs extrem viel Fläche aus.

Und dann über die ALUs statt TMUs filtern oder was genau meinst du jetzt? Ich kenne den Unterschied nicht so wirklich, muss ich sagen.

Könnte man dann nicht so etwas wie dynamisches AF implementieren? Also z.B. hohe Filter bei weiter Sicht mit wiederkehrender Textur (z.B. Bodengitter im langen Gang, Straße mit Mittelstreifen usw.) und weniger Filterstufen bei kleinen, kurzen Wegen / Räumen oder würde die "Umschaltzeit" den Gewinn wieder auffressen? Klingt vielleicht dumm, aber als Laie darf ich das :D

Foobar2001
2016-10-03, 19:04:21
Die Hardware berechnet die Verzerrung und waehlt die AF-Stufe adaptiv. Das war schon immer so.

aufkrawall
2016-10-03, 19:34:13
Bei sehr viel Weitsicht, ja.
Aus nächster Nähe.

DinosaurusRex
2016-10-03, 20:01:53
Aus nächster Nähe.

Ich meine damit Szenen mit viel Weitsicht und nicht weit entfernte Objekte. Die Schattenqualität in Uncharted 4 variiert je nach Szene. In Afrika ist sie am schlechtesten, da sind die Level aber auch am größten. Ist die Weitsicht nicht so hoch, bspw im Dschungel oder in Innenräumen, dann sind die Schatten wieder viel besser.

Im Prinzip ist das eigentlich genauso, als würdest du dem Spieler wie auf dem PC verschiedene Settings anbieten, nur das der Entwickler je nach Szene das Setting mit dem besten Preis-Leistungs-Verhältnis bereits vorausgewählt hat.

Hübie
2016-10-03, 20:18:09
Die Hardware berechnet die Verzerrung und waehlt die AF-Stufe adaptiv. Das war schon immer so.

Also ist 16x immer nur ein 'bis zu' oder wie verstehe ich das. Dachte bisher es werden stets 16 samples für die Filterung benutzt.
Und wo liegen Vor- bzw. Nachteile der ALU-Filterung? Wenn es nur Vorteile wären hätte man die TMUs doch schon weg gelassen bzw. reduziert. Und wieviel die-area ist es ungefähr auf GP102?

Locuza
2016-10-03, 20:51:58
NVIDIA verbaut deutlich mehr Textur-Einheiten pro Floating-Point-Einheit als AMD. "Mangelhaft" ist da ueberhaupt nichts bei AMD, das sind alles Kompromisse.
[...]
Seit Maxwell verbaut Nvidia 8 TMUs pro 128 ALUs, besitzt also das gleiche 1:16-Verhältnis wie AMD bei GCN und da AMD in der Regel mehr CUs verbaut, besitzt AMD auch mehr TMUs.

Foobar2001
2016-10-03, 21:24:58
Hast recht, dachte das waere immer noch anders. Naja, dann hat AMD tatsaechlich Hausaufgaben.

Also ist 16x immer nur ein 'bis zu' oder wie verstehe ich das.
Korrekt. Es gibt visuell aber keinen Unterschied, brauchst dir also keinen Kopf darueber machen.

Und wo liegen Vor- bzw. Nachteile der ALU-Filterung? Wenn es nur Vorteile wären hätte man die TMUs doch schon weg gelassen bzw. reduziert. Und wieviel die-area ist es ungefähr auf GP102?
Niemand filtert in den ALUs. Das ist viel zu langsam.

Hübie
2016-10-04, 01:15:19
Ich mache mir da auch kein Kopf drum. Erst wenn meine Augen etwas wahrnehmen, dass so nicht gehört ändere ich was. Ich bin kein notorischer "Balken-muss-rechts-sein-Schieber". ;)

Und es wäre durchaus hilfreich wenn du deine Argumentation etwas untermauerst, denn wenn TMUs wegfallen brauche ich anderswo einen Gewinn. Ich kenne deinen Hintergrund, aber du vergisst dass jemand wie ich einen anderen Beruf ausübt. ;)

Edit: Omg. Zwei Zwinker-smileys in einem Beitrag. Cruncher lässt Grüßen.

Foobar2001
2016-10-04, 03:11:17
Ich hab nicht gesagt, dass man in den ALUs filtern soll, ich hab gesagt, dass weniger TMUs und bisschen mehr Selektivitaet in der AF-Stufe vielleicht sinnvoller waere. Aber das ist wirklich etwas akademisch.

Hübie
2016-10-04, 03:49:56
Also liegt in x % der Fälle das Potenzial der TMUs brach und man sollte dies besser ersetzen? Was genau meinst du mit mehr Selektivität? Nach welchen Kriterien würde so etwas sinnvoll von statten gehen? Gibt es dazu Studien / Untersuchungen?

HOT
2016-10-04, 11:04:51
Die angeforderte Leistung der TMUs und deren Fläche im Verhältnis nehmen, wenn man deren Leistung ins Verhältnis zur Rechenleistung der SPs setzt, seit Jahren stetig ab. Erst profitierte Kepler noch von der besseren TMU-Leistung, heute ist das nicht mehr der Fall.

Kartenlehrling
2016-10-04, 19:02:35
https://www.youtube.com/watch?v=voCapB43F0k
Radeon Tech Talk: DirectX® 12 Multi-GPU Frame Pacing

Ex3cut3r
2016-10-05, 04:20:38
Hier gibt es übrigens ein Interessantes Video: Pascal (GTX 1080) kann eindeutig kein DX12 wenn man sich dieses Video ansieht. Woran liegts? Wieder die allgemeine DX12 Schwäche langsamer im GPU Limit als DX11?

Was erlauben Microsoft? :confused:

Wieso gibt es nach über 1 Jahr Windows 10 und DX12 immer noch keine AAA Titel mit DX12 only? (Ganz einfach DX12 ist der letzte Schrott) Und wird uns einiges an Unheil in den nächsten Jahren bringen. :redface:

1wR_GzUdvak

Hübie
2016-10-05, 09:40:22
Natürlich können auch NVIDIAs Karten effizient DX12 rendern, aber das Gros der Spiele ist eben mit Konsolenhintergrund auf dem Markt und wenn man hardware nahe layer hat und GPU-Resourcen auf eine andere Architektur hin verteilt kommt eben nicht immer das Optimum an.

dreas
2016-10-05, 10:06:36
dx12 ist jetzt schon tot. man hat mit dx12 ein wende aus der bisherigen nomenklatur versucht. in der folge von mantle und vulkan wurde versucht die einfache aber in teilen cpu-ressourcenhungrige programmierung von spielegrafik zu "verbessern" in dem man die komplexität erhöht und eventuell cpuzeit gewinnt. immer unter der bedingung die devs können damit umgehen. in der natur der sache liegt das hardwarenähere programmierung nicht so ihv neutral sein kann.

jetzt haben wir also ein dx12 was die meisten progger nicht beherrschen. die amd jünger sich eins feixen über die freigewordene cpu zeit, und der nv jünger weiter mit guter performace per dx11 zockt.

Foobar2001
2016-10-05, 18:36:14
Dumm nur, dass DX11 aus zukuenftigen Engines verschwinden wird. Niemand hat Zeit fuer ewig DX11 mitzuschleppen.

DinosaurusRex
2016-10-05, 19:42:11
Viel interessanter als die Frage, ob und wann DX11 verschwindet, finde ich die Frage, ob es überhaupt noch einen Nachfolger zu DX12 geben wird? DirectX hat im mobilen Bereich keine Bedeutung und es wird sicher auch nicht mehr lange dauern, dann wirst du dein Smartphone in eine Dockingstation stecken und darüber League of Legends zocken.

aufkrawall
2016-10-05, 19:42:33
Dumm nur, dass DX11 aus zukuenftigen Engines verschwinden wird. Niemand hat Zeit fuer ewig DX11 mitzuschleppen.
Wenn man die freigewordene Zeit in vernünftige Optimierung für beide IHVs stecken kann, ist das ja nicht schlimm.
Nicht nur für Nvidia DX12 kann der Entwickler die Performance verkacken, sondern auch für AMD DX12.
Siehe Frametimes Ashes of the Singularity:
http://www.guru3d.com/articles_pages/gigabyte_radeon_rx_480_g1_gaming_review,30.html

Ist nicht immer alles Schwarz-Weiß...

dargo
2016-10-05, 19:53:58
Viel interessanter als die Frage, ob und wann DX11 verschwindet, finde ich die Frage, ob es überhaupt noch einen Nachfolger zu DX12 geben wird?
Interessiert heute nicht. Bei DX11 hieß es auch, dass es keinen Nachfolger geben wird. Wir wurden eines besseren belehrt. Diese Frage kannst du nochmal in 5-7 Jahren stellen.

aufkrawall
2016-10-05, 20:24:12
Den Scheiß hatte Roy Taylor erzählt (wer auch sonst), sonst niemand.

Pirx
2016-10-05, 20:47:10
Warum sollte man überhaupt DX12 verwenden, wenn man sich damit auf das besch...eidene Win10 beschränkt und mit Vulkan eine Alternative vorhanden ist, die zumindest die Aussicht (mit Anpassungen) auf eine wesentlich größere Hardware-/Kundenbasis hat?

Locuza
2016-10-05, 21:07:16
Viel interessanter als die Frage, ob und wann DX11 verschwindet, finde ich die Frage, ob es überhaupt noch einen Nachfolger zu DX12 geben wird? DirectX hat im mobilen Bereich keine Bedeutung und es wird sicher auch nicht mehr lange dauern, dann wirst du dein Smartphone in eine Dockingstation stecken und darüber League of Legends zocken.
Namen sind ja bekanntlich Schall und Rauch, jedenfalls hat Microsoft viele Pläne für die Zukunft genannt.
Microsoft wird bald ein neues Shader-Model anbieten (6.0), eine neue Shader-Compiler-Infrastruktur etablieren und weitere Features in der Zukunft implementieren.

Und solange die Xbox Konsolen eine Relevanz haben, hat man praktisch immer das Ökosystem Xbox Console + PC.
Ich denke wir müssten sehr langfristig in die Zukunft schauen, um Aussagen darüber zu treffen, ob DX selber eine Zukunft hat und ob sich nicht Vulkan (Und seine Spec-Nachfolger) als Platzhirsch für die meisten Plattformen etabliert.

Foobar2001
2016-10-05, 21:49:45
Warum sollte man überhaupt DX12 verwenden, wenn man sich damit auf das besch...eidene Win10 beschränkt und mit Vulkan eine Alternative vorhanden ist, die zumindest die Aussicht (mit Anpassungen) auf eine wesentlich größere Hardware-/Kundenbasis hat?
Vulkan ist auch aus anderen Gruenden eine sehr gute Idee :)

DinosaurusRex
2016-10-06, 07:41:30
Also ich fände das schon cool, wenn man das alles irgendwie vereinheitlichen könnte. Privat nutze ich einen Windows PC, auf der Arbeit hab ich einen iMac, mein Smartphone hat Android und zum Zocken nehme ich die PS4.

Mal angenommen in Zukunft könnte ich alles in einem mobilen Smart Device vereinen, dann wäre das ne coole Sache. Idealerweise über Dockingstations, die mich mit dem jeweiligen Bildausgabegerät und den entsprechenden Eingabegeräten verbinden. Da wäre mir auch vollkommen egal, ob ich bei der Grafik erstmal ein wenig zurückstecken müsste.

dargo
2016-10-06, 08:19:40
Warum sollte man überhaupt DX12 verwenden, wenn man sich damit auf das besch...eidene Win10 beschränkt und mit Vulkan eine Alternative vorhanden ist, die zumindest die Aussicht (mit Anpassungen) auf eine wesentlich größere Hardware-/Kundenbasis hat?
Weil Windows 7 bereits weit abgeschlagen bei den Steam-Spielern ist? Selbst Win7 + Win8.x liegen zusammen hinter Windows 10.

DinosaurusRex
2016-10-06, 08:40:07
Das ändert aber nichts daran, dass Windows einfach nur kacke ist. Wer Windows nutzt ist entweder PC Gamer oder kann sich kein OS X-Gerät leisten.

Foobar2001
2016-10-06, 08:48:42
Starker Tobak.

THEaaron
2016-10-06, 09:03:51
Das ändert aber nichts daran, dass Windows einfach nur kacke ist. Wer Windows nutzt ist entweder PC Gamer oder kann sich kein OS X-Gerät leisten.

Selten so gelacht.

Gauß
2016-10-06, 09:23:32
Das ändert aber nichts daran, dass Windows einfach nur kacke ist. Wer Windows nutzt ist entweder PC Gamer oder kann sich kein OS X-Gerät leisten.http://i.imgur.com/M1CEF9L.png
Quelle: https://web.nvd.nist.gov/

http://i.imgur.com/B1nCWKG.png

dargo
2016-10-06, 10:39:25
Das ändert aber nichts daran, dass Windows einfach nur kacke ist.

Aha.


Wer Windows nutzt ist entweder PC Gamer oder kann sich kein OS X-Gerät leisten.
Und jetzt überlegen wir ganz scharf an wen sich DX 12 richtet? Bestimmt an die ganzen Bürorechner. :rolleyes:

Korfox
2016-10-06, 10:42:42
Privat nutze ich einen Windows PC [...] zum Zocken nehme ich die PS4.

Das ändert aber nichts daran, dass Windows einfach nur kacke ist. Wer Windows nutzt ist entweder PC Gamer oder kann sich kein OS X-Gerät leisten.

Wenn schon alle so schön am drauf hacken sind...
Du bist kein PC-Gamer, kannst die kein OS X-Gerät leisten und Linux ist dir zu billig?

Iruwen
2016-10-06, 12:05:04
Also ich fände das schon cool, wenn man das alles irgendwie vereinheitlichen könnte. Privat nutze ich einen Windows PC, auf der Arbeit hab ich einen iMac, mein Smartphone hat Android und zum Zocken nehme ich die PS4.

Mal angenommen in Zukunft könnte ich alles in einem mobilen Smart Device vereinen, dann wäre das ne coole Sache. Idealerweise über Dockingstations, die mich mit dem jeweiligen Bildausgabegerät und den entsprechenden Eingabegeräten verbinden. Da wäre mir auch vollkommen egal, ob ich bei der Grafik erstmal ein wenig zurückstecken müsste.

"ein wenig" :freak: Über welche Zukunft reden wir hier, 50 Jahre?

Datarecovery09
2016-10-06, 12:46:22
Das ändert aber nichts daran, dass Windows einfach nur kacke ist. Wer Windows nutzt ist entweder PC Gamer oder kann sich kein OS X-Gerät leisten.

... oder er ist Entwickler und einfach kein harter Masochist, der auf XCode steht... ;D

DinosaurusRex
2016-10-06, 15:13:35
Wenn schon alle so schön am drauf hacken sind...

Kein Problem, wer austeilt, muss auch einstecken können.

Ich finde der Workflow ist bei OS X einfach besser. Alles ist "drag'n drop"-bar, du musst nie zwischenspeichern und kannst alle Dateien bearbeiten und verändern, selbst wenn sie an anderer Stelle in Benutzung sind. Für die private Nutzung sind die Preise echt verdammt hoch, aber arbeiten kannst du damit super zügig.

Korfox
2016-10-06, 15:22:47
Joar. Mit etwas Aufwand ist ein Linux ziemlich genauso. Aber das ist wohl OT... vielleicht einen eigenen Thread wert, wie man Linux so einrichtet, dass das Look&Feel exakt wie MacOS ist...
Vielleicht direkt neben dem Thread des Wechselwilligen.

dildo4u
2016-10-06, 15:36:29
PCGH hat jetzt Asynchron Compute bei Gears 4 getestet.

http://abload.de/img/asynbconviukh.png


http://www.pcgameshardware.de/Gears-of-War-4-Spiel-55621/Specials/Performance-Test-Review-1209651/

HOT
2016-10-06, 15:51:49
Grad mit meiner neuen 480 getestet, DeusEx:MD 565.4 läuft jetzt mit DX12 superflüssig - jedenfalls auf der Karte mit 16.10.1.

Iruwen
2016-10-06, 16:35:37
PCGH hat jetzt Asynchron Compute bei Gears 4 getestet.

http://abload.de/img/asynbconviukh.png


http://www.pcgameshardware.de/Gears-of-War-4-Spiel-55621/Specials/Performance-Test-Review-1209651/

Irgendwie wäre 1060 vs 480 interessanter gewesen.

dildo4u
2016-10-06, 16:38:43
....

dargo
2016-10-06, 17:53:36
Grad mit meiner neuen 480 getestet, DeusEx:MD 565.4 läuft jetzt mit DX12 superflüssig - jedenfalls auf der Karte mit 16.10.1.
Kann ich mit R9 390 nicht bestätigen. Die Spikes sind weiterhin an den gleichen Stellen im Benchmark.
57621

dildo4u
2016-10-06, 17:55:44
CB hat jetzt auch Gears Benches:


http://abload.de/img/geardt3aug5.png

https://www.computerbase.de/2016-10/gears-of-war-4-benchmark/2/#abschnitt_die_dynamische_aufloesung_im_einsatz

Hübie
2016-10-06, 18:04:59
Und der nächste DX12UWP-Unfall :facepalm:

Schnoesel
2016-10-06, 18:05:16
Alles wie gehabt. AMD profitiert, Nvidia verliert zumindest nicht (2% sind imo im Rahmen der Messungeneauigkeit) und für Maxwell wirds gar nicht angeboten (Async).

Interessant ist aber dass AMD deutlichst besser mit einem schwächerne Prozessor zurecht kommt. Das will mir irgendwie nicht so ganz eingehen.

https://s15.postimg.org/s8ywqgbm3/image.png

dargo
2016-10-06, 18:08:36
Und der nächste DX12 UWP-Unfall :facepalm:
fixed

Schnoesel
2016-10-06, 18:12:07
Wobei CB das Spiel ja regelrecht lobt:

"Die gemessenen Frametimes bestätigen die Beobachtungen. So lange die native Auflösung des Monitors genutzt wird, läuft Gears of War 4 sowohl auf einer AMD- als auch auf einer Nvidia-Grafikkarte quasi perfekt. "
https://www.computerbase.de/2016-10/gears-of-war-4-benchmark/4/

Solange man die native Auflösung verwendet. Naja wie auch immer, das spiel interessiert mich leider nicht die Bohne, die sollen endlich Quantum Break und Forza gut zum laufen bekommen. Daran hätte Ich eher Interesse.

aufkrawall
2016-10-06, 18:12:31
GCN profitiert auch nur mal wieder mit den obligatorischen 9%.
Genau wie bei Ashes und Doom (390). Von der Idee "AC als Wundermittel" darf man sich wohl erstmal verabschieden.

Schnoesel
2016-10-06, 18:15:08
Manche holen sich bei 9% größerem Balken schon einen runter oder sprechen von Vernichtung für die Gegenseite. AC hat sicher noch größeres Potential aber das will erst einmal ausgeschöpft werden. Man kann derzeit froh sein wenn das Spiel einigermaßen läuft...

dargo
2016-10-06, 18:15:10
Naja wie auch immer, das spiel interessiert mich leider nicht die Bohne, die sollen endlich Quantum Break und Forza gut zum laufen bekommen. Daran hätte Ich eher Interesse.
Der Satz könnte von mir kommen. :tongue:

dildo4u
2016-10-06, 18:19:34
Alles wie gehabt. AMD profitiert, Nvidia verliert zumindest nicht (2% sind imo im Rahmen der Messungeneauigkeit) und für Maxwell wirds gar nicht angeboten (Async).

Interessant ist aber dass AMD deutlichst besser mit einem schwächerne Prozessor zurecht kommt. Das will mir irgendwie nicht so ganz eingehen.

https://s15.postimg.org/s8ywqgbm3/image.png
Macht Sinn wenn AMD ne Chance mit Zen haben will muss der Treiber ideal über 8 Cores skalieren.Da ich nicht glaube das Zen in der ersten Rev ohne massiv V-Core mal ebend 4.5Ghz macht wie der 7700k.

Schnoesel
2016-10-06, 18:21:40
Dann müsste die Gegenprobe her: 4C/4T CPU.

CB/PCGH anyone?

Iruwen
2016-10-06, 18:22:27
Manche holen sich bei 9% größerem Balken schon einen runter oder sprechen von Vernichtung für die Gegenseite. AC hat sicher noch größeres Potential aber das will erst einmal ausgeschöpft werden. Man kann derzeit froh sein wenn das Spiel einigermaßen läuft...

Würde ich nicht von ausgehen. (http://wccftech.com/async-compute-boosted-hitmans-performance-510-amd-cards-devs-super-hard-tune/) Bei Konsolen ja, PC mal sehen.

dargo
2016-10-06, 18:26:17
Ich schon. (http://www.pcgameshardware.de/Doom-2016-Spiel-56369/News/Doom-Vulkan-Asynchronous-Compute-1202335/)

Es ist wie bei CPUs und Multithreading... man lernt mit der Zeit dazu und passt entsprechend die Spiele bzw. Engines an.

Iruwen
2016-10-06, 18:31:34
Die Playstation 4 und Xbox One sollen die Bilder durch AC 3 bis 5 ms schneller berechnen können. Bei einem Target von 16,67' ms (60 Fps) entspricht das einer Fps-Verbesserung von rund 25 bis 45 Prozent

Jo.

dargo
2016-10-06, 18:36:03
Selektives Lesen beherrscht du ganz gut.

dildo4u
2016-10-06, 18:40:12
Doom hatte vergleichbare Gewinne wie Gears,das Problem ist das viele Open GL vs Vulkan gebencht haben und das mit Asynchron Compute gleichsetzen.

https://youtu.be/GlzKPBIjZPo

Nightspider
2016-10-06, 18:50:32
10% ist ja schon mal ein netter Anfang. Da ist mit Sicherheit noch mehr drin.

Bei den kleineren (Nischen-)Produktionen denke ich mir auch immer das diese nicht so viel Zeit für Optimierungen opfern wie die richtig großen Entwickler (DICE, Rockstar, Ubisoft, CIG (Valve)).

Die Geschichte hat uns beim Multithreading gelehrt das viele Entwickler auch mit Technologien (DualCore Support und später QuadCore Support) angeben und werben aber diese teilweise auch nur schlampig/mittelmäßig umgesetzt wurden.

Würde mich nicht wundern wenn da ein paar Entwickler zukünftig noch mehr aus den ACEs zaubern werden.
Ich setze da immer noch viel Hoffnung in DICE (BF1) und CIG(Star Citizen).
Auch mal schauen ob uns Ubisoft mit Watch Dogs 2 überraschen wird.

Die 17% mehr min_fps bei der Fury X sind auch nicht zu verachten.

dildo4u
2016-10-06, 18:56:03
Sie können es von mir aus bei jedem Game maximal nutzen,nur halt nicht wie bei den von AMD gesponsorten Games mit AC Zwang für Maxwell,The Coalition hat es hinbekommen,das jede GPU ideal läuft so muss es sein.

http://abload.de/img/9800ti95u8v.png

Nightspider
2016-10-06, 18:59:50
Gibt es Benchmarks wo noch eine uralte 290X und 780(ti) dabei sind?

Hawaii schlägt sich nach wie vor gut für sein extremes Alter.

Hübie
2016-10-06, 19:00:44
fixed

Stimmt. Danke :D

dargo
2016-10-06, 19:14:12
Doom hatte vergleichbare Gewinne wie Gears,das Problem ist das viele Open GL vs Vulkan gebencht haben und das mit Asynchron Compute gleichsetzen.

https://youtu.be/GlzKPBIjZPo
AMD hat nicht nur Polaris 10 in seinem Portfolio. Fiji hatte je nach Szene deutlich stärker von Vulkan profitiert als eine RX480.
https://www.youtube.com/watch?v=ZCHmV3c7H1Q

Bei der Shaderpower von Fiji nicht wirklich verwunderlich.

aufkrawall
2016-10-06, 19:16:46
Ist höchstfraglich, ob Vega 10/11 wieder so einen ALU-Überhang haben werden.
Ich gehe nicht davon aus.

dargo
2016-10-06, 19:41:07
Auch bei Grenada sieht es nicht viel anders aus.
https://www.youtube.com/watch?v=bq3w0AP-5GU
https://www.youtube.com/watch?v=ys0aW2d29Kg

Es ist wie immer szenenabhängig. Und für diejenigen die immer gerne mit avgs. kommen... gemittelte Frames über Zeitraum X werden nie das volle Potential von AC zeigen können!

aufkrawall
2016-10-06, 19:42:55
Das ist kein Vergleich AC on vs. off!

dargo
2016-10-06, 19:45:01
Ach nee... :rolleyes:

aufkrawall
2016-10-06, 19:46:00
Worüber reden wir dann, bitte?

Foobar2001
2016-10-06, 20:26:46
Hat jemals jemand behauptet, dass es ein Wundermittel ist? 10-15% IST viel fuer "umsonst".

aufkrawall
2016-10-06, 20:38:08
Ja, hier schwirrten ständig die prozentualen Gewinne, die für Konsolen proklamiert werden, auch für den PC rum.
Dass 10-15% viel für umsonst sind, bestreitet niemand.

Umsonst ist aber gar nichts. Laut einem Crytek-Coder verschlingt ein zusätzlicher AC-Pfad auch einiges an Arbeit. Den seriellen Pfad hat man ja eh immer.

Iruwen
2016-10-06, 20:57:44
Ich wollt grad sagen, "umsonst" nichtmal in Anführungszeichen.

Foobar2001
2016-10-06, 21:02:13
Umsonst ist aber gar nichts. Laut einem Crytek-Coder verschlingt ein zusätzlicher AC-Pfad auch einiges an Arbeit. Den seriellen Pfad hat man ja eh immer.
Bei Cryteks Code sollte man froh sein, dass ueberhaupt irgend was funktioniert

aufkrawall
2016-10-06, 21:06:30
Deshalb haben sie ja auch vor Epic und Unity einen eigenen LL-Renderer hinbekommen. :rolleyes:

Nightspider
2016-10-06, 21:07:42
Inwiefern?

Bei vielen Technologien war CryTek führend.
Alle Crysis Teile und Ryse haben die Messlatte höher gelegt.

TheAntitheist
2016-10-06, 21:10:28
Inwiefern?

Bei vielen Technologien war CryTek führend.
Alle Crysis Teile und Ryse haben die Messlatte höher gelegt.
denke nicht das es da am können gehapert hat, wie man ja sehen konnte waren alle Titel einfach nicht für die jeweilige Zeit gemacht, lief also nur auf Highend Rechnern und auch dort nur schlecht als recht...

Also eigentlich waren sie eher dumm.

aufkrawall
2016-10-06, 21:12:51
Ich hab mir Ryse auch jüngst mal installiert, um zu schauen, wie das auf der 1070 läuft.
70-90fps in WQHD bei max Details, gefühlt sehr glatte Frametimes und niedriger Input Lag, auch bei den Massenschlachten meist über 70fps im CPU-Limit...
Bei einem vernünftigen Team ist die Engine echt nicht ineffizient.

War halt leider ein Scheißspiel, aber das lag nicht an der Technik.
Seit Ryse gabs auch einige gewichtige Neuerungen in der Engine, die scheinen in Osteuropa viele gute Leute gefunden zu haben.

Foobar2001
2016-10-06, 21:37:43
Deshalb haben sie ja auch vor Epic und Unity einen eigenen LL-Renderer hinbekommen. :rolleyes:
Was hat das mit dem Code zu tun? Das ist ein einziger Muellhaufen was die dort haben. Das ist industrieweit eine Lachnummer.

aufkrawall
2016-10-06, 21:52:09
Ich kann nur das beurteilen, was ich spielen kann. Wenn ein von Epic promotetes Indie-Spiel wie Ark entsetztlich performt und teilweise auch aussieht, kann es im Vergleich so schlecht um die CE nicht bestellt sein.
Paragon läuft übrigens auch noch deutlich schlechter als Ryse und sieht schlechter aus.

Iruwen
2016-10-06, 22:42:26
Ich dachte immer Crytek hätte sich bei seinen Spielen nur in der Technik verloren und dabei das Spiel vergessen.

dargo
2016-10-07, 06:21:37
Ja, hier schwirrten ständig die prozentualen Gewinne, die für Konsolen proklamiert werden, auch für den PC rum.

Keine Ahnung was du da wieder rein interpretierst. Aber ich schrieb immer "bis zu". Zudem ist die aktuelle AC-Implementierung noch nicht das Ende der Fahnenstange, das ist durchaus noch steigerungsfähig. Man lernt auch laufend dazu. Zu den Konsolenwerten der Entwickler... da bezieht man sich sicherlich auf einzelne Frames und nicht Zeitraum X wie es allzuoft am PC gebencht wird. Eine Glättung der avgs. muss man dir wohl nicht erklären oder?

dildo4u
2016-10-07, 08:39:03
Alles wie gehabt. AMD profitiert, Nvidia verliert zumindest nicht (2% sind imo im Rahmen der Messungeneauigkeit) und für Maxwell wirds gar nicht angeboten (Async).

Interessant ist aber dass AMD deutlichst besser mit einem schwächerne Prozessor zurecht kommt. Das will mir irgendwie nicht so ganz eingehen.

https://s15.postimg.org/s8ywqgbm3/image.png

Hier noch was zu dem Bench Karten mit weniger Vram laden weniger Details was die CPU entlastet.

The 1060 edges out the 970 with an average of 63.7 FPS, but it does have a slightly lower bottom 5%. This is due to the 1060’s 6GB of VRAM allowing it to load Ultra detail textures. Compared to the 970, the 1060 has loaded almost 2GB more texture data into VRAM. On the 4 core i5 this can result in a performance hit from the extra loading and decompression work.

https://gearsofwar.com/en-us/developerblog/8/gearsofwar4perfguide

DinosaurusRex
2016-10-07, 08:43:19
Hier noch was zu dem Bench Karten mit weniger Vram laden weniger Details was die CPU entlastet.


Ist das etwas, bei dem ein System von einem unified RAM Pool profitieren würde, oder verstehe ich das komplett falsch?

dildo4u
2016-10-07, 11:06:06
PCGH hat die Gears 4 Compute Benches noch mal geupdatet:

http://abload.de/img/geard31vsig.png

Wobei Fury X weniger Details anzeigt siehe hier:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11177335&postcount=4219


http://www.pcgameshardware.de/Gears-of-War-4-Spiel-55621/Specials/Performance-Test-Review-1209651/

hmmm
2016-10-07, 11:13:06
Sie können es von mir aus bei jedem Game maximal nutzen,nur halt nicht wie bei den von AMD gesponsorten Games mit AC Zwang für Maxwell,The Coalition hat es hinbekommen,das jede GPU ideal läuft so muss es sein.

Solange Nvidia weiterhin darauf besteht man müsse AC bei Maxwell nur im Treiber "freischalten", sol lange muss sich Nvidia dies halt gefallen lassen.
Wie war das nochmal? Suppe, selbst eingebrockt, auslöffeln ...

dildo4u
2016-10-07, 11:18:16
Beziehst du dich auf den Twitter Post von vor einem Jahr?Die Sache ist gegessen und es ist jetzt offensichtlich auch bei den Entwicklern angekommen.

Der 980 TI zerstört trotzdem AMD Fury X also kein Grund ein dicken Hals zu bekommen.

http://abload.de/img/geard4jqsf2.png

Troyan
2016-10-07, 11:18:40
Solange Nvidia weiterhin darauf besteht man müsse AC bei Maxwell nur im Treiber "freischalten", sol lange muss sich Nvidia dies halt gefallen lassen.
Wie war das nochmal? Suppe, selbst eingebrockt, auslöffeln ...

Muss an mir vorbei gegangen sein, dass DX12 von nVidia entwickelt worden ist. :freak:

AC ist Software. Hardwaretechnisch hat niemand eine Idee, wie es implementiert ist. Macht also null Sinn einem Hersteller vorzuwerfen, es wäre nur per Software "aktiviert", wenn AC aus Entwicklersicht immer nur Software ist.

HOT
2016-10-07, 12:08:16
Maxwell kann es nicht sinnvoll nutzen, von daher ist das "freischalten" eine Utopie. Da wird NV sicher auch keine Klimmzüge mehr wegen einer alten Generation unternehmen, das macht einfach keinen Sinn.
Das PCGH-Fazit ist jetzt, nachdem das eigentliche UWP-Problem isoliert wurde und vor allem Reviewer betrifft (normal verwenden Leute die native Displayauflösung ja), ist das Fazit ja sehr positiv geworden und GoW ist das erste DX12-Spiel, das durchgängig von DX12-Features nicht unerheblich profitiert. Interessant wär jetzt nur noch gewesen, welche FL GoW verwendet.

dargo
2016-10-07, 12:08:48
Der 980 TI zerstört trotzdem AMD Fury X also kein Grund ein dicken Hals zu bekommen.

http://abload.de/img/geard4jqsf2.png
Ja... die Fury X wird voll von der 980TI zerstört.
57626

Birdman
2016-10-07, 12:24:43
Ja... die Fury X wird voll von der 980TI zerstört.
57626
Tja, wem glaubt man nun?
Die FuryX ist bei CB auch 50% schneller als die 390, bei PCGH sind es "nur" 25% Vorsprung.

Die ganzen Benchmarks könnten also unterschiedlicher nicht sein, ich habe mich bisher aber noch nicht daran gemacht, die Ursachen zu ergründen. (gehe aber wegen der ganzen UWP Geschichte und den Dingen die man beim benchmarken beachten muss, eher davon aus dass es bei CB schief läuft)

dargo
2016-10-07, 12:27:23
Ich wollte damit nur aufzeigen, dass es nicht die 980TI gibt. :wink: Die bei PCGH ist stark übertaktet während CB die Referenz verwendet. Zudem kann es natürlich je nach Testszene auch zu kleineren Abweichungen/Verschiebungen kommen.

PS: die PCGH nimmt nur 1080p. Ein Fiji braucht natürlich auch eine höhere Pixellast.

Schnoesel
2016-10-07, 12:43:56
gehe aber wegen der ganzen UWP Geschichte und den Dingen die man beim benchmarken beachten muss, eher davon aus dass es bei CB schief läuft

Die Erklärung dazu würde mich jetzt mal stark interessieren. War es nicht so dass CB von vornherein mit nativer Auflösung getestet hat?

Bei PCGH profitiert die 390 ziemlich heftig bei den min FPS mit Async ON (15%). Mich würde mal interessieren wie das alles zusammenhängt, wie stark eine Karte davon profitiert. Eine andere Auflösung mit dem Async Test wäre in diesem Zusammenhang auch wünschenswert.

iuno
2016-10-07, 13:07:12
Tja, wem glaubt man nun?
Die FuryX ist bei CB auch 50% schneller als die 390, bei PCGH sind es "nur" 25% Vorsprung.
andere Settings, allen voran FHD vs. WQHD, also ziemlich normales Verhalten.

HOT
2016-10-07, 13:37:05
Tja, wem glaubt man nun?
Die FuryX ist bei CB auch 50% schneller als die 390, bei PCGH sind es "nur" 25% Vorsprung.

Die ganzen Benchmarks könnten also unterschiedlicher nicht sein, ich habe mich bisher aber noch nicht daran gemacht, die Ursachen zu ergründen. (gehe aber wegen der ganzen UWP Geschichte und den Dingen die man beim benchmarken beachten muss, eher davon aus dass es bei CB schief läuft)
CB hat das Spiel eben so eingestellt, dass der Speicher reicht, beim PCGH Bench reicht der Speicher offensichtlich nicht aus, schreiben die ja auch dabei.

Schnoesel
2016-10-07, 13:51:19
Bei CB wurde nur in 4K High Preset benutzt ansonsten Ultra Preset:

https://www.computerbase.de/2016-10/gears-of-war-4-benchmark/2/

Und für 1080p reichen die 4GB wohl:

"Gears of War 4 belegt ordentlich, aber nicht übertrieben viel Grafikkartenspeicher. Mit dem Ultra-Preset und damit der höchsten Detailstufe werden in 1.920 × 1.080 etwa 4,3 Gigabyte Speicher belegt. In der Tat geraten 2-GB-Grafikkarten auch in spürbare Schwierigkeiten, während 4-GB-Modelle dies problemlos schaffen. In 2.560 × 1.440 steigt der Verbrauch auf 4,6 Gigabyte an, in 3.840 × 2.160 sind es 5,2 Gigabyte."

https://www.computerbase.de/2016-10/gears-of-war-4-benchmark/

Zu den anderen Auflösungen sagen sie leider nichts.

Pirx
2016-10-07, 13:56:39
Bei langsamen CPUs verlieren Radeon-Grafikkarten weniger Leistung

Auch die AMD-Karten verlieren an FPS, aber deutlich weniger. Bei der Radeon R9 Fury X betragen die Verluste selbst auf der Radeon R9 Fury nur acht Prozent und auf der Radeon RX 480 sieben Prozent.

https://www.computerbase.de/2016-10/gears-of-war-4-benchmark/3/#diagramm-gears-of-war-4-auf-dem-fx-8370-2560-1440

Was nun, dildo4u?

d2kx
2016-10-07, 14:11:17
Deus Ex: Mankind Divided Patch build 582.1

Official release of DirectX 12 support in Deus Ex: Mankind Divided:
Added support for DirectX 12.
You can toggle DirectX 12 from either the launcher window or from the Display options within the game.
Note that DirectX 12 requires a restart of the game if (de-)activated from within a running game session. (WARNING: Using the DirectX 12 API can offer better performance on some systems, however, it will not be beneficial on all. If you encounter problems with DirectX 12, we recommend turning it off again. There are no visual or gameplay differences between the two DirectX versions.)
Multi-GPU Note: Currently we only support Single GPU on DirectX 12, see below for more details about Multi-GPU.

DirectX 12 Multi-GPU support in Deus Ex: Mankind Divided:
DirectX 12 Multi-GPU support is being released as a preview through the dx12_mgpu_preview branch on steam.
We feel that it is in a state where we can release it to you, but we are aware that some systems might still experience issues.
Please let us know when you are experiencing issues.

To activate Multi-GPU DirectX 12 you are required to do the following:
Within your Steam Library, right-click on Deus Ex: Mankind Divided.
Select ‘properties’ from the context menu and navigate to the Beta tab.
From the dropdown menu, select dx12_mgpu_preview then close the window.

Known Multi-GPU DirectX 12 issue:
Some systems may experience some graphical corruption.

captain_drink
2016-10-07, 14:12:11
Fury X (wie alle anderen 4 GB-Karten) zeigt unabhängig von der Einstellung keine Ultratexturen (siehe Performanceguide der Entwickler), daher sind die Ergebnisse auch nicht vollständig mit Karten mit >4 GB vergleichbar.
Auch die Angaben zur Speicherbelegung stehen bei Karten mit geringerem VRAM unter dem Caveat, dass nicht das dargestellt wird, was eingestellt wurde.

dargo
2016-10-07, 15:15:42
Deus Ex: Mankind Divided Patch build 582.1

Endlich tut sich was bei DX12. Zwar schleppend, aber eine Verbesserung ist zu verzeichnen.
57627

Den zweiten und vierten Spike habe ich als einen Minizuckler gemerkt, trotz Freesync. Den Rest empfand ich als absolut gleichmäßig.

dildo4u
2016-10-07, 15:37:30
Was benchst du da den Benchmark oder das Game?In den Hubwelten gibt's bei mir noch massive Probleme.


http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11177633&postcount=716

dargo
2016-10-07, 16:36:22
Benchmark. Solange die Frametimes dort nicht sauber sind interessiert mich der Rest vom Game erstmal nicht die Bohne.

Ex3cut3r
2016-10-07, 18:47:22
Naja das erscheint mir aber nicht sehr schlüssig? Spielt du den Benchmark?

iuno
2016-10-07, 18:51:04
Mir schon, beim Benchmark wird vielleicht noch mehr seitens der Entwickler getweakt. Wenn es da schon nicht laeuft, kann man das Spiel idR. vergessen.

Ex3cut3r
2016-10-07, 18:54:38
Sehe ich nicht so, die Benchmarks von Games spiegeln doch fast nie die Performance im richtigen Gameplay da. Dann sollte PCGH und Co auch in Zukunft einfach die Ingame Benchmarks verwenden, tuhen sie aber nicht. Das beste beispiel dafür, war doch der GTA 4 Benchmark. :D

dargo
2016-10-07, 19:32:45
Naja das erscheint mir aber nicht sehr schlüssig? Spielt du den Benchmark?
Nein, aber ich sehe im direkten Vergleich die Frametimes von DX11.
57630

dildo4u
2016-10-07, 19:57:16
Ich frag mich warum das jetzt nicht mehr Beta ist wenn selbst die 390 nicht perfekt läuft.Vielleicht rennt es mit Polaris müsste man mal testen.

dargo
2016-10-07, 19:59:17
Och... hast du dich das gleiche schon mal bei Forza 6: APEX gefragt? Oder Hitman? :tongue:

Edit:
Hmm... beim zweiten Durchlauf ist DX12 einiges besser. :uponder:
57631

Vielleicht war es doch ein Fehler den ersten Durchlauf auszuwerten. Im zweiten Durchlauf sind zwar noch kleine Spikes vorhanden, die hatte ich aber nicht als solche am Monitor wahrgenommen. Diese Intensität wird wohl ganz gut durch Freesync "geglättet". Bei DX11 war übrigens der erste Durchlauf auch für den Popo. Wesentlich stärkere Spikes während der zweite Durchlauf perfekt verlief.

dildo4u
2016-10-07, 23:57:59
How NVIDIA Helped Develop the DX12 “Gears of War 4”

https://blogs.nvidia.com/blog/2016/10/07/dx12-gears-of-war-4/

Hoffentlich hatten sie auch Leute bei Dice.

Kartenlehrling
2016-10-08, 00:12:23
Noch vor drei Seiten im GoW4 Thread hast du behaupte das Nvidia nichts am Spiel gedreht hat,
wobei ich jetzt 5 Wochen nicht wirklich viel nennen würde.

Ausser natürlich alle 300 Nvidia Berater haben 5 wochen an GoW4 gearbeite.

Hübie
2016-10-08, 00:19:21
Ich wollte damit nur aufzeigen, dass es nicht die 980TI gibt. :wink: Die bei PCGH ist stark übertaktet während CB die Referenz verwendet. Zudem kann es natürlich je nach Testszene auch zu kleineren Abweichungen/Verschiebungen kommen.

PS: die PCGH nimmt nur 1080p. Ein Fiji braucht natürlich auch eine höhere Pixellast.

Fixed that for you, buddy. Zeig mir ne Ti die den Takt von der PCGH-Karte nicht packt. Dann kauf ich dir nen Keks.

dargo
2016-10-08, 08:29:50
How NVIDIA Helped Develop the DX12 “Gears of War 4”

https://blogs.nvidia.com/blog/2016/10/07/dx12-gears-of-war-4/

Heißt das im Umkehrschluss bei Quantum Break hatte Nvidia keinen Bock?

@Hübie
Hier sind die ganzen 980TIs mit entsprechenden Taktraten.
http://geizhals.de/?cat=gra16_512&xf=9810_5+5632+-+GTX+980+Ti#xf_top

Vielleicht wirds so klarer worum es mir ging.

4Fighting
2016-10-08, 08:36:09
Heißt das im Umkehrschluss bei Quantum Break hatte Nvidia keinen Bock?


Als ob es darum geht "Bock" auf etwas zu haben.

GoW wird als Gratis-Spiel nv-Karten beigelegt. Da ist es nicht verwunderlich, dass man etwas mehr macht als nur ein Spiel beizulegen.

Das heißt natürlich nicht, dass das Endergebnis immer gut sein muss (WD, AC:U):freak:

dildo4u
2016-10-08, 10:40:45
Heißt das im Umkehrschluss bei Quantum Break hatte Nvidia keinen Bock?

.
Warum sollte NV Quautum Break jucken die Engine wird vermutlich in den Müll geschmissen.UE4 wird wieder herrschen und ist ideal auf Nvidia GPU's angepasst.