Archiv verlassen und diese Seite im Standarddesign anzeigen : DirectX 12 Grafik-API
Bucklew
2018-08-03, 14:57:20
Ach...und was meinst du warum geben sie sich den Aufwand mit DX12 sonst?!
Eigentlich fiele mir nur "Erfahrung sammeln" als Punkt ein. Für NVIDIA ist DX11 klar die bessere Schnittstelle (~ +20% mehr Leistung) und für AMD bietet DX12 auch keinerlei Vorteile.
Du kannst Dich auch nicht entscheiden, oder? Ist DX12 jetzt (meinetwegen auch nur auf WoW bezogen) eventuell die API der Zukunft
Die Frage könntest du dir selbst beantworten, wenn du mal richtig gelesen hättest, was ich geschrieben habe ;)
Blizzard hat schon immer Gameplay über Grafik gestellt und deswegen rocken die auch so dermaßen.
Völlig richtig. Die Frage ist halt, wie viele Designentscheidungen, teilweise 10, 15 oder gar 20 Jahre alt, heute ein Problem da stellen und ab wann es sich lohnt da mal über ein WoW2 nachzudenken, als am alten Design weiter zu entwickeln. Wie alt ist WoW jetzt nochmal von der Basis her? Fast 15 Jahre?
Gipsel
2018-08-03, 15:11:02
Die Frage könntest du dir selbst beantworten, wenn du mal richtig gelesen hättest, was ich geschrieben habe ;)
Hatte ich doch schon ganz am Anfang, Du stimmst These b (der Originalversion mit Klammer) zu. Aber irgendwie gefiel Dir das ja nicht. Mir langsam auch egal. ¯\_(ツ)_/¯
Bucklew
2018-08-03, 15:15:36
Hatte ich doch schon ganz am Anfang, Du stimmst These b
Ist nur leider irrelevant, weil es nicht darum geht, welcher These wir zustimmen, sondern was Blizzard aussagt. Und Blizzard spricht sicherlich nicht ohne Grund von "Optimierungen". Ob diese Optimierungen jemals ausreichend sind, um die 20% Performance-Vorsprung von DX11 bei NVIDIA aufzuholen - das weiß nicht mal Blizzard aktuell.
Gipsel
2018-08-03, 15:22:11
Ist nur leider irrelevant, weil es nicht darum geht, welcher These wir zustimmen, sondern was Blizzard aussagt. Und Blizzard spricht sicherlich nicht ohne Grund von "Optimierungen". Ob diese Optimierungen jemals ausreichend sind, um die 20% Performance-Vorsprung von DX11 bei NVIDIA aufzuholen - das weiß nicht mal Blizzard aktuell.
Sie halten es offensichtlich für gut möglich, weswegen das eine valide These zu Blizzards Statements ist. Dies schienst Du anfänglich zu bezweifeln. Jetzt ja offenbar nicht mehr. Und wie andere schon sagten, Blizzard investiert den Aufwand sicher nicht nur aus Jux und Dallerei. Und allgemein schlägst Du ja sogar selber vor, daß zukünftig eventuell ein "WoW 2" mit rundum erneuerter DX12 Engine kommt (könnte man aber auch mit kontinuierlichen Updates erreichen).
Mehr gibt es dazu nicht zu sagen.
][immy
2018-08-03, 15:29:35
Völlig richtig. Die Frage ist halt, wie viele Designentscheidungen, teilweise 10, 15 oder gar 20 Jahre alt, heute ein Problem da stellen und ab wann es sich lohnt da mal über ein WoW2 nachzudenken, als am alten Design weiter zu entwickeln. Wie alt ist WoW jetzt nochmal von der Basis her? Fast 15 Jahre?
Ein WoW 2 wird nicht passieren. Das RPG wird so lange laufen wie es Abonnenten gibt. Eventuell stellt blizzard auch irgendwann auf F2P um, aber das wird noch ne ecke lohnen. Wow hat noch einige Millionen Abonnenten wovon andere RPGs nur träumen können. Ein Teil 2 würde nur dafür sorgen, das man die Community splittet und das Risiko bergen das es total schief geht.
Bei Addons ist das wesentlich einfacher. Auch wenn die Welt immer Größer wird, ist das kaum ein Problem. Man sieht zwar einen deutlichen Unterschied zwischen alter und Neuer Welt (wobei viele ja mit den Addons hochgezogen wurde) aber trotzdem ist das Risiko einfach viel geringer bei WoW zu bleiben.
Und man hat ja auch schon so einige Mechaniken eingeführt die andere Spiele erst mit einem Nachfolger raus bringen.
Eher wird WoW irgendwann komplett abgeschaltet als das es einen Nachfolger gibt. Das dürfte aber noch laaaange dauern.
Zu DX12. WoW ist nicht Blizzards einzige Spiel, soweit ich aber noch weiß Benutzen die intern aber mehr oder minder nur eine Engine. D.h. die Erfahrung die sie mit der neueren API machen fließt "einfach" in alle nachfolgenden Projekte mit ein. Für die lohnt sich diese Entwicklung schon.
DX12/Vulkan sind nun mal die Zukunft. Viele Entwickler wollten auch eine dünnere API zugunsten einer direkteren Kontrolle. Natürlich wird dadurch einiges Komplizierter, aber einiges auch einfach erst möglich.
Bei DX11 (und Vorgängern) limitiert früher oder später einfach die CPU mit ihrer Single-Thread Leistung, da ist einfach irgendwann ein Punkt erreicht ab dem mehr einfach nicht mehr geht.
DX12 und Vulkan lösen das Problem dahingehend. Zudem setzen auch immer mehr Spiele auf bestands-Engines, daher spielt es für die meisten Entwickler nicht mal eine wirkliche Rolle ob DX11/OpenGL oder DX12/Vulkan.
nvidia wird ebenfalls ihre Zukünftige Hardware darauf ausrichten. Es ist ja nicht so als wären sie unter DX12 wirklich langsam oder so. Sie sind aktuell halt nur unter DX11 (mit dem aktuellen Stand von WoW) etwas schneller.
Erfahrungsgemäß hat nvidia ihre Hardware in den letzten 10 Jahren mehr auf die Gegenwart ausgerichtet und nicht auf die Zukunft, da sie ziemlich genau wissen, das ein Kunde der heute eine 1080er Kauft garantiert in den nächsten 2 Jahren wieder eine High-End Karte kauft und es für den Käufer eigentlich keinen Unterschied macht ob die Karte zukunftstauglich ist oder nicht.
Sah man ja schön an der ersten Titan, die dann doch ziemlich schnell veraltet waren.
Aber so ist das in dem Geschäft nun mal, die sehen in ihrer Glaskugel auch nicht was sich durchsetzt und was nicht.
Mit der heutigen Gen werden noch einige User meckern das DX12 unterstützt wird und AMD dadurch eventuell, aktuell Vorteile haben könnte und sobald eine neue Gen kommt meckern sie, warum denn ein Spiel noch DX11 nutzt und die neue Hardware sich langeweilt.
Bin auf jeden Fall mal gespannt ob blizzard DX12 nun auch breitflächiger einsetzen wird. Die Integrierten GPUs werden es ihnen danken (denn die profitieren scheinbar am stärksten).
Bucklew
2018-08-03, 15:30:45
Sie halten es offensichtlich für gut möglich, weswegen das eine valide These zu Blizzards Statements ist.
Für genauso gut möglich, wie dass auch in Zukunft DX11 der Standard bleibt.
Deshalb ist deine These auch einfach nur Trolling, weil sie genauso gut (bzw. schlecht) vom Blizzard Statement abgedeckt wird, wie wenn du das DX12 durch DX11 ersetzt.
Keine Ahnung, was du dir von sowas erwartest. Hauptsache Troyan einen rein gewürgt? :rolleyes:
[immy;11760058']nvidia wird ebenfalls ihre Zukünftige Hardware darauf ausrichten. Es ist ja nicht so als wären sie unter DX12 wirklich langsam oder so. Sie sind aktuell halt nur unter DX11 (mit dem aktuellen Stand von WoW) etwas schneller.
Ich denke nicht, dass NVIDIA da zukünftig ihre Hardware mehr ausrichten müsste. Das "Problem" wird einfach sein, dass DX11 bei NVIDIA so gut optimiert ist, dass der Vorsprung von DX12 sehr gering ist bzw. sich nur unter gewissen, seltenen Umständen zeigt. Wobei auch der DX12-Vorteil bei AMD relativ gering ist (bei WoW).
Gipsel
2018-08-03, 15:44:17
@Bucklew: Noch irgendwas Sachliches, was Du gegen die (nach Deiner Aussage ja durchaus valide) Möglichkeit, die sich aus Blizzards Statement ergibt, einwenden kannst? Vermutlich nicht. Und Deine Projektion kannst Du auch stecken lassen.
Und daß eine in den Raum gestellte These Trolling sei, nur "weil sie genauso gut (bzw. schlecht) vom Blizzard Statement abgedeckt wird" wie eine andere These (für die von mir dargestellte gibt es aber darüber hinaus gehende Evidenz ;)), ist eine eigenartige Interpretation. Vielleicht wollte ich ja nur zur Diskussion stellen, ob diese These (mindestens) genau so gut sei, wie die zuerst präsentierte? Egal, laß mal gut sein.
Locuza
2018-08-03, 15:45:21
[1] Dass DX12 mitnichten ein Selbstläufer ist und DX11 längst nicht so schlecht, wie es gern gemacht wird.
20% Vorsprung der GTX1080 unter DX11 gegenüber der Vega64 unter DX12 ist schon ein Wort.
[...]
[2] Vielleicht entscheidet der "Rest der Welt", dass sie es selbst mit LL, egal ob DX12 oder Vulkan, es nicht besser hinkriegen?
1. Weil Blizzard als Leading-Edge Studio bezüglich der Technik gilt und WoW + Engine ebenso ein Musterbeispiel für einen neuen Renderpfad darstellen?
2. Selbst wenn das der Fall ist, wenn der Rest der Welt einen Anteil am Markt genießt und bezogen auf sich selber profitiert, dann müssen sie auch nicht Nvidias Performance @DX11 schlagen.
Deswegen bezahlbarer DLC: AMD kümmert sich nicht um einen besseren DX11 Treiber für ihre Kundschaft? Kein Problem, für 10€ übernehmen wir mit DX12 die Aufgabe.
Warum sollten 80% der Kundschaft für das Nichtunterstützen des Herstellers der restlichen 20% aufkommen? Gleichzeitig ist ja der Aufwand immens den DX11 Treiber der 80% Kundschaft überhaupt gleichwertig zu ersetzen...
Es kommt nicht von ungefähr her, dass DX12 so gut wie tot ist. Bis auf gesponserte AAA Spiele, fasst es niemand an. Der Nutzen von DX12 tangiert gegen Null. Vielleicht ändert es sich in 3-5 Jahren nachdem die Konsolen erneuert werden. Bis dahin kann Microsoft sich überlegen das ganze unter DX13 zu rebranden.
Nice, Doom hätte am Besten auch die Nvidia-Optimierungen als 1€ DLC verkaufen sollen, weil Nvidia eklige Hardware-Limits bei der Verwaltung von Konstanten hat und id Software deswegen ihre Buffer als UBOs fragmentieren musste (Seite 25), wieso sollten andere Käufer dafür aufkommen am I right?
http://advances.realtimerendering.com/s2016/Siggraph2016_idTech6.pdf
Und der Vorschlag von DinosaurusRex gefällt mir auch sehr gut, wer guten Multi-Core-Support haben will sollte sich so etwas als extra DLC für 10€ kaufen, wieso sollte sich ein Entwickler allgemein die Mühe machen das sein Produkt auf einer breiten Hardwarebasis gut läuft, wenn jeder Hardwarehersteller sich darum kümmern könnten die IPC und den Takt hochzuschrauben, auch wenn dadurch die potentielle Performance deutlich geringer ausfällt.
Es ist aber wohl doch ganz schick, dass Sniper Elite 4 den DX12-Pfad nicht als DLC verkauft hat:
https://abload.de/img/se43dc1i.jpg
http://www.pcgameshardware.de/Sniper-Elite-4-Spiel-56795/Tests/Direct-X-12-Benchmark-1220545/
Denn der DX11 Treiber bei Nvidia ist schon ziemlich mies, besonders bei Kepler.
12% schlechtere Min-FPS? WTF?
Es gilt doch schließlich die Logik, dass wenn der DX11 Pfad geschlagen wird, der DX11 Treiber sucked. ;)
Ja. Blizzard hat massivst gegen Win10 gewettert.[...]
Valve und Tim Sweeney von EPIC, von Blizzard ist mir nichts bekannt.
dargo
2018-08-03, 15:56:46
Valve und Tim Sweeney von EPIC, von Blizzard ist mir nichts bekannt.
War das überhaupt allgemein gegen Windows 10 oder eher UWP?
Locuza
2018-08-03, 16:01:16
Effektiv nur gegen UWP und den MS-Store.
Was schon mit W8 begonnen hat, die Sorge vor einem MS-Store und Metro/UWP-Apps, die irgendwann als verpflichtend gelten könnten oder wo schon aktuell keine Möglichkeit besteht entsprechende Apps zu entwickeln und auf der eigenen Plattform zu verkaufen, ohne MS 30% der Umsätze abzudrücken.
Savay
2018-08-03, 16:05:23
und für AMD bietet DX12 auch keinerlei Vorteile.
Dass das CPU Limit auf AMD Hardware im Worst-Case mal getrost 50-100% höher liegt als zuvor, ohne das es im GPU Limit tatsächlich nennenswert schlechter wird und MSAA schneller läuft als unter DX11, ist nicht Vorteil genug ?! :facepalm:
Wenn das alles in Summe kein "Gewinn" ist, was dann?! :tongue:
BTW den Computerbase Test kannst du dazu knicken...die haben offensichtlich das Kunststück vollbracht eine vorwiegend GPU limitierte Testsequenz aufzutreiben und Grütze zurechtzubenchen die effektiv gar nicht in der Lage ist den tatsächlichen Gewinn darzustellen! ;D
Wie gesagt...bei Varimathras sind die FPS von 7.x@DX11 nach 8.x@DX12 mal eben auf meiner AMD Hardware von rund 25-35FPS auf 55-60+FPS hochgeschnellt. Das übrigens mit Detailstufe 7 statt wie zuvor 5...wobei es unter DX11 bis dato eh egal war ob 1 oder 10...es lief immer gleich übel.
Mit dem "tollen" nV DX11 Treiber sah es unter 7.x übrigens in dem Fall auch nicht wirklich viel anders aus...
Aber das ist halt das Problem eines MMO: die wirklich interessanten Bottlenecks (nämlich die in Raids und Instanzen!!) misst keiner mal tatsächlich aus, da es kaum 100% reproduzierbar bzw. es eh ein riesen Zeitaufwand wäre, den man als Publikation für sowas nunmal kaum aufbringen könnte.
DinosaurusRex
2018-08-03, 17:39:19
BTW den Computerbase Test kannst du dazu knicken
https://i.imgur.com/hKeHqvC.jpg
Valve und Tim Sweeney von EPIC, von Blizzard ist mir nichts bekannt.
Also da musst du mir schon vertrauen. Ich bin zu betrunken, um das jetzt raus zu suchen
Locuza
2018-08-03, 18:53:57
[...]
Also da musst du mir schon vertrauen. Ich bin zu betrunken, um das jetzt raus zu suchen
Der zweite Satz erschwert mir das Vertrauen. :freak:
In einem früheren Thread warst du angeblich auch schon zu betrunken, falls das ein Dauerzustand ist glaube ich da lieber erst einmal Google und das spuckt mir pauschal nichts zu Blizzards Anti-W10/MS-Haltung aus.
DinosaurusRex
2018-08-03, 19:41:05
Ich hab trotz meines grenzwertigen Alkohol- und Drogenkonsums ein sehr gutes Gedächtnis. Keine Ahnung warum. Mein Gehirn funktioniert einfach so. Wenn du wirklich darauf bestehst, dann such ich dir das auch raus.
IchoTolot
2018-08-03, 19:44:10
Und der Vorschlag von DinosaurusRex gefällt mir auch sehr gut, wer guten Multi-Core-Support haben will sollte sich so etwas als extra DLC für 10€ kaufen, wieso sollte sich ein Entwickler allgemein die Mühe machen das sein Produkt auf einer breiten Hardwarebasis gut läuft, wenn jeder Hardwarehersteller sich darum kümmern könnten die IPC und den Takt hochzuschrauben, auch wenn dadurch die potentielle Performance deutlich geringer ausfällt.
Wie soll das denn gehen?
Und dass eben kein Entwickler groß Lust hat sich mit DX12 noch selber zu quälen sieht man ja daran, dass DX11 durch die Bank eigentlich immer besser läuft.
Ex3cut3r
2018-08-03, 19:53:08
Es taugt schon etwas im CPU Limit für ROTTR, Sniper Elite 4, Hitman 2016...mehr fällt mir grade nicht ein. :freak:
Also eine Handvoll wenns hoch kommt, seit 2015 (Windows 10 rls.)
Das ist imo schon erschenkend, Negativ bespiel wäre BF1, da gibt es alle paar Minuten einen großen Spike und die FPS sind im GPU Limit sogar niedriger als mit DX11, was übrigens oft der Fall ist, scheint wohl ein große Schwäche der APi langsamer im GPU Limit als DX11 zu sein.
Dazu gibt dann solche dämlichen Beschränkungen von DX12 wie kein Exclusiver Fullscreen usw. Krawall kann dir davon ein Lied von singen.
Locuza
2018-08-03, 20:38:58
Ich hab trotz meines grenzwertigen Alkohol- und Drogenkonsums ein sehr gutes Gedächtnis. Keine Ahnung warum. Mein Gehirn funktioniert einfach so. Wenn du wirklich darauf bestehst, dann such ich dir das auch raus.
Ja, bitte.
Denn das ergibt nicht soviel Sinn:
"Ja. Blizzard hat massivst gegen Win10 gewettert.
---
Erklärung:
Blizzard hat extrem auf Microsoft geschimpft aber letztendlich hat der neue Client doch DX12 bekommen. "
W10 ist unabhängig von DX12 und von welchem Standpunkt aus hat Blizzard gegen MS geschossen?
Wie soll das denn gehen?
Und dass eben kein Entwickler groß Lust hat sich mit DX12 noch selber zu quälen sieht man ja daran, dass DX11 durch die Bank eigentlich immer besser läuft.
Das trifft auf AMD nicht zu und auch nicht durch die Bank auf Nvidia oder Intel, mehrere Spiele gewinnen bei Nvidia im CPU-Limit und bisher hat es immerhin Rebellion mit SE4 geschafft DX11 im GPU-Limit zu schlagen.
Zu Intel gibt es leider weniger Vergleiche, aber WoW schafft dort bessere FPS unter DX12.
PS: Das mit dem Multi-Core Support als DLC war nur als unsinnige Antwort auf einen unsinnigen Beitrag gedacht.
Es taugt schon etwas im CPU Limit für ROTTR, Sniper Elite 4, Hitman 2016...mehr fällt mir grade nicht ein. :freak:
[...]
SE4 ist auch im GPU-Limit mit DX12 auf einer Nvidia GPU schneller, als mit DX11.
Es taugt im CPU-Bereich auch unter Ashes of the Singularity (GPU Frametimes sind auch besser mit AC off) und The Division 2 für Nvidia:
https://www.computerbase.de/2016-02/ashes-of-the-singularity-directx-12-amd-nvidia/5/
https://www.computerbase.de/2016-12/the-division-dx12-benchmark/#diagramm-the-division-mit-directx-12-1920-1080
Troyan
2018-08-03, 20:42:30
Nice, Doom hätte am Besten auch die Nvidia-Optimierungen als 1€ DLC verkaufen sollen, weil Nvidia eklige Hardware-Limits bei der Verwaltung von Konstanten hat und id Software deswegen ihre Buffer als UBOs fragmentieren musste (Seite 25), wieso sollten andere Käufer dafür aufkommen am I right?
http://advances.realtimerendering.com/s2016/Siggraph2016_idTech6.pdf
Man hätte ja auch auf nVidia-Hardware entwickeln können. Oh wait, das hat id ja schon ausgeschlossen. Achja, war das nicht das Spiel, dass sich nur dank nVidias überlegenden OpenGL Treiber überhaupt am Start verkauft hat? :rolleyes:
Und Hardwarelimits != Softwarelimit. DX12 verursacht ein Softwarelimit.
Und der Vorschlag von DinosaurusRex gefällt mir auch sehr gut, wer guten Multi-Core-Support haben will sollte sich so etwas als extra DLC für 10€ kaufen, wieso sollte sich ein Entwickler allgemein die Mühe machen das sein Produkt auf einer breiten Hardwarebasis gut läuft, wenn jeder Hardwarehersteller sich darum kümmern könnten die IPC und den Takt hochzuschrauben, auch wenn dadurch die potentielle Performance deutlich geringer ausfällt.
Notwendigkeit != Freiwilligkeit. Multicoresupport wird benötigt. DX12 ist in vielen Fällen unnötig wie ein Kropf. Und in einigen Fällen bietet es im Gegensatz zu DX11 nichtmal "guten Multi-Core-Support".
Es ist aber wohl doch ganz schick, dass Sniper Elite 4 den DX12-Pfad nicht als DLC verkauft hat:
https://abload.de/img/se43dc1i.jpg
http://www.pcgameshardware.de/Sniper-Elite-4-Spiel-56795/Tests/Direct-X-12-Benchmark-1220545/
Denn der DX11 Treiber bei Nvidia ist schon ziemlich mies, besonders bei Kepler.
12% schlechtere Min-FPS? WTF?
Es gilt doch schließlich die Logik, dass wenn der DX11 Pfad geschlagen wird, der DX11 Treiber sucked. ;)
Ja. Sehe ich kein Problem drin. Dann hätten die Entwickler nämlich noch einen gewissen Druck den veröffentlichen DX12 Pfad auch nach der Veröffentlichung zu pflegen - hallo Deux Ex mit deinen 33% Leistungsverlust im CPU-Limit.
Locuza
2018-08-03, 20:56:55
Man hätte ja auch auf nVidia-Hardware entwickeln können. Oh wait, das hat id ja schon ausgeschlossen. Achja, war das nicht das Spiel, dass sich nur dank nVidias überlegenden OpenGL Treiber überhaupt am Start verkauft hat? :rolleyes:
Und Hardwarelimits != Softwarelimit. DX12 verursacht ein Softwarelimit.
Dann hat id Software wohl im Vakuum für Nvidia optimiert und profiled.
Und es ist ein 64KB Hardware-Limit bei Nvidia, gehst du darüber hinaus ist es kein Fast-Path mehr auf der Hardware und du darfst mit Performanceeinbußen leben.
Notwendigkeit != Freiwilligkeit. Multicoresupport wird benötigt. DX12 ist in vielen Fällen unnötig wie ein Kropf. Und in einigen Fällen bietet es im Gegensatz zu DX11 nichtmal "guten Multi-Core-Support".
Multicoresupport ist prinzipiell auch freiwillig.
Und in den Fällen wo DX12 gar im CPU-Limit verliert hat der Entwickler nicht sauber gearbeitet oder die ganze DX12-API Implementierung primär als Lernprojekt verwendet.
Macht es deswegen die API pauschal für jeden und auf alle Ewigkeit unnötig?
Wie unnötig wird in Zukunft eig. DX12 für DXR und die tollen Raytracing Demos von Nvidia sein, die auf das neue State/Binding-Model von DX12 aufsetzen bzw. es praktisch voraussetzen?
Ja. Sehe ich kein Problem drin. Dann hätten die Entwickler nämlich noch einen gewissen Druck den veröffentlichen DX12 Pfad auch nach der Veröffentlichung zu Pflegen - hallo Deux Ex mit deinen 33% Leistungsverlust im CPU-Limit.
War weder zum Launch von SE4 nötig und auch nicht bei Rise of the Tomb Raider und Deus EX, die beide mehrere Patches für DX12 im Nachhinein bekommen haben, auch Ashes of the Singularity, Warhammer und Hitman haben im Nachhinein Patches nach der ersten Veröffentlichung bekommen.
Deus Ex als Beispiel:
https://www.computerbase.de/2016-10/deus-ex-dx12-final-benchmark/
Unter 720p hat Nixxes es von -24% bei einer 1060GTX auf immerhin nur noch -2% geschafft.
Die RX480 ist von -29% auf +8% gekommen.
Ex3cut3r
2018-08-03, 21:19:18
SE4 ist auch im GPU-Limit mit DX12 auf einer Nvidia GPU schneller, als mit DX11.
Es taugt im CPU-Bereich auch unter Ashes of the Singularity (GPU Frametimes sind auch besser mit AC off) und The Division 2 für Nvidia:
https://www.computerbase.de/2016-02/ashes-of-the-singularity-directx-12-amd-nvidia/5/
https://www.computerbase.de/2016-12/the-division-dx12-benchmark/#diagramm-the-division-mit-directx-12-1920-1080
Ok, Ashes noch, habe ich vergessen, bei Ashes stelle mir aber die Frage, spielt das auch jemand oder wird das nur gebencht? :biggrin:
Locuza
2018-08-03, 21:43:08
Ok, Ashes noch, habe ich vergessen, bei Ashes stelle mir aber die Frage, spielt das auch jemand oder wird das nur gebencht? :biggrin:
Es ist ein relativ Low-Budget RTS mit Langzeitsupport was Content- und Technik-Patches angeht.
Aber es ist interessant von der Technik her, die Nitrous-Engine ist relativ neu und die DX12-Implementierung war einer der ersten und fällt bis Heute im Vergleich zu anderen Studios und Spielen gut aus.
Der nächste Schritt ist Nitrous 2, es gibt ein angekündigtes Spiel damit, leider nur VR only und gänzlich ohne DX11-Support.
Not Enough Bullet heißt das Spiel, aber es gibt kein Release-Termin oder überhaupt brauchbares Material dazu.
Indem Fall ist es etwas traurig, dass da kein "gescheiter" Spieleoutput mit der Engine rauskommt.
Aber man kann sich in der Zukunft Claybook anschauen, The Division 2, Metro Exodus und Resident Evil 2, alle mit DX12 Support.
Es wird in Zukunft auch schwerer werden DX11/OGL und DX12/Vulkan miteinander zu vergleichen, weil einige Studios DX11/OGL rausschmeißen oder von Anfang an nicht darauf setzen.
Gears of War ist DX12 only, ebenso die Forza Spiele, so auch Halo Wars und sehr wahrscheinlich das kommende Halo 6 für den PC.
Id Software bietet seit Wolfenstein II kein OGL-Support über die id Tech Engine an.
DinosaurusRex
2018-08-03, 22:14:51
Ja, bitte.
Denn das ergibt nicht soviel Sinn:
Nein das werde ich doch nicht tun. Ich bin dazu zu faul. Wenn mir keine glaubt, ist mir das herzlich egal.
Kriton
2018-08-04, 12:45:16
Ich halte es auch für falsch Ashes immer wieder zu kritisieren (weil es ja angeblich keiner spielt). Unabhängig davon, ob das richtig ist (warum sollten sie dann laufen patchen, wenn es keine Kundenbasis gibt, die das honoriert?), ist es ein Spiel, dessen Engine komplett neu für DX12 entwickelt wurde.
Dies ist grundsätzlich etwas anderes als eine bestehende Engine auf DX 12 zu modden. Insofern sehe ich schon Gründe für die unterschiedlichen Ergebnisse hinsichtlich der unterschiedlichen (vermeintlichen) Wirkungsgrade von DX 12.
Bei der ID-Engine haben wir im Grunde denselben Effekt, scheint mir.
aufkrawall
2018-08-04, 13:14:12
Ja, Ashes ist echt ein toller DX12 Vorzeigetitel: Sieht schlechter aus als C&C Generals, läuft mit lächerlich wenig fps, vernichtet RAM & VRAM zum Frückstück und Async Compute killt auch auf Radeons die Frametimes. Das mit idTech zu vergleichen ist schon ne ziemlich krasse Beleidigung. :freak:
Aber deine "billige" "Argumentation" ist besser oder wie?!
Spiel B läuft "schlecht" also sind die Treiber absolut "grottig"...und deswegen haben die Kunden in dem Produkt dann gefälligst mit unnötigen Performanceproblemen zu leben, obwohl es behebbar wäre?! :crazy:
Definitiv besser als deine. Egal was der Entwickler auch macht, er kann den AMD Treiber nicht besser machen, die Treiber schreibt AMD und nicht der Entwickler. Irgendwann kommst du noch damit, dass der dumme Entwickler gefälligst DX11 Treiber für AMD GPUs schreiben soll.
Zudem musst du halluzinieren, denn ich habe das Wort "Perfektion" niemals in den Mund genommen (bei dem Wetter solltest du unbedingt auf deinen Flüssigkeitshaushalt achten! ;) )...
So hast du argumentiert. Die Schuld ist immer woanders zu suchen, nur nicht bei AMD selber. Dein Beißreflex spricht für sich.
Ich habe nur als Gegenbeispiel ein offensichtlich absolut hervorragend optimiertes DX11 Spiel genannt...das noch dazu nicht mal ein AAA Titel ist.
Und ich habe dir doch schon erklärt, dass in Tetris der Schundtreiber von AMD keine Probleme hat. Das ist eine Kindergartendiskussion, die du führst. Spiel A läuft, also kann nirgends in einem Spiel die Schuld beim DX11 Treiber von AMD zu suchen sein. Das ist so unglaublich dämlich und billig.
aufkrawall
2018-08-04, 15:49:24
Jo, BF1 ist Tetris.. :ucrazy4:
Gipsel
2018-08-04, 16:20:35
Definitiv besser als deine. Egal was der Entwickler auch macht, er kann den AMD Treiber nicht besser machen, die Treiber schreibt AMD und nicht der Entwickler. Irgendwann kommst du noch damit, dass der dumme Entwickler gefälligst DX11 Treiber für AMD GPUs schreiben soll.:freak:
Nee. Der "dumme Entwickler" soll sich gefälligst eine vernünftige DX12-Engine zulegen (oder Vulkan, wenn ihm das lieber ist). Die benötigt er aller Wahrscheinlichkeit nach für zukünftige Sachen nämlich sowieso (unabhängig vom Hersteller der GPU!). Da sind die Ressourcen also wohl am besten investiert.
Kriton
2018-08-04, 17:31:45
Ja, Ashes ist echt ein toller DX12 Vorzeigetitel: Sieht schlechter aus als C&C Generals, läuft mit lächerlich wenig fps, vernichtet RAM & VRAM zum Frückstück und Async Compute killt auch auf Radeons die Frametimes. Das mit idTech zu vergleichen ist schon ne ziemlich krasse Beleidigung. :freak:
Ich kenne es nicht. Mir kam die Diskussion darum immer nur so vor, als wäre es halt spieltechnisch nicht gut, weswegen es so wenig Leute spielen würden.
Wurde dort nicht damit geworben, dass sie so massiv viele Einheiten verwenden können (durch DX12)?
gravitationsfeld
2018-08-04, 17:40:47
Ich rede nicht von Unmengen von Draw Calls, wo man in die Limitierung von DX11 läuft. Da sind wir ja noch Jahre entfernt - dank den Konsolen.
Unsinn, die Konsolen schaffen genauso viele draws wie AMD auf Vulkan am PC. Da ist der Overhead schon noch bisschen geringer.
Gerade auf der PS4 ist ein draw nur ein paar Bytes in den Command Buffer schreiben.
dargo
2018-08-04, 17:40:57
Jo, BF1 ist Tetris.. :ucrazy4:
Battlefront 2 bitte nicht vergessen.
https://abload.de/img/bf1c0dpt.jpg https://abload.de/img/bf2tnesq.jpg https://abload.de/img/bf3reeuk.jpg
Quelle (https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-fps-1920-1080)
Voll mies der DX11 AMD-Treiber. :freak:
Ich werde das Gefühl nicht los, dass der eine oder andere in diesem Thread die letzten Tage zu viel Sonne abbekommen hat. :uponder:
vinacis_vivids
2018-08-04, 17:47:40
Ja, Ashes ist echt ein toller DX12 Vorzeigetitel: Sieht schlechter aus als C&C Generals, läuft mit lächerlich wenig fps, vernichtet RAM & VRAM zum Frückstück und Async Compute killt auch auf Radeons die Frametimes. Das mit idTech zu vergleichen ist schon ne ziemlich krasse Beleidigung. :freak:
Schwachsinn was du wieder einmal fabrizierst.
AoTS ist einer der wenigen Titel, die unter DX12 16Threads zu >80% auslasten kann. Davon können anderen engines nur träumen.
aufkrawall
2018-08-04, 18:06:28
Und wen interessiert das, wenn das GPU-Rendering dabei die schrottigst-ineffizienteste Klobrühe ist?
vinacis_vivids
2018-08-04, 18:17:33
Schweif nicht ab junge :facepalm:
LMd5Ro9mXIw
aufkrawall
2018-08-04, 18:27:20
Der CPU-Benchmark ist fake und entspricht nicht der CPU-Nutzung im realen Spiel oder der im GPU-Benchmark. Sieht man daran, dass die CPU-Auslastung auch bei reingezoomter Kamera auf 100% bleibt, während das ansonsten nicht so ist.
Aber fake kannst du ja am besten. ;)
gravitationsfeld
2018-08-04, 18:54:01
Schwachsinn was du wieder einmal fabrizierst.
AoTS ist einer der wenigen Titel, die unter DX12 16Threads zu >80% auslasten kann. Davon können anderen engines nur träumen.
Gute Parallelisierung lässt sich nicht an der CPU-Auslastung im Task-Manager ablesen.
Bei der ID-Engine haben wir im Grunde denselben Effekt, scheint mir.
idTech 6 und 7 stammen direkt von idTech 5 ab. Alter der Code-Basis ist unwichtig, es kommt eher auf die Wartbarkeit und Qualität an ob man schnell was ändern kann.
Savay
2018-08-04, 19:18:47
Irgendwann kommst du noch damit, dass der dumme Entwickler gefälligst DX11 Treiber für AMD GPUs schreiben soll.
Du kannst gerne damit aufhören mir ständig Dinge in den Mund legen zu wollen, die ich weder gesagt noch angedeutet haben! ;D
Ich habe nur anhand eines recht aktuellen Beispiels (davon gibt es BTW weit mehr als das eine) gezeigt, dass bei entsprechender Herangehensweise und moderner technischer Basis bezüglich des DX11 Pfades ja wohl offensichtlich doch keine unlös- und zumutbaren Probleme zu bestehen scheinen!
Was genau ist daran für dich so erstaunlich...oder passt diese profane Erkenntnis schlicht nicht in dein Weltbild?!
Wenn schon ne kleine Bude wie Frontier das hinbekommt sobald sie mit nem weißen Blatt Papier anfangen, kann es ja wohl nun echt nicht eine gänzlich unlösbare Mammutaufgabe sein... :whistle:
Davon abgesehen profitiert von einer moderneren technischen Basis ja nicht nur AMD...sondern alle...und nicht zuletzt auch der Entwickler!
WoW ist ja nun generell echt nicht grade ein Musterbeispiel für eine moderne und massiv Richtung Mulithreading optimierte Engine...was angesichts des alters der ganzen Spiels ja nun echt kein Wunder ist.
Wenn sich hier mokiert wird, das Blizzard sich bemüht das nach 10-12 Jahren mal (wieder) behutsam auf halbwegs aktuellen Stand zu bringen und die eine oder andere (mittlerweile unnötige) Bremse zu lösen ist das ehrlich gesagt nun echt der Hohn schlechthin!
Das sie als Mittel der Wahl offensichtlich die Entwicklung gen DX12 als lohnenswerter eingestuft haben, als den DX11 Pfad komplett umzubauen, ist eine Entscheidung die sie zudem garantiert nicht aus Jux und Dollerei oder wegen irgendwelcher Treiber getroffen haben.
Das ist so unglaublich dämlich und billig.
Da ich nun eigentlich echt nichts weiter getan habe als dir den Spiegel vorzuhalten, ist es wirklich schön das du es endlich einsiehst! :)
Und ich habe dir doch schon erklärt, dass in Tetris der Schundtreiber von AMD keine Probleme hat.
Von welchem ominösen Tetris sprichst du eigentlich die ganze Zeit?! :freak:
Demirug
2018-08-04, 19:19:24
AoTS ist einer der wenigen Titel, die unter DX12 16Threads zu >80% auslasten kann. Davon können anderen engines nur träumen.
Ich habe aktuelle mit einer Engine zu tun die das auch locker mit DX11 schafft- Das Problem dabei ist nur das die Entwickler lediglich die Leistungsverschwendung hervorragen parallelisiert haben.
Ich kann die jederzeit Code schreiben der die Kerne zu einem von mir vorher festgelegten Prozentsatz auslastet. Aber selbst wenn man es nicht mutwillig macht ist es einfacher die CPU Last eines Kerns mit schlechtem Multithreadcode nach oben zu treiben als dafür zu sorgen das die vorhandene Leistung auch wirklich sinnvoll genutzt wird.
dargo
2018-08-04, 19:24:13
idTech 6 und 7 stammen direkt von idTech 5 ab. Alter der Code-Basis ist unwichtig, es kommt eher auf die Wartbarkeit und Qualität an ob man schnell was ändern kann.
WTF? Es gibt schon idTech 7? :naughty:
Locuza
2018-08-04, 19:32:52
id Tech 6 kam zuerst bei Doom zum Einsatz, id Tech 6.5 bei Wolfenstein II und id Tech 7 offenbar bei Doom Eternal:
August 10 is almost here... I can’t wait for everyone to see what we have been working on #DOOMEternal #idTech7 #RipAndTear #QuakeCon2018
https://twitter.com/billykhan/status/1012953624652255232
dargo
2018-08-04, 19:41:27
Merci. :)
vinacis_vivids
2018-08-04, 19:58:35
Ich habe aktuelle mit einer Engine zu tun die das auch locker mit DX11 schafft- Das Problem dabei ist nur das die Entwickler lediglich die Leistungsverschwendung hervorragen parallelisiert haben.
Ich kann die jederzeit Code schreiben der die Kerne zu einem von mir vorher festgelegten Prozentsatz auslastet. Aber selbst wenn man es nicht mutwillig macht ist es einfacher die CPU Last eines Kerns mit schlechtem Multithreadcode nach oben zu treiben als dafür zu sorgen das die vorhandene Leistung auch wirklich sinnvoll genutzt wird.
In AoTS werden mehr Threads für mehr Details (Objekt,- und Partikeldichte usw.) verwendet und ist daher ein Novum. Es gibt soweit ich weiß keine Engine, die das von sich behaupten kann.
dargo
2018-08-04, 20:05:57
Ich habe aktuelle mit einer Engine zu tun die das auch locker mit DX11 schafft- Das Problem dabei ist nur das die Entwickler lediglich die Leistungsverschwendung hervorragen parallelisiert haben.
Sprichst du da gerade von Nvidias DX11 Treiber? :tongue:
Gipsel
2018-08-04, 20:09:48
In AoTS werden mehr Threads für mehr Details (Objekt,- und Partikeldichte usw.) verwendet und ist daher ein Novum. Es gibt soweit ich weiß keine Engine, die das von sich behaupten kann.Was? Ich hoffe Du meinst nicht ein (automatisches) Scaling von Effekten in Abhängigkeit von der Kernanzahl der benutzten CPU.
aufkrawall
2018-08-04, 20:16:58
Doch, genau das macht das Spiel abseits des Benchmarks und erhöht dadurch auch die GPU-Last. PCGH mussten deshalb schon nachtesten.
Demirug
2018-08-04, 20:35:56
In AoTS werden mehr Threads für mehr Details (Objekt,- und Partikeldichte usw.) verwendet und ist daher ein Novum. Es gibt soweit ich weiß keine Engine, die das von sich behaupten kann.
Für die Partikelsysteme hatte ich das schon damals in die BattleForge Engine eingebaut. Hat allerdings zugegebenermaßen nicht so viel gebracht das mehr als 50% damals noch Singelcore CPUs hatten und der der Rest weitgehend mit Dualcores unterwegs waren.
Sprichst du da gerade von Nvidias DX11 Treiber? :tongue:
Nein ich rede von der Engine selbst. Da ich mir den Mist nicht mehr länger antun wollte mache ich jetzt auch nur den Server in dem Projekt.
Gipsel
2018-08-04, 20:38:37
Doch, genau das macht das Spiel abseits des Benchmarks und erhöht dadurch auch die GPU-Last. PCGH mussten deshalb schon nachtesten.Das weiß ich. Ist bloß kein Argument für irgendwas, das v_v da vielleicht gegen Demirurgs Post sagen wollte.
dargo
2018-08-04, 20:50:20
Nein ich rede von der Engine selbst.
War nur Sarkasmus. ;) Der NV DX11 Treiber macht ja u.a. auch Leistungsverschwendung multithreaden.
unl34shed
2018-08-04, 21:00:20
Ich rede nicht von Unmengen von Draw Calls, wo man in die Limitierung von DX11 läuft. Da sind wir ja noch Jahre entfernt - dank den Konsolen.
Ist Ubisoft nicht vor Jahren bei Assassin's Creed in das Limit gelaufen? Meine mich dunkel daran zu erinnern.
Und das müsste schon mindestens 3 Assassin's Creed her sein.
vinacis_vivids
2018-08-04, 21:03:56
Nicht zu vergessen ist auch die einzig echt vollständige mGPU Unterstützung, die es so vorher nicht gab. Die von Demirug angesprochene miese CPU-Lastverteilung unter DX11 ohne Mehrwert gilt Ubisoft mit AC:O oder auch FC5.
aufkrawall
2018-08-04, 21:30:43
Gut, dass du Einblick in den Quellcode hast, ihn verstehst und für für uns das richtig einordnest. :up:
dildo4u
2018-08-05, 01:14:18
Nicht zu vergessen ist auch die einzig echt vollständige mGPU Unterstützung, die es so vorher nicht gab. Die von Demirug angesprochene miese CPU-Lastverteilung unter DX11 ohne Mehrwert gilt Ubisoft mit AC:O oder auch FC5.
Komisch FC5 skaliert wunderbar mit Vega,schon erstaunlich was unter DX11 alles geht wenn AMD ein Marketing Deal hat und Treiber arbeit leistet.
4k mit Crossfire wäre ideal für ein Freesync 2 Display.
https://farm2.staticflickr.com/1774/43850514691_9df0bbb306_h.jpg (https://flic.kr/p/29NVmhK)crossfire (https://flic.kr/p/29NVmhK) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
https://youtu.be/WP93nk4E2-s
DinosaurusRex
2018-08-05, 05:53:36
Gut, dass du Einblick in den Quellcode hast, ihn verstehst und für für uns das richtig einordnest. :up:
https://media.giphy.com/media/oBPOP48aQpIxq/giphy.gif
dargo
2018-08-05, 09:50:14
Komisch FC5 skaliert wunderbar mit Vega,schon erstaunlich was unter DX11 alles geht wenn AMD ein Marketing Deal hat und Treiber arbeit leistet.
Ich liebe diese Pauschalisierungen.
Bei Prey gabs diesen AMD-Deal auch. Trotzdem kommt RX Vega64 "nur" auf GTX1080 Level. Bei Battlefront 2 gabs afaik diesen Deal nicht. Dort ist die RX Vega64 praktisch auf GTX1080 TI Level. Mal ganz nebenbei... FC5 ist das erste Game mit RPM unter DX11.
vinacis_vivids
2018-08-05, 10:59:02
Auch Frostbite ist bei DX12 mGPU vorne dabei.
Skalierung:
FuryX: (37->69) +86%
RX480: (28->53) +89%
GTX1080: (43->77) +79%
GTX980: (20->36) +80%
https://abload.de/img/bf1mgpu82s5k.png
mGPU =! SLI/CF, AoTS kann unterschiedliche GPUs kombinieren, dafür braucht man kein Quellcode :freak:
[...] Bei Battlefront 2 gabs afaik diesen Deal nicht. Dort ist die RX Vega64 praktisch auf GTX1080 TI Level. [...]
Nein. Einfach nein (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/2/#a19).
MfG,
Raff
Ex3cut3r
2018-08-05, 22:12:06
Danke dafür, die Ti läuft ja nur mit 1650mhz, jetzt noch das übliche OC von 2000 mhz drauf, und der Abstand wird nochmal größer. Bei der Vega sehe ich da nicht viel Spielraum, die Liquid taktet ja schon mit 1530mhz.
Das Taktverhalten (je höher die Auflösung bzw. Auslastung, desto geringer der Boost) betrifft alle teilnehmenden Karten. Aus technischen Gründen wird nur ein Taktmittelwert angegeben. Ergo: In Full HD laufen alle Karten idR mit mehr Takt als angegeben, in Ultra HD meist mit etwas weniger.
MfG,
Raff
-=Popeye=-
2018-08-05, 22:49:13
Könnte das wer gegen testen?
Forza7
wnj4jjMAf5Q
Für mich sieht dass einfach nur grausam aus.
dargo
2018-08-06, 06:06:46
Das Thema hatten wir schon im Game-Thread. Hier ein Beispiel einer anderen Strecke.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11755137&postcount=1296
Nein. Einfach nein (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/2/#a19).
Tja... CB kommt zum anderen Ergebnis. Ist jetzt die Frage wer Mist misst? Oder verhalten sich verschiedene Szenen so unterschiedlich? Dann wären wir wieder beim Thema wie aussagekräftig eine einzige Szene für das gesamte Spiel ist? ;)
btw.
Aber auch in eurer Szene sehe ich beim DX11 AMD-Treiber keine Probleme im CPU-Limit wenn ich die RX Vega64 mit der GTX1080 vergleiche. Denn das war eigentlich das Kernthema.
vinacis_vivids
2018-08-06, 06:43:12
Unterschiedliche Szenen
https://gamegpu.com/action-/-fps-/-tps/star-wars-battlefront-ii-test-gpu-cpu
https://abload.de/img/screenshot_2018-08-061wiwt.png
DinosaurusRex
2018-08-06, 07:39:36
Ich hab noch ne HD5870. Die taktet mit sagenhaften 850Mhz. Vermutlich eine der besten Grafikkarten, die es jemals gab. Trotz TeraScale. Wo ordnet die sich auf der List wohl ein?
Locuza
2018-08-06, 09:52:07
Vermutlich etwas unter einer 750Ti (~480 GTX Level, HD5870 war so 10-15% langsamer, damals) und deutlich darunter, wenn der VRAM überläuft.
Gipsel
2018-08-06, 11:23:57
Nein. Einfach nein (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/2/#a19).Und bei Computerbase schlägt schon eine Vega56 locker die 1080 und die Vega64 ist tatsächlich sehr nah dran an der 1080Ti (und Custom-Modelle der Vega64 sind schneller als die Referenzversion der 1080Ti). Woran liegt's? Andere Benchmarkszene?
aufkrawall
2018-08-06, 11:35:19
Ja, Vega mag die Vegetation nicht. Die min-fps bei PCGH fallen btw. viel niedriger aus, da ist das schlechtere Abschneiden von Vega in der Szene schon sehr unfein.
Da steht nur etwas Gemüse rum, aber nicht furchtbar viel, denn PCGH bencht auf/in Theed (Stadt). Die Mission ist das Fieseste, was man im SP Campaign zu sehen (und reproduzierbar) bekommt, auch in Sachen Speicherlast. Da interessieren mich andere Schönwetter-Sequenzen nicht – das sollte euch auch nicht. :) Einfach nachstellen, es finden sich bestimmt Mitbencher. Hier die Anleitung; Video der Szene ist eingebunden: http://www.pcgameshardware.de/Benchmarks-Thema-58180/Specials/Benchmark-FAQ-2018-1247740/7/#a1
Die Szene ist nach einem Checkpoint in der Mission "Hochadel" abrufbar.
MfG,
Raff
dargo
2018-08-06, 13:03:44
@Raff
Das sehe ich etwas anders. Afaik sucht ihr euch Worst Cases für eure Testszenen aus. Nehmen wir jetzt mal den Fall das Game verhält sich zu 90% so wie bei CB und zu 10% so wie bei euch. Wie aussagekräftig ist dann eure Szene wenn ich überwiegend mit vergleichbaren Frames zu CB unterwegs bin?
Dich interessiert also vor allem, wie die Fps beim Suchen nach Gegnern sind ... aber nicht, wie die Fps sind, wenn du mitten in einem heftigen Feuergefecht bist? :)
MfG,
Raff
Exxtreme
2018-08-06, 13:08:40
@Raff
Das sehe ich etwas anders. Afaik sucht ihr euch Worst Cases für eure Testszenen aus. Nehmen wir jetzt mal den Fall das Game verhält sich zu 90% so wie bei CB und zu 10% so wie bei euch. Wie aussagekräftig ist dann eure Szene wenn ich überwiegend mit vergleichbaren Frames zu CB zu 90% unterwegs bin?
Ich finde, gerade die "worst cases" sind das Interessante. Denn ob ein Spiel im "best case" mit 100 oder 120 fps läuft das juckt mich nicht mehr. Ob es aber 30 oder 60 fps sind das sehe ich sofort.
dargo
2018-08-06, 13:09:48
Lese nochmal meinen letzten Post. Mich interessiert die Performance die ich überwiegend im Spiel (auf Spielzeit bezogen) zu sehen bekomme. Wenn es mal im Worst Case einmal etwas tiefer geht ist es dank VRR auch kein Problem. :) Zumindest sehe ich selbst bei eurer Szene nichts was ein Problem für die Vega @1440p (meine Spielauflösung) darstellen sollte.
Ich finde, gerade die "worst cases" sind das Interessante. Denn ob ein Spiel im "best case" mit 100 oder 120 fps läuft das juckt mich nicht mehr. Ob es aber 30 oder 60 fps sind das sehe ich sofort.
Wo siehst du da beim Test 30fps mit Vega? Oder gar 60fps für 1080TI? 4k interessiert mich nicht. Beide Karten sind dafür imo zu langsam.
Tatsächlich geht es noch schlimmer. Wenn der Walker effektschwanger weggebombt wird, droppen die Fps ordentlich und das geht in die Messung ein – allerdings nur die ersten Sekunden davon. Kurz darauf fällt der imperiale Zweibeiner in sich zusammen und es gibt einen wirklich gemeinen Slowdown. Auf jeder GPU. Dieser fällt jedoch immer anders schlimm aus und hat sich daher nicht als reproduzierbarer Benchmarkbestandteil qualifiziert. Ihr seht, da sind Gedanken eingeflossen. :)
MfG,
Raff
Linmoum
2018-08-06, 13:15:30
Ich finde, gerade die "worst cases" sind das Interessante. Denn ob ein Spiel im "best case" mit 100 oder 120 fps läuft das juckt mich nicht mehr. Ob es aber 30 oder 60 fps sind das sehe ich sofort.
Was dann aber wiederum nicht repräsentativ als Benchmark ist, wenn ich bei einem 90/10-Verhältnis letztere Szenen als Maßstab für die Performance eines Spiels nehme.
donend
2018-08-06, 13:18:20
Und eine 1080 bricht im Worstcase nicht ein und hält ~1650MHz Takt. So eine FE...?
Screemer
2018-08-06, 13:19:10
die diskussion gab's schon 10000 mal hier und nie ist man auf einen konsens gekommen. pcgh ist nicht daran interessiert, den durchschnitt wiederzugeben und andere sind auch davon überzeugt, dass der durchschnitt eh nicht relevant sei. imho sollte wesentlich längere testsequenzen gewählt werden und dafür dann eben auch percentilen als aussagekräftige werte erstellt werden. länger ist in dem fall dann auch nicht anstatt 45sek. auf 2 minuten zu gehen, sondern mal für ganze kampagnen oder matches zu benchen. das scheitert bei mp-shootern aber schon an der reproduzierbarkeit und bei sp-games am zeitaufwand.
imho kann man sich mit der einstellung auch die percentilen sparen und gleich wieder min-fps angeben. ist hier im übrigen OT.
donend
2018-08-06, 13:21:48
die diskussion gab's schon 10000 mal hier und nie ist man auf einen konsens gekommen. pcgh ist nicht daran interessiert, den durchschnitt wiederzugeben und andere sind auch davon überzeugt, dass der durchschnitt eh nicht relevant sei.
ist hier im übrigen OT.
Diplomatischer kann man es nicht schreiben, kein Interesse...
Savay
2018-08-06, 13:31:16
imho kann man sich mit der einstellung auch die percentilen sparen und gleich wieder min-fps angeben. ist hier im übrigen OT.
Ich finde ja eher im Gegenteil, dass man sich explizit im "Worst-Case" (oder einer Szene die dem Nahe kommt) viel mehr den Avg. Wert sparen kann...in so einer Situation sind doch eh nur noch die Percentilen interessant. :wink:
Davon abgesehen finde ich ja beide Standpunkte Legitim..der Worst Case ist schon sehr wichtig...aber allein auch nicht immer Vollständig.
Eigentlich müsste man das Samplesize nur entsprechend groß wählen, dann würden sich solche Diskussionen erledigen...ergo die komplette Kampagne Benchen und dann die Percentilen bzw. die Verteilung auswerten. :tongue: Immerhin kommt es am Ende der Tage ja auch auf die Verteilung solcher Lastspitzen an.
Wenn ich mich insgesamt betrachtet nur bspw. zu 1-0,5% der Spielzeit und/oder nur an einer bestimmten Stelle im Worst-Case aufhalte ist das am Ende in der Gesamtschau ja recht irrelevant, solange es nicht die Spielbarkeit gefährdet...wenn ich dagegen einen relevanten Teil der Spielzeit (Meinetwegen 15/30/60%) im "Worst-Case" lande wird es in der Betrachtung halt immer und immer wichtiger. :)
Insofern ist das schon zu einem gewissen grad Auslegungssache mit welchem Sample man meint ein repräsentatives Ergebnis zu bekommen.
Kriton
2018-08-06, 13:39:47
Mal unabhängig von worst case oder Durchschnitt ist es so oder so verzerrend, wenn in unterschiedlichen Szenen die Karten ganz unterschiedlich zueinander performen und die Magazine nur das eine darstellen.
dargo
2018-08-06, 13:45:05
Mal unabhängig von worst case oder Durchschnitt ist es so oder so verzerrend, wenn in unterschiedlichen Szenen die Karten ganz unterschiedlich zueinander performen und die Magazine nur das eine darstellen.
Eben darum gehts mit hauptsächlich. Besser wäre mal 3-5 verschiedene Testszenen (möglichst aus unterschiedlichen Leveln) zu nehmen und benchen. Mir ist aber auch klar, dass sich diesen enormen Aufwand keiner antun möchte.
Screemer
2018-08-06, 13:46:39
Mal unabhängig von worst case oder Durchschnitt ist es so oder so verzerrend, wenn in unterschiedlichen Szenen die Karten ganz unterschiedlich zueinander performen und die Magazine nur das eine darstellen.
das ist doch kein neuer fakt. schon alleine ein "nein, einfach nein!" als einzig waren fakt zu verkaufen, ist schon fast peinlich. wie gehabt ist es immer noch ot und wurde im online-journalismus zur genüge durchgekaut. am schluss waren alle die eine breitere betrachtung wollten die deppen. ich bitte noch mal um eine rückkehr zum topic.
Savay
2018-08-06, 13:47:57
Ja da muss man halt dem Redakteur vertrauen, dass er halt ein für das Spiel tatsächlich repräsentatives Sample gewählt hat. Das ist halt ne Abwägungssache, die hoffentlich fundiert getroffen wurde. :biggrin:
Das es mit vertretbaren Arbeitsaufwand nicht anders darstellbar ist sollte ja einleuchten.
Oder man macht halt ne Metaauswertung und vergrößert so indirekt die Samplegröße...hat nur auch seine Tücken, wegen der unterschiedlichen Systemkonfigurationen, Settings etc. pp.. :wink:
aufkrawall
2018-08-06, 13:51:57
Eben darum gehts mit hauptsächlich. Besser wäre mal 3-5 verschiedene Testszenen (möglichst aus unterschiedlichen Leveln) zu nehmen und benchen. Mir ist aber auch klar, dass sich diesen enormen Aufwand keiner antun möchte.
Cool, hatten wir nur schon längst in diesem Forum für BF2 diskutiert:
https://www.youtube.com/watch?v=77TXC0v0hG0
Raffs Aussage stimmt, auch wenns euch (aus was für Gründen auch immer...) nicht gefällt...
dargo
2018-08-06, 15:14:34
Das sind doch schon uralte Benchmarks vom November 2017. In der Zwischenzeit ist einiges passiert. Das wirst du auch bei der CB beobachten können. In den einzelnen Ergebnissen kam es durchaus zu einigen Verschiebungen.
Test vom Release.
https://www.computerbase.de/2017-11/star-wars-battlefront-2-pc-ersteindruck/2/#diagramm-star-wars-battlefront-2-2560-1440-directx-11
Test kurz danach.
https://www.computerbase.de/2017-11/star-wars-battlefront-2-benchmark/2/#diagramm-star-wars-battlefront-2-2560-1440
Aktueller Test.
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-fps-2560-1440
Beim letzteren BF2 einzeln auswählen. Es gab nicht nur Verbesserungen bei Vega sondern auch bei Polaris 20 vs. GP106. Ich tippe hier einfach mal auf verbesserte Grafiktreiber und/oder Spielpatches.
Raffs Aussage stimmt, auch wenns euch (aus was für Gründen auch immer...) nicht gefällt...
Du brauchst mir hier nichts aufzwingen. Ich habe eine eigene Meinung dazu und ich bleibe dabei... Worst Cases interessieren mich weniger wenn sie im gesamten Spielverlauf von mehreren Stunden nur kurzzeitig aufkommen.
btw.
Ich merke gerade...
09.11.17 Vega64 = 98,4fps
02.08.18 Vega64 = 90,8fps
Höchstwahrscheinlich hat CB die Testszene gewechselt. Kann mir nicht vorstellen, dass das Game langsamer wurde. Oder wurden mit Spielpatches Settings aufgebohrt? Etwas intrasparent das ganze.
Bei der GTX1080 sieht es noch schlimmer aus.
09.11.17 GTX1080 = 97,7fps
02.08.18 GTX1080 = 72,3fps
aufkrawall
2018-08-06, 15:31:10
Natürlich sind in einem MP-Shooter die anspruchsvollsten Szenarien von höchster Bedeutung, jetzt mach dich mal nicht lächerlich...
"eigene Meinung", lol. Klasse Argument...
dargo
2018-08-06, 15:35:27
Natürlich sind in einem MP-Shooter die anspruchsvollsten Szenarien von höchster Bedeutung, jetzt mach dich mal nicht lächerlich...
Jetzt machst du dich lächerlich. In einem MP-Shooter lese ich sehr oft, dass Details teilweise bis auf low reduziert werden für höchste Frameraten. In der Regel bleibt der LoD-Schalter auf Maximum (schließlich will man den Gegner frühzeitig sehen), der Rest geht auf low-medium. :wink:
btw.
Bevor das hier wieder ausartet... ich wollte damit nur sagen, dass es nicht immer nur die eine "richtige" Sichtweise der Dinge gibt.
=Floi=
2018-08-06, 17:50:08
Hat hier im thread eine idee, warum bei overwatch die fps je nach level und geometrie immer gleich sind?
GPU limit
Bei anderen engines schwankten die fps, auch wenn man keine geometrie sieht und hier ist es immer gleich. Wir da schon vor dem rendern in der engine was verworfen?
Gipsel
2018-08-06, 18:03:36
Ich erinnere alle Beteiligten mal daran, daß sie sich hier im Technologie-Thread zur DX12-API befinden und nicht in irgendeinem Benchmarking-Thread.
Und von Flames ist sowieso immer abzusehen, egal wo.
Auch sollte nicht vergessen werden, es kommt eigentlich ja noch HBCC obendrauf ;)
Je nach Auflösung scheint der HBCC unterschiedlich viel in Star Wars Battlefront 2 zu bringen. Dabei gilt: Je höher die Auflösung, desto größer ist der Nutzen. In 1.920 × 1.080 wird das Spiel mit dem HBCC auf einer Radeon RX Vega 64 noch leicht langsamer. In 2.560 × 1.440 steigen die FPS dann um bis zu zwei Prozent an. Und in 3.840 × 2.160 immerhin um bis zu fünf Prozent, wobei dies nur für die Erweiterung auf 16 Gigabyte gilt. Die Frametimes werden bei derselben Konfiguration um sechs Prozent schneller.
BiZiNiZz
2018-08-07, 05:19:46
Hat hier im thread eine idee, warum bei overwatch die fps je nach level und geometrie immer gleich sind?
GPU limit
Bei anderen engines schwankten die fps, auch wenn man keine geometrie sieht und hier ist es immer gleich. Wir da schon vor dem rendern in der engine was verworfen?
Ich gehe stark davon aus, dass Blizzard die Engine und Level übelst Optimiert hat damit sie auf vielen Systemen läuft. Ist ja nicht nur bei Overwatch so, das sieht man auch bei den anderen Titeln von Blizzard das die Engines gut auf alten Systemen laufen.
Selbst bei meiner Freundin auf einem alten Q9550 mit einer 1060 läuft das Spiel noch in 1080 mit mittleren Einstellungen. Hier kotzt aber definitiv die CPU, sonst wäre mehr Qualität möglich.
aufkrawall
2018-08-07, 17:39:46
Overwatch ist die positive Ausnahme. Blizzard war bis dahin absolut unfähig, gute CPU-Performance abzuliefern. Für Heroes of the Storm oder Diablo 3 braucht es trotz DX11 brutal ST-Leistung, um die Einbrüche abzufangen.
Um jetzt mal diesen Quatsch-Mythos des "Uberlord NV DX11-Treibers" etwas zu busten:
Hitman NV DX11:
https://abload.de/thumb/hitman_2018_08_07_17_1uide.png (https://abload.de/image.php?img=hitman_2018_08_07_17_1uide.png)
65fps
AMD:
https://abload.de/thumb/hitman_2018_08_04_16_8tdzt.png (https://abload.de/image.php?img=hitman_2018_08_04_16_8tdzt.png)
60fps
Nvidia DX12:
https://abload.de/thumb/hitman_2018_08_07_17_6fix4.png (https://abload.de/image.php?img=hitman_2018_08_07_17_6fix4.png)
83fps
Muss schon für einige sehr schwer in die Gehirnwindungen zu bekommen sein, dass NV Overhead auch nicht weg- und besseres MT nicht herbeizaubern kann...
gnomi
2018-08-08, 09:59:36
Ist Hitman denn jetzt vollständig empfehlenswert mit DX 12 auf nvidia. :confused:
Die CPU Leistung wird ja ganz klar besser genutzt, aber AFAIR gab es auch Kompatibilitätsprobleme.
Wenn man dann eh 60 Bilder aufwärts mit einem I7 hat, ist das ja auch irgendwo Jacke wie Hose mit der Performance...
aufkrawall
2018-08-08, 12:26:10
Nein, es bricht mit DX11 mit einer 1070/1070 Ti in WQHD häufig merkbar ins CPU-Limit ein. Die Frametimes sind mit NV etwas schlechter als mit DX11, aber die meiste Zeit läuft es sauber und direkt. Anders als mit einer Radeon, wo die DX12-Frametimes völlig kaputt sind und man nur 4x AF-Matschfilterung hat, weil mans nicht über den Treiber erzwingen kann.
Irgendwas ist da mit den Frametimes und Radeons komplett kaputt gegangen, mit der 390 lief das damals nicht so katastrophal wie jetzt mit der RX 560 (am VRAM liegts nicht).
dargo
2018-08-15, 22:32:03
Um jetzt mal diesen Quatsch-Mythos des "Uberlord NV DX11-Treibers" etwas zu busten:
Die "secret souce" des DX11 NV-Treibers kommt wie man aktuell herausgefunden hat etwas ins schleudern. :D
https://www.golem.de/news/32-kern-cpu-threadripper-2990wx-laeuft-mit-radeons-besser-1808-136016.html
Zugegeben... ein 64-Threader ist nicht gerade das was der Durchschnittgamer in seinem Rechner hat. X-D
=Floi=
2018-08-15, 23:30:53
Ich frage mich aber trotzdem, warum man das heute nicht einfach variabel macht und noch immer die cpu-cores "limitiert". Testmuster für nv wären hier auch was.
Ex3cut3r
2018-08-15, 23:46:15
Die "secret souce" des DX11 NV-Treibers kommt wie man aktuell herausgefunden hat etwas ins schleudern. :D
https://www.golem.de/news/32-kern-cpu-threadripper-2990wx-laeuft-mit-radeons-besser-1808-136016.html
Zugegeben... ein 64-Threader ist nicht gerade das was der Durchschnittgamer in seinem Rechner hat. X-D
Na das ist ja mal was, Nvidia optimiert Treiber nicht für 1% der Leute, stark. :rolleyes:
Menace
2018-08-15, 23:57:38
Na das ist ja mal was, Nvidia optimiert Treiber nicht für 1% der Leute, stark. :rolleyes:
"Optimiert" wäre zu viel verlangt. Aber das ist ja nicht annähernd optimiert, sondern eher verbugt. Funktionieren sollten Treiber schon; nicht bremsen. Und dabei ist doch völlig egal ob das 1% oder 00,1% der Anwender sind. Und wie ich nvidia kenne, werden sie das auch lösen.
Ex3cut3r
2018-08-16, 00:08:51
Der Nvidia DX11 Treiber ist für den Mainstream aktuell Optimiert, was meinst du warum das DX11 schneller ist als bei AMD? Weil es eben total optimiert auf 4C, 4C+HT 6C, 6C+HT, 8C und 8C+HT ist. Das wars. Mehr braucht es aktuell auch nicht. Natürlich könnte man, jetzt für Threadripper anpassen, die frage ist nur, werden dann Leute mit 4C nicht extrem benachteiligt werden? Wenn man die Wahl hat -> 4C (+ HT) gut auszulasten, welches 75% der PC Nutzer sind, oder ab 16C aufwärts die vlt. 1% ausmachen, wofür sollte man sich entscheiden???
Linmoum
2018-08-16, 00:14:53
Hat nichts mit TR zu zun, das Problem gibt's auch mit Intel bei so vielen Threads.
Da geht's also eher nicht um "aktuell" oder irgendeine TR-Besonderheit. Wer weiß, was der Nvidia-Treiber generell macht. Gab ja schon damals mit Ryzen/DX12/Nvidia teils gewisse Auffälligkeiten, die man mit AMD GPU nicht hat.
crux2005
2018-08-16, 01:56:03
Overwatch ist die positive Ausnahme. Blizzard war bis dahin absolut unfähig, gute CPU-Performance abzuliefern. Für Heroes of the Storm oder Diablo 3 braucht es trotz DX11 brutal ST-Leistung, um die Einbrüche abzufangen.
Um jetzt mal diesen Quatsch-Mythos des "Uberlord NV DX11-Treibers" etwas zu busten:
Hitman NV DX11:
https://abload.de/thumb/hitman_2018_08_07_17_1uide.png (https://abload.de/image.php?img=hitman_2018_08_07_17_1uide.png)
65fps
AMD:
https://abload.de/thumb/hitman_2018_08_04_16_8tdzt.png (https://abload.de/image.php?img=hitman_2018_08_04_16_8tdzt.png)
60fps
Nvidia DX12:
https://abload.de/thumb/hitman_2018_08_07_17_6fix4.png (https://abload.de/image.php?img=hitman_2018_08_07_17_6fix4.png)
83fps
Muss schon für einige sehr schwer in die Gehirnwindungen zu bekommen sein, dass NV Overhead auch nicht weg- und besseres MT nicht herbeizaubern kann...
Ist Hokkaido nicht geeigneter? Glaube da hatte ich die niedrigsten FPS.
gravitationsfeld
2018-08-16, 04:28:37
Hat nichts mit TR zu zun, das Problem gibt's auch mit Intel bei so vielen Threads.
Da geht's also eher nicht um "aktuell" oder irgendeine TR-Besonderheit. Wer weiß, was der Nvidia-Treiber generell macht. Gab ja schon damals mit Ryzen/DX12/Nvidia teils gewisse Auffälligkeiten, die man mit AMD GPU nicht hat.
NVIDIA erzeugt mehr als einen Treiber-Thread um die Arbeit zu verteilen. Soweit ich weiss hat AMD immer nur einen. Aber ich bin mir nicht sicher.
Wird Zeit, dass das verschwindet, das gehoert in die Kontrolle der Applikation.
dargo
2018-08-16, 07:57:36
Ich frage mich aber trotzdem, warum man das heute nicht einfach variabel macht und noch immer die cpu-cores "limitiert". Testmuster für nv wären hier auch was.
Das mit den Testmustern klingt auf den ersten Blick schlüssig. Nur ist das kein alleiniges Problem vom Threadripper.
Der Nvidiatreiber scheint mir mit 32/64T nicht klar zu kommen und die Leistung bricht in CPU lastigen Szenen um die Hälfte ein. Wie schon geschrieben existiert diese Auffälligkeit auch bei Intel Systemen bei derart hohen Kernzahlen (schon seit Jahren provozierbar).
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11769097&postcount=60
aufkrawall
2018-08-19, 01:23:14
Ex3cut3r hat offenbar recht mit seiner Befürchtung, dass das Fehlen des "alten" exklusiven Vollbildmodus mit DX12 durch den DWM die verfügbare Menge des mit voller Geschwindigkeit nutzbaren VRAMs reduziert.
Ich habe gerade das RotTR Manor-DLC gespielt, die Bilder sprechen eine deutliche Sprache:
https://abload.de/thumb/rottr_2018_08_19_01_147dor.png (https://abload.de/image.php?img=rottr_2018_08_19_01_147dor.png) https://abload.de/thumb/rottr_2018_08_19_01_1v9ir9.png (https://abload.de/image.php?img=rottr_2018_08_19_01_1v9ir9.png)
Irgendwann war die Performance eingebrochen und hatte sich auch nicht wieder erholt, bis ich die Texturdetails reduziert hab, obwohl noch ganze 700MB frei waren.
Microsoft, bitte geht abkacken! Nao! :freak: :frown:
crux2005
2018-08-19, 02:09:03
Ex3cut3r hat offenbar recht mit seiner Befürchtung, dass das Fehlen des "alten" exklusiven Vollbildmodus mit DX12 durch den DWM die verfügbare Menge des mit voller Geschwindigkeit nutzbaren VRAMs reduziert.
Ich habe gerade das RotTR Manor-DLC gespielt, die Bilder sprechen eine deutliche Sprache:
https://abload.de/thumb/rottr_2018_08_19_01_147dor.png (https://abload.de/image.php?img=rottr_2018_08_19_01_147dor.png) https://abload.de/thumb/rottr_2018_08_19_01_1v9ir9.png (https://abload.de/image.php?img=rottr_2018_08_19_01_1v9ir9.png)
Irgendwann war die Performance eingebrochen und hatte sich auch nicht wieder erholt, bis ich die Texturdetails reduziert hab, obwohl noch ganze 700MB frei waren.
Microsoft, bitte geht abkacken! Nao! :freak: :frown:
Danke für die Information. :up:
Das erklärt so einiges in Forza Motorsport 7 und Wolfenstein 2.
aufkrawall
2018-08-19, 02:26:52
afair hatte dildo auch kürzlich einen pcgh-test von wolf2 gepostet, wo die 1080 in 4k weitaus dramatischer einbrach als vega. amd kennt für vulkan nur den klassischen fullscreen exclusive mode, nvidia nur den "direct borderless" wie für dx12. wäre schon eine ziemlich naheliegende erklärung...
Ex3cut3r
2018-08-19, 03:11:44
Ex3cut3r hat offenbar recht mit seiner Befürchtung, dass das Fehlen des "alten" exklusiven Vollbildmodus mit DX12 durch den DWM die verfügbare Menge des mit voller Geschwindigkeit nutzbaren VRAMs reduziert.
Ich habe gerade das RotTR Manor-DLC gespielt, die Bilder sprechen eine deutliche Sprache:
https://abload.de/thumb/rottr_2018_08_19_01_147dor.png (https://abload.de/image.php?img=rottr_2018_08_19_01_147dor.png) https://abload.de/thumb/rottr_2018_08_19_01_1v9ir9.png (https://abload.de/image.php?img=rottr_2018_08_19_01_1v9ir9.png)
Irgendwann war die Performance eingebrochen und hatte sich auch nicht wieder erholt, bis ich die Texturdetails reduziert hab, obwohl noch ganze 700MB frei waren.
Microsoft, bitte geht abkacken! Nao! :freak: :frown:
Danke Krawall, ich war zu blöd, das zu reproduzieren, bzw. kann ich es nicht mehr, da ich meine 1070er verkauft habe. :ulol:
Genau so sah es bei mir auch aus, meine Auflösung ist sogar noch ein bisschen höher (3440x1440) also ich verbrauch auch nochmal etwas mehr VRAM, (wenn auch minimal mehr). Nvidia könnte da auch endlich mal mehr machen, das kann doch nicht sein, das zwei so größe Firmen, dass nicht zusammen gebacken bekommen.
Du musst dir auch mal demnächst 1803 installieren, ich habe da was für dich zum testen. Entpacke oder packe mit Winrar große Dateien, öffne den Ressourcen Manager und schau wie der Standby Verbrauch steigt, schließe Winrar und starte ein Spiel. -> Übelste Spikes aus der Hölle, bei jeden Titel, mache ein neustart. Starte ein Spiel. Spikes weg, alles läuft geschmeidig, starte wieder die Winrar Prozedur. Starte ein Spiel, wieder Spikes. Winrar empfehle ich nur, da es die schnellste Möglichkeit ist den Standby Verbrauch anschwellen zu lassen, geht auch so im normalen Desktop betrieb, dauert dann aber länger.
Seit 1703 gibt es diesen Bug, ob es bei AMD auftritt, weiß ich nicht. Ich vermute nicht, irgendwas ist da im Nvidia Treiber seit 1703 nicht mehr "harmonisch" in Kombination der Änderungen durch 1703 :freak:
Fixes?
1607 LTSB installieren!
Neustart!
von 16GB auf 32GB upgraden!
Emptystandbylist Script per Aufgabenplanung für alle 5 Minuten erstellen!
Hier ein Video des Problems:
_lJcv0V4qlY
crux2005
2018-08-19, 03:38:35
Ja, ist ein Windows 10 ver. 1803 Problem.
https://www.reddit.com/r/Windows10/comments/7a0763/standby_memory_issue_causing_stutters_on_creators/ (Link von Blaire)
Ich habe es auch mit 32 GiB RAM. :(
Ex3cut3r
2018-08-19, 03:55:31
Oh, aber 32GB sollte es wenigstens hinauszögern.
aufkrawall
2018-08-19, 11:15:41
Das hat allerdings nichts mit DX12 oder den Vollbildoptimierungen zu tun. ;)
Achill
2018-08-19, 11:24:14
afair hatte dildo auch kürzlich einen pcgh-test von wolf2 gepostet, wo die 1080 in 4k weitaus dramatischer einbrach als vega. amd kennt für vulkan nur den klassischen fullscreen exclusive mode, nvidia nur den "direct borderless" wie für dx12. wäre schon eine ziemlich naheliegende erklärung...
Vega könnte aber den belegt Speicher vom MS DWM auch einfach HBCC auslagern/ausgelagert haben, wenn dies im Test aktiv war. Für das OS sieht es ja wie VRAM aus.
Wir sind aber m.E. stark OT - evtl. macht ja ein "DX12 & Probleme" Thread sinn.
aufkrawall
2018-08-19, 12:07:04
So ganz OT sind wir auch nicht.
Mir war übrigens schon bei Ashes und SS: Fusion aufgefallen, dass DX12 gerne mal viel mehr VRAM als Vulkan frisst. Bei RotTR ist das offenbar auch wieder der Fall, mit dem Linux-Port ging hier der Verbrauch nach fünf Minuten nicht über 6,6GB:
https://abload.de/thumb/screenshot_20180819_11we0b.png (https://abload.de/image.php?img=screenshot_20180819_11we0b.png)
Mit was für einem Müll man sich in der schönen neuen DX12-Welt rumschlagen muss, es ist unfassbar...
dildo4u
2018-08-19, 12:24:01
Schade das sie sich die Arbeit gemacht haben aber es unter Win 10 nicht anbieten.Bin mal gespannt mit was der neue Teil startet.
aufkrawall
2018-08-19, 12:58:00
Der Vulkan-Port für Linux ist von Feral, Nixxes hat damit wenig oder gar nichts zu tun. Vulkan für Windows ist extrem unwahrscheinlich.
dargo
2018-08-19, 13:28:11
Ich verstehe das Problem nicht so ganz. Bei mir werden in 1440p auch die 8GB voll gemacht. Warum auch nicht wenn die Karte den Speicher zur Verfügung stellt? Ich sehe dadurch keine Performanceinbussen gegenüber Texturen "high", wo der Speicherpool weniger als die Hälfte reserviert.
https://abload.de/thumb/rottr_2018_08_19_13_3fif5a.jpg (https://abload.de/image.php?img=rottr_2018_08_19_13_3fif5a.jpg)
Edit:
Und wenn ich der Karte 12GB Speicher zuweise ändert sich am Speicherpool nicht wirklich was.
https://abload.de/thumb/rottr_2018_08_19_13_4p4ipa.jpg (https://abload.de/image.php?img=rottr_2018_08_19_13_4p4ipa.jpg)
Ist das was nvidia-spezifisches?
PS: Sorry für den abweichenden Blickwinkel.
btw.
Das mit den 6,6GB unter Linux und Vulkan muss nichts heißen. Das Speichermanagement könnte ganz einfach anders funktionieren. Kein reservierter Speicherpool sondern der tatsächlich benötigte Vram.
aufkrawall
2018-08-19, 14:11:48
Ich verstehe das Problem nicht so ganz. Bei mir werden in 1440p auch die 8GB voll gemacht. Warum auch nicht wenn die Karte den Speicher zur Verfügung stellt? Ich sehe dadurch keine Performanceinbussen gegenüber Texturen "high", wo der Speicherpool weniger als die Hälfte reserviert.
https://abload.de/thumb/rottr_2018_08_19_13_3fif5a.jpg (https://abload.de/image.php?img=rottr_2018_08_19_13_3fif5a.jpg)
Edit:
Und wenn ich der Karte 12GB Speicher zuweise ändert sich am Speicherpool nicht wirklich was.
https://abload.de/thumb/rottr_2018_08_19_13_4p4ipa.jpg (https://abload.de/image.php?img=rottr_2018_08_19_13_4p4ipa.jpg)
Ist das was nvidia-spezifisches?
Ich habe doch geschrieben, dass es plötzlich während des Spielens auftrat, und folglich nicht einfach mal eben reproduzierbar durch Starten des Spiels ist.
Ich schrieb auch vom Manor-DLC und nicht dem Hauptspiel. Dass es zwischen den Herstellern Unterschiede dabei gibt, ist zu bezweifeln, außer Spiel oder Treiber handeln bei Hersteller X die VRAM-Knappheit besser. Dürfte aber nichts an der DWM-Problematik als solcher ändern, denn das bestimmt ja Microsoft und nicht AMD oder NV.
btw.
Das mit den 6,6GB unter Linux und Vulkan muss nichts heißen. Das Speichermanagement könnte ganz einfach anders funktionieren. Kein reservierter Speicherpool sondern der tatsächlich benötigte Vram.
Dir ist aber schon aufgefallen, dass ich konkret von schlechter Performance durch VRAM-Knappheit geschrieben habe, ja? Also braucht der DX12-Renderer die Menge auch irgendwann, um keine Performance-Probleme zu bekomen. Wenn der Vulkan-Renderer weniger alloziert, braucht er logischerweise auch weniger.
dargo
2018-08-19, 14:19:10
Dir ist aber schon aufgefallen, dass ich konkret von schlechter Performance durch VRAM-Knappheit geschrieben habe, ja?
Logisch, deshalb fragte ich auch ob es was nvidia-spezifisches ist? :freak: Warum? Ganz einfach weil ich das hier mit Vega nicht nachstellen kann.
aufkrawall
2018-08-19, 14:22:59
Das muss nur nichts heißen, weil Ex3cut3r das Problem auch hatte und ebenfalls nicht mal eben so reproduzieren konnte.
Du kannst aber mal in Wolfenstein 2 in 4k zwischen Fenster und Vollbild switchen und schauen, ob das einen Unterschied macht.
dargo
2018-08-19, 14:35:28
4k im Fenster auf einem 1440p Bildschirm geht nicht. :D
aufkrawall
2018-08-19, 14:35:53
Du kannst doch die VSR-Auflösung auf dem Desktop auswählen.
dargo
2018-08-19, 14:45:32
Stimmt... ich werde zu alt für dieses Gefrickel. :usad:
Gerade in 4k getestet. Sehe keinen Unterschied zwischen Fenster, Borderless und Vollbild. Weder in den Frames, noch im Speicherverbrauch oder Frametimes.
Ex3cut3r
2018-08-19, 16:48:11
Dann ist es wohl ein Nvidia Treiber?! Problem. :(
aufkrawall
2018-08-19, 17:00:48
Tja, oder der AMD-Treiber kommt in diesen beiden LL-Spielen besser mit VRAM-Knappheit klar.
Ich wollte ja eh auf Navi warten.. :freak:
dargo
2018-08-19, 17:17:37
Das einzige was ich noch nicht ganz verstehe warum deine Karte schon bei 7336MB so abkackt? Wieviel geht da bei dir durch WDM verloren? 1GB? :| Oder ist das eine 7+1GB Karte... quasi GTX970 reloaded? :D Spaß... ;)
Ex3cut3r
2018-08-19, 17:25:30
Nein, ich schätze in DX12 kann der Nvidia Treiber nicht auf die vollen 8GB zugreifen, weil es in Dx12 kein exclusiver Fullscreen bei Nvidia ist, sondern ein Borderless Window Gedöns, der Desktop und blöde MS Apps, wie Wetter und Co. fressen auch ein wenig VRAM, wenn sie nicht geschlossen werden, sieht man ja im Task Manager, deswegen kann es sein, dass je nach User der Desktop + Apps sich VRAM von 300 - 700MB genehmigt, und der blöde NV DX12 Treiber auf diese bei DX12 Anwendungen nicht zugreifen kann, ergo hat man nur 7,3 GB Frei. :(
Und ROTTR genehmigt sich halt mit Ultra Texturen schon 8GB, in DX11 hat man dieses Problem nicht, da reichen die 8GB wieder, weil die Geforce sich wieder voll bedienen kann.
aufkrawall
2018-08-19, 17:33:50
Es geht aber nicht um irgendwelche Hintergrundprogramme, denn da lief bei mir so gut wie nichts. Es geht um den DWM, und der läuft natürlich auch bei AMD bzw. läuft da DX12 auch nur im "direct borderless". ;)
Du bist mir da auch etwas zu vorschnell, das NV in die Schuhe zu schieben. Kann wie gesagt auch einfach sein, dass der AMD-Treiber die Knappheit allgemein besser verwaltet bzw. wegen LL kann es sogar an den Anwendungen selbst liegen.
Ex3cut3r
2018-08-19, 17:37:54
War auch nur ein Gedanke, kann natürlich auch so sein, wie du es schilderst.
Kriton
2018-08-19, 19:44:31
Kann wie gesagt auch einfach sein, dass der AMD-Treiber die Knappheit allgemein besser veraltet bzw. wegen LL kann es sogar an den Anwendungen selbst liegen.
Macht der Treiber unter DX12 da überhaupt noch etwas?
gravitationsfeld
2018-08-19, 20:03:58
WDDM macht etwas. Der Treiber hat dem Folge zu leisten.
aufkrawall
2018-08-19, 20:04:36
Macht der Treiber unter DX12 da überhaupt noch etwas?
Die Anwendung kann ja z.B. nicht erzwingen, dass die Daten anderer Anwendungen aus dem VRAM in den RAM ausgelagert werden.
gravitationsfeld
2018-08-19, 20:14:06
Uebrigens werden immer ganze Allokations-Bloecke verschoben, nicht z.B. einzelne Texturen. Also normalerweise hunderte Megabyte.
Kriton
2018-08-19, 22:35:50
Danke für die Info. Ich hatte vermutlich zuviel hinein interpretiert wenn darüber gesprochen wurde, dass DX12 und Vulkan die Speicherverwaltung den Entwicklern überlassen.
gravitationsfeld
2018-08-20, 02:46:02
Da ist auch viel den Entwicklern ueberlassen, aber eben nicht alles. Die App allokiert z.B. 100MB-Bloecke und innerhalb dieser macht sie dann was sie will. WDDM schiebt die Bloecke aber aus dem VRAM wenn es sein muss - geht nicht anders bei einem OS wo beliebig viele Anwendungen aktiv sein koennen.
Auch die DMA-Transfer-Queues werden komplett von der Anwendung gesteuert, da war ueberhaupt keine Kontrolle da frueher.
Es gibt auch ein Interface um das OS zu fragen wieviel Speicher denn im Moment verfuegbar ist. Darauf kann die Anwendung dann reagieren, indem sie z.B. den Texturen-Pool dynamisch kleiner oder groesser macht.
Kriton
2018-08-20, 07:34:25
Danke.
Locuza
2018-08-20, 20:38:39
Dank der Turing-Präsentation kennen wir nun 21 kommende Spiele mit DX12 oder Vulkan:
https://abload.de/img/rtxwvc4c.png
Also nach 3 Jahren bekommt Ark nun endlich den versprochenen DX12-Renderer (vielleicht). ;D
Da ist man natürlich gespannt, wie gut die Umsetzung von den expliziten APIs ausfallen wird und ob es nicht relativ mies laufen wird und nur wegen RTX verwendet wird.
Wäre langsam Zeit das "gescheite" DX12/Vulkan-Umsetzungen Schule machen.
dargo
2018-08-20, 21:02:35
Sicher, dass DLSS auch DX12/Vulkan voraussetzt?
https://nvidianews.nvidia.com/news/nvidia-rtx-platform-brings-real-time-ray-tracing-and-ai-to-barrage-of-blockbuster-games
Troyan
2018-08-20, 21:31:13
Nein, nur die Spiele mit Raytracing sind DX12/Vulkan. DLSS fällt jedoch auch unter RTX. Hitman 2 z.B. hat kein Raytracing, aber dafür DLSS. Gut, das Spiel sollte auch DX12 perse haben.
Locuza
2018-08-20, 21:33:03
@ dargo
Nein, da habe ich zu Beginn RTX zu sehr mit Raytracing verbunden.
Es werden dann wohl nur diese Spiele DX12/Vulkan unterstützen:
Assetto Corsa Competizione from Kunos Simulazioni/505 Games
Atomic Heart from Mundfish
Battlefield V from EA/DICE
Control from Remedy Entertainment/505 Games
Enlisted from Gaijin Entertainment/Darkflow Software
Justice from NetEase
JX3 from Kingsoft
MechWarrior 5: Mercenaries from Piranha Games
Metro Exodus from 4A Games
ProjectDH from Nexon’s devCAT Studio
Shadow of the Tomb Raider from Square Enix/Eidos-Montréal/Crystal Dynamics/Nixxes
Wobei wie man beim Vulkan-Thread lesen kann, hat FF15 in Steams Datenbank ein Update mit einer Vulkan-Version bekommen hat.
Das kann natürlich völlig unabhängig von RTX sein.
Und stimmt, Hitman2 dürfte sowieso DX12 umsetzen, ebenso Serious Sam 4.
dargo
2018-08-20, 21:42:14
Gut... dann habe ich meine Liste (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=565059) richtig ergänzt.
Rancor
2018-08-24, 21:54:00
https://www.youtube.com/watch?v=5Gk5ca9U1IA
Sieht garnicht so kacke aus für Nvidia
y33H@
2018-08-24, 22:11:20
Was ist denn in Dirt 4 bei der Geforce kaputt? :ulol: vor allem weil F1 2017 dann wieder normal aussieht ...
Lightning
2018-08-24, 22:26:08
Was ist denn in Dirt 4 bei der Geforce kaputt? :ulol: vor allem weil F1 2017 dann wieder normal aussieht ...
Ist das nicht normal in Dirt 4?
Zum Vergleich z.B.:
https://www.techspot.com/review/1476-amd-radeon-vega-64/page2.html
aufkrawall
2018-08-25, 16:47:09
War wohl nix mit DX12 zwingend für Raytracing?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11781250&postcount=758
gravitationsfeld
2018-08-25, 18:08:25
Uh, doch.
y33H@
2018-08-25, 18:30:18
D3D12 oder Vulkan per Extension soweit ich das bisher verstehe.
aufkrawall
2018-08-25, 18:47:45
Dann wird wohl die Anzeige für die ausgewählte API in dem BF5-Video nicht richtig funktionieren.
Gibt es nicht mit Optix noch ein drittes API?
gravitationsfeld
2018-08-25, 22:42:24
OptiX kann nur reines Raytracing.
Danke, ich sehe bei dem Video auf das aufkrawall verlinkt hat, eigentlich auch nur bei Sekunde 18 (oder so) für einen Bruchteil "DirectX 12" durch die Optionen huschen?!?
dildo4u
2018-08-26, 10:14:52
Was ist denn in Dirt 4 bei der Geforce kaputt? :ulol: vor allem weil F1 2017 dann wieder normal aussieht ...
Nutzt Dirt 4 Advanced Blending von Dirt Rally?Das killt Performance auf Geforce.
dargo
2018-08-26, 17:55:32
Nutzt Dirt 4 Advanced Blending von Dirt Rally?Das killt Performance auf Geforce.
Da killt nichts die Performance auf Geforces in Dirt 4. Die sind genau da wo sie hingehören. Erst beim Einsatz von MSAA kommen die an Vega dran. Witzig ist es dennoch wenn in 1080p selbst eine Referenz Vega56 eine Custom 1080TI überholt. Ein netter Fall wenn die API bzw. der Treiber nicht zum limitierenden Faktor wird.
Und was dann? Dir ist schon klar, dass eine Vega56 (und nebenbei auch eine 64) weniger Rohleistung hat als eine 1080 Ti?
gravitationsfeld
2018-08-26, 23:43:51
Nein? Vega 64 Rohleistung ist 12,5 TFLOPS, 1080 Ti 11.3 TFLOPS
Ex3cut3r
2018-08-27, 00:09:28
Ja dann musste die Vega ja immer ein bisschen schneller in alles Games sein, wenn man danach gehen wurde, also bitte. Effektiv kann AMD wohl so 9TFLOPS mit ihren Treibern rausquetschen, oder wo bleibt die ganze Power stecken? Und jetzt bitte nicht mit DX12 ankommen.
5Gk5ca9U1IA
Nein? Vega 64 Rohleistung ist 12,5 TFLOPS, 1080 Ti 11.3 TFLOPS
Die Aorus Xtreme (um die es wohl gerade geht) ist mit 1607/1632 base, 1721/1746 boost angegeben (gaming/oc mode), das macht irgendwas zwischen 11,5 und 12,5 TFLOPs. Wobei idR. der typische boost ja noch ueberschritten wird (bei PCGH und CB laeuft die Karte idR. >1.800 MHz ~ 12,9 TFLOPS). Bei Vega wird der Nenntakt ohne UV dagegen idR. unter- statt ueberschritten (1,4-1,5 GHz ~ 11,5-12,3 TFLOPS?).
Beim verlinkten Test sind zwar keine konkreten Taktangaben zu DIRT dabei, aber selbst bei einer Referenz-Ti waere ich mir da nicht sicher, ob die nicht default vs. default oefters mal mit mehr TFLOPS laeuft. Fuer eine V64@1,4 GHz braucht die Ti ja nur 1,6 GHz.
Das ist ja die Krux. Frueher hat AMD mit staerkeren Daten oftmals noch mit Nvidia mithalten koennen, bei Vega vs. GP102 ist das halt nicht mal mehr der Fall dass AMD auf dem Papier mehr Leistung hat.
Kriton
2018-08-27, 01:04:48
Ja dann musste die Vega ja immer ein bisschen schneller in alles Games sein, wenn man danach gehen wurde, also bitte. Effektiv kann AMD wohl so 9TFLOPS mit ihren Treibern rausquetschen, oder wo bleibt die ganze Power stecken? Und jetzt bitte nicht mit DX12 ankommen.
http://youtu.be/5Gk5ca9U1IA
Die Abhängigkeit der Kombination von SW und HW ist aber schon klar, oder? Bei unterschiedlichen HW-Architekturen kann es natürlich so sein, dass eine darauf laufende SW-Lösung besser auf einer HW läuft als auf einer anderen (bei z.B. gleicher Rohleistung). Oder meinst Du, der Treiber kann das alles austauschen/richten? Das ist dann doch eher utopisch.
dargo
2018-08-27, 07:54:51
Nein? Vega 64 Rohleistung ist 12,5 TFLOPS, 1080 Ti 11.3 TFLOPS
Kleine Korrektur am Rande... dafür müsste eine Referenz RX Vega64 mit 1526Mhz takten, das schafft keine Referenz in Games.
Und was dann? Dir ist schon klar, dass eine Vega56 (und nebenbei auch eine 64) weniger Rohleistung hat als eine 1080 Ti?
Ja... ist mir. Und das Ergebnis sieht man auch in 4k. ;)
Das einzig interessante in dem Spiel (womöglich sogar nur Testszene) ist, dass AMD hier im höheren CPU-Limit (1080p) mehr rausholt, trotz DX11. Dass die Geforces bei den min.fps bis 1440p schwächeln (bei den avgs. ist die 1080TI Custom bsw. schon auf dem ersten Platz) zeigt mir eigentlich nur, dass die Frametimes im stärkeren CPU-Limit bei den Geforces stärker spiken. Zum besseren Verständnis... die Custom 1080TI verliert beim Wechsel von 1080p auf 4k bei min.fps nur 31% während die Vega56 64% verliert.
dildo4u
2018-08-27, 10:53:38
Ja dann musste die Vega ja immer ein bisschen schneller in alles Games sein, wenn man danach gehen wurde, also bitte. Effektiv kann AMD wohl so 9TFLOPS mit ihren Treibern rausquetschen, oder wo bleibt die ganze Power stecken? Und jetzt bitte nicht mit DX12 ankommen.
http://youtu.be/5Gk5ca9U1IA
Turing ist der Alptraum für AMD,jetzt muss Nvidia Low Level Performance fixen.
dargo
2018-08-27, 10:55:23
Turing ist der Alptraum für AMD...
Bei der aktuellen Preisgestaltung? ;D
dildo4u
2018-08-27, 10:57:51
Ich meinte eher das der Treiber allgemein optimiert wird,da RTX Low Level braucht.
Rancor
2018-08-27, 10:58:20
Turing ist der Alptraum für AMD,jetzt muss Nvidia Low Level Performance fixen.
Teschnologisch gesehen schon. Bei den absurden Preisen aber eher nicht.
dargo
2018-08-27, 11:03:49
Ich meinte eher das der Treiber allgemein optimiert wird,da RTX Low Level braucht.
Nüchtern betrachtet sind low level Spiele eher ein Vorteil für AMD. ;) Aktuell heißt es immer noch Pascal/Maxwell gegen Vega/Polaris/Fury/Grenada wenn es um die millionenfach verbauten GPUs in den Rechnern geht. Turing ist da erstmal Zukunft, erst recht bei den Preisen. Etwas anders wird es aussehen wenn eine 2050/2060 (höchstwahrscheinlich ohne den RT-Teil) kommt.
gravitationsfeld
2018-08-27, 18:12:01
Turing ist der Alptraum für AMD,jetzt muss Nvidia Low Level Performance fixen.
Leerzeichen nach Satzzeichen. Du machst das staendig.
Kartenlehrling
2018-08-28, 16:30:33
Das Video ist ja schon von März 2018 von der San Francisco GDC 2018.
Window 10 unterstützt es aber erst offizell mit Windows 10 1809 Oktober (Redstone 5).
81E9yVU-KB8
DirectX Raytracing tech demo - accurate real-time reflections
Bei der aktuellen Preisgestaltung? ;D
Jo das würd ich auch so sehen, das ist AMDs Rettung, weil die ihren Krempel ebenfalls im Fahrtwind ordentlich teuer verkaufen können.
Deinorius
2018-08-28, 22:28:40
Wieso Rettung? Wann sollen die GTX Varianten der neuen Generation, also 2060 usw., erscheinen. AMD muss noch weiterhin gegen Pascal ankommen. Ich bezweifle, dass die so schnell vom Markt verschwinden.
Und auch wenn die neuen Karten teuer sind, die bieten mehr Leistung (davon gehe ich jetzt mal aus), dürfen auch mehr kosten. Wenn z.B. eine GTX 2050 Ti sich mit einer RX 580 anlegen kann, oder die GTX 2060 mit den Vega Karten, muss AMD wieder über den Preis reagieren.
Ex3cut3r
2018-08-28, 22:48:39
Sieht so aus aktuell ja, aber wissen immer noch nicht genau, wie schnell die RTX 2070 wird, wenn sie mit OC 1080Ti/ Titan XP Leistung erreichen kann, dann könnte eine RTX/GTX 2060 wirklich für AMD gefährlich werden, allerdings wenn diese 2060, Vega 64 erreichen kann, dürfte die wohl bei 400-500€ einsteigen. Zudem glaube ich wird die nur 6GB VRAM haben.
Gipsel
2018-08-29, 13:20:20
Nur mal so zur Erinnerung:
Dies ist der DX12 API Thread im Technologieforum.
y33H@
2018-09-06, 11:22:41
Hihi :tongue:
Quantum Break in DX12 weiter langsam auf Geforces
https://www.golem.de/news/remedy-quantum-break-in-dx12-weiter-langsam-auf-geforces-1809-136417.html
Kartenlehrling
2018-09-06, 11:32:54
gibts da überhaupt noch updates, oder ist das immer noch stand vor 2 jahre?
Gibts im Steam auch eine DX12 api, die dx11 version kam ja viel später und mit Verbesserunge?
In Vorbereitung auf Nvidias kommende Geforce RTX testen wir gerade allerhand Grafikkarten in aktuellen und älteren Spielen, darunter Remedys Quantum Break.
Der Titel erschien ursprünglich im April 2016 exklusiv als UWP-App im Microsoft Store unter Windows 10 und
nutzt die Direct3D-12-Grafikschnittstelle, im Oktober 2016 folgte dann eine Steam-Version rein mit Direct3D 11 als API.
Vor gut zwei Jahren zeigte sich, dass Radeon-Karten unter D3D12 und D3D11 praktisch identisch abschnitten,
wenn gleich die UWP-Version leicht bessere Frametimes aufzeigte.
Bei Geforce-Pixelbeschleunigern hingegen lief Quantum Break mit D3D11 viel besser - und das ist heute immer noch der Fall.
y33H@
2018-09-06, 11:37:16
Da steht doch, dass UWP nur D3D12 und Steam nur D3D11 ... es gab zwischenzeitlich Patches, aber wohl keine für die Geforce-Performance mit der Store-Version.
Locuza
2018-09-06, 12:33:03
Stürzt das Spiel immerhin nicht ab unter Pascal?
Ich weiß das Maxwell GPUs zu Beginn noch häufiger Abstürze zu vermelden hatten, keine Ahnung ob das Spiele-Updates und/oder Treiberupdates gefixed/verbessert haben.
y33H@
2018-09-06, 12:51:11
Ich habe die UWP ca zur Hälfte durchgespielt und gestern die Steam bis 2tes Level wegen dem Benchmark-Savegame, auf der Geforce GTX 1080 Ti lief es tadellos.
Locuza
2018-09-06, 13:42:51
Ihr schreibt Folgendes:
Quantum Break ist deshalb Teil unseres Parcours, weil der Titel auf der Titan V mit Volta-Architektur extrem gut läuft und wir wissen wollten, ob es auch den Geforce RTX mit der recht ähnlichen Turing-Technik liegt.
Gilt das auch für DX12 bzw. sind die Relationen im Vergleich zu DX11 deutlich geringer, als bei Pascal?
y33H@
2018-09-06, 14:21:57
Ich habe die Titan V nur in DX11 gebencht, schaue dann bei Turing beide APIs an.
gravitationsfeld
2018-09-06, 16:25:59
Hihi :tongue:
https://www.golem.de/news/remedy-quantum-break-in-dx12-weiter-langsam-auf-geforces-1809-136417.html
Ich weiß es nicht was Remedy da verbrochen hat. Selbst in D3D11 ist die Perf viel zu niedrig.
Tatwaffe
2018-09-08, 13:21:36
ich meine mich zu erinnern das das game ganz extrem auf die xbox one und ihren edram optimiert wurde, und erst im letzten moment auf ne pc version umgeschwenkt wurde.
vinacis_vivids
2018-09-08, 14:18:43
Ist wieder der nächste Entwickler Schuld wenn Nvidia in LL-API abermals schwach performt?
dildo4u
2018-09-08, 14:26:57
Der Entwickler wurde von MS gezwungen DX12 zu porten um Win 10 zu pushen.Wenn du mal auf AMDs eigene Seite guckst bekommen viele GPU's erst jetzt vernünftigen Support in diversen DX12 Entwickler Tools.
https://gpuopen.com/microsoft-pix-introduces-amd-integrated-plug-occupancy-data-graph/
vinacis_vivids
2018-09-08, 15:23:47
Du solltest auch mal lesen was du hier hinzimmerst:
"The functionality to enable the new PIX GPU Occupancy Data is already shipping in all AMD GPU drivers, and does not require any additional changes, downloads, or installation."
Shadow of the Tomb Raider im Vorab-Techniktest: 116 Prozent flüssiger mit DirectX 12 (http://www.pcgameshardware.de/?article_id=1264575&draft=781659&token=509729F67E31B69A4EEAB043B0ED31AD)
Plus Einhundertsechzehn Prozent ggü. DX11! Bestenfalls. Allerdings nicht optimal verteilte Frames – wird im Grafiklimit besser.
MfG,
Raff
Ex3cut3r
2018-09-10, 15:23:55
Sehr schön Raff, danke für deine Arbeit. :up:
Wirds mit DX12 spielen, wenn endlich mal die RTX eintrudelt.
Die Spikes in DX12 und DX11 sind allerdings unschön, hoffentlich basteln sie noch am Code bis zum Rls.
aufkrawall
2018-09-10, 15:29:11
Da werden sicherlich wieder viele Technik-Patches kommen, wie schon beim Vorgänger.
Offenbar hat sich die Engine aber in die Top-Riege gemausert.
BlackBirdSR
2018-09-10, 16:05:15
Haha! Endlich hat das Marketing kapiert, dass man mit DX12 prima Werbung machen kann.
DX11 sabotieren und die Medien fallen drauf rein, schon bekommt man Mega Hype kostenlos.
Wer TR spielt hat eh DX12, alles perfekt.
... Not speaking for my employer...
Shadow of the Tomb Raider im Vorab-Techniktest: 116 Prozent flüssiger mit DirectX 12 (http://www.pcgameshardware.de/?article_id=1264575&draft=781659&token=509729F67E31B69A4EEAB043B0ED31AD)
Plus Einhundertsechzehn Prozent ggü. DX11! Bestenfalls. Allerdings nicht optimal verteilte Frames – wird im Grafiklimit besser.
MfG,
Raff
aufkrawall
2018-09-10, 16:09:02
Get your facts straight, DX11 hat viel mehr Overhead und gutes MT ist viel schwerer umzusetzen.
Das Gewhine der Win 10-Verweigerer bekommt wohl mal wieder den nächsten Höhepunkt, das wird noch sehr nerven...
Ganon
2018-09-10, 16:57:20
Im Mid-Range Bereich sieht der Unterschied schon gar nicht mehr so dramatisch aus, wenn ich mir die Tests auf ComputerBase (https://www.computerbase.de/2018-09/shadow-of-the-tomb-raider-benchmark/2/) so anschaue. Von daher doch eigentlich nur das, was man sich schon länger von den neuen APIs erhofft hat? Lahme CPUs profitieren ziemlich gut und bei lahmen GPUs wird die API tendenziell eher egal?
dildo4u
2018-09-10, 17:31:08
Es kommen Bald GPUs wo die Unterschiede deutlich größer sein können.
Ganon
2018-09-10, 17:41:14
"können". Ich finde es nur gerade lustig, dass man sich sonst immer beschwert, dass DX12 keinen Vorteil zu DX11 hat und kaum ist DX12 mal ein bisschen schneller ist es gleich eine Verschwörung :ugly:
Ich mein, je nachdem auf welche Werte man schaut und je nach Konstellation bewegt sich der Unterschied doch bei ~10% im "Durchschnitts-PC" (avg fps).
Da wird Nixxes die volle Priorität auf dem von NV favourisierten Renderer gehabt haben. DX11 gibts ja nur noch damit man Win7 auf die Packung schreiben kann :D.
Locuza
2018-09-10, 18:22:13
Im Mid-Range Bereich sieht der Unterschied schon gar nicht mehr so dramatisch aus, wenn ich mir die Tests auf ComputerBase (https://www.computerbase.de/2018-09/shadow-of-the-tomb-raider-benchmark/2/) so anschaue. Von daher doch eigentlich nur das, was man sich schon länger von den neuen APIs erhofft hat? Lahme CPUs profitieren ziemlich gut und bei lahmen GPUs wird die API tendenziell eher egal?
Ja, bei lahmen Krücken wie dem 2700X Ryzen Topmodell sieht man mit Mid-Range GPU-Modellen keinen so großen Unterschied. ;D
PCGH verwendet bei einer fordernden Szene einen 1700 mit 3.0 Ghz, dass Ding schafft im Schnitt nur ~35FPS mit DX11, während es mit DX12 ~77FPS (+116%) sind.
http://www.pcgameshardware.de/screenshots/1020x/2018/09/Shadow-of-the-Tomb-Raider-vs.-Rise-of-the-Tomb-Raider-API-CPU-performance-pcgh.png
http://www.pcgameshardware.de/Shadow-of-the-Tomb-Raider-Spiel-61096/Specials/Shadow-of-the-Tomb-Raider-Benchmarks-1264575/
Was man hier besonders sieht, falls die Performance unter DX11 sich nicht deutlich verbessern wird mit finaler Version, dass Shadow of the Tomb Raider fordernder ist, als der Vorgänger.
Während es mit DX12 nicht so dramatisch ausfällt, bricht unter DX11 die Performance beim neuem Titel in Vergleich völlig weg.
Wie bei Wolfenstein II scheint das ein guter Vorgeschmack dafür zu sein, dass bei zukünftiger Komplexität der Spielszenen Schluss mit Lustig bei DX11 sein wird.
Ganon
2018-09-10, 18:35:40
PCGH verwendet bei einer fordernden Szene einen 1700 mit 3.0 Ghz, dass Ding schafft im Schnitt nur ~35FPS mit DX11, während es mit DX12 ~77FPS (+116%) sind.
Ich hab nicht ohne Grund auf den ComputerBase Test verwiesen...
aufkrawall
2018-09-10, 18:38:37
In der CB-Scene ist allerdings auch genau 0 los.
Wie bei Wolfenstein II scheint das ein guter Vorgeschmack dafür zu sein, dass bei zukünftiger Komplexität der Spielszenen Schluss mit Lustig bei DX11 sein wird.
DX12/Vulkan fristen ohnehin schon viel zu lange ein Nischendasein.
dildo4u
2018-09-10, 18:50:39
In der CB-Scene ist allerdings auch genau 0 los.
Jup ich will sehen wie das hier läuft.
https://youtu.be/g-5eg5BOQiQ?t=2m8s
Ganon
2018-09-10, 19:04:22
In der CB-Scene ist allerdings auch genau 0 los.
Und bei PCGH sind die Settings so gewählt, dass man API Overhead triggert... Naja, egal... macht mal. Ich glaube meine Interessen sind zu sehr an Mainstream-Hardware/Settings orientiert für die Debatte :D
Ja, bei lahmen Krücken wie dem 2700X Ryzen Topmodell sieht man mit Mid-Range GPU-Modellen keinen so großen Unterschied. ;D
PCGH verwendet bei einer fordernden Szene einen 1700 mit 3.0 Ghz, dass Ding schafft im Schnitt nur ~35FPS mit DX11, während es mit DX12 ~77FPS (+116%) sind.
http://www.pcgameshardware.de/screenshots/1020x/2018/09/Shadow-of-the-Tomb-Raider-vs.-Rise-of-the-Tomb-Raider-API-CPU-performance-pcgh.png
http://www.pcgameshardware.de/Shadow-of-the-Tomb-Raider-Spiel-61096/Specials/Shadow-of-the-Tomb-Raider-Benchmarks-1264575/
Naja. Fuer mich kein Grund fuer Freudenspruenge wenn ich mir den Graphen so anschaue. Klar wird Shadow mehr Details haben als Rise, aber rechtfertigt das vom Umfang her auch, das man im CPU Limit nicht mal mehr die Haelfte der Performance hat? Zumal Rise ja auch schon schlecht lief fuer die Optik. Man muss halt schon auch das Gesamtergebnis beruecksichtigen oder genau schauen wo man her kommt wenn man relative Vergleiche macht.
Daredevil
2018-09-10, 19:16:08
Sind 76fps für dich bei 3Ghz zu wenig, oder wie? ^^
Dann hau ich halt mit meinem 2010er Xeon noch 100fps+ raus. Ist doch ne feine Sache. (:
Ist ja durchaus auch ne Entwicklung, die die Konsolen gut finden werden.
Ex3cut3r
2018-09-10, 19:16:33
Ich finde den FPS Gewinn im CPU Limit erheblich, nun gut der Ryen ist mit 3Ghz jetzt auch keine Rakete, aber mit den üblichen 4ghz rennt DX12 ja auch nochmal schneller. Leider spikt das Game im CPU Limit noch, egal ob DX11 oder DX12, hoffentlich fixen Sie das bis zum Rls.
@CB das sage ich einfach mal nix, unsere Schön Wetter Bencher, da lob ich mir doch unseren Raff, der erstmal zockt und eine Fordernde Benchszene raussucht. :up:
Geächteter
2018-09-10, 19:22:08
Haha! Endlich hat das Marketing kapiert, dass man mit DX12 prima Werbung machen kann.
Denke, DX11 wird jetzt endgültig ein Anhängsel werden, Krüppelperformance inklusive. Mal gucken, ob sie in Zukunft die Frametimes in DX12 geschissen bekommen. Letztendlich ein ziemliches Armutszeugnis, was die Devs mit gestiegener CPU-Power und DX12 in den letzten Jahren angestellt haben. Im Prinzip weiterhin quasistatische Cinema-Schläuche, bei der benötigten CPU-Leistung könnte man hingegen denken, da wird im Hintergrund die Bewegungsabläufe im halben Amazonas berechnet.
aufkrawall
2018-09-10, 19:36:20
Man muss halt auch sehen, dass in Frostbite-Spielen mit DX11 das LOD wie bescheuert am ploppen ist. Wenn SotTR kaum ploppt, wären die DX12 fps bei der Detaildichte schon völlig ok.
Letztendlich ein ziemliches Armutszeugnis, was die Devs mit gestiegener CPU-Power und DX12 in den letzten Jahren angestellt haben. Im Prinzip weiterhin quasistatische Cinema-Schläuche, bei der benötigten CPU-Leistung könnte man hingegen denken, da wird im Hintergrund die Bewegungsabläufe im halben Amazonas berechnet.
Größtenteils stimmt die Aussage zwar, es gibt aber Ausnahmen. Trotz DX11 ist die BF V Beta das eindrucksvollste Stück Technik was ich bisher mit meinem 7820X erleben durfte. Die Skalierung ist ohnehin schon beeindruckend, noch besser wird es aber wenn man die GPU als Flaschenhals entfernt. Drehe ich in der Beta den Regler bei Resolution Scale ganz nach links steigt die Auslastung der CPU brachial an. 1 Thread ist bei 95-100% Last alle anderen 15! Threads sind bei ca. 60%.
Eine derartige Auslastung in einem Spiel zu sehen ist der Wahnsinn, ebenso die Leistungsaufnahme :D. Der 7820X genehmigt sich mit 4,5 GHz Takt dann 170-180 Watt aus der Steckdose, gewohnt bin ich von anderen Spielen wegen der schwachen Last eher 80-100 Watt.
dargo
2018-09-10, 20:21:00
Und wieviel Prozent gehen davon auf Kosten vom NV-Treiber? :wink:
Und wieviel Prozent gehen davon auf Kosten vom NV-Treiber? :wink:
Viel kann es nicht sein, wenn ich bei Resolution Scalce auf 25% permanent im 200 FPS Cap hänge.
dargo
2018-09-10, 20:25:02
Hast du meine Frage verstanden?
aufkrawall
2018-09-10, 20:25:28
Und wieviel Prozent gehen davon auf Kosten vom NV-Treiber? :wink:
Bei BF1 war es jedenfalls nicht viel.
Hast du meine Frage verstanden?
Drück dich verständlich aus.
dargo
2018-09-10, 20:32:19
Drück dich verständlich aus.
Gerne etwas ausführlicher... wieviel Prozent der CPU-Last die dir da diverse Tools anzeigen (wobei das eh kein verlässliches Indiz für irgendwas sein muss) gehen auf Kosten der Engine bzw. Applikation alleine und wieviel auf Kosten vom Grafiktreiber?
Gerne etwas ausführlicher... wieviel Prozent der CPU-Last die dir da diverse Tools anzeigen (wobei das eh kein verlässliches Indiz für irgendwas sein muss) gehen auf Kosten der Engine bzw. Applikation alleine und wieviel auf Kosten vom Grafiktreiber?
Wie soll ich das laut deiner Meinung verlässlich messen?
gravitationsfeld
2018-09-10, 20:41:20
Es geht darum, dass die CPU-Last nicht unbedingt von der Engine kommen muss bei DX11.
Sind 76fps für dich bei 3Ghz zu wenig, oder wie? ^^
Ja, fuer 8C/16T in DX12 ehrlich gesagt schon.
Aber ist halt ein 30 FPS Konsolen Spiel(?), da wird sich vermutlich halt auch nicht mehr viel tun.
dargo
2018-09-10, 21:09:11
Wie soll ich das laut deiner Meinung verlässlich messen?
Mir ist schon klar, dass du das ohne spezielle Entwicklertools nicht ermitteln kannst. Ich finds halt nur jedes Mal etwas amüsant wenn sich jemand über hohe CPU-Auslastung bei einer D3D11-Applikation freut (habe es zumindest bei dir so gedeutet), speziell mit einer Nvidia Grafikkarte.
Ja, fuer 8C/16T in DX12 ehrlich gesagt schon.
Lastet die Applikation überhaupt 16 Threads vernünftig aus? Ich glaube nämlich nicht daran. Aber dazu müsste man sich die gleiche Szene noch mal mit 4C/8T und 6C/12T anschauen.
Ex3cut3r
2018-09-10, 21:32:12
Warum kriegt das AMD eigentlich @ DX11 nicht so hin?
Lastet die Applikation überhaupt 16 Threads vernünftig aus? Ich glaube nämlich nicht daran. Aber dazu müsste man sich die gleiche Szene noch mal mit 4C/8T und 6C/12T anschauen.
Denke ich mal nicht, aber keine Ahnung. Das hatte ich ja auch nicht behauptet.
aufkrawall
2018-09-10, 22:50:26
Aber ist halt ein 30 FPS Konsolen Spiel(?), da wird sich vermutlich halt auch nicht mehr viel tun.
Gibt einen 60fps Modus auf der XB1 X, und der PC-Port stammt nicht vom Konsolenspiel-Entwickler. ;)
Tatwaffe
2018-09-10, 23:41:46
wenn das keine rethorische Frage war, der dx11 Treiber skaliert bei AMD schlecht mit mehreren Kernen und die Drawcalls sind zu niedrig.
Obs an der Architektur liegt oder AMD einfach zuwenig Treiberentwickler hat keine Ahnung.
Um bei den AMD die volle Leistung zu bekommen brauch man Mantle/Vulkan/DX12 , die Drawcalls gehen um Faktor 9 hoch der Verwaltungsaufwand sinkt von 40% auf 8%.
Warum kriegt das AMD eigentlich @ DX11 nicht so hin?
Ex3cut3r
2018-09-10, 23:47:05
Ja ok, allerdings hat Nvidia DX11 auch erst mit dem Wundertreiber so richtig in Fahrt bekommen, meine Fresse das sind auch schon wieder über 4 Jahre her. :freak:
https://www.computerbase.de/2014-04/nvidia-geforce-337.50-benchmark-test-wundertreiber/
gravitationsfeld
2018-09-11, 01:58:07
Warum kriegt das AMD eigentlich @ DX11 nicht so hin?
Ist sau viel Aufwand und sie vertreten die Linie, dass der Muell sterben muss.
dargo
2018-09-11, 07:45:40
Gibt einen 60fps Modus auf der XB1 X, und der PC-Port stammt nicht vom Konsolenspiel-Entwickler. ;)
Echt jetzt? Dann ist die PC Performance aber echt sau schlecht, selbst mit DX12. Oder haben die Entwickler da wieder Ultra/Hyper Settings eingebaut die die Performance am PC ohne nennenswerten Grund total killen?
btw.
Ist das AF hier wieder auf GCN so teuer?
dildo4u
2018-09-11, 07:50:28
Erstmal Tests abwarten wie der 60fps Modus läuft.
btw.
Ist das AF hier wieder auf GCN so teuer?
Woher kommt das eigentlich? Bei meinen letzten Vega-Tests (http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Specials/Bestandsaufnahme-2018-1263275/) vor vier Wochen war in RotTR nichts auffällig teuer, daher ist diese Test-Idee sofort wieder gestorben. Da gab's wohl mal einen Treiber-Bug, aber eine grundsätzliche Texturformatsschwäche sehe ich nicht (lasse mich aber gerne eines Besseren belehren). :)
MfG,
Raff
dildo4u
2018-09-11, 08:33:03
Das war ein Problem mit seiner 390.Kann sein das Vega und Polaris nicht betroffen sind.
SKYNET
2018-09-11, 09:58:54
Echt jetzt? Dann ist die PC Performance aber echt sau schlecht, selbst mit DX12. Oder haben die Entwickler da wieder Ultra/Hyper Settings eingebaut die die Performance am PC ohne nennenswerten Grund total killen?
btw.
Ist das AF hier wieder auf GCN so teuer?
ich denke das fängt schon bei den texturen an, wenn ich mir den brei auf konsolen immer anschaue muss ich fast kotzen, egal welches game, die PC version sieht IMMER!! schöner aus.
dildo4u
2018-09-11, 10:29:19
Irgendwas muss in jedem Fall massiv Performance ziehen eine 580 hat unter 20fps in 4k.Die XBox One X Version scheint den Sweet Spot zu haben was Performance/Optik angeht.
http://www.gamersyde.com/download_shadow_of_the_tomb_raider_the_xbox_one_x_version_en_-42824_en.html
Ich würde ja gerne mal eine Konsolenversion im PCGH-Benchmarkkaff Kuwaq Yaku sehen. Hat jemand ein Video davon? Das muss mindestens leicht ruckeln.
Hier wird drauf eingegangen, wie viel schlechter es dort gegenüber einer normalen Dschungelszene läuft: https://www.youtube.com/watch?v=58jbq1bDOns
MfG,
Raff
dargo
2018-09-11, 12:12:14
Das war ein Problem mit seiner 390.Kann sein das Vega und Polaris nicht betroffen sind.
Mir wäre lieber wenn du öfter mal mit Fakten und nicht Vermutungen kommen würdest.
Woher kommt das eigentlich?
Da war afaik irgendwas mit einen Format welches GCN nicht schmeckt.
1xAF vs. 16xQ-AF
https://www2.pic-upload.de/thumb/35936981/ROTTR_2018_09_11_12_09_26_853.jpg (https://www.pic-upload.de/view-35936981/ROTTR_2018_09_11_12_09_26_853.jpg.html) https://www2.pic-upload.de/thumb/35936982/ROTTR_2018_09_11_12_09_52_334.jpg (https://www.pic-upload.de/view-35936982/ROTTR_2018_09_11_12_09_52_334.jpg.html)
Je nach Szene kann das noch mehr kosten. Habe leider kein besseres Savegame parat.
aufkrawall
2018-09-11, 12:17:55
Ist offenbar gefixt auf Vega.
dargo
2018-09-11, 12:19:38
22% für 1xAF nennst du gefixt? :freak: Zumal ich sicherlich nicht mal Worst Case erwischt habe.
aufkrawall
2018-09-11, 12:22:54
~20% waren es mit Nvidia auch und mit Hawaii war der Hit doppelt so hoch.
dargo
2018-09-11, 12:24:01
Das sind immer noch 15-19% zuviel, völlig egal wie Nvidia dort abschneidet.
aufkrawall
2018-09-11, 12:25:42
Unsinn, ~15% weniger fps für 16x AF vs 1x sind völlig normal.
dargo
2018-09-11, 12:44:38
In Wolf 2 bsw. ist 1xAF hier 4% schneller als 16xAF. Diesen Bereich empfinde ich eher als normal.
dildo4u
2018-09-11, 12:45:50
Wenn es so billige wäre würden die Konsolen nicht ständig daran sparen.
aufkrawall
2018-09-11, 13:00:54
In Wolf 2 bsw. ist 1xAF hier 4% schneller als 16xAF. Diesen Bereich empfinde ich eher als normal.
Wolf 2 filtert wegen MT nicht jede Textur mit 16x.
Was du als normal empfindest, ist kein volles AF.
mironicus
2018-09-11, 17:39:52
Irgendwas muss in jedem Fall massiv Performance ziehen eine 580 hat unter 20fps in 4k.Die XBox One X Version scheint den Sweet Spot zu haben was Performance/Optik angeht.
http://www.gamersyde.com/download_shadow_of_the_tomb_raider_the_xbox_one_x_version_en_-42824_en.html
Das sieht ja geil aus (vor allem der Dschungel ab 6:43). Das Spiel läuft also in 4K auf einer Xbox One X. Wieviel Geld muss man ausgeben, um in dieser Qualität auf einen PC spielen zu können?
dildo4u
2018-09-12, 07:26:58
Ist wohl nicht ganz 4k.
https://www.resetera.com/threads/digital-foundry-shadow-of-the-tomb-raider-is-a-beautiful-tech-showcase.67779/
][immy
2018-09-12, 08:24:32
Ist wohl nicht ganz 4k.
https://www.resetera.com/threads/digital-foundry-shadow-of-the-tomb-raider-is-a-beautiful-tech-showcase.67779/
Das war eigentlich auch schon zu erwarten. Ich frage mich dennoch, warum man hier nicht den Speicher nutzt. Das sollte eigentlich gegenüber der PS4 Pro was möglich sein, immerhin sind es 3,5GB mehr, die das Spiel zur Verfügung hat. Aber sieht auch so schon klasse aus.
Locuza
2018-09-12, 09:01:07
Es soll doch 4K sein, es gibt laut dem Entwickler keine dynamische Auflösungsskalierung.
Der Pixelcount ist dank TAA schwer zu zählen und DF war sich nicht sicher, ob das 4K sind oder weniger.
Yeah, I thought so too but we asked the dev and they are telling us it’s fixed 2016p. So it’s curious. Wasn’t sure if I was simply miscounting shots I thought were dynamic so I chose my words carefully.
https://www.resetera.com/posts/12506332/
dargo
2018-09-12, 09:12:08
Wolf 2 filtert wegen MT nicht jede Textur mit 16x.
Was du als normal empfindest, ist kein volles AF.
Warum habe ich damit gerechnet? :tongue: Bei Assetto Corsa ist 1xAF ebenfalls 4% schneller als 16xQ-AF. Was passt hier nicht?
Ganon
2018-09-12, 09:48:41
Ich will nur mal freundlich darauf hinweisen, dass das hier der DX12 API Thread ist. Pixelzählerei und Konsolen-Performance von SotTR bitte im Spiele-Thread erledigen und hier bitte eher DX11 vs DX12 oder allgemein DX12 thematisieren.
gravitationsfeld
2018-09-12, 18:56:26
Wolf 2 filtert wegen MT nicht jede Textur mit 16x.
Was du als normal empfindest, ist kein volles AF.
Wolf 2 benutzt kein Megatexture. Jedenfalls nicht fuer normale Texturen.
aufkrawall
2018-09-12, 19:03:05
Wenn es nicht jede Textur 16x via TMUs filtert, ist es halt trotzdem untauglich für die Überprüfung, wie viel AF kostet. Wenn man sich darüber beschwert, dass AF richtig funktioniert, wird es irgendwo absurd.
gravitationsfeld
2018-09-12, 20:58:07
Du verstehst mich nicht richtig, es sind 90% aller Texture-Fetches nicht "megatexture" (nur Lightmap ist virtual). Der Rest ist stink normales Texturing und bekommt volles AF.
aufkrawall
2018-09-12, 21:01:34
K, ich nahm an, es wäre noch mehr. Trotzdem kommen mir dargos Werte seltsam vor, Tests mit per Treiber forciertem AF (DX9/11) wären aufschlussreich.
Gehört dann aber wirklich nicht mehr hier rein.
gravitationsfeld
2018-09-12, 21:21:28
Es kommt halt drauf an. Wieviel Verzerrung hast du in der Szene, wie ist ALU/TEX ratio in den Shadern. Im Worst-Case kann AF ziemlich rein hauen, aber am PC ist es meistens relativ guenstig.
aufkrawall
2018-09-12, 22:00:41
Natürlich bieten sich planare Flächen für einen Vergleich an, und da sind es schnell und häufig ~15-20% auf Nvidia.
Voraussetzung für einen gescheiten Vergleich ist halt komplett aus vs. komplett an, und da kann man sich nur bei Treiber-AF sicher sein (gibts bei AMD für DX12 nicht).
https://abload.de/thumb/hitman_2018_09_12_21_qxcsx.png (https://abload.de/image.php?img=hitman_2018_09_12_21_qxcsx.png) https://abload.de/thumb/hitman_2018_09_12_21_zqcc2.png (https://abload.de/image.php?img=hitman_2018_09_12_21_zqcc2.png)
dildo4u
2018-09-14, 09:24:21
Computerbase hat Tomb Raider noch mal mit Day one Patch und Gameready Treibern gebencht.
https://www.computerbase.de/2018-09/shadow-of-the-tomb-raider-benchmark/2/#diagramm-sottr-mit-finalen-treibern-und-patch-1920-1080
Locuza
2018-09-14, 10:02:26
Schick schick, durch die Bank hat sich alles verbessert, damit steht auch in 4K ebenso bis besser dar, als DX11.
Besonders unter 1080p und 1440p, wo man überhaupt flüssige Bildraten mit hohen Einstellungen erreicht, führt kein Weg an DX12 vorbei, wenn man die beste Performance haben möchte.
Unter 1440p sind die Verbesserungen bei Vega zwar nett, aber die Frametimes bei einer 1080 massiv besser, obwohl die FPS darauf nicht hinweisen würden.
Noch mehr Karten wären interessant, auch wie sich Maxwell nun mit DX12 schlägt.
dargo
2018-09-14, 10:09:34
Unter 1440p sind die Verbesserungen bei Vega zwar nett, aber die Frametimes bei einer 1080 massiv besser, obwohl die FPS darauf nicht hinweisen würden.
Siehst du andere Grafiken als ich? Zumal CB die Frametimemessungen gar nicht aktualisiert hat.
btw.
Die allgemeine Performance ist immer noch etwas enttäuschend verglichen mit der XBX. Möchte zu gern wissen welches Preset die Konsole verwendet.
dildo4u
2018-09-14, 10:15:54
Laut dem DF Video spart die XBox besonders bei den Schatten und LOD,er setzt die Settings dort mit Medium Gleich.Auch nutzt die PC Version Ingame DOF und HBAO+.
dargo
2018-09-14, 10:18:49
CB verwendet bei 4k das hoch Preset und die Frames sind bei nahezu doppelten TFLOPs der Konsole beinah lachhaft im Vergleich. Irgendwie überzeugt mich das ganze noch nicht.
btw.
HBAO+ war hier in RotTR sogar minimal effizienter als das spieleigene AO mit Vega.
Locuza
2018-09-14, 10:25:43
Ich meinte das 99th Percentile, dass habe ich simpel mit dem Frametimes zu ungenau ausgedrückt.
Und die Konsolen mögen besser optimiert sein, DX12 muss einen nicht auf das gleiche Level bringen.
dildo4u
2018-09-14, 10:27:27
Die Konsole spart massig Teure Effekte schon alleine das DOF kann massig kosten.AF ist auch nur 4X.
https://youtu.be/KvN0w51xYdY?t=13m44s
][immy
2018-09-14, 10:57:07
Die Konsole spart massig Teure Effekte schon alleine das DOF kann massig kosten.AF ist auch nur 4X.
https://youtu.be/KvN0w51xYdY?t=13m44s
naja, ist von einer Konsole auch zu erwarten, die in Sachen Hardware nicht mit dem PC mithalten kann.
Man muss aber auch sagen, das man für subjektiv geringe Qualitätsunterschiede inzwischen extrem viel mehr Rechenkraft einsetzen muss.
Hier können dann Konsolen durch runterstufen des einen oder anderen "Effekts" doch massig Leistung einsparen ohne das es dadurch gleich veraltet aussieht.
Schon erstaunlich was man mit dem Multiplattform-Spiel selbst aus der XB1 und PS4 mit dem spiel noch raus holt.
dildo4u
2018-09-14, 10:59:10
Klar ich wollte nur erklären warum die Vega 64 nur 38fps in 4k schafft.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.