Archiv verlassen und diese Seite im Standarddesign anzeigen : DirectX 12 Grafik-API
Kartenlehrling
2017-07-15, 15:31:46
DX12-Modus mit 20 Prozent Performance-Zuwachs
Demnach befindet sich der seit langem versprochene DirectX-12-Modus für Windows 10 vor der Fertigstellung.
Geschätzt soll er rund 20 Prozent Performance-Zuwachs bringen.
Außerdem wird es Optimierungen am GPU- und CPU-Rendering geben.
http://www.gamestar.de/artikel/ark-survival-evolved-directx-12-modus-soll-bis-zu-20-prozent-mehr-leistung-bringen,3317055.html
Ich habe schon nicht mehr daran geglaubt,
und 20% bei einem grottig laufenden Spiel ist so gut wie niX.
Locuza
2017-07-15, 20:26:49
A Little Further Out:
- "Boss Wars"
- More Creatures, Gear, Armors, Weapons, & Structures!
- DirectX12 Mode for Windows 10! Approximate +20% perf
Das steht schon seit über einem Jahr bei jedem Patch.
Kartenlehrling
2017-07-15, 20:44:48
;) ich hätte wohl die Komentare zuerst lesen sollen.
Wow Gamestar... Wo hat denn der Herr Ritter diese tolle News her, dass sie sogar für eine Headline reicht ?
Wenn diese Clickbait-Headline-Dx12-Info aus den Patchnotes stammt,
dann "Gute Nacht"... diese "News" steht nämlich schon seit über 1,5 Jahren genau so in den Patch Notes drin unter "a Little further out" .
nur gesehen hat man den DX12 Modus bisher nie...
und meines Wissens nach haben sich die Devs seit Monaten nicht mehr dazu geäußert...
dildo4u
2017-07-31, 17:24:18
Wolfenstein The New Colossus bekommt zusätzlich zu Vulkan auch DX12 Support.(id Tech 6)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11444978&postcount=65
Wolfenstein The New Colossus bekommt zusätzlich zu Vulkan auch DX12 Support.(id Tech 6)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11444978&postcount=65
Wohl aber nur wegen der XBOX Version. Finde den Link gerade nicht...
gravitationsfeld
2017-07-31, 18:43:34
Definitiv kein DX12 auf PC. Warum auch? Waere nur langsamer.
dildo4u
2017-07-31, 18:49:59
Das sind Folien von der Vega Präsentation,das wird sich schon auf die PC Version beziehen.
dargo
2017-07-31, 19:23:59
Du weißt schon wer gravitationsfeld ist? :tongue:
kruemelmonster
2017-07-31, 19:41:20
Wolfenstein The New Colossus bekommt zusätzlich zu Vulkan auch DX12 Support.(id Tech 6)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11444978&postcount=65
Diese Folieninterpretationsgeschichte hatten wir schonmal.
Unter der Überschrift "Gear up for tomorrow's GameS" werden Begriffe wie DX12, Vulkan, RPM, AC und SI genannt, beispielhaft untermalt mit einem der vielen tomorrow's GameS wie Wolfenstein 2.
Nirgends steht dort dass Wolfenstein 2 neben Vulkan auch DX12 Support bekommt, wer das anders sieht hat Defizite im Lesen von Präsentationsfolien.
deekey777
2017-07-31, 19:46:09
Du weißt schon wer gravitationsfeld ist? :tongue:
Jemand, der seine Nicks schneller wechselt als Lucky Luke seine Waffe zieht. ;D
Ich hab mich schon gewundert, warum dort DX12 und Vulkan erwähnt wird. Es sei denn, AMD hat etwas zu viel verraten und WNC kommt als Playanywhere-Titel in den Windows Store. X-D
AffenJack
2017-07-31, 19:53:15
Was ist eigentlich mit Far Cry 5? Wahrscheinlich DX12 wie alle Ubis bisher nehme ich an oder doch Vulkan? Da man RPM unterstützt kann es ja kein DX11 mehr sein.
Genauso wäre eigentlich bei AC Origins auch noch die Frage. Beides Open-World Spiele die eigentlich von DX12 gut profitieren sollten.
dildo4u
2017-07-31, 19:59:57
Bis jetzt hat nur The Devision DX12,die anderen Ubi Engine's haben kein Low Level.Für Watch Dogs 2 wurde DX12 versprochen kam aber nie.
AffenJack
2017-07-31, 20:03:33
Bis jetzt hat nur The Devision DX12,die anderen Ubi Engine's haben kein Low Level.Für Watch Dogs 2 wurde DX12 versprochen kam aber nie.
Anvil-Next (AC Engine) wurde die Portierung auf der GDC von Nvidia besprochen, daher die Engine ist vorhanden. Höchstens die Performance ist nicht so, wie man es will bzw der Optimierungsaufwand zu groß.
aufkrawall
2017-08-06, 22:05:10
Hab mir mal Sniper Elite 4 angeschaut, eindeutig die beste DX12-Umsetzung bisher:
-auch Nvidia profitiert tatsächlich 5-15% im GPU-Limit
-Frametimes sind absolut perfekt (laut RTSS absolut 0 Varianz, abgesehen von der unterschiedlichen Komplexität der Szene)
-offenbar massive Gewinne im CPU-Limit (CPU taktet defakto auf 2,9 GHz runter durch die niedrige Last)
-kein hoher Input Lag
-keine Fehler aufgefallen
Offenbar hat Rebellion verdammt fähige Engine-Entwickler. Grafik ist zwar teilweise bäh, teilweise aber auch gut. Die größere Vegetation sieht hübsch aus und die Objektsichtweite (auch von Gräsern) ist sehr hoch. DX11 läuft btw. auch perfekt sauber auf Nvidia.
Warum kriegen andere das nicht hin?
StefanV
2017-08-06, 22:17:57
Warum kriegen andere das nicht hin?
Weil sie nicht so viel Erfahrung mit Vulkanmantel12 haben wie Rebellion :P
Ist ja schließlich schon deren 2. Spiel auf dieser APi...
Unicous
2017-08-06, 22:23:57
Die hatten noch nicht so viel Erfahrung mit Mantle.:freak:
SCNR:tongue:
edit: Mist, da war einer schneller. :freak:
Man muss aber auch bedenken, dass die Engine in ihrer momentanen Iteration relativ jung ist, iirc. Ich glaube sie hatten sie für SE III modernisiert und darauf dann aufgebaut.
Von meiner Warte aus, sind viele Engines einfach zu "fett" und behäbig geworden. Es wird Zeit, dass mal wieder innoviert wird und nicht nur renoviert. Das Haus bröckelt von allen Seiten und eigentlich klatscht man nur Farbe ran und stellt neue Möbel rein.
Man sieht es auch an der DX12 Adoptionsrate. Das ist eigentlich schon ein Trauerspiel besonders weil man ja behauptet hatte, sie würde DX11 übertrumpfen. Danach sieht es im nach zwei Jahren seit Veröffentlichung eher nicht aus. Wenn ich das richtig sehe (habe jetzt nur bei Wikipedia geschaut) wurden sogar mehr DX11 Spiele in dem Zeitraum veröffentlicht, Patches für Spiele wie WoW nicht inbegriffen.
Die Entwickler möchten keine Risiken eingehen und die Lernkurve scheint ihnen zu steil zu sein, was meiner Meinung nach ein Armutszeugnis darstellt.
aufkrawall
2017-08-06, 22:38:27
Frostbite wurde für Battlefront 2015 allerdings auch schon stark geupgradet, und deren DX12 ist heute immer noch Müll bzw. in Mass Effect nicht mal mehr vorhanden (wobei selbst Bioware für DA: I schon damals Mantle genutzt hatte).
Vielleicht ist das Frostbite-Team ja komplett mit Tools busy, weil die EA-Studios ihnen die Ohren über deren Qualität vollheulen...
Locuza
2017-08-06, 23:15:33
[...]
Man muss aber auch bedenken, dass die Engine in ihrer momentanen Iteration relativ jung ist, iirc. Ich glaube sie hatten sie für SE III modernisiert und darauf dann aufgebaut.
Von meiner Warte aus, sind viele Engines einfach zu "fett" und behäbig geworden. Es wird Zeit, dass mal wieder innoviert wird und nicht nur renoviert. Das Haus bröckelt von allen Seiten und eigentlich klatscht man nur Farbe ran und stellt neue Möbel rein.
[...]
Da hast du vermutlich Recht, DICE hat auf der GDC 2017 ihre Weiterentwicklungen der Engine dargestellt:
http://www.gdcvault.com/play/1024612/FrameGraph-Extensible-Rendering-Architecture-in
Von 2007 bis 2016 war die interne Arbeitsweise beim grundlegenden Aufbau gleich, erst 2016 wurde stark beim WorlRenderer umgebaut, um von neueren APIs besser profitieren zu können und natürlich die Effizienz zu erhöhen.
Beim FrameGraph geht es darum, dass Ressourcen-Management zu vereinfachen, den Verbrauch zu senken und Async Compute leichter handhaben zu können.
Ob das schon in aktuellen Engines drin ist weiß ich nicht.
DICE präsentiert häufig Bleeding Edge R&D welche erst bei zukünftigen Spielen (vollständig) verwendet wird.
Rebellion als viel kleinere Bude, welche nur sich bedienen muss, hat vermutlich viel mehr Fokus und ist flexibler was Umbauten angeht.
Sie haben angegeben das sie ihre Engine umstrukturiert haben, um optimal von DX12 profitieren zu können und die PR hat in dem Fall Recht behalten.
Die Entwickler möchten keine Risiken eingehen und die Lernkurve scheint ihnen zu steil zu sein, was meiner Meinung nach ein Armutszeugnis darstellt.
Das halte ich für eine unangemessene Kritik.
Es existieren natürlich viele Risiken und man muss jedes Projekt unter einem gewissen Budget aus Manpower, Zeit und Kosten auf den Markt bringen.
Man muss im Gegenteil ziemlich dumm sein, um für explicit APIs einen Handstand hinzulegen, wenn die Treiber stellenweise noch nicht ausgereift sind und die Validation-Layer zu wenige Problemfälle finden.
Es gibt einen Zeitpunkt, ab wann starke Umbauten beginnen sollten und Produkte diese auch einpflegen.
Das ganze nimmt ja auch an Fahrt auf, kein Entwickler verweigert sich prinzipiell, weil er oder seine Business-Unit zu faul und risikoscheu ist.
aufkrawall
2017-08-06, 23:31:46
Frostbite lief aber schon mit Mantle in Garden Warfare vernünftig, Thief hat sogar mit modifizierter Unreal Engine 3 angeblich Async Compute genutzt (und lief afair auch anständig).
Das DX12 in BF1 ist schon ein wenig sehr müllig dazu, im Vergleich. Wenigstens in etwa gleiche Performance im GPU-Limit bei besserer CPU-Performance und ähnlich guten Frametimes sollte drin sein, bei von mir aus deutlich höherem VRAM-Verbrauch. Sogar der Input Lag ist mit dem DX12-Renderer höher, also wirklich so ziemlich null Vorteile und lauter extreme Nachteile kombiniert. :freak:
Locuza
2017-08-07, 00:10:08
Bei Mantle gab es ein paar grundlegende Vorteile in der Hinsicht.
Das Expertise von AMD war jedes mal dabei und die Testmatrix war viel kleiner, GCN Gen 1 und Gen 2, das war's.
Jetzt hat man GCN Gen 1-4(5), Kepler bis Pascal und das Intel-Zeug.
Und nicht alles findet in einer engen Kooperation statt.
Viele DX12 Spiele machen auch einen ordentlichen Eindruck bei AMD.
Was BF1 angeht, ja das lief erstaunlicherweise ziemlich mies, dafür das DICE eine treibende Kraft hinter der ganzen Bewegung war und mit Mantle vieles ganz anständig lief.
aufkrawall
2017-08-07, 01:06:51
Viele DX12 Spiele machen auch einen ordentlichen Eindruck bei AMD.
Wenn du bei Spielen wie Deus Ex oder Total War, die in den integrierten Benchmarks gut auf AMD aussehen, ins eigentliche Spiel schaust, sieht es da auch bei AMD ganz schnell düster aus. Man denke sich seinen Teil dazu. ;)
Eigentlich fallen mir nur Quantum Break DX12 und Doom Vulkan ein, wo mir ein wirklicher Vorteil von AMD bekannt wäre. Alles andere ist eigentlich Benchmark-Blendwerk, jüngst wieder zu sehen bei AMDs PR BF1 Vega vs. 1080/Ti. Man vergleicht einfach den kaputten Pfad, der vielleicht auf AMD etwas weniger schlecht läuft (aber immer noch schlechter als AMD DX11...) und feiert das dann. :freak:
Locuza
2017-08-07, 01:35:06
Ich hätte mein ordentlich definieren sollen, es läuft nicht schlechter, als DX11. :ugly:
Dazu gibt es ein schon älteren Artikel mit einem Piledriver + Fiji Nano von PCGH:
http://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/Direct-X-11-Vulkan-1218975/
Es gibt Ashes of the Singularity, BF1, DX:MD, The Division, Doom, Hitman, Rise of the Tombraider und Total War: Warhammer.
Bei dem System kann man nur zwei Spiele nicht empfehlen mit DX12 zu spielen, Deus Ex und Total War: Warhammer.
Es ist natürlich schwer das ganze zu bewerten, die CPU und GPU Kombo ist entscheidend, ebenso neuere Treiber und Spielepatches.
Deus Ex scheint nach den neusten Patches immerhin mit Intel + Radeon gleichwertig zu performen:
https://www.computerbase.de/2016-10/deus-ex-dx12-final-benchmark/#diagramm-frametimes-auf-dem-core-i7-6700k-geforce-gtx-1060_2
Wie du gesagt hast, Quantum Break läuft mit DX12 deutlich besser, Sniper Elite 4 hat einen starken Bonus.
Ich lehne mich mal aus dem Fenster und sage mal, bei 80% der bisherigen DX12 Spiele, kann man bei AMD auch DX12 verwenden, mit gleicher bis besserer Performance.
Nahezu umgekehrt sieht das bei Nvidia aus.
An grauenhafter Performance muss aber keiner im Schnitt leiden, ebenso wenig zieht irgendjemand einen anderen ab, wenn man die beste API für die jeweilige GPU verwendet.
aufkrawall
2017-08-07, 05:19:39
Die Fury hab ich als unrundes Produkt gar nicht so sehr auf dem Schirm, ich würd eher Hawaii und Polaris anschauen.
Ich kenne keinen Userbericht von BF1 hier im Forum, der das Spiel auf Radeons mit DX12 bevorzugen würde. Alle Berichte gingen stattdessen komplett ins Gegenteil -> miese Frametimes im MP und höherer Input Lag.
Ashes läuft auch mit Pascal mit DX12 im GPU-Limit schneller als DX11.
The Division ist afair weder mit AMD noch NV eindeutig pro/contra DX12. Womöglich Diskrepanz zwischen künstlichem Benchmark und realem Spiel. Ist jedenfalls nicht gut untersucht.
Doom sagte ich ja schon.
Hitman hat nur 4xAF mit Radeons und DX12, ich würd das mal als nicht empfehlenswert bezeichnen.
RotTR lief zu Release auf Radeons mit extrem niedrigen fps in bestimmten Szenen wie dem Soviet Installation Hub. Von einem extrem schlechten Niveau ist eine Steigerung einfacher als vom Optimum. Zuerst hatte DX12 dafür btw. auch gar kein Async Compute, das kam erst deutlich später mit weiteren Patches und AMD hatte auch über Monate immer weiter via Treiber an der DX12-Performance für Polaris in dem Spiel gedreht.
Ich kann mich an DX12 auf der 390 noch ziemlich gut erinnern. ;)
dargo
2017-08-07, 06:05:47
Frostbite lief aber schon mit Mantle in Garden Warfare vernünftig, Thief hat sogar mit modifizierter Unreal Engine 3 angeblich Async Compute genutzt (und lief afair auch anständig).
Afaik aber nur PS4 oder?
Eigentlich fallen mir nur Quantum Break DX12 und Doom Vulkan ein, wo mir ein wirklicher Vorteil von AMD bekannt wäre. Alles andere ist eigentlich Benchmark-Blendwerk...
Nö... RotTR läuft hervorragend auf Radeon mit DX12. Frametimes erste Sahne, Performance super wenn man beim AF Abstriche macht. Letzteres hat ja nichts mit DX12 zu tun. The Division läuft auch sehr gut mit DX12 und Radeon.
Ich kann mich an DX12 auf der 390 noch ziemlich gut erinnern. ;)
Deine Erfahrungen sind ziemlich veraltet.
aufkrawall
2017-08-07, 06:29:33
Deine Erfahrungen sind ziemlich veraltet.
Alt, nicht veraltet. Oder wo sind sie überholt? Benenn es mal im Detail, wenn du kannst.
Locuza
2017-08-07, 07:14:14
Afaik aber nur PS4 oder?
[...]
Scheinbar nur auf dem PC:
http://cdn.wccftech.com/wp-content/uploads/2015/04/Async_Games.png
Auf der PS4 dagegen hat es auch BF4 schon genutzt + Infamous Second Son und The Tomorrow Children.
grauenvoll
2017-08-07, 10:20:52
Nö... RotTR läuft hervorragend auf Radeon mit DX12.
Jupp. Selbst die MultiGPU Implementierung ist ein Traum. Skaliert hervorragend.
vinacis_vivids
2017-08-07, 13:55:09
Alt, nicht veraltet. Oder wo sind sie überholt? Benenn es mal im Detail, wenn du kannst.
Bf1, Deus Ex laufen ebenfalls wunderbar mit DX12 bei AMD. Bei NV gibst dagegen fast überall Einbußen weil Pascal hardwareseitig kein ordentliches AC macht. Ist halt ne veraltete uArch, die schlecht altert bzw. altern wird.
Ne GTX980 sieht bei bf1, Deus Ex oder Doom kein Land gegen ne r9 390. Auch die 1070 sieht gegen ne FuryX häufiger die Rucklichter. Ist für dich sicher schwer zu verdauen.
StefanV
2017-08-07, 19:55:13
Bf1, Deus Ex laufen ebenfalls wunderbar mit DX12 bei AMD. Bei NV gibst dagegen fast überall Einbußen weil Pascal hardwareseitig kein ordentliches AC macht. Ist halt ne veraltete uArch, die schlecht altert bzw. altern wird.
Nein, weil es nVidia nicht für nötig hält, die Hardware brauchbar zu dokumentieren, was für DX12 Essentiell ist.
Und die Programmierer hatten keinen Bock mehr auf raten und das nach der "wenn die uns nicht helfen wollen, deren Problem" Prämisse implementiert. Und es ist IMO nur eine Frage der Zeit, bis die Lage eskaliert und ein größeres Unternehmen sich mal richtig über nVidia auskotzt und klar sagt, dass es (momentan) nicht möglich ist, DX12/Vulkan für nVidia zu implementieren, ohne Monate Lang Reverse Engineering zu betreiben...
Siehe hier:
Z.B. Es gibt NULL Dokumentation darueber wie jetzt auf einmal in DX12 Binding Tier 3 implementiert ist und was dabei die Performance-Cliffs sind. Oder wie funktioniert konkret der Descriptor-Pool im Vulkan-Treiber? Muss ich wieder dumm rumsitzen und ausprobieren und Raetselraten. Und pick dir jetzt nicht diese zwei Beispiele raus um rumzuargumentieren. Ich koennte ein Buch damit fuellen (und muesste wohl 80% davon schwaerzen wegen NDAs)
Warum? Ich beantworte die Frage: Weil ihr euch nicht in die Karten schauen lassen wollt. Und das geht durch die konsistent seit Jahren durch die komplette Organisation durch.
Frag ich bei AMD nach wie was in DX12/Vulkan im Treiber implementiert ist bekomm ich konkrete, direkte Antworten. Bei NVIDIA gibt's immer nur ausweichendes Rumgeeier. Falls man wirklich eine Antwort will, fragt man die Konkurrenz. Die wissen es naemlich eh schon. Nur aus irgendwelchen Gruenden duerfen wir es nicht von euch erfahren.
Und vielleicht sollten wir mal aufhören, die Programmierer zu bashen und anfangen nVidias 'Business Entscheidungen' zu bashen?
Ist ja nicht so dass die Programmierer das nicht wollen würden - sie haben nur keinen Bock auf unnötige/vermeidbare Arbeit - wie die Hardware eines Herstellers zu untersuchen.
Hier gehört eigentlich der Hersteller der Hardware in die Pflicht genommen, nicht der Hersteller der Software, der nichts für nicht vorhandene Dokumentation und damit unwissen über die Hardware kann.
dargo
2017-08-07, 19:57:45
Scheinbar nur auf dem PC:
http://cdn.wccftech.com/wp-content/uploads/2015/04/Async_Games.png
Auf der PS4 dagegen hat es auch BF4 schon genutzt + Infamous Second Son und The Tomorrow Children.
Stimmt... habe Thief wieder mit BF4 verwechselt. :usad:
Bf1, Deus Ex laufen ebenfalls wunderbar mit DX12 bei AMD.
Da muss ich widersprechen. Beide Spiele liefern zwar eine ordentliche Bildrate gegenüber DX11. Deus Ex läuft aber nur im Benchmark @DX12 absolut sauber was Frametimes angeht. Im Spiel selbst gibt es Stuttering, mit DX11 aber auch. Ich kann hierbei allerdings nur von Grenada sprechen. Mag sein, dass es mit anderen GCNs wieder anders aussieht. Zu BF1 kann ich kein Feedback geben da ich das Spiel nicht habe.
Alt, nicht veraltet. Oder wo sind sie überholt? Benenn es mal im Detail, wenn du kannst.
Wenn du mir sagst was du mit "im Detail" meinst gerne. Schon alleine das hier:
The Division ist afair weder mit AMD noch NV eindeutig pro/contra DX12.
ist komplett falsch. Bei The Division gibt es überhaupt keinen Grund DX12 auf GCN nicht zu verwenden. Man hat nur Vorteile. Sowohl im CPU-/ als auch GPU-Limit. Du kennst vielleicht den Stand X mit deiner damaligen R9 390. Nach dem Stand X kamen aber noch einige Spielepatches.
gravitationsfeld
2017-08-07, 21:06:16
Nein, weil es nVidia nicht für nötig hält, die Hardware brauchbar zu dokumentieren, was für DX12 Essentiell ist.
Und die Programmierer hatten keinen Bock mehr auf raten und das nach der "wenn die uns nicht helfen wollen, deren Problem" Prämisse implementiert. Und es ist IMO nur eine Frage der Zeit, bis die Lage eskaliert und ein größeres Unternehmen sich mal richtig über nVidia auskotzt und klar sagt, dass es (momentan) nicht möglich ist, DX12/Vulkan für nVidia zu implementieren, ohne Monate Lang Reverse Engineering zu betreiben...
Siehe hier:
Und vielleicht sollten wir mal aufhören, die Programmierer zu bashen und anfangen nVidias 'Business Entscheidungen' zu bashen?
Ist ja nicht so dass die Programmierer das nicht wollen würden - sie haben nur keinen Bock auf unnötige/vermeidbare Arbeit - wie die Hardware eines Herstellers zu untersuchen.
Hier gehört eigentlich der Hersteller der Hardware in die Pflicht genommen, nicht der Hersteller der Software, der nichts für nicht vorhandene Dokumentation und damit unwissen über die Hardware kann.
Ich verbiete mir, dass du mich fuer deinen Kreuzzug meine Aussagen komplett aus dem Kontext reist und verzerrst. Absolut unterste Schublade.
Nein, man braucht fuer DX12 nicht "Monate lange Reverse Engineering betreiben" auf NVIDIA. Es laeuft alles, man weiss nur nicht so sehr im Detail wie es implementiert ist.
aufkrawall
2017-08-07, 21:15:49
ist komplett falsch. Bei The Division gibt es überhaupt keinen Grund DX12 auf GCN nicht zu verwenden. Man hat nur Vorteile. Sowohl im CPU-/ als auch GPU-Limit. Du kennst vielleicht den Stand X mit deiner damaligen R9 390. Nach dem Stand X kamen aber noch einige Spielepatches.
Drollig, wie hast du denn das CPU-Limit bei dem Spiel nachgestellt?
dargo
2017-08-07, 21:25:11
CPU-Takt runter.
dildo4u
2017-08-14, 14:10:56
Kleiner Tombraider Test mit Ryzen + Nvidia.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11460035&postcount=255
Ashes of the Singularity
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11460283&postcount=86
dargo
2017-08-23, 15:57:12
Ubisoft wird mir immer sympatischer. :up:
http://www.pcgameshardware.de/Anno-1800-Spiel-61247/News/Vorschau-Gamescom-1236693/
Kartenlehrling
2017-08-23, 16:19:06
Wär dafür nicht Vulkan besser?
dargo
2017-08-23, 16:52:46
Warum?
dildo4u
2017-08-23, 17:05:58
Dice hat DX12 Multi GPU Support in BF1 reingepacht.
https://www.battlefield.com/de-de/news/update-notes/lupkow-pass-update
dargo
2017-08-23, 17:08:15
Die investieren da Ressourcen anstatt Single-GPU in Ordnung zu bringen? :freak: Oder läuft mit dem Patch jetzt endlich auch der DX12 Renderer mit einer GPU sauber?
grobi
2017-08-23, 18:46:39
Die investieren da Ressourcen anstatt Single-GPU in Ordnung zu bringen? :freak: Oder läuft mit dem Patch jetzt endlich auch der DX12 Renderer mit einer GPU sauber?
Läuft weiterhin sehr bescheiden.
dargo
2017-08-23, 18:49:24
Na dann super Leistung DICE. :uclap:
Edit:
Ich sehe gerade du hast ne Geforce. Was sagen denn die Radeon User?
grobi
2017-08-23, 18:50:52
Ich denke das war nur eine Machbarkeitsstudie.
Dice wird früher oder später DX12 M-GPU einführen. AoTS hat es doch schon vorgemacht. Bf1 dient ja als riesige Entwicklungsplattform für LL-API.
SFR wird in Zukunft gepusht und proprietäre Lösungen wie SLI/CF werden aussterben. Wahrscheinlich ist SFR die Zukunft für größere Performancesprünge verantwortlich. Async Compute gewinnt in diesem Zusammenhang ebenfalls eine größere Rolle.
aufkrawall
2017-09-01, 17:25:34
Hitman hat nur 4xAF mit Radeons und DX12, ich würd das mal als nicht empfehlenswert bezeichnen.
Spiele das gerade wieder mit DX12 auf Nvidia.
Mal ein anderer Level als Paris:
720p
DX11:
https://abload.de/thumb/hitman201709011706022u4sa4.png (http://abload.de/image.php?img=hitman201709011706022u4sa4.png)
76fps
DX12:
https://abload.de/thumb/hitman201709011704401uqsow.png (http://abload.de/image.php?img=hitman201709011704401uqsow.png)
104fps
1440p:
DX11:
https://abload.de/thumb/hitman20170901170622676sh2.png (http://abload.de/image.php?img=hitman20170901170622676sh2.png)
63fps
DX12:
https://abload.de/thumb/hitman201709011709266wxsli.png (http://abload.de/image.php?img=hitman201709011709266wxsli.png)
62fps
Und das ist btw. mit erzwungenem 16x HQ AF. Wenn PCGH im Treiber global mit HQ testet (was mit AMD DX12 keinen Effekt hat), würd das schon völlig als Erklärung ausreichen, warum AMD mit DX12 etwas schneller und NV etwas langsamer im GPU-Limit ist.
Das Problem ist hier nicht, dass NV leicht langsamer als mit DX11 ist, sondern dass AMD einem nicht die gleiche Bildqualität in dem Spiel wie mit DX11 bieten kann. Das Spiel fordert ja mit DX12 auch nur maximal 4x AF an, was dann auf Radeons mit Q-AF das Maximum an Texturfilterung darstellt. :freak:
Fühlt sich btw. mit DX12 trotz der scheinbar schlechteren Frametimes genau so flüssig an wie mit DX11, vielleicht kann RTSS die bei DX12 genauer erfassen. Es gibt jedenfalls keine merkbaren Spikes oder Mikroruckler.
Läuft quasi mit den gleichen fps wie Sniper Elite (ok, im Schnitt etwas langsamer) und sieht 1-2 Gens besser aus. I like Glacier.
Kartenlehrling
2017-09-12, 23:06:33
Maximum possible graphics settings & framerate in FIFA 18 PC on MSI GTX 1070 AERO OC & i7 7700k at 1440p (half 4K) Recording takes about 5-15 FPS at max ultra settings
pecs CPU i7 7700K @ 4.7 GHz RAM 16GB of DDR4 GPU MSI GTX 1070 AERO OC HDD 64GB SSD + 2TB HDD 7200rpm OS Windows 10 64bit
https://www.youtube.com/watch?v=ZMWR7HKbfvU
Fifa 18 Demo .... Video auf 30fps begrenzt, Menü Gott sei Dank auf 60fps limitiert, 150-200fps auf 1440p nicht schlecht.
1080p kann man schon im CPU Limit laufen.
Anscheinend ist das Grafikmenü auf dem PC-DEMO recht übersichtlich :)
Die CPU muss wohl ganz schön ackern.
aufkrawall
2017-09-12, 23:10:08
Für 250fps.
Dice wird früher oder später DX12 M-GPU einführen. AoTS hat es doch schon vorgemacht. Bf1 dient ja als riesige Entwicklungsplattform für LL-API.
SFR wird in Zukunft gepusht und proprietäre Lösungen wie SLI/CF werden aussterben. Wahrscheinlich ist SFR die Zukunft für größere Performancesprünge verantwortlich. Async Compute gewinnt in diesem Zusammenhang ebenfalls eine größere Rolle.
SFR mit nur einer GPU :confused:
Screemer
2017-09-12, 23:57:59
Dx12 multigpu ist unabhängig von sli/crossfire und läuft sogar mit Mischbestückung.
gravitationsfeld
2017-09-13, 01:04:27
Mischbestueckung geht nur wenn man die GPUs nicht als "linked node" benutzt. Du kannst dir fast sicher sein, dass sich niemand die Muehe machen wird das zu unterstuetzen. Es ist so schon fraglich ob die Arbeit gemacht wird.
Screemer
2017-09-13, 01:36:17
sehr schade. das war für mich eines der vielversprechensten mgpu features von dx12.
Dx12 multigpu ist unabhängig von sli/crossfire und läuft sogar mit Mischbestückung.
Stimmt - da war mal was :D
Aber selbst bei einer Implementation, was für einen Sinn würde das ergeben? Als DAU bedeutet die mGPU-Kombi NV-AMD tearing ohne ende, da keine generelle Sync-Grundlage.
Screemer
2017-09-13, 02:35:24
Wie meinen?
NV+AMD GPU, (Sync (?)) -> tearing
gravitationsfeld
2017-09-13, 03:15:41
Das hat nichts miteinander zu tun.
Screemer
2017-09-13, 08:31:01
Meinst du adaptive/gsync? Dem Treiber sollte es eigentlich wurscht sein welche gpu den letzten frame in den framebuffer geschrieben hat. Kann mir nicht vorstellen dass es da Einschränkungen gibt, wenn es denn überhaupt implementiert wurde.
@gravitationsfeld: gibts bei euch Pläne Richtung dx12 oder bleibts bei Vulkan? Wie sieht es bei letzterem eigentlich mit mgpu aus und habt ihr schon Prototypen mit anderen Techniken als SFr/afr am laufen, die zukünftig für den Einsatz beim Endkunden taugen könnten?
Kriton
2017-09-13, 12:29:16
Ohne auch nur im Ansatz seine Antwort vorweg nehmen zu wollen?
Gibt es einen Grund von Vulkan auf DX 12 zu wechseln?
Ich frage mich eher warum es so (vergleichsweise) viele DX12-Titel gibt und wenige unter Vulkan.
dildo4u
2017-09-13, 14:02:00
https://www.youtube.com/watch?v=ZMWR7HKbfvU
Fifa 18 Demo .... Video auf 30fps begrenzt, Menü Gott sei Dank auf 60fps limitiert, 150-200fps auf 1440p nicht schlecht.
1080p kann man schon im CPU Limit laufen.
Anscheinend ist das Grafikmenü auf dem PC-DEMO recht übersichtlich :)
Die CPU muss wohl ganz schön ackern.
DX12 scheint buggy unter DX11 sind die Sequenzen zumindest 60fps.
1080p Maxed nur DX11 statt DX12 ausgewählt kein fps Limit.
Ryzen 1600 GTX 1070
DX11
https://youtu.be/ihcGTyxI97k
DX12
https://youtu.be/_6p9bjVr968
Ich schätze mal das Game streamt nix mehr wenn alles geladen ist jedenfall's kein Total Ausfall wie DX12 in BF1.
Kartenlehrling
2017-09-13, 14:13:49
..., jedenfall's kein Total Ausfall wie DX12 in BF1.
Wenn DX11 auf Nvidia Grafikkarten immer noch besser ist läuft doch was falsch und
da ist es auch egal wenn wir hier von >200fps reden.
aufkrawall
2017-09-13, 14:39:39
Bei dem Spiel merkt man zusätzlichen Input Lag natürlich weniger, der ist bei BF1 DX12 ganz übel (zusätzlich zum Performance-Geraffel).
dildo4u
2017-09-13, 15:21:39
Mich würden mal Fifa Test mit Vega interessieren laut dem läuft BF1 DX12 immer noch Grütze selbst auf AMD.
https://www.reddit.com/r/Amd/comments/6zt7g6/vega_dx12_performance_issues/
Kartenlehrling
2017-09-14, 09:47:44
Bei dem Spiel merkt man zusätzlichen Input Lag natürlich weniger, der ist bei BF1 DX12 ganz übel (zusätzlich zum Performance-Geraffel).
Laut den Russen ist DX12 aber nicht mehr langsamer als DX11, 1080ti gewinnt sogar im CPU-limit.
(http://gamegpu.com/action-/-fps-/-tps/battlefield-1-vo-imya-tsarya-test-gpu-cpu)Und Battelfield1 profitiert von 6core bzw. 8core CPUs.
blaidd
2017-09-14, 10:28:10
Mich würden mal Fifa Test mit Vega interessieren laut dem läuft BF1 DX12 immer noch Grütze selbst auf AMD.
Hab nur eine Handvoll Messungen gemacht, weil das eher so als Nebenprojekt anfiel, aber eine Vega hab ich mit drin.
Und DX12 ist eher meh.
Fifa 18 Demo Benchmarks (http://www.pcgameshardware.de/FIFA-18-Spiel-60673/Specials/Demo-Technik-Test-1238616/)
dildo4u
2017-09-14, 13:06:58
Danke hab mich gewundert warum du 4k/144 für die 580 in Aussicht gestellt hast meine 1070 macht 4k ca 130fps.Scheint als ob AMD hier deutlich besser läuft.
dildo4u
2017-09-14, 13:13:10
Laut den Russen ist DX12 aber nicht mehr langsamer als DX11, 1080ti gewinnt sogar im CPU-limit.
(http://gamegpu.com/action-/-fps-/-tps/battlefield-1-vo-imya-tsarya-test-gpu-cpu)Und Battelfield1 profitiert von 6core bzw. 8core CPUs.
Achte auf die Min fps,1080 Ti in 1440p DX11 98,DX12 94.Vega 64 DX11 80,DX12 77fps.
Ex3cut3r
2017-09-14, 14:47:57
Hab nur eine Handvoll Messungen gemacht, weil das eher so als Nebenprojekt anfiel, aber eine Vega hab ich mit drin.
Und DX12 ist eher meh.
Fifa 18 Demo Benchmarks (http://www.pcgameshardware.de/FIFA-18-Spiel-60673/Specials/Demo-Technik-Test-1238616/)
Wieder einmal ein Game wo DX12 total unnötig ist. :mad:
Was ein Rotz dieses DX12. Einfach nur erbärmlich. Wofür haben die dafür (Geld) Ressourcen investiert?!
Mir reicht es imo, für mich ist DX12 auf dem PC einfach gescheitert, sei es unfähige Entwickler oder MS. Low Level scheint einfach auf dem PC nicht umsetzbar, da jeder eine andere Systemkonfig besitzt.
Ich bin ab jetzt für DX 11.2/3 mit High Level und wenigstens neuen Grafik Features, sodass ein sichtbarer Unterschied wieder eintritt.
So wie früher immer. Bis man dann auf diese grandiose Idee kam mit Konsolen Low Level :rolleyes: Wenn du im CPU Limit bist, kauf dir verdammt nochmal eine neue CPU! Fertig!
Rancor
2017-09-14, 16:04:35
Lass das mal nicht dargo lesen ^^
Aber im Prinzip stimme ich dir zu. Solange DX 12 einfach kaum Vorteile für alle bringt, sehe ich das auch eher skeptisch. Bisher ist da Vulcan auch überzeugender.
LL direkt zu verteufeln würde ich aber nicht.
Ex3cut3r
2017-09-14, 16:07:17
LL direkt zu verteufeln würde ich aber nicht.
Warum nicht? Es sind jetzt 2 Jahre vergangen seit DX12. Da kann man doch mal ein erste Schlussfolgerung ziehen? Nagut, es kann eigentlich nur besser werden. :wink:
Rancor
2017-09-14, 16:23:32
Warum nicht? Es sind jetzt 2 Jahre vergangen seit DX12. Da kann man doch mal ein erste Schlussfolgerung ziehen? Nagut, es kann eigentlich nur besser werden. :wink:
Weil es prinzipbedingt Vorteile gegenüber High Level hat, die Umsetzung aber in den meisten Fällen mangelhaft ist.
Nein da kann man nicht zustimmen, das ist einfach Blödsinn. Je mehr DX12 eingesetzt wird, desto eher sind wir nur noch LL und das ermöglicht drasdisch höhere Detailgrade. Nur weil ein Game heute noch nicht profitiert heißt das doch nicht, dass das für ewig so bleibt :freak:. So ein Quatsch. EA wird DX12 jetzt überall mitliefern. Auch die anderen großen werden jetzt DX12 oder Vulkan standardmäßig mitliefern.
Hinzu kommt ja wohl noch, dass man nicht weiss, wie gut das auf NV und AMD überhaupt optimiert ist. Man darf doch einfach nicht vergessen, dass vieles, was NV in DX11 jetzt totoptimiert hat, nun von den Spieleherstellern erledigt werden muss. Das ist aber nur im Übergang so und wird keine Rolle mehr spielen, wenn man nur noch LL einsetzt oder eben die Drawcalls stark vermehrt.
Nvidia fehlen hardwarefeatures um wirklich von DX12 profitieren zu können. Ohne eine neue uArch ist man ewig bis zu bitteren Ende auf DX11-Sackgasse angewiesen. DX12 bedeutet auch in gewisser Weise Offenlegung der tiefen GPU-Zugriffe, die Nvidia aber scheut, da man nicht mehr selber Hand anlegen kann/darf. Die jahrelange Optimierungsarbeit im HL-API wird im LL-API einfach nutzlos und irrelevant. Für Nvidia wohl der größten Verlust, den man sich vorstellen kann, aber dennoch unvermeidlich ist. Das Dilemma wird natürlich so weit wie möglich verzögert, da man weiß, dass AMD's Vega im LL-API schon viel weiter ist.
Wir werden dieses Spielchen in den nächsten Jahren weiter beobachten können und Verlierer sind in erster Linie Nvidia's Kunden, die im LL-API bisher durchgängig Leistungsverluste hinnehmen mussten während es bei AMD's GCN umgekehrt ist. Die Angst vor dem Verlust der Leistungskrone schwingt wie ein Demoklesschwert über die grüne Fraktion, die verständlicherweise versucht für immer bei DX11 zu bleiben. Technischer Stillstand/Rückschritt wird in Kauf genommen um weiter an der Marktspitze zu bleiben. Verlierer sind am Ende alle Kunden.
Weil es prinzipbedingt Vorteile gegenüber High Level hat,
Und ebenso jede Menge Nachteile, weil es einfach extrem aufwändig in der Programmierung ist.
Ex3cut3r
2017-09-14, 19:38:57
drasdisch höhere Detailgrade.
Welche Detailgrade? Die Konsolen bestimmen die "Detailgrade" in der aktuellen Gen, wird jeder moderne QuadCore ab Sandy keine groben Probleme bekommen.
Wenn die nächste Konsolen Gen kommt (2020+) kommt, könnte es anders aussehen, ja. Aber es kommen ja auch neue CPUs von Intel und AMD raus. Von daher ist die Next Gen Konsole PS5 beim Release schon wieder veraltet genauso wie die PS4 2013.
Von daher, für was braucht man Low Level am PC? Lieber eine APi mit neuen Grafik Features präsentieren, dann hat man als PC User wenigstens ein paar optische Schmankerl.
Der Aufwand den die Entwickler bei Low Level aufgrund der zig verschieden PC Konfigurationen betreiben mussen, ist anscheinend einfach zu aufwendig. Und da der PC mit den Verkauften AAA+ Titel zum Release sowieso letzer Platz ist, wird kein Entwickler der Welt vield Geld für DX12 ausgeben wollen.
Wenn wir DX12 erhalten, ist es meist ein lächerlicher hingeklatscher Bug Haufen mit schlechter/ruckeliger Performance als bei DX11. Ich halte davon nix. Sry
gravitationsfeld
2017-09-14, 20:40:42
Cross-Platform-Titel die DX11 unterstuetzen mussten waren sehr oft Draw-Call-Limitiert am PC (und nicht auf den Konsolen) und zogen damit ironischerweise auch die Konsolen runter. Der Overhead ist mindestens eine Magnitude hoeher.
Gerade die Low-Level-Schnittstelle auf der PS4 ist absurd effizient. Paar bytes in einen buffer schreiben pro draw call wenn man's richtig macht. Im Gegensatz zehntausenden Instructions am PC im Optimalfall.
Es sind Titel in Entwicklung, die Vulkan/DX12 voraussetzen um ueberhaupt spielbar zu sein am PC. Glaub's oder nicht.
Kriton
2017-09-14, 20:57:56
Cross-Platform-Titel die DX11 unterstuetzen mussten waren sehr oft Draw-Call-Limitiert am PC (und nicht auf den Konsolen) und zogen damit ironischerweise auch die Konsolen runter. Der Overhead ist mindestens eine Magnitude hoeher.
Gerade die Low-Level-Schnittstelle auf der PS4 ist absurd effizient. Paar bytes in einen buffer schreiben pro draw call wenn man's richtig macht. Im Gegensatz zehntausenden Instructions am PC im Optimalfall.
Es sind Titel in Entwicklung, die Vulkan/DX12 voraussetzen um ueberhaupt spielbar zu sein am PC. Glaub's oder nicht.
Kannst Du eine Einschätzung abgeben, warum wir eher DX12 sehen als Vulkan? Sind dort die Werkzeuge (noch) besser?
gravitationsfeld
2017-09-14, 21:03:50
Traegheit des Geistes und Angst vor dem Unbekannten. 90% davon ist irrational.
Ex3cut3r
2017-09-14, 21:31:48
Es sind Titel in Entwicklung, die Vulkan/DX12 voraussetzen um ueberhaupt spielbar zu sein am PC. Glaub's oder nicht.
Welche Titel sollen das sein? Star Citizen? Das wird sowieso nie fertig werden. Sry aber genau solche Sätze, habe ich hier auch kurz vor dem Windows 10 Release gelesen. Solche Aussagen lassen mich nur noch müde lächeln.
IchoTolot
2017-09-14, 21:50:47
EA wird DX12 jetzt überall mitliefern. Auch die anderen großen werden jetzt DX12 oder Vulkan standardmäßig mitliefern.
Dann muss sich aber grade EA dran messen lassen. Hab heute nochmal DX12 probiert in BF1. Läuft immer noch schlechter mit Lags und keine Alternative. Wenn DIE das schon nicht vernünftig schaffen, wer dann? Da vertraue ich lieber auf den guten DX11 Treiber von NV..
N0Thing
2017-09-15, 01:06:23
Die "Diskussion" erinnert mich an die Einführung von DX10 und DX11. Da wurde auch die Enttäuschung über die unnötigen neuen APIs kund getan und kein Nutzen gesehen. Nur langsamer und mit DX9 sei ja auch alles möglich. Mit dem vermehrten Aufkommen von reinen DX11 Titeln ist diese Kritik verschwunden.
Wir haben bis heute keinen Titel gesehen, der nativ und ausschließlich DX12 oder Vulkan verlangt und auch DX12 Hardware benötigt. Bin gespannt, was uns erwartet, wenn es endlich soweit ist. Die bisherigen Portierungen sehe ich in den meisten Fällen als Übungen für die Entwickler an, sich unter Realbedingungen mit der Materie vertraut zu machen. Wenn es nicht gut läuft, gibt es immer noch das Sicherheitsnetz DX11 und OpenGL.
Hübie
2017-09-15, 07:26:57
DX10 war so gesehen ja auch unnötig, da erst DX11 konsequente Änderungen (vor allem für Parallelität) brachte. DX10 war schneller von der Bildfläche als man gucken konnte. Dem Muster zu Folge braucht es DX13 um den Durchbruch zu erreichen.
Mich würde nur allzu sehr interessieren, warum DX12 bisher fast immer langsamer abschneidet, als DX11. :uponder:
gravitationsfeld
2017-09-15, 08:06:33
DX10 war so gesehen ja auch unnötig, da erst DX11 konsequente Änderungen (vor allem für Parallelität) brachte.
Noe. Die Deferred-Context-Geschichte skaliert nen Nuller und wird von fast nichts verwendet.
DX11 hat Compute-Shader gebracht, das ist der einzige grosse Vorteil. Tesselation vielleicht noch, aber wird doch eh kaum benutzt.
DX10 hat 90% der Grundlagen gelegt von DX11. Die mangelnde Adoption ist absolut sicher der PS360-Konsolen-Generation zu verdanken.
Rancor
2017-09-15, 08:43:07
Mich würde nur allzu sehr interessieren, warum DX12 bisher fast immer langsamer abschneidet, als DX11. :uponder:
Ist es bisher ja nur auf NV. GCN profitiert ja in der Regel recht ordentlich.
Das liegt aber auch daran das NV halt sehr viel effizienter unter DX 11 ist als AMD.
Die Reduzierung des CPU Overheads sollte aber ja eigentlich beiden IHVs zu gute kommen.
Frage an die Spezialisten: AC hat mit der Reduktion des CPU Overheads ja nichts zu tun oder? Das ist doch primär für die bessere Auslatung der GPU odeR?
Hübie
2017-09-15, 09:07:24
Noe. Die Deferred-Context-Geschichte skaliert nen Nuller und wird von fast nichts verwendet.
DX11 hat Compute-Shader gebracht, das ist der einzige grosse Vorteil. Tesselation vielleicht noch, aber wird doch eh kaum benutzt.
DX10 hat 90% der Grundlagen gelegt von DX11. Die mangelnde Adoption ist absolut sicher der PS360-Konsolen-Generation zu verdanken.
Gut dann anders formuliert: DX10 hätte alles von DX11 haben müssen oder DX10 hätte gar nicht erst heraus gebracht werden brauchen. Du bist da eindeutig mehr in der Materie, klar, aber es gab wohl noch ein bissl mehr als nur Tesselation und Compute-Shader. Aber wem sag ich das? ;)
Wurde nicht sogar die foliage geometry in Crysis 3 mit compute shader "tesseliert"?
Für uns Kunden zählt nur eins: Was kommt hinten raus. Und da will doch nun wirklich keiner diskutieren, dass es bisher nicht sehr konsistent war, was gezeigt wurde. Die Daseinsberechtigung spreche ich nicht ab, nur die mangelnde Umsetzung hinterlässt eben einen faden Beigeschmack.
Welche Titel sollen das sein? Star Citizen? Das wird sowieso nie fertig werden. Sry aber genau solche Sätze, habe ich hier auch kurz vor dem Windows 10 Release gelesen. Solche Aussagen lassen mich nur noch müde lächeln.
Sämtliche künftige Bethesda-Titel werden nur noch Vulkan einsetzen, weil zumindest deren Renderer auf id-Technik basieren.
Aber es ist keine Frage, dass auch bald Titel abseits von UWP (ja es gibt sie schon, die DX12-Exklusivtitel :D) nur noch DX12 einsetzen, da kämpfen die Win7-Hardliner einen sinnlosen Kampf, zumal das Ende greifbar nah ist. Und komm jetzt nicht mit Marktanteilen, wenn sich einige Entwickler trauen, das DX12-only zu machen (meist, weil sie die XBox als Primärentwicklungsplattform nutzen übrigens) werden im Spielerbereich die Win10-Marktanteile explosionsartig ansteigen, da mittlerweile auch der letzte mitbekommen haben dürfte, dass Win10 auch weiterhin umsonst ist mit einem Win7-Key aufrüstbar ist.
Man muss die zeitliche Abfolge sehen, solch ein AAA-Spiel dauert sicherlich 3-4 Jahre vom Konzept bis zur beta. Natürlich kommt die LL-APIs-Exklusivität damit entsprechend verzögert. Das war aber von Anfang an klar.
DX12 wird DX11 in dem Bereich schlicht und einfach ersetzen und das wegen der Konsolen, denn für die XBox muss die Arbeit ja sowieso erledigt werden.
aufkrawall
2017-09-15, 09:14:37
Sämtliche künftige Bethesda-Titel werden nur noch Vulkan einsetzen, weil zumindest deren Renderer auf id-Technik basieren.
Abwarten, besonders das mit dem "sämtliche". In diesem Thread wurden schon mehrfach optimistische Prognosen enttäuscht. Ist eigentlich schon eine Art Running Gag.
Hübie
2017-09-15, 09:22:10
Sämtliche bezweifele ich ebenfalls. Die id-tech 6 bräuchte massive Anpassungen bzw. Ankopplungen von Modulen für Spiele wie TES oder Fallout. Wie gut die für open world geeignet ist wissen wir ja auch nicht. Auch ob man damit eine anständige Fahrzeugphysik ohne mega viel Aufwand etc. hinbekommt ist fraglich. Grafisch und eingabetechnisch sicher gut genug, aber das reicht nicht.
dargo
2017-09-15, 09:22:31
Kannst Du eine Einschätzung abgeben, warum wir eher DX12 sehen als Vulkan? Sind dort die Werkzeuge (noch) besser?
Naja... wenn du dir diese Übersicht hier anschaust gibt es doch recht viele Vulkantitel.
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=565059
Gut... manche sind Linux exklusiv.
...Win7-Hardliner ...
Denk mal etwas weiter, als nur in der M$-Blase. Das klingt so, als wären diejenigen, die für das offene Vulkan oder auch gegen das Spitzel- und Bevormundungs-BS Win10 eintreten, rückständige Ewiggestrige.
aufkrawall
2017-09-15, 09:30:40
Das Gute ist, dass Vulkan gar nicht auf AAA PC-Spiele angewiesen ist. Als alternative API können Entwickler es später immer aus der Schublade holen, wenn sie wollen. Also es nicht so schwarz sehen, wenn derzeit immer noch hauptsächlich auf DX12 gesetzt wird.
Denk mal etwas weiter, als nur in der M$-Blase. Das klingt so, als wären diejenigen, die für das offene Vulkan oder auch gegen das Spitzel- und Bevormundungs-BS Win10 eintreten, rückständige Ewiggestrige.
Meiner Meinung nach sind sie genau das, denn es ist einfach egal, welches kommerzielle OS du nimmst, auch das geliebte Win7 - du wirst eh ausgespäht. Das spielt einfach keine Rolle. Kontrolle hast du keine mehr, auch mit Win7 nicht seit der kumulativen Updates. Und Bevormundung kann ich nirgends entdecken. Klar es gab mal das Zwangsupdate, aber damit hat sich M$ ja zurecht ne blutigen Nase geholt. Da kann aber Win10 als Solches nix dafür.
Ich spezifiziere meine Bethesda-Aussage: Alle großen Titel von den Vertragsstudios, die mit mindestens id-Tech6 arbeiten und alle Bethesda-AAA-Games werden Vulkan einsetzen.
Creation war schon sehr stark veraltet, die entwickeln doch eh grad alles neu. Natürlich ist dann auch bei denen alles Vulkan, dafür hat man doch die id-Expertise mit im Haus.
Und EA und Ubi setzen beide auf DX12. Das ist offensichtlich.
Ich gehe sogar noch einen Schritt weiter: Ich denke bisher waren die PC-Ports relativ anspruchsvoll, weil man einen DX11-Renderer anpassen musste, der dann stark für Geforce ausgelegt werden muss, weil die Grundlage der Spiele immer GCN ist, denn es werden ja die Spiele entweder primär für die PS4 oder für die XBox entwickelt, aber nicht für den PC, das muss also stets ein Port sein, oft auch durchgeführt von anderen Studios.
Ich denke, dass die Ports für die Studios auf DX12 sogar leichter werden könnten, da die Technik für GCN auf den Konsolen eh schon entwickelt wird. NV ist hier wieder der Knackpunkt. Die sind nunmal der dominierende Anbieter auf dem PC-Markt.
Das ist als wenn es 3 Konsolen gäbe und eine bietet völlig andere Grafik an.
Hübie
2017-09-15, 10:55:45
Ach plötzlich muss DX11 sich an Geforce ausrichten? X-D
dildo4u
2017-09-15, 11:23:47
Meiner Meinung nach sind sie genau das, denn es ist einfach egal, welches kommerzielle OS du nimmst, auch das geliebte Win7 - du wirst eh ausgespäht. Das spielt einfach keine Rolle. Kontrolle hast du keine mehr, auch mit Win7 nicht seit der kumulativen Updates. Und Bevormundung kann ich nirgends entdecken. Klar es gab mal das Zwangsupdate, aber damit hat sich M$ ja zurecht ne blutigen Nase geholt. Da kann aber Win10 als Solches nix dafür.
Ich spezifiziere meine Bethesda-Aussage: Alle großen Titel von den Vertragsstudios, die mit mindestens id-Tech6 arbeiten und alle Bethesda-AAA-Games werden Vulkan einsetzen.
Creation war schon sehr stark veraltet, die entwickeln doch eh grad alles neu. Natürlich ist dann auch bei denen alles Vulkan, dafür hat man doch die id-Expertise mit im Haus.
Und EA und Ubi setzen beide auf DX12. Das ist offensichtlich.
Ich gehe sogar noch einen Schritt weiter: Ich denke bisher waren die PC-Ports relativ anspruchsvoll, weil man einen DX11-Renderer anpassen musste, der dann stark für Geforce ausgelegt werden muss, weil die Grundlage der Spiele immer GCN ist, denn es werden ja die Spiele entweder primär für die PS4 oder für die XBox entwickelt, aber nicht für den PC, das muss also stets ein Port sein, oft auch durchgeführt von anderen Studios.
Ich denke, dass die Ports für die Studios auf DX12 sogar leichter werden könnten, da die Technik für GCN auf den Konsolen eh schon entwickelt wird. NV ist hier wieder der Knackpunkt. Die sind nunmal der dominierende Anbieter auf dem PC-Markt.
Das ist als wenn es 3 Konsolen gäbe und eine bietet völlig andere Grafik an.
DX11 herrecht weil es ne allgemeine Abneigung gegenüber Win 10 gibt und nicht ohne Grund,das OS wird erst jetzt langsam zurecht gefixt was Gameing angeht.
http://www.chip.de/news/Windows-10-Creators-Update-Microsoft-will-Feedback-zu-den-Gaming-Problemen_122740032.html
Dann noch der grottige Win 10 Store dazu,das hat alles wenig mit NV's Marktanteil zu tun.
IchoTolot
2017-09-15, 11:45:53
Ist es bisher ja nur auf NV. GCN profitiert ja in der Regel recht ordentlich.
Auch Nvidia profitiert. Ich hab gestern mal aus Interesse wieder DX12 getestet in BF1. Höhere Max FPS aber auch niedrigere 1% und 0.1% Lows. Läuft aber bei weitem nicht so schlimm wie noch vor einiger Zeit meine ich.
dargo
2017-09-15, 11:51:53
DX11 herrecht weil es ne allgemeine Abneigung gegenüber Win 10 gibt und nicht ohne Grund,das OS wird erst jetzt langsam zurecht gefixt was Gameing angeht.
Deshalb ist Win10 64 klar die Nummer 1 bei den Steam-Usern. :usweet:
http://store.steampowered.com/hwsurvey/directx/
aufkrawall
2017-09-15, 11:52:45
Auch Nvidia profitiert. Ich hab gestern mal aus Interesse wieder DX12 getestet in BF1. Höhere Max FPS aber auch niedrigere 1% und 0.1% Lows. Läuft aber bei weitem nicht so schlimm wie noch vor einiger Zeit meine ich.
Braucht man auch total bei ~120fps Minimum mit einem 6700k & DX11. Da konnte man damals mit einem 2600k bei BF3 nur von träumen.
pixeljetstream
2017-09-15, 12:59:08
Die Reduzierung des CPU Overheads sollte aber ja eigentlich beiden IHVs zu gute kommen.
Frage an die Spezialisten: AC hat mit der Reduktion des CPU Overheads ja nichts zu tun oder? Das ist doch primär für die bessere Auslatung der GPU odeR?
Ja die Reduktion kommt beiden zu Gute, ein Beispiel was der Treiber in dx11/gl machen muss (vereinfachter Bruchteil):
- bei jeden drawcall muss geguckt werden ob sich diverse states verändert haben. Man macht dies meist lazy und nicht beim Setzen von states (glBindBlah), weil oft verschiedene states untereinander sich beeinflussen, oder man will verhindern irgendwas zu setzen, wenn es nicht benutzt wird, oder wie auch immer. Welche states sich wie gegenseitig beeinflussen ist herstellerabhängig. Prominentes Beispiel: AMD holt vertex attribute im shader, muss also bei vertex format Änderungen den passenden vertex shader generieren/binden usw. NV hat ne eigene Unit dafür und muss dementsprechend hier nur der unit sagen was das format ist.
- wurden z.b. bindings wie vertex/indexbuffer oder texturen geändert, muss man deren interne Memory Allokation überwachen. Der DX/GL Treiber der Hersteller kommuniziert via wddm mit Windows, dabei übermittelt er das "Arbeitspaket" aus GPU kommandos + Liste von Ressourcen die dafür notwendig sind. Das Paging von Speicher übernimmt Windows selbst da es ja mehrere Applikationen verwalten muss (alt tab, vor/hintergrund usw.). Dieser Vorgang ist mit wddm2 flotter geworden, aber dennoch muss der Treiber darauf achten dass ein Arbeitspaket nicht zu viel GPU Speicher referenziert.
Stellt der Treiber als fest dass nach 1000 drawcalls, wir mehr als ein Limit referenzieren, wird er die bisher aufgezeichneten Kommandos und deren Ressourcen abschicken (flush), und es geht von vorne los.
- wurde der shader geändert, ist die Maschinerie sehr groß, da eben viele states sich auswirken können. Auch die Art und Weise wie die anderen GPU Ressourcen gebunden wurden (texturen, sampler) kann sich je nach Shaderwechsel unterscheiden. Je nach state werden auch eventuell verschiedene Varianten des gleichen shaders benutzt. Das führt manchmal zu den frame hitches wenn dann doch irgendwas ad hoc kompiliert wird, oder eben intern irgenwelche Bindingtabellen angefasst werden...
Es ist also sehr viel was redundanter Weise immer wieder auf den Zustand überprüft werden muss.
Das ist genau das wo der Ansatz der neuen (und auch Konsolen apis) ist, dass man die APIs so designt hat, dass der Entwickler nun wesentlich detailierter im vorhinein sagt was er genau will.
Das hat dazu geführt dass dx12/vk/metal eben diese großen "Pipeline State Objects" (PSO) haben, wo mehr oder weniger alles was den Renderingzustand betrifft als ein Monsterobjekt existiert, damit kein Hersteller benachteiligt wird und alle, alle Informationen hier haben. Damit gibt es diese ganzen "lazy/späten" Entscheidungen nicht mehr und der drawcall ist halt wirklich nur paar bytes in dem commandbuffer schreiben und gut.
NV hatte unter GL schon lange extensions die z.b die das memory tracking dem user überließen, und so hatte man sehr sehr schnelle drawcalls seit G80 für vertex/indexbuffer. Die Features von den neuen APIs sind also nicht vom Himmel gefallen, sondern es gibt ja nen Schwung Konsolenapis oder eben extensions wo man sich den Problemen nähert.
Der Nachteil ist natürlich dass der Entwickler nun relativ genau arbeiten sollte um das meiste rauszuholen, und ein paar Aufgaben, wie Speicherverwaltung dazukommen.
Im Prinzip haben viele Topentwickler diese Art von Erfahrung auch von den Konsolen, allerdings war hier das System eher "starr", beim PC sind die Limits flexibler und auch gibt es nachwievor versteckte Kosten, die beim einen Hersteller größer sind als beim anderen (weswegen das ganze wirklich nur Evolution der Abstraktion ist, bei früher dx9/dx11 hardware passte die api oft auch relativ gut zur hw, heute sind die Unterschiede etwas größer)
Wenn man nun von dx11/gl kommend, einfach das gleiche System auf dx12/vk läuft man gefahr einfach nur ne art Treiberemulator zu schreiben. Sprich manche engine baut die PSOs vielleicht nun selbst "lazy", obwohl das bessere Design eben ist das ganze möglichst so umzubauen die Dinge schön vorher zu definieren. Das ist aber auch nicht trivial, denn manche alter Ansatz ist einfach zu flexibel und damit zu schwer flott zu kriegen.
Mag sein dass die Leute enttäuscht sind von dem was bisher so rauskommt, aber imo sind das oft einfach unrealistische Erwartungen, wie schnell solche Umbrüche vor sich gehen. In 5 Jahren ist dx12(+) das dx11 von heute ;)
--
Async compute wirkt sich auf die GPU aus. Die traditioniellen APIs haben mehr oder weniger nur einen command stream, der eine serielle Abfolge vorgibt. Der Treiber erkennt aber welche kommandos man parallel abarbeiten kann oder nicht. Es wäre relativ ineffizient für die heutige hardware jeden drawcall einzeln abzuarbeiten bevor man den nächsten startet.
Je größer die GPU, desto mehr Verschwendung, wenn die GPU gezwungen wird bis zum Ende einer Operation zu warten.
Beim "normalen" zeichnen ist das Problem relativ einfach zu lösen, simple drawcalls schreiben ja nur in die render targets, sprich so lange die sich nicht ändern hat die Hardware mehr Freiheit parallel die tasks abzuarbeiten.
Das ging früher ganz gut, aber nun je mehr compute, post processing usw. desto vielseitiger die Aufgaben und nun ist es nicht mehr so einfach die Abhängigkeiten zu definieren. Bzw. anders gesagt, die "eine" command queue zu haben ist relativ doof.
Wenn ich weiß dass zwei tasks unabhängig in ihren ein/ausgaben sind, wäre es praktischer diese auch überlappen zu lassen. Im Prinzip kann das der Treiber durch Analyse des command streams auch rauskriegen, aber das ist relativ aufwendig und man muss praktisch den ganzen frame vorhalten bis man was zum analysieren hat... (ich vermute AMD nutzte async compute auch früher in dx11, aber halt aufwendiger/manuell auf Titel zugeschnitten...).
Wieder ist's viel besser wenn der Entwickler das ganze nativ in der API ausdrückt. Das erleichtert zum einen das Programmiermodell für Entwickler und erlaubt eben auch der Hardware etwaige Auslastungslücken zu füllen.
Diese Lücken werden immer kleiner, weil natürlich die Hersteller immer hohe Auslastung in allen Lagen anstreben, aber das was man nicht umgehen kann, sind eben jene Verkettungen von Arbeitsschritten, wo Ein/Ausgabe direkt voneinander abhängen. Denn hier muss man vom Algorithmus her gesehen logischerweise warten bis das Ergebnis fertig ausgerechnet ist, bevor man damit arbeitet. Typisches Beispiel die diversen post-processing Schritte.
Hübie
2017-09-15, 13:38:14
Wenn ich das also richtig verstehe: Hohe Anfangsinvestition und dann schleichender Kostenbeitrag über Zeit X, wenn man eine hauseigene Engine hat (oder eine der großen lizensiert). Mit D3D11 dürfte das ähnlich gewesen sein, nur dass die Lernkurve jetzt mglw. steiler ist und man somit länger braucht bis es "sitzt". Danke für die Einblicke, pixeljetstream. :up:
pixeljetstream
2017-09-15, 14:07:29
!/$ ist nie einfach zu definieren, dafür gibt's zu viel unterschiedliche Entwickler mit unterschiedlichen Anforderungen und Projektlaufzeiten.
Die Anfangshürde ist definitiv höher, es fehlt auch noch bissl gute open-source Projekte rund um die neuen APIs die einem Urschleimarbeit abnehmen. Mal sehen wie schnell da etwas vorwärts geht. Ich hoffe bei Vulkan tut sich da noch mehr, MS ist immer verführerischer weil sie natürlich Entwicklertools, Marketing, Konformitätstests usw. selbst bezahlen. Für Vulkan gibt's nur Google als großen Platformhalter der sich da finanziell engagieren könnte, aber die haben natürlich nen anderen Markt im Sinn. Und wie sehr sich die Software/Spielindustrie selbst engagiert um ebenfalls etwas unabhängiges zu haben, wird man sehen.
Man darf auch nicht vergessen dass im Netz/Büchern unendlich viel mehr Material zu alten dx/gl versionen gibt. Das lässt natürlich das "neue" nochmal schwerer aussehen.
Langfristig sind die apis aber "sauberer" imo, und das sollte sich auch positiv auf das Softwaredesign auswirken.
gravitationsfeld
2017-09-15, 17:34:38
Du bist da eindeutig mehr in der Materie, klar, aber es gab wohl noch ein bissl mehr als nur Tesselation und Compute-Shader. Aber wem sag ich das? ;)
Noe, das ist wirklich der grosse Block, sonst sind's nur ein paar hoehere Limits.
Hübie
2017-09-15, 19:44:29
Das meinte ich ja. UAVs fallen mir spontan ein. Warum limitiert man überhaupt bei so etwas? Hat das einen handfesten Hintergrund?
pixeljetstream
2017-09-15, 20:10:04
Das meinte ich ja. UAVs fallen mir spontan ein. Warum limitiert man überhaupt bei so etwas? Hat das einen handfesten Hintergrund?
Meistens weil irgendein Hardwarehersteller das nicht kann. Gibt ja mehr als Intel, NV, AMD die für MS wichtig gewesen sein könnten zu dem Zeitpunkt. Gab's nicht auch ne Windows Phone Variante mit dx11?
Das ganze uav Handling an render targets zu binden ist imo obskur, das hat GL mit ssbos viel schöner gelöst. Dafür hat GL mit GLSL sich was tolles eingefangen von nem Hersteller der danach auch verschwand...
ScottManDeath
2017-09-15, 21:48:16
Ich wart immer noch auf die pixel pack und unpack shader :(
Deshalb ist Win10 64 klar die Nummer 1 bei den Steam-Usern. :usweet:
http://store.steampowered.com/hwsurvey/directx/
Das spielt eh keine Rolle. Kommen die ersten Hammertitel, kippt die Sache sehr schnell.
Übrigens, sogar BlueByte macht DX12 mit Anno1800, ich konnts kaum glauben, aber wurde von einem BB-Mitarbeiter ggü. PCGH auf der Gamescom bestätigt.
pixeljetstream
2017-09-17, 13:08:17
Ich wart immer noch auf die pixel pack und unpack shader :(
was meinst Du damit, sowas wie texture shader? (ala prozedurale Texturen ad-hoch zwischenspeichern in temporären Cache)
dildo4u
2017-09-17, 13:12:17
Deshalb ist Win10 64 klar die Nummer 1 bei den Steam-Usern. :usweet:
http://store.steampowered.com/hwsurvey/directx/
Weil das Update ne Zeit lang kostenlos war,komplett auf DX12 zu gehen mach sinn wenn 80% vom Markt Win 10 nutzen.Und genau das wird ewig dauern.
Win 7 hat im August mehr Zugelegt als Win 10.
http://store.steampowered.com/hwsurvey/directx/
Lurtz
2017-09-17, 13:28:54
Das Update ist immer noch kostenlos, wenn auch nicht mehr offiziell.
Das machts eben einfach. Sobald Win10 zwingend wird, gehts bei Win7 massiv abwärts. Das ist für einen Entwickler kein Hindernis. Im Moment ist noch Schonzeit und DX11 wird noch mitgeliefert. Aber das bleibt nicht so.
Hübie
2017-09-17, 15:22:43
was meinst Du damit, sowas wie texture shader? (ala prozedurale Texturen ad-hoch zwischenspeichern in temporären Cache)
Habe ich mich auch gefragt. :freak: Na mal sehen ob er antwortet.
gravitationsfeld
2017-09-17, 18:41:01
was meinst Du damit, sowas wie texture shader? (ala prozedurale Texturen ad-hoch zwischenspeichern in temporären Cache)
Ich vermute programmierbares Blending.
ScottManDeath
2017-09-17, 20:19:21
Neee, Daten aus custom Speicherformat packen und entpacken:
http://www.tomshardware.com/reviews/opengl-2,427-5.html
Achill
2017-09-17, 20:52:04
Ist zwar OT aber Apple Metal Shading Language scheint es zu haben, unter Punkt 5.11 in der https://developer.apple.com/metal/Metal-Shading-Language-Specification.pdf
pixeljetstream
2017-09-17, 22:04:14
Ist zwar OT aber Apple Metal Shading Language scheint es zu haben, unter Punkt 5.11 in der https://developer.apple.com/metal/Metal-Shading-Language-Specification.pdf
Das sind nur Formatkonvertierungen, die gibt's zum Teil ähnlich in HLSL und GLSL auch.
Was genau ist Deine Anwendung ScottManDeath, im Prinzip kannst Du per hlsl UAV/glsl imageWrite in Texturen die Daten aus nem eigenen Format schreiben. Meinetwegen per compute und shared memory block selbst dekodieren. Nachteil ist halt dass man so Kopie zum schnellen Zugriff erzeugt, aber um Streaming Kosten zu senken ist das dennoch sinnvoll.
gravitationsfeld
2017-09-17, 23:14:29
Vielleicht will er selber Texture-Dekompression machen (also vor dem sampler). Das waere schon nuetzlich, aber ich versteh dass das einen riesigen HW-Rattenschwanz hat.
pixeljetstream
2017-09-18, 06:36:09
Vielleicht will er selber Texture-Dekompression machen (also vor dem sampler). Das waere schon nuetzlich, aber ich versteh dass das einen riesigen HW-Rattenschwanz hat.
Ja, das verstehe ich unter den vorher erwähnten Texture Shader.
blaidd
2017-09-20, 13:57:54
Übrigens, sogar BlueByte macht DX12 mit Anno1800, ich konnts kaum glauben, aber wurde von einem BB-Mitarbeiter ggü. PCGH auf der Gamescom bestätigt.
Ich will ja nicht unken und es wirkt, als wolle sich Blue Byte tatsächlich ehrlich mit Direct X 12 beschäftigen. Aber schon For Honor sollte durch Blue Byte Direct-X-12-Support erhalten, zumindest die Absicht haben sie mir zufällig auch letztes Jahr auf der Gamescom "bestätigt" ;). (dieses Mal war der Kollege bei Blue Byte).
Bei Anno 1800 halte ich es aber immerhin für einigermaßen realistisch - und prinzipiell auch für sehr sinnvoll. :) Wir werden sehen, wenn's dann Mal soweit ist. ;)
aufkrawall
2017-09-20, 14:17:58
Wär echt dämlich, den geringen Overhead und das bessere MT, das LL ermöglicht, für ein Spiel wie Anno nicht zu nutzen. Ansonsten sollte man die Engine vielleicht langsam mal entsorgen und durch besseren in-house Kram ersetzen. Besonders toll ist die Grafik schließlich auch nicht mehr, sieht immer noch stark nach Anno 2009, ähm, 1404 aus.
Kartenlehrling
2017-09-29, 01:02:37
Die Russen haben TW:warhammerII geteste leider nicht mit dem neuesten Treiber der extra Support hat,
jedesfall ist DX12 mit dem alten 17.9.2 viel schlechter und wieso haben sie nicht Vulkan genommen?
Radeon Software Crimson ReLive Edition 17.9.3 Highlights
Support For ... Total War: WARHAMMER™ II, Radeon Chill profile added und Multi GPU support enabled
http://gamegpu.com/rts-/-%D1%81%D1%82%D1%80%D0%B0%D1%82%D0%B5%D0%B3%D0%B8%D0%B8/total-war-warhammer-ii-test-gpu-cpu
Total War WARHAMMER II GPU / CPU test
dildo4u
2017-09-29, 12:25:41
DX12 wird Ingame als Beta bezeichnet,schon erstaunlich,das das immer noch nicht ordentlich läuft wenn das letzte Game schon DX12 hatte.
Ryzen 1600 GTX 1070
1080p Ultra
DX11 http://abload.de/img/totalwarwarhammeriiscs8ur0.png
DX12 http://abload.de/img/totalwarwarhammeriiscnyu1x.png
Kartenlehrling
2017-09-29, 16:24:36
Hast du den Benchmark von Forza7 bei CB gelesen? :freak::eek::biggrin:
"Wir mussten zweimal hinschauen und Nvidia bestätig unsere Messergebnisse"
https://www.computerbase.de/2017-09/forza-7-benchmark/
aufkrawall
2017-09-29, 16:32:03
Laut Entwicklern ist es für die technische Güte ziemlich zweitrangig (oder völlig egal?), ob man DX12 oder Vulkan nutzt.
Vulkan ist kein Schutz gegen schlechte Implementierungen, Serious Sam Fusion läuft damit immer noch auf jeder GPU schlechter als DX11.
Troyan
2017-09-29, 16:51:10
Aber es läuft besser gegenüber OpenGL und bietet Portierungsmöglichkeiten bis auf die Switch,
DX11 ist, vor allem speziell auf nVidia, unglaublich stark. Die ganzen Converter-Spiele ohne Anpassungen zeigen doch, wie sinnlos das ganze ist.
Microsoft schießt dann mit der DRM-Maßnahme den Vogel ab. Wer weiß, wieviel Leistung nVidia-Usern vorenthalten wird, weil die Spiele nicht auch mit DX11 angeboten werden.
/edit: Hier gibt es ein aktuelles Postings aus dem beyond3d.com Forum, das die Thematik aufnimmt: https://forum.beyond3d.com/posts/2003082/
aufkrawall
2017-09-29, 17:00:50
Ich glaub, das Problem heißt hier eher "Microsoft" als "DX12". Als wär der UWP-Müll nicht schon schlimm genug gewesen, haben sie mit der kaputten Gaming-Performance im Creators Update endgültig den Vogel abgeschossen, was Code-Abfall angeht.
Wenn DX12 only so gut wäre wie in Sniper Elite, könnte man dagegen vom technischen Standpunkt ja nichts einwenden. Portiermöglichkeiten wären schon toll, interessieren das dumme Spieler-Vieh aber null. Für Couch-Gaming gibts zudem bereits die Konsolen, die eh die Haupteinnahmequelle sind.
Ex3cut3r
2017-09-29, 17:16:50
Naja, wenn man sich die Benches auf CB mit Forza 7 anguckt, muss man auch Nvidia kritisieren, auf AMD läuft es was die Frametimes angeht erheblich besser. Bei Volta mussen Sie aufholen was DX12 angeht, erst recht, wenn diese APi in Zunkunft DX11 ablösen sollte, dann umso schneller.
aufkrawall
2017-09-29, 17:32:23
Ist jetzt die Frage, ob es an fehlender Optimierung liegt und umgekehrt aussähe, würde in der Xbox eine NV-GPU stecken. Kann ich nicht beurteilen, aber ich erwarte mir von einem Entwickler, dass er für beide IHVs (scheiß auf Intel-GPUs) versucht das Bestmögliche rauszuholen. Erst recht, wenn andere Entwickler das mit der selben API schon längst geschafft haben.
Ansonsten darf man als Kunde halt nichts kaufen, was nicht auf beiden Herstellern gut läuft. Ein frommer Wunsch, aber just saying.
Edit: Nach der GoW4-Pleite sieht MS aber garantiert nie einen Cent von mir, den UWP-Müll können die sich sonst wo hin stecken.
Daredevil
2017-09-29, 17:36:40
Sooo verwerflich wäre das nun auch nicht, wenn AMD ein wenig mehr Früchte trägt durch das KnowHow von PS4 + XboX, weil sie ja mit ihrer Technik durchaus "näher" dran wären.
Aber künstlich erzwingen sollte man das nun auch nicht..
( Ist aus Verbraucher Sicht natürlich immer scheiße.. )
gravitationsfeld
2017-09-29, 22:50:42
Ist jetzt die Frage, ob es an fehlender Optimierung liegt und umgekehrt aussähe, würde in der Xbox eine NV-GPU stecken. Kann ich nicht beurteilen, aber ich erwarte mir von einem Entwickler, dass er für beide IHVs (scheiß auf Intel-GPUs) versucht das Bestmögliche rauszuholen. Erst recht, wenn andere Entwickler das mit der selben API schon längst geschafft haben.
Ansonsten darf man als Kunde halt nichts kaufen, was nicht auf beiden Herstellern gut läuft. Ein frommer Wunsch, aber just saying.
Edit: Nach der GoW4-Pleite sieht MS aber garantiert nie einen Cent von mir, den UWP-Müll können die sich sonst wo hin stecken.
Niemand hat Zeit fuer solche Extrawuerste auf dem PC. Das geben die Verkaufszahlen nicht her. PC und Konsolen rendern bis auf ein paar spezifische Optimierungen gleich.
Ich weiss dass ich jetzt wieder dafuer angeflamt werde, aber das ist nicht die Entscheidung der Programmierer.
aufkrawall
2017-09-29, 23:10:38
Wenn das nicht die Entwickler entscheiden, ist das natürlich unglücklich.
Mir persönlich aber auch in dem Fall egal, UWP ist Krebs. Brauch das nicht mehr, auf unnötige Abhängigkeiten von dieser Psychopathen-Firma kann ich verzichten.
Kriton
2017-09-29, 23:15:22
Niemand hat Zeit fuer solche Extrawuerste auf dem PC. Das geben die Verkaufszahlen nicht her. PC und Konsolen rendern bis auf ein paar spezifische Optimierungen gleich.
Ich weiss dass ich jetzt wieder dafuer angeflamt werde, aber das ist nicht die Entscheidung der Programmierer.
Mich wundert in diesem Kontext nur, dass wir nicht bereits früher entsprechende Auswirkungen gesehen haben. Oder wurden sie nur nicht wahrgenommen?
Ex3cut3r
2017-09-29, 23:40:31
Niemand hat Zeit fuer solche Extrawuerste auf dem PC. Das geben die Verkaufszahlen nicht her. PC und Konsolen rendern bis auf ein paar spezifische Optimierungen gleich.
Ich weiss dass ich jetzt wieder dafuer angeflamt werde, aber das ist nicht die Entscheidung der Programmierer.
Sondern? Immer diese Halbsätze, packt doch einfach mal aus, wie es in dieser Branche wirklich zugeht, ihr seit doch hier vollkommen anonym. Aber solche Sätze bringen mir nix, außer Hokus Pokus/Verschwörungstheorien.
dargo
2017-09-29, 23:42:08
ihr seit doch ihr vollkommen anonym.
Das ist jetzt nicht dein ernst oder? :tongue:
gravitationsfeld
2017-09-29, 23:53:22
Sondern? Immer diese Halbsätze, packt doch einfach mal aus, wie es in dieser Branche wirklich zugeht, ihr seit doch ihr vollkommen anonym. Aber solche Sätze bringen mir nix, außer Hokus Pokus/Verschwörungstheorien.
Die Internet-Kultur ist viel zu toxisch um ueber irgend was wirklich reden zu koennen.
Ich hab einmal erzaehlt, dass ich ein Feature eigentlich verbessern wollte, aber dann doch keine Zeit hatte und wurde voellig aggressiv als "faul" angeschnauzt. Kann auf sowas echt verzichten. Gibt einfach immer 5-10% voellige Idioten.
Darueber hinaus ist der Dunning-Kruger-Effekt was Technik angeht extrem weit verbreitet. Zeitverschwendung es erklaeren zu wollen, das gilt auch fuer einige hier anwesende.
Wenn das nicht die Entwickler entscheiden, ist das natürlich unglücklich.
Mir persönlich aber auch in dem Fall egal, UWP ist Krebs. Brauch das nicht mehr, auf unnötige Abhängigkeiten von dieser Psychopathen-Firma kann ich verzichten.
UWP ist technisch schon okay glaube ich. Das die Spiele schlecht laufen liegt an den Spielen. Aber ich mag das Walled-Garden-Zeug auch nicht.
pixeljetstream
2017-09-30, 10:28:22
Meine Hauptsorge bei UWP ist, dass MS irgendwann mal vollkommen zum Applemodell schwenkt, nur noch ihre eigenen APIs (kein Vulkan, kein CUDA etc., bzw. nur gegen Aufpreis für "professional market")
deekey777
2017-09-30, 11:10:11
DirectX ist doch eine eigene API. X-D
Loeschzwerg
2017-09-30, 12:24:47
Meine Hauptsorge bei UWP ist, dass MS irgendwann mal vollkommen zum Applemodell schwenkt, nur noch ihre eigenen APIs (kein Vulkan, kein CUDA etc., bzw. nur gegen Aufpreis für "professional market")
Geschlossenes System d.h. nur noch den eigenen Store und die eigene API. Die momentane Richtung sieht schwer danach aus.
pixeljetstream
2017-09-30, 13:29:13
Geschlossenes System d.h. nur noch den eigenen Store und die eigene API. Die momentane Richtung sieht schwer danach aus.
Zumindest für Consumer... Firmen werden sie sich nicht vergraulen (Vista sollte ja schon OpenGL killen, was nicht kam).
Microsoft möchte die Kundschaft für die billige S-Variante an den Store gewöhnen. Das ändert aber nichts daran, dass man die normal-teure Version auch weiterhin mit normaler Windows-Software füttern kann. Könnt mir höchstens vorstellen, dass demnächst die S die Basisvariante ist und wer mehr will, muss halt die Windows-Features dazu lizenzieren. Aber grundsätzlich ändert sich auf absehbare Zeit gar nichts.
Demirug
2017-09-30, 13:54:50
Zumindest für Consumer... Firmen werden sie sich nicht vergraulen (Vista sollte ja schon OpenGL killen, was nicht kam).
Das ist jetzt aber stark übertrieben. Das einzige was als Einschränkung bei der ersten Vorstellung im Gespräch war das man nicht gleichzeitig einen ICD und den Desktop Composer (Aero) benutzen kann. Diese Einschränkung gab es aber auch bei einigen Microsoft eigenen APIs.
Microsoft möchte die Kundschaft für die billige S-Variante an den Store gewöhnen. Das ändert aber nichts daran, dass man die normal-teure Version auch weiterhin mit normaler Windows-Software füttern kann. Könnt mir höchstens vorstellen, dass demnächst die S die Basisvariante ist und wer mehr will, muss halt die Windows-Features dazu lizenzieren. Aber grundsätzlich ändert sich auf absehbare Zeit gar nichts.
Das dürfte wohl primär eine Entscheidung der Hersteller von Komplettsystemen werden welche Version sie beilegen. Und ja ich denke wir werden da einige sehen die um ein paar Dollar zu sparen die S-Version nehmen werden.
aufkrawall
2017-09-30, 14:06:49
Kann sein, dass Store-Apps schon jetzt kein OpenGL nutzen dürfen bzw. auf Angle ausweichen müssen.
Demirug
2017-09-30, 14:46:52
Kann sein, dass Store-Apps schon jetzt kein OpenGL nutzen dürfen bzw. auf Angle ausweichen müssen.
Wie eine große Menge der sonstigen alten Win32 APIs auch. Eine Idee von UWP ist ja auch es auf mehr als nur Desktop Systemen am laufen zu bekommen. Aus dieser Sicht macht es durchaus Sinn für die gleiche Aufgabe nicht mehr als eine API zu haben.
deekey777
2017-09-30, 16:15:27
Wie läuft es eigentlich schon auf Snapdragon 835?
aufkrawall
2017-09-30, 16:19:14
Mit einem Treiber für DirectX?
@Demirug: Das war zwar die ursprüngliche Idee, aber die ist ja zum Glück mit Windows Phone gestorben. Da die Xbox eh wieder Sonderaufmerksamkeit verlangt, machen API-Limitierugnen für UWP-Apps doch keinen Sinn mehr.
Demirug
2017-09-30, 17:45:51
Das war zwar die ursprüngliche Idee, aber die ist ja zum Glück mit Windows Phone gestorben. Da die Xbox eh wieder Sonderaufmerksamkeit verlangt, machen API-Limitierugnen für UWP-Apps doch keinen Sinn mehr.
Aus Windows 10 Mobile wird doch jetzt Andromeda OS. Es ist zwar nicht bestätigt aber ich rechne eigentlich damit das sie dort bei UWP bleiben werden. Ich habe mit UWP für XBox One persönlich noch nichts gemacht. Aber primär scheint eine normale UWP App erst mal lauffähig zu sein. Es werden aber Optimierungen bezüglich den Ein und Ausgabe Geräten empfohlen. Das ganze aber mehr in dem Sinn das man eben erkennen soll das die Eingabe von einem Controller und nicht von einer Maus kommen und dann entsprechend reagiert. Das galt allerdings auch schon bei Touch. Bei Android haben wir ja gerade die Entwicklung in die andere Richtung das man auch Maus input richtig erkennen soll. Neben Mobile und XBox benutzt auch HoloLens noch UWP.
Persönlich kann ich die ganze Aufregung ob UWP nun OpenGL unterstützt oder nicht sowieso nicht so ganz nach vollziehen. Bei all den Plattformen für die ich bisher programmiert habe hatte ich sowieso nur bei Win32/64 überhaupt die Wahl zwischen zwei APIs. Bei allen anderen hat mir die Plattform vorgeschrieben was ich zu benutzten habe. UWP ist daher für mich der normale Fall und Win32/64 die große Ausnahme. Und da ja auch eigentlich nur weil es ursprünglich mal zwei völlig unterschiedliche Windows Plattformen gab und man nicht mit der Kompatibilität brechen wollte.
Was ich allerdings auch noch nicht getestet habe ist in wie weit die API Limitierungen wegfallen wenn UWP apps per Sideloading (also nicht über den Store) installiert. In einer lokalen Debug Version greifen sie jedenfalls nicht da der Check erst beim Upload in den Store durchgeführt wird. Bringt natürlich nichts wenn man ein Windows hat bei dem man Sideloading nicht aktivieren kann oder die entsprechenden API gar nicht vorhanden ist.
deekey777
2017-09-30, 20:33:23
Mit einem Treiber für DirectX?
Irgendwann ist Windows 10 ARM und entsprechende Geräte draußen. Rein theoretisch könnte ein Forza 7 (Übertreibung) darauf laufen, wenn das Spiel auch für ARM64 kompiliert.
Und du sprichst es an:
Was ist der Stand der Treiber? Oder anders gesagt, welches DX-Level kann schon geboten werden? Muss eigentlich mindestens DX9irgendwas sein, aber das fände ich schwach, Adreno 540 dürfte mehr können (siehe GFXBench 4.0).
Demirug
2017-09-30, 20:48:56
Irgendwann ist Windows 10 ARM und entsprechende Geräte draußen. Rein theoretisch könnte ein Forza 7 (Übertreibung) darauf laufen, wenn das Spiel auch für ARM64 kompiliert.
Und du sprichst es an:
Was ist der Stand der Treiber? Oder anders gesagt, welches DX-Level kann schon geboten werden? Muss eigentlich mindestens DX9irgendwas sein, aber das fände ich schwach, Adreno 540 dürfte mehr können (siehe GFXBench 4.0).
Laut Qualcomm kann er DX-Level 12.
Ein reiner Recompile wird wohl trotzdem nicht reichen. Zum einen wird sich zeigen müssen ob die ARM Version wirklich noch die gesamte Win32 API hat und nichts fehlt was das Spiel vielleicht braucht. Das größere Problem dürfte aber SIMD code sein der mit Sicherheit vorhanden ist. Der ist aber in der Regel Prozessor spezifisch.
deekey777
2017-10-01, 09:53:35
Was sagt das DirectX-SDK zu ARM? Von Microsoft hört man kaum was, nur Qualcomm gibt sich kämpferisch, was die Vorwürfe von Intel angeht.
Demirug
2017-10-01, 10:25:38
Was sagt das DirectX-SDK zu ARM? Von Microsoft hört man kaum was, nur Qualcomm gibt sich kämpferisch, was die Vorwürfe von Intel angeht.
Es gibt ja kein DirectX SDK mehr. Die Code Teile gehören zum Windows SDK und die Tools wurden in Visual Studio integriert. Davon ab ist mir aber nicht klar was das SDK zu ARM sagen sollten? Die DirectX APIs sind ja neutral was die CPU Architektur angeht und es gibt auch nirgendwo eine Liste mit GPU Vendors oder ähnliches. Davon ab gibt es ja auch die DirectX ARM Runtimes schon seit der Mobile Version von Windows 10. Solange man also nicht in einem entsprechenden Alpha oder Beta Programm für die vollständige ARM Version von Windows 10 ist wird man dazu nichts sagen können. Und wenn man in einem solchen Programm ist hat man sicherlich eine NDA unterschrieben das man nichts sagen darf.
deekey777
2017-10-02, 09:16:47
Ich habe die Frage falsch gestellt, aber dann etwas gegooglet.
Sofern ich die Kommentare richtig verstehe, haben die Entwickler aktuell keine Möglichkeit ihre Win32-Apps/Anwendungen auf WinARM64 zu portieren, weil das Windows SDK dies nicht hergibt. (Oder sie sind sehr schweigsam.)
Sprich:
Windows 10 ARM und entsprechende Geräte sollen bald kommen, aber die (Dritt-)Entwickler werden keine nativen Anwendungen bringen können, weil das Windows-SDK noch nicht soweit sei.
Total War: Warhammer 2@DX11 vs DX12
https://youtu.be/ieaR_aWslVY
Bei AMD@DX12 hat bessere min. fps. und fängt damit die drops besser ab. Die Vorteile sind zwar gering, aber man sieht wo die Richtung hingeht.
gravitationsfeld
2017-10-10, 06:35:54
1-3% auf AMD sind lachhaft.
blaidd
2017-10-10, 08:42:00
Total War: Warhammer 2@DX11 vs DX12
https://youtu.be/ieaR_aWslVY
Bei AMD@DX12 hat bessere min. fps. und fängt damit die drops besser ab. Die Vorteile sind zwar gering, aber man sieht wo die Richtung hingeht.
1-3% auf AMD sind lachhaft.
Der Zugewinn ist im Großen und Ganzen auch deutlich mehr bei AMD – Direct X 12 funktioniert in Total War Warhammer 2 tatsächlich (zumindest so halb). Wir bringen nachher ein paar Benchmarks.
][immy
2017-10-10, 13:25:42
Was sagt das DirectX-SDK zu ARM? Von Microsoft hört man kaum was, nur Qualcomm gibt sich kämpferisch, was die Vorwürfe von Intel angeht.
War nicht der letzte Stand, das man x86 auf ARM emuliert?
Dann bräuchte man ja keine extra Funktionen. Die Frage wäre nur wie schnell es ist, aber ARM ist ja so oder so nicht so schlagkräftig.
Etwas ARM spezifisches wirst du von MS vermutlich aber nicht sehen. Nachdem sie sich auch ganz aus dem mobilen Systemen zurückziehen.
Grendizer
2017-10-10, 14:27:35
Aber mal ehrlich. Die momentanen DX12 Versuche bringen leichte Performanceschübe für AMD Karten, verbessern aber die bestehende Optik zu 0%.
Für mich macht die intensive Nutzung von DX12 nur Sinn, wenn ein Performanceschub von mindestens 30% erzielt wird und dadurch neue zusätzliche (im Vergleich zu DX11) grafische Effekte möglich wären. Aber davon spricht doch keiner. Es sind ein paar Frames mehr in Grenzbereichen, aber das bringt uns doch irgendwie nichts.
AffenJack
2017-10-10, 14:48:43
Der Zugewinn ist im Großen und Ganzen auch deutlich mehr bei AMD – Direct X 12 funktioniert in Total War Warhammer 2 tatsächlich (zumindest so halb). Wir bringen nachher ein paar Benchmarks.
Tut es das? Ich sehe zuerst einmal einen völlig kaputten DX11 Pfad bei AMD und langsames DX12 bei Nvidia. Aber kombiniert? Wenn eine 1060 in DX11 sowohl Fury und RX580 in DX12 schlägt und ne 1070 das gleiche mit Vega Liquid macht, dann sehe ich keinen guten DX12 Pfad. AMD ist selbst in DX12 noch langsamer als sie sein sollten und es wirkt nur gut, weil DX11 völlig kaputt ist.
][immy
2017-10-10, 16:21:46
Aber mal ehrlich. Die momentanen DX12 Versuche bringen leichte Performanceschübe für AMD Karten, verbessern aber die bestehende Optik zu 0%.
Für mich macht die intensive Nutzung von DX12 nur Sinn, wenn ein Performanceschub von mindestens 30% erzielt wird und dadurch neue zusätzliche (im Vergleich zu DX11) grafische Effekte möglich wären. Aber davon spricht doch keiner. Es sind ein paar Frames mehr in Grenzbereichen, aber das bringt uns doch irgendwie nichts.
Naja, DX12 sollte ja nicht nur die GPU besser ausnutzen (was aber Entwicklersache ist) sondern auch die CPU entlasten (was auch entwicklersache ist).
Hier stehen wir noch ziemlich am Anfang und die meisten Sachen setzen noch voll auf DX11.
Mit Vulkan sieht die ganze Sache aber auch nicht wirklich anders aus. Es braucht halt seine Zeit bis der große Wechsel der mit DX12/Vulkan begonnen hat auch wirklich vollzogen ist. Und bis dahin fällt es wohl nicht weiter aus, außer das irgendwann alte Hardware einfach zu langsam ist um noch wirklich einen nutzen daraus ziehen zu können.
Abgesehen davon will auch nicht jeder Entwickler die Freiheit die er durch DX12/Vulkan erhält und bleibt lieber beim alten um auf Nummer sicher zu gehen.
Tut es das? Ich sehe zuerst einmal einen völlig kaputten DX11 Pfad bei AMD und langsames DX12 bei Nvidia. Aber kombiniert? Wenn eine 1060 in DX11 sowohl Fury und RX580 in DX12 schlägt und ne 1070 das gleiche mit Vega Liquid macht, dann sehe ich keinen guten DX12 Pfad. AMD ist selbst in DX12 noch langsamer als sie sein sollten und es wirkt nur gut, weil DX11 völlig kaputt ist.
Das allerdings ist so eine Frage warum AMD es nicht hinbekommt den Treiber-Overhead für die CPU hier zu reduzieren. Das mag mit DX12 zwar durchaus besser aussehen, aber ich kann mir nicht vorstellen das es hier schon nahe des Optimums läuft.
[immy;11516004']
Das allerdings ist so eine Frage warum AMD es nicht hinbekommt den Treiber-Overhead für die CPU hier zu reduzieren. Das mag mit DX12 zwar durchaus besser aussehen, aber ich kann mir nicht vorstellen das es hier schon nahe des Optimums läuft.
Wenn ein Spiel sowohl mit DX11 als auch DX12 läuft macht es wenig Sinn (=unnützer Mehraufwand), den Treiber auf beide Pfade zu optimieren.
Ich nehme an, dass NV für DX11 und AMD für DX12 optimiert hat.
Loeschzwerg
2017-10-10, 17:51:22
[immy;11516004']Naja, DX12 sollte ja nicht nur die GPU besser ausnutzen (was aber Entwicklersache ist) sondern auch die CPU entlasten (was auch entwicklersache ist).
Wie sieht das eigentlich in Zukunft aus? Also alte DX12 Games mit neuen, zukünftigen GPUs und umgekehrt. Wie tief greifen die Optimierungen und gibt es da irgendwann Schwierigkeiten bei der Kompatibilität?
Grendizer
2017-10-10, 18:29:28
[immy;11516004']Naja, DX12 sollte ja nicht nur die GPU besser ausnutzen (was aber Entwicklersache ist) sondern auch die CPU entlasten (was auch entwicklersache ist).
Hier stehen wir noch ziemlich am Anfang und die meisten Sachen setzen noch voll auf DX11.
Mit Vulkan sieht die ganze Sache aber auch nicht wirklich anders aus. Es braucht halt seine Zeit bis der große Wechsel der mit DX12/Vulkan begonnen hat auch wirklich vollzogen ist. Und bis dahin fällt es wohl nicht weiter aus, außer das irgendwann alte Hardware einfach zu langsam ist um noch wirklich einen nutzen daraus ziehen zu können.
Abgesehen davon will auch nicht jeder Entwickler die Freiheit die er durch DX12/Vulkan erhält und bleibt lieber beim alten um auf Nummer sicher zu gehen.
Bedeutet das, das die Spiele, da sie einen DX11 Renderpfad haben vom allgemeinem Aufbau dann nicht wirklich mit DX12 harmonieren ? Würde man mit DX12 Only bessere Ergebnisse erzielen ? Ich finde einfach, das nur ein paar mehr fps doch kein wirklicher Grund für DX12 sein kann.
Bis jetzt haben selbst bei optimalen DX12 Ergebnissen das Resultat nicht zu besseren Effekten geführt.
aufkrawall
2017-10-10, 19:35:36
Jetzt gibts ja SM6.0, damit wird alles besser. :freak:
Es tut sich optisch wirklich so ziemlich gar nichts mehr. Die aktuelle Zwischen-Gen der Konsolen mit dem 4k-Wahn scheint dabei auch eher hinderlich als helfend. Der Battlefront 2 Content wirkt grafisch teilweise übel abgespeckt gegenüber dem Vorgänger, etwa im Wald bez. Polycount und Objektdichte.
Ex3cut3r
2017-10-10, 20:48:52
Jetzt gibts ja SM6.0, damit wird alles besser. :freak:
Es tut sich optisch wirklich so ziemlich gar nichts mehr. Die aktuelle Zwischen-Gen der Konsolen mit dem 4k-Wahn scheint dabei auch eher hinderlich als helfend. Der Battlefront 2 Content wirkt grafisch teilweise übel abgespeckt gegenüber dem Vorgänger, etwa im Wald bez. Polycount und Objektdichte.
Du wirst lachen, aber das habe ich mir auch letztens gedacht, vlt. haben die PS4 Pro und die Xbox One X mit ihren pseudo 4K Wahn gepaart mit einer RX 480 Leistung, dafür gesorgt, dass die Entwickler die "Details" zurückdrehen mussten, es wäre für uns PC Gamer besser gewesen, die wären bei 1080p geblieben mit 30FPS aber dafür halt mehr/bessere Details.
Das die so früh den "4K Wahn" pushen hätte ich auch nicht gedacht, vor allem da die Konsoleros doch eh meilenweit vom TV sitzen.
Aus Windows 10 Mobile wird doch jetzt Andromeda OS. Es ist zwar nicht bestätigt aber ich rechne eigentlich damit das sie dort bei UWP bleiben werden. Ich habe mit UWP für XBox One persönlich noch nichts gemacht. Aber primär scheint eine normale UWP App erst mal lauffähig zu sein. Es werden aber Optimierungen bezüglich den Ein und Ausgabe Geräten empfohlen. Das ganze aber mehr in dem Sinn das man eben erkennen soll das die Eingabe von einem Controller und nicht von einer Maus kommen und dann entsprechend reagiert. Das galt allerdings auch schon bei Touch. Bei Android haben wir ja gerade die Entwicklung in die andere Richtung das man auch Maus input richtig erkennen soll. Neben Mobile und XBox benutzt auch HoloLens noch UWP.
Persönlich kann ich die ganze Aufregung ob UWP nun OpenGL unterstützt oder nicht sowieso nicht so ganz nach vollziehen. Bei all den Plattformen für die ich bisher programmiert habe hatte ich sowieso nur bei Win32/64 überhaupt die Wahl zwischen zwei APIs. Bei allen anderen hat mir die Plattform vorgeschrieben was ich zu benutzten habe. UWP ist daher für mich der normale Fall und Win32/64 die große Ausnahme. Und da ja auch eigentlich nur weil es ursprünglich mal zwei völlig unterschiedliche Windows Plattformen gab und man nicht mit der Kompatibilität brechen wollte.
Was ich allerdings auch noch nicht getestet habe ist in wie weit die API Limitierungen wegfallen wenn UWP apps per Sideloading (also nicht über den Store) installiert. In einer lokalen Debug Version greifen sie jedenfalls nicht da der Check erst beim Upload in den Store durchgeführt wird. Bringt natürlich nichts wenn man ein Windows hat bei dem man Sideloading nicht aktivieren kann oder die entsprechenden API gar nicht vorhanden ist.
Ich möchte stark bezweifeln, dass es sich bei "Andromeda" wirklich um ein OS handelt. Einen sehr brauchbaren Launcher hat man ja entwickelt (Windows Launcher) und die UWP/App-Geschichten wird man wohl über die App "Microsoft Apps" realisieren. Die Pflege dürfte im Vergleich zu einem EMUI- weiß der Geier Derivat relativ gering sein. Zudem kann man ja in 1709 sein Android/iOS Device mit seinem M$-Konto verknüpfen. Ein Doom sollte sich so z.B. relativ einfach als UWP-App einpflegen lassen.
deekey777
2017-10-24, 10:42:35
Definitiv kein DX12 auf PC. Warum auch? Waere nur langsamer.
https://www.heise.de/newsticker/meldung/Wolfenstein-2-Hohe-Systemvoraussetzungen-ungeschnittene-Version-in-Deutschland-nicht-aktivierbar-3868826.html
Wolfenstein II setzt auf die 3D-Engine id Tech 6 und nutzt dabei die Low-Level-3D-Schnittstelle Vulkan.
Auch eine stehende Uhr zeigt zweimal am Tag die richtige Zeit. ;D
Ja, ich bin ein Arsch.
Kartenlehrling
2017-11-07, 21:33:41
In the Spring Creator’s Update, we offer developers more control of MSAA, by making it a lot more programmable.
At each frame, developers can specify how MSAA works on a sub-pixel level.
By alternating MSAA on each frame, the effects of temporal aliasing become significantly less noticeable.
Programmable MSAA means that developers have a useful tool in their belt.
Our API not only has native spatial anti-aliasing but now also has a feature that makes temporal anti-aliasing a lot easier.
With DirectX 12 on Windows 10, PC gamers can expect upcoming games to look better than before.
https://blogs.msdn.microsoft.com/directx/2017/11/07/announcing-new-directx-12-features/
Ankündigung neuer DirectX 12-Funktionen
aufkrawall
2017-11-07, 21:37:36
Cool, MSAA. Givin a shit.
gravitationsfeld
2017-11-08, 00:34:01
Das kann ATI/AMD seit der Radeon 9700 Pro. Geile DX12-Tech.
deekey777
2017-11-08, 13:33:13
Ist MSAA nicht schon längst klinisch tot?
dargo
2017-11-08, 14:31:40
Bei Forward(+) garantiert nicht.
aufkrawall
2017-11-08, 14:36:15
MSAA ist abseits von VR oder Leuten mit komischer Allergie gegen Motion Blur komplett sinnlos in der Praxis. Völlig egal, ob F+. Niemand bei Verstand nutzt das, wenn es auch vernünftiges TAA gibt.
Irgendwelche Deppen-Entwickler denken es dann eh nicht zu Ende und die Vegetation in Forza flimmert dann trotz eingestelltem 8xMSAA wie Abfall.
dargo
2017-11-08, 14:52:07
Du übertreibst wie immer maßlos.
aufkrawall
2017-11-08, 15:07:16
Nicht im Geringsten. Die Vegetation in Forza flimmert, die in Wolfenstein nicht. Dabei kostet das schlechtere AA mehr Leistung als das bessere. Steinzeit-Technik, die endlich weg muss.
Kartenlehrling
2017-11-08, 15:41:37
Prototype 1
http://i.imgur.com/kB5jsaF.gif
In einer PDF wurde von zwei Prototyp geschrieben die auf AMD Graphics Core Next aufbauen und
wenn sie nicht als Standalone-Lösung genommen werden immer noch gut sind als Ergänzung für
Multi-Sample-Anti-Aliasing.
http://www.diva-portal.org/smash/get/diva2:843104/FULLTEXT02
A TEMPORAL STABLE DISTANCE TO EDGE ANTI-ALIASING TECHNIQUE FOR GCN ARCHITECTURE
gravitationsfeld
2017-11-08, 15:50:26
Nicht im Geringsten. Die Vegetation in Forza flimmert, die in Wolfenstein nicht. Dabei kostet das schlechtere AA mehr Leistung als das bessere. Steinzeit-Technik, die endlich weg muss.
Man kann MSAA mit TAA kombinieren. Es ist durchaus sinnvoll mehr als ein Occlusion-Sample pro Pixel zu bekommen. Es ist nur im Moment aus diversen Gründen schwer zu benutzen.
Das ist aber nichts was man nicht mit ein bisschen Hardware-Aufwand wieder in den Griff bekommen könnte.
aufkrawall
2017-11-08, 16:25:23
Man kann MSAA mit TAA kombinieren. Es ist durchaus sinnvoll mehr als ein Occlusion-Sample pro Pixel zu bekommen. Es ist nur im Moment aus diversen Gründen schwer zu benutzen.
Problem ist halt, dass die Entwickler von F+-Spielen in der Praxis bisher gar kein TAA anbieten. Wobei das mittlerweile wohl auch nur noch die Forza-Spiele sind.
gravitationsfeld
2017-11-08, 17:26:48
Der Uebergang zwischen Forward und Deferred ist fliessend. Die meisten Engines die Forward sind machen zumindest noch einen Teil deferred.
deekey777
2017-11-08, 17:58:35
Der Uebergang zwischen Forward und Deferred ist fliessend. Die meisten Engines die Forward sind machen zumindest noch einen Teil deferred.
Wie ist das in Wolfenstein II?
gravitationsfeld
2017-11-09, 02:38:47
Fliessend :)
DinosaurusRex
2017-11-09, 09:04:16
Nicht im Geringsten. Die Vegetation in Forza flimmert, die in Wolfenstein nicht. Dabei kostet das schlechtere AA mehr Leistung als das bessere. Steinzeit-Technik, die endlich weg muss.
The Order 1886 ist Forward+ und das sieht in puncto Bildqualität hammermäßig aus. Da flimmert überhaupt gar nix, egal ob statisch oder in Bewegung und auch ganz gleich wohin du guckst. Und die haben richtig tolle Materials, das Shading deklassiert 99% aller anderen Spiele dieser Gen. Die kombinieren 4xMSAA mit TAA.
RAD hat gesagt, dass die Kosten von MSAA in einem F+ Renderer überschätzt werden. Es kostet nur Bandbreite und die könne man auf einer Konsole dank low-level Optimierung relativ gut zusammensparen. TAA kostet Rechenleistung und am Ende des Tages kommt es wohl auch immer darauf an, wovon der Entwickler mehr zur Verfügung hat.
][immy
2017-11-09, 10:29:14
The Order 1886 ist Forward+ und das sieht in puncto Bildqualität hammermäßig aus. Da flimmert überhaupt gar nix, egal ob statisch oder in Bewegung und auch ganz gleich wohin du guckst. Und die haben richtig tolle Materials, das Shading deklassiert 99% aller anderen Spiele dieser Gen. Die kombinieren 4xMSAA mit TAA.
RAD hat gesagt, dass die Kosten von MSAA in einem F+ Renderer überschätzt werden. Es kostet nur Bandbreite und die könne man auf einer Konsole dank low-level Optimierung relativ gut zusammensparen. TAA kostet Rechenleistung und am Ende des Tages kommt es wohl auch immer darauf an, wovon der Entwickler mehr zur Verfügung hat.
Und die Schwarzen Balken nicht vergessen, welche das zu berechnende Bild fast halbieren wodurch die Rechenlast und die benötigte Bandbreite ziemlich stark gesenkt wird.
DinosaurusRex
2017-11-09, 10:34:38
Das tut doch an dieser Stelle überhaupt nichts zur Sache. Und eine PS4 Pro Version wäre sicher ohne schwarze Balken ausgekommen.
Der Entwickler hat ja selber gesagt, dass sie technisch aus Zeitgründen nicht das umsetzen konnten, was sie ursprünglich geplant hatten. Da ging es um irgendwas mit Schatten, die rein auf der CPU der PS4 liefen, die sie eigentlich mit der GPU berechnen wollten und sowas alles.
The Order 1886 ist für mich visuell eines der beeindruckendsten Spiele überhaupt, Balken hin oder her.
][immy
2017-11-09, 11:00:30
Das tut doch an dieser Stelle überhaupt nichts zur Sache. Und eine PS4 Pro Version wäre sicher ohne schwarze Balken ausgekommen.
Der Entwickler hat ja selber gesagt, dass sie technisch aus Zeitgründen nicht das umsetzen konnten, was sie ursprünglich geplant hatten. Da ging es um irgendwas mit Schatten, die rein auf der CPU der PS4 liefen, die sie eigentlich mit der GPU berechnen wollten und sowas alles.
The Order 1886 ist für mich visuell eines der beeindruckendsten Spiele überhaupt, Balken hin oder her.
Was ich damit meinte war, es konnte nur deshalb so beeindruckend werden, weil man durch die Balken unheimlich an Rechenleistung/Bandbreite gespart hat, die man dann wiederum anders investieren konnte.
Ryse hat das quasi auch durch die 900p damals gemacht. hätte man das so wie The Order gemacht, hätte man noch mehr Rechenleistung und Bandbreite übrig gehabt die man wieder in die Grafik hätte stecken können.
Ist aber alles eigentlich kein Hexenwerk, sondern nur gute Arbeit der Artists. Wobei beide Spiele doch ziemlich steril wirken. Da rächt sich halt das auch aktuelle Technologien nicht gegen ein gutes Artdesign anstinken können. Z.B. Uncharted wirkt einfach lebendiger und dadurch zumindest in meinen Augen deutlich schicker. Allerdings gingen in die Uncharted Reihe wohl auch deutlich mehr Entwicklungsressourcen rein, als in die anderen beiden Spiele.
MSAA an sich ist aber schon ziemlich tot und kostet nicht nur Bandbreite. Die heutigen "Blur"-Filter (TAA zähle ich auch mal dazu) sind inzwischen recht gut und verbrauchen nicht ansatzweise so viel Rechenleistung. Dabei gilt aber, je höher die Grundauflösung desto besser ist das Ergebnis am Ende. Zudem vermindern diese Techniken auch noch gleichzeitig Flimmernde Bilder und beruhigen alles, ohne dabei unnötig an Schärfe zu verlieren.
Mir fällt aktuell eigentlich kein Spiel mehr ein wo man in nächster nähe noch irgendwelche Pixel-Treppchen entdeckt, außer vielleicht auf z.B. Stromleitungen in der Ferne. Inzwischen ist eigentlich jedes Spiel ziemlich glatt gebügelt.
DinosaurusRex
2017-11-09, 11:07:58
[immy;11546355']
MSAA an sich ist aber schon ziemlich tot und kostet nicht nur Bandbreite.
In F+ kostet das nach meinen Informationen sehr wohl nur Bandbreite.
The Order 1886 ist für mich nach wie vor Referenz wenn es um die Darstellung von Glas in Videospielen geht:
http://abload.de/img/theorder_1886_2015021fhuvd.jpg
Und das Feuer sieht auch ziemlich gut aus:
http://abload.de/img/theorder_1886_20150213eupb.jpg
Ich finde die Artists brauchen sich nicht verstecken.
Kartenlehrling
2017-11-09, 11:21:19
Bilder kann fast jedes Antialiasing gut darstellen,
gerade bewegte Bilder im 30-45fps Bereich zeigen die Probleme.
Achill
2017-11-09, 11:56:13
Bilder kann fast jedes Antialiasing gut darstellen,
gerade bewegte Bilder im 30-45fps Bereich zeigen die Probleme.
Als für ein Feb. 2015 Spiel sieht das sehr gut aus, sehe da kein Flimmern, nicht im Ansatz... aber ist schon gut OT.
EOHTJiRQB9o
gravitationsfeld
2017-11-09, 16:44:27
The New Order hat auch kein Alpha-Test-Zeug, deshalb flimmert da nichts mit MSAA.
aufkrawall
2017-11-09, 17:24:52
Da ist auch offenbar zusätzlich TAA am Werk, MSAA allein bringt halt bei einem Content wie in Doom oder Wolfenstein auch nur wenig mit zig Aliasing innerhalb von Polygonen.
gravitationsfeld
2017-11-09, 18:57:15
Order 1886 ist soweit ich weiss 4x MSAA
Edit: Okay, es ist 4xCSAA/EQAA (4 coverage samples, 2 color samples), custom resolve mit gaussian kernel und wohl doch auch temporal. Kein wunder flickert da nichts.
Uebrigens schliesst Forward TAA natuerlich nicht aus.
Kartenlehrling
2017-11-09, 21:03:21
Welche Spiele benutzten eigentlich dieses Hybrid Reconstruction AntiAliasing (HRAA) das vor 3 Jahren präsentiert wurde, benutzt HorizonZeroDawn es vielleicht?
Abstract: This talk will present a novel method for runtime image reconstruction for up sampling and anti-aliasing purposes.
We propose to utilize modern GPU hardware for Coverage estimation used in advanced MSAA modes such as EQAA (AMD GCN architecture).
Several existing platforms offer a way to manually program multiple aspects of EQAA rasterization pipeline.
GPU can be setup to output coverage information at higher resolution than original rasterized depth buffer data.
This data can be accessed manually to reconstruct higher resolution image with anti-aliasing.
Talk will cover coverage mask construction by rasterizer and different setups ranging in quality and performance.
Several algorithms using coverage information for edge reconstruction will be presented with performance and image quality comparisons.
Technique can provide temporarily stable, MSAA quality up-sampling/antialiasing for non-sub pixel triangles with negligible additional bandwidth and performance cost.
Moreover MSAA depth only samples can be used to enhance sub-pixel reconstruction.
Algorithm can be also extended further by inclusion of temporal super sampling.
Finally a complementary technique to handle alpha tested geometry will be presented.
Algorithm is split in geometry phase, which only requires Coverage Rasterization support from GPU,
and post processing resolve pass, making it an affordable and easy solution for real time rendering.
http://advances.realtimerendering.com/s2014/
HYBRID RECONSTRUCTION ANTI-ALIASING
Kartenlehrling
2017-11-23, 00:16:13
Save 75% on VRMark Advanced Edition für 5€ (20€)
https://pbs.twimg.com/media/DPRMhCBVQAAzEEI.jpg
https://gaming.radeon.com/en/cyan-room/
http://store.steampowered.com/app/464170/VRMark/
22. NOVEMBER Cyan Room DirectX 12 VR benchmark
vinacis_vivids
2017-12-08, 01:04:47
9E8fm44iGf0
GT1030 ~ 1,127 GFLOPS
RX550 ~ 1,211GFLOPS
@97%fps ist AMD 60% vorne mit DX12.
gravitationsfeld
2017-12-08, 01:12:07
Er kehrt natuerlich unter den Teppich, dass die RX 550 mehr als die doppelte Speicherbandbreite hat.
vinacis_vivids
2017-12-08, 01:16:05
Im Bestcase bzw. "worst case" für Nvidia dann auch 100% schneller. AMD@magic, allerfeinste Optimierung.
4UdSSBl0gvs
dildo4u
2017-12-13, 01:57:04
Volta scheint Async Compute zu brauchen um den Chip auszulasten.
http://abload.de/img/nvidia-titan-v-sniper5qqlk.png
https://www.gamersnexus.net/guides/3170-titan-v-gaming-benchmarks-async-future-is-bright-for-volta/page-2
aufkrawall
2018-01-11, 17:01:44
Hab ja momentan eine RX 560 drin, die LL-Erfahrung ist ziemlich ernüchternd und keinen Deut besser als bei Pascal.
-Hitman: viel schlechtere Frametimes als bei Nvidia, teilweise kein AF weil immer noch nicht erzwingbar
-RotTR: gibt zumindest teilweise die gleichen Graikfehler wie bei Nvidia, läuft im GPU-Limit auch nicht schneller als DX11
-Wolfenstein 2: Async Compute kostet wie mit Pascal Leistung, die Frametimes sind 0 besser als mit Nvidia (natürlich mit reduzierten Details gegenüber der 1070)
-Doom: AC scheint nicht zu funktionieren, aber wenigstens läuft das ansonsten mit Upscaling fluffig
-Serious Sam Fusion DX12 läuft wie Nvidia langsamer als 11, zeigt aber noch schlechtere Frametimes
(die Vulkan-Spiele hab ich jetzt einfach mal mit aufgezählt)
*seufz*
Zum Glück laufen Hitman, RotTR und SS3: Fusion aber mit DX11 ohne Frametime-Probleme und mit guter CPU-Performance auf dem 6700k + Win 10 CU2. Auf DX12 angewiesen ist man bei den Titeln somit nicht, die DX11-Erfahrung war damals mit 2500k OC + R9 390 schlechter.
Kartenlehrling
2018-01-14, 17:40:00
https://developer.nvidia.com/nvidia-collaborates-microsoft-bring-dx12-development-and-debugging-next-level
NVIDIA arbeitet mit Microsoft zusammen, um die DX12-Entwicklung und
die Fehlerbeseitigung auf die nächste Stufe zu bringen
Rancor
2018-01-30, 13:50:13
Hab ja momentan eine RX 560 drin, die LL-Erfahrung ist ziemlich ernüchternd und keinen Deut besser als bei Pascal.
-Hitman: viel schlechtere Frametimes als bei Nvidia, teilweise kein AF weil immer noch nicht erzwingbar
-RotTR: gibt zumindest teilweise die gleichen Graikfehler wie bei Nvidia, läuft im GPU-Limit auch nicht schneller als DX11
-Wolfenstein 2: Async Compute kostet wie mit Pascal Leistung, die Frametimes sind 0 besser als mit Nvidia (natürlich mit reduzierten Details gegenüber der 1070)
-Doom: AC scheint nicht zu funktionieren, aber wenigstens läuft das ansonsten mit Upscaling fluffig
-Serious Sam Fusion DX12 läuft wie Nvidia langsamer als 11, zeigt aber noch schlechtere Frametimes
(die Vulkan-Spiele hab ich jetzt einfach mal mit aufgezählt)
*seufz*
Zum Glück laufen Hitman, RotTR und SS3: Fusion aber mit DX11 ohne Frametime-Probleme und mit guter CPU-Performance auf dem 6700k + Win 10 CU2. Auf DX12 angewiesen ist man bei den Titeln somit nicht, die DX11-Erfahrung war damals mit 2500k OC + R9 390 schlechter.
LOL. Da wird dir dargo aber was ganz anderes erzählen, weil Low Level läuft auf AMD doch so unfassbar gut und nur NV hat Probleme damit ^^ Jetzt ist nur noch die Frage wer hier Mist erzählt ;)
BTW:
World of Warcraft bekommt mit Battle for Azeroth DX 12 Support ;D
dargo
2018-01-30, 14:23:38
Ein i7-6700K @4,2Ghz + eine RX560 ist natürlich das System für low level. Manchmal denke ich mir lass es Hirn regnen. :facepalm:
aufkrawall
2018-01-30, 14:26:05
Dann spann mal die Auffangnetze für dich selbst auf, oder warum sollte es mit der 560 mit DX12 schlechter laufen?
Screemer
2018-01-30, 14:27:43
weil das missverhänltniss von front zu backend bei polaris 11/21 nicht so zum tragen kommt wie bei p10/20, fiji und vega?! kann ich mir zumindest vorstellen.
aufkrawall
2018-01-30, 14:30:59
Die 560 geht völlig unter gegen eine 1050 Ti bei gleichem Verbrauch. Für die Karte sollten LL-Vorteile genau so zum Tragen kommen wie für andere GCNs. Das Problem sind ohnehin eher die Frametimes oder sonstige Qualitätsmängel der DX12-Renderer.
Rancor
2018-01-30, 15:12:43
Achso, jetzt ist LL also nur noch bei den High End Karten sinnvoll. Es wird immer lustiger :)
Ich mach mir die Welt, widde wie sie mir gefällt.....
N0Thing
2018-01-30, 15:22:32
Es ist zumindest nicht zu bestreiten, dass die angekündigten Vorteile der LL-APIs vor allem in der Entlastung der CPU liegen. Ein System mit starker CPU und lahmer GPU wird also nur in Einzelfällen von DX12 profitieren, wenn überhaupt.
Das mag nochmal anders ausfallen, wenn es mal Spiele wie Wolfenstein II: The New Colossus gibt, die komplett auf LL-APIs setzen und nicht nur einen DX12-Renderer oben drauf bekommen haben.
Wenn ich mich recht erinnere, dann lief RotTR bei mir mit DX12 in einigen Abschnitten deutlich flotter als mit DX11. Da war es dann aber auch eine ältere CPU mit einer flotteren GPU.
LL bringt nur dann mehr auf der GPU, wenn async compute benutzt werden kann. Und das bringt sehr wohl auf Radeons was, da bestimmte Features (vor allem PP-Features) damit quasi umsonst sind, was bei DX11 eben nicht der Fall ist. Wenn man einfach alles auf "hoch" knallt profitiert man davon natürlich kaum, man muss die Features schon einigermaßen sinnvoll anpassen.
Wenn ich beispielsweise auf meiner 480 DE:MD anpasse, kann ich in DX12 einige Dinge deutlich höher einstellen, ohne in Ruckeleien zu geraten, als das bei DX11 der Fall ist. Ich hab schon ACO verflucht, weil das nur DX11 ist und man da Potenzial verschenkt deshalb mMn. Wenn man beispielsweise MSAA nutzt, bringt DX12 einfach gar nix, weil das ganze Spiel damit scheisse langsam wird.
Rancor
2018-01-30, 15:53:37
Es ist zumindest nicht zu bestreiten, dass die angekündigten Vorteile der LL-APIs vor allem in der Entlastung der CPU liegen. Ein System mit starker CPU und lahmer GPU wird also nur in Einzelfällen von DX12 profitieren, wenn überhaupt.
Das mag nochmal anders ausfallen, wenn es mal Spiele wie Wolfenstein II: The New Colossus gibt, die komplett auf LL-APIs setzen und nicht nur einen DX12-Renderer oben drauf bekommen haben.
Wenn ich mich recht erinnere, dann lief RotTR bei mir mit DX12 in einigen Abschnitten deutlich flotter als mit DX11. Da war es dann aber auch eine ältere CPU mit einer flotteren GPU.
Im Gegenteil. Die Entlastung der CPUs haben wir doch noch kaum gesehen, außer in Wolfenstein. Dort hat man dann eben 400 FPS in 720p. Das funktioniert aber auch unter NV.
LL wird auf AMD Hardware aber primär dafür genutzt, die Rohpower der GPUs auch auf die Straße zu bekommen. AC und Co lassen da grüßen.
dargo
2018-01-30, 15:55:52
Im Gegenteil. Die Entlastung der CPUs haben wir doch noch kaum gesehen, außer in Wolfenstein.
Laber nicht.
dildo4u
2018-01-30, 16:00:48
Tomb Raider ist immer noch das beste Beispiel,da die Hubwelten relativ groß sind.Kann sein das es mit nem 5Ghz Intel weniger eine Rolle Spielt.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11460035&postcount=255
dargo
2018-01-30, 16:13:05
@dildo
Troyan hatte auch schon viel früher mit seiner Geforce Vorteile im CPU-Limit gemessen. Ich meine es waren bei seinem i7 Ivy Bridge +33%. Seine Ergebnisse müssten in diesem Thread auch zu finden sein. Rancor lebt da in seiner eigenen Welt. Mir ist das mittlerweile zu blöd dafür überhaupt noch Zeit zu verschwenden.
robbitop
2018-01-30, 16:15:41
Prinzipiell bringt es für eine kleinere Ausbaustufe IMO weniger.
1. schneller im GPU Limit (bessere CPU Effizienz fällt weniger auf)
2. bessere Grundauslastung von GCN mit weniger CUs - GCN hat ein Skalierungsproblem (was man IMO mit Navi angehen wird)
Nichts destotrotz bringen Shaderintrinsics und AC auch bei kleineren GCNs sicherlich Vorteile
Rancor
2018-01-30, 16:29:03
Ja Sie können eben Vorteile bringen.
Aber laut aufkrawall läuft LL eben auf der RX 560 genauso bescheiden wie auf NV.
Die AMD Propagandamaschinerie hier im Forum sieht das natürlich nicht gerne und deshalb werden wieder Nebelkerzen noch und nöcher geworfen.
Die Leben eben in ihrer eigenen kleinen LL AMD Welt. Im Prinzip könnte es mir ja egal sein, aber in jedem Thread zu irgendeinem Spiel oder Grafikkarte wird die LL Sau wieder durchs Dorf getrieben. Immer und immer wieder. Es nervt eben.
Und wenn das Ergebnis nicht wie erhofft ist, wird dann irgendeine Ausrede gesucht. Es ist mehr als lächerlich mittlerweile. Bei Farcry 5 gehts dann wieder von vorne los :rolleyes:
robbitop
2018-01-31, 09:07:32
LL bedeutet ja nicht automatisch, dass es besser läuft. Es legt eher mehr Verantwortung in die Hände des Entwicklers. Laut gravitationsfeld tun sich gerade hier die meisten schwer. Richtig optimiert (ausnutzen der 64er waverfronts, shaderintrinsics, richtiges Ausnutzen der ALUs über gut gemachtes AC [gerade das scheint sehr stark von der Implementierung abhängig zu sein und kein reiner Automatismus]) bringt es schon was (siehe Doom und Wolfenstein 2). Aber klar - ein Automatismus ist es nicht.
Kriton
2018-01-31, 09:57:28
Ich hätte es auch eher so verstanden, dass man den entsprechenden Teil der Egine am besten (praktisch) neu schreiben muss, während die meisten (nur) Anpassungen vornehmen und dann das DX12-Logo "draufklatschen".
Insoweit würde ich das auch eher nicht als ein Indiz dafür nehmen, dass LL zu wenig bringt, sondern, dass der Einsatz schlicht (noch) nicht hinreichend ist.
N0Thing
2018-01-31, 14:48:31
Ich hätte es auch eher so verstanden, dass man den entsprechenden Teil der Egine am besten (praktisch) neu schreiben muss, während die meisten (nur) Anpassungen vornehmen und dann das DX12-Logo "draufklatschen".
Insoweit würde ich das auch eher nicht als ein Indiz dafür nehmen, dass LL zu wenig bringt, sondern, dass der Einsatz schlicht (noch) nicht hinreichend ist.
So sehe ich das auch. Abgesehen von Wolfenstein II: The New Colossus, gibt es doch bisher noch gar kein LL-API-only Spiel, bei dem man weiß, dass die Engine darauf auch ausgerichtet ist. Und wenn das die Zukunft ist, dann sieht es sowohl für AMD-, als auch Nvidia-Nutzer nicht schlecht aus.
Locuza
2018-03-04, 11:04:20
Come see Microsoft, @repi [Johan Andersson] and I talk "DirectX: Evolving Microsoft's Graphics Platform" at #GDC2018, and learn how DirectX will evolve to deliver the next generation of graphics innovation, as well as some of the work we've been up to at @SEED http://ubm.io/2CU3w6r
https://twitter.com/ZigguratVertigo/status/969689680399753222
The future is now (again), old men.
Ja Sie können eben Vorteile bringen.
Aber laut aufkrawall läuft LL eben auf der RX 560 genauso bescheiden wie auf NV.
Die AMD Propagandamaschinerie hier im Forum sieht das natürlich nicht gerne und deshalb werden wieder Nebelkerzen noch und nöcher geworfen.
Die Leben eben in ihrer eigenen kleinen LL AMD Welt. Im Prinzip könnte es mir ja egal sein, aber in jedem Thread zu irgendeinem Spiel oder Grafikkarte wird die LL Sau wieder durchs Dorf getrieben. Immer und immer wieder. Es nervt eben.
Und wenn das Ergebnis nicht wie erhofft ist, wird dann irgendeine Ausrede gesucht. Es ist mehr als lächerlich mittlerweile. Bei Farcry 5 gehts dann wieder von vorne los :rolleyes:
Der hat einfach nicht verstanden, dass das völlig logisch ist. Die kleinen Chips haben im Verhältnis ne bessere Auslastung als große, ergo spielt die Auslastung da auch keine Rolle. Kein Wunder also, dass es nichts bringt.
LL bei GCN bedeutet ja nahezu ausschließlich bessere Auslastung der CUs. P11 hat, wie Pitcairn damals, das gleiche Frontend wie die Nummer größer.
aufkrawall
2018-03-04, 11:46:16
Dann gibts LL auf den Konsolen wohl nur zum Spaß, weise bitte Sony auf ihren Irrtum hin...
Edit: Und wenn jetzt einer nur mit Overhead kommen will: Einfach mal an das AC-Featureset der PS4 denken.
Achill
2018-03-04, 12:38:21
Die CPU bei Konsolen ist aber Leistungsmäßig schon deutlich schwächer als eine relativ aktuelle +4C/+8T CPU von AMD oder Intel. Es bedarf also hier wieder LL und besonders auch guter Ausnutzung von Multi-Threading bei den Konsolen. Immerhin sind es zwar 8 echte Cores aber nur mit ~2.1Ghz und einer relativ alten Jaguar Arch.
pixeljetstream
2018-03-04, 12:44:46
imo ist dieses hin und her um LL in diesem Forum ziemlich sinnfrei, da die meisten die damit argumentieren, überhaupt keine Erfahrung haben. Async Compute kann man genauso gut als high-level feature in einer API verpacken.
LL für Konsolen heißt doch nur, dass man sich eben auf genau die HW Kombi einschießen kann. Man kann alles von shader instruktionen, state, Ressourcen... Management genau so machen wie es diese eine HW Konfiguration am liebsten mag und dabei Features nutzen die nicht portabel sind (Sony und MS haben ja jeweils ihren eigenen Senf dazugegeben). Das ist niemals für PC übertragbar mit all den verschiedenen Konfigurationen und Generationen innerhalb der Hersteller. Weswegen DX12 und Vulkan immer noch abstraktere APIs sind, wo Dinge drin sind dir für den ein oder anderen Hersteller eben keinen Sinn machen und der Treiber es nachwievor in was anderes runterbrechen muss. Bei ner Konsolen API würde man versuchen das nicht so zu machen, sondern eine Abstraktion wählen die näher an der HW ist, und damit wie die vorherigen Antworten sagen, weniger Overhead erzeugt.
Imo war das Problem bei DX12 und Vulkan, dass der "explicitness" Sprung zu groß war. Apple war bei Metal deutlich konservativer und hat quasi den normalen API Evolutionsschritt gemacht, was Entwickler freundlicher ist (und afaik sind zwei ex-AMDler die Mantle designten auch maßgeblich an Metal beteiligt gewesen). Aber die grundsätzliche Richtung in die sich die APIs entwickelten ist gut. Mit mehr Zeit und etwas mehr "hands on" hätte man es vielleicht besser machen können vom design, aber das ist ja immer so und nichts steht still ;)
dildo4u
2018-03-04, 15:58:20
Imo erstaunlich wie viel mit DX11 noch geht,selbst der billigste Ryzen 3 hängt hier um 60fps.CPU Power ist so billig geworden,das DX12 vermutlich nur für die 500€ + AMD Karten eine wichtige Rolle für maximale Auslastung spielt.
https://youtu.be/LBz34bRC-XQ?t=2m7s
gravitationsfeld
2018-03-04, 16:12:58
Was ist da jetzt zu sehen wo es komisch wäre, dass es auf einer 3Ghz CPU mit 8 threads mit 60 FPS läuft?
vinacis_vivids
2018-03-05, 01:39:06
Das Problem ist nicht avg. fps sondern die heftigen dips dieser eher schwachen Engine bei CPU-Lastigen Szenen. LL-API mildert solche Szenarien ohne unbedingt die Balkenlänge signifikant zu erhöhen.
N0Thing
2018-03-19, 18:21:22
https://twitter.com/ZigguratVertigo/status/969689680399753222
The future is now (again), old men.
Klingt ganz interessant, was mit DXR in Zukunft möglich sein könnte.
https://www.golem.de/news/raytracing-directx-geht-ein-lichtstrahl-auf-1803-133385.html
gravitationsfeld
2018-03-19, 18:26:25
https://blogs.msdn.microsoft.com/directx/2018/03/19/announcing-microsoft-directx-raytracing/
DirectX Raytracing basiert vollstaendig auf DX12, kein Backport auf aeltere APIs.
Kartenlehrling
2018-03-19, 18:38:50
Microsoft arbeitet nach eigenen Angaben seit über einem Jahr an der Implementierung von Raytracing in DirectX 12,
und zwar zusammen mit Nvidia - was etwas überraschend ist, weil sonst eigentlich der Xbox-Zulieferer AMD für derlei Projekte zuständig sein sollte.
Wie kommt der Steinlechner auf diese Aussage, Microsoft und Nvidia waren schon immer Partner in der DX Entwicklung,
die haben ja auch als AMD mit Mantle gekommen ist, behaupte das Sie schon 4 Jahre an DX12 zusammen gearbeite haben?!! :confused:
Jupiter
2018-03-19, 18:49:14
Genial. Endlich ein halbwegs korrektes Bild. Eine Frage die ich mir stelle ob das im großen Maßstab und bei viel Dynamik noch funktioniert.
We believe that DirectX Raytracing will bring raytracing within reach of real-time use cases, since it comes with dedicated hardware acceleration and can be integrated seamlessly with existing DirectX 12 content.
https://blogs.msdn.microsoft.com/directx/2018/03/19/announcing-microsoft-directx-raytracing/
Schade, hatte auf mehr gehofft. Ist doch jetzt nichts Neues verkuendet worden, ausser das daraus schliessen laesst, dass demnaechst Hardware mit HW RT-Beschleunigung auf den Markt kommt, oder? ImgTec hat Aehnliches ja schon mit einer moeglichen Vulkan-Extension gezeigt. Und selbst bei der HW-Unterstuetzung koennte es sich "nur" um den DL-denoiser von Nvidia handeln z.B. so: RT wird angefragt, NV braucht weniger samples fuer selbes Ergebnis da trainierter denoiser auf tensor cores laeuft.
Naja, bin trotzdem mal gespannt, wie stark es zukuenftig genutzt wird.
dildo4u
2018-03-19, 19:03:57
LXo0WdlELJk
70W2aFr5-Xk
Radeonfreak
2018-03-19, 19:07:20
Nice.
deekey777
2018-03-19, 19:13:54
https://blogs.msdn.microsoft.com/directx/2018/03/19/announcing-microsoft-directx-raytracing/
DirectX Raytracing basiert vollstaendig auf DX12, kein Backport auf aeltere APIs.
Aber warum? Und warum jetzt?
dildo4u
2018-03-19, 19:21:52
Damit Sony und MS anfangen können Games für die 2020 Konsolen zu entwickeln.
Damit bekommt man ne anderen Optik hin als das was wir jetzt die letzten 2 Generationen hatten.
Troyan
2018-03-19, 19:22:47
Aber warum? Und warum jetzt?
DX12 pushen.
LadyWhirlwind
2018-03-19, 19:33:07
Wie kommt der Steinlechner auf diese Aussage, Microsoft und Nvidia waren schon immer Partner in der DX Entwicklung,
die haben ja auch als AMD mit Mantle gekommen ist, behaupte das Sie schon 4 Jahre an DX12 zusammen gearbeite haben?!! :confused:
Partner ist wohl häufig der Hersteller, der die Technik in der DirectX Spezifikation sehen will und entsprechend MS unterstützt.
Demirug
2018-03-19, 20:26:03
Genial. Endlich ein halbwegs korrektes Bild. Eine Frage die ich mir stelle ob das im großen Maßstab und bei viel Dynamik noch funktioniert.
Nicht viel besser als bisher auch. Ich habe mir die Spezifikation und den Beispielcode angeschaut. Die API funktioniert genauso wie bisherige versuche auch.
Zuerst muss man eine entsprechenden Beschleunigerstruktur erzeugen und dann die Rays darauf loslassen. Da für einzelne Objekte nur eine Postionsmatrix unterstützt wird gibt es wie üblich kein Skinning/Bone based Animations. Das verändern der Position erfordert auch das die Beschleunigerstruktur aktualisiert wird. Die Dokumentation enthält hier auch die ausdrückliche Warnung das je mehr Objekte der ursprünglichen einmal erzeugten Struktur man ändert desto schlechter wird die Performances da die Beschleunigerstruktur für die geänderten Objekte nicht mehr optimal ist. Zudem nimmt die Performances auch mit der Größe der Spielwelt in der Beschleunigerstruktur ab.
Ein weiteres Problem ist das die ganzen Ray Shader zu einem Übershader kombiniert werden müssen. Das mögen GPUs in der Regel nicht so sehr.
In Summe also alles beim alten. Solange die Spielwelt schön statisch ist kann man Raytraceing haben je mehr Dynamic man braucht desto mehr bricht das ganze zusammen.
gravitationsfeld
2018-03-19, 20:27:19
Aber warum? Und warum jetzt?
Die API verwendet listen von root constants die von der Hardware indiziert werden je nachdem welches Objekt mit welchem Shader getroffen wird.
Stateful APIs funktionieren so nicht, es waere unmoeglich das mit DX11 zu machen.
DX12 pushen.
Du bist so vorhersehbar.
Ein weiteres Problem ist das die ganzen Ray Shader zu einem Übershader kombiniert werden müssen. Das mögen GPUs in der Regel nicht so sehr.
Muessen sie nicht.
Demirug
2018-03-19, 20:32:00
Muessen sie nicht.
Die Funktionale Spezifikation führt das explizit als Problem auf. Also hat sich mindestens ein IHV beschwert. ;)
Kartenlehrling
2018-03-19, 20:43:28
sehe erst jetzt das das "Experiments with DirectX Raytracing in Northlight" Video von Remedy Entertainment ist.
Diese Technologie bleibt auf Forschungsebene und wird daher noch lange nicht in ein Videospiel eingebaut,
aber es ist ein faszinierender Blick auf die Zukunft.
https://www.remedygames.com/experiments-with-directx-raytracing-in-remedys-northlight-engine/
gravitationsfeld
2018-03-19, 20:48:47
Die Funktionale Spezifikation führt das explizit als Problem auf. Also hat sich mindestens ein IHV beschwert. ;)
Was meinst du mit "alles muss ein Ubershader sein"? Es gibt eine Pipeline fuer den ganzen Ray-Dispatch, aber es ist nicht korrekt, dass jeder Hit den gleichen Shader benutzen muss.
Jupiter
2018-03-19, 20:49:17
Nicht viel besser als bisher auch. Ich habe mir die Spezifikation und den Beispielcode angeschaut. Die API funktioniert genauso wie bisherige versuche auch.
Zuerst muss man eine entsprechenden Beschleunigerstruktur erzeugen und dann die Rays darauf loslassen. Da für einzelne Objekte nur eine Postionsmatrix unterstützt wird gibt es wie üblich kein Skinning/Bone based Animations. Das verändern der Position erfordert auch das die Beschleunigerstruktur aktualisiert wird. Die Dokumentation enthält hier auch die ausdrückliche Warnung das je mehr Objekte der ursprünglichen einmal erzeugten Struktur man ändert desto schlechter wird die Performances da die Beschleunigerstruktur für die geänderten Objekte nicht mehr optimal ist. Zudem nimmt die Performances auch mit der Größe der Spielwelt in der Beschleunigerstruktur ab.
Ein weiteres Problem ist das die ganzen Ray Shader zu einem Übershader kombiniert werden müssen. Das mögen GPUs in der Regel nicht so sehr.
In Summe also alles beim alten. Solange die Spielwelt schön statisch ist kann man Raytraceing haben je mehr Dynamic man braucht desto mehr bricht das ganze zusammen.
Ich danke dir vielmals das ist für mich ein wertvoller Beitrag. Die ersten Videospiele die es nutzen werden in der Größe vermutlich nicht ambitioniert sein und die Technologie sollte dann im laufe der Jahre auch bei großen Spielen ankommen. Wenn allerdings zu viele bewegliche Objekte bei sehr großen Maßstäben enthalten sind wird es evt. auf absehbare Zeit nicht gehen.
Dieses Spiel nutzt meins Wissens auch Raytracing-Elemente und hat Deformation: https://www.youtube.com/watch?v=COwZEThJ4gQ
Voxel GI ist bisher auch nur begrenzt einsetzbar.
Troyan
2018-03-19, 20:54:07
Die ersten Spiele werden DXR für einzelne Bildbestandteile benutzen. Gameworks wird Schatten, Reflexionen und AO unterstützen. Alles andere ist wirklich Zukunftsmusik.
Jupiter
2018-03-19, 21:00:15
NVIDIA RTX Technology: Making Real-Time Ray Tracing A Reality For Games: https://www.geforce.com/whats-new/articles/nvidia-rtx-real-time-game-ray-tracing
Troyan
2018-03-19, 21:08:15
Neben Raytracing wird auch "Direct Machine Learning" mit Unterstützung von DX12 umgesetzt: https://blogs.msdn.microsoft.com/directx/2018/03/19/gaming-with-windows-ml/
/edit: Futuremark hat über Twitter Beispiele veröffentlich, wie DXR die Qualität verbessern kann:https://twitter.com/Futuremark
gravitationsfeld
2018-03-19, 23:20:56
Falls es hier so rueberkommt, als waere irgend jemand gezwungen Gameworks dafuer zu benutzen oder darauf beschraenkt: Nein.
N0Thing
2018-03-20, 00:41:00
Ist eigentlich etwas Ähnliches oder Vergleichbares bei Vulkan in der Mache oder zumindest in Planung?
Unicous
2018-03-20, 03:19:30
Da hast du deine Antwort:
P2Jq4EcV3xk
:wink:
Und bevor hier wieder einer stänkert, das ist natürlich eher die Antwort auf OptiX.
AMD hält dazu einen Vortrag auf der GDC.
http://schedule.gdconf.com/session/real-time-ray-tracing-techniques-for-integration-into-existing-renderers-presented-by-amd/855908
Ganon
2018-03-20, 07:59:22
Ah schön, sind wir wieder soweit mit Real-Time Raytracing. Alle Jahre wieder *scnr* Gut, dieses mal von MS, d.h. dieses mal sind Hersteller ja mehr oder weniger gezwungen entsprechenden Kram in ihre Hardware zu bauen. ImgTec hatte ja auf der GDC 2016 ähnliches gezeigt.
Mal schauen wie weit der Hardware-Support dann so geht. Eine Umsetzung in Spielen dürfte sicherlich noch diverse Jahre dauern. Bis dahin ist die Hardware dann auch schneller.
Aber wie Demirug schon sagte.... da mach ich mir schon sorgen, dass auch die nächsten Jahrzehnte sich in der Spieledynamik nichts tun wird. Statische, atombombensichere Welten... aber in hübsch.
Aber wie Demirug schon sagte.... da mach ich mir schon sorgen, dass auch die nächsten Jahrzehnte sich in der Spieledynamik nichts tun wird. Statische, atombombensichere Welten... aber in hübsch.
In die Sackgasse sind wir aber ohne Raytracing auch gelaufen. Über die Jahre wurde die Bildqualität hochgeschraubt, indem Rechenzeit ins Preprocessing verlagert wurde. Nun kann man zur Laufzeit nur noch wenig ändern.
Imo spricht aber für viele Usecases auch nichts dagegen mit einer weitestgehenden statischen Umgebung zu arbeiten und dynamische Objekte möglichst gut zu integrieren. Ob der aktuelle Weg über ganz viele Speziallösungen (z.B. indirekte Schatten in UE4 über Capsules oder DistanceFields) zu gehen, der richtige Weg ist, wird man in 5-10 Jahren wissen.
Ganon
2018-03-20, 14:09:19
Ist eigentlich etwas Ähnliches oder Vergleichbares bei Vulkan in der Mache oder zumindest in Planung?
Jo https://twitter.com/thekhronosgroup/status/976071695374213121
aufkrawall
2018-03-20, 14:10:20
Limits wie SSR werden einem immer bestimmte Ergebnisse komplett kaputt machen. Diese ganzen UE4 Interior-Demos mit glossy Oberflächen schreien doch förmlich "Töte mich!"...
Ganon
2018-03-20, 14:20:49
Imo spricht aber für viele Usecases auch nichts dagegen mit einer weitestgehenden statischen Umgebung zu arbeiten und dynamische Objekte möglichst gut zu integrieren. Ob der aktuelle Weg über ganz viele Speziallösungen (z.B. indirekte Schatten in UE4 über Capsules oder DistanceFields) zu gehen, der richtige Weg ist, wird man in 5-10 Jahren wissen.
Die Frage ist wie lange man den 08/15 Nutzer damit noch zufriedenstellen kann. Nicht wenig Leute haben jetzt schon Probleme Unterschiede zwischen einem 3 Jahre alten Spiel wie Witcher 3 und aktuellen Spielen zu sehen. Irgendwann hängt man dann mit einer Lupe vor dem Bildschirm um noch die Auswirkungen der neuen Rendering-Verfahren zu suchen. Ist ja teilweise aktuell schon so. Jetzt kriegen wir halt auch mal funktionierende Spiegelungen hin... joahr, schön... und weiter?
Stattdessen rücken, zumindest bei mir, immer mehr andere "Probleme" in den Vordergrund. Es geht mir ja gar nicht mal darum, dass ich mich in jedem Spiel durch sämtliche Wände ballern kann... aber mal so ein bisschen weniger Skript-basiertes und mehr freie Dynamik.
Irgendwann hängt man dann mit einer Lupe vor dem Bildschirm um noch die Auswirkungen der neuen Rendering-Verfahren zu suchen.
Mit der Begründung hätte man bei Pixar auch schon vor 20 Jahren aufhören können etwas weiterzuentwickeln. In der Summe ist der Unterschied aber dann doch deutlich sichtbar gewesen.
aber mal so ein bisschen weniger Skript-basiertes und mehr freie Dynamik.
Das lässt alles die Komplexität gleich extrem explodieren und bringt dann im Endeffekt doch sehr wenig für das Spielerlebnis.
Oh nein, mehr Dynamik würde das ganze Spielerlebnis enorm aufwerten.
Es ist halt nicht möglich, weil die dullen Konsolen halt nur Jaguars haben.
aufkrawall
2018-03-20, 14:58:50
Was will man denn für Dynamik haben, die es noch nicht gibt? Verstehe dieses Argument nicht. Etwa jedes Bisschen Physik, das sich aufs Gameplay auswirken kann, kann die komplette AI lahmlegen und auch ansonsten zig Bugs mitsich bringen.
Ist halt kein Holodeck, sondern von Menschen programmierte Unterhaltungsware für Mittelklasse-Hardware.
Ganon
2018-03-20, 15:06:57
Mit der Begründung hätte man bei Pixar auch schon vor 20 Jahren aufhören können etwas weiterzuentwickeln. In der Summe ist der Unterschied aber dann doch deutlich sichtbar gewesen.
3D Grafik vor 20 Jahren war was anderes als 3D Grafik heute. Es wurde sehr viel gepushed und geforscht, damit Echtzeit-3D sehr nahe an reinen Raytracing-Verfahren heran kommt. So langsam sind wir halt in einer Sackgasse, dass eben weitere Grafikeffekte exorbitant mehr Hardware-Power brauchen.
Und dann sind wir aber immer noch weit weit weg von einem wirklich fotorealistischen Bild wie es z.B. Luxrender so ausspucken kann. Wir kriegen jetzt mit all den TFLOPS weichere Schatten ein bisschen Global Illumination und endlich mal ordentliche Reflexionen.
Dinge wie Kaustiken und Dispersion vermutlich weiterhin nicht.
Das lässt alles die Komplexität gleich extrem explodieren und bringt dann im Endeffekt doch sehr wenig für das Spielerlebnis.
Das ist für mich eine Ausrede. Die Spielmechnik von 3D Spielen hat sich seit ihrer Entstehung Ende der 90er kaum geändert. Das erklärt nicht warum ein Tisch in einem Zimmer bombensicher ist. Oder das Buch im Regel sich keinen Millimeter bewegt wenn ich drauf schieße. Und wenn mir der Spieledesigner nicht erklären kann, warum mich eine verschlossene Holz-Tür aufhält, obwohl ich einen Raketenwerfer (oder ein Fantasy-Äquivalent davon) auf dem Rücken habe, dann ist "Komplexität" keine Antwort darauf. Ebenso die Frage warum Wand A auf eine Rakete nicht reagiert, aber Wand B komplett zerbröselt.
Wie gesagt, ich verlange auch gar nicht, dass man sich frei durch alle Level sprengen kann. Aber das quasi Nicht-Vorhandensein von Physik in der Umwelt ist für mich immer mehr ein störender Faktor. Einzelne Spiele kriegen es ja im Detail, teils eingeschränkt hin. Aber so global sind wir noch Ende der 90er.
Troyan
2018-03-20, 15:34:00
Dynamik hat ja nichts mit Grafik zu tun. Und beides schließt sich auch nicht aus - siehe Cuda-Rauch in Batman:AK.
Ansonsten zeigt Futuremark doch schon, wie die Grafik erheblich verbessert werden kann. Und solche Sachen wie mit Spiegel sind doch Effekte, die einem im Spiel die Kinnlade herunterfallen lassen wird: https://twitter.com/Futuremark/status/975794207678922754
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.