Archiv verlassen und diese Seite im Standarddesign anzeigen : DirectX 12 Grafik-API
Troyan
2016-02-03, 23:38:37
Wer will, kann nun UE4 Spiele mit FL12_1 erstellen:
Updated VXGI-4.10 branch on NvPhysX github:
- Now you can change VXGI material parameters on material instances.
- Ambient occlusion mode is applied correctly (before that it was just showing the AO channel). By default, it's mixed into the SSAO channel - controlled by the PPV / VXGI Ambient / Mix Intensity slider. Or you can use it in a post-processing material from the VxgiDiffuse channel.
- Maxwell GPU features supported in D3D12 mode.
- New Readme file containing a FAQ section.
- A lot of bug fixes.
https://forums.unrealengine.com/showthread.php?53735-NVIDIA-GameWorks-Integration&p=466802&viewfull=1#post466802
Kartenlehrling
2016-02-10, 11:13:35
Intel Grafiktreiber Beta 20.19.15.4380 (15.40.18 - 9. Februar 2016
Wenn es nach Intel geht kann DX12 flächendeckend kommen,
der neueste Beta Treiber unterstützt bis runter zu Gen4 (Haswell HD4200) DX12, das einige Features trotzdem nur Optional sind sollte klar sein.
https://downloadmirror.intel.com/25749/eng/ReleaseNotes_GFX_15%2040%204380_Beta.pdf
dildo4u
2016-02-10, 12:21:22
Solche Beta Treiber werden vermutlich nicht über Windows verteilt das ist noch nicht Dau tauglich.Es werden vermutlich massig Leute mit Intel CPU's geben die die Update Software von Intel nicht installiert haben.
Kein DX12 in der Hitman Beta.
http://www.computerbase.de/2016-02/hitman-systemanforderungen/
deekey777
2016-02-10, 12:34:50
Wenn es nach Intel geht kann DX12 flächendeckend kommen,
der neueste Beta Treiber unterstützt bis runter zu Gen4 (Haswell HD4200) DX12, das einige Features trotzdem nur Optional sind sollte klar sein.
Verstehe ich nicht: Dieser Treiber ist schon seit Ende Dezember verfügbar, keine Ahnung, was in der Datenbank bei CB passiert ist (dort ist der Treiber enfalls seit Wochen verfügbar).
https://downloadcenter.intel.com/de/download/25620/Intel-Grafik-Treiber-f-r-Windows-7-8-1-10-15-40-6-Generation-
Oder meinst du den Betatreiber Beta 20.19.15.4380 (15.40.18)
Arcanoxer
2016-02-10, 12:37:59
Hitman (2016): Systemanforderungen empfehlen kein DirectX 12 (http://www.pcgameshardware.de/Hitman-Spiel-6333/News/Systemanforderungen-DirectX-12-1185758/)
Mir kommt es immer mehr so vor als ob Microsoft DX12 zu früh auf den Markt geworfen hat.
Botcruscher
2016-02-10, 12:43:28
Der W10 Datensauger muss halt gepusht werden. Trotzdem würde ich aus einer beta nichts in die eine oder andere Richtung ableiten.
Hübie
2016-02-10, 12:49:08
Na ja ich denke dass da auch viel mit der heißen Nadel gestrickt wurde. Ein Grundgerüst von vorn herein auf DX12 hin zu entwickeln ist sicher noch mal was anderes als es hinein zu patchen. Es ist ja mehr wie ein Pool an Features die man sich heraus sucht. Es ist also per se nicht so dass DX12=schöner, schneller, besser ist. Manchmal erspart man sich halt nur ein workaround unter DX11 wenn man 12 verwendet.
Man sollte dem ganzen also etwas gelassener gegenüber stehen und nicht gleich wie dargo immer "Steinzeit API" schreien. :D (nichts für ungut, dargo)
Lurtz
2016-02-10, 15:09:59
Steam is ready:
Steam Overlay
Added preliminary support for DirectX 12 games (requires the Windows 10 November update)
dargo
2016-02-10, 15:11:34
Was ist denn eigentlich mit Fraps? Kommt da nichts mehr? :confused:
Godmode
2016-02-10, 15:30:52
Gibt es eigentlich irgendwelche DX12 Eyecandy-Demos die man gesehen haben muss? Da ich seit letzter Woche endlich Win10 habe, könnte ich endlich mal irgend einen DX12 starten.
aufkrawall
2016-02-10, 16:06:44
Nein. Es gibt nur den 3DMark Overhead-Test, Ashes of Singularity early access und Fable Legends closed beta.
Ein DX12 3DMark ist in Arbeit.
Kartenlehrling
2016-02-10, 16:10:45
Was ist denn mit diesem Caffeine, funktioniert das nicht?
Die werben sogar das sie das erst DX12 Game wären.
Caffeine - The First DirectX 12 Game!
With Caffeine - Episode One being released with full DirectX 12 support, It is officially the first game (that is not in an Alpha state) to utilize the new API from Microsoft.
DirectX 12 allows for up to a 20% performance increase on Windows 10 systems, which helps bring to life the visually stunning world of Caffeine.
http://store.steampowered.com/app/323680/
Ex3cut3r
2016-02-10, 16:11:56
DX12 ist imo schon tot....bevor es überhaupt wirklich erschienen ist. :freak:
aufkrawall
2016-02-10, 16:20:05
Was ist denn mit diesem Caffeine, funktioniert das nicht?
Die werben sogar das sie das erst DX12 Game wären.
http://store.steampowered.com/app/323680/
Das kannst du dir ja wohl denken. Es ist ein Schrott-Spiel und sie benutzen sicherlich nur den experimentellen DX12 Stand, den die UE4 sowieso bietet.
Irgendein Depp wirds wegen DX12 schon kaufen.
deekey777
2016-02-10, 16:33:44
Irgendwie ist DirectX 12 das neue Direct3D 10.1...
Lurtz
2016-02-10, 16:43:15
DX12 ist imo schon tot....bevor es überhaupt wirklich erschienen ist. :freak:
Bei DX 11 hat es doch auch ewig gedauert bis es relevant wurde. Obwohl Win7 beliebter als 10 war.
Ex3cut3r
2016-02-10, 16:51:06
Bei DX 11 hat es doch auch ewig gedauert bis es relevant wurde. Obwohl Win7 beliebter als 10 war.
Bist du dir sicher? War nicht Metro 2033 in der Ur-Version nicht sehr schnell der erste Titel mit DX11 Support und das nach 2-3 Monaten?
EDIT:
Hab mal gegoogelt, Windows 7 ist am 22. Oktober 2009 erschienen, die ersten Games mit DX11 Untersützungen kamen im März 2010, sind so ca. 5 Monate.
Windows 10 ist schon länger als 5 Monate auf dem Markt und die ersten richtigen Games mit Dx12 Support sind auch noch in weiter Ferne?!
Summa Summarum DX12 ist schon tot.
aufkrawall
2016-02-10, 16:54:06
Offenbar war Battleforge das erste DX11-Spiel, der Patch dafür erschien praktisch zeitgleich zur Windows 7-Markteinführung:
https://en.wikipedia.org/wiki/List_of_games_with_DirectX_11_support
Kriton
2016-02-10, 16:56:15
Na ja ich denke dass da auch viel mit der heißen Nadel gestrickt wurde. Ein Grundgerüst von vorn herein auf DX12 hin zu entwickeln ist sicher noch mal was anderes als es hinein zu patchen. Es ist ja mehr wie ein Pool an Features die man sich heraus sucht. Es ist also per se nicht so dass DX12=schöner, schneller, besser ist. Manchmal erspart man sich halt nur ein workaround unter DX11 wenn man 12 verwendet.
Man sollte dem ganzen also etwas gelassener gegenüber stehen und nicht gleich wie dargo immer "Steinzeit API" schreien. :D (nichts für ungut, dargo)
Wenn ich mich richtig entsinne, so bietet ja auch DX12 weiterhin die Möglichkeit eines high level Ansatzes, ähnlich wie DX 11, oder? Also wäre DX 12=(CPU-)ressourcensparend auch nicht richtig.
aufkrawall
2016-02-10, 16:59:40
Nein, dafür gibt es DX 11.3.
Kartenlehrling
2016-02-10, 17:06:36
Vor 2 Jahre hat doch diese Aquanox: Deep Descent noch DX9 als Projekt API,
man musste über Kickstarter sich ein 50.000€ Gameengine update "erbetteln" für DX11.
Das Erwicklunge nicht mit der neuesten Technik auffahren ist jedem klar,
aber wenn ein projekt über 5-8Jahre geht sollte wenigsten in der Halbzeit :) ein update der Technik nachgedacht werden und gegebenfalls einzug nehmen,
somit wären wir bei 3 Jahre und was war beim PC- vor 3 Jahre technischer Stand bei den Gameengine, wenigsten Mantle.
Und ich lehne mich wohl nicht weit raus wenn ich behaupte ... von Mantle auf DX12 porten ist einfacher als von DX11 auf dx12.
Jedenfall hat das damals AMD mit einer Folie behaupte.
aufkrawall
2016-02-10, 17:08:09
Und dann läuft es automatisch toll auf Kepler, Maxwell, Haswell und Skylake?
Lurtz
2016-02-10, 17:25:17
Bist du dir sicher? War nicht Metro 2033 in der Ur-Version nicht sehr schnell der erste Titel mit DX11 Support und das nach 2-3 Monaten?
EDIT:
Hab mal gegoogelt, Windows 7 ist am 22. Oktober 2009 erschienen, die ersten Games mit DX11 Untersützungen kamen im März 2010, sind so ca. 5 Monate.
Das habe ich dann wohl falsch in Erinnerung (oder meine Hardware war noch nicht bereit).
Windows 10 ist schon länger als 5 Monate auf dem Markt und die ersten richtigen Games mit Dx12 Support sind auch noch in weiter Ferne?!
Summa Summarum Windows 10 ist schon tot.
Vulkan ist auch nicht weiter. Und das ist die einzige Konkurrenz, denn früher oder später wird man um eine Low-level-API nicht herum kommen.
Und warum sollte Win10 tot sein, es wird bereits von über 30% der Steamuser eingesetzt.
Kartenlehrling
2016-02-10, 17:45:01
Call of Pripyat verwendet die X-Ray Engine 1.6 und unterstützt auch DirectX-11-Grafikkarten.
https://de.wikipedia.org/wiki/Stalker:_Call_of_Pripyat
Stalker war das erste DX11 Spiel mit wirkliche DX11 Features, zb. AMDs CHS (PCSS) und Tessellation.
http://www.computerbase.de/2009-11/test-s.t.a.l.k.e.r.-call-of-pripyat/
S.T.A.L.K.E.R.: Call of Pripyat im Test : Gelungene Rückkehr ins Sperrgebiet
PS: über die Benchmarks kann man heute lachen ... 107% Boost von HD4870 auf HD5870.
aufkrawall
2016-02-10, 17:48:01
DX11 ist aber auch DX10 ziemlich ähnlich, das ist sicher nicht mit dem Aufwand von DX11 -> 12 für mehrere GPU-Familien vergleichbar.
Ex3cut3r
2016-02-10, 19:34:44
Und warum sollte Win10 tot sein, es wird bereits von über 30% der Steamuser eingesetzt.
Da habe ich mich vertippt, sollte natürlich Dx12 heißen. :redface:
dildo4u
2016-02-11, 15:15:58
System Specs für Quantum Break.
http://abload.de/img/untitledasrgc.png
http://news.xbox.com/2016/02/11/quantum-break-coming-to-xbox-one-and-windows-10-on-april-5/
Locuza
2016-02-11, 15:29:31
Woha ist das nice.
Erstes DX12 only game?
deekey777
2016-02-11, 15:30:05
https://de.wikipedia.org/wiki/Stalker:_Call_of_Pripyat
Stalker war das erste DX11 Spiel mit wirkliche DX11 Features, zb. AMDs CHS (PCSS) und Tessellation.
http://www.computerbase.de/2009-11/test-s.t.a.l.k.e.r.-call-of-pripyat/
S.T.A.L.K.E.R.: Call of Pripyat im Test : Gelungene Rückkehr ins Sperrgebiet
PS: über die Benchmarks kann man heute lachen ... 107% Boost von HD4870 auf HD5870.
Also war Battleforge unwirkliches DX11-Spiel, weil sie SSAO vom Pixelshader auf ComputeShader verlagerten (sie = unter anderem gewisser Demirug).
Kartenlehrling
2016-02-11, 15:31:42
VRAM 6GB .... GTX 980Ti und R9 FuryX
........
Lurtz
2016-02-11, 15:38:29
Die Anforderungen scheinen mit DX12 nicht zu sinken ;)
Locuza
2016-02-11, 15:43:05
Das sehen wir logischerweise erst in der Praxis.
Auf dem Papier scheint es jedenfalls nichts zu bewirken.
aufkrawall
2016-02-11, 15:49:52
Arschhohe VRAM-Empfehlungen, also wohl nichts mit Partially Resident Textures.
Enttäuschend.
dildo4u
2016-02-11, 15:50:01
Die Level erscheinen mir alle klein und Linear,das Game wird eher GPU limitiert sein daher hat DX12 keine großen Auswirkungen.
Kartenlehrling
2016-02-11, 17:46:00
Es ist dann das zweite Microsoft Game neben "Fabel Legends" das Win10/DX12 only ist,
ein DX11 Vergleich nicht möglich, somit kann man die unfähigkeit der sieben Jahre alten Microsoft DX11-API und "AMDs" Grafikkartentreiber nicht aufzeigen.
fondness
2016-02-11, 18:24:07
AMD is once again partnering with IO Interactive to bring an incredible Hitman gaming experience to the PC. As the newest member to the AMD Gaming Evolved program, Hitman will feature top-flight effects and performance optimizations for PC gamers.
Hitman will leverage unique DX12 hardware found in only AMD Radeon GPUs—called asynchronous compute engines—to handle heavier workloads and better image quality without compromising performance. PC gamers may have heard of asynchronous compute already, and Hitman demonstrates the best implementation of this exciting technology yet. By unlocking performance in GPUs and processors that couldn’t be touched in DirectX 11, gamers can get new performance out of the hardware they already own.
AMD is also looking to provide an exceptional experience to PC gamers with high-end PCs, collaborating with IO Interactive to implement AMD Eyefinity and ultrawide support, plus super-sample anti-aliasing for the best possible AA quality.
This partnership is a journey three years in the making, which started with Hitman: Absolution in 2012, a top seller in Europe and widely critically acclaimed. PC technical reviewers lauded all the knobs and dials that pushed GPUs of the time to their limit. That was no accident. With on-staff game developers, source code and effects, the AMD Gaming Evolved program helps developers to bring the best out of a GPU. And now in 2016, Hitman gets the same PC-focused treatment with AMD and IO Interactive to ensure that the series’ newest title represents another great showcase for PC gaming!
http://www.pureoverclock.com/2016/02/hitman-taking-a-contract-on-asynchronous-shaders/
Ex3cut3r
2016-02-11, 18:42:07
Na also, scheint ja doch voran zu gehen. :D
Kartenlehrling
2016-02-11, 21:24:31
http://www.ozone3d.net/public/jegx/201512/direct3d12_vs_opengl_geexlab_benchmark_results.png
http://www.geeks3d.com/20160105/direct3d-12-vs-opengl-a-quick-test/
Direct3D 12 vs OpenGL: A quick Test
deekey777
2016-02-11, 21:40:40
Es ist dann das zweite Microsoft Game neben "Fabel Legends" das Win10/DX12 only ist,
ein DX11 Vergleich nicht möglich, somit kann man die unfähigkeit der sieben Jahre alten Microsoft DX11-API und "AMDs" Grafikkartentreiber nicht aufzeigen.
Nun ja, es gibt da noch das nichtkommenwollende Gears of War.
ein DX11 Vergleich nicht möglich, somit kann man die unfähigkeit der sieben Jahre alten Microsoft DX11-API und "AMDs" Grafikkartentreiber nicht aufzeigen.
Dota2 und The Talos Principle unterstützen DX9, DX11, OpenGL und Vulkan, und mal rein hypothetisch angenommen, dass es dazu Tests im Laufe der zweiten Hälfte der nächsten Woche gäbe, kann man sicherlich auch Schlüsse zu DX12 ziehen :smile:
aufkrawall
2016-02-12, 01:07:42
Dann gäbe es bereits vor DX12 Vulkan-Spiele. :freak:
Bei Dota läuft DX9 übrigens auf meiner 980 am schnellsten und bei Talos DX11. Schon seltsam, dass bei Valve DX11 im GPU-Limit langsamer ist als DX9...
OpenGL ist bei beiden am langsamsten.
Screemer
2016-02-12, 01:36:09
Sind die dx9 Versionen optisch mit den dx11ern vergleichbar?
aufkrawall
2016-02-12, 01:42:23
Die sollten alle vergleichbar sein afaik.
Lurtz
2016-02-16, 16:20:14
Vielleicht peripher interessant: Der Dolphin-Emulator unterstützt jetzt DX12:
https://forums.dolphin-emu.org/Thread-unofficial-dolphin-dx12-backend
Achill
2016-02-16, 18:05:04
Vielleicht peripher interessant: Der Dolphin-Emulator unterstützt jetzt DX12:
https://forums.dolphin-emu.org/Thread-unofficial-dolphin-dx12-backend
Interessant und gut finde ich hier, dass beide IHVs davon profitieren. Ich glaube auch, dass beim Emulator weder AMD noch NV bisher was am Treiber geschraubt haben - wir sehen hier ggf. wirklich mal das Potenzial von DX12/Vulkan ohne (positive) Verzerrung seitens der IHVs.
radical83
2016-02-16, 18:20:49
Ich persönlich finde es alles andere als "peripher" interessant. Ganz im Gegenteil
Es ist schön zu sehen, dass ein einzelner Hobbyprogrammierer Vorteile aus DirectX12 ziehen kann. Das auch noch bei einer Software zum emulieren.
Ob diese Vorteile letztendlich groß oder klein sind will ich hierbei gar nicht bewerten.
Es ist jedoch traurig das bisher kein großes Studio es schafft, trotz genügend Kapital und "Manpower", ihre eigenen Spiele von DX12 profitieren zu lassen.
aufkrawall
2016-02-16, 18:25:43
Wo soll denn die Leistung bei AAA-Spielen herkommen? Man vergleiche Desktop-GPUs mit DX11 zur PS4 mit Low Level. Es gibt offenkundig nicht einfach so Leistung gratis, die man nur mitnehmen müsste (außer, es liegt ein deutliches CPU-Limit vor). Zumal man ja auch eh schon, teilweise sehr eng, mit den IHVs zusammenarbeitet.
radical83
2016-02-16, 18:46:37
Deiner Argumentation folgend dürfte auch der Wechsel für Dolphin sinnlos gewesen sein.
Ich will nicht bestreiten, dass viele Spiele bereits soweit optimiert sind, dass der Wechsel auf DX12 kein Sinn macht. Aber das nicht ein Spiel für DX12 zeitnah erscheint oder nachgepatcht wird während eine freeware Emulationssoftware weiterentwickelt wird?
aufkrawall
2016-02-16, 18:49:49
Deiner Argumentation folgend dürfte auch der Wechsel für Dolphin sinnlos gewesen sein.
Nein, weil ich von AAA sprach, und nicht von 1 Mann-Projekten (und Emulation ist doch sehr speziell).
Aber das nicht ein Spiel für DX12 zeitnah erscheint oder nachgepatcht wird während eine freeware Emulationssoftware weiterentwickelt wird?
Eben. 1 Mann "as is" Projekte haben keinen Rattenschwanz an QA und Hardware-Tests. Wer sagt denn, dass der DX12 Pfad auf jedem System so gut läuft?
Locuza
2016-02-16, 19:51:55
Kollock von Oxide:
[1] Async compute is currently forcibly disabled on public builds of Ashes for NV hardware. Whatever performance changes you are seeing driver to driver doesn't have anything to do with async compute.
[2] I can confirm that the latest shipping DX12 drivers from NV do support async compute. You'd have to ask NV how specifically it is implemented.
http://www.overclock.net/t/1590939/wccf-hitman-to-feature-best-implementation-of-dx12-async-compute-yet-says-amd/370#post_24898074
Das beste Szenario wäre und ich denke so wird es auch meistens kommen, wenn sich die Entwickler keine Gedanken über mögliche Probleme machen müssen.
Bei den anderen sollte es einfach ohne Probleme laufen und bei AMD sollte man Performance heraus bekommen.
Vendor-Locks sind natürlich dämliche Optionen, wenn das wirklich notwendig wäre.
Troyan
2016-02-16, 20:04:15
Arbeitet der Typ wirklich bei Oxide? Am Verhalten hat sich bei nVidia überhaupt nichts mit dem letzten "Game-Ready-Treiber".
fondness
2016-02-16, 20:05:19
Was soll sich auch ändern, wenn Oxide AC auf NV-Hardware deaktiviert hat.
Troyan
2016-02-16, 20:06:50
Wie wäre es mit Lesen?!
I can confirm that the latest shipping DX12 drivers from NV do support async compute. You'd have to ask NV how specifically it is implemented.
fondness
2016-02-16, 20:08:28
Wie wäre es mit Lesen?!
Und ich fragte dich, wie du misst, das sich etwas geändert oder nicht geändert hätte. Oxide verwendet AC auf NV Hardware zurzeit nicht.
Troyan
2016-02-16, 20:09:14
Mit anderen Demos, die Async Compute verwenden?!
fondness
2016-02-16, 20:10:45
Mit anderen Demos, die Async Compute verwenden?!
Vielleicht macht der NV-Treiber auch nicht anderes, als es treiberintern zu deaktivieren. Oder die anderen Demos verwenden es auf NV Hardware auch nicht wegen den Leistungseinbruch.
Achill
2016-02-16, 20:23:09
So sah es zumindest auch bei Fable Legends aus: http://wccftech.com/asynchronous-compute-investigated-in-fable-legends-dx12-benchmark/2/
Halt nur weich gespühlt (imho):
What we do find, however, is that the Titan X is likely allowing the benchmarks request for async compute to go through, but instead those workloads are placed directly into the 3D render queue. So Async is still on, and NVIDIA’s driver is aware if it, it’s just not scheduling it as would be proper. What might be happening is that some kind of other, still efficient method of dealing with those specific types of requests is being used instead.
Es wird in die Render Queue gepackt und damit ein Context wechselt vermeidet - nach meinen Leienverständnis - was ja auch OK ist wenn es der NV-HW so besser schmeckt. Damit ist es aber halt synchron und nicht asynchron.
Das ermöglicht ggf. auch die sprachliche Unschärfe zwischen: "Wir unterstützen async compute" hin zu "Wir nutzen async compute".
Troyan
2016-02-16, 20:27:35
Vielleicht macht der NV-Treiber auch nicht anderes, als es treiberintern zu deaktivieren. Oder die anderen Demos verwenden es auf NV Hardware auch nicht wegen den Leistungseinbruch.
Liest du, was andere schreiben? :rolleyes:
Das Verhalten hat sich in den letzten 9 Monaten nicht geändert.
Die Aussage von dem Typen ist entweder gelogen oder er redet von Treibern, die der Öffentlichkeit nicht zur Verfügung steht.
Locuza
2016-02-16, 21:16:36
Er gibt keine genauen Zeitangaben an.
Ich denke die Aussage ist einfach, früher gab es ein Treiber-Problem bei der Verwendung von Multiengine.
Nvidia hat die Implementierung irgendwann "gefixt" und jetzt läuft es ohne Probleme seit geraumer Zeit.
Stellt sich nur die Frage, wann sie ihren Vendor-Lock wieder entfernen.
Locuza
2016-03-02, 04:04:41
Ich denke somit ist es offiziell. :)
Rise of the Tomb Raider was playable for the first time at the Xbox Spring Showcase running DirectX 12.
http://news.xbox.com/2016/03/01/xbox-spring-showcase-recap/
Screemer
2016-03-02, 10:36:14
Revolt 2 goil.
dildo4u
2016-03-03, 12:46:56
DX12 Trailer von MS.
https://youtu.be/oLWamwzhQ34
blaidd
2016-03-03, 13:38:47
Volumetrische Beleuchtung unter DX11 geht laut dem Trailer also in Deus Ex nicht unter DX11 - komisch, dass ein ziemlich ähnlicher Effekt in Rise of the Tomb Raider noch funktioniert hat...
Godmode
2016-03-03, 13:49:32
Volumetrische Beleuchtung unter DX11 geht laut dem Trailer also in Deus Ex nicht unter DX11 - komisch, dass ein ziemlich ähnlicher Effekt in Rise of the Tomb Raider noch funktioniert hat...
Nur weil ein Effekt ähnlich aussieht, kann er unter DX12 völlig anders implementiert sein.
Kartenlehrling
2016-03-03, 13:50:33
Das Deux Ex für AMD das erste "echte" DX12 Spiel ist glaub ich sogar, bei Justcause3 hat ja jeder an ein DX12 API zum Release geglaubt selbt Nvidia,
ich kann mich noch an dem gtx980ti Release erinnern da haben sie Justcause3 noch als DX12 Spiel geworben.
Um so grösser war die enttäuschung als es nur mit DX11 veröffentlich wurde, vorallem NVIDIA Turf Effects habe ich vermisst.
Da passt auch dieser Meldung :
By Holger Gruen, posted Mar 01 2016 at 11:36AM
GameWorks Expert Developer
Since our last update to the DX12 Do’s & Don’ts we have learned and seen a lot more DX12 games and found that that we can be more specific about our advice to developers.
As DX12 is still a hardware abstraction, admittedly at a lower level than DX11, the driver still needs to map the DX12 API to the underlying hardware.
As not all DX12 API usage patterns run great on all hardware. It is therefore necessary to cater for the strength and weaknesses of different hardware vendors.
We have further on discovered that there are certain intricacies to using CBV, UAV, SRV descriptors on Tier 1 and Tier 2 that are not obvious.
Also, we have seen the use of SetStablePowerState(), overly conservative barriers and too many/too small command lists standing in the way of great DX12 performance.
Another big topic that we discuss with developers a lot is video memory over-commitment and resource residency.
We have therefore updated the following sections of the DX12 Do’s & Don’t’s:
Engine Architecture/Structure
Work Submission – Command Lists & Bundles
Root Signatures
Resources
Barriers, Fences & Hazards
MGPU
SetStablePowerState
NVidia DirectX12 Hardware Features table
https://developer.nvidia.com/dx12-dos-donts-updated
Nur weil ein Effekt ähnlich aussieht, kann er unter DX12 völlig anders implementiert sein.
Das ist fuer mich aber bewusste Taeuschung. Das Video suggeriert, dass das Endergebnis so mit DX11 nicht moeglich ist, was natuerlich voelliger Unsinn ist.
Sie haetten z.B. dazu schreiben koennen, dass etwa Effekt xy durch DX12 "kostenlos" wird und dann eine Gegenueberstellung mit/ohne machen.
Das Video ist aber ohnehin lame
Kartenlehrling
2016-03-03, 14:16:29
Das ist Typische @iuno Blödsinn,
hast du das auch bei Nvidia PCSS gesagt das DX10 ist?
Das ist fuer mich aber bewusste Taeuschung. Das Video suggeriert, dass das Endergebnis so mit DX11 nicht moeglich ist, was natuerlich voelliger Unsinn ist.
Woher willst du wissen, dass das unter DX11 möglich ist? Hast du Infos über die Art der Implementation?
dildo4u
2016-03-03, 14:25:09
Das Deux Ex für AMD das erste "echte" DX12 Spiel ist glaub ich sogar, bei Justcause3 hat ja jeder an ein DX12 API zum Release geglaubt selbt Nvidia,
ich kann mich noch an dem gtx980ti Release erinnern da haben sie Justcause3 noch als DX12 Spiel geworben.
Um so grösser war die enttäuschung als es nur mit DX11 veröffentlich wurde, vorallem NVIDIA Turf Effects habe ich vermisst.
Wenn man sieht wie viele Probleme MS selbst mit Gears of War hat muss das nicht unbedingt am Entwickler liegen.https://youtu.be/XrI5KPXHkjo
Für Gears muss man z.b unbedingt auf die neuste Windows Version 1511 Updaten,kann also möglich sein das DX12 erst vor kurzem gefixt wurde.Ashes hat ja z.b auch erst jetzt das Update mit Asynchron Compute bekommen.
Also zunaechst mal: falls es im Video eine Sprechrolle mit detaillierteren Infos zu der Implementierung gibt, bitte ich zu entschuldigen dass ich das Video ohne Ton angesehen habe. Autom. Untertitel gingen nicht, daher (und weil es nur ein Teaser ist) bin ich davon ausgegangen, dass es da nichts gibt. Dann kann man auch den folgenden Beitrag getrost ignorieren.
Das ist Typische @iuno Blödsinn,
hast du das auch bei Nvidia PCSS gesagt das DX10 ist?
Also der Satz ergibt zwar keinen Sinn, aber wenn ich trotzdem versuchen soll, darauf zu antworten lautet die Antwort wie folgt:
Natuerlich lassen sich auch mit DX10 weiche Schatten mit variablem Halbschattenbereich implementieren. Was soll die Frage? Ob es besonders effizient machen laesst, steht auf einem anderen Blatt, aber darum geht es nicht. Falls doch, empfehle ich dir mal meinen Beitrag von oben nochmals aufmerksamer durchzulesen.
Ist auch nett dass wir gleich so persoenlich werden :smile:
Woher willst du wissen, dass das unter DX11 möglich ist? Hast du Infos über die Art der Implementation?
Was fuer ein schlechter Trollversuch ist das?
Endergebnis
Volumetrische Beleuchtung ist ein ganz alter Hut. vol. light scattering und god rays gibt es schliesslich schon seit Ewigkeiten
Was fuer ein schlechter Trollversuch ist das?
Du kannst meine Fragen nicht beantworten? Dann solltest du dich nochmal hinterfragen, wer hier trollt.
Manche fragen eruebrigen sich eben wenn man mal den Beitrag des befragten durchliest, bevor man die Frage abschickt. Davon abgesehen habe ich geantwortet. Und zu Punkt 2: selbstverstaendlich weiss ich nichts ueber die konkrete Implementierung.
imho ist das genau die Art von Video die falsche Erwartungen schuert und hinterher wird sich wieder beklagt. Wenn man so eine Ansicht erwaehnt wird man selbst hier gleich angegangen :rolleyes:
Kartenlehrling
2016-03-03, 15:07:27
Du bist der einzig der hier rumtrollt @iuno.
Das war vielleicht eine schlechte Auswahl um die Vorteile von DX12 aufzuzeigen, da aber das Video von Microsoft kommt ist das somit nicht Square Enix oder AMD Auswahl.
Square Enix finde sogar Parallax Occlusion Mapping (POM) Werbewirksam und das ist sogar 10 !! Jahre alt.
The demo showcases the tech implemented in Deus Ex: Mankind Divided, which includes
Depth-of-Field & Bokeh
Post-Process and Color Correction
Global Illumination
Parallax Occlusion Mapping (POM)
Screen Space Reflection
Volumetric Lighting & Air Density
PUREhair & PUREmaterial (AMD TressFX)
Was ist eigentlich PureMaterial und Air Density?
blaidd
2016-03-03, 15:11:37
Nur weil ein Effekt ähnlich aussieht, kann er unter DX12 völlig anders implementiert sein.
Klar, deswegen hab ich ja auch "ähnlich" geschrieben - wenn's geschickt gemacht ist, läuft der auch über Async Compute. Aber abgesehen davon: Was an der Beleuchtung sollte denn nicht auch unter DX11 funktionieren? ;)
Täuschung würde ich das jetzt vielleicht nicht nennen, schon gar nicht ohne zu wissen, wie das Spiel denn tatsächlich aussieht, aber ein bisschen hinterfragungswürdig finde ich das schon... da hat man sich meines Erachtens halt einen Faust-aufs-Auge-Effekt ausgesucht, der eine Boah-Ey!-Reaktion auslösen soll ;)
Man könnte an der Stelle ja mal über den hier gezeigten Shot philosophieren, der ist von Ende 2014... (4. Dezember um genau zu sein)
http://cdn.eidosinteractive.com/mtl/marketing/Community/Blog/DAWN/DAWN_ENGINE_inengine_screen_1.jpg
Quelle (https://community.eidosmontreal.com/blogs/dawn-engine)
[dzp]Viper
2016-03-03, 15:13:28
Just Cause 3 - DX12? :eek:
dargo
2016-03-03, 15:58:56
Viper;10960932']Just Cause 3 - DX12? :eek:
Guten Morgen. :wink:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=565059
DX12 Analysis Round 2 - No Chance of A Fair Fight @ yt (https://www.youtube.com/watch?v=_OH1IE67ndg)
Ganz ehrlich, hört sich so nach nVidia an!
Locuza
2016-03-04, 07:43:24
Da passt auch dieser Meldung :
https://developer.nvidia.com/dx12-dos-donts-updated
Also, wer es noch nicht gewusst hat, Kepler unterstützt FL12.0 :P
Nvidia scheint ein Faible dafür zu haben, falsche Angaben aufzuschreiben.
Kartenlehrling
2016-03-04, 08:08:25
Ja, mit FL12.0 kann man besser Werben und suggerieren man hätte seit Jahren das "Moderner Produkt", schade das man mit solchen Tricks immer wieder durch kommt.
dargo
2016-03-04, 13:00:05
DX12 Trailer von MS.
https://youtu.be/oLWamwzhQ34
Passend dazu... Windows 10 steigt weiter bei den Steam-Usern und erreicht Gleichstand zu Windows 7 bei 64Bit.
http://store.steampowered.com/hwsurvey/directx/
Troyan
2016-03-05, 16:39:24
Gears of War benötigt mindesten 4Cores/Thread und skaliert verdammt gut auf einem 4C/8T Prozessor.
Ist beeindruckend, wenn man überlegt, dass das Spiel von einer DX9/DX10 Engine portiert wurde.
Kartenlehrling
2016-03-05, 17:00:11
Du redes dir aber auch einen Mist ein, leider kann man dank 60fps Begrenzung nichtwirklich CPU-Limit testen.
Aber wenn ein i3-4330 der normal auf Augenhöhe von einem FX-8350 ist unter Normal Singlecore DX11 Spiel alles schlägt ist doch was vergehrt,
im Russentest ist er auf Platz1 durch seinen sehr guten minFPS Wert, die ganz 6core und 8 core verlieren sogar.
Ausserdem hat sich die FPS Leistung zur 2007 doch halbiert, für das was ich in Videos gesehen habe ist dieses nicht Wert,
ich fand sogar die "dürstere" 2007 Version ansprechender.
................................................................................ .......................................................................
Wie wäre es einfach, wenn du nur dann was schreibst, wenn du auch Ahnung von dem hast?
Die "FPS-Limitierung" geht bis zur Hz. Was ein Glück, das mein Monitor 144Hz unterstützt...
Ja,
dann müssen die Russen halt auch mit einem 120/144Hz Monitor testen wenn es keine 60fps Begenzung gibt sondern nur ein fester Vsync.
Somit hast du recht und die Benchmarks sind für den Arsch, aber trotzdem sind die schlechtere minFPS auffallend für ein nicht optimales Multicore.
fondness
2016-03-05, 17:01:46
DX12 Analysis Round 2 - No Chance of A Fair Fight @ yt (https://www.youtube.com/watch?v=_OH1IE67ndg)
Ganz ehrlich, hört sich so nach nVidia an!
Jap, was anderes war auch nicht zu erwarten.
Troyan
2016-03-05, 17:04:07
Wie wäre es einfach, wenn du nur dann was schreibst, wenn du auch Ahnung von dem hast?
Die "FPS-Limitierung" geht bis zur Hz. Was ein Glück, das mein Monitor 144Hz unterstützt...
Mit 2Cores brechen meine Frames um 30 ein. Mit 4 Cores habe ich eine >85% Auslastung auf allen Cores, die gleichmäßig ist. Mit 8 Threads erhalte ich nochmal ca. 6FPS dazu (83 -> 89). Die Verteilung ist gleichmäßig (jeweils auf den vier realen Cores und entsprechend den vier logischen).
Kein Vergleich zu einem Tomb Raider, wo an Stellen der Renderthread zur Limitierung wird.
fondness
2016-03-05, 17:19:10
Zu Hitman:
DX12 supported on release
better multithreading
increased performance where CPU bound
better experiences for laptop gamers
asynchronous compute on AMD cards for significant performance gains
early days but we will continue expanding and improving on the Dx12 experience in future releases
http://www.pcgamer.com/hitman-will-support-directx-12-at-launch/
Bei NV Karten wird Square Enix also wohl AsyncCompute deaktivieren....
http://s24.postimg.org/wxc8iepad/p5_LXm_XO8_Eu_HJ_878x0_Z_Z96_KYq.jpg (http://postimage.org/)
aufkrawall
2016-03-05, 17:22:44
Bei NV Karten wird Square Enix also wohl AsyncCompute deaktivieren....
Warum "..."?
Es für NV aktiviert zu lassen, ist schlicht unsinnig. Willst du jetzt bei jedem DX12 Spiel so eine Bemerkung machen?
dargo
2016-03-05, 17:23:48
Du redes dir aber auch einen Mist ein, leider kann man dank 60fps Begrenzung nichtwirklich CPU-Limit testen.
Auch sowas geht, einfach mit dem CPU-Takt runter. Jeder kompetente Tester weiß das.
Troyan
2016-03-05, 17:46:22
Warum "..."?
Es für NV aktiviert zu lassen, ist schlicht unsinnig. Willst du jetzt bei jedem DX12 Spiel so eine Bemerkung machen?
Die müssen es auch nicht deaktivieren. Die müssen es auf nVidia und andere Hardware anpassen. Dass es seriell abgearbeitet wird, hat keine Nachteile.
Ist eben der Unsinn, der durch Oxide verbreitet. Hier wird absichtlich nicht auf nVidia-Hardware optimiert sondern einfach ein AMD optimitierter Pfad verwendet.
In Gears of War hat man dann ja gesehen, wie so etwas sich visuell negativ aufwirken kann.
Es steht auch nichtmal fest, ob zukünftige Hardware einen "Async Compute" Pfad richtig verwenden kann. Wahrscheinlich wird jedes DX12 Spiel mit einem Defaultpfad kommen, der dann eingesetzt wird, wenn die Grafikkarte nicht "erkannt" wird.
aufkrawall
2016-03-05, 17:48:27
;D
Troyan
2016-03-05, 17:58:21
Ah, also war AMD doch schuld in Gears of War. :lol:
aufkrawall
2016-03-05, 18:08:12
Die Kurzfassung:
-serielle Abarbeitung hast du bei Ashes ohne Async Compute
-so läuft auch DX12 bei NV etwas schneller als DX11, Oxide hat da offenbar gar nichts verkackt
-Gears of War ist unfertige Bananensoftware. Beweis hierfür wäre, wenn ein Spiele-Update die Probleme ohne neuen Treiber fixt.
y33H@
2016-03-06, 00:01:58
Also mit der aktuellen Version sind zumindest die AO-bedingten Grafikfehler auf meiner Nano weg, die ständigen Hänger aber nicht. Bei maximalen Details in 25x14 spuckt der Benchmark rund 45 fps aus.
Screemer
2016-03-06, 01:29:37
Also mit der aktuellen Version sind zumindest die AO-bedingten Grafikfehler auf meiner Nano weg, die ständigen Hänger aber nicht. Bei maximalen Details in 25x14 spuckt der Benchmark rund 45 fps aus.
liegt vielleicht daran, dass ao einfach komplett deaktiviert wurde für amd karten :lol:
y33H@
2016-03-06, 02:30:58
Scherz oder ist dem echt so? :usad:
War 4T unterwegs und bin daher vll nicht auf dem neuesten Stand ...
EDIT
Laut meinen Screenshots noch an.
kruemelmonster
2016-03-06, 05:28:40
DX12 Analysis Round 2 - No Chance of A Fair Fight @ yt (https://www.youtube.com/watch?v=_OH1IE67ndg)
Ganz ehrlich, hört sich so nach nVidia an!
Jap, was anderes war auch nicht zu erwarten.
Das wars? Das war eure Auseinandersetzung mit diesem anstrengenden schottischen YT-Kanal? Das ist ja noch ärmer als der verlinkte Clip.
Seine These ist dass NV die AC-Lücke durch übermäßig viel GameWorks Einsatz kompensieren will. Mal ganz abgesehen von der Tatsache dass der Gedanke irrsinnig ist weil AC idR Performance bringen sollte, GameWorks dagegen Effekte bringt und somit by-design Performance kostet, ist sein Beweis oder Indiz das vergurkte HBAO+ in GoW. Das gleiche HBAO+ welches in zig Spielen bis dato keinen nennenswert übermäßig negativen Effekt auf Radeons hatte, während das Spiel exakt den gleichen alten 2006er Sourcecode (http://www.extremetech.com/gaming/223858-the-new-gears-of-war-ultimate-edition-is-a-dx12-disaster) und Enginebuild (https://en.wikipedia.org/wiki/List_of_Unreal_Engine_games) nutzt wie der Xbox 360->Windows Port, an den damals schon DX10 rangeflanscht wurde.
Dass Microsoft hier den Bock geschossen hat liegt genauso offensichtlich auf der Hand wie dass manche hier sich nicht zu schade sind auch den abwegigsten FUD weiter zu verbreiten und zu liken.
y33H@
2016-03-06, 13:31:24
Ich zitiere mich mal:
Naja, es ist nun PBR drin und Lightmass und mehr Polygone und höher auflösende Schatten ... aber dennoch, es läuft mies.
Das wars? Das war eure Auseinandersetzung mit diesem anstrengenden schottischen YT-Kanal? Das ist ja noch ärmer als der verlinkte Clip.
Seine These ist dass NV die AC-Lücke durch übermäßig viel GameWorks Einsatz kompensieren will. Mal ganz abgesehen von der Tatsache dass der Gedanke irrsinnig ist weil AC idR Performance bringen sollte, GameWorks dagegen Effekte bringt und somit by-design Performance kostet, ist sein Beweis oder Indiz das vergurkte HBAO+ in GoW. Das gleiche HBAO+ welches in zig Spielen bis dato keinen nennenswert übermäßig negativen Effekt auf Radeons hatte, während das Spiel exakt den gleichen alten 2006er Sourcecode (http://www.extremetech.com/gaming/223858-the-new-gears-of-war-ultimate-edition-is-a-dx12-disaster) und Enginebuild (https://en.wikipedia.org/wiki/List_of_Unreal_Engine_games) nutzt wie der Xbox 360->Windows Port, an den damals schon DX10 rangeflanscht wurde.
Dass Microsoft hier den Bock geschossen hat liegt genauso offensichtlich auf der Hand wie dass manche hier sich nicht zu schade sind auch den abwegigsten FUD weiter zu verbreiten und zu liken.
Ich finde das Video ziemlich fair, er stellt beide Seiten aus seiner Sicht dar.
Das seine englische Aussprache nicht dem "schul-englisch" entspricht ist richtig, aber mir stellt sich bei deiner Aussage die Frage, ob du ihn da wirklich verstanden hast?
(Kann natürlich auch sein, dass ich ihn nicht richtig vertsanden habe.)
- nVida "verspricht" seit 5-6 Monaten einen Async Compute Rdy Driver -> immernoch nicht da!
- Die Wellen des "ersten" DX12benchmarks Ashes of the Singularity schlägt immer größere Wellen, auch wohl, gerade weil AMDs Karten dort "sehr positiv" auffallen.
- AoS soll Ende März als "erster" true DX12 veröffentlicht werden. Ups, da kommt nVida mit Gears Of War als erstes Game mit DX12 und passenden Driver?! Haut HBAO+ mit rein und das Game rendert auf AMD Karten falsch.
Jetzt sag mir mal wie du auf "kompensieren" kommst? Wie kann man etwas was man nicht hat (Async Compute) per Ambient Occlusion shadowing (HBAO+) wider wett machen?
Das eine ist wie ich etwas rendere - Asynchronous. Das andere ist eine Shading-Methode. Warum wurde an dem 2006 geschriebenen Source Code von Gears of War DX12 "angeflanscht" und das Spiel - laut diverser Tests - so grottig (zu schnell?) released?
Ich würde nicht von "kompensieren" reden, eher von kolportieren.
Wie gesagt, ich glaube zwar, dass mein englisch recht gut ist, aber vll habe ich was falsch verstanden.
captain_drink
2016-03-06, 20:46:01
Haut HBAO+ mit rein und das Game rendert auf AMD Karten falsch.
Nur GCN 1.1/1.2, 1.0 ist nicht betroffen.
HBAO+ war bislang auch immer relativ (~1-3%) IHV-neutral.
Troyan
2016-03-06, 21:36:02
HBAO+ hat nichts mit der Leistung der AMD Karten in den Spiel zu tun. Die grafischen Probleme sind seit Freitag gefixt, die Leistung ist weiterhin grottig.
aufkrawall
2016-03-06, 21:39:04
Laut gamegpu passen die avg-fps schon, nur bricht es offenbar hardcore ein:
http://gamegpu.com/action-/-fps-/-tps/gears-of-war-ultimate-edition-test-gpu.html
Troyan
2016-03-06, 22:25:07
Die AVG sind deutlich schlechter als bei nVidia - hier vor dem AO Patch:
https://youtu.be/UYmBu5VJK7s?t=101
Und der Benchmark entspricht nicht dem Spiel. Ingame ist es viel schlimmer.
aufkrawall
2016-03-06, 23:17:46
Ich bezog mich auf Hawaii, Fiji interessiert mich nicht sonderlich.
wn612953
2016-03-07, 00:33:15
Die AVG sind deutlich schlechter als bei nVidia - hier vor dem AO Patch:
https://youtu.be/UYmBu5VJK7s?t=101
Und der Benchmark entspricht nicht dem Spiel. Ingame ist es viel schlimmer.
Wer AMD kauft ist doch echt selbst schuld. Ist doch schon seit Jahren so, dass sie treibermäßig nicht an NVIDIA herankommen. Was bringt einem gute Hardware mit schlechter Software.
Ist zwar schade, aber eben Realität, leider.
aufkrawall
2016-03-07, 00:56:25
Du hast DX12 nicht verstanden.
kruemelmonster
2016-03-07, 00:58:01
- nVida "verspricht" seit 5-6 Monaten einen Async Compute Rdy Driver -> immernoch nicht da!
- Die Wellen des "ersten" DX12benchmarks Ashes of the Singularity schlägt immer größere Wellen, auch wohl, gerade weil AMDs Karten dort "sehr positiv" auffallen.
Das ist der (momentane?) DX12 Vorteil von AMD. Was hat das mit No Chance of A Fair Fight zu tun wenn der Beschuldigte auch noch im Nachteil ist?
- AoS soll Ende März als "erster" true DX12 veröffentlicht werden. Ups, da kommt nVida mit Gears Of War als erstes Game mit DX12 und passenden Driver?! Haut HBAO+ mit rein und das Game rendert auf AMD Karten falsch.
Microsoft ist der Publisher und nicht NV, und Microsoft hat HBAO+ in dieser für AMD-Karten kaputten Form eingebaut. HBAO+ läuft wie gesagt in anderen Spielen sauber auf Radeons.
Jetzt sag mir mal wie du auf "kompensieren" kommst?
Er hatte diese Idee, nicht ich:
they're talking about a hardware limitation in the maxwell generation cards, they don't have the multi threaded engine that amd gcn cards have...it causes nvidia to ignore ac and double down on gameworks instead
Seine "Argumentation" ist im Video von ~ 11:30 bis 13:30, gucks dir vllt nochmal an.
Wie kann man etwas was man nicht hat (Async Compute) per Ambient Occlusion shadowing (HBAO+) wider wett machen?
Kann man eben nicht, deshalb nannte ich seinen Gedanken irrsinning.
Warum wurde an dem 2006 geschriebenen Source Code von Gears of War DX12 "angeflanscht" und das Spiel - laut diverser Tests - so grottig (zu schnell?) released?
Dazu musst du Microsoft befragen warum sie kein Remaster mit der UE4 gemacht haben sondern einer fast 10 Jahre alten DX9 Engine einen DX12 Renderer verpasst haben. Damit hatte NV garantiert nichts zu tun.
Nur weil MS hier die Implementierung von HBAO+ versemmelt hat ist NV nicht gleich der Untergang des DX12-Abendlandes.
Nightspider
2016-03-07, 01:13:28
Wer AMD kauft ist doch echt selbst schuld. Ist doch schon seit Jahren so, dass sie treibermäßig nicht an NVIDIA herankommen. Was bringt einem gute Hardware mit schlechter Software.
Bullshit.
Wenn der Entwickler es nicht schafft die Software sauber zu programmieren in DX12 kann AMD nichts dafür.
-/\-CruNcher-/\-
2016-03-07, 01:42:15
Also über die GOW Ultimate Edition Ergebnisse würde ich mir nicht den Kopf zerbrechen das ist genauso ein Port Entwickler Disaster wie schon Batman Arkham Night nur ist der Nvidia Load hier nicht übertrieben worden und sehr dezent mit nur HBAO+ ;)
@Raff
Habt ihr eigentlich mal getestet in AOS wo nun Async Compute genau zum Einsatz kommt immerhin zeigt die Veröffentlichung des Benchmark Guides für die Presse des Shotten dort das sie seit dem 2ten Benchmark anscheinend den Async Compute part ausserhalb des PP erweitert haben leider gehen die Reviews nicht genau darauf ein hier werden ja nur presets genutzt.
Nutzen sie es jetzt auch für ihr Shading Model ?
Screemer
2016-03-07, 02:03:06
Dazu musst du Microsoft befragen warum sie kein Remaster mit der UE4 gemacht haben sondern einer fast 10 Jahre alten DX9 Engine einen DX12 Renderer verpasst haben. Damit hatte NV garantiert nichts zu tun.
Nur weil MS hier die Implementierung von HBAO+ versemmelt hat ist NV nicht gleich der Untergang des DX12-Abendlandes.
na sicher wird nv da nix mit zu tun haben, wenn der grosteil der "neuen" goodies aus der gwblackbox kommt. ;D
kruemelmonster
2016-03-07, 02:32:51
Aber du kannst schon ganze Sätze im Zusammenhang lesen und verstehen?
y33H@
2016-03-07, 12:26:25
Kurzer Überblick zu D3D12 bzw Gear of War: http://www.golem.de/news/gears-of-war-im-technik-test-ein-direct3d-12-trauerspiel-1603-119586.html
deekey777
2016-03-07, 12:45:12
Kurzer Überblick zu D3D12 bzw Gear of War: http://www.golem.de/news/gears-of-war-im-technik-test-ein-direct3d-12-trauerspiel-1603-119586.html
Viel zu DX12 steht im Artikel nicht.
Auf welchem FL ist das Spiel? 11_1/11_0 (oder gar 9_3 X-D)?
Mir ist gerade aufgefallen, dass dieser Tabelle einen Fehler hat: http://www.pcgameshardware.de/DirectX-12-Software-255525/News/Unterschiede-Feature-Levels-Tiers-AMD-1161045/
Die R7 360 basiert auf der R7 260(X), also auf Bonaire, sie kann FL 12_0.
y33H@
2016-03-07, 12:48:47
Wie viel D3D10 steckt in Halo 2? :P
deekey777
2016-03-07, 12:57:10
Wie viel D3D10 steckt in Halo 2? :P
Wurde je behauptet, dass Halo 2 D3D10 nutzte?
Läuft Halo 2 überhaupt heute auf PCs?
Screemer
2016-03-07, 13:01:55
Aber du kannst schon ganze Sätze im Zusammenhang lesen und verstehen?
für mich unterstellst du mit dem satz, dass nv mit der umsetzung nichts zu tun hat und nicht warum die alte engine nochmal verbastelt wurde. wenn du es es anders meinst, dann hab ich dich durchaus missverstanden. man kann natürlich auch gleich die verbalkeule rauskehren.
deekey777
2016-03-07, 13:06:24
Wie verhält es sich eigentlich zwischen RotTB (Steam) und RotTB (Windows Store)?
Auch wenn es kein DX12-Spiel ist, wäre interessant zu wissen, wie fehlerfrei die letztgenannte Version im Vergleich zu der Steam-Version läuft.
Troyan
2016-03-07, 13:16:10
Dazu musst du Microsoft befragen warum sie kein Remaster mit der UE4 gemacht haben sondern einer fast 10 Jahre alten DX9 Engine einen DX12 Renderer verpasst haben. Damit hatte NV garantiert nichts zu tun.
Vielleicht dachten die, es läuft mit der UE3 Engine besser. ;D
Fable Legends hat exakt die selben Probleme: Ruckler über Ruckler.
Ich habe das nicht aktiv verfolgt. War das jetzt ein Witz oder ist das "Problemspiel" wirklich mit einer UE3@DX12 gebaut? :ulol:
y33H@
2016-03-07, 13:25:12
Kein Witz, UE3 mit paar Erweiterungen wie GI, HBAO+ und PRB und eben D3D12.
deekey777
2016-03-07, 13:40:48
Ich habe das nicht aktiv verfolgt. War das jetzt ein Witz oder ist das "Problemspiel" wirklich mit einer UE3@DX12 gebaut? :ulol:
Warum nicht?
Weil mich das Spiel nicht interessiert
deekey777
2016-03-07, 13:51:27
Weil mich das Spiel nicht interessiert
Meine Frage bezieht sich auf den zweiten Satz.
Was wäre das Problem, wenn GoW Ultimate auf UE 3 basiert?
Es gibt grundsaetzlich kein Problem (wenn man es richtig macht), ich sehe nur den Sinn nicht.
Okay, das RHI hatte die UE3 glaube ich auch schon, aber dennoch...
Screemer
2016-03-07, 17:34:15
also fable legends können wir schon mal von der dx12 liste streichen. die entwicklung wurde eingestellt und lionhead wird von ms dicht gemacht. lief wohl zu gut auf amd karten und war nicht so ein gewollter schrott wie gears ;) schade um lionhead.
->http://www.computerbase.de/2016-03/microsoft-fable-legends-und-project-knoxville-eingestellt/
Nightspider
2016-03-07, 17:37:41
also fable legends können wir schon mal von der dx12 liste streichen. die entwicklung wurde eingestellt und lionhead wird von ms dicht gemacht. lief wohl zu gut auf amd karten und war nicht so ein gewollter schrott wie gears ;)
->http://www.computerbase.de/2016-03/microsoft-fable-legends-und-project-knoxville-eingestellt/
WTF
Das ist der (momentane?) DX12 Vorteil von AMD. Was hat das mit No Chance of A Fair Fight zu tun wenn der Beschuldigte auch noch im Nachteil ist?
Mit Async Compute - DX12 "gewinnt" AMD durch die Bank weg - 5-10% Performance; nVidia quasi nichts.
Er hatte diese Idee, nicht ich:
Seine "Argumentation" ist im Video von ~ 11:30 bis 13:30, gucks dir vllt nochmal an.
Kann man eben nicht, deshalb nannte ich seinen Gedanken irrsinning.
Du übersetzt "double down" mit "kompensieren"?
Ich weiß, dass ist jetzt ein wenige Haarspalterei, aber "verstärkern" oder "fokusieren" trifft es wohl besser.
"(idiomatic, by extension) To double or significantly increase a risk, investment, or other commitment." sagt die Übersetztung (https://en.wiktionary.org/wiki/double_down), aber nicht kompensieren.
Und auf Grund dieser Übersetzung nennst du uns armselig? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10963358#post10963358)
Na, :freak:
Microsoft ist der Publisher und nicht NV, und Microsoft hat HBAO+ in dieser für AMD-Karten kaputten Form eingebaut. HBAO+ läuft wie gesagt in anderen Spielen sauber auf Radeons.
...
Dazu musst du Microsoft befragen warum sie kein Remaster mit der UE4 gemacht haben sondern einer fast 10 Jahre alten DX9 Engine einen DX12 Renderer verpasst haben. Damit hatte NV garantiert nichts zu tun.
Nur weil MS hier die Implementierung von HBAO+ versemmelt hat ist NV nicht gleich der Untergang des DX12-Abendlandes.
nVidia bringt (kann vll nicht?) keinen Async Compute Treiber seit 5-6 Monaten, obwohl angekündigt. In Ashes of the Singularity - dem Spiel /Benchmark für einen neue Generation DX12 - stehen alle AMD Karten durch die Bank weg auf einmal besser da. AoS soll als erstes DX12 Spiel Ende März released werden.
Ups, da kommt auf einmal Gears of War daher.
HBAO+ (http://www.geforce.com/hardware/technology/hbao-plus/technology) ist nVidia; und oh Zufall, gleich bei Release von Gears of War war sofort von nVidia ein Game Ready driver (http://www.geforce.com/whats-new/articles/far-cry-primal-gears-of-war-ultimate-edition-game-ready-driver-released) bereit.
DX12 "dran gepappt" & HBAO+ um mal den Titel "erstes DX12 Game" abzustauben und das Game läuft auch noch "komischerweise" auf AMD-Karten nicht fehlerfrei, :rolleyes:
Du glaubst ernsthaft, dass Microsoft und nVidia da nicht im Bett waren? :redface:
===
Deine löchrige Argumentation gegen dieses Video - DX12 Analysis Round 2 - No Chance of A Fair Fight (https://www.youtube.com/watch?v=_OH1IE67ndg) und pro nVidia kann ich nicht nachvollziehen.
Unicous
2016-03-07, 17:41:20
Microsoft macht mal wieder alles richtig. Das stärkt den PC als Spieleplattform ungemein... und M$ Kredibilität als Publisher. (y)(y)(y)
edit: Kann mir mal jemand erklären, wie man so viel Wert auf das Geblubber eines random-Youtubers geben kann? Ist das deer pewdiepie der Entwicklerszene, oder was?
"Ich glaube nicht,Tim."
captain_drink
2016-03-07, 17:53:53
das Game läuft auch noch "komischerweise" auf AMD-Karten nicht fehlerfrei, :rolleyes:
Nur GCN 1.1/1.2, 1.0 ist nicht betroffen.
HBAO+ war bislang auch immer relativ (~1-3%) IHV-neutral.
Wird durch Wiederholung nicht richtiger.
Wenig plausibel, dass nur bestimmte GCN-Iterationen anvisiert werden, wenn es darum geht, AMD generell schlecht aussehen zu lassen.
Botcruscher
2016-03-07, 18:55:43
Womöglich wird ja Minecraft neuer DX12 Exklusivtitel.;D
kruemelmonster
2016-03-07, 19:00:35
für mich unterstellst du mit dem satz, dass nv mit der umsetzung nichts zu tun hat und nicht warum die alte engine nochmal verbastelt wurde. wenn du es es anders meinst, dann hab ich dich durchaus missverstanden. man kann natürlich auch gleich die verbalkeule rauskehren.
MS ist sowohl für die Enginewahl als auch die Umsetzung der verbauten Komponenten verantwortlich, ich sehe da kein nachvollziehbares Argument warum NV irgendwas MS diktiert haben sollte.
Dein Kullersmiley-Spam hat die Diskussion nun nicht grad bereichert, ist aber verständlich wenn man NV unbedingt als das Böse begreifen will.
Mit Async Compute - DX12 "gewinnt" AMD durch die Bank weg - 5-10% Performance; nVidia quasi nichts.
Also ist NV schuldig im Sinne der Anklage dass AMD einen Vorteil hat? Aha.
Nochmal zur Erinnerung, dein Kommentar zum Video war "Ganz ehrlich, hört sich so nach nVidia an!"
Es hört sich deiner Meinung nach also absolut nach NV an wenn AMD einen Vorteil umsetzen kann?
Du übersetzt "double down" mit "kompensieren"?
Ich weiß, dass ist jetzt ein wenige Haarspalterei, aber "verstärkern" oder "fokusieren" trifft es wohl besser.
Ein wenig Haarspalterei? Du kannst stattdessen auch ausgleichen o.ä. nehmen, seine Aussage und Folgerung bleibt aber die gleiche: Ignore AsyncCompute/length of penis and increase GameWorks/size of car instead. Wenn das nicht kompensieren ist, was dann?
Und auf Grund dieser Übersetzung nennst du uns armselig? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10963358#post10963358)
Ich habe euch nicht armselig genannt, sondern fondness' und deine nicht vorhandene Reflektion des Videos arm im Sinne von unzureichend.
Ups, da kommt auf einmal Gears of War daher...
Du glaubst ernsthaft, dass Microsoft und nVidia da nicht im Bett waren? :redface:
Nochmal: MS ist der Publisher sowohl vom Original als auch vom Remake (das Konsolenoriginal läuft btw exklusiv auf einer Radeon). MS hat die alte Engine weitergenutzt (vllt aus Kostengründen, wer weiß), DX12 und HBAO+ rangepappt. Natürlich bringt NV dann zum Release einen GameReady-Driver, das ist ja der Sinn hinter GameReady und wird bei jedem größeren Spiel so gehandhabt, mit der Umsetzung von HBAO+ hatte NV aber genauso wenig zu tun wie Epic mit der Beschränkung von gefühlt 256 verschiedenen Grau- und Brauntönen im Konsolenoriginal.
Deine löchrige Argumentation gegen dieses Video - DX12 Analysis Round 2 - No Chance of A Fair Fight (https://www.youtube.com/watch?v=_OH1IE67ndg) und pro nVidia kann ich nicht nachvollziehen.
Erstens kann ich deine löchrige Argumentation für dieses Video nicht verstehen, und zweitens argumentiere ich nicht "pro NV" sondern gegen die aus der Luft gegriffene "contra NV" Meinung.
Wird durch Wiederholung nicht richtiger.
Wenig plausibel, dass nur bestimmte GCN-Iterationen anvisiert werden, wenn es darum geht, AMD generell schlecht aussehen zu lassen.
Danke.
---
Bin eigentlich kein Freund des Post-Zerpflückens, sry, und hab auch wenig Bock noch weiter über das YT-Video zu diskutieren, da ist keine Substanz drin.
Rise of the Tomb Raider - DirectX12 wird auf der GDC demonstriert werden.
dargo
2016-03-08, 17:35:40
Ich warte schon die ganze Zeit auf den Patch. :up:
Godmode
2016-03-08, 17:36:42
Rise of the Tomb Raider - DirectX12 wird auf der GDC demonstriert werden.
Sehr schön, das ist ja schon nächste Woche.
Schnoesel
2016-03-08, 18:14:23
Hitman: Mit DirectX 12 für mehr Leistung - vor allem für AMD-Grafikkarten
http://www.pcgameshardware.de/Hitman-Spiel-6333/News/DirectX-12-fuer-mehr-Leistung-AMD-Grafikkarten-1188372/
Wenn Hitman nochmals zulegt ggü DX 11 dann wirds böse für Nvidia:
http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/Benchmark-1186919/
aufkrawall
2016-03-08, 18:22:50
Natürlich legt das unter DX12 noch zu. Und ja, es wird böse, sofern die Release-Version nicht noch Performance-Verbesserungen für NV mitbringt.
Ist halt ein richtig GCN-freundlich programmiertes Spiel.
-/\-CruNcher-/\-
2016-03-08, 20:11:47
Auch Ubisoft hat bei Primal in der neuen Dunia Optimierung exzelente Arbeit auf AMD geleistet ohne DX12 wohlgemerkt :)
cMUbHdQBSiQ
fq6GyUzyuJQ
Jne8VWuE2a4
Igor gibt dir mal ein Stups und mach was mit Digitalfoundry in kolab ;)
Wir sehen hier die Konsolenkonvergenz langsam voll Durchslagen hat etwas gedauert aber jetzt sind wir dort wo sich AMD gehoft hat zu stehen mit GCN ;)
fondness
2016-03-08, 20:44:43
http://www.pcgameshardware.de/Hitman-Spiel-6333/News/DirectX-12-fuer-mehr-Leistung-AMD-Grafikkarten-1188372/
Wenn Hitman nochmals zulegt ggü DX 11 dann wirds böse für Nvidia:
http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/Benchmark-1186919/
Abwarten. NV hat offenbar mehr als genug Zeit zu optimieren, wenn sie jetzt schon einen WHQL SLI-Treiber bringen können.
horn 12
2016-03-08, 20:45:53
Nun müsste AMD dies zum Triple "Schlager" machen, aber dann gibt man wohl immer klein bei!
Das Marketing bei AMD ist denk ich bei NV Maulwürfen in der Hand.
dargo
2016-03-08, 21:58:51
Auch Ubisoft hat bei Primal in der neuen Dunia Optimierung exzelente Arbeit auf AMD geleistet ohne DX12 wohlgemerkt :)
http://youtu.be/cMUbHdQBSiQ
http://youtu.be/fq6GyUzyuJQ
http://youtu.be/Jne8VWuE2a4
Igor gibt dir mal ein Stups und mach was mit Digitalfoundry in kolab ;)
Wir sehen hier die Konsolenkonvergenz langsam voll Durchslagen hat etwas gedauert aber jetzt sind wir dort wo sich AMD gehoft hat zu stehen mit GCN ;)
Ich erwarte unter DX12 eher die 980 im linken Bild. ;)
-/\-CruNcher-/\-
2016-03-08, 22:28:12
Ich erwarte unter DX12 eher die 980 im linken Bild. ;)
Naja sind noch etwas wenige Daten eine GTX 970 OC normal mit ca 1266 bis 1300 Mhz bringt schon mehr diese Karten sehe ich als Standard im Sweetspot der Effizienz und Preis/Leistung bei ca 175W und eigentlich als Test Referenz.
Je nach Gameworks Cuda Workload Pro Frame macht dann die GTX 980 mehr Sinn aber auch da gibt es nicht soooo irsinnig viele Daten drüber da immer nur relativ simple Workloads getestet wurden Anfangs zu Release, da halten die +10 fps bei 1500 Mhz und somit aufschluss auf eine Referenz 980 nicht mehr wirklich diese Theorie zerfällt ja auch bei den Reviewern immer mehr in den Daten, soviel zu so schnell wie die GTX 980 ;)
AUf den Laptops/Notebooks war schon der Release der GTX 965M ein voller erfolg mit der GTX 960M sah es einfach mau aus da hatte AMD keine Chance mehr danach, wie das jetzt aussieht wird recht interessant sich nochmal anzuschaeuen gegen die GTX 965M ;)
Laptops/Notebooks werden der Angrifspunkt für AMD mit Polaris werden ;)
Bin eigentlich kein Freund des Post-Zerpflückens, sry, und hab auch wenig Bock noch weiter über das YT-Video zu diskutieren, da ist keine Substanz drin.
Richtig, ich glaube nicht, dass du den Sinn des Videos (https://www.youtube.com/watch?v=_OH1IE67ndg) verstanden hast.
Es geht hier um die Umsetzung von DX12 - in diesem Fall von Async Compute und wie die beiden großen IHVs damit umgehen. Deshalb auch der Titel "DX12 Analysis Round 2 - No Chance of A Fair Fight. (https://www.youtube.com/watch?v=_OH1IE67ndg)"
- AMD setzt die Specs um - bietet Hardware Async Compute an.
- nVidia verspricht einen Driver und liefert dann nicht - macht dann das was du "kompensieren" nennst :rolleyes: und bietet - Beispiel aus dem Video - einen optimieren Treiber zum Release des "ersten DX12 Games" Gears of War UE an: Far Cry Primal & Gears of War: Ultimate Edition Game Ready Driver Released (http://www.geforce.com/whats-new/articles/far-cry-primal-gears-of-war-ultimate-edition-game-ready-driver-released)
Achja, das Game kommt mit HBAO+, was dann für AMDs Karten erstmal gepached werden muß.
Das ist der Sinn des Videos, der Umgang der IHVs mit dem Thema DX12.
Der eine setzt die Specs um, der andere spielt seine Marktmacht aus -> No chance for a fair fight!
Wo oder wie man da was positives zu nVidia bei diesem Thema sagen kann, verstehe ich nicht.
Darauf haben ich und fondness mit "typisch nV" geantwortet.
Aber naja, wir sind ja "armselig" und "unreflektiert" (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10964732#post10964732). :eek:
===
IMO: Je mehr man über DX12 und Windows10 mitbekommt umso mehr hoffe ich, dass DX12 nix wird und sich Vulkan auf ganzer Linie durchsetzt. Ich hoffe Khronos und die Industrie bekommen es hin.
Das wünsche ich mir nicht nur für Linux, sondern für alle Gamer.
kruemelmonster
2016-03-09, 23:47:18
Wie du meinst, ich hab meinem vorigen Posting nichts hinzuzufügen außer dass du auch gleich das Videos hättest kommentieren können statt dir deine Meinung aus der Nase ziehen zu lassen.
dargo
2016-03-10, 06:45:04
@BBig
Gestern hat AMD den Crimson 16.3 released, mit enormen Performancesteigerungen für GoW.
Gears of War Ultimate Edition
Up to 60% on AMD Radeon™ R9 Fury X series vs AMD Radeon™ Software Crimson Edition 16.2.1
Up to 44% on AMD Radeon™ R9 380 series vs AMD Radeon™ Software Crimson Edition 16.2.1
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=571555
y33H@
2016-03-10, 09:59:04
Im internen Benchmark sieht's zumindest viel besser aus:
55168
http://www.golem.de/news/radeon-software-16-3-neuer-amd-treiber-beschleunigt-gears-of-war-drastisch-1603-119665.html
deekey777
2016-03-10, 10:08:23
Mit steigender Auflösung war was faul im Staate GoW.
=Floi=
2016-03-10, 10:09:50
in dx12?
wie sieht es denn jetzt ggue. NV Karten aus, Normalitaet oder immer noch ungewoehnliche Unterschiede?
dargo
2016-03-10, 10:22:17
Im internen Benchmark sieht's zumindest viel besser aus:
55168
http://www.golem.de/news/radeon-software-16-3-neuer-amd-treiber-beschleunigt-gears-of-war-drastisch-1603-119665.html
Hast du das zufällig auf einem 60Hz Bildschirm getestet? Der Einbruch von 1080p auf 1440p ist viel zu niedrig.
y33H@
2016-03-10, 10:27:58
Ja, 60 Hz hier daheim und da lockt Gears of War leider. Im Büro habe ich 144 Hz ... aber nur 1080p.
deekey777
2016-03-10, 10:30:40
Hast du das zufällig auf einem 60Hz Bildschirm getestet? Der Einbruch von 1080p auf 1440p ist viel zu niedrig.
Sollen die FPS auf 30 fallen?
dargo
2016-03-10, 10:50:31
Sollen die FPS auf 30 fallen?
Warum sollten sie mit Tripple Buffering bei WDDM2.0?
Ja, 60 Hz hier daheim und da lockt Gears of War leider. Im Büro habe ich 144 Hz ... aber nur 1080p.
Bei Win10-Apps muss man leider beim Benchmarken umdenken. Im Prinzip könntest du ja den 1080p Bildschirm nehmen und dann mit VSR 1440p/2160p simulieren. Zumindest bei Fiji sollte 4k gehen.
y33H@
2016-03-10, 11:22:06
Ja, das müsste freilich gehen.
deekey777
2016-03-10, 11:49:44
Warum sollten sie mit Tripple Buffering bei WDDM2.0?
.
Darum meine Frage an dich. :P;D
Sprich: Warum sollte der Einbruch höher sein? GoW hat eine intressante Speicherverwaltung, so dass eine R7 370 schneller sein kann als deutlich erwachsenere Grafikkarten mit 4 GB, weil die letzte auch mehr anzeigt.
dargo
2016-03-10, 12:20:03
Darum meine Frage an dich. :P;D
Sprich: Warum sollte der Einbruch höher sein?
Weil 1440p 76% mehr Pixel sind? Ergo muss bei 1080p mehr als nur 11% durchschlagen. Falls nicht entweder starkes CPU-Limit oder eben 60Hz Vsync On/Framelimit.
blaidd
2016-03-10, 13:35:50
Ihr werdet wahrscheinlich noch das Kotzen kriegen, was DX12 betrifft - und zwar so richtig... Ich fass es nicht, das ist echt einfach nur im Arsch - zumindest mit AMD-GPUs. Was Nvidia da rumzaubert, kann ich schlecht einschätzen. Thx, Microsoft.
deekey777
2016-03-10, 13:44:16
Ihr werdet wahrscheinlich noch das Kotzen kriegen, was DX12 betrifft - und zwar so richtig... Ich fass es nicht, das ist echt einfach nur im Arsch - zumindest mit AMD-GPUs. Was Nvidia da rumzaubert, kann ich schlecht einschätzen. Thx, Microsoft.
Ihr Enthusiasten werdet vielleicht abkotzen, die normalen Spieler eher nicht.
aufkrawall
2016-03-10, 13:45:43
Wenn der VRAM knapp ist, vielleicht auch der. Hab da üble Erfahrungen aus der Fable Beta...
Locuza
2016-03-10, 14:41:27
Technische Probleme in der zur PC-Testversion: Die PC-Version von Hitman wird unter Windows 10 als erstes final veröffentlichtes Spiel die neue Schnittstelle DirectX 12 unterstützen, die vor allem in Sachen Leistung Vorteile gegenüber DirectX 11 bringen soll. Auch in unserer Test-Version haben wir bereits die Wahl zwischen DirectX 12 und DirectX 11, allerdings kommt es mit beiden Schnittstellen und mit Grafikkarten von AMD und von Nvidia gleichermaßen teils zu schwerwiegenden Problemen. Das Spiel stürzt mit verschiedener Hardware häufig schon beim Start ab, außerdem treten unter DirectX 12 Grafikfehler wie fehlenden Texturen oder falsche Lichtberechnungen auf.
http://www.gamestar.de/spiele/hitman/test/hitman,48985,3269176.html
Mhh, sexy.
Bei Computerbase kann man das Schattenflackern im Video sehen:
http://www.computerbase.de/2016-03/hitman-test-episode-eins/4/
Da bin ich mal auf die finale Version mit den neusten Treibern gespannt und ob Phil auf Hitman angespielt hat.
MechWOLLIer
2016-03-10, 14:53:46
Bei Computerbase kann man das Schattenflackern im Video sehen:
http://www.computerbase.de/2016-03/hitman-test-episode-eins/4/
Das ist bei uns DX11 im Video.
Zumindest der integrierte benchmark läuft ohne Grafikfehler:D
blaidd
2016-03-10, 15:22:00
Hier: http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/DirectX-12-Benchmark-Test-1188758/
(http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/DirectX-12-Benchmark-Test-1188758/)
DirectX 12 in voller Pracht.
Unicous
2016-03-10, 15:29:25
Falls noch nicht mitbekommen:
PresentMon
ETW based FPS monitor for DX10+ programs, including Windows Store Apps / UWP Apps (https://github.com/GameTechDev/PresentMon).
Andrew Lauritzen
@AndrewLauritzen
I've received some requests for a tool that can measure game perf/frame times with DX12, UWP, etc. Here you go: https://github.com/GameTechDev/PresentMon …
Kartenlehrling
2016-03-10, 15:32:37
wieso skaliert die gtx980-4gb (1300mhz) überhaupt nicht zwischen dx11-dx12 und die gtx980ti-6gb (1380mhz) 10%?
Aber gut das DX12 überhaupt eine Leistungsteigerung zeigt, das war in den letzten Tagen ja nicht immer selbstverständlich.
Vielleicht CPU Limit
Wann der separate Artikel erscheinen wird, können wir aber noch nicht sagen: Ein Kopierschutz lässt das Spiel seit Donnerstagfrüh nicht mehr starten, das hat Square Enix mittlerweile bestätigt.
:lol:
Starker Launch mal wieder...
scully1234
2016-03-10, 15:38:30
Hier: http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/DirectX-12-Benchmark-Test-1188758/
(http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/DirectX-12-Benchmark-Test-1188758/)
DirectX 12 in voller Pracht.
War wohl dann doch nix mit der asyncronen Weltherrschaft fuer AMD mit DX12 Renderpfad. ''Traurig'' das nicht alle Studios so nach ihrer Pfeife tanzen wie die Ashes Jungens,und Spiele auch normal optimieren koennen:uroll:
dargo
2016-03-10, 15:39:24
Ihr werdet wahrscheinlich noch das Kotzen kriegen, was DX12 betrifft - und zwar so richtig... Ich fass es nicht, das ist echt einfach nur im Arsch - zumindest mit AMD-GPUs. Was Nvidia da rumzaubert, kann ich schlecht einschätzen. Thx, Microsoft.
Inwiefern? Dass unfertige Spiele released werden ist nun schon lange wirklich nichts Neues mehr. :tongue:
Edit:
Mit AMD-Grafikkarten greift die Windows Composing Engine in das Messverfahren ein, das Problem dabei wird bei PC Per anschaulich beschrieben. In Kurzform: Mit Direct X 12 wird die Framerate unter Windows an die maximale Wiederholfrequenz des Monitors gekoppelt. So wird zwar Tearing vermieden, aber auch der Spieler entmündigt, denn umgehen lässt sich das Lock mit AMD-Grafikkarten nur im Fenstermodus, nicht im Borderless Window und nicht im Fullscreen.
Für mich klingt das nach einem Applikationsfehler. Wenn exklusiver Fullscreen angeboten wird sollte auch Vsync Off richtig greifen. War/ist unter Mantle auch kein Problem. Ich gehe von typischen Startschwierigkeiten aus.
Troyan
2016-03-10, 15:44:40
Warum werden bei AMD mit dem 16.3 die Frames gelockt? :confused:
blaidd
2016-03-10, 15:53:30
War wohl dann doch nix mit der asyncronen Weltherrschaft fuer AMD, traurig das nicht alle Studios so nach ihrer Pfeife tanzen wie die Ashes Jungens,und Spiele auch normal optimieren koennen:uroll:
Bei Ashes ist es doch der gleiche Mist...
(http://www.pcper.com/reviews/General-Tech/PC-Gaming-Shakeup-Ashes-Singularity-DX12-and-Microsoft-Store)
Mit einem ordentlichen Display (hohe Wiederholrate) sollte es gehen. Aber das ist trotzdem totaler Murx - DX12, nicht wirklich AMD, obwohl die mal was hätten machen können, um Treiberseitig um den Microsofts Bullshit zumindest ansatzweise herumzukommen, wie Nivida das macht - wobei das sicher auch keine anständige Lösung ist. Hoffentlich schlägt sich Vulkan besser...
Warum werden bei AMD mit dem 16.3 die Frames gelockt? :confused:
Die beknackte Windows Composing Engine diktiert das unter DX12
EDIT: Okay, ich hab eventuell eine Lösung gefunden...
Troyan
2016-03-10, 15:55:27
Wieso nicht bei nVidia?!
Ich dachte DirectFlip soll es ermöglichen, dass Bilder "ohne" V-Sync nicht einfach verworfen werden...
/edit:
Ach, galt nur für Ashes. Mein Fehler.
scully1234
2016-03-10, 15:56:51
Mit einem ordentlichen Display (hohe Wiederholrate) sollte es gehen. ...
Da gibt es auch Benchmarks in 4k da sollte der 60FPS Look wohl weniger von Bedeutung sein wenn die GPU sie von der Renderperformance gar nicht erreicht
Gut, imho wollte wollte MS ums Verrecken vor Vulkan am Markt sein, war es aber nur auf dem Papier. :ugly: Wenn es bei 3/3 Spielen so unglaubliche Probleme gibt sollen sie den Muell einfach stecken. Soll es halt noch etwas laenger dauern, bis next-gen API Titel kommen, aber dann ordentlich und plattformunabhaengig :rolleyes:
blaidd
2016-03-10, 16:45:04
Okay, ich nehm alles zurück - jetzt funktioniert's offenbar (dämliche Trolloption im Menü unter DX12 aktiv, die Abstürze verursacht und die AMD-Performance versaut)...
Erster neuer Bench drin, dargo wird's freuen (http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/DirectX-12-Benchmark-Test-1188758/)... ;)
Schaffe89
2016-03-10, 16:47:27
http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/DirectX-12-Benchmark-Test-1188758/
Braucht man jetzt schon eine ~1,4ghz GTX 980 Ti um vor einer 390 zu bleiben? *Kleiner Spaß*
Jedenfalls sieht das ganze genau wie erwartet aus.
390 16 bis 33% vor einer GTX 980 mit 1320mhz, fein fein.
Hoffe meine Nano krepiert nicht an V-ram Mangel.
Gut dass ich noch die alte 290x 8GB zur Hand habe.:)
blaidd
2016-03-10, 16:49:32
Hoffe meine Nano krepiert nicht an V-ram Mangel.
Gut dass ich noch die alte 290x 8GB zur Hand habe.:)
Checken wir auch. Ist heut eine mit der Post gekommen - so, ich mach dann mal wieder Überstunden :freak:
radical83
2016-03-10, 16:55:41
Checken wir auch. Ist heut eine mit der Post gekommen - so, ich mach dann mal wieder Überstunden :freak:
Könnt ihr nicht lieber eine 4GB Version testen um zu prüfen inwieweit der Speicher von Bedeutung ist?
Falls nicht, kommen schon bald die Fanboys aus beiden Lagern aus ihren Löchern gekrochen und es wird ziemlich heiß hergehen in den Foren.
Im übrigen kann ich mir vorstellen, dass du ziemlich angefressen sein musst, dass dir ein Schalter im Grafikmenu den halben Tag versaut. ;D
Er wird die Nano gemeint haben. 290X 8 GiB ist ja recht uninteressant wenn es schon eine 390 gibt.
Oha jetzt wird es aber haesslich mit den durchgestrichenen Textbloecken :ulol: *scnr*
Naja anhaltende Probleme und Zeitdruck, kann schon mal passieren...
http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/DirectX-12-Benchmark-Test-1188758/
Braucht man jetzt schon eine ~1,4ghz GTX 980 Ti um vor einer 390 zu bleiben? *Kleiner Spaß*
Jedenfalls sieht das ganze genau wie erwartet aus.
390 16 bis 33% vor einer GTX 980 mit 1320mhz, fein fein.)
Die 980 ist noch mit den falschen Werten gelistet.
aufkrawall
2016-03-10, 16:57:58
Ich hatte es an anderer Stelle schon gesagt: Wenn Pascal kein AC kann, wird das übel für NV. :D
Loeschzwerg
2016-03-10, 16:58:49
Ja, Nano Werte wären durchaus interessant! Durchhalten Phil, nach Überstunden schmeckt das Feierabendbier umso besser :)
M4xw0lf
2016-03-10, 17:00:58
War wohl dann doch nix mit der asyncronen Weltherrschaft fuer AMD mit DX12 Renderpfad. ''Traurig'' das nicht alle Studios so nach ihrer Pfeife tanzen wie die Ashes Jungens,und Spiele auch normal optimieren koennen:uroll:
Vielleicht hat da jemand zu früh gefeiert.
Troyan
2016-03-10, 17:01:52
Ich hatte es an anderer Stelle schon gesagt: Wenn Pascal kein AC kann, wird das übel für NV. :D
Die AMD Karte ist doch mit DX11 schon schneller. Und mit den "richtigen" DX12 Wert liegt sie auch nur 10% zu.
Und das ist hier ein AMD gesponsertes Spiel, wo nVidia-Kunden vollkommen egal sind.
MechWOLLIer
2016-03-10, 17:05:42
Okay, ich nehm alles zurück - jetzt funktioniert's offenbar (dämliche Trolloption im Menü unter DX12 aktiv, die Abstürze verursacht und die AMD-Performance versaut)...
Erster neuer Bench drin, dargo wird's freuen (http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/DirectX-12-Benchmark-Test-1188758/)... ;)
Und du bekommst bei deaktivierter Funktion auf AMD-Karten unter DX12 mehr FPS als 60 im Fullscreen? Also hier klappt das zumindest nicht wirklich.
Nakai
2016-03-10, 17:15:46
@aufkrawall:
NV braucht gar kein AC. Da ist die Auslastung eh schon gut optimal. Einzig die Probleme bei AC sollte NV lösen, wenn man dort eher Performance verliert als gewinnt.
scully1234
2016-03-10, 17:18:31
Vielleicht hat da jemand zu früh gefeiert.
Ja dann schau dir mal die DX11 Benchmarks an im selben Slide,dort liegt die 390PCs auf selben Niveau wie mit DX12 Renderpfad vor der 980 GTX, da sind dann vermutlich auch die asyncronen Zauberwuerfel verantwortlich :freak:
aufkrawall
2016-03-10, 17:19:08
@aufkrawall:
NV braucht gar kein AC. Da ist die Auslastung eh schon gut optimal. Einzig die Probleme bei AC sollte NV lösen, wenn man dort eher Performance verliert als gewinnt.
Sie bräuchten es sehr wohl, weil es offenbar bei AMD immer etwas bringt, selbst wenn es schon mit DX11 schnell läuft.
Das tun andere Engines wie Frostbite auch, mit Radeons mit AC können die Geforces bei so etwas überhaupt nicht mehr mithalten.
blaidd
2016-03-10, 17:21:00
Und du bekommst bei deaktivierter Funktion auf AMD-Karten unter DX12 mehr FPS als 60 im Fullscreen? Also hier klappt das zumindest nicht wirklich.
Es klappt offenbar nicht verlässlich... ich probier grad noch rum, aber zumindest Fiji und Tonga machen schon wieder Stress... *seufz* Hast du mal eine Hawaii probiert?
M4xw0lf
2016-03-10, 17:22:36
Ja dann schau dir mal die DX11 Benchmarks an ,dort liegt die 390PCs auf selben Niveau wie mit DX12 Renderpfad, da sind dann vermutlich auch die asyncronen Zauberwuerfel verantwortlich :freak:
Ich sehe da ~10% Zuwachs unter allen Auflösungen.
][immy
2016-03-10, 17:25:23
@aufkrawall:
NV braucht gar kein AC. Da ist die Auslastung eh schon gut optimal. Einzig die Probleme bei AC sollte NV lösen, wenn man dort eher Performance verliert als gewinnt.
Nun, durch AC dürfte nvidia Performance verlieren weil es zusätzliche Arbeit ist. Wenn man die Hardware bereits jetzt ansatzweise zu 100% auslastet (mit DX11) wird es mit DX12 nicht besser werden wenn dann auch noch zusätzlich asynchrone Jobs auf der Grafikkarte laufen. Nun rächt sich halt das sie schon immer die vorhandene Hardware gut auslasten konnten.
Ist eher ein Trauerspiel für die AMD karten die jahrelang Däumchen gedreht haben, weil sie scheinbar nicht so gebaut wurden wie Spiele-Entwickler entwickeln. Es ist zwar durchaus schön das man jetzt endlich mit DX12/Vulkan endlich mal die vorhandene Leistung besser ausnutzen kann, aber halt schade das man scheinbar die Jahre zuvor am Markt vorbeientwickelt hat.
Nvidia macht das schon richtig, so können sie wenigstens demnächst wieder neue Hardware verkaufen während die "alte" plötzlich künstlich gealtert ist.
btw, wird wohl Zeit das ich meine Radeon 7850 mal aufrüste ... ist ja bei Hitman nicht mal mehr in den minimal-Anforderung drin :( ... naja Verhältnismäßig hat die bis jetzt am längsten durchgehalten. Vorher war bei einer Mittelklasse GPUs spätestens nach 2 Jahren Schluss mit höheren Details.
Locuza
2016-03-10, 17:26:38
Ich sehe da ~10% Zuwachs unter allen Auflösungen.
Allerdings insgesamt von DX11--> DX12.
Bei Ashes gab es noch einen coolen on/off Schalter in der Beziehung.
Netter Bonus, aber natürlich nicht groundbreaking, vor allem für die angeblich beste Async Compute Implementierung bisher.
Naja, die Werte genieße ich auch noch mit Vorsicht.
scully1234
2016-03-10, 17:26:50
Ich sehe da ~10% Zuwachs unter allen Auflösungen.
Ja genau 10% Zuwachs bei beiden Herstellern unter DX12, wo ist da also das Killerfeature geblieben, was sich bei Ashes noch so dramatisch in Szene zu setzen wusste?
Tesseract
2016-03-10, 17:27:03
NV braucht gar kein AC. Da ist die Auslastung eh schon gut optimal.
der höhere auslastungsgrad bei nvidia kommt wo anders her und hat mit AC nix zu tun. man kann um AC nicht "herumoptimieren" - wenn AC fehlt stehen in bestimmten fällen teile der GPU still.
M4xw0lf
2016-03-10, 17:29:56
Ja genau 10% Zuwachs bei beiden Herstellern unter DX12
Nope. Nvidia verliert ab WQHD Leistung.
Locuza
2016-03-10, 17:31:43
Sie bräuchten es sehr wohl, weil es offenbar bei AMD immer etwas bringt, selbst wenn es schon mit DX11 schnell läuft.
Das tun andere Engines wie Frostbite auch, mit Radeons mit AC können die Geforces bei so etwas überhaupt nicht mehr mithalten.
In Nvidias Interesse müssen sie natürlich mithalten können, ob mit AC oder ohne ist schließlich egal, man muss sich daran nicht festbeißen.
MechWOLLIer
2016-03-10, 17:32:17
Es klappt offenbar nicht verlässlich... ich probier grad noch rum, aber zumindest Fiji und Tonga machen schon wieder Stress... *seufz* Hast du mal eine Hawaii probiert?
Wie schreibt ihr so gern? WTF-Moment? Den habe ich gerade gehabt.
Mit Fiji kann ich mit auf den Kopf stellen, da bleibe ich bei 60 FPS hängen. Hawaii rein und prompt hab ich 300 FPS im Menü (und auch mehr im Spiel). Das Render Target Reuse hat damit aber nichts zu tun. Bei Hawaii kann ich das auch an haben. Ist VSync aus, gibts immer mehr als 60 FPS.
aufkrawall
2016-03-10, 17:36:02
In Nvidias Interesse müssen sie natürlich mithalten können, ob mit AC oder ohne ist schließlich egal, man muss sich daran nicht festbeißen.
Es gibt aber kein Zurück mehr. Die Radeons (also die gut ausbalancierten wie Hawaii oder Tonga) stehen in vielen neuen Spielen eh schon durch GCN-Optimierung und bessere CPU-Nutzung gut da. Zusammen mit einem zusätzlichen Boost durch AC wird das alles andere als leicht für NV, da muss man sich nichts vormachen.
Außer halt, Pascal wird der große Bringer.
M4xw0lf
2016-03-10, 17:36:58
In Nvidias Interesse müssen sie natürlich mithalten können, ob mit AC oder ohne ist schließlich egal, man muss sich daran nicht festbeißen.
Nur wenn die aktuell typischen Charakteristika der Architekturen von AMD und Nvidia bei Pascal und Polaris weiterbestehen, dann bekommt AMD aus der gleichen Anzahl Transistoren mehr Rechenwerke und Rechenleistung, was mit ausreichend guter Auslastung dann ein handfester Vorteil wird.
blaidd
2016-03-10, 17:41:18
Wie schreibt ihr so gern? WTF-Moment? Den habe ich gerade gehabt.
Mit Fiji kann ich mit auf den Kopf stellen, da bleibe ich bei 60 FPS hängen. Hawaii rein und prompt hab ich 300 FPS im Menü (und auch mehr im Spiel). Das Render Target Reuse hat damit aber nichts zu tun. Bei Hawaii kann ich das auch an haben. Ist VSync aus, gibts immer mehr als 60 FPS.
Ja, ist offenbar ein Bug. Ich hab mal probehalber einen 144-Hz-Monitor angeklemmt, auf 144 Hz gestellt - 60 Fps gelockt. :rolleyes:
Schaffe89
2016-03-10, 17:41:28
@aufkrawall:
NV braucht gar kein AC. Da ist die Auslastung eh schon gut optimal. Einzig die Probleme bei AC sollte NV lösen, wenn man dort eher Performance verliert als gewinnt.
Woher kommt eigentlich dieses Gerücht, kann mir das mal jemand erklären?
Ja, ist offenbar ein Bug. Ich hab mal probehalber einen 144-Hz-Monitor angeklemmt, auf 144 Hz gestellt - 60 Fps gelockt. :rolleyes:
Vielleicht ein kaputtes Spielprofil? Kann man unter Crimson keine eigenen Profile erstellen?
Edit: Treiber mit DDU komplett deinstallieren und mit eingebauter Fury nochmals neu installieren - würde ich versuchen
AffenJack
2016-03-10, 17:55:08
der höhere auslastungsgrad bei nvidia kommt wo anders her und hat mit AC nix zu tun. man kann um AC nicht "herumoptimieren" - wenn AC fehlt stehen in bestimmten fällen teile der GPU still.
Trotzdem dürfte Nv bei Async nie allzu viel im Vergleich mit AMD gewinnen, solange sie ihre Designphilosophie bei der Architektur die auf maximale Auslastung getrimmt ist nicht verändern. Daher macht auch nur ne rudimentäre Implementierung Sinn, die das stehenbleiben der GPU verhindert und bei AC Performanceneutral agiert.
aufkrawall
2016-03-10, 17:56:59
Bislang ist AC bei NV aber immer noch ein Nachteil, wenn AoS dafür repräsentativ ist.
MechWOLLIer
2016-03-10, 17:57:15
Ja, ist offenbar ein Bug. Ich hab mal probehalber einen 144-Hz-Monitor angeklemmt, auf 144 Hz gestellt - 60 Fps gelockt. :rolleyes:
Bin ich blöd/blind? Wo geht das denn? Also wo kann man die Bildwiederholfrequenz ändern?
BlacKi
2016-03-10, 17:59:03
Nope. Nvidia verliert ab WQHD Leistung.
nv karten wurden doch garnicht neu gebencht? die einzigsten werte die man aktuell nehmen kann sind die der 390, und die 6fps sind weit weg von den versprechungen die man sich durch dx12 und AC erhofft hat.
Troyan
2016-03-10, 17:59:20
Bislang ist AC bei NV aber immer noch ein Nachteil, wenn AoS dafür repräsentativ ist.
Der Nachteil hat nichts mit nVidia zu tun. Synchronisierung von Queues ist Aufgabe des Entwicklers.
In der Microsoft-Demo (von AMD angepasst) und der Demo aus dem Beyond3d.com Forum gibt es keinen Leistungsnachteil.
Locuza
2016-03-10, 18:00:17
Es gibt aber kein Zurück mehr. Die Radeons (also die gut ausbalancierten wie Hawaii oder Tonga) stehen in vielen neuen Spielen eh schon durch GCN-Optimierung und bessere CPU-Nutzung gut da. Zusammen mit einem zusätzlichen Boost durch AC wird das alles andere als leicht für NV, da muss man sich nichts vormachen.
Außer halt, Pascal wird der große Bringer.
Das die GCN Optimierungen AMD in die Hände spielen ist logisch, es hilft der Konkurrenz vermutlich auch wenn sie in eine ähnliche Kerbe schlagen, um von der gleichen Grundlinie zu profitieren, aber ich sehe das nicht als zwingend notwendig an.
Wenn Nvidia die Kosten für einen Context-Switch reduzieren kann, ist es für die kommende Runde möglicherweise auch völlig ausreichend.
So oder so, auf beiden Seiten sind das immer weitreichende Entscheidungen die getroffen werden müssen.
Die Gestaltung vom Netzwerk, die Ansteuerung, Cache und Register-Anpassungen.
Das alles schlägt sich auf die Flächeneffizienz und den Stromverbrauch nieder, ebenso natürlich allgemein die Komplexität vom Design.
Gewisse Software-Anpassungen spielen gegen die Konkurrenz, stellt sich die Frage, wie adaptiv sie darauf reagieren müssen und ob überhaupt.
blaidd
2016-03-10, 18:03:12
@gedi: Längst passiert.
Bin ich blöd/blind? Wo geht das denn? Also wo kann man die Bildwiederholfrequenz ändern?
Auf dem Desktop - im Spiel geht's nicht. Auch nicht in der ini... Da ist außerdem grade ein Update eingeschlagen, Problem nicht behoben. Nix zu machen, ich bench dann jetzt halt die alten Radeons... eventuell ein Treiberbug.
radical83
2016-03-10, 18:06:02
nv karten wurden doch garnicht neu gebencht? die einzigsten werte die man aktuell nehmen kann sind die der 390, und die 6fps sind weit weg von den versprechungen die man sich durch dx12 und AC erhofft hat.
Bei den Nvidia Karten gab es aber auch keine Probleme mit dem Framelock. Zumindest geht es aus dem Text auf PCGH hervor.
blaidd
2016-03-10, 18:09:47
Bei den Nvidia Karten gab es aber auch keine Probleme mit dem Framelock. Zumindest geht es aus dem Text auf PCGH hervor.
Nein, die Geforce-GPUs sind nicht betroffen, da hat nur das Render Target bei Raffs Testsystem für Abstürze gesorgt - bei mir hat's von Anfang an funktioniert, grad nochmal gegengecheckt, die Werte passen so.
aufkrawall
2016-03-10, 18:13:37
Der Nachteil hat nichts mit nVidia zu tun. Synchronisierung von Queues ist Aufgabe des Entwicklers.
In der Microsoft-Demo (von AMD angepasst) und der Demo aus dem Beyond3d.com Forum gibt es keinen Leistungsnachteil.
Es ist auch egal, es wird mit bestenfalls sowieso nicht schneller.
Ex3cut3r
2016-03-10, 18:20:34
Sind 60 FPS limits eigentlich ein DX12 Ding? Wenn ja, na dann gute Nacht DX12. Jeder Gamer weiß das auch höhere FPS dem Spielgefühl gut tun, auch wenn die Refreshrate des Monitors nur 60 Hertz beträgt.
dargo
2016-03-10, 18:21:52
Okay, ich nehm alles zurück - jetzt funktioniert's offenbar (dämliche Trolloption im Menü unter DX12 aktiv, die Abstürze verursacht und die AMD-Performance versaut)...
Erster neuer Bench drin, dargo wird's freuen (http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/DirectX-12-Benchmark-Test-1188758/)... ;)
Die 390 non X geht wieder ab wie Schmidts Katze. :up: Eine 390X dürfte wieder das Niveau der übertakteten 980TI in 1440p erreichen. Das möchte ich jetzt immer sehen. ;)
PS: ich muss allerdings dabei sagen, dass der DX11 Renderpfad auch hier auf den Radeons, zumindest im GPU-Limit nicht übel ist.
blaidd
2016-03-10, 18:24:12
Ich würd vor allem endlich mal ein DX12-Spiel sehen, das nicht totale Zicken macht ;) Aber ja, die 390 geht ab - wenn ich noch ein bisschen Muße habe, jage ich die R9 390X auch noch durch, ich check jetzt erstmal den guten alten Tahiti... Ich fürchte, da hat AMD was am Treiber versaubeutelt, was bedeutet, dass ich eh nochmal alles nachmessen muss, sobald da ein Hotfix eingetroffen ist - ich hab's denen jedenfalls mal gesteckt.
Troyan
2016-03-10, 18:24:54
Es ist auch egal, es wird mit bestenfalls sowieso nicht schneller.
Wenn es das einzige ist, was man mit DX12 macht - dann ja.
Aber DX12 sollte nicht einfach nur als "AC" verwendet werden. Es bietet deutlich mehr Vorteile, um auch im GPU-Limit die Leistung zu verbessern.
Aber wahrscheinlich darf man sowas von AMD gesponserten Spielen zur Zeit nicht verlangen.
dargo
2016-03-10, 18:33:30
Die Konzentration von AMD auf DX12 Spiele zeigt bereits bei einigen Grünen Wirkung. ;D Die Entscheidung war also doch richtig. ;)
Tesseract
2016-03-10, 18:44:09
Trotzdem dürfte Nv bei Async nie allzu viel im Vergleich mit AMD gewinnen, solange sie ihre Designphilosophie bei der Architektur die auf maximale Auslastung getrimmt ist nicht verändern.
nein, diesen schluß kannst du nicht machen. die lücken die AC schließt kannst du nicht mit anderen optimierungen ausgleichen weil diese von der spielengine so vorgegeben werden. wenn das spiel etwas rendert, das zu 99% bandbreitenlimitiert ist kann nvidia noch so viel optimieren, die ALUs werden trotzdem nicht besser ausgelastet weil einfach nichts da ist was sie auslasten könnte. ich weiß echt nicht was daran so schwer zu verstehen ist.
oder anders gesagt: du kannst gut und weniger gut optimierte AC- sowie non-AC-architekturen haben. du kannst auch eine non-AC-architektur haben, die insgesamt effizienter ist als eine nicht so gut optimierte AC-architektur. was allerdings nicht möglich ist, ist eine non-AC architektur, die irgendwas macht, das AC vollständig ersetzt. mit bestimmten workloads wird die "bestmögliche AC-architektur" immer effizienter bleiben als die "bestmögliche non-AC-architektur" - und diese workloads sind momentan und auch in absehbarer zukunft in spielen nicht die ausnahme sondern die regel.
radical83
2016-03-10, 18:47:09
...die Werte passen so.
Habe auch nie was anderes behauptet.
Ich persönlich freue mich zwar über den Geschwindigkeitszuwachs der Radeons, allerdings ist es auch nur eine Momentaufnahme.
Bisher ist noch nicht abzusehen ob Nvidia nicht doch etwas Performance rausholen kann. Hitman ist wirklich sehr gut auf AMD optimiert worden. Mit der zur Verfügung stehenden Manpower der grünen Softwareabteilung könnten sich die Werte eventuell zu einem späteren Zeitpunkt auf das bisher bekannte Niveau angleichen.
Die Einflussnahme des Marktführers auf andere Spieleentwickler will ich dabei noch nicht einmal thematisieren.
Abwarten und schauen ob das Ergebnis bestand hat und AMD es auch wiederholen kann heißt die Devise.
aufkrawall
2016-03-10, 18:54:44
Aber wahrscheinlich darf man sowas von AMD gesponserten Spielen zur Zeit nicht verlangen.
Ich wär mal skeptisch, ob DX12 mit den bisherigen NV-GPUs dieses Jahr überhaupt irgendeinen Vorteil bringen wird. Stell dich besser auf harte Zeiten ein. ;)
Troyan
2016-03-10, 19:01:32
Wieso? Bis jetzt kennst du nur AMD gesponserte Spiele. Mit Quantum Break und Forza stehen die nächsten Microsoft-Spiele an. Und wenn Gears of War ein Zeichen ist, wieviel Wert Microsoft auf AMD legen würde, dann sieht es auf der anderen Seite nicht besser aus.
radical83
2016-03-10, 19:11:15
Gears of War läuft anscheinend auch auf Geforce alles Andere als zufriedenstellend.
Meiner Meinung nach sind auch alle in den nächsten Wochen erscheinenden Titel eher Nischenprodukte. Entweder auf Grund des gewählten Genre/Settings (RTS/Stealthgame im Episodenformat) oder disqualifiziert sich durch Microsofts Inkompetenz und ihren Windows-Store.
Einzig Forza werden, durch das F2P Modell und den großen Name, sicherlich einige ausprobieren wollen.
Blediator16
2016-03-10, 19:12:46
GOW und DX12 in einem Satz ist natürlich immer lustig
Hübie
2016-03-10, 19:24:44
War GoW nicht einfach nur drangepapptes Featureset? Wer weiß was die Engine schon alles abstrahiert... Ne du. Da geb ich nix drauf. :D
Mit DX12 scheint die Fragmentierung noch stärker zu werden, da wohl die wenigsten Entwickler Lust (okay Zeit&Geld) haben, nach den Rules für zehn Architekturen zu programmieren.
Was meinst du? Die Render API wird sowieso nochmal wegabstrahiert dafuer gibt es in der UE das RHI (Rendering Hardware Interface). Natuerlich muss man den ganzen D3D12 Kram trotzdem dagegen implementieren
blaidd
2016-03-10, 19:32:07
Habe auch nie was anderes behauptet.
Das hab ich auch nicht so verstanden, ich wollte es nur noch mal anmerken.
Ich hab noch Tahiti hinzugefüht (da geht nur 1080p mit hohen Texturen), Performance-Gewinn durch DX12 meh, und die R9 390X in DX12 einmal durchgejagt - hui! ;)
http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/DirectX-12-Benchmark-Test-1188758/
So ich hab jetzt keinen Bock mehr, kann nicht jeden Tag zwei Überstunden machen. Morgen sehn wir weiter.
Daumen hoch fuer die Nachmessungen
Aber eine Anmerkung noch: wenn annaehernd der komplette Artikel zeilenweise gelb hinterlegt ist, wird es anstregend zu lesen. Warum ist das keine etwas weniger-aufdringlich-gelbe Box ohne die weisesn Zeilenabstaende?
blaidd
2016-03-10, 19:48:56
Daumen hoch fuer die Nachmessungen
Aber eine Anmerkung noch: wenn annaehernd der komplette Artikel zeilenweise gelb hinterlegt ist, wird es anstregend zu lesen. Warum ist das keine etwas weniger-aufdringlich-gelbe Box ohne die weisesn Zeilenabstaende?
Ich muss da eh nochmal dran, der sieht jetzt aus wie Clusterfuck... geht mal gar nicht - ich tipp's bei Gelegenheit neu ;)
Achill
2016-03-10, 19:50:11
Das hab ich auch nicht so verstanden, ich wollte es nur noch mal anmerken.
Ich hab noch Tahiti hinzugefüht (da geht nur 1080p mit hohen Texturen), Performance-Gewinn durch DX12 meh, und die R9 390X in DX12 einmal durchgejagt - hui! ;)
http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/DirectX-12-Benchmark-Test-1188758/
So ich hab jetzt keinen Bock mehr, kann nicht jeden Tag zwei Überstunden machen. Morgen sehn wir weiter.
Die Werte sehen gut aus für die AMD Karten und man sieht auch, dass NV besonders bei der 980TI von DX12 Profitiert (bei 1080p).
Habt ihr mit oder ohne aktivierten Power Efficiency bei AMD's 300tern getestet?
blaidd
2016-03-10, 19:57:47
Die Werte sehen gut aus für die AMD Karten und man sieht auch, dass NV besonders bei der 980TI von DX12 Profitiert.
Habt ihr mit oder ohne aktivierten Power Efficiency bei AMD's 300tern getestet?
Power Efficiency hab ich ausgemacht, den Punkt werde ich morgen mal ergänzen und mal mit aktivierter Power Efficiency vergleichen. Obwohl es da noch ein paar Seltsamkeiten gibt, bei der Nano ist der Schalter nicht vorhanden, bei Hawaii ist er mir mehrfach aus dem Menü verschwunden. Ich hab mal ein Auge drauf, nicht, dass die Radeons so ein bisschen cheaten... Wobei die Nvidia-GPUs ja auch bis ins Nirvana boosten dürfen.
Schnoesel
2016-03-10, 20:03:01
Also meiner Meinung nach sind die jüngsten Resultate das Ergebnis mehrerer Faktoren:
1. Die neuen Engines sind nun auf die Konsole angepasst. Daher hat es auch lange gedauert, bis der Konsolendeal Wirkung hatte. Alle neuen Engines (Frostbite/Dunia (ohne Gameworks)/Snowdrop/Cryengine) scheinen schon recht gut mit den GCN umzugehen auch unter DX 11.
2. GCN war im GPU Limit nie schwach aber der Overhead in niedrigen Auflösungen hat Ihnen immer zu schaffen gemacht (tut es teilweise immer noch). Da hat Nvidia einfach entweder besser gearbeitet oder es ist architekturbedingt bei AMD nicht mehr möglich.
3. AS spielt AMD in die Hände. Es ist kein Überfeature aber es kann die paar % rausholen die man oftmals zurücklag.
So oder so werden wir sehen, dass sich in Sachen Performance beide wieder stärker annähern und ich hoffe es zahlt sich für AMD aus. Es kann nicht schaden 2 starke Wettbewerber zu haben, nur dann bewegt sich was.
radical83
2016-03-10, 20:03:01
Ich hab noch Tahiti hinzugefüht (da geht nur 1080p mit hohen Texturen), Performance-Gewinn durch DX12 meh(...)
So ich hab jetzt keinen Bock mehr, kann nicht jeden Tag zwei Überstunden machen. Morgen sehn wir weiter.
Naja, was heißt hier "meh". Die 280 kann sich deutlich von einer GF960 distanzieren. Das Tahiti nicht mehr sonderlich von DX12 profitieren kann, war aufgrund der älteren Architektur zu erwarten.
Danke für deine Mühe, auch wenn mache mit den Ergebnissen unzufrieden sind so wissen es alle hier zu schätzen.
Kommt morgen noch eine Hawaii mit 4GB dran? Würde mich interessieren ob 8GB Vorteile bei diesem Spiel bringt.
dargo
2016-03-10, 20:12:10
Ich hab noch Tahiti hinzugefüht (da geht nur 1080p mit hohen Texturen), Performance-Gewinn durch DX12 meh, und die R9 390X in DX12 einmal durchgejagt - hui! ;)
Im GPU-Limit werden Tahitis kaum bis gar nicht durch DX12 profitieren, das war vorhersehbar. Viel interessanter sind für Tahiti CPU-Limits. ;)
Locuza
2016-03-10, 20:24:41
Im GPU-Limit werden Tahitis kaum bis gar nicht durch DX12 profitieren, das war vorhersehbar.
Warum? :)
dargo
2016-03-10, 20:28:16
Wie schon Schnoesel gesagt hat. Die neuen Engines lasten Tahiti bereits sehr gut unter DX11 aus. Zudem hat Tahiti nur 2 ACEs. Ergo wird er nur geringfügig @DX12 von AC profitieren. Ich erwarte keine zweistelligen Zuwächse.
Locuza
2016-03-10, 20:44:30
Braucht es denn mehr als 2 ACEs?
Warum lasten die Engines Tahiti unter DX11 ausreichend aus, aber Hawaii nicht?
(Die ACEs mal seperat gesehen)
Vermutlich weil das Frontend oder insb. der GCP relativ zum Backend nicht so stark gewachsen ist oder sich entwickelt hat
dargo
2016-03-10, 21:21:02
Warum lasten die Engines Tahiti unter DX11 ausreichend aus, aber Hawaii nicht?
Wie kommst du darauf? Hawaii oder besser gesagt Grenada Pro ist im DX11 Renderpfad bei Hitman in 1080p 49% vor Tahiti XT, bei 1440p dürften es knapp über 50% sein. Hier passen die Verhältnisse ganz gut. Bei DX12 liegt Grenada Pro sogar 64% vor Tahiti in 1080p. Hier machen sich die 8 ACEs also durchaus bemerkbar, die letzten "Lücken" werden gefüllt. Also ich sehe nicht, dass Hawaii schlecht unter DX11 ausgelastet ist. Es dauerte halt etwas bis die neuen Engines kommen und die Spiele speziell auf GCN dank neuen Konsolen optimiert sind. Das war bei den "Hybridspielen" aus Last-Gen/Next-Gen Konsolen noch anders.
][immy
2016-03-10, 21:22:13
Sind 60 FPS limits eigentlich ein DX12 Ding? Wenn ja, na dann gute Nacht DX12. Jeder Gamer weiß das auch höhere FPS dem Spielgefühl gut tun, auch wenn die Refreshrate des Monitors nur 60 Hertz beträgt.
Was aber nur daran liegt das der Input-Lag ein paar Frames beträgt. In einem Interview zur xbox und DX12 hat MS mal angedeutet das sie anstreben ohne double- oder gar triple-buffering auszukommen. D.h. bei 60fps hättest du dann eine maximale Verzögerung von ~16ms und nicht wie heute üblich 3-4 Bilder später die Eingaben erst zu sehen. Ich glaube zwar nicht das sie das wirklich schaffen, es würde aber schon reichen die Verzögerung auf maximal 1 Bild zu begrenzen, so das ein Zeitfenster von ~32ms bliebe bis die Signale auch beim Spieler in Form des Bildes ankommen. Natürlich muss man hier noch die Verzögerung mit einrechnen die der Monitor braucht. Aber generell geht es darum, je weniger Bilder dazwischen liegen, desto besser.
Nichts anderes simulierst du eigentlich wenn du bei einem 60Hz Monitor eine Framerate > 60fps hast. Du reduzierst nur die Zeit bis die Eingaben sichtbar umgesetzt wurden.
Troyan
2016-03-10, 21:38:43
Gears of War läuft anscheinend auch auf Geforce alles Andere als zufriedenstellend.
Dank dem Capturing-Tool kann man ja nun auch außerhalb von Benchmarks mal mitmessen.
Das ermittle ich in Gears of War mit meiner GTX980TI in 1440p mit allen an ohne MB. Wahrscheinlich läuft es sogar ziemlich gut, wenn ich die Frames auf 16,6ms (60FPS) beschränke, da hier im kurzen Auszug fast alle Spikes noch darunter bleiben...
Locuza
2016-03-10, 21:49:32
Vermutlich weil das Frontend oder insb. der GCP relativ zum Backend nicht so stark gewachsen ist oder sich entwickelt hat
Darüber gibt es leider keine genauen Infos, wie sehr AMD den Command-Processor jeweils verbessert und anpasst und ob das eine große Rolle spielt. (Polaris setzt jedenfalls Hand an)
Abseits davon ist das Frontend aber doppelt so breit und versorgt pro Modul nur 11 CUs, statt 16 wie bei Tahiti.
Dazu noch Verbesserungen bei den Geometry-Prozessoren.
Jedenfalls in der Beziehung hat AMD gute Schritte unternommen für eine weitere Skalierung oder gar bessere Auslastung.
Wie kommst du darauf? Hawaii oder besser gesagt Grenada Pro ist im DX11 Renderpfad bei Hitman in 1080p 49% vor Tahiti XT, bei 1440p dürften es knapp über 50% sein. Hier passen die Verhältnisse ganz gut. Bei DX12 liegt Grenada Pro sogar 64% vor Tahiti in 1080p. Hier machen sich die 8 ACEs also durchaus bemerkbar, die letzten "Lücken" werden gefüllt. Also ich sehe nicht, dass Hawaii schlecht unter DX11 ausgelastet ist. Es dauerte halt etwas bis die neuen Engines kommen und die Spiele speziell auf GCN dank neuen Konsolen optimiert sind. Das war bei den "Hybridspielen" aus Last-Gen/Next-Gen Konsolen noch anders.
Ich meinte das in Bezug auf DX11 vs. DX12.
Und würde die Sache eher beim Shader-Array suchen und möglicherweise dem CP.
Die ACEs sehe ich nicht als Grund an, bei Ashes gab es für Tahiti die gleichen Vorteile wie bei Hawaii, Tonga hat am wenigsten profitiert:
http://www.computerbase.de/2016-02/ashes-of-the-singularity-directx-12-amd-nvidia/3/
2 zusätzliche queues sollten auch schon ausreichen, um den größten Performancegewinn zu bringen. Es wird sowieso seit jeher nur eine verwendet und damit wird schon der ganze Chip fast vollständig ausgelastet.
Das ist der größte Punkt, neben dem CPU-Flaschenhals, wo auch Tahiti prinzipiell profitieren sollte.
fondness
2016-03-10, 21:50:42
@aufkrawall:
NV braucht gar kein AC. Da ist die Auslastung eh schon gut optimal. Einzig die Probleme bei AC sollte NV lösen, wenn man dort eher Performance verliert als gewinnt.
Das ist eine vollkommen falsche Annahme.
Ich wär mal skeptisch, ob DX12 mit den bisherigen NV-GPUs dieses Jahr überhaupt irgendeinen Vorteil bringen wird. Stell dich besser auf harte Zeiten ein. ;)
Ach, NV hat im Grunde alles richtig gemacht. Sie haben es ein weiteres mal geschafft, eine GPU zu bauen, die maximal zwei Jahren hält und dann die Leute wieder zum aufrüsten zwingt.
Ach, NV hat im Grunde alles richtig gemacht. Sie haben es ein weiteres mal geschafft, eine GPU zu bauen, die maximal zwei Jahren hält und dann die Leute wieder zum aufrüsten zwingt.
Zwingen ist zu übertrieben. Ohne Async Compute geht zwar Performance verloren, aber nicht so dramatisch viel, als dass die Games in Zukunft unspielbar werden.
Troyan
2016-03-10, 22:12:48
Genau, sagt der AMD Mensch, der auf CR und ROV verzichten darf. :rolleyes:
Genau, sagt der AMD Mensch, der auf CR und ROV verzichten darf. :rolleyes:
Die Situation ist finde ich etwas vergleichbar mit der Tessellation Schwäche von Cypress damals :). Cypress konnte Tessellation, jedoch nicht besonders gut. Ähnlich verhält es sich bei Maxwell und Async Compute. Im Prinzip kann Maxwell es, aber weil ständig Context Switches vorgenommen werden müssen, ist es nicht wirklich brauchbar.
Troyan
2016-03-10, 22:26:37
Die Situation ist nicht vergleichbar. Tessellation ist immer schneller auf Cypress als wenn es über die CPU gemacht wird.
Warum läuft Gears of War auf nVidia hardware erheblich schneller? Der Entwickler hat keine Optimierung auf AMD Hardware vorgenommen. Man muss eben immer betrachten, dass der Entwickler mehr Aufwand unternehmen muss. Das wird in Zukunft noch richtig lustig werden.
Screemer
2016-03-10, 22:28:16
Nicht vergleichbar. Die queues werden eben nicht asynchron abgearbeitet. Es wird also kein AC in hw unterstützt. Die queues dann dann aneinander zu Reihen ist das einzige was NV übrig bleibt. Maxwell AC Support anzudichten bringt da auch nix. Genau so verhält es sich mit CR und rov bei AMD.
aufkrawall
2016-03-10, 22:31:10
Warum läuft Gears of War auf nVidia hardware erheblich schneller?
Doch nur auf der 980 Ti, oder nicht?
Gibts einen Benchmark, wo die 390X gegen die 980 bei den avg-fps schlecht aussieht?
fondness
2016-03-10, 22:35:27
Mit dem Crimson 16.3 wohl kaum.
Mir geht es nicht wirklich um die technischen Hintergründe, sondern was am Ende bei rauskommt.
Tessellation an bei Cypress: Zum Teil deutlich weniger FPS als die Konkurrenz. Also hat man es lieber ausgelassen.
Async Compute an bei Maxwell: Weniger FPS, während es bei der Konkurrenz mehr wird. Also lässt man es lieber aus.
Troyan
2016-03-10, 22:39:58
GTX980 erreicht ~30FPS (http://wccftech.com/amd-radeon-crimson-16-3-drivers/) in 4K mit allen Effekten. Fury X liegt bei ca. 25FPS (http://www.overclock3d.net/reviews/gpu_displays/gears_of_war_ultimate_edition_pc_performance_retest_with_amd_crimson_16_3_driver s/5).
GTX960 ist ebenfalls deutlich schneller als die 380 in 1080p: http://www.overclock3d.net/reviews/gpu_displays/gears_of_war_ultimate_edition_pc_performance_retest_with_amd_crimson_16_3_driver s/2
Blediator16
2016-03-10, 22:49:35
GOW, Gameworks und DX12. Die beste Kombination, die man haben kann in einem Satz. GOW ist ein riesen PR Reinfall bitte halte dich noch länger am Strohhalm fest.
Und Tess. mit AC vergleichen ist natürlich auch total sinnvoll :)
Troyan
2016-03-10, 22:56:26
Hitman ist technisch genauso schlecht wie GoW, wenn man The Division dagegen setzt.
Screemer
2016-03-10, 23:02:54
Ich lach mich tot. Jetzt geht's aber mal echt los. Nutzt Hitman auch ne 7 Jahre alte engine mit angeflanschtem Firlefanz?
Blediator16
2016-03-10, 23:24:06
Ich persönlich finde Hitman auch ziemlich hässlig würde es aber nicht auf eine Stufe mit GOW setzen. Devision sieht um Welten besser aus.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.