Archiv verlassen und diese Seite im Standarddesign anzeigen : DirectX 12 Grafik-API
Kriton
2015-03-06, 09:56:33
http://8pic.ir/images/veemhqc286k5isfbl9i2.jpg
Dank dem etwas komischen Mix kommt Maxwell auf DX12.1 Feature-Level.
Interessant ist, dass alle anderen höheren Tiers scheinbar einfach extra sind.
Unity hat eine Shadow spezifische Sache geportet, die Ergebnisse waren 23 ms für DX11 und nur 13ms für DX12. (CPU)
Before:
http://i.imgur.com/hHpDEkW.png
After:
http://i.imgur.com/Mgn9k19.png
Es wurde noch einmal die Asteroid-Demo von Intel demonstriert, allerdings mit einem weiteren Update, Bindless und ExecuteIndirect, wenn ich es richtig verstanden habe.
Die Ergebnisse sind Wow ;)
http://i.imgur.com/vHf9DrH.png
Und ganz zum Schluss Fable Legends, welches dank UAV barriers ~20% auf der GPU-Seite schneller läuft.
Was die 3D-Sache angeht, klingt das alles sehr super.
Offen bleiben aber noch Details bezüglich UMA-SoCs und wie sich letztendlich DirectCompute weiter entwickelt.
Diese feature levels nerven. Wo finde ich denn hier binding tiers? Oder verlassen mich meine Englischkenntnisse?
Locuza
2015-03-06, 13:03:36
http://forums.anandtech.com/showthread.php?t=2422223
Hier noch einmal das Binding-Table:
http://s29.postimg.org/hsmlfnv7b/rbt.jpg
Und hier der relevante quote von zlatan:
NV Fermi: Max UAV is limited to 8 -> TIER1
NV Kepler: Max UAV is limited to 8 -> TIER1
NV Maxwellv1: Max UAV is limited to 8 -> TIER1
NV Maxwellv2: SRVs/stage is limited to 2^20 -> TIER2
Intel Gen7dot5/Gen8: the universal hardware binding table is limited to 255 slot -> TIER1
[Jede GCN GPU Tier 3]
fondness
2015-03-06, 13:14:54
Stimmt der quote jetzt von Zlatan oder nicht?
Locuza
2015-03-06, 13:31:51
Das GCN Tier 3 ist sollte stimmen.
Wenn ich das hier richtig deute, stimmt das mit Tier 1 bei Haswell auch (Page 21):
https://01.org/linuxgraphics/sites/default/files/documentation/intel-gfx-prm-osrc-hsw-commandreference-structures.pdf
Wie das mit Nvidia aussieht, keine Ahnung.
Kartenlehrling
2015-03-06, 13:52:51
Viel wichtiger wär zu wissen was das für die Spiele bedeute, funktionieren werden doch die ganzen Funktionen auch mit einer HD7970 und GTX780/Titan.
Jedenfallst hatte damals Microsoft vor 2 Jahren DX11.2 mit Tiled Resources (Mars- und doppelrumpf Flugzeug Demo) auf einer Titan gezeigt.
Wie können ja alle die Demo testen ... die geht bis Tier2 anschein.
C++
typedef enum _D3D11_TILED_RESOURCES_TIER {
D3D11_TILED_RESOURCES_NOT_SUPPORTED = 0,
D3D11_TILED_RESOURCES_TIER_1 = 1,
D3D11_TILED_RESOURCES_TIER_2 = 2
} D3D11_TILED_RESOURCES_TIER;
Constants
D3D11_TILED_RESOURCES_NOT_SUPPORTED
Tiled resources are not supported.
D3D11_TILED_RESOURCES_TIER_1
Tier_1 tiled resources are supported.
The device supports calls to CreateTexture2D and so on with the D3D11_RESOURCE_MISC_TILED flag.
The device supports calls to CreateBuffer with the D3D11_RESOURCE_MISC_TILE_POOL flag.
If you access tiles (read or write) that are NULL-mapped, you get undefined behavior, which includes device-removed.
Apps can map all tiles to a single "default" tile to avoid this condition.
D3D11_TILED_RESOURCES_TIER_2
Tier_2 tiled resources are supported.
Superset of Tier_1 functionality, which includes this additional support:
On Tier_1, if the size of a texture mipmap level is an integer multiple of the standard tile shape for its format, it is guaranteed to be nonpacked.
On Tier_2, this guarantee is expanded to include mipmap levels whose size is at least one standard tile shape. For more info, see D3D11_PACKED_MIP_DESC.
Shader instructions are available for clamping level-of-detail (LOD) and for obtaining status about the shader operation.
For info about one of these shader instructions, see Sample(S,float,int,float,uint).
Reading from NULL-mapped tiles treat that sampled value as zero. Writes to NULL-mapped tiles are discarded.
https://msdn.microsoft.com/library/windows/apps/dn280435
D3D11_TILED_RESOURCES_TIER enumeration
https://code.msdn.microsoft.com/windowsapps/Direct3D-Tiled-Resources-80ee7a6e
Direct3D tiled resources sample
Locuza
2015-03-06, 14:04:59
Twitter ist cool:
https://pbs.twimg.com/media/B_X6zFsUIAAKzSh.jpg:large
https://twitter.com/scottwasson/status/573640283427987456/photo/1
Das ganze führt aber auch dazu, dass man noch vorsichtig gegenüber zlatans Aussagen sein sollte.
Soweit ich mich erinnere meinte er async compute läuft sehr gut auf einem Broadwell, dass es überhaupt nicht läuft, verstehe ich nicht unter läuft sehr gut. :freak:
Unicous
2015-03-06, 14:05:15
@fondness
Das dürfte soweit stimmen, aber ob z.B. GCN 1.2 raster ordered views und conservative rasterization beherrscht, ist fraglich. GCN "1.3" wird es wahrscheinlich können und Tonga könnte zumindest conservative rasterization beherrschen, aber AMD hat es nicht angegeben.
Die Frage ist auch, inwiefern AMD das "emulieren" könnte. Es wurde nämlich glaube ich auch behauptet (von zlatan?), dass GCN flexibel genug ist.
@Loocuza
Das ist eigentlich viel lustiger:
Haswell IGP is limited to 2GB of virtual address space. @AndrewLauritzen says it's "already fixed in Broadwell."
https://twitter.com/scottwasson/status/573643317402951680
Locuza
2015-03-06, 14:15:58
Ich denke zu GCN IP v8 gehört Tonga, Carrizo und Fiji.
Ob es Unterschiede beim Feature-Set gibt? Vielleicht.
Aber ich glaube für Tonga wurden schon ROVs und CR spekuliert, es wäre vom Datum her auch in der Nähe von Maxwell Gen 2, also möglich.
Ob ältere GCN GPUs es per Treiber etwas anders lösen könnten?
Das ist ja die gute Frage, es gibt immerhin 4 Tiers was CR angeht, kein Support, Tier 1, Tier 2 und Tier 3.
Für Feature-Level 12_1 ist nur Tier 1 erforderlich.
Da braucht man noch etwas Infos, worin sich die Tiers unterscheiden.
Das mit Haswell ist für den Consumer ziemlich egal.
Besser ist es natürlich dennoch, dass Broadwell das ganze erhöht.
Bald kommt auch Skylake, da wird es noch einmal interessant, was Gen 9 drauf hat.
Kriton
2015-03-06, 16:15:25
Danke für den Link - irgendwie habe ich "ressource binding tiers" übersehen. :redface:
In Deinem verlinkten Post geht er IMHO ausschließlich auf die ressource binding tiers ein. D.h. seine Aussagen zur Kompatibilität würde ich auch ausschließlich darauf beziehen.
D.h. nur Maxwell ab v2 und AMD ab GCN bieten überhaupt erst einmal DX 12.0.
Zu DX 12.1 sagt er scheinbar gar nichts. Oder irre ich irgendwo?
Troyan
2015-03-06, 16:31:10
Maxwell v2 und GCN ab 1.1 unterstützen Feature Level 12_0.
Maxwell v2 darüber hinaus noch 12_1.
@Loocuza
Das ist eigentlich viel lustiger:
https://twitter.com/scottwasson/status/573643317402951680
Was daran neu sein soll weiß ich nicht. Normalerweise sind das immer maximal 1,7 GB gewesen auf Haswell und älteren Intel Gens, sofern sie es mit letzten Treibern nicht auf 2 GB angehoben haben. In Zeiten von 64 bit und 8-16 GB RAM Systemen hätten sie das Limit längst entfernen können. Auch wenn das in der Praxis für Haswell ausreichend war. Wahrscheinlich hatten sie es nicht für wichtig erachtet bis dato aus dem Grund.
Rente
2015-03-06, 17:51:07
Danke für den Link - irgendwie habe ich "ressource binding tiers" übersehen. :redface:
In Deinem verlinkten Post geht er IMHO ausschließlich auf die ressource binding tiers ein. D.h. seine Aussagen zur Kompatibilität würde ich auch ausschließlich darauf beziehen.
D.h. nur Maxwell ab v2 und AMD ab GCN bieten überhaupt erst einmal DX 12.0.
Zu DX 12.1 sagt er scheinbar gar nichts. Oder irre ich irgendwo?
Nach den bisherigen Informationen unterstützen doch auch ältere Karten (Fermi und Kepler)
DX12, allerdings eben nur FL11.0 und bestimmte neue Funktionen die eben den Overhead stark senken können (ExecuteIndirect z.B.).
Hab ich das missverstanden?
Kriton
2015-03-06, 17:55:57
Falls zlatan Recht hat, dann erreicht weder Fermi, Maxwell Gen 1 noch Haswell/Broadwell Feature-Level 12.
Wobei ich mich dann wahrlich frage, was der DX12 Support auf solchen Chips bedeutet.
Sagt er in seinem "FAQ":
- Is D3D12 require new hardware?
No! The API will works fine with the existing GPUs if the D3D12 driver exist for them.
Reiner SW-Support.
Ob ältere GCN GPUs es per Treiber etwas anders lösen könnten?
Möglicherweise, so scheint es:
- Are these new features will require new hardware?
The best answer is yes and no. This is a complicated question, and hard to answer it when the specs are not public. But let's say Typed UAV Load will require hardware support. The GCN based Radeons can support it, as well the Maxwell v2 (GM206/GM204) architecture. Maybe more hardware can access the feature from NVIDIA, but I don't know because they don't disclose what possible with Maxwell v1/Kepler/Fermi. Intel might support it, but I'm not familiar with these iGPUs.
But many of these new features can be... I don't want to say emulated, but some workaround is possible. So even if the hardware support is not present, the actual effect might be executable on all GPUs. Of course, these workarounds will have some performance hit.
Wieso? Binding Tier 2 wird wohl vollkommen ausreichend sein. Alles andere unterstützt Maxwell v2 vollständig...
Laut der Folie deckt Tier 2 auch fast 50% des heutigen Marktes ab und wird in den nächsten Monaten massiv zulegen. Richtige Entscheidung.
Ich verstehe Dein Argument nicht. Weil derzeit 50% abgedeckt werden schneide ich DX 12.1 explizit darauf zusammen? Hätte man genauso auf DX 12.0 mappen können. Generell finde ich dieses 12.0/12.1 Grütze.
Maxwell v2 und GCN ab 1.1 unterstützen Feature Level 12_0.
Maxwell v2 darüber hinaus noch 12_1.
Da Du GCN nicht mehr erwähnst: Willst Du sagen, dass GCN kein 12.1 kann?
Hier hast Du noch differenziert:
GCN 1.0 - API DX12 mit FL 11_1
Nur Tiled Ressources Tier 1 soweit ich weiß
GCN 1.1 - API DX12 mit FL12_0
kein ROV und Conservative Rasterization
Was ist mit GCN 1.2 (Tonga)?
Nach den bisherigen Informationen unterstützen doch auch ältere Karten (Fermi und Kepler) auf dem Papier DX12, allerdings eben nur FL11.0 und bestimmte neue Funktionen die eben den Overhead stark senken können (ExecuteIndirect z.B.).
Hab ich das missverstanden?
Nein, ich habe das auf den genannten HW-Support bezogen. Wobei ich nicht wie das mit dem overhead aussieht. Ich habe das eher für ein SW-Thema gehalten was nicht explizit in HW unterstützt werden müsste.
Hübie
2015-03-06, 21:07:24
Ohne jetzt nachgesehen zu haben: 8 UAVs is D3D10. Kepler und Fermi sind doch aber fullspec D3D11. Ohne jetzt .1 .2 oder .3 zu nennen. 64 UAVs sind aber afaik Grundbestandteil der D3D11-Spec.
Ehrlich gesagt verliert man aber langsam den Überblick wer sich nun wie nennen darf. Da liegt ne Menge Zeug im Pool und so wie ich das beurteilen kann wird das A) zu Marketingzwecken vergewaltigt und B) nur zu kleinen Teilen in modernen Spielen genutzt. Frostbite ist da neben CE immer noch am weitesten. (UE4 kann ich mangels Wissen nicht beurteilen.)
Kartenlehrling
2015-03-09, 14:50:08
Es war doch abzusehen, dass die aktuellen Karten "nur" vom geringeren Overhead profitieren, nicht aber neue Rendering-Techniken beherrschen.
Aber die aufgezählten DX12 Hardware Feature müsste doch selbst eine AMD HD5870 können, ich verstehe das langsam auch nicht.
http://www.pcgameshardware.de/screenshots/original/2015/03/GDC_DX12_003-pcgh.JPG
Hat sie nicht. Der fehlen allein die ganzen bindless Sachen und conservative raster.
][immy
2015-03-10, 08:08:09
Aber die aufgezählten DX12 Hardware Feature müsste doch selbst eine AMD HD5870 können, ich verstehe das langsam auch nicht.
http://www.pcgameshardware.de/screenshots/original/2015/03/GDC_DX12_003-pcgh.JPG
Wie Coda schon schrieb, es ist nicht alles vorhanden. Nicht alle Features die jetzt aussehen wie ein pures Software-Update betreffen auch wirklich nur die Software. Es gibt gewisse Hardware-Voraussetzungen. Mantle gab es ja auch nur für GCN-Chips.
Kartenlehrling
2015-03-10, 09:42:00
Muss ich so glauben, 2008 wurde zb. conservative raster erst mal presentiert und von Nvidia Fermit gtx4xx als erster Chip genannt der es offizell unterstützt.
Locuza
2015-03-10, 09:54:24
Gab es schon viel früher, z.B. auf einer Geforce FX 5x00 :tongue:
http://http.developer.nvidia.com/GPUGems2/gpugems2_chapter42.html
Seit es programmierbare Shader gibt, kann man das meiste sowieso erreichen.
Praktischen Sinn macht das allerdings ohne angepasste Hardware nicht immer.
Entsprechend lässt Nvidia folgende Info in ihrem CR GL-Sample verlauten:
Note that conservative rasterization can also be achieved on older hardware using a combination of a special geometry and pixel shader as described in the GPU Gems 2 article below, but in many cases this incurs considerable performance overhead. Hardware conservative rasterization has roughly the same performance as normal rasterization (it generates more fragments, and so might be slightly slower).
http://docs.nvidia.com/gameworks/content/gameworkslibrary/graphicssamples/opengl_samples/conservativerasterizationsample.htm
Hübie
2015-03-10, 09:57:51
Hast nicht ganz Unrecht, aber:
Note that conservative rasterization can also be achieved on older hardware using a combination of a special geometry and pixel shader as described in the GPU Gems 2 article below, but in many cases this incurs considerable performance overhead. Hardware conservative rasterization has roughly the same performance as normal rasterization (it generates more fragments, and so might be slightly slower).
Und genutzt hats wohl niemand (in Spielen).
][immy
2015-03-10, 11:09:25
Hier noch mal eine kleine Zusammenfassung im DirectX Dev Blog:
http://blogs.msdn.com/b/directx/archive/2015/03/10/directx-12-looking-back-at-gdc-2015-and-a-year-of-amazing-progress.aspx
Tier 1 : Nvidia Fermi, Intel Haswell et Broadwell
Tier 2 : Nvidia Kepler et Maxwell 1/2
Tier 3 : AMD GCN
http://www.hardware.fr/news/14135/gdc-d3d12-guerre-specs-vue.html
Unicous
2015-03-18, 00:29:37
Andrew Lauritzen
@ryanshrout In your TitanX review: "full feature-level DX12 support" < what are you basing that statement on curiously?
Ryan Shrout
@AndrewLauritzen Just conversations with NV and MSFT. Basically feature level 12.1.
Andrew Lauritzen
@ryanshrout Ah ok. IHVs aren't really supposed to be talking feature levels so I wasn't sure :) Also there are tiers of several features.
Ryan Shrout
@AndrewLauritzen Right, I'm learning all of that slowly as we go. Makes talking about features of a GPU difficult. :)
https://twitter.com/ryanshrout/status/577971142670958592
Es ist schon wieder die gleiche Scheiße wie zuvor auch. Wie wäre es zur Abwechslung mal mit ein wenig Transparenz.:mad:
StefanV
2015-03-18, 00:37:55
Du meinst jetzt nVidia, oder??
Aber dann wärens doch nicht ganz so 'awesome'...
Dieses 'wir würden gern wie Apple' getue kann man irgendwie nicht wirklich nachvollziehen.
Zumal die nV Produkte auch nicht soo sehr 'Lifestyle' wie ein Mobiltelefon oder ähnliches sind...
Aber hoffen wir mal, dass mehr und mehr Leuten auffällt, was nV hier so abzieht...
Unicous
2015-03-18, 00:53:54
Ich meine vor allem MS. Dass Nvidia vorprescht und genauso wie AMD halbseidene Behauptungen aufstellt ist mir erst einmal egal.
Aber diese eklige Salamitaktik ist ganz großer Müll und nichts weiter als Schmierentheater seitens MS.
Ist die Spec fertig? Ja oder nein? Welche Hardware unterstützt konkret was. Und mit unterstützt meine ich nicht, dass im Treiber ein beschissenes Flag gesetzt wird.
Dass Lauritzen wieder rumheult, weil er sich benachteiligt fühlt, geht mir zwar auch tierisch auf den Sack, aber es zeigt eben wie Microsoft auf Geheimniskrämer macht, während die Spieleindustrie darauf wartet, dass sie endlich mal die ganze Wahrheit ausspucken.
Locuza
2015-03-18, 01:20:47
Ist die Spec fertig? Ja oder nein?
Jaein. :wink:
Fusion_Power
2015-03-18, 01:21:19
Am Ende zählt eh nur ob DX12 in der Praxis wirklich schneller läuft als die Vorgänger. Sowas ist ja nicht selbstverständlich. Es gibt heute noch genug Beispiele wo Spiele in DX9 viel besser performen als in DX11, bei manchmal nur unmerklichen Grafikeinbußen (Aktuell z.B. Cities Skylines ). Dabei sollte die neue Grafikpracht unter neuem DX ja vorzugsweise eben ohne Geschwindigkeitsverluste von statten gehen, zumindest bei gleicher Optik.
DX12 verspricht zwar allgemein verbesserte Leistung aber ob das dann in Der Praxis wirklich so eintrifft muss sich zeigen. Nicht dass dann Games im betagten DX9 mode immer noch merklich schneller sind als in DX12. :D
Locuza
2015-03-18, 01:29:22
Bei DX12 ist das bei gleicher Grafikqualität schon selbstverständlich.
dargo
2015-03-18, 08:08:49
Am Ende zählt eh nur ob DX12 in der Praxis wirklich schneller läuft als die Vorgänger. Sowas ist ja nicht selbstverständlich. Es gibt heute noch genug Beispiele wo Spiele in DX9 viel besser performen als in DX11, bei manchmal nur unmerklichen Grafikeinbußen (Aktuell z.B. Cities Skylines ).
Dann liegt es aber nicht an der API!
-/\-CruNcher-/\-
2015-03-18, 11:50:18
Du meinst jetzt nVidia, oder??
Aber dann wärens doch nicht ganz so 'awesome'...
Dieses 'wir würden gern wie Apple' getue kann man irgendwie nicht wirklich nachvollziehen.
Zumal die nV Produkte auch nicht soo sehr 'Lifestyle' wie ein Mobiltelefon oder ähnliches sind...
Aber hoffen wir mal, dass mehr und mehr Leuten auffällt, was nV hier so abzieht...
Richtig böse wird das ganze verwirrspiel wenn man sich die Specs sheets von GM204 anschaut und da steht
12 API
und hier steht plötzlich bei GM200
12 API with Feature Level 12.1
Loeschzwerg
2015-03-19, 06:50:29
Richtig böse wird das ganze verwirrspiel wenn man sich die Specs sheets von GM204 anschaut und da steht
12 API
und hier steht plötzlich bei GM200
12 API with Feature Level 12.1
Da hat halt einer das Datenblatt noch nicht auf den aktuellen Stand gebracht.
Kriton
2015-03-19, 18:30:45
Vielleicht bekomme ich ja in diesem Thread eine Antwort :biggrin:
Zumindest Ressource Binding Tier 3 fehlt, wie allen NV-GPUs.
Ist das überhaupt eine DX 12.X Anforderung?
http://8pic.ir/images/veemhqc286k5isfbl9i2.jpg
Da geht es ja nur bis Tier 2 (bereits auf 12.0).
Unicous
2015-03-19, 18:45:45
Es ist laut MS keine Anforderung für das Feature Level 12.10.
Es könnte aber Voraussetzung für ein hypothetisches Feature Level 12.2 sein.:wink:
Loeschzwerg
2015-03-19, 19:36:15
Da blickt langsam echt keine Sau mehr durch bei dem M$ Chaos :freak:
Unicous
2015-03-19, 19:37:32
Da blickt langsam echt keine Sau mehr durch bei dem M$ Chaos :freak:
Dude. That's what I'm trying to tell you guys.:freak:
Locuza
2015-03-19, 20:15:44
Durchblicken kann man es schon, leider nur soweit wie die Infos es zulassen.
Es wäre vielleicht besser gewesen, gewisse Details nicht einzeln hinzuschmeißen, wie die Feature-Levels, ohne die Informationen, welche Hardware nun was unterstützt.
So kenne ich die Anforderungen, aber nicht wer sie erfüllt.
Kartenlehrling
2015-03-19, 20:29:08
Ich habe gerade eben noch auf der AMD Seite gelesen, da wurde behaupte das die HD7970 DX11.2 kann,
wieviel DX12 ist denn nun DX11.2 wenn Nvidia Kepler DX11.1 kann und das nicht mal vollständig?
Weil wie will man sonst auf 50% DX12 fähige Grafikkarten kommen aus 2014?
Locuza
2015-03-19, 23:41:31
Wenn es nach dem Support ginge, haben wir schon seit mehreren Jahren DX 11 fähige Hardware, mit einem Marktanteil von 99,9%.
Dank Feature-Level 9_1.
https://msdn.microsoft.com/en-us/library/windows/desktop/ff476876%28v=vs.85%29.aspx
Das gleiche bei DX12.
DX12 ist nur eine Runtime, welche unterschiedliche Hardware ansprechen kann und MS fasst ein Minimum an Features, als Feature-Levels zusammen, damit man einen Mindestlayer hat.
Darüber hinaus gibt es aber noch die Möglichkeiten einzelne Features, als Tiers abzufragen und zu verwenden, dass kann über die Anforderungen vom Feature-Level hinaus gehen.
Man schaue sich DX11.2 an.
Es gibt kein Feature-Level 11_2, es geht nur bis 11_1.
Dazu kam aber das Feature Tiled Resources Tier 1 und 2.
Kepler unterstützt Tier 1, also was mache ich dort?
Ich verwende die DX11.2 Runtime, nehme das Feature-Level 11_0 (Weil Kepler unterstützt nicht 11_1) und kann darüber hinaus extra Tiled Resources Tier 1 verwenden.
Fertig ist die Soße.
Wie viel DX11.x nun DX12 ist kann man schwer sagen, bzw. gar nicht, denn es hängt von der Hardware ab.
Letztendlich wird DX12 wieder viele unterschiedliche Feature-Levels anbieten und auch ein fettes Software-Update für alte Hardware darstellen.
Kartenlehrling
2015-03-20, 21:31:02
http://www.computerbase.de/2015-03/3dmark-fuer-directx-12-und-mantle-ab-dem-26.-maerz/
3DMark für DirectX 12 und Mantle ab dem 26. März
Troyan
2015-03-20, 23:58:06
DirectX 12 and DirectCompute:
http://on-demand.gputechconf.com/gtc/2015/video/S5561.html
basix
2015-03-21, 09:31:53
DirectX 12 and DirectCompute:
http://on-demand.gputechconf.com/gtc/2015/video/S5561.html
Interessante Präsentation. Da wird auch mal wieder deutlich, was Parallelität bringt und wie wichtig das Vermeiden von Leerlauf (inkl. Lückenfüller) sowie möglichst wenig Daten herumschieben sind.
...Wardell sagte, dass bei DirectX 11 und früheren Versionen immer nur ein Prozessor-Kern die GPU ansprechen konnte. Das hätte aber niemand zugegeben, weder Microsoft noch Intel oder AMD wollten laut Wardell eingestehen, dass DirectX 11 "extrem unfähig" sei, Mehrkern-Architekturen effektiv zu nutzen, was sich aber mit DX12 endlich ändern werde...
... Denn das würde bedeuten, dass man auch bekannt geben müsste, dass viele Jahre nur ein Prozessor- Kern Zugriff auf die GPU hatte. Wardell: "Niemand will zugeben: 'Ach übrigens, kennt ihr Multi-Core-CPU? Sie war für eure Spiele nutzlos."
interessante Zusammenfassung & die wichtigsten Folien auf
http://winfuture.de/news,86363.html
alle zugehörigen Folien:
http://www.zdnet.com/article/amd-and-nvidia-get-ready-for-next-gen-directx-12/
Kartenlehrling
2015-03-25, 00:16:49
Trotzdem wird sich das aber nicht prozentual zur CPU-Kernzahl änderen,
wenigsten nicht in den nächsten 3 Jahr.
Nur weil es auf 16 Threads verteil wurde, muss es nicht effektiv sein.
Gaestle
2015-03-25, 11:46:45
Klingt für mich als Laien nach Marketing.
Denn natürlich gab es schon von DX12 Spiele, die von Mehrkern-CPUs profitierten (auch wenn es vielleicht nicht optimal war und vielleicht auch manuell eingebaut werden musste). Von "nutzlos" kann also wahrscheinlich keine Rede sein, auch wenn DX12 in diesem Aspekt vielleicht Fortschritte macht.
dargo
2015-03-25, 11:59:00
Die beiden Folien bei Golem WinFuture sagen eigentlich schon alles, Marketing hin oder her.
Locuza
2015-03-25, 12:14:40
Klingt für mich als Laien nach Marketing.
Wardell hat als CEO entweder wenig Ahnung von der Materie oder keine Selbstachtung.
Die beiden Folien bei Golem sagen eigentlich schon alles, Marketing hin oder her.
"Chart for illustrative purposes only" ist nun aber wirklich nicht so überzeugend.
Da nehme ich dann lieber eine echte Anwendung zur Hand:
http://media.redgamingtech.com/rgt-website/2015/03/dx11vsdx12-performance.jpg
Kartenlehrling
2015-03-25, 12:31:34
Morgen gibt es erstmal einen neuen Penis-Meter ... vielleicht kann man da schon sehen wohin die Entwicklung geht.
Hübie
2015-03-25, 12:31:58
Die Praxis zeigt was anderes. Problem ist einfach dass man mit D3D11 mehr umgehen muss statt einen direkten Weg zu gehen. So wie mit batches der draw calls. Wenn ich das richtig verstanden habe braucht D3D11 auch einen "worker-thread" der die Hauptlast trägt und Aufgaben verteilt. Weiterhin wird nichts parallel abgesetzt sondern sequenziell. Wobei da Abstände von mehreren 100 microsekunden wohl nicht so ins Gewicht fallen. Erst in der Summe machts dann den Unterschied. Also "nutzlos" ist da eindeutig die falsche Wortwahl. Ich beobachte JEDES Spiel anfangs in puncto Energiebedarf, CPU-Auslastung, Threadverteilung und GPU-Auslastung. Wenn immer nur 1/6 bzw. 1/12 genutzt werden würden wäre mir das glaub ich aufgefallen.
dargo
2015-03-25, 12:37:37
"Chart for illustrative purposes only" ist nun aber wirklich nicht so überzeugend.
Da nehme ich dann lieber eine echte Anwendung zur Hand:
http://media.redgamingtech.com/rgt-website/2015/03/dx11vsdx12-performance.jpg
Ist doch nichts anderes. Deutliche Entlastung vom ersten Thread + Reduzierung des API Overheads mit entsprechenden Ergebnis... ca. halbierte ms.
Locuza
2015-03-25, 13:07:55
Nichts anderes, außer das mir eine echte Anwendung lieber ist, als ein Fantasy-Chart.
Kartenlehrling
2015-03-26, 14:46:46
... erst blick hat AMD einen leichten vorteil.
http://www.computerbase.de/2015-03/3dmark-sieht-directx-12-vor-mantle-und-amd-vor-nvidia/#diagramm-3dmark-intel-core-i7-3960x
3DMark sieht DirectX 12 vor Mantle und AMD vor Nvidia
dildo4u
2015-03-26, 14:58:52
Und man sieht schön wie grottig die DX11 Multithread Performance gegenüber NV ist,wird Zeit das dort was verbessert wird laut Coda wird lange nicht jeder DX12 nutzen.
http://abload.de/img/dx1mulitf2k1w.png
Dural
2015-03-26, 15:06:05
Da hat wohl AMD schon fleissig wegen Mantel Optimiert :confused:
Diese Entwicklung können wir alle nur begrüssen.
dargo
2015-03-26, 15:14:18
Hmm... interessant dabei finde ich, dass Mantle offenbar noch etwas effizienter mit Drawcalls umgeht als D3D12 bei CPUs mit mehr als 8 Threads. :uponder: Erklärung? Bis 8 Threads liegt D3D12 wiederum leicht vorne.
Kartenlehrling
2015-03-26, 15:19:23
Das war doch schon vor einem Jahr ersichtlich,
jedenfalls hat damals die erste DX12 Folie, mir das gezeigt.
Hier diese Folie meine ich ...
http://www.computerbase.de/forum/attachment.php?attachmentid=411982&d=1396531906
dargo
2015-03-26, 15:20:40
Muss ich wohl übersehen haben.
HarryHirsch
2015-03-26, 15:35:47
Und man sieht schön wie grottig die DX11 Multithread Performance gegenüber NV ist,wird Zeit das dort was verbessert wird laut Coda wird lange nicht jeder DX12 nutzen.
http://abload.de/img/dx1mulitf2k1w.png
und man sieht schön die grottige zukunftstauglichkeit der 980 :uwave:
derguru
2015-03-26, 16:13:01
über die 980gtx bin ich auch erstaunt ,katastrophal gegenüber einer r9 290x aber schön zusehen wie mies die dx11 amd performance ist vor allem im multi.
Armaq
2015-03-26, 16:17:33
Ich bin total baff, dass früher mal gesagt wurde, Faktor 10-15 ist nicht möglich etc. Hier sehen wir Faktor 20 auf einem 12 Kerner und einer 290X.
Ich hätte liebend gerne eine "Spiel"erei, die diese DrawCalls in etwas Witziges umsetzt - Garry's Mod für Mantle bspw.
Welche Auswirkungen das bei SC haben wird, das interessiert mich viel eher.
Aufzeigen wie viel besser DX12 als DX11 ist, ist ja keine große Sache. Viel eher, was die " Entwickler " damit besser machen können.
SC eignet sich ja da besonders gut, als direkten Vergleich. Stellt sich mir nur die Frage, ob bis Ende des Jahres bereits DX12 in der Beta verfügbar ist, oder doch erst wenn das Game in die Closed übergeht und beim Release erst direkte Vergleiche gemacht werden können.
Als " Zocker " interessiert einem nur die gewonnene Leistung.
dildo4u
2015-03-26, 16:48:00
und man sieht schön die grottige zukunftstauglichkeit der 980 :uwave:
Ich schätze mal das die Drawcalls in echten Game's bei einem so hohen Limit unter DX12 kein Einfluss auf die Performance haben werden,das es bei DX11 Multi der Fall ist kann man öfter sehen.(Dying Light,Projekt Cars,WoW etc)
Ist das Selbe mit Tesselation so lange die GPU halbwegs was kann gibt's keine Probleme siehe alte AMD's vs 285.
This graph could not make it anymore clear. The AMD Radeon R9 285 barely takes a performance hit turning on Enhanced Godrays, just like the GeForce GTX 980!
The reason for this is the fact that the Radeon R9 285 GPU (Tonga) is a newer version of GCN than the AMD Radeon R9 290/X GPUs. Tonga GCN version received improvements to tessellation, and other factors, that architecturally improve performance in a feature like this. The video card itself is slower, underpowered, gimped by memory bus and speed. However, the tessellation improvements are paying off big time in terms of Enhanced Godray performance in Far Cry 4. This shows how much one GCN version can vary from another
http://www.hardocp.com/article/2015/01/12/far_cry_4_graphics_features_performance_review/2#.VRQp_OHfqRI
Game's die DX12 am PC wirklich ausreizen dürften selten sein da viele Entwickler Konsolenversionen mit anbieten müssen damit es sich überhaupt rechnet.
HarryHirsch
2015-03-26, 17:05:07
pcworld bench 290x vs titan x (http://www.pcworld.com/article/2900814/tested-directx-12s-potential-performance-leap-is-insane.html)
http://abload.de/img/dx12_api_perf_mantle-bgu34.png (http://abload.de/image.php?img=dx12_api_perf_mantle-bgu34.png)
http://abload.de/img/dx12_api_perf_4770k_t1rulq.png (http://abload.de/image.php?img=dx12_api_perf_4770k_t1rulq.png)
dildo4u
2015-03-26, 17:42:38
960 OC kommt an eine 980 ran hat nix mit der Gesamtperformance zu tun,der Test nutzt bewusst keine Shadereffkte und 720p.
https://youtu.be/O_6PxugCBa0?t=5m31s
dargo
2015-03-26, 17:54:17
pcworld bench 290x vs titan x (http://www.pcworld.com/article/2900814/tested-directx-12s-potential-performance-leap-is-insane.html)
http://abload.de/img/dx12_api_perf_mantle-bgu34.png (http://abload.de/image.php?img=dx12_api_perf_mantle-bgu34.png)
http://abload.de/img/dx12_api_perf_4770k_t1rulq.png (http://abload.de/image.php?img=dx12_api_perf_4770k_t1rulq.png)
Löl? Wie kommt es plötzlich, dass die Titan X hinter der R9 290X unter DX11 liegt? X-D
StefanV
2015-03-26, 17:57:31
Löl? Wie kommt es plötzlich, dass die Titan X hinter der R9 290X unter DX11 liegt? X-D
ev. anderer Treiber bei beiden Tests?
Und was kann man eigentlich alles bei dem 'Drawcall Test' einstellen??
dargo
2015-03-26, 17:59:13
ev. anderer Treiber bei beiden Tests?
Und natürlich stärkere CPU. Bei dem von Dildo rausgesuchten wurd ein Core i3 genutzt. Und hier ein Core i7 mit, wenn ichs richtig gesehen habe, 4 Kernen und SMT...
Na... bei CB wurde auch ein i7-4770K getestet, nur halt mit ner GTX980.
Wirklich interessant wäre das ganze bei 'nem i7 mit deaktiviertem SMT bzw i5...
Öhm... mal auf den Link von HarryHirsch klicken?
Godmode
2015-03-26, 18:00:53
Wenn nichts gerendert wird, geht es ja nur um den Treiberoverhead, wenn ich das richtig verstehe.
dargo
2015-03-26, 18:13:22
Wenn nichts gerendert wird, geht es ja nur um den Treiber API overhead, wenn ich das richtig verstehe.
fixed
Und natürlich wird was gerendert, schließlich sieht man im Video jede Menge Objekte. :tongue: Nur halt ohne den ganzen Kram wie Shader, Texturen etc.
Edit:
Hat da schon jemand Fiji oder nur Tippfehler? :D
Der API-Overhead-Test läuft unter Windows 7, Windows 8 sowie Windows 10 und ist mit allen Grafikkarten kompatibel, die mindestens DX11 unterstützen. Wir haben den neuen Feature-Test kurz daheim unter Windows 8.1 x64 mit einem Core i7-3770K und einer Radeon R9 390X ausprobiert.
http://www.golem.de/news/benchmark-neue-3dmark-szene-testet-api-overhead-1503-113193.html
fondness
2015-03-26, 18:35:29
Da hatte jemand ein déjà vu: ;)
http://s24.postimg.org/kp9svzxqd/CBBu9_COWw_AAPz_ZB_jpg_large.jpg (http://postimage.org/)
https://twitter.com/renderpipeline/status/581086347450007553
HarryHirsch
2015-03-26, 18:41:09
tippfehler, die karten kommen doch erst in ein paar jahren
HarryHirsch
2015-03-26, 19:37:16
test auf pcper.com (http://www.pcper.com/reviews/Graphics-Cards/3DMark-API-Overhead-Feature-Test-Early-DX12-Performance)
Kartenlehrling
2015-03-26, 19:45:11
Und wieder bremst HT,
wobei man schon heute sowieso als Gamer HT bei einem 6 bzw. 8 Core deaktiviert.
dargo
2015-03-26, 19:50:39
Und wieder bremst HT,
https://cms-images.idgesg.net/images/article/2015/03/dx12_performance_simulated_cpus_updated-100575301-orig.png
:rolleyes:
und man sieht schön die grottige zukunftstauglichkeit der 980 :uwave:
Du glaubst doch wohl selber nicht, dass sich bis Release nichts mehr tut. DX12, Treiber, Win 10 - alles noch Beta.
Kartenlehrling
2015-03-26, 19:52:04
@dargo
Wenn schon richtig Zitieren!!
dargo
2015-03-26, 20:01:05
@dargo
Wenn schon richtig Zitieren!!
Wo siehst du da HT bremsen? Das einzige was man sieht ist, dass die GTX980 bei einem i7-5960X bereits bei 6 Cores @HT Off schon am Limit ist. Mehr Drawcalls kann sie gar nicht mehr performant genug verarbeiten. Gleiches gilt für die R9 290X. Nur, dass diese 22% vorne liegt. Das wird sich aber sicherlich noch bis zum finalen Windows 10 und optimierten Treibern zwischen den beiden IHVs angleichen.
Futuremark hat im Whitepaper übrigens folgenden Satz fett markiert:
The API Overhead feature test is not a general-purpose GPU benchmark, and it should
not be used to compare graphics cards from different vendors.
http://www.futuremark.com/downloads/3DMark_Technical_Guide.pdf
Natuerlich ist das ein reiner CPU-Test.
y33H@
2015-03-26, 20:48:48
http://www.futuremark.com/downloads/3DMark_11_Whitepaper.pdfDu hast das vom 2011er verlinkt.
Du hast das vom 2011er verlinkt.
Danke für den Hinweis. Ist geändert :redface:
Hübie
2015-03-27, 02:44:45
Also ich habe jetzt mal diesen ollen Test vom 3D Mark laufen lassen. Kann das Ergebnis aber überhaupt nicht interpretieren, da mir aus der Praxis die Mengenrelation fehlt. Wieviel draw calls setzt denn so eine Engine ab. Also 3,5 Mio klingt erst mal nicht wenig. Klar sind 11 Mio in DX12 besser, aber wenns (noch) nicht relevant ist bleib ich locker.
Vielleicht entwickelt man in Studios auch schon mit dem Wissen dass D3D11 da irgendwo seine "Wand" hat. Dann machts natürlich keinen Sinn das Ergebnis zu übertragen.
Der Test belastet die komplette CPU nur mit Draw Calls. Normal möchte man auch noch andere Dinge machen.
Hübie
2015-03-27, 03:41:41
Damit wir uns verstehen: Meine CPU ist nicht wirklich ausgelastet bei diesem Test. Gäbe es dennoch keinen Spielraum mehr für andere Dinge?
http://abload.de/img/3dmark_drawcallsd3rt8.png (http://abload.de/image.php?img=3dmark_drawcallsd3rt8.png)
M4xw0lf
2015-03-27, 07:13:54
Der Test belastet die komplette CPU nur mit Draw Calls. Normal möchte man auch noch andere Dinge machen.
Aber die Drawcall-Leistung wird trotzdem vom Grafiktreiber und/oder der GPU begrenzt, sonst dürften die Ergebnisse sich ja nicht unterscheiden, richtig?
fondness
2015-03-27, 09:21:42
Aber die Drawcall-Leistung wird trotzdem vom Grafiktreiber und/oder der GPU begrenzt, sonst dürften die Ergebnisse sich ja nicht unterscheiden, richtig?
Natürlich spielt der Treiber-Overhead dabei eine Rolle.
Troyan
2015-03-27, 10:15:54
PCPer hat mehrere Karten verglichen. Und eine GTX960 ist erheblich langsamer als eine GTX980 und eine r9 285. Es limitiert hier eher das Front-End als der Treiber.
HarryHirsch
2015-03-27, 10:39:39
mit ner dicken cpu ist man auch schnell im gpu limit. da hilft dann nur ne zweite karte oder auflösung runter.
fondness
2015-03-27, 13:51:57
Test von AnandTech:
http://www.anandtech.com/show/9112/exploring-dx12-3dmark-api-overhead-feature-test
Kartenlehrling
2015-03-27, 14:17:12
Erst wenn ein i7-4770 auf 2500mhz gedrosselt genauso effizient und ruckelfrei läuft wie ein i5-4670@stock mit einer Gtx980, verbeuge ich mich vor Microsoft und AMD.
Und das in einem Spiel bevorzug :) Online.
Locuza
2015-03-27, 19:56:04
Ich habe gestern das DX12 Zeug angeschaut und meinen Durst nach Wissen gestillt, auch wenn die Infos praktisch nicht viel weiter helfen. :redface:
Conservative Rasterization Tier Unterschiede:
Tier 1 supports 1/2 pixel uncertainty regions, and no post-snap degenerates. This is good for tiled rendering, a texture atlas, light map generation and sub-pixel shadow maps.
Tier 2 adds post-snap degenerates, and 1/256 uncertainty regions. It also adds support for CPU-based algorithm acceleration (such as voxelization).
Tier 3 adds 1/512 uncertainty regions, inner input coverage and supports occlusion culling. The input coverage adds the new value SV_InnerCoverage to High Level Shading Language (HLSL). This is a 32-bit scalar integer that can be specified on input to a pixel shader, and represents the underestimated conservative rasterization information (that is, whether a pixel is guaranteed-to-be-fully covered).
https://msdn.microsoft.com/en-us/library/windows/desktop/dn903791%28v=vs.85%29.aspx
Nvidia hat auf der GTC sexy Sachen gezeigt, welche alle CR verwenden:
http://on-demand.gputechconf.com/gtc/2015/video/S5442.html
Nvidia stellt in dem Video 3 "neue" Raster-Methoden vor, für Anti-Alisiang.
ACAA soll im Grunde wie MSAA aussehen, aber weniger Speicher und Bandbreite benötigen. (Gibt paar Problemchen damit, Transparenz wird nicht angegriffen z.B.)
AGAA wirkt auf den G-Buffer, sieht im Grunde auch aus wie MSAA, mit besserer Performance.
FTZIB sieht sehr beeindruckend aus.
Nvidia präsentiert dort, wie sie 32 Samples für Schatten verwenden, ohne dabei mehr als die doppelte Performance gegenüber einem einzigen zu benötigen.
Frisst aber dennoch schon einige ms an Rechenzeit. (GTX 980)
Bei einer Szene von Bungie mit 1,5 Millionen Polys 13,3 ms.
1 Sample 8.4 ms.
http://abload.de/img/conclusionfckb4.jpg
Das Fazit am Ende sagt im Grunde alles.
Die "simplen" Hardware-Änderungen die DX12 voraussetzt, öffnen für Entwickler und IHVs neue und effiziente Türen.
aufkrawall
2015-03-27, 20:10:50
Nur wie siehts mit Aufwand für Fallbacks aus für GPUs, die nicht alle Tiers oder gar keine neuen Hardware-Features unterstützen bzw. überhaupt für einen DX11-Renderpfad?
Auf beyond3d gesehen, für lustig befunden:
https://pbs.twimg.com/media/CBBu9COWwAAPzZB.jpg:large
Loeschzwerg
2015-03-27, 20:25:02
Pssst... (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10569098#post10569098) ;)
Air Force One
2015-03-27, 20:36:25
Test von AnandTech:
http://www.anandtech.com/show/9112/exploring-dx12-3dmark-api-overhead-feature-test
Wie aussagekräftig ist denn die DrawCall Performance?
Dort schneidet ja die 290X besser ab als die GTX980.
Spiegelt sich das dann in allen Spielen wieder das die FPS dann höher ausfällt oder ist das dann so etwas wie reine Tessellation Leistung oder so etwas in der Art?
Sprich...nur wenn es zum Einsatz kommt...
Troyan
2015-03-27, 20:43:25
Siehe hier: https://forum.beyond3d.com/posts/1834187/
Siehe hier: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10569288&postcount=1079
Ergebnisse sind nicht vergleichbar.
aufkrawall
2015-03-27, 20:50:57
Es sei nochmal an Star Swarm erinnert, wo eher ein tatsächliches Spiel simuliert wird, und dort war die 980 mit DX12 offenbar überhaupt nicht durch Draw Calls ausgebremst (und im daraus resultierenden GPU-Limit wesentlich schneller als die 290X).
Troyan
2015-03-27, 20:56:12
Anandtech spekuliert, dass der Command-Prozessor der limitierende Faktor wäre. Wäre dies so, dann dürfte es nicht diesen Abstand zwischen der GTX960 und GTX980 geben:
http://www.pcper.com/files/imagecache/article_max_width/review/2015-03-25/dx12-960.png
http://www.pcper.com/reviews/Graphics-Cards/3DMark-API-Overhead-Feature-Test-Early-DX12-Performance
Ich denke, dass hier bei nVidia das stark parallisierte Front-End zum Overhead neigt, da die einzelnen Eckpunkte auf alle Geometrieeinheiten verteilt werden und diese Verteilung zweimal durchgeführt wird.
Locuza
2015-03-27, 21:11:24
Das glaube ich erst einmal nicht.
Vor allem nicht, auf Basis der bisherigen Software.
Mantle quetscht ja auch noch einige Prozente über DX12 aus.
M4xw0lf
2015-03-27, 21:31:57
Das glaube ich erst einmal nicht.
Vor allem nicht, auf Basis der bisherigen Software.
Mantle quetscht ja auch noch einige Prozente über DX12 aus.
Neulich bei Anandtechs erstem Vorabtest mit Star Swarm unter DX12 hast dus noch geglaubt. (Als die GTX980 deutlich schneller war ;) )
Locuza
2015-03-27, 21:41:12
Star Swarm glaube ich das ja auch eher.
Da hier eine batch Optimierung nachweislich 16% (?) herausgequetscht hat.
Es fehlt natürlich ein ähnlicher Messwert für Nvidia GPUs, aber auf AMD-Seite sah man schon das es nennenswert etwas bringt.
Vom 3DMark halte ich aber definitiv lieber Abstand, was meinen Glauben angeht.
Pssst... (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10569098#post10569098) ;)Ok danke, attention span fail, bei näherem Überlegen habe ich es vielleicht hier sogar zunächst gesehen gehabt und beim Rumsurfen gleich wieder vergessen... :freak:
Ein netter Nebeneffekt solcher Tests könnte ja sein, dass AMD die DX11-Multi-Thread-Nutzung der Treiber etwas verbessert - darf ja nicht sein, dass man im 3DMark auf allen DX11-Systemen immer gegen nVidia verliert :D
aufkrawall
2015-03-27, 21:57:45
Tut man doch nicht, weil unter Win 7 auch Mantle läuft.
Locuza
2015-04-04, 21:38:35
DX12 on Intel:
https://software.intel.com/sites/default/files/managed/4a/38/Efficient-Rendering-with-DirectX-12-on-Intel-Graphics.pdf
Nichts großartig neues, aber immerhin die ganze PDF zu den bekannten Details, wie
- Kein Mulit-Engine Vorteil bei Intel bisher (3D und Compute können nicht parallel abgearbeitet werden)
- Der virtuelle Adressraum bei Haswell ist limitiert, mit Broadwell ist das "gefixed".
Andrew Lauritzen hat im B3D einen Beitrag geschrieben, was man bezüglich DX12 und den Feature-Abfragen erwarten kann:
Anyways for Haswell/Broadwell it's roughly:
- Feature level 11_1
- Tier 1 binding
- ROVs, doubles, OM logic ops are supported
- No conservative raster, additional typed UAV formats, standard swizzle or ASTC
- Half precision (fp16) is supported on Broadwell, but not Haswell
Stuff I don't remember for sure off the top of my head:
- I believe both will ultimately support Tier 1 tiled resources, but may not be reported yet
- PS specified stencil ref is probably not supported on Haswell, don't remember if it is on Broadwell
https://forum.beyond3d.com/posts/1835843/
Lurtz
2015-04-08, 12:35:51
Der Frostbitechef hätte ab Holidays 2016 gerne Win10 + DX12 als Mindestvoraussetzungen:
https://twitter.com/repi/status/585556554667163648
Kartenlehrling
2015-04-08, 12:50:24
Ich glaube das wird hier im Forum keiner Wiedersprechen ...
http://images-cdn.moviepilot.com/image/upload/c_fill,h_360,w_640/t_mp_quality/star-wars-battlefront-star-wars-battlefront-vs-ea-s-open-world-star-wars-game-jpeg-214343.jpg
aufkrawall
2015-04-08, 12:57:25
Da steht 2016, nicht 2015/2016. Also wohl eher BF5, Battlefront kommt dieses Jahr.
Arcanoxer
2015-04-08, 13:01:12
Der Frostbitechef hätte ab Holidays 2016 gerne Win10 + DX12 als Mindestvoraussetzungen:
https://twitter.com/repi/status/585556554667163648
Weil sich DICE ja auch so leicht mit der implementierung von Mantle in der Frostbite Engine getan hat und immer noch Beta, eingestellt oder weiss der Himmel was ist.
Denn macht es natürlich Sinn den Usern Windows 10 und DX12 aufzuschwatzen, weil man mit Vulkan ja nur ein paar Jahre API nahe Erfahrung hätte.
nicht
aufkrawall
2015-04-08, 13:23:36
Erzähl keinen Unsinn. Bei BF4 war der Code im Allgemeinen unfertig und teilweise kaputt. Mit DX11 gibts auch immer noch ähnliche Streaming-Ruckler.
Garden Warfare läuft wesentlich besser (mit jeglicher API, mit Mantle quasi perfekt).
Arcanoxer
2015-04-08, 13:31:33
Mag sein das BF4 mittlerweile gut mit Mantle läuft.
Ich wollte darauf hinaus das man mit Vulkan nicht an Windows 10 gebunden wäre und schon viel mehr Erfahrung aufweisen könnte.
Mantle/Vulkan ist ja auch irgendwie das Kind von DICE. :uponder:
WDDM 2.0 hilft auch bei Mantle/Vulkan.
Arcanoxer
2015-04-08, 13:40:27
WDDM 2.0 hilft auch bei Mantle/Vulkan.
Possible, dass vermagst Du bestimmt besser zu beurteilen.
Bleibt immer noch der Windows 10 exklusiv support.
Und was? Er hat gesagt das er das gern wollte, nicht das sie es machen?
Nicht hinter allem stecken politische Gründe und Verschwörungen. Ich hätte auch gern auf jedem Rechner Windows 10 nächstes Jahr. Macht einem das Leben einfacher.
aufkrawall
2015-04-08, 13:51:12
Ist das so unrealistisch?
Dürfte doch die Port-Kosten senken und auch auf den Konsolen neues möglich machen. Du meinst ja, dass ein Fallback für PRT ein sehr unattraktiver Aufwand wäre, und FB setzt ja schon länger auf etwas wie MT.
PRT ist fast nutzlos, solange es Leute mit Fermi/Kepler-Karten gibt. PRT Tier 1 hat zu viele Einschränkungen. Da hilft auch Windows 10 nichts.
Edit: Wobei, für ihr Terrain würde es evtl. funktionieren.
aufkrawall
2015-04-08, 13:54:05
Ay, das ist bitter. :frown:
Jo, das nervt alle. Das Problem ist, das man undefiniertes Verhalten bekommt wenn aus einer Mip samplen will, die nicht geladen ist. Was man wirklich wollte ist, das automatisch die nächstbeste gröbere Mip benutzt wird. Kann erst Maxwell.
aufkrawall
2015-04-08, 13:57:11
Wahrscheinlich auch erst Maxwell 2.0?
Thx für die Erläuterung.
Ja, Maxwell 2.0. Was auch fehlt ist, das der Sampler einem antwortet ob das angeforderte Mip-Level persistent war oder nicht. Man müsste also immer noch Transform-Feedback über rausrendern machen. Aber das ist das kleinere Problem.
PRT werden wir wohl ironischerweise zuerst bei einem exklusiven Titel für PS4/Xbox One sehen.
del_4901
2015-04-08, 14:07:13
Jo, das nervt alle. Das Problem ist, das man undefiniertes Verhalten bekommt wenn aus einer Mip samplen will, die nicht geladen ist. Was man wirklich wollte ist, das automatisch die nächstbeste gröbere Mip benutzt wird. Kann erst Maxwell. Kann man da keine Dummy-Page drunter mappen? Und dann im Shader entscheiden ob man nochmal neu Sampeln muss?
aufkrawall
2015-04-08, 14:09:07
PRT werden wir wohl ironischerweise zuerst bei einem exklusiven Titel für PS4/Xbox One sehen.
Ist da aber wohl auch nötiger, BF4 kann in 1080p mit 2GB VRAM knackscharfe Texturen darstellen, die man auf den Konsolen nicht findet.
Oder limitiert da die I/O-Performance ohne PRT?
Kann man da keine Dummy-Page drunter mappen? Und dann im Shader entscheiden ob man nochmal neu Sampeln muss?
Die Dummy-Page hat dann aber die falsche Farbe. Oder meinst du einen Kanal der Dummy-Page dafür verschwenden um festzustellen, dass das jetzt nicht gemappt war?
Und selbst wenn, dann müsste man loopen bis man die richtige Mip gefunden hat. Das ist doch sau teuer.
Ist da aber wohl auch nötiger, BF4 kann in 1080p mit 2GB VRAM knackscharfe Texturen darstellen, die man auf den Konsolen nicht findet.
Oder limitiert da die I/O-Performance ohne PRT?
BF4 verwendet größtenteils traditionelles Texture-Streaming. Oder wie meinst du das?
del_4901
2015-04-08, 15:28:21
Die Dummy-Page hat dann aber die falsche Farbe. Oder meinst du einen Kanal der Dummy-Page dafür verschwenden um festzustellen, dass das jetzt nicht gemappt war?
Ich wuerde irgendein 1bit Alpha Format nehmen. Alternativ kann man die MipLevel in einer extra Textur halten.
Und selbst wenn, dann müsste man loopen bis man die richtige Mip gefunden hat. Das ist doch sau teuer. Kommt drauf an, wenn man mehrere Dummies hat, kann man im Dummy selber die gestreamten mips encoden.
aufkrawall
2015-04-08, 16:20:44
BF4 verwendet größtenteils traditionelles Texture-Streaming. Oder wie meinst du das?
Im MP gibts bei der Terrain-MT knackscharfe Texturen auf dem PC und das läuft in 1080p problemlos mit 2GB VRAM.
Mit traditionellem Streaming kommen die Konsolen schon damit nicht mehr mit und die Texturen sind klar schlechter.
BF4 ist ja nur ein Beispiel, das zieht sich eigentlich durch alle Spiele.
Aber es macht wahrscheinlich keinen Sinn, mit PRT nicht auch gleich viel stärker oder komplett auf etwas wie MT zu setzen?
Kartenlehrling
2015-04-09, 01:44:31
Nach dem Nvidia alten sticken Fisch (PCSS) neu aufgewärmt hat bringt AMD und Rockstar Games auch ihre Version davon in GTA5.
Und da sieht man wieder wie lange sowas eigentlich brauch von der Entwicklung bis es ins Spiel einzug nimmt.
http://amd-dev.wpengine.netdna-cdn.com/wordpress/media/2012/10/ContactHardeningShadows11.zip
AMD Contact Hardening Shadows
This sample presents a Direct3D 11/ Shader Model 5.0 accelerated technique that uses non-stationary/dynamic weight matrices for unique per-sample filter weights
(these don’t necessarily represent a separable filter) for a contact hardening shadow effect.
The effect is comparable to PCSS (Percentage-Closer Soft Shadows [Fer05]) but does not suffer from banding or noise artifacts. (Feb 2010)
Locuza
2015-04-09, 02:20:36
Jo, das nervt alle. Das Problem ist, das man undefiniertes Verhalten bekommt wenn aus einer Mip samplen will, die nicht geladen ist. Was man wirklich wollte ist, das automatisch die nächstbeste gröbere Mip benutzt wird. Kann erst Maxwell.
Schade, ich erinnere mich noch, als du zuerst meintest die Limitierung mit Tier 1 wäre nicht so schlimm.
Dann gibt es wohl leider doch mehr.
Sind es speziell diese Punkte?
D3D12_TILED_RESOURCES_TIER_2
Superset of Tier_1 functionality, which includes this additional support:
- On Tier_1, if the size of a texture mipmap level is an integer multiple of the standard tile shape for its format, it is guaranteed to be nonpacked. On Tier_2, this guarantee is expanded to include mipmap levels whose size is at least one standard tile shape. For more info, see D3D11_PACKED_MIP_DESC.
- Shader instructions are available for clamping level-of-detail (LOD) and for obtaining status about the shader operation. For info about one of these shader instructions, see Sample(S,float,int,float,uint).
- Reading from NULL-mapped tiles treat that sampled value as zero. Writes to NULL-mapped tiles are discarded.
https://msdn.microsoft.com/en-us/library/windows/desktop/dn879489%28v=vs.85%29.aspx
Nach dem Nvidia alten sticken Fisch (PCSS) neu aufgewärmt hat bringt AMD und Rockstar Games auch ihre Version davon in GTA5.
Und da sieht man wieder wie lange sowas eigentlich brauch von der Entwicklung bis es ins Spiel einzug nimmt.
Ich weiß nicht wie oft die Technik von AMD eingesetzt wurde und wie oft aktualisiert, aber war Stalker "3": Call of Pripyat nicht einer der ersten Spiele?
Kartenlehrling
2015-04-09, 02:37:34
STALKER: Call of Pripyat war ja einer der ersten DX11 Games somit gut möglich, die alten Consolen haben ja eigentlich alles gebremst.
FC4 und AC:Unity sind ja auch keine DX10 Spiele aber PCSS ist schon 6 Jahre alt.
y33H@
2015-04-09, 08:48:41
Ja, in CoP waren die CHS sowie Tessellation erstmals drin.
51595 51596
http://gamasutra.com/view/news/240629/The_same_V8_with_half_the_weight_One_devs_experience_with_DX12.php
Physical comparisons between software and hardware can be dangerous, but in this case analogies are applicable. Imagine you bought a sports car, it had a big supercharged V8 engine with 500 horsepower, but it weighed 4500lbs. It has a full automatic transmission, stability control, heated seats, big stereo system, navigation, etc. Let’s call this car DX11. It might be a very nice street car, but if you give this thing to a professional (or even amateur) race driver they are going to hate it because fundamentally it's slow.
Now imagine the same V8 engine, but it's in a car that's only 2500lbs. It's a manual transmission, lacks a few of the things like heated seats and all the other luxury items that add weight. The car is technically more difficult to bring to its maximum potential, but it doesn't matter because it's so ridiculously fast and we already had a professional driver anyway.
Locuza
2015-04-30, 21:58:23
Heute gab es viele interessante Sachen für PCler.
Square-Enix hat die neuste Build ihrer LUMINOUS-Studio-Engine präsentiert, welche sie laut Pressemitteilung weiterhin für zukünftige Spiele verwenden wollen.
Damit scheint sich die Spekulation über die Einstellung der Engine nicht zu bewahrheiten.
Nachdem KH3 von Luminous auf UE4 gewechselt ist und FF15 mit einer Hybrid-Engine lief, wo man sich nicht ganz sicher war, wie die Zukunft dieser Engine aussehen wird.
Eine neue Tech-Demo wurde bei der MS Build gezeigt, in Zusammenarbeit mit MS und Nvidia.
Hierdurch wurden mehrere Elemente implementiert.
DX12 und das authentische Darstellen von Tränen und Emotionen.
https://www.youtube.com/watch?v=e1mwhdYZvSE (https://www.youtube.com/watch?v=e1mwhdYZvSE)
Pressemitteillug:
SQUARE ENIX Unveils Real-Time CG Tech Demo Using DirectX 12 at Microsoft Build
World’s Highest Quality Real-Time CG Created with Cutting-Edge Technology
SAN FRANCISCO (April 30, 2015) – Square Enix Co., Ltd. (Square Enix) today announced “WITCH CHAPTER 0 [cry],” a real-time tech demo that utilizes DirectX 12, a Windows10 based new generation API, at the Microsoft Build Developer Conference.
As a part of a research project that studies a variety of next generation technologies, Square Enix conducted extensive research on real-time CG technology utilizing DirectX 12 in collaboration with Microsoft and NVIDIA Corporation. Revealed today as a technology demonstration titled, WITCH CHAPTER 0 [cry], the results of this research will be incorporated into Square Enix’s LUMINOUS STUDIO engine, and is intended for use in future game development.
WITCH CHAPTER 0 [cry], has achieved some of the world’s highest-level quality of real-time CG. It portrays the human emotion of crying-- one of the most difficult representations for existing real-time CG technology. The emotion is displayed in a level of quality which has never been seen before with a real-time CG animated character teemed with life.
WITCH CHAPTER 0 [cry] was created mainly by the developers of AGNI'S PHILOSOPHY – FINAL FANTASY REALTIME TECH DEMO, a tech demo for LUMINOUS STUDIO revealed in June 2012. Square Enix research enabled the real-time CG to feature even more refined graphics and improved processing capabilities in WITCH CHAPTER 0 [cry].
“Our team has always pursued cutting-edge pre-rendered and real-time CG,” commented Hajime Tabata, head of the next-generation technology research project and Division Executive of Business Division II of Square Enix Co., Ltd. “As a part of the technical development, we created this demo using world-class, real-time CG technology with generous support from leading-edge software and hardware providers – Microsoft’s Windows10/DirectX 12 and NVIDIA’s GeForce GTX. The efforts from this project will power future game development as well as FINAL FANTASY XV, currently a work in progress.”
“Square Enix is working on this next-generation research project as a showcase for our technology and creativity which will lead the future of Square Enix,” said Yosuke Matsuda, president and representative director of Square Enix Co., Ltd. “The results will be used to further advance the quality and technical expertise of our games. We will continue to pursue this research on cutting-edge technologies including high-end real-time graphics using the innovative DirectX 12.”
Furthermore, this tech demo was made possible by using NVIDIA GeForce GTX TITAN X-4-way SLI PC.
“We've designed DirectX 12 to deliver industry leading performance across the widest range of form factors and graphic cards,” said Steven Guggenheimer, corporate vice president and chief evangelist at Microsoft. “The work Square Enix is doing plays a valuable role in exhibiting the potential of DirectX 12 to enable even greater innovation and optimized game performance.”
“WITCH CHAPTER 0 [cry] features the most ambitious real-time, cinematic-quality graphics ever undertaken,” said Jen-Hsun Huang, president and CEO, NVIDIA. “Square Enix’s achievement is nothing short of breathtaking. I am delighted that their amazing team turned to the NVIDIA GAMEWORKS EFFECTS STUDIO to help bring WITCH CHAPTER 0 [cry] to life. This is a preview of the beauty and artistry of video games to come.”
Square Enix will continue to drive research and development of new technologies in game development and to provide the world’s highest quality entertainment content to consumers.
The WITCH CHAPTER 0 [cry] demo video showcased at the Microsoft Build Developer Conference can be viewed here: http://channel9.msdn.com/Events/Build/2015/KEY02
The WITCH CHAPTER 0 [cry] will also be showcased at “de:code 2015,” a developer conference hosted by Microsoft Japan, to take place May 26-27 in Tokyo, Japan.
Hier kann man hoffen das DX12 und GameWorks von Nvidia sich nicht auf die Xbox One Version beziehen, sondern auf PC-Releases.
Troyan
2015-04-30, 22:05:56
Die Demo lief auf einem 4-Way TitanX System. Leicht schneller als eine XBox One. :biggrin:
Sah im Stream beeindruckend aus. Hoffentlich veröffentlichen die eine vernünftige Download-Version.
Godmode
2015-04-30, 23:19:54
Die Demo lief auf einem 4-Way TitanX System. Leicht schneller als eine XBox One. :biggrin:
Sah im Stream beeindruckend aus. Hoffentlich veröffentlichen die eine vernünftige Download-Version.
Jetzt wäre interessant, ob das schon mit einem neuen MGPU Rendering Modus gerendert wird, oder ob das nur normales SLI ist?
deekey777
2015-05-01, 07:49:15
http://www.windowscentral.com/new-directx-12-demos-increase-game-frame-rates-and-even-shows-humans-crying
Kombi aus einer Grafikkarte von Nvidia und Intel HD.
dargo
2015-05-01, 08:34:31
Leider nur langweilige Frameraten.
deekey777
2015-05-01, 13:35:31
Leider nur langweilige Frameraten.
Das ist doch das Technologie-Unterforum, oder?
y33H@
2015-05-01, 13:49:43
DX12 erlaubt dGPU und iGPU gemeinsam zu rendern.
Session von Max McMullen samt Video: http://channel9.msdn.com/Events/Build/2015/3-673
Slides: http://video.ch9.ms/sessions/build/2015/3-673.pptx
Demo samt Video in UE4: http://channel9.msdn.com/Blogs/DirectX-Developer-Blog/DirectX-12-Multiadapter-Unreal-Engine-4
Radeonfreak
2015-05-01, 13:54:39
Schön und gut aber was ist bei unterschiedlichen Feature-Sets?
Troyan
2015-05-01, 13:54:41
Erstaunlich, dass Microsoft dauernd nVidia- und Intel-Hardware verwendet.
dargo
2015-05-01, 14:10:22
Das ist doch das Technologie-Unterforum, oder?
Richtig... deshalb vermisse ich Frametimes. Besonders wenn zwei GPUs am werkeln sind. Auch wenns hier kein AFR ist.
Rente
2015-05-01, 15:32:42
Richtig... deshalb vermisse ich Frametimes. Besonders wenn zwei GPUs am werkeln sind. Auch wenns hier kein AFR ist.
Sie haben das das erste Mal gezeigt, gib ihnen noch etwas Zeit und du bekommst sicherlich auch Frametimes.
Auf jeden Fall sind ihnen die Problematiken dabei (PCIe-Bandbreite/-Latenz, Verteilung der Workloads usw.) bewusst, man beachte auch die Antwort auf die 1. Frage am Ende der Session.
DX12 erlaubt dGPU und iGPU gemeinsam zu rendern.
Session von Max McMullen samt Video: http://channel9.msdn.com/Events/Build/2015/3-673
Slides: http://video.ch9.ms/sessions/build/2015/3-673.pptx
Demo samt Video in UE4: http://channel9.msdn.com/Blogs/Directeveloper-Blog/DirectX-12-Multiadapter-Unreal-Engine-4
Danke y33H@, McMullen ist immer wieder sehr angenehm zu verfolgen, der darf gerne auch mehr Sessions/Veranstaltungen führen.
Edit: Hier gibts übrigens noch mal Klarstellungen bzgl. der Ressource Binding Tiers durch McMullen (ab Post #192): DirectX 12 API Preview (https://forum.beyond3d.com/posts/1840365/)
Kartenlehrling
2015-05-01, 15:57:39
Schön und gut aber was ist bei unterschiedlichen Feature-Sets?
Es wird genau ablaufen wie es jetzt schon bei Nvidia PhysX läuft, wenn keine iGPU erkannt wird, muss die CPU die Arbeit mit erledigen.
Das sie erst jetzt mit DX12 damit kommen ist für mich sowieso unverständlich, schon mit der ersten igpu und dem physX stress habe ich micht gefragt wieso sie die iGPU nicht nutzen.
Lucidlogix hatte jahre lang auch mit der iGPU ihr "virtual vsync" damit hin bekommen das die iGPU auch frames mitberechnend.
y33H@
2015-05-01, 16:03:18
Im Beispiel mit der UE4 läuft das Post-Processing auf der iGPU, ohne diese schlicht wie bisher auf der dGPU. Aber nicht auf der CPU ...
Kartenlehrling
2015-05-01, 16:19:44
King of wushu ist doch ein CryEngine free to play mmo für xbone und ps4,
da passt es wenn sie das gleich auch für DX12 bringen.
von wo haben sie es portiert?
wenn sie schreiben " ... 2 engineers > 6 weeks > porting from dx11 to dx12" tadaa dx12 PC Version fertig :) !!
Irgendwie glaub ich es nicht das es so abgelaufen ist, vorallem weil dieses MMO schon für die consolen geplant war,
bei BF4 haben sie ja auch von 6 wochen geschrieben und wir wissen wie lang es wirklich gedauert hat.
Kriton
2015-05-01, 16:35:54
Die Frage ist ja auch wie tief man die Möglichkeiten von DX 12 implementiert.
dargo
2015-05-01, 20:47:00
Sie haben das das erste Mal gezeigt, gib ihnen noch etwas Zeit und du bekommst sicherlich auch Frametimes.
Na da bin ich mal gespannt. Interessant finde ich den Ansatz schon. Ok... mit den lahmen iGPs von Intel ist der Vorteil noch überschaubar. Die APUs werden aber in Zukunft deutlich schneller werden.
Ich finde das ja immer klasse, wenn einem gezeigt wird, was so alles möglich ist, aber dann am Ende nicht wirklich genutzt wird.... außer zu zeigen das es existiert :D
Das ist wie, im Schnee zu pinkeln, aber der Schnee kommt einfach nicht.
dargo
2015-05-02, 08:33:53
Ich sags mal so... es hängt alles mit der Implementierung zusammen bzw. dem Aufwand. Wenn der Spieleentwickler für so ein Feature extra was machen muss haben wir sicherlich schlechte Karten.
Troyan
2015-05-02, 19:50:20
Die Kong of Wushu Präsentation von der Build:
https://www.youtube.com/watch?v=oMf3WCkWaEA
Rooter
2015-05-02, 21:29:58
http://www.windowscentral.com/new-directx-12-demos-increase-game-frame-rates-and-even-shows-humans-crying
Kombi aus einer Grafikkarte von Nvidia und Intel HD.Die Haut sieht aus wie die der Charaktere im Beowulf-Film und damit immer noch ziemlich uncanny. Und ist die ursprüngliche Auflösung des Videos so schlecht oder ist das massiv weichgezeichnet?
So finde ich den Fortschritt gegenüber der zweieinhalb Jahre alten "Agni's Philosophy” irgendwie nicht sooo beeindruckend. :-/
MfG
Rooter
Radeonfreak
2015-05-02, 23:48:10
Und die lief damals auf einer GTX 680. Jetzt braucht es scheinbar 4 Titan X. :freak:
Hübie
2015-05-03, 04:07:27
Höhere Auflösung, mehr Details und wohl der Fakt dass es dieses Mal keine selbstablaufende Demo ist wird wohl dafür gesorgt haben dass eine 680 nicht mehr ausreicht.
-/\-CruNcher-/\-
2015-05-03, 10:14:18
Die Haut sieht aus wie die der Charaktere im Beowulf-Film und damit immer noch ziemlich uncanny. Und ist die ursprüngliche Auflösung des Videos so schlecht oder ist das massiv weichgezeichnet?
So finde ich den Fortschritt gegenüber der zweieinhalb Jahre alten "Agni's Philosophy” irgendwie nicht sooo beeindruckend. :-/
MfG
Rooter
Naja ist schon beindruckender als Beowolf schon alleine daraus heraus das Agnis absolut Virtuel ist sie exestiert nicht Angelina Jolie exestiert.
Agnis ist eine Art Kreatur die lediglich mit hilfe von Photogrametry optimiert wurde :)
Das gilt für alle Square Enix Chars :) und die meisten Asiatischen Approaches.
Während Western Studios eher in die Richtung tendieren komplete Menschen zu Clonen (Activision, Crytek, ect) :)
Multi Adapter support zwischen Nvidia und AMD da bin ich gespannt oder ob nur Intel sich Homogen verhält mit beiden in der Zukunft :D
Und ja die Qualität des Streams ist ziemlich bescheiden
Rooter
2015-05-03, 12:54:51
Naja ist schon beindruckender als Beowolf schon alleine daraus heraus das Agnis absolut Virtuel ist sie exestiert nicht Angelina Jolie exestiert.Nur weil für Agni ein Grafiker Gesicht und Körper "erfinden" musste, während für Grendel eine reale Person eingescannt wurde, ist es nicht unbedingt beeindruckender.
Es geht mir auch eher um die Grafikqualität im Allgemeinen und den (Foto-)Realismus im Besonderen.
MfG
Rooter
-/\-CruNcher-/\-
2015-05-03, 14:29:29
Dann schau dir alte Luminous Demos an da präsentierte Square das schon sehr oft vor allem die CEDEC Demos kann ich da nur wärmstens empfehlen :)
Unicous
2015-05-04, 15:00:19
btw.
Max Mullen
The MSDN docs are based on an earlier version of the spec. A hardware vendor came along with a hardware limitation of 64 UAVs in Tier 2 but meeting all the other specs. We (D3D) didn't want to fork the binding tiers again and so limited all of Tier 2 to 64. My team worked with the hardware vendor in Tier 1 that had the 55K limit to find alternate means of programming the GPU. Micro-optimizing the CPU overhead leads to the 65k limit but there's an alternate path that has slightly more CPU overhead in the state management but overall seems a win given app complexity dealing with 55K. As you might guess, the real hardware limit is 65k in actuality with some reserved for the driver.
My slides are correct and MSDN should be updated soon.
:rolleyes:
https://forum.beyond3d.com/posts/1840365/
Locuza
2015-05-07, 11:57:17
Max hat jetzt auch gesagt, welche Hardware für MultiAdapter bei der UE4 Demo verwendet wurde:
The hardware used in the demo was an Intel 4600 GPU with an NVidia GTX 750. The average utilization of the Intel GPU was 70% and the NVidia GPU was 99%. The demo used a fixed partitioning of the post-processing pipeline, there's room for improvement with dynamic partitioning. Dynamic partitioning also seems necessary to deal with the variety of configurations across all consumer machines, including thermal limits that can vary more from machine to machine than the actual GPU hardware.
https://forum.beyond3d.com/posts/1841555/
Also eine GT2 Lösung habe ich erwartet, aber keine 750 GTX :freak:
Praktisch war das Beispiel dann eher nicht zu gebrauchen.
y33H@
2015-05-07, 12:57:14
Alienware Alpha :D
btw.
:rolleyes:
https://forum.beyond3d.com/posts/1840365/Und dieser Vendor, für den mal wieder die Anforderungen angepasst werden mussten, und der direkt von MS-Programmierern für Workarounds profitieren konnte war, tadaaa, Intel :freak: For the curious, the limitation was on Haswell specifically, related to how the GPU manages binding updates and versioning. Quelle im gleichen Thread (https://forum.beyond3d.com/posts/1840525/)
Dimitri Mayakovsky
2015-05-07, 19:32:19
Und dieser Vendor, für den mal wieder die Anforderungen angepasst werden mussten, und der direkt von MS-Programmierern für Workarounds profitieren konnte war, tadaaa, Intel :freak:
Ach blöd. Sonst wäre doch sofort klar gewesen, wer der Vendor war :freak:
Hätte durchaus auch AMD oder nVidia sein können. Oder S3 oder so :ugly:
Loeschzwerg
2015-05-08, 06:56:14
Oder S3 oder so :ugly:
Das wäre immerhin ein Lebenszeichen :freak:
dildo4u
2015-05-09, 14:36:14
Drawcall Test mit den neuesten Treibern.
http://abload.de/img/drawcalls7ikul.png
http://www.eurogamer.net/articles/digitalfoundry-2015-why-directx-12-is-a-gamechanger
DX12 auf Nvidia scheint jetzt vergleichbar mit Mantle,bei Computerbase lag eine 980 noch bei 13.7Mio Polys.
http://www.computerbase.de/2015-03/directx-12-im-test-vor-mantle-und-amd-vor-nvidia/
dargo
2015-05-09, 14:46:19
R9 290X 140% mehr Drawcalls unter DX11 Multi-Thread als GTX970 :uconf2:
dildo4u
2015-05-09, 14:52:26
Vieleicht ein bug im OS/Treiber ist halt alle noch nich final.
dargo
2015-05-09, 14:57:02
Das wäre aber ein netter Bug für AMD. :tongue: Ich gehe eher von einem Fehler in der Tabelle aus. Bei der FX-CPU tut sich wie erwartet nichts zwischen DX11 Single und Multi.
Mancko
2015-05-10, 12:07:26
DX12 auf Nvidia scheint jetzt vergleichbar mit Mantle,bei Computerbase lag eine 980 noch bei 13.7Mio Polys.
War doch zu erwarten. Die Zahlen werden sich nochmal verbessern. Davon würde ich ausgehen. Wenn Nvidia erstmal anfängt zu optimieren, dann richtig! In jedem Fall ist Mantle total obsolet geworden. Macht keinen Sinn mehr darauf zu setzen, auch für AMD nicht.
Unicous
2015-05-10, 12:15:33
Heißt das im Umkehrschluss, das Vulkan auch obsolet ist?:eek:
Immer diese einfältige Polemik.:rolleyes:
Mancko
2015-05-10, 14:44:28
Heißt das im Umkehrschluss, das Vulkan auch obsolet ist?:eek:
Immer diese einfältige Polemik.:rolleyes:
Du hast mich schon verstanden. Mantle ist obsolet. Vulkan ist für jedermann offen. Sprich AMD konnte seine initialen Pläne nicht verwirklichen. Die Marktrealitäten haben AMD hier eingeholt.
Unicous
2015-05-10, 14:45:38
Mantle wird weiter genutzt, siehe LiquidVR.
FUD debunked.
sealofapproval.jpg
-/\-CruNcher-/\-
2015-05-10, 15:02:31
Mantle ist ja auch effizienter durch die Einschränkungen die Microsoft zwecks gleichheit bei DX 12 aller vornehmen musste ;)
Es wird immer so sein das Nativ APIs effizienter sind weil Microsoft und auch Kronos eben alle bedürfnisse der IHVs berücksichtigen müssen in ihrem Ökosystem ;)
Bei VR wo Latency alles ist und jede ms zählt kann das schon sehr viel bedeuten und einen Vorteil bringen aber das heist nicht das es sich auch für andere sachen wirklich lohnt Kosten/Nutzen relation
Mancko
2015-05-10, 16:08:54
Mantle wird weiter genutzt, siehe LiquidVR.
FUD debunked.
sealofapproval.jpg
Aber nicht mehr mit dem ursprünglichen Scope. Nochmal AMDs ursprüngliche Intentionen haben sich da einfach in Luft aufgelöst wie von mir ursprünglich vorhergesagt und der Grund ist ganz einfach. AMD ist weder in der Position noch finanziell in der Lage so eine Nummer vollumfänglich durchzuziehen. Wenn die anderen nicht mitmachen kann AMD einfach einpacken. So sieht es nun mal aus. In der Zwischenzeit wird aber Nvidia beispielsweise munter weiter am eigenen Ökosystem entwickeln und das knallhart und ohne Rücksicht auf Verluste durchziehen. Die Finanzen sprechen eine sehr eindeutige Sprache was das angeht.
Unicous
2015-05-10, 16:19:10
Das kannst du von außen gar nicht beurteilen. Was AMD mit Mantle 2.0 vorhat haben sie vage umrissen, Mantle 1.0 wurde mit großem man power Einsatz in Vulkan implementiert.
Johan Andersson hat noch vor Veröffentlichung der API seine Vision kundgetan und diese Vision ist Wirklichkeit geworden. Er hätte nicht mit AMD zusammengearbeitet wenn sie diese Vision nicht gestützt hätten. AMD wollte Mantle als Open Standard etablieren hat aber mitbekommen, dass die anderen IHVs das nicht akzeptieren würden. Krhonos die Pionierarbeit in die Hände zu geben und die Spec auszuarbeiten war also die einzige Möglichkeit diese Vision zur Blüte zu führen.
Ich wiederhole also gerne, es ist reine Polemik und FUD.
dildo4u
2015-05-13, 17:39:15
DF hat ihres Drawcall Benches gefixt passt jetzt NV legt unter DX11MT zu.
http://abload.de/img/drawcallslfs9i.png
UPDATE 11/5/15 9:56pm: We had a number of errors in our benchmark results tables below, which we've now corrected. We've also re-benched to ensure that the original data was sound and results have been verified. It is worth pointing out that there can be a variance in results between runs in the order of 10-15 per cent, but the overall trends are clear. Many, many apologies for the confusion.
http://www.eurogamer.net/articles/digitalfoundry-2015-why-directx-12-is-a-gamechanger
Kartenlehrling
2015-05-15, 00:33:43
Auf die Nvidia Liste bin ich gespannt ...
AMD releases list of compatible DirectX 12 graphics cards & APUs
AMD posted a thing or two on its blog about the DX12 API. The blog entry also lists a handy overview of what cards are actually DX12 compatible.
Now very little is new to the list, other then the fact that AMD is confirming DX12 compatibility with products based on the GPU/IGPs below.
Presuming you’ve installed Windows 10 Technical Preview Build 10041 (or later) and
obtained the latest driver from Windows Update, here’s the list of DirectX 12-ready AMD components.
AMD Radeon R9 Series graphics
AMD Radeon R7 Series graphics
AMD Radeon R5 240 graphics
AMD Radeon HD 8000 Series graphics for OEM systems (HD 8570 and up)
AMD Radeon HD 8000M Series graphics for notebooks
AMD Radeon HD 7000 Series graphics (HD 7730 and up)
AMD Radeon HD 7000M Series graphics for notebooks (HD 7730M and up)
AMD A4/A6/A8/A10-7000 Series APUs (codenamed “Kaveri”)
AMD A6/A8/A10 PRO-7000 Series APUs (codenamed “Kaveri”)
AMD E1/A4/A10 Micro-6000 Series APUs (codenamed “Mullins”)
AMD E1/E2/A4/A6/A8-6000 Series APUs (codenamed “Beema”)
http://www.guru3d.com/news-story/amd-released-list-of-compatible-directx-12-cards.html
Unterstützte Desktop-Grafikkarten
GeForce 900: GTX Titan X, GTX 980, GTX 970, GTX 960
GeForce 700: GTX Titan Z, GTX Titan Black, GTX Titan, GTX 780 Ti, GTX 780, GTX 770, GTX 760, GTX 760 Ti (OEM), GTX 750 Ti, GTX 750, GTX 745, GT 740, GT 720, GT 710, GT 705
GeForce 600: GTX 690, GTX 680, GTX 670, GTX 660 Ti, GTX 660, GTX 650 Ti Boost, GTX 650 Ti, GTX 650
Unterstützte Notebook-Grafikkarten
GeForce 900M: GTX 980M, GTX 970M, GTX 965M, GTX 960M, GTX 950M, 940M, 930M, 920M
GeForce 800M: GTX 880M, GTX 870M, GTX 860M, GTX 850M, 840M, 830M, 820M, 810M
GeForce 700M: GTX 780M, GTX 770M, GTX 765M, GTX 760M, GT 755M, GT 750M, GT 745M, GT 740M, GT 735M, GT 730M, GT 720M
GeForce 600M: GTX 680MX, GTX 680M, GTX 675MX, GTX 675M, GTX 670MX, GTX 670M, GTX 660M, GT 650M, GT 645M, GT 640M, GT 640M LE
http://www.computerbase.de/2015-05/windows-10-nvidia-gibt-directx-12-treiber-mit-whql-zertifikat-frei/
Nicht überraschend, aber trotzdem interessant
aufkrawall
2015-05-15, 00:45:00
Für Fermi ist ein Treiber zu Win 10-Release angekündigt. Wieso bist du da gespannt drauf?
Brillus
2015-05-15, 15:31:27
Interesant wäre die Liste wer welches FL hat.
Locuza
2015-05-28, 13:06:19
Catalyst driver 15.200.1023.3 released on Windows update, reports maximum feature level 12_0 on my Radeon R290X.
https://forum.beyond3d.com/posts/1846352/
Bei der DX12 Docu sind übrigens noch eine ganze Menge an zusätzlichen Stichwörtern dazu gekommen:
https://msdn.microsoft.com/en-us/library/windows/desktop/dn770364%28v=vs.85%29.aspx
MaxGPUVirtualAddressBitsPerResource
The maximum number of GPU virtual address bits per resource.
CrossNodeSharingTier
A D3D12_CROSS_NODE_SHARING_TIER enumeration constant that specifies the level of sharing across nodes of an adapter that has multiple nodes, such as Tier 1 Emulated, Tier 1, or Tier 2.
CrossAdapterRowMajorTextureSupported
FALSE means the device only supports copy operations to and from cross-adapter row-major textures. TRUE means the device supports shader resource views, unordered access views, and render target views of cross-adapter row-major textures. "Cross-adapter" means between multiple adapters (even from different IHVs).
VPAndRTArrayIndexFromAnyShaderFeedingRasterizerSupportedWithoutGSEmulation
Whether the viewport (VP) and Render Target (RT) array index from any shader feeding the rasterizer are supported without geometry shader emulation. Compare the VPAndRTArrayIndexFromAnyShaderFeedingRasterizer member of the D3D11_FEATURE_DATA_D3D11_OPTIONS3 structure. In ID3D12ShaderReflection::GetRequiresFlags, see the #define D3D_SHADER_REQUIRES_VIEWPORT_AND_RT_ARRAY_INDEX_FROM_ANY_SHADER_FEEDING_RASTERIZ ER.
ResourceHeapTier
Which tier (1 or 2) the resource heap is stored on, as a D3D12_RESOURCE_HEAP_TIER enumeration constant.
Und auf einer anderen Seite:
https://msdn.microsoft.com/en-us/library/windows/desktop/dn859384%28v=vs.85%29.aspx
TileBasedRenderer
Specifies whether the hardware and driver support a tile-based renderer. The runtime sets this member to TRUE if the hardware and driver support a tile-based renderer.
CacheCoherentUMA
Specifies whether the hardware and driver support cache-coherent UMA. The runtime sets this member to TRUE if the hardware and driver support cache-coherent UMA.
DinosaurusRex
2015-05-28, 19:34:29
Und hier ist das ganze für Laien erklärt erklärt:
https://pbs.twimg.com/media/B7aJ3LMCMAAko_v.png
Troyan
2015-05-31, 20:43:46
Von nVidia:
http://cdn.videocardz.com/1/2015/05/NVIDIA-GTX-980-TI-DX12-900x351.jpg
http://videocardz.com/55786/nvidia-launches-geforce-gtx-980-ti-for-649-usd
Kartenlehrling
2015-05-31, 20:45:22
Wieso steht "Volume Tiled Resource" über "Feature Level 12_1",
heißt daß das es schon 12_2 ist die es aber noch nicht gibt?
Troyan
2015-05-31, 20:48:27
Nein, Tiled Ressources Tier 3 ist optional und gehört weder zu FL12_0 noch zu 12_1.
Kartenlehrling
2015-05-31, 21:03:45
Wieso haben sie es optional gemacht?
3 Jahre alten Tahitis können es doch auch, heißt nur anders "Partially Resident Textures".
Das sind wohl die Zugeständnisse die man Nvidia gegeben hat um die 70% DX12 tauglichkeit zu erreichen.
Troyan
2015-05-31, 21:04:46
Nein, AMD Karten melden zur Zeit nur Tier 2 zurück.
Kartenlehrling
2015-05-31, 21:19:04
Was ist den Tier_3?
Troyan
2015-05-31, 21:30:58
3D Volumen. Das was nVidia dort außerhalb der Feature Levels angegeben hat.
"VPAndRTArrayIndexFromAnyShaderFeedingRasterizerSupportedWithoutGSEmulation" :ulol:
aufkrawall
2015-05-31, 21:44:20
Da wird so mancher deutscher Beamter neidisch.
Troyan
2015-05-31, 21:48:19
Abgesehen vom Name:
Ist das das gleiche, was nVidia bei Maxwell so hervorgehoben?
y33H@
2015-06-01, 00:44:50
Wie meinen? NV hatte bei Maxwell v2 (genauer im Reviewer's Guide der Titan X) das Feature Level 12_1 benannt, aber ohne Details.
Conservative Raster geht per NVAPI auch unter D3D11: https://developer.nvidia.com/content/dont-be-conservative-conservative-rasterization
Troyan
2015-06-01, 01:44:54
Ging mir um das GeometryShader-Passthrough, dass nVidia mit Maxwell v2 eingeführt hat.
Locuza
2015-06-01, 02:12:31
Liest sich etwas unterschiedlich.
GeometryShader Passthrough von Nvidia schreibt von einem effizienteren Vorgang, während beim DX12 Feature es scheinbar darauf abzielt, gar keinen GeometryShader verwenden zu müssen.
Kriton
2015-06-01, 13:32:15
Von nVidia:
http://cdn.videocardz.com/1/2015/05/NVIDIA-GTX-980-TI-DX12-900x351.jpg
http://videocardz.com/55786/nvidia-launches-geforce-gtx-980-ti-for-649-usd
Das liest sich so, als würde man (wieder mal) nur ausgesuchte Features unterstützen.
aufkrawall
2015-06-01, 13:33:41
Das ist wahrscheinlich deine Interpretation.
Kriton
2015-06-01, 13:37:21
Zyniker, der [Subst.], ist ein Schuft, dessen mangelhafte Wahrnehmung Dinge sieht, wie sie sind, statt wie sie sein sollten.
"Ambrose Bierce" (http://de.wikiquote.org/wiki/Ambrose_Bierce)
fondness
2015-06-01, 13:41:54
"VPAndRTArrayIndexFromAnyShaderFeedingRasterizerSupportedWithoutGSEmulation" :ulol:
Wozu gibt es code-completion? X-D
Liest sich etwas unterschiedlich.
GeometryShader Passthrough von Nvidia schreibt von einem effizienteren Vorgang, während beim DX12 Feature es scheinbar darauf abzielt, gar keinen GeometryShader verwenden zu müssen.
Kommt auf's gleiche raus. Wird bei beiden kein GS auf der HW ausgeführt.
AintCoolName
2015-06-01, 19:07:21
In einem Artikel bei hardwareluxx (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/35550-gcn-architektur-soll-komplette-directx-12-featurelevel-beherrschen.html) wird eine Tabelle aufgeführt, die zeigt das alle GCN Versionen alle Featurelevel können sollen.
http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2015/dx12-amd-nvidia-table.png
Es gibt aber keine Quellenangabe wo die Tabelle jetzt genau herkommt.
aufkrawall
2015-06-01, 19:14:51
GCN1 CR in Hardware? :uponder:
Locuza
2015-06-01, 19:21:40
Kommt auf's gleiche raus. Wird bei beiden kein GS auf der HW ausgeführt.
Ich habe laienhaft Nvidias Blogeintrag und sebbis Beitrag verglichen:
Geometry Shader Passthrough (NV_geometry_shader_passthrough):
This extension allows making geometry shaders more efficient in the case where they are pass-through, ie. there is a one-to-one mapping between input and output primitives. In this case, per-vertex attributes are simply copied from the input primitive into the output primitive, and the geometry shader is only used to set per-primitive attributes (like gl_Layer ... ), which can be computed from the input vertex attributes.
https://developer.nvidia.com/content/maxwell-gm204-opengl-extensions
I forgot to explain why this is great. In DirectX 11, you had to use a geometry shader to send different triangles to different render targets. Even a pass through geometry shader (1 triangle out) is roughly 1.6x performance hit on NVIDIA and 2.7x on AMD (in primitive bound cases) according to my test cases (Intel is fast). With this DX12 feature you can directly send triangles to different render targets from the vertex shader, skipping the geometry shader entirely.
https://forum.beyond3d.com/threads/direct3d-feature-levels-discussion.56575/page-10#post-1846466
Liest sich bei Nvidia auf einen speziellen Fall beschränkt, während unter DX12, es sich wie eine allgemeine Möglichkeit liest.
Es gibt aber keine Quellenangabe wo die Tabelle jetzt genau herkommt.
Braucht man auch nicht zu suchen, die ganze Tabelle ist schlicht falsch.
Edit: Oh sieht gar nicht soweit von der Wahrheit entfernt aus, abgesehen von GCN.
Ich erinnere mich die Tabelle mit anderen Einträgen gesehen zu haben.
Wo praktisch nur Fehlinformationen standen.
Nun ist eine Tabelle aufgetaucht, die eine Aufstellung aktueller GPUs von AMD, NVIDIA und Intel zeigt und sie mit den verschiedenen Funktionen von DirectX 12 verknüpft.
Quelle gibt es nicht oder was. HWL ist jetzt nicht gerade als kompetente Seite bekannt, ohne Quelle kann man das vergessen.
GCN1 CR in Hardware? :uponder:
Das ist definitiv falsch. Auch Tiled Tier 3 ist soweit nicht da.
Die Sache ist leider kompliziert dieses Mal. Es gibt nicht nur Feature-Levels sondern auch wieder Caps (Tiers) für alle möglichen Sachen. Und nicht alles ist wirklich so super wichtig.
schreiber
2015-06-04, 11:59:41
http://www.computerbase.de/2015-06/directx-12-amd-bestaetigt-feature-level-12-0-fuer-gcn-grafikkarten/
Bekannt?! Oder ist die Info neu?
y33H@
2015-06-05, 11:45:16
Hab mich an einer Zusammenfassung versucht: http://www.golem.de/news/gcn-architektur-amds-bisherige-grafikkarten-unterstuetzen-kein-d3d12-1-1506-114488.html
Konstruktive Kritik erwünscht, Coda darf den üblichen Tonfall beibehalten ;-)
Lord_X
2015-06-05, 11:46:29
... In einigen PC-Titeln könnte Nvidia per Gameworks Effekte einbauen, die Conservative Rasterization Tier 1 nutzen - denn nützlich ist diese aus Entwicklersicht laut einem Id-Tech-Programmierer... [1]
:D
[1] http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10652455&postcount=1204
http://www.golem.de/news/gcn-architektur-amds-bisherige-grafikkarten-unterstuetzen-kein-d3d12-1-1506-114488.html
y33H@
2015-06-05, 11:51:36
Ha, wusste ich's doch:
52124
Hab mich an einer Zusammenfassung versucht: http://www.golem.de/news/gcn-architektur-amds-bisherige-grafikkarten-unterstuetzen-kein-d3d12-1-1506-114488.html
Konstruktive Kritik erwünscht, Coda darf den üblichen Tonfall beibehalten ;-)
Schöne Zusammenfassung, aber check mal die Präfixe und Namen einiger Radeons – da steht was von "R9 7790" :ugly: und so weiter. Ich bin eh dafür, die Zahlen vor der eigentlichen Zahl sterben zu lassen, das bringt niemanden weiter.
MfG,
Raff
y33H@
2015-06-05, 12:14:09
Ja, elende Präfixe ...
aufkrawall
2015-06-05, 12:23:24
Du drückst dich aber auch darum herum, zu was resource binding tier 3 nützlich wäre.
fondness
2015-06-05, 12:26:22
Solange noch größtenteils Kepler-Karten im Umlauf sind kann man die Features wohl ohnehin noch lange vergessen. Vielleicht wird dann irgendwann 12_0 zum Standard, da die Konsolen das auch supporten.
y33H@
2015-06-05, 12:29:03
@ aufkrawall
Ich hatte ehrlich nichts Konkretes im Kopf und hab in der Stunde mit WiFi am Airport nicht noch mal alle Max McMullen PDFs durchwühlt.
Bin jez noch mal durch die PPTX durch, er nennt u.a. besseres Deferred Renderung mit mehr Texturen und Shadern, sofern ich das richtig verstehe.
Unicous
2015-06-05, 12:41:17
Man braucht das nicht kleinreden, genauso wenig wie man es Nvidia nachsehen kann, dass sie feature level in der Vergangenheit auch nicht interessiert haben und sie auf einmal die Vorreiter der DX 12 Spec sind.
AMD hat hier ein kleines Problem. Fiji wird sicherlich auch nicht 12_1 supporten, da Carrizo und Tonga es auch nicht beherrschen und sie sich den Graphics IP-Level teilen.
Fraglich ist auch, ob AMD genug Zeit hat, alle nötigen Features für die 2016er Generation zu implementieren.
Nvidia könnte hier mal wieder GW instrumentalisieren und ein oder mehrere 12_1 Features nutzen um AMD eins auszuwischen.
Nvidia hat zumindest 2015 12_1 exklusiv für sich...hoffen wir dass diese Exklusivität nur von kurzer Dauer sein wird und AMD mit komplett neuem lineup nachzieht.
Intel klotzt auch ordentlich ran und vllt. beherrscht Cannonlake schon 12_1.
y33H@
2015-06-05, 12:49:02
Es ist halt wie immer: Mal ist der eine und mal der andere vorne ...
Unicous
2015-06-05, 13:00:20
Naja. Eigentlich war sonst Nvidia hinten... was DX anbelangt. Kann mich spontan an kein essentielles feature (bzw. eben "optionales" feature level) erinnern, dass von Nvidia exklusiv über ein Jahr oder mehr gehalten wurde.
Durch Nvidias Marktmacht die im disreken Markt mittlerweile schon bei 77,5% angelangt ist, wird es natürlich immer leichter features durchzudrücken.
Die Situation hat sich also gedreht: Während Nvidia feature levels in der Vergangenheit eher stiefmütterlich behandelt hat, und wie immer wieder zu hören ist, die specs verletzt sind sie jetzt zum Vorreiter avanciert. Und es wird ja (hoffentlich) niemand behaupten, dass 12_1 ein zu vernachlässigendes feature level ist.
Intel prescht wie gesagt auch nach vorn und wir werden sehen, wie es 2016 aussieht.
schreiber
2015-06-05, 13:03:30
Naja. Eigentlich war sonst Nvidia hinten... was DX anbelangt. Kann mich spontan an kein essentielles feature (bzw. eben "optionales" feature level) erinnern, dass von Nvidia exklusiv über ein Jahr oder mehr gehalten wurde.
Pixel und Vertexshader 3.0 hatten sie sehr lange exklusiv. DX9.
Kartenlehrling
2015-06-05, 13:34:02
..., dass sie feature level in der Vergangenheit auch nicht interessiert haben und sie auf einmal die Vorreiter der DX 12 Spec sind.
Auch wenn ich glaube das wir viel schneller Spiele die auf DX12 laufen sehen,
glaube ich aber das der wirkliche wechsel erst in 3-5Jahre sehen werden wo wir wirklich feature_12_1 erleben können.
Sonst hätte Nvidia PCSS Schatten nicht auch 6 Jahre gebraucht.
Locuza
2015-06-05, 13:47:42
Hab mich an einer Zusammenfassung versucht: http://www.golem.de/news/gcn-architektur-amds-bisherige-grafikkarten-unterstuetzen-kein-d3d12-1-1506-114488.html
Konstruktive Kritik erwünscht, Coda darf den üblichen Tonfall beibehalten ;-)
In der ersten Sekunde unabhängig davon, ob dein Artikel sehr gelungen ist oder nicht und auch unabhängig davon, ob hier eine Armada an Experten oder Laien sitzen, ich finde es toll Feedback zu erwünschen.
So gibt es vielleicht weniger Artikel die von DX12 Tier 3 oder DX12_2 reden. :rolleyes:
@ Artikel
AMD und Intel bieten unseren Informationen zufolge nur die ebenfalls erforderlichen Rasterizer Ordered Views (Intel nennt diese Pixelsync) für etwa die Partikeldarstellung
Man könnte hier "unseren Informationen zufolge" etwas ausführen. :)
Jedenfalls gibt neuste Radeon-Treiber keinen ROV Support für GCN Gen 2 zurück:
https://forum.beyond3d.com/posts/1840641/
Es wäre übrigens eine tolle Aufgabe für die Redaktionen der Welt, dass mal bei Tonga Pro auszuführen.
Aber ich vermute das leider keine GCN Version ROVs unterstützen wird.
Daran ändert auch die GL-Pixelsync-Extension von Intel nichts, die AMD unterstützt, aber laut Andrew von Intel unglaublich langsam abläuft.
Troyan
2015-06-05, 14:12:44
Die Diskussion um die Feature Levels sind doch sowieso zweitrangig. Man könnte auch eine 11_0 GPU bauen, die CR und ROVs unterstützt.
... In einigen PC-Titeln könnte Nvidia per Gameworks Effekte einbauen, die Conservative Rasterization Tier 1 nutzen - denn nützlich ist diese aus Entwicklersicht laut einem Id-Tech-Programmierer... [1]
:D
[1] http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10652455&postcount=1204
http://www.golem.de/news/gcn-architektur-amds-bisherige-grafikkarten-unterstuetzen-kein-d3d12-1-1506-114488.html
Toll, genau den Scheiß wollte ich vermeiden.
y33H@
2015-06-05, 16:06:30
Ich nehm dich raus.
del_4901
2015-06-05, 16:44:36
Toll, genau den Scheiß wollte ich vermeiden.
Wenn er sich später blamieren will, soll er mal machen...
y33H@
2015-06-05, 18:39:38
Was meinst du?
EDIT
Ich bat bewusst um konstruktive Kritik ;(
Locuza
2015-06-07, 00:42:30
Haswell with driver 10.18.15.4225 on build 10074.
"Intel(R) HD Graphics Family"
VEN_8086, DEV_0A16, SUBSYS_2246103C, REV_0B
Dedicated video memory : 134742016 bytes
Total video memory : 4294901760 bytes
Maximum feature level : D3D_FEATURE_LEVEL_11_1 (0xb100)
DoublePrecisionFloatShaderOps : 1
OutputMergerLogicOp : 1
MinPrecisionSupport : D3D12_SHADER_MIN_PRECISION_SUPPORT_NONE (0)
TiledResourcesTier : D3D12_TILED_RESOURCES_TIER_NOT_SUPPORTED (0)
ResourceBindingTier : D3D12_RESOURCE_BINDING_TIER_1 (1)
PSSpecifiedStencilRefSupported : 0
TypedUAVLoadAdditionalFormats : 0
ROVsSupported : 1
ConservativeRasterizationTier: D3D12_CONSERVATIVE_RASTERIZATION_TIER_NOT_SUPPORTED (0)
MaxGPUVirtualAddressBitsPerResource : 31
StandardSwizzle64KBSupported : 0
CrossNodeSharingTier : D3D12_CROSS_NODE_SHARING_TIER_NOT_SUPPORTED (0)
CrossAdapterRowMajorTextureSupported : 0
VPAndRTArrayIndexFromAnyShaderFeedingRasterizerSupportedWithoutGSEmulation : 1
ResourceHeapTier : D3D12_RESOURCE_HEAP_TIER_2 (2)
Adapter Node 0: TileBasedRenderer: 0, UMA: 1, CacheCoherentUMA: 1
https://forum.beyond3d.com/posts/1849030/
Ich bin etwas überrascht, dass schon bei Haswell CacheCoherentUMA zurückgegeben wird.
Ich habe vermutet, dass es erst mit Broadwell soweit wäre.
Unter Umständen kommt noch Tiled Resources Tier 1 dazu oder es bleibt auch bis zum Ende ohne jeglichen Support.
fondness
2015-06-08, 15:39:22
Ganz guter Artikel was Intel AMD, Nvidia supporten und was nicht:
http://www.extremetech.com/extreme/207598-demystifying-directx-12-support-what-amd-intel-and-nvidia-do-and-dont-deliver#.VXWXveviGhQ.twitter
Troyan
2015-06-08, 15:43:29
Viel interessanter als der Text ist das angebliche IntelMicrosoft-Bild:
http://www.extremetech.com/wp-content/uploads/2015/06/DX12FeatureLEvels-640x436.png
Hat jemand die Quelle dazu?
fondness
2015-06-08, 15:52:31
Scheint eh falsch zu sein, denn zumindest Maxwellv1 kann laut aktuellem Stand kein 12_0. Auch Kepler sollte kein 11_1 können. Angeblich ist die Folie von MS, siehe den Text der dich nicht interessiert. :ugly:
Unicous
2015-06-08, 15:54:10
Wait? Du embeddest ein Bild und kennst die Quelle nicht? Arbeitest du zufälligerweise bei WTF-Tech?
Troyan
2015-06-08, 15:59:49
Es sollte offensichtlich sein, dass ich nach der Quelle frage - also ein Link - woher das Bild stammt.
Denn laut Text käme dies direkt von Microsoft...
captain_drink
2015-06-08, 16:18:21
Scheint eh falsch zu sein, denn zumindest Maxwellv1 kann laut aktuellem Stand kein 12_0. Auch Kepler sollte kein 11_1 können. Angeblich ist die Folie von MS, siehe den Text der dich nicht interessiert. :ugly:
Kepler beherrscht die 2D-Features von FL 11_1 nicht, alle für 3D relevanten hingegen durchaus. Formal also kein FL 11_1, effektiv schon.
http://nvidia.custhelp.com/app/answers/detail/a_id/3196
Falsch ist die Tabelle wohl dennoch, da Fermi und Kepler das identische FL haben.
y33H@
2015-06-08, 16:19:53
Ich hab mal Joel angehauen, zumal der untere Teil aus dem Deck von Max MacMullen stammt.
Locuza
2015-06-08, 17:23:41
Kepler beherrscht die 2D-Features von FL 11_1 nicht, alle für 3D relevanten hingegen durchaus. Formal also kein FL 11_1, effektiv schon.
Na, da fehlen leider die UAVs in non pixel-shader stages.
Auch wenn es der Chip theoretisch könnte, durch den Feature-Verbund kann es Kepler über kein DX Interface unterstützen.
Die einzige Möglichkeit die besteht ist, dass sich FL11.1 zwischen DX11 und DX12 unterscheiden.
Für DX12 FL11_1 müsste dann MS Features entkoppeln und einige Sachen nicht mehr zwingend machen.
Ich Zweifel aber daran, die Konsistenz wird MS mit hoher Wahrscheinlichkeit behalten.
fondness
2015-06-08, 17:26:16
Kepler beherrscht die 2D-Features von FL 11_1 nicht, alle für 3D relevanten hingegen durchaus. Formal also kein FL 11_1, effektiv schon.
http://nvidia.custhelp.com/app/answers/detail/a_id/3196
Falsch ist die Tabelle wohl dennoch, da Fermi und Kepler das identische FL haben.
Es gibt kein Formal schon, es wird nicht unterstützt. Entweder man unterstützt alle Features oder nicht. Auch GCN unterstützt in Teilen FL 12_1, in Teilen geht man sogar darüber hinaus, dennoch unterstützt man es nicht vollständig und damit hat man auch kein FL12_1.
Troyan
2015-06-08, 17:38:01
AMD unterstützt 12_1 nicht im Teil. Dafür müsste man entweder CR Tier 1+ oder ROV unterstützen.
Man geht auch nicht darüber, nur weil man etwas unterstützt, das nicht für ein Feature Level notwendig ist.
DX12 bietet wesentlich mehr Optionen, da die GPUs wesentlich umfangreicher geworden sind. Besser so als eine viel zu stare Limitierung der Funktionen.
fondness
2015-06-08, 17:41:10
AMD unterstützt 12_1 nicht im Teil. Dafür müsste man entweder CR Tier 1+ oder ROV unterstützen.
Tja für FL11_1 fehlen Kepler eben auch Features, genau dasselbe in grün.
Troyan
2015-06-08, 17:42:47
Nein, ist es nicht.
Fermi und Kepler unterstützen viele der FL11_1 Funktionen, die auch angesprochen werden können.
AMD unterstützt keine Funktionen vom FL12_1.
fondness
2015-06-08, 17:44:05
/Edit: Ich spare mit das weil sinnlos.
Troyan
2015-06-08, 17:56:35
Sinnlos ist es nur, wenn man das Konzept dahinter nicht verstanden hat.
Mit DX11.2 sind Funktionen hinzugekommen, die keinem Feature Level unterliegen. Trotzdem geht Fermi oder Kepler nicht über das FL11_1 hinaus, weil man z.B. Tiled Ressources Tier 1 unterstützt, wohingegen Haswell zwar FL11_1 ist, aber kein Tiled Ressources zur Zeit anbietet.
Das ganze wurde mit DX12 noch weiter vorangetrieben, da man nun insgesamt vier FL hat und darüber hinaus noch Funktionalitäten anbietet, die keinem FL unterliegen. Außerdem ist die Beschränkung der Nutzung nicht mehr so ristriktiv wie bei DX11.1 mit UAVs.
Deine Aussage, dass AMD über das FL12_1 hinausgehen würde, ist einfach falsch. Dafür müsste man erst mal das FL12_1 unterstützen - so wie Maxwell v2 mit Tiled Ressources Tier 3.
fondness
2015-06-08, 18:24:43
Wenn FL12_1 Biding Ressources Tier 2 fordert, AMD aber Tier 3 bietet und FL12_1 UVA_Formats Tier 1 fordert und AMD aber Tier 2 bietet dann geht man in diesen Punkten über das Feature Level hinaus. Das versteht eigentlich jedes Kind, ich nehme zu Kenntnis du willst es offenbar nicht verstehen.
Locuza
2015-06-08, 18:31:24
UVA Formats Tier 1.
Was ist denn das?
Fantasy Tier 2 oder schon Tier 3?
fondness
2015-06-08, 18:33:56
UVA Formats Tier 1.
Was ist denn das?
Fantasy Tier 2 oder schon Tier 3?
Typed UAV Formats, steht auch in der Tabelle oben. Den letzten Satz ignoriere ich mal.
Troyan
2015-06-08, 18:35:57
Wenn FL12_1 Biding Ressources Tier 2 fordert, AMD aber Tier 3 bietet und FL12_1 UVA_Formats Tier 1 fordert und AMD aber Tier 2 bietet dann geht man in diesen Punkten über das Feature Level hinaus. Das versteht eigentlich jedes Kind, ich nehme zu Kenntnis du willst es offenbar nicht verstehen.
Soll das ein Witz sein? Ich meine das ehrlich...
FL12_1 erfordert CR Tier 1 und ROV Unterstützung. Wer das nicht bietet, kann nicht über das FL12_1 hinausgehen, sondern nur über das FL12_0.
Ansonsten geht Intel mit Haswell ja auch über das FL12_0 hinaus, da man ROV anbietet, aber ansonsten nur FL11_1 ist. :freak:
Ich denke, du hast meinen Text nicht verstanden und erkennst den Sinn hinter dem Konzept von DX12 nicht...
Kartenlehrling
2015-06-08, 18:37:02
Ich glaube 2016 wissen wir immer noch nicht die endgültige Tabelle.
fondness
2015-06-08, 18:38:40
FL12_1 erfordert CR Tier 1 und ROV Unterstützung. Wer das nicht bietet, kann nicht über das FL12_1 hinausgehen, sondern nur über das FL12_0.
Auch wenn man ein FL nicht unterstützt kann man trotzdem in Teilen darüber hinaus gehen, das ist doch wirklich nicht so schwer zu verstehen. Nichts anderes sage ich. Alles andere ist reine Wortklauberei und bringt auch nichts, deshalb hier EOD für mich.
Troyan
2015-06-08, 18:44:39
Ich weiß nicht, ob du trollen willst oder ob du es nicht versteht.
Das FL12_1 definiert zwei Funktionalitäten als Pflicht. Die DX12 API definiert eine Vielzahl von Funktionen, die von Hardware unterstützt und angesprochen werden kann. Diese können, aber müssen nicht als Feature Level zusammengefasst werden.
Man kann nicht über das FL12_1 hinausgehen, wenn man die Pflichtfunktionen nicht anbietet.
Deswegen muss man zwischen DX12 API und Feature Level support unterscheiden.
aufkrawall
2015-06-08, 18:46:19
Ich würde sagen, man unterstützt etwas daneben.
"Hinaus" ist irreführend.
Locuza
2015-06-08, 19:06:13
Typed UAV Formats, steht auch in der Tabelle oben. Den letzten Satz ignoriere ich mal.
Mir ging es an der Stelle, um die korrekte Bezeichnung.
https://msdn.microsoft.com/en-us/library/windows/desktop/dn859386%28v=vs.85%29.aspx
Ich glaube 2016 wissen wird immer noch nicht die entgültige Tabelle.
2015 sollte man es schaffen.
Man kann nicht über das FL12_1 hinausgehen, wenn man die Pflichtfunktionen nicht anbietet.
Es ist doch klar was fondness meint.
Teilfunktionen können über die geforderten Funktionen von FL12.1 hinaus gehen, supportet und verwendet werden.
Er hat ja nicht behauptet, dass GCN generell sich über FL12.1 befindet.
fondness
2015-06-08, 19:08:47
Es ist doch klar was fondness meint.
Teilfunktionen können über die geforderten Funktionen von FL12.1 hinaus gehen, supportet und verwendet werden.
Er hat ja nicht behauptet, dass GCN generell sich über FL12.1 befindet.
Danke, ich dachte schon ich spreche die falsche Sprache.
Troyan
2015-06-08, 19:16:56
Es ist doch klar was fondness meint.
Teilfunktionen können über die geforderten Funktionen von FL12.1 hinaus gehen, supportet und verwendet werden.
Er hat ja nicht behauptet, dass GCN generell sich über FL12.1 befindet.
Ich habe es verstanden und es deswegen als falsch bezeichnet.
Diese Funktionen gehen nicht über das FL12_1 hinaus, sondern sind Funktionen, die von der API definiert werden. Das FL12_1 definiert eine Mindestanzahl an Funktionen, die unterstützt werden müssen.
Wenn man das FL12_1 nicht unterstützt, kann man doch nicht behaupten, man unterstütze ja mehr bzw. andere Funktionen als dort definiert wurden und deswegen wäre man Karten mit diesem FL12_1 überlegen...
Das ist sprachlich und konzeptmäßig falsch.
Ausgangspunkt war dieser Satz:
Auch GCN unterstützt in Teilen FL 12_1, in Teilen geht man sogar darüber hinaus, dennoch unterstützt man es nicht vollständig und damit hat man auch kein FL12_1.
1. unterstützt AMD nicht in Teilen FL12_1, 2. geht man auch nicht "darüber" hinaus, weil Funktionalitäten der API unterstützt werden, die nicht zwingend erforderlich sind für ein FL.
Grestorn
2015-06-08, 19:21:31
Semantisch kann man nicht sagen "x übertrifft die Anforderungen von y in Teilbereichen" wenn man andere Anforderungen von y gar nicht erfüllt. Das wäre irreführend und könnte, z.B. in der Werbung oder wenn es auf einem Produkt steht, zu einer Abmahnung führen.
Was man schreiben kann wäre aber: "Wir unterstützen x.0, Feature y geht aber sogar über die Anforderungen von x.1 hinaus!"
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.