Archiv verlassen und diese Seite im Standarddesign anzeigen : DirectX 12 Grafik-API
aufkrawall
2019-03-27, 13:53:51
Selbst mit nem Geforcetreiber +56%? Not bad. :cool:
Ich predige hier ja schon seit Längerem, dass Nvidias DX11-Vorteile arg an Relevanz verloren haben oder abgeschmolzen sind.
In BF4 Shanghai MP sind die min-fps mit der RX 580 in 720p so ziemlich die gleichen wie mit der 1070 Ti, und in BF5 Firestorm DX11 waren die min-fps ~135 mit der RX 580. :freak:
dargo
2019-03-27, 15:00:53
Ich predige hier ja schon seit Längerem, dass Nvidias DX11-Vorteile arg an Relevanz verloren haben oder abgeschmolzen sind.
Das ist auch recht stark von den Games bzw. Engines abhängig. Die beiden letzten AC Teile performen im CPU-Limit mit Radeon sehr miserabel. Wenn ich sehe, dass da stellenweise die Frames Richtung 40+fps gehen kriege ich das Kotzen. Tom Clancy's: Ghost Recon Wildlands performt in cpu-limitierten Szenen mit Radeon auch nicht so pralle. Das war auch der Grund warum ich das Game nicht gekauft hatte. Kommt der Nachfolger mit DX12/Vulkan werde ich sicherlich zuschlagen. Ich habe mir vorgenommen Bananensoftware nicht mehr zu unterstützen. Ich muss ja nicht alles konsuminieren, genug Stoff gibt es ja auch sonst.
Ex3cut3r
2019-03-27, 16:19:46
Es ist ja toll, dass Hitman jetzt DX12 hat, wurde mir selbst in 3440x1440 Max enorm viel bringen, allerdings gibt es auch Level/Szenen die vollkommen GPU limitiert sind, und da läuft ja siehe Krawalls Bilder/Schilderungen erschreckend schlecht, ich habe das Game zu Weihnachten gekauft, habe aufgrund des CPU Limits deswegen 3440x1440 x 1.5 DS gezockt macht 5160x2160 und hatte trotzdem meine 50 FPS @ 2080. Ich installier die 100GB bestimmt nicht wieder. :freak:
dargo
2019-03-27, 18:14:58
Es ist ja toll, dass Hitman jetzt DX12 hat, wurde mir selbst in 3440x1440 Max enorm viel bringen, allerdings gibt es auch Level/Szenen die vollkommen GPU limitiert sind, und da läuft ja siehe Krawalls Bilder/Schilderungen erschreckend schlecht...
Erschreckend schlecht? Ich sehe bei aufkrawall -7% im GPU-Limit während bei dildo eine cpu-limitierte Stelle 56% schneller ist. Da brauche ich nicht lange zu überlegen was ich wählen würde. Ob ich 100fps habe oder 93fps ist mir recht latte. Wenn ich auf der anderen Seite aus 40+fps in den Bereich 70+fps gehen kann (siehe Bild von dildo). Zweiteres ist ein ganz anderes Spielgefühl.
Edit:
Es wird noch krasser... hier hat einer mit ner 1080TI in einer Szene +84% erreicht. X-D
https://www.reddit.com/r/HiTMAN/comments/b5p79r/some_hitman_2_directx12_benchmarks_massive_fps/
Andron
2019-03-27, 18:24:49
Hitman 2 DX11/12 GPU + CPU Benchmarks mit AMD/Nvidia/Intel
Link (https://www.computerbase.de/2019-03/hitman-2-directx-12/#abschnitt_grafikkartenbenchmarks_mit_directx_11_und_directx_12)
Mit AMD Hardware lohnt sich DX 12 definitiv, wenn man über die optischen Nachteile durch das fehlerhafte AF hinwegsehen kann.
aufkrawall
2019-03-27, 19:31:33
Das ist auch recht stark von den Games bzw. Engines abhängig. Die beiden letzten AC Teile performen im CPU-Limit mit Radeon sehr miserabel. Wenn ich sehe, dass da stellenweise die Frames Richtung 40+fps gehen kriege ich das Kotzen.
Origins und Odyssey sind auf Radeons zwei verschiedene paar Schuhe, hier läuft Letzteres auf Radeons im CPU-Limit sogar schneller als auf GeForces ;) :
https://abload.de/img/hwubp0je3.png (http://abload.de/image.php?img=hwubp0je3.png)
https://youtu.be/9mTKVDXsOgI?t=175
dargo
2019-03-27, 21:18:40
Die Szene ist im CPU-Limit? Krass wie schlecht die Performance ist. Hoffentlich kommt der Nachfolger endlich mit neuer, modernen Engine. Dass die Geforces da noch ein klein wenig schlechter abschneiden macht die Sache leider kein Stück besser.
aufkrawall
2019-03-27, 21:29:17
Dürfte die Szene oben links im Thumbnail innerhalb des Videos sein, also offenbar eine eher CPU-lastige Stadt-Szene.
Edit: Dürfte aber wohl auch nicht komplett im CPU-Limit sein, trotzdem erstaunlich.
gravitationsfeld
2019-03-27, 22:01:35
Die Szene ist im CPU-Limit? Krass wie schlecht die Performance ist. Hoffentlich kommt der Nachfolger endlich mit neuer, modernen Engine. Dass die Geforces da noch ein klein wenig schlechter abschneiden macht die Sache leider kein Stück besser.
Das Spiel fuellt einfach mal meinen i7 6700K 100% fast ueberall. Wahrscheinlich alles nur NVIDIA-Treiber-Threads. Ist praktisch immer im CPU-Limit.
dargo
2019-03-27, 22:34:18
Wahrscheinlich ist gut. Auf Radeon langweilt sich ein Sixcore mit 12 Threads.
Ex3cut3r
2019-03-28, 00:59:23
Erschreckend schlecht? Ich sehe bei aufkrawall -7% im GPU-Limit während bei dildo eine cpu-limitierte Stelle 56% schneller ist. Da brauche ich nicht lange zu überlegen was ich wählen würde. Ob ich 100fps habe oder 93fps ist mir recht latte. Wenn ich auf der anderen Seite aus 40+fps in den Bereich 70+fps gehen kann (siehe Bild von dildo). Zweiteres ist ein ganz anderes Spielgefühl.
Edit:
Es wird noch krasser... hier hat einer mit ner 1080TI in einer Szene +84% erreicht. X-D
https://www.reddit.com/r/HiTMAN/comments/b5p79r/some_hitman_2_directx12_benchmarks_massive_fps/
Wie ich sagte, hast du seinen Text nicht gelesen?
- 40% im GPU Limit (Gras)
Ich hab das Spiel nicht, ist nur die Demo. Immerhin scheint es recht sauber zu laufen.
Allerdings bricht das Spiel nicht nur im CPU-Limit übel ein, sondern im Demo-Level bei mir auch um ~40%, wenn ich ins Dichte Gras gehe. Der Performance-Verlust von DX12 im GPU-List ist also recht tragisch.
Man musste also immer von Level zu Level ändern, Whittleton Creek ist z.B ein Level der sehr GPU Lastig ist. -> Kaum NPCs und viel Vegetation mit schicker Beleuchtung.
lPEZsajURn8
Ich könnte der Sache aber mal richtig auf den Grund gehen, habe das Game aber wie gesagt schon Weihnachten durchgezockt, und bin jetzt einfach zu faul schon wieder die 50 oder waren es 100GB (Gold Version) zu ziehen, nur um zu Benchen. Für mich kommt DX12 leider zu spät. Der Eearly Käufer ist anscheinend immer der Dumme. :redface:
aufkrawall
2019-03-28, 01:09:38
Ich meinte natürlich nicht -40% durch DX12, sondern durch das Gras an sich. ;)
dildo4u
2019-03-28, 07:51:49
Ich vermute mal das noch was per Treiber kommt,Vega ist extrem langsam im GPU Limit.Ich spekuliere mal das keiner vorab Zugriff auf diese Version hatte.
Und Pascal läuft in DX12 besser als Turing.
https://www.computerbase.de/2019-03/hitman-2-directx-12/#diagramm-hitman-2-gpu-testszene-2560-1440-grafikkarten-benchmarks
aufkrawall
2019-03-28, 13:11:58
Das AF ist mit DX11 immer noch besser, weshalb DX12 in solchen Szenen schneller laufen kann:
https://abload.de/thumb/hitman2_2019_03_28_1234j9h.png (http://abload.de/image.php?img=hitman2_2019_03_28_1234j9h.png) https://abload.de/thumb/hitman2_2019_03_28_12snkgv.png (http://abload.de/image.php?img=hitman2_2019_03_28_12snkgv.png)
Fail. :cool:
Na ja, immerhin sehen die Vorgänger-Level im neuen Teil Dank neuem Postprocessing wesentlich besser aus.
gravitationsfeld
2019-03-28, 15:06:03
Vielleicht bin ich blind, aber ich seh da null Unterschied beim AF?
Der einzige Unterschied den ich sehe ist bei dem Bordstein. Das sieht so aus als waeren die Normalen vom Mesh anders. Sehr kurios. Aber selbst wenn das ein AF-Unterschied waere, wuerde das unmoeglich so viel Performance bringen.
Am Pflaster von den Gehwegen erkennt man was, man muss aber schon genau hinschauen.
gravitationsfeld
2019-03-28, 15:18:12
Was? Der eine weisse Fleck? Das ist kein AF-Unterschied.
Edit: Nevermind, bin blind. Scheint 16xAF vs. 4xAF oder so zu sein.
aufkrawall
2019-03-28, 15:29:15
Jop, scheint mit DX12 immer mit 4x zu laufen, egal was man einstellt. Da die Entwickler im Steam-Forum nicht mitlesen, hab ich mal eine Email geschrieben. Würde mich aber sehr überraschen, wenn das irgendwas bewirkt.
Der CPU-Part läuft mit DX12 schon brachial gut, ich komm in 720p nicht mehr aus dem GPU-Limit (hier sieht man auch eindeutig wieder 4x AF bei DX12, trotz Einstellung auf nur trilinear):
https://abload.de/thumb/hitman2_2019_03_28_135lke6.png (http://abload.de/image.php?img=hitman2_2019_03_28_135lke6.png) https://abload.de/thumb/hitman2_2019_03_28_13zljmn.png (http://abload.de/image.php?img=hitman2_2019_03_28_13zljmn.png)
gravitationsfeld
2019-03-28, 15:58:25
Verstehe dann die Kritik nicht, ist doch ganz ordentlich bis auf das eher kleinere AF-Problem?
aufkrawall
2019-03-28, 16:06:35
Bilder hier gesehen?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11958305&postcount=5993
Es ist völlig matschig vs. erzwungenes AF. Und das dort waren noch komprimierte Bilder, mit PNGs bzw. im Spiel selbst ist der Unterschied noch krasser. Und trotzdem läuft dort DX12 langsamer...
gravitationsfeld
2019-03-28, 16:15:29
Interessanterwise seh ich dort nur 87% GPU-Auslastung mit DX12. Das ist schon ein bisschen fail. Wuerde mit 100% wahrscheinlich sogar schneller sein.
x-force
2019-03-28, 16:18:06
bei der dx12 af grütze kann man sich wahrscheinlich die obersten beiden texturstufen sparen.
aufkrawall
2019-03-28, 16:27:59
Interessanterwise seh ich dort nur 87% GPU-Auslastung mit DX12. Das ist schon ein bisschen fail. Wuerde mit 100% wahrscheinlich sogar schneller sein.
Ist D3D GPU Usage, mit dem Wert vom Treiber direkt sind es 100%. Eine stets vernünftig ermittelt GPU-Last ist bei AMD Fail in Progress, das klappt nur unter Linux mit radeontop zuverlässig.
gravitationsfeld
2019-03-28, 16:41:48
Muesste man sich in GPUView anschauen. Ich vermute, dass sie transfers auf der graphics queue machen statt DMA zu benutzen. In der Zeit stallt die ganze GPU.
bei der dx12 af grütze kann man sich wahrscheinlich die obersten beiden texturstufen sparen.
Nein, denn im Nahbereich und bei flachen Winkeln kriegst du ja die volle Auflösung. Am besten mit Supersampling gegensteuern, das bietet Hitman 2 intern. Ist zwar schon arg holzhammerig, aber wenn das AF "locked" ist ...
MfG,
Raff
aufkrawall
2019-03-30, 12:04:26
Jo. Macht bei den moderaten VRAM-Anforderungen auch ohnehin keinen Sinn, da schon 6GB für 4k reichen.
kruemelmonster
2019-03-30, 15:49:08
Hier der aktuelle DXCapsViewer aus dem mutmaßlich finalen Windows 10 v18362 SDK.
dildo4u
2019-04-12, 15:50:53
Paar Anno 1800 Werte mit Ryzen und Pascal.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11970106&postcount=203
aufkrawall
2019-04-12, 17:18:35
Die Engine kann die vorhandene Leistung quasi überhaupt nicht abrufen, was ein Technik-Vollschrott...
dildo4u
2019-04-15, 14:18:43
CB Anno Benches der Final.
https://www.computerbase.de/2019-04/anno-1800-benchmark-test/2/#diagramm-anno-1800-2560-1440
Die Hauptlast wird durch die höhere Auflösung und die reduzierten Details vom Prozessor zur Grafikkarte verschoben, sodass FPS und Frametimes fast durchweg höher ausfallen als in 1.920 × 1.080 – was ansonsten nur bei langsamen Prozessoren geschieht.
Wie soll das gehen, fällt die CPU Last in 4k plötzlich geringer aus??? 2700x schafft in 1080p 51 fps und in 4k auf einmal 59 fps?
dildo4u
2019-04-15, 15:29:26
4k haben sie mit weniger Details gebencht.
Das Ultra-Preset ist brutal, killt vor allem die CPU. Daher ist DX12 da auch besonders hilfreich. PCGH testet Anno 1800 übrigens mit einer Wurstkäse-Szene – da erreicht eine übertaktete Top-CPU selbst mit "Sehr hoch" nur <60 Fps: http://www.pcgameshardware.de/Anno-1800-Spiel-61247/Tests/Benchmarks-Release-Systemanforderungen-1279717/#a5
MfG,
Raff
Das Ultra-Preset ist brutal, killt vor allem die CPU.
Ist Ultra nicht mit 8xMSAA?
dargo
2019-04-17, 20:43:12
Das Ultra-Preset ist brutal, killt vor allem die CPU. Daher ist DX12 da auch besonders hilfreich. PCGH testet Anno 1800 übrigens mit einer Wurstkäse-Szene – da erreicht eine übertaktete Top-CPU selbst mit "Sehr hoch" nur <60 Fps: http://www.pcgameshardware.de/Anno-1800-Spiel-61247/Tests/Benchmarks-Release-Systemanforderungen-1279717/#a5
MfG,
Raff
Lass mich raten... Multithreading der Engine für den Anus?
gravitationsfeld
2019-04-17, 21:21:38
Das Spiel muesste 2-3x schneller laufen meiner Meinung nach bei der Optik. Performance ist ultra mies.
Das Spiel muesste 2-3x schneller laufen meiner Meinung nach bei der Optik. Performance ist ultra mies.
Ist die Optik so schlecht?
aufkrawall
2019-04-18, 21:31:27
Netter Content, aber kein modernes Rendering.
aufkrawall
2019-04-30, 19:11:44
Da die Entwickler im Steam-Forum nicht mitlesen, hab ich mal eine Email geschrieben. Würde mich aber sehr überraschen, wenn das irgendwas bewirkt.
Es hat etwas bewirkt, ich bin überrascht :D :
PC-Specific Improvements
Texture Filtering
We’ve fixed an issue where the Texture Filtering settings were not working in DX12.
https://www.ioi.dk/hitman-2-april-update/
Die AF-Einstellung funktioniert nun wie mit DX11, einige Texturen sehen nun also korrekt nach 16x aus. Wie unter DX11, manche (je nach Szene auch alle) aber immer noch nicht, weshalb es nochmal Post gibt.
fps im Sapienza-Level sind trotz nun angeglichenem AF btw. mit DX12 immer noch etwas höher. Irgendwas scheint also mit den Leveln von Teil 2 + DX12 problematisch zu sein.
crux2005
2019-05-16, 21:57:43
IOI hat einen Artikel zum DX12 Renderer in Hitman 2 veröffentlicht:
https://devblogs.microsoft.com/directx/directx-12-boosts-performance-of-hitman-2/
][immy
2019-05-17, 11:46:23
IOI hat einen Artikel zum DX12 Renderer in Hitman 2 veröffentlicht:
https://devblogs.microsoft.com/directx/directx-12-boosts-performance-of-hitman-2/
Haben die noch mal einen neuen DX12 Patch raus gebracht? Hitman 2 war doch mit DX12 gar nicht mal so gut, wenn ich mich recht erinnere.
Die Frametime sehen in deren Grafik aber toll aus, erstaunlich das sie das auf einer FuryX getestet haben, welche letztlich wohl kaum verbreitet sein dürfte.
Lass mich raten... Multithreading der Engine für den Anus?
Ja, das ist wohl leider so. Anno verbrät irgendwie die CPU Leistung fast nur für die Grafik. Die Simulation etc ist gar nicht mal so CPU intensiv. Mit meiner Vega ist Anno erstaunlicherweise jetzt auch etwas CPU-intensiver. Mit der RX570 lag ich bei 33% CPU-Auslastung bei der höchsten (3x) Geschwindigkeit (bei meiner eigenen Insel) und mit der Vega ist es jetzt 33% bei normaler Geschwindigkeit und geht über 40 bei der höchsten stufe.
Dabei hätte ich eigentlich gedacht das besonders eine solche Simulation sich besonders gut eignet für Multithreading. Anno 1800 würde ja immerhin auch super mit 2D Grafik auskommen (rein vom Gameplay her), da ist es schon erstaunlich das die ganzen Resourcen in die Grafik fließen, obwohl sie schon recht hohe Mindestanforderungen (4- und 6-Kern (AMD) CPUs) haben.
Ich müsste mal testen wie weit ich die CPU-Last mit minimalen Details runter bekommen wenn ich Vsync einschalte, da sollte sich die CPU dann ja ziemlich langweilen.
gravitationsfeld
2019-05-17, 17:07:32
Die Fury ist wohl einfach nur was er gerade im Rechner hatte. Ich wechsel die GPUs auch wie Unterwaesche.
aufkrawall
2019-05-17, 17:16:52
Das CPU-Limit verschleiert halt den Leistungsverlust im GPU-Limit, von daher ist das konkrete Modell zweitrangig.
Kartenlehrling
2019-05-21, 01:00:28
Variable Rate Shading is a new DirectX 12 API that lets developers increase image quality and improve framerates.
VRS gives developers fine-grained control of a game’s shading rate, making it simple to selectively reduce unnecessary detail with minimal code changes.
It’s a powerful, versatile tool that we believe is the next step to unlocking performance for amazing visuals on modern GPUs with native VRS support.
Come see a deep dive on how the API works and hear from our partners who’ve already had success using it.
f-SklVb2MDI
Boost rendering performance with Variable Rate Shading | Game Developers Conference 2019
AffenJack
2019-07-02, 18:10:41
Direct X 12 soll wohl ab nächsten Jahr Mesh Shader bekommen:
Windows SDK Preview 18992 adds two new D3D12 options for Windows 20H1, mesh shaders and new raytracing tier 1_1 (probably incorporating some of the improvements they talked about previously in the DXR specifications white paper).
Direct3D feature levels discussion (https://forum.beyond3d.com/posts/2075880/)
Der Autor und sein tool sind eigentlich zuverlässig. Zusätzlich ist eine weitere Raytracingstufe auch interessant.
pixeljetstream
2019-07-19, 07:55:49
https://github.com/microsoft/DirectXShaderCompiler/pull/2336/files#diff-d724a5439eeb35c9ebca010edad36db0 mehr dazu
Via https://twitter.com/zeuxcg/status/1150778226148380672?s=19
basix
2019-07-19, 08:34:24
Was ist bei DXR Tier 1.1 denn neu?
pixeljetstream
2019-07-19, 09:32:43
kann ich nicht sagen, musst Du oder jemand anderes erschließen :/
Troyan
2019-07-21, 08:35:58
UL erweitert 3DMark um einen "Variable Rate Shading" Feature-Test: https://benchmarks.ul.com/news/variable-rate-shading-test-coming-to-3dmark?linkId=70703057
dargo
2019-07-21, 09:23:21
Urgh... dieses VRS macht zumindest bei den Vergleichsscreens keine gute Figur.
dildo4u
2019-07-21, 09:46:06
Das wird Must Have für die Konsolen damit man nicht wieder bei 30fps hängt.
Wenn du einer 5700 einfach nur 4k Nativ servierst biste schon bei den Heutigen AAA Games dort.
dargo
2019-07-21, 09:51:29
Deswegen läuft Gears 5 auf einer XBX mit 60fps in 4k. :rolleyes: Ich habe nichts grundsätzlich gegen VRS. Wenn das Ergebnis aber dermaßen miserabel aussieht wie beim 3DMark dann können die den Schrott behalten. Immerhin ist es optional.
Screemer
2019-07-21, 09:53:27
Hier als Slider: https://imgsli.com/NDc2Mw
dargo
2019-07-21, 09:55:36
Hier als Slider: https://imgsli.com/NDc2Mw
Die neue Gamingzukunft... Unschärfe, Klötzchenbildung und mehr Aliasing. :uup:
dildo4u
2019-07-21, 09:55:47
Deswegen läuft Gears 5 auf einer XBX mit 60fps in 4k. :rolleyes: Ich habe nichts grundsätzlich gegen VRS. Wenn das Ergebnis aber dermaßen miserabel aussieht wie beim 3DMark dann können die den Schrott behalten. Immerhin ist es optional.
Gears nutzt kein RT,nicht vergessen Sony und MS haben explizit mit RT geworben.
Screemer
2019-07-21, 09:57:39
[...]nicht vergessen Sony und MS haben explizit mit RT geworben.
Wo? Ich hab noch keine Werbung für nextgen gesehen.
Troyan
2019-07-21, 09:58:58
In Wolfenstein 2 bringt VRS in 4K bis zu 20% mehr Leistung ohne sichtbaren Unterschied. Warum sollte man darauf verzichten?
dildo4u
2019-07-21, 10:04:29
Wo? Ich hab noch keine Werbung für nextgen gesehen.
1:45.
https://youtu.be/-ktN4bycj9s
dargo
2019-07-21, 10:08:07
In Wolfenstein 2 bringt VRS in 4K bis zu 20% mehr Leistung ohne sichtbaren Unterschied. Warum sollte man darauf verzichten?
Das sieht CB etwas anders. Einzig Q und balanced sollen brauchbar sein. Und dort bekommt man im besten Fall 5-10% mehr Performance.
https://www.computerbase.de/2018-11/geforce-rtx-adaptive-shading-wolfenstein-2-test/#abschnitt_die_umsetzung_in_wolfenstein_2
unl34shed
2019-07-21, 10:45:34
Die neue Gamingzukunft... Unschärfe, Klötzchenbildung und mehr Aliasing. :uup:
Retro ist doch aktuell voll im Trend, passt doch. :freak:
Aber stimmt schon, alle neuen super Effekte zur Bildverbesserung machen das bild einfach nur noch matschiger. Ein zwei Ausnahmen gibt es sicherlich.
Screemer
2019-07-21, 10:46:33
1:45.
https://youtu.be/-ktN4bycj9s
Thx.
Troyan
2019-07-21, 11:09:43
Das sieht CB etwas anders. Einzig Q und balanced sollen brauchbar sein. Und dort bekommt man im besten Fall 5-10% mehr Performance.
https://www.computerbase.de/2018-11/geforce-rtx-adaptive-shading-wolfenstein-2-test/#abschnitt_die_umsetzung_in_wolfenstein_2
Who cares? Jeder mit Turing kann es selbst in W2 testen. Hier mal zwei simple Beispiele, welche interne Renderauflösung eingestellt werden muss, um sehr ähnliche Leistungswerte zu VRS-Performance zu erreichen:
4K - Performance vs. 81%
https://abload.de/thumb/newcolossus_x64vk_201mskdt.jpg (https://abload.de/image.php?img=newcolossus_x64vk_201mskdt.jpg)https://abload.de/thumb/newcolossus_x64vk_201uxkn0.jpg (https://abload.de/image.php?img=newcolossus_x64vk_201uxkn0.jpg)
1440p - Performance vs. 86%
https://abload.de/thumb/newcolossus_x64vk_2012skm3.png (https://abload.de/image.php?img=newcolossus_x64vk_2012skm3.png)https://abload.de/thumb/newcolossus_x64vk_201i1j1n.png (https://abload.de/image.php?img=newcolossus_x64vk_201i1j1n.png)
Im 4K Performance Bild sieht man die Probleme bei zu aggressiver Einstellung. Anderenfalls muss die interne Auflösung ebenfalls aggressiver eingestellt werden, um das ähnliche Leistungsniveau zu erreichen.
Aber ja, benötigt niemand. ;D
pixeljetstream
2019-07-21, 11:18:42
Bildervergleich ist für das eher unpassend, muss man spielen und dann subjektiv entscheiden ob man es annimmt.
5-10% ist übrigens schon ordentlich, oft bringen einzelne Optimierungen nur ein paar Prozent. Es steckt viel Arbeit der Entwickler dahinter auf die Leistung zu kommen.
Von 1080p 60 auf 4k oder wqhd mit 100+ sind halt viele Pixel mehr und das bei steigender Komplexität. So krass legt die Hardware nicht mehr zu um hier keine cleveren neuen Ideen zu nutzen
Troyan
2019-07-21, 11:25:15
Die Fehler von VRS in W2 sieht man auch gut in Bildern - siehe den rechten Bereich im 4K Bild.
Es bietet jedoch viel mehr Vorteile als eine simple Reduzierung der internen Renderauflösung.
aufkrawall
2019-07-21, 11:31:08
Der Content von W2 scheint die Schwächen nicht so herausstechen zu lassen wie das Beispiel von 3DMark, da kann man jetzt viele Bildchen in dunklen Korridoren bei 300fps posten...
Urgh... dieses VRS macht zumindest bei den Vergleichsscreens keine gute Figur.
Jo. Wer das nicht sieht, muss blind sein. Somit ist das doch eher was für "schwarze Flächen" oder VR.
MfG,
Raff
pixeljetstream
2019-07-21, 11:35:07
Ich meine dass die Fehler im Bild immer gut zu sehen sind, ob sie beim Spielen stören oder nicht ist subjektiv.
Deinorius
2019-07-27, 14:06:02
Ist das Beispiel im 3dmark überhaupt repräsentativ? Würden Spiele überhaupt so extrem dargestellt werden? Bilder sind sowieso dafür nicht geeignet. Der Sinn von VRS liegt doch gerade darin, dass auf diese Bereiche nicht geachtet wird, sollte also eher im Original, oder als Video verglichen werden.
Ich finde das Beispiel von 3dmark generell schlecht. Warum sollte ich gerade auf die vorderen Bäume schauen wollen. Wäre das ein Spiel, würde ich doch eigentlich weiter hinten schauen, um auf Feinde zu achten. :ugly: Da könnte man schon eher argumentieren, dass die vorderen Bäume stärker gefiltert gehören. Und warum hat bisher noch keiner erwähnt, dass diese Szene so oder so nicht genug Komplexität selbst für 4K bietet, als dass VRS auch nur irgendeinen Sinn macht, außer es muss von einer APU gerendert werden.
Der Große Vorteil von VRS gegenüber einer simplen Reduzierung der Auflösung ist, dass die Geometrie immer mit voller Auflösung gerastert wird.
Geometrie profitiert nun mal am Meisten von der Auflösung, Stichwort Kantenflimmern, während Texturen oft pixelperfekte Schärfe schon prinzipiell nicht erreichen können, sei es weil die Textur schon vergrößert dargestellt wird, oder wegen diverser Filter/Shader die drüberliegen.
TwoBeers
2019-07-29, 23:14:45
Falls du mal noch die Stelle testen willst: Zum Tempeldistrikt schnellreisen, auf die höchste Stufe stellen, das Holz wie zu sehen anvisieren und dann wieder rauszoomen:
Ich hab die Käsestelle jetzt auch mal mit dem 3700X getestet, 1280x720, alles Ultra ohne SMAA:
109 fps bei 4.2GHz.
VRS ist ein wenig wie die Rückkehr von Multisampling.
Früher hat man alles in niedriger Auflösung gerendert und selektiv die Kanten höher, jetzt rendert man alles erstmal in hoher Auflösung und verringert diese selektiv.
aufkrawall
2019-07-30, 19:55:10
Ich hab die Käsestelle jetzt auch mal mit dem 3700X getestet, 1280x720, alles Ultra ohne SMAA:
109 fps bei 4.2GHz.
(y)
GPU-Auslastung war deutlich <95%?
Jetzt wär noch ein 8700k/9900k interessant.
Badesalz
2019-07-30, 23:47:22
@Deinorius
Damit sprichst du auch das eigentliche Problem an. Es kann keine sinnvolle Selektion stattfinden. Wie soll das gehen? Außenrum und weiter hinten Matsche ist keine clevere Idee :freak: Oder, nicht cleverer als Troyans Beispeilbilder.
Keine Ahnung also was du an dem 3Dmark Beispielbild auszusetzen hast. Das war noch gewollt extrem schmeichelhaft, mit der Bodentextur aus Doom for SNES...
Wenn man nach Leistung suchen will, weil man sich keine ausreichend schnelle Graka für 4k kaufen kann/will, sollte man in der Auflösung (und dem Monitor) eine Stufe runter gehen und RIS anwerfen. Da bekommt man auch was, wo man nach Neuancen gegenüber 4k suchen kann.
Deinorius
2019-07-31, 11:30:53
Nun ja, ich frage mich aber auch, ob dieses Beispiel überhaupt eine Aussage machen kann. Würden die Entwickler so starke Unterschiede designen? Und dann kommt noch immer Bild gegen Video bzw. direkter Vergleich im Spiel.
Badesalz
2019-07-31, 11:58:08
Mal eine generelle Frage:
Was und zum welchen Zeitpunkt entscheidet eigentlich wo die Bildqualiregression stattfindet?
Mehr der Treiber oder mehr die Engine usw. usw (?) Sind diese Bereiche für den Treiber über die Engine vormarkiert oder wie läuft das eigentlich ab?
pixeljetstream
2019-07-31, 15:00:42
Das ist komplett Entwickler Sache, das ganze Feature ist ja in der api definiert (DX, VK, GL). Der Entwickler kontrolliert über eine 2D textur (int wert pro texel) und eine tabelle (mappt int auf rastermodus) in welcher Auflösung ein tile gerastert wird. Er kann auch durch den Einsatz von mehreren tabellen es zusätzlich auf Geometrie Ebene steuern, so dass ein Dreieck eine andere Tabelle nutzt.
Daher ist die Qualität von den Verfahren abhängig nach welchen Kriterien man das steuert. Die Ausgabe ist für alle Hersteller dann identisch.
@Deinorius
Damit sprichst du auch das eigentliche Problem an. Es kann keine sinnvolle Selektion stattfinden. Wie soll das gehen?
Beispielsweise den Himmel kann man generell mit verringerter Auflösung rendern. Für Texturen die bereits im Bereich der Vergrößerung sind bringt eine volle Auflösung auch nichts.
Generell Texturen die beispielsweise großteils aus einfärbigen Flächen bestehen können die geringere Auflösung für diese verwenden und nur die Teile die auch Details haben mit voller Auflösung rendern.
Bei VR-Rendering kann man die volle Auflösung auf die Bildmitte beschränken, da die Linsen am Rand eh nicht wirklich scharf abbilden, bzw. noch besser mit foveated rendering kombinieren.
Generell ist es eine weitere Stellschraube im Tradeoff zwischen Performance und Qualität, und intelligent eingesetzt bekommt man wesentlich mehr Qualität als bei einer Reduktion der Auflösung welche die selbe Performance bietet.
Und ja, es ist auf dem Papier eine Möglichkeit für die nächste Konsolengeneration durchgehend 4k zu bieten, auch wenn vielleicht kaum was vom Bild wirklich 4k berechnet wird.
Badesalz
2019-07-31, 22:00:35
Ok. Danke.
Nur, warum reden wir dann hier so darüber als wenn das, wieviel das an Leistung bringt und wie auffällig/unauffällig dabei ist, etwas mit NV zu tun hätte?
Ok. Danke.
Nur, warum reden wir dann hier so darüber als wenn das, wieviel das an Leistung bringt und wie auffällig/unauffällig dabei ist, etwas mit NV zu tun hätte?
Hat es eh nicht, das einzige was es mit NV zu tun hat ist, dass aktuell NV als einziger Hardware zur Verfügung hat die das auch unterstützt.
Für Intels Icelake-Grafik wird das auch können (und hier wird es wohl auch in Wolfenstein sinnvoller sein, als bei Turing die sogar in 4k 3-stellige FPS schaffen), von AMD gibt es soweit ich weiß noch keine Ankündigung dafür, aber man kann eigentlich zu 100% davon ausgehen, dass die Next-Gen Konsolen das auch können werden, und damit wohl spätestens RDNA2 am Desktop auch.
crux2005
2019-08-23, 22:35:30
Die VRS Implementierung in Forza Motorsport 7 finde ich jetzt nicht so gut. :freak:
DJQ7ESBL0KM
dildo4u
2019-08-25, 14:16:13
Gears 5 könnte wie WOW ein Backport von DX12 auf Win 7 haben.
Bei min Specs steht nix von DX11.
https://www.pcgamer.com/uk/gears-5-on-steam-will-run-on-windows-7/
Locuza
2019-08-25, 14:42:42
Nicht nur könnte, sondern wird.
Es wird ebenso Win32 unter beiden Stores verwendet:
https://twitter.com/OctusTC/status/1165542113850716160?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1165542 113850716160%7Ctwgr%5E363937393b70726f64756374696f6e&ref_url=https%3A%2F%2Fs9e.github.io%2Fiframe%2F2%2Ftwitter.min.html%231165542113 850716160
Microsoft hat auch mittlerweile einen Leitfaden online, um Spiele mit DX12-Support auf Windows 7 auszuliefern:
https://microsoft.github.io/DirectX-Specs/d3d/D3D12onWin7.html#get-d3d12-games-up-and-running-on-windows-7
Das Spiel muss dabei selber die DX12-Runtime ausliefern und es gibt ein paar Einschränkungen dadurch, dass unter W7 einige andere APIs fehlen, z.B. für nativen HDR-Support und es dort nur WDDM1.x gibt, aber im Großen und Ganzen sollte man die gleiche Erfahrung wie unter Windows 10 bekommen.
dildo4u
2019-08-25, 14:46:59
Ah interessant sogar RT wäre möglich.
GerryB
2019-09-05, 12:54:07
Fidelity FX wird noch kommen.
Hoffentlich auch mGPU.
dildo4u
2019-09-06, 10:26:30
Pascal kommt bei Gears 5 gut mit DX12 zurecht.
GTX 1080 = RTX 2070.
https://www.pcgameshardware.de/Gears-5-Spiel-62011/Specials/PC-Release-Benchmarks-Review-1331739/
Kein Plan was das über das Game aussagt vermute mal die Technik hat sich von Gears 4 aus gesehen nicht massiv verändert.
gnomi
2019-09-06, 12:01:46
Ja, Technik ist jetzt eher Feinschliff. (4 lief ja auch schon toll auf PC)
Grafik ist nicht High End, aber sieht eben jederzeit gut gemacht aus.
Wenig Schwächen und läuft überall.
Aber das Spiel selber ist endlich behutsam moderner und auf Niveau von 2/3.
Super Arbeit. :up:
][immy
2019-09-06, 12:38:54
Ja, Technik ist jetzt eher Feinschliff. (4 lief ja auch schon toll auf PC)
Grafik ist nicht High End, aber sieht eben jederzeit gut gemacht aus.
Wenig Schwächen und läuft überall.
Aber das Spiel selber ist endlich behutsam moderner und auf Niveau von 2/3.
Super Arbeit. :up:
Da merkt man halt, das es für Konsolen optimiert wurde. Einerseits die schwache xbox one und deutlich stärkere xbox one x. Die Details skalieren sehr gut und Szenen können trotz deutlich kleinerer Hardware noch klasse aussehen. Schon erstaunlich was mit der Unreal engine dann doch noch alles geht.
Find ich lustig der der Artikel schon sagt, das man mit ner Vega 56 oder 1070er auch mehr als FullHD probieren kann ^^. Schon erstaunlich wie schnell diese Karten jetzt plötzlich zu FullHD Karten deklariert wurden. Ok, wer was kleineres Hat wird wohl auch nicht Ultra-Details anwählen und 60 FPS erwarten.
gnomi
2019-09-07, 08:28:51
Es soll eben was Neues verkauft werden. :wink:
DX 12 war jetzt vier Jahre ein totaler bis ziemlicher Rohrkrepierer.
Jetzt gibt es tatsächlich zwei Handvoll ganz gute Anwendungsfälle, wo man Low Level API dann halt mal hier und da verwendet/zuschaltet.
In der Regel erledigt Pascal den Job noch hervorragend.
In Gears 5 hauen auch nur die Reflektionen extrem rein. (wobei meine 1080 OC immer noch 60 fps im Benchmark erzielt, aber trotz GSync sind Dips mit etwa 50 leicht merkbar in kritischen Szenen, weshalb ich das nicht dauerhaft anlasse)
Die drei anderen Sachen über Ultra sind genügsamer.
Gears of War 4 hatte auch schon 2 so Einstellungen AFAIR, die keinen so guten Kosten/Nutzen Effekt hatten.
Ist ein nettes Goodie für später.
Aber es bleibt ganz klar ein Spiel aus der Xbox One Generation, auch wenn es nun eben etwas fordernder als Gears 4 ist. (was ja sogar mit Pascal gebundelt wurde)
Damals gab es kein Turing und nun gehen dann halt ein paar 2080 TI für 4k Gaming mit über den Tisch.
Dennoch. So langsam wird es was. Aber es ist eine Zeit des Umbruchs und ab 2021 wird die Sache erst richtig interessant.
Early Adaptor ist nicht mehr vergleichbar mit den 90ern.
aufkrawall
2019-09-09, 22:32:24
Es reiht sich trotz Microsoft-Studios aber in die Liste der DX12-Spiele ein, die mit zunehmender Spieldauer den RAM zumüllen, inkls. mindestens leichter Pressure-Probleme. Mit Vulkan scheint kein einziges Spiel dieses Verhalten aufzuweisen.
Warum ist das so?
gravitationsfeld
2019-09-10, 01:34:55
Ist kein API-Problem.
dildo4u
2019-09-10, 08:17:35
Gears 5 läuft sauber bei mir @ Ultra und Vram kommt dort noch nicht ins spiel,die Insane Settings sind so heavy wie RTX man müsste dort meiner Meinung nach zu viel Auflösung opfern damit es Heute Sinnvoll ist.
1440p Ultra braucht schon eine 400€+ Karte,das ist ohne Insane Settings.
Die XBox One X Version opfert massiv Settings und Auflösung eine 580 wäre hier deutlich unter 30fps.
https://www.computerbase.de/2019-09/gears-5-benchmark-test/2/#diagramm-gears-5-2560-1440
Loeschzwerg
2019-10-13, 18:45:04
Ein Blog Beitrag von Brad Wardell (Stardock) zu DX12 / VLK bei Gamasutra:
https://www.gamasutra.com/blogs/BradWardell/20191007/351772/Living_with_Vulkan_and_DirectX_12.php
Keine weltbewegend neuen Infos, aber eine schöne kurze Zusammenfassung wo die Vor-/Nachteile liegen und nach welchen Kriterien man sein "Werkzeug" wählen sollte.
Pascal kommt bei Gears 5 gut mit DX12 zurecht.
GTX 1080 = RTX 2070.
https://www.pcgameshardware.de/Gears-5-Spiel-62011/Specials/PC-Release-Benchmarks-Review-1331739/
Kein Plan was das über das Game aussagt vermute mal die Technik hat sich von Gears 4 aus gesehen nicht massiv verändert.
Hier (https://www.techpowerup.com/review/borderlands-3-benchmark-test-performance-analysis/4.html) kommt Pascal weniger gut weg in DX12.
gravitationsfeld
2019-10-13, 20:48:30
Ein Blog Beitrag von Brad Wardell (Stardock) zu DX12 / VLK bei Gamasutra:
https://www.gamasutra.com/blogs/BradWardell/20191007/351772/Living_with_Vulkan_and_DirectX_12.php
Keine weltbewegend neuen Infos, aber eine schöne kurze Zusammenfassung wo die Vor-/Nachteile liegen und nach welchen Kriterien man sein "Werkzeug" wählen sollte.
Ganz schoen viel Muell in dem Artikel. Schon allein das DX11 "sychnronous" ist, is absoluter Unsinn.
Kurze Zusammenfassung: Ich habe keine Ahnung, deshalb benutze ich DX11.
Demirug
2019-10-13, 22:46:33
Ganz schoen viel Muell in dem Artikel. Schon allein das DX11 "sychnronous" ist, is absoluter Unsinn.
Kurze Zusammenfassung: Ich habe keine Ahnung, deshalb benutze ich DX11.
Er schreibt doch extra "In the most oversimplified sense". Der Artikel richtet sich nun sicherlich auch nicht an Leute die tief in der Materie drin stecken.
Im Sinn stimme ich deiner Zusammenfassung ja zu würde es aber nicht so harsch ausdrücken. Ich hätte da eher sowas im Sinn: Ich will mich nicht mit den ganzen Details auseinandersetzen also bleibe ich lieber bei DX11
Gerade für Indie Entwickler die nicht den Anspruch haben das letzte aus einem System heraus zu holen ist das vielleicht sogar wirklich der bessere Weg.
gravitationsfeld
2019-10-13, 23:48:10
Vielleicht faehrt Microsoft mit DX13 ja zweigleisig und wir bekommen ne verbesserte DX11-Style-API zusaetzlich zum "Low-Level"-Kram.
][immy
2019-10-14, 00:11:53
Vielleicht faehrt Microsoft mit DX13 ja zweigleisig und wir bekommen ne verbesserte DX11-Style-API zusaetzlich zum "Low-Level"-Kram.
Es wird kein DX13 kommen, höchstens 14 (die Amis sind zu abergläubisch dafür).
Die APi für den Low Level Kram im DX11 Stil ist doch DX11.x. Features von DX12 ohne das man sich selbst um alles kümmern muss.
Das ist ja generell immer das Problem mit abstraktionsschichten. Sie kosten natürlich immer Performance weil sie für allgemeine Algorithmen ausgelegt sein müssen. Dafür sind sie halt in Spezialfällen langsamer als sie sein müssten. Läuft halt nie optimal aber für die Meisten ist das halt nicht wichtig. Nur wenn man halt alles rausholen will, wird das wichtig. Ansonsten ist ja heutzutage so viel rechenpower vorhanden, das einem der Code vieles verzeiht. Gut die kleinen Jaguars in den aktuellen Konsolen jetzt nicht so unbedingt, aber sobald die neue Gen mit Ryzen kommt, wird es wohl bei den kleineren Projekten erst mal einfacher hohe FPS-Zahlen zu erreichen.
gravitationsfeld
2019-10-14, 00:37:32
[immy;12116809']Die APi für den Low Level Kram im DX11 Stil ist doch DX11.x. Features von DX12 ohne das man sich selbst um alles kümmern muss.
Kein Raytracing, kein Multithreading.
][immy
2019-10-14, 01:12:00
Kein Raytracing, kein Multithreading.
Naja, Mutithreading war ja vorher schon ansatzweise möglich, nur nicht auf dem Niveau. Mit RT .. ok, das fehlt da natürlich. Würde mich aber nicht wundern wenn es da noch mal ein Feature-Update gibt. Allerdings, so wie es derzeit aussieht, wenn du RT einsetzen möchtest in einem Titel, wirst du eh die Hardware deutlich tiefer ansprechen müssen. Hier ist der vermutlich richtige Weg für kleine Entwickler, darauf zu warten, das die genutzten Engines dies integrieren und man sich nicht mehr Tief im Detail darum kümmern muss.
Ganon
2019-10-14, 09:58:32
Gerade für Indie Entwickler die nicht den Anspruch haben das letzte aus einem System heraus zu holen ist das vielleicht sogar wirklich der bessere Weg.
Gibt's eigentlich überhaupt noch Indie-Entwickler die eine eigene 3D-Engine schreiben? In der Regel trifft man ja eher auf GameMaker, Unity oder die Unreal Engine. Ansonsten gibt's ja noch einige kleinere Engines (z.B. Heaps, Impact, MonoGame) die hier und da mal eine handvoll Spiele nutzen. Und auch für Leute die dann doch ihre eigene Engine schreiben wollen gibt es Dinge wie bgfx.
Ich hab halt das Gefühl, dass das "es ist deutlich einfacher zu benutzen" Argument in der Praxis recht wenig Relevanz hat. Letztendlich sind bestehende Engines einfach viel zu billig geworden, als das sich für einen Indie-Entwickler die Eigenentwicklung lohnt.
aufkrawall
2019-10-14, 12:46:15
Bei Elex und Trine 4 hat es sich offenbar ausgezahlt. Schlimme Vorstellung, wie die Performance mit UE4 oder Unity wäre.
Aber warum eine neue API, anstatt mit Middleware es innerhalb von LL weiter zu abstrahieren?
gravitationsfeld
2019-10-14, 19:03:20
[immy;12116819']Naja, Mutithreading war ja vorher schon ansatzweise möglich, nur nicht auf dem Niveau.
Nicht wirklich.
Aber warum eine neue API, anstatt mit Middleware es innerhalb von LL weiter zu abstrahieren?
Weil die Abstraktion nicht funktioniert. Du wirst niemals die Compile-Stutters komplett weg bekommen wenn du DX12 oder Vulkan als Zwischenschicht benutzt.
aufkrawall
2019-10-14, 19:29:43
Blöd.
Würde mich aber wundern, wenn das aktuelle Microsoft sich bemüßigt sähe, dafür die Initiative zu ergreifen.
Was spricht dagegen dass man, mal als Beispiel die UE4, zumindest fuer die gaengigsten Konfigs die Kompilate mit ausliefert?
Valve befuellt lokale shader caches IIRC auch fuer Vulkan vorab.
aufkrawall
2019-10-14, 19:58:15
Es sollte halt schon wasserdicht sein und nicht wieder durch Versäumnisse durch den Entwickler kaputt gemacht werden können.
gravitationsfeld
2019-10-14, 20:08:49
Blöd.
Würde mich aber wundern, wenn das aktuelle Microsoft sich bemüßigt sähe, dafür die Initiative zu ergreifen.
DirectX ist Teil von Microsofts Strategie Leute an ihr OS zu fesseln, deshalb seh ich da schon einiges an Interesse.
danarcho
2019-10-16, 09:38:58
Aber warum eine neue API, anstatt mit Middleware es innerhalb von LL weiter zu abstrahieren?
Weil die Abstraktion nicht funktioniert. Du wirst niemals die Compile-Stutters komplett weg bekommen wenn du DX12 oder Vulkan als Zwischenschicht benutzt.
Ich hab das jetzt eher so verstanden, warum man nicht frameworks wie anvil benutzt um es mit Vulkan leichter zu haben (sowas gibt's bestimmt auch für dx12?).
Zu den compile stutters: du wirst es vermutlich hassen, aber extension für dynamic state? :tongue:
aufkrawall
2019-10-16, 09:48:17
Zu den compile stutters: du wirst es vermutlich hassen, aber extension für dynamic state? :tongue:
Könnten Wrapper damit die Funktionalität von State Trackern nachbilden? :eek:
dildo4u
2019-10-16, 10:45:14
Hier (https://www.techpowerup.com/review/borderlands-3-benchmark-test-performance-analysis/4.html) kommt Pascal weniger gut weg in DX12.
DX12 Scheint allgemein kaputt zu sein bei dem Game,hat nix mit Pascal zu tun.
https://www.pcgameshardware.de/Borderlands-3-Spiel-54615/Specials/PC-Techniktest-Benchmark-Leistungsvergleich-1333517/
Der Entwickler selber nennt es Beta.
gravitationsfeld
2019-10-16, 15:47:33
Ich hab das jetzt eher so verstanden, warum man nicht frameworks wie anvil benutzt um es mit Vulkan leichter zu haben (sowas gibt's bestimmt auch für dx12?).
Zu den compile stutters: du wirst es vermutlich hassen, aber extension für dynamic state? :tongue:
Dad bringt dir auch nichts bei den ganzen Permutations-Monster-Engines mit zig tausenden Shadern.
danarcho
2019-10-16, 19:03:07
Ach was, Path of Exile kann man easy an einem Tag durchcompilieren und danach läuft es fast flüssig :)
Findest du das hier besser?
../../pipeline-db/swbf2/2259.pipeline_test (CS) - Shader Stats: SGPRS: 104 VGPRS: 256 Code Size: 58040 LDS: 0 Scratch: 0 Max Waves: 1 Spilled SGPRs: 37 Spilled VGPRs: 0 PrivMem VGPRs: 0
(Die engine fängt mit frost.. an)
oder mit LLVM:
../../pipeline-db/bug/2259.pipeline_test (CS) - Shader Stats: SGPRS: 104 VGPRS: 256 Code Size: 62052 LDS: 0 Scratch: 51200 Max Waves: 1 Spilled SGPRs: 4 Spilled VGPRs: 287 PrivMem VGPRs: 0
Aber ich werd hier off-topic °°
gravitationsfeld
2019-10-16, 19:38:26
Sind beide nicht ideal, aber das spilling geht gar nich.
pixeljetstream
2019-10-28, 20:05:04
https://devblogs.microsoft.com/directx/dev-preview-of-new-directx-12-features/
Neue DX 12 Features
DXR1.1 (einfache Raytracing queries aus jedem shader typ)
Mesh Shaders
Sampler Feedback
AffenJack
2019-10-29, 00:27:12
https://devblogs.microsoft.com/directx/dev-preview-of-new-directx-12-features/
Neue DX 12 Features
DXR1.1 (einfache Raytracing queries aus jedem shader typ)
Mesh Shaders
Sampler Feedback
Darfst du schon öffentlich sagen, was davon Turing supporten wird? Außer Mesh Shader, bei denen ist es klar.
pixeljetstream
2019-10-29, 06:16:28
Darfst du schon öffentlich sagen, was davon Turing supporten wird? Außer Mesh Shader, bei denen ist es klar.
https://news.developer.nvidia.com/dxr-tier-1-1/
https://devblogs.nvidia.com/texture-space-shading/
AffenJack
2019-10-29, 07:30:07
https://news.developer.nvidia.com/dxr-tier-1-1/
https://devblogs.nvidia.com/texture-space-shading/
Hab den Post von Nvidia gelesen, aber da steht nun auch nicht direkt, was davon nun unterstützt wird. Sind ja nur alle Features aufgezählt.
Stimmt, Texture Space Shading hatten wir ja schon zur Vorstellung von Turing.
Locuza
2019-10-29, 10:17:16
Man könnte zumindest annehmen das DXR Tier 1.1 und Mesh Shaders nach der Spec unterstützt werden:
"Developers targeting NVIDIA RTX GPUS will be able to take the greatest advantage of Microsoft’s software improvements, given the product range’s RT Cores for accelerating ray tracing and hardware support for mesh shaders."
@ pixeljetstream
Kannst du eine Aussage darüber treffen, wie nah die Mesh Shader unter der DX12-Spezifikation mit Nvidias vorgestellten Mesh Shadern übereinstimmen?
pixeljetstream
2019-10-30, 19:28:56
Im dxc GitHub findet man die Details zu allen Features, dort liegen unit Test shader zu allen neuen Features vor.
Mesh shader ist weitestgehend ähnlich, ausser der Umbenennung der ersten Stage von Task zu Amplification shader. Ein paar Details beim Mesh export sind anders gelöst, was aber auch mit dem Design von HLSL vs glsl zu tun hat.
Unter gl/vk wird man als Entwickler für uns ein bisschen besser optimieren können, weil wir flexibleren Speicherzugriff auf die lokalen Daten zulassen. Bei DX ist dann je nach Komplexität mehr unser Compiler gefragt. Aber ich rechne eigentlich nicht damit, dass diese Fälle häufig sind.
Morgenlicht
2019-11-06, 12:35:18
"Microsoft DirectX 12 Tier 1.1" - Feature Update - Ausführlichere Informationen freigegeben am 06.11.2019
devblogs.microsoft.com/directx/DirectX Raytracing (DXR) Tier 1.1 (Amar Patel) (https://devblogs.microsoft.com/directx/dxr-1-1/)
..... Schlagworte: Inline-Raytracing DispatchRays() calls via ExecuteIndirect() Growing state objects via AddToStateObject() GeometryIndex() in raytracing shaders Raytracing flags/configuration tweaksMal schauen was die Newsschreiber aus diesen Unterlagen für eine News zusammenstellen.....
Kartenlehrling
2019-11-06, 13:28:35
Unterstützung
Keine dieser Funktionen erfordert speziell neue Hardware. Vorhandene DXR Tier 1.0-fähige Geräte können Tier 1.1 unterstützen,
wenn der GPU-Anbieter die Treiberunterstützung implementiert.
Das klingt doch schon mal gut.
pixeljetstream
2019-11-06, 16:28:04
Mal schauen was die Newsschreiber aus diesen Unterlagen für eine News zusammenstellen.....
Wozu? Der Blog erklärt die Dinge doch? IMO ist unwahrscheinlich dass irgendwelche Newsschreiber dem Substanz hinzufügen können.
Das beste feature ist das inline raytracing, nun kann man mit geringem overhead aus allen shader stages (pixel, compute etc.) einfache rays tracen. Hätte von Anfang an drin sein sollen ;)
Morgenlicht
2019-11-06, 18:58:33
Newsschreiber fügen nicht unbedingt mehr Substanz hinzu, sondern haben möglicherweise eine Fehldeutung der Informationen. Speziell Bezug nehme ich dazu zu dem Microsoft-Blog vom 28.10.2019 (https://devblogs.microsoft.com/directx/dev-preview-of-new-directx-12-features/) wobei dann bei einer News bei pcgh (02.11.2019) (https://www.pcgameshardware.de/DirectX-12-Software-255525/News/Raytracing-fuer-DirectX-12-mit-neuen-Features-1335995/) der folgende Satz zum Kopfschütteln hervorkam "So wird dadurch die Bindung an Nvidia-Grafikkarten fallen, da Microsoft sowohl mit Nvidia, als auch mit AMD zusammen an DirectX Raytracing arbeitet."
vielleicht hätte ich den Kommentar sein lassen sollen ;)
____________________________________________________
Könnte man vermuten, daß das nun verfügbare Inline RayTracing am Beispiel von "Battlefield V" das RayTracing für die Spiegelungen mit der aktuell verfügbaren Hardware theoretisch verbessern würde? Theoretisch = hätte man es damals schon anwenden können.
pixeljetstream
2019-11-07, 01:03:44
Newsschreiber fügen nicht unbedingt mehr Substanz hinzu, sondern haben möglicherweise eine Fehldeutung der Informationen. Speziell Bezug nehme ich dazu zu dem Microsoft-Blog vom 28.10.2019 (https://devblogs.microsoft.com/directx/dev-preview-of-new-directx-12-features/) wobei dann bei einer News bei pcgh (02.11.2019) (https://www.pcgameshardware.de/DirectX-12-Software-255525/News/Raytracing-fuer-DirectX-12-mit-neuen-Features-1335995/) der folgende Satz zum Kopfschütteln hervorkam "So wird dadurch die Bindung an Nvidia-Grafikkarten fallen, da Microsoft sowohl mit Nvidia, als auch mit AMD zusammen an DirectX Raytracing arbeitet."
vielleicht hätte ich den Kommentar sein lassen sollen ;)
____________________________________________________
Könnte man vermuten, daß das nun verfügbare Inline RayTracing am Beispiel von "Battlefield V" das RayTracing für die Spiegelungen mit der aktuell verfügbaren Hardware theoretisch verbessern würde? Theoretisch = hätte man es damals schon anwenden können.
Der verlinkte Artikel ist in der Tat in mehreren Belangen suboptimal.
Nein das ging damals noch nicht, das kommt erst mit dem neuen featureset. IMO ist das inline tracing eher für Szenarien interessant die kein komplexes shading brauchen (keine akkuraten reflektionen) oder man ein compute basiertes shading system nun leichter erweitern will.
Morgenlicht
2019-11-08, 00:58:04
THX für Erklärung :smile:
Bin gespannt was kommen wird an Nutzung/Umsetzung der neuen erweiterten Möglichkeiten auf den Pionierarbeitsgrafikkarten (y)
______________________________________________
"Microsoft DirectX 12 Tier 1.1" - Sampler Feedback - Veröffentlichung 04.11.2019
devblogs.microsoft.com/directx/Coming to DirectX 12— Sampler Feedback (Claire Andrews) (https://devblogs.microsoft.com/directx/coming-to-directx-12-sampler-feedback-some-useful-once-hidden-data-unlocked/)
______________________________________________
.....
pixeljetstream
2019-11-09, 00:34:27
https://devblogs.microsoft.com/directx/coming-to-directx-12-mesh-shaders-and-amplification-shaders-reinventing-the-geometry-pipeline/
DX12 Mesh Shader
Morgenlicht
2019-11-09, 13:41:15
Mit der Anwenung von Mesh-Shader ist also anzunehmen, daß damit der limitierende Faktor die Game-Geometrie ausgemerzt wurde?
gravitationsfeld
2019-11-10, 00:16:03
Kann man so nicht sagen. Eigentlich ist es auch mit der klassischen Pipeline relativ schwer Geometrie limitiert zu sein.
pixeljetstream
2019-11-10, 12:55:13
Mit der Anwenung von Mesh-Shader ist also anzunehmen, daß damit der limitierende Faktor die Game-Geometrie ausgemerzt wurde?
Kann man so nicht sagen. Eigentlich ist es auch mit der klassischen Pipeline relativ schwer Geometrie limitiert zu sein.
Im Allgemeinen sind die Art & Render-pipelines schon optimiert, so dass LOD etc. handling vorliegt. Über den gesamten Frame eines Games dominieren wegen des Shadings in der Tat andere workloads. Echte Geometrie-Limitierung ist eher bei ProViz (CAD, Film etc.).
Dennoch kann man aber in Teilbereichen limitiert sein. Ein AAA Game-Entwickler der das Vegetationssystem auf mesh-shader experimentell umstellte, berichtete von fast Faktor 2 Verbesserung. Ich selbst hab bissl weniger bei diverse Szenen für sowas wie shadow oder pre-pass messen können.
Aber es kommt eben stark darauf an was man schon selbst an Geometrie processing/lod/culling betreibt. Prinzipiell sind execute-indirect (GPU schreibt drawcalls selbst) und culling per compute shader immer noch sehr flott, verbrauchen aber mehr Bandbreite, und etwas mehr temporären Speicher. Instancing von sehr einfacher Geometrie ist auch nicht so wirklich performant, und man muss da bissl workarounds betreiben, das geht nun auch deutlich einfacher.
Mesh shader eher interessant je mehr man prozedural on-the-fly generieren kann (die Fließbänder aus satisfactory ;) ), das würde dann noch mehr Speicherverbrauch drücken. Es geht hier eher um Trends die Programmierbarkeit und Skalierbarkeit zu verbessern.
Turing bekam z.b. nochmal Verbesserungen in der klassischen Primitive Pipeline, so dass der Vorteil von mesh shadern nicht ganz so stark sichtbar ist, wie wenn man das nicht gemacht hätte. Langfristig ist das mesh-shader modell aber das Skalierbare und deutet die Vermischung von Compute- und Grafik-Shadern an.
Ein Problem im Moment ist dass das mesh shading (generieren von geometrie) nicht so ganz zum raytracing modell (geometrie muss vorher vorliegen) passt. Aber imo ist das okay, fortschritte beim rasterisieren sollen ja nicht durch raytracing eingebremst werden ;)
Andererseits kann man mit DXR1.1 das ganze ja auch kombinieren: so könnte man Partikelgeometrie in mesh shadern dynamisch erzeugen wenn man per Raytracing auf etwas trifft.
dildo4u
2020-02-27, 13:06:15
WDDM 2.7 Windows 10 20H1.
Hardware-accelerated GPU scheduling: It allows the video card to directly manage its video memory[49], which in turn significantly improves the performance of the minimum and average FPS, and thereby reducing latency. It works regardless of the API used for games and applications such as DirectX/Vulkan/OpenGL. (According to observations at the current time before the release of Windows 10 version 2004, the option requires hardware support for the Shader Model not lower than version 6.3, which can be found through AIDA64, but not GPU-Z, as it displays not reliable information) It is supported by Nvidia Geforce video cards starting from the 10th series, as well as integrated graphics from Intel HD 500 or later in both cases, but AMD Radeon is not supported yet due to the lack of insider drivers. It is also possible that this technology is associated with the description of this patent.
https://en.wikipedia.org/wiki/Windows_Display_Driver_Model#WDDM_2.7
Klingt nach Voodoo bin aber auf finale Benches gespannt.
gravitationsfeld
2020-02-27, 16:07:52
Ist sehr wichtig für async compute. Im Moment gibt's nen ziemlich großen Overhead für Queue-Synchronisierung.
Locuza
2020-02-27, 17:34:50
Das klingt erst einmal interessant.
Selbst aus der Xbox One GPU mit 768 Shadern kann man dank Async Compute 20% extra performance herauskitzeln, während am PC in solchen GPU-Klassen wenig bis nichts herausspringt.
Die Regel bei größeren GCN-GPUs (Hawaii, Tonga, Fiji, RX480) scheint bei 5-10% zu legen, mit Ausnahmen 15%.
gravitationsfeld
2020-02-27, 18:53:37
Hat nichts mit der Groesse zu tun. Ich seh auch bei kleineren Chips den gleichen Leistungsunterschied.
Locuza
2020-02-27, 19:44:38
Eine etwas andere Skalierung wird man je nach GPU-Chip ja definitiv haben.
Das Verhältnis von Shader-Cores zum Geometry/Pixel-Front- und Backend fällt unterschiedlich aus, die Anzahl an Shader-Engines je CUs, ebenso die verfügbare Bandbreite.
gravitationsfeld
2020-02-27, 21:07:18
Spielt fast keine Rolle, es gibt genuegend bubbles in den CUs selbst wenn man nicht wegen der Speicherbandbreite limitiert ist. AMDs Chips sind ziemlich schlechte darin mit dem rasterizer den Chip zu fuellen.
Troyan
2020-03-19, 17:27:32
https://cdn.videocardz.com/1/2020/03/NVIDIA-DIRECTX12-ULTIMATE-1536x662.jpg
https://videocardz.com/newz/nvidia-geforce-rtx-graphics-card-to-support-directx-12-ultimate-api
Ich musste lachen.
In 30 Minuten gibt es den D3D Techday: https://devblogs.microsoft.com/directx/directx-developer-day-schedule/
DirectX 12 Ultimate kommt: Alle Informationen zu Raytracing von Microsoft, AMD, Nvidia und Sony (https://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/DX12-Ultimate-Raytracing-Nvidia-Turing-AMD-RDNA2-1345905/)
Gab's das schon mal, dass ein DX-Standard rauskommt und 1,5 Jahre alte Hardware voll kompatibel ist? :ugly: Nicht, dass ich wüsste.
MfG
Raff
Troyan
2020-03-19, 18:07:48
Liegt vielleicht daran, dass alles von nVidia in den Standard gepresst wurde. Ist ja nicht so, dass irgendwas neues enthalten wäre.
Unicous
2020-03-19, 18:27:41
Ja klar, das war allein Nvidias Idee, weder AMD noch MS hatten damit irgendetwas zu tun.:freak:
Dass die Konsolen die seit mehreren Jahren in Entwicklung sind die features unterstützen ist ein glücklicher Zufall.:uup:
DirectX 12 Ultimate kommt: Alle Informationen zu Raytracing von Microsoft, AMD, Nvidia und Sony (https://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/DX12-Ultimate-Raytracing-Nvidia-Turing-AMD-RDNA2-1345905/)
Sorry, was soll der Quatsch mit Sony in der Headline und "im Grunde auch die Playstation 5 zu DirectX 12 Ultimate kompatibel - die Hardware kann es und wird die Funktionen auch ausspielen, wenngleich die exakte Software-Umgebung fehlt"?
Dampf
2020-03-19, 22:01:27
https://cdn.videocardz.com/1/2020/03/NVIDIA-DIRECTX12-ULTIMATE-1536x662.jpg
https://videocardz.com/newz/nvidia-geforce-rtx-graphics-card-to-support-directx-12-ultimate-api
Ich musste lachen.
In 30 Minuten gibt es den D3D Techday: https://devblogs.microsoft.com/directx/directx-developer-day-schedule/
Was gibt's da zu lachen? DX12U wurde zusammen mit Microsoft, Nvidia und AMD für Next Gen Gaming entwickelt und Turing wurde eben für die Zukunft gebaut.
Digidi
2020-03-19, 23:02:59
Kann man so nicht sagen. Eigentlich ist es auch mit der klassischen Pipeline relativ schwer Geometrie limitiert zu sein.
Wieso stürzen die sich dann auf solche sachen? So etwas zu implementieren ist bestimmt nicht einfach und auch riskant. Siehe primitive Shaders :confused:
Was mich auch mitlerweile wundert. Wenn Microsoft das so direkt Mesh Shader nennt. War das dann eine Idee von Microsoft???? Und woher wußte AMD das Mesh Shader kommen? Immerhin ist der Chip schon seit 5 Jahren in der Mache. Die lezten 2 Jahre wird man wohl nicht mehr was grundlegendes ändern.
pixeljetstream
2020-03-20, 00:01:58
Wieso stürzen die sich dann auf solche sachen? So etwas zu implementieren ist bestimmt nicht einfach und auch riskant. Siehe primitive Shaders :confused:
Was mich auch mitlerweile wundert. Wenn Microsoft das so direkt Mesh Shader nennt. War das dann eine Idee von Microsoft???? Und woher wußte AMD das Mesh Shader kommen? Immerhin ist der Chip schon seit 5 Jahren in der Mache. Die lezten 2 Jahre wird man wohl nicht mehr was grundlegendes ändern.
MS hat regelmäßigen Austausch mit Herstellern und Entwicklern. Wir Hersteller tragen Wünsche und Vorschläge vor und MS hat auch seine Vorstellungen und die Entwickler eben so. An unterschiedlichen Zeitpunkten werden die Karten auf den Tisch gelegt und alle wissen was Sache ist. Die genauen Designs der api ziehen sich hin. MS hat das letzte Wort. Das passiert halt hinter NDA Mauern über Jahre.
Wenn man in diesem Bereich arbeitet ergibt sich das unterschiedliche Leute und Firmen ähnliche Ideen entwickeln. Weil die Ausgangslagen (hier Geometrie Daten) die grundsätzliche Pipeline etc. ähnlich ist. Ich hab die primäre Forschung zu mesh shadern etwa 4 Jahre vor Turing release angefangen. Die hauptmotivation war CAD für VR. Sehr hohe Geometrielast bei hohen Auflösungen (super sampling) und refresh rates. Parallel dazu erschienen Techniken von mehreren top game Studios auf den Konsolen per compute culling zu machen (siggraph...) weil GCN anfangs in der geopipe nicht ganz so gut war, aber mit async compute ein Mittel lieferte. Es ist also anzunehmen dass AMD auch in die Richtung weiter dachte mit den primitive shadern. Aus Gründen die wir wohl nie erfahren ging der Versuch vermutlich nicht ganz auf, zeigt aber dass man hier was aendern wollte. Will sagen es ist nie unwahrscheinlich dass mehrere in der Industrie zu nahen Zeitpunkten was gleiches machen weil man im selben Umfeld operiert. Wir analysieren die Anforderungen, sehen Trends bei den Entwicklern.
Auch wenn die Details unterschiedlich sind.
Unsere Ausgangslage und Motivation war Teil meines Vortrags https://youtu.be/72lYVTlPfI8
Digidi
2020-03-20, 00:58:58
Danke für die Infos Pixeljetstream.
Interessant ist das AMDs primitive shader auch noch am Leben sind:
https://youtu.be/ph8LyNIT9sg?t=1772
Was ich auch noch nicht ganz verstehe wurde die alte Pipline durch mesh shader ersetzt oder existieren diese parallel?
DirectX 12 Ultimate kommt: Alle Informationen zu Raytracing von Microsoft, AMD, Nvidia und Sony (https://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/DX12-Ultimate-Raytracing-Nvidia-Turing-AMD-RDNA2-1345905/)
Gab's das schon mal, dass ein DX-Standard rauskommt und 1,5 Jahre alte Hardware voll kompatibel ist? :ugly: Nicht, dass ich wüsste.
MfG
Raff
Die Frage ist es bisschen seltsam, es gibt ja schließlich auch keine neuen Features. Man bezeichnet halt jetzt das aktuelle Konsolenlevel als "Ultimate", pures Marketing.
Locuza
2020-03-20, 09:25:57
Es gibt oft unterschiedliche Bezeichnungen für die gleiche Funktion und umgekehrt werden manchmal die selben Ausdrücke für unterschiedliche Sachen verwendet.
Aber hierbei können Primitive Shader und Mesh Shader einfach nur zwei unterschiedliche Namen, für das prinzipiell gleiche Feature sein.
Die alte Geometrie-Pipeline existiert parallel weiter zur Neuen.
Kann man auch gleichzeitig verwenden.
gravitationsfeld
2020-03-20, 13:30:15
Gleichzeitig? Du meinst im gleichen Frame?
pixeljetstream
2020-03-20, 14:54:34
Ein drawcall für sich hat entweder die klassische oder die mesh pipeline. Es können drawcalls unterschiedlicher Art parallel in flight sein bei NV
gravitationsfeld
2020-03-20, 17:29:15
Ja, das koennte man aber auch so verstehen, dass beides in der gleichen Pipeline an sein koennte. Egal.
Locuza
2020-03-20, 18:11:42
Ich dachte daran, dass man beides parallel verwenden könnte.
Die klassische Pipeline für einen Teil der Geometrie und Mesh Shader für andere.
Aber in der Praxis wird es vermutlich immer eine Entweder-oder Geschichte werden?
gravitationsfeld
2020-03-20, 18:44:26
In einem draw call entweder oder, ansonsten kannst du es mischen.
Ghost1nTh3GPU
2020-03-21, 14:55:35
Durch die XSX wird das Thema High-Speed-SSD wohl nicht so schnell eine Anforderung in DirectX?
Ich frage mich eher, wann ich was HBCC adäquates für den PC bekomme ?
Ich würde mir lieber eher, als spät ne "High-Speed-SSD" in den Rechner klemmen...
Wäre doch absolut Hammer, über so ne "High-Speed-SSD"+Software
zusätzlich zig GB(das 2-3? fache der GPU) für geile Texturen nutzen zu können.
M.f.G. JVC
x-force
2020-03-21, 19:12:12
Wäre doch absolut Hammer, über so ne "High-Speed-SSD"+Software
zusätzlich zig GB(das 2-3? fache der GPU) für geile Texturen nutzen zu können.
es wäre schlauer erstmal den systemram zu füllen ;)
Mist stimmt. Und ich hab voll bestückt mit nur 32Gb :/
M.f.G. JVC
=Floi=
2020-03-22, 19:33:27
es wäre schlauer erstmal den systemram zu füllen ;)
+1
Tobalt
2020-03-22, 20:22:51
ist denn zB DDR4 günstiger pro GB als Speicher auf der graka ??
gravitationsfeld
2020-03-22, 20:54:58
Ja, viel guenstiger.
dildo4u
2020-03-30, 13:39:29
Gears Tactics unterstützt VRS unter DX12,also braucht man nicht zwangsweise das neue Windows Update?
https://news.xbox.com/en-us/2020/03/27/microsoft-joins-intel-optimize-gears-tactics-pc/
Troyan
2020-03-30, 13:49:03
Ja, VRS wird schon unterstützt. 3Mark funktioniert ja auch schon.
aufkrawall
2020-03-30, 14:00:37
Warum nochmal sollte VRS für irgendwas außer VR und Rennspiele interessant sein? Kommt mir arg unspektulär vs. DLSS 2.0 vor. Erst recht für isometrische Perspektive...
dildo4u
2020-03-30, 14:22:20
Warum nochmal sollte VRS für irgendwas außer VR und Rennspiele interessant sein? Kommt mir arg unspektulär vs. DLSS 2.0 vor. Erst recht für isometrische Perspektive...
Extrem wichtig für Konsolen und RDNA2 GPUs wenn AMD kein Performanten DLSS Ersatz hat.
basix
2020-03-30, 23:08:52
Extrem wichtig für Konsolen und RDNA2 GPUs wenn AMD kein Performanten DLSS Ersatz hat.
Eine XSX hat fast gleich viel INT8 Leistung wie eine RTX 2060 inkl. Tensor Cores und soweit ich das mitbekommen habe laufen die DLSS 2.0 Berechnungen nicht concurrent, also seriell mit dem Shading.
PCGH Artikel (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Mechwarrior-5-DLSS-Test-Control-DLSS-Test-1346257/)
"Wer ein DLSS-2.0-Spiel durch Nsight scheucht, wird hier mehrere Dinge sehen: DLSS 2.0 wird am Ende eines Frames angewendet und verursacht Datenverkehr auf den Tensor-Kernen (INT8-Operationen)."
Prozentual gewinnen alle RTX 20xx GPUs in etwa ähnlich. Und das Netzwerk könnte etwas einfacher ausfallen, da nur 1-2 fixe Auflösungen unterstützt werden müssen. Inkl. Konsolen-Bonus (Sprich Optimierungspotential) wird das 100%ig reichen.
Aber eigentlich wird das ganze erst richtig interessant, wenn man alles kombiniert: VRS, Radeon Boost und "DLSS" sowie RIS. Da können locker 2x oder sogar noch mehr Performance herauszuholen sein, ohne merklich Qualität einzubüssen. Und um so höher die Raytracing Last (viel RT und hohe Zielauflösung), desto höher der Gewinn.
Dampf
2020-03-31, 00:01:34
Nutzt DLSS 2.0 nicht FP16 Rechenoperationen? Kann da nichts von INT8 feststellen in Nsight. Bezweifle auch, dass INT8 Präzision hoch genug ist für Image Rekonstruktion.
Eine 2060 hat übrigens 200 TOPS INT-4 Leistung, also grob das doppelte der XSX. Die ML Leistung reicht trotzdem aus, es ist gut, dass Microsoft 97 TOPS liefern kann.
Mich würde mal interessieren, ob DLSS überhaupt kompatibel zu VRS sein kann? Immerhin muss die KI ja dann erkennen, welche Teile des Frames in welcher Auflösung gerendert wird. Eine fixe Renderresolution gibt es ja dann nicht mehr.
basix
2020-03-31, 07:54:03
Ach stimmt, ist das doppelte, mea culpa. Laut Raff und seinem Artikel wird INT8 benutzt. Ich war auch etwas überrascht und hätte auch eher FP16 erwartet, aber ich traue da Raff üblicherweise ;) Ich hab Nsight zwar gestern installiert, kam aber nicht zum spielen.
Zur VRS / RBoost vs. DLSS:
Wieso sollte das nicht funktionieren? DLSS funktioniert ja auch für mehrere Auflösungen. Nun halt nicht für das ganze Bild. DLSS wird (meine Vermutung) im Kern auf jeweils auf ein paar beieinanderliegende Pixel angewendet -> Tiles. Wenn diese Tiles in unterschiedlicher Auflösung vorliegen, weiss das Spiel das und kann das dem DLSS Algo als Parameter übergeben. Zum Schluss wird noch ein Fullscreen Filter drübergebügelt, um letzte Unschönheiten zu beseitigen. Zumindest stelle ich mir das so vor.
pixeljetstream
2020-03-31, 14:40:28
Eine fixe Renderresolution gibt es ja dann nicht mehr.
Kleine Korrektur: es wird nachwievor in einer fixen Auflösung gerendert (depth und color buffer verhalten sich normal), nur die Pixel shader laufen weniger, so dass N Pixel einer Region deren Resultat bekommen. Es ist ähnlich Multi sampling wo der Pixel shader auch nur einmal pro Region (Pixel) läuft, aber der farbwert auf n samples verteilt wird, die jeweils ihren depth test etc. machen.
MSAA: 1 Pixel shader Ausführung > N samples per Pixel (per sample depth/stencil test)
VRS: 1 Pixel shader Ausführung > N Pixels per Region (per pixel depth/stencil test)
Eine XSX hat fast gleich viel INT8 Leistung wie eine RTX 2060 inkl. Tensor Cores und soweit ich das mitbekommen habe laufen die DLSS 2.0 Berechnungen nicht concurrent, also seriell mit dem Shading.
Der Shader Core besteht bei Turing im wesentlichen aus 3 Blöcken.
INT32
FP32
Tensorcore
Der Scheduler kann 2 davon gleichzeitig ansprechen, also entweder INT32 + FP32 oder INT32 + Tensor oder FP32 + Tensor können jeweils parallel laufen.
Anders würde es auch wenig Sinn machen, und das dürfte auch der Grund sein warum Turing auf einmal dezidierte INT32 Units hat.
Diese gab es nämlich schon in Pascal, nur haben sich dort INT und FP die Datenleitungen aus dem Warp Scheduler geteilt, so dass zu jedem Zeitpunkt immer nur eines von beiden arbeiten konnte.
Mit den Tensorcores musste man die Bandbreite in den Shadercore erweitern, damit diese auch gefüttert werden können, und da hatte man wohl mit der parallelen Ausführung von INT32 das relativ kostengünstig erweitert, weil die dafür benötigte Bandbreite eh schon vorhanden war.
Nightspider
2020-07-09, 00:31:21
Dumme Frage zwischendurch:
Woran liegts eigentlich das DX12 so wenig im CPU Limit bringt?
Mantle hat vor 6 (?) Jahren teils riesige Vorteile im CPU Limit gehabt und bei modernen Games bringt DX12 doch meistens sehr geringe Vorteile, wenn überhaupt oder?
Sind die Entwickler zu faul für eine gute Implementierung, ist der Nutzen ihnen noch zu gering, weil die PC Hardware eh schnell genug ist?
Gabs da mal Interviews oder Aussagen von Entwicklern?
Und bei Vulkan siehts ja glaube noch genauso aus.
aufkrawall
2020-07-09, 00:45:42
Mantle hat vor 6 (?) Jahren teils riesige Vorteile im CPU Limit gehabt und bei modernen Games bringt DX12 doch meistens sehr geringe Vorteile, wenn überhaupt oder?
Nein, die Unterschiede sind häufig riesig. Falls du BFV meinst: Dice sind nur noch ein Schatten ihrer selbst.
N0Thing
2020-07-09, 02:14:18
Dumme Frage zwischendurch:
Woran liegts eigentlich das DX12 so wenig im CPU Limit bringt?
Mantle hat vor 6 (?) Jahren teils riesige Vorteile im CPU Limit gehabt und bei modernen Games bringt DX12 doch meistens sehr geringe Vorteile, wenn überhaupt oder?
Sind die Entwickler zu faul für eine gute Implementierung, ist der Nutzen ihnen noch zu gering, weil die PC Hardware eh schnell genug ist?
Jain. Ich würde sagen, in den meisten realistischen Testszenarien limitiert heute in der Regel die GPU und damit ist einer der Vorteile der low-level-APIs hinfällig. In den CPU-Benchmarks fegen DX12 und Vulkan noch immer Dx11 und früher oder OpenGL vom Platz.
dildo4u
2020-07-09, 09:29:04
Man wird nie ein sinnvollen Vergleich machen können, wenn das Game DX11 und 12 kann wurde es mit Rücksicht auf die Einschränkungen von 11 entwickelt.
Also kann es DX12 gar nicht maxen, ich hoffe das wir uns langsam dahin bewegen das PC Games DX12 oder Vulkan only sind.
dargo
2020-07-09, 10:29:53
Das ist ein Widerspruch in sich. :) Wenn Games mit nativen DX12/Vulkan kommen wie willst du da mit DX11 vergleichen? :wink: In einem Punkt stimme ich aber voll zu. Erst mit nativen DX12/Vulkan holt man das meiste raus.
btw.
Das "Problem" bei den aktuellen API-Vergleichen ist u.a. auch, dass es mittlerweile sehr schnelle CPUs fürs kleine Geld gibt. Kaum eine Redaktion testet mit schwacher CPU und schnellster Grafikkarte um die starken Vorteile von DX12/Vulkan sichtbar zu machen.
pixeljetstream
2020-07-09, 11:56:52
Wie von anderen erwähnt, viele Pipelines sind nicht voll auf die neue APIs ausgelegt, die Investitionen das umzustellen sollen gerechtfertigt sein. IMO ist der Eisbrecher für die neuen APIs halt die neuen Konsolen wo das native multi threading der APIs dann auch noch stärker an Bedeutung gewinnt.
Auch die Tool Seite, gpu crash dumps etc. die nun wichtiger sind gibt es jetzt erst langsam in gut. Und nichtzuletzt halt auch mehr neue gpu Features.
aufkrawall
2020-07-14, 15:15:04
Game bugs, game bugs, game bugs. It's just ludicrous how broken some games are (Shadow of the Tomb Raider being one of the worst offenders) and that they work at all on Windows.
https://reddit.com/r/linux_gaming/comments/hkntyd/what_is_going_on_with_vkd3d/fww31x6/
:freak:
dargo
2020-08-28, 16:24:22
DirectX 12 Feature-Level 12_2.
https://www.computerbase.de/2020-08/directx-12-feature-level-12-2/
aufkrawall
2020-09-03, 21:35:06
AMD im CPU-Limit mal wieder schneller als Nvidia, nehmen wir mal wegen einem garantierten CPU-Limit den langsamen Ryzen 3 1300X:
2080 Ti: 48fps min
5700 XT: 55fps min
https://gamegpu.com/action-/-fps-/-tps/marvel-s-avengers-test-gpu-cpu
BFV ist auch nur auf Nvidia die CPU-Performance mit DX12 schlechter:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12408866&postcount=4356
In Shadow of the Tomb Raider läuft Turing im CPU-Limit noch langsamer als Pascal, das auch schon langsamer als AMD lief.
Irgendwas läuft da aber gar nicht glatt zwischen Nvidia und manchen Entwicklern. :eek:
Birdman
2020-09-04, 00:26:44
AMD im CPU-Limit mal wieder schneller als Nvidia, nehmen wir mal wegen einem garantierten CPU-Limit den langsamen Ryzen 3 1300X:
2080 Ti: 48fps min
5700 XT: 55fps min
https://gamegpu.com/action-/-fps-/-tps/marvel-s-avengers-test-gpu-cpu
Scheint mal wieder der nVidia Treiber bei Systemen mit nur 4 Threads zu spinnen, wie man gut am Ryzen 5 1400 sehen kann....das ich echt mühsam/lächerlich mit nV mittlerweile.
Aber die Benchmarks sehen hier bei GameGPU eh kaputt aus, vor allem die der Radeon II und 5700XT. (exakt die selbe min/avg Framerate bei den meisten CPUs)
Daher traue ich den ganzen Werten/Messungen hier nur bedingt.
aufkrawall
2020-09-04, 00:44:29
Scheint mal wieder der nVidia Treiber bei Systemen mit nur 4 Threads zu spinnen, wie man gut am Ryzen 5 1400 sehen kann....das ich echt mühsam/lächerlich mit nV mittlerweile.
Das kann auch einfach das GPU-Limit sein, das bei AMD wegen der besseren CPU-Performance und der langsameren GPU-Performance im Vergleich zur 2080 Ti viel eher erreicht wird. Das Spiel dürfte halt auch 8T brauchen und bricht bei weniger entsprechend ein.
Aber die Benchmarks sehen hier bei GameGPU eh kaputt aus, vor allem die der Radeon II und 5700XT. (exakt die selbe min/avg Framerate bei den meisten CPUs)
Daher traue ich den ganzen Werten/Messungen hier nur bedingt.
Es wird dadurch nicht unbedingt implausibel.
Ein 720p-Test wäre aufschlussreich.
Troyan
2020-11-04, 12:13:01
Computerbase hat sich Watch Dogs Legion angesehen und DX12 hat mal wieder vollkommen überzeugt: https://www.computerbase.de/2020-11/watch-dogs-legion-benchmark-test/2/#diagramm-directx-11-vs-directx-12-3840-2160
Raytracing ist der einzige Grund, dass sich Entwickler überhaupt mit DX12 beschäftigen...
Radeonfreak
2020-11-04, 12:30:05
Das liegt wohl nicht an DX12 sondern an der Unfähigkeit der Entwickler.
aufkrawall
2020-11-04, 12:41:18
Da schlägt die Zusammenarbeit mit Nvidia ja offenbar voll durch bei den low fps. :eek: ;D
Bei gamegpu läuft es mit DX12 auf dem Ryzen 1300X btw. wieder 17% schneller auf AMD als bei Nvidia bei den low fps, das nur am Rande. ;)
https://gamegpu.com/action-/-fps-/-tps/watch-dogs-legion-test-gpu-cpu
AintCoolName
2020-11-04, 13:27:25
Wie ist das mit Google Stadia. Das ist doch Vulkan. Wenn ich sehe wie hier über den wechsel zu eine anderen Api gesprochen wird DX11->12, frage ich mich wie es überhaupt Spiele auf Stadia geben kann. Ich meine gelesen zu haben das Assinscreed Unity auf Stadia kommen soll. Die werden doch für so ein altes Game keine Vulkan implentaion mehr machen.
Dampf
2020-11-04, 13:30:22
Nvidia hat sich mit Watch Dogs keinen Gefallen getan...
aufkrawall
2020-11-04, 14:43:23
Die werden doch für so ein altes Game keine Vulkan implentaion mehr machen.
Müssen sie aber, oder welche API soll sonst unter Linux laufen?
dargo
2020-11-04, 15:04:41
Raytracing ist der einzige Grund, dass sich Entwickler überhaupt mit DX12 beschäftigen...
Aha... wo ist dieses Raytracing in Horizon: Zero Dawn und Death Stranding? :uponder:
Da schlägt die Zusammenarbeit mit Nvidia ja offenbar voll durch bei den low fps. :eek: ;D
Bei gamegpu läuft es mit DX12 auf dem Ryzen 1300X btw. wieder 17% schneller auf AMD als bei Nvidia bei den low fps, das nur am Rande. ;)
https://gamegpu.com/action-/-fps-/-tps/watch-dogs-legion-test-gpu-cpu
Bei den avgs. sehe ich gar +25,6%. :freak:
aufkrawall
2020-11-10, 14:48:23
Valhalla low/min fps auf R5 1600X:
3090: 63fps
5700 XT: 73fps
https://gamegpu.com/action-/-fps-/-tps/assassin-s-creed-valhalla-test-gpu-cpu
Bei deren Tests von Spielen mit DX11 liegen btw. die GeForces häufig vorn. Es wird also nicht an Unterschieden im Test-Setup liegen, DX12 läuft offenbar einfach wirklich auf Nvidia regelmäßig ein gutes Stück langsamer im CPU-Limit als auf AMD. :freak:
Ex3cut3r
2020-11-10, 16:03:22
Das ist doch nicht wirklich neues? Turing ist sogar noch schlimmer als Pascal gewesen was das angeht. Zu Ampere kann ich nix sagen. Denke mal, das ist ähnlich wie bei Turing. Bei AMD wiederum kriegt man in DX12 oft 10% mehr FPS im CPU Limit. Glaube bei DX11 ist es aber nicht so.
Warum das aber so ist, KA....wirklich. Woran ich mich noch erinnere, war mal zu Kepler Zeiten, wo eine Geforce unter 4 Kernen, sprich Dualcore oder Triple Core (Phenom 2 X3 z.B.) übertrieben heftig im CPU Limit eingebrochen ist, im vergleich zum AMD GPU Treiber.
dargo
2020-11-10, 16:10:41
Älterer 4-Threader von Intel. :freak:
72131
aufkrawall
2020-11-10, 16:13:30
Das ist doch nicht wirklich neues?
Ist in der differenzierten Form imho nicht sonderlich bekannt. Es gibt/gab auch DX12-Spiele, die mit Nvidia ziemlich genau gleich schnell im CPU-Limit vs. AMD laufen.
Bei AMD wiederum kriegt man in DX12 oft 10% mehr FPS im CPU Limit. Glaube bei DX11 ist es aber nicht so.
Du kriegst auch mit Nvidia mitunter massiv mehr fps im CPU-Limit (etwa Hitman 2).
Aber es sollte ja eigentlich keinen Grund geben, dass sie mit DX12 schlechter sind vs. AMD, wo es mit 11 noch deutlich umgekehrt war. Irgendwas muss da von Grund auf kacke sein, so wie sich das seit einiger Zeit häuft (wenn auch nicht so krass wie damals umgekehrt DX11 vs. AMD).
=Floi=
2020-11-10, 18:19:13
Älterer 4-Threader von Intel. :freak:
72131
an dem bild passt nicht mal die skalierung!
basix
2020-11-10, 19:37:40
an dem bild passt nicht mal die skalierung!
Du weisst schon, dass GameGPU immer Low+Avg=Balkenlänge darstellt? Nicht dass ich die Darstellung gut finde, aber die Skalierung stimmt ;)
Ganon
2020-11-16, 20:56:54
Microsoft hat einen OpenGL 3.3 / OpenCL 1.2 zu DirectX 12 Wrapper raus gebracht: https://www.microsoft.com/en-us/p/opencl-and-opengl-compatibility-pack/9nqpsl29bfff
aufkrawall
2021-07-02, 17:03:45
Hatte mit AMD tatsächlich mindestens 15% mehr fps in Legion im CPU-Limit als jetzt mit Nvidia.
SotTR scheint gefixt, läuft vergleichbar schnell. Hitman 2 D3D12 ist mit AMD ohne CAM ca. 8% schneller, mit CAM brechen beide auf den gleichen Wert ein. Bez. Frametimes scheint es von Titel zu Titel abzuweichen, welcher mit welchem Hersteller sauberer läuft. Metro EE läuft ziemlich unrund nur auf Nvidia, während auf Nvidia Legion mit RT wesentlich sauberer läuft. D3D12 ist hier Hit & Miss, Vulkan-Titel scheinen konstanter mit beiden ähnlich gut zu laufen. Ob es nun an den APIs/Treibern oder dem Können der Entwickler liegt...
][immy
2021-07-02, 17:07:18
Du weisst schon, dass GameGPU immer Low+Avg=Balkenlänge darstellt? Nicht dass ich die Darstellung gut finde, aber die Skalierung stimmt ;)
jo, aber 45 bei Rot sollten auf der gleichen höhe sein wie 45 bei grün ;)
Die RX4x0 & RX5x0 Werte passen da so nicht rein. Nicht von der Balkenlänge.
Edit:
uff. ... sehe grad das der Beitrag ja schon alt war
@aufkrawall, ist doch klar das jetzt die Treiberprobleme bei nvidia auftreten (bekannt werden). Schließlich bin ich Anfang des Jahres wieder zu nvidia gewechselt ;)
Hat sich generell denn schon was an der Situation gebessert mit den kleineren CPUs?
aufkrawall
2021-07-12, 21:25:39
Ich kann nicht aus erster Hand sagen, wie die Situation Vierkernern oder CCX-Krüppeln ist.
Mit dem 11400F sind die fps in SotTR hier jedenfalls vergleichbar zwischen RDNA2 und Ampere. Vulkan unter Linux ist noch eine Spur schneller:
https://abload.de/thumb/screenshot_20210712_20ekpm.png (https://abload.de/image.php?img=screenshot_20210712_20ekpm.png) https://abload.de/thumb/sottr_2021_07_12_20_3u3j56.png (https://abload.de/image.php?img=sottr_2021_07_12_20_3u3j56.png)
Kurioserweise ist mit Ampere der Linux-Port mit Vulkan mittlerweile auch im GPU-Limit schneller:
https://abload.de/thumb/screenshot_20210712_2opkxy.png (https://abload.de/image.php?img=screenshot_20210712_2opkxy.png) https://abload.de/thumb/sottr_2021_07_12_20_3d8ji4.png (https://abload.de/image.php?img=sottr_2021_07_12_20_3d8ji4.png)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.