Archiv verlassen und diese Seite im Standarddesign anzeigen : CPU-Reviews für die Tonne? (nVidia-Schwäche unter kleineren CPUs)
maximus_hertus
2021-03-12, 10:22:42
Da ich noch keinen Thread zu dem Thema gefunden habe, mache ich mal einen auf :)
Erstmal der Grund für diesen Thread:
JLEIJhunaW8
In der Regel sieht man RTX 3090 und 3080 Karten in CPU Reviews und wenn man z.B. den 10900K und den Ryzen 9 5900X vergleicht, passt das auch.
Aber schon bei i5 / i3 CPUs bzw. Ryzen 3000 ist der nVidia Treiber (aktuell) so mies, dass teils eine Radeon 5600XT(!) mehr fps in 1080/720p liefert als eine RTX 3090.
Das hat zur Folge, dass man bisher von einem harten CPU Limit ausgegangen ist, obwohl es sich um ein reines Grafiktreiber-Limit handelte.
Eine 6900XT liegt in diesen Situationen bis zu 30(!)% vor der nVidia Konkurrenz und man hat auf einmal statt riesiger CPU Unterschiede fast die gleichen fps bei Ryzen 3000 und 5000 und dementsprechend ändert das bei der Bewertung der CPU LEistungsfähigkeit dann doch alles?
Die Frage ist da natürlich, ob es nur einige wenige Games sind oder doch die meisten, die so reagieren (oder zumindest messbare Unterschiede haben). Aber selbst diese wenigen Games hätten wohl Auswirkungen auf einen Index der über eine Nachkommastelle hinausgeht.
Da CPU Tests ja in der Regel in 720p bzw. 1080p abgehalten werden und aufgrund des nVidia-Treiber-Problem (bei nicht Top-CPUs) muss man ja auf die 6900XT als Test-Grafikkarte umschwenken? Und ggf. alle CPU Benches neu erstellen?
Es wäre ja schon ein echter Unterschied, wenn zwischen alte und neuer Gen nur noch z.B. 10 (oder weniger) statt 20 und mehr % Differenz liegen würde.
Eure Meinung?
dildo4u
2021-03-12, 10:35:48
Verstehe dein Fazit nicht ich würde weiterhin Nvidia verwenden, da man so leichter Unterschiede zwischen den CPUs zeigen kann.
Davon ab hat Nvidia immer noch 80% vom Markt oder so ein Test mit AMD bringt also der Masse wenig.
Im Optimal Fall testet man alles aber der Aufwand steigt dann ins unermessliche vorallem wenn man rechtzeitig zum Produkt Launch Werte anbieten will.
Lowkey
2021-03-12, 10:36:38
Ich habe das Video auch gestern angeschaut und es erinnerte mich daran, dass es vor ein paar Jahren andersrum gewesen ist. Nvidia war die Empfehlung für schwache CPUs. Jetzt ist es andersrum.
Zweitens gibt es per NDA bestimmt genaue Testvorgaben. Alle Reviewer setzen auf ein starkes, aktuelles System um gerade das CPU Limit zu umgehen und die reine Grafikkartenleistung zu testen, wie sie im Optimalfall möglich wäre.
Praktisch könnte man dann wieder 720p erwähnen oder gar Fragen, warum die CPU mit realitätsfernem DDR4-2933 getestet werden muss?
Wenn die Resonanz in den Foren groß genug wäre, dann würden die Tester später im Sondertest noch eine kleine CPU mitlaufen lassen.
Gipsel
2021-03-12, 10:36:39
Im Prinzip ändert das für CPU-Reviews nicht soo viel. Es ist ja tatsächlich CPU-Last, die hier limitiert. Nur ist eben vielleicht ~25% davon nicht direkt vom Spiel verursachte Last sondern der nV-Treiber. Dies verschiebt einen Anteil der beobachteten Performancecharakteristik von Spielecode auf den Treibercode. Solange nV keine Treiber produziert, die suboptimal für entweder intel- oder AMD-CPUs performen, verschiebt es das Gesamtbild in CPU-Reviews nicht wirklich. Denn auch mit AMD-GPUs bleibt ja die Reihenfolge der CPUs sehr ähnlich, oder? Das CPU-Limit liegt aber höher.
maximus_hertus
2021-03-12, 10:46:25
Solange nV keine Treiber produziert, die suboptimal für entweder intel- oder AMD-CPUs performen, verschiebt es das Gesamtbild in CPU-Reviews nicht wirklich. Denn auch mit AMD-GPUs bleibt ja die Reihenfolge der CPUs sehr ähnlich, oder? Das CPU-Limit liegt aber höher.
Es ändert sich in so fern, als dass man nicht sehen kann (in den Reviews), wie viel fps die gerade mal ein Jahr alte Top CPU schafft, da sie durch den nV Treiber gebremst wird. Auch wird suggeriert, dass die nuee CPU Gen z.B. 25% vorne liegt, obwohl es eher 5-10% sind (jetzt mal fiktive Zahlen genommen).
Man bencht ja gerne in 720p, um eben die GPU aus der Gleichung zu nehmen. Dann ist doch ein so krasser Treiber Overhead doch kontraproduktiv da man eben nicht die reine CPU Leistung in den Games sieht?
Zudem ist die 6900XT in 1080p und niedriger tendenziell doch sogar die schnellste Karte? Es würde also doppelt Sinn machen diese für CPU Tests zu nutzen?
Silent3sniper
2021-03-12, 10:49:10
In diesem Video wird darauf eingegangen was die technischen Hintergründe sind.
nIoZB-cnjc0
tldr als Laie: Nvidia hat in Software ermöglicht "quasi Multithreading" für single core lastige DX11 Titel realisiert, weshalb Nvidia insbesondere bei DX11 lange gut da stand. Mit Fermi war das Scheduling noch in Hardware implementiert, Nvidia ist dann zu SW gewechselt, wohl zwecks Flexbilität.
AMD macht das zumindest seit GCN in Hardware, und mittlerweile ist es bemerkbar. Bei DX11 prinzipiell auch, aber da hängt es von den Optimierungen der Entwickler ab.
Zusammenfassend: Bei Nvidia ist der Driver-Overhead grundsätzlich höher, aber in DX11 hat sich das mangels gut optimierter Spiele lange trotzdem ausgezahlt.
Das ist auch das Ergebnis aus diesen Benchmarks:
0tfTZjugDeg
maximus_hertus
2021-03-12, 10:59:24
Verstehe dein Fazit nicht ich würde weiterhin Nvidia verwenden, da man so leichter Unterschiede zwischen den CPUs zeigen kann.
Davon ab hat Nvidia immer noch 80% vom Markt oder so ein Test mit AMD bringt also der Masse wenig.
Im Optimal Fall testet man alles aber der Aufwand steigt dann ins unermessliche vorallem wenn man rechtzeitig zum Produkt Launch Werte anbieten will.
Dann kannst du auch die 720p Tests sein lassen, nutzt ja die Masse auch nicht ;)
Bei CPU Reviews will ich doch sehen, was die CPU kann, also welche fps ich MAXIMAL mit ihr erreichen kann. Die GPU sollte dabei möglichst gar keine Rolle spielen, völlig unabhängig vom Hersteller.
Und wie schon geschrieben, ist eine 6900XT in (sehr) niedrigen Auflösungen so oder so (knapp) die schnellste GPU.
Nach über 10 Jahren totale nVidia Dominaz gib es nun 2 Top-GPUs (3090, 6900XT). Ggf. sollte man zumindest mal ein Test mit beiden GPUs machen.
Also 720p mit 3080 und 6900XT und z.B. folgenden CPUs:
AMD: Ryzen 7 => 5800X, 3800XT, 2700X, 1800X
Ryzen 5 => 5600X, 3600XT, 2600X, 1600X
Intel: i7 => 10700K, 9700K, 8700K
i5 => 10600K, 9600K, 8600K
Was man mit den Ergebnissen machen würde wäre ja jedem selbst überlassen, aber ich würde schon sehr gerne die erreichbaren fps sehen.
Troyan
2021-03-12, 11:33:24
In diesem Video wird darauf eingegangen was die technischen Hintergründe sind.
https://youtu.be/nIoZB-cnjc0
tldr als Laie: Nvidia hat in Software ermöglicht "quasi Multithreading" für single core lastige DX11 Titel realisiert, weshalb Nvidia insbesondere bei DX11 lange gut da stand. Mit Fermi war das Scheduling noch in Hardware implementiert, Nvidia ist dann zu SW gewechselt, wohl zwecks Flexbilität.
AMD macht das zumindest seit GCN in Hardware, und mittlerweile ist es bemerkbar. Bei DX11 prinzipiell auch, aber da hängt es von den Optimierungen der Entwickler ab.
Zusammenfassend: Bei Nvidia ist der Driver-Overhead grundsätzlich höher, aber in DX11 hat sich das mangels gut optimierter Spiele lange trotzdem ausgezahlt.
Das ist auch das Ergebnis aus diesen Benchmarks:
https://youtu.be/0tfTZjugDeg
Nein, das ist einfach nur falsch. Versteht doch endlich, dass mit DX12 die Anwendung verantwortlich ist, die Arbeit zu 99% für die GPUs bereitzustellen.
Das, was nVidia mit DX11 gemacht hat, muss nun von den Entwickler selbstständig umgesetzt und dazu muss jede Architektur noch explizit berücksichtigt werden.
Die Arbeit macht sich niemand und der DX12 Pfad wird soweit angepasst, dass es auf nVidia-Hardware funktioniert.
Overhead bei einem DX12 Treiber ist einfach nur irre an sowas zu glauben.
/edit: PCPer.com hat von RotTR Benchmarks mit den Patch veröffentlicht: https://pcper.com/2017/05/rise-of-the-tomb-raider-gets-a-ryzen-performance-update/
Ex3cut3r
2021-03-12, 11:50:40
Schön und gut, aber eine Sache wurde auch hier IMO vergessen. Der User mit einem 3-5 Jahre alten PC, dessen CPU schon damals keine Rakete war, und heute erst recht nicht, wird sich ne Einsteiger bis Mittlelklasse GPU kaufen und feststellen (oder auch nicht) das er immer im CPU Limit ist, weil der Prozessor zu langsam ist, die GPU zu "füttern" der gleiche User wäre mit einer AMD Karte im gleichen Leistungspektrum nun aber 20-25% schneller, da er immer CPU Limit ist in neuen Spielen, ich gehe deshalb soweit, für alte PCs gar keinen neuen Geforces egal welche Leistungsklasse zu empfehlen. Da einfach unverhältnismäßig langsamer im CPU Limit als die Radeons in DX12!
Da muss Nvidia einfach nachbessern, die Zeiten von DX11 sind eh abgelaufen.
vinacis_vivids
2021-03-12, 11:58:15
Die CPU-Reviews mit nur der Top nvidia Grafikkarte ist halt Müll, weil das den durchschnittlichen Käufer nur irritiert und zu falschen Schlussfolgerungen führt.
Leute mit guten Ryzen CPUs (2600X, 3600 usw) sind mit AMD Grafikkarten ala 5700XT besser aufgehoben als mit ner RTX3090.
Die professionellen Hardwaretester haben die Pflicht auch die Laien vor schlechten und überteuerten Käufen zu schützen.
Ich erwarten bei den Erkenntnissen, dass die kommende 6700XT alles von Nvidia bei 1080p/1440p mit Mittelklasse-CPU (Ryzen 3er) übertrifft.
Und die Masse der Käufer der Ryzen 3000er sowie Mittelklasse Intel-CPUs sollten aufgeklärt werden, dass man mit Nvidia-GPU krasse Einbußen hinnehmen muss.
Das verschiebt natürlich grundsätzlich auch die Empfehlungen im Bereich der Mittelklasse.
Der_Korken
2021-03-12, 12:01:44
Es ändert sich in so fern, als dass man nicht sehen kann (in den Reviews), wie viel fps die gerade mal ein Jahr alte Top CPU schafft, da sie durch den nV Treiber gebremst wird. Auch wird suggeriert, dass die nuee CPU Gen z.B. 25% vorne liegt, obwohl es eher 5-10% sind (jetzt mal fiktive Zahlen genommen).
Das stimmt so nicht. Gebremst werden alle CPUs, nicht nur alte. Insofern sind Benches mit Nvidia-GPUs nicht biased, solange niemand nachweisen kann, dass der Treibercode von nvidia auf Intel oder Ryzen signifikant schlechter läuft als auf dem anderen.
Wenn du sagst, dass mit einer AMD-GPU die neue CPU-Gen nur 5-10% vorne ist statt 25%, dann mag das zwar stimmen, aber trotzdem bleiben die neuen CPUs 25% schneller, sofern man sie lässt. Mit einer 7800XT oder RTX4080 würde man die 25% wieder sehen, weil sich die GPU-Ceiling nach oben verschiebt.
Imho kann man nur zwei Sachen aus diesem Umstand ableiten:
1. Alte CPUs sind brauchbarer als in einigen Benchmarks suggeriert, d.h. man muss sich nicht verrückt machen lassen dass die eigene CPU in Spiel X nur noch 40fps schafft, während die neue 70 schafft. Mit einer Radeon wären es 50 bzw. 87fps, sodass man seine CPU doch noch eine Gen länger behalten könnte.
2. Schwache CPU muss bei der Graka Kaufberatung mit einbezogen werden (Vorteil für Radeon).
Troyan
2021-03-12, 12:12:26
Schön und gut, aber eine Sache wurde auch hier IMO vergessen. Der User mit einem 3-5 Jahre alten PC, dessen CPU schon damals keine Rakete war, und heute erst recht nicht, wird sich ne Einsteiger bis Mittlelklasse GPU kaufen und feststellen (oder auch nicht) das er immer im CPU Limit ist, weil der Prozessor zu langsam ist, die GPU zu "füttern" der gleiche User wäre mit einer AMD Karte im gleichen Leistungspektrum nun aber 20-25% schneller, da er immer CPU Limit ist in neuen Spielen, ich gehe deshalb soweit, für alte PCs gar keinen neuen Geforces egal welche Leistungsklasse zu empfehlen. Da einfach unverhältnismäßig langsamer im CPU Limit als die Radeons in DX12!
Da muss Nvidia einfach nachbessern, die Zeiten von DX11 sind eh abgelaufen.
Im 3DMark Overhead Test ist mein Shield TV mit Vulkan genauso schnell wie mein i7-8700 mit DX11MT gewesen.
nVidia kann überhaupt nichts nachbessern, sondern die Entwickler sind verantwortlich. DX12 und Vulkan sind 13x schneller gegenüber DX11MT: https://www.guru3d.com/news-story/quick-test-futuremark-3dmark-v2-3-3663-vulkan-api-overhead-benchmarks,3.html
https://pcper.com/2015/03/3dmark-api-overhead-feature-test-early-dx12-performance/
maximus_hertus
2021-03-12, 12:18:08
Was ist aber das aktuelle Fazit?
Mit der künftigen GPU Generation wäre CPU A dann 25% schneller als die alte CPU B, sofern sich die kommenden Spiele genauso verhalten wie die alten und es keine signifikanten Änderungen gibt, z.B. verursacht durch die neuen Konsolen. Sehr viele könnte, müsste, theroretiscxh, möglicherweise.
Warum nicht einfach die MAXIMALEN fps messen, die HEUTE mit einer CPU möglich sind?
Als Reviewer nehme ich die 6900XT und kann mich nur auf die CPUs konzentrieren?
Ich nehme immer gerne das Beispiel (aus längst vergangenen Tagen ;) ) FX-8350 vs i5-2500K.
Zum FX-8350 Launch war der i5 meilenweit (teils 40%) vorne, aber Jahr für Jahr ist der Vorspung geschmolzen, bis dann auf einmal in vielen neuen Games der FX sogar vorne war.
Man kann eben nicht einfach davon ausgehen, dass eine CPU, nur weil sie mit der RTX 3080 heute 25% mehr fps im CPU Limit hat, das 1:1 für die Zukunft gilt. Andere GAme Engines bzw. Weiterentwicklungen, neue Konsolen, neue Features, etc.. Es gibt so viele Ungewissheiten, so dass der imo beste Ansatz ist, die HEUTIGEN MAX FPS zu messen. Das sind reale Zahlen und keine Speku, was möglicherweise in der Zukunft sein könnte.
Rancor
2021-03-12, 12:40:36
Die CPU-Reviews mit nur der Top nvidia Grafikkarte ist halt Müll, weil das den durchschnittlichen Käufer nur irritiert und zu falschen Schlussfolgerungen führt.
Leute mit guten Ryzen CPUs (2600X, 3600 usw) sind mit AMD Grafikkarten ala 5700XT besser aufgehoben als mit ner RTX3090.
Die professionellen Hardwaretester haben die Pflicht auch die Laien vor schlechten und überteuerten Käufen zu schützen.
Ich erwarten bei den Erkenntnissen, dass die kommende 6700XT alles von Nvidia bei 1080p/1440p mit Mittelklasse-CPU (Ryzen 3er) übertrifft.
Und die Masse der Käufer der Ryzen 3000er sowie Mittelklasse Intel-CPUs sollten aufgeklärt werden, dass man mit Nvidia-GPU krasse Einbußen hinnehmen muss.
Das verschiebt natürlich grundsätzlich auch die Empfehlungen im Bereich der Mittelklasse.
;D;D;D;D
Savay
2021-03-12, 12:49:33
Imho kann man nur zwei Sachen aus diesem Umstand ableiten:
1. Alte CPUs sind brauchbarer als in einigen Benchmarks suggeriert, d.h. man muss sich nicht verrückt machen lassen dass die eigene CPU in Spiel X nur noch 40fps schafft, während die neue 70 schafft. Mit einer Radeon wären es 50 bzw. 87fps, sodass man seine CPU doch noch eine Gen länger behalten könnte.
2. Schwache CPU muss bei der Graka Kaufberatung mit einbezogen werden (Vorteil für Radeon).
Genau das...
Vor allem 2. muss bei irgendwelchen Aufrüstempfehlungen und Guides klar berücksichtigt werden!
Bitter ist da vor allem die potenzielle Performance Regression mit nem Ryzen 1xxx oder 2xxx oder nem langsameren Intel beim Umstieg von einer Low-End Radeon auf eine Mittelklasse bis Highend nV vorallem in 1080p. :freak:
Da kann man eigentlich nur von abraten momentan. :crazy:
Ansonsten bleibt es aber wie gehabt...eine sehr schnelle GPU paart man so oder so am besten mit ner sehr schnellen CPU.
Wer aber aufrüsten will, sollte schon wissen, dass er mit ner nicht-Highend CPU und abhängig von der Zielauflösung und Game evtl. mit ner Radeon generell besser fährt.
Das bilden CPU Benchmarks die aktuell oft rein mit ner nV gefahren werden natürlich nicht im mindesten ab!
Insofern taugen sie zwar um Relationen untereinander zu vergleichen aber nicht um konkrete Aufrüstempfehlungen wie "CPU x reicht für GPU y in Game z für 60/120 oder n FPS" zu geben.
dargo
2021-03-12, 12:58:44
Da CPU Tests ja in der Regel in 720p bzw. 1080p abgehalten werden und aufgrund des nVidia-Treiber-Problem (bei nicht Top-CPUs) muss man ja auf die 6900XT als Test-Grafikkarte umschwenken? Und ggf. alle CPU Benches neu erstellen?
Im Prinzip bringt dir das eh nicht viel. Ein Review kann nur so gut sein wie das was der Leser in der Lage ist daraus abzuleiten. ;) Diese ganzen Reviews mit der schnellsten CPU und GPU... das ist doch fast nur Theorie. In der Praxis hat eben nicht jeder Spieler die schnellste CPU und/oder Graka im Rechner. Und so limitiert mal A, und mal B, je nach eigenen Spielsettings inkl. Auflösung.
Dann kannst du auch die 720p Tests sein lassen, nutzt ja die Masse auch nicht ;)
Bingo, Gleiches könnte man auch auf 4k übertragen. ;)
btw.
Für den einen oder anderen RTX-User sollen angeblich 960p (1440p DLSS-Q) der neueste Shit sein. Insofern passen wieder die 720p-1080p Reviews. ;D
BlacKi
2021-03-12, 13:06:22
das video ist super interessant, aber leider auf 2 spiele limitiert. ich könnte hier zwar ein drittes nennen das amd gpus favorisiert, aber selbst 3 spiele darüber entscheiden zu lassen welcher hersteller schneller im cpu limit ist, daran scheitern hier die redaktionen schon seit jahren. selbst HWUB hat hier die turing gpus rausgenommen, was weitere fragen aufwirft, ist es nun der treiber oder die gpu.
es gibt hinweise das es speziell ampere ist, wo hier gegenüber turing nachgelassen hat. ich würde daher fast behaupten, dass das problem fixbar wäre mit besseren treibern. die alten amd gpus wurden ja im cpu limit auch nicht besser durch aktuelle treiber.
Und die Masse der Käufer der Ryzen 3000er sowie Mittelklasse Intel-CPUs sollten aufgeklärt werden, dass man mit Nvidia-GPU krasse Einbußen hinnehmen muss.
das hab ich seit jahren bei amd gpus festgestellt, erst ab vega gab es spiele die tatsächlich schneller im cpu limit mit amd karten war. obwohl cpu limits damals eine größere rolle gespielt haben als heute, wurde das von allen seiten ignoriert.
plötzlich ist hier ampere vor dem pranger, und plötzlich interessiert sich jemand fürs cpu limit zwischen den beiden herstellern.;D
wie biased die welt doch ist:freak:
Savay
2021-03-12, 13:12:14
selbst HWUB hat hier die turing gpus rausgenommen, was weitere fragen aufwirft, ist es nun der treiber oder die gpu.
Hast du das Video wirklich angesehen? https://www.youtube.com/watch?v=JLEIJhunaW8&t=534s
maximus_hertus
2021-03-12, 13:13:01
selbst HWUB hat hier die turing gpus rausgenommen, was weitere fragen aufwirft, ist es nun der treiber oder die gpu.
es gibt hinweise das es speziell ampere ist, wo hier gegenüber turing nachgelassen hat. ich würde daher fast behaupten, dass das problem fixbar wäre mit besseren treibern.
Bei 8:55 kommt die 2080 Ti hinzu und die performt wie die 3070, also kein Ampere-only-Problem.
Der_Korken
2021-03-12, 13:17:28
Warum nicht einfach die MAXIMALEN fps messen, die HEUTE mit einer CPU möglich sind?
[...]
Ich nehme immer gerne das Beispiel (aus längst vergangenen Tagen ;) ) FX-8350 vs i5-2500K.
Zum FX-8350 Launch war der i5 meilenweit (teils 40%) vorne, aber Jahr für Jahr ist der Vorspung geschmolzen, bis dann auf einmal in vielen neuen Games der FX sogar vorne war.
Wie definierst du maximale fps? Vielleicht hat der AMD-Treiber auch eine Menge Overhead, die aber nicht auffällt, weil es eben keinen dritten Hersteller gibt, der es noch besser macht. Du müsstest also eigentlich ohne Graka testen und nur messen, wie schnell die CPU die Spielelogik berechnen kann. Das wäre aber selbst mir zu theoretisch. Die Treiberarbeit gehört halt zur Pipeline dazu, also muss man sie auch mitbenchen.
Wegen 2500K vs FX8350: Das Beispiel wird immer gerne genommen, um zu zeigen, dass alte Verhältnisse sich mit der Zeit ändern können. Das ist aber in diesem Fall Äpfel vs Birnen, weil der 8350 durch seine Modulbauweise eher einem 6-Kerner als einem 4-Kerner entspricht und nur deswegen aufgeholt hat, weil die Spiele mittlerweile mehr Threads auslasten können. Dass eine Architektur an sich irgendwo massiv aufholt, habe ich noch nie gesehen. Es lag immer daran, dass zwei verglichene Chips unterschiedlich viele Kerne hatten oder einer davon neue Befehlssätze wie AVX2 unterstützt und dann natürlich davon zieht, wenn das genutzt wird.
Ex3cut3r
2021-03-12, 13:18:05
Hast du das Video wirklich angesehen? https://www.youtube.com/watch?v=JLEIJhunaW8&t=534s
Interessant, mit dem 1600X ist die 3070 langsamer als mit der 2080Ti. Da kam bei Ampere also nochmal ein Overhead dazu.
dargo
2021-03-12, 13:22:47
Wird imo weniger mit dem Treiber zu tun haben. Ampere braucht einfach viele Pixel um besser ausgelastet zu werden.
Badesalz
2021-03-12, 13:31:45
nVidia kann überhaupt nichts nachbessern, sondern die Entwickler sind verantwortlich.Wir haben also sozusagen einen Stand, bei besagten Fällen, wo all die Spiele besser auf AMD als auf NV ausgelegt sind?
Silent3sniper
2021-03-12, 13:31:47
Wird imo weniger mit dem Treiber zu tun haben. Ampere braucht einfach viele Pixel um besser ausgelastet zu werden.
Ja, weil mit mehr Pixeln ein CPU Bottleneck nicht mehr zum Tragen kommt...
BlacKi
2021-03-12, 13:32:17
Bei 8:55 kommt die 2080 Ti hinzu und die performt wie die 3070, also kein Ampere-only-Problem.
ich habs glatt für eine gpu limitierte folie gehalten:freak: 3090 33% schneller im cpu limit als eine 3070? hat da pcie 4.0 seine finger im spiel, obwohl, der 3600 müsste doch auch mit 4.0 laufen.
Interessant, mit dem 1600X ist die 3070 langsamer als mit der 2080Ti. Dann schreit dann IMO eher doch als ob bei Ampere nochmal ein Overhead dazu kam.
gutes auge, hab ich so nicht direkt gesehen, aber generell laufen die first gen ryzen auf nv karten wie müll.
Wird imo weniger mit dem Treiber zu tun haben. Ampere braucht einfach viele Pixel um besser ausgelastet zu werden.
und ich dachte, das problem wäre gpu basierend. scheint nicht so zu sein.
Ja, weil mit mehr Pixeln ein CPU Bottleneck nicht mehr zum Tragen kommt...
nein, man kann auch eine 3090 unter 1440p ins gpu limit bringen, performt aber nicht gleichwertig wie unter 4k.
Die nv Karten laufen auf first gen Ryzen wie Müll wohl eher. ;-)
maximus_hertus
2021-03-12, 13:43:14
Wegen 2500K vs FX8350: Das Beispiel wird immer gerne genommen, um zu zeigen, dass alte Verhältnisse sich mit der Zeit ändern können. Das ist aber in diesem Fall Äpfel vs Birnen, weil der 8350 durch seine Modulbauweise eher einem 6-Kerner als einem 4-Kerner entspricht und nur deswegen aufgeholt hat, weil die Spiele mittlerweile mehr Threads auslasten können. Dass eine Architektur an sich irgendwo massiv aufholt, habe ich noch nie gesehen. Es lag immer daran, dass zwei verglichene Chips unterschiedlich viele Kerne hatten oder einer davon neue Befehlssätze wie AVX2 unterstützt und dann natürlich davon zieht, wenn das genutzt wird.
Dann nimm halt die Intel 4C/8T Ära: 2600K bis 7700K: https://www.computerbase.de/2017-11/cpu-aufruesten-benchmarks-test/2/#diagramm-rating-99th-percentile-frametimes-in-fps-2160p
Selbst in 4K, also komplett GPU limitiert, fallen einige CPUs böse ab.
Klar, die neuen CPUs haben dann neue Features, die dann irgendwann von Games genutzt werden, jedoch gab es keine Launch-Reviews, die einen so großßen Vorsprung beim z.B. 4770K vs 2600K siggeriert hätten. Es geht mir halt nur darum, dass ein Status Quo eben nicht ewig anhält, sondern sich durch neuere Spiele / Anforderungen ändern kann. Nicht immer massiv, aber zumindest spürbar.
Zurück zum eigentlichen Topic:
Wir bräuchten einen kompletten CPU Test mit einer 6900XT um dann mit den Zahlen sinnvoll zu arbeiten. Dann könte man sehen, wie stark das ausgeprägt ist und ob "alte" CPUs, wie ein 3600, 3700X, 8700K nicht doch noch deutlich bessere fps liefern können in den HEUTIGEN Spielen.
basix
2021-03-12, 13:58:29
Imho kann man nur zwei Sachen aus diesem Umstand ableiten:
1. Alte CPUs sind brauchbarer als in einigen Benchmarks suggeriert, d.h. man muss sich nicht verrückt machen lassen dass die eigene CPU in Spiel X nur noch 40fps schafft, während die neue 70 schafft. Mit einer Radeon wären es 50 bzw. 87fps, sodass man seine CPU doch noch eine Gen länger behalten könnte.
2. Schwache CPU muss bei der Graka Kaufberatung mit einbezogen werden (Vorteil für Radeon).
Da wäre ich noch etwas vorsichtig. Weil: HWUB hat nur DX12 Spiele getestet. Hier hat AMD anscheinend Vorteile. Bei DX11 könnte es genau umgekehrt aussehen, vor allem bei etwas älteren und E-Sports Spielen. Je nachdem was man spielt ist die Aussage "AMD hat einen Vorteil" nicht unbedingt richtig.
Man müsste RDNA2/Ampere mal mit DX11 Spielen als auch Unreal Engine (da weit verbreitet) gegenüber Pascal und GCN testen. Und zwar zusammen mit etwas älteren CPUs. Das Szenario ist ja: Ältere CPU mit Upgrade zu neueren GPUs. Sobald man sich starke CPUs zulegt oder hat (6+ Kerner von Coffee Lake und Zen 2 aufwärts) und in realistischen Auflösungen spielt, ist das CPU Limit meistens eher untergeordnet, auch mit einer starken Karte.
BlacKi
2021-03-12, 14:04:28
Wir bräuchten einen kompletten CPU Test mit einer 6900XT um dann mit den Zahlen sinnvoll zu arbeiten. Dann könte man sehen, wie stark das ausgeprägt ist und ob "alte" CPUs, wie ein 3600, 3700X, 8700K nicht doch noch deutlich bessere fps liefern können in den HEUTIGEN Spielen.
immer wenn man einen hersteller favorisiert, entstehen solche unbekannten.
ich würde gerne nicht nur beide hersteller, sondern auch verschiedene performance segmente im cpu limit getestet haben. ich meine 33% unterschied im cpu limit zwischen 3090 und 3070 sind mindestens genauso skandalös wie 20-30% unterschied zwischen 6900xt und 3090.
dargo
2021-03-12, 14:22:50
Ja, weil mit mehr Pixeln ein CPU Bottleneck nicht mehr zum Tragen kommt...
Du hast glaube ich meine Aussage nicht verstanden. Du kannst dir auch ein Szenario im CPU-Limit mit 4k konstruieren.
Savay
2021-03-12, 15:15:24
Interessant, mit dem 1600X ist die 3070 langsamer als mit der 2080Ti. Dann schreit dann IMO eher doch als ob bei Ampere nochmal ein Overhead dazu kam.
Aber auch nur in HZD...könnte auch ein kombiniertes CPU/GPU Limit sein.
Vielleicht irgendwas im Frontend.
In WD:L sieht man ja keinen Unterschied mehr.
Da wäre ich noch etwas vorsichtig.
CPU Limits "einfach" mit beiden Herstellern testen. :tongue:
Offensichtlich hat der Treiber ja Auswirkungen. Ist aber wie du schon sagst ja auch nicht erst seit DX12 so.
Das Argument für nV-only in CPU Tests war prä DX12 nur halt auch irgendwie immer die bessere Performance. :freak:
Zumindest dieser Grundsatz oder "Regel" ist mittlerweile offensichtlich sehr klar "für die Tonne". :popcorn:
Badesalz
2021-03-12, 15:49:17
Wogegen denn wehren? Daß AMD mit Treiber/Architektur in irgendwas gleich Welten besser ist als NV, da sollte sich keiner für ein wenigstens einmaliges "Woooww!" zu schade sein.
Zerrt euch nicht immer so kindisch fanboymässig bei jeder Gelegenheit :up: Das gabs seit der 1900er nicht mehr (?)
Und jetzt alle anderen auch:
. . . . . . . ww!
Silent3sniper
2021-03-12, 15:55:14
Du hast glaube ich meine Aussage nicht verstanden. Du kannst dir auch ein Szenario im CPU-Limit mit 4k konstruieren.
Das kommt halt deutlich seltener vor. Die Kernaussage ist doch das Nvidias untere Grenze an notwendigen CPU-Zyklen höher ist als die von AMD. Zusätzlich: Die Wahrscheinlichkeit CPU-limitiert zu sein ist in hohen Auflösungen bei modernen Spielen deutlich geringer, d.h. mehr Zeit für den Nvidia Treiber fällt gar nicht auf, und die Karten können ihre Leistung ausspielen.
Deine Aussage war, dass Ampere überproportional gut mit höherer Auflösung skaliert. Die Aussage aus den geposteten Benchmarks ist, dass Ampere mit verringern der Auflösung unterproportional besser performt, da die CPU Last prinzipiell höher ist, und somit man schneller ins CPU Limit läuft.
Beides könnte theoretisch zutreffen. Wenn Ampere überproportional mit Pixeln skaliert sieht es bei höherer Auflösung relativ betrachtet immer besser aus. Wenn der Treiber grundsätzlich viel CPU Last erzeugt, sind die gainz bei Reduktion nach unten gedeckelt.
Deine Auslegung ist die Variante, die Nvidia gerne als Werbung propagieren würde. Die andere ist die Variante, die die Benchmark Ergebnisse suggerieren.
dargo
2021-03-12, 16:00:47
Ich habe auch vom "konstruieren" gesprochen. HU hat einen 1600X im Test. Nagle das Ding bei 1.xGHz fest und schon kommt es öfter zum CPU-Limit in 4k.
Silent3sniper
2021-03-12, 16:03:28
Gut, dass ist ja aber nun wirklich unrealistisch. Ich denke mal das Thema hat so hart getriggert, dass es systematisch von Print-Medien und GamersNexus & Co. auseinandergenommen wird. Daher abwarten und Tee trinken.
MAX|HASS
2021-03-12, 16:06:40
Tangiert mich das Ganze mit alter Hardware (i5-4670/1070)? Sitze ich auf einem toten Pferd? Also im Grunde toter, als das Alter des Krempels vermuten ließe? :biggrin:
sapito
2021-03-12, 16:27:48
Die CPU-Reviews mit nur der Top nvidia Grafikkarte ist halt Müll, weil das den durchschnittlichen Käufer nur irritiert und zu falschen Schlussfolgerungen führt.
Leute mit guten Ryzen CPUs (2600X, 3600 usw) sind mit AMD Grafikkarten ala 5700XT besser aufgehoben als mit ner RTX3090.
Die professionellen Hardwaretester haben die Pflicht auch die Laien vor schlechten und überteuerten Käufen zu schützen.
Ich erwarten bei den Erkenntnissen, dass die kommende 6700XT alles von Nvidia bei 1080p/1440p mit Mittelklasse-CPU (Ryzen 3er) übertrifft.
Und die Masse der Käufer der Ryzen 3000er sowie Mittelklasse Intel-CPUs sollten aufgeklärt werden, dass man mit Nvidia-GPU krasse Einbußen hinnehmen muss.
Das verschiebt natürlich grundsätzlich auch die Empfehlungen im Bereich der Mittelklasse.
Sag mal was nimmst Du denn für Drogen??? Das hier ist kein MLM Kongress wo Du deine MLM Lügen als Wahrheit verkaufen kannst
[x] PLONK
:eek::eek::eek:
maximus_hertus
2021-03-12, 16:37:57
Tangiert mich das Ganze mit alter Hardware (i5-4670/1070)? Sitze ich auf einem toten Pferd? Also im Grunde toter, als das Alter des Krempels vermuten ließe? :biggrin:
Falls die 1070 sterben sollte und du eine neue GPU brauchst. Also ja, es könnte relevant für dich werden. Wobei auch klar ist, dass ein i5-4000 da etwas schwach ist und da auch eine Radeon keine Wunderdinge hinbekommen könnte.
MAX|HASS
2021-03-12, 17:01:42
Müßte die Antwort nicht eher lauten "je nachdem was du so spielst"?
Im Moment wären da u.a. Anno 1800, läuft mit DX12, daher von der (vermeintlichen) Problematik eh nicht betroffen? Zumal, der 4Kerner rödelt bei 2 Mio. Einwohnern je nach Optionen an seiner Grenze, was sollte mir da ne Radeon bringen?
NFS HP 2020, eh auf 60fps gecappt wegen Crossplay, da bringt mir das auch nichts.
CoH2, keine Ahnung. Klar schnürrt auch hier ein Geplänkel mit 8 Fraktionen der CPU alles ab, aber holt mich da jetzt ein Treiber der roten Fraktion raus?
PS: Die 1070 wäre die erste Karte, die mir in 25 Jahren kaputt geht, also wird auch sie eher ihre 5 Jahre durchhalten (und ich habe sie erst seit 25 Monaten).
maximus_hertus
2021-03-12, 17:14:20
Dann hast du das genau falsch verstanden. Warum auch immer, belastet nV in DX12 die CPU deutlich mehr, was bei eher schwächeren CPUs dann in teils deutlich niedrigere fps mündet.
Von deinen 100% CPU-Leistung "klaut" nV einfach einen deutlich größeren Teil für sich, so dass weniger CPU-Leistung für das eigentliche Spiel übrig beiben.
Da es aber keinen kompletten PArcours mit der Radeon 6900 gibt, haben wir leider nur die Zahlen aus dem HWU Video.
MAX|HASS
2021-03-12, 17:41:03
Gut, dann schicke mir jemand seine 6800 für zwei oder drei Monate und ich liefere umfangreiches Zahlenmaterial. :smile:
Der_Korken
2021-03-12, 19:49:32
Dann nimm halt die Intel 4C/8T Ära: 2600K bis 7700K: https://www.computerbase.de/2017-11/cpu-aufruesten-benchmarks-test/2/#diagramm-rating-99th-percentile-frametimes-in-fps-2160p
Selbst in 4K, also komplett GPU limitiert, fallen einige CPUs böse ab.
Klar, die neuen CPUs haben dann neue Features, die dann irgendwann von Games genutzt werden, jedoch gab es keine Launch-Reviews, die einen so großßen Vorsprung beim z.B. 4770K vs 2600K siggeriert hätten.
720p avg fps: +21% für 4770K vs 2600K
Und zum Release: https://www.computerbase.de/2013-06/intel-haswell-prozessor-fuer-desktop-pcs-test/16/#diagramm-the-elder-scrolls-v-skyrim-800-x-600
640x480 avg fps: +19% für den 4770K vs 2600K mit Ausreißern >30% ;)
Die 4K frametimes in deinem link sehen kaputt aus, da ist die Differenz größer als unter 1080p :freak:
maximus_hertus
2021-03-13, 09:52:19
Schau dir mal die 99th Percentile (in 720p) an:
Assassins Creed: +37%
Forza: +34%
Wolfenstein 2: +43%
Klar, es gab und gibt daneben noch Benchmarks mit deutlich kleinerer Differenz, aber der Trend ist klar. Sandy Bridge verlor nach und nach massiv an Boden und die Abstände wurden deutlich größer, was aber nicht komplett überraschend ist.
Es wäre schön, wenn sich jemand (PCGH? Computerbase? Golem? Freiwillige?) erbarmen würde und z.B. den beliebten Ryzen 5 3600 oder Ryzen 7 3700X mit einer 6900XT (6800 XT) durchbencht. Das würde wohl reichen, um zu sehen, ob es im Vergleich zur RTX deutliche Steigerungen in 720p gibt.
y33H@
2021-03-13, 10:54:26
Ich hab RX 6900 XT und RTX 3080 in 1080p auf nem R9 5950X, das ist aber nicht durchgehend hartes CPU-Limit ... müsste man also zusätzlich ne dedizierte Messreihe mit D3D12 Titeln und 720p fahren.
BlacKi
2021-03-13, 10:59:37
müsste man also zusätzlich ne dedizierte Messreihe mit D3D12 Titeln und 720p fahren.
danke, du bist der beste, dein engagement ist vorbildlich:biggrin:
w0mbat
2021-03-13, 11:13:42
Ein 3600 sollte schon schnell genug sein, damit das nicht auffällt. Man bräuchte nen 1600 oder 2600.
Troyan
2021-03-13, 11:43:14
Ich hab RX 6900 XT und RTX 3080 in 1080p auf nem R9 5950X, das ist aber nicht durchgehend hartes CPU-Limit ... müsste man also zusätzlich ne dedizierte Messreihe mit D3D12 Titeln und 720p fahren.
Wozu? In vielen Spielen wäre auf nVidia-Hardware der DX11 Treiber schneller - siehe Resident Evil 3 oder World of Warcraft. Und DX12 Spiele ohne alternativen DX11 Pfad sind sinnbefreit.
1080p mit Ultra-Details ist entscheidend. Alles andere ist einfach nur fernab jeder relevanz.
BlacKi
2021-03-13, 11:46:33
Dann nimm halt die Intel 4C/8T Ära: 2600K bis 7700K: https://www.computerbase.de/2017-11/cpu-aufruesten-benchmarks-test/2/#diagramm-rating-99th-percentile-frametimes-in-fps-2160p
Selbst in 4K, also komplett GPU limitiert, fallen einige CPUs böse ab.
pcie2.0 erst mit pcie3.0 sind die unterschiede geringer.
maximus_hertus
2021-03-13, 12:53:11
Ich hab RX 6900 XT und RTX 3080 in 1080p auf nem R9 5950X, das ist aber nicht durchgehend hartes CPU-Limit ... müsste man also zusätzlich ne dedizierte Messreihe mit D3D12 Titeln und 720p fahren.
Das wäre super, wenn du da was einrichten / benchen könntest :)
y33H@
2021-03-13, 14:04:16
Stimmt, alle Titel mit D3D11 und D3D12 bzw Vulkan wären super, weil direkter Vergleich.
BlacKi
2021-03-13, 14:25:23
Stimmt, alle Titel mit D3D11 und D3D12 bzw Vulkan wären super, weil direkter Vergleich.yesyesyes, wann wirst du fertig?:biggrin:
aufkrawall
2021-03-13, 15:09:06
Was soll daran so interessant sein? Die meisten Spiele sind heute mit D3D12 only oder das optionale D3D11 ist die klar schlechtere Wahl.
Es kann einem auch ziemlich egal sein, wenn Nvidia in Vulkan-Spielen bei 400fps gleich schnell, aber bei Kram wie Legion mit D3D12 bei ~50fps langsamer ist.
BlacKi
2021-03-13, 15:11:06
Was soll daran so interessant sein?
wenn du das nicht weist, dann geh dich trollen...
aufkrawall
2021-03-13, 15:13:56
Aber das machst du doch schon die ganze Zeit. :confused:
y33H@
2021-03-13, 16:19:02
Was soll daran so interessant sein? Die meisten Spiele sind heute mit D3D12 only oder das optionale D3D11 ist die klar schlechtere Wahl. Es kann einem auch ziemlich egal sein, wenn Nvidia in Vulkan-Spielen bei 400fps gleich schnell, aber bei Kram wie Legion mit D3D12 bei ~50fps langsamer ist.Es könnte (theoretisch) so sein, dass im (anteiligen) CPU-Limit der D3D11-Pfad mit einer Geforce flotter ist als der D3D12/Vulkan-Pfad mit einer Radeon :freak:
w0mbat
2021-03-13, 16:23:39
Oder man will zB Crysis 3 spielen und es bricht auf unter 30 FPS ein. Macht keinen Spaß.
aufkrawall
2021-03-13, 16:33:36
Es könnte (theoretisch) so sein, dass im (anteiligen) CPU-Limit der D3D11-Pfad mit einer Geforce flotter ist als der D3D12/Vulkan-Pfad mit einer Radeon :freak:
Ja, in einigen Spielen (BFV...) ist das der Fall (offenbar selbst in Legion https://youtu.be/mNACGoJZv2w ).
Nur welcher Mensch will sich im Jahr 2021 noch einen Kopf um D3D11 machen bzw. das Meiste ist eh D3D12-only und AMD D3D12 liegt wahrscheinlich eh immer außer Reichweite.
Anyway, Nvidia D3D12 stinkt. Evtl. trifft das auch auf SAM zu, wenn das laut Igor bei NV wirklich nur in Software läuft. :freak: ;D
BlacKi
2021-03-13, 17:41:39
ich glaub bf6 kommt bestimmt noch mit dx11. vl hat auch die lange wartezeit auch was gutes gehabt und dx12 läuft dort anständig...
das meiste? du meinst innerhalb der AAA titel.
Ex3cut3r
2021-03-13, 17:43:45
Unwahrscheinlich. BF6 soll diesmal bis zu 128 Spieler bieten. Und Next Gen Only sein. Desweiteren wird die alte Engine wohl auch ausgedient haben, schließlich war auch der BF5 Code auf BF1 basierend.
Langlay
2021-03-13, 18:25:38
Unwahrscheinlich. BF6 soll diesmal bis zu 128 Spieler bieten. Und Next Gen Only sein. Desweiteren wird die alte Engine wohl auch ausgedient haben, schließlich war auch der BF5 Code auf BF1 basierend.
Die Engine an sich wird wohl nicht ausgedient haben, man wird sie halt "nur" weiterentwickeln.
dargo
2021-03-13, 18:42:12
ich glaub bf6 kommt bestimmt noch mit dx11.
Will sich DICE lächerlich machen? :tongue:
Ex3cut3r
2021-03-13, 18:54:25
Die Engine an sich wird wohl nicht ausgedient haben, man wird sie halt "nur" weiterentwickeln.
Ich erwarte es aber. Ich finds peinlich ne Engine von 2016 "weiterzuentwickeln" die auch nur mit DX11 wirklich rund läuft. 128 Spieler sollen ja kommen, glaube nichts dass die Engine von 2016 das schafft, die läuft schon mit 64 Spielern nicht mehr optimal.
-/\-CruNcher-/\-
2021-03-13, 19:12:14
Du hast glaube ich meine Aussage nicht verstanden. Du kannst dir auch ein Szenario im CPU-Limit mit 4k konstruieren.
Complex Rigid Body Physics Skin Fat Simulation + Hair + Cloth and Hybrid Raytracing under Realistic Light Conditions ;)
Das komplette Programm
Das Ergebnis werde ich hier aber nicht posten sowieso nicht spieltauglich im Target noch nicht ;)
aufkrawall
2021-03-13, 19:16:31
Ich erwarte es aber. Ich finds peinlich ne Engine von 2016 "weiterzuentwickeln" die auch nur mit DX11 wirklich rund läuft.
Korrektur: Die nur mit dem Nvidia D3D11-Treiber mit lauter Extrawürsten gut läuft. :freak:
Die Engine ist nur noch komplett peinlich gegen Glacier. Das nächste Spiel mit der RE-Engine könnte technisch auch rocken. Von EA erwarte ich gar nichts mehr. Dass die Balken mit AMD-GPUs mutmaßlich sehr lang sein werden, ist mir dann auch völlig Wurst, wenn das Spiel trotzdem irgendwie scheiße aussieht, scheiße läuft und keinen Spaß macht...
Savay
2021-03-13, 20:05:28
Naja...Blizzard hat es ja auch hinbekommen ihre vormals sehr DX11 und äusserst nV lastige Engine von WoW auf DX12 mit vglw. anständiger Perf. auf allen IHVs umzubauen. :wink:
dargo
2021-03-13, 20:37:29
Naja... wenn sich das hier (https://wccftech.com/amd-radeon-rx-6700-xt-12-gb-graphics-card-gaming-benchmarks-1440p-raytracing-performance-at-1080p-leaked-faster-than-rtx-3070/) bei WoW bewahrheitet ist eher Nvidia im Nachteil. :freak:
Fusion_Power
2021-03-13, 20:41:15
Ich erwarte es aber. Ich finds peinlich ne Engine von 2016 "weiterzuentwickeln" die auch nur mit DX11 wirklich rund läuft. 128 Spieler sollen ja kommen, glaube nichts dass die Engine von 2016 das schafft, die läuft schon mit 64 Spielern nicht mehr optimal.
Hat denn DX12 bisher wirklich irgend wo echte Vorteile gegenüber DX11 aufgezeigt? ich lese immer nur von Performanceproblemen und wie runder und stabiler Games mit DX11 laufen im Vergleich. Also, was kann DX12 in der Praxis eigentlich so viel besser, was DX11 nicht kann? :confused:
dargo
2021-03-13, 20:46:34
Hat denn DX12 bisher wirklich irgend wo echte Vorteile gegenüber DX11 aufgezeigt?
:uconf3:
Ex3cut3r
2021-03-13, 20:49:37
Hat denn DX12 bisher wirklich irgend wo echte Vorteile gegenüber DX11 aufgezeigt? ich lese immer nur von Performanceproblemen und wie runder und stabiler Games mit DX11 laufen im Vergleich. Also, was kann DX12 in der Praxis eigentlich so viel besser, was DX11 nicht kann? :confused:
-Low Level HW Zugriff
-Bessere CPU Usage, mehr FPS im CPU Limit
-Variable Rate Shading
-Raytracing
-DirectML
-Mesh Shader
-DirectStorage
Ich empfehle das hier:
https://www.hardwaretimes.com/what-is-the-difference-between-directx-11-and-directx-12/
Abgekürzt, DX11 ist einfach veraltet und gehört endgültig begraben.
aufkrawall
2021-03-13, 21:14:01
Naja... wenn sich das hier (https://wccftech.com/amd-radeon-rx-6700-xt-12-gb-graphics-card-gaming-benchmarks-1440p-raytracing-performance-at-1080p-leaked-faster-than-rtx-3070/) bei WoW bewahrheitet ist eher Nvidia im Nachteil. :freak:
Das ist schon seit dem Release des RT-Patches für WoW bekannt. ;)
dargo
2021-03-13, 21:33:31
Das ist schon seit dem Release des RT-Patches für WoW bekannt. ;)
Sorry, ich muss es verpasst haben. WoW ist auch nicht mein Gebiet. :redface:
Fetza
2021-03-13, 21:47:40
Dieser Thread ist wirklich interessant. Das NV in DX12 mehr auf die CPU geht, wusste ich noch garnicht. Würde in meinem Fall (i7-4790K kombiniert mit einer RTX 2080) ein CPU Upgrade Sinn machen?
Fusion_Power
2021-03-13, 22:20:04
:uconf3:
Sorry aber ich muß fragen. DX11 ist halt nach wie vor extrem weit verbreitet obwohl DX12 schon länger am Start ist. Ich hab selber auch noch keine Erfahrungen mit DX12 Spielen machen können, mit RTX schon gar nicht mangels passender GPU. Und die Berichte die ich über DX12 bisher so las sind halt auch noch ehr durchwachsen. Zumindest was die reine Performance in ein und dem selben Game angeht, die "Spielereien" die DX12 mitbringt mal kurz ignoriert.
Natürlich hat Microsoft DX12 als das Nonplusultra gehypt, aber danach kann man halt nicht gehen.
Abgekürzt, DX11 ist einfach veraltet und gehört endgültig begraben.
Ok, kenn ich damals halt noch von DX9. Danach kam DX10 und DX9 war am Ende noch länger verbreitet als es DX10 je war. ;D Erst viel später mit DX11 kam dann wieder der Durchbruch und die Akzeptanz.
Ex3cut3r
2021-03-13, 22:22:36
Dieser Thread ist wirklich interessant. Das NV in DX12 mehr auf die CPU geht, wusste ich noch garnicht. Würde in meinem Fall (i7-4790K kombiniert mit einer RTX 2080) ein CPU Upgrade Sinn machen?
Kommt auch auf die Auflösung an. Aber du kannst es selbst am besten beantworten. Installier dir den Afterburner oder ein Monitoring Programm deiner Wahl, und schau auf die GPU Auslastung. Bei Turing ist es aber sowieso nicht so schlimm wie bei Ampere. Ich hatte selbst nen 4770k @ 4.1 GHz und DDR3 2400 MHz CL11, 2 Jahre mit einer 2080 in Gebrauch allerdings für 3440x1440 und hatte keine Probleme. Das einzige Game welches etwas unsaubere Frametimes ausgespuckt hat, war BF5 mit 64 Spielern.
-/\-CruNcher-/\-
2021-03-13, 22:28:18
@Fusion_Power
Das Problem ist nicht DX12 selbst sondern worauf es läuft ;)
Savay
2021-03-13, 23:42:55
Zumindest was die reine Performance in ein und dem selben Game angeht,
Unter WoW läuft der DX12 Renderer unter Intel und AMD einiges besser als es DX11 jemals tat und auch nV läuft damit besser.
Außerdem hebt es das CPU Limit (spätestens mit SAM selbst auf einer 6900XT@UHD) weitestgehend auf bzw. setzt es massiv nach oben.
Unter Anno1800 ist DX12 mittlerweile auch klar besser als DX11.
etc. pp. und das ist nur das was beides hat und ich aktuell auf den SSDs hab.
Ergo ja...es gibt genug Beispiele die zeigen das DX12 bei ordentlicher und nicht einfach nur dahingerotzter Implementierung klar besser ist als DX11.
Mittlerweile sind die negativ-Beispiele eher in der Minderheit. Eigentlich fällt mir aktuell nur BFV ein.
Von den Titeln die nativ eh nur mit DX12/Vulkan laufen eh mal ganz abgesehen.
kleeBa
2021-03-14, 03:18:21
-Low Level HW Zugriff
-Bessere CPU Usage, mehr FPS im CPU Limit
-Variable Rate Shading
-Raytracing
-DirectML
-Mesh Shader
-DirectStorage
Ich empfehle das hier:
https://www.hardwaretimes.com/what-is-the-difference-between-directx-11-and-directx-12/
Abgekürzt, DX11 ist einfach veraltet und gehört endgültig begraben.
Ich kann weder BF2 noch Division 2 unter DX12 spielen da ständige Abstürze.
dargo
2021-03-14, 09:01:39
Was ist BF2? Bei mir läuft Division 2 @DX12 ohne Probleme.
maximus_hertus
2021-03-14, 10:47:48
Dieser Thread ist wirklich interessant. Das NV in DX12 mehr auf die CPU geht, wusste ich noch garnicht. Würde in meinem Fall (i7-4790K kombiniert mit einer RTX 2080) ein CPU Upgrade Sinn machen?
Wie immer bei einer solchen FRage: es kommt darauf an, was du zockst und/oder damit machst.
Ein 4790K ist ja generell schon nicht mehr ganz taufrisch und ein CPU Upgrade, unabhängig der Grafikkarte sicherlich keine schlechte Idee :)
Ansonsten müsste man einen kompletten PArcours mit RTX und Radeon-Karte in 720p haben, um zu sehen, wie deutlich das Phänomen ist (deutlich weniger fps im CPU Limit bei nV). Aber ich wiederhole mich da ;)
kleeBa
2021-03-14, 11:52:02
@dargo
SW Battlefront 2
Und Division 2 bei mir halt nicht. Ohne DX11 Fallback wäre es nicht spielbar. Lief lustigerweise mit der Nvidia Vorgängerkarte problemlos. :freak:
dargo
2021-03-14, 12:46:27
Sorry aber ich muß fragen. DX11 ist halt nach wie vor extrem weit verbreitet obwohl DX12 schon länger am Start ist.
Reicht dir das erstmal als Beispiel?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12623605&postcount=826
In meiner Spielauflösung von 1440p ist DX11 auch nicht zu gebrauchen, viel zu lahm.
Leonidas
2021-03-14, 12:47:31
3DC-Senf dazu:
https://www.3dcenter.org/news/schwaecheln-nvidia-grafikkarten-mit-kleineren-prozessoren
IMO läßt die Sache unter WDL mehrere Auslegungen zu, die Tests unter HZD sind hingegen aussagekräftiger. Generelles Problem: Nur 2 Spiele, nur 1 eindeutiger Fall. Da müsste man mehr Benches liefern, ehe man etwas aussagen kann. Das ganze ist möglicherweise der Anfang eines Problems - aber das muss nun erst noch wirklich herausgearbeitet werden.
MiamiNice
2021-03-14, 12:53:27
Hab nur die Überschrift gelesen und muss direkt zustimmen.
Bei den CPU Test von CB, Heise, PCGH und wie sie nicht alle heißen habe ich immer nur einen Gedanken -> Bäh
Um einen tollen Vergleich zu bringen: Die erwarten tatsächlich das man den Test liest. Im KFZ Bereich wäre das so als ob man Auto Fans dazu bringen möchte sich an die Strasse zu stellen und Autos zu bestaunen die durch die Stadt fahren. Dabei weiß jeder Idiot das Fahrzeuge nur im Grenzbereich interessant sind. Menschen zahlen sich nicht umsonst dumm und dämlich für Tribünenplätze bei der Formel1.
Dann soll man auch noch die Texte lesen. Ne danke. Jedes durchschnittliche HW Review auf YT ist interessanter als alles was die Fachpresse zusammen generiert.
-/\-CruNcher-/\-
2021-03-14, 13:00:29
3DC-Senf dazu:
https://www.3dcenter.org/news/schwaecheln-nvidia-grafikkarten-mit-kleineren-prozessoren
IMO läßt die Sache unter WDL mehrere Auslegungen zu, die Tests unter HZD sind hingegen aussagekräftiger. Generelles Problem: Nur 2 Spiele, nur 1 eindeutiger Fall. Da müsste man mehr Benches liefern, ehe man etwas aussagen kann. Das ganze ist möglicherweise der Anfang eines Problems - aber das muss nun erst noch wirklich herausgearbeitet werden.
Pixeljetstream könnte dir dazu vielleicht was sagen er darf es aber nicht ;)
Das das jetzt so hochgepuscht wird ist echt abstrakt da es schon längst bekannt sein sollte und hier ja auch über jahre hinweg und unter anderem in Beyond3d diskutiert wurde nur da gab es HU noch nicht ;)
Das AMD angefangen hatte all diese Probleme in form von Fusion zu lösen scheint einigen auch entfallen zu sein, das daraus HSA entstand und die Konsolen Prototypen das hat anscheinend auch nicht stattgefunden.
Irsinn was da auf Youtube abgeht :D
BlacKi
2021-03-14, 13:10:45
Pixeljetstream könnte dir dazu vielleicht was sagen er darf es aber nicht ;)
Das das jetzt so hochgepuscht wird ist echt abstrakt da es schon längst bekannt sein sollte und hier ja auch über jahre hinweg hier und unter anderem in Beyond3d diskutiert wurde nur da gab es HU noch nicht ;)
was HU bisher geliefert hat, sind halt auch nur aufhänger die erstmal wenig aussagekraft haben. ich hoffe ja, dass das thema von denen noch weiter aufbereitet. so kann man die aussage halt einfach nicht stehen lassen. 2 spiele sind einfach zu wenig. 10 weitere spiele würden ganz andere schlüsse ermöglichen. ich wünsch mir aber ein kleineres setup (zb. 3700x + 3070vs6700xt) und dafür mehr spiele, so ca 20, dann könnte man auch gute auswertungen machen.
aufkrawall
2021-03-14, 13:21:45
Zudem gilt die generelle Einschränkung, dass der beobachtete Effekt wirklich nur unter FullHD und einer Medium-Bildqualität existiert. Sobald Auflösung oder Bildqualität höher angesetzt werden, wird alles umgehend wieder "normal" und kommen keine so beachtbaren Differenzen zwischen AMD- und nVidia-Grafikkarten unter kleineren Prozessoren heraus. Dies bedeutet, dass jenes Thema nur eine kleine Gruppe an Gamern tatsächlich betrifft: Nutzer schneller nVidia-Grafikkarten auf kleineren Prozessoren unter FullHD auf mittlerer Bildqualität.
Ist nur leider komplett falsch, bei gamegpu läuft es mit der 6900 XT in 1080p Ultra auf dem 3600X 14% schneller bei den min fps als mit der 3090:
https://gamegpu.com/action-/-fps-/-tps/watch-dogs-legion-2020-test-gpu-cpu
Wer das Spiel gespielt hat, weiß dass es einige fiese Stellen gibt. Auch bei den Russen wird das noch nicht der Worst Case gewesen sein.
Szudri
2021-03-14, 13:29:26
was HU bisher geliefert hat, sind halt auch nur aufhänger die erstmal wenig aussagekraft haben. ich hoffe ja, dass das thema von denen noch weiter aufbereitet. so kann man die aussage halt einfach nicht stehen lassen. 2 spiele sind einfach zu wenig. 10 weitere spiele würden ganz andere schlüsse ermöglichen. ich wünsch mir aber ein kleineres setup (zb. 3700x + 3070vs6700xt) und dafür mehr spiele, so ca 20, dann könnte man auch gute auswertungen machen.
Auf der Hardware Unboxed Patreon Seite sollen noch mehr benchmarks sein. Aber keine Ahnung ob das stimmt und wenn ja wie viele.
Troyan
2021-03-14, 13:36:15
Unter WoW läuft der DX12 Renderer unter Intel und AMD einiges besser als es DX11 jemals tat und auch nV läuft damit besser.
Außerdem hebt es das CPU Limit (spätestens mit SAM selbst auf einer 6900XT@UHD) weitestgehend auf bzw. setzt es massiv nach oben.
Nö, woher kommt sowas? DX11 liefert in WOW immer noch mehr Frames auf einer nVidia-Karte, da der DX12 Pfad unoptimierter Rotz ist. Hier von mir:
https://www.imagebanana.com/s/2057/KzDLX5Zh.html
https://www.imagebanana.com/s/2057/Xd8lhPSm.html
Kein Plan, wie es in Städten aussieht, wird aber bestimmt nicht besser sein.
Leonidas
2021-03-14, 14:01:44
Jedes durchschnittliche HW Review auf YT ist interessanter als alles was die Fachpresse zusammen generiert.
Gehe ich vollkommen konträr. 5 Minuten Lesen gegen 20 Minuten zuhören - mit dem Nachteil, das man in einem Video-Review nichts mehr wiederfindet?
Davon abgesehen sind die Spitzen-Reviews auf Text meilenweit besser als die Spitzen-Reviews auf Video. Ab und zu kommt auf Video mal was interessantes, aber generell ist das Format für diesen Zweck ungeeignet und ist die real gebotene Qualität unterirdisch bis bestenfalls durchschnittlich.
Aber augenscheinlich sind die Geschmäcker sehr verschieden.
Ist nur leider komplett falsch, bei gamegpu läuft es mit der 6900 XT in 1080p Ultra auf dem 3600X 14% schneller bei den min fps als mit der 3090:
Meine Aussage bezog sich vornehmlich auf den Vergleich zu kleineren AMD-Grafikkarten, nicht ob es zwischen 6900XT und 3090 einen Gewinner gibt. Außerdem auch nur bezogen auf die 2 von HWU getesteten Spiele.
aufkrawall
2021-03-14, 14:09:45
Meine Aussage bezog sich vornehmlich auf den Vergleich zu kleineren AMD-Grafikkarten, nicht ob es zwischen 6900XT und 3090 einen Gewinner gibt. Außerdem auch nur bezogen auf die 2 von HWU getesteten Spiele.
Ich sehe da nur ein allgemeines Fazit, inkls. allgemein gehaltener Ableitung ("Dies bedeutet, dass jenes Thema nur eine kleine Gruppe an Gamern tatsächlich betrifft").
Bzw. du konntest es dir irgendwie nicht verkneifen, es gleich mal deutlich zu relativieren, auf Basis bloßer Vermutungen...
Cubitus
2021-03-14, 14:11:24
Mom war der von HW-Unboxed nicht der Typ, welcher von NV hard geknechtet wurde, und Linus ihm dann zu Hilfe eilte..
Ist echt eine sehr zuverlässige Quelle, welche sicher nicht in irgendeiner Form biased ist :biggrin:
Er behauptet die Sachlage sei so.
Also muss hier die Fachpresse dringend nachziehen um das zu überprüfen, Raff böte sich doch an :)
Oder jemand besitzt zufälligerweise eine ältere AMD CPU + eine 3090 + eine 5700XT , viel Spaß ;D
Also mehr Quellen, dann kann man darüber ernsthaft diskutieren!
Savay
2021-03-14, 14:11:32
Nö, woher kommt sowas?
Alter...du stellst dich ohne dich zu bewegen mitten in die Pampa eines der alten Gebiete, wo generell nix los ist und die Objektdichte ein Witz und damit nichtmal ansatzweise ein CPU Limit zu erwarten ist...und erwartest da irgendwas aussagekräftiges zu messen?! ;D
Der DX11 Pfad ist hier mittlerweile der unoptimierte Rotz.
https://www.gamepressure.com/newsroom/wow-player-compares-performance-of-dx11-and-dx12/z026ec
https://www.reddit.com/r/wow/comments/jejbfe/bfa_shadowlands_dx11_vs_dx12_performance_analysis/
Und selbst das ist kein Worstcase wie Raids usw. sondern nur ein paar Flightpaths in den BFA Gebieten die der abgeflogen ist.
MiamiNice
2021-03-14, 14:12:53
Gehe ich vollkommen konträr. 5 Minuten Lesen gegen 20 Minuten zuhören - mit dem Nachteil, das man in einem Video-Review nichts mehr wiederfindet?
Davon abgesehen sind die Spitzen-Reviews auf Text meilenweit besser als die Spitzen-Reviews auf Video. Ab und zu kommt auf Video mal was interessantes, aber generell ist das Format für diesen Zweck ungeeignet und ist die real gebotene Qualität unterirdisch bis bestenfalls durchschnittlich.
Aber augenscheinlich sind die Geschmäcker sehr verschieden.
Halte ich gegen. 5 Minuten inhaltsleeren Text lesen vs. 20 Mins Themen die mich interessieren. Ist für mich, welch Überraschung, keine große Überlegung. Bekannte deutschen Seiten „wollen immmer Vergleichen“ während auf YT das an Power aus den Teilen gepresst wird, was möglich ist. Mich interessiert ersteres kaum eher gar nicht. Ist wie gesagt wie Sportwagen im Stadtverkehr. Gähn.
Er behauptet die Sachlage sei so.
Also muss hier die Fachpresse dringend nachziehen um das zu überprüfen, Raff böte sich doch an :)
Rein zufällig ist dazu seit zwei Wochen ein Artikel fertig (auf dem Plan stand er ein halbes Jahr ... Zeit). Fürs Heft. Das zufällige Vorpreschen von HWU führt nun dazu, dass wir ASAP ein Online-Spinoff machen.
MfG
Raff
Cubitus
2021-03-14, 14:18:08
Rein zufällig ist dazu seit zwei Wochen ein Artikel fertig (auf dem Plan stand er ein halbes Jahr ... Zeit). Fürs Heft. Das zufällige Vorpreschen von HWU führt nun dazu, dass wir ASAP ein Online-Spinoff machen.
MfG
Raff
Werde ich definitiv lesen bzw. freu mich drauf! Super :)(y)
Aber warum haut ihr sowas nicht gleich raus? Meine das sind ja durchaus wichtig Infos und Erkenntnisse.
Edit: brauchst nicht drauf zu antworten ;)
Mir ist nur wichtig das es mehrere Quellen in der Fachpresse dazu gibt.
Troyan
2021-03-14, 14:19:42
Alter...du stellst dich ohne dich zu bewegen mitten in die Pampa eines der alten Gebiete, wo generell nix los ist und die Objektdichte ein Witz und damit nichtmal ansatzweise ein CPU Limit zu erwarten ist...und erwartest da irgendwas aussagekräftiges zu messen?! ;D
https://www.gamepressure.com/newsroom/wow-player-compares-performance-of-dx11-and-dx12/z026ec
https://www.reddit.com/r/wow/comments/jejbfe/bfa_shadowlands_dx11_vs_dx12_performance_analysis/
Und selbst das ist kein Worstcase wie Raids usw. sondern nur ein paar Flightpaths in den BFA Gebieten die der abgeflogen ist.
Dir ist klar, das dort ein CPU-Limit existiert? :rolleyes:
Also, wo ist DX12 schneller?
aufkrawall
2021-03-14, 14:21:06
Dir ist klar, das dort ein CPU-Limit existiert? :rolleyes:
Also, wo ist DX12 schneller?
Das muss nichts heißen, in leeren Hubs kann verbessertes MT nicht unbedingt zum tragen kommen.
Savay
2021-03-14, 14:21:19
In leeren Hubs von Anno 2006/2007 wohlgemerkt...der schon immer leer war und immer leer sein wird, und wo eigentlich keiner hinwill und seine Zeit verbringt.
Siehst du doch im Link wo DX12 selbst auf ner nV Karte besser ist und warum! Da wo es nämlich ne Rolle spielt und nicht da wo es wurscht ist...Trollyan.
Im übrigen könnte das hier auch wieder der Treiberoverhead @DX12 sein um den es in dem Thread eigentlich geht. ;D
Troyan
2021-03-14, 14:33:05
In leeren Hubs von Anno 2006/2007 wohlgemerkt...der schon immer leer war und immer leer sein wird, und wo eigentlich keiner hinwill und seine Zeit verbringt.
Siehst du doch im Link wo DX12 selbst auf ner nV Karte besser ist und warum...Trollian.
"Leere Hubs" - kann es sein, dass du den Unterschied zwischen Rendering und Game nicht verstehst?
Game-Berechnungen haben nichts mit DX12 zu tun. DX12 ist eine Grafik-API, die, jetzt kommt der Hammer, für das Rendering von Grafik verwendet wird. Wenn also DX11 beim Rendern von Bildern schneller ist, dann ist es offensichtlich, dass DX12 nicht schneller ist.
Und leere Hubs sind reine CPU-Benchmarks, btw. Wie du aus meinem Screen entnehmen kannst, ist der DX11 Treiber von nVidia deutlich besser bei Multi-Threading als der DX12 Pfad im Spiel.
Savay
2021-03-14, 14:36:34
Dir ist schon klar das LL APIs vor allem was bringen wenn die DrawCalls durch die Decke gehen?! Der nutzen korreliert direkt mit der Objektdichte.
Und wie dort ein technisch seit defacto über 13 Jahren unverändertes und leeres Gebiet aus SingleCore und max. DualCore Zeiten (das wurde nichtmal in Cata angefasst!) als Benchmark herhalten sollte kannst du uns gerne mal erklären, wo die Leute ihre Zeit eher in aktuellen Gebieten mit einer bedeutend höheren Objektdichte verbringen. :freak:
Aber Daddel halt weiter mit DX11...nur zu. Soll mein Schaden nicht sein. ;D
Fusion_Power
2021-03-14, 14:37:21
Reicht dir das erstmal als Beispiel?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12623605&postcount=826
In meiner Spielauflösung von 1440p ist DX11 auch nicht zu gebrauchen, viel zu lahm.
Sieht gut aus, also bei dem Spiel. Wird sicher in Zukunft noch besser. Aber ob DX12 wirklich die das erfüllt, was Microsoft einst so drüber gehypet hat, muß sich zeigen. Ich hab eh nur nen alten i5 6600 und ne GTX 1050Ti, bzw. aktuell nur (testweise) ne kleine GTX 750Ti. Da is leider nicht viel mit DX12 Bling Bling. :D
aufkrawall
2021-03-14, 14:38:23
Aber ob DX12 wirklich die das erfüllt, was Microsoft einst so drüber gehypet hat, muß sich zeigen.
Nein, muss es nicht. Spiele wie Hitman oder Tomb Raider profitieren im CPU-Limit schon seit Ewigkeiten massivst vs. DX11...
Troyan
2021-03-14, 14:41:29
Dir ist schon klar das LL APIs vor allem was bringen wenn die DrawCalls durch die Decke gehen...der nutzen korreliert direkt mit der Objektdichte.
Und wie dort ein technisch seit defacto über 13 Jahren unverändertes Gebiet aus SingleCore und max. DualCore Zeiten (das wurde nichtmal in Cata angefasst!) als Benchmark herhalten sollte kannst du uns gerne mal erklären, wo die Leute ihre Zeit eher in aktuellen Gebieten mit einer enorm höheren Objektdichte verbringen. :freak:
Dir ist klar, dass bei nVidia der Treiber simple DrawCalls per Helperthreads beschleunigen kann? Wenn der DX12 Pfad im Spiel (aka DX12 Treiber), deutlich schlechteres Multi-Threading betreibt, dann ist DX12 im CPU Limit (aka Treiberlimit) schlechter.
Wie du anhand meines Screens erkennst, sind bei DX11 drei Threads auf 100% im Gegensatz zu DX12. Und das korreliert 1:1 mit mehr oder weniger Leistung im CPU-Limit. Das wiederrum schlägt sich bei nVidia dann auf deutlich langsamere CPUs und wahrscheinlich noch stärker auf ältere Ryzen-CPUs nieder.
-/\-CruNcher-/\-
2021-03-14, 14:42:58
Mom war der von HW-Unboxed nicht der Typ, welcher von NV hard geknechtet wurde, und Linus ihm dann zu Hilfe eilte..
Ist echt eine sehr zuverlässige Quelle, welche sicher nicht in irgendeiner Form biased ist :biggrin:
Er behauptet die Sachlage sei so.
Also muss hier die Fachpresse dringend nachziehen um das zu überprüfen, Raff böte sich doch an :)
Oder jemand besitzt zufälligerweise eine ältere AMD CPU + eine 3090 + eine 5700XT , viel Spaß ;D
Also mehr Quellen, dann kann man darüber ernsthaft diskutieren!
Canadier und Australier die sind etwas anders drauf wenn Druck aufgebaut wird sollte man sich als PRler vorher mit ausseinandersetzen ;)
Gehe ich vollkommen konträr. 5 Minuten Lesen gegen 20 Minuten zuhören - mit dem Nachteil, das man in einem Video-Review nichts mehr wiederfindet?
Davon abgesehen sind die Spitzen-Reviews auf Text meilenweit besser als die Spitzen-Reviews auf Video. Ab und zu kommt auf Video mal was interessantes, aber generell ist das Format für diesen Zweck ungeeignet und ist die real gebotene Qualität unterirdisch bis bestenfalls durchschnittlich.
Aber augenscheinlich sind die Geschmäcker sehr verschieden.
Das ist richtig aber man kann nicht so gut um Hilfe schreien und wird gehört und hinterlässt auch bei den Herstellern dann gewisse Ängste was passiert jetzt wenn wir das und das mit dem jenigen veranstallten es ist schon ein kleiner Unterschied ob du jemanden liest oder in Bewegung siehst ;)
Und der etwas losgelöster spricht ja sogar vielleicht Authentisch ist oder den Anschein erweckt es zu sein :D
Und wenn man dann ein gutes Netzwerk aufbaut mit Unterstützung das hat schon was was einen PRler ein wenig zittern lässt :)
Savay
2021-03-14, 14:43:33
Dir ist klar, dass bei nVidia der Treiber simple DrawCalls per Helperthreads beschleunigen kann?
Offensichtlich kann er das nicht richtig in den neueren Gebieten wenn die DrawCalls massiv steigen...sonst würde die nV Karte da nicht so absolut Grütze laufen @DX11.
Hast du dir die Links überhaupt angesehen? Wenn nicht erübrigt sich jegliche weitere Diskussion.
dargo
2021-03-14, 14:56:53
Dir ist klar, dass bei nVidia der Treiber simple DrawCalls per Helperthreads beschleunigen kann?
Soll das jetzt ein Witz sein? :freak:
http://forum.notebookreview.com/threads/3dmark-api-overhead-feature-test-dx12.784634/
Und das ist nur eine poppelige GTX980M.
Troyan
2021-03-14, 15:03:59
Offensichtlich kann er das nicht richtig in den neueren Gebieten wenn die DrawCalls massiv steigen...sonst würde die nV Karte da nicht so absolut Grütze laufen @DX11.
Hast du dir die Links überhaupt angesehen? Wenn nicht erübrigt sich jegliche weitere Diskussion.
Ich muss keine Links ansehen, wenn jeder es selbst testen kann. Und der eine Typ hat V-Sync an. :rolleyes:
Und wenn DX11 im CPU-Limit auch mal 35% schneller ist, dann erübrigt sich einfach jede Frage. Verstehe nicht, wieso einige nicht begreifen, was DX12 ist, wo zu 99% die Arbeit stattfindet und wer für die Leistung auf Hardware verantwortlich ist.
Ansonsten hier mal von Blizzard:https://eu.forums.blizzard.com/de/wow/t/neue-grafikschnittstellen-in-patch-815/21519
Das erklärt, wieso DX11 non Legacy deutlich schneller auf nVidia-Hardware ist. Aber vielleicht findet sich ja jemand hier, der in einer Stadt mit anderen Spieler vergleicht. In Außengebieten ist DX11 erheblich schneller im CPU-Limit.
Savay
2021-03-14, 15:15:53
Ich muss keine Links ansehen, wenn jeder es selbst testen kann.
Wow. Such Argument.
Das erklärt, wieso DX11 non Legacy deutlich schneller auf nVidia-Hardware ist.
Wo steht das da?! :crazy:
Aber wie gesagt...soll mein Schaden nicht sein. Daddel halt weiter in DX11. ;D
aufkrawall
2021-03-14, 15:16:41
Und wie schnell läuft das Nvidia D3D11 so im Vergleich zu AMD D3D12? ;D
-/\-CruNcher-/\-
2021-03-14, 15:26:10
Du bist böse nicht so gut wie das Nvidia OpenGL-Next/Vulkan aber immernoch sehr akzeptabel im Vergleich zu AMDs D3D11 ;)
dargo
2021-03-14, 15:59:41
Die Frage müsste eher lauten warum sollte ein Radeon-User noch DX11 nutzen wenn er als Option DX12 hat? Mal von ganz wenigen DX12-Unfällen wie zb. BFV abgesehen. Letzteres ist dann hoffentlich Geschichte mit BF6.
vinacis_vivids
2021-03-14, 16:11:25
Klassiker, 😂
von 2017
https://abload.de/img/gow41080pfx8370cdsp4.png
-/\-CruNcher-/\-
2021-03-14, 16:21:52
Jetz schreib mal überall noch den Verbrauch dahinter und die benötigten RPM nich mit solchem Pimmel schrott ala Jensen ankommen
Troyan
2021-03-14, 16:23:29
Wow. Such Argument.
Wo steht das da?! :crazy:
Aber wie gesagt...soll mein Schaden nicht sein. Daddel halt weiter in DX11. ;D
Hm, da steht:
Neues DX11 ist nun Multithreaded. DX12 ist es nicht annährend. Screens liegen hier ja vor.
Ehrlich, erkundige dich was DX12 ist. Lerne, was die Unterschiede zwischen DX11 und DX12 sind. Verstehe, was es für Entwickler bedeutet auf solch eine "Low Level" API zu wechseln.
Dann, ja dann, kannst du auf reddit verweisen. Alles andere führt nämlich zu den Unsinn, der hier bzgl "DX12 Treiber" geschrieben wird.
Ex3cut3r
2021-03-14, 16:25:08
Das Thema erinnert mich fast an die Flacherdler, trotz zahlreicher Beweise, und klarer Überlegenheit, glauben einige immer noch am Holy Grail DX11, obwohl schon Rise of The Tomb Raider Anfang 2016, massiv schneller im CPU Limit mit DX12 war. ;D
Passend dazu DX11 vs DX12 in RottR von mir selber damals.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11158521&postcount=3973
Savay
2021-03-14, 16:27:17
Hm, da steht:
Neues DX11 ist nun Multithreaded. DX12 ist es nicht annährend. Screens liegen hier ja vor.
Das steht da aber nicht, lieber Trollyan...du liest ja offensichtlich nichtmal deine eigenen Links und die Zahlen beweisen auch klar was anderes.
Egal wie sehr du dich windest und dir dein Luftschloss herbeifantasierst.
aufkrawall
2021-03-14, 16:41:44
Selbst auf Nvidia bringt die DX12-Implementierung etwas in Raids:
grYDhUQ1qq8
Onkel Trollyans BS-Märchenstunde...
maximus_hertus
2021-03-14, 19:58:57
Ich bin ja mal gespannt, was die nächste PCGH zu dem Thema bringen wird. Leider dauert das ja noch einige Wochen, schade ;) Aber immerhin gibt es dazu einen Artikel, von daher bin ich froh, dass man dazu mehr Daten / Zahlen bekomen ud so eine "sinnvollere" Diskussion führen kann, die mit besseren Daten "gefüttert" ist.
-/\-CruNcher-/\-
2021-03-14, 20:02:47
Selbst auf Nvidia bringt die DX12-Implementierung etwas in Raids:
https://youtu.be/grYDhUQ1qq8
Onkel Trollyans BS-Märchenstunde...
Ehh das Selbe Scenario kann es ja nicht sein der Video output ist nur von einem der runs der andere war ja unmöglich identisch.
Blizzard sollte mal einen Pre Recorded Benchmark veröffentlichen ;)
417.22 ist ein wenig outdated nach den ganzen WOW problemfixes
Blediator16
2021-03-14, 20:19:04
Ehh das Selbe Scenario kann es ja nicht sein der Video output ist nur von einem der runs der andere war ja unmöglich identisch.
Blizzard sollte mal einen Pre Recorded Benchmark veröffentlichen ;)
Trotzdem ist dx12 schneller, solange die Settings sonst die selben waren.
MiamiNice
2021-03-14, 20:39:31
Ihr wundert euch darüber das ein CPU limitierter Gameinhalt von DX12 profitiert?
Wie sieht das eigentlich derzeit in WoW aus? Zu meiner Zeit hat man immer mit der alten Api gespielt, weil stabiler. Ist das noch so?
Jasch
2021-03-14, 20:58:07
Nein man spielt DX11 und DX1 2mit der neuen APi, (ist auch stabil) der Vorteil in Städten und Raids ist einfach groß.(die alte ist ja die "ST" APi)
Iscaran
2021-03-14, 22:08:08
Mich wundert warum sowenige von euch auf den Frame-Limiter-Test im Hardware unboxed video (ab Minute 15 rum) eingehen
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=605303
FPS-Limiter auf 60 und dann mit low-End CPU einfach mal die CPU-Lasten betrachten.
Nvidia ist da konstant ~10-20% über dem "gleichen" CPU-System mit AMD-Karte.
Das ist schon "heftig" - fragt sich nur inwiefern die "globale" CPU-Last anzeige hier weiterhilft. Weil wenn es halt ein "single-Thread" limit ist, würde besseres Multi-Threading halt deutlich helfen.
Dennoch die Frage wieso nVidia hier soviel CPU-Last erzeugt bei GLEICHEN FPS.
EDIT: Nachtrag, eine 5700 XT ist mit einem X1600 schneller! in HZD als eine beliebige andere nVidia-Karte mit derselben CPU...(in diesen Settings) (Minute 10:30 im Video)
Badesalz
2021-03-14, 22:14:53
Ich bin ja mal gespannt, was die nächste PCGH zu dem Thema bringen wird. Leider dauert das ja noch einige Wochen, schade ;) Aber immerhin gibt es dazu einen Artikel, von daher bin ich froh, dass man dazu mehr Daten / Zahlen bekomen ud so eine "sinnvollere" Diskussion führen kann, die mit besseren Daten "gefüttert" ist.Na das ist doch mal eine interessante Ansicht... Seit wann sind ausgerechnet HardwareUnboxed irgendwelche Stümper? Welche Daten und Zahlen fehlen denn überhaupt?
Erwartest du von PCGH irgendetwas glasklares? ROFLMAO? Die werden keine der Hände beißen welche die Grundlage sind für ihr Dasein. Es wird mehr Wischiwaschi, mehr Relativierungen und mehr Stoff für eine WEITE Interpretation geben.
Daredevil
2021-03-14, 22:26:09
Na das ist doch mal eine interessante Ansicht... Seit wann sind ausgerechnet HardwareUnboxed irgendwelche Stümper? Welche Daten und Zahlen fehlen denn überhaupt?
Wir haben Daten von zwei Spielen, die auf 1080p Mid, also quasi 720p Max Settings getestet wurden. Es sind in dem Fall klar CPU limitierte Szenen und das ist auch völlig okay, weil man damit das Problem seitens Nvidia besser darstellen kann.
Das man aber nun sagt "Ne 5700xt ist bei nem 1600x besser als ne 3080", dafür fehlen nun einmal Daten.
Es ist aber ganz ganz wunderbar, dass dieses Fass aufgemacht wurde, damit Nvidia daran arbeiten kann.
Badesalz
2021-03-14, 22:32:25
Es ist aber ganz ganz wunderbar, dass dieses Fass aufgemacht wurde, damit Nvidia daran arbeiten kann.Ohne Frage :up:
Haben wir aber eh nicht schon ewig erzählt, die Graka sollte so halbwegs zu CPU passen? ;) 1600er und eine 3080 ist schon bisschen... seltsam.
Na das ist doch mal eine interessante Ansicht... Seit wann sind ausgerechnet HardwareUnboxed irgendwelche Stümper? Welche Daten und Zahlen fehlen denn überhaupt?
Erwartest du von PCGH irgendetwas glasklares? ROFLMAO? Die werden keine der Hände beißen welche die Grundlage sind für ihr Dasein. Es wird mehr Wischiwaschi, mehr Relativierungen und mehr Stoff für eine WEITE Interpretation geben.
Mal abgesehen davon, dass du offenbar schon länger einen Groll gegenüber PCGH hegst, den du mir gerne konstruktiv per PN zusenden kannst: Welche Hand soll das sein, in die man beißt, wenn man objektiv Dinge misst und kritisiert (was PCGH ständig macht)? Und wie soll die Hand demgegenüber ausholen?
MfG
Raff
Fetza
2021-03-15, 02:40:16
Kommt auch auf die Auflösung an. Aber du kannst es selbst am besten beantworten. Installier dir den Afterburner oder ein Monitoring Programm deiner Wahl, und schau auf die GPU Auslastung. Bei Turing ist es aber sowieso nicht so schlimm wie bei Ampere. Ich hatte selbst nen 4770k @ 4.1 GHz und DDR3 2400 MHz CL11, 2 Jahre mit einer 2080 in Gebrauch allerdings für 3440x1440 und hatte keine Probleme. Das einzige Game welches etwas unsaubere Frametimes ausgespuckt hat, war BF5 mit 64 Spielern.
Naja, von der FPS Zahl her kam ich bisher immer klar, allerdings merke ich bei Spielen wie Hunt: Showdown schon, dass die CPU an den Rand der Leistungsfähigkeit gebracht wird. Trotz Undervoltage wird sie dort 90 Grad warm und Auslastung ist immer voll. Die Graphikkarte arbeitet dann aber auch entsprechend mit.
Die Frametimes sind halt schon länger eher unstet.
Den Afterburner nutze ich auch schon seit Jahren um die Performance mitzuverfolgen. Ich war jetzt nur fasziniert, dass die NV GPUs keinen Hardware Scheduler mehr haben und deswegen mehr CPU-Last kreieren.
Wie immer bei einer solchen FRage: es kommt darauf an, was du zockst und/oder damit machst.
Ein 4790K ist ja generell schon nicht mehr ganz taufrisch und ein CPU Upgrade, unabhängig der Grafikkarte sicherlich keine schlechte Idee :)
Ansonsten müsste man einen kompletten PArcours mit RTX und Radeon-Karte in 720p haben, um zu sehen, wie deutlich das Phänomen ist (deutlich weniger fps im CPU Limit bei nV). Aber ich wiederhole mich da ;)
Jo schon richtig, mir hats halt spaß gemacht, dass ein System schön lange durchhält. Mal schauen, wenn der 11400F gut und günstig daherkommt, werde ich wohl mal wieder aufrüsten. :)
BlacKi
2021-03-15, 03:21:24
Haben wir aber eh nicht schon ewig erzählt, die Graka sollte so halbwegs zu CPU passen? ;) 1600er und eine 3080 ist schon bisschen... seltsam.
seltsam mag sein, aber es ging darum, wie groß der unterschied ist. ob man dazu einen 1600x oder einen 5600x hernimmt ist egal, hauptsache die performance unterschiede werden schön rausgestellt.
als nächstes argument bringst du dann :"ich spiele eh mit 60fps". schön für dich, nur das hilft halt auch nicht weiter die unterschiede herauszuarbeiten.
Badesalz
2021-03-15, 07:01:30
Mal abgesehen davon, dass du offenbar schon länger einen Groll gegenüber PCGH hegst, den du mir gerne konstruktiv per PN zusenden kannst: Welche Hand soll das sein, in die man beißt, wenn man objektiv Dinge misst und kritisiert (was PCGH ständig macht)? Und wie soll die Hand demgegenüber ausholen?Nö, so einfach ist das nicht :tongue: Das gilt für alle derartige Formate. Und das nicht nur bei dem Themengebiet.
Oder meinst du die zu 95% bayuwarisch angesiedelte KFZ-Presse hat jemals BMW so nieder gemacht wie sie das mal mit Ford oder VW tut? Und ich schraub schon gelegentlich an Autos und weiß mit welchen Wassern auch BMW teilweise kocht.
Das gilt für alle solche. Nicht speziell für PCGH.
Zum Thema selbst. Dir fällt nichts dazu ein wie man unbequeme Organeübers Eck gängeln kann, weil das noch nie jemandem passiert ist? Hmm…
seltsam mag sein, aber es ging darum, wie groß der unterschied ist. ob man dazu einen 1600x oder einen 5600x hernimmt ist egal, hauptsache die performance unterschiede werden schön rausgestellt.
als nächstes argument bringst du dann :"ich spiele eh mit 60fps". schön für dich, nur das hilft halt auch nicht weiter die unterschiede herauszuarbeiten.Es ging mir in der Tat um die Relevanz bezüglich des Realitätsabgleichs. Daß man irgendwas besonderes machen muss um besondere Unterschiede aufzuzeigen ist mir schon klar. Die Frage war halt wie besonders das dann mit der Realität korreliert…
Wobei ich damit nicht sage, das tut es garnicht. Das hat hier aber soweit noch keiner ausformuliert (?) ;)
basix
2021-03-15, 07:25:17
Rein zufällig ist dazu seit zwei Wochen ein Artikel fertig (auf dem Plan stand er ein halbes Jahr ... Zeit). Fürs Heft. Das zufällige Vorpreschen von HWU führt nun dazu, dass wir ASAP ein Online-Spinoff machen.
MfG
Raff
Top! Werde ich gerne lesen ;) Sind zufälligerweise auch etwas ältere GPUs von AMD und Nvidia dabei? Pascal scheint im CPU Limit regelmässig schneller als Turing/Ampere zu sein und AMD hat bei neueren GPUs den HWS überarbeitet, damit der weniger schnell bei z.B. DX11 ans Limit kommt. Etwas wie z.B. Hawaii, Polaris, Vega sowie Maxwell und Pascal.
rentex
2021-03-15, 08:39:11
https://www.igorslab.de/treiber-overhead-bei-nvidia-und-directx12-msi-geforce-rtx-3090-suprim-gegen-msi-radeon-rx-6900xt-gaming-x-und-die-eigenen-treiber/
Igor hat sich dem Thema gewidmet.
Cubitus
2021-03-15, 08:42:49
Jo schon richtig, mir hats halt spaß gemacht, dass ein System schön lange durchhält. Mal schauen, wenn der 11400F gut und günstig daherkommt, werde ich wohl mal wieder aufrüsten. :)
Hört sich vernünftig an... Kannst zu nem MSI 490er Board (MEG z.b) greifen, etwas günstiger, kann ebenfalls PCIE 4.0 und geht per Bios Update auch auf Rocket Lake S steil.
dargo
2021-03-15, 10:40:19
https://www.igorslab.de/treiber-overhead-bei-nvidia-und-directx12-msi-geforce-rtx-3090-suprim-gegen-msi-radeon-rx-6900xt-gaming-x-und-die-eigenen-treiber/
Igor hat sich dem Thema gewidmet.
Ich habs mal kurz überflogen. Witzig finde ich den Vergleich mit HZD. In 720p ist die CPU mit 4 Cores praktisch gleich schnell @RX 6900XT wie die CPU mit 6 Cores @RTX 3090 (avg.fps). Dabei säuft das System mit der Geforce rund 112W mehr. :freak: In 1440p bleibt das Delta in etwa bestehen wenn beide Systeme mit 8 Cores laufen liegt die Differenz bei 114,5W.
Troyan
2021-03-15, 13:05:55
Das steht da aber nicht, lieber Trollyan...du liest ja offensichtlich nichtmal deine eigenen Links und die Zahlen beweisen auch klar was anderes.
Egal wie sehr du dich windest und dir dein Luftschloss herbeifantasierst.
Das steht bei Blizzard:
DirectX 11
Ein neues Backend-Renderingsystem, das Multithreading und DirectX 11 verwendet. Dadurch sollte sich die Leistung älterer Grafikkarten oder Betriebssysteme verbessern, die DirectX 12 nicht unterstützen. Diese Version wird neu mit Patch 8.1.5 eingeführt.
DirectX 12
Ein Backend-Renderingsystem, das Multithreading und DirectX 12 für Hardware, Treiber und Betriebssysteme verwendet, die diese Option unterstützen. In Patch 8.1.5 gibt es einige Leistungsverbesserungen, aber insgesamt ist diese Version dieselbe wie in Patch 8.1.0.
Das musste ich dir jetzt zitieren? Und die Zahlen? Du meinst die, wo DX11 schneller ist?
Es steht dir aber frei nun das Gegenteil zu zeigen.
dildo4u
2021-03-15, 13:15:03
Es kommen noch weitere Tests von HW Unboxed.
Das ganze sollte noch deutlich interessanter werden wenn Zen 2 die Baseline der Konsolenports ist.
Was wiederum gut für AMD und Intel wäre da Zen 4/Alder Lake diese Bottlenecks mit Ampere komplett beseitigen könnte, für Navi User könnte Zen 3 wiederum die ganze Gen reichen.
TD6-Y2a1XbE
Radeonator
2021-03-15, 14:16:49
Habe den Thread bis hier gelesen und bin doch an einer Frage hängen geblieben: Wie schließe ich es aus, das die GPU Architektur und/oder der Treiber das Bild verfälscht. Ich denke , gar nicht! Es gibt zu viele Variablen als das ich alles ausschließen könnte und ich muss mich somit mit dem kleinst gemeinsamen Nenner zufrieden geben. Das wiederum bedeutet, das ich ein Szenario schaffen muss wo a: beide großen Hersteller vertreten sind und b: die GPU das Bild möglichst wenig verzerrt. A ist relativ einfach aber B stellt wieder mehrere mögliche Szenarien zur Auswahl. Entweder ich nehme Low End GPUs die aber komplett den jeweiligen DX Spezifikationen gerecht werden oder ich teste Low,Mid und Highend beider GPU Hersteller und ermittle darüber entsprechende Werte. Was denkt ihr ?
Troyan
2021-03-15, 14:22:01
Einfach ignorieren und CPU-Tests mit einer Plattform machen. Kann man sich ja aussuchen, ob mit AMD- oder nVidia-Karte. Spiegelt ja ein richtiges Ergebnis wider.
Bei Kaufberatungen sieht es vollkommen anders aus. Aber dann wiederum wird niemand auf Raytracing verzichten, wenn es dank CPU-Limit kostenlos ist...
aufkrawall
2021-03-15, 14:26:07
wenn es dank CPU-Limit kostenlos ist...
Klappt in WoW ja bestens, wenn mit RT eine 6800 eine 3090 in 1440p völlig abzieht. ;D
Annator
2021-03-15, 14:51:31
https://www.igorslab.de/treiber-overhead-bei-nvidia-und-directx12-msi-geforce-rtx-3090-suprim-gegen-msi-radeon-rx-6900xt-gaming-x-und-die-eigenen-treiber/
Igor hat sich dem Thema gewidmet.
Er hätte die Grafiken mal in % Differenz ändern sollen anstatt in absoluten FPS. Dann wäre das alles so unspektakulär das man sich das ganze Thema hätte sparen können.
aufkrawall
2021-03-15, 14:59:48
Nicht das Thema, sondern diesen Test. Ich weiß jetzt nicht, was an dem Thema unspektakulär sein soll, wenn ich mit AMD-GPU in Legion 20% höhere low fps im CPU-Limit habe, und mit SAM für beide Hersteller werden es dann womöglich noch 30%. Das ist schon übel.
MiamiNice
2021-03-15, 15:06:44
Er hätte die Grafiken mal in % Differenz ändern sollen anstatt in absoluten FPS. Dann wäre das alles so unspektakulär das man sich das ganze Thema hätte sparen können.
Das würde aber nicht genug Leute triggern und die AMD vs. NV Fans kommen nicht lesen/schauen und erzeugen keine Klicks. Dann müsste der arme Steve paar Tage länger auf sein neues Spielzeug warten, das wäre nicht akzeptabel. Daher sucht man einfach Themen die seit Jahren durch sind und publiziert diese mit dem üblichen AMD vs Intel/Nv Trigger. Dann passt auch der Umsatz.
maximus_hertus
2021-03-15, 16:25:58
Es gibt zu viele Variablen als das ich alles ausschließen könnte und ich muss mich somit mit dem kleinst gemeinsamen Nenner zufrieden geben. Das wiederum bedeutet, das ich ein Szenario schaffen muss wo a: beide großen Hersteller vertreten sind und b: die GPU das Bild möglichst wenig verzerrt. A ist relativ einfach aber B stellt wieder mehrere mögliche Szenarien zur Auswahl. Entweder ich nehme Low End GPUs die aber komplett den jeweiligen DX Spezifikationen gerecht werden oder ich teste Low,Mid und Highend beider GPU Hersteller und ermittle darüber entsprechende Werte. Was denkt ihr ?
Bei einem CPU Review geht es ja in erster Linie darum, zu messen, wie viele fps die CPU A in einem Spiel X erreichen kann. Ergo müsste man aktuell, zumindest fpr DX12 Games, eine Radeon hernehmen.
Ich bin echt auf den PCGH Artikel gespannt, welche Daten wir dort bekommen.
Imo gibt es vier Optionen:
1. Weiterhin die RTX 3090 nehmen und damit riskieren, falsche Aussagen zu tätigen (Zen 2 ist viel langsamer als Zen3 / Rocketlake, obwohl das ggf. gar nicht der Fall ist, sondern nur mit nV Karten).
oder
2. man nimmt ab sofort die 6900XT als Testkarte für CPU Reviews. Hier hat man aber ggf. ein "Problem" bei (alten) DX11 Titeln.
oder
3. Beide Karten, ABER: für DX12 Games kommt die Radeon und für DX11 Games die RTX zum Einsatz. Das würde den Testaufwand wohl nicht zu dramatisch erhöhen und man hätte ggf. das beste aus beiden Welten.
oder
4. Königslösung: Zumindest in 2021 testet man die CPUs mit BEIDEN KArten, also RTX 3090 UND RX 6900 XT. Das ist natürlich der doppelte Aufwand und wahrscheinlich nur schwer zu stemmen. Es wäre aber ein absoluter Traum dann beide Karten komplett drin zu haben um dann die besten DAtenlage analysieren zu können.
Aber vielleicht erübrigt sich das ganze, warten wir mal auf den PCGH Artikel.
maximus_hertus
2021-03-15, 16:34:28
Das würde aber nicht genug Leute triggern und die AMD vs. NV Fans kommen nicht lesen/schauen und erzeugen keine Klicks. Dann müsste der arme Steve paar Tage länger auf sein neues Spielzeug warten, das wäre nicht akzeptabel. Daher sucht man einfach Themen die seit Jahren durch sind und publiziert diese mit dem üblichen AMD vs Intel/Nv Trigger. Dann passt auch der Umsatz.
Machen wir es doch konkret: 2017 kauft sich jemand ein aktuelles Gaming-System: i5-8600K und eine GTX 1070. "Damals" eine echt gute, ausgewogene Kombi, für 1080p perfekt geeignet, sogar 1440p.
JEtzt ist nach rund 4 JAhren die GPU kaputt gegangen (ja, passiert nicht so oft, aber man kann es eben nicht ausschließen).
Nehmen wir mal die aktuellen Preise ein wenig beiseite und schauen nur auf die Benchmarks: die suggerieren, dass eine RTX 3080 schneller ist als eine RX 6800XT. Also denkt man sich, ich kaufe jetzt die 3080 und Ende 2021 oder 2022 dann ein Alder Lake oder Zen4 System. Dann hat man wieder etwas Ruhe.
Problem: mit dem "alten" i5 performt die RTX nicht so, wie man es erwartet (in 1080p) und man baut die RX 6800 XT vom Kumpel zum testen ein und stellt fest: die ist ja (viel) schneller! Wie kann das sein? Fehlkauf RTX?
Klar, es betrifft nicht jeden und viele holen sich CPU und GPU im Tandem. Aber eben nicht jeder und CPUs halten in der Regel deutlich länger durch als GPUs.
Dazu muss man häufig das Mainboard und ggf. den RAM mitwechseln (bei der CPU), was das ganze noch unattraktiver macht. Plus ggf. System neu installieren etc.
Bis auf ganz wenige Ausnahmen reicht ein Ryzen 2700X oder ein i5-8000 für alles aus. Sicher nicht für 144+ fps, aber 60+ fps. Zumindest wenn die Grafikkarte mitspielt.
sapito
2021-03-15, 16:49:58
Machen wir es doch konkret: 2017 kauft sich jemand ein aktuelles Gaming-System: i5-8600K und eine GTX 1070. "Damals" eine echt gute, ausgewogene Kombi, für 1080p perfekt geeignet, sogar 1440p.
JEtzt ist nach rund 4 JAhren die GPU kaputt gegangen (ja, passiert nicht so oft, aber man kann es eben nicht ausschließen).
Nehmen wir mal die aktuellen Preise ein wenig beiseite und schauen nur auf die Benchmarks: die suggerieren, dass eine RTX 3080 schneller ist als eine RX 6800XT. Also denkt man sich, ich kaufe jetzt die 3080 und Ende 2021 oder 2022 dann ein Alder Lake oder Zen4 System. Dann hat man wieder etwas Ruhe.
Problem: mit dem "alten" i5 performt die RTX nicht so, wie man es erwartet (in 1080p) und man baut die RX 6800 XT vom Kumpel zum testen ein und stellt fest: die ist ja (viel) schneller! Wie kann das sein? Fehlkauf RTX?
...
machen wir es kurz: mit NVIDIA Karten läuft man Gefahr, deutlich eher in ein CPU Limit (nahezu Voll Auslastung) zu laufen
hat HWU ja gezeigt:
> einfach einen LIMITER auf xx FPS setzen
>> CPU Last ist dann bei AMD deutlich niedriger als bei NVIDIA
wurde bei dem 2. Video deutlich wo Joe Sixpack genau das gemacht hat was du beschreibst
>> gleiche CPU aber von R380? auf GTX 1660ti gewechselt (irgendein BF)
> mit AMD: cpu last aller Kerne 7x-8x%
> mit NVIDIA : cpu last auf allen Kernen bei 95-100%
> Ergebnis, mit dem "upgrade" hatte er auch noch weniger FPS
kann mich noch an AC Odyssey erinnern wo alle mit weniger als 8T wegen der voll Auslastung der CPU jammerten. mit ner AMD Karte hätte man wohl hier mehr FPS haben können.
Lurtz
2021-03-15, 17:05:15
kann mich noch an AC Odyssey erinnern wo alle mit weniger als 8T wegen der voll Auslastung der CPU jammerten. mit ner AMD Karte hätte man wohl hier mehr FPS haben können.
Ja, rückwirkend erklärt das so einiges, auch in Hardware-Hilfe-Foren :D
dargo
2021-03-15, 17:06:43
Hat jemand aktuelle Werte mit einer schnellen Geforce @1080p low von Watch Dogs Legion parat? Ich habe nur das hier gefunden.
https://abload.de/thumb/zwischenablage01ikjv0.jpg (https://abload.de/image.php?img=zwischenablage01ikjv0.jpg)
https://www.youtube.com/watch?v=KWpPi4NVyMI&t=92s
Zum Vergleich ein 5800X @4,5Ghz mit RX 6800XT.
https://abload.de/thumb/2021.03.15-16.57cnkdc.jpg (https://abload.de/image.php?img=2021.03.15-16.57cnkdc.jpg)
Ich kann mir beim besten Willen nicht vorstellen, dass ein i7-8700K @4,7Ghz so lahm vs. 5800X @4,5Ghz ist.
PS: der Wert von mir ist mit unoptimierten DDR4-3200 CL14 Speicher, nur XMP-Profil.
Edit:
Hier mit optimierten DDR4-3600 CL16.
https://abload.de/thumb/2021.03.15-17.391okwq.jpg (https://abload.de/image.php?img=2021.03.15-17.391okwq.jpg)
Hätte jetzt nicht damit gerechnet, dass die avgs. nochmal um 20% zulegen. :freak:
sapito
2021-03-15, 18:17:10
Hat jemand aktuelle Werte mit einer schnellen Geforce @1080p low von Watch Dogs Legion parat? Ich habe nur das
Ryzen 3800X @default + XPS 3600
RTX 2080ti @2100
https://abload.de/thumb/watchdogslegion2021-3npjsq.png (https://abload.de/image.php?img=watchdogslegion2021-3npjsq.png)
was auffällt:
3080+2080ti haben deutlich weniger GPU usage als die Radeon
dargo
2021-03-15, 18:56:00
Schon witzig wie sich die Zeiten ändern. Dabei ist ein 3800X keine lahme CPU.
sapito
2021-03-15, 19:41:32
Schon witzig wie sich die Zeiten ändern. Dabei ist ein 3800X keine lahme CPU.
hat IMHO weniger mit der CPU zu tun.
hier werden die 1. 8 Threats so lala ausgelastet (0-60%) und die 2. 8 dagegen gut (60-80)
gesamt immer so 10 60er, selten im 70er Bereich
ABER die GPU langweilt sich hier irgendwie und kann/ wird vom Treiber/ Spiel nicht ausgelastet.
sieht man auch wenn man Details hochfährt, immer so knapp über 90% und die Watt Last ist auch immer deutlich unter 300W
dargo
2021-03-15, 19:50:29
Natürlich hat es nichts mit der CPU zu tun. :tongue:
Iscaran
2021-03-15, 20:48:53
Macht doch mal eine CPU-Auslastungsvergleich @FPS-Limiter 60 FPS (oder zumindest einem Limit das beide GPUs "locker" schaffen.
Badesalz
2021-03-15, 22:08:23
Habe den Thread bis hier gelesen und bin doch an einer Frage hängen geblieben: Wie schließe ich es aus, das die GPU Architektur und/oder der Treiber das Bild verfälscht. Ich denke , gar nicht!Bravo. CPU-Tests, mit irgendwelchen lowest preset settings in Spielen, sind keine CPU-Tests. Fertig.
Ex3cut3r
2021-03-15, 22:14:56
Das ist teilweise echt heftig. Nvidia muss und wird nachbessern, hoffe ich zumindest. Sonst ist das mit dem akuellen stand ein Witz siehe Sapitos WDL Bench. Nvidia hat ja nichtmal rBar bis jetzt eingeführt, weder für Ampere und Turing bekommt es eh nicht. Was machen die eigentlich all die Monate? :confused:
Nur die Miner bedienen?
Denniss
2021-03-15, 22:28:19
Die Treiberentwickler haben vielleicht zuviele Strahlen vom Raytracing abbekommen und leuchten jetzt im Dunkeln. Da ist mal ein wenig Basisarbeit angesagt.
Iscaran
2021-03-15, 22:33:44
https://www.igorslab.de/treiber-overhead-bei-nvidia-und-directx12-msi-geforce-rtx-3090-suprim-gegen-msi-radeon-rx-6900xt-gaming-x-und-die-eigenen-treiber/3/
4 Kerne @ 6900XT schlagen eine 3090 sofern diese mit WENIGER als 8 Kernen betrieben wird.
Das ist schon heftig: https://www.igorslab.de/wp-content/uploads/2021/03/Horizon-Zero-Dawn-FPS-1280-x-720-DX12-Ultra-Settings-FoV-90-TAA-Blur-On.png
Selbst in FullHD: https://www.igorslab.de/wp-content/uploads/2021/03/Horizon-Zero-Dawn-FPS-1920-x-1080-DX12-Ultra-Settings-FoV-90-TAA-Blur-On.png
6 Kerne @AMD reichen um eine 8-Kern betriebene 3090 zu überflügeln.
Das ganze ist in Ultra Settings - man kann also wirklich nicht sagen, es lägen keine "GPU-intensiven" Settings vor.
Die Schlussfolgerungen von Igor bzgl. Async ist durchaus nicht ganz von der Hand zu weisen. Die "erhöhte" CPU-Last, sieht man halt allerdings auch und Async allein macht doch noch keine zusätzliche CPU-Last? Wenn dann müsste ja die CPU-Last bei AMD höher sein, denn die ganzen "Pipeline"-Bubbles die Igor vermutet, müssen ja dennoch von der CPU berechnet werden.
Wenn es also eher eine "API" bzw. "Async"-Problem wäre, warum hat nVidia dann trotz "weniger" Arbeit (FPS) MEHR CPU-Last?
Macht mehr Benches mit FPS-Limitern und skaliert dann die CPU-Leistung....
Silent3sniper
2021-03-15, 22:47:24
Meine Vermutung, rein subjektiv jedoch plausibel, ist, dass auf Basis dieser Ergebnisse besonders die 1% lows bei vergleichsweise schwachen CPUs spürbar von einer AMD Grafikkarte profitieren würden.
Ex3cut3r
2021-03-15, 22:56:42
Ja, natürlich, das ist ja grade der Skandal. Die CPU ist nicht so schlecht, wie es die Nvidia GPU suggeriert. Als so ein großes Unternehmen wie es Nvidia doch vorgibt, kann man das IMO gar nicht so stehen lassen, das Ding ist aber die müssen doch eigentlich schon viel früher bemerkt haben, haben aber bisher nichts unternommen, der Supergau wäre es, wenn es nicht per Software fixbar ist. Sondern da irgendwas in der Ampere und Turing Architektur bremst.
aufkrawall
2021-03-15, 23:00:02
FH4
3600X RTX 3090: 119fps min
3600X RX 6900 XT: 152fps min (GPU-Limit)
https://gamegpu.com/racing-simulators-/-%D0%B3%D0%BE%D0%BD%D0%BA%D0%B8/forza-horizon-4-test-gpu-cpu
Nur 28% Unterschied, mit der Radeon im GPU-Limit. :freak: ;D
Sumpfmolch
2021-03-16, 00:07:55
Bedeutet das nicht, dass NVIDIA den Verkauf von neuen AMD CPUs antreibt? :biggrin:
Vielleicht sollte AMD daraus Werbung machen und NVIDIA Besitzer darauf hinweisen, dass diese bitte eine 1-2 Stufen stärke AMD CPU benötigen...
Iscaran
2021-03-16, 00:25:55
Noch eklatanter:
https://gamegpu.com/racing-simulators-/-%D0%B3%D0%BE%D0%BD%D0%BA%D0%B8/forza-horizon-4-test-gpu-cpu
Wähle Ryzen 3 1200 4C4T 3.1GHz@FullHD:Vega64 94 FPS > RTX3090 89 FPS
ebenso der ganze Rest von nVidia "Festgetackter bei 89 FPS) ...das Problem betrifft also ALLE nVidia Architekturen seit mindestens der 2000er Serie, möglicherweise auch der 1000er Serie.
Allerdings wundert mich wie stark das dann doch mit dem Core-Takt skaliert:
Ein 2200G@3.5 GHz ebenfalls 4C4T:
nVidia - Limit @100 FPS = +12% gegenüber Ryzen 1200 (da waren es ja 89 FPS) und das bei 3.5/3.1 GHz = +13% Takt.
Sieht schon sehr stark nach einem "single-Thread" Durchsatz Problem aus?
Ich vermute das hat dann doch viel stärker mit der schon älteren These des "CPU-Overheads" im nVidia-Treiber zu tun.
Bzw., FH4 ist ebenfalls ein DX12 Titel, nVidia scheint unter DX12 einfach nicht so gut Multithreading zu können (bzw. nur mit einem starken "CPU-Overhead" => Stichwort Haupt"-worker-Thread, da kein "nativer", automatische Thread-Scheduler die Aufgaben umverteilt.
Ist der Worker-Thread dicht ist eben ...Ende im Gelände.
AMD GPUs scheinen hier einfach - besser die Lastverteilung auf mehrere Threads zu beherrschen? Keine Ahnung ob das wirklich mit "Async Compute" zu tun hat...
Ich dachte immer das Async Compute bringt eher was wenn man auf 1 Kern Latenzprobleme hat - aber bei Multi-Core?
][immy
2021-03-16, 02:05:57
Machen wir es doch konkret: 2017 kauft sich jemand ein aktuelles Gaming-System: i5-8600K und eine GTX 1070. "Damals" eine echt gute, ausgewogene Kombi, für 1080p perfekt geeignet, sogar 1440p.
JEtzt ist nach rund 4 JAhren die GPU kaputt gegangen (ja, passiert nicht so oft, aber man kann es eben nicht ausschließen).
Nehmen wir mal die aktuellen Preise ein wenig beiseite und schauen nur auf die Benchmarks: die suggerieren, dass eine RTX 3080 schneller ist als eine RX 6800XT. Also denkt man sich, ich kaufe jetzt die 3080 und Ende 2021 oder 2022 dann ein Alder Lake oder Zen4 System. Dann hat man wieder etwas Ruhe.
Problem: mit dem "alten" i5 performt die RTX nicht so, wie man es erwartet (in 1080p) und man baut die RX 6800 XT vom Kumpel zum testen ein und stellt fest: die ist ja (viel) schneller! Wie kann das sein? Fehlkauf RTX?
Klar, es betrifft nicht jeden und viele holen sich CPU und GPU im Tandem. Aber eben nicht jeder und CPUs halten in der Regel deutlich länger durch als GPUs.
Dazu muss man häufig das Mainboard und ggf. den RAM mitwechseln (bei der CPU), was das ganze noch unattraktiver macht. Plus ggf. System neu installieren etc.
Bis auf ganz wenige Ausnahmen reicht ein Ryzen 2700X oder ein i5-8000 für alles aus. Sicher nicht für 144+ fps, aber 60+ fps. Zumindest wenn die Grafikkarte mitspielt.
Kann man so sehen. Man kann es aber auch so sehen, das man mit der Investition in eine teure GPU wohl kaum 1080p fahren wird. Spätestens wenn die Grafikkarte stark unterperformt sollte ohne Probleme AA, Downsampling & co drin sein.
Das ändert natürlich nichts an nvidias scheinbar schlechtem DX12 Treiber, der bisher einfach nicht aufgefallen ist, weil GPUs halt meist mit möglichst guten CPUs getestet werden.
Mich wundert allerdings nach wie vor, das es zwischen dem Ryzen 3600 und 5600 so große Unterschiede gibt. Klar die CPU ist schlagkräftiger, aber auch ein Ryzen 3600 ist nicht grad eine Low-End GPU. Zumal die Taktraten normalerweise genau so hoch geht wie bei den großen Brüdern. Das Einzige was dort unterschiedlich ist, ist die Anzahl der Kerne. Erstaunlich das es dann doch mit der Kernanzahl skaliert.
Badesalz
2021-03-16, 08:03:10
das Ding ist aber die müssen doch eigentlich schon viel früher bemerkt haben, haben aber bisher nichts unternommenApropos. Wisst ihr was mir dabei wirklich spanisch vorkommt? Solche Tests sind in wertig nicht in 2-3 Tagen gemacht. Und jetzt wo HwUnboxed das brachte haben plötzlich alle, PCGH gar schon länger?, umgehend kiloweise Daten zum Thema?
dargo
2021-03-16, 08:09:30
Macht doch mal eine CPU-Auslastungsvergleich @FPS-Limiter 60 FPS (oder zumindest einem Limit das beide GPUs "locker" schaffen.
Welche Überraschung erhoffst du dir dadurch?
dildo4u
2021-03-16, 08:19:42
Noch eklatanter:
https://gamegpu.com/racing-simulators-/-%D0%B3%D0%BE%D0%BD%D0%BA%D0%B8/forza-horizon-4-test-gpu-cpu
Wähle Ryzen 3 1200 4C4T 3.1GHz@FullHD:Vega64 94 FPS > RTX3090 89 FPS
ebenso der ganze Rest von nVidia "Festgetackter bei 89 FPS) ...das Problem betrifft also ALLE nVidia Architekturen seit mindestens der 2000er Serie, möglicherweise auch der 1000er Serie.
Allerdings wundert mich wie stark das dann doch mit dem Core-Takt skaliert:
Ein 2200G@3.5 GHz ebenfalls 4C4T:
nVidia - Limit @100 FPS = +12% gegenüber Ryzen 1200 (da waren es ja 89 FPS) und das bei 3.5/3.1 GHz = +13% Takt.
Sieht schon sehr stark nach einem "single-Thread" Durchsatz Problem aus?
Ich vermute das hat dann doch viel stärker mit der schon älteren These des "CPU-Overheads" im nVidia-Treiber zu tun.
Bzw., FH4 ist ebenfalls ein DX12 Titel, nVidia scheint unter DX12 einfach nicht so gut Multithreading zu können (bzw. nur mit einem starken "CPU-Overhead" => Stichwort Haupt"-worker-Thread, da kein "nativer", automatische Thread-Scheduler die Aufgaben umverteilt.
Ist der Worker-Thread dicht ist eben ...Ende im Gelände.
AMD GPUs scheinen hier einfach - besser die Lastverteilung auf mehrere Threads zu beherrschen? Keine Ahnung ob das wirklich mit "Async Compute" zu tun hat...
Ich dachte immer das Async Compute bringt eher was wenn man auf 1 Kern Latenzprobleme hat - aber bei Multi-Core?
Rennt imo ok der 3600X kann die 3090 fast maxen in 1440p, 3600X 119fps min 5600X 122fps min.(NV hatte aber üble Probleme in dem Game als es neu war)
BlacKi
2021-03-16, 11:49:21
https://www.igorslab.de/treiber-overhead-bei-nvidia-und-directx12-msi-geforce-rtx-3090-suprim-gegen-msi-radeon-rx-6900xt-gaming-x-und-die-eigenen-treiber/3/
4 Kerne @ 6900XT schlagen eine 3090 sofern diese mit WENIGER als 8 Kernen betrieben wird.
Das ist schon heftig: https://www.igorslab.de/wp-content/uploads/2021/03/Horizon-Zero-Dawn-FPS-1280-x-720-DX12-Ultra-Settings-FoV-90-TAA-Blur-On.png
Selbst in FullHD: https://www.igorslab.de/wp-content/uploads/2021/03/Horizon-Zero-Dawn-FPS-1920-x-1080-DX12-Ultra-Settings-FoV-90-TAA-Blur-On.png
6 Kerne @AMD reichen um eine 8-Kern betriebene 3090 zu überflügeln.
Das ganze ist in Ultra Settings - man kann also wirklich nicht sagen, es lägen keine "GPU-intensiven" Settings vor.
Die Schlussfolgerungen von Igor bzgl. Async ist durchaus nicht ganz von der Hand zu weisen. Die "erhöhte" CPU-Last, sieht man halt allerdings auch und Async allein macht doch noch keine zusätzliche CPU-Last? Wenn dann müsste ja die CPU-Last bei AMD höher sein, denn die ganzen "Pipeline"-Bubbles die Igor vermutet, müssen ja dennoch von der CPU berechnet werden.
Wenn es also eher eine "API" bzw. "Async"-Problem wäre, warum hat nVidia dann trotz "weniger" Arbeit (FPS) MEHR CPU-Last?
Macht mehr Benches mit FPS-Limitern und skaliert dann die CPU-Leistung....
HU haben doch spekuliert, das nv einen teil der drawcalls in software per cpu optimieren lässt und amd das auf der gpu in HW tut. daher schockiert es nicht, wenn nv mehr kerne benötigt. aber kern und threadzahl ist doch heute kein problem mehr.
das hat nv bei dx11 geholfen und mit dx12 dreht sich das um. das video kam gestern.
Troyan
2021-03-16, 11:58:58
Bzw., FH4 ist ebenfalls ein DX12 Titel, nVidia scheint unter DX12 einfach nicht so gut Multithreading zu können (bzw. nur mit einem starken "CPU-Overhead" => Stichwort Haupt"-worker-Thread, da kein "nativer", automatische Thread-Scheduler die Aufgaben umverteilt.
Ist der Worker-Thread dicht ist eben ...Ende im Gelände.
AMD GPUs scheinen hier einfach - besser die Lastverteilung auf mehrere Threads zu beherrschen? Keine Ahnung ob das wirklich mit "Async Compute" zu tun hat...
Ich dachte immer das Async Compute bringt eher was wenn man auf 1 Kern Latenzprobleme hat - aber bei Multi-Core?
:facepalm:
Halten wir fest:
Bei DX12 ist der Spieleentwickler verantwortlich für Multi-Threading. Schuld hat also nVidia. ;D
Linmoum
2021-03-16, 12:11:18
Stimmt. Und AMD besticht demzufolge logischerweise alle Spieleentwickler, die DX12 nutzen.
maximus_hertus
2021-03-16, 12:34:53
Danke an die PCGH, man kann also nun mit der Datenlage wohl zu folgendem Fazit kommen:
DX12 - da bietet AMD Vorteile (mal mehr, mal weniger) gegenüber nVidia bei CPU-Reviews
DX11 - da hat nV Vorteile (mal mehr, mal weniger) gegenüber AMD bei CPU-Reviews
Ergo könnte man ja folgendes machen, um möglichst immer die beste CPU Performance zu messen: DX11 RTX Graka im Testsystem, DX12 RX Graka im Testsystem.
Das ist natürlich nicht die schönste Sache, aber imo das sinnvollste, um mit imo überschaubarem Mehraufwand den CPUs im Test gerecht zu werden.
Nochmals Danke für den Artikel :)
Troyan
2021-03-16, 13:30:32
Danke an die PCGH, man kann also nun mit der Datenlage wohl zu folgendem Fazit kommen:
DX12 - da bietet AMD Vorteile (mal mehr, mal weniger) gegenüber nVidia bei CPU-Reviews
DX11 - da hat nV Vorteile (mal mehr, mal weniger) gegenüber AMD bei CPU-Reviews
Ergo könnte man ja folgendes machen, um möglichst immer die beste CPU Performance zu messen: DX11 RTX Graka im Testsystem, DX12 RX Graka im Testsystem.
Das ist natürlich nicht die schönste Sache, aber imo das sinnvollste, um mit imo überschaubarem Mehraufwand den CPUs im Test gerecht zu werden.
Nochmals Danke für den Artikel :)
Und was machst du mit Vulkan? Dort ist nVidia in den getesteten Spielen schneller. :rolleyes:
aufkrawall
2021-03-16, 13:40:37
Im einzig mir bekannten relevanten (weil real CPU-limitierten) Fall Valheim nicht:
https://www.pcgameshardware.de/Valheim-Spiel-73202/Specials/Vulkan-CPU-GPU-Benchmark-Test-1367891/
Ansonsten kannst du mir ja sagen, welches Vulkan-Spiel bei mir mit RX 6800 und 6700k in 1440p ins CPU-Limit laufen würde. Vielleicht Wolfenstein 2 Roswell bei 160fps? :uponder:
Badesalz
2021-03-16, 13:40:54
Und was machst du mit Vulkan? Dort ist nVidia in den getesteten Spielen schneller. :rolleyes:Und was machst du jetzt mit den realen und auch mal alles andere als vernachlässigbar Unterschieden? Für gewöhnlich, wenn an Antwort-A am mosern bin, dämmert mir gleichzeitig meine subjektive Antwort-B. Die muss dann auch nicht richtig sein, aber hast du jetzt eine Antwort-B?
Warum sollte Vulkan genauso betroffen sein? Wer sagte bereits (kann ja noch kommen...), daß es an der HW-Architketur und nicht an der Treiberarchitektur liegt? Muss das dann wenn denn DX12 und Vulkan betreffen? Nein? Ok. Deine Antwort-B wäre daher?
Troyan
2021-03-16, 13:58:37
Im einzig mir bekannten relevanten (weil real CPU-limitierten) Fall Valheim nicht:
https://www.pcgameshardware.de/Valheim-Spiel-73202/Specials/Vulkan-CPU-GPU-Benchmark-Test-1367891/
Ansonsten kannst du mir ja sagen, welches Vulkan-Spiel bei mir mit RX 6800 und 6700k in 1440p ins CPU-Limit laufen würde. Vielleicht Wolfenstein 2 Roswell bei 160fps? :uponder:
Ich beziehe mich auf den PCGH Test, wo in allen drei Vulkan-Spielen nVidia schneller ist.
Warum sollte Vulkan genauso betroffen sein? Wer sagte bereits (kann ja noch kommen...), daß es an der HW-Architketur und nicht an der Treiberarchitektur liegt? Muss das dann wenn denn DX12 und Vulkan betreffen? Nein? Ok. Deine Antwort-B wäre daher?
Weil das Grundprinzip zwischen Vulkan und DX12 fast identisch ist. Ehrlich, soviel Unwissenheit ist in einem "3D"-Forum irgendwie auch schon tragisch.
aufkrawall
2021-03-16, 14:21:23
Ich beziehe mich auf den PCGH Test, wo in allen drei Vulkan-Spielen nVidia schneller ist.
Ja, die Zahlen geben diese Aussage her. Nur ist das
1.) bei Doom Et. völlig egal, weil in dem Spiel niemand in der Realität jemals im CPU-Limit ist
2.) bei RDR2 hat man durch die Einbrüche der VRAM-Verwaltung andere Sorgen
3.) SS4 läuft mit Vulkan eh wie grotesker Müll bez. Shader Compile Stutter (was vermutlich ebenfalls Unterschiede bei den 1% low verursachen kann, da der AMD Compiler vermutlich deutlich länger braucht als der von NV)
-> Es ist nicht komplet irrelevant, aber sehr viel weniger relevant als die teilweise (sehr) schlechte Performance von NV bei D3D12.
maximus_hertus
2021-03-16, 14:31:10
Sorry, aber es geht nicht darum, ob man jemals im CPU Limit in einem bestimmten Game ist. Es geht darum, dass jede CPU die maximalen fps hat, zu dem er / sie im Stande ist.
Welches Setting zum Zocken am sinnvollsten ist, hat damit erstmal nichts zu tun.
Ich glaube auch nicht, dass irgendwer das Testsystem ändert / anpasst. Allerdings wäre es schon schön, wenn man die DX12 Benches (DX11 und Vulkan sind dann nicht betroffen) mit eben einer RX 6900 XT machen würde. Sei es als Zusatzbenchmarks oder für die entsprechenden Spiele statt der RTX.
aufkrawall
2021-03-16, 14:46:21
Sorry, aber es geht nicht darum, ob man jemals im CPU Limit in einem bestimmten Game ist. Es geht darum, dass jede CPU die maximalen fps hat, zu dem er / sie im Stande ist.
Was du machst, ist den Punkt der praktischen Relevanz auszuklammern, was nicht sonderlich sinnvoll ist.
In Valheim ist man in der Realität ständig im CPU-Limit und, da gibt es offanbar so ziemlich 0 Unterschied zwischen NV & AMD Vk im CPU-Limit.
Btw. mal noch andere Tests abwarten.
Badesalz
2021-03-16, 16:53:28
Weil das Grundprinzip zwischen Vulkan und DX12 fast identisch ist. Ehrlich, soviel Unwissenheit ist in einem "3D"-Forum irgendwie auch schon tragisch."Grundprinzip"? =) Weil sie sich "low-level API" nennen lassen? Und weiter? ACHTUNG: Expertenrunde! :uclap:
Vom Grundprinzip identisch ist die buchausgabe von Kings Revival und Gothes die Laiune des Verliebten. Beides auf Papier gedruckt.
Wie das halt so mit Schprücheklopfern halt ist. Wird das Eis dünn, wird sofort auf alternative Angriffsverktoren gewechselt. Ja Troyan, die eigentliche Frage hast du von lauter Sprüchklopferei vergessen. Weil man hier so Banane sind und keiner merkt, daß du das Eisberg ohne dem Teil unter Wasser bist... Dadrunter ist rein garnichts ;)
Lurtz
2021-03-16, 17:14:02
In diesem Video wird darauf eingegangen was die technischen Hintergründe sind.
https://youtu.be/nIoZB-cnjc0
tldr als Laie: Nvidia hat in Software ermöglicht "quasi Multithreading" für single core lastige DX11 Titel realisiert, weshalb Nvidia insbesondere bei DX11 lange gut da stand. Mit Fermi war das Scheduling noch in Hardware implementiert, Nvidia ist dann zu SW gewechselt, wohl zwecks Flexbilität.
AMD macht das zumindest seit GCN in Hardware, und mittlerweile ist es bemerkbar. Bei DX11 prinzipiell auch, aber da hängt es von den Optimierungen der Entwickler ab.
Zusammenfassend: Bei Nvidia ist der Driver-Overhead grundsätzlich höher, aber in DX11 hat sich das mangels gut optimierter Spiele lange trotzdem ausgezahlt.
Locuza, der auch hier aktiv ist, hat das bei Computerbase ausführlich widerlegt: https://www.computerbase.de/forum/threads/nvidia-driver-overhead.2010440/page-3#post-25422614
Ex3cut3r
2021-03-16, 17:34:38
Das weiß man doch alles? Das wurde damals im "Wundertreiber" 337.50, 2014 eingeführt.
https://www.computerbase.de/2014-04/nvidia-geforce-337.50-benchmark-test-wundertreiber/
Nun, das Problem ist aber nun. Das man es vlt wieder ruckgängig machen sollte. DX11 Zeiten sind vorbei.
Badesalz
2021-03-16, 17:40:42
Sollte der DX12 codepfad nicht grundsätzlich ein anderer sein als für DX11?
aufkrawall
2021-03-16, 17:49:51
Nun, das Problem ist aber nun. Das man es vlt wieder ruckgängig machen sollte.
Nein, DX11-Spiele profitieren ja weiterhin. Bei DX12 ist mit NV irgendetwas anderes im Arsch, wie die gute Vulkan-Performance ja auch zeigt.
-/\-CruNcher-/\-
2021-03-16, 19:48:22
@igor
WOW
Unglaublich wer hätte das bloß gedacht eine revolutionäre erkentnnis ;)
Das hier erkennbare Verhalten würde ich nach diesen Tests nicht so einfach an einem nicht gut optimierten Treiber und einem pauschalen Overhead verorten, sondern eher zu Nachteilen der NVIDIA-Karten beim Asynchronous Compute tendieren. Je nach Optimierung einer Engine erklärt dies dann vielleicht ja auch den Unterschied zwischen den einzelnen DirectX-12-Spielen.
Ich glaub echt ich bin hier im falschen Film gelandet
Das ist wie eine Zeitreise oder ein Dejavu :D
Bingo
Denn ich sehe das Problem eher weniger bei der CPU, sondern der Abarbeitung der Pipelines auf der GPU. Eine limitierende CPU macht den Vorgang nur deutlicher, ist aber nicht der eigentliche Grund.
Iscaran
2021-03-16, 20:51:25
Locuza, der auch hier aktiv ist, hat das bei Computerbase ausführlich widerlegt: https://www.computerbase.de/forum/threads/nvidia-driver-overhead.2010440/page-3#post-25422614
Nein das tut er nicht? (Wenn ja wo bitte genau?)
Er beschreibt doch nur die unterschiedlichen Schedulung Ansätze.
Und offenbar JA der Treiber basierte Ansatz scheint offensichtlich viel CPU-Leistung zu kosten...etwas das wie auch Locuza erklärt bei AMD nicht zum tragen kommt da es nicht gemacht wird.
EDIT: Erklär doch mal Forza Horizon 4 für Dummies:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12625990#post12625990
Lurtz
2021-03-16, 21:38:15
Nein das tut er nicht? (Wenn ja wo bitte genau?)
Er beschreibt doch nur die unterschiedlichen Schedulung Ansätze.
Und offenbar JA der Treiber basierte Ansatz scheint offensichtlich viel CPU-Leistung zu kosten...etwas das wie auch Locuza erklärt bei AMD nicht zum tragen kommt da es nicht gemacht wird.
EDIT: Erklär doch mal Forza Horizon 4 für Dummies:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12625990#post12625990
Das war doch der Stein des Anstoßes:
Bei Igors Lab behauptet ein User, dass HUB angeblich gesagt haben soll, dass der Performanceunterschied daher kommt, dass AMD einen Hardwarescheduler für die Instruktionen verwendet, wohingegen Nvidia das in Software machen soll. Bin fast vom Stuhl gefallen. Ich habe das vorsichtshalber noch mit @Locuza diskutiert.
Falls sie das tatsächlich behauptet haben, gute Nacht.
https://www.computerbase.de/forum/threads/nvidia-driver-overhead.2010440/page-2#post-25417524
Locuza meinte daraufhin:
Was HardwareUnboxed ungeprüft wiedergibt ist ein Video von NerdTechGasm, welches viele Sachen falsch eingeordnet hat in Bezug auf den DX11/12-"Overhead" und das Treibermodell.
Ebenso hat Nvidia in dem Aspekt gar kein Problem mit dem DX12 Modell, sie richten sich nach der gleichen Spezifikation wie AMD und beide Hersteller haben unter DX12 in der Hinsicht deutlich weniger Spielraum was die Command-Buffer-Generation angeht.
Das muss der Treiber unter DX11 erledigen, während unter DX12 das die Entwickler selber explizit vorgeben.
Was tatsächlich stimmt an der Stelle ist, dass AMD "ACE"-HW hat, welche sich um die Compute-Queues kümmern, welche optional bei DX12 verwendet werden können.
Optional ist aber das Stichwort, es gibt viele DX12 Spiele, die kein Asynchronous Compute verwenden und wo die "ACEs" brach liegen.
Die sind nur nützlich, wenn auch zusätzlich Compute-Queues verwendet werden.
Was die ganzen anderen Software- und Hardwareeinheiten angeht und wie sehr das zum Tragen kommt, kann ich nicht beurteilen und wird vermutlich von Fall zu Fall unterschiedlich zum Tragen kommen.
Aber mehr als auf das Posting zu verweisen kann ich auch nicht, und über Locuza hinweg zu diskutieren, wenn er selbst hier angemeldet ist, möchte ich auch nicht, dazu fehlt mir auch die fachliche Kompetenz und ich denke die meisten leiten hier nur Beobachtungen ab und stellen Vermutungen in Bezug auf die Ursache an.
HWU sagen in ihrer Q&A-Session zu ihrem Video jedenfalls ganz klar, nVidia habe den Scheduler von der Hardware genommen und in Software abgebildet, und das ist offenbar großer Unsinn, selbst in der verkürzten Form ("they have to (use the CPU overhead) because the scheduler has been moved off the hardware").
aufkrawall
2021-03-16, 21:40:28
Nun sind ja immer tückische Details vorstellbar. Aber eigentlich ist die Annahme, dass sich D3D12 und Vulkan ähnlicher sind als D3D12 und 11. Es ergibt danach keinen Sinn, dass es ein Hardware-Problem wäre, wenn es mit Vulkan komplett nicht existent ist (wonach es derzeit aussieht).
Lurtz
2021-03-16, 21:43:42
Nun sind ja immer tückische Details vorstellbar. Aber eigentlich ist die Annahme, dass sich D3D12 und Vulkan ähnlicher sind als D3D12 und 11. Es ergibt danach keinen Sinn, dass es ein Hardware-Problem wäre, wenn es mit Vulkan komplett nicht existent ist (wonach es derzeit aussieht).
Genau, das bedeutet ja nicht, dass nicht im Treiber was optimiert werden kann, der Erklärungsansatz ist an der Stelle offenbar nur falsch. Wenn es ein grundsätzliches Hardwareproblem wäre, könnte Vulkan ja nicht so schnell sein.
Iscaran
2021-03-16, 21:57:36
Ist Vulkan denn so schnell?
Gibt es denn wo vergleichsbenchmarks mit FPS-Limiter und Messung der CPU-Last mit nVidia und AMD-GPUs oder entsprechende CPU-scaling Vergleiche auf einem Vulkan-Game ?
Iscaran
2021-03-16, 22:19:12
Ohja - gibt es:
https://gamegpu.com/action-/-fps-/-tps/ghost-recon-breakpoint-test-vulkan
Allerdings ist hier das CPU-Limit an sich derart niedrig dass man schon sehr weit runter gehen muss um etwas zu sehen:
Leider gibt es GPU seitig nur "alte" Eisen (2080 Ti und 5700 XT).
Im GPU-Limit (siehe CPU-Test) erreicht die 2080 Ti 88 FPS und die 5700 XT 66.
Ein 1600X reicht also schon um "volles GPU-Limit" für alle Karten hier zu erreichen:
2080 TI im GPU-Limit @88FPS = 133%
5700 XT im GPU-Limit @66FPS = 100%
ABER:
Schaut euch mal die Low-End CPUs an. Alles unter 6-Kerne bzw. 4C8T zeigt eine ähnliche Diskrepanz zwischen nVidia und AMD wie bei DX12 und FH4.
beim 1200 4C4T:
2080 TI im CPU-Limit @47FPS = 100%
5700 XT im CPU-Limit @56FPS = 119% => Hier sind sie wieder die ominösen +19%.
beim 1300X ebenfalls 4C4T aber mit ca 10% mehr Takt dann:
2080 TI im CPU-Limit @52FPS = 100%
5700 XT im CPU-Limit @61FPS = 117% nicht ganz +19% aber knapp darunter. Vermutlich weil eben auch die 5700 XT schon im CPU-Limit ist größtenteils.
der 2200 G mit nochmals 100MHz mehr Takt (+3%):
2080 TI im CPU-Limit @53FPS = 100%
5700 XT im CPU-Limit @63FPS = 119%.
Badesalz
2021-03-16, 22:28:09
ABER:
Schaut euch mal die Low-End CPUs an. Alles unter 6-Kerne bzw. 4C8T zeigt eine ähnliche Diskrepanz zwischen nVidia und AMD wie bei DX12 und FH4.Endlich. Danke :cool:
Iscaran
2021-03-16, 22:52:23
Valheim DX11:
Komplettes GPU-Limit ist fast nicht erreichbar ? (da praktisch maximal "single-Thread" limitiert)
API-Problem.
Mit den neuen Ryzen 5k scheint dann das GPU-Limit für die 6900XT bei 131 FPS zu liegen.
Die RTX 3090 geht bis auf 161-162 FPS hoch (vielleicht immer noch Single-Thread limitiert?)
Bei niedrigen CPUs hängt man vor allem an der Taktrate und nicht unbedingt an der Kernzahl...
3900X 12C24T mit 3.8GHz 107 FPS @6900XT = 100%
3800X 8C16T aber mit 3.9GHz 110 FPS @6900XT = 103%
3900X mit 3.8GHz 122 FPS @RTX 3090 = 100% (122/107 = +14%)
3800X mit 3.9GHz 125 FPS @RTX 3090 = 103% (125/100 = +13%)
3.9/3.8 GHz = +3% Takt btw.
=> Beide GPU-"Sorten" steigen linear mit Takt mit. Konkret ist es natürlich nicht NUR der Takt sondern eben die "IPC"-Leistung auf einem Kern die hier zählt.
Sonst wäre 2700X mit 6C12T und 3.7GHz nicht soweit abgeschlagen.
2700X 6C12T @3.7GHz 66FPS @6900XT
2700X 6C12T @3.7GHz 66FPS @RTX 3090
Eine 5700XT schafft auch 66 FPS...ergo definitiv CPU-Limit.
Das Limit der 5700 XT liegt bei 72 FPS (mit dem 5900X)
=> "Single-Thread" Limitiert mit nur geringer Auslagerung auf mehrere Threads.
=> API-"Problem"?
Hier sieht man das "klassische" nVidia "Drivermagic"...die bessere Umverteilung auf mehr Kerne. Womit man ein gewissen Vorteil zieht, solange eben der "Worker-Thread" (EDIT: der die Um-Verteilung erledigt) nicht zu ist.
DENN mit deutlich höherer IPC geht auch wieder mehr - trotz nominell gleich viel Takt und nVidia.
5900X mit trotzdem nur 3.7 GHz aber eben deutlich besserer IPC...
5900X 12C24T @3.7GHz 131FPS @6900XT = 100%
5900X 12C24T @3.7GHz 162FPS @RTX 3090 = 124%
EDIT: hier noch der Link: https://gamegpu.com/rpg/%D1%80%D0%BE%D0%BB%D0%B5%D0%B2%D1%8B%D0%B5/valheim-test-gpu-cpu
Iscaran
2021-03-16, 23:00:08
Aber unter DX11 gibt es diesen Effekt praktisch gar nicht...
Valheim ist zwar single-Thread limitiert aber es gibt keine Differenz zwischen nvidia und AMD
Ryzen 1200 4C4T@3.1GHz
alles ist bei 56-57 FPS "CPU-Limitiert".
Ryzen 3100 4C8T@3.6GHz also deutlich mehr IPC und Takt:
Die 6900XT dümpelt bei 103 FPS rum, die RTX bei 117 FPS weit weg vom Limit bei 162.
zwar immer noch unterhalb des Limits bei 131 FPS.
Aber die 5700XT skaliert nicht unüblich und sitz schon lang im CPU-Limit.
Entpsrechend können dann die stärkeren GPUs auch vorbeiziehen bei mehr IPC/Takt.
Iscaran
2021-03-16, 23:10:00
Hitman3 - DX12: https://gamegpu.com/action-/-fps-/-tps/hitman-3-test-gpu-cpu
Aber ihr dürft es euch selbst zusammenstöpseln :-) ist schon spät.
RTX3090 praktisch nur im Single-Thread / IPC limit @139FPS (Ryzen) bzw 133 FPS (Intel)
6900XT ebenso ? aber bei deutlich höheren 152FPS (Ryzen) und 162 FPS (Intel)
ABER die 5700 XT ist bei 123 FPS gedeckelt.. Scheint also das "GPU"-Limit zu sein.
Nehmt mal den 3700X 6C12T@3.6GHz:
6900XT 127 FPS (zwar noch nicht das "Ende" aber doch die schnellste Karte im Feld.
RTX 3090 112 FPS...EXAKT gleichschnell wie eine 1080 Ti, 2080 Ti, oder 3060 Ti...
=> Eindeutig ein "CPU"-Limit.
Aber auch hier wohl eher ein "Single-Thread".Limit seitens nVidia...den AMD skaliert ja noch deutlich nach oben.
Die 5700 XT ist hier schneller mit 123 FPS als die komplette nVidia Riege.
Und ein 3700X ist sicherlich kein "low-end" CPU.
Leonidas
2021-03-17, 12:00:27
Extrakt der PCGH-Benchmarks:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-16-maerz-2021
https://www.3dcenter.org/dateien/abbildungen/Ryzen-3-3100-1280x720-Radeon-RX-6900-XT-vs-GeForce-RTX-3090.png
maximus_hertus
2021-03-17, 12:18:50
Extrakt der PCGH-Benchmarks:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-16-maerz-2021
https://www.3dcenter.org/dateien/abbildungen/Ryzen-3-3100-1280x720-Radeon-RX-6900-XT-vs-GeForce-RTX-3090.png
Danke.
Was ist dein Fazit bei der Sache? Müsste man nicht für einen 100% "korrekten" CPU Test auf beide Grafikkarten zurückgreifen bzw. zumindest für DX12 Games dann die Radeon statt Geforce nehmen? Wir reden ja nicht von 1 oder 2% Differenz, sondern von bis zu 30% (je nach Titel / Setting / Test).
ISt ein CPU Test überhaupt noch "valide", wenn man weiß, dass die kleineren CPUs deutlicher von der RTX benachteiligt sind und man daher keine korrekten Abstände bei der reinen CPU Leistung messen kann?
Mit einer RTX wird dann z.B. ein 25% fps Zuwachs für eine neue CPU gemessen, aber in "wirklichkeit" sind es z.B. nur 15% und nur durch das DX12 nV Problem sind es bei nV KArten 25%. Sind dann die 25% valide oder eigentlich schlicht "falsch", da es sich ja um ein CPU Review handelt und nicht um ein GPU Review bzw. kein Aufrüst-Guide speziell für nVidia KArten?
y33H@
2021-03-17, 12:26:58
Das müsste tatsächlich die Konsequenz sein, sprich doppelte Arbeit - aber eben mit entsprechender Erkenntnis.
Badesalz
2021-03-17, 12:53:54
Mit einer RTX wird dann z.B. ein 25% fps Zuwachs für eine neue CPU gemessen, aber in "wirklichkeit" sind es z.B. nur 15% und nur durch das DX12 nV Problem sind es bei nV KArten 25%. Sind dann die 25% valide oder eigentlich schlicht "falsch", da es sich ja um ein CPU Review handelt und nicht um ein GPU Review bzw. kein Aufrüst-Guide speziell für nVidia KArten?:| Wenn der Sinn solcher Tests nicht das ist, sich dann ggf. zu überlegen was man sich folgend zusammenstellen/austauschen könnte, welchen Sinn haben diese Tests sonst noch?
maximus_hertus
2021-03-17, 12:59:29
:| Wenn der Sinn solcher Tests nicht das ist, sich dann ggf. zu überlegen was man sich folgend zusammenstellen/austauschen könnte, welchen Sinn haben diese Tests sonst noch?
Bei einem CPU Review will man möglichst die reine CPU Leistung messen. Ohne andere Limits. Daher wurden ja die 720p Benchmarks "erfunden". Nur muss man mit DX12 halt den Zusatzaufwand betreiben, diese Games aktuell mit einer Radeon zu benchen (für alle CPUs).
Im Nachgang kann man dann Aufrüst-Guides oder ähnliches erstellen, wo man dann auf spezielle Situation eingeht, z.B. RTX Karten mit älteren / kleinen CPUs = bei DX12 suboptimale Kombi, bei DX11 hingegen gute Kombi.
Das müsste tatsächlich die Konsequenz sein, sprich doppelte Arbeit - aber eben mit entsprechender Erkenntnis.
Erstaunlich, wie oft sich die Arbeit mit Hardware verdoppelt bzw. verdoppeln kann. Doof dabei ist, dass sich die Arbeitsstunden (offiziell und vergütet) nicht bewegen. :freak: Früher(tm), mit Timedemos, statischem Takt etc. war das alles so schön billig. #rantausdemcrunch
MfG
Raff
dargo
2021-03-17, 13:13:08
Müsste man nicht für einen 100% "korrekten" CPU Test auf beide Grafikkarten zurückgreifen bzw. zumindest für DX12 Games dann die Radeon statt Geforce nehmen? Wir reden ja nicht von 1 oder 2% Differenz, sondern von bis zu 30% (je nach Titel / Setting / Test).
Da stappelst du imo noch zu tief, siehe den Vergleich von mir und Sapito. Wir haben natürlich jetzt nicht die gleiche CPU-/Speicher-Konfiguration um den genauen Wert zu bestimmen. Das ist Aufgabe von Reviewern.
Gipsel
2021-03-17, 13:49:37
Das war doch der Stein des Anstoßes:
https://www.computerbase.de/forum/threads/nvidia-driver-overhead.2010440/page-2#post-25417524
Locuza meinte daraufhin:
Was die ganzen anderen Software- und Hardwareeinheiten angeht und wie sehr das zum Tragen kommt, kann ich nicht beurteilen und wird vermutlich von Fall zu Fall unterschiedlich zum Tragen kommen.
Aber mehr als auf das Posting zu verweisen kann ich auch nicht, und über Locuza hinweg zu diskutieren, wenn er selbst hier angemeldet ist, möchte ich auch nicht, dazu fehlt mir auch die fachliche Kompetenz und ich denke die meisten leiten hier nur Beobachtungen ab und stellen Vermutungen in Bezug auf die Ursache an.Aus meiner Sicht hat Locuza vollkommen recht, wenn er aufzeigt, wo in dem Video von NerdTechGasm Sachen durcheinandergebracht bzw. falsch dargestellt wurden. Aber wie Du im Folgenden schreibst:
Genau, das bedeutet ja nicht, dass nicht im Treiber was optimiert werden kann, der Erklärungsansatz ist an der Stelle offenbar nur falsch. Wenn es ein grundsätzliches Hardwareproblem wäre, könnte Vulkan ja nicht so schnell sein.bedeutet das nicht automatisch, daß es keinen höheren Treiberoverhead gibt (im Schnitt oder in je nach Situation in bestimmten Titeln mit DX12), sondern nur, daß die dort angeführte Begründung dafür nicht stichhaltig ist.
Ich denke, darauf kann man sich hier erstmal einigen, solange man keinen tieferen Einblick in die Vorgehensweise der Treiber und eventuelle Restriktionen der Hardware besitzt.
aufkrawall
2021-03-17, 13:54:36
In Strange Brigade ist der Vulkan-Renderer im CPU-Limit hier (6700k + 6800) schneller als D3D12 (365fps vs. 340, D3D12 ist mit der 6800 im GPU-Limit btw. schneller)). Ich glaub noch nicht an die generell bessere Vulkan-Performance von NV vs. AMD und warte gespannt auf HU. Bei PCGH sind auch die D3D12-Vorteile von AMD mal wieder geringer als bei HU oder gamegpu, wie seltsam. =)
Vermutlich den Tests geschuldet. PCGH = tendenziell Worstcase, aber immer praxisnah mit Savegames. Vielleicht liegt das nun wieder an mir, aber ich halte nachstellbare Szenen für geiler als Stochern im Nebel oder Aufgeilen an Synthies. :tongue:
MfG
Raff
Daredevil
2021-03-17, 14:25:32
Oh Gott. Ist die seit Jahren bekannte AMD Low Level Stärke nun eine Nvidia Low Level Schwäche geworden? :D
dargo
2021-03-17, 14:58:22
Vermutlich den Tests geschuldet. PCGH = tendenziell Worstcase, aber immer praxisnah mit Savegames. Vielleicht liegt das nun wieder an mir, aber ich halte nachstellbare Szenen für geiler als Stochern im Nebel oder Aufgeilen an Synthies. :tongue:
Ist für dich der Watch Dogs Legion Benchmark neuerdings ein Synthie? Auch wenn ich Savegames besser finde gings halt über zwei Tester mit so einem Benchmark einfacher. Wenn ich selber alle Tests mache nehme ich natürlich Savegames.
blaidd
2021-03-17, 15:01:09
In Strange Brigade ist der Vulkan-Renderer im CPU-Limit hier (6700k + 6800) schneller als D3D12 (365fps vs. 340, D3D12 ist mit der 6800 im GPU-Limit btw. schneller)). Ich glaub noch nicht an die generell bessere Vulkan-Performance von NV vs. AMD und warte gespannt auf HU. Bei PCGH sind auch die D3D12-Vorteile von AMD mal wieder geringer als bei HU oder gamegpu, wie seltsam. =)
Nvidia hat da um den Zeitpunkt rum (EDIT: bezogen auf die Strange-Brigade-Messungen, die ich aus einem älteren Artikel (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Leistungsanalyse-Direct-X-12-und-Vulkan-1332488/) gefischt habe - Mitte/Ende 2019) eine Art Vulkan-Offensive gefahren (Treiber, Dev-Tools, Vulkan-RT, etc.). Vorher waren sie unter Vulkan in fast allen Fällen langsamer, das haben sie dann aber zumindest in ein paar Fällen in den Griff bekommen und waren zum Messzeitpunkt tatsächlich in ieinigen Fällen flotter als AMD (ob das in den getesteten Spielen aber immer noch der Fall ist, oder ob auch AMD mit neueren Treibern nochmals zulegen konnte, kann ich mangels aktuellen Messwerten nicht sagen.)
Und ich wäre auch vorsichtig, Nvidia generell eine bessere Vulkan-Performance als AMD zu unterstellen. Das trifft zwar durchaus auf einige Spiele und Settings zu, aber um da Allgemeingültigkeit zu verkünden, sind's ein bisschen wenig Messpunkte. Leider gibt es relativ wenige aktuelle Titel, mit denen man dem mal etwas genauer auf den Zahn fühlen könnte.
blaidd
2021-03-17, 15:18:40
Extrakt der PCGH-Benchmarks:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-16-maerz-2021
https://www.3dcenter.org/dateien/abbildungen/Ryzen-3-3100-1280x720-Radeon-RX-6900-XT-vs-GeForce-RTX-3090.png
Inwiefern dies tatsächlich nur auf kleinere Prozessoren zutrifft, können diese (alleinig unter einem Ryzen 3 3100 durchgeführten) Benchmarks nicht aufzeigen – zuletzt hatte es ja Anzeichen gegeben, dass auch größere Prozessoren-Modelle unter nVidia-Hardware genauso betroffen sind.
Dave hat für die Heft-Version des Artikels (so wie er ursprünglich geplant war) übrigens auch einen Ryzen 5800X mitgetestet. Dazu sind da natürlich auch noch ein paar andere Extras drin, z.B. (zusätzliche) Frametimes.
Das ist natürlich für die Online-Auswertung nicht von Belang, aber vielleicht für den einen oder anderen interessant.
Kleiner (nicht wirklich etwas aussagender^^ - die Spiele verhalten sich teils sehr unterschiedlich mit potenterer CPU) Vorgeschmack:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=74626&stc=1&d=1615990712
Leonidas
2021-03-17, 16:08:18
Was ist dein Fazit bei der Sache?
Ich würde erstmal weitertesten (mit dem großen Testfeld, aber es kann rein DX12 sein):
1. Betrifft es auch große/mittlere CPUs?
2. Ab welcher Auflösung wird es relevant?
Wenn es beispielsweise wirklich nur unter 720p auftritt, wäre es nahezu negierbar. Das muss erstmal exakt herausgearbeitet werden, ehe man über Schlußfolgerungen berät.
maximus_hertus
2021-03-17, 16:26:29
Wenn es beispielsweise wirklich nur unter 720p auftritt, wäre es nahezu negierbar.
Warum das? Wenn in 1080p schon ein GPU Limit greift, hilft das doch bei einem reinen CPU Test nicht weiter? Daher gibt es doch die 720p Benchmarks?
Allerdings sind noch mehr Daten sicherlich hilfreich und aktuell gibt es ja keinen Druck, da die Grafikkarten und teils CPUs eh nicht lieferbar sind.
Es ist ein spannendes Thema, das hoffentlich auch in Zukunft Beachtung findet.
Szudri
2021-03-17, 16:38:03
Wäre es nicht auch interessant zu wissen wie sich dann bei 2k Auflösung 2-4 Jahre alte CPU verhalten mit neuer GPU (evtl. nicht gerade die 6900x oder 3090)? Es ist ja nicht so, als wenn jeder jede neue CPU Generation mitnimmt. Ich bin erst 2019 von meinem Intel 2600k auf den Ryzen 3900x umgestiegen. Waren immerhin ~8,3 Jahre oder so.
Sind vom Prinzip her eigentlich damalige High-End CPU mit heutigen Mittelklasse CPU vergleichbar (Leistung)? Oder gäbe es da wegen der Architektur auch nochmal Vorteile für neuere CPUs zur GPU Auslastung? (Hab da leider nicht den Überblick ob das relevant ist)
Iscaran
2021-03-17, 17:06:22
Das betrifft nicht nur 1280x720p...
schaut doch oben mal in die GameGPU tests - alle bei FHD rein.
Das CPU-Limit ist auch nicht "zwingend" bei 1280x720 am niedrigsten...es gibt auch Effekte die Auflösungsbedingt von der CPU erledigt werden.
Deswegen sind die GameGPU Benchmarks ja so praktisch da man dort fast IMMER eine Riesenpalette and CPUs von oben bis unten hat und sich so schön ansehen kann was da wie limitiert.
sapito
2021-03-17, 17:38:54
Ich würde erstmal weitertesten (mit dem großen Testfeld, aber es kann rein DX12 sein):
1. Betrifft es auch große/mittlere CPUs?
2. Ab welcher Auflösung wird es relevant?
Wenn es beispielsweise wirklich nur unter 720p auftritt, wäre es nahezu negierbar. Das muss erstmal exakt herausgearbeitet werden, ehe man über Schlußfolgerungen berät.
ich würde hier mit FPS Limiter testen > wie schaut CPU Utilization aus?
DAS würde brauchbare Infos geben
zB
Team Red hat 50% CPU Utilization
Team Green hat 80% CPU Utilization
sowas in der Art
um so größer die Differenz, um so wahrscheinlicher das diejenigen mit >% CPU in ein CPU Bottleneck rennen als die anderen. und die CPU wird nicht immer nur von Game XYZ ausgelastet
Sprich, wer hat hier mehr Luft und Hubraum zum Atmen.
oder warum werden Turing/ Ampere Karten zB in WD Legion nicht voll ausgelastet? deutlich Sichtbar unter zB 1080p Low Setting
GPU Utilization hier nur bei 60er-70er% bei 3080/ 2080ti??? Radeon 6800xt aber bei 97-99% und deutlich mehr FPS? siehe https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12624850#post12624850 +folgend
CPU liegt bei allen 3 Karten bei +-65%
aufkrawall
2021-03-17, 17:45:27
Legion verhält sich komplett komisch mit der Auflösungsskalierung nach unten, selbst mit 50% RS bei 1440p ist die GPU-Auslastung der 6800 noch seltsam hoch und die Performance-Steigerung entsprechend gering. Mit der 720p 25% Keule bekomme ich die Auslastung dann gedrückt.
Wahrscheinlich so eine Art "Hauch von Valhalla" bez. Auslastungsprobleme der GPU (was aber nicht zu verwechseln mit dem schlechten CPU-Limit bei NV ist).
Ex3cut3r
2021-03-17, 17:54:08
Gut, das du kein Nvidia DX12 nutzen musst, mit dem 6700k wirst du vermutlich hoffnungslos am ende. ;D
Btw. rBar wird wohl nicht mehr für die alte Plattform kommen? Bringt teilweise erheblich was, 5-20% teilweise. :eek:
Vlt. kannst du ja nächstes Jahr auf Zen 4 oder was Intel mäßiges wechseln. :smile:
Badesalz
2021-03-17, 18:22:45
Bei einem CPU Review will man möglichst die reine CPU Leistung messen. Ohne andere Limits.Das ist nicht die Antwort auf meine klare Frage gewesen, die deine klare These betraf...
Wenn man reine CPU-Leistung messen will, nimmt man 7-zip und nicht irgendwas wo die GPU mit eine Rolle spielt. Und die, spielt sie immer
, wenn der Test etwas mit 3D zu tun hat. Die Tets die du meinst betrafen nie eine "möglichst reine" CPU-Leistung. Nur die Gewichtung - bei jenen 3D-Tests - ist klarer Richtung CPU verschoben.
Und so findet man auch das heraus was wir hier besprechen. Und das was man herasufand betrifft auch nicht die CPUs. Oh Wunder...
y33H@
2021-03-17, 18:32:31
7-Zip misst alles Mögliche, aber garantiert nicht die "reine" CPU-Leistung ... weil da Speicher und SSD noch reinspielen ^^
Badesalz
2021-03-17, 19:11:36
@y33h@
Richtig guter Einwand. Vielleicht sollte man was in ASM hacken, alles dahinter abschalten und die reine Leistung der ALUs messen? Das wäre doch mal reinst gemessen... Der Erkenntnisgewinn wäre gigantisch :uclap:
So oder so hättest du das maximus_hertus aber schon eher schreiben können. Immer muss ich die schmutzigen Jobs machen :usad: Der macht sich Gedanken wie man 3D konfigurieren soll um möglichst reine CPU-Leistung herauszufinden. Das ist um Universen witziger als 7-zip als CPU-Bench zu nehmen :up:
dargo
2021-03-17, 19:16:21
Richtig guter Einwand. Vielleicht sollte man was in ASM hacken, alles dahinter abschalten und die reine Leistung der ALUs messen? Das wäre doch mal reinst gemessen... Der Erkenntnisgewinn wäre gigantisch :uclap:
Dann kannst du dir gleich die Arbeit sparen und mit den tollen Zahlen wie zb. den 37,5 TFLOPs einer RTX 3090 Custom rumeiern. ;D Nur welchen praktischen Nutzen hätte das?
Cubitus
2021-03-17, 19:17:08
Euch ist aber bewusst das DX12 meistens dennoch besser performt als DX11 ..
Somit gibt es eventuell ne Diskrepanz, aber man sollte wenn es geht
(als Nvidia User) dennoch auf DX12 und besser noch auf Vulkan setzen...
Also ich denke das Thema wird einfach zu heiß gekocht als wie gegessen..
Badesalz
2021-03-17, 22:24:41
Dann kannst du dir gleich die Arbeit sparen und mit den tollen Zahlen wie zb. den 37,5 TFLOPs einer RTX 3090 Custom rumeiern. ;D Nur welchen praktischen Nutzen hätte das?Ah schön. Du hast den Sarkasmus fast verstanden :rolleyes:
@Cubitus
Ist das denn so, daß man ("als ... User") sich das immer aussuchen kann, ob man jetzt Vulkan oder DX12 (oder gar DX11??) nehmen will? Verstehe den Tipp nicht.
Cubitus
2021-03-18, 00:08:23
Ah schön. Du hast den Sarkasmus fast verstanden :rolleyes:
@Cubitus
Ist das denn so, daß man ("als ... User") sich das immer aussuchen kann, ob man jetzt Vulkan oder DX12 (oder gar DX11??) nehmen will? Verstehe den Tipp nicht.
Bei den neueren Spielen, eher ja...
Badesalz
2021-03-18, 11:16:44
Muss man da nicht viel doppelt und auch bisschen anders programmieren? Das machen die Entwickler neuerdings meist?
dildo4u
2021-03-18, 12:47:14
Meistens entweder oder du wirst z.b von Microsoft keine Vulkan Titel sehen.
Wobei es interessant wird was id als nästes macht, da sie jetzt aufgekauft wurden und eine der besten Vulkan Engines haben.
Lurtz
2021-03-18, 14:50:33
Meistens entweder oder du wirst z.b von Microsoft keine Vulkan Titel sehen.
Wobei es interessant wird was id als nästes macht, da sie jetzt aufgekauft wurden und eine der besten Vulkan Engines haben.
Das habe ich mich auch schon gefragt. Wäre komplette Verschwendung, wenn man id zwingt von Vulkan wegzugehen, aber wenn das irgendein Middle Manager bei Microsoft entscheidet...
dargo
2021-03-18, 15:06:11
In der Tat ein interessantes Thema. Hoffentlich bedeutet das nicht langfristig das Ende von Vulkan unter Windows.
aufkrawall
2021-03-18, 15:09:23
Sofern AMD nicht noch Anti-Lag für Vulkan bringt, hoffe ich sehr, dass Microsoft D3D12 erzwingt. ;D
Rage 2 und Doom: Et. waren bei fps <70 absolut widerwärtig mit einer GPU wie Polaris 10 in 1440p. Scheint so eine Art Markenzeichen von idTech zu sein...
dargo
2021-03-18, 15:41:37
Sofern AMD nicht noch Anti-Lag für Vulkan bringt, hoffe ich sehr, dass Microsoft D3D12 erzwingt. ;D
Hmm...
GD-157 - Radeon Anti-Lag is compatible with DirectX 9, DirectX 11, DirectX 12, and Vulkan APIs; Windows 7 and 10. Hardware compatibility includes GCN and newer consumer dGPUs and Ryzen 2000 and newer APUs, including hybrid and detachable graphics configurations. No mGPU support. Certain features require Adrenalin 2020 or later.
Oder kam das heute auch erst auch für Vulkan neben D3D12?
Szudri
2021-03-18, 16:02:52
Hmm...
Oder kam das heute auch erst auch für Vulkan neben D3D12?
Auf AMD.com steht die API Vulkan nicht auf der Themenseite Anti-Lag.
Edit: DX 12 aber schon.
-/\-CruNcher-/\-
2021-03-18, 16:21:19
In der Tat ein interessantes Thema. Hoffentlich bedeutet das nicht langfristig das Ende von Vulkan unter Windows.
So lange Coda noch bei ID ist ist alles gut, wenn er nicht mehr auf der Liste steht dann solltet ihr euch gedanken machen ;)
blaidd
2021-03-18, 16:46:49
Meistens entweder oder du wirst z.b von Microsoft keine Vulkan Titel sehen.
Wobei es interessant wird was id als nästes macht, da sie jetzt aufgekauft wurden und eine der besten Vulkan Engines haben.
Das finde ich auch ein bisschen bedenklich. Bethesda hat ja durchaus auch schon mal verlauten lassen, Vulkan pushen zu wollen (ich glaub in Zusammenhang mit einer AMD-Koop vor ein paar Jahren, vielleicht 2017-18 rum). Und nicht nur die id-Tech unterstützt Vulkan, sondern z.B. auch Rage 2 bzw. die Apex Engine (und z.B. auch ESO, allerdings nur auf dem Mac.)
Ich hoffe, Microsoft gibt bei der API weitestgehend freie Hand, wäre ärgerlich, wenn sie dadurch quasi die Konkurrenz ausstechen würden...(zumindest teilweise)
-/\-CruNcher-/\-
2021-03-18, 16:51:06
Es wäre extreme verwunderlich wenn Microsoft von alten gewohnheiten abschweifen würde ;)
dargo
2021-03-18, 17:08:00
So lange Coda noch bei ID ist ist alles gut, wenn er nicht mehr auf der Liste steht dann solltet ihr euch gedanken machen ;)
Genau... weil Coda alleine Vulkan supportet. :facepalm:
Es wäre extreme verwunderlich wenn Microsoft von alten gewohnheiten abschweifen würde ;)
Und gleich der nächste Blödsinn. :rolleyes:
aufkrawall
2021-03-18, 17:50:27
Hmm...
Oder kam das heute auch erst auch für Vulkan neben D3D12?
Ich merke jedenfalls in Rage 2 in 4k mit 80fps ohne Vsync keinen Unterschied zwischen A-L on/off, beides eklig laggy.
dargo
2021-03-18, 18:24:34
Hmm... dann weiß vielleicht der eine Praktikant nicht was der andere schreibt bei AMD. :D
Iscaran
2021-03-18, 20:10:28
AC Valhalla DX12
+31% "CPU-Limit" @nVidia.
z.B. gut zu sehen mit dem Ryzen 1200 4C4T@3100MHz
Das erreichbare "GPU"-Limit liegt bei
114 FPS@RX6900XT
96 FPS@RTX3090
user77
2021-03-18, 21:31:45
Betrifft das auch 6700xt vs 3070?
Iscaran
2021-03-18, 21:38:37
Klar - nur auf einem "niedrigeren" Level.
EDIT: Das Limit z.B. einer 2080 Super ist 82 FPS - Eine 5700 XT schafft 87 FPS im GPU Limit.
Mit einem 1600 X aber verliert die 2080 Super bereits Leistung, die 5700 XT ist immer noch im Anschlag.
][immy
2021-03-19, 01:08:55
AC Valhalla DX12
+31% "CPU-Limit" @nVidia.
z.B. gut zu sehen mit dem Ryzen 1200 4C4T@3100MHz
Das erreichbare "GPU"-Limit liegt bei
114 FPS@RX6900XT
96 FPS@RTX3090
mhh, interessant ist der Unterschied zwischen dem Ryzen 2400g und und 3400g. Eigentlich sollten die ziemlich baugleich sein, da beides Zen+. Der 3400g hat nur einen 100mhz höheren Takt. Trotzdem ist der Unterschied bei dem Test ziemlich groß.
Aber interessant das Zen2 scheinbar schon ausreicht um die nvidia Karten in Valhalla maxen zu können. Quasi unabhängig von der Kernanzahl.
edit:
achja, der Boost geht ja deutlich höher, trotz gleicher Architektur. Das dürfte es dann am ende durch die Single-Thread Leistung wohl ausmachen.
Nvidia scheint sich mit den Treiber Optimierungen zu verzogen. Klar bei höher Auflösung und Ultra Settings geht die Rechnung etwas mehr CPU Belastung bei mehr fps (im Verhältnis zu AMD) auf, aber im CPU-Limit und dann bei nur medium settings stimmt die Rechnung nicht mehr.
Und genau deswegen schlägt fullhd, medium settings auch überproportional bei nvidia ein.
Schaut auch mal einige Linux Spiele an und vergleicht mal settings im Spiel und die nvidia Treiber Ticks, Linux deswegen da der nvidia Treiber hier einfacher zu überwachen ist.
Badesalz
2021-03-21, 12:55:13
[immy;12628198']Aber interessant das Zen2 scheinbar schon ausreicht um die nvidia Karten in Valhalla maxen zu können. Quasi unabhängig von der Kernanzahl.ACreeds sind so lange Amok laufende Drawcaller, solange keiner kommt und zeigt, daß es nicht mehr so ist.
Iscaran
2021-03-21, 14:29:59
[immy;12628198']mhh, interessant ist der Unterschied zwischen dem Ryzen 2400g und und 3400g. Eigentlich sollten die ziemlich baugleich sein, da beides Zen+. Der 3400g hat nur einen 100mhz höheren Takt. Trotzdem ist der Unterschied bei dem Test ziemlich groß.
2400G = Zen @3600MHz 4C8T
3400G = Zen+ @3700MHz 4C8T => mehr IPC UND +2.8% mehr Takt.
Die IPC von Zen+ gegenüber Zen ist bei gleichem Takt AFAIK höher (+3% ?)
https://www.heise.de/newsticker/meldung/AMD-Ryzen-2000-Noch-bessere-Prozessoren-4027782.html
=> 3% Takt + 3% IPC = 6%. Passt dann schon ganz gut zu den +8.9% FPS Gewinn den ALLE Karten im GPU-Limit erreichen.
Die "GPU"-Limits betragen aber 114 FPS (AMD@6900 XT) und 96 FPS (nVidia @RTX3090).
gut zu sehen hier in den GPU-Limits.
Die einzigen Karten die mit dem 3400G also im Limit sind sind die 5700 XT @75FPS und Radeon VII @68FPS sowie die 2070 Super 8 die bei 70 FPS "anschlägt".
Die Vega64 und 5700 sind bei 67 FPS mit dem 2400G schon "im Limit".
Aber interessant das Zen2 scheinbar schon ausreicht um die nvidia Karten in Valhalla maxen zu können. Quasi unabhängig von der Kernanzahl.
Bezogen auf das "Limit" von 96 FPS braucht es imho eher 96/70 einen Zen+ mit fast 5GHz takt.
Oder eine CPU mit +15% IPC gegenüber Zen+ mit ca 4.2GHz Takt.
Oder eben mehr Kerne. (6C scheinen hier gut zu funktionieren siehe 3600X)
Die RTX3090 kommt gerade so ins GPU-Limit die 6900XT fehlt noch 1 FPS.
Der Punkt ist halt für die 110 FPS der 6900XT kann man schwer mit den 96 FPS der RTX3090 vergleichen im Sinne des CPU-Oveheads. Denn für 110 FPS brauche ich ja auch mehr CPU-Last. Das Beste wäre man nimmt die 6900 XT und "FPS-Limitiert" diese bei 96 FPS und eine RTX 3090 ebenso...und misst dann eben die mittleren "CPU"-Auslastungen über alle Kerne.
Dann würde man in "etwa" sehen können wieviel CPU-Overhead hier nVidia braucht.
y33H@
2021-03-21, 15:32:35
Ich sehe bei mir trotz 1080p und "nur" RTX 3080 vs RX 6800 XT auf einem R9 5950X auch eine klare Tendenz zwischen D3D11 und D3D12/Vulkan.
D3D11 mit NV-Vorteil:
https://scr3.golem.de/screenshots/2103/RX-6700-XT-Benches-Raster/thumb620/09-crysis-remastered,-relic-intro-(1080p,-very-high-preset,-d3d11)-chart.png
D3D12/Vulkan mit AMD-Vorteil:
https://scr3.golem.de/screenshots/2103/RX-6700-XT-Benches-Raster/thumb620/03-assassins-creed-valhalla,-glowecaester-(1080p,-ultra-preset,-d3d12)-chart.png
https://scr3.golem.de/screenshots/2103/RX-6700-XT-Benches-Raster/thumb620/06-cod-bo-cold-war,-break-on-through-(1080p,-ultra-settings,-d3d12)-chart.png
https://scr3.golem.de/screenshots/2103/RX-6700-XT-Benches-Raster/thumb620/12-cyberpunk-2077,-amber-fox-alley-(1080p,-ultra-preset,-d3d12)-chart.png
https://scr3.golem.de/screenshots/2103/RX-6700-XT-Benches-Raster/thumb620/15-doom-eternal-tag,-atlantica-facility-(1080p,-ultra-nightmare-preset,-vulkan)-chart.png
https://scr3.golem.de/screenshots/2103/RX-6700-XT-Benches-Raster/thumb620/18-gears-5-hivebusters,-the-path-(1080p,-ultra-preset,-d3d12)-chart.png
Ausreißer:
https://scr3.golem.de/screenshots/2103/RX-6700-XT-Benches-Raster/thumb620/21-flight-simulator,-a320neo-over-nyc-(1080p,-high-preset,-ext-cam,-d3d11)-chart.png
https://scr3.golem.de/screenshots/2103/RX-6700-XT-Benches-Raster/thumb620/24-rdr2,-valentine-canyon-(1080p,-ultra-settings,-4x-reflec-msaa,-vulkan)-chart.png
aufkrawall
2021-03-21, 16:28:17
Irgendwas ist da sehr seltsam bei RDR2, ich hatte mit der 5700 XT + 6700k im CPU-Limit >80fps in Saint Denis. Irgendeine Hypothese ins Blaue: Above 4G Decoding macht alles kaputt?
vinacis_vivids
2021-03-21, 16:44:15
RX6800 + 5600X + SAM/rBar on
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12628620&postcount=110
y33H@
2021-03-21, 16:46:23
Above 4G Decoding macht alles kaputt?Da das aus war, nein.
maximus_hertus
2021-03-21, 16:58:44
Danke y33h@ für die Benchmarks :)
Wie wird dein / euer Test(system) für den RKL Launch aussehen? Werden die aktuelle Erkenntnisse darin einfließen?
y33H@
2021-03-21, 18:46:05
Ich werde die gleichen Apps/Spiele wie bei Vermeer nutzen [mit Sanity Check bei Games plus ggf neu benchen wegen Updates, denn nur die Apps haben fixe Versionen]:
https://www.golem.de/news/ryzen-9-5950x-5900x-im-test-amd-dominiert-intel-ueberall-2011-151436.html
Für RKL-S multiple SKUs (11900K, 11700K, 11600K, 11400F etc) ... habe vor mit unterschiedlichen PL1/PL2 und Gear1/Gear2 zu testen, damit klar wird, was das bringt.
Ob ich dazu komme, auch mit einer RX 6900 XT noch alle Games Werte mit wenigstens dem 11900K und dem 5950X/5900X zu erstellen, weiß ich nicht - der Wille ist nie das Problem ^^
aufkrawall
2021-03-21, 18:50:03
Da das aus war, nein.
Schlechte Performance im GPU-Limit durch irgendeine komische Einstellung? Reflexions-MSAA hört sich erstmal sehr unsinnig an. ;)
Ich hab im Benchmark in 1440p Vulkan >100fps mit "vernünftigen" (sofern etwas GPU-Leistung im Überfluss vorhanden) GPU-lastigen Einstellungen:
https://abload.de/thumb/rdr2_2021_03_21_18_35w2j2z.jpg (https://abload.de/image.php?img=rdr2_2021_03_21_18_35w2j2z.jpg) https://abload.de/thumb/rdr2_2021_03_21_18_358zjqz.jpg (https://abload.de/image.php?img=rdr2_2021_03_21_18_358zjqz.jpg) https://abload.de/thumb/rdr2_2021_03_21_18_36awjgu.jpg (https://abload.de/image.php?img=rdr2_2021_03_21_18_36awjgu.jpg) https://abload.de/thumb/rdr2_2021_03_21_18_36s1klb.jpg (https://abload.de/image.php?img=rdr2_2021_03_21_18_36s1klb.jpg)
https://abload.de/thumb/rdr2_2021_03_21_18_37rkkkh.jpg (https://abload.de/image.php?img=rdr2_2021_03_21_18_37rkkkh.jpg) https://abload.de/thumb/rdr2_2021_03_21_18_37dpjx7.jpg (https://abload.de/image.php?img=rdr2_2021_03_21_18_37dpjx7.jpg) https://abload.de/thumb/rdr2_2021_03_21_18_38btjam.jpg (https://abload.de/image.php?img=rdr2_2021_03_21_18_38btjam.jpg) https://abload.de/thumb/rdr2_2021_03_21_18_389jj20.jpg (https://abload.de/image.php?img=rdr2_2021_03_21_18_389jj20.jpg)
https://abload.de/thumb/rdr2_2021_03_21_18_38kckji.jpg (https://abload.de/image.php?img=rdr2_2021_03_21_18_38kckji.jpg) https://abload.de/thumb/rdr2_2021_03_21_18_38rcjgn.jpg (https://abload.de/image.php?img=rdr2_2021_03_21_18_38rcjgn.jpg) https://abload.de/thumb/rdr2_2021_03_21_18_39w8k9j.jpg (https://abload.de/image.php?img=rdr2_2021_03_21_18_39w8k9j.jpg)
y33H@
2021-03-21, 19:27:31
Mag sein, dass Reflec-MSAA der RX 5700 XT nicht schmeckt.
Ich lade dir gerne das Savegame hoch, kannst dann den Bench ja 1:1 nachstellen =)
aufkrawall
2021-03-21, 19:51:19
Würde ich machen.
Ich hab mir auch nochmal das eigentliche Spiel angeschaut und scheint alles ganz normal zu laufen. Ich bin in Valentine kaum CPU-limitiert und in Saint Denis immerhin bei noch angenehmen und ordentlich sauberen >80fps.
Gibt halt nur die Einbrüche, wenn er Daten aus dem VRAM schmeißt, insbesondere mit DX12. Da musste ich nicht lange rumprobieren, um das in einem Video festhalten zu können. Da kotzt er "schön" 1,3GB VRAM-Belegung aus :freak: :
https://abload.de/thumb/mpv-shot0001j4kba.png (https://abload.de/image.php?img=mpv-shot0001j4kba.png) https://abload.de/thumb/mpv-shot00025zj10.png (https://abload.de/image.php?img=mpv-shot00025zj10.png)
Von diesem dummen Ärgernis abgesehen, scheint es einwandfrei zu laufen.
aufkrawall
2021-03-21, 21:14:20
RDR2 läuft hier genau wie Strange Brigade im CPU-Limit mit Vulkan schneller als mit D3D12 (Benchmarkszene Marktplatz: ~100 statt ~90fps). Wer weiß, ob die schäbige 2+2 2CCX CPU bei PCGH da nicht fies reingegrätscht hat...
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.