PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Steigt die CPU-Last mit steigender Auflösung?


Nightspider
2017-02-08, 20:23:01
Ich habe das Gefühl das die Diskussion nötig ist weil hier einige Leute im AMD Ryzen Thread behauptet haben, das die CPU Last mit steigender Auflösung ebenfalls zunimmt.

Gibt es dafür auch nur einen Beweis? Und von welcher Größenordnung an Zunahme reden wir hier?

Ich behaupte:

a) Anstieg der CPU Last wird höchstens im niedrigen einstelligen Prozentbereich liegen und nur in dem Bereich wo man noch nicht im GPU Limit ist

b) Da diese "zusätzliche" CPU Last beim Benchmarken in 720p bei allen CPUs gleichermaßen fehlt spielt es keine Rolle bei CPU Benchmarks

c) Da die CPU bei zB. 120fps (bei niedrigen Auflösungen) viel mehr Berechnungen durchführen muss als bei 40fps gleicht sich das nicht nur aus sondern der Effekt der zunehmenden Last bei hohen fps (niedriger Auflösung) überwiegt massiv

Daher denke ich: Falls die CPU Last tatsächlich minimal mit steigender Auflösung steigen sollte, dann nur in einem ganz schmalen Bereich und nur bei einer fps Obergerenze. Denn sobald es keine fps Grenze gibt und man sich nicht im GPU Limit befindet, ist man automatisch im CPU Limit und die CPU Last steigt auf das Maximum.

Botcruscher
2017-02-08, 20:49:08
a, möglich
b, kommt drauf an wo die CPU Last her kommt
c, wie b. Die CPU kann vom Spiel auf viele Arten ausgelastet sein. FPS sind wieder nur ein Teil der Wahrheit.

Das Fazit ist wiederum schwierig. Taskmanager und Monitoring zeigen die wirkliche Auslastung nicht an. Zwischen GPU und CPU gibt es auch mehr was limitieren kann. Im ungünstigsten Fall drehen beide Däumchen. Die Frage ist imo für die IPC Beurteilung nebensächlich. Theoretische Tests haben das Problem nicht und bei allen anderen überwiegt die Charakteristik der Anwendung. Am Ende ist das statistische Mittel schlicht hinreichend genau.

HisN
2017-02-08, 21:19:12
http://abload.de/thumb/arma3_2017_01_03_20_2evu3n.jpg (http://abload.de/image.php?img=arma3_2017_01_03_20_2evu3n.jpg) http://abload.de/thumb/arma3_2017_01_03_20_2n8un2.jpg (http://abload.de/image.php?img=arma3_2017_01_03_20_2n8un2.jpg)

Warum sollte sie? Die Auflösung ist zu 100% die Aufgabe der Graka.

aufkrawall
2017-02-08, 22:06:41
Fakten sprechen lassen, sehr gut. :up:
Vom Schöpfer dieser merkwürdigen Theorie sind mir dahingehend auch gar keine bekannt.

Tesseract
2017-02-08, 22:14:40
theoretisch kann die last durchaus steigen:
- das spiel könnte die höhere auflösung als anlass nehmen um etwas am LoD/streaming zu ändern wodurch die objektanzahl der szene (und damit die arbeit für die CPU) mehr werden kann (z.B. entfernte objekte, die am ende kleiner als 1 pixel wären frühzeitig cullen, je höher die auflösung umso weniger fallen weg)
- wenn die CPU pro frame daten im VRAM updaten/hochladen/runterladen/modifizieren muss und diese mit der auflösung skalieren kann die last auch höher werden, auch wenn der eigentliche befehl an die GPU nicht mehr last erzeugt. synthetisches beispiel: man lädt jeden frame ein buffer in der größe der auflösung in den VRAM und lässt die GPU einen filterkern auf jedes pixel anwenden. ob die GPU das jetzt für 1000 oder 1000000 pixel macht ist der CPU egal, aber wenn der hochgeladene buffer deswegen 1000 mal so groß ist beschäftigt das die CPU dennoch länger.

aber das sind alles sehr exotische beispiele, in der praxis würde ich auch eher von einem unterschied im niedrigen einstelligen prozentbereich ausgehen - wenn überhaupt.

Denn sobald es keine fps Grenze gibt und man sich nicht im GPU Limit befindet, ist man automatisch im CPU Limit und die CPU Last steigt auf das Maximum.

wenn man in spielen von "last" spricht ist eigentlich immer die arbeit pro frame gemeint und die ändert sich natürlich nicht.

BlacKi
2017-02-08, 22:51:34
hübie´s annahme war doch das die cpu auslastung unter 720p so niedrig ist, das die cpu oder einzelne kerne, runtertakten. aber in höheren auflösungen soll die auslastung der kerne höher sein, sodass das runtertakten nicht geschieht.

tatsächlich ist die cpu auslastung in angenommenen 720p 120fps ca 3x so hoch wie in 4k mit 30fps.

sind leider 37fps, aber die erkenntnis bleibt dieselbe. faktor 2,9583period...

720p
https://abload.de/img/720p4vu6c.png

4k
https://abload.de/img/4kkls4t.png

Der_Korken
2017-02-08, 22:52:35
Das mit dem LoD könnte tatsächlich ein Argument sein, allerdings muss man sagen, dass die Arbeit (pro Frame) für die CPU nicht ansatzweise in dem Maße ansteigt wie die Arbeit für die GPU, wenn die Auflösung erhöht wird.

aufkrawall
2017-02-08, 23:35:49
sind leider 37fps, aber die erkenntnis bleibt dieselbe. faktor 2,9583period...

HisNs Vergleich ist besser, weil er in beiden Auflösungen im CPU-Limit ist.
Bei ihm sind es ~27% vs. ~30% CPU-Auslastung, wohlgemerkt mit höherer Auslastung bei der niedrigeren Auflösung. Es gibt also in dem Fall gar eine Tendenz in die entgegengesetzte Richtung der Theorie, um welche dieser Thread handelt.

Die Auslastung, die der Taskmanager seit Windows 8 anzeigt, ist btw. wohl nicht mehr zuverlässig. Ich hatte schon mehrmals den Fall, dass laut diesem die Auslastung bei ~100% gewesen sei, während Afterburner eine niedrigere Auslastung anzeigte (afair eher so bei ~90%). Das war etwa bei BF4 MP so.

Tesseract
2017-02-08, 23:39:25
tatsächlich ist die cpu auslastung in angenommenen 720p 120fps ca 3x so hoch wie in 4k mit 30fps.

ist ja auch zu erwarten wenn alles was auf der CPU pro frame gemacht werden muss (ein großteil) 4 mal so häufig gemacht wird.
limitier beide auf 30fps, dann siehst wieviel die CPU jeweils pro frame machen muss - wahrscheinlich ~15-20% in beiden fällen.

y33H@
2017-02-08, 23:48:44
hübie´s annahme war doch das die cpu auslastung unter 720p so niedrig ist, das die cpu oder einzelne kerne, runtertakten. aber in höheren auflösungen soll die auslastung der kerne höher sein, sodass das runtertakten nicht geschieht.Eher drosselt die CPU in 4K-UHD, da sie die Daten für die GPU vorbereitet hat, die aber noch am vorherigen Frame rechnet.

Kartenlehrling
2017-02-09, 00:18:02
Ich musste heute über diesen Twitterspruch lachen.

Christina Ann Coffin@ChristinaCoffin

You don't have to optimize the CPU code if you add more vfx so your game is always GPU bound #gamedev
https://twitter.com/ChristinaCoffin/status/829425474434695168

robbitop
2017-02-09, 09:51:31
Foobars Statement (der professionell Engines für AAA Titel entwickelt):

Braucht er nicht, weil es kompletter Quatsch ist. CPU-Arbeit ist null aufloesungsabhaengig.

Er sollte es wissen.

Randschwimmer
2017-02-10, 09:34:44
Danke für die Erstellung des Threads.
Und danke für die Antworten.

Was kann ich als Laie daraus lernen?
Wenn ich einen Test bewerten will, der bei Spiel X in Auflösung 1440 40 fps Minimum auswirft und in 720 90fps Minimum (alles fiktiv), dann weiß ich,
a) dass der Test in 1440 im GPU-Limit erfolgt ist und als CPU-Test ziemlich wertlos ist;
b) dass der Test in 720 höchstwahrscheinlich im CPU-Limit erfolgte.

Wenn jetzt noch mein Ziel ist, dass die CPU in Spiel X mindestens 60 fps Minimum erreicht (weil das für mich ausreichend ist), dann kann ich auch davon ausgehen, dass auch in Zukunft mit stärkeren Grafikkarten und in einer vergrößerten Auflösung von 2160 die CPU ausreichend dimensioniert sein wird.

BlacKi
2017-02-10, 09:46:18
Wenn jetzt noch mein Ziel ist, dass die CPU in Spiel X mindestens 60 fps Minimum erreicht (weil das für mich ausreichend ist), dann kann ich auch davon ausgehen, dass auch in Zukunft mit stärkeren Grafikkarten und in einer vergrößerten Auflösung von 2160 die CPU ausreichend dimensioniert sein wird.

es gibt keine garantie das in zukunft die cpu nicht limitiert, aber in 1440p siehst du keine schnellere cpu, in 720p siehst du wenigstens welche potentiell die schnellere ist. und das möchte ich vor dem kauf wissen.

Rabiata
2017-02-10, 12:27:29
Danke für die Erstellung des Threads.
Und danke für die Antworten.

Was kann ich als Laie daraus lernen?
Wenn ich einen Test bewerten will, der bei Spiel X in Auflösung 1440 40 fps Minimum auswirft und in 720 90fps Minimum (alles fiktiv), dann weiß ich,
a) dass der Test in 1440 im GPU-Limit erfolgt ist und als CPU-Test ziemlich wertlos ist;
b) dass der Test in 720 höchstwahrscheinlich im CPU-Limit erfolgte.

Wenn jetzt noch mein Ziel ist, dass die CPU in Spiel X mindestens 60 fps Minimum erreicht (weil das für mich ausreichend ist), dann kann ich auch davon ausgehen, dass auch in Zukunft mit stärkeren Grafikkarten und in einer vergrößerten Auflösung von 2160 die CPU ausreichend dimensioniert sein wird.
Zu b):
Daß der Test in 720 im CPU-Limit erfolgte, kann man zwar vermuten aber nicht wissen. Idealerweise sollte der Tester noch einen Test in der kleinstmöglichen Auflösung nachschieben, (fiktiv und beispielsweise) 800x600.
Wenn dann die Framerate bei 90fps Minimum bleibt, waren wir offenbar schon bei 720 im CPU-Limit. Wenn sie (beispielsweise) auf 140fps hochgeht, waren wir bei 720 immer noch im GPU-Limit.

Dicker Igel
2017-02-10, 12:39:02
theoretisch kann die last durchaus steigen:
- das spiel könnte die höhere auflösung als anlass nehmen um etwas am LoD/streaming zu ändern wodurch die objektanzahl der szene (und damit die arbeit für die CPU) mehr werden kann (z.B. entfernte objekte, die am ende kleiner als 1 pixel wären frühzeitig cullen, je höher die auflösung umso weniger fallen weg)
- wenn die CPU pro frame daten im VRAM updaten/hochladen/runterladen/modifizieren muss und diese mit der auflösung skalieren kann die last auch höher werden, auch wenn der eigentliche befehl an die GPU nicht mehr last erzeugt. synthetisches beispiel: man lädt jeden frame ein buffer in der größe der auflösung in den VRAM und lässt die GPU einen filterkern auf jedes pixel anwenden. ob die GPU das jetzt für 1000 oder 1000000 pixel macht ist der CPU egal, aber wenn der hochgeladene buffer deswegen 1000 mal so groß ist beschäftigt das die CPU dennoch länger.

aber das sind alles sehr exotische beispiele, in der praxis würde ich auch eher von einem unterschied im niedrigen einstelligen prozentbereich ausgehen - wenn überhaupt.
Hmm, LoD wird imo "fest" mit dem Detailgrad geregelt und die Texturen werden unabhängig von der Auflösung - quasi "wie sie vorliegen" - in den VRAM geschaufelt, deren Detailgrad regelt man dann wieder über die Settings und das macht wiederum die Graka.

Tesseract
2017-02-10, 20:36:47
Hmm, LoD wird imo "fest" mit dem Detailgrad geregelt und die Texturen werden unabhängig von der Auflösung - quasi "wie sie vorliegen" - in den VRAM geschaufelt, deren Detailgrad regelt man dann wieder über die Settings und das macht wiederum die Graka.

ich rede vom object-LoD, nicht vom textur-LoD und wie sowas implementiert ist ist (oder auch nicht) ist enginesache.

Dicker Igel
2017-02-10, 21:02:08
Mir gings da auch um Geometrie und das wird eben über den Detailgrad, oder expliziten LoD-Settings vom User geregelt. Welche Engine hat denn ein "Auto-LoD", welches je nach CPU-Last die entsprechende Weitsicht regelt?

kruemelmonster
2017-02-10, 21:48:31
Zu b):
Daß der Test in 720 im CPU-Limit erfolgte, kann man zwar vermuten aber nicht wissen. Idealerweise sollte der Tester noch einen Test in der kleinstmöglichen Auflösung nachschieben, (fiktiv und beispielsweise) 800x600.
Wenn dann die Framerate bei 90fps Minimum bleibt, waren wir offenbar schon bei 720 im CPU-Limit. Wenn sie (beispielsweise) auf 140fps hochgeht, waren wir bei 720 immer noch im GPU-Limit.

800x600 wäre ungeeignet weil anderes Seitenverhältnis, 1024x576 würde sich anbieten.

Tesseract
2017-02-10, 21:49:18
Mir gings da auch um Geometrie und das wird eben über den Detailgrad, oder expliziten LoD-Settings vom User geregelt. Welche Engine hat denn ein "Auto-LoD", welches je nach CPU-Last die entsprechende Weitsicht regelt?


es geht doch überhaupt nicht um CPU-last sondern um die auflösung. die engine weiß prinzipiell wie groß der geometrische abstand zwischen 2 pixel ist und kann diese information prinzipiell für optimierungen im LoD einsetzen. der user stellt höchstens irgendeinen arbiträren regler um der das macht was der dev dafür vorsieht. wer bzw. ob das jemand macht kann ich dir nicht sagen, aber es ist eine theoretische möglichkeit.

BlacKi
2017-02-10, 22:23:33
dennoch ist es eine theorie die bisher keinerlei anhaltspunkte hat.

aufkrawall
2017-02-11, 14:46:10
Will sich Hübie zu seiner Theorie hier jetzt eigentlich noch äußern, oder kommt da mal wieder rein gar nichts?

BlacKi
2017-02-11, 17:18:34
hatter schon im ryzen fred.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11287632&postcount=3133

er führt allerdings spiele an, die ganz klar cpu limitiert sind. zb. fallout 4, nur eben nicht mit den cores skalieren, aber sehr wohl mit dem takt, gerade in 720p.

bisher hat aber keiner irgendwie nur annähernd belege dafür, ich kann eben nur belege liefern die das nicht stützen.

Dicker Igel
2017-02-11, 17:33:55
Bei Aufbau-/Strategie ist's auch klar, denn da hat man ggf mit höherer Auflösung auch mehr CPU-Last(KI) auf dem Bildschirm.

BlacKi
2017-02-11, 17:36:37
wie das? kannst du das weiter erläutern?

Dicker Igel
2017-02-11, 17:39:34
Durch die isometrische Perspektive könnte man in einer höheren Auflöung halt mehr "Fläche" sehen, samt KI, die darauf herumgurkt. Mehr KI, mehr CPU-Last.

BlacKi
2017-02-11, 17:44:54
du kannst also weiter rauszoomen mit mehr auflösung? wäre mir neu...

HisN
2017-02-11, 17:48:16
Kannst Du da bitte ein Beispiel geben?
Alles was in irgend einer Form ein Balancing bietet, sollte mit höherer Auflösung nicht mehr sichtbare Fläche bieten. Die Fläche bleibt normalerweise gleich, sie ist nur feiner Aufgelöst.

Generell werden auch Einheiten die nicht zu sehen sind von der CPU gerechnet, jedenfalls solange sie von einer KI gesteuert werden.
So kommt man z.b. bei COH nach einer gewissen Spielzeit von 100 FPS auf 36 FPS runter, OHNE das jetzt unglaublich viel Einheiten zu sehen wären.

http://abload.de/thumb/reliccoh2_2015_08_16_f0x7d.jpg (http://abload.de/image.php?img=reliccoh2_2015_08_16_f0x7d.jpg)

aufkrawall
2017-02-11, 17:48:17
Es gibt keinen automatischen "Zoom-Effekt" durch höhere Auflösung in Spielen.
Edit: Wenn, dann ändern die Spiele explizit selber etwas an der Skalierung, unproportional zur Auflösungsänderung.

Raff
2017-02-11, 18:30:35
Ultrawide-Auflösungen führen zu höherer Grundlast, weil am Rand mehr Content erscheint als bei 16:9-Auflösungen.

MfG,
Raff

aufkrawall
2017-02-11, 18:35:12
Das Seitenverhältnis hatten wir schon.

Dicker Igel
2017-02-11, 19:09:55
Kannst Du da bitte ein Beispiel geben?
Ich merke grade, dass ich sowas schon lange nicht mehr gespielt habe :D
Grade den Zoom hab ich völlig übersehen ^^

War halt nur ein wirrer Gedanke :freak:

BlacKi
2017-02-11, 19:44:52
Ultrawide-Auflösungen führen zu höherer Grundlast, weil am Rand mehr Content erscheint als bei 16:9-Auflösungen.

MfG,
Raff
selbst wenn es so wäre, spielt das doch keine rolle, man bencht ja alle in der gleichen auflösung.

solange kein gpu limit herrscht, könnte man auch in fhd benchen.

RavenTS
2017-02-19, 17:57:56
Durch die isometrische Perspektive könnte man in einer höheren Auflöung halt mehr "Fläche" sehen, samt KI, die darauf herumgurkt. Mehr KI, mehr CPU-Last.


Das trifft aber nur auf 2D-Spiele zu!

basix
2017-08-15, 11:09:09
Um mal noch was dazu zu sagen: Ich habe schon mehrere Benchmarks gesehen, wo mit steigender Auflösung die CPU-Last oder wie man das auch bezeichnen will steigt:

6C/12T setzen sich mit steigender Auflösung stärker von 4C/8T ab, z.B. https://youtu.be/Kw-qyZB8qtk?t=393
8C/16T setzen sich mit steigender Auflösung stärker von 6C/8T ab, z.B. https://www.ocaholic.ch/modules/smartsection/item.php?itemid=1611&page=14
OC schlägt unter 4k stärker durch als bei 1080p, z.B. https://www.ocaholic.ch/modules/smartsection/item.php?itemid=1611&page=5


Ganz einleuchtend ist mir dieses Verhalten nicht, weil die FPS ja grundsätzlich sinken. Evtl. spielen hier der die Anzahl Cores / Threads, der Cache, min. FPS oder der Grafikkartentreiber welcher mehr leisten muss usw. eine grössere Rolle. Dennoch schon oft und von verschiedenen Testern und CPUs gesehen. Es ist aber bei weitem nicht bei allen CPUs und Games gleich. Bei manchen sieht man das zu erwartende Scaling, dass ab 4k die CPU praktisch keine Rolle mehr spielt, da man im Grafikkartenlimit hängt.

BlackBirdSR
2017-08-15, 11:13:37
Willst Du meine Einschätzung?
Generell bringen die CPUs mit mehreren Cores im Bereich hoher CPU Last mehr FPS. Durch die gestiegene Auflösung sinkt GPU bedingt die Anzahl an sehr hohen Frames, das Average Ergebnis verschiebt sich nach unten und die paar extra frames im CPU Last Bereich machen sich im score bemerkbar...

Exxtreme
2017-08-15, 11:52:35
Vom Schöpfer dieser merkwürdigen Theorie sind mir dahingehend auch gar keine bekannt.
Ich kenne den Schöpfer: Gamestar. =)

Damals ging es um den Vergleich Voodoo 3 vs. Geforce 2. Die haben ernsthaft behauptet, die Voodoo 3 verringert die CPU-Last weil man dank Antialiasing eine niedrigere Auflösung wählen kann.

basix
2017-08-15, 13:00:05
Willst Du meine Einschätzung?
Generell bringen die CPUs mit mehreren Cores im Bereich hoher CPU Last mehr FPS. Durch die gestiegene Auflösung sinkt GPU bedingt die Anzahl an sehr hohen Frames, das Average Ergebnis verschiebt sich nach unten und die paar extra frames im CPU Last Bereich machen sich im score bemerkbar...

Diese Einschätzung würde ich grundsätzlich auch teilen. Die Frage ist, ob dies nur bei gut multithreaded Spielen geschieht oder auch bei solchen, die an einem Main-Thread hängen. Ich würde mal auf ersteres tippen. Trotzdem schon interessant zu sehen, dass man im deutlichen Grafikkarten-Limit zum Teil noch deutliche Unterschiede erhält.

Kann es aber zum Beispiel sein, dass die CPU mehr Commands an die GPU schicken muss, sobald die Auflösung steigt (GPU hat "mehr Arbeit)? Oder irgendein Zusammenhang mit Streaming (höhere Texturauflösungen oder so)?

Lehdro
2017-08-15, 15:33:01
Ich kenne den Schöpfer: Gamestar. =)

Damals ging es um den Vergleich Voodoo 3 vs. Geforce 2. Die haben ernsthaft behauptet, die Voodoo 3 verringert die CPU-Last weil man dank Antialiasing eine niedrigere Auflösung wählen kann.
Würde in Diablo 2 zum Beispiel auch stimmen! Dort sieht man je nach Auflösung mehr oder weniger = andere Grundlast auf der CPU.

Andererseits ist der Vergleich der beiden Karten eh komisch, Stichwort: TnL

Bei Grafikkarten ohne T&L-Einheit wurden die Schritte entweder vom Programm selbst oder vom 3D-Treiber durchgeführt und in beiden Fällen von der CPU berechnet.

Karte ohne TnL = mehr CPU Last
Deswegen skalieren die Voodoos unglaublich gut mit CPU Power, Raff kann dazu sicher mehr sagen.

IchoTolot
2017-08-15, 19:05:34
Kann es aber zum Beispiel sein, dass die CPU mehr Commands an die GPU schicken muss, sobald die Auflösung steigt (GPU hat "mehr Arbeit)? Oder irgendein Zusammenhang mit Streaming (höhere Texturauflösungen oder so)?

Zufällig gefunden den Thread..
Also ich kann es bei DX12 unter Battlefield 1 nicht nachstellen. Hab heute mal um DX12 mal zu testen und mir zu bestätigen, dass unter DX12 die CPU Last stark sinkt.

Amiens 64 Spieler 720p niedrige Details = Max 80% Auslastung, GPU-Limit. :freak:

1080p Max Details = 50-60% Auslastung. Mit DX11 sind das zwischen 80-100%.

//differentRob
2017-08-15, 20:41:20
Denke das Thema FOV (field of view) sollte man hier vertieft aufgreifen.
kann mich daran erinnern, dass das herabsetzen der FOV in Battlefield die CPU Last durchaus schonen konnte. Das erhöhen wiederum schlug mehr auf die CPU.

IchoTolot
2017-08-15, 20:43:57
Was ja logisch ist. Nee, das foV ist bei mir auf 85° hor und ver.