PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Mutlicore in Spielen, my ass...


Mainstream_is_dead
2010-07-31, 14:11:06
Habe mal gestern schnell mein System mit ver. Demos gestresst und dabei festgestellt wie stark meine GPU den Prozessor ausbremst. Das ganze habe ich per Task Manger[2nd Monitor] ermittelt, ob nun die Werte des Task Managers aussagekraeftig sind, muss jeder fuer sich selbst entscheiden.

System : i5-750@4Ghz, 4gb Ram und eine 3850GPU mit 256vram

Crysis Demo

DX9 High 1680x1050 20fps@ 37% CPU Load, max 50%[no action],40%[with action], Explosion CPU Load Drop minus 20%?? @ 13fps
DX9 High 800x600 55fps@ 50% CPU Load, Explosion NO CPU Load Drop @ 37fps
DX9 LOW 1680x1050 77fps@ ~53-60% CPU Load, max 67%[no action], Explosion CPU Load Drop minus ~10%?
DX9 LOW 800x600 140fps@ 64-70% CPU Load, Explosion NO CPU Load Drop


3DMark 2001SE def.

Scene 1 500-900fps CPU Load 25%
Scene 2 100-135fps CPU Load 20%
Scene 3 750-860fps CPU Load 25%
Scene 4 200-250fps CPU Load 10-27%
Scene 5 700-maxfps CPU Load 25%
Scene 6 200-300fps CPU Load 19-24%
Scene 7 250-550fps CPU Load 15%
Scene 8 100-120fps CPU Load 0-2% ??
Scene 9 150-200fps CPU Load 0-3% ??
Scene 10 380fps CPU Load 5%
Scene 11 180fps CPU Load 5%
Scene 12 340fps CPU Load 25%
Scene 13 720fps CPU Load 25%
Scene 14 650fps CPU Load 25%
Scene 15 470fps CPU Load 25%
Scene 16 770fps CPU Load 10%
Scene 17 250fps CPU Load 0-1% ??

3DMark 2006 def.

Scene 1 40fps+ CPU Load 30-40%
Scene 2 40fps+ CPU Load 30-40%
Scene 3 3fps+ CPU Load 88-97%
Scene 4 3fps+ CPU Load 88-97%
Scene 5 40fps+ CPU Load 30-40%
Scene 6 40fps+ CPU Load 30-40%

Resident Evil 5 Benchmark

DX-9 LOW 800x600 100fps+@ 15-25% CPU Load var.Benchmark
DX-9 LOW 800x600 170fps+@ 60-70% CPU Load fix.Benchmark
DX10 LOW 800x600 140fps+@ 15-30% CPU Load var.Benchmark
DX10 LOW 800x600 180fps+@ 55-70% CPU Load fix.Benchmark

DX-9 LOW 1680x1050 50fps+@ 5-15% CPU Load var.Benchmark
DX-9 LOW 1680x1050 100fps+@ ~40% CPU Load fix.Benchmark
DX10 LOW 1680x1050 42fps+@ 8-16% CPU Load var.Benchmark
DX10 LOW 1680x1050 90fps+@ ~21-44% CPU Load fix.Benchmark

8xAA/16xAF,at Superhigh
DX-9 HIGH 1680x1050 15-30fps+@ 5-10% CPU Load var.Benchmark
DX-9 HIGH 1680x1050 25-30fps+@ 15-20% CPU Load fix.Benchmark
DX10 HIGH 1680x1050 10-15fps+@ 5-12% CPU Load var.Benchmark
DX10 HIGH 1680x1050 20-25fps+@ 15-20% CPU Load fix.Benchmark

Far Cry2 Bench. Ranch Small
75Hz
DX-9 Optimal 1024x768 ~60fps+@ 44-70% CPU Load, ~ø57% with A.I
DX10 Optimal 1024x768 ~46fps+@ 22-40% CPU Load, ~ø31% with A.I
DX-9 Optimal 1024x768 ~60fps+@ 35-49% CPU Load, ~ø42% without A.I
DX10 Optimal 1024x768 ~46fps+@ 10-40% CPU Load, ~ø25% without A.I
60Hz
DX-9 Optimal 1680x1050 ~37fps+@ 34-60% CPU Load, ~ø47% with A.I
DX10 Optimal 1680x1050 ~25fps+@ 10-30% CPU Load, ~ø20% with A.I
DX-9 Optimal 1680x1050 ~40fps+@ 32-40% CPU Load, ~ø36% without A.I
DX10 Optimal 1680x1050 ~24fps+@ 8-22% CPU Load, ~ø15% without A.I

Devil May Cry 4 Benchmark

DX-9 MAX 1024x768 100fps+@ 5-17% CPU Load Scene 1 ~30s
DX-9 MAX 1680x1050 40fps+@ 2-8% CPU Load Scene 1 ~30s
DX-9 LOW 1680x1050 40fps+@ 2-8% CPU Load Scene 1 ~30s
DX-9 LOW 1680x1050 150fps+@ 7-20% CPU Load Scene 1 ~30s
DX10 LOW 1680x1050 130fps+@ 5-20% CPU Load Scene 1 ~30s
DX10 LOW 1024x768 230fps+@ 12-30% CPU Load Scene 1 ~30s
DX10 MAX 1680x1050 30fps+@ 3-10% CPU Load Scene 1 ~30s


Und die Schlussfolgerung/en ist/sind ? Nun eine waere das meine Grafikkarte stark den Prozessor ausbremst, nur im Far Cry 2 Benchmark sehe ich eine relativ, gut ausgeglichene,verteilte Last aller CPU Kerne. Eine andere Erkenntnis waere, dass die heutigen Spieledevs. eindeutig ihren Fokus auf die GPU legen. Sprich ziemlich alle Spiele sind heute gpu-lastig bzw. werden immer von der GPU in Benchmarks/Spiele limitiert und das egal in welcher Aufloesung. Eine andere waere, dass die Mutli Core/Thread Programmierung/Optimierung hinter der GPU Programmierung liegt bzw. hinterher rennt....

Das war glaube ich frueher anders, damals wurde der Effort auf CPU-"Optimierung" gelegt, je staerker die CPU umso mehr FPS. Das Problem ist [Fokus auf GPU "Optimuierung"], dass die meisten Spieler glauben noch genug CPU Power fuer die naechste GPU Generation zu haben, das ist leider falsch.

Mein Schlussfazit aus diesem Kurztest : "Je langsamer die CPU umso schneller muss die GPU sein bzw. Je langsamer die GPU umso schneller muss die CPU sein", diese Thesen stimmen heute nicht mehr, die naechste Grafikkarte darf/muss gleich eine High End GPU sein, alles andere unterhalb einer High End GPU ist fuer die heutigen CPUs keine Herausforderung mehr. Das ganze ist von Spiel zu Spiel anders, aber nehmen wir mein Beispiel/Test mal genauer unter die Lupe :

Theoretisch braeuchte ich eine neue Grafikkarte die mind. 3mal so schnell FPs rendert wie meine aktuelle GPU, dann haette ich eine stets gute CPU Load und dabei sehr gute fps. Das Problem ist, dass diese GPU dann bereits fuer die naechsten Spielegeneration zu lahm ist, was meine CPU wieder ausbremst, ergo sollte man immer mehr in die GPU investieren, damit man wenigstens eine neue Spielegeneration ueberleben kann, fuer mich waren das Crysis Anno 2007 ? und Metro2033 Anno 2010/11, also schoen von Anfangs an High End GPUs kaufen, solange die Mutli Core CPU-Programmierung der GPU "Optimierung" hinterher rennt, die perfekte Balance gibt/wird es nie geben oder ?

Oder ab wann stimmen die Thesen[siehe oben] wieder, damit der Fokus dann wieder bei der CPU Optimeirung liegt, wieviele Cores brauchen wir, damit die Waagschale eine Pro CPU Tendenz aufzeigt ? Was haben wir davon 8/16/64 Kern CPU zuhaben, wenn die Spiele dafuer nicht optimiert sind und evtl. auch nie werden....die GPUs werden ja immer potenter, evtl. ist bereits eine "6970" im Oktober zu stark fuer die heutigen CPUs.

Ich werde nochmals Metro2033 installieren und die Werte mit Crysis vergleichen, das interessiert mich pers. sehr. Evtl. kann man hiermit eine kleine Diskussion anfangen, ab wann es sich wieder lohnt non High End Grafikarten zu kaufen.


Mainstream_is_dead

Konami
2010-07-31, 15:28:42
Du hast einen Core i7 auf 4 GHz, was so ziemlich die schnellste Highend-Bolide ist, die man derzeit als CPU haben kann – obwohl die CPU-Leistung in Spielen längst in den Hintergrund getreten ist, weil es momentan einfach locker reicht (seit der C2D diesen großen Leistungssprung gebracht hat).

Und du hast eine 3 Jahre alte Grafikkarte, die vielleicht noch 20% der Leistung eines aktuellen Highend-Modells bringt (mit diesem winzigen VRAM eher weniger). Und da musstest du erst mit aufwändigen Tests herausfinden, dass deine Grafikkarte limitiert? :ugly:

Deine Thesen gehen an der Realität vorbei. Fakt ist: Es geht darum, möglichst keinen Flaschenhals im System zu haben (bzw. beide "Flaschenhälse" möglichst auszugleichen, sodass im Endeffekt weder CPU noch GPU großartig limitiert). Ich weiß also nicht, wie du auf Sätze wie "Je langsamer die CPU umso schneller muss die GPU sein" kommst...

G A S T
2010-07-31, 15:49:19
Nun eine waere das meine Grafikkarte stark den Prozessor ausbremst

Jo. Und jetzt sag bloß du bist deswegen überrascht. :D
-> 3850 GPU (!*) mit 256 VRAM (!!!**) <- :ulol:

* Scheiß Rohleistung!
** Da bremst ja schon der kleine VRAM bächtig möse aus!

Therefore your Benches ar for the :ass: ...

eindeutig ihren Fokus auf die GPU legen. Sprich ziemlich alle Spiele sind heute gpu-lastig bzw. werden immer von der GPU in Benchmarks/Spiele limitiert und das egal in welcher Aufloesung

Jo & guten Morgen! Das war vor 5 Jahren auch schon so.
Spätestens seit den ersten Dual Cores ist dies überdeutlich geworden.

die Mutli Core/Thread Programmierung/Optimierung hinter der GPU Programmierung liegt bzw. hinterher rennt
Ja und Nein! Die Frage ist wozu man sich hinter die Threadoptimierung der CPU klemmen sollte, wenn nur ein Bruchteil der Anwender einen Dual- oder Quadcore-Prozessor besitzt. Eine weitere Frage - warum soll man Programme schreiben, die möglichst 4 Cores mit Beschäftigung zuknallen, nur damit einige Besitzer sich an der Auslastung im Taskmanager aufgeilen können... Soll man künstlich schleifen Programmieren damit du zufrieden bist?

Es ist - gerade für Zocker - nicht notwendig einen Quad zu besitzen. Ein flotter Core 2 Duo mit 3-4 GHz bewältigt auch aktuellste Titel sehr gut, wenn ihm die entsprechende Grafikkarte zu Seite gestellt wird.
Übrigens brachte erst Windows 7 den ersten Threadsheduler, der halbwegs vernüftig mit Multicore arbeitet.

Nightspider
2010-07-31, 16:09:01
Ich glaube seine CPU rendert fast schneller Grafik als seine Grafikkarte. :uattack4:

;D

tombman
2010-07-31, 16:27:09
[ ] Du weißt, wie man Cpu-limits herausfindet und bencht.

boxleitnerb
2010-07-31, 17:18:27
Das ist so ziemlich der dämlichste Thread, den ich seit langem gelesen habe. Wirklich.
3850 mit 256MB...WTF? Epic Fail :freak:

derpinguin
2010-07-31, 22:11:28
Und jetzt packen wir noch 3 480GTX in den Rechner und benchen nochmal.

san.salvador
2010-07-31, 22:13:41
Soviel Aufwand für... ja wofür denn eigentlich? :uconf2:

Gast
2010-07-31, 22:13:58
Und jetzt packen wir noch 3 480GTX in den Rechner und benchen nochmal.

Wenn denn noch Geld über ist. :popcorn:

boxleitnerb
2010-07-31, 22:30:45
Der nächste Thread heißt dann: "Hilfe, mein 200W Netztteil limitiert mein Triple Fermi SLI!" :eek:

derpinguin
2010-07-31, 22:46:49
Vermutlich eher "Hilfe, mein 1000W LC-Power Netzteil brennt"

dargo
2010-07-31, 22:55:42
Dieser Thread ist echt der Hammer. Kann mich bitte jemand kneifen... :ugly:

boxleitnerb
2010-07-31, 22:58:45
Was, du bist nicht der TE? ;D

Sentionline
2010-08-01, 01:37:50
Nun, da sieht man das die Karte nicht für höhere Auflösungen ausgelegt ist, das war bei Release nicht anders. Allein schon deshalb haben die meisten in die 512MB Version investiert. Und natürlich wegen dem Wiederverkaufswert.

An der Aufstellung des TE sieht man ja auch, das die CPU in geringen Auflösungen schon mithilft. Bei Spielen, die seid 2007 produziert werden, liegt der Hauptfocus auf Shaderbelastung der Grafikkarten und die allgemeine anhebung der Geometriekomplexität. Man denke an den Launch des G80, an Anno 1701, an 3DMark2006. Allein schon die deutliche Anhebung der Texturgrößen in Spielen wie Gothic III und Siedler 6.

Der Focus liegt seid Jahren nicht mehr auf CPU. Wie Konami schon schrieb, reicht ein Core2 mit ~3 Ghz nach wie vor für 99% aller Spiele aus. Ausnahmen sind gewisse Konsolenportierungen, denn auf Konsolen muss man versuchen die nicht vorhandene Rechenleistung des Grafikchips mit besserer Threadoptiierung auf die Rechenkerne zu verteilen. Bekanntlich hat eine PS3 einen grausigen GeForce 7 onboard, aber eine enorme CPU Kraft.

Fazit: Erkenntnis der meisten hier im 3DCenter gemachten Erfahrungen zur kenntnis nehmen. Mit steigender Auflösung, hohen AA/AF Stufen und der Einstellung hoher Texturauflösungen (verwenden von Mods), kommt man um eine starke Grafikkarte mit mehr als 512MB Speicher nicht herum. Aktuell liegt die Prioritätenverteilung bei PCs für Gamer: 25% CPU / 75% GPU.

mfg

HighEnd6970
2010-08-01, 12:39:00
Die GPU 3850 profitiert von zus. 256vram praktisch gar nichts. In hohen Aufloesung mag sie doppelt so schnell sein wie eine 256vram Karte, aber 5 vs 10fps 512vram das lohnt sich nicht...

Warum Far Cry 2 trotz der GPU Limitierung, eine relativ hohe CPU Last bzw. warum in Crysis 1 Demo eine Explosion die CPU Last verringert, darauf wollt Ihr nicht eingehen. Ich hoffe einfahc das die bekjannten Fachmagazine in den naechsten Tests/Reviews zu GPUs und CPUs die Prozerssor Last in ihren Diagramme miteinbeiziehen. Das sollte glaube ich moeglich sein, ist ja kein zus. Aufwand fuer die Experten und fuer viele eine nette Zugabe.

i5-750 4000mhz /1Core = 3850/2 Core = 4870/4 Core = 5870/5970, drei 480 sind eh der Overkill fuer jede aktuelle CPU, oder nicht ?

Sentionline
2010-08-01, 13:37:55
In hohen Aufloesung mag sie doppelt so schnell sein wie eine 256vram Karte, aber 5 vs 10fps 512vram das lohnt sich nicht...
Diese 5 bis 10 fps bedeuten in heutigen Spielen ruckeln oder nicht. Damals als die Karte erschien, waren nur HL2 oder FEAR an der Benchmarkordnung. Gemessen am Content, sind diese Spiele mit aktuellen Krachern wie Anno 1404 oder Colin Dirt 2 nicht zu vergleichen.

Warum Far Cry 2 trotz der GPU Limitierung, eine relativ hohe CPU Last...
Lesen:
An der Aufstellung des TE sieht man ja auch, das die CPU in geringen Auflösungen schon mithilft....

warum in Crysis 1 Demo eine Explosion die CPU Last verringert, darauf wollt Ihr nicht eingehen.
Partikel, Rauch und Hitzeeffekte werden von der Grafikkarte berechnet. Was soll die CPU denn machen ausser auf die Karte warten?

i5-750 4000mhz /1Core = 3850/2 Core = 4870/4 Core = 5870/5970, drei 480 sind eh der Overkill fuer jede aktuelle CPU, oder nicht ?
Man kann es nur wiederholen. Solche Karten holt man nicht um in 1024x768 zu spielen. Wer sich eine GTX reinschraubt, möchte bestimmt in DX11, mit SGSSAA und womöglich in 1680x1050 spielen. Villeicht sogar mit 3DVision, hinzu kommt PhysX. Da braucht man ausschlieslich Kartenpower. Um Bildwiederholraten flüssig zu halten, muss man Flaschenhälse vermeiden. Somit sind wir wieder beim Thema CPU und drehen uns im Kreis.

mfg

G A S T
2010-08-02, 00:13:55
:ulol4:[ ] Du weißt, wie man Cpu-limits herausfindet und bencht.

:ulol4:

Lawmachine79
2010-08-02, 02:34:01
i5-750 4000mhz /1Core = 3850/2 Core = 4870/4 Core = 5870/5970, drei 480 sind eh der Overkill fuer jede aktuelle CPU, oder nicht ?
Nein, mit Supersampling kriegt man alles geregelt, man kriegt jedes Quentchen Rechenpower in Bildqualität gequetscht. Selbst mit 6 GTX 480 gibt es Spiele, die unter 30fps fallen, wenn Du einfach 4x4 SSAA anmachst.
und dabei festgestellt wie stark meine GPU den Prozessor ausbremst. Das ganze habe ich per Task Manger[2nd Monitor] ermittelt

i5-750@4Ghz

3850GPU mit 256vram

Und die Schlussfolgerung/en ist/sind ? Nun eine waere das meine Grafikkarte stark den Prozessor ausbremst,
Ein Hoch auf den investigativen Journalismus. Da muss man natürlich auch erstmal drauf kommen, ist ja eine sehr versteckte Leistungsbremse...naja, die sind eben immer da, wo man sie am wenigsten vermutet. Soundkarte, Tastatur oder auch das Gehäuse, ok, aber daß es die Grafikkarte ist, erlebt man auch nicht alle Tage.

Asaraki
2010-08-02, 09:39:15
Soundkarte, Tastatur oder auch das Gehäuse, ok, aber daß es die Grafikkarte ist, erlebt man auch nicht alle Tage.

Da hast du völlig Recht!

Ich erlebe tagtäglich, dass die meisten User in ihrer Arbeit [beziehe mich hier auf professionelle Office-Benchmarks wie z.B. PrivateEmailWriterAtWork] am meisten durch die Tastatur ausgebremst werden. Manchmal ist es auch die Soundkarte, welche meine Kollegen stark ausbremst. Der Monitor, insbesondere im InternetExplorerBenchmark hingegen auch oft.

Von daher finde ich es schon beachtlich, dass sich der TE die Mühe gemacht hat auch die allerletzten möglichen Flaschenhälse zu suchen. Wir sollten seine Erkenntnisse zum Dank als Sticky behalten.

Gast
2010-08-02, 20:45:17
Theoretisch braeuchte ich eine neue Grafikkarte
Übereile dich nicht bei Entscheidungen von derartiger Tragweite. Am Ende tötet dich der Performanceboost, wenn du eine Midrange-GPU ins System holst. :ulol:

die perfekte Balance gibt/wird es nie geben oder ?
Doch - die gibt es. Es gibt Systeme, deren Komponenten sind hervorragend aufeinander abgestimmt. Ein ausgewogenes System beinhaltet eine CPU, die die verbaute Grafikkarte geradesoeben optimal versorgen kann. Dein System gehört nicht in diese Kategorie. Der Leistungsunterschied zwischen deinen Komponenten ist derartig groß, daß man nicht glauben möchte, daß dieser PC ursprünglich mal so geplant gewesen war. Ich denk mal, du hast dir einen neuen PC gegönnt und dabei erstmal die Grafikkarte ausgespart, um die neueren Fermi abzuwarten.

Evtl. kann man hiermit eine kleine Diskussion anfangen, ab wann es sich wieder lohnt non High End Grafikarten zu kaufen.
Es lohnt sich plötzlich HighEnd zu kaufen? HighEnd-Grafikkarten haben sich noch nie gelohnt (im Sinne von gerechnet). Gemessen am Preis war der Performancezugewinn im Vergleich mit Upper-Midrange schon immer bescheiden. Hinzukommt, daß Highend auch immer Kinderkrankheiten im Gepäck hat. Wenn diese dann in der zweiten oder gar dritten Revision ausgemerzt sind, kann man leider oft nicht mehr von Highend sprechen, sondern bestenfalls von Upper-Midrange.

Der Kauf von HighEnd-Hardware lohnt sich entweder 'aus Prinzip' oder niemals. Das Gefühl, hardwaremäßig besser aufgestellt zu sein als der gemeine Plebs, kann schon eine handvoll Dollar wert sein. Manche gönnen sich diesen Kick alle paar Jahre - andere brauchen ihre Dosis täglich, weil sie massive Probleme haben beim runterkommen aus Wolke 7 (ich will jetzt keine Namen nennen). Allerdings nimmt der Hormonrausch bei zwanghaftem Hardwareüberkonsum quasi umgekehrtproportional zur Stromrechnung auch schnell wieder ab. Auf Midrange-Standardkost reagieren solche Konsumenten inzwischen oft mit Übelkeit, krampfhaftem Erbrechen und Ohnmachtsanfällen. Diese Leute MÜSSEN quasi HighEnd kaufen.... egal, ob es sinnvoll ist oder nicht.... oder sie leiden Höllenqualen, die man sich gar nicht vorstellen mag. ;)

Eat this:

Was sind 80 Dezibel?
http://www.youtube.com/watch?v=AgYtsujETKc

GTX480 (dBA):
http://www.youtube.com/watch?v=7V13ZGIZgYY&feature=fvst

.....das muss drücken im Gesicht! :biggrin:

hq-hq
2010-08-02, 21:31:42
Evtl. kann man hiermit eine kleine Diskussion anfangen, ab wann es sich wieder lohnt non High End Grafikarten zu kaufen.
Mainstream_is_dead


ab wann es sich wieder lohnt keine high end graka zu kaufen :cop:

da stillstand sich nicht lohnt niemals :freak: