Archiv verlassen und diese Seite im Standarddesign anzeigen : Test: 19 Prozessoren von 50 bis 130 Euro
Schlammsau
2009-08-07, 23:38:06
http://pics.computerbase.de/2/6/1/3/4/17_m.jpg
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_19_prozessoren_50_130_euro/
=Floi=
2009-08-07, 23:41:31
total sinnlos. der teuerste ist der schnellste und ansonsten sind die langsamen fürs stromsparen. dazu dann noch die lahmen AMD X2 und in dem test sehe ich da auch keine großen neuen erkenntnisse. :rolleyes:
da hätte man sinnvolleres mit der zeit machen können. das ganze erinnert an THG.
selbst 130€ sind nicht viel für so eine CPU.
ach ja, warum hast du nichts dazu zu sagen. hat es dir die sprache verschlagen? :D
Die typischen Fehler wurden mal wieder wiederholt. So testet man keine CPUs. Ach je. :rolleyes:
ach ja, warum hast du nichts dazu zu sagen. hat es dir die sprache verschlagen? :D
Schlammsau ist nur das News-Relay von Computerbase.de.
Schlammsau ist nur das News-Relay von Computerbase.de.
Oder er wartet darauf wie sich die Diskussion entwickelt, um sie bei Bedarf in die richtige Richtung zu lenken.
Ronny145
2009-08-07, 23:55:16
Testsystem ist 10 Monate alt, daher auch immer wieder die 9800 GTX+ mit drin. Dazu der 10 Monate alte Treiber und die größtenteils doch eher weniger aktuelle games. Also die Spielemessungen sind somit eher zweifelhaft. Testen die wenigstens schon mit savegames oder doch eher timedemos?
Spasstiger
2009-08-08, 01:19:04
Die sollten mal für die CPU-Tests neue Spiele anschaffen. GTA IV und Panzers - Cold War wären sinnvolle Kandidaten, da beide Spiele eine High-End-CPU benötigen, um flüssig zu laufen. Panzers - Cold War ist zudem kein Stück multicore-optimiert, was die Sache nochmals interessanter macht.
=Floi=
2009-08-08, 02:59:58
damit würde man ja sehen, dass man mit den billigen cpus nicht mehr weit kommt. der X2 verliert bei aktuellen sachen ja noch stärker.
Schlammsau
2009-08-08, 09:08:49
Ihr könnt nur motzen! :motz:
dargo
2009-08-08, 09:33:29
Ihr könnt nur motzen! :motz:
Was auch teilweise berechtigt ist Schlammsau. Computerbase hat leider immer noch nicht verstanden wie man CPUs in Games testet. Sollen sie halt die Games weg lassen.
Zur Verteidigung von CB - 99,9% aller Reviewer verstehen nicht wie man CPUs in Games benchmarkt.
Mark3Dfx
2009-08-08, 09:37:39
Is klar, dargo ;)
Schon Mist wenn man lesen muss der eigene, heißgehypte Quadcore immernoch für 98% der User nutzlos ist
und vom C2D Wolfdale gebügelt wird.
Jaja, los komm erzähl mir was von GTA IV und SP was jeder hier spielt, dabei noch 20 VMs offen hat während er drölfmillionen H.264 ript......
*gähn*
dargo
2009-08-08, 09:39:13
Schon Mist wenn man lesen muss sein heißgehypter Quadcore immernoch für 95% der User nutzlos ist und vom C2D Wolfdale gebügelt wird.
Siehst du Schlammsau? Hier hast du die Folgen von CB & Co. ;)
Schlammsau
2009-08-08, 09:56:54
Siehst du Schlammsau? Hier hast du die Folgen von CB & Co. ;)
Bitte? :|
Mark3Dfx
2009-08-08, 10:00:41
Siehst du Schlammsau? Hier hast du die Folgen von CB & Co. ;)
Nur er kennt die reine Warheit und andere Ansichten passen nicht in seinen Elfenbeinturm.
boxleitnerb
2009-08-08, 10:02:43
Und ihr habt natürlich voll den Durchblick, klar. Wenn wieder mal die nutzlosen integrierten Benchmarkfunktionen benutzt und keine Frameverläufe gezeigt werden, ist es doch wirklich relativ nutzlos.
puntarenas
2009-08-08, 10:04:12
Bei Spielen wird auf die Auflösung von 1.280 x 1.024 Bildpunkten zurückgegriffen, da bei höheren Auflösungen quasi nur noch die Grafikkarte ein Rolle spielt, geringere Auflösungen aber kein Bezug zur Realität haben. In der Regel testen wir dabei, sofern nicht näher beschrieben, mit den höchsten Details. Die Werte vom AA/AF können dabei von Spiel zu Spiel variieren, ...
Das ist genau, was die Leserschaft fordert, der Praxisbezug. Computerbase würde in den Kommentaren gegrillt, wenn sie keine realistischen Einstellungen benchen würden, denn die Leute wollen Balken zu ihren vertrauten Einstellungen sehen.
Um die Grafikkarte weitestgehend zu eliminieren, haben wir auch einen zusätzliche Punkt eingeführt: die realitätsfernen Spiele-Tests. Vier Anwendungen unterschiedlichen Alters zeigen in minimalen und maximalen Details bei sehr kleiner Auflösung ihr Ergebnis.
Ich bezweifle, dass die Einstellungen die Grafikkarte eliminieren, aber ihr Einfluss wird bei den realitätsfernen Spiele-Tests minimiert. Durch Low-Details wird das Ergebnis vielleicht wieder ein klein wenig verfälscht, aber das spielt keine Rolle und die Überschrift lautet ja schleißlich "realitätsfern". Es geht nicht darum, mit aller Gewalt das Potential und Schwächen der getesteten Prozessoren auszuloten, sondern darum einen hübschen Artikel präsentieren zu können, der nicht gleich in Flamewars gegrillt wird. Ein sehr erfolgreiches Konzept.
Was gibt es da zu meckern?
dargo
2009-08-08, 10:08:23
Und ihr habt natürlich voll den Durchblick, klar. Wenn nichtmal was zur Testmethodik im Review steht, keine Frameverläufe gezeigt werden, ist es doch wirklich relativ nutzlos.
So einiges steht schon dabei. Mal grob erfasst:
1. Überwiegend Timedemos - disqualifiziert.
2. In GRID wird zwar ein Savegame verwendet welches aber viel zu lange dauert, womit einzelne Werte nicht exakt vergleichbar sind. Zum allen Übel nimmt man eine stark limitierende G9800GTX+.
Auch hier meine Frage an CB - testest ihr CPUs oder GPUs, bzw. wie stark meine G9800GTX+ limitiert?
boxleitnerb
2009-08-08, 10:10:44
Schon geändert ;)
Schlammsau
2009-08-08, 10:13:38
So einiges steht schon dabei. Mal grob erfasst:
1. Überwiegend Timedemos - disqualifiziert.
2. In GRID wird zwar ein Savegame verwendet welches aber viel zu lange dauert, womit einzelne Werte nicht exakt vergleichbar sind. Zum allen Übel nimmt man eine stark limitierende G9800GTX+.
Auch hier meine Frage an CB - testest ihr CPUs oder GPUs, bzw. wie stark meine G9800GTX+ limitiert?
-In Timedemos wird die CPU doch auch belastet.
-Was bringt es mit einer schnelleren Graka zu benchen, wenn vielleicht nur 5% der weltweiten Gamerschaft, eine schnellere besitzen? Realitätsnah muss das Setting sein.
Versteh den Unmut nicht, dieses Review kann doch 1:1 auf schnellere Grafikkarten übertragen werden. Auch mit einer GTX295 wäre in diesem Test ein i7 950 der schnellste, und der Athlon 64 X2 4850e der langsamste.
Ich finde der Test ist für mindestens 90% der Leserschaft mehr als ausreichend und eine gute Hilfe beim Hardwarekauf.
puntarenas
2009-08-08, 10:19:01
Versteh den Unmut nicht, dieses Review kann doch 1:1 auf schnellere Grafikkarten übertragen werden. Auch mit einer GTX295 wäre in diesem Test ein i7 950 der schnellste, und der Athlon 64 X2 4850e der langsamste.
Denk das mal umgekehrt. Meine CPU kommt langsam auch an ihre Grenzen und für die Aufrüstung fehlt mir das Geld. Ich werde daher einfach meine Grafikkarte abrüsten und schon bin ich zwar nicht ganz auf dem Niveau eines Core i7, aber fast wieder in Schlagreichweite. Gelobt sei, was glättet. :)
Schlammsau
2009-08-08, 10:22:29
Denk das mal umgekehrt. Meine CPU kommt langsam auch an ihre Grenzen und für die Aufrüstung fehlt mir das Geld. Ich werde daher einfach meine Grafikkarte abrüsten und schon bin ich zwar nicht ganz auf dem Niveau eines Core i7, aber fast wieder in Schlagreichweite. Gelobt sei, was glättet. :)
Wie meinst du das? Je langsamer die Graka, desto mehr FPS?
Mr.Fency Pants
2009-08-08, 10:23:35
Ich versteh auch nicht, weshalb hier immer gemeckert wird. CB macht es richtig, dass einmal realitätsnahe Szenarien genutzt werden und dann noch einmal realitätsferne Tests. Was bringt es mir als Gamer, wenn in 800x600 und minimalen Settings gebencht wird? Ich will wissen, was die CPU im normalen Spielbetrieb leistet und da gibt der Test einen guten Überblick.
@dargo: dann bench halt selbst, hol dir auf deine Ergebnisse einen runter, aber lass es doch mal bleiben, für Spieler relaistische Benchmarks als Orientierungshilfe ständig runterzumachen. Nicht jeder hat Lust/Zeit bis ins kleinste Detail alles auzuloten.
Lern mal endlich zu begreifen, dass es nicht die Benchmarkmethode gibt, sondern unterschiedliche Anforderungen unterschiedliche Benchmarks erfordern, ich für meinen Teil bevorzuge die relitätsnahen. Wenns dir Spaß macht den lieben langen Tag zu benchen kein Thema, es gibt aber Leute, die noch andere Dinge zu tun haben und einfach nur einen Überblick wollen, ohne sich an den Details aufzugeilen.
puntarenas
2009-08-08, 10:28:15
Wie meinst du das? Je langsamer die Graka, desto mehr FPS?
Nein, je langsamer die Grafikkarte, desto geringer die Differenz zwischen schnellster und langsamster CPU im Test.
Ronny145
2009-08-08, 10:29:19
Jetzt splittet CB schon die unangenehmen Beiträge raus: http://www.computerbase.de/forum/showthread.php?p=6446529#post6446529
Ich versteh auch nicht, weshalb hier immer gemeckert wird. CB macht es richtig, dass einmal realitätsnahe Szenarien genutzt werden und dann noch einmal realitätsferne Tests.
Die realitätsfernen sind für mich dort uninteressant. Kritisiert werden die eigentlichen Spielebenchmarks. Es wird dort seit Ewigkeiten mit der 9800 GTX+
und auch mit 10 Monate alten Treiber getestet. Das heißt die 9800 GTX+ ist noch langsamer sie es sein müsste. Seit 178.24 gabs nämlich erwähnswerte performance Steigerungen. So kann wenig nützliches rauskommen bei den Spieletests.
Schlammsau
2009-08-08, 10:32:10
Nein, je langsamer die Grafikkarte, desto geringer die Differenz zwischen schnellster und langsamster CPU im Test.
Ach so :smile:
dargo
2009-08-08, 10:37:24
-In Timedemos wird die CPU doch auch belastet.
Mit einem Bruchteil an CPU-Last die tatsächlich Ingame vorhanden ist.
-Was bringt es mit einer schnelleren Graka zu benchen, wenn vielleicht nur 5% der weltweiten Gamerschaft, eine schnellere besitzen? Realitätsnah muss das Setting sein.
Du hast den Zusammenhang nicht verstanden. Beim Test der CB ist zb. in GRID ein 3Ghz Wolfdale genauso schnell wie ein 3Ghz i7. Das ist völliger Blödsinn und zeigt nur, dass die verwendete Testszene extrem (praktisch 100%) gpu-limitiert ist. Hier siehst du wie gut ein i7 mit GRID skaliert wenn man eine entsprechende Szene auswählt.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=455727
Wir haben natürlich nur 640x480 genommen um ein 100%-iges CPU-Limit zu gewährleisten. Der i7 @3,5Ghz ist so schnell, dass selbst in 640x480 die HD4890 schon anfängt langsam zu limitieren. Wir hätten eigentlich besser die CPUs langsamer takten sollen, schließlich kann man weder einen Yorkfield, einen Phenom 2 noch einen i7 mit 3,5Ghz kaufen.
Wenn wir die gleiche Szene mit 1680x1050 4xMSAA/16xAF messen wird sicherlich der Vorsprung des i7 von ~50% etwas schrumpfen (weil eben die Graka anfängt zu limitieren), er wird aber immer noch erheblich schneller sein. Und das obwohl wir alle einen Quad verwendet haben. CB will uns weiß machen, dass in GRID ein Dualcore @Wolfdale genauso schnell ist wie ein gleichgetakteter i7, und das obwohl GRID ganz gut mit 3 Cores skaliert. :hammer:
Hier noch ein kleines Beispiel falls wieder die üblichen Verdächtigen ankommen und behaupten die Tests @640x480 wären absolut praxisfremd.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7450598&postcount=84
Ich finde der Test ist für mindestens 90% der Leserschaft mehr als ausreichend und eine gute Hilfe beim Hardwarekauf.
Es ist genau das Gegenteil. Mit diesen Tests gaukelt CB dem User vor die CPU XY würde noch hier und da für flüssige Frameraten reichen. Eine Timedemo spiegelt nie die tatsächlichen Ingameframeraten wieder. Außerdem besteht ein Spiel aus zig tausenden Szenen die ständig zwischen CPU- und GPU-Limits wechseln können. Für einen Hardwarekauf müsstest du einen Frameverlauf für das gesamte Spiel erstellen. Und selbst damit hättest du nur ein Grafiksetting erfasst. Soll heißen - wenn du es mit 1280x1024 4xMSAA/16xAF vermisst sagt das wieder für einen User der nur in 1920x1200 4xMSAA/16xAF spielt nicht mehr viel aus.
@dargo: dann bench halt selbst, hol dir auf deine Ergebnisse einen runter, aber lass es doch mal bleiben, für Spieler relaistische Benchmarks als Orientierungshilfe ständig runterzumachen. Nicht jeder hat Lust/Zeit bis ins kleinste Detail alles auzuloten.
Auch für dich nochmal, an den Game-Benchmarks der CB und Co ist gar nichts realistisch oder praxisnah.
Botcruscher
2009-08-08, 10:51:12
Ich versteh auch nicht, weshalb hier immer gemeckert wird. CB macht es richtig, dass einmal realitätsnahe Szenarien genutzt werden und dann noch einmal realitätsferne Tests. Was bringt es mir als Gamer, wenn in 800x600 und minimalen Settings gebencht wird? Ich will wissen, was die CPU im normalen Spielbetrieb leistet und da gibt der Test einen guten Überblick.
Richtig und genau das muss man der CB zugute halten. 800x600 Extremsituation hat für einen Spieler genau so wenig Aussagekraft wie GPU Limit für die CPU Leistung. Es ist schlicht der Mittelwert mit Blick auf die Zielgruppe. Über die Grafikkarte kann man sich natürlich streiten.
Eine Timedemo spiegelt nie die tatsächlichen Ingameframeraten wieder. .
Das macht ein nach möglichst hoher CPU Last ausgewälter Save auch nicht. Ich würde den Sommer auch nicht nach den heute gemessenen Temperaturen bewerten.
Hier noch ein kleines Beispiel falls wieder die üblichen Verdächtigen ankommen und behaupten die Tests @640x480 wären absolut praxisfremd.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7450598&postcount=84
Praxisfremd bedeutet nicht das man die CPU nur danach bewerten sollte sondern das die Ergebnisse unter sonst nicht genutzten Bedingungen auftreten. Für eine Bewertung der absoluten Leistung gibt es syntetische Tests. Dein Savegame ist auch nur ein syntetischer Test mit einem Hauch realworld.
boxleitnerb
2009-08-08, 10:55:58
Dann wäre es doch praktisch, sich eine solche Szene herzunehmen, die so fordernd ist wie nur irgend möglich und dort über ein, zwei Minuten oder so einen Frameverlauf zu machen. Wenn es dort flüssig läuft, läuft es überall flüssig (in diesem Spiel und solange die GPU nicht irgendwo limitiert).
Was interessiert mich, ob ich irgendwo 70 oder 80 Frames habe? Mich interessiert, ob ich nicht unter eine bestimmte Grenze komme (und wenn, dann nur sehr kurz). Wenn ich dieses Worstcase Szenario bestehe, ist das doch schon ein sehr guter Anhaltspunkt dafür, dass das Spiel was die CPU angeht sauber laufen wird und zwar überall.
So arg zeitaufwändig ist das nicht denke ich, kann man doch auch mit fraps aufnehmen, während man spielt.
dargo
2009-08-08, 10:56:17
Lern mal endlich zu begreifen, dass es nicht die Benchmarkmethode gibt, sondern unterschiedliche Anforderungen unterschiedliche Benchmarks erfordern, ich für meinen Teil bevorzuge die relitätsnahen. Wenns dir Spaß macht den lieben langen Tag zu benchen kein Thema, es gibt aber Leute, die noch andere Dinge zu tun haben und einfach nur einen Überblick wollen, ohne sich an den Details aufzugeilen.
Man sollte erstmal Benchmarks (vom Testsystem angefangen bis hin zu Angaben wie stark die jeweilige Testszene gpu- oder cpu-limitiert ist) richtig interpretieren/verstehen können. Und das tun, wie ich leider oft in 3DC sehe, nur die wenigsten.
Das macht ein nach möglichst hoher CPU Last ausgewälter Save auch nicht.
Richtig, hast du aber meinen Post #26 auch zu Ende gelesen?
Dann wäre es doch praktisch, sich eine solche Szene herzunehmen, die so fordernd ist wie nur irgend möglich und dort über ein, zwei Minuten oder so einen Frameverlauf zu machen. Wenn es dort flüssig läuft, läuft es überall flüssig (in diesem Spiel und solange die GPU nicht irgendwo limitiert).
Was interessiert mich, ob ich irgendwo 70 oder 80 Frames habe? Mich interessiert, ob ich nicht unter eine bestimmte Grenze komme (und wenn, dann nur sehr kurz). Wenn ich dieses Worstcase Szenario bestehe, ist das doch schon ein sehr guter Anhaltspunkt dafür, dass das Spiel was die CPU angeht sauber laufen wird und zwar überall.
So arg zeitaufwändig ist das nicht denke ich, kann man doch auch mit fraps aufnehmen, während man spielt.
Das ist leider nicht so einfach wie du dir das vorstellst. In zwei Minuten kann eine Menge passieren. Du kannst zwar die zwei Minuten mühelos mit Fraps erfassen, wenn du aber dann eine andere CPU benchmarkst gibts hierbei zwei Probleme die exakte Vergleichbarkeit praktisch unmöglich macht:
1. Du müsstest exakt im Spiel so vorgehen wie bei der ersten CPU, was praktisch unmöglich ist.
2. In zwei Minuten kann die KI völlig anders reagieren was das Ergebnis verfälscht.
Das ist auch der Grund warum ich mich bei meinen CPU-Tests nur auf 5 Sekunden-Szenen beschränke. In diesen 5 Sekunden werden "Störvariablen" praktisch eliminiert. Du hast immer exakte Vergleichbarkeit.
Botcruscher
2009-08-08, 11:07:04
Richtig, hast du aber meinen Post #26 auch zu Ende gelesen?
Ja. Wir haben das Thema auch nun wirklich nicht zum ersten mal. Die Wahrheit ist nunmal das für einen Spieler werder Savegames/syntetische Test noch Praxis wirklich aussagekräftig sind. Die Wirklichkeit liegt irgendwo dazwischen. Genau deswegen halte ich die Aufteilung in praxisnah und praxisfern für richtig. Das bei letzterem nicht die GPU limitieren sollte dürfte klar sein. Womit man CB durchaus die Graka und Testsetings ankreiden muss.
puntarenas
2009-08-08, 11:10:56
Ich würde den Sommer auch nicht nach den heute gemessenen Temperaturen bewerten.
Schade, kein Autovergleich. ;)
Kommt natürlich darauf an, was deine Anforderungen sind. Möchtest du deine Klimaanlage so dimensionieren, dass sie stets eine bestimmte Raumtemperatur gewährleisten kann, dann bist du gut beraten den heißesten Tag des Sommers als Maßstab zu nehmen. Natürlich ist das Ding dann voraussichtlich an den meisten Tagen des Sommers überdimensioniert.
Zurück zum "CPU-Test", der Vorteil von Extremsettings ist die weitgehende Übertragbarkeit bei gleichzeitiger Beschränkung auf eine beherrschbare Anzahl von Benchmarks. Den Anspruch, die Realität in den Kinderzimmern Arbeitszimmern der Leser nachzustellen und dabei brauchbare Ergebnisse zu liefern, kann man meiner Meinung nach nur erfüllen, wenn man ungleich mehr Szenen durchackert und eine ausführliche Analyse mitliefert und selbst dann hat man am Ende nur eine bestimmte CPU/GPU-Kombination in einem konkreten Spiel erschlagen.
Mr.Fency Pants
2009-08-08, 11:22:09
Die realitätsfernen sind für mich dort uninteressant. Kritisiert werden die eigentlichen Spielebenchmarks. Es wird dort seit Ewigkeiten mit der 9800 GTX+
und auch mit 10 Monate alten Treiber getestet. Das heißt die 9800 GTX+ ist noch langsamer sie es sein müsste. Seit 178.24 gabs nämlich erwähnswerte performance Steigerungen. So kann wenig nützliches rauskommen bei den Spieletests.
Ok, beim Treiber gebe ich dir Recht, aber es kommt natürlich auf die Zielgruppe an und wenn da Hauptsächlich Grakas der 9800 GTX+ Klasse vorkommen (ich weiss es natürlich nicht genau), dann kann man CB wohl kaum nen Strick draus drehen, dass sie ihre Zielgruppe bedienen möchten.
@dargo: selbst wenn du dich an einigen GPU Limits aufhängst (ich weiss schon was du meinst, nämlich dass die unterschiedlichen CPUs ihr eigenes Potential aufgrund der GPU nicht voll ausspielen können, ABER ein Limit wird es immer und überall geben): CB zieht die richtigen Schlüsse im Fazit und kommt zu realistischen Ergebnissen, was die einzelnen CPUs angeht.
dargo
2009-08-08, 11:27:23
Ja. Wir haben das Thema auch nun wirklich nicht zum ersten mal. Die Wahrheit ist nunmal das für einen Spieler werder Savegames/syntetische Test noch Praxis wirklich aussagekräftig sind. Die Wirklichkeit liegt irgendwo dazwischen. Genau deswegen halte ich die Aufteilung in praxisnah und praxisfern für richtig.
Eins möchte ich noch beifügen - Savegames ist das einzig richtige wenn man praxisnah benchen will. Denn wie ich schon sagte, Timedemos haben nichts mit der tatsächlichen Ingame-Framerate zu tun. Timedemos haben nur einen einzigen Zweck, nämlich mir zu zeigen um welchen Faktor Grafikkarte X schneller ist als Grafikkarte Y. Natürlich sollte man auch hier darauf achten nicht ins CPU-Limit zu rutschen.
Will man jetzt wirklich praxisnah benchen müsste man Savegames in der jeweiligen Auflösung und AA/AF Stufe vom Gamer wählen. Nur hier tritt das von mir erwähnte Problem auf - man wird es nie einem recht machen können, denn jeder spielt mit anderen Settings. Und bei anderen Settings verschieben sich selbstverständlich die jeweiligen Limits.
@dargo: selbst wenn du dich an einigen GPU Limits aufhängst (ich weiss schon was du meinst, nämlich dass die unterschiedlichen CPUs ihr eigenes Potential aufgrund der GPU nicht voll ausspielen können, ABER ein Limit wird es immer und überall geben): CB zieht die richtigen Schlüsse im Fazit und kommt zu realistischen Ergebnissen, was die einzelnen CPUs angeht.
Nein, das tun sie nicht.
Die Prozessoren im Einsteigerbereich aber auch in der unteren Mittelklasse müssen sich keinesfalls verstecken. Sowohl Intel aber allen voran AMD bieten Prozessoren mit sehr guter Leistung für relativ kleines Geld an, so dass man sich immer fragen muss, warum man denn das Dreifache ausgeben sollte, wenn es nur um reine CPU-Leistung geht. Denn diese reine Prozessorleistung wird heutzutage selten abverlangt, eine ordentliche Plattform mit passendem Speicher aber vor allem die Grafikkarte sind deutlich wichtiger geworden.
Das ist völliger Quatsch den CB aus ihren absurden Benchmarks ableitet.
Mr.Fency Pants
2009-08-08, 11:37:20
Du solltest nicht deine eigenen Ansprüche als allgemeingültig hinstellen. Was ist bitte Quatsch daran, dass CPUs der unteren Mittelklasse nicht ausreichen? Man muss keine 150€ oder mehr für eine zockfähige CPU hinlegen, da ist man schon bei E6300 für 66€ gut dabei.
Das ist völliger Quatsch den CB aus ihren absurden Benchmarks ableitet.
Schlimm ist, das dies im Forum noch nach Kräften verteidigt wird.
Du solltest nicht deine eigenen Ansprüche als allgemeingültig hinstellen. Was ist bitte Quatsch daran, dass CPUs der unteren Mittelklasse nicht ausreichen? Man muss keine 150€ oder mehr für eine zockfähige CPU hinlegen, da ist man schon bei E6300 für 66€ gut dabei.
Ausreichen für was?
Schon klar, für die dort getesten Timedemos. Ich bin mir sicher, das diese Timedemos dieser enorm wichtigen Spiele tag ein tag aus gespielt werden.
Mr.Fency Pants
2009-08-08, 11:47:13
Du meinst also, dass ein C2D mit ca. 3GHz heutzutage nicht mehr zum Zocken ausreicht? Da muss es direkt ein Quad mit 4GHz sein, oder wie?
dargo
2009-08-08, 11:51:03
Was ist bitte Quatsch daran, dass CPUs der unteren Mittelklasse nicht ausreichen? Man muss keine 150€ oder mehr für eine zockfähige CPU hinlegen, da ist man schon bei E6300 für 66€ gut dabei.
Hier nochmal fett:
Denn diese reine Prozessorleistung wird heutzutage selten abverlangt, eine ordentliche Plattform mit passendem Speicher aber vor allem die Grafikkarte sind deutlich wichtiger geworden.
Übrigens - wenn ich mir 3x diesen Satz durchlese dann weiß ich nicht ob ich lachen oder heulen soll? Ein ordentliches Mainboard mit passendem Speicher ist also wichtiger als die reine Prozessorleistung? :ucrazy:
Im Klartext also - man ist mit einem P45-Brett inkl. E7200 und DDR3-2000 besser dran als mit einem P43-Brett inkl. Q9550 und DDR2-800, um jetzt mal zwei Extrembeispiele zu nennen? :|
PS: ein E6300 reicht heute bei vielen Games nicht mehr aus um ~30fps bei max. Details halten zu können. Und um ehrlich zu sein wären mir auf Dauer 30fps auch zu wenig. Ich spiele lieber mit min. 40-45fps. Gut, ab und zu gibt es auch Ausnahmen (enginebedingt) wo mir auch 30-35 min. fps reichen.
Habe ich nicht geschrieben.
Liegt eben am Spiel, an den Einstellungen, an der Szene und dem persöhnlichen FPS Bedürfniss.
Ich komme derzeit auch mit einem uralten 3,3Ghz Quad zurecht, obwohl es auch einige Situationen gibt, wo ich mir bedeutend mehr Leistung wünsche.
Dies ignoriert der CB Test völlig.
Man muss nicht wegen einem Spiel gleich xxx € ausgeben, dennoch darf dies der Test nicht verschweigen, das es dieses Spiel gibt.
boxleitnerb
2009-08-08, 11:55:41
Ich glaube nicht, dass der Gast genau das sagen will. Beide CPUs können im spielbaren Bereich liegen, aber durch den Test wird der mögliche (!) Unterschied nicht aufgezeigt. Das ist kein guter Test.
Klar, bei Hardware gibt es nur bedingt Zukunftssicherheit. Aaaaaaber: Der CB-Test suggeriert, dass die CPUs viel näher zusammenliegen, als sie es wirklich tun. Das hat z.B. zur Folge, dass CPU A innerhalb einer Lebenszeit von sagen wir 2 Jahren deutlich früher die Puste ausgeht als CPU B, obwohl man aufgrund des Tests meinen sollte, dass sie ungefähr gleichauf liegen...eben weil der Leistungsunterschied durch die falsche Testmethodik nicht sichtbar ist.
Also ich will auch noch ein Jahr lang nach dem CPU-Kauf gute/ausreichende Leistung haben. Die Anforderungen wachsen ja in der Lebenszeit mit. DAS ist das Problem, auch wenn "jetzt" noch alles (einigermaßen) läuft. Dazu kommt, dass immer mehr Spiele QCs nutzen. Mit einem solchen Prozessor hat man dann natürlich Reserven, die man jetzt noch nicht so sieht - erst recht nicht bei diesem Test.
Alles, was ich gesagt habe, weiß jemand, der sich ein bisschen Gedanken macht natürlich selbst. Aber weiß es auch der Noob, der den Test für bare Münze nimmt und denkt, CPUs A und B sind beinahe gleich schnell?
Übrigens - wenn ich mir 3x diesen Satz durchlese dann weiß ich nicht ob ich lachen oder heulen soll? Ein ordentliches Mainboard mit passendem Speicher ist also wichtiger als die reine Prozessorleistung? :ucrazy:
Im Klartext also - man ist mit einem P45-Brett inkl. E7200 und DDR3-2000 besser dran als mit einem P43-Brett inkl. Q9550 und DDR2-800, um jetzt mal zwei Extrembeispiele zu nennen? :|
Vielleicht will CB damit auch ausdrücken, das viel Speicher wichtig ist.
All die 32bit Spiele werden sich über mehr als 4GiB freuen. :ugly:
Schlammsau
2009-08-08, 11:58:20
Ich glaube nicht, dass der Gast genau das sagen will. Beide CPUs können im spielbaren Bereich liegen, aber durch den Test wird der mögliche (!) Unterschied nicht aufgezeigt. Das ist kein guter Test.
Doch und zwar ist er ersichtlich an den Min. FPS. Meistens zumindest!
dargo
2009-08-08, 11:59:52
Du meinst also, dass ein C2D mit ca. 3GHz heutzutage nicht mehr zum Zocken ausreicht? Da muss es direkt ein Quad mit 4GHz sein, oder wie?
Schau dir doch einfach mal meine Tests an:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=440739
Da gibts schon einige Kandidaten wo ein 2Ghz C2D (hier sollte aber eins beachtet werden - der von mir getestete 2Ghz C2D läuft mit 7x 286Mhz FSB, ist also was den "Flaschenhals" FSB angeht gegenüber einem 2Ghz Allendale nicht nur beim Cache im Vorteil) um die 30fps und sogar drunter liegt.
PS: hast du nicht vorher von einem E6300 gesprochen? Jetzt ist es plötzlich ein 3Ghz C2D?
Vielleicht will CB damit auch ausdrücken, das viel Speicher wichtig ist.
All die 32bit Spiele werden sich über mehr als 4GiB freuen. :ugly:
;D
Doch und zwar ist er ersichtlich an den Min. FPS. Meistens zumindest!
Min. fps bitte immer mit Vorsicht genießen (vor allem bei Savegames). Es reicht schon, dass die Engine leichte Probleme beim Streaming hat und schon hast du kurzzeitig einen Frameeinbruch. Das sagt aber nichts über die Leistung der CPU aus.
AnarchX
2009-08-08, 12:07:18
PS: hast du nicht vorher von einem E6300 gesprochen? Jetzt ist es plötzlich ein 3Ghz C2D?
Er meint wohl den P-D E6300 und nicht den C2D.
Sonyfreak
2009-08-08, 12:08:07
PS: hast du nicht vorher von einem E6300 gesprochen? Jetzt ist es plötzlich ein 3Ghz C2D?Er meint vermutlich den Pentium E6300 (http://www.computerbase.de/news/hardware/prozessoren/intel/2009/mai/intel_pentium_e6300/).
mfg.
Sonyfreak
Mr.Fency Pants
2009-08-08, 12:10:13
Schau dir doch einfach mal meine Tests an:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=440739
Da gibts schon einige Kandidaten wo ein 2Ghz C2D (hier sollte aber eins beachtet werden - der von mir getestete 2Ghz C2D läuft mit 7x 286Mhz FSB, ist also was den "Flaschenhals" FSB angeht gegenüber einem 2Ghz Allendale nicht nur beim Cache im Vorteil) um die 30fps und sogar drunter liegt.
PS: hast du nicht vorher von einem E6300 gesprochen? Jetzt ist es plötzlich ein 3Ghz C2D?
;D
Min. fps bitte immer mit Vorsicht genießen (vor allem bei Savegames). Es reicht schon, dass die Engine leichte Probleme beim Streaming hat und schon hast du kurzzeitig einen Frameeinbruch. Das sagt aber nichts über die Leistung der CPU aus.
Jau, ich meinte natürlich den E6300 und zu deinen Tests: ist vielleicht für "Freaks" interessant, aber doch für niemanden, der in realistischen Settings spielen will. Mich als Gamer interessiert nicht eine Tendenz unter nicht alltäglichen Settings, sondern ob ich mit meiner CPU aktuelle Spiele spielen kann und das ist mit einem E4300 oder E6300 @3GHz definitiv möglich. Ist ja schön, dass du dich für das Thema so begeistern kannst, das ist den meisten Gamern aber schnuppe und deshalb sind die CB Tests imho deutlich besser für den Durchschnittsgamer geeignet als irgendwelche Theorie ohne Praxisbezug.
boxleitnerb
2009-08-08, 12:12:04
Dargo hat vollkommen Recht. Man müsste schon noch dazuschreiben, wieviel Prozent der Zeit im Benchmark der Minimumwert ca. +10% gemessen wurde bzw. wieviel Prozent der Zeit die Framerate unter einer bestimmten Schwelle lag.
FEAR1 bot sowas, leider auch nur Timedemo.
irgendwelche Theorie ohne Praxisbezug.
Damit meinst du nicht zufällig Timedemos?
dargo
2009-08-08, 12:16:20
Er meint wohl den P-D E6300 und nicht den C2D.
Achso... ich denke beim E6300 immer an den Allendale. :tongue:
Gut, der neue E6300 hat zwar 2,8Ghz, trotzdem aber nur 2MB Cache und mit 266Mhz etwas geringeren FSB als der von mir "simulierte" Wolfdale @2Ghz. Unterm Strich sollte also der neue E6300 gerade mal die 30fps in der von mir getesten FC2-Szene schaffen. Bei Crysis wird es nicht mehr für 30fps reichen.
Mich als Gamer interessiert nicht eine Tendenz unter nicht alltäglichen Settings, sondern ob ich mit meiner CPU aktuelle Spiele spielen kann und das ist mit einem E4300 oder E6300 @3GHz definitiv möglich. Ist ja schön, dass du dich für das Thema so begeistern kannst, das ist den meisten Gamern aber schnuppe und deshalb sind die CB Tests imho deutlich besser für den Durchschnittsgamer geeignet als irgendwelche Theorie ohne Praxisbezug.
Drücke ich mich wirklich so ungünstig aus oder ist das Thema doch für einige komplizierter als ich dachte?
Was ist bei dieser Szene deiner Meinung Theorie ohne Praxisbezug? :confused:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7450598&postcount=84
CPU-lastige Szenen gibts in sehr vielen Games. Mal weniger, mal stärker ausgeprägt.
Daredevil
2009-08-08, 12:30:51
Naja auf dem Screen passier Null komm nix, das muss man wohl auch erwähnen ( Ich bin allerdings Fan deiner 1-2-3-4 Kern Vergleiche! :) )
dargo
2009-08-08, 12:33:58
Naja auf dem Screen passier Null komm nix, das muss man wohl auch erwähnen
Umso schlimmer, dass die CPU-Last so hoch ist. Ich vermute mal hier wird schon berechnet was im Raum darunter passiert.
puntarenas
2009-08-08, 12:50:09
Drücke ich mich wirklich so ungünstig aus oder ist das Thema doch für einige komplizierter als ich dachte?
Teilweise vielleicht, ich vermute aber eher fundamentale Unterschiede in der Zielrichtung. Der Ansatz, belastbare Ergebnisse zu produzieren und von diesen eine Einschätzung abzuleiten ist staubtrocken. Andererseits gibt es einen großen Bedarf an Wohlfühlartikeln mit einem Fazit, das niemanden vor den Kopf stößt oder ausgrenzt. Günstige Hardware soll auch preis-/leistungstechnisch überzeugen, die Maxime steht, die Methodik ist zweitrangig. Wenn die Ergebnisse das Fazit zu untermauern scheinen ist das schön, wenn nicht aber auch egal. "Wir" definieren uns nunmal über den Konsum, wenn du meine Hardware anpinkelst, pinkelst du mir ans Bein. Meine Denkblockade aufzugeben würde richtig ins Geld gehen oder ich bräuchte ein neues Hobby.
Wenn du nüchtern an die Sache heran gehst kannst du das Fazit von Computerbase bereits mit einem einzigen Gegenbeispiel widerlegen, zeigst du Unzulänglichkeiten im Testsetup auf ist der gesamte Test wertlos und das Fazit hängt in der Luft. Zieht man sich auf die getesteten Spiele zurück reicht ebenfalls eine widersprüchliche Szene im jeweiligen Spiel um den Unsinn zu entlarven. Grund genug, dich als Überbringer schlechter Nachrichten zu hängen. Es kann einfach nicht sein, was nicht sein darf, der Eindruck drängt sich im CB-Forum förmlich auf.
Mal ehrlich, eine CPU für 100€ die in allen Lebenslagen locker ausreicht ist doch sexy! :)
dargo
2009-08-08, 13:01:06
Mal ehrlich, eine CPU für 100€ die in allen Lebenslagen locker ausreicht ist doch sexy! :)
Hehe, leider bleibt dies ein Wunschdenken. Und das "locker ausreicht" stößt uns wieder vor das alt bekannte Problem - wo gibt es eine feste Definition welche Framerate für den jeweiligen User locker ausreichend ist? :wink:
xiao didi *
2009-08-08, 13:10:15
zu deinen Tests: ist vielleicht für "Freaks" interessant, aber doch für niemanden, der in realistischen Settings spielen will. Mich als Gamer interessiert nicht eine Tendenz unter nicht alltäglichen Settings, sondern ob ich mit meiner CPU aktuelle Spiele spielen kann und das ist mit einem E4300 oder E6300 @3GHz definitiv möglich.
Du wirst aus dem Computerbase-Test nur niemals ablesen können wie zukunftssicher deine heute gekaufte CPU ist, weil die tatsächlichen Leistungsunterschiede gar nicht herausgefiltert werden. (Haben hier auch schon ein paar Leute geschrieben, ich erwähne es nur nochmal, da das offenbar gerne überlesen wird.)
Ich empfinde den CB-Test übrigens als wesentlich spezieller, als Dargos 1-2-3-4 Benchmarks. Bei Computerbase bekomme ich nur die Erkenntnis: "Ah, eine 9800+ (und nur die!) passt vielleicht gut zu CPU X."
Zu mehr taugt der Test nicht, und das auch nur mit Einschränkung.
dargo
2009-08-08, 13:15:56
Bei Computerbase bekomme ich nur die Erkenntnis: "Ah, eine 9800+ (und nur die!) passt vielleicht gut zu CPU X."
Zu mehr taugt der Test nicht, und das auch nur mit Einschränkung.
Wenn es denn so wäre, Stichwort - Timedemos. Aber das hast du sicherlich im letzten Satz mit Einschränkung gemeint. :)
Undertaker
2009-08-08, 13:43:21
Was bringt es mit einer schnelleren Graka zu benchen, wenn vielleicht nur 5% der weltweiten Gamerschaft, eine schnellere besitzen? Realitätsnah muss das Setting sein.
Bei einem Test im Preisbereich von 50-130€ mag man das vielleicht so sehen können. Ich sehe allerdings folgende Probleme:
1. Eine CPU wird im Regelfall seltener gewechselt als eine GPU. Es wäre für den Käufer eines Prozessors sehr informativ zu wissen, wie seine CPU mit steigender Grafikleistung noch nach oben skalieren kann. Wenn da aus 10% Vorsprung auf einmal 50% werden, lohnt vielleicht doch das etwas teurere CPU-Modell.
2. Warum testet CB dann Grafikkarten der 50€ Klasse, wie zuletzt z.B. eine HD4670, auf einem auf 4GHz übertakteten Extreme Edition Core 2, wortwörtlich mit der Begründung, um eine CPU-Limitierung auszuschließen? Genau das muss doch auch für CPU-Tests gesichert werden, externe Limitierungen sollen nicht das Ergebnis der Testprobanden beeinträchtigen.
Klingone mit Klampfe
2009-08-08, 13:44:22
Aus der Diskussion hier habe ich nur eines gelernt: Ein Test ist für Euch nur dann brauchbar, wenn Quads haushoch gewinnen. Ich wette, dass der erste Test mit Quads als klaren Siegern hier über den Klee gelobt werden wird, egal welche realitätsfernen Messmethoden zum Einsatz kommen.
xiao didi *
2009-08-08, 13:46:04
Wenn es denn so wäre, Stichwort - Timedemos. Aber das hast du sicherlich im letzten Satz mit Einschränkung gemeint. :)
Ja, die Timedemos und die unglückliche Wahl an Spielen.
Aber je mehr ich über den Test nachdenke und je öfter ich dieses völlig undifferenzierte, laienhafte Fazit lese, desto mehr komm ich zu dem Schluss, dass der Test nichtmal dafür taugt.
Aus der Diskussion hier habe ich nur eines gelernt: Ein Test ist für Euch nur dann brauchbar, wenn Quads haushoch gewinnen.
Schade, denn Dargo, boxleitnerb und Co. haben sehr schlüssige Argumente geliefert, warum der Test wenig aussagekräftig ist.
dargo
2009-08-08, 13:49:29
Aus der Diskussion hier habe ich nur eines gelernt: Ein Test ist für Euch nur dann brauchbar, wenn Quads haushoch gewinnen.
Dann hast du leider nichts gelernt. Das hat nichts mit Quadcores, Octacores oder was weiß ich zu tun. Es geht nur um die reine CPU-Leistung. Ob die durch mehrere Kerne oder wesentlich höhere Taktraten realisiert wird ist völlig belanglos. In beiden Fällen kannst du die Leistung mit Timedemos und/oder gpu-limitierten Szenen nicht zeigen.
Edit:
Eins möchte ich noch hinzufügen. Dass ich eine Quad verwende ist der normale Fortschritt bei den CPUs und hat nichts mit irgendwelchem in den Himmel loben der Quads zu tun. Gäbe es heute einen Wolfdale mit ~6-7Ghz würde ich den bei gleichem Preis und Verbrauch ganz klar einem 3,7Ghz Yorkfield vorziehen. Ganz einfach deshalb weil heutige Games einen Quadcore nicht vollständig auslasten können. Beim Triplecore sieht es schon anders aus. Dafür gibts schon einige Kandidaten. Mit einem extrem hochgetakteten C2D ist man aber selbst bei älteren Games (vor ca. 2007) besser dran.
boxleitnerb
2009-08-08, 13:49:32
Aus der Diskussion hier habe ich nur eines gelernt: Ein Test ist für Euch nur dann brauchbar, wenn Quads haushoch gewinnen. Ich wette, dass der erste Test mit Quads als klaren Siegern hier über den Klee gelobt werden wird, egal welche realitätsfernen Messmethoden zum Einsatz kommen.
gelöscht, Dargo hats schon gut gesagt.
dargo
2009-08-08, 14:33:27
Ja, die Timedemos und die unglückliche Wahl an Spielen.
Hier hast du vollkommen recht, das hatte ich noch gar nicht erwähnt. Man verwendet zum Teil Games die erstens eine eher geringe CPU-Last haben und zweitens tauchen dort einige Games auf die gar nicht in der Lage sind mit mehr als 2 Cores zu skalieren.
Um nochmal zu zeigen wie hoch der Unterschied zwischen Timedemos und Savegames sein kann empfehle ich den intergrierten Benchmark von FC2. CB kommt mit einem E7200 (der in etwa einem 2Ghz Wolfdale entspricht, vielleicht mit geringen Vorteilen für den E7200) auf 50fps (mit einer GTX260, die ich ja habe dürfte dieser Wert noch etwas steigen):
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_19_prozessoren_50_130_euro/20/
Ich liege in meiner Szene bei 24fps:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=440739
Wir reden hier von minus ~50% CPU-Last in einer Timedemo. Oder anders ausgedrückt, die Timedemo gaukelt mir doppelt so hohe Frameraten vor. Natürlich kann man das nicht exakt miteinander vergleichen da im intergrierten Benchmark andere Szenen ablaufen als in meinem Savegame. Ich möchte damit nur aufzeigen, dass die Frameraten der Timedemos in der Regel sehr weit von den tatsächlichen Ingame-Frameraten entfernt sind.
Bei Crysis siehts ähnlich aus - CB (http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_19_prozessoren_50_130_euro/19/) kommt auf ~37, ich (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=440739) auf ~20fps.
mapel110
2009-08-08, 14:36:38
Dann hast du leider nichts gelernt. Das hat nichts mit Quadcores, Octacores oder was weiß ich zu tun. Es geht nur um die reine CPU-Leistung. Ob die durch mehrere Kerne oder wesentlich höhere Taktraten realisiert wird ist völlig belanglos. In beiden Fällen kannst du die Leistung mit Timedemos und/oder gpu-limitierten Szenen nicht zeigen.
Ist ja schön, aber bei Non-Game-Benchmarks siehts für den Quad auch nicht gerade toll aus. Mp3-Konvertierung oder Winrar beispielsweise, überall ist man mit einem schnellen DualCore auch noch gut dran und der Zugewinn des Quads hält sich stark in Grenzen. Da kann mans nicht auf die Grafikkarte oder Timedemos schieben.
dargo
2009-08-08, 14:42:11
Ist ja schön, aber bei Non-Game-Benchmarks siehts für den Quad auch nicht gerade toll aus. Mp3-Konvertierung oder Winrar beispielsweise, überall ist man mit einem schnellen DualCore auch noch gut dran und der Zugewinn des Quads hält sich stark in Grenzen. Da kann mans nicht auf die Grafikkarte oder Timedemos schieben.
Das mag ja sein. Nur sind erstens deine genannten Bereiche nicht mein Haupteinsatzgebiet und zweitens gibts bei diesen Bereichen aus meiner Sicht bei CB, was die Benchmarks angeht nichts zu kritisieren.
y33H@
2009-08-08, 15:01:58
Um dargo mal ein wenig Schützenhilfe zu geben: Hier noch ein kleines Beispiel, falls wieder die üblichen Verdächtigen ankommen und behaupten die Tests @640x480 wären absolut praxisfremd:Ich habe mal mit dem i7 in Prototype [60sec auf dem Times Square] gespielt.
[Core i7-920 @ SMT/TM off, GTX280 @ 186.18 HQ, Asus P6T, 6G DDR3-1333 @ 7-7-7-21, Cores per BIOS deaktiviert, Vista Ultimate x64]
2 Cores; 640 x 480, no AA/AF
Avg: 38.600 - Min: 25 - Max: 52
Avg: 38.616 - Min: 25 - Max: 51
4 Cores; 640 x 480, no AA/AF
Avg: 60.316 - Min: 49 - Max: 109
Avg: 60.483 - Min: 50 - Max: 111
2 Cores; 1.920 x 1.200, 4x MSAA/16:1 AF
Avg: 38.660 - Min: 25 - Max: 52
Avg: 38.700 - Min: 24 - Max: 52
4 Cores; 1.920 x 1.200, 4x MSAA/16:1 AF
Avg: 49.933 - Min: 33 - Max: 67
Avg: 49.750 - Min: 34 - Max: 69
Wie man sieht, beträgt auf einem QC der Unterschied zwischen 640 x 480, no AA/AF und 1.920 x 1.200, 4x MSAA/16:1 AF nur rund 20%, auf dem DC 0%!
Ich verstehe das Problem mit den Timedemos nicht. Diese sind doch nur dann ein Problem, wenn trotz low Res+Details immernoch eine GPU-Limitierung vorliegt. Ansonsten sollten die prozentualen Unterschiede der CPUs doch verglichen mit echten Spielszenen identisch sein.
dargo
2009-08-08, 15:23:04
Wie man sieht, beträgt auf einem QC der Unterschied zwischen 640 x 480, no AA/AF und 1.920 x 1.200, 4x MSAA/16:1 AF nur rund 20%, auf dem DC 0%!
Hmm, ich sehe da +29%. :) Falsch verstanden. :redface:
Ich verstehe das Problem mit den Timedemos nicht. Diese sind doch nur dann ein Problem, wenn trotz low Res+Details immernoch eine GPU-Limitierung vorliegt. Ansonsten sollten die prozentualen Unterschiede der CPUs doch verglichen mit echten Spielszenen identisch sein.
Low-Details sind unbrauchbar da einige Details CPU-Leistung kosten. Mit Low-Details verringerst du wieder die CPU-Last was wir ja nicht wollen.
y33H@
2009-08-08, 15:27:14
Steh ich auf dem Schlauch?
Low-Details sind unbrauchbar da einige Details CPU-Leistung kosten. Mit Low-Details verringerst du wieder die CPU-Last was wir ja nicht wollen.
Das habe ich mir grade nach genauerer Betrachtung des Tests (Spiele vs. Realitätsfern) zusammengereimt, danke für die Bestätigung. Allerdings hat man bei normalen Details (z.B. Physik, die zusätzliche Belastung durch DrawCalls(?) ist wohl vernachlässigbar, wie auch yeehas Vergleich zeigt - sonst hätte der 2core auch FPS verlieren müssen) wieder das Problem, eher in der Grafiklimitierung zu landen.
dargo
2009-08-08, 15:35:50
Steh ich auf dem Schlauch?
Ich habe dich missverstanden. Hast es aber auch seltsam formuliert. ;)
Ich hätte es so geschrieben:
Wie man sieht, legt der QC trotz 1920x1200 4xMSAA/16xAF gegenüber dem DC und 640x480 1xAA/1xAF immer noch um 29% zu.
Dabei sollte beachtet werden, dass ein 2,66Ghz i7 in etwa einem 4-4,2Ghz Yorkfield entspricht. Haut man da eine kommende GTX380 rein ist man ruck zuck in 1920x1200 4xMSAA/16xAF wieder extrem cpu-limitiert. Das selbe passiert jetzt schon wenn man einen selbst übertakteten Wolfdale mit einer GTX260/280 in besagten Settings kombiniert.
y33H@
2009-08-08, 15:42:11
i5 und i7 rocken jetzt schon ziemlich, mit RV870 und GT300 schiebt sich das GPU-Limit weiter nach oben. Und der schnellste QC, der E8600, ist schon jetzt teils lahmer als ein Q6600. Ausgehend davon, dass sich PS3 und 360 noch rund 2 Jahre halten werden, werden wir sicherlich noch mehr Titel wie GTA4, Ghostbusters und Prototype sehen.
dargo
2009-08-08, 15:42:45
Allerdings hat man bei normalen Details (z.B. Physik, die zusätzliche Belastung durch DrawCalls(?) ist wohl vernachlässigbar, wie auch yeehas Vergleich zeigt - sonst hätte der 2core auch FPS verlieren müssen) wieder das Problem, eher in der Grafiklimitierung zu landen.
Nicht unbedingt wenn man nicht gerade eine lustige Kombination aus einem i7 bis zu 3,33Ghz und einer G9800GTX+ aufstellt. *hust*
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_intel_core_i7_950_975_extreme_edition/2/
Zusätzlich muss man natürlich auch cpu-lastige Szenen (vorzugsweise Szenen in denen viel los ist) suchen und nicht einfach x-beliebige Szene nehmen und losbenchen. Die Krönung des ganzen sind natürlich Timedemos.
Ich muss allerdings zugeben, dass das Benchen von CPUs in Games immer schwieriger wird weil die Entwickler der Meinung sind - freies Speichern brauchen wir nicht. :(
Mark3Dfx
2009-08-08, 15:58:47
i5 und i7 rocken jetzt schon ziemlich, mit RV870 und GT300 schiebt sich das GPU-Limit weiter nach oben. Und der schnellste QC, der E8600, ist schon jetzt teils lahmer als ein Q6600. Ausgehend davon, dass sich PS3 und 360 noch rund 2 Jahre halten werden, werden wir sicherlich noch mehr Titel wie GTA4, Ghostbusters und Prototype sehen.
Siehst du dargo? Hier hast du die Folgen von dargo & Co ;)
BlackBirdSR
2009-08-08, 16:07:08
-In Timedemos wird die CPU doch auch belastet.
Das wird sie beim booten auch!
Insgesamt vermisse ich den konkreten Sinn. Was will man speziell aussagen und was speziell kann sich der Leser davon ableiten? Hat man so eine Aussage und eicht man seinen Artikel auch darauf, dann kann das prinzipiell auch mit einer langsameren Grafikkarte in Ordnung gehen.
dargo
2009-08-08, 16:07:30
@Mark3Dfx
Zum Glück ist y33H einer der wenigen 3DC-Member der das Thema auch verstanden und am eigenen Rechner nachgestellt hat. Wie ich sehe ist selbst 1920x1200 4xMSAA/16xAF für dich praxisfremd. Man kann dir vorzeigen was man will, du willst es gar nicht verstehen. puntarenas hat es hier verdammt treffend formuliert:
Teilweise vielleicht, ich vermute aber eher fundamentale Unterschiede in der Zielrichtung. Der Ansatz, belastbare Ergebnisse zu produzieren und von diesen eine Einschätzung abzuleiten ist staubtrocken. Andererseits gibt es einen großen Bedarf an Wohlfühlartikeln mit einem Fazit, das niemanden vor den Kopf stößt oder ausgrenzt. Günstige Hardware soll auch preis-/leistungstechnisch überzeugen, die Maxime steht, die Methodik ist zweitrangig. Wenn die Ergebnisse das Fazit zu untermauern scheinen ist das schön, wenn nicht aber auch egal. "Wir" definieren uns nunmal über den Konsum, wenn du meine Hardware anpinkelst, pinkelst du mir ans Bein. Meine Denkblockade aufzugeben würde richtig ins Geld gehen oder ich bräuchte ein neues Hobby.
Wenn du nüchtern an die Sache heran gehst kannst du das Fazit von Computerbase bereits mit einem einzigen Gegenbeispiel widerlegen, zeigst du Unzulänglichkeiten im Testsetup auf ist der gesamte Test wertlos und das Fazit hängt in der Luft. Zieht man sich auf die getesteten Spiele zurück reicht ebenfalls eine widersprüchliche Szene im jeweiligen Spiel um den Unsinn zu entlarven. Grund genug, dich als Überbringer schlechter Nachrichten zu hängen. Es kann einfach nicht sein, was nicht sein darf, der Eindruck drängt sich im CB-Forum förmlich auf.
Das wird sie beim booten auch!
Lol, der war gut. ;D
Insgesamt vermisse ich den konkreten Sinn. Was will man speziell aussagen und was speziell kann sich der Leser davon ableiten?
Leider können die meisten davon nichts ableiten und werden nur irregeführt. Nehmen wir doch einfach mal das Beispiel mit dem E7200 und FC2. CB kommt dort auf 50 avg.fps. Das soll wohl dem User zeigen er könnte mit der besagten CPU in Verbindung mit einer G9800GTX+ in den von CB verwendeten Settings FC2 durchgehend mit 50fps spielen. Na dann viel Spaß damit. :ugly:
y33H@
2009-08-08, 16:21:20
Zum Glück ist y33H einer der wenigen 3DC-Member der das Thema auch verstanden und am eigenen Rechner nachgestellt hat. Schön schön ;D
Ich bin nach wie vor der Ansicht, CPUs testet man möglichst ohne Grafiklimit, sollte es aber nicht übertreiben. idR also die schnellste SGPU-Karte und eine Auflösung wie 1280 oder 1680, Zusatztests mit 800x600 sind interessant, aber nicht zwingend nötig. Anschließend benötigt man eine sehr CPU-limitierte Szene, nahe am Worst-Case. So weiß man, was die CPU maximal zu leisten hat, wer hier passable Frames erreicht, muss sich zumindest hinsichtlich der nötigen CPU-Power im restlichen Spiel keine Sorgen machen.
BlackBirdSR
2009-08-08, 16:28:17
Ich verstehe das Problem mit den Timedemos nicht. Diese sind doch nur dann ein Problem, wenn trotz low Res+Details immernoch eine GPU-Limitierung vorliegt. Ansonsten sollten die prozentualen Unterschiede der CPUs doch verglichen mit echten Spielszenen identisch sein.
Leider gibts da immer Probleme. Das beginnt bei Usereingaben, geht über die KI, Soundberechnungen, Speichermanagement, Physik und schließlich Prefetching. Je nach Spiel sind all diese Faktoren unterschiedlich stark im Rückstand gegenüber einer echten Spielszene.
Daher kommen diese großen Unterschiede zwischen Savegame und Timedemo. Jetzt mag der Unterschied zwischen 2 CPUs mit 10% sich vielleicht auch von einem Timedemo ins Spiel übertragen lassen. Das ist allerdings eine sehr unsicherere Annahme, woher kommt denn das CPU-Limit im Timedemo? Und woher kommts im Spiel?
Ich habs bei den Tests Vista gegen XP gemerkt.. die Unterschiede können im Spiel gewaltig sein. Mit einem Timedemo tauchen sie aber gar nicht erst auf.
So aufwändig es auch ist: Savegames, Spieleszenen und Frameverläufe sind aktuell die beste Möglichkeit. Es mag optimaleres geben, das hat aber noch keiner entwickelt.
Dann teste ich halt keine 19 CPUs, sondern nur 4 Archetypen und habe dafür handfeste, skalierbare Aussagen. Ist ja nicht so, dass Phenom II besser bei Pysik ist, der AthlonII dafür in KI total verliert...
Eggcake
2009-08-08, 16:39:44
Schön schön ;D
Ich bin nach wie vor der Ansicht, CPUs testet man möglichst ohne Grafiklimit, sollte es aber nicht übertreiben. idR also die schnellste SGPU-Karte und eine Auflösung wie 1280 oder 1680, Zusatztests mit 800x600 sind interessant, aber nicht zwingend nötig. Anschließend benötigt man eine sehr CPU-limitierte Szene, nahe am Worst-Case. So weiß man, was die CPU maximal zu leisten hat, wer hier passable Frames erreicht, muss sich zumindest hinsichtlich der nötigen CPU-Power im restlichen Spiel keine Sorgen machen.
Ack...
Imho muss man entweder beides testen oder dann eben ein Mittelding - und zwar mit einer möglichst schnellen Karte, mit Frameverläufen und ohne Timedemos und mit besserer Spielewahl.
Der Ansatz ist schon okay, einfach ziemlich schlecht ausgeführt...würde ich nach diesem Test eine CPU kaufen (und zwar eine DC, wenn ich nach dem Test gehe), so würde ich weder GTA4, noch Prototype noch ArmA2 flüssig spielen können - meine drei Favoriten ...
...(Daher kommen diese großen Unterschiede zwischen Savegame und Timedemo. Jetzt mag der Unterschied zwischen 2 CPUs mit 10% sich vielleicht auch von einem Timedemo ins Spiel übertragen lassen.)
Das ist allerdings eine sehr unsicherere Annahme, woher kommt denn das CPU-Limit im Timedemo? Und woher kommts im Spiel?
...Ist ja nicht so, dass Phenom II besser bei Pysik ist, der AthlonII dafür in KI total verliert...
Entweder hab ich das nicht verstanden, oder das ist ein Widerspruch.
BlackBirdSR
2009-08-08, 16:42:11
Entweder hab ich das nicht verstanden, oder das ist ein Widerspruch.
Zeile 3 hat mit Zeile 1-2 nichts zu tun. Die Aussage war: Der gemessene Unterschied im Timedemo kann sich (in rein CPU limitierten Szenen) vielleicht auf das Spieleszenario übertragen lassen. Aber nur "kann", da es sehr viele Faktoren gibt. Vor allem: Was ist ein CPU limitiertes Szenario in einem Timedemo?
Ansonsten möchte ich gerne den Einsatz von Sandra 2009 diskutieren!
Was bringt mir ein Test mit Nehalem in diesem Benchmark, der explizit für x Kerne ausgelegt ist und die Werte daher völlig abgehoben erscheinen. Die Aussage geht dann gegen 0 mit Ausnahme der Info: Das Programm skaliert gut (Usernutzen =0 ). Mal abgesehen von all den anderen Problemen, die Sandra so mit sich bringt. Gleiches übrigens für 3DMark Vantage. Die gesparte Zeit hätte man gut anlegen können.
dargo
2009-08-08, 16:45:29
Ich bin nach wie vor der Ansicht, CPUs testet man möglichst ohne Grafiklimit, sollte es aber nicht übertreiben. idR also die schnellste SGPU-Karte und eine Auflösung wie 1280 oder 1680, Zusatztests mit 800x600 sind interessant, aber nicht zwingend nötig.
Falls du auf meine Core-Tests damit anspielst - ich habe bewusst die niedrigste Auflösung gewählt und zusätzlich den CPU-Takt verringert um ein 100%-iges CPU-Limit zu gewährleisten. Damit erspare ich mir einiges an Arbeit, denn so muss ich nicht untersuchen inwieweit meine Szenen gpu-limitiert sind (es reicht wenn ich die Taktraten der Grafikkarte etwas verringere und schon sehe ich was, wie limitiert). Außerdem hat mein Thread auch eine andere Zielsetzung - ich möchte wissen wie gut Games mit mehr als 2 Cores skalieren. Und das kann man schlecht mit gpu-limitierten Szenen zeigen.
Anschließend benötigt man eine sehr CPU-limitierte Szene, nahe am Worst-Case. So weiß man, was die CPU maximal zu leisten hat, wer hier passable Frames erreicht, muss sich zumindest hinsichtlich der nötigen CPU-Power im restlichen Spiel keine Sorgen machen.
Das hört sich zwar gut an, könnte aber in einen Mammutprojekt ausarten. Wie willst du feststellen, dass deine Szene nahe am Worst-Case ist wenn du das ganze Game noch nicht durchgespielt hast. :ugly:
Imho muss man entweder beides testen oder dann eben ein Mittelding - und zwar mit einer möglichst schnellen Karte, mit Frameverläufen und ohne Timedemos und mit besserer Spielewahl.
Ich erinnere nochmal gerne an diesen Satz. :)
Ich muss allerdings zugeben, dass das Benchen von CPUs in Games immer schwieriger wird weil die Entwickler der Meinung sind - freies Speichern brauchen wir nicht.
Eggcake
2009-08-08, 16:52:49
Keiner behauptet es wäre einfach :D
Hm naja, aus dem Test werden im CB-Forum schon merkwürdige Schlüsse gezogen.
Ich muss ja zugeben: als ich meinen PC gekauft habe, "fiel" ich auch auf solche Tests rein und war später, als neue Games erschienen sind und das GPU-Limit erhöht wurde auch unzufrieden mit meinem Prozi - war mir persönlich eine Lehre.
Genau dasselbe mit meiner jetzigen Grafikkarte: am falschen Ende gespart und nun steh ich mit zu wenig VRAM da.
Jake Dunn
2009-08-08, 16:54:25
Hehe, leider bleibt dies ein Wunschdenken. Und das "locker ausreicht" stößt uns wieder vor das alt bekannte Problem - wo gibt es eine feste Definition welche Framerate für den jeweiligen User locker ausreichend ist? :wink:
Richtig und in MP Games will man ja nicht unter 60FPS rutschen (z.b. WARS), das schafft man nicht mit einem A64 :rolleyes:
y33H@
2009-08-08, 16:56:07
Falls du auf meine Core-Tests damit anspielstWollte ich eigentlich nicht, da mir bewusst ist, dass dieser wie du sagst, nicht zeigen soll, welche CPU schneller ist oder wie gut Spiel XY darauf läuft, sondern es rein um die Cores geht. Und da ist dein Ansatz genau richtig. Einzig die Tatsache, dass NV auf höhere Auflösungen optimiert, ist problematisch, wenn du mit einer Geforce in 640x480 benchst.
Wie willst du feststellen, dass deine Szene nahe am Worst-Case ist wenn du das ganze Game noch nicht durchgespielt hast.Ganz einfach: Ich spiele die meisten Titel, die ich benche, schlicht durch (beispielsweise CoJ BiB, Bionic Commando, GTA4, Riddick, CoD5). Brocken wie Anno 1404, ArmA2 oder Empire zumindest mal 2-3 WEs, also 10-25 Stunden (je nachdem, ob mich das Spiel reizt oder nicht). Ausnahmen wie Damnation bestätigen die Regel. Raff zockt auch viel und gibt Feedback, so finden und wissen wir sehr genau, in welchen Szenen was limitiert. Mit der Zeit kriegt man da ein Gefühl für, ich brauch schon bald keinen Fps-Counter mehr :D
Eggcake
2009-08-08, 16:58:20
Dieser Quote finde ich sehr witzig bzw. zeigt sehr gut, dass einiges wahres an puntarenas Aussage dran ist:
Die beiden Intel CPUs die im Perfomance ranking oben sind, haben dort nix zu suchen.
Diese sind nicht für 130Euro zu erhalten, damit meine ich z.B. den Core i7 950.
Alle CPUs die in der Preisspanne nicht rein passen raus aus dem Test, dass verfälscht nur die Grafik
"Ja keine besseren CPUs als Vergleich mit reinnehmen, das verfälscht das Bild der preiswerten SuperCPU!"
Naja, wenn ich mal FC2 low Res anschaue und X3 3.0 vs. x2 3.0 (sollten gut vergleichbar sein was die Kernskalierung angeht) vergleiche, schafft der X3 mickrige 114% des X2 @ low Detail und 117% @ max Detail. Sollte ein Graka-Limit vorliegen, müsste der Unterschied @ max geringer sein, er wird allerdings größer. Graka-Limit ist also auszuschließen, wenn diese Unterschiede "realistisch" sind und und nicht im Bereich der Messungenauigkeiten liegen. Im Spielesetting liegt offenbar ein Limit vor, womit der Unterschied auf 6% zusammenschrumpft.
Insgesamt skalieren die Prozessoren (Ph 2) aber in allen Tests eher durch den Takt als durch die Anzahl der Kerne.
dargo
2009-08-08, 17:06:32
Einzig die Tatsache, dass NV auf höhere Auflösungen optimiert, ist problematisch, wenn du mit einer Geforce in 640x480 benchst.
Hmm... als ich vor einiger Zeit eine ATI hatte kannte ich dieses "Phänomen". Da war tatsächlich 1024x768 etwas schneller als 640x480. Bei der G260GTX konnte ich das nicht feststellen. Liegt aber auch vielleicht daran, dass ich selbst mit 1024x768 in meinen Szenen noch vollkommen im CPU-Limit liege wodurch ich keinen Unterschied feststellen konnte.
Ganz einfach: Ich spiele die meisten Titel, die ich benche, schlicht durch (beispielsweise CoJ BiB, Bionic Commando, GTA4, Riddick, CoD5). Brocken wie Anno 1404, ArmA2 oder Empire zumindest mal 2-3 WEs, also 10-25 Stunden (je nachdem, ob mich das Spiel reizt oder nicht). Ausnahmen wie Damnation bestätigen die Regel. Raff zockt auch viel und gibt Feedback, so finden und wissen wir sehr genau, in welchen Szenen was limitiert. Mit der Zeit kriegt man da ein Gefühl für, ich brauch schon bald keinen Fps-Counter mehr :D
Ui... ok, dann überlasse ich euch beiden das Mammutprojekt gerne. ;)
Mr.Fency Pants
2009-08-08, 18:15:01
Achso... ich denke beim E6300 immer an den Allendale. :tongue:
Gut, der neue E6300 hat zwar 2,8Ghz, trotzdem aber nur 2MB Cache und mit 266Mhz etwas geringeren FSB als der von mir "simulierte" Wolfdale @2Ghz. Unterm Strich sollte also der neue E6300 gerade mal die 30fps in der von mir getesten FC2-Szene schaffen. Bei Crysis wird es nicht mehr für 30fps reichen.
Drücke ich mich wirklich so ungünstig aus oder ist das Thema doch für einige komplizierter als ich dachte?
Was ist bei dieser Szene deiner Meinung Theorie ohne Praxisbezug? :confused:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7450598&postcount=84
CPU-lastige Szenen gibts in sehr vielen Games. Mal weniger, mal stärker ausgeprägt.
Und dieses eine Szene soll jetzt beweisen, dass eine 3GHz DC in allen aktuellen Games abstinkt? Ghostbusters ist nicht gerade für seine gute Performance bekannt, da sucht sich jemand mal wieder nur die Rosinen raus.
Nochmal: ich sage nicht, dass ein E6300 u.ä. das Optimum als Spiele CPu darstellen, sondern, dass man damit heutzutage ordentlich zocken kann und nicht jeder Gamer eine 150€ aufwärts CPu benötigt. Was ist daran so schwer zu verstehen?
dargo
2009-08-08, 19:08:20
Und dieses eine Szene soll jetzt beweisen, dass eine 3GHz DC in allen aktuellen Games abstinkt?
Wo habe ich das gesagt? Außerdem habe ich dir hier paar Szenen mehr geliefert als nur diese eine.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=440739
Die Frames auf einen 3Ghz Wolfdale wirst du wohl hochrechnen können. Um es mal etwas vorsichtiger auszudrücken - ein 3Ghz Wolfdale stößt gerade bei aktuellen Games langsam an seine Grenzen. Ob der jeweilige User mit diesen Grenzen, sprich Framerate leben kann entscheidet er natürlich selbst.
Ghostbusters ist nicht gerade für seine gute Performance bekannt, da sucht sich jemand mal wieder nur die Rosinen raus.
Geht jetzt wieder das Märchen der schlechten Programmierung los? Das wird nämlich gerne immer ausgepackt wenn das eigene System mit Game XY überfordert ist. Lass mich mal kurz nachdenken... dann sind also Crysis, FC2, Prototype und GTA IV auch alles schlecht programierte Games?
Dargo, wie wärs wenn du bei CB mal richtig sagts was Sache ist? ;)
Ich weiß, es wird enorm schwer sein, aber besser als die Lobhudeleien: "ach wie toll, toll wie immer, weiter so, ich bin mit meinem Phenom zufrieden, der X2 wär 4% langsamer, egal Hauptsache der i7 ist nur 4% schneller".
Eggcake
2009-08-08, 19:36:54
Im Thread kann man halt schon sehr gut beobachten, wie einerseits Games, welche schlecht abschneiden würden als "schlecht programmiert" bezeichnet werden, die Kritik an der Grafikkarte als "Kaum jemand hat eine schnellere" oder "Wer 100€ für CPU ausgibt, gibt keine 230€ für GPU aus!" gekontert wird, das Mittesten der i7 auf praktisch jeder Seite angeprangert wird (obwohl offensichtlich nur zum Vergleich dort), da es scheinbar das Wunschbild zerstört...
Wie ich oben schon schrieb: ich hab auch nix gegen praktische Benches, allerdings muss dann trotzdem der Rest auch stimmen.
Es kann doch auch nicht sein, dass z.B. bei GPU-Tests praktisch immer ein stark übertakteter Quadcore verwendet wird, um jegliches CPU-Limit auszuschliessen, dasselbe aber bei CPU-Tests nicht gemacht wird...
dargo
2009-08-08, 19:51:37
Dargo, wie wärs wenn du bei CB mal richtig sagts was Sache ist? ;)
Ich will jetzt nicht zuviel verraten, es wird aber höchstwahrscheinlich in nächster Zeit einen zum Thema passenden Artikel bei 3DC geben, der dann hoffentlich für etwas Klarheit sorgt.
Es kann doch auch nicht sein, dass z.B. bei GPU-Tests praktisch immer ein stark übertakteter Quadcore verwendet wird, um jegliches CPU-Limit auszuschliessen, dasselbe aber bei CPU-Tests nicht gemacht wird...
Das ist auch so ein Ei. Und als ob das nicht reicht haut man den Usern dann noch Timedemos um die Ohren. :ugly:
Naja, wenn ich mal FC2 low Res anschaue und X3 3.0 vs. x2 3.0 (sollten gut vergleichbar sein was die Kernskalierung angeht) vergleiche, schafft der X3 mickrige 114% des X2 @ low Detail und 117% @ max Detail. Sollte ein Graka-Limit vorliegen, müsste der Unterschied @ max geringer sein, er wird allerdings größer. Graka-Limit ist also auszuschließen, wenn diese Unterschiede "realistisch" sind und und nicht im Bereich der Messungenauigkeiten liegen. Im Spielesetting liegt offenbar ein Limit vor, womit der Unterschied auf 6% zusammenschrumpft.
Insgesamt skalieren die Prozessoren (Ph 2) aber in allen Tests eher durch den Takt als durch die Anzahl der Kerne.
Kann mir mal jemand diesen Sachverhalt erläutern? Immerhin zieht sich das wie ein roter Faden durch den gesamten Test, Ausnahme der ein oder andere synthetische Test. Selbst in Fällen, wo ein lahmer Quad besser dasteht als ein schneller 2core/3core (immer vom Phemon ausgehend, bei Intel hab ich keine Ahnung), ist der Geschwindigkeitszuwachs eher gering. Bei FC2 scheint noch am besten mit den Kernen zu skalieren, allerdings gewinnt auch da ein X4 3,2 ("12,8 GHz";)) vs. X4 2,6 ("10,4 GHz" ;)) satte 19%, während es zum X2 3.0 ("6 GHz" ;)) nur 20% sind. Das passt doch vorne und hinten nicht!
Das ist doch nicht alles mit den Timedemos oder einem Grakalimit zu erklären, immerhin GIBT es ja deutliche Unterschiede zwischen den CPUs. Oder sind die Timedemos verglichen zum Spiel nicht Mehrkernoptimiert? (Bullshit)
Ansonsten sehen die 4 Kerner echt schlecht aus und müssen sich nur allzuoft höher getakteten CPUs mit weniger Cores geschlagen geben. Wieso?
y33H@
2009-08-08, 20:47:22
Alte Spiele, alter Treiber. FC2 skaliert an sich gut von 2 auf 4 Kerne - aber eben nur bei einer gescheiten GraKa.
http://www.abload.de/img/farcry2-vga-cpu-skalieath1.png
Oder sind die Timedemos verglichen zum Spiel nicht Mehrkernoptimiert?CB nutzt keine Timedemos, wenn, dann Realtime-Demos (zB FC2). Ansonsten Saves iirc. Die Benches sind aber nur teils dokumentiert und daher für Außenstehende nicht durchgehend einseh- und nachstellbar. Was mich extrem nervt - es steht nicht bei allen Spielen klar erkennbar dabei, ob nun AA/AF an war oder nicht - etwa bei FC2.
Alte Spiele, alter Treiber. FC2 skaliert an sich gut von 2 auf 4 Kerne - aber eben nur bei einer gescheiten GraKa.
http://www.abload.de/img/farcry2-vga-cpu-skalieath1.png
CB nutzt keine Timedemos, wenn, dann Realtime-Demos (zB FC2). Ansonsten Saves iirc. Die Benches sind aber nur teils dokumentiert und daher für Außenstehende nicht durchgehend einseh- und nachstellbar. Was mich extrem nervt - es steht nicht bei allen Spielen klar erkennbar dabei, ob nun AA/AF an war oder nicht - etwa bei FC2.
Gut und wie erklärst du, dass es bei low/low 2,8 x3 und x4 der x3 5% schneller ist, bei low/high gleich auf und bei high/xxx (kenne die Detaileinstellungen im Spieletest nicht) der x4 vorne liegt? Grakalimit bei 640*480? Andere Demo?
Da passt doch was nicht.
Mr.Fency Pants
2009-08-08, 21:17:46
Genau das meine ich: von einem E6600 auf einen Q6600 sind es gerade mal 10% mit einer 4870 1GB, eine noch sehr ordentliche Graka. Was bringt es mir, wenn der Quad mit einer GTX 285 nicht mehr gebremst wird, wenn ich eine 4870 oder schwächer zu Hause habe? Da weiss ich vielleicht was theoretisch möglich wäre, wenn die GPU nicht mehr limitiert, ist für mich in so einem Fall aber irrelevant, da ich ja eine 4870 oder schlechter habe.
Aber dargo wird sowieso gleich sagen, dass PCGH ja keine Ahnung hat, was die da so benchen.
y33H@
2009-08-08, 21:29:55
@ Gast
Andere Lastverteilung wahrscheinlich.Aber dargo wird sowieso gleich sagen, dass PCGH ja keine Ahnung hat, was die da so benchen. Nö, wird er nicht ;DWas bringt es mir, wenn der Quad mit einer GTX 285 nicht mehr gebremst wird, wenn ich eine 4870 oder schwächer zu Hause habe?Nichts. Zumindest in diesem Fall. Für eine Midrange-Karte wie eine HD4870 reicht ein flotter DC oder kleiner Quad, Highend-Karten wie eine GTX285 skalieren besser mit mehr CPU-Power, Geforces sowieso.
Highend-Karten wie eine GTX285 skalieren besser mit mehr CPU-Power, Geforces sowieso.
Weil unnötig viel CPU Last erzeugt wird :rolleyes:
y33H@
2009-08-08, 21:42:55
Link? Beweise? Oder Fanboy mit Flame-Attitüden?
@ Gast
Andere Lastverteilung wahrscheinlich.
Damit gebe ich mich nicht zufrieden ;). Immerhin skalieren gleichkernige CPUs reproduzierbar mit den Taktraten, aber wenn ein ganzer(!) zusätzlicher Kern vorhanden ist, soll da plötzlich eine "andere Lastverteilung" sein, so dass von der zusätzlichen Leistung ein Großteil verpufft oder sogar Leistung kostet?!
Ich bleibe dabei, da ist irgendwas schief gelaufen. Sei es, dass FC2 (in dem Test immerhin das am besten mit mehreren Kernen skalierende Spiel!) unzureichend optimiert ist, CB Mist gebaut hat, der Grakatreiber suckt oder die Mehrkerner einfach nicht das Gelbe vom Ei sind.
Eggcake
2009-08-08, 22:11:08
Genau das meine ich: von einem E6600 auf einen Q6600 sind es gerade mal 10% mit einer 4870 1GB, eine noch sehr ordentliche Graka. Was bringt es mir, wenn der Quad mit einer GTX 285 nicht mehr gebremst wird, wenn ich eine 4870 oder schwächer zu Hause habe? Da weiss ich vielleicht was theoretisch möglich wäre, wenn die GPU nicht mehr limitiert, ist für mich in so einem Fall aber irrelevant, da ich ja eine 4870 oder schlechter habe.
Aber dargo wird sowieso gleich sagen, dass PCGH ja keine Ahnung hat, was die da so benchen.
Das ist ja schön und gut, doch dafür hätte man nicht 19 CPUs miteinander vergleichen müssen, wenn sowieso nach der 4. schlechtesten CPU der Rest limitiert. Dann müsste der Test nicht heissen "19 Prozessoren von 50 bis 130 Euro" sondern "19 Prozessoren mit einer 9800GTX+ von 50 bis 130 Euro". Weil die Prozessoreleistung wird mit dem Test nicht gemessen.
Oder auch: "Welcher Prozessor ist nötig um 2-4 Jahre alte Spiele mit einer 9800GTX+ noch flüssig zu spielen?"
Ich will jetzt nicht zuviel verraten, es wird aber höchstwahrscheinlich in nächster Zeit einen zum Thema passenden Artikel bei 3DC geben, der dann hoffentlich für etwas Klarheit sorgt.
Das war schon zu viel. ;)
Hört sich interessant an, ich werde gespannt sein. =)
Das ist ja schön und gut, doch dafür hätte man nicht 19 CPUs miteinander vergleichen müssen, wenn sowieso nach der 4. schlechtesten CPU der Rest limitiert. Dann müsste der Test nicht heissen "19 Prozessoren von 50 bis 130 Euro" sondern "19 Prozessoren mit einer 9800GTX+ von 50 bis 130 Euro". Weil die Prozessoreleistung wird mit dem Test nicht gemessen.
Du machst es dir zu einfach! Das die Differenz zwischen den Balken evtl. zu gering ist (=quantitativer Unterschied), ok, darüber lässt sich streiten. Aber qualitativ sollte der Test schon eine Aussage möglich machen - und die scheint ziemlich ernüchternd für die Quads zu sein, aus welchen Gründen auch immer. Warum? Ich will es wissen, grrr! :D
y33H@
2009-08-08, 22:24:18
Quote aus einem anderen Thread - schauen wir uns doch mal an, was ein Core i3 für unter 150€ so packen könnte:Anno 1404 [1.024 x 768, max. Details @ DX10 / PCGH-Save / i7-920 @ 2,67 GHz /6G DDR3-1333 @ 7-7-7-21 / GTX260-216 @ 702/1.404/1.161]
4 Kerne + SMT
Avg: 47.1 - Min: 46
4 Kerne
Avg: 42.5 - Min: 40
2 Kerne (Pseudo-i3)
Avg: 27.7 - Min: 27
1 Kern
Avg: 12.60 - Min: 11Ausgehend von zwei Kernen legt der i7 samt SMT fette 70% obendrauf, ohne SMT immer noch 54%. Analog zum PCGH-Test (http://www.pcgameshardware.de/aid,691470/Lynnfield-im-Test-Benchmarks-des-Intel-Core-i5-750-und-Core-i7-860-in-Anno-1404/CPU/Test/) ist ein Bloomfield-DC (~i3?) mit 2,67 GHz samt in etwa so flott wie ein fiktiver PII X4 930 oder ein QX6700/Q9400.
Undertaker
2009-08-08, 22:32:02
Hast du auch 2 Kerne + SMT vermessen? Clarkdale kommt afair ja mit SMT, sollte dank Zugehörigkeit zur Westmere-Generation aber auch evntl. noch den ein oder anderen Prozentpunkt an höheren IPC mitbringen.
dargo
2009-08-08, 22:32:09
Aber dargo wird sowieso gleich sagen, dass PCGH ja keine Ahnung hat, was die da so benchen.
Nein, ich war gerade mit etwas beschäftigt um dir und anderen vielleicht etwas mehr Klarheit zu verschaffen. Am Beispiel von Farcry 2 wollte ich mal zeigen wie sich die ganze Geschichte bei einer Kern- und Taktratensteigerung verhält, zusätzlich mit zum Teil auftretenden GPU-Limits.
System siehe Sig. Die 2,83Ghz wurden mit 8,5x333Mhz FSB gebencht, die 2Ghz mit 8,5x236Mhz FSB. Speicherteiler in beiden Fällen 2 : 2,40.
Das Savegame dauert 15 Sekunden, ich bewege mich dabei gar nicht. Details @max.
35258 35259 35260
Ich hoffe die meisten können die Ergebnisse richtig interpretieren.
PS: das ganze lief unter DX9. DX10 liefert zwar etwas höhere Frameraten aufgrund einer geringeren CPU-Last, durch den Maus-Lag unter DX10 ist FC2 aber nicht zu gebrauchen.
y33H@
2009-08-08, 22:35:25
@ Undertaker
Ja, der macht dann 31,7/30.
Nein, ich war gerade mit etwas beschäftigt um dir und anderen vielleicht etwas mehr Klarheit zu verschaffen. Am Beispiel von Farcry 2 wollte ich mal zeigen wie sich die ganze Geschichte bei einer Kern- und Taktratensteigerung verhält, zusätzlich mit zum Teil auftretenden GPU-Limits.
System siehe Sig. Die 2,83Ghz wurden mit 8,5x333Mhz FSB gebencht, die 2Ghz mit 8,5x236Mhz FSB. Speicherteiler in beiden Fällen 2 : 2,40.
Das Savegame dauert 15 Sekunden, ich bewege mich dabei gar nicht. Details @max.
35258 35259
Ich hoffe die meisten können die Ergebnisse richtig interpretieren.
PS: das ganze lief unter DX9. DX10 liefert zwar etwas höhere Frameraten aufgrund einer geringeren CPU-Last, durch den Maus-Lag unter DX10 ist FC2 aber nicht zu gebrauchen.
Also ich bin offenbar zu blöd dazu...
Beim DC low/high-Takt gewinnt der 2,83 GHz 14% ggü. dem 2 GHz in 1680, bei 640 gewinnt der 2,83 42% (nur die Startwerte genommen). Offenbar liegt eine Grakalimitierung bei 1680 vor. Warum du dann bei QC noch dazugewinnen kannst, kann ich nicht nachvollziehen. Aber für sich genommen sind die 2 Diagramme schlüssig, allerdings wäre ein QC @ 2 GHz noch ganz interessant... :)
dargo
2009-08-08, 23:31:56
Also ich bin offenbar zu blöd dazu...
Beim DC low/high-Takt gewinnt der 2,83 GHz 14% ggü. dem 2 GHz in 1680, bei 640 gewinnt der 2,83 42% (nur die Startwerte genommen). Offenbar liegt eine Grakalimitierung bei 1680 vor. Warum du dann bei QC noch dazugewinnen kannst, kann ich nicht nachvollziehen.
Eigentlich ist es ganz einfach. Bei 1680 2,83Ghz DC vs. 2Ghz DC bewege ich mich in der ersten Sekunde zwischen 26 und 23fps. Bei 1680 2,83Ghz QC vs. 2,83Ghz DC zwischen 32 und 26fps. Im zweiten Fall verschiebt sich das Limit stärker in Richtung der CPU womit auch ein größerer Zugewinn verbuchbar ist.
Eigentlich ist es ganz einfach. Bei 1680 2,83Ghz DC vs. 2Ghz DC bewege ich mich in der ersten Sekunde zwischen 26 und 23fps. Bei 1680 2,83Ghz QC vs. 2,83Ghz DC zwischen 32 und 26fps. Im zweiten Fall verschiebt sich das Limit stärker in Richtung der CPU womit auch ein größerer Zugewinn verbuchbar ist.
Soweit war ich auch schon, aber es erklärt dennoch nicht die erwähnten Ergebnise des CB-Tests. Wie gesagt, ein QC @ 2 GHz könnte ein wenig Licht ins Dunkel bringen.
dargo
2009-08-09, 00:09:28
Soweit war ich auch schon, aber es erklärt dennoch nicht die erwähnten Ergebnise des CB-Tests. Wie gesagt, ein QC @ 2 GHz könnte ein wenig Licht ins Dunkel bringen.
Oben ergänzt. Ich stelle gerade fest, dass meine letzte Erklärung so gar keinen Sinn ergibt. Ich glaube ich muss ins Bett. :freak:
Edit:
Ich habe den Fehler entdeckt. Das Problem ist, dass wir einfach so nur die erste Sekunde verglichen haben was nur zu falschen Ergebnissen führen kann. Ich hätte bei den Diagrammen zu den jeweiligen Settings die avg.fps dazuschreiben sollen. Wenn man sich den Durchschnitt ansieht liegt immer die schnellere CPU in 1680 (egal ob durch mehr Kerne oder Takt) um 14,x% höher. Nur im ersten Diagramm tanzt es mit 16,x% etwas aus der Reihe. Das würde ich allerdings schon fast als Messtoleranz betrachten.
Klar, die 2 Prozent sind erstmal vollkommen egal, aber schon qualitativ bleibt es nach deinen Benchmarks immer logisch und nach CB (und PhII*) unlogisch, vor allem in niedrigen grakalimitierenden Einstellungen.
*ich sehe aber grad, dass fälschlicherweise von identischen Rahmenbedingungen der PhII CPUs (abgesehen von Takt und Cores) ausgegangen bin. Bleibt allerdings die Frage, ob dies die Unterschiede erklären kann. Und wenn ja, bedeutet dies, dass man z.Z. zumindest bei AMD eher auf Cache und Takt als auf die Anzahl der Kerne Wert legen sollte.
=Floi=
2009-08-09, 01:55:03
ich freue mich, dass eggcacke bei den cpus und gpus mit mir einer meinung ist. :D
zitat:
Im Thread kann man halt schon sehr gut beobachten, wie einerseits Games, welche schlecht abschneiden würden als "schlecht programmiert" bezeichnet werden, die Kritik an der Grafikkarte als "Kaum jemand hat eine schnellere" oder "Wer 100€ für CPU ausgibt, gibt keine 230€ für GPU aus!" gekontert wird, das Mittesten der i7 auf praktisch jeder Seite angeprangert wird (obwohl offensichtlich nur zum Vergleich dort), da es scheinbar das Wunschbild zerstört...
tja was soll man auf solche posts auch anworten. eigentlich sollte man die leute dann auch in ihrem glauben lassen. manche meinen eben sie wissen alles perfekt und müssen alles bis zum ende in einem kreuzzug verteidigen. synthetische tests zeigen auch sehr gut wie leistungsfähig eine gpu/cpu sein könnte und dort kann man oft flaschenhälse gezielt ausschließen. (3dmark)
bei GTA4 kann man aber nicht abstreiten, dass es verdammt viele resoucen verbraucht und die frage der schlechten programmierung schon aufkommt. ergänzt von dem nicht vorhandenen sli-support und der nicht forhandenen möglichkeit AA zu aktivieren. :rolleyes:
andere games glänzen da besser.
boxleitnerb
2009-08-09, 04:14:04
Genau das meine ich: von einem E6600 auf einen Q6600 sind es gerade mal 10% mit einer 4870 1GB, eine noch sehr ordentliche Graka. Was bringt es mir, wenn der Quad mit einer GTX 285 nicht mehr gebremst wird, wenn ich eine 4870 oder schwächer zu Hause habe? Da weiss ich vielleicht was theoretisch möglich wäre, wenn die GPU nicht mehr limitiert, ist für mich in so einem Fall aber irrelevant, da ich ja eine 4870 oder schlechter habe.
Das wurde doch schon mehrmals erklärt. Es ist ein CPU-Test, der die maximale Leistung der Prozessoren u.a. in Spielen miteinander vergleichen soll. Warum zum Geier soll man dann einen Flaschenhals einbauen, nur weil DU dir keine schnellere Grafikkarte leisten kannst/willst? Es ist scheißegal, ob 99% der Grafikkartenbesitzer auf dem Planeten "nur" eine 4870 o.ä. haben und daher der Test "nicht repräsentativ" ist. Der Test soll maximale Aussagekraft haben - später kannst du ja immer noch grob abschätzen, dass du mit der 4870 nicht so eine Mehrperformance von DC zu QC hast wie zB mit einer GTX285.
Wie soll man eine vernünftige Kaufentscheidung treffen, wenn wichtige Ergebnisse aufgrund der Testbedingungen einfach verschluckt werden?
Testest du einen Ferrari und einen Lamborghini auf einem Feldweg oder auf dem Nürburgring? Muss ich noch deutlicher werden?
Irgendwie verstehe ich nicht, was es daran nicht zu verstehen gibt. Aber es ist wohl so, wie puntarenas vor einigen Seiten geschrieben hat: Einige hier nehmen es scheinbar persönlich, anders kann ich mir diese Sturheit, simple Fakten zu akzeptieren und die einfachsten Dinge nicht zu verstehen, nicht erklären.
Mr.Fency Pants
2009-08-09, 09:48:42
Ich glaube, du verstehst nicht ganz: ich habe nix dagegen, wenn CPUs auch mit starken Grakas getestet werden, um zu zeigen, was sie drauf haben, wenn man sie "von der Leine" lässt, darum geht es mir überhaupt nicht. Schön, dass man mal sieht, was mit einer 200€ CPU und einer 300€ GPU performancemässig alles möglich ist, aber das interessiert viele nunmal nicht. Ich kaufe wie viele andere auch, sowieso immer nur im P/L Bereich, deswegen ists für mich uninteressant, ich möchte wissen, wie sich meine P/L CPU mit einer P/L GPU schlägt und nicht mit Komponenten, die ich mir sowieso nie kaufen werde.
Die ganzen Tests sind imho recht aufwendig und da werden dann nunmal nicht alle möglichen Kombinationen getestet, sondern die, die die meisten User interessieren. Nun verstanden?
Mich stört halt dieses ganze Gelaber, dass man Zocken mit einer 100€ CPU heutzutage voll vergesen kann, denn das stimmt einfach nicht. Wenn ein paar Enthusiasten gerne das Maximum austesten, bitte schön, aber die Aussagen werden dann als allgemeingültig hingestellt.
@dargo: ja, GTA4 ist eine Ausnahme und wohl kaum repräsentativ für die meisten Spiele, genauso wie Crysis, Ghostbusters hat auch mit üblen Frameraten zu kämpfen. Wenn du aufgrund dieser Spiele zum Schluß kommst, dass heutzutage zwingend ein hochgetakteter Quad für Spiele notwendig ist, dann verfälschen diese Spiele extrem die Anforderungen an CPUs.
boxleitnerb
2009-08-09, 10:04:03
Voll vergessen ist aber auch das eine Extrem. Es fängt halt langsam an, schwierig zu werden, wenn man bedenkt, dass man die CPU nicht einen Tag nach dem Kauf wegschmeißt. Das sollte man halt bedenken.
Und gerade weil es schwierig ist, alle Kombinationen zu testen, sollte man die Kombination testen, die eine möglichst hohe Aussagekraft hat, die auch länger gilt, z.B. in dem Fall, wenn man sich 1 Jahr nach CPU-Kauf eine neue Grafikkarte kauft. Dann sind fordernde (CPU-Leistung) Spiele draussen UND CPU bzw. GPU Limit haben sich durch die neue Komponente verschoben. Wenn man den Test so macht, wie CB in gemacht hat, hat man für dieses Szenario kaum Informationen, was die CPU nun leisten kann und ärgert sich evtl., dass man nicht eine Stufe höher gekauft hat.
Imho ist es eine Illusion von einer 100€ CPU zu erwarten, in einem Zeitraum von ca. 2 Jahren keine (gegen Ende der Zeit ordentlichen) Performanceprobleme zu bekommen. Es sei denn natürlich, man rüstet die Grafikkarte nicht auf oder spielt höchstens Spiele, die zum Kaufzeitpunkt noch gut liefen. Du kannst mir aber nicht weismachen, dass der durchschnittliche Käufer, der diesen Test zu Rate zieht, sich diese Gedanken macht. Deshalb denke ich, in diesem Fall sind mehr Informationen über die Leistungsfähigkeit besser. Zumal es sicher auch Leute gibt, die aus finanziellen Gründen erstmal nur eine Komponente wie z.B. die GPU aufrüsten.
Mr.Fency Pants
2009-08-09, 10:23:41
Mal ein Beispiel, wie ich die letzten 2 Jahren am PC zockmässig erfahren habe:
als ich im Mai 2007 vor der Entscheidung stand mein altes Sockel 939 System aufzurüsten, haben mir damals schon Leute geraten, doch unbedingt auf Quadcore zu setzen, weil das die Zukunft sein. Habe mich für einen Dualcore entschieden (um die 90€), mit dem ich bis heute super gefahen bin, bis auf die Graka (von 1950GT-->8800GT) habe ich nix aufgerüstet.
Damir wir uns nicht falsch verstehen: wenn ich heute neu kaufen würde, dann wahrscheinlich eine Quad CPU, das bedeutet aber nicht, dass man mit einer 100€ DC CPU nicht noch gut zurecht kommt. Eine teure Quad CPU ist immer noch kein Muss für Gamer, auch wenn einem das viele hier immer wieder erzählen wollen, da sind Spiele wie GTA4 einfach kein Argument. Selbst den Q8200 gibts schon ab 116€, da muss es kein Q9550 für 180€ sein, mal abgesehen davon, dass ich kurz vorm i5 jedem empfehlen würde noch etwas zu warten..
Btw. die meisten kaufe sich P/L CPUs und GPUs, deshalb ists ok, da den Schwerpunkt drauf zu legen. Die "Freaks" wissen sowieso Bescheid.
boxleitnerb
2009-08-09, 10:34:42
Nur haben Spiele im Mai 2007 kaum von QC profitiert, die kamen da erst langsam auf den Markt. Heute sieht das etwas anders aus und wird sich im Laufe der Lebenszeit einer heute neu gekauften CPU sicher noch weiter ändern.
Vor 2 Jahren hätte ich mir auch nie einen Quad gekauft, klar. Wenn du heute einen günstigen Quad kaufst und den noch übertaktest, wirst du wohl ähnlich gut fahren wie mit deinem C2D. Es klang halt vorhin so, als ob man auch mit der Riege ala E6300 oder Athlon II gut fahren wird, wenn man sie jetzt kauft...und das stimmt einfach nicht :)
Was das mit dem P/L angeht, das ist echt ein Punkt, wo man sich drüber streiten kann. Ich finde halt, wenn man sich schon die Mühe für so einen Test macht, sollten alle was von haben.
Und du wirst mir auch sicher zustimmen, wenn man so wie dargo und co. es bereits aufgezeigt haben, eher auf echte Spielszenen beim Testen umsteigt. Von mir aus auch mit 9800GTX. Weil nur das ist realistisch. Aus diesem Grund ist der Test leider immer noch größtenteils für die Tonne - egal ob man sich nun zur Zielgruppe zählt oder nicht.
Ronny145
2009-08-09, 10:48:02
Mit einer Midrange Karte zu benchen ist das eine, aber dann bitte auch mit aktuellem Treiber. Es ist einfach ein Unding dafür einen 10 Monate alten Treiber herzunehmen. Im übrigen finde ich die Preisvergleiche nicht logisch, warum darf die Grafikkarte für ein Gamer System keine 150€ kosten? Nur weil die CPU nur 100€ kostet? Das ist doch kein Argument. In dem Bereich hat man von einer besseren Grafikkarte mehr als von einer besseren CPU. Die GTX260 gibts auch schon für um die 130€, gleiches gilt für HD4870.
dargo
2009-08-09, 10:57:14
@dargo: ja, GTA4 ist eine Ausnahme und wohl kaum repräsentativ für die meisten Spiele, genauso wie Crysis, Ghostbusters hat auch mit üblen Frameraten zu kämpfen. Wenn du aufgrund dieser Spiele zum Schluß kommst, dass heutzutage zwingend ein hochgetakteter Quad für Spiele notwendig ist, dann verfälschen diese Spiele extrem die Anforderungen an CPUs.
Fortschritt ist schon was schlimmes. :freak:
Ich weiß immer noch nicht wie du auf die Idee kommst ich hätte gesagt für Spiele wäre ein hochgetakteter Quadcore notwendig? Das kann man gar nicht pauschal bestimmen da viel zu viele Faktoren da eine Rolle spielen und jeder User andere Ansprüche hat. Eins habe ich gesagt - ein 3Ghz Wolfdale stößt in einigen Games langsam an seine Grenzen, ein 2Ghz Wolfdale hat diese bereits erreicht oder sogar unterschritten. Dabei beziehe ich mich auf die "magischen" ~30-35fps. Und noch eins - es gibt nicht den Dualcore oder den Quadcore. Mir gehts hauptsächlich um CPU-Leistung, wie diese realisiert wird ist völlig egal. Nüchtern betrachtet fährt man selbst heute noch mit einem ~4Ghz Wolfdale sehr gut. Ok, außer bei GTA IV @max. Details. GTA IV bietet aber dermaßen eine hohe Skalierung nach oben, dass bei max. Details schon eine GTX285 2GB zu schwach ist. Da muss dann ein RV870 oder eine GTX380 zusätzlich zum gut getakteten i5/i7 her.
Eggcake
2009-08-09, 11:41:33
ich freue mich, dass eggcacke bei den cpus und gpus mit mir einer meinung ist. :D
:D
bei GTA4 kann man aber nicht abstreiten, dass es verdammt viele resoucen verbraucht und die frage der schlechten programmierung schon aufkommt. ergänzt von dem nicht vorhandenen sli-support und der nicht forhandenen möglichkeit AA zu aktivieren. :rolleyes:
andere games glänzen da besser.
Das mag vielleicht stimmen. Doch spielen viele Leute GTA4? Ich denke schon...ist es ein cooles Spiel? Finde ich schon...Läuft es auf vielen Rechnern scheisse? Yep!
Nun - dabei kann es ja im Prinzip egal sein ob schlecht programmiert oder nicht. Immerhin könnte man dann zeigen "Hey - mit einem QC könnt ihr sogar scheisse programmierte Spiele spielen!" :D
Herr Doktor Klöbner
2009-08-09, 14:25:33
Ich finde die Kritik am CB Test den ich für sehr gelungen halte, ziemlich unsinnig.
50 % aller Desktop PC landet in Firmen, da wird nie gespielt.
Bei den restlichen 50 % wird vielleicht jeder 4te oder 5te zum Spielen genutzt.
Da das hier ein Hardware Forum ist wird das wohl übersehen, 90% aller PCs machen Office, Internet, Bildbearbeitung auf " Rote Augen weg" Niveau und das wars.
Also interssiert in der Praxis bei einer CPU aus dem unteren Preissegment nur eins: Stemmt sie diese Standardanwendungen, vieviel Strom verbraucht sie dabei, gibt es billige und vernünftige Mainboards mit integrierter Grafik.
Die Spieleleistung ist für die überwiegende Mehrzahl der Käufer in dieser Preisklasse unerheblich, allenfalls gibt es Gelegenheitsspieler die eine 80,- € Grafikkarte dazu packen, und mit dieser, das hat der Test gezeigt kommt man mit einem 70 € Prozessor schon in die GPU limitierung, also ist die 9800GTX eine Praxisnahe Wahl.
Bescheuert finde ich es Spiele wie Crysis, GTA4 oder Arma2 als Maßstab zu nehmen, also entweder langweilige Flops oder unakzeptabel umgesetzte Konsolenportierungen.
Die PC Spiele die sich aufgrund ihrer Qualitäten in den letzten 2 Jahren am besten verkauft haben sind mit einem kleinen Dualcore und einer 8800GT alle noch gut zu spielen.
Es wird übrigens einige Forenmitglieder überraschen: Die großen Weltreligionen sind sich darüber einig, daß das Deaktivieren von AF oder das Ziehen eines Detailreglers auf eine Stufe nach links nicht mit ewiger Verdammniss bestraft wird, auch wird man beim Deaktivieren dynamischer Beleuchtung nicht sofort vom Blitz erschlagen.
dargo
2009-08-09, 14:36:20
Ich finde die Kritik am CB Test den ich für sehr gelungen halte, ziemlich unsinnig.
50 % aller Desktop PC landet in Firmen, da wird nie gespielt.
Und diese Firmen sind bestimmt auf einen CPU-Test der CB angewiesen. *kopfschüttel*
Zatoichi
2009-08-09, 15:12:36
Im Ego Draconis Forum waren auch Leute unterwegs, die mit einem 3500+ spielen wollten und entäuscht waren, das es ruckelt. CSS lief doch auch:biggrin: Ich denke es ist besser in eine vernüftige CPU im mittleren Preissegment zu investieren als jedes Jahr zu tauschen. Gerade für Leute die nicht übertakten wollen oder können.
y33H@
2009-08-09, 15:51:23
50 % aller Desktop PC landet in Firmen, da wird nie gespielt.
Bei den restlichen 50 % wird vielleicht jeder 4te oder 5te zum Spielen genutzt.
Da das hier ein Hardware Forum ist wird das wohl übersehen, 90% aller PCs machen Office, Internet, Bildbearbeitung auf " Rote Augen weg" Niveau und das wars.CB ist eine Plattform die sich - wie die Gamestar, die PCGH oder die HWLuxx auch - in der erster Linie an Spielern orientiert. Vergiss das nicht. PLV in allen Ehren, aber es gibt auch Leute, die zahlen für ihr Hobby auch mal etwas mehr.
Bescheuert finde ich es Spiele wie Crysis, GTA4 oder Arma2 als Maßstab zu nehmen, also entweder langweilige Flops oder unakzeptabel umgesetzte Konsolenportierungen.Du übersiehst, dass Crysis und GTA4 technisch state of the art sind. Crysis bietet eine grandiose Optik und fährt alles an Rendertechniken auf, was aktuell möglich ist. GTA4 glänzt mit einer riesigen, dynamischen und extrem lebendigen Stadt. Die Behauptung, beide Titel seien "langweilige Flops oder unakzeptabel umgesetzte Konsolenportierungen" kann nur von jemandem kommen, dem das technischen Verständnis und/oder die Hardware fehlt. Und nur mal am Rande: Wer GTA4 mit grausamer Konsolen-Optik und Konsolen-Fps (15-30) zocken will, dem reicht ein X2 3800+ und eine 9600GT samt 2G und WinXP.
=Floi=
2009-08-09, 16:38:47
hey jungs ich habe mir vor fast genau 2 jahren einen Q6600 für 250€ gekauft und mit dem kann ich immer noch gut spielen. tja. ihr kauft 2 mal und habt dazwischen eine zeit in der der alte prozessor zu lahm wird und ich habe für ca. 50€ mehr den genuss der schnelleren cpu von anfang an.
eure logik billig aber oft zu kaufen ist eben nicht so optimal und ggf sogar teurer. lustig finde ich auch die leute die von einem quad reden und keinen haben. :rolleyes:
im pc bereich kann man sich die höhere leistung nicht so einfach vorstellen und man muß es eben mal gespürt und gesehen haben, damit man es auch realisiert hat!
auch ja und man sollte dem user doch überlassen was er spielen will! aber es sollte eben auch laufen wenn er es denn spielen will und nich von vorne herein nicht funktionieren. :rolleyes:
Eggcake
2009-08-09, 16:43:07
@Floi
Genauso seh ich das auch. Hätte ich vor ~2.5 Jahren (sowas um den Dreh) direkt auf eine 8800GTX gesetzt, hätte ich die GTS320 nicht mit der 4850 ersetzen müssen, die auch schon wieder zu schwach gewählt wurde. Hätte ich nicht den E4300 gekauft, hätte ich jetzt nicht auf QC umsteigen müssen. Hätte ich nicht das günstigste 667er RAM gekauft, könnte ich den QC jetzt mehr übertakten. Hätte ich nicht das billigste MB gekauft, könnte ich jetzt den QC besser übertakten.
Das geht immer so weiter. Ob man schlussendlich paar € gespaart hat, weiss ich nicht - doch ich für meinen Teil habe daraus einfach eine Lehre gezogen und werde nie wieder um jeden Preis Geld sparen wollen - denn man kauft einfach zwei Mal, so ist das nunmal.
Imho muss man, um das zu verstehen, jedoch auch etwas "reifer" sein. Nichts gegen solche, die bewusst preiswert kaufen oder einfach nicht mehr ausgeben können, es gibt sehr viele Anwendungsbereiche für LowEnd Hardware. Aber solche, die eigentlich bisschen mehr ausgeben könnten, auch die Hardware eigentlich bräuchten um vernünftig spielen zu können, denen rate ich einfach nicht immer das allerbilligste zu kaufen, denn am Schluss kommt's nicht wirklich billiger und man hat weniger Freude an der ganzen Sache. Ich musste immerhin 21 werden um das endlich zu kapieren ;)
. PLV in allen Ehren, aber es gibt auch Leute, die zahlen für ihr Hobby auch mal etwas mehr.
Sicher gibt es die - aber die orientieren sich nicht unbedingt an einem CPU Test, der eher Low - Budget CPUs vergleicht ... ;)
=Floi=
2009-08-09, 17:00:29
dann hätte man den test auf CB einfach abändern können. Mehr office und HT-pc sachen und auch beim fazit mehr direktheit.
CB rutsch ja leider immer mehr ab:
http://www.computerbase.de/news/hardware/prozessoren/intel/2009/august/intel_80-euro-cpu_multiplikator/
beim update unten will man mit den hohen taktraten angeben und in der praxis sind diese eh nicht zu schaffen und die vcore dürfte viel zu hoch sein. die cpu ist auch viel zu sehr am cache limitiert und damit verpufft der taktgewinn viel zu stark bei games.
Klingone mit Klampfe
2009-08-09, 20:44:44
Und nur mal am Rande: Wer GTA4 mit grausamer Konsolen-Optik und Konsolen-Fps (15-30) zocken will, dem reicht ein X2 3800+ und eine 9600GT samt 2G und WinXP.
Wenn diese Aussage stimmt, sollte ich mit meinem DC 6400+ (2x3,2Ghz) doch eigentlich locker mit mittleren Einstellungen spielen können, aber in der Praxis ist das ja laut diverser Aussagen im Forum eben nicht der Fall (:|).
y33H@
2009-08-09, 21:01:07
Es ist immer die gleiche Frage: Welche Settings und welche Fps?
dargo
2009-08-09, 21:09:09
Es ist immer die gleiche Frage: Welche Settings und welche Fps?
Nee, es ist immer das selbe - beim PC heißt es ist mies programmiert und die Konsole schafft alles mit max. Details butterweich. :udevil:
mapel110
2009-08-09, 21:11:44
Nee, es ist immer das selbe - beim PC heißt es ist mies programmiert und die Konsole schafft alles mit max. Details butterweich. :udevil:
Genau, bei der Konsole alles hochoptimiert und spezialisiert und auf dem PC sagt der Entwickler: "Komm, es läuft, lass gut sein. Das kauft eh kein Schwein."
hardtech
2009-08-09, 21:32:37
@Floi
Genauso seh ich das auch. Hätte ich vor ~2.5 Jahren (sowas um den Dreh) direkt auf eine 8800GTX gesetzt, hätte ich die GTS320 nicht mit der 4850 ersetzen müssen, die auch schon wieder zu schwach gewählt wurde. Hätte ich nicht den E4300 gekauft, hätte ich jetzt nicht auf QC umsteigen müssen. Hätte ich nicht das günstigste 667er RAM gekauft, könnte ich den QC jetzt mehr übertakten. Hätte ich nicht das billigste MB gekauft, könnte ich jetzt den QC besser übertakten.
Das geht immer so weiter. Ob man schlussendlich paar € gespaart hat, weiss ich nicht - doch ich für meinen Teil habe daraus einfach eine Lehre gezogen und werde nie wieder um jeden Preis Geld sparen wollen - denn man kauft einfach zwei Mal, so ist das nunmal.
Imho muss man, um das zu verstehen, jedoch auch etwas "reifer" sein. Nichts gegen solche, die bewusst preiswert kaufen oder einfach nicht mehr ausgeben können, es gibt sehr viele Anwendungsbereiche für LowEnd Hardware. Aber solche, die eigentlich bisschen mehr ausgeben könnten, auch die Hardware eigentlich bräuchten um vernünftig spielen zu können, denen rate ich einfach nicht immer das allerbilligste zu kaufen, denn am Schluss kommt's nicht wirklich billiger und man hat weniger Freude an der ganzen Sache. Ich musste immerhin 21 werden um das endlich zu kapieren ;)
hej eikeks,
ich sehe das komplett anders! kaufst du dir teure sachen, dann ist die hardware i.d.r. so start, dass du nicht das volle potential ausnutzen kannst. ergo: du kaufst für die zukunft leistung an und orientierst dich nicht an deinem aktuellen bedarf an leistung. zudem zahlst du durch early-adopter-preise kräftig drauf.
Wenn diese Aussage stimmt, sollte ich mit meinem DC 6400+ (2x3,2Ghz) doch eigentlich locker mit mittleren Einstellungen spielen können, aber in der Praxis ist das ja laut diverser Aussagen im Forum eben nicht der Fall (:|).
Konsolen Optik soll die mittlere Einstellung sein?
Nene. Lediglich Blur ist bei Konsolen voll aufgedreht, auf "very high". ;D
Mr.Fency Pants
2009-08-10, 08:54:16
hej eikeks,
ich sehe das komplett anders! kaufst du dir teure sachen, dann ist die hardware i.d.r. so start, dass du nicht das volle potential ausnutzen kannst. ergo: du kaufst für die zukunft leistung an und orientierst dich nicht an deinem aktuellen bedarf an leistung. zudem zahlst du durch early-adopter-preise kräftig drauf.
Seh ich auch so. Wenn ich lese, dass hier Leute schon seit 2 Jahren oder länger nen Quadcore haben, stellt sich mir die Frage, ob das nicht rausgeschmissenes Geld war, da dieser sein Potential erst in letzter Zeit langsam erst ausspielen kann. Ist zwar schön, dass man dann 1,5 Jahre mit nem Quad unterwegs war, man hat aber dann für etwas gezahlt, was man garnicht effektiv nutzen konnte (Videobearbeitung u.ä. mal ausgenommen, ich rede hier von Spielen).
Bitte auch beim CB Test nicht vergessen, dass es da um CPUs einer bestimmten Preisklasse geht, da ist die Zielgruppe wohl recht eindeutig. So Sachen wie viel zu alte Treiber für die Graka sollten wirklich nicht sein, das stimmt, aber generell macht der Test für die entsprechende Zielgruppe sehr viel richtig.
Armaq
2009-08-10, 09:43:04
Seh ich auch so. Wenn ich lese, dass hier Leute schon seit 2 Jahren oder länger nen Quadcore haben, stellt sich mir die Frage, ob das nicht rausgeschmissenes Geld war, da dieser sein Potential erst in letzter Zeit langsam erst ausspielen kann. Ist zwar schön, dass man dann 1,5 Jahre mit nem Quad unterwegs war, man hat aber dann für etwas gezahlt, was man garnicht effektiv nutzen konnte (Videobearbeitung u.ä. mal ausgenommen, ich rede hier von Spielen).
Bitte auch beim CB Test nicht vergessen, dass es da um CPUs einer bestimmten Preisklasse geht, da ist die Zielgruppe wohl recht eindeutig. So Sachen wie viel zu alte Treiber für die Graka sollten wirklich nicht sein, das stimmt, aber generell macht der Test für die entsprechende Zielgruppe sehr viel richtig.
Quadcore ist auch bei Spielen die nicht für ihn optimiert sind schön. Aber das Thema hatten wir ja schon mehrfach.
xiao didi *
2009-08-10, 10:50:07
Wenn ich lese, dass hier Leute schon seit 2 Jahren oder länger nen Quadcore haben, stellt sich mir die Frage, ob das nicht rausgeschmissenes Geld war, da dieser sein Potential erst in letzter Zeit langsam erst ausspielen kann. Ist zwar schön, dass man dann 1,5 Jahre mit nem Quad unterwegs war, man hat aber dann für etwas gezahlt, was man garnicht effektiv nutzen konnte (Videobearbeitung u.ä. mal ausgenommen, ich rede hier von Spielen).
Sicher gibt es immer early adopter Hardware, die ihrer Zeit weit voraus ist und sehr teuer ist.
Aber es gab auch immer Hardware, die für einen kleinen Obolus mehr eine wesentlich höhere Zukunftssicherheit versprach. AGP -> PCIe, SM2 -> SM3, Singlecore -> Dualcore etc. um nur die jüngsten Beispiele zu nennen. Und das ist für denjenigen wichtig, der nur alle Jubeljahre aufrüstet.
Und genau so verhält es sich heute auch mit mit Dualcore -> Quadcore. Ausgehend vom E8400 (den ich selbst heute besitze), muss man "nur" 30-40€ mehr ausgeben wenn man bei Intel bleiben will, um einen guten Quadcore zu bekommen. Und das wäre es vielen bestimmt wert, wenn sie denn darum wüssten.
CB tappt hier in gewisserweise auch mal richtig in die Falle. Sie testen 19 (!) Prozessoren, kommen zu dem Schluss, dass eine günstige CPU auch funktioniert und empfehlen daher dem preisbewussten Käufer, nicht zu viel Geld auszugeben. Dabei übersehen sie den Zahn der Zeit.
Der Umstand, dass in 12 Monaten wieder Geld ausgegeben werden muss, übersehen sie, und das muss man CB einfach ankreiden. Sie hätten auch wenigstens den Anstand (oder auch die Weitsicht) besitzen können, auf diese mangelnde Zukunftssicherheit hinzuweisen.
Eggcake
2009-08-10, 10:53:57
@Fency Pants
Okay, darüber lässt sich streiten, ob es (bezogen auf Spiele) wirklich empfehlenswert war bereits vor 2 Jahren einen QC zu kaufen, da sie dort auch noch sehr teuer waren.
Doch heute in Zeiten von 180€ Q9550 einen DC kaufen? Naja, jedem das seine...
dargo
2009-08-10, 11:46:36
Bitte auch beim CB Test nicht vergessen, dass es da um CPUs einer bestimmten Preisklasse geht, da ist die Zielgruppe wohl recht eindeutig. So Sachen wie viel zu alte Treiber für die Graka sollten wirklich nicht sein, das stimmt, aber generell macht der Test für die entsprechende Zielgruppe sehr viel richtig.
Nein, er macht alles falsch was man nur falsch machen kann. Angefangen von Timedemos bis hin zu gpu-limitierten Szenen (was ja auch außerhalb von Savegames mit Timedemos zu tun hat). Aus welcher Preisklasse die CPUs getestet werden spielt dabei keine Rolle.
Sicher gibt es immer early adopter Hardware, die ihrer Zeit weit voraus ist und sehr teuer ist.
Aber es gab auch immer Hardware, die für einen kleinen Obolus mehr eine wesentlich höhere Zukunftssicherheit versprach. AGP -> PCIe, SM2 -> SM3, Singlecore -> Dualcore etc. um nur die jüngsten Beispiele zu nennen. Und das ist für denjenigen wichtig, der nur alle Jubeljahre aufrüstet.
Und genau so verhält es sich heute auch mit mit Dualcore -> Quadcore. Ausgehend vom E8400 (den ich selbst heute besitze), muss man "nur" 30-40€ mehr ausgeben wenn man bei Intel bleiben will, um einen guten Quadcore zu bekommen. Und das wäre es vielen bestimmt wert, wenn sie denn darum wüssten.
CB tappt hier in gewisserweise auch mal richtig in die Falle. Sie testen 19 (!) Prozessoren, kommen zu dem Schluss, dass eine günstige CPU auch funktioniert und empfehlen daher dem preisbewussten Käufer, nicht zu viel Geld auszugeben. Dabei übersehen sie den Zahn der Zeit.
Der Umstand, dass in 12 Monaten wieder Geld ausgegeben werden muss, übersehen sie, und das muss man CB einfach ankreiden. Sie hätten auch wenigstens den Anstand (oder auch die Weitsicht) besitzen können, auf diese mangelnde Zukunftssicherheit hinzuweisen.
Das sehe ich nicht so. Die letzten Jahre haben gezeigt, dass heutige Spieletitel von der Konsole auf den PC portiert werden. Die Leistungsanforderung für Spiele stagnieren daher seit einiger Zeit (abgesehen von Titeln wie Crysis oder GTAIV). Im Wesentlichen sind alle heute erhältlichen Titel, teilweise mit Verzicht auf Optik, für den NORMALANWENDER (der nicht ständig den neusten Treiber installiert!) spielbar. Viele interessiert AA, AF or whatever einfach nicht. Die starten das Spiel mit den vom Spiel und vom Treiber vorgegebenen Einstellungen und sind glücklich (hier definiert das die Mehrheit wohl anders ;p). Das kann jeder hier gut im eigenen Bekanntenkreis beobachten.
Bezüglich Zunkunftssicherheit im Computerbereich kann ich eigentlich nur lachen. :/
Nein, er macht alles falsch was man nur falsch machen kann. Angefangen von Timedemos bis hin zu gpu-limitierten Szenen (was ja auch außerhalb von Savegames mit Timedemos zu tun hat). Aus welcher Preisklasse die CPUs getestet werden spielt dabei keine Rolle.
Doch er macht alles richtig! Jede Bewertung erfordert ein Bewertungsschema. Dieses Schema hat immer Lücken und Unzulänglichkeiten. Auch Deine hier propagierte herangehensweise ist nicht perfekt.
Jetzt ist die Frage (die stellt sich jeder Wissenschaftler und Geldgeber vorher): Wie stark weichen die in meinem Modell die Ergebnisse von der Wirklichkeit ab und in wie weit beinflusst die Wahl des Modells meine Ressourcen (Zeit, Geld)?
Die Anwort darauf findet jeder Individuell. Für eine grobe Bewertung einer Leistung reicht das, von CB gewählte Modell vollkommen aus. Wenn Du mehr Zeit und/oder Geld hast investiere sie. :)
Im übrigen wählen selbst kommerzielle Seiten diese Modelle in leicht modifizierter Form an. Wohl nicht umsonst. ;)
Die Frage wie weit deine Ergebnisse und die von CB & Co. von der Wirklichkeit abweichen ist allerdings berechtigt ... Beantworten wirst auch Du sie nicht können.
Wie stark weichen die in meinem Modell die Ergebnisse von der Wirklichkeit ab und in wie weit beinflusst die Wahl des Modells meine Ressourcen (Zeit, Geld)?
sollte heissen:
Wie stark weichen die Ergebnisse meines Modells von der Wirklichkeit ab und in wie weit beinflusst die Wahl des Modells meine Ressourcen (Zeit, Geld)?
Mr.Fency Pants
2009-08-10, 12:29:41
Sicher gibt es immer early adopter Hardware, die ihrer Zeit weit voraus ist und sehr teuer ist.
Aber es gab auch immer Hardware, die für einen kleinen Obolus mehr eine wesentlich höhere Zukunftssicherheit versprach. AGP -> PCIe, SM2 -> SM3, Singlecore -> Dualcore etc. um nur die jüngsten Beispiele zu nennen. Und das ist für denjenigen wichtig, der nur alle Jubeljahre aufrüstet.
Und genau so verhält es sich heute auch mit mit Dualcore -> Quadcore. Ausgehend vom E8400 (den ich selbst heute besitze), muss man "nur" 30-40€ mehr ausgeben wenn man bei Intel bleiben will, um einen guten Quadcore zu bekommen. Und das wäre es vielen bestimmt wert, wenn sie denn darum wüssten.
CB tappt hier in gewisserweise auch mal richtig in die Falle. Sie testen 19 (!) Prozessoren, kommen zu dem Schluss, dass eine günstige CPU auch funktioniert und empfehlen daher dem preisbewussten Käufer, nicht zu viel Geld auszugeben. Dabei übersehen sie den Zahn der Zeit.
Der Umstand, dass in 12 Monaten wieder Geld ausgegeben werden muss, übersehen sie, und das muss man CB einfach ankreiden. Sie hätten auch wenigstens den Anstand (oder auch die Weitsicht) besitzen können, auf diese mangelnde Zukunftssicherheit hinzuweisen.
Bei einem E8400 stellt sich wohl kaum die Frage, ob man für einen kleinen Aufpreis einen Quad nimmt. Es geht im Test aber auch um Prozessoren wie z.B. den E6300, der bereits für 65€ erhältlich ist und da ist der Unterschied zu einem Quadcore schon wesentlich größer, in unserem Fall sind wir mal eben bei Faktor 2-3, das ist schon ein himmelweiter Unterschied. Da kann dann keine Rede mehr von einem kleinen Aufpreis sein.
dargo
2009-08-10, 12:30:44
Doch er macht alles richtig! Jede Bewertung erfordert ein Bewertungsschema. Dieses Schema hat immer Lücken und Unzulänglichkeiten. Auch Deine hier propagierte herangehensweise ist nicht perfekt.
Jetzt ist die Frage (die stellt sich jeder Wissenschaftler und Geldgeber vorher): Wie stark weichen die in meinem Modell die Ergebnisse von der Wirklichkeit ab und in wie weit beinflusst die Wahl des Modells meine Ressourcen (Zeit, Geld)?
Die Anwort darauf findet jeder Individuell. Für eine grobe Bewertung einer Leistung reicht das, von CB gewählte Modell vollkommen aus. Wenn Du mehr Zeit und/oder Geld hast investiere sie. :)
Du hast aber das hier schon gesehen?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7462447&postcount=104
Setz mal das hier in Relation zu dem da:
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_19_prozessoren_50_130_euro/20/
Im übrigen wählen selbst kommerzielle Seiten diese Modelle in leicht modifizierter Form an. Wohl nicht umsonst. ;)
Nur weil 99% der Reviewer im Netz den Weg des geringsten Widerstandes (mit Widerstand meine ich hier Zeit/Geld, um mit Savegames zu arbeiten muss man viel mehr Zeit investieren als x-beliebige, nichts sagende Timedemo zu starten) gehen werden die Benchmarks auch nicht richtiger.
puntarenas
2009-08-10, 13:11:42
Im übrigen wählen selbst kommerzielle Seiten diese Modelle in leicht modifizierter Form an.
Von der impliziten Behauptung, Computerbase sei keine kommerzielle Seite, möchte ich mich unaufgefordert aufs Schärfste distanzieren.
Warum man das abschließende Fazit des Artikels nicht auf die durchgeführten Messungen stützen kann, wurde ja hinreichend ausgeführt und zu Glaubensfragen äußere ich mich grundsätzlich nur nach Rücksprache mit meinem Seelsorger. :)
Alles schön und gut. Ich will Deine Arbeit, die ich bereits angesehen habe, keinesfalls schmälern oder gar schlecht reden! Ich will hier nur die Relationen gerade rücken. Sicherlich kann man immer Verbesserungen fordern. Das ist völlig legitim. Aber ich behaupte einfach (den Beweis muss ich leider schuldig bleiben), dass die Unterschiede zwischen den Methoden nicht so gravierend sind wie hier oft dargestellt wird. Grundsätzlich hat eine Timedemo immer mehr FPS als in der Realität. Dieser Wert schwankt um die 20-30%. Diesen müsste CB aufschlagen um näher an der Realtität zu sein. Ein Savegame hat v. a. den Makel der Szenenwahl und der erhöhten Messungenauigkeit die einhergeht mit der länge der Szene usw. Die Last mag zwar näher an der Realität sein, ist aber nur durch mehrmaliges Messen repräsentativ. Nehmen wir eine Abweichung von +/- 10% von der Realität an. Nimmt man mehrere verschiedene Szenen ist diese Abweichung unter Umständen grösser/kleiner.
Letzteres ist aufwendiger um damit teurer. Für den Normalanwender sind Diagrammverläufe weniger leicht zu interpretieren. Eine einfache Angabe wie PS/KW ist immer besser. Ich finde den Vergleich mit dem durschschnittlichen Verbrauch eines PKW recht gut. Dieser ist auch nicht repräsentativ. Zumal die Hersteller tricksen. Aber er ist eine gute Orientierung und lässt Rückschlüsse zu, wenn man die eigenen Fahrgewohnheiten/-ziele objektiv mit einbezieht.
Von der impliziten Behauptung, Computerbase sei keine kommerzielle Seite, möchte ich mich unaufgefordert aufs Schärfste distanzieren.
Warum man das abschließende Fazit des Artikels nicht auf die durchgeführten Messungen stützen kann, wurde ja hinreichend ausgeführt und zu Glaubensfragen äußere ich mich grundsätzlich nur nach Rücksprache mit meinem Seelsorger. :)
Ich habe nicht behauptet, dass CB eine dieser Seiten sei. Ich sprach allgemein von kommerziellen Seiten, die das gleiche Modell wählten, aber nicht von CB im besonderen.
--> Ich zweifle an deiner Fähigkeit zu interpretieren ...
hardtech
2009-08-10, 13:35:01
ich stelle mich da auf die seite des gastes.
zu dem upgrade von e8400er zu qc:
klar ist es ein kleiner aufpreis zu qc, aber warum nimmst du den 8400er als basis? weil er 5-10% schneller in spielen ist als ein halb so teurer 5200er???
xiao didi *
2009-08-10, 14:41:01
ich stelle mich da auf die seite des gastes.
zu dem upgrade von e8400er zu qc:
klar ist es ein kleiner aufpreis zu qc, aber warum nimmst du den 8400er als basis? weil er 5-10% schneller in spielen ist als ein halb so teurer 5200er???
Das ist zwar Offtopic, aber ich beanworte das mal:
Ein E8400 hat allein schon 20% mehr Takt als ein E5200, vom Cache mal abgesehen...und das schlägt sich fast 1 zu 1 auch in der Performance wieder. Wie kommst du also auf die 5-10%?
Eggcake
2009-08-10, 14:44:49
Um das zu untermauern:
http://www.pcgameshardware.com/aid,663794/Intel-Core-2-Cache-test-Seven-CPUs-reviewed/Reviews/?page=4 (und folgende)
8%
14%
Leider keine weiteren Spiele
Und das ist bei gleichem Takt...
hardtech
2009-08-10, 15:05:50
Das ist zwar Offtopic, aber ich beanworte das mal:
Ein E8400 hat allein schon 20% mehr Takt als ein E5200, vom Cache mal abgesehen...und das schlägt sich fast 1 zu 1 auch in der Performance wieder. Wie kommst du also auf die 5-10%?
wenn es sich in der performance niederschlagen würde 1:1 dann wäre das spiel 100prozent cpu limitiert. das ist aber in den wenigsten fällen der fall, weil die graka mehr mitzureden hat. und wenn es so ist, dann sind die fps ausreichend, um das spiel fllüssig zu spielen. ergo: warum die mehrausgabe?
hardtech
2009-08-10, 15:09:18
Um das zu untermauern:
http://www.pcgameshardware.com/aid,663794/Intel-Core-2-Cache-test-Seven-CPUs-reviewed/Reviews/?page=4 (und folgende)
8%
14%
Leider keine weiteren Spiele
Und das ist bei gleichem Takt...
ok, aber ist das die regel? keine weiteren spiele gibt es nicht ohne grund. es gibt eben tests, die gemacht werden, um bestimmte sachen zu testen. hier der l2-cache. und um das zu testen werden spezielle fälle herangezogen, wo die auswirkungen spürbar sind, hier cod. doch DAS ist nicht die regel/der alltag!
xiao didi *
2009-08-10, 15:15:05
warum die mehrausgabe?
Dafür gibt es viele Gründe:
Ich kaufe nicht allzu oft neue Hardware. Je länger sie hält, desto besser. Preis und Anspruch spielen natürlich auch noch eine Rolle.
Den zweiten Grund zeigt mir dargo mit seinen regelmäßigen Tests: CPU-Limits gibt es immer und überall. Selbst Crysis (er hat Jehova gesagt!) mag schnelle CPUs. Dass die CPU heute nur eine untergeordnete Rolle spielt, ist eine Mär. Und dass in Zukunft Spiele auch nicht deutlich mehr Leistung verlangen, ist ebenfalls eine Mär.
Ich gebe also gerne ein paar Euro mehr aus, in dem Wissen, dass sie sich lohnen. Der obligatorische Satz dazu: Das muss jeder für sich selbst entscheiden.
hardtech
2009-08-10, 15:18:09
Der obligatorische Satz dazu: Das muss jeder für sich selbst entscheiden.
damit stimme ich dir vollkommen zu.
aber solange ich mit dem 2160er ohne probs mit 1920x1200 spielen kann, bleibe ich auch dabei. :biggrin:
Eggcake
2009-08-10, 15:30:48
ok, aber ist das die regel? keine weiteren spiele gibt es nicht ohne grund. es gibt eben tests, die gemacht werden, um bestimmte sachen zu testen. hier der l2-cache. und um das zu testen werden spezielle fälle herangezogen, wo die auswirkungen spürbar sind, hier cod. doch DAS ist nicht die regel/der alltag!
Es ist ein Kurztest. Wie auch immer - kauft ihr euren günstigen Prozessoren, ist mir langsam echt Wurscht. Man kann hier Argumente bringen wie man will, die teureren Prozessoren werden immer "unnötig" teuer bleiben und den Aufpreis bezahlt man nur zum Spass. :rolleyes:
hardtech
2009-08-10, 16:12:25
... die teureren Prozessoren werden immer "unnötig" teuer bleiben und den Aufpreis bezahlt man nur zum Spass. :rolleyes:
nee, das ist der freak faktor! ;D
Für ein paar FPS mehr? Ich lass die Investition X2 vs. X4 gelten. Diese CPUs sind tatsächlich in der Lage längere Zeiträume zu überstehen. Gleiches hat sich ja X1 vs. X2 ergeben. Der Trend geht im Moment genau in diese Richtung. Vergleicht man aber innerhalb einer Gruppe lohnt sich der Aufpreis i. d. R. nicht. Da spielt dann wirklich das Budget und die Auflösung in der gespielt werden soll eine Rolle. Vor allem aber auch die Spiele selbst und die Grafikkarte.
Preisbewusst (nicht der Referenzuser hier) heisst heute:
X2 (ab 2,6 GHz; Intel oder AMD) + eine Grafikkarte auf dem Niveau einer ~ HD4850 or whatever. Der beliebige X2 reicht für die Grafikkarte und umgekehrt. Für die ganz ferne Zukunft ist diese Kombination nicht geeignet, da X2-Spiele mittlerweile fast Standard sind und ein weitergehen auf X3 und höher gerade im Gange ist. Aber für die Erfüllung der Mindestanforderungen sollte diese Kombination schon 2 Jahre halten. In zwei Jahren ist aber auch der teurere X2 nicht mehr wirklich zu gebrauchen. Ergo: Rausgeschmissenes Geld. Klar gilt mehr Geld mehr FPS, so auch in Crysis ... da spielt aber nicht jeder in 1900er Auflösung und nicht jeder ist _nicht_ dazu bereit die Auflösung anzupassen. ;)
boxleitnerb
2009-08-10, 17:04:43
Das ist leider nicht ganz richtig, denn wie dargo schon oft und völlig korrekt gesagt hat:
Ein Spiel ist nie IMMER ausschließlich CPU- oder GPU-limitiert. Wenn man Timedemos verwendet, zieht man somit ein Szenario mit deutlich (!!!) geringerer CPU-Last heran als man in der Realität beim SPIELEN, nicht GPU-Benchmark ala Flyby, Timedemo etc. hat.
Folge: Im Benchmark läuft das Spiel flüssig. Wenn man es aber selbst startet und loszockt, kann und wird es je nach Szene und je nach verbauter CPU ruckeln. Und je nach Szene bedeutet NICHT zwingend nur ein Zeitintervall von ein paar Sekunden, z.B. eine extrem fordernde Szene. Die hat man nämlich bei CB NICHT mitgetestet (und u.U. auch nicht etwas weniger fordernde Szenen, die immer noch zuviel für die CPU sind, weil man mit der 9800GTX und der geringen CPU-Last elendig gegen das GPU-Limit gelaufen ist).
Zusatz: Wenn die fps dann natürlich noch im grünen Bereich, sagen wir 40+ liegen, ist das unkritisch. Kritisch ist es erst, wenn man in Richtung der 20er kommt.
Genau DAS ist der Grund, warum
1. der Spieleteil des CB-Tests für die Tonne ist
2. ein kleiner DC sogar heute eben NICHT (immer) reicht - anders als es der Test mit einem (!) lächerlichen Average-Wert weismachen will...ein Wert für 5+h Spielzeit mit völlig unterschiedlichen Lastszenarien. Vielleicht nimmt man noch einen (!) Minimumwert dazu, der möglicherweise durch einen Nachladeruckler entstanden ist und schon ist die Aussagekraft erst Recht bei Null angelangt.
Und wenn ihr netten Kritiker mal die ganzen Posts auch gelesen hättet, wärt ihr über diese Aussage von mir gestolpert:
Die Anforderungen an die Hardware (CPU und GPU) steigt selbstverständlich innerhalb der Lebenszeit. Momentan durch die Stagnation bei den Konsolen vielleicht nicht ganz so stark, aber wer will schon seine Kohle schlecht investieren, weil er meint, die Zukunft voraussehen zu können.
Ich meine damit, dass es auch alle verstehen:
Eine kleine CPU (ca. 100€) ist nur dann sinnvoll...
...wenn auf dieser heutige Spiele (die der Käufer so spielt) zumeist gut laufen würden (was sie nicht tun müssen, s.o.)
...wenn sie bei einem etwaigen Grafikkarten-Update später nicht ein Gros der Mehrperformance vernichtet, weil sie dann noch mehr limitiert als heute
...wenn sie nicht sowieso innerhalb ihrer Lebenszeit (ca. 2 Jahre) bei zukünftigen Spielen schlapp macht (gilt insbesondere für DC, PS3 und XBox 360 haben 3+ Kerne).
Zusatz: Und nein, ich meine hier nicht die letzten 2 Wochen vor dem Upgrade auf eine neue CPU. Ich bin kein Hellseher, aber ich kann mir durchaus vorstellen, dass man schon nach einem Jahr Probleme kriegt, wenn man allzusehr gespart hat.
...oder aber wenn ich generell wirklich ziemlich anspruchslos bin. Das ist nichts Schlechtes, um Gottes Willen!
Ziemlich viele "wenns", oder?
Summa summarum:
Es ist totaler Quatsch zu behaupten, dass eine kleine CPU (ohne OC) ohne nennenswerte Probleme alles schafft, was der glückliche Käufer ihr in ihrer Lebenszeit aufbürdet, wenn er nicht gerade NUR Oldietitel spielt. Einen Trugschluss, dem nur allzuviele nach dem Test erlegen sind. Man schaue sich nur mal im CB-Base Forum um, da fliegen Kommentare rum, die ich als lustig bezeichnen würde, wenn es nicht so zum Heulen wäre, wie wenig die Leute dort nachgedacht und verstanden haben.
Jetzt klar?
hardtech
2009-08-10, 17:18:17
Aber es ist totaler Quatsch zu behaupten, dass eine kleine CPU (ohne OC) ohne Probleme alles schafft, was der glückliche Käufer ihr in ihrer Lebenszeit aufbürdet, wenn er nicht gerade NUR Oldietitel spielt.
das hat auch keiner von uns behauptet. :freak:
ich glaube wir sprechen auch ein wenig an uns vorbei. der gast und ich reden von dem besten plv, d.h. der hardware, die man zum kaufzeitpunkt für sein geld bekommt. ihr redet mehr von anspruchsvollen gamern, die bei jedem (noch so schlecht programmierten) spiel einfach spielbare frameraten haben wollen IN JEDER SZENE.
und hier kommen wir zum anspruch: was stört es mich, wenn es im spiel mal einen kleinen ruckler gibt, wenn das spiel 99% sonst flüssig läuft? ich behaupte aber, dass ich anspruchvoller bin als herr und frau otto.
und auf der anderen seite gibt es noch leute, die einfach mehr geld für ihr hobby ausgeben, weil sie immer das beste haben wollen, egal um welchen preis.
Eggcake
2009-08-10, 17:45:44
Ob das die jeweilige Person stört oder nicht darf ja gerne subjektiv die Person selber beurteilen, doch aus dem Test sieht man das nichtmal!
Aus dem Test geht hervor, dass man eben in praktisch jeder Szene super FPS bekommt, was schlicht nicht wahr ist.
Nach dieser Argumentation könnte man ja auch mit einem 2Ghz Prozessor GPUs testen und schauen, dass geradeso 30 Avg. FPS erreicht werden - mehr muss man ja nicht wissen, läuft +/- flüssig, egal welche GPU ihr kauft!...
hardtech
2009-08-10, 18:18:56
ok stimmt! der test zeigt sowas nicht.
damit stimme ich dir vollkommen zu.
aber solange ich mit dem 2160er ohne probs mit 1920x1200 spielen kann, bleibe ich auch dabei. :biggrin:
Und du kannst alles (Crysis ausgenommen) in der genannten Auflösung spielen? Die Aussage ist grenzwertig oder du sehr unempfindlich. Es sei denn du redest von Browersgames :)
Eggcake
2009-08-10, 18:54:03
Ich meine - ich verstehe ja schon, dass man auch geneigt ist billigere Prozessoren zu kaufen und wenn die für seine bestimmten Bedürfnisse ausreichen, und man ungern mehr ausgibt, dann soll man die ruhig kaufen.
Nur
a) Muss man sich bewusst sein, dass diese Prozessoren unter Umständen bei zukünftigen und auch einigen bereits jetzt erhältlichen Spielen zum Flaschenhals werden können bzw. die Framerate eben doch unangenehm oft in unspielbare Bereiche bringen können
und
b) Sollten einem doch realistische Benches vor Augen geführt werden
Wenn man nach Berücksichtigung von a) und b) immernoch der Meinung ist, der Prozessor reiche aus - dann nur zugreifen! Doch weder a) noch b) zeigt dieser Test, weshalb man imho durchaus in die Irre geführt wird.
=Floi=
2009-08-10, 19:55:08
für die ~50€ die ich geschätzt mehr ausgeben habe vor 2 jahren (!) kann ich aktuell noch immer gut zocken. das war nach dem ersten großen preisrutsch. nur ist cpu jetzt noch immer gut brachbar und liefert noch immer sehr gute dienste mit ihren 3,4ghz. ein austausch ist also noch immer nicht nötig und mit jedem tag lohnt sich diese anschaffung mehr. lieber 1 300ps auto für (10) X jahre, als 2x ein neueres 150ps auto.
der quad war sicherlich auch eine sehr frühe investition, und war anfangs sicherlich noch überdimensioniert. trotzdem war das wohl mit unter die beste investition in den letzten jahren und das teil hat auch bei guter dualcoreunterstüzung reserven für andere sachen.
wir sollten auch nicht über den unteren bereich reden, sondern über brauchbare frameraten und hohe einstellungen. ein spiel sollte man genießen und dazu gehören eine flüssige bildrate und hohe details.
Eggcake
2009-08-10, 20:33:51
hooi, also wenn man nicht auf die 3. nachkommastelle schaut und auch keine 500 € für so ein chipchen ausgeben möchte, kommen da für mich 2 sachen raus:
1. unterschiede gibt es eigentlich nur in preis und stromverbrauch
2. in den letzten 3 jahren hat sich nicht wirklich was getan.
Das bringt also der Test u.a. rüber...
boxleitnerb
2009-08-10, 20:37:27
Es ist echt zum Heulen, wie schön die Leute in Scharen auf diesen Mist reinfallen.
Zatoichi
2009-08-10, 21:18:15
für die ~50€ die ich geschätzt mehr ausgeben habe vor 2 jahren (!) kann ich aktuell noch immer gut zocken. das war nach dem ersten großen preisrutsch. nur ist cpu jetzt noch immer gut brachbar und liefert noch immer sehr gute dienste mit ihren 3,4ghz. ein austausch ist also noch immer nicht nötig und mit jedem tag lohnt sich diese anschaffung mehr. lieber 1 300ps auto für (10) X jahre, als 2x ein neueres 150ps auto.
der quad war sicherlich auch eine sehr frühe investition, und war anfangs sicherlich noch überdimensioniert. trotzdem war das wohl mit unter die beste investition in den letzten jahren und das teil hat auch bei guter dualcoreunterstüzung reserven für andere sachen.
wir sollten auch nicht über den unteren bereich reden, sondern über brauchbare frameraten und hohe einstellungen. ein spiel sollte man genießen und dazu gehören eine flüssige bildrate und hohe details.
Genau so sehe ich das auch. Im unteren Preisbereich ist man meist an der Grenze. Auch wenn das scheinbar für manche ans Ego geht. Und der Sinn jedes Jahr was neues zu kaufen erschließt sich mir auch nicht. Ist doch im GraKa Bereich das gleiche. Auf die ausgewogene Mischung kommt es an. Und ob man Einbußen bei Spielen hinnehmen will oder nicht. Man muß ja auch nicht gleich eine Extreme Edition kaufen. Aber das man mit unter 100€ ausgesorgt hat ist eine Mähr und der Einspareffekt schnell aufgebraucht. In diesem Jahr sind viele Spiele mit Multicore Support erschienen und das wird sich auch fortsetzen dank der Konsolen. Und wenn ich kompromisse Toleriere dann kauf ich mir die Konsolenfassung. Wer das Geld hat und jetzt noch mit Blick nach vorne einen DC kauft/anrät hat meiner Meinung nach einen an der Waffel. Phenoms und Intel QC gibt es knapp über 100€ und nicht nur Spiele profitieren davon.
dargo
2009-08-10, 22:35:26
Aber ich behaupte einfach (den Beweis muss ich leider schuldig bleiben), dass die Unterschiede zwischen den Methoden nicht so gravierend sind wie hier oft dargestellt wird. Grundsätzlich hat eine Timedemo immer mehr FPS als in der Realität. Dieser Wert schwankt um die 20-30%.
Vorsicht! Wie weit die Frameraten einer Timedemo von realen Spielszenen abweichen hängt stark vom Inhalt der Timedemo ab. Die sogenannten Flyby-Timedemos, die bei Unreal Tournament üblich sind sind besonders gefährlich. Dort werden einem Frameraten von 200-300fps vorgegaukelt und dann wundert man sich, dass Ingame nur ein Bruchteil davon vorhanden ist weil die eigene CPU nicht mehr schafft.
Ein Savegame hat v. a. den Makel der Szenenwahl und der erhöhten Messungenauigkeit die einhergeht mit der länge der Szene usw. Die Last mag zwar näher an der Realität sein, ist aber nur durch mehrmaliges Messen repräsentativ. Nehmen wir eine Abweichung von +/- 10% von der Realität an. Nimmt man mehrere verschiedene Szenen ist diese Abweichung unter Umständen grösser/kleiner.
Messungenauigkeit? :confused:
Mit einem Savegame erfasst du genau die Framerate die das Setup-System im stande ist zu leisten. Genauer kannst du ein Spiel gar nicht erst durchmessen.
boxleitnerb
2009-08-10, 22:38:22
Er meint das, was du vorhin im Thread erklärt hattest:
Die Zeitdauer des Savegames kann das Ergebnis signifikant beeinflussen. Und es ist auch die Frage, wie man vorgehen sollte: Rumstehen? 360 Grad Drehung? Einen bestimmten Pfad so genau wie möglich ablaufen?
Das sind alles Faktoren, die man bei einer Timedemo nicht berücksichtigen muss. Ich wüsste nicht, wie man ein einigermaßen vergleichbares und reproduzierbares Ergebnis auf unterschiedlichen Systemen hinbekommt.
Eggcake
2009-08-10, 22:38:39
Wir werden deshalb keinen Vorschlag blind in die Tonne kloppen, sondern uns jeden Kommentar oder sonstige Anmerkung durchlesen. Denn es sagt hier ja auch keiner das GTA4, Prototype und sonstige Spiele ebenfalls vertreten sein werden. Gerade GTA4 ist auch son Grenzfall, da nicht wirklich zu Ende programmiert/optimiert - ist halt das Gothic 3 des letzten Jahres.
Ich weiss jetzt langsam echt nichtmehr ob ich heulen oder lachen soll.
boxleitnerb
2009-08-10, 22:42:48
Ich weiss jetzt langsam echt nichtmehr ob ich heulen oder lachen soll.
Sowas wird doch immer behauptet, wenn man sich nicht eingestehen will, dass die Leistung der eigenen Hardware nicht mehr ausreicht. Ist halt menschlich, sich einzureden, dass andere Schuld sind, was soll man da noch machen?
Die wenigsten laufen durch diese riesige Welt und überlegen sich mal, was da alles dargestellt und berechnet wird. Aber immer groß die Klappe aufreißen, das können sie alle :)
Eggcake
2009-08-10, 22:54:52
"Es läuft scheisse mit einem DC - das MUSS ein Bug sein! Verbuggte Spiele testen wir nicht!"
xiao didi *
2009-08-10, 22:56:12
CB redet sich auch um Kopf und Kragen...Es fehlt nicht mehr viel und sie verschwinden aus meiner Bookmark-Symbolleiste. :usad:
dargo
2009-08-10, 23:00:33
Er meint das, was du vorhin im Thread erklärt hattest:
Die Zeitdauer des Savegames kann das Ergebnis signifikant beeinflussen. Und es ist auch die Frage, wie man vorgehen sollte: Rumstehen? 360 Grad Drehung? Einen bestimmten Pfad so genau wie möglich ablaufen?
Das sind alles Faktoren, die man bei einer Timedemo nicht berücksichtigen muss. Ich wüsste nicht, wie man ein einigermaßen vergleichbares und reproduzierbares Ergebnis auf unterschiedlichen Systemen hinbekommt.
Eigentlich ist es ganz einfach:
1. Möglichst kurze Szenen wählen (5-15 Sekunden finde ich ok).
2. Mindestens 2 (besser 3) Durchläufe starten. Die einzelnen Werte sollten auf keinen Fall stark von einander abweichen. Und daraus den Durchschnitt errechnen.
3. Auf keinen Fall mit min.fps arbeiten, nur avg.fps sind brauchbar.
PS: wenn ich Savegame-Tests durchführe bewege ich mich nie selbst. So kann die KI auf mich immer gleich reagieren. Man kann natürlich sich auch vorwärts bewegen (zb. in einer Rennszene), dabei sollte man aber das Savegame möglichst kurz halten (hier würde ich nur 5-10 Sekunden ansetzen) und immer den gleichen Weg mit Vollgas durchfahren, sprich auch nicht lenken.
boxleitnerb
2009-08-10, 23:04:07
Kann man sich die Sache als Tester nicht vereinfachen, indem man vorher das Savegame probespielt und Maus- und Tastatureingaben aufnimmt und dann beim eigentlichen Test simuliert? Das müsste doch möglich sein, Keystrokerecorder gibts doch schon, warum nicht auch mit Maus?
Ergebnis wäre perfekte Vergleichbarkeit, sofern die Szene nicht allzu lang ist wie du sagst. Die KI dürfte nicht jedesmal genau gleich reagieren, wenn sie gut ist, das kann ich mir nun nicht vorstellen :)
Ich erinnere mich noch wie oft ich bei den NFS-Teilen mich geärgert hab, wenn ich einen groben Fahrfehler gemacht habe...dann hab ich neu angefangen und mal gabs einen heftigen Crash in den ersten paar Sekunden, mal nicht...es war auf jeden Fall nicht immer gleich. Schwierig...
dargo
2009-08-10, 23:14:17
Die KI dürfte nicht jedesmal genau gleich reagieren, wenn sie gut ist, das kann ich mir nun nicht vorstellen :)
Nun, wenn das hier so stimmt wie du es sagst dann ist die KI in heutigen Games strohdumm. Nein, jetzt mal ernsthaft - wie schlau die KI heute wirklich ist kann ich als Laie nicht bestimmen. Ob da bei jedem Durchlauf kleine Abweichungen vorhanden sind weiß ich nicht genau da ich wie gesagt meine Tests sehr kurz halte (5 Sekunden).
Deswegen sollte man aber auch mehrere Duchläufe starten. Du kannst dich sicherlich an die von mir getestete 15 Sekunden Szene mit FC2 erinnern (hier im Thread) - dort habe ich jeweils zwei Durchläufe gestartet. Die einzelnen Ergebnisse weichten nur hinterm Komma im Zehntelbereich von einander ab.
Edit:
Kleine Ergänzung zum letzten Post.
4. Das Savegame selbstverständlich immer vom gleichen Ausgangspunkt starten. Und hier fängt das große Problem bei neuen Games (gerade Konsolenports) an - man hat einfach keine Möglichkeit frei zu speichern.
=Floi=
2009-08-10, 23:14:42
aber genau da liegt das problem, welches dargo so umgehen will. die intelligente ki könnte zB auch granaten werfen und diese explosion wiederum zu stark die framerate beeinflussen. alleine 2 gegner mehr im blickfeld könnten das ergebnis ebenso verfälschen. (vom cpu zum grafikkartenlimit etc.)
y33H@
2009-08-10, 23:15:01
Es ist eigentlich keine Kunst, ein Save zu erstellen, in dem man 15-60 Sekunden rumläuft und die Fps sich bei 3 Runs nur um maximal 0,7 Fps unterscheiden. Die Szene bzw. die Settings muss/müssen nur entsprechend CPU- oder GPU-lastig sein und man sich eine Weile mit dem Spiel beschäftigen und es möglichst durchspielen. Das kostet Zeit und benötigt Erfahrung und ein Gespür für eine gute Benchszene - und das hat bzw. kann halt nicht jeder.
dargo
2009-08-10, 23:22:47
aber genau da liegt das problem, welches dargo so umgehen will. die intelligente ki könnte zB auch granaten werfen und diese explosion wiederum zu stark die framerate beeinflussen. alleine 2 gegner mehr im blickfeld könnten das ergebnis ebenso verfälschen. (vom cpu zum grafikkartenlimit etc.)
Welches Problem? Du spielst Szene X durch und siehst wie sich die KI verhält. Spielst die Szene nochmal durch und speicherst (um mal dein Beispiel zu nehmen) kurz bevor die KI eine Granate wirft ab. Ab dieser Stelle startest und benchmarkst du dein Savegame.
Wenn natürlich das Game kein freies Speichern ermöglicht hast du ein Problem.
Es ist eigentlich keine Kunst, ein Save zu erstellen, in dem man 15-60 Sekunden rumläuft und die Fps sich bei 3 Runs nur um maximal 0,7 Fps unterscheiden.
Hierzu eine Anmerkung von mir - bei zu langer Laufzeit kann es passieren, dass die Durchläufe im Durchschnitt zwar kaum von einander abweichen, in den einzelnen Szenen aber schon größere Unterschiede vorhanden sind. Durch die Glättung der Frames innerhalb von 60 Sekunden erkennt man solche Situationen nicht.
Nehmen wir mal einen extremen Fall - du startest eine 60 Sekunden Messung. Bei Sekunde 5-10 hast du eine extrem cpu-limitierte Stelle (also eine Dauer von 6 Sekunden). Der Rest ist eher stärker gpu-limitiert. Im Durchschnitt wirst du den Einbruch der bei Sekunde 5-10 aufgetreten ist praktisch durch die Glättung der fps gar nicht merken.
y33H@
2009-08-10, 23:31:26
Dafür gibts Min-Fps. Und die sind bei der von dir genannten extrem CPU-limitierten Stelle reproduzierbar.
dargo
2009-08-10, 23:32:57
Dafür gibts Min-Fps. Und die sind bei der von dir genannten extrem CPU-limitierten Stelle reproduzierbar.
Was machst du wenn du zwei extrem cpu-limitierte Stellen hast? Die min.fps werden nur einmal erfasst. Oder noch schlimmer - wenn die min.fps aus einer extremen GPU-Limitierung resultieren?
y33H@
2009-08-10, 23:35:48
Dann erfasse ich natürlich nur die der fordernderen extrem CPU-limitierten Stelle ;D Solche Saves sind zumindest bei mir (ergo meist auch PCGH) ziemlich selten und wenn, bieten sich hier Verlaufsdiagramme an - etwa bei Risen, wenn gestreamt wird.
Sonyfreak
2009-08-11, 00:27:37
Was machst du wenn du zwei extrem cpu-limitierte Stellen hast? Die min.fps werden nur einmal erfasst. Oder noch schlimmer - wenn die min.fps aus einer extremen GPU-Limitierung resultieren?Mit Fraps kann man ja problemlos einen Frameratenverlauf aufzeichnen. Das dürfte dann ja kein weiteres Problem sein oder?
mfg.
Sonyfreak
Schlammsau
2009-08-11, 07:47:24
Was machst du wenn du zwei extrem cpu-limitierte Stellen hast? Die min.fps werden nur einmal erfasst. Oder noch schlimmer - wenn die min.fps aus einer extremen GPU-Limitierung resultieren?
Wie ihr sicher noch wisst, hatte ich bis vor kurzem noch einen E4300@3Ghz.
Dieser unglaublich "schlechte" Prozzi, mit seinen 2MB L2 Cache und einem geschätzen Wert von 20-30€, hat es mir ermöglicht, alle Spiele Ruckelfrei geniessen zu können. Klar, Benchmarks konnte ich mit ihm keine mehr gewinnen, aber zum Zocken/Surfen/Bildbearbeitung hat er mehr als dicke gereicht. Vereinzelt gab es mal Einbrüche, die waren aber eigentlich nicht der Rede wert. Jetzt hab ich mir nen Quad gegönnt, aber ich muss sagen, dafür dass ich jetzt eigentlich meine Leistung vervierfacht habe (E4300>Q9550), bin ich doch ein wenig enttäuscht. Die Games laufen zwar ein wenig besser, aber maximal im Faktor 2 nicht 4!
Also hört endlich auf mit dem Mist!
boxleitnerb
2009-08-11, 08:06:15
Aha, 2 Kerne auf 4 Kerne ist Faktor 4...interessant. Sagst du mir, wie du das hinbekommen hast, würde mich beim Umstieg auf nen Quad im Herbst auch über so einen Leistungsgewinn freuen!
Und wenn du bei einigen Games ein deutliches Plus merkst bis hin zu Faktor 2...what's the problem? Ist ja witzig, genau damit hast du etwas erkannt, was im CB-Test NICHT klar wird im Spielebereich. Herzlichen Dank für die Unterstützung, scheinbar hast du es endlich auch kapiert, dass da was im Argen liegt.
Nochmal extra für dich:
Der Test sollte Leuten als Informationsquelle dienen, die HEUTE (!!!!!!!!!!!) eine neue CPU kaufen wollen. Sprich: Die "Ergebnisse" sollten eine Leistungseinschätzung für HEUTE + ca. 2 Jahre ermöglichen.
Wann hast du deinen E4300 gekauft? 2010, 2011?
Lesen bildet...
Schlammsau
2009-08-11, 08:25:30
Aha, 2 Kerne auf 4 Kerne ist Faktor 4...interessant.
Ähm ja! ;)
E4300@1,8GHz - 2MB Cache(OCed auf 2,99Ghz) > Q9550@2,83GHz - 6MB Cache (OCed auf 3,74Ghz).
Wenn ich mir meine Benchmarks so ansehe, kann ich von annähernd Vervierfachung sprechen. Vergiss nicht die internen Verbesserungen!
Ich hab doch maximal geschrieben oder!? Im Schnitt ist es vielleicht im Faktor 1,5x.
Ich betreite ja nicht, dass mein Quad in Games schneller ist als mein alter Dual. Aber Fakt ist, dass im normalen Spielgeschehen, der Unterschied marginal ist, weil es eben wie hier schon oft beschrieben, nie ein 100 protzentiges CPU Limit gibt und geben wird.
boxleitnerb
2009-08-11, 08:52:04
Ah sorry, Cache hab ich nicht bedacht. Da kommt dann schon durchaus mehr als nur Faktor 2 raus.
Klar gibt es 100% CPU Limit, wenn du damit die Lastverteilung zwischen GPU und CPU meinst. Natürlich nicht, wenn man sich auf die Zeit bezieht - das war auch nie gemeint.
Es kommt aufs Spiel an, wieviel Prozent der Spielzeit ein Quad (bzw. ein potenterer DC als die kleinen für um die 60€) ein signifikant besseres Ergebnis liefert, wo es vorher vielleicht zäh bis ruckelig lief. Wenn das über 6h Spielzeit verteilt nur 1min ist, wayne. Aber wer kann das schon mit Sicherheit sagen, wenn er das Spiel noch nicht mit der neuen CPU gespielt hat? Kommt ja auch auf das jeweilige Vorgehen an im Spiel, in welche wie auch immer lastigen Situationen man kommt.
Und das noch für zukünftige Spiele? Schwierig!
Schlammsau
2009-08-11, 09:13:08
Ah sorry, Cache hab ich nicht bedacht. Da kommt dann schon durchaus mehr als nur Faktor 2 raus.
Aber leider nie bei Real Game Szenarios!
Beispiel Crysis (Warhead), durch den Quad haben sich zwar meine Min.-Fps verbessert, aber noch lang nicht so, wie ich erhofft hatte. Von ~12 auf ~19FPS....ist mehr als dürftig. Die AVG-FPS sind auch nicht wirklich gestiegen.
Und das noch für zukünftige Spiele? Schwierig!
Das kann keiner wissen. Hatte den E4300 - 1 1/2 Jahre lang, damals kostete er 110€, und bin bis zuletzt gut mit ihm augekommen. Gut mit Übertaktung, aber für diesen Preis....
boxleitnerb
2009-08-11, 09:19:07
12 auf 19, das sind über 50% ! Es wäre auch interessant zu wissen, wie sich die min-nahen fps verhalten über der Zeit.
Ja mit Übertaktung, macht auch nicht jeder ;)
Schlammsau
2009-08-11, 09:33:26
12 auf 19, das sind über 50% ! Es wäre auch interessant zu wissen, wie sich die min-nahen fps verhalten über der Zeit.
Ja mit Übertaktung, macht auch nicht jeder ;)
Einen Frameverlauf hab ich nicht gemacht.
Aber rein vom subjektiven Gefühl her, hat sich nicht wirklich viel verbessert!
Ja, aber der E4300 war damals schon unterstes Leistungsniveau. Hab ihn mir nur wegen des sehr guten P/L Verhältnisses und der guten Übertaktbarkeit gekauft. Und ich wurde nicht enttäuscht!
Es stimmt schon, in 90% der Fälle, reicht ein Mittelklasse Prozzi zum zocken vollkommen aus, klar gibt es Ausnahmen, aber die bestätigen die Regel!
dargo
2009-08-11, 09:56:29
Jetzt hab ich mir nen Quad gegönnt, aber ich muss sagen, dafür dass ich jetzt eigentlich meine Leistung vervierfacht habe (E4300>Q9550), bin ich doch ein wenig enttäuscht. Die Games laufen zwar ein wenig besser, aber maximal im Faktor 2 nicht 4!
Also hört endlich auf mit dem Mist!
Willst du jetzt ernsthaft mit mir über gefühlte Framesteigerung diskutieren? :|
Sorry, aber dafür ist mir meine Zeit zu schade.
Und wie du darauf kommst - ein Q9550@3,74Ghz wäre um den Faktor 4 schneller als ein E4300@3Ghz, vorallem in einer DC-Anwendung @Warhead soll mal auch einer verstehen. :ugly:
Master3
2009-08-11, 10:11:02
Ja, aber der E4300 war damals schon unterstes Leistungsniveau. Hab ihn mir nur wegen des sehr guten P/L Verhältnisses und der guten Übertaktbarkeit gekauft. Und ich wurde nicht enttäuscht!
Es stimmt schon, in 90% der Fälle, reicht ein Mittelklasse Prozzi zum zocken vollkommen aus, klar gibt es Ausnahmen, aber die bestätigen die Regel!
Du sagst es. Ich habe das damals ebenso gemacht mit einem E4400.
Hatte dann im März diesen Jahres auf einen Q8200 gewechselt um mit OC wieder auf ein ordentliches Leistungsniveau zu kommen.
Unterschiede zum DC sind mir kaum aufgefallen bis auf GTA 4. Dafür ist die Kiste jetzt für das Nächste bzw. nächsten 2 Jahre einigermaßen gerüstet.
hardtech
2009-08-11, 11:22:45
Du sagst es. Ich habe das damals ebenso gemacht mit einem E4400.
Hatte dann im März diesen Jahres auf einen Q8200 gewechselt um mit OC wieder auf ein ordentliches Leistungsniveau zu kommen.
Unterschiede zum DC sind mir kaum aufgefallen bis auf GTA 4. Dafür ist die Kiste jetzt für das Nächste bzw. nächsten 2 Jahre einigermaßen gerüstet.
meine rede. kaum unterschiede. daher bleibe ich noch bei dc und warte auf 32nm. bis dahin sind auch mehr spiele qc optimiert. :biggrin:
Schrotti
2009-08-11, 12:35:41
meine rede. kaum unterschiede. daher bleibe ich noch bei dc und warte auf 32nm. bis dahin sind auch mehr spiele qc optimiert. :biggrin:
Gerade du würdest den Sprung erheblich merken. Ich bin auch von einem Pentium E 2160@3GHz zuerst auf einen E8400 und dann auf einen Q9450.
Der kleine Cache bremst den E2160 doch schon erheblich aus.
hardtech
2009-08-11, 13:58:59
hej schrotti, wobei würde ich es merken? meine spiele wie call of juarez, cod5, street fighter 5 laufen beo 1920x1200 ohne merkliche ruckler, nachsetzer oder sonst was. es besteht keine notwendigkeit zu wechseln. ;)
ausserdem möchte ich usb 3.0 nutzen und bis dahin wird ej nicht aufgerüstet.
alle Spiele Ruckelfrei
Was sind denn bei dir "alle" Spiele?
Schlammsau
2009-08-11, 14:19:03
Was sind denn bei dir "alle" Spiele?
Alle Spiele die ich bisher gezockt habe.
Wie ihr sicher noch wisst, hatte ich bis vor kurzem noch einen E4300@3Ghz.
Dieser unglaublich "schlechte" Prozzi, mit seinen 2MB L2 Cache und einem geschätzen Wert von 20-30€, hat es mir ermöglicht, alle Spiele Ruckelfrei geniessen zu können.
Warum bist du umgestiegen?
Hast du gedacht es geht besser als ruckelfrei?
Schlammsau
2009-08-11, 19:49:54
Warum bist du umgestiegen?
Hast du gedacht es geht besser als ruckelfrei?
Ich bin nicht wegen der Games umgestiegen.
Man kann den PC auch noch für was anderes als Gamen verwenden, oder täusche ich mich da?
y33H@
2009-08-11, 20:07:47
Stimmt, 1.080p-pr0n etwa ;D
Stimmt, 1.080p-pr0n etwa ;D
Ja – möchtest du den schneiden oder sonstwie bearbeiten und neu rendern, braucht's viele Kernchen. ;) Die Programme skalieren exzellent mit den Cores, weiß du doch. Viele andere Einsatzzwecke für 'nen Vierkerner, vielleicht noch mit 8 Freds, wüsste ich aber auch nicht ...
MfG,
Raff
Schlammsau
2009-08-11, 20:11:57
Stimmt, 1.080p-pr0n etwa ;D
Unter anderem. ;D
Videobearbeitung ist bei mir der Hauptgrund gewesen!
y33H@
2009-08-11, 20:28:10
Dann künftig bitte keine zerkomprimierten BQ-Videos mehr ;D Und nun B2T *g*
Schlammsau
2009-08-11, 20:30:38
Dann künftig bitte keine zerkomprimierten BQ-Videos mehr ;D Und nun B2T *g*
Keine Angst da kommt nichts mehr!
y33H@
2009-08-11, 20:39:33
Ich vergaß, du bist ja nun auf der dunklen Seite der Macht :D
Schlammsau
2009-08-11, 20:43:52
Ich vergaß, du bist ja nun auf der dunklen Seite der Macht :D
Wer weiss wie lange noch...... :devil:
Ich bin nicht wegen der Games umgestiegen.
Man kann den PC auch noch für was anderes als Gamen verwenden, oder täusche ich mich da?Hat sich anders gelesen.
Als ob man dich beschissen hätte, das du obwohl alles super ist mal eben ein 4mal flüssigeres Spiel* als ein flüssiges Spiel erwartet hast.
*Bei deinen Spielen, Ansprüchen und Settings
Keine Angst da kommt nichts mehr!
Ach ja, mit einer Geforce kann man nicht mehr zeigen was für hübsche Bilder eine Radeon zaubert.
Auch die Geforce Nutzer aufzufordern, die fleissig Videos gedreht haben endlich Videos zu drehen wird schwer.
Schlammsau
2009-08-12, 11:28:12
Hat sich anders gelesen.
Als ob man dich beschissen hätte, das du obwohl alles super ist mal eben ein 4mal flüssigeres Spiel* als ein flüssiges Spiel erwartet hast.
*Bei deinen Spielen, Ansprüchen und Settings
Ja bei den Spielen, die ich spiele!
Ach ja, mit einer Geforce kann man nicht mehr zeigen was für hübsche Bilder eine Radeon zaubert.
Auch die Geforce Nutzer aufzufordern, die fleissig Videos gedreht haben endlich Videos zu drehen wird schwer.
Nö das Thema ist für mich gestorben!
Also mir fällt sofort ein Spiel ein das sogar 8 kerne nutzt und keine Grafik braucht.....
spielt einfach Schach mit der Kiste ;-)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.