PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : i5/i7 - Phenom II X6 Fakten statt Flames


Seiten : 1 [2] 3 4 5 6

Headjunkie
2010-07-24, 12:19:33
Jetzt simma nach 13 Seiten immer noch net wirklich weiter als am Anfang (-:

Zusammenfassend koennte man vielleicht sagen(in Deckung gehe):
Wenn wirklich nur Spiele genutzt werden, ist der i5 die eindeutig bessere CPU.
Wenn auch andere Anwendungen genutzt werden ist es zumindest Gleichstand und die 6Kerne Besitzer(mich eingeschlossen) haben halt 50% groessere Schwaenze! (: Und in Zukunft wird der X6 zumindest in einem gemischten System wahrscheinlich besser fahren.

NaseWeiss
2010-07-24, 12:20:50
Jetzt geht das wieder los. *andenkopffass*

Meine Antwort ist auf den Post von boxleitnerb bezogen. Ich weiß nicht warum du damit ein Problem hast?! ;)

NaseWeiss
2010-07-24, 12:22:52
Jetzt simma nach 13 Seiten immer noch net wirklich weiter als am Anfang (-:

Zusammenfassend koennte man vielleicht sagen(in Deckung gehe):
Wenn wirklich nur Spiele genutzt werden, ist der i5 die eindeutig bessere CPU.
Wenn auch andere Anwendungen genutzt werden ist es zumindest Gleichstand und die 6Kerne Besitzer(mich eingeschlossen) haben halt 50% groessere Schwaenze! (: Und in Zukunft wird der X6 zumindest in einem gemischten System wahrscheinlich besser fahren.

:D

puntarenas
2010-07-24, 12:24:58
Meine Antwort ist auf den Post von boxleitnerb bezogen. Ich weiß nicht warum du damit ein Problem hast?! ;)
Vielleicht, weil dein "Standpunkt" von Unverständnis zeugt und das sehr schade ist, weil das Verständnisproblem sogar hier im Thread bereits ausführlich geklärt wurde:

Undertaker (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8157632#post8157632)
BlackBirdSR (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8157746#post8157746)

In einem Thread, der das Leistungspotential von Prozessoren aus Gamer-Sicht zum Thema hat unermüdlich darauf zu beharren, dass einen das Leistungspotential nicht interessiert, ist einfach nicht besonders prickelnd aufreizend ignorant.

Amun-Re
2010-07-24, 12:26:46
Eine in meinen Augen sehr pragmatische Einschätzung zu diesem Thema kommt von 3DCenter selbst und war auch immer mein persönlicher Leitfaden beim aussprechen einer Empfehlung.


Fall 1 14 Anwendungsbenchmark mit im Schnitt 7,7 Prozent Vorteil AMD sowie 5 Spiele-Benchmarks mit im Schnitt 17,8 Prozent Nachteil AMD +1,0%
Fall 2 dasselbe wie Fall 1 zuzüglich drei weiterer Spiele-Benchmarks mit derselben Performance-Charakteristik (Benchmarkverhältnis 14:8) -1,6%
Fall 3 dasselbe wie Fall 1 zuzüglich neun weiterer Spiele-Benchmarks mit derselben Performance-Charakteristik (Benchmarkverhältnis 14:14) -5,1%



Und bei der Frage, wo man den Phenom II X6 nun letztlich vorzieht und kauft, gilt das gleiche wie bei der Frage, wie man dessen Testergebnisse auswertet: Nicht eine einzelne insgesamte Zahl drückt hier die Wahrheit aus, sondern nur beim Blick auf die einzelnen Ergebnisse kommt man der Sache näher. Und diese sagen erst einmal, daß der Phenom II X6 keine besondere Spieler-CPU ist, sofern man auf so etwas wie Minimum-fps achtet. Denn nur in dieser Diziplin sind die Core-i7-Prozessoren klar führend, simuliert zumeist durch Benchmarks auf niedrigen Auflösungen wie 800x600. Sofern es einem ausreicht, daß der Prozessor die Grafikkarte anständig unterstützt, spielt dies aber keine große Rolle, denn bei allen praxisnahen Benchmarks unter normalen Spieler-Auflösungen ergibt sich (aufgrund der Grafikkarten-Limitierung) kein beachtbarer Performanceunterschied zwischen AMD und Intel.


http://www.3dcenter.org/artikel/zum-launch-des-phenom-ii-x6

Odal
2010-07-24, 12:35:29
Jetzt simma nach 13 Seiten immer noch net wirklich weiter als am Anfang (-:

Zusammenfassend koennte man vielleicht sagen(in Deckung gehe):
Wenn wirklich nur Spiele genutzt werden, ist der i5 die eindeutig bessere CPU.
Wenn auch andere Anwendungen genutzt werden ist es zumindest Gleichstand und die 6Kerne Besitzer(mich eingeschlossen) haben halt 50% groessere Schwaenze! (: Und in Zukunft wird der X6 zumindest in einem gemischten System wahrscheinlich besser fahren.

für diese rein theoretische Möglichkeit einer 100% 6 thread skalierenden Anwendung müsste ein PII 945 so schnell wie ein i5 sein damit diese Aussage ansatzweise "theoretisch" stimmen könnte

aber das wurde ja schon mehrmals erwähnt das selbst gut auf 6 core skalierende Anwendungen erstmal die miese IPC der PhenomII architektur aufholen müssen

NaseWeiss
2010-07-24, 12:37:32
Vielleicht, weil dein "Standpunkt" von Unverständnis zeugt und das sehr schade ist, weil das Verständnisproblem sogar hier im Thread bereits ausführlich geklärt wurde:

Undertaker (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8157632#post8157632)
BlackBirdSR (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8157746#post8157746)

In einem Thread, der das Leistungspotential von Prozessoren aus Gamer-Sicht zum Thema hat unermüdlich darauf zu beharren, dass einen das Leistungspotential nicht interessiert, ist einfach nicht besonders prickelnd aufreizend ignorant.

Vieleicht solltest du einfach lesen was ich schreibe und nicht so aufreizend ignorant, um es mit deinen Worten zu sagen, meine Posts ignorieren ;)

Fetter Fettsack
2010-07-24, 12:52:28
Zitat von boxleitnerb

... Nämlich dass es in Spielen keinen Unterschied gibt. Und diese Begründung kommt von eigentlich mindestens 80% der Hardwareberater in Foren.

Ich muss zugeben, dass ich das zuweilen auch gemacht habe. Allerdings vor allem deshalb, weil ich schlicht zu faul war, das ganze Wissen, dass etwa hier in diesem Thread ja wunderbar aufbereitet wurde und wird, einem, der eigentlich nur günstig ein brauchbares System haben will, lang und aufwendig aufzubereiten und darzustellen, wo doch die meisten eigentlich eh nur eine Art Einkaufsliste wollen.

Sicher könnte man sagen, dass dies etwas ungerecht gegenüber Intelprozessoren ist, wo die doch effizienter/leistungsstärker sind. Bei deren momentanen Preisen brächte eine "Gleichberechtigung" meiner Ansicht nach aber nicht viel, wenn etwa ein Schüler oder Student dann ohnehin wieder aufs Geld schauen muss. Da nehm ich dann lieber ein eigentlich falsches "Argument" und der freut sich, dass er was brauchbares hat, was er ohnedies hätte kaufen müssen (sagen wir ein Athlon II X4). Kann einem i5 um Welten nicht das Wasser reichen, aber er hat vier Kerne und macht, was er machen soll, wenn auch langsamer. Preis machts eben oft.

EDIT: Um auch noch die Kurve zum eigentlichen Thema zu kratzen: es kommt zumindest auf CB des öfteren vor, dass die Leute noch einiges an DDR2 RAM rumliegen haben und manchmal auch ein AM2+ Board. Da ist meiner Ansicht nach, so der Preis relevant ist, der Kauf eines 1055T X6 auch keine schlechte Idee. Sicher wird er da ein bissl eingeengt sein, aber wie es schon an anderer Stelle fiel, der 1055T wird wohl so eine Art Q6600, welcher auch heute noch (meist halt mit OC) immer noch mithalten kann. Außerdem sollten wir bei der Thread-Verteilungsdiskussion nicht vergessen, dass die meisten Spiele vorrangig für Konsolen und deren recht hohe Core-Anzahl "gemacht" werden. Von daher machen die zwei Kerne mehr auch bei schlechterem IPC sicherlich schon einen Mehrwert aus. Laut PCGH läuft ja auch BFBC2 mit einem X6 ein bissl besser.

boxleitnerb
2010-07-24, 12:59:51
Da mußt du aber mit bedenken, daß in einer Auflösung von 1680x1050 und aufwärts die Grafikkarte in weit über 90% aller Games der limitierende Faktor ist. Somit kann man auch die Aussage, "daß ein AMD System nicht langsamer ist" auch bedingt gelten lassen, denn wer spielt schon noch in 800x600?

Um mal direkt auf deinen Post einzugehen: Nö. Jedenfalls nicht pauschal.
Das CPU-Limit ist auflösungsunabhängig! Das Argument mit der Auflösung zählt nicht.
Natürlich kann es Spiele geben, die grafikkartenlastiger sind als andere - das ändert aber nichts daran, dass im eigentlichen Spiel (viele) Szenen auftreten können, in denen die CPU extrem gefordert wird - auch in 2560x1600 mit AA und AF! Schau doch die Starcraft 2 Benches an. 5830, 5850, 5870 und 5850 CF liefern praktisch die gleichen FPS in 2600er Auflösung - gnadenlos CPU-limitiert. Und das ist im Spiel - keine Timedemo, kein praxisferner Test oder so. Dort zieht der i5/i7 gnadenlos davon. Und SC2 ist nicht das einzige Spiel, bei dem das so ist.

Ich muss zugeben, dass ich das zuweilen auch gemacht habe. Allerdings vor allem deshalb, weil ich schlicht zu faul war, das ganze Wissen, dass etwa hier in diesem Thread ja wunderbar aufbereitet wurde und wird, einem, der eigentlich nur günstig ein brauchbares System haben will, lang und aufwendig aufzubereiten und darzustellen, wo doch die meisten eigentlich eh nur eine Art Einkaufsliste wollen.

Sicher könnte man sagen, dass dies etwas ungerecht gegenüber Intelprozessoren ist, wo die doch effizienter/leistungsstärker sind. Bei deren momentanen Preisen brächte eine "Gleichberechtigung" meiner Ansicht nach aber nicht viel, wenn etwa ein Schüler oder Student dann ohnehin wieder aufs Geld schauen muss. Da nehm ich dann lieber ein eigentlich falsches "Argument" und der freut sich, dass er was brauchbares hat, was er ohnedies hätte kaufen müssen (sagen wir ein Athlon II X4). Kann einem i5 um Welten nicht das Wasser reichen, aber er hat vier Kerne und macht, was er machen soll, wenn auch langsamer. Preis machts eben oft.

EDIT: Um auch noch die Kurve zum eigentlichen Thema zu kratzen: es kommt zumindest auf CB des öfteren vor, dass die Leute noch einiges an DDR2 RAM rumliegen haben und manchmal auch ein AM2+ Board. Da ist meiner Ansicht nach, so der Preis relevant ist, der Kauf eines 1055T X6 auch keine schlechte Idee. Sicher wird er da ein bissl eingeengt sein, aber wie es schon an anderer Stelle fiel, der 1055T wird wohl so eine Art Q6600, welcher auch heute noch (meist halt mit OC) immer noch mithalten kann. Außerdem sollten wir bei der Thread-Verteilungsdiskussion nicht vergessen, dass die meisten Spiele vorrangig für Konsolen und deren recht hohe Core-Anzahl "gemacht" werden. Von daher machen die zwei Kerne mehr auch bei schlechterem IPC sicherlich schon einen Mehrwert aus. Laut PCGH läuft ja auch BFBC2 mit einem X6 ein bissl besser.


Wenn man ein kleines Budget hat, ist das ja völlig iO. Aber in einen GamerPC für 1000€ ohne Monitor und Peripherie einen 1055T zu stecken, wie man es täglich in den Beratungsthreads sieht, ist aus meiner Sicht nicht wirklich verständlich - es sei denn, man hat explizit Anwendungen, die mehr als 4 Kerne unterstützen. Hier ist die Crux, dass der 760 kein HT unterstützt und der 860/870 wieder deutlich teurer ist.

dargo
2010-07-24, 13:12:53
Außerdem sollten wir bei der Thread-Verteilungsdiskussion nicht vergessen, dass die meisten Spiele vorrangig für Konsolen und deren recht hohe Core-Anzahl "gemacht" werden. Von daher machen die zwei Kerne mehr auch bei schlechterem IPC sicherlich schon einen Mehrwert aus.

Nur weil die XBox360 3 Cores mit je 2 Threads hat heißt es noch lange nicht, dass die Spiele durch die Bank von 3 oder 4 Cores stark profitieren. Es gibt noch genug Games die das nicht tun.


Laut PCGH läuft ja auch BFBC2 mit einem X6 ein bissl besser.
Bissel ist gut. X-D Der X6 ist dort laut der PCGH um Welten schneller als der X4. Allerdings habe ich bei diesem Test immer noch meine Zweifel. Jetzt nichts gegen die PCGH, aber mir kommt das Ergebnis etwas seltsam vor. Vielleicht könnte mal ein X6-User die Szene mal nachstellen? Passendes Savegame kann ich liefern. Er müsste nur BFBC2 haben.

Fetter Fettsack
2010-07-24, 13:18:09
Zitat von boxleitnerb

Aber in einen GamerPC für 1000€ ohne Monitor und Peripherie einen 1055T zu stecken, wie man es täglich in den Beratungsthreads sieht, ist aus meiner Sicht nicht wirklich verständlich - es sei denn, man hat explizit Anwendungen, die mehr als 4 Kerne unterstützen.Ich denke, das wird wohl daran liegen, dass man eben von einer weiter voranschreitenden Paralellsierung der Spiele(-threads; Stichwort: Konsolenportierungen) ausgeht, welche (zumindest der Volksmeinung nach) mit mehr nativen Kernen mehr "rockt".

Auch wird da eventuell die Vermutung, dass Bulldozer eingeschränkt abwärtskompatibel zu AM3 sein könnte, ebenso reinspielen, zumal Intel ja als notorischer Sockelwechsler "verschrieen" ist.

Außerdem kann ich mir gut vorstellen, dass das "Vorurteil", dass AMD-CPUs immer günstiger seien, sich auch in diese Regionen durchgefressen hat und daher auch preislich gleichwertige Intelsystemkonfigurationen bei manchen "Empfehlungen" das Nachsehen haben.

EDIT:

@ dargo

Nur weil die XBox360 3 Cores mit je 2 Threads hat heißt es noch lange nicht, dass die Spiele durch die Bank von 3 oder 4 Cores stark profitieren. Es gibt noch genug Games die das nicht tun.

Ich hatte das eher auf den grundsätzlichen Trend in Richtung mehr Cores bezogen. Das man momentan nicht viel davon haben wird, da stimme ich dir zu.

... Passendes Savegame kann ich liefern. Er müsste nur BFBC2 haben.

Ich hab BFBC2. Allerdings nur einen E5200. ;D

NaseWeiss
2010-07-24, 13:22:02
Um mal direkt auf deinen Post einzugehen: Nö. Jedenfalls nicht pauschal.
Das CPU-Limit ist auflösungsunabhängig! Das Argument mit der Auflösung zählt nicht.
Natürlich kann es Spiele geben, die grafikkartenlastiger sind als andere - das ändert aber nichts daran, dass im eigentlichen Spiel (viele) Szenen auftreten können, in denen die CPU extrem gefordert wird - auch in 2560x1600 mit AA und AF! Schau doch die Starcraft 2 Benches an. 5830, 5850, 5870 und 5850 CF liefern praktisch die gleichen FPS in 2600er Auflösung - gnadenlos CPU-limitiert. Und das ist im Spiel - keine Timedemo, kein praxisferner Test oder so. Dort zieht der i5/i7 gnadenlos davon. Und SC2 ist nicht das einzige Spiel, bei dem das so ist.


Also ich weiß ja nicht was du mir jetzt beweißen willst, zumal all das was du beschreibst auch in diesem Post zusammengefasst ist... Vieleicht sollte man von dir nicht verlangen, den Inhalt eines Postes auch zu verstehen...

Edit:
Und die Leistung nur auf ein Game hin zu beurteilen, daß erstens noch nichtmal auf dem Markt ist und zweitens wahrscheinlich Inteloptimiert ist kann man als allgemeingültige Aussage nunmal nicht stehen lassen!

boxleitnerb
2010-07-24, 13:31:52
Ich sagte das nur, weil du wieder mit der Auflösungssache gekommen bist und daher anscheinend nicht verstanden hast, was ein CPU-Limit ist, wann es auftritt und was es für Auswirkungen hat.

Inteloptimiert, schlecht programmiert, biased...man kann mit sowas kommen, wenn einem die Argumente ausgehen. Toll ist es nicht, aber man kann es machen ;)

Und es ist ja nicht nur ein Spiel. Bei diesem sieht man es halt besonders gut ohne auf eine explizite CPU-Limitierung hinarbeiten zu müssen (Savegames, Stellen suchen etc.)

Amun-Re
2010-07-24, 13:32:48
Also ich weiß ja nicht was du mir jetzt beweißen willst, zumal all das was du beschreibst auch in diesem Post zusammengefasst ist... Vieleicht sollte man von dir nicht verlangen, den Inhalt eines Postes auch zu verstehen...


Nimms nicht persönlich aber an etwas weniger Polemik wäre mir sehr gelegen einfach weil ich ein Interesse daran hab das der Thread (wie bisher) auf einer sachlichen Diskussionsebene weiter fortgeführt wird. Wenn du also den Inhalt des Themas hier allenfalls überfliegst (was einige Äußerungen von dir vermuten lassen) dann wäre ich dir zumindest sehr dankbar dafür wenn du deinen Äußerungen nicht immer all zu offensichtlich den "grün-weißen" Anstrich verpasst ;)

puntarenas
2010-07-24, 13:39:43
Ich weiß nicht warum ich alles nochmal beschreiben soll? steht doch alles schon weiter oben...
Meine Antwort ist auf den Post von boxleitnerb bezogen. Ich weiß nicht warum du damit ein Problem hast?! ;)
Vieleicht solltest du einfach lesen was ich schreibe und nicht so aufreizend ignorant, um es mit deinen Worten zu sagen, meine Posts ignorieren ;)
Also ich weiß ja nicht was du mir jetzt beweißen willst, zumal all das was du beschreibst auch in diesem Post zusammengefasst ist... Vieleicht sollte man von dir nicht verlangen, den Inhalt eines Postes auch zu verstehen...


Ich bin gern bereit, den entsprechenden Beitrag noch einmal zu ziteren. Vielleicht sollte das Unverständnis und die Ablehnung, auf die du damit gestoßen bist, dir ein Anreiz sein diesen noch einmal selbst zu hinterfragen:

Da mußt du aber mit bedenken, daß in einer Auflösung von 1680x1050 und aufwärts die Grafikkarte in weit über 90% aller Games der limitierende Faktor ist. Somit kann man auch die Aussage, "daß ein AMD System nicht langsamer ist" auch bedingt gelten lassen, denn wer spielt schon noch in 800x600?

Dieser und deine folgenden Beiträge bedeuten nichts anderes, als dass du in einem Thread zum Vergleich des allgemeinen Leistungspotentials zwischen Phenom II X6 1055T und Core i5 760 aus Gamer-Sicht darauf beharrst, dass das allgemeine Leistungspotential nicht interessiert. Situationen, in denen das Leistungspotential der Prozessoren von einem weitgehenden Grafikkartenlimit überlagert und die Unterschiede damit glattgebügelt werden, sind nun einmal nicht für einen Vergleich zwischen Prozessoren geeignet.

Noch einmal gut gemeint die beiden Links, die dir helfen können, dein Verständnisproblem zu beseitigen. Ob du das möchtest, bleibt natürlich dir selbst überlassen:

Undertaker (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8157632#post8157632)
BlackBirdSR (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8157746#post8157746)

dargo
2010-07-24, 13:42:47
Edit:
Und die Leistung nur auf ein Game hin zu beurteilen, daß erstens noch nichtmal auf dem Markt ist und zweitens wahrscheinlich Inteloptimiert ist kann man als allgemeingültige Aussage nunmal nicht stehen lassen!
Hier hast du ein weiteres:

Alles CPUs@3,5Ghz
http://www3.pic-upload.de/thumb/24.07.10/4jcaaz1jl4zc.png (http://www.pic-upload.de/view-6461465/Unbenannt.png.html)

Quelle (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=455727)

Aber lass mich raten, dir wird die Auflösung nicht passen da praxisfremd. X-D

Es gibt zig mehr Beispiele. Dass die im Netz nicht so verbreitet sind liegt nur an der Unfähigkeit der Reviewer.

dildo4u
2010-07-24, 13:47:58
Grid ist aber auch schon ein paar Tage alt,Dirt 2 mit der neuen Egoengine läuft nach dem ersten Patch ziehmlich ordentlich auf einem X6.

http://www.abload.de/img/dirt2dvgj.png

http://www.xbitlabs.com/articles/cpu/display/phenom-ii-x6-1090t_6.html#sect0

http://www.overclock3d.net/reviews/cpu_mainboard/amd_1090t_six_core_review/6

http://www.techpowerup.com/reviews/AMD/Phenom_II_X6_1055T/10.html

NaseWeiss
2010-07-24, 13:58:42
@ boleitnerb

lies bitte nochmal das:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8164987&postcount=255

und was an "...in weit über 90% aller Games" nicht zu verstehen ist, versteh ich nunmal nicht ;)

Und auf eine Handvoll Games bezogen, kann man nunmal nicht die pauschale Aussage treffen, das die AMD Prozessoren zum Gamen ungeeignet sind. Somit ist nunmal eine Empfehlung von jemanden aus einem Hardware Forum, in der Gesamtheit (bedingt) richtig wenn er sagt, dass ein AMD x6 System nicht langsamer bei Games ist als ein i7 oder i5 Intel. Was wie auch schon längst von mir beschrieben genau betrachtet und unter bestimmten Vorraussetzungen/Settings/Games so nicht ganz stimmt da sich dort der i5/i7 mit 20-30% absetzt. ABER in der SUMMER der Ergebnisse und unter realen Umgebungen vernachlässigbar ist. So wie du @Amun-Re es schon selbst ausgegraben hast: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8164987&postcount=255

Edit:
Und um nichts anderes Ging es in dem Post!

Gast
2010-07-24, 13:58:57
Alles CPUs@3,5Ghz


Und was willst du mit gleichen Taktraten?

Undertaker
2010-07-24, 13:59:18
http://www.overclock3d.net/reviews/cpu_mainboard/amd_1090t_six_core_review/6


Hier ist aber etwas mächtig schief gelaufen... Wieso skalieren die CPUs, speziell der i7, so schlecht mit dem Takt? Das würde bedeuten, es herrscht kein klares CPU-Limit. Dann wären allerdings auch alle CPUs nahezu gleich schnell...

Für mich nicht zu erklären.

derguru
2010-07-24, 13:59:38
ordentlich ist gut wenn man sich die werte unter overclock 3d anschaut aber bei minimum ist ein 3,2ghz schneller als die 4ghz variante. X-D
soviel zum thema min.werte immer für voll nehmen oder gleich benchreviews;)

edit:ja klar bei crysis wh ist eine oc amd gleich mehr als doppelt so schnell unter min.fps.:rolleyes:(wird wohl nach bauchgefühl gebencht)

dargo
2010-07-24, 14:06:13
Grid ist aber auch schon ein paar Tage alt,Dirt 2 mit der neuen Egoengine läuft nach dem ersten Patch ziehmlich ordentlich auf einem X6.

http://www.abload.de/img/dirt2dvgj.png

http://www.xbitlabs.com/articles/cpu/display/phenom-ii-x6-1090t_6.html#sect0

http://www.overclock3d.net/reviews/cpu_mainboard/amd_1090t_six_core_review/6

http://www.techpowerup.com/reviews/AMD/Phenom_II_X6_1055T/10.html
Das sieht zwar nicht schlecht aus, aber wurden die CPUs hierbei alle ohne Turbomodus getestet (meine die einen haben selbstverständlich). Und mittlere Details ist auch so eine Sache. Mir wären lieber Benchmarks mit max. Details und dafür in 640x480.

Und was willst du mit gleichen Taktraten?
Verstehst du eh nicht.

@Undertaker
Sieht nach einem GPU-Limit aus. Man muss sich nur das Skalierungsverhalten bei RE5 anschauen.

boxleitnerb
2010-07-24, 14:10:48
@ boleitnerb

lies bitte nochmal das:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8164987&postcount=255

und was an "...in weit über 90% aller Games" nicht zu verstehen ist, versteh ich nunmal nicht ;)

Und auf eine Handvoll Games bezogen, kann man nunmal nicht die pauschale Aussage treffen, das die AMD Prozessoren zum Gamen ungeeignet sind. Somit ist nunmal eine Empfehlung von jemanden aus einem Hardware Forum, in der Gesamtheit (bedingt) richtig wenn er sagt, dass ein AMD x6 System nicht langsamer bei Games ist als ein i7 oder i5 Intel. Was wie auch schon längst von mir beschrieben genau betrachtet und unter bestimmten Vorraussetzungen/Settings/Games so nicht ganz stimmt da sich dort der i5/i7 mit 20-30% absetzt. ABER in der SUMMER der Ergebnisse und unter realen Umgebungen vernachlässigbar ist. So wie du @Amun-Re es schon selbst ausgegraben hast: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8164987&postcount=255

Die Aussage "weit über 90% aller Games" stimmt eben meiner Meinung nach nicht. Ganz einfach. Sie impliziert eine Pauschalität, die nicht gegeben ist. :)

Den Post im Link hab ich gelesen. Jedoch trifft leider auch das 3DC das Problem des richtigen Benchens. Ja, durch die Grafikkarte wird der Vorteil der Intels in vielen Szenen rausgeglättet. Aber bei weitem nicht in allen. Das wird dort mit keinem Wort erwähnt. Es wird bei "praxisnahen" Settings von einem praktisch durchgehenden GPU-Limit ausgegangen (es sei denn ich habe die Formulierung komplett misinterpretiert) - und das ist doch genau DAS, was bei den meisten Benchmarks falsch gemacht wird, wenn man die Leistungsfähigkeit einer CPU bzgl. eines Spiels, in dem die Limits hin- und herwechseln (in allen Qualitätssettings) untersuchen will.
Was du immer mit "real" hast? Ein CPU-Limit in niederen Auflösungen zu benchen, ist nicht "irreal". Das CPU-Limit ist in den entsprechenden Szenen auch in HD-Auflösungen so real wie der Stuhl auf dem du sitzt.
Vernachlässigbar sind die 20-30% eben nicht. Du schreibst "in der Summe der Ergebnisse". Summe der Benchmarks oder wie? Das Problem ist doch, dass diese Benchmarks meistens nichts Brauchbares aussagen, da kein explizites CPU-Limit vorliegt. D.h. man muss sich das alles selbst erarbeiten wie Dargo z.B.

Man könnte höchstens folgende Diskussion anstoßen:
Wo sind die 30% Vorsprung nötig. Wenn ich mich an die TDU-Bilder von dargo erinnere, die er kürzlich gepostet hat, war er da im Bereich 60+fps. Da ist es wirklich egal. Punkt ist nur - er hat z.B. auch Szenen getestet, in denen ein i5-750 an der 20fps-Marke kratzt. Vielleicht eher eine Seltenheit, zugegeben. Aber die Anforderungen steigen ja auch stetig mit der Zeit. Lieber mehr Reserve als weniger.

dargo
2010-07-24, 14:15:06
edit:ja klar bei crysis wh ist eine oc amd gleich mehr als doppelt so schnell unter min.fps.:rolleyes:(wird wohl nach bauchgefühl gebencht)
;D

X6@3,2Ghz = 14 min.fps
X6@4,1Ghz = 38 min.fps

Nee... Leute, da hat einer ganz schön Mist gebaut.:D


Wo sind die 30% Vorsprung nötig. Wenn ich mich an die TDU-Bilder von dargo erinnere, die er kürzlich gepostet hat, war er da im Bereich 60+fps. Da ist es wirklich egal. Punkt ist nur - er hat z.B. auch Szenen getestet, in denen ein i5-750 an der 20fps-Marke kratzt. Vielleicht eher eine Seltenheit, zugegeben. Aber die Anforderungen steigen ja auch stetig mit der Zeit. Lieber mehr Reserve als weniger.
Nee, also ein i5-750 kratzt nirgendwo an der 20fps-Marke. Um gottes Willen - so fordernd sind die Spiele heute nun auch nicht. :D

Fetter Fettsack
2010-07-24, 14:30:02
Und was willst du mit gleichen Taktraten?

Skalierungstest für Engines. Da sind gleiche Taktraten zwecks Vergleichbarkeit von Nöten.

boxleitnerb
2010-07-24, 14:32:18
;D

X6@3,2Ghz = 14 min.fps
X6@4,1Ghz = 38 min.fps

Nee... Leute, da hat einer ganz schön Mist gebaut.:D


Nee, also ein i5-750 kratzt nirgendwo an der 20fps-Marke. Um gottes Willen - so fordernd sind die Spiele heute nun auch nicht. :D

Hattest du nicht neulich was gepostet von TDU, Regen etc.?

Undertaker
2010-07-24, 14:32:29
@Undertaker
Sieht nach einem GPU-Limit aus. Man muss sich nur das Skalierungsverhalten bei RE5 anschauen.

Ich meinte da speziell Dirt 2... Der i7 930 soll dort (alles avg) 63fps schaffen, der 1090T @ 4,1GHz 90fps. Nun, meinetwegen. Jetzt soll mir aber mal einer erklären, warum eine knapp 50%ige Übertaktung des i7 auf 4,0GHz die fps nur um gut 5% auf 67fps steigern soll. Das ist absolut unsinnig. Bei dieser Skalierung bräuchte der i7 ~9,5Ghz, um mit dem 4,1GHz X6 gleichzuziehen. :freak:

dargo
2010-07-24, 14:49:57
Ich meinte da speziell Dirt 2... Der i7 930 soll dort (alles avg) 63fps schaffen, der 1090T @ 4,1GHz 90fps. Nun, meinetwegen. Jetzt soll mir aber mal einer erklären, warum eine knapp 50%ige Übertaktung des i7 auf 4,0GHz die fps nur um gut 5% auf 67fps steigern soll. Das ist absolut unsinnig. Bei dieser Skalierung bräuchte der i7 ~9,5Ghz, um mit dem 4,1GHz X6 gleichzuziehen. :freak:
Wo bist du denn gerade? :D
Dildo hat 3 Links gepostet, ich blicke langsam nicht mehr durch. ;D

Hattest du nicht neulich was gepostet von TDU, Regen etc.?
Regen? Nee, du verwechselt da glaube ich was mit einem anderen User. Da gings aber afaik um GTR 2.

Undertaker
2010-07-24, 14:54:06
Na bei dem, den ich in #270 gequotet hatte. ;) Also nochmal zusammengefasst:

http://www.overclock3d.net/reviews/cpu_mainboard/amd_1090t_six_core_review/6

Abschnitt Dirt 2, Durchschnittswerte: Der Leistungsabstand zwischen dem i7 930 und dem 1090T @ 4,1GHz beträgt dort 43%. Eine ebenfalls 43%ige Übertaktung des i7 auf 4,0Ghz bringt nur gut 6% Mehrleistung.

-> Unmöglich.

dargo
2010-07-24, 15:01:28
Na bei dem, den ich in #270 gequotet hatte. ;) Also nochmal zusammengefasst:

http://www.overclock3d.net/reviews/cpu_mainboard/amd_1090t_six_core_review/6

Abschnitt Dirt 2, Durchschnittswerte: Der Leistungsabstand zwischen dem i7 930 und dem 1090T @ 4,1GHz beträgt dort 43%. Eine ebenfalls 43%ige Übertaktung des i7 auf 4,0Ghz bringt nur gut 6% Mehrleistung.

-> Unmöglich.
Ach, da bist du. :tongue:

Einfach diesen Benchmark-Müll ignorieren. Da sind so viele Fehler drin, dass es schon weh tut.

gahmuret
2010-07-24, 15:03:58
Naja der i7 könnt sich bei dirt2 mit ht selbst ein beinstellen. Bei vista hatte man ja auch das problem bei vielen spielen mit ht (weil vista alzu gern kern0 füllte und die anderen 3 kerne däumchen drehen lies usw.).

NaseWeiss
2010-07-24, 15:09:38
Die Aussage "weit über 90% aller Games" stimmt eben meiner Meinung nach nicht. Ganz einfach. Sie impliziert eine Pauschalität, die nicht gegeben ist. :)

Den Post im Link hab ich gelesen. Jedoch trifft leider auch das 3DC das Problem des richtigen Benchens. Ja, durch die Grafikkarte wird der Vorteil der Intels in vielen Szenen rausgeglättet. Aber bei weitem nicht in allen. Das wird dort mit keinem Wort erwähnt. Es wird bei "praxisnahen" Settings von einem praktisch durchgehenden GPU-Limit ausgegangen (es sei denn ich habe die Formulierung komplett misinterpretiert) - und das ist doch genau DAS, was bei den meisten Benchmarks falsch gemacht wird, wenn man die Leistungsfähigkeit einer CPU bzgl. eines Spiels, in dem die Limits hin- und herwechseln (in allen Qualitätssettings) untersuchen will.
Was du immer mit "real" hast? Ein CPU-Limit in niederen Auflösungen zu benchen, ist nicht "irreal". Das CPU-Limit ist in den entsprechenden Szenen auch in HD-Auflösungen so real wie der Stuhl auf dem du sitzt.
Vernachlässigbar sind die 20-30% eben nicht. Du schreibst "in der Summe der Ergebnisse". Summe der Benchmarks oder wie? Das Problem ist doch, dass diese Benchmarks meistens nichts Brauchbares aussagen, da kein explizites CPU-Limit vorliegt. D.h. man muss sich das alles selbst erarbeiten wie Dargo z.B.

Man könnte höchstens folgende Diskussion anstoßen:
Wo sind die 30% Vorsprung nötig. Wenn ich mich an die TDU-Bilder von dargo erinnere, die er kürzlich gepostet hat, war er da im Bereich 60+fps. Da ist es wirklich egal. Punkt ist nur - er hat z.B. auch Szenen getestet, in denen ein i5-750 an der 20fps-Marke kratzt. Vielleicht eher eine Seltenheit, zugegeben. Aber die Anforderungen steigen ja auch stetig mit der Zeit. Lieber mehr Reserve als weniger.

Ich stimme trotzdem den 3DCenter Leuten zu, wenn sie in der Summe der Ergebnisse die Aussage treffen: daß bei praxisnahen (und nix anderes hab ich mit realer Umgebung gemeint) Benchmarks unter normaler Spieler-Auflösung (aufgrund der Grafikkarten-Limitierung) kein beachtbarer Performanceunterschied zwischen AMD und Intel existiert. Ausnahmen bestätigen nunmal die Regel! Und diese Ausnahmen machen nunmal in der Summe aller Games nich annähernd 10% aus.

Damit sag ich nicht daß Benches in praxisferner Umgebung quatsch ist! Wieso du mir permanent solche Dinge unterstellst, begreif ich nicht!

Edit:
Was natürlich am Ende den Schluß zulässt, zu Sagen, daß in weit über 90% aller Games kein Unterschied zwischen x6 und i5/i7 in realer Umgebung, also in Auflösungen jenseits der 1680`ger mit AA/AF zu bemerken ist. Die Aussage bleibt richtig, daran ändert auch der Thread nichts.

Gast
2010-07-24, 15:13:11
Geile Aussage ala ein Audi RS5 ist genauso schnell wie ein Golf 6 GTI - beide bei 250 km/h abgeregelt. => der Golf gewinnt ;D

boxleitnerb
2010-07-24, 15:29:56
Ich stimme trotzdem den 3DCenter Leuten zu, wenn sie in der Summe der Ergebnisse die Aussage treffen: daß bei praxisnahen (und nix anderes hab ich mit realer Umgebung gemeint) Benchmarks unter normaler Spieler-Auflösung (aufgrund der Grafikkarten-Limitierung) kein beachtbarer Performanceunterschied zwischen AMD und Intel existiert. Ausnahmen bestätigen nunmal die Regel! Und diese Ausnahmen machen nunmal in der Summe aller Games nich annähernd 10% aus.

Damit sag ich nicht daß Benches in praxisferner Umgebung quatsch ist! Wieso du mir permanent solche Dinge unterstellst, begreif ich nicht!

Edit:
Was natürlich am Ende den Schluß zulässt, zu Sagen, daß in weit über 90% aller Games kein Unterschied zwischen x6 und i5/i7 in realer Umgebung, also in Auflösungen jenseits der 1680`ger mit AA/AF zu bemerken ist. Die Aussage bleibt richtig, daran ändert auch der Thread nichts.

Du hast wiedermal nicht ansatzweise verstanden, was die anderen und ich hier geschrieben haben. Tut mir leid, nochmal will ich es nicht erklären.

NaseWeiss
2010-07-24, 15:37:18
Das betrifft wohl eher dich, denn du begreifst leider nicht was 3DCenter damit beschreibt.

NaseWeiss
2010-07-24, 15:40:19
Geile Aussage ala ein Audi RS5 ist genauso schnell wie ein Golf 6 GTI - beide bei 250 km/h abgeregelt. => der Golf gewinnt ;D
genau! wenn beide 250 fahren, fahren beide 250 egal ob mit benzin, mit anhänger oder bremsklotz, von 1mille pferden gezogen oder ferrari bei halbgas... egal 250 bleibt 250

boxleitnerb
2010-07-24, 15:52:13
Das betrifft wohl eher dich, denn du begreifst leider nicht was 3DCenter damit beschreibt.

Ich begreife es schon, nur ist nicht alles, was 3DC schreibt, auch der Weisheit letzter Schluss.
Es wurde nun von 3 oder 4 Leuten mehrmals erklärt. Lies dich einfach nochmal in Ruhe durch, dann passt das schon :smile:

NaseWeiss
2010-07-24, 16:10:30
Also langsam fehlen mir die Worte... natürlich ist der i7/i5 schneller als der x6, das streitet doch keiner ab und wird hier Benchmark für Benchmark bewiesen?!
Aber, und nun zum letzten mal, in praxisnaher Umgebung (wie nun hundert mal beschrieben und nun nicht weiter ausgeführt); dazu zählen auch keine Worstcase Szenarien, da man diese nur selten manchmal sogar nie zu gesicht bekommet; merkt man den Unterschied nur in den seltnsten Fällen (wie du sogar selber schreibst), nämlich deutlich weniger als 10% aller Games

Womit die Aussage von 3Dcenter stimmig ist. Und das was hier beschrieben wird, in keinster weise von dieser Aussage berührt wird.

puntarenas
2010-07-24, 16:15:03
Merkst du eigentlich nicht, dass du den schönen Thread kaputt machst? Bitte geh weg!

Gast
2010-07-24, 16:18:17
genau! wenn beide 250 fahren, fahren beide 250 egal ob mit benzin, mit anhänger oder bremsklotz, von 1mille pferden gezogen oder ferrari bei halbgas... egal 250 bleibt 250
Und da man die Stecken wo 400 erlaubt ist nicht beachtet fällt mal eben die höhere Leistung dort unter den Tisch.

Sehr gut, auf ins Gefecht, CB mach die nächsten Timedemos ohne KI startklar!

PS: Kein Unterschied, nun gut, erklär mal den Sinn eines Phenom II 9xx. Wozu sollte man ihn kaufen und nicht einen anderen? Wozu sollte man überhaupt so viel ausgeben und nicht den nach deiner Defintion gleich guten E2180 nehmen?

Gast
2010-07-24, 16:20:21
Aber, und nun zum letzten mal, in praxisnaher Umgebung (wie nun hundert mal beschrieben und nun nicht weiter ausgeführt); dazu zählen auch keine Worstcase Szenarien, da man diese nur selten manchmal sogar nie zu gesicht bekommet; merkt man den Unterschied nur in den seltnsten Fällen (wie du sogar selber schreibst), nämlich deutlich weniger als 10% aller Games.
Die übliche Testweise 99% aller Tester ist PRAXISFERN!

NaseWeiss
2010-07-24, 16:22:03
okay, lassmer das führt zu nix...

boxleitnerb
2010-07-24, 16:22:53
Und die 10% saugst du dir aus den Fingern oder was? Du pauschalisierst, was angesichts der Thematik nicht haltbar ist.
Leider kann man die Häufigkeit der Szenen, in denen man die höhere Leistung der Intels spürt, nicht genau festlegen, da das von so vielen Faktoren abhängt. Hier mit "selten" und "nie" zu argumentieren, halte ich nicht für richtig. Denn das impliziert wieder, dass es "egal" ist, welche CPU man kauft. Im Zweifelsfall stimmt das nicht (z.B. SC2).

Und wie gesagt - Reserve. Es wird ja so gern mit dem Begriff "Zukunftssicherheit" um sich geworfen heutzutage. Ich behaupte, eine höhere IPC, spürt man im CPU-Limit immer und damit deutlich häufiger als die abnehmende Skalierung auf 6 Kerne. Das ist für mich zukunftssicher.

dargo
2010-07-24, 16:23:32
Manchmal wünsche ich mir die Masse sollte lieber stets mit einem Framecounter spielen. Viele verwechseln leider gefühlte Frames mit Fakten.


Leider kann man die Häufigkeit der Szenen, in denen man die höhere Leistung der Intels spürt, nicht genau festlegen, da das von so vielen Faktoren abhängt.
Das Grundproblem ist (und das habe ich gefühlte 100 Mal schon gesagt :freak:) die Vergleichbarkeit in Spielen aufgrund von nicht vorhandener, freier Speichermöglichkeit herzustellen. Deswegen sind CPU-Tests in Games auch so schwierig und verdammt zeitaufwändig. Zeit ist teuer, deswegen greifen 99,x% Reviewer zu den nichts sagenden Timedemos. Und die Masse zieht daraus leider völlig falsche Schlussfolgerungen. Dieser Thread beweist das wieder vorzüglich.

dargo
2010-07-24, 16:28:52
doppelpost, bitte löschen

Gast
2010-07-24, 16:29:42
Also langsam fehlen mir die Worte... natürlich ist der i7/i5 schneller als der x6, das streitet doch keiner ab und wird hier Benchmark für Benchmark bewiesen?!
Aber, und nun zum letzten mal, in praxisnaher Umgebung (wie nun hundert mal beschrieben und nun nicht weiter ausgeführt); dazu zählen auch keine Worstcase Szenarien, da man diese nur selten manchmal sogar nie zu gesicht bekommet; merkt man den Unterschied nur in den seltnsten Fällen (wie du sogar selber schreibst), nämlich deutlich weniger als 10% aller Games

Womit die Aussage von 3Dcenter stimmig ist. Und das was hier beschrieben wird, in keinster weise von dieser Aussage berührt wird.

Das Wort schneller kann hier nicht einfach so ohne jeden Bezug gebraucht werden. Bechmark A sieht in Szene X Intel vorne. Benchmark B sieht in Szene Y vorne.

Dazu kommen dann noch gewisse Einschränkungen, die ein Benchmark so mitbringt: Einstellungen im Benchmark selbst (in Bezug auf Spiele AA, Auflösung, AF), Benchmarkszenario (Spieleszene), Benchmarkfeatures (DX9 oder doch schon DX11 incl. Tesselation), usw.

Nicht zuletzt wird bei jedem Benchmark die Benchmarkauswahl jeder Redaktion kritisiert. Hinunter bis zur Auswahl der Hardware (Board, Speicher, etc.).

Das gleiche spielt sich im übrigen im Serverbereich ab (Stichwort SPEC). Dort wird aber was die Auswahl von Benchmarks bzw. die Selektion einzelner Benchmarkwerte! betrifft mit viel härteren Bandagen gekämpft. Das zeigen sowohl die Folien von Intel als auch die von AMD. Hier wird von den Veranwortlichen aber auch strenger nach Anwendungsprofil entschieden (Datenbankserver vs. Fileserver).

Letztendlich ist die Frage welche CPU schneller ist _immer_ von der Anwendung abhängig. Eine pauschale Beurteilung verbietet sich allein schon deshalb, weil hier jeder auch noch andere subjektive Prioriäten (Spiele (Strategie vs. Shooter) vs. Encoden vs. Rendering, usw.) in seine Beurteilung miteinbringt. Nicht zuletzt sehen immer mehr IHREN jeweiligen Lieblingshersteller vorne. Der Produktfanatismus im Internet ist da ja heutzutage leider sehr ausgeprägt. :D

Gast
2010-07-24, 16:32:36
Also halten wir fest.

Gestern gilt: PI = Q2Q
Heute gilt: PII = i7
Morgen gilt: PIII = i7
Doch huch, morgen gibts auch einen i9. Heißt: Q2Q = i7 = i9

Naja, könnte man jetzt einige Zeit fortführen, sodass es z.B. so heißt: P4 = i9

NaseWeiss
2010-07-24, 16:43:29
Und wie gesagt - Reserve. Es wird ja so gern mit dem Begriff "Zukunftssicherheit" um sich geworfen heutzutage. Ich behaupte, eine höhere IPC, spürt man im CPU-Limit immer und damit deutlich häufiger als die abnehmende Skalierung auf 6 Kerne. Das ist für mich zukunftssicher.

Auch das streitet keiner ab... Auch 3DCenter nicht.

Und die 10% saugst du dir aus den Fingern oder was? Du pauschalisierst, was angesichts der Thematik nicht haltbar ist.

Bezieht sich auf die Summe der Ergebnisse, kannst es gern nachprüfen. Das dies auf "Real World" Benchmarks bezogen ist, brauch ich ja jetzt nicht nochmal dazu schreiben...

hq-hq
2010-07-24, 16:44:59
Da mußt du aber mit bedenken, daß in einer Auflösung von 1680x1050 und aufwärts die Grafikkarte in weit über 90% aller Games der limitierende Faktor ist. Somit kann man auch die Aussage, "daß ein AMD System nicht langsamer ist" auch bedingt gelten lassen, denn wer spielt schon noch in 800x600?

auf average fps bezogen kann man es so stehen lassen, aber average fps
machen auch den spielspass nicht kaputt sondern fiese gemeine ruckelnde phasen
und sagen wir 25% mehr cpu power könnte bei 20fps wos zuckt
auch spielbarere 25fps bedeuten.
wenn man also wissen möchte ob die cpu diese schrecklichen ereignisse
besser in den griff bekommt wenn es ganz besonders nur auf sie ankommt,
dann sind benschis in 800x600 schon erleuchtend.
grad bei spielen wie sc2 schlägts halt dann stark ein, da hilft auch dein gpu limit nichts mehr.


äh und wer schreibt da ein golf gti wär abgeregelt... selbst das sondermodell
mit 230ps ist nicht abgeregelt... bei audi wird übrigens bei 257kmh abgeregelt,
sollte bei vw identisch sein. nein nicht 257 tacho ;)

NaseWeiss
2010-07-24, 16:45:30
Das Wort schneller kann hier nicht einfach so ohne jeden Bezug gebraucht werden. Bechmark A sieht in Szene X Intel vorne. Benchmark B sieht in Szene Y vorne.

Dazu kommen dann noch gewisse Einschränkungen, die ein Benchmark so mitbringt: Einstellungen im Benchmark selbst (in Bezug auf Spiele AA, Auflösung, AF), Benchmarkszenario (Spieleszene), Benchmarkfeatures (DX9 oder doch schon DX11 incl. Tesselation), usw.

Nicht zuletzt wird bei jedem Benchmark die Benchmarkauswahl jeder Redaktion kritisiert. Hinunter bis zur Auswahl der Hardware (Board, Speicher, etc.).

Das gleiche spielt sich im übrigen im Serverbereich ab (Stichwort SPEC). Dort wird aber was die Auswahl von Benchmarks bzw. die Selektion einzelner Benchmarkwerte! betrifft mit viel härteren Bandagen gekämpft. Das zeigen sowohl die Folien von Intel als auch die von AMD. Hier wird von den Veranwortlichen aber auch strenger nach Anwendungsprofil entschieden (Datenbankserver vs. Fileserver).

Letztendlich ist die Frage welche CPU schneller ist _immer_ von der Anwendung abhängig. Eine pauschale Beurteilung verbietet sich allein schon deshalb, weil hier jeder auch noch andere subjektive Prioriäten (Spiele (Strategie vs. Shooter) vs. Encoden vs. Rendering, usw.) in seine Beurteilung miteinbringt. Nicht zuletzt sehen immer mehr IHREN jeweiligen Lieblingshersteller vorne. Der Produktfanatismus im Internet ist da ja heutzutage leider sehr ausgeprägt. :D

da stimme ich dir zu!

Gasti
2010-07-24, 16:46:50
Also halten wir fest.

Gestern gilt: PI = Q2Q
Heute gilt: PII = i7
Morgen gilt: PIII = i7
Doch huch, morgen gibts auch einen i9. Heißt: Q2Q = i7 = i9

Naja, könnte man jetzt einige Zeit fortführen, sodass es z.B. so heißt: P4 = i9

Kann ich auch was von dem Zeug ab haben?:)

NaseWeiss
2010-07-24, 16:49:03
auf average fps bezogen kann man es so stehen lassen, aber average fps
machen auch den spielspass nicht kaputt sondern fiese gemeine ruckelnde phasen
und sagen wir 25% mehr cpu power könnte bei 20fps wos zuckt
auch spielbarere 25fps bedeuten.
wenn man also wissen möchte ob die cpu diese schrecklichen ereignisse
besser in den griff bekommt wenn es ganz besonders nur auf sie ankommt,
dann sind benschis in 800x600 schon erleuchtend.
grad bei spielen wie sc2 schlägts halt dann stark ein, da hilft auch dein gpu limit nichts mehr.


äh und wer schreibt da ein golf gti wär abgeregelt... selbst das sondermodell
mit 230ps ist nicht abgeregelt... bei audi wird übrigens bei 257kmh abgeregelt,
sollte bei vw identisch sein. nein nicht 257 tacho ;)

Auch dir stimme ich zu! Obwohl ich sagen muß, daß heufiger die Graka diese mießen Ruckler erzeugt, gerade wenn man nur eine 9800GT hat :)

dargo
2010-07-24, 16:51:41
Auch dir stimme ich zu! Obwohl ich sagen muß, daß heufiger die Graka diese mießen Ruckler erzeugt, gerade wenn man nur eine 9800GT hat :)
Eine G9800GT ist auch ein schlechter Partner für einen i7@3,8Ghz. Es sei denn du spielst noch in 1024x768.

gahmuret
2010-07-24, 16:53:19
starcraft2 in mp oder in sp?
Im mp: Hab ich mit einem x3 720@3ghz und 5770 keinerelei probleme beim spielen 2v2 u. 3v3 (4v4 hab ich nicht gespielt und sp auch nicht).
<--der x3 ist nicht meine cpu sondern von einem freund, selber hab ich einen i7 920@3.8ghz.
Nur würd mich interessieren was gerade sc2 zum hw fresser macht.. Da seh ich Napoleon oder empire total war, supreme comander und anno eher als hw fresser (schon allein wegen den Einheiten massen die sich dort rumtreiben, da ist sc2 lächerlich dagegen).
Mp und sp bei rts (oder anderen spielen) ist cpu rechnerisch nie dasselbe.

Soll net bedeuten das der intel da keine vorteile hat, aber bin neugierig wie man da auf 15fps kommt (beim oben genannten ging er bei 3v3 mp nie unter die 45fps)

Gast
2010-07-24, 16:53:32
Wiki schreibt zum Thema RS5 abgeregelt etwas anderes: http://de.wikipedia.org/wiki/Audi_RS5

hq-hq
2010-07-24, 16:58:33
hehe, dann empfehle ich einen abgeregelten wagen aus dem volkswagenkonzern + navi zu nehmen. bmw müsste allerdings auch gehen ^^.... na probiers aus, ansonsten glaub an deine 250. sorry fürs ot...

NaseWeiss
2010-07-24, 16:58:38
Eine G9800GT ist auch ein schlechter Partner für einen i7@3,8Ghz. Es sei denn du spielst noch in 1024x768.

Ne immer in 1680x1050 ;) lieber verzichte ich auf ein paar Details und schraub AA etwas runter. Klappt schon...

Gast
2010-07-24, 17:02:28
Kann ich auch was von dem Zeug ab haben?:)
Ich habe nur versucht die Argumentation, die CPU Wahl wäre egal, weil alle gleichgut in Praxisfernen Tests seien, fortzuführen. =)

Vondemher: Rauch gerne mit und beobachte das Treiben der sich wiedersprechenden Personen. :)

Headjunkie
2010-07-24, 17:13:19
Nomma 3 Seiten weiter und wieder nix neues.....
Jungs, der Thread dreht sich seit gefuehlt 5 Seiten im Kreis und ihr habt ne Competition wer sich zu erst selbst in den Arsch beissen kann....
Nomma, die 50% Penisenlargement koennen niemals von ner besseren Rechengeschwindigkeit des Intels ausgeglichen werden!!!!

Ist doch allet net so schwer (:

boxleitnerb
2010-07-24, 17:13:43
Auch das streitet keiner ab... Auch 3DCenter nicht.

Warum wird es dann nie erwähnt? Weder in Reviews noch in Kaufberatungen kommt dieses Argument. Da wird immer nur auf den 6 schwächeren Phenomkernen rumgeritten.


Bezieht sich auf die Summe der Ergebnisse, kannst es gern nachprüfen. Das dies auf "Real World" Benchmarks bezogen ist, brauch ich ja jetzt nicht nochmal dazu schreiben...

Nochmal: Die Real World Benchmarks sind meistens nicht "real world", sondern vermurkst. Darauf kann man sich gar nicht beziehen (Ausnahmen natürlich ausgeschlossen).

L.ED
2010-07-24, 17:19:19
Mich wundert, die explizite Verwunderung einiger Protagonisten wenn eine K10 CPU mal schon nur vorne liegt, noch nicht einmal mit wirklich Abstand?

Als ob das eine Sache wäre die völliger Utopie und Unmöglichkeit entspräche, völlig ausklammernd das die K10 Generation sehr wohl ihre Stärken besitzt, die laut letztem Kenntnisstand nach wie vor alle anderen (allgemein existierenden) x86er Architekturen, mehr oder minder deutlich in den Schatten stellt. In militärisch genutzten Clustern und viel auch im Grundlagenforschungsbereich ist k10 eine Hausnummer!

Und es wäre natürlich durchaus möglich diese stärken der K10 Architekturen auch deutlicher in Wald und wiesen Software (u.a. auch Spiele), sich einbringen zu lassen. Wenn man es entsprechend programmiert, sprich der Wille vorhanden 2 Architektur Pfade (endlich auch mal wirklich) zu bedienen.

Intel ist verhältnismäßig stark auf Integer ausgelegt und da werden auch viele Sachen dann gleich darüber erledigt, da im zweifel so sogar hier oftmals auch schneller. Welche allerdings sehr wohl auch anders angegangen werden könnten und im falle K10 auch müsste (wenn man deren Potential denn abrufen besser nutzen wollte).

Es ist eigentlich verwunderlich und anerkennenswert das AMD trotz der mehr oder minder penetranter Ignoranz ihrer Architektur (wo oft auch derer entgegen gearbeitet), so gut dennoch mithalten und ein Zeichen von Stärke.

Ich stelle nicht in Abrede das es überwiegend kein böser Unwille sondern schlichter Kosten nutzen Faktor der dieses Verhalten in Wald und Wiesen Bereich und überall sonst wo es nicht so drauf ankommt forciert. Intel ist eben sehr weit verbreitet und die AMD trotz allem (ihrer Stärken/Besonderheiten mehr oder minder links liegen lassen), im Regelfall noch schnell genug auf das es Problemlos so gangbar (aber u.a. auch einer der Hauptgründe warum es so ist wie es ist).

Wenn auch in Benchmarks es dann halt dieses verzerrende Bild abwirft (womit wir wieder beim Ausgangspunkt wären), was Intel vielleicht hier und da durchaus noch nen extra Bonus dann wert?

Gut als Endanwender kann man sich nichts von kaufen wenn eine CPU Architektur ja eigentlich nur viel besser abschneiden könnte oder gar nicht soweit hinten liegen müsste vielleicht sogar das Gegenteil usw. Man arrangiert sich mit den defakto real existierenden IST Zuständen, aber es wäre doch schön wenn man trotzdem objektiver gerade auch in einem solchem Forum bleiben könnte.

Und nicht immer stellenweise dieses dann geradezu suggestiv einhämmernder Art über eine (angebliche) allgemein hin Gültigkeit. Garniert mit diversen sich steigernden Superlativen, der Überlegenheit von Intel Architekturen, die vor Ganzheitlicher Betrachtung gar nicht haltbar.

Danke

NaseWeiss
2010-07-24, 17:22:17
Warum wird es dann nie erwähnt? Weder in Reviews noch in Kaufberatungen kommt dieses Argument. Da wird immer nur auf den 6 schwächeren Phenomkernen rumgeritten.

Weil sich dieses eben schlecht mit Benchmarks untermauern lässt, zumindest bevor es SC2 gab :D

Fetter Fettsack
2010-07-24, 17:30:05
@ LED

Jetzt hast du mich neugierig gemacht. Worin liegen die Stärken der K10 Architektur? :)

IVN
2010-07-24, 17:32:49
starcraft2 in mp oder in sp?
Im mp: Hab ich mit einem x3 720@3ghz und 5770 keinerelei probleme beim spielen 2v2 u. 3v3 (4v4 hab ich nicht gespielt und sp auch nicht).
<--der x3 ist nicht meine cpu sondern von einem freund, selber hab ich einen i7 920@3.8ghz.
Nur würd mich interessieren was gerade sc2 zum hw fresser macht.. Da seh ich Napoleon oder empire total war, supreme comander und anno eher als hw fresser (schon allein wegen den Einheiten massen die sich dort rumtreiben, da ist sc2 lächerlich dagegen).
Mp und sp bei rts (oder anderen spielen) ist cpu rechnerisch nie dasselbe.

Soll net bedeuten das der intel da keine vorteile hat, aber bin neugierig wie man da auf 15fps kommt (beim oben genannten ging er bei 3v3 mp nie unter die 45fps)
;D

Das ist doch totaler Quatsch. Die 8000er C2Ds sind in SC2 mit den PII pro Takt vergleichbar. Und wenn mehrere User sagen, das ein e8600 in manchen Worst-Cases (viel, verdammt viel Zerglings zB) nicht ausreicht, dann kann das auch kein ähnlich getakteter PII. Womöglich empfindest du 15-25 FPS als flüssig, das ist es aber objektiv betrachtet auf keinen Fall.

Und was macht SC2 zu einem HW-Fresser? Na die Geschwindigkeit des SPiels! SC2 ist das Q3 Arena der Strategiespiele, das kann man mit "Splinter Cells" wie Supreme Commander oder Total War gar nicht vergleichen.


Weil sich dieses eben schlecht mit Benchmarks untermauern lässt, zumindest bevor es SC2 gab :D
Auch die SC2 Benches zeigen viel zu hoche FPS, weil a) keine Worst-Cases gebencht und b) noch nicht gegen mehrere AIs gebencht wurde. 2v2 mit viel menschlichen Spielern hat unbestreitbar einen geringeren Load, als gegen 3 AIs zu spielen.


Auch der PCGH SC2-CPU-Bench ist, wie von ihnen selbst geschrieben, nur ein "Middle-Case". EIne 1v1 Map, und gerade mal 100 Einheiten im Bildausschnitt. Und schon in dieser nicht besonder fordernden Szene sieht man wie <3 GHz C2Ds und PIIs derbe einbrechen. Stell dir dann mal eine Szene mit 800 Einheiten vor...

Amun-Re
2010-07-24, 17:33:14
@NaseWeiss

Es war nie Sinn und Zweck des Themas hier sämtliche Leute die anderer Überzeugung sind zu bekehren sondern lediglich Fakten zu sammeln und von kompetenter Seite u.U auch beruflich bedingt eine Einschätzung zu dem Thema zu erhalten.

Allein auf persönliche Präferenzen reduziert ist die ganze Diskussion ohnehin hinfällig. Wenn du also für dich das Gefühl hast mit dem X6 alles richtig zu machen dann brauchst du doch im Prinzip hier auch nicht nach Antworten suchen denn dir stellt sich dann folglich auch nicht die Frage ob deine Entscheidung wohlmöglich nicht optimal getroffen war.

Außerdem - sei mir nicht böse - befördern diese stellenweise inhaltslosen Äußerungen deinerseits den Thread auf ein Niveau das schnell jede vernünftige Unterhaltung zu dem Thema unmöglich macht.

Wenn zu mir jemand kommt und sagt "Dennis ich möchte gerne n PC von dir zusammengeschustert bekommen im Wert von 1000€ und ich möchte mehrheitlich damit spielen" dann ist es meine Aufgabe für den Betrag das Optimum zu erzielen auch wenn zwischen optimal und suboptimal keine Diskrepanzen von 200% oder mehr liegen.

dr_AllCOM3
2010-07-24, 17:35:50
Benchmarks, welche mal echte Herausforderungen an diese CPUs stellen würden, werden leider nie gemacht oder sind einfach nicht möglich. Ich meine damit z.b. Supreme Commander mit vielen KIs, ein WoW Raid oder Spiele wie Anno auf einer riesigen Karte.
Ob man in einer reproduzierbaren Einzelspielersequenz nun 150 oder 180 FPS hat interessiert wenig. Bei dem Spieler zu Hause würden die minimum FPS zuerst auffallen, aber die sind in den wenigsten Tests mit drin. Zudem ist fast kein Test objektiv, hinter den Redaktueren steckt immer AMD oder Intel mit drin.

gahmuret
2010-07-24, 17:41:18
Ne aber wenn ich 3v3 mp spiele und die frames nie unter 45 sinken ist das unabhängig von meinem sehen (ich hab den wert nicht mit den Augen gemesen :freak:) und gab da auch ein grosses gemetzel wo alle 6 beteiligt waren..
Was mich persönlich zum schluss bringt, das im mp auch der oben genannte cpu (2kerne von dem) noch reichen um flüssig zu spielen. Wie er ankacken mag gegen cpu kann ich nicht gegen die CPU gespielt habe.
Fraglich wer wirklich eine 4v4 mit dem cpu spielen will.
Das werd ich zb nur bei der Kampagne, sonst sind mir (sei die AI noch so gut), menschliche gegner lieber.

Naja hw fordernder sind total war, supreme comander schon noch. Gegner anzahl und grafik (die, die gpu mehr fordern).

IVN
2010-07-24, 17:43:17
OK, und die User mit ihren e8400er und 8600er, die mir erzählt haben, das es in größeren Kämpfen >2v2 eng wird, die lügen wohl alle?

gahmuret
2010-07-24, 17:57:08
Das die lügen hab i nie behauptet, frame drops bei strategie spiele sind auch nicht automatisch cpu bedingt, da kann graka mit reinspielen, ram usw. Ideal zum testen wäre es wenn es wie früher nur 1 sockel gäbe man alles bis auf cpu völlig identisch aufstellen könnte und benchen und so jeglichen einfluss der sich auf die cpu nur irgendwie auswirken kann eliminiert.

Ich hab da bei sc2 von einer beobachtung geschrieben die ich bei dem spiel gemacht habe (und mit fraps frame verlauf angesehen). Es ist gut möglich das beim spielen gegen die AI, die cpu ins stottern gerät wenn sehr viel los ist. Beim mp tut sie es allerdings bei 3v3 nicht. Bei MP hat die cpu auch um ein gutes stück weniger zu berrechnen als sp.

y33H@
2010-07-24, 18:00:13
Benchmarks, welche mal echte Herausforderungen an diese CPUs stellen würden, werden leider nie gemacht oder sind einfach nicht möglich. Ich meine damit z.b. Supreme Commander mit vielen KIs, ein WoW Raid oder Spiele wie Anno auf einer riesigen Karte.SupCom gibt es so was, ein Raid ist nicht reproduzierbar und reicht dir Anno mit 101k Einwohnern nun vom Spieler?
Zudem ist fast kein Test objektiv, hinter den Redaktueren steckt immer AMD oder Intel mit drin. Diese Sichtweise ist mehr als falsch.

puntarenas
2010-07-24, 18:02:41
Langeweile? Buchen auch Sie das kostenlose Unterhaltungsprogramm für Wochenendausflügler. 3DCenter-Clowns tanzen und machen Männchen auf Zuruf, gern auch über mehrere Seiten!
*nur solange der Vorrat reicht
:heart:


[/Flame]
[/Überdruckventil]

Me sorry me. :redface:

---

Ernsthaft, wer das Märchen von der "Praxisferne" erst einmal gefressen hat, dem ist kaum noch zu helfen. Die Leute pflegen so etwas mit religiöser Hingabe. Wenn sich jemand mit einer derartigen Realitätsverweigerung in einen Thread verirrt, dann sollte man ihn einfach in Ruhe lassen, spätestens sobald er seine Versessenheit dokumentiert hat und sich belehrungsresistent zeigt ist außer seitenlangen, frustrierenden Off-Topic-Ausflügen nichts zu erwarten.

Erstaunlicherweise rebellieren die Leute umgekehrt in Grafikkarten-Reviews nicht gegen "realitätsferne Prozessoren" zu Meßzwecken. Dort wird oftmals übertaktet, bis der Arzt kommt, um eine teilweise oder vollständige CPU-Limitierung ausschließen zu können und das wird auch hingenommen, obwohl die Prozessoren mit diesen Taktraten teilweise nicht einmal im High-End-Bereich zu haben sind.

Ich denke, nimmt man über den Daumen eine schwächere IPC von ~30% in Spielen an, dann tut man keinem der beiden Hersteller grob Unrecht, Ausreißer in beide Richtungen unbenommen. Dann gibt es aber aus Gamersicht kaum noch zwei Meinungen, welche CPU rein auf ihr Leistungspotential bezogen hier die bessere Wahl ist. Wenn man ferner annimmt, dass die 6 Kerne des Phenom II X6 1055T selbst bei idealtypischer Parallelisierung einen Leistungsvorsprung gegenüber dem Core i5 760 von theoretisch maximal 15,4% herausholen können (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8164923#post8164923), dann bleiben für den Phenom nur wenig Argumente.

Ich sehe das so, der Phenom II X6 1055T ist dann eine gute Wahl für Gamer, wenn man bereit ist das schlechtere Leistungspotential in Kauf zu nehmen. In den meisten Spielen wird man über den Daumen mit 30% weniger Leistungspotential rechnen müssen. Dass auch die Leistung der langsameren CPU aus unserem Vergleich in vielen Fällen ausreichen wird, muss nicht ausdrücklich erwähnt werden, denn wo immer es uns nicht juckt, müssen wir auch nicht kratzen. Bei besonders gut parallelisierten Spielen kann man in Richtung eines Gleichstands hoffen, wird diesen aber nur sehr selten sehen. Ob sich diese Situationen in Zukunft vermehrt zeigen werden, bleibt zudem fraglich.

Der Käufer sollte also entweder eine gehörige Abneigung gegen Intels Monopolgebaren oder Bedarf für SATA3 und USB3 mitbringen (mittels PCIe-Bridge angebunden sind beide auch auf P55-Boards ohne große Einschränkungen nutzbar, aber eben nicht restlos uneingeschränkt und entsprechende Boards kosten gut 150€). Ausgeklammert seien zudem die Turbo-Modi der Prozessoren und die Energieeffizienz, noch zwei kleine Achillesversen der Phenoms.

Overclocking ändert nichts an den Grundverhältnissen, da beide Architekturen ein sehr ähnliches Taktpotential vorweisen können. Habe ich irgendwo groben Unfug erzählt?

Gast
2010-07-24, 18:05:09
Ich rede im Allgemeinen, dass Supreme Commander sich merkwürdig verhalten mag, ändert doch Nichts am Grundprinzip.
Naja - da sich SupremeCommander auch unter neueren Windowsversionen weiterhin 'merkwürdig' verhält, stellt sich mir schon die Frage, ob deine Vorstellungen vom 'Grundprinzip' überhaupt haltbar sind.

Für die Verteilung der Threads ist der Sheduler zuständig und man kann sich IMHO dabei ruhig allgemein auf "Microsofts Besten" beziehen, denn mit Windows 7 wurde ja Einiges verbessert.
Ich glaube wir reden aneinander vorbei. Das Verteilungsproblem, welches ich sehe, hat nichts mit dem Windowssheduler zu tun. Mein 'Verteilungsproblem' liegt auf Hardwareebene. Es ist ein Irrtum zu glauben, daß es keinen Unterschied macht, ob die Threads seriell oder parallel auf die Kerne verteilt sind.

Wenn man für ein Multithreaded-Game wie Supreme Commander manuell in die Kern-Affinität eingreifen muss, weil das Spiel hier offenbar einen eigenen Ansatz verfolgt oder sonstwie querliegt und sich damit ins Knie schießt, (..)
Das Spiel ist eben für Mehrkern-CPUs optimiert. Das was einer solchen Optimierung ins Knie schießt, ist das Betriebssystem mir seinem eigenen Sheduler. Deswegen meine Argumentation: 6 Kerne sind besser als 4, weil damit ein Spiel, welches wirklich mal für Quad optimiert wurde wie SupCom, auch tatsächlich 4 freie Kerne bekommt und nicht vom Microsoft-Sheduler torpediert werden kann.

Mein Punkt ist, die Spiele sind nicht explizit für Quadcores (nicht 3, nicht 5, ganz genau 4 Kerne!) optimiert. Natürlich kann man eine Liste aufstellen, die zeigt welche Spiele bis zu welcher Kernanzahl in ihrer Performance ordentlich profitieren. Das Problem ist nur, redet man von "Quadcore-Optimierung", dann nehmen das einige Leute wörtlich.
Ah ok - jetzt verstehe ich, was du meinst. Ich habe das mit 'Quadcore-Optimierung' auch nicht so gemeint, daß ein solches Spiel auf 3 Cores überhaupt nicht mehr läuft. Man muß sich überlegen, wie ein Spiel konzipiert ist. Wenn ein Spieleentwickler eine Engine einsetzt, welche für mehrere Kerne funktioniert, dann muß man imho schon davon ausgehen, daß diese Engine intern überprüft, wieviele Kerne es denn nun tatsächlich sind. Dementsprechend wird die Engine dann intern reagieren - das meine ich mit Quadcore-Optimierung. Den Vorteil den ich hier für den HexaCore sehe ist, daß er tatsächlich immer mindestens 4 freie Kerne 'garantieren' kann. Man kann Windows zur Not auch manuell den Zugriff auf diese Kerne verbieten. Ich gehe stark davon aus, daß zukünftige Mehrkernanwendungen nicht auf den Windowssheduler zurückgreifen, sondern ihre Threads eigenständig -und zwar optimal- auf die verfügbaren Kerne verteilen. Alles andere wäre so sinnlos, daß ich es für ausgeschlossen halte. Der Rechenbedarf eines Threads kann dramatisch zunehmen. Sowas kann ein Tool wie der Windowssheduler nicht vorhersehen. Hierzu werden zukünftige Spiele eigene 'Sheduler' haben, die eben genau wissen, welche Threads man besser nicht zusammen auf einen Core packt. Der Windowssheduler wird dann nur noch darüber in Kenntnis gesetzt, daß die betroffenen Cores für Windows und sonstige Anwendungen nicht mehr zur Verfügung stehen.


SupremeCommander ist übrigens kein abwegiger Einzelfall. Das nächste Spiel, was mir 'unangenehm' aufgefallen ist, war Left4Dead 1. Ich habe das Spiel bei identischen Settings auf 2 PCs laufen lassen - und zwar weil ich von der miserablen Performance auf meinem E8400 so schockiert war, daß ich es schon wieder zurückgeben wollte. Zu Testzwecken habe ich es nochmal auf einem A64 3200+ installiert. Und plötzlich lief das Spiel bei identischen Settings absolut einwandfrei.
Grund für die Probleme war, daß Left4Dead 1 tatsächlich mehrere Cores benutzt hat. Die Argumentation, daß es egal ist, wieviele Kerne eine CPU hat, soweit man nur genug Rechenpower hat, ist damit ad absurdum geführt. Die Rechenpower eines E8400 ist der eines A64 3200+ auch im Hinblick auf einzelne Kerne um Welten überlegen. Trozdem war die Performance auf meinem DualCore unerträglich (permanent ruckelnde Grafik schon im Intro, bei größeren Gegnermengen plötzlich teilweise sekundenlanger Spielstillstand). Jetzt könnte man natürlich meinen: Dann ist der Code eben Müll. Aber Irrtum! - Auf Quads gab es mit L4D1 keinerlei Probleme.

Daher kann es aus meiner Sicht nur daran gelegen haben, daß es eben doch einen Unterschied macht, wie man einzelne Threads auf die vorhandenen Cores verteilt. Möglicherweise hatte bei L4D1 der Windowssheduler seine Finger im Spiel. Die Cores wurden zwar beide laut Taskmanager immer schön gleichmäßig mit jeweils etwa 70-90% Load versorgt - aber das Ergebnis war völlig inakzeptabel. Damals hatte ich kurzzeitig bereut mir 'nur' einen DC gekauft zu haben. Jedenfalls solange bis ich herausfand, daß man über 'mat_queue_mode "0"' das Multithreading über die Ingamekonsole komplett ausschalten konnte. Und oh Wunder - plötzlich lief alles wie geschmiert. Das passiert mir jedenfalls nicht nochmal. Cores auf denen Windows läuft, sind für Spiele unbrauchbar. Auch wenn das jetzt provozierend klingt: In meinen Augen stehen Spieleentwicklern deswegen auf aktuellen Quads nur 3 nutzbare Kerne zur Verfügung. Auf einem HexaCore wären es schon 5. Das hier ein Klassenunterschied versteckt ist, der sich irgendwann böse bemerkbar machen kann, kann man nur mit viel 'positivem Denken' übersehen.

Auch eine andere Sache spricht noch für den HexaCore: Jeder Core hat seinen eigenen L1 und L2 Cache. (Der L3 Cache ist in meinen Augen kein echter CPU-Cache) Auch wenn man mehr 'Rechenpower' pro Kern hat, wird man zugeben müssen, daß die Caches beim ständigen Durchwechseln der Threads jeweils neu geladen werden müssen. Wenn man pro Thread einen echten Core permanent zur Verfügung hat, dann spart man auch hier wieder Zeit.

Thuban:
L1 - 6 x 64+64KB, L2 - 6x 512KB, L3 - 6144KB

Lynnfield:
L1 - 6 x 32+32KB, L2 - 4x 256KB, L3 - 8192KB

gahmuret
2010-07-24, 18:07:00
teilweise falsch, weil richtig objektiv sind sie auch nicht. Bei jedem Menschen wenn er über was spricht schwingt auch etwas von seiner eigenen meinung mit. Das kann man nichtmal verhindern und ist auch nicht schlecht. Da die Texte sonst immer sehr trocken wären. Sobald vorallem ein vergleich kommt und man die sachen liest (vorallem zb die fazit/conclusion), liest man schon raus was der tester für besser hält (da er da wertet spielt auch seine eigene Meinung mit rein).
Wieso hier turbo ausklammern, turbo haben beide CPUs :confused: (der x6 hat einen turbo)

L.ED
2010-07-24, 18:12:12
FP (Floating-Point) ist eine Stärke der K10.

Das für und wieder und ob und in weit etc. das sollen an dieser stelle ggf. Programmierer ausführen.

Welche sich allerdings nicht nur hier auffallend zurückhalten bei so Themen davon mal ab (daraus könnte man schon schließen das gerade ihnen sehr wohl klar das man allgemein hin etwas mehr dann doch schon noch raus holen könnte, als man es in Praxis hier dann sieht, aus diversen meist rein Betriebswirtschaftlichen gründen).

Fetter Fettsack
2010-07-24, 18:18:52
@ LED

Recht schönen Dank. :)

y33H@
2010-07-24, 18:19:26
Diese E8400 gegen 3200+ [SC!] Sache klingt vollkommen unplausibel. So etwas konnte ich noch nie beobachten. ABER L4D profitiert von vier Kernen und liegt Deneb/Thuban vergleichsweise gut. Ein 1055T kommt trotzdem nicht an einen i5-7xx ran.

NaseWeiss
2010-07-24, 18:20:50
@NaseWeiss

Es war nie Sinn und Zweck des Themas hier sämtliche Leute die anderer Überzeugung sind zu bekehren sondern lediglich Fakten zu sammeln und von kompetenter Seite u.U auch beruflich bedingt eine Einschätzung zu dem Thema zu erhalten.

Allein auf persönliche Präferenzen reduziert ist die ganze Diskussion ohnehin hinfällig. Wenn du also für dich das Gefühl hast mit dem X6 alles richtig zu machen dann brauchst du doch im Prinzip hier auch nicht nach Antworten suchen denn dir stellt sich dann folglich auch nicht die Frage ob deine Entscheidung wohlmöglich nicht optimal getroffen war.

Außerdem - sei mir nicht böse - befördern diese stellenweise inhaltslosen Äußerungen deinerseits den Thread auf ein Niveau das schnell jede vernünftige Unterhaltung zu dem Thema unmöglich macht.

Wenn zu mir jemand kommt und sagt "Dennis ich möchte gerne n PC von dir zusammengeschustert bekommen im Wert von 1000€ und ich möchte mehrheitlich damit spielen" dann ist es meine Aufgabe für den Betrag das Optimum zu erzielen auch wenn zwischen optimal und suboptimal keine Diskrepanzen von 200% oder mehr liegen.

Und wer stellt das in Frage???
Hab ich jemals behauptet, daß der X6 besser zum spielen geeignet ist oder in Zukunft sein wird? Woran ich mich gestört hab, hab ich mehrfach geschrieben.
Und wie wir schon hundert mal festgestellt und wie du selbst in deinem Startthread schon erkannt hast, ist der I7 und I5 schneller und wie sich später raus gestellt hat sogar deutlich im schnitt ca. 20-30%.

Nur was machst du, wenn jemand zu dir kommt und sagt "Dennis, ich hab noch nen alten AM2 Athlon, aber mit 8GB Ram und der Rest ist auch noch "up to date"" rätst du ihm dann sich einen Phenom II x4/6 zuzulegen? Ich unterstell dir einfach mal, daß du ihm zum kauf eines i5 mit komplett neuen Unterbau rätst ;)

Ich hab einen i7 und wüsste nicht, wieso ich mir da jetzt nen x6 kaufen sollte?!

Gast
2010-07-24, 18:31:09
Diese E8400 gegen 3200+ [SC!] Sache klingt vollkommen unplausibel. So etwas konnte ich noch nie beobachten.

Hier kannst du es dir auf Video ansehen:
http://www.youtube.com/watch?v=s0YXLuMbs2M

Sobald MultiCore-Rendering deaktiviert ist läuft das Spiel auch auf DualCores, bei denen 1 Kern von Windows blockiert wird.

y33H@
2010-07-24, 18:35:01
Ach die Geschichte. MultiCore-Rendering deaktiviert, steigert die Fps auf DCs, ja. Grade bei Alien Swarm wieder gesehen.

Undertaker
2010-07-24, 18:37:54
Das tritt aber vermutlich nicht bei jedem auf? Bei meinem alten Turion X2 sind die fps mit Multicore-Rendering in L4D oder TF2 ganz erheblich gestiegen.

y33H@
2010-07-24, 18:42:56
Hier beim E8400 @ home und dem E6600 @ work ist's so. Vll ein Intel-Problem?

Gast
2010-07-24, 18:43:19
Das Video zeigt L4D2. Aber es sind exakt die Probleme, die auch bei L4D1 auf meinem E8400 auftreten (auch ohne das man hierzu E drückt). Man kann auf einem DualCore schon im Intro erkennen, ob Multithreading aktiv ist (dann ruckelt es, wenn der Helikopter vorbeifliegt). Später im Spiel wird es dann immer schlimmer.

Im Spiel gibt es deswegen inzwischen eine Option, wo man Multicore-Rendering für PCs mit 'windowsblockierten' Cores abschalten kann.

Odal
2010-07-24, 19:30:54
oh gott der gast oben fängt jetzt nicht ernsthaft an grütze mit cachevergleichen völlig unterschiedlicher CPU Architekturen anzuführen nachdem die initiale Argumentationsführung in einem epic fail endete?

zwickt mich mal einer?

Fetter Fettsack
2010-07-24, 20:05:49
Zwickts mi, i man i dram, des dearf net woa sei, wo sama daham ... ;D

Gast
2010-07-24, 21:02:18
oh gott der gast oben fängt jetzt nicht ernsthaft an grütze mit cachevergleichen völlig unterschiedlicher CPU Architekturen anzuführen nachdem die initiale Argumentationsführung in einem epic fail endete?

Nach seinem Verteilungsproblem hat er jetzt den "windowsblockierten Cache" erdacht. Man muss ihm lassen, er hat sehr rustikale Vorstellungen und ich bin überzeugt, die redet ihm so schnell auch keiner aus.

zwickt mich mal einer?

Zwickts mi ganz wurscht wohin.
I kanns net glaub´n ,
ob i ang'soff'n bin?

beos
2010-07-24, 21:07:03
[...]

Nur weil gängige Konfigurationsvorschläge für AMD Systeme beispielsweise ein http://geizhals.at/deutschland/a532267.html vorschlagen und für Intel Systeme hingegen http://geizhals.at/deutschland/a477655.html spricht das nicht für generell höhere Anschaffungskosten.

Auch auf LGA1156 basierend liegt es im Bereich des Machbaren die Plattformkosten des AMD Systems nicht zu übersteigen.

http://geizhals.at/deutschland/a532267.html
http://geizhals.at/deutschland/a457437.html

[...]



Bei den beiden verglichen Boards spricht aber eigentlich alles Wichtige für die AMD-Plattform. Der bessere, neue Chipsatz + breiterer PCIe Port + USB3.

beos
2010-07-24, 21:13:55
Vielleicht, weil dein "Standpunkt" von Unverständnis zeugt und das sehr schade ist, weil das Verständnisproblem sogar hier im Thread bereits ausführlich geklärt wurde:

Undertaker (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8157632#post8157632)
BlackBirdSR (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8157746#post8157746)

In einem Thread, der das Leistungspotential von Prozessoren aus Gamer-Sicht zum Thema hat unermüdlich darauf zu beharren, dass einen das Leistungspotential nicht interessiert, ist einfach nicht besonders prickelnd aufreizend ignorant.

Ich habe natürlich die Post der beiden gelesen - frage mich aber:

Warum bringe ich - wenn mich nur die Leistungsfähigkeit der CPU interessiert - die GPU überhaupt ins Spiel? Im Grunde würde es reichen einen Benchmark zu entwickeln, der gängige 3D + Kollision + KI Berechungen durchführt - aber nichts anzeigt.

Da es so einen Benchmarkt aber nicht gibt, scheint die angesprochene Ziel-Auflösung während des Benchens nur eine Notlösung zu sein...die aber nicht optimal ist - oder stehe ich auf der Leitung ? :)

NaseWeiss
2010-07-24, 22:45:44
Ich habe natürlich die Post der beiden gelesen - frage mich aber:

Warum bringe ich - wenn mich nur die Leistungsfähigkeit der CPU interessiert - die GPU überhaupt ins Spiel? Im Grunde würde es reichen einen Benchmark zu entwickeln, der gängige 3D + Kollision + KI Berechungen durchführt - aber nichts anzeigt.

Da es so einen Benchmarkt aber nicht gibt, scheint die angesprochene Ziel-Auflösung während des Benchens nur eine Notlösung zu sein...die aber nicht optimal ist - oder stehe ich auf der Leitung ? :)

Ja, wenn es so einfach wäre... Deshalb geht man den Weg über eine niedrige Auflösung, da man sonst gerade HigEnd Prozessoren nicht mehr miteinander vergleichen kann. Sie stoßen in höheren Auflösungen einfach in einen von der Grafikkarte limitierten Bereich. Ein absolut probates Mittel zum vergleich verschiedener CPUs.

Das Problem ist, daß sich eben in gängigen Auflösungen oft nur schwer feststellen lässt, wann den nun die CPU limitiert und wann die Graka. Deshalb sucht man zum benchen so genannte WurstCase Szenarien aus, die die CPU sehr stark belastet aber zu meißt nur selten im Game auftritt.

Am Ende erhält man eine Ausage darüber, welcher Prozessor schneller ist. Dies erzeugt, ähnlich wie bei Grafikkarten Tests, aber nicht immer eine explizite Aussage über die Spielbarkeit des Games, außer natürlich, der Prozessor bewegt sich in diesem Zenario durchgängig in spielbaren Frameraten.

Zusätzlich muß man noch die MinFPs mit betrachten und zwar im Frameverlauf, da sonst nicht ausgeschlossen werden kann, daß diese MinFPs von einem Framedrop verursacht wurde, der auch durch kurzen Festplattenzugriff oder ähnliches auftreten kann.

Daher ist ein gößerer CPU-Test über mehrere Spiele hinweg mit großem Aufwand verbunden.

Du mußt dir das so vorstellen, du willst mehrere Graka`s miteinander vergleichen, dann bencht du sie auch nicht mit aktiviertem VSync, da die Monitorauflösung hier limitiert und alle Grakas die durchgehend mehr FPS schaffen würden hier keinen unterschied zu den anderen aufzeigen. Das gute ist, bei Grakas lässt sich die Bremse lösen, bei CPUs ist die Bremse immer da und muß umgangen werden. Bei Grakas würdest du das nur über höhere Auflösungen und höhere AA/AF Werte erreichen, womit sich aber auch das Ergebnis verfälscht da man keine explizite Aussage mehr über die Leistungsfähigkeit der Graka in einer gängigen Auflösung oder Quallitätssetting mehr treffen lässt. Hier würde nämlich schon vielicht das VRam in der Größe oder in der Bandbreite limitieren und somit das Ergebnis verfälschen.

Hier scheiden sich die Geister, ob es was beim benchen von CPUs ausmacht oder nicht. Daher ist ein CPU-Bench wenn er unter niedriger Auflösung durchgeführt wird auch nur zum Vergleich geeignet und lassen sich nur bedingt Rückschlüsse auf das gebenchte Game treffen, da ich dieses ja bestimmt nicht in 800x600 spielen möchte.
Die Möglichkeit das zu umgehen, ist also nur auf sehr Starke Grafikkarten/oder SLI Systeme zu setzen, in der Hoffnung, daß sie vom Game nicht in ein Graka limmit gedrängt werden. Zumindest lässt sich so aber eine Aussage treffen, ob der getestete Prozessor bei Auflösung x die Graka in ruckelfreie FPS hält. Wo dann wie gesagt, der Frameverlauf ausschlaggebend ist wie weiter oben beschrieben.

Der Vorteil von GPU overkill ist, daß dieser sich explizit in Bildquallitätssteigernde Einstellungen wie höhere AA/AF Modi oder waht ever verwerten lässt.

Von nem CPU overkill hat man leider nix, außer die Gewißheit, daß wenn es Ruckelt nicht meine CPU dran schuld ist :D und das is ja auch schonmal was ;)
Und die noch vorhandene Zukunftssicherheit...

dargo
2010-07-24, 23:05:26
Von nem CPU overkill hat man leider nix...
Sag das einem der durchgängig 60fps haben will. :tongue:


Der Vorteil von GPU overkill ist, daß dieser sich explizit in Bildquallitätssteigernde Einstellungen wie höhere AA/AF Modi oder waht ever verwerten lässt.

Hmm... dann wirst du mir sicherlich auch verraten in was ich meinen GPU-Overkill beispielsweise in Dead Space investieren soll? Meine native TFT-Auflösung ist 1680x1050. Aber selbst mit 1920x1xxx gibts immer noch jeder Menge Overkill.

Fetter Fettsack
2010-07-24, 23:12:25
DS z.B. ;D

dargo
2010-07-24, 23:20:25
DS z.B. ;D
Psst... ;) Sonst komme ich mit einer HD5870. :D

Fetter Fettsack
2010-07-24, 23:24:33
:D

EDIT: Wobei Dead Space eh nicht so der Paradefall für DS ist (Stichwort 60Hz). Aber egal.^^

Odal
2010-07-24, 23:43:39
bei CPU overkill muss man sowieso vorsichtig sein

meine letzte CPU ein A64 X2 3800+ durchlebte grafikkarten wo die letzte die 10 fache Leistung der ersten bot (6600GT bis 8800GT)

CPU leistung steigt eben nicht so stark wie GPU leistung daher verschiebt sich das CPU lmit recht schnell

die theoretische CPU leistung stieg zwar durch multicore gedöns aber ab dualcore ist da in den meisten fällen in der praxis nix mehr groß durch multicore zu gewinnen

Amun-Re
2010-07-25, 01:58:57
Ich unterstell dir einfach mal, daß du ihm zum kauf eines i5 mit komplett neuen Unterbau rätst


Wenn ich mir das so einfach machen würde gäbe es keine Rechtfertigung einen Thread wie diesen ins Leben zu rufen und die darin stattfindende Diskussion zu verfolgen.

kruemelmonster
2010-07-25, 04:08:03
Hier scheiden sich die Geister, ob es was beim benchen von CPUs ausmacht oder nicht. Daher ist ein CPU-Bench wenn er unter niedriger Auflösung durchgeführt wird auch nur zum Vergleich geeignet und lassen sich nur bedingt Rückschlüsse auf das gebenchte Game treffen, da ich dieses ja bestimmt nicht in 800x600 spielen möchte.
Die Möglichkeit das zu umgehen, ist also nur auf sehr Starke Grafikkarten/oder SLI Systeme zu setzen, in der Hoffnung, daß sie vom Game nicht in ein Graka limmit gedrängt werden.

Korrekt, man führt CPU-Tests nicht am GPU-Limit durch, um


Zumindest lässt sich so aber eine Aussage treffen, ob der getestete Prozessor bei Auflösung x die Graka in ruckelfreie FPS hält. Wo dann wie gesagt, der Frameverlauf ausschlaggebend ist wie weiter oben beschrieben.

Welchen Unterschied soll es machen ob man vom GPU-Limit durch 800x600 @ SGPU oder hohe Auflösung @ MGPU wegkommt?

Gast
2010-07-25, 06:03:50
Wenn ich mir das so einfach machen würde gäbe es keine Rechtfertigung einen Thread wie diesen ins Leben zu rufen und die darin stattfindende Diskussion zu verfolgen.
Ja - ich würde sagen, so langsam versinkt dein schöner Thread im Rumgepöbel einiger 3DCF-Member, die einfach kein Benehmen haben. Sinnvolle Beiträge kommen hier wohl kaum noch zustande. Statt sinnvollen Argumenten und Gegenargumenten gibt es nur noch Provokationen und Beleidigungen aus Richtung einiger aufgeschreckter Quad-Besitzer, deren ganzes Wissen über moderne CPUs auf farbigen Balkendiagrammen in verkaufsbegleitenden Pseudo-Fachzeitschriften beruht. Dieser Thread ist sehr interessant, weil er mal wieder zeigt, wie Leute mit wenig eigenem Wissen aber großer innerer Überzeugung sich zusammenfinden und jede interessante Diskussion zerlabern. Man hat teilweise den Eindruck, daß manche gar nicht wissen, wie sehr sie sich in ihren eigenen Blödsinn hineinsteigern. Anstatt sinnvoll zu argumentieren, werden diese Leute mit jedem Post, der im Widerspruch zu ihrer eigenen Überzeugung steht, ausfallender und ordinärer.


Es gibt Leute, denen es vollkommen egal ist, ob sie einen Lynnfield oder einen Thuban im PC stecken haben. Besonders dann, wenn es wirklich kaum einen sichtbaren Unterschied in der Performance gibt. - Zu diesen Leuten gehöre ich nicht. Vom technischen Standpunkt aus betrachtet ist der Lynnfield geradezu lächerlich. In meinen Augen ein preis- und featurereduziertes Abfallprodukt aus intels Chipproduktion. Ich würde noch den langsamsten Bloomfield jedem Lynnfield vorziehen, weil ich kein Geld in unterklassige Technik investiere. Aber wozu den langsamsten Bloomfield kaufen, wenn man für das gleiche Geld schon einen technisch viel interessanteren großen Thuban bekommt? Mir geht es nicht um die Spieleleistung - davon haben alle CPUs mehr als reichlich. Mir geht es um die Einstellung, die bei intel hinter der Einführung des Lynnfield steht: Man setzt alles daran ein minderwertiges Produkt, welches mit Nichten dem aktuellen Stand der Technik entspricht, in den Markt zu drücken, um damit seine völlig überzogenen Preise für das eigentliche Top-Produkt (den Bloomfield und den damit verbundenen leistungsfähigen Chipsatz) zu rechtfertigen. Sorry - aber mit sowas kann man mich nicht begeistern. Für sowas ist mir mein Geld zu teuer. Da tröstet mich die handvoll FPS mehr in schlecht parallelisierten Spielen auch nicht mehr. In meine PCs baue ich nur Produkte ein, mit denen ich mich identifizieren kann (Fanboy-Alaarm!). Produkte, bei denen der Hersteller sich erkennbar keine Mühe gegeben hat, haben bei mir keine Chance. Und das hat nichts generell mit intel zu tun. Chips wie der Wolfdale konnten mich begeistern. Da hat man wirklich alles rausgeholt was mit Core2 und 45nm technisch drin war. Aber der Lynnfield ist für mich der Inbegriff der Degeneration. - Traurige Zeiten für Technikbegeisterte. Der 1090T ist da schon mehr als ein Lichtblick. Wenn der Thuban eine intel-CPU wäre, hätte man dafür von mir aus den gesamten Lynnfieldkram einstampfen können. Für Leute denen der Thuban tatsächlich zu langsam ist, gäbe es dann ja immernoch die echten Nehalems Bloomfield und Gulftown.
:umassa:


[:freak:] ich habe den Sinn dieses Posts verstanden

[:confused:] ich habe den Sinn dieses Posts nicht verstanden

[:mad:] ich habe keine Zeit für son' Blödsinn

[:cool:] alles drei, und ich möchte an dieser Stelle noch alle grüßen, die glauben mich zu kennen

Tigerchen
2010-07-25, 08:06:44
Das Video zeigt L4D2. Aber es sind exakt die Probleme, die auch bei L4D1 auf meinem E8400 auftreten (auch ohne das man hierzu E drückt). Man kann auf einem DualCore schon im Intro erkennen, ob Multithreading aktiv ist (dann ruckelt es, wenn der Helikopter vorbeifliegt). Später im Spiel wird es dann immer schlimmer.

Im Spiel gibt es deswegen inzwischen eine Option, wo man Multicore-Rendering für PCs mit 'windowsblockierten' Cores abschalten kann.
Den Schalter gibt es bei Counterstrike-Source auch. Source ist ja jetzt generell Multi Core optimiert. Sogar für 6 Kerner. Wurde in einem der letzten Source-Updates gemacht. Die allermeisten Spieler bekamen Probleme mit Framedrops weil das Multicorerendering nach dem Update deaktiviertwar. Das Aktivieren von Multicorerendering behob das Problem.

Erstaunlich das Valve für so alte Spiele noch 4 und 6 Kernsupport einbaut.

Zu Intel:
Wenn ich die verfügbaren Grafikeffekte der Spiele auch nutze (das ist Praxisnah) ist die zusätzliche Performance der i5 oder i7 belanglos. Wer trotzdem viel Geld für den i7 ausgeben will kann das tun. Muß jeder selber wissen.

Gasti
2010-07-25, 10:03:16
Ja - ich würde sagen, so langsam versinkt dein schöner Thread im Rumgepöbel einiger 3DCF-Member, die einfach kein Benehmen haben. Sinnvolle Beiträge kommen hier wohl kaum noch zustande. Statt sinnvollen Argumenten und Gegenargumenten gibt es nur noch Provokationen und Beleidigungen aus Richtung einiger aufgeschreckter Quad-Besitzer, deren ganzes Wissen über moderne CPUs auf farbigen Balkendiagrammen in verkaufsbegleitenden Pseudo-Fachzeitschriften beruht. Dieser Thread ist sehr interessant, weil er mal wieder zeigt, wie Leute mit wenig eigenem Wissen aber großer innerer Überzeugung sich zusammenfinden und jede interessante Diskussion zerlabern. Man hat teilweise den Eindruck, daß manche gar nicht wissen, wie sehr sie sich in ihren eigenen Blödsinn hineinsteigern. Anstatt sinnvoll zu argumentieren, werden diese Leute mit jedem Post, der im Widerspruch zu ihrer eigenen Überzeugung steht, ausfallender und ordinärer.


Es gibt Leute, denen es vollkommen egal ist, ob sie einen Lynnfield oder einen Thuban im PC stecken haben. Besonders dann, wenn es wirklich kaum einen sichtbaren Unterschied in der Performance gibt. - Zu diesen Leuten gehöre ich nicht. Vom technischen Standpunkt aus betrachtet ist der Lynnfield geradezu lächerlich. In meinen Augen ein preis- und featurereduziertes Abfallprodukt aus intels Chipproduktion. Ich würde noch den langsamsten Bloomfield jedem Lynnfield vorziehen, weil ich kein Geld in unterklassige Technik investiere. Aber wozu den langsamsten Bloomfield kaufen, wenn man für das gleiche Geld schon einen technisch viel interessanteren großen Thuban bekommt? Mir geht es nicht um die Spieleleistung - davon haben alle CPUs mehr als reichlich. Mir geht es um die Einstellung, die bei intel hinter der Einführung des Lynnfield steht: Man setzt alles daran ein minderwertiges Produkt, welches mit Nichten dem aktuellen Stand der Technik entspricht, in den Markt zu drücken, um damit seine völlig überzogenen Preise für das eigentliche Top-Produkt (den Bloomfield und den damit verbundenen leistungsfähigen Chipsatz) zu rechtfertigen. Sorry - aber mit sowas kann man mich nicht begeistern. Für sowas ist mir mein Geld zu teuer. Da tröstet mich die handvoll FPS mehr in schlecht parallelisierten Spielen auch nicht mehr. In meine PCs baue ich nur Produkte ein, mit denen ich mich identifizieren kann (Fanboy-Alaarm!). Produkte, bei denen der Hersteller sich erkennbar keine Mühe gegeben hat, haben bei mir keine Chance. Und das hat nichts generell mit intel zu tun. Chips wie der Wolfdale konnten mich begeistern. Da hat man wirklich alles rausgeholt was mit Core2 und 45nm technisch drin war. Aber der Lynnfield ist für mich der Inbegriff der Degeneration. - Traurige Zeiten für Technikbegeisterte. Der 1090T ist da schon mehr als ein Lichtblick. Wenn der Thuban eine intel-CPU wäre, hätte man dafür von mir aus den gesamten Lynnfieldkram einstampfen können. Für Leute denen der Thuban tatsächlich zu langsam ist, gäbe es dann ja immernoch die echten Nehalems Bloomfield und Gulftown.
:umassa:


[:freak:] ich habe den Sinn dieses Posts verstanden

[:confused:] ich habe den Sinn dieses Posts nicht verstanden

[:mad:] ich habe keine Zeit für son' Blödsinn

[:cool:] alles drei, und ich möchte an dieser Stelle noch alle grüßen, die glauben mich zu kennen

Man kann da das 3DCenter froh sein, dass immer noch Gäste da sind die solche tollen und inhaltsleeren Posts ala "Ihr seid doch eh alle blöd und ich hab das ultimative Praxiswissen".
Klasse damit hast du die Diskussionskultur mit einem weiteren "Wer einen Quad hat ist dumm" - Argument bereichert respekt.

Fetter Fettsack
2010-07-25, 10:17:14
[:freak:] ich habe den Sinn dieses Posts verstanden

[:confused:] ich habe den Sinn dieses Posts nicht verstanden

[:mad:] ich habe keine Zeit für son' Blödsinn

[:cool:] alles drei, und ich möchte an dieser Stelle noch alle grüßen, die glauben mich zu kennen

[:freak:]
[:confused:]

EDIT:

@ Gast über mir

Ich finde, dass er gar nicht so allgemein kritisiert hat, sondern eher auf spezielle Personen abzielte. Vielleicht hab ich aber auch seinen Post nicht verstanden.^^

Gasti
2010-07-25, 10:26:37
[:freak:]
[:confused:]

EDIT:

@ Gast über mir

Ich finde, dass er gar nicht so allgemein kritisiert hat, sondern eher auf spezielle Personen abzielte. Vielleicht hab ich aber auch seinen Post nicht verstanden.^^

Dann soll Er Sie auch nennen.
Für mich liest sich das eher wie [X] Ich verstehe auch nicht warum man in niedrigen Auflösungen bencht und flame mal ordentlich dagegen.
Man kann natürlich gegen diese Praxis sein (Was haben die FPS im Technikdinosaurier SC2 mit anderen zukünftigen Spielen zu tun?), aber das liest sich wie gesag schwer nach "ich habe es nicht begriffen".

puntarenas
2010-07-25, 10:34:41
Ich habe natürlich die Post der beiden gelesen - frage mich aber:

Warum bringe ich - wenn mich nur die Leistungsfähigkeit der CPU interessiert - die GPU überhaupt ins Spiel?
Tust du nicht prinzipiell, aber wenn die die Leistungsfähigkeit der CPU in Spielen interessiert, dann dürfen zum einen der Grafiktreiber und Co das System ruhig mitbelasten und zum anderen ist zumindest mir kein Spiel ohne Grafikausgabe bekannt.


Im Grunde würde es reichen einen Benchmark zu entwickeln, der gängige 3D + Kollision + KI Berechungen durchführt - aber nichts anzeigt.

Dieser synthetische "Spielebenchmark" müsste idealerweise verschiedene Lastszenarien auf der CPU nachbilden, um wenigstens in die Nähe der Realität zu kommen. Der Entwickler müsste zahlreiche fordernde Spielszenen analysieren und dann Profile für stark Single-/Dual-/Triple-/Multi-Core- sowie Intel(Core2 und Nehalem)- und AMD(konstant K10.5 seit Jahren)- affine Spiele entwerfen. Vermutlich würde es auch richtig Geld kosten, zumindest wenn er sich kommerzieller Bibliotheken bedienen wollte, die auch in Spielen viele Standardaufgaben erledigen und auf keinen Fall gibt es den einen Ansatz. Von hochoptimierten, kommerziellen Libraries bis hin zu Eigengefrickel aus Praktikantenhand, von Kompilaten bis hin zu interpretierten Scripts, es dürfte sich alles finden lassen.

Dann müsste er dies in seinem Scoring nach bestem Wissen und Gewissen auch noch gewichten und wie er es macht, jedermann könnte zurecht darauf verweisen, dass aus einem leicht abgewandelten Spielemix andere Schlüsse hätte ziehen müssen, was in etwas anderen Benchmarkresultaten resultiert hätte. Zu guter Letzt würde sein Benchmark dann von Allen an real existierende Spielen gemessen. Eine gemittelte Performanceeinschätzung über eine Vielzahl aussagekräftiger Spielebenchmarks treffen wir ja heute sowieso schon über den Daumen, wobei wir uns den Luxus nehmen von "ungefähr" zu sprechen, unser Entwickler müsste aber konkrete Verhältnismäßigkeiten festlegen, um seinen Benchmark abzustimmen.

Akzeptiert würde der Benchmark auch von den Wenigsten. Ein Großteil der Spieler verharrt in der Ablehnung von "praxisfernen" Benchmarks. Diese Leute wollen nicht wissen, welches Leistungsvermögen von den Prozessoren im Verhältnis untereinander zu erwarten ist, sie wollen emotionale Bestätigung. "Bist ein Feiner, hast gut gemacht, gehörst zu uns und warst ganz smart bei der Wahl des Preis-/Leistungskönigs." Dass eine Preis-/Leistungsbewertung freilich nur sinnvoll ist, wenn man das Lesitungspotential nicht vorher nach oben hin limitiert hat, verstehen Viele nicht und was wichtiger ist, sie wollen es auch nicht verstehen.


Dieses "praxisfremd" ist eine IMO absolut unhaltbare Argumentation, da die "praxisnahen" Vergleiche nur für eines gut sind: Die Ergebniskurven dermaßen zu glätten, dass man gar nichts mehr ausssagen kann.

Wer die Notwendigkeit eines geeigneten Benchmarkansatzes (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8157632#post8157632) verstanden hat, der wäre dem neuen, synthetischen Benchmark-Tool gegenüber sicherlich sehr aufgeschlossen, wenn es über verschiedene Architekturen, Kern- und Taktskalierungen hinweg Ergebnisse liefern würde, die einem Mittel über viele Spielebenchmarks nahe kommen. Dennoch wäre er auch hier nur eine nette Ergänzung und müsste sich stets im Quervergleich zu den ohnehin durchgeführten, wirklichen Spielebenchmarks messen lassen.

Der Entwickler hätte also viel Aufwand und könnte fast nichts gewinnen. Für einen groben Schuss gibt es heute schon Cinebench und Co, eine durchschnittliche IPC Einordnung aus Gamer-Sicht erledigen die einschlägigen Foren. Nach Verfügbarkeit von ausreichend Benchmarks beginnt die Diskussion von ganz allein, unbrauchbare Benchmarks und Ausreißer werden zielsicher aussortiert und es bildet sich ein Konsens zum ungefähren Mittelwert. Man muss natürlich akzeptieren, dass hier prinzipbedingt grob geschnitzt wird und wenn jemand sagt, Lynnfield hat gegenüber Deneb eine 30% höhere IPC in Spielen, dann ist das so gut wie 25% oder 35% und wird auch von einzelnen Ausreißern nach oben oder unten letztlich nicht erschüttert.

Wer weiterhin behaupten möchte, es mache im Hiblick auf die Spiele-Performance keinen Unterschied, ob man einen Phenom II X6 oder einen Core i7 760 in einem Spielerechner verbaut, dem ist nicht zu helfen, wie dieser Thread deutlich herausgearbeitet hat. Das höhere Leistungspotential ist gegeben und zahlt sich in kritischen Sizuationen immer aus, seien es aktuelle Spiele oder sei es eine Projektion auf die Zukunft.


Da es so einen Benchmarkt aber nicht gibt, scheint die angesprochene Ziel-Auflösung während des Benchens nur eine Notlösung zu sein...die aber nicht optimal ist - oder stehe ich auf der Leitung ? :)
Ich denke wie gesagt, so einen Benchmark auf übertragbare Ergebnisse zu zimmern wäre eine Heidenarbeit und dann käme sofort der Einwand aus wenig berufenen Mündern, dass der Benchmark ja mit Absicht so gestaltet worden sei, dass besipielsweise ein Phenom gegen einen Core i5 verliert. Stimmt ja auch, was denn sonst, unser Entwickler wollte ja die Gamer-Realität synthetisch nachbilden.

P.S. Es ist keineswegs eine Notlösung, da die Erebnisse übertragbar sind. "Nicht optimal" ist eigentlich nur, dass immer weniger Spiele freies Speichern erlauben, weshalb es schwerer wird wirklich CPU-fordernde, reproduzierbare Szenen zum Benchen auszuwählen. Die Auflösungsreduzierung ist - wo nötig - ja nur ein Baustein auf dem Weg zum aussagekräftigen Ergebnis.

Fetter Fettsack
2010-07-25, 10:38:08
Sinnvolle Beiträge kommen hier wohl kaum noch zustande. Statt sinnvollen Argumenten und Gegenargumenten gibt es nur noch Provokationen und Beleidigungen aus Richtung einiger aufgeschreckter Quad-Besitzer, deren ganzes Wissen über moderne CPUs auf farbigen Balkendiagrammen in verkaufsbegleitenden Pseudo-Fachzeitschriften beruht.

Ich fand das recht eindeutig. Allerdings ist das nicht das Thema des Threads sondern der Vergleich zwischen (1055T) X6 / i5 (750 bzw. 760). Also lasst uns an diesen URsprung zurückkehren.

NaseWeiss
2010-07-25, 12:00:25
Welchen Unterschied soll es machen ob man vom GPU-Limit durch 800x600 @ SGPU oder hohe Auflösung @ MGPU wegkommt?

Kommt drauf an, was ich vor hab. Will ich Prozessoren untereinander vergleichen, macht 800x600 @ SGPU sinn sofern die Graka nicht trotzdem in eine Limitierung läuft.

Will ich aber wissen wie ein Prozessor sich in praxisnaher Umgebung verhält, muß ich in gängigen Auflösungen benchen, denn nur so lässt sich dann sagen, ob Prozessor x bei Auflösung y im Game z ausreichend ist um die Grafikkarte in spielbaren FPS zu halten. Somit kommt man bei manchen Games nicht um ein SLI System herum.
Und hier lässt sich drüber streiten, ob AvgFPS oder gemittelte MinFPS aussagekräftiger sind. Benche ich ein Wurstcase-Szenario (auch da lässt sich wieder drüber streiten) sollten AvgFPS ausrechend sein, da ich ja schon ein extrem forderndes Szenario ausgewählt hab, welches wohl eher selten im Game auftritt. Somit kann ich danach Sagen: Ja, CPU x bleibt beim angesprochenen Setting in Game z auch in extrem fordernden Szenen in spielbaren FPS-Gefilden und kann die Graka obtimal unterstützen.

Die gemittelten MinFPS bieten sich an, wenn das Game zB. keine Möglichkeit zum speichern bietet und man gezwungen ist per Fraps eine Stelle zu benchen, die bei jedem Test unterschiedliche Lasten verursacht. Von einer Anzeige der MinFPS, also in einem Frameverlauf den niedrigsten Punkt auswählen, halte ich für quatsch. Dieser kann im ganzen Frameverlauf nur eine Sekunde lang auftreten und somit verfälschte Werte produzieren.
Darum ziehe ich gemittelte MinFPS vor, soll heißen: wenn die gebenchte Szene 100 sek. lang ist, nehm ich aus dem Frameverlauf zB. die 10 niedrigsten Werte und Mittle diese, erzeuge so zusagen eine AvgMinFPS. Diese ist Aussagekräftiger, da eventuell vorhandene Ausreißer, nicht mehr so stark den Wert verfälschen und somit auch besser zum vergleichen geeignet sind.

Twodee
2010-07-25, 12:13:13
"Will ich aber wissen wie ein Prozessor sich in praxisnaher Umgebung verhält, muß ich in gängigen Auflösungen benchen,...."

Würde aber bedeuten, das die Prozessorlast von der Grafikauflösung abhängig wäre. Ist sie das wirklich?

boxleitnerb
2010-07-25, 12:15:14
Kommt drauf an, was ich vor hab. Will ich Prozessoren untereinander vergleichen, macht 800x600 @ SGPU sinn sofern die Graka nicht trotzdem in eine Limitierung läuft.

Will ich aber wissen wie ein Prozessor sich in praxisnaher Umgebung verhält, muß ich in gängigen Auflösungen benchen, denn nur so lässt sich dann sagen, ob Prozessor x bei Auflösung y im Game z ausreichend ist um die Grafikkarte in spielbaren FPS zu halten. Somit kommt man bei manchen Games nicht um ein SLI System herum.

Hm, ich würde eher sagen, wenn du in "praxisnaher" Auflösung bencht, bekommst du eher eine Aussage darüber, ob die Grafikkarte spielbare FPS liefert. Das ist ja der Witz. Wenn die Grafikkarte dafür verantwortlich ist, dass die FPS auf einen bestimmten Wert sacken, ist es in diesen Szenen egal, welche CPU du hast (es sei denn, du drehst die Details wieder runter - aber dann wirds ja noch komplizierter! Bzw. dann hätte man auch gleich wieder auf Auflösung senken können!). Diese Fälle interessieren für einen CPU-Test erstmal gar nicht, werden aber meistens trotzdem gebencht.
CPU-Limits in 640x480 benchen ist zwar erstmal nur ein Hilfsmittel, um besagtes Limit sichtbar(er) zu machen, aber es ist dennoch praxisnah!
Dieses "praxisnah" und "praxisfern" ist wirklich Unsinn, das sollte doch so langsam klar geworden sein. Außer man geht her und bencht in 640x480 mit niedrigen Details - das wäre wirklich praxisfern, weil die einige Detaileinstellungen auch CPU-Last erzeugen können.

Also merke:
CPU-Tests in niedrigen Auflösungen durchzuführen ist NICHT praxisfern, sondern praxisnah, vollkommen logisch und legitim und erlaubt auch Aussagen über die Leistungsfähigkeit der CPUs bei höheren Auflösungen (solange die Grafikkarte dort nicht limitiert).

"Will ich aber wissen wie ein Prozessor sich in praxisnaher Umgebung verhält, muß ich in gängigen Auflösungen benchen,...."

Würde aber bedeuten, das die Prozessorlast von der Grafikauflösung abhängig wäre. Ist sie das wirklich?

Natürlich ist sie das nicht. Er hat es leider immer noch nicht verstanden. Das ist nicht bös gemeint, wirklich. Es ist halt so :(

NaseWeiss
2010-07-25, 12:28:01
;)

y33H@
2010-07-25, 12:44:01
Also merke:
CPU-Tests in niedrigen Auflösungen durchzuführen ist NICHT praxisfern, sondern praxisnah, vollkommen logisch und legitim und erlaubt auch Aussagen über die Leistungsfähigkeit der CPUs bei höheren Auflösungen (solange die Grafikkarte dort nicht limitiert).Full ack! Signed³!

Preisfrage: Warum kapieren das viele User und Reviewer nicht?

boxleitnerb
2010-07-25, 13:03:24
Wenn ich mal so frech sein darf: Warum bencht ihr nicht so? Will eure Leserschaft das nicht sehen?

y33H@
2010-07-25, 13:15:42
Da wird schon bei 1280 x 1024 ohne AA/AF gemault. Außerdem sind die Phenom II mit GPU-Limit ja (angeblich) schneller :ulol:

Daher aktuell 1680 x 1050 ohne AA/AF, für größere Skalierungstests rücke ich aber freilich mit 800 x 600 an, da gibt's nichts zu diskutieren.

kruemelmonster
2010-07-25, 13:23:10
Kommt drauf an, was ich vor hab. Will ich Prozessoren untereinander vergleichen, macht 800x600 @ SGPU sinn sofern die Graka nicht trotzdem in eine Limitierung läuft.

Natürlich darf die Graka bei CPU-Test in keine Limitierung laufen, deshalb wird bei GPU-Test ja gerne ein 4 GHz i7 genutzt => Isolierung einer Komponenten, um die unverfälschte Leistungsfähigkeit zu bewerten.

Will ich aber wissen wie ein Prozessor sich in praxisnaher Umgebung verhält, muß ich in gängigen Auflösungen benchen, denn nur so lässt sich dann sagen, ob Prozessor x bei Auflösung y im Game z ausreichend ist um die Grafikkarte in spielbaren FPS zu halten. Somit kommt man bei manchen Games nicht um ein SLI System herum.

Da dir schon mehrfach aufgezeigt wurde, das die CPU-Leistung von der Auflösung unabhängig ist, weiß ich nicht warum du immer noch auf MGPU + praxisnahe Auflösung rumreitest. SGPU + LowRes bringt die gleichen Ergebnisse.

Wenn deine Graka nicht limitiert (GTX400 + i7 z.B., mit deiner 9800GT rennst du da natürlich voll ins Limit rein) siehst du was die CPU schaffen kann.

Wenn CPU A in 800x600 (=CPU-Limit, Graka-Leistung irrelevant) 30% langsamer ist als CPU B, dann wird sie auch in CPU-lastigen Szenen (Strategiespiel mit hunderten Einheiten) in 19x12 4xAA 16xAF bis zu 30% langsamer sein, auch mit MGPU.

So wie man mit einem 4 GHz i7 versucht, die CPU-Leistung zu egalisieren und nur isoliert die GPU-Performance bewerten will, nimmt man eben 800x600 für CPU-Tests. Diese Werte sind immer praxisnah und treten dann zu Tage wenn die CPU mal mehr zu tun hat als in den praxisfernen timedemos.

@NaseWeiss: Oder trollst du uns hier nur was vor weils so lustig ist? Nach deiner letzten Smiley-"Antwort" könnte man auf diese Idee kommen...

Fetter Fettsack
2010-07-25, 13:41:09
Außerdem sind die Phenom II mit GPU-Limit ja (angeblich) schneller :ulol:

Worauf gründen sich derartige Annahmen?

NaseWeiss
2010-07-25, 13:41:23
@NaseWeiss: Oder trollst du uns hier nur was vor weils so lustig ist? Nach deiner letzten Smiley-"Antwort" könnte man auf diese Idee kommen...

Das lass ich mal lieber offen :D Auf jedenfall ist jetzt gewährleistet, daß es auch der letzte Depp kapiert haben sollte ;)

Sumpfmolch
2010-07-25, 13:49:13
wie schauts eigentlich richtung physX aus...reichen da 2 kerne, um das ordentlich flott darzustellen bei denjenigen, die keine nvidia karte haben?

boxleitnerb
2010-07-25, 13:50:01
Evtl. könnte ein Mod hier bitte aufräumen nach N's Kasperletheater? Vielen Dank!

beos
2010-07-25, 13:55:51
Ich muss gestehen - ich habe das Prinzip des Benchens mit niedrigen Auflösungen, um die Geschw. einer (besten) CPU bei Spielen herauszufinden noch nicht verstanden :redface:

Bsp:

1. 800x600 (CPU_1 limitiert)
CPU_1(100%) -> GPU(80%) -> y Frames
2. 1920x1080 (GPU limitiert)
CPU_1(80%) -> GPU(100%) -> y Frames
3. 1920x1080 (CPU + GPU limitieren)
CPU_1(100%) -> GPU(100%) -> y Frames

Fall 2. und 3. müßten doch die gleichen y Frames erzeugen - da in beiden Fällen die GPU bei 100% liegt. Wenn ich jetzt CPU_1 gegen CPU_2 austausche, die 20% mehr Rechenleistung besitzt:

1.1 800x600 (CPU_2 limitiert)
CPU_2(120%) -> GPU(80%) -> y+20% Frames
2.1 1920x1080 (GPU limitiert)
CPU_1(80%) -> GPU(100%) -> y Frames
3.1 1920x1080 (CPU + GPU limitieren)
CPU_1(120%) -> GPU(100%) -> y Frames

Im Fall 3.1 könnte CPU_2 und GPU mehr Frames als in Fall 3. erzeugen, es kommen aber nicht mehr zustande, da die GPU limitiert. So habe ich also eine "bessere" CPU - bringen tut es mir nur etwas, wenn ich die GPU gleich mit austausche.

Um das Ganze auf unseren Fred umzusetzen:
Ein i5/i7 könnte also die bessere CPU für Spiele (mit realen Auflösungen sein) sein als ein PII-X6, wenn man eine GPU mit dazubenennt. Ohne macht es keinen Sinn.

Bitte sagt mir, falls ich da einen Gedankenfehler gemacht habe :)

puntarenas
2010-07-25, 14:00:39
wie schauts eigentlich richtung physX aus...reichen da 2 kerne, um das ordentlich flott darzustellen bei denjenigen, die keine nvidia karte haben?
Kerne zählen ist keine gute Idee. Wenn du wissen willst, ob die Leistungsfähigkeit eines E8xxx, eines Core i3 oder Athlon X2/X3 gemeinhin ausreichend ist für das übliche Spektakel, das CPU-PhysX dem Prozessor zusätzlich aufbürdet, dann solltest du die Frage im Interesse Aller auch so stellen. Es gibt leider Leute, die abstrahieren nicht nehmen solche saloppen Formulierungen dann allzu wörtlich.

Beantworten wird man es trotzdem nur bezogen auf ein konkretes Spiel können, denn PhysX riecht bereits stark nach Multithreading (des Spiels insgesamt) und Triple-/Quad-/Hexacores werden hier bereits ihr Leistungspotential gegenüber einem Dualcore ausspielen können.

Undertaker
2010-07-25, 14:02:15
Um das Ganze auf unseren Fred umzusetzen:
Ein i5/i7 könnte also die bessere CPU für Spiele (mit realen Auflösungen sein) sein als ein PII-X6, wenn man eine GPU mit dazubenennt. Ohne macht es keinen Sinn.

Bitte sagt mir, falls ich da einen Gedankenfehler gemacht habe :)

Grundsätzlich ersteinmal korrekt. Praktisch allerdings zu stark vereinfacht: Die CPU-Last in einem Spiel muss nicht konstant sein. In Gefechten mit viel KI/Physik etc. können die Leistungsanforderungen verglichen zum normalen Spielablauf durchaus mal um ein vielfaches steigen - und somit auch auf einer vergleichsweise schwachen GPU dennoch ein CPU-Limit erzeugen.

Grundsätzlich gilt aber natürlich: CPU und GPU müssen in einem angemessenen Verhältnis stehen, auch wenn dieses Verhältnis von Spiel zu Spiel und von Szene zu Szene erheblich schwanken kann.

Headjunkie
2010-07-25, 14:04:03
Zwar sehr koimpliziert beschrieben aber ja, genau das ist was ich auch schon vor ca 10 Seiten geschrieben habe.
i5/X6 + ne oboard Graka und es ist in allen Spielen voellig egal welche der beiden CPUs du hast.
i5/X6 + 5770, hier faengts dann wohl langsam an (kleine) Unterschiede zu produzieren.
i5/x6 + 480, WTF get a bigger CPU!! (-:
i5/X6 + 5850/30 oder 460, wohl wahrscheinlichste Kombi, also muessten wir jetzt hingehen und unsere Diskussion in diese Richtung weiterfuehren.

Ich habe 1055T + 5850 und bin mir eigentlich ziemlich sicher dass ich momentan immer und ueberall in GrakaLimits reinlaufe.

Beispiel 1, Saints Row2: Mit allen Details an nur 30-35fps auf 2x,8x, wenn ich dann auf 4x,16x hochschalte wirds unspielbar, CPUs werden nur 2 belastet und auch nur mit 50%, der Rest pennt komplett => CPU egal.
Beispiel 2, Siedler 7: Allet auf voll, Framerate net geguckt aber noch nie nen Ruckler gehabt, => 1055T schnell genug, also auch CPU egal.

Sidebeispiel: Dawn of War 1!!! (gerade mal wieder rausgepackt):
CPU koennte locker im sleep modus bleiben (:

Vielleicht noch andere mit ihren Erfahrungen? Weil aus meinen eigenen hatte ich halt meine alte(bissel falsch, outdated) Sichtweise abgeleitet, das beide CPUs in Spielen gleich sind, weil kein Unterschied feststellbar dank GrakaLimit.

PS: Wir brauchen ne Post per Day Limit fuer bestimmte Leute in diesem Thread.

NaseWeiss
2010-07-25, 14:14:04
Womit wir wieder beim Thema wären :D

puntarenas
2010-07-25, 14:18:43
Grundsätzlich gilt aber natürlich: CPU und GPU müssen in einem angemessenen Verhältnis stehen, auch wenn dieses Verhältnis von Spiel zu Spiel und von Szene zu Szene erheblich schwanken kann.

Q: Warum sollte mich der Unterschied im Leistungsvermögen zwischen Core i5 760 und Phenom II X6 1055T dann interessieren, wo ich doch kein GTX480 SLI-System besitze und meine Grafikkarte mich in den meisten Spielsituationen limitieren wird, ganz besonders weil ich auch gern ein wenig Anti-Aliasing einsetze?

A: Einerseits eben wegen der Extremsituationen, die zur Schande der Reviewseiten selbst in Prozessor-Reviews von den wenigsten Benchmarks wiedergegeben werden (schlechte Szenenauswahl) und zum anderen eben, weil das höhere Leistungspotential dir auch für die Zukunft zur Verfügung steht, egal ob kommende Spiele der CPU plötzlich mehr abverlangen oder ob du die Grafikkarte aufrüstest.

Q: Okay, aber wer spielt denn nun in 800x600 oder nur ausgewählte Worst-Case-Szenen?

A: Sei nicht so naseweis!

NaseWeiss
2010-07-25, 14:20:41
wie schauts eigentlich richtung physX aus...reichen da 2 kerne, um das ordentlich flott darzustellen bei denjenigen, die keine nvidia karte haben?

guckst du hier: http://www.pcgameshardware.de/aid,746325/Phenom-II-X6-im-Praxis-Test-Diese-Spiele-profitieren-von-sechs-CPU-Kernen/CPU/Test/

NaseWeiss
2010-07-25, 14:22:21
Q: Warum sollte mich der Unterschied im Leistungsvermögen zwischen Core i5 760 und Phenom II X6 1055T dann interessieren, wo ich doch kein GTX480 SLI-System besitze und meine Grafikkarte mich in den meisten Spielsituationen limitieren wird, ganz besonders weil ich auch gern ein wenig Anti-Aliasing einsetze?

A: Einerseits eben wegen der Extremsituationen, die zur Schande der Reviewseiten selbst in Prozessor-Reviews von den wenigsten Benchmarks wiedergegeben werden (schlechte Szenenauswahl) und zum anderen eben, weil das höhere Leistungspotential dir auch für die Zukunft zur Verfügung steht, egal ob kommende Spiele der CPU plötzlich mehr abverlangen oder ob du die Grafikkarte aufrüstest.

Q: Okay, aber wer spielt denn nun in 800x600 oder nur ausgewählte Worst-Case-Szenen?

A: Sei nicht so naseweis!

:D

dargo
2010-07-25, 14:24:46
Wenn ich mal so frech sein darf: Warum bencht ihr nicht so? Will eure Leserschaft das nicht sehen?
Die Masse (das soll jetzt nicht negativ klingen) ist mit realen CPU-Tests völlig überfordert. Wird vermutlich auch daran liegen, dass sich diese Tests schwieriger nachstellen lassen als ne popelige Timedemo zu starten und zudem sehr zeitaufwändig sind. Der Witz an der Sache ist - die Leseschaft glaubt auch noch dass die Werte, die diese Timedemos ausspucken auch tatsächlich in Games dann vorhanden sind. :freak:

Mr.Magic
2010-07-25, 14:25:39
i5/X6 + 5770, hier faengts dann wohl langsam an (kleine) Unterschiede zu produzieren.

Womit du schonmal komplett falsch liegst. Ich hatte vor ein paar Seiten Benchmarkvergleiche gepostet. i7 mit 2.66Ghz|2.8Ghz vs. X6 3.2Ghz und i7 4.2Ghz vs. X6 4.2Ghz.
Der i7 war teilweise deutlich vorne, und lag selten hinten (AFAIR nur bei BFBC2 etwas deutlicher), bei den 1920x1080 einer Radeon.

Headjunkie
2010-07-25, 14:29:14
Sry, ich meinte Unterschiede zwischen spielbar und unspielbar.
Kann man diese Oblivion Mods (die meinst du oder?) mit ner 5770 in vollen Details und alles spielen?

Edit: Ich guck ma ob ich mein Oblivion finde, und versuch dann die Mods laufen zu lassen. Wird aber nix vor Mitte der Woche.

Mr.Magic
2010-07-25, 14:32:22
Um das herauszufinden, müsste man sich bei Frameverläufen die Min FPS angucken.

Zu Oblivion und Radeon kann ich nichts sagen, aber bei Morrowind half ein Update von GTX285 auf GTX480 - Indoor von 35 auf 60FPS°, Außenwelt von 12 auf 18FPS* (C2Q6600 @3,4Ghz, der hat etwa die ProMhz-Rechenleistung eines aktuellen Phenoms). Der geplante Umbau auf einen 4,2-4,5Ghz Bloomfield/Westmere/Sandy sollte das mindestens auf 30FPS hiefen.

°GPU-Limit
*CPU-Limit
vSync ist wie immer an.

Sumpfmolch
2010-07-25, 14:49:55
Kerne zählen ist keine gute Idee. Wenn du wissen willst, ob die Leistungsfähigkeit eines E8xxx, eines Core i3 oder Athlon X2/X3 gemeinhin ausreichend ist für das übliche Spektakel, das CPU-PhysX dem Prozessor zusätzlich aufbürdet, dann solltest du die Frage im Interesse Aller auch so stellen.


ich meine ganz konkret die beiden meist brach liegenden kerne des x6 in kombination mit ati grafikkarten.



Beantworten wird man es trotzdem nur bezogen auf ein konkretes Spiel können, denn PhysX riecht bereits stark nach Multithreading (des Spiels insgesamt) und Triple-/Quad-/Hexacores werden hier bereits ihr Leistungspotential gegenüber einem Dualcore ausspielen können.

die frage ist, ob ein hexacore hier was bringt gegenüber einem quadcore, wenn man eben keine nvidia grafikkarte im rechner hat.

NaseWeiss
2010-07-25, 14:56:17
nochmal :( guckst du hier:http://www.pcgameshardware.de/aid,746325/Phenom-II-X6-im-Praxis-Test-Diese-Spiele-profitieren-von-sechs-CPU-Kernen/CPU/Test/

Gerade BFBC2 finde ich sehr interessant (natürlich bei 800x600 betrachtet :D)

beos
2010-07-25, 14:58:22
Um das herauszufinden, müsste man sich bei Frameverläufen die Min FPS angucken.

Zu Oblivion und Radeon kann ich nichts sagen, aber bei Morrowind half ein Update von GTX285 auf GTX480 - Indoor von 35 auf 60FPS°, Außenwelt von 12 auf 18FPS* (C2Q6600 @3,4Ghz, der hat etwa die ProMhz-Rechenleistung eines aktuellen Phenoms). Der geplante Umbau auf einen 4,2-4,5Ghz Bloomfield/Westmere/Sandy sollte das mindestens auf 30FPS hiefen.

°GPU-Limit
*CPU-Limit
vSync ist wie immer an.

Aber woher weißt Du denn jetzt - das in diesem Fall bei diesem Spiel Dein System mit der GTX480 nicht GPU limitiert ist?
Es könnte doch durchaus sein, dass Du mit 2x GTX480 weniger Frame-Dropdowns in den besagten Szenerien hast, als mit einem neuen, schnelleren Prozzi und der jetzigen GPU?

Sumpfmolch
2010-07-25, 14:59:45
nochmal :( guckst du hier:http://www.pcgameshardware.de/aid,746325/Phenom-II-X6-im-Praxis-Test-Diese-Spiele-profitieren-von-sechs-CPU-Kernen/CPU/Test/

Gerade BFBC2 finde ich sehr interessant (natürlich bei 800x600 betrachtet :D)

wenn die jungs dann noch die sofort aufkommende frage geklärt hättem wäre ich glücklich: "ja und wie schaut das ganze im vergleich dazu mit gpu physx aus?"

unter umständen muss man ja die frage nach i5/i7 vs. x6 dann nach der grafikkarte beantworten...cpu physx? -> x6

BlackBirdSR
2010-07-25, 15:00:47
Ich muss gestehen - ich habe das Prinzip des Benchens mit niedrigen Auflösungen, um die Geschw. einer (besten) CPU bei Spielen herauszufinden noch nicht verstanden :redface:



Bitte sagt mir, falls ich da einen Gedankenfehler gemacht habe :)

Sogar einen gewaltigen:
Du hast dein BSP anhand von Average FPS und einem absoluten Messwert festgemacht. Damit hast Du die Aussagekraft und das Ergebniss quasi normalisiert.

Nimmst Du dein Beispiel aber und änderst das Verhältnis für CPU/GPU-Last in jeder Sekunde (wie das Spiel es tut), dann stimmt es wieder und Du bekommst plötzlich eine ganz andere Verteilung, wo eben die 20% klar spürbar werden.

dargo
2010-07-25, 15:06:50
Gerade BFBC2 finde ich sehr interessant (natürlich bei 800x600 betrachtet :D)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=487968

Mr.Magic
2010-07-25, 15:16:19
Aber woher weißt Du denn jetzt - das in diesem Fall bei diesem Spiel Dein System mit der GTX480 nicht GPU limitiert ist?
Es könnte doch durchaus sein, dass Du mit 2x GTX480 weniger Frame-Dropdowns in den besagten Szenerien hast, als mit einem neuen, schnelleren Prozzi und der jetzigen GPU?

Weil ich das bereits mit der GTX285 durchgetestet habe.

Alles Outdoor, an einer fordernden Teststelle:
volle Bildqualität 12FPS
mit Shadern, aber Distant Land, Grass etc. aus 14FPS
Shader aus, sonst alles an 18FPS
Shader aus, ohne NPC- und Script-Mods ~45FPS <- irgendwo zwischen GPU-Limit (Grass) und CPU-Limit (Distant Land)
Vanilla (keine Shader, Distant Land, Grass, NPCs) 60FPS

Mit "Shader aus" sind HDR, SSAO und Godrays gemeint. Grass- und Water-Shader bleiben dabei an.

beos
2010-07-25, 15:17:18
Grundsätzlich ersteinmal korrekt. Praktisch allerdings zu stark vereinfacht: Die CPU-Last in einem Spiel muss nicht konstant sein. In Gefechten mit viel KI/Physik etc. können die Leistungsanforderungen verglichen zum normalen Spielablauf durchaus mal um ein vielfaches steigen - und somit auch auf einer vergleichsweise schwachen GPU dennoch ein CPU-Limit erzeugen.

Grundsätzlich gilt aber natürlich: CPU und GPU müssen in einem angemessenen Verhältnis stehen, auch wenn dieses Verhältnis von Spiel zu Spiel und von Szene zu Szene erheblich schwanken kann.

OK - verstehe =)

beos
2010-07-25, 15:19:30
Sogar einen gewaltigen:
Du hast dein BSP anhand von Average FPS und einem absoluten Messwert festgemacht. Damit hast Du die Aussagekraft und das Ergebniss quasi normalisiert.

Nimmst Du dein Beispiel aber und änderst das Verhältnis für CPU/GPU-Last in jeder Sekunde (wie das Spiel es tut), dann stimmt es wieder und Du bekommst plötzlich eine ganz andere Verteilung, wo eben die 20% klar spürbar werden.

Hmmm...dann ist der GPU limitierte Test bei 800x600 aber nicht GPU-limitiert, da die CPU ja nicht immer 100% ausgelastet sein wird...:uponder:

BlackBirdSR
2010-07-25, 15:22:59
Hmmm...dann ist der GPU limitierte Test bei 800x600 aber nicht GPU-limitiert, da die CPU ja nicht immer 100% ausgelastet sein wird...:uponder:

Was glaubst Du, warum kaum einer richtig in diese Richtung testet?
Der Arbeitsaufwand wird extrem und die breite Masse will eh nur average fps sehen und denkt jeder der 800x600 testet hat ne Meise...

NaseWeiss
2010-07-25, 15:26:02
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=487968

Hab ich gelesen auch die nachfolgenden Posts dazu ;) doch ist mir der Abstand, und ich betrachte lieber den Frameverlauf, doch zu hoch und denke daher nicht, daß da Fraps als Fehlerquelle schuldig sein kann. Vergleicht man zusätzlich noch die 1680iger Auflösung, in der die 5870 in den ersten beiden dritteln im Graka Limmit hängt, kommt schon ein für mich stimmiges Ergebnis raus.

dargo
2010-07-25, 15:55:19
Hab ich gelesen auch die nachfolgenden Posts dazu ;) doch ist mir der Abstand, und ich betrachte lieber den Frameverlauf, doch zu hoch und denke daher nicht, daß da Fraps als Fehlerquelle schuldig sein kann. Vergleicht man zusätzlich noch die 1680iger Auflösung, in der die 5870 in den ersten beiden dritteln im Graka Limmit hängt, kommt schon ein für mich stimmiges Ergebnis raus.
Dann kanst du mir sicherlich erklären woher der X6 seine mehr als doppelt so hohe Leistung in der fünften Sekunde nimmt wenn er theoretisch und im besten Fall +50% Rechenleistung hat? Das soll jetzt nicht provokant klingen, ich möchte es einfach verstehen können.
Außerdem wird der X4 in Sekunde 12-15 schneller während der X6 langsamer wird. Bei diesem Test gibts so viele Fragezeichen, und solange die PCGH (bzw. die Verantwortlichen) mir meine Fragen nicht beantwortet (gerne auch über PN) halte ich diese Ergebnisse für wertlos.

Ich habe diese Szene nachgestellt, allerdings mit 1024x768 da 800x600 sich mit der neuen Spielversion nicht mehr einstellen lässt. Habe dafür je 3 Durchläufe mit einem i5-750@3,2Ghz genommen. Das ist dabei rausgekommen.

http://www3.pic-upload.de/thumb/25.07.10/uxurj6feut9.png (http://www.pic-upload.de/view-6473878/BfBC2.png.html)

Die einzelnen Ergebnisse weichen für meinen Geschmack erstmal zu stark ab. Klar, wenn man die avgs. vergleicht sehen alle 3 Ergebnisse für sich durch das Glätten fast gleich aus.

Meine Fragen an die PCGH:

1. Wie siehst bei der aktuellen Spielversion aus?
2. Wie siehts mit einer vergleichbaren NV-Karte aus?
3. Ist die verwendete Benchszene druchgängig vollkommen cpu-limitiert?
4. Diese Frage ergibt sich aus der dritten Frage - warum ist die Linie mit einer Intel CPU und NV-Grafikkarte deutlich gleichmäßiger?
5. Wie viele Durchläufe hat die PCGH genommen bis zum entgültigen Ergebniss? Und wie stark wiechen diese voneinander ab?

Fragen über Fragen...

y33H@
2010-07-25, 17:10:55
1. Wie siehst bei der aktuellen Spielversion aus?
2. Wie siehts mit einer vergleichbaren NV-Karte aus?
3. Ist die verwendete Benchszene druchgängig vollkommen cpu-limitiert?
4. Diese Frage ergibt sich aus der dritten Frage - warum ist die Linie mit einer Intel CPU und NV-Grafikkarte deutlich gleichmäßiger?
5. Wie viele Durchläufe hat die PCGH genommen bis zum entgültigen Ergebniss? Und wie stark wiechen diese voneinander ab?1) Wie gesagt, checke ich
2) GTX 480 genehm [die Fermis spackten zu der Zeit, daher HD5870]?
3) Kommt auf die Settings und die Grafikkarte an
4) Die Radeon kacken bei der Explosion der Gastanks ab, die Fermis nicht
5) idR immer drei und Abweichungen von unter 1%

Gast
2010-07-25, 17:11:03
Den Schalter gibt es bei Counterstrike-Source auch. Source ist ja jetzt generell Multi Core optimiert. Sogar für 6 Kerner. Wurde in einem der letzten Source-Updates gemacht. Die allermeisten Spieler bekamen Probleme mit Framedrops weil das Multicorerendering nach dem Update deaktiviertwar. Das Aktivieren von Multicorerendering behob das Problem.

Erstaunlich das Valve für so alte Spiele noch 4 und 6 Kernsupport einbaut.

Zu Intel:
Wenn ich die verfügbaren Grafikeffekte der Spiele auch nutze (das ist Praxisnah) ist die zusätzliche Performance der i5 oder i7 belanglos. Wer trotzdem viel Geld für den i7 ausgeben will kann das tun. Muß jeder selber wissen.
Ich hab jetzt auch mal Alien Swarm installiert (ist ja kostenlos bei Steam). Und y33H@ hat leider völlig Recht: Schon wieder habe ich Ruckler und Aussetzer ohne Ende auf dem E8400 sobald MultiCore-Rendering aktiv ist. Ich hatte die leise Hoffnung, daß es vielleicht ein L4D1/L4D2-exklusives Problem ist. - Schade.

http://forums.steampowered.com/forums/showthread.php?t=1012599
Hier sieht man in den Folgeposts, daß offenbar nicht nur DualCores betroffen sind:

CPU : Intel Core 2 Quad Q8200
Video Card : Ati Radeon HD 4850 GS
Video Card Driver : 8.661.0.0
Stutter/Freeze with multicore rendering enabled : Yes
Windows Version : Vista 64bit
(..)
CPU : Intel Core 2 Quad Q9550
Video Card : ATI HD4850
Video Card driver : 9.8
Stutter/Freeze with multicore rendering enabled : Yes
Windows Version : Vista SP3 32-bit


Meine Annahme, daß es an zu wenig Cores/schlechter Aufteilung der Threads liegen könnte, scheint demnach falsch zu sein. Ich finde es schon merkwürdig jedes FPS auf die Goldwaage zu legen, wenn jetzt immer mehr Spiele auftauchen, bei denen es massive Probleme mit Multicore-Rendering gibt. Betroffen sind offenbar alle Hersteller und Kombinationen - sogar Quads (was ich vorher noch nicht wußte). Sowas ist doch lächerlich - oder?

Hier mal eine Frage an Leute mit Lynnfield/1055T/1090T - Grafikkarte egal - habt ihr auch dieses Multicore-Rendering Problem? Das Problem taucht etwa nach 5 - 10 Minuten im Spiel auf und äußert sich durch Spielstillstand und Soundloops. Da Alien Swarm auch die Source-Engine nutzt, gehe ich mittlerweile davon aus, daß alle Spiele die auf dieser Engine laufen massive Probleme mit Multicore-Rendering haben. Was nutzen mir 4 oder sogar 6 Kerne, wenn ich damit meine Spiele nicht spielen kann? Und wenn die einzige Lösung darin besteht in den Optionen Multicore-Rendering abzuschalten, dann kann ich auch gleich bei meinem DualCore bleiben. Oder sehe ich das falsch?

y33H@
2010-07-25, 17:18:01
Ich nehme mal eine Demo auf und benche kurz.

EDIT
Holy Shit, der i5 geht mal total unter ohne MCR!

http://www.abload.de/thumb/2010-07-25_174532i8pv.png (http://www.abload.de/image.php?img=2010-07-25_174532i8pv.png)

beos
2010-07-25, 17:46:35
Was glaubst Du, warum kaum einer richtig in diese Richtung testet?
Der Arbeitsaufwand wird extrem und die breite Masse will eh nur average fps sehen und denkt jeder der 800x600 testet hat ne Meise...

Jetzt übertreibst Du aber - oder gabs damals, als Ihr noch entsprechende Tests gemacht habt so ein "Meise" Feedback...(ich habe mich damals leider noch nicht für so Etwas interessiert) ?

Aber wie könnte so ein Test denn heute aussehen?

Wenn selbst ein sogenannter CPU-Limit-Test bei einem Spiel gar kein CPU-Limit zeigt, da die Last erheblich schwanken kann -> müßte man dann nicht auf "Nicht-Spiele" ausweichen (z.B. 3D-Rendering. Video-Codierung und Verschlüsselung), die die CPU permanent zu 100% auslasten können - um überhaupt etwas über ein CPU Limit sagen zu können?

NaseWeiss
2010-07-25, 18:01:54
Dann kanst du mir sicherlich erklären woher der X6 seine mehr als doppelt so hohe Leistung in der fünften Sekunde nimmt wenn er theoretisch und im besten Fall +50% Rechenleistung hat? Das soll jetzt nicht provokant klingen, ich möchte es einfach verstehen können.
Außerdem wird der X4 in Sekunde 12-15 schneller während der X6 langsamer wird. Bei diesem Test gibts so viele Fragezeichen, und solange die PCGH (bzw. die Verantwortlichen) mir meine Fragen nicht beantwortet (gerne auch über PN) halte ich diese Ergebnisse für wertlos.

Ich habe diese Szene nachgestellt, allerdings mit 1024x768 da 800x600 sich mit der neuen Spielversion nicht mehr einstellen lässt. Habe dafür je 3 Durchläufe mit einem i5-750@3,2Ghz genommen. Das ist dabei rausgekommen.

http://www3.pic-upload.de/thumb/25.07.10/uxurj6feut9.png (http://www.pic-upload.de/view-6473878/BfBC2.png.html)



Die einzelnen Ergebnisse weichen für meinen Geschmack erstmal zu stark ab. Klar, wenn man die avgs. vergleicht sehen alle 3 Ergebnisse für sich durch das Glätten fast gleich aus.

Meine Fragen an die PCGH:

1. Wie siehst bei der aktuellen Spielversion aus?
2. Wie siehts mit einer vergleichbaren NV-Karte aus?
3. Ist die verwendete Benchszene druchgängig vollkommen cpu-limitiert?
4. Diese Frage ergibt sich aus der dritten Frage - warum ist die Linie mit einer Intel CPU und NV-Grafikkarte deutlich gleichmäßiger?
5. Wie viele Durchläufe hat die PCGH genommen bis zum entgültigen Ergebniss? Und wie stark wiechen diese voneinander ab?

Fragen über Fragen...

Hab mich auch mal ran gemacht... Leider auf meiner 9800gt512mb hoffnungslos Graka limitiert. Der grüne Balken war etwas zu früh gestartet, daher erreicht er am Ende auch nicht mehr den letzten Tank.

4) Die Radeon kacken bei der Explosion der Gastanks ab, die Fermis nicht

stimmt :)

hq-hq
2010-07-25, 18:05:12
@ beos wie was ? hier vielleicht hilft dir das: http://www.channelpartner.de/tests/hardware-tests/prozessoren/278314/index4.html

offensichtlich muss es wohl zu hohen lasten der cpu kommen sonst würden die min fps in etwa gleich liegen (so wie die average fps)
hm ja hab ein schlechtes beispiel erwischt (pcwelt ;)) aber im prinzip kommts hin

dargo
2010-07-25, 18:28:06
@y33H@
Danke erstmal für die Antworten. =)

zu 1) ok
zu 2) ja
zu 3) ich beziehe mich hier auf den Frameverlauf mit 800x600 und natürlich eine vergleichbare Karte zur HD5870
zu 4) warum? doch GPU-Limit bei Gastanks oder ein Grafiktreiber-Problem in extrem cpu-lastigen Szenen bei ATI? Oder eher ein Problem vom Phenom 2?
zu 5) 1% bei den avgs. oder 1% bei jeder Sekunde? Zur Erinnerung - bei meinen 3 Durchläufen weichen die avgs. um 1,4%, die min.fps, die übrigens nicht immer in der gleichen Sekunde auftauchen (siehe Diagramm) schon um 7% ab.

y33H@
2010-07-25, 18:39:06
@ dargo

3) OK, dann 1.024 x 769 - 800 x 600 geht ja nicht mehr und eine GTX 470 (gleichauf mit HD5870 in der Szene, zumindest AVG)
4) Wahrscheinlich, weil im Moment der Explosion der Polycount rapide ansteigt, damit kommt ein Fermi viel besser klar als ein Cypress; evtl. liegt's auch am Phenom II, aber das konnte ich den Benches bisher nicht entnehmen
5) Ich bezog mich auf die AVG, die MIN sind iirc schwankender - daher ja mehrere Runs

dargo
2010-07-25, 18:50:29
@y33H@

Ok soweit. :)

Aber vielleicht kannst du mir erklären wie ein X6 bei gleicher Taktrate mehr als doppelt so schnell sein kann wie ein X4? Ich verstehs immer noch nicht. Ich versuche eine plausible Erklärung dafür zu finden. Mir fällt aber nichts ein.

NaseWeiss
2010-07-25, 18:55:14
@y33H@

Ok soweit. :)

Aber vielleicht kannst du mir erklären wie ein X6 bei gleicher Taktrate mehr als doppelt so schnell sein kann wie ein X4? Ich verstehs immer noch nicht. Ich versuche eine plausible Erklärung dafür zu finden. Mir fällt aber nichts ein.

und warum bricht die 5780 bei 800x600 bei den Tanks aufm PIIx4 ein und aufm x6 nicht?

Sumpfmolch
2010-07-25, 18:56:45
benutzt das game physx? :D

y33H@
2010-07-25, 19:00:09
@ dargo

Diese Frage habe ich mir auch gestellt. Eine hohe Grundlast wie bei Anno 1404 fällt meiner Ansicht nach weg. Vll fangen sechs Kerne den hohen Polycount auf, während bei vier die HD5870 leidet - klingt komisch, ich weiß. Das Beste wird sein, die Geschichte schlicht noch mal zu testen, hilft alles nicht - möglicherweise auch unentdecktes menschliches Versagen. Ich bin ja nicht perfekt.

@ Sumpfmolch

Nö, animiertes Havok. Zumindest in der Szene, alles vorberechnet.

Gast
2010-07-25, 19:01:14
@y33H@

Ok soweit. :)

Aber vielleicht kannst du mir erklären wie ein X6 bei gleicher Taktrate mehr als doppelt so schnell sein kann wie ein X4? Ich verstehs immer noch nicht. Ich versuche eine plausible Erklärung dafür zu finden. Mir fällt aber nichts ein.

z.b. weil beim spielen immer hintergrundprozesse laufen, angenommen die brauchen einen kern, beim x6 bleiben 5 übrig und beim x4 3, also fast doppelt so viel

y33H@
2010-07-25, 19:02:27
Die ziehen nicht so viel, sonst wäre ein DC unter Windows doch schon "tot".

dargo
2010-07-25, 19:06:33
Diese Frage habe ich mir auch gestellt. Eine hohe Grundlast wie bei Anno 1404 fällt meiner Ansicht nach weg. Vll fangen sechs Kerne den hohen Polycount auf, während bei vier die HD5870 leidet - klingt komisch, ich weiß. Das Beste wird sein, die Geschichte schlicht noch mal zu testen, hilft alles nicht - möglicherweise auch unentdecktes menschliches Versagen. Ich bin ja nicht perfekt.
Bitte nicht falsch verstehen, ich möchte dir auf keinen Fall Inkompetenz vorwerfen. Ich weiß wie kompliziert CPU-Tests sind und sich ganz schnell Fehler einschleichen können (was nicht bedeuten soll, dass deine Messungen automatisch fehlerhaft sind). Sie klingen für mich nur in einigen Bereichen unlogisch.. Auch weiß ich eure Arbeit zu schätzen, denn ihr geht die Schritte eurer Benchmarks genau durch, sodass sie auch nachbenchbar sind. Das macht afaik keiner! :)

Gast
2010-07-25, 19:07:00
hüstel..welches ist denn nun die bessere CPU ( Chipsatz )?
Core i7 oder AMD X6?

dargo
2010-07-25, 19:08:56
z.b. weil beim spielen immer hintergrundprozesse laufen, angenommen die brauchen einen kern, beim x6 bleiben 5 übrig und beim x4 3, also fast doppelt so viel
Das würde bedeuten, dass die Grundlast in diesem Spiel enorm hoch ist. Wäre das der Fall würde jeder Dualcore ins bodenlose fallen. Wie du an meinem Diagramm siehst ist das aber nicht der Fall. Diese Szene ist mit einem 3,2Ghz Dualcore @Lynnfield noch sehr gut spielbar.

Edit:
Achso, du meinst Windows an sich? Das ist kaum relevant.

y33H@
2010-07-25, 19:09:44
@ dargo

Ich sehe den Vorwurf der Inkompetenz nicht. Aber ich sehe Unstimmigkeiten und das gefällt mir wie dir nicht. Also suchen wir die Ursache, that's it.
Auch weiß ich eure Arbeit zu schätzen, denn ihr geht die Schritte eurer Benchmarks genau durch, sodass sie auch nachbenchbar sind. Das macht afaik keiner!Danke.

@ Gast

Im Zweifel der i7, es denn, du steht total auf USB3 oder SATA3. Was es aber nur bei einem Neukauf gibt. 790GX haben das zB nicht.

Gast
2010-07-25, 19:12:05
hüstel..welches ist denn nun die bessere CPU ( Chipsatz )?
Core i7 oder AMD X6?

in anwendungen sind beide etwa gleich, in spielen is der i7 besser. für x6 spricht der niedrigere preis(1055T) und die plattform ist besser mehr pcie lanes usw.

Gast
2010-07-25, 19:12:14
"@ Gast

Im Zweifel der i7, es denn, du steht total auf USB3 oder SATA3. Was es aber nur bei einem Neukauf gibt. 790GX haben das zB nicht. "

okay, danke

hq-hq
2010-07-25, 19:36:33
@ gast

ganz klar der i7-980X ;)

Gast
2010-07-25, 19:39:50
Ich nehme mal eine Demo auf und benche kurz.

EDIT
Holy Shit, der i5 geht mal total unter ohne MCR!

http://www.abload.de/thumb/2010-07-25_174532i8pv.png (http://www.abload.de/image.php?img=2010-07-25_174532i8pv.png)
Oh - ein durchaus interessantes Ergebnis! Wie sieht es denn jetzt aus mit dem MCR-Stuttering? Das MCR soviel mehr FPS bringt ist ja schonmal erfreulich (hätt ich jetzt eher nicht gedacht) - aber was würde es nutzen, wenn dafür alle 20 Sekunden das Spiel fast stehen bleibt?

Es würde mich sehr beruhigen, wenn hier jemand posten könnte, daß dies bei Lynnfield/Thuban definitiv nicht mehr der Fall ist. :)

Auch würde es mich mal interessieren, wie groß der MCR-Boost in Alien-Swarm mit 6 Kernen ausfällt. Oder ob das keinen Unterschied macht.

puntarenas
2010-07-25, 19:49:44
ich meine ganz konkret die beiden meist brach liegenden kerne des x6 in kombination mit ati grafikkarten.

[...]

die frage ist, ob ein hexacore hier was bringt gegenüber einem quadcore, wenn man eben keine nvidia grafikkarte im rechner hat.
Mein Punkt ist, es spielt prinzipiell keine Rolle ob die Leistung von höherem Takt, höherer IPC oder mehr Kernen herrührt, entscheidend ist eine CPU zu haben, die in der fraglichen Szene ausreichend Leistungsvermögen besitzt und die Leistung aufs Parkett bringen kann. Dual-Cores, besonders ältere mit nicht mehr zeitgemäßer IPC - werden häufig bereits zu wenig Leistungspotential haben.

Der Phenom II X6 leidet darunter, dass er die beiden zusätzlichen Kerne nur ausspielen kann, wenn die Anwendung entsprechend parallelisiert ist. Es ist durchaus möglich, dass ein modernes Spiel mit PhysX eine breite Parallelisierung mitbringt, dann wird der Phenom II X6 1055T zu einem Phenom II X4 965 entsprechend aufschließen und im sehr günstigen Fall sogar überholen können.

Solche sehr günstigen Fälle sind im Spielebereich aber eher sehr selten zu erwarten und um es mal zuzuspitzen, aus Gamer-Sicht (und ohne Overclocking versteht sich) ist der Phenom II X4 965 immer die bessere Wahl.

dargo
2010-07-25, 19:50:09
@y33H@

Ich habe jetzt mal meine GTX470 mit Default-Taktraten anstatt 720/1440/838Mhz gebencht. So wie es aussieht ist eure Szene zu großen Teil noch gpu-limitiert. Auch bei den min.fps. Das würde bedeuten, für den Einbruch ist eher die Grafikkarte und nicht die CPU verantwortlich. Ich weiß allerdings nicht wie stark sich die Limits zwischen 1024x768 und 800x600 in eurer Szene verschieben. Das erklärt dann aber nicht warum der X6 dermaßen zulegt.

*totalverwirrtbin* ;D

PS: kannst du nicht eine kürzere Szene wählen? Diese langen 30 Sekunden lassen sich echt schwer nachstellen. Es reicht schon, dass das Zielkreuz eine andere Position hat und schon gibts größere Abweichungen.

Edit:
Man bin ich bescheuert. Ihr habt ja ein Video der Benchsequenz doch erstellt. :facepalm:

Ich teste nochmal... :redface:

y33H@
2010-07-25, 20:08:04
Fraps starten, wenn der Heli nach links zieht, das Fadenkreuz knapp unter dem Pfosten. Feuern, aber Finger weg von der Maus - am besten Feuern auf die Leertaste.
Das würde bedeuten, für den Einbruch ist eher die Grafikkarte und nicht die CPU verantwortlich.Dann sind die MINs Schuld der HD5870, so wie vermutet.

dargo
2010-07-25, 20:13:40
Dann sind die MINs Schuld der HD5870, so wie vermutet.
Ja aber wie kann dann der X6 im GPU-Limit auf über 100fps an der Stelle kommen wenn der X4 an der gleichen Stelle 50fps erreicht. Es steckt doch die gleiche Graka drin. :D Hat der X6 schon ein Feature eingebaut der die Graka entlastet? :devil:

S940
2010-07-25, 20:14:23
und warum bricht die 5780 bei 800x600 bei den Tanks aufm PIIx4 ein und aufm x6 nicht?
Naja ... hatten wir doch schon vor ein paar Seiten ... der ATi Treiber braucht eventuell mehr CPU Leistung. V.a. wenn es dann im Game tüchtig kracht und explodiert, kann es da eventuell zu nem Resourcenkonflikt zw. Game Logic und Treiber kommen.

Der Treiber braucht so ca. 2 Threads (zumindest hab ich vor Jahr und Tag mal mitbekommen, dass sie den mutlithreaded gemacht haben), da könnte ein 6Kerner die Problematik schön entschärfen ... 4 Kerne fürs Game, 2 für den Treiber.

Sollte man recht einfach durch den Taskmanager o.ä. sehen können, wenn da Vollast auf 5-6 Kernen wäre, käme die Vermutung wohl hin.

ciao

Alex

y33H@
2010-07-25, 20:15:53
Hat der X6 schon ein Feature eingebaut der die Graka entlastetDu weißt doch, die Phenom II sind im GPU-Limit schneller. Ach halt, X4 wie X6 sind ja beides Phenom II ;D

dargo
2010-07-25, 20:17:15
@S940
Also jetzt wirds albern. Der Grafiktreiber erzeugt eine Last die 2 Cores eines Phenom 2 @3,2Ghz komplett blockiert? ;D

S940
2010-07-25, 20:19:11
@S940
Also jetzt wirds albern. Der Grafiktreiber erzeugt eine Last die 2 Cores eines Phenom 2 @3,2Ghz komplett blockiert? ;D
TJa ... hier gehts doch um CPU Limit ...

VLIW Optimierung ist mit nichten albern .. schau Dir mal den Aufwand an, den Intel bei IA64 fabriziert .. und der ATi Treiber macht ähnliches JIT ... das ist nicht ohne.

Ausserdem:
Hast Du ne bessere Erklärung ?

Dann her damit :biggrin:

Odal
2010-07-25, 20:26:36
und warum bricht die 5780 bei 800x600 bei den Tanks aufm PIIx4 ein und aufm x6 nicht?


was? die brechen doch beide ein


*edith* falsches bild

nur das es bei dem PIIx4 stärker ausfällt

vergleicht man das mit dargos Messung muss es entweder an der 5870 liegen oder die K10.5 architektur verschluckt sich da an irgendwas

*edith* grauenhafte IPC des K10.5 wo lediglich die 2 Cores mehr aushelfen

gewissheit bekommt man nur wenn mal jemand mit i7 und einer 5870 bencht

dargo
2010-07-25, 20:27:53
TJa ... hier gehts doch um CPU Limit ...

VLIW Optimierung ist mit nichten albern .. schau Dir mal den Aufwand an, den Intel bei IA64 fabriziert .. und der ATi Treiber macht ähnliches JIT ... das ist nicht ohne.

Ausserdem:
Hast Du ne bessere Erklärung ?

Dann her damit :biggrin:
Ich habe zumindest eine bessere Erklärung warum deine These nur falsch sein kann. Wenn der Grafiktreiber alleine 2 Cores beanspruchen würde (was ich echt albern finde) wäre diese Szene mit dem X4 überhaupt nicht mehr spielbar.

NaseWeiss
2010-07-25, 20:34:05
was? die brechen doch beide ein

http://www.pcgameshardware.de/screenshots/medium/2010/04/X6-Gaming-Verlauf-BC2-1680.png

nur das es bei dem PIIx4 stärker ausfällt

vergleicht man das mit dargos Messung muss es entweder an der 5870 liegen oder die K10.5 architektur verschluckt sich da an irgendwas

gewissheit bekommt man nur wenn mal jemand mit i7 und einer 5870 bencht
Du hast das falsche Bild Diagramm ausgewählt, schau mal auf die Auflösung ;) :D

Odal
2010-07-25, 20:45:45
wurde schon längst editiert du held

bleibt letztendlich messfehler (müssen dargo und y33h@ untereinander ausmachen) oder katastrophale IPC der PhenomII Cores

S940
2010-07-25, 20:46:59
Ich habe zumindest eine bessere Erklärung warum deine These nur falsch sein kann. Wenn der Grafiktreiber alleine 2 Cores beanspruchen würde (was ich echt albern finde) wäre diese Szene mit dem X4 überhaupt nicht mehr spielbar.
Och wieso, ich hab ja nicht behauptet, dass es 2 Kerne @100% sind ... es reicht schon, wenn die Gesamtlast mehr als 4 Kerne auslasten kann. Deswegen schrieb ich ja 5-6.
Ausserdem könnte es sein, dass sich die Treiberlast dynamisch regelt, d.h. bei hoher CPU Last durchs Game weniger anspruchsvolle Optimierungen gefahren werden.

Sowas kann man machen, ob es im ATi Treiber ist .. keine Ahnung.
So einfach albern, wie Du es gerne hättest ist es auf alle Fälle nicht ;-)

Wenn y33H@ das eh nachtesten will, dann kann er ja mal ein Auge auf den Taskmanger werfen, sollte kein Problem sein :)
Dann wissen wir auf alle Fälle Bescheid.

ciao

Alex

NaseWeiss
2010-07-25, 20:51:50
So ich hab nochmal versucht meine 9800gt ausm Graka limmit bei der besagten PCGH-BC2 Szene zu bringen, aber: wird nix :D
Naja, zumindest sieht man die Grakaeinbrüche die sich auch gut auf eine 5780 übertragen lassen. Somit lässt sich gut erkennen, wo ein Grakalimmit vorliegt und wo eben nicht ;)

wurde schon längst editiert du held

Warum hab ich dann dein Zitat in meinem Post du Held?

y33H@
2010-07-25, 20:54:50
@ NaseWeiss

1024 x 768, alles auf Low außer Details wäre einen Versuch wert.

Odal
2010-07-25, 20:56:51
der sucht doch nach einem CPU limit sowieso nicht in einer Auflösung <1920x... mit uraltgurke ala G92 *scrn*

NaseWeiss
2010-07-25, 20:59:29
@ NaseWeiss

1024 x 768, alles auf Low außer Details wäre einen Versuch wert.

habs so wie von euch vorgeschlagen, nur eben in der 1024iger Auflösung, da die 800er nicht mehr geht. AA/AF auf 0, Details (inkl.HBO) auf max.

y33H@
2010-07-25, 21:00:52
Hau auf jeden Fall mal HBAO weg.

NaseWeiss
2010-07-25, 21:01:22
der sucht doch nach einem CPU limit sowieso nicht in einer Auflösung <1920x... mit uraltgurke ala G92 *scrn*

immer diese unterstellungen... tststs

dargo
2010-07-25, 21:09:31
Fraps starten, wenn der Heli nach links zieht, das Fadenkreuz knapp unter dem Pfosten. Feuern, aber Finger weg von der Maus - am besten Feuern auf die Leertaste.

Ich bin kurz vorm Aufgeben. :usad:

Da habt ihr euch aber eine Szene ausgesucht. X-D

Das mit dem genauen Fadenkreuz-Positionieren ist fast unmöglich da der Heli immer hin und her eiert. Die Leertaste mit "Feuern" belegen ist da kein Problem. Mir sind die Schwankungen unten den Messungen einfach zu groß. Dadurch, dass der Heli wie gesagt eiert und ich auch nicht exakt in der gleichen Sekunde den Benchmark starten kann habe ich hier keine brauchbare Vergleichbarkeit zwischen den einzelnen Messungen. :(

y33H@
2010-07-25, 21:21:43
Da habt ihr euch aber eine Szene ausgesucht.Jetzt fang du nicht auch noch an ;D Raff und Carsten schimpfen schon die ganze Zeit.

dargo
2010-07-25, 21:31:40
Jetzt fang du nicht auch noch an ;D Raff und Carsten schimpfen schon die ganze Zeit.
Zu recht. :devil:

Mal ein anderer Ansatz - ich habe jetzt mehrere Durchläufe gemacht und je zwei ausgesucht die am wenigsten voneinander abweichen (bis auf einzelne Ausnahmen). Eventuell ist das einigermaßen brauchbar.

36934
In Sekunde 8-10 herrscht eindeutig ein extremes GPU-Limit. Wenn mich nicht alles täuscht müsste das die erste Explosion der Gastanks sein.

y33H@
2010-07-25, 21:35:32
Ja, die erste Explosion der beiden Tanks ist böse.

dargo
2010-07-25, 21:37:45
Ausserdem könnte es sein, dass sich die Treiberlast dynamisch regelt, d.h. bei hoher CPU Last durchs Game weniger anspruchsvolle Optimierungen gefahren werden.

Sowas kann man machen, ob es im ATi Treiber ist .. keine Ahnung.
So einfach albern, wie Du es gerne hättest ist es auf alle Fälle nicht ;-)

Das ist doch Käse. Der Grafiktreiber von NV beispielsweise holt durch "Optimierungen" aus einem Quadcore auch paar Prozent. Das sind aber um die 5% und auch nicht in jedem Spiel. Solche Dimensionen die da bei der PCGH zu sehen sind können nicht durch Optimierungen im Grafiktreiber entstehen. Ich bleibe dabei, diese These ist albern.

S940
2010-07-25, 21:39:53
Das ist doch Käse. Der Grafiktreiber von NV beispielsweise holt durch "Optimierungen" aus einem Quadcore auch paar Prozent. Das sind aber um die 5% und auch nicht in jedem Spiel. Solche Dimensionen die da bei der PCGH zu sehen sind können nicht durch Optimierungen im Grafiktreiber entstehen. Ich bleibe dabei, diese These ist albern.
Was interessiert mich der nVidia Treiber ? Ich rede von Äpfeln, Du kommst mit Birnen ... und dann wunderst Du Dich wenn alberner Käse bei rauskommt ? Humor hast Du auf alle Fälle ;D

dargo
2010-07-25, 21:44:01
Was interessiert mich der nVidia Treiber ? Ich rede von Äpfeln, Du kommst mit Birnen ... und dann wunderst Du Dich wenn alberner Käse bei rauskommt ? Humor hast Du auf alle Fälle ;D
Genau, die ATI-Treiber sind so geil. Das Treiberteam bei AMD ist völlig unterbezahlt wenn es solche Wunder vollbringt. NV sollte sich echt schämen. :D

Undertaker
2010-07-25, 21:45:30
Wenn es hier Unterschiede zwischen NV und ATI-Treibern gäbe - die ich in dieser Größenordnung für unmöglich halte - würden sich im CPU-Limit auf ATI- und NV-Systemen mit gleicher CPU entsprechende Unterschiede ergeben. Das ist nicht der Fall. -> Reicht schon als Beleg.

Ansonsten hat Dargo natürlich Recht, dass der Grafiktreiber auch nie im Leben eine solch hohe CPU-Last erzeugt.

NaseWeiss
2010-07-25, 22:17:03
So nun nochmal mit abgeschalteten HBAO und dann den Rest auf low bis auf Max Details... immer noch keine CPU-Limitierung zu bemerken... schon Kraß für i7@2,2GHz (hab fünfs Benches gemacht, wie bei allen, und die die am Besten rein passen übernommen)
Ich find den Bench gut, zumal wie Seiten zuvor schon beschrieben, nur ne Timedemo gleiche Werte produzieren kann.

boxleitnerb
2010-07-25, 22:21:56
Im Luxx wird in einem Thread behauptet, das CPU-Limit sei nicht auflösungsunabhängig, da der PCIe-Bus da irgendwie mit reinspielen soll. Was ist davon zu halten?

puntarenas
2010-07-25, 22:29:07
Gibt es PerfWatch-Screens zu der Szene (okay, wieder ein Messwerkzeug, das auf dem selben System läuft, das es ausmessen soll)? Vielleicht wäre es auch hilfreich, mal nicht taktbereinigt zu vergleichen, sondern das Leistungspotential der beiden Prozessoren anzunähern (also meinetwegen den X6@2400 und den X6@3600) und zu schauen, was passiert?

Hat jemand zu meiner anderen Frage mittlerweile eine Theorie oder war die Losung von den besseren Min-FPS (und allgemein konstanteren FPS), auch wenn ein Spiel nicht von mehr als vier Kernen profitiert (da ist dann ja der Grafiktreiber mit seinen Threads einbezogen), vom Tisch?

Phenom II X6 (minimum) FPS - Fraps und ein Fehler im System (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=487968)

:confused:

Undertaker
2010-07-25, 22:29:21
Im Luxx wird in einem Thread behauptet, das CPU-Limit sei nicht auflösungsunabhängig, da der PCIe-Bus da irgendwie mit reinspielen soll. Was ist davon zu halten?

Nichts.

1. Wo limitiert ein heutiger PCIe 2.0 16x Bus? Abseits von Speicherkrüppeln werden Einbrüche erst unter ~4 Lanes nennenswert.
2. Was hat der PCIe-Bus mit der CPU-Last du tun?
3. Wie immer die Aufforderung: Testet doch selbst. Schraubt eure CPU auf 1GHz und 2 Kerne herunter, nehmt ein aktuelles Spiel und bencht 800x600, 1024x768 und 1600x1200. Alles identisch schnell -> identische CPU-Last

NaseWeiss
2010-07-25, 22:30:00
Keine Ahnung, aber ich trau dem Braten auch nicht 100% zumal ich mich noch an Zeiten erinnern kann, wo auch die CPU in Abhängigkeit zur Auflösung gestanden haben muß. Is halt extrem schwer zu Beweisen, Bzw. zu wiederlegen

Undertaker
2010-07-25, 22:35:22
Keine Ahnung, aber ich trau dem Braten auch nicht 100% zumal ich mich noch an Zeiten erinnern kann, wo auch die CPU in Abhängigkeit zur Auflösung gestanden haben muß. Is halt extrem schwer zu Beweisen, Bzw. zu wiederlegen

Wo ist das schwer zu beweisen? Beschränke einfach die CPU-Leistung so stark, das in jeder Auflösung ein vollständiges CPU-Limit gesichert ist. Bench verschiedene Auflösungen, und das Ergebnis ist ein 100% sauberer Beweis.

Das war noch nie anders und wird auch nie anders sein (2D-Spiele natürlich außen vor). :) Wie gesagt, es kann jeder sofort testen.

Fetter Fettsack
2010-07-25, 22:36:38
Zitat von dargo

Das mit dem genauen Fadenkreuz-Positionieren ist fast unmöglich da der Heli immer hin und her eiert.

Kann da jemand nicht so gut Heli fliegen? ;D

@ Topic

Könnte es daran liegen, dass das der Treiber ab einer bestimmten Kernanzahl "Sachen" von der CPU berechnen lässt, die ansonsten die GPU macht? Ich weiß, an den Haaren herbeigezogen (albern :D), aber wenn man einen CPU-Lastvergleich macht, müsste das doch auffallen.

Fetter Fettsack
2010-07-25, 22:36:49
HimmelHerrgottkreuzkruzifix, elendiges I-Net. Grrmml.

Bitte löschen.

NaseWeiss
2010-07-25, 22:37:13
Nichts.

1. Wo limitiert ein heutiger PCIe 2.0 16x Bus? Abseits von Speicherkrüppeln werden Einbrüche erst unter ~4 Lanes nennenswert.
2. Was hat der PCIe-Bus mit der CPU-Last du tun?
3. Wie immer die Aufforderung: Testet doch selbst. Schraubt eure CPU auf 1GHz und 2 Kerne herunter, nehmt ein aktuelles Spiel und bencht 800x600, 1024x768 und 1600x1200. Alles identisch schnell -> identische CPU-Last

okay wenn du das sagst und schon gemacht hast, nehm ich dir das mal ab. oder hast du zufällig ein paar vergleiche, zum nachschauen?

boxleitnerb
2010-07-25, 22:43:49
Wo ist das schwer zu beweisen? Beschränke einfach die CPU-Leistung so stark, das in jeder Auflösung ein vollständiges CPU-Limit gesichert ist. Bench verschiedene Auflösungen, und das Ergebnis ist ein 100% sauberer Beweis.

Das war noch nie anders und wird auch nie anders sein (2D-Spiele natürlich außen vor). :) Wie gesagt, es kann jeder sofort testen.

Hm, aber da ist dann eines, was mich stutzig macht:
http://www.tomshardware.com/reviews/blizzard-entertainment-starcraft-ii-benchmark,2611-6.html

An und für sich betrachtet sind die Werte in den jeweiligen Auflösungen CPU-limitiert (ab ca. GTX260 - so schnell wie 5870). Warum gibt es dann ab dieser Leistungsklasse zwischen 1280x1024 und 1920x1200 einen Leistungsabfall von guten 10% in den avg Werten (von 52fps auf 45fps)?
Oder übersehe ich was Offensichtliches?

Undertaker
2010-07-25, 22:49:44
Hm, aber da ist dann eines, was mich stutzig macht:
http://www.tomshardware.com/reviews/blizzard-entertainment-starcraft-ii-benchmark,2611-6.html

An und für sich betrachtet sind die Werte in den jeweiligen Auflösungen CPU-limitiert (ab ca. GTX260 - so schnell wie 5870). Warum gibt es dann ab dieser Leistungsklasse zwischen 1280x1024 und 1920x1200 einen Leistungsabfall von guten 10% in den avg Werten (von 52fps auf 45fps)?
Oder übersehe ich was Offensichtliches?

Von 1280x1024 auf 1680x1050 und ff: Größeres Sichtfeld durch 16:10 -> höhere CPU-Last. Darum in meinem Beispiel oben nur 4:3 Auflösungen. Der restliche Unterschied zwischen 1680x1050 und 1920x1200 sind in meinen Augen Messschwankungen - die scheinen recht hoch, in 1920x1200 liegt z.B. eine HD5850 1,5fps hinter der GTX260 - obwohl sie, siehe höhere Settings, die schnellere Karte ist.

gahmuret
2010-07-25, 22:51:48
Der test ist etwas komisch, da die 5830 da mal die 5850 einholt.

Kommt auf die programmierung an, es gibt programmierungen wo die Auflösung nicht stark auf die cpu geht sondern einfach die graka mehr fordert (was übrigens vollkommen normal ist je höher die auflösung desto mehr hat die gpu zu tun).
Niedrige auflösungen eignen sich ja grad weil die gpu sich langweilt gut zum cpu testen und hohe auflösungen sind das gegenbeispiel wo man gut die einzelnen gpus testen kann.

CPU limits verschwinden zwar nicht aber relativieren sich an dem punkt wo die graka einknickt (also wo die graka nicht mehr fähig ist mehr zu berrechnen).

edit: Die auflösung ist bei rts sogar egal, da die cpu sowieso andauernd rechnet wo welche einheit was macht (dafür muss sie nicht im bild sein). Der rechenaufwand ist recht gering der daten zur gpu schaufelt damit die dann das bild macht, zum rest den die cpu da macht..

dargo
2010-07-25, 22:52:15
Im Luxx wird in einem Thread behauptet, das CPU-Limit sei nicht auflösungsunabhängig, da der PCIe-Bus da irgendwie mit reinspielen soll. Was ist davon zu halten?
Reicht das als Antwort?

i5-750@2,33Ghz, GTX470@500Mhz
http://www4.pic-upload.de/thumb/25.07.10/g2sqiruvvgx4.jpg (http://www.pic-upload.de/view-6479690/TestDriveUnlimited-2010-07-25-22-43-01-58.jpg.html) http://www4.pic-upload.de/thumb/25.07.10/iskkkm5shhve.jpg (http://www.pic-upload.de/view-6479688/TestDriveUnlimited-2010-07-25-22-42-12-90.jpg.html)

i5-750@2,33Ghz, GTX470@720Mhz
http://www4.pic-upload.de/thumb/25.07.10/4w3w2ti6xasa.jpg (http://www.pic-upload.de/view-6479712/TestDriveUnlimited-2010-07-25-22-44-02-75.jpg.html) http://www4.pic-upload.de/thumb/25.07.10/9xf3frzqxmk9.jpg (http://www.pic-upload.de/view-6479714/TestDriveUnlimited-2010-07-25-22-44-47-63.jpg.html)

Alles mit 1xAA/1xAF.

PS: ich habe extra den Vorspann kurz vor dem Start gewählt da in diesem Vorspann es eine ca. 3 sekundenlange Szene gibt bei der die Frames bombenstabil bleiben. Bei der Startaufstellung schwanken die Frames schon um die 1-2 Frames.

Kann da jemand nicht so gut Heli fliegen? ;D

Hey, der Heli fliegt von selbst. :D

S940
2010-07-25, 22:55:01
Genau, die ATI-Treiber sind so geil. Das Treiberteam bei AMD ist völlig unterbezahlt wenn es solche Wunder vollbringt. NV sollte sich echt schämen. :D
Genau, die sollten am besten so nen fähigen Mann, wie Dich einstellen, dann gings vorwärts :)
2 Sachen:
a) Hast Du jetzt eigentlich schon ne bessere Erklärung ? Lasse mich mit Argumenten gerne überzeugen, aber von Dir kommt ja nichts :(

b) Warten wir doch einfach mal y33H@ Messungen ab, dann ist doch eh alles klar. Bis dahin können wir uns das rumspammen sparen, Du hälst es für "albern", ich nicht, belassen wirs dabei. Wenn Du Recht hast, bekommst Du nen Keks von mir.

ciao

Alex

NaseWeiss
2010-07-25, 22:55:01
Von 1280x1024 auf 1680x1050 und ff: Größeres Sichtfeld durch 16:10 -> höhere CPU-Last. Darum in meinem Beispiel oben nur 4:3 Auflösungen. Der restliche Unterschied zwischen 1680x1050 und 1920x1200 sind in meinen Augen Messschwankungen - die scheinen recht hoch, in 1920x1200 liegt z.B. eine HD5850 1,5fps hinter der GTX260 - obwohl sie, siehe höhere Settings, die schnellere Karte ist.

Mhm... Macht sinn :D

S940
2010-07-25, 23:05:51
Im Luxx wird in einem Thread behauptet, das CPU-Limit sei nicht auflösungsunabhängig, da der PCIe-Bus da irgendwie mit reinspielen soll. Was ist davon zu halten?
Naja, wenn das VRAM ausgeht, kommt das RAM Interface und der PCIe Bus ins Spiel, bzw. der nächste I/O Anschluss nach dem PCIe Interface, vor dem IMC, also entweder Hypertransport oder QPI.

Rein vom Papier her tut sich da prinzipiell nichts, vorsichtshalber könnte man es mal mit HTr/QPI OC probieren, aber meistens bringt das nichts. Keine Ahnung, ob y33H@ das mal mitgetestet hatte.

Bei X4 <> X6 könnte man dann fabulieren, dass die interne NB beim 6Kerner eventuell ein bisschen besser ist ... ist ja immerhin Rev C3 <> E0. Aber das ist sehr weit hergeholt. Bisher gibts dafür 0 Anhaltspunkte.

Außerdem sollte es bei 800x600 / 1024x eh egal sein, da das VRAM lockerst reicht.

ciao

Alex

NaseWeiss
2010-07-25, 23:07:29
Wo ist das schwer zu beweisen? Beschränke einfach die CPU-Leistung so stark, das in jeder Auflösung ein vollständiges CPU-Limit gesichert ist. Bench verschiedene Auflösungen, und das Ergebnis ist ein 100% sauberer Beweis.

Das war noch nie anders und wird auch nie anders sein (2D-Spiele natürlich außen vor). Wie gesagt, es kann jeder sofort testen.

Von 1280x1024 auf 1680x1050 und ff: Größeres Sichtfeld durch 16:10 -> höhere CPU-Last. Darum in meinem Beispiel oben nur 4:3 Auflösungen. Der restliche Unterschied zwischen 1680x1050 und 1920x1200 sind in meinen Augen Messschwankungen - die scheinen recht hoch, in 1920x1200 liegt z.B. eine HD5850 1,5fps hinter der GTX260 - obwohl sie, siehe höhere Settings, die schnellere Karte ist.

Kommt auf die programmierung an, es gibt programmierungen wo die Auflösung nicht stark auf die cpu geht sondern einfach die graka mehr fordert (was übrigens vollkommen normal ist je höher die auflösung desto mehr hat die gpu zu tun).
Niedrige auflösungen eignen sich ja grad weil die gpu sich langweilt gut zum cpu testen und hohe auflösungen sind das gegenbeispiel wo man gut die einzelnen gpus testen kann.

CPU limits verschwinden zwar nicht aber relativieren sich an dem punkt wo die graka einknickt (also wo die graka nicht mehr fähig ist mehr zu berrechnen).

edit: Die auflösung ist bei rts sogar egal, da die cpu sowieso andauernd rechnet wo welche einheit was macht (dafür muss sie nicht im bild sein). Der rechenaufwand ist recht gering der daten zur gpu schaufelt damit die dann das bild macht, zum rest den die cpu da macht...

:D

Undertaker
2010-07-25, 23:09:58
Wenn der VRAM ausgeht - omg, wir reden hier tatsächlich noch von CPU-Tests :freak: - krachen die fps mehr oder weniger abrupt in den Keller. Bei welchem CPU-Test soll es denn dazu gekommen sein?

@Naseweiss: Da würde ich mir jede weitere Diskussion auch sparen. :D

BlackBirdSR
2010-07-25, 23:43:32
Man hat ja eigentlich nur 2 Möglichkeiten

Möglichkeit A:
Man testet die CPUs mit möglichst wenig GPU-Limit, senkt die Auflösung herab, verzichtet auf Average FPS und sucht sich fordernde Stellen

Möglichkeit B:
Man definiert für ein Spiel die nötige CPU-Power, um auf 30 oder 60fps zu kommen bzw zum überwiegenden! Teil ins GPU-Limit läuft. Falls eine CPU darunter liegt, testet man wieviel. Alles darüber testet man gar nicht, da es eh egal ist. Dann kann man sich die CPU-Tests aber bei Spielen eigentlich sparen.

dargo
2010-07-25, 23:52:40
Möglichkeit B:
Man definiert für ein Spiel die nötige CPU-Power, um auf 30 oder 60fps zu kommen
Wie soll man das anstellen? Schließlich ist die CPU-Last in einem Spiel nicht konstant. Und wenn der Tester das ganze Spiel durchspielen und alle fordernden Stellen erfassen muss dann möchte ich nicht der Tester sein. :tongue:

Headjunkie
2010-07-26, 00:56:08
Wie soll man das anstellen? Schließlich ist die CPU-Last in einem Spiel nicht konstant. Und wenn der Tester das ganze Spiel durchspielen und alle fordernden Stellen erfassen muss dann möchte ich nicht der Tester sein. :tongue:
Ich glaube man darf das net vom wissenschaftlichen Standpunkt sehen, sondern eher vom praktischen.
Angenommen du spielst ein Spiel 30min und hast nen Frameverlauf und FPSAverage, wenn Average 40fps ist, und der Verlauf einzelne (sagen wir mal 1mal alle 3 min) Einbrueche unter 30fps zeigt, dann ist die CPU praktisch gesehen gut genug fuer das Spiel. Man kann natuerlich drueber streiten wieviele Einbrueche und wie oft ein Spiel unspielbar machen, aber in den meisten Spielen gibt es wahrscheinlihc sowieso einzelne Scenen die durch Bugs oder Design egal auf was fuer einer Maschine einbrechen, und zumindest mir persoenlich ist ein gelegentlicher Ruckler in einem Spiel absolut egal.
3Dcenter gibt ja bei den Grakas jetzt oft spielbar als Level an(meistens 30 oder 40fps) was ja genau dem obigen Gedankengang entspricht.
Gruss Headjunkie

Amun-Re
2010-07-26, 01:28:49
Ich finde von einer wissenschaftlich oder fast schon philosophischen Betrachtungsweise inwieweit man idealerweise - will man den Einflussfaktor CPU auf Spiele bezogen isoliert betrachten - seine Benchmarks konstituiert hat diese Diskussion jedwede Legitimität.

Die Problematik ist das die gewonnenen Erkenntnise die bei solchen sicherlich nicht von wenig Aufwand geprägten Testreihen gewonnen werden auch auf den "Gammeralltag" projizierbar sein müssen und das in einer nicht abstrakten sondern möglichst konkreten Art und Weise.

Vor dem Hintergrund meiner Fragestellung in diesem Thread geben die Testverfahren in niedrigen Auflösungen zwar Aufschlüsse über die latenten Leistungspotentiale der verschiedenen Prozessoren relativieren sich aber zumindest in soweit als das bei nativen TFT Auflösungen diese Vorteile eben nicht in ihrer Deutlichkeit Bestand haben weil üblicherweise Grafikkarten auf die Resultate limitierenden Einfluß nehmen.

Das alleine wird für die wenigstens von euch nach 23 Seiten eine Neuigkeit sein allerdings muss man kritisch die Frage stellen dürfen aus welchem Testverfahren man praxisrelevantere Informationen extrahieren kann. Einerseits dem benchen in nativen Auflösungen der dem Einflussfaktor CPU nicht hinreichend Rechnung trägt oder dem Benchmarkparcour in 800x600 der Diskrepanzen unter den Prozessoren deutlicher aufzeigt aber die ermittelten Werte zu abstrakt sind als das man diese alleinig zur Beurteilung der Ausgangsfrage heranziehen darf.

Es ist ein wenig so als würde man seine Beweisführung alleinig auf Indizien stützen die zwar sehr stichhaltig sind aber schlussendlich die Aussagekraft in ihrer zweifelsfreien Eindeutigkeit negativ belasten.

NaseWeiss
2010-07-26, 01:42:45
sei mir nicht böse aber :O ;) :D

Headjunkie
2010-07-26, 01:56:44
@Amun Re: Deswegen hatte ich vor paar Seiten gesagt du muesstest statt den reinen Processoren halt das komplette Bundle incl. passender Graka diskutieren, reine CPU Leistung ist heutzuteuge einfach nicht mehr genug als Kaufentscheid. Und wie gesagt, sowohl i5 als auch X6 wuerden mit ner Onboard oder Billigkarte niemals als Spielemaschine taugen, inwieweit sie besser sind mit passender Graka ist ein kleineres Thema und deshalb (vielleicht) auch besser anzugehen.

@Naseweiss: Der dritte Post von dir innerhalb von nen paar Seiten mit absolut keinem Inhalt und nur Smileys, kann nen Mod vielleicht mal die ganzen sinnlos Posts(net nur die smileys) loeschen? Thx

Amun-Re
2010-07-26, 02:03:20
@Head

Dessen bin ich mir natürlich bewusst und trotzdem ist die Frage nach "der" Spiele CPU eine nicht uninteressante auch wenn ich dir recht gebe das der Begriff "für Spieler" nicht in der Form angewandt werden darf wie das bei Grafikkarten der Fall ist aber das gehört ja mit zu den Basics und wurde von mir auch vorausgesetzt bei Eröffnung des Themas.

Gast
2010-07-26, 06:48:03
Nach 24 Seiten kann man also sagen: Dieses Problem lässt sich nur mit Philosophie lösen? So ähnlich als würde man immer tiefer in die Physik eintauchen - irgendwann übersteigt es den menschlichen Verstand.

S940
2010-07-26, 08:22:10
Nach 24 Seiten kann man also sagen: Dieses Problem lässt sich nur mit Philosophie lösen? So ähnlich als würde man immer tiefer in die Physik eintauchen - irgendwann übersteigt es den menschlichen Verstand.
Jo das triffts ... es gibt 2 Parteien die einen glauben

a) Irgendwann in 3-4 Jahren, wenn das 2. oder 3. Grafikkartenupgrade ansteht, wird die CPU Leistung wichtig. Deshalb sind 800x600 Tests *jetzt* interessant.

die andren glauben:

b) Bis CPU Leistung mal in 3-4 Jahren interessant wird, hab ich schon wieder ne neue CPU

Den Leuten aus a) Kann man ausserdem noch 2 Sachen entgegenhalten:

1. Dass man *immer* im GPU Limit spielen wird. Vor 3-4 Jahren lag das vielleicht um die ~1280 an, jetzt ist HD Standard, in 3-4 Jahren werden sich bei den Gamern dann die Mehrschirmlösungen etabliert haben, die dann auch eine HD9000/GTX700 ins schwitzen bringen werden. Parallel dazu steigt ausserdem die Bildqualität, die die GPU ebenfalls stärker fordert.

2. Wenn man das Monitorwettrüsten nicht mitmacht und auch kein Eye-candy ala 4xSSAA einschaltet, also z.B. wenn man im Moment eine 5870/GTX480 auf nem 19Zöller TFT betreiben würde, dann hätte man deutliche Unterschiede, ja. Zumindest in Benchmarks (z.B. 200 statt 100 fps), aber die sind praxisfern ... da sind wir dann wieder bei den 800x600 Benches.

Fazit:
Das Ganze ist mMn Ansichtssache, die einen glauben das, die andren jenes und zusammen diskutiert man das Thema in aller Breite, ohne das dabei groß etwas rauskommen würde und zwischendrin flackert ab und an ein kleiner Religions-/Glaubenskrieg hoch.

ciao

Alex

P.S: Aja noch ne Worst-Case Prognose:
In 3-4 Jahren könnte sich Direct-Compute und/oder OpenCL durchgesetzt haben, die Game Logic liefe dann auch auf den GPUs, als CPU reichte wieder ein dual core :freak:

y33H@
2010-07-26, 08:35:07
Gegen 1) sprechen Titel wie GTA4, Gothic 3 oder SupCom. Auch HL2 mit CM10 ist in Kämpfen gnadenlos CPU-limitiert.

Immer im GPU-Limit ist Unfug - außer du spielst mit einer HD5450 und ED-CFAA-SGSSAA.

S940
2010-07-26, 08:40:48
Gegen 1) sprechen Titel wie GTA4, Gothic 3 oder SupCom. Auch HL2 mit CM10 ist in Kämpfen gnadenlos CPU-limitiert.
Da kann man dann übertakten, davon ging ich aus. Ein Q6600 @2,4 GHz ist jetzt auch zu langsam, aber bei 3+ GHz ist er immernoch ganz "nett". Gothic 3 läuft bei mir auf meinem C2D und ner 4670 übrigens prima :D (Du meinst Gothic4, oder ?)
Immer im GPU-Limit ist Unfug - außer du spielst mit einer HD5450 und ED-CFAA-SGSSAA.
Lol "Unfug" ... wenns so wäre, dann mach den nächsten CPU Bench doch bitte in HD Auflösung :freak:

Odal
2010-07-26, 08:44:33
@Amun Re: Deswegen hatte ich vor paar Seiten gesagt du muesstest statt den reinen Processoren halt das komplette Bundle incl. passender Graka diskutieren, reine CPU Leistung ist heutzuteuge einfach nicht mehr genug als Kaufentscheid.


was war das "passende bundle" bei meiner letzten CPU?

X2 3800+ und 6600GT
X2 3800+ und X800GTO->XT
X2 3800+ und X1950pro
X2 3800+ und X1900XT
X2 3800+ und HD3850
X2 3800+ und 8800GT

Armaq
2010-07-26, 08:52:02
Ich finde von einer wissenschaftlich oder fast schon philosophischen Betrachtungsweise inwieweit man idealerweise - will man den Einflussfaktor CPU auf Spiele bezogen isoliert betrachten - seine Benchmarks konstituiert hat diese Diskussion jedwede Legitimität.

Die Problematik ist das die gewonnenen Erkenntnise die bei solchen sicherlich nicht von wenig Aufwand geprägten Testreihen gewonnen werden auch auf den "Gammeralltag" projizierbar sein müssen und das in einer nicht abstrakten sondern möglichst konkreten Art und Weise.

Vor dem Hintergrund meiner Fragestellung in diesem Thread geben die Testverfahren in niedrigen Auflösungen zwar Aufschlüsse über die latenten Leistungspotentiale der verschiedenen Prozessoren relativieren sich aber zumindest in soweit als das bei nativen TFT Auflösungen diese Vorteile eben nicht in ihrer Deutlichkeit Bestand haben weil üblicherweise Grafikkarten auf die Resultate limitierenden Einfluß nehmen.

Das alleine wird für die wenigstens von euch nach 23 Seiten eine Neuigkeit sein allerdings muss man kritisch die Frage stellen dürfen aus welchem Testverfahren man praxisrelevantere Informationen extrahieren kann. Einerseits dem benchen in nativen Auflösungen der dem Einflussfaktor CPU nicht hinreichend Rechnung trägt oder dem Benchmarkparcour in 800x600 der Diskrepanzen unter den Prozessoren deutlicher aufzeigt aber die ermittelten Werte zu abstrakt sind als das man diese alleinig zur Beurteilung der Ausgangsfrage heranziehen darf.

Es ist ein wenig so als würde man seine Beweisführung alleinig auf Indizien stützen die zwar sehr stichhaltig sind aber schlussendlich die Aussagekraft in ihrer zweifelsfreien Eindeutigkeit negativ belasten.
Kennst du dieses Satzzeichen ","?

dargo
2010-07-26, 09:04:30
Lol "Unfug" ... wenns so wäre, dann mach den nächsten CPU Bench doch bitte in HD Auflösung :freak:
Es ist echt amüsant zu sehen, dass einige nach so vielen Seiten wieder nichts verstanden haben. Nein... halt, es ist eher traurig. :(

Ich glaube man darf das net vom wissenschaftlichen Standpunkt sehen, sondern eher vom praktischen.
Angenommen du spielst ein Spiel 30min und hast nen Frameverlauf und FPSAverage, wenn Average 40fps ist, und der Verlauf einzelne (sagen wir mal 1mal alle 3 min) Einbrueche unter 30fps zeigt, dann ist die CPU praktisch gesehen gut genug fuer das Spiel.
Das große Problem dabei ist die Vergleichbarkeit. Du wirst nie im Leben eine 30 minütige Benchszene über Savegames exakt nachstellen können.

S940
2010-07-26, 09:23:00
Es ist echt amüsant zu sehen, dass einige nach so vielen Seiten wieder nichts verstanden haben. Nein... halt, es ist eher traurig. :(
Wirklich traurig ist eher, dass das Thema in regelmäßigen Abständen in allen Foren wieder und wieder hochkocht ... da geb ich Dir recht, keiner scheint dazuzulernen ;-)

HOT
2010-07-26, 10:28:21
Ach wie gut, dass die GPU teil der CPU wird und damit letztendlich die CPU-Leistung bald auch von der Leistung der internen GPU abhängen wird (GPGPU-Kram). Dann sollte sich das ganze Thema eigentlich als erledigt ansehen lassen - doch leider steckt auch hier der Teufel im Detail. Witzigerweise könnte die Spieleleistung demnächst tatsächlich wieder ausschließlich von der CPU abhängen, nämlich dann, wenn die CPU-Hersteller CPUs mit eher schwachem 4-Thread-Integerteil und dafür starkem GPU-Teil anbieten ;). Bei AMD sollte eine solche Skalierungsmöglichkeit sicherlich das Ziel sein (sozusagen Fusion 2.0 oder 3.0 gewissermaßen). Man könnte dann einen 16-Thread-Prozessor mit sagen wir mal 400SPs kaufen oder aber einen 4-Thread-Prozessor mit 1600SPs. Was man eben so braucht.

Odal
2010-07-26, 10:45:27
das ist aber keine Lösung für den Performance Sektor und das Enthusiasten Segment da wird man wohl nie um eine dedizierte GPU herumkommen, schon allein aus Gründen der Speicheranbinung und Kühlung

puntarenas
2010-07-26, 11:20:47
Ich finde das wirklich deprimierend. :(

Ich finde von einer wissenschaftlich oder fast schon philosophischen Betrachtungsweise inwieweit man idealerweise - will man den Einflussfaktor CPU auf Spiele bezogen isoliert betrachten - seine Benchmarks konstituiert hat diese Diskussion jedwede Legitimität.

Die Problematik ist das die gewonnenen Erkenntnise die bei solchen sicherlich nicht von wenig Aufwand geprägten Testreihen gewonnen werden auch auf den "Gammeralltag" projizierbar sein müssen und das in einer nicht abstrakten sondern möglichst konkreten Art und Weise.

Das hatten wir doch ausführlich, auf das Leistungsvermögen der CPU bezogen ist es keineswegs abstrakt und es ist auf den Gameralltag übertragbar. Du wirst je nach Spiel häufiger, seltener oder gar nicht von der CPU limitiert werden, aber man kann trotzdem Fragen, welche CPU in diesen realen Situationen leistungsfähiger ist.

[...] reine CPU Leistung ist heutzuteuge einfach nicht mehr genug als Kaufentscheid.
Das ist eine Nullaussage, weil du natürlich nicht nur eine CPU benötigst, wenn du spielen willst. Du brauchst ein Mainboard, ausreichend (!) Hauptspeicher, ein ausreichend (!) dimensioniertes Netzteil und natürlich eine geeignete Grafikkarte. Je nach Qualitätseinstellung und Spielszene wird dann in den meisten Spielszenen vermutlich die Grafikkarte limitieren, aber eben heute schon nicht immer und mit der Zeit (forderndere Spiele, möglicherweise Grafikkartenaufrüstung) immer seltener, soll heißen die Szenen in denen der CPU die Gretchenfrage gestellt wird, nehmen an Häufigkeit zu.


Dessen bin ich mir natürlich bewusst und trotzdem ist die Frage nach "der" Spiele CPU eine nicht uninteressante auch wenn ich dir recht gebe das der Begriff "für Spieler" nicht in der Form angewandt werden darf wie das bei Grafikkarten der Fall ist aber das gehört ja mit zu den Basics und wurde von mir auch vorausgesetzt bei Eröffnung des Themas.
Das ist eine reine Definitionsfrage und es ist wenig erfreulich, wenn diese mitten in der Diskussion plötzlich geändert wird, womit dann zahllose Argumente ins Leere laufen. Wenn du ursprünglich fragst, welche ist die "bessere CPU aus Gamer-Sicht" und annimmst, dass die bessere CPU diejenige CPU ist, die in Spielen mehr Leistungspotential verspricht, dann ist diese Frage eindeutig zu beantworten und die Antworten sind sachlich begründbar.

Bei Grafikkarten ist es nicht anders, man muss sich auch erst einmal (meist implizit) auf eine Fragestellung einigen. Deshalb deaktiviert man in Reviews für gewöhnlich VSync und man nimmt extrem leistungsfähige CPUs, die in dieser Form beim Leser kaum vorzufinden sein dürften. Wenn ich die Fragestelung ändern darf, zerpflücke ich dir jedes Grafikkartenreview in der Luft, ganz besonders wenn wir 30% - 50% Unterschied im Leistungsvermögen dann auch noch als "gleichwertig" abbügeln.

Zurück zu Prozessoren in Spielen. Du kannst natürlich sagen, wenn 30% Unterschied im Leistungsvermögen nur selten den Unterschied zwischen spielbar und unspielbar machen, dann definiere ich beide Prozessoren als "ungefähr gleich schnell und hoffentlich schnell genug". Du kannst auch sagen, Spielszenen bei denen die CPU zum limitierenden Faktor wird, sind relativ selten und es ist dir egal, wenn du hier mal durch einen Level ruckelst und dort mal über ein Action-Spektakel zuckelst. Man darf aber eines nicht tun, "mir ist etwas egal" auf andere verallgemeinern und dann beispielsweise in Kaufberatungsthreads oder gegenüber anderen Interessierten postulieren "es spielt objektiv keine Rolle". Die Unterschiede sind da, die Szenen wo sie zur Geltung kommen gibt es heute schon und sie werden sicher nicht seltener.

Nach 24 Seiten kann man also sagen: Dieses Problem lässt sich nur mit Philosophie lösen? So ähnlich als würde man immer tiefer in die Physik eintauchen - irgendwann übersteigt es den menschlichen Verstand.
Quatsch!

Wirklich traurig ist eher, dass das Thema in regelmäßigen Abständen in allen Foren wieder und wieder hochkocht ... da geb ich Dir recht, keiner scheint dazuzulernen ;-)
Das hier macht mich bitter, weil ich von dir annehme, dass du sehr gut verstanden hast.

@BlackBirdSR:
Ich denke, du hast durch deine präzise, sachliche Art unglücklicherweise zur neuerlichen Verwirrung bei einigen beigetragen.


Du hast dein BSP anhand von Average FPS und einem absoluten Messwert festgemacht. Damit hast Du die Aussagekraft und das Ergebniss quasi normalisiert.

Nimmst Du dein Beispiel aber und änderst das Verhältnis für CPU/GPU-Last in jeder Sekunde (wie das Spiel es tut), dann stimmt es wieder und Du bekommst plötzlich eine ganz andere Verteilung, wo eben die 20% klar spürbar werden.
Völlig richtig, da spricht der Wissenschaftler von der theoretischen Möglichkeit, dass winzige schwarze Löcher entstehen können und rund um Genf bilden sich Weltuntergangssekten.

Hmmm...dann ist der GPU CPU limitierte Test bei 800x600 aber nicht GPU CPU-limitiert, da die CPU ja nicht immer 100% ausgelastet sein wird...:uponder:(Zitat korrigiert, sollte wohl CPU limitiert heißen!)
Was glaubst Du, warum kaum einer richtig in diese Richtung testet?
Der Arbeitsaufwand wird extrem und die breite Masse will eh nur average fps sehen und denkt jeder der 800x600 testet hat ne Meise...
Ich versuch mal eine Erklärung, aber da ich dir schlecht einfach Worte in den Mund legen kann, musst du eben dazwischenhauen wenn ich Quatsch erzähle.

Die Aussage, dass selbst CPU-limitierte Szenen nicht zu 100% CPU-limitiert sind, ist natürlich richtig. Man kann das aber leicht falsch verstehen und daraus fälschlicherweise den Schluß ziehen, dass man es dann gleich lassen kann sich damit zu befassen. Geht man noch einen Schritt weiter, dann sagt man sich resigniert, wenn man sowieso keine verlässlichen, aussagekräftigen Ergebnisse bekommen kann, dann rede ich mir lieber ein, dass es nichts zu Bedenken gibt. Wenn man die Augen fest genug verschließt, dann geht das Monster vielleicht weg ohne einen zu beißen. Kinder machen das auch oft so mit den Schatten an der Wand.

Man wählt als geeignete Benchmarkszenen für Prozessoren in Spielen allerdings Szenen, bei denen die CPU möglichst weitgehend isoliert die Frameraten limitiert. Spricht man von CPU-Limit so meint man ein weitestgehendes CPU-Limit.

Jetzt kommt der Witz. Wenn das Ergebnis vom maximimalen CPU-Limit der Szene abweicht, dann nur in eine Richtung. Ermittelt jemand in einer gewissenhaft ausgewählten Szene also ein CPU-Limit von sagen wir 30 AVG-FPS, dann hat er einen über den Min-FPS (dem eigentlichen Limit während der Sequenz) liegenden Durchschnittswert ermittelt und im Zweifel vermag die entsprechende CPU eher etwas weniger zu gewährleisten.

Je länger die Benchmarkszene, desto deutlicher werden außerdem die Avg-FPS von den Min-FPS nach oben abweichen, deshalb:

Man hat ja eigentlich nur 2 Möglichkeiten

Möglichkeit A:
Man testet die CPUs mit möglichst wenig GPU-Limit, senkt die Auflösung herab, verzichtet auf Average FPS und sucht sich fordernde Stellen

Möglichkeit B:
Man definiert für ein Spiel die nötige CPU-Power, um auf 30 oder 60fps zu kommen bzw zum überwiegenden! Teil ins GPU-Limit läuft. Falls eine CPU darunter liegt, testet man wieviel. Alles darüber testet man gar nicht, da es eh egal ist. Dann kann man sich die CPU-Tests aber bei Spielen eigentlich sparen.

Möglichkeit B ist hier irreführend, denn sie zielt darauf ab lediglich zu ermitteln, ob eine CPU für ein bestimmtes Spiel "gut genug" ist, darüber hinaus gehendes Leistungspotential wird bewusst abgeschnitten und selbst gelegentliche Unterschreitungen der definierten Grenzen werden wohlwollend ignoriert. So etwas ist vom Ansatz her schon kein CPU-Test und gehört in ein ordentliches Spiele-Review, aber solche "Performance-Reports" sind ja leider aus der Mode.

Nochmal sortiert:


Man kann sehr wohl das Leistungspotential von Prozessoren in Games ermitteln. Man benötigt dafür einen geeigneten Benchmarkansatz (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8157632#post8157632). Man sucht idealerweise eine sehr fordernde Szene, die weitgehend CPU-limitiert ist und bencht gegebenenfalls in 800x600 bei maximalen Details.

Dadurch erhält man einen Wert, der salopp als CPU-Limit bezeichnet wird, pedantisch müsste man jedes Mal "weitestgehendes CPU-Limit" sagen, das spart man sich.

Dieser in 800x600 ermittelte Wert ist keineswegs praxisfern (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8157746#post8157746) und vollständig auf andere Auflösungen (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8168479#post8168479) übertragbar (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8168434#post8168434) (gleiches Field of View vorausgesetzt). Wenn dieser Wert je nach Anspruch deutlich über 60FPS oder 100FPS liegt, dann hat man ein Spiel gefunden, das den entsprechenden Prozessor nicht wirklich fordert.

Die gezielte Auswahl von Worst-Case-Szenen zur Ausmessung CPU-limitierter Szenen mag in einigen Verschwörungstheoretikern Ablehnung hervorrufen und zu dem Trugschluss führen, dass im Spielealltag kaum relevant sein kann, was man fürs Benchmarken aufwändig suchen muss. Realitätsverweigerung ist legitim und über ein "mir persönlich gut genug" kann man nicht streiten.

Die Häufigket böse CPU-limitierter Szenen ist zwar weder für ein bestimmtes Spiel, geschweige denn über einen zum "Performancerating" verquirlten Spielemix präzise quantifizierbar, nichtsdestotrotz sind sie heute schon ganz real, es wird morgen nicht weniger solcher Spielszenen geben und kommende Grafikkarten verschieben das GPU-Limit mit Sicherheit weiter in Richtung CPU.

Wie häufig das über den Daumen 30% höhere Leistungsvermögen eines Core i5 760 gegenüber einem Phenom II X6 1055T schlussendlich den Unterschied zwischen Spielgenuß und Ruckelfrust ausmacht, kann niemand sagen. Es ist natürlich nachvollziehbar, wenn jemand solche Prozessoren für sich in der selben Leistungklasse einordnet. Das ändert aber nichts am unterschiedlichen Leistungsvermögen, es ist nur eine persönliche "mir doch egal" Feststellung.

Wer zu dem Ergebnis kommt, dass unter Performanceerwartungen aus Gamer-Sicht ein Core i5 760 im Vergleich zum Phenom II X6 1055T die bessere CPU ist, der sagt nichts anderes als eben dieses Faktum, das sich auch prima in aussagekräftigen Messwerten widerspiegelt. Da es sich ausmessen lässt, ist die Aussage, beide seien unter diesem Aspekt gleichwertig, als sachliche Aussage nicht haltbar.

Dass ein Core i5 760 bessere Spieleperformance verspricht bedeutet nicht, dass AMD-Prozessoren überhaupt nicht fürs Spielen geeignet wären.
Es stimmt wirklich, die meisten Reviews im Netz sind Müll.

dargo
2010-07-26, 11:47:05
Bei Grafikkarten ist es nicht anders, man muss sich auch erst einmal (meist implizit) auf eine Fragestellung einigen. Deshalb deaktiviert man in Reviews für gewöhnlich VSync und man nimmt extrem leistungsfähige CPUs, die in dieser Form beim Leser kaum vorzufinden sein dürften. Wenn ich die Fragestelung ändern darf, zerpflücke ich dir jedes Grafikkartenreview in der Luft, ganz besonders wenn wir 30% - 50% Unterschied im Leistungsvermögen dann auch noch als "gleichwertig" abbügeln.

Darauf möchte ich noch eingehen. Der Witz an der ganzen Geschichte ist folgenderer - wenn ich eine stark cpu-lastige Szene wähle und den Benchmark mit der kleinsten Auflösung für CPU-Tests tätige wird rumgemault es sei praxisfremd. Wenn 99,9% der Reviewer für ihre Grafikkartentests Timedemos verwenden (was übrigens wirklich fraxisfremd ist), wie du schon sagst die CPUs bis zum geht nicht mehr übertakten, Vsync deaktivieren und die Auflösung, AA/AF-Stufe bis zum geht nicht mehr anheben wird geklatscht. Dabei ist beides nur Mittel zum Zweck - die jeweiligen Limits möglichst auszuhebeln.

Keiner würde auf die Idee kommen zu behaupten eine GTX480 wäre genauso schnell oder kaum schneller als die GTX470. Es gibt genug Szenen in Games wo dies der Fall ist. Und warum, eben weil diese Szenen cpu-limitiert sind... auch in HD-Auflösung.

Fetter Fettsack
2010-07-26, 12:11:54
Und warum geht kommt es so selten vor, dass z.B. Redakteure den Sachverhalt in einem Artikel erläutern? Dann kann man unabhängig von der Meinung der "Masse" richtig benchen und wenn es Kritik gibt, dass dies doch völlig falsch sei, selbige Person(en) auf den Artikel verweisen. Dermüsste aber auch sehr ausführlich und doch verständlich sein. Also zumindest eine Art quadratische Elipse.

dargo
2010-07-26, 12:18:12
Und warum geht kommt es so selten vor, dass z.B. Redakteure den Sachverhalt in einem Artikel erläutern? Dann kann man unabhängig von der Meinung der "Masse" richtig benchen und wenn es Kritik gibt, dass dies doch völlig falsch sei, selbige Person(en) auf den Artikel verweisen. Dermüsste aber auch sehr ausführlich und doch verständlich sein. Also zumindest eine Art quadratische Elipse.
Die Masse ist damit völlig überfordert.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8167087&postcount=359

hq-hq
2010-07-26, 12:29:23
was war das "passende bundle" bei meiner letzten CPU?

X2 3800+ und 6600GT
X2 3800+ und X800GTO->XT
X2 3800+ und X1950pro
X2 3800+ und X1900XT
X2 3800+ und HD3850
X2 3800+ und 8800GT

denke X2 3800+ und HD3850 war eine gute kombi bei ~2,5-2,7ghz oc :freak:

abgesehen davon, was wir jetzt brauchen ist ein savegame von z.b. total supreme commander
wo 3computer gegner am start sind die bereits ne dicke basis
aufgebaut haben. dazu zwei 24" monitore, einer für schlachtansicht einer für
die taktische karte. dann starten wir das savegame und benchen 1 minute
den frameverlauf wärend die schlacht tobt. dabei könnte man auch z.b.
50 hubrschauber und/oder flugzeuge in die feindbasis fliegen lassen...
die cpu z.b. ein core 2 duo oder i5 von 2 ghz auf ~4ghz in 500mh schritten hochtakten.
das wär schon interessant, besonders wenn man noch nen x6 zur hand hätte

im dümmsten fall reicht ein 2ghz core2duo für ~25fps aus ;)

NaseWeiss
2010-07-26, 12:41:00
Man kann sehr wohl das Lesitungspotential von Prozessoren in Games ermitteln. Man benötigt dafür einen geeigneten Benchmarkansatz. Man sucht idealerweise eine sehr fordernde Szene, die weitgehend CPU-limitiert ist und bencht gegebenenfalls in 800x600 bei maximalen Details.

Dadurch erhält man einen Wert, der salopp als CPU-Limit bezeichnet wird, pedantisch müsste man jedes Mal "weitestgehendes CPU-Limit" sagen, das spart man sich.

Dieser in 800x600 ermittelte Wert ist keineswegs praxisfern und vollständig auf andere Auflösungen übertragbar (gleiches Field of View vorausgesetzt). Wenn dieser Wert je nach Anspruch deutlich über 60FPS oder 100FPS liegt, dann hat man ein Spiel gefunden, das den entsprechenden Prozessor nicht wirklich fordert.

Die gezielte Auswahl von Worst-Case-Szenen zur Ausmessung CPU-limitierter Szenen mag in einigen Verschwörungstheoretikern Ablehnung hervorrufen und zu dem Trugschluss führen, dass im Spielealltag kaum relevant sein kann, was man fürs Benchmarken aufwändig suchen muss. Realitätsverweigerung ist legitim und über ein "mir persönlich gut genug" kann man nicht streiten.

Die Häufigket böse CPU-limitierter Szenen ist zwar weder für ein bestimmtes Spiel, geschweige denn über einen zum "Performancerating" verquirlten Spielemix präzise quantifizierbar, nichtsdestotrotz sind sie heute schon ganz real, es wird morgen nicht weniger solcher Spielszenen geben und kommende Grafikkarten verschieben das GPU-Limit mit Sicherheit weiter in Richtung CPU.

Wie häufig das über den Daumen 30% höhere Leistungsvermögen eines Core i5 760 gegenüber einem Phenom II X6 1055T schlussendlich den Unterschied zwischen Spielgenuß und Ruckelfrust ausmacht, kann niemand sagen. Es ist natürlich nachvollziehbar, wenn jemand solche Prozessoren für sich in der selben Leistungklasse einordnet. Das ändert aber nichts am unterschiedlichen Leistungsvermögen, es ist nur eine persönliche "mir doch egal" Feststellung.

Wer zu dem Ergebnis kommt, dass unter Performanceerwartungen aus Gamer-Sicht ein Core i5 760 im Vergleich zum Phenom II X6 1055T die bessere CPU ist, der sagt nichts anderes als eben dieses Faktum, das sich auch prima in aussagekräftigen Messwerten wiederspiegelt. Da es sich ausmessen lässt, ist die Aussage, beide seien unter diesem Aspekt gleichwertig, als sachliche Aussage nicht haltbar.

Dass ein Core i5 760 bessere Spieleperformance verspricht bedeutet nicht, dass AMD-Prozessoren überhaupt nicht fürs Spielen geeignet wären.
Es stimmt wirklich, die meisten Reviews im Netz sind Müll.

Schöne Zusammenfassung! Sollte man wohl auf die erste Seite setzen als Fazit :)

Odal
2010-07-26, 13:05:30
denke X2 3800+ und HD3850 war eine gute kombi bei ~2,5-2,7ghz oc :freak:


die gabs aber erst ende 2007 bzw. wirklich lieferbar anfang 2008

und trotzdem war der rechner mit einem 2006er spiel (company of heroes 4v4 multiplayer) hoffnungslos überfordert ob da nun die vorherige X800GTO@XT-PE oder HD3850 oder 8800GT drinsteckte, es lief häufig nicht ruckelfrei mit >25 FPS im 4v4 MP

also doch nicht das perfekte bundle?


was ich damit sagen will es gibt kein perfektes bundle alles Spielabhängig und Grafikleistung wächst normalerweise deutlich schneller als CPU Leistung d.h. eine CPU muss auch mit ein paar deutlich schnelleren GPUs möglichst gut zurechtkommen

jedes Jahr die CPU upzugraden lohnt einfach nicht, da die Leistungssteigerung der CPUs zu gering ist anders als bei der GPU wo man pro Jahr schonmal 30-50% zuwachs als Minimum erwartet

Amun-Re
2010-07-26, 13:07:45
* Man kann sehr wohl das Lesitungspotential von Prozessoren in Games ermitteln. Man benötigt dafür einen geeigneten Benchmarkansatz. Man sucht idealerweise eine sehr fordernde Szene, die weitgehend CPU-limitiert ist und bencht gegebenenfalls in 800x600 bei maximalen Details.
* Dadurch erhält man einen Wert, der salopp als CPU-Limit bezeichnet wird, pedantisch müsste man jedes Mal "weitestgehendes CPU-Limit" sagen, das spart man sich.
* Dieser in 800x600 ermittelte Wert ist keineswegs praxisfern und vollständig auf andere Auflösungen übertragbar (gleiches Field of View vorausgesetzt). Wenn dieser Wert je nach Anspruch deutlich über 60FPS oder 100FPS liegt, dann hat man ein Spiel gefunden, das den entsprechenden Prozessor nicht wirklich fordert.
* Die gezielte Auswahl von Worst-Case-Szenen zur Ausmessung CPU-limitierter Szenen mag in einigen Verschwörungstheoretikern Ablehnung hervorrufen und zu dem Trugschluss führen, dass im Spielealltag kaum relevant sein kann, was man fürs Benchmarken aufwändig suchen muss. Realitätsverweigerung ist legitim und über ein "mir persönlich gut genug" kann man nicht streiten.
* Die Häufigket böse CPU-limitierter Szenen ist zwar weder für ein bestimmtes Spiel, geschweige denn über einen zum "Performancerating" verquirlten Spielemix präzise quantifizierbar, nichtsdestotrotz sind sie heute schon ganz real, es wird morgen nicht weniger solcher Spielszenen geben und kommende Grafikkarten verschieben das GPU-Limit mit Sicherheit weiter in Richtung CPU.
* Wie häufig das über den Daumen 30% höhere Leistungsvermögen eines Core i5 760 gegenüber einem Phenom II X6 1055T schlussendlich den Unterschied zwischen Spielgenuß und Ruckelfrust ausmacht, kann niemand sagen. Es ist natürlich nachvollziehbar, wenn jemand solche Prozessoren für sich in der selben Leistungklasse einordnet. Das ändert aber nichts am unterschiedlichen Leistungsvermögen, es ist nur eine persönliche "mir doch egal" Feststellung.
* Wer zu dem Ergebnis kommt, dass unter Performanceerwartungen aus Gamer-Sicht ein Core i5 760 im Vergleich zum Phenom II X6 1055T die bessere CPU ist, der sagt nichts anderes als eben dieses Faktum, das sich auch prima in aussagekräftigen Messwerten wiederspiegelt. Da es sich ausmessen lässt, ist die Aussage, beide seien unter diesem Aspekt gleichwertig, als sachliche Aussage nicht haltbar.
* Dass ein Core i5 760 bessere Spieleperformance verspricht bedeutet nicht, dass AMD-Prozessoren überhaupt nicht fürs Spielen geeignet wären.
* Es stimmt wirklich, die meisten Reviews im Netz sind Müll.


Ich selbst bin ja mit der Hypothese in den Thread gestartet, das der i5 760 als Spiele CPU gegenüber dem X6 1055t zu präferieren ist und hatte auch das Gefühl, das die überwiegende Mehrheit mit mir dakor geht.
Aber das Problem sind die Mittel und Wege es zu verfizieren. Ich will einer Benchmarkreihe in 800x600 auch nicht ihre Praxisrelevanz in Abrede stellen, allerdings behaupte ich einfach mal, das es Wege geben muss, die anstatt das CPU Limit quasi durch Herabsenken der Auflösung "heraufzubeschwören", dieses in für Gamer gängigen Spieleauflösungen erkennbar zu machen.

Wäre es deshalb nicht ein gangbarer Weg, wenn man zur Leistungsbewertung von CPUs in modernen Spielen von dem Balkendiagramm abkehrt und anstatt dessen auf einem Zeitstrahl den Frameverlauf abbildet? Dies müsste nach meinem Kenntnisstand auch in der Lage sein, in nativen TFT Auflösungen einen Unterschied aufzuzeigen.
Nun kann man natürlich nicht erwarten, das dazu das Spiel von vorne bis hinten durchgespielt wird aber man könnte sich doch im Prinzip - damit die Messergebnise repräsentativen Charakter behalten - sozusagen eine "worst-case" Szene aus einem Titel herausgreifen die besondere Akzente setzt, um dort dann Messungen durchzuführen.
Oder man nimmt ein besonders hw-forderndes Level, eines aktuellen Action-Krachers und spielt dieses einfach durch, um den Frameverlauf hinterher innerhalb eines Zeitrahmens von sagen wir 15 Minuten darzustellen.
Nach meinem bisherigen Verständnis sollten doch auch dann in hohen Auflösungen genau die Unterschiede erkennbar werden, die man zuvor durch den Wechsel auf 800x600 erst wirklich sichtbar gemacht hat.

Gast
2010-07-26, 13:12:40
Vergleichbarkeit.
Ein ganzes Level kannst du auf unendlich viele Art und Weisen durchspielen. Das gibt ein heilloses Durcheinander und einen Aufwand, der nicht zu rechtfertigen ist.
Und zeitweise wirst du auch in ein GPU-Limit laufen - wenn du eine lange Szene hast, ist das nicht so schlimm, weil du höchstwahrscheinlich beide Arten von Limits haben wirst. Aber je kürzer der Bench, desto größer ist die Wahrscheinlichkeit, dass du vollständig GPU-limitiert bist. Es gibt keine andere Möglichkeit, als runtertakten und/oder Auflösung senken.

Fetter Fettsack
2010-07-26, 13:15:40
Zitat von dargo

Die Masse ist damit völlig überfordert.
http://www.forum-3dcenter.org/vbulle...&postcount=359

Das basiert eben auf fehlenden Wissen, das es auszumerzen gilt, wie ich meine.

gahmuret
2010-07-26, 13:31:14
Die idee mit einem frame verlauf, ist recht gut. Weil sich dann jeder selbst das bild machen kann, statt den vorgefertigten gemessenen durchschnittswerten + min und max fps.

Gast
2010-07-26, 13:50:20
Gibt es denn kein Spiel wie damals bei UT wo man das ganze als Demo speichern konnte und dann bei bedarf 1:1 wiedergeben konnte?

S940
2010-07-26, 14:02:37
Das hier macht mich bitter, weil ich von dir annehme, dass du sehr gut verstanden hast.
Ach nicht frustiert sein, das ist das Ganze nicht wert. Ich sehs nur ganz locker. BlackBirdSRs Fall B) trifft meine Meinung ganz gut. Alles "darüber" ist mir persönlich egal. Hauptsache es ruckelt nicht. Vom darüberliegenden Leistungspotential hab ich doch nichts.

Es gibt nun viele Leute, die in die gängigen CPU Tests eine mögliche "Zukunftstauglichkeit" hineininterpretieren. Dabei sagt das gar nichts aus, da man nicht weiß, was die Zukunft bringt bzw. wie das nächste Spiel mit neuer/anderer Game Engine die CPU nutzt.



Möglich, dass PhysX 3.0 Multicoreunterstützung bringt, und der X6 1055T wg. der 6 Kerne plötzlich besser dasteht als der i7 7x0 ohne HTh.
Möglich, dass GPGPU den Durchbruch schafft. (ich verlinke dabei immer gerne Tim Sweeneys Präsentation (http://graphics.cs.williams.edu/archive/SweeneyHPG2009/TimHPG2009.pdf) zur Unreal4 Engine).


Im Moment würde ich unter P/L Gesichtspunkten beim Neukauf nen Athlon X4 630/635 empfehlen, das Ding inkl. OC auf 3,6-3,8 GHz reicht. Hauptsache 4 Kerne. Für ~90 Euro fast geschenkt und mit schnellem DDR3 nicht viel langsamer als ein Phenom2. Bin mir ziemlich sicher, dass so ein Teil bei Blackbirds b) Test sehr gut abschneiden würde. Falls das Teil in 2-3 Jahren dann wirklich mal zu langsam ist, kann man sich nen X6 im Schlußverkauf oder bei BIOS Kompatibilität vielleicht gar einen X8 Bulldozer ins Brett stecken.
Oder - falls sich GPGPU durchsetzt, halt ne neue bzw. zweit GraKa.

Deine zusammenfassenden Punkte sind alle ganz gut. Ich würde mal noch hinzufügen:

Intels i7 Architektur ist schneller als AMDs K10, dafür braucht man keine CPU Game Tests. Solange man kein Game hat, das mehr als 4 Threads nützen kann wird das auch so bleiben. (Ausreißer wie PCGHs Anno 1404 BigCity Szenario, bei der plötzlich AMD vorne lag, bestätigen die Regel).

Nur
a) weiss man halt nicht, was die Zukunft bringt (bessere 6core Unterstützung durch die XBOX Konsolenports und/oder PhysX 3.0)

b) heißt das nicht, dass AMD CPUs immer Ruckler verursachen würden. (um das auszuschließen, sollte man halt Blackbirds Plan B) Test haben).

Falls doch mal -trotz OC - Ruckler auftreten sollten, kann man sich im Athon X4 Fall immernoch übers gesparte Geld und die Aufrüstbarkeit freuen.

Alles andere hat was von nem Wetterbericht. Mir reicht es die Wettereckdaten zu wissen: Temp, Sonne/Wolken,Wind - im Gebiet wo ich mich aufhalte.

Andere wollen nun für jeden Quadratmilimeter weltweit genau wissen, wieviele Regentropfen fallen, wieviel mW Sonnenlicht einstrahlt, und wie stark der Wind auf Nachkommastellen genau bläst.

Bitte gerne .. wers so haben will .. das Ganze ist nur "etwas" komplex zu messen bzw. zu prognostizieren ;-)

ciao

Alex

y33H@
2010-07-26, 14:07:55
@ Gast

Alle Source-Titel bieten Realtime-Demos.

puntarenas
2010-07-26, 14:28:36
Die idee mit einem frame verlauf, ist recht gut. Weil sich dann jeder selbst das bild machen kann, statt den vorgefertigten gemessenen durchschnittswerten + min und max fps.
Wo an deinem Frameverlauf wird sich wohl das Leistungsvermögen der untersuchten Prozessoren in Relation zueinender abzeichnen? Was hast du entdeckt, wenn die Prozessoren plötzlich gleichauf sind und auch Takterhöhungen daran nichts mehr ändern? Warum in aller Welt sollen Messungen in höheren Auflösungen plötzlich aussagekräftiger sein, wenn dadurch doch nur das GPU-Limit nach unten verschoben wird und dadurch tendenziell vermehrt Überlagerungen auftreten?

Ach nicht frustiert sein, das ist das Ganze nicht wert. Ich sehs nur ganz locker. BlackBirdSRs Fall B) trifft meine Meinung ganz gut. Alles "darüber" ist mir persönlich egal. Hauptsache es ruckelt nicht. Vom darüberliegenden Leistungspotential hab ich doch nichts.
Weil es dir egal ist, kasperst du mal eben in einen Thread von Leuten, denen die Frage nicht egal ist (sonst hätten sie diese ja nicht gestellt) und triffst irreführende Pauschalisierungen auf Basis deines Desinteresses? :|


Es gibt nun viele Leute, die in die gängigen CPU Tests eine mögliche "Zukunftstauglichkeit" hineininterpretieren. Dabei sagt das gar nichts aus, da man nicht weiß, was die Zukunft bringt bzw. wie das nächste Spiel mit neuer/anderer Game Engine die CPU nutzt.

Man kann aber mit sehr großer Wahrscheinlichkeit davon ausgehen, dass die Anforderungen der Spielelandschaft nicht ruckartig in eine andere Richtung kippen werden.


Möglich, dass PhysX 3.0 Multicoreunterstützung bringt, und der X6 1055T wg. der 6 Kerne plötzlich besser dasteht als der i7 7x0 ohne HTh.
Das wiederum ist ausgesprochen unwahrscheinlich, der 1055T muss in jedem Fall zuerst die schwächere IPC aufholen.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8164923#post8164923

Ansonsten interessiert dich offenbar nichts weniger als der Vergleich zwischen Core i5 760 und Phenom II X6 1055T und du würdest dich lieber über P/L-Athlons, schräge Kernaffinitäten zur Plausibilisierung des "6-Kern wird rocken"-Credos und Regenfall sowie Wetterberichte unterhalten. Ich nehme das zur Kenntnis.

[x] du bist Off-Topic
[x] no offense :smile:



Man kann sehr wohl das Leistungspotential von Prozessoren in Games ermitteln. Man benötigt dafür einen geeigneten Benchmarkansatz (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8157632#post8157632). Man sucht idealerweise eine sehr fordernde Szene, die weitgehend CPU-limitiert ist und bencht gegebenenfalls in 800x600 bei maximalen Details.

Dadurch erhält man einen Wert, der salopp als CPU-Limit bezeichnet wird, pedantisch müsste man jedes Mal "weitestgehendes CPU-Limit" sagen, das spart man sich.

Dieser in 800x600 ermittelte Wert ist keineswegs praxisfern (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8157746#post8157746) und vollständig auf andere Auflösungen (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8168479#post8168479) übertragbar (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8168434#post8168434) (gleiches Field of View vorausgesetzt). Wenn dieser Wert je nach Anspruch deutlich über 60FPS oder 100FPS liegt, dann hat man ein Spiel gefunden, das den entsprechenden Prozessor nicht wirklich fordert.

Die gezielte Auswahl von Worst-Case-Szenen zur Ausmessung CPU-limitierter Szenen mag in einigen Verschwörungstheoretikern Ablehnung hervorrufen und zu dem Trugschluss führen, dass im Spielealltag kaum relevant sein kann, was man fürs Benchmarken aufwändig suchen muss. Realitätsverweigerung ist legitim und über ein "mir persönlich gut genug" kann man nicht streiten.

Die Häufigket böse CPU-limitierter Szenen ist zwar weder für ein bestimmtes Spiel, geschweige denn über einen zum "Performancerating" verquirlten Spielemix präzise quantifizierbar, nichtsdestotrotz sind sie heute schon ganz real, es wird morgen nicht weniger solcher Spielszenen geben und kommende Grafikkarten verschieben das GPU-Limit mit Sicherheit weiter in Richtung CPU.

Wie häufig das über den Daumen 30% höhere Leistungsvermögen eines Core i5 760 gegenüber einem Phenom II X6 1055T schlussendlich den Unterschied zwischen Spielgenuß und Ruckelfrust ausmacht, kann niemand sagen. Es ist natürlich nachvollziehbar, wenn jemand solche Prozessoren für sich in der selben Leistungklasse einordnet. Das ändert aber nichts am unterschiedlichen Leistungsvermögen, es ist nur eine persönliche "mir doch egal" Feststellung.

Wer zu dem Ergebnis kommt, dass unter Performanceerwartungen aus Gamer-Sicht ein Core i5 760 im Vergleich zum Phenom II X6 1055T die bessere CPU ist, der sagt nichts anderes als eben dieses Faktum, das sich auch prima in aussagekräftigen Messwerten widerspiegelt. Da es sich ausmessen lässt, ist die Aussage, beide seien unter diesem Aspekt gleichwertig, als sachliche Aussage nicht haltbar.

Dass ein Core i5 760 bessere Spieleperformance verspricht bedeutet nicht, dass AMD-Prozessoren überhaupt nicht fürs Spielen geeignet wären.
Es stimmt wirklich, die meisten Reviews im Netz sind Müll.



Ich denke, nimmt man über den Daumen eine schwächere IPC von ~30% in Spielen an, dann tut man keinem der beiden Hersteller grob Unrecht, Ausreißer in beide Richtungen unbenommen. Dann gibt es aber aus Gamersicht kaum noch zwei Meinungen, welche CPU rein auf ihr Leistungspotential bezogen hier die bessere Wahl ist. Wenn man ferner annimmt, dass die 6 Kerne des Phenom II X6 1055T selbst bei idealtypischer Parallelisierung einen Leistungsvorsprung gegenüber dem Core i5 760 von theoretisch maximal 15,4% herausholen können (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8164923#post8164923), dann bleiben für den Phenom nur wenig Argumente.

Ich sehe das so, der Phenom II X6 1055T ist dann eine gute Wahl für Gamer, wenn man bereit ist das schlechtere Leistungspotential in Kauf zu nehmen. In den meisten Spielen wird man über den Daumen mit 30% weniger Leistungspotential rechnen müssen. Dass auch die Leistung der langsameren CPU aus unserem Vergleich in vielen Fällen ausreichen wird, muss nicht ausdrücklich erwähnt werden, denn wo immer es uns nicht juckt, müssen wir auch nicht kratzen. Bei besonders gut parallelisierten Spielen kann man in Richtung eines Gleichstands hoffen, wird diesen aber nur sehr selten sehen. Ob sich diese Situationen in Zukunft vermehrt zeigen werden, bleibt zudem fraglich.

Der Käufer sollte also entweder eine gehörige Abneigung gegen Intels Monopolgebaren oder Bedarf für SATA3 und USB3 mitbringen (mittels PCIe-Bridge angebunden sind beide auch auf P55-Boards ohne große Einschränkungen nutzbar, aber eben nicht restlos uneingeschränkt und entsprechende Boards kosten gut 150€). Ausgeklammert seien zudem die Turbo-Modi der Prozessoren und die Energieeffizienz, noch zwei kleine Achillesversen der Phenoms.

Overclocking ändert nichts an den Grundverhältnissen, da beide Architekturen ein sehr ähnliches Taktpotential vorweisen können. Habe ich irgendwo groben Unfug erzählt?

Mehr fällt mir zum Thema nicht mehr ein. Ich bin froh, dass es dieses Forum gibt und habe zudem auch eine hohe Meinung von PCGH-Benchmarks (http://www.pcgameshardware.de/aid,744422/FAQ-So-bencht-PCGH-Spiele-How-to-Benches-inside/Spiele/Test/). Diese beiden Informationsquellen kann ich jedem ans Herz legen, andere sind dagegen mit noch mehr Vorsicht zu genießen. Die gute Nachricht ist, man verliert schlimmstenfalls weder allzu viel Geld, noch geht der Spielspaß völlig flöten. Wer schlecht beraten kauft, muss sich halt eventuell auch mal das Spielerlebnis zurechtbiegen, wie zuvor die Prozessorenwelt. (http://www.youtube.com/watch?v=ayHzg8oMvV0)

HOT
2010-07-26, 14:35:27
Ich selbst bin ja mit der Hypothese in den Thread gestartet, das der i5 760 als Spiele CPU gegenüber dem X6 1055t zu präferieren ist und hatte auch das Gefühl, das die überwiegende Mehrheit mit mir dakor geht.
Aber das Problem sind die Mittel und Wege es zu verfizieren. Ich will einer Benchmarkreihe in 800x600 auch nicht ihre Praxisrelevanz in Abrede stellen, allerdings behaupte ich einfach mal, das es Wege geben muss, die anstatt das CPU Limit quasi durch Herabsenken der Auflösung "heraufzubeschwören", dieses in für Gamer gängigen Spieleauflösungen erkennbar zu machen.

Wäre es deshalb nicht ein gangbarer Weg, wenn man zur Leistungsbewertung von CPUs in modernen Spielen von dem Balkendiagramm abkehrt und anstatt dessen auf einem Zeitstrahl den Frameverlauf abbildet? Dies müsste nach meinem Kenntnisstand auch in der Lage sein, in nativen TFT Auflösungen einen Unterschied aufzuzeigen.
Nun kann man natürlich nicht erwarten, das dazu das Spiel von vorne bis hinten durchgespielt wird aber man könnte sich doch im Prinzip - damit die Messergebnise repräsentativen Charakter behalten - sozusagen eine "worst-case" Szene aus einem Titel herausgreifen die besondere Akzente setzt, um dort dann Messungen durchzuführen.
Oder man nimmt ein besonders hw-forderndes Level, eines aktuellen Action-Krachers und spielt dieses einfach durch, um den Frameverlauf hinterher innerhalb eines Zeitrahmens von sagen wir 15 Minuten darzustellen.
Nach meinem bisherigen Verständnis sollten doch auch dann in hohen Auflösungen genau die Unterschiede erkennbar werden, die man zuvor durch den Wechsel auf 800x600 erst wirklich sichtbar gemacht hat.
Eines vorweg: d'accord wird das Ding geschrieben und bedeutet soviel wie "übereinstimmen" auf französisch. Ist eine Art Modewort geworden.

Die Leistungsfähigkeit bei Spielen unterscheidet sich im Prinzip so unwesentlich, dass man dort die Plattform und die Preise im Auge haben muss. Von daher kann man nicht unbedingt sagen, dass der 760 unbedingt die bessere Spiele-CPU ist, nur weil er etwas schneller ist - das ist ja vollkommen unstrittig. Dafür läuft seine Plattform aber dieses Jahr ab, während der AM3 für eine neue CPU-Archtitektur weitergenutzt wird. Der K10 ist im Grunde Architektur anno 2003, während Nehalem schon einen Haufen Neuerungen ggü. dem Core2 bzw. seinen Vorgängern mitbrachte, die vor allem in Performancesicht eine Rolle spielen. Der K10 brachte ja nicht unbedingt bessere Performance als der K8, sondern er brachte Flexibilität und Modularität während Intel immer die Performance im Auge hatte und ein x-faches in die Entwicklung investierte. Sowas wie C3-6 Mode und auch der Turbomode gepaart mit dem neuen VRM-Design ist mit Sicherheit ziemlich teuer in der Entwicklung gewesen, das kann man mit dem K10 kaum vergleichen, aber grade das bringt ja auch die wichtige Energieeffizienz, sonst wäre Nehalem eine ziemliche Heizung. Auch AMDs Turbo ist im Grunde nur aus der Not geboren; er bedient sich eines Tricks und ist sehr simpel, funktioniert aber trotzdem gut.
Dafür, dass AMD vielleicht 1/20tel der Entwicklungskosten investierte und ein im Grunde sehr betagtes Design recycelt hat, klappts mit dem K10 eigentlich noch sehr gut ;).

Ich sehe das übrigens ähnlich wie Opteron; Die beste Spiele-CPU ist weder noch. Die beste Spiele-CPU ist ein AthlonII X3 oder X4 > 3 GHz mit einem AMD770/870 60-70€-AM3-Board. Es gibt kaum Spiele, die mit mehr als 3-4 Kernen was anfangen können, aber diese CPUs beschneidet die wenigen, die es dann doch gibt (GTA4 etc) eben kaum, aber der Preis ist einfach unschlagbar.

Undertaker
2010-07-26, 14:44:55
Das AM3 als Sockel bestehen bleibt, sagt nur ersteinmal nicht viel. Ob aktuelle AM3-Systeme mit Bulldozer laufen, ist bisher noch unbekannt. Sollten neue Boards nötig werden, ist der X6 Käufer nicht besser dran als der i5 Käufer.

Amun-Re
2010-07-26, 14:52:48
Warum in aller Welt sollen Messungen in höheren Auflösungen plötzlich aussagekräftiger sein, wenn dadurch doch nur das GPU-Limit nach unten verschoben wird und dadurch tendenziell vermehrt Überlagerungen auftreten?


Weil es zumindest meine Intention war, zukünftig denjenigen, die vor der Frage stehen welcher Prozessor für ihre Zockermaschine die ideale Wahl darstellt, eine objektive Antwort mit auf den Weg zu geben, die für jeden Einzelnen nachvollziehbar ist und dafür empfinde ich persönlich Benchmarks in 800x600 als unzureichend.
Es ist völlig unstrittig, das dieses Verfahren absolut gerechtfertigt ist um Leistungsunterschiede alleinig durch die CPU hervorgerufen aufzuzeigen, mit dem Fazit, das wann immer der Prozessor in 800x600 an einer spezifischen Stelle limitiert, selbiges auch in höheren Auflösungen stattfinden wird und dem Hinweis das die Grafikkarte in nativen TFT Auflösungen die Verantwortung als limitierender Faktor übernimmt und dadurch ein verzerrtes Bild entstehen kann, das u.U in einem Missverhältnis zur Ursprungsaussage - aus der Messung in 800x600 postuliert - steht.

Wenn man also einen neuen generischen Ansatz finden will um einerseits messtechnisch korrekt zu verfahren (800x600) und auf der anderen Seite aber auch die gängige Praxis abbilden will (1680x..1920x..) muss man eventuell einen Kompromiss finden und - so war mein Gedankengang - wäre dieser Ansatz über die Darstellung von Frameverläufen über noch vertretbar lange Zeitabschnitte zumindest eine bessere Lösung als heutig gebräuchliche Benchmarkmethoden.

HOT
2010-07-26, 14:58:32
Das AM3 als Sockel bestehen bleibt, sagt nur ersteinmal nicht viel. Ob aktuelle AM3-Systeme mit Bulldozer laufen, ist bisher noch unbekannt. Sollten neue Boards nötig werden, ist der X6 Käufer nicht besser dran als der i5 Käufer.
Auf fast allen Folien ist AM3 bemerkt, also ist auch AM3. Da kannst lamentieren, was du willst.

/endgültig letzter Undertaker-Quote -> endgültiges Ignore.

y33H@
2010-07-26, 14:59:53
Sockel alleine bringt dir nichts, Stichwort VRMs. Siehe 775 mit Core 2.

Amun-Re
2010-07-26, 15:02:34
Auf fast allen Folien ist AM3 bemerkt, also ist auch AM3. Da kannst lamentieren, was du willst.


Nun gut aber er hat nicht Unrecht noch ist über die Abwärtskompatibilität nichts in Beton gegossen. Ich sagte es anderer Stelle schonmal es kann durchaus der Fall auftreten das grundsätzlich Bulldozer abwärtskompatibel ist aber die Boardhersteller im Nachhinein ihre Mobos auf die höheren Anforderungen von Bulldozer validieren müssen und möglicherweise dabei einige durchs Raster fallen. Solange man diesbezüglich noch keine Sicherheit hat halte ich es auch für zumindest riskant dieses Argument AM3 als sicheren Vorteil zuzuschreiben.

Coda
2010-07-26, 15:02:43
Allerdings hat AMD bisher nie die VRM-Specs für den gleichen Sockel geändert soweit ich weiß.

dargo@work
2010-07-26, 15:06:11
Wenn man also einen neuen generischen Ansatz finden will um einerseits messtechnisch korrekt zu verfahren (800x600) und auf der anderen Seite aber auch die gängige Praxis abbilden will (1680x..1920x..) muss man eventuell einen Kompromiss finden und - so war mein Gedankengang - wäre dieser Ansatz über die Darstellung von Frameverläufen über noch vertretbar lange Zeitabschnitte zumindest eine bessere Lösung als heutig gebräuchliche Benchmarkmethoden.
Ich wiederhole mich gerne nochmal - die Vergleichbarkeit bei längeren Zeitabschnitten ist nicht mehr gegeben. Das ist auch der Grund warum ich nur 5 Sekunden Testszenen bei meinen CPU-Tests verwende. War übrigens vor Jahren ein Tipp von Madkiller (schöne Grüße übrigens) den ich damals und heute völlig nachvollziehen kann. Zusätzlich sollte man sich selbst am besten gar nicht bewegen und nur die Umgebung, KI auf sich wirken lassen. Es reichen schon je nach Szene und Setting kleinere Abweichungen der Position vom Fadenkreuz, sprich Blickwinkel, um aus einem CPU-Limit ein GPU-Limit zu machen und umgekehrt.

HOT
2010-07-26, 15:06:44
Sockel alleine bringt dir nichts, Stichwort VRMs. Siehe 775 mit Core 2.
Jetzt geht dieser Schwachsinn schon wieder los: Auf offiziellen AMD-Folien steht AM3 und zwar mehr als ein Mal. Das bedeutet, dass BD den 941Pin AMD-Sockel unterstützt. Das heißt im Klartext, dass ein BIOS-Update nötig wird. Das war bisher immer so und das wird auch dieses Mal so sein. glaubst du, AMD schreibt da umsonst überall AM3 drauf, denn BD was eigenes benötigen würde? So ein Unsinn.

NaseWeiss
2010-07-26, 15:11:43
Mhm... dann stell ich mal ne Frage bezüglich dem, was aus Spielersicht mehr Sinn macht:

Der kleinste PIIx4 der auf 3,6GHz übertaktet und mit einer GTX470 gepaart werden soll, oder
der i5 7xx der auch auf 3,6GHz übertaktet und durch die Mehrkosten "nur" mit einer GTX460 gepaart werden kann.

Nun müsste man vieleicht noch die Rahmenbedingungen bestimmen zB: welche Spiele werden bevorzugt? Das lass ich aber mal weg, da der Jenige, der diese Frage stellt, in allen Spiel-Genre`s zocken möchte.

Was wäre eure Meinung dazu? Oder, für welche Paarung würdet ihr euch entscheiden?

puntarenas
2010-07-26, 15:15:46
Jetzt geht dieser Schwachsinn schon wieder los: Auf offiziellen AMD-Folien steht AM3 und zwar mehr als ein Mal. Das bedeutet, dass BD den 941Pin AMD-Sockel unterstützt. Das heißt im Klartext, dass ein BIOS-Update nötig wird.
Ich für meinen Teil erhoffe mir aber zum Beispiel eine reduzierte Idle-Leistungsaufnahme (z.B. durch einen C6-State für schlafende Kerne) und würde da derzeit noch nicht auf "alte" AM3-Boards wetten wollen.

Außerdem wissen wir noch nicht, wie leistungsstark Zambesi wird. Wenn die IPC nicht deutlich über K10.5 liegt und/oder in der ersten, AM3-tauglichen Inkarnation noch keine allzu hohen Taktraten erreicht werden, dann hast du einen prima Serverprozessor, der in Spielen von jedem Lynnfield kassiert wird.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8160832#post8160832

:devil:

gahmuret
2010-07-26, 15:18:26
Wo an deinem Frameverlauf wird sich wohl das Leistungsvermögen der untersuchten Prozessoren in Relation zueinender abzeichnen? Was hast du entdeckt, wenn die Prozessoren plötzlich gleichauf sind und auch Takterhöhungen daran nichts mehr ändern? Warum in aller Welt sollen Messungen in höheren Auflösungen plötzlich aussagekräftiger sein, wenn dadurch doch nur das GPU-Limit nach unten verschoben wird und dadurch tendenziell vermehrt Überlagerungen auftreten?



Ging eher davon aus, selbe graka, selbe taktung, selbe ram menge und dann die beiden frame verläufe übereinander legen. Finde wenn man so einen balken hat (bei niedrigen auflösungen vorallem), kann man sich besser selbst ein bild machen. Als wenn man Balken sieht wo min fps stehen und max fps und eine rechnung wo die avg. fps sind (<--ist ja nur eine durchschnittsrechnung, ala altersdurchschnitt)
GPU limitierung sieht man dann wenn beide gleich einbrechen und cpu limitierung wenn die eine mehr einbricht als die andere.
Man hätte einfach mehr daten als 3 zahlen bei den benches.

Amun-Re
2010-07-26, 15:19:42
Zusätzlich sollte man sich selbst am besten gar nicht bewegen und nur die Umgebung, KI auf sich wirken lassen. Es reichen schon je nach Szene und Setting kleinere Abweichungen der Position vom Fadenkreuz, sprich Blickwinkel, um aus einem CPU-Limit ein GPU-Limit zu machen und umgekehrt.


Wenn man dafür Sorge tragen könnte das es keinerlei Abweichungen gibt selbst auf einen längeren Zeitraum betrachtet wäre dieses Modell aber doch durchaus in Erwägung zu ziehen oder etwa nicht rein aus der Perspektive sinnvoller Benchmarkmethodik betrachtet.

Mit einer Art Demo Aufzeichnung als Referenzmaterial könnte man dann doch quasi auf verschiedenen Setups das exakt gleiche ablaufen lassen.
Zum Beispiel ein Botmatch in UT /kein zeitgemäßes Beispiel schon klar) wo jeder Bot zu einer gegebenen Zeit reproduzierbar handelt damit Abweichungen das Ergebnis möglichst nicht verfälschen können.