Vertigo
2006-04-06, 11:05:16
Da aktuelle Grafikkarten mit aktuellen Treibern in aktuellen Benchmarks teils deutlich von aktuellen Dualcore-CPUs profitieren, würde ich gern eine aktuelle Diskussion dazu anstossen wollen. Folgender Hintergrund:
Mir ist neulich im 3DM06-Thread aufgefallen, das ein User seine Ergebnisse mit einer 7600GT gepostet hat -sinngemäß: "4321 Punkte mit GeForce 7600GT@default". Das hat mich sehr erstaunt, da ich mit meiner seeligen 7800GT seinerzeit 3666 Punkte auf meinem Newcastle So754 mit 2,4GHz hatte. Auf Nachfrage wurde mir dann mitgeteilt, dass er einen A64 X2 hatte, was das Ergebnis natürlich sofort relativierte.
Nun liefert der 3DM06 ja drei Subscores : SM2, SM3 und CPU. Der CPU-Part profitiert sehr stark von Dualcore, ist klar. Aber die beiden SM-Parts dank Optimierungen in Forceware und Catalyst ja auch. Somit sind doch die Werte von identischen Grafikkarten auf SC und DC gar nicht mehr vergleichbar. Eine im Grunde schwächere Grafikkarte (7600GT) bringt auf einem DC dramatisch mehr 3DMarks hervor als eine an sich stärkere 7800GT auf SC.
Das ist in anderen Benchmarks zwar nicht ganz so drastisch, aber dennoch tendenziell ähnlich. Wenn ich mir das Forum so ansehe, stolpere ich immer wieder über Posts, in denen sinngemäß steht "Was, du hast mit Deiner XYZ nur 5000 Punkte - LOL - bei mir macht die Karte 6000 Punkte". Dies geschieht meist ohne Angabe der CPU oder der - immer wichtigen - verwendeten Treiberversion und löst dann bei manchem User infolge des Mixes aus Halbwissen und Halbwahrheiten eine regelrechte Panik aus und mündet in Threads wie "Hilfe, meine Grafikkarte ist zu langsam".
Wie seht ihr das? Ich finde, dass die Nachvollziehbarkeit von Benchmarkergebnissen durch DC-Optimierungen in den Grafikkartentreibern für SC-CPU-User etwas nachgelassen hat.
Mir ist neulich im 3DM06-Thread aufgefallen, das ein User seine Ergebnisse mit einer 7600GT gepostet hat -sinngemäß: "4321 Punkte mit GeForce 7600GT@default". Das hat mich sehr erstaunt, da ich mit meiner seeligen 7800GT seinerzeit 3666 Punkte auf meinem Newcastle So754 mit 2,4GHz hatte. Auf Nachfrage wurde mir dann mitgeteilt, dass er einen A64 X2 hatte, was das Ergebnis natürlich sofort relativierte.
Nun liefert der 3DM06 ja drei Subscores : SM2, SM3 und CPU. Der CPU-Part profitiert sehr stark von Dualcore, ist klar. Aber die beiden SM-Parts dank Optimierungen in Forceware und Catalyst ja auch. Somit sind doch die Werte von identischen Grafikkarten auf SC und DC gar nicht mehr vergleichbar. Eine im Grunde schwächere Grafikkarte (7600GT) bringt auf einem DC dramatisch mehr 3DMarks hervor als eine an sich stärkere 7800GT auf SC.
Das ist in anderen Benchmarks zwar nicht ganz so drastisch, aber dennoch tendenziell ähnlich. Wenn ich mir das Forum so ansehe, stolpere ich immer wieder über Posts, in denen sinngemäß steht "Was, du hast mit Deiner XYZ nur 5000 Punkte - LOL - bei mir macht die Karte 6000 Punkte". Dies geschieht meist ohne Angabe der CPU oder der - immer wichtigen - verwendeten Treiberversion und löst dann bei manchem User infolge des Mixes aus Halbwissen und Halbwahrheiten eine regelrechte Panik aus und mündet in Threads wie "Hilfe, meine Grafikkarte ist zu langsam".
Wie seht ihr das? Ich finde, dass die Nachvollziehbarkeit von Benchmarkergebnissen durch DC-Optimierungen in den Grafikkartentreibern für SC-CPU-User etwas nachgelassen hat.