Archiv verlassen und diese Seite im Standarddesign anzeigen : 1-2-3-4? Core-Skalierung schlecht getestet auf der Computerbase
MadManniMan
2008-05-16, 21:35:18
Die Leute von der Basis der Computer (http://www.computerbase.de/artikel/hardware/prozessoren/2008/bericht_1_2_3_4_cpu-kerne/) haben mal ermittelt, wie sehr sich aktuelle Spiele für mehr Kerne bedanken - eine tolle Idee, zumal man ja beliebig viele Cores simulieren kann, deaktiviert man welche übers OS!
Nur zu dumm, dass man einen Yorkfield @ 4 GHz genommen hat, der allein als Singlecore schon so potent wie ein aktueller Durchschnittsprozessor ist.
...wäre es nicht reizvoll fürs 3DCenter, das selbe nochmal mit verschiedenen (dann auch gern mit 4 GHz ;) ) Taktraten und Architekturen, sowie Savegames zu machen?
mapel110
2008-05-16, 21:38:08
Jo, wäre interessant. Und wie ich schon in den Comments bei CB anmerkte, auf SLI sollte man bei solch einem Test verzichten. SLI benötigt selbst ja auch CPU-Power und das würde das Ergebnis verfälschen. (CB hat dort mit einer 9800 GX2 gebencht)
/edit
Dass der Prozessor bissl mehr Takt hat, sehe ich nicht als so großes Problem. Man hätte halt die Auflösung noch weiter absenken müssen, um die Cores zu beschäftigen.
Sorkalm
2008-05-16, 21:43:07
6@333 MHz wären doch OK gewesen, 800x600 natürlich auch OK...
Nebentest mit einem Phenom wäre auch interessant gewesen, da anscheinend die Zwei-Dice-Bauweise die Eigenschaften eines Quad-Cores etwas einschränkt (siehe 3 Cores), wenn nicht wäre der gegenteilige Nachweis natürlich auch interessant. :)
Aber naja, CB hat in letzter Zeit viel an Qualität verloren. Der letzte CPU-Test (9850 Black Edition) hatte auch eklatante Mängel, insbesondere bei der Messung der Leistungsaufnahme.
Edit: Ach, SLI lief auch noch? Ach du Schreck. ;D
mapel110
2008-05-16, 21:45:59
Nebentest mit einem Phenom wäre auch interessant gewesen, da anscheinend die Zwei-Dice-Bauweise die Eigenschaften eines Quad-Cores etwas einschränkt (siehe 3 Cores), wenn nicht wäre der gegenteilige Nachweis natürlich auch interessant. :)
.
Das liegt sicher nur an der Software. CPU-Encoding-Tests von Audio-/Filmmaterial haben schon gezeigt, dass die Intel-Quads mit jedem Core schneller werden.
Sorkalm
2008-05-16, 21:47:19
Das liegt sicher nur an der Software. CPU-Encoding-Tests von Audio-/Filmmaterial haben schon gezeigt, dass die Intel-Quads mit jedem Core schneller werden.
Kann auch sein. Ist mir aber aufgefallen, dass sowohl Vantage als auch Assasin's Creed diese Auffälligkeit zeigen...
Rainman2k
2008-05-16, 22:02:24
morgen kommt mein phenom an, dann bin ich dabei.
näheres bitte per pn, da ich dann erstmal nicht ins inet werde, da vista neu aufspielen :)
Gruss
Marc
Jake Dunn
2008-05-16, 22:23:47
Den Test kann man vergessen :rolleyes:
Z.b. wird da CRYSIS im "ICE" Level auf Very High getestet ;D
Ich hab mir mal ein Beispiel rausgepickt und selbst so ein Test nachgestellt. :cool:
System: E2160@3,2ghz
HD3870
Win XP
CRYSIS
Ich verwende den CPU-Test aus dem CrysisBenchtool 1.05 mit folgenden Settings 800x600, Low, außer Physik High um die CPU maximal zu belasten und ein GPU-Limit zu minimieren.
1 Core
http://www.abload.de/thumb/1cczz4.jpg (http://www.abload.de/image.php?img=1cczz4.jpg)
min: 28,85 FPS
avg: 55,69 FPS
max: 129,74 FPS
2 Core
http://www.abload.de/thumb/2cc7xq.jpg (http://www.abload.de/image.php?img=2cc7xq.jpg)
min: 56,76 FPS
avg: 97,85 FPS
max: 147,96 FPS
Es entsteht ein Performanceplus von 1 Kern zu 2 Kernen
min FPS: 96,74%
avg FPS: 75,70%
max FPS: 14,04%
Ich habe gerade nur kein Quad zur Hand, werde diesen Test aber auch mit einem Quad demnächst machen.
Die Leute von der Basis der Computer (http://www.computerbase.de/artikel/hardware/prozessoren/2008/bericht_1_2_3_4_cpu-kerne/) haben mal ermittelt, wie sehr sich aktuelle Spiele für mehr Kerne bedanken - eine tolle Idee, zumal man ja beliebig viele Cores simulieren kann, deaktiviert man welche übers OS!
Nur zu dumm, dass man einen Yorkfield @ 4 GHz genommen hat, der allein als Singlecore schon so potent wie ein aktueller Durchschnittsprozessor ist.
...wäre es nicht reizvoll fürs 3DCenter, das selbe nochmal mit verschiedenen (dann auch gern mit 4 GHz ;) ) Taktraten und Architekturen, sowie Timedemos zu machen?
CB ist in den letzten Tagen nicht mehr für Tests zu gebrauchen, nicht nur das gerade die min fps fehlen, nein gerade bei UT3 scheint ja ein weitere Core nichts zu bringen, aber mit nur 1 Core bricht bei mir die rate stark ab. Steht auch dort das der bench nur bedingt dem Spiel enspricht, aber meist schaut man sich eh nur Übersicht und Balken an, das Kleingedruckte ist ja uninteressant.
Stormscud
2008-05-17, 09:37:05
Absolut unbrauchbarer Test in meinen Augen. Immerhin ist der 4 GHz Singlecore ja schneller als mein X2 mit Vollauslastung beider Kerne. Absolut praxisfremd!
Die hätten ja wenigstens nen Q6600 oder nen Phenom 9550. Da wäre das Ergebnis doch schon etwas anders, denke ich. Und die Auswahl der Spiele könnte auch ein paar mehr neuere Spiele enthalten. Immerhin betreibe ich keinen Quadcore zum Spielen, wenn ich ehe nur Games von 2005 oder so spiele.
Ein paar mehr neue Spiele wären da angebracht, wie NFS Pro Street oder Dirt. SupCom hätten sie auch mit reinnehmen können.
die letzten test's auf CB scheinen alle ein wenig praxisfremd zu sein. ;)
Kann auch sein. Ist mir aber aufgefallen, dass sowohl Vantage als auch Assasin's Creed diese Auffälligkeit zeigen...
Kein Wunder. Diese beiden Programme brauchen auch im Gegesatz zu Mapels erwähnten viele Synchronisationen der Threads und somit viele Kohärenzabgleiche. Genau da liegt eben der Nachteil bei den 2x2.
Settings 800x600, Low,
Das ist doch absolout Praxisfremd...
blackbox
2008-05-17, 11:01:04
Der Test an sich ist nicht schlecht, aber irgendwie verhauen sie sich in letzter Zeit regelmäßig mit dem Testsystem.:hammer:
Insbesondere haben sie eine praxisnahe Auflösung gewählt. Ich verstehe gar nicht, warum so viele meckern, dass man nicht eine möglichst niedrige genommen hat. Kann ich nicht nachvollziehen. Ich will praxisnahe Tests sehen, dazu gehört die Auflösung, keine übertaktete CPU und kein SLI.
VoooDooo
2008-05-17, 11:04:05
Das ist doch absolout Praxisfremd...
is auch kein Graka sondern ein CPU Test.
=Floi=
2008-05-17, 11:04:16
CB ist hier sicherlich einen kompromiss einegegangen. Auf der anderen seite, gibt es eigentlich keinen DC mehr, der nur 2ghz hat. Ebenso wollte man wohl zeigen, dass selbst bei 4ghz noch unterschiede zu messen sind, da es doch oft darum geht schneller quad, oder schneller DC.
Ich könnte mir auch einen nachtest in 6-12 monaten vorstellen und wird man sich eben hier auf die 4 ghz geeinigt haben, um die ergebnisse weiterverwenden zu können.
Der Test ist gut um zu sehen wie gut die Benchmark funktion der jeweiligen Spiele funktioniert. Normal sollte man das mit 5min Zocken testen und dann auswerten. Ja das Ergebniss ist nicht 100%tig reproduzierbar, aber das ist es bei keinen Spiel.
Was soll uns dieser Tests sagen????
InsaneDruid
2008-05-17, 11:29:59
Ähnlich komisch dem Vista Test, der auch mit nem 4Ghz Quaddi gefahren wurde.. klar das dabei die CPU Last Unterschiede kaum noch auffallen.
Das ist doch absolout Praxisfremd...
Nö ist es nicht. Wenn man wissen möchte, wie gut eine CPU auf welches Spiel reagiert, kann man die Grafik nur in Auflösung und AA/AF variieren, ohne das Ergebnis zu verfälschen. Das schiebt einfach das Limit der Grafikkarte weiter in die Zukunft, man simuliert quasi nur eine entsprechend leistungsfähige Karte, die es noch nicht gibt. Das ist ähnlich wie einen Grafikkartentest mit übertaktetem QuadCore zu benchen. Man will ja wissen wo die Grenzen sind.
Botcruscher
2008-05-17, 11:58:06
Der Test ist mit gewissen Abstrichen noch weitaus besser als das 800x600 only Gedöhns. Die Zahlen zeigen was in Spielauflösung noch ankommt und nicht irgendwelche Phantasiewerte welche man gerne hätte.
Kein Wunder. Diese beiden Programme brauchen auch im Gegesatz zu Mapels erwähnten viele Synchronisationen der Threads und somit viele Kohärenzabgleiche. Genau da liegt eben der Nachteil bei den 2x2.
Deswegen gibt es auch Situationen wo ein 2x2 gegen einen richtigen X4 gnadenlos einbricht.
Sorkalm
2008-05-17, 12:31:34
Insbesondere haben sie eine praxisnahe Auflösung gewählt. Ich verstehe gar nicht, warum so viele meckern, dass man nicht eine möglichst niedrige genommen hat. Kann ich nicht nachvollziehen. Ich will praxisnahe Tests sehen
Toll, dann kriegst du einen Test wo du siehst, dass die CPU in aktuellen Spielen unrelevant ist.
Was ja sehr überraschend ist, die CPU hält ja auch üblicherweise länger als die Grafikkarte.
Aber den Anspruch, Spiele zu testen ob sie von Multi-Core profitieren (siehe Einleitung), hat man voll versaut.
blackbox
2008-05-17, 12:44:58
Toll, dann kriegst du einen Test wo du siehst, dass die CPU in aktuellen Spielen unrelevant ist.
Was ja sehr überraschend ist, die CPU hält ja auch üblicherweise länger als die Grafikkarte.
Aber den Anspruch, Spiele zu testen ob sie von Multi-Core profitieren (siehe Einleitung), hat man voll versaut.
Wenn das Ergebnis so ist, dann haben wir wenigstens ein verwertbares Ergebnis.
Ich will keine theoretischen Ergebnisse sehen, mit denen ich im Alltag nix anfangen kann.
Was bringt mir das, wenn ich die CPU-Unterschiede bei 800x600 herausfinde, die aber bei 1280x1024 so gut wie gar nicht mehr vorhanden sind.
Oder anders ausgedrückt: die CPU-Tests bei 800x600 oder niedriger sind insofern nutzlos, da bei realistischen Spielbedingungen sie nur eine von vielen Faktoren ist, die die Spieleperformance beeinflussen. Welchen Anteil sie letztendlich einnimmt, das kann man sicher so nicht sagen. Dazu wären umfangreiche Tests nötig. Das kann wohl keiner leisten. Der Fehler, der dann oftmals bei solchen CPU-Tests gemacht wird, ist dann das Fazit. Es wird viel zu oft gemeingültig formuliert, was schlichtweg falsch ist. Und daraus entstehen dann in Foren "Tatsachen", die gedankenlos von solchen Fazits übernommen werden.
Ich hoffe, du verstehst, was ich meine.
Sorkalm
2008-05-17, 13:04:40
Wenn das Ergebnis so ist, dann haben wir wenigstens ein verwertbares Ergebnis.
Dafür brauchts aber keinen speziellen Test. Oder: Man macht so einen Test, um das zu zeigen. Der würde mich dann aber nicht interessieren.
Ich kauf mir ja auch meine neue CPU nicht nur für jetzt, sondern auch für zukünftige Spiele. Für aktuelle reicht was sehr günstiges aus.
Aber den Anspruch zu testen, inwieweit Spiele inzwischen Multi-Cores unterstützen (das wäre wirklich mal interessant!) verfehlt der Test leider.
AffenJack
2008-05-17, 13:16:04
Du hast doch auch mit nem 800x600 nen verwertbares ergebniss.
Wenn da die frames bei 50 sind,du aber bei 1024 oder so nur noch 40 hast ist klar dass da die grafikkarte limitiert,denn die cpubelastung wird ja mit auflösungen und aa/af nicht größer.
Da kannste dann auch sagen,dass du wennwa nun mein beispiel mit 40zu 50 fps nehmen bei deiner nächsten mehr als 25% schnelleren graka in die cpu-limitierung laufen würdest
Henroldus
2008-05-17, 13:31:12
Man hätte halt die Auflösung noch weiter absenken müssen, um die Cores zu beschäftigen.
eben nicht, denn 1280er ist wohl das minimum an Auflösung unter der heut gespielt wird.
mit steigender auflösung und AA/AF werden mehr kerne immer weniger wichtig.
zudem hat man bei CB vergessen, dass man selbst wenn ein quadcore mal etwas schneller als ein DC ist, man für dessen Preis einen wesentlich höher getakteten DC bekommt.
Ergo heißt es IMO weiterhin E8400>>(Q6600 oder Q9300) beim Spielen.
vom stromverbrauch gar nicht erst zu reden.
Übrigens: Übertakten kann man beide bevor dieses Argument wieder aufkommt ;)
mapel110
2008-05-17, 13:42:12
eben nicht, denn 1280er ist wohl das minimum an Auflösung unter der heut gespielt wird.
CB hat mit einer 9800 GX2 getestet. Wer zockt denn bitte in 1280x1024 mit der Karte? :rolleyes:
Wie mans dreht und wendet, der Test ist weder Fisch noch Fleisch.
Henroldus
2008-05-17, 14:08:03
CB hat mit einer 9800 GX2 getestet. Wer zockt denn bitte in 1280x1024 mit der Karte? :rolleyes:
Wie mans dreht und wendet, der Test ist weder Fisch noch Fleisch.
warum denn nicht, die Karte passt zu der enthusiatischen CPU? ;)
damit entkoppelt man sich von der GPU limitierung und zeigt die(geringe) Relevanz der Kernanzahl(zumindest ab DC aufwärts)
Brächte dir ein Test mit einer 9600GT ein realistischeres ergebnis bezüglich der Skalierung mit der Kernanzahl?
Sorkalm
2008-05-17, 14:28:38
damit entkoppelt man sich von der GPU limitierung
Nicht wirklich. Auch die Karte limitiert wohl ziemlich eindeutig noch die Benchmarks.
Henroldus
2008-05-17, 14:31:29
Nicht wirklich. Auch die Karte limitiert wohl ziemlich eindeutig noch die Benchmarks.
ja mein gott, es ist die schnellste einzelkarte, die es momentan gibt!
An welchem strohhalm wollen denn die Quadcorebesitzer noch festhalten um ihr dasein zu rechtfertigen?
dargo
2008-05-17, 14:39:40
...wäre es nicht reizvoll fürs 3DCenter, das selbe nochmal mit verschiedenen (dann auch gern mit 4 GHz ;) ) Taktraten und Architekturen, sowie Timedemos zu machen?
Diesen Aufwand wird sich keiner freiwillig antun. Dazu müsstest du erstmal alle Games die du testen willst auf cpu-limitierte Szenen untersuchen. Außerdem muss das Game eine Savefunktion bieten die frei wählbar ist (zumindest bei Games außer Rennspielen).
Apropo Timedemos - will man wirklich nichtssagende Timedemos für CPU-Benches nutzen kann man sich den Aufwand gleich sparen. Das kann nur zu falschen Ergebnissen führen.
ja mein gott, es ist die schnellste einzelkarte, die es momentan gibt!
An welchem strohhalm wollen denn die Quadcorebesitzer noch festhalten um ihr dasein zu rechtfertigen?
Nein, eine 9800 GX2 @800x600 wäre um dem Faktor ~2,7 schneller! :O :D
@640x480 sogar Faktor ~4,25! :cool:
Sorkalm
2008-05-17, 15:03:42
ja mein gott, es ist die schnellste einzelkarte, die es momentan gibt!
Ja, aber in aktuellen Spielen trotzdem noch viel zu lahm um ein CPU-Limit bei diesen Einstellungen zu erzeugen.
An welchem strohhalm wollen denn die Quadcorebesitzer noch festhalten um ihr dasein zu rechtfertigen?
Ne, ich hab keinen Quad-Core. :tongue:
Aber auf meine Argumente bist du ja sonst nicht eingegangen...
Naja.
Fackt ist aber das 2 Kerne zur Zeit zum Spielen abzulut reichen und mehr als 2 Kerne nur zur Zeit kaum mehr Leistung in Spielen bringt.
Ergo...wer 2 Kerne hat und die schnellgenung sind bzw Übertaktet braucht keine neue CPU.
Außer man steht auf Schwanzmark Punkte den bis aud den 3Dmark und Ass Creed ist der Leistungsgewinn für 3 u. 4 Kerne ein Witz.
Schrotti
2008-05-17, 23:56:37
Ich rechne nebenbei für Spinhenge, da freu ich mich über jeden Kern.
Mr. Lolman
2008-05-18, 08:41:45
Als Benchmark verwenden wir nicht den integrierten Benchmark, sondern setzen auf eine eigens erstellte Timedemo in dem grafiklastigen Level „Ice“.
Ich hätt bei Crysis auch eher was CPU-lastiges gebencht. Gab genug Szenen, wo mein Singlecore San Diego @ 3GHz am Ende war, was man ja hier, anhand der Benchmarkergebnisse, nicht annehmen würde.
EDIT: Ich geb aber Madmanniman bezügl der Prozessorgeschwindigkeit vollkommen recht. Den Test hätte man nicht mit 4GHz durchführen dürfen, sondern maximal mit 3. Besser noch mit 2.4 oder so. Außerdem wären min.fps Angaben wichtig gewesen. Und ne SLI-GraKa hätt ich auch nicht getestet, da hier die Treiber für Unregelmässigkeiten bei den Ergebnissen sorgen können.
dargo
2008-05-18, 10:15:08
Naja.
Fackt ist aber das 2 Kerne zur Zeit zum Spielen abzulut reichen und mehr als 2 Kerne nur zur Zeit kaum mehr Leistung in Spielen bringt.
Ergo...wer 2 Kerne hat und die schnellgenung sind bzw Übertaktet braucht keine neue CPU.
Außer man steht auf Schwanzmark Punkte den bis aud den 3Dmark und Ass Creed ist der Leistungsgewinn für 3 u. 4 Kerne ein Witz.
Wenn du von Fakten sprichst dann kannst du das sicherlich auch belegen oder? :)
BlackBirdSR
2008-05-18, 10:50:10
Thema 800x600 only etc:
Was Einige nicht zu verstehen scheinen: In den gewählten Auflösungen und AA/AF, natürlich mit Timedemos und ohne min. fps, bekommt man ein dermaßen verfälschtes Ergebniss... da kann man gleich die Glaskugel nach Hilfe fragen.
Dieser Test zeigt leider, dass die CPU nahezu völlig egal ist, Single-Core noch heute super mithalten könnten...
Die Wahrheit sieht meiner Erfahrung nach ganz anders aus. Spiele wie Crysis oder UT3, WiC und Vegas, sowie andere - zeigen im Spiel!, gefühlt! ganz große Unterschiede bei verschiedenen CPUs (µArch, Anzahl Kerne) auf.
Alleine das Beispiel UT3. Massig Tests im Internet "Beweisen", dass die CPU fast egal ist. Timedemo und average fps sei Dank. Derweilen dümpelt mein 2.4 GHz Dual-Core mit X1900XT im echten Spiel zwischen 14 und 35fps umher. Und jetzt aufpassen und mitdenken!
Natürlich habe ich weit öfter 35+fps als 14-18 fps. Aber bereits die 5-10% Anteil machen das gesamte Spielerlebnis kaputt.
Also X2900XT und GF8800 GTS eingebaut und auf 60+fps gefreut. Denkste!
14-45fps. Gefühlter Unterschied: Nahezu Null....
Erst der Test mit einem 3GHz Core2 brachte die erhoffte Steigerung (auch mit der X1900 übrigens). Gefühlter Unterschied: Welten...
Was hat das mit 800x600 zu tun?
Um eine wirkliche Aussage treffen zu können, wie gut eine CPU skaliert, wie viel es bringt und wie gut es spielbar ist, braucht es eben eindeutigere Testverfahren.
Dazu gehören nunmal unverfälschte Ergebnisse, direkte FPS-Messungen sowie eine Ergebnissgewichtung die nicht völlig totgeglättet wird (average, timedemos).
Dass die Sache so niemand spielt ist ja wohl klar. Aber jeder mit etwas Grips im Hirn, kann sich aus diesen weit besseren Ergebnissen sofort zusammendichten, ob das Spiel bei seiner CPU einbricht, ob ein Upgrade etwas bringt oder wie gut CPUs wirklich skalieren.
Hat man sowas dann noch bei GPUs (natürlich nicht 800x600), ergibt sich ein umfassendes Gesamtbild für nahezu alle Situationen im Spiel.
Das besteht bei UT3 dann vielleicht aus 3 oder 4 Variablen, die man im Kopf zusammenfügen muss, ist aber weitaus richtiger als: 243fps mit 4GHZ Single-Core? boah das ist ja selbst mit emeinem AthlonXP noch mehr als flüssig spielbar...:ulol4:
Dr.Dirt
2008-05-18, 10:56:50
Ja, aber in aktuellen Spielen trotzdem noch viel zu lahm um ein CPU-Limit bei diesen Einstellungen zu erzeugen.
Warum soll man denn künstlich ein CPU Limit erzeugen wollen, in praxisnahen settings liegt nun mal meist ein GPU Limit vor. Tests in 800x600@low suggerieren
Vorteile für mehr cores wo es in praxisnahen settings meist keine gibt.
Ich finde den Test auf cb vom Ansatz her recht gut, es fehlen allerdings noch Min FPS Angaben, um zu sehen, ob in kritischen Situationen eine stärkere CPU helfen würde.
dargo
2008-05-18, 11:05:58
Warum soll man denn künstlich ein CPU Limit erzeugen wollen, in praxisnahen settings liegt nun mal meist ein GPU Limit vor.
Das ist völlig falsch. Wie kommst du überhaupt auf diese Idee? Hast du jede Spielsekunde deiner Games ausgiebig untersucht? Aus einem GPU-Limit kann ich der nächsten Sekunde ein CPU-Limit werden. Es muss nur viel passieren bzw. viel KI/Physik im Spiel sein und schon kommt deine CPU ins schwitzen. Diese Szenen wirst du kaum in irgendwelchen Benchmarks im Netz finden weil man diese nicht mit Timedemos nachstellen kann. Mit Praxis haben aber Timedemos rein gar nichts zu tun.
BlackBirdSR
2008-05-18, 11:06:50
Warum soll man denn künstlich ein CPU Limit erzeugen wollen, in praxisnahen settings liegt nun mal meist ein GPU Limit vor.
Mit verweis auf Madkillers Ergebnisse, und meiner Erfahrung mit CPUs unterhalb hochgezüchteter 4GHZ, möchte ich dem auf schärfste Widersprechen.
Ein GPU-Limit für einen Großteil der Zeit, korrekt. Aber auf hohem Niveua. Für das Spielgefühl bestimmend sind leider die wenigen Stellen an denen es eben stark CPU-limitiert ist, man aber keine 4GHz hat. Und wer hat das schon?
@BlackBirdSR
in einem comment bei cb wirst du sogar verlinkt. hoffentlich liest das jemand, sonst werden wieder unsinnige testergebnisse überall als argument angeführt:
http://www.computerbase.de/forum/showthread.php?p=4239304#post4239304
vielleicht reagiert cb ja und macht den test neu :rolleyes:
MadManniMan
2008-05-18, 16:54:36
Im Übrigen muss ich meinen Eingangspost verbessern!
Ich meinte natürlich Savegames und nicht Timedemos.
Natürlich habe ich weit öfter 35+fps als 14-18 fps. Aber bereits die 5-10% Anteil machen das gesamte Spielerlebnis kaputt.
Ganz genau! Denn meistens sind genau diese 5-10% des Spiels mit miesen FPS genau jene in denen man am dringendsten hohe FPS zum schnellen reagieren bräuchte!
Wem kommt das hier bekannt vor: Man rennt z.B. im einem Shooter minutenlang, mit schönen 60-90 FPS, auf der Suche nach Gegnern umher. Dann wird man plötzlich von allen Seiten von mehreren Gegnern angegriffen und muss schnell reagieren, trifft aber fast nix, weil man nur noch 15-25 FPS hat! Genau hier mangelt es fast immer an CPU-Leistung!
Ganz genau! Denn meistens sind genau diese 5-10% des Spiels mit miesen FPS genau jene in denen man am dringendsten hohe FPS zum schnellen reagieren bräuchte!
Wem kommt das hier bekannt vor: Man rennt z.B. im einem Shooter minutenlang, mit schönen 60-90 FPS, auf der Suche nach Gegnern umher. Dann wird man plötzlich von allen Seiten von mehreren Gegnern angegriffen und muss schnell reagieren, trifft aber fast nix, weil man nur noch 15-25 FPS hat! Genau hier mangelt es fast immer an CPU-Leistung!
Kann mich dem nur anschließen.
Dr.Dirt
2008-05-19, 00:44:46
Das ist völlig falsch. Wie kommst du überhaupt auf diese Idee? Hast du jede Spielsekunde deiner Games ausgiebig untersucht? Aus einem GPU-Limit kann ich der nächsten Sekunde ein CPU-Limit werden. Es muss nur viel passieren bzw. viel KI/Physik im Spiel sein und schon kommt deine CPU ins schwitzen. Diese Szenen wirst du kaum in irgendwelchen Benchmarks im Netz finden weil man diese nicht mit Timedemos nachstellen kann. Mit Praxis haben aber Timedemos rein gar nichts zu tun.
Ich hab ja "meist" geschrieben, hast du vermutlich übersehen. :wink:
Die Angabe der Min FPS hätte cp noch ermitteln sollen, oder idealerweise einen Frameratenverlauf.
Die Angabe der Min FPS hätte cb noch ermitteln sollen
Die mag Wolfgang nicht. :(
Gast3304
2008-05-19, 12:08:02
Ein interessanter Thread! - Konnte man vom Titel her erst gar nicht erwarten.
Es bleibt noch ein weiterer Aspekt nicht berücksichtigt: Die Software, die derzeit verwendet wird um die Testumgebung für Mehrkernprozessoren zu schaffen, ist bei weitem nicht ausgereift. Die Engines, die dort zum Einsatz kommen, sind alle auf Wiederverwertung auch in anderen Systemen programmiert. Crysis und ähnliche Titel sind im Prinzip nur Werbung, damit andere Hersteller sich nachträglich eine Lizenz der Engine für eigene Projekte kaufen. Eine Engine, die die tatsächlichen Fähigkeiten eines Quadcore auch nur zu 50% nutzen würde, wäre da völlig kontraproduktiv, weil dann die Meßlatte und die Erwartungshaltung der Computerspieler für die Zukunft entsprechend nach oben geschraubt würde. Und mal im Ernst: Die meisten Hersteller/Publisher (Ubi-Soft u.a.) sind doch eben erst ganz dick ins Konsolengeschäft eingestiegen. Es liegt also nahe, daß nur solche Titel und Engines produziert werden, die die Konsolen-Portitierungen nicht allzu schlecht aussehen lassen werden. ;)
Mein Einwand: Wenn ein Spiel heute auf einem Quadcore (egal welcher) weniger CPU-Performance bietet, als auf einem Singel-Core (egal welcher), dann ist es einfach schlecht programmiert. Da gibt es nichts zu diskutieren.
Ganz besonders trauriges Beispiel:
Supreme Commander & Forged Alliance
Ein an sich wirklich gelungenes Spiel, ABER : Da quält man sich mit Highendequipment (8800GTX,8800GTS,8800GT1Gig, 3 und 4GB Ram) und neuester Hardware (E8400, E6600) bei 1-10 FPS durch ein Spiel, welches nicht mal beim abschließenden Score-Bildschirm (welcher übrigens keinerlei Animationen aufweist - nur nakte Zahlen) nicht über 14 FPS pro Sekunde hinauskommt. Selten haben 'Standbilder' so gut ausgesehen - ja - das ist jetzt kein schlechter Witz/Bashing. - Ich habe einen 1680x1050 TFT und mir deswegen extra eine neue Graka gekauft - und das ach so tolle Spiel schafft es nichtmal ein popliges jpeg-Standbild mit der Score bei 60 FPS darzustellen.
Und solche Katastrophensoftware wird dann genommen, um sich ein Meinung über die Leistungsfähigkeit aktueller Mehrkernprozessoren zu bilden:
Das ist in meinen Augen der nackte Wahnsinn.
Meine Meinung zu dem Thema insgesamt: Die Zeit der Mehrkernprozessoren wird erst noch kommen. Das, was sich heute als State-Of-The-Art-Engines feiern läßt und sogar mit Benchmarktools daher kommt, ist nicht mehr, als der erste holprige Stolperversuch auf einem langen langen Weg, an dessen Ende auch (hoffentlich noch vor Weihnachten) ein anderes Betriebssystem als Windows Vista stehen wird. Schlecht programmierte Software wird nicht automatisch dadurch besser, daß man die Hardware aufrüstet.
Die letzten Leute die noch wirklich zuverlässig waren, sind die Programmierer bei id-software. Dort hat man schon immer das letzte aus der Hardware herausgeholt und auch schonmal ohne Rücksicht auf Verluste spezielle CPU-Extrawürste (^AMD) gefeatured. Sobald die mal eine neue Engine rausbringen, die tatsächlich auf mehrere Kerne skaliert/die CPU richtig nutzt, fang ich wieder an Benchmarks zu vergleichen. - Vorher ist das alles Religion: Jeder greift sich den Benchmark raus, der am besten in sein Weltbild paßt, und schikaniert damit Andersdenkende. ;D
dargo
2008-05-19, 12:45:16
Die letzten Leute die noch wirklich zuverlässig waren, sind die Programmierer bei id-software. Dort hat man schon immer das letzte aus der Hardware herausgeholt und auch schonmal ohne Rücksicht auf Verluste spezielle CPU-Extrawürste (^AMD) gefeatured. Sobald die mal eine neue Engine rausbringen, die tatsächlich auf mehrere Kerne skaliert/die CPU richtig nutzt, fang ich wieder an Benchmarks zu vergleichen. - Vorher ist das alles Religion: Jeder greift sich den Benchmark raus, der am besten in sein Weltbild paßt, und schikaniert damit Andersdenkende. ;D
Lustigerweise tust du genau das selbe mit deiner id-software. So nach dem Motto - nur id beherrscht "echtes" Multithreading. :|
puntarenas
2008-05-19, 13:00:22
Es bleibt noch ein weiterer Aspekt nicht berücksichtigt: Die Software, die derzeit verwendet wird um die Testumgebung für Mehrkernprozessoren zu schaffen, ist bei weitem nicht ausgereift.
Ich hatte vermutet, mit den Messungen wollte man eben gerade das differnziert betrachten, nämlich inwieweit aktuelle Spiele bereits einen Vorteil aus Mehrkernprozessoren ziehen können.
Ich habe mir auch die Kommentare hier und zum Test bei CB selbst durchgelesen und ehrlich gesagt ist mir nicht klar, was der Artikel nun eigentlich aussagen will. Das Testsetup scheint mir aus den genannten Gründen (extremer CPU-Takt, hohe Auflösung, gewählte Testszenen womöglich nicht der CPU-seitige Worst-Case, ...) irgendwie keine aussagekräftigen Ergebnisse herzugeben. In der Einleitung des Artikels steht:
Ein wenig schwerer tun sich die Spielehersteller bei der Optimierung auf verschiedene Prozessorkerne. Nachdem zu Beginn der Multi-Core-Ära fast kein Spiel von einem zweiten CPU-Kern profitieren konnte, sind die Spieleschmieden mit der Zeit einige Schritte vorangekommen und manche Titel werden gar schon mit einer Quad-Core-Optimierung beworben.
Doch bewerben kann man viel. Die Frage ist, wie die Praxis aussieht. Das wollen wir in diesem Artikel herausfinden, indem wir mit einigen beliebten Spieletiteln – und nur um diese geht es, andere Software wollen wir nicht behandeln – untersuchen, inwieweit Spiele mit einem zweiten, dritten und gar vierten CPU-Kern schneller laufen.Bericht: 1, 2, 3 oder 4 CPU-Kerne? (1/10) (http://www.computerbase.de/artikel/hardware/prozessoren/2008/bericht_1_2_3_4_cpu-kerne/#abschnitt_einleitung)
Nun hat man Testsettings gewählt, bei denen in den meisten Fällen schon ein Kern der auf 4Ghz getakteten CPU über ausreichend Rechenleistung verfügt, um ans GPU-Limit zu gelangen. Dieser und andere Kritikpunkte wurden im Diskussionsthread zu dem Artikel auch vorgebracht und die Antwort des Autors lässt mich ratlos zurück:
Der Artikel ist, wie leider nur die wenigen verstanden haben, KEIN CPU-Test. Der Artikel soll zeigen, wass einem Multi-Core-CPUs in aktuellen (und nicht in Zukünftigen) Spielen bringen und nicht, was sie eventuell in unrealistischen Situationen bringen. Aus diesem Grund haben wir uns für die Auflösung 1280x1024 entschieden, die für eine GeForce 9800 GX2 schon sehr klein ist. AA/AF haben wir noch Hinzugeschaltet, da die meisten so wohl Spielen werden.
Ich gebe zu, dass es in der Einleitung vielleicht nicht richtig rüber kommt, was dieser Artikel bringen soll. Wie gesagt, es handelt sich nicht um einen CPU-Test. Deswegen machen auch Sachen wie 800x600 mit Low-Details keinen Sinn. Und wenn man schon mit der schnellsten zur Zeit verfügbaren Grafikkarte in 1280x1024 ohne AA/AF keinen oder nur einen geringen (manchmal auch einen großen) Gewinn von Multi-Core hat, dann hat man es mit einer anderen genausowenig.
Quelle: Forenbeitrag (http://www.computerbase.de/forum/showthread.php?p=4240186#post4240186)
Also hat man doch im Grunde viel Aufwand getrieben um zu zeigen, dass in den gewählten Testszenen ein Prozessor in Core2-Architektur bei 4Ghz ausreicht. Oft reicht in den gewählten Szenen sogar bereits ein einzelner hochgezüchteter Kern für pralles Spielerlebnis, sagt der Artikel noch etwas anderes aus?
:confused:
P.S. Der Autor räumt ja selbst das Mißgeschick mit der 4Ghz-CPU ein und verweist auf die Realitätsnähe. Mir geht es auch nicht darum, den Autor zu bashen, mich interessiert einfach nur, ob der Artikel in dieser Form irgendwelche nützlichen Erkenntnisse liefert!
Was ich, zumindest bedingt, auf meine Kappe nehmen muss, ist die CPU mit der Fequenz von 4 GHz. Es ist wirklich nicht optimal, den Test mit einer so hochgetakteten CPU zu machen, das ist richtig. Aber dadurch werden nicht alle Ergebnisse falsch, unrealistisch und wer weiß was ich noch. Wenn ein Spiel wirklich gut für Multi-Core optimiert ist, gibt es dennoch große Unterschiede. Assassins Creed ist da ein gutes Beispiel. Trotzdem uss ich euch teilweise recht gebe und werde mir den Einwand für zukünftige Tests dieser Art merken.Quelle: Forenbeitrag (http://www.computerbase.de/forum/showthread.php?p=4240186#post4240186)
Gast3304
2008-05-19, 14:27:16
Lustigerweise tust du genau das selbe mit deiner id-software. So nach dem Motto - nur id beherrscht "echtes" Multithreading. :|
Ach - ich glaub, da liest du zuviel in meinen Post rein. Von Multithreading hab ich schonmal gleich gar nix geschrieben. Ich will nicht sagen, daß id-software die einzigen wären, die noch 'fähige' Leute beschäftigen. Auch möchte ich niemandem ein Spiel von dieser Firma ans Herz legen (nicht jeder hat das Zeug zum Chirurgen). Aber ich würde id-software noch am ehesten zutrauen, daß man alle vorhandene Hardware nutzt und keine künstlichen 'Türstopper' (zB. XP/Vista-only-Installer) einbaut. Eine Option wie 'Ultra-High Quality' hätte bei manchen Publishern (ich möchte jetzt keine Namen nennen, sonst könnten sich am Ende noch alle angesprochen fühlen) niemals grünes Licht bekommen. Und wieviele Spiele lassen sich heute noch wie zB. Toom3/Cake4 problemlos unter Linux installieren und spielen?
Ne ne - dort sind Kästchenfüller am werkeln. Die sagen sich: Das Spiel soll in dem und dem Rahmen funktionieren und alle die drunter liegen, werden rausgekegelt und Leute, die heute schon mehr im Rechner stecken haben, als das, was sich der gemeine Pöbel (=Zielgruppe Nr.1) so leisten kann, werden dann auf den Nachfolger vertröstet.
So machen Unternehmer heute Kohle: Man verkauft ein und dasselbe geklaute Spielprinzip immer und immer wieder. Nur mit leicht höheren Anforderungen und Blick auf das breite Publikum. - Man will seine Fans ja nicht demoralisieren... Stichwort DX 10.1 - Mit den Idealen von echten Profis, die viel Zeit in ihre Projekte stecken, hat das nicht mehr viel zu tun - die meisten wissen ja schon am ersten Tag: der Nachfolger muß deutlich besser werden und ich muß auch noch einen Patch liefern, der mindestens alles nochmal deutlich verbessert, oder ich bin meinen Job hier los. Würdet ihr unter solchen Konditionen noch euer Bestes geben? - Ich sag nur - Stichwort: Endlosbaustelle...
WER HAT GOTHIC 3 GESAGT?!!!
Hab ich eben gothic 3 gehört? - oder sind das die Stimmen in meinem Kopf? :upara:
PS: Wenn ihr einen Job in dem Bereich habt, dann antwortet jetzt lieber nicht, oder nur als Gast. ;)
Ein an sich wirklich gelungenes Spiel, ABER : Da quält man sich mit Highendequipment (8800GTX,8800GTS,8800GT1Gig, 3 und 4GB Ram) und neuester Hardware (E8400, E6600) bei 1-10 FPS durch ein Spiel, welches nicht mal beim abschließenden Score-Bildschirm (welcher übrigens keinerlei Animationen aufweist - nur nakte Zahlen) nicht über 14 FPS pro Sekunde hinauskommt. Selten haben 'Standbilder' so gut ausgesehen - ja - das ist jetzt kein schlechter Witz/Bashing. - Ich habe einen 1680x1050 TFT und mir deswegen extra eine neue Graka gekauft - und das ach so tolle Spiel schafft es nichtmal ein popliges jpeg-Standbild mit der Score bei 60 FPS darzustellen.
Seltsam, ich hab bei SC bei 1280x960 +4xAA+TRSSA immer > 30fps
zocke aber auch nur 1on1
Madkiller
2008-05-20, 16:47:44
Viele machen den Fehler, Ergebnisse auf 8x6 auch wenn sie aus WorstCase-Savegames gewonnen wurden, gleich von vorne herein als "praxisfremd" und deswegen nicht aussagekräftig abzutun.
Daweil kommt es sehr auf den Wert an, der bei 8x6 ermittelt wird. Ist der bei allen Szenen im flüssigen Bereiche, kann man sehr wohl sagen: Wayne? Obwohl man selbst dann immer noch sehen kann, wieviel Luft man hat, bzw wie es etwa mit schwächeren CPUs aussieht.
Wenn dieser CPU-limitierte Wert aber nichtmehr im (einwandfrei) flüssigen Bereich ist, weiß man aber verdammt genau, daß dieser Wert durch keine GraKa erhöht werden kann, und diese Szenen nicht (einwandfrei) spielbar sind.
Und genau dann werden diese Werte richtig und wichtig. Für diese Erkenntniss sollte man offen sein.
Piffan
2008-05-21, 00:45:23
Die unsinnigen Testkonstellationen zeigen doch nur, dass die Tester keine richtigen Zocker sind. Jeder Vielzocker ist sich darüber im Klaren, dass die Benches mit ihren Mittelwerten keine Relevanz aufweisen. Wenn man denn in "praxisnahen" Auflösungen arbeitet, dann auch in praxisnahen Taktzahlen UND nur die Minima auswerten.
Einstellungen und Benches mit "glättender" Wirkung, die dann zu falschen Aussagen führen wie "die Graka ist wichtiger als der Proz", sind viel praxisferner als durchdachte Tests, die einen klaren Fokus auf bestimmte Komponenten setzen. Will ich Prozis testen, muss ich eben den Einfluss der Graka zurückdrängen, umgekehrt das gleiche, sprich zum Testen der Graka neben einem schnellen Proz möglichst hohe Auflösungen wählen......Höchst erstaunlich finde ich auch immer wieder, dass selbst in diesem Forum, wo ich jetzt mal echte Spielpraktiker vermuten würde, totale Falschaussagen kommen.
Vielen ist wohl nicht klar, dass das schwächste Glied in der Kette die maximale Performance bestimmt.....Zwar kann eine schnelle Graka die MITTELWERTE prima heben, aber die kritischen Stellen mit CPU- Limitierung bleiben oft schmerzhaft niedrig.
puntarenas
2008-05-21, 02:06:57
Höchst erstaunlich finde ich auch immer wieder, dass selbst in diesem Forum, wo ich jetzt mal echte Spielpraktiker vermuten würde, totale Falschaussagen kommen.
Noch erstunlicher finde ich, dass ein unsinniger Test wie dieser Artikel bei ComputerBase veröffentlicht wird und dann im Netz bleibt. In den Kommentaren wurden die Fehler später ja Stück für Stück aufgedröselt, als Antwort kam schließlich, es solle auch gar kein CPU-Test sein. Ein kleines Highlight aus dem Abschnitt zu Crysis, soviel Schadenfreude muss erlaubt sein:
Auch wenn die Einstellung „Very High“ für viele (vor allem günstigere) Grafikkarten unspielbar ist, haben wir uns dennoch für die höchste Qualitätsstufe entschieden, um selbst mit zukünftigen Grafikkarten keine CPU-Limitierung bei gewährleisteter Vergleichbarkeit zu schaffen.
Ist auch gelungen, mit 1, 2, 3 oder 4 Kernen erhält man stets das gleiche Ergebniss :devil:
Dein Argument, dass die Tester offenbar keine richtigen Scotsmen Zocker sind, lasse ich hinsichtlich der Mittelwerte ja gelten, aber ein derartiges Testsetup zeugt entweder von Ignoranz, oder von Unwissenheit. Zweiteres wäre keine Schande, wenn die Fehler dann behoben würden, der Artikel heißt wohlgemerkt "1, 2, 3 oder 4 CPU-Kerne?" und zieht ja auch ein Fazit im Hinblick auf CPUs.
Außerdem ist es ein Trauerspiel, denn ich kann mir gut vorstellen, dass viel Zeit und Aufwand in die Messungen und das Schreiben investiert wurden, gut gemeint ist halt trotzdem nicht immer gut gemacht. Vielleicht schreibt jemand mit dem nötigen Background ja mal einen Grundsatzartikel auf 3DCenter.org (oder PCGH, who knows?!), viele Gamer scheinen ja immernoch einen mystischen Zusammenhang zwischen CPU und GPU zu vermuten, aus dem sich dann auf magische Weise die FPS ergeben. Aufklärung in Sachen CPU-Limit, GPU-Limit und worauf man bei Performancemessungen der jeweiligen Komponente achten muss, wäre sehr lobenswerte Basisarbeit, auch wenn sowas eher zäh sein mag für die Cracks.
Ich will hier übrigens gern gestehen, dass mir auch nicht auf Anhieb klar war, worauf die Crew bei ihren 640x480-Messungen in den Performancereports hinaus wollte, allzu schwer ist es dann aber doch nicht zu verstehen.
Piffan
2008-05-21, 09:34:30
Madkiller hat das doch mal so schön aufgezwirbelt. Im Rahmen einer Kaufberatung: Wie sinnvoll aufrüsten oder so ähnlich.....
Interessant wäre für mich mal eine Untersuchung, wie weit der DX10- Modus die Prozis entlasten kann. Eigentlich sollte doch die Last der CPU geringer werden, ergo würde sich der Einfluss der Graka erhöhen......stichwort Geometrieshader. Verändert sich dadurch der Load zwischen Graka und CPU? Oder andersrum, könnte eine starke Vielkern- CPU eine schwächelnde Graka entlasten.
Bei der PS3 wird doch diskutiert, ob die GPU bei geschickter Programmierung durch die CPU entlastet werden kann.
Edit: Gerade bei der Grafik können die Vielkerner auftrumpfen. Welcher Bereich sonst in der Engine ist so schön parallelisierbar? Intel weiß genau, warum sie so geil auf Raytracing etc sind.
Madkiller
2008-05-21, 15:12:19
Madkiller hat das doch mal so schön aufgezwirbelt. Im Rahmen einer Kaufberatung: Wie sinnvoll aufrüsten oder so ähnlich.....
Jap, ne schlichte Version von so nem "Grundsatzartikel" kann man hier finden:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=337813
Alleine das Beispiel UT3. Massig Tests im Internet "Beweisen", dass die CPU fast egal ist. Timedemo und average fps sei Dank. Derweilen dümpelt mein 2.4 GHz Dual-Core mit X1900XT im echten Spiel zwischen 14 und 35fps umher.
Also X2900XT und GF8800 GTS eingebaut und auf 60+fps gefreut. Denkste!
14-45fps. Gefühlter Unterschied: Nahezu Null....
Alter - da rennt aber was falsch. Ich hab einen E6300@1.86 was UNGEFÄHR Deinem DC@2,4 entsprechen sollte, hab auch eine 8800GTS (320) und hab in UT bei Texture 4 und WorldDetail4 praktisch immer zwischen 70 und 100 bei durchschnittlich 75. Und auch nur nicht mehr weil ich gegen die 100HZ Refreshrate renn.
Ich hab mal eben einen frabs-bench gemacht in einem normalen Game und ich bin AB UND ZU mal in den 50ern für ein paar frames aber das wars dann schon.
Da liegen doch welten zwischen uns". Das kann doch nicht sein...
MasterElwood
BlackBirdSR
2008-05-23, 12:00:07
Alter - da rennt aber was falsch. Ich hab einen E6300@1.86 was UNGEFÄHR Deinem DC@2,4 entsprechen sollte, hab auch eine 8800GTS (320) und hab in UT bei Texture 4 und WorldDetail4 praktisch immer zwischen 70 und 100 bei durchschnittlich 75. Und auch nur nicht mehr weil ich gegen die 100HZ Refreshrate renn.
Ich hab mal eben einen frabs-bench gemacht in einem normalen Game und ich bin AB UND ZU mal in den 50ern für ein paar frames aber das wars dann schon.
Da liegen doch welten zwischen uns". Das kann doch nicht sein...
MasterElwood
Mit Bots, auf Warfare und CTF Maps?
Es gab auch hier im Thread schon posts, die das bestätigen. + Massig Posts im ofiziellen Epic-Forum zu genau dem Thema (Detaileinstellungen bringen keine Performance, da CPU zu langsam)
Um es mit deinen Worten zu sagen:
Alter - da rennt was falsch!
schick mir eine ctf-map, anzahl der bots und video-einstellungen und ich mach mal gleich ein spielchen....
LG
MasterElwood
Chris2CB
2008-05-23, 12:31:52
Alter - da rennt aber was falsch. Ich hab einen E6300@1.86 was UNGEFÄHR Deinem DC@2,4 entsprechen sollte, hab auch eine 8800GTS (320) und hab in UT bei Texture 4 und WorldDetail4 praktisch immer zwischen 70 und 100 bei durchschnittlich 75. Und auch nur nicht mehr weil ich gegen die 100HZ Refreshrate renn.
Ich hab mal eben einen frabs-bench gemacht in einem normalen Game und ich bin AB UND ZU mal in den 50ern für ein paar frames aber das wars dann schon.
Da liegen doch welten zwischen uns". Das kann doch nicht sein...
MasterElwood
Kannst du mal ein ingame Video machen. VCTF Suspense 19 - 29bots auf mittel. min. 50fps sind mehr als unglaubwürdig in UT. Die Serie gibst jetzt schon 9 Jahre lang und CPU Leistung war und ist dort schon immer Mangelware gewesen.
Je nach Level und Bots, oder online ist bei mir mit 2,6gHz DC/2gb Ram, 3870, win XP, von 150 - 10fps alles vertreten.
Kannst du mal ein ingame Video machen. VCTF Suspense 19 - 29bots auf mittel. min. 50fps sind mehr als unglaubwürdig in UT. Die Serie gibst jetzt schon 9 Jahre lang und CPU Leistung war und ist dort schon immer Mangelware gewesen.
Je nach Level und Bots, oder online ist bei mir mit 2,6gHz DC/2gb Ram, 3870, win XP, von 150 - 10fps alles vertreten.
Also ich hab die map mal getestet mit 25 bots auf mittel, 1280x960 0xAA 8xAF Textur4 World4 und komm lt. fraps auf min.29 max 95 avg 55.
hab mir aber das fraps file durchgesehen und bin aber wirklich SEHR SELTEN in den 30ern. Ausser bei 2 spitzen nach unten ist mein wirkliches minimum in den 40ern.
Zuviel für meinen E6300@1.86?
Auf jeden Fall viel besser als BlackBird sein vergleich....
MasterElwood
Chris2CB
2008-05-23, 16:35:54
Details auf Max. Soundquali auf max.
Suspense VCTF mit 29bots. min. 15fps, avg 35fps
X2 5000(G2)
3870
2gb RAM
bisschen OT: is es wahr das man gegen das fehlende AA in UT3 unter XP mix tun kann?
MasterElwood
drmaniac
2008-05-25, 14:50:41
siehe UT3 Thread in Gamezone. nein.
hoffentlich wird da noch weiter optimiert für triples und quads denn am blatt papier sieht das in meinen augen noch ziemlich sinnlos aus.
vor allem die d3d 10 benchmarks sind erschreckend.
die skalieren ja so dermassen schlecht... unglaublich.
da derzeitige high end engines aber nicht optimiert sind auf 3-4 cores und spiele in den nächsten jahren weiterhin auf ihnen entwickelt werden gehe ich davon aus das es noch jahre dauert bis triple und quads auch in spielen sinn machen.
alles unter 50% konstanter mehrleistung ist nicht wirklich ein sprung nach vorne in meinen augen.
ich hab nicht vor eine 200 watt 8 fach cpu zu verwenden um dann im gegensatz zu einem single core 25% mehr frames zu haben.
unproduktiver und technisch noobhafter gehts ja kaum mehr. :|
mapel110
2008-06-02, 15:02:59
Du musst halt Unreal Tournament 3 mit vielen Bots spielen, dann lohnt sich ein Quad. :ugly:
Details auf Max. Soundquali auf max.
Suspense VCTF mit 29bots. min. 15fps, avg 35fps
X2 5000(G2)
3870
2gb RAM
Gibt es die map auch in der Demo ?
Gibt es die map auch in der Demo ?
Ja
Gibt es die map auch in der Demo ?
So ich hab es mal gebencht.
1680x1050, alles max. ,16xAF
Suspense VCTF 30 Bots
X3350@3,2ghz
HD3870@880/1250
2Gb Ram
http://www.abload.de/img/ut3glf.jpg
http://i.i.com.com/cnwk.1d/i/blog2/20061113/8coresMac-1163461173905-440_330.GIF
:D
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.