Archiv verlassen und diese Seite im Standarddesign anzeigen : Singlecore vs Dualcore in Games - die pure Wahrheit
dargo
2006-10-16, 19:12:05
Hallo.
Mich hat schon immer interessiert wie gut Games vom Dualcore Prozessor profitieren. Und ich bin sicher nicht der Einzige hier.
Deswegen habe ich mir die Mühe gemacht und paar Games getestet.
Ganz wichtig!
Die Benches mit Singlecore sind mit Vorsicht zu genießen. Der Core 2 Duo benutzt dabei den gesamten shared Cache (in diesem Fall 2MB). Dh. die Ergebnisse mit Singlecore wären in Wirklichkeit etwas geringer bzw. der Unterschied zwischen Singlecore und Dualcore etwas größer.
----------------------------------------------------------------------------------------------------------------------------------------------------
Bitte beachten!
Stellt euch (während ihr spielt) einen Frameverlauf, ähnlich wie hier vor:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=356137
Bei den tiefen Werten kommt man meistens immer näher einem CPU-Limit entgegen, zumindest in stressigen Szenen mit zb. viel KI, Physik. Und genau diese (je nach Game) tiefen/unspielbaren Frames soll eine schnellere CPU abfangen. Schießlich beeinflussen diese tiefen Frames die Spielbarkeit sobald man einen gewissen Wert unterschreitet. Dabei spielt es in erster Linie keine Rolle wieviele Cores die CPU besitzt.
Um überhaupt einen Unterschied bzw. den Vorteil von mehr CPU Leistung (in diesem Fall mehr Cores) zu sehen muss ich ein 100%-iges CPU-Limit erzeugen. Die CPU kann nichts dafür wenn die Grafikkarte höhere Frames verhindert. Im Umkehrschluss sollte man natürlich bei Grafikkartentests ein 100%-iges GPU-Limit erzeugen. Alles andere macht einfach keinen Sinn.
----------------------------------------------------------------------------------------------------------------------------------------------------
Das Testsystem:
Allendale E6400
Gigabyte GA-965P-S3
2x 1GB Aeneon DDR2-667 5-5-5-15
Powercolor X1900XT 512MB
Teil 1:
Testverfahren:
Es wurden ausschließlich (außer bei GTR 2) Savegames verwendet. Das Savegame bzw. die Timedemo wurde 5x hintereinander geladen. Gemessen wurde erst nachdem das Savegame bzw. die Timedemo zum zweiten mal geladen war. Aus den 4 Messungen wurde ein Durchschnitt ermittelt.
Bei 2133Mhz CPU-Takt läuft der Speicher mit dem Teiler 4:5 (333Mhz) und bei 3300Mhz CPU-Takt mit dem Teiler 2:2 (412Mhz).
Nun zu den Benches:
GTR 2 - Replay (Timedemo) mit 42 Fahrzeugen und maximalen Details, Tagfahrt ohne Regen
http://thumbnails.keepmyfile.com/30/11744207215125ce.gif (http://www.keepmyfile.com/image/5125ce1490631)
GTR 2 - Savegame (gleiche Strecke und Settings wie bei der Timedemo)
http://thumbnails.keepmyfile.com/30/1174420786ace05b.gif (http://www.keepmyfile.com/image/ace05b1490632)
Quake 4 - Savegame 'Aqueducts' mit maximalen Details (High Quality)
http://thumbnails.keepmyfile.com/30/1174420817c4b244.gif (http://www.keepmyfile.com/image/c4b2441490633)
Need for Speed: Most Wanted - Drag Rennen mit maximalen Details
http://thumbnails.keepmyfile.com/30/1174420859b60909.gif (http://www.keepmyfile.com/image/b609091490634)
Call of Duty 2 - Savegame 'Telefonkabel-Reparatur' mit maximalen Details
http://thumbnails.keepmyfile.com/30/1174420892eb3947.gif (http://www.keepmyfile.com/image/eb39471490635)
Erstaunlich finde ich vorallem den Leistungszuwachs durch Dualcore bei Quake 4 solange die Grafikkarte nicht limitiert (in 1280x1024 selbst eine X1900XT :cool: ).
Was mich aber auch sehr überrascht hat ist die Tatsache, dass in NfS-MW und CoD 2 ein Allendale Dualcore mit 2133Mhz praktisch genauso schnell ist wie ein Allendale Singlecore mit 3300Mhz.
Teil 2:
Alle weiteren Tests erfolgen mit 1867Mhz (7x266) und dem Speicherteiler 1:1 (266Mhz) in der kleinstmöglichen Auflösung, die das Game bietet ohne AA/AF. Erzielt ein Game, aufgrund von ATIs Optimierungen, in der Auflösung 1024x768 höhere Werte wird zusätzlich Diese gebencht.
Nur so kann ich verhindern, dass die X1900XT das Ergebnis verfälscht, also eine Grafikkarten-Limitierung komplett ausschliessen.
Testverfahren:
Es wurden ausschließlich Savegames verwendet. Das Savegame wurde diesmal 7x hintereinander geladen. Gemessen wurde erst nachdem das Savegame zum zweiten mal geladen war. Aus den 6 Messungen wurde ein Durchschnitt ermittelt. Es werden nur noch die avg. fps übernommen da es bei den min. fps, bedingt durch das Messverfahren, zu große Abweichungen gibt.
Die Benchmarks:
Quake 4 - Savegame 'Aqueducts' mit maximalen Details (High Quality)
http://666kb.com/i/amslqtmdeiol4zdc4.png
Call of Duty 2 - Savegame 'Telefonkabel-Reparatur' mit maximalen Details
http://666kb.com/i/amslrsye56k2u7dj8.png
GTR 2 - Savegame mit 42 Fahrzeugen und maximalen Details, Tagfahrt ohne Regen
http://666kb.com/i/amslscxcs8jyw1hdw.png
Call of Juarez - Savegame 'Episode XIV' mit maximalen Details
http://666kb.com/i/amslt8od8145yxsuc.png
Need for Speed: Most Wanted - Drag Rennen mit maximalen Details
29350
Prey - Savegame 'Besessenheit' mit maximalen Details
29387
El Matador - Savegame 'Prolog' mit maximalen Details (Soft Shadows off)
29352
Hitman: Blood Money - Savegame 'Erntezeit' mit maximalen Details
29353
Condemned: Criminal Origins - Savegame 'Weisman-Bürogebäude' mit maximalen Details (Soft Shadows off)
29358
Weitere Games (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4946482&postcount=151)
Super Grobi
2006-10-16, 19:20:59
Und jetzt? Sollte doch jeder wissen, das DC in Games ohne DC Unterstützung nichts bringt. Quake4 hat mit dem letzten Patch eine gescheite DC Unterstützung bekommen.
SG
Kladderadatsch
2006-10-16, 19:27:05
danke für die mühe!:)
hier sind gerade die min fps interessant, und ich hätte nicht gedacht, dass es bei 12x10 und 4xaa in cod2 noch derart cpu-limitierte szenen gibt! (wenn man bedenkt, dass das so gut wie rein gpu-limitiert ist und dennoch ein unterschied von 5 fps besteht- wie stark da dann die wenigen cpu-limitierten stellen reinhauen müssen)
BadFred
2006-10-16, 19:31:32
Und jetzt? Sollte doch jeder wissen, das DC in Games ohne DC Unterstützung nichts bringt. Quake4 hat mit dem letzten Patch eine gescheite DC Unterstützung bekommen.
SG
Offensichtlich hast du kein einziges Bild oben angeschaut... :rolleyes:
Super Grobi
2006-10-16, 19:33:03
Offensichtlich hast du kein einziges Bild oben angeschaut... :rolleyes:
Wieso? Weil die Graka-Treiber mit DC besser laufen?
SG
dargo
2006-10-16, 19:33:30
Und jetzt? Sollte doch jeder wissen, das DC in Games ohne DC Unterstützung nichts bringt. Quake4 hat mit dem letzten Patch eine gescheite DC Unterstützung bekommen.
Es gibt zwei Möglichkeiten.
1. Du hast den Test nicht richtig gelesen.
2. Du hast den Test nicht richtig gelesen.
;)
Schau dir nochmal in aller Ruhe die Benches an. Need for Speed - Most Wanted profitiert bis zu ~31% vom Dualcore. Call of Duty 2 sogar bis zu ~49%. Dabei bitte immer daran denken, dass der C2D im Singlecore-Modus mit vollen 2MB Cache gelaufen ist und es möglich ist, dass es noch cpu-lastigere Szenen im Spiel geben kann. ;)
Hm, zumindest CoD 2 ist gepatcht auch "partiell" DC-optimiert. In GTR 2 sieht man IMO das, was der Treiber raushaut.
Dank auch von mir! Ich wünsche mir solche Vergleiche schon ewig ... aber innerhalb der Benchthreads in unserem Unterforum. Da postet nur nach ewiger Bettelei jemand so einen Vergleich. Dabei wäre das das Erste, was ich bei Erhalt eines DCs und eines neuen Spiels testen würde ...
MfG,
Raff
dargo
2006-10-16, 19:41:25
Ich wünsche mir solche Vergleiche schon ewig ... aber innerhalb der Benchthreads in unserem Unterforum. Da postet nur nach ewiger Bettelei jemand so einen Vergleich. Dabei wäre das das Erste, was ich bei Erhalt eines DCs und eines neuen Spiels testen würde ...
Es ist verdammt aufwändig mit Savegames zu arbeiten. Das wird wohl der Grund sein weswegen es bis jetzt, außer dem Artikel von Madkiller über Timedemos, keiner gewagt hat. Ich brauchte dafür schon einige Stunden.
@Super Grobi
Achte bitte vor allem auf den Vergleich mit 2133Mhz CPU-Takt. Bei 3300Mhz CPU-Takt nimmt der Vorteil von DC ab, was auch logisch ist. Je schneller die CPU desto eher fängt die Grafikkarte an zu limitieren.
AnarchX
2006-10-16, 19:54:19
Wirklich mal ein sehr informativer Vergleich, wo auch mal auf die richtige Weise gebencht wurde... :up:
Ich hoffe doch dass du mit der Zeit noch vielleicht weitere Werte ergänzst ? ;)
Wieso? Weil die Graka-Treiber mit DC besser laufen?
SG
also wenn, dann würde dualcore die GPU entlasten aber die treiber laufen nicht "besser"
wenn ich das schon lese ...
:rolleyes:
aber sehr schoner test :up:
Ganz wichtig!
Die Benches mit Singlecore sind mit Vorsicht zu genießen. Der Core 2 Duo benutzt dabei den gesamten shared Cache (in diesem Fall 2MB). Dh. die Ergebnisse mit Singlecore wären in Wirklichkeit etwas geringer bzw. der Unterschied zwischen Singlecore und Dualcore etwas größer.
nicht wirklich, wenn nur 1 aufwändige anwendung läuft ist es sehr wahrscheinlich, dass im cache großteils auch daten von dieser anwendung sind, egal ob im single- oder dualcorebetrieb.
ein single-core mit nur dem halben cache wäre natürlich potentiell langsamer.
Super Grobi
2006-10-16, 20:07:46
also wenn, dann würde dualcore die GPU entlasten aber die treiber laufen nicht "besser"
wenn ich das schon lese ...
:rolleyes:
aber sehr schoner test :up:
Prima, noch ein paar die mich jetzt noch 8437547 mal eines besseren beleren wollen?
SG
dargo
2006-10-16, 20:30:19
nicht wirklich, wenn nur 1 aufwändige anwendung läuft ist es sehr wahrscheinlich, dass im cache großteils auch daten von dieser anwendung sind, egal ob im single- oder dualcorebetrieb.
ein single-core mit nur dem halben cache wäre natürlich potentiell langsamer.
Das wollte ich damit eigendlich ausdrücken. :)
BlackBirdSR
2006-10-16, 22:22:31
Wie hast du den Single-Core simuliert?
Wenn du per Numproc=1 machst, hast du wahrscheinlich den gesamten Cache für die CPU alleine.
Ansonsten (besonders aber per Affinität) sollte sich an der Cache-Verteilung nicht viel ändern.
@Games:
Company of Heroes ist noch einen Test wert falls du das hast.
Ich habe ca 40% gemessen, so pi mal Daumen.
Bei K8@1.2GHz DC lässt es sich sogar mit 3 KI Spielern bei max Details ohne EInbußen spielen ;)
A.Wesker
2006-10-16, 22:44:08
den quake 4 bench mit AA/AF kann ich nicht bestätigen, habe da trotzdem durch dualcore noch einen gewaltigen Performanceschub.
Ansonsten (besonders aber per Affinität) sollte sich an der Cache-Verteilung nicht viel ändern.
In der Tat, interessante Frage. Wenn er's per Affinität "simuliert" hat, wirkt sich das ja auch beispielsweise nicht auf die DC-Optimierungen im Grafikkarten-Treiber aus, d.h. die Single-Core-Benches wären keine reinen Single-Core-Benches.
Ich frage mich ja immer noch, warum man nicht schon im Mobo-BIOS einen Kern ausschalten kann. Ist das denn unmöglich?
MfG,
Raff
ASrock_User
2006-10-16, 23:31:44
Ich frage mich ja immer noch, warum man nicht schon im Mobo-BIOS einen Kern ausschalten kann. Ist das denn unmöglich?
MfG,
Raff
Laos, bei meinem ASRock deaktiviere ich einfach den DualCore Support im Bios und schwups wird mir überall nur noch ein Core angezeigt. Ob das alles in der Realität allerding sso 100% stimmt habe ich noch nicht getestet. dafür fehlt mir momentan die Zeit.
Gruß
ASrock_USer
Armaq
2006-10-16, 23:37:27
Dargos Messungen bestätigen was ich auch schonmal erwähnt habe im Zusammenhang mit den Minimum-fps bei CS:S. Durch das auslagern der anderen Programme läuft das Spiel schneller. Das kann ich nach einigen Stunden mit DC einfach mal so festhalten.
Wishnu
2006-10-17, 00:09:26
danke für die mühe!:)
hier sind gerade die min fps interessant, und ich hätte nicht gedacht, dass es bei 12x10 und 4xaa in cod2 noch derart cpu-limitierte szenen gibt! (wenn man bedenkt, dass das so gut wie rein gpu-limitiert ist und dennoch ein unterschied von 5 fps besteht- wie stark da dann die wenigen cpu-limitierten stellen reinhauen müssen)
Irgendwie kommt mir das ein bissl komisch vor, denn bei 640x480 sind es ja noch 80fps (bei 2133Mhz Single-Core), also sollte da doch Reserven vorhanden sein? Warum bricht der Wert dann auf 45 fps ein, also sehr deutlich darunter und 5fps weniger als bei den anderen Konstellationen? Nagt die Auflösung doch so sehr an der CPU? Ich dachte immer, das ginge nur auf die Graka.
Ansonsten sind die Benchs ein sehr schönes Beispiel für mich, dass die meisten C2Ds bei Quali-Einstellungen (in Verbindung mit einer x1900xt) so gut wie gar keinen Vorteil bringen. Sprich wenn ich mir einen E6400 zulege, kann ich mir das Übertakten beim Zocken sparen. :)
Muh-sagt-die-Kuh
2006-10-17, 00:18:03
Ich frage mich ja immer noch, warum man nicht schon im Mobo-BIOS einen Kern ausschalten kann. Ist das denn unmöglich?
MfG,
RaffNein, aber überflüssig. Der Switch /NUMPROC=1 in der boot.ini erledigt das ganze eleganter ;)
Hvoralek
2006-10-17, 01:00:02
@Super Grobi
Achte bitte vor allem auf den Vergleich mit 2133Mhz CPU-Takt. Bei 3300Mhz CPU-Takt nimmt der Vorteil von DC ab, was auch logisch ist. Je schneller die CPU desto eher fängt die Grafikkarte an zu limitieren.Es ist viel sinnvoller, den Zugewinn durch einen zweiten Kern in "Taktfrequenzäquivalent" auszudrücken statt in Prozent. Ich fand es zB lustig, als einige Seiten bei der Beurteilung des Q4- DC- Patches mit einem High- End- DC in SXGA testeten und dann natürlich keine großen Leistungssprünge feststellen konnten. Hätte man damals versucht, mit einem Kern dieselben Leistungssteigerungen zu erreichen, wäre die weitgehende GraKa- Limitierung aufgefallen ... :rolleyes:
In NFS:MW kann ein zweiter Kern die 54% Taktdifferenz fast vollständig ausgleichen, in Q4 und CoD2 bringt er sogar mehr als der Takt. Dh also in einem Fall kompensiert ein zweiter Kern geschätzte 50% Taktfrequenz, in den beiden anderen etwa 60 bzw. 70%. Das hätte ich in der Deutlichkeit nicht erwartet.
@Wesker: Deine GX2 dürfte in Q4 auch ein ganzes Stück kräftiger sein als eine X1900.
In NFS:MW kann ein zweiter Kern die 54% Taktdifferenz fast vollständig ausgleichen, in Q4 und CoD2 bringt er sogar mehr als der Takt. Dh also in einem Fall kompensiert ein zweiter Kern geschätzte 50% Taktfrequenz, in den beiden anderen etwa 60 bzw. 70%. Das hätte ich in der Deutlichkeit nicht erwartet.
Ich ehrlich gesagt auch nicht, aber in der Praxis ist der vorsprung ja fast verschwindend gering, da die Graka limitiert, wer spielt schon auf 640x480 :D
Nichts neues meiner Meinung nach.
Es war doch klar, das zumindest die Dual Cores nicht nur die Performance in Form eines zweiten Kerns haben (können), sondern zudem auch bei Anwendungen nutzen, die nicht davon profitieren.
Das Auslagern des Betriebssystems und der anderen laufenden Prozesse bringt schon einiges. Bei einem Single Core kann da die Auslastung schon zwischen 1 und 10% schwanken, das fällt dann weg.
Allerdings erachte ich es als wenig sinnvoll, den zweiten Kern zu deaktivieren, um den Cache alleinig für einen Kern zu haben. Dafür sind die Vorteile des zweiten Kerns einfach zu groß.
Beim Core 2 Duo wird sowieso nach Bedarf aufgeteilt und das ist auch gut so, denn so können Betriebssysteme, Prozesse und die Treiber zusätzlichen Bonus aus dem zweiten Kern ziehen.
Was ich mich allerdings frage: Warum nur die Grafiktreiber?
Man könnte doch auch die Berechnungen von Onboard Sound, von der Netzwerkkarte usw. auslagern. Warum sind da noch keine neuen Treiber erschienen, die das ausnutzen?
BlackBirdSR
2006-10-17, 06:29:22
Was ich mich allerdings frage: Warum nur die Grafiktreiber?
Man könnte doch auch die Berechnungen von Onboard Sound, von der Netzwerkkarte usw. auslagern. Warum sind da noch keine neuen Treiber erschienen, die das ausnutzen?
Weil es unkritisch und ohne großen Nutzen für die Hersteller ist.
onboard-sound beansprucht Performance, genau wie andere Treiber. Aber die Auswirkungn sind relativ gering, so dass es Endkunden nicht spüren. Und die meisten Spieler kaufen sich eine extra Soundkarte.
Man hätte also Entwicklungsaufwand und 0! Nutzen daraus. Weder mehr Absatz noch qualitativ einen Vorteil.
Und wie der Markt nunmal so ist bedeutet das: Kein Interesse an Multithreading in naher Zukunft.
Weil es unkritisch und ohne großen Nutzen für die Hersteller ist.
onboard-sound beansprucht Performance, genau wie andere Treiber. Aber die Auswirkungn sind relativ gering, so dass es Endkunden nicht spüren. Und die meisten Spieler kaufen sich eine extra Soundkarte.
Tut mir leid, aber ich empfinde das als Falschaussage. Schau mal in die 3D Center News, da gabs einen Testbericht zu einer Netzwerkkarte mit eigenen Chip und Speicher.
Die Prozessorentlasung war enorm.
Ebenso habe ich schon mehrmals Tests zwischen onboard und normaler Soundkarte gesehen, da sind 10% Unterschied keine Seltenheit.
Ich empfinde 15-20 % CPU Entlasung nicht als "unbedeutend". Das wäre etwa so, ob Du einen E6600 mit einem X6800 vergleichst!
Ich würde sogar so weit gehen und behaupten, das die Vorteile dieser beiden Komponenten noch größer wäre, als die Optimierungen des Grafiktreibers!
http://hardware.gotfrag.com/files/upload/shoes_killer_fearfps.jpg
BlackBirdSR
2006-10-17, 07:00:38
Tut mir leid, aber ich empfinde das als Falschaussage. Schau mal in die 3D Center News, da gabs einen Testbericht zu einer Netzwerkkarte mit eigenen Chip und Speicher.
Die Prozessorentlasung war enorm.
Ebenso habe ich schon mehrmals Tests zwischen onboard und normaler Soundkarte gesehen, da sind 10% Unterschied keine Seltenheit.
Ich empfinde 15-20 % CPU Entlasung nicht als "unbedeutend". Das wäre etwa so, ob Du einen E6600 mit einem X6800 vergleichst!
Ich würde sogar so weit gehen und behaupten, das die Vorteile dieser beiden Komponenten noch größer wäre, als die Optimierungen des Grafiktreibers!
http://hardware.gotfrag.com/files/upload/shoes_killer_fearfps.jpg
Tut mir leid, aber ich muss dir auch widersprechen.
15-20% fallen nicht im geringsten auf im Aldi, Lidl, Dell oder Saturn-PC. Die Käufer werden den Unterschied niemals spüren, da sie weder in solche Situationen kommen, noch die Grafikkarte schnell genug wäre.
Klar wäre das für uns ganz nett. Aber wer von uns will onboard-Sound?
Die von dir gezeigten Benches zur Killer sind für mich z.B total irrelevant.
1. average fps
2. 180+ fps ? Wer soll das spüren?
3. ist das enorm?
Natürlich würde das alles etwas bringen. Aber so wenig, dass es die Hersteller nicht wirklich interessiert.
Bereits jetzt ist der Kernel Multithreaded und anfallende Aufgaben werden an die zwei Kerne verteilt. Hat man davon sehr viel gespürt?
Und jetzt soll man Soundtreiber und Netzwerktreiber Multithreaded programmieren? Wo die vorher einen ganzen Kern für sich alleine hatten?
2. 180+ fps ? Wer soll das spüren?
Teile es einfach mal durch 10, ist das selbe.
16,97 vs. 18,11 fps. Ich finde schon, das man das merkt.
Dabei ist FEAR noch nicht mal ein Maßstab, ich hätte gern FarCry gesehen, da wäre der Unterschied noch größer.
3. ist das enorm?
Ja, ich finde schon. 10-20 % für NICHTS.
Man muss weder die Hardware tunen, noch irgendwelches Geld in bessere Kühlung investieren.
BlackBirdSR
2006-10-17, 07:09:28
Teile es einfach mal durch 10, ist das selbe.
16,97 vs. 18,11 fps. Ich finde schon, das man das merkt.
Dabei ist FEAR noch nicht mal ein Maßstab, ich hätte gern FarCry gesehen, da wäre der Unterschied noch größer.
Ja, ich finde schon. 10-20 % für NICHTS.
Man muss weder die Hardware tunen, noch irgendwelches Geld in bessere Kühlung investieren.
Ok, und geht es nun um einen speziellen ASIC der den WIndows layer ersetzt oder um Dual-Core-Optimierungen?
Ich will nichts gegen die Killer sagen, weil es anscheinend ein gutes Produkt ist. Wenn es wohl auch nicht sehr viel Absatz hat.
Aber gehen wir mal zurück auf Dual-Core. Bei 2 Kernen kann sich der Sound-Treiber oder der Netzwerklayer doch einen 2. Kern schnappen während man spielt.
Im speziellen für Onboard-Sound müsste man das nachmessen wieviel es bringt. Aber da fließen so viele anderen Sachen mit ein.
Aber gehen wir mal zurück auf Dual-Core. Bei 2 Kernen kann sich der Sound-Treiber oder der Netzwerklayer doch einen 2. Kern schnappen während man spielt.
Im speziellen für Onboard-Sound müsste man das nachmessen wieviel es bringt. Aber da fließen so viele anderen Sachen mit ein.
Aber das ist doch der Irrglaube.
Denn es wird in absehbarer Zeit Anwendungen geben, die den ersten und zweiten Kern vollständing auslasten, dann bleiben ja wieder die Berechnungen für Grafik, Sound, Netzwerk über und bremsen das ganze weiterhin.
Auch bei vier Kernen werden am Anfang kaum Anwendungen alle Kerne nutzen, aber spätestens dann, wenn sie es tun, gehen ja widerum 20 bis 30 % für Grafik, Sound, Netzwerkberechnungen drauf, die eigentlich nicht sein müssten.
Wenn wir jetzt mal zurückblicken, sehen wir schnell, das diese 20 bis 30 % ganz schön viel sein können. Das entsprach teilweise dem Unterschied, der damals zwischen einem Athlon und einem Pentium 4 in Games bestand. Also ich hätte nicht drauf verzichten wollen.
BlackBirdSR
2006-10-17, 08:22:59
Aber das ist doch der Irrglaube.
Denn es wird in absehbarer Zeit Anwendungen geben, die den ersten und zweiten Kern vollständing auslasten, dann bleiben ja wieder die Berechnungen für Grafik, Sound, Netzwerk über und bremsen das ganze weiterhin.
Aber auch weiterhin wird es Superthreading etc geben. Ein Prozess muss auch bei 2 Threads Zeit für den Rest abgeben. Und auch hier stehen 2 Kerne zur Verfügung. Also bleiben genügend Resourcen zur Verfügung. Ein Multithreaded Sound-Treiber wird da auch nicht viel bringen.
Wenn wir jetzt mal zurückblicken, sehen wir schnell, das diese 20 bis 30 % ganz schön viel sein können. Das entsprach teilweise dem Unterschied, der damals zwischen einem Athlon und einem Pentium 4 in Games bestand. Also ich hätte nicht drauf verzichten wollen.
Langsam bitte. Es werden ja immer mehr. Zuerst sind es 10%, nun schon 30%? :tongue:
Killer alleine bringt nicht so viel, und durch Windows werden anfallende aufgaben ja bereits auf 2 Kerne verteilt. Also was genau forderst du jetzt?
Ein Treiber der auf 2 Kerne verteilt arbeitet, weil der erste durch den treiber voll ausgelastet wird?
Langsam bitte. Es werden ja immer mehr. Zuerst sind es 10%, nun schon 30%? :tongue:
Ja, stimmt ja auch. Grafik, Sound und Netzwerk. Oben war nur von Sound und Netzwerk die Rede.
dargo
2006-10-17, 10:19:38
Wie hast du den Single-Core simuliert?
Wenn du per Numproc=1 machst, hast du wahrscheinlich den gesamten Cache für die CPU alleine.
Ansonsten (besonders aber per Affinität) sollte sich an der Cache-Verteilung nicht viel ändern.
Den Singlecore-Modus habe ich per /numproc=1 simuliert. Deswegen habe ich oben auch erwähnt, dass ein Core dann den gesamten Cache nutzt.
Dafür gibt es aber einen einfachen Grund. Ich wollte es zuerst per Affinität machen, hat aber nicht richtig funktioniert. Wieso auch immer?
Per Affinität hatte ich die gleichen Frames in Quake 4, egal ob Singlecore oder Dualcore.
den quake 4 bench mit AA/AF kann ich nicht bestätigen, habe da trotzdem durch dualcore noch einen gewaltigen Performanceschub.
1. Du hast eine G7950GX2, ich eine X1900XT. Die Performance der Geforce sollte besonders in Quake 4 höher sein. Dh. sie limitiert später.
2. Es wird mit Sicherheit Szenen in Quake 4 geben wo eine höhere CPU-Limitierung vorhanden ist.
Das was ich gebencht habe sind nur 5 Sekunden eines Savegame.
Irgendwie kommt mir das ein bissl komisch vor, denn bei 640x480 sind es ja noch 80fps (bei 2133Mhz Single-Core), also sollte da doch Reserven vorhanden sein? Warum bricht der Wert dann auf 45 fps ein, also sehr deutlich darunter und 5fps weniger als bei den anderen Konstellationen? Nagt die Auflösung doch so sehr an der CPU? Ich dachte immer, das ginge nur auf die Graka.
Es ist ganz einfach. Ich habe ein Savagame (oder auch Szene) erwischt bei dem eine X1900XT noch nicht vollständig in 1280x1024 4xAA/AF Ingame mit einem E6400@2133Mhz (Singlecore) limitiert. Man sieht aber ganz gut, dass in dieser Szene eine X1900XT mit einem E6400@2133Mhz (Dualcore), oder E6400@3300Mhz (Singlecore) am Ende ist.
Ansonsten sind die Benchs ein sehr schönes Beispiel für mich, dass die meisten C2Ds bei Quali-Einstellungen (in Verbindung mit einer x1900xt) so gut wie gar keinen Vorteil bringen. Sprich wenn ich mir einen E6400 zulege, kann ich mir das Übertakten beim Zocken sparen. :)
Vergiss bitte nicht, dass das nur 5 Sekunden eines Savegame sind. Es wird sicherlich Szenen im Spiel geben wo die CPU ihre Leistung entfalten kann.
@Games:
Company of Heroes ist noch einen Test wert falls du das hast.
Ich habe ca 40% gemessen, so pi mal Daumen.
Das Spiel besitze ich leider nicht.
Wechselbalg
2006-10-17, 10:57:48
Was mich aber noch mal interessieren würde. Waren irgendwelche Anwendungen wie Virenscanner, Messenger oder ähnliches während der Testreihen aktiv, oder sind die Vorteile auch in diesen Dimensionen zu bemerken, wenn es so gut wie keine Hintergrundprogramme gibt?
Ansonsten wirklich ein schöner Test. :)
dargo
2006-10-17, 11:18:46
Es war nichts besonderes, außer ATT, im Hintergrund aktiv. Antivir war deaktiviert.
Aber eben solches sollte man Aktiviert lassen, vielleicht als Tipp für die Zukunft?
Persönlich haben für mich so die meisten Benches dann nur begrenzten Aussagegehalt, da im Praxis alltäglichen die Systemumgebung eben nicht Clean.
Auch mit anspielend auf so manch andere Hardware Seite und deren Test (wo zuvor immer Systeme neu/frisch aufgesetzt)
dargo
2006-10-17, 11:51:33
@L.ED
1. Der Virenscanner ist bei mir immer deaktiviert, zumindest wenn ich nicht online spiele.
2. Das System war bei mir nicht frisch aufgesetzt.
3. Im Prinzip ist es egal ob frisch aufgesetzt oder nicht. Es geht hier nicht speziell darum die max. möglichen Frames zu erzielen. Es ging mir nur darum beides unter gleichen Bedingungen zu testen.
Wishnu
2006-10-17, 12:12:42
Es ist ganz einfach. Ich habe ein Savagame (oder auch Szene) erwischt bei dem eine X1900XT noch nicht vollständig in 1280x1024 4xAA/AF Ingame mit einem E6400@2133Mhz (Singlecore) limitiert. Man sieht aber ganz gut, dass in dieser Szene eine X1900XT mit einem E6400@2133Mhz (Dualcore), oder E6400@3300Mhz (Singlecore) am Ende ist.
Dann hast Du die verschiedenen Auflösungen auch mit verschiedenen Szenen gebencht, oder wie? Gut, das würde das erklären.
Bisher war ich davon ausgegangen, dass Du jeweils die gleiche Timedemo hättest durchlaufen lassen, daher hatte mich das Ergebnis irgendwie irritiert.
Ah, ich Depp. Du schreibst ja am Anfang, dass Du keine Timedemos verwendest. Dann ist alles klar. :)
Ja ist schon richtig (hab das auch so Verstanden), ;) ging mir ja auch im 2then eher gleich, auch mal allgemein an dieser Stelle dazu mit zu äußern.
Bei meiner Arbeitsumgebung laufen Typischerweise immer, ein Virenkiller, Trillian, Skype, SpeedFan, Logitech Profiler, Setpoint, SpyBot resident, NV & XF-I schnell Steuerung , RAMASST (DVD-RAM HilfsTool)... und habe bestimmt noch was Vergessen?
Sicher von dem aufgeführten ist manches bei was außer Speicher normal keine Ressourcen sonderlich von der CPU (in Wartestellung), dann mehr benötigen wird? Aber nur um mal eine Typischere Arbeitsumgebung aufgezeigt zu haben? Bei vielen anderen sieht es sogar da noch sehr viel schlimmer aus (denn ich bin ja schon ein versierter Anwender und hab nicht jeden Schrott und Dienst im Autostart mit laufen) ;)
Und eben ja, ich schalte davon dann nix ab wenn ich mal ne Runde daddeln mag, bin nur der Meinung und wollte sagen das dessen doch Realistischer?
Aber es ist schön das sich Leute überhaupt die Zeit her nehmen um zu versuchen Aussagekräftigere Benches zu machen. Die meisten anderen mit ihren Lustigen Balken kannst ja total Vergessen (oder gleich die Glaskugel befragen). ;->
Noch zu erwähnen bei NFS:MW wäre wohl, dass das Spiel bei DualCore CPUs den Detailgrad erhöht und trotzdem noch soviel gewinnt. Man kann mit ordentlicher Programmierung einiges erreichen, auch in Games, das zeigen uns diese Benches.
Was ich mich allerdings frage: Warum nur die Grafiktreiber?
Man könnte doch auch die Berechnungen von Onboard Sound, von der Netzwerkkarte usw. auslagern. Warum sind da noch keine neuen Treiber erschienen, die das ausnutzen?
soundtreiber, netzwerktreiber, etc. haben alle ihre eigenen threads und werden deshalb vom betriebsystem auf einen freien kern zur ausführung gebracht, was natürlich unter umständen auch der kern sein kann auf dem die hauptanwendung gerade nicht läuft.
den soundtreiber selbst auch noch multithreaded zu machen hätte praktisch keinen sinn, da es kaum zusätzliche performance bringen kann.
Den Singlecore-Modus habe ich per /numproc=1 simuliert. Deswegen habe ich oben auch erwähnt, dass ein Core dann den gesamten Cache nutzt.
wenn du den single-core nur per cpu-affinität simulieren würdest, hätte das ja auch wenig sinn, da dann zwar der eine prozess zwingend auf einem kern ausgeführt wird, alle anderen prozesse aber noch immer auf den 2. kern ausgelagert werden können, was natürlich die performance steigern kann.
dargo
2006-10-17, 16:52:22
Noch zu erwähnen bei NFS:MW wäre wohl, dass das Spiel bei DualCore CPUs den Detailgrad erhöht und trotzdem noch soviel gewinnt. Man kann mit ordentlicher Programmierung einiges erreichen, auch in Games, das zeigen uns diese Benches.
Hmm, das ist mal interessant. Habe ich nicht gewusst.
wenn du den single-core nur per cpu-affinität simulieren würdest, hätte das ja auch wenig sinn, da dann zwar der eine prozess zwingend auf einem kern ausgeführt wird, alle anderen prozesse aber noch immer auf den 2. kern ausgelagert werden können, was natürlich die performance steigern kann.
Ok, dann habe ich ja den richtigen Weg genommen. Präziser wäre so ein Test natürlich mit einem AMD X2, bei dem ja dann auch nur die Hälfte vom Cache im Singlecore-Modus benutzt wird.
Trotz allerdem bin ich nach diesem Test selbst überrascht, dass NfS:MW und Call of Duty 2 doch so stark vom Dualcore profitieren. Das hätte ich nicht gedacht.
Deathcrush
2006-10-17, 19:38:56
Profitiert Call of duty 2 erst ab dem Patch 1.3 DualCore oder schon von anfang an? Dann würd ich es noch ma auskramen *g
dargo
2006-10-17, 20:08:15
Profitiert Call of duty 2 erst ab dem Patch 1.3 DualCore oder schon von anfang an? Dann würd ich es noch ma auskramen *g
Siehe:
Hm, zumindest CoD 2 ist gepatcht auch "partiell" DC-optimiert.
Noch zu erwähnen bei NFS:MW wäre wohl, dass das Spiel bei DualCore CPUs den Detailgrad erhöht und trotzdem noch soviel gewinnt. Man kann mit ordentlicher Programmierung einiges erreichen, auch in Games, das zeigen uns diese Benches.
Hast du dafür auch einen Beleg? Habe es mit Multi und Single Core gespielt und sehe überhaupt keinen optischen Unterschied. Das einzige Rennspiel, das optisch von DC profitieren soll, ist afair Juiced. Es soll mehr Funken und Effekte geben, wenn es auf DC läuft. Allerdings sehe ich davon auch nix. Besitze allerdings nur die Demo von Juiced.
Profitiert Call of duty 2 erst ab dem Patch 1.3 DualCore oder schon von anfang an? Dann würd ich es noch ma auskramen *g
AFAIR kam das mit dem Patch v1.1 (Beta).
Hast du dafür auch einen Beleg? Habe es mit Multi und Single Core gespielt und sehe überhaupt keinen optischen Unterschied.
Mir ist auch gänzlich neu, dass die Grafik besser sein soll. Und das bei einem Multiplattformer? Von EA?! Ich glaub's nicht ... ;D
MfG,
Raff
Es soll mehr Funken und Effekte geben, wenn es auf DC läuft. Allerdings sehe ich davon auch nix. Besitze allerdings nur die Demo von Juiced.
wenn ich mich recht erinnere, dann war es die 64bit-version mit mehr funken.
Deathcrush
2006-10-17, 22:44:42
Mit den effekten und DC war Juiced und micht NFS MW
Hast du dafür auch einen Beleg? Habe es mit Multi und Single Core gespielt und sehe überhaupt keinen optischen Unterschied. Das einzige Rennspiel, das optisch von DC profitieren soll, ist afair Juiced. Es soll mehr Funken und Effekte geben, wenn es auf DC läuft. Allerdings sehe ich davon auch nix. Besitze allerdings nur die Demo von Juiced.
In einer PCGH sind Vergleichsbilder, die DC Version hat mehr Partikeleffekte. Ich weiss leider net welche Ausgabe das war, sie beschäftigte sich mit DualCore im allgemeinen nah beim Release des X2. Hab diese Ausgabe leider auch nicht mehr (behalte Zeitungen nur selten).
Und noch mal für alle, das wa Juiced und nicht Need 4 Speed MW
AnarchX
2006-10-18, 13:25:40
Und noch mal für alle, das war Juiced und nicht Need 4 Speed MW
Genau da gibt es nämlich auch einen Schalter in den Optionen -> Multithreading.
dargo
2006-10-19, 17:04:57
Wie versprochen, habe ich die Benches um ein Savegame bei GTR2 ergänzt (siehe erste Seite).
Erstaunlich ist vorallem, dass mit 3300Mhz bei der Timedemo das Game vom Dualcore nur bis 12,5% profitiert hat und beim Savegame es bis zu 38,4% sind!
Somit haben sich Timedemos, um die Leistung der CPU zu beurteilen, spätestens hiermit für mich disqualifiziert.
Madkiller
2006-10-19, 17:38:32
Erstaunlich ist vorallem, dass mit 3300Mhz bei der Timedemo das Game vom Dualcore nur bis 12,5% profitiert hat und beim Savegame es bis zu 38,4% sind!
Somit haben sich Timedemos, um die Leistung der CPU zu beurteilen, spätestens hiermit für mich disqualifiziert.
Jap, hatte ich auch schon heraus gefunden:
http://www.3dcenter.org/artikel/timedemos/index5.php
Bei CPU-Vergleichen kann man Timedemos ausschließlich für eines halbwegs verläßlich hernehmen.
Um zu zeigen, wo CPU X ggü CPU Z und CPU Y steht. Aber das auch nur, wenn die zwischen den beiden steht oder die Unterschiede nicht zu groß sind.
btw
Bei meinen Savegames sind die Unterschiede zwischen DC und SC beim Allendale @2133MHz nur bei max 27%.
btw²
Ich kann dir nur raten, bei SGs und 5 Sekunden garnicht erst die min fps auszuwerten.
Die 5 Sek. sind ja so kurz gewählt, um nur eine Szene einzufangen, und dennoch relativ lang, um Meßungenauigkeiten zu minimieren. So ist das mit den minfps IMO fast zu unsicher/ungenau.
Beispiel: Du hast hier jetzt 38,4 bei min, aber nur ~25% bei avg fps.
Wenn du jetzt aber (grobes Beispiel) die Unterschiede zwischen 2133@SC gegen 3300@DC vergleichst, stimmen die Unterschiede mit +104% bei minfps und +98% bei avg fps viel eher überein.
dargo
2006-10-19, 18:21:27
Ich kann dir nur raten, bei SGs und 5 Sekunden garnicht erst die min fps auszuwerten.
Die 5 Sek. sind ja so kurz gewählt, um nur eine Szene einzufangen, und dennoch relativ lang, um Meßungenauigkeiten zu minimieren. So ist das mit den minfps IMO fast zu unsicher/ungenau.
Das lustige war, dass bei den 4 Messungen je CPU gerade bei GTR2 die min. fps immer gleich waren. Ein oder zwei mal ist es vorgekommen, dass ein min. fps Wert um einen fps geringer war als die anderen 3 Werte.
dargo
2006-10-20, 13:15:09
Ich suche einen Freiwilligen mit einem Core 2 Duo Prozessor und einem SLI Gespann mit zwei G7900GTX 512MB oder zwei G7900GTO 512MB.
Er müsste dann auch eines der von mir gebenches Games besitzen. Am besten wäre Quake 4. Mich würde brennend interessieren ob mit einem SLI Gespann in Quake 4 bei 1280x1024 4xAA/8xAF immer noch eine deutliche Grafikkarten-Limitierung herscht. Das nötige Savegame kann ich liefern. :)
PS: wichtig wäre natürlich, dass das SLI-Profil in Quake 4 einwandfrei funzt.
Leute ihr müsst euch im klaren sein das solch komplexe Anwendungen wie Spiele nicht wirklich viel von Mehrkern Cpus profitieren können.
Je mehr Kerne ihr habt um so größer wird die Verlustleistung werden.
Das werdet ihr spätestens dann sehen wenn die Ersten 4 Kern Cpus auf den Markt kommen.
Das Problem bei Spielen ist das ihr es nicht schaffen werdet die verschiedenen Arbeitsgänge, wie z.B Physik oder KI des Spieles Gleichlastig auf die Verschiedenen Kerne zu verteilen.
In einem ungünstigen Fall kann es sogar sein das ein Kern 90% und der andere nur 10% an Arbeit zu verrichten hat.
In solch einem Fall habt ihr trotz Doppelter Cpu Power nur 10% an Leistungsgewinn.
Da nüzt auch eine Optimierung der Spiele recht wenig es wird immer so sein das durch die Arbeitsteilung am ende 1 Kern auf den anderen warten muss.
Vom Wirkungsgrad her wird also ein SingelCore Cpu immer Efektiver sein als ein Mehrkern CPU bei Spielen.
Relic
2006-10-22, 03:13:09
Vom Wirkungsgrad her wird also ein SingelCore Cpu immer Efektiver sein als ein Mehrkern CPU bei Spielen.
Natürlich. Aber was machen, wenn man die Geschwindigkeit von Singlecores nur noch sehr schwierig steigern kann? Richtig, mehr Cores ;). Da wird der Wirkungsgrad wahrscheinlich nicht perfekt sein, aber es wird schneller, wenn auch nur bis zu einem bestimmten Punkt (ich denke es wird niemals Games geben, die 8+ cores wirklich ausnutzen).
dargo
2006-10-22, 11:38:22
Natürlich. Aber was machen, wenn man die Geschwindigkeit von Singlecores nur noch sehr schwierig steigern kann?
Eben das ist der Knackpunkt. Es gibt nun mal keinen A64 Singlecore mit 4-5Ghz. Diese Bereiche sind heutzutage technisch leider nicht drin. Also muss man einen anderen Weg wählen.
Hvoralek
2006-10-22, 13:01:05
Leute ihr müsst euch im klaren sein das solch komplexe Anwendungen wie Spiele nicht wirklich viel von Mehrkern Cpus profitieren können.
Je mehr Kerne ihr habt um so größer wird die Verlustleistung werden.Im gleichen Fertigungsprozess ist das natürlich so. Kennst Du etwa einen Weg, die Rechenleistung zu steigern, die Verlustleistung aber nicht?
Das werdet ihr spätestens dann sehen wenn die Ersten 4 Kern Cpus auf den Markt kommen.
Das Problem bei Spielen ist das ihr es nicht schaffen werdet die verschiedenen Arbeitsgänge, wie z.B Physik oder KI des Spieles Gleichlastig auf die Verschiedenen Kerne zu verteilen.
In einem ungünstigen Fall kann es sogar sein das ein Kern 90% und der andere nur 10% an Arbeit zu verrichten hat.
In solch einem Fall habt ihr trotz Doppelter Cpu Power nur 10% an Leistungsgewinn.
Da nüzt auch eine Optimierung der Spiele recht wenig es wird immer so sein das durch die Arbeitsteilung am ende 1 Kern auf den anderen warten muss.Sind das jetzt neue Erkenntnisse? Das wurde doch alles vor 1 1/2 Jahren schonmal debattiert. Das Load Balancing ist das Problem, ja. Wenn ich mir die bereits jetzt, zT mit nachträglichen Patches, erreichbaren Zuwächse ansehe, gehe ich aber davon aus, dass der durchschnittliche Gewinn eines zweiten Kerns bei weit mehr als 10% liegen wird.
Der entscheidende Punkt wurde ja bereits mehrfach genannt: Was willst Du denn machen, wenn Dir bei der Steigerung der Einkernleistung die Ideen ausgehen? Da bleibt ja nur mehr Takt, der sich in der Praxis aber nur begrenzt steigern lässt.
Vom Wirkungsgrad her wird also ein SingelCore Cpu immer Efektiver sein als ein Mehrkern CPU bei Spielen.Das stimmt so jedenfalls nicht. Mit einem zweiten Kern ist theoretisch fast die doppelte Leistung möglich, in der Praxis scheint eine Steigerung um 50-60% gut möglich. Um bei einem Einkerner dasselbe über mehr Takt zu erreichen, müsstest Du den Takt steigern (P~f), aber auch die Spannung (P~U²). Dass Du da wirklich 50-60% mehr Takt erreichst und den Stromverbrauch dabei "nur" verdoppeln musst, halte ich für unwahrscheinlich. Ganz abgesehen von der technischen Machbarkeit immer weiterer Taktsteigerungen und der Frage der Kühlung von gleich viel oder mehr Abwärme auf viel weniger Raum.
Natürlich darf man die Suche nach Steigerung der Einkernleistung nicht aufgeben. Das hat aber auch niemand vor, schau Dir mal P8 an oder das, was bisher von K8L bekannt ist.
Nochmal zum Thema Load Balancing: Das Potenzial für Leistungssteigerungen ist vorhanden, auch bei mehr als zwei Kernen. Physik-, Sound- und Animationsberechnungen lassen sich fast endlos parallelisieren, KI zumindest ein Stück weit. Wenn Du das alles gleichmäßig verteilen möchtest, entsteht zusätzlicher Verwaltungsaufwand, der bei mehr Kernen immer größer wird. Wenn Du aber eine gleichmäßige Verteilung hinbekommst, wird der auf absehbare Zeit nur einen geringen Anteil der gewonnenen Rohleistung aufzehren.
Freunde bedenkt aber wenn das wirklich so ist wie ihr schreibt, dann gibt es eine theoretische obergrenze an CPU-Power für Spiele.
Wenn also bei 5 Ghz und 8 Core keine Spührbare Leistungssteigerung mehr möglich währe was dann ?
Ich denke eher das in Zukunft neue Technologieen wie z.B Reverse-Hypertreading oder auch das zusammenschließen von GPU und CPU zu einem Kern. Da wesentlich mehr bringen wird als einfach nur immer mehr Kerne zu einem Cluster zusammen zu schließen.
Ich beziehe mich da jetzt immer noch auf Computer-Spiele.
Andere Anwendungen können natürlich erheblich von mehreren Kernen profitieren das is klar. :)
Reverse-HypertreadingBitte nicht schon wieder. Mittlerweile ist es doch sogar offiziell, dass das ganze nur schwachsinnige Gerüchte waren. Du schreibst doch selbst, dass es nicht so einfach ist Code beliebig zu parallelisieren. Wenn das der Entwickler und der Compiler schon nicht schaffen, obwohl sie quasi beliebig lange Zeit dazu haben, wie soll das die CPU zur Laufzeit machen?
Hvoralek
2006-10-22, 13:20:14
Freunde bedenkt aber wenn das wirklich so ist wie ihr schreibt, dann gibt es eine theoretische obergrenze an CPU-Power für Spiele.
Wenn also bei 5 Ghz und 8 Core keine Spührbare Leistungssteigerung mehr möglich währe was dann ?Dann limitiert die GraKa :wink:
Oder wenn Du meinst, dass es so oder so flüssig läuft: Dann sind eben Reserven da für noch mehr Berechnungen. Noch cleverere KI. Oder noch mehr Partikel. Oder was auch immer.
Ich denke eher das in Zukunft neue Technologieen wie z.B Reverse-Hypertreading oder auch das zusammenschließen von GPU und CPU zu einem Kern. Da wesentlich mehr bringen wird als einfach nur immer mehr Kerne zu einem Cluster zusammen zu schließen.Meinst Du mit Reverse-Hypertreading dieses mehrere- Kerne- handeln- lassen- wie- einen- einzelnen, das der Inq vor ein paar Monaten AMD andichten wollte? Und wo der Sinn liegen soll, eine komplette GPU auf die CPU zu pappen, ist mir bisher nicht ganz aufgegangen. Weiterentwickelte Shader als arithmetische Ergänzungseinheiten gerne. Aber wo soll der Vorteil liegen, TMUs auf der CPU zu haben? Und stellt euch mal vor, was das für ein Monsterchip werden würde...
@Gäste: Gebt Euch doch bitte selbst irgendwelche Bezeichnungen, zumindest, wenn Ihr auf die Beiträge anderer Gäste reagiert. Sonst ist für andere schwer zu erkennen, wer eigentlich was geschrieben hat.
[QUOTE=Hvoralek]Mit einem zweiten Kern ist theoretisch fast die doppelte Leistung möglich, in der Praxis scheint eine Steigerung um 50-60% gut möglich. /QUOTE]
naja, das problem ist eher wie die entwicklung weitergehen wird, wenn man nämlich nicht 100% parallelisierbaren code hat (was es nie geben wird), so fällt der leistungsgewinn mit jedem weiteren kern geringer aus.
wenn wir von 50-60% leistungssteigerung von einem dual-core gegenüber einem single-core ausgehen beträgt die leistungssteigerung bei einem quadcore gegenüber einem singlecore maximal ~110%, bei einem 8-core-prozessor, gerade mal +150%.
hier verbauen wir dann schon 8x soviele kerne wie bei einem single-core und erreichen gerade mal ~2,5x soviel an leistung.
hierbei gehen wir aber von gut 70% parallelisierbarem code aus, was schon sehr optimistisch ist. nicht inbegriffen ist in dieser rechnung auch der overhead durch die synchronisation der einzelnen threads, somit stellt diese rechnung das erreichbare theoretische maximum dar.
wenn wir diese rechnung weitermachen erreichen wir bei 16 cores gerade mal die 4-fache leistung eines single-cores.
ab da flacht die skalierungskurve extrem ab und selbst wenn wir unendlich viele cores hätten würden wir maximal die 5-fache leistung eines gleichen single-cores bekommen.
dabei gehen wir immer noch davon aus dass 70% des leistungskritischen codes parallelisierbar ist, was eine extrem günstige annahme ist.
im durchschnitt dürfte der parallelisierbare anteil eher unter 50% liegen.
selbst unter den extrem günstigen voraussetzungen, dass 90% des codes parallelisierbar ist bekommen wir maximal die 10-fache leistung eines single-cores, egal wieviele kerne nun vorhanden sind, wobei wir für die 9-fache leistung des eines single-cores schon 80 kerne brauchen ;)
dargo
2006-10-22, 16:22:21
@Gast #65
Du gehst von den Möglichkeiten die momentan vorhanden sind. Was erwartet uns aber in Zukunft?
Wie schon gesagt wurde, wenn in einigen Jahren fast jeder einen Quadcore im Rechner hat kann man auch dementprechend programmieren. Sprich, bestimmte Aufgaben jedem Core zuweisen. Dass dann nicht jeder Core zu 100% ausgelastet sein wird ist klar.
Aber seien wir mal ehrlich. Ob eine CPU 2, 4 oder 32 Cores hat ist doch völlig egal solange der Preis auf gleichem Niveau bleibt und die Verlustleistung mit dem Fortschritt in Zukunft ungefähr gleich bleibt.
Demogod
2006-10-22, 16:41:48
@Relic: sag niemals nie. schon in 5 Jahren haben wir bestimmt 8 Cores.
@Gast #65
Du gehst von den Möglichkeiten die momentan vorhanden sind. Was erwartet uns aber in Zukunft?
das hab ich mir eigentlich versucht vorzustellen ;)
Wie schon gesagt wurde, wenn in einigen Jahren fast jeder einen Quadcore im Rechner hat kann man auch dementprechend programmieren. Sprich, bestimmte Aufgaben jedem Core zuweisen. Dass dann nicht jeder Core zu 100% ausgelastet sein wird ist klar.
klar wird man in zukunft versuchen für multicores entsprechend zu programmieren, nur wird es auch immer nicht parallelisierbare codeabschnitte geben, dagegen kann man nichts machen.
bereits relativ geringe anteile an seriellem code bremsen die möglichen leistungszuwächse durch multicore drastisch.
Aber seien wir mal ehrlich. Ob eine CPU 2, 4 oder 32 Cores hat ist doch völlig egal solange der Preis auf gleichem Niveau bleibt und die Verlustleistung mit dem Fortschritt in Zukunft ungefähr gleich bleibt.
klar, nur wenn der sprung von 16 auf 32 cores gerade mal 22% mehrleistung bringt, welches das maximum ist wenn wir von 90% parallelisierbarem code (was doch eine verdammt optimistische annahme ist) ausgehen, ist das doch arg ineffizient.
auch wenn intel angeblich pläne hat in zukunft hunderte cores auf ein DIE zu bannen stehe ich dem arg skeptisch gegenüber.
selbst wenn wir von hypothetischen 99% an parallelisierbarem code ausgehen bringt der sprung von 128 auf 256 cores maximal 30% an mehrleistung.
was ich damit ausdrücken will: im moment scheint es aus energietechnischer sicht effizienter mehrere cores zu verbauen anstatt die leistung/core anderwertig (z.b. durch höheren takt) zu erhöhen.
das mag auf dual-core zutreffen, wahrscheinlich auch noch auf quad-core, möglicherweise noch bis 8 cores.
aber dann ist es ziemlich schnell schluss mit einer vernünftigen skalierung durch mehrere cores, und plötzlich wird wieder eine takterhöhung billiger.
Relic
2006-10-22, 17:38:10
@Relic: sag niemals nie. schon in 5 Jahren haben wir bestimmt 8 Cores.
Das haben wir sogar heute schon: http://en.wikipedia.org/wiki/UltraSPARC_T1 ;)
Es gibt auch Anwendungen wo 8+ Cores sinnvoll sind, ich hab ja auch nur gesagt, dass es aber auf Games bezogen einfach Schwachsinn ist.
Hvoralek
2006-10-22, 18:32:48
@ Gast 65/68: Darf ich fragen, worauf Du Deine Angaben stützt? Sind das Berechnungen (dann bitte genauer) oder bloß Schätzungen (wenn ja: Worauf gestützt)? Und seltsamerweise wird das ganze jetzt plötzlich erst ab acht Kernen "sinnlos".
Intel hat übrigens mW nie von hunderten General- Purpose- Kernen gesprochen. Bei diesen Vorstellungen ging es um Chips mit hunderten spezieller Kerne und nur einer Hand voll allgemeiner.
Wie gesagt, wenn man mit dem gleichen Aufwand die Leistung pro Kern stärker erhöhen kann, als die Erhöhung der Anzahl an Kernen bringt, dann gerne. Das wird ja auch gemacht, aber anscheinend gibt es im Moment keine Möglichkeit, die durch feinere Fertigungsprozesse möglichen zusätzlichen Transistoren sinnvoller zu nutzen.
Ich bin sicher, wenn AMD oder Intel einen Weg kennen würden, durch die Verdopplung der Komplexität moderner CPUs 60% potenzielle Mehrleistung zu erreichen, hätten sie das gemacht. Leistungssteigerung durch mehr Kerne ist aber sicherlich besser als gar keine.
Ich denke schon, dass der allergrößte Teil der Rechenlast von Spielen parallelisierbar ist. Wie gesagt: Physik, Sound und Animationen lassen sich fast beliebig aufteilen, KI je nach Anzahl der zu steuernden Figuren zumindest ein ganzes Stück weit. Wo siehst Du da noch mindestens 30% an Code, der sich keinesfalls parallelisieren lässt? Und wird sich nicht die Hauptlast zunehmend auf besser parallelisierbare Aufgaben verschieben, etwa, indem verstärkt korrekte Physiksimulationen implementiert werden?
@ Gast 65/68: Darf ich fragen, worauf Du Deine Angaben stützt? Sind das Berechnungen (dann bitte genauer) oder bloß Schätzungen (wenn ja: Worauf gestützt)? Und seltsamerweise wird das ganze jetzt plötzlich erst ab acht Kernen "sinnlos".
das ganze lässt sich relativ einfach mit amdahls gesetz ausrechnen: http://de.wikipedia.org/wiki/Amdahls_Gesetz
hier mal eine grafik die die skalierung bis 16 kerne zeigt. die waagrechte achse repräsentiert dabei die anzahl der kerne, die senkrechte die relative (maximale) leistung. die legende zeigt die anteile an sequentiellen (nicht parallelisierbarem) code.
http://img171.imageshack.us/img171/1293/amdahlfy2.th.png (http://img171.imageshack.us/my.php?image=amdahlfy2.png)
mit 32 kernen wird das ganze schon ziemlich schrecklich:
http://img171.imageshack.us/img171/1693/amdahl2di2.th.png (http://img171.imageshack.us/my.php?image=amdahl2di2.png)
das ganze lässt sich relativ einfach mit amdahls gesetz ausrechnen: http://de.wikipedia.org/wiki/Amdahls_Gesetz
Das allerdings hier seine Gültigkeit nicht besitzt, da die Vorbedingen dafür nicht gegeben sind.
Wurde hier schon x mal diskutiert.
Daneben solltest du mal antworten, wo die 30% nicht parallelisierbarer Code sein sollen.
Hvoralek
2006-10-22, 20:43:16
Das allerdings hier seine Gültigkeit nicht besitzt, da die Vorbedingen dafür nicht gegeben sind.
Wurde hier schon x mal diskutiert.Ich sehe da auf Anhieb nicht das Problem. Hast Du mal einen Link dazu? Auf jeden Fall fehlt bei den Angaben des anderes Gastes oben etwas zum Overhead durch die Synchronisation der Threads. Der ist, wenn ich das richtig verstehe, als o(P) in der og Formel enthalten.
Daneben solltest du mal antworten, wo die 30% nicht parallelisierbarer Code sein sollen.Das ist wirklich ein entscheidender Punkt. Die Formel konvergiert, wie ich das sehe, gegen 1/a. Gerade bei vielen Kernen hängt das Ergebnis in erheblichem Maße davon ab, welcher Teil des Codes zwingend auf einem Kern abgearbeitet werden muss. Das mögen jetzt vlt noch 30% sein. Ich bin aber ziemlich sicher, dass der Anteil des parallelisierbaren Codes in Spielen in der nächsten Zeit erheblich zurückgehen wird.
Und selbst wenn der erreichbare Zuwachs bei einem Schritt von 64 Kernen auf 128 nur noch gering ist, bleiben zwei Punkte:
1. Was ist, wenn sich durch Verdopplung der Komplexität eines Kerns nur noch mickrigere Zuwächse erreichen lassen und höhere Taktraten nicht mit zufriedenstellender Ausbeute machbar sind (wobei sich diese Frage in absehbarer Zeit ohnehin nicht stellt. Soweit ich das vom Spring- IDF 05 in Erinnerung habe, möchte Intel 2015 Chips mit acht GP- Kernen und viel Kleinkram anbieten).
2. Was spricht dagegen, erst einmal zwei oder vier Kerne zu verwenden, wenn es genug bringt? Oder auch acht, sofern die Zuwächse größer sind als mit vier jeweils doppelt so großen? Es ist ja nicht gottgegeben, dass man, wenn einmal mit der Verwendung begonnen wurde, nur noch in diese Richtung gehen muss.
Zum Schluss ein Beispiel, wie effektiv zumindest ein zweiter Kern sein kann: City of Villains mit Zuwächsen von um die 80% (http://www.anandtech.com/showdoc.aspx?i=2828&p=3).
Zum Schluss ein Beispiel, wie effektiv zumindest ein zweiter Kern sein kann: City of Villains mit Zuwächsen von um die 80% (http://www.anandtech.com/showdoc.aspx?i=2828&p=3).
An der Effektivität eines zweiten Kernes zweifelt ja glaube ich auch niemand; das läuft auch noch schön konform mit obiger Grafik.
Je mehr Kerne jedoch hinzukommen, desto mehr sinkt die Effizienz. Wie man da oben auch schön sehen kann, reichen lediglich 10% sequentieller Code völlig aus und das Wachstum drastisch zu bremsen.
Um nochmal auf City of Villains zurückzukommen: Der Großteil der Performance scheint ja durch die Auslagerung der Physik zu kommen. Ein dritter Kern würde hier aber wohl schon deutlich weniger bringen, da ein Großteil der (Spiel-)Physik wiederrum schlecht parallelisierbar sein dürfte, sich also schlecht in einen weiteren Thread auslagern ließe.
Ich sehe da auf Anhieb nicht das Problem.
Amdahls Law geht von einem Problem aus das rein sequentiellen Code beinhaltet.
Spiele erfüllen diese Voraussetzung aber nicht.
Um das Gesetz anwenden zu können muss man ein Spiel soweit in Teilprobleme aufspalten bis diese rein sequentiellen Code enthalten.
Dabei handelt man sich aber einen so großen Faktor ein, dass man mit der Gesamtaussage nicht mehr viel anfangen kann.
Hauptproblem für Spiele in der Zukunft wird sein, dass die Rechenleistung schneller wächst als die Speichergröße. Deswegen wird sehr viel Rechenleistung in Zukunft dafür benutzt werden um während der Laufzeit Content zu berechnen. Das fällt allerdings wieder unter sehr gut parallelisierbar. KI, Physik und Grafikroutinen skalieren auch fast linear. Die Gamelogik stellt da momentan noch ein Problemkind da. Dort wird sich aber auch einiges tun, sobald Bedarf dafür besteht.
Hvoralek
2006-10-22, 21:33:27
An der Effektivität eines zweiten Kernes zweifelt ja glaube ich auch niemand; das läuft auch noch schön konform mit obiger Grafik.
Je mehr Kerne jedoch hinzukommen, desto mehr sinkt die Effizienz. Wie man da oben auch schön sehen kann, reichen lediglich 10% sequentieller Code völlig aus und das Wachstum drastisch zu bremsen.So habe ich Dich aber verstanden (ich nehme zumindest an, dass Du das warst): "Leute ihr müsst euch im klaren sein das solch komplexe Anwendungen wie Spiele nicht wirklich viel von Mehrkern Cpus profitieren können.[...]
Das werdet ihr spätestens dann sehen wenn die Ersten 4 Kern Cpus auf den Markt kommen."
Sind CPUs mit zwei Kernen keine Mehrkerner? Und selbst wenn Du erst bei mehr als zwei Kernen von "mehreren" sprechen möchtest: Wenn ein zweiter Kern noch 80% bringt, kann man annehmen, dass der weitere Zuwachs durch noch zwei Kerne nicht unerheblich sein wird.
Um nochmal auf City of Villains zurückzukommen: Der Großteil der Performance scheint ja durch die Auslagerung der Physik zu kommen. Ein dritter Kern würde hier aber wohl schon deutlich weniger bringen, da ein Großteil der (Spiel-)Physik wiederrum schlecht parallelisierbar sein dürfte, sich also schlecht in einen weiteren Thread auslagern ließe.Physikberechnungen kann man mW fast endlos parallelisieren. Zumindest spricht Ageia von "dutzenden" "Kernen" bei PhysX, der ja genau dafür geacht ist. Und R580 mit 48 FPUs und insgesamt 192 Kanälen macht sich bei Physikberechnungen auch anscheinend sehr gut. Dir zufolge müsste ja ein RV560 auf dem gleichen Takt nur marginal langsamer sein.
Novox
2006-10-22, 21:48:33
Wenn man "Amdahls Gesetz" anführt, darf man nicht vergessen, daß die Aussage nur gültig ist, wenn man die Effizienz für ein und dasselbe Problem miteinander vergleicht.
"Our work to date shows that it is not an insurmountable task to extract very high efficiency from a massively-parallel ensemble, for the reasons presented here. We feel that it is important for the computing research community to overcome the "mental block" against massive parallelism imposed by a misuse of Amdahl's speedup formula; speedup should be measured by scaling the problem to the number of processors, not fixing problem size. We expect to extend our success to a broader range of applications and even larger values for N."
(Reevaluating Amdahl's Law (http://www.scl.ameslab.gov/Publications/Gus/AmdahlsLaw/Amdahls.html))
"Using Amdahl's Law as an argument against massively parallel processing is not valid. This is because Beta_A can be very close to zero for many practical applications. Thus very high speedups are possible using massively many processors. Gustafson's experiments are just examples of these applications."
(Reevaluating Amdahl's Law and Gustafson's Law (http://www.cis.temple.edu/~shi/docs/amdahl/amdahl.html))
Ich sehe da auf Anhieb nicht das Problem. Hast Du mal einen Link dazu? Auf jeden Fall fehlt bei den Angaben des anderes Gastes oben etwas zum Overhead durch die Synchronisation der Threads. Der ist, wenn ich das richtig verstehe, als o(P) in der og Formel enthalten.
ich hab bereits geschrieben dass ich den overhead mit 0 angenommen habe, der graph zeigt also das theoretische maximum welches in der praxis nicht erreicht werden kann.
ich will ja auch nicht sagen dass dual- bzw. multicore prinzipiell schlecht ist, nur glaube ich nicht, dass man anstatt bisher einfach die taktfrequenz für mehr leistung zu erhöhen nun einfach die kernanzahl zu erhöhen ewig weiterspielen kann.
im gegenteil, man wird viel schneller an die grenze stoßen wo eine erhöhung der kernanzahl nichts mehr nennenswertes bringt als es beim takt der fall war.
dargo
2006-10-22, 23:53:39
Ich habe eine riesen Überraschung für euch. Ich habe mir das Diagramm von Call of Duty 2 nochmal genauer angesehen. Erstaunlich fand ich schon den Vorsprung durch Dualcore von 49% bei den avg. fps mit 2133Mhz. Interessanterweise schrumpft der Vorsprung auf lächerliche 8% bei 3300Mhz. Hier sieht man deutlich, dass selbst in 640x480 ohne AA/AF schon eine X1900XT 512MB fast vollständig limitiert.
Deswegen habe ich mich dazu entschlossen die CPU Leistung für die nächsten Tests zu reduzieren um möglichst die Grafikkarten-Limitierung auszuschliessen.
Diesmal habe ich mit 1867Mhz und dem Speicherteiler 1:1, also 266Mhz getestet.
Bei Quake4 hat sich kaum was geändert. In 640x480 ohne AA/AF ist der Dualcore bei den avg. fps um 58% schneller als ein Singlecore (bei 2133Mhz waren es noch 61%, die 3% Unterschied sind wohl Messungenauigkeit).
Aber bei Call of Duty 2 ist der Unterschied enorm. Wo bei 2133Mhz und dem Speicherteiler 4:5 (333Mhz) der Dualcore noch 49% schneller war ist der Dualcore mit 1867Mhz und Speicherteiler 1:1 (266Mhz) stolze 70% schneller als ein Singlecore mit 1867Mhz.
Das nenne ich mal einen deutlichen Dualcore-Vorteil. :up:
PS: es wurde natürlich das gleiche Savegame verwendet.
Wishnu
2006-10-23, 00:36:16
So habe ich Dich aber verstanden (ich nehme zumindest an, dass Du das warst):
Nope. :)
Ich war nur einmal nicht eingeloggt und das eben von Dir zitierte
"An der Effektivität eines zweiten Kernes zweifelt ja glaube ich auch niemand [..]" geht auf mein Konto.
Das andere stammt von einem anderen Gast. :)
Physikberechnungen kann man mW fast endlos parallelisieren. Zumindest spricht Ageia von "dutzenden" "Kernen" bei PhysX, der ja genau dafür geacht ist. Und R580 mit 48 FPUs und insgesamt 192 Kanälen macht sich bei Physikberechnungen auch anscheinend sehr gut. Dir zufolge müsste ja ein RV560 auf dem gleichen Takt nur marginal langsamer sein.
Hm, insgesamt bin ich da noch ein wenig skeptisch, da es ja verschiedene Implementationen der Physik gibt.
Bei reiner Eye-Candy-Physik stimme ich zu - aber bei "normaler" Physik finden sich doch häufig starke Abhängigkeiten, was einer Parallelisierung ja nicht sehr entgegen kommt... oder stehe ich grade irgendwie auf dem Schlauch? :)
Bei reiner Eye-Candy-Physik stimme ich zu - aber bei "normaler" Physik finden sich doch häufig starke Abhängigkeiten, was einer Parallelisierung ja nicht sehr entgegen kommt... oder stehe ich grade irgendwie auf dem Schlauch? :)
Das hängt von 2 Dingen ab:
- Komplexität der Welt
- Implementierung
Bei Multicorephysik versucht man die Abhängigkeiten zu bestimmen und die Aufgaben dann zu verteilen. Umso komplexer die Welt desto mehr unabhängige Komponenten findet man normalerweise.
Ageia hat da zB auf der GDC einen Vortrag darüber gehalten.
Hvoralek
2006-10-23, 10:57:47
Hm, insgesamt bin ich da noch ein wenig skeptisch, da es ja verschiedene Implementationen der Physik gibt.
Bei reiner Eye-Candy-Physik stimme ich zu - aber bei "normaler" Physik finden sich doch häufig starke Abhängigkeiten, was einer Parallelisierung ja nicht sehr entgegen kommt... oder stehe ich grade irgendwie auf dem Schlauch? :)Physikberechnungen an sich sind mW stets gut parallelisierbar. Es werden immer Kollisionen zwischen vielen einzelnen Objekten berechnet. Wenn das so wenige sind, dass es sich nicht oder schlecht parallelisieren lässt, ist der Rechenaufwand so gering, dass man das auch nicht tun muss. Probleme könnte es geben bei Wechselwirkungen zwischen Physik und irgendwelchem seriellem Code. Mir fällt aus dem Stegreif aber kein Beispiel dafür ein und das ist mehr ein Problem der Thread- Synchronisation als der Parallelisierung der Physik.
Nope. :)
Ich war nur einmal nicht eingeloggt und das eben von Dir zitierte
"An der Effektivität eines zweiten Kernes zweifelt ja glaube ich auch niemand [..]" geht auf mein Konto.
Das andere stammt von einem anderen Gast. :)*gnarf*
Stammt Beitrag #78 denn von demselben Gast? In dem Fall habe ich die urspr. Aussage wohl auch falsch verstanden.
ich hab bereits geschrieben dass ich den overhead mit 0 angenommen habe, der graph zeigt also das theoretische maximum welches in der praxis nicht erreicht werden kann.Mit Deinen mind. 30% nicht parallelisierbarem Code. Den ich selbst bei heutigen Spielen schon skeptisch sehe und dessen Anteil in den nächsten Jahren wohl noch erheblich sinken wird, selbst wenn es jetzt noch 30% sein sollten.
ich will ja auch nicht sagen dass dual- bzw. multicore prinzipiell schlecht ist, nur glaube ich nicht, dass man anstatt bisher einfach die taktfrequenz für mehr leistung zu erhöhen nun einfach die kernanzahl zu erhöhen ewig weiterspielen kann.Spricht denn etwas dagegen, erst einmal mit Mehrkernen mit weniger Kernen anzufangen? Bei zwei Kernen bekommt man für eine Verdopplung der Transistormenge einen auch praktisch machbaren Leistungszuwachs, der mit einem Kern und vergleichbarem Aufwand kaum machbar ist. Wenn schon die ersten halbwegs auf Doppelkerner zugeschnittenen Spiele auf diesen 70-80% gewinnen, kann man wohl zumindest für vier oder acht Kerne noch mit vernünftigen Zuwächsen rechnen.
Von dutzenden oder hunderten GP- Kernen hat bisher mW noch niemand gesprochen (Intels Terascale- Kram ist ja nicht GP, sondern ein arithmetischer Coprozessor). Natürlich gilt das Gesetz des abnehmenden Ertrages. Bei einem Wechsel von 64 auf 128 Kernen wird man bei solchen Anwendungen nie im Leben 80% Steigerung sehen, klar. Aber das läge ohnehin so weit in der Zukunft, dass niemand in der Branche ernsthaft soweit konkret planen kann. Ich finde schon Intels 10- Jahres- Vorhersage von 2005 skeptisch.
im gegenteil, man wird viel schneller an die grenze stoßen wo eine erhöhung der kernanzahl nichts mehr nennenswertes bringt als es beim takt der fall war.Das Problem beim Takt ist nicht die Skalierung, sondern die Machbarkeit. Ein höherer Takt ist, sofern ökonomisch sinnvoll machbar, eine gute Möglichkeit zur Leistungssteigerung.
Die Alternative lautet aber eigentlich nicht: "Höherer Takt oder mehr Kerne", sondern "Mehr Kerne oder weniger komplexere Kerne".
Was willst Du denn machen, wenn ein Fertigungsprozess zwar noch komplexere Chips ermöglicht (bei jedem der gängigen Die- Shrinks passen etwa doppelt so viele doppelt so viele Transistoren auf den selben Platz), aber keine höheren Taktfrequenzen mehr mitmacht? Wenn Du beim Schritt zB von acht auf 16 Kerne noch 10-20% gewinnst, bei der Verdopplung der Komplexität der einzelnen Kerne aber nur einstellige Prozentwerte erreichbar wären?
Selbst wenn der Takt immer weiter steigern ließe, hättest Du irgendwann ein winziges Chipchen, das im zweistelligen Gigahertzbereich taktet. Das Teil wird dann dann durch eine für den Fertigungsprozess mörderische Spannung stabil gehalten und verfeuert auf vlt noch 20 mm² eine Unmenge Strom. Wie willst Du das denn kühlen?
@dargo: Conroe wird den Absatz im High- End- GraKa- Markt echt nochmal ankurbeln. Kannst du mit dem Takt noch eine Stufe runtergehen? Mich würde mal interessieren, ob CoD 2 im Extremfall die max. 85% von CoV erreichen kann (wobei die in UXGA waren :wink: )
dargo
2006-10-23, 11:06:29
@dargo: Conroe wird den Absatz im High- End- GraKa- Markt echt nochmal ankurbeln. Kannst du mit dem Takt noch eine Stufe runtergehen? Mich würde mal interessieren, ob CoD 2 im Extremfall die max. 85% von CoV erreichen kann (wobei die in UXGA waren :wink: )
Habe ich schon gemacht. :biggrin:
Das absolute Minimum sind 1600Mhz (6x266) und Speicherteiler 1:1 (266Mhz). Damit ist der Dualcore 67,5% schneller als ein Singlecore mit 1600Mhz.
Bei 1867Mhz warens noch 70%. Diese kleine Abweichung liegt am Messverfahren. Man kann aber schon sagen, dass ~70% das Maximum bei CoD2 ist. Finde ich sehr bemerkenswert. Selbst Quake 4 (als das Dualcore-Game) kann da nicht mithalten.
Demogod
2006-10-23, 23:19:26
ich finde es erstaunlich, dass quake 4 erstmal zur smp fähigkeit gepatcht werden musste, da quake3 mWn von anfang an smp unterstützt hat. (da wären auch mal echte smp benches interessant. hat jemand ne 4 core maschine?)
Relic
2006-10-24, 02:21:07
Bei Q3 war das Gegenteil der Fall. Die SMP Fähigkeit wurde später mit einem Patch deaktiviert, weil sie zu verbuggt war.
robbitop@work
2006-10-24, 11:23:00
schau Dir mal P8 an oder das,
Meinst du den C2D? Der ist eher ein P6 als ein P8.
Vieleicht ist Nehalem ja seit dem P7 mal wieder etwas neues. Vieleicht aber auch wieder ein P6 mit besserer Infrastruktur (CSI).
Hvoralek
2006-10-24, 13:49:51
Meinst du den C2D?Den meine ich. P8 ist sicher keine optimale Bezeichnung, aber ich weigere mich, eine CPU- Architektur oder ein -modell als "Core" zu bezeichnen. Wobei dann auf der Core- Architektur auch noch die Core2- Modelle basieren und die Core- Modelle auf - zu was gehört denn dann der Yonah? Bei den Bezeichnungen hat Intel wirklich großen Mist gebaut. Bei den Modellen habe ich kein Problem und verwende einfach nur die Modellnummern. ZB "E6400" ist eindeutig, wenn es um CPUs geht. Problematisch ist die Bezeichnung der Architektur(en).
Hast Du eine sinnvollere Idee als P7P für Banias - Yonah und "P8" für Conroe? "Conroe" als Bezeichnung der Architektur ist möglich, finde ich aber auch nicht wirklich toll. Dann müsste man immer ausdrücklich dazu sagen, ob man nun wirklich nur Conroe meint oder den ganzen Rattenschwanz bis Penryn. Andererseits wäre das nicht so aus der Luft gegriffen. Ansonsten fiele mir als Alternative noch "P6-3" ein, aber das ist noch undurchsichtiger.
Wenn Du für alles vom Pentium Pro bis zu Penryn die Bezeichnung "P6" verwenden würdest, glaube ich kaum, dass Nehalem dann hinreichende Änderungen für "P7" bringen wird. Bisher ist zwar nicht viel darüber bekannt, aber es sieht ja im Moment nach einem runderneuerten... äh, Conroe samt Anhang aus (SSE4 und ein IMC scheinen das Wichtigste zu sein, dazu sicher noch einiger weniger spektakulärer "Kleinkram"). Mir würde das für ein "P9" reichen, viel mehr hat sich von K7 zu K8 auch nicht getan. Aber Du scheinst ja wirklich gewaltige Neuerungen Marke Scheduler zu erwarten, die mich bei Nehalem sehr überraschen würden (Naja, vlt wird es ja doch ein IA64 :wink: ).
BlackBirdSR
2006-10-24, 16:27:01
Mir würde das für ein "P9" reichen, viel mehr hat sich von K7 zu K8 auch nicht getan.
Vom K7 zum K8 ist es doch ein gewaltiger Schritt. Wie auch vom P6 zu Banias oder Conroe. Aber irgendwie ist keiner davon der P6-Generation entwachsen.
Der Pentium4 war eindeutig ein Schritt weiter, wenn auch nicht unbedingt in die treffende Richtung.
Vielleicht sollte man genrell alle neueren CPUs mit Dual (Multi)-Core und 64Bit als 8. Generation bezeichnen. Immerhin sind das die beiden herausragenden Eigenschaften der neuen Architekturen.
Aber stimmt schon... unsere alte liebgewonne Klassifizierung können wir eigentlich vergessen.
ich finde es erstaunlich, dass quake 4 erstmal zur smp fähigkeit gepatcht werden musste, da quake3 mWn von anfang an smp unterstützt hat.
bei quake3 wurde die SMP-fähigkeit aufgrund von bugs später deaktiviert, offenbar hat man diese möglicherweise aus sicherheitsgründen in der release-version von quake4 noch nicht aktiviert.
dargo
2006-10-28, 16:06:42
Ersten Beitrag aufgeteilt und Call of Juarez hinzugefügt. :)
SentinelBorg
2006-10-29, 02:21:10
Füg mal Homeworld zur Sammlung hinzu. Ist mir heute aufgefallen, dass dieses alte Game von 1999 richtig gut Multithreaded. Als ich in der letzten Mission der Kampagne 5fach überm Einheitenlimit lag (durchs Übernehmen feindlicher Einheiten), hat es konstant 3 Threads gleichmässig ausgelastet und so 95%+ meines X2 ausgenutzt. :)
Sentinel
Trixter
2006-10-29, 07:51:23
ich denke crysis wird das erste game sein, das den unterschied bei den single und dual core aufzeigt
splinter cell DA soll 4+ cores unterstützen (hat intel gesagt)
Trixter
2006-10-29, 08:57:37
splinter cell DA soll 4+ cores unterstützen (hat intel gesagt)
mein mac pro wird sich freuen :)
dargo
2006-10-29, 09:33:01
Füg mal Homeworld zur Sammlung hinzu.
Ich kann nur Games testen die ich entweder selbst besitze oder mir von Kumpels leihen kann. Dazu gehört Homeworld leider nicht. Crysis werde ich mir aber sicherlich kaufen.
Hvoralek
2006-10-29, 11:36:51
ich denke crysis wird das erste game sein, das den unterschied bei den single und dual core aufzeigtSchau doch nochmal in den ersten Beitrag :wink:
@ Sentinel: Homeworld wäre eines der letzten Spiele, von denen ich das erwarten würde. Kannst Du das genauer untersuchen? 95% Auslatung bedeutet natürlich <95% Leistungsgeeinn wegen Synchronisation der Threads. Wäre mal interessant, was davon übrigbleibt.
SentinelBorg
2006-10-29, 16:02:08
Schau doch nochmal in den ersten Beitrag :wink:
@ Sentinel: Homeworld wäre eines der letzten Spiele, von denen ich das erwarten würde. Kannst Du das genauer untersuchen? 95% Auslatung bedeutet natürlich <95% Leistungsgeeinn wegen Synchronisation der Threads. Wäre mal interessant, was davon übrigbleibt.
Hmm ka ob das Ding einen Benchmark hat. So intensiv hab ich jetzt nicht geforscht. Ist mir nur durch Zufall aufgefallen, als ich es abschiessen musste, weil meine Flotte so groß war, dass es keinen Hyperjump mehr hinbekommen hat. Im Sysinternals sind halt schön 3 Threads mit recht gleichmässiger Auslastung zu sehen.
Ich kann mich jedoch noch entsinnen, dass es, als ich es damals vor sechs Jahren gezockt habe, bei sehr vielen Einheiten recht zäh wurde. Und zwar nicht die Grafik, sondern die Schiffe, die dann nur noch verzögert reagiert haben. Ich nehme also mal an, dass die ganze Flotten-KI in einem extra Thread steckt.
Sentinel
AnarchX
2006-10-29, 16:05:03
splinter cell DA soll 4+ cores unterstützen (hat intel gesagt)
Kein Wunder, da es ja primär für die Xbox360 entwickelt wurde, wo man für optimale Performance 5 Threads verwenden muss.
Wenn aber auch ein PC-Quadcore mehr als deutlich performanter ist als Xenon.
Ob es wohl bald "Dualcore vs Quadcore in Games - die pure Wahrheit" heißen wird? ;)
dargo
2006-10-29, 16:52:24
Ob es wohl bald "Dualcore vs Quadcore in Games - die pure Wahrheit" heißen wird? ;)
Aber nicht von mir. :biggrin:
Wobei ich dann "Singlecore vs Multicore" viel besser finden würde. Also einmal mit 1, 2 und 4 Cores. Bei den 4 Cores wäre aber eine X1900XT schon zu schwach um eine Grafikkarten-Limitierung zu 100% auszuschliessen.
Ob es wohl bald "Dualcore vs Quadcore in Games - die pure Wahrheit" heißen wird? ;)
naja, nicht wirklich, da kaum eine engine eine gleichmäßige belastung aller threads schaffen wird, braucht man schon einige threads mehr als cores um noch eine vernünftige skalierung zu haben.
mit "nur" 4-6 threads wird ein quadcore da kaum nennenswerte vorteile zeigen können.
Hmm ka ob das Ding einen Benchmark hat. So intensiv hab ich jetzt nicht geforscht. Ist mir nur durch Zufall aufgefallen, als ich es abschiessen musste, weil meine Flotte so groß war, dass es keinen Hyperjump mehr hinbekommen hat. Im Sysinternals sind halt schön 3 Threads mit recht gleichmässiger Auslastung zu sehen.
Ich kann mich jedoch noch entsinnen, dass es, als ich es damals vor sechs Jahren gezockt habe, bei sehr vielen Einheiten recht zäh wurde. Und zwar nicht die Grafik, sondern die Schiffe, die dann nur noch verzögert reagiert haben. Ich nehme also mal an, dass die ganze Flotten-KI in einem extra Thread steckt.
Sentinel
Besitzt du HW 2? Wenn ja, kannst du vielleicht sagen ob es auch multithreaded ist, und ob es vom DC Nutzen zieht?
dargo
2006-10-29, 22:17:41
Prey, El Matador und Hitman: Blood Money hinzugefügt (siehe erster Beitrag). =)
Botcruscher
2006-10-29, 22:21:11
Die Balken könnten direckt aus der Marketingabteilung kommen.:unono:
Prey, El Matador und Hitman: Blood Money hinzugefügt (siehe erster Beitrag). =)
könntest du bitte die x-achse beschriften, und am besten in einem maßstab dass 33 vs 36fps nicht wie doppelt so schnell aussieht?
LovesuckZ
2006-10-29, 22:22:14
Schade, dass du keine höheren AUflösungen fahren kannst.
Da die 20/22" Widescreen Displays anscheinend im freien Fall sind, wäre Messungen mit 1600/1680*1200/1050 nicht schlecht.
/edit: 640*480? Spielst du so? :ugly:
dargo
2006-10-29, 22:28:06
Die Balken könnten direckt aus der Marketingabteilung kommen.:unono:
Hehe. :)
könntest du bitte die x-achse beschriften, und am besten in einem maßstab dass 33 vs 36fps nicht wie doppelt so schnell aussieht?
Wenn ich rausfinde wie es geht mache ich es. :tongue:
Die Proportionen sehen so wirklich besch..... aus, muss ich zugeben. :redface:
edit: 640*480? Spielst du so? :ugly:
Du hast den Sinn dieses Threads leider nicht verstanden, genauso wie Botcruscher. ;(
Botcruscher
2006-10-29, 22:30:11
Schade, dass du keine höheren AUflösungen fahren kannst.
Da die 20/22" Widescreen Displays anscheinend im freien Fall sind, wäre Messungen mit 1600/1680*1200/1050 nicht schlecht.
/edit: 640*480? Spielst du so? :ugly:
Ack. Büdde, Büdde, Büdde.:umassa:
LovesuckZ
2006-10-29, 22:33:35
Du hast den Sinn dieses Threads leider nicht verstanden, genauso wie Botcruscher. ;(
Es ging um den Vergleich von Single- zu Dualcore in Spielen.
Demnach sollten auch spielerelevanten EInstellungen gefahren werden.
Solche 640*480 Vergleiche gibt es im Internet genug.
Nichts gegen deine Arbeit, aber ich spiele nunmal nicht in 640*480.
Trotzdem ein :up: für die Arbeit.
/edit:
Mich hat schon immer interessiert wie gut Games vom Dualcore Prozessor profitieren
Ich behaupte einfach, dass du nicht in 640*480 spielst.
Die ersten Vergleiche sind vollkommen in Ordnung, die neuen dagegen ziemlich uninteressant.
AnarchX
2006-10-29, 22:37:25
btw.
640x480 ist bei ATI auch nicht ganz unkritisch, so ist in manchen Games 1024x768 schneller als dieses, auf Grund bestimmter Optimierungen im Treiber.
dargo
2006-10-29, 22:38:22
Es ging um den Vergleich von Single- zu Dualcore in Spielen.
Richtig, und nur darum. Deswegen macht ein Vergleich in praxisnahen Auflösungen mit AA/AF keinen Sinn da die Grafikkarte (außer in GTR 2) immer limitiert. Somit gibt es ab bestimmten Auflösungen mit 4xAA keinen Vorteil für den Dualcore.
Ich will damit nur zeigen wie gut bestimmte Games auf den Dualcore optimiert sind. Und das kann man eben nur tun indem man eine nahezu 100%-ige CPU-Limitierung "provoziert".
640x480 ist bei ATI auch nicht ganz unkritisch, so ist in manchen Games 1024x768 schneller als dieses, auf Grund bestimmter Optimierungen im Treiber.
Verdammt. Jetzt wo du es sagst, ich habe das schon mal gehört. Meinst du die Frames wären in 1024x768 in bestimmten Games höher? Kann ich mir kaum vorstellen. Ich hätte doch besser mit A.I off testen sollen. ;(
Naja, ich werde das mal gegentesten. Falls die Frames wirklich höher sein sollten werde ich die entsprechenden Games nochmal in 1024x768 benchen.
Botcruscher
2006-10-29, 22:40:53
Eben. 640x480 ist nichtmal eine halbe Wahrheit. Hübsche Werte wie es sein könnte ohne wirklichen Realitätsbezug.
Das ist wie wenn man sich einen 500PS 300kmh Sportwagen kauft, um in der 30Zone voller Blitzer Sontags zum Bäcker zu fahren.
Und wir wollen ja "die pure Wahrheit" in Games.
PS: Nagut- schön wärs trotzdem.
LovesuckZ
2006-10-29, 22:46:04
Richtig, und nur darum. Deswegen macht ein Vergleich in praxisnahen Auflösungen mit AA/AF keinen Sinn da die Grafikkarte (außer in GTR 2) immer limitiert. Somit gibt es ab bestimmten Auflösungen mit 4xAA keinen Vorteil für den Dualcore.
Das ist doch der Punkt, der bei diesem Vergleich herausgestellt werden müsste.
So finde ich es 100% informativer, wenn Werte von praxisnahen Auflösungen verwendet werden (ohne sowie mit Qualitätsverbesserungen).
Und das kann man eben nur tun indem man eine nahezu 100%-ige CPU-Limitierung "provoziert".
Du solltest aber nicht Situationen heraussuchen, welche vollkommen praxisfern sind. Siehe auch Quake4. Es profiert in einer nativen 17" TFT-Auflösung in deiner Situation nicht von einem Dualcore profitiert. Für mich interessant.
Aber 640*480? Schade um die Arbeit und die Zeit.
dargo
2006-10-29, 22:52:53
@LovesuckZ und Botcruscher
Wie gesagt, ihr habt den Sinn dieses Threads nicht verstanden. Ich habe nicht diesen Threadtitel gewählt "Singlecore vs Dualcore in Games - die pure Wahrheit in praxisnaher Bildqualität". :wink:
Hier geht es nur darum, in wieweit "aktuelle" Games dualcore-optimiert sind.
LovesuckZ
2006-10-29, 22:57:54
Hier geht es nur darum, in wieweit "aktuelle" Games dualcore-optimiert sind.
Spielst du in 640*480?
dargo
2006-10-29, 23:02:27
Spielst du in 640*480?
Ich möchte dich hiermit bitten mit dem Spammen aufzuhören. Wenn du über den Sinn dieses Threads reden willst mach das bitte über PM.
saddevil
2006-10-29, 23:14:32
Ich möchte dich hiermit bitten mit dem Spammen aufzuhören. Wenn du über den Sinn dieses Threads reden willst mach das bitte über PM.
hmm
ich muss aber einerseits hier auch einigen zustimmen
schön ist das der DC in 640x480 schneller ist ...
aber da spiele ich zumindest kein game !!!
das minimum ist 1024x768 .. eher 1280x1024
und dort ist auch vielen die DC leistung wichtig ...
ein DC der dort NIX bringt .. ist eben dort auch nicht notwenig
Lightning
2006-10-29, 23:28:14
hmm
ich muss aber einerseits hier auch einigen zustimmen
schön ist das der DC in 640x480 schneller ist ...
aber da spiele ich zumindest kein game !!!
das minimum ist 1024x768 .. eher 1280x1024
und dort ist auch vielen die DC leistung wichtig ...
ein DC der dort NIX bringt .. ist eben dort auch nicht notwenig
Dieser Thread soll auch gar nicht feststellen, ob ein DC was bringt, wenn die Grafikkarte limitiert (das tut er natürlich nicht). Es soll lediglich das Potential gezeigt werden. Die theoretische Mehrleistung gegenüber SC in Spielen. Wer das nicht interessant findet, brauch sich die Benchmarks ja nicht anzuschauen.
saddevil
2006-10-29, 23:50:30
ich habe ja auch von einem opteron 144 @ 2700MHz auf einen X2 mit 2500Mhz gewechselt
die theoretische mehrleistung in allen ehren
aber was nützt diese .. zB später bei Quadcore wenn diese nicht genutzt wird ?
da sollte man mal drüber nachdenken
das ein X2 oder C2D mehr rechenleistung wie ein singlecore hat sollte jedem DAU vewusst sein
nur wie diese leistung genutzt wird .. das ist immernoch etwas fraglich
wenn mal physik und KI besser werden .. bestimmt
aber selbst das wird auf GPU und extrachips ausgelagert
Hvoralek
2006-10-30, 11:31:26
@ LovesuckZ/ Botcruscher: Wenn man diese Tests mit praxisnahen Einstellungen machen würde, könnte man "feststellen", dass ein zweiter Kern in etlichen Spielen kaum etwas bringt. Ebenso wie man "feststellen" könnte, dass man statt eines 4- GHz- Conroe meist fast ebenso gut einen X2 4200+ verwenden könnte. Man würde nur Aussagen treffen können, ob nun in einem bestimmten Spiel die CPU wichtiger ist oder die GraKa (bzw. in diesem Thread auch das nur dann, wenn man schon weiß, wieviel iE ein zweiter Kern bringt), und darum geht es hier nicht. Die Frage ist, wieviel ein zweiter Kern bringen kann, wenn die CPU stark belastet wird. Genauso wie auch beim Test eines neuen CPU- Modells entscheidend ist, wieviel schneller/ langsamer als die Konkurrenz es ist, wenn es darauf ankommt.
Das ist andersherum ja genauso. Wenn Ihr mit GTR2 oder AoE3 GraKa- Benchmarks in realistischen Einstellungen durchführt, werdet Ihr auch "feststellen", dass eine X1950 XTX ggü einer 6800 GT nichts bringt.
Mit Euren Überlegungen seid Ihr sicher gut in Kaufberatungsthreads aufgehoben, aber nicht bei Grundlagenthemen wie diesem.
@ dargo: Du machst Dir damit eine ganz schöne Arbeit, alle Achtung.
Armaq
2006-10-30, 11:54:16
Dargo, mach weiter. Es ist definitiv "richtig" was du machst. Wenn du zufällig an eine G80 gerätst, dann kannst du die Grafik hochstellen, ansonsten finde ich deine Einstellung goldrichtig.
Was ich toll fände, wenn du mal unter "Realbedingungen" testet. D.h. nebenbei läuft Teamspeak, ein Antivirenprogramm, ICQ und dein EMail-Client ist offen.
Falls ich zocke, sieht das bei mir meistens so aus, denn niemand schließt alle Anwendungen und startet danach sein Spiel. Durch so etwas erfährt man erstmal, warum ein Dualcore auch bei Spielern wirklich Sinn macht.
Hvoralek
2006-10-30, 11:59:10
Was ich toll fände, wenn du mal unter "Realbedingungen" testet. D.h. nebenbei läuft Teamspeak, ein Antivirenprogramm, ICQ und dein EMail-Client ist offen.
Falls ich zocke, sieht das bei mir meistens so aus, denn niemand schließt alle Anwendungen und startet danach sein Spiel. Durch so etwas erfährt man erstmal, warum ein Dualcore auch bei Spielern wirklich Sinn macht.Ich mache normalerweise alles dicht, was ich nicht brauche. Mal von der Performance abgesehen, ist es auch nicht so toll, beim Zocken per ICQ angepingt zu werden.
saddevil
2006-10-30, 12:40:57
Was ich toll fände, wenn du mal unter "Realbedingungen" testet. D.h. nebenbei läuft Teamspeak, ein Antivirenprogramm, ICQ und dein EMail-Client ist offen.
Falls ich zocke, sieht das bei mir meistens so aus, denn niemand schließt alle Anwendungen und startet danach sein Spiel. Durch so etwas erfährt man erstmal, warum ein Dualcore auch bei Spielern wirklich Sinn macht.
ich lass auch immer alles offen ...
also ICQ , AVG free , zonealarm , Deamontools , realtek panel ....
das sind so die wichtigsten die eh immer an sind
und davon mach ich nie was aus
das sind bedingungen die ein DC mit zu schlucken hat/bekommt
LovesuckZ
2006-10-30, 12:41:45
Die Frage ist, wieviel ein zweiter Kern bringen kann, wenn die CPU stark belastet wird. Genauso wie auch beim Test eines neuen CPU- Modells entscheidend ist, wieviel schneller/ langsamer als die Konkurrenz es ist, wenn es darauf ankommt.
Ich stimme dir da dazu. Aber dann ist die Überschrift "Games - die pure Wahrheit" irreführend da Spiele impliziert, es werden spielenahe Einstellungen verwendet. Der Betgriff "Anwendungen" ist deutlich besser.
Er könnte doch den CPU Score des 3DMarks verwenden. Die Aussagekraft wäre die gleiche.
Das ist andersherum ja genauso. Wenn Ihr mit GTR2 oder AoE3 GraKa- Benchmarks in realistischen Einstellungen durchführt, werdet Ihr auch "feststellen", dass eine X1950 XTX ggü einer 6800 GT nichts bringt.
Dann hätte man ein Diskussionpunkt, welcher sich entweder mit anderen Spielen verhärten oder verflüchtigen würde.
Was darko im späteren Verlauf gemacht hat, wäre so, als wenn in einem Grafikkartentest eine sehr hohe Auflösung und alle Bildverbesserungsmaßnahmen einstellenwürden.
Zur Leistungsunterscheidung zweier Karten in Ordnung, aber leider ohne relevanz zur Realität.
Mit Euren Überlegungen seid Ihr sicher gut in Kaufberatungsthreads aufgehoben, aber nicht bei Grundlagenthemen wie diesem.
Um richtig beraten zu können, müssen Grundlagen geschaffen werden. Woher sollten diese kommen, wenn niemand sie erörtert?
Wie sollte jemand gut beraten werden, wenn niemand Vergleiche spielenaher Einstellung macht.
Daher gehört dieses Thema in diesem Thread, da der Ersteller mit guten Einstellungen angefangen hat, dann aber leider einen falschen Weg einschlägt.
Armaq
2006-10-30, 13:03:07
Ich mache normalerweise alles dicht, was ich nicht brauche. Mal von der Performance abgesehen, ist es auch nicht so toll, beim Zocken per ICQ angepingt zu werden.
Das kann man ja "unterdrücken". Ansonsten löblich von dir, zu umständlich für mich.
Hvoralek
2006-10-30, 13:34:23
Ich stimme dir da dazu. Aber dann ist die Überschrift "Games - die pure Wahrheit" irreführend da Spiele impliziert, es werden spielenahe Einstellungen verwendet."Singlecore vs Dualcore" sagt eindeutig, dass es um den Prozessor geht. Und die "Wahrheit" (Ich hasse solche reißerischen Titel, aber gut) über CPU- Leistung in Spielen lässt sich mMn am besten über solche wenig realistischen Einstellungen erreichen. Es heißt ja "Der praktische Nutzen von Dual- Cores in Games - die pure Wahrheit", sondern für mich handelt es sich eindeutig um eine Einschätzung der Leistungsfähigkeit der CPU als solche. Die mag zwar im High- End- Bereich zZt noch keine große Rolle spielen, weil meist entweder die GraKa begrenzt oder es so oder so flüssig läuft. In kommenden Spielen kann darin aber schon der Unterschied zwischen 20 und 30 fps liegen.
Der Betgriff "Anwendungen" ist deutlich besser.Sind Spiele in praxisnahen Einstellungen Anwendungen?
Er könnte doch den CPU Score des 3DMarks verwenden. Die Aussagekraft wäre die gleiche.Das ist quasi ein synthetischer Physiktest mit ein klein wenig KI. Das gibt keinen Aufschluss darüber, wie sich CPUs in Spielen verhalten/ verhalten werden. Der Vorteil von Spielen in niedrigen Auflösungen gegenüber synthetischen Benchmarks ist, dass erstere qualitativ realistische Anforderungen stellen, die sich, wenn man bei der Quantität etwas nachhilft, halbwegs auf kommende Titel übertragen lassen dürften.
Dann hätte man ein Diskussionpunkt, welcher sich entweder mit anderen Spielen verhärten oder verflüchtigen würde.?
Was darko im späteren Verlauf gemacht hat, wäre so, als wenn in einem Grafikkartentest eine sehr hohe Auflösung und alle Bildverbesserungsmaßnahmen einstellenwürden.High- End- GraKa- Tests sollten ja auch in hohen Auflösungen durchgeführt werden. Am besten sowohl mit als auch ohne AA/AF, weil da ganz andere Anforderungen gestellt werden.
Zur Leistungsunterscheidung zweier Karten in Ordnung, aber leider ohne relevanz zur Realität.Doch. Auch da mit Relevanz für kommende Spiele. Und wenn nicht zur Abgrenzung zweier Karten/ CPUs, wozu dann solche Benchmarks?
Um richtig beraten zu können, müssen Grundlagen geschaffen werden.Dann bschäftige Dich doch mit ihnen.
LovesuckZ
2006-10-30, 14:25:27
"Singlecore vs Dualcore" sagt eindeutig, dass es um den Prozessor geht. Und die "Wahrheit" (Ich hasse solche reißerischen Titel, aber gut) über CPU- Leistung in Spielen lässt sich mMn am besten über solche wenig realistischen Einstellungen erreichen.
Sie haben aber leider keinen praxisbezug.
Ein Mercedes ist auch schneller als mein Swift in der Wüste, aber ob er genauso schnell ist in der Stadt, ist dagegen zweifelhaft.
Die reine Prozessorleistung lässt sich nur messen, wenn eben diese limitiert.
Aber dafür sollten keine Situationen gewählt werden, welche im Einsatzfeld nur gering eingesetzt werden. Es scheint, dass zwanghaft Situationen gesucht werden, wo das "gewünschte" Ergebnis wiedergespiegelt wird.
In kommenden Spielen kann darin aber schon der Unterschied zwischen 20 und 30 fps liegen.
Und hier liegt das Problem. Du weißt nicht, wie stark zukünftige Spiele von Dual-Core profitieren. Daher wäre eine Momentaufnahme mit realistischen Einstellungen viel interessanter als Zukunftsprognosen.
Aber auch nur, wenn der User mit weniger Bildqualität spielt:
Wenn die Grafikkarte ab einem gewissen Level der hemmende Faktor für die Leistung ist, muss die Belastung so weit heruntergeschraubt werden, dass die CPU limitiert. Das bedeute aber, dass der Spieler sich mit weniger Qualität zu frieden geben muss.
Und das ist der Knackpunkt: Dualcore bringt ein Leistungsplus gegenüber Singlecore anscheinend nur dann, wenn in vielen Fällen die Bildqualität abgesenkt werden muss.
Sind Spiele in praxisnahen Einstellungen Anwendungen?
Sie sind immernoch Anwendungen, aber die Vergleiche wären informativer, sie wären spiele-relevanter.
Er könnte auch Encodierungsprogramme verwenden und das Ergebnis auf Spiele übertragen.
High- End- GraKa- Tests sollten ja auch in hohen Auflösungen durchgeführt werden. Am besten sowohl mit als auch ohne AA/AF, weil da ganz andere Anforderungen gestellt werden.
Ja, aber die Ergebnisse sollten nicht auf praxisnahe Situationen übertragen werden.
Siehe auch X1900XT und X1800XT. Es limitiert eben nicht immer die arithmetische Leistung.
Und ob sie in Zukunft immer mehr zum limitierenden Faktor wird, ist genauso ungewiss.
Doch. Auch da mit Relevanz für kommende Spiele. Und wenn nicht zur Abgrenzung zweier Karten/ CPUs, wozu dann solche Benchmarks?
Sie dienen zur Gewinnung von Informationen. Genauso wie Vergleiche in 640*480, um prozessorlimitierende Situationen zu erzwingen.
Sie lassen aber sich nicht auf den Alltag übertragen. Aus diesem Grund sollten immer weitere Vergleiche gemacht werden, um sich sein relevantes herauszusuchen zu können.
Dann bschäftige Dich doch mit ihnen.
Das mache ich gerade. :)
Leider fehlt mir aber ein entsprecher Zwei-Kern Prozessor. Daher bin ich auf Daten von dritten Personen angewiesen, welche schwer zu bekommen sind.
Armaq
2006-10-30, 15:16:34
Sie haben aber leider keinen praxisbezug.
Ein Mercedes ist auch schneller als mein Swift in der Wüste, aber ob er genauso schnell ist in der Stadt, ist dagegen zweifelhaft.
Die reine Prozessorleistung lässt sich nur messen, wenn eben diese limitiert.
Aber dafür sollten keine Situationen gewählt werden, welche im Einsatzfeld nur gering eingesetzt werden. Es scheint, dass zwanghaft Situationen gesucht werden, wo das "gewünschte" Ergebnis wiedergespiegelt wird.
So ein Blödsinn. Ein CPU-Benchmark soll eben nur die CPU-Leistung aufzeigen und nicht was die Festplatte dabei verrichtet.
Und hier liegt das Problem. Du weißt nicht, wie stark zukünftige Spiele von Dual-Core profitieren. Daher wäre eine Momentaufnahme mit realistischen Einstellungen viel interessanter als Zukunftsprognosen.
Aber auch nur, wenn der User mit weniger Bildqualität spielt:
Wenn die Grafikkarte ab einem gewissen Level der hemmende Faktor für die Leistung ist, muss die Belastung so weit heruntergeschraubt werden, dass die CPU limitiert. Das bedeute aber, dass der Spieler sich mit weniger Qualität zu frieden geben muss.
Und das ist der Knackpunkt: Dualcore bringt ein Leistungsplus gegenüber Singlecore anscheinend nur dann, wenn in vielen Fällen die Bildqualität abgesenkt werden muss.
Woher nimmst du die These? Die Bildqualität wird doch nicht durch die CPU bestimmt.
Jedem der sich ein wenig mit dem Thema beschäftigt, weiss sicher, dass er für mehr Bildqualität/verbessernde Maßnahmen die Grafikkarte betrachten muss. Deshalb heißt sie auch Grafik/Bild-Karte. Haarsträubender Vergleich.
Sie sind immernoch Anwendungen, aber die Vergleiche wären informativer, sie wären spiele-relevanter.
Er könnte auch Encodierungsprogramme verwenden und das Ergebnis auf Spiele übertragen.
Macht hier kein Mensch. -.-
Dargo nimmt explizit Spiele.
Das mache ich gerade. :)
Leider fehlt mir aber ein entsprecher Zwei-Kern Prozessor. Daher bin ich auf Daten von dritten Personen angewiesen, welche schwer zu bekommen sind.
Du hast kein Vergleichsmaterial und stellst die Methodik von Anderen in Frage? Dann präsentiere wenigstens Vergleichsmaterial von anderen Single/Dualcore - Vergleichen.
Alles in allem macht es einfach den Eindruck, dass du die Ergebnisse von Dargo zerreden willst.
dargo
2006-10-30, 15:27:30
Und das ist der Knackpunkt: Dualcore bringt ein Leistungsplus gegenüber Singlecore anscheinend nur dann, wenn in vielen Fällen die Bildqualität abgesenkt werden muss.
Das ist eben das, was du nicht verstanden hast. Hättest du nicht nur auf die Balken gequckt wäre es dir wohl aufgefallen, dass ich immer mit maximalen Details, die das Game anbietet, teste (außer Softshadows, die eh auf die Grafikkarte gehen). Nur halt in der kleinstmöglichen Auflösung die das Game anbietet.
Mal was zur deiner Diskussion über den Sinn dieses Threads.
Was ist überhaupt eine praxisnahe Auflösung mit wieviel AA/AF Anteil? Wer soll das bestimmen?
In erster Linie bestimmt der Prozessor wie schnell ein Game abläuft.
Wie gesagt, was ist eine praxisnahe Auflösung bei einer X1900XT?
Wie sieht es aus bei einer G8800GTX oder sogar zwei davon aus?
Hätte ich ein SLI mit 2x G8800GTX würde ich dementsprechend die Auflösung hochsetzen da die Grakas dann nicht mehr limitieren. Aber dann würdest du genauso meckern wenn ich nur in 1024x768 oder 1280x1024 ohne AA/AF testen würde, weil es wieder nicht praxisnah für diese beiden Grafikkarten ist. :wink:
Wie testet man ob ein Prozessor X schneller ist wie Prozessor Y? Vielleicht solltest du darüber nachdenken.
Alles in allem macht es einfach den Eindruck, dass du die Ergebnisse von Dargo zerreden willst.
Nicht zerreden, sondern nur mit einem Realworldscenario "erweitern".
Armaq
2006-10-30, 15:41:31
Nicht zerreden, sondern nur mit einem Realworldscenario "erweitern".
Ich habe auch ein "Realworldscenario" angeboten bzw. herbeigewünscht. Aber die Grafiksettings heraufzuschrauben ist KEIN CPU-Test.
LovesuckZ
2006-10-30, 15:45:19
So ein Blödsinn. Ein CPU-Benchmark soll eben nur die CPU-Leistung aufzeigen und nicht was die Festplatte dabei verrichtet.
Es geht doch garnicht um die reine CPU Leistung, dafür gibt es doch eindeutig bessere Programme.
Es geht um die Auswirkung von Single- und Dualcore Prozessoren in Spielen. Darunter habe ich andere Einstellungen erwarten.
Seine ersten Vergleiche sind wunderbar, und lassen mich weiter grübeln, ob ich für den 939 Sockel mir einen Zwei-Kern Prozessor kaufe und ihn längerfristig behalte oder als Übergang einen 4000+ kaufe und dann umsteige.
Sie zeigen, dass mit einem höheren Bildqualitätsanspruch eben die Grafikkarte bedeutender sein muss. Für mich von Relevanz, da ich mir einen G80 kaufen werde.
Die Bildqualität wird doch nicht durch die CPU bestimmt.
Das Anspruchdenken der Spieler ist in Sachen Bildqualität gestiegen. Somit verschiebt sich der limitierende Faktor in Spielen von der CPU - Seite auf die GPU - Seite.
Will ich von einem Dualcore - Prozessor profitieren, müsste ich in vielen Fällen Abstriche bei der Bildqualität machen. Dies wäre gleichbedeutend mit dem höheren Anspruch von neueren Spielen an die Grafikkarte, die mich Zwingen mit der Qualität herunterzugehen.
Nehmen wir doch zum Beispiel Age of Empires 3 (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/15/#abschnitt_age_of_empires_3) und die Geforce 7800GTX 512. In 1280*1024 ist das Spiel mit AA/AF immer noch CPU-limitierend. Hier könnte ein Dualcore - Prozessor einen Leistungsschub bringen. Wird die Auflösung auf 1600*1200 erhöht, ist plötzlich die Grafikkarte der Faktor, welcher die Leistung bestimmt.
Ein Dualcore - Prozessor wäre hier nur Geldverschwendung.
Möchte ich trotzdem einen Leistungszuwachs haben, müsste ich auf AA/AF verzichten oder eine kleinere Auflösung einstellen.
Du hast kein Vergleichsmaterial und stellst die Methodik von Anderen in Frage?
Ist das nicht der Sinn eines Diskussionsforums, die eigenen Bedenken bezüglich der Methoden von anderen darzulegen?
Ich dachte, wir sind hier, um unser Wissen, unsere Bedanken und Meinungen auszutauschen...
Ich zerrede nicht seine Werte und nicht seine Arbeit.
Dafür verdient er sich lob!
Armaq
2006-10-30, 15:56:16
Ok, dann habe ich deine Postings als zu agressiv wahrgenommen.
Nichtsdestrotz hat der Wechsel von 3500+ auf x23800+ eine deutliche Leistungssteigerung herbeigeführt. Ohne Übertaktung. Die habe ich erst nach den ersten Tests mit WC3 TFT, CSS und DODS durchgeführt.
Ich weiss, dass dies eine kleine Auswahl an Spielen ist, aber diese nutze ich regelmäßig. Splinter Cell 3 kann man auch dazuzählen, hier limitiert meine 6800GT@Ultra zu stark.
LovesuckZ
2006-10-30, 16:12:42
Das ist eben das, was du nicht verstanden hast. Hättest du nicht nur auf die Balken gequckt wäre es dir wohl aufgefallen, dass ich immer mit maximalen Details, die das Game anbietet, teste (außer Softshadows, die eh auf die Grafikkarte gehen). Nur halt in der kleinstmöglichen Auflösung die das Game anbietet.
Dein 1. Teil ist verdammt geil. Informativ^10.
Der zweite Teil ist dagegen weniger bedeutend und eher langweilig.
Wie testet man ob ein Prozessor X schneller ist wie Prozessor Y? Vielleicht solltest du darüber nachdenken.
Man testet Programme, welche einen einzig limitierenden Faktor haben: Den Prozessor.
Encodierungsprogramme, Berechnungsprogramme, Packungsprogramme...
Spiele sind nunmal für viele nicht mehr auf 1024*768 ohne AA/AF beschränkt. Ein Encodierungsprogramm dagegen ist heute wie früher immer noch stark vom Prozessor abhängig, egal ob Geforce 6800 oder Geforce 8800GTX SLI - Verbund.
Je näher sich eine Spielsituation der Prozessorlimitierung nähert, umso wahrscheinlich wird die überschüssige Leistung der Grafikkarte in eine höhere Bildqualität verwendet.
Es gibt nicht die eine Praxissituation sondern mehrere, abhängig von Prozessor, Grafikkarte, Bildschirm, eigenen Ansprüchen... Je näher man sich dieser nähert, umso interessanter sind die Informationen für den Leser, da sie ihn viel eher ansprechen. Das ist der Grund, warum ich deinen ersten Teil so gut finde: Ich spiele in 1680*1050 mit AA/AF, das ist eben deutlich näher an 1280*1024 als an 640*480.
Armaq
2006-10-30, 16:45:26
Aber Dargo hat doch nur festgehalten, dass WENN die CPU einen limitierenden Faktor darstellt, bringt ein DUALCORE durch die Bank Vorteile.
Somit hast du die Information, dass eine Dualcore-CPU in CPU-Limitierung durchaus Vorteile bringt. Alles andere ist hinfällig. Denn diese Vorteile bringen auch etwas, wenn in einem Spiel vll. nur 30% der Situationen ein Knackpunkt für die CPU sind.
Falls du nur noch in 2560 spielst, wirst du solche Situationen seltener antreffen - so einfach ist das.
Madkiller
2006-10-30, 16:49:02
Präziser wäre so ein Test natürlich mit einem AMD X2, bei dem ja dann auch nur die Hälfte vom Cache im Singlecore-Modus benutzt wird.
So groß sind die Unterschiede nicht. :)
Bei dem X² bringt bei meinen Messungen die DC-Optimierung nur 2-3% mehr - was wohl auf den Shared-Cache vom C2D zurückzuführen ist.
dargo
2006-10-30, 17:11:49
Bei dem X² bringt bei meinen Messungen die DC-Optimierung nur 2-3% mehr - was wohl auf den Shared-Cache vom C2D zurückzuführen ist.
Danke Madkiller. :)
Das ist auch der Bereich den ich auch erwartet habe. Jetzt habe ich ja die Bestätigung.
Man testet Programme, welche einen einzig limitierenden Faktor haben: Den Prozessor.
Encodierungsprogramme, Berechnungsprogramme, Packungsprogramme...
Spiele sind nunmal für viele nicht mehr auf 1024*768 ohne AA/AF beschränkt. Ein Encodierungsprogramm dagegen ist heute wie früher immer noch stark vom Prozessor abhängig, egal ob Geforce 6800 oder Geforce 8800GTX SLI - Verbund.
Je näher sich eine Spielsituation der Prozessorlimitierung nähert, umso wahrscheinlich wird die überschüssige Leistung der Grafikkarte in eine höhere Bildqualität verwendet.
Es gibt nicht die eine Praxissituation sondern mehrere, abhängig von Prozessor, Grafikkarte, Bildschirm, eigenen Ansprüchen... Je näher man sich dieser nähert, umso interessanter sind die Informationen für den Leser, da sie ihn viel eher ansprechen. Das ist der Grund, warum ich deinen ersten Teil so gut finde: Ich spiele in 1680*1050 mit AA/AF, das ist eben deutlich näher an 1280*1024 als an 640*480.
Was meinst du wie lange es dauern würde bis ich alle Auflösungen mit 2x/4x/6xAA durchhabe. :ugly:
Ich mach es dir einfacher. Fängt die Grafikkarte an zu limitieren nimmt kontinuierlich der Vorteil vom Dualcore bzw. schnellerer CPU ab bis man an den Punkt angelangt ist wo eine 100%-ige Grafikkarten-Limitierung herscht (siehe Teil1 mit Quake 4 und Call of Duty 2).
So einfach ist das. Dafür brauche ich nicht jede Auflösung durchzugehen.
Hier geht es alleine darum bis zu wieviel % einigermaßen aktuelle Games für den Dualcore optimiert sind.
Leider profitiert ein cpu-limitiertes, von mir getestetes Game (GTR 2), kaum vom Dualcore. Hinzu kommt auch noch, dass mein Genre eher Aktion, Ego-Shooter ist. Und gerade bei diesem Genre überwiegt die Grafikkarten-Limitierung.
Bei Adventure, Startegie, RPG oder Simulationen kann es wieder ganz anders aussehen (auch in deiner praxisnaher Auflösung + AA/AF)
PS: Habe es ganz vergessen. Basiert nicht Prey auf der Quake4 bzw. Doom3 Engine? Mich wundert es, dass es überhaupt keinen Unterschied mit einem Dualcore gibt.
dargo
2006-10-30, 18:47:07
könntest du bitte die x-achse beschriften, und am besten in einem maßstab dass 33 vs 36fps nicht wie doppelt so schnell aussieht?
Ich denke mal, jetzt kommen die Proportionen besser zur Geltung. =)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4884173&postcount=1
Edit:
Condemned: Criminal Origins hinzugefügt.
Hvoralek
2006-10-30, 21:49:14
Die reine Prozessorleistung lässt sich nur messen, wenn eben diese limitiert.
Aber dafür sollten keine Situationen gewählt werden, welche im Einsatzfeld nur gering eingesetzt werden. Es scheint, dass zwanghaft Situationen gesucht werden, wo das "gewünschte" Ergebnis wiedergespiegelt wird.Es werden Einstellungen gewählt, die überhaupt ein Ergebnis widerspiegeln. Es geht hier nicht um die Frage, welche Hardware man für Spiel XY benötigt, sondern um abstrakte Unterschiede zwischen verschieden Modellen einer bestimmten Komponente. Mit den gewünschten Einstellungen würde man vielfach nur feststellen, dass die GraKa limitiert. Damit wäre man aber keinen Schritt weiter.
Und hier liegt das Problem. Du weißt nicht, wie stark zukünftige Spiele von Dual-Core profitieren. Daher wäre eine Momentaufnahme mit realistischen Einstellungen viel interessanter als Zukunftsprognosen.Es wird sicherlich nicht weniger werden. Es geht darum, zu zeigen, was für Steigerungen sich bei Spielen erreichen lassen. Kommende Spiele werden dabei insgesamt sicherlich nicht schlechter abschneiden.
Und das ist der Knackpunkt: Dualcore bringt ein Leistungsplus gegenüber Singlecore anscheinend nur dann, wenn in vielen Fällen die Bildqualität abgesenkt werden muss.Und das gilt für höher taktende oder sonstwie schnellere Prozessoren nicht? Auch die Unterschiede in deren Leistungsfähigkeit kann man in solchen Einstellungen am besten ermitteln. Nach Deinen Überlegungen sind neue Prozessoren für halbwegs ausbalancierte Systeme in den meisten Spielen per se sinnlos.
Sie sind immernoch Anwendungen, aber die Vergleiche wären informativer, sie wären spiele-relevanter.
Er könnte auch Encodierungsprogramme verwenden und das Ergebnis auf Spiele übertragen.Encodierprogramme haben mit anderen Arten von Berechnungen zu tun als typische Spiele. Wenn man nach CAD- Anwendungen geht, waren die Netburst- Prozessoren gar nicht so mies. Bei Spielen sah es anders aus.
Ja, aber die Ergebnisse sollten nicht auf praxisnahe Situationen übertragen werden.
Siehe auch X1900XT und X1800XT. Es limitiert eben nicht immer die arithmetische Leistung.Benchmarks zwischen den Karten dürften in allen Auflösungen (ausgenommen sehr hohe, da hat R580 Vorteile) in etwa die gleichen Ergebnisse liefern. Nur die relativen Abstände variieren: In niedrigeren Auflösungen geringer, in höheren größer und korrekter. Was soll der Vergleich?
Sie dienen zur Gewinnung von Informationen. Genauso wie Vergleiche in 640*480, um prozessorlimitierende Situationen zu erzwingen.
Sie lassen aber sich nicht auf den Alltag übertragen. Aus diesem Grund sollten immer weitere Vergleiche gemacht werden, um sich sein relevantes herauszusuchen zu können.In diesen Einstellungen erkennst Du eher in diesem Zusammenhang Relevantes. Du kannst die Leistungsdifferenzen messen, die entstehen, wenn es weitgehend die CPU begrenzt. In Situationen, in denen es nur auf die GraKa ankommt, interessiert doch gar nicht, welche CPU schneller ist und wieviel.
Es geht doch garnicht um die reine CPU Leistung, dafür gibt es doch eindeutig bessere Programme.Was für Progamme gibt es denn, die typische Rechenaufgaben in Spielen simulieren? Und in diesem Fall: Welche simulieren auch noch präzise die Parallelisierbarkeit von Spielen?
Das Anspruchdenken der Spieler ist in Sachen Bildqualität gestiegen. Somit verschiebt sich der limitierende Faktor in Spielen von der CPU - Seite auf die GPU - Seite.
Will ich von einem Dualcore - Prozessor profitieren, müsste ich in vielen Fällen Abstriche bei der Bildqualität machen. Dies wäre gleichbedeutend mit dem höheren Anspruch von neueren Spielen an die Grafikkarte, die mich Zwingen mit der Qualität herunterzugehen.
Nehmen wir doch zum Beispiel Age of Empires 3 (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/15/#abschnitt_age_of_empires_3) und die Geforce 7800GTX 512. In 1280*1024 ist das Spiel mit AA/AF immer noch CPU-limitierend. Hier könnte ein Dualcore - Prozessor einen Leistungsschub bringen. Wird die Auflösung auf 1600*1200 erhöht, ist plötzlich die Grafikkarte der Faktor, welcher die Leistung bestimmt.
Ein Dualcore - Prozessor wäre hier nur Geldverschwendung.
Möchte ich trotzdem einen Leistungszuwachs haben, müsste ich auf AA/AF verzichten oder eine kleinere Auflösung einstellen.Welche Komponente eine wie große Rolle spielt, hängt von vielen Faktoren ab:
- Auflösung, AA/AF
- konkretes System
- konkretes Spiel
Vlt verschiebt sich ja der Fokus mittelfristig auf immer präzisere Physikberechnungen, und schon hast Du wieder in den meisten Fällen in gängigen Einstellungen und auf typischen Rechnern den Prozessor als Hauptbremse.
Man testet Programme, welche einen einzig limitierenden Faktor haben: Den Prozessor.
Encodierungsprogramme, Berechnungsprogramme, Packungsprogramme...Was haben die Aufgaben, die der Prozessor von denen bekommt, mit Spielen zu tun? Mit der Argumentation kannst Du zur Einschätzung eines Prozessors Sandra nehmen und fertig. Das ist ein qualitativer Unterschied. Hier geht es aber nur um einen quantitativen. Die relativen Verhältnisse bleiben die gleichen wie in höheren Auflösungen, sie werden nur halbwegs korrekt dargestellt.
Dir ist aber schon klar, dass in den von Dir gewünschten Einstellungen nicht nur ein Doppelkerner oft kaum etwas nützen würde, sondern auch ein schnellerer Einkerner? Du überlegst, ob Du auf einen X2 oder einen einfachen 4000+ umsteigen sollst. Glaubst Du, dass, wenn ein X2 in VGA schneller ist, in höheren Auflösungen plötzlich der Einkerner vorne liegt? Da solltest Du Dir eher überlegen, überhaupt einen neuen Prozessor zu kaufen. ODer wenigstens bedenken, dass in höheren Auflösungen nicht nur ein zweiter Kern weniger bringen würde, sondern ein höherer Takt ebenfalls [/me dafür, den Zuwachs durch einen zweiten Kern in relativem Taktäquivalent auszudrücken und nicht in %]
Ich denke mal, jetzt kommen die Proportionen besser zur Geltung. =)Sehr schön. :up:
Madkiller
2006-10-31, 14:54:17
PS: Habe es ganz vergessen. Basiert nicht Prey auf der Quake4 bzw. Doom3 Engine? Mich wundert es, dass es überhaupt keinen Unterschied mit einem Dualcore gibt.
Übliche Frage...
GraKa-Limitierung 100%ig ausgeschlossen?
Prey hat die SMP-Optimierungen leider nicht erhalten.
AnarchX
2006-10-31, 15:39:55
Prey hat die SMP-Optimierungen leider nicht erhalten.
D³ profitiert doch auch nur durch die DC-Optimierung des GraKa-Treibers.
dargo
2006-10-31, 16:47:51
Übliche Frage...
GraKa-Limitierung 100%ig ausgeschlossen?
Jepp, gleiche Szene mit Dualcore 3300Mhz --> 144,8 avg. fps
Madkiller
2006-10-31, 17:16:23
Wirklich komisch...
Selbst wenn das Spiel Null mit dem 2. Core anfangen kann, sollte es wenigstens meßbar schneller sein. Schon allein, weil Fraps auf den 2. Core ausgelagert werden kann.
Aber ok, ini und so wirste selber schon geschaut haben.
dargo
2006-10-31, 17:29:24
Wirklich komisch...
Selbst wenn das Spiel Null mit dem 2. Core anfangen kann, sollte es wenigstens meßbar schneller sein. Schon allein, weil Fraps auf den 2. Core ausgelagert werden kann.
Man darf nicht vergessen, dass der Singlecore mit vollen 2MB Cache läuft. Und gerade die Quake4 Engine profitiert afaik gut vom großen Cache.
Aber ok, ini und so wirste selber schon geschaut haben.
Was meinst du damit genau?
Madkiller
2006-10-31, 18:01:01
Man darf nicht vergessen, dass der Singlecore mit vollen 2MB Cache läuft. Und gerade die Quake4 Engine profitiert afaik gut vom großen Cache.
Naja, aber auf die 2MB kann das Spiel aber immer zugreifen. Egal ob es stark oder nur schwach DC optimiert ist, oder garnicht. Aber es steht eben durch den 2. Kern (theoretisch) mehr Takt zum abarbeiten zur Verfügung.
Was meinst du damit genau?
Daß halt DC auch ggf im Spiel aktiviert ist.
Hvoralek
2006-10-31, 18:08:43
Selbst wenn das Spiel Null mit dem 2. Core anfangen kann, sollte es wenigstens meßbar schneller sein. Schon allein, weil Fraps auf den 2. Core ausgelagert werden kann.Fraps alleine dürfte keine nennenswerte Last erzeugen, wenn man keine Videos aufnimmt. Aber allein die Optimierungen im Grafiktreiber sollten messbar sein.
Madkiller
2006-10-31, 18:10:41
Naja, zumindest bei SingleCore sollte Fraps etwa 0,5% fressen.
Klar, ist nicht viel... Ich will ja auch nur darauf hinaus, daß normal auf jeden Fall ein Meßbarer Unterschied da sein müßte...
Ich stimme dir zu. :)
Vielen Dank für Deine Mühe Dargo :-)
Ich hoffe dieses Beispiel mach Schule,
anstatt immer an den Tests herumzukritisieren könnten ja die die es gerne anders haben ihre eigene Testreihe aufziehen.
dargo
2006-10-31, 19:19:47
Daß halt DC auch ggf im Spiel aktiviert ist.
Hmm, ich kenne nur die preyconfig.cfg und in dieser konnte ich nichts finden was auf Multicores hinweist. Bei Quake4 war aber auch der Multicore-Support automatisch deaktiviert (grau hinterlegt) sobald man dem Betriebssystem einen Core zugewiesen hat.
Vielen Dank für Deine Mühe Dargo :-)
Danke, das motiviert für weitere Tests. =)
Ich stehe aber gerade vor einem kleinen Problem. Wollte eigendlich alle Games in einem Beitrag zusammenfassen. Was aber leider nicht geht. Ich habe momentan das Maximum an Links (Bilder) pro Beitrag ausgeschöpft.
Jetzt ist die Frage was besser wäre:
1. Mehrere Games in einem Bild zusammenfassen und im Beitrag 1 weitermachen.
2. Mit Teil 3 anfangen, halt im separaten Beitrag.
Was meint ihr?
btw.
640x480 ist bei ATI auch nicht ganz unkritisch, so ist in manchen Games 1024x768 schneller als dieses, auf Grund bestimmter Optimierungen im Treiber.
Verdammt, du hast recht.
Quake4 und Call of Juarez zb. sind in 1024x768 etwas langsamer als in 640x480. Dafür ist wiederum Prey in 1024x768 etwas schneller als in 640x480. :uroll:
dargo
2006-11-03, 19:16:59
So, ich habe nochmal alle Games in 1024x768 getestet. Außer Prey haben alle Games in 1024x768 geringere Werte. Deswegen ist jetzt Prey in 640x480 und 1024x768 gebencht (siehe Beschreibung Teil 2 und Diagramm).
dargo
2006-11-03, 21:34:13
Teil 3:
Zum Testverfahren siehe unter Teil 2 --> klick (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4884173&postcount=1)
Die Benchmarks:
F.E.A.R - Savegame 'Infiltrierung' mit maximalen Details (Softshadows off)
30472
Ghost Recon: Advanced Warfighter - Savegame 'Kontakt' mit maximalen Details
30473
Gothic 3 - Savegame mit maximalen Details
30474
Dark Messiah of Might & Magic - Savegame 'The Gates of Stonehelm' mit maximalen Details
30475
Splinter Cell: Double Agent - Savegame 'Island - Geothermisches Kraftwerk' mit maximalen Details
30476
Need for Speed: Carbon - Rundkurs 'Silk Road' (8 Fahrzeuge) mit maximalen Details
http://666kb.com/i/amsljhk0em7nok7d0.png
Rainbow Six: Vegas - Savegame 'Calypso Casino - Der Strip' mit maximalen Details (Hardware Skinning ausgeschaltet um höhere CPU Belastung zu erzeugen)
http://666kb.com/i/amslk40x1x25qplc4.png
Armed Assault - Savegame 'Einzeleinsatz Lieferjunge' mit maximalen Details (Sichtweite 1200m)
http://666kb.com/i/amslkhunk60vnk4ec.png
Test Drive: Unlimited - Savegame 'Inseltour' (8 Fahrzeuge) mit maximalen Details (ohne HDR)
http://666kb.com/i/amslm7o00npw58p50.png
Weitere Games (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5658521&postcount=414)
Hvoralek
2006-11-04, 02:49:20
[B]F.E.A.R - Savegame 'Infiltrierung' mit maximalen Details (Softshadows off)Das sind etwa 35%. Ich habe von FEAR in dem Zusammenhang noch nicht gehört, für mich hinter CoD 2 die zweite Überraschung bisher.
BlackBirdSR
2006-11-04, 06:37:02
Das sind etwa 35%. Ich habe von FEAR in dem Zusammenhang noch nicht gehört, für mich hinter CoD 2 die zweite Überraschung bisher.
vielleicht durch die Optimierungen im Treiber alleine verursacht. Bei 640x480 kann das schon möglich sein.
dargo
2006-11-04, 09:52:59
Ich könnte mir auch gut vorstellen, dass F.E.A.R auf Dualcore "gepatched". wurde. Über 30% alleine durch den Treiber finde ich etwas viel. Wenn ich mal dazu komme werde ich F.E.A.R nochmal ohne den Patch testen.
Bei 640x480 kann das schon möglich sein.
Bei 1024x768 waren die Frames nur ~8% geringer.
Edit:
Ghost Recon: Warfighter hinzugefügt.
Hvoralek
2006-11-04, 15:54:31
vielleicht durch die Optimierungen im Treiber alleine verursacht. Bei 640x480 kann das schon möglich sein.Da müsste das Spiel aber ansonsten schon sehr genügsam sein. Und FEAR braucht mW einiges an CPU- Leistung für KI und Partikel.
Man darf nicht vergessen, dass der Singlecore mit vollen 2MB Cache läuft. Und gerade die Quake4 Engine profitiert afaik gut vom großen Cache.
das ist doch egal, beim core2duo kann immer jeder kern auf den vollen L2-cache zugreifen.
dargo
2006-11-04, 17:40:43
das ist doch egal, beim core2duo kann immer jeder kern auf den vollen L2-cache zugreifen.
Das ist mir bekannt. :)
Mein Gedankengang ist folgender - würde ein Game zu 100% vom Dualcore profitieren würde jeder Kern 1MB Cache zur Verfügung haben, oder zb. Kern1 60%, Kern2 40% (je nachdem wie er halt gebraucht wird). Der Singlecore hat aber die vollen 2MB Cache zur Verfügung, also ein kleiner Vorteil.
Err. Dann wäre der DualCore aber trotzdem deutlich schneller, weil der Code von beiden Prozessoren ausgeführt wird X-D
dargo
2006-11-04, 18:16:20
Err. Dann wäre der DualCore aber trotzdem deutlich schneller, weil der Code von beiden Prozessoren ausgeführt wird X-D
Du hast mich leider nicht verstanden. ;(
Natürlich ist der Dualcore schneller. Es geht nur darum, es ist möglich, dass der von mir simulierte Singlecore in Wirklichkeit ca. 1-3% langsamer bei den Tests wäre wenn ich 1MB Cache deaktivieren könnte.
Mein Gedankengang ist folgender - würde ein Game zu 100% vom Dualcore profitieren würde jeder Kern 1MB Cache zur Verfügung haben, oder zb. Kern1 60%, Kern2 40% (je nachdem wie er halt gebraucht wird). Der Singlecore hat aber die vollen 2MB Cache zur Verfügung, also ein kleiner Vorteil.
eben dieser gedankengang ist (zumindest vom prinzip her) nicht wirklich richtig.
es gibt beim conroe keinen L2-cache/core und auch niemals eine aufteilung in 50:50 oder 60:40 für je einen core.
es hat immer zu jedem zeitpunkt jeder core den vollen L2-cache zur verfügung.
nach deiner logik müsstest du beim single-core-test auch die hälfte deines RAMs entfernen, schließlich "teilen" sich sonst 2 cores den speicher der nun einem zur verfügung steht ;)
AnarchX
2006-11-04, 20:25:07
eben dieser gedankengang ist (zumindest vom prinzip her) nicht wirklich richtig.
es gibt beim conroe keinen L2-cache/core und auch niemals eine aufteilung in 50:50 oder 60:40 für je einen core.
es hat immer zu jedem zeitpunkt jeder core den vollen L2-cache zur verfügung.
Natürlich kann der shared L2-Cache von beiden Cores unterschiedlich ausgelastet sein, nur wird bei gleichen Daten, nichts doppelt abgelegt.
l@mer
2006-11-04, 20:30:04
Echt saubere Arbeit für den Vergleich, sehr, sehr gut. Was man sieht, das der C2D @ 3300mhz kaum schneller als @2133mhz ist. Warum ocen dann alle? Meinen x2 werde ich schon ocen müssen, da werde ich noch viel raushauen könne, denke ich.
Spasstiger
2006-11-05, 10:58:53
Hat eigentlich schon jemand die aktuelle PC Games Hardware genauer studiert?
Bei den Anno-1701-Benchmarks zeigt sich nämlich Erstaunliches.
Anno 1701 CPU-Benchmark, gemessen mit Fraps, Grafikkarte war eine X1950 XTX:
1024x768, noAA, noAF
Athlon 64 3500+ - 29 fps
Athlon 64 4000+ - 35 fps
Pentium D945 - 37 fps
Core 2 Duo E6400 - 43 fps
Athlon 64 X2 4600+ - 49 fps
Athlon 64 FX 60 - 58 fps
Core 2 Duo E6700 - 66 fps
1280x1024, 4xAA, 8:1 AF
Athlon 64 3500+ - 28 fps
Athlon 64 4000+ - 34 fps
Pentium D945 - 33 fps
Core 2 Duo E6400 - 39 fps
Athlon 64 X2 4600+ - 43 fps
Athlon 64 FX 60 - 45 fps
Core 2 Duo E6700 - 50 fps
Zum einen scheint das Spiel mächtig von mehr Cache protieren zu können, zum anderen scheint auch Dual-Core einen deutlichen Leistungsschub zu bringen. Der Athlon 64 FX-60 liegt z.B. um 66% vor dem Athlon 64 4000+ in 1024x768 noAA noAF und immer noch um 32% in 1280x1024 4xAA 8:1AF.
AnarchX
2006-11-05, 19:43:49
Die Anno1701 Werte sind aber sehr sonderbar: C2D und X2 haben hier ja die selbe Pro-MHz-Leistung...:|
Aber das sieht man mal wieder ein Paradebeispiel wo man doch erheblich Leistung herausholen kann mit einem DC, da waren ja die Entwickler mit einer Angabe vor einiger Zeit von 30% ja recht zurückhaltend.;)
(AFAIK soll Anno1701 auch noch mit weiteren Cores skalieren, mal sehen ob es in einer PCGH auch ein paar Werte von einem Kentsfield geben wird.)
Deathcrush
2006-11-05, 19:57:16
Das beweisst was ich immer wieder gesagt habe ^^. Wenn DC für Spiele erstma kommt wirds erstma egal sein ob AMD oder Intel, egal welcher nun schneller sein wird, da durch DC mehr resourcen frei werden.
(AFAIK soll Anno1701 auch noch mit weiteren Cores skalieren, mal sehen ob es in einer PCGH auch ein paar Werte von einem Kentsfield geben wird.)
unwahrscheinlich, wenn ein quad-core nennenswerte vorteile bringen soll, müsste dual-core schon >90% skalieren.
Super Grobi
2006-11-05, 21:21:27
unwahrscheinlich, wenn ein quad-core nennenswerte vorteile bringen soll, müsste dual-core schon >90% skalieren.
Wäre es dann nicht auch so, das ein SC, z.B. 4000+, total abstinken würde? Was ich meine ist, das dann zwar auf DC oder gar QC das Spiel toll laufen würde, aber auf einen 4000+ es eine Qual wäre. Kann das sein?
SG
Wäre es dann nicht auch so, das ein SC, z.B. 4000+, total abstinken würde? Was ich meine ist, das dann zwar auf DC oder gar QC das Spiel toll laufen würde, aber auf einen 4000+ es eine Qual wäre. Kann das sein?
kommt darauf an, natürlich könnte das spiel auch auf einem SC schnell genug sein, und auf einem DC/QC noch schneller, wobei man auch beachten muss ob und wann die graka limitiert.
wenn ein spiel mit DC unter 50% skaliert kann QC nichts mehr bringen, da dann der aufwändigste thread schon 50% der gesamten rechenleistung beansprucht. ob man nun die restlichen 50% auf einen oder 3 cores verteilt ist egal.
AnarchX
2006-11-05, 21:55:52
unwahrscheinlich, wenn ein quad-core nennenswerte vorteile bringen soll, müsste dual-core schon >90% skalieren.
Nicht unbedingt.
Hier mal eine gute Erklärung vom Member Neomi:
Mal ein stark vereinfachtes Beispiel...
Stell dir einfach vor, daß abwechselnd zwei Codeblöcke (S und P) ausgeführt werden müssen. Ein Block braucht das Ergebnis des vorher laufenden anderen, also können sie nicht gleichzeitig laufen. Block S ist nicht parallelisierbar (also quasi sequentiell), also kann er nur einen Core nutzen. Block P ist perfekt parallelisierbar, also kann er so viele Cores nutzen wie vorhanden sind.
Während S läuft, langweilt sich der zweite Core, kann also nicht ausgelastet werden. Während P läuft, ist er ausgelastet, mit mehr Cores könnte P aber noch schneller abgearbeitet werden.
Wenn P genau 50 % des Codes ausmacht, sinkt die gesamte Ausführungszeit bei DualCore auf 75 % gegenüber einem ansonsten gleichen SingleCore, mit einem QuadCore dann auf 62,5 %, bei einem OctaCore 56,25 %, ... Wenn man mal den kompletten Overhead außen vor läßt.
-> Amdahl's Law
Nicht unbedingt.
Hier mal eine gute Erklärung vom Member Neomi:
diese erklärung bestätigt mich doch ;)
dual auf quad bringt in diesem beispiel kaum etwas, je mehr cores desto ineffizienter wird das ganze.
AnarchX
2006-11-05, 22:29:03
diese erklärung bestätigt mich doch ;)
dual auf quad bringt in diesem beispiel kaum etwas, je mehr cores desto ineffizienter wird das ganze.
Aber trotzdem wären ein paar Anno1701-Werte mit QC interessant, ich schrieb ja auch nicht wie es skaliert nur dass es skaliert.;)
dargo
2006-11-06, 13:08:19
Wäre es dann nicht auch so, das ein SC, z.B. 4000+, total abstinken würde? Was ich meine ist, das dann zwar auf DC oder gar QC das Spiel toll laufen würde, aber auf einen 4000+ es eine Qual wäre. Kann das sein?
Das ist eine gute Frage. Ich sehe das so - in nächster Zeit wird sich kaum ein Spielehersteller "erlauben" das Game so cpu-lastig zu programmieren, dass ein A64 4000+ keine flüssige (25-40fps) Spielbarkeit mehr liefern kann (Ausnahmen gibts natürlich immer wieder wie zb. GTR2). Dafür sind heute noch zuviele Singlecore CPUs in den Rechnern.
Die 25-40fps beziehen sich natürlich auf die kleinstmögliche Auflösung ohne AA/AF (also so lange eine vollständige Graka-Limitierung ausgeschlossen ist).
Diese ganze Geschichte mit dem DC und QC sehe ich momentan nur als Bonus um Frames >60fps zu realisieren.
Android
2006-11-06, 17:11:13
Das ist eine gute Frage. Ich sehe das so - in nächster Zeit wird sich kaum ein Spielehersteller "erlauben" das Game so cpu-lastig zu programmieren, dass ein A64 4000+ keine flüssige (25-40fps) Spielbarkeit mehr liefern kann (Ausnahmen gibts natürlich immer wieder wie zb. GTR2). Dafür sind heute noch zuviele Singlecore CPUs in den Rechnern.
Die 25-40fps beziehen sich natürlich auf die kleinstmögliche Auflösung ohne AA/AF (also so lange eine vollständige Graka-Limitierung ausgeschlossen ist).
Diese ganze Geschichte mit dem DC und QC sehe ich momentan nur als Bonus um Frames >60fps zu realisieren.
Wie ich schon vor Monaten hier im Forum gesagt habe: DC wird niemals eine Basis für eine grössere Entwicklung in der Spieleindustrie. Das wird erst QC. Das hatten mir schon zwei PS3 Spieleentwickler vor Monaten vorausgesagt. Hier noch ein grosser Entwickler, der diese Auffassung vertritt:
http://www.gamestar.de/news/pc/hardware/valve/1465930/valve.html
Für Spiele lohnt der Umstieg von SC auf DC noch heute nicht. Für Neuanschaffungen kann man hingegen bedenkenlos zu DC greifen.
Interessant wird erst der Umstieg von SC zu QC. Aber bis zu einer grösseren Marktausbreitung dieser Technologie wird noch einige Zeit ins Land gehen.
Aber trotzdem wären ein paar Anno1701-Werte mit QC interessant, ich schrieb ja auch nicht wie es skaliert nur dass es skaliert.;)
und ich hab auch "nur" geschrieben dass es nicht vernünftig skalieren kann, wenn dual-core schon nur geringe vorteile bringt ;)
Deathcrush
2006-11-06, 22:04:47
Hat schon wer Splinter Cell Double Agent getestet, das soll ja auch DC unterstützung bieten.
dargo
2006-11-06, 22:17:15
Hat schon wer Splinter Cell Double Agent getestet, das soll ja auch DC unterstützung bieten.
Du wirst dich noch paar Tage gedulden können oder? :)
Deathcrush
2006-11-07, 00:03:29
Ich bin ein ungeduldiger Mensch ^^
dargo
2006-11-09, 21:51:06
Gothic 3 hinzugefügt. :)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4946482&postcount=151
schapy
2006-11-16, 11:01:07
Bin von einem Opteron 146@2800 auf einen 170@2800 gewechselt und merke in den meisten Spielen keinerlei unterschied (und war auch nicht erhoft) dafür kann ich mal en Spiel minimieren und normal weiterarbeiten, darauf kam es mir bei der anschafung eine Dualcores an!
Hat schon wer Splinter Cell Double Agent getestet, das soll ja auch DC unterstützung bieten.
Bei mir zuckt das mit DC! Ich muss auf einen Kern zuweisen dann läufts normal!
strcpy
2006-11-16, 13:24:25
Ganz netter Thread!
Die Diskussionen finde ich teilweise echt spannend.
Intel/AMD/MS haben ja nun das Thema Multithreading nicht erfunden. Sie bringen es gerade zur Masse (Enduser) und mehr nicht.
Gerade weil in der Vergangenheit der Homeuser nur SC kennt/gekannt hat haben es aus meiner Sicht die Entwickler (für entsprechende Software) versäumt, hier wirklich Energie rein zu stecken. Es war auch einfach nicht erforderlich.
Einfach den Quelltext runterkodieren und fertig.
Kein Gedanke an Aufteilung, Waitpoints, Synchronisationen etc.
Geradewegs aufs Problem zuprogrammiert und erledigt...
Ich denke wir befinden uns gerade im Umbruch. Intel unternimmt ja nun auch etwas in diese Richtung für Programmierer (hoffentlich mit einem neuen für Multithreading optimierten C-Compiler *freu*).
Würde mich sehr freuen, wenn der Compiler "merkt" wo verteilt werden kann und ich das nicht mehr machen muss:)
Außerdem wissen wir ja auch, daß Win nicht gerade "optimal" mit Mehrprozessorsystemen harmoniert.
Denke auch MS macht gerade seine Hausaufgaben *hoffentlich*. Es entstehen gerade Ideen und Ansatzpunkte (bei mir auf jeden Fall:)) einen echten Nutzen daraus zu ziehen.
Lassen wir mal den Entwicklern noch ein wenig Zeit. Eines habe ich gelernt: Das Meiste holt man aus einer cleveren Programmierung heraus.
Ich weiß, es gibt Aufgaben, welche sich (wirklich) nicht aufteilen lassen und dann gibt es solche, wo es scheinbar so ist :) ...
dargo
2006-11-16, 19:34:49
Bei mir zuckt das mit DC! Ich muss auf einen Kern zuweisen dann läufts normal!
Lass mich raten - du hast einen AMD X2.
Hvoralek
2006-11-16, 19:40:07
Lass mich raten - du hast einen AMD X2.Und den Dual- Core- Optimizer nicht installiert.
dargo
2006-11-16, 19:40:57
Und den Dual- Core- Optimizer nicht installiert.
Genau. :D
Madkiller
2006-11-17, 17:33:21
Wenn ich das hier mal so einwerfen darf...
Anno 1701 profitiert bei CPU-Limitierung mit bis zu 50% mehr fps durch DualCore.
Schön, daß die es endlich mal bei nem CPU-limitierten Spiel auch mal hinbekommen haben. :)
dargo
2006-11-17, 18:05:44
Wenn ich das hier mal so einwerfen darf...
Anno 1701 profitiert bei CPU-Limitierung mit bis zu 50% mehr fps durch DualCore.
Schön, daß die es endlich mal bei nem CPU-limitierten Spiel auch mal hinbekommen haben. :)
Das hört sich sehr gut an, gerade da wo auch CPU Power gebraucht wird.
Bist du aber sicher, dass Anno 1701 so stark cpu-limitiert ist? Habe gelesen, dass bei dieser Grafikpracht die Graka ganz schön zu ackern hat.
Madkiller
2006-11-17, 18:36:30
Die GraKa wird auch ziemlich belastet.
AAA haut auch rein, wie sau.
Aber wenn es auf einer größeren Map mit ner X1900XT auf 16x12 4/16 (kein AAA) mal rund geht, ist es die CPU, die meist limitiert.
Was ich momentan noch überhaupt nicht nachvollziehen kann, sind die Ergebnisse von PCGH, daß der A64 ne höhere Pro-MHz-Leistung als der Allendale hätte. Der E6400 @3200MHz ist schnell "überschlagen" fast 50% schneller, als mein A64@2800MHz. Aber die ganzen genauen Messungen stehen noch aus.
dargo
2006-11-18, 18:45:35
Teil 3 mit Dark Messiah of Might & Magic ergänzt.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4946482&postcount=151
dargo
2006-11-19, 22:26:09
Hat schon wer Splinter Cell Double Agent getestet, das soll ja auch DC unterstützung bieten.
Jetzt ist es da, hat etwas länger gedauert. :)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4946482&postcount=151
also die pure wahrheit wäre der nutzen in den auflösungen bzw mit den einstellungen in denen wir tatsächlich spielen, oder? und da limitiert die cpu halt nicht so doll zur zeit....obwohl sich das mit g80 etwas verändert het.
dargo
2006-11-19, 22:45:07
also die pure wahrheit wäre der nutzen in den auflösungen bzw mit den einstellungen in denen wir tatsächlich spielen, oder? und da limitiert die cpu halt nicht so doll zur zeit....obwohl sich das mit g80 etwas verändert het.
Bitte nicht schon wieder. ;(
Was wäre dann die Einstellung in der gespielt wird?
1024x768 ohne AA/AF
1024x768 2xAA/8xAF
1024x768 4xAA/8AF
1024x768 6xAA/8xAF
1024x768 2xAA/16xAF
1024x768 4xAA/16xAF
1024x768 6xAA/16xAF
Oder die gleiche Prozedur in 1280x1024 oder 1600x1200 oder vielleicht paar Widescreen Auflösungen?
Mir geht es nur darum zu zeigen wie stark Spiele auf den Dualcore optimiert sind, um nichts anderes. Und das kann man nur in möglichst kleiner Auflösung ohne AA/AF, also CPU-Limitierung zeigen.
Madkiller
2006-11-19, 22:48:55
also die pure wahrheit wäre der nutzen in den auflösungen bzw mit den einstellungen in denen wir tatsächlich spielen, oder? und da limitiert die cpu halt nicht so doll zur zeit....obwohl sich das mit g80 etwas verändert het.
IMO ist diese Methode auch für die Praxis die beste, um zu zeigen, ob DC was bringt. Wenn die GraKa limitiert, bringt die Optimierung auf DC natürlich garnichts. Wenn die CPU limitiert, bringt es aber in etwa das, was hier bei den niedrigen Auflösungen rauskommt.
Klar, da bleibt immer noch die Frage, ob das Spiel überhaupt bei der eigenen Hardware bei den gewünschten Settings und Spielmodis CPU- oder Graka-limitiert ist...
Aber es ist ja nicht so daß man das durch ein paar Benches allgemeingültig aussagen könnte.
Die meisten gaukeln dir ne praxisübertragbare Aussage durch avg fps über einen längeren Zeitraum, und oft leider auch noch mit Timedemos vor. Das Problem ist, die sind nicht viel wert.
Hier weiß man wenigstens, was es bringt, wenn es was bringen kann.
Und das kann man nur in möglichst kleiner Auflösung ohne AA/AF, also CPU-Limitierung zeigen.
Natürlich könntest du dich so lange an die höchste Auflösung rantasten, in der bei deiner Szene immer noch die CPU limitiert. Macht ja auch keine Arbeit. :D
Ansonsten, siehe oben. :)
Hvoralek
2006-11-19, 22:53:59
also die pure wahrheit wäre der nutzen in den auflösungen bzw mit den einstellungen in denen wir tatsächlich spielen, oder? und da limitiert die cpu halt nicht so doll zur zeit....obwohl sich das mit g80 etwas verändert het.Blätter mal ein paar Seiten zurück, die Debatte gab es schon einmal. Fang sie bitte nicht mit denselben Argumenten von vorne an, sondern greife ggf. die entsprechenden Passagen auf.
dargo
2006-11-19, 22:55:42
Natürlich könntest du dich so lange an die höchste Auflösung rantasten, in der bei deiner Szene immer noch die CPU limitiert. Macht ja auch keine Arbeit. :D
Genau, ich kündige morgen meinen Job und du bezahlst mich fürs tagelange Benchen. :| ;D
Ri*g*g*er
2006-11-20, 08:57:06
Hi all,
ich finde die Tests ja sehr gut thx @dargo aber ich hätte einen Vorschlag und zwar:
1.) 1024 x 768 4 AA und 8 AF
sowie
2.) 1280 x 1024 4 AA und 8 AF
gleich mitzubenchen wobei vieleicht auch 1.) ggfs. gegen 1600 x 1200 ausgetauscht werden kann.
Das würde nicht soviel Mehrarbeit machen und einem schon zeigen ob DC bei diesen Settings überhaupt was bringt und wenn ja wieviel.
Mfg
Ri*g*g*er
dargo
2006-11-20, 10:34:04
@Ri*g*g*er
Es bringt nichts!
Jeder hat eine andere Grafikkarte im Rechner. Die eine limitiert schon bei 1024x768 4xAA/8xAF die andere erst bei 1600x1200 4xAA/8xAF oder höher.
Und jetzt der wichtigste Grund warum es sinnlos ist - jeder lastet seine Grafikkarte so aus, dass er noch spielbare Frames erhält. So gesehen limitiert in der Praxis immer die Grafikkarte, es sei denn das Game ist völlig cpu-limitiert.
Das würde nicht soviel Mehrarbeit machen und einem schon zeigen ob DC bei diesen Settings überhaupt was bringt und wenn ja wieviel.
Wenn ich eine völlig grafikkarten-limitierte Szene verwende ist es völlig egal ob du eine DC CPU oder eine SC CPU verwendest. Du wirst keinen Unterschied messen können.
Rolsch
2006-11-20, 11:19:54
Die Jungs von VALVE ham sich auch schon ein paar Gedanken zum Thema Multicore gemacht, wer des englischen mächtig ist kann sich den sehr interesanten Artikel reinziehen;
VALVE Multicore Ansichten (http://www.anandtech.com/tradeshows/showdoc.aspx?i=2868)
Mein Fazit: Wenn die SWschmieden das alles umgesetzt haben dürfte wohl ein Quadcore eine sehr interesannte Wahl sein und bis daher hoffentlich auch erschwinglich sein. Vielleicht gibts ja irgendwann CPU Einsteckkkarten um mal schnell auf 20 CPUs upzugraden. Bedeutet aber auch im Umkehrschluss das Dualcore zwar "nice to have" ist, aber richtigen Mehrwert in Spielen gibts wohl erst mit Quadcore und besser.
Hvoralek
2006-11-20, 12:22:53
Hi all,
ich finde die Tests ja sehr gut thx @dargo aber ich hätte einen Vorschlag und zwar:
1.) 1024 x 768 4 AA und 8 AF
sowie
2.) 1280 x 1024 4 AA und 8 AF
gleich mitzubenchen wobei vieleicht auch 1.) ggfs. gegen 1600 x 1200 ausgetauscht werden kann.
Das würde nicht soviel Mehrarbeit machen und einem schon zeigen ob DC bei diesen Settings überhaupt was bringt und wenn ja wieviel.
Mfg
Ri*g*g*erStell doch durch durch Herumtakten fest, wie stark sich bei Dir im konkreten Einzelfall eine Änderung der CPU- Leistung auswirkt. Dann kannst Du anhand der Ergebnisse hier abschätzen, wie viel Du durch einen zweiten Kern gewinnen würdest. Allerdings sind das hier nur Durchschnittswerte, man sieht nicht, ob da kurze Einbrüche verschwinden.
Es geht hier aber nach meinem Verständnis nicht um konkrete Kaufberatung, sondern um die Frage, ob sich abstrakt ein Doppelkerner inzwischen eher lohnt als ein höher getakteter Einkerner.
Und den Dual- Core- Optimizer nicht installiert.
Was ist denn besser? Der von AMD oder der von RMClock ^^
dargo
2006-11-20, 12:42:19
Allerdings sind das hier nur Durchschnittswerte, man sieht nicht, ob da kurze Einbrüche verschwinden.
Wenn der Einbruch durch CPU-Limitierung entsteht dann ja. Und zwar mindestens um den Wert um den der Dualcore in den Tabellen schneller ist.
Madkiller
2006-11-20, 15:27:42
Und jetzt der wichtigste Grund warum es sinnlos ist - jeder lastet seine Grafikkarte so aus, dass er noch spielbare Frames erhält. So gesehen limitiert in der Praxis immer die Grafikkarte, es sei denn das Game ist völlig cpu-limitiert.
Du darfst nicht von deinem E6400 @3300MHz ausgehen. :)
Es gibt genug Spiele, die auf "normaleren" CPUs wie den X2 3800+ stark CPU-limitiert sind und dort bei anspruchsvollen Szenen die fps schon am Limit zum gut spielbaren sind. Dann noch eine GraKa-Limitierung hervorzurufen, würde die fps nochmals absenken.
Hvoralek
2006-11-20, 15:37:51
Wenn der Einbruch durch CPU-Limitierung entsteht dann ja. Und zwar mindestens um den Wert um den der Dualcore in den Tabellen schneller ist.Nicht zwingend. Es kann doch sein, dass an einer bestimmten Stelle die CPU Schwerarbeit leistet, diese aber fast komplett von einem einzigen Thread erzeugt wird und die anderen Däumchen drehen.
Normalerweise sollte aber eben gerade an CPU- belastenden Stellen der Zuwachs bei Mehrkernern überdurchschnittlich hoch sein.
Wenn der Einbruch durch CPU-Limitierung entsteht dann ja. Und zwar mindestens um den Wert um den der Dualcore in den Tabellen schneller ist.
nicht zwangsläufig, wenn bei dieser fordernden stelle genau 1 thread eine extrem hohe last erzeugt bringt dual-core weniger als im schnitt.
dargo
2006-11-20, 22:44:06
Du darfst nicht von deinem E6400 @3300MHz ausgehen. :)
Es gibt genug Spiele, die auf "normaleren" CPUs wie den X2 3800+ stark CPU-limitiert sind und dort bei anspruchsvollen Szenen die fps schon am Limit zum gut spielbaren sind. Dann noch eine GraKa-Limitierung hervorzurufen, würde die fps nochmals absenken.
Ich gehe auch nicht von meinem C2D@3,3Ghz aus. Getestet wird mit 1,867Ghz.
Ich will es mal anders ausdrücken - habe ich in einem Spiel in der kleinstmöglichen Auflösung ohne AA/AF mit max. Details zb. 70fps und ich der Meinung bin, dass mir fürs flüssiges Spielen 40fps reichen stelle ich die Auflösung und/oder AA/AF so hoch bis ich eben diese 40fps erreiche. Also erzeuge ich wieder eine Grafikkarten-Limitierung.
Habe ich ein Game, was schon in der kleinstmöglichen Auflösung ohne AA/AF an die 25fps kommt, wäre es wenig sinnvoll noch die Auflösung + AA/AF zu erhöhen. Dann würde ich ja in einen unspielbaren Bereich vorstossen.
nicht zwangsläufig, wenn bei dieser fordernden stelle genau 1 thread eine extrem hohe last erzeugt bringt dual-core weniger als im schnitt.
Könntest du das genauer erklären? Ich kann dir nicht ganz folgen.
@Madkiller
Hehe, ist dieser Thread der Auslöser für euren Artikel (http://www.3dcenter.de/artikel/2006/11-20_a.php) oder war Der schon länger geplant?
Madkiller
2006-11-21, 05:32:30
Ich gehe auch nicht von meinem C2D@3,3Ghz aus. Getestet wird mit 1,867Ghz.
Ich will es mal anders ausdrücken - habe ich in einem Spiel in der kleinstmöglichen Auflösung ohne AA/AF mit max. Details zb. 70fps und ich der Meinung bin, dass mir fürs flüssiges Spielen 40fps reichen stelle ich die Auflösung und/oder AA/AF so hoch bis ich eben diese 40fps erreiche. Also erzeuge ich wieder eine Grafikkarten-Limitierung.
Habe ich ein Game, was schon in der kleinstmöglichen Auflösung ohne AA/AF an die 25fps kommt, wäre es wenig sinnvoll noch die Auflösung + AA/AF zu erhöhen. Dann würde ich ja in einen unspielbaren Bereich vorstossen.
Könntest du das genauer erklären? Ich kann dir nicht ganz folgen.
@Madkiller
Hehe, ist dieser Thread der Auslöser für euren Artikel (http://www.3dcenter.de/artikel/2006/11-20_a.php) oder war Der schon länger geplant?
Zum ersten Absatz.
Mich hat ganz einfach das "immer" gestört, auch wenn du es ein wenig eingeschränkt hattest.
Zum zweiten Absatz:
Kannst du dich nicht mehr an unseren ICQ-/PN-Wechsel vor diesem Thread erinnern? :confused:
Aber ja, der Artikel war schon vorher geplant.
btw
Der Gast sagt, daß jede Szene anders auf DC reagiert (reagieren kann).
Könntest du das genauer erklären? Ich kann dir nicht ganz folgen.
gehen wir mal von folgender situation aus:
eine multithreaded-programmierte anwendung hat folgende lastaufteilung:
1. Thread 50%
2. Thread 30%
3. Thread 10%
4. Thread 10%
nun kommt eine besonders fordernde stelle, bei der aber nur die belastung nur im ersten thead um 50% ansteigt.
nun haben wir aber folgende lastaufteilung:
1. Thread 75%
2. Thread 15%
3. Thread 5%
4. Thread 5%
während im ersten fall ein dual-core noch perfekt ausgelastet sieht es im 2. fall ganz anders aus.
ohne zu wissen wie einzelne spiele ihre aufgaben unterteilen und was nun gerade in den kritischen szenen limitiert kann man natürlich nicht vorhersagen wie die dualcore-skalierung in solchen szenen aussieht.
es könnten natürlich auch der fall sein, dass in solchen kritischen szenen gerade die last bei einem "kleinen" thread sehr stark ansteigt. in diesem fall wäre der einbruch auf einem dual-core fast nicht vorhanden.
zumindest in heutigen, noch mäßig auf multicore ausgerichteten spielen denke ich aber eher dass die skalierung in kritischen szenen eher schlechter wird.
Madkiller
2006-11-22, 16:12:54
gehen wir mal von folgender situation aus:
eine multithreaded-programmierte anwendung hat folgende lastaufteilung:
[...]
ohne zu wissen wie einzelne spiele ihre aufgaben unterteilen und was nun gerade in den kritischen szenen limitiert kann man natürlich nicht vorhersagen wie die dualcore-skalierung in solchen szenen aussieht.
es könnten natürlich auch der fall sein, dass in solchen kritischen szenen gerade die last bei einem "kleinen" thread sehr stark ansteigt. in diesem fall wäre der einbruch auf einem dual-core fast nicht vorhanden.
zumindest in heutigen, noch mäßig auf multicore ausgerichteten spielen denke ich aber eher dass die skalierung in kritischen szenen eher schlechter wird.
Dem stimme ich zu.
Beispiele aus dem Artikel wieviel DC bringt:
Titan Quest: 7-14%
Oblivion: 18-23%
HL2: Ep1 16-27%
AoE3: 16-23%
GTR2: 18-31%
zumindest in heutigen, noch mäßig auf multicore ausgerichteten spielen denke ich aber eher dass die skalierung in kritischen szenen eher schlechter wird.
Hm...
Zumindest von meinen Ergebnissen aus läßt sich in der Richtung nichts bestätigen.
Einmal bringt DC bei stressigen Szenen mehr, einmal weniger.
Armaq
2006-11-22, 20:59:23
Madkiller, leg dochmal einen Artikel nach, der unter Realbedingungen testet. Virenscanner, Email, IE/FF, Skype, Trillian, mIRC - was auch immer. Denn hier wird Dualcore erst zu "Do more".
edit: Ich bin seit 1 Std. von der Uni wieder @home und hab jetzt gerade Kaspersky durchlaufen, Skype, Trillian und WC3 TFT am laufen. Dabei merkt man erst den Mehrnutzen.
dargo
2006-11-22, 22:41:59
@Armaq
Was sind schon Realbedingungen? Wer soll das bestimmen?
Bei mir zb. läuft nichts im Hintergrund obwohl ich einen DC habe.
san.salvador
2006-11-23, 07:59:45
@Armaq
Was sind schon Realbedingungen? Wer soll das bestimmen?
Bei mir zb. läuft nichts im Hintergrund obwohl ich einen DC habe.
Damit gehörst du mit Sicherheit zu einer minderheit, die Mehrheit dürfte wohl in etwa die Programme laufen haben, die Armaq erwähnt hat.
Bei mir sinds cfosspeed, LCD Studio, Ati Tray Tools, Fraps, Speedfan, Rivatuner und das AVK 2007.
desert
2006-11-23, 09:07:26
also ich möchte meinen dual-core nicht mehr missen. 1 mal die woche lasse ich einen komplettscan vom virenschutzprogramm durchlaufen, früher konnte ich dann 3 stunden den rechner nicht benutzen.
Jetzt einfach den virenscanner auf einen core legen und mann kann sogar noch spielen nebenbei. Das alleine ist schon ein großer vorteil!
blackbox
2006-11-23, 10:11:17
Damit gehörst du mit Sicherheit zu einer minderheit, die Mehrheit dürfte wohl in etwa die Programme laufen haben, die Armaq erwähnt hat.
Bei mir sinds cfosspeed, LCD Studio, Ati Tray Tools, Fraps, Speedfan, Rivatuner und das AVK 2007.
Von dir genannte Software habe ich keines. ;)
Auch hier wäre eine Untersuchung nötig, bevor man ein Testsystem findet, das den Durchschnitt widerspiegelt.
also ich möchte meinen dual-core nicht mehr missen. 1 mal die woche lasse ich einen komplettscan vom virenschutzprogramm durchlaufen, früher konnte ich dann 3 stunden den rechner nicht benutzen.
Jetzt einfach den virenscanner auf einen core legen und mann kann sogar noch spielen nebenbei. Das alleine ist schon ein großer vorteil!
Wozu machst du denn das? Ein Virenscanner sollte on-the-fly den Schädling erkennen.
Grestorn
2006-11-23, 10:20:17
Wozu machst du denn das? Ein Virenscanner sollte on-the-fly den Schädling erkennen.
Und dabei ständig und permanent Leistung fressen? Das ist sooo intelligent, einen superstarken Rechner mit superschneller Festplatte hinzustellen, und dann bei jedem eh schon langsamen Lese- und Schreibzugriff durch den Scanner ausbremsen zu lassen.
blackbox
2006-11-23, 10:26:10
Und dabei ständig und permanent Leistung fressen? Das ist sooo intelligent, einen superstarken Rechner mit superschneller Festplatte hinzustellen, und dann bei jedem eh schon langsamen Lese- und Schreibzugriff durch den Scanner ausbremsen zu lassen.
Ich habe keine Ahnung, warum du so rummäkelst, aber wie sollte ein Virenscanner denn sonst funktionieren, wenn er nicht schon beim Zugriff oder Ausführung einer Datei auf einen potentiellen Schädling hinweist?
Wozu dann noch einen Virenscanner?
BTW: Ihr seid hier teilweise echte Freaks, bei denen das Windows um eine Sekunde zu langsam startet und dann eine Optimierungsaktion startet, wo am Ende eine Neuinstallation fällig ist. Man kann es auch übertreiben. :rolleyes:
dargo
2006-11-23, 11:02:05
Damit gehörst du mit Sicherheit zu einer minderheit, die Mehrheit dürfte wohl in etwa die Programme laufen haben, die Armaq erwähnt hat.
Bei mir sinds cfosspeed, LCD Studio, Ati Tray Tools, Fraps, Speedfan, Rivatuner und das AVK 2007.
Ähm, für diese Programme braucht man mit Sicherheit keinen DC. So gesehen läuft bei mir auch ATT und Antivirus im Hintergrund. Nur, selbst Antivirus verbraucht nur etwas an Ram und keine CPU-Leistung solange das Programm "ruht".
Grestorn
2006-11-23, 11:18:18
Ich habe keine Ahnung, warum du so rummäkelst, aber wie sollte ein Virenscanner denn sonst funktionieren, wenn er nicht schon beim Zugriff oder Ausführung einer Datei auf einen potentiellen Schädling hinweist?
Wozu dann noch einen Virenscanner?
Nun, ich verwende einen Virenscanner bestenfalls um hin und wieder mein System zu scannen. Da ich aber sehr vorsichtig bin, was auf meinen Rechner kommt, hatte ich auch noch nie einen Virus. Also warum den Rechner ständig bremsen?
Grestorn
2006-11-23, 11:19:21
Ähm, für diese Programme braucht man mit Sicherheit keinen DC. So gesehen läuft bei mir auch ATT und Antivirus im Hintergrund. Nur, selbst Antivirus verbraucht nur etwas an Ram und keine CPU-Leistung solange das Programm "ruht".
Fraps und LCDStudio können beide sehr gut CPU Power kosten. Fraps beim capturen und LCDStudio eigentlich immer.
blackbox
2006-11-23, 11:25:08
Nun, ich verwende einen Virenscanner bestenfalls um hin und wieder mein System zu scannen. Da ich aber sehr vorsichtig bin, was auf meinen Rechner kommt, hatte ich auch noch nie einen Virus. Also warum den Rechner ständig bremsen?
Was du machst, das interessiert mich herzlichst wenig.
Interessant ist, was die Masse macht.
BTW: Hat überhaupt schon mal jemand untersucht, was ein Virenscanner an Performance kostet?
dargo
2006-11-23, 11:47:29
Fraps und LCDStudio können beide sehr gut CPU Power kosten. Fraps beim capturen und LCDStudio eigentlich immer.
1. LCD Studio habe ich gar nicht markiert.
2. Wo steht, dass er mit Fraps Capturing macht?
In der Regel hat man Fraps im Hintergrund um die FPS zu messen und dafür braucht man mit Sicherheit keinen DC. ;)
Grestorn
2006-11-23, 11:51:44
1. LCD Studio habe ich gar nicht markiert.
2. Wo steht, dass er mit Fraps Capturing macht?
In der Regel hat man Fraps im Hintergrund um die FPS zu messen und dafür braucht man mit Sicherheit keinen DC. ;)
Wo steht, dass er nicht captured? Es geht doch darum, wozu man DC brauchen kann. Da ist Fraps eine legitime Antwort. Genau wie LCDStudio.
Ob Du es nutzt steht doch auf einem ganz anderen Blatt.
Grestorn
2006-11-23, 11:53:49
BTW: Hat überhaupt schon mal jemand untersucht, was ein Virenscanner an Performance kostet?
Das hängt sicher davon ab, ob man einen DualCore hat und ganz allgemein, wie stark die Prozessorleistung ist. Und natürlich von der Qualität des Virenscanners.
Bei der hohen Anzahl an Viren-Signaturen und bei den Problemen durch verschlüsselte Viren, wird die Last sicher nicht ganz unerheblich sein, besonders dann, wenn man alle Dateien - und nicht nur ausführbare Dateien - bei jedem Lese- und Schreibzugriff scannen lässt.
dargo
2006-11-23, 12:00:49
Wo steht, dass er nicht captured? Es geht doch darum, wozu man DC brauchen kann. Da ist Fraps eine legitime Antwort. Genau wie LCDStudio.
Ob Du es nutzt steht doch auf einem ganz anderen Blatt.
Nein, es geht darum was ein DC in Games bringt. Und wenn man da paar Icons in der Taskleiste hat frisst das noch lange keine CPU Leistung solange die Programme "ruhen". Dass ein DC grosse Vorteile beim Capturing hat sollte mittlerweile jeder wissen.
BTW: Hat überhaupt schon mal jemand untersucht, was ein Virenscanner an Performance kostet?
Ja, und wie gesagt - ein Virenscanner frisst keine Leistung wenn er im Hintergrund "ruht". Lasse ich die Partition C überprüfen geht die CPU-Last für ca. 3-5 Sekunden auf bis zu 52% hoch und danach bleibt sie bei 2-5% durchgehend. Zumindest bei mir.
Grestorn
2006-11-23, 12:03:34
Nein, es geht darum was ein DC in Games bringt. Und wenn man da paar Icons in der Taskleiste hat frisst das noch lange keine CPU Leistung solange die Programme "ruhen". Dass ein DC grosse Vorteile beim Capturing hat sollte mittlerweile jeder wissen.
Aber bestimmte Programme, wie eben das LCDStudio, ruhen eben nicht.
Falls Du es nicht weißt: Das LCDStudio ist ein Programm, mit dem eine zusätzliche LCD-Anzeige gesteuert werden kann, wie z.B. die der G15-Tastatur. Da die Anzeige ständig aktualisiert wird, braucht das LCDStudio entsprechend ständig Rechenzeit. Und leider auch nicht zu knapp.
dargo
2006-11-23, 12:06:12
@Grestorn
Nochmal für dich, schau dir mal an was ich fett markiert habe:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5017948&postcount=215
Ich habe mit Absicht LCD Studio ausgelassen weil ich das Programm nicht kenne.
Armaq
2006-11-23, 13:16:49
Also Normalnutzer haben viele Programme am laufen.
Meine Schwester, Freundin, Eltern, Kumpels haben meistens einen Messenger an, dazu Antivir, FF/IE, Grakatreiber, Musik und oder Spiele (Sims 2), AcrobatReader hat auch son fiesen Standardstartup, Qucktime...
Das frisst alles Ram und sicherlich auch in gewissen Maße CPU-Power.
Wie gesagt, sogar meine Freundin hat gemerkt, dass es flüssiger läuft.
Grestorn
2006-11-23, 13:36:47
Nochmal für dich, schau dir mal an was ich fett markiert habe:
Ich habe mit Absicht LCD Studio ausgelassen weil ich das Programm nicht kenne.
Das habe ich durchaus gesehen, aber Du hast ja auf San.Salvador geantwortet, und Du kannst seinem Beitrag nicht etwas entgegensetzen, ohne alle seine Beispiele zu beachten. Nur ein einziges gültiges Beispiel von ihm stützt ja bereits seine These.
Mr.Magic
2006-11-23, 14:56:08
Aber bestimmte Programme, wie eben das LCDStudio, ruhen eben nicht.
Falls Du es nicht weißt: Das LCDStudio ist ein Programm, mit dem eine zusätzliche LCD-Anzeige gesteuert werden kann, wie z.B. die der G15-Tastatur. Da die Anzeige ständig aktualisiert wird, braucht das LCDStudio entsprechend ständig Rechenzeit. Und leider auch nicht zu knapp.
Wobei ich 2-6% Last vom LCDstudio (im Ruhezustand) eher als gering einstufe. Andererseits wären es auf einem Singlecore 4-12%, die man alleine für die Anzeige einiger Daten opfert.
@dargo
Besser nicht unterschätzen wieviel Leistung FRAPS alleine bei der FPS-Anzeige kosten kann. Je nach Anwendung kann das (bei Singlecore) durchaus im zweistelligen Prozentbereich sein (mir bekanntes Extrembeispiel: UE2 -> America's Army).
Hvoralek
2006-11-23, 18:24:04
Besser nicht unterschätzen wieviel Leistung FRAPS alleine bei der FPS-Anzeige kosten kann. Je nach Anwendung kann das (bei Singlecore) durchaus im zweistelligen Prozentbereich sein (mir bekanntes Extrembeispiel: UE2 -> America's Army).Kannst Du dafür eine Quelle angeben?
Mr.Magic
2006-11-23, 18:52:20
Zwei Rechner mit praktisch identischer Hard- und Software (meiner und der eines Clanmates), auf seinem lief FRAPS. Er meinte es lief bei ihm so schlecht und sagte mir seine FPS. Ich lies AAO die FPS anzeigen und kam auf einen höheren Wert (dürften ~15-20% gewesen sein). Nach einigem hin und her erwähnte er FRAPS, nach Beenden des Programmes war die Performance praktisch identisch.
Aber warum nach einer Quelle fragen und nicht selbst testen? FRAPS und AAO sind kostenlos.
dargo
2006-11-23, 22:35:57
@dargo
Besser nicht unterschätzen wieviel Leistung FRAPS alleine bei der FPS-Anzeige kosten kann. Je nach Anwendung kann das (bei Singlecore) durchaus im zweistelligen Prozentbereich sein (mir bekanntes Extrembeispiel: UE2 -> America's Army).
Dazu hätte ich gerne gewusst welche Fraps Version und welcher Treiber genutzt wurde.
Madkiller
2006-11-24, 15:39:55
Die Anno1701 Werte sind aber sehr sonderbar: C2D und X2 haben hier ja die selbe Pro-MHz-Leistung...:|
So, jetzt ist es definitiv.
Bei meinen Ergebnissen zwischen den beiden CPUs und Anno 1701 ist der C2D genau dort, wo er auch sein "sollte" (sprich, wo der Durchschnitt liegt).
Dazu hätte ich gerne gewusst welche Fraps Version und welcher Treiber genutzt wurde.
Jaß, irgendwas hat sich da IMO garnicht verstanden...
Habe auch schon mehrere Spiele gegen gecheckt, und immer war der Einbruch durch Fraps <2%.
Ist AAO ein OpenGL Spiel?
Ist AAO ein OpenGL Spiel?
nö, unreal2-engine.
gewisse versionen von fraps erzeugen aber doch ganz ordentliche einbrüche von 20-30%, SC:CT war z.b. so ein kandidat. mit den neueren fraps-versionen liegt aber auch hier der einbruch im rahmen.
Mr.Magic
2006-11-24, 17:40:37
Müsste eine FRAPS-Version von 1.7-1.9 gewesen sein. Was auch immer in 2003 aktuell war.
Zu aktuellen Spielen und FRAPS kann ich da wenig sagen. Persönlich hatte ich FRAPS so gut wie nie an bevor ich meine G15 kaufte (vor 2005 hatte ich es nichtmal installiert).
Wie erwähnt, am besten ist es das selbst zu testen. Wenn ein Einbruch festgestellt wird wäre auch interessant ob es am Overlay liegt, oder ob die eigentlichen Programmfunktion der Grund ist.
Ob es auf Dualcore-CPUs zu einem Einbruch kommt könnte ich mit NWN, NWN 2, Morrowind, GTA: SA oder Far Cry testen (soweit FPS-Anzeigen in der Engine vorhanden sind). Interesse? Dann müsste aber jemand auf Singlecore gegentesten. Ich habe zwar ein SC-Laptop, da ist aber die Platte momentan voll.
dargo
2006-11-24, 22:49:23
Müsste eine FRAPS-Version von 1.7-1.9 gewesen sein. Was auch immer in 2003 aktuell war.
Hier haben wir den Grund für die Einbrüche.
dargo
2006-11-30, 18:56:17
Weiter gehts mit Need for Speed: Carbon. :)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4946482&postcount=151
In Bezug auf die Dualcore-Optimierung muss ich EA ein großes Lob aussprechen. :up:
AnarchX
2006-11-30, 21:55:25
In Bezug auf die Dualcore-Optimierung muss ich EA ein großes Lob aussprechen. :up:
Das ergibt sich eher automatisch, da SC: DA und NFS:C hauptsächlich für Xbox 360 entwickelt wurden -> 3 Cores mit je 2 Threads.
Aber im imo doch ein netter Nebeneffekt, dass dank NextGen-Konsolen, die Mehrkern-CPUs besser ausgelastet werden (müssen).
dargo
2006-12-01, 15:25:03
Das ergibt sich eher automatisch, da SC: DA und NFS:C hauptsächlich für Xbox 360 entwickelt wurden -> 3 Cores mit je 2 Threads.
Aber im imo doch ein netter Nebeneffekt, dass dank NextGen-Konsolen, die Mehrkern-CPUs besser ausgelastet werden (müssen).
Hier wäre auch interessant zu wissen inwiefern NfS:Carbon auf einer Xbox 360 auf Multicores optimiert ist. Ich glaube nämlich, dass dies nicht der Fall ist.
Oder anders gesagt, ich kann mir kaum vorstellen, dass alle drei Cores nahezu zu 100% ausgelastet sind. Wofür bräuchte man soviel CPU Power für dieses Spiel.
AnarchX
2006-12-01, 15:30:30
Wofür bräuchte man soviel CPU Power für dieses Spiel.
1 Core der XBox360 ist eben nicht gerade ein Geschwindigkeitswunder, deshalb sind die Entwickler schon bedacht mit 5(1 Thread ist für Audio bei der XBox reserviert) mehr oder weniger fordernden Thread zu programmieren.
In Bezug auf die Dualcore-Optimierung muss ich EA ein großes Lob aussprechen. :up:
naja, 40% skalierung ist nicht wirklich viel, wobei natürlich noch fraglich ist wie sehr die graka eine evtl. noch bessere skalierung verhindert.
großes lob sollte die multicore-optimierung bekommen wenn sie mit 2 cores 80%+ skaliert, 40% sind zwar nicht schlecht und ein schritt vorwärts, aber nichts wirklich großartiges.
Madkiller
2006-12-01, 18:00:27
großes lob sollte die multicore-optimierung bekommen wenn sie mit 2 cores 80%+ skaliert, 40% sind zwar nicht schlecht und ein schritt vorwärts, aber nichts wirklich großartiges.
Naja, momentan sind die 40% IMO wirklich was besonderes.
Die 40% sind wenigstens wenn es drauf ankommt auch spürbar. Mal ganz davon abgesehen welchen SingleCore-Prozessor man bräuchte, um nur einem E6400 ohne OCen hinterher zu kommen.
Klar, mehr wäre besser, das ist aber IMO ein Wert, mit dem man fürs Erste zufrieden sein kann. :)
Razor
2006-12-01, 18:31:38
Klar, mehr wäre besser, das ist aber IMO ein Wert, mit dem man fürs Erste zufrieden sein kann. :)
Bei 640x480?
Nicht mal Fernseh-Auflösung?
Hmmm...
Aber ich will das leidige Thema der Praxis-fremden Tests nicht wieder aufrollen.
Dann schaut Euch mal weiter hübsche Auflösungen an, die niemanden mehr interesiseren...
Razor
P.S.: sorry, falls ich 'gestört' haben sollte... ;)
Madkiller
2006-12-01, 18:49:20
Bei 640x480?
Nicht mal Fernseh-Auflösung?
Hmmm...
Ich sprach von CPU-Limitierung - nicht wann die auftritt.
dargo
2006-12-01, 18:57:13
Bei 640x480?
Nicht mal Fernseh-Auflösung?
Hmmm...
Dann schaut Euch mal weiter hübsche Auflösungen an, die niemanden mehr interesiseren...
Wenn du ATI kennen würdest wüsstest du, dass die Auflösung 1024x768 je nach Spiel kaum Leistung kostet. In diesem Test mit NfS:Carbon war die 640-er Auflösung keine 5% schneller als die 1024-er. ;)
Und warum ich den schnellsten "Modus" für diesem Thread verwende habe ich, denke ich, oft genug gesagt. :)
1 Core der XBox360 ist eben nicht gerade ein Geschwindigkeitswunder, deshalb sind die Entwickler schon bedacht mit 5(1 Thread ist für Audio bei der XBox reserviert) mehr oder weniger fordernden Thread zu programmieren.
Hmm, dann frage ich mich wieso EA sich bei der PC Version nicht mehr Mühe gemacht hat um einen Dualcore zu ~80% auszulasten. Um Kosten zu sparen?
naja, 40% skalierung ist nicht wirklich viel ...
Wenn ich mir so manch andere Games anschaue finde ich heute diese 40% schon gut.
... wobei natürlich noch fraglich ist wie sehr die graka eine evtl. noch bessere skalierung verhindert.
Das ist natürlich richtig. Für diesen Thread wäre ein G80 (GTX) schon nicht schlecht. Damit könnte ich dann zu 100% eine CPU Limitierung bei max. Details provozieren. Bis ich mir aber eine schnellere Grafikkarte zulege kann noch etwas dauern.
Ich bin am Überlegen ob ich nicht die CPU Leistung weiter senken sollte. Weniger als 1600Mhz geht aber dann auch wieder nicht. ;(
Edit:
Ich habe gerade NfS:Carbon nochmal mit nur 1600Mhz CPU-Takt getestet. Dabei profitiert der Dualcore schon zu 48%. Tja, sobald ich eine schnellere Grafikkarte habe werde ich alle Tests (:ugly:) wiederholen. Denn, so wie es aussieht limitiert bei einigen Games selbst ein C2D mit nur 1,867Ghz nicht zu 100% bei einer X1900XT. X-D
Dh. in den von mir getesteten Games steckt eventuell noch mehr DC Potenzial drin.
Edit²:
So, ich kann doch den C2D weiter verlangsamen. Habe jetzt NfS:Carbon mit 1,3Ghz CPU-Takt und 216Mhz FSB-/Speichertakt getestet. Dabei ist der Dualcore 51% schneller als der Singlecore. Bei 1,3Ghz limitiert endlich die CPU vollständig. :D
Armaq
2006-12-02, 11:04:48
Ich hoffe auf ein Spiel, dass auch in normalen Taktraten aufzeigt, wozu ein man diese "unnötige" Leistung braucht.
Denn bei allem Einverständnis in deine Testweise sind 1.3 Ghz schon arg wenig.
Ich hoffe auf ein Spiel, dass auch in normalen Taktraten aufzeigt, wozu ein man diese "unnötige" Leistung braucht.
ganz einfach brauchen der großteil der spiele diese zusatzleistung nicht, ganz einfach weil sie auch mit einem kern mehr als schnell genug sind und dann nur mehr die graka limitiert.
dargo
2006-12-02, 20:23:08
Ich hoffe auf ein Spiel, dass auch in normalen Taktraten aufzeigt, wozu ein man diese "unnötige" Leistung braucht.
Das gibts schon heute. Du brauchst dafür nur eine G8800GTX oder besser gleich zwei. ;)
Die CPU kann nichts dafür wenn die Graka limitiert.
Denn bei allem Einverständnis in deine Testweise sind 1.3 Ghz schon arg wenig.
Ach, so ein C2D @1,3Ghz dürfte in etwa einem X2 3600-3800+ entsprechen, wenn ich mich nicht verrechnet habe. :D
Madkiller
2006-12-03, 11:11:16
@dargo
Erklär mir doch bitte genau, wie du NFS:Carbon getestet hast.
Ich habe das Spiel auch und gerade geschaut, inwieweit es sich als CPU-Test eignet.
Und da waren die fps mit 1280x1024 mit 16xAF "nur" 15-30% niedriger als auf 800x600 (CPU-Limitierung wurde erfolgreich getestet) mit meiner CPU @2750MHz.
Ermittelt wurden die Ergebnisse aus den ersten 5 Sekunden von 4 Startszenen (2x Massenrennen, 1x 7 Gegner, 1x 3 Gegner)
Armaq
2006-12-03, 11:16:19
Ach, so ein C2D @1,3Ghz dürfte in etwa einem X2 3600-3800+ entsprechen, wenn ich mich nicht verrechnet habe. :D
So krass? Das wären 700 Mhz weniger?! :eek:
Falls das eine Anspielung auf meinen x2 sein soll. Der läuft auf 2400 Mhz. ;)
dargo
2006-12-03, 11:16:26
@dargo
Erklär mir doch bitte genau, wie du NFS:Carbon getestet hast.
Ich teste mit (Quickrace) dem Rundkurs 'Silk Road` (8 Fahrzeuge) direkt am Start. Gemessen wird erst bei "Los" mit 5 Sekunden. Mein Wagen bleibt stehen.
Getestet wird natürlich mit max. Details incl. Motion Blur und Rückspiegel in 640x480 ohne AA/AF.
Achja, mit Heckansicht.
Falls das eine Anspielung auf meinen x2 sein soll. Der läuft auf 2400 Mhz. ;)
Das war keine Anspielung sondern einfach nur ein Vergleich. :)
Ich hatte nichtmal in deine Sig. geschaut.
Madkiller
2006-12-03, 11:29:48
Hm...
Dann hängt das wohl in erster Linie damit zusammen, daß ich schon gleich von Beginn an die 5 Sekunden aufzeichne...
Unmittelbar am Anfang ist anscheinend die CPU-Last höher.
Bei mir war natürlich auch alles max bei 800x600 - und wie mir gerade klar wurde, war sogar noch 16xAF im Treiber aktiv.
Aber wie gesagt: Dann ist es selbst bei meinem oder etwa nem E6400 alles CPU-Limitiert.
Hängt aber wohl auch stark von der Umgebung ab...
Was mir auffiel:
Bei den Massenrennen hatte ich auf 8x6 weniger fps wie bei den Rennen mit weniger Gegnern - klar.
Aber bei 16x12 2/16 (Performance AAA) waren die fps bei den Massenrennen 10-40% höher...
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.