PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Quad CPU Vs Duo CPU - Game Over


Guest
2008-09-22, 21:03:27
Kurz und knapp,

wer heute immernoch einen DC bevorzugt, fuer den gleichen Preis eines Quads[Q6600 vs e8400], sollte sich den Test bei lH ansehen.

Also was spricht dagegen ? Nix, weniger Takt und gleich schnell wie ein e8400/ Dual Core 1+Ghz.

http://www.legionhardware.com/document.php?id=770&p=3


2^5=? 25,5,1,,,,,

lumines
2008-09-22, 21:09:26
schon klar, aber die dinger werden nunmal (noch) ziemlich heiß.

=Floi=
2008-09-22, 21:38:31
VIA? hä?
was soll der thread?

Gast
2008-09-22, 21:48:45
Will ich sehen, einen Q6600 Luftgekühlt auf 3,3GHz...
Gegenüber einem E7200, der locker 3,5GHz Luftgekühlt schafft, ist der Q6600 leider mit ~100Watt mehr Verbrauch recht deftig.
Und der Benchmark von dieser Webseite is mal derb lachhaft, alle CPUs mal quer durch den Garten gebenchmarkt, das die alle Unterschiedliche Caches haben interessiert ja nicht...

Gast
2008-09-23, 09:09:49
Will ich sehen, einen Q6600 Luftgekühlt auf 3,3GHz...
Gegenüber einem E7200, der locker 3,5GHz Luftgekühlt schafft, ist der Q6600 leider mit ~100Watt mehr Verbrauch recht deftig.
Und der Benchmark von dieser Webseite is mal derb lachhaft, alle CPUs mal quer durch den Garten gebenchmarkt, das die alle Unterschiedliche Caches haben interessiert ja nicht...
bullshit, schau dir mal die 7200 OC threads an. meiner heizt bei 3,7ghz schon heftigst! also da ist kein grosser unterschied mehr zum q6600 - vielleicht stromverbrauch, aber da ist es auch unfair 2 fertigungsprozesse zu vergleichen!

Gast
2008-09-23, 17:48:30
Mimimi, 100-120Watt Mehrverbrauch rechtfertigen den geringen Leistungszuwachs nicht, das bestätigen Tests von verlässlichen Webseiten.
Supreme Commander z.b. mach 0 Unterschied ob jetzt ein Q6600 oder ein E8400@2,4GHz in Betrieb hat, es kann nur 2 Threads verwalten...

Gast
2008-09-23, 17:52:21
Will ich sehen, einen Q6600 Luftgekühlt auf 3,3GHz...


Schaffen doch viele sogar mit Default-Vcore!

Gast
2008-09-23, 17:58:05
Mimimi, 100-120Watt Mehrverbrauch rechtfertigen den geringen Leistungszuwachs nicht, das bestätigen Tests von verlässlichen Webseiten.
Supreme Commander z.b. mach 0 Unterschied ob jetzt ein Q6600 oder ein E8400@2,4GHz in Betrieb hat, es kann nur 2 Threads verwalten...

Viele vergessen hier, dass ein Quad auch nur dann viel mehr an Strom zieht als der Dual, wenn er auch richtig ausgelastet wird! Wird er z.B. nur zu 60% ausgelastet, bringt er zwar nicht viel mehr als ein Dual, zieht aber auch nur minimal mehr Power! ;) Wird der Quad voll ausgelastet, verbraucht er natürlich deutlich mehr, bringt aber auch dementsprechend Power! Und 120W Mehrverbrauch kann nicht sein, dafür müsste der Quad ja insgesamt 240W ziehen. Najo bei 4,5Ghz bei 1,7V Vcore vielleicht ! :D

Lonesloane
2008-09-23, 18:10:32
Für die Zukunft ist es bestimmt besser einen Quad zu holen, weil immer mehr neue Spiele Mehrkern-CPUs auch nutzen werden können. Die bestehenden Spiele schafft ein Quad auch so, egal ob Phenom oder 6600.
Wenn ein leistungsfähiges Netzteil schon da ist, dann würde ich einen Quad kaufen. Aufrüsten von einem hochgetakteten Dualcore auf einen Quad ist natürlich Verschwendung, da sollte die Kohle eher in die Grafikkarte wandern.

=Floi=
2008-09-23, 18:14:59
einnen Q6600@ 3,4ghz kann man sogar mit fast 1,44volt noch (problemlos) lüftkühlen und das relativ leise. Der verbrauch dürfte irgendwo bei 160-170 watt sein ;D

Ronny G.
2008-09-23, 18:22:58
da muß ich zustimmen, der Q6600@3,6GHz@1,45V den ich vor dem jetztigen E8600 drin hatte war nur minimal wärmer, hat aber erheblich mehr Strom gezogen, der Furmarktest war so kaum möglich weil mein 450er Netzteil schlichtweg zu schwach war um dazu noch nen HD4870 zu betreiben.

Lonesloane
2008-09-24, 13:34:14
da muß ich zustimmen, der Q6600@3,6GHz@1,45V den ich vor dem jetztigen E8600 drin hatte war nur minimal wärmer, hat aber erheblich mehr Strom gezogen, der Furmarktest war so kaum möglich weil mein 450er Netzteil schlichtweg zu schwach war um dazu noch nen HD4870 zu betreiben.

Und warum hast du gewechselt? Aus Langeweile? Welche Kombination findest Du jetzt besser?

-=Popeye=-
2008-09-26, 11:40:15
Er hat aus Neugier und psychologischen Gründen gewechselt, weil sich DC@4xxxMHz besser aussieht und anhört als QC@3600MHz.;)

Ich persönlich habe von E6600 auf Q6600 gewechselt ebenfalls aus Neugier und kann sagen (mal abgesehen vom Stromverbrauch) eine sehr gute Entscheidung, vor allem der Videoschnullermannskram geht doch ein wenig schneller vonstatten und die minFPS sind in einigen Spielen auch gestiegen.

Virtuo
2008-09-26, 11:49:54
Will ich sehen, einen Q6600 Luftgekühlt auf 3,3GHz...
Gegenüber einem E7200, der locker 3,5GHz Luftgekühlt schafft, ist der Q6600 leider mit ~100Watt mehr Verbrauch recht deftig.
Und der Benchmark von dieser Webseite is mal derb lachhaft, alle CPUs mal quer durch den Garten gebenchmarkt, das die alle Unterschiedliche Caches haben interessiert ja nicht...


Meiner geht 3,4 luftgekühlt ohne Props on Default, sogar mit Lüfterkennlinie "Silent"

Birdman
2008-09-26, 12:20:26
Viele vergessen hier, dass ein Quad auch nur dann viel mehr an Strom zieht als der Dual, wenn er auch richtig ausgelastet wird! Wird er z.B. nur zu 60% ausgelastet, bringt er zwar nicht viel mehr als ein Dual, zieht aber auch nur minimal mehr Power! ;) Wird der Quad voll ausgelastet, verbraucht er natürlich deutlich mehr, bringt aber auch dementsprechend Power!
Der Quad zieht auch so deutlich mehr Power.
Sobald 1 Core belastet wird werden alle Cores auf die maximale Frequenz und vCore gestellt, da die Deskttop CPUs dies nicht pro Core einzeln können.
Und damit zieht auch jeder Core selbst im idle locker mal 20W

Backet
2008-09-26, 12:54:22
Mein Q6600 wird auch nicht wirklich heiss . Und macht die 3 Ghz marke ohne VCore erhöhun gmit. Erst bei 3,2 muss ich da wirklich dann schrauben. Bin sehr zufrieden mit dem Teil.

Und bei den CPUs seid ihr plötzlich alle so auf Stromsparend gestrickt. Aber dann warscheinlich Triple SLI drin haben!


Oder Moment mal. Oh Nein. Jetzt versteh ich das erst!

IHR SEID WIEDER BETRUNKEN!

Silverbuster
2008-09-26, 13:07:18
Der Quad zieht auch so deutlich mehr Power.
Sobald 1 Core belastet wird werden alle Cores auf die maximale Frequenz und vCore gestellt, da die Deskttop CPUs dies nicht pro Core einzeln können.
Und damit zieht auch jeder Core selbst im idle locker mal 20W

Das ist quatsch.. 20W pro Core Idle mehr....

Es gibt genug Tets die zeigen das ein Quad Idle kaum mehr verbraucht als sein Dualcore Gegenstück (immer gleiche Kerne vergleichen). Unter Last verbraucht ein Quad mehr, natürlich, aber er verbraucht nicht das doppelte wie sein Dualcore Pedant.
Unter Last.... eine CPU Kern der vollen V-Core hat, aber nicht arbeitet, verbraucht auch nicht viel, somit ist die Aussage gar nicht verkehrt. Wenn du ein Programm fährst das nur 2 Kerne nutzt, verbrauchst du in dem Moment kaum mehr als wenn du nur einen Dualcore hättest.

Das ein Quad im Alltag sooo viel mehr verbraucht, ist schlichtweg ein Gerücht das Leute in die Welt setzen die irgendwie falsch aufgeklärt sind. Das er mehr verbraucht, ist klar, aber viel mehr ist es nicht.
nur mal als Denkanstoß. Mit meinem X2 3800 @ 2,5Ghz (Manchaster Kern) hatte ich einen höheren Verbrauch als jetzt mit dem Q6600. Selbst unter Vollast verbrauche ich jetzt kaum mehr.

user77
2008-09-26, 13:14:46
der sparsamste intel quadcore ist zur zeit der Intel Xeon DP L5420, hat 4x2,5Ghz und eine TDP von gerademal 50W.

nVoodoo
2008-09-26, 13:51:19
Die Frage ist nur ob sich der Mehrpreis von 200€ in der Zeit wo man die CPu hat auch wieder reinholt ;) Wobei man das ding ja eh nur für S771 kriegt :(

user77
2008-09-26, 13:54:05
Die Frage ist nur ob sich der Mehrpreis von 200€ in der Zeit wo man die CPu hat auch wieder reinholt ;) Wobei man das ding ja eh nur für S771 kriegt :(


das weiß ich, ich mein nur, dass ein 2,5ghz dann theoretisch nur 12,5w braucht. ist schon spitze!

krass
2008-09-26, 14:44:27
also, ich bin zurück auf einen dualcore gewechselt, weil ich schlichtweg keine verwendung mehr dafür hatte. meine interessen haben sich verändert, kaum noch multimedia-zeugs, video+audio. somit reicht mir ein dualcore ... wahrscheinlich eigentlich auch ein sc :rolleyes:

aber aus neugierde am nächsten intel und dem obligatorischen hardware-tausch, kommt bestimmt wieder ein 4-kerner.

centurio81
2008-09-26, 21:03:50
Is schon komisch..^^
ich predige das seit ich meinen Q6600 habe weil er so billig war..
Aber da wurde man in den anderen Threads erschlagen von wegen man solle doch lieber nen 8400er nehmen..
Is doch alt und braucht viel Strom.. Blablabla..

So viel mehr isses gar net..und außerdem wen juckts..
Nen Spiele PC braucht eben Saft.

Undertaker
2008-09-26, 21:18:43
Die Frage ist nur ob sich der Mehrpreis von 200€ in der Zeit wo man die CPu hat auch wieder reinholt ;) Wobei man das ding ja eh nur für S771 kriegt :(

Der Q9300 wurde bei HT4U auch schon mit 50W inkl. SpaWas gemessen, also etwa 40W reine CPU-Verlustleistung ;)

Gast
2008-09-26, 21:59:24
Das ein Quad im Alltag sooo viel mehr verbraucht, ist schlichtweg ein Gerücht das Leute in die Welt setzen die irgendwie falsch aufgeklärt sind. Das er mehr verbraucht, ist klar, aber viel mehr ist es nicht.

E7200@2,53GHz vs. Q6600@2,4GHz / 4GB RAM / GTX260 WindowsXP / 3xHD

E7200 = 90Watt Idle
Q6600 = 145Watt Idle

Ist halt schlecht wenn man Filme schaut oder MP3s hört und surft, da reicht der E7200.
Beim Spielen gebe ich aber jedem Recht, ein Quad haut da alles andere in die Pfanne, auch wenn das Quad System dann vermutlich +100Watt gegenüber dem DC System verbraucht.

-=Popeye=-
2008-09-26, 22:09:47
So ein Käse, schonmal in den Stromverbrauch-Benchmark (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=416070) Thread geschaut, so groß ist der Unterschied garnicht.

Schrotti
2008-09-26, 22:40:05
Im Idle verballert der Q6600 noch mehr Strom als ein Q9450.

http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_intel_core_2_duo_e7200/24/#abschnitt_leistungsaufnahme

Ist alles im Test von CB vorhanden, einfach mal die Diagramme anschauen.

Gast
2008-09-26, 23:53:37
So ein Käse, schonmal in den Stromverbrauch-Benchmark (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=416070) Thread geschaut, so groß ist der Unterschied garnicht.

Die Zahlen die ich genannt habe stehen nicht zur Diskussion, sie sind mit haargenau dem selben System gemessen worden. In deinem Thread gibts es nur unterschiedliche Konfigurationen, das ist nur mit abstrichen vergleichbar.,,

Spasstiger
2008-09-27, 01:26:53
der sparsamste intel quadcore ist zur zeit der Intel Xeon DP L5420, hat 4x2,5Ghz und eine TDP von gerademal 50W.
Und der Xeon L7445 mit sechs Kernen @ 2,13 GHz, 6 MB L2-Cache und 12 MB L3-Cache hat ebenfalls eine TDP von 50 Watt.

Gast
2008-09-27, 01:36:48
Der Stromverbrauch ist ja sooooo wahnsinnig interessant ... insbesondere, wenn man dann hinterher mangels ausreichender Leistung wie verrückt übertaktet, dadurch eine größer dimensionierte Kühllösung benötigt (ergo wiederrum mehr Stromverbrauch), nebst einer verkürzten CPU Lebensdauer.
Macht viel Sinn, braucht man öfter eine neue CPU, kann man mehr Geld ausgeben, die Umwelt noch mehr schädigen, etc.
Also wirklich, der Stromverbrauch ist echt voll wahnsinnig ultra wichtig! Immer schön drauf achten!
Oder gleich 'nen vernünftigen Prozi kaufen, dann hat man es auch nicht nötig wie ein GTI Proll zu tunen.

derguru
2008-09-27, 03:32:27
grafikkarten profitieren vom höheren cpu-takt was man auch selbst beim 3d mark06 sieht.
obwohl ich mit einem 9550@3,9ghz mehr cpu punkte hatte und somit auch im gesamtranking höher war wie mein alter haudegen 8500@4,3ghz,kam ich aber bei den grafikkarten scores an den dual nicht ran.in den sm 2.0 und 3.0 grafiktests hatte ich ca. 1000 punkte weniger als mit meinem 8500@4,3ghz.

und das machte sich teilweise auch in spielen bemerkbar,dazu kommt das man dual core ohne probleme bei 4ghz und mehr takten kann(24/7)was bei quad core noch lange nicht sicher ist was auch mehere gründe haben kann.da die multis relative niedrig sind kriegt man die meist eh nicht hochgejagt und dann muss man erstmal ein mainboard haben das bei einem quad ein hohen fsb schafft das auch nicht selbstverständlich ist.

zum glück bin ich wieder beim dual core gelandet,sinnvoll wird es erst mit den neuen intel cpu´s aber auch nur darum weil es keine 2 kern mehr geben wird.;D

=Floi=
2008-09-27, 04:51:33
zitat
E7200 = 90Watt Idle
Q6600 = 145Watt Idle
wohl eher das ganze system?!

OgrEGT
2008-09-27, 08:55:55
Nur mal am Rande, wird bei der Herstellung einer (=1) CPU (egal welcher) derart viel Energie verbraucht, als man mit der alten strom-fressenderen CPU bis an sein Lebensende im Vergleich zur neueren (sparsameren Version) verbrauchen würde. Man bedenke nur mal den Energieverbrauch der Halbleiterfabriken der durch die enormen Reinraumanforderungen entsteht.
Reinräume zur Halbleiterfertigung bewegen sich von der Klassifizierung her im Bereich von ISO-Klassse 1 (ISO 14644). Die Anforderung für die aseptische Herstellung von Arzneimitteln liegt bei ISO-Klasse 5.

Partikel je m³
Klasse 0,1 µm 0,2 µm 0,3 µm 0,5 µm 1,0 µm 5,0 µm
ISO 1 10 2
ISO 2 100 24 10 4
ISO 3 1.000 237 102 35 8
ISO 4 10.000 2.370 1.020 352 83
ISO 5 100.000 23.700 10.200 3.520 832 29

(Übrigens: Eine Google Abfrage kostet genausoviel Energie wie eine 11W Glühbirne in 1h verbraucht http://www.shortnews.de/start.cfm?id=673841)

Dies sei nur am Rande erwäht, sollte die Diskussion über Stromverbrauch einen ökologischen Hintergrund haben.

Rein vom finanziellen Aspekt her gesehen finde ich das "Hobby" (bei vielen ist es ja deutlich mehr als das) PC-Gaming / Multimedia vergleichsweise noch relativ überschaubar, wenn man nur den Strom(mehr)verbrauch betrachtet. Die Kosten für Hardware-Neuanschaffung dabei mal aussen vorgelassen...

Gast
2008-09-27, 18:48:25
zitat
E7200 = 90Watt Idle
Q6600 = 145Watt Idle
wohl eher das ganze system?!

Jap, habe ja auch die einzelnen Systemkomponenten aufgelistet.
Netzteil fehlt evtl. noch, falls interessant: Corsair VX450

knallebumm
2008-09-27, 22:18:19
Irgendwie trau ich den Tests von Legionhardware nicht so richtig. Grund ist folgender Quakewars Benchmark:

http://www.legionhardware.com/document.php?id=775&p=8

Warum sollte ein Quad bei einem Spiel, daß nicht mehr als einen Kern? nutzt schneller sein als ein Dualcore? (OK, das könnte man noch begründen)

Aber was viel entscheidender ist: Warum sollte sich der Abstand in hohen Auflösungen und hohen 8AA/16Af noch so extrem vergrößern?

Das macht meiner Meinung nach schlicht keinen Sinn. (nicht weil ich einen E8400 habe) Haben die als weiteren Task noch Supreme Commander nebenherlaufen lassen? :)

Da frag ich mich persönlich sogar, ob die überhaupt richtig getestet haben. (ist ja immerhin ne Menge Arbeit)
Vielleicht wars auch ein Fehler.

Undertaker
2008-09-27, 23:11:23
Vergrößern? Aus 73/136fps werden in 1920x1200 70/94 fps langsamste/schnellste CPU. Klingt absolut nachvollziehbar.

dargo
2008-09-27, 23:27:13
Irgendwie trau ich den Tests von Legionhardware nicht so richtig. Grund ist folgender Quakewars Benchmark:

http://www.legionhardware.com/document.php?id=775&p=8

Warum sollte ein Quad bei einem Spiel, daß nicht mehr als einen Kern? nutzt schneller sein als ein Dualcore? (OK, das könnte man noch begründen)

Quake Wars basiert auf der Doom3-Engine die durchaus einen zweiten Kern nutzt. Ich konnte bei Quake 4 ca. +60% durch einen zweiten Core messen.

knallebumm
2008-09-27, 23:31:55
Vergrößern? Aus 73/136fps werden in 1920x1200 70/94 fps langsamste/schnellste CPU. Klingt absolut nachvollziehbar.


Mir gehts darum, daß der Abstand zwischen gleichgetakteten C2D und C2Q mit höheren Auflösungen extrem ansteigt.

Undertaker
2008-09-27, 23:35:07
Hmm in der Tat... K, das kann ich mir auch nicht wirklich erklären :confused:

Birdman
2008-09-28, 15:46:29
Das ist quatsch.. 20W pro Core Idle mehr....

Es gibt genug Tets die zeigen das ein Quad Idle kaum mehr verbraucht als sein Dualcore Gegenstück (immer gleiche Kerne vergleichen). Unter Last verbraucht ein Quad mehr, natürlich, aber er verbraucht nicht das doppelte wie sein Dualcore Pedant.
Unter Last.... eine CPU Kern der vollen V-Core hat, aber nicht arbeitet, verbraucht auch nicht viel, somit ist die Aussage gar nicht verkehrt. Wenn du ein Programm fährst das nur 2 Kerne nutzt, verbrauchst du in dem Moment kaum mehr als wenn du nur einen Dualcore hättest.

Wenn man keine Ahnung hat.....
Die aktuellen CPU's ziehen im idle nur so wenig Strom, weil die Taktfrequenz und Vcore abgesenkt wird.
Da die Kerne aber nicht einzeln angesteuert werden können, laufen bei einem Quadcore alle 4 Kerne mit voller Frequenz wenn auch nur einer ausgelastet wird.
Daher zieht ein Quadcore auch bei nur einem laufenden Thread deutlich mehr Saft als ein Dualcore.

BlackBirdSR
2008-09-28, 19:17:21
Wenn man keine Ahnung hat.....
Die aktuellen CPU's ziehen im idle nur so wenig Strom, weil die Taktfrequenz und Vcore abgesenkt wird.
Da die Kerne aber nicht einzeln angesteuert werden können, laufen bei einem Quadcore alle 4 Kerne mit voller Frequenz wenn auch nur einer ausgelastet wird.
Daher zieht ein Quadcore auch bei nur einem laufenden Thread deutlich mehr Saft als ein Dualcore.

Diesen "Wenn man keine Ahnung hat" Spruch sollte man sich genrell sparen. Besonders in Fällen wo man dann selbst nicht den korrekten Fall darstellen kann.

Silverbuster hat schon recht wenn er einer CPU im Idle nur sehr wenig Verlustleistung zu schreibt. Glock-Gating, disconecten von Bussen und Links, abschalten des Taktsignals und selektive Abschaltung von Cache und Datenpfaden. Das alles führt zu signifikant verringerter Verlustleistung, auch bei voller Spannung und Takt. Auch meine CPU hat bei CnQ an oder aus identische Temperaturwerte. Bei Lost-Circuits gibts auch tolle Vergleiche dazu. (z.B hier einer http://www.lostcircuits.com/cpu/low_e/5.shtml)

Abesenken von Takt und Spannung bringt dann etwas, wenn der Chip selbst miserables Powermanagement hat (aktuell wohl viele GPUs) oder die Leckströme bei gegebener Spannung dermaßen hoch sind, dass selbst die Sleep-Modi nicht effektiv arbeiten. Na und natürlich bringt es etwas, wenn die CPU leicht gefordert ist. Ein 1.2GHz K8-X2 mit 1V ist bei geringer Last natürlich dann etwas sparsamer als das 2.4GHz Modell. Aber war hier ja nicht gefragt.

Alexander
2008-09-28, 20:30:43
Abesenken von Takt und Spannung bringt dann etwas, wenn der Chip selbst miserables Powermanagement hat (aktuell wohl viele GPUs) oder die Leckströme bei gegebener Spannung dermaßen hoch sind, dass selbst die Sleep-Modi nicht effektiv arbeiten.
Sehr interessanter Beitrag. Macht es bei den Core 2 Duo mit moderater Spannung (moderates Übertakten oder ohne OC) überhaupt Sinn noch zu untervolten bzw. statt mit z.B. 9*400 die CPU mit 12*300 zu betreiben (2,4Ghz im Idle vs 1,8Ghz)? Oder ist die Ersparnis so marginal......

pest
2008-09-28, 22:12:35
es war so gering das ich mit 3.6GHz im Internet surfe :redface:

Lonesloane
2008-10-01, 09:24:18
grafikkarten profitieren vom höheren cpu-takt was man auch selbst beim 3d mark06 sieht.
obwohl ich mit einem 9550@3,9ghz mehr cpu punkte hatte und somit auch im gesamtranking höher war wie mein alter haudegen 8500@4,3ghz,kam ich aber bei den grafikkarten scores an den dual nicht ran.in den sm 2.0 und 3.0 grafiktests hatte ich ca. 1000 punkte weniger als mit meinem 8500@4,3ghz.
....;D

Die Frage ist doch, ob man in "echten" Spielen überhaupt einen Nutzen von Extremübertaktungen sieht. Was man beim 3D-Mark sieht ist doch vollkommen irrelevant, wenn in einem Spiel nicht mehr FPS rüberkommen (weil evtl. schon vorher die Grafikkarte limitiert).

Cubitus
2008-10-01, 09:43:43
Man merkt es schon, natürlich darf auch die Graphikkarte nicht limitieren ;)
Da wären Titel wie Crysis (an manchen Stellen extrem CPU-Limitiert wie das Level Assault). Dann gibt es noch z.B Oblivion, Stalker, Lost Planet, CMR Dirt, Supreme commander etc. Die alle vom höheren Takt der CPU profitieren.

Lonesloane
2008-10-01, 09:47:06
Nur kann ich das nicht glauben. Bei normalen Auflösungen mit AA/AF entscheidet immer die Grafikkarte. Habe das noch nie erlebt, dass ein Spiel wegen der CPU auf einmal aus dem FPS-Keller kommt. Aber Intel hat gutes Marketing bei den C2Ds gemacht.

Cubitus
2008-10-01, 09:59:29
klar es kommt drauf an, im "Normalfall" merkt man vom CPU Limit nicht all zu viel. Aber befeuer mal die Games mit GTX280 SLI oder 3-Way AFR.

Bei Suprme Commander merkt man es auch deutlich wenn extrem viele Einheiten auf dem Screen sind.

Oder auch bei Lost Planet, wo manche Levels sehr CPU fordernd sind.
Wie z.b das Level Cave. Wobei das ganze Game schon eher Marketing für intels Quad ist, aber egal man kann es im Gegensatz zum 3dMark wenigstens zoggen ;D

Lonesloane
2008-10-01, 10:23:01
Die Kombination muss eben immer stimmen: Wenn man eine potente Grafikkarte einsetzt, dann läuft natürlich kein 2140 auf Standardtakt dazu, das passt eben nicht.

Ich würde aber heutzutage immer einen Quad (Phenom oder Intel) bei Neukauf bevorzugen, natürlich mit einer potenten Grafikkarte. Gerade unter Hochlastbedingungen zahlt sich das immer mehr aus (vor allem beim Phenom wegen der bessseren Archtektur).

V2.0
2008-10-01, 11:46:59
Ich habe jetzt, nach dem Ableben des AMD Athlon Dulacore Systems, einen Quad drinne. Und zwar nen lahmen und unübertakteten Q9300. Und ich würde es wieder tun. Nicht wegen der Spiele sondern weil es eben noch leichter geht mehrer Anwendungen gleichzeitig laufen zu lassen.

Es ist nun leicht möglich gleichzeitig ein pdf von 70+ Seiten erstellen zu lassen und ein Video zu dekodieren und dabei zu surfen und ein Bild zu bearbeiten. Das ist schon sehr angenehm.

Alternativ geht eben auch COD flüssig spielen + pdf.

dargo
2008-10-01, 11:53:51
Nur kann ich das nicht glauben. Bei normalen Auflösungen mit AA/AF entscheidet immer die Grafikkarte.
Nein, und nochmal nein!

Undertaker
2008-10-01, 12:45:09
Selbst WoW kann einen 4GHz C2D an die Leistungsgrenze bringen, genau wie viele Online-Shooter - in TF2 komme ich immer wieder ins grübeln, nochmal in einen 4,*GHz E8*00 zu investieren, um endlich durchgängig >30FPS auch auf größeren Servern zu haben... Und das ist bei weitem nicht der einzige Fall.

Lonesloane
2008-10-01, 13:19:19
Nein, und nochmal nein!

Außer in (wahrscheinlich manipulierten) Intel-Marketing-Schwanzmarks habe ich davon aber noch nie was mitbekommen. Jedenfalls nicht in "normalen" Auflösungen ab 1280x1024 mit AA/AF.
Wieviele FPS ich bei 640x480 ohne AA/AF mehr habe, ist mir vollkommen egal, weil vollkommen irrelevant.

Lonesloane
2008-10-01, 13:23:50
Nein, und nochmal nein!
Selbst WoW kann einen 4GHz C2D an die Leistungsgrenze bringen, genau wie viele Online-Shooter - in TF2 komme ich immer wieder ins grübeln, nochmal in einen 4,*GHz E8*00 zu investieren, um endlich durchgängig >30FPS auch auf größeren Servern zu haben... Und das ist bei weitem nicht der einzige Fall.

In deinem Fall mit deinem potenten C2D würde ich eher auf ein Problem mit dem Server tippen, anstatt selbst Kohle zu verblasen für einen 8x00, der dann evtl. auch nicht mehr bringt. Du kannst ja nie dieselbe Situation nachstellen und eine eindeutige Diagnose geben.

Mich würde mal interessieren, wie jemand mit Online-Multiplayer-Erfahrung den Umstieg von Dualcore auf Quad erlebt hat?

Undertaker
2008-10-01, 13:34:57
Nope, dass sind keine Serverprobleme, das Game skaliert absolut linear mit steigendem Takt...
Momentan besteht trotz 24"er eher der Wunsch nach mehr CPU- als GPU Leistung :)

Lonesloane
2008-10-01, 13:49:52
Mich würde halt interesssieren, ob da nicht ein Quad besser wäre.

Undertaker
2008-10-01, 14:56:41
Mit einem solchen Test kann ich leider nicht dienen, aber ein Screen sagt wohl auch schon einiges:

http://www.abload.de/img/unbenanntlqi.png

Unwahrscheinlich, dass ein Quad da von Vorteil wäre... Insofern bin ich auch immer wieder unschlüssig, ob man zum aktuellen Zeitpunkt in einen der teuren 45nm Quads investieren sollte oder nicht... Klar, vor allem in Zukunft werden sich die Vorteile zeigen, aber ob vorher nicht doch nocheinmal ein sparsamer, günstiger und hochtaktender DC die bessere Wahl wäre...?

MartinRiggs
2008-10-01, 15:37:44
Tf2 kann wohl selbst Dualcores nicht gescheit nutzen, allerdings komme ich auch bei vollen Server nie unter 30 FPS mit nem 3,3 GHZ Core 2 Duo.
Wenn es allerdings wirklich mit nem 4 GHZ Dual noch weniger einbrechen würde dann hätte ich auch gerne einen, mir gehen schon die Einbrüche bis auf 35 FPS auf den Sack.

Lonesloane
2008-10-01, 16:25:24
Hier mal ein netter Test:
http://www.tomshardware.com/de/CPU-oder-GPU-Nvidia-Intel,testberichte-240002.html

Fazit: Wenn man z.B. einen 2160 auf über 3GHz übertaktet, dann gewinnt man auf der CPU-Seite fast nichts mehr (leider übertakten die den 2160 nur bis 2,41). Bei den Grafikkarten sieht es natürlich anders aus, da lohnt jede Mehrleistung.

Hätte mich auch sehr gewundert, wenn bei dem Test was anderes rausgekommen wäre, das entspricht genau meinen Erfahrungen.

dargo
2008-10-01, 16:28:35
Außer in (wahrscheinlich manipulierten) Intel-Marketing-Schwanzmarks habe ich davon aber noch nie was mitbekommen. Jedenfalls nicht in "normalen" Auflösungen ab 1280x1024 mit AA/AF.

Es gibt genug Szenen in Games die cpu-limitiert sind. Selbst in 1680x1050. Alles eine Frage der verwendeten Grafikkarte, dem Game und der Szene.


Wieviele FPS ich bei 640x480 ohne AA/AF mehr habe, ist mir vollkommen egal, weil vollkommen irrelevant.
Warum sollte das irrelevant sein wenn ich bei höhererer Auflösung in XYZ Game und Szene die gleichen oder kaum niedrigere Frames habe?

Hier mal ein netter Test:
http://www.tomshardware.com/de/CPU-oder-GPU-Nvidia-Intel,testberichte-240002.html

Zum x-ten Mal. Du wirst keinen... ich wiederhole keinen kompetenten CPU-Test im Netz finden, zumindest nicht wenn es um Games geht.

Gast
2008-10-01, 16:57:04
Zum x-ten Mal. Du wirst keinen... ich wiederhole keinen kompetenten CPU-Test im Netz finden, zumindest nicht wenn es um Games geht.

Da hast Du leider leider Recht, auch wenn das viele nicht wahrhaben wollen. Deswegen erwarte ich auch sehnsüchtig Deine Quadcore-Savegame-Tests! :)

Gast
2008-10-01, 17:00:46
Warum sollte das irrelevant sein wenn ich bei höhererer Auflösung in XYZ Game und Szene die gleichen oder kaum niedrigere Frames habe?


Weil die meisten Spiele bei höheren Auflösungen ganz anders skalieren als bei niedrigen, insofern sind deine herausgepickten Pro-C4D-Beispiele für die Katz!

dargo
2008-10-01, 17:00:56
Da hast Du leider leider Recht, auch wenn das viele nicht wahrhaben wollen. Deswegen erwarte ich auch sehnsüchtig Deine Quadcore-Savegame-Tests! :)
Der ist schon unterwegs zu mir. Ich bete nur, dass es ein E0 ist. :sneak:

reallord
2008-10-01, 18:05:12
Hier mal ein netter Test:
http://www.tomshardware.com/de/CPU-oder-GPU-Nvidia-Intel,testberichte-240002.html

Fazit: Wenn man z.B. einen 2160 auf über 3GHz übertaktet, dann gewinnt man auf der CPU-Seite fast nichts mehr (leider übertakten die den 2160 nur bis 2,41).
...


Die übertakten den doch auf 3GHz (http://www.tomshardware.com/de/CPU-oder-GPU-Nvidia-Intel,testberichte-240002-15.html)?

Lonesloane
2008-10-01, 18:49:44
Stimmt, hatte ich nicht mehr gelesen. Also der 3GHz 2160 reicht vollkommen aus, selbst der 3,2 Quad schafft nur 5% mehr. Da steckt man die Kohle lieber in die Grafikkarte.

MartinRiggs
2008-10-02, 10:52:35
Der ist schon unterwegs zu mir. Ich bete nur, dass es ein E0 ist. :sneak:

wo bestellt?
Bei MF, PC-Tweaker und HOH sind es wohl E0

dargo
2008-10-02, 10:56:26
Drivecity. Ist aber eh das selbe wie Mindfactory. Drivecity hat vorgestern eine ganz neue Lieferung bekommen. Laut DHL soll das Paket heute bei mir ausgeliefert werden, bin gespannt. :)

Edit:
Das Paket ist da und es ist ein E0. :up:

Ich bin aber völlig überascht wie klein die Box ist, die ist nur noch halb so groß wie bei meinem E6400. X-D
Sind die Dinger wirklich so kühl? Es ist der flache boxed-Kühler beigelegt.

Schrotti
2008-10-02, 19:47:47
Ja, die Dinger sind so kühl.

Sven77
2008-10-02, 23:15:03
Das Paket ist da und es ist ein E0. :up:.

Welcher isses denn genau?

dargo
2008-10-02, 23:26:52
Welcher isses denn genau?
Was brauchst du denn genau? Oder meinst du nur welche CPU? Dann Q9550. :)

Sven77
2008-10-03, 00:14:41
Was brauchst du denn genau? Oder meinst du nur welche CPU? Dann Q9550. :)

Danke, das wollt ich wissen. Drivecity, Q9550, G0... ;)

dargo
2008-10-03, 00:16:48
Ähm... E0. ;)

Sven77
2008-10-03, 00:22:25
Ups, da war ich noch beim 6600er

PHuV
2008-10-03, 01:35:38
Also, auch wenn die CPU-Benchmarks vielleicht nicht der Weisheit letzter Schluß sind, haben sie mich denoch bewogen, mir erst mal einen E8600 zuzulegen, und mein subjektives Spielgefühl gibt mir hier erst mal recht. Da bei meiner Auflösung 2560x1600 momentan meistens eh noch die Grafikkarten limitieren, bringt die CPU eh nur marginal was. Und bisher zeigen doch alle Tests doch eines klar, bis auf 1 Spiel (Assassin's Creed) habe ich bisher kein Benchmark gesehen, der wirklich bei Quadcore mehr als 10% Leistung geliefert hat.

Odal
2008-10-03, 10:23:38
cpu bedarf wird auch gerade hier im forum absolut überbewertet

quadcore lohnt sich einfach noch nicht (wenn man mal die vernunft mit hinsicht auf den geldbeutel sprechen lässt)

V2.0
2008-10-03, 13:37:46
Oder man eben oft Anwndungen nutzt die Quadcore nutzen oder heftig multitasked. Ich kann nur sagen, dass z.B. encoding und PDF Erstellung gleichzeitig mit nem Dualcore nicht ging, der Quad macht das locker und man kann dabei surfen.

Gast
2008-10-03, 14:35:30
Ich kann nur sagen, dass z.B. encoding und PDF Erstellung gleichzeitig mit nem Dualcore nicht ging, der Quad macht das locker und man kann dabei surfen.

Klar geht das mit nem DualCore, musst nur das Encoding auf Prioriät "niedrig" stellen und schon kannste ganz normal nebenbei arbeiten! ;)

Silverbuster
2008-10-03, 15:16:30
Klar geht das mit nem DualCore, musst nur das Encoding auf Prioriät "niedrig" stellen und schon kannste ganz normal nebenbei arbeiten! ;)

Siehste, und mit einem Quad brauch ich gar nichts zu machen, dazu kommt noch das wenn ich die Priorität auf niedrig stelle, das ganze länger dauert.
Warum könnt ihr.... ich nenne es mal Dualcore Fanboys, nicht einfach zugeben das ein Quad bei Multitasking und bei sehr vielen Anwendungsprogrammen vorteile bietet die selbst ein hochgezüchteter Dualcore nicht im Stande ist zu leisten? Seid ihr so festgefahren in eurer Ansicht? Wollt ihr Quads bis in alle Ewigkeit schlecht machen?
Selbst jetzt, wo bewiesenermaßen, ein Quad in vielen Lebenslagen einfach schneller ist, ja sogar einige Spiele davon profitieren (auch wenn sie noch von den Grafikkarten ausgebremst werden) wollt ihr es nicht wahrhaben das Quads schlichtweg bei vielen Anwendungsgebieten Vorteile bieten die nicht zu verachten sind.
Wenn man nur Spielen will, oder halt normane Office Kram macht, ist ein Quad Sinnvoller, richtig, aber ansonsten..... :wink:

V2.0
2008-10-03, 15:31:05
Klar geht das mit nem DualCore, musst nur das Encoding auf Prioriät "niedrig" stellen und schon kannste ganz normal nebenbei arbeiten! ;)

Sicher aber dann dauert es eben länger. Was die ganze Sache dann auch wieder witzlos macht, da es da schneller war erst das pdf zu machen und dann das Encoding. Jetzt läuft beides gleichzeitig und das sogar auf meinem schwach brüstigen Q9300.

Ich bin froh mich für den Quad entschieden zu haben und finde den Aufpreis gegenüber den hochtaktenden Duals für meine Bedürfnisse gut angelegt. Aber Spieleleistung ist mir auch überwiegend egal.

Sonyfreak
2008-10-03, 15:36:58
Außerdem ist es doch einfach ein gutes Gefühl - Sinn und Nutzen hin oder her - einen Quadcore unter der Haube zu haben. :D

Ich habe meinen Umstieg von einem Dual- auf einen Quadcore jedenfalls nicht bereut.

mfg.

Sonyfreak

The_Invisible
2008-10-03, 15:52:30
cpu bedarf wird auch gerade hier im forum absolut überbewertet

quadcore lohnt sich einfach noch nicht (wenn man mal die vernunft mit hinsicht auf den geldbeutel sprechen lässt)

wohl kein gentoo am laufen ;D

auch bei der entwicklung mit mehreren vms ist es sehr angenehm nen quad und so noch ein bisschen luft nach oben zu haben.

mfg

sulak
2008-10-03, 16:22:21
Siehste, und mit einem Quad brauch ich gar nichts zu machen, dazu kommt noch das wenn ich die Priorität auf niedrig stelle, das ganze länger dauert.
Warum könnt ihr.... ich nenne es mal Dualcore Fanboys, nicht einfach zugeben das ein Quad bei Multitasking und bei sehr vielen Anwendungsprogrammen vorteile bietet die selbst ein hochgezüchteter Dualcore nicht im Stande ist zu leisten? Seid ihr so festgefahren in eurer Ansicht? Wollt ihr Quads bis in alle Ewigkeit schlecht machen?
Selbst jetzt, wo bewiesenermaßen, ein Quad in vielen Lebenslagen einfach schneller ist, ja sogar einige Spiele davon profitieren (auch wenn sie noch von den Grafikkarten ausgebremst werden) wollt ihr es nicht wahrhaben das Quads schlichtweg bei vielen Anwendungsgebieten Vorteile bieten die nicht zu verachten sind.
Wenn man nur Spielen will, oder halt normane Office Kram macht, ist ein Quad Sinnvoller, richtig, aber ansonsten..... :wink:


*Hust* ein DC ist dann sinnvoller, auf den letzten Satz bezogen *g

Klar, wer nur zockt oder ein wenig Musik hört und surft der brauch keinen Quad, 95% der Spiele können mit einem Quad nix anfangen. Daher gilt für viele, ein DC mit +3GHz reicht aus. Sobald aber Videobearbeitung oder VMs oder eben "mehr" am PC gemacht wird, bietet der Quad klare Vorteile.

Odal
2008-10-03, 16:26:07
wohl kein gentoo am laufen ;D

auch bei der entwicklung mit mehreren vms ist es sehr angenehm nen quad und so noch ein bisschen luft nach oben zu haben.

mfg


doch sogar in mehrfacher ausfuehrung

da kommts dank distcc aber auf ein oder zwei cpus mehr auch nicht drauf an :cool:

The_Invisible
2008-10-03, 20:05:14
doch sogar in mehrfacher ausfuehrung

da kommts dank distcc aber auf ein oder zwei cpus mehr auch nicht drauf an :cool:

naja, distcc + ein paar quadcores ist aber noch besser :biggrin:

mfg

Mark3Dfx
2008-10-05, 09:36:20
http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_intel_core_2_duo_e8600_e0/

"Mit glatten 3,0 GHz sticht er fast jeden Quad-Core-Prozessor aus, weil viele Anwendungen und auch Spiele nicht von vier Kernen profitieren können, aber mit etwas mehr Taktfrequenz noch etwas anfangen wissen. Zudem ist die Lösung mit zwei Prozessorkernen in den meisten Fällen deutlich stromsparender. Das Gesamtrating macht darüber hinaus einmal mehr deutlich, dass ein schneller Dual-Core-Prozessor aktuell immer noch einem langsamer getakteten Quad-Core-Probanden vorzuziehen ist.."

Game Over Q66(7)00

Undertaker
2008-10-05, 09:57:00
Tja, ist wirklich schwer zu sagen, welche CPU momentan schlauer wäre, aber auch Q6600/Q6700 führen in vielen Spielen:

http://www.legionhardware.com/document.php?id=770&p=0

Gast
2008-10-05, 12:58:08
Der Test wurde schonmal gepostet, bei Supreme Commander kommen die 4FPS Unterschied im Schnitt nur durch die unterschiedliche Cache Größe zustande. Ein E8400 hat nunmal 2MB mehr als ein E6700, die Quads eben doppelt soviel Cache, der ja bekanntermaßen bis zu 10% Unterschied bringt.

Aber schon verwunderlich das QuakeWars mit dem Quad ein wenig anzieht.
Warum liegt der X2 denn so dermaßen weit zurück gegenüber dem X4?

Undertaker
2008-10-05, 13:07:09
Der Test wurde schonmal gepostet, bei Supreme Commander kommen die 4FPS Unterschied im Schnitt nur durch die unterschiedliche Cache Größe zustande.

Das denke ich nicht...

E6600 @ 2,40GHz: 67fps
Q6600 @ 2,13GHz: 68fps

Die Vorteile sind gering, aber da - und wachsen gewaltig an, sobald "echte" Last entsteht, das Savegame bei Legion Hardware scheint nicht wirklich anspruchsvoll gewesen zu sein:

http://enthusiast.hardocp.com/article.html?art=MTMwNiw2LCxoZW50aHVzaWFzdA==

Sonyfreak
2008-10-05, 13:25:17
Game Over Q66(7)00Wenn ich immer genau eine Anwendung laufen habe, mag das sein. Aber wenn ich mal Lust habe ein Video in voller Monitorauflösung von UT3 oder Supreme Commander zu machen, dann hab ich da absolut keine Schwierigkeiten. Das macht mein Quad problemlos nebenher. Den - von mir aus stark übertakteten - Dualcore möchte ich erleben, der da nicht ins Röcheln kommt.

Dazu kommt noch, dass die CPU-Tests von Spielen bei Computerbase absolut alltagsfremd sind. Aber darauf wurde ja eh schon zur Genüge eingegangen glaub ich.

Sich jetzt einen teuren Zweikerner zu kaufen ist und bleibt für mich unverständlich. Kann aber natürlich jeder für sich selbst entscheiden. ;)

Ich freu mich jetzt jedenfalls schon sehr auf dargos Ergebnisse. :)

mfg.

Sonyfreak

Raff
2008-10-05, 13:36:14
Es wird immer so sein, dass neuen, überlegenen Technologien ihr Sinn abgesprochen wird, solange die "alte" es noch tut. Ein schneller Dualcore ist heutzutage ähnlich brauchbar wie ein Quadcore. Ich selbst habe nur auf den Q6600 aufgerüstet, weil er so günstig war/ist und in Zukunft garantiert mehr reißt als ein DC @ 3,6-4,5 GHz. Natürlich könnte man den Quad auch erst in einem Jahr kaufen, wenn es soweit ist, denn dann gibt es schnellere und stromsparendere Vierkerner. Aber warum, wenn die Vorteile schon heute da sind?

Was kostet bei euch die Kilowattstunde? Bei einigen scheint sie 500 €uro zu kosten, anders kann ich mir dieses lächerliche "der verbraucht aber viel mehr" nicht erklären. Der verbraucht nur relevant mehr, wenn alle vier Kerne voll ausgelastet werden. Das werden sie aber nur in den seltensten Fällen, wie speziell die Kritiker feststellen. Im erzwungenen "Dualcore-Betrieb" (mit dezenter Auslastung von Kern 3 und 4) verbraucht ein Kentsfield kaum mehr als ein fett übertakteter Wolfdale.

MfG,
Raff

Undertaker
2008-10-05, 13:49:43
Kaum mehr... Nunja ;) Ein Q6600 liegt unter Volllast bei etwa 120W mit Spawas:

http://ht4u.net/reviews/2008/amd_phenom_x4_x3/index17.php

Damit würde ich dann von ~80W unter 2-Kern Volllast ausgehen (die anderen Kerne müssen ja auch synchron mit hochtakten). Ausgehend von dem Q9300 dort oder auch den Messungen von XBit (http://www.xbitlabs.com/articles/cpu/display/intel-wolfdale_11.html) liegt ein E8400 im gleichen Szenario bei etwa 30W... Bei einer Mehrleistung von immerhin ~30-35%, sofern eben nur diese 2 Kerne genutzt werden. Bzgl. OC werden die Verbräuche wohl recht vergleichbar anwachsen, was den absoluten Unterschied noch erheblich vergrößert (allerdings hat ein Q6600 mehr relatives Taktpotential, der Leistungsunterschied schrumpft also).

Die perfekte Lösung ist wohl momentan wirklich einzig ein Yorkfield, der 4 Kerne mit erträglichem Verbrauch perfekt kombiniert - und das ist für mich nicht nur für die Stromrechnung wichtig, sondern auch für eine leise Kühlbarkeit sowie akzeptable Zimmertemperaturen im Sommer ;)

dargo
2008-10-05, 14:31:16
Ich freu mich jetzt jedenfalls schon sehr auf dargos Ergebnisse. :)

Ich würds ja gerne. Habe aber erhebliche Startschwierigkeiten und mir vergeht langsam die Lust an neuer CPU. ;(
Die ganze Lektüre gibts hier, vielleicht kann mir einer von euch helfen:
http://62.109.81.232/cgi-bin/sbb/sbb.cgi?&a=show&forum=1&show=8473&start=

Bald kann ich wohl ein Buch darüber schreiben. :ugly:
Momentan stehen die Chancen 50/50, dass die CPU zurückgeht. Das ist kein Zustand den ich akzeptieren kann. Paar Tage habe ich ja noch.

Die perfekte Lösung ist wohl momentan wirklich einzig ein Yorkfield, der 4 Kerne mit erträglichem Verbrauch perfekt kombiniert - und das ist für mich nicht nur für die Stromrechnung wichtig, sondern auch für eine leise Kühlbarkeit sowie akzeptable Zimmertemperaturen im Sommer ;)
Ich bin fast vom Stuhl gefallen als ich den Q9550 E0 eingebaut habe und erstmal Prime95 @standard laufen ließ. Die CPU oder besser gesagt der erste Kern war max. 40°C warm (die anderen lagen bei 30-35°C) und dabei lief mein Lüfter gerade mal mit 500RPM. X-D
Ich bin mir sogar ziemlich sicher, dass die CPU sich auch problemlos passiv mit dem Sonic Tower kühlen lässt. Eins muss man Intel lassen - die E0´s sind verdammt sparsam. Mein E6400@3,2Ghz und 1,264V hatte in Prime95 54°C, wohlgemerkt mit Lüfter @1300RPM.

pest
2008-10-05, 15:05:58
dargo, soweit ich das gesehn hab, denke ich das du ein fsb/mch problem hast. versuche wirklich alle Speicher-Timings manuell einzustellen. Ob jetzt nur XP64 nicht läuft oder auch Vista64 nicht, hab ich jetzt nicht geschnallt.

Raymond
2008-10-05, 15:11:05
@dargo Stell mal im bios den robust graphics booster um, weiß jetzt nicht mehr welche Einstellungen möglich waren, aber glaub normal oder disabled. Wenn er wie du im Gigabyte forum geschrieben hast beim setup hängt wenn er die graka initializiert könnte es daran hängen.

Gruß Ray

dargo
2008-10-05, 15:14:25
dargo, soweit ich das gesehn hab, denke ich das du ein fsb/mch problem hast. versuche wirklich alle Speicher-Timings manuell einzustellen. Ob jetzt nur XP64 nicht läuft oder auch Vista64 nicht, hab ich jetzt nicht geschnallt.
Um es mal kurz zu machen (verdammt, wir sind im falschen Thread dafür) - Vista64-Installation verläuft fehlerfrei. WinXP32 und 64 - keine Chance. Und das ganze seitdem der Q9550 E0 drin ist. Mit dem E6400 läuft alles bestens.

@dargo Stell mal im bios den robust graphics booster um, weiß jetzt nicht mehr welche Einstellungen möglich waren, aber glaub normal oder disabled. Wenn er wie du im Gigabyte forum geschrieben hast beim setup hängt wenn er die graka initializiert könnte es daran hängen.

Der steht auf [Auto]. Es gibt kein [normal] oder [disabled]. :)

Undertaker
2008-10-05, 15:18:26
dargo, soweit ich das gesehn hab, denke ich das du ein fsb/mch problem hast. versuche wirklich alle Speicher-Timings manuell einzustellen. Ob jetzt nur XP64 nicht läuft oder auch Vista64 nicht, hab ich jetzt nicht geschnallt.

Bzw. den Ram generell mal ordentlich heruntersetzen, 1:1 bei CL6 oder sowas - Ich hatte mit meinem alten Celeron D ähnliche Probleme, obwohl der MC ja eigentlich nicht in der CPU sitzt (denn mit dem E6600 lief der Ram dann problemlos...).

Edit: OK, wenn Vista64 normal läuft versteh ich es nicht... Aber hast recht, wir sind OT hier.

dargo
2008-10-05, 15:26:06
Das ist es eben was ich nicht verstehe Undertaker. Ich habe schon viel erlebt, aber das ergibt einfach keinen Sinn. Wir (ich und der Moderator im Gigabyte-Forum) vermuten hier eine Inkompatibilität der Grafikkarte und dem Mainboard in Verbindung mit dem Q9550 E0. Ein neues Bios für die Grafikkarte könnte eventuell für Abhilfe sorgen. Auf den offiziellen Servern gibts aber noch kein neues Bios.

PS: postet bitte im Gigabyte-Forum wenn ihr paar Ideen habt. :)

hmx
2008-10-05, 16:28:24
Es wird immer so sein, dass neuen, überlegenen Technologien ihr Sinn abgesprochen wird, solange die "alte" es noch tut. Ein schneller Dualcore ist heutzutage ähnlich brauchbar wie ein Quadcore. Ich selbst habe nur auf den Q6600 aufgerüstet, weil er so günstig war/ist und in Zukunft garantiert mehr reißt als ein DC @ 3,6-4,5 GHz. Natürlich könnte man den Quad auch erst in einem Jahr kaufen, wenn es soweit ist, denn dann gibt es schnellere und stromsparendere Vierkerner. Aber warum, wenn die Vorteile schon heute da sind?

Was kostet bei euch die Kilowattstunde? Bei einigen scheint sie 500 €uro zu kosten, anders kann ich mir dieses lächerliche "der verbraucht aber viel mehr" nicht erklären. Der verbraucht nur relevant mehr, wenn alle vier Kerne voll ausgelastet werden. Das werden sie aber nur in den seltensten Fällen, wie speziell die Kritiker feststellen. Im erzwungenen "Dualcore-Betrieb" (mit dezenter Auslastung von Kern 3 und 4) verbraucht ein Kentsfield kaum mehr als ein fett übertakteter Wolfdale.

MfG,
Raff


Es geht nicht um den Stromverbrauch des Geldes wegen. In meinem kleinem µATX Gehäuse passen zB keine Towerkühler, somit muss man dort schon an die Kühlung denken. Zudem braucht man auch ein Stärkeres NT.

@Sonyfreak

Praxisfremd ist dein Beispiel. Ich nehme ja jeden Tag ein Video von UT3 auf...

Sonyfreak
2008-10-05, 17:16:48
@Sonyfreak Praxisfremd ist dein Beispiel. Ich nehme ja jeden Tag ein Video von UT3 auf...Warum ist es praxisfremd, wenn ich ab und zu ein Video von meinen Spielen mache? :confused:

mfg.

Sonyfreak

Odal
2008-10-05, 17:26:55
http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_intel_core_2_duo_e8600_e0/

"Mit glatten 3,0 GHz sticht er fast jeden Quad-Core-Prozessor aus, weil viele Anwendungen und auch Spiele nicht von vier Kernen profitieren können, aber mit etwas mehr Taktfrequenz noch etwas anfangen wissen. Zudem ist die Lösung mit zwei Prozessorkernen in den meisten Fällen deutlich stromsparender. Das Gesamtrating macht darüber hinaus einmal mehr deutlich, dass ein schneller Dual-Core-Prozessor aktuell immer noch einem langsamer getakteten Quad-Core-Probanden vorzuziehen ist.."

Game Over Q66(7)00

vor allen Dingen darf man nicht vergessen: selbst wenn ein Quadcore mal ein paar FPS vorn liegt, sind diese FPS für die Spielbarkeit relevant?
Dort wo die schnellste CPU in Spielen ein kleines Stück vorn liegt sind die Frameraten über dem Bereich wo man den Unterschied nur noch anhand einer FRAPS zahl auf dem bildschirm ausmachen kann bzw. eines Frapsverlaufs

V2.0
2008-10-05, 17:32:39
Das gilt aber heute ebenso beim Vergleich zwischen langsamen QC und schnellen DC. Wann kommt ein Q9300 mal nicht in den spielbaren Bereich?

pest
2008-10-05, 17:46:24
Dort wo die schnellste CPU in Spielen ein kleines Stück vorn liegt sind die Frameraten über dem Bereich wo man den Unterschied nur noch anhand einer FRAPS zahl auf dem bildschirm ausmachen kann bzw. eines Frapsverlaufs

Aber genau die (Fraps-Zahl) macht doch das Warm&Fuzzy-Feeling ;)

Odal
2008-10-05, 18:18:09
ich finds eher unvernünftig, wenn dann sollte man lieber in eine bessere Grafikhardware investieren denn da hat man eigentlich fast immer was von

jedenfall fiel mir schon ein paar mal auf, das gerade hier im forum CPU bedarf absolut überschätzt wird und noch extremer ist es bei der anzahl der Kerne.

Ich erinnere mich noch wie 2005 DualCores als "must 2 have" publiziert wurden, vor 2007 hatte man kaum was davon (weil schlichtweg die softwareunterstützung nicht da war)...in der Zeit haben diejenigen die den DualCore als "Must 2 have" verkaufen wollten, schon mindestens einmal wieder ihre CPU geupgradet

Beim DualCore gabs wenigstens noch den sofort eintretenden Vorteil: OS, Treiber und Kleinkram kann ihren eigenen Kern bekommen, damit die leistungsfressende Anwendung einen Kern komplett für sich beanspruchen kann.

Das fällt aber bei DualCore->Quadcore weg und mit steigener Kernanzahl wird es exponentiell schwieriger Aufgaben zu parallelisieren.

Nun kann man immer ein Argument bringen ala "ich rippe n-1 Videos und spiele nebenher (mit n=anzahl der Kerne)"
aber mal ehrlich, ist das nicht an den Haaren herbeigezogen? Kaum praxisrelevant?

Klar wird die Zeit kommen wo DualCores auslaufen bzw. Quadcores in ähnlichem Preisbereich liegen aber solang das noch nicht der Fall ist vergrößert man höchstens seinen e-penis :D

dargo
2008-10-05, 18:48:23
ich finds eher unvernünftig, wenn dann sollte man lieber in eine bessere Grafikhardware investieren denn da hat man eigentlich fast immer was von

Und was macht der der auf nichts erheblich schnelleres Upgraden kann weil es einfach nichts gibt? :D


jedenfall fiel mir schon ein paar mal auf, das gerade hier im forum CPU bedarf absolut überschätzt wird und noch extremer ist es bei der anzahl der Kerne.

Ich erinnere mich noch wie 2005 DualCores als "must 2 have" publiziert wurden, vor 2007 hatte man kaum was davon (weil schlichtweg die softwareunterstützung nicht da war)...in der Zeit haben diejenigen die den DualCore als "Must 2 have" verkaufen wollten, schon mindestens einmal wieder ihre CPU geupgradet

Ich finde diese Pauschalisierungen immer herrlich. Nur mal zur Erinnerung, als ich den Dualcore für Games langsam empfohlen habe hatten wir Ende 2006:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=326362

Sieht man schön am Datum des ersten Posts. Und wäre die Gelegenheit nicht gerade günstig hätte ich weiter noch den Dualcore von 2006.

hmx
2008-10-05, 19:47:05
Warum ist es praxisfremd, wenn ich ab und zu ein Video von meinen Spielen mache? :confused:

mfg.

Sonyfreak

Das machen nunmal wenige. :)

Ronny G.
2008-10-06, 01:20:09
Und warum hast du gewechselt? Aus Langeweile? Welche Kombination findest Du jetzt besser?

Ganz ehrlich, eigentlich der q6600, er fühlte sich schon irgendwie überlegener an, gerade wenn man viel macht, damit meine ich jetzt nicht ein Film pro Kern zu Konvertieren, sondern Surfen, Musik nebenbei, Nee Disk brennen und vielleicht noch fix irgendne dicke Rar-Datei eintpacken. Dazu mag ein guter DC auch problemlos fähig sein, aber der gefühlte Speed vom Gesamtsystem war bei Quadcore höher als jetzt beim sehr schnellen DC.

Der wechsel war echt aus reiner neugier, wollte halt mal wieder was zum Hochtakten haben. Dadurch habe ich jetzt kein längeren Balken, und auch keine Historische Signatur. Ich probiere halt immer mal gerne herum, hören und lesen reicht mir eben nicht, ich will das Zeug selber in den Fingern haben.
Das ist wie jetzt mit dem noch sehr fragwürdigen CF-Gespann aus HD4870+HD4850.

Trotzdem bin ich auch der Meinung das der Sprung vom DC zum QC nicht so lohnenswert ist wie im Single auf den DC.

V2.0
2008-10-06, 07:08:56
Ja, die spürbaren Unterscheide dürfdten für die allermeisten Anwender nicht auffallen. Man muss schon recht viele Anwendungen gleichzeitig arbeiten lassen um den QC zu spüren. Wenn man natürlich mal einige hundert RAW Fotos im Batch in jpgs umwandelt, dann liebe ich den QC, da das System doch spürbar flüssiger bleibt bzw. man keine Änderung spürt. Der DC war da zäher.

Silverbuster
2008-10-06, 07:22:42
Als ich von meinem Dualcore auf den Quad umgestiegen bin habe ich das in manchen Situationen deutlich gemerkt. Ich bin der Typ der einen Fim schaut, nebenbei Gigabyte große Daten entpackt (muss ich leider täglich machen), dabei noch Internet Seiten auf hat und spielt. Abgesehen vom Spielen, fordern die anderen Anwendungen die CPU eigentlich nicht wirklich (DivX Filme), aber bei meinem Dualcore ruckelten meine Spiele dann doch hin und wieder. Jetzt funktioniert alles absolut flüssig, auch bei den Spielen habe ich keine Fps Einbrüche mehr.

Ich denke nicht das man pauschalisieren kann ob man einen Quad braucht oder nicht. Wer nur spielt, braucht sicherlich "noch" keinen Quad, wer aber wie ich, ständig mehrere Programme am laufen hat, kann nicht genug Kerne haben. Im Grunde hätte ich lieber 4x 2Ghz als 2x 4Ghz bei der Art und Weise wie ich meinen Rechner nutze.

Daher halte ich diese ganze Diskussion für Sinnfrei.

reunion
2008-10-06, 07:52:25
Im Grunde hätte ich lieber 4x 2Ghz als 2x 4Ghz bei der Art und Weise wie ich meinen Rechner nutze.


Mit Sicherheit nicht.

Silverbuster
2008-10-06, 07:56:11
Mit Sicherheit nicht.

Mit Sicherheit doch. Denn es bringt mir mehr wenn jedes Programm einen Kern für sich beanspruchen kann, als wenn sich zwei Programme einen Kern teilen müssen. Den jeder Kern kann immer nur eine Sache abarbeiten, egal wie schnell die CPU ist. Und ich hatte schon das Vergnügen mit einem sehr ähnlichem System zu Arbeiten, nur eben mit einem E8500@3,8Ghz und ich konnte nich tso "flüssig" Arbeiten wie an meinem.

reunion
2008-10-06, 08:40:50
Mit Sicherheit doch. Denn es bringt mir mehr wenn jedes Programm einen Kern für sich beanspruchen kann, als wenn sich zwei Programme einen Kern teilen müssen. Den jeder Kern kann immer nur eine Sache abarbeiten, egal wie schnell die CPU ist. Und ich hatte schon das Vergnügen mit einem sehr ähnlichem System zu Arbeiten, nur eben mit einem E8500@3,8Ghz und ich konnte nich tso "flüssig" Arbeiten wie an meinem.

Einbilden kann man sich viel. Deine Begründung ist zudem quatsch. Was bringt es dir wenn "jedes Programm einen Kern für sich beanspruchen kann", wenn jeder dieser Kerne nur halb so schnell ist wie beim Dual-Core? Genau, nichts. Ein Quad-Core mit 4 x 2Ghz ist selbst bei perfekter Optimierung auf vier Threads max. genau so schnell wie ein Dual-Core mit 2 x 4Ghz, in allen anderen Fällen ist der Dual-Core schneller. Wir haben ja heute nur deshalb mehr Kerne weil sich die Taktraten kaum mehr steigern lassen. Ansonsten wäre ein Single-Core mit 8Ghz in jeder Hinsicht vorzuziehen.

V2.0
2008-10-06, 08:48:38
Also SC wäre sicher nicht vorzuziehen, da eigentlich immer mehr als ein Task auf dem Rechner aktiv ist.
Imho wird die Debatte hier zu engstirnig geführt. Dass QC für Gaming keinen Sinn macht wird niemand bestreiten, aber für andere Anwendungen, oder starkes Mulittasking, kann er schon heute sehr angenehem sein. (ich sage nicht nötig, da das Userverhalten die Vorteil negieren kann)

Silverbuster
2008-10-06, 08:50:55
Na klar.... es ist ja immer Einbildung wenn man über Subjektivität redet und der allgemeinen Meinung widerspricht.
Das kannst du sehen wie du willst, es ist meine Erfahrung. Ich nutze viele Programme paralell und ein Dualcore kam bisher immer irgendwann ins Stocken, gleich welche Taktraten er hatte. Mit dem Quad hab ich das Problem einfach nicht. Ich rede auch nicht von einer Anwendung, sondern von mehreren. Und ich denke schon das es einen Unterschied macht ob ich 2 sehr schelle Kerne habe die sich aber mit 6 Programmen abquälen müssen oder ob ich 4 langsamere Kerne habe die sich eben 6 Programme teilen müssen.

Mark3Dfx
2008-10-06, 09:07:13
Ist ja wie im Mittelalter hier.
Schon klar das sich hier QC Fraktion krampfhaft Argumente suchen muss um Ihr rausgeschmissenes Geld zu rechtfertigen.
Freu mich schon auf den Flamewar Achtkern vs Vierkern.

Ab wievielen Kernen limitiert eigentlich die menschliche Fahigkeit mehrere Sachen gleichzeitig zu starten? X-D

V2.0
2008-10-06, 09:25:55
Ist ja wie im Mittelalter hier.
Schon klar das sich hier QC Fraktion krampfhaft Argumente suchen muss um Ihr rausgeschmissenes Geld zu rechtfertigen.
Freu mich schon auf den Flamewar Achtkern vs Vierkern.

Ab wievielen Kernen limitiert eigentlich die menschliche Fahigkeit mehrere Sachen gleichzeitig zu starten? X-D

Muss ich nicht. Ich mag meinen Q9300. Spiele sind mir egal bzw. schnell genug. Aber die Fähigkeit Bildbearbeitung + Batch RAw conversion + Surfen + sonstiges ohne spürbare Verzögerung gleichzeitig laufen zu haben, empfinde ich als angenehm. Der DC war da immer etwas ruckliger, wenn man den Task wechselte.

Silverbuster
2008-10-06, 09:33:29
Muss ich nicht. Ich mag meinen Q9300. Spiele sind mir egal bzw. schnell genug. Aber die Fähigkeit Bildbearbeitung + Batch RAw conversion + Surfen + sonstiges ohne spürbare Verzögerung gleichzeitig laufen zu haben, empfinde ich als angenehm. Der DC war da immer etwas ruckliger, wenn man den Task wechselte.

Kenn ich, was der Grund für meine Quad Entscheidung war.

Aquaschaf
2008-10-06, 09:41:22
Ein Quad-Core mit 4 x 2Ghz ist selbst bei perfekter Optimierung auf vier Threads max. genau so schnell wie ein Dual-Core mit 2 x 4Ghz

Wenn man Cache-Effekte vernachlässigt. 4x 2Ghz kann auch schneller sein als 2x 4Ghz.

Gast
2008-10-06, 13:34:00
Gleich doppelt in der News vertreten!

http://saved.im/ntq0oti1znpu/untitled.png

Odal
2008-10-06, 14:16:01
Ich nutze viele Programme paralell und ein Dualcore kam bisher immer irgendwann ins Stocken, gleich welche Taktraten er hatte. Mit dem Quad hab ich das Problem einfach nicht. Ich rede auch nicht von einer Anwendung, sondern von mehreren. Und ich denke schon das es einen Unterschied macht ob ich 2 sehr schelle Kerne habe die sich aber mit 6 Programmen abquälen müssen oder ob ich 4 langsamere Kerne habe die sich eben 6 Programme teilen müssen.
Mit Sicherheit doch. Denn es bringt mir mehr wenn jedes Programm einen Kern für sich beanspruchen kann, als wenn sich zwei Programme einen Kern teilen müssen. Den jeder Kern kann immer nur eine Sache abarbeiten, egal wie schnell die CPU ist.

Die Kahlhauer hier werden immer amüsanter....

von einem Scheduler hast du wohl noch nix gehört was? Was für ein OS setzt du denn ein wenn man mal fragen darf?

"4x2Ghz ist besser als 2x4Ghz weil ein Core immer nur eine Anwendung abarbeiten kann" ich kann nicht mehr ;D

DerKleineCrisu
2008-10-06, 14:27:09
Ist ja wie im Mittelalter hier.
Schon klar das sich hier QC Fraktion krampfhaft Argumente suchen muss um Ihr rausgeschmissenes Geld zu rechtfertigen.
Freu mich schon auf den Flamewar Achtkern vs Vierkern.

Ab wievielen Kernen limitiert eigentlich die menschliche Fahigkeit mehrere Sachen gleichzeitig zu starten? X-D

Naja ich Erinnere mich auch an manche die die Dual core´s in frage gestellt haben und meinten ach ein Singel reicht für die Spiele.

Heute ist es so das nun gesagt wird ach der DualCore reicht doch locker.
Es wird immer Sachen geben wo der DualCore bei gleicher Takt rate keine
Chance hat gegen einen 4Kern mit gleicher Taktrate.

Meinen 4Kern habe ich bewußt gekauft weil ich auch ab und zu mal einen
Film umwandeln und es hasse dabei nix anderes machen zu können weil
der DualKern auf 100 % laufen tut.
Beim 4Kern kann ich einfach 2kerne abwählen und spielen oder nur einen Kern abwählen und Surfen.

Und reunion also da haste dich mal sehr weit aus dem Fenster gelehnt.
Nach deiner Aussage dürfte ein 4Kern bei 3D Rendern nicht schneller als ein
ZweiKern bei gleichem Takt.
Glaubste das wirklich ;) .

Grüße

Tzunamik
2008-10-06, 14:29:13
@ Silverbuster.......
Seit wann kann ein Kern nur eine Anwendung abarbeiten?
Wenn du schon soviel weißt, das sind Threads nicht Anwendungen...
Den eine Anwendung besteht aus mehreren Threads....
Jeder "normale" Kern kann einen Thread pro Zyklus abarbeiten.
Heißt, wenn eine Anwendung auf X Kerne optimiert ist, sind x Kerne weitaus schneller als halb soviele Kerne mit doppeltem Takt.
Und ich bin mir so ziemlich sicher, das bald einige DC User auf die Schnauze fallen werden mit ihren 4-5Ghz CPU´s....
Und nur so nebenbei, ich bin zwar auch ein Quad verfechter... aber es kommt oft genug, aktuell zumindest, noch vor das ein Kern mit mehr Mhz an einem xKerner mit weniger Mhz davon zieht....
Da die Anwendungen meist noch nicht gut genug auf Multicore ausgelegt sind.

PS.: Ich besitze Quad´s und DC´s somit weiß ich schon ein wenig wovon ich rede ;)

Silverbuster
2008-10-06, 14:38:59
Ihr lest entweder nicht richtig oder versteht nicht was ich damit sagen wollte. Muss man denn alles bis ins kleinste technische Detail erklären damit ihr es versteht? Erpsenzählerei, Worte interpretieren wie man will u.s.w. ist ja Sitte bei Leuten die keine Argumente mehr haben. Wenn ihr nur spielt, dann bleibt beim Dualcore, sagt ja keiner etwas dagegen, nur für mich ist ein Dualcore einfach zu schwach da zu wenig Kerne. Und seltsam das bei 6 Anwendungen die ich fahre ich ruckler und ewige Wartezeiten auf einem E8400 @ 3,6Ghz hatte und auf einem Q6600 @ Stock diese Probleme nicht habe.

Fakt ist und bleibt das ich mit 4 Kernen ala 2,4Ghz (vor meiner übertaktung) weitaus besser bei den von mir verwendeten Anwendunge da stand als mit einem 3,6Ghz Dualcore.

Paul Brain
2008-10-06, 15:18:14
Hier haben offenbar einige Leute einen sehr eingeschränkten Horizont.
In der Theorie ist der schnellste Single-Core in Verbindung mit einem optimalen Scheduler vorzuziehen, sofern seine theoretischen OPs/sec mindestens denen des Multicores entsprechen.

Die Sache hat aber einen entscheidenden Haken: Das Betriebssystem. Den "optimalen Scheduler" gibt es nämlich nicht. Priorisierung ist schön und gut, wenn aber nun eine Applikation single-threaded abläuft und dabei 100% eines Kerns auslasten kann, werden alle Prozesse, die nebenbei noch laufen, Einbußen in der Performance verzeichnen, allein schon durch die notwendigen Kontextswitches der CPU. Schließlich müssen bei jedem Taskwechsel (von der die CPU pro Sekunde tausende oder mehr durchführen muß) der CPU-Status gesichert, die Register entladen und neu geladen werden. Ebenso kann es notwendig werden, Daten aus den Caches zu werfen und diese neu zu befüllen. Das alles braucht nicht unerheblich wenig Zeit... ;)
Von Prozessen, welche auf einer niedrigeren Prioritätseben arbeiten, will ich lieber gar nicht sprechen; die kommen in dem Szenario nämlich so gut wie gar nicht zum Zug...

Es ist garantiert jedem PC-Nutzer schon passiert, daß auf seinem Single-Core ein einzelner Prozess den gesamten Rechner blockiert hat - nichtmal mehr Eingaben der GUI konnten noch verarbeitet werden. Hat man nun einen zweiten Kern oder eine zweite CPU, dann passiert das höchst selten - nämlich nur dann, wenn das Betriebssystem stallt, weil es auf etwas wartet.
Für mich waren diese Erfahrungen Grund genug, mir bereits vor einigen Jahren - lange vor Dual-Core - einen Rechner mit zwei CPUs zu bauen. Um viel Geld. Und ich habs bis jetzt nicht bereut...
Damals wurde man noch als Freak angesehen, aber der Komfort, eine fordernde Anwendung laufen lassen zu können, ohne die Responsiveness des Systems herabzusetzen, ist ein unbezahlbarer Zugewinn in der Usability des Systems.

Hat man erstmal mehr als einen Kern, schwächt sich der Effekt natürlich deutlich ab; in der Zeit immer fordernderer Anwendung und auch Betriebssysteme (Stichwort: Indizierung, diverse Hindergrundprozesse) läßt sich aber auch schon heute ein Quad Core sinnvoll nutzen; wenn ein Spiel einen Dual Core "voll" ausreizen kann, können sich die verbleibenden Kerne ums Betriebssystem und andere Applikationen kümmern.
Früher galt beim Spielen ja die eiserne Regel: alles schließen, was in irgendeiner Form CPU-Leistung frißt. Dank Multicore ist das kein großes Thema mehr, vor allem wenn dann mal der FSB fällt und auch speicherbandbreitenintensive Anwendungen den anderen Kern kaum beeinflussen. Dann muß man eigentlich nur mehr auf ausreichenden RAM-Ausbau achten...
Je mehr Kerne, umso unbeeinflusster können sämtliche Prozesse arbeiten. Ich merk sogar auf meinem HT-System einen Unterschied in der Responsiveness, wenn ich HT ausschalte; und dabei ist das kein vollwertiger Kern, sondern eine Technik, um hardwareseitig zwei Threads auf einem Kern (!) laufen zu lassen...
Anwendungen wie Acronis TrueImage Workstation nutzen beim Backup mehrere Kerne für die Komprimierung voll aus; hier merkt man selbst auf einem QuadCore-System eine negative Beeinflussung, sofern man die Priority nicht heruntersetzt...
Wer neben dem Encoden von Videomaterial noch halbwegs sinnvoll nebenbei weiterarbeiten will, dem wird ein DualCore wohl zu wenig sein...

Fazit: wer moderne Betriebssyteme nutzt, auch das kommende Windows 7 auf dem aktuellen Rechner installieren und beim Spielen nicht sämtliche Programme schließen will, um die maximale Performance zu erhalten, für den lohnt sich QuadCore schon heute. Ich gehe sogar so weit zu sagen, daß "professionelle" Anwender mit 4 Kernen "zu wenig" haben; ich merke es selbst immer wieder auf dem QuadCore in der Arbeit, daß bereits wenige VMs die Responsiveness des Systems massiv beeinträchtigen können. Es gibt also ohne weiteres auch Anwendungen für Dual-Nehalem-Systeme...

Tzunamik
2008-10-06, 17:58:48
@ Paul Brain,

mit deiner Argumentation stimme ich 100% überein...

@ Silver

Ich hab nich komplett alles gelesen sondern nur auf den letzten Kommentar geantwortet...
Sorry ;)

Armaq
2008-10-06, 18:17:11
Ich habe selbst von Single auf Dual-AMD gewechselt und das System mit neuem Quad für einen Freund hergerichtet (war sowas wie ein Geschenk) und kann von Installationen / Anspielen / Belastungstests her sagen, dass der Unterschied DC - QC auch noch merkbar ist.

Downgrades bemerkt man ja immer intensiver als Upgrades, aber wer nen 2.8Ghz DC hat braucht derzeit über aufrüsten kaum nachdenken. Spiele hängen an der Konsolengeneration und Anwendungen im nicht professionellen/spezialisierten Bereich brauchen mehr Speed einfach nicht. Auch wenn manche Dinge schneller erledigt sind.

Wer neu kauft kauft nen Quad.

Das Auge
2008-10-07, 11:19:26
Aus eigener Erfahrung kann ich nur sagen, daß ich mit meinem Quad sehr zufrieden bin. Auch wenn ich kaum eine Anwendung nutze, die wirklich alle 4 Cores richtig auslasten kann, so ist es doch sehr, sehr angenehm _jederzeit_ Resourcen übrig zu haben, um mal schnell nen Taskswitch machen zu können ohne die laufende Anwendung unterbrechen zu müssen.
Die "gefühlte" Flüssigkeit aller Abläufe ist einfach phänomenal. Sicherlich würde ich mit einem Dualcore auch noch auskommen, nur jetzt wo ich schon mal nen (dicken) Quad habe, würde es keinen Sinn machen wieder zurück auf Dual zu gehen, nur weil man diesen evtl. höher takten und damit dann doch 1-2 fps o.ä. mehr rausschlagen kann.

Kurz gesagt: Quad rockt :up:

Zauberer
2008-10-07, 14:53:44
...Im Grunde hätte ich lieber 4x 2Ghz als 2x 4Ghz...
Ich hätte lieber eine Single Core2 CPU, mit 1x 8 GHz +HT um im Bios(am besten auch im Betriebssystem per Tool in Echtzeit) auf 1-8 virtuelle Kerne stellen zu können.
So kann man je nach Anwendung selber Entscheiden ob man 1x 8 GHz will oder 8x 1 GHz.

Aquaschaf
2008-10-07, 15:04:09
Ich hätte lieber eine Single Core2 CPU, mit 1x 8 GHz +HT um im Bios auf 1-8 virtuelle Kerne stellen zu können.
So kann man je nach Anwendung selber Entscheiden ob man 1x 8 GHz will oder 8x 1 GHz.

So einfach ist es - wie schon gesagt wurde - nicht. Eine Art HT-Technologie die die Zahl der für das OS sichtbaren Kerne mehr als verdoppelt würde sich vermutlich kaum noch lohnen.

Zauberer
2008-10-07, 15:13:21
So einfach ist es - wie schon gesagt wurde - nicht. Eine Art HT-Technologie die die Zahl der für das OS sichtbaren Kerne mehr als verdoppelt würde sich vermutlich kaum noch lohnen.
Stimmt, ist aber trotzdem Schade, dass es im Moment nicht so einfach geht.
Genau wie das zusammenführen von 8-16 Kernen, die dann wie 1-2 Kern(e) arbeiten, so bräuchte man die Software nicht dauernd optimieren.
Es gibt sogar Dual-Core Anwendungen, die nicht von Quad oder mehr profitieren, weil der Entwickler nicht daran gedacht hat.

Ist halt komisch, das bei GPUs die variable Power funktioniert, bei CPUs aber nicht, darum sollten die GPU möglichst bald die CPUs ablösen.
Damit wäre dann allen geholfen.

Odal
2008-10-07, 15:37:34
das ist doch totaler käse..wenn der code nicht parallelisierbar ist nützen auch 100CPU Cores bzw. 100 GPU ALUs nix

GPUs können auch nicht alles schneller rechnen...nur das siehst du nicht weil nur massiv parallelisierbare anwendungsfelder auf cuda und GPGPU portiert wurden

z.b. "billiges" videoencoding

Gast
2008-10-07, 16:28:56
das ist doch totaler käse..wenn der code nicht parallelisierbar ist nützen auch 100CPU Cores bzw. 100 GPU ALUs nix

GPUs können auch nicht alles schneller rechnen...nur das siehst du nicht weil nur massiv parallelisierbare anwendungsfelder auf cuda und GPGPU portiert wurden

z.b. "billiges" videoencoding
Und es reicht nichtmal das der Code parallelisierbar ist, wo ich auf der CPU dicke Caches en masse habe ist auf der GPU gar nix. Branching? Äußerst eingeschränkt.
Während die GPU Lösung noch damit beschäftigt ist die Eingangsdaten zu holen habe ich auf der CPU das Problem schon gelöst.
Mach mal auf der GPU ein If(...) - es ist erschreckend was das Performance kostet. Darum ist

Ist halt komisch, das bei GPUs die variable Power funktioniert, bei CPUs aber nicht, darum sollten die GPU möglichst bald die CPUs ablösen.
Damit wäre dann allen geholfen.

total abwegig und zeigt nur dass man das Problem in keinster Wiese verstanden hat. GPU als [b]Coprozessor[b] für rechenintensive, parallele Probleme - ja. Als Ersatz für die CPU (ist ja soooo viel schneller) - nein.

Zauberer
2008-10-07, 17:00:56
das ist doch totaler käse..wenn der code nicht parallelisierbar ist nützen auch 100CPU Cores bzw. 100 GPU ALUs nix

GPUs können auch nicht alles schneller rechnen...nur das siehst du nicht weil nur massiv parallelisierbare anwendungsfelder auf cuda und GPGPU portiert wurden

z.b. "billiges" videoencoding
Folding@home zeigt ja schon das GPUs ca. um den Faktor 100 schneller als CPUs sind.
Wenn man CPUs gegen GPUs vergleicht, kann man das nur auf einem Programm was beide unterstützt, das ist bei Folding@home der Fall, da sieht man, dass eine GPU im Schnitt ca. die 100Fache Leistung einer CPU hat.

Aber klar weder die CPU, noch die GPU werden in naher Zukunft ersetzt.
Man sieht aber das die GPUs immer mehr Arbeit von der CPU abnehmen, bzw. die Arbeit die sie abnehmen um ein vielfaches besser machen, selbst wenn man eine 50€ Grafikkarte gegen eine 1000€ CPU bencht, hat die CPU keine Chance, "bei speziellen Anwendungen" natürlich!

Die GUI von Windows Vista ist ein gutes Beispiel wie die GPUs nicht nur die Arbeit von CPUs übernimmt, sondern auch sie komplett aus Teilbereichen verdrängt.
Denn auch mit einer 1000 € CPU kann man Aero Glass nur mit einer entsprechenden GPU nutzen.

Klar ersetzen geht nicht so einfach, dazu ist alles festgefahren, aber sicher wäre es theoretisch möglich ein OS zu schreiben, das nur auf der GPU läuft.
Und sicher könnte das OS dann schneller Berechnungen durchführen, als ein anderes OS was nur auf einer CPU läuft.
Allerdings ist es sehr theoretisch, nur es ist aber Fakt, das der meiste x86-Code noch nicht bereit für CPUs mit 4-8 Cores, Intel und AMD planen ja noch mehr Cores für die Zukunft, da muss sich der Code aber ändern, und mehr in Richtung GPU-Code gehen, der schon lange parallel arbeiten kann.

Aquaschaf
2008-10-07, 17:10:25
da sieht man, dass eine GPU im Schnitt ca. die 100Fache Leistung einer CPU hat.

Man sieht dass eine GPU genau bei dieser Anwendung besser ist. Generell zu sagen "eine GPU hat die x-fache Leistung einer CPU" ergibt gar keinen Sinn.

Odal
2008-10-07, 17:30:13
Folding@home zeigt ja schon das GPUs ca. um den Faktor 100 schneller als CPUs sind.
Wenn man CPUs gegen GPUs vergleicht, kann man das nur auf einem Programm was beide unterstützt, das ist bei Folding@home der Fall, da sieht man, dass eine GPU im Schnitt ca. die 100Fache Leistung einer CPU hat.

der GPU Client und der CPU Client von Folding@Home berechnen ganz andere Dinge

das ist genauso als wenn du einen DivX Encoder mit nem Compiler vergleichst


Aber klar weder die CPU, noch die GPU werden in naher Zukunft ersetzt.
Man sieht aber das die GPUs immer mehr Arbeit von der CPU abnehmen, bzw. die Arbeit die sie abnehmen um ein vielfaches besser machen, selbst wenn man eine 50€ Grafikkarte gegen eine 1000€ CPU bencht, hat die CPU keine Chance, "bei speziellen Anwendungen" natürlich!


"Custom Chips" sind immer schneller als "Allrounder" aber eben absolut unflexibel


Die GUI von Windows Vista ist ein gutes Beispiel wie die GPUs nicht nur die Arbeit von CPUs übernimmt, sondern auch sie komplett aus Teilbereichen verdrängt.
Denn auch mit einer 1000 € CPU kann man Aero Glass nur mit einer entsprechenden GPU nutzen.

ja warum sollte eine GPU nicht auch besser in der Darstellung und Berechnung von "Grafik" wie eine CPU sein?
Das ist genauso wenig erstaunlich wie der fakt das eine CPU mir meinen java source schneller komiliert (bzw. in dem fall eine GPU das nicht kann/können wird)


Klar ersetzen geht nicht so einfach, dazu ist alles festgefahren, aber sicher wäre es theoretisch möglich ein OS zu schreiben, das nur auf der GPU läuft.
Und sicher könnte das OS dann schneller Berechnungen durchführen, als ein anderes OS was nur auf einer CPU läuft.

ähm nein?

Aquaschaf
2008-10-07, 17:40:54
aber sicher wäre es theoretisch möglich ein OS zu schreiben, das nur auf der GPU läuft.
Und sicher könnte das OS dann schneller Berechnungen durchführen, als ein anderes OS was nur auf einer CPU läuft.

Theoretisch möglich: ja. "Berechnungen schneller durchführen": äh, nein. Das wäre totaler Schwachsinn.

Gast
2008-10-07, 19:43:57
Fazit: wer moderne Betriebssyteme nutzt, auch das kommende Windows 7 auf dem aktuellen Rechner installieren und beim Spielen nicht sämtliche Programme schließen will, um die maximale Performance zu erhalten, für den lohnt sich QuadCore schon heute.
Im Kern stimmt die Aussage: Wer moderne Userüberwachungssysteme wie Vista verwendet, der braucht tatsächlich einen Quad, wenn er auf seinem PC eine Internetseite mit höchstem Komfort aufrufen will. Der eine Kern kann sich dann voll auf den falsch konfigurierten Echtzeitvirenscanner konzentrieren. Kern 2 'befeuert' den miserablen Vista-Standard-IDE-Controller, der benötigt wird, um bei 100% CPU-Last im Kompatibilitätsmodus auf eine IDE-Festplatte zugreifen zu können. Kern 3 sorgt dafür, daß der Fortschrittsbalken beim Defragmentieren auch noch nach Stunden schön bunt bleibt. Kern 4 steuert die Überwachungsprozesse.... ähh Update! ich meinte Updateprozesse. Und mit dem fünften Kern (der sich im veralteten Rechner im Keller befindet) kann man dann in Ruhe seine Mails checken.

Mein Kommentar ist genauso maßlos übertrieben, wie dein obiges Fazit. Fakt ist, daß es nach wie vor auch noch sehr viele Quad-Corebesitzer gibt, die unter Vista sämtliche Programme schließen müssen, um die maximale Performance zu erhalten. Wer mal das Vergnügen hatte Crysis auf einem Q6600 zu bewundern, wird staunen, welche Bauchaufschwünge Quadcore-Besitzer unternehmen, um das Spiel auf niedrigen Details spielen zu können. Von Leuten, die (Dank Quad) im Angesicht dieser Ruckelorgie entspannt anfangen im Hintergrund Videos zu encoden, habe ich noch nichts gehört. Manchmal müssen sie sogar sämtliche Programme schließen, wenn sie überhaupt etwas unter Vista machen wollen. Das liegt dann nicht selten an den vielen recht informativen PopUps, mit denen der Vista-User ausführlichst darüber informiert wird, daß gerade ein Prozeß versucht hat, den Spielfluß zu stören...
Nein nein, erzählt den Leuten hier keine Märchen: Wenn Vista einmal Updates gewittert hat, können auch Quad-User erstmal in Ruhe aufs Klo gehen. Die Begeisterung für Quad-CPUs, die hier einige an den Tag legen, kann ich ehrlich gesagt überhaupt nicht teilen. Ich sehe es so, daß man als Quad-User momentan eher im Nachteil ist. Und da niemand so genau weiß, ob er Windows 7 in der Version 1.0 überhaupt auf seinem Rechner haben will, kann man wohl behaupten, daß sich Quads heute in 99% aller Fälle noch ganz und gar nicht lohnen. Bis Quads endlich interessant werden, sind sie längst ausgestorben. Es sei denn man kommt vom Klo und es klebt einem schon heute dick Vista an der Backe. Da brauchts eben vierlagiges Papier... und dann auch gleich die Familienpackung.

Sonyfreak
2008-10-07, 19:49:03
Im Kern stimmt die Aussage: Wer moderne Userüberwachungssysteme wie Vista verwendet, der braucht tatsächlich einen Quad, wenn er auf seinem PC eine Internetseite mit höchstem Komfort aufrufen will. Der eine Kern kann sich dann voll auf den falsch konfigurierten Echtzeitvirenscanner konzentrieren. Kern 2 'befeuert' den miserablen Vista-Standard-IDE-Controller, der benötigt wird, um bei 100% CPU-Last im Kompatibilitätsmodus auf eine IDE-Festplatte zugreifen zu können. Kern 3 sorgt dafür, daß der Fortschrittsbalken beim Defragmentieren auch noch nach Stunden schön bunt bleibt. Kern 4 steuert die Überwachungsprozesse.... ähh Update! ich meinte Updateprozesse. Und mit dem fünften Kern (der sich im veralteten Rechner im Keller befindet) kann man dann in Ruhe seine Mails checken.[... viel Text ...]Du weißt aber schon, dass man einen Quadcore auch unter XP problemlos verwenden kann oder? :rolleyes:

mfg.

Sonyfreak

-=Popeye=-
2008-10-07, 20:14:01
Im Kern stimmt die Aussage: Wer moderne Userüberwachungssysteme wie Vista verwendet, der braucht tatsächlich einen Quad, wenn er auf seinem PC eine Internetseite mit höchstem Komfort aufrufen will. Der eine Kern kann sich dann voll auf den falsch konfigurierten Echtzeitvirenscanner konzentrieren. Kern 2 'befeuert' den miserablen Vista-Standard-IDE-Controller, der benötigt wird, um bei 100% CPU-Last im Kompatibilitätsmodus auf eine IDE-Festplatte zugreifen zu können. Kern 3 sorgt dafür, daß der Fortschrittsbalken beim Defragmentieren auch noch nach Stunden schön bunt bleibt. Kern 4 steuert die Überwachungsprozesse.... ähh Update! ich meinte Updateprozesse. Und mit dem fünften Kern (der sich im veralteten Rechner im Keller befindet) kann man dann in Ruhe seine Mails checken.

Mein Kommentar ist genauso maßlos übertrieben, wie dein obiges Fazit. Fakt ist, daß es nach wie vor auch noch sehr viele Quad-Corebesitzer gibt, die unter Vista sämtliche Programme schließen müssen, um die maximale Performance zu erhalten. Wer mal das Vergnügen hatte Crysis auf einem Q6600 zu bewundern, wird staunen, welche Bauchaufschwünge Quadcore-Besitzer unternehmen, um das Spiel auf niedrigen Details spielen zu können. Von Leuten, die (Dank Quad) im Angesicht dieser Ruckelorgie entspannt anfangen im Hintergrund Videos zu encoden, habe ich noch nichts gehört. Manchmal müssen sie sogar sämtliche Programme schließen, wenn sie überhaupt etwas unter Vista machen wollen. Das liegt dann nicht selten an den vielen recht informativen PopUps, mit denen der Vista-User ausführlichst darüber informiert wird, daß gerade ein Prozeß versucht hat, den Spielfluß zu stören...
Nein nein, erzählt den Leuten hier keine Märchen: Wenn Vista einmal Updates gewittert hat, können auch Quad-User erstmal in Ruhe aufs Klo gehen. Die Begeisterung für Quad-CPUs, die hier einige an den Tag legen, kann ich ehrlich gesagt überhaupt nicht teilen. Ich sehe es so, daß man als Quad-User momentan eher im Nachteil ist. Und da niemand so genau weiß, ob er Windows 7 in der Version 1.0 überhaupt auf seinem Rechner haben will, kann man wohl behaupten, daß sich Quads heute in 99% aller Fälle noch ganz und gar nicht lohnen. Bis Quads endlich interessant werden, sind sie längst ausgestorben. Es sei denn man kommt vom Klo und es klebt einem schon heute dick Vista an der Backe. Da brauchts eben vierlagiges Papier... und dann auch gleich die Familienpackung.
Aha, wir brauchen also mindestens 8 oder mehr Kernen um diese Aufgaben zu bewältigen, naja da kann man ja einen Dual-Core getrost in die Tonne kloppen, da dieser das genannte Scenario erst recht nicht bewältigen kann.;)

Gast
2008-10-07, 21:53:36
Oh mann, von Sarkasmus habt ihr aber auch noch nie was gehört oder wie? Er schreibt doch extra dass sein Kommentar maßlos übertrieben ist...

Davon abgesehen

Fazit: wer moderne Betriebssyteme nutzt, auch das kommende Windows 7 auf dem aktuellen Rechner installieren und beim Spielen nicht sämtliche Programme schließen will, um die maximale Performance zu erhalten, für den lohnt sich QuadCore schon heute.

halte ich für am Problem vorbeigedacht. Wenn ich Programme schließe dann habe ich immer mehr Performance ob SC, DC oder Quad. Das ist doch wohl klar. Die Leistung (Taktfrequenz) ist fix, und wenn ich die Last verringere indem ich Programme schließe dann bin ich besser dran, auch mit einem Quad.

Paul Brain
2008-10-08, 00:58:03
halte ich für am Problem vorbeigedacht. Wenn ich Programme schließe dann habe ich immer mehr Performance ob SC, DC oder Quad. Das ist doch wohl klar. Die Leistung (Taktfrequenz) ist fix, und wenn ich die Last verringere indem ich Programme schließe dann bin ich besser dran, auch mit einem Quad.
Klar. Nur fällts beim Quad weit weniger ins Gewicht als beim DC, und da viel viel viel weniger als beim SingleCore...

Gast
2008-10-08, 10:13:22
Klar. Nur fällts beim Quad weit weniger ins Gewicht als beim DC, und da viel viel viel weniger als beim SingleCore...
Nein. Sobald du nur ein Programm hast welches mit mehreren Kernen umgehen kann fällt es gleich ins Gewicht. Wenn du mehr als 4 (für den Fall Quad) unabhängige Prozesse hast (wieviele Prozesse laufen bei dir nochmal im Taskmanager?) fällt es gleich ins Gewicht. Weil dann muss nämlich auch der Quad Kontextswitchen. Anwendung schließen -> weniger Kontextswichtes -> mehr Performance.

Silverbuster
2008-10-08, 10:21:16
Nein. Sobald du nur ein Programm hast welches mit mehreren Kernen umgehen kann fällt es gleich ins Gewicht. Wenn du mehr als 4 (für den Fall Quad) unabhängige Prozesse hast (wieviele Prozesse laufen bei dir nochmal im Taskmanager?) fällt es gleich ins Gewicht. Weil dann muss nämlich auch der Quad Kontextswitchen. Anwendung schließen -> weniger Kontextswichtes -> mehr Performance.

Was ja die klare Aussage zu noch mehr Kernen wäre :wink:

Gast
2008-10-08, 10:28:19
Was ja die klare Aussage zu noch mehr Kernen wäre :wink:
Jap. :D Müssen halt auf jeden Fall mehr Kerne als gleichzeitig laufende Prozesse sein, also so 75 aufwärts... :)
Ernsthaft: Der Vorteil von Quads liegt doch darin dass ich geeignete Anwendungen parallel bearbeiten kann. Was mir einen Geschwindigkeitsvorteil bringt. Und nicht darin dass ich
beim Spielen nicht sämtliche Programme schließen will, um die maximale Performance zu erhalten[...]
Das ist IMO einfach falsch.

bloodflash
2008-10-08, 12:07:29
Außerdem ist es doch einfach ein gutes Gefühl

er fühlte sich schon irgendwie überlegener an
aber der gefühlte Speed vom Gesamtsystem
Ich probiere halt immer mal gerne herum

Ich mag meinen Q9300

für mich ist ein Dualcore einfach zu schwach da zu wenig Kerne

Wer neu kauft kauft nen Quad

Die "gefühlte" Flüssigkeit aller Abläufe ist einfach phänomenal


Also, ich mag die Quadler: Die bringen so etwas menschliches, warmes in eine technische Diskussion, abseits jeglicher harter Fakten. Das "gefühlte" Klima hier verbessert sich merklich ;)

Dass die meisten Nutzer bei Quadcores

den (absoluten) Preis,
die höheren Anforderungen an die Peripherie,
den größeren (absoluten) Stromverbrauch,
die größere Wärmeentwicklung
und die in den meisten Fällen nebensächlichen oder kaum spürbaren Performancegewinne
getrost als Argumentation ignorieren können, ist nur Euch zu verdanken! Denn schließlich zählen solche nebensächlichen Fragen bei der Bewertung eines Kaufes nicht. Endlich mal Sichtweisen, abseits der ausgelutschten Performancediskussion ;)

Silverbuster
2008-10-08, 12:17:04
@kic

LEider gibt es keine richtigen Benchmarks die starkes Multitasking testen. Wenndu der User bist der wirklich nur 1 oder 2 Programme am laufen hast, dann bleib beim Dualcore, würde ich auch. Aber fahr mal 3-6 anspruchsvolle Programme paralell, da sieht ein hoch gezüchteter Dualcore kein Land mehr.

Man sollte mal von der Grundsätzlichen Diskussionsfrage "Braucht man einen Quad" weggehen und lieber zur folgenden Diskussions Frage wechseln "Ab wann macht ein Quad Sinn!" Dann dürfte die Diskussion ganz anderes verlaufen.

Ich finde es auch seltsam das hier immer das Argument kommt "Kein Spiel nutzt einen Quadcore richtig aus" Wer bestreitet das denn bitte? Darum geht es aber auch nicht, sondern es geht um die Frage wie man einen Quad ausnutzen kann und ob das überhaupt geht und ja es geht, ganz klar. Nur die meisten werden es derzeit in der Praxis nie tun.

Und kauf dir mal die neuste PCGH und schau dir mal das Intel Kompendium an wo der Stromverbrauch eines Q6600 mit einem E8500 verglichen wird. Das Gesamtsystem verbraucht mit dem Q6600 Idle grade mal 2W mehr. Unter Vollast sind es dann 30W. In meinen Augen nicht die Welt.

Das Auge
2008-10-08, 12:19:05
Also, ich mag die Quadler: Die bringen so etwas menschliches, warmes in eine technische Diskussion, abseits jeglicher harter Fakten. Das "gefühlte" Klima hier verbessert sich merklich ;)

Ist doch schön, menschliche Wärme im rauhen Forenalltag zwischen all den Glaubenskriegen ist doch mal was ganz anderes :D

Dass die meisten Nutzer

den (absoluten) Preis,

Ein Q6600/6700 im G0-Stepping ist nicht teuer und lässt sich gut takten

die höheren Anforderungen an die Peripherie,

Kein Argument, zumindest nicht bei Intel. Mein NT (500W Enermax) konnte ich problemlos weiterverwenden

den größeren (absoluten) Stromverbrauch,

Ja, der böse Stromverbrauch. Also mir ist der völlig schnurz, zumal EIST trotz OC einwandfrei funzt. Die 5 Euro mehr per Anno kann ich noch so eben stemmen

die größere Wärmeentwicklung

Ach Gottchen, die heutigen Quads haben eine absolut verträgliche TDP, die nicht höher liegt, als bei den großen DC der letzten Generation. Bei den meisten Usern dürfte das vorhandene Kühlsystem locker reichen, so auch bei mir.

und die in den meisten Fällen nebensächlichen oder kaum spürbaren Performancegewinnebei Quadcores, eigentlich als Argumentation ignorieren können, ist nur Euch zu verdanken. Denn schließlich zählen solche nebensächlichen Fragen bei der Bewertung eines Kaufes nicht. Endlich mal richtige Fakten, abseits der ausgelutschten Performancediskussion ;)

Du kannst gerne mal vorbeikommen und meinen Rechner mit Anwendungen deiner Wahl auslasten. Die gefühlte Flüssigkeit ist nunmal super, leider kann man Multitasking etc. schlecht messen :rolleyes:

Naja, mir ja letztendlich auch egal, ich bin zufrieden und das ist es was zählt ;)

V2.0
2008-10-08, 12:50:41
Ich würde auch niemals sagen, dass ein Quad heute ein muss ist, wenn man ein neus System aufbaut. Baut man allerdings ein neues System auf und macht öfter mal starkes Multitasking, dann würde ich heute keinen Grund sehen, der gegen den Quad spricht.

Will man primär einen Spielerechner, dann allerdings würde ich eher zu einem takftfreudigen DC raten und das gesparte Geld für ne bessere Graka ausgeben, was bei Spielen sicher noch recht lange in den meisten Fällen mehr Sinn macht.

bloodflash
2008-10-08, 13:46:13
Wenndu der User bist der wirklich nur 1 oder 2 Programme am laufen hast, dann bleib beim Dualcore, würde ich auch. Aber fahr mal 3-6 anspruchsvolle Programme paralell, da sieht ein hoch gezüchteter Dualcore kein Land mehr.

Wenn ich arbeite, sind ca. 2 Dutzend Applikationen mit teilweise hunderten Dateien geöffnet.

Von kleinen Hilfsapplikationen wie Editor, Konsole, Mailer, sFTP, VPN, Packer und Bildbetrachter über mehrere Browser, PDF-Viewer, Kommunikations systemen und Officeprogrammen bis zu zwei Virtualisierern (W2k, Ubuntu), diversen Serversystemen (AMPPx) und Konverterprogrammen ist schon mal alles im Zugriff.
Im Vordergrund wird dann meist mit der Webentwicklungsumgebung, Photoshop und spezielleren Apps gearbeitet und zwischendurch immer auf obige Toolchain zurückgegriffen.
In Arbeitspausen wird dann im Hintergrund ein Video ins flv-Format gewandelt, während per sFTP/rsync der Server/Backup befüllt wird und noch ein hunderte Seiten starkes PDF erstellt oder extrahiert wird.
Im Vordergrund wird dann entweder gesurft, ein Video oder Demo geschaut oder ein kleines Spielchen gewagt.
Dass nebenbei noch ständig Musik abgespielt wird oder sonstige Backgroundapps laufen, brauche ich glaube ich gar nicht erwähnen.

Ich habe bei dieser Arbeitsweise meinen DC noch nie als limitierendes Element gesehen, da waren schnelle Festplatten, RAM oder GBe schon eher spürbar.

Und nur weil seltenst mal das Video in den Arbeitspausen für Millisekunden stockt oder Q3 einen "Mikroruckler" produziert, soll ich mir einen Quadcore zulegen?

Auf meinem alten SC (XP2400+, 2GB, 2HDDs) habe ich genauso gearbeitet, konnte mir die Arbeitspausen dann aber nicht verschönern oder hatte stockende Programme und Taskwechsel.

Ich glaube ich nutze meine Hardware recht gut aus und ich kann mir auch vorstellen, dass der Eine oder Andere mit QC-auslastenden Applikationen arbeitet, aber das ist auf absehbare Zeit für über 95% aller Nutzer irrelevant und wäre rausgeschmissenes Geld.

Und das gilt IMHO ebenso für Zocker. Aber da gibt's ja auch die Befürworter von HE-Grafikkarten und SLI-Setups, zusätzlich zum QC. Da macht aber 95% der Zielgruppe ebenso keinen Schnitt.

Aber die Befürworter solcher Setups kommen dann, wie Du übrigens auch, mit so tollen Argumenten wie "ja, wenn Du nur 1-2 Programme nutzt", das würde sich "ganz anders anfühlen", "das ist die Zukunft111!elf" oder "ihr habt ja nur kein Geld".

Man braucht sich nur einmal das Preis-Leistungsverhältnis solcher Komponenten vor Augen führen und den erzielbaren Gewinn, dann sieht man schon, das aus den 95% schnell 99,7% werden.

bloodflash
2008-10-08, 14:01:36
Ein Q6600/6700 im G0-Stepping ist nicht teuer und lässt sich gut takten
Die teuerste CPU, die ich mir in den letzten Jahren geholt habe ist mein aktueller E6850 für 120,-EUR (Firmenrabatte, Auslaufmodell). Und der war schon über meinem Limit. In den meisten Rechnern laufen noch günstigere CPUs, d.h. für die Masse der Nutzer sind 150,-EUR oder mehr schon zu teuer.

Kein Argument, zumindest nicht bei Intel. Mein NT (500W Enermax) konnte ich problemlos weiterverwenden
500W-NTs sind auch schon nix normales mehr, auch wenn das in solchen Foren hier propagiert wird. Für die meisten Rechner sind schon 330W-NTs Overkill. Guck Dir meine Konfig an, das 380W NT ist selbst unter Rechner-Vollast schon zuviel.

Ja, der böse Stromverbrauch. Also mir ist der völlig schnurz, zumal EIST trotz OC einwandfrei funzt. Die 5 Euro mehr per Anno kann ich noch so eben stemmen
Ach Gottchen, die heutigen Quads haben eine absolut verträgliche TDP, die nicht höher liegt, als bei den großen DC der letzten Generation. Bei den meisten Usern dürfte das vorhandene Kühlsystem locker reichen, so auch bei mir.
Das ist aber nicht jedem egal.
Die Mehrkosten bei der Peripherie sind nicht von der Hand zuweisen und eine oversizte CPU führt dann auch zwangsläufig zum oversizten NT usw.
QCs in der 65W-Region sind nunmal rar gesät und meist auch teuer.

Du kannst gerne mal vorbeikommen und meinen Rechner mit Anwendungen deiner Wahl auslasten. Die gefühlte Flüssigkeit ist nunmal super, leider kann man Multitasking etc. schlecht messen

Jaja, die gefühlte Nichtmessbarkeit :rolleyes:
Mein Setup steht in meiner Sig und habe ich oben beschrieben. Die Flüssigkeit macht mir keine Probleme.

Naja, mir ja letztendlich auch egal, ich bin zufrieden und das ist es was zählt ;)
Und genau das ist es, was die SC/DC/QC/OC/SLI-Diskussionen immer so ausarten läßt. Ein paar HE-User stülpen ihr Anwendungsprofil und ihre Ansprüche über alle Anderen drüber und gehen von sich als Maßstab aus.
Das hat nur nix mit der Realität zu tun und endet dann in "gefühlten Wirklichkeiten" ;)

Silverbuster
2008-10-08, 14:07:28
Diese ganze Diskussion gabs doch schon beim umstieg von Singelcore auf Dualcore. Da gabs diejenigen welche an ihren Singelcores zwanghaft festgehalten haben und meinte das Dualcore nicht benötigt wird und die Dualcore Anwender die keinen Singelcore mehr wollten. Und heute.... heute wird niemand den Nutzen eines Dualcores mehr anzweifeln wollen. Mit den Quads sieht es genauso aus, auch wenn es viele wieder mal bezweifeln.
Quads setzen sich immer mehr durch, auf vielen Gebieten und bald wird man über die Dualcore Nutzer lächeln und die duskussion von neuem beginnen sobald 6 Kerner oder 8 Kerner herauskommen werden. Das ist wie ein Karusell.

bloodflash
2008-10-08, 14:35:07
Da gabs diejenigen welche an ihren Singelcores zwanghaft festgehalten haben und meinte das Dualcore nicht benötigt wird und die Dualcore Anwender die keinen Singelcore mehr wollten. Und heute.... heute wird niemand den Nutzen eines Dualcores mehr anzweifeln wollen.

Genau, heute! Damals hat es für die wenigsten Sinn ergeben, mehr Geld dafür auszugeben, obwohl es immer Fälle gab, wo es sich gerechnet hat. Und heute ist diese Diskussion SC/QC müssig, denn die Verhältnisse haben sich umgekehrt.
Das hat aber viel mit Preisanpassungen und vor allen Dingen mit der Software und dem Nutzerverhalten zu tun. Da hat sich massiv etwas verändert.
Der Grundnutzen (reaktiveres System, Multitasking) ist natürlich gleich geblieben und hat sogar an Relevanz gewonnen.

Mit den Quads sieht es genauso aus, auch wenn es viele wieder mal bezweifeln.

Wer bezweifelt das denn? Nur ist der Umschwung noch nicht eingetreten, so dass die meisten Nutzer nicht davon profitieren bzw. nicht genug, so dass sich Mehrausgaben lohnen würden und auf kurzfristige Sicht ist eine Änderung nicht absehbar.
Mittelfristig, also in 2-3 Jahren mag das anders aussehen und langfristig scheint kein Weg an QCs vorbeizuführen.

Da gibt es auch so Begriffe wie abnehmender grenzertrag oder Preis-/Leistungsverhältnis. Und vor allen Dingen ist es im PC-Bereich fast immer unsinnig Hardware auf Vorrat zu kaufen.

wolf-Cottbus
2008-10-08, 14:37:39
Dualcore runter Quadcore rauf. Was soll ich sagen. Mein Boxed Lüfter dreht mit 700 RPM und die Temp sind so bei 35°. Also Warm nenne ich das nicht. Der 9550 kostet heute weniger als mein Dualcore am Anfang. Also Preis auch kein Gegenargument. Meine Peripherie hat auch keine Schwierigkeiten mit der CPU. Stromverbrauch einer CPU im PC ist wohl der kleinste Nenner. Sonst müßte ich mit Onboardgrafik spielen.
Also es spricht nichts gegen einen Quad, außer das eigene Ego.

Gruß Wolf

bloodflash
2008-10-08, 14:52:03
Also es spricht nichts gegen einen Quad, außer das eigene Ego.

Dann schreibe auch bitte dazu, dass das nur für Dich gilt ;)

Denn für die meisten ist nunmal, auch auf absehbare Zeit, ein E7200 oder eine noch günstigere CPU einem 9550 vorzuziehen, denn den Mehrwert der dreimal teureren CPU werden sie in den nächsten 2-3 Jahren nicht spüren bzw. die Grenzen des E7200 nicht auslosten.

In 2-3 Jahren werden einem aber höher getaktete QCs für weniger als die Hälfte des heutigen 9550-Preises hinterhergeworfen.

Da wäre es doch dumm, jetzt schon 150-200,-EUR mehr auszugeben, oder?

BTW:
Mein E6850 läuft mit dem Boxlüfter bei 24ºC und unter Last bei 36ºC. Das heisst der Lüfter muss nie über 1200Upm gehen ;)

Sonyfreak
2008-10-08, 14:56:55
Da wäre es doch dumm, jetzt schon 150-200,-EUR mehr auszugeben, oder? ;)Wenn man nicht mehr Leistung braucht, kommt man auch in 10 Jahren noch mit einem Dualcore aus. Wenn du _jetzt_ die Leistung brauchst, brauchst du _jetzt_ einen Quadcore. Was soll die Diskussion bitte?

Spiel mal eine große Karte bei Supreme Commander, und schau zu wie dir dein E6850 vor den Augen eintrocknet (http://enthusiast.hardocp.com/article.html?art=MTMwNiwxLCxoZW50aHVzaWFzdA==). :rolleyes:

mfg.

Sonyfreak

Edith: Und wenn Supreme Commander 2 in 3 Jahren vielleicht besser auf nem Octocore läuft und dieser nicht allzu teuer ist, werde ich auch dort zuschlagen. Wer keine Verwendung für mehr Leistung hat, soll halt bei veralteter Technologie bleiben.

V2.0
2008-10-08, 15:01:00
Ich würde jetzt auch kein gutes E6XXX oder E8XXX DC System auf Quad aufrsüten. aner wenn ich z.B. von einem Athlon X2 S939 oder gar einem P4 hochrüsten würde, dann würde ich bei einem völligen Neuaufbau zum Quad greifen. Einfach schon weil das Altsystem zeigt, dass man sein System länger nutzt.

wolf-Cottbus
2008-10-08, 17:24:32
Dann schreibe auch bitte dazu, dass das nur für Dich gilt ;)

Denn für die meisten ist nunmal, auch auf absehbare Zeit, ein E7200 oder eine noch günstigere CPU einem 9550 vorzuziehen, denn den Mehrwert der dreimal teureren CPU werden sie in den nächsten 2-3 Jahren nicht spüren bzw. die Grenzen des E7200 nicht auslosten.

In 2-3 Jahren werden einem aber höher getaktete QCs für weniger als die Hälfte des heutigen 9550-Preises hinterhergeworfen.

Da wäre es doch dumm, jetzt schon 150-200,-EUR mehr auszugeben, oder?

BTW:
Mein E6850 läuft mit dem Boxlüfter bei 24ºC und unter Last bei 36ºC. Das heisst der Lüfter muss nie über 1200Upm gehen ;)

Ich sollfür mich sprechen, habe ich doch das eigene Ego, also jeder für sich.
Du aber sprichst für die meisten und weist was in der Zukunft was kostet.
Merkst du den Unterschied? Wenn du nicht mehr willst ist doch gut. Genau so ist das gut wenn sich andere mehr leisten. Wo ist da das Problem?

Gruß Wolf

Das Auge
2008-10-08, 17:51:09
Wo ist da das Problem?

Gruß Wolf

MInderwertigkeitskomplexe und der alleinige Anspruch auf die Wahrheittm sind das Problem, ein weit verbreitetes Phänomen in Hardware-Foren.

bloodflash
2008-10-08, 19:09:51
MInderwertigkeitskomplexe und der alleinige Anspruch auf die Wahrheittm sind das Problem, ein weit verbreitetes Phänomen in Hardware-Foren.

Ich glaube Dein Problem ist eher, dass Du nicht sachlich diskutieren kannst oder willst.

Ich wies nur draufhin, dass es für die meisten Anwender noch keinen Sinn macht, zumindest bei den aktuellen Preisen. Argumente dafür habe ich genug genannt. Nur manche QC-Besitzer meinen die alleinseligmachende Hardware-Konfiguration zu kennen und diffamieren dann DC-Besitzer mit Ausdrücken wie "Minderwertigkeitskomplex".

Eure Argumente pro QC sind ja teilweise auch annehmbar, nur geht das an den Realitäten vieler Anwender oft vorbei. Ein paar Anwendungsszenarios und das eine oder andere Spiel mit hohen Settings werden dann rausgekramt. Und wenn dann einer sagt, dass sind mir die viel höheren Anschaffungs- und Unterhaltskosten für zuwenige Settings nicht wert, dann wird argumentiert heutzutage mache es keinen Sinn mehr einen DC zu kaufen, weil man in 2-3 Jahren ja nicht mehr dran vorbeikommt.

Und wenn das alles nichts fruchtet, wird sich drauf zurückgezogen "Aber ich...". So hätte man aber auch von Anfang an disktieren können.

Eure Spitzen á la Minderwertigkeitskomplex, man würde es sich ja nur nicht leisten können und man würde nicht richtig arbeiten, könnt Ihr Euch sonstwo hinstecken :mad:

Gast
2008-10-08, 19:11:30
Und kauf dir mal die neuste PCGH und schau dir mal das Intel Kompendium an wo der Stromverbrauch eines Q6600 mit einem E8500 verglichen wird. Das Gesamtsystem verbraucht mit dem Q6600 Idle grade mal 2W mehr. Unter Vollast sind es dann 30W. In meinen Augen nicht die Welt.

Habe leider nicht den Vergleich zu einem E8500, aber das ist ein sehr schlechter Scherz. Ich habe 145Watt (Q6600 normal) vs 89Watt (E7200@3GHz) gemessen, und wohlgemerkt nur die CPU ausgetauscht, sonst nichts! Im System war neben einer GTX260 auch 4 Speicherriegel und 3HDs.

Gast
2008-10-08, 19:15:08
Wenn man nicht mehr Leistung braucht, kommt man auch in 10 Jahren noch mit einem Dualcore aus. Wenn du _jetzt_ die Leistung brauchst, brauchst du _jetzt_ einen Quadcore. Was soll die Diskussion bitte?

Spiel mal eine große Karte bei Supreme Commander, und schau zu wie dir dein E6850 vor den Augen eintrocknet (http://enthusiast.hardocp.com/article.html?art=MTMwNiwxLCxoZW50aHVzaWFzdA==). :rolleyes:

mfg.

Sonyfreak

Edith: Und wenn Supreme Commander 2 in 3 Jahren vielleicht besser auf nem Octocore läuft und dieser nicht allzu teuer ist, werde ich auch dort zuschlagen. Wer keine Verwendung für mehr Leistung hat, soll halt bei veralteter Technologie bleiben.

Sehr interessanter Link, fande vorallem diesen Absatz sehr interessant: Another indicator of this is SLI. Under Windows Vista we noticed that the SLI indicator did not seem to be showing that it was operating at peak efficiency in this game. At first we attributed this to the game being much more CPU dependent than GPU dependent. However, when we installed Windows XP and ran the game with SLI we witnessed the SLI load being greater, but only with quad-core. We noticed that with dual-core there was less performance benefit with SLI, but once we enabled all four cores SLI efficiency was much better. This proves that quad-core is allowing the video cards to simply do more in the game.

Das Auge
2008-10-08, 19:33:40
Ich glaube Dein Problem ist eher, dass Du nicht sachlich diskutieren kannst oder willst.

Ich wies nur draufhin, dass es für die meisten Anwender noch keinen Sinn macht, zumindest bei den aktuellen Preisen. Argumente dafür habe ich genug genannt. Nur manche QC-Besitzer meinen die alleinseligmachende Hardware-Konfiguration zu kennen und diffamieren dann DC-Besitzer mit Ausdrücken wie "Minderwertigkeitskomplex".

Das stimmt doch gar nicht, mMn soll jeder kaufen was er meint. Den missionarischen Eifer sehe ich eher bei dir und wenn sowas überhand nimmt, laß ich mich auch gerne mal zu solchen Postings wie dem letzten hinreißen.

Außerdem sollte man nie mit "die meisten Anwender" argumentieren" gerade in einer noch überschaubaren Community wie hier gibt es nur den Einzelfall. Wenn man mit der Masse anfängt landen wir wieder beim Singlecore, der reicht schließlich für Inet und Office noch dicke.

Eure Argumente pro QC sind ja teilweise auch annehmbar, nur geht das an den Realitäten vieler Anwender oft vorbei. Ein paar Anwendungsszenarios und das eine oder andere Spiel mit hohen Settings werden dann rausgekramt. Und wenn dann einer sagt, dass sind mir die viel höheren Anschaffungs- und Unterhaltskosten für zuwenige Settings nicht wert, dann wird argumentiert heutzutage mache es keinen Sinn mehr einen DC zu kaufen, weil man in 2-3 Jahren ja nicht mehr dran vorbeikommt.

Alles Krampf, jeder kann für sich selber entscheiden was er braucht bzw. will, und wenn jemand nen Quad will aber nicht wirklich braucht so ist es dennoch sein Bier. Was anderes ist es, wenn jemand keinen Quad (oder sonstwas) braucht, z.B. Oma Hildegard, aber diesen dennoch empfohlen oder angedreht bekommt.
Aber hier im Forum sind die meisten doch fähig für sich selber zu entscheiden was sie brauchen und wollen.

Und wenn das alles nichts fruchtet, wird sich drauf zurückgezogen "Aber ich...". So hätte man aber auch von Anfang an disktieren können.

Eure Spitzen á la Minderwertigkeitskomplex, man würde es sich ja nur nicht leisten können und man würde nicht richtig arbeiten, könnt Ihr Euch sonstwo hinstecken :mad:

Hab ich nie behauptet, ich hab sogar klar geschrieben ich würde mit einem DC auch noch gut auskommen.

Es ist immer wieder das gleich in solchen Diskussionen: Jeder meint seine Entscheidung/Meinung ist die einzig richtige und alle anderen müssen genauso handeln. DAS ist das Problem, da geht es gar nicht um Dual- oder Quadcore, AMD oder Intel, sondern um diese ewige recht haben wollen um jeden Preis. Und genau DAS nervt, wenn jemand sich da zu sehr reinsteigert.

Aquaschaf
2008-10-08, 20:15:07
Spiel mal eine große Karte bei Supreme Commander, und schau zu wie dir dein E6850 vor den Augen eintrocknet (http://enthusiast.hardocp.com/article.html?art=MTMwNiwxLCxoZW50aHVzaWFzdA==). :rolleyes:

Supreme Commander ist da allerdings die absolute Ausnahme. Das hat durch mehr CPU-Kerne ja teilweise superlinearen Speedup.

Sonyfreak
2008-10-08, 20:28:10
Sehr interessanter Link, fande vorallem diesen Absatz sehr interessant: Another indicator of this is SLI. Under Windows Vista we noticed that the SLI indicator did not seem to be showing that it was operating at peak efficiency in this game. At first we attributed this to the game being much more CPU dependent than GPU dependent. However, when we installed Windows XP and ran the game with SLI we witnessed the SLI load being greater, but only with quad-core. We noticed that with dual-core there was less performance benefit with SLI, but once we enabled all four cores SLI efficiency was much better. This proves that quad-core is allowing the video cards to simply do more in the game.Vielleicht hat sich da mit neueren Treibern was geändert. Trotzdem interessant.
Supreme Commander ist da allerdings die absolute Ausnahme. Das hat durch mehr CPU-Kerne ja teilweise superlinearen Speedup.Solche Zugewinne wird man sicherlich nur in Ausnahmefällen sehen, das ist klar.

mfg.

Sonyfreak

schmacko
2008-10-08, 20:30:26
Die teuerste CPU, die ich mir in den letzten Jahren geholt habe ist mein aktueller E6850 für 120,-EUR (Firmenrabatte, Auslaufmodell). Und der war schon über meinem Limit. In den meisten Rechnern laufen noch günstigere CPUs, d.h. für die Masse der Nutzer sind 150,-EUR oder mehr schon zu teuer.
tja, mein phenom9500 hat ca. 170€ (?) gekostet. das war aber der einzige aufpreis, den ich gegenüber einem athlon-x2 zu zahlen hatte. und um ehrlich zu sein, habe ich das nur "aus spaß" getan. nutzen tue ich einen phenom wohl wirklich nicht - insofern kann ich dich in vielen punkten verstehen. andererseits war der aufpreis so gering, dass er es mir wert war.

500W-NTs sind auch schon nix normales mehr, auch wenn das in solchen Foren hier propagiert wird. Für die meisten Rechner sind schon 330W-NTs Overkill. Guck Dir meine Konfig an, das 380W NT ist selbst unter Rechner-Vollast schon zuviel.
ich bin von einem s939-x2 umgestiegen und habe mein 350w netzteil locker behalten können. idle hat das nt eh nichts zu tun und selbst unter volllast ist es immer noch nicht ausgelastet. viel kleinere nts sind in klassischer bauweise ja wohl kaum zu kriegen. und hätte ich ein neues nt auch noch gebraucht, hätte ich mir den phenom tatsächlich gespart.

Die Mehrkosten bei der Peripherie sind nicht von der Hand zuweisen und eine oversizte CPU führt dann auch zwangsläufig zum oversizten NT usw.
QCs in der 65W-Region sind nunmal rar gesät und meist auch teuer.
meine cpu ist nicht oversized und die peripherie ist genauso teuer wie beim x2. ich hab das gehäuse, das kleine nt, den popeligen artic-cooling-lüfter etc einfach problemlos behalten.
das popelige board und der speicher mussten eh neu gekauft werden. das wäre mit einem "kleineren" prozessor auch nicht billiger geworden.

Und genau das ist es, was die SC/DC/QC/OC/SLI-Diskussionen immer so ausarten läßt. Ein paar HE-User stülpen ihr Anwendungsprofil und ihre Ansprüche über alle Anderen drüber und gehen von sich als Maßstab aus.
Das hat nur nix mit der Realität zu tun und endet dann in "gefühlten Wirklichkeiten" ;)
der quad hat bestimmt kleineren anteil an der gefühlten flüssigkeit des rechners als die 4gb und vista64.
aber der quad hat außer bei der anschaffung desselben im betrieb für mich fast keine höheren kosten. das wars mir wert, war aber auch nur kleine unvernunft.
vernünftiger für den alltag wäre wohl ein ganz auf energieeffizienz ausgelegter alltagspc für mich. den aufwand scheue ich aber.

V2.0
2008-10-08, 21:38:23
Ist ne Frage der Aufrüstintervalle. Wer häufig und günstig aufrüstet sollte DC nehmen, wer nur alle 2-3 Jahre aufrüstet fährt imho mit dem Quad besser.

Gerade dei Yorkfield Quads sind so genügsam, dass sie meist problemlos mit alten Netzteilen laufen. Ein 90nm Athlon oder ein älterer P4 ziehen kaum weniger.

dargo
2008-10-08, 22:45:49
BTW:
Mein E6850 läuft mit dem Boxlüfter bei 24ºC und unter Last bei 36ºC. Das heisst der Lüfter muss nie über 1200Upm gehen ;)
Du hast einen E6850 und redest von hohem Stromverbrauch und/oder höherer Anforderung an das Netzteil bei einem Quadcore? *ggg
Teste mal einen Q9550 E0 und sage mir das bitte nochmal. ;)

Sonyfreak
2008-10-08, 23:41:47
Du hast einen E6850 und redest von hohem Stromverbrauch und/oder höherer Anforderung an das Netzteil bei einem Quadcore? *ggg
Teste mal einen Q9550 E0 und sage mir das bitte nochmal. ;)Funktioniert der Gute denn mittlerweile schon? :)

mfg.

Sonyfreak

bloodflash
2008-10-09, 00:06:16
Du hast einen E6850 und redest von hohem Stromverbrauch und/oder höherer Anforderung an das Netzteil bei einem Quadcore? *ggg
Teste mal einen Q9550 E0 und sage mir das bitte nochmal. ;)

Laut meinen Informationen ist ein E6850 bei Intel mit 65W TDP spezifiziert und ein Q9550 mit 95W TDP.

So what!?
Zum Zeitpunkt meines Kaufs gab es den Q9550 noch gar nicht bzw. die verfügbaren Quadcores damals lagen in ganz anderen TDP-Regionen.

Und die nötigen Systemspezifikationen waren nur ein Teil meiner Argumentation, der Preis ist auch relevant und da liegt ein Q9550 aktuell mehr als 100% über meinem damaligen Kaufpreis.

Das sich das Verhältnis der Gewichtung im Laufe der Zeit verschiebt, habe ich ja nicht bestritten. Mein Hauptaugenmerk lag halt beim spürbaren Nutzen jetzt und in naher Zukunft für den Grossteil der Käufer.

Die Gesamtheit der Auswahlkriterien macht es aus und nicht nur selektiv herausgenommene Punkte.

bloodflash
2008-10-09, 00:16:04
Das stimmt doch gar nicht, mMn soll jeder kaufen was er meint. Den missionarischen Eifer sehe ich eher bei dir und wenn sowas überhand nimmt, laß ich mich auch gerne mal zu solchen Postings wie dem letzten hinreißen.

Außerdem sollte man nie mit "die meisten Anwender" argumentieren" gerade in einer noch überschaubaren Community wie hier gibt es nur den Einzelfall. Wenn man mit der Masse anfängt landen wir wieder beim Singlecore, der reicht schließlich für Inet und Office noch dicke.

Ich sprach von der sinnvollen Nutzung für die meisten Käufer und nicht von speziellen Anwendungsszenarien, mehr nicht. Es ging darum, ob ein QC jetzt schon nötig ist und ich negierte das für einen Grossteil der Anwendungfälle.

Alles Krampf, jeder kann für sich selber entscheiden was er braucht bzw. will, und wenn jemand nen Quad will aber nicht wirklich braucht so ist es dennoch sein Bier. Was anderes ist es, wenn jemand keinen Quad (oder sonstwas) braucht, z.B. Oma Hildegard, aber diesen dennoch empfohlen oder angedreht bekommt.
Aber hier im Forum sind die meisten doch fähig für sich selber zu entscheiden was sie brauchen und wollen.

Schaue Dir doch mal den Threadtitel an und die dazugehörige Diskussion. Und genau auf den Fall "Oma Hildegard" habe ich hingewiesen. Und nach Deiner Lesart bin ich offensichtlich diese Oma.

Hab ich nie behauptet, ich hab sogar klar geschrieben ich würde mit einem DC auch noch gut auskommen.

Genau darauf wies ich hin.

Es ist immer wieder das gleich in solchen Diskussionen: Jeder meint seine Entscheidung/Meinung ist die einzig richtige und alle anderen müssen genauso handeln.

Wo war ich denn rechthaberisch?
Ich wies nur auf Einzelaspekte und Entscheidungsgründe hin und das bezugnehmend auf den gesamten Thread. Ich habe sogar Anwendungsszenarios für einen QC befürwortet.

Keep Cool

dargo
2008-10-09, 00:18:24
Funktioniert der Gute denn mittlerweile schon? :)

Nö, leider nicht. Geht morgen als defekt zurück. :(

Laut meinen Informationen ist ein E6850 bei Intel mit 65W TDP spezifiziert und ein Q9550 mit 95W TDP.

Du weißt aber schon was eine TDP ist? Hier nur mal zum Vergleich.

Prime95:
E6400@3,2Ghz@1,264V = 52°C (120mm Lüfter @1300RPM)
Q9550 E0@2,83Ghz@1,152V = 40°C (120mm Lüfter @500RPM)

Die Spannungen sind zwar unterschiedlich, aber beides @Standard.

PS: ich wage es sogar zu behaupten, dass der Q9550 E0 sich mit einem Sonic Tower @Standard passiv kühlen lässt. Viel mehr als knapp über 50°C dürfte er nicht gehen. Nur im Hochsommer wäre es eventuell etwas zu warm. Ist aber nur eine Vermutung, getestet habe ich es so noch nicht.

bloodflash
2008-10-09, 08:46:34
Du weißt aber schon was eine TDP ist? Hier nur mal zum Vergleich.

Prime95:
E6400@3,2Ghz@1,264V = 52°C (120mm Lüfter @1300RPM)
Q9550 E0@2,83Ghz@1,152V = 40°C (120mm Lüfter @500RPM)

Die Spannungen sind zwar unterschiedlich, aber beides @Standard.

Soso, der E6400 läuft also mit "@Standard". Und was soll die Angabe der Lüftergeometrie ohne den verwendeten Kühler?

Und Du fragst mich, ob ich weiß, was eine TDP ist und kommst dann mit Temperaturen?

Mir ging es um die Tendenz und die Gewichtung aller Faktoren, davon ist die TDP der CPU nur ein Punkt.

Übrigens kommt ein Freund beim 9300 mit 95W-TDP und Boxed-Kühler noch nicht mal annähernd auf solch niedrige Temperaturen unter Last, wobei er auf dem Desktop fast an meine Werte rankommt.

Der von mir zum Vergleich angeführte E7200 dürfte trotz der 65W-TDP-Angabe aber noch weiter von der Kernschmelze entfernt sein ;) Nur was soll man auch mit meiner CPU vergleichen: Zum Zeitpunkt des Kaufes gab es diese Quads noch gar nicht.

blackbox
2008-10-09, 10:38:21
Ich verstehe nicht, warum hier größtenteils nur auf die Hardware herumgehackt wird, viel entscheidender ist die Software.
Wir erleben zur Zeit einen temporären Vorteil für Q-CPUs, aber eben auch nur, weil die Software (Spiele) größtenteils nicht dafür ausgelegt ist, sprich das volle Potential einer Q-CPU nicht ausnutzen kann. In naher Zukunft werden rechenintensive Software multithreaded sein und dann sind wir wir auf dem gleichen Stand wie vorher. Insgesamt wird die Performance zwar erhöht, aber es löst nicht das Problem, dass beim gleichzeitigen Einsatz von rechenintensiver Software die Leistung "geteilt" werden muss.
Die extreme "Nerd-Konstellation", also das gleichzeitige Video-encoden, mit Fraps aufnehmen und noch nebenbei zocken sowie Pakete entpacken wird dann ohne Leistungseinbußen nicht mehr gehen.

dargo
2008-10-09, 10:45:05
Soso, der E6400 läuft also mit "@Standard".

Nee, mit 3,2Ghz. Steht doch da. :) Nur die Vcore ist bei beiden CPUs @Standard.


Und was soll die Angabe der Lüftergeometrie ohne den verwendeten Kühler?

Öhm, schau nochmal hin. ;)
Im letzten Post sieht man 2x welcher Kühler zum Einsatz kommt. Ein kleiner Tipp, ab und zu lohnt es sich in die Sig. zu schauen.


Und Du fragst mich, ob ich weiß, was eine TDP ist und kommst dann mit Temperaturen?

Wenn zwischen beiden CPUs 12°C Unterschied herrscht und bei der kühleren CPU der Lüfter mit ~40% Geschwindigkeit läuft was glaubst du welche weniger (reale) Verlustleistung produziert?

Übrigens kommt ein Freund beim 9300 mit 95W-TDP und Boxed-Kühler noch nicht mal annähernd auf solch niedrige Temperaturen unter Last, wobei er auf dem Desktop fast an meine Werte rankommt.

Ein Q9300 ist auch kein E0. ;)
Mal davon ab, ich verwende keinen boxed-Kühler. :)