PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Single- vs. Dual-Core, Energiebedarf [Split aus Intel Penryn-Thread]


Undertaker
2007-03-30, 17:57:31
Multicore wird bei doppeltem Takt überflüssig. Wenn du ein Kern mit 6 GHz bauen kannst, bräuchtest du keine zwei mit 3 GHz mehr. Wenn du zwei mit 6 GHz bauen kannst, brauchst du keine vier mit 3 Ghz etc.

in der realität ist das falsch - wenn man einen kern mit 6ghz bauen kann, kann man auch einen dualcore mit 2x4-5ghz bauen der sogar kaum mehr verbrauchen wird, weil der niedrigere takt weit weniger spannung benötigt...

Split aus diesem Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=345792).

Gast
2007-03-30, 19:30:21
in der realität ist das falsch - wenn man einen kern mit 6ghz bauen kann, kann man auch einen dualcore mit 2x4-5ghz bauen der sogar kaum mehr verbrauchen wird, weil der niedrigere takt weit weniger spannung benötigt...

Das ist nicht ganz richtig, denn du unterschätzt den zusätzlich entstehenden Hotspot ganz gewaltig. Damit ein Prozessor stabil läuft, musst du ihn unter einer bestimmten Temperatur halten, was bei weniger Kernen immer noch einfacher ist, als bei vielen.

Wenn du zwei Heizungen zusammenführst, wo entsteht dann mehr Wärme? :)

Undertaker
2007-03-31, 11:38:20
dann hast du meine antwort nicht ganz richtig gelesen ;)

beispiel:

ein dualcore mit zb 2*4,5ghz lässt sich mit 1,2v betreiben; ein singlecore mit 6ghz würde evntl 1,4v benötigen - und nun eine extrem vereinfachte rechnung zum stromverbrauch:

2*4,5*1,2² mal "normierungsfaktor" 5 = 64,8W

1*6*1,4² mal "normierungsfaktor" 5 = 58,8W

das was ich hier als "normierungsfakor" bezeichnet habe soll sozusagen den grundverbrauch der architektur darstellen, welcher multipliziert mit dem takt, der anzahl der kerne und der spannung im quadrat die übliche theoretische annäherungsweise berechnungsformel für den verbrauch ergibt.

man sieht, dass der verbrauch eines hochgetakteten singlecores nur wenig unter dem eines kleineren dualcores liegt, dh der kühlungsaufwand kaum steigt, die leistung pro watt dagegen erheblich

Gast
2007-03-31, 16:01:57
dann hast du meine antwort nicht ganz richtig gelesen ;)

Doch, das habe ich, deswegen ist sie falsch.

ein dualcore mit zb 2*4,5ghz lässt sich mit 1,2v betreiben; ein singlecore mit 6ghz würde evntl 1,4v benötigen - und nun eine extrem vereinfachte rechnung zum stromverbrauch:

2*4,5*1,2² mal "normierungsfaktor" 5 = 64,8W

1*6*1,4² mal "normierungsfaktor" 5 = 58,8W

Du hast es nicht verstanden. Der Verbrauch hat nur bedingt was mit der Temperatur zu tun. Es spielt keine Rolle, ob der Multicore weniger verbraucht, er kann trotzdem deutlich mehr heizen, aufgrund der ungünstigen Lage aller Cores.

Wenn du mehrere Wärmequellen zusammenführst, kannst du sogar schlechtere Ergebnisse erwarten als bei einem oder nur zwei Cores.

Deine Rechnung hat den Haken, dies nicht zu berücksichtigen und ist daher unprofessionell.

Ein Core2 ist nicht doppelt so kühl wie z.B. ein Pentium, obwohl er nur 1/2 oder gar 1/3 verbraucht, die zwei Cores fordern ihren Tribut.

Beim Kentsfield ist dies gar noch ausgeprägter, obwohl er von der Leistungsaufnahme sogar hinter einigen Singles Cores liegt. Dennoch ist schon sehr schnell das Limit der Kühlung erreicht, wenn es um das übertakten geht, ohne das an der VCore rumgespielt wurde.

So einfach ist das alles nicht.

Undertaker
2007-03-31, 18:22:22
Doch, das habe ich, deswegen ist sie falsch.



Du hast es nicht verstanden. Der Verbrauch hat nur bedingt was mit der Temperatur zu tun. Es spielt keine Rolle, ob der Multicore weniger verbraucht, er kann trotzdem deutlich mehr heizen, aufgrund der ungünstigen Lage aller Cores.

Wenn du mehrere Wärmequellen zusammenführst, kannst du sogar schlechtere Ergebnisse erwarten als bei einem oder nur zwei Cores.

Deine Rechnung hat den Haken, dies nicht zu berücksichtigen und ist daher unprofessionell.

Ein Core2 ist nicht doppelt so kühl wie z.B. ein Pentium, obwohl er nur 1/2 oder gar 1/3 verbraucht, die zwei Cores fordern ihren Tribut.

Beim Kentsfield ist dies gar noch ausgeprägter, obwohl er von der Leistungsaufnahme sogar hinter einigen Singles Cores liegt. Dennoch ist schon sehr schnell das Limit der Kühlung erreicht, wenn es um das übertakten geht, ohne das an der VCore rumgespielt wurde.

So einfach ist das alles nicht.

;D

sry, was du hier erzählst ist einfach nur falsch

die größere fläche von 2 cores lässt sich sogar einfacher kühlen als ein singlecore mit gleicher abwärme, das ist fakt -> damit kann die wärme schneller und besser verteilt an den heatspreader abgegeben werden, die temeratur ist niedriger... und die abführbare wärmeenergie ist natürlich davon eh vollkommen unabhängig, soetwas sollte dir klar sein

ein vergleich zwischen verschiedenen architekturen ist ebenfalls quatsch, du weist nicht wo die temperatursensoren sitzen...

also bitte, wenn du in zukunft mit noch mehr solchen späßen wie "Es spielt keine Rolle, ob der Multicore weniger verbraucht, er kann trotzdem deutlich mehr heizen, aufgrund der ungünstigen Lage aller Cores." kommst, brauchen wir hier nicht weiter zu diskutieren..

Gast
2007-03-31, 18:41:53
sry, was du hier erzählst ist einfach nur falsch

Das sagt gerade jemand, der von vornherein die physikalischen Gegenheiten ignoriert?

die größere fläche von 2 cores lässt sich sogar einfacher kühlen als ein singlecore mit gleicher abwärme, das ist fakt ->

Das ist kein Fakt, sondern ein Gehirnspinst von dir.
Die Fläche ist nicht größer, denn der Heatspreader bleibt der gleiche.

Wärst du wenigstens so clever gewesen und hättest es vorher mal an dir selbst nachgeprüft, würdest du jetzt nicht so einen mist schreiben.

Gehe in einen Raum der 40 Grad Temperatur hat. Mach ein paar Sportübungen. Danachst tust du das gleiche nochmal, wenn du von drei bis fünf Seiten zusätzliche Wärme durch einen Fön abbekommst.

Bei welchem Versuch wirst du zuerst aufgeben?

damit kann die wärme schneller

Wärme wird durch Multicore nicht "schneller". ;D

und besser verteilt an den headspreader abgegeben werden

Die Recheneinheiten sitzen in der Mitte, nicht in den Außenrändern des Heatspreaders. Da verteilt sich nix besser.
Sogar das Gegenteil ist der Fall... je mehr Wärmequellen nahe der Mitte sitzen, desto mehr Aufwand muss betrieben werden, um die Wärme schnellstens abzuführen.

ein vergleich zwischen verschiedenen architekturen ist ebenfalls quatsch, du weist nicht wo die temperatursensoren sitzen....

Dafür gibt es so etwas, was sich Spezifikationen nennt.

Je mehr, die temeratur ist niedriger...

Deswegen ist der Kentsfield jetzt leichter zu kühlen als der Core 2 Duo oder ein Single Core? ;D

Undertaker
2007-03-31, 18:53:58
Das sagt gerade jemand, der von vornherein die physikalischen Gegenheiten ignoriert?

nenn mir bitte die gegenbenheit welche du richtig und ich falsch interpretiert habe

Das ist kein Fakt, sondern ein Gehirnspinst von dir.
Die Fläche ist nicht größer, denn der Heatspreader bleibt der gleiche.

wie wäre es wenn du erstmal meine beiträge liest bevor du den erfolglosen versuch startest, dagegen zu argumentieren?

"[...]damit kann die wärme schneller und besser verteilt an den heatspreader abgegeben werden[...]"

Gehe in einen Raum der 40 Grad Temperatur hat. Mach ein paar Sportübungen. Danachst tust du das gleiche nochmal, wenn du von drei bis fünf Seiten zusätzliche Wärme durch einen Fön abbekommst.

hehe, total falsch (weil hier zusätzliche wärme ins spiel kommt), aber eine gute möglichkeit es dir zu erklären:

stell dir vor du hast einen 100w fön oder du hast 2x50w föns - mit diesen versuchst du jetzt eine metallplatte zu erhitzen, das wird mit den 2x50w schneller eine gleichmäßige temperatur ermöglichen als mit 1x100w - willst du das bestreiten?

Wärme wird durch Multicore nicht "schneller". ;D

:|

Die Recheneinheiten sitzen in der Mitte, nicht in den Außenrändern des Heatspreaders. Da verteilt sich nix besser.
Sogar das Gegenteil ist der Fall... je mehr Wärmequellen nahe der Mitte sitzen, desto mehr Aufwand muss betrieben werden, um die Wärme schnellstens abzuführen.

du verstehst nicht das die wärmeenenergie konstant bleibt, aber die fläche steigt... darf man fragen, welche schulische bildung du bis jetzt genossen hast?

Deswegen ist der Kentsfield jetzt leichter zu kühlen als der Core 2 Duo oder ein Single Core? ;D

du behauptest, ein kentsfield mit gleicher verlustleistung (also etwas niedrigerem takt) wie ein conroe wäre heißer - ich sage dies ist keinesfalls so, maximal mit geringem unterschied andersherum. bitte bleibe bei dem was ich gesagt habe

Gast
2007-03-31, 19:14:46
nenn mir bitte die gegenbenheit welche du richtig und ich falsch interpretiert habe

Alles was ich zitiert habe und dieser Satz:
wenn man einen kern mit 6ghz bauen kann, kann man auch einen dualcore mit 2x4-5ghz bauen der sogar kaum mehr verbrauchen wird, weil der niedrigere takt weit weniger spannung benötigt...

... geringerer Verbrauch heißt nicht einfachere Kühlbarkeit.

"[...]damit kann die wärme schneller und besser verteilt an den heatspreader abgegeben werden[...]"

Der Heatspreader bleibt gleich groß.
Du kannst keine gute Kühlbarkeit garantieren, wenn das Material, das die Wärme abtransportieren soll, zuvor schon von anderen Cores auf eine gewisse Temperatur aufgehitzt wurde. Es gibt Grenzen.

Selbst wenn 3 von 4 Cores schlummern, so wird der HS allein durch einen Core schon aufgeheizt, die dann zugeschalteten Kerne geben ihre Wärme in einer schon aufgehitzten Umgebung ab.

hehe, total falsch

Nein.

(weil hier zusätzliche wärme ins spiel kommt)

Bei zusätzlichen Kernen nicht? Du bist vielleicht lustig!

stell dir vor du hast einen 100w fön oder du hast 2x50w föns - mit diesen versuchst du jetzt eine metallplatte zu erhitzen, das wird mit den 2x50w schneller eine gleichmäßige temperatur ermöglichen als mit 1x100w - willst du das bestreiten?

Ja, denn Herdplatten sind als Vergleich absolut ungeeignet, da sie darauf ausgelegt sind, die Wärme gleichmäßig abzugeben wenn sie von der Mitte aus aufgehitzt werden oder bei neueren Modellen auf ganzer Ebene erhitzt werden, was bei Prozessoren nicht so ist.

Außerdem ziehst du hier falsche Vergleiche: Es sind nicht 50 W und nicht 100 W. Der Kentsfield verbraucht nicht mal 80 W, dennoch ist er wesentlich schwieriger zu kühlen, als der Core2.

du behauptest, ein kentsfield mit gleicher verlustleistung (also etwas niedrigerem takt) wie ein conroe wäre heißer - ich sage dies ist keinesfalls so, maximal mit geringem unterschied andersherum. bitte bleibe bei dem was ich gesagt habe

Dann teste es bitte erstmal aus.

Undertaker
2007-03-31, 20:08:52
Alles was ich zitiert habe und dieser Satz:


... geringerer Verbrauch heißt nicht einfachere Kühlbarkeit.

kleinerer/gleicher verbrauch bei mehr fläche hingegen schon, das kann dir diese formel sagen:

http://upload.wikimedia.org/math/f/0/1/f01f53bd7749c7cb39857402abf5168d.png

Der Heatspreader bleibt gleich groß.
Du kannst keine gute Kühlbarkeit garantieren, wenn das Material, das die Wärme abtransportieren soll, zuvor schon von anderen Cores auf eine gewisse Temperatur aufgehitzt wurde. Es gibt Grenzen.

dir fehlen physikalische kenntnisse. für die endgültige temperatur der cpu ist nicht wie bei einem wasserrohr der kleinste querschnitt verantwortlich, sondern alle einzelnen bestandteil zwischen cpu und umluft zusammen - thermischer widerstand verhält sich vergleichbar wie elektrischer widerstand

Selbst wenn 3 von 4 Cores schlummern, so wird der HS allein durch einen Core schon aufgeheizt, die dann zugeschalteten Kerne geben ihre Wärme in einer schon aufgehitzten Umgebung ab.

du übersiehst mal wieder den effekt, dass ein einzelner core jeweils weniger wärme abgibt als dein hochgetakter einzelcore


Nein.


argumente anywhere? das ist ein einziger witz hier :D

Bei zusätzlichen Kernen nicht? Du bist vielleicht lustig!

!?! bei soviel unverständnis muss ich mich echt am riemen reißen... was ist nicht daran zu verstehen, dass du zwar mehr kerne hast, die zusammen aber nicht mehr verbrauchen als der singlecore??? wenn du ein zimmer mit 2x1000w radiatoren heizt wird das doch auch nicht wärmer als wenn du 1x2000w hast???

Ja, denn Herdplatten sind als Vergleich absolut ungeeignet, da sie darauf ausgelegt sind, die Wärme gleichmäßig abzugeben wenn sie von der Mitte aus aufgehitzt werden oder bei neueren Modellen auf ganzer Ebene erhitzt werden, was bei Prozessoren nicht so ist.

hmm wo habe ich von herdplatten geredet? wenn ich eine große fläche (den heatspreader) mit 2 kleineren ungleichmäßig warmen flächen aufheize, wird diese trotzdem gleichmäßiger erwärmt als wenn ich nur eine von diesen 2 kleinen flächen habe

Außerdem ziehst du hier falsche Vergleiche: Es sind nicht 50 W und nicht 100 W. Der Kentsfield verbraucht nicht mal 80 W, dennoch ist er wesentlich schwieriger zu kühlen, als der Core2.

weil er vielleicht weniger verbraucht? teste einen kentsfield mit minimaler spannung für 2x2ghz und einen core 2 mit minimaler spannung für 2x3,8ghz, der kentsfield wird weniger verbrauchen und hat trotzdem mehr leistung...


Dann teste es bitte erstmal aus.

ich habe dir alle argumente und physikalischen gesetze genannt. du nichts. gar nichts. bringe auch nur eine einzige formel die deine thesen unterstützt, dazu müsstest du nachweisen das diese formel falsch ist

http://upload.wikimedia.org/math/f/0/1/f01f53bd7749c7cb39857402abf5168d.png

ich wünsche dir dabei viel spaß und erwarte einen eindeutig nachvollziehbaren lösungsweg

Gast
2007-04-01, 07:26:28
kleinerer/gleicher verbrauch bei mehr fläche hingegen schon

Du begreifst es einfach nicht. Es ändert sich weder Heatspreder noch der eingesetze Kühlkörper in der Größe. Das sind Schlüsselfaktoren, wenn du einen Prozessor kühlen willst, was unter dem HS passiert, ist nicht von Belang, weil die Wärme in jedem Falle abgeführt werden muss.

Die Wärme wird sogar noch auf kleinere Flächen zusammenrücken, da der 45nm Prozess eine wenigere Verkleinerung bedeutet, trotz höheren Taktraten und noch mehr Cores. Das hatte ich von Anfang an schon berücksichtigt, mit einem Blick auf den Threadtitel wird klar warum.

dir fehlen physikalische kenntnisse. für die endgültige temperatur der cpu ist nicht wie bei einem wasserrohr der kleinste querschnitt verantwortlich, sondern alle einzelnen bestandteil zwischen cpu und umluft zusammen - thermischer widerstand verhält sich vergleichbar wie elektrischer widerstand

Sagt jemand, der von vornherein alle physikalischen Gegenheiten ignoriert hat, meine Postings völlig falsch aufgefasst und interpretiert hat und andere Belehren will, in dem er mit nicht für das Thema relevanten Beispiele versucht, davon abzulenken. Nur weiter so. :up:

du übersiehst mal wieder den effekt, dass ein einzelner core jeweils weniger wärme abgibt als dein hochgetakter einzelcore

Nein, das habe ich nicht übersehen. Intepretier nicht so viel Zeug in Dinge rein, die nirgendwo in dieser Form erwähnt wurden.

hmm wo habe ich von herdplatten geredet?

Du schriebst lediglich "Metallplatte". Es gibt viele Formen davon. In einem Technikforum erwarte ich eine konkreten Bezug zu einem Thema, sonst ist alles nicht mehr wie Spekulatius.

teste einen kentsfield mit minimaler spannung für 2x2ghz und einen core 2 mit minimaler spannung für 2x3,8ghz, der kentsfield wird weniger verbrauchen und hat trotzdem mehr leistung...

Ähm, ja. Ich war mir eigentlich sicher, das der Kentsfield 4 Cores hat. Wie du darauf kommst, das 2x2 GHz schneller sind, als 2x3,8 GHz ist mir ein Rätsel. Schön. ;D

Außerdem hast ein klitzekleines Detail vergessen: Wenige Cores haben eine leicht höhere Effizienz und brauchen daher nicht mal den doppelten Takt um die gleiche Leistung zu erreichen. Die Kommunikation der Cores untereinander, wie sie beim Kentsfield zwischen jeweils 2 Cores mit den anderen 2 Cores über den FSB stattfinden müssen, entfällt beim Duo.

Undertaker
2007-04-01, 10:30:23
Du begreifst es einfach nicht. Es ändert sich weder Heatspreder noch der eingesetze Kühlkörper in der Größe. Das sind Schlüsselfaktoren, wenn du einen Prozessor kühlen willst, was unter dem HS passiert, ist nicht von Belang, weil die Wärme in jedem Falle abgeführt werden muss.

;D bitte, hast du jemals schon einen thermischen widerstand berechnet? mit sicherheit nicht :D ich kann mich nur wiederholen, der thermische widerstand verhält sich analog wie ein elektrischer widerstand in einer reihenschaltung, dh für die endgültige temperatur ist jeder wärmeübergang entscheidend. damit auch der von core auf heatspreader.

Die Wärme wird sogar noch auf kleinere Flächen zusammenrücken, da der 45nm Prozess eine wenigere Verkleinerung bedeutet, trotz höheren Taktraten und noch mehr Cores. Das hatte ich von Anfang an schon berücksichtigt, mit einem Blick auf den Threadtitel wird klar warum.

Multicore wird bei doppeltem Takt überflüssig. Wenn du ein Kern mit 6 GHz bauen kannst, bräuchtest du keine zwei mit 3 GHz mehr. Wenn du zwei mit 6 GHz bauen kannst, brauchst du keine vier mit 3 Ghz etc.

ach so, du willst deine 6ghz also in 65nm oder mehr realisieren?


Außerdem hast ein klitzekleines Detail vergessen: Wenige Cores haben eine leicht höhere Effizienz und brauchen daher nicht mal den doppelten Takt um die gleiche Leistung zu erreichen. Die Kommunikation der Cores untereinander, wie sie beim Kentsfield zwischen jeweils 2 Cores mit den anderen 2 Cores über den FSB stattfinden müssen, entfällt beim Duo.

ich sehe eine skalierung zu 96%, kannst mir ja gerne einen test suchen wo es angeblich schlechter ist:

http://www.computerbase.de/artikel/software/2007/bericht_raytracing_spielen/5/#abschnitt_performance

der takt skaliert ebenfalls zu deutlich <100%, damit ist der unterschied falls überhaupt noch vorhanden kleiner als die messungenauigkeiten

das was nicht zum thema gehört hab ich gleich mal rausgekürzt ;)

Gast
2007-04-01, 18:37:48
;D bitte, hast du jemals schon einen thermischen widerstand berechnet?

Nicht relevant.

dh für die endgültige temperatur ist jeder wärmeübergang entscheidend. damit auch der von core auf heatspreader.

Es geht nicht um die Temperatur, sondern um das abtragen von eben dieser.

ach so, du willst deine 6ghz also in 65nm oder mehr realisieren?

Zuviel getrunken? Habe ich hier jemals von 65nm geredet?

ich sehe eine skalierung zu 96%, kannst mir ja gerne einen test suchen wo es angeblich schlechter ist

Du hast dir die Frage schon selber beantwortet. 96 sind nicht 100%.

Undertaker
2007-04-01, 18:49:00
Nicht relevant.

und wie relevant das ist - wenn du das thema nicht verstehst (was dir auch keiner vorwerfen kann, wenn du es halt noch nie gemacht hast), solltest du dir hier nicht deine eigene physik ausdenken ;)

Es geht nicht um die Temperatur, sondern um das abtragen von eben dieser.

und was denkst du wovon das bedingt wird? vom thermischen widerstand, den du ja halt nicht bestimmen kannst

Zuviel getrunken? Habe ich hier jemals von 65nm geredet?

ich zitiere dich:

Die Wärme wird sogar noch auf kleinere Flächen zusammenrücken, da der 45nm Prozess eine wenigere Verkleinerung bedeutet, trotz höheren Taktraten und noch mehr Cores. Das hatte ich von Anfang an schon berücksichtigt, mit einem Blick auf den Threadtitel wird klar warum.

daraus geht hervor, dass du deine 6ghz in einer gröberen struktur als 45nm realisieren willst (sonst wäre die fläche der 45nm cpu mit mehr kernen ja nicht kleiner ;)), und über 45nm kommt halt 65nm... du redest dich immer mehr in widersprüche hinein :D

Du hast dir die Frage schon selber beantwortet. 96 sind nicht 100%.

beim takt etwa?

Gast
2007-04-01, 19:02:22
und was denkst du wovon das bedingt wird? vom thermischen widerstand

Dann erzähl uns doch mal, wo genau die Cores bei 45nm sitzen werden und wie dort der thermische Widerstand aussieht. Viel Spaß beim vorhersagen von Ergebnissen bei Produkten die du noch nicht mal gesehen hast. :up:

daraus geht hervor, dass du deine 6ghz in einer gröberen struktur als 45nm realisieren willst (sonst wäre die fläche der 45nm cpu mit mehr kernen ja nicht kleiner ;)), und über 45nm kommt halt 65nm...

Da steht: Ich habe von Anfang an vom feineren 45nm Prozess geredet, mit einem Blick auf den Threadtitel wird klar warum.

Offensichtlich hast du die ganze Zeit am Thema vorbeigeredet. Klasse Leistung. :up:

Da steht eindeutig und in Kurzform: "... ich habe di du redest dich immer mehr in widersprüche hinein :D

Nicht ein einziges mal, aber du lernst es sicher noch.

Undertaker
2007-04-01, 19:12:20
Dann erzähl uns doch mal, wo genau die Cores bei 45nm sitzen werden und wie dort der thermische Widerstand aussieht. Viel Spaß beim vorhersagen von Ergebnissen bei Produkten die du noch nicht mal gesehen hast. :up:

Da steht: Ich habe von Anfang an vom feineren 45nm Prozess geredet, mit einem Blick auf den Threadtitel wird klar warum.

Offensichtlich hast du die ganze Zeit am Thema vorbeigeredet. Klasse Leistung. :up:



Nicht ein einziges mal, aber du lernst es sicher noch.

du hast nichts von dem was ich hier geschrieben habe auch nur annähernd verstanden. kommen wir zur ausgangsaussage zurück. du sagst, multicores sind sinnlos, wenn man einen singlecore zb auf 6ghz takten kann. ich habe gesagt, dass man anstatt einem 6ghz sc auch einen dualcore mit >2x4ghz bauen kann, der über eine deutlich höhere rechenleistung bei gleichem verbrauch -> gleicher abwärme -> gleicher bis minimal besserer kühlbarkeit (geht aus dieser formel hervor http://upload.wikimedia.org/math/f/0/1/f01f53bd7749c7cb39857402abf5168d.png) bauen könnte. mehr nicht. und das ist fakt, akzeptier es oder spiel weiter kindergarten

Gast
2007-04-01, 19:21:19
du hast nichts von dem was ich hier geschrieben habe auch nur annähernd verstanden.

Da du gerade bestätigt hast, am Thema vorbeigeredet zu haben, ist das nicht weiter tragisch. X-D

du sagst, multicores sind sinnlos, wenn man einen singlecore zb auf 6ghz takten kann.

Ich sagte Multicore wird sinnlos, wenn du wenige Prozessorkerne mit doppeltem Takt austatten könntest. Das schließt nicht aus, einen 4 Core Prozessor zu bauen, der einen höheren Takt als einen 8 Core Prozessor hat.

Darum ging es mir. Da du versuchst hast nicht veröffentlichte Produkte bereits zu bewerten und in irgendwelchen Formeln aufgehen zu lassen, wo noch nicht mal die Rahmenbedingungen wie Takt oder Verlustleistung klar sind, hast du dich nicht gerade clever gezeigt. Das Wahrsagen ist schon eine Kunst für sich. ;D

Undertaker
2007-04-01, 19:33:12
Da du gerade bestätigt hast, am Thema vorbeigeredet zu haben, ist das nicht weiter tragisch.

nein, ich habe nur geschrieben das dir die bildung zum verständnis fehlt, aber ärgere dich nicht darüber

Ich sagte Multicore wird sinnlos, wenn du wenige Prozessorkerne mit doppeltem Takt austatten könntest. Das schließt nicht aus, einen 4 Core Prozessor zu bauen, der einen höheren Takt als einen 8 Core Prozessor hat.

und ich habe bereits in meiner allerersten antwort gesagt, dass man dies eben nicht kann ;) eine cpu mit doppelter kernanzahl ist nuneinmal einfacher zu konstruieren als den takt zu verdoppeln, ein doppelter takt verursacht selbst bei identischer spannung bereits den doppelten verbrauch womit eine solche cpu viel zu stromfressend wäre

Darum ging es mir. Da du versuchst hast nicht veröffentlichte Produkte bereits zu bewerten und in irgendwelchen Formeln aufgehen zu lassen, wo noch nicht mal die Rahmenbedingungen wie Takt oder Verlustleistung klar sind, hast du dich nicht gerade clever gezeigt. Das Wahrsagen ist schon eine Kunst für sich. ;D

zähl doch einmal nach, wie viele links, formeln und quellen ich gebracht habe und wieviele du (ich habe exakt 0 gezählt). bist da nicht eher du der wahrsager?

Gast
2007-04-01, 19:45:56
nein, ich habe nur geschrieben das dir die bildung zum verständnis fehlt, aber ärgere dich nicht darüber

Der klügere weiß, das Leute, die so arrogant sind und über andere richten wollen, einen Sprung in der Schüssel haben. Ich kann damit gut leben. ;)

eine cpu mit doppelter kernanzahl ist nuneinmal einfacher zu konstruieren

Das ist falsch, die Konstruktion bleibt die gleiche.
Lediglich die Yieldrate wäre anders (nicht umbedingt geringer als bei doppelt so vielen Cores) und die Kühlung wäre eine andere.

zähl doch einmal nach, wie viele links, formeln und quellen ich gebracht habe

Keine einzigen die für diese Diskussion jemals relevant gewesen wären. Es gibt sie nämlich noch nicht.

Undertaker
2007-04-01, 19:55:58
Der klügere weiß, das Leute, die so arrogant sind und über andere richten wollen, einen Sprung in der Schüssel haben. Ich kann damit gut leben. ;)

Keine einzigen die für diese Diskussion jemals relevant gewesen wären. Es gibt sie nämlich noch nicht.

soll ich jetzt wirklich nocheinmal jeglichen physikalischen unfug wiederholen den du hier abgelassen hast? das leugnen von tatsachen ist eine arroganz, die eine völlig andere dimension besitzt. ich möchte nur eines deiner tollen argmente wiederholen:

"Das sind Schlüsselfaktoren, wenn du einen Prozessor kühlen willst, was unter dem HS passiert, ist nicht von Belang, weil die Wärme in jedem Falle abgeführt werden muss."

es ist einfach lachhaft. und ich argumentiere mit vollem herzblut dagegen, wie sich jemand so stur gegen die physik und die belehrung des besseren sträuben kann. wenn ich von einem thema keine/falsche kenntnisse habe, äußere ich mich nicht dazu. das hier studiere ich aber :rolleyes:

Das ist falsch, die Konstruktion bleibt die gleiche.
Lediglich die Yieldrate wäre anders (nicht umbedingt geringer als bei doppelt so vielen Cores) und die Kühlung wäre eine andere.

darum geht es nichteinmal, der begriff konstruktion war schlecht gewählt. ich habe nur rein theoretisch begründet, warum nur halbsoviele cores aber doppelter takt immer energieineffizienter sind. das thema ist nur, was technisch an transistormenge machbar sowie bezahlbar ist - außerdem muss natürlich die software entsprechend mitspielen, bis zu einem gewissen grad ist das aber in fast allen bereichen ersteinmal möglich.

Wuge
2007-04-01, 22:06:12
ich habe nur rein theoretisch begründet, warum nur halbsoviele cores aber doppelter takt immer energieineffizienter sind.

Das sehe ich anders. Ein Pentium 4 mit 3 Ghz ist z.B. sparsamer und leistungsstärker als ein Pentium D mit 1,5 Ghz.

Wenn man sich an die Grenzen bewegt (sprich, für mehr Takt auch deutlich mehr Spannung nötig ist) verschiebt sich das aber zu Gunsten des Dualcore. Umgekehrt: Je mehr Cores man verbaut, desto ineffizienter wird das Ganze - selbst gut programmierte Software skaliert nicht zu 100%.

Deine pauschale Aussage ist alles in allem nicht korrekt. Man muss differenzieren und bedenken, dass die Kühlbarkeit nicht die einzige technische Barriere darstellt.

BlackBirdSR
2007-04-01, 22:35:49
denn du unterschätzt den zusätzlich entstehenden Hotspot ganz gewaltig. Damit ein Prozessor stabil läuft, musst du ihn unter einer bestimmten Temperatur halten, was bei weniger Kernen immer noch einfacher ist, als bei vielen.

Nicht ganz richtig,
Dazu kommt, dass die Wärmenergie sehr schnell und lokal abgeführt werden muss. Da spielen Fläche der DIE und des HS erstmal wenig ein.


dann hast du meine antwort nicht ganz richtig gelesen ;)

beispiel:

ein dualcore mit zb 2*4,5ghz lässt sich mit 1,2v betreiben; ein singlecore mit 6ghz würde evntl 1,4v benötigen - und nun eine extrem vereinfachte rechnung zum stromverbrauch:

2*4,5*1,2² mal "normierungsfaktor" 5 = 64,8W

1*6*1,4² mal "normierungsfaktor" 5 = 58,8W

das was ich hier als "normierungsfakor" bezeichnet habe soll sozusagen den grundverbrauch der architektur darstellen, welcher multipliziert mit dem takt, der anzahl der kerne und der spannung im quadrat die übliche theoretische annäherungsweise berechnungsformel für den verbrauch ergibt.

man sieht, dass der verbrauch eines hochgetakteten singlecores nur wenig unter dem eines kleineren dualcores liegt, dh der kühlungsaufwand kaum steigt, die leistung pro watt dagegen erheblich

die Rechnung geht nicht auf. Bei 6GHz und 1.4V kommen Leckströme, parasitäre Effekte, Taktsignal etc mit ins Spiel. Die sind nicht mehr Vernachlässigbar. Der Verrbauch des SC würde mindestens das 2x von 58.8W erreichen. Der Dual-Core ist leichter zu kühlen.
Versuch die Spannung mal ^4 einfließen zu lassen. + Korrekturfaktor

Gast
2007-04-02, 11:04:27
So und was bringt es mir wirklich in der Praxis...

2x 4 GHz ~ 8 GHz

oder

4x 2 GHz ~ 8 GHz

... was arbeitet unter Windows schneller und besser ?

Undertaker
2007-04-02, 11:15:58
Das sehe ich anders. Ein Pentium 4 mit 3 Ghz ist z.B. sparsamer und leistungsstärker als ein Pentium D mit 1,5 Ghz.

wie man zb beim raytracing sieht, skaliert eine verdopplung der kerne mit etwa 96% praktisch perfekt und kaum schlechter als eine taktverdoppelung; der stromverbauch kann schonr ein theoretisch nicht höher sein, da eine taktverdoppelung schon allein auch die leistungsaufnahme verdoppelt, hinzu kommen notwendige höhere spannungen und auch wie von blackbird genannt höhere leckströme (diese werden wohl je nach architektur in sehr unterschiedlichen dimensionen ausfallen)

in der praxis ist wohl 2x4ghz fast immer besser als 4x2ghz, allerdings würde man aufgrund der genannten effekte wohl problemlos bei gleicher verlustleistung auch 4x3ghz anstatt 2x4ghz anbieten können, was dann wohl schon sehr häufig performancemäßig mehr sinn macht und als einzigen nachteil einen erhöhten transistorbedarf und damit höhere herstellungskosten mit sich bringt

Konami
2007-04-02, 12:16:22
Gefühlt würde wahrscheinlich sogar 4x 2 GHz besser laufen als 2x 4 GHz, aus dem einfachen Grund, dass fast immer ein Core wenig oder unbelastet ist und dadurch solche "kleinen" Tasks à la Fenster öffnen flüssiger ablaufen müssten, genau wie es bei HTT auch schon der Fall war.

Wenn es um die tatsächliche Performance bei einer oder zwei aufwendigen Anwendungen geht, ist das natürlich wieder was völlig anderes, dort müsste normalerweise der DC schneller sein, außer die Anwendung ist stark multithreadinglastig.

Botcruscher
2007-04-02, 12:55:52
Ich behaupte einfach mal das es so ziemlich egal ist, da der Mehrverbrauch im Verhältnis zum Restsystem zu vernachlässigen ist.

Wuge
2007-04-02, 14:18:03
der stromverbauch kann schonr ein theoretisch nicht höher sein, da eine taktverdoppelung schon allein auch die leistungsaufnahme verdoppelt

Das ist nicht richtig. Der Anteil an Leckströmen bleibt gleich, durch die Taktverdoppelung wird sich der Energieverbrauch unter Last bei ca. 170% einpegeln. IDDLE ändert sich fast nichts am Stromverbrauch. Jedenfalls ist das bei meinem System so.

Nimmt man einen zweiten Kern hinzu, steigert sich der Energieverbrauch sowohl unter Last als auch IDDLE auf 200%.

Dabei gehe ich davon aus, dass man den gleichen Herstrellungsprozess und die gleiche Spannung benutzt. Denn ich wollte lediglich Deine pauschale Aussage "albsoviele cores aber doppelter takt immer energieineffizienter sind" widerlegen.

Dass man in der Praxis immer an den Punkt kommt, wo der Grenznutzen aus der Taktsteigerung unwirtschaftlich wird, bestreite ich nicht.

--

Die ganze Diskusion erübrigt sich eigentlich, da man mit SC eben nicht die doppelte max. Taktfrequenz eines DC erreicht ohne an der Architektur oder an der Spannung etwas zu verändern.

Undertaker
2007-04-02, 14:38:09
Das ist nicht richtig. Der Anteil an Leckströmen bleibt gleich, durch die Taktverdoppelung wird sich der Energieverbrauch unter Last bei ca. 170% einpegeln. IDDLE ändert sich fast nichts am Stromverbrauch. Jedenfalls ist das bei meinem System so.

diese argumentation ist mir nicht ganz einleuchtend - selbst wenn man annimmt, dass der anteil der leckströme prozentual konstant bleibt, verdoppelt sich doch deren absoluter wert bei einer taktverdoppelung? real natürlich sogar noch weit mehr... insofern komme ich da doch wieder auf (>)=200% :confused:

edit: davon einmal unabhängig, gibt es irgendwo halbwegs gesicherte werte, in welchen größenordnungen sich leckströme bei aktuellen cpus bewegen? 0,1% vom gesammtverbrauch, 1%, 10%?

Gast
2007-04-02, 17:27:47
Gefühlt würde wahrscheinlich sogar 4x 2 GHz besser laufen als 2x 4 GHz, aus dem einfachen Grund, dass fast immer ein Core wenig oder unbelastet ist und dadurch solche "kleinen" Tasks à la Fenster öffnen flüssiger ablaufen müssten, genau wie es bei HTT auch schon der Fall war.

Ist meiner Meinung nach nicht mehr mit damals zu vergleichen.

Der Pentium 4 war eine Krücke gemessen am Core 2. Wer mit einem Pentium II oder III arbeitet, wird auch heute noch merken, wie die ganze Betriebssystemoberfläche lahmt!

Hätte der Pentium 4 10-12 GHz gehabt, was in etwa der Leistung eines Core 2 mit 2 Kernen entspricht, so wäre es wahrscheinlich nicht so stark aufgetreten.

Das zwei Kerne einen nutzen haben, ist unstrittig, aber man wird nie mehr den Effekt haben wie er bei Single -> Dual Core der Fall war.

Die kommende Generation wird dies noch stärker fortführen: Anstatt unbegrenzt zu werden, werden die bisherigen Kerne durch weitere virtuelle ergänzt.

Das ist insofern sinnvoll, als das dadurch wichtige Systemprozesse nicht darauf warten müssen, bis sie an der Reihe sind.

Wuge
2007-04-02, 18:15:23
selbst wenn man annimmt, dass der anteil der leckströme prozentual konstant bleibt, verdoppelt sich doch deren absoluter wert bei einer taktverdoppelung?

Eben nicht. Gewisse Verbrauchsanteile (ich bin mir nicht sicher ob das Leckströme oder etwas anderes ist) sind nahezu unabhängig vom Takt.

Das lässt sich bei meiner Grafikkarte prima nachmessen. Zwischen GPU-Takt 250 MHz und 621 MHz beträgt der IDDLE-Mehrverbrauch gerade mal etwa 10W und damit etwa 10% des Stromverbrauchs der Karte. Sicher, da kommt noch Speicher und andere Sachen hinzu. Dennoch kann man übern Daumen sagen, dass die GPU unabhängig von Takt und Auslastung schonmal gut 50W verbrät - je nach Taktfrequenz und Belastung kommt dann nochmal ein Teil dazu. Der Variable Teil steigt natürlich mit höherem Takt an, das ist klar.

Als Bsp (angenommene Werte):

Grundverlustleistung: 50W
dyn. Verbrauch bei 1000 MHz: 50W
Gesamtverbrauch: 100W

Das ganze Mal zwei, für Dualcore, 200W

Wenn man jetzt den Takt verdoppelt hätte man
Grundverlustleistung 50W
dyn. Verbrauch bei 2000 Mhz: 100W
Gesamtverbrauch: 150W

---

Verstehst Du was ich meine? Wo dieser von mir "Grundverbrauch" genannte Verlust herkommt weiß ich nicht. Er lässt sich aber durch Messungen belegen.


Sorry, versehentlich auf Editieren gekommen, statt Quote.
Wurde aber nichts geändert am Text

Undertaker
2007-04-02, 18:29:38
ok, jetzt ist mir klar worauf du hinauswillst - aber der nachweis ist bei einer graka wohl denkbar ungeeignet:

der core ist nicht der einzige stromfresser, es kommen noch ram, pcb (dh die bauelemente darauf) usw dazu... und all diese stromfresser sind gewiss nicht unbedeutend...

Wuge
2007-04-02, 18:38:38
Ja, habe ich ja auch beschrieben. Bei einer CPU zeigen sich jedoch die gleichen Effekte, wenn man nur den Takt ändert und die Spannung gleich lässt.

Es ging mir ja nur um die Tendenz, ich denke wir verstehen uns jetzt :)

Genug zur Theorie...
--

Für die Praxis bin ich auch der Meinung, man sollte zunächst den Takt - ohne zu starke Design-Kompromisse - ans Maximum des Fertigungsprozesses bringen und zusätzlich die Kernzahl erhöhen. So wird es ja derzeit auch gemacht.

EDIT: Takt-Maximum heißt, das was der Prozess bei moderater Spannung hergibt. Also keine 1.4V für den 65nm Prozess ;)

=Floi=
2007-04-02, 18:41:23
auch von dual auf quad kann man bei optimierten anwendungen nochmal einen sprung von über 60-90% feststellen...
gering ist dieser sprung trotzdem nicht

Gast
2007-04-02, 18:55:14
Jetzt wo du es sagst, ein ganz entscheidendes Detail wurde hier noch gar nicht angesprochen:

Die Skalierung mit der Taktrate im Gegensatz zum Multicore.

Höhere Taktraten wirken immer und auf jede Anwendung. Multicore nur dann, wenn die Anwendung darauf optimiert ist und auch nicht immer zu 100 %.

Selbst wenn die Programmierer dazu übergehen werden, alle Cores zu nutzen, eine 100%ige Auslastung hinzubekommen ist sehr schwierig bis hin zu unmöglich. Du weist z.B. Kern X die KI zu, aber da nicht immer so viel zu berechnen ist, liegt zu manchen Zeiten die Rechenleistung brach.

Daher sehe ich die Entwicklung von immer mehr Kernen eher mit einem weinendem Auge.

=Floi=
2007-04-02, 19:16:15
naja aber der C2D/C2Q (@OC) hat eben beides mehr takt und mehr cores
auch bringt irgendwann mehr takt auch nicht mehr linear mehr leistung! (uu kann dazu mal ein anderer user mal links zu threads und artikel posten)

nur mal als reines rechenbeispiel
ein C2Q mit 3,85Ghz hat ungefähr die theoretische leistung (3,85Ghz X 1,3 ) von 8X A64 mit 2,5ghz! (das wäre ein singlecore mit 20ghz oder ein dual core mit 10ghz)
soetwas ist mit 1 oder 2 cores garnicht realsisierbar

Gast
2007-04-02, 19:20:53
naja aber der C2D/C2Q (@OC) hat eben beides mehr takt und mehr cores

Mehr als was?
Die Frage ist nicht, wie sieht es heute aus, sondern wie sieht es übermorgen aus?
Penryn: Höhere Taktraten und mehr Leistung pro Takt = gut.
Nehalem: Mehr Cores, aber auch mehr Leistung pro Takt? Höhere oder geringere Taktraten? Das ist das große Fragezeichen.

auch bringt irgendwann mehr takt auch nicht mehr linear mehr leistung!

Das gilt immer, egal ob 1, 2, 4, 8, 16 Cores!

=Floi=
2007-04-02, 20:09:52
es kommt vor allem auf die rechenleistung pro takt an und die wird beim penryn nochmal (minimal) gesteigert und da aber dafür dann nochmal die taktrate
ein c2d mit 3ghz würde auch jetzt schon ausreichend sein aber die teile gehen auch so auf 3,5ghz
beim penryn werden wir auch die 4ghz beim quad sehen (@ luft)
hier bietet der core 2 mehr takt wie zb der a64 UND mehr rechenleistung pro mhz

beim nehalem wir man wieder die taktraten senken aber dafür nochmal die leistung pro mhz anheben


---
ich will nicht den A64 schlecht machen nur besitze ich selbigen @2,5ghz und eine verachtfachung der leistung wird mein größster sprung sein in den letzten jahren


edit
und selbst bei nicht optimierter software verdopple ich meine leistung bei einem core und bei 2 cores vervierfache ich sie

BlackBirdSR
2007-04-02, 20:54:43
Eben nicht. Gewisse Verbrauchsanteile (ich bin mir nicht sicher ob das Leckströme oder etwas anderes ist) sind nahezu unabhängig vom Takt.

Das lässt sich bei meiner Grafikkarte prima nachmessen. [...]


Das ganze Mal zwei, für Dualcore, 200W

Wenn man jetzt den Takt verdoppelt hätte man
Grundverlustleistung 50W
dyn. Verbrauch bei 2000 Mhz: 100W
Gesamtverbrauch: 150W

---

Verstehst Du was ich meine? Wo dieser von mir "Grundverbrauch" genannte Verlust herkommt weiß ich nicht. Er lässt sich aber durch Messungen belegen.



Du kannst dir sicher sein, dass Leckströme, Taktsignal und Schaltverbauch nicht unabhängig vom Takt sind.
Das mag bei einer GPU mit 600MHz gerade noch unkritisch sein, immerhin reden wir von 600MHz!
Aber bei einer CPU mit 4GHz ist es dann vorbei mit Pi*Daumen.
Sicherlich gibt es im System! einige Verbraucher, die einen nahezu konstanten Beitrag liefern. Die CPU gehört allerdings nicht dazu.
Das System dann im Idle-Zustand zu betrachten ist noch schlimmer. Dort sind die CPUs im Sleep/Deep Sleep/Deeper-Sleep Zustand. Eine Messung wäre höchstens unter Vollast jeweils bei 3GHz und z.B 1GHz zulässig. Dann kannst du ca erkennen wie viel Verlustleistung prozentual durch die Takterhöhen entsteht. Und dann kommt man wohl ziemlich sicher auf mehr als 100% bei doppeltem Takt.

Bei GPUs mit Glock-Gating etc ist das noch extremer....

Wuge
2007-04-02, 23:21:53
Du meinst eine CPU verbraucht bei doppeltem Takt (wenn alle anderen Umgebungsvariablen und insbesondere die Spannung identisch sind) mehr als doppelt so viel Energie?

Ich traue Dir die Kompetenz durchaus zu, kanns mir aber kaum vorstellen.

Also test ma mal (ich schreibe in Echtzeit ;):

Testsystem siehe Sig. CPU läuft mit 1.4V VCore. Gemessen wird an der Dose.

4.73 GHz
IDDLE : 292W
FullLoad: 360W

3.78 GHz
IDDLE: 284W
FullLoad: 335W

Problem bei der Sache, der Stromverbrauch wurde für das Gesamtsystem ermittelt. Man sieht zumindest, dass der Verbrauchsunterschied unter Iddle sehr gering ausfällt. Sicher weniger als 25% für die CPU. Unter Last jedoch mehr als die 25%. Sehr interessant.

Jetzt erklär mal warum das so ist, wenn Du Zeit dazu hast. Dankeschön :)

Nachtrag: Deep-Sleep und diese Späßchen kann meine CPU soweit ich weiß nicht. C1E ist auch deaktiviert.

BlackBirdSR
2007-04-03, 10:07:27
Du meinst eine CPU verbraucht bei doppeltem Takt (wenn alle anderen Umgebungsvariablen und insbesondere die Spannung identisch sind) mehr als doppelt so viel Energie?

Ich traue Dir die Kompetenz durchaus zu, kanns mir aber kaum vorstellen.

Also test ma mal (ich schreibe in Echtzeit ;):

Testsystem siehe Sig. CPU läuft mit 1.4V VCore. Gemessen wird an der Dose.

4.73 GHz
IDDLE : 292W
FullLoad: 360W

3.78 GHz
IDDLE: 284W
FullLoad: 335W

Problem bei der Sache, der Stromverbrauch wurde für das Gesamtsystem ermittelt. Man sieht zumindest, dass der Verbrauchsunterschied unter Iddle sehr gering ausfällt. Sicher weniger als 25% für die CPU. Unter Last jedoch mehr als die 25%. Sehr interessant.

Jetzt erklär mal warum das so ist, wenn Du Zeit dazu hast. Dankeschön :)

Nachtrag: Deep-Sleep und diese Späßchen kann meine CPU soweit ich weiß nicht. C1E ist auch deaktiviert.

Es ist wirklich ein Problem, dass du nur das Gesamtsystem messen konntest.
Es läuft folgender Maßen:

Du kannst die Umgebungsvariablen nicht konstant halten. Zumindest die Temperatur und Energie innerhalb der CPU steigt spürbar an. Neben den mehr oder weniger linearen EInflussgrößen, wie Schaltverluste, Taktsignal und Ähnliches kommen jetzt erhöhte Leckströme ins Spiel.
Je höher die Temperatur, desto mehr verschieben sich einige Variablen. Transistoren sperren nicht mehr so schnell/komplett. Andere zünden zu früh. Leckströme ins Substrat und durchs Gate treten in größeren Summen auf.

Schon heute ist einer der größte Anteile an der Verlustleistung rein auf Leckströme zurückzuführen. Dass du bei Idle geringere Anstiege misst, liegt an der geringeren Temperatur, den verringerten Leckströmen und Sparmaßnahmen der CPU (z.B schlafengelegte Caches). Es bleiben die statischen Leckströme, die schlimm genug sind.

Wie es anders geht, zeigen Messungen von K8 mit 1GHz und 1.1V. Dort verringert sich der Anteil an statischen Leckströmen sehr stark.

Es wäre viel besser eine Messung bei 1-2GHz unter Last, mit 3.7GHz unter Last zu vergleichen.

Übrigens: 4.7GHz? wie wird die CPU denn gekühlt. Wenn du die Temperatur weit absenkst, verschiebt sich das natürlich ins unrealistische Spektrum für Aussagen in der Praxis.

Wuge
2007-04-03, 11:58:15
Danke für die Ausführungen. An die Temperatur hatte ich nicht gedacht.

Was den K8 bei 1 Ghz angeht, mag ja technisch interessant sein. In der Praxis nehme ich dann trotzdem lieber 50W Verlustleistung in Kauf und takte mit 2-3 Ghz.

Kannst Du auch erklären, warum der G80 so energiehungrig ist? Das Ding genehmigt sich Iddle mehr als 1/3 des Gesamtverbrauchs bei mir.

--

Ich habe mirs für den Test recht leicht gemacht. FSB 315 gelassen und nur den Multi von 12 auf 15 mit RMClock geändert.

Die CPU wird mit Wasser gekühlt. Bei 4.7 GHz, 1.4V und Last erreicht man dann Temperaturen, die für ein C2D-Stock System mit Luft normal sind.... Also nicht Sub-Zero. Es ist ein Presler, da sind die 4.7 Ghz ja nicht so dramatisch viel.

Gast
2007-04-03, 14:01:06
Kannst Du auch erklären, warum der G80 so energiehungrig ist? Das Ding genehmigt sich Iddle mehr als 1/3 des Gesamtverbrauchs bei mir.

Der G80 ist so energiehungrig im IDLE, weil er keinerlei Stromsparmechanismen besitzt. Beim G70/G71 sah es genauso aus, hat sich nur nicht so drastisch ausgewirkt, da die TDP afaik nur bei 95 W lag, die GTX hat aber bis zu 185 W. Aber das Verhältnis von Last zu IDLE ist nahezu konstant geblieben.

BlackBirdSR
2007-04-03, 16:13:13
Kannst Du auch erklären, warum der G80 so energiehungrig ist? Das Ding genehmigt sich Iddle mehr als 1/3 des Gesamtverbrauchs bei mir.



Ist doch bereits geklärt und oft bemängelt worden.
Anscheinend schickt der Chip große Bereiche nicht in den Schlafzustand. Nimmt also weder das Taktsignal weg, noch hört er auf sie zu versorgen.
Die Folge sind statische und dynamische Leckströme. Und da diese heut zu Tage einen großen Teil der Verlustleistung ausmachen, hast du die Soße.

Nur eine kurze Frage: Warum eigenlich iddle?

Wuge
2007-04-03, 17:04:26
Du fragst Sachen ;) Hab mein english überarbeitet und werde euch das überflüssige "d" künftig ersparen...

Dachte nicht dass sich die Leckströme so enorm auswirken...

Gast2
2007-04-03, 21:01:13
ein c2q kann doch garnicht so eine solche leistung entwickeln??? sobald alle 4 kerne voll ausgelastet sind kommt der flaschenhals fsb zum tragen und er sinkt in der pro/mhz leistung pro core unter die eines k8

Undertaker
2007-04-03, 21:18:08
ein c2q kann doch garnicht so eine solche leistung entwickeln??? sobald alle 4 kerne voll ausgelastet sind kommt der flaschenhals fsb zum tragen und er sinkt in der pro/mhz leistung pro core unter die eines k8

nö, oder hast du eine quelle die das zeigt ;)

http://www.computerbase.de/artikel/software/2007/bericht_raytracing_spielen/5/#abschnitt_performance

skaliert wunderbar, der fsb ist dank 8mb l2 noch lange kein flaschenhals

Gast2
2007-04-03, 21:37:41
http://www.pcmasters.de/forum/prozessoren/6568-xeon-x5355-vs-opteron-8218-a.html

den thread hab ich dazu per google gefunden

Botcruscher
2007-04-03, 21:37:59
Hängt auch entscheidend von der Anwendung ab.

Undertaker
2007-04-03, 21:43:40
http://www.pcmasters.de/forum/prozessoren/6568-xeon-x5355-vs-opteron-8218-a.html

den thread hab ich dazu per google gefunden

das dort verlinkte bild (http://innix.de/temp/INTELvsAMD.jpg) zeigt außer ein paar theoretischen benches leider gar nix... da bräuchte es schon den gesammten artikel :)

Gast
2007-04-14, 05:44:17
Es gibt da noch ein Detail...

Jeder kennt sicher Memtest oder Programme, die die Cacheleistung messen können.

Da fällt eindeutig auf, das sich die Bandbreite des L1 und L2 Caches enorm erhöht, je weiter man die CPU übertaktet.

Es gibt enorme Unterschiede von teilweise >10 GB/s beim Standardbetrieb vs. z.B. 3,8 GHz. Die Latenz sollte sich ebenfalls verringern?

Ist das nicht auch ein Grund, der für einen Prozessor mit weniger Kernen spricht?

Wenn wir mal einen 3,8 GHz Dual Core und einen 2,13 GHz Quad Core vergleichen und die Anwendung alle Kerne nutzt. Ist der Dual Core dann nicht auch im Vorteil, weil er seinen Cache viel schneller ansprechen bzw. mit mehr Daten versorgen kann?

Laut EVEREST ist sogar ein stark übertakteter E6600 bei manchen Benches schneller als 4x2,33 GHz Xeon. :eek:

Wuge
2007-04-14, 10:10:30
Schon, mit höherem Takt skalieren alle Einheiten. Also nicht nur der Cache sondern auch Decoder, Ausführungseinheiten, Registerfile etc.

Bei Dualcore ist dafür alles doppelt vorhanden ;)

Undertaker
2007-04-14, 10:10:39
das ist aber durch den höheren takt auch nötig... wie bei einer grafikkarte, die ich von 500/500 auf 600/600 übertakte, die kann auch maximal 20% schneller werden, da entweder core oder speicher limitieren ;)

Malabolge
2007-04-14, 13:14:34
nö, oder hast du eine quelle die das zeigt ;)

http://www.computerbase.de/artikel/software/2007/bericht_raytracing_spielen/5/#abschnitt_performance

skaliert wunderbar, der fsb ist dank 8mb l2 noch lange kein flaschenhals


Klar alle Daten die Du brauchst liegen auch immer schön in deinen 8mb Cache ! Wozu also noch X Gig Hauptspeicher , 8mb L2 genügen doch :wink:
und 640 Kb sind genug für alle :smile:

Der FSB wird bei grösseren Datenmengen "immer" zum Flaschenhals.

Gast
2007-04-14, 13:44:51
skaliert wunderbar, der fsb ist dank 8mb l2 noch lange kein flaschenhalsWie Malabolge schon sagte, kommt das ganz auf die Anwendung an.