PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Verbrauch P4 - A64 0.13 - A64 0.09


mapel110
2004-10-04, 18:12:50
http://techreport.com/onearticle.x/7417

reunion
2004-10-04, 19:38:14
Schon zeimlich krassen unterschied, speziell wenn man bedenkt das der P4 auch noch der langsamste Prozessor ist:

http://techreport.com/etc/2004q4/90nm-power.gif

dildo4u
2004-10-04, 19:46:03
unssiniger vergleich da die mainboards unterschiedlich viel watts brauchen

BK-Morpheus
2004-10-04, 19:46:42
Schon zeimlich krassen unterschied, speziell wenn man bedenkt das der P4 auch noch der langsamste Prozessor ist:

Stimmt...vor allem nice ist ja, dass der A64 3500+ in 90µm (oder nm, wie schreibt man's?) unter Last (beim encoden mit Xmpeg) soviel verbraucht, wie der P4 3,4 mit 90µm im Ildebetrieb verbrät.

Außerdem war C&Q ja nicht an, also im IDLE ist der A64 dann ja noch sparsamer, allerdings finde ich es gut, dass es aus war, da man so besser vergleichen kann (sonst hätten sie den P4 ja auch untertakten können und mit weniger Vcore betreiben).

mapel110
2004-10-04, 19:51:20
unssiniger vergleich da die mainboards unterschiedlich viel watts brauchen

allzuviel unterschied in der Leistungsaufnahme dürfte es nicht geben zwischen ddr1 und ddr2 speicher. ansonsten sind die Boards ähnlich ausgestattet.

Gast
2004-10-04, 19:55:34
ich glaube di a64 boards waren identisch

dildo4u
2004-10-04, 19:55:51
allzuviel unterschied in der Leistungsaufnahme dürfte es nicht geben zwischen ddr1 und ddr2 speicher. ansonsten sind die Boards ähnlich ausgestattet.
Naja laut der neusten pcgh brauchen pci express GK mher leistung da sieh whol mher strom über den steckplatz ziehen als die agp karten ausserdem ist ja auf dem a64 Board ja nun auch nicht mher so viel los wegem dem integriertem Speicherkontoller sieht man auch daran das fast alle A64 Boards kein aktiv lüfter mher haben

Gast
2004-10-04, 19:58:42
Naja laut der neusten pcgh brauchen pci express GK mher leistung da sieh whol mher strom über den steckplatz ziehen als die agp karten ausserdem ist ja auf dem a64 Board ja nun auch nicht mher so viel los wegem dem integriertem Speicherkontoller sieht man auch daran das fast alle A64 Boards kein aktiv lüfter mher haben
ändert aber nix daran, das der proz wenn er belastet wird, mehr verbraucht.

mapel110
2004-10-04, 20:00:41
Naja laut der neusten pcgh brauchen pci express GK mher leistung da sieh whol mher strom über den steckplatz ziehen als die agp karten ausserdem ist ja auf dem a64 Bord ja nun auch nicht mher so viel los wegem dem integriertem Speicherkontoller sieht man auch daran das fast alle A64 Bords kein aktiv lüfter mher haben

es wurde doch der gesamte Verbrauch gemessen. warum sollte dann eine PCIe-Graka insgesamt mehr Strom verbrauchen?

oh, und jetzt ists der Speicherkontroller, der 50 watt zieht, wenn er nicht in der CPU integriert ist? krass.

BK-Morpheus
2004-10-04, 20:01:44
Das klingt ja so, als sei das ein unfairer Vergleich weil der SPeichercontroller im A64 integriert ist.
Klar ist das so, aber wenn dadurch der Stromverbrauch etwas geringer ausfällt ist das ja umso besser.

dildo4u
2004-10-04, 20:02:44
es wurde doch der gesamte Verbrauch gemessen. warum sollte dann eine PCIe-Graka insgesamt mehr Strom verbrauchen?

oh, und jetzt ists der Speicherkontroller, der 50 watt zieht, wenn er nicht in der CPU integriert ist? krass.
sorry das sollte nicht anti amd oder sonst was sein nur macht es bei p4 halt ein größeren unterschied was für ein Bord genutzt wird als beim A64 wie gesagt ich find den test an sich einfach nicht genau.

mapel110
2004-10-04, 20:04:52
sorry das sollte nicht anti amd oder sonst was sein nur macht es bei p4 halt ein größeren unterschied was für ein Bord genutzt wird als beim A64 wie gesagt ich find den test an sich einfach nicht genau.

man kann ja schlecht auf dem selben mainboard testen, aber ein ddr1-board für p4 wäre sicher besser gewesen.

CrazyIvan
2004-10-04, 20:29:01
sorry das sollte nicht anti amd oder sonst was sein nur macht es bei p4 halt ein größeren unterschied was für ein Bord genutzt wird als beim A64 wie gesagt ich find den test an sich einfach nicht genau.

Wie definierst Du genau? Ich finde, der Test ist genau genug. Denn selbst wenn ich 20 Watt Toleranz gebe, ist das Ergebnis ja wohl eindeutig.

dildo4u
2004-10-04, 20:37:04
Wie definierst Du genau? Ich finde, der Test ist genau genug. Denn selbst wenn ich 20 Watt Toleranz gebe, ist das Ergebnis ja wohl eindeutig.
Naja ich finde halt das der test den eindruck vermittelt das nur die cpu "schuld" an der erhöten verlustleistung ist man hätte ja wenigstens ca aufzeigen können was einzelne koponeten wie GK Board und cpu brauchen und sie haben auch nicht angegeben wo sie gemessen haben da der P4 andere leitungen
belastet als der A64 können sich da schon die messungen verschieben.

CrazyIvan
2004-10-04, 20:47:01
Die werden ganz einfach mit nem Multimeter die komplette Leistungsaufnahme des gesamten Systems gemessen haben.

Gehen wir doch mal von der folgenden hypothetischen Annahme aus:
Der Stromverbrauch des Prozessors im idle-Zustand ist vernachlässigbar. Alles was in diesem Zustand verbraucht wird, kann auf die Peripherie zurückgeführt werden. Ziehe ich also die idle-Werte von den Last-Werten ab, komme ich auf folgende Zahlen:

Athlon64 90nm:
39 Watt Differenz

Athlon64 130nm:
48 Watt Differenz

Pentium 4:
85 Watt Differenz

P.S.
Bitte keine Belehrung, dass diese Annahme falsch ist. Ich will damit nur die Sachlage vedeutlichen.

StefanV
2004-10-04, 20:47:43
Die werden ganz einfach mit nem Multimeter die komplette Leistungsaufnahme des gesamten Systems gemessen haben.
Das schreiben sie sogar ;)

dildo4u
2004-10-04, 20:58:23
Das schreiben sie sogar ;)
Und zwischen welchen leitungen mißt man die?

CrazyIvan
2004-10-04, 21:15:48
Na vielleicht zwischen Steckdose und Netzteil, schonmal daran gedacht? ;)

GloomY
2004-10-04, 21:46:10
Kann man davon ausgehen, dass C'n'Q bei der Mehrzahl der Boards auf Anhieb nicht funktioniert, oder warum wurde der A64 ohne getestet?

Übrigends verbraucht DDR2 Speicher eher weniger Strom als DDR1 (u.a. wegen der halbierten Taktung des Speicher-Cores). Der P4 hat beim Vergleich der Prozessorverlustleistung also noch einen kleineren Vorteil von ein paar Watt.

VooDoo7mx
2004-10-04, 21:48:37
Wieso ist da kein 3,4GHz Northwood dabei? Welches Stepping hat der Prescott?

Fragen über Fragen. Ansonsten nichts neues.

StefanV
2004-10-04, 21:49:59
Kann man davon ausgehen, dass C'n'Q bei der Mehrzahl der Boards auf Anhieb nicht funktioniert, oder warum wurde der A64 ohne getestet?
Naja, dann hätten die Intel CPUs ganz dumm im Regen gestanden ;)

@V7mx

Warum sollte man ein Auslaufmodell testen, das es nichtmal mehr für den neuen Sockel gibt?!

Blacksoul
2004-10-04, 21:58:14
Wieso ist da kein 3,4GHz Northwood dabei? Welches Stepping hat der Prescott?

Fragen über Fragen. Ansonsten nichts neues.


Natürlich ist das was neues, da man im anderen Theard teilweise davon ausging, dass der 0.09µ A64 mehr verbrät als die 0.13µ-Version.
Beim P4 ist allerdings wirklich nichts neues, da gebe ich dir recht. (;))


t.blacksoul.d

BlackArchon
2004-10-04, 22:00:46
Wenn ich dieses Diagramm sehe, dann warte ich sehnsüchtig auf 90 nm Athlon64-CPUs für Sockel 754.

Gandharva
2004-10-04, 22:04:15
Natürlich ist das was neues, da man im anderen Theard teilweise davon ausging, dass der 0.09µ A64 mehr verbrät als die 0.13µ-Version.
Beim P4 ist allerdings wirklich nichts neues, da gebe ich dir recht. (;))


das stimmt so nicht. es wurde lediglich darüber geredet, das der 90nm a64 wärmer wird als der 130nm a64. da gings nicht um die leistungsaufnahme.

mapel110
2004-10-04, 22:39:23
Wenn ich dieses Diagramm sehe, dann warte ich sehnsüchtig auf 90 nm Athlon64-CPUs für Sockel 754.

glaube kaum, dass AMD uns den gefallen tun wird. Es sei denn, sie stellen wirklich die komplette Produktion um.

das stimmt so nicht. es wurde lediglich darüber geredet, das der 90nm a64 wärmer wird als der 130nm a64. da gings nicht um die leistungsaufnahme.

Jup, eben wegen der geringeren Fläche, um die Wärme abzugeben.

StefanV
2004-10-04, 22:40:25
glaube kaum, dass AMD uns den gefallen tun wird. Es sei denn, sie stellen wirklich die komplette Produktion um.
Davon gehe ich mal aus.

Wobei es auch nicht wirklich viel aufwand ist, so ein DIE auf ein S754 Package zu packen ;)

Die Frage ist doch eigentlich nur, was AMD mit dem S754 vor hat...

Brillus
2004-10-04, 22:45:13
Ich habe mir den Test aus Zeit gründen nicht durchgelesen, aber wenn gleich wertige Perherie verwendet wurde und davon geh ich jtzt einfach mal aus sehe ich es als fair an die komplette Systemaufnahme zu benutzen für den Vergleich zu benutzen. Da man ja eigentlich wissen will wenns um Verlustleistung geht wieviel die Architektur insgesamt verbraucht was bring es wenn man z.B einen Proz hat der nur 10 Watt verbraucht aber alle Chipsätze die er hat >150 Watt(ja ich weis ich etwas überspitzt).

Wenn nun mal ein CPU Aufgaben des Chipsatzes übernimmt(hier Speichercontroller) wird er nun mal heißer als wenn er es nicht tun würde und Verbraucht mehr andererseits verbraucht der Chipssatz dann aber auch weniger.

Quasar
2004-10-04, 22:45:30
es wurde doch der gesamte Verbrauch gemessen. warum sollte dann eine PCIe-Graka insgesamt mehr Strom verbrauchen?

Größere Verluste durch mehrfache Wandlung/Glättung/Sonstwas anstelle des direkten Weges Netzteil-Graka?

edit:
Zum Schaubild von TR:
112W idle finde ich auch für den 90nm-AMD64 hammerviel.

mapel110
2004-10-04, 22:47:14
Größere Verluste durch mehrfache Wandlung/Glättung/Sonstwas anstelle des direkten Weges Netzteil-Graka?

Wieviel Milliwatt gehen denn bei sowas üblicherweise drauf?

StefanV
2004-10-04, 22:47:56
Naja, die Effizienz der Regler liegt bei etwa 80-90%...

Quasar
2004-10-04, 22:50:47
Naja, die Effizienz der Regler liegt bei etwa 80-90%...
Und jetzt gehen wir mal von 70W aus, die durch das Mainboard zur Graka gehen.

StefanV
2004-10-04, 22:52:18
+14W, wenn ich mich nicht verschätzt hab.

BK-Morpheus
2004-10-04, 22:54:17
edit:
Zum Schaubild von TR:
112W idle finde ich auch für den 90nm-AMD64 hammerviel.
Naja, es ist ja das ganze Sys und nicht nur die CPU und ich finde das dann schon ganz nice zumal C&Q ja nicht an ist.

Gast
2004-10-04, 22:56:42
Ist euch was bei den 3dcenter news aufgefallen? Ich zitiere mal:

"... Nun denn, im Test der AMD-Prozessoren, wo sich zwischen 90nm- und 130nm-Fertigung an den Prozessoren selbst gar nichts geändert hat, kann der 90nm Prozeß seine Schlagkräftigkeit endlich einmal unter Beweis stellen: Ein gleich getakteter und mit gleicher Cache-Größe versehener 90nm AMD-Prozessor kam auf 18,5 Prozent weniger Leistungsaufnahme als sein 130nm-Pendant. Dies ist natürlich nicht wirklich viel (rein theoretisch sollten es 30-40 Prozent sein) und deutet schon an, daß bei 90nm der Effekt der stark ansteigenden Leckströme durchaus zuschlägt - aber dennoch ist mit dem 90nm Prozeß prinzipiell ein Gewinn bezüglich der Senkung der Leistungsaufnahme erreichbar."


Wenn die Leistungsaufnahme des gesamten Systems durch den neuen Prozessor um 18,5% fällt, kann man doch nicht behaupten, dass die Leistungsaufnahme des neuen Prozessors nur um 18,5 Prozezent gefallen ist!

Gehen wir mal davon aus, dass der alte A64 3500+ etwa 65 Watt unter Last verbraucht hat. Insgesamt ist die Leistungsaufnahme unter Last um 29 Watt gesunken. Wenn man die Verlustleistung des Netzteils nicht berücksichtigt, ich weiß nicht genau wieviel das ausmacht, kommt man auf gerade mal 36 Watt unter Last, also 45% weniger Verlustleistung.

Quasar
2004-10-04, 23:00:04
Naja, es ist ja das ganze Sys und nicht nur die CPU und ich finde das dann schon ganz nice zumal C&Q ja nicht an ist.

Wenn es inkl. Display ist - ok. Aber sonst ist das IMO ein schlechter Scherz, 112W fürs nichtstun zu verbraten. Solange sich das nicht grundlegend ändert, sind aktuelle Rechner eigentlich nur abzulehnen.

reunion
2004-10-04, 23:06:28
Wenn es inkl. Display ist - ok. Aber sonst ist das IMO ein schlechter Scherz, 112W fürs nichtstun zu verbraten. Solange sich das nicht grundlegend ändert, sind aktuelle Rechner eigentlich nur abzulehnen.

Aktiviere C&Q und schon hast du deutlich weniger verbrauch...
Und das mit der Leistung auch (fast) immer die Leistungsaufnahme steigt ist ja nichts neues...

diedl
2004-10-04, 23:41:05
Aktiviere C&Q und schon hast du deutlich weniger verbrauch...
Und das mit der Leistung auch (fast) immer die Leistungsaufnahme steigt ist ja nichts neues...

eben gerade nicht. Wenn die neue CPU im IDLE z.B. 32 W verbraucht,
kannst du eben auch nur noch max. 32W einsparen.
Was dann immer noch 80 Watt sind (für's absolute nichtstun). Außerdem verbrät die CPU auch
mit C&Q mehr als 0 Watt.

mfg diedl

BK-Morpheus
2004-10-04, 23:49:19
Wenn es inkl. Display ist - ok. Aber sonst ist das IMO ein schlechter Scherz, 112W fürs nichtstun zu verbraten. Solange sich das nicht grundlegend ändert, sind aktuelle Rechner eigentlich nur abzulehnen.
Da alleine der Monitor (wenns Kein TFT ist) ~100Watt verbraucht wäre das ja nen Witz.....

Hier haben ja irgnedwo schonmal Leute ihr System gemessen und die meisten verbrauchten mit ner mittelschnellen Kiste im IDLE um die 100 Watt und drüber, wobei so ein A64 3500+ schon recht flott ist..also ich finde den Verbrauch ganz ok.

Denniss
2004-10-04, 23:57:23
Die Messung erfolgte ohne Monitor an der Steckdose bzw an der Stromzuleitung wenn ich den Test richtig gelesen habe .

Bei den 1xx Watt ist auch die Effizienz des Netzteil mit einzubeziehen das ja keine 100% Umwandlung liefert .

GloomY
2004-10-05, 00:05:42
Ist euch was bei den 3dcenter news aufgefallen? Ich zitiere mal: [...]

Wenn die Leistungsaufnahme des gesamten Systems durch den neuen Prozessor um 18,5% fällt, kann man doch nicht behaupten, dass die Leistungsaufnahme des neuen Prozessors nur um 18,5 Prozezent gefallen ist!

Gehen wir mal davon aus, dass der alte A64 3500+ etwa 65 Watt unter Last verbraucht hat. Insgesamt ist die Leistungsaufnahme unter Last um 29 Watt gesunken. Wenn man die Verlustleistung des Netzteils nicht berücksichtigt, ich weiß nicht genau wieviel das ausmacht, kommt man auf gerade mal 36 Watt unter Last, also 45% weniger Verlustleistung.Ja, das ist eine wichtige Beobachtung. 18% weniger Leistungsaufnahme insgesamt heisst eben nicht, dass der Prozessor nur 18% weniger Verlustleistung besitzt.Wenn es inkl. Display ist - ok. Aber sonst ist das IMO ein schlechter Scherz, 112W fürs nichtstun zu verbraten. Solange sich das nicht grundlegend ändert, sind aktuelle Rechner eigentlich nur abzulehnen.Let me give you the test setup briefly. We compared power consumption by measuring power usage for our entire testbed system, sans monitor"sans"=ohne (fr.)
Es sind also 112 W ohne Monitor und ohne C'n'Q.
Die Messung erfolgte ohne Monitor an der Steckdose bzw an der Stromzuleitung wenn ich den Test richtig gelesen habe .

Bei den 1xx Watt ist auch die Effizienz des Netzteil mit einzubeziehen das ja keine 100% Umwandlung liefert .Richtig.

btw: Spekulationsforum?

diedl
2004-10-05, 00:19:25
Die Messung erfolgte ohne Monitor an der Steckdose bzw an der Stromzuleitung wenn ich den Test richtig gelesen habe .

Bei den 1xx Watt ist auch die Effizienz des Netzteil mit einzubeziehen das ja keine 100% Umwandlung liefert .

Und genau dort, nämlich beim Netzteil könnte man auch schon heute, wohl
am meisten einsparen. Wäre eigentlich einen neuen Thread wert.
Welche Netzteile haben die höchste Effizienz?
Habe in der Richtung bis jetzt nur sehr wenig gesehen.
Ein einheitliches Testverfahren mit unterschiedlichen Lastbedingungen
wäre hier nicht schlecht.
Um zum eigentlichen Test zu kommen, wer sagt denn ob dass verwendete
Netzteil bei höheren Belastungen nicht einen schlechteren Wirkungsgrad hatte. Sodas die wirklichen Unterschiede geringer sind. (Umgekehrt könnte
es natürlich auch sein).

mfg diedl

HOT
2004-10-05, 07:49:58
Was ist an 112W Idle ohne C&Q so schlimm? Sicher, toll ist das nicht, aber man bedenke, dass es nicht nur die CPU ist, die den Strom verballert. Mit einer modernen GraKa drin ist das sogar eher wenig.
Mit C&Q sollte es nochmal nen Sprung geben, dann werden wir aus sehen, wie schlimm sich die Leckströme wirklich auswirken.
Ich finde das beeindruckend, dass ein A64 im ähnlichen Fertigungsprozess wie der Prescott unter Last fast 1/3 weniger verbraucht. Nein Falsch, der ganze Rechner braucht 1/3 weniger! Das spricht Bände, denn das würde bedeuten, dass der A64 unter Last etwa die Hälfte an Strom im Vergleich zum Prescott brauchen würde. Aua.

Kurgan
2004-10-05, 08:23:29
Und genau dort, nämlich beim Netzteil könnte man auch schon heute, wohl
am meisten einsparen. Wäre eigentlich einen neuen Thread wert.
Welche Netzteile haben die höchste Effizienz?
Habe in der Richtung bis jetzt nur sehr wenig gesehen.
Ein einheitliches Testverfahren mit unterschiedlichen Lastbedingungen
wäre hier nicht schlecht.
Um zum eigentlichen Test zu kommen, wer sagt denn ob dass verwendete
Netzteil bei höheren Belastungen nicht einen schlechteren Wirkungsgrad hatte. Sodas die wirklichen Unterschiede geringer sind. (Umgekehrt könnte
es natürlich auch sein).

mfg diedl

c´t netzteil-tests ;)
beim letzten hat ein seasonic ss-350fb (77% bei 80% last) am besten abgeschnitten. im schnitt kommen die teile etwa auf 70-75% wirkungsgrad bei 80% belastung. wobei man noch erwähnen sollte, das je kleiner die belastung ist auch der wirkungsgrad abschmiert ;) .. mir ist kein nt bekannt, bei dem sich der effekt umkehren würde ...

btw: 112w idle ohne monitor ist wirklich gut für ein "normal" ausgestattes system. leiht euch bei eurem energieversorger (oder kaufen: energy check 3000 von conrad, 25€) doch mal ein leistungsmessgerät und testet was eure kisten so saugen wenn sie einfach überhaupt nix tun ausser auf die schnecke vor dem monitor zu warten ;) ... da dürfte einigen schlecht werden wenn man bedenkt das ein kw etwa 16ct kostet und sie die kiste 24/7 laufen haben :) (vor allem die witzbolde die seti oder ähnliche lasterhöher laufen haben ;D )

ach ja monitor: röhre um die 100w und tft bis zu 50w, meist aber um die 35-40

diedl
2004-10-05, 08:58:13
Was ist an 112W Idle ohne C&Q so schlimm? Sicher, toll ist das nicht, aber man bedenke, dass es nicht nur die CPU ist, die den Strom verballert. Mit einer modernen GraKa drin ist das sogar eher wenig.
Mit C&Q sollte es nochmal nen Sprung geben, dann werden wir aus sehen, wie schlimm sich die Leckströme wirklich auswirken.
Ich finde das beeindruckend, dass ein A64 im ähnlichen Fertigungsprozess wie der Prescott unter Last fast 1/3 weniger verbraucht. Nein Falsch, der ganze Rechner braucht 1/3 weniger! Das spricht Bände, denn das würde bedeuten, dass der A64 unter Last etwa die Hälfte an Strom im Vergleich zum Prescott brauchen würde. Aua.

Sicher ist es ganz toll dass der neue A64 so wenig (im Vergleich) verbraucht.
Nur müssen halt die anderen Bauteile mitziehen.
Die Einstellung na 112 Watt sind ja gar nicht so viel, hilft da leider nicht weiter.
Wenn es ein Notebook wäre, würde das Geschrei groß sein.
Bei den angesprochenen Grafikkarten sehe ich den hohen Verbrauch unter 3D (wenn auch Zähneknirschend) irgendwo ein, aber unter 2D?
Ist es denn wirklich so schwer ein vernünftiges Powermanagement bei
Desktop PCs einzubauen?
Die Spannungswandler auf den Mainboard sollten auch einen besseren
Wirkungsgrad bekommen. Eventuell doppelt aufgebaut (einmal optimiert für
geringe Leistungsabgabe, und einen Zweig für viel Leistung).
So wie es jetzt ist, ist man leider immer noch "gezwungen" sich
zwei PCs aufzubauen.
Die 112 Watt relativieren sich allerdings wenn ich mir die verwendete
Peripherie angucke. 1GB DDR 533, Geforce 6800GT, wenn dort ein Powermanagement greifen würde, könnte zusammen mit C&Q die
Verlustleistung zumindestens im Idle schnell mal (fast) halbiert werden.

mfg diedl

Quasar
2004-10-05, 09:13:33
Da alleine der Monitor (wenns Kein TFT ist) ~100Watt verbraucht wäre das ja nen Witz.....


Ein Witz war es in der Tat, wenn auch offenbar etwas zu versteckt (s. GloomYs Posting weiter unten ;)).
Allerdings sehe ich nicht ein, 112W (mit C'n'Q meinetwegen dann auch 90W) aus dem Stromnetz zu entnehmen (das Netzteil ist mir in der Beziehung genauso ein Dorn im Auge, eben weil es so viel Leistung verschenkt, nur um 10 oder 20 EUR billiger in der Produktion zu sein), nur damit der Rechner schlicht und ergreifend 'an' ist.

Notebooks und die darin verbauten Komponenten zeigen IMO nicht nur in Punkto Design und Mobilität, wie es uns das Marketing gern glauben machen will, einen zukunftsweisenden Weg, sondern auch und gerade in Punkto Energieeffizienz.

HOT
2004-10-05, 10:08:15
Sicher ist es ganz toll dass der neue A64 so wenig (im Vergleich) verbraucht.
Nur müssen halt die anderen Bauteile mitziehen.
Die Einstellung na 112 Watt sind ja gar nicht so viel, hilft da leider nicht weiter.
Wenn es ein Notebook wäre, würde das Geschrei groß sein.
Bei den angesprochenen Grafikkarten sehe ich den hohen Verbrauch unter 3D (wenn auch Zähneknirschend) irgendwo ein, aber unter 2D?
Ist es denn wirklich so schwer ein vernünftiges Powermanagement bei
Desktop PCs einzubauen?
Die Spannungswandler auf den Mainboard sollten auch einen besseren
Wirkungsgrad bekommen. Eventuell doppelt aufgebaut (einmal optimiert für
geringe Leistungsabgabe, und einen Zweig für viel Leistung).
So wie es jetzt ist, ist man leider immer noch "gezwungen" sich
zwei PCs aufzubauen.
Die 112 Watt relativieren sich allerdings wenn ich mir die verwendete
Peripherie angucke. 1GB DDR 533, Geforce 6800GT, wenn dort ein Powermanagement greifen würde, könnte zusammen mit C&Q die
Verlustleistung zumindestens im Idle schnell mal (fast) halbiert werden.

mfg diedl

Es ist die Graka, die den Verbrauch in den letzten Jahren derart dramatisch hat ansteigen lassen. Eine 6800 Karte braucht alleine bald mehr Strom im Idle als der 90nm Athlon64 unter Last.

Quasar
2004-10-05, 10:09:13
Schau dir mal den Stromverbrauchs-Artikel auf xBit-Labs an.

HOT
2004-10-05, 10:56:28
Schau dir mal den Stromverbrauchs-Artikel auf xBit-Labs an.

Ich weiss dass ich übertrieben habe. Aber das wird sich in Zukunft sicher noch ändern das Verhältnis. Der Trend geht in diese Richtung. Powersaving für Grafikkarten wird bald sehr wichtig.

Quasar
2004-10-05, 11:00:31
Sorry, hatte dein "bald" übersehen...
Ansonsten Ack, ich hoffe doch stark, daß das in der nächsten Generation ordentlich umgesetzt werden wird, die Mobil-Chips können's schließlich seit Ewigkeiten.

diedl
2004-10-05, 11:14:55
Es ist die Graka, die den Verbrauch in den letzten Jahren derart dramatisch hat ansteigen lassen. Eine 6800 Karte braucht alleine bald mehr Strom im Idle als der 90nm Athlon64 unter Last.

Habe ich doch indirekt geschrieben. ;)

Ich zitiere mich mal selber.

"Die 112 Watt relativieren sich allerdings wenn ich mir die verwendete
Peripherie angucke. 1GB DDR 533, Geforce 6800GT, wenn dort ein Powermanagement greifen würde, könnte zusammen mit C&Q die
Verlustleistung zumindestens im Idle schnell mal (fast) halbiert werden."

mfg diedl

Kurgan
2004-10-05, 11:18:49
powersaving für graka kann man (zumindest mit einer ati) auch selber machen, man muss nur wollen. meie 9800 lüppt dank radlinker im "idle" (also 2d oder schwache 3d-geschichten) mit 300/300 (ok, könnte auch durchaus noch weniger sein) und nur bei ut und ähnlichem mit vollast (460/370) .. macht etwas 15w weniger ;)

die möglichkeiten sind da, wenn auch im moment eher als workaround statt standard. aber wer unbedingt die highend-maschine zum surfen und briefe schreiben braucht, dem kann man eh nicht helfen. insofern versteh ich euer gemaule nicht.
im prinzip läuft doch hier das gleiche wie bei den autos: immer mehr funktionen und features wodurch sich die grundlast (leergewicht) erhöht und damit der energie(sprit)-spareffekt der besser arbeitenden netzteile (motoren) zunichte gemacht wird.
der erste golf hat um die 800kg gewogen, der aktuelle ist nicht unter 1,1 tonnen zu bekommen. der motor IST deutlich effizienter, trotzdem hat sich der verbrauch erhöht.

diedl
2004-10-05, 12:00:44
powersaving für graka kann man (zumindest mit einer ati) auch selber machen, man muss nur wollen. meie 9800 lüppt dank radlinker im "idle" (also 2d oder schwache 3d-geschichten) mit 300/300 (ok, könnte auch durchaus noch weniger sein) und nur bei ut und ähnlichem mit vollast (460/370) .. macht etwas 15w weniger ;)

die möglichkeiten sind da, wenn auch im moment eher als workaround statt standard. aber wer unbedingt die highend-maschine zum surfen und briefe schreiben braucht, dem kann man eh nicht helfen. insofern versteh ich euer gemaule nicht.
im prinzip läuft doch hier das gleiche wie bei den autos: immer mehr funktionen und features wodurch sich die grundlast (leergewicht) erhöht und damit der energie(sprit)-spareffekt der besser arbeitenden netzteile (motoren) zunichte gemacht wird.
der erste golf hat um die 800kg gewogen, der aktuelle ist nicht unter 1,1 tonnen zu bekommen. der motor IST deutlich effizienter, trotzdem hat sich der verbrauch erhöht.

Jein!
Und passt sich bei der Graka auch die Spannung an? Hier wären dann noch
mal ein paar Watt Ersparniss möglich. ;)
Es geht nicht darum Funktionen oder Leistung zurück zu schrauben, sondern darum aus
dem Möglichen alles raus zu holen.
Hier steckt der Desktop PC leider immer noch in den Kinderschuhen.
Zumindestens C&Q ist schon mal ein Anfang :)

mfg diedl

Leonidas
2004-10-05, 15:28:20
Ist euch was bei den 3dcenter news aufgefallen? Ich zitiere mal:

"... Nun denn, im Test der AMD-Prozessoren, wo sich zwischen 90nm- und 130nm-Fertigung an den Prozessoren selbst gar nichts geändert hat, kann der 90nm Prozeß seine Schlagkräftigkeit endlich einmal unter Beweis stellen: Ein gleich getakteter und mit gleicher Cache-Größe versehener 90nm AMD-Prozessor kam auf 18,5 Prozent weniger Leistungsaufnahme als sein 130nm-Pendant. Dies ist natürlich nicht wirklich viel (rein theoretisch sollten es 30-40 Prozent sein) und deutet schon an, daß bei 90nm der Effekt der stark ansteigenden Leckströme durchaus zuschlägt - aber dennoch ist mit dem 90nm Prozeß prinzipiell ein Gewinn bezüglich der Senkung der Leistungsaufnahme erreichbar."


Wenn die Leistungsaufnahme des gesamten Systems durch den neuen Prozessor um 18,5% fällt, kann man doch nicht behaupten, dass die Leistungsaufnahme des neuen Prozessors nur um 18,5 Prozezent gefallen ist!

Gehen wir mal davon aus, dass der alte A64 3500+ etwa 65 Watt unter Last verbraucht hat. Insgesamt ist die Leistungsaufnahme unter Last um 29 Watt gesunken. Wenn man die Verlustleistung des Netzteils nicht berücksichtigt, ich weiß nicht genau wieviel das ausmacht, kommt man auf gerade mal 36 Watt unter Last, also 45% weniger Verlustleistung.



Absolut korrekt. Mein Fehler, in den heutigen News korrigiert.

Gast
2004-10-05, 16:46:58
Absolut korrekt. Mein Fehler, in den heutigen News korrigiert.

Dankeschön. :)

Brillus
2004-10-06, 02:17:38
Wenn ich jetzt so an die Engeriesparmodus für Graka denke muss ich irgendwie sagen Longhorn mit Shader-Desktop macht dem ja wieder ein Strich durch die Rechnung.

Nachgedanke: Die Armee Notebookegemeinde

diedl
2004-10-06, 02:51:54
Wenn ich jetzt so an die Engeriesparmodus für Graka denke muss ich irgendwie sagen Longhorn mit Shader-Desktop macht dem ja wieder ein Strich durch die Rechnung.

Nachgedanke: Die Armee Notebookegemeinde

Um so wichtiger wird es auch im 3D Bereich für einen (am besten dynamichen)
Energiesparmodus zu sorgen. Overdrive gibt es doch schon warum dann
bitte nicht underdrive. Gerade ältere Spiele brauchen wohl selten die volle
Leistung der neuen Chips. Man stellt eine erwünchte framezahl ein
(am besten Monitorfrequenz)
und die Graka passt sich Takt/Spannungsmäßig diesem Ziel an. Müsste doch zu
machen sein. :rolleyes:
Dieses "Future" könnte doch gerade in hinblick auf Longhorn ein echter Kaufgrund sein.

mfg diedl

Kurgan
2004-10-06, 08:39:50
Um so wichtiger wird es auch im 3D Bereich für einen (am besten dynamichen)
Energiesparmodus zu sorgen. Overdrive gibt es doch schon warum dann
bitte nicht underdrive. Gerade ältere Spiele brauchen wohl selten die volle
Leistung der neuen Chips. Man stellt eine erwünchte framezahl ein
(am besten Monitorfrequenz)
und die Graka passt sich Takt/Spannungsmäßig diesem Ziel an. Müsste doch zu
machen sein. :rolleyes:
Dieses "Future" könnte doch gerade in hinblick auf Longhorn ein echter Kaufgrund sein.

mfg diedl
die idee gabs schon mal in einem 3dc-artikel glaub ich. das problem ist bloss, das die graka im prinzip VOR dem rendern wissen müsste, wieviel takt sie braucht um x fps zu schaffen. das weiss sie in der regel aber erst, wenn schon gerendert wurde ;)
ich sag mal vorraus, das das auf diese art wohl nie bzw. nicht in dieser dekade was wird :D

diedl
2004-10-06, 10:34:27
die idee gabs schon mal in einem 3dc-artikel glaub ich. das problem ist bloss, das die graka im prinzip VOR dem rendern wissen müsste, wieviel takt sie braucht um x fps zu schaffen. das weiss sie in der regel aber erst, wenn schon gerendert wurde ;)
ich sag mal vorraus, das das auf diese art wohl nie bzw. nicht in dieser dekade was wird :D

Eine Idee die mir da gerade kommt. Allerdings werden die Spannungswandler
und Chips die schnellen Lastwechsel wohl nicht mitmachen.
Die Graka rechnet jedes frame mit voller Geschwindigkeit, und wenn Sie vor
(bei 85 Hz ~ 11,76ms) fertig ist ist schaltet Sie für den Rest der Zeit (ausser Bildpuffer) ab. Nach der abgelaufenen Zeit schaltet Sie sich wieder ein und
das Spiel beginnt von vorne. Im Mittel hat man dann immer nur die tatsächlich gebrauchte Verlustleistung. Durch etwas größere Kondensatoren
vor den Spannungswandlern könnte man ja zumindestens das Netzteil und
Restsystem von den Lastwechseln entlasten. Das Mainboard (Chipsatz) müsste für
diese Arbeitsweise wohl auch angepasst werden. Aber vielleicht ließe
sich das ja durch eine immer laufende, nicht viel verbrauchende "Vorstufe"
auf der Graka umgehen.

mfg diedl

Kurgan
2004-10-06, 10:44:31
du willst alles doppelt berechnen und damit energie sparen ? ;)

CrazyIvan
2004-10-06, 10:49:48
Nein, er will jedem Frame ein Zeitfenster geben. Dadurch soll sich die GraKa deaktivieren, sobald das Frame vor Ablauf des Zeitfensters fertig ist. Neben dem Problem der viel zu schnellen Schaltung sollte man aber noch etwas anderes beachten:
GPUs sind pipelined. Wenn man einfach den Strom abdreht, dann geht auch der Pipelineinhalt flöten. Insofern ist das ganze schon aus zweierlei Hinsicht nahezu unmöglich.

diedl
2004-10-06, 10:53:49
du willst alles doppelt berechnen und damit energie sparen ? ;)
Da hast du mich falsch verstanden.
Das Bild wird sagen wir mal in 6ms berechnet. Also ist die Graka um fast 6ms
zu schnell gewesen (bei 85 Hz). Ergo kann Sie sich für den Rest nämlich
diese fast 6ms ausschalten. Es müssten halt nur noch "Vorstufen" laufen
die die Verbindung zur CPU halten und eben die eigentliche Grafikausgabe die
das berechnete Bild ausgibt.
Das eine normale GPU durch diese Lastwechsel höchstwahrscheinlich
Probleme bekommt ist mir bewusst, aber wenn das Design danach ausgerichtet
ist dürfte dieses Prinzip eigentlich nur zu einen Leistungsverlust führen wenn
hintereinander abwechselnd Bilder berechnet werden müssen die mal unter
der vorgegebenen Zeit liegen und dann wieder drüber.
Wenn die Berechnung mal länger dauert als das Zeitfenster muss natürlich
ganz normal wie auch schon heute üblich bis zu ende gerechnet werden.
Danach kommt dann das nächste Zeitfenster.

mfg diedl

diedl
2004-10-06, 11:32:41
Nein, er will jedem Frame ein Zeitfenster geben. Dadurch soll sich die GraKa deaktivieren, sobald das Frame vor Ablauf des Zeitfensters fertig ist. Neben dem Problem der viel zu schnellen Schaltung sollte man aber noch etwas anderes beachten:
GPUs sind pipelined. Wenn man einfach den Strom abdreht, dann geht auch der Pipelineinhalt flöten. Insofern ist das ganze schon aus zweierlei Hinsicht nahezu unmöglich.
Hatte deinen Beitrag noch nicht gelesen :wink:
Dann wird es wohl doch nicht so "leicht" umsetzbar sein.
Aber wie sagt man doch so schön, wo ein Wille ist ist auch ein Weg.
Bestimmte Teile dürften diesen "Takt" also nicht mitmachen,
na bin nicht gerade der Grafikkartenspezialist (vielleicht kommt man nur deshalb auf solche Ideen). Auslagern dieser Teile dürfte wohl nicht möglich
sein, bzw. timingprobleme geben? Wobei "Auslagern" ja durchaus (wegen der timingprobleme) auf dem DIE der GPU aber mit eigener ständiger Spannungsversorgung
sein könnte.

Obwohl ich nicht viel Ahnung von Grafikkarten habe (als Seltenspieler)
sprach ich ja auch schon von "Vorstufen" die die Verbindung zwischen
CPU und GPU halten :rolleyes:
Wie Umfangreich diese "Vorstufen" sein müssten, und ob es sich dann im
Endeffekt überhaupt noch lohnt kann ich als Nichtspezialist
allerdings nicht beurteilen.

mfg diedl

Mir fällt gerade auf dass nur noch der "Verbrauch" mit den eigentlichen
Thema des Threads zu tun hat ;(

Brillus
2004-10-06, 15:40:23
Mit dem Dynamischen runtertakten hat schon was, man könnte man ja ein Sicherheitspuffer von sagen wir 10-20% dazugeben dann könnte es zwar von Zeit zu Zeit zu kleinern Framedrops unter die eingestellte Framerate geben aber im großen und ganzen würde sich das schon auf die eingestellte Framerate einpendelen.

Auserdem hat CnQ doch ein ganz ähnliches Problem nur halt ncith so stark es weis auch nciht im vorhinein wieviel es braucht es kann sich nur besser drauf einstellen.