PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - nVidias HybridPower


BlacKi
2008-11-03, 10:03:33
ich hab hier den artikel mal angeschaut http://www.hartware.de/report_425.html

dabei ist mir aufgefallen, das keine maximalen verbräuche angegeben sind. sicherlich deswegen weil das hybridsystem unter last mehr braucht als ohne hybrid.

oder?...

mein rechner ist zwar keine quadcore, braucht aber auch nur 110watt im idle. allerdings hab ich wakü, und der wolfi läuft auf 3,6ghz und hab ne 8800gt (ati tool taktet sie im 2d modus auf 300/400ddr3mhz runter) und den p35 chipset und xfi soundkarte. maximal sind es um die 230watt.

von daher finde ich die im test erreichten 103wat idle nicht besonders.

was meint ihr?

Spasstiger
2008-11-03, 10:07:10
Die Nvidia-Chipsätze sind generell nicht so wahnsinnig sparsam. Und du hast ja auch von Hand beim idle-Verbrauch nachgeholfen.

BlacKi
2008-11-03, 10:25:58
warum bringt dann nicht nvidia einfach ein underclocking tool heraus oder baut es in seine treiber mit ein??? ich finde hybrid power schwachsinn...

Rente
2008-11-03, 10:30:13
warum bringt dann nicht nvidia einfach ein underclocking tool heraus oder baut es in seine treiber mit ein??? ich finde hybrid power schwachsinn...
Der Ansatz liegt auch eher im Notebook, als im Desktop-Bereich, außerdem sollte das ganze auch einen positiven Einfluss auf Gehäuse-Innentemperatur und Lautstärke haben. Klar erreicht man das nahezu genauso in dem man runtertaktet, aber wieviel % der Menschen wissen wohl wie das geht?

+ die Chipsatzgrafik soll dann auch Physikberechnungen durchführen können, während die Hauptkarte den Rest macht, so dass es dahingehend wahrscheinlich einen Beschleunigungseffekt gibt. (laut nVidia)

blackbox
2008-11-03, 10:51:02
Dass dein PC nur 110Watt zieht, kann ich irgendwie gar nicht glauben. Da stimmt die Messung nicht.

Gast
2008-11-03, 11:11:31
Klar erreicht man das nahezu genauso in dem man runtertaktet, aber wieviel % der Menschen wissen wohl wie das geht?


bei weitem nicht, schon garnicht bei G92-karten, der idle-verbrauch bei reiner taktänderung, ohne veränderung der spannung ändert sich bei diesen kaum.

Gast
2008-11-03, 11:13:32
Dass dein PC nur 110Watt zieht, kann ich irgendwie gar nicht glauben. Da stimmt die Messung nicht.

ist zwar nicht besonders viel, aber durchaus realistisch.

Gast
2008-11-03, 11:14:53
Die Nvidia-Chipsätze sind generell nicht so wahnsinnig sparsam. Und du hast ja auch von Hand beim idle-Verbrauch nachgeholfen.
Das ist eine Pauschalaussage, die so nicht stimmt. Gerade bei den IGPs ist NVidia sparsam. Eines der sparsamsten Bretter für AM2-Systeme (ein Asrock), das gerade bei Meisterkühler für Ultra-Stromspar-Rechner genutzt wird, hat ein Nvidia-Chipsatz ;)

Spasstiger
2008-11-03, 11:16:19
Dass dein PC nur 110Watt zieht, kann ich irgendwie gar nicht glauben. Da stimmt die Messung nicht.
Warum soll das nicht stimmen? Ich finde den Wert für seine Hardware und seine Taktraten sehr plausibel und ich kann ähnliche Werte aus eigenen Messungen mit ähnlicher Hardware bestätigen.
Bei meinem E4300 @ 3 GHz @ 1,34 Volt (ausgelesen) + Gigabyte 965P-DS3 + 4 DDR2-Riegel @ 1,9 Volt + GeForce 8800 GT 1024 MiB @ default + 2 HDDs (Seagate 7200.10 Zweiplatter) + X-Fi Platinum (mit I/O-Drive) + BeQuiet Straightpower 500 Watt (alte Revision mit ~75-80% Wirkungsgrad) habe ich einen idle-Verbrauch von ca. 135 Watt gemessen. Die 512-MiB-Variante der 8800 GT braucht im idle laut Reviews rund 10 Watt weniger, dann ist man nur bei 125 Watt.
Mit dem gleichen Rechner, aber einem Core 2 Quad Q9300 @ default und meiner Radeon HD 2900 Pro @ Bios-Mod (2D: 0,85 Volt, 300/400 MHz Chip/Speicher) habe ich gar nur 113 Watt idle-Verbrauch gemessen.
Und mit der HD 2900 Pro und dem E4300 @ default sinds 117 Watt.

Mit der 2900 Pro ohne Bios-Mod liegt der idle-Verbrauch ca. 25 Watt höher.

P.S.: Alles mit aktivem EIST und C1E.