PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Kann Nvidia den IDLE Stromverbrauch der 9600GT durch Treiberoptimierung noch drosseln


klumy
2008-03-01, 12:03:19
Kann Nvidia den IDLE Stromverbrauch der 9600GT durch Treiberoptimierung noch drosseln?

Oder ist dies hardwaretechnisch nicht mehr möglich?

Gast
2008-03-01, 12:23:04
sie könnten die taktfrequenz senken, was sicher ein wenig einsparung bringt, aber ich glaube kaum dass sie es tun werden.

klumy
2008-03-01, 12:24:00
lässt sich dies denn über Treiber realisieren?

puntarenas
2008-03-01, 12:30:57
Würde sicher gehen, du kannst das ja auch per Rivatuner softwareseitig erledigen.

Gast
2008-03-01, 15:12:11
lässt sich dies denn über Treiber realisieren?

klar, man kann das ganze ja mit rivatuner auch selbst machen, also muss es der treiber prinzipiell auch können.

klumy
2008-03-01, 18:45:41
Kann man damit auch eine Art auto. Cool&Quiet Einstellung machen, dass es im Desktop Idle masssiv runtertaktet und nur bei Spielen voll hochtaktet?

puntarenas
2008-03-01, 19:50:47
Vom fleißigen dargo:
Rivatuner-Anleitung für den G80 (Unter-/Übertaktung, Lüftersteuerung usw.) (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=363264)

klumy
2008-03-01, 19:53:40
perfekt !!

RavenTS
2008-03-01, 19:55:07
Kann man damit auch eine Art auto. Cool&Quiet Einstellung machen, dass es im Desktop Idle masssiv runtertaktet und nur bei Spielen voll hochtaktet?

Ja denke schon, gibt doch verschiedene Modi (2D, 3D low, 3D) für die man verschiedene Taktfrequenzen definieren kann, nur muss man hier schon drastisch runtertakten um überhaupt einen brauchbaren Effekt zu bekommen, was dann wohl zuviel Validierungsaufwand sein dürfte.
Die Senkung der Spannung wäre hilfreicher, muss wohl aber direkt hardwaremäßig verfügbar gemacht werden..!

klumy
2008-03-12, 20:40:43
Hat jemand mal getestet wie viel weniger Strom man durch runtertakten des 2D mode verbrauchen kann?

BlackBirdSR
2008-03-12, 20:57:28
Am effektivsten wäre es, wenn man wie bei ATI an die Register für die Spannungsversorgung rankommt. Das bringt mehr als jede Taktreduzierung.

Gast
2008-03-12, 21:00:42
Scheinbar will NV das nicht, ob es daran liegt, das die Spawas eine Spannungsaenderung im Betrieb nicht koennen oder am H/SLI Push .....

Gast
2008-03-12, 21:12:14
Am effektivsten wäre es, wenn man wie bei ATI an die Register für die Spannungsversorgung rankommt.

unwinder hat glaub ich mal gesagt, dass er durchaus auch die spannung änder könnte, das ganze aber nicht öffentlich macht, weil er nicht will, zu viele ihre hardware schrotten.

klumy
2008-03-12, 21:14:38
heisst das die Einsparung über den Rivatuner ist gleich null? :-(

Gast
2008-03-12, 21:14:40
Hat jemand mal getestet wie viel weniger Strom man durch runtertakten des 2D mode verbrauchen kann?

bei der 8800GTS bringt es primärseitig am netzteil ~20W ersparnis.

bei der 9600GT dürfte es allerdings deutlich weniger sein, und da die messung hinter dem netzteil ist, kann man sie nicht unbedingt auf einen anderen pc übertragen.

BlackBirdSR
2008-03-12, 21:18:08
unwinder hat glaub ich mal gesagt, dass er durchaus auch die spannung änder könnte, das ganze aber nicht öffentlich macht, weil er nicht will, zu viele ihre hardware schrotten.

Ja geht, zumindest bei ATI.
Ich mache es bei meiner X2900XT ja ebenfalls über Rivatuner. Das konnte bisher kein anderes Programm, und Rivatuner erlaubt eben über Command-Line-Interface Zugriff auf die Register.

Habe mich aber noch nicht mit Nvidia beschäftigt. Mal sehen was Rivatuner ausspuckt.

klumy
2008-03-12, 21:25:25
bei der 8800GTS bringt es primärseitig am netzteil ~20W ersparnis.

bei der 9600GT dürfte es allerdings deutlich weniger sein, und da die messung hinter dem netzteil ist, kann man sie nicht unbedingt auf einen anderen pc übertragen.

wenn es 10-15 Watt bringt, bin ich schon zufrieden bei der 9600GT. Dann wäre sie auf 3850 Niveau. Hat das jemand mal mit der 9600GT richtig ausprobiert und gemessen?

Thunder99
2008-03-12, 21:28:34
laut nem anderen Thread ca. 5W , kann aber auch mehr sein (war glaub der RivaTuner Thread für G80 untervolten ect)

puntarenas
2008-03-12, 21:35:22
bei der 8800GTS bringt es primärseitig am netzteil ~20W ersparnis.

8800GTS mit G80? Wie es aussieht soll beim G80 ja die Taktabsenkung richtig was bringen, bei G92 dagegen kaum. Bei ht4u.net machte die Absenkung bei einer Gigabyte 8800GT Turbo Force von 700/920Mhz auf 450/700Mhz gerade mal knapp 2W Ersparnis aus, 0,05V Spannungsabsenkung brachten dagegen zusätzliche 4W Ersparnis: Klick! (http://www.forum-hardtecs4u.com/yabbse/index.php/topic,44511.0.html)

Ich habe auch mal versucht, eine 8800GT manuell auf 300/300Mhz herunterzutakten und die Karte wurde kaum kühler, entsprechend dürfte die Verlustleistung sich ebenfalls so gut wie nicht gesenkt haben. Was fehlt ist wirklich eine satte Spannungsabsenkung im Idle, die gibt es bei NVidia halt leider nicht.

LovesuckZ
2008-03-12, 21:36:38
wenn es 10-15 Watt bringt, bin ich schon zufrieden bei der 9600GT. Dann wäre sie auf 3850 Niveau. Hat das jemand mal mit der 9600GT richtig ausprobiert und gemessen?

Na, der Unterschied zwischen 3850-512 und 9600GT liegt bei 10 Watt am Ende des Netzteils - also runt 7 Watt.

Thunder99
2008-03-12, 21:37:54
8800GTS mit G80? Wie es aussieht soll beim G80 ja die Taktabsenkung richtig was bringen, bei G92 dagegen kaum. Bei ht4u.net machte die Absenkung bei einer Gigabyte 8800GT Turbo Force von 700/920Mhz auf 450/700Mhz gerade mal knapp 2W Ersparnis aus, 0,05V Spannungsabsenkung brachten dagegen zusätzliche 4W Ersparnis: Klick! (http://www.forum-hardtecs4u.com/yabbse/index.php/topic,44511.0.html)

Ich habe auch mal versucht, eine 8800GT manuell auf 300/300Mhz herunterzutakten und die Karte wurde kaum kühler, entsprechend dürfte die Verlustleistung sich ebenfalls so gut wie nicht gesenkt haben. Was fehlt ist wirklich eine satte Spannungsabsenkung im Idle, die gibt es bei NVidia halt leider nicht.
aus welchen Gründen auch immer. Kann man nur spekulieren. Zu teuer im Design des PCB`s oder wegen den Spannungswandler.