Archiv verlassen und diese Seite im Standarddesign anzeigen : Stromverbrauch für jedermann
ich weiß nicht wie weit das schon bekannt ist, aber ich habe gerade entdeckt, dass man mit rivatuner bei G200-karten spannung und strom am ausgang der spannungswandler anzeigen kann und damit indirekt natürlich auch den stromverbrauch der GPU ausrechnen kann.
zusätzlich lässt sich auch die temperatur der einzelnen wandler anzeigen.
http://img237.imageshack.us/img237/5517/voltageai2.png
schreib bitte mal nen how2,
wie man das macht um die werte zu sehen
danke
naja, einfach im hardwaremonitor das VT1103.dll-plugin aktivieren.
die dazugehörige beschreibung:
This plugin provides Voltage regulator output, Voltage regulator temperature and Voltage regulator current hardware monitoring data sources for display adapters with Volterra VT1103/VT1105/VT1165 voltage regulators.
Tip:
VT1103/VT1105/VT1165 voltage regulators are used on reference design ATI RADEON X1800, X1900, HD 3800, HD 4800 and NVIDIA GeForce GTX 200 series display adapters.
schon kann man ausgangsspannung, strom und die temperaturen der einzelnen phasen anzeigen lassen.
dargo
2008-09-28, 12:47:36
ich weiß nicht wie weit das schon bekannt ist, aber ich habe gerade entdeckt, dass man mit rivatuner bei G200-karten spannung und strom am ausgang der spannungswandler anzeigen kann und damit indirekt natürlich auch den stromverbrauch der GPU ausrechnen kann.
zusätzlich lässt sich auch die temperatur der einzelnen wandler anzeigen.
http://img237.imageshack.us/img237/5517/voltageai2.png
Viel interessanter fände ich wenn man die VGPU in Idle mit dem RT senken könnte. ;)
Viel interessanter fände ich wenn man die VGPU in Idle mit dem RT senken könnte. ;)
Unwinder hat mal gesagt, er wird keine funktionen einbauen die es erlauben die spannungen zu verändern, da er nicht will dass die leute ihre karten schrotten.
indirekt lässt sich ja die spannung beeinflussen, indem du ein performanceprofil erzwingst.
das ding dass der strom im lastmoment 79 ampere niemals stimmen kann,
das wären dann über 800watt leistung
dargo
2008-09-28, 23:46:52
das ding dass der strom im lastmoment 79 ampere niemals stimmen kann,
das wären dann über 800watt leistung
Oh, du gibts deiner GPU über 10V? Auch nicht schlecht. :D
Also, bei mir ergeben 79A in Verbindung mit 1,13V immer noch ~89W.
Unwinder hat mal gesagt, er wird keine funktionen einbauen die es erlauben die spannungen zu verändern, da er nicht will dass die leute ihre karten schrotten.
Ich glaube es ist auch besser so. Sonst gibts wieder Unmengen an unberechtigten Reklamationen.
BlackBirdSR
2008-09-29, 00:02:27
Unwinder hat mal gesagt, er wird keine funktionen einbauen die es erlauben die spannungen zu verändern, da er nicht will dass die leute ihre karten schrotten.
indirekt lässt sich ja die spannung beeinflussen, indem du ein performanceprofil erzwingst.
Über Command Line ist es ja z.B bei ATI Karten möglich. Weiss nur nicht ob auch bei NV.
Spasstiger
2008-09-29, 03:31:19
Diese Möglichkeit gibts in Riva Tuner schon lange, ging auch schon bei meiner X1900 AIW, wenn ich mich richtig erinnere, und bei meiner HD2900 Pro gehts ebenfalls.
Hab mit der HD2900 Pro bei laufendem ATI Tool 1,06 Volt und 55,65 Ampere => 59 Watt.
Und im idle 0,85 Volt und 21,77 Ampere => 18,5 Watt.
Ist allerdings mit Mod-Bios (3d-Takt: 700/1000 MHz, 2D-Takt: 300/400 MHz).
Wenn man jetzt noch wüsste, was der Speicher, die Spannungswandler und der Rest der Graka fressen, hätte man von den Werten auch einen praktischen Nutzen. So sehe ich nur, dass der GT200 offenbar einen sehr energieeffizienten 2D-Modus hat.
LolekDeluxe
2008-10-03, 09:30:35
Ja klarr und im IDLE verbraucht sie dann 7,7 Watt.:ulol:
Ja klarr und im IDLE verbraucht sie dann 7,7 Watt.:ulol:
wieso nicht? es handelt sich um die AUSGANGSLEISTUNG der spannungswandler, also um den stromverbrauch der GPU (möglicherweise inklusive speicher, soweit ich weiß haben diese keine eigene versorgung), nicht der gesamten karte.
CPUs kommen mit stromsparmodi in etwa in diese regionen, wieso sollte es mit einer GPU nicht möglich sein? CPU+mainboard brauchen natürlich deutlich mehr, ebenso wie GPU+PCB deutlich mehr brauchen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.