Angiesan
2011-12-06, 00:32:44
Hi,
ich habe am Wochenende einen Pc für einen guten Freund gebaut und er wollte unbedingt eine GTX 580 haben, ok ist sein Geld.
Also zuerst die Gigabyte GTX 580 oc gekauft, hat genau bis nach der Windowsinstallation gehalten, und ist dann abgeraucht wohlgemerkt im 2D Betrieb.
Also Heute in den Laden und Ersatz besorgt jetzt wurde es eine Palit mit Duallüfter.
Ich habe diese Karte auch mal in meinem PC getestet um festzustellen wie viel schneller die GTX 580 den nun ist gegenüber der GTX 480.
Ich möchte dazu sagen, das meine auf 756/1512/1848 mit 1,00 Volt läuft.
Die verbaute GTX 580 hat auch eine Spannung unter 3D von 1,00 Volt, da es immer hieß die GTX 580 sei so sparsam gegenüber der 480er mal das Meßgerät angehängt und wow.....
Die GTX 580 ziehz mal locker 40 Watt mehr aus der Steckdose wie meine so betagte 480er der Leistungsunterschied in 3D ist jetzt nicht so signifikant das sich auch nur annähernd ein Upgrade für mich lohnen würde.
Ach in 2D ist die GTX 580 aufgrund ihrer 0,96333Volt nicht sparsamer wie die 480er muss jedoch dazu sagen das ich dort die Spannung via Biosmod auf 0,818 Volt reduziert habe.
Ein Gegentest zeigt, dass ich meine auf 1,063 Volt heben muss damit sie den gleichen Stromverbrauch bei gleicher Taktrate erreicht.
Jetzt stellt sich mir die Frage sind das wirklich die paar shader mehr die so viel Saft verbrauchen oder woran liegt das??
Das würde mich wirklich mal interessieren zumal die Spannung ja deutlich von einander abweichen wenn ich den gleichen Verbrauch erreiche (1,0 bzw. 1.063 Volt).
Hat dafür jemand eine Erklärung?
ich habe am Wochenende einen Pc für einen guten Freund gebaut und er wollte unbedingt eine GTX 580 haben, ok ist sein Geld.
Also zuerst die Gigabyte GTX 580 oc gekauft, hat genau bis nach der Windowsinstallation gehalten, und ist dann abgeraucht wohlgemerkt im 2D Betrieb.
Also Heute in den Laden und Ersatz besorgt jetzt wurde es eine Palit mit Duallüfter.
Ich habe diese Karte auch mal in meinem PC getestet um festzustellen wie viel schneller die GTX 580 den nun ist gegenüber der GTX 480.
Ich möchte dazu sagen, das meine auf 756/1512/1848 mit 1,00 Volt läuft.
Die verbaute GTX 580 hat auch eine Spannung unter 3D von 1,00 Volt, da es immer hieß die GTX 580 sei so sparsam gegenüber der 480er mal das Meßgerät angehängt und wow.....
Die GTX 580 ziehz mal locker 40 Watt mehr aus der Steckdose wie meine so betagte 480er der Leistungsunterschied in 3D ist jetzt nicht so signifikant das sich auch nur annähernd ein Upgrade für mich lohnen würde.
Ach in 2D ist die GTX 580 aufgrund ihrer 0,96333Volt nicht sparsamer wie die 480er muss jedoch dazu sagen das ich dort die Spannung via Biosmod auf 0,818 Volt reduziert habe.
Ein Gegentest zeigt, dass ich meine auf 1,063 Volt heben muss damit sie den gleichen Stromverbrauch bei gleicher Taktrate erreicht.
Jetzt stellt sich mir die Frage sind das wirklich die paar shader mehr die so viel Saft verbrauchen oder woran liegt das??
Das würde mich wirklich mal interessieren zumal die Spannung ja deutlich von einander abweichen wenn ich den gleichen Verbrauch erreiche (1,0 bzw. 1.063 Volt).
Hat dafür jemand eine Erklärung?