PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : EVGA Voltage Tuner - Vorschau


AnarchX
2009-01-23, 12:51:31
EVGA wird bald für ihre registrierten User ein Tool zur Anpassung der Vgpu anbieten:
http://img502.imageshack.us/img502/6045/utilityma1ny2.png (http://imageshack.us)
http://www.evga.com/forums/tm.asp?m=749117

Für Übertakter, aber auch Stromsparer doch sehr interessant.

puntarenas
2009-01-23, 12:53:33
Für Übertakter, aber auch Stromsparer doch sehr interessant.
Soagr ausgesprochen interessant, fragt sich natürlich, in welchem Rahmen es Spannungsanpassungen erlaubt. Nach unten offen wäre ein Traum, da schmiert ja schlimmstenfalls der Rechner ab. :love:

AnarchX
2009-01-23, 12:55:56
Steht doch das Min: 0.45V (was wohl eher nicht funktionieren wird ;)) bis Max: 1.35V, wo man einen G200B mit entsprechener Kühlung Richtung 1000MHz bringen kann.

BlackBirdSR
2009-01-23, 13:01:55
Aber eben nur EVGA-Karten und in den ersten Versionen nur GT2x aufwärts

iron maiden
2009-01-23, 13:07:38
hmm mal abwarten.
vllt klappt es ja mit anderen karten auch - mit dem evga precision tool tut es das.

puntarenas
2009-01-23, 13:19:08
vllt klappt es ja mit anderen karten auch - mit dem evga precision tool tut es das.
Glaube ich kaum, EVGA braucht ein paar Alleinstellungsmerkmale. Ich hoffe bloß, dass Unwinder nicht bald soweit vereinnahmt wird, dass die Rivatuner-Entwicklung auf der Strecke bleibt. Rivatuner sollte die Spannungssteuerung ja prinzipiell auch können, allerdings habe ich dazu noch keine Dokumentation gefunden und Unwinder sagt nur, dass er dazu nichts sagt.

Ferner bleibt zu hoffen, dass man nicht mittlefristg den Weg über einen proprietären Chip geht, wie Gigabyte das versucht. Dagegen spricht zum Glück, dass EVGA im Wesentlichen Karten im Referenzdesign verkauft.

Mark
2009-01-23, 13:19:20
Ist es denn auch vom Rivatuner/Precision Entwickler? Könnte vom Style fast so sein

Blaire
2009-01-23, 17:01:08
Die haben wohl in der RMA Abteilung nix zu tun? ;D

Gast
2009-01-23, 17:19:59
Glaube ich kaum, EVGA braucht ein paar Alleinstellungsmerkmale.

Na und. Dann flasht man halt ein EVGA Bios auf seine Zotac. Oder MSI. Oder PNY.

Ronny G.
2009-01-23, 17:33:25
was jetzt, auch für die alte GTX280?

AnarchX
2009-01-23, 17:38:01
was jetzt, auch für die alte GTX280?
Jedenfalls für das Design was EVGA verwendet, bei der GTX 285 scheint die aktuelle Revision wohl nicht kompatibel zum Tuner zu sein, sodass hier eine neue Revision benötigt wird.

Ronny G.
2009-01-23, 17:40:27
Jedenfalls für das Design was EVGA verwendet, bei der GTX 285 scheint die aktuelle Revision wohl nicht kompatibel zum Tuner zu sein, sodass hier eine neue Revision benötigt wird.

Bei der GTX280 gab es doch aber ausschließlich nur Referenzdesign.

Megamember
2009-01-23, 19:28:36
Jedenfalls für das Design was EVGA verwendet, bei der GTX 285 scheint die aktuelle Revision wohl nicht kompatibel zum Tuner zu sein, sodass hier eine neue Revision benötigt wird.

Angeblioch arbeiten sie dran und damit das auf allen Karten läuft muss man wohl max ein EVGA Bios flashen. Vom Aufbau sind die EVGA ja auch nur pures Referenzdesign.
Edit: Die max Einstellbaren 1,35V sind doch eigendlich jenseits von gut und böse oder? Nicht das Evga nachher LKWladungen gehimmelter Karten vor die Tür bekommt.

Ronny G.
2009-01-23, 19:40:07
Angeblioch arbeiten sie dran und damit das auf allen Karten läuft muss man wohl max ein EVGA Bios flashen. Vom Aufbau sind die EVGA ja auch nur pures Referenzdesign.
Edit: Die max Einstellbaren 1,35V sind doch eigendlich jenseits von gut und böse oder? Nicht das Evga nachher LKWladungen gehimmelter Karten vor die Tür bekommt.

nöö 1,35V bei Wakü sind doch kein Thema, somit ist eh aus mit RMA und so

edit: nich das ich das 24/7 tun würde, aber zum benchen ist das doch mal ne easy-Variante, mehr Volt bedeutet ja noch lange nicht besseres OC, ne anständige Kühlung ist da alles.

Megamember
2009-01-23, 20:54:37
Klar, jeder Dau der das Programm in die Finger bekommt achtet penibel auf ne gute Kühlung.;) Da wird einfach 1,35 24/7 eingestellt und übertaktet bisses qualmt.
Wenn dann noch der Furmark auf extrem burning mode gestellt wird, gute Nacht.

Gast
2009-01-23, 20:58:40
Na und. Dann flasht man halt ein EVGA Bios auf seine Zotac. Oder MSI. Oder PNY.

wenn man eh schon flashen will, kann man das ja gleich mit der gewünschten spannung machen, der große vorteil von so einem tool wäre ja, dass man ohne flashen auskommt.

Raff
2009-01-23, 20:59:07
Vom Aufbau sind die EVGA ja auch nur pures Referenzdesign.

Eben. Ich bin auch zuversichtlich, dass das mit kleineren Umwegen auf jeder GeForce geht. Sehr geil. Also ~1,25 Volt werde ich auch mal wagen ... ;D Und hoffentlich geht der Regler auch wirklich nach unten!

MfG,
Raff

Frank1974
2009-01-23, 21:09:57
Einige GTX280 laufen schon mit 1.18v am Limit, außerdem heißt es nicht das wenn man mehr Saft gibt es Automatisch immer höher geht, es ist wie bei einer Cpu, an einer Stelle ist Ende, egal wieviel Saft man gibt.

Ich bin ja auch ein ganz schöner Freak was Benchmarks angeht, aber immer nur in den Bereichen die auch 24/7 laufen lasse, alles darüber ist für mich Sinnlos, klar ich habe meine Cpu auch schon für ein paar Tests auf 4400MHz laufen lassen, aber jetzt nicht mehr, ich habe ja nichts davon.
Auch meine GTX295 habe ich erst vorsichtig, auf 632/1368/1107 laufen lassen, die hat unter Last nur 1.03v, aber wird selbst mit Standard Takt schon 85/87° und das nicht in Furmark sondern in Crysis bei 10 Loops.

mfg
Frank

Gast
2009-01-23, 21:26:41
Einige GTX280 laufen schon mit 1.18v am Limit, außerdem heißt es nicht das wenn man mehr Saft gibt es Automatisch immer höher geht, es ist wie bei einer Cpu, an einer Stelle ist Ende, egal wieviel Saft man gibt.

wobei bei der cpu das limit dann wohl eher wo anders liegen sollte, beispielsweise beim FSB.

AnarchX
2009-01-24, 12:41:19
Scheint wohl wirklich von Unwinder zu kommen, im XS gibt es eine Anleitung wie man via Commandline und Rivatuner schon jetzt die Vgpu ändern kann:
http://www.xtremesystems.org/forums/showpost.php?p=3600426&postcount=103
... offiziell will es Unwinder offenbar aber nicht im RT anbieten. Verständlich... ;)

Gast
2009-01-24, 15:35:52
... offiziell will es Unwinder offenbar aber nicht im RT anbieten. Verständlich... ;)

wobei das eventuell sogar der gefährlichere weg ist, wenn jetzt plötzlich viele auf die idee kommen das ganze mal auszuprobieren, da muss man sich nurmal kurz verrechnen und schon kommt man auf ziemlich tödliche werte ;)

ein einfacher regler, mit dem man zumindest nicht zuweit erhöhen kann wäre da wohl der sicherere weg.

wobei fraglich ist ob die spannungswandler wirklich alle werte übernehmen.
ich hab das ganze kurz mal ausprobiert und es scheint auch zu funktionieren, allerdings scheint nicht jeder beliebige weg zu gehen.

hab bei meiner karte die idle-spannung auf jeden fall mal von 1,06 auf 1,03 verringert, was auch funktioniert hat, aber keine großartigen auswirkungen auf den stromverbrauch hat (bleibt bei 7,3A). dann wollte ich mal weiter runter auf 1,00V, die karte hat aber 0,9V eingestellt und auch die stromaufnahme hat sich deutlich auf 2,4A verringert, die temperatur ist bei gleicher drehzahl um ca. 5° gesunken

tombman
2009-01-24, 16:15:56
Einige GTX280 laufen schon mit 1.18v am Limit, außerdem heißt es nicht das wenn man mehr Saft gibt es Automatisch immer höher geht, es ist wie bei einer Cpu, an einer Stelle ist Ende, egal wieviel Saft man gibt.

Ich bin ja auch ein ganz schöner Freak was Benchmarks angeht, aber immer nur in den Bereichen die auch 24/7 laufen lasse, alles darüber ist für mich Sinnlos, klar ich habe meine Cpu auch schon für ein paar Tests auf 4400MHz laufen lassen, aber jetzt nicht mehr, ich habe ja nichts davon.
Auch meine GTX295 habe ich erst vorsichtig, auf 632/1368/1107 laufen lassen, die hat unter Last nur 1.03v, aber wird selbst mit Standard Takt schon 85/87° und das nicht in Furmark sondern in Crysis bei 10 Loops.

mfg
Frank
Bevor ich keinen Wasserkühler für die 295er habe, werde ich auch nicht höher gehen als derzeit (650/1450/1150)

derguru
2009-01-24, 18:27:09
nöö 1,35V bei Wakü sind doch kein Thema, somit ist eh aus mit RMA und so

edit: nich das ich das 24/7 tun würde, aber zum benchen ist das doch mal ne easy-Variante, mehr Volt bedeutet ja noch lange nicht besseres OC, ne anständige Kühlung ist da alles.

1,35V wird auch für eine wakü sehr schwer zu realisieren sein und natürlich gibts durch mehr volt ein besseres oc.
man darf nicht vergessen vom default vcore 1,03V auf 1,15V stieg die verlustleistung schon auf ca. 100W mehr,bei 1,35V gute nacht.da kannste mit der wakü tee machen:eek:

Gast
2009-01-24, 18:29:12
1,35V wird für auch für eine wakü sehr schwer zu realisieren sein.
Ich glaube man darf davon ausgehen, dass EVGA kartenspezifische Limites einführen wird, sonst gibt das ein Grillfest sondergleichen. :D

Gast
2009-01-24, 23:47:29
Ich glaube man darf davon ausgehen, dass EVGA kartenspezifische Limites einführen wird, sonst gibt das ein Grillfest sondergleichen. :D


naja, nicht wirklich, wenn sie zu heiß werden schalten die karten eh ab bzw throtteln und 1,35V ist jetzt nicht so hoch, dass sie den chip sofort grillen würden, die lebensdauer wird vielleicht etwas kürzer, aber das kann EVGA ja nur recht sein, schließlich können sie so schneller neue karten verkaufen ;)

Ronny G.
2009-01-24, 23:52:28
1,35V wird auch für eine wakü sehr schwer zu realisieren sein und natürlich gibts durch mehr volt ein besseres oc.
man darf nicht vergessen vom default vcore 1,03V auf 1,15V stieg die verlustleistung schon auf ca. 100W mehr,bei 1,35V gute nacht.da kannste mit der wakü tee machen:eek:

ich habe ja auch gesagt das ich das natürlich nicht im 24/7 Betrieb meine, sondern eher um zu benchen ect.
Und das ich keine Wakü mit nem 80er Singleradi meine ist wohl auch klar.;)

Chrisch
2009-01-25, 00:43:17
1,35V wird auch für eine wakü sehr schwer zu realisieren sein und natürlich gibts durch mehr volt ein besseres oc.
man darf nicht vergessen vom default vcore 1,03V auf 1,15V stieg die verlustleistung schon auf ca. 100W mehr,bei 1,35V gute nacht.da kannste mit der wakü tee machen:eek:
Ich seh da kein großes Problem...

Bei meiner GTX260 55nm steigt die Temp nichtmal von 702/1404 @ 1.06v vs. 783/1566 @ 1.12v, Karte bleibt bei 38°C Load (Wakü) :)

Würd meiner Karte aber mehr Spannung geben, das mit Rivatuner (nach der Anleitung im XS) klappt bei der 55nm Karte aber leider nicht :(

=Floi=
2009-01-25, 00:54:01
alter schwede! Das ist ja mal echt heftig und hoffentlich gibt es das feature bald auch für andere modelle und karten.

wer an der spannung dreht, der verliert die garantie und hat pech gehabt. Daran gibt es nichts zu rütteln und das ist dann das problem des kunden. Es sollten kein problem sein die spannungen irgendwo zu loggen.

derguru
2009-01-25, 01:21:30
ich habe ja auch gesagt das ich das natürlich nicht im 24/7 Betrieb meine, sondern eher um zu benchen ect.
Und das ich keine Wakü mit nem 80er Singleradi meine ist wohl auch klar.;)
wer spricht den von single radi,da wird ja der standard luftkühler besser sein.
Ich seh da kein großes Problem...

Bei meiner GTX260 55nm steigt die Temp nichtmal von 702/1404 @ 1.06v vs. 783/1566 @ 1.12v, Karte bleibt bei 38°C Load (Wakü) :)

Würd meiner Karte aber mehr Spannung geben, das mit Rivatuner (nach der Anleitung im XS) klappt bei der 55nm Karte aber leider nicht :(

bei einer 260gtx ist das sicherlich nicht so ein problem aber bei einer 295gtx würden 1,35V die Wakü schon ins schwitzen bringen und zwischen 1,12V und 1,35V ist noch ein großer unterschied.

ich werde dann berichten,hoffe bis mitte der woche taucht meine wakü und die evga -software für die 295 auf.

pest
2009-01-25, 01:43:58
warum macht ihr keinen Hardmod? Weicheier ;D

Gast
2009-01-25, 02:01:22
Einstellen kann man das in der Software vermutlich schon. Ob diese Spannung dann aber tatsächlich auch anliegt ist wieder ne andere Sache. Möglicherweise erlauben die verbauten Regler hardwaremässig gar keine so hohen Spannungen.

pest
2009-01-25, 02:02:58
OVP ist bei 1.35V afaik

tombman
2009-01-25, 04:00:29
ich werde dann berichten,hoffe bis mitte der woche taucht meine wakü und die evga -software für die 295 auf.
Hast du die koolance bestellt?

derguru
2009-01-25, 04:29:15
Hast du die koolance bestellt?

ne hab schon vor paar tagen die aqua bestellt gehabt.hätte ich nicht vorkasse gemacht würde ich die koolance bestellen,die ist ja schon lieferbar im gegensatz zur aqua.ich hoffe die kriegen es die kommende woche gebacken auch zu liefern.

tombman
2009-01-25, 04:51:15
Habe auch 2x aqua bestellt und schon gezahlt :)

Ich rechne aber noch länger nicht mit einer Lieferung. Gibt ja noch nicht mal echte Bilder davon, oder?

derguru
2009-01-25, 05:00:38
Habe auch 2x aqua bestellt und schon gezahlt :)

Ich rechne aber noch länger nicht mit einer Lieferung. Gibt ja noch nicht mal echte Bilder davon, oder?

doch klar gibts bilder,ich poste das mal ins 295 fred.ich habe ja gestern mit denen gesprochen und die sagten mitte bis ende der woche sind die lieferbar.

Ronny G.
2009-01-25, 13:45:27
kann vielleicht mal jemand die Rivatuneranleitung zur Spannungsänderung in sauberes Deutsch übersetzen, ich bin da Fachlich nicht so gewieft. So schritt für schritt?

Die Software bzw. das EVGA Tool soll wohl die nächste Woche erscheinen?

Gast
2009-01-25, 14:50:23
kann vielleicht mal jemand die Rivatuneranleitung zur Spannungsänderung in sauberes Deutsch übersetzen, ich bin da Fachlich nicht so gewieft.


dann ist es auch besser wenn du sie nicht verstehst.

Ronny G.
2009-01-25, 14:53:52
dann ist es auch besser wenn du sie nicht verstehst.


Gast=Anonym=was frage ich überhaupt:|

pest
2009-01-25, 20:09:53
Gast=Anonym=was frage ich überhaupt:|

nur wenn du mindestens 1.4V testest? :D

Ronny G.
2009-01-25, 20:38:12
nur wenn du mindestens 1.4V testest? :D

ich bin eher für 1.25v
ich muß ja erstmal sehen ob die GPU überhaupt anständig und vorallem lohnend mit steigender Voltage sklaliert, nicht wie die HD4870 die ich mal hatte.

pest
2009-01-25, 20:57:01
ich bin eher für 1.25v

ich will nur wissen ob sich da real was ändert, oder nur die VID-Anzeige in den Tools. Habe schon Bilder mit 1.6V gesehen und mich gefragt warum OVP nicht greift.

also, als erstes führst du diese Vier Kommandozeilen aus (um den I2C Bus deiner Graka zu finden), und merkst dir welche nicht "invalid" liefern


RivaTuner.exe /ri0,70,1A
RivaTuner.exe /ri1,70,1A
RivaTuner.exe /ri2,70,1A
RivaTuner.exe /ri3,70,1A


wenn alle Vier invalid zurückliefern->Pech gehabt

Ronny G.
2009-01-25, 21:05:21
ich will nur wissen ob sich da real was ändert, oder nur die VID-Anzeige in den Tools. Habe schon Bilder mit 1.6V gesehen und mich gefragt warum OVP nicht greift.

also, als erstes führst du diese Vier Kommandozeilen aus (um den I2C Bus deiner Graka zu finden), und merkst dir welche nicht "invalid" liefern



wenn alle Vier invalid zurückliefern->Pech gehabt
der letzte hat geklappt

pest
2009-01-25, 21:09:41
also 3: merken

jetzt die Spannungswerte der einzelnen Register auslesen mit


RivaTuner.exe /ri#,70,15
RivaTuner.exe /ri#,70,16
RivaTuner.exe /ri#,70,17
RivaTuner.exe /ri#,70,18


für # setzt du 3 ein: also "RivaTuner.exe /ri3,70,15" für den ersten Registerdump

die Werte (hex) hier posten

Ronny G.
2009-01-25, 21:21:15
so das dürften sie sein

pest
2009-01-25, 21:34:45
jetzt ins Dezimalsystem übertragen um die VID zu bestimmen

15 -> 3B (HEX) = 59 (DEZ)
16 -> 31 (HEX) = 49 (DEZ)
17 -> 36 (HEX) = 54 (DEZ)
18 -> 2F (HEX) = 47 (DEZ)

jetzt die dezimalen VID-Registerwerte in Spannungswerte umrechnen

Voltage = (VID * 0.0125) + 0.45

also
15 = 1.1875V
16 = 1.0625V
17 = 1.1250V
18 = 1.0375V

jetzt die Spannung herauspicken die der 3D-Spannung im Rivatuner am Nächsten liegt

? :)

Ronny G.
2009-01-25, 21:43:03
hmm ich weiß das GPU-Z im Idle 1.03V anzeigt und im Load 3D 1,18V anzeigt

und wie jetzt weiter?

pest
2009-01-25, 21:49:11
hmm ich weiß das GPU-Z im Idle 1.03V anzeigt und im Load 3D 1,18V anzeigt


das heißt um die 3D-Spannung zu ändern musst du auf Register 15 zugreifen
um die Idle-Spannung zu ändern auf Register 18

willst du jetzt z.B. 1.2V 3D haben rechnest du

VID = (Voltage - 0.45) / 0.0125

also (1.2 - 0.45) / 0.0125 = 60 DEZ (3C HEX)

den neuen Spannungswert 3C musst du jetzt in Register 15, Bus 3 schreiben

mit "RivaTuner.exe /wi3,70,15,3C"

Ronny G.
2009-01-25, 21:52:13
das ganze funktioniert nur mit Rivatuner? also reiner Softmod? Wie aktiviere bzw. deaktivere ich das genau? Ein bisl mulmig ist mir ja schon

edit:@Gast
zwischen MEINEN und KÖNNEN liegt ein großer Unterschied!

=Floi=
2009-01-25, 21:55:14
RivaTuner.exe /wi3,70,15,40 =1,25Volt
RivaTuner.exe /wi3,70,15,44 =1,30Volt

ist ja ganz einfach

pest
2009-01-25, 21:59:33
das ganze funktioniert nur mit Rivatuner?


Rivatuner hat ein Plugin für den Spannungsregler der HD38xx,HD48xx,GT200 65nm


also reiner Softmod? Wie aktiviere bzw. deaktivere ich das genau? Ein bisl mulmig ist mir ja schon


na du programmierst den Spannungsregler. Einfacher gehts doch nicht :)
ich glaube nichtmal das das permanent ist, also du müsstest dir ne Batchdatei schreiben, oder falls es permament ist, halt mehrere Batchdateien

nun probier's schon aus, und schau ob unter 3D die Spannung geändert wurde, da kann nicht viel passieren

Ronny G.
2009-01-25, 22:01:32
ja wenn man einmal das ganze gerechne hat geht es wohl einfach, aber genau bekomme ich halt nicht ohne weiteres hin und bin dann auch so frei einfach mal freundlich nachzufragen ob jemand helfen kann.

Ich probiere das ganze dann mal aus, muß noch fix zu nem Kumpel, in ner std. bin ich wieder da und berichte. Vielen Dank nochmal an dich PEST der mir einfach so geholfen hat:up: scheint ja hier immer seltener zu werden

edit:
Cool es geht GPU-Z zeigt es an!!!!!!!
http://www.abload.de/img/111111111v9wm.jpg

AnarchX
2009-01-25, 22:03:57
das ganze funktioniert nur mit Rivatuner? also reiner Softmod? Wie aktiviere bzw. deaktivere ich das genau? Ein bisl mulmig ist mir ja schon

Mit "RivaTuner.exe /wi3,70,15,3B" kommtst du wieder auf die Standard 1.18V deiner Karte, ansonsten sollten auch bei einem Neustart die entsprechenden Register wieder mit den Standardwerten durch das BIOS beladen werden.

pest
2009-01-25, 22:08:28
Ich probiere das ganze dann mal aus, muß noch fix zu nem Kumpel, in ner std. bin ich wieder da und berichte. Vielen Dank nochmal an dich PEST der mir einfach so geholfen hat:up: scheint ja hier immer seltener zu werden

edit:
Cool es geht GPU-Z zeigt es an!!!!!!!
http://www.abload.de/img/111111111v9wm.jpg

np...und sieht doch gut aus :) ... wenn die Spannung jetzt auch real anliegt wäre das noch besser. Mich würde ja interessieren ob du über 1.35V kommen kannst, aber wie gesagt, würde mich über Infos freuen

Falsch! Der Wert der in das Register geschrieben werden soll muss Hexadezimal (http://de.wikipedia.org/wiki/Hexadezimalsystem) sein.

40 und 44 stimmen schon

Ronny G.
2009-01-26, 00:02:31
das hier bitte löschen

Ronny G.
2009-01-26, 00:02:51
die voltage muß übernommen wurden sein, die OC-Werte sprechen ne klare sprache, das war jetzt nur mal nen kurzer test.

Ich habe definitiv Blut geleckt, ich muß vernünftig sein, ich muß vernünftig, ich muß vernünftig sein
:unono: <> :devil:
http://www.abload.de/thumb/leckmichamarsch9sws.jpg (http://www.abload.de/image.php?img=leckmichamarsch9sws.jpg)

=Floi=
2009-01-26, 00:20:36
da kommen die spannungsregler aber ganz schön ins schwitzen. Die 295er hat übrigens nur 3 phasen pro karte, also sollte man da nicht so hoch gehen.

Ronny G.
2009-01-26, 00:23:28
da kommen die spannungsregler aber ganz schön ins schwitzen. Die 295er hat übrigens nur 3 phasen pro karte, also sollte man da nicht so hoch gehen.

ja das kommen sie auch, deswegen habe nur mal ganz grob gemacht, die Spannungswandler sind momentan noch nicht mitgekühlt, es hängt nur ein 12er Lüfter vorm PCB und nen Singlegpukühler hängt drauf, übrigens der gleiche wie auch auf meine 8800er GTS damals(864/2106/1154Mhz) Ich muß morgen noch bei Conrad die Klebepads kaufen um die Kühlkörper zu montieren.

derguru
2009-01-26, 00:32:52
muhaa wie geil ist das denn,62 Ampere mit einer karte;D

die armen netzteile;)

Ronny G.
2009-01-26, 00:44:49
muhaa wie geil ist das denn,62 Ampere mit einer karte;D

die armen netzteile;)

für 24/7 ist das aber echt mal tödlich, ich denke selbst zum benchen wird es fieß für die Karte wie auch dem NT
Ich denke viel mehr wird die Karte auch nicht skalieren, ich kann es mir zumindest schwer vorstellen. Hat mal jemand ne OC-Takt Liste für den GT200, meine geht nur bis 802Mhz;D

dargo
2009-01-26, 00:53:44
muhaa wie geil ist das denn,62 Ampere mit einer karte;D

die armen netzteile;)
Dem Netzteil macht das doch nicht so viel aus. Sind doch nur knapp 79W für die GPU. ;)

Ronny G.
2009-01-26, 00:57:19
so ich jetzt vorm Bett gehen noch mal fix an der Karte gemessen, bei 1,25V laut GPU-Z liegen effektiv über Multimeter gemessen 1,23-1,24V an, geht also wirklich

gn8

derguru
2009-01-26, 01:22:20
Dem Netzteil macht das doch nicht so viel aus. Sind doch nur knapp 79W für die GPU. ;)

ach watt:rolleyes:

2 von der sorte würden manchen 1000W netzteilen in die kniee zwingen.

dargo
2009-01-26, 01:33:41
ach watt:rolleyes:

2 von der sorte würden manchen 1000W netzteilen in die kniee zwingen.
62,9A*1,25V=xxW?

Ich habe ja gesagt, dass die ~79W nur für die GPU gelten. Das PCB und der Speicher brauchen auch noch Saft. :wink:

=Floi=
2009-01-26, 01:57:51
da wird eine andere spannung gemessen (3,3volt?) Die karte dürfte locker über 200 watt verbrauchen und da sollte alleine die gpu mit über 170watt zuschlagen. Das kann so nicht passen!
http://www.xbitlabs.com/articles/video/display/zotac-gfgtx280amp_5.html#sect0

bei 80watt@vollast bei 800mhz und 1,25volt würde man wohl alle anderen chiphersteller um welten deklassieren ;D
edit
der chip wurde dann wohl schon bei amd in dresden gefertigt ;D ;) hrhr

Frank1974
2009-01-26, 02:11:19
Auf dem Bild von Ronny ist übrigens schon ein Fehler, die gelben Punkte leuchten immer kurz auf, wenn zu hoch getaktet ist, aber es wird kein Fehler gemeldet.

Habe es mit einem Roten Kreis markiert.
http://www.abload.de/thumb/leckmichamarsch9sws1kplh.jpg (http://www.abload.de/image.php?img=leckmichamarsch9sws1kplh.jpg)

Der Takt ist also schon zu viel.

/edit
Es ist aber trotzdem ein gutes Ergebnis, also nicht falsch verstehen:smile:

mfg
Frank

Ronny G.
2009-01-26, 05:54:33
Auf dem Bild von Ronny ist übrigens schon ein Fehler, die gelben Punkte leuchten immer kurz auf, wenn zu hoch getaktet ist, aber es wird kein Fehler gemeldet.

Habe es mit einem Roten Kreis markiert.
http://www.abload.de/thumb/leckmichamarsch9sws1kplh.jpg (http://www.abload.de/image.php?img=leckmichamarsch9sws1kplh.jpg)

Der Takt ist also schon zu viel.

/edit
Es ist aber trotzdem ein gutes Ergebnis, also nicht falsch verstehen:smile:

mfg
Frank

jetzt wo du es sagst, es fällt am besten auf wenn man es vergrößert, mir ist es wirklich nicht aufgefallen, könnte sonst auch einfach nur ein hellbrauner pixel sein, na gut bei dem Shadertakt, der ist ja schon pervers hoch für ne GTX280, -150Mhz schaffen schon nicht alle.
Jetzt wo mal so schaue, kann es manchmal daran liegen das Nhancer noch 2x2SSAA aktiert hat, dazu noch AF, war noch vom letzten Fallout3 ausflug, greift das bei Ati-tool?

Die richtigen Tests kommen eh erst wenn ich die karte optimal kühlen kann, momentan hängt wiegsagt nirgends ein Kühlkörper drauf, nur ein 12er Lüfter sorgt für Kühlung, und natürlich der GPU-Onlykühler.

übrigens bei diesem test hier lagen ähnlich viel Ampere an, das bei 1,18v ohne Vmod, steigt also nicht mal soooo stark durch den voltmod an.
http://www.abload.de/thumb/atitoolwk777pyop.jpg (http://www.abload.de/image.php?img=atitoolwk777pyop.jpg)

Frank1974
2009-01-26, 07:12:41
jetzt wo du es sagst, es fällt am besten auf wenn man es vergrößert, mir ist es wirklich nicht aufgefallen, könnte sonst auch einfach nur ein hellbrauner pixel sein, na gut bei dem Shadertakt, der ist ja schon pervers hoch für ne GTX280, -150Mhz schaffen schon nicht alle.
Jetzt wo mal so schaue, kann es manchmal daran liegen das Nhancer noch 2x2SSAA aktiert hat, dazu noch AF, war noch vom letzten Fallout3 ausflug, greift das bei Ati-tool?

Die richtigen Tests kommen eh erst wenn ich die karte optimal kühlen kann, momentan hängt wiegsagt nirgends ein Kühlkörper drauf, nur ein 12er Lüfter sorgt für Kühlung, und natürlich der GPU-Onlykühler.

übrigens bei diesem test hier lagen ähnlich viel Ampere an, das bei 1,18v ohne Vmod, steigt also nicht mal soooo stark durch den voltmod an.
http://www.abload.de/thumb/atitoolwk777pyop.jpg (http://www.abload.de/image.php?img=atitoolwk777pyop.jpg)

Ja ist schon ein extremer Takt, noch ein wenig mehr und du kommst meiner GTX295 immer näher:smile:

Und wegen ATI-Tool, normal greift das, habe mal zur Probe ohne AA+AF den Würfel drehen lassen, da waren 1650fps, mit 16xAF und 2x2SSAA sind es nur noch 1250fps.

mfg

Gast
2009-01-26, 11:14:04
muhaa wie geil ist das denn,62 Ampere mit einer karte;D


was soll daran viel sein?

mit furmark kommt die karte @default auf ~80A.

VooDoo7mx
2009-01-26, 14:21:33
So hab jetzt mal mit dem Rivatuner Kommandozeilendings rumgespielt.

Hab mal meine 65nm GTX 260-192 auf 0.95V gestellt und ca ne halbe Stunde Mirror´s Edge lief problemlos durch. :ugly:
Maximaltemperatur mit dem Standradkühler war 61°C. :ugly: Der Lüfter hat nicht 1 Sekunde schneller als seine 40% gedreht.

Ich teste jetzt 0,9V. :ugly:

Gast
2009-01-26, 14:51:02
Hab mal meine 65nm GTX 260-192 auf 0.95V gestellt und ca ne halbe Stunde Mirror´s Edge lief problemlos durch. :ugly:
Maximaltemperatur mit dem Standradkühler war 61°C. :ugly: Der Lüfter hat nicht 1 Sekunde schneller als seine 40% gedreht.



ich würd dir empfehlen gleich auch die minimale lüfterdrehzahl auf 20-25% zu verringern.

TheBrother
2009-01-26, 15:08:14
Ist ja der Hammer! Das mit Rivatuner und der Kommando Zeile. Wusste ich garnicht. Habe gerade ein wenig rumgespielt und bin begeistert!

ein Glück ist bei mir ja alles Wassergekühlt. Wie weit sollte man mit der Voltage nach oben gehen?
Ist 1,2V für den Dauereinsatz schon zu viel?

Gruß

Euphorischer Brother

pest
2009-01-27, 10:19:18
Ist 1,2V für den Dauereinsatz schon zu viel?


Dem Chip dürften, vor allem unter H2O 10% mehr Spannung rel. egal sein, also 1.3V.
Auf die Spannungsversorgung würde ich Acht geben.
Meine 8800GT läuft Luftgekühlt unter Last mit 1.38V, default ist 1.1V->keine Probs seit Monaten

@RonnyG
kannst du mal 1.4V einstellen, und nur schauen ob die real anliegen?

Ronny G.
2009-01-27, 13:24:40
das kann ich machen, aber nur fix probieren, 1,4V sind ja nicht wenig, aber jetzt mit Wakü kein Problem, dazu brauche ich die nötige Zahl.

Ich muß auf jedenfall ein anderes Bios flashen, eines mit nem geringeren Shadertakt, mein Kärtchen skaliert kaum mit der mehr voltage, obwohl diese nachweislich anliegen.
Da der Coretakt an den Shadertakt gebunden ist und man immer nur "stufenweise" mit dem Shadertakt auch den Coretakt anheben kann. 1728Mhz Shadertakt sind momentan die bremse, das schafft meine GTX einfach nicht, auch nicht mit 1,3V, sind ja auch perverse zahlen wenn man bedenkt das die GTX280 standart 1296Mhz Shadertakt hat.;D

aber ich will das taktthema nicht weiter hier ausbreiten, ich werde dann mal in den GTX-OC thread umziehen wenn es was neues dazu gibt.

AnarchX
2009-01-27, 13:27:09
Verwende doch den Rivatuner oder EVGA Precision (RT Light), dort kannst du TMU und Shaderdomain entkoppeln.

Ronny G.
2009-01-27, 13:34:04
Verwende doch den Rivatuner oder EVGA Precision (RT Light), dort kannst du TMU und Shaderdomain entkoppeln.

ich weiß das man den entkoppeln kann, aber es geht dann trotzdem nur in dem Raster weiter, wenn du z.b. nen Shadertakt von 1620Mhz einstellst kann du damit nur einen Coretaktbereich von 774Mhz bis 792Mhz nutzen, alles was darüber ist geht nicht oder macht gleich fehler im Test. Scheinbar reagiert der Shadertakt mit höheren Coretakt auch wesentlich sensibler. Irgendwas liegt da noch im Argen, ich bin dran und probe weiter woran es doch liegen kann.
Die RV770 meiner HD4870 hat sich ähnlich verhalten, irgendwie null Skalierung mit steigende Volt, kann ja auch ein Architekturproblem sein, vielleicht sind die Core´s einfach nicht mehr so VGPU-Mod geil wie noch ein G92.

pest
2009-01-27, 14:17:46
dazu brauche ich die nötige Zahl.


(1.40 - 0.45) / 0.0125 = 76 = 4 * 16 + 12 -> 4C

Ronny G.
2009-01-27, 15:16:37
ja er nimmt 1,4V an, gemessen per Multimeter habe ich jetzt zwar nicht, aber man sieht schon an dem anstieg der Temperatur sehr schön das es übernommen wird.

VooDoo7mx
2009-01-27, 15:19:29
Also meine GTX 260-192 packt den Standardtakt problemlos mit 0,9V. :ugly:
0,85V geht nicht.

TheBrother
2009-01-27, 16:05:56
Sind die 4 beschriebenen Register eigentlich nur für die G200 Chipserie? oder für alle nvidia Karten. Meine 9600gt von Gigabyte kann theoretisch auch andere Voltages, versagt aber bei diesen Registern.

Gruß

Brother

OC_Burner
2009-01-27, 16:34:00
Also meine GTX 260-192 packt den Standardtakt problemlos mit 0,9V. :ugly:
0,85V geht nicht.

Zufällig ein Strommessgerät zur Hand?

VooDoo7mx
2009-01-27, 16:49:57
Sind die 4 beschriebenen Register eigentlich nur für die G200 Chipserie? oder für alle nvidia Karten. Meine 9600gt von Gigabyte kann theoretisch auch andere Voltages, versagt aber bei diesen Registern.

Ich glaube das geht nur bei G200 Karten momentan.
Zufällig ein Strommessgerät zur Hand?
Nein leider nicht. Wobei auch diese ganzen Strommessgeräte die viele hier haben auch von der Genauigkeit nicht wirklich gut sind.
Aber ich habe die Temperatur überwacht und diese ist schon viel niedriger als normal.
Bei einigen Spielen erreicht die Grafikkarte jetzt nicht mal mehr 60°C bei 40% Lüfterdrehzahl.

Wenn du ein messgerät ahst, probier es einfach mal selber aus. Der Aufwand ist gering und kaputt gehen kann eigentlich nichts.

Gast
2009-01-27, 17:27:48
bei meiner zotac gtx260 55nm geht es scheinbar nicht. hat jemand ähnliche erfahrungen mit den neuen karten gemacht?

TheRealVampire
2009-01-27, 18:06:06
Leider geht mit meiner 8800Gts G92 auch nix,und wird vermutlich auch nie gehen,die 4 Startparameter von Rivatuner funzen natürlich auch nicht :-(

Ronny G.
2009-01-27, 18:35:13
wie sieht es den bei den GT200 Usern aus? lasst mal das Öko getue und macht euch mal rann die Spannung zu erhöhen statt zu senken, wie skalieren eure Karten damit.
Ich habe nämlich zusehens das Gefühl das sich da garnichts bei mir tut, als ob der Mod überhaupt nicht greift.

VooDoo7mx
2009-01-27, 18:52:11
wie sieht es den bei den GT200 Usern aus? lasst mal das Öko getue und macht euch mal rann die Spannung zu erhöhen statt zu senken, wie skalieren eure Karten damit.
Ich habe nämlich zusehens das Gefühl das sich da garnichts bei mir tut, als ob der Mod überhaupt nicht greift.

Ich bin kein Freund von Spannungserhöhungen. Schon auf Standard, also 1,125V kann die Karte mit eienr fordernden Anwendung richtig heiß werden. Ich will nicht unbedingt meine Karte grillen udn hab auch keine Wakü wie du drauf.

Ronny G.
2009-01-27, 19:45:24
Ich bin kein Freund von Spannungserhöhungen. Schon auf Standard, also 1,125V kann die Karte mit eienr fordernden Anwendung richtig heiß werden. Ich will nicht unbedingt meine Karte grillen udn hab auch keine Wakü wie du drauf.

na mit 100% kann man ja eigentlich ohne bdenken mal 1,2V probieren, sollst das ding ja nicht sadomasomäßig mit Furmark verkolen lassen.

OC_Burner
2009-01-27, 20:02:57
So habe mal den Stromverbrauch meiner GTX280 mit FurMark getestet (verbrauch Gesamtsystem).:

Default Clocks @ 0,95V = 280W
Default Clocks @ 1,05V = 300W
Default Clocks @ 1,18V = 345W (Standard)
Default Clocks @ 1,25V = 370W
Default Clocks @ 1,35V = 415W
OC Clocks (777MHz GPU / 1620MHz Shader / 1250MHz RAM) @ 1,35V = 480W

Die Temperaturen sahen unter FurMark wie folgt aus.:

Default Clocks / 0,95V = 41°C GPU-Temp / 70°C VDDC-Temp
Default Clocks / 1,35V = 49°C GPU-Temp / 100°C VDDC-Temp
OC Clocks (777MHz GPU / 1620MHz Shader / 1250MHz RAM) / 1,35V = 51°C GPU-Temp / 135°C VDDC-Temp

;D

Das ganze auch im IDLE.:

IDLE Clocks @ 0.95V = 145W
IDLE Clocks @ 1,05V = 149W
IDLE Clocks @ 1,18V = 157W
IDLE Clocks @ 1,25V = 161W
IDLE Clocks @ 1,35V = 172W
OC Clocks (777MHz GPU / 1620MHz Shader / 1250MHz RAM) @ 1,35V = 195W


200W Unterschied... Ich hau mich weg.

mike49
2009-01-27, 20:16:45
200W Unterschied... Ich hau mich weg.

Wie ist denn die Effizienz von deinem NT?

OC_Burner
2009-01-27, 20:26:16
Sie soll ein Durchschnitt von 83% haben (BeQuiet, Straight Power BQT E5-700W).

Ronny G.
2009-01-27, 20:53:03
und hat bei dir mehr voltage auch mehr Takt gebracht?

OC_Burner
2009-01-27, 21:26:04
Mehr wie 727MHz GPU oder so gingen mit der Karte bei Standardvoltage nicht. Bei 1.35V habe ich einfach die Taktrate auf 777MHz GPU gestellt und es gab keine Artefakte und wahrscheinlich geht der Takt bei 1.35V noch sehr viel höher. Allerdings waren die Temperaturen (laut GPU-Z) der Spannungswandler mit 135°C etwas zu heiß wie ich finde. Deshalb habe ich das höhertakten nicht weiter probiert. Gekühlt wurde mit Wasser (Heatkiller).

Ronny G.
2009-01-28, 17:24:05
das ist interressant, deine kärtchen reagiert also fein auf die Voltsteigerung, gut, vielleicht ist mein NT wirklich am ende, ist ja schließlich nur ein 450W NT von BQ und dazu schon laut Wattmeßgerät sehr nahe an diese Spezifikation.

STRUCKI200
2009-01-30, 15:08:02
Hey kennt hier einer einen Softmod für eine 8800gts 512 mb ?
Im Netz find ich nix -.-

TheRealVampire
2009-01-30, 18:32:10
Für eine 8800Gts 512Mb G92 Chip gibts ja auch nix mehr die ist schohn beim Höchsten Wert,ich glaube 1,2V,da bleibt nur ein Hardware Mod,und da gibts genug anleitungen im Netz

Gast
2009-01-30, 21:53:15
Mehr wie 727MHz GPU oder so gingen mit der Karte bei Standardvoltage nicht. Bei 1.35V habe ich einfach die Taktrate auf 777MHz GPU gestellt und es gab keine Artefakte und wahrscheinlich geht der Takt bei 1.35V noch sehr viel höher. Allerdings waren die Temperaturen (laut GPU-Z) der Spannungswandler mit 135°C etwas zu heiß wie ich finde. Deshalb habe ich das höhertakten nicht weiter probiert. Gekühlt wurde mit Wasser (Heatkiller).

Wie kommts, das die Wandler trotz Wakü und guter GPU-Temp so heiß werden? Hat der Kühler nicht richtig Kontakt oder liegts an schlechten Wärmeleitpads /Paste? Oder ist der Kühler einfach nur schlecht bei der Wandlerkühlung?

Gast
2009-01-31, 14:59:13
danke für die gepostete rivatuner anleitung. meine 280 gtx bekommt im idle jetzt 0.7v, im "3d" modus 0.8v und im extra modus (also der eigentliche 3d modus) 1.0375v (bei taktraten von 675, 1404 und 1188 mhz). minimum waren vorher nur 1.0625, was ich durch einen bios mod geschafft hatte. die neue idle spannung spart ca. 15watt und der gpu core bleibt 10° kühler!

Gast
2009-01-31, 15:01:12
edit: und leise ist die karte auch. unhörbar im idle und etwas wahrnehmbar in spielen. dabei laufen meine gehäuselüfter schon sehr niedrig. ich bin echt begeistert von der karte. durch den mod ist sie wirklich leise und stromsparend aber trotzdem sauschnell :)

Ronny G.
2009-02-05, 14:48:39
da war jetzt jemand schneller, gut so!!!:

http://www.awardfabrik.de/awardfabrik/voltagefactory-v1.00.html


ich probiere es auch gerade, es sollen sogar ATI HD48xx Karten gehen!

dargo
2009-02-05, 15:46:34
da war jetzt jemand schneller, gut so!!!:

http://www.awardfabrik.de/awardfabrik/voltagefactory-v1.00.html


ich probiere es auch gerade, es sollen sogar ATI HD48xx Karten gehen!
Dieses Tool ist genial! :up:

Nur wie kann ich überprüfen ob auch wirklich die Spannung die ich angelgt habe übernommen wird? Ich habe gerade in Idle statt 1.03V 0,93V angelegt. Wird auch im RT angezeigt. Die Frage ist halt ob die 0,93V auch tatsächlich anliegen. Muss wohl mein Strommessgerät anschließen.

misterh
2009-02-05, 15:48:39
da war jetzt jemand schneller, gut so!!!:

http://www.awardfabrik.de/awardfabrik/voltagefactory-v1.00.html


ich probiere es auch gerade, es sollen sogar ATI HD48xx Karten gehen!

hab mal getestet und zwar unter volten

zwar erstmal nur 3dmark2001 Nature auf 1920x1080

GTX280 standard !

16xQ 16xAF reichte ein 0.95v
4x4 16xAF dagegen 1.01v

werde jetzt mit Vantage mal durchtesten.

Slipknot79
2009-02-05, 16:06:43
>Muss wohl mein Strommessgerät anschließen.

Yo, meins bestätigt die Änderungen. Du kannst aber auch die Temperaturen der GPU beobachten.

misterh
2009-02-05, 16:09:19
also auch in vantage läuft mit 1.01v einwandfrei bis 8xAA 16xAF. bisjetzt halt.

>Muss wohl mein Strommessgerät anschließen.

Yo, meins bestätigt die Änderungen. Du kannst aber auch die Temperaturen der GPU beobachten.

Temp ging laut rivatuner monitor 75° auf 68°

Slipknot79
2009-02-05, 16:26:27
>also auch in vantage läuft mit 1.01v einwandfrei bis 8xAA 16xAF. bisjetzt halt.

Furmark zum Testen anschmeißen :redface:

VooDoo7mx
2009-02-05, 16:44:00
Also meine GTX 260 läuft bei Furmark + xtreme burning mode und 16xAA problemlos bei 0,9V.

Dieses Tool ist genial! :up:

Nur wie kann ich überprüfen ob auch wirklich die Spannung die ich angelgt habe übernommen wird? Ich habe gerade in Idle statt 1.03V 0,93V angelegt. Wird auch im RT angezeigt. Die Frage ist halt ob die 0,93V auch tatsächlich anliegen. Muss wohl mein Strommessgerät anschließen.

Also man merkt schon ueberdeutlich das es funktioniert an den Lüfterdrehzahlen udn den Temperaturen. Wenn meine GTX 260 bei Mirrors Edge nur noch 61°C bei 40% Lüfterdrehzahl erreicht, merkt man schon, dass die Karte gut undervoltet ist. ;)
Mit Strommessgerät hat man dann den absoluten Beweis.

OC_Burner
2009-02-05, 16:57:26
Die Spannungswandlertemperaturen laut GPU-Z reagieren übrigens auch sehr empfindlich auf Spannungsänderungen.

ZapSchlitzer
2009-02-05, 17:19:52
Hat schon jemand mit einer GTX260 55nm getestet.
Bei mir findet das Programm den nötigen I2C bus net.

dargo
2009-02-05, 17:20:52
Also man merkt schon ueberdeutlich das es funktioniert an den Lüfterdrehzahlen udn den Temperaturen. Wenn meine GTX 260 bei Mirrors Edge nur noch 61°C bei 40% Lüfterdrehzahl erreicht, merkt man schon, dass die Karte gut undervoltet ist. ;)

Ich habe bis jetzt nur die Spannung in Idle geändert. Und da ändert sich kaum was an den Temperaturen. ;) Ich meine aber es wären 2-3°C mit 0,90V weniger.

Hat schon jemand mit einer GTX260 55nm getestet.
Bei mir findet das Programm den nötigen I2C bus net.
Wie wärs mir 'readme' lesen. ;)

misterh
2009-02-05, 17:28:33
http://www.abload.de/img/1.01volt53u1.jpg

Ronny G.
2009-02-05, 17:31:53
ja bei den GTX285 + GTX260 55nm geht das tool nicht.........bei mir funktioniert es wunderbar, kann jetzt so richtig unkompliziert herum spielen;D Vorallem scheint auch meine GTX280 mit weniger Spannung hervoragend zu recht zu kommen, was beim Zocken ja völlig reicht.

dargo
2009-02-05, 17:37:51
Mal ne andere Frage - ich habe mich jetzt an 1,17V unter Last gewagt. Kann es sein, dass der Rivatuner bei einer GTX260 bei 729Mhz GPU-Takt zumacht? Egal was ich darüber einstelle, mehr wie 729Mhz werden nicht angenommen. :confused:

VooDoo7mx
2009-02-05, 17:40:47
@MisterH
Was hast du für Lüfterdrehzahlen einegstellt? Wenn du die auf Standard hast, kann man die verschiedenen Temperaturen nicht so direkt vergleichen, da die Steuerung ab 70°C ca greift.
Ich würde die Drehzal mal fest auf irgendwo zwischen 50 und 60% stellen und dann nochmal schauen.
Mal ne andere Frage - ich habe mich jetzt an 1,17V unter Last gewagt. Kann es sein, dass der Rivatuner bei einer GTX260 bei 729Mhz GPU-Takt zumacht? Egal was ich darüber einstelle, mehr wie 729Mhz werden nicht angenommen. :confused:
Der Takt der TMU Domäne kann nie mehr als die Hälfte der Shader Domäne sein. Du musst also mit dem Shadertakt hoch, wenn du mehr willst.

@allgemein
Hmm wer hätte gedacht, dass eine "alte" 65nm GTX 260 nochmal Vorteile gegenüber eine 55nm hat. :usweet:

dargo
2009-02-05, 17:45:52
Der Takt der TMU Domäne kann nie mehr als die Hälfte der Shader Domäne sein. Du musst also mit dem Shadertakt hoch, wenn du mehr willst.

Aha. Das ist natürlich blöd da die ALUs bei 1512Mhz dicht machen. Grafikfehler im 3DMark06. ;(

misterh
2009-02-05, 17:51:59
@MisterH
Was hast du für Lüfterdrehzahlen einegstellt? Wenn du die auf Standard hast, kann man die verschiedenen Temperaturen nicht so direkt vergleichen, da die Steuerung ab 70°C ca greift.

Ist egal hab eben Stromverbrauch gemessen

1.01v -> 81° -> ~ 285watt
1.15v -> 86° -> ~ 325watt
1.30v -> 92° -> ~ 395watt

VooDoo7mx
2009-02-05, 17:54:17
Aha. Das ist natürlich blöd da die ALUs bei 1512Mhz dicht machen. Grafikfehler im 3DMark06. ;(

Ist bei meiner GTX 260 genauso.
Ich hab mal nen bisl rumgetestet und meienr GTX 260 mal die GTX 280 Spannung gegeben, also 1,18V. Hab dann mal Shader auf 1512 gestellt und mit Mirrors Edge getestet und solange die GPU unter ca 75°C blieb, kamen keine Bildfehler.
Wenn man Lärmresistent ist, kann man also mit der Spannungserhöhung und hoher Lüfterdrehzahl von 60%+ auch 1512MHz Shader schaffen. AM besten gleich ne Wakü, dann kann man gut overvolten, übertakten und hat keinen Krach. ;)
Ist egal hab eben Stromverbrauch gemessen

1.01v -> 81° -> ~ 285watt
1.15v -> 86° -> ~ 325watt
1.30v -> 92° -> ~ 395watt

Also ich hätte Angst davor, auf meiner GTX 260 überhaupt 1,30V einzustellen. :ugly:

misterh
2009-02-05, 17:58:11
Also ich hätte Angst davor, auf meiner GTX 260 überhaupt 1,30V einzustellen. :ugly:

i wo, war nur sponstane einstellung. ist wieder kleiner :biggrin:

dargo
2009-02-05, 18:05:53
Wenn man Lärmresistent ist, kann man also mit der Spannungserhöhung und hoher Lüfterdrehzahl von 60%+ auch 1512MHz Shader schaffen. AM besten gleich ne Wakü, dann kann man gut overvolten, übertakten und hat keinen Krach. ;)

Nee, eine Wakü ist nichts für mich. So hart an der Grenze lasse ich die Hardware nie laufen. Wenn nicht mehr geht und die Leistung nicht mehr ausreicht wird einfach eine schnellere Graka besorgt. :D

Edit:
Hmm, ich glaube ich habe meine Settings gefunden:

2D = 0,80V @300/600/100Mhz
3D = 1,15V @729/1458/1215Mhz

Morgen schließe ich mal meinen Energy 3000 dran dann schauen wir mal was die 0,80V im Vergleich zu standard 1,04V in Idle bringen.

Edit2:
Gibt es auch eine Möglichkeit, dass die geänderten Spannungen auch nach einem Windows Neustart erhalten bleiben?

ottoman
2009-02-06, 02:51:58
einfach ne batch schreiben und die in den autostart packen.

OC_Burner
2009-02-06, 08:06:30
Naja einfach eine Batchdatei in den Autostart schieben ist nicht, sonst gibts unter Umständen ein hübschen freeze.;D Dürfte wohl passieren wenn die Taktraten von Rivatuner gemanaged werden. Sollte die Batchdatei vor dem Start von Rivatuner geladen werden dann ist das erste was die EXE des Rivatuners macht, die Spannungen zu senken ohne das vorher vielleicht die Taktraten gesenkt wurden. Vorzugsweise sollte die Batchdatei deshalb im Autostart von Rivatuner liegen.

Wenn man will sollte man sich auch gleich zwei Scripte für 2D und 3D anlegen die sich per Tastenkombination umschalten lassen. Einfach im Rivatuner zwei Profile für die Taktraten erstellen und sich jeweils eine Verknüpfung erstellen lassen. Aus der Verknüpfung sich den Programmpfad herraus kopieren und zusammen mit dem Spannungsänderungsbefehl in eine VBS-Scriptdatei speichern (.txt umbenennen zu .vbs und im Ordner von Rivatuner speichern) Das ganze könnte dann für den 2D-Modus so aussehen.:

Set WSHShell = WScript.CreateObject("WScript.Shell")
WSHShell.Run "RivaTuner.exe /L:490b9beb"
WScript.Sleep 250
WSHShell.Run "RivaTuner.exe /wi3,70,18,1C"

Wenn die VBS-Scriptdatei nun gestartet wird, senken sich die zuerst die Taktraten und kurz danach mit einem zeitlichen Abstand von 250ms die Spannungen. Für den 3D-Modus sollte natürlich erst die Spannung erhöht werden und dann die Taktrate, aber sollte ja klar sein.:D

Standard 1.0375V zu 0.0800V bringt bei 2D-Taktraten eine Ersparniss von gut 5W.

ottoman
2009-02-06, 13:35:28
so schwer muss man sich das garnicht machen. eine gtx 280 zb hat doch 3 verschiedene taktzustände: 2d, 3d und extra. denen gibt man 3 verschiedene spannungen und ändert eben diese spannungen per batch datei. somit läßt man die grafikkarte die energiesparfunktion selbst managen und ändert nur die spannungen für jede der 3 modi. einfacher gehts doch nicht, da brauch man auch keinen rivatuner im autostart :)

OC_Burner
2009-02-06, 17:15:40
Klar wenn was automatische Treiberswitschen funktioniert sollte die Methode einfacher sein. Bei Leuten mit zwei Monitoren oder bei denen wo das umschalten aus irgendeinen Grund auch nicht funktioniert dann sollte man sich schon irgendwas mit einer Scriptdatei einfallen lassen. Aber hat Rivatuner nicht auch eine 2D/3D erkennung? Vielleicht könnte man daran die Sripts koppeln.

dargo
2009-02-06, 17:18:32
einfach ne batch schreiben und die in den autostart packen.
Wie muss die denn genau aussehen? Ich blicke da nicht ganz durch. Falls notwendig, so sieht es bei mir aus:
http://img3.imagebanana.com/img/hr12xun/Vcore.PNG


Standard 1.0375V zu 0.0800V bringt bei 2D-Taktraten eine Ersparniss von gut 5W.
Bei mir sinds aufs Gesamtsystem bezogen 8W weniger. In beiden Fällen mit 150/300/100Mhz in Idle.

dargo
2009-02-07, 17:07:56
:wave2:

Kann mir Jemand bei der Frage im letzten Post helfen? Ich würde gerne die Spannungen auch nach einem Neustart von Windows behalten. :)

Slipknot79
2009-02-07, 18:07:48
wtf, dachte ich habs hier gepostet, muss wohl ein anderer Thread sein:

"C:\Program Files (x86)\RivaTuner v2.22\RivaTuner.exe" /wi3,70,18,1C

dargo
2009-02-07, 18:11:31
wtf, dachte ich habs hier gepostet, muss wohl ein anderer Thread sein:

"C:\Program Files (x86)\RivaTuner v2.22\RivaTuner.exe" /wi3,70,18,1C
Das würde aber nur bedeuten - 2D mit 0,080V oder? Schau mal bitte hier:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7091281&postcount=23

Slipknot79
2009-02-07, 18:13:13
Genau, sollte die 260 vertragen (geht bei meiner auch, mit 0,7V hatte ich schon ein schwarzes Bild).

Wennst auf Nummer sicher gehen willst (also abwägen, was geht und was geht ned), dann mach erst mal keine Batch sondern führe die Zeile über Win-Taste+R aus. Zwischenschritte gehen auch, also zB 0,75V wenn es dir auf die 1-2W ankommt. ^^


btw, du brauchst nur 1 Zeile für 2D, wozu die anderen (3D)? Willst du die Spannung für 3D heben oder senken?


Meine Batch-Datei sieht so aus:

"C:\Program Files (x86)\RivaTuner v2.22\RivaTuner.exe" /sd0 /wi3,70,18,1C
"C:\Program Files (x86)\RivaTuner v2.22\RivaTuner.exe" /sd2 /wi3,70,18,1C


/sd für select device, das brauchst du aber ned. Die 3D Spannung habe ich schon mit nibitor und BIOS-Flash auf 1.06V (von 1.1875) gesenkt, macht ca 100W weniger in Furmark und ca 80W in Warhead). Idle-Lüfterdrehzahl habe ich von 40% auf 25% gesenkt, ebenfalls mit Nibitor. Somit sind die Karten unhörbar.

dargo
2009-02-07, 18:24:20
btw, du brauchst nur 1 Zeile für 2D, wozu die anderen (3D)?

Ja.


Willst du die Spannung für 3D heben oder senken?

Senken, auf 1,0625V. Also müsste es bei mir so aussehen oder?

"C:\Program Files (x86)\RivaTuner v2.22\RivaTuner.exe" /wi3,70,16,31 /wi3,70,17,31 /wi3,70,18,1C

Ist das soweit korrekt?
1. (16) 1,0625V
2. (17) 1,0625V
3. (18) 0,0800V

15, also die standard 1,1875V (wozu dient diese eigentlich???) kann ich ja auslassen. Das will ich eh nicht ändern.

Slipknot79
2009-02-07, 18:32:28
/sd0 brauchst ned, kannst weglassen.

Register 16 und 17 (kA wofür der ist, VRAM?) kannst auch weglassen.

"C:\Program Files (x86)\RivaTuner v2.22\RivaTuner.exe" /wi3,70,15,31 /wi3,70,18,1C

Die Änderungen werden SOFORT übernommen, brauchst keinen Neustart des PCs.

dargo
2009-02-07, 18:34:54
Register 16 und 17 (kA wofür der ist, VRAM?) kannst auch weglassen.

15 = ???
16 = low 3D
17 = 3D
18 = 2D

Slipknot79
2009-02-07, 18:41:51
15 ist 3D. Rund 1.19V werden da angelegt. Sollte auch Rivatuner und GPU-Z anzeigen. Zur Kontrolle kannst Furmark starten (nur die Optionen starten, schon da geht die Karte auf 3D) und schauen was die beiden Programme für ne Spannung anzeigen. Voltage Regulator Output heißt es im RT und VDDC (letzte Position bei den Sensoren) im GPU-Z.
Wenn du Strom sparen willst, las die Standard-Taktraten und geh auf 1.0625V. Mehr als ein schwarzes Bild im 3D-Modus wird nicht passieren.

16 ist low 3D und ist schon vom Werk aus auf 1.0625V eingestellt, also sinnlos der Eintrag im Rivatuner.

18 ist 2D, stimmt.

dargo
2009-02-07, 18:52:50
15 ist 3D. Rund 1.19V werden da angelegt.
Nein, das ist definitiv nicht 3D. 3D ist bei mir 17 mit Standard 1,125V (im RT auf 1,13V aufgerundet).


16 ist low 3D und ist schon vom Werk aus auf 1.0625V eingestellt, also sinnlos der Eintrag im Rivatuner.

Naja, so ganz sinnlos ist es nicht. Schließlich reichen bei mir 1,0625V für 621/1458/1215Mhz unter Last. Also habe ich für low 3D 1,02V eingestellt (wahrscheinlich geht auch weniger). Bei low 3D taktet die Karte eh nur mit 400/800/300Mhz. :)

Slipknot79
2009-02-07, 18:54:41
Ach ok, dann wird wohl der 17er für die 260er genutzt und der 15er für die 280er GTXen. oO

Ok, dann "C:\Program Files (x86)\RivaTuner v2.22\RivaTuner.exe" /wi3,70,17,31 /wi3,70,18,1C.


>Bei low 3D taktet die Karte eh nur mit 400/800/300Mhz.

Genau, aber das nur für wenige Sekunden (glaube 10s). Also wenn du aus nem 3D Programm aussteigst, dann ist die Karte noch ca 10s auf 3D, dann ca 10s auf low 3D und dann erst auf 2D. Ja, wennst dadurch besser schlafen kannst, dann senke low 3D.

Wenn du dich den BIOS Flash traust, dann ist der Lüftermod (Idle von 40% auf 25%) auch empfehlenswert. Die Temps steigen dann wieder im Dekstop, aber bei mir sind es ca 5-7°C bei 0.8V. Damit kann ich leben wenn beide Grakas unhörbar sind.

dargo
2009-02-07, 19:04:43
Genau, aber das nur für wenige Sekunden (glaube 10s). Also wenn du aus nem 3D Programm aussteigst, dann ist die Karte noch ca 10s auf 3D, dann ca 10s auf low 3D und dann erst auf 2D. Ja, wennst dadurch besser schlafen kannst, dann senke low 3D.
:biggrin:

Damit:
"C:\Program Files (x86)\RivaTuner v2.22\RivaTuner.exe" /wi3,70,16,2e /wi3,70,17,31 /wi3,70,18,1c startet aber RT bei mir komischerweise nicht. :confused:

Habe es jetzt anders gelöst. RT startet wie gewohnt über die Registry und in den Autostart habe ich noch eine selbst erstellte Batch-Datei eingefügt.
RivaTuner.exe /wi3,70,16,2e
RivaTuner.exe /wi3,70,17,31
RivaTuner.exe /wi3,70,18,1c

Das funktioniert. :)

Slipknot79
2009-02-07, 19:07:02
Und jetzt beobachte die Temperaturen der GPU :) Sollten ca 5°C weniger sein in 2D, also nach ein paar wenigen Minuten.

dargo
2009-02-07, 19:16:25
Und jetzt beobachte die Temperaturen der GPU :) Sollten ca 5°C weniger sein in 2D, also nach ein paar wenigen Minuten.
Ja, das kommt so ungefähr hin. Sind auch 8W Brutto weniger.

derguru
2009-02-07, 19:26:09
it´s time;)

http://www.evga.com/default.asp
http://www.abload.de/img/front_004624azp.jpg

dargo
2009-02-07, 19:34:16
it´s time;)

http://www.evga.com/default.asp
http://www.abload.de/img/front_004624azp.jpg
Leider nur für 3D.

derguru
2009-02-07, 19:35:13
mehr brauch ich auch nicht;)

AnarchX
2009-02-07, 19:46:24
Maximal nur 1.18V?

Slipknot79
2009-02-07, 19:47:55
Maximal nur 1.18V?


Das wäre weniger als das was eine 280 GTX anlegt :redface:

derguru
2009-02-07, 19:53:06
wollten wohl auf nummer sicher gehen,macht anscheinend nur für die 295gtx sinn das sie im default nur mit 1,03V läuft.

bloß wollte ich gerade mal testen aber es startet nicht kommt gleich eine fehlermeldung,

the device is not recognized!

hmm:confused:

Frank1974
2009-02-07, 19:55:17
it´s time;)

http://www.evga.com/default.asp
http://www.abload.de/img/front_004624azp.jpg


Aber jetzt hat das Tool überhaupt keinen Wert mehr, dieses Voltage Tool von Award ist sehr leicht zu bedienen und ist für eine viel größere Auswahl an Karten und ist auch nicht an den Hersteller gebunden.

Ich konnte mit meiner GTX295 ein wenig testen, aber da mit Luftkühlung alles über 1,06v schon zuviel ist, habe ich leider nicht davon, die besten Grafikkarten Tests für stabiles System sind, wenn man 4x4SSAA laufen lässt, habe ich bei HL2 Lost Coast gesehen, mit 4x oder 8xAA wird die Karte gar nicht richtig warm, auch die Spannungswandler blieben bei max 80°, wo ich mit 4xAA getestet habe, mit 16xOGSSAA gingen die auf über 100°, bei 702/1566/1161MHz@1,12v ich hatte vorher 729/1620/1188MHz@1,15v, da musste ich Lost Coast leider nach 30sek. abbrechen, trotz 80% Lüfter waren die Spannungswandler zu der Zeit schon bei über 105°, die Temperatur ging so schnell rauf das gibt es gar nicht, sofort Esc gedrückt und raus aus dem Game;D, jetzt schaue ich doch etwas neidisch auf Leute mit WaKü, aber das ist einfach nichts für mich.

mfg
Frank

tombman
2009-02-07, 21:22:39
Na toll, 1.18 max? Lächerlich? Das ging ja schon innerhalb des Bios :rolleyes:

Habs noch ned ausprobiert, bin ned am großen PC, aber zuerst die Leute schön mit 1.35 max heiß machen und dann mit 1.18 max noob settings veröffentlichen :mad:

derguru
2009-02-07, 23:15:44
wie kann man bios dateien von bin zu rom ändern?

AcmE
2009-02-07, 23:18:26
Mit NiBiTor

http://www.mvktech.net/component/option,com_remository/Itemid,26/func,fileinfo/filecatid,2973/parent,category/

derguru
2009-02-07, 23:19:29
Mit Nibitor.

hab ich leider nicht,mir wurde gerade gesagt einfach die endungen ändern,geht das wirklich?

=Floi=
2009-02-07, 23:36:37
die 295er hat auch nur 3phasen pro gpu.

pest
2009-02-07, 23:43:05
hab ich leider nicht,mir wurde gerade gesagt einfach die endungen ändern,geht das wirklich?

den inhalt änderst du dadurch logischerweise nicht :rolleyes:
gibt aber programme die besonders wert auf spez. endungen legen

BeetleatWar1977
2009-02-08, 09:54:50
Na toll, 1.18 max? Lächerlich? Das ging ja schon innerhalb des Bios :rolleyes:

Habs noch ned ausprobiert, bin ned am großen PC, aber zuerst die Leute schön mit 1.35 max heiß machen und dann mit 1.18 max noob settings veröffentlichen :mad:
Ich glaub ich hab da was für dich gefunden: http://forums.guru3d.com/showthread.php?p=3022105#post3022105

EVGA GPU Voltage Tuner v1.0 - Patch for vendor restriction & voltage limit removal

tombman
2009-02-08, 10:05:00
Ich glaub ich hab da was für dich gefunden: http://forums.guru3d.com/showthread.php?p=3022105#post3022105

EVGA GPU Voltage Tuner v1.0 - Patch for vendor restriction & voltage limit removal
Jo, thx, aber hab den crack eh schon von einem der Devs zugemailt bekommen- habe einfach gefragt :)

Ob ich (man) mir (sich) damit was Gutes tue (tut) ist ne andere Frage- schließlich kann man seine Karten jetzt so richtig grillen :devil:

Muß aber eh erst Waküs installieren, vorher probiere ich das eh ned ;)

Zusammen mit meinem neuen i7 Sys hoffe ich, die 20000 Punkte in Vantage Extreme zu knacken ;D

Gast
2009-02-08, 10:55:07
Das sind zwei einzelne 216er (auch noch zwei Hersteller :D)die Frage wäre, werden jetzt beide Karten gegrillt oder nur eine :D
http://www.abload.de/thumb/unbenannt6kaq1duo.jpg (http://www.abload.de/image.php?img=unbenannt6kaq1duo.jpg)

Gast
2009-02-08, 12:13:18
@Tomb
was willste für die beiden Karten ohne Kühler haben?
Und wie gehen die unter Wasser?

tombman
2009-02-08, 13:29:35
@Tomb
was willste für die beiden Karten ohne Kühler haben?
Und wie gehen die unter Wasser?
Frage bitte im entsprechenden thread.

Gast
2009-02-08, 18:28:40
Funktioniert das EVGA Tool auch mit TriSLI?

Scose
2009-02-08, 20:22:01
meine XFX GTX280 läuft nun mit 1.1V im 3D-Modus bei 702 / 1404 / 1188 fehlerfrei und "fast" leise im Furmark wo die Karte auf default V schon fast meinen Tower davonfliegen lies.

Leider macht der RAM relativ früh dicht aber ich muss sagen ich bin begeistert.

Ati75
2009-02-08, 22:16:58
Meine XFX GTX260 BE läuft im 3D mit 0.98V (zeigt mir auch RivaTuner per OSD an), und dass bei dem Standardtakt der BlackEdition (666/1404/1150). Sehr fein :).

Blaire
2009-02-09, 19:02:24
Das EVGA Tool ist nicht schlecht mit Undervolting habe ich mal glatt 15 Grad weniger bei gleicher Übertaktbarkeit@3WAY GTX280 :)

Gast
2009-02-09, 19:37:56
Du hast nen glück ich brauch für 800 schon 1.15 :D

Ronny G.
2009-02-09, 21:18:55
meine XFX GTX280 läuft nun mit 1.1V im 3D-Modus bei 702 / 1404 / 1188 fehlerfrei

So ähnlich läuft meine auch, beim Zocken mit 1,10V@702/1511/1296@Wakü, bei 1,08 schmiert die Bude ab. Sind aber immerhin 0,08V weniger als bisher im 24/7 Betrieb. Getestet habe ich BIA HH mit massig AA und AF, das zocke ich jetzt schon gut ne stunde so.

Der Speicher hat aber nix mit dem Vcore der GPU zu tun, der müsste immer gleich gut gehen.

LovesuckZ
2009-02-09, 22:47:27
Meine zwei 9800gx2 Karten laufe den Furmark mit 0,975V durch. Dadurch verringert sich der Verbrauch um die 150 Watt - von 685 Watt auf 535 Watt runter. Im Durchschnitt sollten es mehr sein, da der Verbrauch zwischen 515 und 535 schwankt, im Gegensatz zu 670-685.
0,950V hat leider keinen 3dMark 2003 Durchgang mit 4x4OGSSAA durchgehalten.

Scose
2009-02-09, 23:11:23
So ähnlich läuft meine auch, beim Zocken mit 1,10V@702/1511/1296@Wakü, bei 1,08 schmiert die Bude ab. Sind aber immerhin 0,08V weniger als bisher im 24/7 Betrieb. Getestet habe ich BIA HH mit massig AA und AF, das zocke ich jetzt schon gut ne stunde so.

Der Speicher hat aber nix mit dem Vcore der GPU zu tun, der müsste immer gleich gut gehen.

Ja der Speicher ging schon immer so schlecht, naja halb so tragisch.
Jedoch beträgt die default-Spannung meiner Karte 1.188V. Ich nehm an darunter versteht ihr die 1.18V.

Nachtrag:

Ich musste die Spannung nun doch auf 1.125V erhöhen. Auf 1.1V lief zwar Furmark problemlos, Vantage Extrem im loop auch aber L4D (vsync off) bleibt mit 1.1 einfach nach ca. 20min reproduzierbar mit Grafikfehler stehen. Kurz zum Desktop und wieder zurück ins Spiel reicht zwar aus aber es lag definitv am undervolting.

Ati75
2009-02-09, 23:50:53
Ich muss meine Werte (0,9V) auch zurücknehmen. Grid und Mirrors Edge liefen zwar ohne Probleme, aber bei ner CoD5 Session gabs nen Freeze. Werd noch testen müssen.

XuXo
2009-02-10, 07:51:04
wie kann man das tool "silent" starten, also im hintergrund ohne userinterface?

gruss und danke

Nightspider
2009-03-15, 21:16:05
Wie sind eure Erfahrungen mit dem Tool ?

Gibts schon ne neuere Version und wo kann man die downloaden ?

Megamember
2009-03-15, 23:01:46
wie kann man das tool "silent" starten, also im hintergrund ohne userinterface?

gruss und danke

Mit start minimized läufts doch im Hintergrund.

XuXo
2009-03-16, 08:41:30
in der version 1.0 ging das noch nicht.
jetzt geht das.