PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GTX460 + DualMon + "P3 & Co." = eine Lösung!?


Razor
2010-09-29, 00:53:19
Hallo liebe Leutz,

in diesem Thread soll es schlicht darum gehen, den massiven Stromverbrauch der GTX460 in den Griff zu bekommen, wenn man es denn "wagt", mehr als einen Monitor anzusteuern. Es wurde schon viel dazu gesagt, aber so schlussendlich ist (AFAIK) nicht wirklich viel dabei heraus gekommen. Und wie das bei mir so ist... wenn es "juckt" und genug "Spielzeug" vorhanden ist, wage ich einen Selbstversuch... und hoffe auf eine Antwort.

Um es vorweg zu nehmen: für mich habe ich eine Interims-Lösung gefunden!
Nun hoffe ich, dass es da doch noch den einen oder anderen... sagen wir: "intelligenteren" Ansatz gibt.

Zur Vorgeschichte:

Dieser Post von Tobi hat mich hellhörig werden lassen:
ich habs ja gecheckt.. :-) und es ist definitiv so, dass erst jetzt mit dem jüngsten bios auch das absenken im dual-view-betrieb funzt. vormals gings halt nur im single- und klonbetrieb.. in letzteren beiden bis auf 50MHz, im dualview-mode bis 400MHz.

passt.. macht einen wirklich guten eindruck.
Und einer meiner nachfolgenden Posts drückt das aus, was dann auch tatsächlich geschah:
Habe mir gerade mal die aktuellen Preise bei Geizhals angeschaut:
Gainward GTX460 "Sonic" 1GB für 178€?
Hammer!

Wenn ich das richtig sehe:
- "Sonic" kaufen ("Sonic Platinum" derzeit mit 35€ Aufpreis!)
- Scythe Setsugen montieren (den ich hier auf GTX260 "rum liegen" habe ;-)
- "Sonic Platinum" Bios flashen (da bräuchte ich mal ein via NiBiTor ausgelesenes Bios vom 20.9.!)

Fertich!
Oder?

Bin direkt am überlegen...
Tobi, wärst Du mal so nett, was die Bios-Auslesung angeht?
Thx!

Razor

P.S.: ich würde die Karte derzeit für ca. 140€ netto bekommen... ohne, bzw. inkl. Versandkosten!
Habe die Karte dann sogar für nur 135€ bekommen... mit "will-ich-doch-nicht"-Ausschluss ;)

Egal... hatte mir ja schon seinerzeit mal 'ne Gainward GTX460 "GoldenSample - GoesLikeHell" (kurz GS-GLH) geordert und diese dann auch nach 'ner guten Woche wieder zurück gegeben... ich habe einfach nicht eingesehen, warum ich für einen eigentlich simplen Anspruch soooo viel Aufwand treiben sollte... dessen Nutzen im Nachhinein sogar äusserst fraglich scheint... aber der Reihe nach.

Zumindest konnte ich damals selbst nachmessen, dass der Kühler der GTX460 auf einem Palit/Gainward-Board (sind ABSOLUT baugleich!) hervorragend durch den derzeit auf meiner GTX260² montierten Scythe Setsugen ersetzen kann... denn ja, neben dem Anspruch auf eine adäquate Leistungsaufnahme wage ich es zudem, auf absolute "Ruhe" zu bestehen... mit Luftkühlung natürlich (vom "Wasser" habe ich mir schon vor geraumer Zeit "entwöhnt" *g*).

Ich habe wirklich ALLES versucht... habe die GTX460 seinerzeit mit 'ner passiven 8400GS kombiniert... 40° für GTX460, 60° dann für die 8400GS *grunz*. Auch stimmten die Angaben auf HT4U nicht, die in Idle eine Leistungsaufnahme von ca. 7W für die 8400GS angibt... waren dann eher 14W, also locker das Doppelte... und "viel mehr", als einen Moni dran hängen, kann man mit dem Ding auch nicht.

Die GTX460 ist zurück gegangen, die 8400GS (hat irgendwas mit 17€ gekostet) verschwand im Schrank, nachdem ich das Ganze dann noch mit der guten alten GTX260² gegen gecheckt habe. Danach habe ich mir dann noch mal 'ne GT240 (für ziemlich genau einen Tag *g*) besorgt - die sehr leise Palit - und musste auch hier feststellen, dass die bei HT4U angegebenen 8W maßlos untertrieben sind... dürften eher knappe 20W gewesen sein! 20W braucht die GTX260² auch mehr, wenn man 2 Monis dran hat... aber zumindest hatte das Ding noch "brauchbares PhysX" dabei... für eine GTX260², wie sich dann noch heraus stellte... bei 'ner GTX460 wäre das dann ein "Verlustgeschäft".

Wie dem auch sei und Schluss mit der Vorrede:

GTX260² mit SingleMon = 36W, mit DualMon = 56W!
GTX460 mit SingleMon = 16W, mit DualMon = 58W!!!

Während man bei der GTX260² noch "na ja" sagen könnte, bleibt bei der GTX460 nur noch "GEHT JA GAR NICHT!"

Was ich nun heute probierte...

Montag früh bestellt, heute um 11:00 Uhr in den Händen... OK, "ausgepackt" habe ich sie dann am frühen Abend nachdem ich zuhause war. Mit alter Karte Rechner hoch, Treiber und dann Rechner runter. Karten getauscht, Bios gesichert, Treiberreste entfernt, Treiber (259.57 WHQL4Quadros) installiert, Bios mit WinProggi von Palit aktualisiert ("zittern" inklusive ;-) und wieder Bios gesichert und hier auch schon die erste Überraschung:
- Das Bios von Tobi hatte zwar die gleiche Version (wenn auch eine andere P/N), war aber vom 17.9. und so sehr aktuell
- Das Bios welches ich von Palit aufspielte war in seinen Eigenschaften identisch, aber vom 18.8. und damit einen Monat älter!

Egal, habe also mit dem aktuellen "Somic" Bios (Update 2) ein wenig rum probiert und dann das feststellen dürfen, was ich schon vermutete... der "P3-Mode" (der, der für 2 Monis "da" ist) bringt rein gar nichts... allenfalls 1W vielleicht... was schlicht daran lag, dass die Voltage nicht gesenkt wurde.

En detail:
P12 = 051/0101/0135 @ 875mV (sog. "tiefschlaf-Modus" ;-)
P08 = 405/0810/0324 @ 912mV (der "Video-Mode")
P03 = 405/0810/1600 @ 975mV (der "DualMon-Mode")
P00 = 700/1400/1600 @ 975mV (der "GibAlles-Mode")

Habe dann festgestellt, dass TMT3 beim Abspielen einer BlueRay in den "GibAlles-Mode" schaltet und dort auch bleibt, nach Beenden dann aber fröhlich - Stufe für Stufe - wieder zurück geschaltet wird. Ansonsten wird beim Start eines Videos (egal was und mit welchem Player) in den "GibAlles-Mode" geschaltet, dann aber während des Abspielens erst in den P03 und dann in den P08 (dem "Video-Mode") hinab treppt. Erst wenn das Video gestoppt wird, ist der "tiefschlaf-Mods", der P12 dran.

Soweit, so gut... wenn da nicht die wirklich dumme Sache mit dem "DualMon-Mode" mit "GibAlles"-Voltage gewesen wäre.

Nach ein paar Fehlversuchen mit dem FermiBiosEditor von Orbmu2K (vielen Dank nochmals für dieses geniale Tool!) musste ich dann feststellen, dass es einen guten Grund dafür gab, den Haken bei "recommended Lining" gesetzt zu lassen... denn so ziemlich alle endeten damit, dass ich nicht mal mehr die 1-2W "gespart" habe und die Karte mit 2 Monis im "GibAlles-Mode" verharrte... 58W verbrat und mit dem Billig-Kühler der "nur Sonic" mit 56° im Idle einher ging - zum Vergleich: im "tiefschlaf-Modus" waren es gerade mal 38°!

Aus "jux" wollte ich Tobi wiederlegen, der es zu behaupten wagte, dass ja wohl nicht alle "nur Sonic" verkappte "Sonic Platinum" sein würden.

Und schon beim Flashen des dankenswerter weise von Tobi höchstselbst zur verfügung gestellten Bios (ebefalls das "Update 2", diesmal aber vom 17.9. ;-) fiel auf, dass man nicht einmal die BoardID ändern, bzw. erzwingen musste... das PCB einer "Sonic" unterschiedet sich in NICHTS von einer "Sonic Platinum"!

Klar, der Kühler der "Platinum" ist deutlich besser (da Heatpipes & Co. ;-), wie ich ja schon bei den Gainward "Golden Samples" feststellen durfte... die 56° waren damals so um die 41°. Trotzdem... das "Platinum"-Bios fühlte sich auf meiner "nur Sonic" Pudelwohl und ich durfte das erste mal in meinem Leben mit ansehen, wie ein FurMark (1.65!) mit 3 Meroms (det lastet de CPU mal so "nebenbei" so "richtig" aus) die GPU einer Grafikkarte locker auf 90° trieb! Besser sollte man eigentlich "hören" und nicht "sehen" schreiben, denn so ein Lüfter bei >3.600Umin und damit 100% Drehzehl macht < R I C H T I G > Lärm!

OK, auf Dauer könnte ich das weder mir noch meiner Freundin im Wohnzimmer antun... oder gar unseren Nachbarn!
(OK, letzteres war jetzt ein wenig übertrieben ;-)

Aber ich wollte ja auch nur sehen, ob die "nur Sonic" mit dem "Platinum" Bios stabil ist... und das war sie!

Nach 15min blieb die "Kleine" (im Vergleich zur GTX260² ist sie wirklich "klein" ;-) wie angewurzelt bei 90° kleben... der Lüfter aber auch und die Innentemperatur in der primären Kammer meines Antec P180 stieg auf sehr ungewohnte 42°. Nachdem Meroms & FurMark verschwanden, brauchte die "Kleine" allerdings auch kaum 5min, um wieder fröhlich vor sich hin zu idlen... bei 56° *g*

Das permanente Flashen war mir nun zu "doof" geworden...

Und so entschied ich mich, mit einem weiteren genialen Tool von Orbmuk2 zu hantieren... dem "nVidia Inspector"!

Hier beobachtete ich dann das gleiche Phänomen... P03 und P00 waren Voltage-seitig gekoppelt und ich konnte die Voltage auch nicht senken, wohl aber erhöhen... und so kam ich dann auf die fianle Idee:

Warum nicht massiv Untertakten?

Also FermiBiosEditor raus und folgendes eingestellt:
P12 = 051/0101/0135 @ 875mV (sog. "tiefschlaf-Modus" ;-)
P08 = 405/0810/0324 @ 912mV (der "Video-Mode")
P03 = 405/0810/0324 @ 912mV (der "DualMon-Mode")
P00 = 405/0810/0324 @ 912mV (der "GibAlles-Mode")

Womit ich faktisch P00 und P03 "still" gelegt habe!

Wichtig ist hiebei aber, dass P00 (und damit P03) die VoltageEntry#3 zugeordnet und diese fix auf 0.912V eingestellt wird.

Hier hat mir folgender Post von Orbmuk2 geholfen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8249678#post8249678

Wenn ich das mal demonstrieren darf?

http://www.abload.de/img/gtx460bios_org_1y530.png http://www.abload.de/img/gtx460bios_mod_1x68s.png

http://www.abload.de/img/gtx460bios_org_2ku3r.png http://www.abload.de/img/gtx460bios_mod_20np5.png

Geflasht und flugs in Windows gestartet... und es läuft noch!
(*puh* ;-)

Jetzt noch schnell zwei Shotcuts mit "nVidia Inspector" für "P0" (dem "GibAlles-Modus") erstellt... einer mit den im Bios eingestellten 405/810/324@0.912V und einer mit dem "echten" Volldampf-Modus 800/1600/2000@0.975V und ans Probieren gemacht... und?

Es funktioniert!

http://www.abload.de/thumb/gtx460bios_final125pu.png (http://www.abload.de/image.php?img=gtx460bios_final125pu.png)

http://www.abload.de/img/gtx460bios_final2cn3l.png

Im Autostart "sitzt" der Link "GTX460 @ Default HIGH" und stellt die Karte somit auf "Normalbetrieb"... wenn es mich "nervt", dass bei Videos (oder anderen "Elementen" im Web) das Kärtchen immer mal wieder "hoch" geht, dann "fixiere" ich es eben auf den Bios-"Default" (hier "GTX460 @ Default LOW").

Eigentlich HASSE ich es, mich von irgendwelchen Tools abhängig zu machen... aber der "nVidia Inspektor" macht es einem sehr leicht, ihn "lieben" zu lernen... dieses Tool kommt OHNE JEGLICHGEN Schnörkel aus, ist funktional und gut durchdacht aufgebaut und hat einfach einen großartigen Support durch Orbmuk2! Hoffentlich bleibt das auch noch eine Weile so...

Ach ja, ein winziges Problemchen habe ich doch noch gefunden... ist der "HIGH"-Modus aktiviert und ich spiele eine BlueRay via TMT3 ab, läßt sich dieser danach nicht mehr deaktivieren und der Treiber verharrt in P00... was aber eher auf einen Bug im Treiber, als auf meine Konstruktion zurück zu führen sein dürfte. Einmal Ab- und wieder Anmelden (damit einher geht ein Treiber-Init) und schon ist auch das Geschichte.

Also, was haltet Ihr davon?

Mache ich einen Gedankenfehler?
Kann man das auch "irgendwie" fest ins Bios brennen?

Eure Anregungen sind gefragt!

Ach ja, vielleicht noch mal der Effekt in Kürze:
GTX260² mit SingleMon = 36W, mit DualMon = 56W!
GTX460 mit SingleMon = 16W, mit DualMon = 58W!!!
GTX460 mit SingleMon = 16W, mit DualMon@RazorMod = 27W - weniger als die Hälfte!

Und das die Idle-Temp von 56° auf nunmehr 39° gesunken ist (wie man auf dem Screen gut sehen kann), ist umso wichtiger für mich als "SilentFreak". Als nächstes kommt dann der Umbau: "Palit/Gainward GTX460 meets Scythe Setsugen!" ;)

Razor

P.S.: falls es immer noch Leute gibt, die der Meinung sind: DualMon-User sind zu vernachlässigen:
http://www.3dcenter.org/umfrage/wohin-soll-es-mittel-und-langfristig-gehen-multimonitoring-oder-supergrosse-monitore-ab-30
33% haben bereits mehr als ein Display oder werden mehr als einen Moni einsetzen!

Ich selber habe die 4 Anschlüsse der Palit/Gainward voll ausgeschöpft:
DVI1: 28" Hauptmonitor
DVI2: 19" Nebenmonitor (ist eigentlich immer "dran")
HDMI: 42" Plasma im Wohnzimmer (ja, habe den SDTV in den Ruhestand geschickt ;-)
VGA: der gute alte VGA-Beamer im Wohnzimmer... demnächst: Who knows?

P.P.S.: ernsthaft... kann man hier noch was "verbessern"?
Gibt es die Möglichkeit eines besseren BiosMods, der dann ohne "Links" auskommt?
Gerade die Meinung unserer Bios-Experten Orbmu2k und Schrotti würden mich hier brennend interessieren!

Razor
2010-09-29, 01:11:55
Ach ja... einen hab' ich noch: Latency-Prob mit GTX460? Pah!

http://www.abload.de/img/gtx460bios_final3gp9s.png

Razor

P.S.: und das mit WMP (Music), MPC-HC (Video), diversen Web-Tabs im IE, dem Popobrenner-Monitoring, diversen Gadgets und dem nVidia-Inspector im Hintergrund... das zum Thema.

Gast
2010-10-01, 12:47:49
Klar, der Kühler der "Platinum" ist deutlich besser (da Heatpipes & Co. ;-), wie ich ja schon bei den Gainward "Golden Samples" feststellen durfte... die 56° waren damals so um die 41°. Trotzdem... das "Platinum"-Bios fühlte sich auf meiner "nur Sonic" Pudelwohl und ich durfte das erste mal in meinem Leben mit ansehen, wie ein FurMark (1.65!) mit 3 Meroms (det lastet de CPU mal so "nebenbei" so "richtig" aus) die GPU einer Grafikkarte locker auf 90° trieb! Besser sollte man eigentlich "hören" und nicht "sehen" schreiben, denn so ein Lüfter bei >3.600Umin und damit 100% Drehzehl macht < R I C H T I G > Lärm!

Ich könnte auch billig an eine Palit Sonic drankommen. Was mich bisher davon abhält ist der fehlende Kühler auf den VRMs. Wie waren denn die Temps der VRMs bei deinem obigen Versuch?

Ich frage deshalb, da meine alte Karte wegen fehlender VRM Kühlung nach 3 Jahren den Dienst quittiert hat (Spannungsregler durchgebrannt). Sowas will ich nicht nochmal erleben.

tombman
2010-10-01, 12:57:31
Ich habs mir nicht voll durchgelesen, aber das Prob. gehört für mich in die Kategorie: wenn man keine Probleme hat, dann schafft man sich welche :ulol:

Es geht hier um maximal 30€ in JAHR ...

(20 Watt * 24 Stunden * 365 Tage * 0.16 Euro/kWH)

Schrotti
2010-10-01, 13:18:16
Ich habs mir nicht voll durchgelesen, aber das Prob. gehört für mich in die Kategorie: wenn man keine Probleme hat, dann schafft man sich welche :ulol:

Es geht hier um maximal 30€ in JAHR ...

(20 Watt * 24 Stunden * 365 Tage * 0.16 Euro/kWH)

Und wer lässt seinen Rechner schon 365 Tage am Stück laufen. Geht man von ~10h aus dann ist man bei ~13€.

tombman
2010-10-01, 13:47:22
Und wer lässt seinen Rechner schon 365 Tage am Stück laufen. Geht man von ~10h aus dann ist man bei ~13€.
"maximal" :)

Und wenn silent Fanatiker ist, dann nimmt man Wakü.

puntarenas
2010-10-01, 13:54:29
Ich habs mir nicht voll durchgelesen, aber das Prob. gehört für mich in die Kategorie: wenn man keine Probleme hat, dann schafft man sich welche :ulol:

Man könnte auch sagen, dass User einfach unterschiedliche Ansprüche an ihre Hardware stellen. Du kannst Razors Wunsch nach optimierter Idle-Genügsamkeit und Luftkühlung nicht nachvollziehen und er muss sich nicht dafür rechtfertigen. Super, jedem das Seine, ist ja genug Platz im Forum. =)

LovesuckZ
2010-10-01, 13:55:53
Dann hätte er sich entweder ein Mainboard mit IGP oder eine billige Zweitkarte kaufen sollen, wenn er den Dual-Monitor Betrieb dauerhaft benötigt.
Als ich meinen HTPC noch nicht hatte, habe ich meinen Fernsehr über die IGP angeschlossen. Problem gelöst.

Schlammsau
2010-10-01, 14:04:32
Also ich hätte mir ein Tool wie den Rivatuner oder den Afterburner genommen, und mir ein schönes Profil gebastelt. Jetzt ist die Garantie futsch.....

Sonyfreak
2010-10-01, 14:07:55
Also ich hätte mir ein Tool wie den Rivatuner oder den Afterburner genommen, und mir ein schönes Profil gebastelt. Jetzt ist die Garantie futsch.....Man kann ja jederzeit wieder das Originalbios draufklatschen. Und so funktionieren die Einstellungen immer, und nicht nur, wenn das Programm gerade läuft.

mfg.

Sonyfreak

Schlammsau
2010-10-01, 14:12:47
Man kann ja jederzeit wieder das Originalbios draufklatschen. Und so funktionieren die Einstellungen immer, und nicht nur, wenn das Programm gerade läuft.

mfg.

Sonyfreak

Wenn mans genau nimmt, ist wenn man am BIOS was macht, die Garantie dahin.

Stell dir mal vor, die Karte ist tot, und ihm bleibt nichts anderes übrig als das Ding einzuschicken. Spätestens beim Versuch das Teil zu reparieren, wird ihnen das gemodette BIOS aufallen. Dann ists Essig mit der Garantie.....

PS: ich hab auch ein gemodettes BIOS. :tongue:

Sonyfreak
2010-10-01, 14:17:29
Wenn mans genau nimmt, ist wenn man am BIOS was macht, die Garantie dahin.Genau genommen, darf man - glaube ich - gar nichts an der Karte herumbasteln. Lüfterdrehzahl verändern, Spannungen erhöhen/verringern und OC gehören da ja auch dazu. Wenn mans von der Warte aus betrachtet, ists dann eigentlich Hemd wie Hose.
Stell dir mal vor, die Karte ist tot, und ihm bleibt nichts anderes übrig als das Ding einzuschicken. Spätestens beim Versuch das Teil zu reparieren, wird ihnen das gemodette BIOS aufallen. Dann ists Essig mit der Garantie.....Also im Normalfall sollte man auch auf eine kaputte Karte noch das Bios zurückflashen können. Wenn wirklich gar nichts mehr geht, wird die Firma auch nicht weiter kontrollieren. Das käme ja auch viel zu teuer.
PS: ich hab auch ein gemodettes BIOS. :tongue:Ja ich auch. ^^

mfg.

Sonyfreak

tombman
2010-10-01, 14:38:23
Wenn wirklich gar nichts mehr geht, wird die Firma auch nicht weiter kontrollieren. Das käme ja auch viel zu teuer.
genau, da geschieht gar nix weiter...

Razor
2010-10-01, 19:33:47
Ich könnte auch billig an eine Palit Sonic drankommen. Was mich bisher davon abhält ist der fehlende Kühler auf den VRMs. Wie waren denn die Temps der VRMs bei deinem obigen Versuch?

Ich frage deshalb, da meine alte Karte wegen fehlender VRM Kühlung nach 3 Jahren den Dienst quittiert hat (Spannungsregler durchgebrannt). Sowas will ich nicht nochmal erleben.
Dem kannst Du ganz einfach Abhilfe schaffen... mach' da einen VRM-Kühler drauf!

Hier mal ein paar Impressionen meines jüngsten "Umbaus"... auf der Palit/Gainward werkelt jetzt ein Scythe Setsugen.
(nur möglich, weil kompatible Bohrungen im PCB, quadratisch mit 53mm Abstand)

VRM-Kühler und ABSOLUTE Leisigkeit (nicht "Lautlos ;-) inbegriffen!

Dies war ja der Mini-Umbau der Gainward GTX460 Golden Sample GLH... einfach mit Akasa Thermal-Tape 'geklebt':
(man kann hier gut den sehr qualitativen Kühler mit Hetpipes erkennen - beugleich zur Palit GTX460 Sonic Premium!)

http://www.abload.de/thumb/img_12405una.jpg (http://www.abload.de/image.php?img=img_12405una.jpg) http://www.abload.de/thumb/img_1241du22.jpg (http://www.abload.de/image.php?img=img_1241du22.jpg) http://www.abload.de/thumb/img_1245456w.jpg (http://www.abload.de/image.php?img=img_1245456w.jpg) http://www.abload.de/thumb/img_1246c5op.jpg (http://www.abload.de/image.php?img=img_1246c5op.jpg)
Kostenpunkt insgesamt ca. 5€ und ein wenig "Bastelarbeit"...

Deutlich aufwändiger war der Umbau für den Scythe Setsugen:

http://www.abload.de/thumb/img_1320kurl.jpg (http://www.abload.de/image.php?img=img_1320kurl.jpg) http://www.abload.de/thumb/img_13235uwd.jpg (http://www.abload.de/image.php?img=img_13235uwd.jpg) http://www.abload.de/thumb/img_13313uaj.jpg (http://www.abload.de/image.php?img=img_13313uaj.jpg) http://www.abload.de/thumb/img_1332qu6h.jpg (http://www.abload.de/image.php?img=img_1332qu6h.jpg) http://www.abload.de/thumb/img_1351yunr.jpg (http://www.abload.de/image.php?img=img_1351yunr.jpg) http://www.abload.de/thumb/img_1354hnet.jpg (http://www.abload.de/image.php?img=img_1354hnet.jpg)

Razor
2010-10-01, 19:34:00
Ok, 2. Post, weil zu viele Bilder... obwohl die doch sooo "klein" sind!
(ups, jetzt weiß ich, warum der Upload länger gedauert hat... habsch' net verkleinert)

http://www.abload.de/thumb/img_1356en9b.jpg (http://www.abload.de/image.php?img=img_1356en9b.jpg) http://www.abload.de/thumb/img_1358nuiz.jpg (http://www.abload.de/image.php?img=img_1358nuiz.jpg) http://www.abload.de/thumb/img_136096gg.jpg (http://www.abload.de/image.php?img=img_136096gg.jpg) http://www.abload.de/thumb/img_1361fue0.jpg (http://www.abload.de/image.php?img=img_1361fue0.jpg) http://www.abload.de/thumb/img_13708uob.jpg (http://www.abload.de/image.php?img=img_13708uob.jpg) http://www.abload.de/thumb/img_1371ou67.jpg (http://www.abload.de/image.php?img=img_1371ou67.jpg)

Aber das Endprodukt kann sich wahrlich "sehen" lassen...
(und das meine ich ganz sicher nicht im ästhetischen Sinne ;-)

Nachdem ich erfolglos versucht habe, die Finnen des Kühlers "sanfter" zu kürzen, habe ich schlussendlich zu der "brutalen" Methode gegriffen und diese mit einer Blechschere bearbeitet... 'funktional' ist es allemal, nur 'hübsch' ist es sicher nicht. Und wie man an den letzten 2 Fotos gut erkennen kann, ist es ein waschechter 2-Slot-Kühler... auch wenn ich DRINGEND davon abraten würde, etwas in den Nachbarslot zu stecken. Was im übrigen aber auch für sog. 3-Slot oder gar 4-Slot Kühler (dieses neue häßliche Ding von Zotac) gilt.

Aber die Rückseite der Grafikkarte (da wo VRM) kann ich nun nach Vollast anfassen... und DAS ging vorher nicht!
Ergo: von ca. 100° runter auf durchaus erträgliche 70-75°, würde ich sagen.

Ansonsten liegt die Idle-Temp (dank Bios-Mod!) jetzt nur noch ein paar Grad über Zimmertemperatur (aktuell 30°).
Und unter Vollast habe ich noch nicht mehr als max. 65° gesehen... ohne "Belästigung" des Gehörs, wenn ich noch mal erinnern darf!

Aber ja, das Fehlen des VRM-Kühlers ist ein Manko bei der "nur Sonic"... der originale Alu-"Kühler" aber auch.
(für DEN Preis allerdings ein Schnäppchen, vor allem, wenn man beides selber bauen will ;-)

Razor

P.S.: haltet das Thema "Garantie" hier bitte raus... wie Ihr seht, hat sich das 'eh "grundlegend" erledigt ;)

Razor
2010-10-01, 20:41:48
Ich habs mir nicht voll durchgelesen, aber das Prob. gehört für mich in die Kategorie: wenn man keine Probleme hat, dann schafft man sich welche :ulol:
Es geht hier um maximal 30€ in JAHR ...
(20 Watt * 24 Stunden * 365 Tage * 0.16 Euro/kWH)
Wer redet hier von "Geld" :confused:
Was mich Strom "kostet", ist mir vollkommen Wurscht!

Mir geht es um Effizienz... und dem Fakt, dass es mich einfach stört, dass die Karte statt ca. 16W mal eben locker 58W "schluckt"...
...das DREIFACHE - und nur, weil man einen 2. Moni anstöpselt!

Und es geht mir um die Temperatur im Gehäuse, die Belastung der anderen Komponenten und um das Gesamtkonzept.

Und wenn silent Fanatiker ist, dann nimmt man Wakü.
"Wasser" kommt mir nicht in den Computer und ich denke, dass ich wieder mal bewiesen habe, dass es keinen (meiner Meinung nach!) "Unfug" braucht, um einen leistungsfähigen Rechner "still" zu bekommen... wenn man denn mit ein wenig "Hirn" an die Sache heran geht.

Dann hätte er sich entweder ein Mainboard mit IGP oder eine billige Zweitkarte kaufen sollen, wenn er den Dual-Monitor Betrieb dauerhaft benötigt.
Als ich meinen HTPC noch nicht hatte, habe ich meinen Fernsehr über die IGP angeschlossen. Problem gelöst.
Schade... hatte eigentlich gehofft, dass sich der eine oder andere mal den Text durchliest.
OK, ist 'ne Menge davon gewesen...

Hättest Du das getan, dann würdest Du wissen, dass ich nicht nur eine "Alternative" ausprobiert habe... die ALLE am Ziel vorbei gingen!

Also ich hätte mir ein Tool wie den Rivatuner oder den Afterburner genommen, und mir ein schönes Profil gebastelt. Jetzt ist die Garantie futsch.....
Die Garantie ist mir wurscht... hat ja 'eh nix gekostet, das Teil.

Aber Du kannst mir trotzdem mal erklären, wie man denn mit Afterburner ein "Low-Voltage-Profil" basten kann.
Das reine heruntertakten bringt REIN GAR NICHTS, wie ich ja schon schrieb.

Dass der RT hier nicht funktioniert, sollte Dir ja bewußt sein...

Razor

Razor
2010-10-01, 20:50:36
Ups... fast vergessen.
Man kann ja jederzeit wieder das Originalbios draufklatschen. Und so funktionieren die Einstellungen immer, und nicht nur, wenn das Programm gerade läuft.
Vollkommen korrekt!
Und vor allem gilt dies ja auch für 90-95% der Gesamtbetriebszeit.

Die "High"-Variante braucht man AUSSCHLIESSLICH zu spielen... für schlicht nichts anderes.
Und da es ja jederzeit möglich ist, die Voltage zu erhöhen - ganz egal mit welchem Tool - dürfte eine diesbezügliche Abhängigkeit tolerabel sein.

Das Grundproblem war halt, die Voltage im "Normalbetrieb" zu senken.

Sehr viel schöner wäre es natürlich, wenn dies komplett im Bios eingestellt werden könnte und ich weiß noch immer ums Verrecken nicht, warum P03 "DualMon" und P00 "VolleKanne" erzwungen mit der gleichen Voltage laufen sollen. Macht doch überhaupt keinen Sinn... genauso wenig, wie das gleiche Spiel mit dem RAM-Takt.

Man klügelt eine komplzierte Steuerung aus - für das Arbeiten im Idle, mit Videos und eben mit "Last".
Das Thema DualMon wird aber einfach in den "Last"-Bereich geschoben und begnügt sich damit, den Takt für die GPU ein wenig zu senken.
Mit ausgesprochen dünnem Erfolg, wie ich ja nun schon mehrfach schrieb...

Razor

Schrotti
2010-10-01, 20:56:39
Niedliche kleine Karte :weg:

Razor
2010-10-01, 21:13:01
Niedliche kleine Karte :weg:
Bleib ruhig da... ;)

Kannst Du nicht vielleicht etwas zum Thema Bios sagen?
Mir ist nichts "Besseres" eingefallen...

Gibt es vielleicht doch noch eine Methode, P03 und P00 zu "trennen"?

Razor

P.S.: von wegen "niedlich" und "klein"... werde gleich mal die neue Möglichkeit ausprobieren, größere Bilder anzuhängen.
Und stimmt... auf der GTX260² ist der "kleine" Setsugen kaum aufgefallen ;)

Schrotti
2010-10-01, 21:17:00
Man könnte versuchen dem P03 Profil ne andere Voltage zuzuordnen.

Aber dazu müsste es möglich sein diese zu trennen was momentan im Editor nicht funktioniert.

Ändert man 00 ändert sich 03 ja mit.

Orb mal anschreiben.

Razor
2010-10-01, 21:25:13
Man könnte versuchen dem P03 Profil ne andere Voltage zuzuordnen.

Aber dazu müsste es möglich sein diese zu trennen was momentan im Editor nicht funktioniert.

Ändert man 00 ändert sich 03 ja mit.

Orb mal anschreiben.
Mit dem neuen Editor geht das durchaus... man muss nur den Haken "Link..." entfernen (habsch mal angehängt ;-).
Allerdings passiert dann genau das, was ich schon schrieb - die Karte verläßt den P00 Modus nicht mehr.

Interessanter weise fällt sie jetzt nicht nur in den P03, sonder nach einer Zeit sogar in den P08!
Ok, haben die gleichen Einstellungen bei mir... aber das Abfallen kann man mit Orbs Inspector sehr schön beobachten.

Hatte ja auch gehofft, dass er sich evtl. mal hierzu äussert.

Razor

OC_Burner
2010-10-01, 21:29:18
Die Voltage senken alleine bringt nichts. Der Hauptverbraucher ist definitiv der Speicher. Bei einer GTX480 sind es zwischen 1848MHz und 135MHz an die 70W. Wie es bei einer GTx460 ist weiß ich allerdings nicht. Das Verhältniss sollte aber ähnlich sein, sprich der Speicher zieht im IDLE am meisten.

Razor
2010-10-01, 21:50:15
Die Voltage senken alleine bringt nichts. Der Hauptverbraucher ist definitiv der Speicher. Bei einer GTX480 sind es zwischen 1848MHz und 135MHz an die 70W. Wie es bei einer GTx460 ist weiß ich allerdings nicht. Das Verhältniss sollte aber ähnlich sein, sprich der Speicher zieht im IDLE am meisten.
Und genau DAS verstehe ich nicht... warum ist das so?

Habe schon bei der GT240 DDR5 (von Palit) feststellen dürfen, dass der Idle-Verbrauch DEUTLICH von der DDR3-Version abgewichen ist.
Dieser war glatt doppelt so hoch... was ja auch der Grund ist, warum die DDR3-Variante mittlerer weile als "green" angepriesen wird.

Aber auch die GT240-DDR3 rechtfertigt keine 2. Karte im Rechner
- zusätzliche Abwärme (auch im Idle) deutlich spürbar
- als PhysX-Karte im Kombo mit einer GTX460 nicht zu gebrauchen

Und klar, der Speicher ist hauptverantwortlich, die Kombo Speicher/Voltage dann optimal!
Nur ist eben beides von P00 und P03 nicht zu trennen... leider.

Absolut ideal wäre natürlich ein Tool, welches den Treiber in einen P-State "zwingt", oder diesen "nach oben" blockiert.

Razor

Schrotti
2010-10-01, 22:27:00
Mit dem neuen Editor geht das durchaus... man muss nur den Haken "Link..." entfernen (habsch mal angehängt ;-).
Allerdings passiert dann genau das, was ich schon schrieb - die Karte verläßt den P00 Modus nicht mehr.

Interessanter weise fällt sie jetzt nicht nur in den P03, sonder nach einer Zeit sogar in den P08!
Ok, haben die gleichen Einstellungen bei mir... aber das Abfallen kann man mit Orbs Inspector sehr schön beobachten.

Hatte ja auch gehofft, dass er sich evtl. mal hierzu äussert.

Razor

Siehst den Button hatte ich glatt übersehen.

Schlammsau
2010-10-02, 09:23:46
Die Garantie ist mir wurscht... hat ja 'eh nix gekostet, das Teil.

Aber Du kannst mir trotzdem mal erklären, wie man denn mit Afterburner ein "Low-Voltage-Profil" basten kann.
Das reine heruntertakten bringt REIN GAR NICHTS, wie ich ja schon schrieb.

Dass der RT hier nicht funktioniert, sollte Dir ja bewußt sein...

Razor

Kein Ding, wie gesagt, ich habe auch ein gemodettes BIOS.

Aso....das kann man nicht? Hab ich nicht gewusst.
Bei ATi kann man ja mit den ATT recht einfach Taktprofile erstellen, die auch mit der Spannung verknüpft werden können.

Razor
2010-10-02, 12:40:06
Aber ganeu DAS ist das Problem mit den Fermis...
3-4 Taktstufen eben, die aufeinander aufbauen.

Im tiefsten Modus (P12) geht es unter .825 (.875 ist default) nicht mehr runter und man kann sich von dort nur "zwischen" den Takstufen bewegen. Einzig die höchste Taktstufe (P12) ist zumindest nach oben hin offen... bis zu einem best. Punkt.

Hier stellt sich nur die Frage: muss das so sein?

Razor

tombman
2010-10-02, 12:49:06
Wer redet hier von "Geld" :confused:
Was mich Strom "kostet", ist mir vollkommen Wurscht!

Mir geht es um Effizienz... und dem Fakt, dass es mich einfach stört, dass die Karte statt ca. 16W mal eben locker 58W "schluckt"...
...das DREIFACHE - und nur, weil man einen 2. Moni anstöpselt!
Was aber keine Konsequenzen hat, aber anscheinend geht es dir ums PRINZIP. Und sowas kapier ich eben nicht.
Weil "fast nix" MAL 3 immer noch "fast nix" ist.

Und es geht mir um die Temperatur im Gehäuse, die Belastung der anderen Komponenten und um das Gesamtkonzept.

Bei ner midrange Karte- EINER? Da pißt das Gehäuse und die Komponenten drauf.

"Wasser" kommt mir nicht in den Computer und ich denke, dass ich wieder mal bewiesen habe, dass es keinen (meiner Meinung nach!) "Unfug" braucht, um einen leistungsfähigen Rechner "still" zu bekommen... wenn man denn mit ein wenig "Hirn" an die Sache heran geht.

Wasser ist besser als jede Lukü. Ok, für deine hardware nicht unbedingt notwendig, aber so ne Wakü hat man ja länger.

Razor
2010-10-02, 19:16:25
Was aber keine Konsequenzen hat, aber anscheinend geht es dir ums PRINZIP. Und sowas kapier ich eben nicht.
Weil "fast nix" MAL 3 immer noch "fast nix" ist.
Exakt, es geht mir uns Prinzip und die anderen "Nachteile" der sinnlosen Verschwendung, die ich hier schon mehrfach nannte.

Bei ner midrange Karte- EINER? Da pißt das Gehäuse und die Komponenten drauf.
Sorry, aber eigenlich dachte ich, dass Du hier ein wenig mehr Verstand mitbringen würdest.
Kennst Du überhaupt quasi "lautlose" Rechner?

Wasser ist besser als jede Lukü. Ok, für deine hardware nicht unbedingt notwendig, aber so ne Wakü hat man ja länger.
Wasser hat in Consumer-Elektronik rein gar NICHTS zu suchen... meine Meinung!
Und wenn ich nur daran denke, dass sich einige Leutz auch noch "Leuchtstoff" hinein mischen :uhammer:

Ist nicht so, dass ich das nicht selber mal "probiert" hatte... über ein Jahr mit allen Vor- und Nachteilen.
Aber ein Rechner ist eben nur ein Rechner... kein "Hochleistungs-Gefährt" (ein "Riesen-Schwanz" ;-) und auch kein Prestige-Objekt.

Maßeblich arbeite und unterhalte ich mich (und meine Freundin) damit... Spielen tue ich auch ab und an.
"Wartung" ist nicht drin... alle halbe Jahre mal auspüstern und ein paar Luftfilter ersetzen/reinigen... that's it.
Got it?

Razor

tombman
2010-10-02, 20:36:28
Wasser hat in Consumer-Elektronik rein gar NICHTS zu suchen... meine Meinung!
Gibt eh nur eine ganze Industrie dafür ;D

Pack mal 4x GTX480 + 2x Sixcore Xeon in ein case und schau was die Temperaturen bei furmark + Prime machen.

Welcome to SAHARA ;D

Bei extremem HighEnd hat Wasserkühlung NATÜRLICH seine Berechtigung, weil es möglicht macht, große Hitzemengen dorthin zu "transportieren" wo man sie haben will- notfalls auch in einen anderen Raum.

Klar, in deinem Fall wärs vermutlich übertrieben gewesen, versteh ich schon- ist ja eh eine nette Idee.
Hauptsache die Leute modden überhaupt noch etwas...

Peace? :)

Razor
2010-10-02, 21:41:01
"Industrie" ist ein wenig übertrieben, findest Du nicht?
Nieschen-Hersteller für einen Nieschen-Bedarf... für eine absolute Minderheit also!

Und klar, für "extreme" Bedürfnisse müssen auch "extreme" Mittel her... die Sinnfrage stellt sich nicht.
Aber für 4x GTX480 + 2x 6-Core reicht auch die Wasserkühlung alleine nicht... da brauchts noch einiges an Lüftern zusätzlich.
Mit "silent" hat das mal rein gar nichts zu tun...

Peace? :)
Jo.

Und nochmal "jo" für den "kreativen" Umgang mit Equipment, gell?
:up:

Razor

OC_Burner
2010-10-23, 23:45:08
Vielleicht wirftst du mal einen Blick hier drauf:http://www.hardwareluxx.de/community/15548446-post1046.html

Kann es sein oder hast du zufällig mit der 260'er Treiberserie auch Probleme beim Memorytakt?

Orbmu2k
2010-11-06, 11:00:42
Hatte ja auch gehofft, dass er sich evtl. mal hierzu äussert.


Sorry hatte den Thread gar nicht mitbekommen.

Zu Multimonitoring kann ich aber soweiso nich viel sagen hab nur einen.

Man braucht aber bei der GTX460 ab dem 260er Treiber wohl keinen BIOS Mod mehr, da man jetzt auch die Spannung von P0/P3 per Software absenken kann. Vorher brauchte man ein BIOS ohne P3 dann konnte man bis P8 untervolten. Beim GF100 ging das ja sowieso schon immer bis ganz runter.

Das Hauptproblem ist ja nachwievor dass beim Speichertaktwechsel im Multimonitoringbetrieb dieses Flackern auftritt. Deswegen gibts ja diese Einschränkung von NVIDIA beim Multimonitoring.

XxTheBestionxX
2010-11-06, 11:11:55
Mal ne Frage wenn die Vcore meiner gtx 470 zwar auf 1,125V beim Video schauen ist aber die GPu last <10% frisst die dann trotzdem viel mehr Saft?

Würde halt gerne bei Filmen den normalen 405mhz idle modus haben aber wenn das andere nicht soviel mehr strom frisst wenn sie nicht belastet wird wäre das auch noch ok.

Weis das einer?

Razor
2010-11-06, 13:25:59
Der krasse Unterschied ist ja schon da, wenn die Karte "NIX" tut... nach oben hin ist alles offen.
Das Zeil sollte es doch sein, dass die Karten im "Normal-Betrieb" überhaupt nicht rauf taktet... wozu auch?

Fürs "Filmchenschaun" hat die Karte IMMER genug Power... da braucht es keinen exorbitanten Speichertakt (DAS ist der Haupt-Stromfresser!) und schon gar keine hohe Voltage, ja nicht einmal einen hohen GPU-Takt... es "braucht" lediglich den 'normalen' P8-Modus (der "super-idle" P12 ist ein bissel zu "lasch"). Und da soll die Karte gefälligst auch bleiben... niedriger GPU/Speicher-Takt und auch niedrige Voltage.

So braucht meine GTX460 (800/1600/2000) jetzt nur noch 27W statt er vorherigen 58W... nicht mal mehr die Hälfte!
Ist zudem deutlich kühler und "stört" in keinster wiese...

Habe es jetzt auch anders herum gemacht... LOW ist nun im Bios fixiert und HIGH gibts "on demand".
Und das Problem ist keines mehr!

Razor

Razor
2010-11-07, 18:01:02
Das Hauptproblem ist ja nachwievor dass beim Speichertaktwechsel im Multimonitoringbetrieb dieses Flackern auftritt. Deswegen gibts ja diese Einschränkung von NVIDIA beim Multimonitoring.
Diese "Flackern" tritt auch auf, wenn die Auflösung umschaltet, der Rechner aus dem Standby wiederkommt, wie auch bei anderen Gelegenheiten...

...was soll bitte daran falsch sein?

Und wie kommt es, dass es bei mir überhaupt nicht "flackert", wenn ich von Bios-vorgegebenen "LOW" in den "HIGH"-Modus wechsle?
Daran ändert sich natürlich auch nichts, wenn ich die 3D-App selber starte...
...ganz egal, ob aus P0, P3 oder P8 heraus.

Einfach ein dummes Gewäsch, um die Öffenltichkeit zu "beruhigen".
Oder aber tatsächlich ein Schutz für Hersteller-Implementierungen mit "billiger" Hardware... such' Dir was aus.

Razor