PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Kann man zwei Grafikkartenlösungen zum Stromsparen bauen?


WhiteVelvet
2006-11-07, 19:00:27
Ich meine damit natürlich kein SLI, sondern 2 verschiedene Grafikkarten, eine HighEnd für 3D Games und eine LowEnd für Desktop-Anwendungen. Wenn ich wie heute lese, dass die 8800er eine Leistungsaufnahme von 140 Watt hat, frage ich mich, ob sie das immer hat, und wenn nicht, wie weit die Karte runtergefahren werden kann im Idle-Zustand. Wäre es da nicht sinnvoll, wenn diese Karte im Idle-Zustand komplett abgeschaltet werden könnte und stattdessen eine kleinere Karte angeschaltet werden würde? Das wäre Stromsparender...

Toolman
2006-11-07, 19:10:56
Du kannst auch einfach den 2d takt runter schrauben , sparst auch Geld und vllt. kann man ja auch das Bios so modden das im 2d mode weniger Volt auf dem COre anliegt !

Gast
2006-11-07, 22:12:42
wenn du die entsprechenden einheiten der high-end-graka deaktivierst, die taktfrequenz und spannung reduzierst erreichst du das ganze wesentlich einfacher.

HisN
2006-11-07, 22:22:46
*Grübel* fahren nicht inzwischen sogar die ATI-Stromfresser im 2D-Betrieb runter und machen das die Nvidia-Karten nicht schon seit zwei Generationen? 30Watt im Windows und 140Watt im 3D-Betrieb.

haifisch1896
2006-11-08, 00:59:47
Wie will man die starke Karte auch ausschalten können?

So, wie ich das kenne, wäre sie sowieso aktiv, also mit Strom versorgt. Und da dann noch eine zweite zum Stromsparen einbauen würde nur den gegenteiligen Effekt verursachen.

Gast
2006-11-08, 03:47:51
Vor nicht allzu langer Zeit war im Gespräch, das die Hauptgrafikkarte völlig abgeschaltet wird und auf Onboard umgeschaltet wird - vorallem beim Notebook. Das sollte im laufenden Betrieb geschehen und hauptsächlich im Mobile-Sektor Einsatz finden.

Außerdem wird es in Zukunft wahrscheinlich möglich sein:

An einem Prototyp der zweikernigen "Silverton"-Plattform demonstrierte er, wie sich beispielsweise Hauptspeicher und Grafikkarte im Leerlauf vollkommen abschalten lassen. Der letzte Bildschirminhalt bleibt dabei dank einer Technik, die Rattner als "Self-Refresh Display" bezeichnete, statisch erhalten. Zum Beweis trennte er das Videokabel von der Hauptplatine, während ein kleines Display weiterhin das letzte Bild anzeigte. Der Stromverbrauch fiel laut angeschlossenem Meßgerät von 6,5 auf 3,5 Watt. Bei völlig abgeschaltetem Mainboard sank der Verbrauch gar auf 1 Watt. Dynamisch arbeitende oder gar mit dem Internet verbundenen Bildschirmschonern macht diese Technik allerdings den Garaus.

http://www.heise.de/newsticker/meldung/70571

StefanV
2006-11-08, 04:28:42
*Grübel* fahren nicht inzwischen sogar die ATI-Stromfresser im 2D-Betrieb runter und machen das die Nvidia-Karten nicht schon seit zwei Generationen? 30Watt im Windows und 140Watt im 3D-Betrieb.
Das dürften die ATI Chips schon seit ewigkeiten machen, weiß nur keiner ;)

aths
2006-11-08, 08:24:41
Noch 30 W in Windows? Würde man Stromsparen ernst nehmen, könnte es lohnen, auf die Graka (oder das Mainboard) noch einen reinen 2D-Chip mit eigenem Framebuffer zu pflanzen, der nur ganz wenig zieht.

CrazyHorse
2006-11-08, 12:34:51
White Velvet, genau darüber habe ich vor Kurzem auch nachgedacht. Aber nicht aus Stromspargründen, sondern wegen des Lärms und der Hitze. Ne schöne passiv gekühlte Karte neben dem Lüftermonster, das ruht wenn nur Windows und Videos u.Ä. angezeigt wird.

Müsste man dann ein Display mit zwei Anschlüssen haben oder kann die "kleine" Karte die Daten via PCIe über die "Monsterkarte" an das Display geben? Theoretisch.

robbitop@work
2006-11-08, 12:36:21
Seit einer Weile wird der 3D Kern in Windows abgeschaltet und nur noch der I/O Teil betrieben. Für Videobeschleunigung muss der dann natürlich wieder hochgefahren werden (um dagegenzulenken hat NV seit dem NV40 einen seperaten kleinen "Videoprozessor")
Die hohen IDLE Werte vom G80 kommen von einem Defekt an den Karten. Man sollte auf finale Messungen von xbit-labs warten.

RavenTS
2006-11-12, 20:45:31
White Velvet, genau darüber habe ich vor Kurzem auch nachgedacht. Aber nicht aus Stromspargründen, sondern wegen des Lärms und der Hitze. Ne schöne passiv gekühlte Karte neben dem Lüftermonster, das ruht wenn nur Windows und Videos u.Ä. angezeigt wird.

Müsste man dann ein Display mit zwei Anschlüssen haben oder kann die "kleine" Karte die Daten via PCIe über die "Monsterkarte" an das Display geben? Theoretisch.

Mann könnte ja quasi entgegen dem früheren Trend bei 3Dfx nun eine 2D-Add-On-Karte bauen und das Bildsignal heute dann digital durschleifen. Voodoo 2Dgraphics Add-On für PCIe 1x. Passiv gekühlt, klein billig. 3Dfx lebt wieder... ;D