Zurück   3DCenter Forum > Diskussions-Foren > Grafikchips und Grafikkarten
Registrieren Hilfe Community Kalender Heutige Beiträge Suchen Uns unterstützen

Antwort
 
Themen-Optionen Ansicht
Alt 2007-11-19, 17:06:40   #1 (im Thread / einzeln)
AnarchX
Fanatic Member
 
Registriert: 2004-10-10
Beiträge: 34.360
Stromsparmechanismen bei G92 - Aber nur für NBs...

Im Anandtech-Artikel zur heute gelaunchten 8800M-Serie gab es durchaus interessante Zahlen zum Stromverbrauch dieser:

Zitat:
So what sort of power requirements will come with these new ultrafast mobile GPUs? Here is one more area where things have improved over the GeForce Go 7950 GTX. Maximum power use should be somewhat lower (37W compared to 44W for the 8800M GTX, and a few watts lower for the 8800M GTS), and minimum power requirements should also be lower - we were told the 8800M GTX sitting idle at the Windows desktop consumes 4.7W. VP2 will increase power requirements slightly when watching movies, but only up to around 7.2W. While the idle power consumption isn't particularly high, the fact of the matter is that battery life is extremely important for many laptop users, and battery life will still suffer compared to IGP laptop offerings.
http://www.anandtech.com/mobile/showdoc.aspx?i=3155&p=3

Von 44W auf 4.7W, ob das allein durch Spannungs/Taktsenkung möglich ist?
Oder können etwa doch wie schonmal berichtet im Zusammenhang mit dem "G80-Stromspar-Treiber" ganze Teile des Chips vom Strom getrennt werden?

Aber auf jeden Fall sieht man, dass NV deutlich weniger Idle-Verbrauch haben könnte, wenn man nicht Hybrid-SLI inkl. Plattformen um jeden Preis vermarkten wollte.

Geändert von AnarchX (2007-11-19 um 17:07:09 Uhr)
AnarchX ist offline   Mit Zitat antworten Beitrag zum Zitieren auswählen
Alt 2007-11-19, 17:15:06   #2 (im Thread / einzeln)
Gast
Gast
 
Beiträge: n/a
Re: Stromsparmechanismen bei G92 - Aber nur für NBs...

Man so ein Rotz.

Da werden funktionierende Mechanismen abgeschaltet.
Aber trotz deren Bemühungen, ich tue mir keine nv Plattform an.
  Mit Zitat antworten Beitrag zum Zitieren auswählen
Alt 2007-11-19, 18:03:33   #3 (im Thread / einzeln)
GeneralHanno
Hardcore Member
 
Benutzerbild von GeneralHanno
 
Registriert: 2007-10-10
Beiträge: 1.787
Re: Stromsparmechanismen bei G92 - Aber nur für NBs...

früher oder später wird ATi (genauer der markt) nvidia schon dazu zwingen stromspar-mechanismen auch für desktops anzubieten.
GeneralHanno ist offline   Mit Zitat antworten Beitrag zum Zitieren auswählen
Alt 2007-11-19, 18:13:29   #4 (im Thread / einzeln)
Super Grobi
Insane Member
 
Benutzerbild von Super Grobi
 
Registriert: 2004-04-05
Beiträge: 17.060
Super Grobi eine Nachricht über AIM schicken
Re: Stromsparmechanismen bei G92 - Aber nur für NBs...

Zitat von GeneralHanno Beitrag anzeigen
früher oder später wird ATi (genauer der markt) nvidia schon dazu zwingen stromspar-mechanismen auch für desktops anzubieten.
Ach,
guck dir doch die Umfrage an. Hier im Forum gibts doch so ein Thread "8800GT oder 8700". Den Geforce-Bots ist das völlig egal.

ICH hab genau DESWEGEN mich für die 3870 entschieden, bin aber rech alleine mit meiner Meinung.

SG

Intel Xeon E3-1235 # Asus P8B WS # 16gb DDR3 # Radeon 6970 # Western Digital Velociraptor 600gb # Enermax Platimax 600W #
Super Grobi ist offline   Mit Zitat antworten Beitrag zum Zitieren auswählen
Alt 2007-11-22, 09:41:22   #5 (im Thread / einzeln)
Riipa
Senior Member
 
Registriert: 2004-05-18
Beiträge: 154
Re: Stromsparmechanismen bei G92 - Aber nur für NBs...

Vielleicht sind die "Bots" auch einfach nur ganz normale Menschen, deren Rechner nicht 24/7 läuft und die der Idle-Verbrauch einfach nicht interessiert. Wenn mein Rechner läuft, dann läuft zu 90% auch ein Spiel. Idle-Verbrauch? Ist mir völlig egal. Der Stromverbrauch ingmae muss in einem sinnvollen Verhältnis zur Leistung stehen - das wars.

- http://www.riipa.de - putting the "pro" into procrastination -
Riipa ist offline Computer-Informationen von Riipa anzeigen   Mit Zitat antworten Beitrag zum Zitieren auswählen
Alt 2007-11-22, 10:11:36   #6 (im Thread / einzeln)
BlackBirdSR
3DCenter
 
Benutzerbild von BlackBirdSR
 
Registriert: 2002-02-27
Beiträge: 9.214
Re: Stromsparmechanismen bei G92 - Aber nur für NBs...

Zitat von AnarchX Beitrag anzeigen
?

Aber auf jeden Fall sieht man, dass NV deutlich weniger Idle-Verbrauch haben könnte, wenn man nicht Hybrid-SLI inkl. Plattformen um jeden Preis vermarkten wollte.
Ich gehe eher davon aus, dass es sich um einen neuen ASIC handelt. Der dann eben speziell die benötigten Funktionen aufweist. Das dürfte den Chip verteuern, und für den Desktopmarkt eher ungünstig sein. Immerhin will mnan die Chips da recht billig haben, falls möglich. Zumal der Großteil der Käufer keine Ahnung vom Verbrauch etc hat.
Sobald sich das ins Bewusstsein der Bevölkerung gebrannt hat (Sprich THG, Computerbild und ARD haben darüber berichtet) wird man es auch im Desktop finden.

The Two Rules of Success:
1. Don't tell everything you know.
BlackBirdSR ist offline Computer-Informationen von BlackBirdSR anzeigen   Mit Zitat antworten Beitrag zum Zitieren auswählen
Alt 2007-11-22, 10:35:08   #7 (im Thread / einzeln)
AnarchX
Fanatic Member
Threadstarter
 
Registriert: 2004-10-10
Beiträge: 34.360
Re: Stromsparmechanismen bei G92 - Aber nur für NBs...

Zitat von BlackBirdSR Beitrag anzeigen
Ich gehe eher davon aus, dass es sich um einen neuen ASIC handelt. Der dann eben speziell die benötigten Funktionen aufweist. Das dürfte den Chip verteuern, und für den Desktopmarkt eher ungünstig sein.
Warum sollte NV extra für das imo eher volumenschwache NB-HighEnd eine eigene GPU fertigen?
Das tat man AFAIR noch nie und der FW kennt ihn übrigens auch als G92.

Wenn dann handelt es sich hier wohl eher um einen besseren G92 (Wafermitte) um niedrige Spannungen zu ermöglichen, aber an sich wird es der normale G92 sein.

Zusätzlich kommt hier ja noch ein wohl ziemlich teures PCB hinzu, einmal wegen der Größe und der hocheffizienten Stromversorgung.

Geändert von AnarchX (2007-11-22 um 10:36:07 Uhr)
AnarchX ist offline   Mit Zitat antworten Beitrag zum Zitieren auswählen
Alt 2007-11-22, 10:40:51   #8 (im Thread / einzeln)
BlackBirdSR
3DCenter
 
Benutzerbild von BlackBirdSR
 
Registriert: 2002-02-27
Beiträge: 9.214
Re: Stromsparmechanismen bei G92 - Aber nur für NBs...

Zitat von AnarchX Beitrag anzeigen
Warum sollte NV extra für das imo eher volumenschwache NB-HighEnd eine eigene GPU fertigen?
Das tat man AFAIR noch nie und der FW kennt ihn übrigens auch als G92.

Wenn dann handelt es sich hier wohl eher um einen besseren G92 (Wafermitte) um niedrige Spannungen zu ermöglichen, aber an sich wird es der normale G92 sein.

Zusätzlich kommt hier ja noch ein wohl ziemlich teures PCB hinzu, einmal wegen der Größe und der hocheffizienten Stromversorgung.
Dann lieg ich damit wohl daneben
Aber wenn man ganze Teile des Chips anschaltet, dann braucht man dafür auch HW. Und wenn das im G92 nicht verfügbar ist, dann hat nvidia entweder keinen Bock, oder es funktioniert nicht. Oder es sind doch veränderte Chips oder es gibt die Sache gar nicht....

Interessant wäre jetzt, wie sich der Chip auf dem Desktop in Vista verhält!

The Two Rules of Success:
1. Don't tell everything you know.
BlackBirdSR ist offline Computer-Informationen von BlackBirdSR anzeigen   Mit Zitat antworten Beitrag zum Zitieren auswählen
Alt 2007-11-22, 10:47:41   #9 (im Thread / einzeln)
Spasstiger
Fanatic Member
 
Registriert: 2004-08-15
Ort: Stuttgart
Beiträge: 35.559
Re: Stromsparmechanismen bei G92 - Aber nur für NBs...

Vielleicht sehen wir ja diese Stromsparmechanismen bei der GX2. Da würde es jedenfalls Sinn machen, wäre preislich evtl. auch drin und hätte auch sehr positive Resonanzen zur Folge (Tester geht von Idle-Stromfresser aus und findet das Gegenteil vor).

Mark Rein: "You know, people are such snobs, with this "oh, it's not about graphics" thing. That's such nonsense. It's totally about graphics!"
Spasstiger ist offline Computer-Informationen von Spasstiger anzeigen   Mit Zitat antworten Beitrag zum Zitieren auswählen
Alt 2007-11-22, 10:50:32   #10 (im Thread / einzeln)
AnarchX
Fanatic Member
Threadstarter
 
Registriert: 2004-10-10
Beiträge: 34.360
Re: Stromsparmechanismen bei G92 - Aber nur für NBs...

Zitat von BlackBirdSR Beitrag anzeigen
Dann lieg ich damit wohl daneben
Aber wenn man ganze Teile des Chips anschaltet, dann braucht man dafür auch HW. Und wenn das im G92 nicht verfügbar ist, dann hat nvidia entweder keinen Bock, oder es funktioniert nicht. Oder es sind doch veränderte Chips oder es gibt die Sache gar nicht....
Wie schon gesagt Hybrid-SLI scheint hier die Antwort.
Warum sollte NV plötzlich konsequent auf Stromsparmaßnahmen in allen Desktop-Segmenten verzichten, wo sie noch mit GF7 hier glänzten?

Zitat von BlackBirdSR Beitrag anzeigen
Interessant wäre jetzt, wie sich der Chip auf dem Desktop in Vista verhält!
Denkst du nicht, dass sich die 4.7W auf Vista beziehen könnten? Etwas anderes macht ja im Zusammenhang mit einer 8800M nicht viel Sinn.

btw.

Da hatte sich wohl jemand damals verplappert:
Zitat:
Als wir nVidia auf dieses Thema ansprachen, gab der „Central European Product PR Manager“ von nVidia, Jens Neuschäfer, uns gegenüber bekannt, dass nVidia derzeit einen Treiber in Entwicklung hat, der den Stromverbrauch der G80-GPU im Leerlauf deutlich senken soll. Dies soll nicht nur durch eine starke Taktminderung sowie einer Reduzierung der Spannung, sondern ebenfalls durch eine Deaktivierung der Shadercluster bewerkstelligt werden. Der G80 hat insgesamt acht dieser Shadercluster (welche die ALUs, TMUs, TAUs sowie ein Großteil des Caches beinhalten), die selbst bei Verwendung der Aero-Oberfläche unter Windows Vista nicht nötig sind.
http://www.computerbase.de/news/hard...tromverbrauch/


Naja, vielleicht kann es Unwinder irgendwann mal hacken...

Geändert von AnarchX (2007-11-22 um 10:57:28 Uhr)
AnarchX ist offline   Mit Zitat antworten Beitrag zum Zitieren auswählen
Alt 2007-11-22, 11:13:53   #11 (im Thread / einzeln)
Gast
Gast
 
Beiträge: n/a
Re: Stromsparmechanismen bei G92 - Aber nur für NBs...

Zitat von AnarchX Beitrag anzeigen
Da hatte sich wohl jemand damals verplappert:

http://www.computerbase.de/news/hard...tromverbrauch/


Naja, vielleicht kann es Unwinder irgendwann mal hacken...
Ja, 17. März. Passiert ist bis heute genau gar nichts.
  Mit Zitat antworten Beitrag zum Zitieren auswählen
Alt 2007-11-22, 11:46:08   #12 (im Thread / einzeln)
Wurschtler
Gast
 
Beiträge: n/a
Re: Stromsparmechanismen bei G92 - Aber nur für NBs...

NV hat so krasse Stromsparmechanismen und nutzt sie im Desktop-Bereich nicht!? Sauerei...

Ich hab mir vor kurzem erst eine neue Grafikkarte bestellt. Es ist eine HD3870 geworden wegen dem niedrigen Idle-Verbrauch.
  Mit Zitat antworten Beitrag zum Zitieren auswählen
Alt 2007-11-22, 12:13:28   #13 (im Thread / einzeln)
Gast
Gast
 
Beiträge: n/a
Re: Stromsparmechanismen bei G92 - Aber nur für NBs...

Zitat von AnarchX Beitrag anzeigen
Warum sollte NV plötzlich konsequent auf Stromsparmaßnahmen in allen Desktop-Segmenten verzichten, wo sie noch mit GF7 hier glänzten?


naja, geglänzt habe sie auch nicht gerade, sie hatten lediglich eine (vor allem im vergleich zur konkurrenz) sehr sparsame GPU, auch ohne sich großartige gedanken um den stromverbrauch zu machen.
  Mit Zitat antworten Beitrag zum Zitieren auswählen
Alt 2007-11-22, 12:37:17   #14 (im Thread / einzeln)
kahlchen
Gold Member
 
Benutzerbild von kahlchen
 
Registriert: 2007-05-30
Beiträge: 982
Re: Stromsparmechanismen bei G92 - Aber nur für NBs...

Zitat von BlackBirdSR Beitrag anzeigen
Ich gehe eher davon aus, dass es sich um einen neuen ASIC handelt. Der dann eben speziell die benötigten Funktionen aufweist.
Was ist ein ASIC?

Zitat von AnarchX Beitrag anzeigen
Denkst du nicht, dass sich die 4.7W auf Vista beziehen könnten? Etwas anderes macht ja im Zusammenhang mit einer 8800M nicht viel Sinn.
Er meinte auf im Zusammenhang mit einem DESKTOP-System.

3DCenter Amazon Partnerlink
Das Reh springt hoch, das Reh springt weit, warum auch nicht, es hat ja Zeit.

Geändert von kahlchen (2007-11-22 um 12:38:30 Uhr)
kahlchen ist offline Computer-Informationen von kahlchen anzeigen   Mit Zitat antworten Beitrag zum Zitieren auswählen
Alt 2007-11-22, 16:38:02   #15 (im Thread / einzeln)
Spasstiger
Fanatic Member
 
Registriert: 2004-08-15
Ort: Stuttgart
Beiträge: 35.559
Re: Stromsparmechanismen bei G92 - Aber nur für NBs...

Zitat von Gast Beitrag anzeigen
sie hatten lediglich eine (vor allem im vergleich zur konkurrenz) sehr sparsame GPU
Und wenn man die Performance in heutigen Spielen heranzieht, kann von Effizienz wirklich keine Rede sein. Wofür eine GeForce 7900 GTX 80 Watt raushaut, reicht im Extremfall schon eine Radeon X1650 XT bei 50 Watt aus. Und was die 8800 GT mit einem nur rund 10 Watt höheren Energieverbrauch als bei der 7900 GTX leistet, ist noch viel beeindruckender.

Mark Rein: "You know, people are such snobs, with this "oh, it's not about graphics" thing. That's such nonsense. It's totally about graphics!"

Geändert von Spasstiger (2007-11-22 um 16:41:40 Uhr)
Spasstiger ist offline Computer-Informationen von Spasstiger anzeigen   Mit Zitat antworten Beitrag zum Zitieren auswählen
Alt 2007-11-22, 16:57:46   #16 (im Thread / einzeln)
Odal
Master Member
 
Benutzerbild von Odal
 
Registriert: 2003-12-15
Beiträge: 9.551
Re: Stromsparmechanismen bei G92 - Aber nur für NBs...

Zitat von GeneralHanno Beitrag anzeigen
früher oder später wird ATi (genauer der markt) nvidia schon dazu zwingen stromspar-mechanismen auch für desktops anzubieten.

so siehts aus...das was die HD3870 für mich so interessant macht ist der geringe Stromverbrauch...

wenn Grafikkarten in 3D viel Saft ziehen ok kann ich mit leben...aber ohne massive Verbrauchsabsenkung im 2D Windowsbetrieb wo eine Karte von vor 15 Jahren ausreichen würde geht mal gar nicht.

Wenn sie nichts dergleichen anbeiten sollten sie zumindest dem Kunden die möglichkeit geben per Treiber oder sonstiger Software Takt sowie Spannung beliebig abzusenken...

R5 3600 MSI B450 Tomahawk Max 2x16GB Crucial Ballistix @3800Mhz RX6600XT@0.97V
i7 3700 16GB Nitro+ RX470 8GB 1125Mhz GPU/1750Mhz Ram@0.88V
i5 750 @3.86Ghz-4.4Ghz 12GB Ram@1472 CL7 Gigabyte P55 UD3 HD7870 @1200mhz GPU / 1450Mhz Ram
Odal ist offline   Mit Zitat antworten Beitrag zum Zitieren auswählen
Alt 2007-11-22, 18:06:22   #17 (im Thread / einzeln)
Coda
3DCenter
 
Benutzerbild von Coda
 
Registriert: 2003-12-23
Ort: Frankfurt Main
Beiträge: 32.566
Re: Stromsparmechanismen bei G92 - Aber nur für NBs...

Zitat von kahlchen Beitrag anzeigen
Was ist ein ASIC?
Application specific integrated circuit

Ein Chip einfach

Coda ist offline   Mit Zitat antworten Beitrag zum Zitieren auswählen
Alt 2007-11-23, 00:58:54   #18 (im Thread / einzeln)
Gast
Gast
 
Beiträge: n/a
Re: Stromsparmechanismen bei G92 - Aber nur für NBs...

Zitat von Odal Beitrag anzeigen
so siehts aus...das was die HD3870 für mich so interessant macht ist der geringe Stromverbrauch...

wenn Grafikkarten in 3D viel Saft ziehen ok kann ich mit leben...aber ohne massive Verbrauchsabsenkung im 2D Windowsbetrieb wo eine Karte von vor 15 Jahren ausreichen würde geht mal gar nicht.

Wenn sie nichts dergleichen anbeiten sollten sie zumindest dem Kunden die möglichkeit geben per Treiber oder sonstiger Software Takt sowie Spannung beliebig abzusenken...
Also unter Vista reicht so ne alte Karte nicht und bei erscheinen der R600 GPU hat auch kein Hahn nach dem Stromverbrauch gekräht... wie man eben Farbe bekennt...
  Mit Zitat antworten Beitrag zum Zitieren auswählen
Alt 2007-11-23, 01:11:34   #19 (im Thread / einzeln)
LovesuckZ
Gast
 
Beiträge: n/a
Re: Stromsparmechanismen bei G92 - Aber nur für NBs...

Es geht ja nichtmal um einen Stromsparmechanismus. Schon die bloße Möglichkeit der Untertaktung der Karte reicht aus, um bis zu 14€ im Jahr weniger zu verbrauchen (bei ca. 20 Watt Unterschied im IDLE). Warum man diese Möglichkeit bei den neuen Treibern gestrichen hat, versteht wohl der Vorstand und Gott...
  Mit Zitat antworten Beitrag zum Zitieren auswählen
Alt 2007-11-23, 01:22:13   #20 (im Thread / einzeln)
Gast
Gast
 
Beiträge: n/a
Re: Stromsparmechanismen bei G92 - Aber nur für NBs...

Zitat von LovesuckZ Beitrag anzeigen
Warum man diese Möglichkeit bei den neuen Treibern gestrichen hat, versteht wohl der Vorstand und Gott...
Das ist einfach: Jetzt im NACHHINEIN kann nVidia die Stabilität der Karten nicht mehr testen. Stell dir vor du installierst den Treiber und die Karte semmelt dir ab mit den gesenkten Taktraten...

Ich glaube nicht das nVidia zum Launch hin genug Zeit investiert hat um jeden Chip ausreichend auf alle Idle-Taktraten und Spannungen hin zu testen.

Eventuell liegt hier das Problem begraben. Man wollte vor ATI am Markt sein und hat diesen Punkt daher erstmal auf die Warteliste gesetzt?

Übrigens ist es nix neues. Der Notebookmarkt bekommt eigentlich die besseren Produkte ab. Die Core2 Architektur ist nicht umsonst unter "Merom" bekannt geworden, denn der Merom verfügt über bessere Stromsparmechanismen als das davon abstammende Desktop-Pendant...
  Mit Zitat antworten Beitrag zum Zitieren auswählen
Antwort

Lesezeichen
  • Dieses Thema bei Twitter speichern
  • Dieses Thema bei Facebook speichern


Forumregeln
Es ist Ihnen nicht erlaubt, neue Themen zu verfassen.
Es ist Ihnen nicht erlaubt, auf Beiträge zu antworten.
Es ist Ihnen nicht erlaubt, Anhänge hochzuladen.
Es ist Ihnen nicht erlaubt, Ihre Beiträge zu bearbeiten.

BB-Code ist an.
Smileys sind an.
[IMG] Code ist an.
HTML-Code ist aus.

Gehe zu


Alle Zeitangaben in WEZ +2. Es ist jetzt 03:09:01 Uhr.


Powered by vBulletin® (Deutsch)
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.