Archiv verlassen und diese Seite im Standarddesign anzeigen : Wieso ist es so schwer, stromsparende leistungsfähige Grafikkarten zu bauen?
klumy
2006-06-18, 11:55:01
Der CPU Sektor hat es ja mit Cool & Quiet vorgemacht das das geht. Aber auf dem Grafikkartensektor ist die Entwicklung komischerweise entgegengesetzt. Mehr Grafikpower wird mit mehr Strompower aufgebracht. :eek:
LolekDeluxe
2006-06-18, 12:01:43
Hast Dir ein schlechtes beispiel ausgesucht weil Cool & Quiet im endefekt nichts bringt.
Ist ja toll das mein seine CPU von 2,4 Ghz auf 800 Mhz Drosseln kann, aber es bringt ca. 2-5 Watt weniger verbrauch.
Also ist das in meinen Augen ein sinnloses Feature.
Was ist mit der 7900 GT, die Verbraucht soviel wie eine 6800 nu.
Hat 2-4 mal soviel Renderleitung bei gleichem Verbrauch.
Also wenn das nicht stromsparend ist.
klumy
2006-06-18, 12:20:26
absolut gesehen, ist die Stromaufnahme in den letzten Jahren jedoch gestiegen. Im Gegensatz zum CPU Sektor !!
klumy[/POST]']absolut gesehen, ist die Stromaufnahme in den letzten Jahren jedoch gestiegen. Im Gegensatz zum CPU Sektor !!
Leistung kostet, die logische Folge davon ist eben erhöhter Stromverbrauch. Bei CPUs sieht das nicht anders aus, lediglich durch Entwicklungen für den Notebookbereich, die jetzt auf den Desktop kommen, konnte der Stromverbrauch nochmals deutlich gesenkt werden.
-huha
Avalox
2006-06-18, 12:32:19
Die CPU Leistungsaufnahme ist doch auch gestiegen in den letzten Jahren.
Stromsparende CPUs heute, benötigen mehr Strom als Stromsparende CPUs gestern. Stromfresser heute benötigen mehr als Stromfresser gestern. Man muss nur entsprechende CPUs einer Klasse vergleichen. Und nicht etwa, Verbrauchsoptimierte CPUs heute, gegen leistungsoptimierte CPUs gestern.
Was sich geändert hat, sind vielleicht die Anforderungen Zuhause. Dort mag eine Spitzenleistungs CPU nicht mehr unbedingt nötig sein, eine Spitzen GPU ist es allerdings.
Ein Schaltkreis verrichtet Arbeit, dafür wird Energie benötigt. Bei allen Fortschritt, die zugrunde liegende Technik hat sich ja seit Anbeginn nicht grundsätzlich verändert. Um der Thermodynamik und damit dem Stillstand zu trotzen, benötigt man eben Energie.
Ich verstehe die Stromsparausrichtung in der Öffentlichkeit nicht so richtig.
Ist es der Ökogedanke? Dann muss man sagen, dass Stromverbrauch und Ökobilanz nur sehr indirekt mit einander zu tun haben und niedriger Stromverbrauch auf keinen Fall automatisch mit "ökologisch besser" gleichzusetzen ist.
Oder sind es die Stromkosten? Es ist absolut kurzsichtig anzunehmen, dass niedriger Stromverbrauch mit niedrigeren Verbrauchskosten einhergeht.
BlackBirdSR
2006-06-18, 12:48:20
klumy[/POST]']Der CPU Sektor hat es ja mit Cool & Quiet vorgemacht das das geht. Aber auf dem Grafikkartensektor ist die Entwicklung komischerweise entgegengesetzt. Mehr Grafikpower wird mit mehr Strompower aufgebracht. :eek:
Liegt an der Arbeitweise der Grafikchips.
Mehr Leistung gibt es meist nur mit größerer Parallelität, die auch ausgenutzt wird.
Bei CPUs sieht das ganz anders aus.
Außerdem gibt es ja bereits etliche Techniken zur Drosselung der Leistungsaufnahme. Schaut einfach mal bei Xbitlabs vorbei - eine X800 XT-PE braucht im Windows-Betrieb gerade mal halb soviel Leistung, wie die 9800 XT.
Nur so als Beispiel.
Ebenso die schniecken 45 Watt, die eine 7900 GT zieht (Quelle: ebenfalls XBitlabs), da brauchts eigentlich nichtmal mehr den PCIe-Stromstecker.
StefanV
2006-06-18, 13:16:39
klumy[/POST]']Der CPU Sektor hat es ja mit Cool & Quiet vorgemacht das das geht. Aber auf dem Grafikkartensektor ist die Entwicklung komischerweise entgegengesetzt. Mehr Grafikpower wird mit mehr Strompower aufgebracht. :eek:
Das Problem bei GraKas ist, dass man, um wirklich leistungsfähige GraKas zu bauen, auch viele Einheiten draufpacken muss.
Diese Einheiten kosten logischerweise ncht gerade wenig Energie.
Dagegen kann man leider nicht so wirklich viel tun, einen TBDR trauen sich die beiden großen leider nicht, der würde etwas helfen, den Energieverbrauch bei gleicher Leistung zu drücken.
ähm "cool%quiet" gibts doch bei desktop-grafikkarten schon viel länger als bei desktop cpus, bereits die GeforceFX5800 konnte takt und spannung bei bedarf senken.
und wenn man sieht wieviel heutige grafikkarten im windowsbetrieb weniger als im 3d-betrieb brauchen muss man sagen dass die stromsparmechanismen recht gut funktionieren.
bei nvidia ist der stromverbrauch seit der FX-serie in der entsprechenden leistungsklasse in etwa gleich geblieben, bei deutlich höherer rechenleistung.
bei ATI hat es zwar zwischen R3xx und R4xx einen deutlichen sprung gegeben, was aber in erster linie daran liegt dass die 9xxx-serie aufgrund der schwachen leistung der FXen nicht mehr leistung brauchten.
tokugawa
2006-06-18, 16:49:42
Avalox[/POST]']
Oder sind es die Stromkosten? Es ist absolut kurzsichtig anzunehmen, dass niedriger Stromverbrauch mit niedrigeren Verbrauchskosten einhergeht.
Da hätt ich gern dass du mir das mal genauer erklärst :)
Letztes Jahr hatte ich monatliche Stromkosten von ca. 100 Euro. Dann ist mein WG-Mitbewohner ausgezogen, natürlich mit seinem Computer und seinem Verbrauch, und danach hatte ich eine monatliche Stromrechnung von 58 Euro.
Weniger Verbrauch, weniger Stromrechnung, oder?
Natürlich muß man dann das Gesamtsystem sehen und nicht nur eine einzelne Komponente im Computer (sonst frißt ja irgendwas anderes das ersparte wieder auf eventuell).
anorakker
2006-06-18, 16:59:22
LolekDeluxe[/POST]']Hast Dir ein schlechtes beispiel ausgesucht weil Cool & Quiet im endefekt nichts bringt.
Ist ja toll das mein seine CPU von 2,4 Ghz auf 800 Mhz Drosseln kann, aber es bringt ca. 2-5 Watt weniger verbrauch.
Also ist das in meinen Augen ein sinnloses Feature.
Was ist mit der 7900 GT, die Verbraucht soviel wie eine 6800 nu.
Hat 2-4 mal soviel Renderleitung bei gleichem Verbrauch.
Also wenn das nicht stromsparend ist.
häh? wie kommst du denn auf diese werte?
natürlich bringt c´n´q etwas, ca. das 10fache von deinen angaben..
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=108&seite=6
Bokill
2006-06-18, 18:02:00
Gast[/POST]']ähm "cool%quiet" gibts doch bei desktop-grafikkarten schon viel länger als bei desktop cpus, bereits die GeforceFX5800 konnte takt und spannung bei bedarf senken. ... Wo hast du den Unsinn her?
Cool & Quiet in Form von PowerNow! gibt es seit den AMD K6-2+, K6III+ aus dem Jahr 2000 -> "AMD stellt neue Mobile-Prozessoren vor (http://www.heise.de/newsticker/meldung/9173)" (20.April.2000) [heise.de].
Das dürfte sogar noch aus der Zeit der Voodoo5 5500 sein und Geforce 3 (http://www.3dcenter.org/artikel/2000/10-05a.php) (05.Oktober.2000) [3dcenter.org] sein ...
MFG Bobo(2006)
Bokill[/POST]']Wo hast du den Unsinn her?
Cool & Quiet in Form von PowerNow! gibt es seit den AMD K6-2+, K6III+ aus dem Jahr 2000 -> "AMD stellt neue Mobile-Prozessoren vor (http://www.heise.de/newsticker/meldung/9173)" (20.April.2000) [heise.de].
(2006)
ich schrieb absichtlich von DESKTOP-CPUS, und diese kannten vor dem A64 kein cool&quiet, power-now und wie sie alle heißen.
notebook-gpus haben auch schon seit ewigkeiten stromsparmechanismen, nicht erst seit der FX.
Avalox
2006-06-18, 20:34:52
tokugawa[/POST]']Da hätt ich gern dass du mir das mal genauer erklärst :)
Letztes Jahr hatte ich monatliche Stromkosten von ca. 100 Euro. Dann ist mein WG-Mitbewohner ausgezogen, natürlich mit seinem Computer und seinem Verbrauch, und danach hatte ich eine monatliche Stromrechnung von 58 Euro.
Ich habe ja auch geschrieben, dass es kurzsichtig ist, so zu denken. Nicht, dass man kurzfristig durchaus finanziellen Erfolg damit hat.
Das Problem ist doch, dass der Stromendkunde pro kWh seinen Strom kauft, aber auf der Lieferantenseite die Kosten nicht pro kWh entstehen. Die Umlegung der Kosten auf eine kWh ist doch nur ein Verteilungsmodus für die anfallenden Kosten. Nehmen die Leute weniger Strom ab, so bleiben die meisten Kosten des Anbieters aber unverändert und werden dann mittelfristig neu auf den Kunden umgelegt. Entweder steigen dann die Kosten für die kWh, oder es wird andere Verrechnungsmodelle geben. Untern Strich wird aber niemand deshalb weniger für seine Stromrechnung bezahlen.
Ähnlich liegt der Fall z.B. in Berlin mit der Wasserversorgung. Die Wasserwerke haben grade angekündigt, die Wasserpreise zu erhöhen. Grund ist der zurückgegangene pro Kopf Verbrauch an Wasser. (ganz offizieller Grund).
Durch sparsame Klospühlungen, Duschköpfe und Waschmaschinen etc. verbraucht jeder Berliner untern Strich weniger Wasser. Der Umsatz fehlt nun den Wasserwerken, weil diese in ihren Kalkulationen von einen höheren Verbrauch ausgegangen sind. Der Unterhalt des Zu- und Abwassersystems kostet das selbe wie vorher. Ganz im Gegenteil durch den geringeren Wasserverbrauchs müssen nun noch die Abwasserleitungen zusätzlich mit Frischwasser aus speziellen Fahrzeugen durchgespült werden, weil sie sich nicht mehr selbst reinigen können. Natürlich werden alle Kosten auf den Endverbraucher umgelegt. Sinkt der Verbrauch und bleiben die Kosten, so steigt der Preis. Eine Alternative hat ja niemand.
Ähnlich ist es mit dem Strom. Das Leitungsnetz bleibt identisch, Redundanzen bleiben bestehen. Auch schaltet niemand ein Kraftwerk ab. Am jeden Umgesetzten Euro hängen Unternehmensrenditen. Das wird der Stromanbieter 1:1 auf einen geringeren Stromverbrauch umlegen. So, dass jeder Verbraucher untern Strich wieder dasselbe bezahlt wird. Der finanzielle Erfolg von Stromsparmaßnahmen ist sehr kurzfristig und teuer obendrein, wenn man sich dazu auch noch neue Geräte kaufen muss. Das ist der falsche Ansatz.
Bokill
2006-06-18, 20:43:05
Avalox[/POST]']Ich habe ja auch geschrieben, dass es kurzsichtig ist, so zu denken. Nicht, dass man kurzfristig durchaus finanziellen Erfolg damit hat.
Das Problem ist doch, dass der Stromendkunde pro kWh seinen Strom kauft, aber auf der Lieferantenseite die Kosten nicht pro kWh entstehen. Die Umlegung der Kosten auf eine kWh ist doch nur ein Verteilungsmodus für die anfallenden Kosten. ... Wie sieht es denn aus, wenn lediglich die bisherigen Stromkosten quasi gleich bleiben, aber dafür die Rechenleistung verdoppelt und verdreifacht wird?
Genau so rechnen grosse Abnehmer wie United Internet, Telekom, und die anderen Grossbetreiber von Grossrechenanlagen. Zudem ist Wärme auch ein weiterer spezieller Kostenfaktor ... je wärmer, desto mehr Ausfall ... das sind ziemlich üble, kaum wirklich einplanbare Systemkosten.
MFG Bobo(2006)
Avalox[/POST]']Das Problem ist doch, dass der Stromendkunde pro kWh seinen Strom kauft, aber auf der Lieferantenseite die Kosten nicht pro kWh entstehen.
Also erstmal gibt es bei den Energieunternehmen ja nicht nur Fixkosten, und zweitens gibt es auch andere Gründe als Geld, den Energieverbrauch zu verringern.
Zudem werden auch irgendwann Kraftwerke abgeschaltet bzw. alte nicht mehr ersetzt, wenn weniger Strom benötigt wird. Im internationalen Energiemarkt steigt der Energiebedarf aber.
Andererseits muss man natürlich auch sehen dass "Verlustleistung" nicht immer vollständig Verlust ist.
Bokill
2006-06-18, 20:52:16
Gast[/POST]']ich schrieb absichtlich von DESKTOP-CPUS, und diese kannten vor dem A64 kein cool&quiet, power-now und wie sie alle heißen.
notebook-gpus haben auch schon seit ewigkeiten stromsparmechanismen, nicht erst seit der FX. Es stand nicht wirklich fest, in wie weit der K6-2+, K6III+ eine reine Laptop CPU werden sollte.
Immerhin konnten einige moderne Sockel 7 Mainboards auch den K6+2+/K6III+ einsetzen. Ali hatte sogar ein Sockel 7 Chipsatz entwickelt ohne L2 Cache auf dem Board, eben wegen des integrierten L2 Cache in den K6-2, K6III, K6-2+, K6III+.
In so fern kann man deinen Beitrag so missverstehen, dass regelbare CPU-Spannung und regelbarer CPU Takt erst sehr spät in die PC-Welt kamen, dem ist nicht so.
Die Grafikschmieden verstanden es aber bislang hervorragend die nur Rechenleistung in den Vordergrund zu stellen. Leider!
Im CPU Bereich ist das nun seit einiger Zeit reine Rechenleistung nun kein ausschliessliches Thema mehr. Und das ist gut so!
MFG Bobo(2006)
Ich bin mir sicher, das man schon jetzt stromsparende Grafikkarte bauen könnte, ABER die wären dann auch deutlich teurer.
Bestes Beispiel sind Dual Chip Grafikkarten... die sind wohl nicht billig in der Herstellung, können aber sehr sparsam sein, da statt einer hochgetakteten CPU (mit viel Corespannung) zwei kleinere (mit deutlich niedriger Spannung) genutzt werden können. Die höhere Spannung kombiniert mit hohem Takt frisst wesentlich mehr Strom, als zwei Chips mit niedrigerem Takt und weniger Corespannung.
Beispielweise würde sich durch den Einsatz von 2 GPUs zu je 400 MHz mit beispielweise 1,0V die Verlustleistung deutlich verringern, im Vergleich zu einer Grafikkarte mit einer GPU @ 700 MHz und mit 1,4V.
Wenn wir davon ausgehen, das die GPU @ 700 MHz, 1,4V etwa 80W verbraucht, so wären es bei 2x400 MHz @ 1V nur noch 2x23,36, also 46,6W. Das rentiert sich sogar auch dann, wenn der VRAM doppelt verbaut werden muss, denn der macht nicht allzu viel aus.
Die GX2 hat es bereits vorgemacht, allerdings werden solche Dual Chip Karten für das Mainstreamsegment zu teuer sein, da eben alles doppelt vorhanden ist, deswegen heißt es weiterhin warten...
tokugawa
2006-06-18, 20:55:47
Avalox[/POST]']Ich habe ja auch geschrieben, dass es kurzsichtig ist, so zu denken. Nicht, dass man kurzfristig durchaus finanziellen Erfolg damit hat.
Das ist aber doch finde ich trotzdem ein genügend gutes Argument.
Es ist sowieso klar dass die Stromkosten steigen, tun sie ja seit Jahren, auch unabhängig davon ob der Gesamtstromverbrauch sinkt oder steigt. Und in dem "kurzsichtigen" Mikrokosmos meines eigenen Einflußbereiches kann ich dann halt nur darauf schauen dass ich weniger verbrauche, wenn ich nicht mehr ausgeben will.
Deine Argumentation mag richtig sein, aber wenn du daraus schlußfolgerst dass Stromsparen falsch ist, dann bin ich anderer Meinung (selbst kurzfristige Ersparnisse sind Ersparnisse).
Idealerweise verbraucht man selbst weniger, dafür alle anderen mehr.
Egal, ich finde deine Bezeichnung "kurzsichtig" zu negativ dafür. Es spricht nicht wirklich was dagegen, speziell wenn man langfristig denkt in der Art "jetzt hab ich wenig Geld, später hab ich mehr, deswegen spare ich JETZT kurzfristig" (so muß ich nämlich denken).
Avalox
2006-06-18, 20:59:12
Bokill[/POST]']Wie sieht es denn aus, wenn lediglich die bisherigen Stromkosten quasi gleich bleiben, aber dafür die Rechenleistung verdoppelt und verdreifacht wird?
Genau so rechnen grosse Abnehmer wie United Internet, Telekom, und die anderen Grossbetreiber von Grossrechenanlagen.
Natürlich, es ist ein Türöffner.
Ich denke aber trotzdem, dass Unternehmen heute mehr Strom abnehmen als gestern und übermorgen werden diese noch mehr Strom benötigen. Die verfügbare Rechenleistung steigt dabei zweifelsohne an. Das ist ja Business, im privaten denkt doch so mancher anders und wundert sich im Nachhinein.
Seit Jahren wird telefonieren immer billiger, aber untern Strich gibt jeder soviel für Kommunikation aus wie nie zuvor.
Avalox
2006-06-18, 21:16:49
tokugawa[/POST]']Das ist aber doch finde ich trotzdem ein genügend gutes Argument.
Es ist sowieso klar dass die Stromkosten steigen, tun sie ja seit Jahren, auch unabhängig davon ob der Gesamtstromverbrauch sinkt oder steigt. Und in dem "kurzsichtigen" Mikrokosmos meines eigenen Einflußbereiches kann ich dann halt nur darauf schauen dass ich weniger verbrauche, wenn ich nicht mehr ausgeben will.
Ne ne. Man hat auch andere Einflussmöglichkeiten, als eine andere CPU oder Grafikkarte zu kaufen. Zum einen ist ja die Frage, ob sich solch eine einzelne Komponente überhaupt und wie auswirkt. Bezogen auf den Anwendungszweck.
Zum anderen hast du ja oben richtig festgestellt. Rechner weg, Verbraucher weg. Egal wie wenig ein neuer Rechner verbraucht, er wird mehr verbrauchen als gar kein Rechner. So mag man mit o.g. 58€ schon mal nicht auskommt, es ist also eine unerreichbare Grösse. Aus der Differenz muss sich aber die Neuinvestition rechnen. Eine Aufgabe für den Taschenrechner und nicht aus dem Bauch zu entscheiden. Niedriger Stromverbrauch ist also kein Feature, was man nett finden kann, sondern was sich entweder rechnet oder nicht.
Eine Maßnahme könnte ja auch sein den alten Rechner zu behalten, vielleicht aber mal öfter einfach abzuschalten. Vielleicht mal einzelne Kompnenten ausgeschaltet zu lassen, oder generell das eigene Verhalten zu überprüfen. Spart auch Strom und kostet weniger.
Oder man sucht sich einen günstigeren Stromanbieter, spart zwar nicht Strom, aber die Kosten. Dann bleibt da noch, vielleicht mal selbst auf die Stromerzeuger Seite zu wechseln. Dann mag sich vielleicht auch wieder ein Stromspar PC rechnen, wenn man im Gegenzug die Generatoren kleiner dimensionieren kann.
Diese letzte Möglichkeit mag zwar etwas utopisch klingen, ist aber letztendlich die einzige Möglichkeit die Kette zu durchbrechen. Der Alptraum der Stromerzeuger, könnte tatsächlich eine echte Alternative für den Verbraucher werden. Denn eines ist sicher, Stromerzeuger gehören zu den rentabelsten Unternehmungen, das Feld werden diese nicht kampflos räumen.
Einen Stromspar PC kaufen, weil es grade Mode ist. Da freut sich letztendlich nur einer und das ist nicht der Kunde.
Deine Argumentation mag richtig sein, aber wenn du daraus schlußfolgerst dass Stromsparen falsch ist, dann bin ich anderer Meinung (selbst kurzfristige Ersparnisse sind Ersparnisse).
Nein, das sage ich nicht. Stromsparen finde ich sehr wichtig. Aus einem ökologischen Gedanken. Aber dieses nur als Aspekt und nicht als Selbstzweck. Lieber 10kW aus einer Solaranlage verbraucht, als 1kW aus einen Kernkraftwerk.
Idealerweise verbraucht man selbst weniger, dafür alle anderen mehr.
Ne, ich denke darauf zu spekulieren cleverer zu sein als andere, ist in solch einen Bereich auch eine schlechte Ausgangsbasis. Du kaufst die einen Stromspar PC, der nächste tut dieses auch. Der Strompreis steigt und Strom verbrauchen wird jeder Computer, egal wie wenig dieses dann auch sein wird.
Egal, ich finde deine Bezeichnung "kurzsichtig" zu negativ dafür. Es spricht nicht wirklich was dagegen, speziell wenn man langfristig denkt in der Art "jetzt hab ich wenig Geld, später hab ich mehr, deswegen spare ich JETZT kurzfristig" (so muß ich nämlich denken).
Wenn du darin sparst, dass du dir erst mal was neues kaufst, oder was teureres kaufst. Hmm, ich weiss nicht.
Der Multiplikator für die Stromkosten ist nicht das Elektrogerät, es ist der Preis für die kWh.
LolekDeluxe
2006-06-18, 21:17:34
anorakker[/POST]']häh? wie kommst du denn auf diese werte?
natürlich bringt c´n´q etwas, ca. das 10fache von deinen angaben..
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=108&seite=6
Träum weiter hab eben noch mal meinen Venice nachgemessen.
2,2Ghz@1,4 Volt = 111Watt Idle
1,2Ghz@1,1 Volt = 100Watt Idle
Satte 11Watt weniger, das haut mich echt nicht vom Hocker.
Gut hab jetzt mit denn 5Watt etwas untertrieben, aber 10X ist das auch nicht.
Avalox
2006-06-18, 21:35:52
LolekDeluxe[/POST]']Träum weiter hab eben noch mal meinen Venice nachgemessen.
2,2Ghz@1,4 Volt = 111Watt Idle
1,2Ghz@1,1 Volt = 100Watt Idle
Satte 11Watt weniger, das haut mich echt nicht vom Hocker.
Gut hab jetzt mit denn 5Watt etwas untertrieben, aber 10X ist das auch nicht.
Weil die CPU eben nur ein Teil des PC Systems ist. Dabei ist C'n'Q wirklich gut. Weniger Rechenleistung, weniger Strom sicherlich eine gute Sache.
Zu diesen auch in der aktuellen c't, wo der Woodcrest gegen den Optereon getestet worden. Der Woodcrest braucht ja selber weniger Strom als der Opteron. In der Praxis, verbaut in einem System macht sich dieses aber nicht weiter bemerkbar. So egalisiert sich wieder alles. Marketing und Praxis.
Bokill[/POST]']
Die Grafikschmieden verstanden es aber bislang hervorragend die nur Rechenleistung in den Vordergrund zu stellen. Leider!
Im CPU Bereich ist das nun seit einiger Zeit reine Rechenleistung nun kein ausschliessliches Thema mehr. Und das ist gut so!
das sehe ich anders, nirgends im pc-bereich sinkt der benötigte stromverbrauch/leistung so stark wie in den letzten GPU-generationen.
bei cpus ist es eher so dass es in etwa alle 5 jahre, wenn eine "echte" neue generation kommt die benötigten watt/performance mal einen größeren sprung nach unten machen (bei AMD die einführung der A64-architektur, bei intel jetzt die core-architektur)
ansonsten gibt es lediglich bei jedem strukturwechsel einen kleinen sprung, und das wars, dazwischen steigen die benötigten watt/performance wieder.
Bassmannxt
2006-06-18, 22:05:41
LolekDeluxe[/POST]']Träum weiter hab eben noch mal meinen Venice nachgemessen.
2,2Ghz@1,4 Volt = 111Watt Idle
1,2Ghz@1,1 Volt = 100Watt Idle
Satte 11Watt weniger, das haut mich echt nicht vom Hocker.
Gut hab jetzt mit denn 5Watt etwas untertrieben, aber 10X ist das auch nicht.
Hast du nur die CPU oder den kompletten PC gemessen, mir scheint dein NT ist sehr Inefizient zu sein ;(
Bassmannxt[/POST]']Hast du nur die CPU oder den kompletten PC gemessen, mir scheint dein NT ist sehr Inefizient zu sein ;(
das ist aber leider bei jedem pc-netzteil in diesem leistungsbereich der fall.
deshalb ist es garnicht so falsch das C&Q real in einem desktop-pc relativ wenig bringt.
alpha-centauri
2006-06-18, 22:24:42
LolekDeluxe[/POST]']Hast Dir ein schlechtes beispiel ausgesucht weil Cool & Quiet im endefekt nichts bringt.
Ist ja toll das mein seine CPU von 2,4 Ghz auf 800 Mhz Drosseln kann, aber es bringt ca. 2-5 Watt weniger verbrauch.
Also ist das in meinen Augen ein sinnloses Feature.
Was ist mit der 7900 GT, die Verbraucht soviel wie eine 6800 nu.
Hat 2-4 mal soviel Renderleitung bei gleichem Verbrauch.
Also wenn das nicht stromsparend ist.
laberst wieder blafasel. nix neues bei dir.
davon abgesehen: ICH hab dad durchgemessen:
ein PC, idle, AMD64 3000+ : 59 Watt bei 1000 Mhz C&q
das ganze, idle, kein C+q: 75 W.
soviel zu deinen 5 watt weniger.
Sephiroth
2006-06-18, 23:37:12
alpha-centauri[/POST]']laberst wieder blafasel. nix neues bei dir.
davon abgesehen: ICH hab dad durchgemessen:
ein PC, idle, AMD64 3000+ : 59 Watt bei 1000 Mhz C&q
das ganze, idle, kein C+q: 75 W.
soviel zu deinen 5 watt weniger. Na na, wer wird denn hier stänkern wollen? :unono:
OBrian
2006-06-24, 11:37:46
Gast[/POST]']das sehe ich anders, nirgends im pc-bereich sinkt der benötigte stromverbrauch/leistung so stark wie in den letzten GPU-generationen.Stimmt schon, aber das liegt daran, daß Intel seine Netburstarchitektur nicht mehr so steigern konnte wie geplant (mit 3,x GHz ist ja seit längerem der Endpunkt erreicht gewesen) und damit AMD auch nicht mehr den Zwang hatte, auf Teufelkommraus die Leistung zu steigern (einen 3700+ mit 2,4GHz gab es auch schon vor 2 1/2 Jahren). Damit konnte die Fertigungstechnik wieder aufholen: Die 65nm bei Intel haben einiges gebracht, auch schon innerhalb der 90nm war eine Verbesserung zu erkennen. Und bei AMD verbraucht ein aktueller 90nm-Prozessor bei gleicher Leistung auch weniger als die Hälfte eines 130nm-Teils von Ende 2003. Aber wäre Intel inzwischen beim Pentium 4 mit 6GHz, müßte AMD einen 6000+ im aktuellen 90nm-Prozeß bauen, der würde dann wohl doch etwas wärmer sein ;)
Das ganze wird sich wahrscheinlich demnächst wieder ändern, wenn Intel das Tempo wieder anzieht und AMD mitgeht. Hoffentlich lassen sich beide nicht wieder zu so einem irren Wettrennen hinreißen und wir sind in zwei Jahren (wieder) bei 200W...
Bei Grafikkarten könnte das ähnlich gehen, allerdings sind die Prduktzyklen zu kurz, als das eine mißlungene Chipgeneration ausreichend würde, daß der Konkurrent so bremsen kann, um wieder passive High-End-Karten zu bauen. Und bei zwei vermurksten Generationen hintereinander wäre die betreffende Firma ja fast schon weg vom Fenster.
Bokill
2006-06-24, 12:23:11
OBrian[/POST]'] ...
Das ganze wird sich wahrscheinlich demnächst wieder ändern, wenn Intel das Tempo wieder anzieht und AMD mitgeht. Hoffentlich lassen sich beide nicht wieder zu so einem irren Wettrennen hinreißen und wir sind in zwei Jahren (wieder) bei 200W... Nee glaube ich nicht, denn praktisch alle Chiphersteller und Designschmieden legen seit wenigen Jahren besonders viel wert auf Stromeffizienz.
So gesehen war Intel der Allerletzte CPU Hersteller, der sich ebenfalls dem Stromsparen auf breiter Front verschrieben hat (NEC mit der SX Serie lasse ich mal da aus).
MFG Bobo(2006)
RavenTS
2006-06-24, 16:46:23
LolekDeluxe[/POST]']Träum weiter hab eben noch mal meinen Venice nachgemessen.
2,2Ghz@1,4 Volt = 111Watt Idle
1,2Ghz@1,1 Volt = 100Watt Idle
Satte 11Watt weniger, das haut mich echt nicht vom Hocker.
Gut hab jetzt mit denn 5Watt etwas untertrieben, aber 10X ist das auch nicht.
Das scheint mir aber immer noch zu wenig. Bist du sicher, dass deine CPU auch wirklich nur 1,1V bekommt, denn eine Spannungverringerung von satten 20% sollten sich doch wirklich deutlicher bemerkbar machen, da müsste ja schon ein wirklich extrem schlecht ausgelastetes NT am Werk sein...
RavenTS[/POST]']Das scheint mir aber immer noch zu wenig. Bist du sicher, dass deine CPU auch wirklich nur 1,1V bekommt, denn eine Spannungverringerung von satten 20% sollten sich doch wirklich deutlicher bemerkbar machen, da müsste ja schon ein wirklich extrem schlecht ausgelastetes NT am Werk sein...
im idle verbraucht die cpu fast nix, dementsprechend bringt hier die spannungsverringerung auch nur sehr wenig.
dirk.loesche
2006-06-25, 11:06:01
Avalox[/POST]']Ähnlich liegt der Fall z.B. in Berlin mit der Wasserversorgung. Die Wasserwerke haben grade angekündigt, die Wasserpreise zu erhöhen. Grund ist der zurückgegangene pro Kopf Verbrauch an Wasser. (ganz offizieller Grund).
Durch sparsame Klospühlungen, Duschköpfe und Waschmaschinen etc. verbraucht jeder Berliner untern Strich weniger Wasser. Der Umsatz fehlt nun den Wasserwerken, weil diese in ihren Kalkulationen von einen höheren Verbrauch ausgegangen sind. Der Unterhalt des Zu- und Abwassersystems kostet das selbe wie vorher. Ganz im Gegenteil durch den geringeren Wasserverbrauchs müssen nun noch die Abwasserleitungen zusätzlich mit Frischwasser aus speziellen Fahrzeugen durchgespült werden, weil sie sich nicht mehr selbst reinigen können. Natürlich werden alle Kosten auf den Endverbraucher umgelegt. Sinkt der Verbrauch und bleiben die Kosten, so steigt der Preis. Eine Alternative hat ja niemand.
Die Wasserwerke müssen kostendeckend Wirtschaften. Ist Gesetzlich so festgeschrieben.
Wie das bei den Stromanbietern Gesetzlich geregelt ist weiß ich nicht.
Bei den Wasserwerken ist es aber auch so, dass das Wasser, welches bei denen dann ankommt in größerem Maße verschmutzt ist. Sprich nicht so stark verdünnt. Deswegen ist der Aufwand zur Reinigung auch größer <-> teurer.
und wenn man sieht wieviel heutige grafikkarten im windowsbetrieb weniger als im 3d-betrieb brauchen muss man sagen dass die stromsparmechanismen recht gut funktionieren. da frag ich mich aber, warum eine 1800xt 60° heiß wird im leerlauf.
3d[/POST]']da frag ich mich aber, warum eine 1800xt 60° heiß wird im leerlauf.
weil der lüfter fast einschlaft?
ich wollte eigentlich eine antwort und keine gegenfrage.
RavenTS
2006-06-25, 19:12:18
3d[/POST]']ich wollte eigentlich eine antwort und keine gegenfrage.
Dann halt weil der Lüfter einschläft "!" Sicherlich kann ein GraKaChip einzelne Chipübereiche inzwischen abschalten niedriger takten oder was auch immer, aber der 2D-Part muss ja noch aktiv sein und der hängt sicherlich mit einigen Einheiten, die für 3D verantwortlich sind irgendwie zusammen, so daß man die Spannung einfach nicht zu sehr senken kann...
Plage
2006-06-25, 19:32:12
Avalox[/POST]']Ich verstehe die Stromsparausrichtung in der Öffentlichkeit nicht so richtig.
Ich für meinen Teil sehe in einem niedrigeren Stromverbrauch geringere Wärmeabgabe, wodurch die Komponenten einfacher und vor allem leiser zu kühlen sind.
Es macht schon einen Unterschied, ob eine Grafikkarte 30W oder 130W verbraucht. Die Graka mit dem höheren Verbrauch benötigt eine wesentlich größere, schwerere und leutere Kühlung als die genügsame Graka.
Netzteile, die weniger leisten, sind zusätzlich auch preiswerter.
Die einzusparenden Stromkosten sind hierbei noch ein positiver Nebeneffekt.
jojo4u
2006-06-25, 21:50:35
Es gibt Techniken bei mobilen Grafikkarten, die werden aber nicht auf den Desktop übernommen. Entweder um die mobilen teurer verkaufen zu können oder weil der Markt es nicht fordert.
Meine Radeon 9700 lief sogar bei ~20 Mhz Core stabil in rein 2D, für Filme waren 40 Mhz notwendig. Beim Runterfahren gab's allerdings Probleme.
Weil hier jeder über Cool&Quiet redet: Diese Technik ist bei Chips mit niedriger
Strukturbreite erst wichtig geworden. Mein Athlon XP 180 nm ist mit disconnect locker passiv zu kühlbar. Ein 130/90 nm Athlon 64 hat mehr Leckströme, deshalb braucht er eine niedrigere Spannung um diese zu verringern. Den Verbraucht abseits der Leckströme senken seit Prozessorgenerationen die Prozesse welche auf HLT/STPGNT reagieren.
jojo4u[/POST]']
Meine Radeon 9700 lief sogar bei ~20 Mhz Core stabil in rein 2D, für Filme waren 40 Mhz notwendig. Beim Runterfahren gab's allerdings Probleme.
und wieviel strom spart sie dadurch?
ich behaupte mal vernachlässigbar.
jojo4u
2006-06-25, 22:28:53
Gast[/POST]']und wieviel strom spart sie dadurch?
ich behaupte mal vernachlässigbar.
Aus einem älteren Beitrag von mir:
all figures in AC of the whole system
underclocked 35/170Mhz: 99W
standard 275/270Mhz: 110W
overclocked 370/310Mhz: 113W
LolekDeluxe[/POST]']Hast Dir ein schlechtes beispiel ausgesucht weil Cool & Quiet im endefekt nichts bringt.
Ist ja toll das mein seine CPU von 2,4 Ghz auf 800 Mhz Drosseln kann, aber es bringt ca. 2-5 Watt weniger verbrauch...
Irrtum! die Stromaufnahme eines Prozessors ist direkt proportional zur Taktfrequenz --> halber Takt = halber Strom. Macht halt nur in der Gesamtstromaufnahme des Rechners net soviel, weil nur die CPU den Takt senkt und der Rest der Hardware nich. Von der Effizienz der CPU-Spannungswandler wollen wir gar net erst anfangen...
Gast[/POST]']Irrtum! die Stromaufnahme eines Prozessors ist direkt proportional zur Taktfrequenz --> halber Takt = halber Strom.
nicht zwangsläufig, das gilt nur (annähernd) wenn die cpu intern zu 100% ausgelastet ist, was in der praxis nie vorkommt.
bei GPUs gilt das unter last schon eher, da diese in der praxis eine sehr hohe interne auslastung aufweisen.
RavenTS
2006-07-06, 23:58:29
jojo4u[/POST]']Aus einem älteren Beitrag von mir:
all figures in AC of the whole system
underclocked 35/170Mhz: 99W
standard 275/270Mhz: 110W
overclocked 370/310Mhz: 113W
Immherin, das sind doch gleich mal 10%, das dürfte über Monate und Jahre doch ein paar Euros ausmachen, gerade wenn der Rechner viel läuft und die Strompreise weiter steigen...
BlackBirdSR
2006-07-07, 00:03:24
Gast[/POST]']Irrtum! die Stromaufnahme eines Prozessors ist direkt proportional zur Taktfrequenz --> halber Takt = halber Strom. Macht halt nur in der Gesamtstromaufnahme des Rechners net soviel, weil nur die CPU den Takt senkt und der Rest der Hardware nich. Von der Effizienz der CPU-Spannungswandler wollen wir gar net erst anfangen...
Da du dabei Leckströme und parasitäre Effekte nicht berücksichtigst, bist du mit der Rechnung wahrscheinlich weit daneben, sobald du sehr hoch oder sehr niedrig taktest.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.