Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Die Sache mit der Grafikkarten-Leistungsaufnahme
Leonidas
2009-03-23, 20:25:37
Link zum Artikel:
http://www.3dcenter.org/artikel/die-sache-mit-der-grafikkarten-leistungsaufnahme
Popeljoe
2009-03-23, 21:31:59
Vorneweg: klasse Artikel Leo! :up:
Für eine echte realistische Messung des Stromverbrauchs der Grafikkarten wäre es evtl. möglich, den Weg über Mainboards zu nehmen, die mit einem Onboard Grafikchip ausgestattet sind.
Man könnte dann den Verbrauch mit Graka und Onboardchip in Beziehung setzen und so halbwegs annehmbare Vergleichswerte erzielen...
Wichtig erscheint mir aber vor Allem der bei ATI zu niedrig angesetzte Verbrauch zu sein, denn wenn man den Furmark laufen läßt und dadurch das Kühlsystem seiner Graka überfordert, dann wird sich diese unter Umständen verabschieden... ;(
Auch, wenn dies nur in Sondersituationen passieren mag ist dies ein unschönes Gefühl...
greeny
2009-03-23, 21:35:14
Schließlich haben HighEnd-Modelle selbst die stromschluckendesten CPUs ...
öhm, meiner meinung nach die stromschluckendsten ...
weiß nicht genau, ob schluckendesten grammatikalisch richtig ist, aber es klingt irgendwie blöde...
moeb1us
2009-03-23, 22:56:02
guter zusammenfassender artikel leo, danke dir.
Sonyfreak
2009-03-23, 23:38:23
Sehr schöner und informativer Artikel! Danke Leonidas! :up:
mfg.
Sonyfreak
looking glass
2009-03-24, 01:15:28
Schade, kein Wort über Idle Verbrauch und mögliche Reduktionstecniken, oder zukünftige Reduktionen in dem Bereich, immerhin dürften viele der Karten den Größtteil ihres lebens genau in jenem Zustand verbringen.
Aber interessant allemal, kann man bei den nächsten Revisionen vielleicht schon Kühlkörperumbauten, oder andere Lüfter sehen? Wird sicherlich interessant, gerade was Garantieleistungen anbelangt.
der inhalt des artikels ist gut, danke, aber ich muß meinem vorredner zustimmen. es wäre viel wichtiger sich mehr auf die idle leistung zu konzentrieren als auf die maximal leistung.
nicht unbedingt in diesem artikel, weil er ein anderes thema hat, aber grundsätzlich.
ich finde zb. die idle leistung wesentlich kaufentscheidender als die 10er stelle im preis, trotzdem fehlt sie fast immer in den tabellen und wir kaum besprochen (auch weil sie nicht so oft publik gemacht wird, schon garnicht von den herstellern..).
bei den cpus kam man (wohl nicht zuletzt wegen der entwicklung am laptop markt) ja wieder weg von ineffizienten (flops/(idle) watts) cpus. bei grafikkarten fehlt scheinbar die motivation. (aus dem grund habe ich zum arbeiten eine onboard gpu in verwendung...)
Leonidas
2009-03-24, 07:49:09
Der Artikel ging explizit um Verbrauchsleistungen, ich hab das Thema Idle nirgendwo auch nur angefasst. Insofern stimmt das schon, daß Idle hier nicht mit erwähnt wird.
Aber, wer noch mehr zusammengefasste Idle-Messungen sucht, hier:
http://www.3dcenter.org/blog/leonidas/leistungsaufnahme-aelterer-und-neuer-grafikkarten
Du hast aber recht, das ist ein wichtiger Punkt bei der Kaufentscheidung. Gerade ich hab kürzlich bewußt auf diesen Punkt hin gekauft.
bei den cpus kam man (wohl nicht zuletzt wegen der entwicklung am laptop markt) ja wieder weg von ineffizienten (flops/(idle) watts) cpus. bei grafikkarten fehlt scheinbar die motivation. (aus dem grund habe ich zum arbeiten eine onboard gpu in verwendung...)
Sehr wichtiger Punkt: Ich denke nicht, daß man bei Intel gesagt hat - komm, bauen wir bewußt stromsparende Sachen. Die haben nach neuen Wegen gesucht, dem Megahertz-Wahn zu entkommen und haben dafür die Mehrkern-Prozessoren entdeckt. Daß die nebenbei ganz stromsparend zu bekommen sind (weil sie fast nie vollständig ausgelastet werden), ist ein Nebeneffekt, den man jetzt per Marketing ausschlachtet. Aber wenn Mehrkern-Prozessoren nur mit einer höheren Leistungsaufnahme zu bekommen wären (nur mal angenommen), hätte man das trotzdem gemacht. Die wichtigste Grundregel lautet immer noch: Performance geht vor. Niemand baut Hardware so bewußt effizient, daß daran Leistung flöten geht.
Bei Grafikkarten ist nun der Punkt, daß jegliche bewußte Drosselung immer auch die Performance nach unten zieht. Insofern können die Gfx-Entwickler gar nicht anderes, als immer mehr Verlustleistung zu produzieren. Die Alternative wäre, bewußt nicht konkurrenzfähige Chips anzubieten.
Iceman346
2009-03-24, 08:22:29
Wohl zuviel an Grafikkartenhersteller gedacht:
Richtung einer höheren Asusnutzung der vorhandenen
;)
Die wichtigste Grundregel lautet immer noch: Performance geht vor. Niemand baut Hardware so bewußt effizient, daß daran Leistung flöten geht.
via c3, alle mobile chips (arm und co, atom), microcontroller, bluetooth/wlan/umts chips.... ein handy mit 2h laufzeit würde niemand kaufen... ;)
im performance/desktop markt hast du natürlich recht, daß dort niemand verbrauch höher als performance bewertet.
Bei Grafikkarten ist nun der Punkt, daß jegliche bewußte Drosselung immer auch die Performance nach unten zieht. Insofern können die Gfx-Entwickler gar nicht anderes, als immer mehr Verlustleistung zu produzieren. Die Alternative wäre, bewußt nicht konkurrenzfähige Chips anzubieten.
man kann die idle leistung aber sehr wohl drücken ohne an peak performance zu verlieren (clock gating usw).
ati hd4670 ist zum beispiel ein gutes beispiel wie man's richtig macht (jaja nicht high end, aber low end auch nicht...)
maddawn
2009-03-24, 10:44:24
Radeon HD 4870 X2 2x1024MB 78,9W 263,9W 207,1W 373,1W 286W
Der Verbrauch bei Crysis ist wahrscheinlich 307,1W (Schreibfehler?), denn er ist ja sonst immer höher als im 3DMark.
Wäre schön wenn die kommenden Grafikkarten ähnlich sparsam im Leerlauf sind wie die AMD 4670. Die Hybridmodi (Hybridpower usw.) wo Onboardgrafik im 2D-Modus übernimmt scheinen ja gestorben zu sein.
sei laut
2009-03-24, 11:11:56
Ne, die PCGH schreibt auch 207, Crysis hat vielleicht Probleme mit Crossfire.
"Im Schnitt liegen die Werte zwischen 3DMark06 und Crysis Warhead nur 8 Prozent auseinander, eingerechnet die diesbezüglich deutlich nach unten hin abweichende Radeon HD 4870 X2 sind es gar nur 4 Prozent Differenz."
Doch der Satz macht mit den 4% keinen Sinn.
blackbox
2009-03-24, 11:26:51
Die wichtigste Grundregel lautet immer noch: Performance geht vor. Niemand baut Hardware so bewußt effizient, daß daran Leistung flöten geht.
In welchem Bereich?
Denn Leistung gibt es inzwischen doch satt. Für das bisschen Office und Internet haben wir schon seit Jahren einen Überfluss.
Und diejenigen, die sich eine CPU wegen der Leistung kaufen, sind meiner Meinung nach deutlich in der Unterzahl.
Quaker
2009-03-24, 11:35:53
Danke für den guten Artikel, sowas liest sich immer gerne. :)
Ich denke da bleibe ich noch eine Zeitlang bei meiner 3870er, die in diesem Bereich sehr gut da steht.
Sehr wichtiger Punkt: Ich denke nicht, daß man bei Intel gesagt hat - komm, bauen wir bewußt stromsparende Sachen. Die haben nach neuen Wegen gesucht, dem Megahertz-Wahn zu entkommen und haben dafür die Mehrkern-Prozessoren entdeckt.
Zuerst haben sie noch entdeckt wie man verpfuschte Architekturen besser auslasten kann und damit HT eingeführt. ;)
Pinoccio
2009-03-24, 11:36:24
Und diejenigen, die sich eine CPU wegen der Leistung kaufen, sind meiner Meinung nach deutlich in der Unterzahl.Vermutlich immernoch mehr, als die, die sie nach der Verlustleistung aussuchen.
mfg
PCGH_Carsten
2009-03-24, 11:42:50
Ne, die PCGH schreibt auch 207, Crysis hat vielleicht Probleme mit Crossfire.
Das haben wir geschrieben - neuere Messungen unter Vista x64 und DX10, die daher nicht vergleichbar sind, ergeben aber folgendes Bild für Crysis Warhead:
GTX 295: 221 Watt
4870 X2: 249 Watt
Und Crysis Warhead ist mit Sicherheit nicht das fordernste Spiel im Hinblick auf elektrische Leistung - eher guter Durchschnitt. Lediglich die Watt pro Fps sind ziemlich hoch.
Mehr dazu gibt's demnächst im Heft (05/2009, ab 1.4. am Kiosk) [/schleichwerbung]
Nickel020
2009-03-24, 11:46:26
Ganz schöner Artikel, allerdings teile ich deine Ansichten nicht so ganz.
Zuerst einmal sollte man sich mal angucken was TDP überhaupt ist, sie ist nämlich nicht unbedingt die maximale Verlustleistung unter höchtmöglicher Beanspruchung, sondern eher unter typischer Beanspruchung. Deswegen auch Thermal Design Power, da steckt das Wort maximal nicht drin.
Hier noch ein bisschen mehr dazu:
http://www.silentpcreview.com/article169-page3.html
Grafikkarten sind außerdem zum Spielen gedacht und nicht zum Furmark laufen lassen, also ist Furmark keine Anwendung für die die Grafikkarten designed sind. Deshalb kann man meiner Meinung nach den Herstellern das auch nicht wirklich etwas vorwerfen, schließlich wirft man Intel auch nicht vor, dass CPUs beim Übertakten (wofür sie auch nicht designed sind) ihre TDP überschreiten.
Außerdem ist das ganze wieder eine Kostenfrage, wenn einer der beiden Hersteller seine TDP hochsetzt und die Grafikkarten entsprechend teurer macht, dann hat da auch niemand wirklich was davon. Dieselben Leute, die sich jetzt darüber beschweren, dass die TDP überrschritten wird werden dann sagen, dass diese Karten im Vergleich zur Konkurrenz zu teuer sind, dass sie ihre TDP einhalten, das wird bei der Preis-/Leistungs Betrachtung wohl niemanden interessieren.
Außerdem sehe ich darin, dass die TDP überschritten wird überhaupt gar kein wirkliches Problem. Es ist ja nicht so, dass sämtliche Karten reihenweise sterben würden, wenn man Furmark anwirft, und falls sie doch überdurchnittlich oft drauf gehen (--> "alte" 4870 mit Vitec), dann tauschen die Hersteller sie ja auch aus. Wer bei einer ATI Karte die Furmark .exe umbenennt sollte sich nicht beschweren, wenn er dann ein paar Wochen auf eine RMA warten muss...
Fazit:
Klar wäre es schön, wenn die Karten ihre TDP einhalten würden, aber mal ganz ehrlich, wer ist denn bereit 10+% höhere Preise dafür zu zahlen? Das sind wohl weniger als 1% der Käufer, weswegen die aktuelle Situation wohl nicht so schlecht ist, wie sie oft dargestellt wird.
Pinoccio
2009-03-24, 11:52:19
Was mir grade noch einfällt: Leo hat ja GPGPU als realistisches und forderndes Vollast-Szenario angesprochen. Könnte jemand mit potenter Hardware und einem Strommmessgerät mal schauen, wie sich da der BarsWF-Benchmark (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=449128) schlägt? Der lastet nicht gezielt die Hardware aus, ist aber ziemlich optimiert. "Right now BarsWF CPU spends just ~58 clocks in average for checking 1 MD5 key provided that there are 64 steps in the algorithm containing 7 opeartions each." (sagt der Programmierer (http://3.14.by/en/read/md5_benchmark)) Damit dürfte er den Weg zukünftiger GPGPU-Software aufzeigen.
mfg
/edit: Danke, Carsten.
PCGH_Carsten
2009-03-24, 12:05:35
Also zumindest bei der Temperatur haut BarsWF nicht so rein. Außerdem macht er unter Vista x64 öfter mal kurze Pausen im Sekunden-Bruchteilbereich, erzeugt also nicht dauerhaft eine hohe Last.
Cyphermaster
2009-03-24, 14:28:36
Grafikkarten sind außerdem zum Spielen gedacht und nicht zum Furmark laufen lassen, also ist Furmark keine Anwendung für die die Grafikkarten designed sind. Deshalb kann man meiner Meinung nach den Herstellern das auch nicht wirklich etwas vorwerfen, schließlich wirft man Intel auch nicht vor, dass CPUs beim Übertakten (wofür sie auch nicht designed sind) ihre TDP überschreiten.Grafikkarten sind dazu gedacht, Spiele oder Anwendungen laufen zu lassen. Wenn nun ein Spiel so programmiert ist, daß man die vorhandene Rechenleistung (OHNE Übertaktung!) auch abrufen kann, dann wird es -ganz ähnlich FurMark- Grafikkarten an oder eben sogar über die TDP-Grenzen treiben. Man sieht es ja schon an Crysis WH. Oder willst du Spieledesigner irgendwann verklagen, weil sie Spiele nicht so designen, daß die Grafikkarten nicht davon kaputtgehen können? :|
Klar, TDP heißt nicht Maximallast; aber die Grenzen sicheren Betriebs für den Kunden.
Sorry, aber wenn bei einem Auto eine Höchstgeschwindigkeit angegeben wird, sollte die auch erreicht werden können, ohne daß der Motor platzt, sonst brauche ich die gar nicht angeben. Genau das Gleiche erwarte ich von meiner Grafikkarte auch. FurMark und Crysis WH zeigen, daß bei aktueller Software nicht sonderlich viel Spielraum zur thermisch-elektrischen Todeszone ist.
Klar wäre es schön, wenn die Karten ihre TDP einhalten würden, aber mal ganz ehrlich, wer ist denn bereit 10+% höhere Preise dafür zu zahlen? Das sind wohl weniger als 1% der Käufer, weswegen die aktuelle Situation wohl nicht so schlecht ist, wie sie oft dargestellt wird.Deswegen ist das noch lang keine wirklich gute Situation! Und ganz direkt: JEDER der Enthusiasten, der einige Hunderter für eine Hochleistungsgrafikkarte ausgibt, würde 5€ mehr für einen stärkeren Kühler oder Spannungsversorgungen mit mehr Reserven ausgeben, wenn das nötig ist. Und diese 5€ sind -je nach Modell- eher 1% denn 10%...
Sogar wenn: Ich wüßte nicht, daß z.B. HIS, die ja explizit auf leise/leistungsstarke Kühllösungen ab Werk und mit Aufpreis setzen, pleite sind.
Leonidas
2009-03-24, 14:55:32
via c3, alle mobile chips (arm und co, atom), microcontroller, bluetooth/wlan/umts chips.... ein handy mit 2h laufzeit würde niemand kaufen... ;)
im performance/desktop markt hast du natürlich recht, daß dort niemand verbrauch höher als performance bewertet.[/
Ich meinte rein CPUs.
man kann die idle leistung aber sehr wohl drücken ohne an peak performance zu verlieren (clock gating usw).
ati hd4670 ist zum beispiel ein gutes beispiel wie man's richtig macht (jaja nicht high end, aber low end auch nicht...)
Was hab ich zuletzt gekauft für meinen Arbeits-PC? HD4670.
Ne, die PCGH schreibt auch 207, Crysis hat vielleicht Probleme mit Crossfire.
"Im Schnitt liegen die Werte zwischen 3DMark06 und Crysis Warhead nur 8 Prozent auseinander, eingerechnet die diesbezüglich deutlich nach unten hin abweichende Radeon HD 4870 X2 sind es gar nur 4 Prozent Differenz."
Doch der Satz macht mit den 4% keinen Sinn.
Wieso? Ohne 4870X2 sind es 8% Differenz, mit 4870X2 sind es nur noch 4% Differenz.
In welchem Bereich?
Denn Leistung gibt es inzwischen doch satt. Für das bisschen Office und Internet haben wir schon seit Jahren einen Überfluss.
Und diejenigen, die sich eine CPU wegen der Leistung kaufen, sind meiner Meinung nach deutlich in der Unterzahl.
Rein praktisch schreien aber 95% der Käufer trotzdem nach Leistung - und daß sie dann zu 90% überdimensioniert kaufen, bekommen sie nicht mit und wird denen die Industrie und der Handel sicherlich nicht sagen.
Auch ist es aus Marketingsicht schwer, bei bewußter Leistungsbeschränkung mitzuhalten. Wenn AMD heute den Phenom II auch auf 4 GHz anbieten würde (zu 999$), würden die sofort viel stärker in aller Munde sein und insgesamt ihre Marktanteile deutlich steigern können, ganz egal ob überhalb 3 GHz nur 1% der verkauften CPUs liegen.
Das haben wir geschrieben - neuere Messungen unter Vista x64 und DX10, die daher nicht vergleichbar sind, ergeben aber folgendes Bild für Crysis Warhead:
GTX 295: 221 Watt
4870 X2: 249 Watt
Und Crysis Warhead ist mit Sicherheit nicht das fordernste Spiel im Hinblick auf elektrische Leistung - eher guter Durchschnitt. Lediglich die Watt pro Fps sind ziemlich hoch.
Mehr dazu gibt's demnächst im Heft (05/2009, ab 1.4. am Kiosk) [/schleichwerbung]
Sehr gut. Auf diesem noch eher unerforschten Thema nehmen wir gern weitere Informationen entgegen, die das Bild klarer werden lassen.
Ganz schöner Artikel, allerdings teile ich deine Ansichten nicht so ganz.
Zuerst einmal sollte man sich mal angucken was TDP überhaupt ist, sie ist nämlich nicht unbedingt die maximale Verlustleistung unter höchtmöglicher Beanspruchung, sondern eher unter typischer Beanspruchung. Deswegen auch Thermal Design Power, da steckt das Wort maximal nicht drin.
Hier noch ein bisschen mehr dazu:
http://www.silentpcreview.com/article169-page3.html
Grafikkarten sind außerdem zum Spielen gedacht und nicht zum Furmark laufen lassen, also ist Furmark keine Anwendung für die die Grafikkarten designed sind. Deshalb kann man meiner Meinung nach den Herstellern das auch nicht wirklich etwas vorwerfen, schließlich wirft man Intel auch nicht vor, dass CPUs beim Übertakten (wofür sie auch nicht designed sind) ihre TDP überschreiten.
Außerdem ist das ganze wieder eine Kostenfrage, wenn einer der beiden Hersteller seine TDP hochsetzt und die Grafikkarten entsprechend teurer macht, dann hat da auch niemand wirklich was davon. Dieselben Leute, die sich jetzt darüber beschweren, dass die TDP überrschritten wird werden dann sagen, dass diese Karten im Vergleich zur Konkurrenz zu teuer sind, dass sie ihre TDP einhalten, das wird bei der Preis-/Leistungs Betrachtung wohl niemanden interessieren.
Außerdem sehe ich darin, dass die TDP überschritten wird überhaupt gar kein wirkliches Problem. Es ist ja nicht so, dass sämtliche Karten reihenweise sterben würden, wenn man Furmark anwirft, und falls sie doch überdurchnittlich oft drauf gehen (--> "alte" 4870 mit Vitec), dann tauschen die Hersteller sie ja auch aus. Wer bei einer ATI Karte die Furmark .exe umbenennt sollte sich nicht beschweren, wenn er dann ein paar Wochen auf eine RMA warten muss...
Fazit:
Klar wäre es schön, wenn die Karten ihre TDP einhalten würden, aber mal ganz ehrlich, wer ist denn bereit 10+% höhere Preise dafür zu zahlen? Das sind wohl weniger als 1% der Käufer, weswegen die aktuelle Situation wohl nicht so schlecht ist, wie sie oft dargestellt wird.
Ja, korrekt, TDPs sind nicht das extreme Maximum, was bei rein theoretisch extremer Vollbelastung im Labor herauskommt. Die TDP ist ein Maximum dessen, was in der Praxis vorkommen darf. Und da liegt schon der springende Punkt: FurMark ist nicht wirklich praxisfern - jede GPGPU-Anwendung dürfte auf ähnliche Werte kommen.
JEDER der Enthusiasten, der einige Hunderter für eine Hochleistungsgrafikkarte ausgibt, würde 5€ mehr für einen stärkeren Kühler oder Spannungsversorgungen mit mehr Reserven ausgeben, wenn das nötig ist. Und diese 5€ sind -je nach Modell- eher 1% denn 10%...
Sogar wenn: Ich wüßte nicht, daß z.B. HIS, die ja explizit auf leise/leistungsstarke Kühllösungen ab Werk und mit Aufpreis setzen, pleite sind.
Das sollte man wohl betonen. Wir reden hier nämlich zumeist über Bauteile im Wert von *insgesamt* 15 Dollar, welche bei einem Aufschlag von nur 2-3 Dollar schon längst wieder im sicheren Bereich wären. Wernn dies bei HighEnd-Grafikkarten mit Verkaufspreisen von mehreren hundert Euro nicht möglich ist, müssen sich die Hersteller nicht über die hohen Rücklaufquoten bei solchen Karten wundern:
http://www.3dcenter.org/news/2009-03-23
Cyphermaster
2009-03-24, 15:29:08
Das, was manchmal ab Werk geboten wird, empfinde ich persönlich sowieso als Sauerei. Elektrisch merkt man das zwar erst später, aber bei dem, was manche Hersteller sich trauen, als Kühler zu verbauen, wird mir manchmal schon beim Hinsehen schlecht. Da hängt dann ein schon verloren wirkendes 6€-Kühlerchen auf einer 200€-Karte, aber aufgehübscht mit nochmal 3€ an LEDs, bunten Aufklebern und Corporate-Design-Deko-Plastik. :hammer: Hätte man es bei simpler, aber um 2,5€ teurerer und besserer Technik belassen und nur einen 50 Cent-Aufkleber draufgemacht, hätte man dem Kunden einen wesentlich größeren Dienst erwiesen.
Nicht umsonst verkaufen sich 3rd-party-Kühllösungen grade in diesem Kundensegment ausgezeichnet...
downforze
2009-03-24, 18:16:37
ich bin nicht mehr gewillt meine lebensunterhaltungskosten in die höhe zu schrauben, daher werkelt die 8800gt hier so lange, bis eine leistungssteigerung (+40%) mit maximal 110W verfügbar ist. in welche irrwitzigen bereichen sich die netzteile mitlerweile bewegen, da sich alle welt über ressourcenverschwendung beschwert. es muss technisch jawohl möglich sein, eine moderne einzelkarte im standby-modus zu halten, wenn die CPU das 2d-bild übernimmt. warum meine karte permanent mit vollem takt befeuert wird, dürfte sich wohl an mangelnder nachfrage nach stromsparenden karten erklären lassen. einzig die 4670 sticht hier heraus.
daß nicht einmal die horrenden TDPs eingehalten werden, trägt ihr weiteres dazu bei.
Nickel020
2009-03-24, 18:54:51
@Cybermaster
Ließ doch noch mal den ersten Teil meines Posts. TDP ist nicht die maximal mögliche Leistungsaufnahme, das hat nie einer von den Prozessorherstellern behauptet und wohl auch nie einer von den Grafikkartenherstellern.
Das Beispiel mit dem Auto ist leider nicht besonders gut, da die Grafikkarten bei Spielen ja das halten, was sie versprechen. Um das Auto gleichnis mal etwas zu verbessern: Die Maximalgeschwindigkeit würde auf normalen Straßen (Spiele) erreicht werden, nur auf der Rennstrecke (Furmark) drosselt das Auto (ATI). Und Autohersteller garantieren ja auch nicht die Einsatzfähigkeit ihres Autos bei jeglichen Extremsituationen, warum sollten Grafikkartenhersteller das müssen?
Von Motor platzen kann hier überhaupt gar keine Rede sein, schließlich gehen ja die wenigsten Grafikkarten kaputt, höchstens werden sie instabil.
Deswegen ist das noch lang keine wirklich gute Situation! Und ganz direkt: JEDER der Enthusiasten, der einige Hunderter für eine Hochleistungsgrafikkarte ausgibt, würde 5€ mehr für einen stärkeren Kühler oder Spannungsversorgungen mit mehr Reserven ausgeben, wenn das nötig ist. Und diese 5€ sind -je nach Modell- eher 1% denn 10%...
Habe ich ja auch nie behauptet, nur welche Situation ist überhaupt wirklich "gut"? Teuerere Grafikkarten, damit Enthusiasten wie wir mehr rumspielen können ohne was kaputtzumachen? Da haben viele Leute (die man hier natürlich nicht antrifft) wohl eine andere Meinung.
Deine 5€ sind vielleicht die Produktionskosten, aber da kommt leider noch einiges mehr dazu wie Steuern, Logistikkosten, Lagerkosten, Versicherung(etc.; Kapitalbindung und so darf man nicht vergessen, je teurer das Produkt desto höher muss die Marge sein) und Margen für Händler.
Aus den 5€ bei der Herstellung selbst werden schnell 15-25€ bis das Produkt beim Kunden ankommt.
Außerdem: Hat denn irgendwer bewiesen, dass High-End (Dual-)Grafikkarten nicht für höhere Leistungsaufnahmen als ihre TDP ausgelegt sind? Soweit ich weiß hat das noch keiner gemacht...
Dass Grafikkarten ihre TDP überschreiten ist an sich überhaupt kein Problem. Ein Problem gibt es erst wenn die Karten öfter als sonst kaputt gehen bzw. in realen Anwendungen (z.B. GPGPU) instabil werden.
Dass GPGPU Furmark-ähnliche Leistungsaufnahmen produzieren könnte, wird auch immer nur im Konjunktiv gesagt, wenn das als Grund genannt wird sollte man auch versuchen es zu beweisen.
Und was wäre so schlimm daran, wenn Grafikkarten in GPGPU Anwendungen nicht im vollen 3D Takt laufen? Autos riegeln auch ab, bevor ihr Motor gefährliche Drehzahlen erreicht, warum sollten Grafikkarten das nicht tun?
Soweit ich weiss gibt es kein Spiel, bei dem Grafikkarten dauerhaft ihre TDP überrschreiten (kurze Leistungsspitzen sollten ja kein Problem sein, bei Netzteilen sind sie es schliesslich ja auch nicht). Dass das bei alten Grafikkarten in neueren Spielen (wie im Artikel behauptet) der Fall ist wäre mir auch nicht bekannt, aber lasse mich gerne eines Besseren belehren.
FurMark ist nicht wirklich praxisfern - jede GPGPU-Anwendung dürfte auf ähnliche Werte kommen.
Habe noch nie irgendwas mit GPGPU gemacht (wie die meisten) und kann es daher nicht beurteilen. Wenn jemand Links aht die zeigen, dass GPGPU von der Leistungsaufnahme an Furmark rankommt wäre ich sehr dankbar, ansonsten bin ich da weiter skeptisch.
Außerdem sehe ich wie schon gesagt kein Problem darin, wenn der GPGPU Takt neidriger als der 3D Takt wäre. Wenn es in Spielen keine Probleme gibt die TDP "einzuhalten" (Gegenteiliges hat wohl noch niemand bewiesen) warum sollte man da nicht eine höhere Taktrate als in GPGPU zulassen?
Was ich im Endeffekt sagen will, dass das ganze nicht so Schwarz und Weiss ist wie es in aktuellen Artikeln rüberkommt, man sollte sich das ganze schon ein bisschen differenzierter angucken und ganz klar sagen, dass dies für die allermeisten Leute (95%, wenn nicht deutlich mehr) gar kein Problem darstellt.
WinterBorn
2009-03-24, 21:18:06
Hallo,
mir enthält der Artikel auch zu viele Mutmaßungen. Es ist überhaupt nicht belegt, das GPGPU-Anwendungen alle "Einheiten" einer GPU vollständig auslasten können. Diese FurMark-Messungen sind genau so wenig sinnvoll, wie die Messungen zu PC-Netzteilen, die jetzt jedes Hardware-webseitchen oder Blättchen macht ("Wir belasten alle Ausgangsspannung jetzt maximal mit einem simplen' Wirkwiderstand, und wenn das ein paar Stunden gut geht, ist auch das Netzteil "empfehlenswert". Wie das Netzteil bei schnell wechselnden nicht wirklich ohmschen Lasten reagiert - oder bei Spannungsschwankungen im Stromnetz - ist uns mal egal; von EMV ganz zu schweigen).
Es ist in technischen Consumer-Geräten üblich, gewisse Schaltungsteile für praxisrelevante Lasten bei üblichen Umgebungsbedingungen auszulegen. Natürlich muss man sich darüber Gedanken machen, was passiert, wenn es mal längere Zeit zu Überlasten kommt - Intel kann das sehr gut ;)
Es ist doch toll, das ATI für einzelne Aufgaben mehr Leistungsreserven hat, obwohl bei beabsichtigter Vollauslastung ggf. die TDP überschritten wird. Das verleiht den Produkten eine gewisse Flexibilität. Welche TDP gibt ATI überhaupt an? "Silicon Power", GPU mit Wandler?
Bei den Überlegungen, welche "Einheiten" einer GPU besonders den Stromverbrauch beeinflussen ("viele Leistungsfähige Shader"), darf man nicht den Fehler machen, zu sehr Blockschaltbildmäßig zu denken - wie bei allen ASIC, müssen einzelne Elemente aus solchen Marketingschaubildern nicht einzeln oder "gleichzeitig" vorhanden sein oder sich tatsächlich gleichzeitig vollständig auslasten lassen. Für manche ASIC gibt es Blockschaltbilder, für unterschiedliche Betrachtungszwecke (Blöcke nach Funktionen, Hardwareadressen, Clock Domains usw.) Den Leistungsbedarf einzelner Blöcke und die Auswirkung auf andere Blöcke einzuschätzen ist kaum und nur sehr ungenau möglich. Wer sagt uns z.B., dass nicht einzelne Shader (in welcher Form auch immer die realisiert werden) ganz ineffizient für irgendwelche alten DX-Funktionen genutzt werden und dabei auch stark ausgelastet werden.
TDP ist nicht die maximal mögliche Leistungsaufnahme, das hat nie einer von den Prozessorherstellern behauptet und wohl auch nie einer von den Grafikkartenherstellern.
Und was würdest du zu Angaben sagen, die als "Maximum Power Draw" oder "Maximum Board Power" bezeichnet werden?
Carsten
Cyphermaster
2009-03-24, 21:54:53
@Cybermaster
Ließ doch noch mal den ersten Teil meines Posts. TDP ist nicht die maximal mögliche Leistungsaufnahme, das hat nie einer von den Prozessorherstellern behauptet und wohl auch nie einer von den Grafikkartenherstellern.Habe ich auch nicht behauptet. Aber da du ja noch nicht mal meinen Namen richtig gelesen hast...
Das Beispiel mit dem Auto ist leider nicht besonders gut, da die Grafikkarten bei Spielen ja das halten, was sie versprechen.Noch. Bei Crysis WH ist man (wie man an den Daten sieht) bereits am Limit dessen, wofür Elektrik und Kühlung ausgelegt sind. Keiner garantiert, daß das nächste Spiel das nicht überschreitet, Beleg für die Möglichkeit ist FurMark.Um das Auto gleichnis mal etwas zu verbessern: Die Maximalgeschwindigkeit würde auf normalen Straßen (Spiele) erreicht werden, nur auf der Rennstrecke (Furmark) drosselt das Auto (ATI).Nur, wenn das Auto die Rennstrecke erkennt. Und auch nur auf Rennstrecken wird gedrosselt, Überlastung wird nicht erkannt. Sozusagen wäre dann ein neues Spiel oder eine GPGPU-Anwendung, die durch die Programmierung FurMark-ähnliche Auslastungen der Grafikkarte produziert, eine Rennstrecken-ähnliche Autobahn, auf der mein Auto die Grätsche machen kann.
Und Autohersteller garantieren ja auch nicht die Einsatzfähigkeit ihres Autos bei jeglichen Extremsituationen, warum sollten Grafikkartenhersteller das müssen?1. 3D-Anwendungen sind keine "Extremsituation", sondern der übliche Einsatzbereich für eine Grafikkarte...
2. Wenn Grafikkarten nicht für bestimmte Anwendungen eingesetzt werden sollen/können, sollte das angegeben werden. Mainboardhersteller geben ihre Boards ja teilweise auch explizit nur bis CPUs mit 95W TDP frei - auch wenn nur wenige Käufer sich so stromhungrige Modelle gönnen...
Von Motor platzen kann hier überhaupt gar keine Rede sein, schließlich gehen ja die wenigsten Grafikkarten kaputt, höchstens werden sie instabil.Widerspruch in sich. Würden sie "höchstens" instabil, ginge keine kaputt. Und wenn ich eine Karte kaufe, und sie für das einsetze, wofür man sie mir verkauft hat (nochmal: aktuell gibt es keine Einschränkungen in der Richtung, man dürfte nur Spiele -oder gar nur bestimmte Spiele- drauf laufen lassen!), wäre ich auch mit einer instabilen Karte ziemlich angepißt. Da aber auch einige Karten das Zeitliche segnen... nun ja.
Eine Grafikkarte, die nur mit einem Bruchteil an 3D-Anwendungen (stabil) benutzt werden kann, ist wie ein Auto, das nicht auf Autobahnen fahren kann, weil es dort anfangen kann, instabil zu werden oder Schaden zu nehmen. Wenn sowas passieren kann, ist das eine Nutzungseinschränkung, auf die ich als Käufer hingewiesen werden will. Vorher.
Habe ich ja auch nie behauptet, nur welche Situation ist überhaupt wirklich "gut"? Teuerere Grafikkarten, damit Enthusiasten wie wir mehr rumspielen können ohne was kaputtzumachen? Da haben viele Leute (die man hier natürlich nicht antrifft) wohl eine andere Meinung.Das möchte ich mal in Frage stellen. Stabiler Betrieb ist für die weit überwiegende Mehrzahl der User wichtig, möchte ich mal behaupten.
Deine 5€ sind vielleicht die Produktionskosten, aber da kommt leider noch einiges mehr dazu wie Steuern, Logistikkosten, Lagerkosten, Versicherung(etc.; Kapitalbindung und so darf man nicht vergessen, je teurer das Produkt desto höher muss die Marge sein) und Margen für Händler.
Aus den 5€ bei der Herstellung selbst werden schnell 15-25€ bis das Produkt beim Kunden ankommt.Ich kenne die Wertschöpfungskette, aber auch Preise... Meinetwegen werden das sogar noch 10€ in der Kette, aber das sind immer noch keine Größenordnungen in Relation zu den Kartenpreisen, von denen wir reden. Immerhin kosten instabile/defekte Karten in der RMA auch Geld. Und das sind mehr, als nur ein paar Euro!
Außerdem: Hat denn irgendwer bewiesen, dass High-End (Dual-)Grafikkarten nicht für höhere Leistungsaufnahmen als ihre TDP ausgelegt sind? Soweit ich weiß hat das noch keiner gemacht...Um das wirklich zu beweisen, bräuchte man die Auslegungsdaten. An die wird aber kaum jemand rankommen. Was aber die Messungen zeigen, ist auch nicht, daß die Karten sowas nicht -je nach Modell- überleben könnten, es ist die Tatsache, daß man bis zur Grenze des gewährleistet sicheren Bereichs (und das ist nun mal die TDP) kommt, und mit FurMark oder FurMark-ähnlichen Anwendungen/Spielen auch darüber hinaus kommen kann/könnte.
Diese Gratwanderung, bei der das Risiko zu Lasten des Einzelkunden geht, ist hier unter Kritik.
Dass Grafikkarten ihre TDP überschreiten ist an sich überhaupt kein Problem. Ein Problem gibt es erst wenn die Karten öfter als sonst kaputt gehen bzw. in realen Anwendungen (z.B. GPGPU) instabil werden.
Dass GPGPU Furmark-ähnliche Leistungsaufnahmen produzieren könnte, wird auch immer nur im Konjunktiv gesagt, wenn das als Grund genannt wird sollte man auch versuchen es zu beweisen.Da es diese Messungen nicht gibt, kann man es direkt nicht beweisen. FurMark deckt aber die Möglichkeit auf - das reicht, um legitim ein Risiko zu zeigen. Ich kenne mindestens 4 Leute hier, die gern einen Nachfolgeartikel draus machen würden, würde man ihnen die Möglichkeiten zur Verfügung stellen...
Und was wäre so schlimm daran, wenn Grafikkarten in GPGPU Anwendungen nicht im vollen 3D Takt laufen? Autos riegeln auch ab, bevor ihr Motor gefährliche Drehzahlen erreicht, warum sollten Grafikkarten das nicht tun?Dagegen wäre nichts zu sagen, unter 2 Bedingungen:
1.: Diese Einschränkung wird dem Kunden auch gesagt.
2.: Die Grafikkarten müßten statt nur einer Abfrage nach der FurMark.exe im Treiber eine echte Lasterkennung haben.
Beides ist im Moment aber nicht vorhanden.
Soweit ich weiss gibt es kein Spiel, bei dem Grafikkarten dauerhaft ihre TDP überrschreiten (kurze Leistungsspitzen sollten ja kein Problem sein, bei Netzteilen sind sie es schliesslich ja auch nicht).Breitentests gibt es da wohl auch nicht. Aber eben weil man nur gesichert weiß, daß es möglich wäre, darf man imho diesen Punkt herausstellen. Wenn sich herausstellt, daß das aus irgendwelchen Gründen gar nicht sein kann, wird Leo sich sicher nicht wehren, diese Korrektur in seinen Artikel nachzureichen.
Wenn es in Spielen keine Probleme gibt die TDP "einzuhalten" (Gegenteiliges hat wohl noch niemand bewiesen) warum sollte man da nicht eine höhere Taktrate als in GPGPU zulassen?Weil man sonst diesen Unterschied angeben müßte, damit der Kunde auch weiß, was er bekommt. Kauft er sich ne Karte mit fiktiven 2000MHz, die aber in seiner GPGPU-Anwendung nur mit 1500MHz läuft, während eine andere Karte sowohl normal, als auch in GPGPU 2000MHz halten kann, dann wäre es wohl bewußte Täuschung, erstere Karte nur mit den 2000MHz und ohne den Hinweis auf die Drosselung zu verkaufen.
Was ich im Endeffekt sagen will, dass das ganze nicht so Schwarz und Weiss ist wie es in aktuellen Artikeln rüberkommt, man sollte sich das ganze schon ein bisschen differenzierter angucken und ganz klar sagen, dass dies für die allermeisten Leute (95%, wenn nicht deutlich mehr) gar kein Problem darstellt.Gut. Nur dann gibt es auch bei Autos kein Problem, wenn ein Modell zu 99% in die Luft fliegt - weil meist ein Modell weniger als 5% Marktanteil hat...
Der Artikel benennt die Karten, so daß jeder sehen kann, ob er nun zu den 95% ohne jegliches Problem, oder zu den 5% zählt, die möglicherweise von der Thematik betroffen sind.
Abschließend: Ich gebe dir Recht, daß es da meist kein klares Schwarz-Weiß gibt. Aber ich kann dir einfach nicht zustimmen, wenn du die Thesen als bewiesen in den Raum stellst, daß alle Karten in jedem Fall ausreichend dimensioniert sind für alle Anwendungen, daß man in Spielen nicht auch längerfristig über die TDP kommen könnte, und daß das -auch wenn- überhaupt kein Problem für die Leute darstellen würde.
WinterBorn
2009-03-24, 22:08:00
Weil man sonst diesen Unterschied angeben müßte, damit der Kunde auch weiß, was er bekommt. Kauft er sich ne Karte mit fiktiven 2000MHz, die aber in seiner GPGPU-Anwendung nur mit 1500MHz läuft, während eine andere Karte sowohl normal, als auch in GPGPU 2000MHz halten kann, dann wäre es wohl bewußte Täuschung, erstere Karte nur mit den 2000MHz und ohne den Hinweis auf die Drosselung zu verkaufen.
Das ist einer der Gründe, weshalb man den Endkunden solche technischen Daten nicht bereitstellen sollte. Die Taktfrequenz ist die schlimmste Angabe überhaupt. Das ist so, als würde man Motordrehzahlen vergleichen. Ne aktuellere Vespa mit L.E.A.D.E.R-Motor und >10000u/min würde bei so einer Betrachtungsweise gegenüber anderen, eigentlich leitungsfähigeren Motoren doch sehr gut darstehen :rolleyes:
Nachtrag: die Idee (1500MHz GPGPU, 2000MHz beim Spielen), finde ich an sich nicht schlecht. Ich würde das Ganze als 1500MHz GPU mit dynamischer Übertaktung bis 2000MHz bewerben. Auch hier könnte man Intels i7-CPU als ähnliches Beispiel anführen.
Cyphermaster
2009-03-25, 09:34:13
Das ist einer der Gründe, weshalb man den Endkunden solche technischen Daten nicht bereitstellen sollte. Die Taktfrequenz ist die schlimmste Angabe überhaupt.Das generelle Problem ist, daß man bei Hardware meist keine wirklich prägnanten, einfachen Kennzahlen für die Leistungsfähigkeit geben kann, nach denen er sich orientieren kann. Worauf ich dabei hinaus wollte, ist, daß unterschiedliche Produkteigenschaften durchaus für den Endkunden sichtbar sein sollten, und nicht einfach verschwiegen werden dürfen. Ob nun Drehzahl, PS, GFlops, MTexel oder irgendwas anderes als solche Kennzahlen rangieren, ist mir dabei einerlei, solange sie aussagekräftig sind.
RavenTS
2009-03-25, 13:09:30
Werden die TDP bei beiden Herstellern überhaupt gleich ermittelt, es gibt doch auch Unterschiede bei den Ermittlung der Werte von CPUs.?!
Oberst
2009-03-26, 16:54:09
Hallo,
hat überhaupt irgendwer das "Update - 10.02.09:" von HT4U gelesen?
Da wird ja zugegeben, dass sie bei den Temperaturen und damit beim angeblichen "Wandlerproblem" der ATI-Karten einen Fehler gemacht haben.
Die 125°C gelten nämlich für die Induktivitäten des VRMs (Hersteller: Vitec), die Temperatur wird aber bei den PWM-Chips von Volterra gemessen. Und die sind natürlich viel höher belastet (damit auch viel heißer) als die Induktivitäten. Wie heiß die PWM-Chips werden dürfen, ist aber nicht bekannt (Datenblatt nicht öffentlich), daher könnte es auch sein, dass die Chips selbst Temperaturen über 125°C auf Dauer aushalten (weil sie z.B. bis 165°C spezifiziert sind).
Ändert allerdings nichts daran, dass die TDP von beiden Herstellern überschritten wird. Vielleicht sollten sich beide Hersteller auf den Begriff ACP einigen, wie ihn AMD ja bei CPUs verwendet. Oder alternativ das Intel-Modell übernehmen: TDP gibt den üblichen Verbrauch über Standardanwendungen an und die "echte" TDP wird als "Max Power" angeben (vgl. Xeon). Somit wären beide Begriffe klar voneinander abgegrenzt und für die Kunden mehr Klarheit da.
Gruß Oberst.
Klasse Paukenschlag Leo :up:
Die wichtigste Grundregel lautet immer noch: Performance geht vor. Niemand baut Hardware so bewußt effizient, daß daran Leistung flöten geht.
Bei Grafikkarten ist nun der Punkt, daß jegliche bewußte Drosselung immer auch die Performance nach unten zieht. Insofern können die Gfx-Entwickler gar nicht anderes, als immer mehr Verlustleistung zu produzieren. Die Alternative wäre, bewußt nicht konkurrenzfähige Chips anzubieten.Langsam fangen die Leute aber sich dagegen zu wehren. Das mit der Drosselung funktionierte bei ATI schonmal sehr gut auch auf dem Desktop. Karten mit über 25W im idle sind ein Witz. Was die Vollast angeht wird von den nicht-3dcenter-geeks 100W als die Schmerzgrenze angesehen.
Eine andere Ursache ist der TFT der meistens nur eine einzige Auflösung wirklich gut darstellen kann. Das wird mit 22" oder 30" :| eng für sparsamer Karten bei den Zockern.
Das Problem ist garnicht daß die TDP oft viel zu niedrig angegeben werden sondern daß eine Grafikkarte einfach viel zu viel zu viel Verlustleistung produziert. Darauf haben langsam immer mehr Leute keinen Bock mehr. Sie sind von Core2 anderes gewohnt und haben gesehen daß es auch anders geht. Egal wie vergleichbar diese Situation mit den GPUs ist.
Wie eng es mittlerweile geworden ist kann man an den stock Luftkühlern sehen. Unter Vollast der GPU läßt sich nicht mehr eine zumutbare Lautstärke erreichen. Die meisten Zocker bauen ihre Karten nach paar Tagen um oder bestellen im Shop einen teuren Kühler gleich mit. Wenn etwas gängig wird, wird es dadurch nicht automatisch gleich normal. Es ist nämlich nicht mehr normal.
Auch Hybrid ist ein Eigentor, oder wäre es wenn es wirklich funktionieren würde, denn dabei wird den Leute erst richtig klar daß sie 200€ für eine Grafikkarte bezahlt haben die sie durchschnittlich 60% der Zeit am Rechner überhaput garnicht nutzen und die schon nach einem halben Jahr stark am Wiederverkaufswert verliert.
Das aktuelle Gebaren der beiden gefährdet den Wintel als Spieleplatform mehr als es manchem bewußt ist. Vor allem da jeder der nicht-3dcenter-geeks kaum mit den Inis spielt und man dadurch meistens eine Grafik bekommt die kaum von der X360/PS3 Version zu unterscheiden ist. Geschweige dessen daß ausgerechnet die Wii der Renner ist.
Der Weg der momentan beschritten wird ist falsch und kann sich noch böse rächen. Für alle dann.
Berserkus
2010-04-11, 23:45:50
Ich muss doch glatt mal das Thema neu aufrollen.
Währ es nicht langsam an der Reihe die Tabelle um die neuen CPUs von ATI und NVidia zu ergänzen?
Leonidas
2010-04-13, 14:15:32
Im aktuellen Marktüberblick (http://www.3dcenter.org/artikel/grafikkarten-marktueberblick-april-2010) stehen immer die jeweiligen Idle- und Spieleverbrauchswerte notiert. Vielleicht nicht ganz so übersichtlich, zugegeben.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.