Archiv verlassen und diese Seite im Standarddesign anzeigen : Furmarkbremse bei GTX580 ?
joe kongo
2011-04-20, 20:55:58
Please help, möchte die neue Graka mal testen,
aber die Frames beim Furmark (1.9.0) sind niedrig und die Temps kommen kaum über 70Grad hinaus. Weiters stockt der Desktop, solche Eigenheiten hatte ich mit der GTX285 nicht.
Welche Möglichkeiten gibt es die Drosselung zu umgehen ?
Nvidia Treiber ist aktuell, 270.61
p.s. Karte ist EVGA SC
EL_Mariachi
2011-04-20, 22:03:43
die exe umbenennen?
ich wüsste aber nicht von einer Bremse... *schulterzuck*
...
Zephyroth
2011-04-20, 22:04:00
Ja, die GTX5xx haben eine Leistungsbegrenzung, die man aber aushebeln kann. Wie sinnvoll das ist, lasse ich mal dahingestellt:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=495963
Grüße,
Zeph
Furmark heizt nur unnötig die Grakas auf. Ich würde Heaven Bench im Loop laufen lassen, ebenso wie Crysis Loop (Ca. 40 Runden). Furmark ist wirklich schlecht im Fehler erkennen.
Und das dein Desktop stockt wird nicht an der Sperre liegen. Da wird was anderes im Argen liegen (Festplatte, Netzteil etc.)
Don-Roland
2011-04-20, 22:47:53
Please help, möchte die neue Graka mal testen,
aber die Frames beim Furmark (1.9.0) sind niedrig und die Temps kommen kaum über 70Grad hinaus. Weiters stockt der Desktop, solche Eigenheiten hatte ich mit der GTX285 nicht.
Welche Möglichkeiten gibt es die Drosselung zu umgehen ?
Nvidia Treiber ist aktuell, 270.61
p.s. Karte ist EVGA SC
In den Optionen von Timebased auf Framebased umschalten...
joe kongo
2011-04-20, 23:48:19
In den Optionen von Timebased auf Framebased umschalten...
Solche Einstellungen finde ich nicht, exe umbenennen hilft auch nicht.
Angeblich kann man die Drosselung mit GPU-Z ausschalten, geht aber auch nicht.
Gorkon
2011-04-21, 07:55:24
Ich frage mich eher, warum du deine 400 Euro GPU so gerne über den Jordan schicken möchtest :confused: Furmark ist nix weiter als endloses Geballer auf die VRMs. Nimm lieber, wie schon vorgeschlagen, Heaven, Crysis, Stalker, Metro 2033, Just Cause 2 oder ähnliche Spiele / Synthies die eine ähnlich hohe GPU-Last erzeugen.
mfg
Please help, möchte die neue Graka mal testen,
aber die Frames beim Furmark (1.9.0) sind niedrig und die Temps kommen kaum über 70Grad hinaus.
Warum muss deine Grafikkarte heiß werden? Würde ich lieber das Problem erstmal mit einer Windows Neuinstallation angehen, sonst plagst du dich noch ewig rum und am Ende lag es mal wieder an Windows.
Meine 560 Wird beim zocken (auch crysis) gerade mal 50° warm und läuft sauber.
joe kongo
2011-04-21, 13:21:37
Na es geht darum die Karte erstmal nach dem Kauf zu testen, zB auf mangelnde Kühlermontage oder schwächelnde Bauteile, Belastungstest eben.
Megamember
2011-04-21, 13:23:29
Na es geht darum die Karte erstmal nach dem Kauf zu testen, zB auf mangelnde Kühlermontage oder schwächelnde Bauteile, Belastungstest eben.
Und das kann man mit fordernden Games wie Crysis oder Heaven-Benches nicht oder wie?
joe kongo
2011-04-21, 13:51:06
Und das kann man mit fordernden Games wie Crysis oder Heaven-Benches nicht oder wie?
Sicherheitsbeauftragter bei TEPCO ?
Ernst beiseite, ein aussagekräftigen Test (im eigenen Interesse, nicht das vom Hersteller) erhaltet man unter Extrembedingungen und nicht während Normalbetrieb.
qiller
2011-04-23, 12:13:56
Ich hab die normale EVGA GTX-580 und die wird beim Heaven-Bench 82°C heiß (23°C Zimmer-Temp). Die SC sollte dann noch etwas heißer werden (hab jetzt zumindest keine großartige Änderung der Kühlkonstruktion gesehen).
Ich geb dir nen Rat: Erfreu dich bei den Spielen an den höchsten Settings, Texture-Mods, SGSAA, 16xAA und keinerlei Microruckler, registrier dich und deine Karte bei EVGA und bekomme 10 Jahre Garantie und hab Spaß. Falls die Karte doch irgendwann Probleme macht, kannst du immer noch versuchen, sie als Garantiefall umtauschen/austauschen zu lassen.
mfg Olli
Sicherheitsbeauftragter bei TEPCO ?
Es sieht eher so aus als wärst du Schichtleiter in Tschernobyl.
Mal im Ernst, Sicherheitsfunktionen werden eingebaut um zu schützen, was hat es für einen Zweck diese mutwillig zu deaktivieren?
Du fährst ja auch nicht mit einem neuen Auto mutwillig ohne den Gurt anzulegen in eine Betonwand nur um zu testen ob der Airbag wohl richtig funktioniert.
joe kongo
2011-04-23, 14:42:07
Es sieht eher so aus als wärst du Schichtleiter in Tschernobyl.
Mal im Ernst, Sicherheitsfunktionen werden eingebaut um zu schützen, was hat es für einen Zweck diese mutwillig zu deaktivieren?
Du fährst ja auch nicht mit einem neuen Auto mutwillig ohne den Gurt anzulegen in eine Betonwand nur um zu testen ob der Airbag wohl richtig funktioniert.
In einem Jahr kommt Spiel XY raus das die Karte etwa so fordert wie Furmark, also baut Nvidia dort auch eine Sperre ein und du hast nur mehr 20FPS statt 40FPS.
Im Endeffekt hast du eine HighendGraka die langsamer ist als ihr Vorgängermodell.
Bei Intel haben die sündteuren ExtremeModelle einen freien Multi, quasi mach damit was du willst auf deine eigene Verantwortung.
Nvidia haut dir eine Bremse rein bei den Highendprodukten.
Wenn teure Autos ein Geschwindigkeitslimit haben wird nicht die PS Zahl
von Anfang an halbiert, sondern erst die Motorleistung gedrosselt wenn diese Endgeschwindigkeit erreicht ist.
Würde bei einer Graka bedeuten das erst ab einer bestimmten Temperatur die Leistung weggenommen wird, und nicht von Anfang an nur 50% auch wenn die Karte stickstoffgekühlt ist.
So etwa ist meine Sichtweise.
Wishnu
2011-04-23, 14:51:42
Sicherheitsbeauftragter bei TEPCO ?
Ernst beiseite, ein aussagekräftigen Test (im eigenen Interesse, nicht das vom Hersteller) erhaltet man unter Extrembedingungen und nicht während Normalbetrieb.
Nö, denn eine Karte, die im Furmark nach 5 Minunten wegen Überhitzung aufgibt, kann im Praxisalltag (Crysis etc) dennoch brav ihren (stabilen) Dienst verrichten. Ist nämlich bei meiner aktuellen Karte seit gut 2 Jahren so. ;)
In einem Jahr kommt Spiel XY raus das die Karte etwa so fordert wie Furmark,
Ich bin kein 3D-Experte, aber mir dünkt einmal gehört zu haben, dass das in der Spiele-Praxis nicht passieren wird, da hier diverse Latenzen dafür sorgen, dass einzelne Einheiten nie so stark ausgelastet werden, wie beim Furmark. Wenn ich falsch liege, korrigiert mich bitte. :)
Megamember
2011-04-23, 14:58:00
Wo die Karte drosselt erreicht man in normalen Games selbst mit heftiger Übertaktung nicht. Und das Games so fordernd wie Furmark werden ist auch nicht abzusehen.
Dicker Igel
2011-04-23, 19:26:28
Laßt ihn doch seine GPU verbrennen und regt euch nicht auf :)
was ein spack,
kein wunder das viele firmen sich mit reklamationen lange zeit lassen und die hardware gründlichst untersuchen.
unglaublich was für idioten man findet welche mit ach und krach ihre hardware overvolten, clocken und dann auch noch furmark laufen lassen.
viel spass mit der abgerauchten karte und der rma.
tombman
2011-04-24, 02:39:22
Ein Karte hat das auszuführen was man ihr vorsetzt. Software darf hardware niemals zerstören dürfen. Das ist auch meine Meinung. Auch meine 480er wurden mit furmark gequält und hielten durch. Temperaturkontrolle ist natürlich Pflicht.
Entwickler behindern furmark und co ja nicht aus ideologischen Gründen, sondern aus wirtschaftlichen. Die wollen mehr Leistung, haben die Technik dafür aber nicht.
Wenn eine 580er furmark nicht packt, dann hätte sie eben nicht gebaut werden dürfen :devil:
Natürlich darf das nicht gelten (:D), man will ja verkaufen, also ändert man die Regeln und erklärt solche Testprogramme offiziell zur Achse des Bösen ;)
Die 590er ist ja noch stärker "auf Kante gebaut"- sowas will ich in Zukunft nicht haben- und viele andere sicher auch nicht.
Ok, ist vielleicht eh schon obsolet, da PC-gaming, wie ich es verstehe, eh am Sterben ist...
(Portal 2: PRESS ENTER- LOADING....LOADING...)
=Floi=
2011-04-24, 02:40:56
die 580er ist aber sicherlich NICHT auf kante gebaut... :rolleyes:
tombman
2011-04-24, 02:45:17
die 580er ist aber sicherlich NICHT auf kante gebaut... :rolleyes:
Wenn sie furmark ungebremst nicht packt- schon :devil:
;D
=Floi=
2011-04-24, 02:53:17
ist doch nicht so. sie hat 6 phasen wie die 480er und furmark läuft auch stabil auf der karte.
bei der karte ist es eher eine politische sache. das ist wie mit den autos, welche bei 250kmh abgeregelt sind.
tombman
2011-04-24, 03:17:43
Naja, packt sie jetzt furmark ohne Bremse oder nicht?
Einige GTX570 haben es nicht überlebt, kann gut sein das minderwertige Teile verbaut sind.
Ein Karte hat das auszuführen was man ihr vorsetzt. Software darf hardware niemals zerstören dürfen.
Letzteres ist aber öfters der Fall. Wenn ich ein Programm schreibe, welches (natürlich nur 'zu Testzwecken') immer wieder einen bestimmten Sektor einer Festplatte traktiert, dann wird dieser Sektor irgendwann deutlich früher ausfallen. Im Prinzip hast du aber schon recht. Es ist ein Unterschied, ob ein Chip dynamisch throttelt, oder ob eine bestimmte Software durch ein vorgegebenes Treibersetting torpediert wird. Bei Furmark, OCCT und möglicherweise noch einer ganzen Reihe weiterer Software, wird der GPU-Takt ja offenbar rigoros auf 50% reduziert.
When power monitoring adjusts performance, clocks inside the chip are reduced by 50%.
http://www.geeks3d.com/20101109/geforce-gtx-580-power-monitoring-details/
Mein Verdacht ist, daß es nvidia in erster Linie nicht darum geht, daß die Karte zu heiß wird/kaputt geht, sondern darum, daß die 580 unter voller Last die Vorgaben in Bezug auf die Leistungsaufnahme so deutlich verfehlt, daß andere Baugruppen im PC beschädigt/zerstört werden könnten. Die ganzen gutgemeinten Ratschläge weiter oben im Thread, daß man die Grafikkarte mit Furmark kaputt macht, kann man sich also getrost von der Backe putzen. Mit Furmark macht man keine Grafikkarten kaputt, sondern man ENTDECKT kaputte Grafikkarten und vor allem auch FEHLKONSTRUKTIONEN.
http://www.hartware.de/review_1184_12.html
Einfach mal nachrechnen:
Idle: 126 Watt
Last: 422 Watt (Crysis Warhead)
Aus der Differenz ergibt sich eine Leistungsaufnahme von mindestens 296 Watt (25 Ampere). Was ein Test mit Furmark ergeben hätte, möchte man bei solchen Messwerten gar nicht erst wissen. Laut PCIe 2.0 Spec sind zulässig: 150 Watt (8er), 75 Watt (6er) und nochmal 75 Watt über den Sockel. Macht zusammen maximal 300 Watt.
In meinen Augen ist die GTX 580 im Hinblick auf PCIe 2.0 damit eine echte Fehlkonstruktion. OCP ist nur der klägliche Versuch die Sache nachträglich noch einzurenken.
http://www.geeks3d.com/20101109/nvidia-geforce-gtx-580-the-anti-furmark-dx11-card/
Und die Sache speziell mit Furmark oder OCCT ist in meinen Augen nichts weiter, als der spezielle Dank von nvidia an diejenigen, die den Braten als erste gerochen haben.
Das eigentliche Problem scheint mir, daß die OCP nur in Zusammenhang mit der Blacklist im Treiber funktioniert. Das bedeutet im Umkehrschluß, daß es in Zukunft durchaus vorkommen kann, daß man seinen PC durch 'schlecht programmierte' Software zerschrottet. Das Szenario, was man mit Programmen wie Furmark gezielt prüft, kann nämlich durch jede andere Software ebenfalls ausgelöst werden.
Wenn man die OCP wirklich sinnvoll hätte einsetzen wollen, dann hätte man mit einer Whitelist im Treiber arbeiten müssen: Also nur solche Software, die vorher ausführlich geprüft und begutachtet wurde, könnte dann auf einer GTX 580 mit vollem Takt ausgeführt werden. Das hätte Sinn gemacht... aber damit wäre die 580 vermutlich so richtig gefloppt.
tombman
2011-04-24, 05:10:50
Solche Programme sollen ja auch nicht ewig laufen- klar verringert man dadurch die Lebenszeit.
Aber zu Testzwecken, wie zb max. temp. herausfinden, sollte man sie schon einsetzen können.
Scose
2011-04-24, 08:30:00
Meine beiden 580er packten Furmark bei 1.063V mit 850/2200 on air für 30min ohne Bremse einwandfrei. Seither niemehr laufen lassen und war einfach ein worstcase-Temperaturtest. GPUs wurden dabei 90-92grad warm.
warum lässt niemand sei NT paar tage mit volllast laufen (so 100-110%?)
wär etwa so sinnfrei wie furmark.
kann doch nichts passieren - das NT schaltet ab.
die grafikkarte taktet runter oder verursacht einen reset.
was habe ich jetzt von der erkenntnis? nichts.
In einem Jahr kommt Spiel XY raus das die Karte etwa so fordert wie Furmark, also baut Nvidia dort auch eine Sperre ein und du hast nur mehr 20FPS statt 40FPS.
Im Endeffekt hast du eine HighendGraka die langsamer ist als ihr Vorgängermodell.
Gesetz dem Fall es kommt wirklich ein derartiges Spiel auf den Markt wird es die Vorgängerkarte auch nicht mit vollen Taktraten schaffen und muss ebenfalls gebremst werden und die 580GTX wird immer noch schneller sein.
Es ist doch besser, dass man ein ordentliches power-monitoring implementiert und die Karte dort wo es der Stromverbrauch nicht zulässt drosselt, als die Karte generell mit niedrigen Taktraten zu verkaufen nur um sagen zu können, man kann sie in allen Umständen mit voller Taktrate laufen lassen.
Bei Intel haben die sündteuren ExtremeModelle einen freien Multi, quasi mach damit was du willst auf deine eigene Verantwortung.
Nvidia haut dir eine Bremse rein bei den Highendprodukten.
Soweit ich weiß wird OC bei Intel-CPUs schon seit einiger Zeit durch die TDP limitiert. Man kann zwar bei den Extreme-Modellen je nach Mainboard das TDP-Limit erhöhen, natürlich außerhalb jeglicher Garantie und mit fraglicher Sinnhaftigkeit für den Alltagseinsatz.
Wenn du damit ein reales Spiel schneller machen willst, oder es dein Hobby ist irgendwelche OC-Rekorde zu knacken würde ich nichts dagegen sagen. Aber nur um mal mit Furmark testen zu können ob man mit einem PC die Zimmerheizung ersetzen könnte ist, sorry den Ausdruck, einfach nur deppat.
Wenn teure Autos ein Geschwindigkeitslimit haben wird nicht die PS Zahl
von Anfang an halbiert, sondern erst die Motorleistung gedrosselt wenn diese Endgeschwindigkeit erreicht ist.
Die Grafikkarte wird auch erst gedrosselt wenn die zulässige Stromaufnahme überschritten wird.
Um mal bei der Analogie Auto zu bleiben:
Jedes Auto hat eine maximal zulässige Treibstoffmenge (=Stromaufnahme) die in den Motor fließen kann. Die sich daraus ergebende Drehzahl (=Taktfrequenz) und Leistung (=Stromverbrauch) hängt natürlich von Steigung, Luftwiderstand etc. (=Aufwand der Berechnungen ab)
Was du willst ist nicht ein Auto das erst bei 250km/h abriegelt, sondern ein Auto das unter allen Umständen 250km/h fährt, egal ob man damit die Fähigkeiten des Motors (=Grafikkarte) oder des Fahrwerks (=Netzteil, Mainboard etc.) überschreitet.
Ein Karte hat das auszuführen was man ihr vorsetzt. Software darf hardware niemals zerstören dürfen. Das ist auch meine Meinung. Auch meine 480er wurden mit furmark gequält und hielten durch. Temperaturkontrolle ist natürlich Pflicht.
Das gilt aber nur so lange sie innerhalb der Spezifikationen betrieben wird, und wenn dazu eine Überwachung der aufgenommenen elektrischen Energie gehört dann hat die auch aktiv zu sein. Ansonsten kann man sich nicht beschweren wenn es die Karte, oder andere Komponenten nicht schaffen.
Wenn eine 580er furmark nicht packt, dann hätte sie eben nicht gebaut werden dürfen :devil:
Es ist also sinnvoller eine Highend-Karte, ja die schnellste aktuell erhältliche Highend-Karte (multichip nicht mitgezählt) immer weit unter den technischen Möglichkeiten laufen zu lassen nur um ja unter allen Umständen die elektrischen und thermischen Spezifikationen einhalten zu können ohne die Taktfrequenz zu verringern?
Ist es nicht wesentlich sinnvoller gerade jene Karte die dafür gebaut wurde um das maximale aus der vorhandenen Technologie herauszuholen immer möglichst nahe an den elektrischen und thermischen Möglichkeiten zu halten?
Wir werden das in Zukunft noch viel öfter sehen, Intel macht mit ihrem Turbo-Boost nichts anderes (nur mit dem Unterschied das man mangels ordentlicher Konkurrenz bei weitem nicht ans Limit gehen muss)
In Zukunft werden wir (zumindest im Highend) keine Hardware mit vorgegebener Taktfrequenz kaufen, sondern Hardware die versucht aus der maximal möglichen Leistungsaufnahme die bestmögliche (rechnerische) Leistung zu bringen.
Die 590er ist ja noch stärker "auf Kante gebaut"- sowas will ich in Zukunft nicht haben- und viele andere sicher auch nicht.
Dann kauf sie eben nicht, es zwingt dich keiner dazu. Der einzig sinnvolle weg im Highend-Bereich ist es soweit es möglich ist immer das maximaler herauszuholen, und das erreicht man eben nicht bei fixer Taktfrequenz und einer Leistungsaufnahme von nur 150W in 90% der Fälle.
Mr. Lolman
2011-04-24, 22:08:20
Das eigentliche Problem scheint mir, daß die OCP nur in Zusammenhang mit der Blacklist im Treiber funktioniert. Das bedeutet im Umkehrschluß, daß es in Zukunft durchaus vorkommen kann, daß man seinen PC durch 'schlecht programmierte' Software zerschrottet.
Stimmt. Man erinnere sich an die zurückgezogene ENB 0.82 Beta. Und die war nicht schlecht programmiert, sondern die Rechenlast war einfach zu hoch.
Das Menü in Starcraft 2 war ja auch so ein Fall.
Überhaupt stellt sich doch die Frage, wie nahe die bisher bekannten Worst Cases wie z.B. Furmark oder das SC2-Menü an den realen Worst Case rankommen. Gerade Furmark müsste doch relativ harmlos sein, weil es verschiedene Architekturen in die Kernschmelze führt. Einen absoluten Worst Case dürfte aber nur eine spezielle Arch, eher gar nur eine spezielle SKU, in die Kernschmelze führen. Dafür müssten nämlich alle Einheiten maximal ausgelastet werden, was nur bei einem konkreten Verhältnis aus Shadern/ROPs/TMUs/Tesselatoren/etc. funzen kann.
Wie nah kann Furmark da schon rankommen? 70%? 80%?
Oder vielmehr: Auf welcher Karte schafft welches "Powervirus" wirklich 100% Last?
Gast aus Post #25
2011-04-25, 02:47:36
Solche Programme sollen ja auch nicht ewig laufen- klar verringert man dadurch die Lebenszeit.
Aber zu Testzwecken, wie zb max. temp. herausfinden, sollte man sie schon einsetzen können.
Ich verwende den Furmark ebenfalls nicht als Benchmark, sondern nur als kurzen 'Funktionstest' für das System, wenn ich zB. zusammen mit prime95 die maximale Leistungsaufnahme des Gesamtsystems an der Steckdose messe um rauszufinden, ob das Netzteil (zumindest rechnerisch) noch im grünen Bereich liegt. Außerdem kann man mit Furmark sehr schnell rausfinden, wie laut die Karte denn nun tatsächlich werden kann und ob die Kühlung im Gehäuse ausreichend ist. Auch bei Problemen mit Gamefreezes ist der Furmark hilfreich. Wer will schon jedesmal erst 2 Stunden spielen, bis die Freezes auftreten und dann auch noch rumraten müssen, ob es nicht doch ein Speicherproblem ist. Mit dem Furmark weiß man recht schnell, ob man ein Problem mit seiner Grafikkarte hat.
Die einen ärgert es, daß der Furmark geblockt wird, den anderen wird es möglicherweise recht sein. Ich für meinen Teil finde die derzeitige Regelung im ganzen nicht gelungen. Das hätte man besser (=teurer) lösen können und auch müssen. Statt mit so einer OCP hätte man die 580-Karten lieber mit zusätzlichen Stromanschlüssen und einem angemessenen Kühlsystem austatten sollen. Statt 1x8 und 1x6 dann eben 4x6. Die meisten Netzteile über 500 Watt sind heute eh auch für SLI-Betrieb ausgelegt und man hätte keine Probleme. Wenn jemand nur 2 Anschlüsse verbindet, könnte man dann immernoch hingehen und die Karte via OCP zwangsweise auf 50% runtertakten.
Zephyroth
2011-04-25, 03:34:57
Zu dem Thema hab' ich mal was in einem anderen Thread geschrieben, das sollte die Situation gut erklären:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8634570&postcount=153
Grüße,
Zeph
Gast aus Post #25
2011-04-25, 12:57:25
Zu dem Thema hab' ich mal was in einem anderen Thread geschrieben
Der Vergleich mit dem Auto paßt nicht. Der Lebenszyklus eines Gamer-PCs (und für nichts anderes werden die GTX5xx gebaut) ist viel kürzer. Wenn man also 1-2 Jahre 'mitspielen' möchte, dann muß man sich schon eine Karte mit gehobener Leistung zulegen. Oder man beschließt für sich in der Vergangenheit zu leben (ist auch möglich). Wenn jemand viel Geld in solch eine Highend-Karte für Gaming investiert, dann hat er imho auch ein Recht darauf zu erfahren was passiert, wenn diese Karte an den Rand ihrer Leistungsfähigkeit gebracht wird. Wenn sie dabei kaputt geht, dann liegt ein erheblicher Konstruktionsmangel vor.
Der Furmark ist keine 'böse' Software. Der Furmark ist nur ein Programm, welches synthetisch die Leistungsfähigkeit einer Grafikkarte nahezu ausreizt. Zu einer gut konstruierten Grafikkarte gehört es dazu, daß sie einen kurzen Belastungstest standhält. Das ist mein privater TÜV als Kunde, der ansonsten darauf angewiesen wäre den Versprechungen der Hersteller oder einem Wiederverkäufer blind zu vertrauen. Dein Vergleich mit dem Auto ist auch deshalb nicht passend, weil beim Auto ein mehrfacher Vollgas-'Test' inzwischen bei jedem TÜV-Besuch durchgeführt wird. Anstatt über den Furmark zu meckern, wäre nvidia gut beraten gewesen in die ForceWare einen vergleichbaren Funktionstest zu integrieren und auch zu etablieren. Dies wurde jedoch ganz bewußt unterlassen. (ATi hat es mit seinem ATi-Tool ja bereits vorgemacht.)
Ich glaube inzwischen, daß beim Design der GTX 580 eher Wunschdenken, als Ingenieursverstand zum Einsatz kam. Hier mal ein Thread zur 580 von EVGA:
http://www.evga.com/forums/tm.aspx?&m=811877&mpage=1
Mit Programmen wie Furmark werden solche Designschwächen (welche erst nach Wochen auftreten können) sofort sichtbar. Das Artefakte bei überforderter Grafikhardware auftreten ist nur eine Frage der Zeit und nicht eine Frage der Software. - Was taugt eine Grafikkarte welche bei Furmark sofort stirbt und bei Crysis schon nach 6 Wochen? Die Antwort ist in beiden Fällen: Nichts. Der Unterschied besteht nur darin, daß man mit Furmark noch innerhalb von 14 Tagen sein unbeschränktes Rückgaberecht nutzen kann. Eine technische Fehlkonstruktion wird nicht dadurch besser, daß man sie nur noch wie ein rohes Ei behandelt.
Zephyroth
2011-04-25, 13:25:42
In diesem Fall kann ich mich aber entspannt zurücklehnen (denn ich bin beispielsweise ein erfahrener Elektronikdesigner). Ich verstehe die Einwände von absoluten Hardwareenthusiasten, kann sie aber teilen.
Aber in diesem Fall (Thema Abwärme), setzt die Physik ein hartes Limit. Wie ich schon schrieb bekommt man mit einem Kühlkörper in dieser Größe (egal wie ausgeklügelt) maximal 200W weg.
Mit Furmark überschreitet man diese Leistung nun gewaltig, mit einem Spiel hingegen nicht. Um diesem Problem zu begegnen hat nVidia (und auch ATI) eine Leistungsaufnahmebegrenzung eingebaut. So ist garantiert, das der Kühlkörper auch die aufgenommene Leistung abführen kann und die Hardware ist vor Ausfällen sicher.
Hebelt man nun dieses Limit aus, ist es das gleiche als würde ich den Drehzahlbegrenzer von einem Motor entfernen. Die Hardware wird nicht sonderlich lange leben. That's it.
Ebenfalls habe ich gesagt, man kann Hardware bauen, die diese Tests auch mit voller Leistung mitmacht. Aber nicht zu diesem Preis und nicht in dieser Größe (mit einem 4-fach Slot wird man dann an die 300W schaffen). Eine solche Karte würde dann zwar in Furmark brillieren, aber hätte keinen Leistungsvorteil in Spielen.
Wo diese Begrenzung wirklich lästig ist, ist wenn jemand mit einer Wasserkühlung (wesentlich mehr Verlustleistung möglich) übertakten will. Denn da ist die höhere Verlustleistung ja zulässig.
Du kannst nun versuchen zu verstehen, oder auch weiterhin auf stur schalten, aber mit der Physik ist leider ganz schlecht Kirschen essen, die ist bei solchen Dingen erbarmungslos.
Grüße,
Zeph
PS: Was des Vollgastest angeht, den kenne ich. Da wird der Motor für ganze 5sec auf volle Drehzahl gebracht. Ich glaube wir sind und einig das jede Karte ebenfalls 5sec Furmark ohne Probleme übersteht. Wir reden hier von Leuten, die Furmark für 15min+ laufen lassen.
Wenn jemand viel Geld in solch eine Highend-Karte für Gaming investiert, dann hat er imho auch ein Recht darauf zu erfahren was passiert, wenn diese Karte an den Rand ihrer Leistungsfähigkeit gebracht wird. Wenn sie dabei kaputt geht, dann liegt ein erheblicher Konstruktionsmangel vor.
Wenn man sie ordnungsgemäß betreibt wird sie auch beim Furmark garantiert nicht kaputt gehen. Wenn man allerdings bewusst Sicherheitsmaßnahmen deaktiviert ist man selbst Schuld. Dann noch vom Rücktrittsrecht gebrauch zu machen ist eine ziemliche Frechheit.
Du deaktivierst beim Auto ja auch nicht vor dem Vollgastest den Drehzahlbegrenzer.
Es ist überhaupt nichts dagegen zu sagen die Karte mit Furmark einem Belastungstest zu unterziehen, das ganze aber mit deaktivierter Sicherheitsschaltung ist schon ziemlich blöd.
Wenn man allerdings bewusst Sicherheitsmaßnahmen deaktiviert ist man selbst Schuld.
Die korrekte Ausführung des Furmark und anderer Software, welche 3D-Funktionen nutzt, im Treiber zu unterbinden ist nichts anderes als Betrug. Wenn ich bei ATi wäre, würde ich mir das Spielchen noch eine Weile ansehen und dann eine Klage wegen Verstoß gegen das Wettbewerbsrecht einreichen. Und so wird's auch kommen - da bin ich mir sicher.
Dann noch vom Rücktrittsrecht gebrauch zu machen ist eine ziemliche Frechheit.
Nein - genau dazu wurde das 14 Tage-Rücktrittsrecht eingeführt. Wenn man einen PC im Geschäft kauft, dann kann man eine CD mit Furmark mitnehmen und vom Verkäufer vor dem Kauf einen Test verlangen. Das würde dann zu zwei möglichen Resultaten führen: Entweder der PC wird extrem laut und die Grafikkarte geht eventuell sogar kaputt oder OCP spricht an und man bekommt bei nur 50% Takt extrem schlechte 3D-Ergebnisse. In beiden Fällen wird der Kunde auf einen Kauf verzichten.
http://www.fudzilla.com/images/stories/Reviews/Graphics/Nvidia/Fermi/580/furMark.jpg
http://www.overclock.net/nvidia/864322-truth-gtx580-furmark-temps-consumption.html
Von einem 'Drehzahlbegrenzer' kann man bei solchen Resultaten beim besten Willen nicht mehr sprechen. Meine nicht übertaktete GTX 460 schafft im Furmark 1.8.2 out-of-the-box 4569 Punkte. Und zwar ganz ohne zu explodieren. Die 3389 Punkte der GTX 580 sind einfach lächerlich. OCP hat -wie man auf dem Bild eindrucksvoll sieht- rein gar nichts mit sinnvollen Schutzmaßnahmen zu tun.
Du deaktivierst beim Auto ja auch nicht vor dem Vollgastest den Drehzahlbegrenzer.
Wenn du den Thread und die Links gelesen hättest, dann wüßtest du, daß es sich bei OCP im Zusammenhang mit der Blacklist nicht um eine Art 'Drehzahlbegrenzer' handelt. OCP bei der GTX 580 entspricht eher einem Mechanismus, bei dem die elektronische Einspritzanlage des Motors so eingestellt wird, daß bei der Auffahrt auf eine Autobahn statt 250 km/h nur noch 120 km/h erreicht werden können. Das ist sicher sehr vernünftig - aber das ganze dann noch als Sportwagen zu verkaufen, wäre in meinen Augen schon mehr als dreist.
Es ist überhaupt nichts dagegen zu sagen die Karte mit Furmark einem Belastungstest zu unterziehen, das ganze aber mit deaktivierter Sicherheitsschaltung ist schon ziemlich blöd.
Einen Belastungstest mit aktiviertem OCP durchzuführen ist imho noch viel dämlicher. OCP scheint zudem nur bei Programmen auf der Blacklist des Treibers anzusprechen. Jedes (auch ältere) OpenGL Spiel wäre damit ein Kandidat, der die Karte trotz aktiviertem OCP ins Jenseits befördern kann, weil das OCP-Monitoring aus bleibt.
Hugo78
2011-04-26, 07:35:25
Die korrekte Ausführung des Furmark und anderer Software, welche 3D-Funktionen nutzt, im Treiber zu unterbinden ist nichts anderes als Betrug. Wenn ich bei ATi wäre, würde ich mir das Spielchen noch eine Weile ansehen und dann eine Klage wegen Verstoß gegen das Wettbewerbsrecht einreichen. Und so wird's auch kommen - da bin ich mir sicher.
Was soll ATI (AMD) denn da einklagen? :ulol2:
Etwa dass Nvidia mal gefälligst ihren Begrenzer verfeinern sollen oder so?!
Bei der GTX 680 (oder ne Gen. später) wird man sicherlich auch sowas wie ähnliches wie AMD's Powertune haben und dann merkt es eh keiner mehr,
wann mal hier und da einwenig abgeregelt wird.
Der aktuelle Begrenzer der GTX 580 ist dagegen einfach nur ein Schalter der zwei Zustände erlaubt.
Und in Spielen ist dieser Schalter bisher noch nie zum Einsatz gekommen.
Zephyroth
2011-04-26, 10:16:15
Die korrekte Ausführung des Furmark und anderer Software, welche 3D-Funktionen nutzt, im Treiber zu unterbinden ist nichts anderes als Betrug. Wenn ich bei ATi wäre, würde ich mir das Spielchen noch eine Weile ansehen und dann eine Klage wegen Verstoß gegen das Wettbewerbsrecht einreichen. Und so wird's auch kommen - da bin ich mir sicher.
Da wird gar nichts passieren, weil ATI genau den selben physikalischen Grundsätzen unterworfen ist.
Von einem 'Drehzahlbegrenzer' kann man bei solchen Resultaten beim besten Willen nicht mehr sprechen. Meine nicht übertaktete GTX 460 schafft im Furmark 1.8.2 out-of-the-box 4569 Punkte. Und zwar ganz ohne zu explodieren. Die 3389 Punkte der GTX 580 sind einfach lächerlich. OCP hat -wie man auf dem Bild eindrucksvoll sieht- rein gar nichts mit sinnvollen Schutzmaßnahmen zu tun.
Deine GTX460 hat auch keine Verlustleistung von über 200W im Furmark. Und jetzt man ehrlich, meinst du wirklich, das eine GTX460 in normalen Anwendungen eine GTX580 schlägt? Ich glaube kaum.
Das ist sicher sehr vernünftig - aber das ganze dann noch als Sportwagen zu verkaufen, wäre in meinen Augen schon mehr als dreist.
Nö, das ist gängige Praxis. Ein Sportwagen wurde gebaut um auf der Rennstrecke Bestleistungen zu erzielen, nicht in der Box auf dem Prüfstand. Oder warum glaubst du legen die netten Herren in den feuerfesten Anzügen sehr schnell Trockeneis in die Kühlkanäle eines F1-Boliden, wenn der länger mit Standgas in der Box stehen muß?
Einen Belastungstest mit aktiviertem OCP durchzuführen ist imho noch viel dämlicher. OCP scheint zudem nur bei Programmen auf der Blacklist des Treibers anzusprechen. Jedes (auch ältere) OpenGL Spiel wäre damit ein Kandidat, der die Karte trotz aktiviertem OCP ins Jenseits befördern kann, weil das OCP-Monitoring aus bleibt.
Ist auch falsch. Ein altes Spiel lastet eine moderne Grafikkarte kaum aus. Meine GTX570 langweilt sich mit "The Witcher" und ist weit von den Temperaturwerten entfernt, die sie beispielsweise in StarCraft 2 erreicht.
Mit ausreichend Einsatz von SGSSAA bringe ich sie an ihre frameratenmäßige Leistungsgrenze, nicht aber an die thermische (86°C). Somit bleibt ein Throtteln oder gar ein Schaden aus. Die Grenze wo das leistungsmäßige Throtteln anfängt ist irgendwo bei 200W. In Spielen braucht sie etwa 130W. Somit habe ich für Übertaktung und zukünftige Spiele und Anwendungen noch einen Spielraum von 70W (über 50%!). Das sollte ausreichend zukunftssicher sein, da sich die Struktur von (sinnvollen) Algorithmen so schnell nicht ändern wird.
Fakt ist auch, das diese Karte trotz des eingebauten Leistungsschutzes meine bisher schnellste Grafikkarte in Spielen ist, die noch nie ins Throtteln gekommen ist.
Was der Furmark macht, ist somit für die normale Anwendung völlig irrelevant. Ich trete in Spielen auch gerne mit meiner 570er gegen deine 460er an und werde gewinnen...
That's physics, leb' damit!
Grüße,
Zeph
Die korrekte Ausführung des Furmark und anderer Software, welche 3D-Funktionen nutzt, im Treiber zu unterbinden ist nichts anderes als Betrug.
Korrekte Ausführung = so wie vom Hersteller vorgesehen. Wenn dir das nicht passt kannst du die Karte deshalb gerne zurückgeben.
Nein - genau dazu wurde das 14 Tage-Rücktrittsrecht eingeführt. Wenn man einen PC im Geschäft kauft, dann kann man eine CD mit Furmark mitnehmen und vom Verkäufer vor dem Kauf einen Test verlangen.
Kann man, ob es der Verkäufer macht ist fraglich und er wird es garantiert nicht mit deaktivierter Sicherheitsschaltung machen.
Du kannst gerne die Karte so wie vom Hersteller vorgeschrieben mit Furmark testen und aufgrund mangelnder Performance zurückgeben bzw. nicht kaufen.
Du kannst die Karte auch in Furmark testen und aufgrund zu hoher Lautstärke zurückgeben (obwohl das mit Furmark selten dämlich ist aber egal, es ist dein gutes Recht)
Was prinzipiell natürlich nicht zu verhindern ist, aber eine dreiste Ausnutzung des KSchG ist, die Karte ohne Sicherheitsbegrenzung mit Furmark kaputt zu machen und danach zurückzugeben.
Wenn dir die Karte so wie sie ist nicht gefällt, dann kauf sie eben nicht, und wenn es mangels ordentlicher Furmark-Performance ist dann mach es eben.
BTW: Die Leistungsbegrenzung ist mehr ein Schutz für die anderen Komponenten, als für die Karte selbst, schließlich wird dadurch die Temperaturgesteuerte Sicherheitsabschaltung nicht deaktiviert. Es ist viel wahrscheinlicher, dass du stattdessen Mainboard oder Netzteil zerstörst, worauf du vermutlich kein Rückgaberecht mehr hast.
Zephyroth
2011-04-26, 13:08:02
Von Betrug seitens nVidia kann man erst sprechen, wenn die Karten bei einer sinnvollen Anwendung beginnen zu throttlen oder gar abzurauchen. Furmark ist einfach nur eine Heizkanone, die außer viel heiße Luft nichts weiter macht...
Bei Grafikanwendungen scheint es sowieso sichergestellt zu sein, das die Karten nicht ins Throtteln kommen, bei GPU-Computing gibt es vielleicht Algorithmen, die ihr mehr zu schaffen machen.
Grüße,
Zeph
joe kongo
2011-04-26, 15:16:35
Also hab ich eine Graka um 420 Eier, die bei einem wärmeproduzierenden Felldonut abraucht egal wie gut oder schlecht die Gehäuselüftung ist, und die diesen Felldonut nur deshalb überlebt weil Nvidia es treiberseitig verhindert ?`
Und was ist, wenn ein pöser Programmierer einen felligen Stinkefinger programmiert den Nvidia noch nicht kannte ?
Zephyroth
2011-04-26, 15:30:15
Wenn du eine GTX5xx besitzt, dann ist diese Begrenzung hardwareseitig gegeben und nicht treiberabhängig (im Sinne von: Der Treiber braucht nicht den Strom messen, bewerten und drosselt dann). Mit GPU-Z kann man diese aber aushebeln. Ich denke da wird in dem Controllchip ein Stromgrenzwert gesetzt, der auch eingehalten wird. GPU-Z ändert diesen Stromwert, dann funktioniert der Schutzmechanismus auch net.
Wenn du also diesem Schutzmechanismus sagst 300W ist ok, dann wird dir die Karte abrauchen (es sei denn du kühlst sie mit Wasser). Belässt du's bei den defaultmäßigen 200W wird nix passieren außer einer Throttelung. Das Geniale an dieser Lösung ist ja, das nVidia im Treiber dafür nichts mehr ändern muß für ein neues Spiel. Überschreitet es den Maximalstrom wird gedrosselt.
Bei GTX4xx-Karten ist dieser Mechanismus tatsächlich treiberseitig. Hier kann so ein Szenario wie von dir beschrieben eintreten.
Lange Rede, kurzer Sinn:
Solange man bei den GTX5xx-Karten die hardwaremäßige Leistungsbegrenzung nicht aufhebt, kann so einen Karte auch nicht abbrennen. Entferne ich bewußt diese Sicherheitseinrichtungen, dann kann Hardware beschädigt werden. Bei Tschernobyl wurde ebenfalls sehr ähnliches gemacht, was passiert ist wissen wir. Also, lieber das System so lassen wie es sich Spezialistes ausgedacht haben und keine Kernschmelze riskieren ;)
Grüße,
Zeph
Seit wann gibt es eine treiberseitige Begrenzung für Fermis im Furmark? :upara:
joe kongo
2011-04-26, 20:12:59
@Zeph
Darf ich fragen woher du die Infos hast ?
Hier stehts im Prinzip genau anders, also das der Treiber sozusagen den Strom misst und einschreitet falls Anwendung XY läuft:
http://www.geeks3d.com/20101109/geforce-gtx-580-power-monitoring-details/
Zephyroth
2011-04-26, 21:25:30
Ich hab's in der ganzen Diskussion wo aufgeschnappt, das der große Unterschied zwischen GTX480 und GTX580 die Art der Leistungsbegrenzung ist. Die GTX480 besitzt so einen Monitoring Chip überhaupt nicht.
Die einzige Möglichkeit die Leistung zu begrenzen war, die Taktraten bei Erkennen einer solchen Applikation pauschal runterzufahren, obwohl die TDP noch nicht überschritten ist. Sowas ist aber durch umbenennen der Exe leicht zu umgehen.
Bei den GTX5xx wird der Strom nun gemessen und über den Treiber ausgewertet. Bei Überschreiten der Grenzwerte throttelt der Treiber die Karte. Das ist imho sinnvoller als pauschal zurückzuregeln, aber wesentlich aufwändiger zu umgehen...
Grüße,
Zeph
joe kongo
2011-04-26, 22:45:32
Wenn du eine GTX5xx besitzt, dann ist diese Begrenzung hardwareseitig gegeben und nicht treiberabhängig (im Sinne von: Der Treiber braucht nicht den Strom messen, bewerten und drosselt dann).
Dann ist diese Behauptung frommes Wunschdenken.
Weil speziell dieser Satz: "Power monitoring adjusts performance only if power specs are exceeded AND if the application is one of the stress apps we have defined in our driver to monitor such as Furmark 1.8 and OCCT"
aus Quelle: http://nvidia.custhelp.com/cgi-bin/nvidia.cfg/php/enduser/std_adp.php?p_faqid=2857
aussagt das die Schutzmaßnahme, welche Monitoringchips zu Hilfe zieht, ausschliesslich treiberseitig bei bekannten und gelisteten Anwendungen greift.
Somit kann es durchaus Anwendungen geben, die der Treiber nicht kennt und somit keine Drosselung vornimmt, selbst wenn die Monitoringchips rot aufglühn.
Da hätte ich doch lieber eine Graka ohne verkrüppelter Schutzfunktion, und entscheide selber anhand der Temperaturen was gut oder schlecht ist.
Weiters könnte ich dann (wie bei all meinen Grakas zuvor) sagen, sie hat den pösen Furmark 20 Minuten bei 95Grad überstanden, somit wird sie jede andere fordernde Anwendung in Zukunft auch überstehen weil Furmark den bekannten Worst Case darstellt.
Zephyroth
2011-04-27, 07:30:25
Genau diesen Satz glaube ich nicht so recht. Ich denke, das der Strom immer gemessen wird, nur eventuell bei speziellen Anwendungen wird der Grenzwert vom Treiber zusätzlich geändert. Defaultmäßig ist dennoch einer vorhanden, so das die Karte ohne Umgehung dieses Mechanismus immer noch geschützt ist.
Das kann man aber leicht überprüfen, indem man die EXE von beispielsweise Furmark umbenennt. Danach sollte dann keine Drosselung mehr auftreten, da der Treiber Furmark nicht mehr erkennt und somit die Bedingung für eine Drosselung nicht mehr wie geschrieben gegeben ist. Wie wir aber wissen funktionierts aber nicht so einfach, sondern man muß den Schutzmechanismus zusätzlich mit GPU-Z aushebeln.
Insofern unterstützt die Realität durchaus mein "Wunschdenken".
Grüße,
Zeph
Marc-
2011-04-27, 09:40:12
Genau diesen Satz glaube ich nicht so recht. Ich denke, das der Strom immer gemessen wird, nur eventuell bei speziellen Anwendungen wird der Grenzwert vom Treiber zusätzlich geändert. Defaultmäßig ist dennoch einer vorhanden, so das die Karte ohne Umgehung dieses Mechanismus immer noch geschützt ist.
Das kann man aber leicht überprüfen, indem man die EXE von beispielsweise Furmark umbenennt. Danach sollte dann keine Drosselung mehr auftreten, da der Treiber Furmark nicht mehr erkennt und somit die Bedingung für eine Drosselung nicht mehr wie geschrieben gegeben ist. Wie wir aber wissen funktionierts aber nicht so einfach, sondern man muß den Schutzmechanismus zusätzlich mit GPU-Z aushebeln.
Insofern unterstützt die Realität durchaus mein "Wunschdenken".
Grüße,
Zeph
Eine konkludente aussage, aber definitiv kein eindeutiger beweis.
Sicherlich ist es die einfachste bekannte möglichkeit für einen treiber, eine bestimmte anwendung an ihrem namen zu erkennen. Wird ja auch bei Spieleprofilen auch gemacht, zudem es da sehr sinnvoll ist, da so bestehende Profile auch auf neuere anwendungen angewand werden können über einfache name change.
Bei sicherheitsrelevanten anwendungen wird das aber anders aussehen. da dürften auch andere Erkennungsmöglichkeiten sinnvoll und notwendig sein.
Beispielsweise eine verhaltensbasierte erkennung. (beispielsweise könnten bestimmte characteristische API calls analysiert werden, oder aber der aufruf bestimmter Dlls (wenn man es ganz einfach halten möchte). Die möglichkeiten sind in einem solchen falle vielfältig, zumal wenn man die anwendung und deren characteristik en detail kennt.
Ich würde also eher nicht davon ausgehen das die erkennung nur anhand des namens der anwendung geschieht.
Zephyroth
2011-04-27, 09:56:32
Das ist richtig, ein Beweis ist es nicht, aber es ist auch mehr als bloßes Wunschdenken.
Die Sache ist doch die, ein Hardwaremonitoring würde keinen Sinn machen, wenn die Begrenzung erst durch der Treiber aktiviert werden müßte. Da hätte man gleich beim System GTX4xx bleiben können, das rein treiberbasiert arbeitet.
Daher gehe ich eher davon aus (da ich mir anmaße zu wissen wie Hardwaredesigner denken) das der Schutz standardmäßig mit einem Defaultwert aktiv ist und bei bestimmten Anwendungen vom Treiber aktualisiert wird.
War da nicht bei StarCraft II ein Fehler, der reihenweise die GTX480 im Menü gegrillt hat, die GTX5xx aber kein Problem damit haben? Oder wurde der Fehler vor Erscheinen der GTX5xx behoben?
Definiv etwas über die Funktionsweise wissen kann man nur, wenn nVidia sich dazu herablässt, diese genauer zu erklären.
Ein weiteres Indiz, das meine These unterstützt ist die Reaktivierung des Schutzes nach einem Treiberreset, falls dieser zuvor mit GPU-Z ausgehebelt wurde. Sprich der Treiber aktualisiert die Stromlimits beim hochfahren, ändert sie aber zur Laufzeit nicht weiter.
Grüße,
Zeph
Marc-
2011-04-27, 10:11:32
War da nicht bei StarCraft II ein Fehler, der reihenweise die GTX480 im Menü gegrillt hat, die GTX5xx aber kein Problem damit haben? Oder wurde der Fehler vor Erscheinen der GTX5xx behoben?
Definiv etwas über die Funktionsweise wissen kann man nur, wenn nVidia sich dazu herablässt, diese genauer zu erklären.
Ein weiteres Indiz, das meine These unterstützt ist die Reaktivierung des Schutzes nach einem Treiberreset, falls dieser zuvor mit GPU-Z ausgehebelt wurde. Sprich der Treiber aktualisiert die Stromlimits beim hochfahren, ändert sie aber zur Laufzeit nicht weiter.
Grüße,
Zeph
Soweit ich das verfolgt habe, ist dieses Verhalten im Starcraft 2 menu relativ schnell rausgepatcht worden.
Zephyroth
2011-04-27, 10:46:01
Earlier we briefed you about a new feature we called “Advanced Power Management”. The below information is intended to clarify. First, here are the correct facts about our new technology:
We have implemented new power monitoring and power capping features on GTX 500 boards. Similar to our thermal protection mechanisms that protect the GPU and system from excessive heat generation, the new power monitoring and capping features help protect the graphics card and system from issues caused by excessive power draw.
* Dedicated hardware circuitry on the GTX 500 series graphics card performs real-time monitoring of current and voltage on each 12V rail (6-pin, 8-pin, and PCI-Express).
* The graphics driver monitors the power levels and will dynamically adjust performance in certain stress applications such as Furmark and OCCT if power levels exceed the card’s spec.
* Power monitoring adjusts performance only if power specs are exceeded AND if the application is one of the stress apps we have defined in our driver to monitor such as Furmark and OCCT.
* So far we have not seen any real world games that are affected by power monitoring or need power throttling to stay within spec.
* We restrict power monitoring only to stress apps, because we don’t want to limit customers who want to overclock games, and we believe the stress apps are the key apps where the graphics card can benefit from additional protection mechanisms.
* We will enable power monitoring for older Furmark versions in future drivers. The 262.99 driver only identifies Furmark version 1.8. If other thermal stress apps are discovered, they will be added to the protection mechanism from time to time with driver updates.
* We do not provide any end user ability to turn off power capping today.
* The power limits for GTX 580 are set close to PCI Express specs for each 12V rail.
* In this initial implementation, when power capping becomes active, clocks inside the chip are reduced by 50%. Many 3rd party tools have not yet been updated to show this fact, but we suspect updates will be coming to make the internal clock reductions more visible.
Hier ist das komplette E-Mail von nVidia zu dem Thema. Scheint so, als ob wirklich nur bei Streßtests der Powerlimiter überhaupt aktiviert wird. Offenbar detektieren sie solche Tests nun wesentlich komplexer als nur über den Namen der EXE.
Merkwürdiges Verhalten, ich hätt's anders gebaut.
Grüße,
Zeph
N0Thing
2011-04-27, 11:10:46
Nein - genau dazu wurde das 14 Tage-Rücktrittsrecht eingeführt. Wenn man einen PC im Geschäft kauft, dann kann man eine CD mit Furmark mitnehmen und vom Verkäufer vor dem Kauf einen Test verlangen. Das würde dann zu zwei möglichen Resultaten führen: Entweder der PC wird extrem laut und die Grafikkarte geht eventuell sogar kaputt oder OCP spricht an und man bekommt bei nur 50% Takt extrem schlechte 3D-Ergebnisse. In beiden Fällen wird der Kunde auf einen Kauf verzichten.
Sowohl Chiphersteller als auch Fachhändler können wohl gut damit leben, wenn Leute, die nur nach den Punkten bei Furmark eine Grafikkarte auswählen, ihre Karten verschmähen und zur Konkurrenz gehen. :)
joe kongo
2011-04-27, 12:58:56
Merkwürdiges Verhalten, ich hätt's anders gebaut.
Ich glaube nicht das es möglich ist,
einerseits hardwareseitig die Stromaufnahme zu drosseln,
und andererseits bei normalen 3D Anwendungen unter bestimmten,
unvorhersehbaren Lastspitzen doch keine Framerateeinbrüche zu haben.
Da würden sich die Kunden aufregen bzw davon laufen.
Ich werde die Strommessshunts versuchsweise bügeln und schauen was sie
so bei Furmark macht, kann ja nicht viel kaputt gehen (Ironie).
joe kongo
2011-04-27, 13:02:05
Sowohl Chiphersteller als auch Fachhändler können wohl gut damit leben, wenn Leute, die nur nach den Punkten bei Furmark eine Grafikkarte auswählen, ihre Karten verschmähen und zur Konkurrenz gehen. :)
Du hast den Thread verstanden :uup:
Zephyroth
2011-04-27, 13:56:48
Ich glaube nicht das es möglich ist,
einerseits hardwareseitig die Stromaufnahme zu drosseln,
und andererseits bei normalen 3D Anwendungen unter bestimmten,
unvorhersehbaren Lastspitzen doch keine Framerateeinbrüche zu haben.
Da würden sich die Kunden aufregen bzw davon laufen.
Ich werde die Strommessshunts versuchsweise bügeln und schauen was sie
so bei Furmark macht, kann ja nicht viel kaputt gehen (Ironie).
Das ist hardwaremäßig kein so sonderlich großer Aufwand. Anstatt den Strom über die Shunts direkt zu messen bildet man mit einem einfach RC-Tiefpaß das thermische Verhalten der kritischen Bauteile nach, sprich eine Filterzeitkonstante von ca. 5sec.
Kurze Belastungsspitzen werden so weggebügelt, sollte es aber thermisch zu eng werden, geht der "Alarm" los. Sicherlich, Momentanwerte kann man so nicht messen. Allerdings wäre es auch möglich so einen Filter in Software zu schreiben.
Der Furmark würde in so einem Fall etwa 5sec ordentlich laufen, aber dann gedrosselt werden, da das Leistungsmittel überschritten wurde.
Grüße,
Zeph
joe kongo
2011-04-27, 14:57:43
Je näher am erlaubten Mittelwert desto eher wirken sich Ausreisser aus.
zB der mit dem schnellen Intel Prozzi der die Karte besser (grund-)auslastet bleibt hängen, der mit dem A..nderen Prozessor kommt durch ;D.
Die einfache Sache ist die ohne Drosselung, ausreichend dimensionierte Hardware ohne nachträglich hingekünstelter Lebensdauerverlängerung.
Zephyroth
2011-04-27, 15:22:39
Je näher am erlaubten Mittelwert desto eher wirken sich Ausreisser aus.
zB der mit dem schnellen Intel Prozzi der die Karte besser (grund-)auslastet bleibt hängen, der mit dem A..nderen Prozessor kommt durch ;D.
Die einfache Sache ist die ohne Drosselung, ausreichend dimensionierte Hardware ohne nachträglich hingekünstelter Lebensdauerverlängerung.
Klar, wer die Grafikkarte mit der CPU bedrosselt braucht auch weniger Strom.
Wie schon geschrieben, es wäre designtechnischer Blödsinn, die Karte auf eine Anwendung auszulegen die mit der Realität nichts zu tun hat und nur unnötig Wärme produziert. Nur für Furmark und OCCT eine Quad-Slot-Karte samt 400W DC/DC-Wandler zu bauen ist einfach Mumpitz.
nVidia hat es meiner Meinung nach richtig gemacht. In Spielen drosselt sie nicht und raucht auch nicht ab. So what? Gib' lieber mal Ausfallszahlen an, die auf normalen, heutigen Spielen basieren und nicht jene Ausfälle die übertaktet, mit deaktiviertem Schutz und sinnloser Software aufgetreten sind. Erst wenn sich dort ein signifikanter Ausfall zeigt, ist es berechtigt Kritik an nVidia zu üben.
Grüße,
Zeph
joe kongo
2011-04-27, 16:53:55
Klar, wer die Grafikkarte mit der CPU bedrosselt braucht auch weniger Strom.
Wie schon geschrieben, es wäre designtechnischer Blödsinn, die Karte auf eine Anwendung auszulegen die mit der Realität nichts zu tun hat und nur unnötig Wärme produziert.
Schlicht eine Behauptung ohne Beweis, selbst wenn du ein 3dEngineGuru sein würdest kannst du nicht in die Zukunft blicken bzw gibt es immer Leute die besser sind weil sie aus der Hardware noch mehr rauskitzeln können.
Stalker SOC mit Mod aus 2009 heizt die GPU auf 85 Grad auf, ist rein DX9 und eine alte Engine, die weis noch gar nichts von DX10 oder 11.
Wie gross würdest du die Reserven zwischen Furmark und einer gut
fordernden, modernen, eventuell die Fermi Architektur ausnützende 3D Engine
ansetzen, 50%, 30% oder vieleicht doch nur 15% ?
Egal welcher Wert, es bleibt ein (unverantwortliches) Ratespiel.
Stalker SOC mit Mod aus 2009 heizt die GPU auf 85 Grad auf, ist rein DX9 und eine alte Engine, die weis noch gar nichts von DX10 oder 11.
Das ist auch völlig egal, die Grafikkarte interessiert es nicht ob sie für ein DX9, DX10 oder DX11-Spiel rechnet, oder ob die Berechnungen für CUDA sind.
joe kongo
2011-04-27, 19:30:06
Ein paar Recheneinheiten werden schon brach liegen, oder ?
edit: sonst würden ja alle Karten DX11 können wenns egal wäre
Zephyroth
2011-04-27, 19:40:15
Schau, ich gehör' einfach zu den Leuten, die sich freuen eine flotte, nicht throttelnde Karte im Rechner zu haben. Ebenso bin ich mir sicher, das die nVidia-Ingenieure Mittel und Wege haben, sinnvolle Algorithmen auf Auslastung zu durchforsten.
Es ist ein Gesetz der Mathematik, das Berechnungen in einem Algorithmus von einander abhängen. Folglich wirst du nie alle Rechenwerke gleichzeitig voll auslasten können.
Einem Programm, das auf Heizen ausgelegt ist, dem sind solche Zusammenhänge egal, das erklärt auch, warum die Leistungsaufnahme so exorbitant hoch ist.
Was Stalker angeht, nun, was ist denn die normale Temperatur deiner Karte? Wenn sie bei 75°C liegt (nur so als Beispiel), dann bedeutet ein Anstieg von 10°C einen Leistungszuwachs von ca. 20W. Das stört weder die GPU noch die Wandler.
Läßt du hingegen Furmark ungethrottelt los, dann steigt die Leistung auf das Doppelte! Klar das keine Hardware der Welt darauf ausgelegt wird.
Du kannst weiter auf deinem Standpunkt beharren, das ist dein gutes Recht. Aber es ist genau so sinnvoll wie mit Furmark eine Grafikkarte zu grillen. Außerdem, wenn sie so schlecht wäre, könntest du sie ja zurückgeben. Aber offenbar stimmt ja die Grafikleistung in Spielen...
Grüße,
Zeph
Es ist ein Gesetz der Mathematik, das Berechnungen in einem Algorithmus von einander abhängen. Folglich wirst du nie alle Rechenwerke gleichzeitig voll auslasten können.
Das ist so nicht richtig. Grafikkarten haben schließlich eine Pipeline.
joe kongo
2011-04-27, 20:45:34
Läßt du hingegen Furmark ungethrottelt los, dann steigt die Leistung auf das Doppelte! Klar das keine Hardware der Welt darauf ausgelegt wird.
Wie sich die Welt innerhalb von 2 Jahren ändern kann...
Zephyroth
2011-04-27, 22:48:06
Was hat sich denn geändert?
joe kongo
2011-04-28, 00:18:47
Der letzte Satz im Zitat.
Zephyroth
2011-04-28, 09:17:02
Ok, zugegeben. Keine Hardware der Welt ist übertrieben. Korrekterweise müßte es heißen: "Hardware der neuesten Generation"
Aber schauen wir uns an, was sich nicht geändert hat: Die Größe
Verglichen mit der GTX2xx sind die GTX5xx kaum größer, bieten aber mehr als die doppelte Grafikleistung. Im Gegenzug ist die Verlustleistung aber nicht im gleichen Maße gestiegen (etwa 50W mehr).
Faktisch muß das Ding mit dem selben Kühlkörper auskommen, der auch schon die GTX2xx bedient hat. Sicher es gab mit der Vaporchamber eine Detailverbesserung, dies kann die höhere Verlustleistung aber nicht abfangen, was man auch deutlich am höheren Geräuschpegel merkt.
Das einzige was passiert ist in den letzten 2 Jahren ist, das man an die Grenzen des Machbaren bei der Luftkühlung in dieser Größe angelangt ist. Aber anstatt Triple- oder Quadkühllösungen (was für die meisten unpraktikabel wäre) anzubieten, hat man die Leistung in realen Anwendungen durchforstet und gesehen, das damit die Dualslot-Lösung immer noch ausreicht. Einzig die Streßprogramme (und fehlerhafte SW wie SCII) muß man irgendwie begrenzen.
Ich sehe derzeit auch kein Problem mit neuerer Software, bzw. keine plötzliche Leistungsexplosion, weil man einen revolutionären neuen Algorithmus gefunden hat. 20-30W mehr ist sowieso kein Thema, 130W mehr wie in Furmark hingegen schon.
Ein Lösungsansatz wäre, das sich einige Boardpartner zu einem eigenen Design durchringen (stärkere Spannungsversorgung und Kühlung) und diese Karten ohne Begrenzung ausliefern. Allerdings wird der Kundenkreis aufgrund der Einschränkungen ähnlich sein wie für SLI-Systeme:
+ Triple- oder Quad-Slot
+ 2x 8polige PCIe Stromversorgung (wobei das außerhalb der PCIe-Spezifikation ist)
+ Preis (der für eine Furmarkfeste GTX580 aufgrund der Kühllösung, der geringen Stückzahl und der teureren Wandler irgendwo bei 700€ liegen dürfte)
Auf deutsch: Man wird kaum Kunden dafür finden. Die meisten würden dann eher eine GTX590 nehmen. Die ist zwar auch nicht furmarkfest, aber um einiges schneller als eine GTX580. Selbst mit bösester Übertaktung bringt man eine GTX580 nicht auf die Geschwindigkeit einer GTX590, selbst wenn sie furmarkfest ist.
Grüße,
Zeph
Noebbie
2011-04-28, 10:02:24
Ich habe im Detail nicht wirklich Ahnung davon und bin wieder Neueinsteiger bei nVidia Karten. Daher frage ich mal aus Interesse:
Die Karten werden also praktisch nur wegen der extremen Abwärme gedrosselt? Die Bauteile selber würden aber die Leistungsanforderungen, eben halt abgesehen von der Wärme, verkraften? Somit wäre ja nicht die rohe Karte selber, sondern eher das drum herum bzw die Kühlkonstruktion eine Fehlkonstruktion, um mal diesen zuvor benutzten Begriff wieder zu verwenden. Vielleicht ist desshalb auch der Trend zu den abgefahrenen Eigenentwicklungen wie z.b. der 570er Phantom o.ä. zu erklären. Zudem hat die auch einen 8+6 pin Stromanschluss.
Auf diese Drosselung könnte man dann also auch verzichten, wenn die Karten komplett mit Wasser gekühlt würden?
Oder schmort mir die Stromverkabelung vom NT zur GraKa oder gar der PCIe Sockel weg, wenn ich mal mit der GTX 570 eine Stunde furmarke?
LovesuckZ
2011-04-28, 10:32:21
Furmark stellt im Grunde keine Probleme dar. Die Kühlleistung reicht vollkommen aus, um im Furmark unter der maximalen Kerntemperatur zu bleiben.
Man begrenzt es aus rein marketingtechnischen Gründen.
Ein paar Recheneinheiten werden schon brach liegen, oder ?
Sicher, nur ist das unabhängig von der API
edit: sonst würden ja alle Karten DX11 können wenns egal wäre
Die GPU muss mehr können um DX11-kompatibel zu sein, das heißt nicht dass man die Rechenwerke nicht auch mit DX9 auslasten kann.
Zephyroth
2011-04-28, 11:05:25
Ich habe im Detail nicht wirklich Ahnung davon und bin wieder Neueinsteiger bei nVidia Karten. Daher frage ich mal aus Interesse:
Die Karten werden also praktisch nur wegen der extremen Abwärme gedrosselt? Die Bauteile selber würden aber die Leistungsanforderungen, eben halt abgesehen von der Wärme, verkraften?
Auf diese Drosselung könnte man dann also auch verzichten, wenn die Karten komplett mit Wasser gekühlt würden?
Oder schmort mir die Stromverkabelung vom NT zur GraKa oder gar der PCIe Sockel weg, wenn ich mal mit der GTX 570 eine Stunde furmarke?
Ja, das vermute ich. Die Karten werden wegen der enormen Abwärme gedrosselt. Zumindest GPU und RAM können die volle Leistung, solange man sie auf zulässigem Temperatuniveau hält. Das große Fragezeichen sind die Spannungswandler, ob diese ebenfalls auf die volle Leistung ausgelegt wurden. Wenn ja, kann man auch diese mit Kühlung zu Bestleistungen verhelfen. Sind sie hingegen auf die maximale Designleistung ausgelegt wird es problematisch, da dir die Spulen abbrennen können.
Wegen der Stecker und Kabel zu der GraKa hin würde ich mir keine Sorgen machen, die Dinger können wesentlich mehr Strom ab, als die Spezifikation hergibt. Allerdings sollte man im Hinterkopf behalten, das bei hoher Last zuviel Spannung abfallen kann, so das die +12V-Spezifikation eventuell nicht eingehalten wird.
Furmark stellt im Grunde keine Probleme dar. Die Kühlleistung reicht vollkommen aus, um im Furmark unter der maximalen Kerntemperatur zu bleiben.
Man begrenzt es aus rein marketingtechnischen Gründen.
Welche marketingtechnische Gründe?
Die Kühlleistung reicht für die GPU und den RAM aus, nicht aber für die Spannungsregler, die bei so einem Test gnadenlos abrauchen können. Die GPU-Kerntemperatur ist eben nicht alles.
Grüße,
Zeph
Ph0b0ss
2011-04-28, 11:39:13
Kann man denn nicht einfach anhand der verbauten Bauteile für die Spannungswandler ausrechnen, wie viel diese an Leistung maximal zur Verfügung stellen können?
Ja, das vermute ich. Die Karten werden wegen der enormen Abwärme gedrosselt. Zumindest GPU und RAM können die volle Leistung, solange man sie auf zulässigem Temperatuniveau hält. Das große Fragezeichen sind die Spannungswandler, ob diese ebenfalls auf die volle Leistung ausgelegt wurden. Wenn ja, kann man auch diese mit Kühlung zu Bestleistungen verhelfen. Sind sie hingegen auf die maximale Designleistung ausgelegt wird es problematisch, da dir die Spulen abbrennen können.
Wegen der Stecker und Kabel zu der GraKa hin würde ich mir keine Sorgen machen, die Dinger können wesentlich mehr Strom ab, als die Spezifikation hergibt. Allerdings sollte man im Hinterkopf behalten, das bei hoher Last zuviel Spannung abfallen kann, so das die +12V-Spezifikation eventuell nicht eingehalten wird.
Welche marketingtechnische Gründe?
Die Kühlleistung reicht für die GPU und den RAM aus, nicht aber für die Spannungsregler, die bei so einem Test gnadenlos abrauchen können. Die GPU-Kerntemperatur ist eben nicht alles.
Grüße,
ZephDurch Furmark kommt es zur erhöhten Stromaufnahme, welche oberhalb des vom Hersteller festgelegten TDP-Bereichs liegt. Wegen dieser wird abgeregelt.
joe kongo
2011-04-28, 12:48:18
Oder schmort mir die Stromverkabelung vom NT zur GraKa oder gar der PCIe Sockel weg, wenn ich mal mit der GTX 570 eine Stunde furmarke?
Die GTX570 im Referenzdesign benutzt die gleiche Leiterplatte wie die
die 580. Zwei von den 6 Phasen der GPU Versorgung sind nicht bestückt
=> 90% TDP, 66% GPU Stromversorgung (sofern die Bauteile identisch sind, ich geh mal davon aus)
Das damit die GTX580 unter Furmark ausreichend versorgt werden kann,
ist so nicht gesagt, aber bei der GTX570 wirds noch knapper.
Zephyroth
2011-04-28, 12:54:59
Durch Furmark kommt es zur erhöhten Stromaufnahme, welche oberhalb des vom Hersteller festgelegten TDP-Bereichs liegt. Wegen dieser wird abgeregelt.
Ja, aber das ist eine technische und keine marketingmäßige Limitierung...
Grüße,
Zeph
LovesuckZ
2011-04-28, 13:01:19
Ja, aber das ist eine technische und keine marketingmäßige Limitierung...
Grüße,
Zeph
Es ist eine marketingtechnische Limitierung. Ersten gibt es kein Problem mit Furmark - weder bei GTX4xx noch bei den GTX5xx Karten. zweitens will man eben bestimmte Maximalwerte nicht überschreiten, weil sie irgendwelche psychologische Grenzen darstellen.
Zephyroth
2011-04-28, 13:33:28
Es ist eine marketingtechnische Limitierung. Ersten gibt es kein Problem mit Furmark - weder bei GTX4xx noch bei den GTX5xx Karten.
Wieso gibt's dann solche threads (ok, nicht alle, aber viele sind dort an Furmark gestorben):
http://www.xtremesystems.org/forums/showthread.php?t=266026
zweitens will man eben bestimmte Maximalwerte nicht überschreiten, weil sie irgendwelche psychologische Grenzen darstellen.
Das ist deine persönliche, technisch nicht haltbare Annahme.
Das was du als psychologische Grenze hinstellst ist eine ganz reale, die maximal erlaubte Stromaufnahme laut PCIe-Spezifikation. Und die liegt bei der GTX570 bei 225W und bei der GTX580 bei 300W. Das die meisten Netzteile, Stecker und Boards mehr können ist klar, aber nVidia muß garantieren, das die Karte in einem Worst-Case-Fall, der gerade die PCIe-Spec erfüllt ebenfalls funktioniert. Mehr noch, nVidia darf keinen Schaden an der restlichen Hardware riskieren, was aber bei Überschreiten der Spec aber nicht auszuschließen ist. Und im Klage-Land USA ist sowieso Vorsicht geboten mit sowas. Nicht alle sind Freaks wie wir hier, die wissen, wie stark ein NT sein muß. Es gibt auch Vollhonks, die eine GTX580 mit einem 600W-China-Böller betreiben, der dann im Extremfall abbrennen kann.
Als Hardwaredesigner (der auch schon PCI-Karten gebaut hat) mit 11 Jahren Praxis traue ich mir schon zu, sowas beurteilen zu können. Zum anderen war ein großes Thema bei mir die Dimensionierung von Kühlkörpern, daher weis ich auch ungefähr was man mit welcher Größe wegbekommen kann. Das wirkliche Limit ist die Kühlung der GTX5xx. Die GPU, der RAM und die Wandler kann man auf höhere Ströme auslegen, den Kühlkörper ohne massive Vergrößerung nicht mehr...
Wir sprechen also von ganz realen Limits, nichts was aus der Luft gegriffen ist oder gar marketingtechnischem Ursprung.
Grüße,
Zeph
LovesuckZ
2011-04-28, 13:45:51
Wieso gibt's dann solche threads (ok, nicht alle, aber viele sind dort an Furmark gestorben):
http://www.xtremesystems.org/forums/showthread.php?t=266026
Technik geht nunmal kaputt. Und das vollkommen unabhängig vom Anwendungsgebiet.
Dazu kommt, dass die Leute die Spannung erhöht haben. Ich meine, wenn dann noch Dummheit auftritt, ist dies doch gerade der Grund, warum jemand solche Anwendungen wie Furmark beschränkt...
Das ist ein bisschen vergleichbar mit der GTX590, wobei hier die Platine eben nicht vernünftig ausgelegt wurde. Aber das in Kombination mit 30% höhrerer Spannung führt eben zu eineim kleinen KaBoom.
Das ist deine persönliche, technisch nicht haltbare Annahme.
"Technisch nicht haltbar"? Woot?
Eine GTX590 kann gemütliche 450 Watt abführen. Wieso sollte man dann Karten bauen, die man für bestimmte Anwendungen drosseln muss? Richtig, weil es reine marketingtechnische Gründe sind.
Das was du als psychologische Grenze hinstellst ist eine ganz reale, die maximal erlaubte Stromaufnahme laut PCIe-Spezifikation. Und die liegt bei der GTX570 bei 225W und bei der GTX580 bei 300W. Das die meisten Netzteile, Stecker und Boards mehr können ist klar, aber nVidia muß garantieren, das die Karte in einem Worst-Case-Fall, der gerade die PCIe-Spec erfüllt ebenfalls funktioniert.
Ich sage es doch - Marketing. Ich will, dass meine Karte in einem bestimmten Bereich sich aufhält. Statt die Hardware so auszurichten, dass keine Software diese Grenze überschreitet, wird einfach eine minderwertige Platine entwickelt und böse Software gedrosselt. Die Ironie ist, dass niemand weiß, ob solche Spitzen nicht auch mit anderer Software erreicht werden können.
AMD's automatische Drossel greift bei der 6970 und 6990 schon in Metro2033. Tests mit SSAA gibt es kaum - wer weiß, in welchen Spiel die Drossel ebenfalls eingreift, wenn man SSAA anwendet.
Wir sprechen also von ganz realen Limits, nichts was aus der Luft gegriffen ist oder gar marketingtechnischem Ursprung.
Grüße,
Zeph
Die Kühlung ist kein Problem. Niemand verwendet High-End Hardware in lüfterlosen Gehäusen. Eine GTX480 schaffte Furmark locker mit der normalen Standardlüftung.
Egal wie man es handhabt, es ist eine reine marketingtechnische Entscheidung.
Zephyroth
2011-04-28, 14:01:44
Ich sage es doch - Marketing. Ich will, dass meine Karte in einem bestimmten Bereich sich aufhält.
Aha, das Einhalten einer Spezifikation, die von außen vorgegeben ist, ist für dich nur eine marketingtechnische Entscheidung. Dann ist die maximale Breite von LKW's von 2.5m für dich auch nur Marketinggewäsch. Das es vielleicht technische Gründe (wie die Breite der Straße, der Einfahrten etc.) gibt, ist ebenfalls nur Marketing?
Statt die Hardware so auszurichten, dass keine Software diese Grenze überschreitet, wird einfach eine minderwertige Platine entwickelt und böse Software gedrosselt.
Das ist derzeit technisch nicht machbar, will man das Ding auch noch zu einem leistbaren Preis verkaufen. Das ist schon die einzige marketingtechnische Einschränkung. Aber was bringt einem eine furmarkfeste Karte, die sich nicht verkauft?
Ich bin ziemlich sicher, das viele die hier wegen dieser Limitierung ganz laut herumposaunen, die ersten sind, die zu einer normalen GTX5xx greifen, würden sie den Preis einer furmarkfesten Karte wissen.
Die Ironie ist, dass niemand weiß, ob solche Spitzen nicht auch mit anderer Software erreicht werden können.
AMD's automatische Drossel greift bei der 6970 und 6990 schon in Metro2033. Tests mit SSAA gibt es kaum - wer weiß, in welchen Spiel die Drossel ebenfalls eingreift, wenn man SSAA anwendet.
Das ist auch eine Annahme von dir, das nVidia ihre Hausaufgaben nicht gemacht haben. Ich traue es Grafikspezialisten durchaus zu, zu wissen, welche Algorithmen ihre GPU sinnvoll auslastet und welchen Energieverbrauch das Ding dabei hat. Ich verwend' inzwischen bei fast allen Spielen SGSSAA, die GPU ist auf 100%, die Temperatur bei 87°C, dennoch werkt meine GTX570 unverzagt und unbedrosselt. So what?
Daher nochmal die Frage: Was bringt euch eine furmarkfeste Karte?
Bis jetzt hat mir noch keiner bei nVidia ein Throtteln in Spielen zeigen können. Die Ausfallszahlen der Fermis ist auch nicht höher als von anderen Karten.
Grüße,
Zeph
MartinRiggs
2011-04-28, 14:07:06
Ich habe schon viel Schrott gelesen aber das übertrifft wirklich alles.
Natürlich sind wir langsam am technischen Limit und daher muß die Karte gedrosselt werden, mit Marketing hat das ganze mal überhaupt nichts zu tun.:rolleyes:
joe kongo
2011-04-28, 14:35:06
Daher nochmal die Frage: Was bringt euch eine furmarkfeste Karte?
Das wird ein Eisbär nie verstehen :D.
Zephyroth
2011-04-28, 14:49:34
You made my day! X-D
So soll's doch sein, immer noch zu Scherzen aufgelegt, trotz unterschiedlicher Standpunkte. Ich kann's ja verstehen, warum euch diese Limitierung so aufregt, ich versuch ja nur euch einen tieferen Einblick in Designentscheidungen zu geben, die möglicherweise zu der Limitierung geführt haben.
Ich wär ja auch anbiss'n, wenn mein Auto auf 160km/h limitiert wäre, obwohl nur 130km/h erlaubt sind.
Wobei man fairereweise sagen muß, daß bei nVidia äußere Umstände zu diesen Limitierungen führen. Das ist in etwa so, als dürfte man auf den Straßen nur 160km/h-Reifen fahren. Obwohl dein Auto mehr kann muß man es limitieren, weil's sonst Schaden am System (oder dir selber) gibt.
Grüße,
Zeph
Wieso gibt's dann solche threads (ok, nicht alle, aber viele sind dort an Furmark gestorben):
http://www.xtremesystems.org/forums/showthread.php?t=266026
[...]So wie ich das mitbekommen hab, wurden die gekillt, weil im GrakaBios die VCore erhöht wurde.
Noebbie
2011-04-28, 15:07:11
Damit ich hier was lernen kann:
Wie sehen diese Spannungswandler denn aus? Sollten doch diese schwarzen Blöcke wie bei der CPU sein, oder? Da werden doch mittlerweile auch nur noch digitale verbaut und diese werden, so weit ich weiß, schweine heiß! Würde da mal gern einige Platinen miteinander vergleichen, zumindest optisch in Verbindung mit der Kühlung!
Zephyroth
2011-04-28, 15:30:09
Digitaler VRM heißt auch nur Schaltregler. Bis jetzt hab' ich noch keinen Unterschied zu normalen Schaltreglern gefunden. Aber egal.
Die Regler bestehen aus mehreren Teilen:
http://www.abload.de/img/vrm_components6mes.jpg
Links, rot: Induktivitäten
Mitte, grün: Leistungstransistoren
Rechts, orange: Steuerchips
Standardmäßig gekühlt werden die Steuerchips und Leistungstransistoren, die Induktivitäten muß man normalerweise nicht kühlen, die sind auf die benötigten Ströme so ausgelegt, das dies nicht notwendig ist. Aber hier beginnt das Problem, erhöht man den Strom steigt die Verlustleistung in den Chips und Induktivitäten quadratisch.
Grüße,
Zeph
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.