Archiv verlassen und diese Seite im Standarddesign anzeigen : "Optimale Taktraten ermitteln" bei msi GF 6800 GT
Hallo Leute!
ich habe letzte Woche eine msi GF 6800 GT 256 MB (350/1000 Mhz) eingebaut und es läuft soweit alles super.
Nun wollte ich die Karte übertakten und habe mittels RivaTuner im nVidia-Treiber die Übertaktregler freigeschaltet. Ich wusste jedoch nicht genau, wie hoch ich takten kann, also habe ich vorsichtshalber den Treiber die "optimalen Taktfrequenzen" (was auch immer das genau bedeuten mag) ermitteln lassen. und dabei herausgekommen ist folgendes: 405/1107 Mhz! :eek:
Ich habe diese Einstellungen übernommen und mittels 3D Mark 2005 gecheckt, ob irgendwelche Bildfehler auftreten. Ich habe den Benchmark und die Demo von 3D Mark 2005 zweimal durchrattern lassen. Bildfehler gab es keine, die Temperatur stieg um "nur" etwa 6°C an und pendelte sich bei 59/60°C ein. Danach habe ich den Takt wieder auf die Werkeinstellungen eingestellt.
Meine Frage: Ist das normal, dass man eine Karte derart hoch takten kann? Das ist doch immerhin ein schlagartiges Plus von +55/107 Mhz! Ich bin lieber etwas vorsichtiger und frage daher die Expertien hier um Rat, ob eine solch hohe Einstellung irgendwie meine Karte über kurz oder lang beschädigen oder ob man mit den hohen Taktfrequenzen problemlos arbeiten kann? Ich habe leider keine allzu grosse Ahnung vom Übertakten.
Für Antworten bedanke ich mich
Grüsse
Plüg
Da geht sogar noch mehr. Meine GF6800GT hat auch Stock 350/500 und erste Artefakte gibts erst bei 426/1130, so dass ich locker 420/1120 laufen lassen kann. Bei guter Kuehlung ist das kein Problem.
Ich wuerde dir AtiTool empfehlen, das laeuft seit ein paar Betas auch mit Nvidia und die kannst direkt den Takt hochdrehen und im 3D Fenster nach Fehlern suchen lassen. Und du kannst die Karte auf richtig stressen um sicher zu stellen, dass es keine Fehler bei dem Level gibt. Ausserdem ermittelt das Tool das wirkliche Limit welches Fehlerfrei bei Core un Mem gefahren werden kann, das war bei mir 422/1124.
Hier gibts das: http://fileforum.betanews.com/detail/1074728381/1
S@uDepp
2005-10-12, 12:24:31
Jepp das ist normal....
Aber die "automatische Erkennung" des Max. taugt eh ned viel....
Arbeite Dich am besten ran.....
1. man nehme irgendein GraKalastiges Spiel (eines der großen drei, oder Painkiller )
2. AA und AF aufzünden damit die GPU auch was zu tun hat
3. Taktraten von dem von Dir ermittelten Wert langsam - also um ca. je 5MHz anheben
4. Hier kommt der Spaß --> Zocken
Dabei dann auf Abstürze bzw. Bildfehler achten. Jeweils ne Viertelstunde oder etwas mehr zocken - dann ne Stufe weiter.
Wichtig ist:
Beim Rivatunter den "alternate startup daemon" aktivieren und ALLE DREI Taktraten gleich hoch setzen!
Gleichzeitig den TempMoni laufen lassen und schau, daß Du irgendwie unter 80°C bleibst. Mehr geht zwar auch aber man will ja ne zeitlang was von der Hardware haben oder?! ;)
Wenns Fehler oder den sog. StutterBug gibt, geh wieder je um 5MHz runter - feddich ist die Übertakterei.
Greets & good luck
S@uDepp
S@uDepp
2005-10-12, 12:26:01
P.S. ... was hast DU eigentlich sonst im Gehäuse Stecken?!
TobiWahnKenobi
2005-10-12, 12:39:58
einfach zum testen die natur-szenen aus den 3D murksen @1280x1024 mit 4xAA loopen lassen.
ansonsten hat sich auch rep.commando in 1280 /4xAA als guter temp-last-bildfehler-test erwiesen. aber das spiel hat nicht jeder.
(..)
mfg
tobi
HolyMoses
2005-10-12, 12:42:16
hmm,rivatuner hab ich schon lange nicht mehr getestet.mit dem kann man auch die temps aufzeichnen lassen,oder?
TobiWahnKenobi
2005-10-12, 12:47:02
hmm,rivatuner hab ich schon lange nicht mehr getestet.mit dem kann man auch die temps aufzeichnen lassen,oder?
sicher, nur weiss ich nicht, wie. ich benutze das rivatuner dings nicht und hab' eigentlich auch noch nie verwendung dafür gehabt.
(..)
mfg
tobi
P.S. ... was hast DU eigentlich sonst im Gehäuse Stecken?!
Da hast Du ganz Recht, man will ja was von seiner neuen Grafikkarte haben, darum geht es mir im Grossen und Ganzen auch. :D Ich will nicht, dass mein GPU oder sonstwas abraucht.
Ich habe einen AMD Athlon 64 3200+, 2 Gigabyte DDR-RAM, ein 420 W Netzteil, einen SoundBlaster Live! 1024, eine 120 GB HD und eben meine msi GeForce 6800 GT 256 im Gehäuse auf einem ASUS 8irgendwas mit AGP 8x verbaut. Über Lüfter und derartiges kann ich keine Auskunft geben, da ich es nicht genau weiss. Aber das System läuft erstaunlich ruhig, auch unter Vollast (also beim daddeln :wink: ) Den Kühler auf der Grafikkarte habe ich nicht ausgewechselt, ein Aktivkühler und dieses wärmeableitende Metall (Kupfer?).
Die Grafikkarte betreibe ich unter folgenden Einstellungen: Qualität, 4x AA und 8x AF.
Wow, vielen Dank für die Antworten! :) Jetzt bin ich doch wieder beruhigt.
TobiWahnKenobi
2005-10-12, 13:05:33
wenn du im CP irgendwelche einstellungen erzwingst, bekommst du nie die optimale performance. ich habe irgendwann man festgestellt, dass es am besten ist, den treiber auf standard laufen zu lassen und die AA/AF einstellungen im menu des jeweiligen spiels vorzunehmen.
im treiber kann man rumfummeln, wenn man vom gesehenen gelangweilt ist, oder wenn man versucht, texturflimmern in spiel XY zu reduzieren.
(..)
mfg
tobi
wenn du im CP irgendwelche einstellungen erzwingst, bekommst du nie die optimale performance. ich habe irgendwann man festgestellt, dass es am besten ist, den treiber auf standard laufen zu lassen und die AA/AF einstellungen im menu des jeweiligen spiels vorzunehmen.
im treiber kann man rumfummeln, wenn man vom gesehenen gelangweilt ist, oder wenn man versucht, texturflimmern in spiel XY zu reduzieren.
(..)
mfg
tobi
Echt? Das wusste ich nicht. Danke für den Tipp, muss ich mal ausprobieren.
btw: was ist eigentlich der Unterschied zwischen 4x AA und 4x Supersampling? Oder ist das dasselbe?
Ach ja, noch eine Frage (sorry): Muss ich den GPU-Taxt irgendwie proportional zum Memory-Takt auf der GraKa erhöhen?
GPU und Mem Takt sind voellig unzusammenhaengend. Da gibt es keine Proportionalitaet oder Mutliplikator oder sowas wie bei CPUs (CPU und BUS)
Warum benutzt eingenlich keine das ATITool hier?
Echt? Das wusste ich nicht. Danke für den Tipp, muss ich mal ausprobieren.
btw: was ist eigentlich der Unterschied zwischen 4x AA und 4x Supersampling? Oder ist das dasselbe?
Ach ja, noch eine Frage (sorry): Muss ich den GPU-Taxt irgendwie proportional zum Memory-Takt auf der GraKa erhöhen?
Zum AA:
4 x 4 Supersampling ist nicht das gleiche wie 4 x AA. Es glättet alle Kanten (z.B. in Half Life 2 auch die Zäune...) und das Bild wird durch den vierfachen Supersampling Anteil schärfer, ähnlich wie beim AF. 4 x 4 Supersampling geht nur bis zu einer Auflösung von max. 1024 x 768. Achtung: Es kostet deutlich mehr Performance als 4 x AA!
Zum Übertakten:
Nein, musst den GPU nicht proportional zum RAM Takt erhöhen. Kannst du machen wie du lustig bist.
alpha-centauri
2005-10-12, 14:27:51
Warum benutzt eingenlich keine das ATITool hier?[/QUOTE]
weils keiner kennt?
übrigens haben die "optimalen taktraten" von nvidia nur um wenige mhz neben dem gelegen, was ich per hand aus der 6600GT rausholen konnte.
Zum AA:
4 x 4 Supersampling ist nicht das gleiche wie 4 x AA. Es glättet alle Kanten (z.B. in Half Life 2 auch die Zäune...) und das Bild wird durch den vierfachen Supersampling Anteil schärfer, ähnlich wie beim AF. 4 x 4 Supersampling geht nur bis zu einer Auflösung von max. 1024 x 768. Achtung: Es kostet deutlich mehr Performance als 4 x AA!
Zum Übertakten:
Nein, musst den GPU nicht proportional zum RAM Takt erhöhen. Kannst du machen wie du lustig bist.
Ach so, alles klar Danke schön. :)
@Gast: Ich habe das ATi-Tool bisher nicht benutzt, weil ich zum einen nichts davon wusste und zum anderen beim Namen ATi Tool nie auf die Idee gekommen wäre, es im Zusammenhang mit einer nVidia-Karte zu benutzen. Aber wenn das funktioniert dann werde ich es mir auf jeden Fall mal ansehen. Danke für den Tipp.
Ja, ich denke, dann kanns ja dank Eurer Hilfe losgehen. :D
Ist eigentlich Power Strip aus der Mode gekommen?
TobiWahnKenobi
2005-10-12, 14:54:24
das ATI tool ist sinnvoll, um zu testen, ob die eingestellten taktraten sauber funzen. das stimmt weitgehend mit der automatischen auswürflung des treibers überein.
es sollte auch nicht die frage sein, ob vielleicht mit anderen tools doch noch mehr geht, als die automatik auswürfelt, da sie kein zufallsgenerator ist, sondern ein lasttest.
im grossen und ganzen ist das ein wert, der sich selten irrt. auch wenn irgendein altes spiel oder ein alter benchmark vielleicht auch noch mit 20mhz fehlerfrei durchläuft. aber diese erfahrung wird bei zeiten schon jeder selbst machen.
powerstrip ist nicht aus der mode - aber halt ein überflüssiges tool, wenn man nicht wirklich eine spezielle funktion zur monitor-ansteuerung benutzen will.
für die NV karte reicht eigentlich der treiber zusammen mit atuner, völlig aus.
vielleicht für testfreien zugriff auf die taktregler oder zur beeinflussung der lüfterdrehzahl noch das expert-tool. lange rede, kurzer sinn: der treiber bringt eigentlich alles mit, was man braucht.
(..)
mfg
tobi
das ATI tool ist sinnvoll, um zu testen, ob die eingestellten taktraten sauber funzen. das stimmt weitgehend mit der automatischen auswürflung des treibers überein.
es sollte auch nicht die frage sein, ob vielleicht mit anderen tools doch noch mehr geht, als die automatik auswürfelt, da sie kein zufallsgenerator ist, sondern ein lasttest.
im grossen und ganzen ist das ein wert, der sich selten irrt. auch wenn irgendein altes spiel oder ein alter benchmark vielleicht auch noch mit 20mhz fehlerfrei durchläuft. aber diese erfahrung wird bei zeiten schon jeder selbst machen.
powerstrip ist nicht aus der mode - aber halt ein überflüssiges tool, wenn man nicht wirklich eine spezielle funktion zur monitor-ansteuerung benutzen will.
für die NV karte reicht eigentlich der treiber zusammen mit atuner, völlig aus.
vielleicht für testfreien zugriff auf die taktregler oder zur beeinflussung der lüfterdrehzahl noch das expert-tool. lange rede, kurzer sinn: der treiber bringt eigentlich alles mit, was man braucht.
(..)
mfg
tobi
Ach so. Dann kann ich mich also in dem Fall ruhigen Gewissens auf den vom Trieber ermittelten optimalen Taktwert verlassen, ohne meine Hardware ernsthaft in Gefahr zu bringen, wenn ich das richtig verstanden habe.
Es ist nicht mein Ziel die Hardware bis an ihr Limit zu übertakten, sondern lediglich die bestmögliche Leistung mit optimaler Stabilität verbinden. :)
Sind eigentlich bei einer GeForce 6800 GT alle Pipelines offen, oder kann man da noch welche freischalten? Ist das überhaupt möglich? Ich habe irgendwo gelesen, dass ein solches Vorhaben ab einer gewissen Generation von Chip nicht durchführbar sei (HW-Sperre).
P.S. Ich entschuldige mich sehr für meine Fragerei. Ist sicher sehr mühsam. :redface:
alpha-centauri
2005-10-12, 16:16:45
sinn: der treiber bringt eigentlich alles mit, was man braucht.
im gegensatz zu atis treiber.
Banshee18
2005-10-12, 18:17:28
Bei einer 6800GT kannst du keine Pipes mehr freischalten, die sind alle frei.
S@uDepp
2005-10-12, 20:39:54
...neee...
Obi hats doch ned umsonst "Auswürfelung" genannt - das sind HÖCHSTENS Näherungswerte die der Treiber sich da zurecht detected. Mit dem stundenlangen Spielbetrieb hat das nicht viel zu tun - halt ne grobe Orientierung.
Als erstes solltest Du Dich sowieso an die GPU Taktung ranmachen - die bringt in fps mehr als der RAM Takt.... ist auf jeden Fall bei der 6´er Reihe so... ( jaja - alles in Abhängigkeit der Settings - ist schon klar ;) )
Zur SettingEinstellung kann ich nur den nHancer empfehlen - warum bei alten Perlen ála UT gleiche Settings wie z.B. bei FEAR fahren? Ne bessere Profilverwaltung als im nHancer gibbet ned.
ATI Tool ist auch so ne Sache.... genau wie Prime bei CPU´s. Was hilft Dir ne Bench Stabilität wenns im Game verreckt bzw. mehr drin wär?!
Guck Dir Deine Lieblingsgames aus - schmeiss die rein und such nach Fehlern.... wenn keine da sind, dreh den Takt hoch ;) .
....denn zum Spielen sind sie da.....
Greets
S@uDepp
P.S. ... Treiber reicht KEINES FALLS! Denn die "low 3D performance" Option, die ohne RivaTuner IMMER auf den DefaultWerten liegt und bei zu hoher Belastung IMMER von der GPU angeworfen wird taucht darin gar ned auf....
Man taktet also im Treiber hoch, freut sich und fährt effektiv in den Games "nur" DefaultTakt.
alpha-centauri
2005-10-12, 22:42:15
Als erstes solltest Du Dich sowieso an die GPU Taktung ranmachen - die bringt in fps mehr als der RAM Takt....
stimmt nicht. und stimmt nicht.
das stimmt seit meinen messung der privaten ti4200, die leider deutlich weniger % ram als cpu macht.
und das stimmt nachweisslich auch überhaupt und spätestens seit der x1800 xt nicht mehr. denn die rockt gerade WEGEN dem hohen ram takt gegen die gtx (soweit sie das kann).
ich könnte dir auch private benches nachweissen. sagen wir 10% mehr ramtakt : 3dmark punkte vs 10% mehr cpu takt und 3dmark punkte.
ram wird mehr bringen.
ATI Tool ist auch so ne Sache.... genau wie Prime bei CPU´s. Was hilft Dir ne Bench Stabilität wenns im Game verreckt bzw. mehr drin wär?!
was das ati tool angeht, korreliert es zu 99% mit den werten, die ich im mühsamer arbeit über monate aus der GT rausbekommen hab. und das tool muss ich nur anklicken.
ich kanns SEHR empfehlen.
beispiel: core liegt ati bei 563 mhz, ich hab es auf 564 gestellt. jetzt gehe ich noch mal dran, den mem zu testen. und mal schauen, wie weit da die abweichungen sind.
Banshee18
2005-10-13, 00:46:49
Ich hab das neuste Atitool auch mal mit meiner 6800@16/5 getestet und kann es nicht empfehlen.
Als ich den maximalen GPU-Takt herausfinden wollte, hat es bis 373 Mhz hochgetaktet und dann wieder zurück, bis ich bei 250 Mhz abgebrochen habe. Bei jedem "Runtertaktschritt" hat das Tool einen Piepton von sich gegeben, das gleiche beim Ram.
Beim Ram endete das ganze mit einem kurzen, komisch verschwommenen Bluescreen und darauf automatischem Neustart.
Der Treiber schlägt mir jedoch Pi mal Daumen 400/400 vor, was problemlos geht.
Mit meiner früheren 9500@9700 hat es jedoch problemlos funktioniert und ziemlich exakt die maximal mögliche Taktrate herausgefunden.
MfG
Banshee
S@uDepp
2005-10-13, 03:21:25
das stimmt seit meinen messung der privaten ti4200, die leider deutlich weniger % ram als cpu macht.
und das stimmt nachweisslich auch überhaupt und spätestens seit der x1800 xt nicht mehr. denn die rockt gerade WEGEN dem hohen ram takt gegen die gtx (soweit sie das kann)..
Stimmte jedenfalls als die GeForce 6800 GT/Ultra auf den Markt kamen - da zeigte sich ( ich meine bei XBit Labs ) sehr schnell wie sehr die Performance IN DIESEM FALL vom GPU Takt abhängig war. Das sollte auch nach der Einführung der 71.xx´er Treiber erst Recht so sein.... glaub ich ;) zumindest..... da wurd doch alles Shader lastiger odda?
ich könnte dir auch private benches nachweissen. sagen wir 10% mehr ramtakt : 3dmark punkte vs 10% mehr cpu takt und 3dmark punkte.
Mir gehts aber eher um "reale" Games - ned um 3D Mark.
Und wegen der AutoDetecterrei --> Ich weiß ned wies funktioniert, aber wenn man den RivaTuner etwas engmaschiger protokollieren läßt, sieht man wie der Treiber die Graka "hochschaukelt" - jeweils aber nur für ne Sekunde oder zwei - das hat mit RealLife Belastung nicht viel am Hut.... denk ich auf jeden Fall .....
Soll aber jetzt nicht ne "fruchtig!" "Nein! Cremig" Diskussion werden........
Denn immerhin einmal gebe ich Altkanzler Kohl Recht: "Wichtig ist was hinten rauskommt" :)
Das gilt halt auf der Toilette wie bei der Hardware :)
Gutes Gelingen wünscht
S@uDepp
Ich betreibe meine Karte aktuell mit einem GPU-Takt von 433 Mhz und RAM-Takt von 1160 Mhz. Bis jetzt läuft alles bestens, bei einer durchschnittlichen Core-Temperatur von 60°C (gemessen nach einigen Gamedurchläufen) und ziemlich leisem Lüfter. Ich hoffe, das ist nicht zu hoch getaktet. :confused: Bildfehler sind keine aufgetreten, daher gehe ich mal davon aus, dass ich die Karte so betreiben kann.
MagicMat
2005-10-13, 09:57:08
...
für die NV karte reicht eigentlich der treiber zusammen mit atuner, völlig aus.
vielleicht für testfreien zugriff auf die taktregler oder zur beeinflussung der lüfterdrehzahl noch das expert-tool. lange rede, kurzer sinn: der treiber bringt eigentlich alles mit, was man braucht.
mfg
tobi
Eine Alternative zum Expert-Tool gibt es doch nicht oder? Das halte ich nämlich im 2D Desktop-Betrieb für zwingend notwendig, so lange man einen ansonstne ruhigen Rechner besitzt und keine gemoddete 6800. So kann ich die Lüfter bei meiner Karte bequem bei 30% laufen lassen, was doch deutlich angenehmer ist.
S@uDepp
2005-10-13, 11:44:17
Ich betreibe meine Karte aktuell mit einem GPU-Takt von 433 Mhz und RAM-Takt von 1160 Mhz. Bis jetzt läuft alles bestens, bei einer durchschnittlichen Core-Temperatur von 60°C (gemessen nach einigen Gamedurchläufen) und ziemlich leisem Lüfter. Ich hoffe, das ist nicht zu hoch getaktet. :confused: Bildfehler sind keine aufgetreten, daher gehe ich mal davon aus, dass ich die Karte so betreiben kann.
?? ... die DurchschnittsTremp? Also nachm Booten 30° und nachm Zocken 90° oder wie jetzt?!
Wichtig sind ja die Spitzen - lass RivaTuner ma laufen und guck, daß Du nicht über 80°C kommst.
Außerdem, bist Du sicher, daß auch der "low performance 3D" Modus so hoch getaktet ist??
Oder gehen die neuen GT´s sooo gut?
Dann wär ja mit WaKü noch mehr drin.........
Guck bitte nochma genau hin...
Greets
S@uDepp
@MagicMat: RivaTuner 1.7 bietet Lüftersteuerung ;)
Naja, ich halte diese Taktraten von 430+ fuer utopisch. Das Problem, bei meiner 6800GT mit NVSilenceer schleichen sich ab 425 Pixelfehler ein, aber eben nur mal hier einer und da einer. Sowas wird man beim Spielen nie warnehmen. Das AtiTool findet diese aber sehr wohl und es sind wirklich nur einzelne. Ab 430 wirds dann mehr und ab 435 so, dass man auch sehen wuerde. Insofern laeuft die GPU mit 430+ schon mit Pixelfehlern, man kann sie nur so schnell nicht warnehmen, da man bei Spielen wohl kaum einen einzigen Pixel ausmachen kann.
Bei mir hat sich als max 422/1120 bewaehrt, da kommt es selbst nach 60-90 min Stress nicht zu einem Pixelfehler.
?? ... die DurchschnittsTremp? Also nachm Booten 30° und nachm Zocken 90° oder wie jetzt?!
Wichtig sind ja die Spitzen - lass RivaTuner ma laufen und guck, daß Du nicht über 80°C kommst.
Außerdem, bist Du sicher, daß auch der "low performance 3D" Modus so hoch getaktet ist??
Oder gehen die neuen GT´s sooo gut?
Dann wär ja mit WaKü noch mehr drin.........
Guck bitte nochma genau hin...
Greets
S@uDepp
@MagicMat: RivaTuner 1.7 bietet Lüftersteuerung ;)
Naja, wenn ich nicht spiele hat die Karte um die 48 bis 49°C, nach ca. 2 Stunden zocken ist sie auf 60 bis 62°C bei 433/1160 mhz. :smile: Das steht da wirklich so in der Temperaturanzeige im Treiber (der diese Taktraten ermittelt hat) und Riva Tuner gibt nahezu identische Werte aus. Aber vielleicht ist ja der Temp-Sensor defekt? :confused:
Eins verwundert mich ja etwas: Gestern hat der Treiber ganz andere Werte generiert: 405/1107 mhz.
@Gast: Ja, das könnte sicher auch sein, dass ich die Pixelfehler während dem Spielen nicht wahrnehme. Ich muss mir vielleicht wirklich mal mit dem ATi-Tool die Sache genauer ansehen. :smile:
Micha80
2005-10-13, 17:59:26
Eine Alternative zum Expert-Tool gibt es doch nicht oder? Das halte ich nämlich im 2D Desktop-Betrieb für zwingend notwendig, so lange man einen ansonstne ruhigen Rechner besitzt und keine gemoddete 6800. So kann ich die Lüfter bei meiner Karte bequem bei 30% laufen lassen, was doch deutlich angenehmer ist.
Doch, den RivaTuner. Den Lüfter auf meiner 6800GT lasse ich mit 20%/36% laufen. Außerdem läuft RivaTuner nicht im Hintergrund mit. Wirklich ein TOP Tool.
alpha-centauri
2005-10-13, 20:01:16
update: mit der 7800GT funktioniert bei mir nur halbwegs zuverlässig der GPU test.
beim memtest geht es knapp an die 1300 mhz (bei 1000mhz default (!!!)) und da sind schon üble bildfehler aufm desktop, jedoch nicht ein pixelfehler im test.
Also ich habe jetzt das Ati-Tool, den 3D-Mark 05, die nVidia Nalu-Demo und diverse Spiele durchgecheckt. Es traten weder Bildfehler noch sonstige Bild-Abnormalitäten auf. Ich gehe nun wirklich davon aus, dass die Karte den Takt verträgt. Die Temperatur der Karte beträgt aktuell 58°C (der Treiber und RivaTuner sind da gleicher Meinung). Ich denke, ich kann das vorerst so laufen lassen. :) Was mir aufgefallen ist, ist, dass das ATi-Tool den Core/RAM-Takt meiner Grafikkarte nicht anzeigt. Diesbezüglich weiss ich allerdings nicht warum. :confused:
Durchgecheckte Spiele (30 min. und mehr):
HL2
Doom3
FarCry
X2
Thief 3
Splinter Cell 3
S@uDepp
2005-10-14, 10:23:11
@Plüg:
Ich musses nochmal ansprechen... ;)
Sind ALLE DREI Taktraten bei ca. 430/1150 ? Wenn ja, dann muss der Rechner in Ommas Tiefkühltruhe stehen.
Die Werte sind eh schon traumhaft für ne AGP GT mit Standardkühler, aber dann mit den üblichen drei Spannungswandlern an Board auch nur 62 max.Temp unter Last?!
Da is was faul...... vielleicht doch der "low 3D performance" Level angesprungen und bei 350 default GPU stehengeblieben?!
Ganz wichtig ist auch mittels RivaTuner im Hintergrund zu protokollieren - nicht nach m Game das Prog erst anwerfen ( --> roter Knopp im Rivatunter ) - die GPU Temps fallen nachm 3D Betrieb in Sek. um 10-20°!
Jajaja... ich nerve.... guck dennoch im LogFile nach ;)
Greets
S@uDepp
P.S. Treiber Takterkennung is fürn Popo - nur ne grobe Orientierung - mehr ned
hab mit dem ATItool die taktraten automatisch ermitteln lassen und komme damit auf stabile 425mhz/1150mhz(hab ne 6800gt von asus^^) bei grakalastigen games/benchmarks gehen die temps dann auf max. ~73°, auch nach 2 stunden bleiben temps konstant.
hab dann noch den artefacts scanner von den tool für 30min laufen lassen und keine fehler oder sonstiges(temps auch bei ~73°)
denk ma ~400/1100mhz sind so eigentlich bei jeder 6800gt drin
MagicMat
2005-10-14, 14:56:02
Doch, den RivaTuner. Den Lüfter auf meiner 6800GT lasse ich mit 20%/36% laufen. Außerdem läuft RivaTuner nicht im Hintergrund mit. Wirklich ein TOP Tool.
WIe soll das bitteschön funktionieren? Möchte damit nicht abstreiten das der Rivatuner ein TOP Tool ist, aber solange er keine Einstellungen im BIOS der Graka verändert, MUSS er auch im Hintergrund mitlaufen um die veränderten Lüftereinstellungen beizubehalten...
@Plüg:
Ich musses nochmal ansprechen... ;)
Sind ALLE DREI Taktraten bei ca. 430/1150 ? Wenn ja, dann muss der Rechner in Ommas Tiefkühltruhe stehen.
Die Werte sind eh schon traumhaft für ne AGP GT mit Standardkühler, aber dann mit den üblichen drei Spannungswandlern an Board auch nur 62 max.Temp unter Last?!
Da is was faul...... vielleicht doch der "low 3D performance" Level angesprungen und bei 350 default GPU stehengeblieben?!
Ganz wichtig ist auch mittels RivaTuner im Hintergrund zu protokollieren - nicht nach m Game das Prog erst anwerfen ( --> roter Knopp im Rivatunter ) - die GPU Temps fallen nachm 3D Betrieb in Sek. um 10-20°!
Jajaja... ich nerve.... guck dennoch im LogFile nach ;)
Greets
S@uDepp
P.S. Treiber Takterkennung is fürn Popo - nur ne grobe Orientierung - mehr ned
Ich stehe natürlich gerne Rede und Anwort, das nervt kein Bisschen. :smile:
Ich sehe gerade, dass Du ziemlich sicher Recht hast. Der "Low 3D performance" Level steht in der Tat noch auf GPU-Takt 350 mhz und kann von da aus nicht verändert werden. Das wird wohl die Ursache sein. Ich muss wirklich mal das Protokoll starten und sehen was sich da im Hintergrund tut. Danke für den Tipp! :smile:
Was ist eigentlich genau der Unterschied zwischen "Low 3D performance" und "3D performance", bzw. was kommt wann zum Tragen?
Micha80
2005-10-14, 17:56:28
WIe soll das bitteschön funktionieren? Möchte damit nicht abstreiten das der Rivatuner ein TOP Tool ist, aber solange er keine Einstellungen im BIOS der Graka verändert, MUSS er auch im Hintergrund mitlaufen um die veränderten Lüftereinstellungen beizubehalten...
RivaTuner ändert nur die Reg-Einträge, also die Soll Werte, von Nvidia. Der Nvidia Treiber regelt die Lüfterdrehzal dann mit den neuen Werten selber.
S@uDepp
2005-10-14, 19:29:05
Ich stehe natürlich gerne Rede und Anwort, das nervt kein Bisschen. :smile:
Ich sehe gerade, dass Du ziemlich sicher Recht hast. Der "Low 3D performance" Level steht in der Tat noch auf GPU-Takt 350 mhz und kann von da aus nicht verändert werden. Das wird wohl die Ursache sein. Ich muss wirklich mal das Protokoll starten und sehen was sich da im Hintergrund tut. Danke für den Tipp! :smile:
Was ist eigentlich genau der Unterschied zwischen "Low 3D performance" und "3D performance", bzw. was kommt wann zum Tragen?
Dacht ichs mir doch ;)
Sinn ist es, wenns zu hart für die GraKa wird, nen Gang runterzufahren ohne die GPU abzufackeln....
Takt und Spannung gehen runter - damit kommts dann zum fetten Ruckler und danach löppts ned mehr so geschmeidig wie zuvor :/.
Ist aber meiner Meinung nach ne Homage an "uns" O´clocker - vornerum dicke Werte zulassen, hintenrum die Bremse ziehen.
Aber wie halt gesagt... kannste mit dem RivaTuner aushebeln ... er verlangt dafür nur seinen eigene "startup deamon" - dann hasse auch die Frequenz im Griff :)
Alles in allem aber klar ne Aktion die zeigt, wie sehr der NV40 am Rande geplant ist.... ob da ma ned 90µm angebrachter wären ;)
...und poste mal den Rest Deiner Config!
Ned, daß Du auch unter dme FreezeBug leiden musst?!
Greets
S@uDepp
....der immer wieder nachfragt ;)
P.S. ... je nach der CPU u.ä. reichen 400/1100 völlig aus - DEN Unterschied aber zum Default merkt man bei z.B. "den großen drei" deutlich!
Mark3Dfx
2005-10-14, 19:51:31
Wo stell ich den beim Rivatuner weniger als 25% Lüfterspeed in 2D ein?
Weniger geht doch garnicht?
Micha80
2005-10-15, 09:55:01
Wo stell ich den beim Rivatuner weniger als 25% Lüfterspeed in 2D ein?
Weniger geht doch garnicht?
Doch du musst die Sperre wegnehmen.
- PivaTuner starten
- PowerUser
- ...\NVIDIA\FAN
- die Lampe an machen -> MinFanSpeedLimit = 1
Mark3Dfx
2005-10-15, 12:37:28
Dankö
20% in 2D und ich hör nixmehr ;)
Micha80
2005-10-15, 12:49:31
Dankö
20% in 2D und ich hör nixmehr ;)
Bitte
Meine läuft auf 21/25/36
Mark3Dfx
2005-10-15, 13:02:54
Nur 36% im 3D Modus?
Wie warm wird sie den dann?
So ca. 80°C im 3DMark03. Wenn ich die Karte dann anfasse kommt mir das aber längst nicht so warm vor.
MagicMat
2005-10-17, 08:53:58
RivaTuner ändert nur die Reg-Einträge, also die Soll Werte, von Nvidia. Der Nvidia Treiber regelt die Lüfterdrehzal dann mit den neuen Werten selber.
Ok besten Dank, werde den RivaTuner dann mal wieder testen.
Dacht ichs mir doch ;)
Sinn ist es, wenns zu hart für die GraKa wird, nen Gang runterzufahren ohne die GPU abzufackeln....
Takt und Spannung gehen runter - damit kommts dann zum fetten Ruckler und danach löppts ned mehr so geschmeidig wie zuvor :/.
Ist aber meiner Meinung nach ne Homage an "uns" O´clocker - vornerum dicke Werte zulassen, hintenrum die Bremse ziehen.
Aber wie halt gesagt... kannste mit dem RivaTuner aushebeln ... er verlangt dafür nur seinen eigene "startup deamon" - dann hasse auch die Frequenz im Griff :)
Alles in allem aber klar ne Aktion die zeigt, wie sehr der NV40 am Rande geplant ist.... ob da ma ned 90µm angebrachter wären ;)
...und poste mal den Rest Deiner Config!
Ned, daß Du auch unter dme FreezeBug leiden musst?!
Greets
S@uDepp
....der immer wieder nachfragt ;)
P.S. ... je nach der CPU u.ä. reichen 400/1100 völlig aus - DEN Unterschied aber zum Default merkt man bei z.B. "den großen drei" deutlich!
Ach so, DAS hat es also auf sich, dass das Bild für vielleicht 3 Sekunden stockt.
Naja, man muss die KArte ja nicht gleich an ihr Limit üertakten. teuer genug war sie ja und ich möchte sie eigentlich nicht gleich einschmelzen. :smile:
"Die grossen drei"? HL2, D3 und FC? :confused:
S@uDepp
2005-10-17, 15:53:25
Ich wiederhol die Chose ungern komplett.... aber wenns für 2-5Sek. stockt, der Sound loopt - dann siehts nach dem o.g. Bug aus..
Guckstu hier
1. http://www.hardforum.com/showthread.php?t=938842&page=1&pp=20
2. http://www.forumdeluxx.de/forum/showthread.php?t=110940
da werden sie geholfen ;)
Greets
S@uDepp
MuhBär
2005-10-17, 17:33:37
So hab das mal eben getestet, atitool vs forceware auto erkennung. Ergebnis sehr zwiespältig: Mit dem Atitool bekomme ich schon beu 340Mhz Core artefakte, bei der auto erkennung (3x durchlaufen lassen) 400Mhz. Beim speicher schaff ich grad so das soll einer GT von 500Mhz ohne artefakte, wieder meint die autoerkennung was völlig anderes, 550Mhz. Was zum henker stimmt nun ? In CSS seh ich die artefakte übrigens auch, jedoch in keinen anderen meiner games.
Die gelbe Eule
2005-10-17, 18:32:16
Artefakte sind Artefakte. Zeigt Dir der ForceWare welche an? Nein macht er nicht.
Ich kann auch im FW auf 440 Core gehen, aber nur 425 sind in den meisten Spielen stabil.
MuhBär
2005-10-17, 18:48:21
Schon aba Artefakte bei 340Mhz Core ind schon etwas seltsam.
alpha-centauri
2005-10-17, 19:00:06
hier nochn kurzer info zur 7800GT und ati tool:
ati tool zeigt korrekt bei 450 mhz artefakte an. und schraubt den takt zurück.
beim ram taktet das tool über 600 Mhz, bis irgendwann der PC abstürzt.
davon abgesehen: von 400-> 450 und 500->600 Mhz (was stabil geht), hab ich grad mal in f.e.a.r 41 -> 46 frames. lohnt es sich deswegen, die graka zu trashen?
S@uDepp
2005-10-17, 19:45:15
Ja ;)
Es lohnt.... aber halt nur wenns stable ohne Fehler geht....
Greets
S@uDepp
alpha-centauri
2005-10-17, 21:24:11
Ja ;)
Es lohnt.... aber halt nur wenns stable ohne Fehler geht....
Greets
S@uDepp
meinste das jetzt ernst? 10% mehr performance?
S@uDepp
2005-10-17, 23:35:51
Jo....
Länger als 12-18Monate haste die Karte doch eh ned im System oder?!
Und bei Deinem Rechner kanns doch ned schaden "etwas mehr" zu haben odda?!
So schnell trasht man da doch nix - wenns ohne Artefakte/BlueScreens etc. bei passablen Temps löppt...
Und immerhin - bezahlt ist bezahlt :) eEnn schon so ne teure Karte, dann bitte auch Power bis in die Spitzen.
Aber ist ja nur ne "kann Option".....
Ich wiederhol die Chose ungern komplett.... aber wenns für 2-5Sek. stockt, der Sound loopt - dann siehts nach dem o.g. Bug aus..
Guckstu hier
1. http://www.hardforum.com/showthread.php?t=938842&page=1&pp=20
2. http://www.forumdeluxx.de/forum/showthread.php?t=110940
da werden sie geholfen ;)
Greets
S@uDepp
Nein, der Sound loopt nicht, Es läuft alles perfekt, aber nach einer halben Stunde oder einer dreiviertel Stunde schaltet offenbr die Grafikkarte einen Gang zurück. Nach 3 bis 5 Sekunden ist alles wieder in Ordnung, d.h. die Framerate ist immer noch hoch und das Spiel läuft absolut flüssig.
Schon eine tolle Sache, was ich mir da gekauft habe... :smile:
S@uDepp
2005-10-18, 17:20:13
...dann force doch den 3D Level mal... am besten den "low 3d performance" - dann spart sich die Karte den Versuch auf 1.4V zu gehen, was ja auch nen deutlichen TempZuwachs mit sich bringt.....
Damit bin ich vorm 81.84 am besten gefahren. Kein Runtertakten dann mehr "und das ist gut so" :D
Greets
S@uDepp
Micha80
2005-10-18, 17:27:40
...dann force doch den 3D Level mal... am besten den "low 3d performance" - dann spart sich die Karte den Versuch auf 1.4V zu gehen, was ja auch nen deutlichen TempZuwachs mit sich bringt.....
Damit bin ich vorm 81.84 am besten gefahren. Kein Runtertakten dann mehr "und das ist gut so" :D
Greets
S@uDepp
Du meinst das die Karte nur bis low Power 3D geht? Wie und wo stelle ich das ein?
alpha-centauri
2005-10-18, 18:16:07
Länger als 12-18Monate haste die Karte doch eh ned im System oder?!
wenn 12 monate, überhaupt. meine letezte, die 6600GT, war grad mal 8 monate (!!!) im PC, als sie mir auf den sack ging.
sobald die preise der 7800GT fallen, wirdse verkloppt.
ich bin sicher nicht so doof, wie einer aus meiner klasse: für 400 acken ne X800Pro gekauft, die jetzt für 200 Acken gibt. der hätte se sollen verkloppen.
eigentlich war jede meiner karten bis jetzt übertaktet :)
Und immerhin - bezahlt ist bezahlt :) eEnn schon so ne teure Karte, dann bitte auch Power bis in die Spitzen.
ich würd so gerne die 4 pipes oder 1 vertex freischalten, verdammt! das hätte ich gerne.
aber sobald ich bissel zeit hab, werd ich die mals ans max testen.
kurfristig lief sie ja schon auf 400 / 1200.
S@uDepp
2005-10-18, 21:04:14
Du meinst das die Karte nur bis low Power 3D geht? Wie und wo stelle ich das ein?
"force constant performance level"
Dann den üblichen Reboot - feddich :)
@ALPHA-CENTAURI
Hau rein :)
Micha80
2005-10-19, 19:08:54
Was ist denn "EnableLowPower3DControl"
http://img443.imageshack.us/img443/2866/rt0zh.jpg
alpha-centauri
2005-10-19, 19:56:48
siehe sig. 480GE / 1200 Mhz Ram sind jetzt drin.
Lief 7h 3Dmark05 stabil, dann war die nacht zu ende.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.