PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 8800GT geht schlecht zum übertakten


Gast
2008-02-24, 18:18:37
Hallo,
ich wollte meine Sparkle G92 8800GT 512MB ein wenig überakten und habe dabei Rivatuner zum Einstellen des Takts sowie ATI Tool zur Fehlerkontrolle eingesetzt.

Naja leider zeigt ATI Tool ab einem größeren Coretakt wie 635 bzw. 1587Mhz Shadertakt schon erste Fehler.
Finde das sehr schade, wenn ich die OC Ergebnisse der anderen so anschaue, die weit über 700MHz Coretakt erreichen.

Die Temperatur liegt bei 80°C laut ATI Tool beim Artifakt testen, wobei der Lüfter noch nicht hochregelt.. Daran sollte es also nicht liegen.

Habe ich einfach eine schlechte Karte erwischt?? Kann ich da noch was tun?!

Danke

TB1333
2008-02-24, 18:53:26
Kannst nen Voltmodd machen und nen besseren Kühler montieren.

Gast
2008-02-24, 19:03:11
Hallo,
wieso bessere Kühler? Der Sparkle deckt schön die ganze Karte ab.
Außerdem habe ich am Gehäuseboden einen 120mm Lüfter der direkt auf die Grafikkarte bläst :D
(Natürlich Loch im Boden)

Wiegesagt 80°C unter Last ist doch völlig in Ordnung. Sollte die mal auf 90 oder so gehen fängt ja der Lüfter der Grafikkarte noch zusätzlich an sich schneller zu drehen.

Das Mit dem Voltmod ist eine gute Idee, habe mal danach gegoogelt, anscheinend klappt das mit Nibitor ganz gut.
Muss nur schauen welche Wert ich bei der GPU einstellen werde.

PS der RAM geht dafür sehr gut bei meiner Karte, bisher bei 1020Mhz ohne Fehler in Ati tool.

TB1333
2008-02-24, 19:28:48
Mit mehr Spannung (per Software/BIOS gehen glaub ich maximal 1,1V, Standard dürften 1V sein) steigt natürlich auch die Wärmeabgabe der Karte. Da könnte es (vor allem im Sommer) evtl. etwas heiß werden (und/oder laut), wenn du jetzt bereits bei 80°C bist. Meine wird bspw. gerademal etwas mehr als 60°C warm.
Das wirst du dann ja sicher merken und kannst ggf. was an der Kühlung ändern.

Gast
2008-02-24, 20:03:53
Hmm okay.
Mit Nibitor kann ich aber jede erdenkliche VGPU Last spannung auswählen.

wo steht geschrieben, ob und welche spannung die 8800gt annimmt??

Derzeit steht es @default auf 1.1V Last.
Werde es mal auf 1,15V ändern und schauen ob ich besser OC kann

Luke007
2008-02-24, 21:24:52
Die Standardspannung der 8800GT ist 1,05V.
Man sollte am besten die eigenen Bios mit Nibitor auslesen und nur unter Voltages > Exact Mode > Extra die Spannung verändern.
Bei meiner Gainward 8800GT 512MB brachte das nichts, ich vermute das die Karte schon mit 1,10V läuft.

Und soweit ich das verstehe hat deine Karte den 1-Slotkühler?
Es ist gut möglich das die hohe Temperatur höheres OC verhindert.

TB1333
2008-02-24, 21:45:11
http://extreme.pcgameshardware.de/showthread.php?t=5170

Glaube da steht auch drin, dass nur einige bestimmte Spannungen angenommen werden. Falls du das noch nicht gesehen hast.

Gast
2008-02-24, 22:38:29
Hallo,
ja stimmt unter "exact mode" "extra" war das auswahlfenster leer, d.h. die karte lief mit 1.05V.
Habe dort die spannung auf 1.1V eingestellt.

Gebracht hat das zumindest messbar was, ich konnte nun den GPU/shader Takt bis 655/1637 anheben ohne fehler.

ja, das ist die 1 slotkühlung-
aber denke nicht dass die temp zu hoch ist,
denn wieso konnte ich nach vgpu last erhöhung dann 20mhz mehr rausholen?

Aber nur zum testen kann ich den Lüfter mal auf 100% stellen und schauen ob dann mehr drin ist.

AnarchX
2008-02-24, 22:46:35
Welchen Treiber verwendest du denn? Vielleicht macht dieser gerade Probleme, deine OC-Ergebnisse selbst mit 1.1V sind ja eher ziemlich hinter dem was sonst erreicht wird.:|

Gast
2008-02-24, 23:01:14
Hallo,
ja eben deswegen wundere ich mich auch, die meisten erreichen locker 700mhz gpu...

Also ich verwende die omega drivers basierend auf forceware 169.25


Anscheinend spielt die Temperatur beim VGA OC doch eine sehr wichtige rolle- Stelle ich den Lüfter auf 100% (dieser ist dann ewig laut^^) hält die karte folgende temperaturen laut ati tool: 54°C GPU - 44°C temp chip


So, mit dieser temperatur komme ich auf ca 680mhz gpu.. darüber gibt es nach 1-2min immer wieder vereinzelt fehler die ati tool erkennt.

Klar wahrcsheinlich würde man die in 3dmark oder so gar nicht sehen bzw wären nicht da, aber trotzdem sehr komisch das ganze...


Ich denke ich komme um einen bessern Kühler nicht herum: der http://geizhals.at/deutschland/a223090.html arctic cooling accelereo soll ja ganz gut sein.
Würde auch schön passen, da ich wiegesagt am gehäuse boden einen 120mm fan montiert habe, der dann auf den lüfter blasen würde.


Dennoch erscheint mir das alles eben seltsam, da die Karte nur so wenig mehrtakt mitmacht...
Verwende rivatuner 2.06 und ati tool 0.27 beta 3 (die neuste)

Sind das die falschen tools? nein oder

Luke007
2008-02-25, 00:33:23
Versuche es mal mit original Treibern von nVidia und keine gemoddeten wie die Omega.
Und das mit der Kühlung ist bei Prozessoren auch nicht anders. Je niedriger die Temperatur gehalten werden kann desto mehr Mhz kann man einstellen (der Widerstand steigt bei höherer Temperatur).

Der Accelero S1 Kühler ist eine hervorragende Wahl wenn man Platz dafür hat, diesen hast du ja. :biggrin:

Gast
2008-02-25, 13:06:43
okay werd ich mit den originaltreibern versuchen.

naja beim prozessor ists aber nicht so derb aufgefallen, der ging bei mir nicht höhher als 3,2ghz (einen 6300) bei 1,35v, und das egal ob die kerne jeweils 45 oder max 65°C hatten (je nach lüfterstufe).
Kritisch ist ja erst 85°C Kerntemperatur, da wird ja gethrottelt.

Dachte die Grafikkarte verträgt ruhig so 90°C, aber macht da halt anscheinend doch einen guten unterschied.


Ja ich denke ich nehme den accelero s1, eben weil das eine schöne heatpipe ist und wunderbar zu meinem bodenlüfter passt.
Denn ich hab ein sehr leises System und wenn ich den Grafikkartenlüfter da auf 50-100% halten müsste, um eine akzeptable temperatur zu erreichen,
dann ist das eindeutig die lauteste wärmequelle

Gast
2008-02-25, 13:08:51
wärmequelle ist natürlich quatsch- meine lärmquelle

Megamember
2008-02-25, 13:14:18
Wars nicht so das das ATi-Tool absolut unbrauchbar ist um den max. Takt rauszufinden? Wie siehts denn in normalen Games aus?

Gast
2008-02-25, 13:33:33
Hallo,
ja das ATI Tool erkennt die Taktraten nicht und ich kann somit auch nicht "Find max clock" auswählen.
Ich verwende ja nur die Artifact Tests von ATI Tool und erhöhe die Taktrate mit Rivatuner.

In Games habe ich noch nicht geschaut.
Ich möchte halt dass die Karte beim max. Takt noch absolut fehlerfrei arbeitet und keine Pixelfehler erzeugt. Bei Spielen erkennt man die vielleicht nicht.

Aber werde es mal Testen z.b. in UT3

Schrotti
2008-02-25, 16:55:19
Lohnt sich übertakten überhaupt?

Wie schaut der Rest des Systems aus?

Und 80°C unter Volllast finde ich schon viel (auch wenn erst ab 110°C gethrottelt wird).

Irgendwo im Forum gab es mal nen Link zu einer passiven 8800GT die bis 110°C einwandfrei lief.

FragFox
2008-02-25, 16:59:20
Hallo,
Ich verwende ja nur die Artifact Tests von ATI Tool und erhöhe die Taktrate mit Rivatuner.

In Games habe ich noch nicht geschaut.
Ich möchte halt dass die Karte beim max. Takt noch absolut fehlerfrei arbeitet und keine Pixelfehler erzeugt. Bei Spielen erkennt man die vielleicht nicht.

Aber werde es mal Testen z.b. in UT3


Die Idee mit dem ATI Tool ist an sich nicht schlecht, dabei wird leider vergessen das das ATI Tool nicht so der Aufheizer ist. Jedenfalls was NVidia GraKas betrifft. Versuche lieber mit Gametest oder 3DMurks in 8xAA/16xAF herauszufinden wo die max Temp der GraKa liegt und ab welchem Takt du Fehler bekommst.

Gruss FragFox

Piffan
2008-02-25, 17:33:12
Mal ne andere Frage, auch wenns jetzt hier nicht unbedingt zum Topic passt: Schadet es der Graka eigentlich, wenn sie so am Limit läuft, dass Fehler so selten sind, dass man sie glatt übersehen könnte? Können häufige Rechenfehler, die ja auf "unscharfen" Schaltzuständen beruhen, wo halt der Übergang von O zu 1 nicht mehr innerhalb der Taktzeiten zu schaffen ist, den Chip auf Dauer kaputtmachen?

Wenn dem nicht so ist, sprich Rechenfehler keine Schäden auslösen, könnte man doch einfach Spiele als Indikator nehmen. Wozu braucht man einen Artifuckt- Tester?

Schrotti
2008-02-25, 17:37:29
Schäden entstehen dadurch sicher nicht (denk ich mal).

Meine 8800GT kommt ja auch mit 660/1600/900 daher (Standard).

Luke007
2008-02-25, 17:43:19
Die Idee mit dem ATI Tool ist an sich nicht schlecht, dabei wird leider vergessen das das ATI Tool nicht so der Aufheizer ist. Jedenfalls was NVidia GraKas betrifft. Versuche lieber mit Gametest oder 3DMurks in 8xAA/16xAF herauszufinden wo die max Temp der GraKa liegt und ab welchem Takt du Fehler bekommst.

Gruss FragFox
AtiTool Artifactscan heizt mehr auf als 3DMark!
Eine gute Alternative zu AtiTool ist Fur Benchmark (oZone3D), das heizt sogar noch einen Tick mehr auf. :wink:

FragFox
2008-02-25, 21:35:48
AtiTool Artifactscan heizt mehr auf als 3DMark!
Eine gute Alternative zu AtiTool ist Fur Benchmark (oZone3D), das heizt sogar noch einen Tick mehr auf. :wink:

Luke, wir haben diese Geschichte schon ein paar mal auseinandergenommen. Bei mir und Kollegas mit "nVidia" Graka (6800LE/GT bis 8800GTX), ist die Temperatur mit 8xAA/16xAF in 3D Tests um 3-6 Grad (je nach Modell) wesentlich höher, als mit diesem dussligem Fellwürfel. Dies trifft aber halt nur auf nVidia Grakas zu und ist einwandfrei reproduzierbar.

Edit:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=315331&highlight=Temperatur+Nvidia

Megamember
2008-02-25, 21:53:11
Der Knights of the sea benchmark knallt auch ordentlich rein, hat bei meiner X2900 schon 20 MHZ früher Bilddfehler ausgespuckt als der 3dmark. Leider eben nur für DX10. Geheizt hat der auch wie nix gutes.

Luke007
2008-02-26, 00:24:19
Luke, wir haben diese Geschichte schon ein paar mal auseinandergenommen. Bei mir und Kollegas mit "nVidia" Graka (6800LE/GT bis 8800GTX), ist die Temperatur mit 8xAA/16xAF in 3D Tests um 3-6 Grad (je nach Modell) wesentlich höher, als mit diesem dussligem Fellwürfel. Dies trifft aber halt nur auf nVidia Grakas zu und ist einwandfrei reproduzierbar.

Edit:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=315331&highlight=Temperatur+Nvidia
Da wurde nirgends Fur Benchmark erwähnt. Zudem hat nicht jeder die Pro Version vom 3DMark um AA/AF Einstellungen vorzunehmen.

Gast
2008-02-26, 00:46:21
Lohnt sich übertakten überhaupt?

Wie schaut der Rest des Systems aus?

Und 80°C unter Volllast finde ich schon viel (auch wenn erst ab 110°C gethrottelt wird).

Irgendwo im Forum gab es mal nen Link zu einer passiven 8800GT die bis 110°C einwandfrei lief.

Ja denke schon dass sich das lohnen würde, habe ein P35 Board- E6300 @3,22Ghz 460FSB und 2GB

Außerdem wenn ich schon übertakte, dann alle Komponenten.

Wär halt schade wenn die 8800GT überhaupt nicht gut gehen würde, weil sich der E6300 eben schon super übertakten lässt.


so aber jetzt warte ich erstmal den Arctic S1 rev2 ab und montiere ihn.
Außerdem habe ich noch arctic silver 5 wlp bestellt die ich dann überall anwenden werde und die pads dadurhc entfernen (cpu+vga)

Danach wende ich mich nochmal dem max. takt unter 1.1v last zu.
Kann dann auch wirklich ATI Tool+3dmark06 und noch games dafür nehmen.
Hoffe halt dass man die bildfehler schon deutlich erkennt, im ATI tool verlässt man sich ja auf einen algorithmus der irgendwas anzeigt (für einen selbst sind ja da noch keine fehler erkennbar).

AA und AF kann ich ja manuell im treiber aufs Höchste jeweils einstellen und die 3dmark06 settings überschreiben,
dann nebenher die temperatur mit rivatuner loggen lassen.

Gast
2008-02-26, 00:49:20
beim vram wars halt deutlich leichter:
gebe ich mehr als 1030mhz dann wird das komplette bild unter last in horizontale pinke streifen unterteilt.
das ist für mich eindeutig, dass das zuviel war :)
lasse ich es aber bei 1030mhz läuft alles einwandfrei in spielen....

Gast
2008-03-05, 20:12:54
Hallo,
ich habe mir nun einen Artic Cooling accellero s1 rev.2 zugelegt und montiert.
Ein paar cm unter dem accellero liegt ein scythe slip stream 1600 der auf 4,25V gedrosselt wurde (=niedrigste anlaufspannung- ich habe ein silent system).
Als wlp habe ich die arctic silver 5 paste genommen.

Was soll ich sagen, die ergebnisse sind beeindruckend.

Jetzt habe ich bei 1,1V und Standard-takt unter Vollast folgende temperaturen:
GPU: 48°C
Temp chip: 45°C


6°C kühler als der Standardlüfter bei 100%- ohne einen einzigen zusätzlichen sound :D

nimmt man etwa die gleiche lautstärke als Vergleichsbasis (d.h. stock lüfter auf ca 15-20%) liegt der temperaturunterchied bei 32°C !!

so jetzt mal schauen was jetzt beim OC drinn ist :D

TB1333
2008-03-05, 21:05:41
Jetzt habe ich bei 1,1V und Standard-takt unter Vollast folgende temperaturen:
GPU: 48°C
Temp chip: 45°C


Was ist der Unterschied zwischen Chip und GPU? :|

Gast
2008-03-05, 21:11:05
Was ist der Unterschied zwischen Chip und GPU? :|
k.a.
mal als rückmeldung, jetzt geht sie bis 680mhz ohne fehler bei immer konstant 48°C vollast :)

ich denke habe da sogar noch platz für voltmods an der karte selbst ;) aber erst später^^

mehr als 1,1V geht definitv nicht per bios einzustellen?