Archiv verlassen und diese Seite im Standarddesign anzeigen : AGP Gainward 7800GS Bliss 512MB
@balla balla
Was man machen könnte wäre ein BIOS-Dump der Graka. Es gab für BIOS auf nVidia Grakas mal Editoren, wenn ich mich recht entsinne, konnte man da auch die CL und die anderen Timings des RAM sehen.
AMC
@AMC: Ich glaube das meinte balla balla, als er von nibitor sprach. Das ist nämlich ein Bios Editor :cool:
@balla balla: Und das geht? Wenn du das schonmal gemacht hast, warum mißt du dann nicht die Spannung? Oder hast du die Karte nicht?
Da ich zur Zeit noch kein Multimeter habe, falle ich bzgl. der Messung mal flach. Sobald aber eins zur Verfügung steht, werde ich mich vielleicht mal rantrauen. Ich denke der richtige Ansprechpartner wäre da resonatorman.
resonatorman
2006-05-17, 22:32:37
@Gast
Du schreibts was von Timings, liste diese doch mal auf. Meine 7800GS+ hat folgende lt. Nibitor (Timingset Nr. 7):
tRC 34
tRFC 43
tRAS 24
tRP 10
tRCDRD 12
tRCDWR 8
tRRD 8
@all
Ich denke wohl auch, daß man mittlerweile davon ausgehen kann, daß die schlechte Übertaktbarkeit des Rams nichts mit der Spannung zu tun hat. Die Defaultspannung ist schon knapp unter der Obergrenze des Erlaubten (2,0+0,1). Ein Bastler in einem anderen Forum hat es geschafft, sie anzuheben, aber ohne Einfluß aufs OC. Daraufhin habe ich alle weiteren Versuche in dieser Richtung aufgegeben, auch weil ich die Karte nicht unnötig stressen will. Ich finde den Bleistiftmod für die GPU schon sehr befriedigend.
Andererseits ist es wirklich verlockend, etwas über die Timings ausrichten zu können - habe da allerdings wenig Erfahrung. Bei der FX ging doch auch sowas... ;)
czuk[/POST]']
@balla balla: Und das geht? Wenn du das schonmal gemacht hast, warum mißt du dann nicht die Spannung? Oder hast du die Karte nicht?
Da ich zur Zeit noch kein Multimeter habe, falle ich bzgl. der Messung mal flach. Sobald aber eins zur Verfügung steht, werde ich mich vielleicht mal rantrauen. Ich denke der richtige Ansprechpartner wäre da resonatorman.
Natürlich hab ich die GS+, und gemessen hab ich die Spannung ja auch, es sind wie ich schon sagte 2,08 Volt.
Ich habe die Spannung aber nicht direkt am RAM gemessen weil die Pins nur 0,8mm auseinander sind, einmal gezittert und die Graka ist Schrott.
Ich habe aber vom RAM aus im ausgeschalteten Zustand gemessen, und hatte zum Kondensator SC421 (linke Seite) Null Ohm,
dieser Kondensator hat Verbindung zum Messpunkt der auch bei VR-Zone mit 2,08 Volt angegeben war.
Also liegt am RAM 2.08 V an.
Ein zweiter Messpunkt für die 2,08V ist der Kondensator SC74 (links vom großen Label).
Alles von der Rückseite der Graka betrachtet wenn der AGP-Port unten ist (siehe Highres Scann-Bild (http://www.tigerdirect.com.au/images/Gainward%207900GT%20512MB/GW7900GTAGPback.jpg) aus www.xtremesystems.org-Forum (http://www.xtremesystems.org/forums/showthread.php?t=98874&page=2)).
Von der Vorderseite gibts auch noch ein Bild (http://www.tigerdirect.com.au/images/Gainward%207900GT%20512MB/GW7900GTAGPfront.jpg), da ist unser Speicher zu erkennen.
Gruß und Danke für die Bilder an graham_h sollte er sich mal hierher verirren.
@resonatorman
Ich habe die selben Timings wie Du, ich poste mal die Timings aus der Spec:
Für unseren BJ12 (800MHz):
tRC 35
tRFC 45
tRAS 25
tRP 10
tRCDRD 12
tRCDWR 8
tRRD 8
Für den BC14 (700MHz):
tRC 31
tRFC 39
tRAS 22
tRP 9
tRCDRD 10
tRCDWR 6
tRRD 8
Wie Du siehst liegen unsere Timings zwischen diesen Spec Timings vom BJ12 und BC14 (wenn auch näher am BJ12).
Lt. Spec hat der BJ12 eine CAS Latency von 11 und der BC14 einen CL von 10 aber welche CL hat denn nun unser Speicher?
Sollte unser Speicher eine CL von 10 haben wunderts mich nicht wenn wir keine 800MHz erreichen.
Gruß
balla balla
PS: Das Spezifikations-Datenblatt zum Speicher gibts hier (http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/512Mbit/K4J52324QC/K4J52324QC.htm)
resonatorman
2006-05-18, 07:05:04
So, ich habe mal ein BIOS mit den lockereren Timings für 800MHz geflasht, bringt leider gar nichts. Bliebe also noch der CL-Wert, kann den jemand identifizieren?
resonatorman[/POST]']So, ich habe mal ein BIOS mit den lockereren Timings für 800MHz geflasht, bringt leider gar nichts. Bliebe also noch der CL-Wert, kann den jemand identifizieren?
Keine Ahnung wie man den rausbekommt. Habe eben aber Mavke angeschrieben (Nibitor), vielleicht weiß der mehr (siehe Nibitor 2.9 Feedback Thread im MVKTech.net Forum).
SimonX
2006-05-18, 20:05:22
Welche Feature der 7900 könnten in dem NVidia Treiber für die 7800GS+ deaktiviert sein? Bald kommt ja der Rivatuner 16 raus, der dann die 7900 und 7800GS Reihe unterstützen soll. Ob es wohl etwas bringt bzw. ob es überhaupt funktioneren kann die Device-ID von 0xf5 auf eine 7900gt umzubiegen?
resonatorman
2006-05-19, 06:48:08
@maistaeda
Toll, deine Ergebnisse, aber ich glaube, das interessiert hier keinen, also könntest du aufhören, den Thread vollzuspammen?
@SimonX
Ich sehe nicht, was bei unserer Karte noch aktiviert werden müßte. Die Leistung bewegt sich doch im Rahmen des zu Erwartenden.
@czuk
Saubere Arbeit bei MVKtech, vielleicht wird was draus!
maistaeda
2006-05-19, 07:54:28
achso!
ich dachte es geht um die Gainward Bliss 7800gs+
dann bin ich wohl falsch hier.
resonatorman[/POST]']@maistaeda
Toll, deine Ergebnisse, aber ich glaube, das interessiert hier keinen, also könntest du aufhören, den Thread vollzuspammen?
@czuk
Saubere Arbeit bei MVKtech, vielleicht wird was draus!
Ich habe gestern den Bleistift Mod gemacht. Gut gemessen hast du! ;)
Es war ne Heiden-Arbeit den Widerstandswert möglichst exakt zu "zeichnen". Ich schwankte meistens sehr stark zwischen 1.3k Ohm 1.6k Ohm, ohne mal genau 1.4kOhm oder 1.5kOhm zu treffen.
Bei 1.4V konnte ich göttliche 650/780Mhz einstellen. Allerdings wurde die Karte bei mir dann äusserst bedenklich heiß. Hast du, resonatorman, diese Erfahrung auch gemacht? Fass mal an die Kupferplatte zwischen Lüfter und GPU! Verbrennst dir dann die Finger. Nach kurzer Zeit gab es dann auch Freezes in Oblivion.
Bei 1.3V trat das Problem so nicht auf. Exakt hab ich nun 1.28V, was mir nochmal etwa 40Mhz GPU Takt brachte. Unter Last hab ich nun allerdings ein leises Zischen/Fiepen. Hört sich fast so an, als ob ein Elko kocht. Allerdings sollte das wohl ne Spule sein oder so...
Diese Wärmeleitpads find ich immernoch bedenklich. Hebt man den montierten Kühler leicht an, ist klar zu sehen, dass die Pads "mitgehen". Es herrscht kein wirklich fester Kontakt zwischen Pads und RAMs. Schaut man sich das Pad-Material und die Dicke an, kann ich zwar verstehen, dass man diese gelbe Oberfläche der Pads zur Stabilisierung braucht (die Pads sind extrem weich, fühlen sich an wie dieses essbare süße Schweinespeck), aber wirklich doll kann die Wärmeleitung echt nicht sein. Ich überleg mir schon, ob es nicht was bringen würde, Pads bei Conrad zu bestellen und die alten zu ersetzen (Conrad hat die notwendige Dicke von 3mm auf Lager).
Tip am Rande; ich habe festgestellt, dass sich ATI Tool recht gut zum Temp-loggen eignet!
Weiterer Tip am Rande; eine 7800GS+ kompatible Version des Rivatuners wird es am 22. Mai geben. Ab dann braucht man wohl auch kein ATI Tool mehr ;)
maistaeda
2006-05-19, 09:24:32
dieses fiepen bzw piepen habe ich auch jedoch ohne volmod oder dergleich.
sowohl im 2dmodus als auch im 3dmodus 580/725.
ich vermutete ja bisher es wäre der lüfter jedoch machen mich die posts schon ein wenig nachdenklich.
Ich habe die Karte endlich bekommen. Bald kommt noch mein Pentium M (oc) dazu, dann geht es erst richtig ab!
Womit übertaktet ihr eigentlich und welches Tool eigentlich sich zur artefaktfindung?
Habe ich wirklich ein so schlechtes Modell erwischt? 700 MHz RAM scheinen nicht möglich, da ATITool fehler anzeigt, aber das 3D Bild trotzdem fehlerfrei durchläuft:confused:
Gast[/POST]']Ich habe die Karte endlich bekommen. Bald kommt noch mein Pentium M (oc) dazu, dann geht es erst richtig ab!
Womit übertaktet ihr eigentlich und welches Tool eigentlich sich zur artefaktfindung?
Habe ich wirklich ein so schlechtes Modell erwischt? 700 MHz RAM scheinen nicht möglich, da ATITool fehler anzeigt, aber das 3D Bild trotzdem fehlerfrei durchläuft:confused:
Hast du die GS oder die GS+? 700Mhz sollten drin sein.
Zum Übertakten reicht der Forcewaretreiber mit Coolbits Tweak.
Artefaktfindung: entweder ATI Tool oder eben ne Zock-Session ;)
Die GS+.
Das ist es gerade, wenn ich ATITool laufen lasse, zeigt er Fehler an, obwohl im richtigen 3D Modi keine zu sehen sind. Ist das Tool vielleicht doch nicht so zuverlässig?
Ich hatte gerade noch ne Idee; die Kupferplatte zwischen Kühltunnel und GPU wird bei mir im 3DMode sauheiß (im 2DMode geht's!). Vielleicht produziert der Verbund aus Bridge, GPU und RAMs soviel Hitze, dass es für die RAMs zum Wärmestau kommt und diese nicht weiter taktbar sind.
Dann müsste man mit ner anderen Kühllösung, die die RAMs nicht abdeckt testen können, ob dem so ist. So eine hier z.B.:
http://www.maplin.co.uk/images/Full/47129i0.jpg
Allerdings müsste man dann die Bridge noch gekühlt bekommen...
@Gast: ATI Tool mag etwas vorschnell sein. Wenn es allerdings Artefakte anzeigt, gibt es die auch. Unter Games wirst du vermutlich nur nie so eine Auslastung hinbekommen wie mit ATI Tool (gleiches Spiel bei CPUs, siehe prime95). Du kannst die nun natürlich ignorieren, dann darfst du dich aber über mehr oder wenig sporadische Abstürze und Freezes nicht wundern.
SimonX
2006-05-19, 15:33:32
Gast[/POST]']Die GS+.
Das ist es gerade, wenn ich ATITool laufen lasse, zeigt er Fehler an, obwohl im richtigen 3D Modi keine zu sehen sind. Ist das Tool vielleicht doch nicht so zuverlässig?
Der Speichertakt ist nicht so wichtig. Normal macht der Speicher als erstes schlapp.
Mach doch 666Mhz für den Speicher und 500 für die GPU und schau ob es funktioniert.
Eine normale 7900GT (was die 7800GS+ ja ist) läuft mit 450/660. Also sollte 500/666 gut gehen. Im 3dMark06 ist der Unterschied zwischen 700MHz und 666Mhz bei 500MHz GPU gerade mal 45 Punkte. Selbst die Fillrate geht nicht wesentlich runter (nur so von 11750 auf 11600 oder so)
Ich habe gerade noch das zweite Stromkabel angeschlossen, seitdem gehts bis 550/700 MHz!
Keine Grafikfehler im 3D Mark, aber im ATI Tool. Wobei ich sagen muss, das ich dieses ATI Tool schon auf meiner ATI Karte ziemlich merkwürdig fand.
Der nVidia Treiber lässt es aber nicht zu, 560 MHz bzw. 710 MHz einzustellen. Geht das mit einem anderen Tool?
CoolBits funktioniert nicht so recht. Den Test den man machen muss um die Taktraten zu übernehmen, fällt öfters mal anders aus, obwohl es vorher ging. Logik?
Ich habe nun mehrmals zu verschiedenen Zeitpunkten an der Taktrate herumgeschraubt und rausgekommen ist dabei folgendes:
Pentium 4 3,2 @ 3,45 (16x216 MHz)
Gainward 7800 GS+ @ 560 MHz (Core), 750 MHz (Memory) :eek:
3D Mark 05:
Fill Rate - Single-Texturing: 5599.1 MTexels/s
Fill Rate - Multi-Texturing: 13073.4 MTexels/s
Vertex Shader - Complex: 52.9 MVertices/s
Können die Ergebnisse hinkommen? Kann mal jemand mit einer gleichschnellen oder schnelleren CPU benchen?
Denn leider musste ich nach Einbau der Karte, den Performance Mode des Boards runterstellen, vorher "Ultra-Turbo", jetzt nur noch "Langsam", das heißt auch kein PAT mehr.
Bei EVEREST macht sich das in fast 1000 MB/s weniger bemerkbar. ;(
maistaeda
2006-05-19, 19:22:23
Gast[/POST]']Ich habe gerade noch das zweite Stromkabel angeschlossen, seitdem gehts bis 550/700 MHz!
Keine Grafikfehler im 3D Mark, aber im ATI Tool. Wobei ich sagen muss, das ich dieses ATI Tool schon auf meiner ATI Karte ziemlich merkwürdig fand.
Der nVidia Treiber lässt es aber nicht zu, 560 MHz bzw. 710 MHz einzustellen. Geht das mit einem anderen Tool?
eventuell nt zu schwach?
welchen treiber haste draufgemacht?
mit 84.21 klappt es bei mir alles perfekt.
resonatorman
2006-05-19, 20:56:51
maistaeda[/POST]']achso!
ich dachte es geht um die Gainward Bliss 7800gs+
dann bin ich wohl falsch hier.
:lol: Na wenigstens hast du Humor. Ich meinte, aus der Phase, wo alle mit ihren Benchmarkergebnissen rumprollen, ist der Thread doch schon lange raus.
@czuk
650 - dann hast du aber eine Killer-GPU erwischt. Glückspilz!
Ich habe mir auch mal die Marshmallows auf den Speichern angeschaut, die sehen ja aus, als ob sie isolieren. Vielleicht ist die schlechte Taktbarkeit des RAMs nur ein Temperaturproblem?? Mal sehen, ob ich den Mut finde, den Kühler runterzureißen - ich habe nämlich den von dir abgebildeten Zalman da.
Übrigens warte ich auch auf den neuen Rivatuner, weil ich nicht sehe, wie das ATiTool die Temps loggen kann?!
@Gast, der nur 560/710 einstellen kann
Der neue Rivatuner kann diesen blöden Test im Treiber deaktivieren, also am 22. wissen wir mehr. Frage: als du das zweite Stromkabel angeschlossen hast, hast du dann wirlklich ein eigenes NT-Kabel genommen oder nur den zweiten Stecker desselben Kabels?
resonatorman[/POST]']:lol: Na wenigstens hast du Humor. Ich meinte, aus der Phase, wo alle mit ihren Benchmarkergebnissen rumprollen, ist der Thread doch schon lange raus.
@czuk
650 - dann hast du aber eine Killer-GPU erwischt. Glückspilz!
Ich habe mir auch mal die Marshmallows auf den Speichern angeschaut, die sehen ja aus, als ob sie isolieren. Vielleicht ist die schlechte Taktbarkeit des RAMs nur ein Temperaturproblem?? Mal sehen, ob ich den Mut finde, den Kühler runterzureißen - ich habe nämlich den von dir abgebildeten Zalman da.
Übrigens warte ich auch auf den neuen Rivatuner, weil ich nicht sehe, wie das ATiTool die Temps loggen kann?!
Hi, also das wird langsam im wahrsten Sinne des Wortes ein heißes Thema!!! Fangen wir mit dem langweiligen an; ATI Tool starten, dann unter Settings oben Dropdown Menü Eintrag Temperature Monitoring wählen. Dort kannst du "Write Temperature Data to log file" auswählen. Die Temps werden dann in ein Txt File im gleichen Verzeichnis geloggt!
Das brauchst du aber eigentlich garnicht. Interessant sind ja die Temperaturen der, sagen wir mal, letzten fünf Minuten. Und die siehst du auch im kleinen fortlaufenden "Monitor" von ATI Tool!
Soo und nun zum Interessanten. Ich habe Gainward einfach mal mit meiner Hitze-Theorie konfrontiert und nebenbei noch nach dem Grund der 1.2ns Speicher gefragt, wenn die keine Sau @1.6Ghz betreiben kann. Antwort war leider sehr ungenau, aber sinngemäß etwa, dass die Speicher (auch in der Vergangenheit schon öfters bei Gainward üblich) nicht wegen der höheren Geschwindigkeit, sondern wegen größerer Zuverlässigekeit gewählt worden sind. Nur so hätte man die internen Design-Vorgaben an Zuverlässigkeit einhalten können.
Gleichzeitig bestätigte man mir (oder eher gesagt stimmte mir zu) die Theorie, dass die Speicher evtl. deswegen nicht taktbar sind, weil die Kupferplatte so schweine heiß unter Last wird.
Hast du ICQ? Das Thema interessiert mich brennend. Passt der Zalman überhaupt auf die Karte? Deckt er dann überhaupt auch die AGP Bridge ab? Die RAMs kann man ja mit normalen Kühlkörpern kühlen...
Den Kühler kannst du SEHR einfach abschrauben. Die Schrauben hinten sind relativ lose. Der Anpressdruckt erfolgt durch leichte Biegung des X-Metalls an der Backplate. Die Schrauben sollte man später ebenso sachte wieder anziehen. Knallt man sie voll zu, biegt sich die Platine etwas durch. Dürfte nicht so gesund auf Dauer sein. Feinmotorik ist also angesagt, keine Grobmotorik.
Der Kühler geht SEHR einfach herunter. Die RAM-Pads haften nur am Kühler, nicht an den RAMs, ergo keine Zugkräfte von Nöten. Die WLP an der Bridge und GPU erzeugen auch nicht wirklich großartige Haftkräfte. Pass nachher beim Zusammenbau nur sehr darauf auf, dass du die beiden silbernen Quarze (???) nicht erwischst. Um zu wissen was ich meine: schau dir die Karte mal an, ehe du den Kühler demontierst. Schau von der Seite mal durch das Loch, wo der Stromstecker für den Lüfter ist. Du siehst, das die Kupferplatte eine Stufe hat. Unmittelbar neben der Kupferplatte ist ein silbernes Bauteil, das meine ich. Derer gibt es zwei, gegenüber ist auch so ein Bauteil relativ nah an der Kupferplatte. Ich könnte mir vorstellen, dass man wenn man nicht vorsichtig ist, den Kühler nachher verkantet und ohne richtigen Kontakt montieren könnte, daher nur mal ein Auge draufwerfen...
Andi_669
2006-05-19, 22:14:01
Das mit dem Zahlman wird schwierig, der Lochkreis des Kühlers ist etwas zur AGP Brücke hin versetzt,
so das der Kühler auf jeden Fall auch auf der Brücke aufliegen, muss sonnst verkantet er. :|
eventuell könnte der 900er Zahlman beides abdecken.
das mit den Befestigungsschrauben ist kein Prob. die kann man nicht zu fest anziehen, (man muss nur aufhören wenn sie auf Anschlag sind)
da ist das Gewinde genau so lang wie nötig so das der richtige Druck auf den Kühler ausgeübt wird,
bei mir ist die AGP Brücke übrigens 0,2mm niedriger als die GPU so das der Kühler nicht 100% Plan auf der GPU aufliegt, :confused:
Ich baue mir gerade einen Wasserkühler für die Karte mal schauen was ich dann damit für Werte erreiche ;)
gruß
Frage: als du das zweite Stromkabel angeschlossen hast, hast du dann wirlklich ein eigenes NT-Kabel genommen oder nur den zweiten Stecker desselben Kabels?
Den zweiten Kabelstrang, der direkt vom NT kam. Ansonsten bringt das ja nichts.
Mit einem nativen PCIe NT wirds und zwei 12V Leitungen wirds womöglich nochetwas besser laufen.
Momentan lasse ich die Karte bei 525/650 MHz laufen, das geht laut ATITool ohne Pixelfehler.
Allerdings ist ATITool in der Tat sehr unbrauchbar, denn ich habe vorhin bereits Oblivion mit 560/720 gespielt, was laut ATITool hunderte Pixelfehler produzierte, doch von denen war im Spiel nichts zu sehen!?
Gibt es solch ein Tool nicht auch für nVidia Karten?
Hallo an alle !
Bitte nicht gleich erschiessen , wenn ich jetzt ne blöde Frage stelle !
Muss man überhaupt 2*Stromkabel anschliessen ? Bei mir scheint es auch mit einem wunderbar zu klappen !
oder ist es mit 2 Kabeln besser ?
Danke schonmal für die Antworten auf meine dumme Frage !
cu
Gast[/POST]']Hallo an alle !
Bitte nicht gleich erschiessen , wenn ich jetzt ne blöde Frage stelle !
Muss man überhaupt 2*Stromkabel anschliessen ? Bei mir scheint es auch mit einem wunderbar zu klappen !
oder ist es mit 2 Kabeln besser ?
Danke schonmal für die Antworten auf meine dumme Frage !
cu
Nein, den zweiten Anschluß hat Gainward nur aus Langeweile mitgeliefert... :|
Natürlich muß man beide anschließen.
;)
resonatorman
2006-05-20, 00:21:56
Also gut, am WE werde ich mal den Zalman mitsamt den Speicherkühlern draufmachen (wenns denn geht), mal sehen, ob das was bringt. Danke für den Hinweis mit den Quarzen. Kann man die fetten Speicherpads eigentlich nochmal verwenden oder gehen die kaputt beim Kühlerabnehmen?
Und nochwas: ich lese immer "AGP-Brücke", ist das dieses längliche schwarze Bauteil direkt hinter den Kontakten? Muß das zwingend gekühlt werden?
Andi_669
2006-05-20, 00:35:53
resonatorman[/POST]']Also gut, am WE werde ich mal den Zalman mitsamt den Speicherkühlern draufmachen (wenns denn geht), mal sehen, ob das was bringt. Danke für den Hinweis mit den Quarzen. Kann man die fetten Speicherpads eigentlich nochmal verwenden oder gehen die kaputt beim Kühlerabnehmen?
Und nochwas: ich lese immer "AGP-Brücke", ist das dieses längliche schwarze Bauteil direkt hinter den Kontakten? Muß das zwingend gekühlt werden?
Den Pad´s von den Speichern passiert nichts beim abmachen, die kannst beliebig oft verwenden, sind wie gesagt am Kühler verklebt, ;)
die AGP-Brücke sitzt zwischen GPU u. AGP-Anschluss, die schaut sogar etwas unter dem Kühler vor, u. die muss zwingend gekühlt werden.
gruß
PS: ich hab das hier mal eingezeichnet:
http://img527.imageshack.us/img527/5322/7800gskopie1hu.th.jpg (http://img527.imageshack.us/my.php?image=7800gskopie1hu.jpg)
resonatorman
2006-05-20, 06:02:42
Andi_669[/POST]']die AGP-Brücke sitzt zwischen GPU u. AGP-Anschluss, die schaut sogar etwas unter dem Kühler vor, u. die muss zwingend gekühlt werden.
Hmm, langt da ein passiver Kühlkörper, der vom Zalman mitbefächelt wird?
Hi !
Nochmal der Dumme hier !
Warum funktioniert die Karte dann bei mir obwohl ich nur ein Stromkabel angeschlossen habe ?
3d Mark 05 = 8216 Pkt.
3d Mark 06 = 4650 Pkt.
Also ich benutze den Adapter , da ich keinen PCIe Anschluss habe !
Ist schon komisch oder ?
resonatorman
2006-05-20, 07:34:08
Gast[/POST]']
Allerdings ist ATITool in der Tat sehr unbrauchbar, denn ich habe vorhin bereits Oblivion mit 560/720 gespielt, was laut ATITool hunderte Pixelfehler produzierte, doch von denen war im Spiel nichts zu sehen!?
Gibt es solch ein Tool nicht auch für nVidia Karten?
Irgendwo habe ich mal sinngemäß gelesen: Die beiden besten Tools zum Erkennen von Artefakten sitzen im Kopf - man nennt sie Augen. :wink:
Klar, nur das Problem ist, das man einzelne Artefakte nicht immer sieht, weil das so schnell geht.
Überleg mal, wie schnell so ein Artefakt auftaucht und wieder verschwinden kann, bei 60+ fps.
Der 3D Mark ist auch nicht so der Bringer... ich konnte ihn problemlos durchlaufen lassen, doch dann gabs in Oblivion Fehler, allerdings war das auch mit 750 MHz Memory. Das Bild war dann vollkommen unleserlich, während das Spiel weiterhin im Hintergrund lief. Das ist doch ein Zeichen dafür, das der Fehler vom Speicher kommt, oder? Ansonsten wäre das Game doch stehen geblieben oder abgestürzt?
TheRealVampire
2006-05-20, 10:21:08
Bei Oblivion muss man einfach mal am Tag in den Himmel gucken,weil dort zumimdest bei mir die ersten Artefakte auftauchen,während man sonst keine sieht,bei den 3DMarks fallen artefakte gar nicht auf,zumindest sind mir keine aufgefallen,aber wie gesagt am Himmel in Oblivion,also habe ich meine Übertaktung auch danach eingestellt,und im Ati Tool sind dann auch keine Artefakte mehr bei mir,während vorher auch immer wieder mal welche gezählt wurden,und somit lande ich bei mir bei,siehe Signatur
resonatorman[/POST]']Also gut, am WE werde ich mal den Zalman mitsamt den Speicherkühlern draufmachen (wenns denn geht), mal sehen, ob das was bringt. Danke für den Hinweis mit den Quarzen. Kann man die fetten Speicherpads eigentlich nochmal verwenden oder gehen die kaputt beim Kühlerabnehmen?
Und nochwas: ich lese immer "AGP-Brücke", ist das dieses längliche schwarze Bauteil direkt hinter den Kontakten? Muß das zwingend gekühlt werden?
Die Pads kannste ohne Probs weiterverwenden, wie gesagt kleben die am Kühler und haben keinerlei festen bzw. klebrigen Kontakt zu den RAMs.
Die Brücke wirst du definitiv kühlen müssen. Rein passiv wird es wohl nicht gehen. Über den Fächerkühler könnte es klappen. Würde da aber testweise mal die Finger dran halten, nicht das sie doch zu heiß wird...
resonatorman
2006-05-20, 15:55:22
@Gast mit P4 3,2
Ich habe eine vergleichbare CPU (3,0@3,5) und meine Ergebnisse sind mit deinen fast identisch, also wohl alles im grünen Bereich.
Übrigens höre ich auch Sirren, Zirpen, Pfeifen unter Last (bei offenem Gehäuse) - zum Glück habe ich kein Silentsystem, und die Quietscherei wird locker von den Lüftern übertönt ;) .
Andi_669
2006-05-20, 16:39:40
resonatorman[/POST]']Hmm, langt da ein passiver Kühlkörper, der vom Zalman mitbefächelt wird?
Es gibt da einen von Zahlman (http://www.pc-cooling.de/de/VGA-Chipset/VGA-K%FChler/Zalman/400100101/Zalman+ZM-VHS1.html), aber wie willst du den fest bekommen. :|
aber der müsste reichen, wenn der Luft von 700/900er bekommt, ;)
der 900er würde von den Löchern her passen, nur die Bodenplatte ist zu klein. :redface:
gruß
Die Karte ist der Hammer. :)
Ich habe jetzt mal PowerStrip genommen, das Tool funktioniert mit der Karte problemlos, ohne die nervigen Abfragen.
Mit Powerstrip war es mir möglich, höhere Taktraten einzustellen. 560/715 MHz lief problemlos durch, was wohl viele Karten schaffen sollten. Keine Pixelfehler.
Bis 590 MHz Core geht die Karte noch hoch, aber dann gibt es Freezes. Beim Speicher ist das noch viel extremer. Den kann ich mit Powerstrip auf bis zu 820 MHz drehen. Erst bei 830 MHz verschwindet das Bild, der Bench läuft dann aber weiter durch.
Ich gehe daher davon aus, das immer der Speicher schuld ist, wenn das Game noch weiter läuft, nur das Bild nicht mehr sichtbar ist.
Pixelfehler sind bei dieser Taktrate dann auch im 3D Mark sichtbar (vom Speicher), da war es dann aber sehr auffällig. Also gehe ich mal davon aus, das ATiTool mist anzeigt, wenn da angeblich schon bei 550/700 welche sein sollen, sie aber nicht zu sehen sind. :)
Mich wundert, das der Speicher so hoch geht. Wenn das tatsächlich 1,4ns Bausteine sein sollen, dann haben die aber viele Reserven. Mit mehr Spannung dürfte das eventuell gar noch stabil hinzubekommen sein!
SimonX
2006-05-20, 17:26:51
@Andi_669
Was für eine Kennung kann man auf den Speicherchips? Die kann man auf dem Bild leider nicht lesen.
@alle, die den Kühler abgebaut haben.
Ihr habt das sicher wieder zusammengesetzt. Wie ist die Temperatur der Karte nach dem Zusammensetzen? Habt ihr eine gute WLP benutzt? (So AS5)
Gast[/POST]']Die Karte ist der Hammer. :)
Ich habe jetzt mal PowerStrip genommen, das Tool funktioniert mit der Karte problemlos, ohne die nervigen Abfragen.
Mit Powerstrip war es mir möglich, höhere Taktraten einzustellen. 560/715 MHz lief problemlos durch, was wohl viele Karten schaffen sollten. Keine Pixelfehler.
Bis 590 MHz Core geht die Karte noch hoch, aber dann gibt es Freezes. Beim Speicher ist das noch viel extremer. Den kann ich mit Powerstrip auf bis zu 820 MHz drehen. Erst bei 830 MHz verschwindet das Bild, der Bench läuft dann aber weiter durch.
Ich gehe daher davon aus, das immer der Speicher schuld ist, wenn das Game noch weiter läuft, nur das Bild nicht mehr sichtbar ist.
Pixelfehler sind bei dieser Taktrate dann auch im 3D Mark sichtbar (vom Speicher), da war es dann aber sehr auffällig. Also gehe ich mal davon aus, das ATiTool mist anzeigt, wenn da angeblich schon bei 550/700 welche sein sollen, sie aber nicht zu sehen sind. :)
Mich wundert, das der Speicher so hoch geht. Wenn das tatsächlich 1,4ns Bausteine sein sollen, dann haben die aber viele Reserven. Mit mehr Spannung dürfte das eventuell gar noch stabil hinzubekommen sein!
Hast du den Thread gelesen? Falls du die GS+ hast; die hat 1.2ns Speicher...
resonatorman
2006-05-20, 17:39:52
http://img373.imageshack.us/img373/8568/47129i08tc.jpg (http://imageshack.us)
Problem: die Löcher auf dem PCB sind so, daß der Zalman nicht ganz auf der GPU aufliegt - zu riskant (mal ganz abgesehen von der fehlenden Kühlung für die Bridge). Außerdem gefällt mir die Silencerkühlung sehr gut: ordentlich befestigt, leise, effizient und noch mit Reserven (Lüfter läuft in 3D mit 50% lt. Nibitor). Die einzig seriöse Möglichkeit, die Rams zu kühlen, ist IMO folgende:
8 Metallplättchen (am besten nat. Kupfer) 13x11x1,5mm und diese dann mit WLP oben und unten zwischen Rams und Kupferplatte einklemmen. Dabei natürlich spähen, daß die Platte einwandfrei auf GPU und Bridge aufliegt, ggfs. Plättchen dünner schleifen. Auch möglich: anstelle einzelner Plättchen zwei größere längliche Bleche oder eben ein Winkelblech.
Andi_669
2006-05-20, 18:01:17
resonatorman[/POST]']Die einzig seriöse Möglichkeit, die Rams zu kühlen, ist IMO folgende:
8 Metallplättchen (am besten nat. Kupfer) 13x11x1,5mm und diese dann mit WLP oben und unten zwischen Rams und Kupferplatte einklemmen. Dabei natürlich spähen, daß die Platte einwandfrei auf GPU und Bridge aufliegt, ggfs. Plättchen dünner schleifen. Auch möglich: anstelle einzelner Plättchen zwei größere längliche Bleche oder eben ein Winkelblech.
Genau 1,3mm sind bei mir die Ram´s niedriger als die GPU.
habe auch den Verdacht das die sogenannten Wärmeleitpads mehr isolieren als leiten,
war da nicht auch mal was mit normalen Arbeitsspeicher, der sich ohne Heatspreader u. Pad´s besser übertakten lies als mit,
u. die Pad´s da waren deutlich dünner als bei unseren Kühler. :|
gruß
resonatorman
2006-05-20, 18:24:01
Andi_669[/POST]']habe auch den Verdacht das die sogenannten Wärmeleitpads mehr isolieren als leiten,
war da nicht auch mal was mit normalen Arbeitsspeicher, der sich ohne Heatspreader u. Pad´s besser übertakten lies als mit,
u. die Pad´s da waren deutlich dünner als bei unseren Kühler. :|
Naja, dann müßte halt nur mal jemand die Pads runtermachen und probieren ;)...
mike49
2006-05-20, 18:34:50
Hui, ich habe meine 7800GS+ gerade von 540 max. Core-Takt auf 615 gebracht mit dem V-Mod von resonatorman. Und das beste ist, daß ich gerade mal bei 1.3V bin :)
Thx @resonatorman!
Andi_669
2006-05-20, 19:04:57
resonatorman[/POST]']Naja, dann müßte halt nur mal jemand die Pads runtermachen und probieren ;)...
Ich werde das mit dem Übertakten erst testen wenn Mein Wasserkühler fertig ist, :)
hat eigentlich mal einer von euch die Kondensatoren von Spannungsversorgung angefasst, die werden verflucht warm, da lässt man den Finger nicht lange drauf, ich hab keinen Bock das die mir abrauchen,
u. wenn ich den Kühler hab bekommen die Spannungswandler u. Kondensatoren einen 60er Lüfter verpasst. ;)
gruß
resonatorman
2006-05-20, 20:05:06
Andi_669[/POST]']Ich werde das mit dem Übertakten erst testen wenn Mein Wasserkühler fertig ist, :)
Kühlt die Wakü dann auch die Rams mit?
Andi_669
2006-05-20, 20:28:24
resonatorman[/POST]']Kühlt die Wakü dann auch die Rams mit?
Ja der Kühler wird ähnlich wie der NVXP-3 von Alphacool (http://www.alphacool.de/xt/product_info.php/products_id/309/cPath/5_18_291/gfx-komplettkuehler-und-gfx-sets/wak-gfx-alphacool-nexxxos-nvxp-3-nvidia-6800-7800-7900.html)
also das mit den feinen Kühlrippen u. der Zuführung im Plexiglas. :)
außerdem passenden Stufen für den Ram u. die AGP-Brücke,
ich werde aber das Originale X-Federblech benutzen, das ist eigentlich eine gute Lösung,
da durch das Gummi der Druck genau auf Rückseite der Platine ausgeübt wird, u. die sich dann nicht durch biegt.
gruß
resonatorman
2006-05-21, 03:29:26
Andi_669[/POST]']außerdem passenden Stufen für den Ram u. die AGP-Brücke,
Klasse! Dann ermittle doch bitte jetzt mal den Maximaltakt für den Ram mit Originalkühler, dann werden wir ja sehen, ob das OC sich mit besserer Kühlung verbessert.
Wird es eigentlich in absehbarer Zeit ein Programm geben, mit den man die Spannung von Core oder Speicher erhöhen kann, ohne an der Hardware modden zu müssen?
Nibitor erkennt die Karte zwar, lässt aber nichts anderes als 1,2V auswählen.
Vorallem beim Speicher sollte mehr drin sein, nur wie kann man dem mehr Spannung verpassen?
Andi_669
2006-05-21, 16:21:33
resonatorman[/POST]']Klasse! Dann ermittle doch bitte jetzt mal den Maximaltakt für den Ram mit Originalkühler, dann werden wir ja sehen, ob das OC sich mit besserer Kühlung verbessert.
Mal schauen, aber ich wollte die wie gesagt erst hochzien wenn der WK fertig ist, :)
Es gibt hier auch noch ein Beitrag mit der 7900gt 512 von XpertVision/PALIT (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4318083#post4318083)
die scheint soweit Baugleich (bis auf die AGP-Brücke) zu unserer zu sein, auch die Gainward 900GT mit 512MB scheint dieses Layout zu haben.
die haben mit dem Speicher auch Probs, die erreichten Taktraten für GPU u. Speicher decken sich mit dem was hier so erreicht wird, obwohl da der Speicher eigene Kühlkörper hat. :|
gruß
Ich denke der Speicher bekommt etwas zu wenig Saft... Laufen tut er ja auch bei höheren Taktraten, nur dann halt mit Pixelfehler.
Was mich aber wundert ist die Tatsache, die dortigen PCIe GTs fast immer über 600 MHz Core erreichen. Warum? Die haben doch die gleiche Standardspannung von 1,2V?
Hat die GTX 1,4V?
Jemand schrieb auch: "habe aber ein von mir selbst gebasteltes Bios mit 1,30V für die GPU zu liegen"
Wie macht man sowas denn?
Gast[/POST]']Ich denke der Speicher bekommt etwas zu wenig Saft... Laufen tut er ja auch bei höheren Taktraten, nur dann halt mit Pixelfehler.
Was mich aber wundert ist die Tatsache, die dortigen PCIe GTs fast immer über 600 MHz Core erreichen. Warum? Die haben doch die gleiche Standardspannung von 1,2V?
Hat die GTX 1,4V?
Jemand schrieb auch: "habe aber ein von mir selbst gebasteltes Bios mit 1,30V für die GPU zu liegen"
Wie macht man sowas denn?
Es gibt für die GS+ kein BIOS mit 1.3V, da die VID nicht im BIOS hinterlegt ist. Der Speicher bekommt definitiv NICHT zuwenig Saft. Der läuft sogar mit 2.08V statt 2V. Die Taktprobleme des Speichers müssen eine andere Ursache haben. Hitze oder schlechtes Layout z.B.
Die GTX hat 1.4V, richtig.
czuk[/POST]']Es gibt für die GS+ kein BIOS mit 1.3V
Ja, aber für die 7900 GT auf PCIe. Die Gainward soll doch auch diesen Chip haben, wieso kann man dann diese nicht genauso modden? Das muss doch irgendwie gehen, wenn man sogar die Spannung mit Nibitor auslesen kann, das zeigt ja schon, das diese dort hinterlegt ist.
Gast[/POST]']Ja, aber für die 7900 GT auf PCIe. Die Gainward soll doch auch diesen Chip haben, wieso kann man dann diese nicht genauso modden? Das muss doch irgendwie gehen, wenn man sogar die Spannung mit Nibitor auslesen kann, das zeigt ja schon, das diese dort hinterlegt ist.
In Nibitor ist 1.2V hinterlegt, nicht 1.3V.
Die GS+ mag zwar den gleichen G71 Chip haben, die Spannungsregler unterscheiden sich aber.
czuk[/POST]']In Nibitor ist 1.2V hinterlegt, nicht 1.3V.
Genau das habe ich doch gesagt. Und wenn die dort hinterlegt ist, wieso kann man sie dann nicht ändern?
Fehlt noch die Unterstützung durch die Tools?
Man kann das mit einem Hexeditor ändern, nur wird das dann auch übernommen?
Gast[/POST]']Genau das habe ich doch gesagt. Und wenn die dort hinterlegt ist, wieso kann man sie dann nicht ändern?
Fehlt noch die Unterstützung durch die Tools?
Man kann das mit einem Hexeditor ändern, nur wird das dann auch übernommen?
Du hast mich offensichtlich falsch verstanden. In Nibitor ist 1.2V hinterlegt. Die VID für 1.3V ist nicht bekannt. Mavke, der Admin von MVKTech und Vater des Nibitors steht mit mir in Kontakt und hat die Karte demnächst für ein Review zur Verfügung. Dann wird er auch diesen Fragen nachgehen. Aktuell geht es definitiv NICHT über Software.
Ehrlichgesagt vermisse ich das auch garnicht. Der Pencil Mod ist einfacher und sicherer als jedes Bios-Flashen.
Also ein Hardwaremod ist nie sicherer, als ein Softwaremod.
Zumal man einen Softwaremod jederzeit rückgängig machen kann, ohne das die Karte einen bleibenden Schaden davon trägt!
Also heißt das wohl, das ein Softwaremod möglich wäre, sobald die Entwickler dahinter kommen... das klingt jetzt schon anders, als vorhin und genau das war auch meine Meinung.
Möglich sein muss es ja irgendwie. Nur wie, das wird man wohl erst in ein paar Wochen wissen. :)
mike49
2006-05-21, 21:03:42
Gast[/POST]']Also ein Hardwaremod ist nie sicherer, als ein Softwaremod.
Zumal man einen Softwaremod jederzeit rückgängig machen kann, ohne das die Karte einen bleibenden Schaden davon trägt!
Naja, einen Pencil-Mod kann man genauso jederzeit wieder rückgängig machen.
Und mir ist es auch deutlich sympathischer, ein bißchen auf dem Widerstand rumzumalen als ein )Grafikkarten-)Bios zu flashen.
mike49[/POST]']Naja, einen Pencil-Mod kann man genauso jederzeit wieder rückgängig machen.
Schön, das ändert nur nichts daran, das du die Karte niemals mehr in den Auslieferungszustand versetzen kannst, denn der ist ungemoddet und ohne Kratzer bzw. Rückstände. :)
Und mir ist es auch deutlich sympathischer, ein bißchen auf dem Widerstand rumzumalen als ein )Grafikkarten-)Bios zu flashen.
Ein Softwaremod ist mir immer sympathatischer, weil man es jederzeit rückgängig machen kann, auch wenn was schief geht!
@Gast: Ich behaupte jetzt mal einfach: Du hast gar keine Ahnung von dem, was du da redest. Schonmal einen Pencil-Mod gemacht? Ich tippe mal auf nein.
Der Pencil Mod ist absolut unkritisch und jederzeit wieder spurlos rückgängig zu machen...
Außerdem kannst du GENAU die Spannung einstellen, die du willst und mußt nicht auf ein Tool vertrauen. Flash-Vorgänge sind immer eine kritische Sache, auch tragbar, aber hier zu behaupten der Pencil-Mod wäre "kritischer" ist eindeutig daneben.
Myst70
2006-05-22, 11:10:09
Funktioniert bei einem die Lüftersteuerung??
weder mit dem expertool noch mit den einstellungen im bios wird der lüfter weder hoch noch runter geregelt.
@Myst70: Den Verdacht hatte ich auch schon. Ich habe nur bemerkt, dass eine Erhöhung der Drehzahl im BIOS keinerlei Einfluss auf die Lautstärke hatte und die Temps beim OC nicht wirklich niedriger waren...
Der neue RT sollte da evtl. Auskunft geben können.
Myst70
2006-05-22, 11:29:26
czuk[/POST]']@Myst70: Den Verdacht hatte ich auch schon. Ich habe nur bemerkt, dass eine Erhöhung der Drehzahl im BIOS keinerlei Einfluss auf die Lautstärke hatte und die Temps beim OC nicht wirklich niedriger waren...
Der neue RT sollte da evtl. Auskunft geben können.
Danke dir ich dachte schon sie hätte einen weg.
Ich frage mich nur was die einstellung im bios (2D=20% 3D=50%) bringen soll wenn ehnichts geregelt wird, wie schon gesagt ich habe jetzt 2D=40% und 3D=90% aber der luftstrom hinten am Kühler bleibt immer gleich wenig regelt im 3D-Modus nicht hoch.
Ich glaub da wird mal wieder eine Anfrage in Richtung Gainward Support fällig. Ich mach's mal...
So, hier die Antwort von Gainward. Es ist wohl so, dass Nvidia den Zugriff auf die Fan Control biosseitig abgeriegelt hat. Gainward kann selbst auch nur noch die ID (GPU), die Spannung und die Taktfrequenzen biosseitig ändern. Laut Gainward hätten viele Karten dieses Problem, welche ursprünglich auf kleine Referenzkühler setzten...
Die Lüfter wären auch nicht mehr Gleichspannungsgeregelt, sondern Impulsbreitengesteuert.
Gainward hofft nun auf ein korrigiertes BIOS, die entsprechende Anfrage ging bereits an das Herstellerwerk in Taiwan.
Das heißt also: BIOSSEITIG ist die Lüfterdrehzahl unabhängig von den angezeigten Werten nicht mehr zu ändern!!!
Myst70
2006-05-22, 13:31:13
czuk[/POST]']Ich glaub da wird mal wieder eine Anfrage in Richtung Gainward Support fällig. Ich mach's mal...
Danke war echt toll von dir :-))
ich dachte mir schon so was in der art.
Nachtrag: Bis Gainward eine Lösung hat wird es noch dauern, da man den Microcode ändern muß und dies laut Gainward nur Nvidia kann/darf.
Myst70
2006-05-22, 14:32:43
Ja und das ist mal wieder echt toll so in einem Jahr wird´s dann wohl so weit sein.
Naja dann würde ich sagen, wird es ein bisschen Zeit den Damen&Herren von nvidia zahlreiche Mails/Anfragen zu senden. Bei 1500 GS+ müssten doch rund die Hälfte der User dazu zu bewegen sein, oder ?
Weil wenn nur Gainward mit Taiwan spricht, wird nie was passieren. Aber wenn deren Mailfach voll ist mit Anfragen, wir auch ein Taiwanese weich werden...
lg Gast
czuk[/POST]']@Gast: Ich behaupte jetzt mal einfach: Du hast gar keine Ahnung von dem, was du da redest. Schonmal einen Pencil-Mod gemacht? Ich tippe mal auf nein.
Lachhaftes Posting. Zeigt nur mal wieder, das jemand nicht weiß, wovon er redet.
Der Pencil Mod ist absolut unkritisch und jederzeit wieder spurlos rückgängig zu machen...
Niemals. Kleine Rückstände und Kratzer bleiben immer, auch wenn sie mikroskopisch sind, was anderes habe ich nie gesagt.
Das reicht mir aber schon, um darauf zu verzichten, an der Hardware zu modden, wenn es auch über die Software gehen würde. Denn Software lässt sich immer zurückspielen, auch wenn was schief geht.
Ich bin übrigens Programmierer und weiß sehr wohl wovon ich rede.
Na wenn du Programmierer bist, dann schreib dir doch ein tolles Tool mit dem das geht...
Ich bin sicher, das würden alle Pencil-Mod Gegner sehr befürworten.
Von mikroskopischen Kratzern war nie die Rede. Diese sind im übrigen auch keineswegs interessant. Kein Kartenhersteller wird sich die Mühe machen, ein PCB auf Kratzer abzusuchen, die man mit dem Auge nichtmal sehen kann.
Und ich bin Ingenieur, und als solcher bevorzuge ich jederzeit handfeste Mods, als irgendeine Software... und?
Fakt ist, es gibt kein Tool das es zur Zeit kann, es gibt aber sehrwohl einen völlig reversiblen Pencil-Mod.
Was wählt man jetzt blos, wenn man nen Vmod machen will? Hmm... :|
czuk[/POST]']Von mikroskopischen Kratzern war nie die Rede. Diese sind im übrigen auch keineswegs interessant. Kein Kartenhersteller wird sich die Mühe machen, ein PCB auf Kratzer abzusuchen, die man mit dem Auge nichtmal sehen kann.Ist es nicht vollkommen egal, ob sich der Kartenhersteller die Mühe macht? Wenn du eine Karte gemoddet hast, hast du auch sämtliche Garantie-/Gewährleistungsansprüche verloren. Es ist einfach nur asozial und obendrein Betrug, wenn man dennoch versucht sich die Ansprüche zu erschleichen.
Gast[/POST]']Ist es nicht vollkommen egal, ob sich der Kartenhersteller die Mühe macht? Wenn du eine Karte gemoddet hast, hast du auch sämtliche Garantie-/Gewährleistungsansprüche verloren. Es ist einfach nur asozial und obendrein Betrug, wenn man dennoch versucht sich die Ansprüche zu erschleichen.
Ja natürlich, und ein BIOS Mod ist kein Betrug und nicht asozial.
Also bitte, das ist lächerlich. Es macht keinen Unterschied ob ich einen Pencil Mod oder einen BIOS Mod mache. In beiden Fällen verliert man die Garantie, in beiden Fällen betreibt man die Karte ausserhalb der Spec.
Und im übrigen habe ich mit KEINEM Wort gesagt, das ich soetwas machen würde. Ich vertrete den Standpunkt OC auf eigene Gefahr. Wenn was schiefgeht, bin ich dran schuld. Punkt. Eben hast du noch großartig damit geprahlt, dass Software soviel besser wäre, weil man sie rückspielen könne. Erwähn ich das Äquivalente in Hardware dazu, bin ich der Buhmann.
Ganz schön schizophren von dir, was du hier je nach Posting vertrittst.
Ich wollte nur mal anmerken, dass das Posting auf das du dich beziehst, von einem anderen Gast stammte, nicht von mir.
Bestätigt meine Meinung nur noch mehr. ;)
resonatorman
2006-05-22, 20:24:57
Gast[/POST]']
Das reicht mir aber schon, um darauf zu verzichten, an der Hardware zu modden, wenn es auch über die Software gehen würde. Denn Software lässt sich immer zurückspielen, auch wenn was schief geht.
Ich bin übrigens Programmierer und weiß sehr wohl wovon ich rede.
Du bist vielleicht Programmierer, aber sicher kein Praktiker! Darf ich dir mal meine Erfahrungen mitteilen, die nicht auf der Threorie ("mikroskopisch kleine Kratzer" :lol: ), sondern auf Erfahrungen beruhen: seit meiner GF4 alle Karten gevoltmodded mit Löten, Leitlack oder Bleistift: keinen einzigen Ausfall. Eine Karte (FX5900XT) mit Modbios versehen: Karte im Eimer. Und nein, die Software ließ sich nicht zurückspielen, trotz PCI-Karte und Zweitcomputer!
resonatorman
2006-05-22, 20:25:52
@czuk
Wie müssen wir das jetzt verstehen, läuft der Lüfter defaultmäßig auf 20, 50 oder 100%?
czuk[/POST]']Ja natürlich, und ein BIOS Mod ist kein Betrug und nicht asozial.Doch, natürlich ist es das. Aber wie du wohl schon gemerkt hast, waren die verschiedenen Postings nicht alle von einem Gast. Das mit den Garantieansprüchen war von mir, das mit dem Software-Mod von einem anderen.
So, absofort ignoriere ich alle Gäste die keinen Namen angeben. :P
@resonatorman: Es ist so, dass der Lüfter mit einer fixen Drehzahl läuft. Welche? Keine Ahnung. Aus ähnlichen Erfahrunge mit einem AC Silencer weiß ich aber, dass der Lüfter der GS+ nicht mit 100% läuft. Müsste ich den Vergleich zum Modell machen, welches ich mal besaß, würde ich sagen der Lüfter der GS+ läuft mit 30-50%, aber keinesfalls mehr.
Das würde auch erklären, warum die Karte mit nur 1.4V schon so schweineheiß wird (die GTX hat 1.4V default).
Als Lösungen stehen jetzt im Raum:
1.) auf ein modifiziertes BIOS von Gainward warten. Was laut Gainward aber lange dauern kann, da man u.a. den Microcode ändern muss.
2.) auf neue Erkenntnisse durch Mavke, den Nibitorentwickler hoffen.
3.) den Lüfter von der Karte abklemmen und an ne PWM Regelung hängen. Sollte gehen, hab ich aber nicht parat. Kann das einer von euch evtl. testen?
Andi_669
2006-05-22, 21:57:25
Der neue RivaTuner ist da http://downloads.guru3d.com/download.php?det=163
mit etwas Glück bekommen ich morgen meinen WK fertig das passt ja mal wider :D
gruß
mike49
2006-05-22, 22:54:31
Da man mit dem neuen RT ja nun die Pipelines bei der GS+ deaktivieren kann, erlaube ich mir mal mein altes Post herauszugraben:
mike49[/POST]']
A64 3200+ Clawhammer @2.2GHz
2x1024MB MDT @220MHz 2,5-3-3 1T
FW 84.43 @default settings (Q + tri-opt.)
3DMark 03 GS+ GS
425/625 14.458 14.086
500/625 16.097 15.746
450/700 15.369 14.907
500/700 16.395 16.085
3DMark 05
425/625 7.077 6.933
500/625 7.863 7.831
450/700 7.555 7.446
500/700 8.111 8.003
Wie man sieht, ist die GS+ bei gleichem Takt (und auch sonst exakt gleichen Bedingungen ca. 1-3% schneller als die GS. Wenn man jedoch die Resultate der GS+ @425/625 mit denen GS @500/625 vergleicht sieht man, daß der GS+ ca. 10% auf die GS fehlen, obwohl die GS+ bei diesem Setting aufgrund der 24 Pixelpipelines leicht im Vorsprung sein sollte (425*24=10.200; 500*20=10.000).
Ich habe die 7800GS+ mit exakt den gleichen Einstellungen mal @20Pipes/7VS (= 'alte' 7800GS 512MB) gebencht:
3DM03 @500/700: 15.616 Punkte (vs. 16.085 bei der 'echten' GS)
3DM05 @500/700: 7.711 Punkte (vs. 8.003 Punkte bei der GS)
Sind zwar nur 3-4% Unterschied, bestätigt allerdings meine These daß die 7800GS+ ein bißchen zu langsam ist im Vergleich zur alten GS.
resonatorman
2006-05-22, 22:59:14
czuk[/POST]']Es ist so, dass der Lüfter mit einer fixen Drehzahl läuft. Welche? Keine Ahnung. Aus ähnlichen Erfahrunge mit einem AC Silencer weiß ich aber, dass der Lüfter der GS+ nicht mit 100% läuft. Müsste ich den Vergleich zum Modell machen, welches ich mal besaß, würde ich sagen der Lüfter der GS+ läuft mit 30-50%, aber keinesfalls mehr.
Hmm, RT sagt aber 100%...
mike49
2006-05-22, 23:05:25
resonatorman[/POST]']Hmm, RT sagt aber 100%...
Dazu noch ein altes Post von mir:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4263579&postcount=341
Bin mir übrigens immer noch ganz sicher, daß das (verglichen mit der alten GS) max. 50%, eher sogar nur 30% sind. Wäre schon gut, wenn man den Lüfter noch etwas höher bekäme. Dann könnte ich die Karte endlich guten Gewissen @650MHz Core laufen lassen ;)
Ich stelle mal wieder fest, das viel zu viele User blind irgendeiner Software vertrauen.
@Mike49, resonatorman; wie sich hier ja herausstellt zeigt der Rivatuner zwar 100% an, es sind aber eher <50%, ich stimme mike49 da zu.
Die Performanceunterschiede könnten doch zum Teil auch aufgrund lascher Speichertimings rühren, oder?
mike49
2006-05-22, 23:54:08
czuk[/POST]']Die Performanceunterschiede könnten doch zum Teil auch aufgrund lascher Speichertimings rühren, oder?
Angeblich sollen die ja verhältnismässig scharf sein sein bei der GS+.
Immerhin ist der Rückstand der GS+ @20/7 auf die GS deutlich größer als ihr Vorsprung @24/8 auf die GS bei gleichem Takt. Ergo wäre die Minderleistung aufgrund der laxen Timings deutlich höher als die Mehrleistung der 4 zusätzlichen Pipes.
IMHO nicht sehr wahrscheinlich, daß schlechtere Speichertimings mehr ausmachen als ein zusätzliches Quad...
resonatorman
2006-05-23, 06:24:47
Was kann das denn noch sein...?
mike49
2006-05-23, 21:05:11
czuk[/POST]']Es gibt für die GS+ kein BIOS mit 1.3V, da die VID nicht im BIOS hinterlegt ist.
Hier behauptet jemand, die GS+ per BIOS-Flash auf 1.3V gebracht zu haben:
http://www.forumdeluxx.de/forum/showpost.php?p=3725872&postcount=546
Mal abwarten...
resonatorman
2006-05-24, 02:27:03
Das glaube ich erst, wenn er die erhöhte Spannung auch gemessen hat... :rolleyes:
Ich frage mich eher, wie er das eingestellt hat. Denn ich kann mit Nibitor keine Spannung ändern...
Andi_669
2006-05-24, 23:02:10
So mein WK ist fertig,
http://img370.imageshack.us/img370/7958/7800gswk4yo.th.jpg (http://img370.imageshack.us/my.php?image=7800gswk4yo.jpg)
mit was ermittle ich jetzt den maximalen Takt,
mit dem ATI TOOL oder mit dem Treiber u. CoolBits :confused:
Das ATI Tool hat mir GPU ~555Mhz u. Ram 789Mhz, beim automatischen ermitteln angezeigt, allerdings ist beim ATI-Tool bei 789Mhz dieser Würfel stehengeblieben, ich konnte die Maus noch bewegen u. das ATI Tool abschießen. :|
Der Treiber schlägt mir ~527Mhz GPU u. 784Mhz Ram vor. :rolleyes:
Leerlauf-Temp. ist im Moment 35°, beim Testen mit dem ATI-Tool war sie auf 42° :D
bei ~33° Wasser (Sensor "im" CPU-Kühler)
also werde das System unter 50° halten können, selbst wenn es draußen wieder richtig warm ist. ;)
gruß
resonatorman
2006-05-25, 01:17:16
Du bekommst 78x MHz auf den wassergekühlten RAMs? Dann ist es auch kein Temperaturproblem...
Heimatloser
2006-05-25, 11:17:05
Bei den PCI-E 7900er Chips setzt ja im Moment das große Sterben ein, weil Nvidia ja ein Problem mit irgendwelchen Widerständen bei den Chips hat (Ist angeblich nur bei 2% der GPUs der Fall).
Hat schon jemand von einer Gainward Bliss 7900GS+ AGP die dieses Problem hat ?
DerHeimatlose
Zum Spannungsproblem: Ich hatte doch irgendwo ein Preview der 91.x Forceware gesehen, mit dem neuen Controlpanel, in dem man die Spannung der GPU und der RAMs selbst regeln konnte im OC-Menu. Auf guru3d gibt es den 91.28 schon zum download (knackige 61mb in der international Version), aber vielleicht geht es ja mit dieser Version schon?
AMC
SKYNET
2006-05-25, 13:04:52
Heimatloser[/POST]']Bei den PCI-E 7900er Chips setzt ja im Moment das große Sterben ein, weil Nvidia ja ein Problem mit irgendwelchen Widerständen bei den Chips hat (Ist angeblich nur bei 2% der GPUs der Fall).
Hat schon jemand von einer Gainward Bliss 7900GS+ AGP die dieses Problem hat ?
DerHeimatlose
:rolleyes:
mehr, muss man dazu nicht sagen, oder? :|
Außerdem wären selbst 2% sehr viel... kann ich mir beim besten willen nicht vorstellen. Demnach müsste jeder 50. User in diesem Forum eine defekte 7900 GT haben. Ich würde eher sagen, die Quote liegt im viel niedriger, also im normalen Bereich.
Ausfallen wird jede Grafikkarte mal, ob das an den Chips liegt, ist eine andere Frage.
Heimatloser
2006-05-25, 14:03:45
Ich kann leider auch nur nach den angeblichen Aussagen von Nvidia gehen.
Tatsächlich wären die angegebenen "nur" 2% ja sogar ein großes Problem und ein beachtlicher Imageverlußt.
Habe aber zum Glück bei der 7900GS+ bisher noch von keinem Problem in der Richtung gehört.
Liegt vielleicht ja auch daran, daß der Core weniger Spannung bekommt, was man dann ja durch die vielen Pencil Modder mitbekommen wird - aber wer weiß das schon ?!?
DerHeimatlose
Andi_669
2006-05-25, 14:31:17
resonatorman[/POST]']Du bekommst 78x MHz auf den wassergekühlten RAMs? Dann ist es auch kein Temperaturproblem...
Das ist zumindestens das was mir die Tool´s sagen, :|
ich werde mich jetzt langsam hochtasten,
eventuell mach auch noch den V-Mod :)
das mit dem Sterben scheint hauptsächlich die 7900GTX zu betreffen,
30 funktionierende zu 9 defekten ist schon heftig
bei den GT´s sieht es besser aus 25 zu 1 :confused: (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=298043)
gruß
maistaeda
2006-05-26, 12:07:14
mike49[/POST]']Hier behauptet jemand, die GS+ per BIOS-Flash auf 1.3V gebracht zu haben:
http://www.forumdeluxx.de/forum/showpost.php?p=3725872&postcount=546
Mal abwarten...
nene hat net geklappt.
maistaeda
2006-05-29, 17:09:06
son sche...
will einfach nur mal zocken und statt dessen ständiges troubleshooting.
temp angeblich -242 und karte regelt runter.
reboot und alles wieder gut.
aber wenn ich dann ein game zocke dann beende und ein anderes oder das gleich wieder starte dann wieder -242 und slideshow.
das ist doch glaub ich ein bekanntes problem oder?
was kann ich machen?
mike49[/POST]']Hier behauptet jemand, die GS+ per BIOS-Flash auf 1.3V gebracht zu haben:
http://www.forumdeluxx.de/forum/showpost.php?p=3725872&postcount=546
Mal abwarten...
Das hat sich ja offensichtlich im Thread wieder geklärt. Der hat nichts nachgemessen ;)
Tja, aktuell hab ich nichts neues zu berichten, ausser dass es scheinbar neuere Karten gibt (2.Charge) die vereinzelt die 1600Mhz RAM-Takt knacken.
Gleichzeitig haben die Karten ein schärferes Timingset laut Nibitor, das ist doch total unlogisch, oder?
Andi_669
2006-05-29, 22:48:31
czuk[/POST]']Das hat sich ja offensichtlich im Thread wieder geklärt. Der hat nichts nachgemessen ;)
Tja, aktuell hab ich nichts neues zu berichten, ausser dass es scheinbar neuere Karten gibt (2.Charge) die vereinzelt die 1600Mhz RAM-Takt knacken.
Gleichzeitig haben die Karten ein schärferes Timingset laut Nibitor, das ist doch total unlogisch, oder?
oder ist das, wie das, was ich mit meinen Corsair hatte, die mochten auch keine langsamen Timing´s :|
es sollen auch Karten mit 1,4er Infineon-Speichern aufgetaucht sein,
kann sein das das die mit den schärferen Timings´s sind, dann wäre aber noch unlogischer das die 1600Mhz packen. :confused:
gruß
800 MHz... davon kann ich nur träumen. ;)
Bei meinem alten System lässt der Treiber zwar bis zu 750 MHz einstellen, aber ich hatte schon bei 630 MHz einen Fehler in Windows!
Das kanns wohl nicht sein, oder? :)
Übrigens ist die Karte extrem CPU limitiert. Beim Umstieg von 3,5 GHz P4 auf Pentium M gabs mal eben 7000 Punkte mehr im 3DM2001SE.
Weitere Ergebnisse folgen sicher noch...
Gast[/POST]']800 MHz... davon kann ich nur träumen. ;)
Bei meinem alten System lässt der Treiber zwar bis zu 750 MHz einstellen, aber ich hatte schon bei 630 MHz einen Fehler in Windows!
Das kanns wohl nicht sein, oder? :)
Übrigens ist die Karte extrem CPU limitiert. Beim Umstieg von 3,5 GHz P4 auf Pentium M gabs mal eben 7000 Punkte mehr im 3DM2001SE.
Weitere Ergebnisse folgen sicher noch...
Liegt eher daran, dass der alte 3DMark2001 heute generell eher CPU limitiert ist...
Also ich habe eine der Grakas die Infineon Speicher drauf hat Bezeichnung der Chips " HYB18H512321AF-14 " habe noch kein Datasheet gefunden. Schade hatte sie mir eigentlich gekauft weil geschrieben wurde, da sind 1.2ns Chips von Samsung drauf. Habe sie momentan mit 500/700 laufen da nach mehreren stunden BF2 Zocken Darstellungsfehler auftraten die auf zu heissen Ram deuten. Da mein Rechner komplett Wassergekuehlt ist bekomme ich die Temps der Graka auch erst mal nicht weiter runter.
Leider passt meine Wakue von meiner x800 nicht drauf und fuer Gainwardkarten gibt es keine zu kaufen.
@ Andi_669
Wo bekommt mann solches dickes Plexi her und diesen O Ring?
Was wiegt der Kuehler?
Wie hast Du die Rillen rein bekommen?
@czuk
Habe denn Luefter direkt an der 12v Leitung vom Netzteil. Der Luefter dreht nicht schneller als wenn er auf der Graka steckt.
gibt es irgend wo eine deutsche anleitung fuer Nibitor?
Nach einlesen des Bios wird mir da Timigset 0 angezeigt.
Was muss ich bei denn Timings machen das er meine eigenen in Nibitor anzeigt? Autoselect timingset oder ist damit gemeint er testet selber und zeigt mir dann ein timing an was bei mir laufen wuerde?
Gast[/POST]']Also ich habe eine der Grakas die Infineon Speicher drauf hat Bezeichnung der Chips " HYB18H512321AF-14 " habe noch kein Datasheet gefunden. Schade hatte sie mir eigentlich gekauft weil geschrieben wurde, da sind 1.2ns Chips von Samsung drauf. Habe sie momentan mit 500/700 laufen da nach mehreren stunden BF2 Zocken Darstellungsfehler auftraten die auf zu heissen Ram deuten. Da mein Rechner komplett Wassergekuehlt ist bekomme ich die Temps der Graka auch erst mal nicht weiter runter.
Leider passt meine Wakue von meiner x800 nicht drauf und fuer Gainwardkarten gibt es keine zu kaufen.
@ Andi_669
Wo bekommt mann solches dickes Plexi her und diesen O Ring?
Was wiegt der Kuehler?
Wie hast Du die Rillen rein bekommen?
@czuk
Habe denn Luefter direkt an der 12v Leitung vom Netzteil. Der Luefter dreht nicht schneller als wenn er auf der Graka steckt.
gibt es irgend wo eine deutsche anleitung fuer Nibitor?
Nach einlesen des Bios wird mir da Timigset 0 angezeigt.
Was muss ich bei denn Timings machen das er meine eigenen in Nibitor anzeigt? Autoselect timingset oder ist damit gemeint er testet selber und zeigt mir dann ein timing an was bei mir laufen wuerde?
Hast du die GS+ Karte? Da sind eigentlich immer Samsung 1.2ns Speicher drauf. Aber das ist Jacke wie Hose! In der Praxis laufen alle Karten gleich schnell, die 1.2ns RAMs bringen eh keine 1600Mhz, die meisten machen bei 1500-1550Mhz schlapp und das schafft man auch mit guten 1.4ns RAMs!
Es gibt ne Wakü für die Karte:
http://server6.gs-shop.de/200/cgi-bin/shop.dll?&AnbieterID=3395&rndid=77685367&Seite=frameset.htm&bnr=10132&PKEY=6D54
Bei Nibitor einfach Autoselect auswählen, dann hast dein Timingset.
Ja ich habe die bliss7800GS+ 512mb. ist ein G71-GT-NT-A2 und eine HSI-N-A4 drauf, wird auch mit 24/8 pipelines angezeigt.
habe Timingset 7
Danke fuer denn Wakuelink.
Von der Wakue halte ich nicht viel weil der abtransport der Waerme ist viel zu gering ausserdem sieht die sch***** aus. Dann ist die noch lackiert was noch einmal der Waermeabfuhr verschlechtert.
Andi_669
2006-05-31, 19:04:19
Gast[/POST]']
@ Andi_669
Wo bekommt mann solches dickes Plexi her und diesen O Ring?
Was wiegt der Kuehler?
Wie hast Du die Rillen rein bekommen?
Ich arbeite an einer UNI in der Metallwerkstatt da bleib so einiges hängen, :D
ich Zugriff auf eine CNC-Fräse usw.
die Rillen hab ich mir einen ScheibenFräser (Sägeblatt) gemacht,
die Dichtung ist ein O-Ring mit 107mm u. 2mm Stärke
ich hab mir die Gesamtlänge ausgerechnet die nötig ist, u. dann auf den Durchmesser zurückgerechnet,
wir haben einen Lieferanten wo man so ziemlich alle Abmessungen bekommt,
kosten Pro Stück 1,-€ :)
gruß
Stefan 008
2006-05-31, 19:06:28
Gast[/POST]']Ja ich habe die bliss7800GS+ 512mb. ist ein G71-GT-NT-A2 und eine HSI-N-A4 drauf, wird auch mit 24/8 pipelines angezeigt.
habe Timingset 7
Danke fuer denn Wakuelink.
Von der Wakue halte ich nicht viel weil der abtransport der Waerme ist viel zu gering ausserdem sieht die sch***** aus. Dann ist die noch lackiert was noch einmal der Waermeabfuhr verschlechtert.
wie meinst du denn das mit dem Abtransport der Wärme ist zu gering ?? , hab den Wakü seit gestern und die GPU Temps sind ca. um 25Crad° bei Last gefallen , im idle sinds ca. 10°
@Andi_669
Ist die andere Seite Plan oder hast Du da fuer denn Ram die Erhoehung gelassen.
@Gast: Ich kann Stefan 008 nur zustimmen; die Wärme wird über diese Wakü recht gut abgeführt. Andere User berichten ebenfalls von Verbesserungen um 20°C, die RAMs werden übrigens ebenfalls super gekühlt.
Andi_669
2006-05-31, 22:19:24
Gast[/POST]']@Andi_669
Ist die andere Seite Plan oder hast Du da für denn Ram die Erhöhung gelassen.
Passende Erhöhungen für den Ram u. die AGP-Brücke, die ist auch um 0,2mm niedriger als die GPU. ;)
gruß
Mr.Magic
2006-05-31, 22:37:33
Stefan 008[/POST]']wie meinst du denn das mit dem Abtransport der Wärme ist zu gering ?? , hab den Wakü seit gestern und die GPU Temps sind ca. um 25Crad° bei Last gefallen , im idle sinds ca. 10°
Sicher das die Grafikkarte unter Last 25°C kälter ist?
Meine GS+ ist luftgekühlt und hat unter Last ca. 52-54°C, 52-25=27°C - das wäre bei mir gerade mal 3°C über Raumtemp. Allerdings ist die Karte nagelneu, ich habe bisher nur gespielt und noch keinen Intensivtest mit ATi-Tool gemacht.
Wenn sie bei dir bis zum Anschlag übertaktet ist kann ich es mir allerdings ganz gut vorstellen.
Stefan 008
2006-05-31, 22:53:58
Mr.Magic[/POST]']Sicher das die Grafikkarte unter Last 25°C kälter ist?
Meine GS+ ist luftgekühlt und hat unter Last ca. 52-54°C, 52-25=27°C - das wäre bei mir gerade mal 3°C über Raumtemp. Allerdings ist die Karte nagelneu, ich habe bisher nur gespielt und noch keinen Intensivtest mit ATi-Tool gemacht.
Wenn sie bei dir bis zum Anschlag übertaktet ist kann ich es mir allerdings ganz gut vorstellen.
da ich keine lüfter (Gehäuselüfter usw..)zwecks wakü verbaut habe , war bei mir die last temp nicht 54 wie bei dir sondern 60-65 C° und jetzt habe bei last 40-45 C° ,idle temp ist ca. 30-32C° was ohne wakü bei ca. 43-45 C° war.
EDIT : meine Graka ist gar nicht übertaktet :)
Andi_669
2006-05-31, 23:03:01
Stefan 008[/POST]']da ich keine lüfter (Gehäuselüfter usw..)zwecks wakü verbaut habe , war bei mir die last temp nicht 54 wie bei dir sondern 60-65 C° und jetzt habe bei last 40-45 Crad° ,idle temp ist ca. 30-32C° was ohne wakü bei ca. 43-45 C° war
sind bei mir ähnliche Werte, ;)
gruß
Und kann mir mal jemand den Sinn dieser Modifikation erklären? Die GPUs halten locker bis 100 Grad aus, was bringt es da, an der Karte herumzupfuschen und die Garantie zu verlieren? Leise ist auch so... :confused:
Andi_669
2006-05-31, 23:12:38
Gast[/POST]']Und kann mir mal jemand den Sinn dieser Modifikation erklären? Die GPUs halten locker bis 100 Grad aus, was bringt es da, an der Karte herumzupfuschen und die Garantie zu verlieren? Leise ist auch so... :confused:
na leise definiert jeder anders. :tongue:
gruß
Stefan 008
2006-05-31, 23:13:41
Gast[/POST]']Und kann mir mal jemand den Sinn dieser Modifikation erklären? Die GPUs halten locker bis 100 Grad aus, was bringt es da, an der Karte herumzupfuschen und die Garantie zu verlieren? Leise ist auch so... :confused:
wenn man nur wakü installiert hat dann hört man sogar den leisen AC Lüfter :)
und wenn ich schon eine Wakü habe will ich auch nach Möglichkeit alles in den Kreislauf mit einbinden , und 20-25 C° weniger kann doch nur für die Lebensdauer sprechen,bezüglich der Garantie da hast Du natürlich recht , ist aber wieder ein anderes Thema :)
Andi_669[/POST]']na leise definiert jeder anders. :tongue:
Und wie definierst du dann bitte, "leiser als unhörbar"?
Denn bei mir ist sie wirklich unhörbar, auch bei offenem Gehäuse.
Also kann da was nicht stimmen... zumal ich auch nur silentkomponenten im Einsatze habe.
Stefan 008
2006-05-31, 23:21:27
Gast[/POST]']Und wie definierst du dann bitte, "leiser als unhörbar"?
Denn bei mir ist sie wirklich unhörbar, auch bei offenem Gehäuse.
Also kann da was nicht stimmen... zumal ich auch nur silentkomponenten im Einsatze habe.
ich geh mal davon aus das du lüfter verbaut hast , auch wenns Silentkomponenten sind , zu einer Wakü die ganz ohne Lüfter auskommt gibts wohl doch noch einen unterschied :)
EDIT :warscheinlich hörst du deine Karte nicht weil etwas anderes lauter ist
Stefan 008[/POST]']wenn man nur wakü installiert hat dann hört man sogar den leisen AC Lüfter :)
und wenn ich schon eine Wakü habe will ich auch nach Möglichkeit alles in den Kreislauf mit einbinden , und 20-25 C° weniger kann doch nur für die Lebensdauer sprechen,bezüglich der Garantie da hast Du natürlich recht , ist aber wieder ein anderes Thema :)
Wenn du schon von Lebensdauer spricht...
Gerade deshalb ist es noch viel unsinniger, an der Karte herumzupfuschen. Denn durch deine modifikationen verlierst du die Garantie, da nützt dir auch eine wahrscheinlich höhere Lebensdauer der Karte nichts mehr, wenn sie nach einer Woche oder nach einem Monat kaputt geht.
Mir erschließt sich nach wie vor der Sinn nach diesen Modifikationen nicht und das obwohl ich selbst ein PC Enthusiast bin.
Stefan 008[/POST]']ich geh mal davon aus das du lüfter verbaut hast
Nein, dank Pentium M + Sonic Tower + 120mm Enermax (bei 800u/min) nicht mehr.
Und ich muss es wissen, da mein Gehör noch völlig in ordnung ist (ich bin kein Musik und Diskofan) und nebenbei noch im gleichem Raum schlafe. ;)
Stefan 008
2006-05-31, 23:27:02
naja das risiko muss ich wohl in kauf nehmen zumal mir bisher noch nie hardware wegen eines kühlerwechsels kaputt gegangen ist .
Und wenn du ein PC Enthusiast bist geh ich auch mal davon aus das du schon den ein oder anderen kühler/Lüfter usw.. gewechselt hast, ob da wohl nicht bei dem ein oder anderen Hardwareteil die Garantie flöten ging ??? :)
EDIT:bekomme morgen auch meinen Pentium M , mal sehn wie das Teil rockt :)
Mr.Magic
2006-05-31, 23:30:16
So, ich habe die Karte mal mit dem ATi-Tool gequält. Damit komme ich ebenfalls auf ein Maximum von 66°C.
@Gast
Der AC-Lüfter ist definitiv nicht lautlos (wüsste auch nicht wie das gehen soll) aber relativ leise. Bei mir ist er ebenfalls hörbar (wenn ich gezielt danach lausche), allerdings in einer angenehm tiefen Frequenz die nicht weiter stört. Wenn deine Festplatten nicht abgepackt sind werden die sowieso das Lauteste vom System sein.
Ich war noch nie in der Situation, das ich an der Hardware rumpfuschen musste, schließlich kann ich mich vor dem Kauf über die Lautstärke informieren.
Hat die letzten 15 Jahren ganz gut geklappt, nur die Gehäuselüfter habe ich mehrmals getauscht, aber das ist ja kein Ding, sind 10 Euro Teile...
Doch bei einer 399 Euro Karte, bei der man auch mit der leisen (und bei mir unhöbaren) Luftkühlung alles erreichen kann, nämlich gute Temperaturen und maximales OC-Ergebniss, sehe ich null Sinn darin, die Karte zu modifizieren.
Noch dazu, weil die Folgen nicht absehbar sind. Du sagst, das die Karte eventuell länger lebt... ich sage dir: Das kannst du überhaupt nicht abschätzen.
Woher weißt du denn, ob nicht bei deiner Kühlung nun wieder so ein Fall eintritt, wie bei damaligen Grafikkartenkühlern, bei denen z.B. der RAM oder andere Bauteile überhitzen:confused:
Da behalte ich die Karte doch lieber 2 Jahre lang im normalzustand und wenn sie nichts mehr wert ist, kann ich immer noch daran herumpfummeln. :)
Stefan 008
2006-05-31, 23:39:32
naja also die rams werden mit dem wakü mitgekühlt da mach ich mir keine sorgen ,bisher hatte ich nie probleme mit meiner wakü,hoffe mal das es auch so bleibt ,sollte die karte wirklich den geist aufgeben dann muss ich halt ne neue kaufen :) trotz allen risiken bin ich von wakü überzeugt und werde Sie auch weiterhin verwenden .
ich denke mal du willst darauf hinaus ob ich die Graka im falle eines defektes als garantiefall einschicken würde , ganz ehrlich , da habe ich mir noch keine Gedanken darüber gemacht weil ich wie gesagt bis jetzt noch keine Hardware durch nen Umbau mit wakü geschrottet habe und alle grakas ,CPU's bis zum weiterverkauf einwandfrei liefen .
EDIT : muss jetzt ins bett , n8 :)
Also wirst du deine Meinung eventuell doch mal ändern, wenn es dir mal passiert oder gleich mehrfach.
Stell dir vor: Zwei Karten innerhalb von 12 Monaten defekt... kann durchaus passieren und wenn du die jedes mal neu kaufen müsstest, bist du irgendwann pleite. :)
Davon mal abgesehen, finde ich es sinniger, das Gehäuse ansich ruhiger zu stellen, als an den einzelnen Komponenten hand an zu legen.
Nur ein Problem lässt sich bis heute immer noch nicht beheben: Wie kann man ein Plextor DVD Laufwerk ruhig stellen, ohne an Speed zu verlieren? ;-)
DAS ist das lauteste am GESAMTEN PC :)
Stefan 008
2006-05-31, 23:47:43
also meine Meinung werde ich wohl erst ändern wenn es Lautlose kühlung gibt die gleich mitgeliefert wird , wie z.b. damals die passivkühler auf grakas ( war glaube ich GF4 zeit ) wobei dann die wakü immer noch den Temp vorteil hat , nur meistens werden echt shit lüfter/kühler mitgeliefert mit denen ich nichts anfangen kann , wobei ich eingestehen muss das der AC der auf der Bliss GS+ verbaut ist schon recht gut war in der Lautstärke , trotzdem für mich zulaut da ich bis dato einen lautlosen PC hatte ,vielleicht auch gewöhnungssache :)
jetzt aber wirklich n8 :)
Gast[/POST]']Und kann mir mal jemand den Sinn dieser Modifikation erklären? Die GPUs halten locker bis 100 Grad aus, was bringt es da, an der Karte herumzupfuschen und die Garantie zu verlieren? Leise ist auch so... :confused:
Subjektiv schlafen manche User einfach besser, wenn die Karte mit 50°C statt 100°C läuft.
Doch bei einer 399 Euro Karte, bei der man auch mit der leisen (und bei mir unhöbaren) Luftkühlung alles erreichen kann, nämlich gute Temperaturen und maximales OC-Ergebniss, sehe ich null Sinn darin, die Karte zu modifizieren.
Falsch. Maximale OC-Ergebnisse erreicht man immer nur dann, wenn die Chips auch halbwegs kühl bleiben. Da macht eine WaKü umso mehr Sinn.
Noch dazu, weil die Folgen nicht absehbar sind. Du sagst, das die Karte eventuell länger lebt... ich sage dir: Das kannst du überhaupt nicht abschätzen. Woher weißt du denn, ob nicht bei deiner Kühlung nun wieder so ein Fall eintritt, wie bei damaligen Grafikkartenkühlern, bei denen z.B. der RAM oder andere Bauteile überhitzen
Die RAMs werden mitgekühlt und das äusserst gut, verglichen zur originalen Lösung. Ansonsten KANN die WaKü Lösung nur besser sein. Schonmal unter den Kühler geschaut? Alles was drunter ist und nicht direkten Kontakt zum Kühler hat (und das ist neben Bridge, GPU und RAMs quasi die ganze Vorderseite der Karte!) ist permanent einem Wärmestau ausgesetzt. Das ist ein großer Nachteil des großen AC VGA Silencer Kühlers. Ich sage; mit einer WaKü erhöht man selbst die nicht gekühlten Bauteile alleine dadurch, dass man den Wärmestau eliminiert.
Im Übrigen erreicht man bei 20°C geringerer Temperatur rein statistisch bereits eine 50% größere MTBF. Da ich aktuell als Reliability Engineer arbeite und mich tagtäglich mit der Zuverlässigkeit von Elektronik beschäftige, kannst du mir das mal so glauben ;)
Nichts desto trotz habe ich keine WaKü. Die Lösung ist zwar super, aber der Wechsel zur WaKü erstmal recht teuer, was ich mir nicht leisten will. Daher lebe ich auch noch mit der original-Kühlung und das auch recht gut.
Und jetzt mal ehrlich; von den Frühausfällen in den ersten sechs Monaten abgesehen, geht Elektronik meistens genau dann kaputt, wenn die Garantie abgelaufen ist. Alles andere ist überdimensioniert aus Herstellersicht ;)
Von daher würde ich mir nach einer gewissen Laufzeit über die Garantie absolut keine Gedanken mehr machen (wenn der Anfang der Badewannenkurve durchlaufen worden ist) und einfach ne WaKü aufsetzen. Gemäß der Reliability-Lehre WIRD nichts in der restlichen Zeit bis Garantieende kaputt gehen.
czuk[/POST]']Subjektiv schlafen manche User einfach besser, wenn die Karte mit 50°C statt 100°C läuft.
Der Unterschied ist nicht so groß. Bei mir läuft sie mit Luft und übertaktet auf maximal 60 Grad.
Falsch. Maximale OC-Ergebnisse erreicht man immer nur dann, wenn die Chips auch halbwegs kühl bleiben. Da macht eine WaKü umso mehr Sinn.
Du redest allgemein vom übertakten, berücksichtigst bei der Karte aber nicht, das nicht die Temperatur limitiert.
Also ich kann meine auch mit 560 MHz Core takten und dann limitiert die Spannung des Cores und selbst dann komme ich nicht über 60 Grad, was für einen Chip dieser Art äußerst kühl ist.
Was hätte es mir gebracht, mit Wasser zu kühlen? Ohne VMod definitiv nichts, nach dem was ich bisher so lese, scheint eher das Exemplar zu entscheiden, wieviel möglich ist, nicht die Kühlung.
Im Übrigen erreicht man bei 20°C geringerer Temperatur rein statistisch bereits eine 50% größere MTBF. Da ich aktuell als Reliability Engineer arbeite und mich tagtäglich mit der Zuverlässigkeit von Elektronik beschäftige, kannst du mir das mal so glauben ;)
Mag alles sein, aber du kannst den Faktor "Pech" nicht einschätzen.
50% mehr Lebensdauer gegen 100% Garantieverlust tauschen ist ein schlechter Deal. Und das weiß jeder BWLer. :tongue:
Du redest von maximalen OC-Ergebnisse. Die erreicht man ohne Vmod aber nicht, daher setze ich den vorraus. Da dieser auch kinderleicht durchzuführen ist und die Leistungszuwäche infolgedessen nicht zu verachten sind, ist er durchaus interessant.
Zumal die 7900GTX quasi das gleiche Boardlayout hat und auch mit 1.4V statt 1.2V betrieben wird.
DANN wird Kühlung allerdings zum limitierenden Faktor, den Vmod kann man auch noch höher treiben, dann wird Kühlung erst recht zum limitierenden Faktor.
Meine erreicht aktuell bei 1.28V schon Temperaturen von etwa 73°C, einer WaKü wäre ich nicht abgeneigt...
Sicherlich kann ich den Faktor Pech nicht einschätzen. Ich kann aber sehrwohl sagen, dass dieser, wenn man weiß was man tut, gegen null strebt.
Letzlich muß jeder selbst entscheiden was er will und ob er mit den Garantieverlust leben kann oder nicht. Ich könnte es recht gut.
andererGast
2006-06-01, 17:36:23
czuk[/POST]']Letzlich muß jeder selbst entscheiden was er will und ob er mit den Garantieverlust leben kann oder nicht. Ich könnte es recht gut.Bei einer >500€-Graka könnte ich es nicht. Bei meinem ollen 3000+ Winchester kann ich prima ohne Garantie leben, wenn er dafür auf ordentlichen Taktraten läuft. Wer sich einen Totalverlust der Hardware nicht leisten kann (wie ich bei 500€-Grakas), der sollte dann auch nicht modden. Meine Meinung.
resonatorman
2006-06-01, 20:42:18
czuk[/POST]']Letzlich muß jeder selbst entscheiden was er will und ob er mit den Garantieverlust leben kann oder nicht. Ich könnte es recht gut.
Lol, da fällt mir meine gute alte 9800Pro ein. Die habe ich gleich am ersten Tag, als ich sie neu hatte, heftigst umgebaut mit Pentiumkühler und Vmod mit Löten - irreparabel. Ich war wie im Rausch...und hab es nie bereut. Die Karte läuft heute noch prima bei meinem Käufer AFAIK.
http://img48.imageshack.us/img48/1858/9800seit.jpg
Man bin ich sauer. :mad:
Die 7800 GS+ erzeugt bei mir auf Standardtakt Grafikfehler bei längeren Gamesessions.
Das kann es doch wirklich nicht sein, zumal die Core Temperatur gerade mal bei 49-65 Grad liegt.
Das Gehäuse wird mit einem 120er Netzteil und 2 x 80mm Lüfter (Noiseblocker @ 12V) gekühlt.
Was zum Teufel soll das? Sehr ärgerlich, langsam denke ich darüber nach, mein Pentium M Sys zu verkaufen und mir stattdessen a64 + x1800xt zu holen.
resonatorman
2006-06-06, 02:27:34
Wie sehen die Fehler denn aus?
Das kann man schon gar nicht mehr beschreiben...
Es fängt mit leichten Clippingfehlern an und hinterher verschwindet fast das ganze Bild, bzw. ich sehe nur noch Striche und Dreiecke...
Hast du mal die Standard-Treiber ausprobiert, welche Gainward mitliefert? Tritt der Fehler bei allen Spielen auf?
Falls du beides mit ja beantworten kannst, Garantie-Schein ausfüllen und zurück damit. Wo ist das Problem?
moin leute
erstmal dicker daumen für den thread
aber was kann man nun schlussentlich sagen
lohnt sich die GS+ da viele positive bewertungen abgegeben haben
oder reicht die normale mit 20 pipes und ein 30 euroen weniger
oder reicht gar die normal gs mit 16 pipes??
Gast[/POST]']moin leute
erstmal dicker daumen für den thread
aber was kann man nun schlussentlich sagen
lohnt sich die GS+ da viele positive bewertungen abgegeben haben
oder reicht die normale mit 20 pipes und ein 30 euroen weniger
oder reicht gar die normal gs mit 16 pipes??Das hängt ganz von deinen Ansprüchen ab. In welcher Auflösung spielst du bzw. willst du spielen? Legst du Wert auf hohe AA/AF-Modi? Wie lange willst du die Karte behalten?
Also was den Unterschied GS zu GS+ angeht; ermittelt wurden ja im Schnitt 8-10% mehr Leistung. Die wären für mich zumindest den Mehrpreis wert.
also wenn dann sollte oblivion schon ordentlich laufen
hab ein 3000xp 1gig ram 420w nt
und würde noch wenigstens ein jahr damit spieln
Myst70
2006-06-06, 13:09:14
Gast[/POST]']also wenn dann sollte oblivion schon ordentlich laufen
hab ein 3000xp 1gig ram 420w nt
und würde noch wenigstens ein jahr damit spieln
Nicht lange überlegen kaufen marsch marsch, ist einfach zu geil die Karte alle Spiele mit den höchsten einstellungen einfach nur Perfekt doch echt geile sache meine läuft mit 500Mhz-GPU und 650Mhz-Speicher (mehr bin ich noch nicht gegangen reicht auch dicke aus) und hat noch genügend reserven für das was noch so an spielen kommen mag.Ich kann nur sagen daumen hoch für diese 7800gs+
Andi_669
2006-06-06, 13:15:39
Also was Oblivion jetzt an Grafikkartenspeicher frisst weiß ich nicht genau,
aber es ist schon ein deutlicher unterschied von der normalen GS 16/7 mit 256MB zu GS+ , ich hatte z.B. in FEAR mit der übertakteten GS 16/7 bei 1280x960 mit 4AA echte Probs, die GS+ hat das unübertaktet ohne Probs geschluckt. :)
habe mal den Rivatuner mitlaufen lassen, den Vogel hat Quake4 abgeschossen, in der Maximalen Texturstufe waren das bis zu 493MB Grafikkartenspeicherverbrauch, u. 1,56GB Gesamt Hauptspeicherverbrauch. :eek:
gruß
The_Invisible
2006-06-06, 13:34:41
Andi_669[/POST]']Also was Oblivion jetzt an Grafikkartenspeicher frisst weiß ich nicht genau,
aber es ist schon ein deutlicher unterschied von der normalen GS 16/7 mit 256MB zu GS+ , ich hatte z.B. in FEAR mit der übertakteten GS 16/7 bei 1280x960 mit 4AA echte Probs, die GS+ hat das unübertaktet ohne Probs geschluckt. :)
habe mal den Rivatuner mitlaufen lassen, den Vogel hat Quake4 abgeschossen, in der Maximalen Texturstufe waren das bis zu 493MB Grafikkartenspeicherverbrauch, u. 1,56GB Gesamt Hauptspeicherverbrauch. :eek:
gruß
Oblivion verbrät mit standard-texturen bis zu 300mb, mit 2048² texturen mod war es dann so max 500mb. man kann die höher aufgelösten texturen ohne performanceverlust benutzen solange nicht der vram voll ist. 512mb lohnen also schon
mfg
czuk[/POST]']Hast du mal die Standard-Treiber ausprobiert, welche Gainward mitliefert?
Nein, sofort den aktuellsten offiziellen nV Treiber installiert.
Tritt der Fehler bei allen Spielen auf?
Bisher bei zwei Games.
Im nV Forum schrieb jemand von Grafikfehlern bei der Verwendung von 8xSS.
Genau diesen Modus hatte ich aktiviert, kann das zu solchen Fehlern führen? Das komische ist, das die Fehler erst nach etwa einer Stunde aufgetreten sind.
Mr.Magic
2006-06-07, 16:07:21
Tritt dieser Fehler sofort auf deutet er auf defekten RAM hin, wenn er erst nach längerer Zeit auftritt dürfte es an Überhitzung liegen. Ich würde zunächst mal überprüfen ob es im Gehäuse möglicherweise einfach zu warm wird. Tritt der Fehler auch bei offenem Gehäuse auf würde ich aber sofort reklamieren.
Heute sind die Bildfehler wieder aufgetreten. Es äußerte sich sogar so stark, das man nicht einmal mehr einen Charakter sehen konnte in einem Spiel, sondern nur noch flimmern.
Mir war es auch nicht möglich, einen Screenshot zu machen, denn die Taste, die normalerweise dafür vorgesehen war, funktionierte nicht.
Außerdem ist das Spiel schon einmal abgestürzt, als die Grafikfehler auftreten und dann kam etwas ganz merkwürdig: Die Desktopauflösung wurde auf 640x480 x 32 bit Farbe gesetzt.
Ich wollte sie wieder auf 1280x960 erhöhen, das ging aber nicht, denn er sagte, ich hätte keine Berechtigung dazu und nach dieser Meldung hat er sie auf 640x480 x 4 bit Farbe gesetzt. :crazy:
Ich habe den offiziellen Treiber jetzt mal runtergeschmissen und versuche es erstmal mit dem offiziellen Beta Treiber 91.31.
Da ist mir aber auch schon ein nerviger Bug aufgefallen: Das Taskleistensymbol startet jedes mal mit, obwohl ich es deaktiviert habe.
Man, ich wette nVidia hat das absichtlich gemacht. ;)
Du redest nicht von Oblivion, oder? Da habe ich ähnliche Symptome, lasse ich das OC bleiben hab ich aber keine Probleme => Oblivion ist extremst sensibel was OC angeht. Alle anderen Games laufen bei mir mit OC ohne Probleme...
Ich habe nicht übertaktet und es war nicht Oblivion.
Hallo habe auch solche Bildfehler aber auf einer Gainward Bliss 7800GS+ Silent 512MB AGP. Leider wurde bei meiner Graka Infineon Ram HYB18H512321AF-14 verbaut,der laut Datasheet von Infineon 350mhz schaffen soll. Bei mir treten aber schon im Canyon Flight des 3DMark05, sowie bei BF2 ueber 330mhz diese Fehler auf.Der Nvidia Treiber schlaegt mir aber nach Ueberpruefung sogar eine Taktfrequenz von 374mhz vor,
das ATI Tool zeigt mir einen takt von 344mhz einige stunden fehlerfrei an laut Logdatei.
Habe aber kurioser weise ab einer Taktfrequenz von ueber 333mhz
Bildfehler.
Am GPU liegt es nicht denn kann ich bis maximal 580 einstellen. Bei
mir liegt es eindeutig am Ram. Der Originaltakt
liegt bei 312mhz, kann ich ja eigentlich nicht reklamieren?
Andi_669
2006-06-13, 18:20:24
Wichtig an alle die V-Mod gemacht haben messt eure Spannungen/Wiederstände
angeblich hat sich bei mehren bei forumdeluxx (http://www.forumdeluxx.de/forum/showpost.php?p=3827677&postcount=834) der Widerstandswert von selbst nach unten geändert so das die GPU zu viel Spannung bekommt. :eek:
ob es stimmt wer weiß aber lieber überprüfen nicht das die GPU abraucht,
ich werde dann die V-Mod wohl doch mit dem Lötkolben machen, zu Glück hab ich passende SMD-Wiederstände da ;)
gruß
Hat jemand die 7800 GS(+) für AGP und das Spiel Dungeon Siege 2?
Das Spiel erkennt die Karte nicht (Grafikoptionen) und außerdem stürzt es bei Spielstart (3D Modus) ab, mit der Meldung, das mit der nv4_disp (oder so) etwas nicht normal funktioniert.
Genutzt wird der Beta Treiber 91.31.
Lässt sich das Problem irgendwie lösen, denn es wäre nicht so toll, wenn das Spiel auf aktuellen Karten nicht mehr laufen will, das Addon kommt erst. ;(
Andi_669[/POST]']Wichtig an alle die V-Mod gemacht haben messt eure Spannungen/Wiederstände
angeblich hat sich bei mehren bei forumdeluxx (http://www.forumdeluxx.de/forum/showpost.php?p=3827677&postcount=834) der Widerstandswert von selbst nach unten geändert so das die GPU zu viel Spannung bekommt. :eek:
ob es stimmt wer weiß aber lieber überprüfen nicht das die GPU abraucht,
ich werde dann die V-Mod wohl doch mit dem Lötkolben machen, zu Glück hab ich passende SMD-Wiederstände da ;)
gruß
Kann ich bestätigen, danke für die Info!
Meiner Messung zufolge ging die Spannung bei mir von 1.28V auf 1.33V rauf. Das würde auch die plötzlich sehr guten OC Ergebnisse erklären ;)
Ich hab es noch gerade bei vr-zone und extremesystems publik gemacht.
Hallo.
Kann mir mal bitte jemand sagen/schreiben wie lang die Karte ist.
Gruß
Guenni
So lang wie eine 6800'er Karte.
Voluminös wird sie allerdings durch den montierten Silencer.
um auf die frage nach der länge zu antworten
die karte is gut 22-23 cm lang dazu must man aber noch den stromanschluss
rechnen der nochmal mit 4-5 cm zu buche schlagen sollte um die kabel nich all
zu arg zu knicken - außerdem ist der stromanschluss doch recht ungünstig angeordnet da wenn es knapp werden sollte mit den festplatten
dieser anschluss genau auf höhe von ide datenkabel oder stromanschluss sata
sitzt (jedenfalls bei meinem miditower von chieftec war das so)
zudem sollte man auch die höhe des lüfters berücksichtigen da diese fast ans
ende der graka reicht und somit evtl. auch störent in hinsicht platz zwischen graka und platten sein könnte
Mr.Magic
2006-06-16, 18:48:53
Hinzufügend möchte ich noch darauf hinweisen das effektiv zwei PCI-Slots unter der GraKa blockiert sind. Bei einer größeren Karte im zweiten Slot (AGP mitgezählt im dritten) dürfte dann sogar der Lüfter der GS zumindest schleifen.
resonatorman
2006-06-16, 19:32:07
*
Die Karte ist in der Tag etwas (zu) lang, bei mir blockierte sie bereits einen Festplattenschacht, weil man wegen dem größeren Kühler kein SATA und Stromkabel mehr dazwischen bekommt.
Das Problem dürfte aber wohl nur bei Midi Tower auftreten, weil die meist bis ganz nach unten gehen mit den Schächten, bei Big Towern ist das nicht immer der Fall und da hat man auch mehr Platz, um die Komponenten umzubauen.
Schönen dank für die hilfe.
Habe mir die Karte gestern gekauft. Ist wirklich ein Monstrum und sehr sehr schwer. ICH hatte große Probleme beim einbau. Selbst bei einem Big Tower von Chiftec.
Um es kurz zu machen, die Karte geht morgen zurück.
Man kann eben aus nem AGP A64 3200+ System kein High End System machen. ( Leider :-) )
Sicher, bei EINIGEN Games geht es ganz schön ab, aber eben nur bei einigen.
Wer glaubt man kann nun Oblivion in voller Pracht geniessen ist leider auf dem Holzweg. Klar, das Spiel läuft besser als mit meiner X800 pro, aber noch lange nicht mit allen Details.
Und ich kann mir auch nicht vorstellen, das man Spiele der nächsten Generation (UT2007-Crysis) in voller Pracht geniessen kann.
Das ist aber nur meine bescheidene Meinung. :-)
Gruß
Guenni
Tjell
2006-06-18, 17:16:03
Gast[/POST]']...
Wer glaubt man kann nun Oblivion in voller Pracht geniessen ist leider auf dem Holzweg. Klar, das Spiel läuft besser als mit meiner X800 pro, aber noch lange nicht mit allen Details...
Welche Karte kann Oblivion (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/16/#abschnitt_oblivion) überhaupt in voller Pracht darstellen? ;)
The_Invisible
2006-06-18, 17:45:58
Tjell[/POST]']Welche Karte kann Oblivion (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/16/#abschnitt_oblivion) überhaupt in voller Pracht darstellen? ;)
in 640x480 würde es schon recht gut gehen auf vielen karten :)
mfg
Tjell
2006-06-18, 18:50:17
The_Invisible[/POST]']in 640x480 würde es schon recht gut gehen auf vielen karten :)
mfg
Toll. Das erinnert mich an Doom 1 auf meinem 386er, wo ich das Spiel nur in Briefmarkengröße spielen konnte. :D
Tjell[/POST]']Welche Karte kann Oblivion (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/16/#abschnitt_oblivion) überhaupt in voller Pracht darstellen? ;)
Was ist für dich volle Pracht? Auf Nvidia Karten wäre das HDR in irgendeiner Auflösung mit max AF. Das funktioniert super!
Also ich kann es mit maximalen Einstellungung spielen (maximal ist immer das, was ich in den Optionen einstellen kann, alles andere sind Änderungen, die vom Spiel nicht vorgesehen waren)!
Tjell
2006-06-18, 19:17:53
Gast[/POST]']Was ist für dich volle Pracht? Auf Nvidia Karten wäre das HDR in irgendeiner Auflösung mit max AF. Das funktioniert super!
Also ich kann es mit maximalen Einstellungung spielen (maximal ist immer das, was ich in den Optionen einstellen kann, alles andere sind Änderungen, die vom Spiel nicht vorgesehen waren)!
Volle Pracht heutzutage? Kein Treppenstufeneffekte an schrägen Linien und Katen (AA), keine matschigen oder flimmernden Texturen (AF). Und wenn man das bei Oblivion einschaltet liegen die FPS schnell am Boden.
Tjell[/POST]']Volle Pracht heutzutage? Kein Treppenstufeneffekte an schrägen Linien und Katen (AA), keine matschigen oder flimmernden Texturen (AF). Und wenn man das bei Oblivion einschaltet liegen die FPS schnell am Boden.
Genau das geht doch. Ich spiele mit max Details + HDR + max AF, schon seit längerem.
HDR + AA ist bei nVidia nicht möglich, von daher... ;)
Tjell
2006-06-18, 19:23:50
Gast[/POST]']Genau das geht doch. Ich spiele mit max Details + HDR + max AF, schon seit längerem.
HDR + AA ist bei nVidia nicht möglich, von daher... ;)
Doch: SSAA. :tongue:
Außerdem glaube ich, dass die Benchmarks bei CB ganz gut zeigen, was ich meine. Oblivion ist einfach eine Performance-Bremse allererster Güte.
Ich denke, das liegt weniger an der Grafikkarte, vielmehr an der CPU.
Wenn es so wäre wie alle meinen, warum läuft dann oblivion bei mir so flüssig? Ich habe nur eine Karte... bald kommt ne GX2 und die ist dann schon Overkill, weils jetzt bereits gut läuft!
Ich denke die CPU spielt da ne wesentlich größere Rolle und da sind vorallem unübertaktete Prozessoren nicht schnell genug.
mike49
2006-06-18, 23:03:35
Tjell[/POST]']Doch: SSAA. :tongue:
HDR + SSAA in Oblivion? Wäre mir neu...
AFAIK gibt es derzeit nur ein einziges Spiel, das HDR + SSAA auf nV-Karten unterstützt: AoE3
Also ich zocke Oblivion auf meiner GS+ mit HDR und 2xAF, ansonsten alles auf max Details, nur das Gras habe ich heruntergedreht.
Es läuft ganz passabel mit über 20fps in Wäldern und über 50fps in Dungeons.
Wo ist das Problem? Ich finde die Zahlen für das, was man mit aktueller Hardware in Oblivion erreichen kann durchaus okay.
Wie die Karte abschneidet hättest du übrigens schon vorher feststellen können; es gibt genügend Benchmarks, die das Game mit einer 7900GT benchen...
Und Übertakten ist ja auch noch eine Option, das brachte mir nochmal irgendwas zwischen 10-20% mehr Leistung.
mike49[/POST]']HDR + SSAA in Oblivion? Wäre mir neu...
AFAIK gibt es derzeit nur ein einziges Spiel, das HDR + SSAA auf nV-Karten unterstützt: AoE3Richtig. Die Möglichkeit SSAA zu nutzen, muss wohl von den Entwicklern vorgesehen sein, sonst gehts nicht.
czuk[/POST]']Also ich zocke Oblivion auf meiner GS+ mit HDR und 2xAF, ansonsten alles auf max Details, nur das Gras habe ich heruntergedreht.
Es läuft ganz passabel mit über 20fps in Wäldern und über 50fps in Dungeons.Das Problem ist, dass sich viele Leute nicht mit 2x AF zufriedengeben. Viele Leute meinen nur weil sie eine etwas bessere Midrange-Karte haben, können sie immer und überall 4xAA/16xAF in 1600x1200 fahren. Wenn das nicht geht wird in Foren rumgeplärrt, dass doch alles "schlecht programmiert" ist. Das bezieht sich jetzt nicht speziell auf Oblivion, sondern eigentlich auf alle Spiele.
Tjell
2006-06-19, 19:58:07
mike49[/POST]']HDR + SSAA in Oblivion? Wäre mir neu...
AFAIK gibt es derzeit nur ein einziges Spiel, das HDR + SSAA auf nV-Karten unterstützt: AoE3
Supersampling-AA ist treiberseitig einzustellen und ich kenne noch keinen Fall, wo das nicht funktioniert. Von der Performance brauchen wir hier garnicht sprechen.
Was Du meinst ist Multisampling-AA, das funktioniert tatsächlich nicht mit den derzeitigen Nvidia-Karten. Bei ATI muss es vom Spiel unterstützt werden, vollkommen richtig.
mike49
2006-06-19, 20:13:27
Tjell[/POST]']Supersampling-AA ist treiberseitig einzustellen und ich kenne noch keinen Fall, wo das nicht funktioniert. Von der Performance brauchen wir hier garnicht sprechen.
Was Du meinst ist Multisampling-AA, das funktioniert tatsächlich nicht mit den derzeitigen Nvidia-Karten. Bei ATI muss es vom Spiel unterstützt werden, vollkommen richtig.
Spreche (bzw. schreibe) ich chinesisch? :rolleyes:
HDR + SSAA funktioniert weder in Oblivion noch in sonst irgend einem Spiel, das gleichzeitig auch HDR(R) nutzt! Einzige Ausnahme ist AoE3, wo die Entwickler dies eplizit so vorgesehen haben.
deekey777
2006-06-19, 20:21:37
HDRR+OGSSAA funktionierte in Far Cry, wenn mich nicht alles täuscht. Nun soll es der Treiber nicht mehr zulassen.
Vielleicht könnte jemand mit einer G70er* und DXTweaker dies nachprüfen.
*Mit einer R520er sollte es auch gehen.
mike49
2006-06-19, 20:25:43
DK777[/POST]']HDRR+OGSSAA funktionierte in Far Cry, wenn mich nicht alles täuscht. Nun soll es der Treiber nicht mehr zulassen.
Mit welchem Treiber soll das denn funktioniert haben?
Bei mir ging es weder mit 77.xx noch mit 84.xx (nicht alle durchprobiert) und sonst wäre mir auch kein Spiel bekannt, wo das funktioniert. Davon abgesehen: Warum sollte nV das in Zeiten von Quad-SLI, SLI-AA etc. absichtlich deaktivieren?
resonatorman
2006-06-30, 06:18:09
Hier mal ein interessantes Update:
Gainward hat bei dieser Karte um die GPU und um den Bridge-Chip einen Rahmen aus Gummi gelegt - soll wohl die Funktion eines Spacers erfüllen. Bei mir war es jedenfalls so, daß diese Gummis einen einwandfreien Kontakt zwischen GPU und Kühler verhindert haben, ich hatte beim Zocken über 90° und konnte nicht über 600 takten (trotz Voltmod), sonst stürzten die Games nach ein paar Minuten ab. In englischsprachigen Foren las ich von Leuten, die den Gummi entfernt haben und sofort zu besseren Temps kamen - so auch in meinem Fall. Die Gummis gehen ganz leicht ab (mit Fingernagel oder so) und Angst um die Chips braucht man auch nicht zu haben, so gut wie der Kühler beim Aufsetzen geführt wird. Lediglich die Garantie ist futsch... ;)
Interessanter Selbsttest. Werde ich aber wohl erst machen, wenn die Garantie rum ist. Bis dahin wird mir die Leistung der Karte wohl eh genügen.
Falls ich es nicht schon an anderer Stelle erwähnt habe:
es gibt zwei Versionen der Karte. Die "alten" haben 1.2ns Samsung Chips, die "neuen" haben 1.4ns Infineon Chips und hauchdünn schnellere Timings. Übertakten lassen sich die Speicher allerdings bei beiden Karten gleich schlecht.
mike49[/POST]']Davon abgesehen: Warum sollte nV das in Zeiten von Quad-SLI, SLI-AA etc. absichtlich deaktivieren?Zum Beispiel damit nicht irgendwelche hohlen Reviewer SSAA gegen MSAA benchen. Ob OGSSAA in FC nun funktioniert hat oder nicht, kann ich dir leider auch nicht sagen.
resonatorman
2006-06-30, 20:07:43
czuk[/POST]']Bis dahin wird mir die Leistung der Karte wohl eh genügen.
Darum gings mir ja gar nicht. Aber wenns beim Zocken an die 100° warm wird, fange ich an zu suchen... ;)
dildo4u
2006-07-10, 19:20:07
Die GS+ ist jetzt von 400€ auf erträgliche 330€ gefallen also für alle die eine 7900GT mit 512mb wollen und noch AGP haben zuschlagen so spart man sich auch den Mainboardwechsel.
http://www.mad-moxx.de/shop/articleDetail.jsf?articleId=1005.10414
Warum ist es so ruhig um diese Karte geworden?
Bei Alternate ist sie momentan rot gefärbt... allerdings wundert mich die ganze Zeit schon, das die Karte so lange erhältlich war/ist.
Stimmt das mit der limitierten Auflage überhaupt?
Lasst mal ein paar weitere oc-Ergebnisse hören!
resonatorman
2006-07-25, 21:45:36
Also ich habe sie jetzt mit 650 (+20 Geo)/770 laufen bei 1,4V GPU mit Defaultkühlung - allerdings die Gummirähmchen entfernt ;). Selbst bei der jetzigen Hitze keine Temperaturprobs, mehr geht allerdings nicht. Hier mal die Symptome, wenn ich höher takte:
-GPU: Artefakte wie Schnee
-Geo: Bild friert komplett ein
-RAM: grauslig bunte Kästchen über das ganze Bild.
Die 650 sind schon ganz ok, nur hat bis jetzt anscheinend noch keiner einen Weg gefunden, den Speicher auf die 800 zu bringen (GTX-Takt, schnüff...).
Laxer
2006-07-26, 12:56:46
Ich kann die Karte laut Forceware bzw. ATI-Tool "nur" auf 495/715 takten. Darüber bekomme ich mit ATI-Tool Artifakte angezeigt. Beim Speichertakt ist es kurios: Mit dem FW 84.21 konnte ich bis 764 gehen - mit dem FW 91.33 nur noch bis 715. An den Volt-Mod traue ich mich (noch) nicht heran, da ich kein Multimeter zum messen habe (auch wenn manch Anderer einfach ohne Multi "pinselt")...
Laxer[/POST]']Ich kann die Karte laut Forceware bzw. ATI-Tool "nur" auf 495/715 takten. Darüber bekomme ich mit ATI-Tool Artifakte angezeigt.
Das liegt daran, das ATI Tool auf nV-Karten müll ist (oder generell), wurde bereits in diesem Thread erläutert.
So lange du keine Pixelfehler außerhalb dieses Tools hast, kannste weitertakten.
Laxer
2006-07-26, 13:23:05
Hm, und schädlich kann das für die Karte nicht sein, wenn sie kühl genug bleibt? Das heist, selbst wenn ich ab und zu kurze, minimale Grafikfehler habe/hätte, geht die Karte nicht kaputt?
Warum sollte sie kaputt gehen?
Sie geht definitiv nicht kaputt, die Bildfehler zeigen in diesem Fall (beim Core) ja nur, das die Karte "unterversorgt" ist und nicht genug Saft bekommt. ;)
Außerdem ist das, was ATI Tool anzeigt falsch!
Wurde jetzt schon mehrmals im Forum besprochen, ich bekam selbst bei leichten Takterhöhungen schon Bildfehler laut ATI T, doch davon war nirgendwo etwas zu sehen.
Ganz im Gegenteil, ich konnte sogar noch 80 MHz weiter takten beim Core und hatte trotzdem keine Fehler...
Wenn du die (angeblichen) Bildfehler nicht mal mit den eigenen Augen sehen kannst, was bringt es dann dir, eben jene zu vermeiden? :)
Laxer
2006-07-26, 13:39:12
Ok, Danke, das leuchtet mir ein. Werde heute Abend nochmal weiter (mit Spielen) austesten, ab wann ich sichtbare Grafikfehler bekomme ;)
Hast Du evt. auch eine Erklärung dafür, warum beim Forceware-Test (optimale Taktraten) so unterschiedliche Ergebnisse zwischen den Treiberversionen zustande kommen? Habe den Test je Treiberversion öfter laufen lassen, mit den selben Ergebnissen (max. 1 - 5 MHz Unterschied zwischen den Tests). Wurde evt. im Treiber was geändert?
Saugbär
2006-08-02, 13:21:17
Bin ich blind? Muß ich Möhrchen fressen?
Ist die Karte im moment wiklich überall ausverkauft?
Grrrrrrrr zum Haareraufen. Für 333€ wäre es doch ein schnäppchen
Myst70
2006-08-02, 15:18:27
Bin ich blind? Muß ich Möhrchen fressen?
Ist die Karte im moment wiklich überall ausverkauft?
Grrrrrrrr zum Haareraufen. Für 333€ wäre es doch ein schnäppchen
Ja wer zu lange wartet den bestraft das Leben:-)))))
Wird auch Zeit, damit sie dann endlich an Wert zulegt und die Käufer davon profitieren können...
Unter 300 Euro wird die wohl keiner hergeben wollen. :)
AtTheDriveIn
2006-08-04, 00:37:53
Bin ich blind? Muß ich Möhrchen fressen?
Ist die Karte im moment wiklich überall ausverkauft?
Grrrrrrrr zum Haareraufen. Für 333€ wäre es doch ein schnäppchen
Angeblich war sie bei Mindfactory auch ausverkauft letzte Woche. Dennoch wurde meine einen Tag nach Bestellung verschickt. Probiers einfach ;)
Duran05
2006-08-04, 05:04:07
Die Grafikkarte ist wieder verfügbar.
Außerdem hat noch ein ebay-Händler 70 neue auf Lager.
Die Preise sind vorerst stabil, gut für die, die ihre AGP Karte bald noch loswerden wollen.
Bei ebay ging eine gebrauchte erst vor ein paar Tagen für 335 Euro weg. :eek:
Wann ist endlich der optimale Zeitpunkt zum Verkauf?
Meine läuft jetzt auf 535/625. RAM lässt sich zwar bis fast auf 750 MHz erhöhen ohne Bildfehler, allerdings ist irgendwann der Bildschirm einfach nur noch schneeweiß. Schade.
Cherubim
2006-08-09, 00:18:46
die karte wär eine überlegung für mein Xeon System auf basis des Canterwoods....
resonatorman
2006-08-09, 07:38:19
Wann ist endlich der optimale Zeitpunkt zum Verkauf?
Wer will denn sowas verkaufen, ist doch ein Sammlerstück...;)
Meine läuft jetzt auf 535/625.
Mal den Voltmod aus meiner Sig probiert?
deekey777
2006-08-09, 14:31:51
Bin ich blind? Muß ich Möhrchen fressen?
Ist die Karte im moment wiklich überall ausverkauft?
Grrrrrrrr zum Haareraufen. Für 333€ wäre es doch ein schnäppchen
http://www.mad-moxx.de/shop/articleDetail.jsf?articleId=1005.10414
Schaue mal rein.
dreamweaver
2006-08-10, 17:39:08
Heute kam meine 7800GS Bliss von Gainward mit 512 MB
Ich hatte vorher eine normale 7800GS. Konnte günstig an die neue kommen und hatte ein wenig Geld zur Verfügung. Und meine normale 7800GS habe ich noch gut verkaufen können. Und weil meine AGP System noch ein wenig halten muss, hatte ich bei der Chance die Bliss zu bekommen, zugegriffen.
Ok, so weit so gut.
Folgende Ungereimtheiten gibt es.
Also als erstes ist mir aufgefallen, daß im Rivatuner unter Memory Clock beim Overclocking-Reiter nicht wie bei meiner normalen 7800GS der effektive Speicher angezeigt wurde, also der verdoppelte Wert. Bei der Bliss stand 625. War erst kurz geschockt, aber ging davon aus, daß es eben der halbierte Wert war. Nun habe ich gerade mal Everest installiert, um zu schauen wie es mit den Pipelines ausschaut. Da wabern ja viele Gerüchte rum. 16, 20 oder sogar 24.
Bei mir werden 24 angezeigt. Siehe Screen. Aber was sehe ich da, auch Everest zeigt unter Speicher nur den halben Wert an. Steht jetzt schon übertaktet auf 700 (1400 sollten es dann sein). Aber Everest zeigt tatsächlicher Takt 351, effektiver Takt 702. Ähhh...? Läuft die jetzt doch nur auf so wenig? Kann doch nicht sein, oder? :confused:
Vor allem, wenn man sich den 3dMark06 anschaut. Hatte vorher mit der normalen 7800GS irgendwas bei 3800 (bei 420/1400). Mit der Bliss komme ich jetzt auf 4908 (500/1400?) Forceware 91.37
Dann zum Lüfter und der temp.
Der Lüfter ist verdammt leise. Bei meiner alten 7800 hörte man den Lüfter zwar in 2D auch nicht, aber unter 3D lief er deutlich laut an. Bei der Bliss gibts keinen Unterschied zu hören (Gehäuse ist offen). Bei der alten hatte ich idle 45°C / last 60°C. Bei der Bliss habe idle 45°C, aber unter last geht die temp auch mal bis auf 70°C (z.B. im 3Dmark06). Ist das ok? Läuft der Lüfter auch unter Last wirklich nicht hörbar schneller?
http://img111.imageshack.us/img111/6240/everxp4.jpg (http://imageshack.us)
resonatorman
2006-08-11, 07:37:06
Memory Clock: ist normal.
Lüfter leise, schaltet sich nicht um: ist ok.
Nur: wenn die Temps beim Zocken richtig hoch gehen (90°+), sind vermutlich die Gummispacer schuld...
dreamweaver
2006-08-11, 10:09:45
Ja, nachdem ich mich nun durch diesen (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=287176) 35 Seiten Thread geackert habe, weiß ich auch etwas mehr. Vielleicht kann ein Mod ja diesen Thread hier dahin verschieben.
Laxer
2006-08-11, 12:01:38
So, nochmal ein kleiner Zwischenbericht zum OC-Potenzial meiner Karte:
Also optimale Taktrate ermittelt mir der FW-Treiber 91.33 die Werte 495/715, damit läuft rthdribl auch fehlerfrei bei max. 52°C.
Als max. Werte (interner Treibertest) lässt der 91.33 die Werte 537/744 zu, damit läuft rthdribl auch fehlerfrei bei max. 55°C.
Scheint also wirklich so, dass man sich nicht auf das ATI-Tool verlassen kann *gg* Wenn ich mehr Zeit habe, werde ich mal mit Rivatuner testen,
da der FW-interne Taktraten-Test höher Werte blockiert. Der Voltmod kommt für mich nach wie vor nicht in Frage :)
Tja, ich werd wohl alt...
Gestern kam die Gainward 7800GS+ mit der Post und ehrlich gesagt, hielt sich meine Begeisterung über den Neukauf in Grenzen. Der Umstieg erfolgte von einer Geforce440 MX. Es funktioniert aber eben alles wieder, was wegen > DX 7 nicht lief. Hier oft zu lesende Begeisterungsstürme wegen des Geschwindigkeitszuwachses konnte diese Karte bei mir nicht erwecken....
Probleme gibts auch ein paar:
Windows ist beim booten (Desktopaufbau) wesentlich langsamer geworden.
Riva tuner mag die Karte nicht anzeigen, nur den Monitor.
Einstellmöglichkeiten (Performance nach unten) sind beim Expert Tool stark begrenzt.
Es ist schwer herauszufinden, obs tatsächlich die + Version ist. (BIOS zeigt G 71. schlag mich tot) Handbuch, Produkt ID Fehlanzeige. War hier aber schon thematisiert. Mit SIW162 und Sandra hab ich erst mal nix gefunden, Everest habe ich nicht.
Der 84er Treiber war von der alten GraKa schon drauf, aber bei einer Neuinstallation von der GainwardCD hat sich alles aufgehängt. Hätte wohl erst den Alten deinstallieren müssen. Egal, es läuft bisher ohne Probs.
Die Spiele zum Aussuchen für den Gutschein gibt´s schon für nen 10er im Laden. Habe gleich mal ne mail geschickt, ob die nicht auch was Moderneres haben.
Die Kühllösung sieht auf den ersten Blick bombastisch aus, beim genaueren Hinsehen, erscheint das alles zusammengeklatscht mit ein paar Isoliergummis dazwischen;-))). Mal sehen wie lange ich es ohne Basteln aushalte. Richtig warm ist die Karte jedenfalls nicht geworden, vielleicht wartet sie auch zu lange auf die Daten von der CPU.
Gut, dass mein EnermaxNT mit 365 Watt tapfer durchhält. Messung der Leistungsaufnahme folgt später.
3dmark06 Punkte liegen zwischen 3300 und 3800 bei XP-M CPU-Takt 2000 und 2400MHz.
Gruss
Laxer
2006-08-17, 12:25:12
Hier oft zu lesende Begeisterungsstürme wegen des Geschwindigkeitszuwachses konnte diese Karte bei mir nicht erwecken...
Das wundert mich jetzt schon ein wenig :eek: Oder genauer gefragt: Was machst Du mit der Karte? Spiele, Videos, Bildbearbeitung, etc.?
: Was machst Du mit der Karte?
Office, Spiele und auf Aero (Vista) warten:smile:
Das Flugzeug
2006-08-17, 14:06:32
Tja, ich werd wohl alt...
Gestern kam die Gainward 7800GS+ mit der Post und ehrlich gesagt, hielt sich meine Begeisterung über den Neukauf in Grenzen. Der Umstieg erfolgte von einer Geforce440 MX.
PICNIC! Anders kann ich mir das nicht erklären.
PICNIC!
Wie bitte (für DAUs)?
S@uDepp
2006-08-17, 14:19:00
Windows ist beim booten (Desktopaufbau) wesentlich langsamer geworden.
Kann ICH nicht bestätigen - im Vergleich zur 6800
GT gleich schnell... warum auch nicht?
Riva tuner mag die Karte nicht anzeigen, nur den Monitor.
Der aktuelle RivaTuner läuft einwandfrei
Einstellmöglichkeiten (Performance nach unten) sind beim Expert Tool stark begrenzt.
ATI Tool funzt zwecks Taktung und Temp. Kontrolle einwandfrei - klein und schnell.
Der 84er Treiber war von der alten GraKa schon drauf, aber bei einer Neuinstallation von der GainwardCD hat sich alles aufgehängt. Hätte wohl erst den Alten deinstallieren müssen. Egal, es läuft bisher ohne Probs.
Scheint ned egal.... Deinstallier ma den Treiber, mach sauba (DriverCLeaner) und pack irgendwas ab dem 91.33 drauf. Vielleicht auch noch die neue Version vom DX - obwohl ich ned weiß was da gefixt wurde - schaden kanns ned.
Die Spiele zum Aussuchen für den Gutschein gibt´s schon für nen 10er im Laden. Habe gleich mal ne mail geschickt, ob die nicht auch was Moderneres haben.
Nette Frage - bin an der Antwort seitens Ginward sehr interessiert :) davon ab - XIII macht Laune, fordert die Karte aber nicht im Geringsten.
Die Kühllösung sieht auf den ersten Blick bombastisch aus, beim genaueren Hinsehen, erscheint das alles zusammengeklatscht mit ein paar Isoliergummis dazwischen;-))).
Mal sehen wie lange ich es ohne Basteln aushalte. Richtig warm ist die Karte jedenfalls nicht geworden, vielleicht wartet sie auch zu lange auf die Daten von der CPU.
Das scheints zu sein - XP@2400 fordert nicht.
Dennoch sollte nun ne Unmenge mehr an "EyeCandy" drin sein - das ist doch auch schon was, oder?!
Viel Spaß mit der Karte und nem neueren Treiber ;)
Greets
S@uDepp
Das Flugzeug
2006-08-17, 14:19:10
Wie bitte (für DAUs)?
PICNIC = Problem In Chair, Not In Computer.
Mal sehen, vielleicht werde ich am WE Treiber und Zusätze (RivaTuner) neu machen. Wenns funzt, dann fliegt das Expert Tool runter. ATI Tool für ne nVIDIA:confused: Bin ich schon so lange nicht mehr auf dem Laufenden?
DirectX 9.0c ist als neueste Version drauf. Laß ich erst mal so ....
EyeCandy-> Ja, alles so schön bunt hier neuerdings :rolleyes: Aber eben nicht mehr die Faszination, als ich von Viper330 auf 440MX umgestiegen bin.
Wenn ich jetz noch das Geheimnis mit dem "+" löse, dann werde ich ganz zufrieden sein.
Hat doch irgendwie schon etwas Seltenheitswert, eine 300 Euro AGP-Karte im Jahr 3 der PCIe Ära.
Gruss
PS.:Nutzt von Euch jemand beide DVI Ausgänge? Ich habe einen davon als KVM Ansteuerung mißbraucht, der andere geht direkt zum Moni. Noch ein + für die Karte:biggrin:
PPS: PICNIC verdient einen Wiki Eintrag, da hab ich tatsächlich geguggt...
Das Flugzeug
2006-08-17, 15:33:57
PPS: PICNIC verdient einen Wiki Eintrag, da hab ich tatsächlich geguggt...
http://de.wikipedia.org/wiki/D%C3%BCmmster_anzunehmender_User ;)
S@uDepp
2006-08-17, 17:12:21
ATI Tool für ne nVIDIA:confused: Bin ich schon so lange nicht mehr auf dem Laufenden?
Das merkt man ;)
http://www.techpowerup.com/downloads/259 <-- klein und gut und natrülich - trotz des Namens - bestens für nV
DirectX 9.0c ist als neueste Version drauf. Laß ich erst mal so ....
http://download.microsoft.com/download/2/1/e/21e186a5-30b8-4cc0-888a-db4abb111405/directx_aug2006_redist.exe
....man bemerke das AUGUST ;) .. sollen angeblich n paar Fixes drinne sein - ka welche aber schaden kanns ned
EyeCandy-> Ja, alles so schön bunt hier neuerdings :rolleyes: Aber eben nicht mehr die Faszination, als ich von Viper330 auf 440MX umgestiegen bin.
....älter geworden?! :D
Wenn ich jetz noch das Geheimnis mit dem "+" löse, dann werde ich ganz zufrieden sein.
..kein Geheimnis - "durften" die ned 79(!)00 nennen - daher das "+"
resonatorman
2006-08-18, 05:35:32
Office, Spiele...
Moorhuhn?
Moorhuhn?
Guggst du hier:
http://www.blockout.de/index_english.html
resonatorman
2006-08-18, 20:29:55
Guggst du hier:
http://www.blockout.de/index_english.html
Alles klar!
-Andy-
2006-08-20, 19:07:27
Was meint ihr, reichen 24 A auf 12 Volt bei meinem Netzteil für diese Karte? Wenn ja dann überlege ich mir auch eine zu holen :biggrin: . Für 325€ gehts ja noch, besser als auf PCIe umzusteigen.
mike49
2006-08-20, 19:16:26
Was meint ihr, reichen 24 A auf 12 Volt bei meinem Netzteil für diese Karte? Wenn ja dann überlege ich mir auch eine zu holen :biggrin: . Für 325€ gehts ja noch, besser als auf PCIe umzusteigen.
Ja, sollte locker ausreichen. Mein 350W NT hat zumindest deutlich weniger auf der 12V Leitung und trotzdem keinerlei Probleme.
Ich habe übrigens noch eine fast neuwertige 7800GS 512MB hier rumliegen -> Bei Interesse kannst Du mir ja eine PN senden
-Andy-
2006-08-20, 19:18:25
Ja, sollte locker ausreichen. Mein 350W NT hat zumindest deutlich weniger auf der 12V Leitung und trotzdem keinerlei Probleme.
Ich habe übrigens noch eine fast neuwertige 7800GS 512MB hier rumliegen -> Bei Interesse kannst Du mir ja eine PN senden
Sorry, ich meinte die 7800 GS+, aber trotzdem danke für dein Angebot.
mike49
2006-08-20, 19:22:52
Sorry, ich meinte die 7800 GS+, aber trotzdem danke für dein Angebot.
Ist halt die 'alte' Gainward Bliss mit 20 Pipes und 512MB die aber kaum langsamer ist als die GS+. Aber kein Problem, die kommt wahrscheinlich eh in meinen Zweitrechner.
-Andy-
2006-08-20, 20:01:14
Wie lang ist denn die 7800 GS+. Ich finde bei Gainward keine Maße und welche Spiele werden mitgeliefert. Kennt jemand von euch den Laden Mad Moxx, ist der OK?
resonatorman
2006-08-20, 20:19:44
22 cm, der Silencer steht dann nochmal 1 cm über, wurde hier aber schon beantwortet.
24 A sollte langen, mein NT hat 26 A auf 12V, null Probleme, und meine Karte läuft auf 650/770...;)
Es gibt einen Gutschein für ein Spiel, das Beste da IMO ist XIII.
Mad-moxx genießt einen ganz guten Ruf.
Ich würde die GS (ohne +) zu einem vernünftigen Preis nehmen, der Unterschied sollte im Spielalltag kaum merklich sein. Ich habe z.Zt. bspw. eine X800XT eines Forumsmembers drin zwecks Tuning, und was soll ich sagen - ich merke fast keinen Unterschied.
Ich habe mir die Karte gerade bestellt. Wie ich gelesen habe hat die Karte einen PCIe Stromanschluss, ich denke nicht das mein Netzteil so einen Anschluss hat. Brauche ich da einen Adapter, oder liegt der sogar bei der Karte bei? Das Netzteil was ich habe ist dieses hier ( LC6550 -Gold 550W), ich hoffe es reicht aus.
Gast89797858584362
2006-08-21, 11:44:58
a) Netzteil reicht
b) Adapter liegt meistens bei
resonatorman
2006-08-21, 20:13:38
a) Netzteil reicht
b) Adapter liegt meistens bei
a) Ist das nicht so ein eBay-Billig-NT? Ich weiß nicht...
b) Adapter liegt definitiv bei, also keine Sorge.
dreamweaver
2006-08-21, 21:08:46
Gibts denn nun schon was neues zum eventuellen Update von Gainward wegen dem BIOS? Weiß man denn nun, auf wieviel Prozent der Lüfter dreht?
resonatorman
2006-08-21, 22:47:18
Der Lüfter dreht ziemlich sicher immer auf 100%. Wenn man ihn direkt an 12V hängt, ändert sich die Drehzahl nicht.
Meine 7800 gs+ ist heute gekommen, jetzt habe ich ein paar Fragen zur Übertaktung. Funktioniert das aktuelle ATI Tool mit dieser Karte? Ich habe es schon versucht, beim Speicher wird mir 360 Mhz angezeigt ohne Artefakte, müssten das nicht 720 Mhz sein? So beim Chip habe ich getestet bis 585 Mhz ohne Artefakte, weiter habe ich mich nicht getraut. Das ist doch nicht normal das 585 Mhz ohne Probleme gehen, oder hat jemand auch so viel.
mr_bluesman
2006-08-24, 15:09:05
Funktioniert das aktuelle ATI Tool mit dieser Karte?
Ja, funktioniert.
Ich habe es schon versucht, beim Speicher wird mir 360 Mhz angezeigt ohne Artefakte, müssten das nicht 720 Mhz sein?
Eigentlich schon, da ist offenbar die Anzeige falsch. Ist bei mir auch so. Tatsächlich eingestellt ist aber immer der doppelte Wert.
So beim Chip habe ich getestet bis 585 Mhz ohne Artefakte, weiter habe ich mich nicht getraut. Das ist doch nicht normal das 585 Mhz ohne Probleme gehen, oder hat jemand auch so viel.
Ich hatte ihn gestern auf 600 Mhz und auch nach zwei Stunden Ghost Recon AW keine Grafikfehler oder Abstürze. Nächstes Mal werde ich 620 Mhz probieren. Bin auch überrascht über das Overclocking-Potenzial. :smile:
Der Speicher zeigt bei mir im Ati-Tool allerdings "schon" ab ca. 345 Mhz (also realen 690 Mhz) erste Artefakte.
Wursti
2006-08-24, 15:11:45
ich wird den Ati-Tool nicht trauen, wenns schon den falschen Takt anzeigt.
ich übertakte immer über den Nv treiber und teste danach 3d Mark usw.
-Andy-
2006-08-24, 15:53:16
Der Gast da oben war ich, hab mich vergessen einzuloggen:redface: . Also die Karte geht ja mal richtig gut ab :biggrin: . Ich habe mal ein bisschen gebencht mit den Einstellungen 550/720. Der Rest des Systems steht in der Signatur.
3D Mark 03 : 18804
3D Mark 05 : 9112
3D Mark 06 : 4544
HEHE jetzt kann ich GRAW endlich flüssig zocken und der Kühler ist auch noch geil bei dieser Karte :biggrin: .
S@uDepp
2006-08-24, 17:39:42
..außerdem gibbet nen neues ATI-Tool - das funzt inkl. der RAM Anzeige perfekt mit der Bliss..
585MHz so aus dem Stand?! *Applaus*
Greets und viel Spaß mit der Karte
S@uDepp
dreamweaver
2006-08-24, 18:37:34
Ja, der Lüfter ist wirklich unglaublich leise (offenes Gehäuse). Kann irgendwie nicht glauben, daß der auf 100% läuft.
resonatorman
2006-08-24, 20:00:59
Tut er aber wohl doch. Behaltet nur mal die Temps beim Zocken von grafisch anspruchsvollen Spielen im Auge, evtl. macht der Gummi"spacer" Probleme (war bei mir so).
Xaver Koch
2006-08-31, 10:21:08
Zur hier oft geäußerten Behauptung, diese Karte sei "Abzocke" zum Vergleich mal die Preise von www.Alternate.de:
Gainward BP7900GT-512-GS-TV-DD (512 MB Ram):
€ 319,00
Gainward 7876-BLISS 7800GS Silent 512MB GS+:
€ 333,00
Und wer eben einen schnellen Prozessor hat und mit seinem AGP-System zufrieden ist, bekommt für € 14,00 sicher kein PCI-E, von den Umrüstkosten ganz abgesehen.
Wer sich sowieso einen neunen PC kauft, nimmt PCI-E, ist auch klar.
Hallo,
könnte jemand eine Prognose abgeben, wie sich die Preise der Karte in nächster Zeit wahrscheinlich weiterentwickeln werden? Nach Geizhals http://www.geizhals.net/deutschland/a198786.html werden die Preise in letzter Zeit in der Regel alle drei Tage um ein paar Euro gesenkt, was wahrscheinlich am Überangebot der Karte liegt, wie man es auf Geizhals gut sehen kann. Für mich stellst sich nun die Frage wie lange dieser Trend anhalten wird. Selbstverständlich gehe ich davon aus, dass die Preise zum Weihnachtsgeschäft wieder angezogen werden.
Wird die Karte von einem Athlon 64 3000+ befriedigend ausgenutzt?
Die Frage, ob sich ein Leistungssprung im Vergleich zu meiner Geforce 3 ergibt, stellst sich für mich nicht ;)
Mich wundert nur, dass die "stark" limitierte Bliss+ zu hunderten auf Lager liegt ;). Da hat man sich wohl das "limitiert" mit satten 100 Euro bezahlen lassen, weil alle panisch zugegriffen haben. Nu gibt es die Karte für unter 300 Euro.
Ork77
2006-09-17, 20:12:15
Habe die Karte auch bei Alternate bestellt und nach 1 nem Tag war sie da! Bei mir läuft sie bei 600/700 und alles stabil! Bin voll zufrieden damit. Alles läuft super flüssig! 3Dmark06 - 4226 punkte
3Dmark05 - 8646 punkte
Mike1
2006-09-17, 20:40:01
Mich wundert nur, dass die "stark" limitierte Bliss+ zu hunderten auf Lager liegt ;). Da hat man sich wohl das "limitiert" mit satten 100 Euro bezahlen lassen, weil alle panisch zugegriffen haben. Nu gibt es die Karte für unter 300 Euro.
das wundert mich seit dem release;)
wie sind eigentl. die standard-Takte der 7900GT und der 7800GT+?
resonatorman
2006-09-17, 20:52:34
Wird die Karte von einem Athlon 64 3000+ befriedigend ausgenutzt?
Klar...wenn du die Grafikqualität entsprechend hochschraubst. Bei aktuellen Games mit 16xAF/8xSAA/TAA allemal...;)
Unrealswebmaster
2006-09-19, 18:51:07
bitte löschen
heinerbub
2006-09-20, 19:13:07
tja, kennt einer von euch alle 1500 leute, die die 700gs+ von gainward bestellt haben? ich nicht :-) und ausserdem meine ich gehört zu haben, daß nur die 1te edition der gainward 7800gs+ limitiert war und es soll mittlerweile auch schon 2te edition unterwegs sein. andererseits habe ich gelesen, daß es von gainward eher en "werbegag" war mit der 1500er limitierung, aber genaues weiß man nicht....oder hat euere gainward ne nummer z.b 1/1500?
Ork77
2006-09-20, 19:39:12
und ausserdem meine ich gehört zu haben, daß nur die 1te edition der gainward 7800gs+ limitiert war und es soll mittlerweile auch schon 2te edition unterwegs sein.
Was meinst du damit? Wie, "auch schon 2te edition unterwegs"? Kommt jetzt wieder eine neue?
Mfg
heinerbub
2006-09-20, 19:45:16
welche hardware firma würde ich denn gerne einen solchen run auf eine grafkikkarte entgehen lassen? und ausserdem steht z.b auf meiner gainward verpackung nichts von "limited edition" :-) ist doch schon komisch, oder? ich denke mal, gainward hat sich beim release der 7800gs+ "alle türen offen gelassen"
Ich denke man hat die AGP Nutzer gnadenlos ausgenommen. Die Karte geht für unter 300 nach kurzer Zeit weg und das liegt sicher nicht daran, dass Gainward davon 250.000 Stück im Monat produziert. Das "limitiert" war einfach nur ein Werbegag, um die 400 Euro zu rechtfertigen. Hat auch toll geklappt, weil sich alle sabbernd und panisch (oh Gott, ich krieg gerade die letzte) draufgestürzt haben ;)
Als aussterbendes Wesen mit Dual Xeon CPUs bin ich auf AGP noch angewiesen weil der Umstieg auf neue 2x Xeons immer teuerer ist als bei euch Single-CPU Leuten (egal wieviel Cores)
Hoffe diese Karte ersetzt meine X800 Pro 256MB ehrwürdig ...
Spiele nur MS Flugsimulator 2004/X und Joint Operations, aber beides jeweils als Hardcore-Gamer =)
Hmm, an alle mit einem zirpenden Ferritkern! Ich habe gerade mein billiges Q-Tec Netzteil aus dem Rechner geschmissen und mir ein Be Quiet! Dark Power Pro 430W gekauft :love4: Das Netzteil hat einen speziellen VGA-Anschluß und ein spezielles Kabel dafür, in dem direkt vor dem Anschluß, also vor dem PCIe Stecker auf der Graka, auf Kabelseite ein Ferritkern zur aktiven Spannungspitzendämpfung angebracht ist. Seitdem ich das Netzteil habe und das Kabel nutze, ist das fiepen komplett weg! Coincidence? I don't think so.....!
AMC
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.