Quasar
2004-10-29, 12:56:13
Ja, hier kommen meine Erfahrungen rein, Stück für Stück.
Da das Ding ja eher selten ist, erstmal die
Vorgeschichte:
Mein Rechner ist ja eh nicht mehr der dollste, aber das meiste läuft schon noch so, daß ich noch keinen zwingenden Grund sehe, mir ein komplettes, neues System zu kaufen. Meine alte Karte war ja ein Schnuckelchen (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=90965), aber soff mir dann doch zuviel Strom für die gebotene Leistung. Was ich allerdings extrem liebgewonnen hatte, war die absolute Ruhe beim Arbeiten (ja, der Fön hatte auch seine guten Seiten). Da ich in der Vergangenheit in der glücklichen Lage war, das ein oder andere Stück Grafikhardware näher zu begutachten, probierte ich auch so einiges davon aus, ob es mir für den Privatgebrauch zusagen würde.
Meinen Ansprüchen insgesamt am gerechtesten wäre wohl eine Radeon 9600 Ultimate Edition geworden - das Modell, welches ich kurzzeitig probieren konnte, wollte allerdings nicht mit meinem GBT-6OXET-Mainboard zusammen laufen - lt. Saphhire allerdings ein Einzelfall.
Ich wollte allerdings diesbezüglich kein Risiko eingehen und da man so einiges hört von Versandhäusern und deren Gebahren, wenn mal eine mysteriöse Inkompatibilität auftritt, oder die mitunter doch beträchtliche Dauer, bis man seine Kohle aus dem FAG zurückerhält, nahm ich Abstand von einem R9600-Modell zumal auch gewisse Eigenheiten der Texturfilterung damals nicht so ganz meinem Gusto entsprach.
Ich wechselte durch meine Sammlung kreuz und quer, aber die ollen Gurken, wie G400 oder Rage128 oder GF2 MX konnten meinen Spieltrieb nicht befriedigend, so daß schließlich doch wieder die 5800u im Rechner landete.
Der Preis waren allerdings gute 25W mehr Stromaufnahme im Windows-Desktop-Betrieb als mit den anderen Karten, mit denen ich aber wiederum nicht spielen konnte.
Dilemma.
Als dann GigaByte eine GeForce 6800 mit passiver Kühlung (http://www.gigabyte.de/VGA/Products/Products_GV-N68128DH.htm) vorstellte und ich wußte, daß 6800nu-Modell bei mir laufen würden, war ich kaum zu bremsen - meinem Kontostand allerdings erging es eher andersrum, so daß ich erst Anfang Oktober wieder ernsthaft eine solche Anschaffung in Betracht ziehen konnte und die erste lieferbare Welle der Karten glorreich verpasste. Dumm nur, daß die nächsten Karten gleich mal 25 EUR teurer waren und zudem nicht lieferbar. Trotz dieser Widrigkeiten folgte am 16.10.2004:
Die Bestellung:
Auf einmal war der Lieferstatus bei der Online-Apotheke Alternate (http://www1.alternate.de/html/index.html) auf 'grün' und trotz eines deftigen Preises von 309 EUR zzgl. Abzocke...err.. Versandkosten schlug ich zu. Am Montag rief ich an und fragte, wann ich denn mit dem Eintreffen rechnen könne: Die Charge sei schon komplett aus dem Hause und leider konnte meine Bestellung nicht mehr mitbearbeitet werden, da zuviele Vorbesteller befriedigt werden wollten. FRUST.
Ob die Karten überhaupt noch im Oktober reinkommen sollten oder wann die nächste Lieferung erwartet werden würde, dazu konnten mir die freundlichen Telefonsklaven von Alternate keine Auskunft erteilen. Ich wartete. :(
Diesen Montag rief ich noch einmal an und nicht bass verblüfft, daß man mir dieselbe vertröstende Antwort gab, wie eine Woche zuvor.
Am Dienstag hatte ich frei und nichts zu tun und als ich so meinen manuellen Spamfilter anwarf hätte ich beinahe eine Mail von Alternate gelöscht, die am Abend zuvor angekommen war. Was sollte dort wohl drinstehen, außer, daß die Produktion der Karte eingestellt worden war und man meine Bestellung storniert hatte?
Ein kleines bißchen habe ich mich schon gefreut, mich hier geirrt zu haben. Das muss ich mal zugeben - denn die Mail enthielt neben einem langen Text, der wohl der juristischen Absicherung der Auftragsbestätigung dienen sollte, den Hinweis, daß MEINE KARTE, MEIN SSCHATZZZZZSSSSS am Abend zuvor das Lager verlassen hätte.
Am Mittwoch war es dann soweit und auf der Arbeit klingelte der Postbote und verlangte von mir die Frechheit von 320,95EUR. In einem riesigen Paket mit Unmengen an nützlichem Packpapier und einer ziemlich großen, bunten Schachtel mit Plastiktragegriff kam die Karte bei mir an.
Zu meckern hatte ich trotz allem etwas an:
Der Lieferung:
Dummerweise war der Karton weder eingeschweisst, noch machten die Pappklappen den Eindruck, ich würde gleich der erste sein, der dieses Schmuckstück in Händen halten würde. Die Antistatikfolie unterstützte diesen Eindruck und war weder versiegelt, noch halbwegs knitterfrei noch in der Größe angemessen. Die Karte roch auch nicht nach den Rückständen der Produktion - ich hatte also einen Rückläufer erwischt. TOLL :(
Ein klein wenig angesäuert, beschloß ich, nichtsdestotrotz, das Teil erstmal auszuprobieren und zu behalten, wenn sie im Rahmen ihrer Spezifikation funktionieren sollte. Übertakten oder Modden wollte ich das Teil eh nicht - eher im normalen Betrieb untertakten oder noch ein Quad abschalten.
Das Gelieferte:
Klick (http://home.arcor.de/quasat/3DC-Pics/DSCN2397.JPG) für Packung.
Klick (http://home.arcor.de/quasat/3DC-Pics/DSCN2398.JPG) für Bundle.
Klick (http://home.arcor.de/quasat/3DC-Pics/DSCN2399.JPG) für Karte, Vorderseite.
Klick (http://home.arcor.de/quasat/3DC-Pics/DSCN2400.JPG) für Karte, Rückseite.
Klick (http://home.arcor.de/quasat/3DC-Pics/DSCN2401.JPG) für Heatpipe, Nahansicht.
Der Einbau:
Da war sie nun und musst in meinen wie folgt konfigurierten Rechner passen:
Gehäuse: Midi-Servertower, grau, auf Rollen
Netzteil: ASTec SA147-3520
Mainboard: GBT 6OXET (So370)
CPU: Pentium3-S 1,4GHz (auf 1,08v)
RAM: 2*256MB PC133-SDR-SDRAM (2-2-2-5)
HDD: Samsung SV1604N (verpackt in einem CoolerMaster CD-03 ohne Lüfter)
CD-R: Yamaha CRW3200E
DVD: Pioneer Slot-in 105 (oder so...)
Steckkarten:
- [Graka]
-
- 3Com Etherlink XL 10/100-PCI NIC
- Creative Audigy II ZS
- Hauppauge WinTV Theater
Korrektur: Alle Watt-Angaben beziehen sich natürlich auf das Gesamtsystem - nicht, daß da eine ungenaue Formulierung einen falschen Eindruck entstehen läßt!
Summa Summarum machte das primärseitig am meinem ELV Energie Monitor EM600 eine Last von ~73W mit meiner (Chaintech) GF4 MX460 oder ~90W mit meiner (PNY) FX5800u bei ruhendem Windows-Desktop und entweder eine ziemliche Ruckelei in Far Cry oder niedrige(re) Qualitätseinstellungen in Sachen Grafik. Spielbar bekam ich es auch mit der GF4MX noch ohne Probleme in 1024....
Eingebaut belegt die Karte trotz ihrer Dimensionen nicht mehr als nur den AGP-Slot, auch wenn es rückseitig im Bereich der Speichersockel sehr knapp zugeht. Aber hier ist das Kühlkörperdesign durchdacht und weist an der Stelle, wo es kritisch werden kann, keine Lamellen mehr auf, sondern nur noch die Kühlplatte.
Zwei andere Punkte wirken, ohne das jetzt mathematisch oder physikalisch exakt zu begründen, weniger durchdachte:
Erstens wäre da die Vorderseite und der 'Einschluss' der Heatpipes in eine Hitzefalle - ein Konstrukt, prädestiniert dazu, die höchsten Aussentemperaturen am Kühler zu erzeugen.
Und Zweitens sind da die RAM-Bausteine in µBGA-Bauform. An sich nicht problematisch, handelt es sich bei diesen um DDR1-Speicher, der noch etwas mehr Leistung benötigt, als der aktuelle GDDR3-RAM. Dumm nur, daß der Kühlkörper etwa 0,5mm über den einzelnen Bausteinen schwebt und durch die Hitze aus den Heatpipes anstatt hier zu kühlen oder sich wenigstens neutral zu verhalten, eher noch zu erhöhten RAM-Temperaturen beiträgt. :(
Wir werden sehen (denn wir sind ja nicht blind).
Nun noch der erste Kritikpunkt am Lieferumfang (ich vermute letztere...): Im Lieferumfang befand sich kein Y-Kabel, um einem eventuell ausgelasteten System zur Aufnahme der Karte zu verhelfen - glücklicherweise kein besonders schwerwiegendes Problem in meinem Falle.
Fertig zusammengesteckt, war ich natürlich skeptisch, ob die beiden Heatpipes des Kühlers auch mit der vermutet enormen Abwärme eines 222M-Transistor-Monsters fertig würden, deshalb:
Erste Messungen:
Bewaffnet mit o.e. Wattmeter und einem Multimeter mit Temperaturfühler bootete ich mein System und installierte direkt mal die neuesten BETA-Treiber. :devil:
Zu meiner großen Enttäuschung genehmigte sich das Teil im Windows-Idle nach dem allfälligen Neustart genau so viel, wie meine 5800u, etwa 90W. Nun gut, dafür sollte die Leistung in nahezu allen Fällen besser sein und beim Starten einer 3D-Application würde nicht wieder der Fön anspringen.
Ich fühlte nach ein wenig surfen, Musikhören und Videoschauen manuell am rückwärtigen Kühler nach und konnte nur mit Mühe und einiger Willenskraft die Hand an Ort und Stelle belassen - ziemlich warm, das Ding.
Das Multimeter musste ran und maß prompt 56°C an der Rückseite. Die weiter oben beschriebene, vermutlich kritischere Stelle stellte ich mit dem HDR-Shader aus dem nVidia-SDK auf die Probe und der Kühlkörper erwärmte sich hier nach ca. einer Stunde Laufzeit auf 80°C - es gab allerdings keine Bildfehler oder dergleichen zu bestaunen. Um zu sehen, ob sich das Ding nicht heimlich runtertaktete, lief die ganze Zeit der RT 15.2 im Hintergrund mit - alas! To no avail! ;)
Nach ein bißchen probieren mit theoretischen Testprogrammen und dem BIOS-Editor stellte ich freudig fest, daß sowohl die aktuelle BIOS-Version bereits aufgespielt war, als auch, daß die Karte ordnungsgemäß mit 12 Pixelpipes (3 Quads) und 5 Vertexeinheiten lief. Es soll da ja Fehllieferungen seitens GBT gegeben haben.
Angestachelt einerseits durch Neugier, andererseits durch externe Einflüsse ( greetings @ robbitop) und sowieso vorhandenem RivaTuner in passender Version, versuchte ich auch, was ich eigentlich nicht tun wollte: Freischalten der deaktivierten Pixel- und Vertexeinheiten. Kh'Pla! (read: Es scheint geklappt zu haben, vorbehaltlich neuer Programme, die doch noch Fehler zutage fördern).
Sogar der Stromhunger vergrößerte sich nur unwesentlich und unter voller (von mir erreichter) Last sog das System nunmehr gut 128W aus dem Stromnetz - im 3DMark eher so um 110-115W ;)). Win-Idle blieb bei rund 90W.
Es folgt:
Das Kuriosum:
Neben dem Freischalten, welches ja kaum höhere Leistungsaufnahme und somit ebenfalls auch kaum höhere Leistungsabgabe mit sich brachte, versuchte ich nach einer Reihe weiterer, positiv verlaufener Stabilitätstests ei wenig Overclocking.
Der RivaTuner bietet seit den Zeiten der FX-Reihe separate Einstellungen für 2D und 3D an. Ich versuchte zunächste einmal, nur die 3D-Leistung durch erhöhten Takt zu steigern - mit dem Erfolg, daß dieser Ausblieb. Folgend habe ich dann auch den 2D-Takt auf denselben Wert gesetzt (Testweise 350MHz) und damit kam auch der Erfolg - auf zweierlei Weise.
Einerseits natürlich eine "Beinahe"-GT mit 16 Pipes und 350MHz-GPU-Takt und andererseits, wie ich später erstaunt feststellte, eine um 15W auf rund 75W gesunkene Leistungsaufnahme im Idle-Modus, die sich nach einigem Probieren bei einer GPU-Taktrate von genau 350MHz einstellte (349MHz benötigten noch ~90W idle).
Höchst mysteriös....aber gut zu wissen, wie ich finde.
Grauer Alltag:
Einigen Unstimmigkeiten nervten, wie z.B. die Uneinigkeit zwischen Verpackung, Webseite und Treiber, ob die Karte nun HW-Monitoring unterstütze. Der RivaTuner war zunächst der Meinung, er könne auch keine Temperatur meiner Karte erkennen und so musste ich mich auf mein externes Multimeter verlassen. Doch, oh wunder, das GBT-eigene Tool V-Tuner2plus vermag es auf das famoseste, zumindest die GPU-Kerntemperatur auszulesen. Gut, daß ich über meinen Schatten sprang und herstellerspezifische Tools installierte...
Nach ein paar weiteren Versuchen ergab sich ein GPU-Temperaturmaximum von etwa 95°C - IMO unbedenklich für jemanden, der eine nV30 bei 500MHz gewohnt ist. Allerdings sollte man dem Teil aufgrund des Kühlprinzips etwas Luft zum Atmen lassen - ich habe es zwar noch nicht probiert, aber den ersten PCI-Slot zu blockieren, könnte zu thermischen Probleme führen...
Das nächste Kapitel, das ich vorhabe, unter die Lupe zu nehmen, ist der Videoprozessor und die Funktion, die man ihm noch entlocken kann.
Videoprozessor, oder wie verschwende ich ~20M Transistoren:
Auf meinem Rechner laufen verständlicherweise kaum WMV9-HD-Videos wirklich flüssig - selbst das Simpel-Exempel 'Robotica' tut es nur in der 720er Auflösung noch. Auch die NASA-Patriotensamples mit startenden Space-Shuttles, händeschüttelnden Präsidenten, senkrechtstartenden Harriern und Formation fliegenden Kunstflugstaffeln ruckeln eher lustlos vor sich hin, obwohl im MPEG-Format. Die Filmtrailer 'Ray' und 'Shark Tale' von der DivX-Seite hingegen laufen problemlos.
Da habe ich mir natürlich eine Linderung durch den VP erhofft.
Bisher, vorbehaltlich der neuen Treiber, die ja in der Gerüchteküche zubereitet werden, scheint das jedoch ein Griff ins Klo zu sein.
Für DVD, xVid, DivX und sonstiges Zeugs ist mein Rechner schnell genug - da ist mir der VP egal.
Dummerweise muss man für den nVidia DVD-Decoder einen WMP9 auf seinem System zulassen, wozu ich mich bisher nicht entschliessen konnte. Also ein Alternativ-Windows auf eine alte Platte geklatscht, M$ einmal komplett alles durchschnüffeln lassen und das Teil installiert (wo krieg ich eigentlich meine Kohle wieder?? Kreditkartenabbuchung stornieren lassen?).
Fehlanzeige - 'Step into Liquid' in 720 immer noch durchgehend bei 100% CPU-Auslastung, stockendem Ton und nach einigen Sekunden, versetzter Bild und Ton-Wiedergabe.
Warten auf den 'Wundertreiber' err.... :|
Eigentlich, wenn man sich das Diagramm so anschaut, hätte nV lieber die TMUs des Vertexshaders mit bilinearen Filterkerneln ausstatten sollen oder tri-TMUs einbauen, oder einfach ein fünftes Pixelquad....
Update:
Die neueren Treiber (so ab dem 66.93er IIRC) bringen zumindest eine gute und hübsche Beschleunigung von HD-MPEG2-Videos. HD-DivX und -WMV9 sind noch problematisch.
Performanzen:
Viele Benchmarks wird's nicht geben,außer ihr habt irgendwelche speziellen Wünsche, die ich irgendwie erfüllen kann.
mapel110s Vorschlag, die Men-of-Valor- und MOH:PA-Demos zu probieren waren nicht so erfolgreich. Beide liefen zwar, aber die Performance war auch in 640x480 mit sehr wenigen Details noch ähnlich unerfreulich wie in hoher Auflösung mit mehr Details - wie gesagt, schiebe ich das vorerst mal auf die CPU (<20fps sollten nicht unbedingt an der Graka liegen, denke ich).
FlatOut läuft auch in 1600x1200 mit allen Details in der Demo prima, Doom3 wurde zwar nicht schneller als vorher (~33-34fps in der Demo), aber dafür nun auch in 1600x1200 etc.. Ein richtiger Schub kam dagegen bei Far Cry, welches, inzwischen auf Version 1.3 geupdated, auch mit HDR-Rendering in 1024 problemlos spielbar bleibt. Sobald jedoch die Auflösung auf 1152 erhöht wird, geht irgendwas in meinem System stark in die Knie - ich vermute, die VRAM-Größe reicht langsam nicht mehr aus.
Im Plain-Vanilla-Modus sind auch 1600x1200 nicht verkehrt, ebenso bei UT2004 und UT2003 - letzteres ist bei gemäßigterer Auflösung sogar mit recht hohen AA-Modi noch erträglich. 4xS, 8xS oder 2x2 Supersampling, aTuner sei Dank, erfreut das Auge nun auch bei etlichen älteren Games, ohne das die Framerate untragbar darunter leidet.
3DMurkse sind auch gelaufen und insgesamt habe ich so ca. 22.000 Punkte - 10,5k im 01er, 8,7k im 03er und 3,2k im 05er - WAYNE.
Fortsetzung folgt...
ksrythx. ;(
Update 04.02.2005:
Wie sich jetzt herausstellte, scheint wohl doch ein subtiler Fehler im ab Werk deaktivierten Pixelquad vorhanden zu sein. Erstmals sichtbar im Raytracer-Shader, der 293 Instruktionen lang ist.
Da das Ding ja eher selten ist, erstmal die
Vorgeschichte:
Mein Rechner ist ja eh nicht mehr der dollste, aber das meiste läuft schon noch so, daß ich noch keinen zwingenden Grund sehe, mir ein komplettes, neues System zu kaufen. Meine alte Karte war ja ein Schnuckelchen (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=90965), aber soff mir dann doch zuviel Strom für die gebotene Leistung. Was ich allerdings extrem liebgewonnen hatte, war die absolute Ruhe beim Arbeiten (ja, der Fön hatte auch seine guten Seiten). Da ich in der Vergangenheit in der glücklichen Lage war, das ein oder andere Stück Grafikhardware näher zu begutachten, probierte ich auch so einiges davon aus, ob es mir für den Privatgebrauch zusagen würde.
Meinen Ansprüchen insgesamt am gerechtesten wäre wohl eine Radeon 9600 Ultimate Edition geworden - das Modell, welches ich kurzzeitig probieren konnte, wollte allerdings nicht mit meinem GBT-6OXET-Mainboard zusammen laufen - lt. Saphhire allerdings ein Einzelfall.
Ich wollte allerdings diesbezüglich kein Risiko eingehen und da man so einiges hört von Versandhäusern und deren Gebahren, wenn mal eine mysteriöse Inkompatibilität auftritt, oder die mitunter doch beträchtliche Dauer, bis man seine Kohle aus dem FAG zurückerhält, nahm ich Abstand von einem R9600-Modell zumal auch gewisse Eigenheiten der Texturfilterung damals nicht so ganz meinem Gusto entsprach.
Ich wechselte durch meine Sammlung kreuz und quer, aber die ollen Gurken, wie G400 oder Rage128 oder GF2 MX konnten meinen Spieltrieb nicht befriedigend, so daß schließlich doch wieder die 5800u im Rechner landete.
Der Preis waren allerdings gute 25W mehr Stromaufnahme im Windows-Desktop-Betrieb als mit den anderen Karten, mit denen ich aber wiederum nicht spielen konnte.
Dilemma.
Als dann GigaByte eine GeForce 6800 mit passiver Kühlung (http://www.gigabyte.de/VGA/Products/Products_GV-N68128DH.htm) vorstellte und ich wußte, daß 6800nu-Modell bei mir laufen würden, war ich kaum zu bremsen - meinem Kontostand allerdings erging es eher andersrum, so daß ich erst Anfang Oktober wieder ernsthaft eine solche Anschaffung in Betracht ziehen konnte und die erste lieferbare Welle der Karten glorreich verpasste. Dumm nur, daß die nächsten Karten gleich mal 25 EUR teurer waren und zudem nicht lieferbar. Trotz dieser Widrigkeiten folgte am 16.10.2004:
Die Bestellung:
Auf einmal war der Lieferstatus bei der Online-Apotheke Alternate (http://www1.alternate.de/html/index.html) auf 'grün' und trotz eines deftigen Preises von 309 EUR zzgl. Abzocke...err.. Versandkosten schlug ich zu. Am Montag rief ich an und fragte, wann ich denn mit dem Eintreffen rechnen könne: Die Charge sei schon komplett aus dem Hause und leider konnte meine Bestellung nicht mehr mitbearbeitet werden, da zuviele Vorbesteller befriedigt werden wollten. FRUST.
Ob die Karten überhaupt noch im Oktober reinkommen sollten oder wann die nächste Lieferung erwartet werden würde, dazu konnten mir die freundlichen Telefonsklaven von Alternate keine Auskunft erteilen. Ich wartete. :(
Diesen Montag rief ich noch einmal an und nicht bass verblüfft, daß man mir dieselbe vertröstende Antwort gab, wie eine Woche zuvor.
Am Dienstag hatte ich frei und nichts zu tun und als ich so meinen manuellen Spamfilter anwarf hätte ich beinahe eine Mail von Alternate gelöscht, die am Abend zuvor angekommen war. Was sollte dort wohl drinstehen, außer, daß die Produktion der Karte eingestellt worden war und man meine Bestellung storniert hatte?
Ein kleines bißchen habe ich mich schon gefreut, mich hier geirrt zu haben. Das muss ich mal zugeben - denn die Mail enthielt neben einem langen Text, der wohl der juristischen Absicherung der Auftragsbestätigung dienen sollte, den Hinweis, daß MEINE KARTE, MEIN SSCHATZZZZZSSSSS am Abend zuvor das Lager verlassen hätte.
Am Mittwoch war es dann soweit und auf der Arbeit klingelte der Postbote und verlangte von mir die Frechheit von 320,95EUR. In einem riesigen Paket mit Unmengen an nützlichem Packpapier und einer ziemlich großen, bunten Schachtel mit Plastiktragegriff kam die Karte bei mir an.
Zu meckern hatte ich trotz allem etwas an:
Der Lieferung:
Dummerweise war der Karton weder eingeschweisst, noch machten die Pappklappen den Eindruck, ich würde gleich der erste sein, der dieses Schmuckstück in Händen halten würde. Die Antistatikfolie unterstützte diesen Eindruck und war weder versiegelt, noch halbwegs knitterfrei noch in der Größe angemessen. Die Karte roch auch nicht nach den Rückständen der Produktion - ich hatte also einen Rückläufer erwischt. TOLL :(
Ein klein wenig angesäuert, beschloß ich, nichtsdestotrotz, das Teil erstmal auszuprobieren und zu behalten, wenn sie im Rahmen ihrer Spezifikation funktionieren sollte. Übertakten oder Modden wollte ich das Teil eh nicht - eher im normalen Betrieb untertakten oder noch ein Quad abschalten.
Das Gelieferte:
Klick (http://home.arcor.de/quasat/3DC-Pics/DSCN2397.JPG) für Packung.
Klick (http://home.arcor.de/quasat/3DC-Pics/DSCN2398.JPG) für Bundle.
Klick (http://home.arcor.de/quasat/3DC-Pics/DSCN2399.JPG) für Karte, Vorderseite.
Klick (http://home.arcor.de/quasat/3DC-Pics/DSCN2400.JPG) für Karte, Rückseite.
Klick (http://home.arcor.de/quasat/3DC-Pics/DSCN2401.JPG) für Heatpipe, Nahansicht.
Der Einbau:
Da war sie nun und musst in meinen wie folgt konfigurierten Rechner passen:
Gehäuse: Midi-Servertower, grau, auf Rollen
Netzteil: ASTec SA147-3520
Mainboard: GBT 6OXET (So370)
CPU: Pentium3-S 1,4GHz (auf 1,08v)
RAM: 2*256MB PC133-SDR-SDRAM (2-2-2-5)
HDD: Samsung SV1604N (verpackt in einem CoolerMaster CD-03 ohne Lüfter)
CD-R: Yamaha CRW3200E
DVD: Pioneer Slot-in 105 (oder so...)
Steckkarten:
- [Graka]
-
- 3Com Etherlink XL 10/100-PCI NIC
- Creative Audigy II ZS
- Hauppauge WinTV Theater
Korrektur: Alle Watt-Angaben beziehen sich natürlich auf das Gesamtsystem - nicht, daß da eine ungenaue Formulierung einen falschen Eindruck entstehen läßt!
Summa Summarum machte das primärseitig am meinem ELV Energie Monitor EM600 eine Last von ~73W mit meiner (Chaintech) GF4 MX460 oder ~90W mit meiner (PNY) FX5800u bei ruhendem Windows-Desktop und entweder eine ziemliche Ruckelei in Far Cry oder niedrige(re) Qualitätseinstellungen in Sachen Grafik. Spielbar bekam ich es auch mit der GF4MX noch ohne Probleme in 1024....
Eingebaut belegt die Karte trotz ihrer Dimensionen nicht mehr als nur den AGP-Slot, auch wenn es rückseitig im Bereich der Speichersockel sehr knapp zugeht. Aber hier ist das Kühlkörperdesign durchdacht und weist an der Stelle, wo es kritisch werden kann, keine Lamellen mehr auf, sondern nur noch die Kühlplatte.
Zwei andere Punkte wirken, ohne das jetzt mathematisch oder physikalisch exakt zu begründen, weniger durchdachte:
Erstens wäre da die Vorderseite und der 'Einschluss' der Heatpipes in eine Hitzefalle - ein Konstrukt, prädestiniert dazu, die höchsten Aussentemperaturen am Kühler zu erzeugen.
Und Zweitens sind da die RAM-Bausteine in µBGA-Bauform. An sich nicht problematisch, handelt es sich bei diesen um DDR1-Speicher, der noch etwas mehr Leistung benötigt, als der aktuelle GDDR3-RAM. Dumm nur, daß der Kühlkörper etwa 0,5mm über den einzelnen Bausteinen schwebt und durch die Hitze aus den Heatpipes anstatt hier zu kühlen oder sich wenigstens neutral zu verhalten, eher noch zu erhöhten RAM-Temperaturen beiträgt. :(
Wir werden sehen (denn wir sind ja nicht blind).
Nun noch der erste Kritikpunkt am Lieferumfang (ich vermute letztere...): Im Lieferumfang befand sich kein Y-Kabel, um einem eventuell ausgelasteten System zur Aufnahme der Karte zu verhelfen - glücklicherweise kein besonders schwerwiegendes Problem in meinem Falle.
Fertig zusammengesteckt, war ich natürlich skeptisch, ob die beiden Heatpipes des Kühlers auch mit der vermutet enormen Abwärme eines 222M-Transistor-Monsters fertig würden, deshalb:
Erste Messungen:
Bewaffnet mit o.e. Wattmeter und einem Multimeter mit Temperaturfühler bootete ich mein System und installierte direkt mal die neuesten BETA-Treiber. :devil:
Zu meiner großen Enttäuschung genehmigte sich das Teil im Windows-Idle nach dem allfälligen Neustart genau so viel, wie meine 5800u, etwa 90W. Nun gut, dafür sollte die Leistung in nahezu allen Fällen besser sein und beim Starten einer 3D-Application würde nicht wieder der Fön anspringen.
Ich fühlte nach ein wenig surfen, Musikhören und Videoschauen manuell am rückwärtigen Kühler nach und konnte nur mit Mühe und einiger Willenskraft die Hand an Ort und Stelle belassen - ziemlich warm, das Ding.
Das Multimeter musste ran und maß prompt 56°C an der Rückseite. Die weiter oben beschriebene, vermutlich kritischere Stelle stellte ich mit dem HDR-Shader aus dem nVidia-SDK auf die Probe und der Kühlkörper erwärmte sich hier nach ca. einer Stunde Laufzeit auf 80°C - es gab allerdings keine Bildfehler oder dergleichen zu bestaunen. Um zu sehen, ob sich das Ding nicht heimlich runtertaktete, lief die ganze Zeit der RT 15.2 im Hintergrund mit - alas! To no avail! ;)
Nach ein bißchen probieren mit theoretischen Testprogrammen und dem BIOS-Editor stellte ich freudig fest, daß sowohl die aktuelle BIOS-Version bereits aufgespielt war, als auch, daß die Karte ordnungsgemäß mit 12 Pixelpipes (3 Quads) und 5 Vertexeinheiten lief. Es soll da ja Fehllieferungen seitens GBT gegeben haben.
Angestachelt einerseits durch Neugier, andererseits durch externe Einflüsse ( greetings @ robbitop) und sowieso vorhandenem RivaTuner in passender Version, versuchte ich auch, was ich eigentlich nicht tun wollte: Freischalten der deaktivierten Pixel- und Vertexeinheiten. Kh'Pla! (read: Es scheint geklappt zu haben, vorbehaltlich neuer Programme, die doch noch Fehler zutage fördern).
Sogar der Stromhunger vergrößerte sich nur unwesentlich und unter voller (von mir erreichter) Last sog das System nunmehr gut 128W aus dem Stromnetz - im 3DMark eher so um 110-115W ;)). Win-Idle blieb bei rund 90W.
Es folgt:
Das Kuriosum:
Neben dem Freischalten, welches ja kaum höhere Leistungsaufnahme und somit ebenfalls auch kaum höhere Leistungsabgabe mit sich brachte, versuchte ich nach einer Reihe weiterer, positiv verlaufener Stabilitätstests ei wenig Overclocking.
Der RivaTuner bietet seit den Zeiten der FX-Reihe separate Einstellungen für 2D und 3D an. Ich versuchte zunächste einmal, nur die 3D-Leistung durch erhöhten Takt zu steigern - mit dem Erfolg, daß dieser Ausblieb. Folgend habe ich dann auch den 2D-Takt auf denselben Wert gesetzt (Testweise 350MHz) und damit kam auch der Erfolg - auf zweierlei Weise.
Einerseits natürlich eine "Beinahe"-GT mit 16 Pipes und 350MHz-GPU-Takt und andererseits, wie ich später erstaunt feststellte, eine um 15W auf rund 75W gesunkene Leistungsaufnahme im Idle-Modus, die sich nach einigem Probieren bei einer GPU-Taktrate von genau 350MHz einstellte (349MHz benötigten noch ~90W idle).
Höchst mysteriös....aber gut zu wissen, wie ich finde.
Grauer Alltag:
Einigen Unstimmigkeiten nervten, wie z.B. die Uneinigkeit zwischen Verpackung, Webseite und Treiber, ob die Karte nun HW-Monitoring unterstütze. Der RivaTuner war zunächst der Meinung, er könne auch keine Temperatur meiner Karte erkennen und so musste ich mich auf mein externes Multimeter verlassen. Doch, oh wunder, das GBT-eigene Tool V-Tuner2plus vermag es auf das famoseste, zumindest die GPU-Kerntemperatur auszulesen. Gut, daß ich über meinen Schatten sprang und herstellerspezifische Tools installierte...
Nach ein paar weiteren Versuchen ergab sich ein GPU-Temperaturmaximum von etwa 95°C - IMO unbedenklich für jemanden, der eine nV30 bei 500MHz gewohnt ist. Allerdings sollte man dem Teil aufgrund des Kühlprinzips etwas Luft zum Atmen lassen - ich habe es zwar noch nicht probiert, aber den ersten PCI-Slot zu blockieren, könnte zu thermischen Probleme führen...
Das nächste Kapitel, das ich vorhabe, unter die Lupe zu nehmen, ist der Videoprozessor und die Funktion, die man ihm noch entlocken kann.
Videoprozessor, oder wie verschwende ich ~20M Transistoren:
Auf meinem Rechner laufen verständlicherweise kaum WMV9-HD-Videos wirklich flüssig - selbst das Simpel-Exempel 'Robotica' tut es nur in der 720er Auflösung noch. Auch die NASA-Patriotensamples mit startenden Space-Shuttles, händeschüttelnden Präsidenten, senkrechtstartenden Harriern und Formation fliegenden Kunstflugstaffeln ruckeln eher lustlos vor sich hin, obwohl im MPEG-Format. Die Filmtrailer 'Ray' und 'Shark Tale' von der DivX-Seite hingegen laufen problemlos.
Da habe ich mir natürlich eine Linderung durch den VP erhofft.
Bisher, vorbehaltlich der neuen Treiber, die ja in der Gerüchteküche zubereitet werden, scheint das jedoch ein Griff ins Klo zu sein.
Für DVD, xVid, DivX und sonstiges Zeugs ist mein Rechner schnell genug - da ist mir der VP egal.
Dummerweise muss man für den nVidia DVD-Decoder einen WMP9 auf seinem System zulassen, wozu ich mich bisher nicht entschliessen konnte. Also ein Alternativ-Windows auf eine alte Platte geklatscht, M$ einmal komplett alles durchschnüffeln lassen und das Teil installiert (wo krieg ich eigentlich meine Kohle wieder?? Kreditkartenabbuchung stornieren lassen?).
Fehlanzeige - 'Step into Liquid' in 720 immer noch durchgehend bei 100% CPU-Auslastung, stockendem Ton und nach einigen Sekunden, versetzter Bild und Ton-Wiedergabe.
Warten auf den 'Wundertreiber' err.... :|
Eigentlich, wenn man sich das Diagramm so anschaut, hätte nV lieber die TMUs des Vertexshaders mit bilinearen Filterkerneln ausstatten sollen oder tri-TMUs einbauen, oder einfach ein fünftes Pixelquad....
Update:
Die neueren Treiber (so ab dem 66.93er IIRC) bringen zumindest eine gute und hübsche Beschleunigung von HD-MPEG2-Videos. HD-DivX und -WMV9 sind noch problematisch.
Performanzen:
Viele Benchmarks wird's nicht geben,außer ihr habt irgendwelche speziellen Wünsche, die ich irgendwie erfüllen kann.
mapel110s Vorschlag, die Men-of-Valor- und MOH:PA-Demos zu probieren waren nicht so erfolgreich. Beide liefen zwar, aber die Performance war auch in 640x480 mit sehr wenigen Details noch ähnlich unerfreulich wie in hoher Auflösung mit mehr Details - wie gesagt, schiebe ich das vorerst mal auf die CPU (<20fps sollten nicht unbedingt an der Graka liegen, denke ich).
FlatOut läuft auch in 1600x1200 mit allen Details in der Demo prima, Doom3 wurde zwar nicht schneller als vorher (~33-34fps in der Demo), aber dafür nun auch in 1600x1200 etc.. Ein richtiger Schub kam dagegen bei Far Cry, welches, inzwischen auf Version 1.3 geupdated, auch mit HDR-Rendering in 1024 problemlos spielbar bleibt. Sobald jedoch die Auflösung auf 1152 erhöht wird, geht irgendwas in meinem System stark in die Knie - ich vermute, die VRAM-Größe reicht langsam nicht mehr aus.
Im Plain-Vanilla-Modus sind auch 1600x1200 nicht verkehrt, ebenso bei UT2004 und UT2003 - letzteres ist bei gemäßigterer Auflösung sogar mit recht hohen AA-Modi noch erträglich. 4xS, 8xS oder 2x2 Supersampling, aTuner sei Dank, erfreut das Auge nun auch bei etlichen älteren Games, ohne das die Framerate untragbar darunter leidet.
3DMurkse sind auch gelaufen und insgesamt habe ich so ca. 22.000 Punkte - 10,5k im 01er, 8,7k im 03er und 3,2k im 05er - WAYNE.
Fortsetzung folgt...
ksrythx. ;(
Update 04.02.2005:
Wie sich jetzt herausstellte, scheint wohl doch ein subtiler Fehler im ab Werk deaktivierten Pixelquad vorhanden zu sein. Erstmals sichtbar im Raytracer-Shader, der 293 Instruktionen lang ist.