PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Lohnt eine GTX+ noch


Gast
2008-11-24, 20:59:01
Hallo,

ich wollte mal fragen ob sich eine GTX+ noch lohnt. Ich meine es gibt ja diese billig Modelle für knapp 150 EURO. Aber diese sollen ja nicht so toll sein. Vom Lüfter und von der Boardquali. Aber es gibt ja auch welche von Zotac und Gainward? Die kosten ja auch nur knapp 160 EURO. Lohnen sich die, oder für den gleichen Preis ne 4850? Welche wäre im Ilde sparsamer? Es gibt ja neuerdings noch eine ZOTAC GeForce 9800 GTX+ 1GB. Die kostet aber knapp 190. Lohnt sich der doppelte Speicher? Bei hohen Auflösungen sollte da dich was drinne sein oder?

Danke

Gast
2008-11-24, 21:01:36
Zotac & Gainward sind auch kein Referenzdesign mehr, Lagerware aussen vor. Alles nur noch Billigboards, AMD sei Dank.

Ich würd ne GTX 260-216 kaufen.

Gast
2008-11-24, 21:04:36
Hat sich nie gelohnt, da technisch veraltet. Das fehlende DX 10.1 wird sich ab Windows 7 bemerkbar machen.

Sven77
2008-11-24, 22:47:59
Hat sich nie gelohnt, da technisch veraltet. Das fehlende DX 10.1 wird sich ab Windows 7 bemerkbar machen.

Au ja, ich kauf mir eine Grafikkarte für ein OS das Anfang 09 kommen soll.. ^^

Coda
2008-11-24, 22:50:28
Hat sich nie gelohnt, da technisch veraltet. Das fehlende DX 10.1 wird sich ab Windows 7 bemerkbar machen.
Wird es nicht, falls du auf Aero anspielst.

Arschhulio
2008-11-26, 11:45:15
Ich hab mir vor ca. 3 Monaten ne 9800GTX+ von Leadtec für 155€ gekauft . Ich bin zufrieden damit. Wird beim Zoggn nicht wärmer als 55° (original Kühler).

Und von wegen dx 10.1, die meisten nutzen doch eh noch DX9c ;D

Also lasst das dämliche Argument mal wech :P

Gast
2008-11-29, 18:48:32
Ich hab mir vor ca. 3 Monaten ne 9800GTX+ von Leadtec für 155€ gekauft . Ich bin zufrieden damit. Wird beim Zoggn nicht wärmer als 55° (original Kühler).

Und von wegen dx 10.1, die meisten nutzen doch eh noch DX9c ;D

Also lasst das dämliche Argument mal wech :P

was ich generell nicht verstehe ist das die leute beim ganzen DX10 Hype die leute immer mehr effekte Bling Bling sehen wollen und darum die entwickler der Games gezwungen sind mehr effekte reinzusetzen obwohl es meißt shice performt damit man sich sagen kann das ist mit einer DX9 Karte nicht möglich was an sich ja nicht schlimm ist aber war DX10 nicht dafür gedacht DX9 in bestimmten bereichen zu beschleunigen damit mehr Performance da ist oder irre mich?

LovesuckZ
2008-11-29, 20:22:52
Es ist schade, das bis jez niemand ernsthaft die G92 Karten mit 1024 mit den 512 Karten verglichen haben. Mich interessant es wirklich brennend, ob sich 1024 heute nicht dort sehr von den 512 absetzen können, da der G92 ja verstärkt zum RAM Verbrauch neigt.

r@h
2008-12-01, 06:53:36
Es ist schade, das bis jez niemand ernsthaft die G92 Karten mit 1024 mit den 512 Karten verglichen haben. Mich interessant es wirklich brennend, ob sich 1024 heute nicht dort sehr von den 512 absetzen können, da der G92 ja verstärkt zum RAM Verbrauch neigt.
Finde ich auch... und es ist nicht nur das Problem des G92 mit dem RAM-Verbrauch, sondern ALLES seit G80 hat dieses "Problem"... inkl. GT200.

Bis noch vor 6 Monaten reichten 512MB noch vollkommen bei mir und auch heute noch würde dies reichen, wenn... ja wenn... die Auflösung bei 19" geblieben wär... und damit bei 1280x1024. Da ich aber seither einen 24" MVA benutze, bin ich auf 1920x1200, bzw. 1600x1200 (1:1 in 4:3 eben ;-) fest genagelt... und da sind 512MB recht 'eng'. Man siehe Stalker CS, Crysis WH oder Fallout 3... sie alle brauchen 'locker' 512MB VRAM unter 1920... und so darf es dann eben kein AA mehr bei mir sein... was ich aber schon gern hätte.

Die GT200 sind mir zu... unausgereift.

Sie werden viel zu heiß und es gibt keine vernünftigen Alternativ-Kühllösungen dafür (OK, das eine dürfte mit dem anderen zusammen hängen... i.e. Verbot seitens nVidia für Alternativen). Ausserdem ist der Stromverbrauch so dermaßen übertrieben, dass ich gerne darauf verzichte (OK, auch das hängt mit den zuvor genannten Punkten im Kontext ;-).

So warte ich derzeit auf die 55nm GT200 (die noch immer nicht im Markt sind, auch wenn das von nV behauptet wird) und die 9800GTX+ mit 1GB VRAM.
Letztere sind ja schon zum Teil bei Geizhals gelistet:
http://geizhals.at/deutschland/?cat=gra16_512&sort=artikel&bpmax=&asuch=gtx%2B&v=e&pixonoff=off&filter=+Liste+aktualisieren+&bl1_id=-1&xf=132_1024

Die Zotac hat allerdings einen 'billigen' Speicher (mit 88GT-typischen 950MHz getaktet) und die EVGA ist noch nicht lieferbar (immerhin 1100MHz VRAM Takt, eben dem 'Standard' bei den GTX+).

Der 9800GTX+ ist zwar auch 'nur' ein G92, aber mit folgendem Plus gegenüber meiner jetzigen 8800GT:
- 740MHZ GPU Takt (jetzt 700MHz bei meiner OC'ten 8800GT)
- 1836MHz Shader-Takt (vs. aktuell 1728MHz)
- 1100MHz RAM-Takt (vs. 1000MHz)
Und was noch wichtiger ist:
- 128 Streamer statt derzeit 112...
- Verdopplung der VRAM.Menge von 0,5 auf 1GB

Neben der VRAM-Verdopplung sind also auch noch grobe 20% Mehrleistung ggü. meiner jetzigen Lösung drin... ohne OC natürlich.
Und es gibt reichlich Auswahl für Alternativ-Kühler... von welchen mir derzeit der AC TwinTurbo zusagen würde.

Auch ja, neben EVGA und Zotac wäre da noch folgendes Modell von Gigabyte:
http://www.guru3d.com/news/gigabyte-geforce-9800-gtx-1gb-zalman/
http://www.giga-byte.com/Products/VGA/Products_Overview.aspx?ProductID=2918
Hier fehlen aber noch die genauen Spezifika...

Tjo... GT200 in 55nm, wenn sie was 'taugen' oder eben G92@max in Form der 9800GTX+1GB.
(ATIs Alternativen hab' ich grade selber im Rechner gehabt und festgestellt, dass diese keine für mich sind)

Sonst muss ich halt bis nächstes Jahr warten...

Und ja, 1204 vs 512 gibt es wenige... aber wenn man ein bissel googelt, kommt z.Bsp. das hier:
http://www.expreview.com/review/2007-12-28/1198817531d7392_14.html

Fazit daraus:
- bei Crysis 'nützt' nicht mal ein GT200 :D
- bei WiC bringts zumindest etwas, wenn man AA dazu nimmt
- bei CoJ gibts ordentlich, aber 'spielbar' wird es dadurch nicht
- beim mistigen PT Boats bringts 'ne Määääänge - nur 'braucht' das wirklich niemand

Von der Warte aus: kein Bedarf für 1GB VRAM!
Allerdings gab es da noch nicht Stalker CS und Crysis WH (beides GPU-'schonender') und eben Fallout 3 (was mäschtisch VRAM braucht)...

In diesem Sinne

Razor

dargo
2008-12-01, 10:31:53
Die GT200 sind mir zu... unausgereift.

Sie werden viel zu heiß und es gibt keine vernünftigen Alternativ-Kühllösungen dafür

Das erinnert mich irgendwie an die Geschichte mit G92 vs. G80. Was der Razer nicht hat muss schlecht sein. ;)

Viel zu heiß? Meine GTX 260 wird mit OC gerade mal 78-79°C unter Last warm. Da gibts G8800GTs die die 90-er Marke überschreiten. ;)

Ausserdem ist der Stromverbrauch so dermaßen übertrieben, dass ich gerne darauf verzichte
In Idle sind es nur 10W mehr. Ok, bei Last ist der Unterschied zur G8800GT schon etwas größer.


Fazit daraus:
- bei Crysis 'nützt' nicht mal ein GT200 :D

Falsch, wenn man sich auf DX10 beschränkt ja. Es gibt aber einige Configs die im Gesamtpaket besser aussehen und deutlich besser performen. Mit der Mster Config konnte ich problemlos Crysis in 1680x945 (16:9) und 2-4xMSAA/8xAF durchspielen.

pest
2008-12-01, 10:43:33
Der 9800GTX+ ist zwar auch 'nur' ein G92, aber mit folgendem Plus gegenüber meiner jetzigen 8800GT:
- 740MHZ GPU Takt (jetzt 700MHz bei meiner OC'ten 8800GT)
- 1836MHz Shader-Takt (vs. aktuell 1728MHz)
- 1100MHz RAM-Takt (vs. 1000MHz)
Und was noch wichtiger ist:
- 128 Streamer statt derzeit 112...
- Verdopplung der VRAM.Menge von 0,5 auf 1GB


also die 20% bekommst du vielleicht wenn du die GTX derbe übertaktest
würde das lassen, und deiner 8800gt lieber nen vMod spenden.
Wert ist die eh nicht mehr viel, und so kommst du locker an 10-15% mehr
aber ist nur meine Meinung, btw. habe ich in einigen Benches hier, mit meiner 8800GT+vMod 9800GTX(non-OC) locker überholt.

Gast
2008-12-01, 20:30:47
In Idle sind es nur 10W mehr. Ok, bei Last ist der Unterschied zur G8800GT schon etwas größer.


im idle konnte ich bei mir sogar garkeinen unterschied zur 8800GT feststellen, unter last ist es natürlich deutlich mehr.

mike49
2008-12-01, 20:42:44
Die GT200 sind mir zu... unausgereift.

Argh.... geht das schon wieder los? :|

Etwa weil die GT200 einen funktionierenden Stromsparmodus haben und von alleine runtertakten?

Oder weil sie (GTX260) im idle 12W weniger verbraucht (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/25/#abschnitt_leistungsaufnahme)als deine hochgelobte 9800GTX+ in 55nm??

Naja, lassen wir das lieber. Bringt ja eh nix...

Sie werden viel zu heiß und es gibt keine vernünftigen Alternativ-Kühllösungen dafür (OK, das eine dürfte mit dem anderen zusammen hängen... i.e. Verbot seitens nVidia für Alternativen).

Mal abgesehen davon, daß meine GTX260 (bei vergleichbarer Lautstärke) sowohl im idle als auch unter Last kühler als meine vorige 8800GT bleibt:

Was glaubst Du, was das wohl ist: http://geizhals.at/deutschland/a360239.html ?

Wobei ich ehrlich gesagt nicht wüßte, wofür man den jetzt brauchen sollte. Im idle ist die GTX260 bei 25% unhörbar (53C) und selbst unter Last bleibt meine bei max. 50% fan speed unter 80C.

Ach ja, falls Du dich noch daran erinnern möchtest / kannst: Um den launch der 8800GT herum gab es hier etliche Threads, in denen sich User über ihre überhitzten 8800GT beschwert haben. Deutlich mehr, als jetzt beim GT200

reunion
2008-12-01, 20:51:27
Hallo,

ich wollte mal fragen ob sich eine GTX+ noch lohnt. Ich meine es gibt ja diese billig Modelle für knapp 150 EURO.

Ansichtssache. Wenn du auf Dinge, die du nur bei nV bekommst wert legst schon, umgekehrt eher nicht.


Aber diese sollen ja nicht so toll sein. Vom Lüfter und von der Boardquali. Aber es gibt ja auch welche von Zotac und Gainward? Die kosten ja auch nur knapp 160 EURO.

Um die Boardqualität würde ich mir keine Sorgen machen. Beim Lüfter ist das Referenzdesign bereits sehr gut.


Lohnen sich die, oder für den gleichen Preis ne 4850?

Die 4850 solltest du billiger bekommen. Darüber hinaus ist der G92 eben nicht mehr ganz taufrisch und hat bekanntlich Probleme mit dem VRAM.


Welche wäre im Ilde sparsamer?

Die 4850 geringfügig.


Es gibt ja neuerdings noch eine ZOTAC GeForce 9800 GTX+ 1GB. Die kostet aber knapp 190. Lohnt sich der doppelte Speicher? Bei hohen Auflösungen sollte da dich was drinne sein oder?

Danke

Wäre beim G92 sicherlich eine Überlegung wert, allerdings sind 190€ IMHO zu viel, dafür bekommt man schon fast eine doch deutlich schnellere 4870.

LovesuckZ
2008-12-01, 22:45:40
Ach ja, falls Du dich noch daran erinnern möchtest / kannst: Um den launch der 8800GT herum gab es hier etliche Threads, in denen sich User über ihre überhitzten 8800GT beschwert haben. Deutlich mehr, als jetzt beim GT200

Es gab trotz der Masse an verkauften Karten nicht annährend soviele Probleme mit überhitzen und somit defekten 8800GTs wie mit der GTX280.
Der Lüfter hat bei 93°C angefangen zu regeln und auf 100°C hat es nie eine 8800GT geschaft, da die 100% einfach zu powervoll waren.

dargo
2008-12-01, 23:17:36
im idle konnte ich bei mir sogar garkeinen unterschied zur 8800GT feststellen, unter last ist es natürlich deutlich mehr.
Ich habe mich da einfach auf die Werte von Xbitlabs verlassen. Es mag aber sein, dass zwischen den einzelnen Karten leichte Unterschiede von wenigen Watt herrschen wo es dann vorkommen kann, dass sogar die GTX 260 mit der G8800GT auf gleichem Niveau in Idle liegt. :)

Schrotti
2008-12-02, 01:36:58
Es gab trotz der Masse an verkauften Karten nicht annährend soviele Probleme mit überhitzen und somit defekten 8800GTs wie mit der GTX280.
Der Lüfter hat bei 93°C angefangen zu regeln und auf 100°C hat es nie eine 8800GT geschaft, da die 100% einfach zu powervoll waren.

Ich habe meine damalige 8800GT des Standardlüfters beraubt und einen Zalman vf700cu auf die Karte gesetzt weil diese die 100°C erreicht hat.

Nach dem Umbau war dann bei max. 65°C Schluss.

r@h
2008-12-02, 07:08:18
Da gibts G8800GTs die die 90-er Marke überschreiten. ;)
In Idle sind es nur 10W mehr. Ok, bei Last ist der Unterschied zur G8800GT schon etwas größer.
Falsch...
1) meine tut das nicht... und wie gesagt, es 'fehlt' an alternativen Kühllösungen bei den GTX'en.
2) siehe unten
3) Richtig... denn ist es nicht 'traurig', dass Du mit DER modernsten GraKa, an der Config 'schrauben' musst, um Crysis wenigstens in unter-TrueHD-Auflösung spielen zu können? 1680x945 ist ja nun mal ein Witz... nix Halbes und nix Ganzes.

Leistungsaufnahme:
http://www.pcgameshardware.de/aid,654454/News/xbitlabs_Leistungsaufnahme_RV770_gegen_GT200/&menu=browser&image_id=869815&article_id=654454&page=1&show=

Wie man sieht: 9800GTX (65nm, nicht 55nm wie bei der GTX+) vs. GT200 aka 260GTX
- im LowPower-Bereich sind es 11 Watt mehr... 65 vs. 54 oder auch gute 20% mehr
- unter Last sind es glech über 70W mehr... 182 vs 108 oder auch knappe 70% mehr
und das ist nur die GTX260 (ohne 216)...

Kein Wunder also, dass es derzeit keine Alternativen zur nervigen nVidia-Kühlung und der damit verbundenen Lautstärke gibt.

also die 20% bekommst du vielleicht wenn du die GTX derbe übertaktest
würde das lassen, und deiner 8800gt lieber nen vMod spenden.
Wert ist die eh nicht mehr viel, und so kommst du locker an 10-15% mehr
aber ist nur meine Meinung, btw. habe ich in einigen Benches hier, mit meiner 8800GT+vMod 9800GTX(non-OC) locker überholt.
Wir reden hier von der 55nm GTX+!
Die Daten stehen ja in Deinem Zitat... auch die der 8800GT.
Ergo: 740x128 : 700x112 = 94720 : 78400 = 1,2082 = +21% Rohleistung
...extra für Dich - und ganz ohne OC der GTX+.

Und die 8800GT reicht mir eigentlich noch vollkommen (ausser bei Crysis, wo aber auch eine GTX2x0 'versagt' ;-). Nur dass die GTX+, über die wir hier reden, eben den doppelten VRAM trägt und damit bei meiner aktuellen Auflösung (1920x1200 weil 24" MVA) ein wenig mehr "Luft" hat...

...aber all das schrieb ich schon.

im idle konnte ich bei mir sogar garkeinen unterschied zur 8800GT feststellen, unter last ist es natürlich deutlich mehr.
Mit "idle" meinst Du hoffentlich nicht "nix tun"... wenn der Rechner bei mir "nix tut", dann wird er abgeschaltet.
Interessant ist hier Web-Browsing (bei dem der Lüfter der GT200 ja auch schon des öfteren rum zickt) und vor allem Multimedia wie Video schaun', encoding, Office/Entwicklung etc.

Und... man hört von meiner Karte NICHTS... nicht im Idle, im LowPower oder unter Vollast... gar NICHTS... NIE!
Das sollte eine Neuanschaffung auch leisten...

Siehe mein Zitat oben zu dem PCGH Test.

Oder weil sie (GTX260) im idle 12W weniger verbraucht (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/25/#abschnitt_leistungsaufnahme)als deine hochgelobte 9800GTX+ in 55nm??
Kein LowPower-Mode bei CB? Wundert mich nicht wirklich...
Schau' Dir einfach mal den Test bei PCGH an... die verstehen in dieser Hinsicht auch was von ihrem Fach!
:)

Was glaubst Du, was das wohl ist: http://geizhals.at/deutschland/a360239.html ?
60€ für 'nen 3-4 Slot-Kühler, der die hohe Abwärme eines GT200 nicht einmal aus dem Gehäuse befördert?
Wenn es denn überhaupt aufs Mainbaord oder ins Gehäuse hinein zu bekommen ist.
Suuuuupper... :uclap:

Hier mal eine kleine Impression dieser tollen "Alternative":
http://www.pc-cooling.de/images/products/100000196/100000196-4_gr.jpg

Wäre beim G92 sicherlich eine Überlegung wert, allerdings sind 190€ IMHO zu viel, dafür bekommt man schon fast eine doch deutlich schnellere 4870.
'ne ATI wäre ja noch schlimmer, als ein GT200...
Die Lüfter unerträglich und die Treiber ein Graus... noch immer.
Aber das steht auf einem anderen Blatt... auch schrieb ich schon mal was dazu.

Aber klar, 190 für 'ne 9800 GTX+ 1GB sind zu viel... max 170 eher 150 wären OK... +ca. 20€ für einen vernünftigen Kühler.
Und mal schaun', was da so mit den 55nm GT200 anzufangen ist...

Es gab trotz der Masse an verkauften Karten nicht annährend soviele Probleme mit überhitzen und somit defekten 8800GTs wie mit der GTX280.
Der Lüfter hat bei 93°C angefangen zu regeln und auf 100°C hat es nie eine 8800GT geschaft, da die 100% einfach zu powervoll waren.
Aber auch unerträglich laut... :D
Aber klar... der von vielen befüchtete Sommer-SuperGau der 8800GT bleib aus.
Wie auch das blöken der selbst ernannten Experten bzgl. der "unterdimensionierten" Stromversorgung... "nur 2 Phasen - rabääääähhh"
Und mir ist immer noch nicht ganz klar, was die da damals als "Phasen" auserkoren haben... ;)

Ich habe meine damalige 8800GT des Standardlüfters beraubt und einen Zalman vf700cu auf die Karte gesetzt weil diese die 100°C erreicht hat.
Nach dem Umbau war dann bei max. 65°C Schluss.
Nö... 100° hat sie nie erreicht... konnte sie gar nicht erreichen.
Klar, wenn man da mit dem RT oder Alpha-Treibern "herum gespielt" hat, schon... aber das zählt ja wohl nicht.

Auch ich habe einen Zalman VF-900cu drauf... auf 8800GT.
Und darum geht es hier ja... Kühlungs-Alternativen... "vernünftige" natürlich - fehlen bei den GTX2x0 vollkommen.

Und noch einmal: es geht hier um die 9800 GTX+ 1GB, nicht um die (wirklich sehr gute ;-) 8800GT.
Nicht zu vergessen... die 512MB-Variante wäre selbstredend KEINE Alternative!

Razor

dargo
2008-12-02, 10:44:16
1) meine tut das nicht... und wie gesagt, es 'fehlt' an alternativen Kühllösungen bei den GTX'en.

Wofür braucht man einen alternativen Kühler bei einer GTX 260? :confused:
Die Karte bekommt man in 2D unhörbar hin (selbst ohne einen Eingriff ins Bios). In 3D solange man nicht extrem übertaktet sollte es sich mit der Lautstärke auch im Rahmen halten. Ich meine gut, wenn du selbst in 3D eine unhörbare Graka haben willst dann wird das sicherlich nichts. Ich habe da andere Prioritäten - in 3D stört mich ein leises Luftrauschen nicht da eh Sound der Games alles übertönt.


3) Richtig... denn ist es nicht 'traurig', dass Du mit DER modernsten GraKa, an der Config 'schrauben' musst, um Crysis wenigstens in unter-TrueHD-Auflösung spielen zu können?

Nein, warum denn? Im Gegensatz zu einigen Anderen kann ich durchaus sehen was in Crysis auf dem Bildschirm passiert und die Hardwareanforderungen sehr gut nachvollziehen.


1680x945 ist ja nun mal ein Witz... nix Halbes und nix Ganzes.

Was ist an einer 16:9 Auflösung ein Witz? :|


Leistungsaufnahme:
http://www.pcgameshardware.de/aid,654454/News/xbitlabs_Leistungsaufnahme_RV770_gegen_GT200/&menu=browser&image_id=869815&article_id=654454&page=1&show=

Wie man sieht: 9800GTX (65nm, nicht 55nm wie bei der GTX+) vs. GT200 aka 260GTX
- im LowPower-Bereich sind es 11 Watt mehr... 65 vs. 54 oder auch gute 20% mehr
- unter Last sind es glech über 70W mehr... 182 vs 108 oder auch knappe 70% mehr
und das ist nur die GTX260 (ohne 216)...

Schau mal genauer hin - es sind 108W vs. 136W. ;)

AnarchX
2008-12-02, 10:48:03
Schau mal genauer hin - es sind 108W vs. 136W. ;)
Die neuen GTX 260 216SPs, wenn man da eine mit werkseitig niedriger Spannung bekommt(AFAIK 1.06V statt 1.16V), dürfte wohl auch nur noch knapp über 100W liegen:
http://www.xbitlabs.com/articles/video/display/radeon-hd4870-1024_8.html#sect0

dargo
2008-12-02, 11:41:05
Die neuen GTX 260 216SPs, wenn man da eine mit werkseitig niedriger Spannung bekommt(AFAIK 1.06V statt 1.16V), dürfte wohl auch nur noch knapp über 100W liegen:
http://www.xbitlabs.com/articles/video/display/radeon-hd4870-1024_8.html#sect0
Auch wenn ich dir da zustimme was die etwas kleinere Verlustleistung bei Last der neuen GTX 260 angeht. Bei den Gesamtverbräuchen wäre ich da vorsichtig. In diesem Link sieht man sehr gut, dass die GTX280 weit vom "Maximum" liegt. Der Unterschied zur ersten GTX 260 ist einfach zu klein. Ich vermute hier mal, dass bei der GTX 280 einfach ein höheres CPU-Limit herrschte.

Dimon
2008-12-02, 12:26:58
Eine Geforce 8800GTX ist besser :biggrin:

ne spaß beiseite, ich würde eher ne Radeon 4870 oder eine GTX260 nehmen, da sie mehr leistung bieten und nicht viel mehr kosten (ausgehend von der 1GB variante)


mfg Dimon

robbitop@work
2008-12-02, 12:48:42
Ich empfand die GT200 Serie auch als nicht all zu beeindruckend. Sie schaffte (sofern nicht der VRAM der G80 voll war!) keinen Faktor 2 des Vorgängers. Trotz neuem Fullnode und massiv erhöhter Transistoranzahl. Das Ding ist groß und zieht unter Last enorm Leistung.

Ich würde auf die 40 nm Teile von ATI und NV warten. Die dürften mit rund 200 mm^2 sogar im Midrangebereich etwas mehr Leistung als eine GTX280 erziehlen, viel weniger verbrauchen und viel weniger kosten. Ich stelle mir das analog vor wie letztes Jahr (G80 / R600 -> RV770)

r@h
2008-12-04, 06:12:42
Wofür braucht man einen alternativen Kühler bei einer GTX 260?
Weil das Ding zu laut ist... in 3D, aber auch in PowerIdle/-2D.
Wenn Dich das nicht stört, gehörst Du eben zu den weniger empfindsamen Naturen mit anderen Prämissen.

Nein, warum denn?
Du gehst unter die native Auflösung Deines Displays?
Mehr ist dazu einfach nicht zu sagen... nur dass offenbar "Qualität" nicht wirklich zu Deinen Prämissen gehört.

Was ist an einer 16:9 Auflösung ein Witz? :|
Ein Fernseher als Dispaly... aber das würde hier zu weit führen.
Die Auflösung ist halt nicht alles... aber das würdest Du vermutlich eh nicht verstehen... wollen.

-

Hmmm...
Lautstärke egal, herauf skalierte Auflösungen und Fernseher als Monitor?
Dein Anspruch unterscheidest sich wirklich stark von meiner Vorstellung eines Arbeits- und Multimedia-Rechners.

Schau mal genauer hin - es sind 108W vs. 136W. ;)
Ja und?
Dann sinds halt nur 26% mehr Leistungsaufnahme untrer 3D...
Dafür ists dann immer noch keine GTX260-216 und auf der anderen Seite auch keine 55nm für die 9800GTX+.

Fakt ist und bleibt, dass es keine Kühlalternativen gibt, um das in den Griff zu bekommen.
Auch bei der 8800GT sah/sehe ich eine non-nVidida-Referenz-Kühlung als unverzichtbar an... bei der GTX260 umso mehr!

Razor

dargo
2008-12-04, 12:00:52
Weil das Ding zu laut ist... in 3D, aber auch in PowerIdle/-2D.
Wenn Dich das nicht stört, gehörst Du eben zu den weniger empfindsamen Naturen mit anderen Prämissen.

Zu 3D hatte ich schon was gesagt. Und zu 2D - wirf mal einen Blick auf meine Signatur. Kleiner Tipp, es ist die blaue Schrift. ;)


Du gehst unter die native Auflösung Deines Displays?
Mehr ist dazu einfach nicht zu sagen... nur dass offenbar "Qualität" nicht wirklich zu Deinen Prämissen gehört.

Also von dir hätte ich es wirklich nicht erwartet. Denk doch mal ein wenig nach wie ich diese 16:9 Auflösung auf einem 22" TFT nativ hinbekommen habe. Du glaubst doch nicht ernsthaft, ich hätte das Bild gestreckt oder?


Hmmm...
Lautstärke egal, herauf skalierte Auflösungen und Fernseher als Monitor?
Dein Anspruch unterscheidest sich wirklich stark von meiner Vorstellung eines Arbeits- und Multimedia-Rechners.

Siehe oben.


Ja und?
Dann sinds halt nur 26% mehr Leistungsaufnahme untrer 3D...
Dafür ists dann immer noch keine GTX260-216 und auf der anderen Seite auch keine 55nm für die 9800GTX+.

Den Link von AnarchX hast du aber schon verfolgt? Außerdem hast du mit einem GT200 angefangen und nicht explizit mit bestimmter GT200-Grafikkarte.

r@h
2008-12-05, 07:30:38
Zu 3D hatte ich schon was gesagt. Und zu 2D - wirf mal einen Blick auf meine Signatur. Kleiner Tipp, es ist die blaue Schrift. ;)
Software-Bastelkram?
Damit kannst Du mich jagen!

Ich höre noch die Stimmen in meinem Kopf:
"Rabääääähhhhhhh.... des neue Treiber loft net mit de RT *heul* was für ein pöser Teiba!"

NEIN DANKE!

Also von dir hätte ich es wirklich nicht erwartet. Denk doch mal ein wenig nach wie ich diese 16:9 Auflösung auf einem 22" TFT nativ hinbekommen habe. Du glaubst doch nicht ernsthaft, ich hätte das Bild gestreckt oder?
Ein 22" 16:9 Fernseher mit 1680x945 als Computer-Monitor?
Rspekt!

Sorry, aber da wundern mich Deine Ansichten zu einigen Treibern nicht wirklich.
Ich halte es da lieber mit Standards und habe dafür reichlich weniger Problemchen...

Die einzig 'echten' PC-Auflösugen sind dann ja 1280x800 (16:10 zentriert) oder 1024x768 (4:3 zentriert) *würg*
Übrigens: Crysis mit 1600x1200 (nativ mit schwarzen Rändern links/rechts auf meinem 24" MVA) ist absolut spielbar... ohne AA.

Den Link von AnarchX hast du aber schon verfolgt? Außerdem hast du mit einem GT200 angefangen und nicht explizit mit bestimmter GT200-Grafikkarte.
Ja... und: ich bin nur der Diskussion gefolgt - Du offenbar nicht.

Razor

dargo
2008-12-05, 12:45:16
Software-Bastelkram?
Damit kannst Du mich jagen!

Ich höre noch die Stimmen in meinem Kopf:
"Rabääääähhhhhhh.... des neue Treiber loft net mit de RT *heul* was für ein pöser Teiba!"

NEIN DANKE!

Meine Güte... jetzt habe ich dir eine Möglichkeit gezeigt es ohne das Bios flashen zu müssen und es passt dir immer noch nicht, war ja klar. Dann flashst du halt das Bios mit neuen Lüfterparametern, aber das passt dir sicherlich auch nicht, ich weiß schon. :cool:



Ein 22" 16:9 Fernseher mit 1680x945 als Computer-Monitor?
Rspekt!

Es gibt bei Videospielen nicht nur 5:4, 4:3 oder 16:10. Wach auf....


Sorry, aber da wundern mich Deine Ansichten zu einigen Treibern nicht wirklich.
Ich halte es da lieber mit Standards und habe dafür reichlich weniger Problemchen...

Welche Probleme? Das einzige was machmal nicht ging war die TFT-Skalierung. Da war ich halt gezwungen bei 1680x1050 zu bleiben. Zum Glück funktioniert diese mit neuen Treibern wieder.


Übrigens: Crysis mit 1600x1200 (nativ mit schwarzen Rändern links/rechts auf meinem 24" MVA) ist absolut spielbar... ohne AA.

Schön, ich stehe aber nicht auf non-WS Auflösungen.

Gast
2008-12-05, 13:59:18
Ich höre noch die Stimmen in meinem Kopf:
"Rabääääähhhhhhh.... des neue Treiber loft net mit de RT *heul* was für ein pöser Teiba!"

low-level-tweaks, und dazu gehört nunmal die lüftersteuerung, sind unabhängig vom treiber und funktionieren selbst wenn du garkeinen grafiktreiber installierst und selbstverständlich mit jedem treiber.