PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GTX 280 - Erfahrungsthread


Seiten : 1 [2] 3

tomsen
2008-06-21, 11:05:00
@tombman
Wie kann man deiner Auflösung noch von Genuss sprechen?! Ziemlich enttäuschend wenn du bei 30FPS mit 2xGTX280 rumgurkst. Ich muss sogar von Very High auf High runtergehen und selbst mit 4xAA ist es mir zu ruckelig und das bei meiner Kinderauflösung. Was Crysis angeht finde ich die gebotene Leistung enttäuschend. -Gibt zum Glück noch andere Spiele ;)

tombman
2008-06-21, 11:43:55
Ihr könnt euch ja gerne einbilden, daß 35fps mit MR schlimmer sind als 20fps ohne, ich werd euch sicher nicht davon abhalten.

Offenbar müßt ihr MR weit über die Maßen schlimmreden, damit ihr über den Tag kommt- da schmunzel ich drüber ;)

MR ist nicht unwichtig, aber es ist auch nicht der Teufel. Viele settings werden durch SLI + MR spielbar, was sie ohne SLi GANZ SICHER NICHT SIND. Weil um die 20fps herumgurken nun mal Scheiße ist...

@tomsen; nur mal um deine verzerrten Ansichten zurechtzurücken. Weißt was 2x HD4850 an der Stelle hat, wo ich 35fps habe? Ca 13fps...

tomsen
2008-06-21, 11:53:05
@tomsen; nur mal um deine verzerrten Ansichten zurechtzurücken. Weißt was 2x HD4850 an der Stelle hat, wo ich 35fps habe? Ca 13fps...

Verzerrte Ansichten? Ich hatte Crysis in Bezug auf ATI garnicht erwähnt!
Aber die kosten auch nur 300 Euro zusammen! ;)

Tombman, hast du schon AoC getestet? Bei mir läufts traumhaft, wobei nen zacken mehr FPS hätte auch net geschadet. Bloom und AA kostet schon verdammt viel Leistung. Ohne SLI kann ich mir net vorstellen das es auf nem 24" aufwärts flüssig läuft mit diesen Eye-Candys.

tombman
2008-06-21, 12:13:06
Verzerrte Ansichten? Ich hatte Crysis in Bezug auf ATI garnicht erwähnt!
Aber die kosten auch nur 300 Euro zusammen! ;)

Tombman, hast du schon AoC getestet? Bei mir läufts traumhaft, wobei nen zacken mehr FPS hätte auch net geschadet. Bloom und AA kostet schon verdammt viel Leistung. Ohne SLI kann ich mir net vorstellen das es auf nem 24" aufwärts flüssig läuft mit diesen Eye-Candys.
Ich kann AOC auch mit 2304x1440 spielen ...mit ALLEM an was nur geht ;)

tombman
2008-06-21, 12:15:30
Btw, habe jetzt auf 700/1400/1200 oced ;)

Habe 98.8 Gigatexel/s :massa:

Das EVGA Precision Tool ist übrigens der HAMMER ;)

Noch nie konnte man so schnell und leicht overclocken und temp messen usw :)

Gast
2008-06-21, 12:19:16
Ihr könnt euch ja gerne einbilden, daß 35fps mit MR schlimmer sind als 20fps ohne, ich werd euch sicher nicht davon abhalten.

Offenbar müßt ihr MR weit über die Maßen schlimmreden, damit ihr über den Tag kommt- da schmunzel ich drüber ;)

MR ist nicht unwichtig, aber es ist auch nicht der Teufel. Viele settings werden durch SLI + MR spielbar, was sie ohne SLi GANZ SICHER NICHT SIND. Weil um die 20fps herumgurken nun mal Scheiße ist...

@tomsen; nur mal um deine verzerrten Ansichten zurechtzurücken. Weißt was 2x HD4850 an der Stelle hat, wo ich 35fps habe? Ca 13fps...

LOL 35 FPS. Man gibt 1000€ aus um eine Spiel mit 35 FSP zu spielen??? WIe lol ist das denn bitteschön?
ALso bevor ich nen Ego-Shooter mit 35 FPS spiele geh ich lieber in Wald Pilze pflücken...

Zomfg ey 35fps und er findests auch noch toll..... rofl!

tombman
2008-06-21, 12:23:44
LOL 35 FPS. Man gibt 1000€ aus um eine Spiel mit 35 FSP zu spielen??? WIe lol ist das denn bitteschön?
ALso bevor ich nen Ego-Shooter mit 35 FPS spiele geh ich lieber in Wald Pilze pflücken...

Zomfg ey 35fps und er findests auch noch toll..... rofl!

Du weißt schon was 1920x1200, VERYHIGH + 4xAA bedeutet, oder?

Rancor
2008-06-21, 12:26:36
NA sind die Gäste wieder am trollen? ;D

Naja, immerhin war es Tombman der die Microruckler Problematik entdeckt hat und er wird schon wissen ob es sich für ihn lohnt 1000Euro dafür zu blechen.

Ob das jetzt Sinn macht muss jeder für sich entscheiden.
Tombman ist ein Enthusiast und man kann froh sein das man solche Leute hat, die
a) Plan von dem haben was sie machen und
b) Bereit sind soviel Geld auszugeben um uns unter anderem dann zu berichten wie jene Hardware abgeht oder auch nicht...

Es gibt halt Leute die finden es arschgeil die neuste Hardware zu haben, die heftigsten Games in absolut kranken Qulitätseinstellungen zu zocken...
und das ist auch gut so..

Ich weiss jetzt werde ich gleich als Tombman Fanboi bezeichnet, aber es geht einem tierisch auf den Sack wenn Enthusiasten ständig von Gast-Trollpostings gebasht werden....

Seid froh das es solche Leute gibt!!

Gast
2008-06-21, 12:28:44
Du weißt schon was 1920x1200, VERYHIGH + 4xAA bedeutet, oder?

Ja und ? 35 FPS bleiben 35 FPS und das für 1000€...

einfach nur lol...

tomsen
2008-06-21, 12:33:06
Denke da haben wir uns alle mehr erhofft! Sicher ist auch das ne Steigerung da ist. Ich kann wenigstens auf Very High zocken, auch wenns total kantig aussieht. Vorher ging das ja garnicht wie wir alle wissen ;)

Crysis hat halt gleichmal 2-3 GPU Generationen vorausgedacht. :)

Gagula
2008-06-21, 12:33:42
Das ist nicht "lol"... sonder eher "oha!!"... :D

Dicker Igel
2008-06-21, 13:09:23
Crysis hat halt gleichmal 2-3 GPU Generationen vorausgedacht. :)

Das bringt aber nix, wenn keine anderen Games diese Engine nutzen.
Nur für Crysis würde ich auch keine 1000€ ausgeben, nicht mal 500€ für eine VGA.

Aber ich möchte es damit auch nicht verurteilen, ist ja jedem seine Sache :o)

cR@b
2008-06-21, 13:17:08
Also die AoC Engine ist nicht gerade sauber programmiert. Auch wenn ich nun durchgehend mehr fps habe, gibt es eine Stelle im Spiel, an jener sogar ne GTX 280 keine Chance mehr hat und auf 19 fps einbricht. Generell ist es aber erstaunlich, dass mit ner 88 GTX maximal 37,5 fps möglich waren in der Aussenwelt und mit der 280er zwischen 50 und 75fps also max möglich ist :eek:
Schön wäre, wenn die TB anständig reinbringen aber unter D3D ja kaum bis garnicht möglich bzw. nicht unterstützt :(

Was komisch ist wenn man sich z.B. in Kheshatta zur Stadt hindreht brechen die fps runter auf 20fps, steigen aber kurz drauf auf knapp 40fps an. Ich finde das eher ungewöhnlich, liegt aber eben an der Engine... denke ich.

tomsen
2008-06-21, 13:22:16
Was komisch ist wenn man sich z.B. in Kheshatta zur Stadt hindreht brechen die fps runter auf 20fps, steigen aber kurz drauf auf knapp 40fps an. Ich finde das eher ungewöhnlich, liegt aber eben an der Engine... denke ich.

Muss wohl auf den Arbeitsspeicher zugegriffen werden oder es wird einfach was nachgeladen.

tombman
2008-06-21, 13:38:35
Also ich habe ja jetzt schon einige games ausprobiert, aber alles außer Crysis fordert 2x GTX280 gar nimmer...

PTboats, Juarez, Cod4, alles egal, immer FETT fps...
Bei PTBoats wars so geil als der große Torpedo einschlug und sich fps mäßig NIX negativ abspielte, rannte fröhlich weiter ;D

Ich fürchte, 2x GTX280 sind einfach overkill für normale games ;D

Ich frage mich, wie ATI und Nvidia noch HighEnd-Grakas verkaufen wollen, wenn nur mehr Konsolenports kommen?

p.s. @Gast: ich kann dir gerne auch 100fps anbieten, wenn dich das befriedigt...oder ein paar 1000fps, wenn du dann abspritzt....

desert
2008-06-21, 13:54:44
meine ist immer gleich laut ob idle oder vollast? gibts schon ein programm zur regelung der lüfter?

cR@b
2008-06-21, 13:55:19
Muss wohl auf den Arbeitsspeicher zugegriffen werden oder es wird einfach was nachgeladen.

Ja kann sein aber bei anderen games z.B. gehen die frames runter aber gleich auf den richtigen Endwert. Da kann man sicherlich noch optimieren, ausser der ganze Quellcode müsste deshalb geändert werden :ugly:

Dicker Igel
2008-06-21, 14:00:43
Ich frage mich, wie ATI und Nvidia noch HighEnd-Grakas verkaufen wollen, wenn nur mehr Konsolenports kommen?

Jo, dass ist wohl wahr.

user77
2008-06-21, 14:06:37
ihr mit euren microrucklern.

es heißt ja nicht, dass sie immer auftreten, sie können auftreten!

Slipknot79
2008-06-21, 15:41:03
Ich hatte mit 8800GTX SLI und OVERCLOCK: X5700
Jetzt mit GTX280 SLI ohne OVERCLOCK: X9500
(Phys-X normalisiert)

Unsere BFGs sind von Haus aus schon oced :redface: wenn auch nur minimal.


Phys-X @ Gpu -> Vantage CPU-Score: 40000 ;D;D;D

Gehen die 280GTXen schneller in Physx ab als deine Ageia-Karte?

Welches Tool benutzt du fürs ocen um auf Stabilität zu testen?
Bei mir rennt das EVGA Tool ned, meint dass die Hardware ned kompatibel ist :( Hast du irgendwas modifiziert?


@Crysis: Grob kann man sagen: So wie Crysis mit 88GTX@SLI in DX9 lief, laufen 2xGTX 280 in DX10 :redface:

tomsen
2008-06-21, 17:16:14
Helft mir mal bitte! Meine Karte läuft nach Crysis zwar mit nur noch 300MHz GPU aber verbraucht viel Strom in idle und der Lüfter dreht auf 60% bei 60Grad GPU Temp. Scheinbar liegt die 3D Spannung an. Wie bekomme ich die wieder runter?? Ist nur bei Crysis der Fall. - Danke

Slipknot79
2008-06-21, 18:09:15
Helft mir mal bitte! Meine Karte läuft nach Crysis zwar mit nur noch 300MHz GPU aber verbraucht viel Strom in idle und der Lüfter dreht auf 60% bei 60Grad GPU Temp. Scheinbar liegt die 3D Spannung an. Wie bekomme ich die wieder runter?? Ist nur bei Crysis der Fall. - Danke


Womit liest du die MHz aus?

tomsen
2008-06-21, 18:18:55
Womit liest du die MHz aus?

Rivatuner auf meinen G15 LCD Display. Da siehste immer was anliegt! :rolleyes:

Matzi
2008-06-21, 18:52:52
@ Tombman ..... machst du wieder n video mit ton wie damals mit T sli ?
...... würd mich schon sehr interessieren wie laut beim zocken usw !!!!
gruss nach Wien ..... Matzi

Gast
2008-06-21, 18:57:45
@ Tombman ..... machst du wieder n video mit ton wie damals mit T sli ?
...... würd mich schon sehr interessieren wie laut beim zocken usw !!!!
gruss nach Wien ..... Matzi

Ja Bitte!

Slipknot79
2008-06-21, 19:11:15
Rivatuner auf meinen G15 LCD Display. Da siehste immer was anliegt! :rolleyes:


Wie bist du diese Treibersignaturshice in Vista 64 umgegangen?

Skinner
2008-06-21, 19:11:50
Für mich sind die Vantage ergebnisse alle ohne aussage kraft, gerade weil die nvidia Karten nun PhysiX unterstützen und dieser im Vantage gebrauch findet.

Einen echten verlgleich zu diesen Benchmark wird mal wohl nur ohne PhysiX Treiber machen können.

Grestorn
2008-06-21, 19:33:04
Wie bist du diese Treibersignaturshice in Vista 64 umgegangen?

Es gibt einen signierten Treiber für RivaTuner.

LovesuckZ
2008-06-21, 20:23:59
Für mich sind die Vantage ergebnisse alle ohne aussage kraft, gerade weil die nvidia Karten nun PhysiX unterstützen und dieser im Vantage gebrauch findet.

Einen echten verlgleich zu diesen Benchmark wird mal wohl nur ohne PhysiX Treiber machen können.

Wieso eigentlich? Futuremark hat doch explizit PhysiX Unterstützung eingebaut. Und ob nun die CPU, die Add-On Karte oder die Grafikkarte die Berechnung übernimmt - es ist im Sinne von Futuremark.

tomsen
2008-06-21, 20:42:52
Ahh, Age of Conan "flutscht" zum ersten mal richtig geil! ;D
Weniger FPS "dürfte" es aber auch nicht haben! - Endlich kein Ruckeln mehr beim umdrehen und Bloom ist auch zuschaltbar, die GTS G92 hat selbst in meiner Babyauflösung kläglich versagt.

E8500 @ 4.4GHz (Lukü)
DDR2 @ 1116 CL5-5-5-15
PoV GTX280 Stockcooler
Vista64bit SP1
Forceware 177.26
Raumtemp: 27 Grad

Age of Conan Settings:
http://www.abload.de/thumb/ageofconan200806212020463l.jpg (http://www.abload.de/image.php?img=ageofconan200806212020463l.jpg) http://www.abload.de/thumb/ageofconan2008062120203l9v.jpg (http://www.abload.de/image.php?img=ageofconan2008062120203l9v.jpg)


GTX280 @ 602/1296/1107
http://www.abload.de/thumb/ageofconan2008062119492p8u.jpg (http://www.abload.de/image.php?img=ageofconan2008062119492p8u.jpg) http://www.abload.de/thumb/ageofconan2008062120013abx.jpg (http://www.abload.de/image.php?img=ageofconan2008062120013abx.jpg) http://www.abload.de/thumb/ageofconan2008062119474778.jpg (http://www.abload.de/image.php?img=ageofconan2008062119474778.jpg) http://www.abload.de/thumb/ageofconan2008062120285z43.jpg (http://www.abload.de/image.php?img=ageofconan2008062120285z43.jpg)

GTX280 @ 700/1400/1200
http://www.abload.de/thumb/ageofconan2008062119492rpa.jpg (http://www.abload.de/image.php?img=ageofconan2008062119492rpa.jpg) http://www.abload.de/thumb/ageofconan2008062120014nja.jpg (http://www.abload.de/image.php?img=ageofconan2008062120014nja.jpg) http://www.abload.de/thumb/ageofconan2008062119475rgd.jpg (http://www.abload.de/image.php?img=ageofconan2008062119475rgd.jpg) http://www.abload.de/thumb/ageofconan2008062120290fbg.jpg (http://www.abload.de/image.php?img=ageofconan2008062120290fbg.jpg)

GTX280 @ 721/1457/1258
http://www.abload.de/thumb/ageofconan2008062119494uci.jpg (http://www.abload.de/image.php?img=ageofconan2008062119494uci.jpg) http://www.abload.de/thumb/ageofconan2008062120015mrf.jpg (http://www.abload.de/image.php?img=ageofconan2008062120015mrf.jpg) http://www.abload.de/thumb/ageofconan200806211948032v.jpg (http://www.abload.de/image.php?img=ageofconan200806211948032v.jpg) http://www.abload.de/thumb/ageofconan2008062120290jab.jpg (http://www.abload.de/image.php?img=ageofconan2008062120290jab.jpg)

Slipknot79
2008-06-21, 20:47:18
>GTX280 @ 700/1400/1200

Tomsen, las mal Furmark laufen. Kommen Bildfehler?

tomsen
2008-06-21, 21:06:06
>GTX280 @ 700/1400/1200

Tomsen, las mal Furmark laufen. Kommen Bildfehler?

Ich schau mal!

Wie stell ich den ein? Sry noch nie benutzt!

Slipknot79
2008-06-21, 21:12:25
Ich schau mal!

Wie stell ich den ein? Sry noch nie benutzt!

Stability test einfach laufen lassen, Rest so lassen wie es ist: 1280x1024 0xMSAA oder 4xMSAA.

tomsen
2008-06-21, 21:26:12
>GTX280 @ 700/1400/1200

Tomsen, las mal Furmark laufen. Kommen Bildfehler?

So hab mal ~600s laufen lassen! War nix!

http://www.abload.de/thumb/furmark20080621212429061ut.jpg (http://www.abload.de/image.php?img=furmark20080621212429061ut.jpg)

Slipknot79
2008-06-21, 21:43:59
Dann hast eine gute Karte erwischt, bei mir kommen Bildfehler bei 700/1400/1200 ;( Was solls, die Teile sind schon so schnell gaynug :redface:

tomsen
2008-06-21, 23:05:30
Dann hast eine gute Karte erwischt, bei mir kommen Bildfehler bei 700/1400/1200 ;( Was solls, die Teile sind schon so schnell gaynug :redface:

Danke! Nochmal der Test:

FurMark 1280x1024, 4xMSAA - Laufzeit ca. 20Min., ohne Fehler/Artefakte
E8500@4GHz , DDR2 @ 1068 Cl5-5-5-15
177.26
Raumtemp. 25°

GTX280 @ 700/1451/1204 (88° GPU/100% Lüfter)

http://www.abload.de/thumb/clock7js.jpg (http://www.abload.de/image.php?img=clock7js.jpg) http://www.abload.de/thumb/furmark2008062122231721xrn.jpg (http://www.abload.de/image.php?img=furmark2008062122231721xrn.jpg)

Stromverbrauch ohne TFT: ~380 Watt! :(

Chris Lux
2008-06-21, 23:16:12
wird ein 850W netzteil für gtx 280 sli reichen. ich dachte an das single rail silverstone mit 70A auf der 12V schiene. wieviel ampere sollten es sonst bei einem anderen nicht single rail netzteil sein?

Gast
2008-06-21, 23:20:07
70A sollten locker reichen

tomsen
2008-06-21, 23:20:14
wird ein 850W netzteil für gtx 280 sli reichen. ich dachte an das single rail silverstone mit 70A auf der 12V schiene. wieviel ampere sollten es sonst bei einem anderen nicht single rail netzteil sein?

Locker!!!!

GTX280 SLI:
In real world usage I would expect that you would not have any power related issues and the HX620 should be fine. If you already have an HX620 then I wouldn't worry about upgrading it at this point, unless you start adding more components or overclocking the system. However if you are looking to purchase a PSU, then I would go for the TX750 or HX1000 just so have room for more expansion.
http://www.asktheramguy.com/v3/showpost.php?p=353858&postcount=2

Wenn ein Corsair 620 Watt NT das schafft, dann schafft es Deins auch! ;)

Schau das du eins nimmst das Combined Ampere hat! Also wie die Corsair oder nehm gleich ein Single Rail NT!

TheBrother
2008-06-21, 23:20:44
GTX280 @ 700/1451/1204 (88° GPU/100% Lüfter)



Ich komme auf 700/1422/1270 kommst du auf über 700? Ich irgendwie nicht wenn ich hoeher einstelle bleibts bei 700... also ich bekomme keine Bildfehler oder so, aber irgendwie ist da n Limit drinn. da könnte noch mehr gehen! ;D

Nächste Woche kommt erstmal die WaKü dann nochmal schauen.

Gruß

Brother

tomsen
2008-06-21, 23:22:53
wird ein 850W netzteil für gtx 280 sli reichen. ich dachte an das single rail silverstone mit 70A auf der 12V schiene. wieviel ampere sollten es sonst bei einem anderen nicht single rail netzteil sein?
Ich komme auf 700/1422/1270 kommst du auf über 700? Ich irgendwie nicht wenn ich hoeher einstelle bleibts bei 700... also ich bekomme keine Bildfehler oder so, aber irgendwie ist da n Limit drinn. da könnte noch mehr gehen! ;D

Nächste Woche kommt erstmal die WaKü dann nochmal schauen.

Gruß

Brother

Laut G15LCD könnte ich das bestätigen, iwi seltsam. Ich hatte 723 eingestellt etc. und hatte auch höhere FPS, evtl kamen die durch den höheren Ram. K.a.

Aber mir ist das egal, ich lass auf Stock! Nur bei Games wie Crysis evtl AoC lohnt sich OCen, denn die brauchen GPU Power!

Gast
2008-06-21, 23:31:51
Stromverbrauch ohne TFT: ~380 Watt! :(


DAs ist doch Wahnsinn! In 5 Jahren haben wir wohl PC´s die locker 500-600W verbraten.

TheBrother
2008-06-21, 23:32:14
Laut G15LCD könnte ich das bestätigen, iwi seltsam. Ich hatte 723 eingestellt etc. und hatte auch höhere FPS, evtl kamen die durch den höheren Ram. K.a!

Mit dem Nvidia Tool kommt ne Fehlermeldung und mit Rivatuner komme ich auch nicht weiter. Vielleicht muss man da n anderes Bios flashen. Vielleicht kann der EVGA Precision Tuner 1.2 mehr. Gibts den mittlerweile irgendwo?

TheBrother
2008-06-21, 23:33:29
DAs ist doch Wahnsinn! In 5 Jahren haben wir wohl PC´s die locker 500-600W verbraten.

Ja unter last. Seitdem ich die GTX-280 besitze habe ich endlich wieder n Rechner der im Idle 160W braucht. das gabs seit der 7900gtx nicht mehr! ;D

tomsen
2008-06-21, 23:35:20
DAs ist doch Wahnsinn! In 5 Jahren haben wir wohl PC´s die locker 500-600W verbraten.

Achwas! Die Fertigungsstrukturen werden weiter vorangetrieben! Also 45nm Gpus bspw werden sicher weniger verbrauchen. Office PCs kommen sicher auch weiterhin mit ~100 Watt aus. Kommt eben drauf an was du machen willst.

tomsen
2008-06-21, 23:37:23
DAs ist doch Wahnsinn! In 5 Jahren haben wir wohl PC´s die locker 500-600W verbraten.
Ja unter last. Seitdem ich die GTX-280 besitze habe ich endlich wieder n Rechner der im Idle 160W braucht. das gabs seit der 7900gtx nicht mehr! ;D

In IDLE ist die KARTE HAMMER!!!!!!!!!!

Ich hab teilweise nur noch 120 Watt in idle und das mit 4.2GHz E8500!!! Das hatte ich nicht mit der 8800GTS G92, 2900Pro, 3870CF, 1950XT......... ;D

Gast
2008-06-21, 23:55:05
Achwas! Die Fertigungsstrukturen werden weiter vorangetrieben! Also 45nm Gpus bspw werden sicher weniger verbrauchen. Office PCs kommen sicher auch weiterhin mit ~100 Watt aus. Kommt eben drauf an was du machen willst.

Der Fertigungsprozess wurde immer weiter verkleinert und trotz alledem verbrauchen die Grafikkarten heute mehr als vor 5 JAhren!

tomsen
2008-06-22, 00:06:32
Der Fertigungsprozess wurde immer weiter verkleinert und trotz alledem verbrauchen die Grafikkarten heute mehr als vor 5 JAhren!

Die Spiele vor 5 Jahren sahen auch shice aus!!! :biggrin:

Dicker Igel
2008-06-22, 00:13:38
Wie laut ist die Karte nun wirklich ?

tomsen
2008-06-22, 00:17:46
Wie laut ist die Karte nun wirklich ?

Ich habs gern leise und mein PC ist eigentlich lautlos da die Lüfter gedrosselt sind. Die Karte ist somit in Idle hörbar und mir wäre das bereits zu laut. Wer sagt die Karte sei mit 40% in Idle lautlos der lügt! Dann übertönt die restliche Hardware die Karte.
Regelung auf 25% ist die Karte LAUTLOS und die Temp bei 55-58 Grad.
In 3D schwankt die Geschichte zw. 55-80% und ist so laut wie ne 2900XT. Das nervt natürlich bzw ist deutlich hörbar. Abhilfe: Kopfhörer!

Dicker Igel
2008-06-22, 00:28:17
So laut wie ne 2900XT ist natürlich übel, ist dass auch so ein schrilles nervendes Geräusch oder eher ein lautes rauschen.
Denn bei schrillen Geräuschen braucht man dann schon gute Studiokopfhörer ;D

tomsen
2008-06-22, 00:32:43
So laut wie ne 2900XT ist natürlich übel, ist dass auch so ein schrilles nervendes Geräusch oder eher ein lautes rauschen.
Denn bei schrillen Geräuschen braucht man dann schon gute Studiokopfhörer ;D

Nein, der Lüfter rattert nicht und es ist kein schrilles Geräusch zu hören! Es ist nur ein lautes Luftrauschen.

Hier hast du Samples vom Lüftergeräusch der GTX280, 8800GTX, 2900XT, 3870 in idle und unter Last! http://2960.lb-server.de/GTX280/ <Hörs dir einfach an!

Dicker Igel
2008-06-22, 00:45:57
Das klingt ja ganz passabel, danke für den Link ;) Mal sehen wie sich die Preise entwickeln und was die 4870 letztendlich leistet.

Gast
2008-06-22, 01:42:12
Der Fertigungsprozess wurde immer weiter verkleinert und trotz alledem verbrauchen die Grafikkarten heute mehr als vor 5 JAhren!
Trotzdem werden die Karten "irgendwann" halt nur noch um den Faktor schneller, die der neue Prozess bringt und das ist meistens nicht soviel, dass es Freaks aus den Socken haut. Deshalb erst mal volle Pulle weiter.
"Irgendwann" ist dann, wenn die Basis zu klein wird diesen Spaß sich leisten zu können, bzw. herkömmliche Dual-Slot-Lösungen nicht mehr reichen. Momentan sind die absolut am Limit, bei höheren Aufnahmen sind definitiv Triple-Slot-Kühler fällig.

dreamweaver
2008-06-22, 09:35:31
Das klingt ja ganz passabel, danke für den Link ;) Mal sehen wie sich die Preise entwickeln und was die 4870 letztendlich leistet.

Naja, von der Lautstärke her ist die 280 im Idle schon fast so laut, wie die 8800 unter Last. Die 280 unter Last klingt bei den Samples echt wie ein Fön.

Snoopy69
2008-06-22, 11:32:26
Kniet nieder, denn eurer Gott ist nah :eek:

Crysis: Very High, 1920x1200, 4xAA, DX10, 64bit, spezielle Stelle:


http://www.abload.de/img/crsisownage02q.bmp
Kannst du mal bitte mit genau diesen Settings den GPU-Bench durchlaufen lassen? Mich int. die Min-FPS :wink:


Btw, habe jetzt auf 700/1400/1200 oced ;)

Habe 98.8 Gigatexel/s :massa:

Das EVGA Precision Tool ist übrigens der HAMMER ;)

Noch nie konnte man so schnell und leicht overclocken und temp messen usw :)
Also wenn ich NV nehme, versuche ich die 800MHz zu knacken :D




Naja, immerhin war es Tombman der die Microruckler Problematik entdeckt hat
Wer??? :wink:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=100899&highlight=mikroruckler


DAs ist doch Wahnsinn! In 5 Jahren haben wir wohl PC´s die locker 500-600W verbraten.
Wann???
Mein Sys. braucht JETZT schon (seit fast 1 Jahr) ca. 600W unter Vollast!!! :ulol:
Ein System mit QX9700 @ 4000MHz + 2x GTX280 SLI verbraucht laut CB 554W...
Ich hab seit diesem System mehr als 400kWh mehr als davor verbraucht (2801kWh statt vorher 2378kWh - für den ganzen Haushalt) - 121€ NACHZAHLUNG !!! :ugly:

tomsen
2008-06-22, 11:55:41
EDIT: Das EVGA Tool taugt! ;)

desert
2008-06-22, 12:39:31
also irgendwas stimmt mit meiner überhaupt nicht,
erreiche in 3dmark06 gerade mal 10.000 punkte und im 05 11500 punkte.

meine alte 8800gts 512 hatte da schon um die 14.000 tausend.

das komische ist auch noch das sie nicht runtertaktet, aber irgendwie kommt mir das alles total ruckelig vor.

tombman
2008-06-22, 12:56:14
Für mich sind die Vantage ergebnisse alle ohne aussage kraft, gerade weil die nvidia Karten nun PhysiX unterstützen und dieser im Vantage gebrauch findet.

Einen echten verlgleich zu diesen Benchmark wird mal wohl nur ohne PhysiX Treiber machen können.
Ist beim EXTREME PRESET egal. Ob du 40000 oder 10000 cpu score hast ändert gerade mal 500 Punkte bei mir ;) (auf X10000 Niveau!)

Ändert also fast nix. Aber das gilt natürlich nur für den X preset. Performance kann man damit wirklich einiges "cheaten". Aber P benche ich eh nicht mehr ;)

Dann hast eine gute Karte erwischt, bei mir kommen Bildfehler bei 700/1400/1200 ;( Was solls, die Teile sind schon so schnell gaynug :redface:

Kann dir auch sagen warum, die habe ich bei extremer Last auch. Sobald die temp > 85°C geht wirds kritisch. Und das geht zb beim FUR benchmark GANZ schnell. Ohne WAKÜ würde ich nicht sonderlich bei der GTX280 übertakten, da hilft auch Lüfter bei 100% und offenes Gehäuse nix mehr.

Bei games kommen keine Bildfehler, aber das ist mir zu unsicher. WAKÜ muß her, hatte ich ja bei den 8800ern ja auch- und würde ich auch jedem empfehlen.


Wer??? :wink:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=100899&highlight=mikroruckler
Das hat aber NIX mit AFR MR zu tun, weil die Voodoo Karten kein AFR nutzen. Da kann es gar KEINE AFR MR gegeben haben, da hatte der Junge ein anderes Problem...
SLI und CF nutzen heutzutage ausschließlich AFR.


(2801kWh statt vorher 2378kWh - für den ganzen Haushalt) - 121€ NACHZAHLUNG !!! :ugly:
Du willst nicht wissen was ich hier im ganzen Haushalt verbrauche...
Wenn ich so weitermache komme ich dieses Jahr noch auf 6000 KWh...
Ich werde auch was dagegen tun....(btw, wir haben hier aber nur 15cent /KWh...)

tombman
2008-06-22, 13:00:50
Noch was wichtiges an alle, die NTs ohne echte 8pin PCI-Stecker haben.

Diese 6pin -> 8pin "Adapter" funken nicht richtig. Wenn der Verbrauch zu hoch geht, dann kann es schon sein, daß das NT ganz einfach abschaltet :mad:

Man muß dann mit 2x6pin -> 1x8pin Adaptern arbeiten, oder zb aus 2x Molex -> 1x6 pin basteln.

Ich habe mich hier mit meinem ALTEN 1000er Enermax NT ordentlich spielen müssen, bis es gefunkt hat, und zwar auch bei extremer Belastung.

Je älter das NT ist, desto eher kanns Probleme geben, weil sich damals keiner sowas wie einen 8pin Stecker vorstellen konnte (offenbar). Und das ist ziemlich UNABHÄNGIG von der Gesamtwattzahl des NTs- mein 1000er wurde auch nicht verschont.

Also nicht gleich verzweifeln und neues NT kaufen gehen, sondern Hirn einschalten und mit den Adaptern arbeiten, aber den richtigen .

tombman
2008-06-22, 13:09:05
Nochwas Interessantes: die SLI Lastanzeige verursacht einen leichten Abfall in der 3D Leistung der GTX280er. Das gabs früher nicht bei Nvidia, also Anzeige ausschalten, wenn man sie nicht unbedingt braucht.

Slipknot79
2008-06-22, 13:25:37
>Noch was wichtiges an alle, die NTs ohne echte 8pin PCI-Stecker haben.

Ich weiß ned ob ich einen "echten" 8-pin-Stecker habe. Eigentlich ist es ein 6-pin-Stecker wo man 2 Pins noch dazu stecken kann. Ich geh mal davon aus, dass es ein ECHTER 8-Pin-Stecker ist weil alle 8 Kabeln aus dem NT kommen.

>Kann dir auch sagen warum, die habe ich bei extremer Last auch. Sobald die temp > 85°C geht wirds kritisch.

Ich komme sogar auf 105°C :redface:



So neuer Rekord im Netzteil-Test (Furmark + Prime95): 838W Oo. Mir ist aufgefallen, dass Furmark mal ca 800W dann wieder ca 700-720W verbraucht. Wenn er auf weniger W rennt, dann droppen die fps ebenfalls. Laut Rivatuner wird aber an den Taktraten nix verändert.

Naja jedenfalls, 250W Idle und fast 840W Last -> Fast 600W für Prime+Furmark, das ist :hammer:

Gast
2008-06-22, 14:21:13
fast wie ein staubsauger. SICK!

mr orange
2008-06-22, 14:25:01
fast wie ein staubsauger. SICK!

die lautstärke oder der stromverbrauch? :biggrin:

Slipknot79
2008-06-22, 14:27:30
fast wie ein staubsauger. SICK!


Mein Staubsauger saugt 550W, meine Klimaanlage 800W :redface:

Moralelastix
2008-06-22, 15:09:05
Hätteste deine Grakas im Bundel mit ner neuen Klimaanlage kaufen sollen.:biggrin:


Kanns sein das AoC mal ein saumässiges Verhältniss hat was gebotene Optik zum Verbrauch der GPU Leistung angeht? Die Screens hier vor zwei Seiten, und das noch nicht mal mit maximal Settings!, 1280/1024 nur 40 FPS, gehts noch?
Unglaublich, bei Crysis bekommt man ja wenigstens auch was für die verbrauchte Leistung.

tomsen
2008-06-22, 15:15:24
Hätteste deine Grakas im Bundel mit ner neuen Klimaanlage kaufen sollen.:biggrin:


Kanns sein das AoC mal ne saumässiges Verhältniss hat was gebotene Optik zum Verbrauch der GPU Leistung angeht? Die Screens hier vor ein paar seiten mit 1280/1024 ????!!!!
Unglaublich, bei Crysis bekommt man ja wenigstens auch was für die verbrauchte Leistung.

Nanana, wer wird denn. Mir gefällt Age of Conan grafisch sehr gut. Es hat sehr viele Details, Weitsicht etc. Schwer auf Screenshots festzuhalten wie geil die Grafik ist. Die Texturen sind äußerst geil.
Crysis auf Very High gefällt mir fast schon garnicht mehr da die Bäume immer noch bescheurt kantig aussehen.

Schau dir das TECH DEMO von AoC an und schweig einfach! http://www.vitivi.tv/index.php?layout=show_video&var=14752;flv;0;0;399;4;0&game=Age-of-Conan%3A-Hyborian-Adventures

Moralelastix
2008-06-22, 15:20:26
Dann dreh mal bitte alles auf max und mach noch mal Screenshots mit FPS Anzeige.

Hoffentlich muss ich mich dann nicht auf meinen Monitor übergeben! *Plastiktüte such*

OC_Burner
2008-06-22, 15:46:16
Habe hier auch noch ein paar Stromverbrauchsdaten zwar schon im HWLuxx gepostet aber doppelt hält besser. Stromverbrauch vom Gesamtsystem ohne Monitor.

System:

QX9650 mit OC und ohne getestet
Gigabyte P35-DS4 Rev1.1
8GB G.E.I.L BlackDragon 427MHz (5-4-4-12)
BeQuiet Straight Power 700W

Getestet mit FurMark, windowed 1280x1024, NOxAA, Stability Test, 660 sec.
4xPrime95 (FFT 448, FFTs in-place, 15min)

608W = Zotac GTX280 AMP Edition @ 715/1430/1300 /-/ QX9650 @ 4.1GHz @ 1.344V
570W = Original GTX280 Simuliert @ 602/1204/1107 /-/ QX9650 @ 4.1GHz @ 1.344V
506W = 8800GTX PalitXpert @ default /-/ QX9650 @ 4.1GHz @ 1.344V
+
480W = Zotac GTX280 AMP Edition @ default 700/1400/1150 /-/ QX9650 @ default 3.0GHz @ 1.2V
+
410W = Zotac GTX280 AMP Edition @ undervolting 1.03V (NiBitor) 680/1404/1225 /-/ Qx9650 @ default 3.0GHz @ 1.2V


http://www.oc-burner.de/ftp/Pictures/HardwareluxxForum/Energieverbrauch/1%20Systemstromverbrauch%20GTX280%20AMP%20OC_thumb%20.jpg (http://www.oc-burner.de/ftp/Pictures/HardwareluxxForum/Energieverbrauch/1%20Systemstromverbrauch%20GTX280%20AMP%20OC%20.jpg) http://www.oc-burner.de/ftp/Pictures/HardwareluxxForum/Energieverbrauch/2%20Systemstromverbrauch%20GTX280%20default_thumb.jpg (http://www.oc-burner.de/ftp/Pictures/HardwareluxxForum/Energieverbrauch/2%20Systemstromverbrauch%20GTX280%20default.jpg) http://www.oc-burner.de/ftp/Pictures/HardwareluxxForum/Energieverbrauch/3%20Systemstromverbrauch%208800GTX%20default_thumb.jpg (http://www.oc-burner.de/ftp/Pictures/HardwareluxxForum/Energieverbrauch/3%20Systemstromverbrauch%208800GTX%20default.jpg) http://www.oc-burner.de/ftp/Pictures/HardwareluxxForum/Energieverbrauch/4%20Systemstromverbrauch%20GTX280%20AMP%20default_CPU%20default_thumb.jpg (http://www.oc-burner.de/ftp/Pictures/HardwareluxxForum/Energieverbrauch/4%20Systemstromverbrauch%20GTX280%20AMP%20default_CPU%20default.jpg) http://www.oc-burner.de/ftp/Pictures/HardwareluxxForum/Energieverbrauch/5%20Systemstromverbrauch%20GTX280%20AMP%20undervolting%201.03V_CPU%20default_thu mb.jpg (http://www.oc-burner.de/ftp/Pictures/HardwareluxxForum/Energieverbrauch/5%20Systemstromverbrauch%20GTX280%20AMP%20undervolting%201.03V_CPU%20default.jpg )

Gast
2008-06-22, 16:25:13
@OC_Burner

Teste mal mit FurMark @1600x1200 (oder höher wenn geht) 4xAA 16AF + 1 Kern nur für FurMark + 3 Kerne für Intel TAT (Kerne im Taskmanager jeweils zuweisen). Das sollte nochmal einige Watt mehr ziehen!

Spasstiger
2008-06-22, 16:28:55
Hat eigentlich noch jemand hier eine HD2900 XT für Vergleiche beim Stromverbrauch? Nach den Computerbase-Messungen könnten die HD2900 XT und die GTX 280 wohl gleichauf liegen unter Last.

OC_Burner
2008-06-22, 16:56:06
@OC_Burner

Teste mal mit FurMark @1600x1200 (oder höher wenn geht) 4xAA 16AF + 1 Kern nur für FurMark + 3 Kerne für Intel TAT (Kerne im Taskmanager jeweils zuweisen). Das sollte nochmal einige Watt mehr ziehen!

Intel TAT unterstüzt nicht mit meinen Yorkfield Prozessor. FurMark hat bloß eine Prozessorauslastung von 0-2%, also wäre es Quatsch bloß 3 Kerne einen CPU-Lastigen Test zuzuweisen. Aber du hast recht, bei 1600x1200 (4xAA + 16xAF) im Fullscreen zieht der Rechner dann 625W aus der Dose.:mad:

Dicker Igel
2008-06-22, 17:23:11
Naja, von der Lautstärke her ist die 280 im Idle schon fast so laut, wie die 8800 unter Last. Die 280 unter Last klingt bei den Samples echt wie ein Fön.

Unter Last kann's bald nicht schlimmer sein als ne 1950XTX/2900XT, vieleicht gibts von der 280GTX irgendwann einen Refresh.

HarryHirsch
2008-06-22, 17:48:53
Unter Last kann's bald nicht schlimmer sein als ne 1950XTX/2900XT, vieleicht gibts von der 280GTX irgendwann einen Refresh.

Du meinst wohl eher die 1900XT

tombman
2008-06-22, 18:26:09
4x4 FTW! :D

http://img242.imageshack.us/img242/4/hl22008062217132957bq0.jpg
http://img440.imageshack.us/img440/3563/hl22008062217125132pp5.jpg

dargo
2008-06-22, 18:39:56
4x4 FTW! :D

http://img242.imageshack.us/img242/4/hl22008062217132957bq0.jpg
http://img440.imageshack.us/img440/3563/hl22008062217125132pp5.jpg
Die beiden langweilen sich selbst mit 4x4SSAA. *ggg
Leider hast du die Bilder aber kaputtkomprimiert. ;(

Superheld
2008-06-22, 18:42:13
jetzt CRysis mit SSAA:smile:

Moralelastix
2008-06-22, 18:45:27
Jo geh fort!

HL2 läut doch mittlerweile schon auf'm Gameboy(PSP).
Mach besser mal die kompakte 30GB Mod von Fake drauf.:biggrin:

dargo
2008-06-22, 18:50:46
Jo geh fort!

HL2 läut doch mittlerweile schon auf'm Gameboy(PSP).

Du weißt aber schon was 4x4SSAA bedeutet oder? Das sind mal eben 7680x4800 auf 24" verteilt. :cool:

Blaire
2008-06-22, 18:52:55
jetzt CRysis mit SSAA:smile:

Ich wette das kann mit Tweaks (High-VeryHigh) ordentlich mit 8xS zocken sofern mal zwei GTX280 besitzt. Ging schon teilweise mit zwei 8800Ultras ganz gut (natürlich im Bereich 25-35fps, mehr war da auch nicht drin aber doch das war ganz ok spielbar vor allem mit dem SLI Limiter lief es butterweich...) :)

Hier mal zwei Screens 1024x768 16xS mit 2x8800 Ultras und UltraHigh Quality Mod
http://img3.imagebanana.com/img/k8rg1g9a/thumb/1024crysis.PNG (http://img3.imagebanana.com/view/k8rg1g9a/1024crysis.PNG)
http://img3.imagebanana.com/img/s1qqx1qd/thumb/1024crysis2.PNG.png (http://img3.imagebanana.com/view/s1qqx1qd/1024crysis2.PNG.png)

Zwei GTX280 dürften da auf ca. 50-55 fps kommen ;)

Spasstiger
2008-06-22, 18:54:34
4x4 FTW! :D

http://img242.imageshack.us/img242/4/hl22008062217132957bq0.jpg
http://img440.imageshack.us/img440/3563/hl22008062217125132pp5.jpg
Jetzt das Ganze bitte noch mit Episode 2 und aktivierter Taschenlampe. Ich tippe auf 10-15 fps. ;)

Snoopy69
2008-06-22, 19:33:20
Du willst nicht wissen was ich hier im ganzen Haushalt verbrauche...
Wenn ich so weitermache komme ich dieses Jahr noch auf 6000 KWh...
Ich werde auch was dagegen tun....(btw, wir haben hier aber nur 15cent /KWh...)
Du Spinner!!! :eek:
Sag mal, was hast du alles laufen?

Vergiss den Bench nicht :wink:

@ Slipknot79

Bei 100% Auslastung müsste mein NT ca. 875W saugen (bei 80% Effizienz)
Stell doch mal den offenen PC- direkt vor den Luftauslass der Klima :wink:
Normal sollte da 10-15°C kalte Luft rauskommen (bei Abluft-Klima)

Snoopy69
2008-06-22, 19:56:04
Du weißt aber schon was 4x4SSAA bedeutet oder? Das sind mal eben 7680x4800 auf 24" verteilt. :cool:
*löl*

So strahlen die Japaner bald TV aus

san.salvador
2008-06-22, 19:57:39
Ohne Cinematic Mod nur tangentiell spannend. ;)

Spasstiger
2008-06-22, 20:00:13
Die HL2-Szene zum Vergleich auf einer 8800 GT 1024 MiB:
http://www.abload.de/thumb/hl22008062219552000guo.jpg (http://www.abload.de/image.php?img=hl22008062219552000guo.jpg)
30 fps

Damit ist die GTX 280 mehr als doppelt so schnell wie die 8800 GT. Und die 8800 GT 512 MiB würde hier vielleicht sogar stark einbrechen.

Snoopy69
2008-06-22, 20:07:50
btw:

An alle GTX280-User - speziell die mit SLI
Bei euch muss es ja heute ziemlich warm sein in der Bude, wenn ständig 600-800W Wärme aus den PC rausgepustet werden, oder? :ugly:

Slipknot79
2008-06-22, 20:13:11
btw:

An alle GTX280-User - speziell die mit SLI
Bei euch muss es ja heute ziemlich warm sein in der Bude, wenn ständig 600-800W Wärme aus den PC rausgepustet werden, oder? :ugly:


Naja, es rennt ja noch die Klima :redface: und ich habe heute noch nicht viel gespielt, nur etwas getestet. In Spielen sind es aber ca 500-600W, 800W sind eher Laborbedingungen und bald fangt das Match an, da ist auch nix mit 500W :p



@ Slipknot79

Bei 100% Auslastung müsste mein NT ca. 875W saugen (bei 80% Effizienz)
Stell doch mal den offenen PC- direkt vor den Luftauslass der Klima :wink:
Normal sollte da 10-15°C kalte Luft rauskommen (bei Abluft-Klima)

Habe ich mir auch schon gedacht, also PC vor die Klima, aber das ist bei mir recht kompliziert. Zu kurze Kabeln und zu großer Aufwand und viel würde das auch nicht bringen, denn die Karten haben eh genug Reserven drin, die müssen auch in Ägypten zu gebrauchen sein :tongue:

Dicker Igel
2008-06-22, 20:15:43
Du meinst wohl eher die 1900XT

Nee, ne Sapphire XTX, deren Lüfter war unter Last schon nervend.

Snoopy69
2008-06-22, 20:20:25
@ Slipknot79

Ich meinte ja nur zum Benchen. Da kann die Klima auch für ne halbe Stunde in der Raum blasen (ist doch Abluft, oder?). Also nur die Klima da hin rollen.

Viel Spass bei der Nachzahlung nächstes Jahr, du wirst leider nicht verschont bleiben. ;D

Moralelastix
2008-06-22, 22:32:47
Wenns so weiter geht bei NV mit dem Energieverbrauch werden sie bald von Exxon aufgekauft.:biggrin:

LovesuckZ
2008-06-22, 22:43:21
Wenns so weiter geht bei NV mit dem Energieverbrauch werden sie bald von Exxon aufgekauft.:biggrin:

Naja, es macht ja kein Unterschied ob man eine 230 Watt oder 2x115 Watt im Rechner hat. Wer viel Leistung haben will, muss wohl mit über 200 Watt rechnen.

Snoopy69
2008-06-22, 22:46:55
Naja, es macht ja kein Unterschied ob man eine 230 Watt oder 2x115 Watt im Rechner hat. Wer viel Leistung haben will, muss wohl mit über 200 Watt rechnen.
Welcher High-End-PC hat denn heute noch 200W?
Ein Sys. mit GTX280 frisst mit OC um die 600W!
Mit SLI um die 800W!!!

Chris2CB
2008-06-22, 23:14:08
Welcher High-End-PC hat denn heute noch 200W?
Ein Sys. mit GTX280 frisst mit OC um die 600W!
Mit SLI um die 800W!!!




LS meinte die Karte alleine, 2x115 wären SLI/CF oder 230 ne GTX280.

Euer OC frisst nur unnötig Leistung. Ja, bringt etwas Speed aber verdoppelt den Verbrauch, nen Quad mit 3gHz kann man auch undervolten und schnell genug ist der allemal für die derzeitigen Spiele.

Undertaker
2008-06-22, 23:29:30
Die HL2-Szene zum Vergleich auf einer 8800 GT 1024 MiB:
http://www.abload.de/thumb/hl22008062219552000guo.jpg (http://www.abload.de/image.php?img=hl22008062219552000guo.jpg)
30 fps

Damit ist die GTX 280 mehr als doppelt so schnell wie die 8800 GT. Und die 8800 GT 512 MiB würde hier vielleicht sogar stark einbrechen.

Du hast aber komplett anders geschaut als der Gast mit der 280GTX... Ich komme auf ~39fps (700/1000MHz)

http://www.abload.de/thumb/unbenannt2i0.png (http://www.abload.de/image.php?img=unbenannt2i0.png)

Aber 2x so schnell ist ja auch ganz OK, auch wenn das P/L der 8800er dabei natürlich weitaus besser ist.

Slipknot79
2008-06-23, 00:02:22
Welcher High-End-PC hat denn heute noch 200W?
Ein Sys. mit GTX280 frisst mit OC um die 600W!
Mit SLI um die 800W!!!


SLI braucht nur in Ausnahmesituationen 800W, zB Furmark+Prime. Üblich sind 500-600W, manchmal auch 400-500W.

Wenn man Vsynch aufdreht, hält sich der Verbrauch auch in Grenzen. Statt 550W sind es ca. 400W in der UT 3 Demo. Wird also nix mit Nachzahlung. :redface:

Snoopy69
2008-06-23, 00:07:35
Klingt gut, denn theor. müsste mein NT SLI + OC packen. War doch mit OC, oder?
Und seit wann gibt es diesen "FellMark"?

Mit VSync ist klar. Da sind ja die FPS limitiert.

Slipknot79
2008-06-23, 00:21:39
Hast du eine 12V-Rail auf deinem Seasonic? Wenn nein, dann sag wieviel A du auf deinen 12V-Schienen hast. Kann eventuell nen Test machen (Kann bei meinem NT zw mehreren 12V Rails oder einer 12V Rail umschalten)

Ja, die Werte sind mit oc. 670/1400/1200 scheinen bei mir stabil zu sein, will aber noch nix verschreien. Bin noch am Testen/Gamen.

FurMarks Build ist vom 3 März 2008.
Bisher habe ich 2 Arten von Fehler entdeckt:
Rechteck/Schachbrettmuster -> Shadertakt zu hoch.
Bildfehler, wo Dreiecke mit einer Ecke in einem Punkt flimmern -> Zu hoher CPU-Takt.
Was bei zu hohem RAM-Takt passiert, habe ich noch ned gecheckt.

derwalde
2008-06-23, 08:40:12
mal ne ganz andere frage: muss ich bedenken haben dass mein board nur pci-e 1.1 kann, und ich deshalb geschwindigkeitseinbußen bei der gtx280 (die ist doch offiziell pci-e 2.0?) zu bedauern haben muss?

Snoopy69
2008-06-23, 08:52:18
Hast du eine 12V-Rail auf deinem Seasonic? Wenn nein, dann sag wieviel A du auf deinen 12V-Schienen hast. Kann eventuell nen Test machen (Kann bei meinem NT zw mehreren 12V Rails oder einer 12V Rail umschalten)

Ja, die Werte sind mit oc. 670/1400/1200 scheinen bei mir stabil zu sein, will aber noch nix verschreien. Bin noch am Testen/Gamen.

FurMarks Build ist vom 3 März 2008.
Bisher habe ich 2 Arten von Fehler entdeckt:
Rechteck/Schachbrettmuster -> Shadertakt zu hoch.
Bildfehler, wo Dreiecke mit einer Ecke in einem Punkt flimmern -> Zu hoher CPU-Takt.
Was bei zu hohem RAM-Takt passiert, habe ich noch ned gecheckt.
4x 18A bzw. 1x 56A combined

Worüber ich mir mom. Gedanken mache, dass ich schon von der 3. Karte gelesen hab, die ausgefallen sein soll bzw. rumzickt.

Gast
2008-06-23, 09:06:48
mal ne ganz andere frage: muss ich bedenken haben dass mein board nur pci-e 1.1 kann, und ich deshalb geschwindigkeitseinbußen bei der gtx280 (die ist doch offiziell pci-e 2.0?) zu bedauern haben muss?

Nein musst du nicht. Bei einer VGA reicht PCI-E 1.1 noch völlig aus.

Slipknot79
2008-06-23, 11:54:51
4x 18A bzw. 1x 56A combined

Worüber ich mir mom. Gedanken mache, dass ich schon von der 3. Karte gelesen hab, die ausgefallen sein soll bzw. rumzickt.


Naja, sind eben Garantiefälle wenn das Problem wirklich nicht der User war.

Gast
2008-06-23, 14:06:18
Welcher High-End-PC hat denn heute noch 200W?
Ein Sys. mit GTX280 frisst mit OC um die 600W!
Mit SLI um die 800W!!!


Also hier steht ein System, das zieht inkl. C2Q@3.2 Ghz und einer HD3870 ca. 250 Watt unter Last aus der Wand. Mit einer HD4850 wird das sicher nicht groß anders aussehen. Und ich denke nicht dass dieses System mit einer 4850 soooo viel langsamer ist als deines.

derwalde
2008-06-23, 14:38:45
Nein musst du nicht. Bei einer VGA reicht PCI-E 1.1 noch völlig aus.


also würde es erst ab 2 karten problematisch werden?

kruemelmonster
2008-06-23, 14:58:31
Nicht direkt problematisch, aber zwei Karten können aus der doppelten Bandbreite mehr Nutzen ziehen als nur eine. PCGH hat das mal erbencht (was n grauenhaftes Wort), bin aber grad auf Arbeit ergo kein Heft in Reichweite. Der Unterschied war auch von Spiel zu Spiel unterschiedlich, am stärksten hat iirc CoD4 auf PCIe 2.0 reagiert mit ~5 - 10% mehr fps.

Snoopy69
2008-06-23, 15:04:16
Hast du eine 12V-Rail auf deinem Seasonic? Wenn nein, dann sag wieviel A du auf deinen 12V-Schienen hast. Kann eventuell nen Test machen (Kann bei meinem NT zw mehreren 12V Rails oder einer 12V Rail umschalten)

Hast du es schon nachgetestet?

derwalde
2008-06-23, 15:23:31
Nicht direkt problematisch, aber zwei Karten können aus der doppelten Bandbreite mehr Nutzen ziehen als nur eine. PCGH hat das mal erbencht (was n grauenhaftes Wort), bin aber grad auf Arbeit ergo kein Heft in Reichweite. Der Unterschied war auch von Spiel zu Spiel unterschiedlich, am stärksten hat iirc CoD4 auf PCIe 2.0 reagiert mit ~5 - 10% mehr fps.

demnach kann ich bei einer gpu, wenn überhaupt, von performanceverlust bis 5% ausgehen? die 5% wären, sofern sie den auftreten, doch zu verkraften bevor ich mir nen neues board holen muss.

Slipknot79
2008-06-23, 16:14:52
Hast du es schon nachgetestet?


Nein, habe auf deine Anfrage gewartet :redface: Ich teste das in der Nacht durch, muss jetzt weg :(

OC_Burner
2008-06-23, 18:20:42
:naughty:Ich hüpf im Kreis:naughty:

Undervolting klappt selbst im 3D-Modus. Mit 1.03V (Nibitor) läuft
die Karte immer noch bei 680MHz stabil. Grafikfehler kommen erst
bei 690Mhz und das erst wenn die Karte sich warmgelaufen hat.
Bei Standardspannung kommen Grafikfehler ab 735MHz. Das sind gerade
einmal 45MHz Takteinbuße mit Undervolting.

Und das beste kommt noch...

Sie bleibt schön leise und Kühl.;D Ganze 65W weniger Verbrauch.
Der Lüfter dreht bei max. 62% und die Karte wird höchstens 83°C warm.
Normalerweise dreht der Lüfter rucki zucki auf 100% und die Karte wird bis zu 96°C warm.

san.salvador
2008-06-23, 18:23:00
65W weniger! :eek:

Wie hoch ist denn die Standardspannung?

OC_Burner
2008-06-23, 18:26:07
Laut NiBitor 1.18V. Ein User hat nachgemessen und es sind 1.25V heraus gekommen.

Snoopy69
2008-06-23, 18:38:56
Nachmessen ist ja auch nicht schwer.

=Floi=
2008-06-23, 22:08:33
wirklich eingeschlagen hat die karte aber nicht gerade. Bis jetzt ist es auch relativ ruhig um SLi.

Grestorn
2008-06-23, 22:15:15
Meine bestellte Karte ist immer noch nicht lieferbar. Grmpf.

Snoopy69
2008-06-23, 22:15:27
wirklich eingeschlagen hat die karte aber nicht gerade. Bis jetzt ist es auch relativ ruhig um SLi.
Wie meinst du das?
So viele haben ja kein SLI.

Zum Glück hab ich je Zeit und Geduld. Ich schiele schon die ganze Zeit zu den "Roten". Die HD4870 wird schon für 239€ angeboten. Als CF käme man mit 480€ davon und das mit ca 1,5-facher GTX280-Leistung.

Bin gespannt, ob die Benches wirklich so ausfallen.

Moralelastix
2008-06-23, 22:36:44
Genau, es is scheinbar mal höchste Eisenbahn dass NV wieder einmal einen ordentlichen Tritt in den Arsch von ATI bekommt. Damit sie in die Gänge kommen.

LovesuckZ
2008-06-23, 22:47:05
Wie meinst du das?
So viele haben ja kein SLI.

Zum Glück hab ich je Zeit und Geduld. Ich schiele schon die ganze Zeit zu den "Roten". Die HD4870 wird schon für 239€ angeboten. Als CF käme man mit 480€ davon und das mit ca 1,5-facher GTX280-Leistung.

Bin gespannt, ob die Benches wirklich so ausfallen.

Naja, dafür zwei Karten, kein SuperSampling, kein TSAA, höhrer Verbrauch unter Last (AMD gibt 160 Watt an, nVidia 238), zwei riesige Kühler, Profilabhängigkeit, keine richtige Texturfilterung...

Snoopy69
2008-06-23, 23:02:37
Naja, dafür zwei Karten, kein SuperSampling, kein TSAA, höhrer Verbrauch unter Last (AMD gibt 160 Watt an, nVidia 238), zwei riesige Kühler, Profilabhängigkeit, keine richtige Texturfilterung...

Gibts den eine übersichtlich, glaubhafte Liste, die alle Vor- und Nachteile von ATI und NV darstellt?

Gast
2008-06-23, 23:07:19
Naja, dafür zwei Karten, kein SuperSampling, kein TSAA, höhrer Verbrauch unter Last (AMD gibt 160 Watt an, nVidia 238), zwei riesige Kühler, Profilabhängigkeit, keine richtige Texturfilterung...


wenn ich sowas lese wird mir echt anders... hast du überhaupt nur einen hauch ahnung von dem was du so schreibst?

LovesuckZ
2008-06-23, 23:14:05
wenn ich sowas lese wird mir echt anders... hast du überhaupt nur einen hauch ahnung von dem was du so schreibst?

Hm, was stimmt den an der Liste nicht? :|
Zwei 4850 Karten sind wesentlich interessanter als die zwei 4870.

Gibts den eine übersichtlich, glaubhafte Liste, die alle Vor- und Nachteile von ATI und NV darstellt?

Eine Vielzahl an Möglichkeiten beider Hersteller sollte bekannt sein. Ob per Crossfire wieder RGSSAA möglich sein wird, muss abgewartet werden.

Gast
2008-06-23, 23:21:04
Hm, was stimmt den an der Liste nicht? :|
Zwei 4850 Karten sind wesentlich interessanter als die zwei 4870.

ich glaub ja du nimmst drogen oder so...
kannst du dich noch an das erinnern? http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6610343&postcount=366

LovesuckZ
2008-06-23, 23:24:54
Lieber Gast,
Snoopy wollte zwei - in Zahlen 2 - 4870 als Alternative in Erwähnung ziehen. Diese sind jedoch aufgrund der Nachteile nicht interessanter als die GTX280, wenn man preislich das selbe bezahlen müsste.
Zwei 4850 Karten kosten dagegen um die 160€ weniger. Wenn schon, dann diese.

Moralelastix
2008-06-24, 00:11:10
Aber DDR5 is doch wahrscheinlich erst der Witz an der ATI Karte damit man sie voll ausnutzen kann?

Spasstiger
2008-06-24, 00:45:30
Aber DDR5 is doch wahrscheinlich erst der Witz an der ATI Karte damit man sie voll ausnutzen kann?
Die nur 16 ROPs könnten der Flaschenhals werden. Außerdem lassen sich die Shadereinheiten beim RV770 nicht so gut auslasten wie beim GT200, deshalb wird das Teraflop-Marketing auch mit der HD4870 das bleiben, was es ist: Marketing.
Ich halte die vorab vermuteten 20-30% Vorteil der HD4870 gegenüber der HD4850 auf jeden Fall für realistisch. Das reicht, um die 9800 GX2 bei hohen Qualisettings in Bedrängnis zu bringen, aber Käufer einer GTX 280 müssen nicht bangen, dass sie eine Menge Geld ausgegeben haben, um doch nicht das Single-GPU-Spitzenprodukt am Markt zu besitzen.

Slipknot79
2008-06-24, 04:07:30
@Snoopy69: 848W, Furmark+Prime95 liefen nun auch stabil mit 6x12V zu je 20A. Ich stell trotzdem auf Single Rail um, kann damit besser schlafen ^^

Snoopy69
2008-06-24, 04:09:33
Was für ein NT ist das?

Schlammsau
2008-06-24, 08:43:15
@Snoopy69: 848W, Furmark+Prime95 liefen nun auch stabil mit 6x12V zu je 20A. Ich stell trotzdem auf Single Rail um, kann damit besser schlafen ^^

fast 1KW :eek:.......na Malzeit!
Das nenn ich mal nen negativ Rekord!

dreamweaver
2008-06-24, 09:47:23
fast 1KW :eek:.......na Malzeit!
Das nenn ich mal nen negativ Rekord!


AAAch... selbst mein kleiner Fön hat 2000W. Wenn man da mal vergleicht, was so ein großer Computa leistet und der Fön nur 'n bischen warme Luft in die Haare bläst...

Da woll'n wa ma nich mäckaan

:wink:

Taigatrommel
2008-06-24, 10:04:27
fast 1KW :eek:.......na Malzeit!
Das nenn ich mal nen negativ Rekord!

Offengesagt verstehe ich nicht, wieso du dich hier so über die Verbrauchswerte von High-End Rechnern aufregst. Bereits Triple-SLI mit 3x 8800 Ultra oder auch 3x 8800 GTX kamen auf hohe Leistungsaufnahmen. Das ist mit stark übertakteten Quad-Core CPUs wohl kaum anders, wenngleich im kleineren Rahmen.

Ich meine ein Porsche oder Ferrari Käufer regt sich wohl auch kaum über den höheren Spritverbraucht von seinen Karren auf. Leute die High-End haben wollen, werden sowas im Vorfeld einkalkulieren und akzeptieren.

Skinny12
2008-06-24, 12:02:25
Tach again,

ich freudiger Erwartung meines Wasserkühlers ist heute die MSI-280GTX mit 650 Mhz angekommen, bestellt bei Litec für 499,- , Tipp aus diesem Forum, danke dafür!

Ich bin ja der Threadstarter und einer der Fassunglosen was den Lärm angeht...und nun ist es klar: es gibt wohl mindestens ZWEI Chargen in der Erstauslieferung...oder haben die Hersteller nachgeholfen?

Die XFX von vor 8 Tagen war ja unerträglich laut und heiss dazu, einige konnten es nachvollziehen, einige verstanden nicht, wovon ich spreche...bei den Tests war es ähnlich...machen erlebten es als okay, andere als unerträglich....

Nun, lange Rede kurzer Sinn: Die MSI ist LEISE!! KEIN VERGLEICH!!

Also ja, der Lüfter dreht bei 73°C ein wenig auf aber Lärm ist etwas anderes. Hatte ich also mit der XFX einen Staubsauger an Board, habe ich nun eine wirklich Lärm-erträgliche Graka mit Power ohne ende...was ist da los??

RT zeigt mir bei Vollgas 100 MHz statt die 650 MHz an...kennt jemand den Fehler? Und ja, sie läuft mit 650 Mhz, die Nvidia Demo läuft flüssig mit 50-80 Frames...

LG
ein noch verwirrter Skinny

Traxx
2008-06-24, 12:43:25
Nun, lange Rede kurzer Sinn: Die MSI ist LEISE!! KEIN VERGLEICH!!


Na, das klingt doch schon mal gut. Nun müsste die GTX280 nur noch im Mixed-SLI mit meiner 8800GTX laufen, dann wär sie gekauft ;D

Greetings
Traxx

san.salvador
2008-06-24, 13:24:01
Wieso holst dir dafür nicht eine 8800 GTX?

tombman
2008-06-24, 13:43:03
Habe nun auch mal Phys-x ausprobiert @ GPU.

Rennt echt geil, besser als mit der PPU :D

Nightspider
2008-06-24, 13:43:46
Habe nun auch mal Phys-x ausprobiert @ GPU.

Rennt echt geil, besser als mit der PPU :D

Wie läuft Cellfactor ?

tombman
2008-06-24, 14:12:13
Wie läuft Cellfactor ?
Habe nur Cellfactor Revolution probiert, aber das rannte gut (wobei ich aber nicht weiß, ob die gpu phys-x rechnete..)

Schlammsau
2008-06-24, 14:14:30
Offengesagt verstehe ich nicht, wieso du dich hier so über die Verbrauchswerte von High-End Rechnern aufregst. Bereits Triple-SLI mit 3x 8800 Ultra oder auch 3x 8800 GTX kamen auf hohe Leistungsaufnahmen. Das ist mit stark übertakteten Quad-Core CPUs wohl kaum anders, wenngleich im kleineren Rahmen.

Ich meine ein Porsche oder Ferrari Käufer regt sich wohl auch kaum über den höheren Spritverbraucht von seinen Karren auf. Leute die High-End haben wollen, werden sowas im Vorfeld einkalkulieren und akzeptieren.

Ich rege mich aber über fast 1000 Watt Verbrauch auf! :mad:
Das kann doch nicht der richtige Weg sein....von beiden IHV´s nicht!
Unglaublich.....

SentinelBorg
2008-06-24, 18:25:11
Ich rege mich aber über fast 1000 Watt Verbrauch auf! :mad:
Das kann doch nicht der richtige Weg sein....von beiden IHV´s nicht!
Unglaublich.....
Die Leistung pro Watt hat sich doch verbessert gegenüber dem G92. Zudem ein jetzt wirklich guter Idle-Modus. Imho ein Fortschritt. Es muss ja keiner SLI und absolute HighEnd-Karten einsetzen. Im Herbst kommt dann die neue obere Mittelklasse mit 55nm. Da bekommst sicher noch mehr Leistung pro Watt/Euro.

Gast
2008-06-24, 18:25:40
es steht jedem frei es nicht zu kaufen.

und wer doch, muss hald mit mehr stromkosten rechnen.

mich stört am 3way sli weniger der vebrauch, sondern die extreme hitze
und das die cpu zu lahm ist.. qx9650@4ghz...mehr get nicht bei mir am EVGA780i
hab deshal die 3te gtx280 wieder verkauft

mfg
PR1

Blaire
2008-06-24, 19:23:01
Brachte es nichts? Bei Auflösungen wie 2560x1600 oder mit reichlich Supersampling AA sollte doch keine CPU mehr der limitierende Faktor sein? :confused:

Schlammsau
2008-06-24, 19:44:33
Die Leistung pro Watt hat sich doch verbessert gegenüber dem G92. Zudem ein jetzt wirklich guter Idle-Modus. Imho ein Fortschritt. Es muss ja keiner SLI und absolute HighEnd-Karten einsetzen. Im Herbst kommt dann die neue obere Mittelklasse mit 55nm. Da bekommst sicher noch mehr Leistung pro Watt/Euro.
es steht jedem frei es nicht zu kaufen.

und wer doch, muss hald mit mehr stromkosten rechnen.

mich stört am 3way sli weniger der vebrauch, sondern die extreme hitze
und das die cpu zu lahm ist.. qx9650@4ghz...mehr get nicht bei mir am EVGA780i
hab deshal die 3te gtx280 wieder verkauft

mfg
PR1

wisst ihr eigentlich was 1000 Watt sind?
Mein Staubsauger zieht 1800 Watt in der höchsten Stufe......schonmal jeden Tag ein paar Stunden gestaubsaugt und dann auf die Stromrechnung geschaut? 1000 Watt......*kopschüttel*

mal ausgerechnet.....900W x 5std/tag x 300Tage/Jahr x 0,19€/kwh = ~250€/Jahr
Idle Verbrauch von 250-300Watt ist in dieser Rechnung nicht mit drinne und der Strom wird nicht mehr billiger! *Autsch*

Slipknot79
2008-06-24, 19:46:25
Was für ein NT ist das?

Tagan Piperock 800W, eins der billigsten ^^


In Cellfactor kann ich Physx ned aktivieren :( Wenn ich auf das Häckchen klick, passiert nix :(

Gast
2008-06-24, 19:48:36
Doch, da ich den Dell 3007-HC vor einigen Monaten mangels schneller Grakas verkauft habe weil 3WAY SLI mit 3x 8800gtx schlecht funktionierte, ists jetzt mit 1920x1200 am Dell 2408 nicht mehr so wichtig.

Probieren wollt ichs trotzdem und crysis lief mit 1920x1200 Veryhigh 16af 8x AA gleich schnell wie mit 4xAA.
16AA dann nicht mehr flüssig.

nur Diese Hitze und die daraus resultierende Lautstärke ist zu nervig

Waku für die 3 GTX280 is mir zuviel gefummle.
mit Wakü sind die Karten zu teuer.

vom Enermax Galaxy 1000 red ich garnet.
es lief Problemlos durch sezielle Aufteilung der Adapter, nur laut wie ein Jet :D

das wäre aber das kleinste Prob gewesen ein neues zu kaufen.

bin auch eher Anwender als Freak der die Hintergünde von 3way sli checkt.
und vieleicht auch etwas verückt überhaupt sowas zu kaufen, da ich nicht wirklich brauche :D


mfg
PR1

Gast
2008-06-24, 19:51:59
wisst ihr eigentlich was 1000 Watt sind?
Mein Staubsauger zieht 1800 Watt in der höchsten Stufe......schonmal jeden Tag ein paar Stunden gestaubsaugt und dann auf die Stromrechnung geschaut? 1000 Watt......*kopschüttel*

tja, dann musst meine Kimaanlage mit ca 900watt noch dazurechnen um das zeug zu kühlen :D

10.000kW brauch ich im Jahr, jetzt vermtlich mehr. lol

mfg
PR1

Blaire
2008-06-24, 20:01:14
Doch, da ich den Dell 3007-HC vor einigen Monaten mangels schneller Grakas verkauft habe weil 3WAY SLI mit 3x 8800gtx schlecht funktionierte, ists jetzt mit 1920x1200 am Dell 2408 nicht mehr so wichtig.

Schade, 2560x1600 wäre da sicherlich spielbar gewesen wenn man den Ergebnissen auf guru3d.com Glauben schenken darf.

Probieren wollt ichs trotzdem und crysis lief mit 1920x1200 Veryhigh 16af 8x AA gleich schnell wie mit 4xAA.
16AA dann nicht mehr flüssig.

Was mich interessiert gab es Skalierungsprobleme? Oder war alles im erwarteten Rahmen?


nur Diese Hitze und die daraus resultierende Lautstärke ist zu nervig

Waku für die 3 GTX280 is mir zuviel gefummle.
mit Wakü sind die Karten zu teuer.

vom Enermax Galaxy 1000 red ich garnet.
es lief Problemlos durch sezielle Aufteilung der Adapter, nur laut wie ein Jet :D

das wäre aber das kleinste Prob gewesen ein neues zu kaufen.

bin auch eher Anwender als Freak der die Hintergünde von 3way sli checkt.
und vieleicht auch etwas verückt überhaupt sowas zu kaufen, da ich nicht wirklich brauche :D


Das mit der Hitze würde mich nicht stören , die Lautstärke schon. Laut wie ein Jet hört sich nicht so toll an. Ich hab ja auch schon einige Krawallbrüder gehabt aber den Vogel schossen die X1900XTX ab, das waren die mit Abstand lautesten Dinger. Wie meinst du das mit der speziellen Aufteilung der Adapter? Erzähl mal genauer bitte.

PR1
2008-06-24, 20:28:46
Schade, 2560x1600 wäre da sicherlich spielbar gewesen wenn man den Ergebnissen auf guru3d.com Glauben schenken darf.



Was mich interessiert gab es Skalierungsprobleme? Oder war alles im erwarteten Rahmen?




Das mit der Hitze würde mich nicht stören , die Lautstärke schon. Laut wie ein Jet hört sich nicht so toll an. Ich hab ja auch schon einige Krawallbrüder gehabt aber den Vogel schossen die X1900XTX ab, das waren die mit Abstand lautesten Dinger. Wie meinst du das mit der speziellen Aufteilung der Adapter? Erzähl mal genauer bitte.
Naja mir wars zumindes in Crysis dann doch zu langsam und in allen anderen games gehts ja ohne SLI auch alles recht ordentlich mit einer GTX280

hatte auch so komische nachlade Aussetzer, teils 1 sec auf 9fps runter( HDD war Samsung F1 750 gb )
möglich das doch das NT zu schwach war.
mir kam es vor wie wenn die HDD nicht nachkommt.
derframentiert war sie nach NAME.

aber es hat bei geclockten Grakas ( alle 3 auf 700 1400 1200 ) keinen Ausfall gegeben.
max Stomverbrauch laut Energy Check 3000 , max 850Watt bei Last


ich kann Dir ja alle screenshot die ich hab mailen, da hier im Forum eine Beschränkung gibt und ich gerade keine Geduld hab alles anzupassen.
Freitag bis Montag hab ich 5h geschlafen wegen der testerei :D

zum Aufteilen der PCI-e Adapter:

brauchte 2x 4pin molex auf 6 pin pcie ( war von 8800gtx voranden )

3x 6pin auf 8pin ( waren bei den BFG gtx 280OC dabei )

4x 6 pin hat das Enermax.

so :D
hab jeweils 6pin zu 8pin auf 3 der 6pin vom enermax
Diese jeweils in den 8Pin der Graka.
danach den übrigen 6 pin vom enermax zur ersten GtX280
die 2x 4pin doppel Molex (Y>6pin ) auf 4 Stränge aus dem NT verteilt und die 6pin in die restlichen 2 Grakas

lol, etwas Kompliziert *gg*

mfg
PR1

boxleitnerb
2008-06-24, 21:31:32
Wer zockt schon 300 Tage im Jahr 5h/Tag? Ich finde die Entwicklung auch bedenklich, aber das ist doch einfach nur Geschwätz von dir.

Und idle...schön und gut, aber bald kommt hier noch ein Surf-PC hin, die Killermaschine wird nur zum Zocken angeworfen.

SentinelBorg
2008-06-24, 21:43:35
wisst ihr eigentlich was 1000 Watt sind?
Mein Staubsauger zieht 1800 Watt in der höchsten Stufe......schonmal jeden Tag ein paar Stunden gestaubsaugt und dann auf die Stromrechnung geschaut? 1000 Watt......*kopschüttel*

mal ausgerechnet.....900W x 5std/tag x 300Tage/Jahr x 0,19€/kwh = ~250€/Jahr
Idle Verbrauch von 250-300Watt ist in dieser Rechnung nicht mit drinne und der Strom wird nicht mehr billiger! *Autsch*
Lol, wer das Geld für entsprechende Grakas und Monis hat, der sollte es dann auch für den Strom haben. Es ist ja alles optional. Für normale Auflösungen braucht ja niemand so Zeugs, gibt ausser Crysis ja nichtmal ein Spiel das mit der Leistung wirklich was anfangen kann. SLI und höher sind nunmal Luxus mit entsprechenden Anschaffungs- und Unterhaltskosten. Aber im Vergleich zu vielen anderen Luxusanschaffungen, sogar ein recht günstiger.

boxleitnerb
2008-06-24, 22:22:04
Auch da möchte ich widersprechen. Die Leistung braucht man sehr wohl, es kommt nur auf die Ansprüche drauf an. Dass man immer meint, genug Leistung zu haben, ist so realitätsfremd.
Wenn man Spiele, die eigentlich gar keine so hohen Anforderungen haben, mit einem wirklich ruhigen Bild spielen will (Shaderflimmern), geniesst man bei Nvidia Supersampling. Da möchte ich mal eine GTX 280 sehen, wie die das bei etwas neueren Titeln bloß bis 1600 schafft...und wenn, dann sehr sehr knapp.

Zum Strom: Ja, trotz der Stromkosten ist das Geld kein Argument. Seid doch mal ehrlich, das ist wirklich ein Dreck gegen so viele andere Ausgaben im Leben und da ist noch viel unnützeres Zeug dabei.
Es geht NUR um die Wärme und damit die Lautstärke. Wenn dieses Thema durch ist, dann und erst dann kann man sich dem Argument Geld nähern. Dass ihr immer nur 3m weit denkt, versteh ich nicht.

Gast
2008-06-24, 22:33:53
Zum Strom: Ja, trotz der Stromkosten ist das Geld kein Argument. Seid doch mal ehrlich, das ist wirklich ein Dreck gegen so viele andere Ausgaben im Leben und da ist noch viel unnützeres Zeug dabei.
Es geht NUR um die Wärme und damit die Lautstärke. Wenn dieses Thema durch ist, dann und erst dann kann man sich dem Argument Geld nähern. Dass ihr immer nur 3m weit denkt, versteh ich nicht.
Vielleicht ist es nur die Angst vor weiteren Strompreissteigerungen? Bald kann die kwh vielleicht 30 cent und mehr kosten, jedenfalls im Abzockland Deutschland, in dem der Pöbel jedesmal kläglich an der Wahlurne versagt. Und dann muss man notgedrungen sein Hobby zurückfahren. Jetzt ist es ja noch bezahlbar aber in Zukunft? In Österreich ist der Strom ja noch günstiger, in Deutschland Eu-weit mit am höchsten, gleichzeitig gepaart mit einem derart niedrigen Lohnniveau, dass einem der kalte Schauer über den Rücken läuft.

=Floi=
2008-06-24, 23:11:00
ihr mit eurem "negativ rekord" und anderen sachen. Das eine kw ist doch sowas von lächerlich. :rolleyes: Schaut mal in die stahl, aluminium oder kupferproduktion, denn da wird richtig strom verbraucht. :D

pXe
2008-06-24, 23:47:40
ihr mit eurem "negativ rekord" und anderen sachen. Das eine kw ist doch sowas von lächerlich. :rolleyes: Schaut mal in die stahl, aluminium oder kupferproduktion, denn da wird richtig strom verbraucht. :D

Hat ja auch jeder eine zu Hause... ;D.

pXe

SentinelBorg
2008-06-25, 10:54:33
Auch da möchte ich widersprechen. Die Leistung braucht man sehr wohl, es kommt nur auf die Ansprüche drauf an. Dass man immer meint, genug Leistung zu haben, ist so realitätsfremd.
Wenn man Spiele, die eigentlich gar keine so hohen Anforderungen haben, mit einem wirklich ruhigen Bild spielen will (Shaderflimmern), geniesst man bei Nvidia Supersampling. Da möchte ich mal eine GTX 280 sehen, wie die das bei etwas neueren Titeln bloß bis 1600 schafft...und wenn, dann sehr sehr knapp.

Zum Strom: Ja, trotz der Stromkosten ist das Geld kein Argument. Seid doch mal ehrlich, das ist wirklich ein Dreck gegen so viele andere Ausgaben im Leben und da ist noch viel unnützeres Zeug dabei.
Es geht NUR um die Wärme und damit die Lautstärke. Wenn dieses Thema durch ist, dann und erst dann kann man sich dem Argument Geld nähern. Dass ihr immer nur 3m weit denkt, versteh ich nicht.
Und genau da muss ich widersprechen. Supersampling ist nunmal Luxus, so wie Lederausstattung im Auto. Du brauchst das absolut nicht um ein Spiel mit angemessener Grafik und Performance spielen zu können.

Auf der anderen Seite gebe ich dir recht, dass Lautstärke und Wärmeentwicklung doch für viele das weitaus größere Problem sind.

NameLessLameNess
2008-06-25, 12:42:49
Passt irgendwie :D
http://666kb.com/i/aztm41fv7p3rgwga3.jpg
HAbe mir nun auch die XFX 280 geholt und bin sehr zufrieden, Lautstärke geht in Ordnung im Vergleich zur XFX 9800 GTX.

Nightspider
2008-06-26, 02:51:56
Passt irgendwie :D
http://666kb.com/i/aztm41fv7p3rgwga3.jpg
HAbe mir nun auch die XFX 280 geholt und bin sehr zufrieden, Lautstärke geht in Ordnung im Vergleich zur XFX 9800 GTX.

Könntest du wohl Bilder von der Vorder-und Rückseite der Grafikkarte posten ?

Danke ! :)

Vom Design er spricht mich die XFX auch am meisten an.

Welcher Hersteller gab denn weiterhin Garantie auf die Grafikkarten, selbst wenn man den Kühler austauscht und zB. einen Wasserkühler drauf setzt ?

frix
2008-06-26, 12:10:14
Könntest du wohl Bilder von der Vorder-und Rückseite der Grafikkarte posten ?

Danke ! :)

Vom Design er spricht mich die XFX auch am meisten an.

Welcher Hersteller gab denn weiterhin Garantie auf die Grafikkarten, selbst wenn man den Kühler austauscht und zB. einen Wasserkühler drauf setzt ?

Das ist ein fake. Ich bezweifel, dass es da bilder von vorder- und rückseite gibt ;D

NameLessLameNess
2008-06-26, 12:34:26
Das ist ein fake. Ich bezweifel, dass es da bilder von vorder- und rückseite gibt ;D
Ich denke die meinte er nicht. Kann Morgen mal die XFX knipsen, heut bau ich die Kiste nicht mehr auf.

Snoopy69
2008-06-26, 21:55:28
OBERGEIL!!! :O
Preis - 89,95€!!!

Und hier ein Test des Kühlers...

http://www.pcmasters.de/hardware/review/watercoll-heatkiller-gpu-x2-r670.html

http://www.watercool.de/cms/forumpics/gpu_x2_g200_1.jpg

http://www.watercool.de/cms/forumpics/gpu_x2_g200_2.jpg

http://www.watercool.de/cms/forumpics/gpu_x2_g200_3.jpg

http://www.watercool.de/cms/forumpics/gpu_x2_g200_4.jpg

http://www.watercool.de/cms/forumpics/gpu_x2_g200_5.jpg

Snoopy69
2008-06-27, 00:24:27
Gibt es mittlerweile eine OC-Liste versch. Karten? Mich interessiert, ob die Zotac AMP 700MHz selektiert ist oder auch nicht besser geht als normale Karten mit 602MHz.

Dr.Dirt
2008-06-27, 07:47:25
Welcher Hersteller gab denn weiterhin Garantie auf die Grafikkarten, selbst wenn man den Kühler austauscht und zB. einen Wasserkühler drauf setzt ?
evga.

Question / Issue
Does water-cooling or installing a third party cooling solution on my video card void the warranty?

Answer / Solution
Installing third party cooling solutions does not void warranty on our products. Just be sure to keep the original cooling solution as it will have to be on the card if it is ever sent in for RMA. Any physical damage such as burn marks or damaged PCB will void ALL warranties.

http://www.evga.com/support/knowledgebase/

Snoopy69
2008-06-27, 08:50:16
DD-Tieton for GTX280/260

http://www.dangerden.com/store/product.php?productid=353&cat=0&page=

http://www.abload.de/img/image2.phpx5u.jpg

http://www.abload.de/img/image.php7l5.jpg


EK-FC280 GTX SLI

http://ekwaterblocks.com/shop/product_info.php?cPath=21_31_42&products_id=279&osCsid=34d33c974a90de5797597830f31369a8


EK-FC280 GTX SLI - Acetal

http://ekwaterblocks.com/shop/product_info.php?cPath=21_31_42&products_id=280


EK-FC280 GTX SLI - Nickel plated

http://ekwaterblocks.com/shop/product_info.php?cPath=21_31_42&products_id=281

tomsen
2008-06-27, 09:19:24
So ich habe meine "normal getaktete" Point of View GTX280 erfolgreich undervoltet.
Standard:
1.03v (2D)
1.06v (3D) – nun 1.03v
1.18v (Extra) – nun 1.03v
380Watt vs. 320 Watt!!! > ~60Watt weniger in 3D

Leider gabs bei längeren Testphasen mit Spielen und Benchs Freezes bei 700/1400/1200, was natürlich darauf deutet das zu wenig Saft da ist.

Nach 2h Jericho, Crysis und 3Dmark/Furmark Durchläufen waren 648/1400/1215 absolut stabil. Natürlich fehlt ein Langzeittest. Werde die Karte mit den Einstellungen nun am WE ausgiebig testen.

Der Verbrauch ist um 60 Watt gesunken was sich in einer deutlich reduzierten Abwärme niederschlägt.

Bei 25 Grad Raumtemperatur lastete ich die GPU 30 Minuten lang mit Furmark aus und hatte folgende Ergebnisse:
GTX280 - 1.18v
88° - 100% Lüfter

GTX280 – 1.03v
78° - 61% Lüfter (68° Grad bei manuell 100% Lüfter)

1h Crysis
GTX280 - 1.18v
~82° - ~80% Lüfter

GTX280 – 1.03v
~72° - ~51% Lüfter

Meine Karte ist durch die Senkung des Lüfters auf 25% nicht warnehmbar und für silent Systeme absolut perfekt. Unter Last hat sie jetzt maximal 61% Lüfter was nicht lauter ist wie meine „leise“ G92 GTS. Der Stromverbrauch ist genial, ~120 Watt in Idle und maximal 320 Watt in 3D(aber auch nur in Benchmarks oder Crysis). Bin nun überglücklich die negativen Aspekte der Karte selber ausgebügelt zu haben.

Ich frage mich echt wieso die Hersteller der Karte so viel Saft geben?
-Um uns zu nerven?
-wegen CUDA/Physx, die evtl. für die Berechnungen mehr Power brauchen?
-um krüppelige GPUs stabil zu bekommen?
….

Nightspider
2008-06-27, 09:34:01
Ich frage mich echt wieso die Hersteller der Karte so viel Saft geben?
-Um uns zu nerven?
-wegen CUDA/Physx, die evtl. für die Berechnungen mehr Power brauchen?
-um krüppelige GPUs stabil zu bekommen?
….

Vielleicht hast du einfach eine gute Karte erwischt. :|

Snoopy69
2008-06-27, 09:38:00
@ tomsen

Eine normale POV?
Das nennt man Sicherheitsreserve! Ist bei CPUs auch nicht anders.


Auch hier möchte ich ALLE GTX280-User bitten ihren Max.-Takt zu posten, um herauszufinden, ob bestimmte Marken evtl. sekektierte Karten haben und ob eine normale 280er sich genauso takten lässt wie eine Zotac AMP 700MHz. bzw. ob diese Zotac auch nicht mehr hergibt (oder doch?)

TheBrother
2008-06-27, 09:49:56
Auch hier möchte ich ALLE GTX280-User bitten ihren Max.-Takt zu posten, um herauszufinden, ob bestimmte Marken evtl. sekektierte Karten haben und ob eine normale 280er sich genauso takten lässt wie eine Zotac AMP 700MHz. bzw. ob diese Zotac auch nicht mehr hergibt (oder doch?)

Mach doch n Sammel-Thread mit OC-Ergebnissen auf. sobald es da was gibt poste ich bereitwillig ;)

tomsen
2008-06-27, 10:01:51
Vielleicht hast du einfach eine gute Karte erwischt. :|
Ja meine PoV geht so schlecht nicht. Mit 1.18v Standardspannung auf 700/1400/1215. Bei 730/1450/1250 gabs leider nen Freeze.

-=Popeye=-
2008-06-27, 11:59:22
OC-Ergebnisse GTX 280/260 Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=422919) ist da.

Gast
2008-06-28, 12:02:06
Hat hier einer 2 Monitore? Könnte bitte mal jemand testen ob sich die Karte in 2D runtertaktet wenn der 2. Monitor an ist? Danke.

TheBrother
2008-06-28, 17:38:27
Nein tut sie nicht hab ich sicher schon x-mal geschrieben

Gast
2008-06-28, 17:44:30
Nein tut sie nicht hab ich sicher schon x-mal geschrieben


Ja, glaub ich Dir, gibt aber inzwischen auch schon den 3. oder 4. neuen Treiber. Trtzdem danke für die Antwort.

Gast
2008-06-28, 18:34:32
scheisse. Die GTX 280 von XFX passt nicht auf mein MSI P7N SLI Platinum (und viele andere MSI in der Klasse), weil son Stück PLastik des Gehäuses der XFX gegen den CD-In der vorm PCI-E Slot Hängt stösst. Muss man entweder abbrechen oder ne andre Karte nehmen.

Gast
2008-06-29, 11:51:41
Passt irgendwie :D
http://666kb.com/i/aztm41fv7p3rgwga3.jpg
HAbe mir nun auch die XFX 280 geholt und bin sehr zufrieden, Lautstärke geht in Ordnung im Vergleich zur XFX 9800 GTX.

Warum steht dort oben rechts "Afrocock"? Ist das nicht rassistisch?

Chris2CB
2008-06-29, 12:04:32
Warum steht dort oben rechts "Afrocock"? Ist das nicht rassistisch?

Bei der Länge vom "PCB" wohl kaum:redface:

tombman
2008-06-29, 12:14:55
scheisse. Die GTX 280 von XFX passt nicht auf mein MSI P7N SLI Platinum (und viele andere MSI in der Klasse), weil son Stück PLastik des Gehäuses der XFX gegen den CD-In der vorm PCI-E Slot Hängt stösst. Muss man entweder abbrechen oder ne andre Karte nehmen.
Da würde ich aber lieber den cd-in vom MSI abbrechen als irgendwas an der 280er-- wenn man sich die Wertunterschiede ansieht ;D

Slipknot79
2008-06-29, 12:28:51
Bei der Länge vom "PCB" wohl kaum:redface:

Es ist nur ein Gerücht, das von der Pornoindustrie mitgetragen wird, dass schwarzhäutige Männer zwangsläufig lange Schwänze haben müssen. Statistiken widerlegen das. :redface:

Chris Lux
2008-06-29, 13:25:42
hey tombman,
kannst du mal an folgenden zwei stellen in crysis unter very high deine fps werte sagen:

village: pos 1260 1421 104 angl 0 0 -18
village: pos 1467 1690 136 angl 1 0 -140

thx

tombman
2008-06-29, 13:27:26
hey tombman,
kannst du mal an folgenden zwei stellen in crysis unter very high deine fps werte sagen:

village: pos 1260 1421 104 angl 0 0 -18
village: pos 1467 1690 136 angl 1 0 -140

thx
Da renn ich jetzt nicht extra hin, gib savegame oder Kommando zum warpen ;)

Chris Lux
2008-06-29, 13:40:56
Da renn ich jetzt nicht extra hin, gib savegame oder Kommando zum warpen ;)

map village
goto x y z

http://blog.digitalng.com/?p=4

tombman
2008-06-29, 14:51:56
map village
goto x y z

http://blog.digitalng.com/?p=4
Ok, hättest aber dazusagen müssen, daß man dafür -DEVMODE braucht :mad:

Bei den ersten Koordinaten: ~28fps
Bei den zweiten Koordinaten: ~38fps

2x GTX280

1920x1200, VERY HIGH, 4xAA, Nvidia Standardtakt: 600/1300/1100

Mit oc geht natürlich noch einiges mehr ;)

Chris Lux
2008-06-29, 15:01:16
Ok, hättest aber dazusagen müssen, daß man dafür -DEVMODE braucht :mad:

Bei den ersten Koordinaten: ~28fps
Bei den zweiten Koordinaten: ~38fps

2x GTX280

1920x1200, VERY HIGH, 4xAA, Nvidia Standardtakt: 600/1300/1100

Mit oc geht natürlich noch einiges mehr ;)
krass, da scheint es doch eine üble cpu-limitierung zu geben. hab über das wochenende auch ein sli system (eine leihweise dazubekommen). meine cpu ist ein normaler E6600 mit 4GB RAM. beim zweiten punkte komme ich nur auf 25fps (auch standardtakt) in 1600x1000 very high 4xAA.

tombman
2008-06-29, 15:03:36
krass, da scheint es doch eine üble cpu-limitierung zu geben. hab über das wochenende auch ein sli system (eine leihweise dazubekommen). meine cpu ist ein normaler E6600 mit 4GB RAM. beim zweiten punkte komme ich nur auf 25fps (auch standardtakt) in 1600x1000 very high 4xAA.
Schraub mal auf 800x600 runter, dann siehst ganz schnell ob es ein CPU Limit ist...
Wenn sich die fps praktisch nicht verändern hat deine CPU ein Problem :)

Überprüfe außerdem ob SLI überhaupt an war...

Chris Lux
2008-06-29, 15:24:05
Schraub mal auf 800x600 runter, dann siehst ganz schnell ob es ein CPU Limit ist...
Wenn sich die fps praktisch nicht verändern hat deine CPU ein Problem :)

Überprüfe außerdem ob SLI überhaupt an war...
jap sli ist an und die cpu ist wirklich in diesen szenen der limitierende faktor. kann da praktisch jede aufloesung einstellen und bleib bei den 25fps. in anderen sznen merk ich auch was vom sli im gegensatz zur single karte.

tombman
2008-06-29, 15:25:05
jap sli ist an und die cpu ist wirklich in diesen szenen der limitierende faktor. kann da praktisch jede aufloesung einstellen und bleib bei den 25fps. in anderen sznen merk ich auch was vom sli im gegensatz zur single karte.
Ok, dann isses klar. Tjo, highend gpu braucht eben auch highend cpu :)

Chris Lux
2008-06-29, 15:45:02
Ok, dann isses klar. Tjo, highend gpu braucht eben auch highend cpu :)
jup, nur bei crysis haett ich es nicht so extrem erwartet.

Slipknot79
2008-06-29, 17:51:48
>1920x1200, VERY HIGH, 4xAA, Nvidia Standardtakt: 600/1300/1100

Deine Big Fuckin Guns (Yea Doom 1) haben aber 615/1350/1107 Standardtakt :redface:

tombman
2008-06-29, 18:15:21
>1920x1200, VERY HIGH, 4xAA, Nvidia Standardtakt: 600/1300/1100

Deine Big Fuckin Guns (Yea Doom 1) hat aber 615/1350/1107 Standardtakt :redface:
Ich weiß, aber ich wills ja auch für andere GTX280 Interessenten vergleichbar lassen ;)

Gast
2008-06-30, 21:05:00
Vantage @ 730/1512/2670MHz,
nur mal um vRam voll auszufahren.

http://www.partypicssaarland.de/verschiedenes/PC%20Datenbank/Review/GTX280/39s.jpg (http://www.partypicssaarland.de/include.php?path=galerie/pic.php&pid=431)

Snoopy69
2008-07-01, 11:24:58
@ tombman

Hast du den Adapter mitbestellt?
Ich wusste nicht, dass es sowas gibt. Hab ihn sofort nachbestellt, da meine Kühler evtl. morgen rausgehen :)

http://www.abload.de/img/10166-altgdg.jpg

tombman
2008-07-01, 15:13:02
@ tombman

Hast du den Adapter mitbestellt?
Ich wusste nicht, dass es sowas gibt. Hab ihn sofort nachbestellt, da meine Kühler evtl. morgen rausgehen :)
Ich will gar keinen Adapter. Meine Karten sollen einzeln wechselbar bleiben. Alle meine Teile nutzen Schnellkopplungen, wo ich ohne Wassertausch Teile auswechseln kann :cool:

Mit dem Adapter müßtest du beide Karten rausheben, wenn du dazwischen zb eine PCI Karte reinstecken willst- das tue ich mir nicht an...

p.s. die GPU X² von watercool habe ich storniert, weil die aquagrafx schon unterwegs sind ;)
Gingen am Montag raus aus .de. Sollte ich mit Glück noch diese Woche bekommen- .at ist eben weit weg :rolleyes:

OC_Burner
2008-07-01, 16:48:14
p.s. die GPU X² von watercool habe ich storniert, weil die aquagrafx schon unterwegs sind ;)
Gingen am Montag raus aus .de. Sollte ich mit Glück noch diese Woche bekommen- .at ist eben weit weg :rolleyes:

Na wenn das mal kein Fehler war. Heute hat einer seine GTX280 mit dem AquaComputer Kühler wahrscheinlich ins Jenseits geschickt. klick (http://www.forumdeluxx.de/forum/showpost.php?p=9432676&postcount=1299)

tombman
2008-07-01, 17:00:38
Na wenn das mal kein Fehler war. Heute hat einer seine GTX280 mit dem AquaComputer Kühler wahrscheinlich ins Jenseits geschickt. klick (http://www.forumdeluxx.de/forum/showpost.php?p=9432676&postcount=1299)
Man darf solche Kühler nicht zu fest anziehen und muß die richtigen pads haben. Ich habe hier extra weiche liegen, die sich allem anpassen...
Vielleicht hat der Typ einfach vergessen überhaupt pads zu nehmen.

Außerdem sollte man immer überprüfen ob auch wirklich überall Kontakt da ist.
Ich leuchte zb immer mit ner Taschenlampe seitlich rein und schaue ob es kein Licht durchkommt, sprich nix in der Luft hängt...

OC_Burner
2008-07-01, 17:16:14
Ja Pads hat er vergessen. Sollte sollte aber nicht daran liegen das die Karte nun überhaupt nicht mehr geht. Naja Wer weiß, wer weiß.

tombman
2008-07-01, 17:20:57
Ja Pads hat er vergessen. Sollte sollte aber nicht daran liegen das die Karte nun überhaupt nicht mehr geht. Naja Wer weiß, wer weiß.
Naja, da hätte er eben besser aufpassen müssen.

Vielleicht hat er sich die Spawas zusammengehaut, weil die zu heiß wurden.
Ich lasse vermutlich sowieso trotzdem noch einen oder zwei 12cm Lüfter draufblasen, weil man ja nie wissen kann, ob gewisse Bauteile nicht doch einen leichten Luftstrom brauchen, auch wenn sie nicht direkt gekühlt werden, sprich keine Kontaktfläche mit dem Kühler haben.

Du solltest mal den Wahnsinn sehen, der derzeit bei mir aufgebaut ist. Offener CUBE in ner kleinen Kammer, lange Kabel in mein Zimmer, und vor dem cube ein Mega Raumlüfter @ full speed. Der bläst dir das Hirn raus ;D

:ugly:

http://www.abload.de/img/serverraumuus.jpg

OC_Burner
2008-07-01, 17:38:19
Ach, auch diese Magnetlüfter von Enermax^^

Aber die Gerätschaft scheint den Anblick nach ziemlich laut zu sein bei dir.
Habe mir auch schon überlegt nen Mora zu holen und den extern zu verbauen. Meine Wassertemp. wird in simulierten Extremsituationen bis zu 36°C warm und das nur vom Prozessor. Wenn dann irgendwann demnächst auch noch Waküblock auf meine GTX280 gschnallt wird dann gute nacht. Und meine Lüfter auf den zwei Radiatoren von mir würde ich schon gerne auf 5V lassen.

Gast
2008-07-01, 17:56:33
Ja Pads hat er vergessen. Sollte sollte aber nicht daran liegen das die Karte nun überhaupt nicht mehr geht. Naja Wer weiß, wer weiß.


Am vergessen der Pads nicht, aber vlt aus dem daraus resultierenden Verbiegen der Karte.
Naja, noch ist ja nicht klar obs noch doch nur das Mobo ist!

tombman
2008-07-01, 18:13:52
Aber die Gerätschaft scheint den Anblick nach ziemlich laut zu sein bei dir.
Yepp, und es ist mir egal, weils ja ein anderer Raum ist :cool:

Ich kann nur jedem empfehlen seinen Rechner woanders hinzustellen, besonders im Sommer.

Leiser+ kühler+ kein Smog :cool:

PC läßt sich ohne Probleme von der Ferne aus steuern. VGA Signalverlust gibts nicht, auch USB hat kein Problem, weil ich aktive repeater Kabel nutze (leider teuer), DVD rennt extern über USB und eigenem Gehäuse :)

Nur den Power und Reset Button muß ich noch verlängern, aber das ist ja echt leicht :)

Snoopy69
2008-07-01, 18:18:22
Naja, da hätte er eben besser aufpassen müssen.

Vielleicht hat er sich die Spawas zusammengehaut, weil die zu heiß wurden.
Ich lasse vermutlich sowieso trotzdem noch einen oder zwei 12cm Lüfter draufblasen, weil man ja nie wissen kann, ob gewisse Bauteile nicht doch einen leichten Luftstrom brauchen, auch wenn sie nicht direkt gekühlt werden, sprich keine Kontaktfläche mit dem Kühler haben.

Du solltest mal den Wahnsinn sehen, der derzeit bei mir aufgebaut ist. Offener CUBE in ner kleinen Kammer, lange Kabel in mein Zimmer, und vor dem cube ein Mega Raumlüfter @ full speed. Der bläst dir das Hirn raus ;D

:ugly:

http://www.abload.de/img/serverraumuus.jpg


Und kein Fenster? :ulol:

Wie lang sind die Kabel bis zum TFT? Ist Maus + Tasta = Funk? Und was kosten diese Repeater-Kabel (DVI, USB etc)

Schnellkupplungen an einer Graka hab ich noch keine gesehen, denn die Kupplungen mit anständigem Innenmaß sind fette Teile. Mach mal bitte bilder davon.

Grestorn
2008-07-01, 18:21:38
Du solltest mal den Wahnsinn sehen, der derzeit bei mir aufgebaut ist. Offener CUBE in ner kleinen Kammer, lange Kabel in mein Zimmer, und vor dem cube ein Mega Raumlüfter @ full speed. Der bläst dir das Hirn raus ;D

Du solltest gleich noch den Staubsauger anschließen, um die heiße Luft abzusaugen... Das kann ja auch kaum noch lauter werden... ;D

Snoopy69
2008-07-01, 18:27:58
Meine ersten Tests mit 3DMark06 @ 1920x1200 + 8xAA + 2Q + 16xAF hab ich schon.
Bin bis jetzt bei 730/1500/1250. Für eine stinknormale 280er ok, oder (an die Skeptiker)? :)

Nightspider
2008-07-01, 18:30:30
Meine ersten Tests mit 3DMark06 @ 1920x1200 + 8xAA + 2Q + 16xAF hab ich schon.
Bin bis jetzt bei 730/1500/1250. Für eine stinknormale 280er ok, oder (an die Skeptiker)? :)

Ohne wakü ?

Wann kommt die drauf ?

Du hast doch Chiller an der Wakü oder ? Bin mal gespannt, was man so mit getunter Wasserkühlung aus der GTX 280 rausholen kann.

frix
2008-07-01, 18:36:01
Rofl geiles bild. Voll die windmaschine.
Die frage ist auch: Was zieht mehr watt? Der rechner oder der staubsauger ? :D

tombman
2008-07-01, 18:36:05
Und kein Fenster? :ulol:
Nope, der Raum ist auch gut als Sitzsauna zu benutzen :devil:

Alle offenen Lebensmittel wurden dort schon entfernt, nur noch Dosen sind dort ;D

Wie lang sind die Kabel bis zum TFT? Ist Maus + Tasta = Funk? Und was kosten diese Repeater-Kabel (DVI, USB etc)
Nix TFT, CRT. 10 Meter ist das D-SUB Kabel, aber bräuchte eh nur 5 Meter.
Alle USB Geräte hängen an 2 Stück 5 Meter repeater Kabel, die am Tisch bei mir in 2x 4-port USB switches hängen, also 8 USB Geräte gesamt- mehr brauche ich nicht. (könnte aber locker auf 12x erhöhen, habe genug Kabel/Switches hier ;))
DVD Brenner steht mit eigenem Gehäuse per USB auf dem Tisch. USB 2.0 ist schnell genug für 16x.

Schnellkupplungen an einer Graka hab ich noch keine gesehen, denn die Kupplungen mit anständigem Innenmaß sind fette Teile. Mach mal bitte bilder davon.
Die Kupplungen hängen ja auch zwischen den Teilen, also an den Schläuchen, nicht direkt an einzelnen Geräten.
Kann man eh auf dem Bild sehen, die beiden für die CPU.
Du solltest gleich noch den Staubsauger anschließen, um die heiße Luft abzusaugen... Das kann ja auch kaum noch lauter werden... ;D
Und wohin absaugen? Nix da, die Smogluft bleibt schön dort :devil:

tombman
2008-07-01, 18:38:15
Hier die Kupplung:
http://www.pc-cooling.at/images/products/999502204A/999502204A_gr.jpghttp://www.pc-cooling.at/images/products/999502204A/999502204A-1_gr.jpg

Grestorn
2008-07-01, 18:38:52
Wenn die Umgebungstemperatur zu hoch wird, kannst Du noch so viele Lüfter haben und der Rechner überhitzt trotzdem.

Es ist ja nicht von ungefähr, dass Serverräume in Firmen üblicherweise per Klimaanlage auf 18° gehalten werden.

tombman
2008-07-01, 18:39:50
Wenn die Umgebungstemperatur zu hoch wird, kannst Du noch so viele Lüfter haben und der Rechner überhitzt trotzdem.

Es ist ja nicht von ungefähr, dass Serverräume in Firmen üblicherweise per Klimaanlage auf 18° gehalten werden.
Jo, ich weiß, 34 Grad hatte ich schon in dem Raum...aber das geht noch ;)

Der Raum ist nicht geschlossen, ein Türspalt ist ja da (wegen den Kabeln), außerdem hat er ein kleines Gitter auf Augenhöhe.

tombman
2008-07-01, 18:43:25
USB repeater Kabel:

http://www.usbwholesale.com/images/usb2repeater.jpg

Nightspider
2008-07-01, 18:45:53
USB repeater Kabel:

http://www.usbwholesale.com/images/usb2repeater.jpg

Das verstärkt das Signal ?

Preis ? Länge ?

tombman
2008-07-01, 18:48:04
Das verstärkt das Signal ?

Preis ? Länge ?
Länge ist 5 Meter, kannst 5 zusammenschalten auf maximal 25 Meter. Er wiederholt das Signal und macht es so wieder lesbar.
Allerdings sinkt die Spannung immer weiter, deshalb sind 25 Meter das Maximum.

Preis mußt selbst schauen, wennst keine Händler findest-> auf ebay gibts alles.

Snoopy69
2008-07-01, 19:09:06
Na wenn das mal kein Fehler war. Heute hat einer seine GTX280 mit dem AquaComputer Kühler wahrscheinlich ins Jenseits geschickt. klick (http://www.forumdeluxx.de/forum/showpost.php?p=9432676&postcount=1299)

Erledigt :wink:

http://www.forumdeluxx.de/forum/showpost.php?p=9435201&postcount=1371


Ohne wakü ?

Wann kommt die drauf ?

Du hast doch Chiller an der Wakü oder ? Bin mal gespannt, was man so mit getunter Wasserkühlung aus der GTX 280 rausholen kann.

Ja, ohne Wakü...
Erstmal kommt keine drauf (die Kühler müssten morgen kommen). Ich will die Karten erstmal "einbrennen". Damit meine ich, dass sie erstmal ganz ohne Fehler laufen sollten. Denn wenn eine Karte von Haus aus ne Macke hat und ich Wakü draufbaue, hab ich wohl Pech gehabt. Ich denke 1 Woche ohne Wakü kann ich verkraften.


Nope, der Raum ist auch gut als Sitzsauna zu benutzen :devil:

Alle offenen Lebensmittel wurden dort schon entfernt, nur noch Dosen sind dort ;D

Achso, du kochst dort die Dosen ein :ulol:

Schade, dass du keine Links zum Shop wegen dem Kabel und den Kupplungen gepostet hast. Ich bin eig. kein Freund von Kupplungen, da diese sehr den Druchfluss hemmen. Wie gross ist der Innendurchmesser?

tombman
2008-07-01, 19:28:17
Erledigt :wink:

http://www.forumdeluxx.de/forum/showpost.php?p=9435201&postcount=1371

Jo, Temps passen auch halbwegs:
http://www.forumdeluxx.de/forum/showpost.php?p=9435529&postcount=1380

Schade, dass du keine Links zum Shop wegen dem Kabel und den Kupplungen gepostet hast. Ich bin eig. kein Freund von Kupplungen, da diese sehr den Druchfluss hemmen. Wie gross ist der Innendurchmesser?
Auf Durchfluß pisse ich doch. Ist doch eh alles nur Hype. Wenn du den Durchmesser verringerst, dann fließt das Wasser eben schneller durch. Am Ende wirds dann wieder langsamer. Also wo ist da jetzt das Probem?

Und .at shops nützen dir ja nix. Kupplungen habe ich bei watercool.at in Wien 1010 gekauft und die Kabel in Wien 1210 bei Kaminek.

Zatoichi
2008-07-01, 19:58:33
Ich habe meine Evga GTX heute bekommen und was soll ich sagen? Ich bin begeistert. Im Idle wird die Karte nicht wärmer als 51 Grad und der Lüfter ist leise, leiser als der der 4870er. Unter Last geht die Karte auf 83 Grad hoch und auch der Lüfter ist zwar hörbar, aber definitiv nicht störend. Einziger Wermutstropfen, mein 600Watt BeQuit ist für dir Karte zu schwach, es muste getauscht werden. Nach ersten Spiele Tests muß ich sagen, das die Karte definitiv ihr Geld wert ist.

tomsen
2008-07-01, 19:59:57
Du solltest gleich noch den Staubsauger anschließen, um die heiße Luft abzusaugen... Das kann ja auch kaum noch lauter werden... ;D

;D

Geil das mit der Rumpelkammer. :biggrin:
Echt mal ne Idee, nur das der Raum sich aufheizt is net so dolle! Nen Fenster wäre net schlecht oder natürlich klimatisiert. Wäre der erste klimatisierte Abstellraum! ;)

Snoopy69
2008-07-01, 20:02:00
Nach den ersten Tests dürfte auch bei dir der Lüfter kaum runter gehen. Da hilft nur Neustart. Der nächste Treiber kommt aber.

tombman
2008-07-01, 20:04:32
Unter Last geht die Karte auf 83 Grad hoch..
Das wird unter furmark noch deutlich mehr werden...

mein 600Watt BeQuit ist für dir Karte zu schwach, es muste getauscht werden.
Kann ich kaum glauben. Hättest dich ein bischen mit den Adaptern und Anschlußmöglichkeiten spielen müssen, dann hätte es sicher geklappt.
2x 6pin @ 8 Pin und den restlichen 6pin aus 2x Molex bauen ;) Die stärksten Leitungen gehören jedenfalls in den 8pin.

Nach ersten Spiele Tests muß ich sagen, das die Karte definitiv ihr Geld wert ist.
Ihr Geld ist sie sicher NICHT wert, aber schnell ist sie, ja :)

tombman
2008-07-01, 20:05:52
;D

Geil das mit der Rumpelkammer. :biggrin:
Echt mal ne Idee, nur das der Raum sich aufheizt is net so dolle! Nen Fenster wäre net schlecht oder natürlich klimatisiert. Wäre der erste klimatisierte Abstellraum! ;)
Alternative wäre noch das Klo daneben, das ist 1. größer und hat 2. einen Abluftventilator nach draußen.

Allerdings beim Scheißen daneben den PC stehen haben - ich weiß ned ;D;D

tomsen
2008-07-01, 20:08:13
Alternative wäre noch das Klo daneben, das ist 1. größer und hat 2. einen Abluftventilator nach draußen.

Allerdings beim Scheißen daneben den PC stehen haben - ich weiß ned ;D;D

;D

Ich glaub das mach ich, klo is keine 5m weg! Shit wo shice ich dann?!- ich geh dann immer zum Nachbarn! :biggrin:
Ne quatsch, ich hätte locker Platz, is nen großes Klo!

tombman
2008-07-01, 20:09:51
;D

Ich glaub das mach ich, klo is keine 5m weg! Shit wo shice ich dann?!- ich geh dann immer zum Nachbarn! :biggrin:
Platz hätte ich dort noch locker, aber ständig den Abluftventilator laufen lassen geht sicher auch ins Geld :(
Und dann noch die Angst, daß Wasserspritzer den PC treffen könnten :(

Aber krank wäre es auf jeden Fall :cool:

Snoopy69
2008-07-01, 20:55:31
tombman

So, zum ersten mal 2x GTX280 drin und das Seasonic M12 700W hält!!! :)
Warum auch nicht? Die Last ist @ default (602MHz) GERINGER als mit 2x 8800GTX @ OC + Mod :D

Meine Rechnung ist also voll aufgegangen! Seasonic ist einfach spitze :love2:

Slipknot79
2008-07-01, 21:41:03
tombman

So, zum ersten mal 2x GTX280 drin und das Seasonic M12 700W hält!!! :)
Warum auch nicht? Die Last ist @ default (602MHz) GERINGER als mit 2x 8800GTX @ OC + Mod :D

Meine Rechnung ist also voll aufgegangen! Seasonic ist einfach spitze :love2:

Furmark+Prime95 gleichzeitig für 10min anwerfen lassen :redface:

Zatoichi
2008-07-01, 21:51:49
Das wird unter furmark noch deutlich mehr werden...

Kann ich kaum glauben. Hättest dich ein bischen mit den Adaptern und Anschlußmöglichkeiten spielen müssen, dann hätte es sicher geklappt.
2x 6pin @ 8 Pin und den restlichen 6pin aus 2x Molex bauen ;) Die stärksten Leitungen gehören jedenfalls in den 8pin.

Ihr Geld ist sie sicher NICHT wert, aber schnell ist sie, ja :)

Jo, habs nochmal getestet und es geht mit den Adaptern. Also kann ich das alte NT weiter verwenden. Und doch, ich finde das sie ihr Geld wert ist ist, hab aber auch nur Händler EK bezahlt:wink: Sie ist entgegen meiner befürchtungen leiser als die 4870er und im gegensatz zur Ati funktioniert der Idle Betrieb. in der Regel liegt sie bei um die 50 Grad bei 30-40% Lüfter im Idle.

Gast
2008-07-01, 22:10:50
Vielleicht kann das ja hier auch jem. brauchen!

Tabelle mit Coreclocks und den dazu benötigen Shadertaktraten der GTX280 Karten.

http://www.partypicssaarland.de/include.php?path=galerie/pic.php&pid=441

tombman
2008-07-01, 23:28:30
Oh Mann, habe jetzt mal nachgemessen :uhammer:

Nur der Rechner bei 3x P95 (small fft) + furmark (1920x1200, 8xAA) = 940 Watt aus der Dose :eek:

Die GTX280 braucht idle klar weniger als die alten Karten, aber WEHE sie muß aufdrehen -> Mami, ich hab Angst

Furmark+Prime95 gleichzeitig für 10min anwerfen lassen :redface:
Jo, ich bezweifle, daß das 700er das noch aushält...

Vielleicht kann das ja hier auch jem. brauchen!

Tabelle mit Coreclocks und den dazu benötigen Shadertaktraten der GTX280 Karten.

http://www.partypicssaarland.de/include.php?path=galerie/pic.php&pid=441
Danke, sehr nützlich- gibt also noch brauchbare Gäste :)

Gast
2008-07-01, 23:34:10
@Tombman: Brenner usw. würde sich Firewire eher anbieten.

tombman
2008-07-01, 23:37:05
@Tombman: Brenner usw. würde sich Firewire eher anbieten.
USB ist aber "kompatibler"...außerdem reicht ja die Bandbreite...

Gast
2008-07-01, 23:38:53
USB ist aber "kompatibler"...außerdem reicht ja die Bandbreite...
Naja... buffer underun abstellen und dann auch mal mit 16x brennen!?!

Aber soll nicht das Thema sein.

desert
2008-07-01, 23:43:00
Oh Mann, habe jetzt mal nachgemessen :uhammer:

Nur der Rechner bei 3x P95 (small fft) + furmark (1920x1200, 8xAA) = 940 Watt aus der Dose :eek:

Die GTX280 braucht idle klar weniger als die alten Karten, aber WEHE sie muß aufdrehen -> Mami, ich hab Angst

bei durchsnittlich 80 % effienz wären das 752 watt die das netzteil bereitstellt im pc, bei deinen komponenten.

Also noch viel luft nach oben bei deinem netzteil

tombman
2008-07-01, 23:48:59
bei durchsnittlich 80 % effienz wären das 752 watt die das netzteil bereitstellt im pc, bei deinen komponenten.

Also noch viel luft nach oben bei deinem netzteil
Vielleicht auf dem Papier, aber mein Gefühl sagt, es ist am Limit. Ich mein, wenn man schon mit den Adaptern hantieren muß, damit es furmark aushält, dann ist es IMO am Limit.
Das ist ja erste 1000er Galaxy, da wußte man noch nicht mal was von 8 pin Steckern. (das DXX ist ne andere Geschichte, aber das habe ich ja ned)

Slipknot79
2008-07-02, 00:49:43
Oh Mann, habe jetzt mal nachgemessen :uhammer:

Nur der Rechner bei 3x P95 (small fft) + furmark (1920x1200, 8xAA) = 940 Watt aus der Dose :eek:

Die GTX280 braucht idle klar weniger als die alten Karten, aber WEHE sie muß aufdrehen -> Mami, ich hab Angst


Glaube 8xAA könnte zu viel bei dir sein? Schau dass die AVG-fps bei 110fps oder mehr liegen. Glaube, dann braucht das System am meisten Saft. Bin aber noch am testen, also hohe Auflösung und 110fps+ könnte das Kriterium sein.
Andererseits hat 1280x1024 und 4xAA soeben mehr Saft gebraucht als hohe Auflösungen. Und dann ist es wieder umgekehrt, sehr strange das Ganze :(.

Banshee18
2008-07-02, 03:57:57
Einziger Wermutstropfen, mein 600Watt BeQuit ist für dir Karte zu schwach, es muste getauscht werden.
:eek:
Das kann ich kaum glauben. Bist du dir sicher, dass das Problem nicht woanders lag?
Ich habe auch ein BeQuiet mit 600W und kaufe mir demnächst entweder eine 4870X2 oder eine 280GTX und habe eigentlich keine Lust auf einen Netzteilwechsel.

€: Ups, habe nicht gesehen, dass der Thread noch eine Seite hat.:ugly:

Snoopy69
2008-07-02, 04:08:25
Er wäre nicht der erste mit beQuiet 600W, bei dem es nicht geht. In HWluxx musste jmd auch ein anderes NT kaufen.
Von den NTs halte ich schon länger nichts mehr. Während andere NTs mit 600W munter weitermachen, fängt des beQuiet erst garnicht an. (sein PC lief damit nicht hoch).

OC_Burner
2008-07-02, 05:05:18
Nehme mal 4xPrime anstatt 3x. FurMark hat nur eine Auslastung von 0-2%.

Und bei Prime dann:

Custom (FFT 448, FFTs in-place, 15min)

Das verbraucht dann auch noch mal ne Ecke mehr.

san.salvador
2008-07-02, 06:25:05
Er wäre nicht der erste mit beQuiet 600W, bei dem es nicht geht. In HWluxx musste jmd auch ein anderes NT kaufen.
Von den NTs halte ich schon länger nichts mehr. Während andere NTs mit 600W munter weitermachen, fängt des beQuiet erst garnicht an. (sein PC lief damit nicht hoch).
Na dann drückt mir die Daumen, dass mein beQuiet 430er aus dem Jahre Schnee die 260er frisst. Ist immerhin die mit Abstand älteste Komponente im Rechner - Gehäuse mitgezählt. :usad:

tombman
2008-07-02, 10:02:36
Na dann drückt mir die Daumen, dass mein beQuiet 430er aus dem Jahre Schnee die 260er frisst. Ist immerhin die mit Abstand älteste Komponente im Rechner - Gehäuse mitgezählt. :usad:
Also da würde ich nicht drauf hoffen, daß es rennt. Mal eben so ~ 250 Watt nur für die Graka raushauen wird das alte NT überfordern.
Du weißt schon, daß du für EINE GTX280 "3x6 pin" brauchst, oder? (2x6pin = 8pin)

Zatoichi
2008-07-02, 11:16:58
:eek:
Das kann ich kaum glauben. Bist du dir sicher, dass das Problem nicht woanders lag?
Ich habe auch ein BeQuiet mit 600W und kaufe mir demnächst entweder eine 4870X2 oder eine 280GTX und habe eigentlich keine Lust auf einen Netzteilwechsel.

€: Ups, habe nicht gesehen, dass der Thread noch eine Seite hat.:ugly:

Also du mußt die Adapter verwenden, die dabei sind. Die PCI Express Anschlüsse liefern nicht genug Saft, das reicht nur bis zum Win Login. Beide mit Adapter reichen gerade mal für den 8er Anschluß. Der 6er kommt von einem anderen Strang. Jetzt läuft der PC, auch unter Last, wie er soll. Komponenten habe ich keine Getauscht oder abgeklemmt. Nur die PCIE Anschlüsse liefern zu wenig Leistung :/

tombman
2008-07-02, 11:24:50
Also du mußt die Adapter verwenden, die dabei sind. Die PCI Express Anschlüsse liefern nicht genug Saft, das reicht nur bis zum Win Login. Beide mit Adapter reichen gerade mal für den 8er Anschluß. Der 6er kommt von einem anderen Strang. Jetzt läuft der PC, auch unter Last, wie er soll. Komponenten habe ich keine Getauscht oder abgeklemmt. Nur die PCIE Anschlüsse liefern zu wenig Leistung :/
Naja, die liefern eigentlich nicht zuwenig, denn 6pin ist nunmal nur bis 75 Watt erlaubt, 8pin bis 150 Watt- also 2x6=8 :)

Dicker Igel
2008-07-02, 11:41:53
Also da würde ich nicht drauf hoffen, daß es rennt. Mal eben so ~ 250 Watt nur für die Graka raushauen wird das alte NT überfordern.
Du weißt schon, daß du für EINE GTX280 "3x6 pin" brauchst, oder? (2x6pin = 8pin)

Er möchte doch ne 260er kaufen, dafür sollte das NT reichen.

Full 3D performance mode: varies - worst case TDP 182W for GTX 260
http://www.guru3d.com/article/geforce-gtx-260-review/4 (http://www.guru3d.com/article/geforce-gtx-260-review/4)

Gast
2008-07-02, 13:48:31
FurMark hat nur eine Auslastung von 0-2%.

Wie kommste auf den Mist? Bei mir lastet FurMark einen Kern 100% aus. Kerntemperatur der CPU steigt auch sprunghaft ordentlich an, sollte also wirkliche Belastung sein.

Zatoichi
2008-07-02, 14:29:42
Naja, die liefern eigentlich nicht zuwenig, denn 6pin ist nunmal nur bis 75 Watt erlaubt, 8pin bis 150 Watt- also 2x6=8 :)
Du hast Recht. Da ich noch nie Probleme mit Netzteilen hatte, habe ich mir das ganze immer nur Stiefmütterlich durchgelesen. Ich gelobe Besserung:wink:

tombman
2008-07-03, 15:16:53
Btw, meine Wasserkühler für die GTX280er sind angekommen. Umbau aber wahrscheinlich erst morgen (außer ich halts heute am Abend nimmer aus ;D)

san.salvador
2008-07-03, 16:06:07
Also da würde ich nicht drauf hoffen, daß es rennt. Mal eben so ~ 250 Watt nur für die Graka raushauen wird das alte NT überfordern.
Du weißt schon, daß du für EINE GTX280 "3x6 pin" brauchst, oder? (2x6pin = 8pin)
Bei einer 280 dürftest recht haben, aber bei der 260 bin ich doch zuversichtlich. *fingerkreuz* :D

HisN
2008-07-03, 16:17:38
<-- hat seine 280er jetzt mit 1,06v auf 702/1458/1242 eingestellt.
Mit 1,18v gehen 756/1566/1296. Aber da ich Dualmoni fahre und der Treiber immer noch so buggy ist das die Karte im Idle nicht runtertaktet bleib ich doch bei meinen 1,06v.
Am 30" keine Anwendung mehr die einbricht. Also deutlich besser als meine alte 9800GX2.
Gekühlt mit Aquacomputer Wakü unter Last nicht über 60°. Bei den oben genannten "Full-Power"-Werten sind es 70°. Meine Wassertemp ist übrigens unter Last gut über 37° wenns hier im Zimmer etwa 30° sind. Mit Luft waren es öfter mal 94°

http://www.abload.de/thumb/lr5n9660eqj.jpg (http://www.abload.de/image.php?img=lr5n9660eqj.jpg) http://www.abload.de/thumb/lr5n9667ayn.jpg (http://www.abload.de/image.php?img=lr5n9667ayn.jpg)

Die peinlichen Fotos (ich hab zuerst die Spulen mit Wärmeleitpad beklebt) zeige ich lieber nicht *löl*

tombman
2008-07-03, 16:30:26
Wie schauts eigentlich mit den hinteren Ram Chips aus? Werden die ganz ohne "Blech" nicht zu heiß? Fingertest?

HisN
2008-07-03, 16:31:22
Zu heiss bedeutet "Abstürze/Bildfehler".
Hab ich nicht, und das obwohl mein Gehäuse auch äusserst mies belüftet ist. Auch nicht bei 2600 Mhz. Da geht noch mehr.

tombman
2008-07-03, 16:40:33
Zu heiss bedeutet "Abstürze/Bildfehler".
Hab ich nicht, und das obwohl mein Gehäuse auch äusserst mies belüftet ist. Auch nicht bei 2600 Mhz. Da geht noch mehr.
Und was sagt der Finger? "omg, mein Finger ist Asche", oder "hmm, gar ned mal soo übel?" ;)

Die hintere Abdeckplatte des Originalkühlers ist doch aus Plastik, oder?

TheBrother
2008-07-03, 18:24:25
So hab jetzt den gleichen Kühler wie HisN.

Montage war kein Problem, Furmark maximal 62° Kerntemp., Wasser ist 28° Warm. sonst maximal 52°,
Idle 35°

Wie schauts eigentlich mit den hinteren Ram Chips aus? Werden die ganz ohne "Blech" nicht zu heiß? Fingertest?


Ich hab hinten ein paar Alu-Ram Kühlrippen drauf, die sind aber nichtmal Handwarm.

Ok, so nach 2h Dauerzocken sind die schon recht warm. habe aber keinen Unterschied bei der Stabilität der Karte gemerkt.

Gruß

Brother

Gast
2008-07-04, 00:29:54
ui ui ui gtx280 für 389,87 Teuro erhältlich.
so langsam überlege ich mir diese auch zu holen (^_^)

Snoopy69
2008-07-04, 06:35:01
Bei einer 280 dürftest recht haben, aber bei der 260 bin ich doch zuversichtlich. *fingerkreuz* :D
Ok, nochmal...
Ist schon der 2. hier, dessen GTX280 mit einem beQuiet 600W nicht geht.
Du willst zwar eine GTX260 hast aber nur ein beQuiet 430W. Zwischen der 260er und der 280er liegen rund 60W. Zw. deinem und einem 600W-NT liegen weit mehr als 60W!!!

Viel Glück :wink:

san.salvador
2008-07-04, 06:37:54
Danke. :D
Aber auch die GTS (G80 und G92) liefen tadellos, auch mehr oder weniger deutlich übertaktet. Und das mit einem übertaktetem E6300, der vermutlich mehr genuckelt hat, als mein derzeitiger E8400.
Mal sehen, wird kein Kindergeburtstag, aber ich bin doch zuversichtlich.

Außerdem ist mein beQuiet das älteste am ganzen Rechner, Gehäuse mitgezählt... ;)

HisN
2008-07-04, 15:42:12
<-- An meinem 550W BQ geht die 9800GX2, aber für die 280GTX hat es auch nicht mehr gereicht. Unter Last gab es Hänger :-(

tombman
2008-07-04, 15:46:06
<-- An meinem 550W BQ geht die 9800GX2, aber für die 280GTX hat es auch nicht mehr gereicht. Unter Last gab es Hänger :-(
Verschiedene Ansteckoptionen probiert? Mit Adaptern jongliert? ;)

Zatoichi
2008-07-04, 16:13:53
Also mal Butter bei die Fische:biggrin: Bei den fallenden GTX Preise juckt mich noch eine 2te. Welches Netzteil hält das aus?

Snoopy69
2008-07-04, 17:01:34
@ all

Hab eine grosse Bitte an euch und bitte ehrlich sein. Ab wieviel Takt kommen bei euch Fehler in Furmark (stability) @ 1280x1024 + 4xAA (min. 15min. laufen lassen)?
Wäre schön, wenn ihr davon einen Beweis-Screen posten könntet. Furmark sollte nicht Fullscreen sein + Rivatuner oder GPU-Z mit Takten und Temperaturen daneben.
Oder kennt jmd eine andere, bessere Methode als Beweis?

Sollte dann so aussehen...

http://www.abload.de/thumb/hc_3032pk3.jpg (http://www.abload.de/image.php?img=hc_3032pk3.jpg)