Archiv verlassen und diese Seite im Standarddesign anzeigen : Radeon HD4850 User-Test /Split aus RV770-Spekulation
Downclock nur auf 500 MHz? Da liegt doch noch was im Argen.
Vermute ich auch. Die HD3870 taktet sich im IDLE auf 300 MHZ herunter. Warum sollte das bei der HD4000 Serie anders sein. Zudem hat AMD auch schon bestätigt, dass Powerplay verbessert wurde. Ev. ist der IDLE-Takt also noch niedriger. Wobei der Stromverbrauch bei Last schon nach einem Dualslot-Kühler schreit.
@ jupp
wann machst Du denn nen V-Mod?
Vermute ich auch. Die HD3870 taktet sich im IDLE auf 300 MHZ herunter. Warum sollte das bei der HD4000 Serie anders sein. Zudem hat AMD auch schon bestätigt, dass Powerplay verbessert wurde. Ev. ist der IDLE-Takt also noch niedriger. Wobei der Stromverbrauch bei Last schon nach einem Dualslot-Kühler schreit.
Hm, denke einfach dass die Karte bei Jupp gar nicht in den in den 2D Modus wechselt. Afaik zeigt sie ja das gleiche Verhalten wie ein G92.
Das mit dem 2 Slot kühler ist so ne Sache. Ich will mir nen kleinen Barwebonw-Rechner bauen und auf nem µATX Board kommen 2 Slot Kühler nicht so dolle wenn man noch was reinbauen will.
@ jupp
wann machst Du denn nen V-Mod?
gebt mir son ding und "ich nehm sie mal richtig durch" :D
Läuft wohl nicht. Als ich es installiert und gestartet habe, erschien folgende Fehlermeldung: "At Present, only ATI Radeon HD2xxx/3xxx and ATI FireGL Vx6xx GPUs are supported. You may wish to cinsider running our standard client, which you can download at folding.stanford.edu."
Danach hat sich die Anwendung geschlossen.
Alles klar,
vielen Dank, dass Du es ausprobiert hast !
ciao
Alex
AnarchX
2008-06-15, 12:02:57
Imo scheinen die 500/750MHz doch der niedrigste 2D-Takt zu sein, immerhin hatte Fudo dazu schonmal ein Tool gezeigt:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7489&Itemid=34
Bei der 3870X2 stieg ja auch der 2D-Takt von 300 auf 500MHz gegenüber der 3870/50.
Weshalb es auch bei der HD4850 so ist bleibt erstmal die Frage, aber jedenfalls nicht unbedingt erfreulich.
sammler275
2008-06-15, 12:03:27
Hm, denke einfach dass die Karte bei Jupp gar nicht in den in den 2D Modus wechselt.
Das liegt jetzt wohl an den Treibern, die noch optimiert werden müssen, oder?
VMod wäre mit Löten verbunden, richtig? Das kann ich nicht und wenn die Temp. eh schon so hoch ist, werd ich wohl eher die Finger vom OC lassen.. ;)
Imo scheinen die 500/750MHz doch der niedrigste 2D-Takt zu sein, immerhin hatte Fudo dazu schonmal ein Tool gezeigt:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7489&Itemid=34
Bei der 3870X2 stieg ja auch der 2D-Takt von 300 auf 500MHz gegenüber der 3870/50.
Weshalb es auch bei der HD4850 so ist bleibt erstmal die Frage, aber jedenfalls nicht unbedingt erfreulich.
Es geht nicht darum ob nun 300Mhz oder 500Mhz, sondern ob das der 2D Stage ist, also inklusive Spannungsabsenkung usw. weil danach sieht es ja nicht aus. Hatte das gleiche Problem mit einem früheren Treiber, mit nem Mobile Chip und Vista Aero. Da gings auch nur runter auf 3D Low.
@ Jupp : welche Games hast du denn noch so ? Viel wichtige als jetzt schon irgendwelche Mods durchzuführen sind doch die Leistungswerte der Grundkarte.
Wir haben Dödelmark und Crysis. Was kannst du uns noch anbieten ?
AF muss ich doch übers CCC aktivieren, oder?
Nochmal als Hinweis.
Generell! lässt man den den Schalter im CCC auf "Application" und schaltet AA /AF im Game dazu. Das sollte immer die höchste Performance bieten. Nur wenn das Game keine Einstellmöglichkeit bietet nimmt man den Schalter im CCC.
Schlammsau
2008-06-15, 12:11:25
Moin,
also irgenwas liegt bei deinem System noch ziemlich im Argen!
Diese ganzen Abstürze, Programme die nicht laufen wollen, der hohe Idle Verbrauch, der sogar 10 Watt höher als der einer GTS liegt!?
Treiberprobleme? Irgendwas am System verpfuscht?
Die andere Möglichkeit, dass die Karte nix taugt, kann natürlich nie nie nimmer stimmen.... ;D
Schlammsau
2008-06-15, 12:14:18
Die andere Möglichkeit, dass die Karte nix taugt, kann natürlich nie nie nimmer stimmen.... ;D
kann natürlich auch sein! ;)
sammler275
2008-06-15, 12:15:25
Moin,
also irgenwas liegt bei deinem System noch ziemlich im Argen!
Diese ganzen Abstürze, Programme die nicht laufen wollen, der hohe Idle Verbrauch, der sogar 10 Watt höher als der einer GTS liegt!?
Treiberprobleme? Irgendwas am System verpfuscht?
Das System ist vorgestern neuinstalliert worden. Es ist also nichts verpfuscht. ;)
Ich tippe und hoffe doch mal stark, dass es mit zukünftigen Treibern optimiert wird.
Jetzt lasse ich mal mit dem Crysis Benchmark Tool die beiden Benches laufen und mache dann 3DM 06 Benchmarks.
Jupp, kannst du evtl. auch mal Company of Heroes Opposing Fronts testen?
thnx
OgrEGT
2008-06-15, 12:17:12
Ja genau...
Eigentlich wäre es das Beste gewesen, wenn Jupp seinen Rechner gleich mal komplett neu installiert hätte. Das wäre aber sicherlich einigen wenn nicht allen nicht schnell genug gegangen. Prinzipiell kann man aber an den Tests, die Jupp gemacht hat die Leistung der Karte auf nem "normalen Rechner" ganz gut einschätzen.
AnarchX
2008-06-15, 12:20:23
Es geht nicht darum ob nun 300Mhz oder 500Mhz, sondern ob das der 2D Stage ist, also inklusive Spannungsabsenkung usw. weil danach sieht es ja nicht aus. Hatte das gleiche Problem mit einem früheren Treiber, mit nem Mobile Chip und Vista Aero. Da gings auch nur runter auf 3D Low.
Achja, bei ATi musste ja das Clock-Gating vom Treiber initialisiert werden.
Naja, da hoffen wir mal das am 25. dank passendem Treiber der Stromverbrauch stimmt.
Aber am relativ hohen Lastverbrauch wird sich wohl eher nichts ändern.
Wie heiss wird das Ding denn unter Last wenn idle schon über 80°C?
Schlammsau
2008-06-15, 12:24:52
hab hier mal eine kleine Zusammenfassung!
Jupp meinte sie Verbraucht in seinem System rund 10 Watt mehr als seine "alte" 8800GTS (G92) im Idle!
Laut xbit labs hat die GTS nen Idle Verbrauch von 38 Watt, ergo hätte die 4850 knapp 50 Watt Idle Verbrauch! :eek:
Eine 3870 hat nur 18 Watt Idle Verbrauch. :|
ATi hatte ja angekündigt, den Idle Verbrauch auf 10 Watt senken zu wollen!
Also entweder die Karte schaltet aus irgendeinem Grund nicht in den Idle Mode, oder die ATi scheisst aufs Stromsparen.
YfOrU
2008-06-15, 12:30:33
Und noch ein Umstand nervt mich ganz besonders:
Ich bekomme nur dann ein Bild auf meinem LCD, wenn ich den VGA-Adapter nehme und mein altes VGA-Kabel nutze. Sobald ich das DVI-Kabel zusätzlich anschließe, bleibt der Bildschirm schwarz, sobald Vista geladen wurde. Direkt nach dem Einschalten während des Bootvorganges wird das Bild angezeigt, aber dann ist es plötzlich nicht mehr da, deshalb muss es ein Treiberproblem sein. Nur: WELCHES???
folgendes:
Stell deine Auflösung auf 640*480 bei 60hz. Nur DVI anschließen und neustarten. Normalerweise sollte ein Bild da sein.
Dann Schrittweise die Auflösung bis zur nativen TFT Auflösung erhöhen.
Bleibt das Bild vor der nativen Auflösung dunkel:
Ist die Lösung meist ein neues DVI Kabel.
Je nach Monitor/Fernseher/Karte ein voll beschaltetes DVI-I bzw DVI-D Kabel.
btw. das gleiche auch für HDMI. Es gibt so einige Monitore die zb mit einem mitgelieferten DVI->HDMI Adapter nicht hoch bis zu ihrer nativen Auflösung funktionieren.
http://de.wikipedia.org/wiki/Digital_Visual_Interface
bei den Fps hilft auch kein 4ghz Quadcore;)
Das System allgemein ist aber mit dem großen Cache und schnelleren FSB Potenter z.b. bei den Min. FPS
moin Jupp:smile:
....hmm noch jemand ne Idee was man benchen könnte:)
COD4 Demo laden und so ein Bild machen ;) einfach Level laden und warten bis die FPS stabil sind (FRAPS nicht vergessen)
4xAA/16xAF (3870@850/1250)
http://www.abload.de/thumb/iw3sp2008-04-3001-07rbh.jpg (http://www.abload.de/image.php?img=iw3sp2008-04-3001-07rbh.jpg)
Jupp hast du STALKER da ?
Der Stromverbrauch ist in der Tat etwas verwunderlich, da muss sie ja über 40W Idle und 100W Last (http://www.xbitlabs.com/articles/video/display/geforce9800gtx_7.html#sect0) liegen, wo dann die TDP von 110/115W doch sehr knapp kalkuliert ist. :|
Auf jeden Fall scheint wohl ein potenter Dual-Slot-Kühler schon vom Hersteller oder selbst aufgerüstet, vorallem wenn man etwas OCing wagen will, nicht verkehrt zu sein.
Tipe auf Powerplay was nicht an ist ;)
hab hier mal eine kleine Zusammenfassung!
Jupp meinte sie Verbraucht in seinem System rund 10 Watt mehr als seine "alte" 8800GTS (G92) im Idle!
Laut xbit labs hat die GTS nen Idle Verbrauch von 38 Watt, ergo hätte die 4850 knapp 50 Watt Idle Verbrauch! :eek:
Eine 3870 hat nur 18 Watt Idle Verbrauch. :|
ATi hatte ja angekündigt, den Idle Verbrauch auf 10 Watt senken zu wollen!
Also entweder die Karte schaltet aus irgendeinem Grund nicht in den Idle Mode, oder die ATi scheisst aufs Stromsparen.
Die Vermutung liegt nahe, dass der Treiber noch nicht ausgereift ist und die Karte dank Vista Aero noch in die "Light Gaming" Settings wechselt, anstatt ganz auf 2D zu gehen.
Erstmal Danke an Jupp für die tests.
Ich würd gerne auch mal ein Game sehen das nicht zum "Wir unterstützen nur Nvidia" Programm gehört. Das Crysis für nvidia optimiert wurde brauch ich ja nicht mehr zu erwähnen.
Des weiteren wegen den Problemen: Was erwartet ihr. Ne Karte die erst in 10 Tagen raus kommt mit Beta-Treibern und alles soll reibungslos funktionieren? Damit macht sie ihren job eigentlich ganz gut.
Crysis will keiner mehr sehn, aber Call of Duty 4 und S.T.A.L.K.E.R. o.ä.
Schlammsau
2008-06-15, 12:38:52
Erstmal Danke an Jupp für die tests.
Ich würd gerne auch mal ein Game sehen das nicht zum "Wir unterstützen nur Nvidia" Programm gehört. Das Crysis für nvidia optimiert wurde brauch ich ja nicht mehr zu erwähnen.
Des weiteren wegen den Problemen: Was erwartet ihr. Ne Karte die erst in 10 Tagen raus kommt mit Beta-Treibern und alles soll reibungslos funktionieren? Damit macht sie ihren job eigentlich ganz gut.
eigentlich ist die Karte noch gar nicht "raus"!
Release soll doch erst in 1 Woche sein......
@jupp
Und der 8.6Beta (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=417311) funzt definitiv nicht?
Wennst noch ein paar Benchmarks machen willst!? Hier......
Devil May Cry 4 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=420636)
Race Driver - Grid (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=415060)
Bioshock (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=377619)
Assassins Creed (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=416135)
Benchmarkanleitung jeweils im ersten Post!
PS: Hammer das du dir die Mühe machst!
Der gewünschte Fillrate-Test mit der G92:
http://img181.imageshack.us/img181/653/fillratecbsettingsg92yg4.th.jpg (http://img181.imageshack.us/my.php?image=fillratecbsettingsg92yg4.jpg)
Fillrate 4850:
http://www.abload.de/thumb/fillratecb-settings47kz.jpg (http://www.abload.de/image.php?img=fillratecb-settings47kz.jpg)
----------------
Bitte nicht einfach nur Scheisse benchen. Dass die G92 Werte nicht stimmen können, leuchtet doch wohl ein.
Super Grobi
2008-06-15, 12:42:19
Kann mal wer die Leistung einschätzen? Ich kann mit den Tests nicht viel anfangen!
Ist die Karte schneller als eine 8800 GTS G92? Gleich schnell wie eine 3870?
SG
Kann mal wer die Leistung einschätzen? Ich kann mit den Tests nicht viel anfangen!
Ist die Karte schneller als eine 8800 GTS G92? Gleich schnell wie eine 3870?
SG
natürlich deutlich schneller wie eine 3870
Die Vermutung liegt nahe, dass der Treiber noch nicht ausgereift ist und die Karte dank Vista Aero noch in die "Light Gaming" Settings wechselt, anstatt ganz auf 2D zu gehen.
könnte man ja rausbekommen wenn man mal Aero einfach ausstellt
dann müsste ja ne andere taktrate angezweigt werden und somit ein anderer powerplay zustand herrschen mit weniger spannung und weniger verbrauch
sammler275
2008-06-15, 13:13:22
folgendes:
Stell deine Auflösung auf 640*480 bei 60hz. Nur DVI anschließen und neustarten. Normalerweise sollte ein Bild da sein.
Da fängt es schon an: Nach dem Neustart bleibt das Bild immer noch schwarz. :(
Was soll das denn? Mit meiner alten Radeon 9800Pro und mit meinem Radeon 9600Pro Mobility-Laptop an ner Dockingstation funzt das Kabel tadellos. Mit der G92 und nun mit der 4850 nur noch mit dem blöden DVI-VGA Adapter, der mir ein einziges Matschbild bietet. Ich bin frustriert und ratlos. :( :(
du bekommst auch im windows kein bild über dvi? wenn man beide kabel vom TFT anschliesst kann man im TFT auch auswählen woher der input kommen soll also per VGA oder per DVI
mein TFT erkannte das immer selbst bei den problematischen karten und hat bis zum windows betrieb per vga ausgegeben und dannach per DVI
war keine schöne lösung aber sie funktionierte
Superheld
2008-06-15, 13:26:50
Jupp
wenn du Lust hast kann du die Lost Planet Demo DX10 benchen
http://www.exp.de/download.php?id=12483
Da fängt es schon an: Nach dem Neustart bleibt das Bild immer noch schwarz. :(
Was soll das denn? Mit meiner alten Radeon 9800Pro und mit meinem Radeon 9600Pro Mobility-Laptop an ner Dockingstation funzt das Kabel tadellos. Mit der G92 und nun mit der 4850 nur noch mit dem blöden DVI-VGA Adapter, der mir ein einziges Matschbild bietet. Ich bin frustriert und ratlos. :( :(
Hi hast du denn DVI stecker auch von der 4850 packung genommen?
jupp könnte mal das Bios hochladen von der Karte, dann könnte man da mal reinschaun z.b. wie die Powerstage da ausehen wegen Powerplay
http://www.techpowerup.com/downloads/854/Winflash_2.0.0.2.html
sammler275
2008-06-15, 13:42:00
du bekommst auch im windows kein bild über dvi? wenn man beide kabel vom TFT anschliesst kann man im TFT auch auswählen woher der input kommen soll also per VGA oder per DVI
mein TFT erkannte das immer selbst bei den problematischen karten und hat bis zum windows betrieb per vga ausgegeben und dannach per DVI
war keine schöne lösung aber sie funktionierte
Ja, genau so ist es. Bis zum Windows-Anmeldebildschirm funktioniert DVI, dann allerdings nicht mehr. Auswählen kann ich auch auf meinem TFT,allerdings zeigt er mir nur das VGA-Bild an, nicht das DVI-Bild, trotz 640x480 60Hz.
Den DVI-Stecker aus der Packung habe ich natürlich genommen.
Vielleicht ist die Karte auch einfach nur kaputt.
YfOrU
2008-06-15, 13:44:27
Da fängt es schon an: Nach dem Neustart bleibt das Bild immer noch schwarz. :(
Was soll das denn? Mit meiner alten Radeon 9800Pro und mit meinem Radeon 9600Pro Mobility-Laptop an ner Dockingstation funzt das Kabel tadellos. Mit der G92 und nun mit der 4850 nur noch mit dem blöden DVI-VGA Adapter, der mir ein einziges Matschbild bietet. Ich bin frustriert und ratlos. :( :(
Vermutlich ist das ein DVI-D Kabel. Mit den älteren Karten ist das soweit kein Problem. Bei neueren (mit HDMI+HDCP) wirds an alten Monitoren die über kein HDCP verfügen problematisch.
Hat teilweise zur Folge das der Bildschirm entweder nur in 640*480 ein Bild oder garkeins liefert.
Was du für ein Kabel hast, siehe hier:
http://de.wikipedia.org/wiki/Digital_Visual_Interface
Ein DVI-I Kabel wäre dann einen Versuch wert.
Da fängt es schon an: Nach dem Neustart bleibt das Bild immer noch schwarz. :(
Was soll das denn? Mit meiner alten Radeon 9800Pro und mit meinem Radeon 9600Pro Mobility-Laptop an ner Dockingstation funzt das Kabel tadellos. Mit der G92 und nun mit der 4850 nur noch mit dem blöden DVI-VGA Adapter, der mir ein einziges Matschbild bietet. Ich bin frustriert und ratlos. :( :(
bei mir ging das bild immer weg und wieder an, hatte den monitor per hdmi angeschlossen und musste wegen dem problem auf vga wechseln.
hp w2207h und 8800 gt, sehr ärgerlich gewesen :/
Ja, genau so ist es. Bis zum Windows-Anmeldebildschirm funktioniert DVI, dann allerdings nicht mehr. Auswählen kann ich auch auf meinem TFT,allerdings zeigt er mir nur das VGA-Bild an, nicht das DVI-Bild, trotz 640x480 60Hz.
Den DVI-Stecker aus der Packung habe ich natürlich genommen.
Dann versuch auchmall dein alten Dvi stecker.Hatte schön öfters das phenomen das man mehrere versuchen muss.
sammler275
2008-06-15, 14:00:42
Vermutlich ist das ein DVI-D Kabel. Mit den älteren Karten ist das soweit kein Problem. Bei neueren (mit HDMI+HDCP) wirds an alten Monitoren die über kein HDCP verfügen problematisch.
Hat teilweise zur Folge das der Bildschirm entweder nur in 640*480 ein Bild oder garkeins liefert.
Was du für ein Kabel hast, siehe hier:
http://de.wikipedia.org/wiki/Digital_Visual_Interface
Ein DVI-I Kabel wäre dann einen Versuch wert.
Hey, das könnte die Lösung sein, hab nämlich ein DVI-D Dual Link Kabel und einen älteren Iiyama ProLite E481S.
Werde mir dann mal ein DVI-I Dual Link Kabel besorgen, in der Hoffnung, dass es dann damit funktioniert. Irgendwelche Tipps, welches Kabel ich wo am besten bestellen sollte?
Übrigens: Wenn ich unter Vista Aero Glass ausschalte, verändert sich nichts am Stromverbrauch und der idle-GPU-Takt bleibt weiter bei 500Mhz.
OBrian
2008-06-15, 14:02:48
Ich denke, absolute Zahlen wird man hier sowieso nicht verwertbar erzielen können, dazu müßte Jupp seinen Rechner ständig plätten und mit frischem Windows hantieren, außerdem andere Karten in genau dem gleichen Testrechner benchen, und das ist ja ein unvertretbarer Wahnsinnsaufwand.
Was aber mal interessant wäre, und nebenbei auch machbar: Wie stark bricht die 4850 bei AA/AF ein? Dazu brauchst Du Dir nur ein Spiel zu suchen, was erstmal stark GPU-limitiert ist und außerdem nicht besonders neu sein muß.
Die absoluten Zahlen interessieren hier nicht, die Karte tritt hier nur gegen sich selbst an. Bench einmal ohne AA und AF, dann mit AF, nur mit AA und dann mit beidem, jeweils optimalerweise in mehreren Stufen. Die Prozentwerte kann man dann ja mit diversen Webseiten vergleichen.
YfOrU
2008-06-15, 14:12:40
Hey, das könnte die Lösung sein, hab nämlich ein DVI-D Dual Link Kabel und einen älteren Iiyama ProLite E481S.
Werde mir dann mal ein DVI-I Dual Link Kabel besorgen, in der Hoffnung, dass es dann damit funktioniert. Irgendwelche Tipps, welches Kabel ich wo am besten bestellen sollte?
Kauf dir eins mit Rechnung im nächsten Elektronikladen,
Achtung, teilweise Mars und Mondpreise ;)
Hauptsache das Kabel ist voll belegt und es lässt sich im Fall der Fälle wieder zurückgeben.
@ Gast
Den HP w2207h nicht per beigelegtem DVI->HDMI Adapter anschliesen sondern ein ordentliches DVI auf HDMI Kabel kaufen.
Leider gehts nicht anderst und das war die Lösung nach ungefähr 20 Mails mit Powercolor und HP die sich gegenseitig den schwarzen Peter zugeschoben haben...
Hey, das könnte die Lösung sein, hab nämlich ein DVI-D Dual Link Kabel und einen älteren Iiyama ProLite E481S.
Werde mir dann mal ein DVI-I Dual Link Kabel besorgen, in der Hoffnung, dass es dann damit funktioniert. Irgendwelche Tipps, welches Kabel ich wo am besten bestellen sollte?
Übrigens: Wenn ich unter Vista Aero Glass ausschalte, verändert sich nichts am Stromverbrauch und der idle-GPU-Takt bleibt weiter bei 500Mhz.
Vlt doch mal Beta Treiber testen?
Haste schon sonstige Games zum laufen gebracht?
Hey, das könnte die Lösung sein, hab nämlich ein DVI-D Dual Link Kabel und einen älteren Iiyama ProLite E481S.
Werde mir dann mal ein DVI-I Dual Link Kabel besorgen, in der Hoffnung, dass es dann damit funktioniert. Irgendwelche Tipps, welches Kabel ich wo am besten bestellen sollte?
Übrigens: Wenn ich unter Vista Aero Glass ausschalte, verändert sich nichts am Stromverbrauch und der idle-GPU-Takt bleibt weiter bei 500Mhz.
Du kannst ja mall probieren ob der Ati bios Editor mit der Karte schon läuft.
http://www.computerbase.de/downloads/treiber/grafikkarten/ati/computerbase_ati_bios-editor/
dann kannst du denn Takt selber runterregeln.
RainingBlood
2008-06-15, 16:10:09
37% Mehrleistung in Vantage mit einer 4850 vs. 8800GTS G92 ist doch garnicht schlecht! :smile:
der GPU Wert ist bei der G92 deutlich zu niedrig. Erreiche selber ja schon 5000 Punkte mit einer GT 650/950. Das Zauberwort heisst hier "177.26".
robbitop
2008-06-15, 16:38:24
Also von den Crysis-Werten bin ich enttäuscht. Meine übertaktete 8800 GTS-640 (683/1763/1100 - dürfte in etwa 8800 GTX - Niveau sein) ist im GPU-Bench mit gleichen Settings in 1280, highest, 4xAA/16xAF (QAF vs AI) sogar noch etwas schneller. Ich erreiche 17 fps. Jupps 4580 erreichte ~15 fps.
Eine 4850 scheint also noch einen Tick langsamer zu sein als eine normale 8800-GTX.
Schlammsau
2008-06-15, 16:39:16
der GPU Wert ist bei der G92 deutlich zu niedrig. Erreiche selber ja schon 5000 Punkte mit einer GT 650/950. Das Zauberwort heisst hier "177.26".
nur ein weiterer Cheattreiber der IHV´s. ;)
Wen interessiert sich für den Schwanzmark? Spiele Benches sind interessant!
Also von den Crysis-Werten bin ich enttäuscht. Meine Geforce übertaktete 8800 GTS-640 (683/1763/1100 - dürfte in etwa 8800 GTX - Niveau sein) ist im GPU-Bench mit gleichen Settings in 1280, highest, 4xAA/16xAF (QAF vs AI) sogar noch etwas schneller. Ich erreiche 17 fps. Jupps 4580 erreichte ~15 fps.
Eine 4850 scheint also noch einen Tick langsamer zu sein als eine normale 8800-GTX.
Dann hast du dein GTS 640 also auf 8800Ultra Niveau gebracht...interesant
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/#abschnitt_crysis
Dann hast du dein GTS 640 also auf 8800Ultra Niveau gebracht...interesant
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/#abschnitt_crysis
hehe die ganzen noobs mit ihrm Computerbase ;D Was da steht is IMMER riiischitch ;D
robbitop
2008-06-15, 16:53:52
Dann hast du dein GTS 640 also auf 8800Ultra Niveau gebracht...interesant
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/#abschnitt_crysis
Die testeten mit der Version 1.1. Wir testeten mit der Version 1.2.1. Letztere ist deutlich schneller. Die Werte kannst du also getrost vergessen.
Mir ist dieses Benchmark-Werte-Recycling sowieso zuwider. Wenn ich schon sehe, dass oftmals für neue Artikel, Werte aus alten Artikeln wiederverwendet worden sind, aber mittlerweile andere Treiber oder sogar Systemkomponenten vorhanden sind, frage ich mich ob die entsprechenden Redakteure inkompetent oder einfach nur faul sind. (war jetzt nicht auf diesen Artikel bezogen)
Die Werte hauen dann so nämlich nicht mehr hin. Bitte zurück an den Artikel der 9600GT denken, bei dem sich alle wunderten, warum die 9600GT alle Karten so abzieht, und die alten Karten dann noch mit alten Treibern gebencht wurden. Und ich vermute, dass das heute bei vielen Seiten unkommentiert zur Mode geworden ist.
Ronny145
2008-06-15, 16:55:09
Kann ja richtig sein was da bei CB steht. Nur ist der Test nicht von gestern. Heißt, der dort verwendete NVIDIA Treiber ist mittlerweile fast 4 Monate alt und die aktuellen können ein paar fps zugelegt haben. Und schon wäre ein Vergleich mit dem Test nicht mehr gegeben.
robbitop
2008-06-15, 17:04:17
Der Link war von April. Und es steht dort Crysis 1.1. Also älterer Patch, älterer Treiber. Werte nicht vergleichbar. Punkt.
Kriton
2008-06-15, 17:18:42
Also von den Crysis-Werten bin ich enttäuscht. Meine übertaktete 8800 GTS-640 (683/1763/1100 - dürfte in etwa 8800 GTX - Niveau sein) ist im GPU-Bench mit gleichen Settings in 1280, highest, 4xAA/16xAF (QAF vs AI) sogar noch etwas schneller. Ich erreiche 17 fps. Jupps 4580 erreichte ~15 fps.
Eine 4850 scheint also noch einen Tick langsamer zu sein als eine normale 8800-GTX.
Zudem: Mit 640 MB hast Du eine breitere Speicheranbindung - vielleicht limitiert die 4850 bei den Crysis-Einstellungen da einfach eher und ist ansonsten besser?
robbitop
2008-06-15, 17:24:06
Dann müsste sein Wert ohne MSAA drastisch besser sein. Nein die Bandbreite allein kann's IMO nicht sein.
Hab gestern die ganze Nacht den Thread verfolgt. War spannend und lustig. Ich möchte mich auch nochmal bei Jupp für seine Bemühungen bedanken. Endlich Licht im dunkeln. Danke:-)
Schlammsau
2008-06-15, 17:34:00
hm naja....ich finde die Werte gar nicht so übel!
Wenn ich die Fps mit meinen, einer einzelnen übertakteten 3870 Vergleiche, ist die Performance in Crysis schon sehr gut!!!! 3870 mit 9,9fps (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6427725#post6427725) gegen 15,3fps bei 1280x1024@veryHigh 4xAA/16xAF! Deckt sich im übrigen mit den Ergebnissen von CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/#abschnitt_crysis)!
Crysis scheint aber wohl auch der neuen Generation nicht so zu liegen.....warum wohl?
[Edit] und leider hat sich in Crysis bei SingleGPU ATi´s nicht viel getan, seit dem 8.3 Treiber!
robbitop deine GTS G80 ist ca. 37% OC das ist schon ein Pfund ;)
Ronny145
2008-06-15, 17:41:51
Der Link war von April. Und es steht dort Crysis 1.1. Also älterer Patch, älterer Treiber. Werte nicht vergleichbar. Punkt.
Ich meinte den Gast. Der Treiber stammt vom Februar, das ist eher entscheident.
robbitop
2008-06-15, 17:47:25
Der 1.2. Patch brachte aber auch noch Performance.
Also ist der RV770 nur 1,5x so schnell wie der RV670. Wundert mich sehr, da ja chipintern mehr als 1,5x skaliert wurde.
Meine GTS ist ungefähr GTX-Level. Das entspricht also der Karte von vor fast 2 Jahren.
Schlammsau
2008-06-15, 17:50:48
Der 1.2. Patch brachte aber auch noch Performance.
Also ist der RV770 nur 1,5x so schnell wie der RV670. Wundert mich sehr, da ja chipintern mehr als 1,5x skaliert wurde.
Meine GTS ist ungefähr GTX-Level. Das entspricht also der Karte von vor fast 2 Jahren.
War das nicht das was wir erwartet haben? 9800GTX Niveau?
Hab niemals mehr von der 4850 erwartet. Du etwa?
Wenn die 4870 30-40% schneller wird, ist es doch super!?
hm naja....ich finde die Werte gar nicht so übel!
Wenn ich die Fps mit meinen, einer einzelnen übertakteten 3870 Vergleiche, ist die Performance in Crysis schon sehr gut!!!! 3870 mit 9,9fps (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6427725#post6427725) gegen 15,3fps bei 1280x1024@veryHigh 4xAA/16xAF! Deckt sich im übrigen mit den Ergebnissen von CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/#abschnitt_crysis)!
CB testet andere Timedemo wie oft denn noch?
Hier wird eine brutal übertaktete GTS gegen nonoced 4850 bewertet. Absolut nicht aussagekräftig. Ist dasselbe wie damals mit dem D805. Ist aber ein anderes Thema. Zurück zum Topic und Gamebenches, please!
Schlammsau
2008-06-15, 18:28:53
CB testet andere Timedemo wie oft denn noch?
nein bei den "alten" benches nicht! ;) ...und nur diesen hab ich verlinkt!
Den Benchmark kann jeder am heimischen PC selber nachvollziehen. Damit dieser korrekt unter Windows Vista ausgeführt wird, muss der Crysis.exe das Attribut „Als Administrator ausführen“ gegeben werden. Anschließend funktioniert die unter „C:\Program Files\Electronic Arts\Crytek\Crysis\Bin64“ versteckte Batch-Datei Benchmark_GPU.bat. Bei den Benchmarks werden jeweils die zuletzt im Spiel gewählten Settings genutzt. Darauf muss geachtet werden. Unter „C:\Program Files\Electronic Arts\Crytek\Crysis SP Demo\Game\Config“ kann mit Hilfe der benchmark_gpu.cfg eingestellt werden, wie häufig die Benchmarks wiederholt werden sollen. Wir testen die auf Version 1.1 aktualisierte Vollversion des Spiels. Auch wenn die Einstellung „Very High“ für viele (und vor allem günstigeren) Grafikkarten unspielbar ist, haben wir uns dennoch für die höchste Qualität entschieden, um selbst mit zukünftigen Grafikkarten keine CPU-Limitierung zu schaffen.
Ich bleibe dabei, die 4850 ist eine Top Karte für den Preis! Absolut konkurrenzloses P/L Verhältniss in ihrer Klasse! Bedenkt mal das sie schon für 199€ vor dem offiziellem Release zu habe ist! Wow....
Volker S
2008-06-15, 18:47:43
...nur die 80°C Idle-Temperatur sind wirklich zu hoch.
robbitop
2008-06-15, 18:48:24
War das nicht das was wir erwartet haben? 9800GTX Niveau?
Hab niemals mehr von der 4850 erwartet. Du etwa?
Wenn die 4870 30-40% schneller wird, ist es doch super!?
Die wird rund 20% schneller sein aufgrund der Taktraten. Ja das ist eigentlich ok. Stimmt schon. Vermutlich waren meine Erwartungen zu hoch.
RainingBlood
2008-06-15, 18:53:58
nur ein weiterer Cheattreiber der IHV´s. ;)
Wen interessiert sich für den Schwanzmark? Spiele Benches sind interessant!
ist auch meine Meinung. Allerdings wird Vantage als Vergleich aufgeführt, und dafür benutzt er den falschen Treiber für den G92.
...nur die 80°C Idle-Temperatur sind wirklich zu hoch.
naja der "default" kühler taugte auf den 3850 schon nix und das is ja der gleiche...für nen grösseren chip
nen accelero S1 drauf dazu nen kleiner vmod das das ding bei 900++mhz läuft und die verputzt in der 1GB variante vielleicht sogar ne GTX280
Was ist denn mit dem Jupp los??
sammler275
2008-06-15, 19:02:00
Hey.. ich musste wieder Speicherplatz schaffen, weil ich ja die ganzen Spiele installiert habe und ja schon gestern nix mehr frei war. Jetzt gleich gibts neue Benchmarkwerte von folgenden Spielen, wenn ihr mir noch kurz sagt, wie genau ich jeweils vorgehen soll:
CoD4
Company of Heroes
Bioshock
STALKER
Gothic 3
:)
Bei CoD4 geht denke ich nur über eine aufgenommene Demo von jmd., die du dann auch besitzten solltest. User 1 nimmt eine Demo auf (am Besten mit 8800 GTS) und benched. Dann schickt er dir die Demo und du benchst. Irre ich mich?
Die Spieleauswahl ist gut. Teste doch ala CB. Zum Bleistift so http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/#abschnitt_einleitung. Nur nen Vorschlag. MfG
sammler275
2008-06-15, 19:25:23
Die Spieleauswahl ist gut. Teste doch ala CB. Zum Bleistift so http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/#abschnitt_einleitung. Nur nen Vorschlag. MfG
Da habe ich noch was interessantes entdeckt: "Auf dem Slotblech einer ATi Radeon HD 3870 findet man zwei HDCP-geschützte Dual-Link-DVI-Ausgänge vor, die auch bei einer Dual-Link-Auflösung wie beispielsweise 2560x1600 den Kopierschutz anwenden können. Darüber hinaus ist ein obligatorischer HDTV-Ausgang verbaut. Der PowerColor Radeon HD 3870 liegt ein DVI-zu-HDMI-Adapter bei, mit dem es möglich ist, Video- und Audio-Signale über den DVI-Ausgang wiederzugeben. Dabei ist der Adapter mit dem HDMI-1.2-Standard kompatibel, womit eine Dolby-Digital- sowie DTS-Tonspur von einer DVD, Blu-ray oder HD-DVD ausgegeben werden kann."
Das Design und die Features sollten bei meiner 4850 ja gleich sein,
Jedoch kann ich keinen HDMI-Ausgang finden. Gemeint ist jawohl in diesem o.g. Fall nicht der Weg mit DVI-HDMI Adapter?!
Und wie kommt bittesehr Dolby Digital Sound über HDMI aus der Karte??
Daserscheint mir jetzt gerade ziemlich schleierhaft.
Schlammsau
2008-06-15, 19:25:28
Hey.. ich musste wieder Speicherplatz schaffen, weil ich ja die ganzen Spiele installiert habe und ja schon gestern nix mehr frei war. Jetzt gleich gibts neue Benchmarkwerte von folgenden Spielen, wenn ihr mir noch kurz sagt, wie genau ich jeweils vorgehen soll:
CoD4
Company of Heroes
Bioshock
STALKER
Gothic 3
:)
wie bencht du die Games?
sammler275
2008-06-15, 19:48:54
Also bei CoD4 mach ichs wie vorgeschlagen: Level laden, bisschen warten und dann mit FRAPS den Sceenshot.
Beim Rest hab ich keine Ahnung, wie ich das benchen soll, sorry - sagt mir, wie ichs machen soll! Eine Stunde habt ihr noch, bis Fußball kommt.. ;)
Lost Planet DX10 kann ich auch noch testen, lade es gerade.
ATI Winflash startet übrigens nicht und der BIOS Editor von CB soll ich "Bitte original ROM-Daten öffnen." Wo bekomme ich die her? Mit Winflash? Das startet ja nicht.
Ich nehme an, dass ich so das höchstwahrscheinlich nicht korrekt arbeitende Powerplay manuell einstellen kann, richtig?
Wäre der Kühlermod mit dem Accelero S1 aufwändig oder ganz einfach hinzukriegen? Wie wäre dann die Lautstärke?
Schlammsau
2008-06-15, 19:51:06
machs so! :smile:
Ausser Assassins Creed, geht alles mit den Demo´s!
Dann können wir besser vergleichen!
Devil May Cry 4 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=420636)
Race Driver - Grid (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=415060)
Bioshock (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=377619)
Assassins Creed (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=416135)
Benchmarkanleitung jeweils im ersten Post!
PS: Hammer das du dir die Mühe machst!
Ich möchte aber auch Gothic 3 sehen. Ist eines meiner Lieblingsgames. Ansonsten, happy benching:-)
Also bei CoD4 mach ichs wie vorgeschlagen: Level laden, bisschen warten und dann mit FRAPS den Sceenshot.
Beim Rest hab ich keine Ahnung, wie ich das benchen soll, sorry - sagt mir, wie ichs machen soll! Eine Stunde habt ihr noch, bis Fußball kommt.. ;)
Lost Planet DX10 kann ich auch noch testen, lade es gerade.
ATI Winflash startet übrigens nicht und der BIOS Editor von CB soll ich "Bitte original ROM-Daten öffnen." Wo bekomme ich die her? Mit Winflash? Das startet ja nicht.
Ich nehme an, dass ich so das höchstwahrscheinlich nicht korrekt arbeitende Powerplay manuell einstellen kann, richtig?
Wäre der Kühlermod mit dem Accelero S1 aufwändig oder ganz einfach hinzukriegen? Wie wäre dann die Lautstärke?
Hast du wenn du Atiwinflash startest 100 % cpu auslastung?
Wenn ja immer wieder winflash im taskmanager beenden und immer wieder versuchen.Irgend wan startet das dann.
Mach einfach von jeden game was du hast ein screenshoot.Andere User werden dann bestimmt gucken.
2008-06-15 20:14:47 - AssassinsCreed_Dx9
Frames: 1516 - Time: 60000ms - Avg: 25.267 - Min: 19 - Max: 29
1680x1050 @ max Details 3/3 Multisampling ingame. (= max. Grafik)
C2D E4300 @ 3000 Mhz, 4 GB DDR2, P35 MB, GF 8800 GTS 320 MB
AC und LP "Cave" sind sehr CPU Lastig ;)
tombman
2008-06-15, 20:26:07
Bei LP NUR SNOW testen, ansonsten benched er die cpu..
sammler275
2008-06-15, 20:49:29
So - jetzt wird erstmal Fußball geschaut. Mal gucken, ob ich nebenher noch was mache, ansonsten benche ich morgen Abend mal.
Wäre der Kühlermod mit dem Accelero S1 aufwändig oder ganz einfach hinzukriegen? Wie wäre dann die Lautstärke?
Je nachdem wie aufwändig man es findet einen Grafikkartenkühler zu wechseln....mit etwas Geschick undGeduld geht das eigentlich leicht von der Hand
der einzige Nachteil ist halt die Bauhöhe
http://image.blog.livedoor.jp/endows_blog/imgs/8/8/88022f74.jpg
wer damit klarkommt bekommt das beste was man ohne wassergeplansche so auf der grafikkarte haben kann und das zum spottpreis
die lautstärke hängt von den lüftern ab die du draufschnallst..bei leisen 120x120 lüftern kann man von unhörbar sprechen
btw: company of heroes opposing fronts benches please :D
leute, wartet doch einfach auf finale tests und finale treiber... das mit dem stromverbrauch kann eigentlich nur ein treiberproblem oder was am system sein.
weiters würde ich aus oben genanntem grund auf die benchmarkzahlen auch nicht zu viel geben. mit richtigen treibern kann sich da einfach noch zu viel ändern
anddill
2008-06-15, 21:44:00
Da habe ich noch was interessantes entdeckt: "Auf dem Slotblech einer ATi Radeon HD 3870 findet man zwei HDCP-geschützte Dual-Link-DVI-Ausgänge vor, die auch bei einer Dual-Link-Auflösung wie beispielsweise 2560x1600 den Kopierschutz anwenden können. Darüber hinaus ist ein obligatorischer HDTV-Ausgang verbaut. Der PowerColor Radeon HD 3870 liegt ein DVI-zu-HDMI-Adapter bei, mit dem es möglich ist, Video- und Audio-Signale über den DVI-Ausgang wiederzugeben. Dabei ist der Adapter mit dem HDMI-1.2-Standard kompatibel, womit eine Dolby-Digital- sowie DTS-Tonspur von einer DVD, Blu-ray oder HD-DVD ausgegeben werden kann."
Das Design und die Features sollten bei meiner 4850 ja gleich sein,
Jedoch kann ich keinen HDMI-Ausgang finden. Gemeint ist jawohl in diesem o.g. Fall nicht der Weg mit DVI-HDMI Adapter?!
Und wie kommt bittesehr Dolby Digital Sound über HDMI aus der Karte??
Daserscheint mir jetzt gerade ziemlich schleierhaft.
Da ist schon der Adapter gemeint. ATI verwendet irgendwelche im HDMI-Betrieb ungenutzten Pins als Audio-Ausgang. Geht aber nur bei ATI und nur mit dem ATI-Adapter.
sammler275
2008-06-15, 22:08:01
Da ist schon der Adapter gemeint. ATI verwendet irgendwelche im HDMI-Betrieb ungenutzten Pins als Audio-Ausgang. Geht aber nur bei ATI und nur mit dem ATI-Adapter.
Hört sich gut an, leider gab es über diesen Weg bei mir keinen Sound.
Mein Pioneer Plasma 428XD hat leider auch kein "echtes" HDMI-Signal erkannt, sondern ein DVI-Signal ohne Ton. Oder wird Ton auch tatsächlich nur bei HDCP-kopiergeschütztem Material wiedergegeben?
By the way: Bioshock-Benchmarkwerte sind im ersten Posting zu finden. ;)
Jetzt werd ich mal für euch CoH testen.
Chris2CB
2008-06-15, 22:22:54
Wohl im CCC eingestellt nur obs auch vorhanden ist?????
Hört sich gut an, leider gab es über diesen Weg bei mir keinen Sound.
Mein Pioneer Plasma 428XD hat leider auch kein "echtes" HDMI-Signal erkannt, sondern ein DVI-Signal ohne Ton. Oder wird Ton auch tatsächlich nur bei HDCP-kopiergeschütztem Material wiedergegeben?
Man muß den HDMI Soundtreiber installieren von AMD.
Schlammsau
2008-06-15, 22:29:51
Hört sich gut an, leider gab es über diesen Weg bei mir keinen Sound.
Mein Pioneer Plasma 428XD hat leider auch kein "echtes" HDMI-Signal erkannt, sondern ein DVI-Signal ohne Ton. Oder wird Ton auch tatsächlich nur bei HDCP-kopiergeschütztem Material wiedergegeben?
By the way: Bioshock-Benchmarkwerte sind im ersten Posting zu finden. ;)
Jetzt werd ich mal für euch CoH testen.
HAmmer Bioschock Wert! :eek:
sammler275
2008-06-15, 22:44:12
da war kein AA aktiv
Habs zumindest im CCC eingestellt: 4xAA / 16x AF
Also die Grafikpracht haut mich schon voll aus den Socken!!!!!
Das ist ja noch krasser wie der türkische Sensationssieg eben!!! :D :D
So - ich bin nun im Bett. Gute Nacht!
jupp bei Call of Juarez mußt du die dx10 exe nehmen glaub ich und im Menu einschalten.
sammler275
2008-06-15, 22:47:22
jupp bei Call of Juarez mußt du die dx10 exe nehmen glaub ich und im Menu einschalten.
Hab ich doch, aber beim Start kam direkt ein Fehler.. naja - mal gucken.
Leider fehlen Vergleichswerte, aber sieht doch nett aus.
Habs zumindest im CCC eingestellt: 4xAA / 16x AF
Also die Grafikpracht haut mich schon voll aus den Socken!!!!!
Das ist ja noch krasser wie der türkische Sensationssieg eben!!! :D :D
So - ich bin nun im Bett. Gute Nacht!
HALLO! AA/AF IM GAME MENU EINSTELLEN! Nicht im CCC.
w0mbat
2008-06-15, 23:57:04
Geht bei BS nicht!
@jupp99: Kannst du bitte mal das neue GPU-Z 0.2.4 runterladen und eine Validation damit machen (ein Screen würde auch reichen)? Danke.
http://www.techpowerup.com/downloads/1104/TechPowerUp_GPU-Z_v0.2.4.html
Super Grobi
2008-06-16, 00:02:21
Schade das der TS nur ein "guckloch" TFT hat. Bioshock hätte mich mit 1680x1050 interessiert. Meiner Erfahrung nach lutscht eine 16:10 Auflösung schon deutlich mehr an der Graka! Die 70 FPS finde ich jetzt nicht sooooooooo doll.
Aber 16:10 schluckt bestimmt mehr Vram? Da würde man dann die Nachteile von dem schlappen (eh ne Frechheit ;)) 512MB spüren bei HQ Settings @ 1680x1050. (???)
SG
mit pci-e 2.0 board wäre es bissl interessanter eigentlich
http://www.computerbase.de/artikel/hardware/mainboards/2008/kurztest_intel_p45_eaglelake/
Die 70 FPS finde ich jetzt nicht sooooooooo doll.
SG
Ist auch eine andere Stelle wo gebencht wird, als die im Bioshockbenchthread.
Was soll am P45 interessanter sein? Hier wird ne Einzelkarte gebencht. Und an Supergrobi: Die Ati`s sind im Vram Verbrauch genügsamer als die Nvidia Pedants. Gute Nacht, hoffe morgen gibts mehr benches.
Dicker Igel
2008-06-16, 03:22:59
Habs zumindest im CCC eingestellt: 4xAA / 16x AF
Unter DX10 geht kein AA, nur unter DX9. Dafür in der Commandline -dx9 zufügen.
...\BioShock\Builds\Release\Bioshock.exe -DX9
8xAA wäre da auch interessant :)
Schlammsau
2008-06-16, 07:44:51
Also ich muss sagen, die bisherigen Benchen liegen voll in meinen Erwartungen.
Bei dem Idle Verbrauch, bin ich aber noch ein wenig skeptisch! Da scheint noch etwas stark im argen zu sein! Höchstwahrscheinlich Treiberproblem!
Majestic
2008-06-16, 08:01:01
Nette kleine Karte. Hab den Thread leider nur überfliegen können, wie schnell ist Karte ungefähr im vergleich zur GF8800GTS oder 9800GTX ?
Schlammsau
2008-06-16, 08:03:36
Nette kleine Karte. Hab den Thread leider nur überfliegen können, wie schnell ist Karte ungefähr im vergleich zur GF8800GTS oder 9800GTX ?
Ziemlich genau 9800GTX Niveau würd ich sagen!
Also ich muss sagen, die bisherigen Benchen liegen voll in meinen Erwartungen.
Bei dem Idle Verbrauch, bin ich aber noch ein wenig skeptisch! Da scheint noch etwas stark im argen zu sein! Höchstwahrscheinlich Treiberproblem!
Vielleicht will AMD/ATi ja den Anreiz für Ihr PowerXpress erhöhen :uroll:
ciao
Alex
Schlammsau
2008-06-16, 09:10:35
Vielleicht will AMD/ATi ja den Anreiz für Ihr PowerXpress erhöhen :uroll:
ciao
Alex
80° Grad im Idle deuten schon sehr auf einen Fehler hin!
Mehr werden wir aber erst bei erscheinen der Reviews wissen!
Wartet doch erstmal den Launch am 25. Juni ab. Das ist sonst unfair, da die Treiber bis zum Start noch optimiert werden.
Schlammsau
2008-06-16, 09:29:29
Wartet doch erstmal den Launch am 25. Juni ab. Das ist sonst unfair, da die Treiber bis zum Start noch optimiert werden.
25 Juni ist noch so lange hin..... :(
80° Grad im Idle deuten schon sehr auf einen Fehler hin!
Mehr werden wir aber erst bei erscheinen der Reviews wissen!
Um was gehts jetzt ? Stromverbrauch, oder Temps ? Klar sind beide Werte miteinander verbunden, aber hohe Temps gibts auch durch nen schlechten Kühler / Wärmepaste. Letzteres scheint es im Falle der 4850 zu sein:
Some notes before the testing. The fan speed very low on the factory bios, I haven't been able to use any fan control to raise the speed so far. The temp is most likely fine even with an Idle of 79c but Being an XS'er I removed the factory thermal goop and replaced it with A.S. Ceramique. the idle temps are now 55c most of the time. That was a huge jump and I wonder if all of the cards suffer from this as I have seen rumors of other 4850's with similar temps (IE: FUD).
http://www.xtremesystems.org/forums/showpost.php?p=3059793&postcount=2
Ist zwar keine PowerColour Karte, aber der Unterschied der beiden Modelle dürfte nicht gerade riesig sein.
ciao
Alex
Schlammsau
2008-06-16, 10:16:22
Um was gehts jetzt ? Stromverbrauch, oder Temps ? Klar sind beide Werte miteinander verbunden, aber hohe Temps gibts auch durch nen schlechten Kühler / Wärmepaste. Letzteres scheint es im Falle der 4850 zu sein:
http://www.xtremesystems.org/forums/showpost.php?p=3059793&postcount=2
Ist zwar keine PowerColour Karte, aber der Unterschied der beiden Modelle dürfte nicht gerade riesig sein.
ciao
Alex
hm.....also wenn der Idle Verbrauch wirklich drei mal so hoch wie der einer 3870 sein sollte! Werd ich sie mir definitiv nicht holen!
Dann greif ich doch lieber zur 9800GTX wenn sie den die gleiche Leistung hat!
Nette kleine Karte. Hab den Thread leider nur überfliegen können, wie schnell ist Karte ungefähr im vergleich zur GF8800GTS oder 9800GTX ?
Etwas unterhalb 9800GTX, daher uninteressant. Die GTX kostet gleich, bietet bessere Bildqualität, weniger Stromberbrauch, wird nicht so heiss und hat den besseren Kühler.
Da die GTX um die 210 Euro kostet wird die HD4850 mit ca. 170-180 Euro deutlich günstiger sein. Zudem ist noch überhaupt nicht klar wieviel Watt die HD4850 verbraucht. Noch ist ein offizieller Launch. Also lieber mal abwarten bis die Karte offiziel vorgestellt wurde es erste Test mit den neuesten Treibern gibt und dann wird man sich ein Bild machen können.
Und das bisschen bessere AF was die NVidia Karte bietet, da kann sich jetzt jemand einen runterholen wer will.
Dicker Igel
2008-06-16, 10:36:56
Also ich muss sagen, die bisherigen Benchen liegen voll in meinen Erwartungen.
Bei dem Idle Verbrauch, bin ich aber noch ein wenig skeptisch! Da scheint noch etwas stark im argen zu sein! Höchstwahrscheinlich Treiberproblem!
Ich denke auch das die Karte durch den Beta Treiber noch nicht richtig runtertaktet.
Wenn die 4870 nicht viel schneller ist und die 4850 mal 150€ kostet, könnte ich mir 2 davon vorstellen ;D
Ach ja, und so wie es bisher aussieht wird sie wohl min. gleiches Niveau haben was die Performance betrifft.
Und dann für ca. 300 Euro einen GTX280 wegballern ;)
hm.....also wenn der Idle Verbrauch wirklich drei mal so hoch wie der einer 3870 sein sollte! Werd ich sie mir definitiv nicht holen!
Dann greif ich doch lieber zur 9800GTX wenn sie den die gleiche Leistung hat!
Wartet doch erstmal den Launch am 25. Juni ab. Das ist sonst unfair, da die Treiber bis zum Start noch optimiert werden.
Ich weiß, es ist schwer :)
Dicker Igel
2008-06-16, 11:00:09
Ich hab jedenfalls keine Probleme bis September/November zu warten. Bis dahin sollten die Treiber funktionieren und die Preise auch ok sein.
Kurz nach Release kauf ich nie irgendwelche HW.
Lokn4r
2008-06-16, 11:59:15
Ich hab jedenfalls keine Probleme bis September/November zu warten. Bis dahin sollten die Treiber funktionieren und die Preise auch ok sein.
Kurz nach Release kauf ich nie irgendwelche HW.
Jup, so isses :) Die kommenden Tage/Wochen werden beide seiten damit zubringen, ihre ausstehenden Hausaufgaben zu machen und mit den diversen Entwicklern aufkommende Probleme zu klären. Gegen Ende der Sommerzeit werden dann genauere Relationen kenntlich sein.
Sollte das Problem der Microruckler ohne große Performanceeinbußen aus der welt sein, ist die Welt eh eine Neue :)
Btw. ;) Vielen Dank Jupp, hat sicher Menge Schweiß und Nerven gekostet
Schlammsau
2008-06-16, 12:01:29
Für maximal 170€ würde eine 4850 - 512MB auch einen neuen Besitzer haben! :smile:
Vorrausgesetzt sie hat mindestens 9800GTX Leistungsniveau und deutlich weniger Idle Stromverbrauch!
Beim ersten Punkt bin ich mir absolut sicher, dass er zutrifft! Beim zweiten eigentlich auch, aber die Messungen von Jupp99.....
Sch**** NDA!!!!!!!
Da die Platine vom HD4850 die selbe ist wie beim HD3850 kannst du mit einem geringfügig höheren Idle Verbrauch wie bei der 3850 rechnen. Das es momentan mit den jetzigen Treibern evtl. auch Bios noch nicht funzt macht mich nicht weiter nervös.
Für maximal 170€ würde eine 4850 - 512MB auch einen neuen Besitzer haben! :smile:
Vorrausgesetzt sie hat mindestens 9800GTX Leistungsniveau und deutlich weniger Idle Stromverbrauch!
Beim ersten Punkt bin ich mir absolut sicher, dass er zutrifft! Beim zweiten eigentlich auch, aber die Messungen von Jupp99.....
Sch**** NDA!!!!!!!
Treiberproblem (Idle-Verbrauch).
Oh, und ich bin mir sicher, dass die Karte dann einen neuen Besitzer hat. Nämlich mich! Die Leistung wird mit dem Catalyst 8.7 noch etwas besser, auf jedenfall über 9800 GTX.
Weil ich grade auf den GPU-Z Screeny geschaut habe. Kann man jetzt davon ausgehen dass der Shadertakt wieder gleich dem Core Takt ist. Gab ja malGerüchte dass sie den shadertakt enkoppelt haben. Oder kann das GPU-Z nur noch nicht auslesen bei ner Karte die noch nicht auf dem Markt ist?
Weil ich grade auf den GPU-Z Screeny geschaut habe. Kann man jetzt davon ausgehen dass der Shadertakt wieder gleich dem Core Takt ist. Gab ja malGerüchte dass sie den shadertakt enkoppelt haben. Oder kann das GPU-Z nur noch nicht auslesen bei ner Karte die noch nicht auf dem Markt ist?
Nee stimmt schon ist 1:1 mit dem Core
Und wieviel Shaderprozessoren?
Ich hätte gerne möglichst vergleichbare (ich weiss, 4GHz Quadcore wird nicht möglich sein) Benchmarkergebnisse im Vergleich zum GTX280 Review von Computerbase:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/
MfG!
Schade, dass in dem Review der Catalyst 8.3 genommen wurde. Der Catalyst 8.5 ist in den Tests von ComputerBase deutlich schneller, wenn auch der RV670 nicht als Konkurrent zur G200 antritt.
uweskw
2008-06-16, 16:00:08
also wenn ich das richtig sehel, iege ich mit zwei 4850 doch schon ÜBER über dem Niveau einer GTX 280, oder nicht?
Dicker Igel
2008-06-16, 16:15:48
So wird's sein (hoffentlich).
kokett
2008-06-16, 16:22:01
also wenn ich das richtig sehel, iege ich mit zwei 4850 doch schon ÜBER über dem Niveau einer GTX 280, oder nicht?
ich würd sagen ungefähr gleich, aber das kann sich in den kommenden 2 monaten in beide richtungen (nach oben oder nach unten) durch neue treiber auf beiden seiten verändern. du hast leider auch noch die crossfire probleme bei 2 4850ern. ich warte mal bis sich ende juli die verfügbarkeit und preise stabilisiert haben und kaufe mir evtl. eine hd4850x2.
ich hab allerdings noch eine Frage an jupp99:
Warum hast du denn von einer einzelnen 8800GTS 512MB auf eine 4850 gewechselt ? Leistungsmäßig ist es ja zumindest jetzt nicht so ein riesig großer sprung und du hast noch relativ viel für die hd4850 bezahlt, wenn du noch 4 wochen gewartet hättest, wärst du doch besser weggekommen und was die GTS nicht sauber spielbar gemacht hat, läuft doch jetzt auch nicht perfekt, oder ? Oder hattest du eine "alte" GTS mit 320mb ?
sei laut
2008-06-16, 17:28:37
http://www.pcgameshardware.de/aid,647694/News/3DCenterde_User-Test_der_Radeon_HD_4850/
X-D
Schlammsau
2008-06-16, 17:34:31
http://www.pcgameshardware.de/aid,647694/News/3DCenterde_User-Test_der_Radeon_HD_4850/
X-D
ich glaube ich spinne, was soll man davon halten?
Jupp99, könntest du bitte noch einmal den AF-Tester mit 8xAF durchlaufen lassen? Danke!
sammler275
2008-06-16, 17:54:36
Hey Leute,
das ist bis jetzt die KRÖNUNG!!! :D :D
.. meine absoluten Anfänger-Werte bei PCGames Hardware bestaunen zu können.. haha - ich finds lustig :D
Warum ich von ner 8800 GTS G92 auf die ATI 4850 umgestigen bin?
Ganz einfach: Habe die 8800 gerade erst bekommen und werde sie nun logischerweise wieder zurückschicken. ;)
Heute ist auch endlich meine 1TB Samsung HDD gekommen, so dass ich gleich nochmal ein frisches Vista installieren kann und direkt nochmal den Catalyst 8.6 Beta ausprobieren werde.
Ronny145
2008-06-16, 17:59:08
"Der User jupp99 hatte nach eigener Aussage..."
Du bist berühmt :biggrin:
Schlammsau
2008-06-16, 18:01:46
Hey Leute,
das ist bis jetzt die KRÖNUNG!!! :D :D
.. meine absoluten Anfänger-Werte bei PCGames Hardware bestaunen zu können.. haha - ich finds lustig :D
Warum ich von ner 8800 GTS G92 auf die ATI 4850 umgestigen bin?
Ganz einfach: Habe die 8800 gerade erst bekommen und werde sie nun logischerweise wieder zurückschicken. ;)
Heute ist auch endlich meine 1TB Samsung HDD gekommen, so dass ich gleich nochmal ein frisches Vista installieren kann und direkt nochmal den Catalyst 8.6 Beta ausprobieren werde.
Probiere bitte mal den Beta Treiber aus!
Mir ist vor allem der Idle Verbrauch wichtig! Kanns irgendwie nicht glauben dass er höher als der einer GTS liegen soll!
Und bench mal bitte Devil May Cry mit diesen (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=420636) Settings.
Damit wir auch gut vergleichen können!
Wie sieht die Performance mit VRAM Über/Untertaktung aus?
Schlammsau
2008-06-16, 18:12:35
Wie sieht die Performance mit VRAM Über/Untertaktung aus?
Warum VRAM Untertaktung?
@jupp99: du willst die Karte nicht zufällig wieder los werden?
hätte starkes interesse an der Karte, falls nicht könnst du noch mal zu dem Händler gehen und mir auch eine besorgen.
bitte, bitte, bitte
Könnte die Karte auch ganz gut für nen Test in meinem Forum brauchen
Warum VRAM Untertaktung?
Als Notlösung, wenn er nicht übertakten kann/will. ;)
Als Notlösung, wenn er nicht übertakten kann/will. ;)
wäre auch interessant zu sehen wieviel bei dem chip mehr speicherbandbreite bringt, die steigerung müsste ja enorm sein, ansonsten würde amd wohl kaum gddr5 memory auf der hd 4870 verbauen
Zum PCGH-Artikel: Ehre wem Ehre gebührt. Ich gönne dem Jupp den Platz an der Sonne. So, jetzt noch weitere gamebenches, please!
sammler275
2008-06-16, 18:49:28
Merci ;)
Die frische Vista-Installation ist gerade in den letzten Zügen..
Dann kommen neue Benches.
tombman
2008-06-16, 18:59:42
Merci ;)
Die frische Vista-Installation ist gerade in den letzten Zügen..
Dann kommen neue Benches.
Gibts ne Möglichkeit irgendwie vantage extreme Werte zu produzieren? Kannst du 1920x1200 irgendwie fahren?
RainingBlood
2008-06-16, 19:09:34
Zum PCGH-Artikel: Ehre wem Ehre gebührt. Ich gönne dem Jupp den Platz an der Sonne. So, jetzt noch weitere gamebenches, please!
das wohl schlechteste, was sich PCGH je erlaubt hat. Mein "Kompliment" an den Autor für den Quatsch. :|
sammler275
2008-06-16, 19:14:11
Also der aktuellste Beta-Catalyst funktioniert schonmal. Installiere nun nochmal Vantage.
Schlammsau
2008-06-16, 19:18:41
Also der aktuellste Beta-Catalyst funktioniert schonmal. Installiere nun nochmal Vantage.
Hat sich der Idle Stromverbrauch geändert?
Benche auch bitte mal DMC 4.
sei laut
2008-06-16, 19:32:17
das wohl schlechteste, was sich PCGH je erlaubt hat. Mein "Kompliment" an den Autor für den Quatsch. :|
Als Bestätigung für Jupp langts. Das Ganze wird jemand schnell zusammengeschrieben haben, beim Launch der GT 200 Serie haben die anderes im Kopf.
Also der aktuellste Beta-Catalyst funktioniert schonmal. Installiere nun nochmal Vantage.
Versuch mal die Karte mit RIvatuner leicht zu übertakten.Vielleicht sind ja bei der GPu 725 mhz drinn.Dann hast du ne 4870.
Devil may cry Benchmark ist schnell gezogen 400 mb.
http://4players.de/4players.php/download_info/PC-CDROM/Download/48828.html
Versuch mal die Karte mit RIvatuner leicht zu übertakten.Vielleicht sind ja bei der GPu 725 mhz drinn.Dann hast du ne 4870.
Quatsch er brauch 750mhz Core und 1800mhz Mem (real) das ist UNMÖGLICH ;)
jupp könnte Overdrive nutzen das geht bis 700mhz für Core und Mem sind evt. 1100 drin...maybe
Dicker Igel
2008-06-16, 20:16:37
Gibts ne Möglichkeit irgendwie vantage extreme Werte zu produzieren? Kannst du 1920x1200 irgendwie fahren?
Höhere Auflösungen mit 8xAA wären echt interessant.
sammler275
2008-06-16, 20:37:25
1920x1080 könnte ich mal mit meinem Plasma probieren, aber nun wird erstmal Deutschlands Viertelfinal-Einzug angeschaut ;)
Seite 1 ist aktualisiert..
x-dragon
2008-06-16, 20:46:14
Gibt gerade eine neue Version von GPU-Z:
http://www.techpowerup.com/downloads/1104/TechPowerUp_GPU-Z_v0.2.4.html
Deine Werte von Seite 1 scheinen mir auch etwas niedrig im Vergleich zu meiner alten 7900 GTO ...
Hermann0260
2008-06-16, 21:10:52
Hier mal meine 4850 mit 3DM06
[http://www.abload.de/image.php?img=hd4850_690_1138_x4_1isg.jpg
tombman
2008-06-16, 21:14:10
Hier mal meine 4850 mit 3DM06
[http://www.abload.de/image.php?img=hd4850_690_1138_x4_1isg.jpg
BITTE mach mal VANTAGE EXTREME, danke.
davidzo
2008-06-16, 22:05:30
BITTE mach mal VANTAGE EXTREME, danke.
was interessiert dich eigentlich den rv770? ich denke du hast deine traumkarte schon vor monaten gefunden. lass doch lieber die leute die immerhin interesse an der sache haben vorschlagen wass jupp denn mal benchen könnte. Ich finde 3dmurks ziemlich unwichtig wenn ich erhlich bin, viel wichtiger finde ich gängige dx10 spiele in 1680 mit FSAA und aniso.
@Jupp: Keep up te good work! Find ich toll was du hier machst!
hab ich das irgendwie übersehen oder hattest du bereits crysiswerte mit der gts gebencht? wäre nämlich cool zum vergleich gewesen. naja ansonsten finde ich coh@dx10 max details und Assassin's Creed @max mal interessant.
weiter könnte man über Rainbowsix vegas, gothic3, fear, world in conflict und UT3 nachdenken. Sicherlich sind alle diese games für dich zuviel, aber vielleicht hast du ja eines davon herumliegen.
tomsen
2008-06-16, 22:16:43
3Dmark ist für den Af..r! Naja, es gibt hier scheinbar Leute die sowas brauchen, um sich dran aufzugeilen. ;D
Wie man aus solchen Werten überhaupt Schlüsse ziehen kann ist völlig unverständlich.
Ich will mehr Ingame Verlgeiche sehen. Am besten mit Vergleiche zu Jupps 8800GTS! :rolleyes:
was interessiert dich eigentlich den rv770? ich denke du hast deine traumkarte schon vor monaten gefunden. lass doch lieber die leute die immerhin interesse an der sache haben vorschlagen wass jupp denn mal benchen könnte. Ich finde 3dmurks ziemlich unwichtig wenn ich erhlich bin, viel wichtiger finde ich gängige dx10 spiele in 1680 mit FSAA und aniso.
@Jupp: Keep up te good work! Find ich toll was du hier machst!
hab ich das irgendwie übersehen oder hattest du bereits crysiswerte mit der gts gebencht? wäre nämlich cool zum vergleich gewesen. naja ansonsten finde ich coh@dx10 max details und Assassin's Creed @max mal interessant.
weiter könnte man über Rainbowsix vegas, gothic3, fear, world in conflict und UT3 nachdenken. Sicherlich sind alle diese games für dich zuviel, aber vielleicht hast du ja eines davon herumliegen.
Lass doch mal das angiften...
Vantage Extreme wäre sicher interessant, schließlich wird die HD4850 gegen die ganze G92 Riege antreten. Und da is 1680*1050@4xAA ausschlaggebend. Mit Extreme zeigt die Karte ob sie die Reserven hat für die Zukunft oder ob ihr schon die Puste ausgeht.
Hermann0260
2008-06-16, 23:43:55
Hier meine HD4850 beim Vantage in Extrem (1920x1200)
http://www.abload.de/img/hd4850_690_1138_x4_1t5c.jpg
Hui, da stehen ja die 800 Shader
Ronny145
2008-06-17, 00:01:45
Hier meine HD4850 beim Vantage in Extrem (1920x1200)
http://www.abload.de/img/hd4850_690_1138_x4_1t5c.jpg
9800 GX2 Niveau. Gar nicht so übel.
Sieht ja gut aus, mit Core 2 Extreme QX9770 4Ghz kommt CB auf 3087 mit der GX2. Oder sehe ich das falsch?
Auch die 800 Shader stimmen wohl.
Dicker Igel
2008-06-17, 00:05:25
@ Hermann0260
THX, könntest Du bitte noch Bioshock (DX9) in 1680x1050 mit 8X EdgeAA/16XAF /SSAAA mit FRAPS benchen (Anfangsszene vom Turm zum Feuer schauen) ?
3Dmark ist für den Af..r! Naja, es gibt hier scheinbar Leute die sowas brauchen, um sich dran aufzugeilen. ;D
Klar ist 3dMurks Rotz aber zum vergleichen manchmal brauchbar :o)
Hermann0260
2008-06-17, 00:07:42
Im Vantage Performance hat sie bei den gleichen Einstellungen 6901 Punkte. Gesamt P7403
Meine HD3870 dagegen 4611 und P5293
Hui, da stehen ja die 800 Shader
Aber kein shaderclock?
Magicable
2008-06-17, 01:04:35
@Hermann0260
Vielen Dank
Wie sind bei dir die Temps idle und unter Last ?
tombman
2008-06-17, 03:15:28
was interessiert dich eigentlich den rv770? ich denke du hast deine traumkarte schon vor monaten gefunden. lass doch lieber die leute die immerhin interesse an der sache haben vorschlagen wass jupp denn mal benchen könnte.
DU machst MIR ganz sicher keine Vorschriften was ich vorschlagen darf...
@Hermann, thx ;)
Hier meine HD4850 beim Vantage in Extrem (1920x1200)
http://www.abload.de/img/hd4850_690_1138_x4_1t5c.jpg
9800 GX2 Niveau. Gar nicht so übel.
Die war overclockt, nur so zur Info. (690 core!)
Und wenn er noch ein bischen weiter overclockt kommt er auf ~HD4870 und ~X3500 ;)
Weit, weit weg von der GTX280 ... (X4800).
@Hermann, jetzt fehlt noch Crysis @ 1920x1200, VERY HIGH + 4xAA, GPU BENCHMARK
Danke.
DU machst MIR ganz sicher keine Vorschriften was ich vorschlagen darf...
@Hermann, thx ;)
Die war overclockt, nur so zur Info. (690 core!)
Und wenn er noch ein bischen weiter overclockt kommt er auf ~HD4870 und ~X3500 ;)
Weit, weit weg von der GTX280 ... (X4800).
@Hermann, jetzt fehlt noch Crysis @ 1920x1200, VERY HIGH + 4xAA, GPU BENCHMARK
Danke.
genau und er ist so nah wie noch nie an der 280gtx dran,man sieht ja das das treiber gefake im 3d mark nichts genutzt hat (damals die 4100).im wirklichen leben kann die 280gtx sich nicht mal gegen eine gx2 absetzen die gerade mal 3600 punkte;)
tombman
2008-06-17, 06:00:33
.im wirklichen leben kann die 280gtx sich nicht mal gegen eine gx2 absetzen die gerade mal 3600 punkte;)
Durchschnitt aller Werte bei computerbase. Kein Speicherlimit bei der GX2 bei dieser Auflösung.
http://www.abload.de/img/ratingp3f.jpg
Man sagt doch, eine HD4870 ist so schnell wie eine alte X2, oder? Dann fehlen immer noch 29% auf die GTX280 im Durchschnitt.
Daredevil
2008-06-17, 06:23:46
Schaumal wie toll SLI skaliert in der Rubrik.
9800GTX:100%
GX2:139%
Unter 1600x1200 sinds 155%, deutlich größerer Unterschied.
Da wird wohl entweder der VRam am lutschen sein oder SLI mag nicht so.
Nimm dann doch lieber das hier.
http://img3.imagebanana.com/img/2ku16syo/Clipboard02.jpg
tombman
2008-06-17, 06:29:22
Die GX2 besteht auch nicht aus 2x 9800GTX, also stimmen deine 100% schon mal nicht. Die GX2 ist sogar langsamer als die GTS512 getaktet...
Und wenn sich deine 100% ändern, dann verbessert sich auch sofort deine SLI Skalierung ;)
Daredevil
2008-06-17, 06:53:46
Joa aber die 4870 besteht nicht aus 2x 3870 mit 512MB.
Denn die 3870x2 knickt in manchen tests ganz schön ein wegen ihres VRams, in solchen Highend Settings.
Zudem wurd dort auchnicht mit dem 8.5er gebencht welcher z.t. ordentlich Leistung gebracht hat, siehe Hier (http://www.computerbase.de/news/treiber/grafikkarten/ati/2008/mai/ati_catalyst_85_dx10/) .
So lässt sich feststellen, dass der Catalyst 8.5 eine moderne Grafikkarte aus dem Hause ATi um durchschnittlich 12 Prozent schneller als zuvor rendern lässt.
Natürlich nicht bei jedem Spiel das ist klar... aber es lässt den Unterschied zwischen GTX280 und 3870x2 ( Wenn die so schnell wie eine 4870 sein sollte ) bedeutend kleiner werden.
Schlammsau
2008-06-17, 07:29:23
Durchschnitt aller Werte bei computerbase. Kein Speicherlimit bei der GX2 bei dieser Auflösung.
http://www.abload.de/img/ratingp3f.jpg
Man sagt doch, eine HD4870 ist so schnell wie eine alte X2, oder? Dann fehlen immer noch 29% auf die GTX280 im Durchschnitt.
Was hast du nur mit deinem Vergleich zur 280GTX? Es hat doch niemand behauptet das die 4870 auf Niveau einer doppelt so teuren Karte ist! :|
Oder willst du unbedingt 100%ig sicher sein, den längsten zu haben?
Daredevil
2008-06-17, 07:40:10
Ati Leistungskrone vs. Nvidia Leistungskrone
Darum gehts.
Das das P/L Verhältniss wahrscheinlich besser sein wird bei ATI ist klar.
Aber ihr beide habt unterschiedliche Phillosophien, der eine kauft Highend und der andere Preis/Leistung :)
sei laut
2008-06-17, 09:24:40
Quatsch, Tombman bereitet sich schon auf sein Hybrid Sli System mit 3 280GTX vor.
Allerdings habe ich auch ein Auge, ein großes, auf die 4870 geworfen. AMD scheint einiges richtig gemacht zu haben, vielleicht vorallem, weil sie nicht auf High End setzen, sondern direkt im Mid/Low End Sektor angreifen.
Schlammsau
2008-06-17, 09:32:08
Ich werd mich nur freuen, wenn ich mir mal ein CF aus 2 HD4850 bastel, und für ein viertel des Preises, den gleichen Spass wie er haben werde! ;D
Auf Crysis DX10@Very High sch**** ich! DX9@Very High sieht genauso gut aus, und performt doppelt so gut!
Wenn er so die Wirtschaft ankurbeln will und damit gut schlafen kann. Soll er es tun! Das muss jeder selbst für sich entscheiden!
Ich wüsste mit dem Geld sinnvollere Dinge anzufangen! Wie z.B. mit meiner Freundin essen zu gehen, schöne Klamotten zu kaufen, oder einfach nen Wellnesswochenende, etc..... :)
Also hau ein Ei drauf.
Schlammsau
2008-06-17, 09:33:10
Quatsch, Tombman bereitet sich schon auf sein Hybrid Sli System mit 3 280GTX vor.
Allerdings habe ich auch ein Auge, ein großes, auf die 4870 geworfen. AMD scheint einiges richtig gemacht zu haben, vielleicht vorallem, weil sie nicht auf High End setzen, sondern direkt im Mid/Low End Sektor angreifen.
Mich reizt die 4850 am meisten!
finds auch sehr gut, dass sie sich vor allem auf den Performance Bereich konzentrieren. Dort wo das meiste Geld ihren Besitzer wechselt!
Hey Tombman vergleicht eine HD4850/70 mit einer GTX280. Das lässt tief blicken... Muss mir den Test der 280iger anschauen, aber wenn Tomb das schon mit ner Low/Midrange Karte von ATI vergleicht muss ich ja derbe schlecht sein.
Durchschnitt aller Werte bei computerbase. Kein Speicherlimit bei der GX2 bei dieser Auflösung.
http://www.abload.de/img/ratingp3f.jpg
Man sagt doch, eine HD4870 ist so schnell wie eine alte X2, oder? Dann fehlen immer noch 29% auf die GTX280 im Durchschnitt.
nein, als MINIMUM wurde 3870x2 leistung angenommen für die 4870. naja, ich denke das wird sie auch erreichen. wenn ich sehe was bei der 3870 der zusätzliche speichertakt bringt (GDDR3!) dann wird die 4870er im vergleich zu seiner übertakteten 4850er doch noch 25% drauf legen...
Durchschnitt aller Werte bei computerbase. Kein Speicherlimit bei der GX2 bei dieser Auflösung.
http://www.abload.de/img/ratingp3f.jpg
Man sagt doch, eine HD4870 ist so schnell wie eine alte X2, oder? Dann fehlen immer noch 29% auf die GTX280 im Durchschnitt.
ach und übrigens... du schreist doch sonst immer wegen der verwendeten CPU... er verwendet nen phenom 2950mhz... super vergleich zum quadcore 4ghzer....
aber wenn Tomb das schon mit ner Low/Midrange Karte von ATI vergleicht muss ich ja derbe schlecht sein.
Seit wann sind 329$ Karten (4870) Low-End?
Ati Leistungskrone vs. Nvidia Leistungskrone
Darum gehts.
ATI hat die Leistungskrone schon sicher. Die 4870X2 (oder 4890?) wird die GTX280 plattmachen.
Übrigens, der R700 benutzt intern kein Crossfire und hat auch keine Mikroruckler, das wurde in einem Interview mit AMD bestätigt.
Übrigens, der R700 benutzt intern kein Crossfire und hat auch keine Mikroruckler, das wurde in einem Interview mit AMD bestätigt.
Das wär der Hammer wenn die die MR schneller weg bekommen als NV =)
Schlammsau
2008-06-17, 15:14:19
Seit wann sind 329$ Karten (4870) Low-End?
"Low End" nicht, aber "Performance"!
Das wär der Hammer wenn die die MR schneller weg bekommen als NV =)
Ich bezweifle das die MR bei echten 2 Karten schnell behoben werden kann!
Aber bei der X2 oder 4890 kann ich mir schon vorstellen, dass ATi zaubert!
"Low End" nicht, aber "Performance"!
Dann hat der werte Gast sich in der Wortwahl geirrt.
Also 150€ (8800 GTS) vs 329$ (4870) vs 399$/280€ (GTX 260)
@Unyu,
schaut mal hier: http://www.forumdeluxx.de/forum/show...83#post9309783
da zersägt ein HD4850 Crossfire gespann eine GTX280 ;)
Ich bezweifle das die MR bei echten 2 Karten schnell behoben werden kann!
Aber bei der X2 oder 4890 kann ich mir schon vorstellen, dass ATi zaubert!
Ich meinte ja die X2 4870 ;)
Dicker Igel
2008-06-17, 15:50:40
@Unyu,
schaut mal hier: http://www.forumdeluxx.de/forum/show...83#post9309783
da zersägt ein HD4850 Crossfire gespann eine GTX280 ;)
http://www.forumdeluxx.de/forum/showthread.php?t=500923
apropo microruckler
hier wäre die vernünftigste lösung wohl eine, die in die hardware integriert ist.
Denke das wäre vom Prinzip her auch nicht so schwer.
Hier mein Lösungsansatz.
Man nehme zwei Karten, schließe sie über Crossfire zusammen (besser natürlich über zwei Brücken für mehr Bandbreite), bzw. man zweigt sich 4 oder 8 PCI-E Bahnen ab und nutzt diese für die Kommunikation der Karten (noch mehr Bandbreite zwischen den Karten).
Danach setze man auf beide Karten einen Controller, der die Karte entweder als Master oder Slave konfiguriert.
Und jetzt kommt der Trick:
Alle fertig gerenderten Bilder werden in, sagen wir mal 128 Mb GDDR5 Ram, auf der Master Karte zwischengespeichert (die Slave Karte muss natürlich Baugleich zur Master Karte sein,aprich ebenfalls über diesen ram vefügen. ansonsten müsst man ja zwei unterscheidliche Produkte kaufen). Und werden von einem Kontorller erst nach einem gewissen Zeitintervall zur Ausgabe freigegeben.
Und vola, das lästige Thema Mikroruckler ist in die ewigen JAgdgründe verbannt
@Unyu,
schaut mal hier: http://www.forumdeluxx.de/forum/show...83#post9309783
da zersägt ein HD4850 Crossfire gespann eine GTX280 ;)
Wo ist da die GTX 280 zum Vergleich?
DrFreaK666
2008-06-17, 16:58:02
Hier gibt es übrigens eine "Powercolor HD4850 512mb GDDR3 Retail" für 179€.
Anscheinend auf Lager
http://powerpointonline.de/product_info.php/info/p444_Powercolor-HD4850-512mb-GDDR3-Retail.html
Hier gibt es übrigens eine "Powercolor HD4850 512mb GDDR3 Retail" für 179€.
Anscheinend auf Lager
http://powerpointonline.de/product_info.php/info/p444_Powercolor-HD4850-512mb-GDDR3-Retail.html
Jup da hat der User aus dem Forumluxx die auch her :)
DrFreaK666
2008-06-17, 17:26:07
Jup da hat der User aus dem Forumluxx die auch her :)
Ich weiss, von dort hab ich den Link :biggrin:
apropo microruckler
hier wäre die vernünftigste lösung wohl eine, die in die hardware integriert ist.
Denke das wäre vom Prinzip her auch nicht so schwer.
Hier mein Lösungsansatz.
Man nehme zwei Karten, schließe sie über Crossfire zusammen (besser natürlich über zwei Brücken für mehr Bandbreite), bzw. man zweigt sich 4 oder 8 PCI-E Bahnen ab und nutzt diese für die Kommunikation der Karten (noch mehr Bandbreite zwischen den Karten).
Danach setze man auf beide Karten einen Controller, der die Karte entweder als Master oder Slave konfiguriert.
Und jetzt kommt der Trick:
Alle fertig gerenderten Bilder werden in, sagen wir mal 128 Mb GDDR5 Ram, auf der Master Karte zwischengespeichert (die Slave Karte muss natürlich Baugleich zur Master Karte sein,aprich ebenfalls über diesen ram vefügen. ansonsten müsst man ja zwei unterscheidliche Produkte kaufen). Und werden von einem Kontorller erst nach einem gewissen Zeitintervall zur Ausgabe freigegeben.
Und vola, das lästige Thema Mikroruckler ist in die ewigen JAgdgründe verbannt
Es geht bei den Mikrrrucklern nicht nur darum wann das bild kommt sondern auch was drauf ist!!!
sammler275
2008-06-17, 17:59:06
Hallo zusammen,
tja, jetzt scheint unsere süße kleine 4850 ja doch schon etwas besser verbreitet zu sein, insbesondere bei Jungs, die schon mittags aus der Schule kommen und somit viel mehr Zeit zum benchen und sicher auch mehr Ahnung haben, als ich. ;)
Da ich ja nun meinen Ruhm habe, werde ich mein Erbe vertrauensvoll in die Hände der Zockerboys legen und euch für Fragen selbstverständlich weiter zur Verfügung stehen.. :D
Bin gespannt, wie schnell ATI neue Treiber nachlegt und, ob sich der Stromverbrauch und die Taktwerte dann verändern. Von der Leistung her muss IMHO nicht mehr viel verbessert werden, ich bin rundum zufrieden und sehr glücklich mit diesem tollen Stück Hardware.
Wahrscheinlich hole ich mir noch diesen Accerero S1, damit das Schätzchen nicht noch eines Tages einen bösen Hitzetod stirbt und ich vllt. noch ein wenig mehr Ruhe beim Zocken habe. :)
foenfrisur
2008-06-17, 18:18:37
angeblich soll morgen der neue cat 8.6 kommen...mal abwarten ...wie immer ;D
thx jupp.
mfg
Schlammsau
2008-06-17, 19:00:47
http://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=421736
Wahrscheinlich hole ich mir noch diesen Accerero S1, damit das Schätzchen nicht noch eines Tages einen bösen Hitzetod stirbt und ich vllt. noch ein wenig mehr Ruhe beim Zocken habe. :)
Der Kollege im Luxxx hat gleich die Wärmeleitpaste gewechselt, kannst ja mal nach Temperaturwerten nachfragen. Eventuell reicht das schon, wenn Du auch nur die Paste wechselst.
ciao & nochmals Danke für die vielen Tests :)
Alex
foenfrisur
2008-06-17, 19:28:06
er schreibt da aber glaub ich, das der treiber die angeblich nicht auslesen kann...
mfg
er schreibt da aber glaub ich, das der treiber die angeblich nicht auslesen kann...
mfg
Bei Jupp gings doch auch, irgendwie sollte da also möglich sein :)
ciao
Alex
Ronny145
2008-06-17, 20:38:09
Die war overclockt, nur so zur Info. (690 core!)
Und wenn er noch ein bischen weiter overclockt kommt er auf ~HD4870 und ~X3500 ;)
Abwarten. Mal sehen wie viel die Karte in Vantage morgen mit dem Cat 8.6 Final zulegen kann. Aber die 4870 konkurriert ohnehin nicht mit der GTX 280. Wenn die Karte an die GTX 260 rankommt, wäre das schon super für AMD.
foenfrisur
2008-06-17, 21:54:29
http://www.benchbrothers.de/forum/thread.php?threadid=37&sid=
27k im 3dm´06
mfg
http://www.benchbrothers.de/forum/thread.php?threadid=37&sid=
27k im 3dm´06
mfg
Im Nature01 sind die ATIs immernoch grottig :(
Mark3Dfx
2008-06-17, 22:18:08
http://geizhals.at/deutschland/a344810.html
169,90€
rookz
2008-06-17, 22:36:53
Alles so unübersichtglich.
Hätte mal gerne gewusste, was eine einzelne 4850 gegen einen 800GTS oder 8800GTX ausrichtet.
Ist der coh test in dx10 mit allem auf max/ultra ?
Im Nature01 sind die ATIs immernoch grottig :(
Sind dort 880FPS@1024 wenig? Mir fehlt da der Vergleich (aber eigentlich auch unwichtig).
34500 bei 3DMark05@Default
27000 bei 3DMark06@Default (das ist höher als GTX280SLI, liegt aber wohl an der CPU)
System:
Intel Core 2 Extreme QX9650@5400MHz
HD4850 Crossfire
Hallo zusammen!
naja, das scheint wirklich an die CPU zu liegen (5,4 ghz) ist schon sehr hoch :) Ich habe in 3dmark Vantage ca. P5400 punkte und ihn 06 ca. 11500 Punkte.... mein sys: E2140 @ 3,0 ghz - 8800GTS G80 320 @ 620-1600-1900
Wenn ich mir dann die HD4850 ansehe, bin ich schon ein wenig enttäuscht :( Vielleicht liegt es ja wirklich am Treiber... hoffe.... :)
Hallo zusammen!
naja, das scheint wirklich an die CPU zu liegen (5,4 ghz) ist schon sehr hoch :) Ich habe in 3dmark Vantage ca. P5400 punkte und ihn 06 ca. 11500 Punkte.... mein sys: E2140 @ 3,0 ghz - 8800GTS G80 320 @ 620-1600-1900
Wenn ich mir dann die HD4850 ansehe, bin ich schon ein wenig enttäuscht :( Vielleicht liegt es ja wirklich am Treiber... hoffe.... :)
So wie es aussieht erreicht sie 9800GTX Niveau bzw. leicht schneller zu einem günstigeren Preis bereits vor dem Launch (180€ für HD4850 zu 210€ für 9800GTX), DX10.1, wahrscheinlich geringerem Stromverbrauch. Also der nächste P/L-Sieger.
HarryHirsch
2008-06-18, 08:47:57
@jupp99
könntest du den neuen folding@home gpu2 6.12 beta 6 (http://www.stanford.edu/group/pandegroup/folding/release/Folding@home-GPU-systray-612b6.msi) client von gestern testen?
eventuell unterstützt der ja jetzt die neuen karten, ich muss wissen was die da so rausdrücken :biggrin:
reunion
2008-06-18, 14:22:38
Die wird rund 20% schneller sein aufgrund der Taktraten. Ja das ist eigentlich ok. Stimmt schon. Vermutlich waren meine Erwartungen zu hoch.
Nein, sie wird mindestens 20% schneller sein, da der gesamte Chip um exakt 20% höher taktet. Wenn die Bandbreite limitiert sind deutlich mehr drin.
robbitop@work
2008-06-18, 15:02:13
Nein, sie wird mindestens 20% schneller sein, da der gesamte Chip um exakt 20% höher taktet. Wenn die Bandbreite limitiert sind deutlich mehr drin.
Vom RV670XT zum RV770XT wurde offenbar soziemlich alles verdoppelt.
2x Füllrate, 2x ALU, 2x Z-Leistung, fast 2x Bandbreite. Da muss dann doch auch doppelte Leistung rauskommen. Oder nicht?
reunion
2008-06-18, 15:36:27
Vom RV670XT zum RV770XT wurde offenbar soziemlich alles verdoppelt.
2x Füllrate, 2x ALU, 2x Z-Leistung, fast 2x Bandbreite. Da muss dann doch auch doppelte Leistung rauskommen. Oder nicht?
Wie kommst du darauf? Die Transistorenanzahl stieg nur um etwas mehr als 30%, doppelte Leistung im Schnitt wäre da ein Wunder. Das da die Kontrolllogik bei weitem nicht mehr so fein unterteilt ist wie noch bei RV670 sollte auf der Hand liegen.
Wie kommst du darauf? Die Transistorenanzahl stieg nur um etwas mehr als 30%, doppelte Leistung im Schnitt wäre da ein Wunder. Das da die Kontrolllogik bei weitem nicht mehr so fein unterteilt ist wie noch bei RV670 sollte auf der Hand liegen.
Dann muss eben mehr über den Treiber gemacht werden. Das ist auch der Grund, warum bei ATI die Leistung stärker vom Treiber abhängt als bei Nvidia.
Es geht bei den Mikrrrucklern nicht nur darum wann das bild kommt sondern auch was drauf ist!!!
ich glaube das ist das geringste problem, wenn man das timming problem erstmal gelöst hat, die frames in der richtigen reihenfolge auszugeben
robbitop
2008-06-18, 18:11:57
Wie kommst du darauf? Die Transistorenanzahl stieg nur um etwas mehr als 30%, doppelte Leistung im Schnitt wäre da ein Wunder. Das da die Kontrolllogik bei weitem nicht mehr so fein unterteilt ist wie noch bei RV670 sollte auf der Hand liegen.
Spätestens seit dem GT200 sollten wir uns nicht mehr von Transistorzahlen blenden lassen. :)
Aber natürlich hast du in dem Punkt vermutlich Recht.
@jupp99: Kannst du mal den Cat8.6 Final ausprobieren? Bitte als erstes den Stromverbrauch prüfen. Danke.
Der Kollege im Luxxx hat gleich die Wärmeleitpaste gewechselt, kannst ja mal nach Temperaturwerten nachfragen. Eventuell reicht das schon, wenn Du auch nur die Paste wechselst.
ciao & nochmals Danke für die vielen Tests :)
Alex
wenn man die WLP wechselt und den mini stock kühler eh abhat kann man auch gleich für 14€+lüfter nen accelero s1 draufklatschen...wird deutlich kühler (bei dem stock kühler geh ich von mindestens 20-30°C weniger unter last aus) und leiser (hängt halt davon ab was man für lüfter draufschnallt)
foenfrisur
2008-06-18, 22:10:58
lol...wollt ich auch grad schreiben...
er baut aber erst noch auf beiden karten eine wakü druff...und die scheint net so zu passen.
also abwarten...
mfg
Magicable
2008-06-18, 22:23:49
@all
es scheint wohl bald Benches einer 4870er zu geben oder auch 2 4870er ^^
Obs der Warheit entspricht steht noch aus, wie foenfrisur sagt wird wohl imho die Wakü draufgeschnallt ;)
-->http://www.forumdeluxx.de/forum/showthread.php?t=500923&page=41
immer mal reinschauen :)
http://www.heise.de/newsticker/Fruehstart-fuer-AMDs-neue-Radeon-Generation--/meldung/109705
anddill
2008-06-20, 18:16:10
Neuer Treiber für die HD4800-Reihe:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=422121
http://support.ati.com/ics/support/default.asp?deptID=894
Ronin2k
2008-06-21, 10:12:21
kann man die 4850er und 4870er auch wieder per hdmi anschließen und wird auch der ton mit übertragen per adapter? :)
anddill
2008-06-21, 10:15:15
kann man die 4850er und 4870er auch wieder per hdmi anschließen und wird auch der ton mit übertragen per adapter? :)
Laut ATI ja.
Ronin2k
2008-06-21, 11:21:23
sher schön :) dann aber wieder nur hdmi1.2 was nix neue tonformate oder deepcolor etc. :|
9800ProZwerg
2008-06-21, 21:16:20
Wie sieht es aus mit OC Versuchen bei der 4850?
Aquaschaf
2008-06-21, 22:01:01
Hat schon jemand den Versuch gestartet einen anderen Kühlkörper/Lüfter auf die Karte zu packen? Der stock-Kühler ist zwar angenehm leise, aber das Teil wird doch ziemlich warm (76C idle, der Aufkleber auf der Plastikabdeckung hat sich nach ein paar Stunden bereits abgelöst).
Hat schon jemand den Versuch gestartet einen anderen Kühlkörper/Lüfter auf die Karte zu packen? Der stock-Kühler ist zwar angenehm leise, aber das Teil wird doch ziemlich warm (76C idle, der Aufkleber auf der Plastikabdeckung hat sich nach ein paar Stunden bereits abgelöst).
Bei den allerersten Tests hatte schon mal einer die Wärmepaste gewechselt, das brachte über 10 Grad, wenn Du ne gute Rumliegen hast, probiers mal aus :)
ciao
Alex
spike.sp.
2008-06-21, 22:39:10
Bei welchen 4850 ist denn Welches game im Graka-Bundle dabei?
Aquaschaf
2008-06-22, 00:13:46
Bei den allerersten Tests hatte schon mal einer die Wärmepaste gewechselt, das brachte über 10 Grad, wenn Du ne gute Rumliegen hast, probiers mal aus :)
Leider keine gute, am Montag probier ich's mal aus ;)
HD-Ronny
2008-06-22, 01:40:35
Der Accelero S1 passt drauf.
Temperaturen sind ordentlich gesunken.
http://www.xtremesystems.org/forums/showthread.php?t=191944
Aquaschaf
2008-06-23, 21:55:38
Ich hab nun den Accelero S1 inklusive den zugehörigen Lüftern installiert. Dabei musste ich einen Ramkühler etwas zurechtbiegen damit er unter die Heatpipe passt. Um die Spannungswandler weiterhin zu kühlen hab ich vom Originalkühler einfach das letzte Stück abgesägt und wieder festgeschraubt. Abgesehen davon war die Installation problemlos, die jungen Wärmeleitpads lösen sich praktisch ohne Rückstände. Idle-Temperatur beträgt jetzt etwa 41C, statt den vorherigen 76C.
Habe gestern auch einen Accelero S1 Rev. 2 gekauft und musste leider feststellen, dass der lange Kühlkörper für die Spannungswandler nicht passt. Das ist z.B. auch Hard OCP beim Review aufgefallen (dort haben sie zwar eine GeForce getestet, aber die steht auch auf der Kompatibilitätsliste, sprich, gleiches Porblem wie auch schon bei der 3xxx Serie von ATI). Aber anscheinend hat Arctic Cooling vor kurzem den Packungsinhalt geändert. Wenn man die aktuelle Installationsanleitung von der Arctic Cooling Homepage runterläd, wird man feststellen, dass AC den Spannungswandler Kühler nun auch in kleine Teile gesplittet hat. Sollten sie mal dazuschreiben, bzw. Rev. 3 oder so nennen.
MfG!
Schlammsau
2008-06-24, 13:12:45
Hab seit gestern nun auch eine 4850 von Sapphire.
Ich muss sagen, dass ich durchweg begeistert bin.
Die Karte ist durchgehend ungefähr auf 3870 Crossfire Niveau, verbraucht unter Last genausoviel wie eine einzelne 3870, Kühlung ist unter Last zwar hörbar aber nicht störend.
Einzig allein der Idle Verbrauch ist noch zu hoch. Mal sehen, was ATi im nächsten Treiber verbessern kann!
Aquaschaf
2008-06-24, 15:12:33
Habe gestern auch einen Accelero S1 Rev. 2 gekauft und musste leider feststellen, dass der lange Kühlkörper für die Spannungswandler nicht passt.
Wie gesagt: letztes Stück des Originalkühlers absägen und mit den beiden hintersten Schrauben wieder befestigen :)
http://img521.imageshack.us/my.php?image=4850acceleroem4.jpg
Wie gesagt: letztes Stück des Originalkühlers absägen und mit den beiden hintersten Schrauben wieder befestigen :)
http://img521.imageshack.us/my.php?image=4850acceleroem4.jpg
Wer macht den sowas? Sieht ja gruselig aus das ganze.
BTW, hat jemand mit einer 4850er mal Zeit und Lust zu schauen ob die aktuellen Treiber mit Arma ordentlich funzen? Evtl. mit Performance-Aussage zum jeweiligen Vorgängermodell. Danke!
Wie gesagt: letztes Stück des Originalkühlers absägen und mit den beiden hintersten Schrauben wieder befestigen :)
http://img521.imageshack.us/my.php?image=4850acceleroem4.jpg
Hab mir bei einem kleinen Computerladen für 2€ vier Kühlkörper aus der Wühlkiste besorgt. Werde ich nachher montieren. Foto kommt...
MfG!
Aquaschaf
2008-06-25, 01:46:16
Wer macht den sowas? Sieht ja gruselig aus das ganze.
Es soll ja nicht schön aussehen, sondern funktionieren ;)
Accelero ist montiert. Temperaturen sind von 76°C Idle auf 45°C gefallen. Ist im Moment aber auch abartig warm und schwül in meiner Bude- das Thermometer zeigt 29,3°C an. Ich gehe davon aus, dass die Temperaturen bei normaler Raumtemperatur auf unter 40°C fallen.
Im übrigen musste auch ich den einen Speciherkühlkörper verbiegen, was aber wirklich kein großer Aufwand war. Und wie angekündigt, sitzen auf den Spannungswandlern kleine Speicherkühler aus der Wühlkiste.
Bin sehr zufrieden.
MfG!
Kriton
2008-06-25, 14:26:18
Gibt es irgendwo eine Art guide - wo dem technisch weniger Versierten der Austausch des Kühlers beschrieben wird?
Gibt es irgendwo eine Art guide - wo dem technisch weniger Versierten der Austausch des Kühlers beschrieben wird?
Die Anleitungen bei Arctic Cooling sind eigentlich Idiotensicher. Schrauben vom original Kühler lösen, Kühler abnehmen, Chip, Speicher, etc. gründlich reinigen, Kühlkörper auf RAM und Spannungswandler kleben (selbstkleben) und zum Schluss noch den großen Kühler montieren- fertig.
Wenn du allerdings keine Lust auf kleine Modifikationen hast (wie bereits erwähnt, zwei Kühlrippen beim RAM Kühler müssen verbogen werden, für Spannungswandler müssen weitere Kühlkörper organisiert werden), dann warte lieber bis 100% kompatible Kühler auf den Markt kommen.
MfG!
Scoty
2008-06-26, 07:42:56
Welcher Shop hat den eine 4870 Lagernd für unter 250 Euro inkl Versand ?
derzeit hat sie Atelco für 255 exkl.: http://www3.atelco.de/1/articledetail.jsp?aid=22347&agid=717
Skinner
2008-06-26, 09:10:07
Wer Geld verschenken will, soll zugreifen. Der Preis ist jedenfalls zu hoch.
MartinRiggs
2008-06-26, 10:43:26
Das schreiben im Luxx auch ständig welche, was ein Quark!
Die Karte kommt für 250€ auf den Markt und hat Leistung satt, was meckert ihr alle daran rum?
Wem es zu teuer ist der muss es ja nicht kaufen, früher hat man für diese Leistung zum Launch 300-400€ hingelegt, war das besser?
Ich freue mich auf meine HD4870, ist schon unterwegs:biggrin:
Skinner
2008-06-26, 12:10:51
Das schreiben im Luxx auch ständig welche, was ein Quark!
Die Karte kommt für 250€ auf den Markt und hat Leistung satt, was meckert ihr alle daran rum?
Wem es zu teuer ist der muss es ja nicht kaufen, früher hat man für diese Leistung zum Launch 300-400€ hingelegt, war das besser?
Ich freue mich auf meine HD4870, ist schon unterwegs:biggrin:
Du verstehst den Sinn meiner aussage nicht ;) Die Händler bereichern sich an der Geilheit der Käufer indem sie die Karten einfach teurer verkaufen. Und nein, sie kaufen sie nicht teurer ein ;)
Bin ich der einzige der auf seinem P5B Deluxe nen BIOSUpdate fahren musste bevor die Karte sich ueberhaupt erst installieren lies?
Grumbart
2008-07-17, 09:22:53
Auf meinem GA-P35-DS4 war kein Biosupdate notwendig, allerdings war das auch bei mir nicht die erste PCIe 2.0 Karte im System.
Mein erstes Zwischenergebnis in COD4 Multiplayer, mit meiner 4850er:
nV GTS512, meine "alte" Karte (2*AA / 8*AF, 1680×1050), max FPS 91 min. ~FPS 30, gelegentliche Ruckler waren für mich deutlich zu spüren
ATI HD4850 (4*AA / 16*AF, 1680×1050), max FPS 91 min. ~FPS 80, absolut flüssig
minos5000
2008-07-17, 14:36:50
Wie habt ihr denn die Speicher und Mosfets von den Rückständen gereinigt? Sind die arg verklebt, oder hält sich der Aufwand in Grenzen?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.