Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - HD 3870/3850: (P)Review-Thread
StefanV
2007-11-17, 13:24:53
Der Punkt ist doch folgender, bei den 256MiB Karten:
Die Leistungsfähigkeit der Karte wird durch den beschrängten Speicher beschrängt, es geht eher der Speicher aus als das die GPU an die Leistungsgrenze kommt...
Godlike
2007-11-17, 13:30:06
Hat jemand irgendwelche Infos zum Lochabstand des Kühlers einer HD 3850/70. Würde ihn dringend brauchen, damit ich weiß ob ich meinen V2 weiterverwenden kann.
[NbF]Eagle
2007-11-17, 13:30:26
Ich würde mir auch nicht mehr eine mit 256MB kaufen, aber für Leute die in 1024x768 mit ein bißchen AA oder 1280x1024 ohne AA spielen langt die 3850 256MB siehe auch da.
http://www.hardtecs4u.com/reviews/2007/amd_hd3850/index16.php
Hvoralek
2007-11-17, 13:34:54
Das du mit originiert Abstammen meinst, war mir klar. Wegen dem Rest hab ich nachgefragt. Daß die deutsche Sprache nicht deine Muttersprache ist, kann ich übrigens nicht wissen, ich lese zwar schon längere Zeit im Forum mit, aber ich lese dann nicht alle Posts. :wink:
Dachte eher du hättest zu schnell geschrieben und den Text nicht mehr korrigiert. Sollte nur eine kleine blöde Anmache sein und kein Reinhauen... ;)
Aber ich hab dich sowieso falsch verstanden, ich habe statt R5x0 R670 gelesen, also Asche auf mein Haupt, mein Fehler, ich hab Unsinn geschrieben.Es ist ja nett, dass Du Dich so ausführlich entschuldigst. Allerdings stammte der ursprüngliche Beitrag (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6032008#post6032008) gar nicht von mir :wink:
@all
Viele haben mir ja im Speku thread nicht geglaubt bzgl meiner Berechnung des Geschwindigkeitsunterschieds von Crysis zwischen HD3870 und 8800 GT (Taktverhalten) hier mal zur Festigung meiner These nehm ich dieses Review von Guru3D.
http://www.guru3d.com/flash/2007/3870/flash-crysis-med.swf
dort sieht man sehr schön den unterschied zwischen HD3870 Stock 775MHz und 8800 GT 700MHz es sind genau 10 fps unterschied (1600x1200) zu grunde lege ich nun das mit einem Stock Takt der GT davon -6 fps wegfallen würden, was bedeutet wir haben noch einen unterschied von 32 zu 36 fps nun heben wir den Takt der HD8370 auf 850MHz an so erhalten wir 35 fps vs 36. Alle 8800 GT wie ich aber bereits zu grunde gelegt habe ereichen diese 700MHz was dann wiederum ein Endresultat von 35 fps vs 42 bedeutet nun um dieses aufzuholen benötigen wir weitere +7 fps mit der HD3870 und somit eine weitere Taksteigerung von min ca +80MHz was uns zu einem Endergebniss von 930MHz bringen würde (siehe Speku thread) den die HD3870 benötigt um sich neben die 8800 GT OC positionieren zu können. Also insgesammt benötigen wir eine Taktsteigerung bei der HD3870 von 150 MHz vs 100 MHz bei der 8800 GT. Allerdings hat die HD3870 einen Vorteil und das ist die Speicherbandbreite durch den GDDR4 der hier noch nicht in die Übertaktung mit einkalkuliert ist und so könnten die 150MHz auch niedriger ausfallen ca 125 MHz bei gleichzeitiger Anhebung des GDDR4 Speichertaktes.Ich sehe da zwischen der 700- MHz- GT und der 775- MHz- 3870 einen Unterschied von 42 vs. 32 fps, also 31%. Eine reine GraKalimitierung unterstellt, müsste die 3870 also 31% schneller sein, um an die OC- GT heranzukommen. Eine 31%ige Übertaktung bedeutet gut 1000 MHz Kerntakt, vorausgesetzt, Du übertaktest den Speicher ebenfalls um 31%. Wenn der diese knapp 1500 MHz nicht mitmacht, müsste der Kern evtl. noch höher, um die OC- GT zu erreichen.
4 Vitamins
2007-11-17, 13:42:06
Nein, ists nicht, das ist ganz einfach zu beurteilen, 256MiB reichen einfach nicht, punkt aus ende.
Da brauchst nicht versuchen was schön zu reden, 256MiB ist einfach zu wenig, egal ob mit oder ohne FSAA...
Du hast aber sein posting ganz genau gelesen?? :Auflösung 1024x768 mit 2AA od. 4AA
Dafür reicht locker eine 256MB karte.
gruss
http://www.firingsquad.com/hardware/amd_rv670_performance_preview/page8.asp
http://www.firingsquad.com/hardware/amd_rv670_performance_preview/page12.asp
http://www.firingsquad.com/hardware/amd_rv670_performance_preview/page14.asp
Die Qualitätseinstellungen der Spiele sind im Review nicht genannt, nach den Ergebnissen ist es aber wohl alles auf max. Wenn man auf Texturdetails verzichten kann reichen 256 MB, aber bei maximalen Einstellungen nicht mehr.
Was wird da denn "bewiesen"?
Dass die bei Firingsquad völlig realitätsfremd und willkürlich chaotisch testen?
Die sollten mal besser zielen, bevor sie losballern... ;D
StefanV
2007-11-17, 13:47:54
Du hast aber sein posting ganz genau gelesen?? :Auflösung 1024x768 mit 2AA od. 4AA
Ja, und?!
Soo große Auswirkungen hat die Bildschirm-Auflösung auch nicht auf die Texturen...
Dafür reicht locker eine 256MB karte.
Locker ist glatt gelogen, reichen möglicherweise aber nicht immer.
Aber warum am falschen ENde sparen?!
Und schonmal drüber nachgedacht, das der Fragesteller sich unter Umständen auch mal 'nen anderen Schirm holen könnte?!
Was wird da denn "bewiesen"?
Dass die bei Firingsquad völlig realitätsfremd und willkürlich chaotisch testen?
Die sollten mal besser zielen, bevor sie losballern... ;D
Es ist bewiesen, das die 256MiB bei einigen SPielen doch nicht reichen.
Aber da dir das Ergebnis nicht passt, musst natürlich gegen das Review schießen, ja nee, is klar :ugly:
Was wird da denn "bewiesen"?
Dass die bei Firingsquad völlig realitätsfremd und willkürlich chaotisch testen?
Bewiesen ist damit zumindest, dass es auch bei DX9 Spielen Einstellungen gibt, bei denen sich 512 MB bei normalen Auflösungen lohnen.
DrFreaK666
2007-11-17, 13:56:46
Kann mir bitte jemand sagen, wie der Shop Komplett.de bewertet ist?
http://geizhals.at/deutschland/a294898.html
-/\-CruNcher-/\-
2007-11-17, 14:00:25
Es ist ja nett, dass Du Dich so ausführlich entschuldigst. Allerdings stammte der ursprüngliche Beitrag (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6032008#post6032008) gar nicht von mir :wink:
Ich sehe da zwischen der 700- MHz- GT und der 775- MHz- 3870 einen Unterschied von 42 vs. 32 fps, also 31%. Eine reine GraKalimitierung unterstellt, müsste die 3870 also 31% schneller sein, um an die OC- GT heranzukommen. Eine 31%ige Übertaktung bedeutet gut 1000 MHz Kerntakt, vorausgesetzt, Du übertaktest den Speicher ebenfalls um 31%. Wenn der diese knapp 1500 MHz nicht mitmacht, müsste der Kern evtl. noch höher, um die OC- GT zu erreichen.
Ja gut möglich nur wird sich das ja auch wieder von Treiber zu Treiber bessonders was Crysis angeht vorausichtlich ändern und Nvidia wird ihren Vorsprung sicher noch weiter ausbauen, auch da jetzt ja schon ohne Probleme bis zu 750MHz möglich sind mit dem Bios Volt Mod und mit richtigem Hardmod bis zu sagenhaften 850MHz das wird ein harter brocken für diesen neuen 55nm Chip von AMD/Ati werden aber wenn man sich anschaut wo der Rekord momentan liegt bin ich zuversichtlich das AMD/ATI ihn mit sehr hohem Takt bassierend auf dem RV670 und der HD3870 knacken kann (sie brechen damit ihren eigenen 2900 XTX Rekord) immerhin war das tape out laut AMD/ATI astrein, also mehr als 900MHz sollten drinne sein und über 1000 sicher auch :)
Hvoralek
2007-11-17, 14:00:35
Du hast aber sein posting ganz genau gelesen?? :Auflösung 1024x768 mit 2AA od. 4AA
Dafür reicht locker eine 256MB karte.Speicher brauchen v.a. Texturen, die Aufösung ist weniger wichtig. 256 MiB reichen, wenn man bereit ist, gelegentlich (und bei kommenden Spielen wohl häufiger) die Texturdetails runter zu drehen.
Ja, und?!
Soo große Auswirkungen hat die Bildschirm-Auflösung auch nicht auf die Texturen...
Locker ist glatt gelogen, reichen möglicherweise aber nicht immer.
Aber warum am falschen ENde sparen?!
Und schonmal drüber nachgedacht, das der Fragesteller sich unter Umständen auch mal 'nen anderen Schirm holen könnte?!
Es ist bewiesen, das die 256MiB bei einigen SPielen doch nicht reichen.
Aber da dir das Ergebnis nicht passt, musst natürlich gegen das Review schießen, ja nee, is klar :ugly:
Bewiesen hast du null-komma-nix, Stefan
Nur zu! :biggrin:
StefanV
2007-11-17, 14:05:12
http://geizhals.at/deutschland/a294898.html
Das auf jeden Fall, aber auch andere (http://www.pcgameshardware.de/?article_id=621293) kommen zu dem Schluss, das die 256MiB HD3850 zu wenig V-RAM hat...
Speicher brauchen v.a. Texturen, die Aufösung ist weniger wichtig. 256 MiB reichen, wenn man bereit ist, gelegentlich (und bei kommenden Spielen wohl häufiger) die Texturdetails runter zu drehen.
Eben!
Und wenn dann noch FSAA hinzu kommt, wirds ganz bitter, sieht man ja schon recht gut an der 320MiB 8800GTS, die ja auch teilweise sehr weit hinter der 640MiB Version zurück liegt...
-/\-CruNcher-/\-
2007-11-17, 14:16:07
Naja dan währen die PS3 und Xbox 360 ja auch ziemlich benachteiligt findet ihr nicht ? und bessonders hier sehe ich noch einen Vorteil für AMD/ATI :)
So gut wie jede Middleware Engine wird für AMD/ATIs Architektur momentan optimiert (Xbox 360), deswegen wundern mich auch ehrlichgesagt die guten Resultate mit der UE3 Engine nicht sie wird sehr häufig auf der Xbox 360 zum Einsatz kommen, natürlich genauso auch auf der PS3 aber da gibts ja bekanntlich momentan noch Probleme und Tim Sweeny rauft sich die haare genauso wie Carmack hehe (Cell Portierung). Momentan ist den meisten Engine Developern klar die Xbox 360 wichtiger und somit die R6xx Architektur AMD/ATIs, das wird sicherlich noch große Auswirkungen demnächst haben was Spiele Benchmarks angeht :)
Hvoralek
2007-11-17, 14:19:03
Und wenn dann noch FSAA hinzu kommt, wirds ganz bitter, sieht man ja schon recht gut an der 320MiB 8800GTS, die ja auch teilweise sehr weit hinter der 640MiB Version zurück liegt...Auch AA vergrößert lediglich den Framebuffer und wirkt sich damit auf den Gesamtspeicherbedarf nur nachrangig aus. Ein Framebuffer in 1024 mit 2xAA braucht, wenn ich mich nicht verrechnet habe, 15 MiB (bzw. 30 in FP16). Das ist nicht die Welt.
Z.B. 1280 braucht aber eben auch nur 2/3 mehr Speicher: Auch das ist nicht die Welt. Auf die Auflösung kommt es, solange es im normalen Bereich bleibt, nicht so sehr an. Wenn der Speicher ausgeht, bringt es aber meist auch nicht mehr viel, Aufslöung oder AA runterzudrehen (Es sei denn, es fehlen wirklich nur ein paar MiB). Dann muss man auf Texturauflösung verzichten. Wer damit kein Problem hat, sollte imM und wohl auch mittelfristig mit 256 MiB noch glücklich werden. Allerdings ist der Chip der 3850 ziemlich kräftig. Ich fände es schon schade, dann nur wegen eines zu kleinen Speichers mit den Details runtergehen zu müssen.
-/\-CruNcher-/\-
2007-11-17, 14:21:31
Das mit dem Speicher Problem zeigt HardOCP aber leider sehr deutlich wobei ich nicht verstehe wieso das sein muss wenn man effizienteres Streaming einsetzt und unter Vista mit der HD3850 256mb scheint das auch besser zu funktionieren in Games als wie unter XP.
http://enthusiast.hardocp.com/images/articles/1194994614E3oshBmZcO_4_3.gifhttp://enthusiast.hardocp.com/images/articles/1194994614E3oshBmZcO_5_3.gifhttp://enthusiast.hardocp.com/images/articles/1194994614E3oshBmZcO_6_2.gif
Wobei ich auch sagen muss ich selbst hab nicht gesehen ob es Spielbar ist oder nicht mit Postpro und Everything else auf High, leider werden da von HardOCP ja nie vergleichsdaten gezeigt, man muss es einfach glauben (oder am Besten selber testen) :D und dann ist ja noch die Treiber sache und solche Reviews werden selten geupdated (leider). Bei dem UE3 sieht man ganz gut wie sich die 256mb weniger auswirken sieh fehlen halt an sehr bandbreiten intensiven stellen und veringern die Min Fps aber 23 find ich immernoch ok, fragen tu ich mich allerdings ob doch nicht noch zusätzlich bei dem NFS Pro Street Ati HD3850 bench 8xAA möglich gewesen wäre.
Adam D.
2007-11-17, 17:20:28
Hab mich jetzt dazu entschieden, mir eine HD3870 zu kaufen - einfach aus reiner Neugier. Ich hab grad das Geld und kann dann immer noch eine der beiden verkaufen. Aber ich wollte mir schon immer mal selbst ein Bild von beidem machen. Ich hoffe, dass die Dinger bald mal zu haben sind.
-/\-CruNcher-/\-
2007-11-17, 17:57:56
http://www.sapphiretech.com/en/images/featured.swf
hmm His überklebt ihr DirectX 10.1 auf der Verpackung und nun das?
laser114
2007-11-17, 18:04:48
AMD sprich da eindeutig:
http://ati.amd.com/products/radeonhd3800/specs.html
Microsoft® DirectX® 10.1 support
* Shader Model 4.1
;)
reunion
2007-11-17, 18:05:41
http://www.sapphiretech.com/en/images/featured.swf
hmm His überklebt ihr DirectX 10.1 auf der Verpackung und nun das?
DX10.1 gibt es offiziell eben noch nicht. Die Specs wurden jedenfalls von AMD nicht nur einmal verifiziert:
http://ati.amd.com/products/Radeonhd3800/specs.html
-/\-CruNcher-/\-
2007-11-17, 18:23:29
Jep wird wohl der Marketingabteilung Sapphires eingefallen sein um die Leute nicht zu verunsichern hehe SM 4.0,DirectX 10 and more, bei HIS wohl das selbe ;)
Ich weiß auch nicht, wie das passiert ist, aber ich musste meine GT auf Standard-Taktraten zurück schrauben. Das ging ging vor 2 Tagen noch unter krassesten Stressbedingungen auf 700/1780/1000 einwandfrei, doch dann gab es plötzlich Bilderfehler, PC stürzte ab und jetzt krieg ich die Bildfehler schon bei der geringsten Übertaktung. Ich verstehe nicht viel davon, aber das ist schon schade/komisch.
Adam D. @ work
Was ist eigentlich daraus geworden?
Adam D.
2007-11-17, 18:58:47
Was ist eigentlich daraus geworden?
Ist immer noch so. Ich muss sie halt mit Standard-Takt laufen lassen, sonst meckert sie sofort. Ich hab zu viel Angst sie zu beschädigen, deshalb teste ich nicht nochmal. Aber mit höheren Lüfterdrehzahlen geht da sicher noch was. Da wünscht man sich schon einen Dual-Slot à la HD3870.
DrFreaK666
2007-11-17, 18:59:02
Neue Tech-Demos gibt es nicht zufällig?
falconch
2007-11-17, 19:03:55
Hab mich jetzt dazu entschieden, mir eine HD3870 zu kaufen - einfach aus reiner Neugier. Ich hab grad das Geld und kann dann immer noch eine der beiden verkaufen. Aber ich wollte mir schon immer mal selbst ein Bild von beidem machen. Ich hoffe, dass die Dinger bald mal zu haben sind.
Wäre ja supertoll, wenn du mal einen Vergleichstest machen könntest.
Super Grobi
2007-11-17, 19:13:13
Wäre ja supertoll, wenn du mal einen Vergleichstest machen könntest.
Das wäre sehr viel Müh für fast nichts. Den was dabei raus kommt, wissen wir doch jetzt schon. Mal ist die eine, dann mal die andere Karte schneller. Dazu ändert sich das noch hin und wieder mit neuen Treibern.
Also was willst du wissen?
SG
Adam D.
2007-11-17, 19:48:02
Ein paar Vergleichswerte können nicht schaden, oder? User-Erfahrungen decken sich ja nicht immer 100%ig mit Reviews.
Aber dazu müsste ich erstmal in der Lage sein, eine HD3870 zu kaufen. Beim Launch von der GT konnte man die immerhin für teures Geld erstehen, bei der ATi sieht's noch schlechter aus.
DrFreaK666
2007-11-17, 19:50:44
Ein paar Vergleichswerte können nicht schaden, oder? User-Erfahrungen decken sich ja nicht immer 100%ig mit Reviews.
Aber dazu müsste ich erstmal in der Lage sein, eine HD3870 zu kaufen. Beim Launch von der GT konnte man die immerhin für teures Geld erstehen, bei der ATi sieht's noch schlechter aus.
Bei Ebay bekommt für teures geld auch eine 8800GT :wink:
edit: Und bei Ebay gibt es auch mehrere HD-3870 512MB
Es ist ein Shop, 99,6& positiv
http://cgi.ebay.de/SAPPHIRE-HD-3870-512MB-GDDR4-PCI-E-Dual-DL-DVI-TVO_W0QQitemZ260183257161QQihZ016QQcategoryZ115465QQssPageNameZWDVWQQrdZ1QQcmdZV iewItem
-/\-CruNcher-/\-
2007-11-17, 19:53:08
http://img139.imageshack.us/img139/2853/ocns5.jpg
Also ich weiss ja nicht aber das find ich schon sehr Merkwürdig, da stimmt irgendwas nicht für mich sieht es so aus als werden beide Karten Bios geblocked was OC angeht, ich glaub einfach nicht das das HD3850 PCB so extreme billig ist es ist auch nen 4 Phasen Design und sollte höhere TDP als 100W verkraften, das stinkt. Es war ja mal die Rede von 110W TDP für das kleine PCB und 135 für das große da haben sie bestimmt nichts mehr geändert.
Super Grobi
2007-11-17, 19:57:43
1300mhz Ram und das ohne Mod finde ich schon --> :eek:
Aber soviel zum Thema: "Kauf ich mir die 50iger und übertakte die einfach und hab dann eine 70iger" :biggrin:
SG
-/\-CruNcher-/\-
2007-11-17, 20:05:05
Naja Grobi weit davon entfernt ist es ja nicht aber es lohnt sich nicht wirklich vor allem bei den jetztigen Preisen :D die auf 3870er niveou zu bringen, weil du siehst ja mit dem Stock Kühler ist der Chip unter last schon bei ca 88°C da muss noch was investiert werden in Kühlung und momentan kannste dann gleich zur HD3870 greifen (und hast den garantierten (keine Hersteller Garantie) Takt von 850-60MHz so schnell wie ne 8800 GT @stock), bei der 3870 bringt bessere Kühlung momentan auch nix, weil höher wie 860 kommt momentan keiner (vorausichtlich Bios lock), persönlich will ich einfach nicht glauben das das wirklich mit der Yield zu tun hat (das Guru3d nur auf 840 kommt kann andere Gründe haben). Diese Ergebnisse sind momentan sehr entäuschend im Vergleich zum G92 und seinem garantierten Takt von 700MHz und mit Biosmod (1.1v) 750MHz (und keinem lock bis 850MHz da greift dann die OVP bei über 1.3v).
Das hier übrigens ist irre mit dem neuen Hotfix von AMD/ATI das wirft meine ganzen Crysis vorab Takt Kalkulationen um (habe ja damit gerechnet siehe Speku Thread das des passiert), da haben die AMD/ATI Ingenieure mal ein großes Respekt verdient, wenn sich nicht heraustellen sollte das es diesen schub bassierend auf einer HVS Optimierung bekommen sollte, es zahlt sich anscheinend wirklich langsam aus für ATI die ganzen Researcher aus AMDs Grafik/Videoabteilung nun mit im Boot zu haben ;D (2008 wird für Nvidia definitiv ein heisses Jahr werden *g*)
http://www.abload.de/img/crysisvergleichdtz.jpg
laser114
2007-11-17, 22:04:21
Stimmt, im Hardwareluxx habe ich auch von mehreren gelesen, dass bei genau 860/1300 Schluss ist (die Werte sind stabil ... klein wenig mehr nicht). Und das obwohl das AutoClock oft höhere Werte vorschlägt... :confused:
mapel110
2007-11-17, 22:20:20
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/
vollständiger Test jetzt online.
reunion
2007-11-17, 22:28:30
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/
vollständiger Test jetzt online.
Tja, die 3870 liegt gerade in hohen Auflösungen und vorallem mit 8xAA ausgezeichnet. Lautstärke und Stromverbrauch liefern absolute Bestwerte.
Einige interessante Details:
Doch was hat sich denn nun überhaupt auf einem RV670 geändert? Die Feinheiten liegen – abgesehen von den oben erwähnten offensichtlichen Modifizierungen – im Detail. Ein Gespräch mit David Nalasco von AMD brachte ans Tageslicht, dass AMD primär die Zugriffszeiten und somit die Effektivität des Speichercontrollers verbessert hat, um so die geringere Speicherbandbreite kompensieren zu können. Die „Arbitter-Logik“ im Speichercontroller wurde verbessert, zudem kann man nun auftretende Latenzen besser in den ROPs verstecken. Somit soll die RV670-GPU mehr mit der vorhandenen Speicherbandbreite anfangen können als der R600. In Fällen, in denen beim R600 ein Latenzproblem aufgetreten ist, soll der RV670 deutlich schneller seinen Dienst verrichten, trotz der niedrigeren Bandbreite.
Darüber hinaus hat man sich dem „MSAA-Shader-Resolve-Problem“ (das Shader-Resolve wird normalerweise von den ROPs durchgeführt. Beim R600 übernehmen dies die ALUs; ob dies Absicht oder ein Defekt an den ROPs ist, ist weiterhin unbekannt) angenommen und dessen Effizienz erhöht. Erreicht wird dies laut David Nalasco durch eine höhere Taktrate des „Shader-Cores“. Genauere Details konnten wir bis jetzt leider noch nicht in Erfahrung bringen. Ob die Shadereinheiten tatsächlich mit einer höheren Frequenz als die restlichen GPU-Komponenten arbeiten, können wir derzeit nur vermuten. Darüber hinaus hat ATi auf dem RV670 nach eigenen Angaben die Performance bei Geometry-Shader-Berechnungen steigern können, was in Direct3D-10-Anwendungen (falls diese Gebrauch vom Geometry-Shader machen) einen Geschwindigkeitsschub bringen soll.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/3/
Übrigens...
Hier hat einer im niederländischen tweakers.net Forum einen netten Vergleich zum Crysis-Hotfix gemacht:
http://gathering.tweakers.net/forum/list_message/29105753#29105753
Super Grobi
2007-11-17, 22:48:20
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/
vollständiger Test jetzt online.
Sehr schön. Bestätigt nur meine Meinung, das die neue 3800 Reihe von Ati echt nicht übel ist. Wenn ich mir den Stromverbrauch im Idle anguck, könnte ich mir stundenlang selber in die Schnauze hauen, das ich mir die 8800GTS 640mb angetan hab. Stromfresser PUR.
SG
GeneralHanno
2007-11-17, 22:51:58
wenn ich mir die AA skalierung der 3870 und der 2900xt amschauhe, dann komme ich zu der meinung, dass die besser ist als die der GTX oder GT !
auch die performence mit 8xAA AA betsätigt dies. d.h. die schlechten ergebnisse (im vergleich zur GT) unter 4xAA/16xAF sind NUR auf die textur-filterung zurück zu führen.
mapel110
2007-11-17, 22:59:44
wenn ich mir die AA skalierung der 3870 und der 2900xt amschauhe, dann komme ich zu der meinung, dass die besser ist als die der GTX oder GT !
auch die performence mit 8xAA AA betsätigt dies. d.h. die schlechten ergebnisse (im vergleich zur GT) unter 4xAA/16xAF sind NUR auf die textur-filterung zurück zu führen.
Und die damit verbundene, geringere Textur-Füllrate. Wenn ATI jetzt noch SSAA anbieten würde, würde ich wohl auch zuschlagen. Allein schon, weil ich mir das AF in Verbindung mit AI angucken möchte. Na mal schauen, vielleicht wandert die kleinere der beiden Karten gegen 100 €, dann kommt sie als Zweitkarte.
Bei der tollen AA-Performance muss man aber bei allem Marketingblabla zwei Dinge beachten, das Teil hat höheren Takt und wohl auch den ein oder anderen Bug des R600 nicht mehr.
laser114
2007-11-17, 23:00:33
wenn ich mir die AA skalierung der 3870 und der 2900xt amschauhe, dann komme ich zu der meinung, dass die besser ist als die der GTX oder GT !
auch die performence mit 8xAA AA betsätigt dies. d.h. die schlechten ergebnisse (im vergleich zur GT) unter 4xAA/16xAF sind NUR auf die textur-filterung zurück zu führen.
Joa, Schade dass das folgende Setting nur in 5 der 9 D3D9-Spielen mit AA-Unterstützung (Anno 1701, CoH, FEAR, Olivion, Prey) halbwegs (avg. fps die nur gut bei über 20 liegen dürften auch für viele noch zu wenig sein) nutzbar ist:
http://s6.directupload.net/images/user/071117/i3alk5ph.jpg (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/28/#abschnitt_performancerating_qualitaet)
GeneralHanno
2007-11-17, 23:01:16
ati hat ja angekündigt, für die 3800 neue AA modi anzubieten ... weis da jmd genaueres, um was für welche es geht ?
dildo4u
2007-11-17, 23:03:00
Bei wirklich nutzbaren Settings bricht AA der Karte noch immer das Genick siehe World in Conflict bei 1280*1024 4XAA/16AF.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/kurztest_ati_radeon_hd_3870_rv670/18/#abschnitt_world_in_conflict
reunion
2007-11-17, 23:04:37
wenn ich mir die AA skalierung der 3870 und der 2900xt amschauhe, dann komme ich zu der meinung, dass die besser ist als die der GTX oder GT !
auch die performence mit 8xAA AA betsätigt dies. d.h. die schlechten ergebnisse (im vergleich zur GT) unter 4xAA/16xAF sind NUR auf die textur-filterung zurück zu führen.
Ja, das AA-Problem scheint beseitigt. Vorallem der Einbruch von 4xAA auf 8xAA ist marginal.
Bei wirklich nutzbaren Settings bricht AA der Karte noch immer das Genick siehe World in Conflict bei 1280*1024 4XAA/16AF.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/kurztest_ati_radeon_hd_3870_rv670/18/#abschnitt_world_in_conflict
Das liegt wohl eher am AF und der geringen Texelfüllrate.
laser114
2007-11-17, 23:06:34
Bei wirklich nutzbaren Settings bricht AA der Karte noch immer das Genick siehe World in Conflict bei 1280*1024 4XAA/16AF.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/kurztest_ati_radeon_hd_3870_rv670/18/#abschnitt_world_in_conflict
Joa, stimmt; da bricht sie ordentlich ein. Dürfte aber nicht am AA liegen. Wobei 1600x1200 mit 4xAA/16xAF immer noch ordentlich gehen (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/27/#abschnitt_world_in_conflict) (28,4 fps vs. 37,5 den einer 8800 GT). Und noch höher dürfte dann schon eine Belastungsprobe sein ... da dann beide Karten unter 20 fps fallen.
reunion
2007-11-17, 23:08:12
Joa, Schade dass das folgende Setting nur in 5 der 9 D3D9-Spielen mit AA-Unterstützung (Anno 1701, CoH, FEAR, Olivion, Prey) halbwegs (avg. fps die nur gut bei über 20 liegen dürften auch für viele noch zu wenig sein) nutzbar ist:
http://s6.directupload.net/images/user/071117/i3alk5ph.jpg (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/28/#abschnitt_performancerating_qualitaet)
Wobei hier wohl das berühmt berüchtigte Problem mit dem Speichermanagement bei nV zuschlägt. Die Karten reagieren ja bekanntlich ziemlich allergisch darauf, wenn der VRAM ausgeh.
Joa, stimmt; da bricht sie ordentlich ein. Dürfte aber nicht am AA liegen. Wobei 1600x1200 mit 4xAA/16xAF immer noch ordentlich gehen (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/27/#abschnitt_world_in_conflict) (28,4 fps vs. 37,5 den einer 8800 GT). Und noch höher dürfte dann schon eine Belastungsprobe sein ... da dann beide Karten unter 20 fps fallen.
Es gibt allerdings auch Gegenbeispiele, wo die Karte ohne AA/AF hinten liegt, und mit AA/AF vorbeizieht. Siehe zB Colin Mc Rae Dirt. Gothic 3 liegt ihr dafür leider gar nicht gut. AA geht hier nicht und mit AF ist die 8800GT tw. doppelt so schnell.
GeneralHanno
2007-11-17, 23:08:24
mich würde ein vergleich der 3870 mit 4xAA/16xAF gegen 4xAA/8xAF interessieren. das müsste die fps hoffentlich spürbar verbessern...
zum thema AF gibt es diesen tollen thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=390610
;D
mapel110
2007-11-17, 23:12:31
mich würde ein vergleich der 3870 mit 4xAA/16xAF gegen 4xAA/8xAF interessieren. das müsste die fps hoffentlich spürbar verbessern...
zum thema AF gibt es diesen tollen thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=390610
;D
AF-Skalierung wurde doch getestet.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/5/#abschnitt_aa_und_af_skalierung
Bei Stalker sinds von 16xAFHQ auf 8xAFHQ ca 10 % mehr fps, in andersartigen Games eher weniger. Macht also den Kohl auch nicht fett.
GeneralHanno
2007-11-17, 23:14:39
aber nicht mit hinzugeschlatetem AA ;)
mapel110
2007-11-17, 23:20:48
aber nicht mit hinzugeschlatetem AA ;)
Dann dürfte der prozentuale Verlust geringer werden, weil eben mehr die Bandbreite belastet wird.
AnarchX
2007-11-18, 00:47:00
Wobei hier wohl das berühmt berüchtigte Problem mit dem Speichermanagement bei nV zuschlägt. Die Karten reagieren ja bekanntlich ziemlich allergisch darauf, wenn der VRAM ausgeh.
Das sieht ja wirklich übel aus...
Da bringt wohl das ~400€ teure 3870 CF mit nur effektiven 512MB teilweise wohl je nach Game in 2560x1600 8xAA/16xAF über 30 FPS, während das ~1000€ teuere 8800Ultra SLI mit seinen 768MB gerade mal 20FPS schafft:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/16/#abschnitt_f_e_a_r
:|
Doc_Nitro
2007-11-18, 00:50:20
Hat denn schon jemand mit einer 3870er den "Crysis-Hotfix-Treiber" ausprobiert?
Jepp funktioniert einwandfrei.
mfg
Marty98
2007-11-18, 05:25:57
CB schreibt dies unter Fazit:
"Der Stromverbrauch der Radeon HD 3870 ist (dank PowerPlay insbesondere unter Windows) sehr gut und die Bildqualität ist angemessen (wenn auch nicht ganz so gut wie bei der Konkurrenz)."
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/34/#abschnitt_beurteilung
Wieso hat jetzt die Karte plötzlich eine schlechtere Bildquali als NVidia?
StefanV
2007-11-18, 05:35:44
Weil nV mit der G8x Serie etwas besser wurd beim AF.
Beim FSAA bietet die G8x Serie auch höhere Einstellungen.
Marty98
2007-11-18, 06:13:59
Finde es schade dass die Reviews die Bildquali nicht vergleichen.
GeneralHanno
2007-11-18, 09:08:45
selbst ist der mann:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/12/#abschnitt_anno_1701
einfach bei CB die 2 bilder öffnen und schnell hin und her schalten.
Mr. Lolman
2007-11-18, 09:10:34
Wieso hat jetzt die Karte plötzlich eine schlechtere Bildquali als NVidia?
Wundert mich auch. Die sollen lieber mal die default BQ unter die Lupe nehmen. Auf einem G84 ist die (zumindest in Q3a) nämlich garnicht mal so toll (bzw flimmriger als auf einem R580)...
GeneralHanno
2007-11-18, 09:25:55
anmerkung zu CB: das sind noch die G80 R600 bilder, aber als grober indiez taugen sie trotzdem.
leider wird bei neuen grafikkarten meist nur darauf geschielt wer den längsten hat (FPS balken ;)). die BQ bleibt meistens außen vor. zum glück gibts immer mit 3 monaten verspätung einen test @ 3DC, der AA/AF/BQ SEEEEHR gut beleuchtet ;)
-/\-CruNcher-/\-
2007-11-18, 09:30:45
selbst ist der mann:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/12/#abschnitt_anno_1701
einfach bei CB die 2 bilder öffnen und schnell hin und her schalten.
Sorry aber ohne einen Directx 9/10 Reference Renderer Vergleich ist das alles schwachsinn (es geht ja darum welcher Treiber am wenigsten von dem dann abweicht)
Referenz-[NVIDIA/ATI] <- So sollte verglichen werden und nicht ATI mit Nvidia
Wieso ist die 8800GT genauso laut wie die HD3870 unter Last?
Da kann was nicht stimmen.Habe beide Karten hier und die 8800GT dreht bei Last ordentlich auf.
mfg
-/\-CruNcher-/\-
2007-11-18, 10:07:49
Weil entweder du den RV670 Chip anscheinend nicht zu 100% Auslastung bekommen hast oder CB den G92 nicht :)
Die Lüftersteuerung ist bei beiden Chips sehr hoch angesetzt erst bei über 100°C gehts ab auf 100% Geschwindigkeit und dann wirds bei beiden Laut, vorher sind beide subjektiv gesehen gleich Laut.
Marty98
2007-11-18, 10:21:27
selbst ist der mann:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/12/#abschnitt_anno_1701
einfach bei CB die 2 bilder öffnen und schnell hin und her schalten.
Finde hier das Bild der Radeon etwas besser. Schwer zu sehen, aber Unterschiede gibt es z.B. bei dem Boot.
Marty98
2007-11-18, 10:24:44
Wieso ist die 8800GT genauso laut wie die HD3870 unter Last?
Da kann was nicht stimmen.Habe beide Karten hier und die 8800GT dreht bei Last ordentlich auf.
mfg
Bei Tomshardware ist die GT sogar deutlich leiser als die 3870:
http://www.tomshardware.com/2007/11/15/amd_radeon_hd_3800/page19.html
Weiss echt nicht mehr was nun stimmt.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/
vollständiger Test jetzt online.
Bei STALKER wäre ein Bild mit den Bäumen interessant. :)
Bei Tomshardware ist die GT sogar deutlich leiser als die 3870:
http://www.tomshardware.com/2007/11/15/amd_radeon_hd_3800/page19.html
Weiss echt nicht mehr was nun stimmt.
Tomshardware halt ... Subjektiv gesehen sind beide gleichlaut, es sei denn sie drehen auf 100%, was aber nur ab einer Temperatur von >100°C. passiert. Doch 100°C. heiß werden beide in der Regel sowieso nicht.
4 Vitamins
2007-11-18, 12:28:30
Finde hier das Bild der Radeon etwas besser. Schwer zu sehen, aber Unterschiede gibt es z.B. bei dem Boot.
ohne ein referenz bild zu haben ,wie -/\-CruNcher-/\- schon sagte, sind solche vergleiche, egal wer diese mach, und wie toll der begründet :SINNFREI.
gruss
Thowe
2007-11-18, 12:30:00
Bei Tomshardware ist die GT sogar deutlich leiser als die 3870:
http://www.tomshardware.com/2007/11/15/amd_radeon_hd_3800/page19.html
Weiss echt nicht mehr was nun stimmt.
Ist eh egal, da die Messungen _relativ_ unsinnig sind und somit über dir Realität niemals ein eindeutiges Bild liefern können, vor allem bei Komponenten, die eben nicht besonders laut sind.
Leider wird ja häufig einfach ein Schallpegelmessgerät in ein Gehäuse gehalten und das dann halt ein paar cm von der Grafikkarte entfernt. So misst man quasi das komplette Rauschen innerhalb eines Gehäuses.
Wie sowas aussieht, ist hier zu sehen: http://www.tweaktown.com/reviews/1222/17/page_17_temperature_and_sound_tests/index.html
In dem Fall hält der Tester es direkt an den Lüfter, was zwar sehr hohe Werte ergibt, aber dennoch "genauer" sein dürfte, als ein paar cm Abstand.
Nimmt man die meisten Tests zu Rate, was den Stromverbrauch unter Last angeht, seltsamerweise gibt es da gravierende Messunterschiede, kann man gemittelt davon ausgehen, dass im Punkte Verbrauch unter diversen maximalen Lastsituationen sich die 8800GT und die 3870 nicht viel tun.
Bleibt also eine optisch, sachliche Überlegung zum Thema des Kühlers. Hier sehe ich einen deutlichen Vorteil für die ATI mit ihrem Dual-Slot-Kühler, der von der Masse her den 8800GT überlegen sein düfte und eben, was für mich sehr wichtig ist, die Wärme zu einem Teil direkt nach draußen befördert, was eben der Systemtemperatur positiv beeinflusst und gleichzeitig bedeutet, dass der Kühler bei geringerer Umgebungstemperatur auch mit weniger aktiver Konvektion = geringere Drehzahl des Lüfters klar kommt.
Gerade in diesem Punkt, addiert mit dem Umstand des ausgesprochen geringen IDLE Verbrauch, halte ich die 3870 im Moment in meinen Augen der 8800GT überlegen, denn letztere hatte mich doch in diesem Kontext gesehen eher enttäuscht.
EDIT: Bislang hat nur HT4U eine realistische Messung betrieben, aber leider bei der 3850 und somit ist das Ergebnis nicht übertragbar. Man kann aber davon ausgehen, dass die 3870 in einem geschlossenen Gehäuse nicht zu hören sein dürfte.
AnarchX
2007-11-18, 12:41:05
Wundert mich auch. Die sollen lieber mal die default BQ unter die Lupe nehmen. Auf einem G84 ist die (zumindest in Q3a) nämlich garnicht mal so toll (bzw flimmriger als auf einem R580)...
Geht es etwas wieder mit deinem Quake-Bildchen los? X-D
Ich glaube das interessiert heute noch weniger als damals, also bitte schon aktuelle Games testen, wenn der BQ-Artikel ansteht.
Just got some interesting info from The Stilt at MuroBBS
He's been testing a HD3870, and like pretty much all reviewers who have OCd the card, reached ~860MHz.
He said, that ATI has already released a new BIOS to fix an issue with the current/review cards - they have the PLL VIO divider set wrong, which prevents the cards from reaching over 862MHz on core. However, most of the retail cards should carry the new BIOS, luckily.
He promised to report with the new BIOS on OCs tomorrow.
Quelle (http://forum.beyond3d.com/showpost.php?p=1094760&postcount=1555)
Na dann bin ich mal gespannt, wie weit die Karten noch gehen.
Super Grobi
2007-11-18, 12:47:23
Das Bios Prob betrifft nur die Review-Karten, oder auch schon die Ausgelieferten? Das würde ja dann bedeuten, daß die Karten die in den nächsten Wochen beim Kunden landen noch ein "falsches" Bios drauf haben.
SG
MechWOLLIer
2007-11-18, 13:04:27
Wundert mich auch. Die sollen lieber mal die default BQ unter die Lupe nehmen. Auf einem G84 ist die (zumindest in Q3a) nämlich garnicht mal so toll (bzw flimmriger als auf einem R580)...
Ist eben die Frage, was man sich anschaut. Wir haben die Erfahrung gemacht, dass der G80 in den meisten Spielen einen bnesseren anisotropen Filter bietet als ATi mit dem R600. Und deswegen ist für uns die Bildqualität eben logischerweise besser. Auch bei Default-Qualität.
Und wi egesagt. Die Bildqualität zwischen R600 und RV670 hat sich weder beim AA noch beim AF geändert. Das haben wir durchaus untersucht. Aber extra nicht im Artikle geschrieben, weil wir eben keine unterschiede finden konnten. Zudem ist ja auch AMD unserer Meinung.
-/\-CruNcher-/\-
2007-11-18, 13:43:00
Bleibt also eine optisch, sachliche Überlegung zum Thema des Kühlers. Hier sehe ich einen deutlichen Vorteil für die ATI mit ihrem Dual-Slot-Kühler, der von der Masse her den 8800GT überlegen sein düfte und eben, was für mich sehr wichtig ist, die Wärme zu einem Teil direkt nach draußen befördert, was eben der Systemtemperatur positiv beeinflusst und gleichzeitig bedeutet, dass der Kühler bei geringerer Umgebungstemperatur auch mit weniger aktiver Konvektion = geringere Drehzahl des Lüfters klar kommt.
Da bin ich mir nicht so sicher, wenn man sich einfach mal das Material anschaut und den 8800 GT und HD3870 Kühlkörper einschmelzen würde, wäre ich der Meinung das es mehr Material ist bei der 8800 GT als wie bei der HD3870, hier wurde einfach wegen den 10°C bedingt durch die 55nm Material gespart seitens ATI (kompensiert mit einem größeren Lüfter).
Bei Nvidia war das nicht möglich sonst wer sie jetzt bei 100% Geschwindigkeit und das durchgehend bei mittlerer Belastung also was momentan die 90°C darstelt, deshalb muss man fairerweise sagen Nvidia hat einfach das bessere (modernere, sieht sogar noch klasse aus *g*) Kühlkonzept das wär genauso Effektiv mit einem 55nm Chip wie ATI ihre Dual-Slot Solution momentan ist, und sehr leise selbst unter maximaler Belastung des RV670. Viele werden jetzt einwenden: "aber die Warme luft sollte besser aus dem Gehäuse" das ist aber nur bedingt richtig mit aussreichendem Luftstrom im Gehäuse sollte das alles kein Problem darstellen, allerdings könnten die Hersteller diese sachen schon ein bischen Modularer aufbauen quasi "Stecker/Kuplungsystem" so das man wenn man möchte die Luft durch ein extra Modul nach aussen führen kann.
The_Invisible
2007-11-18, 13:47:43
CB schreibt dies unter Fazit:
"Der Stromverbrauch der Radeon HD 3870 ist (dank PowerPlay insbesondere unter Windows) sehr gut und die Bildqualität ist angemessen (wenn auch nicht ganz so gut wie bei der Konkurrenz)."
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/34/#abschnitt_beurteilung
Wieso hat jetzt die Karte plötzlich eine schlechtere Bildquali als NVidia?
warum "plötzlich"?
das war ja schon seit R600 so, wobei schlechter subjektiv ist.
mfg
Finde hier das Bild der Radeon etwas besser. Schwer zu sehen, aber Unterschiede gibt es z.B. bei dem Boot.
Hä? Das einzige was sich Unterscheidet ist doch die Fauna, und die bewegt sich halt ein klein wenig, deshalb sind die Bilder nicht identisch.
Die Frage welcher IHV denn nun die bessere BQ hat ist inzwischen ein gestreite auf so hohem Niveau dass ich jedem sagen würde, es ist völlig egal, in der Praxis gibt es keinen Unterschied mehr. Das NV4x-Quality-Flimmern hätte man ja noch beim spielen störend empfinden können, aber was R6xx und G8x abliefern würde wohl nichtmal beim Blindtest auseinandergehalten werden.
Marty98
2007-11-18, 14:50:57
Schau dir die Ruder beim Boot an, sind definitiv anders bei ATI und NVidia.
Thowe
2007-11-18, 14:56:25
Da bin ich mir nicht so sicher, wenn man sich einfach mal das Material anschaut und den 8800 GT und HD3870 Kühlkörper einschmelzen würde, wäre ich der Meinung das es mehr Material ist bei der 8800 GT als wie bei der HD3870, hier wurde einfach wegen den 10°C bedingt durch die 55nm Material gespart seitens ATI (kompensiert mit einem größeren Lüfter).
...
http://www.expreview.com/img/topic/8800gt/8800gt_512mb_cooler.jpg
Wo bläst der Lüfter denn die Luft hin? Die Dicke der Strömungskanäle (Wärmegradiant)? Wieviel Luftdruck braucht der Lüfter, damit da überhaupt Luft bis zum Ende durchtransportiert wird (Stömungswiderstand). Das Kühlkonzept findet man oft in Notebooks, natürlich aus Platzgründen, allerdings gesteht man es dort zu, dass es die warme Luft auch nach draußen führen darf.
Dazu der Kühler der 3870: http://www.computerbase.de/bild/news/18331/6/
Hier wird reines Kupfer verwendet, der Lüfter sitzt in einen perfekten Abstand zum Block, so dass sich der Luftdruck gut entfalten kann, der Block ist kurz genug, dass auch ein eher schwacher Luftstrom "durchfließen" kann.
Der Kühler der 8800GT mag vielleicht eine höhere Wärmekapazität haben, jedoch spielt die beim erreichen der maximal speicherbare Wärmeenergie schlicht weg keine Rolle mehr, hier entscheidet dann nur noch die Wärmeleitfähigkeit und die Effektivität der (Eigen-)Entlüftung. In einem leisen System, wo Lüfter nur mit geringen Umdrehungszahlen arbeiten, ist die ATI der 8800GT somit zwangsweise überlegen.
Der Kühler der 3850 entsprich da eher dem Prinzip der 8800GT: http://www.computerbase.de/bild/news/18331/5/
-/\-CruNcher-/\-
2007-11-18, 15:37:38
Ja und ich wundere mich wie der auf der HD3870 abgeschnitten hätte wir haben hier 10°C reserve mit dem jetzigen lüfter und ATI wollte ihn auch auf der HD3870 einsetzen, wenn man den Gerüchten glauben schenken darf, haben sich aber dann anders entschieden.
Man kann immer Theorien aufstellen wie effizient ein Lüftungsystem ist, fakt bleibt aber das der G92 heisser wird und Nvidia ihn akzeptabel Kühlen kann mit ihrem Kühlsystem und der Logik nach (da der RV670 nicht so heis wird dank 55nm) sollte der deshalb sogar besser auf der HD3870 funktionieren, da wir hier 10°C reserve haben. Vieleicht versucht ja mal jemand den Nvidia Kühler auf die HD3870 zu moden hehe oder den von der HD3850 draufzusetzen, bis dahin bleibt das alles nur Theorie mit logischen fakten. ;)
Mal ne Frage: Gibt es irgendwo ein Review wo die "schnellste" 3870 (800/1220 MHz) gegen die Zotac-AMP antritt?
Mal was anderes:
Mich würde interessieren, wie sehr der RV670 in Beziehung zum Prozessor skaliert.
Es wird immer nur mit hochgetakteten Core2Duos getestet. Mich würde eher interessieren, ob mein Athlon X2 5000+ in Verbindung mit einer 3870er für ein flüssiges Crysis (average 30 FPS) bei mittleren Details reicht.
Gibt es da schon Hinweise zu?
Danke im Voraus!
-/\-CruNcher-/\-
2007-11-18, 16:41:56
Schlussfolgernd zu den ganzen Reviews würde ich sagen das der RV670 die CPU mehr als wie der G92 entlastet (bzw der Catalyst Treiber).
Mr. Lolman
2007-11-18, 17:54:02
Ist eben die Frage, was man sich anschaut. Wir haben die Erfahrung gemacht, dass der G80 in den meisten Spielen einen bnesseren anisotropen Filter bietet als ATi mit dem R600. Und deswegen ist für uns die Bildqualität eben logischerweise besser. Auch bei Default-Qualität.
Etwas praxisbezogenes wär dazu sicher nicht ganz verkehrt.
Geht es etwas wieder mit deinem Quake-Bildchen los? X-D
Ich glaube das interessiert heute noch weniger als damals, also bitte schon aktuelle Games testen, wenn der BQ-Artikel ansteht.
Siehst du irgendwo ein Bildchen? Mir fiel das einfach beim Q3a-spielen auf (ohne dass ich irgendwie vorgehabt hätte, die NV-BQ genauer zu untersuchen)
Und wegen dem Artikel mach dir mal keine Sorgen...
Schau dir die Ruder beim Boot an, sind definitiv anders bei ATI und NVidia.
Da wurde halt etwas anderes gerechnet/gesampled. Da müsste man den Shader analysieren was jetzt das genauere Ergebnis ist.
Thowe
2007-11-18, 19:29:12
...
fakt bleibt aber das der G92 heisser wird ...
Bei einer ähnlichen Verlustleistung der Karten, subtrahiert man Speicher und Komponenten des Netzteils auf dieser, die ebenfalls ähnlich liegen, werden die Chips auch ähnlich warm. Die Strukturgröße ist dabei egal.
MechWOLLIer
2007-11-18, 20:10:16
Etwas praxisbezogenes wär dazu sicher nicht ganz verkehrt.
Neben den üblichen HL2-Test (was sich wie du sicherlich weiß hervoragend dazu eignet, was AF-betrift) einfach Spielen, Spielen, Spielen. Mit der Zeit habe ich schon das ein oder andere Spiel ausprobiert und gezielt mir die AF-Qualität der ATi- und Nvidia-Grafikkarten angeschaut. Und so konnte ich meine Meinung eben festigen.
Natürlich gibt es auch Anwendungen, wo sich das Blatt dreht, keine Frage. Diese sind aber imo sehr selten.
Die Frage welcher IHV denn nun die bessere BQ hat ist inzwischen ein gestreite auf so hohem Niveau dass ich jedem sagen würde, es ist völlig egal, in der Praxis gibt es keinen Unterschied mehr. Das NV4x-Quality-Flimmern hätte man ja noch beim spielen störend empfinden können, aber was R6xx und G8x abliefern würde wohl nichtmal beim Blindtest auseinandergehalten werden.
Hehe, schön wär's. Zeig mir zwei Spiele mit grenzwertig fiesem Content in Bewegung und ich sage dir, ob ein R600 (mit A.I.) oder G80 (auf HQ) das Bild rendert. Die Standard-Treibereinstellung flimmert bei beiden Herstellern und ist damit für mich immer öfter inakzeptabel. Deswegen habe ich nun auch einen G80 im Rechner, denn das BQ-Fazit lautet IMO folgendermaßen: Beide flimmern in bestimmten Einstellungen, aber nur mit einer Geforce (8) hat der Nutzer zusätzlich die Möglichkeit, das zu unterbinden oder stark einzuschränken! Ati hat die BQ durch das Daueroptimieren von R580 auf R600 leider gesenkt.
Mir fiel das einfach beim Q3a-spielen auf (ohne dass ich irgendwie vorgehabt hätte, die NV-BQ genauer zu untersuchen)
Das glaube ich dear sogar, aber Fakt ist, dass man in Form von 16xS und 32xS sehr effektive Keulen hat, um die BQ weit über Radeon-Niveau zu hieven. Und das ist sehr schade, da ja beide IHVs RGSSAA anbieten könnten ...
MfG,
Raff
Ein paar BQ vergleiche
http://img81.imageshack.us/img81/6602/atiovm4.jpg
http://img115.imageshack.us/img115/2130/mhem6.jpg
Crysis
http://img131.imageshack.us/img131/1560/cookm6.jpg
CoD 4
Sicher, dass bei dem CoD 4-Bild auch bei der GF8 die "Extra"-Texturen an waren? Das schaut nach einer anderen Texturauflösung aus. Abgesehen davon, dass es gestreckt ist.
MfG,
Raff
GeneralHanno
2007-11-18, 20:54:26
Mal was anderes:
Mich würde interessieren, wie sehr der RV670 in Beziehung zum Prozessor skaliert.
Es wird immer nur mit hochgetakteten Core2Duos getestet. Mich würde eher interessieren, ob mein Athlon X2 5000+ in Verbindung mit einer 3870er für ein flüssiges Crysis (average 30 FPS) bei mittleren Details reicht.
Gibt es da schon Hinweise zu?
Danke im Voraus!
schau mal hier:
http://www.3dcenter.de/artikel/2007/09-25_a.php
K4mPFwUr$t
2007-11-18, 20:55:13
der kontrast wirkt bei der ATI wesentlich besser :eek:
Spasstiger
2007-11-18, 20:55:40
Gibts schon Benches von 3870 Crossfire vs. 8800 GT SLI? Ich kann mir vorstellen, dass gerade bei hohen Auflösungen mit AA der Crossfire-Verbund besser da steht, da die Einbrüche bei VRAM-Knappheit und hohen AA-Stufen mit der 3870er weit geringer ausfällt. Nur die fps sind in solchen Situationen schon unter der Spielbarkeitsgrenze. Im Crossfire-Verbund könnte das gleich ganz anders aussehen.
Crossfire X mit 4*3870 könnte sogar vorübergehend den Thron übernehmen. ATI bietet Crossfire X ja ab jetzt offiziell, oder?
AnarchX
2007-11-18, 21:06:13
Crossfire X mit 4*3870 könnte sogar vorübergehend den Thron übernehmen.
4-Way-AFR wird es aber wohl nur unter D3D10/OGL geben.
ATI bietet Crossfire X ja ab jetzt offiziell, oder?
AFAIK sollt es morgen mit 790FX (Spider-Plattform) starten, was wiederrum ein Problem aufwirft: Man kann es nur mit einer AMD-CPU nutzen, die ja für Enthusiasten nicht gerade so interessant sind momentan und Phenom X4 scheint es vorerst nur auf 2.3GHz zu schaffen.
Zudem werden wohl 4x 3870 nicht unbedingt in jedem 790FX-Board passen bzw. bietet ja nicht jedes Gehäuse Platz für 8 Slots.
Da sollte man wohl eher auf die 3870 X2 im Januar warten:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=390975
reunion
2007-11-18, 21:35:44
AFAIK sollt es morgen mit 790FX (Spider-Plattform) starten,
Das kommt wohl erst im Januar mit der 3870 X2.
sklave_gottes
2007-11-18, 22:07:08
4-Way-AFR wird es aber wohl nur unter D3D10/OGL geben.
AFAIK sollt es morgen mit 790FX (Spider-Plattform) starten, was wiederrum ein Problem aufwirft: Man kann es nur mit einer AMD-CPU nutzen, die ja für Enthusiasten nicht gerade so interessant sind momentan und Phenom X4 scheint es vorerst nur auf 2.3GHz zu schaffen.
Zudem werden wohl 4x 3870 nicht unbedingt in jedem 790FX-Board passen bzw. bietet ja nicht jedes Gehäuse Platz für 8 Slots.
Da sollte man wohl eher auf die 3870 X2 im Januar warten:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=390975
Das 4-Way-AFR ist wohl das Gröste Problem dann, denn 4 Dual Karten in einen Big Tower zu kriegen ist nicht das Problem wenn das Mainboard mit den Steckplätzen gut umgeht, der ein Big Tower hört ja nicht nach dem 7 Kartenslot auf :wink:
Ausserdem Halte ich immer noch nicht soviel von dual gpu, geschweige denn von quad. Ich finde der mehraufwand ist noch einfach zu gross für den nutzen, gerade/vorallem dann wenns noch singel Karten gibt die die selbe Leistung erreichen.(g92GTX?)
Zitat von Ailuros
Das bildet aber keine einzige Entschuldigung fuer AMD dass jegliche Fuellrate (Pixel-,Z-,Texel-) zu kurz ausgefallen ist. Wieviel Spiele brauchen wird nicht von den ISVs und nicht von den IHVs bestimmt; zwar koennte es noch eine weitere Perspektive geben aber solange die Konkurrenz eine Uebermenge an Fuellraten liefert, wird AMD stets in diesem Feld im Nachteil sein.
Das witzige an der ganzen Sache ist dass seitdem die ex-3dfx Kerle mit voller Pulle bei NVs R&D mitmachen kann man klar die Uebernahme einiger "Philosophien" der Vergangenheit sehen. Multi-GPU kam wieder in unser Leben und der uralte Spruch "fillrate is king" so gut wie moeglich geehrt.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/5/#abschnitt_aa_und_af_skalierung
Ist das nicht der Beweis dafür das gerade die Pixel-und vorallem die viel zu überschätzte Z- Fuellrate eben alles andere als zu kurz ausgefallen sind auf dem rv670/r600 ?
Das einzige was ich als Totale schwäche beim rv670 finden kann ist seine TexelFuellrate.
iXBT: ATI RADEON 3850/3870 (RV670) (http://www.ixbt.com/video3/rv670-part1.shtml)
iXBT: ATI RADEON 3850/3870 (RV670) (http://www.ixbt.com/video3/rv670-part1.shtml)
Im Review wird empfohlen, mittels RivaTuner die Drehzahl des Lüfters etwas anzuheben, ohne dabei die "Lautlosigkeit" der Grafikkarte zu verlieren: Die Temperatur der GPU sinkt deutlich.
btw es ist eine extrem interessante trendwende das scheinbar die ATi weniger stark mit AA&AF einbricht wie der direkte konkurrent...vorallem in höheren auflösungen xD
ironie des schicksals? ;o)
LovesuckZ
2007-11-19, 00:39:47
btw es ist eine extrem interessante trendwende das scheinbar die ATi weniger stark mit AA&AF einbricht wie der direkte konkurrent...vorallem in höheren auflösungen xD
Beim AA tat es auch schon der r600 nicht. Und beim Ansiotropen Filter sollte man erstmal die Default-Einstellung anhand der Bildqualität überprüfen.
StefanV
2007-11-19, 02:46:54
Das 4-Way-AFR ist wohl das Gröste Problem dann, denn 4 Dual Karten in einen Big Tower zu kriegen ist nicht das Problem wenn das Mainboard mit den Steckplätzen gut umgeht, der ein Big Tower hört ja nicht nach dem 7 Kartenslot auf :wink:
Doch, hört er, denn du brauchst ja noch 'nen Slot damits Lüftle raus kommt und das geht nicht.
Darum gings auch hier...
Marty98
2007-11-19, 04:40:05
Beide flimmern in bestimmten Einstellungen, aber nur mit einer Geforce (8) hat der Nutzer zusätzlich die Möglichkeit, das zu unterbinden oder stark einzuschränken![/b].
Was muss man dazu einstellen?
-/\-CruNcher-/\-
2007-11-19, 06:33:21
Sie an sie an also wenn man sich die Platinen Layouts anschaut dann würde der HD3850 Singleslot Kühler auf die HD3870 passen, mann muss nur den Passiven Spawa kühler abmontieren die 3 Kondensatoren sind so wie es aussieht tief genug das die Kupferplatte drübergehen würde :)
http://www.ixbt.com/video3/images/rv670/hd3850-scan-front.jpg
http://www.ixbt.com/video3/images/rv670/hd3870-scan-front.jpg
HD3870 = 11 Kondensatoren (alles Solid), 5 Spawa
HD3850 = 12 Kondensatoren (davon 4 non solid), 4 Spawa
viel mehr unterscheidet die Boards nicht auf den ersten Blick
Sapphire RADEON HD 3870 256MB PCI-E???? <- das ist doch sicherlich ein schreibfehler?
Die Gerüchte das der Singleslot ursprünglich auf die HD3870 sollte könnten der Wahrheit entsprechen, scheint jedenfalls zu passen.
http://www.ixbt.com/video3/images/rv670/hd3850-cooler2.jpg
Hmm findet ihr nicht auch das Prey (Idtech4) die Raw Performance der Karten am Realistischsten darstellt? (Problematisch hier Optimierungen von ausserhalb einzuarbeiten, vieleicht wegen OGL???)
http://www.ixbt.com/video3/rv670-part3-d.shtml#p31
sklave_gottes
2007-11-19, 12:47:11
Doch, hört er, denn du brauchst ja noch 'nen Slot damits Lüftle raus kommt und das geht nicht.
Darum gings auch hier...
Da ist erstens noch 5mm platz für die Luft oder 2tens haust du halt auf der letzten Karte einen anderen lüfter drauf :wink:
Zitat von LovesuckZ
Beim AA tat es auch schon der r600 nicht. Und beim Ansiotropen Filter sollte man erstmal die Default-Einstellung anhand der Bildqualität überprüfen.
Ja eben aber viele sind hier immer noch der Meinung das der r600/rv670 mit aa die meiste Leistung verliert was aber nicht der fall ist.
Es liegt anscheinend "nur" am AF bzw den TMUs
StevenB
2007-11-19, 12:56:19
*auf die Verfügbarkeit wartet*
Ebay gibt es zwar welche, aber für 239€ nein danke...
DrFreaK666
2007-11-19, 13:03:52
*auf die Verfügbarkeit wartet*
Ebay gibt es zwar welche, aber für 239€ nein danke...
Dafür fallen dort nur 4,99€ Versandkosten an.
Super Grobi
2007-11-19, 13:05:37
Dafür fallen dort nur 4,99€ Versandkosten an.
Nur weil jemand bei ebay behauptet, das er welche hat, hat er noch lange keine! Das ist ebay ;)
SG
StevenB
2007-11-19, 13:17:22
Nur weil jemand bei ebay behauptet, das er welche hat, hat er noch lange keine! Das ist ebay ;)
SG
Es gab ja auch leider schon genug Threads über Betrüger bei Ebay. Ich sage nur Core2Duo usw.
Beide flimmern in bestimmten Einstellungen, aber nur mit einer Geforce (8) hat der Nutzer zusätzlich die Möglichkeit, das zu unterbinden oder stark einzuschränken!
Mit AI-High kann mans anscheinend auch unterbinden oder zumindest einschränken.
chemistry
2007-11-19, 15:23:49
Nur weil jemand bei ebay behauptet, das er welche hat, hat er noch lange keine! Das ist ebay ;)
SG
Richtig - und in der Artikelbeschreibung steht: originalverpackte Neuware
Liefertermin: Laut Hersteller Anfang Dezember
LOL!;D
Marodeur
2007-11-19, 16:38:53
Mal eine Frage zum Stromverbrauch. Hab bisher immer nur den Vergleich zu relativ aktuellen Karten gesehen aber nicht zu älteren Generation wie z.B. meiner 7900 GTO obwohl doch meist diese zum wechseln anstehen. Wie schauts da denn aus?
Wenn vom Preis die Rede ist sollte man ja nicht vergessen das man für die eine Karte vielleicht ein neues Netzteil braucht was man sich bei der anderen möglicherweise sparen kann. Sind ja auch ein paar läppische Euros. (Bei mir werkelt da noch ein Revoltec Chromus II - 400W) ;)
sklave_gottes
2007-11-19, 17:18:59
Mal eine Frage zum Stromverbrauch. Hab bisher immer nur den Vergleich zu relativ aktuellen Karten gesehen aber nicht zu älteren Generation wie z.B. meiner 7900 GTO obwohl doch meist diese zum wechseln anstehen. Wie schauts da denn aus?
Wenn vom Preis die Rede ist sollte man ja nicht vergessen das man für die eine Karte vielleicht ein neues Netzteil braucht was man sich bei der anderen möglicherweise sparen kann. Sind ja auch ein paar läppische Euros. (Bei mir werkelt da noch ein Revoltec Chromus II - 400W) ;)
Deine Karte kannst du vom verbrauch mit der 7900GTX vergleichen hier in dem test.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/31/#abschnitt_leistungsaufnahme
Im IDLE verbraucht die HD3870 21Watt weniger also c.a. die helfte.
Im voll Last bereich nur 9 Watt mehr, könntest also dein Netzteil ohne Probleme Behalten.
mfg martin
Marodeur
2007-11-19, 17:26:53
Deine Karte kannst du vom verbrauch mit der 7900GTX vergleichen hier in dem test.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/31/#abschnitt_leistungsaufnahme
Im IDLE verbraucht die HD3870 21Watt weniger also c.a. die helfte.
Im voll Last bereich nur 9 Watt mehr, könntest also dein Netzteil ohne Probleme Behalten.
mfg martin
Das ist ja mal eine gute Neuigkeit... =)
Hm, war ja klar das ich grad CB verpeil... Narf...
-/\-CruNcher-/\-
2007-11-20, 11:04:15
Das neue Bios ist da, soll die 862MHz Limitierung aufheben aber ohne bessere Kühlung ist Vorsicht angesagt wobei MHz Erhöungen hier nur 2-3°C ausmachen und das bei den 10°C reserve kein Problem darstellen sollte für den RV670.
http://www.xtremesystems.org/forums/showpost.php?p=2569171&postcount=328
Super Grobi
2007-11-20, 11:09:40
Das neue Bios ist da, soll die 862MHz Limitierung aufheben aber ohne bessere Kühlung ist Vorsicht angesagt wobei MHz Erhöungen hier nur 2-3°C ausmachen und das bei den 10°C reserve kein Problem darstellen sollte für den RV670.
http://www.xtremesystems.org/forums/showpost.php?p=2569171&postcount=328
Was war den genau mit dem alten Bios los? Gabs zuwenig Saft für die GPU? Wenn ja, hat das ja auch Vorteile ;). Ich gehöre eh zu den Soft-Clockern und würde, falls Overdrive 850mhz ausspuckt, eh max 820mhz fahren. Von daher ist eh ein neues Bios wegen bessern OCing für mich uninteressant. Aber wissen was los ist, möchte ich denoch.
SG
reunion
2007-11-20, 11:17:36
Was war den genau mit dem alten Bios los? Gabs zuwenig Saft für die GPU? Wenn ja, hat das ja auch Vorteile ;). Ich gehöre eh zu den Soft-Clockern und würde, falls Overdrive 850mhz ausspuckt, eh max 820mhz fahren. Von daher ist eh ein neues Bios wegen bessern OCing für mich uninteressant. Aber wissen was los ist, möchte ich denoch.
SG
Ne es gab einen Lock im Bios, sodass sich kein Chip auch bei hohen Spannungen und sehr guter Kühlung über 862Mhz übertakten ließ.
Super Grobi
2007-11-20, 11:24:04
Ne es gab einen Lock im Bios, sodass sich keim Chip auch bei hohen Spannungen und sehr guter Kühlung über 862Mhz übertakten ließ.
Ach so. Also 863mhz ging auf keinen Fall...
Danke
SG
-/\-CruNcher-/\-
2007-11-20, 11:33:07
Jep obwohl Overdrive selbst 885MHz als grenze anzeigt ist keiner bis dahin gekommen, sollte sich nun ändern :)
MadManniMan
2007-11-20, 12:31:49
Das neue Bios ist da, soll die 862MHz Limitierung aufheben aber ohne bessere Kühlung ist Vorsicht angesagt wobei MHz Erhöungen hier nur 2-3°C ausmachen und das bei den 10°C reserve kein Problem darstellen sollte für den RV670.
http://www.xtremesystems.org/forums/showpost.php?p=2569171&postcount=328
Was ist Dein persönliches Interesse gerade so sehr am RV670? Ich bin selbst ein ziemlicher Graka-Freak, aber bei Dir ists einfach derart gefärbt, daß da Geld (oder eine andere materielle Zuwendung) dahinterstecken muß.
Versteh mich nicht falsch, ich finde Deine Infos trotzdem gut, denn Du versorgst den Thread genau mit dem, was er braucht. Und wirkungsvoll ist diese Form des Marketings auch, keine Frage. Nur würde es hier gewiss alle freuen, wenn Du mit offenen Karten spieltest, denn Deine "Meinung" ist nur auf diese Art und Weise erklärbar.
MfG, Manni aus dem Marketing
Bitte mal ein paar overclocking Tests mit dem neuen Bios!!!! ;)
Super Grobi
2007-11-20, 13:10:39
Jep obwohl Overdrive selbst 885MHz als grenze anzeigt ist keiner bis dahin gekommen, sollte sich nun ändern :)
Wenn es wirklich Karten gibt, die 885mhz ohne fehler packen und dazu noch der Ram 1,3ghz packt, sollte das schon eine super Leistung ergeben. Das ganze noch für 200 Euro :eek:
Da du dich damit auskennst, frag ich nochmal die gleiche Frage wie vor kurzen, die mir leider keiner Beantwortet hat: Gibt es Overdrive auch unter Vista oder ist das nur unter XP voerhanden?
Gruß
SG
p.s.
*zitter-zitter*.. hoffentlich besitze ich in 48h meine 3870 :|
Jake Dunn
2007-11-20, 14:51:23
Was ist Dein persönliches Interesse gerade so sehr am RV670? Ich bin selbst ein ziemlicher Graka-Freak, aber bei Dir ists einfach derart gefärbt, daß da Geld (oder eine andere materielle Zuwendung) dahinterstecken muß.
Versteh mich nicht falsch, ich finde Deine Infos trotzdem gut, denn Du versorgst den Thread genau mit dem, was er braucht. Und wirkungsvoll ist diese Form des Marketings auch, keine Frage. Nur würde es hier gewiss alle freuen, wenn Du mit offenen Karten spieltest, denn Deine "Meinung" ist nur auf diese Art und Weise erklärbar.
MfG, Manni aus dem Marketing
Ich verstehe dein Problem nicht, es ist doch gut wenn hier sinnvolle Posts gebracht werden und selbst wenn an deiner Theorie was dran wäre (was ich nicht glaube), was hättest DU den für ein Nachteil dadurch :confused:
Manche haben echt Para ;D
Da du dich damit auskennst, frag ich nochmal die gleiche Frage wie vor kurzen, die mir leider keiner Beantwortet hat: Gibt es Overdrive auch unter Vista oder ist das nur unter XP voerhanden?
Gruß
SG
p.s.
*zitter-zitter*.. hoffentlich besitze ich in 48h meine 3870 :|
Overdrive geht auch unter VISTA :wink:
StevenB
2007-11-20, 14:55:26
p.s.
*zitter-zitter*.. hoffentlich besitze ich in 48h meine 3870 :|
Kam gerade eine Mail:
Sehr geehrte Kundin,
sehr geehrter Kunde,
da unser Zentrallager am vergangenen Wochenende umgezogen ist und wir eine interne Software-Umstellung hatten, ist es bei der Abwicklung der Bestellungen bedauerlicherweise vereinzelt zu Verzögerungen gekommen. Dieses betrifft leider auch Ihre Bestellung. Die Auslieferung verzögert sich daher um ca. 3-4 Tage.
Bitte entschuldigen Sie diese verzögerte Auslieferung.
Sobald Ihre bestellte Ware unser Haus verlassen hat, werden wir Sie darüber informieren.
Marty98
2007-11-20, 15:17:28
Kam gerade eine Mail:
Die Auslieferung verzögert sich daher um ca. 3-4 Tage.
Wird schnell 1 Woche draus, wenn nicht 2.
Super Grobi
2007-11-20, 15:21:24
Ich wäre endlich mal dafür, das einige 3870 Threads geschlossen werden! Hier im Forum existieren 3 (oder 4?) Threads zu dem Teil. Alles wird kreuz und quer gepostet. Bestes Beispiel dafür sind die aktuellen Mails von Atelco und Hardwareversand.
Lieber Mod. Mach bitte einfach ALLE Threads dicht und starte EINEN 3850/3870 Sammelthread.
Danke schön
SG
MadManniMan
2007-11-20, 15:50:16
Ich verstehe dein Problem nicht, es ist doch gut wenn hier sinnvolle Posts gebracht werden und selbst wenn an deiner Theorie was dran wäre (was ich nicht glaube), was hättest DU den für ein Nachteil dadurch :confused:
Manche haben echt Para ;D
Mein persönlicher Nachteil ist in seinem speziellen Fall recht gering, da seine Einschätzung für mich so durchschaubar und hanebüchen sind, daß ich mit meinem kleinen Wissen ohne Weiteres drüberstehen kann. Mir geht es eher darum, daß er den eigentlich recht neutralen Status als Foren-Mitglied missbraucht, um Stimmung zu machen - denn nicht jeder erkennt hinter seinen Äußerungen seine Gefärbtheit.
Dass es Leute in der von mir für ihn vermuteten Position gibt, dafür gibt es genügend Quellen.
Warum aber er?
- kurz vor Launch registriert, seither sehr regelmäßiges, überdurchschnittlich zahlreiches und aufwändiges Posten
- hanebüchene Theorien, die AMD besser dastehen lassen, als es eine nüchterne Betrachtung zulassen würde
- erst Betonung der eigenen Neutralität ("ja die 8800 GT is ja echt OK"), dann Relativierung des Konkurrenzproduktes ("naaa, die kriegt man ja gar nicht!"), Betonung des bevorzugten Produktes (kaum mehr Nennung der nV-Karte, fortwährend Posts pro RV670), dabei Auslassen empflindlicher Details (Verfügbarkeit RV670)
- keine schlüssige Rechtfertigung seiner Gefärbtheit
100%ig sicher bin ich mir bei ihm nicht, aber zumindest so weit, daß ich gern darauf hinweise.
Lieber Mod. Mach bitte einfach ALLE Threads dicht und starte EINEN 3850/3870 Sammelthread.
Quark. Sammelthreads sind Megascheisse. Schau mal was bei Luxx los ist, einfach grausam...
MadManniMan, warum so sugestiv? weißt du, wie sich jemand fühlt, der unschuldig madig gemacht wird...?
Ati bezahlt doch hier keine Animateure, aber hallöchen - geht's noch? :wink:
MadManniMan
2007-11-20, 16:22:46
MadManniMan, warum so sugestiv? weißt du, wie sich jemand fühlt, der unschuldig madig gemacht wird...?
Ich entschuldige mich gern groß und breit und krieche ein paar Wochen lang, wenn mir belegt wird, daß ich Quatsch denke ;(
Ati bezahlt doch hier keine Animateure, aber hallöchen - geht's noch? :wink:
Das macht jeder IHV und ISV, dessen Marketingabteilung ein bisschen größer ist.
Ati bezahlt doch hier keine Animateure, aber hallöchen - geht's noch? :wink:
Das ist durchaus übliche Praxis. Ich würde das nicht so weit von der Hand weißen wollen.
Ja, von diversen Fahrzeugherstellern und NVidia ist es ja bekannt, warum sollte es ATI nicht auch machen. Gehört heutzutage beim Marketing einfach dazu.
Ja, von diversen Fahrzeugherstellern und NVidia ist es ja bekannt, warum sollte es ATI nicht auch machen. Gehört heutzutage beim Marketing einfach dazu.
Hmm... das erklärt dann auch einige der unheimlichen Gast-Postings die völlig an der Realität vorbei gehen und einfach Fakten behaupten, die nachweislich falsch sind, in der Hoffnung, dass Leser, die nur Thread-Ausschnitte lesen, dies dann für bahre Münze nehmen. Tz tz, da müsste man doch was machen können, z.B. IPs loggen und blockieren. Kann mir nicht vorstellen das große Firmenabteilungen nicht über feste IP-Adressen im Netz sind. Hier wären die Admins/Mods gefragt.
AMC
Schlammsau
2007-11-20, 17:42:38
Hmm... das erklärt dann auch einige der unheimlichen Gast-Postings die völlig an der Realität vorbei gehen und einfach Fakten behaupten, die nachweislich falsch sind, in der Hoffnung, dass Leser, die nur Thread-Ausschnitte lesen, dies dann für bahre Münze nehmen. Tz tz, da müsste man doch was machen können, z.B. IPs loggen und blockieren. Kann mir nicht vorstellen das große Firmenabteilungen nicht über feste IP-Adressen im Netz sind. Hier wären die Admins/Mods gefragt.
AMC
also ich wäre vorsichtig mit solchen mutmassungen, sicherlich kommt sowas auf beiden seiten vor aber überbewerten würde ich das nicht!
Da müsste man ja die hälfte der User sperren......:rolleyes:
Große Firmen haben zwar fixe IPs, aber ich denke nicht, dass, falls sie sowas tun, mit ihrer IP das machen sondern eher Proxy- oder Anonymisierungsdienste nutzen.
ps: Ich kann mir garnicht vorstellen, dass AMD das macht, deren Marketing ist in der Regel einfach nur grottig und so groß ist 3DCenter nun auch wieder nicht.
Super Grobi
2007-11-20, 17:45:00
Lassen wir doch jetzt bitte das Bot-Thema.
1. Können WIR eh nichts dran machen
2. Glauben WIR eh nicht alles. Sowas funktioniert nur im Giga-Forum
SG
Lassen wir doch jetzt bitte das Bot-Thema.
1. Können WIR eh nichts dran machen
2. Glauben WIR eh nicht alles. Sowas funktioniert nur im Giga-Forum
SG
also ich wäre vorsichtig mit solchen mutmassungen, sicherlich kommt sowas auf beiden seiten vor aber überbewerten würde ich das nicht!
Da müsste man ja die hälfte der User sperren......:rolleyes:
Da wäre ich wiederum vorsichtig. Wirft man einen Blick auf die 3DC-Forenkultur so fällt auf, dass schon eine einzige, absichtliche Provokation durch Falschaussagen wie "die G80 hat eine schlechtere Bildqualität als eine HD3870" ohne Begründung, Quellen, etc. dazu führt, dass sich eine Menge von Usern sofort auf diese Behauptung stürzen, statt sie zu ignorieren, oder kurz auf die Quellen zu verweisen in denen die Behauptung ad absurdum geführt wird. Stattdessen branden riesige Diskussionen auf die eine weitere Grundlage für Fanboy-Kriege darstellen können. Wobei natürlich auch klar ist, dass man solche sinnlosen Behauptungen nicht in einem Forum, wo sich Leser eine Meinung bilden wollen, unkommentiert stehen lassen darf. Dies ist halt die crux dabei: Wenn bekannte fanboys sich zum Thema äussern, kann man sie getrost überlesen, bei wechselnden Gästen und Membern aus Marketingabteilungen, ist das leider nicht so einfach möglich.
Nun gut, back ² topic!
AMC
saddevil
2007-11-20, 18:02:29
ich finde die karte schon super ..
gerade zum konkurenzprodukt
ich entscheide mich anhand der verfügbarkeit und des preises
lege mich nicht fest ob 3870 oder 8800Gt
bin aber bis dahin sehr gespannt was da so passieren wird
weil ja immer gesagt wird das neue karten an treiber kränkeln ...
mal schauen wie das wird in ~1- 1 1/2 monate
was es dann gibt zu welchem preis ... das wird geholt
lege mich da nicht fest
hatte bisher in den letzten jahren immer NV... mal schauen was es jetzt wird
w0mbat
2007-11-20, 18:07:58
Na klar gibt es bezahlte ATI/NVIDIA Mitarbeiter die PR in Foren betreiben.
Na klar gibt es bezahlte ATI/NVIDIA Mitarbeiter die PR in Foren betreiben.
Quark. Ist doch völlig unnötig. Die Fanboys beider Lager erledigen das völlig umsonst.
HD-Ronny
2007-11-20, 18:28:36
Was mir gut an der 3870 gefällt ist der Idle Stromverbrauch und das sie in hohen Auflösungen mit AA/AF nicht so einbricht. Hab mir jetzt auch eine bestellt und werde sie mal gegen meine 7950GX2 testen.
Hmm... das erklärt dann auch einige der unheimlichen Gast-Postings die völlig an der Realität vorbei gehen und einfach Fakten behaupten, die nachweislich falsch sind, in der Hoffnung, dass Leser, die nur Thread-Ausschnitte lesen, dies dann für bahre Münze nehmen. Tz tz, da müsste man doch was machen können, z.B. IPs loggen und blockieren. Kann mir nicht vorstellen das große Firmenabteilungen nicht über feste IP-Adressen im Netz sind. Hier wären die Admins/Mods gefragt.
AMC
Wenn du nicht willst, dass eine Firma mit falschen Aussagen einen Vorteil bekommt, dann dürftest du keine Karte von Nvidia kaufen. Die sind nämlich die Meister der Irreführung von Kunden.
laser114
2007-11-20, 18:32:23
Quark. Ist doch völlig unnötig. Die Fanboys beider Lager erledigen das völlig umsonst.
Bisschen zum anheizen kann ich mir das schon vorstellen.
Ist aber hier nicht das Thema. ;)
-/\-CruNcher-/\-
2007-11-20, 19:57:39
Was ist Dein persönliches Interesse gerade so sehr am RV670? Ich bin selbst ein ziemlicher Graka-Freak, aber bei Dir ists einfach derart gefärbt, daß da Geld (oder eine andere materielle Zuwendung) dahinterstecken muß.
Versteh mich nicht falsch, ich finde Deine Infos trotzdem gut, denn Du versorgst den Thread genau mit dem, was er braucht. Und wirkungsvoll ist diese Form des Marketings auch, keine Frage. Nur würde es hier gewiss alle freuen, wenn Du mit offenen Karten spieltest, denn Deine "Meinung" ist nur auf diese Art und Weise erklärbar.
MfG, Manni aus dem Marketing
Animateur ich!! :D, interessant aber ich kann dich und Coda beruhigen bin weder der Marketingabteilung Nvidias noch AMD/ATIs entsprungen, habe auch keinen wirtschaftlichen nutzen daraus hier zu posten, desweiteren ist meine Person auch bei keinem Shop tätig und es ist nicht meine Absicht die Leute zum Kauf anzuregen (habe ja auch schon selbst die Vermutung geäussert das solche "Animateure" in den Foren unterwegs sind).
Bin ein ganz normaler user und zu meiner "Färbung" wie ich schon sagte Nvidia ist ganz klar Technologisch gesehen vorne da habe ich auch nie das Gegenteil behauptet, und das ich das vorgehen von Nvidia nicht ok finde hab ich auch schon erwähnt. Wenn ich mich recht entsinne habe ich es als skrupellos bezeichnet, zugegeben vieleicht eine etwas harte Ausdrucksweise aber diese ganze G92 hinhalterei ist schon wieder soetwas komisches. Wenn es wirklich so kommen sollte das ATIs Karten die User früher erreichen trotz ihres späteren Starttermins ist es für mich fast schon eindeutig das Nvidia und ihre AIB Partner geplannt vorgegangen sind (schiebt man dann einfach auf die Zulieferer per Internet Gerücht), vor allem im Bezug darauf das die ganzen anderen Lineups quasi unbrauchbar geworden sind und somit die Händler und Distributoren auf den sachen sitzen bleiben. Diese Startzeit mit den überhöten Preisen die einige auch bereitwillig Zahlen kompensiert diese Verluste anscheinend etwas, somit sind die Händler nicht ganz so verzweifelt ;).
Animateur ich!! :D, interessant aber ich kann dich und Coda beruhigen bin weder der Marketingabteilung Nvidias noch AMD/ATIs entsprungen, habe auch keinen wirtschaftlichen nutzen daraus hier zu posten, desweiteren ist meine Person auch bei keinem Shop tätig und es ist nicht meine Absicht die Leute zum Kauf anzuregen (habe ja auch schon selbst die Vermutung geäussert das solche "Animateure" in den Foren unterwegs sind).
Bin ein ganz normaler user und zu meiner "Färbung" wie ich schon sagte Nvidia ist ganz klar Technologisch gesehen vorne da habe ich auch nie das Gegenteil behauptet, und das ich das vorgehen von Nvidia nicht ok finde hab ich auch schon erwähnt. Wenn ich mich recht entsinne habe ich es als skrupellos bezeichnet, zugegeben vieleicht eine etwas harte ausdrucksweise aber diese ganze G92 hinhalterei ist schon etwas komisch. Wenn es wirklich so kommen sollte das ATIs Karten die User früher erreichen trotz ihres späteren Starttermins ist es für mich fast schon eindeutig das Nvidia und ihre AIB Partner geplannt vorgegangen sind (schiebt man dann einfach auf die Zulieferer), vor allem im Bezug darauf das die ganzen anderen Lineups quasi unbrauchbar geworden sind und somit die Händler und Distributoren auf den sachen sitzen bleiben. Diese Startzeit mit den überhöten Preisen die einige auch bereitwillig Zahlen kompensiert diese Verluste anscheinend etwas, somit sind die Händler nicht ganz so verzweifelt ;).
Die Händler werden noch verzweifelt werden, die meisten Leute warten jetzt einfach ab, einschließlich mich, bis die Verfügbarkeit und der Preis der HD3870 und 8800 GT stimmt. Wer jetzt noch zu ner GTS oder GTX greift, hat sie definitiv nicht mehr alle und kann nur ein "armer" Fanboy sein...
Jarabe
2007-11-20, 20:19:20
Ähem..auch wenn diese Frage schon einmal gestelllt wurde..wie lang ist die HD3850 bzw. HD3870?
Ich überlege meine X1950Pro zu Weihnachten auszutauschen. Da ich bei der Länge durch mein Thermaltake Soprano limitiert bin (eine 8800GTX würde da z. B. nicht mehr passen), wäre es nun natürlich interessant, ob die beiden neuen Karten deutlich länger als meine alte X1950Pro sind.
Zudem stellt sich die Frage, ob mein Tagan (http://geizhals.at/deutschland/a149060.html) mit 480W auch ausreicht...und zudem ob mein übertakteter X2 mit 2,5Ghz die neue Karte nicht zu stark ausbremst.
..ach..und der wichtigste Punkt..laufen die Karten auch auf einem Abit AN8 Ultra (Nforce4 Ultra)?
Vielen Dank im Voraus für Eure Hilfe!
Greetings...
StefanV
2007-11-20, 20:35:25
Die HD38x0 sind genauso lang wie 'ne x1950, +/- 1-2cm
Hmm... das erklärt dann auch einige der unheimlichen Gast-Postings die völlig an der Realität vorbei gehen und einfach Fakten behaupten, die nachweislich falsch sind, in der Hoffnung, dass Leser, die nur Thread-Ausschnitte lesen, dies dann für bahre Münze nehmen. Tz tz, da müsste man doch was machen können, z.B. IPs loggen und blockieren. Kann mir nicht vorstellen das große Firmenabteilungen nicht über feste IP-Adressen im Netz sind. Hier wären die Admins/Mods gefragt.
AMC
Da wäre ich wiederum vorsichtig. Wirft man einen Blick auf die 3DC-Forenkultur so fällt auf, dass schon eine einzige, absichtliche Provokation durch Falschaussagen wie "die G80 hat eine schlechtere Bildqualität als eine HD3870" ohne Begründung, Quellen, etc. dazu führt, dass sich eine Menge von Usern sofort auf diese Behauptung stürzen, statt sie zu ignorieren, oder kurz auf die Quellen zu verweisen in denen die Behauptung ad absurdum geführt wird. Stattdessen branden riesige Diskussionen auf die eine weitere Grundlage für Fanboy-Kriege darstellen können. Wobei natürlich auch klar ist, dass man solche sinnlosen Behauptungen nicht in einem Forum, wo sich Leser eine Meinung bilden wollen, unkommentiert stehen lassen darf. Dies ist halt die crux dabei: Wenn bekannte fanboys sich zum Thema äussern, kann man sie getrost überlesen, bei wechselnden Gästen und Membern aus Marketingabteilungen, ist das leider nicht so einfach möglich.
Nun gut, back ² topic!
AMC
Nach einigen Aussagen von dir könnte man auch glauben das du von der grünen Seite gesponsorst wirst, ich erinner nur mal an den 2900er Thread wo du die 8800gts 320mb verteidigt hast bis zum geht nich mehr.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5935354&postcount=513
Und was die Müllkarte kann hat jetzt auch der letzte geschnallt, auch CB http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/28/#abschnitt_performancerating_qualitaet
und bei Crysis in Qualieinstellungen schafft die ganze 0,0fps.
Also immer schön die Füßchen still halten :wink:
Nach einigen Aussagen von dir könnte man auch glauben das du von der grünen Seite gesponsorst wirst, ich erinner nur mal an den 2900er Thread wo du die 8800gts 320mb verteidigt hast bis zum geht nich mehr.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5935354&postcount=513
Und was die Müllkarte kann hat jetzt auch der letzte geschnallt, auch CB http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/28/#abschnitt_performancerating_qualitaet
und bei Crysis in Qualieinstellungen schafft die ganze 0,0fps.
Also immer schön die Füßchen still halten :wink:
Haha, man wie die 8800GTS 320 bei Crysis wegbricht, das ist ja schon richtig böse!
@Gast Ich will/wollte hier den Thread nicht Aufmischen, aber bei manchen Aussagen einiger Leute kann man nich anders.
Aber jetzt bitte wieder BTT :wink:
eXodia
2007-11-20, 22:26:58
Gibt es irgendwo Benchmarks zur normalen 256MB 3850 (insbesondere Stalker)? Das einziger Review was halbwegs passabel ist http://www.hartware.de/review_763.html testet auch "nur" die 512MB Variante & auch noch übertaktet.
Regards
laser114
2007-11-20, 22:34:50
Hier:
http://www.guru3d.com/article/Videocards/472/13/
deekey777
2007-11-20, 22:37:36
Gibt es irgendwo Benchmarks zur normalen 256MB 3850 (insbesondere Stalker)? Das einziger Review was halbwegs passabel ist http://www.hartware.de/review_763.html testet auch "nur" die 512MB Variante & auch noch übertaktet.
Regards
AMD Radeon HD 3850 [RV670] (http://www.hardtecs4u.com/reviews/2007/amd_hd3850/)
eXodia
2007-11-20, 22:38:52
Danke :) - was ist denn allerdings "For this benchmark we have the in-game settings at maximum (AA/AF enabled)"? Was ist denn in-game AA-Maximum bei Stalker?
Regards
Super Grobi
2007-11-20, 22:40:59
0xAA ;)
Soviel ich weiss, geht kein AA bei STALKER, auch wenn ein Regler dafür da ist :crazy:
SG
LovesuckZ
2007-11-20, 22:41:15
Hier:
http://www.guru3d.com/article/Videocards/472/13/
Abseits der Mainstream-Test-Spiele überzeugt die 3870 überhaupt nicht...
Abseits der Mainstream-Test-Spiele überzeugt die 3870 überhaupt nicht...
Wirst du eigentlich bezahlt um ständig gegen ATI zu stänkern? das ist ja mal gar nicht auffällig bei dir...
eXodia
2007-11-20, 22:45:01
Abseits der Mainstream-Test-Spiele überzeugt die 3870 überhaupt nicht...
Nunja, imo ist gerade die 3850 hochinteressant - schön schnell zu einem top Preis :)
Regards
P.S. Danke für die Links, bei mir wird's wohl eine 3850 mit 256MB werden.
LovesuckZ
2007-11-20, 22:47:17
Wirst du eigentlich bezahlt um ständig gegen ATI zu stänkern? das ist ja mal gar nicht auffällig bei dir...
Nein, leider nicht. :mad:
Die 3850 ist nett, der IDLE-Verbrauch wäre ein Kaufgrund. Aber leider ist sie mit 150€ doch ziemlich teuer für einen HTPC.
Super Grobi
2007-11-20, 22:49:02
Nunja, imo ist gerade die 3850 hochinteressant - schön schnell zu einem top Preis :)
Regards
P.S. Danke für die Links, bei mir wird's wohl eine 3850 mit 256MB werden.
Überleg es dir nochmal gut! Den fehlenden Ram kannst du nicht mit OCing wett machen. Das wird unlustig bei aktuellen Spielen!
SG
eXodia
2007-11-20, 22:55:19
Überleg es dir nochmal gut! Den fehlenden Ram kannst du nicht mit OCing wett machen. Das wird unlustig bei aktuellen Spielen!
SG
Och Mensch, ihr bringt mich alle so durcheinander, gerade war ich noch sicher die 256MB zu nehmen ;) - Denn, wie auch in den Reviews ersichtlich, sollten eigentlich 256MB für 1024x768 mit ein bisschen AA reichen?!
Die 3850 ist nett, der IDLE-Verbrauch wäre ein Kaufgrund. Aber leider ist sie mit 150€ doch ziemlich teuer für einen HTPC.
Sry, aber die 3850 ist doch keine HTPC Karte, bei der Leistung (etwas langsamer als 2900XT) ist das für mich eindeutig eine Spiele-GPU.
Regards
Nakai
2007-11-20, 22:57:30
Mir ist es ehrlich egal.
HD3870 ~ 8800GT
Je nach Einstellung und Anwendung liegt die eine oder mal die andere vorne.
Mit der HD3850 hat aber ATI noch ne nette untere Performancekarte auf Lager.
mfg Nakai
Super Grobi
2007-11-20, 23:03:10
@Exodia
Na dann kauf dir die 256er. Aber die GPU gibt von der Leistung her auch mehr als 1024x786 her, aber halt der Ram wohl nicht. Lieber eine höhere Auflösung, aber dafür 0xAA.
SG
laser114
2007-11-20, 23:05:58
Hier finde ich den Abstand zu 1280*1024 bei Crysis noch relativ normal:
http://www.computerbase.de/forum/showthread.php?t=345797
Und die HD 3850 gibts inzwischen für gut 140€ sofort lieferbar, für 150€ hat sogar Alternate schon ein lieferfähiges Angebot. Das ist gegenüber der 512er-Version noch ein Vorteil.
Hvoralek
2007-11-20, 23:30:42
Was ist denn in-game AA-Maximum bei Stalker?Ein leichter Schmierfilter per Shader. AA gibt es nur im DX8- Pfad (und vlt. später mal unter D3D10).
Abseits der Mainstream-Test-Spiele überzeugt die 3870 überhaupt nicht...Gibt es dafür auch andere Quellen als Deine Glaskugel?
dargo
2007-11-20, 23:35:41
Ein leichter Schmierfilter per Shader. AA gibt es nur im DX8- Pfad (und vlt. später mal unter D3D10).
Also, beim G80 funzt mittlerweile AA auch unter DX9 mit dynamischer Beleuchtung. Wollte nur man hinzufügen. :)
Hvoralek
2007-11-20, 23:57:41
Also, beim G80 funzt mittlerweile AA auch unter DX9 mit dynamischer Beleuchtung. Wollte nur man hinzufügen. :)Bei Stalker auch? Das ist dann aber kein Ingame- AA, sondern per Nhancer, oder?
Super Grobi
2007-11-21, 00:02:35
Bei Stalker auch? Das ist dann aber kein Ingame- AA, sondern per Nhancer, oder?
Genau das wird der Punkt sein.
SG
deekey777
2007-11-21, 00:03:51
Jemand fragte nach CF-Ergebnissen: http://www.hothardware.com/articles/ATI_Radeon_HD_3870_and_3850_55nm_RV670/?page=1
:)
Zu STALKER: Es gibt jetzt wirklich Anti-Aliasing in STALKER mit dynamischer Beleuchtung. Wie das gemacht wird, keine Ahnung.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6012954#post6012954
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5995051#post5995051
Blaire
2007-11-21, 00:11:59
Genau das wird der Punkt sein.
Nhancer ist nicht erforderlich funktioniert auch ganz einfach über ControlPanel.
Super Grobi
2007-11-21, 00:13:41
Nhancer ist nicht erforderlich funktioniert auch ganz einfach über ControlPanel.
is schon klar. Nhancer macht nichts anderes, als die Settings im CP zu setzen, ohne das du es öffnen musst!
SG
Blaire
2007-11-21, 00:16:46
is schon klar. Nhancer macht nichts anderes, als die Settings im CP zu setzen, ohne das du es öffnen musst!
Schon klar, ich wollte ja eigentlich nur vorbeugen von wegen man braucht irgendwelche Tools etc. die es möglich machen. :)
Super Grobi
2007-11-21, 00:18:04
Schon klar, ich wollte ja eigentlich nur vorbeugen von wegen man braucht irgendwelche Tools etc. die es möglich machen. :)
Ach so,
hab ich dich falsch verstanden.
SG
Skiller_no1
2007-11-21, 00:29:02
Aber die Peformance bricht so dolle ein das es nichtmehr feierlich ist :(
saddevil
2007-11-21, 00:37:50
hmm ich bin echt am überlegen ob für mich nicht eine 3850 reicht
hab bisher mit 2 7600gt gelebt .....
wenn es die 3850 günstig gibt ... aber eine 512MB version ....
dann hab doch schon sehr großes interesse
zu den ergebnissen ... abwarten
mal schauen was ein neuer treiber bringt
die ersten G80 treiber waren auch müll ... und vieles lief nicht wirklich gut
Och Mensch, ihr bringt mich alle so durcheinander, gerade war ich noch sicher die 256MB zu nehmen ;) - Denn, wie auch in den Reviews ersichtlich, sollten eigentlich 256MB für 1024x768 mit ein bisschen AA reichen?!
Die Karte kommt auch 256mb gut zurecht, ist ähnlich wie bei der 1900XT die es auch mit 256 und 512mb Ram gab und da ist der unterschied auch nicht groß.
Ich habe damals mit der 1900XT 256mb ohne Probleme HL2 mit Cinematic Mod auf 1680x1050 gut gezockt (50-60fps)
Sry, aber die 3850 ist doch keine HTPC Karte, bei der Leistung (etwas langsamer als 2900XT) ist das für mich eindeutig eine Spiele-GPU.
Regards
Eben. Für eine HTPC kaufe ich mir eine 2400pro, die verbraucht dann selbst unter Last weniger als eine 3850 im idle-Modus, und kommt im idle-Modus vielleicht noch auf eine Hand voll Watt.
Abseits der Mainstream-Test-Spiele überzeugt die 3870 überhaupt nicht...
Da frage ich mich wie du die letzten Jahre eine Nvidia Graka kaufen konntest. Denn da war es genau umgekehrt.
Nebenbei...
http://www.xtremesystems.org/forums/showpost.php?p=2570931&postcount=353
Der Thermaltake DuOrb CL-G0102 scheint ja zu passen!
http://geizhals.at/eu/a263517.html
Review:
http://www.phoronix.com/scan.php?page=article&item=905&num=1
Alexander
2007-11-21, 12:26:09
Wie will sich Nvidia gegen die 3850 mit 256MB behaupten? Wer kauft da noch die 8600GTS? Ist eine 8700 geplant?
8800GT mit 256MB. Dürfte preislich in der selben Region spielen (wenn endlich mal was verfügbar wird).
Ich glaube nicht das die 8800GT mit 256MB hier 100 Euro günstiger angeboten wird als die normale. So viel macht der 256MB Speicher nicht aus. Vielleicht 20-40 Euro günstiger als die 8800GT 512MB
Marty98
2007-11-21, 13:05:49
Wieso nicht? Auf 3850 und 3870 ist doch der gleiche Chip drauf, nur mehr Speicher und paar Kondensatoren extra. Hast trotzdem fast 100 Euro Preisunterschied.
Die 8800GT 256 wird schon gelistet
http://www.hardwareschotte.de/hardware/preise/proid_9213006/preis_XFX+GeForce+8800GT+PV-T88P-UDF4
189 Euro der niedrigste Preis, lieferbar ab 6.12.
-/\-CruNcher-/\-
2007-11-21, 13:28:50
Demnächst Anfang 2008 (stock preise inklusive allem speku)
HD3850 256mb = 150€
HD3850 512mb = 160€
HD3870 512mb = 180€
HD3870 X2 ***= 390€
8800GT 256mb = 170€
8800GT 512mb = 200€
8800 GTS G92 = 280€
Dazwischen und drüber die AIB OC Karten
Wieso nicht? Auf 3850 und 3870 ist doch der gleiche Chip drauf, nur mehr Speicher und paar Kondensatoren extra. Hast trotzdem fast 100 Euro Preisunterschied.
Wo hat man denn bei 150 (HD3850) zu 180 (HD3870) 100 Euro Preisunterschied?
1x1 ist drei videvid vid und drei mach neune....
Grüsse
Dat Frag ich mich auch, wie konnten sich alle die NV-Freaks hier zur Zeiten einer Geforce 7XXX eine solche kaufen wenn die doch in den damals aktuellen Spielen kein AA aktivieren konnte wärend man hdr nutzte.
:) ;) ^^
Ich find ja die GT ist so eine Karte die nächstes Jahr im Sommer reihenweise abraucht weil NV am Kühler gespart bis zum geht nicht mehr.
Ich find ja die GT ist so eine Karte die nächstes Jahr im Sommer reihenweise abraucht weil NV am Kühler gespart bis zum geht nicht mehr.
Denk ich nicht, aber sie wird sehr sehr laut werden.
tomsen
2007-11-21, 14:36:35
Wahhh, was für ein Test bei Technik3D:
http://www.technic3d.com/article-593,1-sapphire-hd3870-crossfire-amd-wieder-an-der-spitze.htm
Super geringer Stromverbrauch und grandiose Leistung! ;)
Diese Woche bekomme ich vermutlich das CF Gespann mit X38 Board.
Werde dann berichten. ;)
AnarchX
2007-11-21, 14:44:03
Wahhh, was für ein Test bei Technik3D:
http://www.technic3d.com/article-593,1-sapphire-hd3870-crossfire-amd-wieder-an-der-spitze.htm
Was soll denn das sein?
Je nach Benchmark unterschiedliche Karten und dann noch solche Settings wie 8xAA + 2xAF. :|
derguru
2007-11-21, 14:46:12
und das geilste an dem test es wurde noch mit dem alten 965 chipsatz getestet der nicht mal 2 volle pci-express steckplätze hat.echt nice)also reicht mein board noch aus dafür)
Alexander
2007-11-21, 14:55:36
Demnächst Anfang 2008 (stock preise inklusive allem speku)
HD3850 256mb = 150€
HD3850 512mb = 160€
HD3870 512mb = 180€
HD3870 X2 ***= 390€
8800GT 256mb = 170€
8800GT 512mb = 200€
8800 GTS G92 = 280€
Wer kauft die kleinste 3850 bei nur 10€ Preisunterschied? Mehr als 140€ wird sie wohl kaum kosten, wenn die Lager nicht mehr gähnend leer sind.
Verkraftet die 8800 die Kastrierung auf 256MB genauso gut wie die 3850? Lautet die Devise nicht eher: Wer keine 200€ für die 8800GT 512mb ausgeben will, sollte eine ATI kaufen?
derguru
2007-11-21, 14:57:59
Was soll denn das sein?
Je nach Benchmark unterschiedliche Karten und dann noch solche Settings wie 8xAA + 2xAF. :|
bei doom ist das auch gerechtfertigt mit den settings was willste mit 16 af bei doom3?
Was will man wohl mit AF. Bessere Texturen natürlich.
AnarchX
2007-11-21, 15:03:57
bei doom ist das auch gerechtfertigt mit den settings was willste mit 16 af bei doom3?
Ansichtssache, aber bei CoJ ist 2xAF definitiv zu wenig.
Und warum die 8800 GTX/Ultra in manchen Benchmarks fehlt, kann man sich auch denken. ;)
Tombstone
2007-11-21, 15:04:50
Aber doch nur in der Ferne. Bei den Innenlevels von Doom reichen 2xAF doch aus.
Passenger82
2007-11-21, 15:06:20
Was will man wohl mit AF. Bessere Texturen natürlich.
Es war wohl darauf bezogen, dass man unter Doom3 gar nicht so weit gucken kann so dass sich 16AF voll auszahlt..
GeneralHanno
2007-11-21, 15:06:35
der idleverbrauch CF ist auch sehr gut
horn 12
2007-11-21, 15:07:36
N E I N
Die X²-3870 soll aber billiger als 2x 3870 werden. Hat ATI mal ausgeplaudert, wenn ich mich nicht irre. Rechne mit einem Preis von 340-360 Euro, ähnlich der HD 2900XT beim Launch!
derguru
2007-11-21, 15:08:41
Ansichtssache, aber bei CoJ ist 2xAF definitiv zu wenig.
Und warum die 8800 GTX/Ultra in manchen Benchmarks fehlt, kann man sich auch denken. ;)
mir ist kack egal ob die ultra dabei ist oder nicht mir reicht das die ati karten relative gut skalieren im cf und das mit einen 16/4 pci express.(einfach geil hat sich für mich damals doch gelohnt den ds4 zu kaufen und nicht den ds3)
lol bei doom3 kannste auch af eigentlich eh weglassen 1.sogut wie nur innenräume 2.eh mega dunkel man sieht eh nix:)
tomsen
2007-11-21, 15:09:54
Wenn man bedenkt das der Test von Technik3D noch mit dem alten Chipsatz gemacht wurde und jetzt den X38 Crossfire Chipsatz verwenden würde. ;)
Natürlich würde der X38 am meisten Sinn machen beim HD3870CF!
AnarchX
2007-11-21, 15:12:34
mir ist kack egal ob die ultra dabei ist oder nicht mir reicht das die ati karten relative gut skalieren im cf und das mit einen 16/4 pci express.
Das ist aber auch der einzige Punkt, der an diesem sonderbaren Review interessant ist.
lol bei doom3 kannste auch af eigentlich eh weglassen 1.sogut wie nur innenräume 2.eh mega dunkel man sieht eh nix:)
Fragt sich nur warum Doom3 dann ab High Quality von selbst 8xAF anfordert... ;)
derguru
2007-11-21, 15:22:27
Das ist aber auch der einzige Punkt, der an diesem sonderbaren Review interessant ist.
Fragt sich nur warum Doom3 dann ab High Quality von selbst 8xAF anfordert... ;)
das interessante an dem test ist für mich das die gut skalieren mit dem alten mainboard chipsatz.
ich merk schon niewieda spezi.mal abgesehen davon 1 ultra wird nie und nimmer gegen 2 karte an kommen und das ist das entscheidene.preis leistung darüber reden wir lieber erst garnicht.
bei doom ist das auch gerechtfertigt mit den settings was willste mit 16 af bei doom3?
Was will man wohl mit AF. Bessere Texturen natürlich.
Ansichtssache, aber bei CoJ ist 2xAF definitiv zu wenig.
Und warum die 8800 GTX/Ultra in manchen Benchmarks fehlt, kann man sich auch denken. ;)
Aber doch nur in der Ferne. Bei den Innenlevels von Doom reichen 2xAF doch aus.
Es war wohl darauf bezogen, dass man unter Doom3 gar nicht so weit gucken kann so dass sich 16AF voll auszahlt..
mir ist kack egal ob die ultra dabei ist oder nicht mir reicht das die ati karten relative gut skalieren im cf und das mit einen 16/4 pci express.(einfach geil hat sich für mich damals doch gelohnt den ds4 zu kaufen und nicht den ds3)
lol bei doom3 kannste auch af eigentlich eh weglassen 1.sogut wie nur innenräume 2.eh mega dunkel man sieht eh nix:)
Das ist aber auch der einzige Punkt, der an diesem sonderbaren Review interessant ist.
Fragt sich nur warum Doom3 dann ab High Quality von selbst 8xAF anfordert... ;)
das interessante an dem test ist für mich das die gut skalieren mit dem alten mainboard chipsatz.
ich merk schon niewieda spezi.mal abgesehen davon 1 ultra wird nie und nimmer gegen 2 karte an kommen und das ist das entscheidene.preis leistung darüber reden wir lieber erst garnicht.
Oioioi, ich spüre den warmen Atem von Shadow mit Beispielbildern.
derguru
2007-11-21, 15:28:23
ich glaubs nicht aber es soll sogar leute geben die sogar im internet sich noch verstecken müssen.echt krank:)
ich glaubs nicht aber es soll sogar leute geben die sogar im internet sich noch verstecken müssen.echt krank:)
Ist immernoch besser als die Unwissenheit so ööfentlich zur Schau zu stellen.
derguru
2007-11-21, 15:31:36
jo gast eine runde lachen ist angesagt;D
es gibt schon arme würste nene:)
Marty98
2007-11-21, 15:31:41
Wo hat man denn bei 150 (HD3850) zu 180 (HD3870) 100 Euro Preisunterschied?
1x1 ist drei videvid vid und drei mach neune....
Grüsse
Man bekommt derzeit keine 3870 unter 250, 180 sind Phantasiepreise.
Marty98
2007-11-21, 15:34:17
Wahhh, was für ein Test bei Technik3D:
http://www.technic3d.com/article-593,1-sapphire-hd3870-crossfire-amd-wieder-an-der-spitze.htm
Super geringer Stromverbrauch und grandiose Leistung! ;)
Diese Woche bekomme ich vermutlich das CF Gespann mit X38 Board.
Werde dann berichten. ;)
Hoffe du meinst es ironisch, der Test zeigt zum grossen Teil unspielbare Frameraten mit 4x AA und 16 AF.
deekey777
2007-11-21, 15:37:17
jo gast eine runde lachen ist angesagt;D
es gibt schon arme würste nene:)
Fühlst du dich jetzt besser?
Zu AF und "entfernten" Texturen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4059159#post4059159
In Doom 3 gibt es wahrlich nicht umsonst AF 8° im HQ-Modus.
derguru
2007-11-21, 15:38:54
ich fühle mich fabelhaft,danke mal wieder für die unterhaltung hier ist es besser als in jeder gerichtsshow:)
mal gucken wann die nächsten gäste auftauchen anonym im netz reicht wohl noch nicht doppelt hält besser wah;)
DrFreaK666
2007-11-21, 16:46:27
Ich möchte mir eine 3850 holen.
Jetzt schon zugreifen oder werden die preise schnell sinken?
Was denkt ihr?
Ich möchte mir eine 3850 holen.
Jetzt schon zugreifen oder werden die preise schnell sinken?
Was denkt ihr?
ich würde warten. Ich denke die 3850 wird es für 140 Euro evtl. sogar drunter wenn die Lager voll sind.
laser114
2007-11-21, 17:01:49
Für 141,55€ gibts die schon jetzt lieferbar:
http://geizhals.at/deutschland/a293844.html
Natürlich aber 256 MiB. Ich denke soviel wird sich da nicht mehr tun.
DrFreaK666
2007-11-21, 17:08:35
Für 141,55€ gibts die schon jetzt lieferbar:
http://geizhals.at/deutschland/a293844.html
Natürlich aber 256 MiB. Ich denke soviel wird sich da nicht mehr tun.
Diese Karte ist nicht lieferbar.
Aber es fängt schon bei 150.90 € an
http://www.alkon-pc.de/eshop.php?action=article_detail&s_supplier_aid=736263000&rid=geizhals
Hvoralek
2007-11-21, 17:09:52
das interessante an dem test ist für mich das die gut skalieren mit dem alten mainboard chipsatz.Die skalieren gut in Doom 3 und im D3D10- CoJ. In WiC und Crysis sind die Zuwächse eher bescheiden (50-60% bzw. fast nichts).
Man bekommt derzeit keine 3870 unter 250, 180 sind Phantasiepreise.Bei Geizhals ist imM keine einzige 3870 als lieferbar gelistet, viele Händler nennen nicht einmal einen Termin. Das ist wirklich noch schlimmer als bei den 8800 GTs. Die gibt es wenigstens zu Mondpreisen.
Marty98
2007-11-21, 17:47:44
Bei Geizhals ist imM keine einzige 3870 als lieferbar gelistet, viele Händler nennen nicht einmal einen Termin. Das ist wirklich noch schlimmer als bei den 8800 GTs. Die gibt es wenigstens zu Mondpreisen.
Bei Ebay gibt es ab und zu welche für 250-300 Euro. Wie ich also sagte 100 Euro mehr als für die 3850.
Gorthol
2007-11-21, 17:49:26
Woran liegt es eigentlich, daß die HD3870 im CB-Test bei Stalker und Gothic 3 so weit abgeschlagen ist? Hat die 8800GT in den Spielen wirklich soviel mehr Power?
Gothic 3 - 1600x1200
8800GT: 39,2 fps
HD3870: 30,4 fps
Stalker - 1600x1200
8800GT: 36,7 fps
HD3870: 29,5 fps
Mit 16x AF verliert die HD3870 noch deutlicher. :confused:
Vor allem die fps in Gothic 3 haben mich bisher davon abgehalten, die 3870 zu bestellen.
Hat die 8800GT in den Spielen wirklich soviel mehr Power?
Ja, das ist leider normal in manchen Anwendungen. Nicht umsonst hat ATI die Preise nach unten korrigiert..
Gegen noch schnellere Versionen ab Werk (Zotac AMP und Konsorten legen noch ne Schippe drauf) hat die 3870 gar nichts entgegenzusetzen in diesen Tagen.
Als gleichwertig würde ich diese Karten nie bezeichnen. ATI versucht mit Preis & Features (10.1) zu punkten und NVIDIA mit Leistung...
-/\-CruNcher-/\-
2007-11-21, 17:54:32
@laser114
Schonmal geschaut was du mit KK, NN oder VK zahlst, wohl ein bischen mehr als wie 140€ momentan ;)
@Hvoralek
Das kannst du nicht vergleichen die 3870 ist später gestartet als wie die 8800GT und trotzdem wird sie die Masse entweder früher oder zeitgleich zur 8800GT ereichen.
@Gast
Das meinst du nicht ernst, der Takt der HD3870 ist einfach nidrieger und kann die 8800 GT so nicht ereichen mit 860MHz sieht die sache schon wieder ganz anders aus, wird zwar immernoch unter der 8800 GT @ stock sein aber nicht mehr sehr deutlich drunter bei den meisten Spielen (hat dies sowieso keine großen vorteile da sieh eh schon schnell genug sind), es wird vorausichtlich bald möglich sein über die 860MHz zu kommen und der RV670 skaliert sehr gut mit dem Takt, wir werden also demnächst noch einige interessante OC Ergebnisse im Bereich G92 vs RV670 sehen, es ist noch nicht raus wieviel höher der RV670 auf dem jetzigen PCB kommt und ob er somit ein 8800GT PCB vieleicht schlagen kann. Viele G92 gehen 700-30MHz mit Biosvoltmod bis 750MHz, beim RV670 weiss man bis jetzt nur das 860MHz gehen aber vermutlich sind auch 900MHz und vieleicht sogar mehr und das alles bei geringerem Kühlaufwand möglich :)
AnarchX
2007-11-21, 17:55:23
Woran liegt es eigentlich, daß die HD3870 im CB-Test bei Stalker und Gothic 3 so weit abgeschlagen ist? Hat die 8800GT in den Spielen wirklich soviel mehr Power?
Gothic 3 - 1600x1200
8800GT: 39,2 fps
HD3870: 30,4 fps
Stalker - 1600x1200
8800GT: 36,7 fps
HD3870: 29,5 fps
Mit 16x AF verliert die HD3870 noch deutlicher. :confused:
Vor allem die fps in Gothic 3 haben mich bisher davon abgehalten, die 3870 zu bestellen.
Hier wird wohl primär auf die Texelfüllrate ankommen.
reunion
2007-11-21, 17:57:10
Hier wird wohl primär auf die Texelfüllrate ankommen.
Zumindest stärker als in den anderen Spielen. Würde es primär auf die Texelfüllrate ankommen, wäre die GT >2.5x schneller. Aber solche Spiele werden auch immer seltener. Und G3 und Stalker sind ja auch nicht mehr gerade taufrisch.
4 Vitamins
2007-11-21, 18:19:09
Was soll denn das sein?
Je nach Benchmark unterschiedliche Karten und dann noch solche Settings wie 8xAA + 2xAF. :|
Was das sein soll?, die ultra wird verprügelt, sieht man doch!!
gruss
4 Vitamins
2007-11-21, 18:20:55
und das geilste an dem test es wurde noch mit dem alten 965 chipsatz getestet der nicht mal 2 volle pci-express steckplätze hat.echt nice)also reicht mein board noch aus dafür)
Ja, ja, immer neue ausreden, mal der speicher, mal das board, aber egal solange das eigene weltbild dabei erhalten bleibt;)
gruss
derguru
2007-11-21, 18:26:50
Ja, ja, immer neue ausreden, mal der speicher, mal das board, aber egal solange das eigene weltbild dabei erhalten bleibt;)
gruss
ausreden von wem?versteh nicht was du mit deinem text meinst.:confused:
erzähl mal was du damit meinst wegen mainboard,speicher usw.?hat irgendjemand davon geredet gehabt?war wohl ein kurzer epileptischer anfall:)
Kobalt
2007-11-21, 18:48:29
Laut Alternate wurde meine HIS HD 3870 versendet. *wart*
laser114
2007-11-21, 18:59:07
@laser114
Schonmal geschaut was du mit KK, NN oder VK zahlst, wohl ein bischen mehr als wie 140€ momentan ;)
Das stimmt, aber das bezahlt man bei einer 2600er auch - prozentual wahrscheinlich sogar mehr. ;)
-/\-CruNcher-/\-
2007-11-21, 19:03:06
@all
jetzt wirds interessant :)
http://www.xtremesystems.org/forums/showthread.php?t=166334&page=4
Jetzt scheint es langsam ans eingemachte zu gehen!
Endlich 3870 Karten mit höheren Taktraten? ASUS hat den längsten: 3870 mit 850 MHz Core, 1.14 GHz GDDR4. (http://www.fudzilla.com/index.php?option=com_content&task=view&id=4336&Itemid=34)
Das meinst du nicht ernst, der Takt der HD3870 ist einfach nidrieger und kann die 8800 GT so nicht ereichen mit 860MHz sieht die sache schon wieder ganz anders aus, wird zwar immernoch unter der 8800 GT @ stock sein aber nicht mehr sehr deutlich drunter bei den meisten Spielen
Im gleichen Preisbereich in dem die Standard-GT liegt, gibt es auch schon Karten die ab Werk mit 10 - 25 % mehr Leistung daher kommen. Allein die Zotac AMP könnte schon ~11 % Leistung mehr Leistung durch die erhöhte Bandbreite liefern, dazu kommen dann noch 16 % mehr GPU-Power und 13 % mehr Shaderpower...
Wenn schon die 3870 in Standardausführung mit 775 MHz nicht auf gleicher Höhe liegt, so reichen nicht mal 900 MHz (+16 %) um auf die genannten Karten aufzuschließen.
Hvoralek
2007-11-21, 19:05:15
Das kannst du nicht vergleichen die 3870 ist später gestartet als wie die 8800GT und trotzdem wird sie die Masse entweder früher oder zeitgleich zur 8800GT ereichen.Bei den GTs gab es zumindest zum Start genug für ein paar Tage. DAgegen habe ich langsam das Gefühl, dass AMD wirklich nur etwa 10.000 3870er bis Jahresende wird liefern können (So lange ist das nicht mehr hin). Zumindest imM (unabhängig von Startterminen und dem ersten GT- Batch) ist die Verfügbarkeit bei der GT jedenfalls eindeutig weniger miserabel.
reunion
2007-11-21, 19:26:57
Bei den GTs gab es zumindest zum Start genug für ein paar Tage. DAgegen habe ich langsam das Gefühl, dass AMD wirklich nur etwa 10.000 3870er bis Jahresende wird liefern können (So lange ist das nicht mehr hin). Zumindest imM (unabhängig von Startterminen und dem ersten GT- Batch) ist die Verfügbarkeit bei der GT jedenfalls eindeutig weniger miserabel.
Hier wird viel zu häufig mit irgendwelchen dubiosen Zahlen herumgeworfen, die meist von nicht weniger dubiosen Quellen stammen. Die 3870 gibt es jetzt noch nicht mal eine Woche, wenn die Massenproduktion den Markt erreicht, können schnell mehrere 100.000 Stück pro Monat geliefert werden. 10.000 Stück weltweit ist jedenfalls lächerlich wenig, da würden für Deutschland wohl höchstens ein paar hundert Karten rausschauen.
Hvoralek
2007-11-21, 19:37:19
Hier wird viel zu häufig mit irgendwelchen dubiosen Zahlen herumgeworfen, die meist von nicht weniger dubiosen Quellen stammen. Die 3870 gibt es jetzt noch nicht mal eine Woche, wenn die Massenproduktion den Markt erreicht, können schnell mehrere 100.000 Stück pro Monat geliefert werden. 10.000 Stück weltweit ist jedenfalls lächerlich wenig, da würden für Deutschland wohl höchstens ein paar hundert Karten rausschauen.Nachzählen kann man das natürlich nicht. Ich erinnere mich nur, dass da um den Launch herum zwei weit auseinanderliegende Schätzungen herumspukten, 10.000 und afair 250.000 bis Ende des Jahres. Wenn man unterstellt, dass eine der beiden Zahlen wirklich aus dem AMD- Umfeld stammt, wird es eher die erste sein. Es sei denn, man hat etwa Ende Oktober von einem Tag auf den nächsten die Produktion von 0 auf 100 gefahren und in ein paar Tagen kommen die entsprechenden Platinen an. Die Lieferzeitangaben der meisten Händler sehen aber eher düster aus. Ich glaube nicht so recht, dass sich die Lage bei der 3870 kurzfristig großartig verbessern wird.
laser114
2007-11-21, 19:39:21
Die eine Meldung besagte 500.000 RV670-Chips dieses Jahr, die andere Sprach AFAIK von Grafikkarten, erwähnte aber nicht genau welche.
Und so wie ich mir die Verfügbarkeit der 3850 ansehe, muss es da doch als 10.000 Chips weltweit gegeben haben. ;)
AnarchX
2007-11-21, 20:02:11
Und so wie ich mir die Verfügbarkeit der 3850 ansehe, muss es da doch als 10.000 Chips weltweit gegeben haben. ;)
Vielleicht 10k 3870 bis Ende 07, der große Rest sind dann 3850 die an OEM und Retail gehen.
Marty98
2007-11-21, 20:39:15
Könnte doch 3850 + 70 sein, die 50er will keiner, die 70er ist nicht lieferbar.
laser114
2007-11-21, 21:32:20
Dafür das die 3850er seit langem wieder ein Super-Preis-Leistungsverhältnis im Markt um 150€ bietet, der ja doch sehr groß sein sollte, würde es mich stark wundern wenn die keiner will. Nicht vom 3DCenter auf den gesamten Markt schließen. ;)
Könnte also durchaus so sein, wie AnarchX gerade überlegte.
Hvoralek
2007-11-21, 21:46:13
Okay, es könnte hinkommen, dass sich die eine Zahl auf RV670 bezog, die andere auf die 3870er. Dann wären das 25- bzw. 50- mal so viele 3850er wie 70er. Sind die Absätze im 150-€ - Markt so viel größer als 40€ darüber? :|
laser114
2007-11-21, 21:55:02
Die Karte könnte da für OEMs deutlich interessanter sein, auch auf Grund der Single-Slot-Kühlung und der etwas niedrigeren Last-Leistungsaufnahme (Systemunkosten). Und das die gerne Mengen fressen, dürfte bekannt sein.
Außerdem wildert im Bereich der 3870 zumindest eine Variante der 8800 GT. Die 256 MiB 3850 steht hingegen relativ konkurrenzlos da.
-/\-CruNcher-/\-
2007-11-21, 22:01:02
Jep wenn man ne Stock 3870 ereichen will lohnt sich die HD3850 voll, aber dann bitte die 512mb version langsam könnte man wieder vermuten AMD/ATI machen es extra und halten die 512mb HD3850 zurück so das man jetzt gezwungen ist zur HD3870 zu greifen, wenn man 512mb möchte. Es mag sein das ich da ein wenig paranoid denke aber die ganze Sache ist äusserst komisch Nvidia konzentriert sich Anfangs auf die 512mb und kommen jetzt mit ihren 256mb AMD/ATI konzentriert sich auf die 256mb kommen aber zeitgleich mit 512mb in Form der Hd3870 :) Und beide versuchen sich momentan den Markt abzuluxen auf den vernachläsigten Seiten und Nvidia hat sich halt für die Enthusiasten entschieden die den Anfang machen sollten bei AMD/ATI dagegen für die Oems (mit ein wenig Hd3870 dazwischen um die Enthusiasten zu beruihgen). AMD/ATIs Strategie scheint auch aufzugehen die 256mb sind relativ zur 8800gt gesehen recht gut verfügbar, nur bei der HD3850 512mb und HD3870 happert es noch.
Noebbie
2007-11-21, 22:03:23
@Cruncher
meinst du nicht die 70er hat gegenüber der 50er einen wesentlichen vorteil durch den spürbar höhren takt des gddr4 speichers?
Blutmaul
2007-11-21, 22:12:57
Jep wenn man ne Stock 3870 ereichen will lohnt sich die HD3850 voll, aber dann bitte die 512mb version langsam könnte man wieder vermuten AMD/ATI machen es extra und halten die 512mb HD3850 zurück so das man jetzt gezwungen ist zur HD3870 zu greifen, wenn man 512mb möchte. Es mag sein das ich da ein wenig paranoid denke aber die ganze Sache ist äusserst komisch Nvidia konzentriert sich Anfangs auf die 512mb und kommen jetzt mit ihren 256mb AMD/ATI konzentriert sich auf die 256mb kommen aber zeitgleich mit 512mb in Form der Hd3870 :) Und beide versuchen sich momentan den Markt abzuluxen auf den vernachläsigten Seiten und Nvidia hat sich halt für die Enthusiasten entschieden die den Anfang machen sollten bei AMD/ATI dagegen für die Oems (mit ein wenig Hd3870 dazwischen um die Enthusiasten zu beruihgen). AMD/ATIs Strategie scheint auch aufzugehen die 256mb sind relativ zur 8800gt gesehen recht gut verfügbar, nur bei der HD3850 512mb und HD3870 happert es noch.
Ich kann mir nicht vorstellen, das ATI den Kartenherstellern vorschreibt, welche Karte diese zu bauen haben.
Im Prinzip ist es für ATI doch so, das es ihnen egal sein kann, da sie auf jeden Fall den gleichen Grafikchip verkaufen...
Blutmaul
2007-11-21, 22:14:56
@Cruncher
meinst du nicht die 70er hat gegenüber der 50er einen wesentlichen vorteil durch den spürbar höhren takt des gddr4 speichers?
Die 3850 mit 512 kann bei Übertaktung die 3870-Standard erreichen.
Aber ich such nicht schon wieder den Link mit den Resultaten...
Ach eine 50er mit 1k wäre doch was - oder?:biggrin:
-/\-CruNcher-/\-
2007-11-21, 22:38:54
@Cruncher
meinst du nicht die 70er hat gegenüber der 50er einen wesentlichen vorteil durch den spürbar höhren takt des gddr4 speichers?
Nö jedenfalls keinen den du so spüren würdest das es 50€ wert ist, ausgehend von dem Tomshardware test wären nur die 256mb für mich bei 1680x1050 ein problem da man 10 fps einfach nicht kompensieren kann aber die 1-2 die zur HD3870 bei der 512mb OC version fehlen die ja nur auf 720MHz getaktet ist kann man einfacherer kompensieren und man brauch noch nichtmal irgendwelche weiteren investitionen zu tätigen in hinsicht Kühlung :D
http://media.bestofmicro.com/0/N/58343/original/Chart-DX9-3dmark06sm2-1600-aa-af.png
http://media.bestofmicro.com/0/S/58348/original/Chart-DX9-3dmark06sm3-1600-aa-af.png
http://media.bestofmicro.com/1/7/58363/original/Chart-DX9-doom3-1600-aa-af.png
http://media.bestofmicro.com/1/D/58369/original/Chart-DX9-msflightx-1600-aa-af.png
http://media.bestofmicro.com/1/I/58374/original/Chart-DX9-oblivion-1600-af-out.png
http://media.bestofmicro.com/1/N/58379/original/Chart-DX9-prey-1600-aa-af.png
http://media.bestofmicro.com/Z/I/58302/original/Chart-DX10-bioshock-test1-1600-aa-af.png
http://media.bestofmicro.com/Z/T/58313/original/Chart-DX10-coh-1600-aa-af.png
http://media.bestofmicro.com/0/3/58323/original/Chart-DX10-crysis-gpu-m-1600-aa-af.png
http://media.bestofmicro.com/0/8/58328/original/Chart-DX10-lost-planet-1280-aa-af.png
http://media.bestofmicro.com/0/D/58333/original/Chart-DX10-wic-test1-1600-aa-af.png
Bessonders der Guru3d test überzeugt mich davon das es keinen wirklichen unterschied gibt, bessonders wenn man die 512mb version dann noch übertaktet
http://www.guru3d.com/article/Videocards/472/15/
Ach eine 50er mit 1k wäre doch was - oder?:biggrin:
Das ist dumm es geht mir persönlich nicht um 3dmurks werte (das überlasse ich den Kids) es geht mir um Spielbarkeit und Wirtschaftlichkeit :)
Das ist dumm es geht nicht um 3dmurks werte es geht um Spiel und Wirtschaftlichkeit jesus
Was erzählst du da? erklär mir meine Dummheit... ;D
Marty98
2007-11-21, 22:45:37
Dafür das die 3850er seit langem wieder ein Super-Preis-Leistungsverhältnis im Markt um 150€ bietet, der ja doch sehr groß sein sollte, würde es mich stark wundern wenn die keiner will. Nicht vom 3DCenter auf den gesamten Markt schließen. ;)
Das Problem ist dass es zu 150 meist gar nicht lieferbar ist (Verarsche bei Lagerangaben). Sicher bekommt man die für ~170, und da denken viele lieber etwas warten und für 30 Euro mehr die 70er kaufen.
Noebbie
2007-11-21, 22:59:15
Nö jedenfalls keinen den du so spüren würdest das es 50€ wert ist, ausgehend von dem Tomshardware test wären nur die 256mb für mich bei 1680x1050 ein problem da man 10 fps einfach nicht kompensieren kann aber die 1-2 die zur HD3870 bei der 512mb OC version fehlen die ja nur auf 720MHz getaktet ist kann man einfacherer kompensieren und man brauch noch nichtmal irgendwelche weiteren investitionen zu tätigen in hinsicht Kühlung :D
http://media.bestofmicro.com/0/N/58343/original/Chart-DX9-3dmark06sm2-1600-aa-af.png
http://media.bestofmicro.com/0/S/58348/original/Chart-DX9-3dmark06sm3-1600-aa-af.png
http://media.bestofmicro.com/1/7/58363/original/Chart-DX9-doom3-1600-aa-af.png
http://media.bestofmicro.com/1/D/58369/original/Chart-DX9-msflightx-1600-aa-af.png
http://media.bestofmicro.com/1/I/58374/original/Chart-DX9-oblivion-1600-af-out.png
http://media.bestofmicro.com/1/N/58379/original/Chart-DX9-prey-1600-aa-af.png
http://media.bestofmicro.com/Z/I/58302/original/Chart-DX10-bioshock-test1-1600-aa-af.png
http://media.bestofmicro.com/Z/T/58313/original/Chart-DX10-coh-1600-aa-af.png
http://media.bestofmicro.com/0/3/58323/original/Chart-DX10-crysis-gpu-m-1600-aa-af.png
http://media.bestofmicro.com/0/8/58328/original/Chart-DX10-lost-planet-1280-aa-af.png
http://media.bestofmicro.com/0/D/58333/original/Chart-DX10-wic-test1-1600-aa-af.png
Bessonders der Guru3d test überzeugt mich davon das es keinen wirklichen unterschied gibt, bessonders wenn man die 512mb version dann noch übertaktet
http://www.guru3d.com/article/Videocards/472/15/
Das ist dumm es geht mir persönlich nicht um 3dmurks werte (das überlasse ich den Kids) es geht mir um Spielbarkeit und Wirtschaftlichkeit :)
Danke dir! Nu bin ich in der Hinsicht wieder schlauer. :smile:
-/\-CruNcher-/\-
2007-11-21, 23:16:58
Allerdings ist auch zu beachten das sie wahrscheinlich ein kleines wenig Lauter wird wenn sie an ihre Grenze von 775MHz gebracht wird (leider ein Bioslock Bug auch wieder hier vorhanden somit nur 750Mhz) aber sie läuft immernoch unter den 90°C der 8800GT :d
Auch beim RV670 wirds erst ab 100°C kritisch und der Lüfter fängt an verrückt zu spielen. Wenn man höher will als wie die 775MHz dann ist wieder die Frage wegen Kühlungsinvestition, weil da investiert man für eine Schicke Lösung wie den Duorb z.b 50€ und dann kann man sich wiederum gleich eine HD3870 holen.
Die Karte ist angeblich "lagernd in Deutschland":
http://nc-shop.at/index2.php?sid=49268f1045575e2589c91310fbc8a50a&seite=haupt/prod_info.php&nr=07106704508807206805105605504808808407105204506905
Auch wenn es ein österreichischer Shop ist.
-/\-CruNcher-/\-
2007-11-22, 08:47:42
Der Preis ist weit entfernt von Gut und Böse dafür bekommt man locker eine HD3870
-/\-CruNcher-/\-
2007-11-22, 09:05:58
oops sorry, interessant sind also anscheinend schon hier in Deutschland die Gecube Karten, kann ja dann alles mit großer Verfügbarkeit nicht mehr alzulange dauern :)
Ich glaube da nicht mehr dran. Dieses ewige Schöngerede nervt. :)
Marty98
2007-11-22, 09:44:27
Der Shop lügt, wie so viele andere, imho bekommt man sowohl die HD 3870 als auch die 8800 GT nur bei Ebay (zu astronomischen Preisen). Wird sich vor Januar nicht ändern. Ich glaube zwar in Dezember kommen einige Karten, aber da werden zu 95% die Vorbesteller bedient.
Mumins
2007-11-22, 09:47:59
edit
Gorthol
2007-11-22, 09:52:17
Laut Stjopka im offiziellen Gigabyte-Forum kommen die 38xxer Karten wahrscheinlich nicht vor Weihnachten nach Deutschland. :(
Quelle (http://62.109.81.232/cgi-bin/sbb/sbb.cgi?&a=show&forum=4&show=109#7)
Doch die Karten werden vor Weihnachten kommen. Wartet mal die erste Dezemberwoche ab, dann wisst ihr was volle Lager sind ;)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.