Archiv verlassen und diese Seite im Standarddesign anzeigen : HD 2900XT: (P)Review-Thread
Bitte auch die zweite Hälfte meines Postings beachten, die du auch gequotet hast. Bewegung gibt Klarheit.
MfG,
Raff
Bewegung braucht es dazu nicht immer, manchmal reicht ein Screenshot. Die Linien der angesprochenen Kreisbögen sind bei ATI stufig und durchbrochen, bei Nvidia rund und "glatt".
Mr. Lolman
2007-05-14, 12:45:40
Edit: Anscheinend wurde es wenigstens etwas verbessert. Na dann...
Lt. 3DC-Review ist R600-AIon mit R580-AIoff und G80-HQ ziemlich gut vergleichbar...
Das solltest du dochmal genauer ausführen, da es offensichtlich ziemlicher Unsinn ist.
Sry. Wenns Unsinn ist, dann nehm ichs zurück. Ich dachte ich hatte da mal was läuten hören...
Blaire
2007-05-14, 12:46:33
Eigentlich wieder bezeichnend wie die bekannten Personen wieder versuchen die X2900XT schönzureden aber was anderes war auch nicht zu erwarten. :smile:
Vertigo
2007-05-14, 12:46:37
Angesichts der Übertaktungsergebnisse wage ich zu behaupten, dass man die Spannung im Defaulttakt abermals nett absenken können wird (ähnlich wie schon beim R580). Außerdem werden manche Hersteller sicher bessere Kühllösungen auf den Markt bringen.
Zumal die Werte bei den einzelnen Reviews wirklich extrem widersprüchlich sind. Ich habe zuerst auf computerbase geschaut - sehr schön und umfangreich wie immer - und die Werte sind erschreckend. Aber u.a. auf Hardwareluxx und hartware.de sieht es doch ganz anders aus. Wer hat nun Recht? Wahrscheinlich muss man doch wieder auf xbit warten ...
Eigentlich wieder bezeichnend wie die bekannten Personen wieder versuchen die X2900XT schönzureden aber was anderes war auch nicht zu erwarten. :smile:
Auch die Postings anderer User sind ziemlich vorhersehbar ... ;)
3DC zeigt da was anderes.
Ließ mal Computerbase.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/7/#abschnitt_af_kontrolliert
Kurz: Der ATI-Filter flimmert immer noch mit AI-Off, so wie R580 auch, G80 ist in HQ praktisch perfekt.
Technisch haben R580 und R600 weniger gemein, als G70 und G80
So ein absoluter Schwachsinn. G80 hat NICHTS mit G70 gemein. Aber auch gar nichts.
Lt. 3DC-Review ist R600-AIon mit R580-AIoff und G80-HQ ziemlich gut vergleichbar...
Blödsinn. AI-On ist ja allein schon Brilinear überall, dazu ist das LOD ungenauer und es flimmert definitiv mehr.
seahawk
2007-05-14, 12:47:17
Beim Stromverbrauch werden wir xvitlabs warten müssen. Alle anderen Ergebnisse sind mehr oder weniger widersprüchlich, wobei ich den Stromverbrauch gerade im Idle für ok halte.
Eigentlich kann man der karte wenig vorwerfen. Performance fast auf GTX Niveau, guter PReis, ,bestes AA und gleichwertiges AF.
dildo4u
2007-05-14, 12:47:17
Neu? Björn3D Review
http://www.bjorn3d.com/read.php?cID=1099&pageID=3415
DrFreaK666
2007-05-14, 12:47:49
Wie teuer werden denn die HD2600er ungefähr und wieviel % Performance verlieren sie im Vergleich zur HD2900 XT?
Werden es so ca. 50% sein?
Das kann man doch berechnen, oder?
So richtig begeister bin ich von der HD2900 XT auch nicht.
Einzig das AA gefällt mir und das war für mich schon immer wichtig
LovesuckZ
2007-05-14, 12:48:24
3DC zeigt da was anderes.
Sie bewerten es anhand des Bildes, Computerbase schreibt klar, dass sie Vergleichsvideos aufgenommen und verglichen haben. Und sie legen auch deutlich nieder, warum sie das AF beim G80 für besser halten.
Technisch haben R580 und R600 weniger gemein, als G70 und G80, deswegen ist die Treiberentwicklung auch ne größere Herausforderung.
Hier bitte ich um eine Erklärung.
Mr. Lolman
2007-05-14, 12:48:44
Eigentlich wieder bezeichnend wie die bekannten Personen wieder versuchen die X2900XT schönzureden aber was anderes war auch nicht zu erwarten. :smile:
Nö. Ich wundere mich nur über Widersprüchlichkeiten. Tw. auch innerhalb einzelner Reviews, wie zB die 3DMark AF Screenshots bei CB und die dazugehörigen Ausführungen...
Das ist die Frage. Aber wie lautet die Antwort? Welche Reviews bescheinigen der HD2900XT einen niedrigeren idle-Verbrauch?
Ich würd abwarten bis xbitlabs das Review bringt. Das waren bisher die einzigen auf die Verlass war und deren Ergebnisse konnten hier im Forum immer bestätigt werden.
Wobei der 3DCenter Vergleich ja auch einiges Aussagt, auch ATI "verbraucht" im 2D Mode viel Strom. Da gibts keine Ausrede bei beiden Herstellern, die Chips sind einfach so und saugen viel Saft.
für mich wäre sie eindeutig zu laut, wenn man bedenkt, dass sich
die empfundene lautstärke bei einem anstieg von 3 db bereits verdoppelt.
kann mich auch irren - lang warts her mit dem physikunterricht.
6db sind eine verdoppelung vom hörempfinden, um 3db "mehr" zu haben,
muss die leistung verdoppelt werden. (bezogen auf lautsprecher/endstufen)
Wer soll das Ding denn kaufen. Ausser absoluten die-hard Megafanboys wohl niemand. Was eine Verschwendung an Ressourcen...
Wenigstens kann Amd jetzt dann schonmal etwas praktische Erfahrung bzw. Feedback sammeln für ihre Treiber. Wenn dann die Mainstreamkarten erscheinen, dürfte es dann einigermaßen ausgereifte Treiber geben.
Hä. Was meinst du? Das seh ich nur weniger Grisseln am ATi Shot. Beim NV-Shot seh ich dafür fehlendes Bumpmapping. Der Holzscheit ganz oben in der Mitte hat am G80-Bild fast keine Struktur...
Hä? Der Test benutzt ja gar kein Bumpmapping.
Nö. Ich wundere mich nur über Widersprüchlichkeiten. Tw. auch innerhalb einzelner Reviews, wie zB die 3DMark AF Screenshots bei CB und die dazugehörigen Ausführungen...
Lolman, es ist nicht alles was auf Screenshots zu sehen ist "besser", wann begreifst du das endlich? Ich kann das LOD auf -unendlich stellen und hab nen perfekt scharfen Screenshot. Das ist völlig irrelevant.
G80 filter nach Lehrbuch, d.h. es hält das LOD praktisch perfekt ein und nimmt alle Samples. Besser geht es nunmal nicht. ATI kann sich das mit R600 und der halben Texelfüllrate von G80 gar nicht leisten.
Deaktiviert man nun auf beiden Grafikkarten sämtliche Optimierungen des anisotropen Filters, dreht der G8x regelrechte Kreise um die Konkurrenz. Während die Texturen auf dem G8x nur selten flimmern, keine Bugwellen mehr sichtbar sind und gleichzeitig bis in den letzten Winkel mit allen eingestellten Samples gefiltert werden, bekommt man von ATis R600 bei A.I. Off nicht eine so gute Qualität geboten. Die etwas schlechtere Winkelunabhängigkeit fällt prinzipiell kaum auf, der trilineare Filter ist ebenfalls sehr gut, die Texturen sind aber weiterhin unruhig. Während nVidia dieses Problem mit dem G8x beinahe ausgelöscht hat, hat ATi das Flimmern zwar angepackt, aber ist schlussendlich nicht weit genug gegangen. Bei der anisotropen Filterung hat der nVidia G80 die Nase also vorn.
'Nuf said.
Blaire
2007-05-14, 12:52:58
Hat schon jemand einen Link gefunden von der Juarez DX10 Demo?
AnarchX
2007-05-14, 12:53:41
Wie teuer werden denn die HD2600er ungefähr
$99-199, kommen aber erst im Juli
und wieviel % Performance verlieren sie im Vergleich zur HD2900 XT?
Werden es so ca. 50% sein?
Das kann man doch berechnen, oder?
Vergleich 2900XT vs 2600XT
ROP-Leistung: 27%
Texturleistung: 54%
arithmetische Leistung: 40%
Speicherbandbreite: 30%
Ich würde im Durchschnitt wohl auf ~40% Leistung der 2900XT schätzen.
Genaue Daten gibt es auh bei PCGH:
http://www.pcgameshardware.de/?article_id=601317&page=2
Mr. Lolman
2007-05-14, 12:55:11
Sie bewerten es anhand des Bildes, Computerbase schreibt klar, dass sie Vergleichsvideos aufgenommen und verglichen haben. Und sie legen auch deutlich nieder, warum sie das AF beim G80 für besser halten.
Dann würd ich gerne die Videos sehen. BlackBirdSR wird sich ja auch was dabei gedacht haben, wenn er für 3DC schreibt, dass R600 AIon mit G80 HQ vergleichbar ist. Außerdem bedarfs immernoch einer Erklärung, warum man bei den 3DMark-Vergleichen auf CB beim G80-Shot kaum Bumpmapping sieht. Dass das insgesamt ein ruhigeres Bild ergeben mag, ist somit nicht weiter verwunderlich.
Und dass der G80 trotz höherer Körnigkeit in der Bildmitte weniger flimmern soll, als der R600 kann ich auch nicht ganz nachvollziehen...
Ich kann das LOD auf -unendlich stellen und hab nen perfekt scharfen Screenshot. Das ist völlig irrelevant.
Da ist dann garnix perfekt scharf. So ein Bild hätte eine viel zu hohe Körnigkeit.
Vergleiche mal R580 mit R600 und sag mir wo da der Unterschied sein sollte?
Ich sehe da gar keinen auf dem ersten Blick, also wird das AF unangetastet worden sein.
Schau dir mal die AF-Blume an, der R580 hat da ein LOD-Problem bei 16xAF, welches beim R600 offensichtlich behoben wurde.
Wie teuer werden denn die HD2600er ungefähr
Darüber hat sich N. auch Gedanken gemacht: Resultat hier zu bestaunen
http://www.hkepc.com/bbs/hwdb.php?tid=782620&tp=8800Ultra-nvidia&rid=782622
BlackBirdSR wird sich ja auch was dabei gedacht haben, wenn er für 3DC schreibt, dass R600 AIon mit G80 HQ vergleichbar ist.
Ohne jetzt BlackBirdSR zu nahe treten zu wollen, das ist einfach Käse. Du kannst einen "optimierten" Filter nicht mit einem praktisch perfekten vergleichen.
Es ist ihm vielleicht nicht aufgefallen, weil er nicht an den richtigen Stellen geschaut hat, aber das der AI-On-Filter mit G80 HQ mithalten kann ist einfach lachhaft.
Und dass der G80 trotz höherer Körnigkeit in der Bildmitte weniger flimmern soll, als der R600 kann ich auch nicht ganz nachvollziehen...
Hast du überhaupt schonmal nen G80 live erlebt, oder ist das einfach nach deiner Weltanschauung einfach nicht möglich? Das G80-AF ist besser. Da brauchen wir gar nicht drüber streiten, außer wir wollen hier die Realität verdrehen.
Und hör endlich auf einzelne Bildausschnitte als Qualitätsmerkmal auszuwählen. Das hast du damals schon bei NV4x gemacht, indem du Stellen benannt hast, wo das genau umgedrehte Muster natürlich bei ATI manchmal besser aussah. Es nervt.
Das R600-AF ist für den normale Spielebetrieb natürlich völlig ausreichend, aber es ist nicht perfekt. Mit AI schon gar nicht.
Godmode
2007-05-14, 13:00:35
Zu eurem Flimmer-Flame-War:
Eventuell könnte man bei CB nachfragen ob sie die Videos nicht auf Rapidshare legen könnten, dann kann jeder selbst nachvollziehen was Sache ist.
edit: hab gerade an CB.de geschrieben, dass sie die Vids auf Rapidschare legen sollen.
Hast du überhaupt schonmal nen G80 live erlebt, oder ist das einfach nach deiner Weltanschauung einfach nicht möglich?
Das G80-AF ist besser. Da brauchen wir gar nicht drüber streiten, außer wir wollen hier die Realität verdrehen.
Ohne dir zu nahe treten zu wollen, aber das ist so, weil du es sagst...? Auch eine Form der Weltanschauung... oder aber der hier mittlerweile üblichen Diskussions"kultur"...
Nein, weil ich einen G80 besitze (die Karte flimmert nicht) und eine AI-Off R520 hatte und wenn Computerbase schreibt es flimmert immer noch einen Tick mehr, dann glaube ich es ihnen. Die haben immerhin damals auch schon das NV4x-Flimmern entlarvt.
Das hat überhaupt nichts mit Weltanschauung zu tun, ich hab mich damals auch über G7x aufgeregt. Und über das angeblich so tolle R5xx-AI-AF. Das war nämlich auch schon schlimmer als G7x-HQ.
Nein, weil ich einen G80 besitze und eine AI-Off R520 hatte und wenn Computerbase schreibt es flimmert immer noch einen Tick mehr, dann glaube ich es ihnen. Die haben immerhin damals auch schon das NV4x-Flimmern entlarvt.
Gut, aber einen R600 hast du nicht selbst und auch noch nicht in Aktion gesehen, oder?
PS: Ich sehe gerade, du relativierst ja gerade etwas...
Ich relativier gar nichts. G8x filtert perfekt, das sieht man an der LOD-Bestimmung und an dem was in den Spielen rauskommt.
Dagegen einen "optimierten" Brifilter als gleichwertig zu betrachten ist lachhaft. Und AI-On ist optimiert, darüber brauchen wir ja wohl nicht streiten.
Neu? Björn3D Review
http://www.bjorn3d.com/read.php?cID=1099&pageID=3415
Also auch unter DX10 reißt der R600 nix, schade.
The_Invisible
2007-05-14, 13:05:50
Abwarten. Gerade im CF-Mode geht der R600 tw. ordentlich (http://techreport.com/reviews/2007q2/radeon-hd-2900xt/hl2-2048.gif) ab und bis jetzt wars eigentlich (leider) nie so, dass sich das Potential eines neuen ATi Chips in den 1. Tests bereits vollständig gezeigt hätte.
ja, ist schon toll wenn nicht die richtigen SLI bits gesetzt sind und ein r580cf an g80sli rankommt...
mfg
Vertigo
2007-05-14, 13:06:41
Nein, weil ich einen G80 besitze (die Karte flimmert nicht) und eine AI-Off R520 hatte und wenn Computerbase schreibt es flimmert immer noch einen Tick mehr, dann glaube ich es ihnen. Die haben immerhin damals auch schon das NV4x-Flimmern entlarvt.
Das hat überhaupt nichts mit Weltanschauung zu tun, ich hab mich damals auch über G7x aufgeregt. Und über das angeblich so tolle R5xx-AI-AF. Das war nämlich auch schon schlimmer als G7x-HQ.
Was soll ständig das AI-Gebashe? Man kann die Optimierungen doch vollständig deaktivieren. Dann sollte man auch einfach die bestmögliche BQ vergleichen und nicht "perfekt" gegen "optimiert".
http://www.extremetech.com/article2/0,1697,2128920,00.asp
Was soll ständig das AI-Gebashe? Man kann die Optimierungen doch vollständig deaktivieren.
Ja, aber selbst ohne AI neigt R600 mehr zum Flimmern. Es geht mir einfach nicht runter, wie Lolman hier noch propagieren kann das R600 AF sei gleichwertig, aber damals bei G7x einen Feiztanz aufgeführt hat als würde jeder Pixel wie ein Stroboskob blinken.
Ich relativier gar nichts.
Nun, die Entscheidung kann ja jeder an Hand der Edits selber treffen...
Btw. kannst du mir erklären, warum ein Filter"fetischist" das AI-Off AF des R600 als, sagen wir mal gut, befindet? Irrt er auch?
Vertigo
2007-05-14, 13:09:08
Ja, aber selbst ohne AI neigt R600 mehr zum flimmern.
Mehr als G80? Oder auch G70? Ersteres würde ich aus eigener Erfahrung bestätigen, das Zweite nicht.
Es geht mir einfach nicht runter, wie Lolman hier noch propagieren kann das R600 AF sei gleichwertig, aber damals bei G7x einen Feiztanz aufgeführt hat als würde jeder Pixel wie ein Stroboskob blinken.
Du hast nicht zufällig gerade GTR(2) oder GTL zur Hand?
Mehr als G80? Oder auch G70? Ersteres würde ich aus eigener Erfahrung bestätigen, das Zweite nicht.
Mehr als G80 natürlich. G70 Quality kannst in die Tonne treten. Aber HQ war besser als AI-On auf R5xx. Hab ich auch schon mehrmals erwähnt, darauf will auch keiner hören.
Nun, die Entscheidung kann ja jeder an Hand der Edits selber treffen...
Ich editiere jeden Post.
Btw. kannst du mir erklären, warum ein Filter"fetischist" das AI-Off AF des R600 als, sagen wir mal gut, befindet? Irrt er auch?
Von wem redest du jetzt?
LovesuckZ
2007-05-14, 13:10:25
Btw. kannst du mir erklären, warum ein Filter"fetischist" das AI-Off AF des R600 als, sagen wir mal gut, befindet? Irrt er auch?
Er sieht nur die Bilder der Filtertester.
aths sollte sich selbst ein Bild davon machen, bevor er mit seinem Namen dafür gradesteht.
James Ryan
2007-05-14, 13:12:03
Was soll ständig das AI-Gebashe? Man kann die Optimierungen doch vollständig deaktivieren. Dann sollte man auch einfach die bestmögliche BQ vergleichen und nicht "perfekt" gegen "optimiert".
Full Ack! Nur leider wird dies selten gemacht, siehe Review @Hwluxx, da wird munter NV-HQ gegen AI-standard gebencht. Und das kann es ja wohl nicht sein!
MfG :cool:
Mr. Lolman
2007-05-14, 13:12:26
Hast du überhaupt schonmal nen G80 live erlebt, oder ist das einfach nach deiner Weltanschauung einfach nicht möglich? Das G80-AF ist besser. Da brauchen wir gar nicht drüber streiten, außer wir wollen hier die Realität verdrehen.
Verdrehte Realitäten?
http://666kb.com/i/aobzy4l0exxvtq7lv.gif http://666kb.com/i/aobzyeagc1264eio3.gif
Und hör endlich auf einzelne Bildausschnitte als Qualitätsmerkmal auszuwählen. Das hast du damals schon bei NV4x gemacht, indem du Stellen benannt hast, wo das genau umgedrehte Muster natürlich bei ATI manchmal besser aussah. Es nervt.
Zeig mir aus den gleichen Shots Bereiche wo der G80 besser ist. Bei einem perfekten AF sollt ja das von mir Gezeigte eigentlich garnicht möglich sein.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/7/#abschnitt_af_kontrolliert
BTW: Wenn du obige Anschuldigung auch belegen kannste, wär ich dir auch sehr dankbar.
aber damals bei G7x einen Feiztanz aufgeführt hat als würde jeder Pixel wie ein Stroboskob blinken.
Hat er ja auch so ungefähr. Schonmal mit irgendeinem der im besagten 3DC-Artikel erwähnten Treibern im Defaultsetting ein OpenGL-Spiel gespielt? Das war grauenhaft (http://img345.imageshack.us/img345/8628/default77761jd.gif). Mit 'echtem' NV40 HQ hab ich nie ein Problem gehabt.
Was soll ständig das AI-Gebashe? Man kann die Optimierungen doch vollständig deaktivieren. Dann sollte man auch einfach die bestmögliche BQ vergleichen und nicht "perfekt" gegen "optimiert".
Ja, aber wenn man das tut, steht der R600 ja noch schlechter da durch seine geringe Texelfüllrate.
Verdrehte Realitäten?
Ich hab schonmal gesagt, das man das auf Screenshots nicht erkennen kann. Punkt Ende aus.
BTW: Wenn du obige Anschuldigung auch belegen kannste, wär ich dir auch sehr dankbar.
Da gab's von dir z.B. die 3DMark-Baum-Screenshots. Das weiß ich noch ganz genau.
AnarchX
2007-05-14, 13:17:43
Weltexklusiv: DX10-Realworld-Check HD2900 gegen GF 8800 (http://www.pcgameshardware.de/?article_id=601352) Lost-Planet
http://img170.imageshack.us/img170/1646/lpdx10snowqf7.jpg (http://imageshack.us)
http://img170.imageshack.us/img170/1663/lpdx10caveaq7.jpg (http://imageshack.us)
... und dabei kommt das Game von der Xbox360.
Vertigo
2007-05-14, 13:18:10
Full Ack! Nur leider wird dies selten gemacht, siehe Review @Hwluxx, da wird munter NV-HQ gegen AI-standard gebencht. Und das kann es ja wohl nicht sein!
MfG :cool:
Naja, beim Vergleich R5xx vs. G7x war das imo schon legitim - die Filterqualität des G7x war und ist einfach eine Frechheit. An der BQ des G80 gibt es dagegen wirklich nichts auszusetzen. An der Hardware übrigens auch nicht.
Tatsache ist nunmal dass nVidia mit der GeForce8 die Messlatte in allen relevanten Punkten verdammt hoch gelegt hat. ATI/AMD scheint nicht eine dieser Hürden wirklich zu überspringen und versucht es folgerichtig über den Preis zu relativieren. Die Reviews sind jedenfalls aus meiner Sicht bisher sehr ernüchternd.
Verdrehte Realitäten?
http://666kb.com/i/aobzy4l0exxvtq7lv.gif http://666kb.com/i/aobzyeagc1264eio3.gif
Zeig mir aus den gleichen Shots Bereiche wo der G80 besser ist. Bei einem perfekten AF sollt ja das von mir Gezeigte eigentlich garnicht möglich sein.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/7/#abschnitt_af_kontrolliert
Sach ma, siehst du nicht, daß die scharzen dicken Striche auf der ATI Zacken haben (=texturaliasing = flimmern in bewegung) und bei nvidia glatt sind?
LovesuckZ
2007-05-14, 13:19:32
Weltexklusiv: DX10-Realworld-Check HD2900 gegen GF 8800 (http://www.pcgameshardware.de/?article_id=601352) Lost-Planet
... und dabei kommt das Game von der Xbox360.
Kannst du dir Werte bitte hier reinschreiben?
dildo4u
2007-05-14, 13:20:35
Kannst du dir Werte bitte hier reinschreiben?
http://img170.imageshack.us/img170/1646/lpdx10snowqf7.jpg
http://img170.imageshack.us/img170/1663/lpdx10caveaq7.jpg
http://www.pcgameshardware.de/?article_id=601352
James Ryan
2007-05-14, 13:21:02
Weltexklusiv: DX10-Realworld-Check HD2900 gegen GF 8800 (http://www.pcgameshardware.de/?article_id=601352) Lost-Planet
http://img170.imageshack.us/img170/1646/lpdx10snowqf7.jpg (http://imageshack.us)
http://img170.imageshack.us/img170/1663/lpdx10caveaq7.jpg (http://imageshack.us)
... und dabei kommt das Game von der Xbox360.
Das ist jetzt aber mal richtig übel, da liegt noch reichlich Arbeit vor ATis Treiberteam!
MfG :cool:
Blaire
2007-05-14, 13:21:27
Du hast nicht zufällig gerade GTR(2) oder GTL zur Hand?
Das Problem existiert nicht mehr mit den neuesten 15x.xx Forceware das WhiteLines Problem wurde gefixt.
Ich hab schonmal gesagt, das man das auf Screenshots nicht erkennen kann. Punkt Ende aus.
auf die Gefahr, mich zu wiederholen...:
Gut, aber einen R600 hast du nicht selbst und auch noch nicht in Aktion gesehen, oder?
Vertigo
2007-05-14, 13:21:39
... und dabei kommt das Game von der Xbox360.
Katastrophal.
Das Problem existiert nicht mehr mit den neuesten 15x.xx Forceware das WhiteLines Problem wurde gefixt.
Echt? Das ist irgendwie an mir vorbeigerauscht. Ich werde es mal probieren - danke für den Hinweis!
Mr. Lolman
2007-05-14, 13:24:48
Ich hab schonmal gesagt, das man das auf Screenshots nicht erkennen kann. Punkt Ende aus.
Das was man erkennen kann, ist das man im 1. gif NV eine höhere Körnigkeit hat (wos für mich fraglich ist, wie das in Bewegung weniger flimmern können soll) und, dass im 2. gif am Holzscheit in der Mitte fast vollständig die Maserung fehlt.
Da gab's von dir z.B. die 3DMark-Baum-Screenshots. Das weiß ich noch ganz genau. Da waren aber div. unterschiedliche Winkel zu sehen.
Sach ma, siehst du nicht, daß die scharzen dicken Striche auf der ATI Zacken haben (=texturaliasing = flimmern in bewegung) und bei nvidia glatt sind?
Da hast du recht. Andererseits stellt sich wiederum die Frage ob die mit TreiberAF oder mit AppAF getestet haben. Naja. vll stellt CB die Videos online und dann sind wir alle schlauer. Es wär auch nicht so verkehrt, wenn sich BlackBirdSR zu der Thematik mal äußern würde.
The_Invisible
2007-05-14, 13:27:09
http://img170.imageshack.us/img170/1646/lpdx10snowqf7.jpg
http://img170.imageshack.us/img170/1663/lpdx10caveaq7.jpg
http://www.pcgameshardware.de/?article_id=601352
wird ja immer peinlicher. wobei der zweite bench auch noch cpu limitiert ist für g80.
mfg
Blaire
2007-05-14, 13:28:57
Echt? Das ist irgendwie an mir vorbeigerauscht. Ich werde es mal probieren - danke für den Hinweis!
Ich muss fairerweise dazusagen das ich kein GTL habe und es nicht testen konnte. Bei GP4 jedoch sind die "WhiteLines" nahezu eliminiert.
Siehe auch: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5450821&postcount=271
Das was man erkennen kann, ist das man im 1. gif NV eine höhere Körnigkeit hat (wos für mich fraglich ist, wie das in Bewegung weniger flimmern können soll) und, dass im 2. gif am Holzscheit in der Mitte fast vollständig die Maserung fehlt.
Du kannst da gar nichts erkennen, weil es einfach nur einen Momentaufnahme ist. Genauso könnte ich jetzt irgendwas rauspicken wo R600 genau in diesem Moment Schwächen hat. Das führt doch zu nichts.
AI spart Samples (allein dadurch kann es übrigens auf dem Standbild "ruhiger" wirken), G80 HQ nicht. Das sollte eigentlich schon reichen. Für dich muss anscheinend einer wirklich Fraps-Videos vom Filtertunnel filmen. So sei es, lass uns aber bis dahin bitte damit in Ruhe.
Mr. Lolman
2007-05-14, 13:32:23
Du kannst da gar nichts erkennen, weil es einfach nur einen Momentaufnahme ist. Genauso könnte ich jetzt irgendwas rauspicken wo R600 genau in diesem Moment Schwächen hat. Das führt doch zu nichts.
Wenn in einem Frame die Maserung zu sehen ist und im nächsten nicht müssts auf jeden Fall hässlich flimmern. Wenn sich der Grad der Körnigkeit frameweise abwechseln würde genauso. Jedenfalls sieht das 'perfekte' G80-AF in der 'Momentaufnahme' schlechter aus, als R600 AIon...
AI spart Samples (allein dadurch kann es übrigens auf dem Standbild "ruhiger" wirken)
Das ist imo genauso ein Schmarrn, wie das man mit unendlich negativem LOD Screenshots mit perfekter Schärfe erzeugen kann.
Moralelastix
2007-05-14, 13:33:12
Ist bestimmt noch zu früh aber könnte es nicht auch sein das die Übernahme von ATI auch einen Anteil an dem ganzen Debakel hat, besonders die mangelhaften Treiber?
Hätte es keine Übernahme gegeben wär der R600 Launch besser gelaufen?
dildo4u
2007-05-14, 13:34:56
Ein paar Tests mit DX10 Techdemos.
http://translate.google.com/translate?u=http%3A%2F%2Fwww.presence-pc.com%2Ftests%2FAMD-Radeon-2900-XT-22674%2F23%2F&langpair=fr%7Cen&hl=en&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools
san.salvador
2007-05-14, 13:36:11
Ist bestimmt noch zu früh aber könnte es nicht auch sein das die Übernahme von ATI auch einen Anteil an dem ganzen Debakel hat, besonders die mangelhaften Treiber?
Hätte es keine Übernahme gegeben wär der R600 Launch besser gelaufen?
Die haben sicher den einen oder anderen von ATI abgezogen, um an einer GPU+CPU Geschichte zu werkeln.
Also hilfreich war die "Fusion" sicher nicht, obs geschadet hat? Wer weiß...
dreas
2007-05-14, 13:39:17
Ich verstehe die Treibergeschichte auch nicht. Ati hatte doch Monate mehr Vorlauf in der Treiberentwicklung und da hängen die unter XP so hinterher?
Auch auf Vista können sie sich ja nicht wirklich konzentriert haben wie man sieht. Von daher bleibt nur die Erkenntnis das die Treiber für den R600
nur sehr komplex programmierbar sind. Daher bedeutet das wieder enormen Aufwand in punkto shaderreplacement und aplikationsspezifische Optimierungen. Da kann dann Crossfire auch nichts rausreisen. Insgesamt und gerade unter 4xAA für AMD/ATI ein Desaster.
mfg dreas
abwarten Tee trinken.. :D
mich reißt an der Karte schonmal garnix mehr vom Hocker..und da laß ich den reinen Rohpower mal ganz außen vor..das Ding sollte man mit einer GTS vergleichen und sonst nix,alles andere ist lächerlich....
BQ>wer auf so was schwammiges steht..bitte schön..das ist ja nicht zum Aushalten...aber auch hier werden die Fanboys vor Freude hüpfen...
Was peinlich ist>der Verbrauch und vorallem das einbrechen mit AA und co...man kann nur für Ati hoffen das es ein Treiberprob.ist.
Ansonsten isse schön rot und das wars auch schon... :tongue:
Nun bin ich mal gespannt wann NV den ultimativen Power Treiber auspackt....aber dank ATI werden wir da wohl noch ein Weilchen warten müssen ;D
seahawk
2007-05-14, 13:41:23
Ouch, und im zweiten Bench sehen die 8800er furchtbar CPU limitiert aus.
Toppas:-)
2007-05-14, 13:41:37
Ist bestimmt noch zu früh aber könnte es nicht auch sein das die Übernahme von ATI auch einen Anteil an dem ganzen Debakel hat, besonders die mangelhaften Treiber?
Hätte es keine Übernahme gegeben wär der R600 Launch besser gelaufen?
Die Übernahme hatte nun kaum was damit zu tun wenns um die Treiber geht.Mit dem Launch eher schon, weil man einen Hardlaunch vorgezogen hat und durch div. Technische Probleme es sich verzögert hatte. Ati war einfach noch nicht so weit, ca. 3/4Jahr hätten sie länger gebraucht. Außerdem, und das gestehen einige ATI-Leute ein, hat sie die Performance des G80 sehr überrascht, woran sie in den Labors zu dem Zeitpunkt überhaupt nicht in der Nähe waren.
Die Übernahme betraf hauptsächlich die Manager oben...
Exxtreme
2007-05-14, 13:42:25
Hahaaa! Der Launch ist schonmal sowas von scheiss peinlich, das gibt's gar nicht! X-D Da wird AMD wohl einige neue Stellen zu besetzen haben.
Wenn in einem Frame die Maserung zu sehen ist und im nächsten nicht müssts auf jeden Fall hässlich flimmern.
Auf G80 flimmert gar nichts. Absolut nicht. Es ist deutlich besser als R5xx-HQ-AI-Off. Und das ist sicher.
Und da bei dir R5xx-HQ-AI-Off auf keinen Fall flimmert, sind wir uns doch wieder einig, oder? :tongue:
Das ist imo genauso ein Schmarrn, wie das man mit unendlich negativem LOD Screenshots mit perfekter Schärfe erzeugen kann.
Ist es nicht. Man muss nur das richtige Bild erwischen.
Sternenkind
2007-05-14, 13:43:48
17709 Beiträge und dann so unsachlich?
LovesuckZ
2007-05-14, 13:45:04
17709 Beiträge und dann so unsachlich?
Du weißt auch, dass er mal sehr rot war? ;)
Exxtreme
2007-05-14, 13:45:23
17709 Beiträge und dann so unsachlich?
Ich sag's nur wie's ist. Und ich bin eigentlich nicht ATi abgeneigt. Muss mal meine ganz alten Threads mal lesen. :D
seahawk
2007-05-14, 13:45:28
Hahaaa! Der Launch ist schonmal sowas von scheiss peinlich, das gibt's gar nicht! X-D Da wird AMD wohl einige neue Stellen zu besetzen haben.
Ich hoffte echt, dass ATI solche Launches seit R300 hinter sich hat, aber das war gar nichts. Und die gro0en Töne gegenüber den NV Vista Treibern sind jetzt zusätzlich peinlich.
Ich hoffe nur, dass die kleinen Karten besser sind, ansonsten wird es sehr dunkel werden.
Ließ mal Computerbase.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/7/#abschnitt_af_kontrolliert
Kurz: Der ATI-Filter flimmert immer noch mit AI-Off, so wie R580 auch, G80 ist in HQ praktisch perfekt.
R5x0 ist mit deaktiviertem A.I. ebenfalls fast perfekt. Die Flimmeranfälligkeit des G80 ist nur mit viel gutem Willen oder einer farbigen Brille besser.
MfG,
Raff
Ich hab beides gesehen und G80 ist definitiv nochmal besser. Ich sag ja nicht dass R5xx AI-Off nicht ausreichen würde, aber darum geht's hier nicht.
Moralelastix
2007-05-14, 13:48:06
"ca. 3/4Jahr hätten sie länger gebraucht"
Soll das n Witz sein? Dann hätten sie es ja gleich mit 80nm lassen und erst mit 65nm launchen können.
The_Invisible
2007-05-14, 13:51:09
Ich hoffte echt, dass ATI solche Launches seit R300 hinter sich hat, aber das war gar nichts. Und die gro0en Töne gegenüber den NV Vista Treibern sind jetzt zusätzlich peinlich.
Ich hoffe nur, dass die kleinen Karten besser sind, ansonsten wird es sehr dunkel werden.
kann jetzt eigentlich AMD deswegen auch verklagt werden? gab ja bei nvidia schon sowas lächerliches...
mfg
Vertigo
2007-05-14, 13:51:33
Hahaaa! Der Launch ist schonmal sowas von scheiss peinlich, das gibt's gar nicht! X-D Da wird AMD wohl einige neue Stellen zu besetzen haben.
Angesichts der Quartalszahlen und dem zu erwartenden Aufwand/Nutzen-Verhältnis beim R600 wäre es schon ein Wunder wenn die Zahl der Stellen gleich bleiben könnte.
in der Schweiz gibt es die Karten ab ~315€
http://www.toppreise.ch/index.php?search=HD+2900&sRes=OK
Godmode
2007-05-14, 13:51:51
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/31/#abschnitt_call_of_juarez_d3d10
Seht euch mal die Variance Shadow Maps Bilder an, war da etwa CFAA an? Sieht ziemlich verschmiert aus, vor allem der Schriftzug auf der Motorhaube des Fahrzeuges.
Moralelastix
2007-05-14, 13:52:28
Ich hoffte echt, dass ATI solche Launches seit R300 hinter sich hat, aber das war gar nichts. Und die gro0en Töne gegenüber den NV Vista Treibern sind jetzt zusätzlich peinlich.
Ich hoffe nur, dass die kleinen Karten besser sind, ansonsten wird es sehr dunkel werden.
Ich mach heut Abend mal ne rote Kerze an!:biggrin:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/31/#abschnitt_call_of_juarez_d3d10
Seht euch mal die Variance Shadow Maps Bilder an, war da etwa CFAA an? Sieht ziemlich verschmiert aus, vor allem der Schriftzug auf der Motorhaube des Fahrzeuges.
Ja, definitiv. Da ist ja das ganze Bild verschmiert (schau mal auf die Bodentextur).
Mr. Lolman
2007-05-14, 13:54:01
Auf G80 flimmert gar nichts. Absolut nicht. Es ist deutlich besser als R5xx-HQ-AI-Off. Und das ist sicher.
Und da bei dir R5xx-HQ-AI-Off auf keinen Fall flimmert, sind wir uns doch wieder einig, oder? :tongue:
Naja. Flimmrigkeit ist leider sehr subjektiv bewertbar. :tongue: Aber du wirst doch auch nicht abstreiten wollen, dass eine höhere Körnigkeit im Bild in Bewegung meist zwangsläufig zu einer höheren Flimmrigkeit führt.
Ist es nicht. Man muss nur das richtige Bild erwischen.
Ich behaupte, dass es in so einem Fall das richtige Bild nicht gibt. Und selbst wenn, dann wärs doch ein äußerst blöder Zufall, dass CB in ihrer 3DMark Vergleichszene genau eine Momentaufnahme bringt, wo ATi in 2 von 3 Punkten sichtbar besser dasteht, oder?
Ja, definitiv. Da ist ja das ganze Bild verschmiert (schau mal auf die Bodentextur).
Hm. Leider steht nicht dabei mit welchem AA getestet wurde. Dass ATis-CFAA je nach Setting mehr oder weniger zum Schmieren neigt, ist ja mittlerweile bekannt.
san.salvador
2007-05-14, 13:54:12
R5x0 ist mit deaktiviertem A.I. ebenfalls fast perfekt. Die Flimmeranfälligkeit des G80 ist nur mit viel gutem Willen oder einer farbigen Brille besser.
MfG,
Raff
Ich habe meinen R580 vor kurzem gegen einen G80 getauscht und war bis dahin auch eher ATI-biased. ;)
Aber die Filterqualität des G80 ist deutlich besser, vor allem in Wow wars eine ganz neue Bildqualität - scharf, aber endlich ohne dieses Miniflimmern.
Gespielt hab ich mit AI off 16xHQAF.
Adam D.
2007-05-14, 13:54:49
Ich würd jetzt gern mal wissen, wie es bei Nvidia im Hauptsitz aussieht ;) Die Lachen sich sicherlich ins Fäustchen und bereiten so 'ne "vernichtende" Folie vor ;D
san.salvador
2007-05-14, 13:55:56
Ich würd jetzt gern mal wissen, wie es bei Nvidia im Hauptsitz aussieht ;) Die Lachen sich sicherlich ins Fäustchen und bereiten so 'ne "vernichtende" Folie vor ;D
Ich glaub die Reviews reichen fürs erste, da muss NV garnimmer groß nachhelfen.
dreas
2007-05-14, 13:55:57
yep und die gts wird im Preis nicht sinken
AnarchX
2007-05-14, 13:56:01
Ich würd jetzt gern mal wissen, wie es bei Nvidia im Hauptsitz aussieht ;) Die Lachen sich sicherlich ins Fäustchen und bereiten so 'ne "vernichtende" Folie vor ;D
Die gibt es doch schon:
http://www.theinquirer.net/default.aspx?article=39578
Ist wohl diesmal aus Mitleid nicht ganz so hart ausgefallen. :D
yep und die gts wird im Preis nicht sinken
http://geizhals.at/deutschland/a225880.html
:)
Naja. Flimmrigkeit ist leider sehr subjektiv bewertbar. :tongue
Das ist nicht subjektiv. Wer nicht sieht dass G80 besser filtert als R5xx AI-Off hat Tomaten auf dem Augen.
Aber du wirst doch auch nicht abstreiten wollen, dass eine höhere Körnigkeit im Bild in Bewegung meist zwangsläufig zu einer höheren Flimmrigkeit führt.
Doch, das will ich abstreiten. Sonst wären diese Screenshots nicht erklärbar. Ich kenne den G8x Filter aus der Bewegung. Du anscheinend nicht.
Und anscheinend bin ich da ja nicht der einzige:
Aber die Filterqualität des G80 ist deutlich besser, vor allem in Wow wars eine ganz neue Bildqualität - scharf, aber endlich ohne dieses Miniflimmern.
Gespielt hab ich mit AI off 16xHQAF.
Mal ganz abgesehen davon dass Computerbase genau das gleiche schreibt. Bei NV4x hatten sie damals natürlich recht. Heute nicht mehr, gell?
Mach dich doch nicht komplett lächerlich.
Godmode
2007-05-14, 13:56:47
Ich würd jetzt gern mal wissen, wie es bei Nvidia im Hauptsitz aussieht ;) Die Lachen sich sicherlich ins Fäustchen und bereiten so 'ne "vernichtende" Folie vor ;D
Das glaube ich nicht! Ich denke die arbeiten fleißig am G90 damit sie endlich auf 65nm gehen können und so die Margen verbessern und die Leistung erhöhen können.
Blaire
2007-05-14, 13:58:01
Gibts eigentlich schon vernünftige X2900 Crossfire Tests irgendwo? Mich würde mal interessieren ob sich da etwas an der Profileproblematik geändert hat oder nicht.
IQ ... bitte abnehmen:http://img218.imageshack.us/img218/6175/42wo6.gif
http://forum.beyond3d.com/showpost.php?p=986213&postcount=5563
Sorry, aber da beißt die Maus keinen Faden ab: G80 ist einfach fast perfekt...
Adam D.
2007-05-14, 13:58:51
Die gibt es doch schon:
http://www.theinquirer.net/default.aspx?article=39578
Ist wohl diesmal aus Mitleid nicht ganz so hart ausgefallen. :D
Das ist ja viel zu ehrlich, das zählt nicht :tongue:
Das glaube ich nicht! Ich denke die arbeiten fleißig am G90 damit sie endlich auf 65nm gehen können und so die Margen verbessern und die Leistung erhöhen können.
Das tun sie doch eh, aber so bissl Salz in die Wunde und so :wink:
Daredevil
2007-05-14, 13:59:39
Tomshardware hatte Crossfire, aber sind glaub nur Ergebnisse.
Lass aber erstmal die Einzelkarte gescheit funzen, dann erst bitte Crossfire ^^
Mal ganz abgesehen davon dass Computerbase genau das gleiche schreibt. Bei NV4x hatten sie damals natürlich recht. Heute nicht mehr, gell?
Beim NV40/G70 waren es Welten, jetzt kann man nur noch Flimmernadeln in Texturbergen suchen. A.I. Off flimmert in den seltensten Fällen, aber auch G80 HQ ist nicht gegen fiese Texturen gefeit.
Oder bring doch mal bitte konkrete Beispiele, idealerweise mit Bild- oder Videomaterial. Ich, ein ausgesprochenes Sensibelchen in Sachen Texturfilter, habe bei meinem R520 mit deaktiviertem A.I. jedenfalls keine Probleme. A.I. Standard suckt aber oft. Definitiv.
MfG,
Raff
Vertigo
2007-05-14, 14:01:23
Gibts eigentlich schon vernünftige X2900 Crossfire Tests irgendwo? Mich würde mal interessieren ob sich da etwas an der Profileproblematik geändert hat oder nicht.
Ich wüßte nicht dass diesbezüglich grundlegende Änderungen im Treiber angekündigt wären.
Cubitus
2007-05-14, 14:02:01
Ich würd jetzt gern mal wissen, wie es bei Nvidia im Hauptsitz aussieht ;) Die Lachen sich sicherlich ins Fäustchen und bereiten so 'ne "vernichtende" Folie vor ;D
Es gibt Sekt + Kaviar und Morgen frei ^^
Winter[Raven]
2007-05-14, 14:02:25
Ich würd jetzt gern mal wissen, wie es bei Nvidia im Hauptsitz aussieht ;) Die Lachen sich sicherlich ins Fäustchen und bereiten so 'ne "vernichtende" Folie vor ;D
Das TUT Nvidia nicht seit heute, sondern seit die 8800 Auf dem Markt ist. Geld verdient man im Low-Mid. Markt und da muss man abwarten wie sich ATI und ATI schlagen werden.
Blaire
2007-05-14, 14:02:48
Ich wüßte nicht dass diesbezüglich grundlegende Änderungen im Treiber angekündigt wären.
Naja ich hatte mal gehört das Ati auch eine Art Crossfire Profilmanager anbieten wird. Aber bisher findet man darüber nix. Wahrscheinlich wird es wohl nur ein Gerücht gewesen sein.
A.I. Off flimmert in den seltensten Fällen, aber auch G80 HQ ist nicht gegen fiese Texturen gefeit.
Beides gesehen? G8x ist nochmal sichtbar ruhiger.
Ich, ein ausgesprochenes Sensibelchen in Sachen Texturfilter, habe bei meinem R520 mit deaktiviertem A.I. jedenfalls keine Probleme
G80 ist noch besser. Es ist einfach der ehrlichste Filter. Wozu auch schummeln? Bei der brutalen Texelleistung und vollständig entkoppelten TMUs.
Mr. Lolman
2007-05-14, 14:03:37
Das ist nicht subjektiv. Wer nicht sieht dass G80 besser filtert als R5xx AI-Off hat Tomaten auf dem Augen.
Flimmrigkeit ansich ist eher subjektiv. Hat man eine direkte Vergleichsmöglichkeit, kann man natürlich auch (mehr oder weniger) objektiv feststellen, wer nun mehr flimmert.
Doch, das will ich abstreiten. Sonst wären diese Screenshots nicht erklärbar. Ich kenne den G8x Filter aus der Bewegung. Du anscheinend nicht.
Du kennst aber den R600-Filter nicht in Bewegung. Wenn nun CB der Meinung ist, dass der G80 in Bewegung weniger flimmert, kann das auch daran liegen, dass sie ein Video vom 3DMark aufgenommen haben und aufgrund von Atis besser sichtbaren Bumpmapping (warum ist das eigentlich so, oder verbuchen wird das auch nur unter Zufall) zu dem Schluss gekommen sind, dass NV weniger flimmert. Mit ein bisschen Erfahrung kann man btw. sehr gut abschätzen was in Bewegung zum Flimmern neigt und was nicht. Vll wär auch wiedermal ein Blindvergleich angebracht, damit (meinetwegen auch unbewusste) persönliche Vorlieben die Wahrnehmung nicht beeinflussen.
Außerdem steht ohnehin Aussage gegen Aussage. Die von 3DC, gegen die von CB.
Beides gesehen? G8x ist sichtbar ruhiger.
R600 AIoff != R680 AIoff!
Mal ganz abgesehen davon dass Computerbase genau das gleiche schreibt. Bei NV4x hatten sie damals natürlich recht. Heute nicht mehr, gell?
Mach dich doch nicht komplett lächerlich.
Beim NV40 hatten sie erst recht, nachdem auf mein Drängen div. Seiten die AF-BQ neu untersucht hatten. Selbst bei xbitlabs hat lang gedauert, aber letztenendes haben sies auch auch geschafft.
Oder bring doch mal bitte konkrete Beispiele, idealerweise mit Bild- oder Videomaterial. Ich, ein ausgesprochenes Sensibelchen in Sachen Texturfilter, habe bei meinem R520 mit deaktiviertem A.I. jedenfalls keine Probleme. A.I. Standard suckt aber oft. Definitiv.
Das muss man dir wirklich lassen. So allergisch wie du, reagiert hier kaum jemand auf Filterpfusch... X-D :up:
Vertigo
2007-05-14, 14:04:06
Naja ich hatte mal gehört das Ati auch eine Art Crossfire Profilmanager anbieten wird. Aber bisher findet man darüber nix. Wahrscheinlich wird es wohl nur ein Gerücht gewesen sein.
Naja, angebracht wäre es wohl. Das offene Profilsystem von nVidia hat schon Vorteile - auch für den "normalen" User und daher hat es auch seine Berechtigung.
Beides gesehen? G8x ist sichtbar ruhiger.
Und u.U. detailreicher/schärfer? Kommt mir jedenfalls im angegrauten Fußballmanager 2006 so vor ...
Beides gesehen? G8x ist sichtbar ruhiger.
Natürlich habe ich beides in Bewegung gesehen, sonst würde ich nicht fest dagegenhalten. ;) Bei-Spiele bitte. :)
MfG,
Raff
Noebbie
2007-05-14, 14:04:52
http://geizhals.at/deutschland/a225880.html
:)
ich bin jetzt kurz davor das teil zu kaufen...
so stimmen im kopf: kauf, kauf nicht, kauf, kauf nicht :redface:
san.salvador
2007-05-14, 14:05:10
yep und die gts wird im Preis nicht sinken
Bei 280€ für die 320MB und 320€ für 640MB bekommt man ohnehin schon sehr viel fürs Geld.
Frank1974
2007-05-14, 14:06:40
wird ja immer peinlicher. wobei der zweite bench auch noch cpu limitiert ist für g80.
mfg
Wird ja immer schlimmer hier, was ist denn daran peinlich?, es gibt wichtigere Dinge im Leben, was du oder manch anderer hier wohl nicht kennt, als ständigt diese dummen Bemerkungen, die sind nämlich peinlich, ich würde erst mal nachdenken was ich poste, einige hier die ich beobachte haben ihre Posts(ryan z.b. zu 90% aus Spam).
Zum Thema:
Man kann nicht immer gewinnen, Ati hatte wahrscheinlich nicht damit gerechnet das NV mit dem G80 so einen Knaller landen würde, der Sprung war ja auch gewaltig im November, solche Performancesprünge kommen nicht alle Tage, die Leute bei Ati können halt nicht zaubern, es sollten mal lieber hier einige der sogenannten "Experten" Ursachenforschung betreiben, warum die Karten unter AA/AF dermaßen untergehen, für mich sieht das ganze nur wie ein Treiberproblem aus, wenn nicht wäre das allerdings schlecht für ATi, aber auch für uns Kunden, denn dann bleibt die 8800GTS/GTX bis zum Herbst Preisstabil, weil es kein Grund gibt für Senkungen, naja ich bin nicht davon betroffen, habe ne GTS, aber einige haben sich ja hier ausgerechnet wenn Ati kommt sinken die Preise, so jedenfalls nicht, schonmal diese Seite Medaille gesehen.
Eine Frage noch an die Basher hier, geht es euch besser wenn ihr euch hier auslasst?
mfg
Frank
Wenn nun CB der Meinung ist, dass der G80 in Bewegung weniger flimmert, kann das auch daran liegen, dass sie ein Video vom 3DMark aufgenommen haben und aufgrund von Atis besser sichtbaren Bumpmapping (warum ist das eigentlich so, oder verbuchen wird das auch nur unter Zufall) zu dem Schluss gekommen sind, dass NV weniger flimmert.
Haben sie aber nicht. Sie haben den Moire-Tunnel-Extremfall als Vergleich genommen. Ließ einfach mal alles, anstatt dir hier wieder dein Zeug rauszupicken.
Und heute hat natürlich 3DC recht, aber damals hast du CB geglaubt. Die Leute sind bestimmt auf einmal andere. Komisch.
Natürlich habe ich beides in Bewegung gesehen, sonst würde ich nicht fest dagegenhalten. ;) Bei-Spiele bitte. :)
Ich seh das in HL², WoW (vor allem dort!) und UT2004 z.B. deutlich. Was für einen Schirm hast du?
dildo4u
2007-05-14, 14:07:56
Bei 280€ für die 320MB und 320€ für 640MB bekommt man ohnehin schon sehr viel fürs Geld.
Die 320MB liegt eher bei 240€.
http://geizhals.at/deutschland/a238849.html
http://geizhals.at/deutschland/a238769.html
http://geizhals.at/deutschland/a237768.html
http://www.toppreise.ch/index.php?search=HD+2900&sRes=OK&SID=696ed67e05bc8d2646e93c46542b2a10
Ist damit nicht teurer als eine GTS640MB.
Mr. Lolman
2007-05-14, 14:11:22
Natürlich habe ich beides in Bewegung gesehen, sonst würde ich nicht fest dagegenhalten. ;) Bei-Spiele bitte. :)
MfG,
Raff
Danke Raff. Denn ich bin ja nur ein verkappter Fanboy, wenn ich auf solche Sachen hinweise... :mad:
(Die meisten haben anscheinend schon wieder vergessen, dass ich mir damals eine 6800GT gekauft hab und bis auf den Defaultfilterpfusch und manchen Overlayprobs eigentlich sehr zufrieden mit ihr war :ucoffee: )
san.salvador
2007-05-14, 14:11:26
Wird ja immer schlimmer hier, was ist denn daran peinlich?, es gibt wichtigere Dinge im Leben, was du oder manch anderer hier wohl nicht kennt, als ständigt diese dummen Bemerkungen, die sind nämlich peinlich, ich würde erst mal nachdenken was ich poste, einige hier die ich beobachte haben ihre Posts(ryan z.b. zu 90% aus Spam).
Zum Thema:
Man kann nicht immer gewinnen, Ati hatte wahrscheinlich nicht damit gerechnet das NV mit dem G80 so einen Knaller landen würde, der Sprung war ja auch gewaltig im November, solche Performancesprünge kommen nicht alle Tage, die Leute bei Ati können halt nicht zaubern, es sollten mal lieber hier einige der sogenannten "Experten" Ursachenforschung betreiben, warum die Karten unter AA/AF dermaßen untergehen, für mich sieht das ganze nur wie ein Treiberproblem aus, wenn nicht wäre das allerdings schlecht für ATi, aber auch für uns Kunden, denn dann bleibt die 8800GTS/GTX bis zum Herbst Preisstabil, weil es kein Grund gibt für Senkungen, naja ich bin nicht davon betroffen, habe ne GTS, aber einige haben sich ja hier ausgerechnet wenn Ati kommt sinken die Preise, so jedenfalls nicht, schonmal diese Seite Medaille gesehen.
Eine Frage noch an die Basher hier, geht es euch besser wenn ihr euch hier auslasst?
mfg
Frank
Sei doch nicht gleich so betroffen, hier werden einfach nur die Reviews diskutiert und mit dem verglichen, was ATI eigentlich vorhatte. Und da zeichnet sich eben eine Tendenz ab.
Und IMHO disqualifiziert dich dein Avatar ohnehin für eine sachliche Diskussion in diesem Bereich. :rolleyes:
Das hat überhaupt nichts mit Weltanschauung zu tun, ich hab mich damals auch über G7x aufgeregt. Und über das angeblich so tolle R5xx-AI-AF. Das war nämlich auch schon schlimmer als G7x-HQ.
LOL, DIr hat's ja wohl echt den Sack vom Stapel gehauen.....
Bei 280€ für die 320MB und 320€ für 640MB bekommt man ohnehin schon sehr viel fürs Geld.
Sorry aber schon 242,65 reichen
http://geizhals.at/eu/a238849.html
http://www.heise.de/preisvergleich/a238849.html
Bin sehr gespannt auf die Preise... nachher!
san.salvador
2007-05-14, 14:12:40
Die 320MB liegt eher bei 240€.
http://geizhals.at/deutschland/a238849.html
http://geizhals.at/deutschland/a238769.html
http://geizhals.at/deutschland/a237768.html
Ui, ich bin von Österreich ausgegangen, selbst da sind die Preise schon unter 270€.
1:0 für Deutschland. :D
Danke Raff. Denn ich bin ja nur ein verkappter Fanboy, wenn ich auf solche Sachen hinweise... :mad:
Hast du jemals G8x HQ gesehen oder nicht?
Dann würdest du nicht solche komischen Sachen behaupten. Das Bild ist einfach so scharf auf G8x, es flimmert aber kein bisschen.
LOL, DIr hat's ja wohl echt den Sack vom Stapel gehauen.....
Nein hat es nicht. Ich hatte hier die X1800XT und gleichzeitig ne 7800GTX. R5xx AI-Low ist schlimmer als G7x HQ.
Armaq
2007-05-14, 14:14:28
Also von 6800GT auf 8800GTS 320 zu springen ist eine wahre Wohltat. G80 bietet ein wunderbares Bild.
Wer eine fiese Flimmertextur möchte sollte mal den CSS Benchmark nehmen und am Ende auf die Steinwand schauen. Das flimmert auf jeder Karte, egal welche Einstellungen, auch auf meiner GTS. Falls einer dort ein ruhiges Bild hinbekommt, dann sagt bescheid.
Mr. Lolman
2007-05-14, 14:15:05
Haben sie aber nicht. Sie haben den Moire-Tunnel-Extremfall als Vergleich genommen. Ließ einfach mal alles, anstatt dir hier wieder dein Zeug rauszupicken.
Ok, das mit dem Moiretunnel hab ich anscheinend echt übersehen. Sry.
Und heute hat natürlich 3DC recht, aber damals hast du CB geglaubt. Die Leute sind bestimmt auf einmal andere. Komisch.
Lies bitte nicht so subjektiv. :mad:² CB hatte erst recht, nachdem ich mehrmals und lautstark ihre Testmethoden angeprangert hatte und sie das ganze als 1. neu untersucht hatten. Andere HW-Seiten folgtem später dem positivem Beispiel - sich nicht einfach auf NVs- Reviewerguides zu verlassen!
Ich seh das in HL², WoW (vor allem dort!) und UT2004 z.B. deutlich. Was für einen Schirm hast du?
Auf nem R600? Nochmal: R580AIoff != R600 AIoff!
The_Invisible
2007-05-14, 14:15:46
Wird ja immer schlimmer hier, was ist denn daran peinlich?, es gibt wichtigere Dinge im Leben, was du oder manch anderer hier wohl nicht kennt, als ständigt diese dummen Bemerkungen, die sind nämlich peinlich, ich würde erst mal nachdenken was ich poste, einige hier die ich beobachte haben ihre Posts(ryan z.b. zu 90% aus Spam).
Zum Thema:
Man kann nicht immer gewinnen, Ati hatte wahrscheinlich nicht damit gerechnet das NV mit dem G80 so einen Knaller landen würde, der Sprung war ja auch gewaltig im November, solche Performancesprünge kommen nicht alle Tage, die Leute bei Ati können halt nicht zaubern, es sollten mal lieber hier einige der sogenannten "Experten" Ursachenforschung betreiben, warum die Karten unter AA/AF dermaßen untergehen, für mich sieht das ganze nur wie ein Treiberproblem aus, wenn nicht wäre das allerdings schlecht für ATi, aber auch für uns Kunden, denn dann bleibt die 8800GTS/GTX bis zum Herbst Preisstabil, weil es kein Grund gibt für Senkungen, naja ich bin nicht davon betroffen, habe ne GTS, aber einige haben sich ja hier ausgerechnet wenn Ati kommt sinken die Preise, so jedenfalls nicht, schonmal diese Seite Medaille gesehen.
Eine Frage noch an die Basher hier, geht es euch besser wenn ihr euch hier auslasst?
mfg
Frank
peinlich deswegen weil der r600 als DIE d3d10 karte überhaupt angepriesen wurde sowie einen perfekten treiber ab launch haben sollte. sonst wäre es aus meiner sicht einfach ein "nicht geglückter" launch geworden.
und die meisten "basher" hier haben anscheinend noch adrenalin vom nv30 launch im blut
mfg
Ich seh das in HL², WoW (vor allem dort!) und UT2004 z.B. deutlich. Was für einen Schirm hast du?
Ich spiele WoW in 1680x1050 auf meinem HP f2105, ein rattenscharfes Teil. Da flimmert mit A.I. Off aber eigentlich "nur" das Transparenz-Gras. Die minimale Unruhe auf langen Plastertexturen habe ich auf dem G80 genauso wahrgenommen. Fiese Texturen eben. Aber ich wollte mir den Spaß eh wieder geben.
Nein hat es nicht. Ich hatte hier die X1800XT und gleichzeitig ne 7800GTX. R5xx AI-Low ist schlimmer als G7x HQ.
Da stimme ich im Groben sogar zu. Wobei es auch einige Fälle gibt, wo A.I. Standard HQ deutlich übertrifft.
MfG,
Raff
Auf nem R600? Nochmal: R580AIoff != R600 AIoff!
Das bestreite ich doch gar nirgends. Ich sag nur, wenn CB sagt, dass AI Off im Moire-Tunnel mehr flimmert als G80 HQ dann ist die Sache für mich ziemlich eindeutig. Ich seh echt keinen Grund warum sie sonst solche Aussagen wie "Deaktiviert man nun auf beiden Grafikkarten sämtliche Optimierungen des anisotropen Filters, dreht der G8x regelrechte Kreise um die Konkurrenz." machen sollten.
Mr. Lolman
2007-05-14, 14:17:25
Hast du jemals G8x HQ gesehen oder nicht?
Dann würdest du nicht solche komischen Sachen behaupten. Das Bild ist einfach so scharf auf G8x, es flimmert aber kein bisschen.
Es geht immernoch etwas besser. Schalt mal 4x4SSAA ein. Dann flimmerts gleich noch weniger als kein bisschen.
Nein hat es nicht. Ich hatte hier die X1800XT und gleichzeitig ne 7800GTX. R5xx AI-Low ist schlimmer als G7x HQ.
Noch ein letztes Mal: Das hat nix mit G80 vs R600 zu tun!!!!
Hahaaa! Der Launch ist schonmal sowas von scheiss peinlich, das gibt's gar nicht! X-D Da wird AMD wohl einige neue Stellen zu besetzen haben.
Mal abgesehen davon, daß ich eher so Postings wie deins für peinlich halte und normalerweise auf so etwas nicht antworte:
Hatte AMD-ATI denn eine andere Wahl?
Was hätten sie denn tun sollen? Früher launchen mit weniger Takt und noch schlechteren Treibern? Nochmal den Launch verschieben bis wer weiß wohin?
Ist beides keine Option, das Ding mußte jetzt raus, man liegt schon 6 Monate hinter nvidia.
Godmode
2007-05-14, 14:18:01
und die meisten "basher" hier haben anscheinend noch adrenalin vom nv30 launch im blut
mfg
Deals mit MS tun anscheinend nicht gut. Könnte vielleicht durch die Mehrarbeit an den Konsolenchips entstehen.
Es geht los!
http://ati.amd.com/developer/demos/rhd2000.html
Es geht immernoch etwas besser. Schalt mal 4x4SSAA ein. Dann flimmerts gleich noch weniger als kein bisschen.
Hab ich schon. So richtig viel Unterschied seh ich da aber nicht mehr auf G80.
Noch ein letztes Mal: Das hat nix mit G80 vs R600 zu tun!!!!
Ich weiß. Wollt's nur nochmal anmerken ;)
Godmode
2007-05-14, 14:20:45
Mal abgesehen davon, daß ich eher so Postings wie deins für peinlich halte und normalerweise auf so etwas nicht antworte:
Hatte AMD-ATI denn eine andere Wahl?
Was hätten sie denn tun sollen? Früher launchen mit weniger Takt und noch schlechteren Treibern? Nochmal den Launch verschieben bis wer weiß wohin?
Ist beides keine Option, das Ding mußte jetzt raus, man liegt schon 6 Monate hinter nvidia.
Eventuell nur die Midrange und Lowend Produkte vorstellen und auf R650 übergehen. Ich denke den R600 Kern wird es sowiso nicht lange geben, ähnlich NV30 - NV35.
Mr. Lolman
2007-05-14, 14:21:02
Das bestreite ich doch gar nirgends. Ich sag nur, wenn CB sagt, dass AI Off im Moire-Tunnel mehr flimmert als G80 HQ dann ist die Sache für mich eindeutig.
Und wenn 3DC was anderes sagt, dann ists automatisch falsch? Ich wundere mich ja (neben den 3dmark AF-Shots die genau konträr zu CBs Beobachtungen stehen) hauptsächlich über die unterschiedlichen Beobachtungen diverser Seiten. Vll. gibts wiedermal Unterschiede zw. AppAF und TreiberAF. Oder vll. hat sich die AF-BQ mit den Treiber geändert. Das müsste man halt untersuchen. Aber nur die Meinung von jemanden voll nehmen, weil er genau das sagt, was man hören will, ist imo auch nicht zielführend.
Denn, irgendwas wird sich BBSR ja doch gedacht haben, als er seine Ausführungen zur AF-Qualität formulierte...
Hab ich schon. So richtig viel Unterschied seh ich da aber nicht mehr auf G80.
Aber einen Unterschied sieht man insgesamt also doch ;)
Und wenn 3DC was anderes sagt, dann ists automatisch falsch?
In diesem Fall glaub ich sehr viel eher Computerbase, weil der 3DCenter-Artikel nicht den Eindruck macht, als hätten sie das so detailiert getestet wie CB.
(neben den 3dmark AF-Shots die genau Konträr zu CBs abeobachtungen stehen)
Nochmal: G80 ist scharf und flimmert nicht. Überzeug dich selber davon, wenn du's mir nicht glaubst.
Es geht los!
http://ati.amd.com/developer/demos/rhd2000.html
Binaries wären mir lieber. Und der Server ist abartig lahm grad.
Frank1974
2007-05-14, 14:22:47
Sei doch nicht gleich so betroffen, hier werden einfach nur die Reviews diskutiert und mit dem verglichen, was ATI eigentlich vorhatte. Und da zeichnet sich eben eine Tendenz ab.
Und IMHO disqualifiziert dich dein Avatar ohnehin für eine sachliche Diskussion in diesem Bereich. :rolleyes:
Hmm?, ich bin betroffen, wovon? mir ist die ganze Sache egal, mein Avatar ist da weil ich ihn nett finde, ich hatte von 1998 bis jetzt nur 2 ATi Karten(9700pro/1900XT), aber in manchen Jahren mehr als 2 NV-Karten, ich bin hier der ruhige neutrale, du wie ich sehe ja auch, dich meinte ich ja auch nicht, nur einige wenige hier im Thread, du warst gar nicht angesprochen, du kommst ja normal rüber mit deinen Antworten, jetzt werde ich schon dafür angegriffen weil ich mich über die Hooligan Manier von einigen gestört fühle???
mfg
Frank
Mr. Lolman
2007-05-14, 14:26:01
In diesem Fall glaub ich sehr viel eher Computerbase, weil der 3DCenter-Artikel nicht den Eindruck macht, als hätten sie das so detailiert getestet wie CB.
Ist aber komisch, dass ein undetaillierter Test (ein Vorwurf der sich erst auch mal bestätigen müsste) zu genau dem gegenteiligen Ergebnis kommt, oder?
Nochmal: G80 ist scharf und flimmert nicht. Überzeug dich selber davon, wenn du's mir nicht glaubst.
Ich hab ja nie behauptet, dass es flimmert (was ja sehr subjektiv beurteilbar ist. Denn es gibt kein Tool, was einen Filter auf einer Flimmerskala bewerten kann). Ich behaupte ja nur, dass es noch besser geht - wie du auch selbst, anhand des 4x4SSAA Beispiels, eingeräumt hast.
EDIT: Und das es besser geht, zeigen auch meine gifs. Denn die (zugegeben minimale) Grieseligkeit der G80 Shots liesse sich wohl mit SSAA ganz gut eliminieren, oder? Und wenn ja, dann ists einfach nicht perfekt.
Gabbabytes
2007-05-14, 14:28:13
was für eine enttäuschung die karte!
mal schauen, wie die 2600er reihe wird...
darkcrawler
2007-05-14, 14:28:30
Eventuell nur die Midrange und Lowend Produkte vorstellen und auf R650 übergehen. Ich denke den R600 Kern wird es sowiso nicht lange geben, ähnlich NV30 - NV35.
wobei die mid-range leider auch nicht grad vielversprechend aussehen
da wäre IMHO gut was zu holen, da die 8600er doch etwas sehr weit unter den erwartungen blieb
AnarchX
2007-05-14, 14:28:57
Interessant... ;)
Haettest du den Artikel im Detail gelesen, wuesstest du dass das originale AAA (SS-TAA) im 8.3740 einen Bug hatte, der die Performance in den Keller trieb. Im 8.3742 (den hat so gut wie keiner getestet, weil er erst 3 Tage alt ist) tat ATI so als haette man das gefixt. In Wirklichkeit hat man EATM als default angelegt. ;)
Nicht verwunderlich bei dem Texturfüllraten-Rückstand.
Merlin31
2007-05-14, 14:30:13
Tomshardware hat ein Video gemacht von der Lautstärke
http://hardware.thgweb.de/2007/05/14/ati-radeon-hd-2900-xt-r600-directx10/page8.html
Das ist ein KO Kriterium für mich. :frown:
Ist aber komisch, dass ein undetaillierter Test (ein Vorwurf der sich erst auch mal bestätigen müsste) zu genau dem gegenteiligen Ergebnis kommt, oder?
Du glaubst nicht wirklich, dass R600 AI-On besser ist als G80 HQ, oder?
Wenn ja, dann wirklich EOD. Das ist ja lächerlich.
Mr. Lolman
2007-05-14, 14:32:44
Du glaubst nicht wirklich, dass R600 AI-On besser ist als G80 HQ, oder?
Wenn ja, dann wirklich EOD. Das ist ja lächerlich.
Nicht generell. Aber in manchen Bereichen vll.. So wie AIon im Ggs zu HQ kein Begrenzungslinienstress erzeugt hat. Und, bitte hör mal auf mir der Schwarz-/Weiss-Malerei! Für so eingeschränkt halte ich deine Kombinationsgabe eigentlich nicht. ;(
[dzp]Viper
2007-05-14, 14:34:06
Du glaubst nicht wirklich, dass R600 AI-On besser ist als G80 HQ, oder?
Eine Frage mit einer Gegenfrage zu beantworten ist was total unkluges. Vor allem wenn man dann schon eine Antwort vorgibt :rolleyes:
Das was du schreibst hat er garnicht gesagt oder behauptet..
Godmode
2007-05-14, 14:35:56
Interessant... ;)
Nicht verwunderlich bei dem Texturfüllraten-Rückstand.
Versteh ich einfach nicht! Warum hat man nicht einfach 24 oder sogar 32 TMUs verbaut? Die haben doch anhand der X1600 gesehn, dass das zu nichts führt. Texturleistung ist nach wei vor eines der wichtigsten Leistungsmerkmale einer Highend Graka.
edit: IMHO hat Nvidia durch die Customtransitoren einen Vorteil den ATI einfach nicht gefunden hat. Es wäre wohl gar kein Platz mehr für zusätzliche TMUs, aber warum dann bitte eine Tesselationseinheit verbauen, die anscheinend auch noch teuer ist? :confused:
robbitop
2007-05-14, 14:36:52
In diesem Fall glaub ich sehr viel eher Computerbase, weil der 3DCenter-Artikel nicht den Eindruck macht, als hätten sie das so detailiert getestet wie CB.
Wir haetten auch flimmervideos hochladen koennen, das waere aber in der Zeit nicht drin gewesen. Die AF Beobachtungen hat allerdings einen nicht unwesentlichen Teil der Zeit beansprucht. Letztendlich sind nur die Fazits dieser Untersuchungen veroeffentlicht.
Ich bin durch die flimmeranfaelligsten Szenen in Max Payne 2 (was ja in 2,3 Szenen extrem empfindlich ist) und Oblivion gelaufen und konnte beim R600 im Gegensatz zum R580 kein Flimmern wahrnehmen.
Adam D.
2007-05-14, 14:37:05
Tomshardware hat ein Video gemacht von der Lautstärke
http://hardware.thgweb.de/2007/05/14/ati-radeon-hd-2900-xt-r600-directx10/page8.html
Das ist ein KO Kriterium für mich. :frown:
Treiber-Bug ... Oder so ... BTW: Da ist ja meine 7900GT leiser :eek:
Viper;5492806']Das was du schreibst hat er garnicht gesagt oder behauptet..
Beitrag anzeigen
Ist aber komisch, dass ein undetaillierter Test (ein Vorwurf der sich erst auch mal bestätigen müsste) zu genau dem gegenteiligen Ergebnis kommt, oder?
Für mich ist das schon genau die Behauptung.
Wir haetten auch flimmervideos hochladen koennen, das waere aber in der Zeit nicht drin gewesen. Die AF Beobachtungen hat allerdings einen nicht unwesentlichen Teil der Zeit beansprucht. Letztendlich sind nur die Fazits dieser Untersuchungen veroeffentlicht.
Ich bin durch die flimmeranfaelligsten Szenen in Max Payne 2 (was ja in 2,3 Szenen extrem empfindlich ist) und Oblivion gelaufen und konnte beim R600 im Gegensatz zum R580 kein Flimmern wahrnehmen.
Wieso im Gegensatz zu R580? Das R580 etwas schlechter filtert wissen wir doch bereits.
Ich finde A.I. Low ggü. G80 HQ auf jeden Fall nicht gerecht.
Japan. Review
http://pc.watch.impress.co.jp/docs/2007/0514/tawada104.htm
http://www.golem.de/0705/52259.html
robbitop
2007-05-14, 14:41:20
Wieso im Gegensatz zu R580? Das R580 etwas schlechter filtert wissen wir doch bereits.
Lass es mich anders ausdruecken: R600 und G80 flimmern beide in fiesen Szenen in der Praxis nicht mehr. Nur noch R580 tut das (AI On).
Klar ist das G80 AF sicher noch ein bisschen besser. Aber davon merke ich in der Praxis wirklich nichts mehr (gleicher TFT wie Raff btw) und ich bin aehnlich flimmerempfindlich wie aths und Raff. Selbst mit 400% Zoom kann man kaum Unterschiede feststellen. :)
Ich finde A.I. Low ggü. G80 HQ auf jeden Fall nicht gerecht.
Deswegen haben wir das immernoch verdammt gute Q gebencht (steht aber auch im Artikel).
dr_mordio
2007-05-14, 14:41:34
Tomshardware hat ein Video gemacht von der Lautstärke
http://hardware.thgweb.de/2007/05/14/ati-radeon-hd-2900-xt-r600-directx10/page8.html
Das ist ein KO Kriterium für mich. :frown:
Gibt es schon lautstärketests von der Sapphire-Variante mit dem eigenen und größerem kühler?
die interessiert mich schon sehr.
MfG
Alex
dreas
2007-05-14, 14:45:13
Noch mal in die Runde gefragt
Warum sind die ATI-Treiber bei der langen Vorlaufzeit so schlecht?
Mr. Lolman
2007-05-14, 14:45:38
Für mich ist das schon genau die Behauptung.
Lol, bin ich gar auf deiner Ignorelist? ;D
Ist aber komisch, dass ein undetaillierter Test (ein Vorwurf der sich erst auch mal bestätigen müsste) zu genau dem gegenteiligen Ergebnis kommt, oder?
Andere Sprache:
"A" sagt "X" ist schlecht. "B" sagt "X" ist gut. Du behauptest "X" ist schlecht, weil "A" das ja sagt. Lolman fragt wie "B" auf die Idee kommen kann das "X" gut, ist wo doch "A" meint das sei schlecht und man "X" mit dem Vergleich zu "Y" eigentlich eindeutig bewerten können müsste.
So gesehen interpretierst in meine Aussagen Dinge hinein, die ich nie behauptet habe.
Lol, bin ich gar auf deiner Ignorelist? ;D
Ich hab keine Ignorelist.
So gesehen interpretierst in meine Aussagen Dinge hinein, die ich nie behauptet habe.
Dann ist ja gut. Ich hatte das wirklich so interpretiert.
Viel schlimmer am 3DC-Artikel finde ich dass sie wirklich CFAA gut finden und es auch noch ernsthaft mit CSAA vergleichen :|
Merlin31
2007-05-14, 14:47:04
Gibt es schon lautstärketests von der Sapphire-Variante mit dem eigenen und größerem kühler?
die interessiert mich schon sehr.
MfG
Alex
Ich hoffe das es eine leisere Version gibt.
Denn so ist die Karte so laut wie mein Staubsauger :frown: .
Da kann man überhaupt nicht entspannt spielen und braucht ein Gehörschutz.
Exxtreme
2007-05-14, 14:47:09
Noch mal in die Runde gefragt
Warum sind die ATI-Treiber bei der langen Vorlaufzeit so schlecht?
Kann eigentlich nur ATi/AMD beantworten. Ich vermute mal ins Blaue, Windows Vista hat etliche Zeitpläne durcheinandergebracht.
LovesuckZ
2007-05-14, 14:47:31
Noch mal in die Runde gefragt
Warum sind die ATI-Treiber bei der langen Vorlaufzeit so schlecht?
Das musst du AMD fragen. ;)
Die Hardware scheint fertig zu sein, jedoch die Treiberabteilung bräuchte noch den ein oder anderen Monat.
Mr. Lolman
2007-05-14, 14:48:28
Klar ist das G80 AF sicher noch ein bisschen besser.
Und wie kommst du auf den Schluss? Aufgrund der AF-Blume? (die ja bekanntermassen nur nen Teilbereich der Qualität aufzeigt?)
Kannst du mir vll. auch erklären, was es mit den 3DMark Shots aufsich hat?
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/7/#abschnitt_af_kontrolliert
http://666kb.com/i/aobzy4l0exxvtq7lv.gif http://666kb.com/i/aobzyeagc1264eio3.gif
Viel schlimmer am 3DC-Artikel finde ich dass sie wirklich CFAA gut finden und es auch noch ernsthaft mit CSAA vergleichen :|
Das halt ich auch für fragwürdig. Andererseits, solls ja beim CFAA Filter geben, die nur äußerst minimalen Blur (oder garkeinen?) verursachen. Aber da sollt ich mich noch besser einlesen. Der Schmarrn hat mich bis jetzt nicht so interessiert. Warum, erklär ich u.A. in dem Thread: http://www.forum-3dcenter.de/vbulletin/showthread.php?t=362358
dreas
2007-05-14, 14:49:23
Kann eigentlich nur ATi/AMD beantworten. Ich vermute mal ins Blaue, Windows Vista hat etliche Zeitpläne durcheinandergebracht.
Ja, aber dir Performance ist weder in XP noch in Vista gut (von 4xAA ganz zu schweigen)
Dnd Vista ist ja nicht von Null bis gleich auf ner Kanonenkugel hergeflogen!
san.salvador
2007-05-14, 14:49:42
Viel schlimmer am 3DC-Artikel finde ich dass sie wirklich CFAA gut finden und es auch noch ernsthaft mit CSAA vergleichen :|
Wenn man keine Ahnung hat....
CSAA != CSAA
CSAA mit Edge Detection lässt offenbar die Finger von den Texturen und glättet die Kanten sehr anständig - wo ist das Problem?
Deswegen haben wir das immernoch verdammt gute Q gebencht (steht aber auch im Artikel).
Das "verdammt gute Q" stört mich persönlich in ähnlichem Maße wie A.I. Standard @ R5x0.
MfG,
Raff
Frank1974
2007-05-14, 14:50:34
Ich hab keine Ignorelist.
Dann ist ja gut. Ich hatte das wirklich so interpretiert.
Viel schlimmer am 3DC-Artikel finde ich dass sie wirklich CFAA gut finden :|
Ist das nicht Geschacksache, der eine mag eine Ruhiges leicht unscharfes Bild, der andere wieder ein gestochen scharfes was vielleicht leicht unruhig ist, meiner Meinung hätte ich es ruhig und gestochen scharf, aber wieso oft bekommt man nicht alles auf einmal im Leben.
mfg
Frank
robbitop
2007-05-14, 14:50:53
Viel schlimmer am 3DC-Artikel finde ich dass sie wirklich CFAA gut finden und es auch noch ernsthaft mit CSAA vergleichen :|
Viel schlimmer finde ich, dass du ihn anscheinend nicht genau gelesen hast. :|
Wenn du es tust, siehst du warum wir das getan haben, und dass CFAA gar nicht so verkehrt ist, sofern man edge detect auswaehlt. ;) (den narrow und wide Tent Muell haben wir gar nicht erst grossartig getestet, ein paar kurze Blicke auf die Qualitaet haben mir echt gereicht)
robbitop
2007-05-14, 14:51:25
Das "verdammt gute Q" stört mich persönlich in ähnlichem Maße wie A.I. Standard @ R5x0.
MfG,
Raff
Wo genau? Ich stelle das sofort nach.
seahawk
2007-05-14, 14:51:56
CFAA ist halkt Geschmackssache, manche Seiten leiben es, andere hassen es. Durch die CFAA Option und das fleich gute AF wird die R600 aber imho zum Spitzenreiter im Bereich BQ und damit doch zu einer sinnvollen Alternative zur G80.
Wenn du es tust, siehst du warum wir das getan haben, und dass CFAA gar nicht so verkehrt ist, sofern man edge detect auswaehlt. ;)
Ich hoffe du weißt, dass die "Edge Detection" alles im Bild als "Kante" erkennt was einfach eine zu hohe Frequenz hat?
Wenn man keine Ahnung hat....
CSAA != CSAA
CSAA mit Edge Detection lässt offenbar die Finger von den Texturen und glättet die Kanten sehr anständig - wo ist das Problem?
Ich hab sehr genau Ahnung von was ich rede. Das Problem ist dass es eben nicht die Finger von den Texturen lässt (wenn auch mehr als die anderen CFAA-Modi).
CFAA ist halkt Geschmackssache, manche Seiten leiben es, andere hassen es. Durch die CFAA Option und das fleich gute AF wird die R600 aber imho zum Spitzenreiter im Bereich BQ und damit doch zu einer sinnvollen Alternative zur G80.
Wenn noch mehr solche Sprüche kommen und genügend Leute nVIDIA damit nerven, dann kann G8x auch CFAA falls nötig (ja, ganz sicher). Ich finde es ist wäre aber einfach ein falscher Schritt.
Und das mit dem "Spitzenreiter" kannst du doch wohl nicht ernst meinen. CSAA ist eindeutig die bessere Alternative, da bekommt man wirklich mehr Informationen ins Bild.
LovesuckZ
2007-05-14, 14:54:03
Durch die CFAA Option und das fleich gute AF wird die R600 aber imho zum Spitzenreiter im Bereich BQ und damit doch zu einer sinnvollen Alternative zur G80.
Der Blur-Filter der CFAA Modie (außer anscheinend EdgeDetection) negieren den AF wieder, wodurch zwar die Kanten beseitigt, aber Details des Bildes im Schleicher verschwinden.
dildo4u
2007-05-14, 14:55:39
firingsquad AMD-ATI Radeon HD 2900 XT Performance Preview
http://www.firingsquad.com/hardware/amd_ati_radeon_hd_2900_xt_performance_preview/
robbitop
2007-05-14, 14:56:36
Und wie kommst du auf den Schluss? Aufgrund der AF-Blume? (die ja bekanntermassen nur nen Teilbereich der Qualität aufzeigt?)
Anhand subjektiver Eindruecke und anhand der AF-Blume sieht man, dass die erste Mipmap starke Ohren hat und die zweite Mipmap noch kleine Ohren.
Der Unterschied in der Praxis ist gering.
Kannst du mir vll. auch erklären, was es mit den 3DMark Shots aufsich hat?
Kann ich nicht.
Das halt ich auch für fragwürdig. Andererseits, solls ja beim CFAA-Filter geben, die nur äußerst minimalen Blur (oder garkeinen?) verursachen. Aber da sollt ich mich noch besser einlesen. Der Schmarrn hat mich bis jetzt nicht so interessiert. Warum, erklär ich u.A. in dem Thread: http://www.forum-3dcenter.de/vbulletin/showthread.php?t=362358
Edge Detect behandelt nur Polyedges. Warum das so ist, wird im Artikel beschrieben. Das ist nicht ausgedacht sondern hat seinen Grund.
Ueberprueft haben wir das mit dem textured FSAA Tester, dessen Texturen hohe Kontraste aufwiesen, diese aber unversehrt blieben. Die Polyedges hingegen nicht.
CSAA und CFAA sind zwar voellig verschieden, bewirken jedoch beide eine bessere Glaettung von Polyedges. Also ist es schon vergleichbar (steht auch so im Artikel). Allerdings glaettet CFAA wirklich alles, was MSAA auch glaettet (also genau das). CSAA hingegen funktioniert bei stencil shadows nicht. Dafuer ist es billiger.
robbitop
2007-05-14, 14:58:49
Der Blur-Filter der CFAA Modie (außer anscheinend EdgeDetection) negieren den AF wieder, wodurch zwar die Kanten beseitigt, aber Details des Bildes im Schleicher verschwinden.
Wer interessiert sich schon fuer Narrow und Widetent? Edge AA ist das besondere und gute AA. Das Blurt nix.
Brainfart
Okay, hast recht, das heißt CFAA ist doch nicht so sinnlos wie ich zuerst dachte. Gut, soll nVIDIA auch mal implementieren. Am besten wär's noch wenn G8x alle 16 Coverage Samples dafür verwenden kann. Glaube aber eher nicht.
pRedec
2007-05-14, 15:01:22
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=546&seite=13
Positive Punkte ATI Radeon HD X2900 XT
leise Kühlung
gute Rohleistung
HDMI-Signal mit Audio-Übertragung
Ich würde dieses Modell kaufen :)
LovesuckZ
2007-05-14, 15:02:05
Wer interessiert sich schon fuer Narrow und Widetent? Edge AA ist das besondere und gute AA. Das Blurt nix.
Ich wollte es nur erwähnen. ;)
Godmode
2007-05-14, 15:02:27
brainfart
"Edge Detection hingegen wendet das Blur-Verfahren gezielt da an, wo es sinnvoll ist. Dazu wird das Bild nachträglich nach Polygonkanten abgesucht. Das geschieht, indem man sich die Eigenheit des Multisampling-Verfahrens zunutze macht: Pixel für Pixel werden über die ROPs in die Shader eingelesen. Diese vergleichen dann die Farbinformation der Subpixel: Ist die Subpixelfarbe der Samples pro Pixel gleich, so handelt es sich nicht um eine Polygonkante und CFAA wird nicht angewendet. Unterscheiden sich die Farbwerte hingegen, so wird CFAA angewandt."
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=546&seite=4
Das muss man sich mal geben. "Jeweils in High-Quality Einstellung im Treiber.". Is klar, deshalb ist bei G8x auch eindeutig brilinear an ;D
Und ganz unten ist beim G8x eindeutig nur 8xAF an. Was ein Scheiß.
"Edge Detection hingegen wendet das Blur-Verfahren gezielt da an, wo es sinnvoll ist. Dazu wird das Bild nachträglich nach Polygonkanten abgesucht. Das geschieht, indem man sich die Eigenheit des Multisampling-Verfahrens zunutze macht: Pixel für Pixel werden über die ROPs in die Shader eingelesen. Diese vergleichen dann die Farbinformation der Subpixel: Ist die Subpixelfarbe der Samples pro Pixel gleich, so handelt es sich nicht um eine Polygonkante und CFAA wird nicht angewendet. Unterscheiden sich die Farbwerte hingegen, so wird CFAA angewandt."
Ja, hab's verstanden. Deshalb wohl auch der doch relativ große Performanceverlust durch CFAA, da muss viel Branching betrieben werden.
Hm, für gelistetete 367€ wird die Karte gar nicht so uninteressant mehr... und ich geh davon aus, dass der Preis durchaus noch fallen wird.
Godmode
2007-05-14, 15:08:04
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=546&seite=4
Das muss man sich mal geben. "Jeweils in High-Quality Einstellung im Treiber.". Is klar, deshalb ist bei G8x auch eindeutig brilinear an ;D
Und ganz unten ist beim G8x eindeutig nur 8xAF an. Was ein Scheiß.
Ob diese Reviewer überhaupt verstehen was es mit der AF-Blume aufsich hat? ;D
Anarchy-HWLUXX
2007-05-14, 15:09:30
CSAA und CFAA sind zwar voellig verschieden, bewirken jedoch beide eine bessere Glaettung von Polyedges. Also ist es schon vergleichbar (steht auch so im Artikel). Allerdings glaettet CFAA wirklich alles, was MSAA auch glaettet (also genau das). CSAA hingegen funktioniert bei stencil shadows nicht. Dafuer ist es billiger.
Nicht vergessen das CFAA bei OpenGL überhaupt nicht geht ...
Nicht vergessen das CFAA bei OpenGL überhaupt nicht geht ...
Dafür braucht's nur nen neuen Treiber. Da seh ich keine großen Schwierigkeiten.
Ob diese Reviewer überhaupt verstehen was es mit der AF-Blume aufsich hat? ;D
Ich habe ihm mal ne E-Mail geschrieben. Aber bei so Leuten hat das meistens keinen Wert.
Blaire
2007-05-14, 15:11:37
firingsquad AMD-ATI Radeon HD 2900 XT Performance Preview
http://www.firingsquad.com/hardware/amd_ati_radeon_hd_2900_xt_performance_preview/
Nettes Review sogar mit ausführlichen Crossfire Werten. Aber wenn ich mir die Minimumfps in FEAR ansehe wird mir übel, wie wichtig wäre es doch die CF Profile bearbeiten zu können... Aber nein die bei Ati lernen nix man muss halt nehmen was man bekommt, frei nach dem Motto "Friss oder stirb!" Die hatten soviel Zeit gehabt aber Crossfire wird weiterhin stiefmütterlich behandelt.
Ich sehe schweren Zeiten für unsere ATI-Trolle entgegen. Der G80 ist dem R600 in praktisch jedem Punkt haushoch überlegen.
HD 2900XT SuperMario-Edition:
http://images.dailytech.com/nimage/4711_large_bigwater.jpg
http://www.dailytech.com/article.aspx?newsid=7260
Mr. Lolman
2007-05-14, 15:15:13
Anhand subjektiver Eindruecke und anhand der AF-Blume sieht man, dass die erste Mipmap starke Ohren hat und die zweite Mipmap noch kleine Ohren.
Der Unterschied in der Praxis ist gering.
Kann ich nicht.
Siehste. Das ist ja das Seltsame - nämlich dass ATi-AF bei den 3DMark-Shots genau im Bereich der 45°-Ohren etwas besser wirkt.
Edge Detect behandelt nur Polyedges. Warum das so ist, wird im Artikel beschrieben. Das ist nicht ausgedacht sondern hat seinen Grund.
Ueberprueft haben wir das mit dem textured FSAA Tester, dessen Texturen hohe Kontraste aufwiesen, diese aber unversehrt blieben. Die Polyedges hingegen nicht.
CSAA und CFAA sind zwar voellig verschieden, bewirken jedoch beide eine bessere Glaettung von Polyedges. Also ist es schon vergleichbar (steht auch so im Artikel). Allerdings glaettet CFAA wirklich alles, was MSAA auch glaettet (also genau das). CSAA hingegen funktioniert bei stencil shadows nicht. Dafuer ist es billiger.
Alles klar. Naja. Solangs übel Performance kostet, ists eher sinnfrei. Selbst der Unterschied zw. normalen 4xMSAA und 8xMSAA dürfte wohl in Bewegung kaum weiter auffallen. Wobei man dazu schon sagen muss, dass Narrowtent + 4XAA in den Techreportpics garnicht mal so übel aussieht:
http://www.techreport.com/reviews/2007q2/radeon-hd-2900xt/r600-hl2-4x-translq-narrow.png
(2. Pic von rechts-oben: http://www.techreport.com/reviews/2007q2/radeon-hd-2900xt/index.x?pg=8)
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=546&seite=4
Das muss man sich mal geben. "Jeweils in High-Quality Einstellung im Treiber.". Is klar, deshalb ist bei G8x auch eindeutig brilinear an ;D
Und ganz unten ist beim G8x eindeutig nur 8xAF an. Was ein Scheiß.
Und irgendwie deckt sich ihr Fazit (auch wenns nicht unbedingt falsch sein muss ;)) überhaupt nicht mit den gezeigten Pics ;D
dildo4u
2007-05-14, 15:20:07
Die Treiber müssen ja unglaublich schlecht sein wenn selbst so ein Uralt Game wie COD2 schlechter als auf der 1950XTX läuft. WTF??
http://www.firingsquad.com/hardware/amd_ati_radeon_hd_2900_xt_performance_preview/images/cod21600.gif
http://www.firingsquad.com/hardware/amd_ati_radeon_hd_2900_xt_performance_preview/images/cod22048.gif
http://www.firingsquad.com/hardware/amd_ati_radeon_hd_2900_xt_performance_preview/page12.asp
LovesuckZ
2007-05-14, 15:21:48
Hm, hoffentlich. Wenn es ein hardwareproblem sein sollte, dann wäre dies sehr schlecht.
Schade das es keine Werte der kleinen Karten gibt. Hier hätte man sehen können, ob es wirklich der Treiber wäre.
Fetza
2007-05-14, 15:21:58
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=546&seite=13
Ich würde dieses Modell kaufen :)
Warum soll dieses modell leise sein? Es nutzt doch auf dem refferenzkühler.
Vertigo
2007-05-14, 15:22:23
Die Treiber müssen ja unglaublich schlecht sein wenn selbst so ein Uralt Game wie COD2 schlechter als auf der 1950XTX läuft. WTF??
http://www.firingsquad.com/hardware/amd_ati_radeon_hd_2900_xt_performance_preview/images/cod21600.gif
http://www.firingsquad.com/hardware/amd_ati_radeon_hd_2900_xt_performance_preview/page12.asp
Die Werte sind mit Anti-Aliasing - evtl. auch hier das AAA-Problem/AA-Bug? Da fällt die 2900XT bei vielen Reviews dramatisch zurück, die Performance ohne AA ist wesentlich näher an der Konkurrenz.
Die Treiber müssen ja unglaublich schlecht sein wenn selbst so ein Uralt Game wie COD2 schlechter als auf der 1950XTX läuft. WTF??
http://www.firingsquad.com/hardware/amd_ati_radeon_hd_2900_xt_performance_preview/images/cod21600.gif
http://www.firingsquad.com/hardware/amd_ati_radeon_hd_2900_xt_performance_preview/images/cod22048.gif
http://www.firingsquad.com/hardware/amd_ati_radeon_hd_2900_xt_performance_preview/page12.asp
Daß der "Alphatreiber" 0,9 fps mehr rausholt ist ja witzig... sorry :biggrin:
Anarchy-HWLUXX
2007-05-14, 15:22:47
Dafür braucht's nur nen neuen Treiber. Da seh ich keine großen Schwierigkeiten.
Kann sein bzw. muss sein - aba nach all der Zeit und den verschiebungen sind die Launch Treiber immernoch net ausgereift - bei CB steht was vonwegen AA-Bug der zu slowdowns führt und andere benchen mit Alpha Treibern da die neuen erst wenige Tage vor launch eintrudelten ...
Ich hatt ja gehofft das ATi mit ausgereiften Treibern auftrumpfen wird - dem ist leider net so :(
dildo4u
2007-05-14, 15:23:48
Die Werte sind mit Anti-Aliasing - evtl. auch hier das AAA-Problem? Da fällt die 2900XT bei vielen Reviews dramatisch zurück, die Performance ohne AA ist wesentlich näher an der Konkurrenz.
Ne ist "normales" 4XMSAA ohne AAA.
Vertigo
2007-05-14, 15:26:08
Ne ist "normales" 4XMSAA ohne AAA.
Auch da scheint es noch erhebliche Bugs und Treiber-Probleme zu geben. Nachvollziehbar sind die Werte so jedenfalls nicht - das muss selbst die grüne Ecke zugeben ... ;)
DrumDub
2007-05-14, 15:29:24
noch nen paar dx10 tests: http://www.presence-pc.com/tests/AMD-Radeon-2900-XT-22674/23/
robbitop@hochschule
2007-05-14, 15:31:14
Alles klar. Naja. Solangs übel Performance kostet, ists eher sinnfrei. Selbst der Unterschied zw. normalen 4xMSAA und 8xMSAA dürfte wohl in Bewegung kaum weiter auffallen. Wobei man dazu schon sagen muss, dass Narrowtent + 4XAA in den Techreportpics garnicht mal so übel aussieht:
NT und WT kosten hingegen fast nix. Aber das Bild sieht wirklich aus wie ein abgeschwaechter Quincunx. Du solltest es mal in der Praxis sehen. Für BQ-Liebhaber ist das nix.
AnarchX
2007-05-14, 15:33:36
NT und WT kosten hingegen fast nix.
Wirklich?
http://www.hothardware.com/articleimages/Item966/aa.png
Hier ist der Einbruch bei 8xAA doch schon ziemlich groß.
Auch bei CB kostet es entsprechend in CoD2:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/8/#abschnitt_aa_und_af_skalierung
Daredevil
2007-05-14, 15:33:38
Ich weiß is der falsche Thread, aber is die irgendwo schon Lieferbar zu nem angemessenen preis?
uvp war doch 399$ oder nicht?
Bei den meisten Shops is se für 390-410€ gelistet und das is ein wenig... zu teuer im Vergleich zur gts
xD-.-
Die R600 hat für mich komplett versagt, vor allem bei der Leistung mit hoher BQ!!
Und man schaue sich da an!
Geringere Leistung als eine 8800GTX, aber Hauptsache mehr Strom!! egal ob 3D-Modus oder im Idle-Modus.
Und dann kommt noch hinzu, dass sie lauter ist und viel wärmer?
Hallo gehts noch gut?
Was für Verkaufsargumente hat die Karte bitte sehr´?
Wer diese Karte nach den ganzen Tests kauft, muss ein absoluter Fanboy sein.
Zumal mit R650 ATI/AMD gleich nen Refresh bald nachschiebt, weil sie erkennen, dass die 2900XT nichts ist.
DrumDub
2007-05-14, 15:37:41
NT und WT kosten hingegen fast nix. Aber das Bild sieht wirklich aus wie ein abgeschwaechter Quincunx. Du solltest es mal in der Praxis sehen. Für BQ-Liebhaber ist das nix. interessanterweise sieht das cfaa mit wide tent bei olivion hier sehr gut aus: http://www.techreport.com/reviews/2007q2/radeon-hd-2900xt/index.x?pg=6
da wirken die texturen nicht verblurrt.
Vertigo
2007-05-14, 15:37:41
Warum soll dieses modell leise sein? Es nutzt doch auf dem refferenzkühler.
Warum sollte dieser vom Tester nicht als leise empfunden werden können? Ich glaube schon dass der Referenzkühler im idle sehr angenehm leise ist.
AnarchX
2007-05-14, 15:40:22
interessanterweise sieht das cfaa mit wide tent bei olivion hier sehr gut aus: http://www.techreport.com/reviews/2007q2/radeon-hd-2900xt/index.x?pg=6
da wirken die texturen nicht verblurrt.
Schau mal genauer auf das Mauerwerk.
Wobei natürlich erstmal die schönen glatten Kanten auffallen. Stellt sich nur die Frage wie teuer 8x CFAA ist, in HL2:EP1 ist es momentan jedenfalls teuerer als 8xMSAA.
OK - man kann sagen, wenn die Treiber-Crew bis heute nichts gebacken hat, warum sollte sich dann schnell was ändern, aber:
es sollte klar sein, daß der Knoten jeden moment platzen könnte...
Ich muß an den absurden Spruch von Walter Ulbricht (DDR-Bonze...) denken, der mal sagte: "Wir werden den Westen überholen, ohne ihn einzuholen..." :tongue:
Genau das hat Nvidia bei Ati wirklich geschafft: vorläufig jedenfalls...
Anarchy-HWLUXX
2007-05-14, 15:42:54
Warum sollte dieser vom Tester nicht als leise empfunden werden können? Ich glaube schon dass der Referenzkühler im idle sehr angenehm leise ist.
Na ja - die CB messwerte zeigen bei Idle zwar nen guten wert - aba bei Last ist die Kühllösung wohl merklich laufter als die G80 Kühler ...
Kommt garz darauf an was man als "Leise" definiert - ist immer subjektiv.
dargo
2007-05-14, 15:47:10
Guten Morgen allerseits. Der 3DC-Artikel ist zwar noch work-in-progress, die Benchmarkseiten sind jedoch schon fertig:
http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index13.php
Sorry für die Kritik. Aber Savegames verwenden um Grafikleistung zu messen halte ich für keine gute Idee. ;(
Vertigo
2007-05-14, 15:48:15
Na ja - die CB messwerte zeigen bei Idle zwar nen guten wert - aba bei Last ist die Kühllösung wohl merklich laufter als die G80 Kühler ...
Kommt garz darauf an was man als "Leise" definiert - ist immer subjektiv.
Eben. Warum sollte der Tester es nicht so empfinden? Rein subjektiv.
Sorry für die Kritik. Aber Savegames verwenden um Grafikleistung zu messen halte ich für keine gute Idee. ;(
Was denn sonst?
Sorry für die Kritik. Aber Savegames verwenden um Grafikleistung zu messen halte ich für keine gute Idee. ;(
Ich schon, denn die sind weit realistischer als jeder Benchmark, wenn man es richtig macht.
Vertigo
2007-05-14, 15:52:04
Ich schon, denn die sind weit realistischer als jeder Benchmark, wenn man es richtig macht.
Genau - praxisnäher geht es doch gar nicht. Irgendwelche Timedemos oder 3DMark-Szenen sagen da viel weniger über die tatsächliche Spieleleistung aus. Außerdem benutzen wohl so ziemlich alle Reviewer Savegames ...
DrumDub
2007-05-14, 15:54:56
Schau mal genauer auf die Mauern. ok. ist schon ein unterschied bei dne texturen, den man aber nur gut erkennt, wenn man beides übereinander legt. fällt bie oblivion wohl wegen des hdr nicht so auf, was ja auch etwas das bild blurrt.
dargo
2007-05-14, 15:57:19
Was denn sonst?
Timedemos, in Savegames limitiert sehr oft die CPU. Savegames sind sehr gut um die CPU Leistung zu beurteilen. Für die Grafikleistung sind immer noch Timedemos imho am besten geeignet.
w0mbat
2007-05-14, 15:57:32
xD-.-
Die R600 hat für mich komplett versagt, vor allem bei der Leistung mit hoher BQ!!
Und man schaue sich da an!
Geringere Leistung als eine 8800GTX, aber Hauptsache mehr Strom!! egal ob 3D-Modus oder im Idle-Modus.
Und dann kommt noch hinzu, dass sie lauter ist und viel wärmer?
Hallo gehts noch gut?
Was für Verkaufsargumente hat die Karte bitte sehr´?
Wer diese Karte nach den ganzen Tests kauft, muss ein absoluter Fanboy sein.
Zumal mit R650 ATI/AMD gleich nen Refresh bald nachschiebt, weil sie erkennen, dass die 2900XT nichts ist.
Für mich hat der Golf total versagt. Was für einen Vorteil hat der denn gegen einen 7er BWM BlueMotion?
Junge, schon mal auf unterschiedliche Preise geachtet?
Naja vom Transistorcount und der Bandbreite ausgehend sollte der Konkurent nunmal eher die GTX sein ;)
ATI muss das Ding für das Techniklevel im Prinzip spottbillig verkaufen.
Kleiner Spaß, sorry...
Hält Fuzi sich ausgerechnet mal an's NDA, oder hat er alle vera*scht mit seiner "OEM" :biggrin:
Ich weiss nicht was ihr habt, die Karte ist so schlecht nicht wie sie hier gemacht wird. Als elektrischer Zuheizer in den Übergangsjahreszeiten durchaus brauchbar.
Vertigo
2007-05-14, 15:59:21
Timedemos, in Savegames limitiert sehr oft die CPU. Savegames sind sehr gut um die CPU Leistung zu beurteilen. Für die Grafikleistung sind immer noch Timedemos imho am besten geeignet.
Wie bitte? Dann wären ja alle Spiele immer "sehr oft" CPU-limitiert ...
Man kann doch die Szenen für die Savegames genau aussuchen - das ist doch das Schöne daran. Man ist nicht auf die integrierten Timedemos der Entwickler beschränkt, sondern sucht sich geeignete Szenen selbst heraus. =)
dargo
2007-05-14, 16:00:35
Man kann doch die Szenen für die Savegames genau aussuchen - das ist doch das Schöne daran. Man ist nicht auf die integrierten Timedemos der Entwickler beschränkt, sondern sucht sich geeignete Szenen selbst heraus. =)
Hast du die blasseste Ahnung wieviel Arbeit das kostet?
LovesuckZ
2007-05-14, 16:01:33
Junge, schon mal auf unterschiedliche Preise geachtet?
Ja, und weil die Karte so billig ist, zeigt es doch, dass sie nicht der Renner ist.
Sie konkurriert mit einem verkrüppelten G80. Das ist doch das erbärmliche an der Sache.
Vertigo
2007-05-14, 16:01:47
Hast du die blasseste Ahnung wieviel Arbeit das kostet?
Ja, habe ich. Dass es aufwendig ist und man viele Szenen vergleichen muss sollte nicht gleich als Verunmöglichung angesehen werden.
Timedemos, in Savegames limitiert sehr oft die CPU. Savegames sind sehr gut um die CPU Leistung zu beurteilen. Für die Grafikleistung sind immer noch Timedemos imho am besten geeignet.
Du musst da was mißverstanden haben ...
Du kannst bei einem Savegame jede beliebige Stelle wählen - ob stark CPU oder Grafikkartenlimitiert - das bleibt dem Tester überlassen.
Du wirst kein Timedemo dieser Welt finden, das stärker Grafikkartenlimitiert ist, als ein Savegame an ausgesuchter Stelle...
Außerdem lassen Timedemos realistische Szenarien oft außen vor: Die dynamische KI und oft auch den Sound...
Hast du die blasseste Ahnung wieviel Arbeit das kostet?
Gar keine, wenn man weiß wo man suchen muss. ;)
Das kann man schon beim normalen zocken herausfinden, wenn man denn darauf achtet.
dargo
2007-05-14, 16:06:11
Schon die geile R600-TDU Performance gesehen? :eek:
http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index16.php
Da muss ich dich leider enttäuschen. Das Savegame "Aus der Garage" hat nichts mit dem tatsächlichen Spielverlauf zu tun. Eine GTS ist schon in TDU ca. 80% schneller als die X1900XT. Die GTX dürfte um die ~120% liegen. Ich sehe den TDU Test sehr skeptisch von 3DC.
Irgendwas stimmt mit der AA-Performance nicht. Die HD 2900 XT ist ohne AA & AF in allen Auflösungen 18 % schneller als eine 8800 GTS 640 MB: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating Wird AA dazugeschaltet, liegt sie auf einmal fast 10 % hinter der 8800 GTS 640 MB: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet
Ich schätze aber mal, da ich gerade nach Hause gekommen bin und den Riesenthread nicht gelesen habe, dass das auch schon anderen aufgefallen ist.
dargo
2007-05-14, 16:08:11
Gar keine, wenn man weiß wo man suchen muss. ;)
Das kann man schon beim normalen zocken herausfinden, wenn man denn darauf achtet.
Na klar, und jeder Reviewer spielt erstmal die getesteten Games mehrere Stunden lang. :usweet:
YfOrU
2007-05-14, 16:08:41
Die Treiber müssen ja unglaublich schlecht sein wenn selbst so ein Uralt Game wie COD2 schlechter als auf der 1950XTX läuft. WTF??
Unoptimiert triffts wohl eher als schlecht denn was leider heutzutage zu gute gehalten werden muss ist das der Treiber laut Reviews in quasi allen Anwendungen stabil läuft.
Meiner Meinung nach ist das aus Anwendersicht einem verbuggtem performance treiber vorzuziehn.
Na klar, und jeder Reviewer spielt erstmal die getesteten Games mehrere Stunden lang. :usweet:
Du denkst wie ne Tapete. ;)
Schonmal daran gedacht, das vorm testen schon zehntausende andere Gamer das Game gezockt haben und wissen, an welcher Stelle es hakt? Dann testest du nur noch kurz aus, ob da ein CPU oder Grafiklimit vorliegt (CPU/Grafik unter bzw. übertakten) und schon haste dein Savegame fertig!
Mr. Lolman
2007-05-14, 16:11:11
Da muss ich dich leider enttäuschen. Das Savegame "Aus der Garage" hat nichts mit dem tatsächlichen Spielverlauf zu tun. Eine GTS ist schon in TDU ca. 80% schneller als die X1900XT. Die GTX dürfte um die ~120% liegen. Ich sehe den TDU Test sehr skeptisch von 3DC.
Imo ist das Savegame garnicht mal so übel. Die ermittelten Werte im Benchmarkforum stimmen ziemlich genau mit den Beobachtungen div. User des Spielverlaufs überein...
Vertigo
2007-05-14, 16:11:18
Na klar, und jeder Reviewer spielt erstmal die getesteten Games mehrere Stunden lang. :usweet:
Qualität hat eben ihren Preis. Man kann natürliche eine integrierte Timedemo out of the box nutzen und gut ist. Oder man macht sich einmal die Mühe, geeignete Szenen herauszusuchen. In Blockbustern, die über Jahre aktuell sind, kann man diese Szenen wieder und wieder zum Benchen nutzen. Das relativiert den Aufwand und man hat deutlich praxisnähere und somit aussagekräftigere Ergebnisse. Das ist imo schon den Aufwand wert.
dargo
2007-05-14, 16:13:52
Du musst da was mißverstanden haben ...
Du kannst bei einem Savegame jede beliebige Stelle wählen - ob stark CPU oder Grafikkartenlimitiert - das bleibt dem Tester überlassen.
Du wirst kein Timedemo dieser Welt finden, das stärker Grafikkartenlimitiert ist, als ein Savegame an ausgesuchter Stelle...
Wollen wir wetten? :D
Bei einem Savegame erreiche ich viel schneller ein CPU Limit da noch KI, Physik usw. berechnet werden müssen. Dh. durch eine Timedemo habe ich "künstlich" eine deutlich schnellere CPU für die Tests.
anderer Gast
2007-05-14, 16:14:51
Für mich hat der Golf total versagt. Was für einen Vorteil hat der denn gegen einen 7er BWM BlueMotion?
Junge, schon mal auf unterschiedliche Preise geachtet?
Blöder Vergleich. Eine 8800 GTS 640 MB ist teils schneller, teils genau so schnell wie eine HD 2900 XT und kostet WENIGER: http://geizhals.at/deutschland/a224906.html Ein 7er BMW koster 5x so viel wie ein Golf.
dargo
2007-05-14, 16:17:34
Imo ist das Savegame garnicht mal so übel. Die ermittelten Werte im Benchmarkforum stimmen ziemlich genau mit den Beobachtungen div. User des Spielverlaufs überein...
Dann erkläre mir mal warum TDU bei mir mit der GTS@612/900Mhz nahezu 100% schneller ist als mit der X1900XT? Ich habe fast immer Fraps am laufen.
Und die GTX ist nochmal ein Stück schneller. Warum spiegelt sich das im Savegame von 3DC nicht wieder?
Blöder Vergleich. Eine 8800 GTS 640 MB ist teils schneller, teils genau so schnell wie eine HD 2900 XT und kostet WENIGER: http://geizhals.at/deutschland/a224906.html Ein 7er BMW koster 5x so viel wie ein Golf.
Zumal die BQ besser ist, sie kühler ist , sie relativ weniger Strom "verbraucht", was aber eigentlich immer noch zu viel ist, vor allem im IDLE-Modus!
Aber die 2900XT toppt noch alles, im negativen Sinne.........
Wollen wir wetten? :D
Ja, du hast schon verloren.
Bei einem Savegame erreiche ich viel schneller ein CPU Limit da noch KI, Physik usw. berechnet werden müssen.
Deswegen steht dir die Möglichkeit offen jede beliebige Stelle zu wählen und dafür zu sorgen, das weder Physik noch KI berechnet werden müssen, wenn keine Gegner oder besonderen Gegenstände oder Gebäude in der nähe sind ...
w0mbat
2007-05-14, 16:25:52
Blöder Vergleich. Eine 8800 GTS 640 MB ist teils schneller, teils genau so schnell wie eine HD 2900 XT und kostet WENIGER: http://geizhals.at/deutschland/a224906.html Ein 7er BMW koster 5x so viel wie ein Golf.
Der Gast redete aber von einer GTX.
LovesuckZ
2007-05-14, 16:29:02
Der Gast redete aber von einer GTX.
Verbraucht sie weniger Strom als eine 8800GTX?
Oder willst du nur sagen, dass eine billigere Grafikkarte mehr Strom verbrauchen darf als eine teure und schnellere?
Gouvernator
2007-05-14, 16:29:40
So meine neue 2900XT ist eingebaut!!! Muss Treiber runterladen...
In 2d ist die Karte etwas hörbarer wie die 7950GX2
dargo
2007-05-14, 16:32:31
Deswegen steht dir die Möglichkeit offen jede beliebige Stelle zu wählen und dafür zu sorgen, das weder Physik noch KI berechnet werden müssen, wenn keine Gegner oder besonderen Gegenstände oder Gebäude in der nähe sind ...
Zitat:
Von den benutzten Savegames wurden jeweils immer die ersten drei bis fünf Sekunden zur Messung benutzt, welche dabei immer mittels Fraps durchgeführt wurden. Dabei wurde jedes Savegame mehrfach ausgeführt wie gemessen und dann der Durchschnitt dieser Messungen als Ergebnis genommen. Die einzelnen Savegames wurden im übrigen nicht bewußt nach einer Grafikkarten- oder CPU-Limitierung ausgesucht, sondern es wurde nach ausgiebigem Spielen des jeweiligen Titels diese Szenen ausgewählt, welche uns am allgemeingültigsten und Hardware-fordernsten erschienen. Aufgrund der Kürze der für diesen Artikel zur Verfügung stehenden Zeit haben wir allerdings nur zwei der ansonsten vier üblichen Savegames pro Spiel vermessen.
An die Moderation - könnte mir bitte jemand das getestete TDU Savegame zuschicken?
Cubitus
2007-05-14, 16:33:19
Dann erkläre mir mal warum TDU bei mir mit der GTS@612/900Mhz nahezu 100% schneller ist als mit der X1900XT? Ich habe fast immer Fraps am laufen.
Und die GTX ist nochmal ein Stück schneller. Warum spiegelt sich das im Savegame von 3DC nicht wieder?
Fraps ließt bei TDU die FPS einfach falsch aus.
Ich hab mit SLI bei 4XAA@1920*1200 Full Details +HDR an manchen stellen über 100 FPS und dann sind es später bei genau der selben Stelle nur noch 59 FPS und sogar ab und zu sogar nur 30 :confused:
Über das Savegame würde ich mich auch freuen.
dargo
2007-05-14, 16:40:28
Fraps ließt bei TDU die FPS einfach falsch aus.
Hast du dazu eine Quelle oder ist das nur wieder eine Vermutung?
Ich hab mit SLI bei 4XAA@1920*1200 Full Details +HDR an manchen stellen über 100 FPS und dann sind es später bei genau der selben Stelle nur noch 59 FPS :confused:
Dann teste es nochmal mit einer Karte. Denn anscheinend streikt dein SLI.
Sagt mal, bin ich der einzige, dem die performance des games generell nicht zusagt? Ich meine, wenn d3d10 games performance technisch in dieser liga spielen, können wir g80 und r600 doch eh dafür knicken....Ja, das habe ich auch zuerst gedacht. Die Frames sind wirklich lächerlich. Egal mit welcher Graka ist das weit von flüßig entfernt. Wobei ich hier noch hoffe, dass die Vistatreiber in Bezug auf DX10 Performance riesen Probleme machen.
InsaneDruid
2007-05-14, 16:44:41
So meine neue 2900XT ist eingebaut!!! Muss Treiber runterladen...
Da du als Auflösungsfetischist eh testen wirst.. kannst du uns mitteilen ob die R600 nun endlich TripleHead2Go fähige Auflösungen supportet? Also 3840 x 1024?
Gouvernator
2007-05-14, 16:47:52
Da du als Auflösungsfetischist eh testen wirst.. kannst du uns mitteilen ob die R600 nun endlich TripleHead2Go fähige Auflösungen supportet? Also 3840 x 1024?
Das werde ich natürlich versuchen und sofort dann im "anderen" passenderem Thread mitteilen :tongue: Aber jetzt wird das Problem sein das mein Tool Powerstrip leider die 2900 nicht unterstützt und im forum gibts auch keine Beta. Ich versuch es irgendwie im Catalyst oder ihr sagt mir wie ich das per Hand im Windows eintragen kann :biggrin:
AMD hat jetzt info online:
http://ati.amd.com/products/hdseries.html
=> Experience the difference with DirectX® 10 (video)
http://ati.amd.com/products/radeonhd2900/index.html#
aber hallo: DX9 um längen besser und detailierter... als DX10 (Gras, Strächer, Holzverkleidung im Treppenhaus total "blurry")
dargo
2007-05-14, 17:01:30
Neuer Preisrekord (G8800GTS 640MB) für 270,96 EUR.
http://de.ubuyo.hostingkunde.at/product_info.php?info=p8377_Gainward-BLISS-8800GTS-PCX-TV-Dual-DVI---Grafikadapter---GF-8800-GTS---PCI-Expr.html&refID=5
Ich weiß, hat nur indirekt was mit dem Thema zu tun.
Hakim
2007-05-14, 17:03:23
ist schon enttäuschend. Was ich auch nicht verstehe ist das man keine anständigen Treiber hat, zeit hatten sie meiner Meinung nach genug. Naja ich werde noch warten und mir wahrscheinlich eine GF 89xx kaufen.
Neuer Preisrekord (G8800GTS 640MB) für 270,96 EUR.
http://de.ubuyo.hostingkunde.at/product_info.php?info=p8377_Gainward-BLISS-8800GTS-PCX-TV-Dual-DVI---Grafikadapter---GF-8800-GTS---PCI-Expr.html&refID=5
Ich weiß, hat nur indirekt was mit dem Thema zu tun.
Nicht lieferbar....
Fetza
2007-05-14, 17:05:34
Neuer Preisrekord (G8800GTS 640MB) für 270,96 EUR.
http://de.ubuyo.hostingkunde.at/product_info.php?info=p8377_Gainward-BLISS-8800GTS-PCX-TV-Dual-DVI---Grafikadapter---GF-8800-GTS---PCI-Expr.html&refID=5
Ich weiß, hat nur indirekt was mit dem Thema zu tun.
boah, jetzt mal ehrlich, wie tief kann der preis der gts 640 noch sinken? Ich meine das ist doch schon reichlich tief, wenn man die leistungsfähigkeit der karte beachtet! Ich bin drauf und drann mir eine zu bestellen. Eine bessere definition in sachen high-end value muss man erstmal liefern.
Ja, das habe ich auch zuerst gedacht. Die Frames sind wirklich lächerlich. Egal mit welcher Graka ist das weit von flüßig entfernt. Wobei ich hier noch hoffe, dass die Vistatreiber in Bezug auf DX10 Performance riesen Probleme machen.
Hoffentlich sind die vista treiber von nv auch noch so richtig scheiße *hoff**hoff* :D
greetz
san.salvador
2007-05-14, 17:05:49
AMD hat jetzt info online:
http://ati.amd.com/products/hdseries.html
=> Experience the difference with DirectX® 10 (video)
http://ati.amd.com/products/radeonhd2900/index.html#
aber hallo: DX9 um längen besser und detailierter... als DX10 (Gras, Strächer, Holzverkleidung im Treppenhaus total "blurry")
Da macht man Werbung für beste Qualität, HD und weiß der Geier was noch, und dann bringen die so ein lächerliches Filmchen im Briefmarkenformat?
Sind wohl selber nicht besonders überzeugt.
boah, jetzt mal ehrlich, wie tief kann der preis der gts 640 noch sinken?
Der Preis ist noch gar nicht gesunken, da die Karte überhaupt nicht lieferbar ist.
Ich kann euch auch eine GTS640 für 199,- anbieten, aber spätestens übermorgen storniere ich sie wieder. ;D
Neuer Preisrekord (G8800GTS 640MB) für 270,96 EUR.
http://de.ubuyo.hostingkunde.at/product_info.php?info=p8377_Gainward-BLISS-8800GTS-PCX-TV-Dual-DVI---Grafikadapter---GF-8800-GTS---PCI-Expr.html&refID=5
Ich weiß, hat nur indirekt was mit dem Thema zu tun.
nana "kein Bestand, bitte anfragen, Stand per 14.05.2007 13:18:17" => 307 :rolleyes:
aber: die hd 2900xt ist da:
http://geizhals.at/eu/?fs=2900xt&in=
arcanum
2007-05-14, 17:09:01
Neuer Preisrekord (G8800GTS 640MB) für 270,96 EUR.
http://de.ubuyo.hostingkunde.at/product_info.php?info=p8377_Gainward-BLISS-8800GTS-PCX-TV-Dual-DVI---Grafikadapter---GF-8800-GTS---PCI-Expr.html&refID=5
Ich weiß, hat nur indirekt was mit dem Thema zu tun.
ich glaube, dass es sich um ein irrtum handelt bzw um die 320mb variante, wenn man den preis mit den anderen dort erhältlichen gts karten vergleicht.
Fetza
2007-05-14, 17:09:03
Der Preis ist noch gar nicht gesunken, da die Karte überhaupt nicht lieferbar ist.
Ich kann euch auch eine GTS640 für 199,- anbieten, aber spätestens übermorgen storniere ich sie wieder. ;D
ok, ist ein argument - scheiß händler :P
Fetza
2007-05-14, 17:10:03
nana "kein Bestand, bitte anfragen, Stand per 14.05.2007 13:18:17" => 307 :rolleyes:
aber: die hd 2900xt ist da:
http://geizhals.at/eu/?fs=2900xt&in=
jo ok, aber mal ehrlich - für den preis ist das doch ein witz. Oder will die wer für den preis kaufen?
dargo
2007-05-14, 17:10:15
Nicht lieferbar....
Noch nicht, warten wir paar Tage ab.
robbitop
2007-05-14, 17:11:27
Tut es nicht. Das ist unmöglich.
Es ist aber so. Die Texturen mit sehr hohen Kontrastwerten im Textured AF Tester werden nicht angetastet, Polyedges mit geringen Kontrastwerten hingegen schon. (selbst mit 800x Zoom kein Blur zu sehen)
Mittels des Vergleichs der Farbwerte der Samples pro Pixel kann man eben schon ermitteln, was eine Polyedge ist und was nicht.
Falls alle Farbsample werte gleich -> kein CFAA (da keine Polyedge, da nicht vorher durch MSAA erfasst)
Falls diese differieren -> CFAA (da Polyedge, da durch MSAA erfasst)
Steht aber auch so im Artikel.
Du kannst die Screenshots gern selbst analysieren (ich wuerde sie dir zukommenlassen). Aths stimmt mir hier jedenfalls zu und die Beobachtung stimmt mit den Aussagen von Eric Demers (Techniker bei ATI) auf meine Fragen ueberein.
Noch nicht, warten wir paar Tage ab.
Willst du wirklich die Wahrheit wissen?
Die Packhäuser haben Beulen: weil der Handel stagniert... so:
Nvidia-minded-markt ist völlig übersättigt, da hilft nur noch dumping, quasi Schleuderpreis:tongue:
Eine sehr schlechte Marktposition für Ati's R6-Start: das hätten sie wissen müssen, die Herrschaften in der Chefetage!!!
"Wir hätten jederzeit seit Februar liefern können blabla ... " - dafür schicken sie Leute in die Wüste zum "Poduct Lineup" - lächerlich :tongue: => alles nur Zeitspiel, weiter garnix und geholfen hat es scheinbar auch nicht viel: schlimm sowas...
reunion
2007-05-14, 17:25:28
Ich habe keine Lust die fünfmillionen Seiten detailliert durchzulesen, sondern habe sie nur kurz überflogen, und kann mir nicht verkneifen, mal kurz anzumerken, dass jetzt auf einmal CFAA doch gut ist. Als ich in den R600-Speku-Threads oder hier im Thread nurmal kurz anmerke, dass man doch abwarten sollte, bevor man urteilt, und das dies bei richtiger Anwendung durchaus Sinn machen kann, wurde ich von unzähligen Personen mit allen möglichen Halbwahrheiten gleich aufs schärfste Attackiert. So, jetzt gehts mir wieder gut. :)
Ich habe keine Lust die fünfmillionen Seiten detailliert durchzulesen, sondern habe sie nur kurz überflogen, und kann mir nicht verkneifen, mal kurz anzumerken, dass jetzt auf einmal CFAA doch gut ist. Als ich in den R600-Speku-Threads oder hier im Thread nurmal kurz anmerke, dass man doch abwarten sollte, bevor man urteilt, und das dies bei richtiger Anwendung durchaus Sinn machen kann, wurde ich von unzähligen Personen gleich aufs schärfste Attackiert. So, jetzt gehts mir wieder gut. :)
Hast du wirklich was anderes erwartet? Allerdings sollte man differenzieren, CFAA mit Blur-Filter erscheint im Vgl. ED nicht sinnvoll.
Gabbabytes
2007-05-14, 17:32:20
Willst du wirklich die Wahrheit wissen?
Die Packhäuser haben Beulen: weil der Handel stagniert... so:
Nvidia-minded-markt ist völlig übersättigt, da hilft nur noch dumping, quasi Schleuderpreis:tongue:
Eine sehr schlechte Marktposition für Ati's R6-Start: das hätten sie wissen müssen, die Herrschaften in der Chefetage!!!
"Wir hätten jederzeit seit Februar liefern können blabla ... " - dafür schicken sie Leute in die Wüste zum "Poduct Lineup" - lächerlich :tongue: => alles nur Zeitspiel, weiter garnix und geholfen hat es scheinbar auch nicht viel: schlimm sowas...
also die treiber scheinen unter aller sau zu sein. da frage ich mich, ob amd zu viele ati leute gefeuert hat. so viel zeit zum entwickeln und dann eine karte mit dem meisten stromverbrauch im idle, laut und nicht das schnellste.
die karte hätte nach mehrjährigem zyklus bereits im sommer 2006 erscheinen sollen. nun kommt sie frühjahr 2007 und ist so ein bockmist.
bin auf die werte der midrange-grakas gespannt. 128bit... 1/4 der großen konstruktion. ouh man.
seahawk
2007-05-14, 17:42:40
So meine neue 2900XT ist eingebaut!!! Muss Treiber runterladen...
In 2d ist die Karte etwas hörbarer wie die 7950GX2
Hörbarer als GX2 - ach du Scheisse. Und ich fand das Sample mit dem Tackerlüfter nervig. ;(
Ich habe keine Lust die fünfmillionen Seiten detailliert durchzulesen, sondern habe sie nur kurz überflogen, und kann mir nicht verkneifen, mal kurz anzumerken, dass jetzt auf einmal CFAA doch gut ist. Als ich in den R600-Speku-Threads oder hier im Thread nurmal kurz anmerke, dass man doch abwarten sollte, bevor man urteilt, und das dies bei richtiger Anwendung durchaus Sinn machen kann, wurde ich von unzähligen Personen mit allen möglichen Halbwahrheiten gleich aufs schärfste Attackiert. So, jetzt gehts mir wieder gut. :)
Naja, ein neuer AA Modus ist gut, 2 sind schlecht.
Das könnte noch ziemlich unangenehm werden, wenn DELL aufmuckt... so ganz nebenbei, die solln ja quasi die OEM als Katze im Sack gekauft haben :rolleyes:
Ich wünsch der Treibercrew Nerven wie Drahtseile... echt, eine Verantwortung haben die jetzt...
.
...
Hatte mich doch schon verbessert. Srykthx.
Moralelastix
2007-05-14, 17:52:51
Hat der R600 das gleiche Schicksal wie die x1800 Serie?
Also können wir wieder mit einem voll konkurrenzfähigen Refresh rechnen?
reunion
2007-05-14, 17:53:50
Hast du wirklich was anderes erwartet?
Nicht unbedingt. Nur ist es einfach bezeichnend, wenn hier mit Todschlagargumenten herumgeworfen wird, ohne auch nur zu wissen, wie dieser Algorithmus überhaupt funktioniert. Alles, was über den Horizont gewissen Personen hinaus geht, ist gleich mal unmöglich, und wird als unumwerflicher Fakt hingestellt. Solche Diskussionsformen sind einfach unbrauchbar. So wie ich das sehe erzeugt der "edge-detect"-Filter eine Kantenglättung, die nahe am Optimum liegt, ohne an anderen Texturen etwas zu verändern. Daraus folgt ein homogenes Bild (nicht so wie bei CSAA, bei dem es tw. zu Zackenbildung kommt), bei dem die volle Glättung wirklich überall greift, wo MSAA auch greift (nicht so wie bei CSAA) - was will man mehr?
Naja, ein neuer AA Modus ist gut, 2 sind schlecht.
Auch das liegt im Auge des Betrachters. Auch die anderen zwei Modi sollen bei weitem nicht so stark blurren wie Quincunx, und können unter Umständen bei hochfrequenten Texturen für ein subjektiv besseres Bild sorgen. Und da alle Modi optimal sind, sind sie alle IMHO "nice to have".
------------------
Dass der Launch generell ein Disaster ist, darüber braucht man sich definitiv nicht zu unterhalten. Die einzige Frage, die bleibt, ist, was sich durch neuere Treiber noch retten lässt.
san.salvador
2007-05-14, 17:55:55
Hat der R600 das gleiche Schicksal wie die x1800 Serie?
Für ATI kann mans nur hoffen, schließlich kam mit den X1900ern was feines nach.
ATI hat nun wieder einen "X1800" released, mal abwarten, was da nachkommt.
Hat der R600 das gleiche Schicksal wie die x1800 Serie?
kommt mir auch so vor... stellt sich nur die frage wann der r650 kommt
J0ph33
2007-05-14, 17:58:10
schön wär's, denn mit meine X1800 XT 512 habe ich seit März 06 großen Spaß!
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.