Archiv verlassen und diese Seite im Standarddesign anzeigen : NV vs. Ati, AA, AF, Grieseln -> die aktuelle Filterdiskussion
MadManniMan
2009-05-05, 19:21:47
Was langsamer ist muss auch weniger kosten. Die 9800GT verliert doch selbst gegen die 4830. Die kaum schnellere GTS250 kostet erheblich mehr.
Was muss passieren, damit Du Deine Balkenmentalität ablegst? Muss die nächste Grisselfilterei wieder von nV kommen? :|
reunion
2009-05-05, 19:38:58
Mal sollte doch alles angeben:
Den Rabatt gab es vorher auch schon.
Was muss passieren, damit Du Deine Balkenmentalität ablegst? Muss die nächste Grisselfilterei wieder von nV kommen? :|
Auf ein solches Totschlagargument habe ich schon gewartet. NV bietet die Option auf bessere Filterung ja, aber es gibt auch andere Argumente für oder gegen eine Grafikkarte.
Auf ein solches Totschlagargument habe ich schon gewartet. NV bietet die Option auf bessere Filterung ja, aber es gibt auch andere Argumente für oder gegen eine Grafikkarte.
Für Leute wie dich sowieso. Bildqualität ist aber das A und O eine Grafikkarte, gefolgt von guten Treiber/Gamessupport davon ist Ati jedoch meilenweit entfernt.
Auf ein solches Totschlagargument habe ich schon gewartet. NV bietet die Option auf bessere Filterung ja, aber es gibt auch andere Argumente für oder gegen eine Grafikkarte.
Jedenfalls erwähnst du immer nur die Performance, keine anderen Argumente.
Ich persöhnlich sehe im Wort "Grafikkarte" das Wort "Grafik", demnach ist eine Grafikkarte dazu da eine Grafik zu rendern. Diese Grafik sollte möglichst gut sein, alles andere ist zweitrangig.
MadManniMan
2009-05-05, 20:42:10
Auf ein solches Totschlagargument habe ich schon gewartet. NV bietet die Option auf bessere Filterung ja, aber es gibt auch andere Argumente für oder gegen eine Grafikkarte.
Jau, Du nennst die FPS.
Für mich ist aber relevant, wieviele Informationen wie oft auf den Screen geschmissen werden - und nicht nur, dass das passiert.
Das ist auch der Grund dafür, warum ich generell AA und AF benutze: mehr FPS jucken mich nicht, mehr Bildqualität schon.
Klar ist der RV740 schnell. Aber für die geleistete Arbeit ist das auch kein Wunder. "Schnelligkeit" ist höchst relativ.
Leistung ist Arbeit pro Zeit.
Tarkin
2009-05-05, 21:12:08
Nicht schon wieder :rolleyes:
Ja das schlechte Filterung ist kaum auszuhalten... wirklich schlimm. Man bekommt direkt Augekrebs davon. Ich weiß nicht wie millionen von Gamern mit ATi in ihren Kisten überhaupt nocht sehen können.
Wird Zeit dass euch mal was besseres einfällt. 95% der User wissen wahrscheinlich nicht mal was AF bedeutet, geschweige denn aktivieren solche Featuers (oder wissen wie man das macht oder was das überhaupt bewirkt)!
Genauso könnte man sagenn dass NVidia kein ordentliches AA auf die Reihe bekommt (vor allem ab 8X aufwärts)... wen juckts? NIEMANDEN - schon garnicht die von der grünen Fraktion.
Das Thema btw gehört sicher nicht in einen "Review" Thread!
Tarkin
2009-05-05, 21:14:23
"Schnelligkeit" ist höchst relativ.
... und Bildqualität ist subjektiv.
LovesuckZ
2009-05-05, 21:39:46
Der Unterschied zwischen langsam und nicht auswählbar ist dir bekannt, oder? :rolleyes:
/edit: Gut, dass Bildqualität laut dir nagus nun subjektiv wäre. Das hat den immensen Vorteil, dass Threads gegen nVidia wegen unterschiedlicher Bildqualität von dir oder deinem Zweitaccount nun auch nicht mehr eröffnet werden. Ich werde wirklich die alten tage vermissen, wo man sich wegen Kleinigkeit gestritten hat...
deekey777
2009-05-05, 21:45:51
Der Unterschied zwischen langsam und nicht auswählbar ist dir bekannt, oder? :rolleyes:
/edit: Gut, dass Bildqualität laut dir nagus nun subjektiv wäre. Das hat den immensen Vorteil, dass Threads gegen nVidia wegen unterschiedlicher Bildqualität von dir oder deinem Zweitaccount nun auch nicht mehr eröffnet werden. Ich werde wirklich die alten tage vermissen, wo man sich wegen Kleinigkeit gestritten hat...
Du bist doch in der Lage den Namen des Posters zu lesen, oder? Also hör jetzt endlich auf, die Person mit dem falschen Namen anzusprechen.
Undertaker
2009-05-05, 22:06:04
Genauso könnte man sagenn dass NVidia kein ordentliches AA auf die Reihe bekommt (vor allem ab 8X aufwärts)... wen juckts? NIEMANDEN - schon garnicht die von der grünen Fraktion.
Hmm? Das ist neben dem Zwang zum schlimmsten Stück Software aller Zeiten - dem CCC - der größte Verlust nach meinem Wechsel von Nvidia: Die genial aussehenden Hybridmodi. 8xAA brauche ich nicht, schon im Standbild mit direktem Vergleich fällt es schwer, Vorteile zu 4xAA zu erkennen. Allerdings ist mir bei meinem RV770 auch noch kein Flimmern störend aufgefallen.
Zu PhysX vs. DX 10.1: Imho ist aktuell ersteres bei einer Karte deutlich nützlicher. Aber keine Ahnung, ob das mittelfristig so bleibt.
MadManniMan
2009-05-05, 22:27:10
Ja das schlechte Filterung ist kaum auszuhalten... wirklich schlimm. Man bekommt direkt Augekrebs davon. Ich weiß nicht wie millionen von Gamern mit ATi in ihren Kisten überhaupt nocht sehen können.
Indem Du es kleinredest versaust Du Schritt für Schritt die Möglichkeit, in künftigen Radeon-Generationen vernünftige Filter zu sehen.
Wird Zeit dass euch mal was besseres einfällt. 95% der User wissen wahrscheinlich nicht mal was AF bedeutet, geschweige denn aktivieren solche Featuers (oder wissen wie man das macht oder was das überhaupt bewirkt)!
Genauso könnte man sagenn dass NVidia kein ordentliches AA auf die Reihe bekommt (vor allem ab 8X aufwärts)... wen juckts? NIEMANDEN - schon garnicht die von der grünen Fraktion.
1) Mit "einfallen lassen" hat das nichts zu tun.
2) Sowohl ATi als auch nVidia haben AA-Modi, die puren Luxus darstellen. ED-CFAA hat die besseren Kanten, SSAA das bessere Gesamtbild. Richtig. Was hat das jetzt mit der Filterung zu tun?
Das Thema btw gehört sicher nicht in einen "Review" Thread!
Wenn Kaufempfehlungen ausgesprochen werden sehr wohl. Will man vernünftige Vergleiche anstellen, muss man nach der Quallität fragen, die eine Quantität mit sich bringt.
Wenn ich meinem Chef vermittle, dass ich ein ganzes Dutzend Aufgaben innert kürzester Zeit erledigt habe, wird er natürlich zuerst danach fragen, wie das Ergebnis aussieht - mit gutem Recht! Gewissenhafte Arbeit bedarf großer Anstrengungen; das gilt für Menschen, wie für Apparate.
2004/2005 hatte nVidia die schlechtere Filterqualität, jetzt hat ATi dieselbe. Beides gehört gescholten.
... und Bildqualität ist subjektiv.
Gott sei Dank ist Bildqualität sogar sehr einfach objektivierbar =)
Ja das schlechte Filterung ist kaum auszuhalten... wirklich schlimm. Man bekommt direkt Augekrebs davon.
In der Tat.
Mich stört es derart, das selbst eine deutlich günstigere Radeon mir nicht in den Spiele Rechner kommt.
Genauso könnte man sagenn dass NVidia kein ordentliches AA auf die Reihe bekommt (vor allem ab 8X aufwärts)... Nö, den das ist eine blanke Lüge.
1. AMD wie Nvidia bieten maximal 8xMSAA.
2. Bei beiden habe ich die Möglichkeit noch schicker geglättete Polygonkanten zu bekommen.
3. Bei Nvidia habe ich die Möglichkeit alles zu glätten, dank SSAA.
4. Bei AMD und Nvidia gibt es eine Lösung für die bösen Alphas. Jedoch nur bei Nvidia die Wahl ob MS oder SS.
All dies ist dir bekannt, dennoch wiederholst du es ständig völlig falsch.
Wird Zeit dass euch mal was besseres einfällt. 95% der User wissen wahrscheinlich nicht mal was AF bedeutet, geschweige denn aktivieren solche Featuers (oder wissen wie man das macht oder was das überhaupt bewirkt)!
Gut, dann machen Performancediskussionen eh keinen Sinn.
1. 8xMSAA wirst du weiterhin als Grund aufführen.
2. Wozu schnelle Karten, wenn ihr Ziel einzig hohe FPS sind?
2004/2005 hatte nVidia die schlechtere Filterqualität, jetzt hat ATi dieselbe. Beides gehört gescholten.
Auch dies ist nur die halbe Wahrheit.
Ersteres erweckt den Eindruck, als ob bei AMD Friede Freude Eierkuchen geherscht hat.
Nur mal so nebenbei. ;)
Daredevil
2009-05-05, 22:44:00
Das Nvidias besser ist heißt nicht automatisch das Atis schlecht ist.
MadManniMan
2009-05-05, 23:26:44
Auch dies ist nur die halbe Wahrheit.
Ersteres erweckt den Eindruck, als ob bei AMD Friede Freude Eierkuchen geherscht hat.
Nur mal so nebenbei. ;)
;)
Das Nvidias besser ist heißt nicht automatisch das Atis schlecht ist.
Aye, nV war auf ganz üblem Niveau und ist inzwischen beinahe mustergültig (HQ!), ATi hat aber seit dem R520 abgenommen.
Ganz nebenbei ne wunderbare Erklärung dafür, wie ATi mit einer so "geringen" Füllrate bestehen kann.
N0Thing
2009-05-06, 01:12:13
Damit Ati an der Filterung etwas ändert, muß wohl wieder bei jeder ATI-Karte in Preissuchmaschinen ein Artikel auf die schlechtere Filterung aufmerksam machen, damit sich etwas bewegt.
Wenn man sich bei Leuten umhört, die zwar gerne spielen, in der Regel aber keinen Blick auf die Treibereinstellungen werfen und oft keinen Unterschied sehen, wenn AF aktiviert wird, oder es ihnen zumindest nicht wichtig ist, mache ich mir wirklich keine Hoffnungen.
Könnte man mit dem ominösen Hydrachip nicht eine ATI und eine Nvidia koppeln und die ATi für AA und die Nvidia für AF benutzen? :D
y33H@
2009-05-06, 01:38:28
Wofür eine Ati fürs FSAA - was toppt schon 4x4 OGSSAA [außer 3dfx'sches RGSSAA]? ;D
Alles, was mehr als 20 fps bei weniger als einer GTX 285 hat? ;)
MadManniMan
2009-05-06, 06:51:15
Damit Ati an der Filterung etwas ändert, muß wohl wieder bei jeder ATI-Karte in Preissuchmaschinen ein Artikel auf die schlechtere Filterung aufmerksam machen, damit sich etwas bewegt.
Wenn man sich bei Leuten umhört, die zwar gerne spielen, in der Regel aber keinen Blick auf die Treibereinstellungen werfen und oft keinen Unterschied sehen, wenn AF aktiviert wird, oder es ihnen zumindest nicht wichtig ist, mache ich mir wirklich keine Hoffnungen.
Das wäre auch wirklich das Einzige, was dieser Abart Einhalt gebieten könnte! Dein Wort in Gottes (welchen auch immer) Ohr!
Wofür eine Ati fürs FSAA - was toppt schon 4x4 OGSSAA [außer 3dfx'sches RGSSAA]? ;D
:|
Alles, was mehr als 20 fps bei weniger als einer GTX 285 hat? ;)
Danke.
Aber lassen wir doch bitte FSAA hier ein wenig aus dem Spiel - da ist jeder IHV dem anderen irgendwie überlegen und dann ists wirklich Geschmackssache.
reunion
2009-05-06, 08:07:44
Damit Ati an der Filterung etwas ändert, muß wohl wieder bei jeder ATI-Karte in Preissuchmaschinen ein Artikel auf die schlechtere Filterung aufmerksam machen, damit sich etwas bewegt.
Wenn man sich bei Leuten umhört, die zwar gerne spielen, in der Regel aber keinen Blick auf die Treibereinstellungen werfen und oft keinen Unterschied sehen, wenn AF aktiviert wird, oder es ihnen zumindest nicht wichtig ist, mache ich mir wirklich keine Hoffnungen.
Ich behaupte AMDs Filterung ist auf einem Niveau, das für 99% der Leute keinen sichtbaren Unterschied zu einer "optimalen" Filterung macht. Hier wird ja so getan als ob die Filterung bei AMD absolut miserabel wäre, da gab es schon bedeutend schlimmeres. Die Option auf optimale Filterung wäre aber sicherlich wünschenswert, keine Frage. Ich habe - aber das nur nebenbei - genau aus dem Grund auch seit längerem nur noch NV-Karten im Einsatz. Nur ist wiederum die Frage ob es das Wert ist wegen diesem Mangel an Optionen den Underdog AMD, der eh schon ums Überleben kämpft derart zu belangen. Ich denke nicht. Ich bin der erste der auf Firmen wie Intel oder Microsoft zeigt wenn sie etwas verwerfliches machen, aber ich halte mich gerne zurück bei im Grunde chancenlosen Mitstreitern. Das ist IMO ein Vorteil den ein Underdog genießen sollte, denn ein gesunder Konkurrenzkampf sollte uns alle ein Anliegen sein, wie man an der aktuellen Situation wieder sieht.
Iceman346
2009-05-06, 08:50:43
Hmm? Das ist neben dem Zwang zum schlimmsten Stück Software aller Zeiten - dem CCC
Was findeste am CCC so schlimm? Ich find das auch nicht besser oder schlechter als das Nvidia Kontrollpanel.
Relativ lange bis sie geöffnet sind brauchen sie beide und von der Übersichtlichkeit tun sie sich auch nicht viel.
Vor allem weil die wengisten nutzer überhaupt eine Vergleichsmöglichkeit haben und genaus wenige es wirklich merken, wenn sie spielen.
Ich halte den Weg von ATI für richtig, imho muss nur noch AI off entfallen. Ein einfacher treiber mit wenigen Einstellungsmöglichkeiten dürfte bei einer größen Anzahl an Kunden mehr geschätzt werden, als die vielen Optionen bei NV.
LovesuckZ
2009-05-06, 09:00:56
Ich behaupte AMDs Filterung ist auf einem Niveau, das für 99% der Leute keinen sichtbaren Unterschied zu einer "optimalen" Filterung macht. Hier wird ja so getan als ob die Filterung bei AMD absolut miserabel wäre, da gab es schon bedeutend schlimmeres. Die Option auf optimale Filterung wäre aber sicherlich wünschenswert, keine Frage. Ich habe - aber das nur nebenbei - genau aus dem Grund auch seit längerem nur noch NV-Karten im Einsatz. Nur ist wiederum die Frage ob es das Wert ist wegen diesem Mangel an Optionen den Underdog AMD, der eh schon ums Überleben kämpft derart zu belangen. Ich denke nicht. Ich bin der erste der auf Firmen wie Intel oder Microsoft zeigt wenn sie etwas verwerfliches machen, aber ich halte mich gerne zurück bei im Grunde chancenlosen Mitstreitern. Das ist IMO ein Vorteil den ein Underdog genießen sollte, denn ein gesunder Konkurrenzkampf sollte uns alle ein Anliegen sein, wie man an der aktuellen Situation wieder sieht.
Meisten ist der Underdog der, der durch Kundenfreundlichkeit glänzt. Wieso sollte man eine Underdog-Firma unterstützen, die den Kunden behandelt als sei er dumm? :confused:
Normalerweise müsste eigentlich nVidia die Firma sein, die den Kunden keine Auswahlmöglichkeit gibt. Arroganz ist meisten das Zeichen für den Marktführer. Hier ist es aber genau andersrum. AMD behandelt den Kunden nicht auf dem Niveau wie nVidia und das sollte man als vernünftiger Mensch auch nicht unterstützen. Anscheinend ist es jedoch vielen Käufern wohl egal, wie sie von einer Firma betrachtet werden. Oder aber, die entsprechen genau dr Zielgruppe von AMD: Billigkäufer, die keinen Wert auf Auswahlmöglichkeit und Bildqualität legen.
Man sollte sich selbst hinterfragen, ob man ein Produkt einer Firma kauft, die einen nicht die Wahl lässt sein Spiel so zu spielen, wie man es will.
MadManniMan
2009-05-06, 09:02:10
Jetzt haben wir aber ein Problem (mal ganz außen vor, wie schlimm die Flimmerei wirklich ist):
Gehen wir das Ganze marktwirtschaftlich an, dann wird sich mit ein bisschen Glück die Qualität durchsetzen - wobei wir hier aber unserer Funktion als "Gegenmarketing" nachkommen müssen. Dein Weg wäre der sozialistische, der regulierend dem Schwächeren mehr zugesteht.
Ich bin im Allgemeinen Kapitalismusfeind und kaufe durchaus auch öfter eigentlich dezent Überteuertes, den Kleineren zu puschen (ich hatte eigentlich Bock auf ne 8800 GS, hab dann aber doch die 3850 genommen), aber hier müssen wir einfach unsere Keimdrüsen verteidigen und zugeben, dass die Qualität im ganzen Dumpingwahn flöten geht.
Deinorius
2009-05-06, 09:56:49
aber hier müssen wir einfach unsere Keimdrüsen verteidigen und zugeben, dass die Qualität im ganzen Dumpingwahn flöten geht.
Wie sagt doch die Wiener Städtische in ihrer Werbung...: Ihre Sorgen möchten wir haben!!
Gott wie furchtbar. Da passt für viele (viele, nicht alle!) auch der Spruch hinein: Einbildung ist auch 'ne Bildung. :P
Ich mach mir viel mehr Sorgen, dass Spiele in letzter Zeit zu leicht sind oder hin und wieder zu grafiklastig sind (obwohl ich auch hier nicht zu schwarz sehe). Ich sehe, welche Leistung heute zu geringen Preisen angeboten wird und freue mich deswegen, was zum Teil ein Verdienst von AMD ist. Da interessiert es mich nicht ein Stück, dass der Filter bei AMD marginal schlechter ist und zwar so marginal, dass 98 % im Spiel beim Spielen und nicht auf Standbildern keinen Unterschied sehen.
Diese ganze Filterdiskussion wird echt müßig.
Ich könnts auch so sagen, sich nicht über Belanglosigkeiten streiten, sondern es einfach genießen.
MadManniMan
2009-05-06, 10:45:44
Zum "einfach genießen" gehört aber ganz einfach, dass man sich auf die Zuverlässigkeit der Grafikkarte in allen Bereichen verlassen kann.
Klar kann ich meinen Core 2 bis zur Vergasung hochprügeln und er stürzt nur einmal am Abend ab, aber dieser eine Absturz ist schon einer zuviel. Manchen würde das reichen - wie ich mich auch mit 8*MSAA als reine Kantenglättung zufrieden gebe, da für 24xED-CFAA mein Monitor zu sehr schliert und meine Spiele zu schnell sind.
Aber nicht einmal die Möglichkeit zu haben , mustergültig filtern zu lassen, ist einfach scheiße. Es ist mir auch klar, dass viele das alles gar nicht verstehen, aber dafür zu kämpfen lohnt sich doch.
Die Filtergaffer (nicht böse gemeint) sollen doch froh sein, dass sie mit nV ihrem Hobby fröhnen können, denn niemand nötigt sie eine ATI-Karte zu kaufen. ATI hat hier gar nichts aufzuholen, sie setzen ganz einfach andere Prioritäten - genau wie ihre Käufer, sofern sie die winzigen Unterschiede überhaupt erkennen können.
Ich wäre sogar äußerst erfreut darüber, wenn man via Treiber bilineare Filterung erzwingen könnte, sofern dies die Nutzbarkeit einer älteren Graka bei neueren Spielen spürbar anheben würde (im Konjunktiv formuliert, weil ich nicht weiß ob aktuelle Chips dadurch tatsächlich deutlich schneller rendern würden).
MadManniMan
2009-05-06, 11:35:35
Würde es "uns Filtergaffer" nicht geben, hätte sich auch niemand über die Grieselei beim G70 beschwert.
Würde es "uns Filtergaffer" nicht geben, gäbe es echtes trilineares Filtern gar nicht mehr.
Würde es "uns Filtergaffer" nicht geben, wäre anisotropes Filtern noch winkelabhängig.
Würde es "uns Filtergaffer" nicht geben, würdet ihr ersteinmal begreifen, wie wichtig dieser gedankliche Austausch eigentlich ist.
N0Thing
2009-05-06, 11:38:03
Ich behaupte AMDs Filterung ist auf einem Niveau, das für 99% der Leute keinen sichtbaren Unterschied zu einer "optimalen" Filterung macht. Hier wird ja so getan als ob die Filterung bei AMD absolut miserabel wäre, da gab es schon bedeutend schlimmeres. Die Option auf optimale Filterung wäre aber sicherlich wünschenswert, keine Frage. .
Wirklich verwerflich finde ich das Konzept von ATI ja auch nicht, sie richten sich eben nach der Mehrheit der Käufer, denen die Filterqualität ausreicht. Sei es, weil es ihnen egal ist, sei es, weil es ihnen gar nicht auffällt.
Erfreulich wäre es aber, wenn man im Treiber einstellen könnte, ob man Standard (wie jetzt) haben will, oder maximale Bildqualität. Daß ATI das von sich aus einbaut erwarte ich gar nicht, dafür ist die Menge der Leute, denen das wichtig ist, zu gering.
Wenn mal als Enthusiast daran etwas ändern will, muß man eben über eine bekannte Seite über die Umstände informieren und so Druck auf den Hersteller aufbauen. Was hier im Forum geschrieben wird, interessiert doch keinen der beiden Hersteller. Auch wenn man das Gefühl hat, daß Nvidia und Ati hier schon Mitarbeiter angemeldet haben. :D
Aber das ist hier ja gar nicht das Thema.
Gibt es eigentlich schon einer Erklärung dafür, daß manche Reviewseiten der 4770 gegenüber der 4830 einen höheren idle Verbraucht attestieren, andere einen niedrigeren? Unterschiedliche Spannungen beim Chip vielleicht?
Würde es "uns Filtergaffer" nicht geben, hätte sich auch niemand über die Grieselei beim G70 beschwert.
Würde es "uns Filtergaffer" nicht geben, gäbe es echtes trilineares Filtern gar nicht mehr.
Würde es "uns Filtergaffer" nicht geben, wäre anisotropes Filtern noch winkelabhängig.
Kein Grund gleich ein Drama draus zu machen, ich persönlich fand das G70-Flimmern auch doof und habe mir entsprechend keinen gekauft. Fakt ist aber, dass alle Punkte, die du angeführt hast, völlig subjektiv zu bewerten sind - den einen stört es mehr, den anderen weniger. Ist es so schwer zu akzeptieren, dass wahrscheinlich 90% aller Zocker sich nicht um die Qualität von Texturfiltern scheren? Sie sind zumindest mit dem was sie von den Herstellern bekommen mehr oder weniger zufrieden, egal ob das dir oder mir besonders zusagt.
Es ist ja auch nicht so, dass ATI erst mit der HD4770 auf diesen Zug aufgesprungen wäre. Sie fahren diese Strategie konsequent seit vielen Jahren und jeder, der sich für das Thema interessiert, dürfte wissen, dass er bei ATI nicht die beste Texturfilterung bekommt. Wozu also jedesmal losflamen wenn sie ein neues Produkt vorstellen?
Wirklich verwerflich finde ich das Konzept von ATI ja auch nicht, sie richten sich eben nach der Mehrheit der Käufer, denen die Filterqualität ausreicht. Sei es, weil es ihnen egal ist, sei es, weil es ihnen gar nicht auffällt.
Bullshit, sie haben sich nach den Unzulänglichkeiten von R600 gerichtet und das später als Understatement verkauft. Die Schande ist, dass die Reviewseiten sich einlullen ließen, das Thema müsste ständig zur Wiedervorlage. Stattdessen bestimmt ein verkorkstes Design die Bildqualität der Nachfolgegenerationen bis RV790.
Deinorius
2009-05-06, 12:15:39
Zum "einfach genießen" gehört aber ganz einfach, dass man sich auf die Zuverlässigkeit der Grafikkarte in allen Bereichen verlassen kann.
Zuverlässigkeit? :| Ein stabiler Treiber, das ist Zuverlässigkeit. Den Unterschied zwischen einem sehr guten und marginal schlechterem AF-Filter zu kritisieren, würde ich nicht darunter einordnen.
Würde es "uns Filtergaffer" nicht geben, hätte sich auch niemand über die Grieselei beim G70 beschwert.
Würde es "uns Filtergaffer" nicht geben, gäbe es echtes trilineares Filtern gar nicht mehr.
Würde es "uns Filtergaffer" nicht geben, wäre anisotropes Filtern noch winkelabhängig.
Würde es "uns Filtergaffer" nicht geben, würdet ihr ersteinmal begreifen, wie wichtig dieser gedankliche Austausch eigentlich ist.
Und anstatt die Früchte dieser Motschkerei zu genießen, wird weiter gesudert, als obs keine anderen Probleme gäbe. Erinnert mich an Politik. Ich hoffe zumindest, dass du diese größeren Probleme nicht mit dem jetzigen gleich stellst.
Zumal ich die Entwicklung von Features und Technik auf jeden Fall nicht in die gleiche Kategorie einstufen würde wie die Suderei über dieses marginale Problem hier.
Sicher, ATI könnte zumindest eine Option bieten. Es wäre ja schon ausreichend so eine Option in einem 3rd party Tool zu haben, denn die einzigen, die es interessiert, sind sowieso jene, die solche Tools kennen und benutzen. Im CCC ists wurscht.
Ansonsten bin ich immer noch für die persönliche Entscheidungsfreiheit, mit anderen Worten: Wenns euch bei AMD nicht passt, dann schleichts euch zu nvidia und bleibt dort. (bitte nicht falsch verstehen) Wenn mir zur Kaufzeit kein AMD-Produkt gefallen würde, dann wechsle ich halt zu nvidia. Wenn die Kaufzahlen sinken, merkt das der Hersteller schon.
Gibt es eigentlich schon einer Erklärung dafür, daß manche Reviewseiten der 4770 einen höheren idle verbraucht attestieren, andere einen niedrigeren? Unterschiedliche Spannungen beim Chip vielleicht?
Endlich back2topic, das würde ich ja auch zu gern wissen.
Stattdessen bestimmt ein verkorkstes Design die Bildqualität der Nachfolgegenerationen bis RV790.
Na die Argumente möchte ich jetzt lesen.
MadManniMan
2009-05-06, 12:21:53
Kein Grund gleich ein Drama draus zu machen, ich persönlich fand das G70-Flimmern auch doof und habe mir entsprechend keinen gekauft. Fakt ist aber, dass alle Punkte, die du angeführt hast, völlig subjektiv zu bewerten sind - den einen stört es mehr, den anderen weniger. Ist es so schwer zu akzeptieren, dass wahrscheinlich 90% aller Zocker sich nicht um die Qualität von Texturfiltern scheren? Sie sind zumindest mit dem was sie von den Herstellern bekommen mehr oder weniger zufrieden, egal ob das dir oder mir besonders zusagt.
Thema Subjektivität/Objektivität:
Es ist eben sehr wohl objektivierbar - für die Grieselei gibts Nyquist, trilineare Filter sind einfach trilinear und wenn anisotrope Filter winkelabhängig arbeiten, ist die AF-Blume kein Kreis.
Wie wichtig das für den Einzelnen ist, ja da gibt es himmelweite Unterschiede, aber:
nVidia hat vorgelegt, HQ ist verdammt nah an der Mustergültigkeit. Das müsste man bei dan ATis eben genau so einstellen können, wie 24xED-CFAA... nur die wenigsten wissen, was es bedeutet, aber macht man den Haken, bekommt man auch die maximale Qualität.
Es ist ja auch nicht so, dass ATI erst mit der HD4770 auf diesen Zug aufgesprungen wäre. Sie fahren diese Strategie konsequent seit vielen Jahren und jeder, der sich für das Thema interessiert, dürfte wissen, dass er bei ATI nicht die beste Texturfilterung bekommt. Wozu also jedesmal losflamen wenn sie ein neues Produkt vorstellen?
1) Es ist kein "flamen" - das wäre es, wenn ich herablassend, zynisch, betont subjektiv, beleidigend etc. pp daherkäm.
2) Ich müsste nix schreiben, wenn nicht ständig Kaufempfehlungen ausgesprochen würden, die bei der Performance nur FPS, nicht aber QPF (Quality per Frame) als Maßstab nehmen.
3) Ich sage ja nichtmal, dass ich selbst in jedem Spiel HQ bräuchte. Vielmehr geht es um vernünftige Vergleichbarkeit: also entweder, wir schaffen quasi-identische Optik (mal Marginalien wie gespiegelte Abstastraster beim AA außen vorgelassen), oder wir lassen die QPF mit in die Bewertung einfließen.
Einfach nur kleinreden ist scheiße.
G70 ist ein schlechtes Beispiel, dort war das Filterproblem für die meisten Nutzer erkennbar. Kaum einer hätte noch einmal eine solche Karte gekauf. ergo mußte NV nachbessern.
Was ATI heute liefert ist aber hinreichend. Und wenn es ihnen dadurch gelingt equivalente Performance für weniger Geld in den Markt zu bringen (weil der Chip kleiner sein kann), dann ist es ein legitimes Mittel.
Iceman346
2009-05-06, 13:04:12
Grad bei WoW flimmern einige Bodentexturen sehr böse auf meiner 4870, andere dagegen garnicht. Erinner mich aber nicht mehr 100%ig daran wies auf der GTX260 vorher aussah ;)
reunion
2009-05-06, 13:12:15
G70 ist ein schlechtes Beispiel, dort war das Filterproblem für die meisten Nutzer erkennbar. Kaum einer hätte noch einmal eine solche Karte gekauf. ergo mußte NV nachbessern.
Selbst das war nicht der Fall. Man braucht ja nur zu schauen wie lange es gedauert hat bis man die grieselnden Texturen bei NV40/G70 überhaupt bemerkte. Zu beginn wurde der Filter gerade auch hier von 3DC sogar noch als klar überlegen gelobt weil die Blume lächerlicherweise minimal besser war. Das nV bei der Filterung gehörig Samples einsparte bemerkte kein Schwein. Mr. Lolman konnte sich da speziell hier im Forum obwohl er völlig im Recht war einiges anhören.
Selbst das war nicht der Fall. Man braucht ja nur zu schauen wie lange es gedauert hat bis man die grieselnden Texturen bei NV40/G70 überhaupt bemerkte.
Lag daran, daß dies nur ein Fehler einiger weniger Treiberversionen war. NV4x/G7x filtern mit aktuellen Treibern perfekt (bis auf das winkelabhängige LOD).
reunion
2009-05-06, 13:26:45
Lag daran, daß dies nur ein Fehler einiger weniger Treiberversionen war. NV4x/G7x filtern mit aktuellen Treibern perfekt (bis auf das winkelabhängige LOD).
Ne, definitiv nicht. Es gab zwar zum Start des G70 einige Treiberversionen wo es noch schlechter war, aber selbst bei den anderen war Q stark grießelnd und HQ gerademal auf AI_low-Niveau mit Winkelabhängigkeit. Ob es heute besser ist weiß ich nicht, müsste man genauer untersuchen.
WoW flimmert auch auf einem G80@HQ, da hilft nur massiv SSAA.
Ja, aber es geht nicht das ob, sondern das wie. Das HQ-Flimmern ist Kindergeburstag gegenüber A.I. oder Quality.
MfG,
Raff
Adam D.
2009-05-06, 13:39:08
Ja, aber es geht nicht das ob, sondern das wie. Das HQ-Flimmern ist Kindergeburstag gegenüber A.I. oder Quality.
MfG,
Raff
Euphemismus-Alarm :wink:
Und da NV default auch nur Q liefert, sind beide IHVs also gleich.
reunion
2009-05-06, 13:59:54
Und da NV default auch nur Q liefert, sind beide IHVs also gleich.
Jetzt kommt gleich wieder Coda und erzählt dir dass da ganze Gebirgsketten dazwischen liegen. Aber ich bin auch der Meinung das AI_low und Quality je nach Spiel mal mehr, mal weniger gut vergleichbar sind.
Was völlig egal ist, ob sie jetzt völlig gleich sind oder nicht, in jedem Falle sind sie vergleichbar. Und damit ist klar, dass beide IHVs ihrem Kunden vergleichbare Qualität verkaufen wollen.
Die HQ-Option von NV ist ein Gimmick. Eine Option für Freaks. Wenn NV soviel an perfekter BQ liegen würde, dann wäre HQ Treiberdefault und nicht Q. Aber offensichtlich hält auch NV Q für den besseren Kompromiss zwischen FPS und BQ und folgt somit dem Beispiel von ATI mit AI low. Somit ist für mich HQ vergleichbar mit den erweiterten AA Modi der ATI oder SSAA bei NV. Nice to have aber mehr nicht.
Edit: Um es klar zu sagen ich nutze privat seit langem nur NV-Karten, wegen der HQ Option. Aber sollte ATI mal wieder eine Karte liefern die in ihren sonstigen Eigenschaften klar besser ist, dann würde mich das fehlende HQ nicht von einem Kauf abhalten.
Psychopat
2009-05-06, 14:11:31
Man sollte die Filterdiskussion mal aus einer anderen Perspektive sehen:
Und zwar aus der des sinkenden Grenzertrags.
Man kann immer etwas genauer berechnen, eine höhere Präzision ist immer möglich. Warum kein 32x AF, 16x AA? Würde ein IHV eines von beiden anbieten, würde, der andere wegen "schlechterer" Bildqualität niedergemacht. Aber auch nur deswegen, weil es die Option im Treiber gibt, und 32x besser sein muss als 16x (16x gegenüber 8x respektive). Nicht weil jemand auf Bildern wirklich einen Unterschied sehen würde.
Die Frage die sich dem IHV allerdings stellt ist, wieviele Transistoren er aufwenden muss um dieses mehr an Präzision nutzbar zu machen. Es hat schon seinen Grund, warum nVidias Hybridmodi nur über 3rd Party Tools zugänglich sind.
Man stelle sich vor: Kiddy entdeckt das control panel, stellt alles auf maximal, inklusive 4x4 SSAA. Kein spiel läuft mehr flüssig. Papi kennt sich nicht aus, merkt nur nichts läuft mehr. Denkt sich, mist Graka, kauf ich nie wieder und erzählt es seinen Freunden...
Die IHVs müssen ein gewisses Maß an idiotensicherheit bei den Einstellungen haben. Das ändert aber nichts daran, das AMD es mit 3rd Party Tools ermöglichen könnte, besseres AF aktivierbar zu machen. Damit sprechen sie aber eine sehr geringe Zielgruppe an, wodurch so etwas bei den IHVs mehr als freiwillige Dreingabe zu betrachten sein sollte.
Vielmehr geht es um vernünftige Vergleichbarkeit: wir schaffen quasi-identische Optik
Die gibt es: AA/AF auschalten. Thema beendet.
Nun bitte endlich zurück zum Thema.
MadManniMan
2009-05-06, 14:24:46
Die gibt es: AA/AF auschalten. Thema beendet.
Nichma dann.
Das ist ja das Perfide! AA und AF werden eben nur draufgesetzt - schön, dass sich da beide nicht wirklich was schenken, aber ATi unterfiltert generell ein bisschen.
Nichtmal dann.
Das ist ja das Perfide! AA und AF werden eben nur draufgesetzt - schön, dass sich da beide nicht wirklich was schenken, aber ATi unterfiltert generell ein bisschen.
Nicht mal dann heisst es korrekt geschrieben.
Ferner bist Du nach wie vor weit weg vom Thema.
y33H@
2009-05-06, 14:32:28
Und da NV default auch nur Q liefert, sind beide IHVs also gleich [...] jedem Falle sind sie vergleichbarAI def flimmert mehr als Q. Ergo nicht vergleichbar, aber es bleibt den Reviewern nichts anderes übrig. AMD erhält somit einen dezenten Fps-Boost auf Kosten der Optik und spart sich zugleich TMUs, deren Transis man in die ALUs pumpt. Finde ich irgendwie unfair.Aber lassen wir doch bitte FSAA hier ein wenig aus dem Spiel - da ist jeder IHV dem anderen irgendwie überlegen und dann ists wirklich GeschmackssacheNein. Objektiv betrachtet bietet 24x ED die beste Geometrie-Glättung, gegen die xS-Modi aber kommt nichts ab. Und AAA auf EATM-Basis verfälscht den Content indem es ihn "aufbläst". Das ist halt einfach so.
Das Dumme an der Vorgehensweise von ATI ist imho das Problem das gerade bei aktuellen Konsolenports genügend FPS vorhanden sind. Bei nVidia habe ich nun die Option diese in mehr BQ umzumünzen. Sei es nun ssaa, hqaf oder gar ssao. Mit der nächsten gen von ATI wird sich dieser Umstand noch verschärfen. Das ist auch der Grund wieso ich 8800gt -> 4770 als sidegrade ansehe. Beim Spielen älterer Spiele (Siehe "Es gibt keine guten Spiele mehr" Vertreter) wäre es sogar ein downgrade.
Wie kann etwas OT sein, das zu den elementaren Aufgaben einer Grafikkarte gehört? Bilder ausgeben soll sie. Und zwar nicht nur schnell, sondern auch schön. Wobei das Gemecker zum Filter eher in den HD-4890-Thread gehört, denn die hätte genug Leistung für mehr BQ.
MfG,
Raff
Banshee18
2009-05-06, 17:47:50
Und AAA auf EATM-Basis verfälscht den Content indem es ihn "aufbläst". Das ist halt einfach so.
Es sieht aber oftmals sehr gut aus und kostet nicht viel Performance. Ich würde mir das auch bei nV wünschen, denn TSAA ist imho meistens kaum brauchbar.
Daredevil
2009-05-06, 17:56:40
Unschärfe verfälscht auch das Bild, aber ist in den meisten Fällen "schöner" als Flimmern.
y33H@
2009-05-06, 18:20:19
@ Banshee18
TMSAA statt TSSAA?
@ Daredevil
Findest du Wide-Tent "schön"?
Aquaschaf
2009-05-06, 18:23:31
Wobei das Gemecker zum Filter eher in den HD-4890-Thread gehört, denn die hätte genug Leistung für mehr BQ.
Hätte die 4770 ja auch. Denn die Filterung stört unter anderem besonders bei älteren Spielen bei denen es mitunter noch überhaupt keine Shadereffekte gibt.
Daredevil
2009-05-06, 18:24:00
Ich habe nicht gesagt das ich es in allen Fällen schön finde.
Ich finde es ist macht Sinn wenn weit entferne Dinge flackern und man sie somit leicht entschärfen kann ( Im wahrsten Sinne des Wortes ).
Das bessere Kantenglättung sinnvoller ist sollte wohl klar sein, die kostet wahrscheinlich dann auch mehr. ( Nicht das man mir gleich unterstellt ich sei ein Fanboy :ugly: )
Banshee18
2009-05-06, 18:25:05
@ Banshee18TMSAA statt TSSAA?
Neeeeeeiiiiiiiiin, natürlich nicht. :smile: Alles, wie bisher, nur halt bessere Qualität beim TMSAA.
reunion
2009-05-06, 18:34:03
@ Daredevil
Findest du Wide-Tent "schön"?
Wide-Tent ist vielleicht etwas viel, Narrow-Tent kann aber durchaus für ein deutlich besseres Bild sorgen. Dazu gab es aber schon sehr viele Diskussionen.
Ne, definitiv nicht. Es gab zwar zum Start des G70 einige Treiberversionen wo es noch schlechter war, aber selbst bei den anderen war Q stark grießelnd und HQ gerademal auf AI_low-Niveau mit Winkelabhängigkeit. Ob es heute besser ist weiß ich nicht, müsste man genauer untersuchen.
Wäre das aktuelle Grieseln bei Amd so "stark" wie bei G70 auf HQ mit beispielsweise der Treiberversion 91.47 WHQL, würde man heute keine hitzigen Diskussion über die minderwertige Filterung führen. ;)
N0Thing
2009-05-06, 19:04:31
Wie kann etwas OT sein, das zu den elementaren Aufgaben einer Grafikkarte gehört? Bilder ausgeben soll sie. Und zwar nicht nur schnell, sondern auch schön. Wobei das Gemecker zum Filter eher in den HD-4890-Thread gehört, denn die hätte genug Leistung für mehr BQ.
Noch besser wäre das Thema in einem eigenen Thread aufgehoben, sonst dreht sich jede Diskussion über eine ATI-Karte irgendwann nur noch um die Filterqualität und alles andere tritt in den Hintergrund, sieht man hier ja ganz gut.
Ändern wird ATI bei der 4770 ebenso wie bei der 48900 sowieso nichts mehr und eine generelle Diskussion und ein genereller Meinungsaustausch (-verkündung) über die Filterqualität könnte dafür sorgen, daß man in den Threads zu einzelnen Produkten auch über diese diskutiert werden kann.
Bei Bedarf kann dann auf den Filterqualitätthread verlinkt werden und alle können ihren Spaß haben. :wink:
Jake Dunn
2009-05-06, 19:37:04
Wieso, der Kunde soll ja keinen Müll kaufen und gut informiert sein.
Das Forum ist sowieso zu klein um da was zu ändern (was keinem auffällt) :P
Wie kann etwas OT sein, das zu den elementaren Aufgaben einer Grafikkarte gehört? Bilder ausgeben soll sie. Und zwar nicht nur schnell, sondern auch schön. Wobei das Gemecker zum Filter eher in den HD-4890-Thread gehört, denn die hätte genug Leistung für mehr BQ.
MfG,
Raff
Oh, willst du die Welt verbessern oder was? :| Kümmer Dich doch um den Hunger in der 3ten Welt :rolleyes:
Mal ehrlich die Leute die hier nur motzen, würden sich doch lieber ihre Eier mit einer Angelschnur abtrennen bevor sie ATI kaufen.
y33H@
2009-05-06, 19:41:13
Die Leute, die hier motzen, hatten einst eine Radeon. Eine X1900XT in meinem Fall. Die hat mit AI-off deutlich besser gefiltert als jede GF7 und ist heute noch ne ganz passable Low-End-Karte. Gerade deswegen ists schade, dass AMD die Filterspartour fährt. Nicht nur die BQ ist schlechter, die ganze Architektur die da hinten dran hängt, ist darauf getrimmt. Das ärgert mich einfach.
LovesuckZ
2009-05-06, 19:43:30
Mal ehrlich die Leute die hier nur motzen, würden sich doch lieber ihre Eier mit einer Angelschnur abtrennen bevor sie ATI kaufen.
Dann ist dieses Forum falsch für dich. Schonmal überlegt in ein Forum zugehen, indem man auf solch einem Niveau über BQ redet? :rolleyes:
Das Forum ist sowieso zu klein um da was zu ändern (was keinem auffällt) :P
Oh, willst du die Welt verbessern oder was? :| Kümmer Dich doch um den Hunger in der 3ten Welt :rolleyes:
Mal ehrlich die Leute die hier nur motzen, würden sich doch lieber ihre Eier mit einer Angelschnur abtrennen bevor sie ATI kaufen.
Äußerst hochwertige Aussage, weiter so. Oder besser: Bestell dir eine GeForce, stell den Treiber auf HQ und lauf dann mal mit geöffneten, bunt (Gegensatz von "einfarbig") sehenden Augen durch all deine Spiele. Alles ist ruhiger, flimmerfreier, besser. Niemand würde Schaden nehmen, gäbe es diese Option (inoffiziell) auch bei Ati.
Ich hatte selbst 1,5 Jahre eine X1800 XT (PE)/512, weil das eine tolle Karte war. Der Gag: Ich kaufte sie damals wegen des "Area"-AFs. Und mit A.I. Off war die BQ in der Tat grandios. Doch die ist Geschichte ...
MfG,
Raff
Jake Dunn
2009-05-06, 20:00:19
Äußerst hochwertige Aussage, weiter so. Oder besser: Bestell dir eine GeForce, stell den Treiber auf HQ und lauf dann mal mit geöffneten, bunt (Gegensatz von "einfarbig") sehenden Augen durch all deine Spiele . Alles ist ruhiger, flimmerfreier, besser. Niemand würde Schaden nehmen, gäbe es diese Option (inoffiziell) auch bei Ati.
Ich hatte selbst 1,5 Jahre eine X1800 XT (PE)/512, weil das eine tolle Karte war. Der Gag: Ich kaufte sie damals wegen des "Area"-AFs. Und mit A.I. Off war die BQ in der Tat grandios. Doch die ist Geschichte ...
MfG,
Raff
Die kennst du nicht und die Settings auch nicht ;) und nimm mein Post nicht persönlich :) (warst nicht nur Du gemeint)
BTT :D
...ändern des SPeichertaktes (egal ob niedriger/höher) zu einen weißen Bildschirm, ohne Vertikal Streifen mit Absturz des Rechners.
Gruß
Christian
Hmm das hab ich noch nicht gelesen :| bei zu hohem Mem. Takt kommt ein Schachbrett meistens, aber untertakten sollte eigentlich bis zu einem bestimmten Punkt( 200mhz) ohne Probleme gehen
Hätte die 4770 ja auch. Denn die Filterung stört unter anderem besonders bei älteren Spielen bei denen es mitunter noch überhaupt keine Shadereffekte gibt.
Nein, das ALU:TEX Verhältniss der 4770 ist bedeutend schlechter als bei der 4890.
Wie kann etwas OT sein, das zu den elementaren Aufgaben einer Grafikkarte gehört? Bilder ausgeben soll sie. Und zwar nicht nur schnell, sondern auch schön. Wobei das Gemecker zum Filter eher in den HD-4890-Thread gehört, denn die hätte genug Leistung für mehr BQ.
MfG,
Raff
Aber bei der Logik machst Du den gleichen Tausch, den ATI auch vornimmt. Entweder muss jede Graka, unabhängig ihrer Leistung, die volle BQ liefern können oder der Tausch BQ gegen Leistung ist für alle legitim.
MadManniMan
2009-05-06, 21:07:20
Nein, das ALU:TEX Verhältniss der 4770 ist bedeutend schlechter als bei der 4890.
Wie meinen? (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/2/#abschnitt_technische_daten)
y33H@
2009-05-06, 21:08:56
BQ sollte generell nicht geopfert werden. Wer auf Kosten der BQ mehr Fps will, kann diese gerne senken. Dies sollte aber die Ausnahme und nicht die Regel sein.
Sorkalm
2009-05-06, 21:20:06
BQ sollte generell nicht geopfert werden. Wer auf Kosten der BQ mehr Fps will, kann diese gerne senken. Dies sollte aber die Ausnahme und nicht die Regel sein.
Tja, nur wiegesagt, der Grenznutzen der höheren Bildqualität fällt eben immer weiter ab, auch wenn er positiv bleibt. Und irgendwann überwiegt dann eben für die meisten Nutzer der Vorteil der entsprechenden Leistung. Es ist nunmal eine kleine Minderheit, die sich für dann noch höhere Bildqualität interessiert. Diese ist hier aber im besonderen versammelt, trotzdem sollte man von den eigenen Ansprüchen nicht auf die Allgemeinheit schließen. ;)
y33H@
2009-05-06, 21:27:04
Naja, HQ mit deaktivierten Optis 10% gegenüber Q. Das ist lächerlich wenig angesichts des Optikunterschiedes wenn du mich fragst. Es ist nunmal eine kleine Minderheit, die sich für dann noch höhere Bildqualität interessiert.Paradox: Jeder schreit nach besserer Optik im Sinne von noch mehr HDR, SSAO, POM oder DoF - aber beim FSAA oder AF gibt sich die Mehrheit mit banalem MSAA und Flimmer-AF zufrieden
Popeljoe
2009-05-06, 22:57:31
Selbst wenn das stimmen würde: es gibt viele alte Spiele bei denen das vollkommen egal ist weil trotzdem viel mehr Leistung da ist als notwendig. Aber die sehen mit Filteroptimierungen leider hin und wieder sehr bescheiden aus.
Wenn sie denn nicht daurnd abstürzen würden...
Meine 4830 ist die erste ATI Karte seit 8500LE Zeiten, die ich echt verfluche, weil zum ersten Mal seit Win 98SE Zeiten wieder Abstürze mit kompletten Neustarts erlebe.
Was hab ich von einer tollen BQ wenn mir die Kiste dauernd absemmelt?!
Mr. Lolman
2009-05-07, 08:29:26
BTW so wurde 3DfX geleimt , Nun ATI
Nur, dass damals die BQ unwichtig war, und den NV-Jüngern die Balken bei 3dfx nicht lang genug waren. Jetzt passt Preis und Performance, dafür ist die BQ nicht gut genug.
Also sobald die Konkurrenz nicht in allen (!) Belangen mindestens gleich ist wie NV, ist sie schlechter. Und selbst wenn mal ATi eindeutig überlegen ist, wird NV in den Himmel gehyped. War beim G70 auch so (man lese sich mal die damaligen Threads durch). Das superschwellige NV-Logo bei div. Spielen hinterlässt anscheinend doch einen bleibenden Eindruck ;)
MadManniMan
2009-05-07, 08:50:32
Nur, dass damals die BQ unwichtig war, und den NV-Jüngern die Balken bei 3dfx nicht lang genug waren. Jetzt passt Preis und Performance, dafür ist die BQ nicht gut genug.
Also sobald die Konkurrenz nicht in allen (!) Belangen mindestens gleich ist wie NV, ist sie schlechter. Und selbst wenn mal ATi eindeutig überlegen ist, wird NV in den Himmel gehyped. War beim G70 auch so (man lese sich mal die damaligen Threads durch). Das superschwellige NV-Logo bei div. Spielen hinterlässt anscheinend doch einen bleibenden Eindruck ;)
Mein Gott entwächst Du denn nie Deinen Kinderschuhen? Ich werd Zeitlebens Voodoo- und Kyro-Anhänger bleiben und stehe zu meiner subjektiv und völlig falschen Verklärung auf die Dinge, aber hier geht es nicht um ATi vs. nVidia sondern BQ vs. Kompromiss.
Warum ist es auf einmal falsch, hier den Zeigefinger zu erheben, nur weil es ATi ist?
Mr. Lolman
2009-05-07, 09:14:45
Mein Gott entwächst Du denn nie Deinen Kinderschuhen? Ich werd Zeitlebens Voodoo- und Kyro-Anhänger bleiben und stehe zu meiner subjektiv und völlig falschen Verklärung auf die Dinge, aber hier geht es nicht um ATi vs. nVidia sondern BQ vs. Kompromiss.
Warum ist es auf einmal falsch, hier den Zeigefinger zu erheben, nur weil es ATi ist?
Entwüchse ich etwa den Kinderschuhen, wenn ich einfach ignorieren würde, dass 3dfx damals aus genau den konträren Gründen, wie heutzutage ATi, von der Presse Schelte einstecken musste?
Insgesamt kommts einem dann nämlich so vor, als würde man es nur genau dann richtig machen, wenn mans genauso macht wie NV - was zwar auf dem 1. Blick den Grund haben könnte, dass NV einfach alles richtig macht, aber auf den 2. Blick (zB in Anbetracht des G70), das einfach nicht stimmt!
EDIT: Insgesamt ists natürlich nicht falsch, den Zeigefinger zu erheben. Ich bin nur etwas vorbelastet, weil ich schon soviel Scheiss seitens der HW-Presse lesen musste, dass es mich nur momentan verwundert, dass gernmal eine Don Quijote Haltung an den Tag gelegt wird um böses ATi vom schwarzen Weg abzubringen. Denn wielang hab ich damals interveniert, damit die völlig verfälschten Reviewsettings mal näher betrachtet werden. Und jetzt? Jetzt ist die default-BQ ca. vergleichbar - d.H. die Benchmarks dementsprechend auch - und trotzdem liest man immer wieder, dass bei ATi die BQ schlecht sei. Klar ging das AF auch besser. Mit dem Effekt, dass ATis Architektur, wo schon seit längerem auf vlgw. hohe Shaderleistung Wert gelegt wird, bei div. Spielen bös einbrechen würde.
Bei Just Cause hab ich bspw. am R580 mit 16xAF und AIoff 16fps gehabt, mit 8xAF und AIlow warens 30fps. Und selbst wenn ATi sich dazu bewegen würde, einen Registry Key anzubieten, würden manche HW-Seiten sicher kein Problem damit haben, beide IHVs mit max. Qualität durchzubenchen, mit dem Effekt, dass ATis (architekturbedingt) total abkacken würden, was sich nicht gut fürs Marketing machen würd. Zwar kann ich den Wunsch nach bessere BQ zwar verstehen (ich hätt auch gern eine solche Option), aber nicht das ewige Gemeckere wegen schlechter BQ. V.a. wenn die tw. von den gleichen Leuten kommt, die Zu NV35 Zeiten noch gemeint haben, dass 4xMSAA der ATis zu comichaft aussieht und dass deswegen das 2xMSAA der NV-Karten vollkommen ausreichend ist. ;)
MadManniMan
2009-05-07, 09:22:26
Entwüchse ich etwa den Kinderschuhen, wenn ich einfach ignorieren würde, dass 3dfx damals aus genau den konträren Gründen, wie heutzutage ATi, von der Presse Schelte einstecken musste?
IMHO gehst Du mit viel zu viel Leidenschaft für die IHVs, nicht für die Sache, an die Thematik heran.
Außerdem ist 3Dfx inzwischen ganze achteinhalb Jahre nicht mehr existent (ich erinnere mich an die Schlagzeile, als wäre es gestern ;( ) - und die Berichterstattung über Grafikkarten sah damals noch ganz anders aus.
Was gabs denn, außer Q3A und dem Murks? Aber das ist eine ganz andere Geschichte.
Insgesamt kommts einem dann nämlich so vor, als würde man es nur genau dann richtig machen, wenn mans genauso macht wie NV - was zwar auf dem 1. Blick den Grund haben könnte, dass NV einfach alles richtig macht, aber auf den 2. Blick (zB in Anbetracht des G70), das einfach nicht stimmt!
Du weißt doch ganz genau, dass Du damit mir und 90% derer, die meiner Meinung sind, einen Vorwurf machst, der so einfach nicht stimmt. Mir ists doch sowas von scheißegal, ob da jetzt nV, ATi, S3 oder Trident oder Whatever draufsteht.
Wir beschäftigen uns nun wirklich lange genug mit der Materie, um uns zumindest um Objektivität zu bemühen zu können.
Dass Du das weißt, weiß ich. Aber das Du das nicht willst, merke ich auch ;)
Entwüchse ich etwa den Kinderschuhen, wenn ich einfach ignorieren würde, dass 3dfx damals aus genau den konträren Gründen, wie heutzutage ATi, von der Presse Schelte einstecken musste?
Ich erinnere mich daran, dass 3dfx damals wegen unsichtbarer Dinge an den Pranger gestellt wurde. Kein 32 Bit im Jahr 1998/99 – oh mein Gott! Kein T&L im Jahr 1999/2000 – zu Hülf! Diese damals unfassbar unverzichtbaren Unsinnigkeiten wurden als Killerfeatures verkauft, während das immer nutzbare und mit jedem Jahr sinnvollere Mörder-AA kleingeredet wurde.
Wo ist da der Vergleich mit Ati? Direct3D10.1, fast genauso "sinnvoll" wie T&L und 32 Becks, wird ständig als Pro-Argument verwendet. Ich halte es nicht für einen kleinen Fauxpas, wenn eine Grafikkarte unfähig ist, eine bessere Texturqualität zu zaubern als Exemplare von 2001.
MfG,
Raff
Ich erinnere mich daran, dass 3dfx damals wegen unsichtbarer Dinge an den Pranger gestellt wurde. Kein 32 Bit im Jahr 1998/99 – oh mein Gott! Kein T&L im Jahr 1999/2000 – zu Hülf! Diese damals unfassbar unverzichtbaren Unsinnigkeiten wurden als Killerfeatures verkauft, während das immer nutzbare und mit jedem Jahr sinnvollere Mörder-AA kleingeredet wurde.
Wo wir gerade bei kleinreden sind, warum erwähnst du das einwandfreie trilineare 2xAF der Geforce ebensowenig wie die Fähigkeit zu Dot3 Bumpmapping?
Auf AA konnte man damals gut verziechten, weil die Leistung dafür in hohen Auflösungen noch nicht da war, also hat man in hohen Auflösungen auf AA ohnehin verzichten müssen.
Lies erstmal unser V5-6000-Review. Die V5 ist übrigens nur eine Karte, die größtenteils zu Unrecht geflamed wurde.
Jetzt sind wir schon wieder im Jahr 2000, argh. Bitte zurück zum Thema.
MfG,
Raff
Mr. Lolman
2009-05-07, 09:56:25
Wir beschäftigen uns nun wirklich lange genug mit der Materie, um uns zumindest um Objektivität zu bemühen zu können.
Dass Du das weißt, weiß ich. Aber das Du das nicht willst, merke ich auch ;)
Trotzdem gelingts anscheinend nicht immer. Denn ob der RV740 als 80€ Karte nicht die Möglichkeit für perfekte Filterung bietet, sondern nur eine 'optimierte' Version die zwar viele fps (siehe diesbezüglich auch mein Edit im vorherigen Post) bringt, dafür aber zT. nur suboptimale Qualität - die 99% der potentiellen Käufer garnicht auffällt, weil 90% davon wahrscheinlich nichtmal wissen, was AF ist, ist doch in Anbetracht solcher Umstände eher Jacke, wie Hose, oder?
Ich erinnere mich daran, dass 3dfx damals wegen unsichtbarer Dinge an den Pranger gestellt wurde. Kein 32 Bit im Jahr 1998/99 – oh mein Gott! Kein T&L im Jahr 1999/2000 – zu Hülf! Diese damals unfassbar unverzichtbaren Unsinnigkeiten wurden als Killerfeatures verkauft, während das immer nutzbare und mit jedem Jahr sinnvollere Mörder-AA kleingeredet wurde.
Wo ist da der Vergleich mit Ati? Direct3D10.1, fast genauso "sinnvoll" wie T&L und 32 Becks, wird ständig als Pro-Argument verwendet. Ich halte es nicht für einen kleinen Fauxpas, wenn eine Grafikkarte unfähig ist, eine bessere Texturqualität zu zaubern als Exemplare von 2001.
MfG,
Raff
10.1 ist mir schnurz. Ich fahr immernoch mit 9.0. Und die damals 'unsichtbaren Dinge', für die 3dfx 1999 Schelte kassiert haben, sind ca. so unsichtbar wie die Probleme der default AF-Qualität, beider IHV. In ein paar Szenen fällt manchen Freaks auf, dass ein paar Pixel nicht optimal sind. Außerdem - siehe mein EDIT im vorigen Post.
Kann schon sein, dass ich dem Underdog ab und an ein bisschen zuviel unter die Arme greife, allerdings, weiß ich auch noch gut, wie damals Anno 2000/01, bei NVs Quasimonopol beim Birg in Österreich eine GF2 Ultra umgerechnet ~1000€ gekostet hat...
EDIT: Was ATi aber machen könnte, ist AI insofern zu erweitern, dass ab ~100fps voll gefiltert werden sollte. Dann bleibt man wahrscheinlich immernoch knapp über 60fps, kann auch gleich VSyncen. Die alten Spiele, die solche fps erlauben, würden dementsprechend optimal aussehen und Probleme gäbs auch keine, weil 1. die Spiele schön spielbar bleiben würden, und 2. selbst dem größten Redakteurskoffer auffallen würde, dass die fps durchs VSync limitiert würden. ;)
Viel lieber wär mir ehrlich gesagt aber aber die Option zu treibergesteuertem Downscaling. Damit würde der AF-Pfusch auch geglättet, der Programmieraufwand dafür sehr gering und jeder hätte die Option zur bestmöglichen BQ.
Aquaschaf
2009-05-07, 10:36:02
Treibergesteuertes Downsampling um Textur-Unterfilterung zu bekämpfen. Viel ineffizienter geht es nicht mehr :uup:
MadManniMan
2009-05-07, 10:38:38
Trotzdem gelingts anscheinend nicht immer. Denn ob den RV740 als 80€ Karte nicht die Möglichkeit für perfekte Filterung bietet, sondern nur eine 'optimierte' Version die zwar viele fps (siehe diesbezüglich auch mein Edit im vorherigen Post) bringt, dafür aber zT, nur suboptimale Qualität - die 99% der potentiellen Käufer garnicht auffällt, weil 90% davon wahrscheinlich nichtmal wissen, was AF ist, ist doch in Anbetracht solcher Umstände eher Jacke, wie Hose, oder?
Eben nicht, denn dann haben wir zwei Probleme:
1) Trennung von High-End und den anderen Bereichen nicht nur über Performance - wo soll das nur hinführen? Und was, wenn High-End auf einmal günstig ist?
2) Balkenmentalität: "Die 4770 ist schneller als die 9800 GT, also darf sie auch teurer sein"-Bla-Fasel. So lange Geschwindigkeit nur mit FPS und nicht als FPS+QPF geshen wird, sind solche Aussagen einfach nur scheiße.
Viel lieber wär mir ehrlich gesagt aber aber die Option zu treibergesteuertem Downscaling. Damit würde der AF-Pfusch auch geglättet, der Programmieraufwand dafür sehr gering und jeder hätte die Option zur bestmöglichen BQ.
Au ja toll. Statt 10% in vernünftige Filterung zu investieren verbraten wir 100e Prozent in schlechtes Supersampling :ugly2:
reunion
2009-05-07, 10:54:27
Treibergesteuertes Downsampling um Textur-Unterfilterung zu bekämpfen. Viel ineffizienter geht es nicht mehr :uup:
Nichts anderes macht SSAA und wird speziell von den NV-Jüngern in den Himmel gelobt.
Aquaschaf
2009-05-07, 10:56:23
Nichts anderes macht SSAA und wird speziell von den NV-Jüngern in den Himmel gelobt.
Hast du schon mal von jemanden gelesen, dass er SSAA anschaltet aber die Texturfilterung auf "Q" stehen läßt?
Nichts anderes macht SSAA und wird speziell von den NV-Jüngern in den Himmel gelobt.
Nicht von den "NV-Jüngern", sondern von denen, die Qualität wollen. Das ist ein Unterschied.
Hast du schon mal von jemanden gelesen, dass er SSAA anschaltet aber die Texturfilterung auf "Q" stehen läßt?
Ich hab' das schon gemacht. ;D Gegen Ende der Nutzung meiner 8800 GTX, weil da auch 10% mehr Fps fein sind. Denn Q + 4x SSAA schaut idR besser aus als HQ.
MfG,
Raff
Triskaine
2009-05-07, 11:24:28
Ja ein paar Vergleichvideos wären sehr illustrativ, denn im Moment kann ich mir unter diesem "Flimmern" absolut nichts vorstellen. Bevor mir jemand Blindheit unterstellt, die Bildverbesserischen Wirkungen von AF und AA sind mir bekannt und ich erkenne diese auch, aber was hat es mit diesem Flimmern auf sich? Der Begriff wird hier häufig benutzt aber kann mir mal jemand sagen was das nun konkret ist?
Mr. Lolman
2009-05-07, 11:40:15
Eben nicht, denn dann haben wir zwei Probleme:
1) Trennung von High-End und den anderen Bereichen nicht nur über Performance - wo soll das nur hinführen? Und was, wenn High-End auf einmal günstig ist?
2) Balkenmentalität: "Die 4770 ist schneller als die 9800 GT, also darf sie auch teurer sein"-Bla-Fasel. So lange Geschwindigkeit nur mit FPS und nicht als FPS+QPF geshen wird, sind solche Aussagen einfach nur scheiße.
OK. ist ein Argument. Andererseits: Bei den Tests mit default-Einstellungen ist die BQ ja eh vergleichbar. Wenn da die 4770 schneller als die 9800GT ist, darf sie auch wirklich mehr kosten, oder etwa nicht?
Au ja toll. Statt 10% in vernünftige Filterung zu investieren verbraten wir 100e Prozent in schlechtes Supersampling :ugly2:
Umgekehrt. Von höheren Auflösungen runterskalieren bringt je nach Downfilter sogar sehr gute Qualität, mit dem Effekt, dass auch Spiele ohne AA Support eine Glättung bekämen, dass vom Textufilter zT unabhängige Flimmershader weniger flimmern würden, und dass alles bei tragbarer Performance. Spricht ja nix dagegen, bspw. 1920x1080 auf 1280x720 runterzuskalieren. (so wies aktuell mein Beamer bei div. Spielen macht). Beim besseren AF higegen würden 'nur' die Texturen besser sein. Div. stressige Alphatest, Shader oder AA-lose Spiele würden munter weiter flimmern. Außerdem kostete, wie oben schon geschrieben, schon am R580 bei Justcause der Switch von 8xAF AIlow auf 16xAF AIoff ~50% (100e Prozent geht nicht, weil die fps sonst negativ wären :ulol: *korinthenkack*)
Treibergesteuertes Downsampling um Textur-Unterfilterung zu bekämpfen. Viel ineffizienter geht es nicht mehr :uup:
Und Shaderflimmern und Kantenflimmern von Spielen ohne AA-Support nicht zu vergessen. Außerdem könnte man das Downsampling auch zusätzlich mit (ED-)(A)AA kombinieren.
Nichts anderes macht SSAA und wird speziell von den NV-Jüngern in den Himmel gelobt.
Genau. Wobei man dabei auf fixe Vielfache von der Ursprungsauflösung beschränkt ist, und tw. auch mit Kompatibilitätsproblemen zu kämpfen hat. Downsampling würde immer funktionieren und man könnte auch 'krumme' Auflösungen kombinieren. An dieser Stelle soll sich nun jeder mit etwaigen BQ Einwänden von der Diskussion raushalten, solang er noch nie bspw. GTA4 mit Downsampling gesehen hat. (Am Beamer mit 1920->1280 ist die Grafik ein Traum :biggrin: )
Der Begriff wird hier häufig benutzt aber kann mir mal jemand sagen was das nun konkret ist?
Damit ist eine gewisse Texturunruhe bei bewegten Szenen gemeint...
Nchon gemacht. ;D Gegen Ende der Nutzung meiner 8800 GTX, weil da auch 10% mehr Fps fein sind. Denn Q + 4x SSAA schaut idR besser aus als HQ.
MfG,
Raff
Ich genauso. War mit der 6800GT tw. der einzige Weg neuere Spiele mit 8xS geniessen zu können. Und da nimmt man wirklich jedes Frame gerne mit (zumindest damals warens auch noch tw. deutlich mehr als 10%)
Außerdem schaut Q+4xSSAA nicht nur idR, sondern immer besser aus als HQ. Bei 2xSSAA ists dann halt von der jew. Achse abhängig. Aber selbst da waren die Texturen idR insgesamt schöner...
mboeller
2009-05-07, 12:20:57
Damit ist eine gewisse Texturunruhe bei bewegten Szenen gemeint...
Wobbling or crawling? ;)
Außerdem schaut Q+4xSSAA nicht nur idR, sondern immer besser aus als HQ. Bei 2xSSAA ists dann halt von der jew. Achse abhängig. Aber selbst da waren die Texturen idR insgesamt schöner...
Yabb – ich meinte damit die Fälle, wo SSAA Unschärfe induziert. :)
Wobbling or crawling? ;)
Shimmering. ;)
MfG,
Raff
Frank1974
2009-05-07, 21:09:10
Nicht von den "NV-Jüngern", sondern von denen, die Qualität wollen. Das ist ein Unterschied.
Ich hab' das schon gemacht. ;D Gegen Ende der Nutzung meiner 8800 GTX, weil da auch 10% mehr Fps fein sind. Denn Q + 4x SSAA schaut idR besser aus als HQ.
MfG,
Raff
Ich weiß nicht wo immer die 10% her kommen sollen, ich habe mit meiner GTX280 und GTX295 schon so viele Tests gemacht, selbst bei 1xAF vs 16xAF bringt bei mir selten mehr als 10%.
mfg
Frank
Nicht von den "NV-Jüngern", sondern von denen, die Qualität wollen. Das ist ein Unterschied.MfG,
Raff
Du meinst NV-Qualität. :biggrin:
Beide IHVs haben ihre Vor- und Nachteile und beide sind mit den default Settings völlig vergleichbar. Der Rest sind Optionen, die bei der Beurteilung unberücksichtig bleiben sollten.
Ich würde mir wünschen, dass die BQ-Lüge nicht weiter in der Presse verbreitet wird. die BQ von ATI ist völlig hinreichend.
MadManniMan
2009-05-08, 09:56:04
Beide IHVs haben ihre Vor- und Nachteile und beide sind mit den default Settings völlig vergleichbar. Der Rest sind Optionen, die bei der Beurteilung unberücksichtig bleiben sollten.
Nur, weil die IHVs uns was vorkauen, müssen wir uns dem Scheiß ja nicht beugen!
Ich würde mir wünschen, dass die BQ-Lüge nicht weiter in der Presse verbreitet wird. die BQ von ATI ist völlig hinreichend.
Welche "Lüge"? :confused:
Mir sind die extra Optionen völlig egal, lasse seit eh und je die Standardeinstellungen des Treibers (egal ob ATI oder NVIDIA) und stelle nur die Optionen im Spiel ein. Da stellt sich mir die Frage, wenn die Grafikkartenhersteller keine extra Optionen anbieten würden und man nur die Einstellungen eines Spiel hätte, wer ist für die korrekte Umsetzung verantwortlich? Woher will man wissen ob es am Treiber oder am Spiel liegt, gerade im Bezug auf der Bananensoftware heutzutage.
Welche "Lüge"? :confused:
Die Lüge, dass NV eine generell bessere BQ hat.
Denn in den Defaulteinstellungen stimmt dies nicht und die BQ ist vergleichbar.
NV beitet die Option eine bessere Texturfilterung zu bekommen. Immerhin geht das über den Treiber. SSAA darf imho gar nicht berücksichtigt werden, denn dafür sind Tools nötig, die nocht von NV kommen und damit sind es keine offiziellen Modi.
y33H@
2009-05-08, 11:05:52
Q ist bereits besser als AI-def.
Q ist sogar noch besser als A.I off.
Mr. Lolman
2009-05-08, 12:07:59
Q ist sogar besser als NV-default. ;)
Lawmachine79
2009-05-08, 13:54:29
Vor allem weil die wengisten nutzer überhaupt eine Vergleichsmöglichkeit haben und genaus wenige es wirklich merken, wenn sie spielen.
Ich halte den Weg von ATI für richtig, imho muss nur noch AI off entfallen. Ein einfacher treiber mit wenigen Einstellungsmöglichkeiten dürfte bei einer größen Anzahl an Kunden mehr geschätzt werden, als die vielen Optionen bei NV.
Die Konfigurierbarkeit ist der wesentliche Vorteil eines PC gegenüber einer Konsole. Wieso soll ich mir für 1000€ einen PC zusammenstellen, bei dem die gleichen Möglichkeiten habe, wie bei einer 300€ Konsole? Ich zahle den Aufpreis gerne, weil ich jedes Spiel milimetergenau an die Grenze ranführen möchte, wo es noch flüssig läuft. Und dafür will ich jede Funktion beeinflussen können. Gegen Deine Idee spricht ja nix, einfach nach der Treiberinstallation fragen, ob man einen einfachen oder einen erweiterten Modus will (macht ATI ja auch, gut so), aber wenn ich dann "Erweitert" wähle, kann es nicht sein, daß ich dennoch bevormundet werde.
Die Lüge, dass NV eine generell bessere BQ hat.
Denn in den Defaulteinstellungen stimmt dies nicht und die BQ ist vergleichbar.
NV beitet die Option eine bessere Texturfilterung zu bekommen. Immerhin geht das über den Treiber. SSAA darf imho gar nicht berücksichtigt werden, denn dafür sind Tools nötig, die nocht von NV kommen und damit sind es keine offiziellen Modi.
Natürlich darf SSAA berücksichtigt werden. Wir reden hier von 200€ Grafikkarten, nicht von einer 40€ Grafikkarte. Kann ich aus dem Produkt die maximale BQ rausholen? Und die Antwort ist bei NV: Ja, kann ich. Bei ATI: ich weiß nicht ob ich es kann. Es fehlt die Transparenz. Ich weiß nicht, wie die Alphas geglättet werden, ich kann nicht beeinflußen, wie gefiltert wird. Und das akzeptiere ich bei einer 40€ Karte, aber nicht bei einer 200€ Karte. Ich kauf mir doch auch kein Auto für 20.000€, mit Mittelarmlehne, daß mir dann vorschreibt, ob ich mit Mittelarmlehne oder ohne fahre.
Die Lüge, dass NV eine generell bessere BQ hat.
Jaaaa, alle Reviews lügen.
Wobei ich fairerweise sagen muss: ich fand die BQ meiner 4850 gut. Hat mich überzeugt. Aber das Tüpfelchen auf dem i, das hat mir die 88GTS512 gebracht.
Entwüchse ich etwa den Kinderschuhen, wenn ich einfach ignorieren würde, dass 3dfx damals aus genau den konträren Gründen, wie heutzutage ATi, von der Presse Schelte einstecken musste?
Insgesamt kommts einem dann nämlich so vor, als würde man es nur genau dann richtig machen, wenn mans genauso macht wie NV - was zwar auf dem 1. Blick den Grund haben könnte, dass NV einfach alles richtig macht, aber auf den 2. Blick (zB in Anbetracht des G70), das einfach nicht stimmt!
Völlig falsch, AMD bekommt keine Schelte.
Zeig mir doch mal bitte die zahlreichen Filterartikel oder die 2 Links zu 3DC Artikeln bei geizhals.
Mit dem Effekt, dass ATis Architektur, wo schon seit längerem auf vlgw. hohe Shaderleistung Wert gelegt wird, bei div. Spielen bös einbrechen würde.
Verstehe, weil AMD Transitoren gespart hat, darf man so nicht testen.
Erinnert mich an Nvidias 8xAA, das darf getestet werden.
Die Lüge, dass NV eine generell bessere BQ hat.
Denn in den Defaulteinstellungen stimmt dies nicht und die BQ ist vergleichbar. TSSAA ist auch kein Stück besser als AAA auf MSAA Basis, gelle?
Ich würde nur noch gerne stehen, wo dies in der Presse breitgetreten wird.
Gamestar hat/hatte den HDs seit Ewigkeiten einen "perfekten anisotropen Filter" atestiert, besser als der der Konkurrenz.
So muss das sein.
SSAA darf imho gar nicht berücksichtigt werden, denn dafür sind Tools nötig, die nocht von NV kommen und damit sind es keine offiziellen Modi.Wenns um Stromverbrauch ist wieder alles recht, auch Bios Flashs, damit AMD besser steht?
Was muss passieren, damit Du Deine Balkenmentalität ablegst? Muss die nächste Grisselfilterei wieder von nV kommen? :|
Das Wort der Wahl ist hier grieseln. Grisseln ist ein typisches Forenunwort, wie etwa auch tuen, vieleicht, ebend usw. usf.
Denn in den Defaulteinstellungen stimmt dies nicht und die BQ ist vergleichbar.
Doch auch dort stimmt dies.
Q ist sogar besser als NV-default. ;)
Bitte? Nein, es ist keine Sampleoptimierung aktiviert per default.
Botcruscher
2009-05-08, 14:54:24
[x] animierte Gifs machen
Ich seh da in Bewegung keinen Unterschied. Entweder ist der Ergebnis ausreichend oder es flimmert bei beiden Herstellern. Imo ist es dank Shadernflimmern sogar noch schlechter als früher. Crysis und einige ander Extremkanidaten hat bis jetzt noch keiner ordentlich hinbekommen.
[x] animierte Gifs machen
Ich seh da in Bewegung keinen Unterschied. Entweder ist der Ergebnis ausreichend oder es flimmert bei beiden Herstellern. Imo ist es dank Shadernflimmern sogar noch schlechter als früher. Crysis und einige ander Extremkanidaten hat bis jetzt noch keiner ordentlich hinbekommen.
Crysis Warhead schaut mit HQ-AF sehr gut und plus 8xSQ sogar formidabel aus (und ist so zumindest in 1280x800 gut spielbar ;D).
MfG,
Raff
Bitte? Nein, es ist keine Sampleoptimierung aktiviert per default.
per default ist die "Trilineare Optimierung" aktiv
Klingone mit Klampfe
2009-05-08, 15:32:58
Kleine Frage zu nVidia:
Wie verhält es sich bei "Q ohne Optimierungen" vs. "HQ ohne Optimierungen"? Was genau macht HQ in dieser Konstellation (noch) hübscher, bzw. welche Optimierungen außer den beiden frei im CP wählbaren gibt es intern?
es gibt noch "Anisotrope Mip-Filter Optimierung", gilt aber selbst unter Benchern als Cheat
Klingone mit Klampfe
2009-05-08, 15:48:10
Also so?
Texturfilter: Q
anisotrope Abtastoptimierung: aus
trilineare Optmierung: aus
Anisotropische Mip-Filter Optimierung: an (hardcoded)
Texturfilter: HQ
anisotrope Abtastoptimierung: aus
trilineare Optmierung: aus
Anisotropische Mip-Filter Optimierung: aus (hardcoded)
Ich kann mir aber nicht vorstellen, dass nVidia bei "Q" diesen "Cheat" einsetzt :|
MadManniMan
2009-05-08, 15:50:49
Das Wort der Wahl ist hier grieseln. Grisseln ist ein typisches Forenunwort, wie etwa auch tuen, vieleicht, ebend usw. usf.
Danke für den Hinweis!
Und ach: anisotrop, nicht anisotropisch ;)
Ich kann mir aber nicht vorstellen, dass nVidia bei "Q" diesen "Cheat" einsetzt :|
machen sie auch nicht :|
Und ach: anisotrop, nicht anisotropisch ;)
liegt an dem was ich auf Arbeit machen :D
Klingone mit Klampfe
2009-05-08, 15:58:48
machen sie auch nicht :|
Ja nun, wo liegt denn dann der Unterschied, oder sind die beiden Möglichkeiten in Beitrag #107 vollkommen äquivalent zueinander?
Ja nun, wo liegt denn dann der Unterschied, oder sind die beiden Möglichkeiten in Beitrag #107 vollkommen äquivalent zueinander?
ich weiß nicht was du möchtest.
die Anisotrope Mip-Level Optimierung ist per default nie an. Du kannst sie ja auch nicht im CP einschalten.
Per default gibt Q mit trilineare Optimierung. Und Q unterscheidet sich von HQ durch "schlechtere" Texturfilterung.
Klingone mit Klampfe
2009-05-08, 16:08:27
ich weiß nicht was du möchtest.
die Anisotrope Mip-Level Optimierung ist per default nie an. Du kannst sie ja auch nicht im CP einschalten.
Per default gibt Q mit trilineare Optimierung. Und Q unterscheidet sich von HQ durch "schlechtere" Texturfilterung.
Okay, nochmal ganz einfach: Wenn ich Q wähle und die beiden Optimierungen abschalte, habe ich dann dasselbe Ergebnis wie HQ? Falls ja, wieso sollte ich dann noch HQ wählen?
Das Wort der Wahl ist hier grieseln. Grisseln ist ein typisches Forenunwort, wie etwa auch tuen, vieleicht, ebend usw. usf.
Die Konfigurierbarkeit ist der wesentliche Vorteil eines PC gegenüber einer Konsole. Wieso soll ich mir für 1000€ einen PC zusammenstellen, bei dem die gleichen Möglichkeiten habe, wie bei einer 300€ Konsole? Ich zahle den Aufpreis gerne, weil ich jedes Spiel milimetergenau an die Grenze ranführen möchte, wo es noch flüssig läuft. Und dafür will ich jede Funktion beeinflussen können. Gegen Deine Idee spricht ja nix, einfach nach der Treiberinstallation fragen, ob man einen einfachen oder einen erweiterten Modus will (macht ATI ja auch, gut so), aber wenn ich dann "Erweitert" wähle, kann es nicht sein, daß ich dennoch bevormundet werde.
Würde man sagen, dass bei ATI die Grafikeinstellungen weniger gut konfigurierbar sind, hätte ich da keine Probleme mit.
Natürlich darf SSAA berücksichtigt werden. Wir reden hier von 200€ Grafikkarten, nicht von einer 40€ Grafikkarte. Die 4770 kostet 80-90 Euro.
Jaaaa, alle Reviews lügen.
Wobei ich fairerweise sagen muss: ich fand die BQ meiner 4850 gut. Hat mich überzeugt. Aber das Tüpfelchen auf dem i, das hat mir die 88GTS512 gebracht.
Sie lügen nicht sie drückes es falsch aus.
Crysis Warhead schaut mit HQ-AF sehr gut und plus 8xSQ sogar formidabel aus (und ist so zumindest in 1280x800 gut spielbar ;D).
MfG,
Raff
Welches Du noch einmal genau wo im WHQL Treiber aktivierst?
Okay, nochmal ganz einfach: Wenn ich Q wähle und die beiden Optimierungen abschalte, habe ich dann dasselbe Ergebnis wie HQ? Falls ja, wieso sollte ich dann noch HQ wählen?
Q unterscheidet sich von HQ durch "schlechtere" Texturfilterung.
..
Spasstiger
2009-05-08, 16:45:56
[x] animierte Gifs machen
Gif erlaubt nur max. 256 verschiedene Farben, das ist nicht gerade optimal für einen Bildquali-Vergleich.
Sonyfreak
2009-05-08, 16:51:02
Gamestar hat/hatte den HDs seit Ewigkeiten einen "perfekten anisotropen Filter" atestiert, besser als der der Konkurrenz.
So muss das sein.Der Gamestar attestiert den Nvidia-Karten schon seit Monaten eine bessere AF-Qualität als den Konkurrenten ATI HD-Serie. ;)
Die 4770 kostet 80-90 Euro.Auch für eine HD4870 X2 ist die Bildqualität einer Geforce um 50€ unerreichbar. Und genau das ist das Problem.
[x] animierte Gifs machen
Ich seh da in Bewegung keinen Unterschied. Entweder ist der Ergebnis ausreichend oder es flimmert bei beiden Herstellern. Imo ist es dank Shadernflimmern sogar noch schlechter als früher. Crysis und einige ander Extremkanidaten hat bis jetzt noch keiner ordentlich hinbekommen.Es gibt sogar diverse Videos, die das Problem genau aufzeigen. Hier hab ich zb. vor längerer Zeit mal eins gemacht: KLICK (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6187566&postcount=414)
mfg.
Sonyfreak
Welches Du noch einmal genau wo im WHQL Treiber aktivierst?
Das ist das berühmte "Mir fällt kein sinnvolles Gegenargument ein, also rede ich es schlecht". Es ist völlig Wurstsalat, wo die Option zu finden ist, solange ich nur ein Tool installieren muss. EATM bzw. ASBT haben einst auch viele Radeon-Nutzer (darunter ich) via Ati Tray Tools genutzt. Jetzt hat Ati auch das verboten bzw. unter dem vermaleDAUten Bevormundungsmantel A.I. verhüllt.
MfG,
Raff
Klingone mit Klampfe
2009-05-08, 16:55:45
Meine Frage steht immernoch im Raum: Worin unterscheidet sich die Texturfilterung von HQ und Q, wenn die genannten Optimierungen abgeschaltet sind? Die pauschale Antwort, dass Q halt irgendwie trotzdem schlechter ist, befriedigt mich nicht so recht …
Raff, sag' Du doch mal was :usad:
Spasstiger
2009-05-08, 16:59:07
Auch für eine HD4870 X2 ist die Bildqualität einer Geforce um 50€ unerreichbar. Und genau das ist das Problem.
Mit der HD 4870 X2 kannst du auch in 2560x1600 mit 8xMSAA flüssig spielen, wenn man das auf 1280x800 runterskalieren ließe, hätte man so 32xS-AA. Und es gibt keine GeForce, die Spiele in 1280x800 mit 32xS-AA so flüssig darstellt wie eine Radeon HD 4870 X2 in 2560x1600 mit 8xMSAA. Selbst wenn man bei der GeForce nur 8xS-AA und somit eine definitiv deutlich schlechtere Bildqualität ansetzt, wirds schwierig.
per default ist die "Trilineare Optimierung" aktiv
Ja ich weiß. Das ist aber nicht die Sampleoptimierung.
Sonyfreak
2009-05-08, 17:05:44
Mit der HD 4870 X2 kannst du auch in 2560x1600 mit 8xMSAA flüssig spielen, wenn man das auf 1280x800 runterskalieren ließe, hätte man so 32xS-AA. Und es gibt keine GeForce, die Spiele in 1280x800 mit 32xS-AA so flüssig darstellt wie eine Radeon HD 4870 X2 in 2560x1600 mit 8xMSAA. Selbst wenn man bei der GeForce nur 8xS-AA und somit eine definitiv deutlich schlechtere Bildqualität ansetzt, wirds schwierig.Und das geht mit einer Geforce nicht oder wie jetzt? Genau das macht Dargo doch die ganze Zeit mit seiner GTX 260 oder nicht? :confused:
mfg.
Sonyfreak
Jake Dunn
2009-05-08, 17:17:05
Und das geht mit einer Geforce nicht oder wie jetzt? Genau das macht Dargo doch die ganze Zeit mit seiner GTX 260 oder nicht? :confused:
mfg.
Sonyfreak
Nee geht nichtmal mit einer GTX295
Mit der HD 4870 X2 kannst du auch in 2560x1600 mit 8xMSAA flüssig spielen, wenn man das auf 1280x800 runterskalieren ließe, hätte man so 32xS-AA. Und es gibt keine GeForce, die Spiele in 1280x800 mit 32xS-AA so flüssig darstellt wie eine Radeon HD 4870 X2 in 2560x1600 mit 8xMSAA. Selbst wenn man bei der GeForce nur 8xS-AA und somit eine definitiv deutlich schlechtere Bildqualität ansetzt, wirds schwierig.
Sonyfreak
2009-05-08, 17:23:31
Nee geht nichtmal mit einer GTX295Und welche Spiele laufen auf einer 4870 X2 mit 8xMSAA auf 2560x1600 flüssig? Wenn ich den Computerbase zum Vergleich nehme, dann laufen diese Einstellungen gerade mal bei Lost Planet und World in Conflict brauchbar.
mfg.
Sonyfreak
Das Video von Sonyfreak zeigt doch eigentlich recht deutlich was gemeint ist. Hier sieht man den vergleich gute BQ (Nvidia) schlechte BQ (ATI). Danke für den Upload.
Das ist das berühmte "Mir fällt kein sinnvolles Gegenargument ein, also rede ich es schlecht". Es ist völlig Wurstsalat, wo die Option zu finden ist, solange ich nur ein Tool installieren muss. EATM bzw. ASBT haben einst auch viele Radeon-Nutzer (darunter ich) via Ati Tray Tools genutzt. Jetzt hat Ati auch das verboten bzw. unter dem vermaleDAUten Bevormundungsmantel A.I. verhüllt.
MfG,
Raff
Nein, es geht darum was man vergleicht. Und imho kann man nur die BQ vergleichen, die der Hersteller standardmäßig einstellt und zusätzlich noch die welche mit den Mitteln des Herstellers erreichbar ist. Alles was externe Tools braucht, darf nicht bewertet werden. Fakt ist, dass ein GeForce mit WHQL Treiber kein SSAA kann und daher auch keien Vorteil gegenüber einer Radeon hat.
Auch ohne Fremdtools filtert Nvidia um Längen besser als ATI! Bitte nicht unter den Tisch kehren:)
Sonyfreak
2009-05-08, 17:47:02
Jeder der den Unterschied zwischen 8xAA und 8xSAA erkennt ist dazu fähig, sich ein kleines Tool aus dem Internet runterzuladen.
Ich wünsche mir, dass Nvidia bei der nächsten Serie HQ als Standard in den Treiber einträgt. :) KLICK (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7244748&postcount=52) KLICK 2 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7256791&postcount=57)
mfg.
Sonyfreak
Ich wünsche mir, dass Nvidia bei der nächsten Serie HQ als Standard in den Treiber einträgt. :) KLICK (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7244748&postcount=52) KLICK 2 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7256791&postcount=57)
mfg.
Sonyfreak
Die wären schön blöd, wenn sie das täten. Schon jetzt werden die Radeons in den Himmel gelobt. Das werden sie erst recht, wenn sie nochmal 5-10% weiter vorne liegen.
MfG,
Raff
Lawmachine79
2009-05-08, 17:54:52
Die 4770 kostet 80-90 Euro.
Die 4890 kostet 200€ und kann es trotzdem nicht. Die 4870 X2 kostet noch mehr und da geht es auch nicht.
Nö. Wenn die Onlineportale bei der BQ nicht mit Kritik sparen werden sich auch die Daus überlegen ne ATI zu kaufen;)
Die wären schön blöd, wenn sie das täten. Schon jetzt werden die Radeons in den Himmel gelobt. Das werden sie erst recht, wenn sie nochmal 5-10% weiter vorne liegen.
MfG,
Raff
haha , wo werden denn hier radeons in den himmel gelobt ?
das totale gegenteil ist hier der fall - die radeons werden wegen einer sache total niedergemacht , mehr nicht ^^.
wenn ati irgendwann pleite geht und man wieder 700 euro für ne ultra zahlen muss , werden hier sehr viele mit tränensäcken rumlaufen müssen .
freut euch doch , dass atis preispolitik nvidia ebenfalls dazu zwingt, ihre karten nicht mehr für 500+ euros zu verkaufen .
außerdem spart nvidia an 128mb vram und das wird hier komischerweise nicht so gehetzt .
reunion
2009-05-08, 18:19:57
Die wären schön blöd, wenn sie das täten. Schon jetzt werden die Radeons in den Himmel gelobt. Das werden sie erst recht, wenn sie nochmal 5-10% weiter vorne liegen.
MfG,
Raff
Ich sehe bestenfalls ~2% im Durchschnitt zwischen Q und HQ bei dem verlinkten Test. Hier wird ja so getan als ob das Welten kosten/bringen würde am Texturfilter zu sparen. Die TEX-Ops lassen sich ohnehin immer besser hinter den ALUs verstecken.
Ich sehe bestenfalls ~2% im Durchschnitt zwischen Q und HQ bei dem verlinkten Test. Hier wird ja so getan als ob das Welten kosten/bringen würde am Texturfilter zu sparen. Die TEX-Ops lassen sich ohnehin immer besser hinter den ALUs verstecken.
Ich sehe maximal über 8%.
haha , wo werden denn hier radeons in den himmel gelobt ?
€/FPS
das totale gegenteil ist hier der fall - die radeons werden wegen einer sache total niedergemacht , mehr nicht ^^.
Nö, überhaupt nicht.
AMD ist seit 3 Generationen praktisch völlig unbehelligt davon gekommen.
wenn ati irgendwann pleite geht und man wieder 700 euro für ne ultra zahlen muss , werden hier sehr viele mit tränensäcken rumlaufen müssen .
Dazu gibt es keinen Grund.
1. Intel braucht AMD.
2. Ein inoffizieller Schalter würde AMD null wehtun.
3. Eine bessere Default Qualität kann sich AMD bei der derartigen Performance leisten. Erst recht wenn sie mal ein paar Transistoren mehr für TMUs spendieren.
freut euch doch , dass atis preispolitik nvidia ebenfalls dazu zwingt, ihre karten nicht mehr für 500+ euros zu verkaufen .Einerseits richtig, andereseits falsch.
Zu niedrige Preise tun mir hinterher auch weh.
außerdem spart nvidia an 128mb vram und das wird hier komischerweise nicht so gehetzt .
Es gibt viele Geforces.
Manche haben weniger VRAM, manche mehr, richtig.
h'lore
2009-05-08, 19:46:12
Aber ich bin auch der Meinung das AI_low und Quality je nach Spiel mal mehr, mal weniger gut vergleichbar sind.Ist sie nicht und das weißt du auch ganz genau.
OK. ist ein Argument. Andererseits: Bei den Tests mit default-Einstellungen ist die BQ ja eh vergleichbar.Gleiches gilt auch für dich. Dieses dreiste Lügen geht mir ziemlich auf den Keks. Du kannst mir nicht erzählen, dass du allen Ernstes von diesem Unfug überzeugt bist. Die Standardeinstellungen der NV-Treiber bei G80+-Karten sind bereits besser als alles, was AMD zu bieten hat. Dennoch schreibst du den Satz hier nochmal fettgedruckt, in der Hoffnung ein Dau liest es beim Überfliegen des Threads und glaubt den Quatsch.
Ich finde es grundsätzlich erschreckend, wie einige Leute hier (nicht speziell auf dich bezogen, Lolman), die 2005 keine Gelegenheit ausgelassen haben, um den Texturfilter des G70 mit aller Kraft niederzumachen (auch zurecht imho), jetzt plötzlich keinerlei Interesse mehr an vernünftiger Bildqualität zeigen und die ganze Situation kleinreden, weil es halt AMD/ATI betrifft. Dass man AMD dann als unterstützungswürdigen Underdog (wie wärs mit nem Spendenaufruf?) bezeichnen, macht es nicht besser. AMD ist keine kleine Firma. AMD ist auch mit Sicherheit keine gemeinnützige Stiftung, deren edle Zwecke unbedingt der Unterstützung bedarfen.
Auch wenn die umfangreiche Kritik an NV für den G70-Filter wohl nicht der einzige Grund für die enormen Verbesserungen beim G80 war, so wird sie letzendlich doch einen sehr bedeutenden Part gespielt haben. Das scheint man hier teilweise zu vergessen. Nur wenn man den Mund aufmacht und den entsprechenden IHV mit dem Nichtkauf seiner Produkte abstraft, wird man auch gehört. Dazu gehört auch, dass man derartige Produkte nicht empfiehlt, ohne auf die zutiefst kritikwürdigen Schwächen und das absolut kundenunfreundliche Verhalten seitens ATI hinzuweisen. Erst recht nicht sollte man diese Sachen kleinreden.
Das Argument, dass der 08/15-Dau eh nichts davon mitbekommt, zählt nicht. Die meisten Daus merken es auch nicht, wenn sie einen 2-Jahres-Vertrag mit hohen monatlichen Grundgebühren abschließen. Das kann einfach kein Maßstab sein, erst recht nicht in einem Hardwareforum.Man kann immer etwas genauer berechnen, eine höhere Präzision ist immer möglich. Warum kein 32x AF, 16x AA? Würde ein IHV eines von beiden anbieten, würde, der andere wegen "schlechterer" Bildqualität niedergemachtHmm, finde ich nicht. Mir wäre es weitaus lieber, ATI würde einwandfreies 8x AF anbieten und dafür keinen Modus, den sie als "16x" bezeichnen.Mal ehrlich die Leute die hier nur motzen, würden sich doch lieber ihre Eier mit einer Angelschnur abtrennen bevor sie ATI kaufen.Das vielleicht nicht gerade, aber selbst wenn du mir eine 4890 schenken würdest, würde ich sie nicht mit der 9600GT in meinem Rechner tauschen. Ich tausche doch nicht meine Grafikkarte, um danach mit mieser Bildqualität und einem Treiber, der alles wichtige vor dem Nutzer versteckt, leben zu müssen. Es ist ja völlig legitim, günstige Produkte zu kaufen. Allerdings sollte das bei Hardware nicht auf Kosten der Qualität, sondern höchstens auf die Geschwindigkeit gehen, so wie es bei meiner 9600GT z.B. der Fall ist. Aktuelle ATI-Hardware ist aber eher "Geiz ist geil" für Daus ohne jeden Anspruch.außerdem spart nvidia an 128mb vram und das wird hier komischerweise nicht so gehetzt .Wie genau meinst du das? Wenn eine Grafikkarte mit 512 MiB VRAM beworben wird und dann auch 512 MiB hat, wo wird hier dann seitens des Herstellers gespart? Gleiches gilt für Karten mit anderer Speichergröße. Was verlangst du denn? Wenn ich dir eine DVD-Box mit 6 Scheiben verkaufe, beschwerst du dich dann auch, dass eine fehlt, weil ein völlig anderes Produkt aus 7 DVDs besteht?
Mir wäre es weitaus lieber, ATI würde einwandfreies 8x AF anbieten und dafür keinen Modus, den sie als "16x" bezeichnen.
Sie bieten mit 8xQ doch einwandfreies 8xMSAA, nur die Performance leidet deutlich stärker als bei ATI, in der Beziehung wird sich auf GT200-Basis auch nicht mehr viel tun.
Die Coverage-Modi 8xCSAA und 16xCSAA bieten zusätzlich eine etwas bessere Glättung als reines 4xMSAA und der Performanceimpact hält sich auch in Grenzen, schön zu haben.
Das vielleicht nicht gerade, aber selbst wenn du mit eine 4890 schenken würdest, würde ich sie nicht mit der 9600GT in meinem Rechner tauschen.
Dann bist Du aber ein bisschen balla balla.
Sie bieten mit 8xQ doch einwandfreies 8xMSAA, nur die Performance leidet deutlich stärker als bei ATI, in der Beziehung wird sich auf GT200-Basis auch nicht mehr viel tun.
Die Coverage-Modi 8xCSAA und 16xCSAA bieten zusätzlich eine etwas bessere Glättung als reines 4xMSAA und der Performanceimpact hält sich auch in Grenzen, schön zu haben.
Autsch, AF, nicht AA. Bitte löschen, Thema verfehlt! :redface:
h'lore
2009-05-08, 20:03:09
Sie bieten mit 8xQ doch einwandfreies 8xMSAA, nur die Performance leidet deutlich stärker als bei ATI, in der Beziehung wird sich auf GT200-Basis auch nicht mehr viel tun.Kein Mensch redet hier von FSAA. Das ist bei beiden IHVs aktuell recht gut, mit SSAA-Vorteilen für NV aus meiner SIcht. Jemand anderes mag aber die Edge-Detect-Modi bei ATI besser finden, das ist völlig okay.Dann bist Du aber ein bisschen balla balla. Wieso? Die 9600GT reicht mir geschwindigkeitsmäßig und die Bildqualität ist 1A. Eine geschenkte ATI-Karte würde trotz massivem Wertverlust sofort zu Ebay wandern. Ich spiele auch nicht so viele aktuelle Spiele. Eigentlich besitze ich lediglich GTA 4 und eben einen riesigen Haufen älterer Spiele.
Nö. Wenn die Onlineportale bei der BQ nicht mit Kritik sparen werden sich auch die Daus überlegen ne ATI zu kaufen;)
Warum? Der Einsatzzweck einer Graka hört nicht bei Spielen auf, sondern geht u.a. mit DVD/BR/TV schauen weiter. Und da gefällt mir AVIVO von ATI wesentlich besser.
Ferner muss auch mal klargestellt werden, dass hier einige ein getürktes Spielchen spielen. Sie haben nie eine ATI in Aktion gesehen, schreien aber munter mit. Nvidias NV40 und G70 waren abscheulich bezüglich Filterqualität (kein vergleich zum RV770 oder RV790), wurden aber dennoch gekauft. Deren Käufer, die hier nun munter "mitlemmingen", müssten demnach auch alles Superidioten gewesen sein. Irgendwie ein Schuss ins eigene Knie.
Dann bist Du aber ein bisschen balla balla.
Nein, sondern jemand, der gute Qualität schätzt. Mit kommt auch keine ATi in den Rechner, solange die nicht erheblich die Texturfilterqualität verbessern.
. Sie haben nie eine ATI in Aktion gesehen, schreien aber munter mit. Nvidias NV40 und G70 waren abscheulich bezüglich Filterqualität (kein vergleich zum RV770 oder RV790),
Da würde ich mal wetten, daß du nie einen NV40 oder G70 in Aktion gesehen hast, denn selbst die filtern weitaus besser als was ATi im Moment bietet.
Jake Dunn
2009-05-08, 20:13:33
Und welche Spiele laufen auf einer 4870 X2 mit 8xMSAA auf 2560x1600 flüssig? Wenn ich den Computerbase zum Vergleich nehme, dann laufen diese Einstellungen gerade mal bei Lost Planet und World in Conflict brauchbar.
mfg.
Sonyfreak
Jericho, GRID übersehen und es gibt noch eine menge mehr die bei CB garnicht getestet wurden :D
h'lore
2009-05-08, 20:14:20
Ich persönlich hatte einen G70 von Anfang an (7800GTX/256 MiB) und weiß sehr genau, wie gut oder schlecht dort die Filterung war. Zumindest nach dem Erscheinen des 78.03 war der G70 nicht großartig schlechter als eine heutige Radeon, wenn nicht sogar besser unter HQ. Ich habe die beiden nie Bildschirm-an-Bildschirm verglichen, daher möchte ich jetzt keine definitive Aussage treffen, aber dass die Bildqualität der aktuellen ATIs gut oder auch nur ansatzweise in der Nähe eines NV-Chips ab G80 sind, ist einfach nur ganz großer Quatsch.
Und welche Spiele laufen auf einer 4870 X2 mit 8xMSAA auf 2560x1600 flüssig? Wenn ich den Computerbase zum Vergleich nehme, dann laufen diese Einstellungen gerade mal bei Lost Planet und World in Conflict brauchbar.
mfg.
Sonyfreak
Hmm lol.Grade lost planet liegt doch schon in niedrigen auflösungen bie 30 fps.SChlechtes beispiel.^^
h'lore
2009-05-08, 20:23:42
Jetzt kommt gleich wieder Coda und erzählt dir dass da ganze Gebirgsketten dazwischen liegen. Aber ich bin auch der Meinung das AI_low und Quality je nach Spiel mal mehr, mal weniger gut vergleichbar sind.Das ist auch so eine Schrecklichkeit hier im Forum. Coda oder sonstwer widerlegt mit viel Mühe eine falsche Aussage und liefert auch eine ausführliche und plausible Erklärung dazu. Dennoch wiederholen bestimmte Leute diese Aussagen immer wieder, obwohl sie das entsprechende Posting gelesen und sogar darauf geantwortet haben.
reunion
2009-05-08, 20:50:57
Das ist auch so eine Schrecklichkeit hier im Forum. Coda oder sonstwer widerlegt mit viel Mühe eine falsche Aussage und liefert auch eine ausführliche und plausible Erklärung dazu. Dennoch wiederholen bestimmte Leute diese Aussagen immer wieder, obwohl sie das entsprechende Posting gelesen und sogar darauf geantwortet haben.
Ich habe auch eine ausführliche und plausible Antwort darauf gegeben. AI ist eben nicht so wie Quality bei nV statisch sondern verhält sich je nach Spiel anders. Hier ein Test von Raff in Crysis:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6672023&postcount=451
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6672083&postcount=455
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6672132&postcount=461
Die Welt ist eben nicht nur schwarz oder weiß.
Botcruscher
2009-05-08, 21:00:19
Es gibt sogar diverse Videos, die das Problem genau aufzeigen. Hier hab ich zb. vor längerer Zeit mal eins gemacht: KLICK (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6187566&postcount=414)
Sonyfreak
Flimmern mit und Flimmern ohne Bugwelle. Beides flimmert...
y33H@
2009-05-08, 21:09:49
A.I. Standard flimmert immer am deutlichsten. HQ liefert das ruhigste Bild, Quality flimmert in den meisten Fällen weniger oder auf dem Niveau von A.I. Off.Das ist schwarz: AMD filtert schlechter. Punkt.
=Floi=
2009-05-08, 21:11:15
ich will ja nicht meckern, aber lod clamp sollte man leider schon eingeschaltet lassen, da es ansonsten unerträglich flimmert.
reunion
2009-05-08, 21:16:20
Das ist schwarz: AMD filtert schlechter. Punkt.
Noch jemand der nicht in der Lage ist zu differenzieren:
Die Radeon verhält sich innerhalb der A.I.-Stufen sowas von inkonsistent, dass es fast wehtut. Was allerdings gar nicht weh tut: A.I. Off ist in Crysis auf dem Qualitätsniveau von Nvidias HQ – wer hätte das gedacht?
Mr. Lolman
2009-05-08, 21:21:09
Ja ich weiß. Das ist aber nicht die Sampleoptimierung.
Wer redet denn von der Sampleoptimierung? Ich nicht. Diesmal. Zumindest bis jetzt. ;)
Meine Frage steht immernoch im Raum: Worin unterscheidet sich die Texturfilterung von HQ und Q, wenn die genannten Optimierungen abgeschaltet sind? Die pauschale Antwort, dass Q halt irgendwie trotzdem schlechter ist, befriedigt mich nicht so recht …
Raff, sag' Du doch mal was :usad:
Gute Frage. Sehr gute Frage. Der qualitative Unterschied kann nur durch Sampleeinsparungen entstehen - die entweder durch eine reduzierte Trilinearität zustande kommen - was aber bei Q nicht der Fall ist, oder eben durch eine generelle Sampleoptimierung - also sozusagen doch eine hardcoded anisotrope Mipfilter Optimierung. Anders gehts einfach nicht. Wenn man AF-Qualität verringert will, dann geht das eben NUR in dem man Samples einspart...
Noch jemand der nicht in der Lage ist zu differenzieren:
Wobei AIoff in dem Fall weniger anisotrop filtert, als AFoff - und Raff interessanterweise gerade die Bilder mit der geringsten Anisotropie als die Besten bezeichnet.
(mit aktiviertem POM, würd ich das sowieso nicht testen. Da passiert generell zuviel komisches Zeugs)
y33H@
2009-05-08, 21:24:24
@ reunion
Ich habe Raffs chronologisch letzten Post zitiert:Fazit? Das darf jeder für sich bauen. Ich sag's mal so: A.I. Standard flimmert immer am deutlichsten.
reunion
2009-05-08, 21:29:56
@ reunion
Ich habe Raffs chronologisch letzten Post zitiert:
Das habe ich gesehen. Schön für dich. Wenn du es noch zehnmal schreibst und das auch noch so groß wird es auch nicht anders. Mir ging es darum das sich AI je nach Szene komplett anders verhält und durchaus auch besser sein kann als das NV-Pendant. Aber war ja klar das sich manche wieder auf einen Satz stürzen.
Mr. Lolman
2009-05-08, 21:30:15
Nochmal: Mit aktiviertem POM, würd ich ohnehin kein AF (oder max. 4x) aktivieren. Was hab ich davon, dass manche Texturen scharf sind, und andere ekelhaft unscharf. Umgehen kann man das nur mit massig SSAA, oder ein bisschen negativem LOD+Downsampling (schaut dann ca. so aus: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6795048&postcount=6).
y33H@
2009-05-08, 21:31:41
Mir ging es darum das sich AI je nach Szene komplett anders verhält und durchaus auch besser sein kann als das NV-Pendant.Was 1) nicht für AI spricht und 2) im Mittel Q immer noch besser ist. Ja, Ausnahmen bestätigen die Regel. Und die Regel lautet: AI flimmert sehr, Q meist klar weniger, HQ fast gar nicht.
LovesuckZ
2009-05-08, 21:32:12
Das habe ich gesehen. Schön für dich. Wenn du es noch zehnmal schreibst und das auch noch so groß wird es auch nicht anders. Mir ging es darum das sich AI je nach Szene komplett anders verhält und durchaus auch besser sein kann als das NV-Pendant. Aber war ja klar das sich manche wieder auf einen Satz stürzen.
So wie 16xCSAA zu 8xMSAA. :rolleyes:
Aber schön zusehen, dass dieser Vergleich ab heute endlich gültig ist.
Aber gleich kommen wieder bestimmt die Ausreden, dass 8xMSAA in mehr Fällen besser sei - ja, das ist auch nVidia's Filterung auf Q und HQ. Aber wir sollen ja differenzieren. ;D
Mr. Lolman
2009-05-08, 21:43:54
Und die Regel lautet: AI flimmert sehr
Jetzt übertreibst du aber :rolleyes:
Jake Dunn
2009-05-08, 22:10:44
Es gibt sogar diverse Videos, die das Problem genau aufzeigen. Hier hab ich zb. vor längerer Zeit mal eins gemacht: KLICK (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6187566&postcount=414)
mfg.
Sonyfreak
HQ gegen AI def :| guter Vergleich ^^
...aber wenn das alles ist, dann verstehe ich einige Leute garnich mehr ;D
y33H@
2009-05-08, 22:12:09
@ Mr. Lolman
Was flimmert mehr als AI? Nur Q auf einer GF7. Diese ist aber seit langem EOL. Und ja, AI flimmert sehr.
Fallacy
2009-05-08, 22:23:32
Kleine Frage zu nVidia:
Wie verhält es sich bei "Q ohne Optimierungen" vs. "HQ ohne Optimierungen"? Was genau macht HQ in dieser Konstellation (noch) hübscher, bzw. welche Optimierungen außer den beiden frei im CP wählbaren gibt es intern?
Ich hatte das vor Ewigkeiten mir zum Launch des G80 mal angesehen. Damals zeigte sich, dass die Performance-Unterschiede zwischen Q (mit deaktivierten Optimierungen) und HQ im Bereich der Messtoleranzen lagen. Bei Betrachtung der Bildqualität konnte ich damals dementsprechend keinerlei Unterschide mehr zwischen Q (deakt. Opt.) und HQ ausmachen. Weshalb ich damals für mich zu dem Entschluss gekommen bin, dass Q = HQ nur mit den in Treiber auswählbaren aktivierten Optimierungen.
http://ht4u.net/reviews/2007/nvidia_g80_roundup/index8.php
Ob sich das mittlerweile geändert hat, kann ich nicht mit Bestimmtheit sagen. Ein paar wenige Quervergleiche hier und da haben allerdings bei uns das Bild gedeudetet, dass die Unterschiede weiterhin marginal sind. Aber wie gesagt, das müsste man bei Gelegenheit - wenn es die Zeit denn mal zulassen würde - wieder einmal genauer untersuchen.
Klingone mit Klampfe
2009-05-08, 22:25:33
Gute Frage. Sehr gute Frage. Der qualitative Unterschied kann nur durch Sampleeinsparungen entstehen - die entweder durch eine reduzierte Trilinearität zustande kommen - was aber bei Q nicht der Fall ist, oder eben durch eine generelle Sampleoptimierung - also sozusagen doch eine hardcoded anisotrope Mipfilter Optimierung. Anders gehts einfach nicht. Wenn man AF-Qualität verringert will, dann geht das eben NUR in dem man Samples einspart...
Ich war mal so frei und habe die Blume ausgepackt:
EDIT: Gleich kommen die korrekten Bilder … :whistle:
EDIT2: Die beiden "Blumen" sehen exakt gleich aus - Q ohne Optimierungen = HQ
http://www.abload.de/thumb/hqnize.png (http://www.abload.de/image.php?img=hqnize.png) http://www.abload.de/thumb/quk1h.png (http://www.abload.de/image.php?img=quk1h.png)
Fallacy
2009-05-08, 22:32:31
Und du bist dir sicher, dass bei deinem Q-Screenshots die trilineare Optimierung aus war?
Klingone mit Klampfe
2009-05-08, 22:44:16
Und du bist dir sicher, dass bei deinem Q-Screenshots die trilineare Optimierung aus war?
Siehe meine Editierungen, ich hatte nicht bedacht, dass das beim Wechsel auf Q automatisch aktiviert wird …
:sneak:
Blaire
2009-05-08, 22:53:13
Ich persönlich hatte einen G70 von Anfang an (7800GTX/256 MiB) und weiß sehr genau, wie gut oder schlecht dort die Filterung war. Zumindest nach dem Erscheinen des 78.03 war der G70 nicht großartig schlechter als eine heutige Radeon, wenn nicht sogar besser unter HQ. Ich habe die beiden nie Bildschirm-an-Bildschirm verglichen, daher möchte ich jetzt keine definitive Aussage treffen, aber dass die Bildqualität der aktuellen ATIs gut oder auch nur ansatzweise in der Nähe eines NV-Chips ab G80 sind, ist einfach nur ganz großer Quatsch.
Du meinst den 78.05 ;) erst dieser bügelte den HQ Bug aus. Stimmt HQ auf G70 war akzeptabel und kostete zudem kaum mehr Performance als der deutlich hässlichere Quality Modus. Es wurde Nvidia aber dennoch an den Pranger gestellt eben weil Quality damals Treiberdefault war, aber wenigstens konnte man jederzeit HQ verwenden ohne große Performanceeinbußen in Kauf zu nehmen bzw. MultiGPU Funktionalitäten dafür opfern zu müssen. Seit dem R600 schraubt Ati die Bildqualität noch weiter herunter und es scheint die wenigsten zu interessieren bzw. wird es heruntergespielt und immer wieder von den selben Leuten die hier einen auf neutral tun und damals auf nVidia eingedroschen haben. Da kann man sich seinen Teil denken. :rolleyes:
=Floi=
2009-05-08, 23:10:07
zitat:
Da kann man sich seinen Teil denken.
das ist doch schon die ganze zeit so klar und durchsichtig. Auf einmal hat keiner mehr zeit und jeder ist zum thema bq still. manche leute haben super stellen in games und so viel wissen, aber schlagartig verschwindet das wieder in der schublade und man spiel heile welt. Jetzt ist es doch auch schon zu spät, denn die neue generation steht vor der tür, aber auf der anderen seite kann es mir ja egal sein, da ich eh auf nv setze und die bessere BQ und andere features (gratis) bekomme.
aber auf der anderen seite kann es mir ja egal sein, da ich eh auf nv setze und die bessere BQ und andere features (gratis) bekomme.
Nein, es kann dir nicht egal sein, das du keine Auswahl hast.
Das Beste ist das mit dem neuen ATI-Chip die Textureinheiten nicht nennenswert erhöht werden. Das heisst für mich schöne Balkenlänge mit einer falsch konstruierten Monsterkarte aber das Flimmern wird nicht behoben. Ich werde Nvidia treu bleiben und den G300 kaufen denn bevormunden lasse ich mich nicht! Da leg ich lieber nen 50 drauf. Abgesehen vom gruselhaften CCC und .net
My Opinion
Jake Dunn
2009-05-08, 23:26:53
CCC und .net
My Opinion
NET. ist in Vista/Win7 in Version 3.5 doch chon enthalten :confused:
y33H@
2009-05-08, 23:28:08
Enthalten ja. Aber das CCC ist immer noch n bissl hüftlahm, selbst wenns im Autostart klebt.
NET. ist in Vista/Win7 in Version 3.5 doch chon enthalten :confused:
Vista/Win7 ist Mindestvoraussetzung für eine Radeon HD234? :confused:
Sorry, hatte schon ATI und kenne den Graus. Und den .net Mist kann man auch deinstallen wenn man es nicht benötigt. Hatte 3DFX, Nvidia, Ati und wieder Nvidia. Den Ati-Ausflug bereue ich.
Mr. Lolman
2009-05-09, 08:14:29
Ich war mal so frei und habe die Blume ausgepackt:
EDIT: Gleich kommen die korrekten Bilder … :whistle:
EDIT2: Die beiden "Blumen" sehen exakt gleich aus - Q ohne Optimierungen = HQ
http://www.abload.de/thumb/hqnize.png (http://www.abload.de/image.php?img=hqnize.png) http://www.abload.de/thumb/quk1h.png (http://www.abload.de/image.php?img=quk1h.png)
Sampleoptimierungen sieht man bei der Blume nicht. Die Blume zeigt nur an, an welcher Stelle aus welchen Mipmaps gesampelt wird. Nicht jedoch, wieviele Samples verwendet werden.
@ Mr. Lolman
Was flimmert mehr als AI? Nur Q auf einer GF7. Diese ist aber seit langem EOL. Und ja, AI flimmert sehr.
Deaktiviertes LOD Clamp flimmert zB extremst. Aktiviertes Clamp ist dafür zu unscharf.
EDIT: Oh hoppla, hab ich etwa zu sehr pauschalisiert? (mir fällts zumindest auf, dass ich das mache ;))
Enthalten ja. Aber das CCC ist immer noch n bissl hüftlahm, selbst wenns im Autostart klebt.
Irgendwie mach ich mir schön langsam sorgen um deine Neutralität, Hr. Benchmarc. Dass CCC braucht im Autostart in der Tat einige Zeit bis es mal geladen ist. Dafür ists dann mit Doppelklick aufs Traysymbol nach 2 Sekunden da. Beim NV-Panel wart ich regelmässig 10 Sekunden und mehr, bis es dann offen ist.
Schlammsau
2009-05-09, 09:21:27
Netter Thread, den gleichen hatten wir vor 1 1/2 Jahren schon einmal.
Ihr könnt euch hier die Köpfe weiter einschlagen, doch bringen wird es reichlich wenig.
Aschneinend gibt es wirklich sehr wenige Menschen, denen das Flimmern aufällt.
Ich denke auch, dass es sehr vom verwendetem Display abhängt.
Auch in keinem einzigem Review, hab ich jemals etwas in diese Richtung lesen müssen.
Aber trotzdem gibt es (im Vergleich), immer wieder eine handvoll "Bildqualitätsfetischisten", die absolut darauf bestehen, dass die HD Serie wesentlich schlechter filtert.
Das ist Meckern auf allerhöchstem Niveau und vielleicht typisch deutsch. Da wird etwas schlechtgeredet, was gar nicht schlecht ist. Nur weil es einen Tick "schlechter" als die Konkurrenz ist.
Meine Bitte......hört mit dieser blödsinnigen Diskussion auf, dass führt eh zu nichts.
h'lore
2009-05-09, 09:38:00
Du meinst den 78.05 ;) erst dieser bügelte den HQ Bug aus.Nein, es war wirklich der 78.03 Beta. Siehe Changelog (http://nzone.com/object/nzone_downloads_winxp64_78.03.html).
Abgesehen vom gruselhaften CCC und .netWenn das CCC gruselhaft ist, liegt das nicht am .NET-Framework. Man kann auch äußerst performante .NET-Anwendungen schreiben.Meine Bitte......hört mit dieser blödsinnigen Diskussion auf, dass führt eh zu nichts.Die Angelegenheit muss aber thematisiert werden. Erst wenn ATI mit dieser Taktik gewaltig auf die Schnauze fällt, wird sich was ändern. Wenns nach mir ginge, würde unter jedem einzelnen Balkendiagramm stehen, dass die Bildqualität der ATI-Karten nicht konkurrenzfähig ist und die Messwerte daher nicht zu vergleichen sind. Die Gesamtbewertung einer derartigen Karte müsste unter dem Fehlen eines brauchbaren Texturfilters und der kompletten Bevormundung im Controlpanel ordentlch leiden. Es sind ja nicht nur die Einstellungen bezüglich des AF, die unzugänglich sind. Auch der Zugriff auf Multi-GPU-Profile wird dem Anwender vorenthalten.
LovesuckZ
2009-05-09, 09:38:42
Es sollte hier niemand wegen "Nörgeln auf hohem Niveau" reden, der 9 Monate wegen 15 Watt ein Fass aufgemacht hat, um dann nur der erste zu sein, der sich eine Karte kauft, die 50 Watt beim IDLEN mehr verbraucht. :rolleyes:
Schlammsau
2009-05-09, 09:53:37
Es sollte hier niemand wegen "Nörgeln auf hohem Niveau" reden, der 9 Monate wegen 15 Watt ein Fass aufgemacht hat, um dann nur der erste zu sein, der sich eine Karte kauft, die 50 Watt beim IDLEN mehr verbraucht. :rolleyes:
Meine 4870 hat nur ein einziges Mal 60 Watt im Idle verbraucht - und das war Anfang Oktober, am Tag des Einbau´s in meinen Rechner. ;)
........
Es muss gar nichts thematisiert werden und auf die Schnauze fliegen, muss wegen sowas sowieso keiner.
Ich wiederhole mich, aber das ist jammern auf ganz ganz ganz hohem Niveau.
Was die maximale Bildqualität angeht, dann hat nVidia 90% und ATi 85% erreicht.
LovesuckZ
2009-05-09, 10:22:36
Meine 4870 hat nur ein einziges Mal 60 Watt im Idle verbraucht - und das war Anfang Oktober, am Tag des Einbau´s in meinen Rechner. ;)
Meine 8800GTX hat nicht einmal irgendwas mit Quality gefiltert. :rolleyes:
Was sagt uns das? Das du mit solchen Postings dich zurückhalten solltest - dann sobald AMD warum auch immer besser filtern werde, wirst du der erste sein, der dies als klaren Pluspunkt darstellen wird.
Aber es ist eben AMD, da ist es "Jammern auf hohem Niveau". Warten wir ab, bis nVidia mal wieder ein Bild anders rendern wird als AMD - dann kommen die ganzen "Cheatschreier" wieder aus ihren Löchern und Bildqualität ist dann plötzlich nicht mehr "subjektiv" und es wäre ja ein berechtigtes "jammern". ;D
Es ist ja nicht so, dass die Ati-Jünger es nicht als Pluspunkt darstellen, dass eine HQ bei Nvidea besser filtert.
Aber es so darzustellen als sei es die Schweinerei des Jahrtausends finde ich auch arg übertrieben!
Zum Catalyst: ich finde es ehrlich gesagt auch nicht schön, wenn ich eine Anwendung installeren muss, wenn ich eine andere installieren muss. Das mag ich gar nicht. Nun ist es aber doch so, dass dies jetzt dann der Vergangenheit angehört, spätestens wenn Windows 7 auf dem Markt ist. Die meisten Leute die den Catalyste überhaupt benutzen haben ein aktuelles System und steigen spätestens wenn das neue Windows verfügbar ist auch darauf um, würde ich sagen.
Zum Programmstart vom Catalyst: Ich verstehe euch nicht...?! Bei mir dauert der Programmstart max. 1 Sekunde?!!!!
LovesuckZ
2009-05-09, 11:02:36
Es ist ja nicht so, dass die Ati-Jünger es nicht als Pluspunkt darstellen, dass eine HQ bei Nvidea besser filtert.
Aber es so darzustellen als sei es die Schweinerei des Jahrtausends finde ich auch arg übertrieben!
Das ist eben Ansichtssache: AMD hat mit dem r5xx Karten ein Strohfeuer bezüglich des ansiotropen Filters gehabt - davor und danach waren sie nie auf diesem Niveau.
Die Leute, die hier so reden als es "Jammern auf hohem Niveau" sind die, die es nur sagen, weil AMD nicht mit nVidia konkurrieren kann. Sobald sich aber diese Sache wieder wenden sollte, sind es die ersten, die dann dies genau als Pluspunkt bei AMD ansehen.
Die Vergangenheit hat gezeigt, dass vorallen AMD User ihre Fahne nach den Wind von AMD hängen und genau immer das als Pluspunkt bei AMD sehen, dass sie besser macht als bei nVidia. Sieht man auch schon daran, dass Vergleiche von 8xMSAA gegen 8xMSAA fair wären aber nicht Quality/HQ gegen A.I Off.
Das ist nicht "Jammern auf höchstem Niveau" sondern typisch deutsche Stammtischdiskussion. Jammern, Meckern und trotzdem sich damit abfinden, wie in allen Lebenslagen. Leute mit Vorschlägen was man dagegen machen kann werden müde belächelt oder auf die Schulter geklopft, aber gleich mit dem Kommentar abgespeist, dass sich doch eh nichts ändern wird etc.. Und dann immer diese müssige einseitige Diskussion über Bildqualität anhand von externen Tools und Reg.-Einträgen. Das man sowas schon braucht ist doch absurd um an Qualität zu kommen. Wäre wie ein Auto ohne Autositz und nur mit einem Dreibeinhocker. Um bequem sitzen zu können kaufe ich mir von einem Dritthersteller ein ordentlichen Sitz. Ich will erst gar nicht was bei einem Treiber einstellen müssen. Sondern ein Spiel installieren, dort die Einstellungen vornehmen und fertig. Das grenzt ja schon an perfider Götzenverehrung mit den Zusatztools und Einstellungen (nehme das um das Einzustellen, dann noch das und das und hurra ein perfektes Bild, nur das ist das wahre).
Vielleicht kommt ja mal einer von denen, die wissen worüber sie reden auf die Idee, dass ganze mal auf einem anderen Betriebssystem zu testen. Wo man nicht die Möglichkeit hat in den Eingeweiden einer Registry zu freakeln oder Behilfstools zu nutzen. Einfach nackten Treiber gegen nackten Treiber mit den maximalen Einstellungen den man offiziell an diesem vornehmen kann. Hatte Jahrelang nvidia aus anderen Gründen vorgezogen, doch mittlerweile habe ich mehr Spass mit einer ATI, wenn man mal von dem Problemchen mit libdrm absieht, was ja jetzt auch behoben ist.
The_Invisible
2009-05-09, 11:10:59
Das habe ich gesehen. Schön für dich. Wenn du es noch zehnmal schreibst und das auch noch so groß wird es auch nicht anders. Mir ging es darum das sich AI je nach Szene komplett anders verhält und durchaus auch besser sein kann als das NV-Pendant. Aber war ja klar das sich manche wieder auf einen Satz stürzen.
also wäre AI off gegen HQ am fairsten!?! :biggrin:
mfg
LovesuckZ
2009-05-09, 11:18:20
Das ist nicht "Jammern auf höchstem Niveau" sondern typisch deutsche Stammtischdiskussion. Jammern, Meckern und trotzdem sich damit abfinden, wie in allen Lebenslagen. Leute mit Vorschlägen was man dagegen machen kann werden müde belächelt oder auf die Schulter geklopft, aber gleich mit dem Kommentar abgespeist, dass sich doch eh nichts ändern wird etc.. Und dann immer diese müssige einseitige Diskussion über Bildqualität anhand von externen Tools und Reg.-Einträgen. Das man sowas schon braucht ist doch absurd um an Qualität zu kommen. Wäre wie ein Auto ohne Autositz und nur mit einem Dreibeinhocker. Um bequem sitzen zu können kaufe ich mir von einem Dritthersteller ein ordentlichen Sitz. Ich will erst gar nicht was bei einem Treiber einstellen müssen. Sondern ein Spiel installieren, dort die Einstellungen vornehmen und fertig. Das grenzt ja schon an perfider Götzenverehrung mit den Zusatztools und Einstellungen (nehme das um das Einzustellen, dann noch das und das und hurra ein perfektes Bild, nur das ist das wahre).
Du willst Einstellungen in Spiele vornehmen, aber Einstellungen im Treiber wären dir zu aufwendig? Es benötigt nur einen Klick von Quality auf HQ für jede Applikation. Das war es. Wem das zuviel ist, der nimmt auch keine Einstellungen in Spielen vor - denn hier muss man wesentlich mehr Klicks durchführen, um zum gewünschten Ergebnis zu kommen.
Das ist Meckern auf allerhöchstem Niveau und vielleicht typisch deutsch. Da wird etwas schlechtgeredet, was gar nicht schlecht ist. Nur weil es einen Tick "schlechter" als die Konkurrenz ist.
Wenn AMD 50% Samples spart bezeichnest du es als "Tick schlechter".
Auch in keinem einzigem Review, hab ich jemals etwas in diese Richtung lesen müssen.Das ist Anlass zur Sorge.
G7x Default wurde großflächig bemeckert.
Nvidia bot einen HQ Modus an.
Heute wird AI-default kein Stück bemeckert.
AMD bietet keinen HQ Modus an.
Lustige Welt.
Mr. Lolman
2009-05-09, 11:22:32
Sieht man auch schon daran, dass Vergleiche von 8xMSAA gegen 8xMSAA fair wären aber nicht Quality/HQ gegen A.I Off.
Was soll denn bitte an 8xMSAA vs 8xMSAA unfair sein?
also wäre AI off gegen HQ am fairsten!?! :biggrin:
mfg
Nö. Weil (bei aktuellen GraKas) selbst mit AIoff nicht viel besser gefiltert wird als mit default, und die Performance/Kompatibiltät, aufgrund von gleichzeitig deaktivieren appspezifischen Optimierungen dann tw. ordentlich zu wünschen lässt.
Stormscud
2009-05-09, 11:23:19
Ich muss sagen, dass ich diese Diskussion auch ziemlich müßig finde. Vor allem, da es ja nun mal niemand bestreiten kann, dass Nvidia besser filtert. Allerdings sind die Unterschiede nicht so gewaltig, dass (bis auf ganz wenige Fetische) jemand den Unterschied bemerken würde, wenn er nicht direkt vergleichen kann.
Da fällt die Qualität des Displays wohl eher auf und ob man den Monitor noch über VGA betreibt so wie ich einen. So lange das nicht eine große Menge an Leuten stört wird sich daran auch nix ändern... Wozu auch? Wenn es denn so schlimm wäre müsste man ja glatt unterschiedliche Bewertungen bei Spieletests für die Grafik geben. Wenn man dann noch jede Generation für sich betrachtet :|
Ne Jungs, das find ich aber echt total übertrieben. Außerdem kann doch jeder selbst entscheiden, ob er nun Nvidia kauft weil die Filter so geil sind oder ATI weil die Balkenlänge vllt. etwas länger ist. WTF!
Ich kann nur nochmal betonen, ich kenne NIEMANDEN der sich darüber Gedanken macht. Ich kümmer mich zwar um verscheide Settings für jedes Spiel um die maximale Bildqualität herauszuholen (oder auch mal FPS), aber ich bleib doch nicht aller 5m im Spiel stehen und bewundere / mecker über die Filterqualität. Ich spiele um zu spielen und nicht um mir ständig Standbilder anzusehen mit der Lupe :confused:
Auch versteh ich nicht wie man sich so in diese unnötige Diskussion hineinsteigern kann, als gäbe es was zu verteidigen. Völlig daneben!
Und was ich auch beobachtet habe: Hier wird gerne oft general pauschalisiert.
Bsp.: Die Qualität von R5xx bis heute ist ständig schlechter geworden.
Tut mir Leid, kann ich einfach nicht erkennen. Ich hatte die X1800XT (gerade wieder im Betrieb wegen RMA der 4850), dann die HD3870 und eben noch die besagte HD4850. Da sind mir beim Umstieg keine Unterschiede aufgefallen.
Wenn hier nun alle ATI User rummaulen würden, dass man so nicht spielen kann würde ich es verstehen.
LovesuckZ
2009-05-09, 11:26:36
Schonmal überlegt, dass dann dieses Forum für dich das falsche bezüglich dieser Thematik ist? Ich gehe doch auch nicht in Foren, wo es sich um spezielle Themen geht und melde mich zu Wort, dass ich die Diskussion lächerlich fände, weil ich keinen Wert auf die Problematik lege. Ehrlich, wenn es dir egal ist, wieso bist du hier?
Was soll denn bitte an 8xMSAA vs 8xMSAA unfair sein?
Nun, es ist bezüglich der Sinnigkeit nicht vergleichbar. Das selbe wie mit HQ und A.I Off.
Oder willst du sagen, dass die Bildqualität ähnlich sei und man es deswegen vergleichen könnte? Ja, das ist es auch bei Q/HQ mit A.I Off.
Jetzt darfst du dich entscheiden, ob man 8xMSAA miteinander vergleichen kann - aber vergesse nicht: Ein ja, bedeutet auch ein ja für Q/HQ gegen A.I Off.
Netter Thread, den gleichen hatten wir vor 1 1/2 Jahren schon einmal.Schade, hat er nichts gebracht.
Es muss gar nichts thematisiert werden und auf die Schnauze fliegen, muss wegen sowas sowieso keiner.
Oh doch.
Man sieht zu schön, wie AMD weiter macht weil keiner den Mund aufmacht.
Mit der kommenden HD5 wird das ALU:TEX Verhältnis ein gutes Stück schlechter.
Jetzt kommt wieder reunion und erzählt mir, wie er das ganze schön hinter der ALU Last verstecken will.
Ungefähr so wie jetzt, trotz 50% Einsparung kostet 16xAF noch einiges.
Ich wiederhole mich, aber das ist jammern auf ganz ganz ganz hohem Niveau.So wie 8xCSAA vs 8xMSAA?
Das ist eben Ansichtssache: AMD hat mit dem r5xx Karten ein Strohfeuer bezüglich des ansiotropen Filters gehabt - davor und danach waren sie nie auf diesem Niveau.
Die Leute, die hier so reden als es "Jammern auf hohem Niveau" sind die, die es nur sagen, weil AMD nicht mit nVidia konkurrieren kann. Sobald sich aber diese Sache wieder wenden sollte, sind es die ersten, die dann dies genau als Pluspunkt bei AMD ansehen.
Die Vergangenheit hat gezeigt, dass vorallen AMD User ihre Fahne nach den Wind von AMD hängen und genau immer das als Pluspunkt bei AMD sehen, dass sie besser macht als bei nVidia. Sieht man auch schon daran, dass Vergleiche von 8xMSAA gegen 8xMSAA fair wären aber nicht Quality/HQ gegen A.I Off.
Und was ist daran falsch einer zukünfitigen Ati-Karte mit eventuell besserer Bildqualität gegenüber Nvidea einen Vorteil zuzusprechen? Ich bin eher auf der Seite von ATI zu finden. Weiß aber trotzdem, dass Nvidea, einen Vorteil in der Bildqualität hat. Aber Ati liefer meiner Meinung nach momentan einfach das rundere Produkt mit dem rv770 ab. Und das man das als Nvidea Fanboy nicht zugeben kann.... :-(
In den Reviews wird zudem meist in möglichst vergleichbaren Einstellungen getestet. Somit kann man imo sehr wohl die Leistung einschätzen die eine Graka liefert. Es sollte auch klar sein, dass man nie die völlig gleiche Bildqualität einstellen wird können, um Ati und Nvidea absolut fair vergleichen zu können. Aber halt auf einem ähnlichen Niveau!
Weiterhin finde ich die Diskussion um die Bildqualität nicht ganz einfach!
Nehmen wir mal folgendes an: ATI bringt mit dem rv870 eine Chip raus, der die Bildqualität eines g80 ein gutes Stück übertrifft. Die Leistung, die er dabei abliefert sei mal dahingestellt. Nvidea bleibt dagegen auf dem gleichen "hohen" Niveau wie bisher. Ist dann die Bildqualität des g80 auf einmal scheiße?! Oder sind wir dann eh schon auf einem so hohen Level angekommen, dass es nicht stärker bewertet werden sollte, sondern eben nur einen Vorteil des rv870 ausmacht. Dafür rendert das Nvidea pendant halt etwas schneller oder hat sonstige Vorteile. Ist die Karte deswegen gleich schlecht, weil sie eben nur so gut wie ein g80 rendert? Sehr sehr schwer finde ich
Nö. Weil (bei aktuellen GraKas) selbst mit AIoff nicht viel besser gefiltert wird als mit default
Du gibts zu, AI-off filtert besser als AI-default.
Es ist egal wie viel es ist.
Dann gibts nichts mehr zu diskutieren, selbstverständlich nehmen wir AI-off, um die Vergleichbarkeit zu erhöhen.
Mr. Lolman
2009-05-09, 11:33:36
Wenn AMD 50% Samples spart bezeichnest du es als "Tick schlechter".
Das ist Anlass zur Sorge.
G7x Default wurde großflächig bemeckert.
Nvidia bot einen HQ Modus an.
Heute wird AI-default kein Stück bemeckert.
AMD bietet keinen HQ Modus an.
Lustige Welt.
Default war Mist. Jedem fiel das Flimmern auf. HQ war immernoch Mist. Deswegen wurde gemeckert*
Der HQ-Modus war damals mies - und tw. weitaus schlechter als das, was man aktuell von Ati zu Gesicht bekommt. Der Fehler wurde dann zwar irgendwann gefixt, aber den Bug, dass man beim Einstellen der Settings im CP in falscher Reihenfolge selbst mit HQ unter OpenGL nur biAF(!) bekam, schleppte man noch deutlich länger mit (ich geh mal davon aus, dass das mittlerweile schon gefixt wurde).
*Das Ganze nicht mit meinen damaligen Interventionen verwechseln, denn ich hab mich über NV40-default beklagt. Und zwar nicht weil die BQ so mies war, sondern weils deutlich schlechter war, als ATi default und jeder Redakteur sich anhand NVs Benchguides aber darauf verlassen hat, dass die BQ doch vergleichbar ist und beide Settings gegeneinander gebencht hat.
Ich war übrigens auch unter denjenigen die PCGH kürzlich darauf hingewiesen haben, ihre NV-Benchsettings von HQ auf default runterzustellen. Denn selbst wenns nur ein paar Prozent kostet, so hatten die NV-Karten doch mehr zu ackern, und die Benchmarks wurden dadurch zugunsten ATis verfälscht.
Credo: Wenn man Reviews schreibt, sollte man darauf achten, dass die BQ der Kontrahenten möglichst vergleichbar ist. HQ ist von AIoff deutlich weiter weg, als NV-default von ATi-default
Du gibts zu, AI-off filtert besser als AI-default.
Es ist egal wie viel es ist.
Dann gibts nichts mehr zu diskutieren, selbstverständlich nehmen wir AI-off, um die Vergleichbarkeit zu erhöhen.
Wenn dann NV-default vs. AIoff (was durch die koppelung der Abschaltung von anwendungsspezifischer Optimierungen mit der leider nur minimalst höheren BQ eigentlich auch unsinnig ist, aber bitte)
BTW: Wer ist wir?
Nun, es ist bezüglich der Sinnigkeit nicht vergleichbar. Das selbe wie mit HQ und A.I Off.
Oder willst du sagen, dass die Bildqualität ähnlich sei und man es deswegen vergleichen könnte? Ja, das ist es auch bei Q/HQ mit A.I Off.
Jetzt darfst du dich entscheiden, ob man 8xMSAA miteinander vergleichen kann - aber vergesse nicht: Ein ja, bedeutet auch ein ja für Q/HQ gegen A.I Off.
Der Punkt ist, dass beim AA im Gegensatz zu AF auch wirklich vergleichbare Modi angeboten werden. Wärs möglich die anwendungsspezifischen Optimierungen von AI zu entkoppeln, wär ich der Letzte, der ein Problem damit hätte, mit AIoff zu benchen.
Außerdem sieht CSAA tw. sichtbar schlechter aus, und macht tw. Dithering an den Kanten...
gibt's einen einigermaßen aktuellen Test inkl. Bildqualitätsvergleich HQ vs. Q vs. AI off?
Nehmen wir mal folgendes an: ATI bringt mit dem rv870 eine Chip raus, der die Bildqualität eines g80 ein gutes Stück übertrifft. Die Leistung, die er dabei abliefert sei mal dahingestellt. Nvidea bleibt dagegen auf dem gleichen "hohen" Niveau wie bisher. Ist dann die Bildqualität des g80 auf einmal scheiße?!
Nö, G80 wird nicht auf einmal scheisse.
R5xx wurde auch nicht auf einmal scheisse, nur weil G80 besser ist.
R5xx wurde nur als "schlechter" bezeichnet.
R600 darf als scheisse bezeichnet werden, weil er schlechter als G80 ist und schlechter als sein Vorgänger und teils schlechter als der verschrieene G7x.
Mal davon ab ist das Utopie, die Daten des RV870 deuten absolut nicht auf ein BQ Wunder hin.
AMD führt maximal noch 16xMSAA und/oder "48x"CFAA ein
Mr. Lolman
2009-05-09, 11:43:13
und schlechter als sein Vorgänger und teils schlechter als der verschrieene G7x.
Aber nur tw. bei G70 HQ mit gefixten Treiber (wo dann ohnehin niemand mehr geschrien hat, weil die BQ dann, bis auf die Winkelabhängigkeit, eh in Ordnung war). Nicht alles vermixen bitte.
Aber nur tw. bei G70 HQ mit gefixten Treiber (wo dann ohnehin niemand mehr geschrien hat, weil die BQ dann, bis auf die Winkelabhängigkeit, eh in Ordnung war). Nicht alles vermixen bitte.
Es steht jedem frei, bei ATI einen gefixten Treiber zu benutzen und den Schalter auf HQ statt Treiberdefault zu.
Mr. Lolman
2009-05-09, 11:51:31
Es steht jedem frei, bei ATI einen gefixten Treiber zu benutzen und den Schalter auf HQ statt Treiberdefault zu.
Du meinst bei NV, oder? Auf den gefixten Treiber musste man ein paar Monate warten, und von da an, hat sich ja eh niemand mehr beschwert.
Default war Mist. Jeden fiel das Flimmern auf. HQ war immernoch Mist. Deswegen wurde gemeckert*
Ganz so einfach ist es dann doch nicht.
Auch R5xx AI-on ist nicht immer rosig, gerade Rxx noch weniger.
Man kann nicht einfach pauschal behaupten:
G7x Q < G7x HQ < R6xx AI-on < R6xx AI-off
Wenn dann NV-default vs. AIoff (was durch die koppelung der Abschaltung von anwendungsspezifischer Optimierungen mit der leider nur minimalst höheren BQ eigentlich auch unsinnig ist, aber bitte)
BTW: Wer ist wir? Dieses verstecken hinter "anwendungsspezifischer Optimierungen" ist schrecklich.
Keinen würde es stören, wenn (damaliger) Nvidias HQ Modus so verbaut wäre.
Für den Anwender oder Tester ist es völlig ohne Belang, wie es im inneren des Treibers aussieht.
Für ihn ist HQ genauso wie AI-off ein simpler Schalter.
btw: Ich und du und der Rest hier sind wir.
Aber nur tw. bei G70 HQ mit gefixten Treiber (wo dann ohnehin niemand mehr geschrien hat, weil die BQ dann, bis auf die Winkelabhängigkeit, eh in Ordnung war). Nicht alles vermixen bitte.
Das niemand mehr geschriehen hat ist ohne Belang.
Der Ruf des G7x war schon längst dahin, die 2 geizhals Links wurden auch nicht entfernt.
Aufhöhren zu schreien ist keine Heldentat, wenn die Lawine schon unaufhaltsam ist.
Im Endeffekt hat Nvidia keinerlei Vorteile daraus ziehen können, hätten sie lieber alles gelassen wie es war, den jetzt stehen GF7 im Vergleich zu Radeon X1 schlechter als zum Release dar, jeder behauptet natürlich es läge am unfähigen Treiberteam Nvidias, teils übertragen wahre Helden unserer Zeit dies auf GF8+.
Mr. Lolman
2009-05-09, 12:14:43
Ganz so einfach ist es dann doch nicht.
Auch R5xx AI-on ist nicht immer rosig, gerade Rxx noch weniger.
Man kann nicht einfach pauschal behaupten:
G7x Q < G7x HQ < R6xx AI-on < R6xx AI-off
Tut auch niemand. Insgesamt im Schnitt(!), wars aber so. Mit dem gefixten Treiber kann der G70 in Szenen wo die Winkelabhängigkeit nicht auffällt und (der Vollständigkeit halber), auch kein negatives LOD verwendet wird, mit HQ durchaus schonmal besser filtern. Streitet ja keiner ab.
Dieses verstecken hinter "anwendungsspezifischer Optimierungen" ist schrecklich.
Stimmt.
Keinen würde es stören, wenn (damaliger) Nvidias HQ Modus so verbaut wäre.
Naja. Schon eher. Wenn man schon eine Option zu max. BQ hat, dann bitte ohne irgendwelcher Koppelungen. Leider ist AIoff nur eine Option zu min. besserer BQ, bei weitem jedoch nicht zu max. möglicher - und hat auch noch diese unsägliche Koppelung. Für mich dementsprechend keine (dauerhafte) Option, für bessere BQ.
Für den Anwender oder Tester ist es völlig ohne Belang, wie es im inneren des Treibers aussieht.
Für ihn ist HQ genauso wie AI-off ein simpler Schalter.
Mit dem Unterschied, dass mit AIoff manche Spiele nicht mehr ordentlich rennen und der Anwender deswegen künfitg tunlichst die Finger davon lassen wird.
die 2 geizhals Links wurden auch nicht entfernt.
Stimmt. Das ist ärgerlich.
Aufhöhren zu schreien ist keine Heldentat, wenn die Lawine schon unaufhaltsam ist.
Und aus welchem Grund genau stört dich das jetzt noch?
Im Endeffekt hat Nvidia keinerlei Vorteile daraus ziehen können, hätten sie lieber alles gelassen wie es war, den jetzt stehen GF7 im Vergleich zu Radeon X1 schlechter als zum Release dar, jeder behauptet natürlich es läge am unfähigen Treiberteam Nvidias, teils übertragen wahre Helden unserer Zeit dies auf GF8+.
Hm, dann hätten die Leuts alle ihre ganzen G7x wieder verkauft - bis auf ein paar unbeugsame NVidianer. (NV hat ja relative schnell versprochen den Bug zu fixen, nur gedauert hats halt ein bisschen bis es so weit war). Außerdem:
Der G70 steht ohnehin mies da. Schonmal halbwegs aktuelle Benchmarks betrachtet. Erbärmlich ist das, war da tw. noch an Performance abgeliefert wird.
BTW: Wenn du willst, grab ich dir den Thread aus, wie der G7x damals im 3DC gehyped (!! - ja genau) wurde. Selbst als schon feststand, dass er hinsichtlich Shaderleistung kein Land sieht vgl. zum R5x0, waren alle ganz wuschig. Zb. hat Tombman auch regelmässig prophezeit, dass der G71 dann alles in Grund und Boden rocken wird. Die BQ-Schreierei war damals eher minimal - und kam hauptsächlich - im Gegensatz zu heute - von Anwendern, die sich ärgerten, dass selbst bei HQ die Qualität ordentlich zu wünschen übrig lies.
uweskw
2009-05-09, 12:44:34
Es gibt sogar diverse Videos, die das Problem genau aufzeigen. Hier hab ich zb. vor längerer Zeit mal eins gemacht: KLICK (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6187566&postcount=414)
mfg.
Sonyfreak
Nachdem ich mir das gesamte Thema mit grßem Interesse durchgelesen habe und begriffen habe wie beschissen die BQ meiner HD4850 ist, hab ich mir die Videos angeschaut. Dachte da müssen ja Welten dazwischen liegen.
Zuerst dachte ich, ich hätte was falsch gemacht, sah beides gleich aus.
Musste sie ca. 5x anschauen um überhaupt einen BQ Unterschied festzustellen, sieht halt ein bisschen anders aus. Wo es bei ATI grieselt, wirkt es bei NV unscharf (in Bewegung).
Nach weiteren 8-10x hin und her schalten habe ich tatsächlich leichte Vorteile bei NV festgestellt.
Wenn das schon eine "auffällige" Stelle sein soll...
Falls es stimmt das ATI durch diese fast unsichtbare Optimierung 50% Vorteil zieht, dann kann man denen für ihre Effizienz nur gratulieren.
Greetz
U.S.
LovesuckZ
2009-05-09, 12:54:06
BTW: Wenn du willst, grab ich dir den Thread aus, wie der G7x damals im 3DC gehyped (!! - ja genau) wurde. Selbst als schon feststand, dass er hinsichtlich Shaderleistung kein Land sieht vgl. zum R5x0, waren alle ganz wuschig. Zb. hat Tombman auch regelmässig prophezeit, dass der G71 dann alles in Grund und Boden rocken wird. Die BQ-Schreierei war damals eher minimal - und kam hauptsächlich - im Gegensatz zu heute - von Anwendern, die sich ärgerten, dass selbst bei HQ die Qualität ordentlich zu wünschen übrig lies.
Errinnert mich an einen gewissen Mr.Lolman, der regelmässig prophezeit hat, dass der r600 sich wesentlich länger halten würde als der G80 und dass die Karte in zukunftigen Spielen den G80 überholen werde.
/edit: Sry, aber du hast dich doch nie für AF Qualität interessiert - und fandest immer das AF des r200 so toll.
Mr. Lolman
2009-05-09, 13:03:31
@uwesk:
Siehst du. Genauso kommts wohl auch für die Meisten rüber. Ich jedoch muss gestehen, dass mir der BQ-Unterschied sofort ins Auge gesprungen ist - aber dass er auch ungefähr dem entspricht, was ich erwartet hab. Und ja, die Stelle ist in der Tat auffällig.
Unsichtbar ist die Optimierung in meinen Augern leider nicht, aber imo auch nur selten, wie idF zB, störend. Was mir trotzdem abgeht ist eine Möglichkeit für ordentliche Max. BQ (beim R580 war das sogar mit aktiviertem AI möglich => AI High + AnisotropyOptimise 0 + TrilinearOptimise 0)
Also liebe Catalyst Crew - falls da jemand davon mitliest - hier meine Wunschliste:
1.) AIHigh Trick bitte aktivieren
2.) treibergesteurtes Downsampling einbauen
3.) ASBT freischalten
4.) MSAAA wieder auf EATM Niveau tweakbar machen
5.) SGSSAA einbauen
Wenn ihr das macht, dann regt sich sicher niemand mehr über die default-BQ und die Koppelung der App.Optimierungen mit der Filterqualität auf. :biggrin:
/edit: Sry, aber du hast dich doch nie für AF Qualität interessiert - und fandest immer das AF des r200 so toll.
Ist das ironisch gemeint?
LovesuckZ
2009-05-09, 13:06:55
Ist das ironisch gemeint?
Hast du die Aussagen zum r200 AF ironisch gemeint? Ansonsten nicht.
desert
2009-05-09, 13:12:24
BTW: Wenn du willst, grab ich dir den Thread aus, wie der G7x damals im 3DC gehyped (!! - ja genau) wurde. Selbst als schon feststand, dass er hinsichtlich Shaderleistung kein Land sieht vgl. zum R5x0, waren alle ganz wuschig. Zb. hat Tombman auch regelmässig prophezeit, dass der G71 dann alles in Grund und Boden rocken wird. Die BQ-Schreierei war damals eher minimal - und kam hauptsächlich - im Gegensatz zu heute - von Anwendern, die sich ärgerten, dass selbst bei HQ die Qualität ordentlich zu wünschen übrig lies.
[/I]
Wollen wir uns die benchmarks von ht4u anschauen die sich den spass erlaubt haben und ai ausgeschaltet haben?
Und wo plötzlicherweise der r5xx in af situation lustigerweise bis zu 50 % verloren hat. Und hinter einem g70 auf hq lag. Aber ich weiss alles nur gamefixes und a.i. ist ja so klasse
Aber das mal eine seite sowas testet wird wohl nicht passieren
Natürlich primär Tweaks, als ob R520 langsamer als ein G70 sein könnte nur wegen der minimalen Änderungen zwischen AI low und AI off.
G70 machte ja auch nur eine solche Welle, weil default extrem schelcht war und der Treiber den HQ-Cheat hatte.
Wenn ihr das macht, dann regt sich sicher niemand mehr über die default-BQ und die Koppelung der App.Optimierungen mit der Filterqualität auf. :biggrin:
Nein, denn das ist ein derart übler Missstand, der absolut unendschuldbar ist.
Mit dem Unterschied, dass mit AIoff manche Spiele nicht mehr ordentlich rennen und der Anwender deswegen künfitg tunlichst die Finger davon lassen wird.
Das ist die Frage.
Erkennt der Anwender, warum es auf einmal nicht läuft? Im besten Fall schaltet er auf Treibedefault um, das heißt Geschichten wie AAA, CFAA oder sonstewas sind für ihn künftig bedeutungslos.
Im schlechtesten Fall wird er künftig keine Radeon mehr kaufen. Ich als IHV würde derartige Schalter, wo hinterher nichts läuft besser verstecken.
Andererseits bist du ein gutes Beispiel, das AMD mit dem Verfahren doch recht hat, es ist einfach klasse die Filterqualität an völlig andere Dinge ranzukleben.
Und aus welchem Grund genau stört dich das jetzt noch?
Ähm, das G7x jetzt auf alle Zeiten die einzig böse GPU bleibt, selbst wenn sie nicht immer das Schlimmste ist?
THm, dann hätten die Leuts alle ihre ganzen G7x wieder verkauft - bis auf ein paar unbeugsame NVidianer. (NV hat ja relative schnell versprochen den Bug zu fixen, nur gedauert hats halt ein bisschen bis es so weit war). Außerdem:
Der G70 steht ohnehin mies da. Schonmal halbwegs aktuelle Benchmarks betrachtet. Erbärmlich ist das, war da tw. noch an Performance abgeliefert wird.
Bezweifel ich, das die Käufer ihre GF7 abgestossen hätten.
Selbst hier im Forum wird doch immer wieder gepredigt, das das bissel BQ keinen juckt.
Mit dem zweiten Absatz schaffst du es exakt so auszudrücken, wie es alle Welt tut. Ja, das dumme NV Treiberteam oder die vermurkste GF7 ist so elend lahm. Dumm nur, das du keinen alten Benchmark mit neuen Treibern hast, gelle?
Du vergleichst Neuen Benchmarks mit neuen Treibern mit alten Benchmarks mit alten Treibern und tust so, als ob es nur an einem Faktor hinge.
Fehlt noch, das du eine X1800 512 gegen eine 7800 GTX 256 samt PCIe 4x vergleichst.
BTW: Wenn du willst, grab ich dir den Thread aus, wie der G7x damals im 3DC gehyped (!! - ja genau) wurde. ...Gerne, der Samstag ist noch jung.
Andererseits ist es wohl kaum dein Ziel mich zu unterhalten und entsprechend negativ muss ich dieses Angebot auffassen.
uweskw
2009-05-09, 13:37:13
Wo das flimmern wirklich auffällig ist, ist zB. bei den Büschen in Crysis, da ist es auf vH echt störend. Auch bei nem Kumpel von mir, der hat allerdings ne 260er von NV.
Darüber höre ich aber leider kaum etwas. Hier wäre für beide Hersteller echter Optimierungsbedarf.
Greetz
Das nennt sich Shaderflimmern.
Lösung heißt SSAA. Gibts bei Nvidia.
Daredevil
2009-05-09, 13:49:40
Is auch total günstig bei Crysis. :D
uweskw
2009-05-09, 13:50:07
Das nennt sich Shaderflimmern.
Lösung heißt SSAA. Gibts bei Nvidia.
bei Crysis?
Wird zur Diashow.
Wie kann ich Texturflimmern von Shaderflimmern unterscheiden?
h'lore
2009-05-09, 13:54:43
So wie 8xCSAA vs 8xMSAA?Auf den zweiten Blick finde ich diese Analogie gar nicht mal so verkehrt. Ist ähnlich vergleichbar, wie die aktuell am meisten verbreitete Benchmarkeinstellung. Wobei ich persönlich 8xCSAA samt NVs 16x HQAF immer noch schöner empfinde als sämtliche Einstellungen, die einem von ATI erlaubt werden. Allerdings ist mir hochqualitative Texturfilterung schon immer wichtiger gewesen, als möglichst viele Samples beim FSAA. Bei allem, was über 4x MSAA geht, investiere ich übermäßig vorhandene Leistung lieber in Supersampling, als in noch mehr MSAA-Samples.
Nachdem ich mir das gesamte Thema mit grßem Interesse durchgelesen habe und begriffen habe wie beschissen die BQ meiner HD4850 ist, hab ich mir die Videos angeschaut. Dachte da müssen ja Welten dazwischen liegen.
Wenn dir nichts am Boden auffällt bist du blind oder von Gott gesegnet.
Is auch total günstig bei Crysis. :D
Ich kann eh nicht verstehen, wie man sich Crysis VH antun kann ohne SSAA.
Alle 5min Tabletten gegen Kopfschmerzen zu schlucken und alle 10min zum Augenarzt rennen macht mir keinen Spass.
bei Crysis?
Wird zur Diashow.
Je nach Karte und Einstellung: Nein.
Wie kann ich Texturflimmern von Shaderflimmern unterscheiden?
Hm. Wie wärs mit "alle Einstellungen auf Low, bis auf Texturen(qualität)", dann dürfte es kaum noch Shaderflimmern.
uweskw
2009-05-09, 14:11:37
Crysis auf vH bei 1600x1200 und SSAA ist auf ner 260er ne Ruckelorgie.
Wenn ich natürlich alles auf min. stelle, gehts mit SSAA, das ist aber nicht der Sinn der Sache.
Eine GTX 260 stellt nicht das Topmodell da.
Zwischen VH und L gibts noch andere Möglichkeiten.
Zur Auflösung hast du dich erst jetzt geäußert.
;)
G70 ist ein schlechtes Beispiel, dort war das Filterproblem für die meisten Nutzer erkennbar. Kaum einer hätte noch einmal eine solche Karte gekauf. ergo mußte NV nachbessern. Viele bekannte Medien haben die Schwächen beim Texturfilter der NV40- oder G70-Generation nie erwähnt. NV hat wegen der Käufermasse nicht nachbessern müssen, sie haben jetzt die Option auf gute Filterqualität im Angebot weil die Texturierungsleistung der Karten höher ist als bei der Konkurrenz. Damit kann man sich auch gute Texturfilter leisten.
Was ATI heute liefert ist aber hinreichend. Und wenn es ihnen dadurch gelingt equivalente Performance für weniger Geld in den Markt zu bringen (weil der Chip kleiner sein kann), dann ist es ein legitimes Mittel.Was die Radeons bringen reicht dem Durchschnittsgamer aus, aber nicht dem Pixelfetischisten. Pixelfetischisten zu vergrätzen zahlt sich auf Dauer aber nicht aus.
Unterfilterung durchgehen zu lassen heißt, auf echte Schärfe zu verzichten. Muss der Content in Zukunft an Unterfilterung angepasst werden, sehen wir weniger Details in den Texturen.
Ich muss sagen, dass ich diese Diskussion auch ziemlich müßig finde. Vor allem, da es ja nun mal niemand bestreiten kann, dass Nvidia besser filtert. Allerdings sind die Unterschiede nicht so gewaltig, dass (bis auf ganz wenige Fetische) jemand den Unterschied bemerken würde, wenn er nicht direkt vergleichen kann.Die Leute wissen leider auch nicht, was sie verpassen. Wer WoW zockt und WoW mit guter Filterung und 8xS-Antialiasing sieht, und dann die Warcraft-Welt richtig auf sich wirken lässt, merkt dann erst, dass es auch mit stark reduzierter Flimmerei geht.
Wir sind im Zeitalter von Shader Model 4.0 und reden noch über Texturfiter ... die sollten eigentlich längst quasi-perfekt arbeiten.
Nicht mal dann heisst es korrekt geschrieben. Korrekt heißt es "heißt".
Mr. Lolman
2009-05-09, 14:57:18
Hast du die Aussagen zum r200 AF ironisch gemeint? Ansonsten nicht.
Iirc hab ich bloß geschrieben, dass in Mafia das R200 AF, allen Unkenrufen zu trotz, doch recht brauchbar war. In den meisten anderen Spielen, wars ne BQ-Verschlechterungsmaßnahme. Serious Sam (SE) hab ich bspw lieber mit SSAA und negativem LOD, als mit R200-AF gespielt (was ohnehin aber auch wiederum ein Extrembeispiel darstellt, da das Spiel bei gleicher Performance auf ner Voodoo5 5500 besser aussah)
Nein, denn das ist ein derart übler Missstand, der absolut unendschuldbar ist.
Der aber wurscht ist, wenn man mit AIHigh + Tweaks AIoff-Qualität erreichen kann.
Das ist die Frage.
Erkennt der Anwender, warum es auf einmal nicht läuft? Im besten Fall schaltet er auf Treibedefault um, das heißt Geschichten wie AAA, CFAA oder sonstewas sind für ihn künftig bedeutungslos.
Im schlechtesten Fall wird er künftig keine Radeon mehr kaufen. Ich als IHV würde derartige Schalter, wo hinterher nichts läuft besser verstecken.
Andererseits bist du ein gutes Beispiel, das AMD mit dem Verfahren doch recht hat, es ist einfach klasse die Filterqualität an völlig andere Dinge ranzukleben.
Was heißt, ich bin ein gutes Beispiel? Ich sprach 1. allgemein vom Anwender und 2. was soll man denn bitteschön deiner Meinung nach machen, wenn man mit der AIlow-BQ nicht zufrieden ist, und dafür bei AIoff zB AA nicht mehr funzt.
Ähm, das G7x jetzt auf alle Zeiten die einzig böse GPU bleibt, selbst wenn sie nicht immer das Schlimmste ist?
Insgesamt betrachtet ist sie das Schlimmste. Ok nein. Rein vom BQ-Aspekt betrachtet war das R200-AF war mit Abstand noch das grausamste.
Bezweifel ich, das die Käufer ihre GF7 abgestossen hätten.
Selbst hier im Forum wird doch immer wieder gepredigt, das das bissel BQ keinen juckt.
Nur gibts einen ziemlichen Unterschied zw dem damals 'defekten' G70 HQ und dem heutigen AIlow.
Mit dem zweiten Absatz schaffst du es exakt so auszudrücken, wie es alle Welt tut. Ja, das dumme NV Treiberteam oder die vermurkste GF7 ist so elend lahm. Dumm nur, das du keinen alten Benchmark mit neuen Treibern hast, gelle?
Dumm nur, dass ich doch einen (relativ*) alten Benchmark mit neuen treibern hab: http://www.pcgameshardware.de/screenshots/original/2009/02/Generation_HL2Ep2CM9.5_1280.PNG
http://www.pcgameshardware.de/aid,674689/Sechs-Grafikkarten-Generationen-im-Benchmark-Test/Grafikkarte/Test/?page=6
*auf die Engine bezogen
Du vergleichst Neuen Benchmarks mit neuen Treibern mit alten Benchmarks mit alten Treibern und tust so, als ob es nur an einem Faktor hinge.
Fehlt noch, das du eine X1800 512 gegen eine 7800 GTX 256 samt PCIe 4x vergleichst.
Ja das fehlt wirklich. Denn dann würd ich genau den Scheiss machen, denn du mir die ganze Zeit unterstellst.
Gerne, der Samstag ist noch jung.
Andererseits ist es wohl kaum dein Ziel mich zu unterhalten und entsprechend negativ muss ich dieses Angebot auffassen.
War aber nicht negativ gemeint, und unterhaltsam ists durchaus: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=275998
Dann bist Du aber ein bisschen balla balla.Ich würde derzeit lieber wieder meine 8600 GTS einbauen (im Moment ist eine 9800 GTX drinnen) anstatt eine Radeon nehmen zu müssen.
Korrekt heißt es "heißt".
Nur in Deutschland. Hier in der Schweiz wird dieser Buchstabe nicht genutzt und daher ist es auch nicht falsch. Es gibt noch eine Welt ausserhalb von D.
Zudem vergleichst Du Äpfel mit Birnen.
y33H@
2009-05-09, 15:40:52
Dass CCC braucht im Autostart in der Tat einige Zeit bis es mal geladen ist.Also doch ;) Dafür ists dann mit Doppelklick aufs Traysymbol nach 2 Sekunden da. Oft ja, aber nicht immer. Beim NV-Panel wart ich regelmässig 10 Sekunden und mehr, bis es dann offen ist.Komisches NP hast du. Teils muss man mal n Mom warten - aber (fast) immer 10sec? Neee.Irgendwie mach ich mir schön langsam sorgen um deine Neutralität, Hr. Benchmarc.Wenn ich ich die mir bekannten Startzeiten der CPs benenne? ;D Mir ist das egal, ich überlebe diese paar Sekunden. Das einzige was ich kritisiere, ist AI sowie die idle-Leistungsaufnahe der GDDR5-Modelle. Die Neutralität geht mir hier nicht abhanden - diese Punkte benennt jeder, der sich mit befasst. Im Übrigen wurde ich letztens bei CB als AMD-Fanboy bezeichnet und gerne von letzteren als nV-Fanboy. Und wenn alle weinen, denke ich, mache ich es richtig mit der Kritik :cool:Was soll denn bitte an 8xMSAA vs 8xMSAA unfair sein?Gar nichts, da bei IHVs hier ja praktisch die gleiche BQ liefern. Auf beiden IHVs ist 8x MSAA aber eher n Bench-Modus, da es für viele Spiele sinnvoller ist, mit Transparency/Adaptiv anzurücken, als nur die Polygone mit aller Gewalt zu glätten.Ja, das ist es auch bei Q/HQ mit A.I Off. HQ gegen AI-off? :eek: AMD saufen die Fps krankhaft ab bei im Vergleich ziemlich mieser BQ ;D Da ist der 8x-Vergleich lächerlich gegen, da hier nV zwar im Rückstand ist, aber kein Waterloo erlebt wie AMD bei HQ gegen AI-off. Wenn man Reviews schreibt, sollte man darauf achten, dass die BQ der Kontrahenten möglichst vergleichbar ist. HQ ist von AIoff deutlich weiter weg, als NV-default von ATi-default Korrekt. Zwar mit leichtem Fps-Vorteil für AMD, bedingt durch die Sample-Einsparungen, aber man hat aber eben aktuell (leider) keine andere Option.
Jake Dunn
2009-05-09, 16:08:01
Nachdem ich mir das gesamte Thema mit grßem Interesse durchgelesen habe und begriffen habe wie beschissen die BQ meiner HD4850 ist, hab ich mir die Videos angeschaut. Dachte da müssen ja Welten dazwischen liegen.
Zuerst dachte ich, ich hätte was falsch gemacht, sah beides gleich aus.
Musste sie ca. 5x anschauen um überhaupt einen BQ Unterschied festzustellen, sieht halt ein bisschen anders aus. Wo es bei ATI grieselt, wirkt es bei NV unscharf (in Bewegung).
Nach weiteren 8-10x hin und her schalten habe ich tatsächlich leichte Vorteile bei NV festgestellt.
Wenn das schon eine "auffällige" Stelle sein soll...
Greetz
U.S.
Man sieht Unterschiede links neben den Schienen, aber es kamm auch HQ vs. AI def. zum Einsatz, desweiteren ist HL2 schon ein gut ausgesuchtes Beispiel.
Was die Radeons bringen reicht dem Durchschnittsgamer aus, aber nicht dem Pixelfetischisten. Pixelfetischisten zu vergrätzen zahlt sich auf Dauer aber nicht aus.
Im Grundsatz hast Du Recht und im absoluten High-End würde ich Dir zustimmen, ab dem Performancesegment hingegen glaube ich nicht, dass ATI mit ihrer Strategie falsch liegt und da sie ja nur noch Performance-Chips /und schwächer) bauen, dürfte es für sie optimal sein.
LovesuckZ
2009-05-09, 16:25:38
Bildqualität sollte immer unabhängig vom verlangten Preis sein. Außer, man will als AMD User in einer Zwei-Klassen-Gesellschaft landen, wo die mGPU Systeme plötzlich eine bessere BQ produzieren als die sGPU Systeme.
/edit: Es spielt daher keine Rolle, wo AMD sich positioniert - da sie überall die selbe Basis verwenden.
AnarchX
2009-05-09, 16:48:47
Bildqualität sollte immer unabhängig vom verlangten Preis sein. Außer, man will als AMD User in einer Zwei-Klassen-Gesellschaft landen, wo die mGPU Systeme plötzlich eine bessere BQ produzieren als die sGPU Systeme.
Solch eine BQ-Feature-Politik im Bezug auf die Leistung wäre aber nichts neues, bei NV bot z.B. eine GeForce7300GS auch keinen 8xS Modus im CP an, während es die größeren GF7 taten.
Und heute bieten MGPU-Lösungen sowohl bei ATi und NV AA-Modi, welchen auf den Single-GPU-Lösungen nicht verfügbar sind, obwohl technisch machbar.
Insgesamt ist es jedoch traurig, dass man sich als Enthusiast bei ATi mit seinen bis zu 160GTex/s im Gehäuse mit einer Filterqualität zufriedengeben muss, die durch den Qualitätsanspruch von Casual-Gamern definiert ist und man bei ATi der Meinung ist, dass ein zusätzlicher Schalter diese überfordern würde...
Solch eine BQ-Feature-Politik im Bezug auf die Leistung wäre aber nichts neues, bei NV bot z.B. eine GeForce7300 auch keinen 8xS Modus im CP an, während es die größeren GF7 taten.
Hängt vielleicht vom Treiber ab, selbst auf der 6600GT kann ich 8xS auswählen.
DrFreaK666
2009-05-09, 16:57:47
Ich frage mich auch was diese Diskussion soll?
AMD ändert bestimmt nichts daran nur weil es einigen hier nicht passt.
Jedes Jahr über das Selbe zu diekutieren macht ja nciht unbedingt Sinn.
Ich sehe es so: Da gibt es bestimmt Leute, die sich daran aufgeilen, dass AMD schlechteres AF bietet.
Es ist genauso wie bei den BILD-Lesern.
Die benötigen schlechte Nachrichten, sonst sind sie mit der Welt nicht zufrieden.
Echt seltsam sowas :|
AnarchX
2009-05-09, 16:57:48
Hängt vielleicht vom Treiber ab, selbst auf der 6600GT kann ich 8xS auswählen.
Eine 6600GT ist ja auch fast doppelt so schnell wie 7300GS.
y33H@
2009-05-09, 17:00:34
@ DrFreaK666
Findest du, dass HL1-Optik vollkommen ausreichend ist und man nicht mehr benötigt, obwohl genügend Leistung vorhanden wäre?
DrFreaK666
2009-05-09, 17:37:22
@ DrFreaK666
Findest du, dass HL1-Optik vollkommen ausreichend ist und man nicht mehr benötigt, obwohl genügend Leistung vorhanden wäre?
Nein, aber wenn ich hier ewig diskutiere dann ändert sich nichts daran.
Auch ich merke das Flimmern in Spielen, aber ich kann nichts dagegen machen.
Das einzige was helfen würde wäre wenn alle Gamer, die sich eine Graka ab 200€ zulegen zu einer NV-Karte greifen als Protest.
Aber wer macht das schon? Nur ein winziger Teil
Insgesamt ist es jedoch traurig, dass man sich als Enthusiast bei ATi mit seinen bis zu 160GTex/s im Gehäuse mit einer Filterqualität zufriedengeben muss, die durch den Qualitätsanspruch von Casual-Gamern definiert ist und man bei ATi der Meinung ist, dass ein zusätzlicher Schalter diese überfordern würde...
Ich komme zwar auf 120GTex/s, aber das ist dennoch 20% mehr als ein GTX 285 SLI erreicht.
AnarchX
2009-05-09, 18:59:36
Ich komme zwar auf 120GTex/s, aber das ist dennoch 20% mehr als ein GTX 285 SLI erreicht.
Quad-4890-1GHz-Werks-OC-CF bzw. die 120GTex erreicht man ja auch mit einem Triple-CF aus diesen bald verfügbaren 1GHz-Karten, was auf Grund der Skalierung wohl einem 4870X2-CF vorzuziehen wäre.
LovesuckZ
2009-05-09, 18:59:57
Nein, aber wenn ich hier ewig diskutiere dann ändert sich nichts daran.
Auch ich merke das Flimmern in Spielen, aber ich kann nichts dagegen machen.
Das einzige was helfen würde wäre wenn alle Gamer, die sich eine Graka ab 200€ zulegen zu einer NV-Karte greifen als Protest.
Aber wer macht das schon? Nur ein winziger Teil
Ohne Meckern gibt es keine Information. Und ohne Information kann man keine Entscheidungen treffen.
Also ob es um Information geht, es geht darum ATI schlecht zu machen.
Information wäre: "Die BQ ist bei ATI schlechter an die eigenen Wünsche anzupassen und liegt unter der bei NV erreichbaren maximalen Qualität."
Information wäre: "Die BQ ist bei ATI schlechter an die eigenen Wünsche anzupassen und liegt unter der bei NV erreichbaren maximalen Qualität."
Und der Käufer erfährt es nur, wenn er solche Freds liest.
Ansonsten kauft er ein Produkt, über wessen negative Eigenheiten er sich erst nach dem hinblättern der 20€ - 1500€ ärgern kann.
LovesuckZ
2009-05-09, 19:27:31
Also ob es um Information geht, es geht darum ATI schlecht zu machen.
Wie kann man jemanden schlecht machen, wenn man faktisch die Wahrheit beweisen kann? :rolleyes:
DrFreaK666
2009-05-09, 19:30:44
Und der Käufer erfährt es nur, wenn er solche Freds liest.
Ansonsten kauft er ein Produkt, über wessen negative Eigenheiten er sich erst nach dem hinblättern der 20€ - 1500€ ärgern kann.
Und wer liest solche Threads?
Nur die, die die Information sowieso schon kennen -> daher sinnlos
Und wenn sich immer die selben daran beteiligen dann bringts ja auch nichts.
Besser wäre Artikel schreiben und dafür werben damit es genügend Interessierte lesen.
In der Gamestar wird man darüber sicherlich nie was lesen.
Laut gamestar ist das AF nahezu perfekt (oder so ähnlich).
Wer schreibt also einen Artikel? LovesuckZ? Immerhin beteiligt er sich ja rege am Thema :biggrin:
Die pCGH hat das Thema imho gut angesprochen. Es ist ein Faktor bei der Kaufentscheidung, aber die BQ ist nun auch nicht so grottig, dass man eine solche Karte dafür abwerten müßte.
DrFreaK666
2009-05-09, 19:41:11
Die pCGH hat das Thema imho gut angesprochen. Es ist ein Faktor bei der Kaufentscheidung, aber die BQ ist nun auch nicht so grottig, dass man eine solche Karte dafür abwerten müßte.
Nicht jeder kauft sich die PCGH.
Viele geben ihr Geld lieber für die Gamestar oder gar Computerbild Spiele aus.
Und in diesen Zeitschriften wird es nur am Rande kurz erwähnt.
Wenn das Thema wirklich sooooooo wichtig wäre dann hätt AMD sicherlich nicht so viele HD 48xx verkauft
y33H@
2009-05-09, 19:41:56
Also ob es um Information geht, es geht darum ATI schlecht zu machen. ATI wird nicht schlecht gemacht. Das AF ist bereits schlechter.Information wäre: "Die BQ ist bei ATI schlechter an die eigenen Wünsche anzupassen und liegt unter der bei NV erreichbaren maximalen Qualität."
Information ist: "Die BQ ist bei ATI schlechter an die eigenen Wünsche anzupassen und liegt unter der bei NV als Standard definierten Qualität, die bei NV optional erreichbare Qualität ist bei ATI nicht erreichbar."
EDIT
Es ist ein Faktor bei der Kaufentscheidung, aber die BQ ist nun auch nicht so grottig, dass man eine solche Karte dafür abwerten müßte.Könnte man, wenn man wollte. Und es wäre legitim. Und man könnte im Gegenzug NV-Karten aufwerten dank des optionalen HQ-AFs. Könnte man ja mal ne Umfrage machen ;D
DrFreaK666
2009-05-09, 19:44:53
Information ist: "Die BQ ist bei ATI schlechter an die eigenen Wünsche anzupassen und liegt unter der bei NV als Standard definierten Qualität, die bei NV optional erreichbare Qualität ist bei ATI nicht erreichbar."
Jetzt sind wir alle informiert. Und jetzt?
Mr. Lolman
2009-05-09, 19:48:53
ATI wird nicht schlecht gemacht. Das AF ist bereits schlechter.
Information ist: "Die BQ ist bei ATI schlechter an die eigenen Wünsche anzupassen und liegt unter der bei NV als Standard definierten Qualität, die bei NV optional erreichbare Qualität ist bei ATI nicht erreichbar."
Information ist: "Die AF-BQ ist bei ATI schlechter an die eigenen Wünsche anzupassen und liegt im Schnitt minimal unter der bei NV als Standard definierten, bereits sehr guten Qualität. Die bei NV optional erreichbare maximale AF-Qualitätstufe ist bei ATI nicht einstellbar.
Darunter noch ein paar Vergleichsvideos (am Besten 1-2 Extremsituationen und 1-2 Standardsituationen), so dass sich jeder selbst ein Bild machen kann und der Informationspflicht wurde optimal nachgekommen.
Könnte man, wenn man wollte. Und es wäre legitim. Und man könnte im Gegenzug NV-Karten aufwerten dank des optionalen HQ-AFs. Könnte man ja mal ne Umfrage machen ;D
Genau. Wegen den einem Kriterium ATi abwerten und zusätzlich NV gleich auch ein bisschen aufwerten. Und dann sind wieder wieder bei dem Punkt wo eine 9600GT eine bessere Bewertung als eine HD4870 bekommt. ;D
Hach, das warn noch Zeiten! :ulol:
Jetzt sind wir alle informiert. Und jetzt?
Jetzt gehts uns allen besser. :biggrin:
DrFreaK666
2009-05-09, 19:51:11
lol, jetzt kommt mit eigener eigenen Formulierung ;D
san.salvador
2009-05-09, 20:04:23
Genau. Wegen den einem Kriterium ATi abwerten und zusätzlich NV gleich auch ein bisschen aufwerten. Und dann sind wieder wieder bei dem Punkt wo eine 9600GT eine bessere Bewertung als eine HD4870 bekommt. ;D
Hach, das warn noch Zeiten! :ulol:
Jetzt gehts uns allen besser. :biggrin:
Hardware mit Prozent/Schulnoten zu bewerten ist ohnehin eine saudumme Idee. Das ist einer der Hauptgründe, warum ich mir zB. die PCGH nicht mehr ansehe. Und weil ich das Internet bedienen kann. :D
no6ody
2009-05-09, 20:08:58
lol, jetzt kommt mit eigener eigenen Formulierung ;D
http://de.wikipedia.org/wiki/Grammatik :uup:
y33H@
2009-05-09, 20:11:55
@ Mr. Lolman
Hmmm, Q bzw. AI-def bezeichnest du bereits als sehr gut? Was ist besser als sehr gut? Perfekt?Wegen den einem Kriterium ATi abwerten und zusätzlich NV gleich auch ein bisschen aufwerten.Wie gesagt, es wäre legitim. Ob es "sinnvoll" ist, ist was anderes. Ich denke nicht, da hier nur ein übler Fanboy-War ausbricht ... aber so wie die Grafik eines Spieles bewertet wird, könnte man auch das AF oder das FSAA werten hinsichtlich der Quali.
EDIT
Und dann sind wieder wieder bei dem Punkt wo eine 9600GT eine bessere Bewertung als eine HD4870 bekommt. Alte Story ... da wären Eigenschaften, Ausstattung, das verbuggte NForce-Board und die "böse" CoD4-Szene :(
=Floi=
2009-05-09, 21:01:47
bei was geht es in cod4?
das vergleichsvideo bei hl2 ist schon sehr flimmtrig im vergleich mit dem g80 und man muß ja beachten, dass das das beste ist was geht...
Ich frage mich auch was diese Diskussion soll?
AMD ändert bestimmt nichts daran nur weil es einigen hier nicht passt.
Jedes Jahr über das Selbe zu diekutieren macht ja nciht unbedingt Sinn.
Ich sehe es so: Da gibt es bestimmt Leute, die sich daran aufgeilen, dass AMD schlechteres AF bietet.
Es ist genauso wie bei den BILD-Lesern.
Die benötigen schlechte Nachrichten, sonst sind sie mit der Welt nicht zufrieden.
Echt seltsam sowas :|
Kompakt zusammen gefasst:
ATI wir vor Nvidia mit neuen grakas kommen, da diese mit sicherheit schneller als Nividias aktuelle grakas sein werden da zu noch halb so viel kosten, werden sehr viele leute umsteigen.
Das gilt es zuverhindern!
Die Nvidia meute ist ausersich vor wut und verzweiflung!
Tatsächlich gibt es kein problem mit der filterquali!
Wer optimum will kauft geforce wer mehr will kauft ati.
gruss
LovesuckZ
2009-05-09, 21:37:14
Wieso kommen dauernd falsche Schlussfolgerungen? Sind das Computerbase.de Generation User?
Wer AMD kauft, kauft Bevormundung. Wem das gefällt, der macht keinen schlechten Kauf.
DrFreaK666
2009-05-09, 21:42:41
http://de.wikipedia.org/wiki/Grammatik :uup:
Lol. Ist mir gar nicht aufgefallen :d
Als Ausländer darf man das aber ab und an
Gummikuh
2009-05-09, 21:47:53
... da hier nur ein übler Fanboy-War ausbricht ...
Läuft der nicht schon son bischen?:uponder:
Lawmachine79
2009-05-09, 21:57:49
Kompakt zusammen gefasst:
ATI wir vor Nvidia mit neuen grakas kommen, da diese mit sicherheit schneller als Nividias aktuelle grakas sein werden da zu noch halb so viel kosten, werden sehr viele leute umsteigen.
Das gilt es zuverhindern!
Die Nvidia meute ist ausersich vor wut und verzweiflung!
Tatsächlich gibt es kein problem mit der filterquali!
Wer optimum will kauft geforce wer mehr will kauft ati.
gruss
Hui, hier weht ein Hauch von Edde durch die Luft :).
Ach Leute, mal ohne Scheiß. Nächstes Mal baut halt ATI wieder eine Grafikkarte mit besserer BQ, das ist doch das Schöne am Wettbewerb. Aber hört jetzt doch auf rumzuinterpretieren und mit "ja aber wenn a und gleichzeitig b zutrifft ist NVs BQ nur identisch". Das bringt doch nix. Wer sich so gegen Offensichtliches sperrt, macht sich nicht glaubwürdiger. Und wenn Euch Leute wie Aths und Coda, deren Kompetenz ja nun wirklich über jeden Zweifel erhaben ist, es sagen, dann sollte man da vielleicht auch ein wenig offen für sein. Und auch dieses Argument "man braucht gar keine Optionsvielfalt"...also wirklich..."Ich brauch keine Elektrischen Fensterheber, die lenken mich vom Fahren ab". ATI baut superschnelle Karten mit akzeptabler bis guter BQ zu einem Klassepreis! Die Fehler, die das Produkt hat, lassen sich fast alle mit Softwareupdates beheben, also relativ geringer Aufwand - da würde es sich doch lohnen, Druck auszuüben, das tut keinem Weh, macht das Produkt besser und teurer wird es von den paar Anpassungen auch nicht.
Nicht jeder kauft sich die PCGH.
Viele geben ihr Geld lieber für die Gamestar oder gar Computerbild Spiele aus.
Und in diesen Zeitschriften wird es nur am Rande kurz erwähnt.
Wenn das Thema wirklich sooooooo wichtig wäre dann hätt AMD sicherlich nicht so viele HD 48xx verkauft
Ich finde das Thema für die Masse der Käufer völlig irrelevant. Die wenigsten verstehen überhaupt was Texturfilterung und AF ist, geschweige denn wie es optimal aussehen sollte. Und die Leute kriegen bei ATI viel Leistung für wenig Geld. Und das ist gut so - für uns alle.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.