Archiv verlassen und diese Seite im Standarddesign anzeigen : NV betrügt
Piffan
2005-07-14, 20:10:03
Angesichts der Newsmeldung von Heute, wo die skandalöse Unterfilterung der NV- Hardware angekreidet wird, habe ich mir so meine Gedanken gemacht und folgendes Post an anderer Stelle gebracht.
Ich möchst bewusst "gesitteten Stunk" machen, denn was NV da abzieht, stinkt sicher nicht nur mir. Weil ich an dieser Stelle mehr Beachtung erwarte, zitiere ich mich hier noch mal. Hoffe, nicht gegen Regeln mit diesem Doppelpost zu verstoßen.
Zitat:
Ich bin begeisterter Nutzer von Ati- Karten. Bin damals vom Gf4 von NV auf Ati umgestiegen. Nicht weil ich damals mit NV- Karten unzufrieden war, sondern weil der R300 damals alles an die Wand spielte.
Nun habe ich neben der 9700 mit Pro- Taktraten noch eine 9800XT und ne R420 zu Hause werkeln (die "schwachen" Karten in den Rechnern der Kinder).
Ich bin mit der Leistung von Ati hundertprozentig zufrieden, bis auf das Fehlen von Supersampling auch mit der Bildqualität.
Als nun die 7800 von NV rauskam, war ich zunächst schwer begeistert angesichts des Transparenz- AA, welches ja quasi ein ressourcenschonendes Supersampling darstellt. Im Prinzip ne geniale Sache: Multisampling im Regelfall. Supersampling nur dann, wenn die Designer mit Alphatest arbeiten.
Inzwischen ist meine Sympathie für NV wiederum ganz unten bei Null. Nach dem Debakel mit der Geforce FX hat man es diesmal geschafft, eine vom Prinzip her geniale Hardware, die eigentlich zur Zeit konkurrenzlos ist, durch Kundenverarsche vollkommen zu deklassieren.
Merken die noch Einschläge oder was?
Klar, man kann es jetzt der Benchmark- Kultur in den Medien ankreiden, man KÖNNTE das Verhalten von NV als Notwehr rechtfertigen. Sorry, aber da kenne ich kein Mitleid: Gerade NV hat durch agressives und oft auch unseriöses Marketing diese Benchmarkkultur geprägt. Man ist jetzt vielleicht Opfer seiner eigenen Machenschaften.
Ich finde gut, dass dieses Thema auf dieser Seite hochgespielt wird. Vielleicht sind ja nicht alle Verbraucher so doof wie NV sich das wünscht.
Es ist sogar die Frage erlaubt, ob man bei der Unterfilterung nicht von Betrug sprechen kann. Moralisch ist es Betrug, aber juristisch wohl nicht. Schade, denn als damals die Verbraucher gegen Intel wegen des P4 vorgingen, hätte ich gerne gesehen, dass Intel ne Lektion kassiert. Tjo, manche Träume gehen vielleicht verspätet in Erfüllung, vielleicht hat AMD ja den verdienten Erfolg.
Zitat Ende.
So, nun diskutiert mal schön. Aber bitte keine haltlosen Flames. Zustimmung ist auch erwünscht. :D
@ Razor
Ich möchte es ja nicht raushängen lassen, aber nun, nach einem Jahr wird mit dem Erscheinen der 7er Reihe diese linke Geschichte aufgedeckt und ich hatte doch recht, dass auch die 6er Reihe flimmerte bzw. noch immer flimmert zumindest in Quality ;) :D !!
Schadenfroh macht mich so froh und ebenso des Razorsklo ... ooops hab ja auch einen Flimmerkasten :( hihi
Edit: Sollte mein Avatarbildchen umändern in "The way its meant to be cheated" :D
Quasar
2005-07-14, 20:17:21
Nach dem Debakel mit der Geforce FX hat man es diesmal geschafft, eine vom Prinzip her geniale Hardware, die eigentlich zur Zeit konkurrenzlos ist, durch Kundenverarsche vollkommen zu deklassieren.
Merken die noch Einschläge oder was?
Ich halte mich mal kurz und schmerzhaft: ACK. :up:
LOL
Das wird ja noch ein Nvidia-Bashingthread.
Aber sehe es auch so.
Nvidia übertreibt mit den "Optimierungen".
dildo4u
2005-07-14, 20:26:50
Klar, man kann es jetzt der Benchmark- Kultur in den Medien ankreiden, man KÖNNTE das Verhalten von NV als Notwehr rechtfertigen. Sorry, aber da kenne ich kein Mitleid: Gerade NV hat durch agressives und oft auch unseriöses Marketing diese Benchmarkkultur geprägt. Man ist jetzt vielleicht Opfer seiner eigenen Machenschaften.
ATI hat durch winkel abhäniges AF die Verschlechterung geprägt und in Gang gesetzt hätte man angesichts der überlegenheit des R300 nicht schon damals darauf verzichten können.?
Dunkeltier
2005-07-14, 20:28:07
Ich wußte schon immer, das ich nicht Paranoid bin - und mein Thread seine Berechtigung hat. Ich bin nicht verrückt! :conf:
*panisch zu lachen anfängt und wegrenn* :crazy:
Dunkeltier
2005-07-14, 20:29:05
ATI hat durch winkel abhäniges AF die Verschlechterung geprägt und in Gang gesetzt hätte man angesichts der überlegenheit des R300 nicht schon damals darauf verzichten können.?
Soll das eine Rechtfertigung sein, das dadurch eine "Unterbietung" der BQ legitimiert ist?
Piffan
2005-07-14, 20:33:44
ATI hat durch winkel abhäniges AF die Verschlechterung geprägt und in Gang gesetzt hätte man angesichts der überlegenheit des R300 nicht schon damals darauf verzichten können.?
Hallo? Beim Wechsel vom R200 zum R300 wurde das AF drastisch verbessert! Und Ati bleibt diesem System bis heute treu. Man mag von der AF- Blume halten was man will, der informierte Kunde weiß davon und entscheidet für sich, ob er damit spielen kann.
NV hingegen veräppelt die Kunden......(verniedlicht ausgedrückt)
deLuxX`
2005-07-14, 20:34:16
Stimme dir auch voll und ganz zu.
Es ist einfach lächerlich, bei einem Chip mit 300 Millionen Transistoren, kein vernünftiges AF zu erlauben. Stattdessen bekommt man einfach ein total kaputtoptimiertes AF. Nicht akzeptabel. :mad:
Ich hoffe auch auf mehr Druck durch diverse Seiten im Netz.
-deLuxX`
Demirug
2005-07-14, 20:36:22
Hallo? Beim Wechsel vom R200 zum R300 wurde das AF drastisch verbessert! Und Ati bleibt diesem System bis heute treu. Man mag von der AF- Blume halten was man will, der informierte Kunde weiß davon und entscheidet für sich, ob er damit spielen kann.
NV hingegen veräppelt die Kunden......(verniedlicht ausgedrückt)
Seit dem R300 geht es auch bei ATI abwärts. Vorallem das Erkennung von gefärbten Mipmaps nehmem ich ihnen immer noch übel.
Demirug
2005-07-14, 20:37:05
Soll das eine Rechtfertigung sein, das dadurch eine "Unterbietung" der BQ legitimiert ist?
Wohl eher ein Erklärungsversuch wie es soweit kommen konnte.
Quasar
2005-07-14, 20:38:11
Hallo? Beim Wechsel vom R200 zum R300 wurde das AF drastisch verbessert! Und Ati bleibt diesem System bis heute treu. Man mag von der AF- Blume halten was man will, der informierte Kunde weiß davon und entscheidet für sich, ob er damit spielen kann.
Dem wiederum kann ich nicht zustimmen.
Selbst informierte Kunden sehen erst jetzt, wo die Games langsam geometrisch anspruchsvoller werden, wie schlimm stark ausgeprägte Winkelabhängigkeit sein kann. Der Vergleich R200/R300 ist btw. zwar technisch korrekt, aber realistisch ist es nicht schwer, sich von "unterirdisch" nach oben zu verbessern. :)
Allerdings ist es, im Gegensatz zu deiner Aussage, nach dem R300 bis heute nicht mehr besser geworden.
In dieser Hinsicht hoffe ich ja noch auf den R520 - ja, im Ernst! Hier wäre, gerade jetzt, eine Möglichkeit, mit der ATi stark punkten könnte.
Ansonsten gibt's eben mein Geld für keinen IHV, der Grafikkarten herstellt/GPUs produziert.
du hast vollkommen recht aber was bringt es nv wenn sie die beste bq liefern und dadurch halt den kürzeren balken haben wonach sich der otto normal user der noch nie was von lod, texel, mipmaps oä. gehört hat sich dann die karte mit dem vermeindlich besseren leistungen oder der besseren preis/leistung kauft
ich stimme dir vollkommen zu, muss aber noch erwähnen dass man zu ati genau das gleiche sagen kann.
Quasar
2005-07-14, 20:42:46
du hast vollkommen recht aber was bringt es nv wenn sie die beste bq liefern und dadurch halt den kürzeren balken haben wonach sich der otto normal user der noch nie was von lod, texel, mipmaps oä. gehört hat sich dann die karte mit dem vermeindlich besseren leistungen oder der besseren preis/leistung kauft
Nichts, (ich weiß, du meintest nicht mich) aber solche Geschichten sprechen sich rum und irgendwann reicht es nicht mehr, nur 'den längsten' zu haben, wenn überall im Bekanntenkreis eine Firma als Flimmerteufel verschrien ist.
Wenn ich 'nen längeren brauche, kann ich mir mit den ganzen Reglern ja selbst die BQ kaputttweaken - ansonsten haben beide IHVs (um die's hier geht) bitte gefälligst REFERENZQUALITÄT zu liefern - kein Bit weniger! (sry.)
Piffan
2005-07-14, 20:43:22
Seit dem R300 geht es auch bei ATI abwärts. Vorallem das Erkennung von gefärbten Mipmaps nehmem ich ihnen immer noch übel.
Jau, Ati ist auch nicht der Persil- Mann. Sollte jetzt aber nicht vom aktuellen Fall ablenken.
Ich finde es zum Weinen, dass man dem Fetisch "Benchmark" jede Vernunft opfert. Mit der Flimmerei im aktuellen Fall ist quasi die Toleranzschwelle überschritten und NV sollte sich mächtig am Riemen reißen und flux inoffizielle Schalter nachreichen.
Oder sollte man diese Mogeleien als Prophylaxe gegen den kommenden R520 betrachten? Könnte Ati die absolute Killerhardware in der Pipeline haben und die Optimierungen sind ein verzweifelter Versuch?
Mir ist klar, dass solche Äußerungen die Flame- Kiddys anziehen wie das Licht die Motten, aber irgendwie kann ich mir derartig "unvernünftiges" Handeln nicht anders erklären.
Crazy_Borg
2005-07-14, 20:43:23
NV betrügt
Haben die je was anderes gemacht?
Meine GF4 war bisher meine einzige nvidia Karte und wirds auch bleiben.
War zwar schnell, hatte aber die schlechteste Texturenqualität die ich je gesehen hab.
Und was ist mit der neuen GF7800 ?
Matschige Texturen und verzogenes pseudo AF sind anno 2005 nur noch peinlich.
Bald haben wohl Konsolenspiele schöner gefilterte Texturen als PC Spieler!
:mad:
Und hat nicht nvidia seit der GF6er Reihe den TV-Out für die DVD Wiedergabe gesperrt?
Oder war das nur ein Gerücht?
(del676)
2005-07-14, 20:43:54
schonmal versuch per nhancer:
beim default profil auf quality, alle 3 optimierungen 1x ein dann wieder aushakeln, dann auf hq stellen
und DASSELBE beim gameprofil?
dann flimmert BF2 bei mir z.b. nicht mehr
wenn ich HQ und alle opts aus nur im gameprofil einstelle flimmert bf2 trotzem fröhlich weiter
/me tipt auf bug
Inzwischen ist meine Sympathie für NV wiederum ganz unten bei Null. Nach dem Debakel mit der Geforce FX hat man es diesmal geschafft, eine vom Prinzip her geniale Hardware, die eigentlich zur Zeit konkurrenzlos ist, durch Kundenverarsche vollkommen zu deklassieren.
Merken die noch Einschläge oder was?NV sagt, die Spec würde ja erfüllt. Das beweist allerdings nur, wie wenig aussagekräftig der DX9-Test in Bezug auf Texturfilterung ist.
Klar, man kann es jetzt der Benchmark- Kultur in den Medien ankreiden, man KÖNNTE das Verhalten von NV als Notwehr rechtfertigen. Sorry, aber da kenne ich kein Mitleid: Gerade NV hat durch agressives und oft auch unseriöses Marketing diese Benchmarkkultur geprägt. Man ist jetzt vielleicht Opfer seiner eigenen Machenschaften.Und das Opfer unkluger Marketing-Entscheidungen. Mit dem NV40 hätte NV folgendes bieten können: SM3, Beschleunigung für HDR-Rendering und quasi-perfektes AF. Geboten wurde AF aber nur etwa auf ATI-Niveau, jetzt beim G70 siehts noch schlechter aus. Dabei wäre hochwertiges AF beim NV40 das einzige Feature, dass sofort (ohne speziellen Support der Game-Engine) die Grafik aufmöbeln würde. Beim G70 gibts neue AA-Modi um in bestimmten Situationen das Flimmern zu mildern. Dafür dürfen aber alle scharfen Texturen jetzt flimmrig werden, sofern AF genutzt wird. Das ist totaler Unsinn. Auch die Winkelabhängigkeit ist in dieser Klasse purer Quatsch.
NV versaut sich mit seinem Vorgehen die Reputation. Die Chance, Applaus von allen Seiten zu erhalten (abgesehen von einigen FanATIkern) haben sie bereits beim NV40-AF verspielt. Das G70-AF ist erst recht vollkommen indiskutabel. Man sieht das Flimmern nicht überall und nicht immer sofort. Aber sobald scharfes, detailreiches Texturmaterial genutzt wird, neigt es auf dem G70 in Verbindung mit AF zum Flimmern.
Was NV vom Reviewer hält zeigten sie bereits bei der GeForce3, als sie empfahlen, Quincunx (welches Texturen verschlechtert) gegen 4x Supersampling (welches Texturen verbessert) zu benchen. So wie NV aktuell vorgeht scheinen sie den Reviewer für einen Vollpfosten zu halten, dem sie jeden Unsinn andrehen können. Der Endkund lässt einige 100 Euro über den Tisch wandern, um stark winkelabhängiges AF zu bekommen, welches zur Belohnung auch noch schön flimmert.
DaBrain
2005-07-14, 20:45:06
ATI und NV optimieren beide wo es nur geht. Eigentlich kann man keine aktuelle Karte kaufen, denn ordentliches AF liefert nich eine einzige aktuelle Karte. :(
Die 7800er Reihe setzt dem die Krone auf. Die kommt für mich leider nicht in Frage. Ich hoffe nur, dass ATI dem mit dem neuen Chip ein Ende setzt.
Leider zweifele ich da ernsthaft dran.
Von Kundenfreundlichkeit kann man weder bei ATI noch bei NV sprechen.
Obwohl ich da gerne Einschränkungen mache, wenn ATI wirklich transparenz AA für alle Karten ab r300 per Treiber möglich macht.
Ich mag Firmen, bei denen man das Gefühl hat, das Produkt auch lange Zeit noch nutzen zu können. :)
Black-Scorpion
2005-07-14, 20:45:26
Es ist schon lustig mit dem Cheaten von Benchmarks (3DMark) für längere Balken zu sorgen und das jetzt als Vorwand zu nehmen die Qualität weiter runter zu setzen.
Und dafür sind dann auch noch die anderen Schuld.
Demirug
2005-07-14, 20:48:14
Nichts, (ich weiß, du meintest nicht mich) aber solche Geschichten sprechen sich rum und irgendwann reicht es nicht mehr, nur 'den längsten' zu haben, wenn überall im Bekanntenkreis eine Firma als Flimmerteufel verschrien ist.
Wenn ich 'nen längeren brauche, kann ich mir mit den ganzen Reglern ja selbst die BQ kaputttweaken - ansonsten haben beide IHVs (um die's hier geht) bitte gefälligst REFERENZQUALITÄT zu liefern - kein Bit weniger! (sry.)
Aber genau die "REFERENZQUALITÄT" ist doch das Problem. Es gibt gerade was AA und AF angeht leider nichts auf das man die IHVs festnageln kann. Selbst bei sowas wie dem uralten einfachen Alphablending sind heute immer noch Toleranzen erlaubt.
GPUs sind leider keine Videocodes. Dort ist es einfach die Qualität zu messen.
zeckensack
2005-07-14, 20:48:18
du hast vollkommen recht aber was bringt es nv wenn sie die beste bq liefern und dadurch halt den kürzeren balken haben wonach sich der otto normal user der noch nie was von lod, texel, mipmaps oä. gehört hat sich dann die karte mit dem vermeindlich besseren leistungen oder der besseren preis/leistung kauftWas bringen die längsten Balken der Welt, wenn es mit Treiber-Defaults so dermaßen übel flimmert, dass selbst, ja aufgemerkt, "Otto-Normal-User" das nicht mehr übersehen kann?
(NV40 mit AF)
Demirug
2005-07-14, 20:49:32
Ich finde es zum Weinen, dass man dem Fetisch "Benchmark" jede Vernunft opfert. Mit der Flimmerei im aktuellen Fall ist quasi die Toleranzschwelle überschritten und NV sollte sich mächtig am Riemen reißen und flux inoffizielle Schalter nachreichen.
Wieso inoffiziell? Die sollen HQ wieder zu HQ machen. Alles andere macht es doch nicht besser.
Popeljoe
2005-07-14, 20:50:17
LOL
Das wird ja noch ein Nvidia-Bashingthread.
Aber sehe es auch so.
Nvidia übertreibt mit den "Optimierungen".
Kennst du den Unterschied zwischen Bashing und berechtigter Kritik?!
Ich hab mir letzte Woche mal diese Vergleichsvideos X800 versus 6800GT in Joint Operations reingezogen. Ich hab mich beim betrachten des NV Videos echt gewundert, wie man sich dies Geflimmer für das Geld antun kann.
Dazu kam noch die schicke "Sägegrafik" auf der Motorhaube, diese stellte sich dann als Schatten raus....
Bei Ati lief das Ganze smooth und ohne Säge!
Benches sind zwar ein guter Anhaltspunkt, aber dann unter vergleichbaren Bedingungen!
ATI wird ja quasi zum herunterschrauben der Bildquali gezwungen.
P1
P.s.: ich hab immer noch ne 9700pro am Start! ;)
100% Zustimmung
Obwohl das Geld z. Zt. locker sitzt und meine 9700er doch schon ein gewisses Alter hat und hier und da schwächelt, weigere ich mich eine neue Graka zu kaufen. Diese Politik will ich nicht unterstützen.
Weder bei NV noch bei ATI.
Dunkeltier
2005-07-14, 20:50:51
du hast vollkommen recht aber was bringt es nv wenn sie die beste bq liefern und dadurch halt den kürzeren balken haben wonach sich der otto normal user der noch nie was von lod, texel, mipmaps oä. gehört hat sich dann die karte mit dem vermeindlich besseren leistungen oder der besseren preis/leistung kauft
Sollen die Hersteller halt den Treiber im Standardmodus mit LQ (1x bi-aF, 1xAA) laufen lassen - und dem Anwender die Freiheit geben die den Modus sowie die Optimierungen zu bestimmen.
Wieso inoffiziell? Die sollen HQ wieder zu HQ machen. Alles andere macht es doch nicht besser.Erstens das, und zweitens bitte den Bug rausnehmen dass ab Q (und darunter) immer die AF "Sample Optimization" aktiv ist, selbst wenn die ensprechende Checkbox leer ist.
Piffan
2005-07-14, 20:53:49
Von Kundenfreundlichkeit kann man weder bei ATI noch bei NV sprechen.
Obwohl ich da gerne Einschränkungen mache, wenn ATI wirklich transparenz AA für alle Karten ab r300 per Treiber möglich macht.
Ich mag Firmen, bei denen man das Gefühl hat, das Produkt auch lange Zeit noch nutzen zu können. :)
Was höre ich da? Ist da sicher oder nur ein Gerücht?
Wäre krass und ich könnte die pure Leistung meiner "veralteten" R420 ummünzen in bessere Qualität bei HL2 und Max Payne 2. Bei Farcry jedoch reicht die Leistung in den Außenarealen wohl eher nicht dank Weitsichttweaks........
Falls das kommt, dann gebührt Ati ein Denkmal für Kundenfreundlichkeit. Wäre ja mal was völlig untypisches. :smile:
Popeljoe
2005-07-14, 20:54:17
Erstens das, und zweitens bitte den Bug rausnehmen dass ab Q (und darunter) immer die AF "Sample Optimization" aktiv ist, selbst wenn die ensprechende Checkbox leer ist.
Gibt es keine Möglichkeit mit nem Tool da einzugreifen?! ;(
P1
(del676)
2005-07-14, 20:54:49
schonmal versuch per nhancer:
beim default profil auf quality, alle 3 optimierungen 1x ein dann wieder aushakeln, dann auf hq stellen
und DASSELBE beim gameprofil?
dann flimmert BF2 bei mir z.b. nicht mehr
wenn ich HQ und alle opts aus nur im gameprofil einstelle flimmert bf2 trotzem fröhlich weiter
/me tipt auf bug
hallo?
kann das mal jemand nachtesten bei dem bf2 flimmert?
Was höre ich da? Ist da sicher oder nur ein Gerücht?
Wäre krass und ich könnte die pure Leistung meiner "veralteten" R420 ummünzen in bessere Qualität bei HL2 und Max Payne 2. Bei Farcry jedoch reicht die Leistung in den Außenarealen wohl eher nicht dank Weitsichttweaks........
Falls das kommt, dann gebührt Ati ein Denkmal für Kundenfreundlichkeit. Wäre ja mal was völlig untypisches. :smile:
Erstmal musste bei Max Panye2 dein AF Tweaken denn das so überlegene ATI AF verurschacht böse Bildfehler
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=153478&page=1&pp=20
Demirug
2005-07-14, 20:59:18
Gibt es keine Möglichkeit mit nem Tool da einzugreifen?! ;(
P1
Mit einem Disassembler den Treiber auseiander nehmen und die entsprechenden Stellen patchen. Das ist aber eine Lebensaufgabe.
Erstmal musste bei Max Panye2 dein AF Tweaken denn das so überlegene ATI AF verurschacht böse Bildfehler
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=153478&page=1&pp=20
Sogar Mr lolman muss zustimmen "Gratulation Voodoo7mx. Du als erster eine Stelle entdeckt, bei der, der Effekt der brilinearen Optimierungen seitens ATi auch auf Screenshots deutlich sichtbar ist."
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=1992082#post1992082
zeckensack
2005-07-14, 21:01:40
<...> NV40 <...>
Geboten wurde AF aber nur etwa auf ATI-Niveau, jetzt beim G70 siehts noch schlechter aus.Ich möchte dich darum bitten, nicht diese Marketingphrasen weiter zu verbreiten. Der NV40 ist beim AF "out of the box" deutlich schlechter als die R3xx- und R4xx-Reihen (ebenfalls "out of the box"). Wenn man bei beiden die "Optimierungen" ausstellt, wird's hauchdünn, aber IMO (subjektiv ...) mit leichtem Vorteil für ... egal. Brauche ich nicht zu sagen.
Ich glaube du bewertest die Präzision von LOD-Fraction und Filtergewichten zu stark. Es gibt viel schlimmere Sünden als da zwei, drei Bits weniger zu haben.
Gibt es keine Möglichkeit mit nem Tool da einzugreifen?! ;(
P1Wenn der Treiber nicht will, kann ein Tool da auch nichts machen.
Angenommen, Unterfilterung wäre wirklich ein Zaubermittel für mehr Performance bei gleicher Qualität. Dann fragt man sich, warum NV40 davon nicht "profitieren" darf. NVs Vorgehen halte ich für moralisch verwerflich. Klar, die wollen Geld verdienen und nicht den User glücklich machen, glückliche User sind nur Mittel zum Zweck (aus jedem eingesetzten Dollar so viel Geld wie möglich zu machen.) NV guckt genauso wenig auf die Moral wie ATI oder andere profitorientierte Unternehmen.
Doch mich als Kunde interessiert es nicht, ob ATI oder Nvidia reich wird oder nicht. Ich möchte für mein Geld ein adäquates Produkt. Und was soll ich mit SM3 oder HDR-Rendering, wenn ich bei den Texturen solchen Schnodder sehe??
Piffan
2005-07-14, 21:02:03
100% Zustimmung
Obwohl das Geld z. Zt. locker sitzt und meine 9700er doch schon ein gewisses Alter hat und hier und da schwächelt, weigere ich mich eine neue Graka zu kaufen. Diese Politik will ich nicht unterstützen.
Weder bei NV noch bei ATI.
Zu der 9700 kann ich noch was sagen: Die habe ich mit einem Silencer ausgestattet und auf 390 Mhz hochgezogen (von 275). Die läuft schon so ewig. Es ist auch nicht abzusehen, dass sie eines Tages keine Spiele mehr ausreichend befeuern kann. Lediglich bei der Bildqualität wurde es in Doom und Farcry eng, weil sie mit AF und AA und hohen Auflösungen dann doch langsam kurzatmig wurde....
Ich hatte noch nie ein Stück Hardware im Rechner, dass so viele Jahre seinen Job so gut machte.....
Aber nun genug der Lobhudelei von Ati, schließlich soll ja die Kritik an NV nicht ihrer Glaubwürdigkeit beraubt werden....;)
Popeljoe
2005-07-14, 21:02:08
Frage an die Gurus:
wäre es möglich mittels einer Filmsquenz (wie bei Joint Ops) die Bildquali zu vergleichen?
Z.B. bei R300, R350, R420 und den entsprechenden NV Pendents, vielleicht ja auch noch mit der S8 als Exote dabei. (für Robbitop)
P1
OMG, die ATi Fanboy Inquisition bläst zur nV Jagd. Wenn ich selbstverständlich auch nicht gut finden kann was nV da (mal wieder) treibt, so ist es doch auch so, das ATi genausowenig einen Heiligenschein hat. Warum tut ihr merkwürdigen Fanboys eigentlich immer so? Ich meine, es reicht eigentlich schon Fanboy von irgendetwas zu sein, aber dieses lächerliche stöbern nach einem Grund zur Veranlassung und Zusammenrottung bewirkt IMHO genau das Gegenteil ;)
Ich möchte dich darum bitten, nicht diese Marketingphrasen weiter zu verbreiten. Der NV40 ist beim AF "out of the box" deutlich schlechter als die R3xx- und R4xx-Reihen (ebenfalls "out of the box"). Wenn man bei beiden die Optimierungen ausstellt, wird's hauchdünn, aber IMO (subjektiv ...) mit leichtem Vorteil für ... egal. Brauche ich nicht zu sagen.
Ich glaube du bewertest die Präzision von LOD-Fraction und Filtergewichten zu stark. Es gibt viel schlimmere Sünden als da zwei, drei Bits weniger zu haben.Dabei beziehe ich mich eigentlich mehr auf die Winkelabhängigkeit (bei NV "besser") und auf den Fakt, dass NV immerhin minimal 2x-AF-Qualität liefert (was ATI nicht schafft.) Dass bei Q automatisch die AF "Sample Optimization" aktiv ist, war soweit ich weiß (hier kann ich irren!) nicht immer so.
Erstens das, und zweitens bitte den Bug rausnehmen dass ab Q (und darunter) immer die AF "Sample Optimization" aktiv ist, selbst wenn die ensprechende Checkbox leer ist.
zumindest die AF-sample-optimization der checkbox ist nicht aktiv, dieses kann man sehr schön mit der AF-blume zeigen, welche deutliche unterschiede zeigt (was natürlich nicht heißt dass nicht eine andere ungefragte optimierung aktiv ist)
OMG, die ATi Fanboy Inquisition bläst zur nV Jagd. Wenn ich selbstverständlich auch nicht gut finden kann was nV da (mal wieder) treibt, so ist es doch auch so, das ATi genausowenig einen Heiligenschein hat. Warum tut ihr merkwürdigen Fanboys eigentlich immer so? Ich meine, es reicht eigentlich schon Fanboy von irgendetwas zu sein, aber dieses lächerliche stöbern nach einem Grund zur Veranlassung und Zusammenrottung bewirkt IMHO genau das Gegenteil ;)Klar: Nur weil man AF haben möchte, das nicht flimmert, ist man ATI-Fanboy. Ich sollte meinen Avatar am besten umfärben, ins ATI-Rot.
Was die Page angeht, die sollte man angesichts der News eigentlich gleich in "ATICenter" umbenennen. Du hast Recht: Man sollte NV alles durchgehen lassen, auch Flimmer-AF. Denn wir leben im Kapitalismus und da müssen die Unternehmen Geld verdienen.
zumindest die AF-sample-optimization der checkbox ist nicht aktiv, dieses kann man sehr schön mit der AF-blume zeigen, welche deutliche unterschiede zeigt (was natürlich nicht heißt dass nicht eine andere ungefragte optimierung aktiv ist)Die AF-Blume zeigt lediglich an, wann welche MIP genommen wird; aber nicht, wie viele Samples pro MIP genommen werden.
Piffan
2005-07-14, 21:08:01
Erstmal musste bei Max Panye2 dein AF Tweaken denn das so überlegene ATI AF verurschacht böse Bildfehler
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=153478&page=1&pp=20
Hahaha! Zu diesem Thema habe ich mal selbst einen Thread im Technologieforum gestartet. Das was man da sieht, ist kein AF- Fehler, sondern lupenreines Moiré.
Dieses Moiré und auch ne gewisse Flimmerneigung läßt sich in den Game- Option einstellen; und zwar gibts da einen Regler der Texturschärfe. Dummerweise verschiebt der lediglich das LOD, und da nimmt die Neigung zum Moiré bei bestimmten Texturen und die Flimmerei allgemein halt zu. Ist normal und kein "Fehler".
zeckensack
2005-07-14, 21:09:28
Dabei beziehe ich mich eigentlich mehr auf die Winkelabhängigkeit (bei NV "besser") und auf den Fakt, dass NV immerhin minimal 2x-AF-Qualität liefert (was ATI nicht schafft.)Ah, ok.
Ich hatte mich jetzt an die Aussage aus den "review guidelines", dass die Treiberdefaults die bestmögliche Näherung zu ATIs Texturqualität sein soll, erinnert gefühlt.
Dass bei Q automatisch die AF "Sample Optimization" aktiv ist, war soweit ich weiß (hier kann ich irren!) nicht immer so.Weiß ich auch nicht genau, ich weiß nur dass es mit Defaults und 2xAF unerträglich flimmert.
Haben die je was anderes gemacht?
Meine GF4 war bisher meine einzige nvidia Karte und wirds auch bleiben.
War zwar schnell, hatte aber die schlechteste Texturenqualität die ich je gesehen hab.
Und was ist mit der neuen GF7800 ?
Matschige Texturen und verzogenes pseudo AF sind anno 2005 nur noch peinlich.
Bald haben wohl Konsolenspiele schöner gefilterte Texturen als PC Spieler!
:mad:
Und hat nicht nvidia seit der GF6er Reihe den TV-Out für die DVD Wiedergabe gesperrt?
Oder war das nur ein Gerücht?Das ist absoluter Käse. NV2x&NV3x hatten bessere AF-Qualität als alles was es heute gibt.
mapel110
2005-07-14, 21:18:57
Das ist absoluter Kaese. NV2x&NV3x hatten bessere AF-Qualitaet als alles was es heute gibt.
Ist das Deltachrom-AF auch schlechter?
Ich hoffe, dass mal bald ein vernünftiger Artikel dazu erscheint, wo man möglichst praxisnah aufgezeigt bekommt, wie und wo nvidia unterfiltert;
am besten für NV4x und G70.
Piffan
2005-07-14, 21:19:53
OMG, die ATi Fanboy Inquisition bläst zur nV Jagd. Wenn ich selbstverständlich auch nicht gut finden kann was nV da (mal wieder) treibt, so ist es doch auch so, das ATi genausowenig einen Heiligenschein hat. Warum tut ihr merkwürdigen Fanboys eigentlich immer so? Ich meine, es reicht eigentlich schon Fanboy von irgendetwas zu sein, aber dieses lächerliche stöbern nach einem Grund zur Veranlassung und Zusammenrottung bewirkt IMHO genau das Gegenteil ;)
Getroffende Hunde jaulen. Witzig, dass die Gäste manchmal so komisch werden können.
Mit der Keule "Fanboy" kann man leider die Fakten nicht erschlagen.
Ich war lange Zeit Nvidianer und wurde dank echter Überlegenheit von de GF4 zur 9700 "gewungen". Nun hätte NV alle Trümpfe in der Hand, mal wieder mit dem theoretisch besseren Produkt die Fans zurück zu erobern. Aber was geschieht: Man präsentiert sich kundenunfreundlicher mehr als je zuvor.....
DaBrain
2005-07-14, 21:20:55
Was höre ich da? Ist da sicher oder nur ein Gerücht?
Wäre krass und ich könnte die pure Leistung meiner "veralteten" R420 ummünzen in bessere Qualität bei HL2 und Max Payne 2. Bei Farcry jedoch reicht die Leistung in den Außenarealen wohl eher nicht dank Weitsichttweaks........
Falls das kommt, dann gebührt Ati ein Denkmal für Kundenfreundlichkeit. Wäre ja mal was völlig untypisches. :smile:
Hmm... Ich habe das daher:
[...]
Da Humus jetzt bereits ein Override-Tool für D3D bereitgestellt hat und A2C in DirectX gar nicht direkt verfügbar ist, hat man es offensichtlich schon in den Treiber eingebaut. Ich rechne damit, dass Transparent Multisampling bald im ATI-Treiber verfügbar ist. TSAA sollte bei ATI auch möglich sein, beides ab R300. Falls ATI dies tut, wäre es auch denkbar dass NVidia reagiert und TMAA auch für ältere Modelle ermöglicht (TSAA wird schwieriger).
[..]
Ah, ok.
Ich hatte mich jetzt an die Aussage aus den "review guidelines", dass die Treiberdefaults die bestmögliche Näherung zu ATIs Texturqualität sein soll, erinnert gefühlt.Ja, diese Behauptungen kannst du in der Pfeife rauchen. HQ soll ja angeblich besonders hohe Qualität sein, viel besser als was die Konkurrenz anbieten würde. Das ist lächerlich, auf dem NV40 ist es nur ein wenig besser, in der Praxis kaum zu sehen. Und durch den bedauerlichen Bug wird in Q weniger geboten als bei der Konkurrenz.
Ich hatte einigen Nvidia-Leuten im persönlichen Gespräch darauf hingewiesen, was die User im 3dcf vom Texturfilter ihrer aktuellen Produkte halten. Doch am Ende hatte ich das Gefühl, dass denen das Wurscht ist. Die werden dafür bezahlt, das zu erzählen was sie erzählen sollen. Die erzählen erst was davon wie wichtig das Feedback sei, doch hat man mal solches Feedback, kommt es mir so vor als ob die da nur abblocken.
Weiß ich auch nicht genau, ich weiß nur dass es mit Defaults und 2xAF unerträglich flimmert.Interessehalber: Welche Treiberversion war das?
Ich hoffe, dass mal bald ein vernünftiger Artikel dazu erscheint, wo man möglichst praxisnah aufgezeigt bekommt, wie und wo nvidia unterfiltert; am besten für NV4x und G70.Erste Untersuchungen gibts von Tridam auf hardware.fr.
Ich will nicht nur, dass nicht mehr unterfiltert wird. Ich will auch AF ohne diese Winkelabhängigkeit im ATI-Stil. Ich will AF auf GeForce-FX-Niveau, nur eben mit bis zu 16x AF statt 8x. (16x AF wird von SM3 verlangt, mir persönlich reicht auch 8x AF wenn es denn vernünftig implementiert ist.)
Demirug
2005-07-14, 21:26:26
zumindest die AF-sample-optimization der checkbox ist nicht aktiv, dieses kann man sehr schön mit der AF-blume zeigen, welche deutliche unterschiede zeigt (was natürlich nicht heißt dass nicht eine andere ungefragte optimierung aktiv ist)
Dafür brauchst man ein anderes (viel aufwendigeres) Testprogramm. Gerade weil die Mipmaps einfarbig sind sieht man die Sampleoptimierung nicht. Ob man aus einer einfarbigen Fläche nun 1 oder 16 Samples holt macht keinen Unterschied die Farbe bleibt immer gleich.
mapel110
2005-07-14, 21:28:01
Erste Untersuchungen gibts von Tridam auf hardware.fr.
Ich will nicht nur, dass nicht mehr unterfiltert wird. Ich will auch AF ohne diese Winkelabhängigkeit im ATI-Stil.
Ich hätte es gerne etwas umfangreicher und mit Einbezug von Treiberversionen(Okay, bislang wohl nur 77.72 und 80.40?!) und NV4x.
Obendrein waren die Shots dort nicht wirklich gelungen.
Demirug
2005-07-14, 21:30:02
Ich hoffe, dass mal bald ein vernünftiger Artikel dazu erscheint, wo man möglichst praxisnah aufgezeigt bekommt, wie und wo nvidia unterfiltert;
am besten für NV4x und G70.
Das ist ein großes Problem da das ganze dermassen komplex ist das man nur mit aufwendigen Verfahren auf die richtige Lösung kommt. nVidia rückt ja die Formeln nicht raus.
Pinoccio
2005-07-14, 21:31:53
Frage an die Gurus:
wäre es möglich mittels einer Filmsquenz (wie bei Joint Ops) die Bildquali zu vergleichen?
Z.B. bei R300, R350, R420 und den entsprechenden NV Pendents, vielleicht ja auch noch mit der S8 als Exote dabei. (für Robbitop)
P1Warum fragst du da die Gurus? ;-)
Da gibt es zwei Problem: unterschiedliche Bildraten und den Informationsverlust durch das Komprimieren.
Ersteres ließe sich möglicherweise umgehen, in dem man das Spiel auf 30/25/etc fps runterzwingt, zweiteres wird schwer. Kurze Sequenzen, als Schleife abgespielt und nur einen Bildausschnitt zeigend wären evtl ein Weg.
Und du brauchst einen Rechner, der auch noch Luft zum mitschneiden hat.
mfg Sebastian
Ist das Deltachrom-AF auch schlechter?.Ja.
Die AF-Blume zeigt lediglich an, wann welche MIP genommen wird; aber nicht, wie viele Samples pro MIP genommen werden.
aber genau die mip wird doch mit der sample-optimization verschoben, hier mal ein paar bilder:
zuerst D3D ohne Sample-optimization (der schalter im treiber)
http://img245.imageshack.us/img245/3972/d3dsooff4ug.th.jpg (http://img245.imageshack.us/my.php?image=d3dsooff4ug.jpg)
jetzt D3D mit SO
http://img245.imageshack.us/img245/4007/d3dsoon5ux.th.jpg (http://img245.imageshack.us/my.php?image=d3dsoon5ux.jpg)
Dann OGL ohne SO
http://img245.imageshack.us/img245/1046/oglsooff1eg.th.jpg (http://img245.imageshack.us/my.php?image=oglsooff1eg.jpg)
und jetzt OGL mit SO
http://img245.imageshack.us/img245/1046/oglsooff1eg.th.jpg (http://img245.imageshack.us/my.php?image=oglsooff1eg.jpg)
und nein ich habe die screenshots nicht vertauscht, der schalter macht in OGL quasi das gegenteil von D3D ;)
Dafür brauchst man ein anderes (viel aufwendigeres) Testprogramm. Gerade weil die Mipmaps einfarbig sind sieht man die Sampleoptimierung nicht. Ob man aus einer einfarbigen Fläche nun 1 oder 16 Samples holt macht keinen Unterschied die Farbe bleibt immer gleich.
siehe die screenies oberhalb, man kann zwar natürlich nicht zeigen was und wieviel eingespart wird, aber zumindest ob die optimierung aktiv ist oder nicht.
Aus einem der ersten Flimmerartikel gestartet von Tobias123 der anschliessend wieder zu ATi wechselte ;)
http://www.abu-el-mot.de/rs/bf.avi
http://www.abu-el-mot.de/rs/fl.avi
Codec: http://download.divxmovies.com/XviD-1.0.2-29082004.exe
hier der Thread >>> http://www.forum-3dcenter.org/vbulletin/showthread.php?t=169238&highlight=flimmer
Black-Scorpion
2005-07-14, 21:45:45
aber genau die mip wird doch mit der sample-optimization verschoben, hier mal ein paar bilder:
und nein ich habe die screenshots nicht vertauscht, der schalter macht in OGL quasi das gegenteil von D3D ;)
Die 2 OGL Shots haben den selben Link.
Ich bin ziemlich sauer auf nVidia. Da zahlt man 500 EUR für 'ne Grafikkarte und dann sowas. http://www.quake.de/phpBB2/images/smiles/ang_sm.gif
Ich *hoffe* zwar immernoch, dass dieses Verhalten nur bei den Review-Treibern (also den aktuellen ForceWare-Versionen) auftritt und in den kommenden offiziellen Treibern beseitigt wird, aber das macht es kaum besser (immerhin: Die Hoffnung stirbt zuletzt).
Der G70-Launch war eigentlich durchweg positiv aber irgendeinen Haken gibt es irgendwie immer. Dabei würden die leichten Leistungseinbußen durch korrekte Filterung durch die fast omnipräsente CPU-Limitierung ohnehin untergehen.
Ich hatte einigen Nvidia-Leuten im persönlichen Gespräch darauf hingewiesen, was die User im 3dcf vom Texturfilter ihrer aktuellen Produkte halten. Doch am Ende hatte ich das Gefühl, dass denen das Wurscht ist. Die werden dafür bezahlt, das zu erzählen was sie erzählen sollen. Die erzählen erst was davon wie wichtig das Feedback sei, doch hat man mal solches Feedback, kommt es mir so vor als ob die da nur abblocken.
Waren das echte Techniker oder nur die üblichen Laber-Fritzen wie sie z.B. auch auf Messen etc. anzutreffen sind? Von denen braucht man i.d.R. nichts zu erwarten.
PS: Ich frage mich gerade, ob die Linux-Treiber für die 7800er ein ähnliches Verhalten an den Tag legen. Mal überlegen, wie man das testen könnte (UT2004 Mouseover-Vergleichsbilder, aber wie am besten erstellen)?
Die technische Möglichkeit dazu hätte ich wahrscheinlich gegen Ende nächster Woche (wenn alles klappt). Wie macht ihr denn immer eure Mouseover-Bilder? 'ne Demo in der man einfach irgendwo länger stehen bleibt?
Popeljoe
2005-07-14, 21:49:29
Aus einem der ersten Flimmerartikel gestartet von Tobias123 der anschliessend wieder zu ATi wechselte ;)
http://www.abu-el-mot.de/rs/bf.avi
http://www.abu-el-mot.de/rs/fl.avi
Codec: http://download.divxmovies.com/XviD-1.0.2-29082004.exe
hier der Thread >>> http://www.forum-3dcenter.org/vbulletin/showthread.php?t=169238&highlight=flimmer
Jo!
Solche Filmsequenzen meinte ich als Vergleichsbasis.
@Pinocchio: ;)!
Die 2 OGL Shots haben den selben Link.
stimmt, sorry mein fehler
hier der korrekte shot mit aktiver SO in OGL
http://img245.imageshack.us/img245/8791/oglsoon0it.th.jpg (http://img245.imageshack.us/my.php?image=oglsoon0it.jpg)
treiber ist übrigens 77.72
Chris Lux
2005-07-14, 22:00:17
Ich möchte dich darum bitten, nicht diese Marketingphrasen weiter zu verbreiten. Der NV40 ist beim AF "out of the box" deutlich schlechter als die R3xx- und R4xx-Reihen (ebenfalls "out of the box"). Wenn man bei beiden die "Optimierungen" ausstellt, wird's hauchdünn, aber IMO (subjektiv ...) mit leichtem Vorteil für ... egal. Brauche ich nicht zu sagen.
hmm, ich weiss nicht. wenn ich mir die AF-Blumen bei einer 9600pro von meinem bruder ansehe würde ich auch im out-of-the-box vergleich sagen, dass nv weit voraus ist. die ati filter sind so derbe unpräzise, da franzt die blume übel aus, was bei nv wenigstens sehr sauber aussieht.
Demirug
2005-07-14, 22:01:40
siehe die screenies oberhalb, man kann zwar natürlich nicht zeigen was und wieviel eingespart wird, aber zumindest ob die optimierung aktiv ist oder nicht.
Die Sampeloptimierung welche man mit Quality automatisch aufgedrückt bekommt zeigt der Tester nicht an. Zudem kann ich das was du da hast nicht nachvollziehen. Mein 77.50 macht das bei Einstellungen über das Panel nicht.
Demirug
2005-07-14, 22:04:29
hmm, ich weiss nicht. wenn ich mir die AF-Blumen bei einer 9600pro von meinem bruder ansehe würde ich auch im out-of-the-box vergleich sagen, dass nv weit voraus ist. die ati filter sind so derbe unpräzise, da franzt die blume übel aus, was bei nv wenigstens sehr sauber aussieht.
Die AF Blume kann nur Teilaspekte der Filterung anzeigen. Primär nur das Verhalten des MIP Filters.
Die Sampeloptimierung welche man mit Quality automatisch aufgedrückt bekommt zeigt der Tester nicht an. Zudem kann ich das was du da hast nicht nachvollziehen. Mein 77.50 macht das bei Einstellungen über das Panel nicht.
nicht vergessen dass die sample-optimierung unter D3D bei quality (ich glaube erst ab HP sind alle stages betroffen) nur auf stages>0 aktiv ist.
ich glaube ja gerne dass eine weitere optimierung aktiv ist, aber DIE sample-optimierung die im treiber offen liegt tut seit jeher das gleiche, und der schalter funktioniert auch in den neuen treibern korrekt.
Demirug
2005-07-14, 22:12:02
nicht vergessen dass die sample-optimierung unter D3D bei quality (ich glaube erst ab HP sind alle stages betroffen) nur auf stages>0 aktiv ist.
ich glaube ja gerne dass eine weitere optimierung aktiv ist, aber DIE sample-optimierung die im treiber offen liegt tut seit jeher das gleiche, und der schalter funktioniert auch in den neuen treibern korrekt.
Ich sehe wir haben aneinander vorbei geredet. Die Sample Optimierung die Quality automatisch mitbringt wirkt auf alle Stages. Und die kann man nicht abschalten und man sieht sie auch nicht im AF-Tester. Das was nVidia als "Sample Optimierung" verkauft hat auch noch eine zusätzliche modifizierte LOD Berechnung. Deswegen kann man es im AF-Tester sehen.
(del676)
2005-07-14, 22:19:21
da anscheinend niemand testen möchte stell ich halt mal pics rein, vielleicht bemerkt man das ja dann ...
eingestellt war:
BF2 Profil, bei beiden Screenshots GLEICH eingestellt:
http://img109.imageshack.us/img109/9351/unbenannt9qm.png
1. Screen mit Globalen Optimierungen auf HQ alle Opts aus
http://img155.imageshack.us/img155/4862/unbenannt30qh.png
http://img249.imageshack.us/img249/142/029fb.png
2. Screen mit Globalen Optimierungen auf Q alle Opts aus
http://img109.imageshack.us/img109/5658/unbenannt20nk.png
http://img290.imageshack.us/img290/7500/018ur.png
eigentlich dürften sich beide Screenshots nicht unterscheiden da die Optimierungen im Gameprofil von BF2 ja fix eingestellt waren -> da sie sich aber unterscheiden (und andere fps haben) scheint nur die Einstellung von den Globalen Quality Optionen zu greifen und NICHT vom Gameprofil
schalte die die globalen quality optionen auf "quality" flimmert bf2 trotz hq+alle opts aus im gameprofil, stell ichs globale auf "high quality" flimmert bf2 nicht mehr (obwohl ich das gameprofil NIE angerührt habe)
könnte es nun jemand mal gegenchecken?
Godmode
2005-07-14, 22:20:16
Also da es jetzt offiziel ist kann ich nur sagen, ich fasse es nicht!
Ich war wirklich begeistert vom G70 und wollte mir vielleicht auch so eine Karte kaufen, aber was da jetzt abgeht?
Ich bin ziemlich entäuscht und werde warten was der R520 bietet, aber ich dneke der wird genau so scheisse werden, wie bei Nvidia Balken sind alles.
Naja meine 6800GT muss dann wohl noch ne Generation im Rechner bleiben. Ich hoffe aber immer noch, dass beim G70 mit einem Treiberupdate eine Verbesserung möglich ist.
schalte die die globalen quality optionen auf "quality" flimmert bf2 trotz hq+alle opts aus im gameprofil, stell ichs globale auf "high quality" flimmert bf2 nicht mehr (obwohl ich das gameprofil NIE angerührt habe)
eventuell die falsche .exe? möglicherweise startet die bf2.exe einen weiteren prozess, in dem das spiel dann tatsächlich läuft?
Piffan
2005-07-14, 22:23:44
Kann man Flimmern eigentlich auf Standbildern wahrnehmen? Glaube nicht wirklich. :rolleyes:
Zu den Blumen: Was ist schlimmer? Ne ausgeprägte Winkelabhängigkeit, die bei geringen AF- Graden kaum auffällt (mir) oder ne Neigung zum Flimmern? (stört mich persönlich).....Kann man da von Geschmack oder Tolerierbarkeit reden, wenn es ums Flimmern geht?
Edit: Imho Todsünden: Mipmap- Bänder, die als Bugwelle vor einem herrollen. Flimmerei von Texturen. Zäune in Alphatest und man hat kein Transparenz AA oder Supersampling. Spiele, die kein AA erlauben aufgrund irgendwelcher dubiosen Postfiltereffekten.....gibt sicher mehr, aber das sind die Dinge, die MIR auf den Keks gehen.
Ich sehe wir haben aneinander vorbei geredet. Die Sample Optimierung die Quality automatisch mitbringt wirkt auf alle Stages. Und die kann man nicht abschalten und man sieht sie auch nicht im AF-Tester. Das was nVidia als "Sample Optimierung" verkauft hat auch noch eine zusätzliche modifizierte LOD Berechnung. Deswegen kann man es im AF-Tester sehen.
ja so hab ich es auch gemeint.
aber ist diese quality-unterfilterung wirklich neu? ich denke die war schon immer vorhanden, und fällt in realen spieltexturen eben kaum auf.
(del676)
2005-07-14, 22:26:31
eventuell die falsche .exe? möglicherweise startet die bf2.exe einen weiteren prozess, in dem das spiel dann tatsächlich läuft?
dann sollte das 2xAA im BF2 Profil auch nicht greifen, dann wäre es auf APP AA und in BF2 ist AA disabled
ich habe aber eindeutig 2xAA auf dem schirm
Demirug
2005-07-14, 22:27:07
Kann man Flimmern eigentlich auf Standbildern wahrnehmen? Glaube nicht wirklich. :rolleyes:
Zu den Blumen: Was ist schlimmer? Ne ausgeprägte Winkelabhängigkeit, die bei geringen AF- Graden kaum auffällt (mir) oder ne Neigung zum Flimmern? (stört mich persönlich).....Kann man da von Geschmack oder Tolerierbarkeit reden, wenn es ums Flimmern geht?
Die Flimmerwahrnehmung ist genauso subjektiv wie die Wahrnehmung der Kanten welche dort entstehen wo unterschiedliche Winkel aufeinander treffen. Das ist ja das große Problem den eine objektive Meßmethode gibt es nicht.
(del676)
2005-07-14, 22:27:26
Kann man Flimmern eigentlich auf Standbildern wahrnehmen? Glaube nicht wirklich. :rolleyes:
wenn du die bilder abwechselnd betrachtest siehst du wie "scharf" das bild mit global auf Q ist. ebenso solltest sogar du, den fps unterschied rechts oben bemerken
drmaniac
2005-07-14, 22:29:22
Ich glaube bald, dass die neuen Konsolen PS3 + Xbox2 wirklich die bessere Optik haben werden.
Warum? Weil es da keine PenisMarks gibt und ergo keine versteckten Optimierungen eingebaut sein werden. Oder ist da ein Fehler in meiner Logic?
Ich hab mal was ausgegraben von 2003 !
NVIDIA schummelt erneut mit neuem Detonator 51.75 ! ATI+NVIDIA verarschen uns !
http://powerforen.de/forum/showthread.php?t=145993
es hat sich also nix geändert.
Beide Parteien verarschen uns Kunden wieder und wieder :(
wenn ich +500 euro Ausgebe für die neuste Karte, dann WILL ICH das diese die maximale Qualität darstellen kann. Und keine fake / pseudo / HQ Schalter :/
FRUST
PS: noch ein alter mit "Rücklink" :D
Wir werden v.NVIDIA u. ATI verarscht ! Bis zu 60% gefakte Leistung!
http://powerforen.de/forum/showthread.php?t=142617
Demirug
2005-07-14, 22:30:22
ja so hab ich es auch gemeint.
aber ist diese quality-unterfilterung wirklich neu? ich denke die war schon immer vorhanden, und fällt in realen spieltexturen eben kaum auf.
Wie lange das schon vorhanden ist weiß ich nicht. Wie gesagt die Testmethode dafür ist leider sehr aufwendig und bis vor kurzem hat da auch noch keiner daran gedacht das überhaupt zu überprüfen.
Mr. Lolman
2005-07-14, 22:30:26
Das ist ja das große Problem den eine objektive Meßmethode gibt es nicht.
Theoretisch existiert sie ja schon. Proggen müsste jemand das Zeug ;)
und fällt in realen spieltexturen eben kaum auf.
:ulol:
dildo4u
2005-07-14, 22:30:51
BF2 map Gulf of Oman Startpunkt US alle Details High 8XAF Treiber auf Q alle optemierungen An mit fraps aufgenommen kompremiert mit x-vid codec.
http://web115.silverline-s15.de/bilder/bf2video.rar
Vergleichbare ATI videos mit Default Treibereinstellungen sind willkommen.
Piffan
2005-07-14, 22:31:21
wenn du die bilder abwechselnd betrachtest siehst du wie "scharf" das bild mit global auf Q ist. ebenso solltest sogar du, den fps unterschied rechts oben bemerken
Ebenso wie sogar Du sehen solltest, dass die Shot nicht vergleichbar sind. Oder irre ich mich, das auf dem Radar verschiedene Situationen sichtbar sind? Von daher halte ich den FPS- Unterschied für irrelevant.
Tipp: Gaanz ruhig bleiben, wir wollen doch nicht streiten. Ich meinte ja nur, dass FLIMMERN auf Standbildern nicht zu sehen sein kann. Wohl aber Unterschiede in der Schärfe und man evtl. Flimmern "ahnen" kann. Aber sehen :confused:
Mr. Lolman
2005-07-14, 22:33:48
BF2 map Gulf of Oman Startpunkt US alle Details High 8XAF Treiber auf Q alle optemierungen An mit fraps aufgenommen kompremiert mit x-vid codec.
http://web115.silverline-s15.de/bilder/bf2video.rar
Vergleichbare ATI videos mit Default Treibereinstellungen sind willkommen.
Warum nicht Treiberdefault oder HQ?
(del676)
2005-07-14, 22:34:10
juhu
also bin ich zu dumm um flimmern von nichtflimmern unterscheiden zu können?
mit den einstellungen am pic1 flimmert es NICHT mit den einstellungen auf pic 2 FLIMMERT ES
obwohl es laut treibereinstellungen DIE GLEICHEN einstellungen sind
treiberbug? hallo?
oder willst du fröhlich weiter gegen nvidia flamen ohne dich für das problem (das hier anscheinend in einem einstellungsbug im treiber liegt) zu interessieren, und VOR ALLEM dass dieser bug umgangen werden kann?
aber wenn ihr meint, diskutiert ruhig schön theoretisch weiter, ich spiel ne runde bf2 - FLIMMERFREI :P
Demirug
2005-07-14, 22:36:01
Theoretisch existiert sie ja schon. Proggen müsste jemand das Zeug ;)
Es gibt auch keine theoretische da es keine gültige Referenz gibt. Der Refrast nutzt keinen Texturefilter mit hoher Qualität kann also nicht zum erzeugen einer Referenz benutzt werden. Desweiteren spielen bei der Bilderzeugung ja auch noch andere Dinge ausser dem Texturefilter eine Rolle.
LovesuckZ
2005-07-14, 22:36:16
Aber was geschieht: Man präsentiert sich kundenunfreundlicher mehr als je zuvor.....
Das würde bedeuten, der Großteil der Kunden wolle perfektes AF. ;)
Das würde bedeuten, der Großteil der Kunden wolle perfektes AF. ;)Nein. Der Großteil der Kunden weiß nichtmal was AF ist.
Der Teil der es weiß will flimmerfreies AF, da kannst du Gift drauf nehmen.
Crazy_Borg
2005-07-14, 22:37:55
Ist das Deltachrom-AF auch schlechter?
Ja.
Quelle?
ich verweis mal hier auf Robbitops S3 Deltachrome gegen XGI Volari V8 Artikel, seite 4:
http://www.3dcenter.de/artikel/deltachrome_volari/index4.php
-->
Der DeltaChrome bietet somit eindeutig die qualitätsmäßig beste auf dem Markt verfügbare anisotrope Texturfilterung.
Er bezieht sich zwar auf die Geforce FX5700 und Radeon 9600, aber ich glaube in dem Thread hier gehts auch darum dass das Filtering von nvidia Karten immer schlechter wird, oder?
Sisaya
2005-07-14, 22:39:35
wenn du die bilder abwechselnd betrachtest siehst du wie "scharf" das bild mit global auf Q ist. ebenso solltest sogar du, den fps unterschied rechts oben bemerken
Könntest du oder jemand anderes für mich (und die anderen Blinden?) mal ein paar markante Stellen nennen bzw. sogar einzeichnen, damit ich die Unterschiede sehe? Wäre sehr nett. :)
Sisaya
Piffan
2005-07-14, 22:39:44
juhu
also bin ich zu dumm um flimmern von nichtflimmern unterscheiden zu können?
mit den einstellungen am pic1 flimmert es NICHT mit den einstellungen auf pic 2 FLIMMERT ES
obwohl es laut treibereinstellungen DIE GLEICHEN einstellungen sind
treiberbug? hallo?
oder willst du fröhlich weiter gegen nvidia flamen ohne dich für das problem (das hier anscheinend in einem einstellungsbug im treiber liegt) zu interessieren, und VOR ALLEM dass dieser bug umgangen werden kann?
aber wenn ihr meint, diskutiert ruhig schön theoretisch weiter, ich spiel ne runde bf2 - FLIMMERFREI :P
Viel Spaß dabei. :)
Vielleicht hast Du einen Tipp, was man bei WOW machen kann?
Im Prinzip bin ich auch deiner Meinung: Sch*** auf die Theorie, wenn es einem selbst gefällt. Warum sollte man sich auch seine Spiele und Hardware madig machen lassen, schließlich hat es ja ne Menge Schotter gekostet.
Aber scheinbar scheint das Flimmern nicht immer abstellbar zu sein und NV hat vielleicht doch was gedreht. Darum geht es ja.
Könnte ja auch sein, dass mit dem nächsten Treiber das Problem verschwunden ist. Ein gesundes Misstrauen gegen NV bliebe dennoch kleben. Imho zu recht.
dildo4u
2005-07-14, 22:42:18
Warum nicht Treiberdefault oder HQ?
Ich mein ja Treiberdefault wollte halt einfach die Angebliche situation auf G70 Karten darstellen darum gehts ja im Thread.
Piffan
2005-07-14, 22:42:29
Nein. Der Großteil der Kunden weiß nichtmal was AF ist.
Der Teil der es weiß will flimmerfreies AF, da kannst du Gift drauf nehmen.
Ack! Nicht alle, die ne teure High-End-Graka kaufen, machen das wegen der dicken Hose.
Mr. Lolman
2005-07-14, 22:48:05
Es gibt auch keine theoretische da es keine gültige Referenz gibt. Der Refrast nutzt keinen Texturefilter mit hoher Qualität kann also nicht zum erzeugen einer Referenz benutzt werden.
Einfach von nem vorberechneten Kamerapfad 2 Offline Renderseqeuenzen anfertigen (einmal mit Pointfiltering und einmal mit Linearem+128xSSAA), und diese dann fürs Echtzeit Videocapturing als Grenzwerte fürn Vergleich heranziehn...
Desweiteren spielen bei der Bilderzeugung ja auch noch andere Dinge ausser dem Texturefilter eine Rolle.
Inwiefern jetzt?
Super Grobi
2005-07-14, 22:48:07
Edit: Ich lösch mal, weil ich denke das der Komentar mir nur zustehen würde, wenn ich ALLE Postings lese und nicht nur durch den Thread "fliege"
SG
Mr. Lolman
2005-07-14, 22:48:58
Ebenso wie sogar Du sehen solltest, dass die Shot nicht vergleichbar sind. Oder irre ich mich, das auf dem Radar verschiedene Situationen sichtbar sind? Von daher halte ich den FPS- Unterschied für irrelevant.
Tipp: Gaanz ruhig bleiben, wir wollen doch nicht streiten. Ich meinte ja nur, dass FLIMMERN auf Standbildern nicht zu sehen sein kann. Wohl aber Unterschiede in der Schärfe und man evtl. Flimmern "ahnen" kann. Aber sehen :confused:
Hier kann mans imo auch sehen: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3213366#post3213366 (im Spoiler)
Demirug
2005-07-14, 22:54:41
Einfach von nem vorberechneten Kamerapfad 2 Offline Renderseqeuenzen anfertigen (einmal mit Pointfiltering und einmal mit Linearem+128xSSAA), und diese dann fürs Echtzeit Videocapturing als Grenzwerte fürn Vergleich heranziehn...
128xSSAA reicht da nicht den da besteht immer noch die Gefahr des Unterfilterns wenn man nur den Point Filter bzw den linearen benutzt. Sobald aber wieder Mipmaps ins Spiel kommen ist man wieder auf die LOD Formel angewiessen. Für korrekte Refrenzbilder müsste man eine dermassen hohe Rechenleistung zur Verfügung haben das man das schon als verteiltes Projekt aufziehen müsste um überhaupt einzelne Bilder zu bekommen.
Inwiefern jetzt?
Genauigkeit in den Shadern, beim Alphablending, usw.
Gibt es nicht eine Möglichkeit, den Tricksereien von ATI und NV beim Texturfilter ein Schnippchen zu schlagen? Beispielsweise den Texturfilter mathematisch über Pixel Shader o. ä. zu "emulieren"? Oder etwas anderes in der Art. Genügend Leistung für solche Spielereien sollte eine 7800 GTX doch haben, so dass dann bei 4x tri-AF und 4x sparsed Grid MSAA immer noch die Leistung einer Radeon 9700 übrig bleibt.
Um Texturfilter zu emulieren hat auch eine 7800GTX nicht genügend Leistung, bzw. der Slowdown wäre verhältnismäßig zur gewonnen Bildqualität viel zu riesig.
Quelle?
ich verweis mal hier auf Robbitops S3 Deltachrome gegen XGI Volari V8 Artikel, seite 4:
http://www.3dcenter.de/artikel/deltachrome_volari/index4.php
-->
Er bezieht sich zwar auf die Geforce FX5700 und Radeon 9600, aber ich glaube in dem Thread hier gehts auch darum dass das Filtering von nvidia Karten immer schlechter wird, oder?Quelle: Zeckensack.
(del676)
2005-07-14, 23:25:06
nach längerer icq unterhaltung mit blair, nem screenshot, viel vor und zurücklatschen und einem augen-monitor abstand von 20cm habe ich anscheinend das ausgemacht was ihr flimmern nennt X-D
(was mir vorher nicht aufgefallen ist)
ich würde das ja eher als grieseln bezeichnen, und das Q zeug als flimmern.
aber danke dass ihr drauf rumreitet, nun störts mich auch :(
zeckensack
2005-07-15, 01:38:17
OMG, die ATi Fanboy Inquisition bläst zur nV Jagd. Wenn ich selbstverständlich auch nicht gut finden kann was nV da (mal wieder) treibt, so ist es doch auch so, das ATi genausowenig einen Heiligenschein hat.
Warum tut ihr merkwürdigen Fanboys eigentlich immer so? Ich meine, es reicht eigentlich schon Fanboy von irgendetwas zu sein, aber dieses lächerliche stöbern nach einem Grund zur Veranlassung und Zusammenrottung bewirkt IMHO genau das Gegenteil ;)Halt dich doch einfach an die Fakten, oder an deine Meinung, und hör auf hier von Fanboys, Heiligenscheinen und Lagerbildung zu schwafeln. Wenn dir das dabei hilft dich nicht mit dem Thema beschäftigen zu müssen, bitte. Dann aber auch konsequent.
Es ist es wert diskutiert zu werden, und wenn du außer Komödiantentum und Ignoranz selber nichts beitragen möchtest, dann pfeife ich auch auf deine Erlaubnis, mir selbst eine Meinung zu bilden und diese notfalls auch auszusprechen.
zeckensack
2005-07-15, 01:40:29
Ist das Deltachrom-AF auch schlechter [als NV2x, NV3x]?Ja. Es flimmert.
zeckensack
2005-07-15, 01:44:56
Interessehalber: Welche Treiberversion war das?Ofenfrische offizielle FW77.72.
Ich hatte ja auch die Geschichte gehört, dass es da als "G70-Review-Optimierung" auf NV40 wieder vernünftige AF-Qualität geben sollte. Ob sie jetzt überhaupt anders ist als vorher, habe ich nicht nachgeprüft, zum Brechen ist sie allerdings noch immer. Da sind mir dann auch evtl vorhandene Unterschiede schlicht egal, weil ich das in der Form eh nicht benutzen müssen will.
zeckensack
2005-07-15, 01:54:28
Warum nicht Treiberdefault oder HQ?Q mit allen Optimierungen ist doch Treiberdefault? :conf2:
Ofenfrische offizielle FW77.72.
Ich hatte ja auch die Geschichte gehört, dass es da als "G70-Review-Optimierung" auf NV40 wieder vernünftige AF-Qualität geben sollte. Ob sie jetzt überhaupt anders ist als vorher, habe ich nicht nachgeprüft, zum Brechen ist sie allerdings noch immer. Da sind mir dann auch evtl vorhandene Unterschiede schlicht egal, weil ich das in der Form eh nicht benutzen müssen will.Es ging dabei um UT2004 in HQ ohne Optimierungen. Da hat sich scheinbar was getan. Mit Q hab ich nicht nachgeschaut, weil ich das nicht einstelle.
zeckensack
2005-07-15, 02:00:02
Es gibt auch keine theoretische da es keine gültige Referenz gibt. Der Refrast nutzt keinen Texturefilter mit hoher Qualität kann also nicht zum erzeugen einer Referenz benutzt werden. Desweiteren spielen bei der Bilderzeugung ja auch noch andere Dinge ausser dem Texturefilter eine Rolle.Bin schon dabei.
Ich habe gestern einen kleinen Software-Rasterizer mit Lehrbuch-Trilinear zusammengehauen, der allerdings noch auf "screen aligned quads" begrenzt ist ;(
(also der Filter könnte mehr, aber der Rasterizer nicht)
Das ganze dann visualisiert über OpenGL-Billboards (point sampling). Leider ist das ganze trotz der extremen Einschränkungen noch unglaublich langsam. 10 fps für ~250x250 Pixel mit einer 256x256-Textur.
tombman
2005-07-15, 02:34:07
Leute gibts von ATI Karten auch fraps Videos von bf2? Vorzugsweise R420?
btw, solange ein perfekter AF Filter bis zu MINUS 30% WENIGER fps bedeuten würde, könnt ihr sicher sein, daß wir den niemals sehen werden, weder von ATI noch von Nvidia :(
Marc-
2005-07-15, 03:05:30
Aber genau die "REFERENZQUALITÄT" ist doch das Problem. Es gibt gerade was AA und AF angeht leider nichts auf das man die IHVs festnageln kann. Selbst bei sowas wie dem uralten einfachen Alphablending sind heute immer noch Toleranzen erlaubt.
GPUs sind leider keine Videocodes. Dort ist es einfach die Qualität zu messen.
Tut mir leid leute... irgendwo habt ihr alle einen anner latte.
Einerseits gieren hier 90% der leute nach irgendwelchen penisverlängerungsbenchmarks, selbst ein eigener forumsberreich besteht dafür, es wird ultraneueste hardware übertaktet jenseits jeder vernunft nur um den balken um noch ein milimeterchen zu verlängern (auch unter dem umstand das unter umständen die hardware dadurch "falsch" rechnet was auch zu mitunter sichtbaren oder unsichtbaren artefakten führt-egal hauptsache benchmark score stimmt), es wird benchmark leistung begeistert gefeiert, andererseits werden dann optimierungen (wobei ich das net unbedingt als "optimierung" bezeichnen wuerde:) die treiberseitig scores erhöhen als betrug bezeichnet. Irgendwo lächerlich, weil das kaufverhalten der kunden (das oft jenseits von realität und verstand liegt) und das review verhalten von sites solcherlei tweaks schon fast erfordert. Letztendlich macht nv (und ati genauso) das was der kunde will: es sorgt für den bestmöglichen benchmarkscore.
Und so schlimm kann die bildqualitätsoptimierung wohl kaum sein... wenns wochen dauert bis das mal jemandem auffällt nachdem man sich erst einige wochen was auf die benchmark scores gekeult hat.
TiggleD
2005-07-15, 03:41:58
Erstmal: @Marc- ich bin ja fast ein Fan Deiner stets destruktiven Beiträge geworden. :smile: Natürlich sind Balkenlutscher für die 'Überoptimierungen' der GraKa-Hersteller verantwortlich. Natürlich haben diese aber auch das Recht, sich über genau das zu beklagen. Schließlich haben die genügend €uros abgedrückt. Dennoch sollten alle froh sein, daß es so ist. Die Qualität der Produkte wird langfristig dadurch nur verbessert. Dieses Aufmucken der User wird sicherlich auch zu nVidia und Ati dringen. Insofern besteht die Hoffnung, daß solche Qualitätsdefizite künftig eliminiert werden. =)
Marc-
2005-07-15, 04:05:34
...
Habs nu selbst grad nochmal getestet und sehe das problem garnet wirklich so entscheidend. Zumindest net den aufreger. Mir scheint das zumindest teilweise (wie hier auch scho beschrieben) ein bug zu sein, da man die genannten effekte reproduzierbar umgehen kann.
Generell halte ich treiberdefekte (ob gewollt oder net gewollt) für wenig dramatisch, da diese sich eh im dauerbeta stadium befinden und alle 2 wochen neue nachgeschoben werden in denen mögliche mängel behoben werden (können). Und man kann eben recht schwer erkennen (und nachweisen) was bugs sind und gewollte manipulationen. Da kann man unterstellen was man will... wirklich wissen kann mans net.
BK-Morpheus
2005-07-15, 04:07:21
Leute gibts von ATI Karten auch fraps Videos von bf2? Vorzugsweise R420?
btw, solange ein perfekter AF Filter bis zu MINUS 30% WENIGER fps bedeuten würde, könnt ihr sicher sein, daß wir den niemals sehen werden, weder von ATI noch von Nvidia :(
BF2 mit X800 4xAA und 8xAF (nur "qualität", also nicht rein trilinear)
Video (http://www.videoisdown.de/down.avi)
Das Video muss ich aber Freitag abend wieder Off nehmen, da es nicht mein eigener Webspace ist und ich dort keinen dauerhaften Traffic verursachen will.
IMO flackert es auch sichtbar, aber dennoch so schwach, dass ich es vernachlässigen kann und es mich nicht stört.
Als ich für 5 Tage ne 6600GT drin hatte war ich erst am grübeln, ob mir das starke Flimmern vorher nur net aufgefallen ist, oder ob es an der Geforce liegt. Mit dem Clamp-Schalter und der manuellen Deaktivierung der Optmierungen + HQ, wurde es dann erträglich, aber dennoch empfand ich es als als auffälliger/störender, als bei meiner ATI.
tombman
2005-07-15, 05:22:08
hmm, könntest du mal die selbe Stelle wie oben ohne das störende Gras an den hellen Stellen aufnehmen?
Dann kann man wirklich vergleichen.
thx
tombman
2005-07-15, 05:23:31
... oder unsichtbaren artefakten...
ja, die unsichtbaren sind die schlimmsten von allen ;D
... weil das kaufverhalten der kunden (das oft jenseits von realität und verstand liegt...
Kaufverhalten kann nicht jenseits der Realität liegen, weil Kaufverhalten Teil der Realität ist.
Demirug
2005-07-15, 07:06:09
Bin schon dabei.
Ich habe gestern einen kleinen Software-Rasterizer mit Lehrbuch-Trilinear zusammengehauen, der allerdings noch auf "screen aligned quads" begrenzt ist ;(
(also der Filter könnte mehr, aber der Rasterizer nicht)
Das ganze dann visualisiert über OpenGL-Billboards (point sampling). Leider ist das ganze trotz der extremen Einschränkungen noch unglaublich langsam. 10 fps für ~250x250 Pixel mit einer 256x256-Textur.
Wäre es da nicht sinnvoller eine bereits vorhandenen Software Rasterizier wie MESA oder swShader und diesen auf Qualität zu trimmen? Wobei das große Problem das ich dabei eben nach wie vor sehe ist eine AF Implementierung zu finden welche von alle anerkannt wird. Man könnte natürlich auch sagen das man die Finger vom AF lässt und einen Filter einbaut der jeweils komplet aus der Basistexture filtert.
Q mit allen Optimierungen ist doch Treiberdefault? :conf2:Soweit ich weiß ist der Default Q ohne "Optimimierungen". Wobei gegenüber HQ ja bestimmte "Optimierungen" zwangsaktiviert sind.
Das mit der LOD-Spielerei bei der "Sample Optimization" finde ich interessant, mir ist da nämlich bislang keine LOD-Spielerei aufgefallen. Das werd ich mal nachprüfen.
edit: Ich kann noch immer keine LOD-Bias-Spielereien ausmachen.
Piffan
2005-07-15, 07:35:58
BF2 mit X800 4xAA und 8xAF (nur "qualität", also nicht rein trilinear)
Video (http://www.von-der-burg-widukind.de/BF2_X800_4xAA_8xAF.avi)
Das Video muss ich aber Freitag abend wieder Off nehmen, da es nicht mein eigener Webspace ist und ich dort keinen dauerhaften Traffic verursachen will.
IMO flackert es auch sichtbar, aber dennoch so schwach, dass ich es vernachlässigen kann und es mich nicht stört.
Als ich für 5 Tage ne 6600GT drin hatte war ich erst am grübeln, ob mir das starke Flimmern vorher nur net aufgefallen ist, oder ob es an der Geforce liegt. Mit dem Clamp-Schalter und der manuellen Deaktivierung der Optmierungen + HQ, wurde es dann erträglich, aber dennoch empfand ich es als als auffälliger/störender, als bei meiner ATI.
Genau so sieht es bei meiner Ati auch aus. Zwar nicht bei diesem Spiel, das besitze ich nicht, aber bei UT 2004. Es wird unsichtbar, wenn ich per rtool dafür sorge, dass die TRIifilterung über alle Stages geht.
Weil ich mittlerweile kein Flimmern oder Banding mehr sehen mag, ist bei mir immer die Stage-Optimierung per Tool deaktiviert. Weil das in Spielen wie Doom und Farcry mächtig Performance kostet, steht mein AF- Schalter nur noch auf 4. Bei diesem "niedrigen" AF- Level fällt dann auch die Winkeloptimierung nicht mehr negativ auf....
(del676)
2005-07-15, 07:47:20
Wenn man Lod auf +0.25 oder +0.375 setzt verschwindet das Grieseln.
Wenn man Lod auf +0.25 oder +0.375 setzt verschwindet das Grieseln.
Klar doch, wir verschlechtern den Filter mir einem Blureffekt. :rolleyes:
Marc-
2005-07-15, 08:06:21
ja, die unsichtbaren sind die schlimmsten von allen ;D
Kaufverhalten kann nicht jenseits der Realität liegen, weil Kaufverhalten Teil der Realität ist.
Nicht jeder rechenfehler beispielsweise der cpu führt zu sichtbaren ergebnissen.
ersetze kaufverhalten durch kauferwartung....
Popeljoe
2005-07-15, 08:09:12
Ich glaube bald, dass die neuen Konsolen PS3 + Xbox2 wirklich die bessere Optik haben werden.
Warum? Weil es da keine PenisMarks gibt und ergo keine versteckten Optimierungen eingebaut sein werden. Oder ist da ein Fehler in meiner Logic?
Ich hab mal was ausgegraben von 2003 !
NVIDIA schummelt erneut mit neuem Detonator 51.75 ! ATI+NVIDIA verarschen uns !
http://powerforen.de/forum/showthread.php?t=145993
es hat sich also nix geändert.
Beide Parteien verarschen uns Kunden wieder und wieder :(
wenn ich +500 euro Ausgebe für die neuste Karte, dann WILL ICH das diese die maximale Qualität darstellen kann. Und keine fake / pseudo / HQ Schalter :/
FRUST
PS: noch ein alter mit "Rücklink" :D
Wir werden v.NVIDIA u. ATI verarscht ! Bis zu 60% gefakte Leistung!
http://powerforen.de/forum/showthread.php?t=142617
Also ganz brachial und überzogen gesagt erinnert mich das an die tollen Filteroptimierunen von Volari! :P
NV und auch ATI bescheissen eben einfach klüger!
Allerdings sollte man nicht darüber diskutieren, wie scheisse das ist, sondern versuchen eine Testmöglichkeit zu finden, die es ermöglicht unter vergleichbaren Bedingungen (BQ und Geschwindigkeit) die Karten gegeneinander zu testen.
Allerdings sollten sich da unsere 3D Gurus einmal die Köpfe rauchen lassen! :)
Titel bringen eben auch Verantwortung! ;)
Bedenkt aber dabei, daß diese Vergleiche möglichst für jeden Noob (z.B. für mich) nachvollziehbar sein müssen!
(del676)
2005-07-15, 08:12:21
Klar doch, wir verschlechtern den Filter mir einem Blureffekt. :rolleyes:
wenns hilft?
seahawk
2005-07-15, 08:16:15
Ist eigentlich bekannt, ob es am Treiber liegt, oder ob es an der Hardware liegt.
Unzumutbar ist es auf jeden Fall.
Demirug
2005-07-15, 08:23:06
Soweit ich weiß ist der Default Q ohne "Optimimierungen". Wobei gegenüber HQ ja bestimmte "Optimierungen" zwangsaktiviert sind.
Das mit der LOD-Spielerei bei der "Sample Optimization" finde ich interessant, mir ist da nämlich bislang keine LOD-Spielerei aufgefallen. Das werd ich mal nachprüfen.
edit: Ich kann noch immer keine LOD-Bias-Spielereien ausmachen.
Nur bei Stages > 0. Auf dem Stage 0 ist die LOD Geschichte nicht aktiv.
Klar: Nur weil man AF haben möchte, das nicht flimmert, ist man ATI-Fanboy. Ich sollte meinen Avatar am besten umfärben, ins ATI-Rot.
Was die Page angeht, die sollte man angesichts der News eigentlich gleich in "ATICenter" umbenennen. Du hast Recht: Man sollte NV alles durchgehen lassen, auch Flimmer-AF. Denn wir leben im Kapitalismus und da müssen die Unternehmen Geld verdienen.
Hi
Sorry aths, aber wann wirst du mal objektiv?
Ich kann mich noch gut erinneren wie du damals 3dfx gut geheissen hast, jetzt hast du einen neuen persönlichen HW Herstelller, denn du die Mauer hälst.
Bring auch die mal Kritiken und versuche nicht unbedingt in deinen Theoriewahn alles zu bestätigen.
Für die Endkunden zählt das Gesamtpaket und da verlierte gerade nach dieser Aktion leider nVIDIA noch mehr als vorher.
Schade, denn die FX Serie waren die ersten nVIDIA Karten die ich persönlich als gut - sehr gut empfunden habe.
Wie es aussieht, war und bleibt es bei nVIDIA immer die gleiche lieblose und wir machen was auf die schnelle implementation.
Gruss Labberlippe
aber genau die mip wird doch mit der sample-optimization verschoben, hier mal ein paar bilder:
zuerst D3D ohne Sample-optimization (der schalter im treiber)
http://img245.imageshack.us/img245/3972/d3dsooff4ug.th.jpg (http://img245.imageshack.us/my.php?image=d3dsooff4ug.jpg)
jetzt D3D mit SO
http://img245.imageshack.us/img245/4007/d3dsoon5ux.th.jpg (http://img245.imageshack.us/my.php?image=d3dsoon5ux.jpg)
Dann OGL ohne SO
http://img245.imageshack.us/img245/1046/oglsooff1eg.th.jpg (http://img245.imageshack.us/my.php?image=oglsooff1eg.jpg)
und jetzt OGL mit SO
http://img245.imageshack.us/img245/1046/oglsooff1eg.th.jpg (http://img245.imageshack.us/my.php?image=oglsooff1eg.jpg)
und nein ich habe die screenshots nicht vertauscht, der schalter macht in OGL quasi das gegenteil von D3D ;)
Hi
Mich wundert es noch immer wieso dieses Tool verwendet wird, gerade dann wenn die Hersteller aufgeklascht wurde das diese Tool mit Treiberoptimierungen versehen wurden.
*Kopfschüttel*
Nichts gegen dich X-MAS ( wenn ich mich nicht irre war es von dir.)
Gruss Labberlippe
gisbern
2005-07-15, 08:43:02
der Kunde kriegt das, wonach er sein Kaufverhalten richtet. Insofern darf es nicht verwundern, daß er schlechtere Quali zu mehr FPS bekommt. Warum kaufen sich z.b. gut informierte grakaspezis hieri m forum die 7800 ? weil selbst sie sich nach fps richten.
lasst uns doch die ganzen Threads als Anlass dazu nehmen, den Kundensupport von Nvidia mit Rundmails daran zu erinnern, daß wir User wenigstens die möglichkeit erhalten wollen, gute Qualität auf Kosten der Leistung zu bekommen. Wenn genug beschwerden kommen werden sie einlenken.
eXodia
2005-07-15, 09:03:40
@topic
Komisch als die 9700 rausgekommen is hat es keinen gestört das deren AF exrem Winkelabhängig war+ist..
Trozdem finde ich das mit der Unterfilterung auch nicht sonderlich gut..
GrUß
Hi
Sorry aths, aber wann wirst du mal objektiv?
Ich kann mich noch gut erinneren wie du damals 3dfx gut geheissen hast, jetzt hast du einen neuen persönlichen HW Herstelller, denn du die Mauer hälst.
Bring auch die mal Kritiken und versuche nicht unbedingt in deinen Theoriewahn alles zu bestätigen.
Für die Endkunden zählt das Gesamtpaket und da verlierte gerade nach dieser Aktion leider nVIDIA noch mehr als vorher.
Schade, denn die FX Serie waren die ersten nVIDIA Karten die ich persönlich als gut - sehr gut empfunden habe.
Wie es aussieht, war und bleibt es bei nVIDIA immer die gleiche lieblose und wir machen was auf die schnelle implementation.
Gruss LabberlippeIch fürchte dass mein Posting gründlich missverstanden wurde. Was hat mein "Theoriewahn" (was ist das eigentlich?) damit zu tun, dass NV versucht, den Käufer des G70 ein nicht abschaltbares Flimmern aufs Auge zu drücken, sofern AF aktiv ist? Schlimm genug, dass es auch beim NV40 per Default flimmert, dort kann mans allerdings noch abschalten.
@topic
Komisch als die 9700 rausgekommen is hat es keinen gestört das deren AF exrem Winkelabhängig war+ist..
Trozdem finde ich das mit der Unterfilterung auch nicht sonderlich gut..
GrUß
Das kann man nicht vergleichen.
Durch winkelabhängiges AF bekommt man ein unhomogenes Bild, es stört nicht unbedingt. Es kommt auch in ungünstigen Situationen vor z.B. Hügelige Landschaft.
Das Flimmern, was Nv hier anbietet ist von einem ganz anderen Kaliber.
Das stört extrem.
der Kunde kriegt das, wonach er sein Kaufverhalten richtet. Insofern darf es nicht verwundern, daß er schlechtere Quali zu mehr FPS bekommt. Warum kaufen sich z.b. gut informierte grakaspezis hieri m forum die 7800 ? weil selbst sie sich nach fps richten.Ist hier wirklich nur der Kunde schuld?
Dass das neue Produkt schneller sei als das alte wird seit jeher als Werbebotschaft genutzt. Die IHVs haben den Kunden schön darauf gedrillt, nur das schnellste zu wollen. 3dfx gab zur Voodoo3 noch die Devise aus, man müsse 60 fps haben. Bei der Voodoo5 wurde, weil es gerade opportun war, die Marschrichtung geändert, der Kunde solle sich 4x FSAA ansehen und dann entscheiden, ob er wirklich noch 60 fps braucht.
Die IHVs kranken in ihrem Marketing an ihrer Fehlentscheidung, dass nur Features bewerbbar seien, die "schnell" wären. NV40 mit HDR-Rendering z. B. ist nicht sonderlich schnell, und was wurde von vielen gleich getönt? Bräuchte man dann nicht.
Es ergibt keinen Sinn, mit SM3 zu protzen, wenn die Texturen flimmern und das 16x AF je nach Winkel auch mal nur 2x liefert.
Das kann man nicht vergleichen.
Durch winkelabhängiges AF bekommt man ein unhomogenes Bild, es stört nicht unbedingt. Es kommt auch in ungünstigen Situationen vor z.B. Hügelige Landschaft.
Das Flimmern, was Nv hier anbietet ist von einem ganz anderen Kaliber.
Das stört extrem.Unterfilterung ist die Krönung.
Ob unterfiltert, ob winkelabhängig "optimiert", ob trilinear "optimiert": So bekommt man keine fotorealistische Grafik hin. Die ganze Entwicklung hier ist auf dem falschen Weg.
Ich fürchte dass mein Posting gründlich missverstanden wurde. Was hat mein "Theoriewahn" (was ist das eigentlich?) damit zu tun, dass NV versucht, den Käufer des G70 ein nicht abschaltbares Flimmern aufs Auge zu drücken, sofern AF aktiv ist? Schlimm genug, dass es auch beim NV40 per Default flimmert, dort kann mans allerdings noch abschalten.
HI
Sieht so aus als hätte ich dein Posting missverstanden, nur zeige es deutlicher das dir solche sachen am Sack gehen.
Solche Aktionen gehören normalerweise von Dir sogar an den Pranger gestellt.
Wenn das fast jeden "noob" hier auf fällt, dann muss dieses genauer unter die Lupe genommen werden.
Ausser, Du hast natürlich mit dem Review nichts zu tun gehabt.
Gruss Labberlippe
HI
Sieht so aus als hätte ich dein Posting missverstanden, nur zeige es deutlicher das dir solche sachen am Sack gehen.
Solche Aktionen gehören normalerweise von Dir sogar an den Pranger gestellt.
Wenn das fast jeden "noob" hier auf fällt, dann muss dieses genauer unter die Lupe genommen werden.
Ausser, Du hast natürlich mit dem Review nichts zu tun gehabt.
Gruss LabberlippeWer was schreibt, sieht man doch beim Autor. Das Review kommt von Leo, der Technik-Artikel von mir. Zum Zeitpunkt der Erstellung hatte ich noch keinen einzigen echten G70-Screenshot gesehen, ich war auch noch nicht informiert dass unterfiltert wird. Dass Nvidia solche Dummheiten machen könnte lag ehrlich gesagt außerhalb meiner Vorstellungskraft. Du schreibst einen Technik-Artikel über den neusten Highend-Chip der 10 Gigatexel pro Sekunde liefert – fragst du da um Screenshots um mal zu gucken, ob der Chip vielleicht unterfiltern könnte?
Unterfilterung ist die Krönung.
Ja, die Krönung des Grauens. :devil:
Ob unterfiltert, ob winkelabhängig "optimiert", ob trilinear "optimiert": So bekommt man keine fotorealistische Grafik hin. Die ganze Entwicklung hier ist auf dem falschen Weg.
Klar ist die Entwicklung auf dem falschen Weg, nur gibt es bei den verschiedenen Filter-Optimierungen auch unterschiedliche BQ-Einbußen.
Lieber winkelabhängig als dieses verdammte Flimmern durch Unterfilterung.
Ja, die Krönung des Grauens. :devil:
Klar ist die Entwicklung auf dem falschen Weg, nur gibt es bei den verschiedenen Filter-Optimierungen auch unterschiedliche BQ-Einbußen.
Lieber winkelabhängig als dieses verdammte Flimmern durch Unterfilterung.Ich halte beides für inakzeptabel. Das Flimmern stört natürlich mehr. Beim NV43 den ich habe nehme ich meistens nur 4x AF um die Winkelabhängigkeit nicht so auffällig zu sehen. Folge: Insgesamt recht unscharfe Texturen. Ob der G70 schon bei 2x AF deutlich flimmert, weiß ich nicht, aber Texturen dürfen nicht flimmern. Das Abtasttheorem zu verletzen und das ganze "High Quality" zu nennen ist eine unglaubliche Frechheit.
Entsprechend reagierte ich, trotz Vorbereitung (dass ich mich nicht so aufrege) durchaus etwas emotional bei NV. Aber die schien das nicht wirklich zu interessieren. Mein Eindruck: Wir hätten zu akzeptieren was die uns vorsetzen.
In meiner Diplomarbeit erwähne ich entsprechend nicht nur winkelabhängiges AF sondern auch die Unterfilterung, sprich über die Nichteignung aktueller Hardware, um annähernd fotorealistische Szenen zu rendern. Der beste Chip hierfür scheint mir der NV38 zu sein. Ja, langsam. Aber die mögliche Textur-Qualität ... (dafür reicht das Multisampling AA allerdings nicht.)
Quad-U
2005-07-15, 09:24:52
Den Kundensupport von Nvidia mit Rundmails zuzumüllen ist ganz nett. Aber das hat keine breit öffentliche Wirkung. Weder die Aktionäre, noch die Business-Kunden von nVidia bekommen etwas davon mit.
Der Leistung wegen bleibt dem Kunden eh nichts anderes übrig, als sich eine Ati oder nVidia zu kaufen. Wenn bei beiden die Qualität schlecht ist, was soll sich ändern?
Hier verlangt es nach einer konzentrierten, groß angelegten Anprangerung durch die bekannten Print- bzw. TV-Medien, und zwar international! Also Hardware-Magazine, diverse BILD/Sun/etc.-Zeitungen, Wirtschaftsmagazine (Stichwort "Qualitätsprobleme", siehe Mercedes, VW, Opel, Firestone,...)... Schreiben wir also lieber an diese, nicht an Ati oder nVidia. Die beiden wissen eh schon, wo sie cheaten.
Themen gibt es genug:
Edit: Imho Todsünden: Mipmap- Bänder, die als Bugwelle vor einem herrollen. Flimmerei von Texturen. Zäune in Alphatest und man hat kein Transparenz AA oder Supersampling. Spiele, die kein AA erlauben aufgrund irgendwelcher dubiosen Postfiltereffekten.....gibt sicher mehr, aber das sind die Dinge, die MIR auf den Keks gehen.
Das kann man teilweise absolut sicher mit Bild-Vergleichen belegen, damit es auch ein Dummie versteht.
Wer was schreibt, sieht man doch beim Autor. Das Review kommt von Leo, der Technik-Artikel von mir. Zum Zeitpunkt der Erstellung hatte ich noch keinen einzigen echten G70-Screenshot gesehen, ich war auch noch nicht informiert dass unterfiltert wird. Dass Nvidia solche Dummheiten machen könnte lag ehrlich gesagt außerhalb meiner Vorstellungskraft. Du schreibst einen Technik-Artikel über den neusten Highend-Chip der 10 Gigatexel pro Sekunde liefert – fragst du da um Screenshots um mal zu gucken, ob der Chip vielleicht unterfiltern könnte?
HI
Sorry aths, aber auch du hast schon im vorhinein das AF des R300 in Frage gestellt.
Nicht das Du es falsch auffast, nur ich persönlich schreibe erst dann meine Meinung wenn ich das Ding in den Händen gehabt habe.
Ich gebe meine Meinung erst ab, wenn ich meine Testkriterien durch geführt habe.
Klar, kann auch ich daneben sein, denn jeder hat seine eigene Meinung und das fliesst unweigerlich einfach mit in dem Artikel ein.
Soll so sein und ist auch sehr empfehlenswert, nur Du lieber aths, bist auf etwas reingefallen was immer angeprangert wurde, und zwar das es einen Artikel aufgrund von Presse Material gegeben hat.
Ich sage schade.
Ich dachte wirklich das nVIDIA mehr gelernt hat, gerade der G70 hat mich wirklich fast überzeugt, die Praxis zeigt leider anscheinend wieder etwas anderes...
Gruss Labberlippe
Nur bei Stages > 0. Auf dem Stage 0 ist die LOD Geschichte nicht aktiv.Was wird dort beim LOD gemacht? Wird er so verschoben dass es nicht mehr (bzw. weniger) flimmert?
HI
Sorry aths, aber auch du hast schon im vorhinein das AF des R300 in Frage gestellt.
Nicht das Du es falsch auffast, nur ich persönlich schreibe erst dann meine Meinung wenn ich das Ding in den Händen gehabt habe.
Ich gebe meine Meinung erst ab, wenn ich meine Testkriterien durch geführt habe.
Klar, kann auch ich daneben sein, denn jeder hat seine eigene Meinung und das fliesst unweigerlich einfach mit in dem Artikel ein.
Soll so sein und ist auch sehr empfehlenswert, nur Du lieber aths, bist auf etwas reingefallen was immer angeprangert wurde, und zwar das es einen Artikel aufgrund von Presse Material gegeben hat.
Ich sage schade.
Ich dachte wirklich das nVIDIA mehr gelernt hat, gerade der G70 hat mich wirklich fast überzeugt, die Praxis zeigt leider anscheinend wieder etwas anderes...
Gruss LabberlippeEhrlich gesagt verstehe ich nicht, was du sagen möchtest. Man kann anhand gewisser Informationen die Filterqualität beurteilen, ohne Screenshots aus Spielen zu sehen. Mein Artikel beruht nicht nur auf Pressematerial, Nvidia zeigte sich angenehm kooperativ, meine Fragen zum G70 zu beantworten. So stehen auch in Bezug auf die Pipeline Dinge drin, über die sich das Pressematerial ausschweigt. Was das AF angeht, so besteht 1/3 des gesamten Artikels aus einer Beschwerde was das AF angeht. Was Unterfilterung angeht, wird es – nachdem das nun bekannt wurde – wohl noch Artikel geben. Doch ich schreibe "nebenbei" auch an der Diplomarbeit. Auch wenn ich die Karte in den Händen gehalten hätte, hätte mir das nichts gebracht (da kein PCIe-System.) Selbst wenn ich die Karte hätte testen können, kann es immer passieren dass ich was übersehe.
Das wichtigeste ist doch, dass jeder Kaufinteressierte am besten vor dem Kauf erfährt, was ihn beim G70 erwartet. Dazu muss er sich aber selbst informieren, was der Chip bietet. Doch dass der G70 unterfiltert, ist so ein UNDING, dass man nicht erwarten kann dass jeder Kaufinteressierte diesen Punkt abcheckt.
Hat NV dem Mumm, sowohl bei HQ als auch bei Q auf Unterfilterung zu verzichten? Ich fürchte, nein. Dennoch erwarte ich das. Alles andere ist nicht akzeptabel.
MartinRiggs
2005-07-15, 10:14:21
Ich hab mir im I-net mal einen Videovergleich angesehen und muß sagen ich bin entsetzt.
Nach den ersten Reviews war ich eigentlich angenehm überrascht aber jetzt bin ich doch froh das ich ne x800 habe!
Auch wenn ATI fröhlich optimiert aber flimmern oder sowas hab ich noch nie gesehen.
Hauwech
2005-07-15, 10:35:30
Kann das Flimmern per neuem Treiber behoben werden?
Demirug
2005-07-15, 10:40:49
Was wird dort beim LOD gemacht? Wird er so verschoben dass es nicht mehr (bzw. weniger) flimmert?
Dafür muss ich meine Testprogramme erst mal so umschreiben das sie Stage 1 nutzten.
BTW: Der G70 Unterfilter bei HQ nicht wirklich das ist eine kaputte Gewichtung der Texel.
BTW: Der G70 Unterfilter bei HQ nicht wirklich das ist eine kaputte Gewichtung der Texel.
Kann mir nichts drunter vorstellen...
Was soll da kaputt sein?
Dafür muss ich meine Testprogramme erst mal so umschreiben das sie Stage 1 nutzten.
BTW: Der G70 Unterfilter bei HQ nicht wirklich das ist eine kaputte Gewichtung der Texel.Nähere Infos hierzu wären nett. Was ich in Screenshots sehe, sieht mir so aus als ob die Sample-Abstände auf der AF-Linie zu groß sind.
Kann das Flimmern per neuem Treiber behoben werden?
Davon ist auszugehen.
Ehrlich gesagt verstehe ich nicht, was du sagen möchtest. Man kann anhand gewisser Informationen die Filterqualität beurteilen, ohne Screenshots aus Spielen zu sehen. Mein Artikel beruht nicht nur auf Pressematerial, Nvidia zeigte sich angenehm kooperativ, meine Fragen zum G70 zu beantworten. So stehen auch in Bezug auf die Pipeline Dinge drin, über die sich das Pressematerial ausschweigt. Was das AF angeht, so besteht 1/3 des gesamten Artikels aus einer Beschwerde was das AF angeht. Was Unterfilterung angeht, wird es – nachdem das nun bekannt wurde – wohl noch Artikel geben. Doch ich schreibe "nebenbei" auch an der Diplomarbeit. Auch wenn ich die Karte in den Händen gehalten hätte, hätte mir das nichts gebracht (da kein PCIe-System.) Selbst wenn ich die Karte hätte testen können, kann es immer passieren dass ich was übersehe.
Das wichtigeste ist doch, dass jeder Kaufinteressierte am besten vor dem Kauf erfährt, was ihn beim G70 erwartet. Dazu muss er sich aber selbst informieren, was der Chip bietet. Doch dass der G70 unterfiltert, ist so ein UNDING, dass man nicht erwarten kann dass jeder Kaufinteressierte diesen Punkt abcheckt.
Hat NV dem Mumm, sowohl bei HQ als auch bei Q auf Unterfilterung zu verzichten? Ich fürchte, nein. Dennoch erwarte ich das. Alles andere ist nicht akzeptabel.
Hi
Na da ist ein reden das es einen Artikel darüber geben wird.
Meine Bitte an Dich ist dennoch das Du den Artikel nicht nur mit den jetzigen Wissensstand schreibst, sondern das Du dieses auch in der Praxis dir ansiehst und dann Deine Meinung als aths und als Privatmann abgibst.
Gruss Labberlippe
Hi
Na da ist ein reden das es einen Artikel darüber geben wird.
Meine Bitte an Dich ist dennoch das Du den Artikel nicht nur mit den jetzigen Wissensstand schreibst, sondern das Du dieses auch in der Praxis dir ansiehst und dann Deine Meinung als aths und als Privatmann abgibst.
Gruss LabberlippeOb ich mir einen G70 in absehbarer Zeit in der Praxis ansehen kann, halte ich für zweifelhaft. Das Teil bräuchte ich schon für mindestens drei Wochen, und ich habe kein PCIe-System. Zwar gibt es zumindest erst mal keinen Artikel, dafür die News.
Jeder Artikel ist mit dem Wissensstand geschrieben, den ich zum Zeitpunkt der Erstellung hatte. Wenn der G70 unterfiltert oder aus anderen Gründen das Abtasttheorem verletzt braucht man sich das nicht in der Praxis anzusehen um zu wissen dass es flimmert.
Ob ich meine Privatmeinung in einem Artikel nenne wird immer von Fall zu Fall entschieden.
Davon ist auszugehen.Das ist lediglich zu hoffen. Ich würde mir keinen G70 kaufen sofern es nicht bereits einen vernünftigen Treiber gibt.
StefanV
2005-07-15, 11:31:27
Ehrlich gesagt verstehe ich nicht, was du sagen möchtest.
Och, ganz einfach:
Du urteilst über Dinge die du nie sahst und ziehst aus der Theorie die falschen Schlüsse, aber das ist ja nix neues...
Man kann anhand gewisser Informationen die Filterqualität beurteilen, ohne Screenshots aus Spielen zu sehen.
Nein, kann man nicht.
Man muss erstmal etwas gesehen haben, um etwas wirklich beurteilen zu können, denn deine ach so tollen nVs der 6er Serie sind ja bekanntlich recht flimmrig, wie du weißt.
Und ja, Treiber Default zählt, da es sehr viele gibt, die nix von diesen 'Optimirungen' wissen und sie demnach nicht abschalten werden...
Mein Artikel beruht nicht nur auf Pressematerial, Nvidia zeigte sich angenehm kooperativ, meine Fragen zum G70 zu beantworten.
Ja, nV ist auch toll, ATI ist scheiße, wir wissens, aths, das du nV bevorzugst, warum auch immer...
Nur ists in letzter Zeit etwas zu auffällig, wie sehr du doch nV für irgendwas das nicht besser ist als was anderes, lobst, andere aber für den gleichen Mist tadelst...
Steht in den nV Mails, das sie nur dann kooperieren, wenn du immer schön sagst, das nV toll ist?!
So stehen auch in Bezug auf die Pipeline Dinge drin, über die sich das Pressematerial ausschweigt. Was das AF angeht, so besteht 1/3 des gesamten Artikels aus einer Beschwerde was das AF angeht.
Schön, nur sollte dir klar sein, das man solangsam mal den Hintern hoch nehmen sollte und mal einen Artikel a la 'nV wird immer schlechter' schreiben sollte und nicht nur 'nV ist so toll' und sonstige 'NV Technikartikel', damit wirst nämlich garnichts ändern...
Aber das weißt du sicher auch :rolleyes:
Was Unterfilterung angeht, wird es – nachdem das nun bekannt wurde – wohl noch Artikel geben. Doch ich schreibe "nebenbei" auch an der Diplomarbeit. Auch wenn ich die Karte in den Händen gehalten hätte, hätte mir das nichts gebracht (da kein PCIe-System.) Selbst wenn ich die Karte hätte testen können, kann es immer passieren dass ich was übersehe.
Hm, jetzt sagst du, das du was übersehen könntest, weiter oben sagtest du aber, das man anhand des Theoretischen Zeugs das ganze beurteilen könnte?!
Tschuldigung, aber Theorie und Praxis sind manchesmal 2 Grundverschiedene Dinge.
Dinge, die in der Theorie funzen, müssen es nicht in der Praxis.
Umsonst unterziehen die Autohersteller ihren Autos auch nicht umfangreiche Praxistests, ebenso wie die '1st Silicons' meistens nie wirklich funzen, bei der Chipherstellung...
Das wichtigeste ist doch, dass jeder Kaufinteressierte am besten vor dem Kauf erfährt, was ihn beim G70 erwartet. Dazu muss er sich aber selbst informieren, was der Chip bietet. Doch dass der G70 unterfiltert, ist so ein UNDING, dass man nicht erwarten kann dass jeder Kaufinteressierte diesen Punkt abcheckt.
Schön, das dir das JETZT auffällt, wo das Kind im Brunden doch schon versängt wurde...
Statt lobeshymnen auf nV zu singen hättest mal lieber die 6er Serie verreißen sollen, was du aber niemals irgendwo gemacht hast...
Sich nun über die noch schlechtere Filterung der G70 zu beschweren ist, nunja, nicht ganz richtig, denn das hättest _DU_ schon mit 'nem Artikel über die 6er Serie machen müssen...
Hat NV dem Mumm, sowohl bei HQ als auch bei Q auf Unterfilterung zu verzichten? Ich fürchte, nein. Dennoch erwarte ich das. Alles andere ist nicht akzeptabel.
Tja, das nV sich gern Dinge so hinbiegt wie sies gern hätten, ist ja nichts neues, insbesondere bei den Versemmelten FXen nicht...
Statt wichtige Recourcen für 'the next gen' zu verwenden oder aber dafür, das alles Problemlos läuft, versemmelt man lieber wichtige Recourcen in irgendwelchen Cheats, damit man in der Theorie nicht ganz so schlecht dastand, dumm nur das man in der Praxis noch schlechter war, da die Konkurenz zu dem Zeitpunkt kompatibler...
Das ist lediglich zu hoffen. Ich würde mir keinen G70 kaufen sofern es nicht bereits einen vernünftigen Treiber gibt.
Mach' mir doch Mut :frown:
Ich hab' mir gerade ein neues Arbeitspferdchen bestellt...
Ich kann mir nicht vorstellen, dass nVidia da solche "Bugs" reinhaut bei 'nem Refresh.
Och, ganz einfach:
Du urteilst über Dinge die du nie sahst und ziehst aus der Theorie die falschen Schlüsse, aber das ist ja nix neues...Du bist hingegen als jemand bekannt, der Dinge kritisch hinterfragt und die richtigen Schlüsse zieht.
Wenn man AF-Blumen kennt oder bestimmte Screenshots die Unterfilterung zeigen, wie kann man davon sprechen dass ich Dinge "nie" sah? Wenn mans aus der Theorie falsche Schlüsse zieht, hat man die Theorie nicht verstanden. Ich möchte dir nicht zu nahe treten aber an dieser Stelle die Behauptung aufstellen, dass ich von der Filtertheorie schon etwas verstehe. LOD-Berechnung, bilineare Filterung, Prinzipien der anisotrope Filterung – wer weiß wirklich, wie man sowas macht?
Ich gehöre zu denen, das sage ich nicht frei von Stolz. Hat mich jahrelange Beschäftigung gekostet. Viel Theorie, viel Mathe. Und in Mathe bin ich nur mittelmäßig, dementsprechend kann das 'ne Quälerei sein. Bringt aber mehr als nur auf Screenshots zu gucken und wo ein bestimmter IHV draufsteht zu sagen "besser!".
Nein, kann man nicht.
Man muss erstmal etwas gesehen haben, um etwas wirklich beurteilen zu können, denn deine ach so tollen nVs der 6er Serie sind ja bekanntlich recht flimmrig, wie du weißt.
Und ja, Treiber Default zählt, da es sehr viele gibt, die nix von diesen 'Optimirungen' wissen und sie demnach nicht abschalten werden...Aha. Daher darf ich auch nicht schreiben, dass es da so einen HQ-Modus gibt, der zumindest beim NV40 was bringt. Wenn Leo Default vs. Default (NV vs. ATI) bencht hast du sicherlich aus was dagegen, da man bei NV HQ einstellen müsste. Wie man's auch macht: NV ist böse. Wer nicht hardcoremäßig anti-NV ist, ist natürlich pro-NV. Alles eine Frage des Standpunktes.
Ja, nV ist auch toll, ATI ist scheiße, wir wissens, aths, das du nV bevorzugst, warum auch immer...Klar. NV ist toll, das habe ich gerade in der letzten Zeit ja immer wieder deutlich gemacht.
Nur ists in letzter Zeit etwas zu auffällig, wie sehr du doch nV für irgendwas das nicht besser ist als was anderes, lobst, andere aber für den gleichen Mist tadelst...
Steht in den nV Mails, das sie nur dann kooperieren, wenn du immer schön sagst, das nV toll ist?!Noch schlimmer. "Meine" Artikel werden gleich von NV geschrieben, ich lass mich nur als Autor eintragen. Bevor ich letzte Woche Kirk sehen durfte (hach, wie wichtig ich mich da fühlen konnte) musste ich unterschreiben, NV auch weiterhin zu pushen. So läufts, oder meinst du, ich wäre etwa ein unabhängiger Redakteur? Ich bitte dich ...
Und Leo ist entweder blind und merkt nicht was läuft, oder auch gekauft. Oder halt – wir sind gar nicht gekauft. Wir sind einfach nur dumm. Wir können nicht sehen, dass ATI besser ist, Beweis genug für unser Unvermögen. Sorry, wir arbeiten daran, Leo hat auch schon einen Eimer rote Farbe bestellt.
Schön, nur sollte dir klar sein, das man solangsam mal den Hintern hoch nehmen sollte und mal einen Artikel a la 'nV wird immer schlechter' schreiben sollte und nicht nur 'nV ist so toll' und sonstige 'NV Technikartikel', damit wirst nämlich garnichts ändern...
Aber das weißt du sicher auch :rolleyes:Ach. Wenns gegen NV gehen soll, kanns dir gar nicht schnell genug gehen. Ich gehöre leider zu den Leuten, die lieber eine gründliche Recherche an den Anfang stellen. Und wenn man sich mal geirrt hat, was natürlich trotzdem mal vorkommt, gibts eine Ergänzung zum Artikel und von Leo eine Bemerkung in den News. Ich habe ja auch nie Kolumnen geschrieben, die sich mit Texturfilterung beschäftigen. Und ATI ist ein leuchtendes Beispiel, was leider nicht in leuchtenden Lettern auf der Hauptseite prangt. Denn die Site heißt "3DCenter", nicht "ATICenter".
Hm, jetzt sagst du, das du was übersehen könntest, weiter oben sagtest du aber, das man anhand des Theoretischen Zeugs das ganze beurteilen könnte?!
Tschuldigung, aber Theorie und Praxis sind manchesmal 2 Grundverschiedene Dinge.Ja. Einige haben von der Theorie keine Ahnung und versuchen ständig, deren Bedeutung herunterzuspielen.
Dinge, die in der Theorie funzen, müssen es nicht in der Praxis.Dann ist die Theorie falsch.
Umsonst unterziehen die Autohersteller ihren Autos auch nicht umfangreiche Praxistests, ebenso wie die '1st Silicons' meistens nie wirklich funzen, bei der Chipherstellung...Der Herstellungsprozess eines Chips ist Schwankungen unterworfen. Die Formel zur Texturfilterung arbeitet entweder korrekt oder nicht. Das Rendering ist ein digitaler Prozess. Die Filtertheorie stellt in Bezug auf Aliasingfreiheit bestimmte Forderungen, die beim G70-AF offensichtlich nicht erfüllt werden.
Schön, das dir das JETZT auffällt, wo das Kind im Brunden doch schon versängt wurde...Entschuldige bitte, dass mir nicht schon vor dem Launch zugeflüstert wurde, dass der G70 das AF verhaut. Wie konnte ich nur! Habe ich doch tatsächlich mehr zu tun, als mich den ganzen Tag um den G70 zu kümmern. Denn ich muss ja auch mal dazu kommen, das NV-Werbematerial durchzublättern um zu wissen, was in meinem nächsten Artikel steht.
Statt lobeshymnen auf nV zu singen hättest mal lieber die 6er Serie verreißen sollen, was du aber niemals irgendwo gemacht hast...Stimmt. Über das AF des NV40 habe ich kein schlechtes Wort verloren. Und die Erde ist eine Scheibe.
Sich nun über die noch schlechtere Filterung der G70 zu beschweren ist, nunja, nicht ganz richtig, denn das hättest _DU_ schon mit 'nem Artikel über die 6er Serie machen müssen...Auch beim G70 sind von mir im Artikel nur Lobensworte zu hören. Und die Erde ist eine Scheibe.
Ich empfehle wirklich die Lektüre meiner Artikel bevor du Behauptungen aufstellst, was ich "niemals irgendwo gemacht" haben soll.
Tja, das nV sich gern Dinge so hinbiegt wie sies gern hätten, ist ja nichts neues, insbesondere bei den Versemmelten FXen nicht...Da merkt man wieder, wie objektiv zu bist. Von dir kann man viel lernen!
Statt wichtige Recourcen für 'the next gen' zu verwenden oder aber dafür, das alles Problemlos läuft, versemmelt man lieber wichtige Recourcen in irgendwelchen Cheats, damit man in der Theorie nicht ganz so schlecht dastand, dumm nur das man in der Praxis noch schlechter war, da die Konkurenz zu dem Zeitpunkt kompatibler...Dumm nur, dass deine Weltsicht nicht maßstabsgebend ist. Eine Frage habe ich aber noch: Wie hast du es geschafft, in diesem Posting den Begriff "TV-Out" nicht zu erwähnen?
StefanV
2005-07-15, 11:56:03
Dann ist die Theorie falsch.
Nein, die Theorie ist nicht falsch, nur ist die Praxis ein wenig komplizierter und nicht theoretisierbar, da zu viele unbekannte Faktoren...
Seit dem R300 geht es auch bei ATI abwärts. Vorallem das Erkennung von gefärbten Mipmaps nehmem ich ihnen immer noch übel.
Hallo,
das ist eine haltlose Behauptung!
ATI hat immer noch eine bessere Qualität als nv!
Grüsse
Hallo,
das ist eine haltlose Behauptung!
ATI hat immer noch eine bessere Qualität als nv!
GrüsseNach meinem Kenntnisstand ist NV40 HQ besser als ATI mit AI off. Ausnahmen sind u. U. spezielle Spiele wie UT200x. Vergleicht man NV Q mit ATI AI, weiß ich nicht wie es aussieht. So wie ich Q sehe, wird allerdings so stark unterfiltert dass das mehr wiegt als die Nachteile, die die Radeon hat.
Seraf
2005-07-15, 12:10:49
Hallo,
das ist eine haltlose Behauptung!
ATI hat immer noch eine bessere Qualität als nv!
Grüsse
Ihr solltet euch mal an die Signatur von S. Payne halten :ugly:
Die R4xx Chips filtern bei "Standardeinstellung" auf jeden Fall nicht besser als ihre R300 Kollegen. Ob es auffällt ist natürlich eine andere Sache. Unterschiede können teilweise nur im Promillebereich sein. Aber auf jeden Fall filtern sie durch den adaptiven brilinearen Filter schlechter ;)
Und von Nv war garkeine Rede.
StefanV
2005-07-15, 12:13:54
Ihr solltet euch mal an die Signatur von S. Payne halten :ugly:
Die R4xx Chips filtern bei "Standardeinstellung" auf jeden Fall nicht besser als ihre R300 Kollegen. Ob es auffällt ist natürlich eine andere Sache. Unterschiede können teilweise nur im Promillebereich sein. Aber auf jeden Fall filtern sie durch den adaptiven brilinearen Filter schlechter ;)
Und von Nv war garkeine Rede.
Das Problem ist aber das Flimmern bei den nVs, was sie in der Standardeinstellung sehr stark tun..
Nein, die Theorie ist nicht falsch, nur ist die Praxis ein wenig komplizierter und nicht theoretisierbar, da zu viele unbekannte Faktoren...Die Theorie, wie AF auszusehen hat, ist bekannt. Die Praxis zeigt dann, wie weit das erfüllt wird. Ohne fundierte theoretische Kenntnisse kann man die Praxis allerdings nur bedingt bewerten. Sonst kommt man schon mal zur Schlussfolgerung, das 4x AA der GF FX sei so gut wie bei der Radeon 9700. Andere wieder haben es schwer, die Nachteile des R300-AF in Bezug auf das GF-FX-AF zu sehen.
BK-Morpheus
2005-07-15, 12:25:02
hmm, könntest du mal die selbe Stelle wie oben ohne das störende Gras an den hellen Stellen aufnehmen?
Dann kann man wirklich vergleichen.
thx
Wie soll ich denn das Gras wegbekommen?
Seraf
2005-07-15, 12:25:40
Das Problem ist aber das Flimmern bei den nVs, was sie in der Standardeinstellung sehr stark tun..
Ja darum geht es.
Und aths hat doch eine Theorie gebracht die sehr plausibel ist. Das du Theorien von aths nicht sehr magst weiß ich ja auch. Streitbare Artikel über Ultrashadow in Doom3 oder die HL2 Kolumne lassen mich das auch nachvollziehen :rolleyes: . Aber trotzdem ist die jetzige Theorie doch bis jetzt sehr schlüssig.
Mußt ihm aber deshalb auch nicht dauernd den grünen Peter unterschieben. :tongue:
Zu meinem Posting oben.
Der Gast hat behauptet das Demirugs Behauptung keine Hände und Füße hätte. Hab ich nur richtiggestellt.
StefanV
2005-07-15, 12:37:30
Mußt ihm aber deshalb auch nicht dauernd den grünen Peter unterschieben. :tongue:
Dann soll er auch nicht immer raushängen lassen, wie toll er doch nV findet, wie gut sie doch mit ihm zusammenarbeiten und die sonstige Schleimspur Richtung nV lassen...
Eigentlich sollte spätestens bei der nV4x Generation klar gewesen sein, das nV die Qualität weiter verschlechtern wird.
Das ganze wird solange passieren, wie sie damit durchkommen!
Bei ATi schauts anders aus, die haben nie eine gute Filterung gehabt und bei jeder 'echten Generation' auch immer das AF verbessert.
Aber vielleicht bekommen wir ja bald das R100 AF + Tri in den nV Chips zu sehen :devil:
Zu meinem Posting oben.
Der Gast hat behauptet das Demirugs Behauptung keine Hände und Füße hätte. Hab ich nur richtiggestellt.
Haben sie auch nicht, dann könnt sein Posting ihn/dich ja schlagen und wegrennen, was er ja nicht tut, was den Schluss nahe legt, das das Posting doch keine Hände und Füße hat, da es ihn nicht geschlagen hat und auch noch an seinem Platze ist ;)
Seraf
2005-07-15, 12:40:28
Haben sie auch nicht, dann könnt sein Posting ihn/dich ja schlagen und wegrennen, was er ja nicht tut, was den Schluss nahe legt, das das Posting doch keine Hände und Füße hat, da es ihn nicht geschlagen hat und auch noch an seinem Platze ist ;)
Ich riskiere ja nur ungerne einen Punkt für Spam aber es muß sein....
Komm her! :ubash2:
:D
Dann soll er auch nicht immer raushängen lassen, wie toll er doch nV findet, wie gut sie doch mit ihm zusammenarbeiten und die sonstige Schleimspur Richtung nV lassen...Deine Wahrnehmung halte ich für ziemlich gefiltert.
Ich versuche, jeden IHV fair zu behandeln ... ob das seinen Fans oder Gegnern passt oder nicht.
3DCenter gehört zu den ganz wenigen Seiten (von denen, die ich kenne) die das Thema der G70 AF-Problematik aufgenommen haben. Rate mal, wer dahinter steckt. Aber nein, du siehst nur Schleimspuren. 3DCenter ist nicht dazu da, deine Weltsicht zu bestätigen, sondern um den zu informieren, der das Angenbot annimmt.
Hauwech
2005-07-15, 12:55:58
Falls das Flimmern mit einem neuen Treiber abgestellt werden kann, reicht mir das persönlich.
Betrug kann man beiden vorwerfen. Sei es durch Umlabeln von Chips, Anhängen von Kürzeln, nicht einfach zugängliches Abschalten von Optimierungen, Vorenthaltung von Features und Leistung, Erkennung und Verarschung von Testprogrammen usw usw.
Dehnt man das auf andere PC Produkte aus, kommt man zum Schluss, das man überall verarscht wird und gleich die Finger von PCs lassen sollte. Man muss zwar nicht alles hinnehmen was geboten wird, aber Hasstiraden auf einige Hersteller abzulassen, bringt noch viel weniger.
Nebenbei sind einige Sachen nur subjektiv zu bewerten. Für den einen flimmert es bei der Standardeinstellung, für den anderen nicht. Was ist nun richtig, was ist falsch? Benutze ich einen Standardtreiber der Sachen falsch darstellt, ist das auch Betrug weil es ja in Standardeinstellungen falsch ist?
Demirug
2005-07-15, 13:08:18
Nähere Infos hierzu wären nett. Was ich in Screenshots sehe, sieht mir so aus als ob die Sample-Abstände auf der AF-Linie zu groß sind.
Mit kürzeren Abständen könnte man das Problem durchaus lösen was dann aber eigentlich eine Kompensation durch Überfilterung wäre. Defakto macht der NV40 allerdings genau das. Beim G70 wird das Überfiltern erfolgreich unterdrückt indem die zu berücksichtigende Texelfläche besser bestimmt wird. Das verhindert weitgehend das einzelneTexel doppelt gelesen werden müssen. Das Problem ist nur das dieses neue Verfahren die Gewichtungsfaktoren nicht korrekt berechnet bzw. die BI-Filter das gar nicht umsetzten können weil man das 3 Lerp Verfahren nutzt (Vermutung von mir).
Die Grundidee war also eigentlich gar nicht schlecht nur haben sie das irgendwie nicht richtig zuende gedacht.
reunion
2005-07-15, 13:10:56
Und durch den bedauerlichen Bug wird in Q weniger geboten als bei der Konkurrenz.
Bin ich eigendlich der Einzige, der es für ziemlich unwarscheindlich hält, dass es sich hierbei um einen Bug handelt?
Demirug
2005-07-15, 13:15:30
Bin ich eigendlich der Einzige, der es für ziemlich unwarscheindlich hält, dass es sich hierbei um einen Bug handelt?
Ich halte das eigentlich auch nicht für einen Bug. Den welchen Sinn macht ein Q Modus der beim abschalten der zusätzlichen Optionen identisch mit HQ ist? Für diesen Fall hätte man den Q modus gar nicht gebraucht und hätte die Schalter einfach dem HQ Modus zuordenen können.
BK-Morpheus
2005-07-15, 13:26:15
So, hier ne Stelle ohne Gras.
Video1 Settings auf Medium, 6xAA 8xAF (wieder standard, also brilinear):
http://www.von-der-burg-widukind.de/BF2_01.avi
Video2 Settings auf Medium, aber Textures auf High, 2xAA 16xAF trilinear:
http://www.von-der-burg-widukind.de/BF2_02.avi
(leider nur in 640x480)
In 1280x960 und unkomprimiert sieht's natürlich schärfer aus, gerade die DivX komp., lässt die Texturen in der Ferne recht matschig aussehen (trotz 7000kbps)...wollte das nur gesagt haben, nicht dass es noch heisst das AF irgendwie nicht so toll schärft.
Ich halte das eigentlich auch nicht für einen Bug. Den welchen Sinn macht ein Q Modus der beim abschalten der zusätzlichen Optionen identisch mit HQ ist? Für diesen Fall hätte man den Q modus gar nicht gebraucht und hätte die Schalter einfach dem HQ Modus zuordenen können.
Es wirkt aber wie ein BUG!
Quad-U
2005-07-15, 14:31:05
Bitte Leute, ganz ruhig :comfort2:. Ihr zerfleischt Euch doch nur selbst und die Großen lachen darüber.
Das ist echt ein Problem: Nicht die Relation zwischen den beiden, sondern das absolut Machbare muss der Maßstab sein! Lasst uns doch mal klar stellen: SOWOHL Ati ALS AUCH nVidia bieten aktuell teilweise deutliche schlechtere Qualität als sie früher schon da war bzw. machbar ist. DAS muss einer BREITEN Öffentlichkeit klar werden, sonst ändert sich NIE was!
(del676)
2005-07-15, 15:03:02
passt vielleicht zum thema
Treiber im Windows war auf HQ alle Opts aus.
in Linux gibts diese Optionen garned
Doom3 - 1600x1200 Ultra, 2xAA
mit 16xAF:
Windows: 69.7
Linux: 61.4
mit 0xAF
Windows: 71.3
Linux: 64.6
in windows gewinnt man durchs abschalten von AF 2.9% performance, in linux 5.2%
Jesus
2005-07-15, 15:17:01
Bin ich eigendlich der Einzige, der es für ziemlich unwarscheindlich hält, dass es sich hierbei um einen Bug handelt?
Nein bist du nicht. Nur schade dass es selbst auf der Hauptseite als bug beschrieben wird, "bug" wäre besser gewesen.
Aber lustig zu lesen wie viele Leute hier die früher scheinbar auf einem Auge blind waren jetzt plötzlich doch was sehen, wär echt mal Zeit alte Zitate rauszusuchen... :rolleyes:
dildo4u
2005-07-15, 15:24:02
Nein bist du nicht. Nur schade dass es selbst auf der Hauptseite als bug beschrieben wird, "bug" wäre besser gewesen.
Aber lustig zu lesen wie viele Leute hier die früher scheinbar auf einem Auge blind waren jetzt plötzlich doch was sehen, wär echt mal Zeit alte Zitate rauszusuchen... :rolleyes:
Jup schon merkwürdig 1jahr hats keinen gestört aber wenn NV die next Gen rausbingt ist das Geschrei groß so ich geh jetzt wieder BF2 mit allen schönen Optemierungen zocken :P
Hier mein video mit dem ach so Schlimmen Flimmern.
http://web115.silverline-s15.de/bilder/bf2video.rar
Genauso könnte man eine News schreiben ATI kann kein SSAA obwhol die karte Schnell genug sind warum hält einem ATI das vor Betrug bitte ich will morgen eine News zum thema.
Blaire
2005-07-15, 15:32:26
So, hier ne Stelle ohne Gras.
Video1 Settings auf Medium, 6xAA 8xAF (wieder standard, also brilinear):
http://www.von-der-burg-widukind.de/BF2_01.avi
Video2 Settings auf Medium, aber Textures auf High, 2xAA 16xAF trilinear:
http://www.von-der-burg-widukind.de/BF2_02.avi
(leider nur in 640x480)
Bei beiden Videos sehe ich ein leichtes Grieseln wie es auch bei der 7800GTX und HQ vorkommt.
Blacksoul
2005-07-15, 15:37:35
Genauso könnte man eine News schreiben ATI kann kein SSAA obwhol die karte Schnell genug sind warum hält einem ATI das vor Betrug bitte ich will morgen eine News zum thema.
Was natürlich nicht ganz richtig ist und das weißt du auch ;)
t.blacksoul.d
dildo4u
2005-07-15, 15:39:15
Was natürlich nicht ganz richtig ist und das weißt du auch ;)
t.blacksoul.d
Aufm Mac funzt das einwandfrei ist also ne reine Treibersache
Black-Scorpion
2005-07-15, 15:41:04
Genauso könnte man eine News schreiben ATI kann kein SSAA obwhol die karte Schnell genug sind warum hält einem ATI das vor Betrug bitte ich will morgen eine News zum thema.
Hat es ATI für Windows schon mal angeboten?
Afaik nicht.
Aber schön wenn man Äpfel mit Birnen vergleicht.
predprey
2005-07-15, 16:04:13
Hat denn wer schonmal bei Nv angefragt, ob es denn ein Treiber Problem ist, oder so gewollt ??
Hier wird irgentwie nur verurteilt ohne erstmal andere Treiber abzuwarten, eine Aussage von Nv einzuhohlen oder selber zu testen :/
Und die, die versuchen etwas aufzuklären werden ignoriert :/
Das war mal anders !
Blacksoul
2005-07-15, 16:10:17
Aufm Mac funzt das einwandfrei ist also ne reine Treibersache
Ich weiß, du hast es allerdings so rüber gebracht, dass ATI kein SSAA kann, also nicht dazu in der Lage ist
Gehts beim Mac auch nur bis 1024x768?
t.blacksoul.d
DrumDub
2005-07-15, 16:22:39
Gehts beim Mac auch nur bis 1024x768? ja. ist auch nur ogss, was auch mit demis dxtweaker unter windows möglich ist. der grund für das ssaa auf dem mac ist, dass es zuerst kein msaa auf dem mac gab, sodass ati dort ersatzweise ssaa angeboten hat.
BK-Morpheus
2005-07-15, 16:27:08
Bei beiden Videos sehe ich ein leichtes Grieseln wie es auch bei der 7800GTX und HQ vorkommt.
Also auf meiner 6600GT hat es auf HQ und ohne Optimierungen mehr geflimmert/gegrieselt, als mit der ATI.
Tigerchen
2005-07-15, 16:30:09
ATI hat durch winkel abhäniges AF die Verschlechterung geprägt und in Gang gesetzt hätte man angesichts der überlegenheit des R300 nicht schon damals darauf verzichten können.?
Nein. Dann wär die Leistung wieder so gewesen daß nach 6 Monaten wieder Leistungsengpässe dagewesen wären. Beim R300 wurde die Winkelabhängigkeit ja auch verbessert. Beim Erscheinen des R200 klappte das ja noch nicht so richtig. Solche Optimierungen sind schon nötig.
aths hat mich mal gefragt ob ich jede Optimierung gut finden würde. Und ich antwortete sinngemäß. "Nur solange die eigene Kundschaft damit einverstanden ist." Da stehe ich auch heute zu. Was ich als ATI-Fan sage kann euch Grünen ja egal sein. Nur sind doch einige nV-Käufer zuviel unglücklich mit den letzten Optimierungen. Das ist dann der Punkt wo Optimierungen keine mehr sind.
Grindcore
2005-07-15, 16:43:43
Das betrifft allerdings in erster Linie Leute, die glaubten sich ihren virtuellen PeniX sofort und übergangslos für Euro 600 verlängern lassen zu müssen. Mit meinem jüngst erworbenen NV40 bin ich sehr zufrieden, wobei ich nie den Versuch unternommen habe, mir irgendetwas in Quality Einstellungen anzutun. Gerade das vielzitierte BF2 sieht in HQ bestens aus, von einem unruhigen Bild kann abgesehen vom Alphagrünzeug keine Rede sein. Und ja, ich habe den direkten Vergleich zur 9800, von der habe ich nämlich gewechselt und im Nebenraum werkelt ebenfalls ein Rechner mit R350.
Hysterie ahoi.
r300 4 ever !!! *g*
i want a r300 card @ crossfire config :D lol
Blaire
2005-07-15, 16:52:00
Also auf meiner 6600GT hat es auf HQ und ohne Optimierungen mehr geflimmert/gegrieselt, als mit der ATI.
Bei mir flimmerte bei meiner 6800GT@SLI mit HighQuality garnix (erst bei Quality hats geflimmert...) Bei meinen jetzigen 7800GTX sieht man bei HQ ein leichtes Grieseln (nicht flimmern!) und das gabs bei der 6800GT damals nicht und das Bild war sauber.
Mr. Lolman
2005-07-15, 16:55:26
3DCenter gehört zu den ganz wenigen Seiten (von denen, die ich kenne) die das Thema der G70 AF-Problematik aufgenommen haben. Rate mal, wer dahinter steckt
Ich? :confused:
(del676)
2005-07-15, 17:09:33
eben
es flimmert (wenn mans richtig einstellt) in HQ nicht, es grieselt nur etwas.
es fällt einem schwer sowas in worten richtig auszudrücken
aber wenn man das grieseln mit dem flimmern vergleicht (global@q) dann ist flimmern 100% und grieseln 5%
Esther Mofet
2005-07-15, 17:12:11
Schöner Thread,wirklich,lese sehr Interessiert mit...:D
zeckensack
2005-07-15, 17:14:17
Jup schon merkwürdig 1jahr hats keinen gestört aber wenn NV die next Gen rausbingt ist das Geschrei großAch?
Hast du die entsprechenden Threads im NV-Forum schon wieder vergessen?
"Bildqualität 6x00" (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=169238) - September 04
"Grauenhafte Grafikquali bei 6800" (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=172917) - ebenfalls September 04
Den Rest kannst du dir gerne selbst suchen.
Mr. Lolman
2005-07-15, 17:18:04
ein paar Sachen meinerseits noch.
Seit dem ich die 6800GT hatte, mokierte ich mich über Q+Opts. Aber klar, da hat man die rote Brille auf, denn ATi biAF hat der Lachmann ja auch für gut befunden...
x) Ich glaub gerne, dass der NV30 ohne Optimierungen das bessere AF als ATi hatte.
x) Der Sprung von 9800pro und 6800GT war größtenteils enorm hoch. Im ersten Augenblick. Dann merkt man, dass Q auch ohne Optimierungen eindeutig flimmriger ist, als ATi AF (ich werd meine Q3a Videos nun auch komprimieren, dass sich nicht jeder 100Mb ziehen muss, um das zu verifizieren).
x) Gut schalten wir also auf HQ. Blöderweise ist die 6800GT nun nicht mehr um Eckhäuser schneller als meine 9700p@400/350.
x) Hl² hab ich mit der 9700p(400/350) mit 1280x1024 4xAA/4xbiAF gespielt. Auf der 6800GT wollt ich 8xS probieren. Nada. Viel zu langsam. Ok, dann 4xAA mit max AF. Blöderweise war das AF selbst mit HQ noch flimmrig an manchen stellen. (ok, bei ATi gabs dafür dann ein Biband aufgrund meiner Settings)
Und schon wundert man sich wo die ganze Performance geblieben ist.
x) Farcry hab ich bspw auf der 9700pro mit 1280x1024 2xAA/4xbiAF laufen lassen. Jetzt geht 4xAA/16xtriaF. Aber kein 8xS - soviel Performance kann man sich garnicht durch AF einsparungen holen, dass 1280 mit 8xS bei FC nutzbar wird. Letztendendes blieb nur 4xAA/16xtriAF als max spielbare Einstellung bei 1280. Nur dumm, dass NVs 4xAA ein bisschen schlechter aussieht als Atis 4xAA. Deswegen hab ich mir auch gleich das AF mal genauer angesehen und kam relativ schnell zu dem Schluss, dass NVs HQ tw. ein bisschen besser, an manchen Stellen aber auch leicht schlechter wirkt. (beides minimal)
Und so kam es, dass ich schon seit Monaten mir die Frexxe wundlabere, dass man doch NV HQ vs. Ati default benchen sollte und erst jetzt, wo der G70 noch schlechter filtert als der NV40, finden Threads wie dieser eine Legitimation?
Mit anderen Worten: Ists jetzt schon anerkannte Tatsache, dass fast alle NV40 Benchmarks zu NVs gunsten verzerrt sind?
Gehts beim Mac auch nur bis 1024x768?Technische Limitierung, es muss also so sein.
dildo4u
2005-07-15, 17:27:39
Ach?
Hast du die entsprechenden Threads im NV-Forum schon wieder vergessen?
Den Rest kannst du dir gerne selbst suchen.
Ich hatte meine schon im Juli 2004 aber egal man hätte Gleich zum start des NV40 in der Reviews deutlich Darauf hinweisen müssen hat man nicht gemacht also die Logische Konsequenz die näste karte bekommt noch mher Optemierungen reingedrückt denn jeder will ja wieder 50% mherleistung das wird von NV auch schon nach einem Jahr erwartet wäre die GTX nur 10% Schneller als die tollste X850XT extreme Pimp edition hätte alle gesagt die Karte ist doch scheisse Kein Fortschritt usw.(Natürlich sehen die Benchmark Nerds nicht das die Karte an gewisse Physikalische Limitierungen Stöß da sie im gegensatz zur ATI Spar variante fast die Doppelte anzahl an Transistoren mit sich herrum trägt.)
zeckensack
2005-07-15, 17:30:23
<...>
Mit anderen Worten: Ists jetzt schon anerkannte Tatsache, dass fast alle NV40 Benchmarks zu NVs gunsten verzerrt sind? Meinerseits ja. Allerdings konnte ich erstmals vor einem Monat (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=227924) 'nen NV40 selbst unter die Lupe nehmen.
Also bitte verzeih mir dass ich nicht lauter geschrieen habe.
Mr. Lolman
2005-07-15, 17:38:34
Dir mach auch auch keine Vorwürfe, Zecki =)
@dildo4u: Und wenn der G70 mit vglbarer Bq nur 10% schneller ist und in deswegen keiner kauft, dann isser halt nur 10% schneller. Das legimitiert in keinster Weise irgendeine Form von Beschiss.
Außerdem: Wenn das Featureset passt, wird das Teil sowieso gekauft. War ja bisher bei allen NV Karten so.
dildo4u
2005-07-15, 17:42:40
Außerdem: Wenn das Featureset passt, wird das Teil sowieso gekauft. War ja bisher bei allen NV Karten so.
Nein der FX war ein Flop.NV musste Lernen der Kunde will Benchmark punkte.Da NV sich aber gottseidank nicht dazu hingerissen hat lassen noch ein SM2.0 Chip zu bringen und damit den Fortschritt zu verhindern musst halt getickst werden der Kunde verlangt ATI Speed und NV Featureset.
zeckensack
2005-07-15, 17:46:51
Ich hatte meine schon im Juli 2004 aber egal man hätte Gleich zum start des NV40 in der Reviews deutlich Darauf hinweisen müssen hat man nicht gemachtWir können uns schnell darauf einigen, dass die Filterqualität bei den Tests viel zu wenig beachtet wurde. Im Zweifelsfall garnicht. Weiß ich nicht. Ich kenne nicht alle NV40-Reviews.
Trotzdem haben's die Käufer dieser Karten dann doch bemerkt. Und du hast ja gesagt "1jahr hats keinen gestört". Deswegen :)
also die Logische Konsequenz die näste karte bekommt noch mher Optemierungen reingedrückt denn jeder will ja wieder 50% mherleistungLogisch? Für NVIDIA, nachdem sie den Ablauf der NV40-Reviews gesehen hatten? Vielleicht.
Ich glaube aber dass wiederum die Käufer von NV4x-Karten teilweise anderer Meinung sind. Wem die Filterqualität auf NV4x schon dürftig vorkam, der wird wohl auch wissen wollen was der Nachfolger in dem Bereich so kann, bzw nicht kann.
das wird von NV auch schon nach einem Jahr erwartet wäre die GTX nur 10% Schneller als die tollste X850XT extreme Pimp edition hätte alle gesagt die Karte ist doch scheisse Kein Fortschritt usw.Es gab hier im Forum auch mehrere "Outings" von Leuten die von NV4x auf irgendwelche ATI-Karten gewechselt haben weil ihnen die Texturqualität nicht zusagte. Müsste ich jetzt raussuchen, doch irgendwie fehlt mir die rechte Motivation ;(
(Natürlich sehen die Benchmark Nerds nicht das die Karte an gewisse Physikalische Limitierungen Stöß da sie im gegensatz zur ATI Spar variante fast die Doppelte anzahl an Transistoren mit sich herrum trägt.)Es gibt nicht nur Benchmark-Nerds. Hier im Thread ist mir noch keiner aufgefallen.
Und es ist ziemlich relativ, ob du ATI-Karten jetzt als Spar-Varianten betrachtest oder nicht.
Dir mach auch auch keine Vorwürfe, Zecki =)
@dildo4u: Und wenn der G70 mit vglbarer Bq nur 10% schneller ist und in deswegen keiner kauft, dann isser halt nur 10% schneller. Das legimitiert in keinster Weise irgendeine Form von Beschiss.
Außerdem: Wenn das Featureset passt, wird das Teil sowieso gekauft. War ja bisher bei allen NV Karten so.
In dem Fall nicht ganz korrekt. Der G70 ist in dem Sinne nur ein Refresh, mehr als DX9c bietet er auch nicht. Einen funktionierenden VP zähle ich jetzt mal nicht als Must-Have dazu. ;)
Was soll er also mehr als nur gesteigerte Geschwindigkeit bieten?
Esther Mofet
2005-07-15, 17:47:52
Nein der FX war ein Flop.NV musste Lernen der Kunde will Benchmark punkte.Da NV sich aber gottseidank nicht dazu hingerissen hat lassen noch ein SM2.0 Chip zu bringen und damit den Fortschritt zu verhindern musst halt getickst werden der Kunde verlangt ATI Speed und NV Featureset.
Iss da bei Aquamark mit so nem Sys nedd mehr drinne?????
Mr. Lolman
2005-07-15, 17:53:29
Nein der FX war ein Flop.
Im Nachhinein betrachtet ja. Trotzdem musste NV das anscheinend nicht lernen, sondern konnte die FX Reihe von Anfang an in Benchmarks so positionieren, dass es nicht gleich ersichtlich war, wies um die tatsächliche Leistung bestellt war...
Man konnte ja bis zum NV40 mit Ach und Krach mit der Ati Reihe mithalten - zumindest so, dass die eigene HighEnd HW nichtunbedingt regelmässig von der Mittelklasse der Konkurrenz versägt wird. Wirklich übel sahs für die FX Reihe ja erst mit den ersten Nv40 benchmarks aus.
Jetzt scheint sich die Geschichte fast zu wiederholen, denn Benchmarks in denen ne x850xt pe fast doppelte 6800U Leistung erreicht sind ja auch nicht mehr die allzu seltene Ausnahmen. Ergo: NV40 Reihe Flop? Imo nein. Vll. sagt man das in ein paar Monaten wenn die 6800U dann mit Abstand am unteren Ende der fps-Skala rangieren, aber technisch ist weder der NV30 noch der NV40 ein Flop.
Sie sind halt bloß nicht ganz so flott wie die Konkurrenz (die mittels reduziertem Featureset (? (http://www.forum-3dcenter.de/vbulletin/showthread.php?t=234019&page=2&pp=20)) Transistoren spart) - Denn wär der NV40 wirklich die eierlegende Wollmilchsau, als die er uns verkauft wurde, gäbs ja tatsächlich keine Legitimation für Ati aktuelle HW. Viele 3DC User sehen das anders.
Alles Fanboys, oder nur unterschiedliche Prioritäten?
In dem Fall nicht ganz korrekt. Der G70 ist in dem Sinne nur ein Refresh, mehr als DX9c bietet er auch nicht. Einen funktionierenden VP zähle ich jetzt mal nicht als Must-Have dazu. ;)
Was soll er also mehr als nur gesteigerte Geschwindigkeit bieten?
TSAA z.B.
Imo der Kaufgrund schlechthin. Nur dumm für NV dass bei solch teuren Hobbies auch viel persönliche Sympathie in die Kaufentscheidungen mit einfliesst, die NV sich jetzt fürs erste verspielt hat. Naja vll. machts ja Ati mit noch haarsträubenderen Optimierungen wieder gut X-D
Demirug
2005-07-15, 17:56:57
Es gibt nicht nur Benchmark-Nerds. Hier im Thread ist mir noch keiner aufgefallen.
Dafür kommt dieser Virus bei den Reviewern einer Epidemie gleich. Das halte ich für eines der größte Problem im Bereich der Grafikkarten.
Mr. Lolman
2005-07-15, 17:58:34
Dafür kommt dieser Virus bei den Reviewern einer Epidemie gleich. Das halte ich für eines der größte Problem im Bereich der Grafikkarten.
Dann sollten 3DCenter (und PCGH :naughty: ) künftig eine Vorreiterrolle spielen...
der Kunde verlangt ATI Speed und NV Featureset.
Dann soll er doch sich entweder bei ATi die Speed oder bei NV das Featureset holen. Ati bringt ja auch keine Treiber raus, die plötzlich SM3.0 auf ihrer HW aktivieren ;)
StefanV
2005-07-15, 18:08:52
Deine Wahrnehmung halte ich für ziemlich gefiltert.
Ich versuche, jeden IHV fair zu behandeln ... ob das seinen Fans oder Gegnern passt oder nicht.
3DCenter gehört zu den ganz wenigen Seiten (von denen, die ich kenne) die das Thema der G70 AF-Problematik aufgenommen haben. Rate mal, wer dahinter steckt. Aber nein, du siehst nur Schleimspuren. 3DCenter ist nicht dazu da, deine Weltsicht zu bestätigen, sondern um den zu informieren, der das Angenbot annimmt.
1. Sorry, aths, aber das trifft eher auf dich zu, denn du hättest bei der nV4x Reihe laut aufrschreien müssen :rolleyes:
Zumal die Filterqualität ja zum 2. mal deutlichst reduziert wurde...
2. Ja, klar, natürlich, im Zweifel für nV...
Sorry, aths, aber du bist alles andere als fair, fair ist hier eigentich nur Zeckensack...
Deine Kritiken Richtung nV waren in letzter Zeit eher sanft bis garnicht vorhanden, während du andererseits bei jeder Gelegenheit auf ATI eingedroschen hast, schau dir einfach mal an, was Zeckensack zum Thema nV Karten sagte...
Wobei ich dir jetzt auch noch ins Gesicht sage, das ich Zeckensacks Meinung weit über deiner Stelle, ebenso sein Wissen/seine Erfahrung.
kurz: im Zweifel hat Zeckensack recht :rolleyes:
3. Schön, das dir _JETZT_ aufgefallen ist, das nV Mist baut und Cheatet wo das Zeugs hält, damit die Balken möglichst lang sind, für die eigenen Karten.
Nur:
1. ists jetzt zu spät, dein rumgeheule wg. Bildqualität ist etwas spät, denn das hättest du spätestens bei der nV4x Serie ankreiden müssen, hast du aber nicht.
2. als ob die nV4x Serie soo gut ist, was die Filterung betrifft...
Siehe Zeckensack...
Außerdem wurds ganze _DRASTISCH_ verschlechtert, von der Vorgängergeneration ausgehend, wo am Filter aber auch schon (teilweise) recht deutlich gedreht wurde...
Die Schlussfolgerung ist, das es falsch/blauäugig und sonstwie bescheuert ist, das es mit der Nachfolgenden Generation besser werden wird, wovon du ja mehr oder minder ausgingst :rolleyes:
BlackArchon
2005-07-15, 18:12:00
Dann sollten 3DCenter (und PCGH :naughty: ) künftig eine Vorreiterrolle spielen...Von einer Zeitschrift kannst du das nicht erwarten. Die sollen eine viel größere und andere Zielgruppen als 3dcenter.de ansprechen. Und der zahlende, zeitschriftenlesende DAU würde irgendwelche Filterdiskussionen nicht mal ansatzweise verstehen.
trollkopf
2005-07-15, 18:30:01
tja, da hat nV die Reviewer mal wieder ausgetrickts.
die message G70 = schnell und gut ist beim breiten Publikum angekommen!
mission erfüllt
bis zu nächsten mal ....
DanMan
2005-07-15, 18:34:44
Ich vermisse schon seit langem die altbekannten Bildqualitätsvergleiche bei Benchmarks. Allerdings ist mir bewusst, dass das von den IHVs durch allerlei Tricks (erkennen von Testprogrammen, ...) leider kompliziert wurde. So gesehen kann ich es immerhin nachvollziehen, dass diese immer rarer gesät sind.
Vielleicht muss man mal darüber nachdenken, ob man bei Grafikkartentests sich an z.B. Audiocodec- oder Geschmackstests orientieren sollte. Also mehrere Leute nach ihrer subjektiven Meinung zur Bildqualität im Vergleich zu anderen Karten befragen, und dann daraus eine (halbwegs) objektive Durchschnitts-Wertung ableiten. Ist natürlich ein riesen Aufwand...
Oder radikaler testen: was sich nicht mit gegebenen Mitteln vergleichen lässt wird auch nicht getestet.
Was besseres fällt mir da nicht zu ein. Dieses ganze Rumgetrickse sorgt bei mir bereits dafür, dass ich mich nach einer gebrauchten FX5950U umschaue als Ersatz für meine GF4. Die ist wenigstens noch in jeder Hinsicht ein Fortschritt gegenüber meiner alten Karte. :/
Vielleicht muss man mal darüber nachdenken, ob man bei Grafikkartentests sich an z.B. Audiocodec- oder Geschmackstests orientieren sollte. Also mehrere Leute nach ihrer subjektiven Meinung zur Bildqualität im Vergleich zu anderen Karten befragen, und dann daraus eine (halbwegs) objektive Durchschnitts-Wertung ableiten. Ist natürlich ein riesen Aufwand...
für sinnvolle ergebnisse solltest du schon mindestens 1000 leute in dieser umfrage unterbringen. praktisch also kaum durchführbar.
Ich? :confused:
Genau so sieht es aus. Stattdessen wurdest Du aber von aths nur als Idiot abgestempelt.
Gruß ;)
DanMan
2005-07-15, 18:51:19
für sinnvolle ergebnisse solltest du schon mindestens 1000 leute in dieser umfrage unterbringen. praktisch also kaum durchführbar.
Naja, wenn man Fachleute nimmt sollten 10 auch schon genügen. DAUs wüssten ja garnicht worauf man achten muss.
Deine Wahrnehmung halte ich für ziemlich gefiltert.
Ich versuche, jeden IHV fair zu behandeln ... ob das seinen Fans oder Gegnern passt oder nicht.
3DCenter gehört zu den ganz wenigen Seiten (von denen, die ich kenne) die das Thema der G70 AF-Problematik aufgenommen haben. Rate mal, wer dahinter steckt. Aber nein, du siehst nur Schleimspuren. 3DCenter ist nicht dazu da, deine Weltsicht zu bestätigen, sondern um den zu informieren, der das Angenbot annimmt.
Du hast dir unter den Leuten die dich hier aus dem Forum kennen schon lange das Image eines neutralen Redakteurs verloren. Dich hält doch fast jeder für biased, auch wenn ein Teil der Leute ausschließlich hinter deinem Rücken ablästert. Mit dir in der 3DC Crew werdet ihr nie wirklich ein neutrales Image bekommen.
Das einizge was Du machst ist Schadensbegrenzung. Wenn nVidia irgendwann mal ganz großen Mist baut und Du es nicht mehr leugnen kannt, dann ziehst Du erst mit, um aus der Not die Tugend zu machen und dich als neutral zu titulieren.
Oder dein Artikel zum G70. - Jede Kritik zum G70 immer schön damit begründen, dass ATI damit angefangen hat und Nv nur Opfer ist. Dieser Tenor ist bei dir überall zu spüren. ... Aber hauptsache Du selber glaubst an deine Neutralität.
Doom3 - 1600x1200 Ultra, 2xAA
mit 16xAF:
Windows: 69.7
Linux: 61.4
mit 0xAF
Windows: 71.3
Linux: 64.6
in windows gewinnt man durchs abschalten von AF 2.9% performance, in linux 5.2%
Das klingt doch schonmal nicht schlecht. Zumindest den Werten nach schaut es danach aus, dass unter Linux auf die Treibertricks (zumindest weitestgehend) verzichtet wird. Konntest du ein unnatürliches Texturflimmern bemerken?
Ich würde es gerne selbst testen - die 7800gtx liegt schon neben mir auf dem Schreibtisch, aber leider lassen Mainboard und CPU wohl noch bis nächste Woche auf sich warten...
Könnten die Dumpfbacken mal aufhören mit ihrem gebashe gegen Aths, könnt ihr per PN machen, interessiert hier KEINEN!
Hier gehts um die miese AF Qualität die NV bietet, und das ist mehr als schlimm. Als MMORPG'ler bin teilweise schlichte Grafik gewohnt, aber wenn ich nach 2 Jahren mal wieder durch das Daoc Addon "Shrouded Island" laufe, kommt mir die Galle rauf, dort gibt es viele Holzhütten bei den Midgardern, steht man nahe an so einem Holzbalken sieht er relativ gut aus, bewegt man sich aber davon weg grieselt er wie die Hölle! Als ob man im TV den Ameisenkrieg zwischen schwarz und weiß hätte...
Finde das eine Sauerei, mit meiner FX5900 siehts sehr gut aus, 0 grießeln und AA ist immer noch möglich, aber die GTX is echt ein FPS Prügel der selbst mit dem alten 8xS keine gute Texturen backt...
DaBrain
2005-07-15, 19:35:35
Eine Sache verstehe ich nicht...
Die Käufer sind doch selber Schuld. Die FX hat sich nicht gut genug verkauft, obwohl die gutes AF liefert. Technisch ist sie dem R300 auch überlegen.
Aber die Käufer waren doof genug lieber die Karte mit optimiertem AF und "nur" gerade so erfülltem SM 2.0 zu nehmen.
Sicher hätte ich auch die Radeon genommen, aber für Nvida war das doch ein Zeichen. -> Den Kunden geht Geschwindigkeit vor Qualität.
Die Käufer sind eigentlich selber Schuld. :(
Ich denke auch, dass ein DAU lieber AA aktiviert als AF. AF ist ja auch viel schwerer zu verstehen. ;D (Und es ist IMHO auch bekannter.)
Dass AF eigentlich mehr bringt werden sie nie verstehen. :rolleyes:
Also G70 nicht kaufen, dann wird NV nochmal über die Filter und das AF nachdenken.
Wenn der R520 ebenfalls keine ordentliche Qualität liefert, auch einfach nicht kaufen.
Sonst ändert sich nichts!
StefanV
2005-07-15, 19:42:19
Von einer Zeitschrift kannst du das nicht erwarten. Die sollen eine viel größere und andere Zielgruppen als 3dcenter.de ansprechen. Und der zahlende, zeitschriftenlesende DAU würde irgendwelche Filterdiskussionen nicht mal ansatzweise verstehen.
Die muss doch nur sagen: 'nv = bescheißen', das ganze etwas nett umschreiben, so daß es der letzte Idiot verstanden hat e voila, schon hat nV ein Problem.
PS: in einer der letzten PCGH, die ich bekam, stand auch was von schlechter Treiberkompatiblität der nV Treiber ;D ;D
Da wurden extra diverse Treiber durchgetestet, um zu zeigen, welcher mit welchem Game so einigermaßen harmoniert...
Naja, wenn man Fachleute nimmt sollten 10 auch schon genügen. DAUs wüssten ja garnicht worauf man achten muss.
wenn du nur fachleute nimmst hast du eine extrem einseitige meinung. sinn des ganzen ist aber eine sehr breit gefächerte meinung zu erhalten, aus einer geringen menge auf eine masse hochrechnen kann ziemlich daneben gehen, vor allem wenn diese auch noch aus dem selben "sektor" kommen.
das wäre dass selbe wenn du in wien eine umfrage zur nächsten wahl machst und dann sagst die SPÖ gewinnt die nächste nationalratswahl
Black-Scorpion
2005-07-15, 20:10:35
Eine Sache verstehe ich nicht...
Die Käufer sind doch selber Schuld. Die FX hat sich nicht gut genug verkauft, obwohl die gutes AF liefert. Technisch ist sie dem R300 auch überlegen.
Was helfen die besten Features wenn die Karte zu lahm dafür ist?
Aber die Käufer waren doof genug lieber die Karte mit optimiertem AF und "nur" gerade so erfülltem SM 2.0 zu nehmen.
Wieviele Käufer wissen überhaupt was SM2 ist?
zeckensack
2005-07-15, 20:26:32
Eine Sache verstehe ich nicht...
Die Käufer sind doch selber Schuld. Die FX hat sich nicht gut genug verkauft, obwohl die gutes AF liefert.Nein, nicht "obwohl die gutes AF liefert", sondern weil sie zu langsam war. Das hat mit dem AF nur insofern zu tun, als dass sie sich besser verkaufte als man es von einer Graka-Generation mit so eklatanten Performance-Problemen eigentlich erwarten könnte. Ja warum wohl? IMO weil sie gutes AF bot.
Wer hätte sich denn freiwillig einen NV35 gekauft, wenn dieser Chip neben dürftiger Performance auch noch mit grottiger BQ gesegnet wäre? Mehr oder weniger?
Wenn ahnungslose BWL-Frischabsolventen dann daraus schließen, dass gutes AF keine verkäufliche Produkteigenschaft ist, dann sind mitnichten die Käufer daran schuld. Diese treffen letztendlich ja/nein-Entscheidungen welche objektiv abzählbar sind. Wenn man daraus mögliche Gründe für diese Kaufentscheidungen versucht abzuleiten, dann ist das in jedem Fall unzuverlässiger als die Gründe direkt an der Wurzel zu erforschen, zB über Kundenbefragungen, oder heimliches Mitlesen in einschlägigen Foren.
Es kommt mir hier wieder mal so vor, als hätten ahnungslose Idioten ohne Bodenhaftung die Entscheidungen getroffen, in der Annahme damit dem Kundenwunsch zu entsprechen. Kundenwünsche muss man aber wissen, man darf sie nicht erraten, schon garnicht wenn man im Raten schon immer ganz fürchterlich schlecht war.
Weitere Szenarien in dieser Kerbe:
Versuchsaufbau: Thief 3 ist viel "einfacher zugänglich" als seine Vorgänger.
Objektive Beobachtung: es verkaufte sich scheiße.
Trugschluss: es war noch nicht "einfach zugänglich" genug um sich gut zu verkaufen.
Andere Möglichkeit (mit IMO höheren Chancen auf Korrektheit): es war zu "einfach zugänglich" um sich gut zu verkaufen. Nur Fans der Serie, die eine komplette Sammlung wünschen, drücken ein Auge zu.
Versuchsaufbau: das total unfertige Dungeon Lords wird auf den Markt gerusht, grob geschätzt ungefähr ein Jahr vor seiner Fertigstellung.
Objektive Beobachtung: es verkauft sich scheiße.
Trugschluss: Solo-Hack&Slay-RPGs kauft keiner.
Andere Möglichkeit: gerushte, unfertige Scheiße kauft keiner. Nur Leute die wirklich mal wider Solo-Hack&Slay-RPGs spielen wollen, drücken ein Auge zu.
Sicher hätte ich auch die Radeon genommen, aber für Nvida war das doch ein Zeichen. -> Den Kunden geht Geschwindigkeit vor Qualität.IMO viel zu voreilig und undifferenzierte Schlussfolgerung. Siehe oben. Ich kann mir allerdings auch nur zu gut vorstellen, dass es genau so gelaufen ist. Und das finde ich blöd, nicht die Leute die sich einen R300 gekauft haben, oder was auch immer.
DaBrain
2005-07-15, 21:01:44
ATI hat sich einen Geschwindigkeitsvorteil durch schlechteres AF erkauft.
Die Kunden haben ATI gewählt.
Die Shaderschwächte war bei der Einführung der FX weder wichtig noch den meisten Kunden bekannt.
Die "Optimierungen" sind keine eigene geistige Leistung von NV sondern nur eine Kopie eines funkionierenden Konzeptes.
Ich meine den Kunden war der Vorsprung bei AF und Filtern egal. Deshalb hat sich der R300 so gut verkauft.
Die Kunden sollten sich nicht für die FX, sondern gegen die Radeon entscheiden, weil diese eben "minderwertige" Qualität liefert. (Wie gesagt, ich hätte ja auch zu Radeon gegriffen.)
Deshalb denke ich, dass das was ich geschrieben habe richtig ist.
Ich meine den Kunden war der Vorsprung bei AF und Filtern egal. Deshalb hat sich der R300 so gut verkauft.
:lol:
Der R3x0 hat sich so gut wegen seiner Performance verkauft, besonders die PS2-Performance.
Der hat damals den NV3x richtig in den Boden gerammt. :D
Mit kürzeren Abständen könnte man das Problem durchaus lösen was dann aber eigentlich eine Kompensation durch Überfilterung wäre. Defakto macht der NV40 allerdings genau das. Beim G70 wird das Überfiltern erfolgreich unterdrückt indem die zu berücksichtigende Texelfläche besser bestimmt wird. Das verhindert weitgehend das einzelneTexel doppelt gelesen werden müssen. Das Problem ist nur das dieses neue Verfahren die Gewichtungsfaktoren nicht korrekt berechnet bzw. die BI-Filter das gar nicht umsetzten können weil man das 3 Lerp Verfahren nutzt (Vermutung von mir).
Die Grundidee war also eigentlich gar nicht schlecht nur haben sie das irgendwie nicht richtig zuende gedacht.
Dabei ist das 3 Lerp-Verfahren doch aufwändiger als die Gewichtungsmatrix...
Du meinst also das AF ist darauf optimiert, dass man z.B. bei 4xAF im Extremfall nur genau 4 Texel braucht, häufig 10 und auch im Maximalfall nur 13 (biAF bei passendem LOD)?
[COLOR="#000088"]
Nein. Dann wär die Leistung wieder so gewesen daß nach 6 Monaten wieder Leistungsengpässe dagewesen wären. Beim R300 wurde die Winkelabhängigkeit ja auch verbessert. Beim Erscheinen des R200 klappte das ja noch nicht so richtig. Solche Optimierungen sind schon nötig.
Bei Leistungsengpässen muss man eben den AF-Grad reduzieren.
aths hat mich mal gefragt ob ich jede Optimierung gut finden würde. Und ich antwortete sinngemäß. "Nur solange die eigene Kundschaft damit einverstanden ist." Da stehe ich auch heute zu. Was ich als ATI-Fan sage kann euch Grünen ja egal sein. Nur sind doch einige nV-Käufer zuviel unglücklich mit den letzten Optimierungen. Das ist dann der Punkt wo Optimierungen keine mehr sind.
Ich als ATI-Nutzer bin absolut nicht damit einverstanden. Nur weil die Alternativen schlechter waren heißt das nicht dass ich mit dem gekauften Produkt rundum zufrieden bin.
DaBrain
2005-07-15, 21:06:09
:lol:
Der R3x0 hat sich so gut wegen seiner Performance verkauft, besonders die PS2-Performance.
Der hat damals den NV3x richtig in den Boden gerammt. :D
:| Habe ich was anderes behauptet?
Hier ging es nur um die Texturenqualität...
Ich als ATI-Nutzer bin absolut nicht damit einverstanden. Nur weil die Alternativen schlechter waren heißt das nicht dass ich mit dem gekauften Produkt rundum zufrieden bin.
Da schließe ich mich an. Ich bin absolut nicht mit der AF Qualität meiner Grafikkarte einverstanden.
Ich als ATI-Nutzer bin absolut nicht damit einverstanden. Nur weil die Alternativen schlechter waren heißt das nicht dass ich mit dem gekauften Produkt rundum zufrieden bin.
Der Einäugige ist unter den Blinden König. ;)
Was helfen die besten Features wenn die Karte zu lahm dafür ist?
naja, bis einschließlich SM1.4 und multitexturingspiele war der speed ja garnicht so schlecht.
mit SM2.x sah es wirklich extrem düster aus, was man aber doch relativ lange verschleiern konnte bis entsprechende spiele kamen.
:| Habe ich was anderes behauptet?
Hier ging es nur um die Texturenqualität...
LOL?
Du hast behauptet, dass der R300 sich so gut verkauft hat, weil der Filter egal war...
Das ist Unsinn, der R3x0 war in der performance dem Konkurentem extrem überlegen, was die Shaderperformance angeht.
Du hast geschrieben:
"Ich meine den Kunden war der Vorsprung bei AF und Filtern egal. Deshalb hat sich der R300 so gut verkauft."
;)
DaBrain
2005-07-15, 21:10:19
naja, bis einschließlich SM1.4 und multitexturingspiele war der speed ja garnicht so schlecht.
mit SM2.x sah es wirklich extrem düster aus, was man aber doch relativ lange verschleiern konnte bis entsprechende spiele kamen.
NV hatte wohl eine andere Vorstellung von den kommenden Spielen.
Wahrscheinlich war es nicht vorhersehbar, dass die Spiele so intensiv Shader verwenden würden.
Der NV30 war ehr für wenige komplexe Shader ausgelegt. (Sorry, für meine laienhafte Vorstellung. So kemmt es mir halt vor.)
Die starke Nutzung der Shader, war natürlich möglich, weil der R300 eine gute SM 2.0 Performance hat.
Seraf
2005-07-15, 21:11:06
Ich meine den Kunden war der Vorsprung bei AF und Filtern egal. Deshalb hat sich der R300 so gut verkauft.
Glaub ich nicht. Der NV30 kam zum einen ein Vierteljahr zu spät. Zum anderen war er nicht schneller als eine R300, hatte nur ein 128Bit Speicherinterface, miese PS2 Performance, schlechteres MSAA und vor allem schlechte Presse wegen des Fönes...
Und schon kamen Spiele wie Tomb Raider AoD in denen man sehen konnte wie schlecht die Karte lief.
Wäre er nicht zu spät gekommen und hätte es diesen Fön Supergau nicht gegeben wären meiner Meinung nach die anderen Punkte nicht ganz so schlimm gewesen.
naja, bis einschließlich SM1.4 und multitexturingspiele war der speed ja garnicht so schlecht.
Wenn die Shader der Karte gut bekommen haben. Die FX war anspruchsvoll was die Shader angeht.
Knightshift benutzt keine 2.0Shader, ist aber mit der FX elend langsam im Vergleich mit dem R3x0.
Die muss doch nur sagen: 'nv = bescheißen', das ganze etwas nett umschreiben, so daß es der letzte Idiot verstanden hat e voila, schon hat nV ein Problem.
PS: in einer der letzten PCGH, die ich bekam, stand auch was von schlechter Treiberkompatiblität der nV Treiber ;D ;D
Da wurden extra diverse Treiber durchgetestet, um zu zeigen, welcher mit welchem Game so einigermaßen harmoniert...
Ach gema weiter, das sind immer Phasen, als die R97 rauskam war der Treiber auch total gülle, 3/4 Jahr Stuttering in vielen Spielen...
Der NV30 war ehr für wenige komplexe Shader ausgelegt. (Sorry, für meine laienhafte Vorstellung. So kemmt es mir halt vor.)
Bei noch koplexeren Shadern würde der NV3x eine Dia-Show abliefern...
DaBrain
2005-07-15, 21:16:42
LOL?
Du hast behauptet, dass der R300 sich so gut verkauft hat, weil der Filter egal war...
Das ist Unsinn, der R3x0 war in der performance dem Konkurentem extrem überlegen, was die Shaderperformance angeht.
Du hast geschrieben:
"Ich meine den Kunden war der Vorsprung bei AF und Filtern egal. Deshalb hat sich der R300 so gut verkauft."
;)
Nein das behaupte ich nicht. Der R300 hat sich so gut verkauft, weil er schnell war.
Ich sage nur, dass man ihn eigentlich nicht kaufen sollte, weil er minderwertiges AF liefert.
Es war den Kunden egal, deshalb hat sich der R300 (trotzdem!) so gut verkauft.
Glaub ich nicht. Der NV30 kam zum einen ein Vierteljahr zu spät. Zum anderen war er nicht schneller als eine R300, hatte nur ein 128Bit Speicherinterface, miese PS2 Performance, schlechteres MSAA und vor allem schlechte Presse wegen des Fönes...
Und schon kamen Spiele wie Tomb Raider AoD in denen man sehen konnte wie schlecht die Karte lief.
Tomb Raider AoD kam erst viel später. Ausserdem hieß es lange, dass MS noch eine neue DirectX Version rausbringt, mit der NV Karten sehr viel schneller werden sollten.
Wir wissen das sowas Quatsch ist, aber es wurde AFAIK sogar von einigen Zeitschriften abgedruckt...
zeckensack
2005-07-15, 21:18:57
ATI hat sich einen Geschwindigkeitsvorteil durch schlechteres AF erkauft.
Die Kunden haben ATI gewählt. Der R300 hatte die überlegene Rohleistung, Shader-Leistung und AA-Qualität. Die AF-Eigenschaften sind nur ein Stück des Puzzels.
Die Shaderschwächte war bei der Einführung der FX weder wichtig noch den meisten Kunden bekannt.Die Shaderschwäche ist sofort wichtig und offensichtlich, wenn man zB Painkiller spielen möchte. Aber nur ein Stück des Puzzels.
Ich meine den Kunden war der Vorsprung bei AF und Filtern egal. Deshalb hat sich der R300 so gut verkauft.Nö. Er hat sich trotz AF-Schwächen gut verkauft weil er schneller war. Das nennt man "Kompromiss".
Die Kunden sollten sich nicht für die FX, sondern gegen die Radeon entscheiden, weil diese eben "minderwertige" Qualität liefert. (Wie gesagt, ich hätte ja auch zu Radeon gegriffen.)Ja.
Deshalb denke ich, dass das was ich geschrieben habe richtig ist.Und ich denke du machst es dir viel zu einfach.
R3xx hat sich besser verkauft weil die Leistung besser war.*
R3xx hat sich besser verkauft weil die AA-Qualität besser war.
R3xx hat sich schlechter verkauft weil die AF-Qualität schlechter war.
R3xx hat sich schlechter verkauft weil das Feature-Set kleiner war.
NV3x hat sich besser verkauft weil die AF-Qualität besser war.
NV3x hat sich besser verkauft weil das Feature-Set größer war.
NV3x hat sich schlechter verkauft weil die Leistung schlechter war.*
NV3x hat sich schlechter verkauft weil die AA-Qualität schlechter war.
Alle diese Aussagen halte ich für wahr.
Du reduzierst das ganze anscheinend auf die beiden Aussagen mit den fetten Sternen. Wie gesagt, IMO viel zu einfach.
Thomas Gräf
2005-07-15, 21:20:08
Mal n'andere Frage.
Wie sehr sind die die Firmen daran interessiert den Leuten
in der so allmächtigen Werbung auf sachliche Eckdaten
hinzuweisen?
Es besteht doch gar kein Willen den Kunden über das Produkt
sinnvoll zu informieren.
Der letzte Beweis sind all die Reviews, die dann hier in Stücke
gerissen werden..:)
In dieser unseren Gesellschaft gilt es die Masse dumm zu halten.
Das kann man auch Prima immerwieder in den 3Dcenter News lesen...;)
DaBrain
2005-07-15, 21:20:33
Bei noch koplexeren Shadern würde der NV3x eine Dia-Show abliefern...
Nicht wenn nur wenige Shader verwendet werden. Der Punkt ist doch, dass der NV30 einige Sachen kann, die der R300 nicht kann. (Mal abgesehen von der Präzision, die jetzt wo HDR verwendet wird endlich wichtig wird.)
Das Konzept ging aber nicht auf.
Die FX war IMO kein Prdukt von Unfähigkeit, sondern von falschen Vorstellungen, die zu einem unvorteilhaften Design geführt haben.
Tomb Raider AoD kam erst viel später. Ausserdem hieß es lange, dass MS noch eine neue DirectX Version rausbringt, mit der NV Karten sehr viel schneller werden sollten.
Das ist natürlich Schwachsinn und nicht von MS, sondern von NV.
DX9.1 LOL
Wieder ein Täuschungsversuch seitens Nvidia.
Damit war eigentlich der Compiler gemeint.
Hat mit DX nichts zu tun...
DaBrain
2005-07-15, 21:24:11
R3xx hat sich besser verkauft weil die Leistung besser war.*
R3xx hat sich besser verkauft weil die AA-Qualität besser war.
R3xx hat sich schlechter verkauft weil die AF-Qualität schlechter war.
R3xx hat sich schlechter verkauft weil das Feature-Set kleiner war.
NV3x hat sich besser verkauft weil die AF-Qualität besser war.
NV3x hat sich besser verkauft weil das Feature-Set größer war.
NV3x hat sich schlechter verkauft weil die Leistung schlechter war.*
NV3x hat sich schlechter verkauft weil die AA-Qualität schlechter war.
Alle diese Aussagen halte ich für wahr.
Du reduzierst das ganze anscheinend auf die beiden Aussagen mit den fetten Sternen. Wie gesagt, IMO viel zu einfach.
Ja, ich reduziere es. Genau so wie der größte Teil der Käufer das tut.
Wenn den Käufern diese Dinge alle klar wären, hätten wir das Problem mit dem G70 nicht, weil es keine "Nur auf die Balken Gucker" gäbe.
Da es aber ehr ein kleiner Teil der Käufer ist, dem diese Tatsachen klar sind, denke ich das meine Aussage auch weiterhin richtig ist.
Das ist natürlich Schwachsinn und nicht von MS, sondern von NV.
DX9.1 LOL
Wieder ein Täuschungsversuch seitens Nvidia.
Damit war eigentlich der Compiler gemeint.
Hat mit DX nichts zu tun...
Stimmt, hat aber zu dem gewünschten Ergebnis geführt. Wenigstens teilweise.
Immerhin hat es über die Zeitschriften einen großen Teil der Käufer erreicht.
Nicht wenn nur wenige Shader verwendet werden. Der Punkt ist doch, dass der NV30 einige Sachen kann, die der R300 nicht kann.
Ist ja schön, das die FX es kann. Interessiert aber keinen, weil zu langsam für Spiele...
Seraf
2005-07-15, 21:26:53
Tomb Raider AoD kam erst viel später. Ausserdem hieß es lange, dass MS noch eine neue DirectX Version rausbringt, mit der NV Karten sehr viel schneller werden sollten.
Wir wissen das sowas Quatsch ist, aber es wurde AFAIK sogar von einigen Zeitschriften abgedruckt...
Viel später ist gut..
August, September 03 ~. Und der Nv30 wurde ja schnell zugunsten des Nv35 eingestampft. Und der kam auch erst ~Mitte 03.
Nv hat in dieser Zeit schon viele Fans verloren. Der harte Rest hat sich noch an ein neues DirectX geklammert. Nach dem zweiten Gau mit den Filtertricks wollte dann fast niemand mehr eine Nv Karte haben.
DaBrain
2005-07-15, 21:29:27
Ist ja schön, das die FX es kann. Interessiert aber keinen, weil zu langsam für Spiele...
Natürlich spiel das gerade bei diesem Thema eine Rolle.
Es geht doch gerade um Features <-> Geschwindigkeit.
Auf eins muss man halt verzichten. Wer gutes AF will muss bei seiner FX oder GF4 TI bleiben.
Wer Speed will muss sich die 7800 kaufen.
Und wer beides will guckt in die Röhre.
Dass viele Features ungenutzt bleiben, liegt ja nicht an Nvidia. ATI hatte ja auch ein nettes Feature, das nie wirklich wichtig wurde: Truform
Ach gema weiter, das sind immer Phasen, als die R97 rauskam war der Treiber auch total gülle, 3/4 Jahr Stuttering in vielen Spielen...Nicht bei mir. War wohl systemspezifisch...
StefanV
2005-07-15, 21:30:17
Ach gema weiter, das sind immer Phasen, als die R97 rauskam war der Treiber auch total gülle, 3/4 Jahr Stuttering in vielen Spielen...
Das war 'ne 2005er Ausgabe!
Und es ging um die nV4x Serie...
Vom Stuttering hab ich auch nicht soo viel mitbekommen, trotz meines 'vollgemülltem' Systems oder ev. gar gerade deswegen ;)
Da es aber ehr ein kleiner Teil der Käufer ist, dem diese Tatsachen klar sind, denke ich das meine Aussage auch weiterhin richtig ist.
Oh man. In diesem Forum geht es nur noch ums Recht haben. Zeckensack gibt sich so eine Mühe alles Aspekte ausfzuführen, die Kunden bewegt haben auf die eine oder die andere Karte zu verzichten oder sie zu bevorzugen, und dann kommt von dir so ein Posting. Da fragt man sich wieso man hier überhaupt noch postet, wenn sowieso keiner mehr offen für weitere Aspekte ist.
Du hast schlicht unrecht, weil Du es nur auf einen Aspekt reduzierst. Jeder Kunde entscheidet nach anderen Kriterien nicht jeder Kunde kauft nach Balken. Das weiß ich ganz sicher, da ich als Stundent in einem großem PC-Shop an der Theke gestanden habe und viel weniger Leute auf die Balken gucken, als man vielleicht so denkt.
Mayhem
2005-07-15, 21:33:17
Oder dein Artikel zum G70. - Jede Kritik zum G70 immer schön damit begründen, dass ATI damit angefangen hat und Nv nur Opfer ist. Dieser Tenor ist bei dir überall zu spüren. ... Aber hauptsache Du selber glaubst an deine Neutralität.
[ ] Du weisst, was du schreibst und kannst eben dieses auch nur in geringster form mit zitaten aus aufgeführtem artikel belegen.
du wolltest nur unsinn reden
DaBrain
2005-07-15, 21:35:26
Oh man. In diesem Forum geht es nur noch ums Recht haben. Zeckensack gibt sich so eine Mühe alles Aspekte ausfzuführen, die Kunden bewegt haben auf die eine oder die andere Karte zu verzichten oder sie zu bevorzugen, und dann kommt von dir so ein Posting. Da fragt man sich wieso man hier überhaupt noch postet, wenn sowieso keiner mehr offen für weitere Aspekte ist.
Du hast schlicht unrecht, weil Du es nur auf einen Aspekt reduzierst. Jeder Kunde entscheidet nach anderen Kriterien nicht jeder Kunde kauft nach Balken. Das weiß ich ganz sicher, da ich als Stundent in einem großem PC-Shop an der Theke gestanden habe und viel weniger Leute auf die Balken gucken, als man vielleicht so denkt.
Wie gesagt, wenn nicht die meisten Kunden nach Balken kaufen würden, hätten wir jetzt keine Probleme.
BTW ich bin offen für andere Argumente und sehen ein wenn ich Unrecht habe, aber ich bin fest der Meinung, dass der normale Kunde sich nicht so intensiv mit der Hardware beschäftigit, wie wir das hier tun.
StefanV
2005-07-15, 21:40:35
@DaBrain
Tschuldigung, aber du redest hier zum Teil ziemlichen Mist.
Die R300 hat sich ganz einfach deswegen besser verkauft weils einfach das beste war, was man damals bekommen hat, davon das die R300 etwa 'nen halbes Jahr früher aufm Markt war, reden wir lieber nicht erst...
Wobei dieser Punkt wohl von vielen Unterschätzt wird, wie wichtig es für ATi war, das die R300 so früh kam, wärs nicht der Fall gewesen, wär der Erfolg der R300 wohl auch nicht so durchschlagend gewesen.
Dazu kommt, das die NV3x Serie einfach nur lahm war, ohne den Einsatz von Anti Aliasing und/oder AF, dafür hats einfach nicht mehr gereicht.
PS: NFSU hat sowohl mit der nV30 als auch mit der NV35 derbst geruckelt, mit der R300 (ok, eigentlich R350/R360) nicht...
Auch darfst du die schlechte FSAA Qualität der NV3x Serie nicht vergessen...
(wobei nV _DAS_ hätte klar sein müssen, wars doch schon beim R200 geplant)
Zu sagen, das den Kunden kein Wert auf ordentliche Qualität der 'Bildverbesserer' legt, ist einfach gelogen, denn dann hätten viele 'early Adopters' keine R300 gekauft ;)
Demirug
2005-07-15, 21:41:19
Du meinst also das AF ist darauf optimiert, dass man z.B. bei 4xAF im Extremfall nur genau 4 Texel braucht, häufig 10 und auch im Maximalfall nur 13 (biAF bei passendem LOD)?
So ähnlich. Da es aber immer noch auf dem BI-Filter aufbaut müssen immer noch 2*2er Blöcke benutzt werden.
Black-Scorpion
2005-07-15, 21:43:04
Nicht wenn nur wenige Shader verwendet werden. Der Punkt ist doch, dass der NV30 einige Sachen kann, die der R300 nicht kann. (Mal abgesehen von der Präzision, die jetzt wo HDR verwendet wird endlich wichtig wird.)
Den meisten Käufern ist das sowas von egal was die Super FX noch so alles mehr kann wie der R300.
Der Käufer sieht das was hinten rauskommt.
Und das war bei der FX nunmal nicht viel.
Und der R300 kann HDR.
Mr. Lolman
2005-07-15, 21:45:23
Auch darfst du die schlechte FSAA Qualität der NV3x Serie nicht vergessen...
Stimmt, das wurde in der bisherigen Diskussion um den NV3x völlig ausser Acht gelassen...
Und der R300 kann HDR.Ja, genauso schnell wie die FX PS 2.0 konnte. Sehr sinnvoll halt.
Mal abgesehen von der Präzision, die jetzt wo HDR verwendet wird endlich wichtig wird.)Ist sie nicht. HDR ist bisher auf FP16 RTs beschränkt, wenn man FP-Blending benützen will.
Wie gesagt, wenn nicht die meisten Kunden nach Balken kaufen würden, hätten wir jetzt keine Probleme.
Auch das hat Zeckensack zuvor schon beleuchtet. Die Schlussfolgerung, dass man Karten generell besser verkauft, auch mit mäßiger Filterqualität, nur durch etwas längere Balken, ist ein Trugschluss, den einige Leute wohl fälschlicher Weise aus dem NV3x Desaster gezogen haben.
Mr. Lolman
2005-07-15, 21:49:46
Ja, genauso schnell wie die FX PS 2.0 konnte. Sehr sinnvoll halt.
Kann mal jemand erklären wie dass FakeHDR bei TM.Sunrise funktioniert? Rennt auf nem R300 bestens @1280/4xAA..
dildo4u
2005-07-15, 21:52:33
Kann mal jemand erklären wie dass FakeHDR bei TM.Sunrise funktioniert? Rennt auf nem R300 bestens @1280/4xAA..
Indem es Fake HDR oder besser gesagt Bloom ist wie beim Painkiller Addon.
Black-Scorpion
2005-07-15, 21:53:18
Ja, genauso schnell wie die FX PS 2.0 konnte. Sehr sinnvoll halt.
Das ist mir klar. ;)
Aber hier ging es um die Super tollen Sachen die die FX mehr kann wie der R300.
Und ich wüßte nicht das die FX auch HDR kann, egal wie schnell.
DaBrain
2005-07-15, 21:53:21
@DaBrain
Tschuldigung, aber du redest hier zum Teil ziemlichen Mist.
Die R300 hat sich ganz einfach deswegen besser verkauft weils einfach das beste war, was man damals bekommen hat, davon das die R300 etwa 'nen halbes Jahr früher aufm Markt war, reden wir lieber nicht erst...
Wobei dieser Punkt wohl von vielen Unterschätzt wird, wie wichtig es für ATi war, das die R300 so früh kam, wärs nicht der Fall gewesen, wär der Erfolg der R300 wohl auch nicht so durchschlagend gewesen.
Dazu kommt, das die NV3x Serie einfach nur lahm war, ohne den Einsatz von Anti Aliasing und/oder AF, dafür hats einfach nicht mehr gereicht.
PS: NFSU hat sowohl mit der nV30 als auch mit der NV35 derbst geruckelt, mit der R300 (ok, eigentlich R350/R360) nicht...
Auch darfst du die schlechte FSAA Qualität der NV3x Serie nicht vergessen...
(wobei nV _DAS_ hätte klar sein müssen, wars doch schon beim R200 geplant)
Zu sagen, das den Kunden kein Wert auf ordentliche Qualität der 'Bildverbesserer' legt, ist einfach gelogen, denn dann hätten viele 'early Adopters' keine R300 gekauft ;)
? Wieso rede ich Mist.
Der R300 war halt nicht in jedem Punkt überlegen (und ich sage es nochmal ich hätte ihn auch der FX vorgezogen...).
Es gibt einen klaren Unterschied zwischen dem AA der FX und dem AF des R300.
Das AA wurde nicht optimiert. Es war einfach nicht besser als beim R300.
Während ATI bewußt optimiert hat.
Wenn man da als Kunde nicht boykottiert, ist doch schon abzusehen, dass Nvidia nachziehen wird und jetzt sogar noch weitaus schlechtere Qualität liefern.
Daran wie NV und ATI ihre Features gewichten, kann man erkennen, was (nach Meinung von NV und ATI) für den Kauf entscheidender ist.
NV verbessert das AA, weil es offensichtlich bei den unerfahrenen PC Nutzern einen höheren Stellenwert hat, als AF.
Während die AF Qualität beim R300 ja gerade noch erträglich war, sind wir jetzt an einem Punkt angekommen, an dem man überlegt, ob das Aufrüsten wirlich für schönere Spiele sorgt. (---> 7800).
Daran ist der Käufer aber selber Schuld. Hätte er die Optimierungen bei R300 und NV40 nich einfach gschluckt, wäre das nicht passiert. (Ja... ein Blick in meine Signatur verrät, dass ich auch Schuld bin ...)
Ich denke man sollte sich nich zu sehr üner NV und ATI aufregen. Die machen nur das, was mehr Gewinn einspielt.
Solange der größte Teil der Kunden zufrieden ist, wird sich nichts ändern.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.