Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Überschärfe-Texturflimmern, wie entsteht es? (techn. Hintergründe)
Dunkeltier
2005-07-05, 18:52:19
Woher kommt denn eigentlich nVidias Texturflimmern her? Ich meine damit nicht das flimmern von kritischen Mustern (!), sondern das "Überschärfe-Flimmern" auf den Texturen selbst (grieseln, bröseln) was es in dieser Art ja nur bei nVidia gibt. Es wäre nett, wenn jemand ein paar deutschsprachige Links dazu hat, die näher auf dieses Thema eingehen.
In meinen Augen kommt es mir so vor, als ob der LOD total verschoben oder an der Filterung extrem gepfuscht worden ist, um damit insgeheim an Füllrate zu sparen. Getreu dem Motto, es fällt schon niemanden auf. Wie damals bei den Voodoo-Karten.
Jesus
2005-07-05, 19:01:41
Sowas gibt es nicht! Bei mir flimmert nichts!
(wirst du vermutlich gleich lesen)
:rolleyes:
Dunkeltier
2005-07-05, 19:06:22
Sowas gibt es nicht! Bei mir flimmert nichts!
(wirst du vermutlich gleich lesen)
:rolleyes:
Interessiert mich nicht. :rolleyes: Entweder man will den Unterschied sehen, oder man will es nicht. Eins ist sicher, es ist definitiv ein Unterschied zum R480 und dessen Filterung vorhanden. :)
Sowas gibt es nicht! Bei mir flimmert nichts!
(wirst du vermutlich gleich lesen)
:rolleyes:
Tja, aber nur solange diese Leute nicht gesehen haben wie sauber und flimmerfrei es auf einer ATI Karte aussieht.
Woher es kommt weiß ich nicht, aber da es bei der 6800er Serie nie behoben wurde und bei der 7800GTX noch schlimmer geworden ist, scheint nVidia mit der Methode Performance zu gewinnen massiv auf Kosten der Bildqualität. Ein anderer Grund ist nicht vorstellbar oder wieso sollte nVidia die Kunden extra mit so einem Geflimmer ärgern?
Quasar
2005-07-05, 19:12:07
Ich halte das nicht deaktivierbare "Optimierung des anisotropen Musters" für einen, errr, übersehenen Treiberfehler. =)
Ich denke, das wird recht schnell behoben, sobald die erste Reviewwelle vorüber ist.
Ich halte das nicht deaktivierbare "Optimierung des anisotropen Musters" für einen, errr, übersehenen Treiberfehler. =)
Ich denke, das wird recht schnell behoben, sobald die erste Reviewwelle vorüber ist.
Bei den 6800er bekommst Du das Flimmern auch nicht weg, egal mit wlechen Treibersettings. Ergo - wovon redest Du?????
MarcWessels
2005-07-05, 19:15:35
Wie oft denn noch?
ATI hat die ungenauen und inkorrekten Filter, bei nVidia ist es genau umgekehrt (beim 7800GTX glaube ich auch an einen Treiebrbug) - Ihr wollt ungenau gefilterte Texturen? Bitteschön, dann kauft Euch ATI.
Dunkeltier
2005-07-05, 19:15:45
Ich halte das nicht deaktivierbare "Optimierung des anisotropen Musters" für einen, errr, übersehenen Treiberfehler. =)
Ich denke, das wird recht schnell behoben, sobald die erste Reviewwelle vorüber ist.
Auch auf High-Quality, mit deaktivierten Optimierungen? Und wieso tritt es mit so ziemlich allen Treibern auf? Dann müßte dies ja zu beheben sein, wenn man einen Treiber der 6x.xx Serie nimmt, und in dessen INF eine Geforce 7800 GTX reineditiert.
Aber selbst dies wäre unlogisch, da die Geforce 6 Serie ebenfalls stark zum flimmern neigt. Was will man da jemals beheben?
Dunkeltier
2005-07-05, 19:16:13
Bei den 6800er bekommst Du das Flimmern auch nicht weg, egal mit wlechen Treibersettings. Ergo - wovon redest Du?????
Du warst mal wieder schneller als ich... :frown:
Wie oft denn noch?
ATI hat die ungenauen und inkorrekten Filter, bei nVidia ist es genau umgekehrt (beim 7800GTX glaube ich auch an einen Treiebrbug) - Ihr wollt ungenau gefilterte Texturen? Bitteschön, dann kauft Euch ATI.
Wenn "genau" bedeutet, dass die Spiele wie Hölle flimmern, dann will kein normaler Mensch korrekt gefilterte Texturen. Ich will es so scharf wie möglich, ohne dass es flimmert!!! Bie nVidia flimmert es wie sau und das ist nicht hinnehmbar!
Dunkeltier
2005-07-05, 19:18:18
Wie oft denn noch?
ATI hat die ungenauen und inkorrekten Filter, bei nVidia ist es genau umgekehrt (beim 7800GTX glaube ich auch an einen Treiebrbug) - Ihr wollt ungenau gefilterte Texturen? Bitteschön, dann kauft Euch ATI.
Und wieso hat ein S3, Geforce 4 Ti, Geforce FX oder Kyro II Chip bei mir nicht geflimmert? Weil er auch unkorrekt filtert? Oder ein Geforce 2 Ti mit 2xaF?
Du warst mal wieder schneller als ich... :frown:
Ach halb so wild Kuh. ;) Hauptsache wir bekommen unser Anliegen durch den Grund für dieses Flimmern, und den Grund wieso nVidia das bisher auch bei den 6800ern nicht behoben hat, herraus zu finden.
mapel110
2005-07-05, 19:21:41
Nenn doch mal Spiele, bei denen du das Flimmern siehst. Würde mich zum Beispiel als Erstes interessieren.
BK-Morpheus
2005-07-05, 19:22:34
Ich bin Umsteiger von X700Pro auf 6600GT und auch mit deaktivierten Optimierungen (manuell alle deaktiviert, auf Clamp gestellt und dann noch auf HQ gestellt) flimmerts IMO schlimmer als bei meiner ATI.
Beobachtet bei BF2 und CSS.
also mit der 6800GT hab ich kein AF-flimmern auf HQ mit LOD-clamp. mit der 7800GTX behaupten ja einige dass sich das geändert hat, für den NV40 kann ich jedenfalls keine probleme feststellen.
"böse" texturen die ohne AF flimmern, flimmern logischerweise auch mit AF, wobei es dann natürlich besser sichtbar ist, da der texturmatsch weiter nach hinten verschoben ist.
als vergleichskarte hab ich eine 9800pro da, die ebenso bei "bösen" texturen zum flimmern neigt, und bei "normalen" texturen ebensowenig flimmert.
R4xx hab ich keinen zum vergleich, aber der soll ja eher schlechter als die 9800er reihe filtern, somit kann ich hier keinen vorteil für ati erkennen.
Nenn doch mal Spiele, bei denen du das Flimmern siehst. Würde mich zum Beispiel als Erstes interessieren.
Bei fast allen Spielen, wenn man nicht Tomaten auf den Augen hat. Besonders natürlich bie denen, die hoch aufgelöste Texturen benutzen.
Du willst doch jetzt nicht beweise dafür haben, nachdem nun soviele Leute mit ihren 6800ern von dem Flimmern berichtet haben? Wenn ihr das nicht merkt ist das schön für euch. Einige Leuten merken garnicht, wenn AA oder AF ganz aus ist, aber wenn zu den Leuten gehört, die das Flimmern wahrnehmen, dann sind NV40 und G70 nicht hinnehmbar was das Texturrauschen angeht!
Dunkeltier
2005-07-05, 19:25:54
Nenn doch mal Spiele, bei denen du das Flimmern siehst. Würde mich zum Beispiel als Erstes interessieren.
Natural Selection, Bf1942 + Vietnam, Half-Life Classic, Half-Life², FarCry, etc.
Das sind eigentlich alle Spiele, die ich auf der Platte habe. Insbesondere bei Half-Life und Natural Selection fällt es extrem stark auf, da hier die Texturen sehr einfach und einfarbig sind. Entsprechende Screenshots davon habe ich ja schon hier im Forum verstreut, allerdings sieht man dieses extreme grieseln nur in Bewebung. :(
Dunkeltier
2005-07-05, 19:28:46
Ich werde mal einen neuen Screenshot machen und euch die Stelle einzeichnen. Am besten 2x Screenshots, schneide die Stelle aus und mache daraus ein animiertes Gif. Dauert aber etwas, bis ich das hinbekomme. Muß vorher noch ein Bios für A.Wesker speichern gehen.
mapel110
2005-07-05, 19:35:12
Mal ein Gegenbeispiel. Bei Mohaa haben die Gitter mit einer ATI-Karte mächtig geflimmert. Mit der 6800 Gt dann auch genauso stark. Aber als dann der LOD-Clamp-Schalter kam, war das Flimmern nahezu weg bzw nurnoch sehr schwach wahrnehmbar.
Multiplayerpart Level V2-Rocket; ist eine Objektiv map. Könnt ihr euch ja mal mit aktiviertem AF anschauen. Wer da behauptet, es flimmert auf seiner ATI-Karte nicht, der lügt.
Dunkeltier
2005-07-05, 19:45:05
Mal ein Gegenbeispiel. Bei Mohaa haben die Gitter mit einer ATI-Karte mächtig geflimmert. Mit der 6800 Gt dann auch genauso stark. Aber als dann der LOD-Clamp-Schalter kam, war das Flimmern nahezu weg bzw nurnoch sehr schwach wahrnehmbar.
Multiplayerpart Level V2-Rocket; ist eine Objektiv map. Könnt ihr euch ja mal mit aktiviertem AF anschauen. Wer da behauptet, es flimmert auf seiner ATI-Karte nicht, der lügt.
Ich rede hier nicht von Gittern, sondern von einfarbigen Texturen ohne Muster welche unmotiviert grieseln. Textur-Musterflimmern <---> Textur-Grieseln
Blaire
2005-07-05, 19:54:38
Man kann es ganz einfach mit +0,250 LOD (A-Tuner machts möglich) in den Griff bekommen. Seitdem seh ich bei mir auch bei HighQuality in BF2 kein Flimmern mehr. :)
Dunkeltier
2005-07-05, 20:05:57
So, ich habe gerade versucht es zu visualieren. Leider kann ich diesen Eindruck nicht mit unbewegten Screenshots einfangen, zumindest nicht so wie ich es mir vorstelle. :(
Blaire
2005-07-05, 20:16:08
So, ich habe gerade versucht es zu visualieren. Leider kann ich diesen Eindruck nicht mit unbewegten Screenshots einfangen, zumindest nicht so wie ich es mir vorstelle. :(
Ich könnte gern ein Fraps Video von BF2 machen, aber leider fehlt mir der Webspace. Wenn jemand Webspace bereitstellt würde ich gern 2 Videos machen mit und ohne Flimmern.
Man kann es ganz einfach mit +0,250 LOD (A-Tuner machts möglich) in den Griff bekommen. Seitdem seh ich bei mir auch bei HighQuality in BF2 kein Flimmern mehr. :)
Ja, aber das kann doch nicht die Lösung sein, dass man bei jedem Spiel mit einem Tweaktool von Hand am LOD rumfummeln muss. Texturen sollten bei Grafikkarten out of the box nicht flimmern.
Thanatos
2005-07-05, 20:29:09
Hmmmmm, bei mir hat leztens auch bei UT2004 geflimmert, das lag aber daran da der Treiber neu installiert war und automatisch auf Leistung X-( stand, hab mich schon gewundert warumes so scheisse aussah und es geflimmert hat.
Aber flimmern habe ich eigentlich noch ned bemerkt. kann aber auch daran liegen das ich mit de atuner immer Profile anlegen die dann auf HQ +alle optimierungen deaktiviert stehen, und das LOD auf 0.0 gestellt wird.
Aber probiert mal das:
Ich hab schon gehört das es einen bug gibt wo die optimierungen nicht deaktiviert.
Die Lösung:
Man sollte erst auf Qualität schalten, dort alle Optimierungen deaktivieren, und dann erst auf HQ schalten.
Probiert das doch mal. Seit dem ich das gehört habe mach ich es immer so :D
Vielleicht bringts ja was.
BK-Morpheus
2005-07-05, 20:33:59
Man kann es ganz einfach mit +0,250 LOD (A-Tuner machts möglich) in den Griff bekommen. Seitdem seh ich bei mir auch bei HighQuality in BF2 kein Flimmern mehr. :)
Hab ich auch schon gemacht, hilft etwas, sieht aber auch insg. unschärfer aus.
Hmmmmm, bei mir hat leztens auch bei UT2004 geflimmert, das lag aber daran da der Treiber neu installiert war und automatisch auf Leistung X-( stand, hab mich schon gewundert warumes so scheisse aussah und es geflimmert hat.
Aber flimmern habe ich eigentlich noch ned bemerkt. kann aber auch daran liegen das ich mit de atuner immer Profile anlegen die dann auf HQ +alle optimierungen deaktiviert stehen, und das LOD auf 0.0 gestellt wird.
Aber probiert mal das:
Ich hab schon gehört das es einen bug gibt wo die optimierungen nicht deaktiviert.
Die Lösung:
Man sollte erst auf Qualität schalten, dort alle Optimierungen deaktivieren, und dann erst auf HQ schalten.
Probiert das doch mal. Seit dem ich das gehört habe mach ich es immer so :D
Vielleicht bringts ja was.
Genau so hab ich das auch immer gemacht...es wurde auch wie gesagt besser, aber das bleibende Flimmern war IMO immernoch auffälliger als auf meiner ATI, ka warum.
Blaire
2005-07-05, 20:34:04
Ja, aber das kann doch nicht die Lösung sein, dass man bei jedem Spiel mit einem Tweaktool von Hand am LOD rumfummeln muss. Texturen sollten bei Grafikkarten out of the box nicht flimmern.
Das Problem ist doch nicht das es flimmert , sondern wie schlimm es flimmert.
Nvidia Karten flimmern, Ati Karten flimmern. Erstere etwas mehr wie es scheint und man muss nachhelfen je nach Game
Mr. Lolman
2005-07-05, 20:43:13
Gut weil, da jetzt noch ein Thread ist, post ich auch mal meinen Kram da rein:
hardware.fr stellt schlechtere Filtering beim G70 fest (Post #43) (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=231981&page=3&pp=20)
Filterdiskussion mit aths (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3192463#post3192463)
NV40 BQ Irregularitäten bei Farcry (Moiré, Flimmern) + vgl mit Ati R3x0 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3220698#post3220698)
~50% Leistungsverlust eines NV40 beim Wechsel von treiberdefault auf HQ. Obwohl HQ bei UT2004 nur brilinear ist (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3220967#post3220967)
3x30Mb unkomprimierte Q3a Videos - Quasibeweis dass nur (NV40)HQ wirklich mit ATiAF vergleichbar ist) (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3195108#post3195108)
R3x0/NV40 - Q3a/Splintercell3 Screenshotvergleiche (alle Modi, tw mit Colormips (Q3a) und animierten gifs (SC3)) (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3194053#post3194053)
Habs nicht geordnet und manche Aussagen sind vielleicht doppelt. Aber wer immernoch meint, dass NV Karten fair gebencht werden/wurden, soll sich da ruhig mal durchklicken...
Gut weil, da jetzt noch ein Thread ist, post ich auch mal meinen Kram da rein:
hardware.fr stellt schlechtere Filtering beim G70 fest (Post #43) (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=231981&page=3&pp=20)
Filterdiskussion mit aths (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3192463#post3192463)
NV40 BQ Irregularitäten bei Farcry (Moiré, Flimmern) + vgl mit Ati R3x0 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3220698#post3220698)
~50% Leistungsverlust eines NV40 beim Wechsel von treiberdefault auf HQ. Obwohl HQ bei UT2004 nur brilinear ist (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3220967#post3220967)
3x30Mb unkomprimierte Q3a Videos - Quasibeweis dass nur (NV40)HQ wirklich mit ATiAF vergleichbar ist) (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3195108#post3195108)
R3x0/NV40 - Q3a/Splintercell3 Screenshotvergleiche (alle Modi, tw mit Colormips (Q3a) und animierten gifs (SC3)) (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3194053#post3194053)
Habs nicht geordnet und manche Aussagen sind vielleicht doppelt. Aber wer immernoch meint, dass NV Karten in fair gebencht werden/wurden, soll sich da ruhig mal durchklicken...
Ist ja echt extrem wie nVidia die Kunden verarscht. Und Leute wie aths hypen dann noch gerade das AF von den nVidia Karten, obwohl sie da am meisten schummeln und am wenigsten Qualität bieten. Und bei ähnlicher Qualität ist ne 6800GT gerade mal etwas schneller, als eine 9800Pro. *rofl*
Man kann es ganz einfach mit +0,250 LOD (A-Tuner machts möglich) in den Griff bekommen. Seitdem seh ich bei mir auch bei HighQuality in BF2 kein Flimmern mehr. :)Klar. Wir verschlechtern den Filter noch mehr indem wir blurren :uclap:
Dunkeltier
2005-07-05, 20:57:57
Gut weil, da jetzt noch ein Thread ist, post ich auch mal meinen Kram da rein:
hardware.fr stellt schlechtere Filtering beim G70 fest (Post #43) (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=231981&page=3&pp=20)
Filterdiskussion mit aths (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3192463#post3192463)
NV40 BQ Irregularitäten bei Farcry (Moiré, Flimmern) + vgl mit Ati R3x0 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3220698#post3220698)
~50% Leistungsverlust eines NV40 beim Wechsel von treiberdefault auf HQ. Obwohl HQ bei UT2004 nur brilinear ist (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3220967#post3220967)
3x30Mb unkomprimierte Q3a Videos - Quasibeweis dass nur (NV40)HQ wirklich mit ATiAF vergleichbar ist) (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3195108#post3195108)
R3x0/NV40 - Q3a/Splintercell3 Screenshotvergleiche (alle Modi, tw mit Colormips (Q3a) und animierten gifs (SC3)) (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3194053#post3194053)
Habs nicht geordnet und manche Aussagen sind vielleicht doppelt. Aber wer immernoch meint, dass NV Karten fair gebencht werden/wurden, soll sich da ruhig mal durchklicken...
Kurz gefaßt, die neue Generation ist keine 50% schneller, sondern nur 20-25%. Die restlichen 25-30% stammen aus der kaputt-optimierten Filterung. Siehe allein die Füllrate, das sind lediglich 20% Unterschied zur Radeon.
Dunkeltier
2005-07-05, 20:58:57
Ist ja echt extrem wie nVidia die Kunden verarscht. Und Leute wie aths hypen dann noch gerade das AF von den nVidia Karten, obwohl sie da am meisten schummeln und am wenigsten Qualität bieten. Und bei ähnlicher Qualität ist ne 6800GT gerade mal etwas schneller, als eine 9800Pro. *rofl*
Das aF kann man sehr wohl hypen, wenn man dies auf ältere nVidia-Karten bezieht. Da war die Qualität dementsprechend göttlich.
Ist ja echt extrem wie nVidia die Kunden verarscht. Und Leute wie aths hypen dann noch gerade das AF von den nVidia Karten, obwohl sie da am meisten schummeln und am wenigsten Qualität bieten. Und bei ähnlicher Qualität ist ne 6800GT gerade mal etwas schneller, als eine 9800Pro. *rofl*aths hat's inzwischen scheinbar auch kapiert.
Kurz gefaßt, die neue Generation ist keine 50% schneller, sondern nur 25%. Die restlichen 25% stammen aus der kaputt-optimierten Filterung.Das halte ich für übertrieben. Aber das heißt nicht dass ich dir nicht rechtgebe, ich werde sicher keine 7800 kaufen ;)
reunion
2005-07-05, 21:00:01
Klar. Wir verschlechtern den Filter noch mehr indem wir blurren :uclap:
In so einem Fall zählt dann doch der wahrgenommen Aspekt mehr, als der technische Hintergrund. :)
Und damit hat der gute Blair nicht unrecht.
So wie es aussieht ist aus einer Tugend (GF3/GF4) ein Sünde geworden NV40/G70. So schnell hat sich die Sache um 180° gedreht. Wirklich schade, den ohne vernünftigen Texturfilter ist die 7800GTX ein Witz.
reunion
2005-07-05, 21:02:01
Kurz gefaßt, die neue Generation ist keine 50% schneller, sondern nur 25%. Die restlichen 25% stammen aus der kaputt-optimierten Filterung.
Vielleicht nicht ganz so extrem, aber im Grunde magst du Recht haben.
Mir kam es schon immer etwas seltsam vor, dass eine 7800GTX, obwohl dies technisch eigendlich kaum möglich ist, nicht selten schneller ist, als zwei 6800U.
In so einem Fall zählt dann doch den wahrgenommen Aspekt mehr, als der technische Hintergrund. :)
Und damit hat der gute Blair nicht unrecht.
Ja, sicher ist das besser als Geflimmer, aber dann hat man halt Texturmatsch. Mit ATI Karten sieht es halt scharf und dennoch nicht flimmerig aus.
Dunkeltier
2005-07-05, 21:04:31
aths hat's inzwischen scheinbar auch kapiert.
Das halte ich für übertrieben. Aber das heißt nicht dass ich dir nicht rechtgebe, ich werde sicher keine 7800 kaufen ;)
Rein von der Füllrate unterscheiden die Radeon X850 XT PE und die Geforce 7800 GTX nur 20%, die restlichen 5% habe ich auf interne Optimierungen zurückgeführt. Der Rest ist "ercheatet".
/edit:
24x430=10.320
16x540=8.640
Vielleicht nicht ganz so extrem, aber im Grunde magst du Recht haben.
Ist doch so. Schau dir doch die Benchmarks an.
Und das zu Recht gelobte Alphatest-AA verliert so auch seinen Reiz. Was bringt es mir, wenn ich Alphatesttexturkanten glätten kann, aber der Rest wie wild flimmert?
In so einem Fall zählt dann doch der wahrgenommen Aspekt mehr, als der technische Hintergrund. :)
Und damit hat der gute Blair nicht unrecht.Ich hab's selber probiert. Das ist noch schlimmer.
Ohje. Ich bete das ATi den R520 nicht auch noch weiter vermurkts.
reunion
2005-07-05, 21:07:53
Ich hab's selber probiert. Das ist noch schlimmer.
BF2?
Ich habe jedenfalls lieber ein minimalst unscharfes Bild, anstatt einem extrem nervösen und flimmrigen Bild.
Nein in UT2004. Und da musst ich soviel Blur geben dass es aussah wie auf ner Voodoo 1 :D
(Mit einem älteren Treiber - mit 77.72 scheint es in HQ endlich flimmerfrei zu sein)
dildo4u
2005-07-05, 21:13:33
Rein von der Füllrate unterscheiden die Radeon X850 XT PE und die Geforce 7800 GTX nur 20%, die restlichen 5% habe ich auf interne Optimierungen zurückgeführt. Der Rest ist "ercheatet".
Dir ist aber schon Klar das bis zu 40% der leistung der X850XT z.B bei UT 2004 durch optemierungen kommen oder? Da geben sich Nvidia und ATI nix.
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_af-optimierungen_lupe/9/#abschnitt_unreal_tournament_2004
reunion
2005-07-05, 21:16:31
Ja, sicher ist das besser als Geflimmer, aber dann hat man halt Texturmatsch. Mit ATI Karten sieht es halt scharf und dennoch nicht flimmerig aus.
Naja, so schlimm ist es nicht, das Bild wird kaum wahrnehmbar unscharf - und das flimmern reduziert sich deutlich. Ich muss dazu sagen, dass ich von einer 9700pro auf eine 6600GT umgestiegen bin, und den Unterschied ohne diverse Hinweise hier im Forum nicht wahrgenommen habe. Ich bin also relativ unkritisch, was Texturqualität betrifft. Einzig bei BF2 bemerkte ich bei einem Gegencheck mit der 9700pro starke Unterschiede. Nichts desto trotz ist es doch eine ziemliche Zumutung von nV, derart Leistung zu schinden.
reunion
2005-07-05, 21:17:45
(Mit einem älteren Treiber - mit 77.72 scheint es in HQ endlich flimmerfrei zu sein)
War das ernst gemeint? :|
Muss ich gleich mal probieren...
reunion
2005-07-05, 21:19:26
Dir ist aber schon Klar das bis zu 40% der leistung der X850XT z.B bei UT 2004 durch optemierungen kommen oder? Da geben sich Nvidia und ATI nix.
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_af-optimierungen_lupe/9/#abschnitt_unreal_tournament_2004
ATis Optimierungen kosten aber keine Bildqualität - wenn man dem Test von CB glauben schenken darf.
Dunkeltier
2005-07-05, 21:19:43
Dir ist aber schon Klar das bis zu 40% der leistung der X850XT z.B bei UT 2004 durch optemierungen kommen oder? Da geben sich Nvidia und ATI nix.
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_af-optimierungen_lupe/9/#abschnitt_unreal_tournament_2004
Meinst du den letzten Abschnitt? Du weißt hoffentlich, das zwischen A.I. Default und Advanced ein Riesenunterschied ist. A.I. Default würde ich mit nVidias HQ ohne Optimierungen gleichsetzen, erst mit A.I. Advanced wird die Bildqualität sichtbar schlechter.
Aber das tut hier nichts zur Sache, denn mit 20% mehr Füllrate sind einfach keine 50% mehr Leistung drin. Punkt. Der ganze Rest ist einfach nur ercheatet, und das ganz schön extrem. Beweise gibt es mittlerweile auch, im Thread von aths.
dildo4u
2005-07-05, 21:23:20
Aber das tut hier nichts zur Sache, denn mit 20% mehr Füllrate sind einfach keine 50% mehr Leistung drin. Punkt. Der ganze Rest ist einfach nur ercheatet, und das ganz schön extrem. Beweise gibt es mittlerweile auch, im Thread von aths.
Ein modernes Game nutzt auch Shader wenn man nur HL1 zockt mag deine Berechung stimmen.Guck einfach mal das hier an massive zuwäches wobei die tests keine Punkte bringen also sich auch kein Chaeten lohnt und meist kein AF nutzen.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3180991#post3180991
Blaire
2005-07-05, 21:27:08
ATis Optimierungen kosten aber keine Bildqualität - wenn man dem Test von CB glauben schenken darf.
Ich kann dir nur sagen , daß ich damals bei UT2004 bei meiner X800XT ein deutlich unschärferes Bild hatte , als mit einer Geforce 6800 bzw. nun 7800 jetzt. Und das hängt garantiert auch mit dem LOD zusammen könnt ich wetten.
Dunkeltier
2005-07-05, 21:28:19
Ein modernes Game nutzt auch Shader wenn man nur HL1 zockt mag deine Berechung stimmen.
Die meisten der heutigen Spiele sind nicht Shaderlimitiert, sondern haben eher Probleme mit der Füllrate oder der Bandbreite - oder aber nagen am CPU-Limit. Und wieso sollte die Shaderpower im Gegensatz zum Rest dermaßen exorbitant ansteigen? Wunschdenken.
/edit: Ui toll, synthetische Benchmarks. :uclap:
Um dir mal Beispiele für CPU-limitierte Spiele zu geben: HL² (sehr extrem), Bf1942, etc.
dildo4u
2005-07-05, 21:29:38
Die meisten der heutigen Spiele sind nicht Shaderlimitiert, sondern haben eher Probleme mit der Füllrate oder der Bandbreite - oder aber nagen am CPU-Limit. Und wieso sollte die Shaderpower im Gegensatz zum Rest dermaßen exorbitant ansteigen? Wunschdenken.
Weil man die eine zusätzliche Recheneinheit für additionen hinzugefügt hat.
"Der G70 ermöglicht nun wieder zwei dp3-Instruktionen pro Pipeline und Takt. Dies wurde erreicht, in dem die vier-kanalige Multiplikationseinheit in der Shader-Unit 1 um vier speziell verschaltete Additions-Kanäle erweitert wurde. Damit ist natürlich auch "MAD" (multiply, add) möglich, Shader Unit 2 bietet das ja ohnehin.
Lange Rede, kurzer Sinn: Durch den Einbau von Additionsrechenwerken wurde die im NV40 noch bestehende Multiplikationslastigkeit beseitigt. Die G70-Rechenwerke bieten jetzt eine ausgewogene Mischung, weshalb man auch leichter auf den G70 optimieren kann. Die dp3-Operation ist unter anderem – aber nicht nur – für pixelgenaues Shading und fürs Bumpmapping wichtig. Auch MAD-Befehle werden oft gebraucht. Der von Nvidia implizit angegebene Leistungsvorteil von bis zu 25 Prozent mehr Rechenkraft pro Takt erscheint uns nicht übertrieben, je nach Shader kann der Vorteil sogar noch deutlicher ausfallen. Die G70-Architektur ist offenbar für die Ausführung langer Pixelshader mit mindestens -zig Befehlen pro Pixel optimiert.
Eine übliche SingleCore-CPU berechnet je nach Typ pro Takt bis zu zwei MAD-Operationen in FP32-Genauigkeit. Da schafft eine einzelne "normale" Pixelpipeline schon doppelt so viel, da es ja vier Kanäle (R, G, B und A) gibt. Eine G70-Pipe bringt nun 2x MAD pro Pixelpipe und hat 24 davon – das sind 192 MADs pro Takt im Pixelshader. Die acht Vertexshader können insgesamt weitere 32 MADs beisteuern, so dass der G70 pro Takt 224 MADs berechnen kann. Das ist 112x mal mehr als eine gängige CPU. Eine DualCore-CPU müsste demnach mit über 24 GHz laufen, um die gleiche maximale MAD-Leistung wie der G70 zu bringen. Allerdings ist die CPU eben auf das Ausführen von "richtigen" Programmen optimiert, während die GPU auf das Bearbeiten von Datenströmen ausgelegt wurde."
http://www.3dcenter.org/artikel/2005/06-26_a.php
reunion
2005-07-05, 21:31:07
Ein modernes Game nutzt auch Shader wenn man nur HL1 zockt mag deine Berechung stimmen.Guck einfach mal das hier an massive zuwäches wobei die tests keine Punkte bringen also sich auch kein Chaeten lohnt und meist kein AF nutzen.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3180991#post3180991
Shaderperformance ist für den heutigen Spielealltag nahezu irrelevant, wenn man nicht gerade eine GFFX hat. ;)
Oder warum meinst du, wird noch immer derart an der Filterqualität gespart?
dildo4u
2005-07-05, 21:33:33
/edit: Ui toll, synthetische Benchmarks. :uclap:
Das sind Benches die die Shader leistung zeigen da die keine Punkte bringen bei der 3Dmakr score bringt es hier nix zu cheaten ausserdem wird beim Shader test vom 3Dmark2001 kein AF genutzt das heißt hier konnte nicht mit AF optemiert werden.
dildo4u
2005-07-05, 21:34:25
Shaderperformance ist für den heutigen Spielealltag nahezu irrelevant, wenn man nicht gerade eine GFFX hat. ;)
Oder warum meinst du, wird noch immer derart an der Filterqualität gespart?
Tjo aber für den heutige Spiele alltag braucht man auch keine 7800GTX meiner Meinung nach.
reunion
2005-07-05, 21:34:34
Ich kann dir nur sagen , daß ich damals bei UT2004 bei meiner X800XT ein deutlich unschärferes Bild hatte , als mit einer Geforce 6800 bzw. nun 7800 jetzt. Und das hängt garantiert auch mit dem LOD zusammen könnt ich wetten.
Kann ich zumindest mit meiner 9700pro nicht bestätigen.
Das R300-Bild erscheint sogar wesentlich besser - da weniger flimmrig.
Allerdings könnte da ATi am R420 auch was geändert haben.
reunion
2005-07-05, 21:35:11
Tjo aber für den heutige Spiele alltag braucht man auch keine 7800GTX meiner Meinung nach.
Aber man braucht eine gute Texturqualität.
Dunkeltier
2005-07-05, 21:37:22
Das sind Benches die die Shader leistung zeigen da die keine Punkte bringen bei der 3Dmakr score bringt es hier nix zu cheaten ausserdem wird beim Shader test vom 3Dmark2001 kein AF genutzt das heißt hier konnte nicht mit AF optemiert werden.
Dein tolles Zitat mit der zusätzlichen Recheneinheit war mir schon längst bekannt, da ich diesen Bericht unlängst schon gelesen habe. Das hat aber nichts, wirklich rein gar nichts mit der Limitierung der heutigen Spiele zu tun. Diese brauchen mehr Füllrate+Bandbreite oder stärkere CPUs, die Shader werden erst in Zukunft zum entscheidenen Faktor. Und da wo der G70 heute extrem überlegen gewinnt, ist dies auf auf den aF sowie die negative Optimierung desselbigen zurückzuführen.
Dunkeltier
2005-07-05, 21:38:44
Tjo aber für den heutige Spiele alltag braucht man auch keine 7800GTX meiner Meinung nach.
Doch, wenn man wie ich extrem auf AA steht. Und da ist das TAA sowie SS und die leichte Füllratenmehrleistung ein nicht zu verachtendes Feature. Was aber durch die die sehr verschlechterte Filterung wieder zunichte gemacht wird.
dildo4u
2005-07-05, 21:39:59
Aber man braucht eine gute Texturqualität.
Jap wer braucht mich stört auch meine 6800GT@ Q nicht von daher wenn das level von der 7800GTX gehalten wird wärs mir recht.In zunkunft wird man mit dem CP eh Kaum noch einfluss haben wenn Games massiv Shader nutzen entscheidet der Entwickler wie das aussehen wird.
Lies dir mal den AF-Test aus meiner Signatur durch ;) Ich bin einer der Geforce 6 Series Hasser, der sich um sein Geld betrügen hat lassen und nun ne Brille tragen muss zwecks Augenkrebs :D
Ne mal im Ernst ich habe gelernt damit zu leben aber wenn ich folgenden Thread lese dann weiss ich... meine nächste Karte wird mit 100%iger Sicherhheit keine von nVidia sein :( so leid es mir tuht !
>>> http://www.nvnews.net/vbulletin/showthread.php?t=53081
nVidia betreibt da ne ganz linke Sache und hätte vermutlich bei der 7er Serie reagiert, wenn es nicht soviele Leute vertuscht hätten ;)
Demirug
2005-07-05, 21:47:46
Kann ich zumindest mit meiner 9700pro nicht bestätigen.
Das R300-Bild erscheint sogar wesentlich besser - da weniger flimmrig.
Allerdings könnte da ATi am R420 auch was geändert haben.
Die R300/R350 Chips waren die letzten von ATI die keine versteckten Filteroptimierungen hatten.
Dunkeltier
2005-07-05, 21:49:36
Die R300/R350 Chips waren die letzten von ATI die keine versteckten Filteroptimierungen hatten.
Selbst wenn, dann sind diese Optimierungen aber sehr gut versteckt. Denn bei meinen R480 viel mir sowas derbes nicht in die Augen. Sehr schön übrigens das Video, welches zeigt wie die nVidia-Karte ein überschärftes und unruhiges Bild in Joint Ops abliefert.
reunion
2005-07-05, 21:51:29
(Mit einem älteren Treiber - mit 77.72 scheint es in HQ endlich flimmerfrei zu sein)
War das ernst gemeint? :|
Muss ich gleich mal probieren...
Du hast Recht, mit dem 77.72 scheint sich tatsächlich etwas verbessert zu haben. :up:
Das flimmern wurde deutlich reduziert, ob das auch für die 7800GTX gilt?
Blaire
2005-07-05, 21:51:30
Selbst wenn, dann sind diese Optimierungen aber sehr gut versteckt. Denn bei meinen R480 viel mir sowas derbes nicht in die Augen. Sehr schön übrigens das Video, welches zeigt wie die nVidia-Karte ein überschärftes und unruhiges Bild in Joint Ops abliefert.
Diese 2 Videos hab ich mir gerade angesehn und man sieht das es selbst auf der X800XT Flimmert wenn auch deutlich weniger. Mit etwas LOD Spielerei lässt sich das aber beheben.
NV:
http://members.chello.nl/h.appel1/Nv6800JointOps.avi
Ati:
http://members.chello.nl/h.appel1/AtiX800JointOps.avi
Diese 2 Videos hab ich mir gerade angesehn und man sieht das es selbst auf der X800XT Flimmert wenn auch deutlich weniger. Mit etwas LOD Spielerei lässt sich das aber beheben.
Aber danach sind die Texturen so verwaschen das alles zu spät ist ;)
reunion
2005-07-05, 21:54:24
Aber danach sind die Texturen so verwaschen das alles zu spät ist ;)
Ansichtssache, mir ist es deutlich lieber, als ein nervöses Bild.
Blaire
2005-07-05, 21:54:26
Aber danach sind die Texturen so verwaschen das alles zu spät ist ;)
Finde ich garnicht. Ich hab mir vorhin zwei Screenshots aus BF2 angesehn und ich kann beim besten Willen keinen groben Unterschied feststellen.
Naja die Meinungen trennen sich bei dieser Flimmergeschichte eh gewaltig. Die einen sehen es nicht die anderen schon .. wie auch immer ich hab da schlechte Erfahrungen gemacht und naja die 599 Euronen warens nicht wirklich wert hehe. Schwamm drüber ... Gottseidank hat nVidia kein Monopol :D
Das Thema wäre guter Stoff für einen Artikel auf 3DCenter.org, idealerweise auch in Englisch! Und das dann wieder bei Slashdot verlinken lassen und ordentlich Fakten bringen und derb schreiben. Dann wird vielleicht sogar nV aufmerksam... Wie wär's?
NV:
http://members.chello.nl/h.appel1/Nv6800JointOps.avi
Ati:
http://members.chello.nl/h.appel1/AtiX800JointOps.avi
Dort ist es ganz extrem. In der Regel flimmert es auf meiner 6800GT nicht so stark, aber im Gegenzug auf meiner X800XT garnicht.
Und am LOD rumzupfuschen ist doch keine wirkliche Lösung! Die Texturen rauschen dann weniger auf der nVida, aber dafür sieht auch alles deutlich verwaschener aus. Absolut keine Lösung in meinen Augen!
Blaire
2005-07-05, 22:17:00
Dort ist es ganz extrem. In der Regel flimmert es auf meiner 6800GT nicht so stark, aber im Gegenzug auf meiner X800XT garnicht.
Und am LOD rumzupfuschen ist doch keine wirkliche Lösung! Die Texturen rauschen dann weniger auf der nVida, aber dafür sieht auch alles deutlich verwaschener aus. Absolut keine Lösung in meinen Augen!
Dann schau dir das mal an.
http://www.rage3d.com/board/showthread.php?t=33820524
Das Thema wäre guter Stoff für einen Artikel auf 3DCenter.org, idealerweise auch in Englisch! Und das dann wieder bei Slashdot verlinken lassen und ordentlich Fakten bringen und derb schreiben. Dann wird vielleicht sogar nV aufmerksam... Wie wär's?
Und wer soll soetwas schreiben? aths??? Der schreibt nie wirklich negativ über nVidia - jedenfalls nicht, ohne im gleichem Atemzug ATI noch einen reinzuwürgen, weil z.B. ATI nVidia zu den Filteroptimierungen gezwungen haben soll. Bis auf Filterblumen angucken und nVidia zum theroetischen Qualitätsieger zu erklären, obwohl die Spielepraxis exakt das Gegenteil offenbahrt, ist da nicht viel zu erwarten.
War das ernst gemeint? :|
Muss ich gleich mal probieren...Eigentlich schon - zumindest meine ich es. Kann mich aber auch täuschen :)
Dann schau dir das mal an.
http://www.rage3d.com/board/showthread.php?t=33820524
Hmm ich weiss nicht das isr doch der Beweis das ATI 10mal besser ist die filtert da mindestens so gut wie meien Playsation 1 und hat sogar weniger FPS ich finde ATI ist einfach supa :up:
Ansichtssache, mir ist es deutlich lieber, als ein nervöses Bild.
Aber wenn Du beide von beiden IHVs Karten hast, dann stellt dich weder das eine noch das andere zufrieden. Flimmer oder Matsch - keine tollen Alternativen.
Du hast Recht, mit dem 77.72 scheint sich tatsächlich etwas verbessert zu haben. :up:
Das flimmern wurde deutlich reduziert, ob das auch für die 7800GTX gilt?Danke, ich dachte schon ich bin doof :D
Ich denke mal das hat nVIDIA zum Launch der 7800GTX gemacht um die alte Generation langsamer scheinen zu lassen. NV40 kann wahrscheinlich wirklich noch perfekt filtern, abgesehen von der Winkelabhängigkeit. Aber eben "programmierbar" genau :(
Für G70 sollte das imho auch gelten - das ist wohl ein "Treiberfeature".
Demirug
2005-07-05, 22:47:18
Eigentlich wollte ich das ja erst öffentlich machen wenn ich die genaue Ursache kenne. Da ich das Messdiagramm allerdings bereits schonmal gepostet habe ist es eigentlich auch egal.
Auf dem Digramm sieht man das der NV40 bei bestimmten Texel/Pixel verhältnissen (Die stellen sind makiert) sprunghaft eine höhere Pixelleistung bekommt. Das lässt in erster Näherung nur den Schluss zu das dort anders gefiltert wird. Allerdings habe ich die Details noch nicht herausgefunden.
Ich nehme an das ist HQ ohne Optimierungen?
Ach nochwas: Könntest du eine Legende zur x- und y-Achse geben? ;)
Quasar
2005-07-05, 22:58:22
Bei den 6800er bekommst Du das Flimmern auch nicht weg, egal mit wlechen Treibersettings. Ergo - wovon redest Du?????
Hm? Ich rede erstmal davon, daß die zweite Optimierung möglicherweise nicht deaktivierbar ist.
bissl Unnötiges entfernt. Sowas brauchts hier nicht.
Quasar
2005-07-05, 22:59:10
Auch auf High-Quality, mit deaktivierten Optimierungen? Und wieso tritt es mit so ziemlich allen Treibern auf? Dann müßte dies ja zu beheben sein, wenn man einen Treiber der 6x.xx Serie nimmt, und in dessen INF eine Geforce 7800 GTX reineditiert.
Aber selbst dies wäre unlogisch, da die Geforce 6 Serie ebenfalls stark zum flimmern neigt. Was will man da jemals beheben?
S.O.
Quasar
2005-07-05, 23:04:37
So wie es aussieht ist aus einer Tugend (GF3/GF4) ein Sünde geworden NV40/G70. So schnell hat sich die Sache um 180° gedreht. Wirklich schade, den ohne vernünftigen Texturfilter ist die 7800GTX ein Witz.
Wenn sich das bewahrheiten sollte: Ja.
Gut, daß ich noch Karten habe, wo das nicht der Fall ist.
Thanatos
2005-07-05, 23:05:27
Finde ich mal sehr interessant wie man da rumrätselt und fast detektivisches spürvermögen an den Tag legt um herauszufinden wie nvidia optimiert/mogelt oder was auch immer macht.
Wenn du da mal was veröffentlichst darüber, wäre schön wenn du es relativ einfach schreiben würdest (nein, muss jetzt kein kindergarten niveau sein :D:rolleyes:) , denn mich würde das schon interessieren, doch leider habe ich nicht sodas wissen von den ganzen internen vorgängen in so einem Grafikchip trotzdem würde es mich interessieren.
Bin ja hier auch indem Forum um mich etwas forzubilden :)
Demirug
2005-07-05, 23:18:21
Ich nehme an das ist HQ ohne Optimierungen?
Ach nochwas: Könntest du eine Legende zur x- und y-Achse geben? ;)
Ja, das ist HQ aber diese Sprünge sind auch in Q zu sehen. Nachdem es beim 77er sich allerdings geändert haben soll muss ich mal noch einen älteren Treiber durchlaufen lassen.
Y ist einfach 0-100% und auf der X Achse sind die Txel/Pixel verhältnisse. Jerweils 100 Pixel entsprechen einem LOD Level. Wobei die ersten 100 Pixel davon abweichen weil die im Mag Bereich liegen.
Und was sind die farbigen Zacken?
Demirug
2005-07-05, 23:33:54
Und was sind die farbigen Zacken?
Die Mipmap Übergänge.
MarcWessels
2005-07-06, 03:33:55
Und bei ähnlicher Qualität ist ne 6800GT gerade mal etwas schneller, als eine 9800Pro. *rofl*Das ist definitiv Quark. :rolleyes:
thade
2005-07-06, 04:10:11
wieviele Threads macht denn der noch auf. Wird doch eh nur auf NVidia geschimpft, vor allem von solchen feigen Gästen :rolleyes:
Alles Nvidia Hasser, immer noch sauer weil sie die Pleitefirma 3DFX aufkauften :lol:
Als ich von R420 auf NV40 wechselte konnte ich keinen Unterschied erkennen was Flimmern, Grießeln etc angeht :)
Beim G70 viel mir auch nix auf. Schaltet man noch TSSAA dazu schauen die Spiele richtig gut aus, nicht zu vergleichen ohne.
Das was NVidia mit dem G70 abgeliefert hat, sollte ATI erstmal nachmachen. Nicht nur performance technisch, ich meine damit auch die Verfügbarkeit.
Und @ Dunkeltier
Warum schickst du die Karte nicht einfach zurück und wartest auf den R520.
Verstehen tu ichs zwar net, weil bei mir kein einziges Spiel flimmert, aber vllt solltest du mal zum Augenarzt gehen und dir Nvidia verträgliche Kontaktlinsen verschreiben lassen.
Sry aber die ganze Diskussion ist ja eh lächerlich. Warum liest man denn in den zahlreichen Reviews nix, über diese miese Bildqualität??
Dunkeltier
2005-07-06, 04:57:48
(...)
Warum schickst du die Karte nicht einfach zurück und wartest auf den R520.
Verstehen tu ichs zwar net, weil bei mir kein einziges Spiel flimmert, aber vllt solltest du mal zum Augenarzt gehen und dir Nvidia verträgliche Kontaktlinsen verschreiben lassen.
Warum läßt nVidia nicht das übermäßige Cheaten sein? Ein wenig mogeln ist ja ok solange es nicht ins Auge fällt, aber das hier ist einfach zuviel des Guten. Was sollen mir neue Kontaktlinsen bringen, wenn nVidia die Welt an sich verändert?
Sry aber die ganze Diskussion ist ja eh lächerlich. Warum liest man denn in den zahlreichen Reviews nix, über diese miese Bildqualität??
Ich seh was, was du nicht siehst! :P Vielleicht will sich
niemand eingestehen, für 550 Euro noch weniger Bildqualität als vorher zu bekommen, oder
man möchte auch in Zukunft noch als Hardwaretester Karten von Shops und Herstellern bekommen und schreibt deswegen nur gutes. :rolleyes:
thade
2005-07-06, 05:18:26
Warum läßt nVidia nicht das übermäßige Cheaten sein? Ein wenig mogeln ist ja ok solange es nicht ins Auge fällt, aber das hier ist einfach zuviel des Guten. Was sollen mir neue Kontaktlinsen bringen, wenn nVidia die Welt an sich verändert?
Ich seh was, was du nicht siehst! :P Vielleicht will sich
niemand eingestehen, für 550 Euro noch weniger Bildqualität als vorher zu bekommen, oder
man möchte auch in Zukunft noch als Hardwaretester Karten von Shops und Herstellern bekommen und schreibt deswegen nur gutes. :rolleyes:
NVidia hat die Welt schon verändert :tongue:
Ich glaube dir gehts gar nicht mehr ums Flimmern, sondern du willst nur munter weiter bashen. Merk dir eins. Nvidia ist nicht INTEL ;D
Weswegen hat sich denn beim NV40 niemand beschwert??? Und irgendwie ist nur seid du den g70 hast Gebashe. Aber jeder hat seine Meinung.
Eigentlich sollte es mir ja egal sein. Ich bin/war höchst zufrieden mit dem G70/NV40. Auch mit der ATI war ich zufrieden.
Ich habe den Eindruck du suchst mit der Lupe nach Fehlern die Nvidia macht.
Warum fällt es dann den meisten nicht auf, dass der NV40/G70 so ne miese Quali hat???
Dunkeltier
2005-07-06, 05:35:51
NVidia hat die Welt schon verändert :tongue:
Ich glaube dir gehts gar nicht mehr ums Flimmern, sondern du willst nur munter weiter bashen.
Sicher, ich habe ja sonst nichts besseres zu tun... :rolleyes:
Merk dir eins. Nvidia ist nicht INTEL ;D
Ich habe nichts gegen Intel. Ich hätte sogar einen Intel, hätten diese nicht das technisch für mich schlechtere Produkt.
Weswegen hat sich denn beim NV40 niemand beschwert??? Und irgendwie ist nur seid du den g70 hast Gebashe. Aber jeder hat seine Meinung.
Beim NV40 habe ich mich ebenfalls über das Texturflimmern und den Overlay-Bug beschwert. Schon vergessen? Ich helfe dir mal auf die Sprünge:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2435983&postcount=1
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2772100&postcount=6
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2775354&postcount=74
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2323170&postcount=59
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2320147#post2320147
Den anderen Link zum Test der Geforce 6800 GT kann ich dir leider nicht mehr geben, da ich den Test weggelöscht habe. :) Auf jeden Fall ist mir schon immer das verstärkte flimmern aufgefallen, und das nicht erst seit heute.
Eigentlich sollte es mir ja egal sein. Ich bin/war höchst zufrieden mit dem G70/NV40. Auch mit der ATI war ich zufrieden.
Schön wenn dich dieses vestärkte flimmern nicht stört, ich kann darüber einfach nicht hinwegsehen da ich es halt immer sehe. Und es nervt ohne Ende.
Ich habe den Eindruck du suchst mit der Lupe nach Fehlern die Nvidia macht.
Warum fällt es dann den meisten nicht auf, dass der NV40/G70 so ne miese Quali hat???
Haben wir das nicht oft genug durchgekaut? Entweder man sieht es, oder man sieht es nicht. Fakt ist, das definitiv ein Unterschied in der Filterung vorliegt. Im übrigen siehst du anhand der von mir verlinkten Posts, das ich nicht nur schlecht über nVidia rede. Ich hebe genauso oft die positiven Seiten hervor. Im übrigen habe ich auch schon prima auf AMD eingebasht, Na, was fällt dir auf? Richtig, ich bashe alles! Egal ob Intel oder AMD, NVIDIA oder ATI.
Ich verändere die Welt! :D
thade
2005-07-06, 05:54:52
vergessen wirs einfach und schließen Frieden, wenn wir denn jemals Krieg hatten :)
Hab eben grad ne Runde CS:S gespielt und sehe kein Flimmern. Hilfe bin ich blind :eek:
Ailuros
2005-07-06, 06:01:31
Ohne eine 7800 in Echtzeit bis jetzt gesehen zu haben, kann ich auch keine Meinung auessern, aber ich persoenlich werde jedem Verbraucher das Recht zusprechen sich ueber etwas unangenehmes auf einer GPU zu beschweren und ueberhaupt wenn der Preis ziemlich hoch ist.
Es gibt eben Leute die solche Sachen nicht wahrnehmen und andere die mehr empfindlich darauf sind. Ueber die Wahrnehmung von aliasing und die Subjektivitaet dieser Affaere, hat ja Demirug schon 2 oder mehr Posts gewidmet.
Mir ist egal was jeder von Euch bevorzugt; aliasing ist eine extrem unangenehme Affaere ueberhaupt wenn das Auge auf solche Neben-effekte sozusagen "trainiert" ist.
Ailuros
2005-07-06, 06:04:21
vergessen wirs einfach und schließen Frieden, wenn wir denn jemals Krieg hatten :)
Hab eben grad ne Runde CS:S gespielt und sehe kein Flimmern. Hilfe bin ich blind :eek:
Nein und nimm es mir nicht uebel, aber es bestehen sehr wohl Chancen dass Du es einfach nicht bemerken kannst. Auf jeden Fall klingt mir diese These wahrscheinlicher als dass es sich bei den bisherigen Aussagen um Luegen handelt.
BK-Morpheus
2005-07-06, 07:12:04
vergessen wirs einfach und schließen Frieden, wenn wir denn jemals Krieg hatten :)
Hab eben grad ne Runde CS:S gespielt und sehe kein Flimmern. Hilfe bin ich blind :eek:
Hau mal 4xAF rein (oder mehr) und geh bei Aztec als Counter richtung Brückenhaus die Treppe hoch (Bombenplatz) dann nicht ins Brückenhaus rein, sondern nach rechts gehen und da ist auf dem Boden dann ne Fläche mit grünzeug....das flimmert recht übel.
reunion
2005-07-06, 09:47:46
Aber wenn Du beide von beiden IHVs Karten hast, dann stellt dich weder das eine noch das andere zufrieden.
Eigendlich stellt mich beides zufrieden. :)
Bis auf BF2 wäre mir dieses flimmern sowieso nicht aufgefallen, und da scheint der FW 77.72 abhilfe zu schaffen - oder alternativ eben etwas Matsch. :D
Das ganze wird hier IMHO viel zu stark übertrieben, sicher ist es nicht löblich, wenn nV bei einer aktuell konkurrenzlosen High-End-Karte derart an Qualität spart, aber in der Praxis sehen den Unterschied vermutlich nur die Wenigsten.
Flimmer oder Matsch - keine tollen Alternativen.
Naja, Matsch ist relativ, mich stört ein bisschen unschärfe kaum - zumindest ist es mir lieber, als wenn ich durch ein flimmriges Bild Augenschmerzen bekommen. Aber wie schon mehrmals erwähnt, der FW77.72 scheint das Problem zu lösen, muss nur noch gegenchecken, ob man damit auch R300-Niveau erreicht.
reunion
2005-07-06, 09:49:41
Eigentlich wollte ich das ja erst öffentlich machen wenn ich die genaue Ursache kenne. Da ich das Messdiagramm allerdings bereits schonmal gepostet habe ist es eigentlich auch egal.
Auf dem Digramm sieht man das der NV40 bei bestimmten Texel/Pixel verhältnissen (Die stellen sind makiert) sprunghaft eine höhere Pixelleistung bekommt. Das lässt in erster Näherung nur den Schluss zu das dort anders gefiltert wird. Allerdings habe ich die Details noch nicht herausgefunden.
Hast du das auch mal mit dem FW77.72 ausprobiert?
Irgendwelche Änderungen?
Man sollte erst posten, wenn man alles durchgelesen hat. :D
//EDIT: Und warum tritt dies erst nach dem dritten "Bogen" auf?
Betrifft diese Optimierung also nur Stages >0?
Botcruscher
2005-07-06, 10:21:16
So ich hab mir das auch mal auf dem Rechner von nem Kumpel angeschaut. Das sieht ja echt extrem übel aus.
marlurau
2005-07-06, 10:36:15
Leute ,
Bezichtigt hier keinen der Lüge oder Neid oder... ; wenn der eine Dinge sieht,die der andere nicht sieht.
Die Augen der Menschen sind mitnichten gleich !!
Nicht nur Sehstärke, Blendempfindlichkeit, usw.
Ist doch schon beim einfachen Bildschirmbild so.
Für viele reichen 75 hz, andere brauchen mind 85 hz.
Hat demirug nicht gesagt, es wird halt definiert: wenn 90 von 100 Personen kein Flimmern sehen,wird es als flimmerfrei ge- WERTET.
Dies ändert aber nichts daran,dass wirklich Flimmern da ist und 10 Personen es auch SEHEN.
Demirug
2005-07-06, 10:54:17
[QUOTE=reunion//EDIT: Und warum tritt dies erst nach dem dritten "Bogen" auf?
Betrifft diese Optimierung also nur Stages >0?[/QUOTE]
Wahrscheinlich geht es vorher nur im Rauschen der Messung unter. In dem Bereich ist es leider nicht sehr gut zu Messen.
Wieso Stages? Die texture liegt die ganze Zeit nur auf Stage 0.
Eigendlich stellt mich beides zufrieden. :)
Bis auf BF2 wäre mir dieses flimmern sowieso nicht aufgefallen, und da scheint der FW 77.72 abhilfe zu schaffen - oder alternativ eben etwas Matsch. :D
Das ganze wird hier IMHO viel zu stark übertrieben, sicher ist es nicht löblich, wenn nV bei einer aktuell konkurrenzlosen High-End-Karte derart an Qualität spart, aber in der Praxis sehen den Unterschied vermutlich nur die Wenigsten.
Naja, Matsch ist relativ, mich stört ein bisschen unschärfe kaum - zumindest ist es mir lieber, als wenn ich durch ein flimmriges Bild Augenschmerzen bekommen. Aber wie schon mehrmals erwähnt, der FW77.72 scheint das Problem zu lösen, muss nur noch gegenchecken, ob man damit auch R300-Niveau erreicht.
Ich glaube dir, dass es dich nicht so sehr stört. Aber glaube mir und den anderen, dass es uns ziemlich stört. AF ist für mich extrem wichtig, weil ich Texturdetails und gleichzeitig ein absolut ruhiges Bild haben will. Jeder hat da im Sehzentrum eine Reizschwelle. Bei dir scheint diese Reizschwelle nicht erreicht, mir allerdings geht das Flimmern tierisch auf den Sack und es stört mich richtig beim spielen. Wenn ich gute Spiele will, die leider flimmern, dann pack ich meine PS2 aus, aber bei einer PC Highend Karte will ich mir das nicht antun.
Wie gesagt, es gibt bei der Empfindlichkeit gegenüber Bildstörungen viele Stufen. Manchen Leuten geht AA am Allerwertesten vorbei, manchen ist AF egal. manche sehen keine Unterschied mehr zwischen 2*AA und 6*AA, andere sehen keine Unterschied zwischen 16*AF und 4*AF. Und wieder andere bemerken das extreme Überschärfungsfiltern des G70(NV40), anderen geht das Rauschen schlicht auf den Senkel.
Darüber wollen wir ja auch garnicht diskutieren. Es ist vorhanden, das ist Fakt , auch wenn es einige Leute schinebar nicht stört. Der Thread sollte die Ursache zu Tage bringen und das hat er getan. Es handelt sich um extrem unverschämtes Ercheaten von Performance auf kosten der Bildqualität, womit es nVidia geschafft hat einen nicht geringen Teil der Highendkonsumenten vom Kauf einer G70 Karte abzubringen.
Gruß
BiG OnE
2005-07-06, 15:22:43
Moin, moin
ich hab mir eben die 2 JointOps Filmchen angesehen, sorry, aber mir kann doch niemand erzählen, daß er da keinen Unterschied sieht. Und wenn doch, dann hat er ein Problem mit der Wahrnehmung.
Bedingt durch:
A: Eine schlechte Sehleistung.
B: Seine Einstellung gegenüber einer gewissen Firma.
Bis denne ...
reunion
2005-07-06, 15:58:48
Ich glaube dir, dass es dich nicht so sehr stört. Aber glaube mir und den anderen, dass es uns ziemlich stört. AF ist für mich extrem wichtig, weil ich Texturdetails und gleichzeitig ein absolut ruhiges Bild haben will. Jeder hat da im Sehzentrum eine Reizschwelle. Bei dir scheint diese Reizschwelle nicht erreicht, mir allerdings geht das Flimmern tierisch auf den Sack und es stört mich richtig beim spielen. Wenn ich gute Spiele will, die leider flimmern, dann pack ich meine PS2 aus, aber bei einer PC Highend Karte will ich mir das nicht antun.
Wie gesagt, es gibt bei der Empfindlichkeit gegenüber Bildstörungen viele Stufen. Manchen Leuten geht AA am Allerwertesten vorbei, manchen ist AF egal. manche sehen keine Unterschied mehr zwischen 2*AA und 6*AA, andere sehen keine Unterschied zwischen 16*AF und 4*AF. Und wieder andere bemerken das extreme Überschärfungsfiltern des G70(NV40), anderen geht das Rauschen schlicht auf den Senkel.
Darüber wollen wir ja auch garnicht diskutieren. Es ist vorhanden, das ist Fakt , auch wenn es einige Leute schinebar nicht stört. Der Thread sollte die Ursache zu Tage bringen und das hat er getan. Es handelt sich um extrem unverschämtes Ercheaten von Performance auf kosten der Bildqualität, womit es nVidia geschafft hat einen nicht geringen Teil der Highendkonsumenten vom Kauf einer G70 Karte abzubringen.
Gruß
Natürlich ist es eine ziemliche Schweinerei, was nV hier den High-End-Usern verkaufen will, unabhängig davon, ob es jemand mehr- oder weniger Wahrnimmt. Ich wollte damit diesen Bildqualitätverlust keineswegs verharmlosen. Und ja, es ist definitiv vorhanden, nur entsteht bei mir der Eindruck, dass sich hier viele Leute über etwas aufregen, was sie in der Praxis noch nichtmal erleben durften. In wie weit dies auf der Geforce 7800GTX weiter verstärkt wurde, kann ich nicht beurteilen, jedoch empfinde ich dies zumindest auf meiner 6600GT als kaum der Rede wert. Im übrigen scheint der neue FW 77.72 hier deutliche Verbesserungen zu bringen, auch wenn es leider immer noch nicht vollständig beseitigt wurde. Was bleibt ist ein verdammt bitterer Nachgeschmack, der mal wieder zeigt, wie dreist ein IHV werden kann, solange sich keiner darüber aufregt. Aber ich denke diesen Problem wird sich bald von selbst lösen - spätestens wenn erstmal des Web von Tests überflüttet wurde, und selbst der primitivste User erkannt hat, was hier vorgeht.
Moin, moin
ich hab mir eben die 2 JointOps Filmchen angesehen, sorry, aber mir kann doch niemand erzählen, daß er da keinen Unterschied sieht. Und wenn doch, dann hat er ein Problem mit der Wahrnehmung.
Bedingt durch:
A: Eine schlechte Sehleistung.
B: Seine Einstellung gegenüber einer gewissen Firma.
Bis denne ...
Und ich kann dir versichern, dass das in echt noch viel schlimmer aussieht. Gerade die Holztexturen erzeugen auf dem NV40/G70 Augenkrebs, so stark flimmert es.
Demirug
2005-07-06, 16:42:41
Natürlich ist es eine ziemliche Schweinerei, was nV hier den High-End-Usern verkaufen will, unabhängig davon, ob es jemand mehr- oder weniger Wahrnimmt. Ich wollte damit diesen Bildqualitätverlust keineswegs verharmlosen. Und ja, es ist definitiv vorhanden, nur entsteht bei mir der Eindruck, dass sich hier viele Leute über etwas aufregen, was sie in der Praxis noch nichtmal erleben durften. In wie weit dies auf der Geforce 7800GTX weiter verstärkt wurde, kann ich nicht beurteilen, jedoch empfinde ich dies zumindest auf meiner 6600GT als kaum der Rede wert. Im übrigen scheint der neue FW 77.72 hier deutliche Verbesserungen zu bringen, auch wenn es leider immer noch nicht vollständig beseitigt wurde. Was bleibt ist ein verdammt bitterer Nachgeschmack, der mal wieder zeigt, wie dreist ein IHV werden kann, solange sich keiner darüber aufregt. Aber ich denke diesen Problem wird sich bald von selbst lösen - spätestens wenn erstmal des Web von Tests überflüttet wurde, und selbst der primitivste User erkannt hat, was hier vorgeht.
Solange "der User" das Balkenglotzen betribt wird sich da gar nichts ändern.
In gewisser Weise kann ich da die IHVs sogar verstehen. Wenn man ordentlich filtert und deswegen der Balken nicht ganz so lang wird bekommt man eine Ohrfeige. Ist der Balken dagegen schön lang aber der Filter schlecht wird man für den tollen Leistungszuwachs gelobt.
reunion
2005-07-06, 19:07:57
Solange "der User" das Balkenglotzen betribt wird sich da gar nichts ändern.
In gewisser Weise kann ich da die IHVs sogar verstehen. Wenn man ordentlich filtert und deswegen der Balken nicht ganz so lang wird bekommt man eine Ohrfeige. Ist der Balken dagegen schön lang aber der Filter schlecht wird man für den tollen Leistungszuwachs gelobt.
Wie wahr.
Leider ist das Ganze mehr als kompliziert, und das einzige, was man leicht vergleichen kann, sind eben die fps.
LovesuckZ
2005-07-06, 19:21:42
[...] wie dreist ein IHV werden kann, solange sich keiner darüber aufregt. Aber ich denke diesen Problem wird sich bald von selbst lösen - spätestens wenn erstmal des Web von Tests überflüttet wurde, und selbst der primitivste User erkannt hat, was hier vorgeht.
Die Kaeufer sind selbst schuld.
Nvidia gibt Ihnen nur, was sie verlangen.
Ausserdem sollte es doch laengst bekannt sein, dass die Filterung für viele Tester kein qualitaetsmerkmal sind und sie diese nur "zuschalten". Daher wird es auch keinen großen Aufschrei geben.
Die Kaeufer sind selbst schuld.
Nvidia gibt Ihnen nur, was sie verlangen.
Ausserdem sollte es doch laengst bekannt sein, dass die Filterung für viele Tester kein qualitaetsmerkmal sind und sie diese nur "zuschalten". Daher wird es auch keinen großen Aufschrei geben.
nVidia gibt ihnen nur was sie verlangen? Bist Du nicht der Typ der damals auf ATI rumgebasht hat weil sie ihr AF gegenüber dem R200 wenigstens verbessert haben?
Highendkunden sollten zumindest ein flimmerfreis Bild verlangen und bei nVidia wurd das von Generation zu Generation schlechter bis hin zum unverschämt schlechtem AF des G70..
LovesuckZ
2005-07-06, 20:32:43
Highendkunden sollten zumindest ein flimmerfreis Bild verlangen[...]
Warum jetzt?
Eine vielzahl der User wollte Optimierungen, sie bekamen sie. Es wird kein zurueck in absehbarer Zeit geben.
Warum jetzt?
Eine vielzahl der User wollte Optimierungen, sie bekamen sie. Es wird kein zurueck in absehbarer Zeit geben.
Wer wollte Optimerungen? Niemand wollte Optmierungen, nur hat ATIs winkelabhängiges AF zu Zeiten des R300 bei recht wenig Spielen gestört hat. Geflimmert hat da trotzdem nichts, allerhöchstens mal ein Hausdach oder so war mal etwas unscharf. Optimeren ist eine Sache, das AF völlig kaputt zu optimieren , wie beim G70 passiert, eine ganz, ganz andere.
Im Endeffekt ist bei modernen Spielen mit immer mehr Polygonen diese Art des AF immer schlechter geeignet. Da erwartet man eher eine seichte Evolution, statt so krasse Rückschritte wie bei nVidia. Und ich bin mir sicher, dass einer der beiden, ob ATI oder nVidia, in einem der nächsten Chips wieder vernünftiges AF anbieten wird.
DanMan
2005-07-06, 20:50:36
Bla...
Winkelabhängiges AF mag zu Zeiten von HL1 nützlich gewesen sein, als alles noch aus rechteckigen Klötzen bestand. Heute ist aber unregelmäßiges Gelände die Regel, weshalb man ständig scharfe Texturen an unscharfe grenzen sieht bei Verwendung von AF>2x. Völlig indiskutabel was mich angeht.
Bla...
Winkeloptimiertes AF mag zu Zeiten von HL1 nützlich gewesen sein, als alles noch aus rechteckigen Klötzen bestand. Heute ist das Gelände aber eher ungerade, weshalb man ständig scharfe Texturen an unscharfe grenzen sieht bei Verwendung von AF>2x. Völlig indiskutabel was mich angeht.
Richtig, das Problem wird immer schlimmer, um so mehr Polygone verbaut werden. Und als ob das nicht genug wäre, hat nVidia sich ATIs nicht nur abgekupfert, sondern es auch noch weiter verschlechtert bis hin zum Flimmertod.
Für ATI war das AF damals vom R200 ausgesehen ein Fortschritt. nVidia hat ihr eigenes hochwertigeres AF geopfert und bietet nun die mit Abstand schlechteste Texturfilterqualität und das nur für ein paar Prozentpunkte mehr. Und der User fragt sich dann wieso es so flimmert.
Als ob ATIs winkelabhängiges AF rechtfertigen würde, dass nVidia das AF nun völlig kaputt optimiert. Auf der anderen Seite bietet nVida ja TAA und SSAA an, denn scheinbar kann man mit qualitätssteigernden Filtern immer noch Kunden locken.
Quasar
2005-07-06, 20:59:42
Bla...
Winkelabhängiges AF mag zu Zeiten von HL1 nützlich gewesen sein, als alles noch aus rechteckigen Klötzen bestand. Heute ist aber unregelmäßiges Gelände die Regel, weshalb man ständig scharfe Texturen an unscharfe grenzen sieht bei Verwendung von AF>2x. Völlig indiskutabel was mich angeht.
100% purest Full Ack, real irish draught. :up:
DrFreaK666
2005-07-06, 21:21:28
Bla...
Winkelabhängiges AF mag zu Zeiten von HL1 nützlich gewesen sein, als alles noch aus rechteckigen Klötzen bestand. Heute ist aber unregelmäßiges Gelände die Regel, weshalb man ständig scharfe Texturen an unscharfe grenzen sieht bei Verwendung von AF>2x. Völlig indiskutabel was mich angeht.
Lustigerweise gabs AFAIK Anno 98 noch kein winkelabhängiges AF
Demirug
2005-07-06, 21:28:14
Wer wollte Optimerungen? Niemand wollte Optmierungen, nur hat ATIs winkelabhängiges AF zu Zeiten des R300 bei recht wenig Spielen gestört hat. Geflimmert hat da trotzdem nichts, allerhöchstens mal ein Hausdach oder so war mal etwas unscharf. Optimeren ist eine Sache, das AF völlig kaputt zu optimieren , wie beim G70 passiert, eine ganz, ganz andere.
Im Endeffekt ist bei modernen Spielen mit immer mehr Polygonen diese Art des AF immer schlechter geeignet. Da erwartet man eher eine seichte Evolution, statt so krasse Rückschritte wie bei nVidia. Und ich bin mir sicher, dass einer der beiden, ob ATI oder nVidia, in einem der nächsten Chips wieder vernünftiges AF anbieten wird.
Das Problem ist das ein IHV seine noch "schärferen Optimierungen" mit den "Optimierungen" der Konkurenz rechtfertigt. Ein Teufelskreis wenn man mich fragt. Ich hoffe wirklich das MS für WGF 2.0 vorschreibt wie zu filtern ist denn anders scheint mir diese Abwärtsspiralle nicht zu stoppen zu sein. Den solange die Texturefilter bestenfalls mit einem Satz in einem Review erwähnt werden und man sonst nur lange Balken sieht würde sich die IHVs mit ordentlicher Filterung ja selbst ein Bein stellen.
Zudem sollte man endlich die Finger von den bekannten AF-Testern lassen. Bei ATI bringt das sowieso nichts mehr weil der Treiber die Gefärbten Mipmaps erkennt und die Optimierungen deaktiviert. Aber selbst wenn sie noch aktiv sind kann man mit diesen gefärbten Mipmaps nur die Mipmap Übergänge nachweisen.
Demirug
2005-07-06, 21:28:55
Lustigerweise gabs AFAIK Anno 98 noch kein winkelabhängiges AF
ATI hatte schon immer Winkelabhängiges AF.
DrFreaK666
2005-07-06, 21:30:27
ATI hatte schon immer Winkelabhängiges AF.
Was ATI-Grafikkarten gabs 98?
1998 waren Voodoo2 unr TNT2 aktuell.
Dunkeltier
2005-07-06, 21:48:23
Was ATI-Grafikkarten gabs 98?
1998 waren Voodoo2 unr TNT2 aktuell.
Es gab die ATI Rage (Pro) Serie, sowie kurze Zeit später die Ati Ragy Fury Maxx. ;)
Lustigerweise gabs AFAIK Anno 98 noch kein winkelabhängiges AFRichtig - da gab's noch gar keins...
Das Problem ist das ein IHV seine noch "schärferen Optimierungen" mit den "Optimierungen" der Konkurenz rechtfertigt. Ein Teufelskreis wenn man mich fragt.
Das ist doch aber nicht zwingend so. Auf der einen Seite entwickelt nVidia das AA weiter. Gammkorrektur, TSAA und beim NV40 4*SG Muster. Das kostet auch Leistung, Transistoren und Entwicklungsrecourcen, und trotzdem entwickelt man das weiter. Beim AF könnte man das ebenso machen, gerade wo nVidia da doch noch vor zwei Genrerationen einen Vorsprung hatte. Man kann doch miese Qualität nicht damit rechtfertigen, dass die Konkurrenz auch keine optimale Qualität liefert. Wo kommen wir denn da hin, wenn sich die IHVs in Sachen minderwertige Filter bei jeder Generation überbieten wollten? Wollen wir dann bald Bloom-AA in Kauf nehmen, weil irgendein IHV damit gute Benchmarkwerte erreicht?
ATIs AF beim R300 war sicher nicht so toll wie das eines NV20l, aber immerhin ein Fortschritt. Das AA ebenfalls und es wurde qualitätiv erst jetzt mit dem G70 erreicht (bis auf 6*MSAA, was wohl nicht so schlimm ist). nVidia macht das gegenteil, sie verschlechtern sich. Was hätte man wohl gesagt, wenn ATI ihr AA verschlechtern würde, weil nVidia ja auch nichts besseres anbietet?
Ich hoffe wirklich das MS für WGF 2.0 vorschreibt wie zu filtern ist denn anders scheint mir diese Abwärtsspiralle nicht zu stoppen zu sein. Den solange die Texturefilter bestenfalls mit einem Satz in einem Review erwähnt werden und man sonst nur lange Balken sieht würde sich die IHVs mit ordentlicher Filterung ja selbst ein Bein stellen.
Das wäre schön, jedenfalls wäre es schön, wenn die Vorgaben auch wirklich Qualität garantieren würden.
Ich persönlich hoffe ja darauf, dass einer der beiden von alleine das AF verbessert. Ich glaube das könnte man durchaus postitv vermarkten, wenn man es richtig anstellt. Die Kunden haben es lieber, wenn man ehrlich zu ihnen ist und honrieren das auch. Genau das ist auch der Grund weswegen der G70 für mich gestorben ist.
Zudem sollte man endlich die Finger von den bekannten AF-Testern lassen. Bei ATI bringt das sowieso nichts mehr weil der Treiber die Gefärbten Mipmaps erkennt und die Optimierungen deaktiviert. Aber selbst wenn sie noch aktiv sind kann man mit diesen gefärbten Mipmaps nur die Mipmap Übergänge nachweisen.
So siehts aus.
Bla...
Winkelabhängiges AF mag zu Zeiten von HL1 nützlich gewesen sein, als alles noch aus rechteckigen Klötzen bestand. Heute ist aber unregelmäßiges Gelände die Regel, weshalb man ständig scharfe Texturen an unscharfe grenzen sieht bei Verwendung von AF>2x. Völlig indiskutabel was mich angeht.
winkelabhängiges AF war nie nützlich. wenn eine rein rechteckige struktur verwendet wird bringt es performancemäßig nichts, wird eine organische struktur verwendet bringt es zwar einiges an performance, kostet aber viel bildqualität.
Richtig - da gab's noch gar keins...
Hehe, wollte ich auch gerade schreiben. 98 gabs noch garnicht die Leistung um sowas bei ergnomischen Framraten zu betreiben.
Da die Pixelfüllrate mit jeder neuen Generation an Bedeutung verlieren wird, wird es da keine Verbesserungen in Sachen Optimierungen/Winkelabhängigkeit geben, der kram is da und fertig, wer dran schuld ist ist egal, ist das Kind im Brunnen wägt man ja auch eher ab ob man es nochmal rausbekommt und nicht wers reingestupst hat, schwachfug das gebashe hier wieder, seit Jahren immer der selbe mist, man muss ja sein Ego polieren...
Man kann nur hoffen das manche Shadereffekte bald Bi-Trilinear gefiltert werden können, geht das eigentlich rein auf die Arithmetische Leistung dann?
Man kann nur hoffen das manche Shadereffekte bald Bi-Trilinear gefiltert werden können, geht das eigentlich rein auf die Arithmetische Leistung dann?Hä? Was soll denn bitte Bi-Trilinear sein? Es gibt entweder Bilinear oder Trilinear.
Man könnte theoretisch wirklich den Shader den kompletten Filter machen lassen, nur wäre das jenseits von "nicht performant" vor allem wenn es dann auch noch anisotropisch sein soll.
Sry, ich meinte Bi-/Trilinear (oder halt).
Bezugnehmend auf das hier:
http://www.3dcenter.org/artikel/nv40_technik/index5.php
"Einfach gesagt ist Vertexshader 3.0 der CineFX-Vertexshader 2.X, plus Textur-Sampling. Dieses Textur-Sampling ist nicht "kostenlos": Um der Vertexengine zu helfen, die beim Texturzugriff entstehenden Latenzen zu verstecken, sollte man direkt nach den Texturzugriff einige Textur-unabhängige Befehle setzen. Während MIP-Mapping unterstützt wird, gibt es leider keine Filterung. Mit anderen Worten, der Vertexshader beherrscht nur Pointsampling. Natürlich kann man bilineare oder trilineare Filterung nachstellen, in dem man einige zusätzliche Berechnungen und Texturzugriffe vornimmt."
Oder ist das falsch gedacht meinerseits?
Es geht dabei um den Vertexshader, der zeichnet keine Bildpunkte.
Aber man könnte wie gesagt das Verfahren auch für Pixelshader verwenden.
Das ist doch aber nicht zwingend so. Auf der einen Seite entwickelt nVidia das AA weiter. Gammkorrektur, TSAA und beim NV40 4*SG Muster. Das kostet auch Leistung, Transistoren und Entwicklungsrecourcen, und trotzdem entwickelt man das weiter. Beim AF könnte man das ebenso machen, gerade wo nVidia da doch noch vor zwei Genrerationen einen Vorsprung hatte. Man kann doch miese Qualität nicht damit rechtfertigen, dass die Konkurrenz auch keine optimale Qualität liefert. Wo kommen wir denn da hin, wenn sich die IHVs in Sachen minderwertige Filter bei jeder Generation überbieten wollten? Wollen wir dann bald Bloom-AA in Kauf nehmen, weil irgendein IHV damit gute Benchmarkwerte erreicht?
ATIs AF beim R300 war sicher nicht so toll wie das eines NV20l, aber immerhin ein Fortschritt. Das AA ebenfalls und es wurde qualitätiv erst jetzt mit dem G70 erreicht (bis auf 6*MSAA, was wohl nicht so schlimm ist). nVidia macht das gegenteil, sie verschlechtern sich. Was hätte man wohl gesagt, wenn ATI ihr AA verschlechtern würde, weil nVidia ja auch nichts besseres anbietet?
Das wäre schön, jedenfalls wäre es schön, wenn die Vorgaben auch wirklich Qualität garantieren würden.
Ich persönlich hoffe ja darauf, dass einer der beiden von alleine das AF verbessert. Ich glaube das könnte man durchaus postitv vermarkten, wenn man es richtig anstellt. Die Kunden haben es lieber, wenn man ehrlich zu ihnen ist und honrieren das auch. Genau das ist auch der Grund weswegen der G70 für mich gestorben ist.
So siehts aus.
Naja, wenn nur tolles AA aber nicht AF gelobt wird, warum sollte man das dann weiterhin anbieten wenn es Schwanzlängen verkleinert die für die überwältigende Mehrheit immer noch das einzige Kaufkriterium darstellt?
Da die Pixelfüllrate mit jeder neuen Generation an Bedeutung verlieren wird, wird es da keine Verbesserungen in Sachen Optimierungen/Winkelabhängigkeit geben, der kram is da und fertig, wer dran schuld ist ist egal, ist das Kind im Brunnen wägt man ja auch eher ab ob man es nochmal rausbekommt und nicht wers reingestupst hat, schwachfug das gebashe hier wieder, seit Jahren immer der selbe mist, man muss ja sein Ego polieren...
Man kann nur hoffen das manche Shadereffekte bald Bi-Trilinear gefiltert werden können, geht das eigentlich rein auf die Arithmetische Leistung dann?
Es geht hier ja nicht um die Pixelfüllrate als limitierenden Faktor, das wär ja kein Grund Filterleistung zu erhöhen. Die Texelfüllrate und das 1-TMU Design zwingen die IHVs zu solchen miesen Tricks. Das Leistungsgeschinde wird erst dann aufhören, wenn die Hersteller zum ersten mal vollwertige Tri TMUs (also wie beim Gammacrome) verbauen. Optimierungen beim AF lohnen sich leider aber immer noch dann.
Das ist doch aber nicht zwingend so. Auf der einen Seite entwickelt nVidia das AA weiter. Gammkorrektur, TSAA und beim NV40 4*SG Muster. Das kostet auch Leistung, Transistoren und Entwicklungsrecourcen, und trotzdem entwickelt man das weiter. Beim AF könnte man das ebenso machen, gerade wo nVidia da doch noch vor zwei Genrerationen einen Vorsprung hatte. Man kann doch miese Qualität nicht damit rechtfertigen, dass die Konkurrenz auch keine optimale Qualität liefert. Wo kommen wir denn da hin, wenn sich die IHVs in Sachen minderwertige Filter bei jeder Generation überbieten wollten? Wollen wir dann bald Bloom-AA in Kauf nehmen, weil irgendein IHV damit gute Benchmarkwerte erreicht?
[...]
Es ist in meinen Augen bekloppt transparent AA im gleichen Zuge mit flimmerigen Texturen einzuführen. Aber NV hat es getan - jetzt flimmern nicht mehr die Alpha-Test Texturen, sondern alle anderen :ucrazy:
In diesem Sinne: Full Ack.
reunion
2005-07-07, 12:02:42
Die Kaeufer sind selbst schuld.
Nvidia gibt Ihnen nur, was sie verlangen.
Ausserdem sollte es doch laengst bekannt sein, dass die Filterung für viele Tester kein qualitaetsmerkmal sind und sie diese nur "zuschalten". Daher wird es auch keinen großen Aufschrei geben.
Du machst es dir aber verdammt einfach.
Die Käufer verlangen keine schlechtere Filterung, sie verlangen mehr Performance - dies kann man allerdings auch anders erreichen.
Das Problem ist, dass die wenigsten überhaupt wissen, dass die Filterqualität ständig reduziert wird, da es leider äußerst kompliziert ist, dies nachzuweisen, bzw. die Wenigsten eine Unterschied sehen würden.
Gerade jetzt, hätte nV die einmalige Möglichkeit, sich trotz eines hochwertigeren Filters, deutlich vor der Konkurrenz plazieren zu können.
Und was macht man? Man verschlechtert die Qualität "sicherheitshalber" noch weiter.
reunion
2005-07-07, 12:06:30
Das Problem ist das ein IHV seine noch "schärferen Optimierungen" mit den "Optimierungen" der Konkurenz rechtfertigt. Ein Teufelskreis wenn man mich fragt.
Und statt zu versuchen, sich durch bessere Filterung von der Konkurrenz abzuheben, legt man einfach noch eins drauf. Eine Farce, wenn man mich fragt.
Dr.Dirt
2005-07-07, 12:08:49
Es ist in meinen Augen bekloppt transparent AA im gleichen Zuge mit flimmerigen Texturen einzuführen.
Nein, die flimmerigen Texturen gab es schon beim Vorgänger, sie wurden nur noch weiter "optimiert". :hammer:
Nein, die flimmerigen Texturen gab es schon beim Vorgänger, sie wurden nur noch weiter "optimiert". :hammer:
Ich weiss, ich hab den Vorgänger :D
Damit DAoC in TOA zu spielen ist das Grauen ;)
Nur mit fummeln am LOD bekommt man das Flimmern halbwegs weg. Auch WoW Texturen flimmern teilweise arg. Ich empfinde das als sehr nervig.
SentinelBorg
2005-07-07, 14:33:47
Was mich jetzt jedoch mal interessieren würde. Wenn man ein positives LoD einstellt, dann wird das Flimmern stark reduziert. Gleichzeitig sollte dabei aber auch die Performance nach oben gehen. Nun ist also die Frage, warum ist der serienmässige LoD-Wert so? Wieviel unschärfer werden die Texturen bei einer positiven Anhebung des Wertes? Vor allem im Vergleich zu ATI.
Denn wenn man rausfindet, bei welchem LoD die Texturschärfe von ATI und Nvidia ca. gleich sind, dann könnte man mal bei diesen Einstellungen das AF vergleichen. Denn dass zu scharfes LoD Flimmern erzeugt, hatten wir doch am Anfang bei der NV40 genauso, bis dann das LoD mit den Treibern erst abgesenkt wurde und später dann noch die Clamp-Schalter für einige Games kam.
Sentinel
Was mich jetzt jedoch mal interessieren würde. Wenn man ein positives LoD einstellt, dann wird das Flimmern stark reduziert. Gleichzeitig sollte dabei aber auch die Performance nach oben gehen. Nun ist also die Frage, warum ist der serienmässige LoD-Wert so?
ich würde einfach mal tippen dass man auf die "üblichen" maßnahmen der reviewer, die bildqualität zu beurteilen, "rücksicht" genommen hat.
reviewer vergleichen meist screenshots verschiedener grafikkarten.
auf diesen ist dann plötzlich nvidia schärfer -> besser, auch wenn es in bewegung schlechter aussieht (was kaum ein reviewer bemerkt)
die performancegewinne/verluste durch lod-spielereien sollten eigentlich vernachlässigbar sein, so dass man nicht wirklich was verliert.
DanMan
2005-07-07, 16:10:11
Das Problem ist, dass die wenigsten überhaupt wissen, dass die Filterqualität ständig reduziert wird, da es leider äußerst kompliziert ist, dies nachzuweisen, bzw. die Wenigsten eine Unterschied sehen würden.
Vorsicht! *Reunion summons Tigerchen* Zu spät... selber schuld. :D
An die Haarspalter: Ich schrieb "zu Zeiten von HL1" und nicht "zum Release von HL1". Das Spiel hielt sich schließlich 5 Jahre. Ihr wisst genau wie ich das gemeint habe, also spart euch in Zukunft eure unsachlichen Kommentare.
Ich find es einfach unerhört, dass man an so grundlegenden Sachen wie dem Texturfilter so herumschraubt. Und warum? Nur weil nirgends definiert ist, wie es zu sein hat, und man sich daraus die Erlaubnis zum Herumpfuschen ableitet. Ne danke, da bleib ich lieber weiter bei meiner GF4 - da hab ich wenigstens noch die Wahl. Hilft nur Abstrafen mit (Liebes-)Geldentzug, also werd ich mir wohl doch noch ne olle S3-Karte kaufen müssen bis ich mir dann ne PS3 kaufe um diesem Problem von vornherein aus dem Weg zu gehen. Selber schuld nV (ja, ich weiß von wem der RSX ist).
S3-Karte kaufen müssen bis ich mir dann ne PS3 kaufe um diesem Problem von vornherein aus dem Weg zu gehen. Selber schuld nV (ja, ich weiß von wem der RSX ist).
vorsicht, S3 hat zwar wenigstens keine winkeloptimierung, von flimmerproblemen hab ich allerdings auch schon gehört.
... Denn wenn man rausfindet, bei welchem LoD die Texturschärfe von ATI und Nvidia ca. gleich sind, dann könnte man mal bei diesen Einstellungen das AF vergleichen.
Die testurschärfe ist bei ATI und nVdia gleich, wenn man nicht am LOD rumfummelt. Das ist ja der Mist an der Sache. Bei ATI ist es genauso scharf, aber es flimmert nicht.
Demirug
2005-07-07, 17:41:34
Die testurschärfe ist bei ATI und nVdia gleich, wenn man nicht am LOD rumfummelt. Das ist ja der Mist an der Sache. Bei ATI ist es genauso scharf, aber es flimmert nicht.
Wenn es gleich scharf wäre müsste es auch gleich flimmern.
Zudem sind die Filterprofile der Optimierungen zu unterschiedlich um von identischer schärfe zu sprechen.
Wenn es gleich scharf wäre müsste es auch gleich flimmern.
Überschärfe sieht man aber kaum auf einem Bild, sondern primär am flimmern. Ich wollte schlicht daruf hinaus, dass ATIs AF nicht unterscharf ist. Und wenn man beim NV40 am LOD rumfummelt bis das Flimmern weg ist, dann ist die Schärfe total suboptimal und weit unter der ATI Schärfe - sprich matschig. Daher ist der Vorschlag von SentinelBorg hinfällig.
Und ob das Flimmern wirklich nur durch falsches LOD kommt? Ich denke nicht nur das LOD ist schuld, ansonsten sollte das Flimmern schon aufhören, bevor es matschig wird, was es aber nicht tut.
Interessanter wäre die Frage, wie matschig sieht das Bild auf einem NV40/G70 aus, wenn man den LOD soweit anpasst, so dass das Flimmern verschwindet!
GloomY
2005-07-07, 19:43:56
Was mich jetzt jedoch mal interessieren würde. Wenn man ein positives LoD einstellt, dann wird das Flimmern stark reduziert. Gleichzeitig sollte dabei aber auch die Performance nach oben gehen. Nun ist also die Frage, warum ist der serienmässige LoD-Wert so?Der LOD-Wert ist richtig. Das Flimmern kommt nicht dadurch zustande, dass die Frequenzen, die abgetastet werden, zu hoch sind (zu niedriger LOD Wert), sondern weil an Samplen gespart wird, also die effektive Abtastrate dann zu niedrig ist. Das LOD ist richtig - richtig für Sampling, ohne diese komischen "Optimierungen" der IHVs. Diese sparen sich halt einige Samples, wodurch eben eine Unterabtastung stattfindet. Damit flimmert es dann. :(
Durch das Sparen an Samplen nimmt die Performance zu, denn man kann effektiv mehr Pixel pro Zeit berechnen. Die Hitrate in den Texture-Caches nimmt bei Aliasing zwar ab, aber es ist immer noch so, dass Bandbreite nicht so wichtig wie Füllrate ist. Damit wird es effektiv schneller - und das Bild hässlicher.
Der LOD-Wert ist richtig. Das Flimmern kommt nicht dadurch zustande, dass die Frequenzen, die abgetastet werden, zu hoch sind (zu niedriger LOD Wert), sondern weil an Samplen gespart wird, also die effektive Abtastrate dann zu niedrig ist. Das LOD ist richtig - richtig für Sampling, ohne diese komischen "Optimierungen" der IHVs. Diese sparen sich halt einige Samples, wodurch eben eine Unterabtastung stattfindet. Damit flimmert es dann. :(
Durch das Sparen an Samplen nimmt die Performance zu, denn man kann effektiv mehr Pixel pro Zeit berechnen. Die Hitrate in den Texture-Caches nimmt bei Aliasing zwar ab, aber es ist immer noch so, dass Bandbreite nicht so wichtig wie Füllrate ist. Damit wird es effektiv schneller - und das Bild hässlicher.
Das ist doch mal ne kurze, knackige Erklärung, die ziemlich einleuchtend ist. Danke. :)
GloomY
2005-07-08, 13:44:09
Tja, schade dass es 8 Seiten dauern muss, um die eigentliche Frage zu beantworten. :|
Leider war ich in den letzten Tagen kaum im Forum, sonst hätte ich hier in diesem Thread wohl ein paar Mal ermahnt. Schliesslich ist das nicht das Graka-Diskussions Forum sondern Technologie. Ein bisschen Niveau und Postings mit Fakten sollte also schon sein...
In meinen Augen kommt es mir so vor, als ob der LOD total verschoben oder an der Filterung extrem gepfuscht worden ist, um damit insgeheim an Füllrate zu sparen.Am LOD-Bias zu spielen bringt da keine Performance. Der Nvidia-Flimmer-Filter berechnet beim AF zu wenig Samples. Das heißt, in der Folge haben die Samples zu große Abstände untereinander, und Teile der Texturinformationen werden somit gar nicht berücksichtigt. Folge: Aliasing. Auswirkung: Flimmern.
Auch gute Texturfilter, die nicht unterfiltern, können bei "schlechtem" Texturinhalt Flimmern erzeugen.
Thanatos
2005-07-09, 15:48:26
Könnte man dagegen irgendwas "softwaretechnisch" unternehmen?;(
Könnte man dagegen irgendwas "softwaretechnisch" unternehmen?;(Wenn der Treiber keine Lust hat, mitzuspielen: Nein.
Ich sehe hier eine Autosuggestion der BWL-studierten Entscheider. Angenommen, die Verkäufe gehen zurück, nicht zuletzt wegen des schlechten Texturfilters. Folge? Karte muss schneller werden.
Das perfide ist ja, dass es auch andersrum so gemacht wird. G70 ist zweifelsohne der schnellste Consumer-Chip, den man für Geld bekommt. Und wie sieht der Texturfilter aus? Schlechter als beim Vorgänger, welcher wiederum eine erhebliche Verschlechterung zu seinem Vorgänger einführte, und das obwohl die Leistung drastisch gesteigert werden konnte.
Nvidia und ATI zeigen, wie sie den Highend-Kunden sehen: Als Melkkuh, der sein Geld für winkelabhängiges, teilweise flimmerndes AF ausgibt. ATI wirbt beim R420 mit "High Definition", was angesichts der mieserablen Filter-Präzision lächerlich ist. Nvidia wirbt mit SM3 und Beschleunigung von HDR-Rendering – als ob das was bringt, wenn Texturen künstlich verschlechtert werden, also flimmern und ebenfalls nicht gleichmäßig (winkelunabhängig) anisotrop gefiltert werden.
Thanatos
2005-07-09, 16:09:24
Und wenn man mal DirectX direkt anhaut?
Also mit dem DirectX tweaker gegensteuert, oder lässt die karte sich da wirklich üüüüüüüüüüüüüüüüberhaupt NICHT davon abbringen?:usad:
Sorry, wegen der doch leicht dämlichen frage ;(
Das ist Treibersache, darauf hat man weder mit DX noch sonstwie Einfluss (Falls die Karte überhaupt korrekt filtern kann).
Das ist Treibersache, darauf hat man weder mit DX noch sonstwie Einfluss (Falls die Karte überhaupt korrekt filtern kann).Wenn du mit "korrekt" meinst, nicht zu unterfiltern: Dass der G70 das HW-seitig kann, davon gehe ich aus.
Ich gehe auch davon aus. Ich glaube sogar dass NV40/G70 winkelunabhängig filtern kann...
Demirug
2005-07-09, 17:46:16
Mal ein bischen Zahlenmaterial beisteuern :D
6800 GT
HQ:8xAF = 23093,61 Filtermarks
Q(OFF-OFF-OFF):8xAF = 19784,77 Filtermarks
Q(ON-ON-ON):8xAF = 16026,54 Filtermarks
P:8xAF = 13035,11 Filtermarks
Point (ohne Mipmaps) : 1400 Filtermarks
Linear (ohne Mipmaps) : 2794,75 Filtermarks
BiLinear:3812,125 Filtermarks
TriLinear:5590 Filtermarks
Ich gehe auch davon aus. Ich glaube sogar dass NV40/G70 winkelunabhängig filtern kann...Kirk wandt sich wie ein Aal, als ich ihn darauf ansprach. Ich halte es weiterhin für denkbar, aber es wäre übertrieben zu sagen dass ich es glaube.
Mal ein bischen Zahlenmaterial beisteuern :D
6800 GT
HQ:8xAF = 23093,61 Filtermarks
Q(OFF-OFF-OFF):8xAF = 19784,77 Filtermarks
Q(ON-ON-ON):8xAF = 16026,54 Filtermarks
P:8xAF = 13035,11 Filtermarks
Point (ohne Mipmaps) : 1400 Filtermarks
Linear (ohne Mipmaps) : 2794,75 Filtermarks
BiLinear:3812,125 Filtermarks
TriLinear:5590 Filtermarks:knuddel:
Was sagt eine GeForce3 oder 4 bei 8x AF HQ?
Demirug
2005-07-09, 18:03:35
:knuddel:
Was sagt eine GeForce3 oder 4 bei 8x AF HQ?
Die GF3 ist leider vor einem halben Jahr abgeraucht.
Hä? Was soll denn bitte Bi-Trilinear sein? Es gibt entweder Bilinear oder Trilinear.
Man könnte theoretisch wirklich den Shader den kompletten Filter machen lassen, nur wäre das jenseits von "nicht performant" vor allem wenn es dann auch noch anisotropisch sein soll.Er meinte sicherlich Bi- oder Trilinear. Im Shader könnte (und sollte) man auf bestimmte Art anisotrop (nicht anistropisch) Supersampling machen. Ich würde in Dingen Material Shading einen anderen Weg zur Aliasing-Vermeidung vorschlagen, aber der hätte auch seine Nachteile.
Die GF3 ist leider vor einem halben Jahr abgeraucht.Grrr. Dann halt GeForce FX? Oder kannst du den Filtermark jemandem schicken, der noch eine GF3 oder GF4 Ti hat?
Demirug
2005-07-09, 18:09:05
Grrr. Dann halt GeForce FX? Oder kannst du den Filtermark jemandem schicken, der noch eine GF3 oder GF4 Ti hat?
Das Teil berücksichtigt im Moment sowieso noch keine Winkel Abhängigkeit. Es sucht primär noch Unterfilterung die man eben mit den üblichen Tools nicht erkennen kann.
Das Problem ist die Rechenzeit die es braucht.
Das Teil berücksichtigt im Moment sowieso noch keine Winkel Abhängigkeit. Es sucht primär noch Unterfilterung die man eben mit den üblichen Tools nicht erkennen kann.
Das Problem ist die Rechenzeit die es braucht.Man bräuchte natürlich letztlich einen richtigen Filtermark, der auch auf Winkelabhängigkeit achtet. Dabei müssten allerdings zwei Fälle unterschieden werden:
- Herkömmliche LOD-Formel (die Blume)
- Kreis (ungefähr ab NV40, 1x und 2x AF.)
Der Tester müsste beide Formeln austesten und das beste Ergebnis auswerten.
Die Rechenzeit ist imo nicht sooo entscheidend. Zur Not muss das Teil über Nacht laufen.
Demirug
2005-07-09, 18:24:08
Man bräuchte natürlich letztlich einen richtigen Filtermark, der auch auf Winkelabhängigkeit achtet. Dabei müssten allerdings zwei Fälle unterschieden werden:
- Herkömmliche LOD-Formel (die Blume)
- Kreis (ungefähr ab NV40, 1x und 2x AF.)
Der Tester müsste beide Formeln austesten und das beste Ergebnis auswerten.
Die verwendete LOD Formel spielt letzten Endes keine Rolle. Daraus ergibt sich nämlich die Anzahl der einbezogenen Texel. Mehr Texel entspricht besserer Filterung. Der Ideale Filter würde ja immer alle Texel der größten Mipmap einbeziehen.
Die Rechenzeit ist imo nicht sooo entscheidend. Zur Not muss das Teil über Nacht laufen.
Nacht? Optimist.
Nacht? Optimist.WTF? :ugly:
Grestorn ohne Kuchen
2005-07-09, 18:34:33
@Demirug:
Diese "Filtermarks"... ich gehe aus, die kann man mit einem Programm von Dir messen? Oder wo krieg ich den Wert her?
Würde mich durchaus interessieren, welche Werte bei einer 7800GTX rauskommen... ich stell mich gerne zur Verfügung! :)
Demirug
2005-07-09, 18:39:29
WTF? :ugly:
Bei 8xAF rechnet meine 6800GT zusammen mit dem A64 3000+ etwa 20 Minuten an einem Winkelgrad. Bei 16x geht das dann schon in Richtung 2 Stunden.
Bei 16xAF muss ich etwas 40 GB Texturdaten durch die Karte prügeln.
Demirug
2005-07-09, 18:41:05
@Demirug:
Diese "Filtermarks"... ich gehe aus, die kann man mit einem Programm von Dir messen? Oder wo krieg ich den Wert her?
Würde mich durchaus interessieren, welche Werte bei einer 7800GTX rauskommen... ich stell mich gerne zur Verfügung! :)
Das Teil ist noch nicht reif um es rauszugeben.
Thanatos
2005-07-09, 18:54:17
Bei 8xAF rechnet meine 6800GT zusammen mit dem A64 3000+ etwa 20 Minuten an einem Winkelgrad. Bei 16x geht das dann schon in Richtung 2 Stunden.
Bei 16xAF muss ich etwas 40 GB Texturdaten durch die Karte prügeln.
:ueye:
Und ich dacht Videoencoden wäre zeitaufwendig X-D:uconf3:
Mal ein bischen Zahlenmaterial beisteuern :D
6800 GT
HQ:8xAF = 23093,61 Filtermarks
Q(OFF-OFF-OFF):8xAF = 19784,77 Filtermarks
Q(ON-ON-ON):8xAF = 16026,54 Filtermarks
P:8xAF = 13035,11 Filtermarks
Point (ohne Mipmaps) : 1400 Filtermarks
Linear (ohne Mipmaps) : 2794,75 Filtermarks
BiLinear:3812,125 Filtermarks
TriLinear:5590 Filtermarks
und was sagen diese zahlen aus?
Demirug
2005-07-09, 19:32:27
:ueye:
Und ich dacht Videoencoden wäre zeitaufwendig X-D:uconf3:
Heute morgen war ich noch bei 1,5 Tagen für 8xAF.
Demirug
2005-07-09, 19:34:47
und was sagen diese zahlen aus?
Filterqualität auf der Basis der verrechneten Texel auf der 0 Gard Linie. Größer ist besser. Kann man schön Balken daraus machen.
GloomY
2005-07-09, 19:49:29
Auch gute Texturfilter, die nicht unterfiltern, können bei "schlechtem" Texturinhalt Flimmern erzeugen.Könntest du das bitte mal erklären? Wäre dieses flimmern eher zufällig und von der Bewegung abhängig oder generell vorhanden?
Interessanter wäre die Frage, wie matschig sieht das Bild auf einem NV40/G70 aus, wenn man den LOD soweit anpasst, so dass das Flimmern verschwindet!Das kommt darauf an, wie viele Samples bei den "Optimierungen" gespart werden.
Ein eher extremes und konstruiertes Beispiel: An einer Stelle im Bild wird ein LOD verwendet, welches für 16x AF korrekt wäre. Wenn dort aber nur mit 2xAF gefiltert wird, muss man ein LOD-Bias von +3 wählen, damit das Flimmern verschwindet.
Wenn das Spiel nun z.B. 1024x1024 Texturen verwendet, führt das dazu, dass (ohne Zoom) bei einem LOD-Bias von +3 maximal nur noch 128x128 Texturen verwendet werden (1024 / 2^3). Entsprechend "matschig" sieht dann das Spiel aus... :|
Mal ein bischen Zahlenmaterial beisteuern :D
6800 GT
HQ:8xAF = 23093,61 Filtermarks
Q(OFF-OFF-OFF):8xAF = 19784,77 Filtermarks
Q(ON-ON-ON):8xAF = 16026,54 Filtermarks
P:8xAF = 13035,11 Filtermarks
Point (ohne Mipmaps) : 1400 Filtermarks
Linear (ohne Mipmaps) : 2794,75 Filtermarks
BiLinear:3812,125 Filtermarks
TriLinear:5590 FiltermarksBitte mehr Input in Form von Erklärungen, Demi =)
edit: Zu spät.
sepperator
2005-07-09, 20:04:53
@Demirug:
Falls du, wenn du fertig bist, einen Tester brauchst melde ich mich als Geforce4TI Besitzer mit Zeit.
Bei 8xAF rechnet meine 6800GT zusammen mit dem A64 3000+ etwa 20 Minuten an einem Winkelgrad. Bei 16x geht das dann schon in Richtung 2 Stunden.
da könnte man ja einiges in einer nacht testen ;)
btw: wieso dauert das ganze bei höherem AF-grad länger, wird da die messung soviel aufwendiger?
Filterqualität auf der Basis der verrechneten Texel auf der 0 Gard Linie. Größer ist besser. Kann man schön Balken daraus machen.
kann man das auch irgendwie ins verhältnis setzen wieviele texel benötigt würden um nyquist einzuhalten?
Demirug
2005-07-09, 22:41:48
da könnte man ja einiges in einer nacht testen ;)
btw: wieso dauert das ganze bei höherem AF-grad länger, wird da die messung soviel aufwendiger?
Wenn max AF steigt muss man die Prüfung darauf auslegen das mehr Texel pro Pixel benutzt werden. Da dies im Prinzip in beide Richtungen (U und V) gilt steigt der Aufwand quadratisch zum AF-Grad.
Demirug
2005-07-09, 22:47:59
kann man das auch irgendwie ins verhältnis setzen wieviele texel benötigt würden um nyquist einzuhalten?
Theoretisch ja. Allerdings sagt das ja nichts zwingend über die Filterqualität aus. So kann man ja trotz Winkelabhängigem AF trotzdem noch nyquist einhalten. Im Gegenzug ist es bei Texturen ohne Mipmaps auf aktuellen Grafikkarten völlig unmöglich die Einhaltung von Nyquist zu Gewährleisten.
Könntest du das bitte mal erklären? Wäre dieses flimmern eher zufällig und von der Bewegung abhängig oder generell vorhanden?Das kann man nicht in zwei Sätzen beantworten. Der Texturfilter ist darauf ausgelegt, bestimmte Kriterien zu erfüllen. Das heißt nicht, dass jede denkbare Textur "gut" gefiltert werden kann. Ein texelweises Schachbrettmuster zum Beispiel ist ganz schlecht. Auch einzelne versprenkelte kleine, scharfkontrastige Punkte sind schlecht.
GloomY
2005-07-10, 03:39:49
Theoretisch ja. Allerdings sagt das ja nichts zwingend über die Filterqualität aus. So kann man ja trotz Winkelabhängigem AF trotzdem noch nyquist einhalten.Ja, bei den Winkeln, die weniger AF bekommen, muss einfach ein höherer LOD gesetzt werden.
Im Gegenzug ist es bei Texturen ohne Mipmaps auf aktuellen Grafikkarten völlig unmöglich die Einhaltung von Nyquist zu Gewährleisten.Bei aktuellen Spielen ja. Bei so alten Sachen wie z.B. Quake2, die man in einer hohen Auflösung (1600x1200) mit 16xAF spielt, braucht man gar keine Mipmaps mehr. Da wird dann eh überall die Basistextur genommen. ;)
Üblicherweise guckt man da nicht so weit in die Ferne, als dass man den Punkt erreichen würde, wo man wieder Mipmaps bräuchte.
Das kann man nicht in zwei Sätzen beantworten. Der Texturfilter ist darauf ausgelegt, bestimmte Kriterien zu erfüllen. Das heißt nicht, dass jede denkbare Textur "gut" gefiltert werden kann. Ein texelweises Schachbrettmuster zum Beispiel ist ganz schlecht. Auch einzelne versprenkelte kleine, scharfkontrastige Punkte sind schlecht.Das mit dem Schachbrettmuster dachte ich mir. Das ist so ziemlich der Worst Case.
Aber wenn es dir nichts ausmachst, würde ich mich sehr darüber freuen, wenn du z.B. diese Kriterien mal aufführen könntest. Ich war nämlich bisher immer der Meinung, dass wenn man nicht unterfiltert, alles in Ordnung ist und es somit auch nicht flimmert. Deswegen ist mein Verständnis nämlich momentan etwas erschüttert...
Hohe Kontraste sind hohe Frequenzen und die muss der Texturfilter - laut Voraussetzung - prinzipiell doch hinkriegen. Sonst unterfiltert er ja, was einen Widerspruch zur Voraussetzung darstellt.
Mal ne kleine Frage: Wäre es möglich eine Geforce6 mit Softquattro Treiber dazu zu zwingen, korrekte Filter zu nutzen? Winkelabhängigkeit gibts da zwar auch, aber vielleicht keine verschlechterte Filterqualität.
Mal ne kleine Frage: Wäre es möglich eine Geforce6 mit Softquattro Treiber dazu zu zwingen, korrekte Filter zu nutzen? Winkelabhängigkeit gibts da zwar auch, aber vielleicht keine verschlechterte Filterqualität.
Geforce 6 filtert auf HQ (bis auf die winkelabhängigkeit) ja in ordnung, es geht ja eher um dem G70 welcher (angeblich) auch auf HQ unterfiltert.
Geforce 6 filtert auf HQ (bis auf die winkelabhängigkeit) ja in ordnung, es geht ja eher um dem G70 welcher (angeblich) auch auf HQ unterfiltert.
Ist es nicht. Ich habe es grade bei Camelot getestet. HQ, 4xAF 4xAA. Lässt sich nur in Bewegung sehen, die erst Mip Übergänge flimmern.
Quasar
2005-07-10, 13:02:36
Nur zur Sicherheit: AF im Treiber oder im Game?
Mr. Lolman
2005-07-10, 13:38:42
@Demirug:
Falls du, wenn du fertig bist, einen Tester brauchst melde ich mich als Geforce4TI Besitzer mit Zeit.
Melde mich als R300 Betatester...
moeb1us
2005-07-10, 15:15:34
grübel, bietet daoc im spiel überhaupt af umschalt-optionen? -grübel- wie war das damals ^^
Ist es nicht. Ich habe es grade bei Camelot getestet. HQ, 4xAF 4xAA. Lässt sich nur in Bewegung sehen, die erst Mip Übergänge flimmern.
und du bist dir sicher dass diese texturen nicht auch ohne AF flimmern?.
Aber wenn es dir nichts ausmachst, würde ich mich sehr darüber freuen, wenn du z.B. diese Kriterien mal aufführen könntest. Ich war nämlich bisher immer der Meinung, dass wenn man nicht unterfiltert, alles in Ordnung ist und es somit auch nicht flimmert. Deswegen ist mein Verständnis nämlich momentan etwas erschüttert...
Hohe Kontraste sind hohe Frequenzen und die muss der Texturfilter - laut Voraussetzung - prinzipiell doch hinkriegen. Sonst unterfiltert er ja, was einen Widerspruch zur Voraussetzung darstellt.Stell dir eine Textur vor, die aus je 1 Texel breiten schwarzen und weißen Linien besteht, und bewege diese Textur langsam über den Bildschirm. Wenn ein Pixel-Texel-Ratio von 1:1 vorliegt, wird man manchmal die Originaltextur sehen und manchmal eine reingraue Fläche. Flimmert das nun? Wenn für sRGB korrekt gerechnet wird (was leider meistens nicht der Fall ist) und der Betrachter genügend weit weg vom Bildschirm sitzt, bleibt immerhin die Flächenhelligkeit erhalten.
Da sRGB-Texturen leider oft linear verrechnet werden, wird man in der Praxis aber auch ein Helligkeitsschwanken haben.
Man sollte auf scharfe Kontraste in Texturen verzichten, ebenso auf sehr dünne kontrastreiche Strukturen. Die Details pro cm² holt man dann über Textur- und Bildschirmauflösung. Das funktioniert aber nur, wenn nicht unterfiltert wird (sonst: trotzdem Flimmern bzw. Neigung zum Flimmern) und wenn AF unabhängig vom Winkel bis zum Maximalgrad (je nach Grad der Texturverzerrung) appliziert wird (sonst: Unschärfe, und wenige Texturdetails im Pixel.)
grübel, bietet daoc im spiel überhaupt af umschalt-optionen? -grübel- wie war das damals ^^
Nein, Daoc hat sowas nie gehabt, vieleicht kanns die Engine, ist ja die NetImmerse (auch in Morrowind ,Pirates! und Empire Earth2 genutzt). Da die Texturen im Spiel eh gering aufgelöst sind und teils noch extremer Matsch ist, flimmerts wenn überhaupt nur minimalst, wüste nicht wo es mir stärker ins Auge fällt als in Jordheim. Die Bodentexture is Uralt *g
Nur zur Sicherheit: AF im Treiber oder im Game?
Geht nur per Treiber.
und du bist dir sicher dass diese texturen nicht auch ohne AF flimmern?.
Bei purem Trilinear fällt es jedenfalls nicht so auf. Ich habes nochmal auf nem R300 und RV350 getestet - beide Bilder sind i.O. ggü. dem von der Geforce6.
Getestet hab ich die Bodentexturen der Oceanus Inseln in Atlantis.
zeckensack
2005-07-11, 17:57:54
Stell dir eine Textur vor, die aus je 1 Texel breiten schwarzen und weißen Linien besteht, und bewege diese Textur langsam über den Bildschirm. Wenn ein Pixel-Texel-Ratio von 1:1 vorliegt, wird man manchmal die Originaltextur sehen und manchmal eine reingraue Fläche. Flimmert das nun? Wenn für sRGB korrekt gerechnet wird (was leider meistens nicht der Fall ist) und der Betrachter genügend weit weg vom Bildschirm sitzt, bleibt immerhin die Flächenhelligkeit erhalten.Ja, das kenne ich zur Genüge X-D
Ich würde diesen Effekt aber als "Pumpen" bezeichnen, und nicht mit "Flimmern" in die gleiche Schublade stecken. Das ist auch rein durch Hinschauen IMO klar unterscheidbar.
zeckensack
2005-07-11, 18:00:00
Bei purem Trilinear fällt es jedenfalls nicht so auf. Ich habes nochmal auf nem R300 und RV350 getestet - beide Bilder sind i.O. ggü. dem von der Geforce6.
Getestet hab ich die Bodentexturen der Oceanus Inseln in Atlantis.Vorsicht: RV350 weigert sich so gut wie immer trilinear zu filtern. Dieses Miststück "beherrscht"* nämlich brilineare Taschenspielertricks.
*ist es eigentlich Können oder eine Behinderung, wenn man einen Trick drauf hat der nur dazu einsetzbar ist, etwas einfacheres nicht mehr können zu müssen?
Japp, trilineare Filterung schwächt die Auffälligkeit von Unterfilterung etwas ab. Trotzdem kann ein Flimmern bleiben.
Dunkeltier
2005-07-11, 18:28:40
Vorsicht: RV350 weigert sich so gut wie immer trilinear zu filtern. Dieses Miststück "beherrscht"* nämlich brilineare Taschenspielertricks.
*ist es eigentlich Können oder eine Behinderung, wenn man einen Trick drauf hat der nur dazu einsetzbar ist, etwas einfacheres nicht mehr können zu müssen?
Dafür ist er ziemlich lange unentdeckt geblieben, und Beschwerdem über auffälliges flimmern hat man auch nicht gehört gehabt. :rolleyes: Wenn schon cheaten, dann so das man von Punkbuster und Cheating Death (alias unseren 3D-Gurus) nicht erkannt wird. ;D
moeb1us
2005-07-11, 19:34:04
naja, wurde denn explizit danach gesucht? immerhin hatte ati mehrfach versichert, reine trilineare filterung zu bieten (das habe ich so immerhin diversen artikeln/posts hier und bei tomshardware o.ä. entnommen) ...
zeckensack
2005-07-11, 20:56:03
Dafür ist er ziemlich lange unentdeckt geblieben, und Beschwerdem über auffälliges flimmern hat man auch nicht gehört gehabt. :rolleyes: Wenn schon cheaten, dann so das man von Punkbuster und Cheating Death (alias unseren 3D-Gurus) nicht erkannt wird. ;DDas liegt IMO daran, dass Leute die sich wirklich für Grafik interessieren eher zu größeren Karten greifen. R300, R350 und R360 waren alle sauber. Nur ihre kleinen Geschwister nicht.
Beim R420 haben IMO schon einige Leute schnell genug diese Behinderung bemerkt.
Bei purem Trilinear fällt es jedenfalls nicht so auf.
fällte es nicht so auf, oder ist es wirklich nicht vorhanden? falls es ersteres ist, muss es nicht an gesparten samples liegen.
flimmern kann es nur dort wo die textur scharf genug ist. wird sie vergrößert oder geht die schärfe durch flache winkel verloren nimmt man flimmern eigentlich nicht mehr wahr. je nach blickwinkel ist der scharfe, und damit flimmernde bereich einer isotrop gefilterten textur relativ klein und fällt damit nicht so stark auf.
wird aber anisotrop gefiltert dehnt sich der scharfe bereich recht weit aus, und damit auch der flimmernde bereichm was es subjektiv natürlich mehr flimmern lässt.
trotzdem handelt es sich dann eher um eine "böse" textur, wenn mit trilinearem filter auch nur das kleinste flimmern erkennbar ist.
Beim R420 haben IMO schon einige Leute schnell genug diese Behinderung bemerkt.
damals wusste man auch schon dass ATI "brilinear" filtern kann und hat es natürlich sofort beim R420 vermutet.
aber schon peinlich für ATI in eigenen präsentationen die reviewer darauf hinzuweisen mit gefärbten mipmaps zu überprüfen dass man korrekt trilinear filtert und dann schon längst karten auf dem markt zu haben die in realen situationen selbst "brilinear" filtern.
Demirug
2005-07-11, 21:12:21
Das liegt IMO daran, dass Leute die sich wirklich für Grafik interessieren eher zu größeren Karten greifen. R300, R350 und R360 waren alle sauber. Nur ihre kleinen Geschwister nicht.
Beim R420 haben IMO schon einige Leute schnell genug diese Behinderung bemerkt.
Das ganze ist aufgefallen als beim R420 mit deinem Archmark eine zu hohe trilineare Füllrate bemerkt wurde. Das gleiche war dan mit einem RV350 reproduzierbar. Darauf hin haben Carsten von Computerbase und ich einige Untersuchungen durchgeführt. Dabei ist die ganze Sache dann aufgeflogen.
Demirug
2005-07-11, 21:18:32
fällte es nicht so auf, oder ist es wirklich nicht vorhanden? falls es ersteres ist, muss es nicht an gesparten samples liegen.
flimmern kann es nur dort wo die textur scharf genug ist. wird sie vergrößert oder geht die schärfe durch flache winkel verloren nimmt man flimmern eigentlich nicht mehr wahr. je nach blickwinkel ist der scharfe, und damit flimmernde bereich einer isotrop gefilterten textur relativ klein und fällt damit nicht so stark auf.
wird aber anisotrop gefiltert dehnt sich der scharfe bereich recht weit aus, und damit auch der flimmernde bereichm was es subjektiv natürlich mehr flimmern lässt.
trotzdem handelt es sich dann eher um eine "böse" textur, wenn mit trilinearem filter auch nur das kleinste flimmern erkennbar ist.
Wenn die Texture aber schon zu hohe Frequenzen für den reinen Trilinearen Filter hat wird es durch das weglassen von Samples definitive noch schlimmer. Die "Sampleoptimierung" die im Qualitymodus immer aktiv lässt definitive Samples weg. Ich kann sogar nachweisen bei welchem Pixel/Texel Verhältniss wie viele Texel unterschlagen werden.
Vorsicht: RV350 weigert sich so gut wie immer trilinear zu filtern. Dieses Miststück "beherrscht"* nämlich brilineare Taschenspielertricks.
*ist es eigentlich Können oder eine Behinderung, wenn man einen Trick drauf hat der nur dazu einsetzbar ist, etwas einfacheres nicht mehr können zu müssen?
Weiss ich. Dennoch ist die BQ deutlich besser als auf der Geforce6800 Ultra, die im Rechner daneben steckt. Die Radeon nutzt 4x AF, die Geforce 8x. Übrigens: Es fällt nicht so auf bei trilinear ;) Ich denke, damit sollte das geklärt sein, denn auch unter Trilinear gibt es bei der Textur kein zufriedenstellendes Ergebnis. Bei der Radeon ist es besser.
Robbitop@FH
2005-07-12, 10:49:03
Das liegt IMO daran, dass Leute die sich wirklich für Grafik interessieren eher zu größeren Karten greifen. R300, R350 und R360 waren alle sauber. Nur ihre kleinen Geschwister nicht.
Beim R420 haben IMO schon einige Leute schnell genug diese Behinderung bemerkt.
Bei low cost Chips mit wenig Füllrate kann ich solche "Taschenspielertricks" schon eher gutheißen. Hier ist Füllrate so knapp wie das Geld des Käufers. Somit können auch die Ansprüche heruntergeschraubt werden, um etwas mehr herauszuholen. In der Praxis sah nicht einmal aths den Unterschied (!!).
Bei großkalibrigen Karten kann ich es hingegen nicht verstehen, dass die BQ Ansprüche des Käufers ignoriert werden. Füllrate ist idR genug da um die BQ Anforderungen des Nutzers zu befriedigen.
Wenn die Texture aber schon zu hohe Frequenzen für den reinen Trilinearen Filter hat wird es durch das weglassen von Samples definitive noch schlimmer. Die "Sampleoptimierung" die im Qualitymodus immer aktiv lässt definitive Samples weg. Ich kann sogar nachweisen bei welchem Pixel/Texel Verhältniss wie viele Texel unterschlagen werden.
ist klar, aber werden in HQ auch samples unterschlagen?
ist klar, aber werden in HQ auch samples unterschlagen?
Ja natürlich.
Ja natürlich.
kannst du (oder irgendwer) das auch nachweisen?
kannst du (oder irgendwer) das auch nachweisen?
Schau dir doch das Flimmern an.
Demirug kann es nachweißen und er hat es auch schon angedeutet, dass es wirklich so ist. Selbst beim NV40 auf HQ.
Schau dir doch das Flimmern an.
auf HQ mit dem NV40 flimmert bei mir mit AF nix was nicht auch mit isotroper filterung flimmert.
auch der random-noise test ist absolut flimmerfrei (während Q dort extrem flimmert, wie in keinem spiel) (und ja ich hab auch eine ati-karte zum vergleich, sogar noch eine "gute" 9800pro die ja noch besser filtert als die neuen r4xx-karten)
Demirug kann es nachweißen und er hat es auch schon angedeutet, dass es wirklich so ist. Selbst beim NV40 auf HQ.
bis jetzt konnte ich nur lesen dass die qualität von HQ-Q-P-HP immer schlechter wird, was auch logisch ist.
nebenbei noch ein paar andeutungen dass HQ auf dem G70 wohl nicht richtig "funktioniert". dass HQ auch auf dem NV40 unterfiltert konnte ich bis jetzt nirgends lesen.
Demirug
2005-07-12, 17:14:08
Demirug kann es nachweißen und er hat es auch schon angedeutet, dass es wirklich so ist. Selbst beim NV40 auf HQ.
Moment ich habe lediglich eine Merkwürdigkeit beim NV40 HQ entdeckt. Inzwischen weiß ich allerdings das diese Optimierung wirklich eine ist. Der Texturefilter nutzt da die Tatsache aus das alle Texel mit der gleichen Gewichtung eingehen. Dadurch kann er es sich sparen die Filterkerne überlapen zu lassen und kommt mit weniger Leistung aus.
auf HQ mit dem NV40 flimmert bei mir mit AF nix was nicht auch mit isotroper filterung flimmert.
auch der random-noise test ist absolut flimmerfrei (während Q dort extrem flimmert, wie in keinem spiel) (und ja ich hab auch eine ati-karte zum vergleich, sogar noch eine "gute" 9800pro die ja noch besser filtert als die neuen r4xx-karten)
bis jetzt konnte ich nur lesen dass die qualität von HQ-Q-P-HP immer schlechter wird, was auch logisch ist.
nebenbei noch ein paar andeutungen dass HQ auf dem G70 wohl nicht richtig "funktioniert". dass HQ auch auf dem NV40 unterfiltert konnte ich bis jetzt nirgends lesen.
Auf dem Nv40 flimmert es. Meinste wir sind alle blöd hier, nur weil DU es nicht wahrnimmst?
Auf dem Nv40 flimmert es. Meinste wir sind alle blöd hier, nur weil DU es nicht wahrnimmst?
richtig auf dem NV40 flimmert es, genau dann wenn es auf allen anderen grafikkarten auch flimmert (in HQ)
Quasar
2005-07-12, 19:25:06
auch der random-noise test ist absolut flimmerfrei (während Q dort extrem flimmert, wie in keinem spiel)
Darf ich fragen, mit welchen Einstellungen, welchem Monitor und welchem Treiber?
Bei mir gibt es erst mit +0,875 LOD (mit gutem Willen auch +0,750) ein ruhiges Bild mit AF. GF6800 von GBT, FW 77.72 und ein Eizo T965.
Bei low cost Chips mit wenig Füllrate kann ich solche "Taschenspielertricks" schon eher gutheißen. Hier ist Füllrate so knapp wie das Geld des Käufers. Somit können auch die Ansprüche heruntergeschraubt werden, um etwas mehr herauszuholen. In der Praxis sah nicht einmal aths den Unterschied (!!).
Bei großkalibrigen Karten kann ich es hingegen nicht verstehen, dass die BQ Ansprüche des Käufers ignoriert werden. Füllrate ist idR genug da um die BQ Anforderungen des Nutzers zu befriedigen.Ich habe bei der Radeon 9600 auch nicht sooo genau hingesehen. Im Prinzip erfasste mich der gleiche Virus wie zuvor alle anderen: Ich freute mich über die unerwartet hohe Geschwindigkeit bei vorgeblich trilinearer Filterung. Die dann ausgeschütteten Glückshormone scheinen das Auge gegen etwaige Grafikkompromisse unempfindlicher zu machen.
Moment ich habe lediglich eine Merkwürdigkeit beim NV40 HQ entdeckt. Inzwischen weiß ich allerdings das diese Optimierung wirklich eine ist. Der Texturefilter nutzt da die Tatsache aus das alle Texel mit der gleichen Gewichtung eingehen.So ähnlich, also dass alle Samples gleich gewichtet werden, drückte sich auch Kirk aus. Dabei wäre es ja sinnvoll, zumindest die Randtexel weniger zu gewichten.
Dadurch kann er es sich sparen die Filterkerne überlapen zu lassen und kommt mit weniger Leistung aus.Meinst du damit, dass pro Pixel gar nicht genau der passende Bereich aus dem Textur-Space gefiltert wird, sondern das ein Stückchen versetzt sein kann (wobei es dann aber auf eine größere Pixelfläche wieder hinkommen müsste)?
Demirug
2005-07-12, 19:48:58
So ähnlich, also dass alle Samples gleich gewichtet werden, drückte sich auch Kirk aus. Dabei wäre es ja sinnvoll, zumindest die Randtexel weniger zu gewichten.
Warum? Wenn aufgrund des Texel zu Pixel Verhältnisses die Samples genau passen muss man auch alle gleich Gewichten. Passt das Verhältniss nicht genau sind nicht alle Texel gleich gewichtet. Was Kirk unter Umständen meinte war das die Ergebnisse der einzelnen Bi-Filterungen auf der AF-Line alle gleich gewichtet werden. Da die Filterkerne sich im Zentrum aber normalerweise überlappen werden die Randtexel automatisch weniger stark gewichtet.
Meinst du damit, dass pro Pixel gar nicht genau der passende Bereich aus dem Textur-Space gefiltert wird, sondern das ein Stückchen versetzt sein kann (wobei es dann aber auf eine größere Pixelfläche wieder hinkommen müsste)?
Den genau passenden Bereich bekommst du nur in Ausnahmefälle. Wie zum Beispiel an den Stellen die mir aufgefallen sind. Ansonsten muß der Filter versuchen mit einer Anzahl von X 2*2 Texelblöcken den Bereich so gut wie möglich auszufüllen. Dabei kommt es dann häufig daszu das sich diese Blöcke überlappen. Das kann sogar soweit gehen das beide 2*2 Blöcke die gleichen Texel benutzten aber unterschiedlich gewichten.
Warum? Wenn aufgrund des Texel zu Pixel Verhältnisses die Samples genau passen muss man auch alle gleich Gewichten. Passt das Verhältniss nicht genau sind nicht alle Texel gleich gewichtet. Was Kirk unter Umständen meinte war das die Ergebnisse der einzelnen Bi-Filterungen auf der AF-Line alle gleich gewichtet werden. Da die Filterkerne sich im Zentrum aber normalerweise überlappen werden die Randtexel automatisch weniger stark gewichtet.
Den genau passenden Bereich bekommst du nur in Ausnahmefälle. Wie zum Beispiel an den Stellen die mir aufgefallen sind. Ansonsten muß der Filter versuchen mit einer Anzahl von X 2*2 Texelblöcken den Bereich so gut wie möglich auszufüllen. Dabei kommt es dann häufig daszu das sich diese Blöcke überlappen. Das kann sogar soweit gehen das beide 2*2 Blöcke die gleichen Texel benutzten aber unterschiedlich gewichten.Hast du eine Ahnung, ob alle isotropen Samples das gleiche LOD nutzen? Ich kann mir Fälle vorstellen, wo man die AF-Linie besser nicht als Verbindung der Seitenhalbierende der beiden kürzeren Seiten sieht, sondern als Verbindung zwischen den beiden spitzen Ecken des Parallelogramms.
Demirug
2005-07-12, 20:19:42
Hast du eine Ahnung, ob alle isotropen Samples das gleiche LOD nutzen? Ich kann mir Fälle vorstellen, wo man die AF-Linie besser nicht als Verbindung der Seitenhalbierende der beiden kürzeren Seiten sieht, sondern als Verbindung zwischen den beiden spitzen Ecken des Parallelogramms.
Schwer zu sagen. Soweit ich das bisher überblicken kann wird der LOD immer beim AF auf die gleiche Art errechnet.
Darf ich fragen, mit welchen Einstellungen, welchem Monitor und welchem Treiber?
Bei mir gibt es erst mit +0,875 LOD (mit gutem Willen auch +0,750) ein ruhiges Bild mit AF. GF6800 von GBT, FW 77.72 und ein Eizo T965.
treiber momentan 77.72, ich konnte aber zu vorherigen treibern keine veränderung feststellen. monitor ist ein Targa Visionary, geforce 6800GT von MSI.
in Q flimmert es ohne AF auch nicht, mit allerdings bis zu einem LOD von 0,375 ziemlich stark. mit 0,375 ist es kaum mehr wahrnehmbar, bei 0,5 nicht mehr vorhanden.
achja, wir sprechen hoffentlich beide von der random-noise-textur, checkboard flimmert immer wie wahnsinnig und wird erst ab einem LOD von ca. 1.0 erträglich (was noch lange nicht flimmerfrei heist ;)
ich bin übrigens extrem flimmeranfällig weshalb ich auch lange zeit auf AF verzichtet habe ;)
Quasar
2005-07-12, 20:59:22
Ja, natürlich die Random-Noise mit den bunten Pünktlis. Q flimmert bei mir auch ohne AF schon - und zwar nicht zu knapp.
zeckensack
2005-07-12, 21:07:36
Bei low cost Chips mit wenig Füllrate kann ich solche "Taschenspielertricks" schon eher gutheißen. Hier ist Füllrate so knapp wie das Geld des Käufers. Somit können auch die Ansprüche heruntergeschraubt werden, um etwas mehr herauszuholen.Das sehe ich völlig anders ... sowas ähnliches hatte ich ja schon vor ein paar Tagen mit Raff bzgl Voodoo 5 in WoW besprochen.
Gerade in kleineren Auflösungen sind solche "Optimierungen" schädlich. Die Mip-Auswahl beim Texturfiltern ist inhärent auflösungsabhängig. Je mehr Auflösung du hast, desto mehr vom Bild besteht aus rein vergrößerten Texturen (=>bi/tri/bri wird dadurch irrelevant), und Pixeln die von AF sowieso nicht profitieren. Dh je größer die Bildschirmauflösung (im Vergleich zur Texturauflösung) ist, desto weniger bringen diese "Optimierungen" an Performance, und desto weniger schaden sie der BQ. Sieht man ja auch schon an den ganzen NV40-Usern hier. Sinngemäß lautet der Konsens ja längst "Ja, default sieht alles scheiße aus, aber wenn ich in 1600x1200 mit HQ, Opts off und 8xS spiele geht's wieder einigermaßen". Bei Karten mit fetter Rohleistung kann man mit extremen Settings so einiges wieder geradebügeln. Nicht dass ich das kaschieren von Texturfilter-Behinderungen für eine besonders sinnvolle Anwendungsmöglichkeit für überschüssige Füllrate halten würde, nein im Gegenteil, aber immerhin gibt es dort überhaupt einen funktionierenden Weg zur passablen Bildqualität.
Aber nun ... gerade auf den kleinen Karten sieht das Bild uU richtig shice aus, weil du eben gezwungen bist kleine Auflösungen zu benutzen.
Vernünftiges AF erhöht die Texturqualität effizienter als Supersampling. Gleiches Ergebnis, aber mehr Performance. Auflösungserhöhung ist noch einen Zacken besser, allerdings auch deutlich teurer als vernünftiges AF.
Das kann man natürlich alles wieder über Bord schmeißen, wenn man nur noch behinderte Texturfilter angedreht bekommt, wo nichts mehr funktioniert wie es soll.
Dh ich stehe hier mit einer Karte (9600SE) die um AF geradezu bettelt. In quasi allen modernen Spielen ist 640x480 das höchste der Gefühle. Gerade da ist die Texturqualität ohne AF automatisch beschissen; vorwiegend sehr kleine Mips=unscharf. Da würde ich sehr gerne AF anwenden. Dann sieht's zwar nicht mehr unscharf aus, aber es flimmert wie Sau, und zwar im ganzen Bild und nicht nur wie auf den großen Karten mit ihren standesgemäßen Auflösungen irgendwo "hinten". Es hilft mir auch nicht gerade weiter, dass die flimmernden Pixel nun extragroß sind.
In der Praxis sah nicht einmal aths den Unterschied (!!).Es ist auf den 9600ern auch wirklich noch deutlich besser als NV40 mit zB FW71.84 auf Treiberdefaults (wobei ich jetzt hier ausdrücklich nicht den 77.72er meine, der ja angeblich doch wieder vernünftiges Filtern auf NV40-Karten zulässt).
Bei großkalibrigen Karten kann ich es hingegen nicht verstehen, dass die BQ Ansprüche des Käufers ignoriert werden. Füllrate ist idR genug da um die BQ Anforderungen des Nutzers zu befriedigen.Ich kann's garnicht verstehen.
Ich hab's aths schon im privaten gesagt: wer sich sowas ausdenkt, gehört an den Eiern aufgehängt.
Ja, natürlich die Random-Noise mit den bunten Pünktlis. Q flimmert bei mir auch ohne AF schon - und zwar nicht zu knapp.
dann muss bei dir etwas nicht stimmen, wenn es schon ohne AF flimmert. vor allem kann dann nicht der grund an eine AF-optimierung sein, entweder ist dann die textur schrecklich, oder es stimmt etwas an den einstellungen nicht.
vielleicht versehentlich auf OGL-seite das LOD versehentlich negativ eingestellt (sind ja imo getrennte regler). Clamp funktioniert ja in OGL leider nicht.
Quasar
2005-07-12, 21:33:54
OGL-Seite? Ich habe im Treiber gar keine Regler, die das LOD beeinflussen.
Und nein, ich glaube nicht, daß bei mir was nicht stimmt.
OGL-Seite? Ich habe im Treiber gar keine Regler, die das LOD beeinflussen.
Und nein, ich glaube nicht, daß bei mir was nicht stimmt.
nicht im treiber aber evtl. mit atuner oder derartigem.
wenn aber schon isotrope filterung flimmert und es bei anderen nicht flimmert muss es irgendwie an deinem pc liegen.
bei isotroper filterung kannst du ja nix tunen was flimmern verursacht (höchstens das LOD negativ machen, was aber ziemlich dämlich wäre da es dann ja tendenziell langsamer wird ;) )
eine weitere möglichkeit wäre natürlich dass ATI das LOD standardmäßig leicht positiv lässt und damit flimmern vermeidet und etwas schärfe opfert (und etwas speed gewinnt).
da ich aber bei mir selbst mit high-performance ohne AF kein flimmern erzweugen kann (überhaupt scheint der regler ohne AF sinnlos zu sein) nehme ich eher an dass etwas an deinen einstellungen nicht stimmt.
reunion
2005-07-12, 21:55:35
In der Praxis sah nicht einmal aths den Unterschied (!!).
Der Unterschied ist auch mit freiem Auge kaum zu sehen.
Mein Bruder hat einen RV360 - selbst wenn ich die beiden Monitoren nebeneinander stelle, und mit meinem R300 vergleiche, kann ich bei besten Willen keinen Unterschied ausmachen.
Quasar
2005-07-12, 22:34:01
nicht im treiber aber evtl. mit atuner oder derartigem.
wenn aber schon isotrope filterung flimmert und es bei anderen nicht flimmert muss es irgendwie an deinem pc liegen.
bei isotroper filterung kannst du ja nix tunen was flimmern verursacht (höchstens das LOD negativ machen, was aber ziemlich dämlich wäre da es dann ja tendenziell langsamer wird ;) )
eine weitere möglichkeit wäre natürlich dass ATI das LOD standardmäßig leicht positiv lässt und damit flimmern vermeidet und etwas schärfe opfert (und etwas speed gewinnt).
da ich aber bei mir selbst mit high-performance ohne AF kein flimmern erzweugen kann (überhaupt scheint der regler ohne AF sinnlos zu sein) nehme ich eher an dass etwas an deinen einstellungen nicht stimmt.
Ich habe keine Tuner im System - und auch keine Einstellungen ausser o.g. im Treiber verändert, seit ich am Wochenende mein Windows mal wieder frisch gemacht habe, nach den ganzen DC-Treibern.
nicht im treiber aber evtl. mit atuner oder derartigem.
wenn aber schon isotrope filterung flimmert und es bei anderen nicht flimmert muss es irgendwie an deinem pc liegen.
bei isotroper filterung kannst du ja nix tunen was flimmern verursacht (höchstens das LOD negativ machen, was aber ziemlich dämlich wäre da es dann ja tendenziell langsamer wird ;) )
eine weitere möglichkeit wäre natürlich dass ATI das LOD standardmäßig leicht positiv lässt und damit flimmern vermeidet und etwas schärfe opfert (und etwas speed gewinnt).
da ich aber bei mir selbst mit high-performance ohne AF kein flimmern erzweugen kann (überhaupt scheint der regler ohne AF sinnlos zu sein) nehme ich eher an dass etwas an deinen einstellungen nicht stimmt.
Auch bei mir flimmer isotropisches Filtern bei Quality. Nix installiert, was den Treiber+Bildqualität beeinflussen könnte. Treiber 77.72 auf x64 und Win2k - beides dasselbe. Sehen kann man es bei verschiedenen WoW Bodentexturen.
Bei HQ muss ich es heute Abend nochmal testen.
Mr. Lolman
2005-07-13, 11:15:02
bei isotroper filterung kannst du ja nix tunen was flimmern verursacht (höchstens das LOD negativ machen, was aber ziemlich dämlich wäre da es dann ja tendenziell langsamer wird ;) )
Na sicher kann man da auch zuwenig Samples verwenden. Und NVs Modi (HQ,Q,...) wirken ja auch schon ohne AF...
Na sicher kann man da auch zuwenig Samples verwenden. Und NVs Modi (HQ,Q,...) wirken ja auch schon ohne AF...Die Unterfilterung setzt soweit ich weiß erst beim AF ein. Wie du bei isotroper Filterung untersampeln willst, weiß ich nicht. Da fiele mir nur der Trick von der N64-Grafik ein, aber ich glaube nicht, dass G70 das macht.
Na sicher kann man da auch zuwenig Samples verwenden. Und NVs Modi (HQ,Q,...) wirken ja auch schon ohne AF...
hm, was soll dir das bringen bei isotropen filter weniger samples zu nehmen?
die TMU kann immer 4 samples/takt verrechnen, wie willst du da weniger nehmen, und vor allem was soll es für einen performancevorteil geben?.
ich konnte bist jetzt mit reinem isotropen filter ohne aktivierte optimierung weder performancemäßig noch qualitativ unterschiede zwischen HQ und HP erkennen.
imo steuert das nur die "stärke" der aktivierten optimierungen.
die trilineare optimierung ist z.b. immer stärker je weiter der regler in performance-richtung geht (bei HP schon fast bilinear) (die optimierung erfasst immer alle texturstages)
gleiches gilt für die sample-optimierung, welche (logischerweise nur bei AF) immer stärker wird und unter HP auch auf die Stage0 angewendet wird (sonst nur in stages über 0)
die AF-mip-optimierung aktiviert unter Q bi-AF auf stages>0, unter HP und P wird beim AF-einsatz immer nur bilinear gefiltert.
das ganze gilt für D3D unter OGL gibt es laut meinen beobachtungen noch ein paar weitere "besonderheiten".
so etwas wie eine stage-optimierung gibt es dort nicht, alle optimierungen werden immer auf alle texturen angewendet.
bei aktivierter AF-mip-optimierung wird also (mit AF) grundsätzlich bilinerar gefiltert)
die trilineare-optimierung funktioniert so weit ich erkennen kann gleich wie in D3D und wird mit dem Qualitätsregler richtung links immer stärker.
die AF-sample-optimierung ist dagegen extrem seltsam:
in D3D schiebt die optimierung die mip-maps in den voll-gefilterten bereichen etwas nach hinten (neg. LOD). die "ohren" bleiben dagegen unangetastet.
in OGL passiert interessanterweise das genaue gegenteil. dort werden die mip-maps im bereich der "ohren" nach vorne geschoben (pos. LOD)
für beide APIs gilt dagegen dass die verschiebung immer stärker wird je weiter man den regler richtung HP stellt.
zusätzlich ändert sich in HP unter OGL noch die AF-maske, die nun 45°-winkel überhaupt nicht mehr anisotrop filtert und nur waagrechten und senkrechten flächen die volle filterung zukommen lässt (AF-muster ähnlich des R200).
btw.: gibt es so ein "flimmer-tool" auch unter D3D, würde mich mal interessieren.
Durch Zufall habe ich gestern einen Modtreiber gefunden und installiert. Dieser schimpft sich Xtreme-G (sind glaube ich russische Tweaker) und ist ein FW 77.77 Treiber für x64 und ich habe diesen im Geforce6 Modus installiert. Dieser Treiber ist langsam - aber es gibt zu meinem Erstaunen gibt es in WoW damit fast kein flimmern mehr. Auch DAoC macht gute Bildqualität. Dennoch sind die Texturen scharf, ziemlich scharf sogar. Der Unterschied zu anderen FW Treibern ist meiner Meinung nach gewaltig. Nun frage ich mich ob das jemand bestätigen kann ;)
misterh
2005-08-12, 09:03:49
Durch Zufall habe ich gestern einen Modtreiber gefunden und installiert. Dieser schimpft sich Xtreme-G (sind glaube ich russische Tweaker) und ist ein FW 77.77 Treiber für x64 und ich habe diesen im Geforce6 Modus installiert. Dieser Treiber ist langsam - aber es gibt zu meinem Erstaunen gibt es in WoW damit fast kein flimmern mehr. Auch DAoC macht gute Bildqualität. Dennoch sind die Texturen scharf, ziemlich scharf sogar. Der Unterschied zu anderen FW Treibern ist meiner Meinung nach gewaltig. Nun frage ich mich ob das jemand bestätigen kann ;)
Wenn ich wusste, wo ich das downloaden kann? Kann ich auch mal vergleichen
Wenn ich wusste, wo ich das downloaden kann? Kann ich auch mal vergleichen
http://www.tweaksrus.com/
Allerdings haben die bisher nur einen 77.76 für 32Bit.
Für x64 gibts den 77.77
Labberlippe
2005-08-17, 07:27:42
Durch Zufall habe ich gestern einen Modtreiber gefunden und installiert. Dieser schimpft sich Xtreme-G (sind glaube ich russische Tweaker) und ist ein FW 77.77 Treiber für x64 und ich habe diesen im Geforce6 Modus installiert. Dieser Treiber ist langsam - aber es gibt zu meinem Erstaunen gibt es in WoW damit fast kein flimmern mehr. Auch DAoC macht gute Bildqualität. Dennoch sind die Texturen scharf, ziemlich scharf sogar. Der Unterschied zu anderen FW Treibern ist meiner Meinung nach gewaltig. Nun frage ich mich ob das jemand bestätigen kann ;)
HI
Wie verhält sich der Treiber in andern Games?
Gruss Labberlippe
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.