Archiv verlassen und diese Seite im Standarddesign anzeigen : ATT Adaptives Anti-Aliasing
Vanilla
2009-05-03, 16:28:12
Tach,
kann mir jemand sagen wie ich beim ATT, für das adaptive Anti-Aliasing, zwischen der Supersampling-Methode und der Multisampling-Metode auswählen kann?
Am besten man sagt mir genau was ich Einstellen soll?
http://vanilla67.va.funpic.de/Diverses/ATT_D3D.jpg
Spasstiger
2009-05-03, 16:32:13
Der Treiber unterscheidet nicht mehr zwischen Supersampling und Multisampling, sondern verwendet je nach Spiel ein vordefiniertes Verfahren. Das kann auch mal was anderes sein als Transparenz-Multisampling-AA oder Transparenz-Supersampling-AA. EATM holt AMD z.B. auch öfters aus der Trickkiste. Was genau verwendet wird, entscheidet wie gesagt der Treiber. Als Nutzer hat man afaik keinerlei Einfluss darauf.
AMD/ATI hat sich bei der Namensgebung "adaptives AA" schon was gedacht. ;)
Wenn du mehr Kontrolle willst, musst du eine GeForce kaufen. Da sind die Transparenz-AA-Modi aber teils deutlich langsamer bei subjektiv gesehen nicht unbedingt besserer Bildqualität.
y33H@
2009-05-03, 17:16:01
TMSAA ist auf Radeons wie Geforces nahezu kostenlos, TSSAA reißt die Radeons übelst rein - Geforces nicht so sehr. TSSAA bietet (abgesehen von SSAA) die aktuell beste BQ bei gesampelten Alpha-Tests, das Ati'sche EATM verfälscht leider den Content indem es ihn aufbläht.
Der Schalter in den ATTs ist nutzlos.
Iceman346
2009-05-03, 17:25:15
Und TSSAA gibts auch nur bei ganz wenigen Spielen, mir fällt aktuell nur WoW ein und da geht die Framerate in Waldgebieten auch mal locker auf 20-30 runter bei 4xAA mit AAA. Gut aussehen tuts aber.
Gerade in WoW fand ich EATM toll. Es zermatschte die gesamte, recht hässliche Alphatest-Flora und sorgte damit für einen etwas weicheren, realistischeren Look. Zudem war der Effekt fast kostenlos. SS-AAA ist wegen der geringen (wenn auch schwer "optimierten") Füllrate der Karten ein Leistungskiller. Warum kann man das nicht mehr auswählen, verdammt?
MfG,
Raff
InsaneDruid
2009-05-03, 18:09:26
Hast du dir ja grade selbst beantwortet. Schadet nur der Balkenlänge.
Iceman346
2009-05-03, 18:13:11
Grad in WoW gibts doch die leistungsfressendere Variante vom Treiber ;) Außerdem ist das ja nicht grad ein Spiel welches dauernd in Benchmarks vorkommt.
reunion
2009-05-03, 18:16:29
TSSAA reißt die Radeons übelst rein - Geforces nicht so sehr.
Blödsinn.
SS-AAA ist wegen der geringen (wenn auch schwer "optimierten") Füllrate der Karten ein Leistungskiller.
SSAA erhöht intern die Auflösung und kostet deshalb auf jeder Karte gleich viel sofern kein CPU-Limit vorliegt.
AnarchX
2009-05-03, 18:24:28
SSAA erhöht intern die Auflösung und kostet deshalb auf jeder Karte gleich viel sofern kein CPU-Limit vorliegt.
Das kann man sagen, wenn es auf das gesamte Bild angewendet wird.
Wenn jedoch nur Teile des Bildes behandelt werden, dann kann es hier wohl durchaus unterschiedliche Skalierung geben, eben je nachdem wie die betreffenden Pixel berechnet werden.
Und bei simpler Alpha-Textur-Vegetation, wo eher weniger Shader einfließen, kann der Füllratenvorteil einer entsprechenden GeForce im vergleich zu einer entsprechenden Radeon wohl durchaus relevant sein.
Man erinnere sich an die 2900XT, die damals zum Launch noch TRSSAA beherrschte:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/22/#abschnitt_oblivion
reunion
2009-05-03, 18:31:04
Dass kann man sagen, wenn es auf das gesamte Bild angewendet wird.
Wenn jedoch nur Teile des Bildes behandelt werden, dann kann es hier wohl durchaus unterschiedliche Skalierung geben, eben je nachdem wie die betreffenden Pixel berechnet werden.
Und bei simpler Alpha-Textur-Vegetation, wo eher weniger Shader einfließen, kann der Füllratenvorteil einer entsprechenden GeForce im vergleich zu einer entsprechenden Radeon wohl durchaus relevant sein.
Richtig. Es kann aber bei Alpha-Tests genau so verstärkt zu Shadereinsatz (durch Lichteinfall, Spiegelungen, etc.) kommen, und dann kann die höhere Rechenleistung eine entsprechenden Radeon im Vergleich zu eine Geforce genau so zu weniger Leistungsabfall führen. Man kann es jedenfalls nicht pauschalisieren. FS-SSAA kostet jedenfalls prinzipbedingt auf jeder Karte gleich viel. X-fache Auflösung bedeutet nun mal X-fache Arbeit. Diese urban Legende von wegen SSAA-Vorteile wegen höherer Texelfüllrate sollten endlich in das Tal der Vorurteile verschwinden. Das stammt noch aus einer Zeit als Grafikkarten keine ALUs hatten.
Blödsinn.
SSAA erhöht intern die Auflösung und kostet deshalb auf jeder Karte gleich viel sofern kein CPU-Limit vorliegt.
Kein Blödsinn. Im Durchschnitt verliert eine Radeon prozentual mehr Leistung, wenn SS-AAA zum Einsatz kommt als eine GeForce mit TSSAA. Theorie ist schön und gut, die Praxis ist jedoch aussagekräftiger.
MfG,
Raff
AnarchX
2009-05-03, 18:37:21
@reunion
Natürlich können auch umgekehrte Fälle auftreten, wo die Architektur der Radeons Vorteile haben können. Aber das mit den füllratenlastigen Alphatests ist wohl eine Sache die häufig in der Vergangenheit zur Anwendung kam und sich deshalb entsprechende Urteile bei den Usern gebildet haben.
btw.
Was sind denn eigentlich aktuelle Titel, wo ATi noch TRSSAA anwendet?
deekey777
2009-05-03, 18:39:07
...
btw.
Was sind denn eigentlich aktuelle Titel, wo ATi noch TRSSAA anwendet?
Alle OpenGL-Titel. Stimmt's oder habe ich Recht.
reunion
2009-05-03, 18:42:39
Kein Blödsinn. Im Durchschnitt verliert eine Radeon prozentual mehr Leistung, wenn SS-AAA zum Einsatz kommt als eine GeForce mit TSSAA. Theorie ist schön und gut, die Praxis ist jedoch aussagekräftiger.
MfG,
Raff
Wie schon gesagt: Das kommt auf das Szenario an. Auch müsste man genauestens analysieren wo dieses adaptive Verfahren bei beiden Herstellern in der jeweiligen Szene überhaupt greift, ansonsten kann es hier auch zu unfairen Verzerrungen kommen wenn bei einem Hersteller manche Alpha-Tests gar nicht erfasst werden od. dgl.
Das ist die Crux bei all diesen Vergleichen. Identische BQ, wie sie reines MSAA liefert, gibt's mit TAA zwischen den Herstellern nicht (oder höchst selten, nach ewiger Vergleicherei).
MfG,
Raff
Vanilla
2009-05-03, 19:41:18
OK, besten Dank an Spasstiger für die eindeutige Aussage. Irgendwie bräuchten wir mal einen Sammel-Thread für das ATT, es kommen ja immer mal wieder Fragen dazu und es gibt unzählige ATT-Threads da sucht man sich immer zu Tode.
y33H@
2009-05-03, 19:51:31
Blödsinn.Meinen Shots nach gibt sich TSSAA bei WoW optisch nichts - ob Radeon oder Geforce, es sieht gleich aus. Und da eine HD4k ein Füllraten-Krüppel ist, saugt TSSAA eben.
reunion
2009-05-04, 10:55:43
Meinen Shots nach gibt sich TSSAA bei WoW optisch nichts - ob Radeon oder Geforce, es sieht gleich aus. Und da eine HD4k ein Füllraten-Krüppel ist, saugt TSSAA eben.
Du hast nicht verstanden was ich gesagt habe. SSAA kostet nicht nur Texelfüllrate. Eine HD4K hat sogar verdammt viel Füllrate; Shaderfüllrate um genau zu sein. Das es bei WoW auf einer Radeon mehr kostet mag sein, das kann man aber nicht pauschalisieren.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.