PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : SSAA - immer besser für Texturen?


crane
2005-01-07, 18:14:03
Hallo,
mein Posting wurde inspiriert durch einen Screenshotvergleich eines HL2 Bildes von 6800 vs. X800.
Einstellungen waren:
8xs(neu)+16af (alle Opt.off) - 6800
6x+16af (alle Opt.off) - X800

Auf meinem Bild (6800GT) sehen die Hochspannungsmasten/E-Werk bzw.breite Häusefront anders aus, als auf dem X800-Shot eines Freundes.
Die Häuserfront im Detail, E-Werk/Hochspannung teilweise komplett anders.
Mein 4x+16x (hat kein SS) Shot ähnelt dem der X800 6x+16x in puncto Texturen hingegen sehr stark.

Meine Frage ist nun, ob AA mit Supersampling-Anteil Texturen IMMER "richtiger" und detailgetreuer bzw.artefaktärmer generiert (aber auf jeden Fall mindestens genauso gut), als ohne.
Oder sind auch Szenarien denkbar, in denen Texturen schlechter aussehen können.
Die Frage die sich stellt ist ja, wollte Valve dass die Texturen so aussehen, wie auf meinem SS-Shot, oder so, wie auf dem X800-Shot ohne SS.


Von der Theorie her ist es doch so, dass SS das Bild in eine höhere, detailreichere Auflösung rendert und dann wieder in die eingestellte Auflösung runterrechnet, mit dem Ziel "näher/detailgetreuer an der originalen" Textur zu sein - oder?

Grüße

zeckensack
2005-01-08, 01:58:50
Ist richtig. Supersampling verbessert Texturen.

Axel
2005-01-08, 09:12:55
Hallo,
mein Posting wurde inspiriert durch einen Screenshotvergleich eines HL2 Bildes von 6800 vs. X800.
Einstellungen waren:
8xs(neu)+16af (alle Opt.off) - 6800
6x+16af (alle Opt.off) - X800

Grüße

Wo kann man sich diesen Vergleich anschauen?

Exxtreme
2005-01-08, 10:06:12
Meine Frage ist nun, ob AA mit Supersampling-Anteil Texturen IMMER "richtiger" und detailgetreuer bzw.artefaktärmer generiert (aber auf jeden Fall mindestens genauso gut), als ohne.
SSAA glättet das komplette Bild. Deshalb frisst es aber Füllrate weg wie nix. Man kann den SSAA-Effekt auf die Texturen zum großen Teil auch mit anisotroper Filterung erreichen. Nur werden Alphatesting-Löcher mit dem AF nicht behandelt und MSAA ignoriert Texturen so oder so. Strommasten, Baumäste etc. werden gerne mit Alphatesting realisiert weil das relativ wenig Leistung frisst. Wenn man das glätten will, braucht man normalerweise Supersampling.

Demirug
2005-01-08, 10:44:18
SSAA glättet das komplette Bild. Deshalb frisst es aber Füllrate weg wie nix. Man kann den SSAA-Effekt auf die Texturen zum großen Teil auch mit anisotroper Filterung erreichen. Nur werden Alphatesting-Löcher mit dem AF nicht behandelt und MSAA ignoriert Texturen so oder so. Strommasten, Baumäste etc. werden gerne mit Alphatesting realisiert weil das relativ wenig Leistung frisst. Wenn man das glätten will, braucht man normalerweise Supersampling.

Das man den Alphatest nimmt hängt auch damit zusammen das damit im Gegensatz zum Alphablending der Z-Buffer nicht kaputt gemacht wird. Daraus folgt dann wieder das die halbtransparenten Objekten nicht vorsortiert werden müssen.

Notfalls bekommt man die Kanten beim Alphatest aber auch ohne Supersampling geglättet.

aths
2005-01-08, 15:43:26
Von der Theorie her ist es doch so, dass SS das Bild in eine höhere, detailreichere Auflösung rendert und dann wieder in die eingestellte Auflösung runterrechnet, mit dem Ziel "näher/detailgetreuer an der originalen" Textur zu sein - oder?Mit 4x OG Supersampling wird der Texturfilterkernel praktisch in beide Richtungen doppelt so fein aufgelöst. Da AF den "wahren" Kernel auch nur annähert, bringt SSAA selbst bei bereits aktiviertem AF noch eine kleine Verbesserung.

Allerdings stehen Qualitätsgewinn und Leistungsverlust in keinem annehmbaren Verhältnis. Damit lohnt SSAA nur bei ohnehin extrem CPU-limitierten Szenen bzw. dann, wenn die Grafik ohne SSAA "unnötig schnell" ist.

aths
2005-01-08, 15:44:43
SSAA glättet das komplette Bild.SSAA erhöht den Detailgrad im ganzen Bild, auch ein wenig in den Texturen. Aus dieser Überlegung heraus halte ich das Wort "Glättung" neuerdings nur für bedingt sinnvoll.

Exxtreme
2005-01-08, 16:04:38
SSAA erhöht den Detailgrad im ganzen Bild, auch ein wenig in den Texturen. Aus dieser Überlegung heraus halte ich das Wort "Glättung" neuerdings nur für bedingt sinnvoll.
Warum? Du gehst wohl davon aus, daß auch die Textureneinheiten die Texturen filtern. Das muss aber nicht unbedingt der Fall sein.

aths
2005-01-08, 16:32:27
Warum? Du gehst wohl davon aus, daß auch die Textureneinheiten die Texturen filtern. Das muss aber nicht unbedingt der Fall sein.Das ist seit Voodoo Graphics der Fall und kostet keine Leistung.

Tesseract
2005-01-08, 17:48:27
SSAA erhöht den Detailgrad im ganzen Bild, auch ein wenig in den Texturen.

wenig bezogen auf qualität/leistungsverlust. absolut ist es aber doch recht gewaltig. bei 4xOG immerhin eine verdopplung des AF grades im ganzen bild, also komplett ohne winkelabhängigkeit.

Exxtreme
2005-01-08, 22:30:16
wenig bezogen auf qualität/leistungsverlust. absolut ist es aber doch recht gewaltig. bei 4xOG immerhin eine verdopplung des AF grades im ganzen bild, also komplett ohne winkelabhängigkeit.
Kriegt man mit dem dedizierten AF effektiver hin. SSAA würde ich auch nicht als AF-Ersatz verwenden sondern eher zum Glätten der vielen Dinge einsetzen, bei denen MSAA versagt.

zeckensack
2005-01-08, 23:30:45
Kriegt man mit dem dedizierten AF effektiver hin. SSAA würde ich auch nicht als AF-Ersatz verwenden sondern eher zum Glätten der vielen Dinge einsetzen, bei denen MSAA versagt.Ack.

aths
2005-01-09, 01:51:30
wenig bezogen auf qualität/leistungsverlust. absolut ist es aber doch recht gewaltig. bei 4xOG immerhin eine verdopplung des AF grades im ganzen bild, also komplett ohne winkelabhängigkeit.AF schafft das mit maximal +100% Füllraten-Aufwand, wozu SSAA +300% braucht. Für einen 4xAF-Effekt braucht man mit (Z-Winkel-unabhängigem) AF maximal +300%, SSAA benötigt +1500%. Dazu hab ich kürzlich eine Kolumne (http://www.3dcenter.org/artikel/2004/12-20.php) geschrieben.

Tesseract
2005-01-09, 02:19:06
vielleicht sollte ich mich etwas anders ausdrücken wenn mich gleich 3 leute hintereinander falsch verstehen? :eek::D

ich hab gemeint: der quallitätsgewinn ist relativ klein vergleichen mit dem mehrrechenaufwand der dadurch entsteht. aber wenn SS "ein wenig" die texturen verbessert, was macht es dann "viel"? ich würde es einfach nicht als "ein wenig" sondern "entsprechend" bezeichen. thats it ;)

SKYNET
2005-01-09, 06:49:13
also warhammer - firewarrios(zocke ich z.z.) ist mit 4x AA / 16xAF echt grässlich, mit 8xSA / 16xAF hingegen sieht das ganze aus wie geleckt.

selbiges gilt für NFUS 1 & 2, games ohne SSAA anteil kommen mir netmehr auffn monitor, normales AA ist schlichtweg zu schlecht für meine augen.

p.s. zocke immer bei 1600*1200(ein grund warum ich mir 2 ultras geownt habe, weil D3 geht nur bis maximal 4xAA/16xAF bei 1600*1200 alle details on, mit einer karte. :(
sobald ich 8xSA reinschalte isses ne diashow, und OpenGL hat ja leider den nachteil das es nur ab 8x das SSAA unterstützt(zumindest treiber & atuner technisch).

oder ich müsste ein paar auflösungen niedriger spielen(1024 war glaube ich beim test mit 8xAF flüssig mit 8xSA), was natürlich net in frage kommt, minimum ist immer das maximum. :cool:

fazit: only 1600*1200 8xSA / 16xAF oder garnicht.

SSAA gehört eh die zukunft.

Mackg
2005-01-09, 14:13:06
Mit 4x OG Supersampling wird der Texturfilterkernel praktisch in beide Richtungen doppelt so fein aufgelöst.


Ist die Texturqualität bei 2x Sparsed SSAA nicht eigentlich besser als bei 2x OG SSAA?
Ich meine es wird doch wie bei 4xOG SSAA die Textur in beide Richtungen doppelt so fein aufgelöst (oben-unten/links rechts) oder habe ich da einen Denkfehler?.
Man könnte es ja auch mit einer Voodoo4/5 und einer Geforce in Q3 z.B. testen.

Tesseract
2005-01-09, 14:40:41
Ist die Texturqualität bei 2x Sparsed SSAA nicht eigentlich besser als bei 2x OG SSAA?

bei 2x sollte das auf jedenfall so sein weil 1x2 bzw. 2x1 OG "nur in eine richtung" verbessert und daher die verteilung (die afaik entscheidend ist - zusammen mit der anzahl der samples) besser ist als bei 1x2/2x1.
aber horizontal/vertikal symmetrische muster wie 4xOG dürften dank der besseren verteilung die nase vorn haben gegenüber 4xRG

Exxtreme
2005-01-09, 15:04:04
OGSSAA sollte für Texturen eigentlich besser sein als Sparsed/RGSSAA. Für Kanten ist es wiederum umgekehrt. ATis R200 kann das IIRC unter Umständen.

Tesseract
2005-01-09, 15:18:02
OGSSAA sollte für Texturen eigentlich besser sein als Sparsed/RGSSAA.

und was ist mit 2xRG vs. 2xOG? in dem sonderfall hat RG nämlich die weit bessere verteilung.

Mackg
2005-01-09, 15:57:26
und was ist mit 2xRG vs. 2xOG? in dem sonderfall hat RG nämlich die weit bessere verteilung.



Wenn das so wäre (müsste man mal ausprobieren, wie ich schon angesprochen habe), dann wäre 2x sparsed SSAA doch eine gute allroundlösung, die hoffentlich auch mal wieder in Gfxhardware implementiert wird.

aths
2005-01-09, 20:00:38
und was ist mit 2xRG vs. 2xOG? in dem sonderfall hat RG nämlich die weit bessere verteilung.Nah. 2x SSAA kann immer nur in eine Richtung den AF-Effekt bringen. Bei 2x RG dreht man diese Richtung zwar, aber damit wird es nicht "weit" besser, was Texturen angeht. Kanten profitieren allerdings stark.

Tesseract
2005-01-09, 20:46:15
2x SSAA kann immer nur in eine Richtung den AF-Effekt bringen.

aber müsste nicht 0° und 90° beim RG zumindest einen teil abbekommen? (natürlich nicht das volle)
genauer gesagt alle anderen winkel abgesehen von der totalen normale drauf.

aths
2005-01-09, 21:04:59
aber müsste nicht 0° und 90° beim RG zumindest einen teil abbekommen? (natürlich nicht das volle)
genauer gesagt alle anderen winkel abgesehen von der totalen normale drauf.Der Winkelbereich, in dem der AF-Effekt mehr oder minder stark appliziert wird, bleibt gleich groß, egal ob OG oder RG; er wird lediglich anders ausgerichtet. Ich wüsste nicht mit welchem Argument man bei Texturen eine bestimmte Richtung bevorzugen sollte.

godess
2005-01-15, 20:24:34
kann mir mal bitte einer diese ganzen AA-formen erlären? für mich gabs bisher nur SSAA MSAA, aber mit OGAA kann ich schon wieder nix anfagen

Demirug
2005-01-15, 20:31:13
kann mir mal bitte einer diese ganzen AA-formen erlären? für mich gabs bisher nur SSAA MSAA, aber mit OGAA kann ich schon wieder nix anfagen

Das könnte helfen:

http://www.3dcenter.org/artikel/anti-aliasing-masken/
http://www.3dcenter.org/artikel/multisampling_anti-aliasing/
http://www.3dcenter.org/artikel/anti-aliasing/

Ailuros
2005-01-16, 13:20:28
Nah. 2x SSAA kann immer nur in eine Richtung den AF-Effekt bringen. Bei 2x RG dreht man diese Richtung zwar, aber damit wird es nicht "weit" besser, was Texturen angeht. Kanten profitieren allerdings stark.

Kanten moegen wohl enorm profitieren, aber moire wird unter so manchen Umstaenden besser von ordered grid behandelt. Haengt natuerlich stark von der Applikation ab.

Wie dem auch sei, waere es moeglich den Fuellraten-Verbrauch von zumindest 2xSSAA loszuwerden, wuerde ich 8xS als idealsten FSAA-modus bezeichnen, weil es eben die Vorteile beider "Welten" quasi kombiniert. Bis jetzt spiele ich die Mehrzahl meiner Rennspiele mit 8xS+AF in 1280.

aths
2005-01-16, 17:51:49
Kanten moegen wohl enorm profitieren, aber moire wird unter so manchen Umstaenden besser von ordered grid behandelt.Texturaliasing wird vom Texturfilter behandelt. Wenn nicht, ist

- entweder der Texturfilter falsch implementiert
- oder der Designer griff zu einer "bösen" Textur. (Weißes Rauschen, oder Nutzung der Maximalfrequenz)
- oder er nutzt den Alphatest ohne Blending.

Ich bin dagegen, Textur-Moiré mit Supersampling bekämpfen zu wollen.

Quasar
2005-01-16, 22:40:08
Ich bin dagegen, Textur-Moiré mit Supersampling bekämpfen zu wollen.
Schön - was aber, wenn das Moiré bereits da ist (bsw. weil das Game bereits fertig programmiert ist... AFAIK ist mieses Content-Design noch kein Rückgabegrund...)? Soll man eher den Krams ertragen oder lieber doch an den Symptomen herumdoktern, sofern die Leistung dafür vorhanden ist?

aths
2005-01-16, 23:20:27
Schön - was aber, wenn das Moiré bereits da ist (bsw. weil das Game bereits fertig programmiert ist... AFAIK ist mieses Content-Design noch kein Rückgabegrund...)? Soll man eher den Krams ertragen oder lieber doch an den Symptomen herumdoktern, sofern die Leistung dafür vorhanden ist?Sofern die Leistung vorhanden ist, sollte man sie natürlich in Qualität umsetzen – ist doch eine Banalität.

Ich kann aber mit meiner 5900 selbst das vergleichsweise anspruchslose Max Payne 2 kaum mit 4xS AA spielen, wenn ich auf dem TFT spiele (in 1280x960.) Sinniger wäre es, wenn Remedy Polygonsorting und Alphablending als Option eingebaut hätten.

Xmas
2005-01-17, 00:47:54
Texturaliasing wird vom Texturfilter behandelt. Wenn nicht, ist

- entweder der Texturfilter falsch implementiert
- oder der Designer griff zu einer "bösen" Textur. (Weißes Rauschen, oder Nutzung der Maximalfrequenz)
- oder er nutzt den Alphatest ohne Blending.
Oder es wird ein nichtlinearer Shader verwendet.

Exxtreme
2005-01-17, 00:58:23
Sinniger wäre es, wenn Remedy Polygonsorting und Alphablending als Option eingebaut hätten.
Tja, wenn...

Oft ist es sicherlich sinniger wenn der Prophet zum Berge kommt und nicht umgekehrt. ;) Ohne vermurksten Content würde ich auch nie SSAA fordern. Dummerweise ist schlechter Content eher die Regel denn eine Ausnahme. ;(

Exxtreme
2005-01-17, 01:02:17
Doppelpost wg. Server

Exxtreme
2005-01-17, 01:02:53
Doppelpost.

Exxtreme
2005-01-17, 01:03:16
Doppepost

MadManniMan
2005-01-17, 02:56:36
Was leider immer wieder bemerkbar ist: SS hat einen besseren Effekt auf das Gesamtbild, als MS und AF kombiniert - zuerst dachte ich nur, dieser wäre(so minimal er auch ist) rein subjektiv, doch kommt hier die Optimierung der AF-Varianten deutlich zur Geltung...

...ich habe mich über Weihnachten einer BQ-Vergleichsorgie hingegeben: meine FX5800 durfte diverse Spiele in 4*OGMS + 2*AF @HQ(also durchaus Lehrbuchquali) und andererseits 4*OGSS darstellen - auf Screenshots war der Unterschied marginal, in Bewegung ward das ruhigere Bild durch 4*SS entstanden - nicht nur Schärfe ist in Texturen für mich ein wesentlicher Qualitätsfaktor, sondern auch Ruhe in diesen.

Ailuros
2005-01-17, 03:25:26
Texturaliasing wird vom Texturfilter behandelt. Wenn nicht, ist

- entweder der Texturfilter falsch implementiert
- oder der Designer griff zu einer "bösen" Textur. (Weißes Rauschen, oder Nutzung der Maximalfrequenz)
- oder er nutzt den Alphatest ohne Blending.

Ich bin dagegen, Textur-Moiré mit Supersampling bekämpfen zu wollen.

Zwischen Theorie und Praxis ist eben der feine Unterschied hier, dass mehr als nur ein Entwickler in mehr als nur einer Stelle verpatzen. Wenn jeglicher Neben-effekt eben mal existiert, dann kann ich entweder den Quark ertragen oder ich kann eventuell zu SSAA als Notloesung greifen.

Froehliches Beispiel auf dem Gebaeude (NEIN ich meine nicht den Zaun) auf den folgenden Shots:

4xRGMS + 8xAF:

http://users.otenet.gr/~ailuros/4xMSAA.jpg

8xS + 8xAF:

http://users.otenet.gr/~ailuros/8xS.jpg

Und hier nochmal der Unterschied zwischen rotated und ordered grid wenn es zu parallelen Linien und moire kommt:

http://web.onetel.net.uk/~simonnihal/assorted3d/samppat.html

Es gibt uebrigens ein uraltes FSAA-demo irgendwo bei B3D, wo man diverse Supersampling modi mit den gebogenen Linien mit ordered oder rotated grid testen kann.

Uebrigens der Satz auf den Du gerade geantwortet hast, betrifft nur den Unterschied zwischen ordered und rotated grid und dieser tritt auch bei Supersampling auf.

MarcWessels
2005-01-17, 05:29:16
fazit: only 1600*1200 8xSA / 16xAF oder garnicht.

Damit dürfte aber so ziemlich JEDES Spiel ohne SLI ruckeln...

][immy
2005-01-17, 07:47:45
also warhammer - firewarrios(zocke ich z.z.) ist mit 4x AA / 16xAF echt grässlich, mit 8xSA / 16xAF hingegen sieht das ganze aus wie geleckt.

selbiges gilt für NFUS 1 & 2, games ohne SSAA anteil kommen mir netmehr auffn monitor, normales AA ist schlichtweg zu schlecht für meine augen.

p.s. zocke immer bei 1600*1200(ein grund warum ich mir 2 ultras geownt habe, weil D3 geht nur bis maximal 4xAA/16xAF bei 1600*1200 alle details on, mit einer karte. :(
sobald ich 8xSA reinschalte isses ne diashow, und OpenGL hat ja leider den nachteil das es nur ab 8x das SSAA unterstützt(zumindest treiber & atuner technisch).

oder ich müsste ein paar auflösungen niedriger spielen(1024 war glaube ich beim test mit 8xAF flüssig mit 8xSA), was natürlich net in frage kommt, minimum ist immer das maximum. :cool:

fazit: only 1600*1200 8xSA / 16xAF oder garnicht.

SSAA gehört eh die zukunft.

Es ist mir jedes mal ein Rätzel warum leute die Auflösung so hoch schrauben um eine möglichst gutes Bild zu bekommen und dafür ein flimmerndes Bild hinnehmen. Dein 19' Monitor schafft bei der Auflösung grad mal 75 Hz (den du da über deine sig angegeben hast) das ist irgendwie alles andere als flimmerfrei.


@Topic
klar ist SSAA für gewöhnlich besser, da es einfach mehr filtert, aber es ist extrem ineffizient
Ob man nun 8xSSAA wählt mit verringerten Details (um genügend Leistung für das AA freizuhalten) oder 8x MSAA mit vollen details. also ich würd mich an dieser stelle für die maximalen details entscheiden (wobei beide AA modies bei heutigen spielen wohl eher unspielbar wären).

aths
2005-01-17, 08:14:24
Zwischen Theorie und Praxis ist eben der feine Unterschied hier, dass mehr als nur ein Entwickler in mehr als nur einer Stelle verpatzen. Wenn jeglicher Neben-effekt eben mal existiert, dann kann ich entweder den Quark ertragen oder ich kann eventuell zu SSAA als Notloesung greifen.Ja, zum besonders ineffizienten OGSSAA. Das mache ich, sofern die Leistung da ist, natürlich auch. Leider gibt es kaum Spiele, wo die Leistung da ist.

Quasar
2005-01-17, 08:31:42
Sofern die Leistung vorhanden ist, sollte man sie natürlich in Qualität umsetzen – ist doch eine Banalität.

Ich kann aber mit meiner 5900 selbst das vergleichsweise anspruchslose Max Payne 2 kaum mit 4xS AA spielen, wenn ich auf dem TFT spiele (in 1280x960.) Sinniger wäre es, wenn Remedy Polygonsorting und Alphablending als Option eingebaut hätten.

Wie Exxtreme schon sagt - theoretisch gebe ich dir gern recht, aber das wird den bereits vorhandenen Content leider in keinster Weise ändern, so daß man zur Bekämpfung derart ekliger Symptome leider auf SSAA angewiesen bleibt bzw. das Gekröse eben ertragen muss.

Ailuros
2005-01-17, 11:04:27
Ja, zum besonders ineffizienten OGSSAA. Das mache ich, sofern die Leistung da ist, natürlich auch. Leider gibt es kaum Spiele, wo die Leistung da ist.

HL2 ist so bekloppt CPU limitiert (nun gut rechne noch dazu dass mich auch der XP3000+ limitiert), dass ich fast keinen Unterschied zwischen 4xRGMS + 8xAF und 4xS + 8xAF in der Leistung sehen kann.

OT: sage ich jetzt dass ich mehr als guten Grund zum meckern habe was jeniges oder die meisten "sogenannten" dx9.0 Spiele betrifft, wird es wohl wieder zu so manchen Meinungsverschiedenheiten kommen.

MarcWessels
2005-01-18, 04:05:30
[immy']Es ist mir jedes mal ein Rätzel warum leute die Auflösung so hoch schrauben um eine möglichst gutes Bild zu bekommen und dafür ein flimmerndes Bild hinnehmen. Dein 19' Monitor schafft bei der Auflösung grad mal 75 Hz (den du da über deine sig angegeben hast) das ist irgendwie alles andere als flimmerfrei.

Ich spiel freiwillig alles in 60hz.

Wurschtler
2005-01-18, 13:11:42
Ich spiel freiwillig alles in 60hz.

Hast du zufällig Augenkrebs? :D

DrumDub
2005-01-18, 14:07:28
Hast du zufällig Augenkrebs? :D

eher kopfschmerzen von dem geflimmer... ;)

EL_Mariachi
2005-01-18, 16:23:27
oder nen TFT ;)

][immy
2005-01-19, 07:06:09
oder nen TFT ;)

nen tft der 1600*1200 schafft (?)

abgesehen davon steht in seiner sig (bzw hinter dem link in seiner sig) etwas von samtron 19' (sollte in etwa der sein, den ich auch habe) der bei dieser auflösung 75 hz schafft.. wie man dann freiwillig noch in 60hz spielen kann ist mir ein rätzel

und noch @ topic

ist bei heutigen spielen SSAA auf neueren karten (a la geforce 6800+) noch nutzbar, oder reicht dafür die leistung dann doch nicht mehr (so in 1024*768)

benötigt SSAA mehr grafikspeicher als MSAA oder macht das keinen unterschied?

Grestorn
2005-01-19, 07:34:49
[immy']nen tft der 1600*1200 schafft (?)Sowas soll's durchaus geben (z.B. bei mir zu hause :) )

[immy']ist bei heutigen spielen SSAA auf neueren karten (a la geforce 6800+) noch nutzbar, oder reicht dafür die leistung dann doch nicht mehr (so in 1024*768)

benötigt SSAA mehr grafikspeicher als MSAA oder macht das keinen unterschied?Das kommt auf das Spiel an. 8xS (alt, also 2x2SS + 2xMS) ist in Gothic 2 auch auf einer normalen 6800GT sehr gut spielbar (in 1024x768).

Bei FC oder Doom3 wirst Du dagegen nicht viel Freude haben... :)

SSAA braucht eigentlich - auf nVidia Prozessoren - nicht mehr als MS, das liegt aber daran, dass nVidia auch bei MS erst beim Scanout downfiltert. Grundsätzlich kann man MS aber auch speichersparender implementieren, so wie ATI das tut.

Supersampling braucht dagegen, so weit ich das weiß, immer den vollen Grafikspeicher, der durch den SS Faktor bestimmt wird. Also bei 2x2 SS die 4-fache Menge an Speicher.

][immy
2005-01-19, 07:44:23
[QUOTE=grestorn]Sowas soll's durchaus geben (z.B. bei mir zu hause :) )
QUOTE]

sicher das dein TFT nicht nur eine höhere auflösung simuliert und in wirklichkeit nicht größer als 1280*960 ist?
wüsste jetzt nicht das TFT monitore neuerdings solche auflösung ohne mogeln des herstellers unterstützen

MarcWessels
2005-01-19, 08:08:13
oder nen TFT ;)

Nö, Ilyama CRT. ;) Die Bildwiederholfrequenz soll zur Framerate passen - deshalb.

Grestorn
2005-01-19, 09:42:32
[immy'][QUOTE=grestorn]Sowas soll's durchaus geben (z.B. bei mir zu hause :) )
QUOTE]

sicher das dein TFT nicht nur eine höhere auflösung simuliert und in wirklichkeit nicht größer als 1280*960 ist?
wüsste jetzt nicht das TFT monitore neuerdings solche auflösung ohne mogeln des herstellers unterstützenNa, da bist Du aber sehr schlecht informiert. Schon mein alter Iiyama TFT unterstützt 1600x1200 native, wenn auch nicht unbedingt FPS geeignet.

Hier ist mein aktuelles Modell: Dell 2001FP (http://accessories.euro.dell.com/sna/ProductDetail.aspx?sku=17998&c=de&l=de&cs=dedhs1&category_id=5194&first=true&page=productlisting.aspx). Nur habe ich leider dafür in der ersten Hälfte des letzten Jahres noch über €900,- bezahlt :(

Ailuros
2005-01-19, 12:52:02
Nö, Ilyama CRT. ;) Die Bildwiederholfrequenz soll zur Framerate passen - deshalb.

60Hz auf einem CRT? Ach Du liebe Zeit.... :| ....nun ja wenn's Dich nicht stoert, dann gibt's auch nichts dagegen einzuwenden...

------------------------------------------------------------------

Hybride MS/SSAA modi (diejenigen die nur einen 2xSSAA Anteil haben, ie 8xS=2xOGSS+4xRGMS, 4xS) sind auf NV40 unter Umstaenden sogar in 1280 nutzbar, wobei es aber eher ein aelteres Spiel sein wird oder eben eins der Rennspiele wo man sowieso keine so hohe Leistung braucht.

Der wichtigste Grund warum das Nutzen jeglicher Form oder Anteils von SSAA begrenzt ist, ist wohl eher die Fuellrate. Bei 2xSSAA = 1/2 Fuellrate, 4xSSAA = 1/4 Fuellrate usw.

Eines der wichtigsten Gruende warum Supersampling auch wesentlich unpraktischer ist als Multisampling, weil eben beim letzteren der Fuellraten-verbrauch vergleichsmaessig um einiges kleiner ist. Es waere natuerlich wuenschenswert dass die Mehrzahl der Entwickler mehr Ruecksicht auf aliasing/moire usw. nehmen wuerden, so dass die Notwendigkeit von SSAA wenn nicht eliminiert zumindest minimalisiert wird.

Bei aelteren Spielen gibt es noch im relativen Sinn Entschuldigungen; bei neueren Spielen wie z.B. HL2 (siehe z.B. Zaeune, Baueme usw.) ist der Gebrauch von alpha blending eine Zumutung; ueberhaupt wenn man das Ding auf Radeons entwickelt hat AFAIK.

Ailuros
2005-01-19, 12:58:47
SSAA braucht eigentlich - auf nVidia Prozessoren - nicht mehr als MS, das liegt aber daran, dass nVidia auch bei MS erst beim Scanout downfiltert. Grundsätzlich kann man MS aber auch speichersparender implementieren, so wie ATI das tut.

Huh? Um wieviel ist sagen wir mal 4x sparsed MSAA schneller auf einer 128mb als auf einer 256mb R360 in 1600*1200? Gleiches gilt im Vergleich der letzteren mit 128mb/NV43 oder 6800, wo immer die Bandbreite nicht limitiert.

Von Vergleichen was 6xMSAA betrifft zwischen ATI und NVIDIA kann ja nicht aus verstaendlichen Gruenden die Rede sein.

Von dem abgesehen wuerde ich gerne mal hoeren warum in den geleakten Xenon GPU Spezifikationen "read@resolve" drinsteht, wenn ATI tatsaechlich so viel mehr an Framebuffer sparen wuerde....

Exxtreme
2005-01-19, 13:06:58
Bei aelteren Spielen gibt es noch im relativen Sinn Entschuldigungen; bei neueren Spielen wie z.B. HL2 (siehe z.B. Zaeune, Baueme usw.) ist der Gebrauch von alpha blending eine Zumutung; ueberhaupt wenn man das Ding auf Radeons entwickelt hat AFAIK.
Der Vorteil von Alphatesting ist, daß es recht "billig" zu haben ist. Alphablending verbraucht viel Bandbreite und zusätzlich noch CPU-Leistung weil man Polygone sortieren muss. Man kann auch noch ausmodellieren mit Polygonen. Das frisst aber auch wieder mehr Rechenleistung als Alphatesting. Und ich gehe auch davon aus, daß die Contenterstellung dabei komplizierter und somit teurer ist.

Grestorn
2005-01-19, 13:14:22
Huh? Um wieviel ist sagen wir mal 4x sparsed MSAA schneller auf einer 128mb als auf einer 256mb R360 in 1600*1200? Gleiches gilt im Vergleich der letzteren mit 128mb/NV43 oder 6800, wo immer die Bandbreite nicht limitiert.

Von Vergleichen was 6xMSAA betrifft zwischen ATI und NVIDIA kann ja nicht aus verstaendlichen Gruenden die Rede sein.

Von dem abgesehen wuerde ich gerne mal hoeren warum in den geleakten Xenon GPU Spezifikationen "read@resolve" drinsteht, wenn ATI tatsaechlich so viel mehr an Framebuffer sparen wuerde....Was willst Du damit sagen? Stimmt irgendetwas an meiner Aussage nicht, dass ATI bei MSAA weniger Speicher benötigt, als nVidia?

Irgendwie verstehe ich Dein Posting überhaupt nicht.

Ailuros
2005-01-19, 14:08:09
Was willst Du damit sagen? Stimmt irgendetwas an meiner Aussage nicht, dass ATI bei MSAA weniger Speicher benötigt, als nVidia?

Irgendwie verstehe ich Dein Posting überhaupt nicht.

Ich fragte eher erstmal nach Beweisen zu Deiner Theorie, denn ich hab bis jetzt nichts relevantes bemerken koennen, zumindest nicht in heutigen Spielen.

Ailuros
2005-01-19, 14:21:33
Der Vorteil von Alphatesting ist, daß es recht "billig" zu haben ist. Alphablending verbraucht viel Bandbreite und zusätzlich noch CPU-Leistung weil man Polygone sortieren muss. Man kann auch noch ausmodellieren mit Polygonen. Das frisst aber auch wieder mehr Rechenleistung als Alphatesting. Und ich gehe auch davon aus, daß die Contenterstellung dabei komplizierter und somit teurer ist.

Das Problem ist dass die besagte "Billigkeit" im Endeffekt doch eine teurere Rechnung fuer mich als Verbraucher darstellt wenn ich zu SSAA greifen muss.

Um das Grusel-fest von alpha blending zufriedenstellend loszuwerden muss ich zumindest erstmal 1/4 der Fuellrate aufopfern und ich will ernsthaft bezweifeln dass sich die Leistung genauso viel reduziert wie bei alpha tests.

Von dem abgesehen ja Content-herstellung ist ein Gedanke; in ganz vereinfachter Form heisst das ganz einfach Entwickler-Faulheit. Wenn's gar nicht anders gehen sollte dann laesst man eben mal notfalls den oeden Zaun als Beispiel weg oder denkt an kreativere Alternativen.

Solch ein Zaeunchen dass mir wie tanzende Maeander ueber's Bild flimmert, erhoeht wohl die Bildqualitaet erstmal gar nicht (eher das Gegenteil) und schon gar nicht in 2004/5 wo die Mehrzahl der GPUs auf Multisampling optimiert sind.

aths
2005-01-19, 15:22:28
Das Problem ist dass die besagte "Billigkeit" im Endeffekt doch eine teurere Rechnung fuer mich als Verbraucher darstellt wenn ich zu SSAA greifen muss.Genau. Alphatesting ist spätestens im Zusammenhang mit anisotroper Texturfilterung ohnehin einfach falsch.

Der Vorteil von Alphatesting ist, daß es recht "billig" zu haben ist. Alphablending verbraucht viel Bandbreite und zusätzlich noch CPU-Leistung weil man Polygone sortieren muss. Man kann auch noch ausmodellieren mit Polygonen. Das frisst aber auch wieder mehr Rechenleistung als Alphatesting. Und ich gehe auch davon aus, daß die Contenterstellung dabei komplizierter und somit teurer ist.Schon eine GF4 Ti hat die T&L-Power von zwei Vertexshadern. Statische Geometrie ist, vernünftig geproggt, billig. Die meisten Objekte wo Alphatesting verwendet wird, sind statisch. Man könnte sie ohne erhebliche Performanceinbußen geometrisch modellieren.

Bei Maschendrahtzäunen käme man damit natürlich in Teufels Küche. Doch für die Zaunflächen sind das meistens nicht sooo viele Polygone, diese (und nur diese) könnten fürs Alphablending schon ein Back-to-Front-Sorting vertragen ohne dass CPU und GPU gleich überfordert wären.

Asmodeus
2005-01-19, 15:40:06
Genau. Alphatesting ist spätestens im Zusammenhang mit anisotroper Texturfilterung ohnehin einfach falsch.

Schon eine GF4 Ti hat die T&L-Power von zwei Vertexshadern. Statische Geometrie ist, vernünftig geproggt, billig. Die meisten Objekte wo Alphatesting verwendet wird, sind statisch. Man könnte sie ohne erhebliche Performanceinbußen geometrisch modellieren.

Bei Maschendrahtzäunen käme man damit natürlich in Teufels Küche. Doch für die Zaunflächen sind das meistens nicht sooo viele Polygone, diese (und nur diese) könnten fürs Alphablending schon ein Back-to-Front-Sorting vertragen ohne dass CPU und GPU gleich überfordert wären.


Ok, auch wenn ich mich natürlich wiederhole, aber auf Alphatesting an sich kann man einfach nicht verzichten und ich würde es somit auch nicht als falsch hinstellen. Sicher, wenn wir nur über die Grafik in Spielen reden, da gibt es sicher immer Möglichkeiten, Dinge anders zu designen. Und auch das Sortieren ist bei Spielen vielleicht noch machbar. Aber allgemein ist Alphatesting (leider) unverzichtbar. Es gibt immer Komplexitäten, die ausmodelliert und sortiert auch auf Jahre hinaus jede CPU und GPU überfordern.

Gruss, Carsten

Mr. Lolman
2005-01-19, 15:41:34
Ich fragte eher erstmal nach Beweisen zu Deiner Theorie, denn ich hab bis jetzt nichts relevantes bemerken koennen, zumindest nicht in heutigen Spielen.

Doch, bei genügend Spielen gibts bei 128MB Karten ab 1280 nen ordentlichen Einbruch bei 4xMSAA, der bei ATi nicht (in dem Ausmaß) auftritt...

Exxtreme
2005-01-19, 15:46:08
Das Problem ist dass die besagte "Billigkeit" im Endeffekt doch eine teurere Rechnung fuer mich als Verbraucher darstellt wenn ich zu SSAA greifen muss.

Das ist dem Spieleproduzenten doch egal. :)
Je weniger ein Spiel Rechenleistung frisst desto grösser potenzielle Kundenkreis. Daß es einige Leute gibt, die sich daran stören könnten, das dürfte den Contenterstellern zwar bewusst sein. Nur dürften sie einen kleinen Anteil an der Gesamtkundschaft haben.

Von dem abgesehen ja Content-herstellung ist ein Gedanke; in ganz vereinfachter Form heisst das ganz einfach Entwickler-Faulheit. Wenn's gar nicht anders gehen sollte dann laesst man eben mal notfalls den oeden Zaun als Beispiel weg oder denkt an kreativere Alternativen.

Je einfacher die Contenterstellung desto schneller ist man fertig, was zu niedrigeren Kosten und mehr Gewinn führt. :)

aths
2005-01-19, 15:50:18
Ok, auch wenn ich mich natürlich wiederhole, aber auf Alphatesting an sich kann man einfach nicht verzichten und ich würde es somit auch nicht als falsch hinstellen. Sicher, wenn wir nur über die Grafik in Spielen reden, da gibt es sicher immer Möglichkeiten, Dinge anders zu designen. Und auch das Sortieren ist bei Spielen vielleicht noch machbar. Aber allgemein ist Alphatesting (leider) unverzichtbar. Es gibt immer Komplexitäten, die ausmodelliert und sortiert auch auf Jahre hinaus jede CPU und GPU überfordern.Im Zusammenhang mit AF ist Alphatesting falsch, da das Nyquist-Kriterium verletzt wird. Alphatesting per se ist kein Übel, aber die Übergänge sollten schon geblendet werden. (Damit kann noch immer Aliasing auftreten, aber es wird unwahrscheinlich.) Texturen sind imo zum texturieren da, nicht um geometrische Details nachzustellen.

Das ist dem Spieleproduzenten doch egal. :)
Je weniger ein Spiel Rechenleistung frisst desto grösser potenzielle Kundenkreis. Daß es einige Leute gibt, die sich daran stören könnten, das dürfte den Contenterstellern zwar bewusst sein. Nur dürften sie einen kleinen Anteil an der Gesamtkundschaft haben.

Je einfacher die Contenterstellung desto schneller ist man fertig, was zu niedrigeren Kosten und mehr Gewinn führt. :)Qualität zahlt sich schon aus. Zumal die Option besteht, dass Alphablending nur auf Wunsch genutzt wird. Max Payne z. B. nutzt mal dies, mal das. Wahrscheinlich haben die getestet, wie gut das in dem entsprechendem Level noch performt. Nur steigt die Leistung der PCs auch immer weiter. Allerdings müsste sie ganz gewaltig steigen, um die Qualität dann durch Supersampling (und auch noch OGSS) reinzuholen.

Grestorn
2005-01-19, 15:51:56
Ich fragte eher erstmal nach Beweisen zu Deiner Theorie, denn ich hab bis jetzt nichts relevantes bemerken koennen, zumindest nicht in heutigen Spielen.Ich kann es nicht beweisen, ich denke es ist allgemein bekannt, dass nVidia erst beim Scanout downfiltert.

Und der nVidias Einbruch bei hohen Auflösungen und 4xMSAA ist gerade hier im Forum schon oft diskutiert worden, wobei genau diese Tatsache als Begründung genannt wurde.

Asmodeus
2005-01-19, 16:04:26
...
Texturen sind imo zum texturieren da, nicht um geometrische Details nachzustellen.

.

Ich gehe jetzt einfach mal von aus, dass Du das nicht wirklich so meinst, wie es da steht. :wink:

Gruss, Carsten

zeckensack
2005-01-19, 20:39:16
Ich gehe jetzt einfach mal von aus, dass Du das nicht wirklich so meinst, wie es da steht. :wink:

Gruss, Carsten*hrhr* :naughty:
Ich weiß was du meinst.
Texturen sind ein vollwertiger Ersatz für koplanare und kohärente Geometriehaufen. Bei aktivem Alphatest ist allerdings letzteres nicht mehr gegeben.

aths
2005-01-19, 22:12:25
Ich gehe jetzt einfach mal von aus, dass Du das nicht wirklich so meinst, wie es da steht. :wink: Sollte ich es unwirklich so meinen?

Texturen sind eine billige Methode, Oberflächenmaterialien zu simulieren. Ich wüsste nicht, wieso man mit Texturen geometrisch modellieren sollte, wo für die Geometrie die Polygone da sind. Texturlöcher via Alphatest ohne Alphablending führen zu einer Reihe an Problemen. Alphablending führt auch zu Problemen. Man sollte meiner Meinung daher mit Polygonen arbeiten.

In einigen Fällen ist es billiger und vergleichbar gut (oder zumindest erträglich) mit Alphatest zu faken – dann aber bitte die Übergänge mit Blending verschönern.

*hrhr* :naughty:
Ich weiß was du meinst.Ich weiß es leider nicht =[

Quasar
2005-01-19, 22:56:27
*bump*
(hinthint)

zeckensack
2005-01-20, 02:15:12
Ich weiß es leider nicht =[Ich hab's doch schon geschrieben =)
Texturen haben noch ein paar andere nette Eigenschaften, allen voran die Freiheit von jeglichem Aliasing (bei vernünftiger Implementierung zumindest), aber sie sind eben auch ein geschummelter Ersatz für Geometrie.

Stell' dir einfach mal vor, du wolltest eine Backsteinmauer ohne Texturen rendern. Geometrie für jeden einzelnen Stein (dunkelrot), Geometrie für die Fugen (grau). Oder ein Kopfsteinpfalster, eine Rauhfasertapete oder einen Autoreifen. Oder oder oder.

Texturen sind nicht ausschließlich zur Visualisierung bedruckter Kartons und Wandgemälde erfunden worden.

hmx
2005-01-20, 02:31:42
Ich kann es nicht beweisen, ich denke es ist allgemein bekannt, dass nVidia erst beim Scanout downfiltert.

Und der nVidias Einbruch bei hohen Auflösungen und 4xMSAA ist gerade hier im Forum schon oft diskutiert worden, wobei genau diese Tatsache als Begründung genannt wurde.

Hmm hab bisher aber auch nix derartiges feststellen können. Meist wird ja mit AA+Af getestet. Bei mir wars bisher so das das AF der Grund des grösseren Einbruchs gegenüber der Konkurrenz (mit höherer Rohleistung) war. Das NV erst beim Scanout filtert ist klar, aber ich weiss nicht ob es nicht sein könnte das dies bei hohen Auflösungen anders gehandhabt wird. Wie zum Beispiel beim NV35 mit 128MB.

Ailuros
2005-01-20, 03:07:45
Ich kann es nicht beweisen, ich denke es ist allgemein bekannt, dass nVidia erst beim Scanout downfiltert.

Und der nVidias Einbruch bei hohen Auflösungen und 4xMSAA ist gerade hier im Forum schon oft diskutiert worden, wobei genau diese Tatsache als Begründung genannt wurde.

Dass NV filter@scanout benutzt ist nichts neues, nur bestaetigt es von sich alleine nicht Deine Behauptung. Was heisst ueberhaupt langsamer in Deinem Buch? Wieso filtert denn NV ueberhaupt beim scanout? Um Bandbreite zu sparen unter gewissen Bedingungen und ja ein bisschen mehr Framebuffer wird verpufft, aber das heisst bei weitem nicht dass beide IHVs auch genauso mit dem Speicher umgehen oder dass sie generell identische Methoden benutzen.

Also los mit der Suche:

Synthetischer Quark:

6800Ultra

RightMark/Lighting 4xAA = -0.2% from noAA
3dmark03/GT2 4xAA = -44.4% from noAA

http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=29

X800XT PE

RightMark/Lighting 4xAA = -4.4% from noAA
3dmark03/GT2 4xAA = -60% from noAA

http://www.beyond3d.com/reviews/ati/r420_x800/index.php?p=25

Spiele:

TR:AoD

6800 Ultra

1600/4xAA = -29.5%

http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=25

X800XT PE

1600/4xAA = -30.3%

http://www.beyond3d.com/reviews/ati/r420_x800/index.php?p=21

Den Rest kannst Du ja selber vergleichen.

Das System ist identisch in beiden Reviews, aber es ist auch zugegeben CPU limitiert mit einem 3GHz P4. Sonst wird heutzutage eher selten nur MSAA Leistung analysiert in Reviews; wenn dann in der Mehrzahl mit AF. AF kostet Fuellrate und es hier z.B. kein Wunder dass die einfache X800XT eine 6800GT in den Boden rennt mit 4xAA/8xAF, weil eben die erste auch 2.4GPixels/sec mehr Fuellrate hat:

http://www.xbitlabs.com/articles/video/display/ati-radeon-x850_14.html

Dezember 2004:

HL2:

1600/4xAA,8xAF/kanal4:

6800GT = -25%
X800PRO = -20%

http://www.techreport.com/reviews/2004q4/radeon-x800xl/index.x?pg=6

1600/4xAA,8xAF/boat7

6800GT = -33%
X800PRO = -43%

http://www.techreport.com/reviews/2004q4/radeon-x800xl/index.x?pg=7

Leider wieder mit AF, aber zumindest ist zwischen der X800PRO und der 6800GT die Fuellrate verdammt nahe dran; das zweite demo koennte tatsaechlich auf einen Treiber-bug deuten auf Radeons, aber ich hab auch mit Absicht generell OGL Benchmarks und spezifisch Doom3 mal weggelassen.

Wuerde sich einer hinsetzen und zwei Karten mit aehnlichem Preisniveau von den R4xx und NV4x Familien vergleichen und zwar einmal ohne und einmal mit 4xAA und die erste wuerde einen deutlichen Unterschied NUR mit AA aufzeigen dann waere die Geschichte anders. Bis jetzt sehe ich keine Daten die darauf hindeuten und ja beide IHVs verwalten ihre Framebuffer anders.

Zu guter letzt die vorerwaehnten 6600GT, 6800nonUltra (beide 128mb) und 9800XT (256mb) im Vergleich:

http://www.techreport.com/reviews/2004q3/geforce-6600gt/index.x?pg=1

Ailuros
2005-01-20, 03:11:31
Hmm hab bisher aber auch nix derartiges feststellen können. Meist wird ja mit AA+Af getestet. Bei mir wars bisher so das das AF der Grund des grösseren Einbruchs gegenüber der Konkurrenz (mit höherer Rohleistung) war. Das NV erst beim Scanout filtert ist klar, aber ich weiss nicht ob es nicht sein könnte das dies bei hohen Auflösungen anders gehandhabt wird. Wie zum Beispiel beim NV35 mit 128MB.

Jemand war schneller und hat es auch geschafft es besser zusammenzufassen...*rennt vor Scham davon* :D

Ailuros
2005-01-20, 03:48:26
Doch, bei genügend Spielen gibts bei 128MB Karten ab 1280 nen ordentlichen Einbruch bei 4xMSAA, der bei ATi nicht (in dem Ausmaß) auftritt...

Ein Link oder etwas relevante Dokumentation wuerde vielleicht helfen.

FarCry/1600 + 4xAA

256MB X800 = 35.4 fps (von noAA -33.6%)

http://www.beyond3d.com/reviews/sapphire/x800/index.php?p=9

128MB 6600GT = 23.6 fps (von noAA -49%)

http://www.beyond3d.com/previews/nvidia/nv43agp/index.php?p=9

Aus dem ersten Link oben:

Prior to 1600x1200 the X800 has a 17% performance advantage over the now defunct X700 XT, however at 1600x1200 both the 128MB boards are suffering a from a large fill-rate performance drop due to their memory limitations, so the performance difference is much greater - the 128MB X800 would almost certainly suffer a similar performance drop in this situation, however this 256MB board has sufficient local framebuffer space to house the 4x FSAA framebuffer and enough other level related data such that there isn't any kind of significant fill-rate performance drop.

Aus den gleichen Reviews, FarCry 1600*1200/4xAA,8xAF:

X700XT 128MB = 16.0 fps
6600GT (AGP) 128MB = 19.2 fps

Ailuros
2005-01-20, 04:10:31
Das ist dem Spieleproduzenten doch egal. :)
Je weniger ein Spiel Rechenleistung frisst desto grösser potenzielle Kundenkreis. Daß es einige Leute gibt, die sich daran stören könnten, das dürfte den Contenterstellern zwar bewusst sein. Nur dürften sie einen kleinen Anteil an der Gesamtkundschaft haben.

Der Unterschied in Leistung zwischen alpha blend und test ist nicht der Rede wert, ausser man ueberladet ein Spiel ueberhaupt mit alphas, was sich dann in Ueber-Entwickler-Faulheit uebersetzt.

Je einfacher die Contenterstellung desto schneller ist man fertig, was zu niedrigeren Kosten und mehr Gewinn führt. :)

Da ich mich mehrere Male auf HL2 bezogen habe in diesem Thread und da mich hier aliasing/shimmering/moire am meisten stoert als in allen anderen 2004-Spielen, ist wohl nichts dergleichen der Fall was dieses Spiel betrifft.

Wie lange liegen heutzutage populaere Spiele in Entwicklung? Von den ganz grossen Haeusern kann wohl schwer von 2 Jahren die Rede sein, eher in sehr optimistischen Faellen 3-4 Jahre.

Und es ist nicht so dass es diesen Spielen dann auch meistens an der Leistung fehlt, wenn sie dann endlich auf die Regale kommen. Ausser man verschwendet unnoetig CPU/Speicher Resourcen wie verrueckt wie eben in FarCry oder Everquest2.

Grestorn
2005-01-20, 06:58:17
Dass NV filter@scanout benutzt ist nichts neues, nur bestaetigt es von sich alleine nicht Deine Behauptung. Was heisst ueberhaupt langsamer in Deinem Buch? Wieso filtert denn NV ueberhaupt beim scanout? Um Bandbreite zu sparen unter gewissen Bedingungen und ja ein bisschen mehr Framebuffer wird verpufft, aber das heisst bei weitem nicht dass beide IHVs auch genauso mit dem Speicher umgehen oder dass sie generell identische Methoden benutzen.
Von langsamer habe ich nie etwas geschrieben. Lies meine Beiträge nochmal. Ich schrieb lediglich, dass nVidia bei MS mehr Speicher braucht als ATI da erst beim Scanout die Framebuffer zusammengerechnet werden.

Dass der höhere Speicherbedarf in bestimmten Situationen einen Einbruch der Framerate mit sich bringt, liegt nur daran, dass der Karte der Speicher für die Texturen zu knapp wird und diese wiederholt über den AGP Bus übertragen werden müssen.

"Ein bisschen" mehr Framebuffer ist das im übrigen nicht. Wir reden von Duplikaten des Framebuffers. Also bei 1600x1200x4 wird pro Framebuffer 7,5 MB verbraucht. Bei 4xMS werden also 30 MB zusätzlich verbraucht. Bei noch höherer Auflösung entsprechend mehr.

Die ganzen Benchmarks, die Du erwähnst, spielen doch kaum eine Rolle. Nur bestimmte Spiele, die den Speicher der Grafikkarte bis zum letzten Quentchen nutzen, werden in hohen Auflösungen unter 4xMSAA bei nVidia einbrechen. Das gilt sicherlich nur für einen kleinen Teil der erhältlichen Programme.

Ich verstehe immer noch nicht, was Du eigentlich gegen meine Aussage einzuwenden hast. Ich befürchte, Du hast meine ursprüngliche Aussage einfach nur falsch verstanden...

q@w
2005-01-20, 08:57:38
Ein Link [...] wuerde vielleicht helfen.


http://www.computerbase.de/artikel/hardware/grafikkarten/2004/x800_pro_xt_pe_geforce_6800_gt_ultra/17/#call_of_duty
(ab 1280, bes. Qualitätseinstellungen, Vergl. R9700p/5800u)

http://www.computerbase.de/artikel/hardware/grafikkarten/2004/x800_pro_xt_pe_geforce_6800_gt_ultra/16/#max_payne_2
(ab 1600, bes. Qualitätseinstellungen und Kommentar "out of vidmem", sowie Anmerkung bezgl. Double- statt Triple-Buffering...)

Ailuros
2005-01-20, 13:31:47
Von langsamer habe ich nie etwas geschrieben. Lies meine Beiträge nochmal. Ich schrieb lediglich, dass nVidia bei MS mehr Speicher braucht als ATI da erst beim Scanout die Framebuffer zusammengerechnet werden.

Dass der höhere Speicherbedarf in bestimmten Situationen einen Einbruch der Framerate mit sich bringt, liegt nur daran, dass der Karte der Speicher für die Texturen zu knapp wird und diese wiederholt über den AGP Bus übertragen werden müssen.

"Ein bisschen" mehr Framebuffer ist das im übrigen nicht. Wir reden von Duplikaten des Framebuffers. Also bei 1600x1200x4 wird pro Framebuffer 7,5 MB verbraucht. Bei 4xMS werden also 30 MB zusätzlich verbraucht. Bei noch höherer Auflösung entsprechend mehr.

Die ganzen Benchmarks, die Du erwähnst, spielen doch kaum eine Rolle. Nur bestimmte Spiele, die den Speicher der Grafikkarte bis zum letzten Quentchen nutzen, werden in hohen Auflösungen unter 4xMSAA bei nVidia einbrechen. Das gilt sicherlich nur für einen kleinen Teil der erhältlichen Programme.

Ich verstehe immer noch nicht, was Du eigentlich gegen meine Aussage einzuwenden hast. Ich befürchte, Du hast meine ursprüngliche Aussage einfach nur falsch verstanden...


Der Rechnung oben fehlt aber Framebuffer und Farben-Kompression :P

Wie dem auch sei hier nochmal Deine eigene Aussage:

Und der nVidias Einbruch bei hohen Auflösungen und 4xMSAA ist gerade hier im Forum schon oft diskutiert worden, wobei genau diese Tatsache als Begründung genannt wurde.

Und nein ich kann davon nichts sehen.

Grestorn
2005-01-20, 13:47:10
Der Rechnung oben fehlt aber Framebuffer und Farben-Kompression :P Ein Framebuffer wird nicht komprimiert, weder Farb- noch sonstwie.
Und nein ich kann davon nichts sehen.Tja, ich hab keine Lust die alten Benchmarks und die Threads, in denen das diskutiert worden ist, rauszusuchen. Aber die Links von Quasar mögen Dir ein Anhaltspunkt sein.

Ailuros
2005-01-20, 13:50:26
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/x800_pro_xt_pe_geforce_6800_gt_ultra/17/#call_of_duty
(ab 1280, bes. Qualitätseinstellungen, Vergl. R9700p/5800u)

http://www.computerbase.de/artikel/hardware/grafikkarten/2004/x800_pro_xt_pe_geforce_6800_gt_ultra/16/#max_payne_2
(ab 1600, bes. Qualitätseinstellungen und Kommentar "out of vidmem", sowie Anmerkung bezgl. Double- statt Triple-Buffering...)

Quasar,

Das Thema haben wir schon etliche Male besprochen und mir geht es momentan eher um heutige Produkte als verkorkste 128bit-Moniker der Vergangenheit die aus gutem Grund schnell elegant unter den Teppich von NV selber gekehrt wurden.

Wie dem auch sei fuer Deinen ersten Link:

51.8 fps fuer die 6600GT in 1280*1024, 4xAA/8xAF

http://www.xbitlabs.com/articles/video/display/ati-radeon-x850_10.html

Ja nicht der gleiche Test und/oder Test-system, aber Ihr schiesst Euch gewaltig ins Bein wenn ihr glaubt dass eine 6800nonU oder 6600GT nicht brauchbar mit 4xAA in 1280 sind. Je nach Situation gewinnt die 6800nonU (wo immer andere Faktoren limitieren) und in 1600 dann geht der Framebuffer aus und dabei ist es egal ob filter@scanout am Werk ist oder nicht. In einer grossen Anzahl der Faelle limitiert die Bandbreite auch gleich mit, deshalb hat auch die GT 500MHz GDDR3.

Zu MP2 hab ich mich auch schon geaeussert; ich komme in das bloede Ding mit 4xAA in 1600 rein und es ist auch mehr als nur spielbar solange ich ein bisschen an den Soundsettings rumfummle.

Mit allen Einheiten eingeschaltet und mit 350/435MHz komme ich in Doom3 high quality 1600 + 4xAF auf fast 32 fps. Eine GT kommt eher an die 40 fps oder so aber spielbar ist das Spiel immer noch nicht mit diesen Settings in der Aufloesung.

Filter@scanout ist nicht der Suendenbock in jedem Fall wo "mehr" moeglich gewesen waere; ohne Nachteile kommt eine Optimierung eher selten selbst wenn auch klein. Wuerden die Vorteile bis jetzt nicht ueberwiegen haette man es schon vor langem abgeschaltet. Und nochmal beim eDRAM module der XBox2 steht read@resolve drin (dass es wohl Bloedsinn mit eDRAM ist, ist eine andere Geschichte, aber ich weiss auch nicht was sie genau angestellt haben).

Ailuros
2005-01-20, 13:56:51
Ein Framebuffer wird nicht komprimiert, weder Farb- noch sonstwie.

Ach ja? Gut wenn Du's schon weisst.

Tja, ich hab keine Lust die alten Benchmarks und die Threads, in denen das diskutiert worden ist, rauszusuchen. Aber die Links von Quasar mögen Dir ein Anhaltspunkt sein.

Und ich hab auch gerade darauf geantwortet. Es wird Zeit dass Ihr endlich mal aus der Zeitschleusse herausschnappt und ein paar neuere Produkte als die ueberseltene und veraltete NV30 als Anhaldpunkt nimmt.

Was NV in der Zwischenzeit errreicht hat und wie kannst Du Dir selber ausdenken, wenn Du Dich erstmal hinsetzt und die rohen Spezifikationen einer NV30 und NV43 vergleichst.

***edit: in einem der letzteren Threads hatte ich auch "mitgespielt". Du kannst Dir ja notfalls das Zeug aufsuchen. Ich kam aber mit Echtzeit-Resultaten an und nicht "Eindruecke" der Vergangenheit.

Grestorn
2005-01-20, 14:11:00
@Ailuros: Was ist los mit Dir? Wenn Du Argumente und Fakten hast, dann schreib das bitte klar und deutlich, ok?

Vom einer Komprimierung des FRAMEBUFFERS habe ich noch nie etwas gehört. Da der Framebuffer ja vom D/A Wandler bzw. der DVI-Multiplex-Einheit linear ausgelesen werden muss (und das mind. 60 mal pro Sekunde) ist das auch nicht ganz einfach. Ich kenne nur Kompressionsverfahren für Texturen und den Z-Buffer. Aber wenn es da doch was geben sollte, dann lass ich mich gerne überzeugen, aber nur mit Link auf eine vertrauenswürdige Quelle.

Und was den Rest angeht: Stimmst Du mir zu, dass nVidia mehr Speicher bei MSAA als ATI braucht? Wenn ja: Stimmst Du mir zu, dass es dann denkbar ist, dass der Speicher früher knapp wird, als bei ATI?

Wenn Du bei einem der beiden obigen Punkte mit "nein" antwortest, dann bitte mit guten Argumenten, bzw. Links auf Quellen, die das einwandfrei widerlegen.

Nur nebenbei: Mir gegenüber musst Du nVidia nun wirklich nicht verteidigen.

Ailuros
2005-01-20, 15:50:04
Vom einer Komprimierung des FRAMEBUFFERS habe ich noch nie etwas gehört. Da der Framebuffer ja vom D/A Wandler bzw. der DVI-Multiplex-Einheit linear ausgelesen werden muss (und das mind. 60 mal pro Sekunde) ist das auch nicht ganz einfach. Ich kenne nur Kompressionsverfahren für Texturen und den Z-Buffer. Aber wenn es da doch was geben sollte, dann lass ich mich gerne überzeugen, aber nur mit Link auf eine vertrauenswürdige Quelle.

Ohne interne Kompressionsverfahren waehren wir heutzutage verloren, und das bei allen Produkten.

Beide IHVs haben Farben-Kompressions-Verfahren fuer AA.

Although colour compression doesn't operate without FSAA, it does with and the compression ratio scales with the level of FSAA.

http://www.beyond3d.com/reviews/ati/r420_x800/index.php?p=9

Farben-Kompression skaliert auch bei NV4x je nach der Anzahl der AA-samples pro pixel (2x--->4xAA).

Das ganze Paket heisst bei NV40 HCT:
High-resolution compression technology
(HCT) increases performance at higher
resolutions through advances in
compression technology.

Und was den Rest angeht: Stimmst Du mir zu, dass nVidia mehr Speicher bei MSAA als ATI braucht?

Ja unter Umstaenden.

Wenn ja: Stimmst Du mir zu, dass es dann denkbar ist, dass der Speicher früher knapp wird, als bei ATI?

Nein. Und in diesem winzigen Anteil liegt auch unsere Meinungsverschiedenheit.

Es geht hier nicht nur um einen Anteil der gesamten Pipeline, sondern um eine grosse Anzahl von Faktoren u.a. auch AGP-texturing als Beispiel. Mit einem AGP aperture size von 512 im BIOS, gibt mir dieses kleine Dingsda hier:

http://developer.nvidia.com/object/agp_memoryapp.html

ca. 535MB von AGP memory an. Bei der Radeon war im Treiber die maximale AGP memory auf weit kleinere Werte festgenagelt (ausser es hat sich was in der Zwischenzeit mit zeitlichen Treibern geaendert).

Den Vorteil den NV4x mit einer Kombination von AA und stenciling haben, habe ich ja am Rand schon erwaehnt.

Wenn Du bei einem der beiden obigen Punkte mit "nein" antwortest, dann bitte mit guten Argumenten, bzw. Links auf Quellen, die das einwandfrei widerlegen.

Ich hab Echtzeit-Leistung in wahren Spielen mehr als ausreichend wiederlegt; weil mir eben keine nachweisbaren Differenzen bewusst waren, fragte ich Dich eben von Anfang an nach solchen.

Nur nebenbei: Mir gegenüber musst Du nVidia nun wirklich nicht verteidigen.

Uhmmm mich lassen sowieso die Fanboy-Kriege fuer diverse IHVs kalt. Ich brauche nachweisbare Daten/Dokumentation und das in Echtzeit und von wirklichen Spielen. Sobald ich nicht Beweise fuer einen gewissen Fall sehen kann, sehe ich auch nicht ein wo und wieso heutige Produkte von ATI einen Vorteil haben in den vorerwaehnten Situationen.

Wie ich schon erwaehnte es wuerde eine ausfuehrliche Analyse vorraussetzen wo verschiedene Karten (im Idealfall auf einem nicht CPU-limitierten System) nur mit 4xAA (ohne AF) und kein AA verglichen werden. Die bisher vergleichbaren vorhandenen Daten, zeigen mir persoenlich nichts relevantes, oder noch genauer einen nenneswerten Vorteil fuer ATI, der ausschliesslich auf Framebuffer-Verbrauch zu leiten ist. Zwischen den diversen Theorien, mathematischen Berechnungen und das was hinten als Leistung durchschnittlich herrausschiesst gibt es einen Unterschied.


****edit:

....um das Ganze mal endlich auf den korrekten Standpunkt zu bringen: MSAA ohne AF ist praktisch wertlos. Wo immer ATI einen gesunden Fuell-raten Vorteil hat, sind Radeons auch um einiges schneller mit AA/AF Kombinationen in hohen Aufloesungen.

Xmas
2005-01-20, 17:17:59
Ohne interne Kompressionsverfahren waehren wir heutzutage verloren, und das bei allen Produkten.

Beide IHVs haben Farben-Kompressions-Verfahren fuer AA.
Und bei beiden wird kein Speicherplatz gespart, nur Bandbreite.

Den Vorteil den NV4x mit einer Kombination von AA und stenciling haben, habe ich ja am Rand schon erwaehnt.
Der da wäre? Depth Bounds?

aths
2005-01-20, 18:23:05
Ich hab's doch schon geschrieben =)
Texturen haben noch ein paar andere nette Eigenschaften, allen voran die Freiheit von jeglichem Aliasing (bei vernünftiger Implementierung zumindest), aber sie sind eben auch ein geschummelter Ersatz für Geometrie.

Stell' dir einfach mal vor, du wolltest eine Backsteinmauer ohne Texturen rendern. Geometrie für jeden einzelnen Stein (dunkelrot), Geometrie für die Fugen (grau). Oder ein Kopfsteinpfalster, eine Rauhfasertapete oder einen Autoreifen. Oder oder oder.

Texturen sind nicht ausschließlich zur Visualisierung bedruckter Kartons und Wandgemälde erfunden worden.Beim Bumpmapping bleibend die Polygone flach, es kommen keine neuen Kanten hinzu, die wie Geometrie aussehen. Anders beim Alphatest. (Beim Bumpmapping gibts aber soweit ich weiß auch Probleme mit Aliasing.)

Quasar
2005-01-20, 19:50:44
Quasar,

Das Thema haben wir schon etliche Male besprochen und mir geht es momentan eher um heutige Produkte als verkorkste 128bit-Moniker der Vergangenheit die aus gutem Grund schnell elegant unter den Teppich von NV selber gekehrt wurden.
Bitte nicht alles so schnell von der Tischkante fegen... :)

- Ich glaube nicht, daß allein die gesparte Bandbreite durch 16Bit Texturen ausreicht, um hier in 1280 von ~24 auf ~46 FPS zu kommen. Und da es sich um ein "shaderloses" OpenGL-Spiel handelt und die restlichen Werte ganz gut konkurrenzfähig scheinen, ist die Bemerkung von einem "verkorksten 128Bit-Moniker" hier etwas fehl am Platze, ausser, du möchstest damit vorweg erstmal Gegenargumente erschlagen.

- Ich habe auch noch meine kompletten Benchmarkdurchläufe aus selbigem System von der 6800nu mit eben nur 128MB - aber weder verkorkstem nV30, noch 128Bit-Interface als Sündenbock.

34,6fps. :|


Wie dem auch sei fuer Deinen ersten Link:

51.8 fps fuer die 6600GT in 1280*1024, 4xAA/8xAF

http://www.xbitlabs.com/articles/vi...on-x850_10.html

Ja nicht der gleiche Test und/oder Test-system,

Richtig - anderes Spiel, anderes Glück. Ist ja auch nicht jeder Level in CoD gleich. Und dazu hatten xBit ein PCIe-System, welches, gerade, wenn die Auslagerungen anfangen, durchaus noch ein bißchen mehr reissen kann, als AGP, oder?

Ausserdem: Laut welcher Spezifikation ist der 6800GT ~2,5x so schnell, wie ein 6600GT? Füllrate? Bandbreite? :|


aber Ihr schiesst Euch gewaltig ins Bein wenn ihr glaubt dass eine 6800nonU oder 6600GT nicht brauchbar mit 4xAA in 1280 sind. Je nach Situation gewinnt die 6800nonU (wo immer andere Faktoren limitieren) und in 1600 dann geht der Framebuffer aus und dabei ist es egal ob filter@scanout am Werk ist oder nicht. In einer grossen Anzahl der Faelle limitiert die Bandbreite auch gleich mit, deshalb hat auch die GT 500MHz GDDR3.
Sicher ist viel Bandbreite toll, keine Frage - besonders bei den aktuellen Pixelschleudern.
Allerdings haben diese üblicherweise auch 256MB VRAM - siehe mein Wert der 128MB-6800 oben....


Zu MP2 hab ich mich auch schon geaeussert; ich komme in das bloede Ding mit 4xAA in 1600 rein und es ist auch mehr als nur spielbar solange ich ein bisschen an den Soundsettings rumfummle.
Sicher kommt man rein - aber Leistungswerte unterhalb einer R9800XT sollten einem doch zu denken geben, denn die hat deutlich weniger Bandbreite und Füllrate........


Filter@scanout ist nicht der Suendenbock in jedem Fall wo "mehr" moeglich gewesen waere; ohne Nachteile kommt eine Optimierung eher selten selbst wenn auch klein. Wuerden die Vorteile bis jetzt nicht ueberwiegen haette man es schon vor langem abgeschaltet. Und nochmal beim eDRAM module der XBox2 steht read@resolve drin (dass es wohl Bloedsinn mit eDRAM ist, ist eine andere Geschichte, aber ich weiss auch nicht was sie genau angestellt haben).
Spricht denn etwas dagegen, dieses Feature soweit zu überarbeiten, daß der Treiber erkennt, wenn das VRAM überlastet ist, und dann normales Downfiltering betreibt?

Ailuros
2005-01-21, 02:09:33
Bitte nicht alles so schnell von der Tischkante fegen... :)

- Ich glaube nicht, daß allein die gesparte Bandbreite durch 16Bit Texturen ausreicht, um hier in 1280 von ~24 auf ~46 FPS zu kommen. Und da es sich um ein "shaderloses" OpenGL-Spiel handelt und die restlichen Werte ganz gut konkurrenzfähig scheinen, ist die Bemerkung von einem "verkorksten 128Bit-Moniker" hier etwas fehl am Platze, ausser, du möchstest damit vorweg erstmal Gegenargumente erschlagen.

Die R300 steigt auch auf den etwa gleichen Wert mit 16bit Texturen. So besonders toll schlagen in dieser Situation R360/NV35 mit ihren 256MB nun auch wieder nicht ab.

- Ich habe auch noch meine kompletten Benchmarkdurchläufe aus selbigem System von der 6800nu mit eben nur 128MB - aber weder verkorkstem nV30, noch 128Bit-Interface als Sündenbock.

34,6fps. :|

Ja eben da es wie Du sagst ein shaderloses OGL Spiel ist, wundern mich die knapp 35 fps im Vergleich zu den ~46/7fps die die 256MB R360/NV35 liefern erstmal gar nicht. Verglichen zu den 24.9 fps der 5800Ultra liefert die 6k8nonU 38.9% mehr Leistung und hat auch ~40% mehr Bandbreite.

Richtig - anderes Spiel, anderes Glück. Ist ja auch nicht jeder Level in CoD gleich. Und dazu hatten xBit ein PCIe-System, welches, gerade, wenn die Auslagerungen anfangen, durchaus noch ein bißchen mehr reissen kann, als AGP, oder?

Unter bis jetzt seltenen Faellen ja. Im Xbitlabs Review hab ich den Eindruck dass sie nur PCI-E Karten verwendet haben. Es ist tatsaechlich eine andere Situation in diesem Review, aber ich sehe auch hier nichts was ich nicht erwartet haette.

Ausserdem: Laut welcher Spezifikation ist der 6800GT ~2,5x so schnell, wie ein 6600GT? Füllrate? Bandbreite? :|

Jetzt sag mir bloss nicht dass ich nicht Situationen finden koennte wo die erste sogar 3x oder mehr schneller ist. Es reicht aus wenn man einen Fall waehlt wo der doppelte Framebuffer, mehr Fuellrate, mehr Bandbreite und mehr ROPs einen additiven Einfluss auf die finale Leistung haben werden.



Sicher kommt man rein - aber Leistungswerte unterhalb einer R9800XT sollten einem doch zu denken geben, denn die hat deutlich weniger Bandbreite und Füllrate........

Wobei es aber in neueren Spielen keinesfalls der Fall ist. Es gibt Faelle wo sogar eine NV43 verdammt nahe an die R360 kommt. Leistungswerte unter einer 256MB 9800XT wo immer der Speicherplatz knapp wird finde ich durchaus normal. Unter einer 128MB 9700PRO dann eben nicht, im gegebenen Fall 3.5fps oder 10%.


Spricht denn etwas dagegen, dieses Feature soweit zu überarbeiten, daß der Treiber erkennt, wenn das VRAM überlastet ist, und dann normales Downfiltering betreibt?

Ja die durchschnittliche Leistung wenn man einen Strich unter der Rechnung zieht und das kommt selbstverstaendlich nicht von mir. Wenn man sagen wir mal in 5 Situationen dazugewinnt und in 2 einen Verlust einbussen muss, dann kann ich die Logik auch voll verstehen (Zahlen sind nur rein theoretisch, ich hab keine Ahnung wie die wirkliche Analogie aussieht).

Das Treiberteam bei NVIDIA bewegt sich ja sowieso momentan im Schneckentempo. Nochmal fragen hilft da nichts; falls ich ueberhaupt ne Antwort bekomme dann erst nach Monaten (was stoerender Trend seit dem letzten Jahr geworden ist).

Quasar
2005-01-21, 09:51:37
Die R300 steigt auch auf den etwa gleichen Wert mit 16bit Texturen. So besonders toll schlagen in dieser Situation R360/NV35 mit ihren 256MB nun auch wieder nicht ab.
(Ich quote jetzt mal einzein - das läßt die Diskussion besser trennen.)

Und was zeigt uns das?

Einerseits wohl, daß 128MB lokales VRAM nicht ausreichen. Denn derselbe Effekt läßt sich erreichen, wenn man auf die Einstellung "Extra" bei den Charaktertexturen verzichtet und sich auf "High" beschränkt.
Die 256MB-Modelle zeigen diesen Effekt noch nicht.

Andererseits auch, daß bei Beschränkung des VRAM-Bedarfs (und der nötigen Texturbandbreite) die FX auf das Niveau der 9700p (und nebenbei FX5950/9800XT - erstere mit quasi doppelter Speicherbandbreite...) kommt.


Für mich sieht diese Schlussfolgerung ziemlich eindeutig aus.

Quasar
2005-01-21, 10:08:19
Ja eben da es wie Du sagst ein shaderloses OGL Spiel ist, wundern mich die knapp 35 fps im Vergleich zu den ~46/7fps die die 256MB R360/NV35 liefern erstmal gar nicht. Verglichen zu den 24.9 fps der 5800Ultra liefert die 6k8nonU 38.9% mehr Leistung und hat auch ~40% mehr Bandbreite.
Ja, das ist eine erstaunliche Übereinstimmung.

Allerdings besitzt sie (fast) dieselbe Bandbreite, wie die 9800XT, die nochmal ~30% schneller ist, aber über 256MB verfügt, wie auch die FX5950.

Und - tadaa - die in vielerlei Hinsicht unterlegene 9700p erreicht hier höhere Frameraten.

Quasar
2005-01-21, 10:14:16
Jetzt sag mir bloss nicht dass ich nicht Situationen finden koennte wo die erste sogar 3x oder mehr schneller ist. Es reicht aus wenn man einen Fall waehlt wo der doppelte Framebuffer, mehr Fuellrate, mehr Bandbreite und mehr ROPs einen additiven Einfluss auf die finale Leistung haben werden.
(meine Hervorhebung)

Ein doppelter Framebuffer hat offenbar den weitaus größten Einfluss auf die Leistung, wenn ich mir mal ausrechne, wie hoch die AGP-DL-Rate nebem dem üblichen Kommandostrom im Vergleich zur lokalen Speicherbandbreite selbst eines '128Bit-Monikers' ist. Mit sehr viel Glück kommt man auf 1/8, eher 1/10.

Das bremst natürlich etwas mehr aus, als wenn man lokale Bandbreite oder Füllrate hernimmt, die meist eher im Bereich von 1/2 bis 2/3 liegt.

Quasar
2005-01-21, 10:20:24
Wobei es aber in neueren Spielen keinesfalls der Fall ist. Es gibt Faelle wo sogar eine NV43 verdammt nahe an die R360 kommt. Leistungswerte unter einer 256MB 9800XT wo immer der Speicherplatz knapp wird finde ich durchaus normal. Unter einer 128MB 9700PRO dann eben nicht, im gegebenen Fall 3.5fps oder 10%.

Und das erkärt man bsw. mit?....
Filter-at-Scanout und dadurch mehr Ausgelagere?

Quasar
2005-01-21, 10:22:07
Ja die durchschnittliche Leistung wenn man einen Strich unter der Rechnung zieht und das kommt selbstverstaendlich nicht von mir. Wenn man sagen wir mal in 5 Situationen dazugewinnt und in 2 einen Verlust einbussen muss, dann kann ich die Logik auch voll verstehen (Zahlen sind nur rein theoretisch, ich hab keine Ahnung wie die wirkliche Analogie aussieht).

Eben deswegen auch eine dynamische Anpassung - meinetwegen auch "undynamisch", wenn bei Games, die bekannt für einen notorisch hohen VRAM-Verbrauch sind, beim Zuschalten von AA per se kein Filter-at-Scanout mehr betreibt (evtl. auch nur bei Auflösungen ab 1280x1024)?

Ailuros
2005-01-21, 16:01:23
Und was zeigt uns das?

Einerseits wohl, daß 128MB lokales VRAM nicht ausreichen. Denn derselbe Effekt läßt sich erreichen, wenn man auf die Einstellung "Extra" bei den Charaktertexturen verzichtet und sich auf "High" beschränkt.
Die 256MB-Modelle zeigen diesen Effekt noch nicht.

Andererseits auch, daß bei Beschränkung des VRAM-Bedarfs (und der nötigen Texturbandbreite) die FX auf das Niveau der 9700p (und nebenbei FX5950/9800XT - erstere mit quasi doppelter Speicherbandbreite...) kommt.


Für mich sieht diese Schlussfolgerung ziemlich eindeutig aus.

Ja, das ist eine erstaunliche Übereinstimmung.

Allerdings besitzt sie (fast) dieselbe Bandbreite, wie die 9800XT, die nochmal ~30% schneller ist, aber über 256MB verfügt, wie auch die FX5950.

Und - tadaa - die in vielerlei Hinsicht unterlegene 9700p erreicht hier höhere Frameraten.

Erstens hab ich zu dem Test immer noch den Einwand dass AF benutzt wurde und zweitens was heisst ueberhaupt "ueberlegen/unterlegen" im relativen Sinn? Wuerde all die vorerwaehnten Karten die genau gleichen Methoden fuer Speicher-Verwaltung, Daten-verwerfung usw usw. verwenden, dann waere es auch leichter zu solchen Schlussvolgerungen zu kommen. Sobald ich aber einen Mischmasch aus winkel-abhaengigen und nicht winkel-abhaengigem AF, hierarchical Z und nicht hierZ in den gleichen Topf werfe wird auch die Analyse komplizierter. Vor- und Nachteile gibt es dann wohl fuer alle Faelle.

Eigentlich sollte es nicht heissen dass A und B so und so viel Bandbreite haben, sondern A und B haben so viel Bandbreite und verwalten diese Bandbreite auf die eine oder andere Weise.

Ein doppelter Framebuffer hat offenbar den weitaus größten Einfluss auf die Leistung, wenn ich mir mal ausrechne, wie hoch die AGP-DL-Rate nebem dem üblichen Kommandostrom im Vergleich zur lokalen Speicherbandbreite selbst eines '128Bit-Monikers' ist. Mit sehr viel Glück kommt man auf 1/8, eher 1/10.

Das bremst natürlich etwas mehr aus, als wenn man lokale Bandbreite oder Füllrate hernimmt, die meist eher im Bereich von 1/2 bis 2/3 liegt.

Aendert aber kein bisschen was an der Tatsache dass Leistungsunterschiede von 2.5x, 3x oder hoeher leicht zu finden sind in extremen Faellen zwischen einer 6800GT und einer 6600GT. Und Du wirst es auch nicht schaffen die Leistung zu verdoppeln auf einer 6600GT mit 256MB Speicher oder?

Und das erkärt man bsw. mit?....
Filter-at-Scanout und dadurch mehr Ausgelagere?

Schalte erstmal AF ab im gleichen Fall, nur damit ein weiterer Faktor ausgeschlossen wird und wenn dann der Unterschied immer noch bei 10% liegt, dann ist es immer noch nicht im Bereich des generellen Durchschnitts.

Eben deswegen auch eine dynamische Anpassung - meinetwegen auch "undynamisch", wenn bei Games, die bekannt für einen notorisch hohen VRAM-Verbrauch sind, beim Zuschalten von AA per se kein Filter-at-Scanout mehr betreibt (evtl. auch nur bei Auflösungen ab 1280x1024)?

Ich hab nicht die leiseste Ahnung ob sogar ein Treiber-switch moeglich waere, oder ob das Ding einfach im Algorithmus quasi "festgenagelt" ist, aber wenn ja waere es vielleicht eine logische Loesung. Der Grund warum ich mich so "stur" in diesem Thema zeige, ist dass ich es ausschliesse dass NVIDIA oder auch ATI nicht genug Zeit und Muehe verplempern Leistung unter verschiedenen Faellen zu analysieren. Dass sie sowas bis jetzt uebersehen haben klingt mir als unwahrscheinlich. Filter@scanout steckt fuer 2xMSAA schon seit dem NV25 drin und hat bis heute ueberleben duerfen mit einer Erweiterung zu 4xAA seit NV30 oder auch anders fast 4 Jahre.

Trotz meiner "Sturheit" werde ich natuerlich versuchen das Thema nochmal anzusprechen bei erstmoeglicher Gelegenheit.