PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Anti Aliasing mit ner GeForce 2MX 400?


Schmok
2003-09-11, 09:44:39
Kann man oder zahlt es sich aus mit ner GeForce 2MX 400, AA einzuschalten! Bei Spielen die total flüssig laufen kann mans ja riskieren oder?

Mein Rechner:
P3 1ooo MhZ
GeForce 2 MX 400 (übertaktet)
384 MB SDRAM

Wo schaltet man AA ein?

ow
2003-09-11, 09:47:37
Im Deto einzuschalten wie bei jeder anderen NV Karte auch.

Für ältere Games reicht die Leistung von 2xAA meist aus. Auflösungen 1024x768x16Bit oder 800x600x32Bit.

StefanV
2003-09-11, 09:47:46
1. die GF2 MX is dazu a bisserl lahm...
Für FSAA sollte es schon mindestens eine GF3 sein...

2. loht nicht, da nur OGSSAA verwendet wird, näheres findest du auf der Hauptseite in einem FSAA Artikel...

3. ich schlage vor, daß du über die ANschaffung einer neuen GraKa nachdenkst.

ow
2003-09-11, 09:55:58
@Schmok

Am besten nicht auf unseren Oberspammer hier hören. Hilfreiches kommt von dem eh praktisch nix.

Quasar
2003-09-11, 09:57:26
Original geschrieben von Stefan Payne
1. die GF2 MX is dazu a bisserl lahm...
Für FSAA sollte es schon mindestens eine GF3 sein...


s. dazu auch:

Original geschrieben von Schmok
[...] Bei Spielen die total flüssig laufen kann mans ja riskieren oder?[...]

Natürlich kann man es 'riskieren', wenn's einem dann zu rucklig wird, kann man ja immer noch wieder zurückschalten...

StefanV
2003-09-11, 10:00:12
@ow

Es wäre schön, wenn du die persönlichen Abneigungen gegenüber anderen Usern außerhalb dieses Forums lassen würdest und es nicht in deine Beiträge einfließen lassen würdest.

BTW: hier (http://www.3dcenter.org/artikel/anti-aliasing/) der von mir erwähnte Artikel...

Außerdem, wie aths selbst sagt, ist OGSSAA das ineffizienteste FSAA Verfahren, da ists 'billiger' und besser die Auflösung zu erhöhen...

ow
2003-09-11, 10:02:41
@SP

Es wäre schön, wenn du dein Offtopic Gespamme sein lassen würdest, sonst wird das möglicherweise noch mit der Vergabe von Spam-Punkten geahndet.


Weder stand hier eine Neuanschaffung zur Debatte noch ist es richtig das 2xOGAA nichts gegenüber keinem AA bringt.

Mark3Dfx
2003-09-11, 10:31:06
@Schmok

Einschalten kannst Du FSAA über:

"Start -> Einstellung -> Systemsteuerung -> Anzeige -> Einstellungen -> Erweitert -> "GeForce2 MX400"
-> Leistungs & Qualitätseinstellungen.

http://mark3dfx.bei.t-online.de/FSAA.JPG

Probier es einfach aus und spiele Deine Lieblingsspiele.
Dabei wirst Du merken ob es Dir noch flüssig genug ist oder der Karte die Puste ausgeht.

Wenn nicht, laß Dir von unserem liebsten ATi Spammer eine neue Karte schenken. ;D

Quasar
2003-09-11, 10:41:20
Original geschrieben von Stefan Payne Außerdem, wie aths selbst sagt, ist OGSSAA das ineffizienteste FSAA Verfahren, da ists 'billiger' und besser die Auflösung zu erhöhen...

Was ist mit:
- alten Games mit beschränkter Auflösung?
- Einschränkungen durch die Ergonomie des Monitors?

StefanV
2003-09-11, 10:44:06
Original geschrieben von Stefan Payne
1. die GF2 MX is dazu a bisserl lahm...
Für FSAA sollte es schon mindestens eine GF3 sein...

2. loht nicht, da nur OGSSAA verwendet wird, näheres findest du auf der Hauptseite in einem FSAA Artikel...

3. ich schlage vor, daß du über die ANschaffung einer neuen GraKa nachdenkst.

Jetzt noch ein wenig näher erklärt:

Bei Supersampling wird das Bild in einer höheren Auflösung berechnet und herunterskaliert.

Die GF2 Karten beherrschen nur 'Treiberseitiges' SSAA, alos mit einem ungedrehten Muster.
Die Folge ist, daß z.B. bei 2x AA entweder horizontale oder vertikale Linien geglättet werden und für 4x OGSSAA dürfte der GF2 MX die Leistung fehlen.

Vereinfacht lässt sich sagen, daß das 4x AA der GF2 Serie in etwa so ausschaut wie 2x AA bei der V4/5, ab GF3 und den R300 derivaten (Hin und wieder auch bei den R200 Derivaten, aber da eher seehr selten).

Sicher, bei uralten Spielen, die nur 640x480 anbieten, kann mans mal versuchen, ansonsten bringt es einfach nicht wirklich was und eine höhere Auflösung ist da deutlich sinniger...

Nunja und bei deinem Rechner macht eine schnellere Grafikkarte, wie eine GF3 TI200, durchaus sinn, da der Geschwindigkeitsschub der neuen Karte durchaus spürbar sein sollte, da die CPU schnell genug ist.

ow
2003-09-11, 13:09:21
@SP

Es war hier aber nicht nach einer neuen Karte gefragt. Soviel Verstand sollte man schon jedem zutrauen, dass eine Karte der GF3 Klasse wesentlich mehr Leistung bringt als eine GF2MX.

Was die GF2MX angeht:
deren Bandbreitenbegrenzung ergibt einen recht interessanten 'Effekt': 2xAA in 16Bit ist etwa genauso schnell wie 32Bit ohne AA in derselben Auflösung.
(Zudem wirkt SSAA (nicht MSAA!) sehr positiv auf die Dithering-Artefakte, die bei 16Bit Framebuffer auftreten).

Desweiteren zitiere ich mal Quasar:

Was ist mit:
- alten Games mit beschränkter Auflösung?
- Einschränkungen durch die Ergonomie des Monitors?


Da nützt dann auch ne GF3 nix mehr, weil deren Leistung gar nicht nutzbar ist.

Riptor
2003-09-11, 16:38:34
Um welche Spiele geht es denn?

aths
2003-09-11, 19:42:57
16 Bit würde ich mir bei einer Nvidia-Karte nicht zumuten wollen :)

ow
2003-09-11, 20:02:15
Original geschrieben von aths
16 Bit würde ich mir bei einer Nvidia-Karte nicht zumuten wollen :)


Deine Meinung.
Ich weiss nur, dass 16Bit auf NV mit zum Besten zählt, was es an 16Bit Quali gab.

LordDeath
2003-09-11, 21:03:23
tja, wenn ich jetzt an die 16bit quali meiner rage 128 pro neben mir denke...

egal! also ich denk, dass es schon allein wegen der leistung bei neuen games einfach keinen sinn mehr mit dieser grafikkarte macht.
aber bei alten games würd ich dem Schmok empfehlen mal auszutesten:
was sieht schöner aus: kein FSAA mit 32bit oder 2x FSAA mit 16Bit
wenn ow mein, dass beide mods bei gleicher auflösung gleich schnell sind, dann ist es wohl nur ne ne geschmackssache von Schmok ;)

aths
2003-09-11, 21:20:37
Original geschrieben von ow
Deine Meinung.
Ich weiss nur, dass 16Bit auf NV mit zum Besten zählt, was es an 16Bit Quali gab. Ich kenne 16-Bit-Qualität von Voodoo1, Banshee, Voodoo4, Radeon DDR, Radeon 9500 Pro, Savage4, und meiner Ti 4600. Letztere hat subjektiv die schlechteste 16-Bit-Qualität. Schlechter ist noch die Qualität der ATI Rage-Serie, das stimmt allerdings.

ow
2003-09-11, 21:48:55
Original geschrieben von aths
Ich kenne 16-Bit-Qualität von Voodoo1, Banshee, Voodoo4, Radeon DDR, Radeon 9500 Pro, Savage4, und meiner Ti 4600. Letztere hat subjektiv die schlechteste 16-Bit-Qualität. Schlechter ist noch die Qualität der ATI Rage-Serie, das stimmt allerdings.

Tja, bei mir hat sie halt subjektiv die beste Quali (ausser Kyro) und ich hab hier auch Banshee, Radeon, Savage u.a Karten gehabt.

Mr. Lolman
2003-09-11, 22:05:18
Jaja die Subjektivität...

Fakt ist, dass die Voodo durch das Postfiltering die beste 16 bit BQ hat. (Meine favorisierte Einstellung war damals 1024x768x16(+Postfiler) und 2xAA. Eine Geforce 2 Ultra mit 1024x768x16 und 4xAA lieferte damals neben einer schlechteren BQ auch die schlechtere Leistung...)

edit:
Hoppla, Link vergessen...

http://www.3dconcept.ch/artikel/dithering/7.htm

ow
2003-09-11, 22:10:08
Original geschrieben von Mr. Lolman
Jaja die Subjektivität...

Fakt ist, dass die Voodo durch das Postfiltering die beste 16 bit BQ hat. (Meine favorisierte Einstellung war damals 1024x768x16(+Postfiler) und 2xAA. Eine Geforce 2 Ultra mit 1024x768x16 und 4xAA lieferte damals neben einer schlechteren BQ auch die schlechtere Leistung...)

Jaja die Subjektivität...

Versuch nicht deine Subjektivität als Fakt hinzustellen. Hatte selbst ne Voodoo und trotz Postfilter ist das Dithering einfach grausam verglichen mit dem von NV.:P:D

/edit: btw. ist das hier eh alles OT, nur weil aths mal wieder spammen musste.:D

StefanV
2003-09-11, 22:15:39
Original geschrieben von ow
Jaja die Subjektivität...

Versuch nicht deine Subjektivität als Fakt hinzustellen. Hatte selbst ne Voodoo und trotz Postfilter ist das Dithering einfach grausam verglichen mit dem von NV.:P:D

/edit: btw. ist das hier eh alles OT, nur weil aths mal wieder spammen musste.:D

1. stell dir vor, es gab sogar bei 3DFX von der Banshee zur V3 Neuerungen, z.B. einen verbesserten Postfilter, welcher denen der Vorgänger deutlich überlegen war...
Wobei wir hier differenzieren sollten:
aths spricht von 'ner VSA-100, Lolman vermutlich von 'ner V3 und du von 'ner Banshee...
Vielleicht solltest du dir mal 'ne V3 oder V5 zulegen bzw leihen...

2. :rofl:

DER Witz des Tages...

ow
2003-09-11, 22:23:00
1. Es wurde nix am Postfilter geändert. Reine Treibergeschichte.

2. Versuch´s mal objektiv zu sehen.:D

Mr. Lolman
2003-09-11, 22:47:15
AFAIK konnte, im Gegensatz zur Voodoo2, schon die Banshee schon beide Varanten des Postfilters.

Dadurch das die Filtering im RAMDAC geschieht waren fast alle damals gemachten Screenshots der 16bit Postfiltering Qualität nicht mit der tatsächlichen Qualität identisch.

aths
2003-09-12, 03:06:04
Original geschrieben von Mr. Lolman
AFAIK konnte, im Gegensatz zur Voodoo2, schon die Banshee schon beide Varanten des Postfilters.

Dadurch das die Filtering im RAMDAC geschieht waren fast alle damals gemachten Screenshots der 16bit Postfiltering Qualität nicht mit der tatsächlichen Qualität identisch. 2x "japp".

Voodoo verwendet zudem ein regelmäßigeres Raster als Nvidia-Karten das tun. Lust auf Hässlichkeit? Einfach mal Quake3 auf einer beliebigen Nvidia-Karte mit 16 Bit spielen.

Ailuros
2003-09-12, 03:34:14
Was die GF2MX angeht:
deren Bandbreitenbegrenzung ergibt einen recht interessanten 'Effekt': 2xAA in 16Bit ist etwa genauso schnell wie 32Bit ohne AA in derselben Auflösung.
(Zudem wirkt SSAA (nicht MSAA!) sehr positiv auf die Dithering-Artefakte, die bei 16Bit Framebuffer auftreten).

Mit dem Unterschied das 32bpp nur selten wirklich spielbar ist auf ner GF2MX in =/>1024*768 und das selbst in aelteren Spielen. Und hierbei kraenkelt es mehr in Fuellrate als Bandbreite im Durchschnitt.

Das mit den dithering-Artifakten + SSAA stimmt aber auch wohl nur noch bei dual texturing. Wer's ausprobieren will, hier bitte:

http://www.pvrdev.com/pub/PC/eg/h/ITC.htm

MadManniMan
2003-09-12, 04:07:00
Original geschrieben von Quasar
- Einschränkungen durch die Ergonomie des Monitors?

*oinkoink*

FEHLER! *h3h3* Ich werd diese Zeile quoten, wenn wir uns das nächste mal über FSAA streiten...

;D

Aber zum anderen OT: Wer Anderes behauptet, als daß die KYRO das beste 16bit hatte, ...tja, der spinnt halt.

Zum Thema:
Probiers einfach mal aus. Aber alles andere als ein 2*1 oder 1*2 FSAA würde ich nicht probieren. Es gibt nämlich noch einen 1.5*1.5 Modus - wenig empfehlenswert!

Quasar
2003-09-12, 04:17:55
Original geschrieben von MadManniMan
*oinkoink*

FEHLER! *h3h3* Ich werd diese Zeile quoten, wenn wir uns das nächste mal über FSAA streiten...

;D

Tu' das. Dann erinnere ich dich daran, daß AA nur eine Ausweichmöglichkeit ist, wenn man die Auflösung nicht weiter erhöhen kann.

0. volle Details
1. viel Auflösung
2. etwas AF
3. etwas AA
4. mehr AF

aths
2003-09-12, 05:06:51
Original geschrieben von Quasar
Tu' das. Dann erinnere ich dich daran, daß AA nur eine Ausweichmöglichkeit ist, wenn man die Auflösung nicht weiter erhöhen kann. Vernünftiges Anti-Aliasing ist eine Bildverbesserung, die ab einer gewissen Auflösung mehr bringt, als die Auflösung weiter zu erhöhen. Lediglich weil die GF2MX nur Ordered Grid Supersampling beherrscht (= die ineffizienteste erhältliche Anti-Aliasing-Methode) ist hier eine höhere Auflösung Anti-Aliasing vorzuziehen.

ow
2003-09-12, 09:29:06
Original geschrieben von aths
2x "japp".

Voodoo verwendet zudem ein regelmäßigeres Raster als Nvidia-Karten das tun. Lust auf Hässlichkeit? Einfach mal Quake3 auf einer beliebigen Nvidia-Karte mit 16 Bit spielen.

:lol:
Da musste schon mit ner Voodoo spielen. Q3 ist sehr gut geeignet deren Dithering Artefakte hervorzuheben.

ow
2003-09-12, 09:33:52
Original geschrieben von Ailuros
Mit dem Unterschied das 32bpp nur selten wirklich spielbar ist auf ner GF2MX in =/>1024*768 und das selbst in aelteren Spielen. Und hierbei kraenkelt es mehr in Fuellrate als Bandbreite im Durchschnitt.


Reicht etwa bis einschliesslich Q3 in 1024x768x32 (oder 16Bit mit 2xAA)


Das mit den dithering-Artifakten + SSAA stimmt aber auch wohl nur noch bei dual texturing. Wer's ausprobieren will, hier bitte:

http://www.pvrdev.com/pub/PC/eg/h/ITC.htm

Nö, wieso?
Bei des Downskalierung des SSAA werden die Artefakte ja praktisch wieder gefiltert.

ow
2003-09-12, 09:35:38
Original geschrieben von aths
Vernünftiges Anti-Aliasing ist eine Bildverbesserung, die ab einer gewissen Auflösung mehr bringt, als die Auflösung weiter zu erhöhen. Lediglich weil die GF2MX nur Ordered Grid Supersampling beherrscht (= die ineffizienteste erhältliche Anti-Aliasing-Methode) ist hier eine höhere Auflösung Anti-Aliasing vorzuziehen.


Und wenn die Auflösung sich nicht weiter erhöhen lässt und immer noch genügend Leistungsreserven vorhanden sind, würdest du dann AA auch nicht einschalten zur Bildverbesserung??

Mr. Lolman
2003-09-12, 12:44:33
Original geschrieben von ow
Reicht etwa bis einschliesslich Q3 in 1024x768x32 (oder 16Bit mit 2xAA)


Die Voodoo5s liessen sich auch mit 1280x960x32bit ganz gut spielen.

Ausserdem hatten die GF2 ja diesen hässlichen TC Bug, der die S3TC 32bit Qualität mit der FXT1 "22bit" vergleichbar werden liess. (Solange man nicht ausschliesslich im Nebel herumläuft)


Nö, wieso?
Bei des Downskalierung des SSAA werden die Artefakte ja praktisch wieder gefiltert.

Bei der Voodoo ja auch, (sogar mit RGSSAA ;)) und zusätzlich haben die noch einen RAMDACfilter inkludiert, as NV nicht hat, ausserdem renderten die Voodoos ja intern mit Truecolor.

Und hier wage ich ein weiteresmal zu behaupten, dass die Voodoo5 in 1024x768x22 mit 2xAA, FXT1 nicht nur schneller war als die GF2 GTS sondern auch besser aussah als diese mit 1024x768x32 und 2xAA, S3TC.

Für das AA hätte man schon 4xAA nehmen müssen, und dann wäre bei ähnlicher BQ die GF2 weit abschlagen gewesen.

Quasar
2003-09-12, 13:13:56
Original geschrieben von Mr. Lolman
Die Voodoo5s liessen sich auch mit 1280x960x32bit ganz gut spielen.[...]

Echt? Wie zum Geier hast du diese Auflösung hinbekommen? IIRC bietet und bot Q3 nur 1280x1024x32. :|

Trübt mich da meine oder dich da deine Erinnerung?

Ailuros
2003-09-12, 13:17:49
Reicht etwa bis einschliesslich Q3 in 1024x768x32 (oder 16Bit mit 2xAA).

Mehr oder gleich 50fps? Geschmacksache ob das reicht. Ausser man rennt rum und ballert gegen Waende.

Nö, wieso?
Bei des Downskalierung des SSAA werden die Artefakte ja praktisch wieder gefiltert.

Wenn noch nicht ausprobiert, wird es wohl nicht weh tun. Ist nur ne <70kb Datei.

...ausserdem renderten die Voodoos ja intern mit Truecolor.

Das laesst zu viel offen fuer Missverstaendnisse. Da war nix mit internem true colour bei Voodoos, da sie nicht in 32bpp selbst fuer 16bpp output intern renderten.

http://www.pvrdev.com/pub/PC/doc/f/Internal%20True%20Colour.htm

Die Unterschiede in den Diagrammen.

Riptor
2003-09-12, 14:56:05
Kann mir jetzt endlich einer die Spiele nennen, die mit der GF2MX da jetzt gepsielt werden sollten? Denn IMHO kommts auf das Spiel und auf das System drauf an... Theorie-Geschwafel verliert nämich irgendwann den Bezug zur Realität...

LordDeath
2003-09-12, 15:36:29
Original geschrieben von Riptor
Kann mir jetzt endlich einer die Spiele nennen, die mit der GF2MX da jetzt gepsielt werden sollten? Denn IMHO kommts auf das Spiel und auf das System drauf an... Theorie-Geschwafel verliert nämich irgendwann den Bezug zur Realität...

also ich würd da titel empfehlen, die auf der alten unreal engine basieren, da diese cpu lastiger ist. da macht eine aktive kantenklättung bei einer 800er auflösung bestimmt nicht alzu viel aus.
dazu gehören also unreal tournament, deus ex, rune (glaub ich), tactical ops oder gleich unreal 1 :)

StefanV
2003-09-12, 15:38:52
Original geschrieben von LordDeath
also ich würd da titel empfehlen, die auf der alten unreal engine basieren, da diese cpu lastiger ist. da macht eine aktive kantenklättung bei einer 800er auflösung bestimmt nicht alzu viel aus.
dazu gehören also unreal tournament, deus ex, rune (glaub ich), tactical ops oder gleich unreal 1 :)

UT1 mit 'ner GF2 MX ist recht übel, wenn man in 1024x768 spielen möchte...

Nagut, habs auch nur auf 'nem kleinen Athlon gezockt, mit der PC GF2MX (143MHz RAM!)...

Quasar
2003-09-12, 15:54:10
Original geschrieben von Stefan Payne
[...]Nagut, habs auch nur auf 'nem kleinen Athlon gezockt, mit der PC GF2MX (143MHz RAM!)...

Was das in Kombination mit Span-Buffering bedeutet, weisst du ja.

Mr. Lolman
2003-09-12, 16:57:12
Original geschrieben von Quasar
Echt? Wie zum Geier hast du diese Auflösung hinbekommen? IIRC bietet und bot Q3 nur 1280x1024x32. :|

Trübt mich da meine oder dich da deine Erinnerung?

Nagut 1280x1024 (obwohl mir 1280x960 deutlich lieber gewesen wäre ;))

aths
2003-09-12, 17:00:21
Original geschrieben von ow
:lol:
Da musste schon mit ner Voodoo spielen. Q3 ist sehr gut geeignet deren Dithering Artefakte hervorzuheben. Hab ich doch :) Mit Bashee in 640x480. Das war schnell genug, und vom Dithering her weniger hässlich als das, was mir meine GeForce in 16 Bit anbietet (natürlich spiele ich hier in 32 Bit, ebenso wie mit der Voodoo4.)
Original geschrieben von ow
Und wenn die Auflösung sich nicht weiter erhöhen lässt und immer noch genügend Leistungsreserven vorhanden sind, würdest du dann AA auch nicht einschalten zur Bildverbesserung?? Das hängt davon ab. 2x SSAA verballert ja gleich 200% Leistung. Vielleicht wäre zunächst mal AF die bessere Alternative. Bei aktuellen CPUs sehe ich bei der GF2MX im 32-Bit-Modus ohnehin kaum Leistungsreserven.

aths
2003-09-12, 17:06:59
Original geschrieben von Mr. Lolman
Und hier wage ich ein weiteresmal zu behaupten, dass die Voodoo5 in 1024x768x22 mit 2xAA, FXT1 nicht nur schneller war als die GF2 GTS sondern auch besser aussah als diese mit 1024x768x32 und 2xAA, S3TC. Das denke ich gar nicht mal. Auf GF bis inkl. Ti sollte man ohnehin mit S3TC-Fix spielen. Quake3 hat den 22-Bit-Filter übermäßig gefordert. Genauer gesagt ist ein 16-Bit-Framebuffer auch bei kluger Ausnutzung einfach zu ungenau. Die Kanten wären bei Voodoo5 natürlich besser, bei Quake3 zählt zunächst aber Framerate. Dank extremer Detonator-Quake3-Optimierung, und vielleicht auch ein wenig wegen der T&L, würde ich Quake3 lieber mit GTS als Voodoo5 spielen.

Ganz anders natürlich Unreal oder Unreal Tournament. Hier würde ich lieber mit Voodoo4 spielen, ach, mit Voodoo3, als mit GTS.

Quasar
2003-09-12, 17:22:08
Original geschrieben von aths
[...] Vielleicht wäre zunächst mal AF die bessere Alternative. Bei aktuellen CPUs sehe ich bei der GF2MX im 32-Bit-Modus ohnehin kaum Leistungsreserven.

Darf ich mal anmerken, daß es um 'ältere' Games geht? Oft ist in diesen schon die Basis-Auflösung der Texturen so schlecht, dass man für Unschärfe und Wabern in der Tiefe schon beinahe dankbar sein kann. ;)
Außerdem kann die 2MX nur maximal 2xAF.

Original geschrieben von aths
[...] bei Quake3 zählt zunächst aber Framerate. Dank extremer Detonator-Quake3-Optimierung, und vielleicht auch ein wenig wegen der T&L, würde ich Quake3 lieber mit GTS als Voodoo5 spielen.

:lol: ,daß ich das mal von dir (http://www.3d-center.de/artikel/t_und_l/) hören würde...

ow
2003-09-12, 17:22:28
Original geschrieben von aths
Hab ich doch :) Mit Bashee in 640x480. Das war schnell genug, und vom Dithering her weniger hässlich als das, was mir meine GeForce in 16 Bit anbietet (natürlich spiele ich hier in 32 Bit, ebenso wie mit der Voodoo4.)
Das hängt davon ab. 2x SSAA verballert ja gleich 200% Leistung. Vielleicht wäre zunächst mal AF die bessere Alternative. Bei aktuellen CPUs sehe ich bei der GF2MX im 32-Bit-Modus ohnehin kaum Leistungsreserven.


Es geht hier immer noch um Spiele, die ohne AA wirklich flott laufen (s. Threadstarters Topic), in aktuellen Games braucht man auf keiner GF<3 und Radeon<9200 SSAA zu nutzen.

Was AF angeht hast du recht. Das gibt´s auf der GF2MX ja praktisch gratis durch die Bandbreitenlimitierung.

ow
2003-09-12, 17:25:31
Original geschrieben von Quasar

Außerdem kann die 2MX nur maximal 2xAF.



Dafür aber wirklich perfektes AF und das nahezu ohne Leistungsverlust (macht im 3DM01 keine 5% Unterschied mit/ohne AF).

aths
2003-09-12, 18:17:23
Original geschrieben von Quasar
Darf ich mal anmerken, daß es um 'ältere' Games geht? Oft ist in diesen schon die Basis-Auflösung der Texturen so schlecht, dass man für Unschärfe und Wabern in der Tiefe schon beinahe dankbar sein kann. ;)Wieso soll es bei geringen Basis-Auflösungen gut sein, wenn man Unschärfe in der Tiefe hat? Und warum sollte man sich für Wabern bedanken?
Original geschrieben von Quasar
Außerdem kann die 2MX nur maximal 2xAF.Was gegenüber 1x schon eine deutliche Verbesserung darstellt.

Ailuros
2003-09-13, 08:23:14
Dank extremer Detonator-Quake3-Optimierung, und vielleicht auch ein wenig wegen der T&L, würde ich Quake3 lieber mit GTS als Voodoo5 spielen.

Wieso Detonator Optimierung? In Q3a war es schon immer mehr Fuellrate = mehr Leistung und natuerlich auch schnellerer Speicher (+/- Latenz).

aths
2003-09-13, 08:38:51
Original geschrieben von Ailuros
Wieso Detonator Optimierung? In Q3a war es schon immer mehr Fuellrate = mehr Leistung und natuerlich auch schnellerer Speicher (+/- Latenz). So ich mich recht entsinne, brachten einige Detos in häufig gebenchten Timedemos ungeahnte Leistungssprünge.

ow
2003-09-13, 10:28:21
Original geschrieben von aths
So ich mich recht entsinne, brachten einige Detos in häufig gebenchten Timedemos ungeahnte Leistungssprünge.


Ist mir nix davon bekannt, da dürfte dich deine Erinnerung täuschen.

Ailuros
2003-09-13, 11:40:12
Original geschrieben von aths
So ich mich recht entsinne, brachten einige Detos in häufig gebenchten Timedemos ungeahnte Leistungssprünge.

September 2000/ 1GHz CPU:

http://firingsquad.gamers.com/hardware/q3videoroundup3/page8.asp

Juni 2001/ 1Ghz CPU:

http://firingsquad.gamers.com/hardware/kyro2/page11.asp

Nochmal zurueck zu dem hier:

Reicht etwa bis einschliesslich Q3 in 1024x768x32 (oder 16Bit mit 2xAA).

1024*798*16 2xOGSS / MX400 = 38.1 fps

(unter "normal")

http://firingsquad.gamers.com/hardware/kyro2/page14.asp

1024*768*32 noAA / MX400 = 56.1 fps

http://firingsquad.gamers.com/hardware/kyro2/page11.asp

Weder noch scheint mir ausreichend fuer ein fast paced FPS wie Q3a.

ow
2003-09-13, 12:04:53
Original geschrieben von Ailuros
September 2000/ 1GHz CPU:

http://firingsquad.gamers.com/hardware/q3videoroundup3/page8.asp

Juni 2001/ 1Ghz CPU:

http://firingsquad.gamers.com/hardware/kyro2/page11.asp

Nochmal zurueck zu dem hier:



1024*798*16 2xOGSS / MX400 = 38.1 fps

(unter "normal")

http://firingsquad.gamers.com/hardware/kyro2/page14.asp

1024*768*32 noAA / MX400 = 56.1 fps

http://firingsquad.gamers.com/hardware/kyro2/page11.asp

Weder noch scheint mir ausreichend fuer ein fast paced FPS wie Q3a.



Hmm....scheint als würde ich nachher um ein wenig Bastelei nicht rumkommen, hab meine MX ja noch hier rumfliegen.:D


Wurde da demo001 gebencht?
Da erscheinen mir die Werte zu niedrig. Hab nur ne normale MX (175/166) und komme auf etwa 55fps (1024x768x32), bei OC auf 200/200 sind´s schon etwa 70 fps. Eine MX400 sollte über 60 fps kommen imo.


/edit: 4xAA in 1024x768x32 werde ich schuldig bleiben müssen, weil dazu die 32MB auf meiner MX nicht ausreichen. Da geht nur noch 2xAA in der Auflösung.

Ailuros
2003-09-13, 12:35:33
Ob es jetzt nun 60 gegen 56fps in 1024*768*32 oder 38-42fps in 1024*768*16/2xAA sind macht mir wenig Unterschied.

Als ich damals noch die GTS hatte (uebertaktet) spielte ich Q3a in 1152*864*32 und das war IMO mit den ~90fps noch spielbar fuer das bestimmte Spiel.

ow
2003-09-13, 13:13:31
Bastelei und Benches abgeschlossen, hatte mich geirrt.

800x600x16/2AA bringt nur die Leistung von 1024x768x32/0AA.

Im Detail (GF2MX, 32MB @200/166, Q3 demo001):


10x7x32 : 56,6
10x7x16 : 79,6
10x7x16/2AA: 35,3

8x6x32 : 88,8
8x6x16 : 117,4
8x6x16/2AA: 55,1

Dunkeltier
2003-09-13, 16:25:27
Original geschrieben von ow
Deine Meinung.
Ich weiss nur, dass 16Bit auf NV mit zum Besten zählt, was es an 16Bit Quali gab.


:kotz: Ich hoffe, das dies ein Scherz deinerseits war. Das allergrausigste 16 Bit hatten die älteren ATI-Karten, direkt gefolgt von nVidia. Das BESTE bieten immer noch die Kyro I/II Karten, sowie die 3dfx Karten.

ow
2003-09-13, 16:55:20
Original geschrieben von Dunkeltier
:kotz: Ich hoffe, das dies ein Scherz deinerseits war. Das allergrausigste 16 Bit hatten die älteren ATI-Karten, direkt gefolgt von nVidia. Das BESTE bieten immer noch die Kyro I/II Karten, sowie die 3dfx Karten.


Das ist ganz gewiss kein Scherz.
Ich teste sämtliche (auch aktuellen Games) immer noch unter 16Bit mit, und dank der sehr guten Quali der NV Chips hier ist dabei teils kaum ein Unterschied zu 32Bit auszumachen.

Das 3dfx Dithering ist minderwertiger, bei transparenten Überlagerungen kommt es hier zu einem extrem stören regelmässigen Muster aus weissen Pixeln. :kotz:

Mr. Lolman
2003-09-13, 17:08:25
Original geschrieben von ow
Das 3dfx Dithering ist minderwertiger, bei transparenten Überlagerungen kommt es hier zu einem extrem stören regelmässigen Muster aus weissen Pixeln. :kotz:

Wenn dir der 3dfx Postfiler nicht gefällt, kannst du ja die alternative Voodoo2 Filterung verwenden, oder ihn gleich ganz ausschalten. Die einzige Situation wo mir die 2x2 Filtertechnik der Banshee nicht gefiel war beim "Milkdrop" Plugin für WinAmp. Bei hohen Auflösungen sah der 4x1 (?) Filter (Voodoo2 Technik) aber bedeutend besser aus als normales 16bit Dithering.

Ailuros
2003-09-14, 04:55:19
Original geschrieben von ow
Bastelei und Benches abgeschlossen, hatte mich geirrt.

800x600x16/2AA bringt nur die Leistung von 1024x768x32/0AA.

Im Detail (GF2MX, 32MB @200/166, Q3 demo001):


10x7x32 : 56,6
10x7x16 : 79,6
10x7x16/2AA: 35,3

8x6x32 : 88,8
8x6x16 : 117,4
8x6x16/2AA: 55,1


Keine Ursache. Brainfarts kommen bei mir auch oefters vor. Ich musste selber nochmal alte Reviews nachblaettern weil da mir etwas nicht ganz so richtig sass :)

Ailuros
2003-09-14, 05:02:43
Original geschrieben von ow
Das ist ganz gewiss kein Scherz.
Ich teste sämtliche (auch aktuellen Games) immer noch unter 16Bit mit, und dank der sehr guten Quali der NV Chips hier ist dabei teils kaum ein Unterschied zu 32Bit auszumachen.

Das 3dfx Dithering ist minderwertiger, bei transparenten Überlagerungen kommt es hier zu einem extrem stören regelmässigen Muster aus weissen Pixeln. :kotz:

Das Dithering auf GeForces wurde durch die Treiber aber eher kurz vor der Vorstellung der NV20 verbessert, und rate mal wer wohl daran damals gebastelt hat. Dithering immer ausschliesslich S3TC sollte man hier noch sagen.

Die 16bit Qualitaet ist tatsaechlich um einiges hoeher als frueher auf GeForces, nur dass sie (was aber auf Radeons gleich ist) oft ekelhaftes Z-aliasing mit sich fuehrt, ueberhaupt in neueren Spielen.

Wie dem auch sei mit dem oben ITC demo hatte ich mit 16bpp auf der NV25 immer noch diesen "grainy look" vom dithering, was aber heute nicht der Fall ist. Keine Ahnung natuerlich wie sich da FX-en verhalten. Sowieso bloeder Punkt heutzutage, wer zum Teufel spielt heute noch auf high end Karten in 16bpp (ausser man spielt noch etwas aeltere Spiele, ich z.B. spiel immer noch MCM2 von Zeit zu Zeit) :)

StefanV
2003-09-14, 09:53:56
@Ailuros

Wobei anzumerken wäre, daß die Radeons sehr stark auf 32bit optimiert sind und daher beim wechsel auf 16bit nicht wirklich viel Leistung mehr gewinnen...

Somit kann man sagen, daß man als RADEON Besitzer schon fast ein Sadist sein muss, um in 16bit zu spielen ;)

Wobei man mit 'ner R300 basierten Karte auch alte 16bit Spiele mehr oder minder zu 32bit 'überreden' kann, man muss ja 'nur' FSAA einschalten *eg*

ow
2003-09-14, 11:43:54
Original geschrieben von Ailuros
Das Dithering auf GeForces wurde durch die Treiber aber eher kurz vor der Vorstellung der NV20 verbessert, und rate mal wer wohl daran damals gebastelt hat. Dithering immer ausschliesslich S3TC sollte man hier noch sagen.

Die 16bit Qualitaet ist tatsaechlich um einiges hoeher als frueher auf GeForces, nur dass sie (was aber auf Radeons gleich ist) oft ekelhaftes Z-aliasing mit sich fuehrt, ueberhaupt in neueren Spielen.

Wie dem auch sei mit dem oben ITC demo hatte ich mit 16bpp auf der NV25 immer noch diesen "grainy look" vom dithering, was aber heute nicht der Fall ist. Keine Ahnung natuerlich wie sich da FX-en verhalten. Sowieso bloeder Punkt heutzutage, wer zum Teufel spielt heute noch auf high end Karten in 16bpp (ausser man spielt noch etwas aeltere Spiele, ich z.B. spiel immer noch MCM2 von Zeit zu Zeit) :)

??
Kann ich so nicht bestätigen.
Das 16Bit Dithering ist von RivaTNT bis min. GF4 identisch, und das treiberunabhängig, ist ja in der HW implementiert.

btw. du wärest erstaunt, bei wievieln Games (auch neueren) man fast keinen Unterschied zwischen 16 und 32Bit Framebuffer sieht (Texturen sollten immer auf 32Bit stehen, das steht ausser Frage).

Ailuros
2003-09-14, 12:57:18
Wobei man mit 'ner R300 basierten Karte auch alte 16bit Spiele mehr oder minder zu 32bit 'überreden' kann, man muss ja 'nur' FSAA einschalten.

MCM2 ist auf 16bpp limitiert. Wie dem auch sei ich sehe keine Unterschiede mit oder ohne MSAA was Farbentiefe betrifft. Gaebe es eine Chance da was nicht so aussieht wie es sein sollte, dann waere es eher die skybox. Haette ich da z.B. "banding" kannst Du mir da mal erklaeren wie MSAA das in Theorie korrigieren wuerde?

btw. du wärest erstaunt, bei wievieln Games (auch neueren) man fast keinen Unterschied zwischen 16 und 32Bit Framebuffer sieht (Texturen sollten immer auf 32Bit stehen, das steht ausser Frage).

Erstaunt ueber was? Es gibt kein NV Produkt dass ich nicht selber ausprobiert habe bis heute. Nochmal Z-aliasing mit 16bpp (egal ob 16 oder 32bit Texturen) auf allen Karten heutzutage.

Aber wenn Du schon drauf bestehst dass es nur HW basierend ist, kannst Du ja frei mit 16bpp in OGL - UT2k3 herumexperimentieren. Da gibt es natuerlich keine SW Hilfe :P

ow
2003-09-14, 14:01:14
@Ailuros

Z-Buffer Probleme habe nicht unbedingt was mit dem Framebuffer zu tun.
Die aktuellen NV/ATi Chips können IIRC auch bei 16Bit FB mit einem 24BIt Z Buffer arbeiten, da treten dann keine Probleme mehr auf.

Ailuros
2003-09-14, 17:56:08
Original geschrieben von ow
@Ailuros

Z-Buffer Probleme habe nicht unbedingt was mit dem Framebuffer zu tun.
Die aktuellen NV/ATi Chips können IIRC auch bei 16Bit FB mit einem 24BIt Z Buffer arbeiten, da treten dann keine Probleme mehr auf.

Es geht hier nicht woher die Probleme kommen, sondern ob man 16bpp heutzutage noch als Alternative ansehen kann (ausser alten 16bpp only Spielen). In dem Fall kommt es darauf an wie eine Applikation darauf reagiert. In SS:SE muss man fuer GeForces einen 24Z buffer und 8 bit stencil in der ini aufzwingen sonst erscheint Z-aliasing bei 16 oder 32bit.

Andere Spiele beschraenken Z-aliasing nur auf 16bpp Farbentiefe, wobei nicht immer das Aufzwingen von einem 24Z buffer hilft.

UT2k3/32bit Texturen/16bpp colour depth/24bit Z forced:

http://users.otenet.gr/~ailuros/16b24z.jpg

Es gibt keinen einzigen Grund heutige Spiele noch mit 16bpp zu spielen.

ow
2003-09-14, 17:58:59
Original geschrieben von Ailuros


Es gibt keinen einzigen Grund heutige Spiele noch mit 16bpp zu spielen.

Doch, wenn man nämlich eine ältere Karte hat, die leistungsmässig von 16Bit stark profitiert.

Ailuros
2003-09-14, 18:16:59
Dabei ist es wohl eher angebracht zu sagen dass man mit 16bpp und dessen Qualitaetsminderungen durch beschraenkten budget noch leben kann, anstatt 16bpp Qualitaet noch als akzeptabel anzusehen.

Selbst auf der KYRO sahen Coronas in manchen maps mit 16bpp/32bit textures im originalen UT uebel aus. Und da hat auch kein Supersampling geholfen.

Mr. Lolman
2003-09-14, 18:46:24
Original geschrieben von Ailuros
Dabei ist es wohl eher angebracht zu sagen dass man mit 16bpp und dessen Qualitaetsminderungen durch beschraenkten budget noch leben kann, anstatt 16bpp Qualitaet noch als akzeptabel anzusehen.

Selbst auf der KYRO sahen Coronas in manchen maps mit 16bpp/32bit textures im originalen UT uebel aus. Und da hat auch kein Supersampling geholfen.

Inakzeptabel würd auch nicht die die 16bit Qualität betrachetn. Die Spiele, die für die Genannten Karten in Frage kommen, profitieren ohnehin kaum von 32bit.

BTW: Die geilste 16bit Qualität hatte man in Glide. (Da gabs auch keine Coronas, die Scheisse aussahen.)

aths
2003-09-14, 18:50:37
Original geschrieben von ow
Das ist ganz gewiss kein Scherz.
Ich teste sämtliche (auch aktuellen Games) immer noch unter 16Bit mit, und dank der sehr guten Quali der NV Chips hier ist dabei teils kaum ein Unterschied zu 32Bit auszumachen.

Das 3dfx Dithering ist minderwertiger, bei transparenten Überlagerungen kommt es hier zu einem extrem stören regelmässigen Muster aus weissen Pixeln. :kotz: Was ich in Quake3 an 16-Bit-"Qualität" bei Transparenz mit der GF4 gesehen habe, hat mich kein bisschen mehr überzeugt. http://www.aths.net/files/smilies/rolleyes.gif Transparenz sieht mit 16 Bit nicht sonderlich toll aus, 3dfx-Chips bieten immerhin die Möglichkeit, das Dithering bei Alpha Blending abzuschalten. Dann hat man halt Color Banding.

aths
2003-09-14, 18:51:26
Original geschrieben von Mr. Lolman
Wenn dir der 3dfx Postfiler nicht gefällt, kannst du ja die alternative Voodoo2 Filterung verwenden, oder ihn gleich ganz ausschalten. Die einzige Situation wo mir die 2x2 Filtertechnik der Banshee nicht gefiel war beim "Milkdrop" Plugin für WinAmp. Bei hohen Auflösungen sah der 4x1 (?) Filter (Voodoo2 Technik) aber bedeutend besser aus als normales 16bit Dithering. Die 2x2-Filterung ist der 4x1-Filterung klar überlegen, da die horizontalen Streifen-Artefakte ausbleiben http://www.aths.net/files/smilies/smile.gif

ow
2003-09-14, 19:30:42
Original geschrieben von aths
Was ich in Quake3 an 16-Bit-"Qualität" bei Transparenz mit der GF4 gesehen habe, hat mich kein bisschen mehr überzeugt. http://www.aths.net/files/smilies/rolleyes.gif Transparenz sieht mit 16 Bit nicht sonderlich toll aus, 3dfx-Chips bieten immerhin die Möglichkeit, das Dithering bei Alpha Blending abzuschalten. Dann hat man halt Color Banding.

Das Colorbanding ist für mich nicht wirklich ein Option, dann lieber Dithering-Muster, sofern sie nicht zu störend sind (und für mich hat nV da einen sehr guten Kompromiss gefunden, geringe Dithering-Artefakte UND wenig Colorbanding).

Mr. Lolman
2003-09-14, 19:45:43
Original geschrieben von aths
Die 2x2-Filterung ist der 4x1-Filterung klar überlegen, da die horizontalen Streifen-Artefakte ausbleiben http://www.aths.net/files/smilies/smile.gif

Dann kuck doch mal das Milkdrop - Winamp Plugin. Da sind die Streifen zwar auch zu sehen, aber sind im gesamten nicht so störend wie das 2x2 Muster, oder gar das normale 16bit Dithering.

(Wie gesagt, Milkdrop war hier eine Ausnahme, da damals keine Computerspiele mit dunkelgrünem-dunkelbrauenm Nebel hatte)