Archiv verlassen und diese Seite im Standarddesign anzeigen : Gamma Einstellungen für bessere AA Qualität
Mr. Lolman
2003-02-27, 18:09:27
Mir ist schon öfters aufgefallen, dass das AA, je höher die Gamma Korrektur ist, immer schlechter wird.
Nun ist z.B. gerade Unreal 2 so ein Spiel wo die Gammawerte zu von Haus aus zu niedrig sind. Wenn ich den Kontrast/Helligkeit und Gammakorrektur höher stelle (Gamma 1.3) dann sieht bei starken Kontrasten 4xAA fast wie 0xAA oder 2xAA aus.
Welche Gamma/Helligkeit/Kontrast- werte empfehlt ihr für Unreal 2?
Endorphine
2003-02-27, 18:17:05
Originally posted by Mr. Lolman
Mir ist schon öfters aufgefallen, dass das AA, je höher die Gamma Korrektur ist, immer schlechter wird. War es nicht grad der R300, der gammakorrigiertes AA mitbrachte? Du hast doch ne 9700er... Oder muss das extra von der ANwendung unterstützt werden?
Edit: Frag' am besten mal aths.
Mr. Lolman
2003-02-27, 18:54:46
Gammakorrigiert ist es, aber nur bei Standardgammasettings. Sobald man bei Unreal2 Gammakorrektur über 1 stellt (bei Gothic2 über 1.3), fällt es stark auf, dass die AA Zwischenstufen nicht mit korrigiert werden.
Mr. Lolman
2003-02-27, 22:28:54
AAAAAAAAATTTTTTTTTHHHHHHHHHHHHHHSSSSSSSSSSSSSS
ist da nochwas zu machen treibermässig, sodass sich das AA, dem Gammawert anpasst, oder nücht?
zeckensack
2003-02-27, 22:54:49
Das ist ja schrecklich :devil:
Originally posted by Mr. Lolman
AAAAAAAAATTTTTTTTTHHHHHHHHHHHHHHSSSSSSSSSSSSSS
ist da nochwas zu machen treibermässig, sodass sich das AA, dem Gammawert anpasst, oder nücht? Ich bin eigentlich bisher davon ausgegangen, daß Gamma-Einstellungen in Spielen mit berücksichtigt werden. Daß das offenbar nicht so ist, finde ich schade.
Wäre IMO ein Fall für's Treiberteam, jopp.
Versuch mal testhalber nur Gamma, also Kontrast auf 100%, Helligkeit auf 0. Gamma 1.9~2.2 finde ich ganz nett für UT2k3.
Ob's was bringt kann ich dir nicht sagen, ich fahr' hier immer noch auf 'ner 8500er rum (will auch R300 haben!).
Mr. Lolman
2003-03-01, 15:16:17
Also bei deinen Einstellungen sieht man schon recht deutlich, dass das Gammakorrigierte AA nicht adaptiv ist. Am besten macht sich das bei s/w Kontrasten bemerkbar. (und bei H:0.5/K:1.0/G:2.0)
Screenshts kann man davon leider keine machen, da immer eine eigene Gammakorrektur für die Shots verwendet wird (=der des Fenstermodus), sei mit interne Screenshotsfunktion, Zwischenablage oder Hypersnap DX.
Die für AA beste Qualität mit annehmbaren Kontrastverhältnis ist bei Unreal 2:
Helligkeit: 0.65
Kontrast: 0.45
Gamma: 0.75
...was in der Tat schon ein recht armseliges Helligkeits/Kontrast Verhältnis zu Tage bringt. Was waren schnell die Standardsettings für H/K/G ?
Originally posted by zeckensack
Das ist ja schrecklich :devil:
Ich bin eigentlich bisher davon ausgegangen, daß Gamma-Einstellungen in Spielen mit berücksichtigt werden. Daß das offenbar nicht so ist, finde ich schade. Wenn UT das mit SetDeviceGammaRamp macht, wovon ich mal ausgehe, kann der Treiber schlecht den Gamma-Wert ermitteln.
Gut, aTuner macht das so: Er liest die Ramp ein und guckt, welche eigene Gamma-Einstellung die aktuelle Ramp am ehesten approximiert, und zeigt dieses Gamma an, und setzt dann auch ggf. die "korrigierte" Ramp neu. Ich glaube nicht, dass der ATI-Treiber beim Wechsel der Gamma-Ramp jene abprüft, welchem Gamma-Wert das nun entspricht. Der Deto hat neuerdings eine Art "Low Level Gamma", welches nach Berücksichtung der Ramp zum Tragen kommt. Ich weiß nicht, ob ATI sowas hat. Wenn ja, könnte man Gamma im Control Panel einstellen, das AA sollte sich daraufhin anpassen. Wird die Ramp von einem Fremdprogramm gesetzt, müsste der Treiber wie gesagt aus der Ramp den nächstliegenden Gamma-Wert approximieren, was er offensichtlich nicht tut. Er korrigert dann für eine falsche Gamma-Einstellung. Die Lösung sollte treibermäßig so aussehen, dass Gamma-Gegenkorrektur beim FSAA auf Wunsch abschaltbar ist.
zeckensack
2003-04-29, 19:36:27
Originally posted by aths
Wenn UT das mit SetDeviceGammaRamp macht, wovon ich mal ausgehe, kann der Treiber schlecht den Gamma-Wert ermitteln.
Gut, aTuner macht das so: Er liest die Ramp ein und guckt, welche eigene Gamma-Einstellung die aktuelle Ramp am ehesten approximiert, und zeigt dieses Gamma an, und setzt dann auch ggf. die "korrigierte" Ramp neu. Ich glaube nicht, dass der ATI-Treiber beim Wechsel der Gamma-Ramp jene abprüft, welchem Gamma-Wert das nun entspricht. Der Deto hat neuerdings eine Art "Low Level Gamma", welches nach Berücksichtung der Ramp zum Tragen kommt. Ich weiß nicht, ob ATI sowas hat. Wenn ja, könnte man Gamma im Control Panel einstellen, das AA sollte sich daraufhin anpassen. Wird die Ramp von einem Fremdprogramm gesetzt, müsste der Treiber wie gesagt aus der Ramp den nächstliegenden Gamma-Wert approximieren, was er offensichtlich nicht tut. Er korrigert dann für eine falsche Gamma-Einstellung. Die Lösung sollte treibermäßig so aussehen, dass Gamma-Gegenkorrektur beim FSAA auf Wunsch abschaltbar ist. Der Win32-API fehlt eine 'vernünftige' Gamma-Funktion. Ich würde etwas in der Art "SetDeviceGamma(float gamma)" begrüßen. Aber man sollte sich nie auf Intelligenz in Redmond verlassen.
Diese Analyse der Gammakurve (obwohl suboptimal) ist IMO durchaus machbar für einen Treiber. Das Setzen von Gamma-Werten ist keinesfalls performancekritisch, wenn Programme das überhaupt tun, dann tun sie's einmal beim Start, und wenn der User an den Reglern spielt.
Keinesfalls jedoch einmal pro Frame, oder gar noch öfter.
Das Argument, die Analyse sei zu 'teuer' kann also nicht gelten.
Wenn ich jetzt keinen Unsinn rede, dann stehen wir vor einer dieser beiden Optionen:
Der R300 kann seine AA-Gamma-Korrektur nicht an aktuelle Begebenheiten anpassen (Hardware-Limitation).
ATI war bisher zu faul, dies zu implementieren.
Ich meine:
- Ob die HW sich ans Gamma anpasst sollte geprüft werden, in dem Gamma mit dem Panel geändert wird und man mit einem Programm testet, was nicht an der LookUp-Table rumspielt.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.