Archiv verlassen und diese Seite im Standarddesign anzeigen : was ist/macht dieser clamp schalter?
jo, was macht der? wofür ist der gut?
Adam D.
2005-01-12, 19:11:07
Er existiert, um das Textur-Schimmern bei 6800-Karten zu reduzieren/entfernen. Hat was mit LOD zu tun (Negativer LOD-BIAS). Keine Ahnung, was das Teil genua macht...
MechWOLLIer
2005-01-12, 19:22:04
Ein negativer LOD wid einfach verboten. Damit kann es in manchen Bildern etwas unschärfer werden(aber nur in wenigen und dann geanz minimal, ähnlich wie bei ATI), aber dafür gibt es kein Texturflimmern mehr. Auf jeden Fall auf Clamp stellen!
Und zu erwähnen wäre noch: NUR FÜR D3D!
Unter OpenGL (Doom3 z.Bsp.) hat dieser Schalter keine Auswirkung...
Razor
Gaestchen
2005-01-13, 11:46:11
Bringt der nur was bei einer GF 6xxx oder funktioniert das auch mit FX´en?
Tjell
2005-01-13, 12:00:40
Bringt der nur was bei einer GF 6xxx oder funktioniert das auch mit FX´en?
Ich wüßte nicht, daß FX-Karten von Texturflimmern betroffen wären.
Zumindest trat es bei mir erst mit der 6800 GT auf und ist seit FW67.02 Geschichte.
Jo...
Und theoretisch sollte dieser Schalter auch bei den FX'en funzen.
Fragt sich nur, ob man diesen dort auch benötigt, gell?
:D
Razor
zeckensack
2005-01-13, 12:08:09
Ein negativer LOD wid einfach verboten. Damit kann es in manchen Bildern etwas unschärfer werden(aber nur in wenigen und dann geanz minimal, ähnlich wie bei ATI)
<schnipp>Nein.
Wie "nein"?
:confused:
Dass der Satz inhaltlich nicht ganz korrekt ist, versteht sich, aba...
Um das teilweise extreme flimmern bei ATI weg zu bekommen, muss man den LOD ein wenig anheben, was dann den Effekt hat, dass alles ein wenig unschärfer wird (nicht nur das, was mit negativen LOD behaftet war).
Meintest Du das vielleicht?
Ein "Abschneiden" des LOD bei '0' ist bei ATI - soweit ich weiß - nicht möglich...
(was aber wünschenswert wäre)
Razor
BlackArchon
2005-01-13, 13:17:48
Jo...
Und theoretisch sollte dieser Schalter auch bei den FX'en funzen.
Fragt sich nur, ob man diesen dort auch benötigt, gell?
:D
Razor
Sogar hier auf der GeForce4 MX 420 habe ich diesen Schalter. :D
Sogar hier auf der GeForce4 MX 420 habe ich diesen Schalter. :DCool!
:up:
Und?
Heute schon ge'clampt'?
;D
Razor
zeckensack
2005-01-13, 14:12:27
Wie "nein"?
:confused:
Dass der Satz inhaltlich nicht ganz korrekt ist, versteht sich, aba...
Um das teilweise extreme flimmern bei ATI weg zu bekommen, muss man den LOD ein wenig anheben, was dann den Effekt hat, dass alles ein wenig unschärfer wird (nicht nur das, was mit negativen LOD behaftet war).Äh?
Bei negativem LOD und/oder krassen Filter-"Optimierungen" flimmert es natürlich auf allen Karten. Bei LOD=0, und deaktivierten "Optimierungen" -- was bei ATI iÜ genauso machbar ist wie bei NV --flimmert's dann nur noch auf der Geforce6-Reihe, weil eben nur diese Familie dieses spezifische Problem der generellen Unterfilterung und damit einhergehender Flimmerneigung hat.
Du scheinst das anders zu sehen, sonst würdest du dich wohl kaum so wundern. Ich empfehle dir diesbezüglich mal BQ-Vergleiche inhärent unoptimierbarer Karten, zB Radeon 9700 vs Geforce 4Ti oder sowas. Du wirst sehen, dass du nichts siehst. Radeon-Karten stellen Texturen eben nicht generell unschärfer dar als Geforce-Karten, das nimmt sich nichts. Deswegen ist damit auch keine geringere Flimmerneigung zu erklären.
Erst mit der Gf6 wurde das verschlimmbessert. Es ist keine Frage von NVIDIA gegen ATI, sondern vielmehr Geforce 6 gegen den Rest der Welt, inklusive älterer NV-Chips.
Meintest Du das vielleicht?
Ein "Abschneiden" des LOD bei '0' ist bei ATI - soweit ich weiß - nicht möglich...
(was aber wünschenswert wäre)
RazorNegativer LOD-Bias ist garnicht mal ein so weit verbreitetes Problem. Das machen fast nur Spiele die auf der Unreal-Engine basieren, und ein paar von Praktikanten zusammengefrickelte Rennspiele.
Das Problem mit der Gf6 ist IMO nicht wirklich eins des negativen LOD bias. Wenn Geforce <=FX ebenso betroffen wären, wäre das entsprechende Knöpperl schon viel früher im CP aufgetaucht, meinst nicht?
Äh?
Bei negativem LOD und/oder krassen Filter-"Optimierungen" flimmert es natürlich auf allen Karten. Bei LOD=0, und deaktivierten "Optimierungen" -- was bei ATI iÜ genauso machbar ist wie bei NV --flimmert's dann nur noch auf der Geforce6-Reihe, weil eben nur diese Familie dieses spezifische Problem der generellen Unterfilterung und damit einhergehender Flimmerneigung hat.Wus?
Also mit aktiviertem 'clamp', um negativen LOD zu verhindern, flimmert da eigentlich nicht mehr wirklich viel (schon gar nicht mit "High Quality"). Und wie war das bei ATI noch gleich möglich nur negativen LOD zu verhindern, ohne dabei die generellen Optimierungen (nicht, was die Filter betrifft ;-) zu beeinflussen? "AI off" kanns ja wohl kaum sein...
Du scheinst das anders zu sehen, sonst würdest du dich wohl kaum so wundern. Ich empfehle dir diesbezüglich mal BQ-Vergleiche inhärent unoptimierbarer Karten, zB Radeon 9700 vs Geforce 4Ti oder sowas. Du wirst sehen, dass du nichts siehst.Ich kann da leider derzeit nur R9800p und FX5900 'ohne' anbieten... und dort ist der Unterschied offensichtlich.
(zugunsten der FX selbstredend ;-)
Negativer LOD-Bias ist garnicht mal ein so weit verbreitetes Problem. Das machen fast nur Spiele die auf der Unreal-Engine basieren, und ein paar von Praktikanten zusammengefrickelte Rennspiele.Schon klar... aber wenn es auftritt (hier besonders UT2003/2004, HalfLife2 und auch BFV, um nur einige zu nennen) nervt es gewaltig. Der 'clamp'-Schalter war im übrigen mit ein Kaufgrund für die LE, da sich für mich die dargebote Filter-Qualität der NV40-Reihe mit Prä-67.02'ern als schlicht unerträglich darstellte.
Und zu den ATI-Filtern habe ich mich ja nun schon oft genug ausgelassen, auch scheint dies ja (gott lob) heutzutage doch eher zum Allgemeinwissen zu gehören...
Das Problem mit der Gf6 ist IMO nicht wirklich eins des negativen LOD bias. Wenn Geforce <=FX ebenso betroffen wären, wäre das entsprechende Knöpperl schon viel früher im CP aufgetaucht, meinst nicht?Klaro.
Nur wo genau das Problem zu sehen ist, scheint ja keiner wirklich zu wissen. Ich weiß lediglich, dass es dank 'clamp'-Schalter (selbstredend die Reaktion des Treibers auf den zugehörigen Reg-Key ;-) sehr viel besser geworden ist, so dass die BQ jetzt mit der der FX zu vergleichen ist... wenn man mal von der enormen Winkelabhängigkeit der NV4x absieht. Zwar ist letzteres bei ATI noch extremer, aber ich will in diesem Bereich eigentlich keine Bewertungen mehr vornehmen, da ich dies bei beiden als grottenschlecht empfinde. Traurig, dass man so etwas 'modern' oder gar 'high end' nennt... ein eindeutiger Rückschritt.
-
Bei der LE ist die Flimmerbeseitigung bei den paar Games recht einfach:
a) "High Quality" + "Clamp"
b) "Quality" + AnisoOpts "Off" + "Clamp"
Bei der R9800p ist's mir nie wirklich gelungen, bis auf das eine mal, wo mir Lolman 'verraten' hat, wie die Schiebe-Reglerchen einzustellen waren und was ich wo, wie einstellen musste, damit's nicht mehr so flimmert. Mit neueren Treibern scheint sich das ein wenig gebessert zu haben, aber da habe ich das Gefühl, dass jetzt alles unschärfer ist... zu unscharf... hmmm... hast Du dazu eine Idee?
Thx in advance!
Razor
MechWOLLIer
2005-01-13, 15:50:10
Nein.
Ok, wusste ich nicht, aber hast du ja jetzt erklärt:)
Unter OpenGL (Doom3 z.Bsp.) hat dieser Schalter keine Auswirkung...
Trott unter OpenGL das Texturflimmern überhaupt auf? Ich konnte das zumindest bei meinen wenigen OpenGL Spielen nicht unbedingt feststellen.
Mr. Lolman
2005-01-13, 16:06:41
Hat schon jemand mal Clamp vs Standard gebencht?
Imo sollte die Reviewer mal aufwachen und nicht immer die neue Generation mit aktiven- gegen die Alte mit inaktiven weil nicht vorhandenen Optimierungen benchen.
Das Flimmern findet anscheinend jeder zum Kotzen (zumindest hoffentlich die Leute, die sich damals wegen der besseren BQW ne NV Karte zugelgegt haben) warum also damit benchen? Bei deaktivierten Optimierungen siehts ganz anders aus. Da sind die 128MB NV40 Karten der direkte Konkurrent* zur 128MB 9800pro...
*ok in D³ und Riddick halt nicht, dafür ist ne 128MB GT in Hl² auch ein Eckhaus langsamer als ne 9800pro...
Mr. Lolman
2005-01-13, 16:08:42
Ok, wusste ich nicht, aber hast du ja jetzt erklärt:)
Trott unter OpenGL das Texturflimmern überhaupt auf? Ich konnte das zumindest bei meinen wenigen OpenGL Spielen nicht unbedingt feststellen.
Bin gespannt, wie Riddick auf ner NV40 aussieht. Denn selbst auf der vergleichsweise brav filternden R3x0 gibts tw. übelstes Moire. Genauso wie von mir beim "LOD oder nicht LOD" Thread prophezeit
MechWOLLIer
2005-01-13, 16:34:30
Hat schon jemand mal Clamp vs Standard gebencht?
Hab ich mal gemacht, aber nur bei drei Spielen. Und dort waren die Ergebnissen bei Clamp und bei allow beides mal innerhalb der Messungenauigkeit.
zeckensack
2005-01-13, 16:43:10
Wus?
Also mit aktiviertem 'clamp', um negativen LOD zu verhindern, flimmert da eigentlich nicht mehr wirklich viel (schon gar nicht mit "High Quality"). Und wie war das bei ATI noch gleich möglich nur negativen LOD zu verhindern, ohne dabei die generellen Optimierungen (nicht, was die Filter betrifft ;-) zu beeinflussen? "AI off" kanns ja wohl kaum sein...Ich habe so den Verdacht dass auf der Gf6 dieser Clamp-Schalter zwar clampt, aber nicht auf 0, sondern leicht höher. Dafür habe ich leider nur Indizien anzubieten, weil mir schlicht die Hardware fehlt, um die entsprechenden Beweise basteln zu können ;(
Negativen LOD-Bias kann man auf ATI-Karten garnicht verhindern. Auch nicht durch abschalten dieser "Optimierungen". 3D-Applikationen können weiterhin beliebig am LOD-bias rumpfuschen.
Ich kann da leider derzeit nur R9800p und FX5900 'ohne' anbieten... und dort ist der Unterschied offensichtlich.
(zugunsten der FX selbstredend ;-)Du meinst die 9800Pro flimmert?
Hmmm ... dass da sparsam gearbeitet wurde ist ja bekannt (http://www.3dcenter.org/artikel/2003/11-21_b.php). Aber flimmrig sollte es dadurch nicht werden. Mir persönlich schmeckt's auch.
Apropos "mir persönlich": Ich finde meine 9800Pro nicht flimmriger als meine (ungeclampte) FX5900XT, und ein Schärfeunterschied ist mir auch noch nicht aufgefallen.
Zumindest den Schärfevergleich zwischen den beiden (was ja der eigentliche Grund für mein Einfallen in diesen Thread war ...) kann ich mit Screenshots zeigen, wenn's wirklich sein muss. Was das Flimmern angeht, bist du womöglich einfach sensibler. Ich bin zwar noch nicht völlig erblindet -- LOD-bias=-0.5 erzeugt bei mir bereits mittelschwere Krätze --, aber ich ertrage zB auch den FXschen brilinearen Filter.
Schon klar... aber wenn es auftritt (hier besonders UT2003/2004, HalfLife2 und auch BFV, um nur einige zu nennen) nervt es gewaltig. Der 'clamp'-Schalter war im übrigen mit ein Kaufgrund für die LE, da sich für mich die dargebote Filter-Qualität der NV40-Reihe mit Prä-67.02'ern als schlicht unerträglich darstellte.Ich finde diesen Schalter auch nützlich, wenn dadurch Software-Dummheiten korrigiert werden.
Nutzer meines Dingsbums können iÜ auch den LOD-Bias feststellen, und das schon seit Mai '03 :)
Und zu den ATI-Filtern habe ich mich ja nun schon oft genug ausgelassen, auch scheint dies ja (gott lob) heutzutage doch eher zum Allgemeinwissen zu gehören...Seitenhieb verstanden ;)
Der Hintergrund ist mir natürlich auch bekannt (siehe oben).
Klaro.
Nur wo genau das Problem zu sehen ist, scheint ja keiner wirklich zu wissen. Ich weiß lediglich, dass es dank 'clamp'-Schalter (selbstredend die Reaktion des Treibers auf den zugehörigen Reg-Key ;-) sehr viel besser geworden ist, so dass die BQ jetzt mit der der FX zu vergleichen ist... wenn man mal von der enormen Winkelabhängigkeit der NV4x absieht.Aha!? Also würdest du zustimmen, wenn ich sage dass bei Geforce 6-Serie ggü den FXen die Filter verschlechtert wurden?
Das ist ja gerade das, was mich so skeptisch macht. Wenn die FXen den Clamp-Knopf nicht (oder nur in Ausnahmespielen) brauchen, um nicht zu flimmern, die 6er ihn aber beinahe überall brauchen ... dann tut der Clamp-Knopf mehr als allgemein angenommen wird.
Zwar ist letzteres bei ATI noch extremer, aber ich will in diesem Bereich eigentlich keine Bewertungen mehr vornehmen, da ich dies bei beiden als grottenschlecht empfinde. Traurig, dass man so etwas 'modern' oder gar 'high end' nennt... ein eindeutiger Rückschritt.
-
Bei der LE ist die Flimmerbeseitigung bei den paar Games recht einfach:
a) "High Quality" + "Clamp"
b) "Quality" + AnisoOpts "Off" + "Clamp"
Bei der R9800p ist's mir nie wirklich gelungen, bis auf das eine mal, wo mir Lolman 'verraten' hat, wie die Schiebe-Reglerchen einzustellen waren und was ich wo, wie einstellen musste, damit's nicht mehr so flimmert. Mit neueren Treibern scheint sich das ein wenig gebessert zu haben, aber da habe ich das Gefühl, dass jetzt alles unschärfer ist... zu unscharf... hmmm... hast Du dazu eine Idee?
Thx in advance!
RazorKeine Idee. Mich stört da auch nichts, ich bin mit den Treiber-Defaults minus "AI" zufrieden. Du musst wirklich ein Sensibelchen sein (ausdrücklich nicht negativ gemeint).
Tesseract
2005-01-13, 17:09:29
Ich habe so den Verdacht dass auf der Gf6 dieser Clamp-Schalter zwar clampt, aber nicht auf 0, sondern leicht höher. Dafür habe ich leider nur Indizien anzubieten, weil mir schlicht die Hardware fehlt, um die entsprechenden Beweise basteln zu können ;(
ich kann da gern behilflich sein sofern möglich. ;)
edit: aber ich denke das problem ist eher bei der adaptivität als beim LOD zu suchen.
mal ne dumme frage:
wo is dieser schalter? ich find den einfach net :confused:
Banshee18
2005-01-13, 18:43:11
Bei deaktivierten Optimierungen siehts ganz anders aus. Da sind die 128MB NV40 Karten der direkte Konkurrent* zur 128MB 9800pro...
*ok in D³ und Riddick halt nicht, dafür ist ne 128MB GT in Hl² auch ein Eckhaus langsamer als ne 9800pro...
Also meine 6800nU@16/6 ist auch mit deaktivierten Optimierungen überall überdeutlich schneller als meine frühere 9700 (356/296)
mfg
Banshee
Mr. Lolman
2005-01-13, 23:10:47
Also meine 6800nU@16/6 ist auch mit deaktivierten Optimierungen überall überdeutlich schneller als meine frühere 9700 (356/296)
mfg
Banshee
Liegt vll. am Speichertakt. Meine Radeon @ 400/350 ist bei COD mit 1280x1024 4xAA/16xAF im fast 10% schneller als Blackarchons 6800nu, beim AM3 fehlen mit leicht erhöhten 9800XT Takt bei 1024x768 mit AA/AF gerade mal 10-15% auf ne 128MB 6800GT, und bei HL² ist je nach Benchmakr meine Karte mit 4xAA/8xAF in 1280 tw. schneller als ne 128MB 6800GT ohne AA. Die Systeme waren zwar nicht wirklich gleich, aber eher zu Gunsten der anderen. (imo haben die alle ein AMD64, während ich mit meinem XP benche)
Falls du mir nicht glaubst such ich gern die einzelnen Benchmarks aus dem Forum. Ich zweifle auch deine Aussage nicht an, denn unterhalb von 1280 ist ne 6800 wirklich so gut wie überall schneller. Mich hats halt gnur gewundert, dass grad im NV Metier - OpenGL - unter COD die alte R3x0 Generation doch so gut abschneidet.
Mr. Lolman
2005-01-13, 23:14:40
Hab ich mal gemacht, aber nur bei drei Spielen. Und dort waren die Ergebnissen bei Clamp und bei allow beides mal innerhalb der Messungenauigkeit.
Warum wird dann nicht automatisch geclampt? Oder liegt das an der höheren Screenshotschärfe. Anscheinend ein Punkt auf dem NV auch schon zu GF2 GTS zeiten scharf war, nutzten sie doch (zumindest lt. mancher Q3a Screenshots) da auch ein negatives LOD.
MechWOLLIer@school
2005-01-14, 08:45:35
Warum wird dann nicht automatisch geclampt? Oder liegt das an der höheren Screenshotschärfe. Anscheinend ein Punkt auf dem NV auch schon zu GF2 GTS zeiten scharf war, nutzten sie doch (zumindest lt. mancher Q3a Screenshots) da auch ein negatives LOD.
Es wird per default geclampt;)
(del676)
2005-01-14, 09:32:11
Negativer LOD-Bias ist garnicht mal ein so weit verbreitetes Problem. Das machen fast nur Spiele die auf der Unreal-Engine basieren, und ein paar von Praktikanten zusammengefrickelte Rennspiele.
welches rennspiel meinst du da?
Razor
2005-01-15, 04:59:03
Das Flimmern findet anscheinend jeder zum Kotzen (zumindest hoffentlich die Leute, die sich damals wegen der besseren BQW ne NV Karte zugelgegt haben) warum also damit benchen? Bei deaktivierten Optimierungen siehts ganz anders aus. Da sind die 128MB NV40 Karten der direkte Konkurrent* zur 128MB 9800pro...*ok in D³ und Riddick halt nicht, dafür ist ne 128MB GT in Hl² auch ein Eckhaus langsamer als ne 9800pro...Was redest Du denn jetzt wieder für einen Unsinn?
Es gibt keinen Unterschied in der Performance zwischen 'clamp' und 'allow'.
Und wenn Du bei ATI "AI" deaktivierst (womit bekanntlich ja noch immer nicht alle Optimierungen von dannen sind ;-), dann sieht's da richtig übel aus. Oder wie wolltest Du nich gleich nVidia 'unoptimiert' gegen ATI 'unoptimiert' testen?
Gar nicht?
Wir kommst Du dann zu so einer harnebüchenen Aussage?
:confused:
Bin gespannt, wie Riddick auf ner NV40 aussieht. Denn selbst auf der vergleichsweise brav filternden R3x0 gibts tw. übelstes Moire. Genauso wie von mir beim "LOD oder nicht LOD" Thread prophezeitVergleichsweise "brav" nennst Du das, was da von 'ner R300 kommt?
Kann ja wohl nicht Dein ernst sein, oder?
Und nein, ein bissel Moire ist schon vorhanden aber nicht so extrem, als dass es sich störend bei mir 'festsetzen' würde. Auf der ATI hingegen sieht das richtig übel aus... hast Du dafür vielleicht einen Tip, wie man das erträglich einstellen kann?
Thx in advance!
Warum wird dann nicht automatisch geclampt?Weil das ein 'Eingriff' in den 'Wunsch' des App-Entwicklers wäre?
Wenn sich ein Nutzer bewußt (!) gegen den Entwickler entscheidet, ist das OK.
Wenn sich aber ein IHV gegen den Entwickler entscheidet und dem Nutzer nicht die Wahl läßt, ist das nicht OK.
War jetzt sehr vereinfacht ausgedrückt...
(Wow, 4x'W' ;-)
Got the idea?
;)
Razor
Razor
2005-01-15, 05:10:32
Es wird per default geclampt;)Nein.
Es kommt darauf an, welche Quality-Einstellungen Du vornimmst.
Und der Benutzer hat jederzeit das Recht, den jeweiligen 'Vorschlag' abzulehnen...
Razor
Razor
2005-01-15, 05:44:40
Ich habe so den Verdacht dass auf der Gf6 dieser Clamp-Schalter zwar clampt, aber nicht auf 0, sondern leicht höher. Dafür habe ich leider nur Indizien anzubieten, weil mir schlicht die Hardware fehlt, um die entsprechenden Beweise basteln zu können ;(
Negativen LOD-Bias kann man auf ATI-Karten garnicht verhindern. Auch nicht durch abschalten dieser "Optimierungen". 3D-Applikationen können weiterhin beliebig am LOD-bias rumpfuschen.Hmmm...
Also selbst ein Unterschied von 0.0 zu +0.1 ist deutlich auszumachen.
Was hat Dich zu dieser Annahme veranlaßt?
Du meinst die 9800Pro flimmert?
Hmmm ... dass da sparsam gearbeitet wurde ist ja bekannt (http://www.3dcenter.org/artikel/2003/11-21_b.php). Aber flimmrig sollte es dadurch nicht werden. Mir persönlich schmeckt's auch.
Apropos "mir persönlich": Ich finde meine 9800Pro nicht flimmriger als meine (ungeclampte) FX5900XT, und ein Schärfeunterschied ist mir auch noch nicht aufgefallen.Ich will Dir jetzt wirklich nicht unterstellen, was mit den Augen zu haben...
(würde ich NIE tun wollen ;-)
Aber klar, bei deaktivierten Optimierungen (also auch "Quality" mit AnisoOpts "Off" und Brilinear "On" ;-) ist der Unterschied mehr als deutlich. Auch die extreme Winkelabhängigkeit der Radeons fällt hier doch teils übelst auf. Zwischen den FX'en (und deren Vorgängern bis zur gf3) und den Radeons (egal welche Generation ;-) liegen filter-technisch Welten. Das zu Thema 'Schärfe'... und was das Flimmer-Problem angeht...
Zumindest den Schärfevergleich zwischen den beiden (was ja der eigentliche Grund für mein Einfallen in diesen Thread war ...) kann ich mit Screenshots zeigen, wenn's wirklich sein muss. Was das Flimmern angeht, bist du womöglich einfach sensibler. Ich bin zwar noch nicht völlig erblindet -- LOD-bias=-0.5 erzeugt bei mir bereits mittelschwere Krätze --, aber ich ertrage zB auch den FXschen brilinearen Filter.So ergeht es mir auch...
Hast Du Dir schon mal CMR4 auf der Radeon angeschaut?
Da ist das Flimmern recht deutlich am Fahrbahnrand (also in der Vegetation, der man nicht zu nahe kommen sollte ;-) zu erkennen. Aber auch Uru ist ein Paradebeispiel für's Extrem-Flimmering auf den Redeons.
Das waren jetzt nur 2 Games die mir gerade so einfielen... wenn ich mir Mühe geb', dann könnte ich diese 'Liste' fast endlos fortsetzen.
Ich finde diesen Schalter auch nützlich, wenn dadurch Software-Dummheiten korrigiert werden.
Nutzer meines Dingsbums können iÜ auch den LOD-Bias feststellen, und das schon seit Mai '03 :)"Nützlich"?
"Lebensnotwendig" wäre mein Begriff dafür!
*grmpf*
Und es geht mir nicht um's Feststellen im absoluten Sinne, sondern lediglich um die Verhinderung eines negativen LOD. Oder kann man mit Deinem Tool den LOD nach unten hin quasi 'abscheiden'? Mit dem aTuner geht das auch nicht...
Aha!? Also würdest du zustimmen, wenn ich sage dass bei Geforce 6-Serie ggü den FXen die Filter verschlechtert wurden?Ja, definitiv.
Ungemein sogar...
Besonders die extreme Winkelabhängigkeit stört mich noch jetzt!
Was man nicht alles für Features hin nimmt?
OK, scheller ist dei 6800 auch...
;)
Das ist ja gerade das, was mich so skeptisch macht. Wenn die FXen den Clamp-Knopf nicht (oder nur in Ausnahmespielen) brauchen, um nicht zu flimmern, die 6er ihn aber beinahe überall brauchen ... dann tut der Clamp-Knopf mehr als allgemein angenommen wird.Also unter OpenGL kat dieser Knopf schon mal überhaupt keine Auswirkung. Und auch unter D3D scheinen nur bestimmte Engines von diesem 'Problem' betroffen zu sein...
Keine Ahnung, wo die Ursache dieses Problems zu suchen ist.
Ich 'wünsche' mir auf jeden Fall von der nächsten Generation wieder flimmerfreies und winkelunabhängiges AF in höchster Güte (meinetwegen 'optional' ;-) in erträglicher Performance. Eigentlich war's auf der FX ja schon ideal... warum nur haben's die Seppel bei nVidia nur so verbockt?
Keine Idee. Mich stört da auch nichts, ich bin mit den Treiber-Defaults minus "AI" zufrieden. Du musst wirklich ein Sensibelchen sein (ausdrücklich nicht negativ gemeint).Ja, bin ich wohl...
...allerdings bin ich auch der Meinung, dass es jeder wahr nehmen müsste, wenn er/sie denn darauf achtet.
(Interessanter weise passiert das auch, wenn man die Leute direkt mir der Nase drauf' stößt ;-)
Allerdings bin ich ebenso der Meinung, dass sich die meisten Leutz an ALLES gewöhnen!
:D
Razor
Ähm...
P.S.: sag mal... hab' ich das richtig gelesen?
Du schaltest "AI" beim gamen ab?
Mutig, mutig...
;)
mal ne dumme frage:
wo is dieser schalter? ich find den einfach net :confused:
Adam D.
2005-01-15, 09:54:36
Dass du 67.02 und höher brauchst, ist dir ja bekannt... ;)
Bei "Leistungs- & Qualitätseinstellungen" ein Häckchen bei "Erweiterte Einstellungen anzeigen" machen und dann ganz nach unten scrollen.
ahja, danke
ich benutz den 71.40 und in wenigen minuten den 71.50 ;)
Quasar
2005-01-15, 11:45:14
Mich hats halt gnur gewundert, dass grad im NV Metier - OpenGL - unter COD die alte R3x0 Generation doch so gut abschneidet.
4xAA = Filter-at-Scanout = höherer RAM-Verbrauch.
Dazu noch die "extra-Texturen" von CoD in 32Bit und schon reichen 128MB nicht mehr. :)
Wie gesagt, Situationen lassen sich immer finden, auch, wo bsw. eine FX5800u schneller als eine XTPE ist.
Quasar
2005-01-15, 11:48:23
Bin gespannt, wie Riddick auf ner NV40 aussieht.
Noch schlimmer als Painkiller. ;)
Und genauso scheisse, wie auf meiner M9700 ohne AI.
Wer nichtmal Content designen kann, sollte sich vielleicht Leute anheuern, die sich damit auskennen. Gott sei Dank hab ich das nur aus der Videothek geliehen.
zeckensack
2005-01-15, 12:33:04
Hmmm...
Also selbst ein Unterschied von 0.0 zu +0.1 ist deutlich auszumachen.
Was hat Dich zu dieser Annahme veranlaßt?Das:Wenn die FXen den Clamp-Knopf nicht (oder nur in Ausnahmespielen) brauchen, um nicht zu flimmern, die 6er ihn aber beinahe überall brauchen ...undNegativer LOD-Bias ist garnicht mal ein so weit verbreitetes Problem.a)Der Clamp-Knopf dürfte eigentlich nur dann helfen, wenn er mit einem Spiel konfrontiert wird das tatsächlich einen negativen LOD-Bias einstellt.
MAX(-0.5,0)=0; Differenz durch's Clampen=+0.5
MAX(0,0)=0; Differenz durch's Clampen=0
Ich will Dir jetzt wirklich nicht unterstellen, was mit den Augen zu haben...
(würde ich NIE tun wollen ;-)
Aber klar, bei deaktivierten Optimierungen (also auch "Quality" mit AnisoOpts "Off" und Brilinear "On" ;-) ist der Unterschied mehr als deutlich. Auch die extreme Winkelabhängigkeit der Radeons fällt hier doch teils übelst auf. Zwischen den FX'en (und deren Vorgängern bis zur gf3) und den Radeons (egal welche Generation ;-) liegen filter-technisch Welten. Das zu Thema 'Schärfe'... und was das Flimmer-Problem angeht...Dazu sollte ich wohl dringend erwähnen, dass ich so gut wie nie AF benutze ... :redface:
... und noch schnell nachfragen: existiert das Problem (auf der Geforce 6) auch ohne AF?
Hast Du Dir schon mal CMR4 auf der Radeon angeschaut?
Da ist das Flimmern recht deutlich am Fahrbahnrand (also in der Vegetation, der man nicht zu nahe kommen sollte ;-) zu erkennen. Aber auch Uru ist ein Paradebeispiel für's Extrem-Flimmering auf den Redeons.
Das waren jetzt nur 2 Games die mir gerade so einfielen... wenn ich mir Mühe geb', dann könnte ich diese 'Liste' fast endlos fortsetzen.Noch nicht. Werde dann mal die Demos raussuchen.
Und es geht mir nicht um's Feststellen im absoluten Sinne, sondern lediglich um die Verhinderung eines negativen LOD. Oder kann man mit Deinem Tool den LOD nach unten hin quasi 'abscheiden'? Mit dem aTuner geht das auch nicht...Nö, kann man nicht. Nur den Bias biasen, und optional auf die eigene Vorwahl fixieren (wodurch man dann den LOD-Bias selbst wählen kann, und die Applikationsanforderungen ignoriert werden).
Bild (http://www.zeckensack.de/glide/img/confer.png)
Ist aber IMO auch kaum wichtig. Erzwungene Unschärfe durch positiven LOD-Bias halte ich für fast genauso unsinnig wie negativen LOD-Bias.
Besonders die extreme Winkelabhängigkeit stört mich noch jetzt!Noch ein Indiz, dass wir eigentlich über AF reden. Das ist jetzt natürlich dumm gelaufen :redface:
Winkelabhängigkeit finde ich auch zum Ausrasten.
Also unter OpenGL kat dieser Knopf schon mal überhaupt keine Auswirkung. Und auch unter D3D scheinen nur bestimmte Engines von diesem 'Problem' betroffen zu sein...Bitte genauer. Q3-basierte Spiele (zumindest die, die ich kenn) sind idR recht friedlich, ja. Doom 3 moirét dagegen punktuell recht deutlich (gebumpte Bodengitter zB). Das ist aber wieder keine Frage des LOD-Bias (der nachprüfbar auf 0 steht, siehe image_lod_bias), sondern eher das gefürchtete Shader-Aliasing.
Ich 'wünsche' mir auf jeden Fall von der nächsten Generation wieder flimmerfreies und winkelunabhängiges AF in höchster Güte (meinetwegen 'optional' ;-) in erträglicher Performance. Eigentlich war's auf der FX ja schon ideal... warum nur haben's die Seppel bei nVidia nur so verbockt?Dem schließe ich mich dann mal an.
P.S.: sag mal... hab' ich das richtig gelesen?
Du schaltest "AI" beim gamen ab?Ja, warum auch nicht?
crane
2005-01-15, 18:11:14
Und wenn Du bei ATI "AI" deaktivierst (womit bekanntlich ja noch immer nicht alle Optimierungen von dannen sind ;-), dann sieht's da richtig übel aus.
Hast Du einen Link parat, wo das Thema mal etwas ausführlicher diskutiert wurde ? Hatte mich nämlich auch schon immer interessiert. Es heißt ja so landläufig bei ATI AI=off = alle Opt.off.
Kann ich nämlich auch nicht so unbedingt glauben :D
Grüße
Quasar
2005-01-15, 18:17:36
Das wundert mich jetzt aber auch ein bißchen, denn mit AI werden teilweise auch Cheats deaktiviert, die es lt. ATi nie gegeben hat.
Razor
2005-01-15, 19:32:30
Das:unda)Der Clamp-Knopf dürfte eigentlich nur dann helfen, wenn er mit einem Spiel konfrontiert wird das tatsächlich einen negativen LOD-Bias einstellt.
MAX(-0.5,0)=0; Differenz durch's Clampen=+0.5
MAX(0,0)=0; Differenz durch's Clampen=0Klar.
Deswegen heißt der Parameter ja auch "negative LOD bias" und kann mit 'clamp' (also bei Null 'klammern', in diesem Fall umgangssprachlich 'verhindern') oder 'allow' (eben 'erlauben') eingestellt werden. Bei Spielen (oder Anwendungen), die kein negatives LOD einstellen, hat der Schalter selbstredend keine Auswirkung, bei den anderen... naja.
Was genau also wolltest Du mir jetzt also sagen?
:confused:
Dazu sollte ich wohl dringend erwähnen, dass ich so gut wie nie AF benutze ... :redface:
... und noch schnell nachfragen: existiert das Problem (auf der Geforce 6) auch ohne AF?Ähm... das erklärt allerdings einiges!
Und nein, nur bei aktiven AF unter D3D kommt's ohne 'clamp' zum Flimmern...
(bei besagten Games/Apps ;-)
Noch nicht. Werde dann mal die Demos raussuchen.Herzlichen Dank, wenn Du Dir die Mühe machen würdest...
Allerdings ist die Diskussion eher sinnlos, wenn man kein AF benutzt. Schließlich läßt sich die brilineare Optimierung im Treiber ganz einfach eliminieren.
Nö, kann man nicht. Nur den Bias biasen, und optional auf die eigene Vorwahl fixieren (wodurch man dann den LOD-Bias selbst wählen kann, und die Applikationsanforderungen ignoriert werden).
Bild (http://www.zeckensack.de/glide/img/confer.png)
Ist aber IMO auch kaum wichtig. Erzwungene Unschärfe durch positiven LOD-Bias halte ich für fast genauso unsinnig wie negativen LOD-Bias.Darauf gebe ich Dir meine Hand!
Grausig, dass so etwas in einer Game-Engine steckt.
(noch grausiger allerdings, dass man bei ATI schon fast zum positivem LOD gezwungen wird)
Noch ein Indiz, dass wir eigentlich über AF reden. Das ist jetzt natürlich dumm gelaufen :redface:
Winkelabhängigkeit finde ich auch zum Ausrasten.Ja, schade, dass wir hier 'irgendwie' aneinander vorbei redeten.
Aber für mich ist AF ein Synonym für 'Schärfe' und ich meine mich zu erinnern, dass Du da so etwas erwähntest... vielleicht... egal.
;)
Und 'Winkelabhängigkeit' ist *grrrrrrrrrr*!
Bitte genauer. Q3-basierte Spiele (zumindest die, die ich kenn) sind idR recht friedlich, ja. Doom 3 moirét dagegen punktuell recht deutlich (gebumpte Bodengitter zB). Das ist aber wieder keine Frage des LOD-Bias (der nachprüfbar auf 0 steht, siehe image_lod_bias), sondern eher das gefürchtete Shader-Aliasing.Und wieder 100% d'acor!
Dieses 'nette' Shader-Aliasing kann man fast noch besser bei Riddick beobachten...
[AI=Off]: Ja, warum auch nicht?Weil dadurch je nach App locker 20-40% Leistung flöten gehen?
(teilweise sogar mehr)
Schon mal das "super Game" Murks03 mit AI=off 'gezockt'?
Nett... wirklich nett.
Razor
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.