Relex
2024-11-27, 15:30:04
Ein Thema, das mich schon länger beschäftigt, ist die Frage, warum Nvidia im Treiber die Qualität für die anisotropische Filterung standardmäßig auf "Qualität" anstatt "Hohe Qualität" stellt.
Für mich ist der Qualitätsunterschied in einigen Spielen wie z.B. Witcher 3 sehr offensichtlich.
Aber insbesondere in Verbindung mit Upscaling via DLSS finde ich den Unterschied zwischen Q-AF und HQ-AF teilweise wirklich gravierend.
In 4K mit DLSS Performance sieht man z.B. im Horizon Zero Dawn Remaster stellenweise sehr deutliches Flimmern am Boden oder an Felsen. Das Flimmern wird sehr stark minimiert oder verschwindet fast vollständig, wenn man DLSS Quality nutzt.
Mit HQ-AF ist das aber auch im Performance Modus nahezu vollständig behoben und praktisch genauso flimmerfrei wie mit DLSS Quality + Q-AF.
Zum einen wollte ich mit dem Thread hier also die Info streuen, dass man besonders in Verbindung mit DLSS auf jeden Fall darauf achten sollte, HQ-AF zu nutzen, da es insbesondere höhere Upscaling Faktoren massiv aufwerten kann.
Zum anderen hatte ich die Hoffnung, ob vielleicht irgend jemand technisch begründen kann, warum Nvidia für die Texturfilterung den Modus "Qualität" incl. entsprechender Filteroptimierungen (einhergehend mit reduzierter Qualität) nutzt anstatt "Hohe Qualität".
HQ-AF gibt es mittlerweile im wahrsten Sinne schon seit Jahrzehnten. Ich weiß gar nicht, wann wurde das eingeführt? Mit GeForce 8000? Oder vorher? Es ist lange her...
Der Performanceimpact scheint trotzdem gegeben zu sein. Je nach Spiel kostet es ca 1% performance, oft auch weniger und geht daher meist in der Messungenauigkeit unter. Die Tendenzen dass es zumindest ein wenig performance kostet sind aber definitiv da.
Nimmt Nvidia wirklich wegen ~1% eine geringere Filterqualität besonders in Kombination mit DLSS in Kauf? Warum spart man sich diese Filteroptimierungen nicht einfach komplett?
Hat HQ-AF Auswirkungen auf die Bandbreite bzw. das Speicherinterface? Kann der Algo zur internen Speicherkomprimierung mit HQ-AF weniger effektiv arbeiten, wodurch der effektive Speicherdurchsatz reduziert wird? Kann es in bestimmten Situationen zu Bottlenecks oder schlechteren Frametimes kommen, wohingegen Q-AF deutlich besser performt? Braucht es mehr VRAM oder gibt es andere Probleme?
Ich selbst kenne kein derartiges Szenario, weswegen ich nicht nachvollziehen kann, warum Nvidia Q-AF nutzt und damit indirekt auch die Qualität bei Verwendung von DLSS negativ beeinflusst.
Trotzdem will ich der Überzeugung sein, dass sich jemand beim definieren des Standardwertes irgend was gedacht hat und ich kann mir auch nicht vorstellen, dass sich seitdem bei nvidia noch niemand Gedanken darüber gemacht hat ob die Einstellung weiterhin sinnvoll ist.
Ideen?
Für mich ist der Qualitätsunterschied in einigen Spielen wie z.B. Witcher 3 sehr offensichtlich.
Aber insbesondere in Verbindung mit Upscaling via DLSS finde ich den Unterschied zwischen Q-AF und HQ-AF teilweise wirklich gravierend.
In 4K mit DLSS Performance sieht man z.B. im Horizon Zero Dawn Remaster stellenweise sehr deutliches Flimmern am Boden oder an Felsen. Das Flimmern wird sehr stark minimiert oder verschwindet fast vollständig, wenn man DLSS Quality nutzt.
Mit HQ-AF ist das aber auch im Performance Modus nahezu vollständig behoben und praktisch genauso flimmerfrei wie mit DLSS Quality + Q-AF.
Zum einen wollte ich mit dem Thread hier also die Info streuen, dass man besonders in Verbindung mit DLSS auf jeden Fall darauf achten sollte, HQ-AF zu nutzen, da es insbesondere höhere Upscaling Faktoren massiv aufwerten kann.
Zum anderen hatte ich die Hoffnung, ob vielleicht irgend jemand technisch begründen kann, warum Nvidia für die Texturfilterung den Modus "Qualität" incl. entsprechender Filteroptimierungen (einhergehend mit reduzierter Qualität) nutzt anstatt "Hohe Qualität".
HQ-AF gibt es mittlerweile im wahrsten Sinne schon seit Jahrzehnten. Ich weiß gar nicht, wann wurde das eingeführt? Mit GeForce 8000? Oder vorher? Es ist lange her...
Der Performanceimpact scheint trotzdem gegeben zu sein. Je nach Spiel kostet es ca 1% performance, oft auch weniger und geht daher meist in der Messungenauigkeit unter. Die Tendenzen dass es zumindest ein wenig performance kostet sind aber definitiv da.
Nimmt Nvidia wirklich wegen ~1% eine geringere Filterqualität besonders in Kombination mit DLSS in Kauf? Warum spart man sich diese Filteroptimierungen nicht einfach komplett?
Hat HQ-AF Auswirkungen auf die Bandbreite bzw. das Speicherinterface? Kann der Algo zur internen Speicherkomprimierung mit HQ-AF weniger effektiv arbeiten, wodurch der effektive Speicherdurchsatz reduziert wird? Kann es in bestimmten Situationen zu Bottlenecks oder schlechteren Frametimes kommen, wohingegen Q-AF deutlich besser performt? Braucht es mehr VRAM oder gibt es andere Probleme?
Ich selbst kenne kein derartiges Szenario, weswegen ich nicht nachvollziehen kann, warum Nvidia Q-AF nutzt und damit indirekt auch die Qualität bei Verwendung von DLSS negativ beeinflusst.
Trotzdem will ich der Überzeugung sein, dass sich jemand beim definieren des Standardwertes irgend was gedacht hat und ich kann mir auch nicht vorstellen, dass sich seitdem bei nvidia noch niemand Gedanken darüber gemacht hat ob die Einstellung weiterhin sinnvoll ist.
Ideen?