PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NVIDIA Anisotropic Filtering: Q-AF vs HQ-AF mit DLSS


Relex
2024-11-27, 15:30:04
Ein Thema, das mich schon länger beschäftigt, ist die Frage, warum Nvidia im Treiber die Qualität für die anisotropische Filterung standardmäßig auf "Qualität" anstatt "Hohe Qualität" stellt.

Für mich ist der Qualitätsunterschied in einigen Spielen wie z.B. Witcher 3 sehr offensichtlich.

Aber insbesondere in Verbindung mit Upscaling via DLSS finde ich den Unterschied zwischen Q-AF und HQ-AF teilweise wirklich gravierend.

In 4K mit DLSS Performance sieht man z.B. im Horizon Zero Dawn Remaster stellenweise sehr deutliches Flimmern am Boden oder an Felsen. Das Flimmern wird sehr stark minimiert oder verschwindet fast vollständig, wenn man DLSS Quality nutzt.

Mit HQ-AF ist das aber auch im Performance Modus nahezu vollständig behoben und praktisch genauso flimmerfrei wie mit DLSS Quality + Q-AF.



Zum einen wollte ich mit dem Thread hier also die Info streuen, dass man besonders in Verbindung mit DLSS auf jeden Fall darauf achten sollte, HQ-AF zu nutzen, da es insbesondere höhere Upscaling Faktoren massiv aufwerten kann.

Zum anderen hatte ich die Hoffnung, ob vielleicht irgend jemand technisch begründen kann, warum Nvidia für die Texturfilterung den Modus "Qualität" incl. entsprechender Filteroptimierungen (einhergehend mit reduzierter Qualität) nutzt anstatt "Hohe Qualität".

HQ-AF gibt es mittlerweile im wahrsten Sinne schon seit Jahrzehnten. Ich weiß gar nicht, wann wurde das eingeführt? Mit GeForce 8000? Oder vorher? Es ist lange her...
Der Performanceimpact scheint trotzdem gegeben zu sein. Je nach Spiel kostet es ca 1% performance, oft auch weniger und geht daher meist in der Messungenauigkeit unter. Die Tendenzen dass es zumindest ein wenig performance kostet sind aber definitiv da.

Nimmt Nvidia wirklich wegen ~1% eine geringere Filterqualität besonders in Kombination mit DLSS in Kauf? Warum spart man sich diese Filteroptimierungen nicht einfach komplett?

Hat HQ-AF Auswirkungen auf die Bandbreite bzw. das Speicherinterface? Kann der Algo zur internen Speicherkomprimierung mit HQ-AF weniger effektiv arbeiten, wodurch der effektive Speicherdurchsatz reduziert wird? Kann es in bestimmten Situationen zu Bottlenecks oder schlechteren Frametimes kommen, wohingegen Q-AF deutlich besser performt? Braucht es mehr VRAM oder gibt es andere Probleme?

Ich selbst kenne kein derartiges Szenario, weswegen ich nicht nachvollziehen kann, warum Nvidia Q-AF nutzt und damit indirekt auch die Qualität bei Verwendung von DLSS negativ beeinflusst.

Trotzdem will ich der Überzeugung sein, dass sich jemand beim definieren des Standardwertes irgend was gedacht hat und ich kann mir auch nicht vorstellen, dass sich seitdem bei nvidia noch niemand Gedanken darüber gemacht hat ob die Einstellung weiterhin sinnvoll ist.


Ideen?

Tesseract
2024-11-27, 15:39:38
ich stelle für retro-gaming sowieso seit jeher immer auf HQ aber ich dachte der regler macht ab DX10 nichts mehr und ist immer HQ?

Exxtreme
2024-11-27, 15:47:41
Also Final Fantasy 14 Online ist DirectX 11 und das Ding macht definitiv was.

Relex
2024-11-27, 15:51:22
Die Anti-Aliasing Settings funktionieren ab DX10 (oder wars nicht doch DX11?) nicht mehr, weil dann die Anwendung die Kontrolle über das AA bekommt. Das betrifft also nur AA und nicht AF.

Texturfilterung, sowohl das erzwingen von 16x AF, als auch die Filterqualität funktioniert aber idr. auch mit DX12 weiterhin.

Wobei ich beim erzwingen von 16x AF immer vorsichtig wäre. Das kann Flimmern erzeugen.

Aber darum gings mir hier auch nicht. Es geht mir rein um die Qualitätseinstellungen bzw. Filteroptimierungen zwischen Q-AF und HQ-AF. Warum ist Q-AF der Standard und nicht HQ-AF.
Bei jeder anderen Einstellung im Control Panel kann ich nachvollziehen, warum der Standardwert eben der Standardwert ist. Nur bei Q-AF verstehe ich es nicht.

Gast
2024-11-27, 20:43:14
Keine Ahnung, und ehrlich gesagt ist es mir auch egal, das ist das erste Setting was ich seit gefühlten 20 Jahren nach der Treiberinstallation Checke und gegebenenfalls auf HQ stelle.

tEd
2024-11-27, 21:48:55
Das kommt noch von alten Zeiten als man mit AF noch Benchmarks gewinnen resp verlieren konnte.

aufkrawall
2024-11-28, 02:41:50
ich stelle für retro-gaming sowieso seit jeher immer auf HQ aber ich dachte der regler macht ab DX10 nichts mehr und ist immer HQ?
Leider nicht, mit Q gibts ohne negatives Mip Bias schon Flimmerbänder und mit negativem Mip Bias zusätzlich zu starkes Geflimmer in der Fläche.
Letzteres ist mit Vulkan sogar auch mit HQ der Fall, hatte die schon vor Jahren damit genervt:
https://forums.developer.nvidia.com/t/bad-texture-filtering-quality-with-negative-lod-bias-on-vulkan/195807

Aber so ist der Laden halt...

The_Invisible
2024-11-28, 10:19:48
Keine Ahnung, und ehrlich gesagt ist es mir auch egal, das ist das erste Setting was ich seit gefühlten 20 Jahren nach der Treiberinstallation Checke und gegebenenfalls auf HQ stelle.

Hier auch so, Gewohnheitssache :freak:

Frage ist eher ob das noch Performance kostet?!? Und ist das bei AMD auch noch so eingestellt?

Relex
2024-11-28, 10:46:31
Na ja, performance ist das eine, die Frage ist ja leicht zu beantworten.

Die eigentliche Frage bezieht sich auf Frametimes oder Grenzsituationen (VRAM mangel, evtl. auch CPU Limit) oder auch Levelstreaming.

Auf youtube gibt's sogar einige Videos die zeigen, dass im Treiber die Texturqualität auf performance zu stellen ruckler erzeugen kann.


Das sind halt alles so Sachen, wo ich merke, dass einfach kein Mensch wirklich weiß, was der Nvidia Treiber da eigentlich macht und wozu es (vielleicht auch heute noch) wirklich gut ist. (Ja, filter optimieren und samples sparen, schon klar, aber kostet es CPU Zeit, warum wird es heute noch gemacht, etc)


Ich kann mir schon denken, dass hier kaum jemand ne Antwort (abseits von "machs einfach an, kostet eh nix") hat, aber versuchen will ich es trotzdem.


Interessant wird, was Nvidia beim Umzug auf die neue Nvidia App macht.
Denn spätestens dann müssen sie sich ja ganz offensichtlich über die Sinnhaftigkeit dieser Option gedanken machen. Denn eine Umfrage dazu, welche Optionen sich die Nutzer wünschen, haben sie ja schon erstellt. Sie wollen unwichtige oder ungenutzte Optionen loswerden.

Falls die Texturfilterqualität aber in die neue App übernommen wird und sie standardmäßig immernoch auf Qualität anstatt Hohe Qualität steht, dann MUSS es irgend nen sinnvollen Grund dafür geben.

aufkrawall
2024-11-28, 10:59:57
Wird ihnen schlicht völlig egal sein. Bei AMD ist seit Vega inkls. APUs die Texturfilterung standardmäßig sauber, was soll man dazu noch sagen...

Gast
2024-11-28, 11:26:09
Frage ist eher ob das noch Performance kostet?!?


Vernachlässigbar.


Und ist das bei AMD auch noch so eingestellt?

Wenn ich mich recht erinnere ist auch bei AMD nicht die höchste Qualität default. Ich müsste dafür aber wieder mal eine Cleane Treiberneuinstallation machen, weil mittlerweile stellen ja beide nicht mehr veränderte Settings bei der Neuinstallation zurück.
Wobei man bei AMD auch noch aufpassen muss, dass man die Tesselation aufdrehen muss, damit sie wie vom Entwickler gewollt funktioniert, Default wird die nämlich auch limitiert.

Relex
2024-11-28, 11:50:43
@aufkrawall
ok, zwei Fragen dazu:

Entspricht die Standardeinstellung bei AMD dann qualitativ dem Nvidia HQ-AF (oder besser)?

Kann man die Qualität bei AMD überhaupt noch einstellen?

aufkrawall
2024-11-28, 12:15:31
Bei AMD ist standardmäßig auch nur Q eingestellt, aber das sieht quasi vergleichbar aus zu Nvidia-HQ (inkls. sauberem negativen Mip Bias).
Die Option hat bei AMD auch für DX12 keinen Effekt mehr, läuft mit ausgewähltem HQ nicht 1% langsamer als Q (bei älteren APIs gibts noch einen feststellbaren, wenn auch eher geringfügigen Performance-Unterschied).

Gast
2024-11-30, 12:43:44
Bei AMD ist standardmäßig auch nur Q eingestellt, aber das sieht quasi vergleichbar aus zu Nvidia-HQ (inkls. sauberem negativen Mip Bias).

Sieht es unter DX11 und drunter mit HQ eingestellt noch besser/sauberer aus als mit Q? Kostet es Performance?
Dann hätte AMD ja die beste Filterungsqualität bei alten APIs und unter Vulkan/OpenGL auch noch, wo es die AI-RTX-FrameGen-Bude nvidia komplett versaubeutelt.

aufkrawall
2024-11-30, 17:33:17
Ich sehe mit Radeon und der ground2-Textur im Filter Tester subjektiv keinen Unterschied zwischen Q und HQ D3D10 und Vulkan (DXVK), sieht sowohl mit Mip Bias 0 und -1.5 mit TMUs quasi genauso aus wie mit Referenz-ALU.
Wobei mittlerweile Vulkan unter Windows quasi tot ist. Nicht schön, aber das ist eine angenehme Begleiterscheinung dessen. :freak: