Archiv verlassen und diese Seite im Standarddesign anzeigen : qualität/hohe qualität - unterschied?
k0nan
2005-10-07, 19:36:45
servus,
im nvidia treiber menü (rechtsklick aufm desktop - einstellungen - usw usf) kann man ja in einem menü den balken von leistung bis hohe qualität schieben. gibt es da einen unterschied zwischen qualität und hohe qualität hinsichtlich der darstellung und den FPS ??
gruss
Arschhulio
2005-10-07, 21:30:30
Das hat was mit der Filterung zu tun, HQ macht ein besseres bild als nur qualität,
bei qualität werden noch optimierungen dazu geschaltet die es bei HQ nicht gibt bzw aktiviert werden.
HQ kostet mehr performance.
Aber das können die die Jungs warscheinlich besser erklären :biggrin:
Also, das konnte damals nichtmal das 3D Center Team restlos aufklären:
Auszüge aus einem Artikel vom 6. September 2004:
Interessant ist, daß die Performance-Auswirkungen auf GeForceFX und GeForce6 völlig unterschiedlich sind: Während bei der GeForceFX noch die "Trilineare Optimierung" am meisten bringt und die "Anisotrope Sample Optimierung" nahezu bedeutungslos erscheint, ist letztere auf der GeForce6 für den größten Performance-Sprung verantwortlich. Dies dürfte wohl auch der Grund dafür sein, daß diese neue Optimierung in den aktuellen inoffiziellen Treibern per default aktiv ist.
Es geht allerdings noch etwas höher als nur das Aus/Aus/Aus-Setting: Denn setzt man im Treiber die Einstellung "Systemleistung" vom default-Zustand "Qualität" auf "Hohe Qualität", so wird zum einen das Aus/Aus/Aus-Setting bei den drei vorgenannten Optimierungen aktiviert, dennoch ergibt die Performance-Messung einen Unterschied: 60,4 fps für die GeForceFX 5950 Ultra und 105,8 fps für die GeForce 6800GT sind deutlich weniger als beim default-Zustand "Qualität" zuzüglich des Aus/Aus/Aus-Settings (für die GeForce4 Ti steht diese Option nicht zur Verfügung):
Die "Hohe Qualität" scheint also abseits dieser drei Optimierungen noch etwas anderes zu bewirken. Was genau für den Unterschied verantwortlich ist, ließ sich mit Screenshots der üblichen Texturenfilter-Testprogramme nicht erklären, die erzeugten Bilder sind identisch zum Setting "Qualität". Auch die nVidia-Unterlagen schweigen sich zu diesem Punkt aus, sondern geben nur den Hinweis, daß die "Hohe Qualität" nicht für den Alltagsgebrauch empfohlen wird sowie nicht zum Benchmarken eingesetzt werden sollte ;-).
High Quality ist der einzig brauchbare Modus auf NV40 und G70. Beim Rest flimmert das AF und macht es absolut unbrauchbar.
Stimmt, das trifft wohl auf heutige Treiber zu. Damals sah es aber wirklich (insbesondere auf der GeForceFX) noch gleich aus :nono: ->und dennoch haben die Jungs einen Performanceunterschied festgestellt...
Mr. Lolman
2005-10-08, 09:54:40
Stimmt, das trifft wohl auf heutige Treiber zu. Damals sah es aber wirklich (insbesondere auf der GeForceFX) noch gleich aus :nono: ->und dennoch haben die Jungs einen Performanceunterschied festgestellt...
Dann sah es sicher nicht gleich aus. Außerdem hat das 3DC auch beim NV40 keinen Unterschied zw. Q und HQ erkennen können....
Razor
2005-10-08, 11:16:04
High Quality ist der einzig brauchbare Modus auf NV40 und G70. Beim Rest flimmert das AF und macht es absolut unbrauchbar.Falsch.
Zumindest was den NV40 angeht...
Die beiden Anisotropie-Optimierungen sollte man im "Q"uality-Modus natürlich unbedingt abschalten und die Trilinear-Optimierung kann man aktiviert lassen, wenn einen die weniger 'weichen' Mipmap-Übergänge im Vergleich zu den 'echten' trilinearen Übergängen nicht stören (Stickwirt "brilinearer" Filter / copyright@aths ;-).
Allerdings sollte man unbedingt (!) den Clamp-Schalter aktivieren, der verhindert, dass negatives LOD (level-of-detail) von der Applikation verlangt werden kann (LOD bleibt in diesem Fall bei '0'). Negatives LOD flimmert tatsächlich grauenvoll... schlimmer noch, als bei früheren Generationen bis NV3x.
Ich warte jetzt eigentlich nur noch auf die Möglichkeit, die Winkelabhängigkeit des anisotropen Filters abschalten und damit einen Zustand herstellen zu können, wie er noch beim NV3x vorzufinden war... ganz egal, wieviel Performance das kostet.
Razor
P.S.: die beste Bildqualität bekommt man selbstredend mit "H"igh"Q"uality... muss bei NV40+ aber derzeit trotzdem mit der Winkelabhängigkeit leben, die ATI seinerzeit "einführte".
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.