Archiv verlassen und diese Seite im Standarddesign anzeigen : Bildqualität im 2D-Betrieb durch Treiber verbesserbar?
Riptor
2003-09-25, 14:30:31
Folgende Frage: Kann es sein, dass durch einen neuen Treiber, sie es jetzt für nVidia, ATI oder sonst wem die 2D Bildqualität verbessert werden kann? Ist dies überhaupt möglich?
ich ging immer wieder davon aus, dass das Bild, was die Grafikkarte an den Monitor sendet nicht wirklich von einem Treiber "verbessert" werden kann, was z.B. die Schärfe angeht! Aber immer wieder hört man: "Installier den und den Treiber und du hast ein merklich schärferes Bild unter Windows..." Bis jetzt habe ich solche "Verbesserungen" NIE gesehen und ich bezweifle auch, dass dies technisch per Software möglich ist! Ich lasse mich aber GERN eines besseren belehren und bitte deshalb um Aufschluß, was es mit diesem Phänomen auf sich hat! :)
Die Signalgüte der Graka wird doch die verwendeteten Bauelemente bestimmt. Und kann nicht durch Treiber verbessert werden.
Ein schlechter RAM-DAC wird doch Treiberkünste nicht besser.
Vielleicht spielen die Treiberprogrammierer ein wenig an Kontrast- und Farbwerten rum, so dass das Bild besser wirkt.
Riptor
2003-09-25, 15:21:03
Exakt so hatte ich mir das auch gedacht. 2D-Qualität ist also wirklich nur von den verbauten Komponenten abhängig, kann man also so sagen, oder? Sonst wärs das, danke!
StefanV
2003-09-25, 15:22:32
naja, das einzige, was theoretisch sein könnte, wäre, daß der Treiber das Bild unschärfer macht, in dem es etwas ferwischt...
Bei TFTs mag das recht sinnig sein, bei CRTs ists kontraporuktivt...
"Digital Vibrance Control" haben wohl die meisten von uns schon einmal in den Einstellungen des Detonators gelesen. AFAIK erhöht dieser Schieber nur die Farbsättigung, dennoch bin ich vom Resultat immer wieder angenehm überrascht.
Riptor
2003-09-25, 15:38:45
Also ist dies quasi kein echtes verbesserun, da man dies anscheinend mit einem älteren Treiber auch mache könnte, oder?
Es kommt ganz darauf an, wie du "Verbesserung" definierst. Für mich wirkt das Bild damit schöner/angenehmer, also empfinde ich es durchaus als Verbesserung. DVC ist sicher nicht der Stein der Weisen, aber viel mehr ist auf Software-Ebene IMO einfach nicht drin.
Riptor
2003-09-25, 15:56:40
Ja, ok, das ist klar, ich dachte da an "ein schärferes Bild"... Was immer das auch heißen mag, aber es sollen teilweise "unglaubliche Unterschiede" vorhanden sein, dass kann ich jedoch kaum glauben. ;) Vor allem nicht beim gleichen Monitor!
Natürlich kann man die 2D-Qualität verbessern :
http://www.xgitech.com/products/Coloramp.pdf
;D ::droll::
Original geschrieben von Gast
http://www.xgitech.com/products/Coloramp.pdf
XGI ist auch nicht einfallsreicher, die "ColorAmp Engine" erhöht genauso einfach die Farbsättigung (ist also mit DVC von nVidia vergleichbar). Besonders lustig ist dieser Absatz aus dem PDF:
"Figure 1 shows a screen snapshot from a scenery photo. The captured image looks washout
since colors in this photo are not saturate enough. In contrast, Figure 2 shows a screen
snapshot of the same scene but was applied the Volari’s ColorAmpTM Engine to improve its color
saturation. The result shows that the saturation-adjusted version looks better than the unadjusted
one."
Omnicron
2003-09-25, 17:53:55
Original geschrieben von Riptor
Ja, ok, das ist klar, ich dachte da an "ein schärferes Bild"... Was immer das auch heißen mag, aber es sollen teilweise "unglaubliche Unterschiede" vorhanden sein, dass kann ich jedoch kaum glauben. ;) Vor allem nicht beim gleichen Monitor!
Joah, es gibt im Deto eine "Image Sharpening" Funktion, die in etwa die Auswirkungen wie das Sharpening von Photoshop hat.
http://home.graffiti.net/battlefield/0img.jpg
http://home.graffiti.net/battlefield/50img.jpg
http://home.graffiti.net/battlefield/100img.jpg
(habs jetzt mit Irfanview simuliert, da sich davon kein Screenshot machen lässt, aber sieht fast genauso aus)
Ist aber ziemlich praktisch um das Bild auf einem Fernseher besser zu kriegen. :)
Riptor
2003-09-25, 20:44:17
Ok, das genügt mir! :)
Als die erste Geforce herauskam, meckerten viele über die 2D-Qualität. Die Darstellung war manchmal richtig verschmiert, Text war völlig unlesbar.
In den Geforce-FAQ wurde darüber spekuliert, dass dieses Problem mit einem neuen Treiber behoben werden sollte. Natürlich kam nie so ein Treiber...
Winter[Raven]
2003-09-26, 01:18:02
Riptor hat sicherlich dieses Thema angefangen nach meiner Äußerung im Nvidia forum zu dem Detonator 51.75.
Ist halt so, ich habe entweder den 45.23 oder 45.33 benützt und das bild wirkte bei mir etwas verwaschen @ 1280x1024 @ 90/89hz.
An dem Tag wo die Beta des 51.75 rauskam und ich ihn installiert habe bemerkte ich das dieses verwaschen sein weg war, bei selben Monitoreinstellungen wie auch bei den 45.23 und 45.33.
Die Image Sharpening oder Digital Vibrance Control habe ich NICHT benützt !
Ailuros
2003-09-26, 05:05:31
Joah, es gibt im Deto eine "Image Sharpening" Funktion, die in etwa die Auswirkungen wie das Sharpening von Photoshop hat.
Wenn das Resultat aehnlich dem in den Screenshots ist dann ist es nur fuer extreme Falle wo so ein Effekt auch wirklich notwendig ist. Das aliasing in den pics der Treiber ist ja abscheulich.
Digital Vibrance Control ändert nur ein wenig an der Farbsättigung. Ändert sich z.B. der Rotfarbanteil bei zwei benachtbarten Pixeln von 126 auf 127, kriegt je nach Einstellung der eine Pixel den Farbwert 128. Und die Änderung von 2Farbabstufungen statt einer sieht teilweise subjektiv besser aus.
Eventuell können irgendwelche Grakabioseinstellungen den Spannungsoutput des RAM-DACs erhöhen, damit z.B. die standardmäßigen 0.7Volt erreicht werden.
Das Bild wird dann auf dem Monitor nur heller aber nicht besser. Da der Rausschpegel mit erhöht wird und so das SNR konstant bleibt.
Aber ein Treiberupdate wird nie aus einem schwammigen Bild ein klares Bild zaubern
TheRealTentacle
2003-09-27, 16:23:04
So a schmarrn.
Es bringt doch nichts schwarze Linien durch "schärfen" quasi mit weißen zu umranden.
Mein alter 15'' Monitor zeigt trotzdem nur unleserliches Zeugs, da die Qualität immer vom schlechtesten Glied der Kette abhängt. Ist ja mit Lautsprechern ähnlich.
Mrs. Lolman
2003-09-27, 17:02:20
Original geschrieben von TheRealTentacle
So a schmarrn.
Es bringt doch nichts schwarze Linien durch "schärfen" quasi mit weißen zu umranden.
Mein alter 15'' Monitor zeigt trotzdem nur unleserliches Zeugs, da die Qualität immer vom schlechtesten Glied der Kette abhängt. Ist ja mit Lautsprechern ähnlich.
Naja, aber wenn das schwächste Glied in der Kette die GraKa ist, kann da mit einem neuem Treiber durchaus etaws optmiert werden, schätz ich mal...
Mr. Lolman
2003-09-27, 17:03:01
Hoppla, falscher Account :weg:
TheRealTentacle
2003-09-27, 19:43:49
Denke ich nicht. Denn der Ramdac ist auch ein Teil von vielen, und hat mit der eigendlichen digitalen Bilderstellung nichts zu tun. Somit kann man IMO mit Verbesserungen im digitalen Bereich keine analogen Schwachstellen ausgleichen (höchstens vertuschen).
Nur weil beide auf einem Board sind, verbessern sie sich nicht gegenseitig. (Ähnlich Füllrate/Bandbreite)
/edit: Hey Lolgirl ;D
Original geschrieben von Ailuros
Wenn das Resultat aehnlich dem in den Screenshots ist dann ist es nur fuer extreme Falle wo so ein Effekt auch wirklich notwendig ist. Das aliasing in den pics der Treiber ist ja abscheulich.
Dachte ich auch gerade. Aber wenns bei der Darstellung auf Fernsehern hilft...
Ailuros
2003-09-28, 03:48:17
Original geschrieben von Xmas
Dachte ich auch gerade. Aber wenns bei der Darstellung auf Fernsehern hilft...
4 oder 5 meiner letzten VGAs hatten alle zufaelligerweise TV-out. Bis jetzt hab ich noch bei keiner das TV-out ausprobiert.
a) Ich bin zu faul dazu.
b) DVDs schaue ich mir viel lieber auf dem DVD player/TV an.
mapel110
2003-09-28, 04:10:26
Original geschrieben von Ailuros
4 oder 5 meiner letzten VGAs hatten alle zufaelligerweise TV-out. Bis jetzt hab ich noch bei keiner das TV-out ausprobiert.
a) Ich bin zu faul dazu.
b) DVDs schaue ich mir viel lieber auf dem DVD player/TV an.
c) Der Monitor ist nur unwesentlich kleiner als das TV-Gerät. :D
Ailuros
2003-09-28, 05:30:42
Errrr eher nicht:
36" FD Trinitron® WEGA® TV
KV-36FV310
del_4901
2003-09-28, 08:52:01
ja, aber den Beamer kriegt eh direkt über DVI ran ;)
Riptor
2003-09-29, 02:23:07
So, dann ist Winter[Raven] wohl der einzigste, der von diesen 2D-Qualität-Verbesserungen berichten kann, was Schärfe und Bild angeht, oder gibts noch jemanden anderes, der den gleichen Effekt erzielt hat? Ich kanns jedenfalls mit ner FX5200, ner GF3Ti200 und ner GF4Ti4200 nicht nachbilden... :(
del_4901
2003-09-29, 02:45:06
man kann den VGA Post Filter wechbröseln. Dann entspricht die Karte nicht mehr EU-Richtlinien, hat aber ein schärferes Bild.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.