Archiv verlassen und diese Seite im Standarddesign anzeigen : 640x480 schärfer als 1024x768?
Hallo,
mein Notebook hat eine native Auflösung von 1280x800. Diese ist natürlich am schärfsten.
Aber warum ist bei mir 640x480 schärfer als 800x600? Und 800x600 schärfer als 1024x768?
1024x768 ist fast unbenutzbar verwaschen, 800x600 geht noch (=kann man akzeptieren), aber 640x480 recht scharf.
Müsste 640x480 nicht am unschärfsten sein? Woran liegt das, desto niedriger die Auflösung ist, das es schärfer ist? Ist das normal?
heidewitzka
http://www.tomshardware.com/de/DVI-TDMS-Dual-Link-Stecker-Anschluss,testberichte-1008-5.html
Bei 640×480 werden aus einem Pixel der Szene genau vier Pixel auf dem Bildschirm, darum fällt keine Interpolation auf.
Spasstiger
2009-02-12, 19:53:01
Das liegt einfach nur daran, dass der Text größer und dadurch besser lesbar wird.
Beim Zocken auf meinem 24" LCD empfinde ich das interpolierte Bild umso besser, je höher die Auflösung ist.
Zocken wie in guten Voodoo 1 Zeiten...ist doch toll.
PatkIllA
2009-02-12, 19:57:06
Bei 640×480 werden aus einem Pixel der Szene genau vier Pixel auf dem Bildschirm, darum fällt keine Interpolation auf.Das macht praktisch kein aktueller Schirm. Zum Glück, das sieht nämlich in den meisten Fällen schlecht aus.
Lightning
2009-02-12, 20:16:54
Das liegt einfach nur daran, dass der Text größer und dadurch besser lesbar wird.
Ja. Ich kann mir aber auch vorstellen, dass die Interpolation besser wird, je mehr Pixel dafür zur Verfügung stehen. Wenn man ganz knapp an der nativen Auflösung dran ist sollte es besonders schlimm sein.
Sentionline
2009-02-12, 20:30:03
Aber warum ist bei mir 640x480 schärfer als 800x600? Und 800x600 schärfer als 1024x768?
Keine ist "schärfer". Wenn man im Treiber die Skalierung deaktiviert, dann ist alles "gleich scharf".
http://www.abload.de/thumb/eah4870x2_hiresy3eq.jpg (http://www.abload.de/image.php?img=eah4870x2_hiresy3eq.jpg)
Denn wenn 1 Pixel das erzeugt wird genau 1 Pixel auf dem Schirm entspricht, dann ist alles "scharf".
Stell dir vor das ein 4:3 PAL Video (720x576) auf HD (16:9) Auflösung (1920x1080) hochgerechnet wird. Sieht auch nicht hübsch aus.
@Sentionlone: Das mache ich deshalb auch immer im Catalyst Control Center.
Trotzdem frage ich mich wieso die Interpolation bei niedrigen Auflösungen wesentlich besser ist.
Und in der Konsole kannst du das Bild schlecht zentrieren...
Sentionline
2009-02-12, 21:51:40
Die Titelfrage ist ja, das es auf dem Laptop "schärfer" sein soll, wenn eine geringere Auflösung gewählt wird und Interpolation an ist. Wenn ich ein 800x600 Screen auf 1280x800 Interpolieren lasse, hab ich so ein Bild:
http://www.abload.de/thumb/1280iv7lu.png (http://www.abload.de/image.php?img=1280iv7lu.png)
Wenn ich 1024x768 auf 1280x800 interpoliere:
http://www.abload.de/thumb/1024iv4cq.png (http://www.abload.de/image.php?img=1024iv4cq.png)
Nativ auf 1280x800 schaut es so aus:
http://www.abload.de/thumb/1280p35ko.png (http://www.abload.de/image.php?img=1280p35ko.png)
Ich erkenne bei einer Interpolation nichts an "mehr schärfe"
http://www.abload.de/img/11bg5.png
Das Winterscenario ist mir zu spät aufgefallen. Aber tut ja der Schärfe nix.
Bei mir ist es anders. 1024x768 ist total verwaschen, 800x600 und 640x480 ist akzeptabel.
Vielleicht hat eben jeder Hersteller eine andere Interpolationstechnik und deshalb ist es so verschieden.
RavenTS
2009-02-13, 01:14:12
Muss man hier nicht zwischen Interpolation beim Treiber und vom Display aus selbst unterscheiden.?!
Ich würde vermuten das 640x480 am schärfsten wirkt weil hier horizontal genau jedes Pixel verdoppelt werden kann und es vertikal auch ohne Verdopplung ganz brauchbar wird, weil das Bild ja eh verzerrt wird...
MadManniMan
2009-02-13, 07:30:02
Ich erkenne bei einer Interpolation nichts an "mehr schärfe"
Der TS hat nicht behauptet, dass eine interpolierte Auflösung schärfer sei, als die native, aber eben dass zwischen den jeweils interpolierten noch große Unterschiede bestehen.
Und da muss man leider zu sagen: jede Implementation ist anders, deswegen kann man kein Pauschalurteil fällen.
Es kann aber natürlich wirklich sein, dass der Schleppi die Spalten durch Point Sampling berechnt, auch wenn ich das so noch nicht gesehen habe.
Es wurde bereits gesagt: Je mehr Pixel bei der Interpolation zur Verfügung stehen umso schärfer wird das Bild. Je größer die differenz zwischen zwischen den Auflösungen umso besser das Ergebnis.
Das Verhältnis 640x480 zu 1280x800 ist dabei fast perfekt. Ideal wäre eine Auflösung von 640x400 das lässt sich 2:1 auf 1280x800 skalieren, besser gehts nicht! Und dabei ist sogar fast egal wie aufwendig die Logik ist.
Bei 800x600 als Quelle kommen in der Breite 480 Pixel dazu und in der Höhe 200 Pixel. Da kann man rechnen wie man will, es kommen nur krumme Ergebnisse heraus, das diktiert allein die Logik.
1024x768 ist noch schlechter, das sind 276 Pixel in der Breite und 32 in der Höhe.
Als Faustregel kann man vielleicht sagen: Je einfacher sich die Zahlen im Kopf umrechnen lassen umso besser sieht es aus.
PatkIllA
2009-02-14, 19:22:55
Es wurde bereits gesagt: Je mehr Pixel bei der Interpolation zur Verfügung stehen umso schärfer wird das Bild. Je größer die differenz zwischen zwischen den Auflösungen umso besser das Ergebnis.
Das Verhältnis 640x480 zu 1280x800 ist dabei fast perfekt. Ideal wäre eine Auflösung von 640x400 das lässt sich 2:1 auf 1280x800 skalieren, besser gehts nicht! Und dabei ist sogar fast egal wie aufwendig die Logik ist.
Bei 800x600 als Quelle kommen in der Breite 480 Pixel dazu und in der Höhe 200 Pixel. Da kann man rechnen wie man will, es kommen nur krumme Ergebnisse heraus, das diktiert allein die Logik.
1024x768 ist noch schlechter, das sind 276 Pixel in der Breite und 32 in der Höhe.
Als Faustregel kann man vielleicht sagen: Je einfacher sich die Zahlen im Kopf umrechnen lassen umso besser sieht es aus.Alle besseren Verfahren arbeiten mit Gleitkommazahlen und es ist völlig egal ob der Faktor 1,95 oder genau 2 ist.
Die Interpolation durch das Panel basieren auf einfache "nearest neighbour" oder "bilinear filtering". Wobei Ersteres wirklich nur mit Interpolationen in der Nähe von ganzen Zahlen einigermaßen gut aussieht.
Bei Skalierung durch den Treiber (ATI seit Cat 8.6, Nvidia seit Ewigkeiten) kommen dank "bicubic" oder "lancos" viel bessere Ergebnisse raus. Netterweise fallen diese Algorithmen durch die GPU-Hardware ohne Performance-Verlust ab.
Gastvondrüber
2009-02-15, 12:31:38
Alle besseren Verfahren arbeiten mit Gleitkommazahlen und es ist völlig egal ob der Faktor 1,95 oder genau 2 ist.
Es gibt aber kein Verfahren das beispielsweise 2:3 scharf darstellen kann, wie willst du 2 Pixel auf 3 Pixel strecken ohne das mindestens ein Pixel eine 'falsche' Farbe darstellt?
_DrillSarge]I[
2009-02-15, 12:34:44
Die Interpolation durch das Panel basieren auf einfache "nearest neighbour" oder "bilinear filtering". Wobei Ersteres wirklich nur mit Interpolationen in der Nähe von ganzen Zahlen einigermaßen gut aussieht.
Bei Skalierung durch den Treiber (ATI seit Cat 8.6, Nvidia seit Ewigkeiten) kommen dank "bicubic" oder "lancos" viel bessere Ergebnisse raus. Netterweise fallen diese Algorithmen durch die GPU-Hardware ohne Performance-Verlust ab.
ich nutze die gpu-skalierung immer und nie die monitoreigene. diese sieht immer sscheisse aus, hab ich auch schon auf anderen monitoren bei bekannten gesehen (also nix, der eine machts gut der andere nicht).
zumal man sich dann auch meist sachen wie aa schenken, da es trotzdemm flimmert wie sau, da miese interpolation. wird das bild mittels gpu-skalierung nativ ausgegeben sieht es UM LÄNGEN besser aus.
PatkIllA
2009-02-15, 12:36:41
Es gibt aber kein Verfahren das beispielsweise 2:3 scharf darstellen kann, wie willst du 2 Pixel auf 3 Pixel strecken ohne das mindestens ein Pixel eine 'falsche' Farbe darstellt?
Das kriegst du nur mit PointSampling hin und das sieht bei fast allen Situationen grausig aus und kommt daswegen auch zum Glück praktisch bei keinem Bildschirm mehr zum Einsatz.
PatkIllA
2009-02-15, 12:39:21
I[;7107681']ich nutze die gpu-skalierung immer und nie die monitoreigene. diese sieht immer sscheisse aus, hab ich auch schon auf anderen monitoren bei bekannten gesehen (also nix, der eine machts gut der andere nicht).
zumal man sich dann auch meist sachen wie aa schenken, da es trotzdemm flimmert wie sau, da miese interpolation. wird das bild mittels gpu-skalierung nativ ausgegeben sieht es UM LÄNGEN besser aus.
Mit einem gutem Videoprozessor kann man das auch noch locker schlagen. Bis hin zur kompletten Analyse mit bildabhängigen Nachschrafen ist ja alles drin. Findet man aber eher in hochwertigen TFTs/Plasmas/Beamer und nicht in PC-Bildschirmen.
Sailor Moon
2009-02-15, 12:43:06
ich nutze die gpu-skalierung immer und nie die monitoreigene. diese sieht immer sscheisse aus
Zumindest die nVidia Skalierung ist immer noch eher mäßig (wenngleich deutlich besser als einfaches Pointsampling). Im TV-Bereich wird das eh geschlagen (von dedizierten Lösungen mal ganz abgesehen), aber auch einige Computer-LCDs bekommen das besser hin.
und es ist völlig egal ob der Faktor 1,95 oder genau 2 ist.
So ist es. Leider hat man selten den Vergleich mit gleicher Scaling-Engine. Mit mehrfachem Oversampling arbeiten wir bei besseren Lösungen ohnehin. Selbst der Beschnitt von PAL-SD auf 540 Zeilen (im Rahmen des Overscans) und Skalierung auf ein FullHD Panel bringt bei Realweltmaterial keinen Vorteil.
Gruß
Denis
_DrillSarge]I[
2009-02-15, 12:54:12
Im TV-Bereich wird das eh geschlagen (von dedizierten Lösungen mal ganz abgesehen), aber auch einige Computer-LCDs bekommen das besser hin.
im tv-bereich hat man es auch einfach, man hat ja nur eine handvoll von eingangs- und ausgabeformaten.
ich hab noch kein pc-panel gesehen, was in sachen interpolation auch nur annähernd mit der gpu-eigenen mithalten kann (die quali der nv-gpu-skalierung kenne ich nicht).
Lightning
2009-02-15, 14:37:33
I[;7107726']ich hab noch kein pc-panel gesehen, was in sachen interpolation auch nur annähernd mit der gpu-eigenen mithalten kann (die quali der nv-gpu-skalierung kenne ich nicht).
Ich hatte auch schon schlechte Erfahrungen mit der Skalierung von Nvidia gemacht. Beispiel: Diablo 2, 800*600, auf meinem alten 17" TFT. Der Schärfeverlust war doch sehr deutlich, während die interne Vollbildskalierung (leider dann natürlich mit falschem Seitenverhältnis) ein besseres Ergebnis ablieferte. Kann aber sein, dass sich das in neueren Treiberversionen schon verbessert hat.
Bei meinem jetzigen Monitor sind die Skalierungsoptionen im Nvidia-Treiber leider ausgegraut, sodass ich keinen Direktvergleich machen kann.
hanselore
2009-02-18, 00:41:57
Bei meinem jetzigen Monitor sind die Skalierungsoptionen im Nvidia-Treiber leider ausgegraut, sodass ich keinen Direktvergleich machen kann.Das geht auch nur, wenn der Bildschirm über DVI-D angeschlossen ist.I[]ich nutze die gpu-skalierung immer und nie die monitoreigene. diese sieht immer sscheisse aus, hab ich auch schon auf anderen monitoren bei bekannten gesehen (also nix, der eine machts gut der andere nicht).Doch, so ist es aber. Auch im PC-Bereich gibt es TFT-Displays mit brauchbaren Interpolationsfähigkeiten. Natürlich findet man die eher nicht in Geräten, die für 250 € in 24-Zoll-Ausführung im Blödmarkt stehen. Ein gutes Display sollte auch Einstellungsmöglichkeiten zur Skalierung bieten. Mit einem Gerät, das einfach alles auf Vollbild streckt, würde ich auf Dauer nicht leben wollen.
Wenn die Bildquelle mal kein PC mit Nvidia-Grafikkarte ist, möchte ich dennoch einstellen können, ob das Bild 1:1 oder unter Beibehalten des Seitenverhältnisses skaliert dargestellt werden soll. Aufblasen, dass das gesamte Panel ausgefüllt ist, ist einfach nur widerlich anzusehen. Fehlen diese Einstellungsmöglichkeiten kann man das beste 16:10-Panel in die Tonne hauen, wenn 16:9-Filmmaterial oder gar 4:3 dargestellt werden soll.
_DrillSarge]I[
2009-02-21, 16:02:25
Doch, so ist es aber. Auch im PC-Bereich gibt es TFT-Displays mit brauchbaren Interpolationsfähigkeiten. Natürlich findet man die eher nicht in Geräten, die für 250 € in 24-Zoll-Ausführung im Blödmarkt stehen. Ein gutes Display sollte auch Einstellungsmöglichkeiten zur Skalierung bieten. Mit einem Gerät, das einfach alles auf Vollbild streckt, würde ich auf Dauer nicht leben wollen.
Wenn die Bildquelle mal kein PC mit Nvidia-Grafikkarte ist, möchte ich dennoch einstellen können, ob das Bild 1:1 oder unter Beibehalten des Seitenverhältnisses skaliert dargestellt werden soll. Aufblasen, dass das gesamte Panel ausgefüllt ist, ist einfach nur widerlich anzusehen. Fehlen diese Einstellungsmöglichkeiten kann man das beste 16:10-Panel in die Tonne hauen, wenn 16:9-Filmmaterial oder gar 4:3 dargestellt werden soll.
sicher macht es ein bildschirm besser/mehr option als ein anderer, aber verglichen mit der gpu-skalierung sieht es immer bescheiden aus.
Lightning
2009-02-21, 16:06:01
Das geht auch nur, wenn der Bildschirm über DVI-D angeschlossen ist.
Ist er. Aber das Problem haben wohl auch einige andere Nvidia-Nutzer, zumindest hört man häufiger davon.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.