Archiv verlassen und diese Seite im Standarddesign anzeigen : Bildschirmauflösung/Größe?
tribbs
2008-12-05, 18:44:11
Hallo
Weiß jemand wie groß die Bildschirmauflösung bei einer NVIDIA GeForce 8800 GTS (640MB) sein darf, bevor sie bei Video/Games schlapp macht ?
Also, welche Grösse kann der Bildschirm noch haben (22 oder 24 Zoll) ?
Danke für eine Antwort !
tribbs
das hängt vom spiel und natürlich auch von den dort eingestellten details ab.
achja, die auflösung kann man natürlich auch bei einem großen monitor verringern, und das ist weit weniger schlimm als einem immer weißgemacht wird.
kruemelmonster
2008-12-05, 19:50:58
@tribbs
Nehmen wir an du hast bisher einen 19 Zoller mit 1280x1024, das macht ~ 1,31 MP. Würdest du nun den Breitbildschirm mit der gleichen Auflösung betreiben, hättest du entweder ein verzerrtes Vollbild oder ein korrektes Seitenverhältnis mit schwarzen Balken am seitlichen Rand. Stellst du stattdessen die Auflösung auf 1440x900 um, bekommst du Vollbild im richtigen Seitenverhältnis und hast minimal an fps gewonnen da 1440x900= ~1,29.
In der nativen Auflösungen des 24" (2,3 MP) kannst du die Karte im Prinzip in allen aktuellen Spielen vergessen. Mit einer leistungsmäßig fast-auf-GTX-Niveau getakteten GTS 640 konnte ich bis vor kurzem noch Crysis in 1280x800 DX9 High Quality zocken, bei GRID wars noch 1440x900 2xAA und ein bunter Mix im Grafikoptionsmenü.
dargo
2008-12-05, 20:28:53
Hallo
Weiß jemand wie groß die Bildschirmauflösung bei einer NVIDIA GeForce 8800 GTS (640MB) sein darf, bevor sie bei Video/Games schlapp macht ?
So etwas lässt sich nicht pauschalisieren. Es spielen zu viele Faktoren eine Rolle.
man macht doch nicht die bildschirmauswahl von der karte abhängig.
den bildschirm hat man dann ja wahrscheinlich wieder ein halbes jahrzehnt, die grafikkarte tauscht man da schon öfters und wenn die leistung mal nicht reicht muss man eben details oder auflösung verringern, so schlimm ist das nun auch wieder nicht.
Sonyfreak
2008-12-05, 22:02:25
man macht doch nicht die bildschirmauswahl von der karte abhängig.
den bildschirm hat man dann ja wahrscheinlich wieder ein halbes jahrzehnt, die grafikkarte tauscht man da schon öfters und wenn die leistung mal nicht reicht muss man eben details oder auflösung verringern, so schlimm ist das nun auch wieder nicht.Aber man kann den Bildschirm an den angepeilten Preisbereich der Grafikkarte anpassen. Da ich nicht noch mehr/öfter Geld für ne neue Karte ausgeben will, bleibe ich bei meinem 22-Zöller.
mfg.
Sonyfreak
dargo
2008-12-05, 22:17:02
Aber man kann den Bildschirm an den angepeilten Preisbereich der Grafikkarte anpassen. Da ich nicht noch mehr/öfter Geld für ne neue Karte ausgeben will, bleibe ich bei meinem 22-Zöller.
Eben. Ich habe mich immer köstlich amüsiert als ich mir die GTX 260 für meinen 22 Zöller zugelegt habe. Da hieß es auch das wäre völliger Overkill. Völliger Unsinn sowas. Wenn man die Grafikkarte länger behalten will sollte man es mit der Bildschirmdiagonale nicht übertreiben.
Wenn man die Grafikkarte länger behalten will sollte man es mit der Bildschirmdiagonale nicht übertreiben.
und was hast du davon, außer dem gesparten geld?
wenn alles andere als die native auflösung wirklich so ein rotes tuch ist (was imo nicht sein sollte, upscaling ist nichts schlechtes, im gegenteil es gehen keinerlei informationen verloren), kannst du immer noch eine geringere auflösung 1:1 spielen und hast dann mehr oder weniger das gleiche bild als bei einem kleineren monitor. trotzdem kannst du in den fällen wo die leistung reicht, wie beispielsweise bei genügsameren spielen, bei der desktopdarstellung oder aber bei videowiedergabe das größere bild genießen.
dargo
2008-12-05, 22:49:57
wenn alles andere als die native auflösung wirklich so ein rotes tuch ist (was imo nicht sein sollte, upscaling ist nichts schlechtes, im gegenteil es gehen keinerlei informationen verloren), kannst du immer noch eine geringere auflösung 1:1 spielen und hast dann mehr oder weniger das gleiche bild als bei einem kleineren monitor. trotzdem kannst du in den fällen wo die leistung reicht, wie beispielsweise bei genügsameren spielen, bei der desktopdarstellung oder aber bei videowiedergabe das größere bild genießen.
Das ist eben das Problem der TFTs. Ich habe einen 22" TFT der zwar 1440x900 hochskaliert noch relativ gut beherrscht, der Schärfeverlust ist aber zur nativen 1680x1050 nicht zu übersehen. Wenn ich in Geldnot wäre würde ich mich wahrscheinlich auch damit zufrieden geben (geben müssen). Die einzige Alternative für mich ist 1680x945 (16:9) nativ, sprich oben und unten schwarze Streifen. Damit gewinnt man zwar nicht viel Luft, für Crysis fand ich aber diese Lösung sehr gut. Wenn ich in 1680x945 nicht mehr spielen kann ist einfach eine neue Graka fällig.
Natürlich könnte ich auch nativ in 1440x900 oder sogar 1280x800 spielen. Das Bild ist aber dermaßen klein, dass es keinen Spaß mehr macht wenn man sich erstmal an 22" gewöhnt hat.
Das ist eben das Problem der TFTs. Ich habe einen 22" TFT der zwar 1440x900 hochskaliert noch relativ gut beherrscht, der Schärfeverlust ist aber zur nativen 1680x1050 nicht zu übersehen.
der schärfeverlust ist aber auch bei einem kleineren gerät der die besagte auflösung nativ beherrscht gegeben.
niedrigere auflösung heißt weniger informationen und damit weniger schärfe und zwar immer. mit einem kleineren monitor bzw. einer geringeren nativen auflösung hat man den nachteil die informationen einer höheren auflösung garnicht darstellen zu können, mit einer höheren nativen auflösung könnte man sie wenigstens darstellen, wenn es die leistung erlaubt und muss sich nur mit der niedrigeren auflösung zufriedengeben wenn die leistung eben mal nicht reicht.
ein hochskaliertes bild wird nicht schlechter als eines welches nativ mit einer geringeren auflösung dargestellt wird.
wenn du beispielsweise 2 gleich große monitore hast, einer 1680x1050 und der andere 1920x1200 als native auflösung würdest du keinen großen unterschied wahrnehmen wenn beide das gleiche bild in 1680x1050 darstellen. beim einen monitor hast du aber immerhin die option in 1920x1200 das gleiche bild besser darzustellen, wärend beim anderen die fahnenstange bereits erreicht ist.
dargo
2008-12-05, 23:31:04
der schärfeverlust ist aber auch bei einem kleineren gerät der die besagte auflösung nativ beherrscht gegeben.
niedrigere auflösung heißt weniger informationen und damit weniger schärfe und zwar immer. mit einem kleineren monitor bzw. einer geringeren nativen auflösung hat man den nachteil die informationen einer höheren auflösung garnicht darstellen zu können, mit einer höheren nativen auflösung könnte man sie wenigstens darstellen, wenn es die leistung erlaubt und muss sich nur mit der niedrigeren auflösung zufriedengeben wenn die leistung eben mal nicht reicht.
ein hochskaliertes bild wird nicht schlechter als eines welches nativ mit einer geringeren auflösung dargestellt wird.
wenn du beispielsweise 2 gleich große monitore hast, einer 1680x1050 und der andere 1920x1200 als native auflösung würdest du keinen großen unterschied wahrnehmen wenn beide das gleiche bild in 1680x1050 darstellen. beim einen monitor hast du aber immerhin die option in 1920x1200 das gleiche bild besser darzustellen, wärend beim anderen die fahnenstange bereits erreicht ist.
Sorry, aber das ist totaler Humbug. X-D
Luke007
2008-12-06, 01:14:45
welche Grösse kann der Bildschirm noch haben (22 oder 24 Zoll) ?
Man sollte auch die Auflösung beachten. Es gibt z.B. 22 Zoll TFTs mit einer maximalen Auflösung von 1920x1080 (FullHD) oder 1680x1050.
Ich selbst habe einen 21.5" FullHD TFT von ViewSonic und finde die Interpolation auch bei niedrigeren Auflösungen gut.
DerRob
2008-12-06, 01:30:19
ein hochskaliertes bild wird nicht schlechter als eines welches nativ mit einer geringeren auflösung dargestellt wird.
das kommt aber stark auf den bildinhalt drauf an. bei einem foto mag das kaum auffallen, bei feinen linien oder schrift ist jedoch ein erheblicher unterschied zu erkennen. besonders scharfe kanten fransen da schnell aus, oder werden unscharf.
Sorry, aber das ist totaler Humbug. X-D
ist es nicht, nicht die skalierung macht das bild schlechter sondern die geringer auflösung.
das kommt aber stark auf den bildinhalt drauf an. bei einem foto mag das kaum auffallen, bei feinen linien oder schrift ist jedoch ein erheblicher unterschied zu erkennen. besonders scharfe kanten fransen da schnell aus, oder werden unscharf.
ist klar, gerade für pixelbreite strukturen ist interpolation natürlich nicht gerade optimal. bei bildern, videos oder spielen tut sie allerdings nicht weh.
wobei mich hier einige der neuen TFTs auch positiv überrascht haben, die sehen selbst bei schrift nicht unschärfer aus als ein CRT.
generell ist es sinnvoll einen monitor mit möglichst hoher pixeldichte zu kaufen, je höher die auflösung und damit je kleiner die pixel sind, desto weniger kann die interpolation stören.
ThirdEye
2008-12-10, 06:08:59
wozu braucht man eigentlich die monitor interpolation, wenn der grafiktreiber das ja auch kann? also der grafiktreiber skaliert das bild auf die passende größe in 1:1 oder eben ins gewollte format, in einer gewünschten auflösung, hab ich das richtig verstanden? ich mache das auch über den monitor und nicht über den treiber, weil ich zuerst dachte, der treiber wäre nur dafür da, auflösungen von spielen hochzurechnen, falls die die native auflösung des bildes nicht von selbst unterstützen oder so.
Kinman
2008-12-10, 09:19:14
wozu braucht man eigentlich die monitor interpolation, wenn der grafiktreiber das ja auch kann? also der grafiktreiber skaliert das bild auf die passende größe in 1:1 oder eben ins gewollte format, in einer gewünschten auflösung, hab ich das richtig verstanden? ich mache das auch über den monitor und nicht über den treiber, weil ich zuerst dachte, der treiber wäre nur dafür da, auflösungen von spielen hochzurechnen, falls die die native auflösung des bildes nicht von selbst unterstützen oder so.
Bei mir
1. Grund: Ich kann den Monitor mit 60/70/75 Bilder/s befeuern (je nach Auflösung). Bringt manchmal was, manchmal auch nicht (Stichwort VSync)
2. Grund: Die Skalierung in meinem Monitor sieht besser aus als die der Grafikkarte
mfg Kinman
Banshee18
2008-12-10, 19:17:44
ist es nicht, nicht die skalierung macht das bild schlechter sondern die geringer auflösung.
Nein.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6885985&postcount=6
Das entspricht ziemlich genau dem, was ich bei mir mit interpolierter Auflösung sehe. Es ist ohne Zweifel ein Schärfeverlust bemerkbar, der für manche halt unerträglich ist. Ich habe diesen starken Schärfeverlust übrigens auch schon, wenn ich die Auflösung nur ein ganz klein wenig niedriger einstelle (custom resolution).
generell ist es sinnvoll einen monitor mit möglichst hoher pixeldichte zu kaufen, je höher die auflösung und damit je kleiner die pixel sind, desto weniger kann die interpolation stören.
Theoretisch ja, praktisch anscheinend eher nicht.
http://prad.de/new/monitore/test/2008/test-lenovo-l220x-teil10.html#Interpolation
Nein.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6885985&postcount=6
die bilder sind unterschiedlich groß und damit nicht vergleichbar.
Anderer Gast
2008-12-11, 07:38:18
die bilder sind unterschiedlich groß und damit nicht vergleichbar.
Der Abstand der Kamera zum Bildschirm war bei jedem Bild identisch, und gerade deshalb sind die Bilder vergleichbar!
Der Abstand der Kamera zum Bildschirm war bei jedem Bild identisch, und gerade deshalb sind die Bilder vergleichbar!
sind sie nicht, ein vergleich ist nur möglich wenn die wiedergabegröße gleich bleibt.
es ist klar, dass ein bild mit niedrigerer auflösung immer schlechter sein wird als eines in höherer.
bei gleicher wiedergabegröße ist es aber (fast) egal wieviele pixel in der hardware das bild darstellen, so lange es mehr als im quellbild sind.
es ist auch klar, dass man in einem bild mit gegebener auflösung fehler umso besser wahrnimmt je größer man es betrachtet, ob durch einen geringeren abstand zum bildschirm oder durch einen größeren bildschirm ist erstmals egal (so lange man nicht zu nahe ist und die einzelnen hardwarepixel wahrnehmen kann)
an alle interpolationshasser mal eine frage: verschlechtert supersampling eigentlich auch die qualität? ist schließlich auch nur eine interpolation, diesmal eben von der anderen richtung.
Kinman
2008-12-11, 18:18:55
Hier sind Vergleichsbilder von mir: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6142294&postcount=15
mfg Kinman
san.salvador
2008-12-11, 18:30:01
Bei mir
1. Grund: Ich kann den Monitor mit 60/70/75 Bilder/s befeuern (je nach Auflösung). Bringt manchmal was, manchmal auch nicht (Stichwort VSync)
2. Grund: Die Skalierung in meinem Monitor sieht besser aus als die der Grafikkarte
mfg Kinman
Redest du grad schlecht von meiner Grafikkarte? :udevil:
sind sie nicht, ein vergleich ist nur möglich wenn die wiedergabegröße gleich bleibt.
es ist klar, dass ein bild mit niedrigerer auflösung immer schlechter sein wird als eines in höherer.
bei gleicher wiedergabegröße ist es aber (fast) egal wieviele pixel in der hardware das bild darstellen, so lange es mehr als im quellbild sind.
es ist auch klar, dass man in einem bild mit gegebener auflösung fehler umso besser wahrnimmt je größer man es betrachtet, ob durch einen geringeren abstand zum bildschirm oder durch einen größeren bildschirm ist erstmals egal (so lange man nicht zu nahe ist und die einzelnen hardwarepixel wahrnehmen kann)
an alle interpolationshasser mal eine frage: verschlechtert supersampling eigentlich auch die qualität? ist schließlich auch nur eine interpolation, diesmal eben von der anderen richtung.
SSAA funktioniert anders, da wird der Informationsgehalt zuvor vervielfacht und dann runtergerechnet. Das endgültige Bild hat dann mehr Informationen (bzw. sind mehr Informationen in die Bildberechnungen eingeflossen) als das ohne SSAA.
[QUOTE=san.salvador;6970481
SSAA funktioniert anders, da wird der Informationsgehalt zuvor vervielfacht und dann runtergerechnet. Das endgültige Bild hat dann mehr Informationen (bzw. sind mehr Informationen in die Bildberechnungen eingeflossen) als das ohne SSAA.[/QUOTE]
natürlich funktioniert es anders.
beim SSAA gehen übrigens sogar informationen verloren, gegenüber dem aufgeblasenem bild, auch wenn natürlich mehr informationen enthalten sind als sie bei einem direkt in der nativen auflösung berechneten bild vorhanden wären.
beim hochskalieren gehen dagegen überhaupt keine informationen verloren, es sind immer noch alle vorhanden.
DerRob
2008-12-11, 21:45:23
beim hochskalieren gehen dagegen überhaupt keine informationen verloren, es sind immer noch alle vorhanden.
solange aber die zielauflösung nicht ein vielfaches der ursprünglichen auflösung ist, werden die bildinformationen aber "unschön" miteinander vermischt, und dabei gehen zumindest teilweise informationen verloren. ich hab mal ein ungefähres beispiel erstellt:
ursprungsbild:
http://s10.directupload.net/images/081211/4jkduga6.png (http://www.directupload.net)
monitor-pixelraster:
http://s10.directupload.net/images/081211/4cps5dgl.png (http://www.directupload.net)
interpoliertes ergebnis (so oder so ähnlich):
http://s10.directupload.net/images/081211/3augjrfv.png (http://www.directupload.net)
wenn beim interpolieren keine informationen verloren gehen, wo ist dann das ursprüngliche grün und vor allem das gelb hin? ;)
solange aber die zielauflösung nicht ein vielfaches der ursprünglichen auflösung ist, werden die bildinformationen aber "unschön" miteinander vermischt,
in spezialfällen ja, nämlich dann wenn elemente so designt wurden, dass der designer unbedingt wollte dass strukturen genau eine bestimmte anzahl an pixeln ausfüllen. beispielsweise ist das bei text der fall, wobei es selbst hier dank kantenglättung längst nicht mehr so schlimm ist.
in den meisten situationen, insbesondere bei bildern videos und ganz speziell bei 3D-spielen ist das aber nicht der fall. insbesondere bei letzterem weiß der designer prinzipbedingt garnicht wieviele pixel einzelne objekte nun ausfüllen, da schadet eine skalierung nicht im geringsten.
bei älteren 2D-spielen sieht es natürlich schon deutlich schlechter aus, da dort der designer natürlich davon ausgehen konnte, wieviele pixel jedes objekt nun abdeckt.
und dabei gehen zumindest teilweise informationen verloren.
informationen gehen bei einer skalierung auf die höhere auflösung mal prinzipiell keine verloren, wenn die skaliermethode bekannt ist kann das ursprungsbild abgesehen von rundungsfehlern wiederhergestellt werden.
um das zu testen kannst du einfach ein beliebiges bild nehmen, das ganze hochskalieren und anschließend wieder auf die ursprungsauflösung zurückskalieren.
informationen gehen höchstens durch zusätzliche filter verloren wie beispielsweise nach dem skalieren angewandte schärfefilter.
dein beispiel ist ja ganz schön, allerdings spiegelt es die realität eben nur für den einen fall, dass wir nur 5 riesige pixel haben die noch dazu komplett verschiedene farben haben. in dem fall ist die interpolation natürlich blöd.
in der realität haben wir aber glücklicherweise ein paar millionen an pixel die noch dazu schön klein sind und nicht unbedingt alle an pixel in ihren komplementärfarben grenzen.
du sagst das schöne reine gelb geht verloren, aber stimmt das wirklich?
auf den ersten blick eindeutig ja.
in der realität sind die pixel allerdings so klein, dass wir einen einzelnen gelben punkt umgeben von einem grünen und einem blauen garnicht als solchen wahrnehmen können. wir würden diesen auch ohne interpolation als "dreckiges" gelb wahrnehmen.
interpolation kann manchmal zu unschönen ergebnissen führen ja, meistens aber nicht, und insbesonders in 3D-spielen nicht.
diese unschönen nebeneffekte werden auch geringer bis garnicht mehr wahrnehmbar, je höher die auflösung, kleiner die pixel und größer der monitor (da man tendenziell etwas weiter wegsitzt) wird.
Fusion_Power
2008-12-12, 22:35:26
Ich hab nen nagelneuen 24" 1920x1200er TFT...mein PC ist dagegen noch uralt. Was beim Desktop in voiller Auflösung kein Problem ist, kann man in 3D Games natürlich voll vergessen. Aber ich kann gut mit interpolierten Auflösungen leben. Ich hab das nur mal hieru nd da getestet, aber wenn man die exakte HALBE Auflösung des TFT nimmt (in meinem Fall lustige 960x600 Pixel) und das mit fettem AA kaschiert sieht alles immer noch gestochen scharf aus da keine "halben Pixel" beim interpolieren übrig bleiben. :D
...ist natürlich Geschmackssache und sicher nix für die Hardcore Gamer. Aber es sieht allemal besser aus als "krumme" Interpolationen.
Sailor Moon
2008-12-12, 23:20:00
ber wenn man die exakte HALBE Auflösung des TFT nimmt (in meinem Fall lustige 960x600 Pixel) und das mit fettem AA kaschiert sieht alles immer noch gestochen scharf aus da keine "halben Pixel" beim interpolieren übrig bleiben.
Das passiert bei TFTs mit sehr rudimentärem Scaler (Stichwort Pointsampling) - wirklich "vernünftige Lösungen" arbeiten allerdings anders. Bei Spielen ist es sinnvoll, einfach die höchste noch ruckelfrei darstellbare Auflösung zu wählen, um möglichst viel Informationsgehalt zu erhalten.
Gruß
Denis
Ich hab das nur mal hieru nd da getestet, aber wenn man die exakte HALBE Auflösung des TFT nimmt (in meinem Fall lustige 960x600 Pixel) und das mit fettem AA kaschiert sieht alles immer noch gestochen scharf aus da keine "halben Pixel" beim interpolieren übrig bleiben. :D
wobei das in erster linie am AA liegt, bei einem halbwegs ordentlichen interpolationsalgorithmus ist das verhältnis von quell- und zielauflösung ziemlich egal, lediglich bei einfachem pointsampling sieht es ziemlich schrecklich aus wenn man keine vielfachen verwendet, wobei es dadurch aber eher zu scharf wird und flimmert bzw. zusätzliche treppeneffekte erzeugt.
tribbs
2008-12-24, 01:20:13
Vielen Dank für die Antworten :D
Frohe Weihnachten !
tribbs
Neon3D
2009-01-12, 23:34:19
Ich hab nen nagelneuen 24" 1920x1200er TFT...mein PC ist dagegen noch uralt. Was beim Desktop in voiller Auflösung kein Problem ist, kann man in 3D Games natürlich voll vergessen. Aber ich kann gut mit interpolierten Auflösungen leben. Ich hab das nur mal hieru nd da getestet, aber wenn man die exakte HALBE Auflösung des TFT nimmt (in meinem Fall lustige 960x600 Pixel) und das mit fettem AA kaschiert sieht alles immer noch gestochen scharf aus da keine "halben Pixel" beim interpolieren übrig bleiben. :D
...ist natürlich Geschmackssache und sicher nix für die Hardcore Gamer. Aber es sieht allemal besser aus als "krumme" Interpolationen.
ein gebrauchter crt-monitor wäre eine deutliche bildverbesserung für spiele am pc !
Daredevil
2009-01-12, 23:45:31
Widescreen will man nicht mehr missen wenn man es einmal hatte. ;)
Die Premium Lösung ist natürlich immernoch der 24" Widescreen Sony CRT.... göttlich :)
Fetza
2009-01-13, 01:54:28
Also aktuell nutze ich noch meine gts640, seit dem ich aber einen tft habe, mit nativer 1920x1200 auflösung sehe ich schon in spielen wie fear kein land mehr. Zum glück beherrscht mein monitor das herunterskalieren auf 1440x900 ziemlich gut, so das ich diese auflösung ohne weiteres gerne nutze. Dennoch ruckelt zb quake4 in dieser auflösung mit 4xaa an einigen stellen.
Um moderne spiele zu zocken, muss daher eine neue graka her.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.