Archiv verlassen und diese Seite im Standarddesign anzeigen : AA bald Schnee von gestern? Ultra High Definition!
GTX999
2012-01-25, 15:20:31
Der Monitor hat eine Pixelbreite von 7680.
http://www.youtube.com/watch?v=9U7e_quvkPQ&feature=related
Da wäre doch AA total unnötig oder? Bei einer so feinen Auflösung sieht man doch keinen Treppeneffekt mehr.
Wäre es zukunftsvisionsseitig nicht weitaus sinnvoller höhere Aufläsungen zu fahren als an AA zu schrauben?
zb.: 24" Monitor mit 3000 pixel würde doch absolut ausreichen.
Was meint ihr - Hat Anti Aliasing in 10 Jahren noch einen Stellenwert?
mapel110
2012-01-25, 15:22:09
AA wird nie seine Berechtigung verlieren. Aber dazu gabs hier auch schon mehr als einen Thread.
y33H@
2012-01-25, 15:28:58
Alleine wenn man sich anschaut, mit was für Auflösungen und AA Kinofilme gerendert werden ... dagegen sind 3k bei 24'' geradezu lächerlich.
Shink
2012-01-25, 15:33:30
Bei einer so feinen Auflösung sieht man doch keinen Treppeneffekt mehr.
Eben schon. Hell/dunkel-Übergänge werden vom Auge verstärkt. Solange wir rechteckige Pixel haben wird da nichts helfen.
Wäre es zukunftsvisionsseitig nicht weitaus sinnvoller höhere Aufläsungen zu fahren als an AA zu schrauben?
Nö, das bringt kaum etwas.
zb.: 24" Monitor mit 3000 pixel würde doch absolut ausreichen.
Du meinst 3000 Pixel in der Horizontalen? Das wären ja nur 50% mehr als jetzt. Vermutlich sind die Pixel da nicht kleiner als bei einem handelsüblichen Notebook.
Hohe Pixeldichten bringen schon was, komplett vermeiden lassen sich Artefakte aber nicht.
Hohe Auflösungen allein können AA/AF nicht ersetzen, zumindest nicht in den heute denkbaren Pixeldichten.
Beispiel iPhone 4: 330dpi und trotzdem fallen Pixelkanten mit hohem Kontrast sofort auf, wenn kein Antialiasing im Spiel ist.
Man kann natürlich die Auflösung so hochschrauben, dass man die maximal vom Auge erkennbare Auflösung deutlich übertrifft, aber Vergleich dazu ist ein ~300dpi Display + AA (oder besser noch Downsampling) die deutlich wirtschaftlichere Lösung.
x-force
2012-01-25, 17:53:48
vor allem zieht es wesentlich mehr leistung die auflösung zu erhöhen als aa zuzuschalten.
ausgegangen von ähnlichem qualitätszuwachs
AnarchX
2012-01-25, 17:57:40
Ultra High Definition ist wohl eher interessant im Zusammenhang mit Großleinwänden/Großdisplays und brillenlosem 3D für mehrerere Betrachter gleichzeitig.
aufkrawall
2012-01-25, 18:33:05
Och, die mögliche Pixeldichte in 10 Jahren, gepaart mit gutem PP-AA, könnte schon eine sehr gute und nebenwirkungsfreie Glättung bringen.
boxleitnerb
2012-01-25, 18:54:38
10 Jahre? Ich hab meinen Monitor jetzt seit 2003 und die Pixeldichte ist fast gleich wie heute...
Tesseract
2012-01-25, 18:57:28
AA wird nie sinnlos weil dpi beim normalen monitorabstand nur bis etwa 300 sinn machen. mehr pixel pro winkel sieht das auge auf die entfernung einfach nicht.
aliasing hingegen kann auch bei der dpi sehr wohl noch sichtbar werden, allerdings weniger die pixeltreppen sondern eher die kumulativen aliasing-effekte (z.B. sich wiederholende, überlappende muster bei alpha-vegetation oder shadern)
also bis zu ~300dpi macht auflösung absolut sinn, danach ist AA wesentlich effizienter.
Och, die mögliche Pixeldichte in 10 Jahren, gepaart mit gutem PP-AA, könnte schon eine sehr gute und nebenwirkungsfreie Glättung bringen.
die kombination hohe pixeldichte und postprocessing-AA ist ziemlich sinnlos.
postprocessing funktioniert nur bei langen, geraden pixeltreppen wirklich gut und die sind mit hoher pixeldichte ohnehin kaum noch sichtbar und werden auch mit komplexerer geometrie und höherem detailgrad immer seltener.
was allerdings sehr wohl sichtbar bleibt ist kumulatives aliasing (siehe oben) und dagegen hilft post-processing so gut wie garnix.
was eher gebraucht wird ist ein smartes AA, dass viel mit coverage arbeitet und vor allem hochgradig effizient ist bei den hohen pixelzahlen pro frame. CSAA+TSSAA ist da schon ein guter anfang. irgendwas adaptives müsste man sich aber noch für shader überlegen.
300+ DPI native Auflösung in Verbindung mit SuperSampling wäre eine feine Sache. Bei großen Desktop-Monitoren reichen aufgrund des größeren Betrachtungsabstandes auch schon ~200 DPI dicke aus.
SuperSampling bringt in dem Fall für den Bildeindruck deutlich mehr als einfach die Auflösung um einen entsprechenden Faktor weiter zu erhöhen.
Nightspider
2012-01-25, 19:06:14
Dennoch verringert man die Treppenbildung und AF Probleme massiv mit höheren Auflösungen.
Nicht umsonst zocken hier viele, mich eingeschlossen, mit Downsampling.
Die langsam anrollenden 4K Display mit 3840*2160 haben schon ein deutlich geglättetes Bild und gewinnen massiv an Schärfe.
Dem Otto Normalverbraucher reicht oft schon FullHD. Wenn erstmal jeder mit 3840er Auflösung zockt, würden viele wohl schon ganz auf AA verzichten können.
Erst renn wenn man dann in 10-12 Jahren mit 7680*4320 zocken kann.
Bei dem jetzt üblichen Sitzabstand würden hier viele gar kein Treppchen mehr sehen.
Hier wird kein Lurch mit 20cm Sitzabstand zocken, also kann man die Retina/330ppi Vergleiche vom Smartphone schon mal sein lassen.
Das die jenigen, die hier nein geschrieben haben, alle in 10 Jahren sich groß um AA kümmern bezweifle ich in jedem Fall. Zumal die Verwendung von AA sowieso immer schwieriger zu werden scheint.
aufkrawall
2012-01-25, 19:09:57
10 Jahre? Ich hab meinen Monitor jetzt seit 2003 und die Pixeldichte ist fast gleich wie heute...
Heute steht aber 4k "vor der Tür".
In zehn Jahren könnte die Chance nicht schlecht stehen, dass es auch kleinere Monitore mit der Auflösung geben wird.
Bei den Handy-Displays hat man ja auch heute schon eine wesentlich höhere Pixeldichte.
die kombination hohe pixeldichte und postprocessing-AA ist ziemlich sinnlos.
postprocessing funktioniert nur bei langen, geraden pixeltreppen wirklich gut und die sind mit hoher pixeldichte ohnehin kaum noch sichtbar und werden auch mit komplexerer geometrie und höherem detailgrad immer seltener.
was allerdings sehr wohl sichtbar bleibt ist kumulatives aliasing (siehe oben) und dagegen hilft post-processing so gut wie garnix.
Wenn ich per DS 2,5k*2k auf meinem 19"er fahre, simuliere ich damit doch die doppelt so hohe Pixeldichte (so gut es eben geht).
Mit doppelt so hoher Pixeldichte müsste doch auf einem Monitor der gleichen Größe dann eine doppelt so hohe Auflösung gefahren werden. Und damit kommt ja schon ein ordentlicher Glättungseffekt zustande.
Oder hab ich nen Denkfehler und die Glättung resultiert einfach nur aus dem Downsampling ansich?
boxleitnerb
2012-01-25, 19:13:27
Downsampling ist aber nicht gleich höhere Pixeldichte. Bei einem nativen 4k Monitor werden mehr Pixel angezeigt, während bei Downsampling gefiltert wird. Deshalb wird Downsampling auch immer glatter sein (imo).
Dennoch verringert man die Treppenbildung und AF Probleme massiv mit höheren Auflösungen.
Nicht umsonst zocken hier viele, mich eingeschlossen, mit Downsampling.
Downsampling ist auch nichts anderes als eine weitere Art von SuperSampling.
Es stimmt zwar, dass eine höhere Auflösung die Pixeltreppchen weniger auffällig macht, aber z.B. flimmernde Pixel sind auch bei hohen Auflösungen noch deutlich erkennbar.
Hier wird kein Lurch mit 20cm Sitzabstand zocken, also kann man die Retina/330ppi Vergleiche vom Smartphone schon mal sein lassen.
Es geht nicht um das Inspizieren von Pixeln mit der Lupe. Es geht um deutlich sichtbare Artefakte, welche man eben – Smartphone-Display als Beispiel genommen, mangels breiter Verfügbarkeit von HiDPI Desktop-Monitoren – bei 300dpi selbst auf Destop-Monitorabstand noch erkennt.
[edit]:
Downsampling ist aber nicht gleich höhere Pixeldichte. Bei einem nativen 4k Monitor werden mehr Pixel angezeigt, während bei Downsampling gefiltert wird. Deshalb wird Downsampling auch immer glatter sein (imo).
Genau das.
Tesseract
2012-01-25, 19:19:14
Wenn ich per DS 2,5k*2k auf meinem 19"er fahre, simuliere ich damit doch die doppelt so hohe Pixeldichte (so gut es eben geht).
du simulierst damit nur OGSSAA und 2xDS (d.h. 4 mal so viele pixel) ist in vielen fällen kaum besser als 2xRGSS.
pixeldichte kannst du eigentlich nur simulieren wenn du ein relativ hochauflösendes smartphone hast, auf dem einen screenshot(ausschnitt) eines spiels anzeigen lässt und es zum vergleich neben den monitor stellst und das ganze "in groß" vorstellst.
Nightspider
2012-01-25, 19:21:56
Artefakte und flimmernde Pixel werden deutlich kleiner. Das flimmern nimmt automatisch mit höherer Pixeldichte ab. Weil der flimmernde Content sich nicht mehr um so wenig Pixel streiten muss.
Die ganzen Shadereffekte erfordern einfach eine hohe Auflösung, damit diese sauber abgebildet werden. Ab bestimmten Auflösungen würde diese sogar ganz verschwinden für das menschliche Auge also ist es auch logisch, das der Effekt mit steigender Auflösung stark abnimmt.
Flimmern ist meist nichts anderes als Shader Aliaising bzw. in Fällen wie Crysis zu viel (feiner) Content pro Pixelgruppe.
Artefakte und flimmernde Pixel werden deutlich kleiner. Das flimmern nimmt automatisch mit höherer Pixeldichte ab. Weil der flimmernde Content sich nicht mehr um so wenig Pixel streiten muss.
Das ist so nicht ganz korrekt, es verlagert sich vielmehr. Es sei denn die Spielwelt besteht nur aus großen, einfachen Objekten und bietet keine Fernsicht. ;)
aufkrawall
2012-01-25, 19:26:58
du simulierst damit nur OGSSAA und 2xDS (d.h. 4 mal so viele pixel) ist in vielen fällen kaum besser als 2xRGSS.
Ups, stimmt ja, ist ja 2x pro Achse.
Also 4x so hohe Pixeldichte wäre in etwa vom Ergebnis vergleichbar?
Nightspider
2012-01-25, 19:30:30
Das ist so nicht ganz korrekt, es verlagert sich vielmehr. Es sei denn die Spielwelt besteht nur aus großen, einfachen Objekten und bietet keine Fernsicht. ;)
Ja natürlich und dennoch hat ein Pixel bei 3840 nur noch 25% der Größe, wie bei 1920. Der nun flimmernde Content ist viel weniger stark ersichtlich.
Ausschnitt aus 1920er Bildauschnitt:
http://www.abload.de/img/1xf1jjk.jpg
Ausschnitt aus 3840er Bildausschnitt:
http://www.abload.de/img/4x0tjb1.jpg
Speicher die Bilder, geh maximal von deinem Monitor weg und wechsel zwischen den Bildern. Und dann sag mir mal ob du immer noch denkst, das der deutlich feinere Content bei höherher Auflösung für das menschliche Auge genauso flimmert, wie der grob aufgelöste Content.
Ja natürlich und dennoch hat ein Pixel bei 3840 nur noch 25% der Größe, wie bei 1920. Der nun flimmernde Content ist viel weniger stark ersichtlich.
Natürlich, da gebe ich dir schon recht. Nur ist es eben leider immernoch nicht weg. Daher halte ich SuperSampling für einen wirklich ruhigen Bildeindruck für unverzichtbar.
[edit]:
Das Fischernetz ist ein gutes Beispiel: Ohne AA wird das auch auf HiDPI in Bewegung noch deutlich sichtbar flimmern. Weniger schlimm als auf einer niedrigeren Auflösung, aber eben immernoch deutlich erkennbar.
Wie gesagt: HiDPI + AntiAliasing (am besten SuperSampling) ist meiner Meinung nach der richtige Weg. Für sich allein hilft beides nur teilweise (es sei denn man redet wirklich von absurd hohen Auflösungen - dagegen hätte man aber wohl sogar mit SuperSampling noch einen Perforance-Vorteil).
dargo
2012-01-25, 19:46:14
Ja natürlich und dennoch hat ein Pixel bei 3840 nur noch 25% der Größe, wie bei 1920. Der nun flimmernde Content ist viel weniger stark ersichtlich.
Ausschnitt aus 1920er Bildauschnitt:
http://www.abload.de/img/1xf1jjk.jpg
Ausschnitt aus 3840er Bildausschnitt:
http://www.abload.de/img/4x0tjb1.jpg
Speicher die Bilder, geh maximal von deinem Monitor weg und wechsel zwischen den Bildern. Und dann sag mir mal ob du immer noch denkst, das der deutlich feinere Content bei höherher Auflösung für das menschliche Auge genauso flimmert, wie der grob aufgelöste Content.
Natürlich flimmert eine höhere Auflösung weniger. Ganz einfach weil man mehr Informationen in der höheren Auflösung dargestellt bekommt. Das sieht man bei deinem Vergleich besonders gut bei den Übergängen vom Geländer und dem Netz. In Full-HD gibts immer wieder Unterbrechungen welche logischerweise in Bewegung zum Flimmern neigen.
Natürlich, da gebe ich dir schon recht. Nur ist es eben leider immernoch nicht weg. Daher halte ich SuperSampling für einen wirklich ruhigen Bildeindruck für unverzichtbar.
Er hat die Auflösung auch vervierfacht und nicht wie im Eingangspost versechzehnfacht. Bei 16 facher Auflösung und einem gewissen Abstand zur Bildschirmdiagonale X wird dein Auge je nach Content kein Flimmern mehr erkennen können.
Nightspider
2012-01-25, 19:55:18
Natürlich, da gebe ich dir schon recht. Nur ist es eben leider immernoch nicht weg. Daher halte ich SuperSampling für einen wirklich ruhigen Bildeindruck für unverzichtbar.
[edit]:
Das Fischernetz ist ein gutes Beispiel: Ohne AA wird das auch auf HiDPI in Bewegung noch deutlich sichtbar flimmern. Weniger schlimm als auf einer niedrigeren Auflösung, aber eben immernoch deutlich erkennbar.
Wie gesagt: HiDPI + AntiAliasing (am besten SuperSampling) ist meiner Meinung nach der richtige Weg. Für sich allein hilft beides nur teilweise.
Klar, mit SuperSampling wird das Bild dann noch ein Ticken besser. Aber eher unbedeutend bei immens hohen Auflösungen.
Wie Dargo schon sagte, habe ich die Auflösung gerade einmal vervierfacht, was wir in 2 Jahren schon auf dem Desktop haben werden.
Imo ist das Netz ein superbes Beispiel, weil du dir gut vorstellen kannst, wie die feinen Maschen bei grober Auflösung von großem Pixel, zu großem Pixel Springen. Bei feiner Auflösung ist es jedoch ein gleichmäßigeres Fließen.
Bei doppelter ppi Zahl hast du zwischen Position A und B die doppelte Anzahl an Stellen, wo das Objekt angezeigt werden kann. Bewegungen des Contents werden viel flüssiger dargestellt und der Content, der springt wird viel geringer.
Außerdem wirkt das heute agressive Level of Detail dem nachrückenden, noch feineren Content entgegen (Weitsicht), der springen könnte.
Es ist schwierig zu erklären aber ich hoffe du weist, was ich meine.
Er hat die Auflösung auch vervierfacht und nicht wie im Eingangspost versechzehnfacht. Bei 16 facher Auflösung und einem gewissen Abstand zur Bildschirmdiagonale X wird dein Auge je nach Content kein Flimmern mehr erkennen können.
Hab dazu noch einen Nachtrag unter das Posting gesetzt. IMHO macht es wenig Sinn mit der Monitor-Pixeldichte übermäßig über die Grenzen des menschlichen Sehvermögens hinauszugehen.
[edit]:
Es ist schwierig zu erklären aber ich hoffe du weist, was ich meine.
Ich verstehe schon was du meinst. Ich denke wir wollen am Ende auf's Gleiche raus, aber halten nur unterschiedliche Wege zum Erreichen dieses Ziels für sinnvoll. ;)
dargo
2012-01-25, 20:02:35
Hab dazu noch einen Nachtrag unter das Posting gesetzt. IMHO macht es wenig Sinn mit der Monitor-Pixeldichte übermäßig über die Grenzen des menschlichen Sehvermögens hinauszugehen.
Sinnvoll ist es natürlich nicht da viel zu teuer in Spielen. Welche Grafikkarte soll denn bitte schön 7680-er Auflösung stemmen? :freak: Ich meine gut... wenn wir die nächsten Jahre beim gleichen grafischen Niveau wie heute bleiben wäre das sicherlich machbar. Aber wer will das schon?
Nightspider
2012-01-25, 20:05:45
Sinnvoll ist es natürlich nicht da viel zu teuer in Spielen. Welche Grafikkarte soll denn bitte schön 7680-er Auflösung stemmen? :freak:
Wenn man davon ausgeht, das wir die GPU Leistung aller 2 Jahre verdoppeln, hätten wir in 10 Jahren 32 mal soviel Leistung und 7680er TVs stehen dann schon in manchen Wohnungen.
Selbst wenn sich die GPU Power nur noch aller 3 Jahre verdoppelt hätten wir in 12 Jahren immerhin 16 mal soviel GPU Power. Dürfte mit SLI locker stemmbar sein. :D
Außerdem: das sagt gerade der, der viel mit DS spielt. ;D
Eben mal kurz gerechnet: 7680x4320 auf 27" ergeben ~320ppi, was also ziemlich genau dem entspricht was ich mittels Smartphone (an den Desktop-Monitor gestellt) simulieren kann.
Zum Testen habe ich eine Szene mit einer hellen Netzstruktur auf dunklem, fast schwarzem Hintergrund (sorry, kann leider aus rechtlichen Gründen keine Screenshots posten).
Pixeltreppen sehe ich logischerweise keine. Das Thema ist bei der Pixeldichte und dem Betrachtungsabstand (27"-Monitor) mehr als gegessen.
Das Netz flimmert in den Kamerafahrten aber leider trotzdem deutlich erkennbar. Natürlich wäre ein Objekt dieser Größe in einer Szene auf einem 27" Monitor nur ein kleines Randdetail, aber ich denke immernoch, dass eine etwas niedrigere Auflösung (z.B. 3840x2160 oder 5120x2880 @ 27") + SuperSampling unter'm Strich noch etwas bessere Ergebnisse liefern würde.
dargo
2012-01-25, 20:14:19
Wenn man davon ausgeht, das wir die GPU Leistung aller 2 Jahre verdoppeln, hätten wir in 10 Jahren 32 mal soviel Leistung und 7680er TVs stehen dann schon in manchen Wohnungen.
Und du willst in 10 Jahren die gleiche Grütze in Spielen wie heute sehen? Danke... ohne mich. Höhere Auflösung ist ein fließender Prozess. Sicherlich wird sie in den nächsten Jahren steigen. 7680 wird aber garantiert kein Standard in Spielen @2022.
Edit:
Ich wäre schon froh wenn ich das hier:
http://www.youtube.com/watch?v=aT37b2QjkZc
in naher Zukunft in Spielen (natürlich inklusive legendiger Stadt) in "nur" 2560x1440 samt brauchbarem AA sehen würde. So anspruchslos bin ich schon geworden. ;D
Nightspider
2012-01-25, 20:17:55
Nicht wirklich. Mir reichen 3840*2160 für den Anfang. ;)
Es wäre schon ein riesiger Fortschritt, wenn 2560er-Displays um 200 Euro erhältlich wären. Das macht schon eine Menge gegenüber Full-HD aus, da sich eine feinere Auflösung generell auf die Bildqualität auswirkt (z. B. auf die Oberflächenqualität => MIP-Map-Verschiebung). Gleichzeitig stiegen die Anforderungen an die Grafikhardware, was hier für ein Wachstum sorgen könnte. AMD und Nvidia sollten mit dem Multi-LCD-Blödsinn aufhören und Pixeldichte forcieren (neben SSAA natürlich).
MfG,
Raff
Welche Grafikkarte soll denn bitte schön 7680-er Auflösung stemmen? :freak: Ich meine gut... wenn wir die nächsten Jahre beim gleichen grafischen Niveau wie heute bleiben wäre das sicherlich machbar. Aber wer will das schon?
- Spieleproduktionen konkurrieren mittlerweile mit Filmproduktionen was die Budgets angeht - derartig große Steigerungen wie in den letzten 15 Jahren werden da schon vom finanziellen Aspekt her nicht möglich sein (es sei denn Content-Creation würde plötzlich deutlich günstiger werden)
- Moore's Law hilft
[edit]:
Es wäre schon ein riesiger Fortschritt, wenn 2560er-Displays um 200 Euro erhältlich wären. Das macht schon eine Menge gegenüber Full-HD aus, da sich eine feinere Auflösung generell auf die Bildqualität auswirkt (z. B. auf die Oberflächenqualität => MIP-Map-Verschiebung). Gleichzeitig stiegen die Anforderungen an die Grafikhardware, was hier für ein Wachstum sorgen könnte. AMD und Nvidia sollten mit dem Multi-LCD-Blödsinn aufhören und Pixeldichte forcieren (neben SSAA natürlich).
Ja, der Unterschied zwischen 2560 und 1920 ist größer als er auf den ersten Blick erscheint (leider merkt man das eben auch direkt an der Grafikperformance ;) ). Aber auch hier: So wirklich gut aussehen tut's erst mit AA.
Was die nVidia/ATI angeht: Ich denke da wird was tun wenn Windows 8 mit HiDPI-Support da ist (und die ersten HiDPI-Monitore im Massenmarkt auftauchen).
dargo
2012-01-25, 20:25:43
- Spieleproduktionen konkurrieren mittlerweile mit Filmproduktionen was die Budgets angeht - derartig große Steigerungen wie in den letzten 15 Jahren werden da schon vom finanziellen Aspekt her nicht möglich sein (es sei denn Content-Creation würde plötzlich deutlich günstiger werden)
Soweit korrekt und könnte zum Problem werden. Auf der anderen Seite kostet ein Kinobesuch (nur der Film) keine ~50€.
Nightspider
2012-01-25, 20:29:59
Contentdichte != Grafikanforderungen
Shadereffekte können auch massiv Leistung fressen, ohne das es viel Manpower/Arbeit oder Zeit bedarf.
Die Leistung der neuen Generationen wird man schon schnell genug verballern.
Nur wird die Lücke zwischen PC Leistung und Konsolenpower wohl zunächst etwas größer, womit mehr Leistung für höhere Auflösungen frei wird. Daher passen die kommenden 3840er Displays hervorragend zu den, wie es scheint, nicht ganz so stark werdenden Konsolen.
Apple scheint ja auch die ppi Zahlen von ihren Macbooks bis 2013 massiv steigern zu wollen. Die Konkurrenz wird da nachziehen.
Soweit korrekt und könnte zum Problem werden. Auf der anderen Seite kostet ein Kinobesuch (nur der Film) keine ~50€.
Dafür werden aber auch für entsprechend mehr Kinotickets als Spielekopien verkauft und ich denke nicht, dass sich das übermäßig ändern wird.
Contentdichte != Grafikanforderungen
Shadereffekte können auch massiv Leistung fressen, ohne das es viel Manpower/Arbeit oder Zeit bedarf.
Die Leistung der neuen Generationen wird man schon schnell genug verballern.
Die bestehende Content-Dichte mit etwas besseren Shadern zu versehen ist jetzt nicht unbedingt ein riesiger Sprung. Aber es stimmt schon, dass man so ziemlich schnell ziemlich viel Leistung verballern kann.
Nur wird die Lücke zwischen PC Leistung und Konsolenpower wohl zunächst etwas größer, womit mehr Leistung für höhere Auflösungen frei wird. Daher passen die kommenden 3840er Displays hervorragend zu den, wie es scheint, nicht ganz so stark werdenden Konsolen.
Guter Punkt, das hatte ich so gar nicht bedacht. Wenn eine XBox 720 tatsächlich mit der Grafikpower einer 6670 kommt und damit FullHD rendern muss, dann ist die Performance-Baseline für Entwicklerstudios auf einem Niveau, das es High-End-PCs erlauben wird, solche Titel recht bald in HiDPI befeuern zu können.
Apple scheint ja auch die ppi Zahlen von ihren Macbooks bis 2013 massiv steigern zu wollen. Die Konkurrenz wird da nachziehen.
2880x1800 auf 15" wäre mal 'ne Ansage. Der Software-Support ist da, fehlt nur noch die passende Hardware.
Ailuros
2012-01-25, 20:53:43
Das die jenigen, die hier nein geschrieben haben, alle in 10 Jahren sich groß um AA kümmern bezweifle ich in jedem Fall. Zumal die Verwendung von AA sowieso immer schwieriger zu werden scheint.
Kommt drauf an wie Architekturen in einem Jahrzehnt aussehen werden und ob antialiasing doch noch einen vielleicht sogar wichtigeren Zweck haben koennte:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=496241
Tesseract
2012-01-25, 21:23:15
Ich meine gut... wenn wir die nächsten Jahre beim gleichen grafischen Niveau wie heute bleiben wäre das sicherlich machbar. Aber wer will das schon?
das grafische niveau hängt inzwischen zu großen teilen von der qualität des artworks ab. details*10 führt nicht zwangläufig zu besseren ergebnissen. die referenz was bildqualität/rechenaufwand angeht ist imho bis heute nach wie vor doom3. den recht simplen unterbau sieht man dem spiel kaum an weil aus der vorhandenen technik sehr viel rausgeholt wurde.
oder hier ein beispiel aus SWTOR (http://i.imgur.com/n6LOY.jpg). da noch höher aufgelöste texturen und etwas dichtere polygone und eine etwas dezentere farbgebung und die stelle ist nahe am fotorealismus.
außerdem wird rasterisierung deutlich effizienter wenn beim selben content die auflösung steigt. 10x so viele pixel mit gleich vielen objekten im bild ist nichtmal ansatzweise der 10-fache rechenaufwand. ganz besonders nicht mit smarterem AA als der supersamplingkeule.
dargo
2012-01-25, 21:56:08
das grafische niveau hängt inzwischen zu großen teilen von der qualität des artworks ab. details*10 führt nicht zwangläufig zu besseren ergebnissen. die referenz was bildqualität/rechenaufwand angeht ist imho bis heute nach wie vor doom3. den recht simplen unterbau sieht man dem spiel kaum an weil aus der vorhandenen technik sehr viel rausgeholt wurde.
Schlechtes Beispiel. Doom3 hat durchgehend Schlauchlevels in dunklen Räumen. Was soll denn bei dieser Vorlage viel Rechenaufwand fressen? Stell dir mal ein Spiel vor in dem du ganz oben in einem Flieger sitzst, landest und alles ins kleinste Detail unten dargestellt wird. Sowas möchte ich in Spielen sehen. Ich habe bis heute kein Spiel gesehen welches das bietet. Arma geht zwar in die richtige Richtung, da lässt sich aber der Detailgrad noch unheimlich verbessern. Crysis 1 bot das allerdings beim Sprung aus dem Flugzeug auch. Die Szene war allerdings bei Nacht womit Schwächen kaum auffallen.
Dafür werden aber auch für entsprechend mehr Kinotickets als Spielekopien verkauft und ich denke nicht, dass sich das übermäßig ändern wird.
Gut... ich kenne jetzt nicht die Besucherzahlen bei Blockbustern um da überhaupt was gegenzurechnen. Auf der anderen Seite muss man aber auch die Millionen Gehälter für die Schauspieler miteinbeziehen. In Spielen hast du zwar Motion Capture, dabei werden aber sicherlich nicht so hohe Kosten wie bei echten Schauspielern entstehen. Bei Filmen verdient man aber später immer noch mit den Scheiben. Hmm... ich traue mich da wirklich nicht eine Gegenrechnung anzustellen. :tongue:
mksn7
2012-01-26, 00:23:28
Sind Auflösungen oberhalb der menschlichen Wahrnehmung nicht quasi analoges Downsampling?
iltis2k
2012-01-26, 01:59:22
Ich finde AA auch unverzichtbar. Die Auflösung kann gerne noch etwas hoch gehen, aber AA finde ich da sehr viel wichtiger, besonders SSAA. Sollte eigentlich jeder so sehen der schon mal SSAA/DS gesehen hat, da muss die Auflösung schon wirklich extrem werden damit das so wirkt. Es geht dabei schließlich um die Ruhe im Bild.
Bei ein paar der ersten Postings steht auch etwas von AF. Vielleicht verstehe ich das mit dem AF jetzt falsch, aber wie kann dieser Effekt denn durch höhere Auflösungen erreicht werden? Super/Downsampling zähle ich da nicht hinzu.
Neurosphere
2012-01-26, 07:30:43
Sind Auflösungen oberhalb der menschlichen Wahrnehmung nicht quasi analoges Downsampling?
Zum Auge gibt es verschiedene Angaben.
Was ich brauchbares gefunden habe geht von 0,08mm bei 25 cm Abstand aus.
Überträgt man das auf einen Monitor auf dem man pauschal aus ca. 50cm entfernung sieht sind das 0,16mm Pixelabstand. Ein 27" mit 4K Auflösung kommt in diesen Bereich. Wobei man da auch stark unterscheiden muss, das Auge kann Hell und Dunkel nämlich wesentlich besser wahrnehmen als Farben (ein Grund warum wir bei wenig Licht alles in Schwarz/Weiß sehen). Ein hoher Kontrast könnte den Wert also auchnoch beeinflussen. Flakern dürfte man ebenfalls noch wahrnehmen, was AA wohl auch dann nicht aufs Abstellgleis bringt.
Surtalnar
2012-01-26, 08:27:13
Auf meinem Galaxy Nexus (1280x720 bei 4,65") sieht man die Kanten so gut wie gar nicht, dabei hat es eine Pixeldichte von ~320. Von meinem persönlichen Eindruck sehen da 3D-Spiele so aus, als wären sie mit 4x AA gerendert.
Kinman
2012-01-26, 10:34:39
AA wird meiner Meinung nach erst verzichtbar, wenn die Auflösung des Wiedergabegeräts über die doppelte Auflösung des Auges hinausgeht. Ich bin übrigens auch stark dafür, dass die Pixeldichte in Monitoren steigen muss.
lg Kinman
Surtalnar
2012-01-26, 10:37:20
AA wird meiner Meinung nach erst verzichtbar, wenn die Auflösung des Wiedergabegeräts über die doppelte Auflösung des Auges hinausgeht. Ich bin übrigens auch stark dafür, dass die Pixeldichte in Monitoren steigen muss.
Wird nicht passieren, solang Windows das nicht ordentlich unterstützt. Ebenso sind die Filme ein Klotz am Bein, da die meisten davon zur Zeit 'nur' 1080p unterstützen.
Shink
2012-01-26, 11:33:21
Naja, die Pixeldichte zumindest bei Laptop-Monitoren ist schon ziemlich lächerlich zur Zeit: Da bekommt man im Ultrabook-Bereich teilweise 1366x768 - da könnte man sagen das wird von Windows eigentlich auch nicht ordentlich unterstützt da die Taskleiste immer größer wird.
Mit 1080p am Monitor bin ich ja schon zufrieden - der ist auch etwas weiter entfernt vom Kopf.
Kinman
2012-01-26, 11:35:20
Ich denke, die Software ist schneller angepasst, als dass es solche Displays zu vernünftige bzw. leistbare Preise (< 2.000 €) gibt. Aber ja, mit der aktuellen Software Situation wäre es schwieriger. Wobei man bei solch hohen Auflösungen wieder leichter nicht-native Auflösungen verwenden kann, ohne dass es extrem negativ auffällt.
lg Kinman
PatkIllA
2012-01-26, 12:20:05
Wird nicht passieren, solang Windows das nicht ordentlich unterstützt. Ebenso sind die Filme ein Klotz am Bein, da die meisten davon zur Zeit 'nur' 1080p unterstützen.
Windows unterstützt das eigentlich ziemlich gut. Nur die Anwendungen müssen auch mitspielen, damit das ordentlich funktioniert.
airbag
2012-01-26, 12:38:28
Alleine wenn man sich anschaut, mit was für Auflösungen und AA Kinofilme gerendert werden ... dagegen sind 3k bei 24'' geradezu lächerlich.
Die werden aber auch nicht Realtime gerendert. ;)
FlashBFE
2012-01-26, 14:42:39
Was die Leistungsanforderungen angeht, will ich auch bald mal 120Hz sehen in Verbindung mit mehr als HD. Das alleine wird schon die doppelte Leistung fressen, wenn man es in Spielen nutzen will. Und andere Farbräume mit höheren Farbauflösungen müssen früher oder später auch mal kommen. Wir hocken ja schon ewig auf 24Bit sRGB rum.
Also die Grafikbeschleuniger können in Zukunft, selbst wenn die Konsolen bremsen, trotzdem nicht all ihre Zusatzleistung in mehr Pixel stecken.
Kinman
2012-01-26, 15:27:37
Was die Leistungsanforderungen angeht, will ich auch bald mal 120Hz sehen in Verbindung mit mehr als HD. Das alleine wird schon die doppelte Leistung fressen, wenn man es in Spielen nutzen will. Und andere Farbräume mit höheren Farbauflösungen müssen früher oder später auch mal kommen. Wir hocken ja schon ewig auf 24Bit sRGB rum.
Ich sehe beides eher unkritisch. 120Hz gibt es für Leute, die es brauchen und wird so oder so immer mehr werden. Farbe in Spielen fand ich bisher ausreichend. Natürlich ist mehr besser, aber aus meiner Sicht wären mehr Farben weniger merkbar als höhere Auflösung. Allerdings wäre es sicherlich machbar, dass sich 10Bit Farbtiefe mal durchsetzt. Auch das könnten theoretisch schon etliche Monitore.
Also die Grafikbeschleuniger können in Zukunft, selbst wenn die Konsolen bremsen, trotzdem nicht all ihre Zusatzleistung in mehr Pixel stecken.
Wenn man davon ausgeht, dass die nächste Konsolengeneration gleich lang am Markt bleibt, wie die aktuelle, sich bei der Hardwareentwicklung auch nichts Gravierendes ändert und die Grafikleitung einer 6670 bestätigt, dann haben wir zum Ende der nächsten Konsolengeneration eine weit größere Diskrepanz zwischen Konsolen- und PC-Performance. Somit steht am PC im Schnitt mehr Power für mehr Auflösung zur Verfügung, wenn die Spiele keine spezielle PC-Anpassung genießen. Allerdings sind da sehr viele Wenns drin. Also mal sehen, was wirklich kommen wird.
lg Kinman
Nevermore4ever
2012-01-28, 01:33:58
Windows unterstützt das eigentlich ziemlich gut. Nur die Anwendungen müssen auch mitspielen, damit das ordentlich funktioniert.
Jupp. Es gibt zwar immer noch "blöde" Software, aber die DPI-Einstellungen lassen sich unter Windows 7 zumindest manuell bis auf 500 % (480 dpi) hochschrauben!
aufkrawall
2012-01-28, 01:47:14
Und andere Farbräume mit höheren Farbauflösungen müssen früher oder später auch mal kommen. Wir hocken ja schon ewig auf 24Bit sRGB rum.
Was geht denn nicht mit RGB24?
Tesseract
2012-01-28, 03:42:43
Was geht denn nicht mit RGB24?
echtes HDR.
24bit RGB wird am ausgabegerät immer von 0-100% gemappt. eigentlich bräuchte man ein farbmodell mit absoluten helligkeiten, damit die selbe farbe auf 2 ausgabegeräten gleich immer gleich hell ist, auch wenn einer maximal 200cd/m² und der andere 2000cd/m² kann.
aufkrawall
2012-01-28, 03:54:03
echtes HDR.
24bit RGB wird am ausgabegerät immer von 0-100% gemappt. eigentlich bräuchte man ein farbmodell mit absoluten helligkeiten, damit die selbe farbe auf 2 ausgabegeräten gleich immer gleich hell ist, auch wenn einer maximal 200cd/m² und der andere 2000cd/m² kann.
Das wäre wohl erst mit OLED in ferner Zukunft möglich, oder?
Zumindest gibt es wesentlich wichtigere Themen. Erstmal müssten IMO Matschtexturen, Klotzgeometrie und Bildflimmern überwunden sein, bevor man über exakte Helligkeit sinnieren kann.
Tesseract
2012-01-28, 04:19:03
Das wäre wohl erst mit OLED in ferner Zukunft möglich, oder?
Zumindest gibt es wesentlich wichtigere Themen. Erstmal müssten IMO Matschtexturen, Klotzgeometrie und Bildflimmern überwunden sein, bevor man über exakte Helligkeit sinnieren kann.
das ist seit jahren bzw. jahrzehnten möglich und nur eine frage des farbmappings. das problem ist, dass sich dieses farbsystem eingebürgert hat obwohl es eigentlich nur dann funktioniert, wenn alle monitore gleich hell sind.
die negativen auswirkungen spürt man auf aktuellen monitoren sehr deutlich: man kann fast kein gerät mehr mit 100% helligkeit betreiben, ohne augenschmerzen zu bekommen weil höhere maximale helligkeit bedeutet, dass gleichzeitig das ganze bild heller wird. wenn große teile des interfaces aus 100%-farbwerten besteht kann das natürlich nix werden.
mit einem absoluten farbmodell wär das kein problem: alle farbwerte, die höher als der maximalwert des monitors sind werden durch den maximalwert repräsentiert und wenn neuere geräte heller strahlen können, können die eben mehr vom farbraum darstellen. ein bild mit der moderaten helligkeit X (z.B. einem dunklen grauton) ist aber auf jedem gerät gleich hell.
aufkrawall
2012-01-28, 04:37:28
das ist seit jahren bzw. jahrzehnten möglich und nur eine frage des farbmappings. das problem ist, dass sich dieses farbsystem eingebürgert hat obwohl es eigentlich nur dann funktioniert, wenn alle monitore gleich hell sind.
Gibt es denn ein praktikables Modell mit absoluten Farben?
Außerhalb der Theorie natürlich. ;)
die negativen auswirkungen spürt man auf aktuellen monitoren sehr deutlich: man kann fast kein gerät mehr mit 100% helligkeit betreiben, ohne augenschmerzen zu bekommen weil höhere maximale helligkeit bedeutet, dass gleichzeitig das ganze bild heller wird. wenn große teile des interfaces aus 100%-farbwerten besteht kann das natürlich nix werden.
Kann man denn die bei heutigen Geräten üblichen Farb-/Kontrastwerte als wirklich realistisch bezeichnen?
Ich hab eher Zweifel, dass die Consumer-Monitore oder TVs technisch überhaupt in der Lage sind, ein halbwegs realistisches Bild darzustellen.
Mit OLED wirds vielleicht gehen, daher mein Einwurf dessen. Die Geräte müssten dann halt auch technisch nicht nur über RGB ansteuerbar sein, was ja derzeit nicht der Fall ist (In Zukunft mit OLEDs aber schon?).
PatkIllA
2012-01-28, 07:48:51
Jupp. Es gibt zwar immer noch "blöde" Software, aber die DPI-Einstellungen lassen sich unter Windows 7 zumindest manuell bis auf 500 % (480 dpi) hochschrauben!
Und Anwendungen die das nicht explizit unterstützen kann Windows Vista/7 auch als ganzes nachskalieren. AFAIK werden die dann be 120 dpi gerendert und das fertige Bild dann nachskaliert.
Wobei ich auf dem Laptop mit 147 dpi die normalen 96 dpi eingestellt gelassen habe, damit mehr drauf passt.
Tesseract
2012-01-28, 14:23:28
Gibt es denn ein praktikables Modell mit absoluten Farben?
ob es einen standard gibt weiß ich nicht, aber das farbmapping ist vom eigentlichen farbmodell weitgehend unabhängig. man müsste nur für das neue mapping einen größeren wertebereich nehmen und definieren wie das alte in das neue projiziert werden muss und ist sogar 100% abwärtskompatibel. so ein mapping kann man sich in 5 minuten überlegen. das problem ist nur es durchzusetzen.
Kann man denn die bei heutigen Geräten üblichen Farb-/Kontrastwerte als wirklich realistisch bezeichnen?
Ich hab eher Zweifel, dass die Consumer-Monitore oder TVs technisch überhaupt in der Lage sind, ein halbwegs realistisches Bild darzustellen.
darum geht es ja nicht. ob der monitor die farbwerte korrekt abbilden kann hängt vom panel, der kalibrierung usw. ab. aber das momentane system ist einfach broken-by-design. ein blatt papier im word hat 255/255/255 und wenn du in einem spiel direkt in die sonne schaust hat die wahrscheinlich auch 255/255/255 (wenn nicht sogar weniger weil gelbanteil) und dadurch funktioniert das ganze mapping von hinten bis vorne einfach nicht. entweder das papier ist zu hell oder die sonne zu dunkel, egal wie du den monitor/TV einstellst.
Aquaschaf
2012-01-28, 14:26:23
entweder das papier ist zu hell oder die sonne zu dunkel, egal wie du den monitor/TV einstellst.
Naja, aber ich will doch nicht tatsächlich von der Sonne im Spiel geblendet werden, oder?
PatkIllA
2012-01-28, 14:29:12
Naja, aber ich will doch nicht tatsächlich von der Sonne im Spiel geblendet werden, oder?Wieso nicht? Das wäre doch eine akkurate Reproduktion.
Wenn man erfasst wo der User hinschaut und die Helligkeit als ganze entsprechend regelt bräuchte man ja auch gar nicht unbedingt die horrenden Kontraste, da man dann für feine Unterschiede im restlichen Bild weniger empfindlich ist.
FlashBFE
2012-01-28, 15:50:21
Was geht denn nicht mit RGB24?
Ich weiß nicht, ob du Monitore mit einer Hintergrundbeleuchtung mit erweitertem Farbraum kennst. Wenn du bei denen den nativen Farbraum einstellst, wirken die Farben (v.a. rot und grün) stark überstrahlt und übersättigt. Die Farben sind dann falsch dargestellt, aber man sieht, was die Monitore anzeigen könnten. Wenn man dann wieder den sRGB Modus nimmt, stimmen die Farben, aber die Möglichkeiten des Monitors werden dadurch künstlich eingeschränkt, obwohl es gar nicht sein müsste.
PacmanX100
2012-01-28, 15:56:17
Natürlich werden sichtbare Kanten weniger ein Problem, wenn die Auflösung nur hoch genug ist. Aber dieses Ergebniss ist noch lange nicht in Sicht. Eine Verdopplung oder Vervierfachung der Auflösung wird kaum reichen.
Außerdem, das hat sich in den letzten Jahren gezeigt, wachsen nicht nur die Auflösungen, sondern auch Bildschirmgrößen mit. Ultrahohe Auflösen mögen kommen, für einen 50" kann das aber deutlich zu wenig sein. Da wird nachwievor Verbesserungspotential vorhanden sein. Man müsste sicherlich schon von fünfstelligen Auflösungen reden, bevor man irgendwelche Überlegungen anstellt. Und dann stellt sich die Frage, welche dieser Lösungen performanter zu realisieren ist.
Im Profibereich mags auch weiterhin einen Unterschied machen, ob nur das Auge diese Problemstellen nicht mehr wahrnimmt oder ob sie tatsächlich verschwunden sind.
aufkrawall
2012-01-28, 21:59:15
ein blatt papier im word hat 255/255/255 und wenn du in einem spiel direkt in die sonne schaust hat die wahrscheinlich auch 255/255/255 (wenn nicht sogar weniger weil gelbanteil) und dadurch funktioniert das ganze mapping von hinten bis vorne einfach nicht. entweder das papier ist zu hell oder die sonne zu dunkel, egal wie du den monitor/TV einstellst.
Hat mich bisher ehrlich gesagt nicht gestört.
Weder empfinde ich ein Blatt Word-Papier als zu dunkel, noch eine Lichtquelle in einem Spiel. Außerdem hat echtes Papier keine Eigenhelligkeit in Form einer Hintergrundbeleuchtung. :biggrin:
Wieso nicht? Das wäre doch eine akkurate Reproduktion.
Bei mir muss im Raum nicht die Sonne aufgehen, will ja nicht mit einer Sonnenbrille vorm Monitor sitzen.
Eine simulierte Blendung wär mir lieber, wobei mir das in BF3 auch schon auf den Keks geht.
Glaube nicht, dass es das ist, was der Kunde will. Realistisch ist nicht immer schön.
Sailor Moon
2012-01-29, 23:33:36
Gibt es denn ein praktikables Modell mit absoluten Farben?
Es gibt natürlich geräteunabhängige Farbräume, die dann im Farbmanagement als Verbindungsfarbräume dienen. Das XYZ-Normvalenzsystem wäre linear, wobei das natürlich keine fixierten Helligkeiten bedingt.
Mit OLED wirds vielleicht gehen, daher mein Einwurf dessen.
Das hier Geforderte werden wir auch mit OLED nicht sehen, und es hat auch erstmal nichts mit der Paneltechnologie zu tun.
Wir hocken ja schon ewig auf 24Bit sRGB rum.
Wir stecken hier in der gleichen Problematik wie im Consumer-Videobereich. Die Abwärtskompatibilität ist hochproblematisch, selbst wenn man einen ICC basierten Workflow implementieren und ihn auch auf Benutzerseite voraussetzen würde. Alleine Letzteres ist utopisch (und kein Allheilmittel - dafür ist die Variabilität in Bezug auf den Farbumfang viel zu groß). Losgelöst von solchen Bedenken hätte man natürlich viele Optionen und könnte z.B. auch die 8bit Quantisierung besser ausnutzen.
Keine Frage: Die Situation ist bereits jetzt alles andere als ideal: Auf Contentseite liegt in letzter Konsequenz ein Blackboxsystem vor, und auf Wiedergabeseite wird einfach entsprechend der Gerätecharakteristik abgebildet. Falls im Spiel die Tonwerte z.B. tatsächlich exakt in sRGB angelegt sind und auf einen Bildschirm mit erweitertem Farbraum ausgegeben wird, haben wir die gefürchteten Bonbonfarben. Außerdem wird die Gradation, unabhängig vom Farbumfang des Bildschirms, i.d.R. nicht mit der im Rahmen der Gammakorrektur unterstellten Charakteristik (sRGB != Gamma 2.2) übereinstimmen. Gut haben es hier besonders die Benutzer von Bildschirmen mit Farbraumemulation.
Gruß
Denis
Bevor wir uns über HDR-Displays unterhalten würde ich es erstmal begrüßen, wenn zumindest schonmal durchgängige Unterstützung für Farbmanagement da wäre. Gerade unter Windows ist das für die meiste Software (und praktisch sämtliche Games) immer noch ein Fremdwort.
darum geht es ja nicht. ob der monitor die farbwerte korrekt abbilden kann hängt vom panel, der kalibrierung usw. ab. aber das momentane system ist einfach broken-by-design. ein blatt papier im word hat 255/255/255 und wenn du in einem spiel direkt in die sonne schaust hat die wahrscheinlich auch 255/255/255 (wenn nicht sogar weniger weil gelbanteil) und dadurch funktioniert das ganze mapping von hinten bis vorne einfach nicht. entweder das papier ist zu hell oder die sonne zu dunkel, egal wie du den monitor/TV einstellst.
Absolute Helligkeit ist eigentlich kaum relevant, wenn dann geht es um den Helligkeitseindruck, welcher neben dem gesamten Bildinhalt natürlich stark vom Umgebungslicht abhängt. Bei Tageslicht Dokumente zu bearbeiten ist etwas anderes als im abgedunkelten Zimmer zu spielen.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.