PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 64-Bit-Farbtiefe


Gast
2007-09-21, 22:55:24
Was wurde eigentlich draus, es wurde vor Jahren angekündigt directx9 wird 64bit farbtiefe unterstützen und Geforce 5 soll 64bit farbtiefe beherrschen. Nun sind Jahre vergangen und nix ist da.

Gast
2007-09-21, 22:58:10
Was wurde eigentlich draus, es wurde vor Jahren angekündigt directx9 wird 64bit farbtiefe unterstützen und Geforce 5 soll 64bit farbtiefe beherrschen. Nun sind Jahre vergangen und nix ist da.
Intern wird schon seit längerer Zeit mit höherer Präzision gerechnet. Heute sind 32 Bit pro Kanal und damit insgesamt 128 Bit das Maximum. Es wird allerdings noch eine Weile dauern, bis man die eigentliche Farbtiefe höher als 32 bzw. 24 Bit wird schrauben können.

lumines
2007-09-21, 23:01:35
wofür soll das gut sein? :smile:

Gast
2007-09-21, 23:02:39
wofür soll das gut sein? :smile:
Schönere Grafik.

tokugawa
2007-09-21, 23:15:19
HDR

Sonyfreak
2007-09-21, 23:18:56
Momentan tun sich ja viele Monitore noch schwer, das volle NTSC Farbspektrum darzustellen. Da wirds wohl noch länger dauern, bis sich sowas durchsetzt, denke ich mal.

mfg.

Sonyfreak

ibo85
2007-09-21, 23:41:34
wieviel bit sehen sehen wir überhaupt bzw könnten wir den unterschied erkennen?

LordDeath
2007-09-21, 23:41:38
kann unser auge denn mehr als ~4,3 milliarden farben erkennen? ich dachte immer, mit dieser farbpalette brauchen wir nicht mehr...

Gast
2007-09-21, 23:46:03
Die bessere Farbabstufung bringt mehr Feinheiten und weichere Übergänge. Schaut euch doch z.b. Homeworld2 an, die ganzen Hintergründe sind episch schön aber doch abgestuft...

Super Grobi
2007-09-21, 23:49:08
Schönere Grafik.

Zu sehen mit eigenem Auge oder nur messbar?

p.s.
und WENN "SEHBAR", wieviel fällt davon in einem Game auf und wie groß ist die extra Rechenleistung für das "bischen"? ICH (ICH = NIX FACHMANN) behaupte, das man irre viel mehr an Rechenlast hat, aber nur auf spezial hyper Monitore überhaupt einen Unterschiede sehen KÖNNTE

Sentionline
2007-09-21, 23:54:47
Ich denke besser gehts immer. Ob sinnvoll, sei dahingestellt.

Ich warte noch immer auf das HDR Fernsehen...:biggrin:

tokugawa
2007-09-22, 00:00:06
Also, nochmal zum HDR bzw zu floating-point-framebuffern:
Es geht ja nicht nur um das Endergebnis was am Ende am Bildschirm angezeigt wird. Sondern um die Berechnungsschritte (Beleuchtungsberechnungen dazwischen). Hier kann eine höhere Farb-Auflösung auch ein besseres Endresultat erzeugen, bzw. ist das ja eine der Vorraussetzungen für HDR.

Gast
2007-09-22, 00:16:04
Momentan tun sich ja viele Monitore noch schwer, das volle NTSC Farbspektrum darzustellenStrike! :up:

BH

Lightning
2007-09-22, 00:20:11
kann unser auge denn mehr als ~4,3 milliarden farben erkennen? ich dachte immer, mit dieser farbpalette brauchen wir nicht mehr...

Die 32 Bit, die wir in der Grafik haben, sind allerdings keine 4.3 Milliarden Farben. Denn 8 Bit fallen für den Alphakanal ab, bleiben also 24 Bit bzw. ~16.7 Mio Farben.

Falls du etwas anderes meintest entschuldige, wollte das nur vorsichtshalber richtig stellen.


Die bessere Farbabstufung bringt mehr Feinheiten und weichere Übergänge. Schaut euch doch z.b. Homeworld2 an, die ganzen Hintergründe sind episch schön aber doch abgestuft...

Diese Abstufungen liegen dann aber nicht daran, dass das Ausagabegerät zu wenig Farben darstellen kann, sondern dass, wie tokugawa schon sagte, die ungenaue interne Berechnung dafür verantwortlich ist.

Gast
2007-09-22, 00:36:12
Diese Abstufungen liegen dann aber nicht daran, dass das Ausagabegerät zu wenig Farben darstellen kann
Unter Umständen schon.

-

Ein häufiger Fehler ist es, die Farbtiefe nur auf Farbe zu beziehen. Dabei wird sehr häufig vergessen, dass auf dem Computer mit der Farbe zusammen auch die Helligkeitsabstufungen kodiert werden. Diese können wir recht genau unterscheiden. Deswegen braucht es auch mehr Farben. Ein sehr einfaches Beispiel: mit 32 Bit Farbtiefe können 256 Helligkeits-Abstufungen von Rot kodiert werden. Darunter Schwarz und Weiß am Ende, genau genommen sind es also 254. Wenn man einen solchen Verlauf auf dem ganzen Bildschirm darstellt, dann sollte bei heutigen Auflösungen klar sein, was passiert.

@Grobi:
Es braucht überhaupt keine "zusätzliche" Rechenpower. Die wird nämlich heute schon benutzt. Es braucht nur eins: Bessere Monitore. Und natürlich Unterstützung durch Treiber. Aber die kommt erst, wenn die Monitore da sind.

Gast
2007-09-22, 00:45:26
Wieviele Farben können oder konnten eigentlich (gute) CRTs darstellen?

24bit sind noch zu wenig. 64bit overkill. 48bit wären mMn vollkommen ausreichend. Jedenfalls wenn wenigstens MONITORE so ein Farbspektrum darstellen könnten :)

Gast
2007-09-22, 00:48:00
Es braucht überhaupt keine "zusätzliche" Rechenpower. Die wird nämlich heute schon benutzt. Es braucht nur eins: Bessere Monitore. Und natürlich Unterstützung durch Treiber. Aber die kommt erst, wenn die Monitore da sind.Monitore die jede beliebige Farbtiefe darstellen können, ob nun 16 Bit insgesamt oder 32 Bit pro Farbkanal, hat doch eigentlich jeder. Nur haben die meisten ihre Röhren halt schon in den Keller verbannt und hocken jetzt vor Bildschirmen, die teilweise nicht mal 24 Bit insgesamt darstellen können...

(del)
2007-09-22, 00:49:40
Mit einem CRT hat man keine "Abstuffungen" in Homeworld2? :|

Gast
2007-09-22, 00:54:33
Mit einem CRT hat man keine "Abstuffungen" in Homeworld2? :|Doch, hat man schon weil die Grakas halt bestenfalls 10 Bit pro Farbkanal ausgeben. Limitierend sind nicht die CRTs, limitiert haben früher die RAMDACs (und damit die verfügbare Ausgabefarbtiefe) und heutzutage DVI (und damit die verfügbare Ausgabefarbtiefe).

Gast
2007-09-22, 01:01:34
Röhren sind farbmäßig gut, aber auch alles andere als der heilige Gral. Und vor allem werden sie mit den gleichen Signalen gefüttert.

(del)
2007-09-22, 01:12:48
Röhre ist das eine. Was ist mit der Elektronik davor im CRT? Und wie ich sehe nützt mir das eh nichts, weil die Grakas bis auf paar Matrox (?) max.10bit ausgibt.

Die CRTs waren eine sehr sehr lange Zeit da. Entsprechende Grafikkarten blieben trotzdem aus :| Jettz rufen welche wieder nach besseren Monitoren... Wer sagt das DANN die entsprechenden Grakas kommen? Es hat wohl schon einmal nicht geklappt...

Gast
2007-09-22, 01:15:15
Der Display Port wird es richten, der bietet erstmals mehr als 24 Bit Farbtiefe fürs Ausgabegerät an.

Gast
2007-09-22, 01:31:22
Röhre ist das eine. Was ist mit der Elektronik davor im CRT?Gute Frage. So lange da nicht sinnlos analog-digital-analog rumgewandelt wird sollte die eigentlich kein Problem darstellen.
Und wie ich sehe nützt mir das eh nichts, weil die Grakas bis auf paar Matrox (?) max.10bit ausgibt.Glaube (einige?) Radeons könnens auch.
Die CRTs waren eine sehr sehr lange Zeit da. Entsprechende Grafikkarten blieben trotzdem aus :| Jettz rufen welche wieder nach besseren Monitoren... Wer sagt das DANN die entsprechenden Grakas kommen? Es hat wohl schon einmal nicht geklappt...Früher hatte man bei der Grafikqualität halt noch ganz andere Baustellen. Von derartigen "Luxusproblemen" wie zu geringer Farbtiefe konnte man damals doch noch träumen ;)

Gast
2007-09-22, 01:43:17
Glaube (einige?) Radeons könnens auch.Äh, also einige Matrox und IIRC (einige?) Radeons können auch 10 Bit pro Farbkanal, nicht mehr.

Gast
2007-09-22, 02:07:20
Die CRTs waren eine sehr sehr lange Zeit da. Entsprechende Grafikkarten blieben trotzdem aus :|
HDRR ist ein relativ neuer Trend. War wohl recht unglücklich, dass die Röhren ausgerechnet dann abgelöst wurden.

(del)
2007-09-22, 02:29:08
Radeons ab X1300 auf jeden Fall. Und das scheint auch mit DVI zu gehen (laut ATI). Mit VGA sowieso. Statt 24/32bit macht es also 30/38bit. 30bit ist genau das was PAL kann. 1.073.741.824 Farben.

Bei den Medizinern sind für viele grafische Darstellungen 16bit pro Kanal Standard. Bei den semipro und pro Fotografen (oder engagierten Hobbyisten) ebenfalls.
Da haben wir es. Ich frag mich schon länger was mir die ganze 48bit Bildverarbeitung mit DNG, RAW, TIFF, Scanern usw. usw. nützt, wenn die Ausgabe dessen was ich mit irgendwelchen Reglern und Stringgadgets veränder max. in 10bit erfolgt und mein GDM-5411 (CRT) kriegt vielleicht gerade so 8bit hin :confused:

edit:
Wenn man bei Homeworld2 mit 8bit Farbübergänge wahrnimmt - es sind ja oft prinzipbedingt 'einfarbige' Verläufe - dann wäre damit HDRR für mich erst ein sekundäres Problem. Und ich meine mit einer Radeon X1xxx, 30bit Farbtiefe und 1.073.741.824 Farben sollte man wenigstens das auf einem guten CRT nicht mehr wahrnehmen können. Ist das so? =) Spielt die Software/Anwendung selbst keine Rolle? Ich glaube Farbsäume sind eine größere Baustelle als daß es nur an schlechten TFTs liegen würde.

(del)
2007-09-22, 02:43:51
edit2:
Da ich in dem Fall nicht so im Stoff bin frage ich mich auch noch, ob man ein analoges Signal über den Widerstand von 2 Steckverbindungen und 1.5m Kabel zwischen der Graka und dem Monitor so auf den Weg schicken kann, daß man damit 1.073.741.824 Farbnuancen ab den obligatorischen 85 malen pro Sekunde sicher übermitteln kann :confused:

Wenn sich bei immer höheren Bildwiederholraten die Bildschärfe immer mehr sichtbar verschlechtert, verschlechtert sich nicht auch die Farbübermittlung?

Tiamat
2007-09-22, 10:21:15
Hi,
ich bin jetzt kein Profi was die Thematik angeht, aber um mehr Farben erzeugen zu können als 16,7 Mio , müsste man doch erst mal neue Farbräume definieren.
Bei den RGB Farben gibt es 255 Nuancen pro Grundfarben, was hoch 3 dann 16.7 Mio Farben ergibt.
Wie es bei den CMYK Modell aussieht , weiß ich nicht.
Letztendlich bleibt ja die Frage, wie hoch die physikalische Grenze des Farbraumes ist.
Würd mich mal interessieren ob es einen Farbraum gibt, der mit mehr als 16.7mio Farben ausgestattet ist.

aths
2007-09-22, 11:08:58
Was wurde eigentlich draus, es wurde vor Jahren angekündigt directx9 wird 64bit farbtiefe unterstützen und Geforce 5 soll 64bit farbtiefe beherrschen. Nun sind Jahre vergangen und nix ist da.GeForce FX rechnet intern bereits mit 128 Bit (davon 96 für die Farbe.)

Als Framebuffer-Format sind mit D3D10 64 Bit nicht mehr notwendig, da es interessante 32-Bit-Formate gibt, welche auch schön hohe Dynamik erlauben.


Hi,
ich bin jetzt kein Profi was die Thematik angeht, aber um mehr Farben erzeugen zu können als 16,7 Mio , müsste man doch erst mal neue Farbräume definieren.
Bei den RGB Farben gibt es 255 Nuancen pro Grundfarben, was hoch 3 dann 16.7 Mio Farben ergibt.Wer sagt denn das?

Außerdem rechnest du doppelt falsch. Es sind 256 Stufen pro Kanal, und die Gesamtzahl berechnet sich aus 2^(3*8). Wobei man somit viel mehr Farben als Helligkeitsstufen hat, und das wo unser Auge auf Helligkeit sehr viel empfindlicher reagiert als auf Farben.

RGB ansich kann man auch mit 3-3-2, 5-6-5, oder 10-10-10, 12-12-12, 16-16-16 und wasweißichdenn nutzen.

Gast
2007-09-22, 11:59:30
Hi,
ich bin jetzt kein Profi was die Thematik angeht, aber um mehr Farben erzeugen zu können als 16,7 Mio , müsste man doch erst mal neue Farbräume definieren.
Bei den RGB Farben gibt es 255 Nuancen pro Grundfarben, was hoch 3 dann 16.7 Mio Farben ergibt.
Wie es bei den CMYK Modell aussieht , weiß ich nicht.
Letztendlich bleibt ja die Frage, wie hoch die physikalische Grenze des Farbraumes ist.
Würd mich mal interessieren ob es einen Farbraum gibt, der mit mehr als 16.7mio Farben ausgestattet ist.
Ich kann Dir versichern, dass der "echte" physikalische Farbraum sehr viel mehr Abstufungen kennt, als RGB 3*8 erlaubt. :smile:

Gast
2007-09-22, 12:46:16
Ich warte noch immer auf das HDR Fernsehen...:biggrin:
Ich warte immer noch auf das HD Fernsehen.

Gast
2007-09-22, 21:06:13
Da haben wir es. Ich frag mich schon länger was mir die ganze 48bit Bildverarbeitung mit DNG, RAW, TIFF, Scanern usw. usw. nützt, wenn die Ausgabe dessen was ich mit irgendwelchen Reglern und Stringgadgets veränder max. in 10bit erfolgt und mein GDM-5411 (CRT) kriegt vielleicht gerade so 8bit hin :confused:


Ganz einfach, angenommen du hast ein Foto erstellt und auf diesem Foto ist ein kleiner Bereich drauf (z.b. eine Unterführung) der auf dem Bildschirm schwarz erscheint. Jetzt kannst du diesen Bereich etwas aufhellen und somit auch dort noch etwas erkennen.

Bei 8 Bit Farbtiefe führt das aufhellen aber ganz schnell zu unliebsammen Artefakten, sprich da sind keine Farbabstufungen herauszuholen.
Machst du das gleiche mit 16 Bit Farbtiefe, dann sieht der Bereich des Bildes nach dem Aufhellen trotzdem noch gut und natürlich aus, da die höhere Farbtiefe einen größeren Kontrastraum bietet.

Daher bringt dir 16 Bit Farbtiefe bei Fotos schon heute etwas, obwohl es dein Monitor nicht darstellen kann.

Coda
2007-09-22, 23:11:26
Moderne Grafikkarten können sogar in ein 128-Bit-Rendertarget rendern (FP32 pro Komponente). Die Ausgabe kann mit 10-10-10-2 erfolgen, also 10 Bit pro Farbkomponente. Das reicht auf jeden Fall.

(del)
2007-09-22, 23:59:20
Heißt das denn jetzt, daß Homeworld2 auf einer Radeon X1xxx und einem besseren CRT keine oder weniger sichtbare Farbverläufe zeigt oder heißt es das nicht?

aths
2007-09-23, 00:07:25
Moderne Grafikkarten können sogar in ein 128-Bit-Rendertarget rendern (FP32 pro Komponente). Die Ausgabe kann mit 10-10-10-2 erfolgen, also 10 Bit pro Farbkomponente. Das reicht auf jeden Fall.
Nicht wenn die Gamma-LUT 10 Bit hat. Dann gibts wieder Colorbanding. Ich will eigentlich eine Farbausgabe von mindestens 10, besser 12 Bit pro Kanal (ist dann nur schwierig zu machen beim 8-er Byte-System) und immer 2-3 Bit mehr in der Gamma-LUT. 30 Bit Farbe sind gegenüber 24 Bit Farbe natürlich schon ein Fortschritt. Ich wundere mich manchmal dass man nicht längst dithert um das sichtbare Colorbanding zu reduzieren.


Heißt das denn jetzt, daß Homeworld2 auf einer Radeon X1xxx und einem besseren CRT keine oder weniger sichtbare Farbverläufe zeigt oder heißt es das nicht?Unterstützt das Spiel denn 10-10-10-2?


edit2:
Da ich in dem Fall nicht so im Stoff bin frage ich mich auch noch, ob man ein analoges Signal über den Widerstand von 2 Steckverbindungen und 1.5m Kabel zwischen der Graka und dem Monitor so auf den Weg schicken kann, daß man damit 1.073.741.824 Farbnuancen ab den obligatorischen 85 malen pro Sekunde sicher übermitteln kann :confused:

Wenn sich bei immer höheren Bildwiederholraten die Bildschärfe immer mehr sichtbar verschlechtert, verschlechtert sich nicht auch die Farbübermittlung?Die räumliche Auflösung der Bildfarbe verschlechtert sich. Auf größeren Flächen sind natürlich trotzdem feine Abstufungen möglich. Bei digitaler Übertragung gibts irgendwann ein Bandbreitenproblem.

StefanV
2007-09-23, 00:31:25
Heißt das denn jetzt, daß Homeworld2 auf einer Radeon X1xxx und einem besseren CRT keine oder weniger sichtbare Farbverläufe zeigt oder heißt es das nicht?
Nein, aber auf 'ner Parhelia, da kannst nämlich 10bit/Farbe erzwingen.

(del)
2007-09-23, 00:38:17
Das frisst sich jetzt aber mit dem Anfang von #26... (?) Radeons sollen das können. Und was heißt erzwingen?

Gast
2007-09-23, 00:40:59
Das frisst sich jetzt aber mit dem Anfang von #26... (?) Radeons sollen das können. Und was heißt erzwingen?
Du weißt nicht was erzwingen heißt?

(del)
2007-09-23, 01:07:23
Witz komm raus :uup:

Wenn man Features erzwingen muß mit welchen die Hardware u.a. stark beworben wird (Matrox wie auch ATI), dann verstehe ich das nicht. Falls du es verstehst, erleuchte mich bitte.

StefanV
2007-09-23, 02:39:12
Öhm, so wie Trilineare Filterung, AF, FSAA, Pixelshader, Vertexshader, TnL?!

Sorry, aber Wenn man Features erzwingen muß mit welchen die Hardware u.a. stark beworben wird (Matrox wie auch ATI), dann verstehe ich das nicht. Falls muss man nicht verstehen :ugly:

Es gibt halt einige Dinge, die muss die Software unterstützen, damits wirklich funzt...

Gast
2007-09-23, 03:19:06
Leuchte, darum ging es doch :ugly: Nämlich wovon das alles sonst noch abhängig ist.

Wie man 'in' einer Anwendung das Rechnen mit 10bit statt 8bit erzwingen soll, verstehe ich weiterhin nicht. Selbst das Erzwingen von AA/AF, bzw. eben höheren Stufen davon als gedacht, läuft manchmal schief. Und die interne 8bit Rechnerei der Soft tweakt man auf 10bit wie?

aths
2007-09-23, 16:45:48
Es wäre relativ einfach, eine Option anzubieten, statt einem XRGB 8-8-8-8-Framebuffer einen 2-10-10-10-Framebuffer zu erzwingen.

Leuchte, darum ging es doch :ugly: Nämlich wovon das alles sonst noch abhängig ist.

Wie man 'in' einer Anwendung das Rechnen mit 10bit statt 8bit erzwingen soll, verstehe ich weiterhin nicht. Selbst das Erzwingen von AA/AF, bzw. eben höheren Stufen davon als gedacht, läuft manchmal schief. Und die interne 8bit Rechnerei der Soft tweakt man auf 10bit wie?Wie genau intern gerechnet wird kann man eh nicht beeinflussen. Via DX sind nur Mindestgenauigkeiten festgelegt, es darf grundsätzlich genauer gerechnet werden.

Coda
2007-09-23, 17:15:22
Nicht wenn die Gamma-LUT 10 Bit hat. Dann gibts wieder Colorbanding. Ich will eigentlich eine Farbausgabe von mindestens 10, besser 12 Bit pro Kanal (ist dann nur schwierig zu machen beim 8-er Byte-System) und immer 2-3 Bit mehr in der Gamma-LUT. 30 Bit Farbe sind gegenüber 24 Bit Farbe natürlich schon ein Fortschritt. Ich wundere mich manchmal dass man nicht längst dithert um das sichtbare Colorbanding zu reduzieren.
Aths. Ich hab bei keinem 24-Bit-Foto oder ähnlichem jemals Colorbanding gesehen. Das reicht eigentlich völlig, wenn man vorher in einen HDR-Target rendert und dann umkopiert.

12 Bit pro Kanal ist völlig übertrieben. 30 Bit reicht wirklich für jede Anwendung.

aths
2007-09-23, 18:27:46
Aths. Ich hab bei keinem 24-Bit-Foto oder ähnlichem jemals Colorbanding gesehen. Das reicht eigentlich völlig, wenn man vorher in einen HDR-Target rendert und dann umkopiert.

12 Bit pro Kanal ist völlig übertrieben. 30 Bit reicht wirklich für jede Anwendung.Gerade mal 1000 (ok, 1024) Graustufen.

Coda
2007-09-23, 18:36:03
Reicht doch völlig.

Mehr kann das menschliche Auge eh nicht unterscheiden, schon 256 sind schwierig.

aths
2007-09-23, 19:08:33
Wir können Millionen Helligkeitsstufen unterscheiden. Bei 256 Grau-Leveln ist bei heutigen Bildauflösungen beim linearen Verlauf das Banding schon ziemlich gut sichtbar. Bei üblicher Größe eines Fotoabzugs sieht man natürlich kein Banding.

(del)
2007-09-23, 19:20:27
Bei "1024" Stufen müßte ich auf einem Bildschirm aber langsam passen. Das wäre eine Baustelle die man damit für mich erstmal ad acta legen könnte. Man könnte sich dann zuerst wieder Shaderflimmern & Co annehmen.

Nichtsdestotrotz weiß ich immernoch nicht wie der Parhelia jeder Anwendung 30bit beibringen (erzwingen) will.
Genauso wie ich nicht weiß wie ATI etwas bewerben bzw. eher versprechen kann was anscheinend zuerst die Anwendung halten muß.

aths
2007-09-23, 19:47:02
Bei "1024" Stufen müßte ich auf einem Bildschirm aber langsam passen. Das wäre eine Baustelle die man damit für mich erstmal ad acta legen könnte. Man könnte sich dann zuerst wieder Shaderflimmern & Co annehmen.

Nichtsdestotrotz weiß ich immernoch nicht wie der Parhelia jeder Anwendung 30bit beibringen (erzwingen) will.Einfach in 10-10-10-2 rendern statt in 8-8-8-8.

Gast
2007-09-23, 21:07:55
Reicht doch völlig.
Das entscheidest nicht Du. Menschen mit normalen Augen haben da höhere Anforderungen.

Gast
2007-09-23, 21:09:51
Freuen wir uns doch einfach mal darüber, dass wir uns auch in diesem Bereich dem Optimum nähern. Mehr als 32 Bit pro Kanal würde tatsächlich keinen Sinn machen. Das heißt, dass die Leistung, die man bisher in die Erhöhung der Farbtiefe gesteckt hat, jetzt an anderen Stellen geliefert werden kann. Für den Desktop reichen evtl. auch 64 Bit Farbtiefe. Müsste man schaun. :smile:

Chris Lux
2007-09-23, 22:57:03
Reicht doch völlig.

Mehr kann das menschliche Auge eh nicht unterscheiden, schon 256 sind schwierig.
wenn die quantisierung gut ist reichen (soweit ich mich erinnern kann) schon 64 graustufen.

Exxtreme
2007-09-23, 23:10:45
Reicht doch völlig.

Mehr kann das menschliche Auge eh nicht unterscheiden, schon 256 sind schwierig.
Mhhh, meines Wissens nach kann das menschliche Auge wirklich Millionen von Helligkeitsstufen unterscheiden ... aber nur ein Paar Tausend Farben. Die Entwicklung der Grafikkarten geht also irgendwie verkehrt rum ... :ugly:

Gast
2007-09-23, 23:48:59
Ihr redet hier immer von den Augen ... aber es gibt auch andere Zwecke.

Was ist z.B. mit Dingen, die 1:1 kopiert und aufbewahrt werden sollen? Mit einem begrenzten Farbraum wird das schwierig.

Wenn wir z.B. mal ein Gemälde kopieren wollen, so wäre es doch erst dann wirklich realistisch, wenn es so realitätsgetreu wie möglich ist, auch wenn der Unterschied nur von Experten überhaupt erkannt werden kann.

Coda
2007-09-23, 23:51:52
Das hat doch nichts mit der Ausgabefähigkeit der Grafikkarte zu tun.

Das entscheidest nicht Du. Menschen mit normalen Augen haben da höhere Anforderungen.
Schwachsinn! Niemand unterscheidet einen Graustufenunterschied von 1/1024 bei normalem Kontrast. Selbst bei einem High-End-Monitor nicht.

Wir können Millionen Helligkeitsstufen unterscheiden.
Ja is klar. Du kannst also zwei Graustufen nebeneinander mit einem Unterschied von einem Millionstel unterscheiden. Völlig Blödsinn.

Das bezieht sich wohl darauf was das Auge maximal mit Zuhilfenahme der Iris noch wahrnehmen kann, da braucht man dann aber weit höhere Kontraste.

Bei 256 Grau-Leveln ist bei heutigen Bildauflösungen beim linearen Verlauf das Banding schon ziemlich gut sichtbar. Bei üblicher Größe eines Fotoabzugs sieht man natürlich kein Banding.
"Relativ gut sichtbar" ist bei mir was anderes. Und bei 1024 Abstufungen siehst du da nichts mehr. Aber gar nichts.

Nochmal zum einschätzen:
http://www.mental-asylum.de/files/banding.png

Der linke Teil ist 1/256 dunkler. Niemand kann mir erzählen dass noch unterscheiden zu können wenn es noch 3 Nuancen näher dran wäre.

Abgesehen davon kann man bei TFTs heute froh sein, wenn sie überhaupt 8 Bit Auflösung pro Komponente haben ohne Dithering.

Mr.Magic
2007-09-24, 00:17:02
http://www.mental-asylum.de/files/banding.png

Der linke Teil ist 1/256 dunkler. Niemand kann mir erzählen dass noch unterscheiden zu können wenn es noch 3 Nuancen näher dran wäre.

Also der Unterschied ist deutlichst zu erkennen. Sogar mit meinem lausigen TN-Panel.
Mach doch mal ein Bild, das 3 Nuancen näher dran ist. Am Besten ohne zu verraten welcher Teil dunkler ist. Dann können wir das selbst testen. ;)

Coda
2007-09-24, 00:19:00
Nein könnt ihr nicht, weil euere TFTs und Grafikkarten nicht mehr Auflösung haben.

Es ist zu erkennen, aber so minimal dass ich damit schon zufrieden wäre in einem Spiel. Ich hab seit es 32-Bit-Grafik gibt zumindest kein Banding mehr gesehen.

Sonyfreak
2007-09-24, 00:28:03
Nochmal zum einschätzen:
http://www.mental-asylum.de/files/banding.pngHier kann ich den Unterschied noch gerade so ausmachen. Wenn sich der Grauton aber statt 1/256 nur noch 1/1024 unterscheiden würde, würde ich glaube ich keinen Unterschied mehr erkennen können. (TN-Nutzer)

mfg.

Sonyfreak

mapel110
2007-09-24, 00:30:05
Auf den ersten Blick seh ich da auch keinen Unterschied. Erst wenn ichs genauer betrachte, kann ich da eine ganz sanfte Differenz sehen.
Auch TN-Panel-User. Hab jetzt keinen Bock, dafür den CRT anzumachen.

Wo wir bei der Sehfähigkeit des Menschen sind...
Viel wichtiger wären wohl mehr Grüntöne. Ich hab mal gelesen, dass der Mensch besonders diese stark unterscheiden kann.
Und btw dafür, dass der Mensch Millionen Helligkeitsstufen sehen können soll, nimmt seine Farbwahrnehmung im relativ Dunkeln seh stark ab. Nachts sind alle Katzen grau, sag ich da nur.
Ich hab jedenfalls meine Probleme, in der Dämmerung noch Farben wahrnehmen zu können. Vielleicht ist ja was Wahres dran an dem Spruch.

Coda
2007-09-24, 00:36:36
Ich hab jedenfalls meine Probleme, in der Dämmerung noch Farben wahrnehmen zu können. Vielleicht ist ja was Wahres dran an dem Spruch.
Das ist völlig normal. Das ist weil die farbsensitiven Rezeptoren nicht so sensitiv sind wie die Stäbchen die für Hell/Dunkel-Sehen zuständig sind.

Mr.Magic
2007-09-24, 00:47:27
Nein könnt ihr nicht, weil euere TFTs und Grafikkarten nicht mehr Auflösung haben.

Es ist zu erkennen, aber so minimal dass ich damit schon zufrieden wäre in einem Spiel. Ich hab seit es 32-Bit-Grafik gibt zumindest kein Banding mehr gesehen.

Wenn ich ganz gerade draufgucke ist es nur mit Konzentration zu erkennen. Momentan bin ich allerdings zurückgelehnt, und von schräg unten sehe ich den Unterschied deutlich. Aus der Perspektive sehe ich sogar das Banding in meiner Titlebar (Zune-Theme).

Gast
2007-09-24, 00:54:03
Warum streiten wir über sowas? Klar ist: Es gibt Fälle, wo mehr als 8 Bit was nützen. Und es wäre hohlköpfig da irgendwelche krummen Dinger mit 10 oder 12 Bit zu drehen. 16 Bit und gut. Übertragungsrate ist ab DisplayPort auch genug da.

Wer dann immer noch meint, dass er das nicht braucht, der stellt halt 32 Bit Farbtiefe ein und wird glücklich. Es gibt aber keinen Grund den anspruchsvollen Leuten ihren Spaß zu nehmen!

Coda
2007-09-24, 01:03:30
Also Bandbreite verschwenden brauchen wir auch ganz sicher mit DisplayPort nicht. Die Auflösungen steigen nämlich auch.

Ich will auch niemandem seinen Spaß nehmen. Ich sage nur, dass wir schon alles haben was wir brauchen. 30-Bit reicht für ein Bild ohne erkennbares Banding ohne weiteres und bevor man den Pulldown auf dieses macht kann man schon mit FP32 (!) rendern.

Neomi
2007-09-24, 01:30:12
Nochmal zum einschätzen:
http://www.mental-asylum.de/files/banding.png

Der linke Teil ist 1/256 dunkler. Niemand kann mir erzählen dass noch unterscheiden zu können wenn es noch 3 Nuancen näher dran wäre.

Den Unterschied sehe ich bei 8 Bit auf Anhieb, zumindest bei großflächigen Farbverläufen. In Spielen fällt das dann bei klarem Himmel an eben jenem auf, wenn er nicht gerade hellichten Tag darstellt. Bei dunkleren Farben oder Grautönen sieht man es besser. 10 Bit pro Komponente reichen mir da erst, zumindest kann ich ab dann kein Banding mehr sehen. Mit Dithering reichen mir dann auch 8 Bit.

Seitdem es FP-Rendertargets gibt, sind mehr als 8 Bit für das Endresultat eigentlich nicht mehr wirklich nötig. Beim runterrechnen macht man erst die Gamma-Anpassung und addiert dann eine Rauschtextur skaliert auf -1/512 inklusive bis +1/512 exklusive drauf, das wird dann gerundet. Fertig ist ein Bild mit gutem Dithering, wodurch auch die letzten Bandingartefakte verschwinden.

Als Beispiel gibt es noch zwei Bilder mit deutlich sichtbarem Banding (16 Helligkeitsabstufungen ab 64 in 1er-Schritten) und ohne Banding (gleicher Farbverlauf, aber mit Dithering).

mapel110
2007-09-24, 01:33:30
hm, mit Dithering wirds zwar deutlich besser, aber es ist immernoch sichtbar.

AvaloxGast
2007-09-24, 10:52:42
Also der Unterschied ist deutlichst zu erkennen. Sogar mit meinem lausigen TN-Panel.



Kann mir mal einen diese Logik erklären, kommt ja hier öfter vor?

TN Panels haben eine eingeschränkte Darstellung. I.d.R. wird auf 6 Bit pro Kanal reduziert.

Wenn das TN Panel überhaupt einen Unterschied in der Graustufe anzeigt, dann wird dieser Unterschied stärker ausfallen, als er in "Wirklichkeit" ist.

Es gibt also genau zwei Möglichkeiten. Es ist kein Unterschied vorhanden, oder es ist ein überzogenen Unterschied zu sehen.

Coda
2007-09-24, 11:46:45
Das erklärt wahrscheinlich auch, warum ich es auf nem S-IPS kaum seh...

Mr.Magic
2007-09-24, 13:01:26
Kann mir mal einen diese Logik erklären, kommt ja hier öfter vor?

TN Panels haben eine eingeschränkte Darstellung. I.d.R. wird auf 6 Bit pro Kanal reduziert.

Wenn das TN Panel überhaupt einen Unterschied in der Graustufe anzeigt, dann wird dieser Unterschied stärker ausfallen, als er in "Wirklichkeit" ist.

Es gibt also genau zwei Möglichkeiten. Es ist kein Unterschied vorhanden, oder es ist ein überzogenen Unterschied zu sehen.

Eben, ich bin eigentlich davon ausgegangen, dass mein TN da Dithering anwendet -> weniger sichtbar.

Avalox/Gast
2007-09-24, 14:51:13
Eben, ich bin eigentlich davon ausgegangen, dass mein TN da Dithering anwendet -> weniger sichtbar.

Macht er ja auch vermutlich. 1/256 Unterschied wird er ja eh nicht darstellen.
Aber Dithering ist bei TN ja auch unschön. Für ein zeitliches Dithering ist auch ein TN zu langsam, ansosten eben mit zu geringer Pixeldichte. Das Auge erkennt Muster doch recht zuverlässig. Für eine ordentliche Fehlerstreuung fehlt den Displays schlicht die Rechenleitung.

Huste mal vor deinem Display, dann erkennt man die Muster bewusster.

Mr.Magic
2007-09-24, 17:19:00
Macht er ja auch vermutlich. 1/256 Unterschied wird er ja eh nicht darstellen.
Aber Dithering ist bei TN ja auch unschön. Für ein zeitliches Dithering ist auch ein TN zu langsam, ansosten eben mit zu geringer Pixeldichte. Das Auge erkennt Muster doch recht zuverlässig. Für eine ordentliche Fehlerstreuung fehlt den Displays schlicht die Rechenleitung.

Huste mal vor deinem Display, dann erkennt man die Muster bewusster.

Was meinst du mit bewusster? Noch deutlicher?
Wäre ich nicht so faul, hätte ich längst testweise einen CRT aus dem Keller geholt.

RoNsOn Xs
2007-09-24, 18:40:32
ik uf meinen crt kann den farbunterschied auch erkennen bei dem bild von coda.

Ectoplasma
2007-09-25, 02:04:38
Das erklärt wahrscheinlich auch, warum ich es auf nem S-IPS kaum seh...

Habe ich auch. Eizo L797. Und man sieht den Unterschied doch recht deutlich. Hat aber auch etwas damit zu tun, welche Gammakorrektur man gewählt hat.

Ich glaube das mit dem Banding ist nur mißverständlich ausgedrückt. In einem HDRI braucht man genügend Farbauflösung und Kontrastabstufungen, um z.B. den Belichtungsausschnitt variieren zu können. Oder ein Tone-Mapping durchzuführen und zwar ohne Qualitätsverluste. In einem LDRI kann man einen Belichtungsausschnitt, z.B. für Iriseffekte, nicht vernünftig simulieren, da man mit mehreren Problemen zu kämpfen hat. Man erhält beispielsweise beim Verschieben eines Belichtungsausschnitts ein Clipping der Farbwerte im hellen Bereich. Rauschen verstärkt sich ebenfalls. Das Rauschen ist dann zumindest deutlich bei Fotos zu erkennen.

Ein sichtbares Banding bekommt man dann, wenn man in einem LDRI ein Histogrammausgleich zur Kontrastverstärkung durchführt. Zumindest ist dieser unerwünschte Effekt in einem LDRI erheblich deutlicher zu erkennen, als in einem HDRI.

Was will man mit HDRIs in Spielen eigentlichen erreichen? Natürlich neue Effekte. Und für diese Effekte benötigt man Operationen, die man mit LDRIs nie angewandt hat, bzw. nie anwenden konnte aufgrund der daraus resultierenden mangelhaften Qualität. Man kann sich das ganze Effektgeraffel übrigens ersparen, wenn man eine echten HDRI - Monitor hätte, den es von Dolby (vormals BrightSide) gibt. Allerdings ist dieser noch zu teuer für daheim.

(del)
2007-09-25, 02:15:49
ik uf meinen crt kann den farbunterschied auch erkennen bei dem bild von coda.Ich mit GDM-5411 und X1950pro irgendwie nicht :frown: Bzw. wirklich kaum. Gibts sowas auch in mind. 1024x768? Ich denke Skalieren je nach Algo könnte es verfälschen (?)

Gast
2007-09-25, 13:31:13
Ich mit GDM-5411 und X1950pro irgendwie nicht :frown: Bzw. wirklich kaum. Gibts sowas auch in mind. 1024x768? Ich denke Skalieren je nach Algo könnte es verfälschen (?)
Du kannst Dir sowas auch in Paint malen.

Spasstiger
2007-09-25, 14:02:50
Kann mir mal einen diese Logik erklären, kommt ja hier öfter vor?

TN Panels haben eine eingeschränkte Darstellung. I.d.R. wird auf 6 Bit pro Kanal reduziert.

Wenn das TN Panel überhaupt einen Unterschied in der Graustufe anzeigt, dann wird dieser Unterschied stärker ausfallen, als er in "Wirklichkeit" ist.

Es gibt also genau zwei Möglichkeiten. Es ist kein Unterschied vorhanden, oder es ist ein überzogenen Unterschied zu sehen.
TFTs tricksen da sowieso, ein und dieselbe Farbe kann auf unterschiedlichen Bildern mit verschiedenen Wellenlängen und Intensitäten dargestellt werden. Würde man genau ein Pixel ausmessen und das Bild wechseln, wobei dieses eine Pixel gleich bleibt, würde das Messgerät trotzdem eine Änderung registrieren. So kompensiert man den geringeren Farbraum.
Die Idee dahinter ist, dass der menschliche Sehsinn kaum empfindlich auf absolute Helligkeiten, aber sehr empfindlich auf relative Helligkeiten ist.
Du kannst ein Bild doppelt so hell machen, solange die Verhältnisse der Pixel relativ zueinander gleich bleiben, wird man subjektiv auch dieselben Farben sehen.

Avalox/Gast
2007-09-25, 14:29:36
Du kannst ein Bild doppelt so hell machen, solange die Verhältnisse der Pixel relativ zueinander gleich bleiben, wird man subjektiv auch dieselben Farben sehen.

Ja. Sonst würde ein Beamer nicht funktionieren. Die helle Wand, bleibt schliesslich hell. Man kann ja höchstens noch mehr Licht drauf "werfen".

DavChrFen
2007-09-25, 21:29:35
http://www.mental-asylum.de/files/banding.png

Der linke Teil ist 1/256 dunkler. Niemand kann mir erzählen dass noch unterscheiden zu können wenn es noch 3 Nuancen näher dran wäre.


Ich weiß ja nicht, aber ich erkenn auch so was, wenn die sich z.B. über einen grauen Hintergrund ein Rechteck wandert, das sich um einen Wert unterscheidet. z.B. Hintergrund 128/128/128 und das Rechteck 129/128/128. Wenn das Rechteck aber steht, dann seh ich es auch nicht mehr.
Ach ja, mein Monitor: CRT.

R300
2007-09-29, 14:10:44
Menschliche Augen reagieren generell stärker auf Bewegungen als auf Standbilder. Es ist normal dass es dann stärker auffällt.

Bei dem Bild von Coda sehe ich auch einen recht deutlichen Unterschied zwischen links und rechts und das noch aus über 5m Entfernung.

Hab einen Eizo S1931 (S-PVA), der laut Datenblatt eine 10-Bit LUT hat.
Dürfte also recht präzise sein bei der Farbwiedergabe. ;)