PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : HDR-Ausgabegeräte


VivaLaHarry
2007-07-21, 16:20:24
moin zusammen,

als ich so mit meiner neuen Kamera (Canon EOS 400D) und diesen so genannten Belichtungsreihen gespielt habe ist mir mal in den Sinn gekommen, dass ich auch mal paar HDR - Fotos machen könnte. Nun gut ... 5 Bilder angefertigt: +2,0EV - -2,0EV und per PhotoMatix in ein HDR Bild umgerechnet.

Nun zum eigentlichen Thema: Im HDR-Vorschaufenster sieht das alles sehr verblüffend aus, jedoch beim umwandeln in ein LDR - Bild muss ich entweder wieder zuviel Dynamikumfang des Bildes abschneiden oder es unwirklich wirken lassen.

Wann wird es endlich soweit sein, dass wir alle Ausgabegeräte mit 48 bzw. 96 Bit Farbtiefe haben? ... Und wären diese mit den heutigen Grafikkarten auch ansteuerbar? ... Bisher hocken wir ja seit über einem Jahrzehnt auf 24 bzw. 32 Bit Farbtiefe rum, noch keine Besserung in Sicht? Außerdem frage ich mich, ob ein Farbsignal mit 96Bit überhaupt bei hohen Auflösungen und hoher Wiederholfrequenz per DVI übertragen werden könnte? ... oder müssten wir wieder auf analoge Mittel zurückgreifen? ... Und als letzte Frage hätte ich noch: Weshalb wird in Spielen ein HDRR Effekt suggeriert indem irgendetwas viel zu dunkel oder extrem überblendet ist? .. In der Fotografie möchte man dies doch durch HDRI gerade verhindern?

Sehr viele Fragen also, die ich zum Thema HDR habe ... und ich hoffe, dass sie mir auch gut und leicht verständlich beantwortet werden können.

MfG,
VivaLaHarry

Coda
2007-07-21, 19:31:18
Um den Dynamikumfang wirklich sinnvoll zu erhöhen müsste man die Displays viel heller machen und ich glaube nicht, dass sich jemand freiwillig blenden lässt.

In Spielen wird bisher viel Schindluder mit HDRR getrieben. Im Prinzip ist ja das Ziel dem menschlichen Sehempfinden näher zu kommen, d.h. z.B. Blauverschiebung bei sehr dunkeln Stellen und Blendeffekte wenn man ins freie läuft.

Das Problem ist momentan, dass HDR relativ viel Performance kostet und es ist oft so, dass man dann auch deutlich zeigen will dass sich etwas dadurch ändert, was natürlich dann total unrealistisch wirkt. Es wird aber meiner Meinung nach schon deutlich besser bei den neueren Spielen.

Gast
2007-07-21, 19:34:31
Das Problem ist momentan, dass HDR relativ viel Performance kostet und es ist oft so, dass man dann auch deutlich zeigen will dass sich etwas dadurch ändert, was natürlich dann total unrealistisch wirkt. Es wird aber meiner Meinung nach schon deutlich besser bei den neueren Spielen.

Man muss ja nicht unbedingt auf fp16-buffer setzen, oder?

Coda
2007-07-21, 19:57:55
Man muss eigentlich mehr als 8 Bit benützen, es sei denn man macht alles Single-Pass wie die Source-Engine. Also 16. Ob das jetzt FP16 oder ein anderes Format ist spielt seit G80/R600 keine Rolle mehr, es ist eher schneller als 2x8 Bit, weil man im Shader nicht noch rumrechnen muss.

drmaniac
2007-07-24, 13:17:27
schau mal hier


http://www.forum-3dcenter.org/vbulletin/showthread.php?t=252176&highlight=hdr
Vergesst ALLES was ihr kennt, PLASMA,LCD,OLED... schaut euch DAS mal an...HDR-Display

besonders die Videos als Vergleich zwischen unseren jetzigen Popel Displays und echten HDR Displays :)

VivaLaHarry
2007-07-29, 04:02:38
moin zusammen,

danke bisher für die Antworten. Jedoch bin ich bisher nicht sooo schlau geworden, wie ich es hätte sein wollen. Könnte sich vielleicht noch jemand dazu ermutigen, die Fragen, wie sie mir durch den Kopf gegen, zu beantworten? ... Das mit der Farbtiefe und DVI zum Beispiel wurde hier bisher noch gar nicht erwähnt.

Möchte mich schon'mal für jede weitere Antwort bedanken.

MfG,
VivaLaHarry

FlashBFE
2007-07-30, 09:20:43
DVI kann prinzipiell auch höhere Farbtiefen übertragen. Das scheitert in der Praxis nur daran, dass 1. DVI sowieso schon zuwenig Datenrate für größere Bildschirme hat, 2. kein Monitor was damit anfangen kann, 3. fast keine Grafikkarte einen größeren Farbraum ausgeben kann (ich kenn nur Matrox Parhelia 30Bit statt 24).

Ich würde sagen: Warte auf den Displayport. Vielleicht fangen dann die Monitor- und Grafikkartenhersteller irgendwann an, die neuen Möglichkeiten (also Datenrate) zu nutzen.

Roi Danton
2007-07-30, 20:26:07
Viele HDR Bilder haben einen Helligkeitsumfang von 24bit oder 32bit, ein jpg Bild 8bit. Die durchschnittlichen TFT-Displays schaffen 6 oder 8bit (nicht mit den maximal darstellbaren Farben verwechseln). Teurere Geräte 10bit, aber gibts noch etwas darüber?

Trap
2007-07-30, 20:38:43
Es gibt einen 12-bit Schwarzweiß-TFT von Eizo:
http://radiforce.com/en/products/mono-g33.html

Roi Danton
2007-08-05, 22:27:29
Tatsache. Hier ist auch noch einer mit 12bit: http://www.eizo.de/pool/spec/de_CG211.pdf

DanMan
2007-08-12, 20:03:42
Nun das aktuellste Beispiel dürfte wohl das hier sein: http://www.trustedreviews.com/displays/news/2007/02/05/Samsung-Debuts-LED-Blacklit-LCDs/p1

Das riecht stark nach der Brightside Technologie. Die wurden überigens neulich von Dolby gekauft. Man kann nur hoffen, dass dadurch die Marktreife schneller erreicht wird.