PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : HDR ab 2016/17 auch bei Spielen dank Unterstützung bei neuen Grafikkarten & Monitoren


Seiten : 1 2 [3] 4 5

24p
2016-12-06, 21:23:15
Was willst du überhaupt?
wenn du nur Blödsinn posten kannst
zu dir habe ich keinen Unsinn gepostet
Du redes Mist

Gehts Euch noch gut ? Kommt bitte runter :) Es geht doch nur um: HDR ab 2016 auch bei Spielen dank Unterstützung bei neuen Grafikkarten und Monitoren

und nicht um Leben und Tod (oder Flüchtlingspolitik) ;)

Sorry, aber manchmal muss man das Kind einfach beim Namen nennen. Mal ganz abgesehen davon muss man auch mal damit zurecht kommen, wenns mal etwas direkter wird, wenn einfach nicht eingesehen werden wull, das man einfach falsch lag. Das is im RL auch so und da hilft es auch nicht zu jammern.

Sven77
2016-12-06, 21:23:38
HDR ab 2016 auch bei Spielen dank Unterstützung bei neuen Grafikkarten und Monitoren

Wobei das langsam knapp wird mit 2016 :D

Kartenlehrling
2016-12-06, 22:02:24
01.dez.2016 USA für zb. OLED55B6P-U OLED65B6P-U (ohne HDR Gaming) auch die ganzen UH7500/7700 fehlt es.
01.dez.2016 USA[/B]]Detailed applicable model list : Please check with reference Tab exactly

* SW information

1. Improvement
1) Improve the Sony PS4 Pro no signal issue (HDCP fail)

2. Applicable model list
OLED55B6P-U
OLED65B6P-U
55UH7500-UA
60UH7500-UA
65UH7500-UA
55UH7700-UB
60UH7700-UB
65UH7700-UB
70UH6350-UB

3. Release History
[03.10.19]
1. To apply Netflix promotion
2. To improve 'No signal' problem happening upon HDCP 2.2 certification
3. To improve HDR performance with 4K Blu-Ray player connection

[03.15.07]
1. Apply to Dolby HDR for VUDU
2. Apply to HDR PQ for Amazon

[03.15.25]
1.Improve Dolby HDR Pop-up issue

[04.30.40]
1. Improve that motion remote controller doesn’t work after blue-tooth initialization pop-up.
2. Improve the lip-sync issue in RF DTV.

[04.30.65]
1. Improve the Sony PS4 Pro no signal issue (HDCP fail)

soo,....
und gerade das B6 Modell konnte man sich für ca. 2000€ kaufen und bekommt durch einen "alte"/andere SoC nicht in den Genuss von Gaming HDR.
Die Leute die sich am Sonntag bei Saturn ein LG 55UH950V für 1300€ gekauft haben, werden dagegen Glück haben und ein sehr guten HDR TV bekommen für wenig Geld.

30.Nov.2016 USA zb. für UH9500-UA und OLED65C6P-U (mit HDR-Gaming)
Detailed applicable model list : Please check with reference Tab exactly

* SW information

1. Improvement
1) To apply HDR Game Mode.

2. Applicable model list
86UH9500-UA
65UH9500-UA
75UH8500-UD
65UH8500-UA
60UH8500-UA
55UH8500-UA
75UH6550-UB
OLED65E6P-U
OLED55E6P-U
OLED65C6P-U
OLED55C6P-U

3. Release History
[03.10.17]
1. To apply Netflix promotion
2. To imporve 'No signal' problem happening upon
HDCP 2.2 certification
3. To improve HDR performance with 4K Blu-Ray
player connection

[03.15.10]
1.To improve screen white flashing issue
(Phenomenon : Watching TV temporarily white flash occurs on the entire screen)

[03.15.25]
To Improve video shaking issue in quick video screen.

[04.30.15]
1. To Improve the terms error

[04.30.19]
1. To apply HDR Game Mode.

Wobei das langsam knapp wird mit 2016

Im neuen RADEON Software Crimson ReLive Edition (http://cdn.wccftech.com/wp-content/uploads/2016/12/file-page30-copy-649x840.jpg), wird der HDR support für den nexten Treiber schon versprochen.

Sorry, aber manchmal muss man das Kind einfach beim Namen nennen
Den gibt's für alle 2016er exklusive den b6 schon.
Die hälfte der 2016er LG Modell sind nicht dabei und werden wohl auch nicht mehr kommen, und sind im moment nur für die US-Markt vorhanden.

wolik
2016-12-06, 23:21:37
Ich habe jetzt PS4Pro und FF15. Mein TV KS9500 wenn ich das Spiel FF15 auf HDR einstelle schaltet dann Meldung das jetzt HDR Modus aktiv ist (so wie bei shadows warrior 2)
Frage nun . Gibt es Videos oder Serien (soll wohl bei Neflix geben) wo Filme in HDR man sehen kann? Und kommt dann auch diese Meldung bei Euch ?

24p
2016-12-06, 23:27:38
Netflix bietet bei seinen neueren Eigenproduktionen HDR. Ansonsten gilt das auch für Amazon Prime.

Kartenlehrling
2016-12-06, 23:29:32
Hast du mal mit der PS4 oder direkt im TVmenu, die youtube app probiert?

https://www.youtube.com/playlist?list=PLyqf6gJt7KuGArjMwHmgprtDeY8WDa8YX
HDR Launch Playlist

wolik
2016-12-07, 22:06:22
Ja. Und das meinte ich. Es kommt kein Meldung von TV das dass HDR Modus jetzt aktiv ist. Netflix habe ich abgemeldet.

Kartenlehrling
2016-12-07, 22:32:35
Netflix muss du glaub ich das grösste Packet nehmen mit 4-Geräte Abo damit HDR ausgewählt werden kann.

Bei deinem Samsung 65KS9500 siehst du doch in der Infoleiste was das TV- oder App-Signal zuführt.
Automatische Erkennung ist glaub ich nicht immer vorhanden.

https://youtu.be/gcfyXikTE4o?t=658
Hier wird erklärt beim zuspielen von HDMI Anschlüsse.

Locuza
2016-12-09, 13:20:00
http://www.gamestar.de/hardware/praxis/tft-monitore/3271227/der_technik_trend_2016_p2.html

Keine Ahnung ob das schon einmal hier thematisiert wurde, aber AMD verliert aktuell deutlich weniger Performance mit HDR und die Entscheidung HDR auf 8-Bit zu beschränken (Unter HDMI 2.0) scheint die Richtige gewesen zu sein, die Bildqualität ist höher.

scully1234
2016-12-09, 14:24:21
Entscheidung HDR auf 8-Bit zu beschränken (Unter HDMI 2.0) scheint die Richtige gewesen zu sein, die Bildqualität ist höher.

Das 8 bit mehr Bildqualitaet liefert wie 10bit , kann unter gleichen Vorrausetzungen, jetzt aber nicht dein voller Ernst sein

Das waere wie komprimierten Kontent, eine artefaktfreiere Wiedergabe zu konstatieren, wie unkomprimierten Material

das hast du hoffentlich gelesen in dem ''Vergleichstest''

PC-Monitore mit passenden Helligkeitswerten und 10 Bit Farbtiefe sind aktuell noch nicht auf dem Markt. Wir haben verschiedene Monitor-Hersteller kontaktiert und zu ihren HDR-Plänen befragt, konkrete Antworten gab es leider nur von AOC (»erstes Quartal 2017«)

Wenn das 2017 mal zutrifft kann man ja mal ein Fazit dazu ziehen

Palpatin
2016-12-09, 14:42:23
Artikel nicht gelesen? Da 10bit 4:4:4 bei 60HZ UHD unter HDMI 2.0 nicht möglich ist. Kann man nur 8bit 4:4:4 vs 10 bit 4:2:2 Vergleichen und bei Shadow Warrior sieht ersteres sowohl bei NV als auch bei AMD besser aus.

Locuza
2016-12-09, 14:44:49
@ scully

Es existieren aber nicht die gleichen Voraussetzungen, AMD und Nvidia verarbeiten aktuell den HDR-Content unterschiedlich und unter HDMI 2.0 muss man einen Kompromiss wählen.

scully1234
2016-12-09, 14:49:18
Artikel nicht gelesen? Da 10bit 4:4:4 bei 60HZ UHD unter HDMI 2.0 nicht möglich ist. .

Das ist derzeit bei deren Equipment nicht moeglich

Aber ueber HDMI 2.0 geht auch 4:4:4 bei 10 bit und 60 HZ

https://www.heise.de/newsticker/meldung/Onkyo-Receiver-4-4-4-Farbabtastung-auch-bei-4K60-Videos-2635739.html

Also sollte man mit Beurteilungen diesbezueglich doch wohl abwarten, bis entsprechende Peripherie vorhanden ist, und nicht ein Fazit ziehen wo noch keines herzustellen ist

00-Schneider
2016-12-09, 15:55:15
Wann ist mit HDMI 2.1 zu rechnen? Noch 2017?

scully1234
2016-12-09, 16:47:15
Wann ist mit HDMI 2.1 zu rechnen? Noch 2017?

Um was zu tun?

Du brauchst keinen neuen Standard fuer eine 4:4:4 Abtastung mit 10bit, das geht bequem noch ueber die 2.0 Pipeline ,und in der Movie Sektion obendrauf noch mit dem HDCP 2.2 ''Geschlunze'',falls jemand sich den Hobbit mit 48FPS antun moechte


Gamestar ist da auch nicht wirklich die beste Anlaufstelle. Wenn es um solche Belange geht ,ist man in der Hifi/TV Sparte an einer besseren Adresse

Oder willst du von der Bandbreite auf 120 HZ hoch?

24p
2016-12-09, 17:06:51
Was dir gamestar mit 8 bit getestet hat, hat nichts mit HDR zu tun. Für HDR braucht es 10 bit um die höheren Helligkeitsstufen darzustellen (und so nebenbei auch wenigstens 540 nits). Was da gzeigt wurde, war lediglich ein anderes Tonemapping, denn in HDr wird eh schon seit Ewigkeiten gerendert, nur eben wieder per 8 bit ausgegeben. Wenn da das Bild anders aussieht, dann liegt es daran, dass AMD und Nvidia das Bild in HDR eben anders auf 8 bit anzeigen. All das wäre aber auch so möglich, wenn es der Contentersteller so gewollt hätte, da weiterhin nur 8 bit übertragen werden und der Monitor kein HDR darstellt.
Die Nachteile kann man ja anhand des Bandings bei nvidia gut sehen, AMD scheint dies per Postprocessing glattzubügeln.
Zu glauben, dass man ohne HDR nur ein total geclippten Himmel bekommt, so wie es hier suggeriert wird, ist unsinn. Das liegt daran, dass sich der Contentersteller dafür entschieden hat es so umzusetzten, um die hoheren Helligkeiten zu simulieren. Er hätte es von sich aus auch genau so darstellen können, wie hier von AMD und nvidia per 8 bit.

x-dragon
2016-12-09, 17:11:51
Das ist derzeit bei deren Equipment nicht moeglich

Aber ueber HDMI 2.0 geht auch 4:4:4 bei 10 bit und 60 HZ

https://www.heise.de/newsticker/meldung/Onkyo-Receiver-4-4-4-Farbabtastung-auch-bei-4K60-Videos-2635739.html

Also sollte man mit Beurteilungen diesbezueglich doch wohl abwarten, bis entsprechende Peripherie vorhanden ist, und nicht ein Fazit ziehen wo noch keines herzustellen ist Ich kenne mich damit nicht so aus, aber hier ließt sich das anders:

http://www.hdmi.org/manufacturer/hdmi_2_0/hdmi_2_0_faq.aspx#146

scully1234
2016-12-09, 17:13:33
Die AV Receiver die so spezifiziert sind, sind doch nun nicht erst seit gestern im Umlauf

Du bekommst von allen aktuellen, und sogar aelteren Modellen per Update ,die Option am HDMI Port

ausserdem haettest du den 2.0a/b Standard bemuehen muessen dafuer

http://www.hdmi.org/manufacturer/hdmi_2_0/index.aspx

x-dragon
2016-12-09, 18:21:33
Achja stimmt, da gab es ja noch Updates, danke :).

scully1234
2016-12-09, 18:28:05
Die PS 4 Pro wirbt glaub ich auch mit 4:4:4 Chroma Werten bei 60 Frames ,wenn ich das letztens richtig gelesen habe

Problematisch an der Sache, sind aller hoechstens Transmitter an aelteren 2.0 Ports ,die die erhoehte Bandbreite von 18Gbps ,nicht schultern koennen

DanMan
2016-12-09, 19:34:27
HDR braucht es 10 bit um die höheren Helligkeitsstufen darzustellen
Das stimmt so nicht. Die Quantisierung hat mit den Maximalwerten nichts zu tun. Du kannst auch mit 8bit (4bit, ...you name it) HDR ausgeben. Gibt natürlich viel mehr Banding, aber möglich ist es absolut.

FlashBFE
2016-12-09, 20:19:21
Aber ueber HDMI 2.0 geht auch 4:4:4 bei 10 bit und 60 HZ

https://www.heise.de/newsticker/meldung/Onkyo-Receiver-4-4-4-Farbabtastung-auch-bei-4K60-Videos-2635739.html

Also sollte man mit Beurteilungen diesbezueglich doch wohl abwarten, bis entsprechende Peripherie vorhanden ist, und nicht ein Fazit ziehen wo noch keines herzustellen ist
Falsch. Dein Link widerspricht dir selbst, denn dort ist keinerlei Sprache von 10Bit und HDR.

Du brauchst keinen neuen Standard fuer eine 4:4:4 Abtastung mit 10bit, das geht bequem noch ueber die 2.0 Pipeline Nein, 3840x2160x30Bitx60Hz bei 4:4:4 geht eben nicht:
http://www.hdmi.org/manufacturer/hdmi_2_0/hdmi_2_0_faq.aspx

Does HDMI 2.0 support BT.2020 (rec.2020) colorimetry?


Yes. HDMI 2.0 includes support for BT.2020 Colorimetry with 10 or more bits of color depth.
Video Formats defined in BT.2020 and supported by HDMI 2.0 specification:
– 2160p, 10/12 bits, 24/25/30Hz, RGB/4:2:2/4:4:4
– 2160p, 10/12 bits, 50/60Hz, 4:2:0/4:2:2

Palpatin
2016-12-09, 20:45:33
Das bestätigt auch alles was ich bisher gelesen habe. Entweder 8bit 4-4-4 60HZ oder 10bit 4-2-2 60HZ.
in 30HZ geht natürlich auch 4-4-4 + 10bit.
Bei Displayport ging es aber dafür gibt es keine/kaum HDR Endgeräte bisher.
Auch die PS4 Pro gibt in 4k HDR nur 4-2-0 + 10 bit aus.

scully1234
2016-12-09, 21:42:57
Falsch. Dein Link widerspricht dir selbst, denn dort ist keinerlei Sprache von 10Bit und HDR.


Es wird wohl kaum ein neuer hochpreisiger AV Receiver, egal welchen Herstellers fuer 8 bit beworben werden ,wenn der UHD Blu Ray Standard schon 10 bit bei 4:2:0 Chroma Werten vorsieht

Ganz davon ab welche Bandbreiten deren HDMI Ports darueber hinaus noch liefert, wenn er zukunftsicher sein moechte und bereits 2.0b abdeckt

NOTICE: Previously, HDMI Specification Version 2.0b (HDMI 2.0b) only supported HDR (High Dynamic Range) video transport in the SMPTE ST 2084 EOTF (as applied in the media profile commonly known as HDR10), by referencing the CTA861.3 specification. The Consumer Technology Association (CTA) has recently notified the HDMI Forum of the adoption of a new version of the CTA-861 Specification, CTA-861-G. This new version provides additional support for HDR Video transport by including (among others) an extension to the static metadata signaling to include the HLG (Hybrid Log Gamma) EOTF

ottoman
2016-12-09, 22:30:35
Der Link zu dem Onkyo AVR ist 1,5 Jahre alt und dort ist keine Rede von HDR. Sieh es einfach ein, über HDMI 2.0 geht eben kein 4:4:4 bei 10 bit und 60 Hz. Die 60Hz sind entweder nur mit 8 bit oder mit Farbunterabtastung möglich. Das sieht man auch schön in den Einstellungen der PS4 Pro.

DanMan
2016-12-09, 22:32:17
...über HDMI 2.0 geht eben kein 4:4:4 bei 10 bit und 60 Hz. Die 60Hz sind entweder nur mit 8 bit oder mit Farbunterabtastung möglich.
In Kombination mit 2160p, richtig. Bei 1080p (z.B.) ist das kein Problem.

24p
2016-12-09, 22:53:59
Das stimmt so nicht. Die Quantisierung hat mit den Maximalwerten nichts zu tun. Du kannst auch mit 8bit (4bit, ...you name it) HDR ausgeben. Gibt natürlich viel mehr Banding, aber möglich ist es absolut.

Genau das meinte ich ja. HDR haben wir auch jetzt schon, wenn man so will. Es wird intern schon längst so berechnet. Das einzig neue bei bei PC Spielen ist hier, dass es eben auch in einer höheren Genauigkeit als 8bit ausgegeben werden kann. Was da aber die gamestar macht ist nichts anderes als was schon seit Jahren geht und tw auch gemacht wird. Der Entwickler hat hier nur eben vorgesehen, dass es statt banding an Himmel einen Überstrahleffekt gibt.

00-Schneider
2016-12-09, 23:51:36
Was ist eigentlich mit 12bit HDR? Was ist der Vorteil ggü. 10bit? Warum wird das so wenig unterstützt?

DanMan
2016-12-10, 11:52:20
Genau das meinte ich ja. HDR haben wir auch jetzt schon, wenn man so will. Es wird intern schon längst so berechnet. Das einzig neue bei bei PC Spielen ist hier, dass es eben auch in einer höheren Genauigkeit als 8bit ausgegeben werden kann. Was da aber die gamestar macht ist nichts anderes als was schon seit Jahren geht und tw auch gemacht wird. Der Entwickler hat hier nur eben vorgesehen, dass es statt banding an Himmel einen Überstrahleffekt gibt.
Den Gamestar Artikel hatte ich erst gar nicht angeschaut. Ist sowieso Computerbild-Niveau und beinhaltet so einigen Stuss.

Jedenfalls hatten wir bisher nur HDR-Rendering, und jetzt eben auch HDR-Ausgabe. Du schmeißt aber immer noch Dinge in einen Topf, die gesondert betrachtet gehören.

Bisher hatten wir einen effektiven Helligkeitsbereich von ca. 0 - 100 cd/qm. Ob ich den jetzt in 8 oder 10 bit unterteile ändert am Maximalwert nichts. Mit HDR-Ausgabe haben wir derzeit einen tatsächlichen Ausgabebereich von ca. 0-1000 cd/qm. Auch da kann ich mir prinzipiell aussuchen, wie oft ich den unterteilen will. Je mehr bit, desto besser wird natürlich Banding reduziert. Aber man muss nicht zwingend 10 oder 12 bit verwenden um HDR darzustellen zu können.
Was ist eigentlich mit 12bit HDR? Was ist der Vorteil ggü. 10bit? Warum wird das so wenig unterstützt?
Noch feinere Abstufungen, noch höhere Bandbreite nötig und HDMI gerät jetzt schon ins Schwitzen (nur Farbunterabtastung bei 2160p60 10bit HDR möglich).

24p
2016-12-10, 12:08:02
Nein tu ich nicht. Lese bitte meinen Beitrag gründlich. Dass wir bereits seit Ewigkeiten in HDR rendetn habe ich bereits beschrieben und das wir jetzt erst die HDR Ausgabe bekommen ebenso. Nur gibt die gamestar hier eben keun HDR aus, da deren Monitor das nicht akzeptiert.

DanMan
2016-12-10, 12:19:20
Nur gibt die gamestar hier eben keun HDR aus, da deren Monitor das nicht akzeptiert.
Welcher Monitor? Im Artikel steht LG 55UH850V. Das ist ein HDR TV. Auf einem nicht-HDR Gerät hätten sie HDR in Shadow Warrior 2 erst gar nicht aktivieren können. Meinst du der TV hat nur ein 8bit Panel?

24p
2016-12-10, 12:29:20
Oh ups, ich dachte das wäre ein lg monitor. Dann können Sie die Spitzenhelligkeiten darstellen, es ist nur die Frage ob das bei 8 bit so viel sinn macht. 8 bit deswegen, weil die HDR Ausgabe beim AMD nur mit 8 bit möglich ist, was imo ziemlich fragwürdig ist. Hat schon seinen Sinn, dass die uhd Alliance da min. 10 bit vorschreibt.

x-dragon
2016-12-10, 12:33:40
https://www.heise.de/newsticker/meldung/Bedeutende-HDMI-Ankuendigung-dynamisches-HDR-und-haerterer-Kopierschutz-3565674.html

Wenn man das so ließt, sollte man scheinbar erstmal abwarten, bevor man sich vielleicht eine jetzt schon "veraltete" Schnittstelle ins Haus holt ...

scully1234
2016-12-10, 12:49:17
Was ist eigentlich mit 12bit HDR? Was ist der Vorteil ggü. 10bit? Warum wird das so wenig unterstützt?


Hier werden die zwei Formate erlaeutert

http://www.digitalzimmer.de/artikel/wissen/hdr-10-dolby-vision-unterschied/


Dolby ist bishere auch der einzige der auf 12 bit rauf geht, und es gibt auch nicht gerade viel Peripherie die das derzeit unterstuetzt

DanMan
2016-12-10, 12:55:22
https://www.heise.de/newsticker/meldung/Bedeutende-HDMI-Ankuendigung-dynamisches-HDR-und-haerterer-Kopierschutz-3565674.html

Wenn man das so ließt, sollte man scheinbar erstmal abwarten, bevor man sich vielleicht eine jetzt schon "veraltete" Schnittstelle ins Haus holt ...
Hmmm. :/

Naja, klingt für mich erstmal so, als ob das auch per Firmware-Update nachrüstbar wäre, sofern der Prozessor im TV schnell genug für die Abarbeitung ist. Wenigstens wenn es pro Szene genutzt wird, und nicht je Frame wie bei DV. Ansonsten sind die günstigeren TVs schon mal draußen.

scully1234
2016-12-10, 13:02:39
Hmmm. :/

Naja, klingt für mich erstmal so, als ob das auch per Firmware-Update nachrüstbar wäre, .

Das ist doch das was Dolby umsetzt

Hinzu kommen zwei wesentliche Unterschiede bei der Übertragung. Während HDR-10 mit statischen Metadaten arbeitet, sind die Zusatzinformationen bei Dolby Vision dynamisch


Und ohne Dekoder geht da wohl nichts, das ist doch schon lizensiert

Der Dolby-Code wäre damit nur eine Erweiterung des bestehenden HDR-Signals auf der Blu-ray-Disc. Um die 12-Bit-Auflösung zu verarbeiten, braucht der Player allerdings besondere Decoder-Chips, die erst in kommenden Geräten enthalten sein werden. Ähnlich aufwendig ist die Signalverarbeitung in TV-Geräten. Und obendrein müssen die Hersteller eine Lizenzgebühr an Dolby bezahlen

Wenn die das Verfahren mit Lizenz schon unter Dach und Fach haben, wird die Ankuendigung des HDMI Konsortium nur noch mal Werbung fuer Dolby werden

Kann mir kaum vorstellen das jemand da nun fast das selbe baut, ohne mit denen Probleme zu bekommen, oder entsprechend zu lizensieren

00-Schneider
2016-12-10, 13:36:17
Wenn man das so ließt, sollte man scheinbar erstmal abwarten, bevor man sich vielleicht eine jetzt schon "veraltete" Schnittstelle ins Haus holt ...


Mal sehen, wie es Ende 2017 mit HDMI 2.1 ausschaut. Da wollte ich mir eigentlich einen neuen TV+AV-Receiver kaufen.

Werde aber definitiv mit dem Kauf solange warten, bis HDMI 2.1 raus ist, ansonsten kaufe ich ja veraltete Technik...

Sailor Moon
2016-12-10, 14:02:00
Bisher hatten wir einen effektiven Helligkeitsbereich von ca. 0 - 100 cd/qm.
In der Reproduktion konnte man immer schon faktisch unbegrenzt hohe Leuchtdichten ohne Zunahme von Tonwertabrissen in den Tiefen erzielen. Schon für eine valide Abmusterung nach P2 lande ich für den Monitor bei 160 cd/m², nach P1 noch einmal deutlich mehr. Wichtig ist in diesem Zusammenhang, dass bereits eine Gamma 2.2 Tonwertkurve in den Tiefen eigentlich überbestimmt ist. Deutlich gleichabständigere Ergebnisse liefert die Helligkeitsachse in CIELAB mit linearem Anteil den absoluten Tiefen. Das scheint nun im Widerspruch zu den im Zusammenhang mit HDR lancierten Informationen zu stehen. Allerdings definiert sich die hier zugrundeligende Tonwertkurve - angelehnt, wie DICOM* im medizinischen Bereich, an das Barten-Modell - über lokale Kontrastunterschiede. Das führt zu einer durchaus guten Worst-Case Abschätzung und ist für das bei HDR stark in Richtung der Tiefen verschobene Histogramm (um die Spitzenhelligkeiten abzubilden ohne die durchschnittliche Helligkeit zu erhöhen) eine gute Basis. Das gilt aber eben nicht per se.

*
Wobei die Umsetzung hier in eine ganz andere Richtung läuft. Zwischen konkretem Schwarz- und Weißpunkt wird die JND-Indexspanne gleichmäßig verteilt.

scully1234
2016-12-10, 14:30:33
Werde aber definitiv mit dem Kauf solange warten, bis HDMI 2.1 raus ist, ansonsten kaufe ich ja veraltete Technik...


Ob das das richtige Zeichen an die Clowns ist??

Genau genommen ''brauchen'' sie doch jetzt nur wieder eine neue Schnittstelle, weil ihr ach so toller HDCP 2.2 schon wieder abgeraucht ist

Ginge es nicht staendig um diese Paranoia , wuerden wir fast mit HDMI 1.4 noch auskommen, aus technischen Gesichtspunkten.

Der Bandbreitenausgleich fuer die gestiegene Datenmenge des eigentlichen Videomaterials ,ist mit heutigen Transpondern ja nur kosmetischer Natur.

Defakto bedeutet ''veraltet'' nur ,das es der Filmindustrie mal wieder stinkt, das ein paar Kopier Nerds ihre UHD Scheiben, schon wieder unverschluesselt in Umlauf bringen.

Der leidtragende ist wieder mal der normale User, der sich daheim ein Bundle an Equipment installiert,was er nach 2 Jahren wieder in die Tonne treten kann,wegen solcher Sperenzchen.

Hier waere die EU ja mal gefordert, dieser unsäglichen Ressourcenverschwendung einen Riegel vor zu schieben, aber da hat die Content Mafia wohl ''bessere'' Argumente, oder sollte ich lieber sagen einen groesseren Geldbeutel

00-Schneider
2016-12-10, 17:28:38
Ginge es nicht staendig um diese Paranoia , wuerden wir fast mit HDMI 1.4 noch auskommen, aus technischen Gesichtspunkten.


Naja, wenn 60Hz + HDR erreicht werden sollen, siehts halt schlecht aus mit der Bandbreite. Und wenn sich später 12bit durchsetzt, kann ich mir sofort wieder einen neuen TV und einen neuen Receiver kaufen...

24p
2016-12-10, 18:07:01
Das wirst du jetzt auch dürfen.

wolik
2016-12-10, 23:27:32
Ich habe mir bei Netflix HDR Serien angeschaut. Die Anzeige (wie bei Spielen PC oder PS4pro) springt nicht ein. Von besseren Qualität (wie bei SW2) nicht zu sehen. Ich gehe von veraschen aus, was HDR bei tube und netflix betrifft.

DanMan
2016-12-11, 01:33:04
Ich habe mir bei Netflix HDR Serien angeschaut. Die Anzeige (wie bei Spielen PC oder PS4pro) springt nicht ein. Von besseren Qualität (wie bei SW2) nicht zu sehen. Ich gehe von veraschen aus, was HDR bei tube und netflix betrifft.
Die Netflix App im TV sollte HDR unterstützen. Youtube funktioniert derzeit noch nicht überall.

Kartenlehrling
2016-12-14, 15:53:00
http://www.lgnewsroom.com/2016/12/lgs-newest-most-exciting-4k-hdr-monitors-coming-to-ces-2017/
LG’S NEWEST, MOST EXCITING 4K HDR MONITORS COMING TO CES 2017

looking glass
2016-12-14, 15:56:49
32 Zoll für ein Monitor, ist das nicht ein bisschen groß? 4K oder nicht, man sitzt doch sehr viel dichter vor einem Monitor, als vor einem TV.

Sven77
2016-12-14, 15:59:23
Ich arbeite an einem 32" UHD BenQ, das geht schon klar

looking glass
2016-12-14, 16:24:59
Bewegst dabei nicht schon den Kopf, um die Ränder Links und Rechts sehen zu können (also die Augenbewegung nicht mehr ausreicht)? Oder sitzt einfach weit genug weg (was dann irgendwie den Sinn eines großen Bildschirms irgendwie hinfällig macht)?

Sven77
2016-12-14, 17:01:27
Man bewegt den Kopf schon.. nur das hab ich vorher mit 2 Monitoren auch gemacht

Eisenoxid
2016-12-14, 17:33:06
Selbst bei 40" muss man den Kopf nicht wirklich bewegen wenn man ~80cm wegsitzt.

KiBa
2016-12-14, 20:47:51
80cm sitzt man aber nicht von Monitoren entfernt. Eher 40.

Kartenlehrling
2016-12-20, 15:03:18
Erst jetzt nach einem softwareupdate funktionieren auf Samsung KS TV Youtube-HDR Filme, ich dachte das update hatten sie schon im oktober bekommen.

https://www.computerbase.de/2016-12/high-dynamic-range-samsung-tvs-youtube-update-hdr/
Samsung-TVs spielen YouTube nach Update in HDR ab

wolik
2016-12-21, 16:06:06
https://news.samsung.com/global/samsung-and-youtube-expand-global-hdr-content-offerings-on-all-2016-quantum-dot-tvs

Bei mir Software 1154 (KS9500) leider kein HDR. Ich meine ich sehe kein Anzeige (wie üblich bei PC PS4Pro ) "HDR Material"...
Die Youtube App zeigt an sie ist vom 1.4.2016 Version 2.1.407 Wie soll HDR dann gehen ?

Kartenlehrling
2016-12-21, 16:52:33
65" Curved SUHD TV KS9590

Kann ich mir eigentlich nicht vorstellen schliesslich ist das die Premium Klasse.
Du kann dir doch die Infoleiste anzeigen lassen.
Schon mal nach dem Update suchen lassen, welche Firmware Version hast du drauf?
Laut Samsungseite finde ich auch nur diese Version : 1154.0 2016.12.08.

wolik
2016-12-21, 17:05:12
Ich habe 1154 Firmware. Es sieht so aus das App noch nicht verfügbar ist.
http://www.hifi-forum.de/viewthread-151-30346-145.html
Die Leute welche sehr begeistert sind, entweder neu app von youtube haben oder täuschen sich...

http://www.pocket-lint.com/news/139771-your-2016-samsung-4k-tv-can-now-play-youtube-hdr-videos#disqus_thread
Comment:
Mike • 6 hours ago
This is not correct. It is a firmware upgrade to enable VP9 Profile 2 decoding which has given us HDR from YouTube. The YouTube app itself is the exact same version from 1st April 2016. Please would you correct the article?

Gast
2016-12-26, 20:55:57
Auf dem Papier hört sich hdr ja echt toll an; bringt es aber auch im Endeffekt visuell was?

Als ich letztes Jahr star wars 7 im sony imaxx gesehen habe, mit den Laser-4k-Projektorenin dolby vision + atmos ... ja, das war beindruckend - für mich die neue audio- und visuelle Messlatte.

Kann hdr in Verbindung mit den neuen Monitoren genau das?
Bilder mit solch einer Helligkeit dass man geblendet wird.
Dynamische und plastische Szenen die selbst ohne 3D einen Tiefeneffekt besitzen.
Kontrast bis ins Unendliche?

Gipsel
2016-12-26, 23:20:08
Im Prinzip ja. Die maximale Helligkeit und der Kontrast ist natürlich immer noch vom jeweiligen Monitor- bzw. TV-Modell abhängig.

AMD-Gast
2016-12-27, 01:29:06
Auf dem Papier hört sich hdr ja echt toll an; bringt es aber auch im Endeffekt visuell was?
Bei den Displays hängt es stark vom Helligkeitswert und dem erweiterungsfähigen Farbraum ab. Es müssten mMn 1.000 candela Leuchtstärke und mehr erreicht werden.

scully1234
2016-12-27, 08:10:59
Im Prinzip ja. Die maximale Helligkeit und der Kontrast ist natürlich immer noch vom jeweiligen Monitor- bzw. TV-Modell abhängig.

Ist zwar jetzt aktuell die Beamerbranche, aber eines der Beispiele, wie mit dem HDR Logo Schindluder getrieben wird

https://translate.google.fr/translate?sl=fr&tl=de&js=y&prev=_t&hl=fr&ie=UTF-8&u=http%3A%2F%2Fwww.projection-homecinema.fr%2F2016%2F12%2F25%2Ftest-epson-eh-ls10500%2F&edit-text=


Der Kunde glaubt das Featureset zu kaufen, bekommt aber ne Mogelpackung praesentiert

Der neueste ''HDR'' Laserbeamer, der nicht ansatzweise, auf entsprechende Werte kommt, die der Standard vor sieht. Das duerfte sich im TV Panel Bereich wohl auch niederschlagen, wenn auch nicht ganz so drastisch

00-Schneider
2016-12-27, 09:51:22
Im Prinzip ja. Die maximale Helligkeit und der Kontrast ist natürlich immer noch vom jeweiligen Monitor- bzw. TV-Modell abhängig.


Hohe Helligkeit gibts aktuell nur bei LCDs. Tiefes Schwarz und damit guten Kontrast dafür nur bei OLED-TVs.

Was ist wichtiger?

Troyan
2016-12-27, 09:56:29
Der neueste ''HDR'' Laserbeamer, der nicht ansatzweise, auf entsprechende Werte kommt, die der Standard vor sieht. Das duerfte sich im TV Panel Bereich wohl auch niederschlagen, wenn auch nicht ganz so drastisch

Es gibt erstmal kein "HDR"-Standard in dem Sinne. HDR kann sich alles und jedes Gerät nennen, dass irgendwie einen erweiterten Farbraum besitzt.

Das "Premium HDR"-Logo bekommen dagegen nur bestimmte Geräte. Aber dieser "Standard" wurde von ein paar Gerätehersteller ins Leben gerufen und ist kein wirklich normierter Standard.

scully1234
2016-12-27, 10:08:59
Der BT2020 Farbraum ist fuer HDR schon vordefiniert.also von der Warte gesehen standardisiert.Wenn die Technik aufgrund von Helligkeitsdefiziten (1000Nits bei bisherigen UHD BluRays sind ''derzeit'' der Wert an dem sich orientiert wird ,bei den Scheiben im Vertrieb),das aber gar nicht abrufen kann,liegt da schon der Hase im Pfeffer.

''Premium HDR'' dann also nur in dem Falle das sie mindestens, diesen Helligkeitswert erreichen, und da muss man noch skeptisch sein derzeit

Das was da unter dem Label HDR laeuft ,ist bei einigen nicht allen ,nicht die Qualitaet die eigentlich angedacht ist, und da steht der verlinkte aktuelle Epson Beamer ,derzeit nur an der Spitze des Eisbergs

Troyan
2016-12-27, 10:41:22
Aber nicht die Abdeckung des Farbraums. "HDR" hat also keine Aussagekraft, wie hell dein Fernseher sein und wie gut die Abdeckung des Farbraums aussehen kann.

DanMan
2016-12-27, 12:52:45
Hohe Helligkeit gibts aktuell nur bei LCDs. Tiefes Schwarz und damit guten Kontrast dafür nur bei OLED-TVs.
Die LCDs mit FALD bekommen auch einen sehr guten Schwarzwert hin, mit den üblichen Einschränkungen (Halo). Kosten aber auch locker das Doppelte.
Es gibt erstmal kein "HDR"-Standard in dem Sinne. HDR kann sich alles und jedes Gerät nennen, dass irgendwie einen erweiterten Farbraum besitzt.

Das "Premium HDR"-Logo bekommen dagegen nur bestimmte Geräte. Aber dieser "Standard" wurde von ein paar Gerätehersteller ins Leben gerufen und ist kein wirklich normierter Standard.
"UHD Premium", wie es richtig heißt, ist eine Zertifizierung, die den Hersteller sogar Geld kostet. Dazu müssen mehrere Kriterien erfüllt sein, unter anderem ein WCG.

Gast
2016-12-28, 00:02:29
Im Prinzip ja. Die maximale Helligkeit und der Kontrast ist natürlich immer noch vom jeweiligen Monitor- bzw. TV-Modell abhängig.

Hab mir paar Minuten was durchgelesen; "Im Prinzip ja." ist zwar die korrekte Antwort auf meine Frage, aber es sieht düster aus auf die Frage "ob hdr im Zusammenhang mit den lcd-tv oder Monitoren das gleiche visuelle Erlebnis bringen wird wie die 4k-Laser-Projektoren mit Dolby Vision Zertifizierung im Imaxx Kino.

Es wird es aller Ansicht nach nämlich nicht bringen.
Nicht einmal mit oled, wenn die oled-Technologie ausgereift und an das Maximum ihrer Kapazitäten gebracht wird.


"Dolby Vision mastering supports up to 10,000 nits peak brightness, with a current 4,000 nit peak brightness target"
"HDR10 mastering supports up to 4,000 nits peak brightness, with a current 1,000 nit peak brightness target"
"Dolby Vision mastering supports up to 12-bit color depth, HDR10 is mastered for 10 bits"
"Dolby Vision mastering supports up to the BT.2020 color space, HDR10 is mastered for DCI-P3"
"Tone Mapping: (HDR) Varies per Manufacturer Better (Dolby Vision)"
http://www.rtings.com/tv/learn/hdr10-vs-dolby-vision
http://www.usatoday.com/story/tech/2016/08/17/hdr10-vs-dolby-vision-new-tv-format-war/88914196/

Hier eine Tabelle mit Informationen über die jeweiligen Fernseher:
http://www.rtings.com/tv/tests/picture-quality/peak-brightness

Persönlich bin ich enttäuscht; an jenes visuelle Erlebnis ins Kino kommen die oled-tv von Morgen (auch von übermorgen), mit hdr zertifizierung, nicht heran.
Wenn es eine neue Art Laser-Monitore/Fernseher geben wird, dann vllt.

MfG

Kartenlehrling
2016-12-30, 00:11:04
Die CES2017 verspricht eine Menge neuer Spielzeuge.

http://4kfilme.de/samsung-registriert-hdr-1500-q-hdr-und-real-black/
Samsung 2017 QLED-Fernseher mit ‚HDR 1500‘ und ‚Real Black‘

dildo4u
2017-01-02, 22:18:28
Freesync 2 für HDR wurde angekündigt.


http://videocardz.com/65301/amd-announces-freesync-2

Kartenlehrling
2017-01-02, 22:46:35
FreeSync2 over 2x Perceivable brightness and color volume over sRGB

only attanable when using a freesync 2 API enabled game or video player and
content the uses at least 2x the percenvable an color range of sRGB and using a FreeSync 2 qualifiedmonitor

Auf sowas hatte ich ja gehofft, aber mit weniger Beschränkung.

Kartenlehrling
2017-01-03, 12:04:17
NEW DELHI: At its pre-CES 2017 event, LG launched three UHD (3840x2160 pixels) resolution LCD TVs.
All three TVs feature Nano Cell technology and come in model numbers SJ9500, SJ8500 and SJ8000.
The company did not reveal the price and availability of the TVs.

The SJ9500 comes with 55-inch screen size and is 6.9mm at its thinnest point.
LG claims its Nano Cell LCD displays include uniformly-sized particles approximately one nanometer in diameter to deliver more accurate colours.
There are hardly any colour changes while viewing from off-center angles, claims the company.
All three models offer Active HDR video with Dolby Vision audio support. The company's own WebOS 3.5 smart TV UI comes baked inside these TVs as well.


"For example, the color green on conventional TVs can blend with other color wavelengths - such as yellow or blue - causing the color to fade and take on yellowish or cyan hues.
LG Nano Cell technology dramatically reduces instances of color fading, image instability and other color degradation issues.
Nano Cell technology also reduces reflectivity to maintain high picture quality even in environments with ambient lighting," says LG.
The South Korean tech company says it has partnered with Technicolor,
an image and colour specialisation company, to bring a new Technicolor Expert Mode to enhance viewing experience.


Besides ULTRA Luminance technology for better image highlights, the new LG UHD LCD TVs support different HDR formats including HDR10 and HLG (Hybrid Log Gamma).
The TVs also come with the improved Magic Remote and the new Magic Link feature, making it easier for users to interact with the WebOS UI.
LG explains that its Magic Link capability provides recommendations for searching content and accessing information about actors and characters on-screen.
It is possible to connect the TVs with smartphones or PC using USB cable.

Klingt gut

MarioK
2017-01-03, 12:32:25
"LG launched three UHD resolution LCD TVs" -> halt normale TV's ...

Aus HDR Sicht interessant:
http://www.avsforum.com/lg-super-uhd-lcd-tvs-at-ces-2017/
"All three model lines support HDR10 and Dolby Vision high dynamic-range content, and they will also support HLG (Hybrid Log Gamma) after a firmware update; they are also ready to support Advanced HDR by Technicolor. A feature called Active HDR emulates dynamic metadata with HDR10 and HLG content; Dolby Vision uses dynamic metadata inherently, which can result in a better overall HDR picture because each scene can have its own metadata rather than a single set of metadata for the entire program. A feature called HDR Effect simulates HDR from standard dynamic-range (SDR) content."

Advanced HDR by Technicolor:
http://www.technicolor.com/en/solutions-services/technology/technology-licensing/hdr-technologies/technicolor-hdr
"The true power of Technicolor HDR is that it is EOTF independent. Currently, there are multiple types of HDR content emerging on the market including Sony's S-Log camera format, the BBC/NHK Hybrid Log Gamma curve and the PQ curve. Technicolor HDR takes all of them, as well as SDR, as inputs and then normalizes and delivers all of them on any HDR and SDR device, ensuring a consistent experience in both HDR and SDR worlds. All in one single stream."

HDR siehts aus wie eine "never ending story" ... jedes Monat was neues -> Mal abwarten bis HDMI 2.1 raus ist ... hoffe das dann damit ende ist.

Kartenlehrling
2017-01-03, 13:07:14
http://www.hw4all.com/wp-content/uploads/2017/01/dell-ultrathin-s2718d-monitor-hdr-hw4all.com-01.jpg

Dell Ultrathin S2718D: ultra-thin monitor with support HDR 99% sRGB, 1440p , 400nits , 60Hz für 700$

Lurtz
2017-01-03, 14:38:05
Freesync 2 für HDR wurde angekündigt.

http://videocardz.com/65301/amd-announces-freesync-2
Für was braucht man das?

just4FunTA
2017-01-03, 14:45:40
Für was braucht man das?

steht doch da: "
What’s FreeSync2? Well, it’s not FreeSync1 successor, in fact it has very little to do with FreeSync. FreeSync 2 is simply a new technology that will automatically switch your monitor into HDR mode, and that’s pretty much it."

MechWOLLIer
2017-01-03, 14:56:17
Na, ganz so einfach ists dann doch nicht.

Kartenlehrling
2017-01-03, 15:05:27
http://www.glowybits.com/images/ifl_iss_hdr/hdr_remap.png

http://www.glowybits.com/blog/2016/12/21/ifl_iss_hdr_1/

HDR Display Support in Infamous Second Son and Infamous First Light (Part 1)
Posted by Jasmin Patry on December 21, 2016

Troyan
2017-01-03, 15:15:23
Cool, ein propritärer Standard, den man mit dem Namen verheimlichen will.

Good Play, AMD, good play.

Damit all dies funktioniert, muss der Monitor der Spiel-Engine exakt mitteilen, wie das Tone Mapping zu arbeiten hat. Diese Kommunikation findet über eine eigens entwickelte API statt, die das Spiel unterstützen muss. Sprich, nicht jedes Spiel, das mit HDR umgehen kann, unterstützt automatisch FreeSync 2. Die API muss zuerst in das Spiel integriert werden, was entsprechend Aufgabe des Spielentwicklers ist. Laut AMD ist die Integration schnell umzusetzen und man arbeitet bereits mit mehreren Entwicklern an der Integration. Wie die Verbreitung von FreeSync-2-Spielen tatsächlich sein wird, wird jedoch nur die Zeit zeigen können. Unterstützt das Spiel HDR, aber eben kein FreeSync 2, muss der Monitor hingegen ganz klassisch ein eigenes Tone Mapping einsetzen.
https://www.computerbase.de/2017-01/amd-freesync-2-hdr/

Lurtz
2017-01-03, 15:16:00
steht doch da: "
What’s FreeSync2? Well, it’s not FreeSync1 successor, in fact it has very little to do with FreeSync. FreeSync 2 is simply a new technology that will automatically switch your monitor into HDR mode, and that’s pretty much it."
Warum nennt man es dann so?
Bei herkömmlichen GPU-/Monitorkonfigurationen muss man wohl manuell in den HDR-Modus wechseln?

Gipsel
2017-01-03, 15:22:23
Für was braucht man das?Verringerte Latenz des Monitors. Ist WhyCry irgendwie entgangen. ;)

DanMan
2017-01-03, 15:39:33
Da denkt man die Zeit zur Konsolidierung der Technologien ist dieses Jahr, und stattdessen denken sich alle nochmal wieder was neues aus.... :(

Kartenlehrling
2017-01-03, 15:47:40
Ist ja nicht so das Nvidia das nicht auch hat, sie nennen es sogar Nvidia-HDR.

Troyan
2017-01-03, 15:48:55
Ja, weil Windows noch keine richtige API-Integration hat. Sie umschiffen nur die OS-Limitierung
Wird AMDs propritäre API in Zukunft standard werden? AMD macht was vollkommen anderes.

DanMan
2017-01-03, 15:49:27
Ist ja nicht so das Nvidia das nicht auch hat, sie nennen es sogar Nvidia-HDR.
Ich rede von allen, auch den TV Herstellern mit ihren "neuen" HDR Formaten. Siehe https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11253520#post11253520

Kartenlehrling
2017-01-03, 16:23:06
Eigentlich sind es jetzt auch nur noch 3x Formate, PG10 (Perceptual Quantisation 10bit 4.000nits),
Dolby Vision-12bit (12bit+10.000nit) und HLG (Hybrid Log Gamma TVsendernorm)
Die jetzt bestehende sind eigenlich alle mit PG10 vereint: HDR, HDR10, Dolby Vision 10bit.

MarioK
2017-01-03, 17:11:45
Eigentlich sind es jetzt auch nur noch 3x Formate, PG10 (Perceptual Quantisation 10bit 4.000nits),
Dolby Vision-12bit (12bit+10.000nit) und HLG (Hybrid Log Gamma TVsendernorm)
Die jetzt bestehende sind eigenlich alle mit PG10 vereint: HDR, HDR10, Dolby Vision 10bit.

Da ist echt einiges durcheinander in HDR TV Welt ...

Was du ansprichst ist EOTF. In der tat da gibt es nur 2 in Moment: PQ und HLG. Die beide sind gut standardisiert/beschrieben in Rec2100.
http://www.itu.int/dms_pubrec/itu-r/rec/bt/R-REC-BT.2100-0-201607-I!!PDF-E.pdf

Der "HDR" ist aber komplette Packung mit noch so zeug wie meta daten und rest. Da gibt es dann in Moment:
- HDR10, PQ, 10bits, statische meta daten nach SMPTE 2086, open source
- Dolby Vision, PQ, 12 bits, dynamische meta daten, proprietär

beim HLG bin ich mir nicht sicher das es eine "komplette Packung" ist, sonder das es genau mit HDMI 2.1 und/oder SMPTE 2096 kommt wo einiges am "HDR komplette Packungen" von BBC, Technicolor, Philips, Samsung usw. kommt (neben der dynamische meta daten Standardisierung!)

warum man bei TVs beim Rec2020 stehen geblieben ist und nicht Rec2100 forciert überblicke ich auch nicht ...

DanMan
2017-01-03, 17:41:18
Was meint CB bzw. AMD in dem FS2 Artikel eigentlich mit dem "Tonemapping geschieht ansonsten im Monitor"? Seit wann passiert das im Monitor? Hardware-Profilierung werden die wohl kaum meinen.

Gast
2017-01-03, 18:20:10
was amd dort mit freesync 2 implementiert kann kein echtes hdr sein, ein wechsel von sdr (srgb) auf hdr ist lt. den spezifikationen nicht vorgesehen. es gibt kein gamma mehr unter hdr und srgb setzt klar auf gamma (crt gamma 2.2). die hdr elektrooptische Transferfunktion sieht deutlich mehr werte für dunkle inhalte des quellsignal vor, als gamma diese helligkeitssprünge ausblenden könnte. das ist wieder irgend so eine flickschusterei die amd da ansetzt. zudem soll es mit höheren inputlag verbunden sein, den der anwender hinzunehmen hat. ich bin gespannt wie die monitorhersteller das aufnehmen. es gibt auch mehrere tonmappingverfahren (simplex, receptor, compressor), wobei amd nicht mitteilt welches verwendung findet. die entwickler werden da sicher nicht mitspielen. das macht einen haufen zusätzliche arbeit, was die da wollen.

@danman
der monitor rechnet das bild herunter, heisst das war er nicht braucht wird einfach abgeschnitten (dynamikumfang 1:250 bei 8bit darstellung). dabei kommt es zum verrauschen des bildes und matten kontrasten (schärfe).

samm
2017-01-03, 22:07:09
was amd dort mit freesync 2 implementiert kann kein echtes hdr sein, ein wechsel von sdr (srgb) auf hdr ist lt. den spezifikationen nicht vorgesehen. es gibt kein gamma mehr unter hdr und srgb setzt klar auf gamma (crt gamma 2.2). die hdr elektrooptische Transferfunktion sieht deutlich mehr werte für dunkle inhalte des quellsignal vor, als gamma diese helligkeitssprünge ausblenden könnte. das ist wieder irgend so eine flickschusterei die amd da ansetzt. zudem soll es mit höheren inputlag verbunden sein, den der anwender hinzunehmen hat. ich bin gespannt wie die monitorhersteller das aufnehmen. es gibt auch mehrere tonmappingverfahren (simplex, receptor, compressor), wobei amd nicht mitteilt welches verwendung findet. die entwickler werden da sicher nicht mitspielen. das macht einen haufen zusätzliche arbeit, was die da wollen.Ich finde dieses Posting sehr irreführend.
AMD "implementiert" kein HDR mit Freesync 2. Es geht nur darum, dass das Spiel bereits weiss, was die Eigenschaften des Monitors sind, sodass die "Scaler" des Monitors weniger tun müssen. Spiele oder spätestens der Treiber macht ohnehin ein Tonemapping, und ob dies nun auf irgendwelche Werte des Bildschirms zugeschnitten ist oder vom Spielehersteller / Treiber festgelegte spielt keine Rolle bezüglich des Inputlags - umgerechnet wird sowieso.

Sailor Moon
2017-01-03, 22:12:44
srgb setzt klar auf gamma (crt gamma 2.2)
Die sRGB-Tonwertkurve entspricht nur in grober Näherung einer Gamma 2.2 Tonwerkurve. Tatsächlich ist sie in den absoluten Tiefen linear, was für non HDR-Inhalte auch eine deutlich bessere Kodierungseffizienz ergibt (da perzeptiver; L* setzt das sogar noch für einen größeren Bereich um). In vielen realen Anwendungen abseits der EBV wird aber leider tatsächlich Gamma 2.2 für sRGB unterstellt.

Gast
2017-01-03, 22:57:08
Ich finde dieses Posting sehr irreführend.
AMD "implementiert" kein HDR mit Freesync 2. Es geht nur darum, dass das Spiel bereits weiss, was die Eigenschaften des Monitors sind, sodass die "Scaler" des Monitors weniger tun müssen. Spiele oder spätestens der Treiber macht ohnehin ein Tonemapping, und ob dies nun auf irgendwelche Werte des Bildschirms zugeschnitten ist oder vom Spielehersteller / Treiber festgelegte spielt keine Rolle bezüglich des Inputlags - umgerechnet wird sowieso.
bei fs2 hat das tonemapping des monitors keine bedeutung, sondern wird übersprungen und durch das amd fs2 verfahren ersetzt. unter gaming findet die berechnung dann nur noch auf gpu statt. was du schreibt ist irreführend. derzeit unterstützt nur polaris das hdr10 verfahren über dp. wie amd das ohne den hdmi 2.0a support auf älterer hardware ausführen will müssen sie mal erklären. das thema kommt amd doch nur gelegen, weil man kurz vor vegasupport noch aufmerksamkeit braucht.

microsoft (windows 10) unterstützt dieses proprietäre amd verfahren nicht, sondern lediglich den hdr transport. fs2 wird bisher auch kein offener standard (man sei dort in gesprächen aber das gremium intressiert sich derzeit dafür nicht). amd hat endlich kapiert das man mit optionalem open source nicht weiter kommt und auch neue displays braucht. dazu muss die spieleengine das ganze auch noch unterstützen. das ist dann ein reiner nischenmarkt den amd da aufmacht und wo steht man jetzt besser da als nvidia mit gsync?

der treiber macht kein tonemapping sondern amd setzt auf gametonemapping der engine. da hdr breitflächung auch nur auf uhd displays unterstützt wird, wird der lag eben höher. die compression kostet halt berechnungszeit auf der gpu - zudem muss man die power auch haben.

informiere dich selbst erst! was du immer mit deinem scaler willst musst du auch mal erklären? bei dir ist bei allem was amd betrifft, immer der scaler schuld. die hdr scaler unterstützen allesamt hdr10 und dolby vision. modernere könnten sogar schon rec.2020 abdecken. nur gibt es dort wenige displays die das schaffen. zum vergleich - rec.709 deckt 35% des farbraums ab, das findet derzeit aktuell viel einsatz und rec.2020 schafft 76%, was der mensch visuell wahrnehmen kann. an den scalern liegt es damit überhaupt nicht und hat damit auch nichts zu tun.

DanMan
2017-01-03, 23:04:19
@danman
der monitor rechnet das bild herunter, heisst das war er nicht braucht wird einfach abgeschnitten (dynamikumfang 1:250 bei 8bit darstellung). dabei kommt es zum verrauschen des bildes und matten kontrasten (schärfe).
Aber das Tonemapping zu nennen grenzt ja schon an Verarschung, selbst wenn es technisch wohl korrekt ist.

Troyan
2017-01-03, 23:15:33
bei fs2 hat das tonemapping des monitors keine bedeutung, sondern wird übersprungen und durch das amd fs2 verfahren ersetzt. unter gaming findet die berechnung dann nur noch auf gpu statt. was du schreibt ist irreführend. derzeit unterstützt nur polaris das hdr10 verfahren über dp. wie amd das ohne den hdmi 2.0a support auf älterer hardware ausführen will müssen sie mal erklären. das thema kommt amd doch nur gelegen, weil man kurz vor vegasupport noch aufmerksamkeit braucht.


Das finde ich interessant. nVidia hat das selbe geschrieben. Maxwell unterstützt HDR nur über HDMI und Pascal solle es mit einer späteren DP-Revision erhalten:

NVIDIA Support for HDR

All NVIDIA GPUs from the 900 and 1000 series support HDR display output. The presence of HDMI 2.0 provides the bandwidth necessary for the higher quality signal desirable for HDR. The 1000 series adds support for HDR over future Display Port revisions.
https://developer.nvidia.com/high-dynamic-range-display-development

Was genau fehlt DP denn zur Zeit für HDR-Unterstützung?!

Gast#2
2017-01-03, 23:56:35
Was genau fehlt DP denn zur Zeit für HDR-Unterstützung?!
@Troyan
Der Gast geht klar von HDR aus, was AMDs Freesync 2 aber nicht darstellt. Sondern lediglich 2x sRGB.


Radeon FreeSync™ 2 technology offers over 2x the brightness and color volume over sRGB.

http://www.amd.com/en-us/press-releases/Pages/freesync-2-2017jan04.aspx


All FreeSync-compatible Radeon™ GPUs will support FreeSync™ 2 technology, including the Radeon™ RX series GPUs based on the Polaris architecture which also supports DisplayPort3 HBR3 and enables UltraHD resolution beyond 60Hz.


Ich denke mal es müssen mehr als 60Hz unter HDR sein und HDCP Support. AMD spricht ja auch von DP3 was sie auch immer darunter verstehen.

Ob 2x sRGB auch HDR "color volume" nahekommt, ehrlich ich glaube es nicht! Die Korrektur wird wohl bald kommen, daher unterstützt auch Windows das Feature nicht und muss AMD hier den sRGB Support nutzen. Wahrscheinlich kann es Samsung mit SUHD, da die Monitore wohl bald kommen sollen. Quantum-Dots und Nano Kristalle inbegriffen.

Vllt. liegt es ja daran, dass dann der Displayport der IHVs die geforderte Display Stream Compression für 4k und 8k HDR Inhalte der Vesa dann nicht erfüllt, oder das Protokoll ansich es nicht vorsieht. Die Compression braucht eine neue Fehlerkorretur. Daher erhöhen sich auch Latenzen. Da herrscht ja ein Krieg mit HDMI, wobei HDMI zuweilen auch nur aus DP herausgewandelt wird.

http://www.vesa.org/featured-articles/vesa-updates-display-stream-compression-standard-to-support-new-applications-and-richer-display-content/

Kartenlehrling
2017-01-04, 10:04:12
http://stadt-bremerhaven.de/wp-content/uploads/2017/01/Samsung-QLED-Pr%C3%A4sentation-768x356.jpg
Der König ist Tot, es lebe der König oder wie aus SUHD plötzlich QLED wurde.

https://www.youtube.com/watch?v=brsHMBlXvVg
Samsung QLED 4K HDR TV - FIRST LOOK!!!

24p
2017-01-04, 10:10:12
Das ist natürlich ein schöner Marketing-Gag, da Samsung unter dem Namen QLED auch an selbstleuchtenden anorganischen Pixeln geforscht hat (und es immer noch tut) aber das jetzt vorgestellte QLED doch nur ein good old LCD mit LED backlight plus qdots ist.

M4xw0lf
2017-01-04, 10:30:44
Selbstleuchtende Pixel best Pixel.

00-Schneider
2017-01-04, 14:38:00
Nix Neues zu HDMI 2.1?

24p
2017-01-04, 14:46:44
Offenbar nicht, auch nichts zu dyn. Metadaten bei HDR10. Offenbar wird das dieses Jahr nichts und wer es will darf dann entweder bis 2018 warten oder sich dann wieder einen neuen TV kaufen. ;)
Aus dem Grund hoffe ich ja, dass HDR10 mit dyn. Metadaten den selben gerechtfertigten Tod stirbt wie zB mpeg multichannel auf DVD. Das hat am Ende kaum einer unterstützt und Dolby hat Fakten geschaffen. DV ist das bessere Format und zudem nicht an eine bestimmte Version von hdmi verdongelt.

Kartenlehrling
2017-01-04, 14:49:53
Du verwechselst wohl rec2100 mit HDMI2.1 , wir sind im moment bei HDMI2.0b das kann man sogar nachlesen. (http://www.hdmi.org/index.aspx)

24p
2017-01-04, 15:04:41
Nö. 2.0b unterstützt keine dyn. Metadaten und Spatzen pfeiffen von den Dächern, dass man dies mit 2.1 verdongeln wird.

Gast
2017-01-04, 17:32:24
Das ist natürlich ein schöner Marketing-Gag, da Samsung unter dem Namen QLED auch an selbstleuchtenden anorganischen Pixeln geforscht hat (und es immer noch tut) aber das jetzt vorgestellte QLED doch nur ein good old LCD mit LED backlight plus qdots ist.
und amd den krempel als freesync 2 hdr zertifiziert...2xsrgb, wirklich lustig.

MarioK
2017-01-04, 17:52:33
HDMI 2.1 ist draußen ...

http://www.hdmi.org/manufacturer/hdmi_2_1/index.aspx

"8K60 and 4K120, Dynamic HDR, and increased bandwidth with a new 48G cable. "

"Dynamic HDR

Q: Does this Dynamic HDR require the new 48G Cable?
A: No, but it will be necessary to enable 8K video with HDR

Q: Does the specification support the various HDR solutions?
A: Yes it supports various static and dynamic HDR solutions in the market

Q: Is this accessible via a firmware upgrade?
A: Manufacturers will be implementing this in various ways"

https://www.heise.de/newsticker/meldung/HDMI-Version-2-1-bringt-hoehere-Aufloesung-dynamisches-HDR-variable-Bildfrequenz-und-mehr-3583222.html

"Details, was HDMI 2.1 unterstützen wird, gab das HDMI Forum noch nicht bekannt." -> "Dynamic HDR" ist gemeint.

Sardaukar.nsn
2017-01-04, 18:59:54
Für mich das spannendste Feature an HDMI 2.1 ist wohl die Nutzung von G- bzw. Free-Sync... gerade für Spielkonsolen dürfte das deutlich interessanter sein als 8K, neue Audio Standards usw.


Game Mode VRR features variable refresh rate, which enables a 3D graphics processor to display the image at the moment it is rendered for more fluid and better detailed gameplay, and for reducing or eliminating lag, stutter, and frame tearing.

Chris Lux
2017-01-04, 22:49:51
HDMI 2.1 ist draußen ...

http://www.hdmi.org/manufacturer/hdmi_2_1/index.aspx

"8K60 and 4K120, Dynamic HDR, and increased bandwidth with a new 48G cable. "

"Dynamic HDR

Q: Does this Dynamic HDR require the new 48G Cable?
A: No, but it will be necessary to enable 8K video with HDR

Q: Does the specification support the various HDR solutions?
A: Yes it supports various static and dynamic HDR solutions in the market

Q: Is this accessible via a firmware upgrade?
A: Manufacturers will be implementing this in various ways"

https://www.heise.de/newsticker/meldung/HDMI-Version-2-1-bringt-hoehere-Aufloesung-dynamisches-HDR-variable-Bildfrequenz-und-mehr-3583222.html

"Details, was HDMI 2.1 unterstützen wird, gab das HDMI Forum noch nicht bekannt." -> "Dynamic HDR" ist gemeint.
Großartig! Dieses Jahr stand ein neuer AVR an, aber nun kann man wieder warten bis die HDMI2.1 Geräte raus sind. Jesus.

Slipknot79
2017-01-04, 23:12:53
K shice auf 4k OLED HDR10, ist bereits veraltet und rausgeworfenes Geld. :cool:

MarioK
2017-01-05, 10:41:57
heise bohrt bisschen nach:
https://www.heise.de/newsticker/meldung/Audio-Video-Schnittstelle-HDMI-2-1-Die-Details-zu-den-neuen-Funktionen-3588578.html kommt aber nicht viel raus was es HDR angeht:

"Dynamisches HDR
Erwartungsgemäß ist dynamisches HDR ein großes Thema bei HDMI 2.1. Allerdings gibt es dafür unterschiedliche Ansätze, von der Dolby Vision die bekannteste Variante sein dürfte.
Daneben haben aber beispielsweise auch Philips, Fraunhofer und Samsung eigene Lösungen entwickelt, die die informationen zu Farbe und Kontrast dynamisch, als für einzelne Szenen oder gar Frame für Frame, übertragen. Laut Forum unterstützt HDMI 2.1 alle Formate, solange die Bandweite ausreicht."

für mich sieht das so aus als ob HDMI auf SMPTE 2096 wartet wo es dutzende "Dynamisches HDR" verfahren gibt von: Dolby, BBC, Technicolor, Philips, Samsung, Fraunhofer(jo! die deutschen sind auch dabei!) ...

aber da: "Die Spezifikation soll im 2. Quartal veröffentlicht werden. Das HDMI Forum ließ sich zu keiner Aussage hinreißen, wann Chipsätze und erste Geräte erscheinen werden, die HDMI-2.1 unterstützen."
wird es vor ende 2017 sowieso kein neue hardware geben mit HDMI 2.1 ...

Chris Lux
2017-01-05, 11:50:40
Naja, wenn man einen AVR oder TV anschafft (in der Region 65-75") sollte das Ganze schon länger als nur ein Jahr haltbar sein. Deswegen heißt es jetzt leider wieder warten - bis hoffentlich nur der IFA 2017.

24p
2017-01-05, 12:00:52
Man benötigt für dynamische Metadaten kein neues hdmi. Dolby Vision funktioniert zB bereits jetzt schon per hdmi (und die Mindestanforderung ist hier hdmi 1.4). Hier wird mal wieder versucht für jedes Einzelfeature eine neue hdmi-Schnittstelle erforderlich zu machen, damit die Konsumenten zu einer neuen Version des HDCP-Kopierschutzes gezwungen werden können.

scully1234
2017-01-05, 13:02:25
zu einer neuen Version des HDCP-Kopierschutzes gezwungen werden können.


Ich dachte das waere vom Tisch?

Oder gibts da Neuigkeiten, das mit HDMI 2.1 doch was neues kommt?

MarioK
2017-01-05, 15:09:19
Man benötigt für dynamische Metadaten kein neues hdmi.
richtig, aber: man benötigt für dynamische Metadaten neues hardware.
Dolby Vision funktioniert zB bereits jetzt schon per hdmi (und die Mindestanforderung ist hier hdmi 1.4).
richtig, aber: mein alte beamer der hdmi 1.4 hat wird mit Dolby Vision nix anfangen konnen!

also für "dynamische HDR" entweder kauft man neue hardware der Dolby Vision mit "Dolby chips" hinter hdmi 1.4 - hdmi 2.0b ermöglichen,
oder man kauft neue hardware der HDMI 2.1 hat und die "dynamische HDR" unterstutzt.

PS nicht umsonst ist Dolby by HDMI 2.1 & SMPTE 2096 als erste dabei.

24p
2017-01-05, 15:16:39
Nicht wirklich. DV ist lediglich eine Software, welche auf dem SoC des TV laufen muss. Fähig diese auszuführen sind also recht viele SmartTVs, so auch der Sony ZD9 und der XD93/94, welche DV per Update bekommen. Bei hdmi 2.1 steht das in den Sternen und ist erst nächstes Jahr kaufbar.

DanMan
2017-01-05, 20:01:20
Nicht wirklich. DV ist lediglich eine Software, welche auf dem SoC des TV laufen muss. Fähig diese auszuführen sind also recht viele SmartTVs, so auch der Sony ZD9 und der XD93/94, welche DV per Update bekommen. Bei hdmi 2.1 steht das in den Sternen und ist erst nächstes Jahr kaufbar.
Sehe ich auch so. Den Chips brauchts nur für Geräte, die sonst nicht genügend Rechenkraft haben um die Metadaten wieder aus dem Stream herauszupulen.

scully1234
2017-01-05, 23:54:06
Kann der HD Fury Linker nicht ganz und gar die 12 bit Konvertierung runter auf HD BluRay Level,sodas man mit 1.4 HDMI Geraeten auskommt?

Meine ich haette sowas kuerzlich gelesen bei Marco Polo und Netflix

Edit:

Von deren Seite

Featuring Upscale, Downscale, Passthru and Bypass mode as well as Chroma Conversion and Color Depth modification on the fly at 8, 10 ,12 and 16bit for FHD, UHD and DCI 4096x2160p.

Chris Lux
2017-01-06, 00:33:41
...so auch der Sony ZD9 und der XD93/94, welche DV per Update bekommen....
Ist das wahr? Ich kann dazu nichts finden und meine letzte Info ist, dass es nicht geht weil DV extra Hardware benötigt und Sony sich die Lizenzgebühren sparen will....

DanMan
2017-01-06, 00:41:56
Ist das wahr? Ich kann dazu nichts finden und meine letzte Info ist, dass es nicht geht weil DV extra Hardware benötigt und Sony sich die Lizenzgebühren sparen will....
http://www.hifi-forum.de/viewthread-144-8801-77.html#3919

Ich hoffe mal der Herr weiß wovon er spricht. ;)

MarioK
2017-01-06, 10:16:09
Ist das wahr? Ich kann dazu nichts finden und meine letzte Info ist, dass es nicht geht weil DV extra Hardware benötigt und Sony sich die Lizenzgebühren sparen will....
extra hardware nicht, aber potente SoC's mindestens.

Man muss sich nur vorstellen was das "DV über hdmi 1.4" ist: paar USHORTs gepackt in unteren bits von Pixeln in erste zeile, die Monitor/TV sagen was ist minLuma/maxLuma für Frame. Daraus weiß das Monitor/TV dann in welche PQ 12bitValue2nits Tabelle er gucken muss für YCbCr pixel Werte ... das war es mit HDR (Y->Helligkeit in nits) dann! Das zu machen schaffen bessere SoC's in software ...

und natürlich will sich jeder Lizenzgebühren sparen ... was Sony bewegt auf DV zu setzen wird sich noch zeigen.

24p
2017-01-06, 10:20:22
Ich denke hier gibt es zwei Gründe:

1. Immer mehr Filmstudios springen auf und wollen zum Q1 2017 entsprechende UHD-BRs liefern.

2. Es ist stand jetzt (und noch eine Weile) die einzige Möglichkeit dynamische Metadaten zu verarbeiten und vor allem ist der Standard erprobt und funktioniert.

scully1234
2017-01-06, 20:51:43
und natürlich will sich jeder Lizenzgebühren sparen ... was Sony bewegt auf DV zu setzen wird sich noch zeigen.

Das selbe was damals alle zu Atmos getrieben hat, die Omnipräsenz von Dolby an den entsprechenden Stellen

Die haben nunmal mit einem Schlag fast ganz Hollywood hinter sich,und der Rattenschwanz setzt sich fort bis zu den BluRays im Verkauf (http://www.areadvd.de/news/erste-dolby-vision-hdr-ultra-hd-blu-rays-fuer-2017-angekuendigt/)

Kartenlehrling
2017-01-13, 21:06:25
https://www.youtube.com/watch?v=nJvmVxqIWvY
G-SYNC HDR: You'll never go back to standard display - CES 2017

24p
2017-01-13, 21:12:27
Das selbe was damals alle zu Atmos getrieben hat, die Omnipräsenz von Dolby an den entsprechenden Stellen

Die haben nunmal mit einem Schlag fast ganz Hollywood hinter sich,und der Rattenschwanz setzt sich fort bis zu den BluRays im Verkauf (http://www.areadvd.de/news/erste-dolby-vision-hdr-ultra-hd-blu-rays-fuer-2017-angekuendigt/)

Logisch, denn da Geräte mit hdmi 2.1 erst 2018 und deren weite Verbreitung noch später stattfindet fährt der Zug gerade ab.

Kartenlehrling
2017-01-15, 21:48:37
https://www.youtube.com/watch?v=AWmo8qSAnKk
Technicolor Dynamic HDR Demo at CES 2017

Sardaukar.nsn
2017-01-16, 19:04:37
Mass Effect Andromeda mit Dolby Vision und Dolby Atmos. Dürfte dann wohl die Technik Referenz fürs Heimkino bzw. Konsole sein. http://www.pcgameshardware.de/Mass-Effect-Andromeda-Spiel-55712/News/Dolby-Vision-erstaunlicherweise-bestaetigt-1218376/

Praktisch das Sony auf der CES auch gleich neue Dolby Vision Geräte vorgestellt hat: http://www.areadvd.de/news/ces-erste-sony-oled-lcd-tvs-mit-dolby-vision-hdr/

Nightspider
2017-01-16, 19:07:44
Endlich mal ein Spiel mit Dolby Atmos. :love:

Hoffe Ton für 9.1/11.1 setzt sich in Spielen langfristig durch.

G.
2017-01-19, 22:24:14
Warum dauert es so lang, bis HDR-fähige Monitore auf den Markt kommen?
Werden denn nicht im Grunde genommen nur hellere LEDs und eine geänderte Steuerungs-Elektronik benötigt?

Isogul
2017-01-20, 00:23:11
Ganz einfach,weil es noch keinen sauberen Standard am PC gibt auch keine Treiberunterstützung bisher der Grafikkartenhersteller oder von Windows. Auch liegt es an den Schnittstellen, wer will denn im PC Bereich HDR mit 10Bit aber dann nur maximal bei 4:2:2?? Hast du schonmal versucht den Windowsdesktop in 4:2:2 darzustellen, das kannst du optisch vergessen! ;)
Ich denke mal, das geht dann erst halbwegs sauber, wenn man das Betriebssystem bzw. dessen Ausgabe auch selber direkt in HDR ausgeben kann und das hier bei 4:4:4 bzw. RGB und in 10Bit und eben min. 60Hz oder sogar mehr und das geht nur mit dem nun neuen HDMI Standard seit ein paar Tagen oder den neuen DP Standard!

Foobar2001
2017-01-20, 03:19:25
4:4:4 geht nur in 4K mit 10 bit nicht.

Kartenlehrling
2017-01-20, 13:33:32
http://www.golem.de/news/agent-47-der-hitman-unterstuetzt-bald-hdr-1701-125705.html
Der Hitman unterstützt bald HDR

Ab Ende Januar 2017 soll Hitman als zweites PC-Spiel per HDR mehr Farben und eine höhere Helligkeit darstellen können,...

HDR-Monitore gibt es bisher keine

Wer am PC mit HDR spielen möchte, konnte das bisher nur mit Shadow Warrior 2. Obendrein ist ein Fernseher oder
Monitor notwendig, der HDR10 unterstützt - bei Modellen, die mit Dolby Vision umgehen können, üblich. TV-Geräte für HDR gibt es mittlerweile viele, PC-Displays kaum.
Eines der ersten ist LGs 32UD99 (bisher ohne Preis oder Termin), ein weiteres kommt in Form des Swift PG27UQ von Asus - es soll im Herbst 2017 für 2.000 Euro erhältlich sein.
Beide lösen mit 4K-UHD auf und sollen den DCI-P3-Farbraum nahezu vollständig abdecken, Asus gibt zudem 1.000 Candela pro Quadratmeter als maximale Helligkeit an.

AMD-Gast
2017-01-20, 17:06:31
Beide lösen mit 4K-UHD auf und sollen den DCI-P3-Farbraum nahezu vollständig abdecken.
DCI-P3 ist ein Filmprojektor Standard, daß hat mit HDR nichts zu tun und HDR-10 ist sogenanntes HDR light. DCI-P3 entspricht bis zu 54% der Farbwahrnehmung des menschliches Auges. Wenn die von 90%, bei DCI-P3 Displays sprechen, ist das noch weniger.

Ein HDR Display muss nach der UHD Alliance Rec.2020 abbilden können, daß entspricht 79% der Farbwahrnehmung des menschlichen Auges. DCI-P3 ist der Weg zwischen Rec.709 (35%) und Rec.2020 (79%).

HDR:
UHD Auflösung (3820×2160)
10bit (entspricht 1.024 Helligkeitsabstufungen je Farbkanal)
Kontrast (Helligkeiten von 1.000 Nit [Candela/m²] und ein Schwarzwert von weniger als 0,05 Nit [1:20000] oder Helligkeiten von mehr als 540 Nit und ein Schwarzwert von weniger als 0,0005 Nit [1:1080000]; also müssen Lichter heller oder die Tiefen dunkler dargestellt werden; auf das Verhältnis kommt es an).

Der Rest ist nur Marketing. Rec.2020 kann bisher kein Monitor. Nur mal als Vorstellung, bei der SDR Wiedergabe muß der HDR Content von 15 Blendenstufen auf nur sechs Blendenstufen gequetscht werden, weil der Farbraum Rec.709 nicht mehr wiedergeben kann und das ist derzeit der Standard bei PC Displays. Wahrscheinlich kann man HDR wirklich erst in 2020 breitflächig erwarten und auf den meisten Displays so wiedergeben wie vorgesehen.

Kauft nicht solchen Quatsch und vor allem nicht für das Geld, daß kann ziemlich ernüchternd wirken. PCI-P3 90% sind dann 48,6%, die Steigerung ist auf kleinen Displayflächen kaum wahrzunehmen. Man sollte da genau hinschauen was man kauft. Vorerst sollte man lieber in G-Snyc/Freesync oder schnelle IPS investieren (vielleicht auch mit gesteigerter Immersion). Das dürfte schon visuelle Verbesserungen mitbringen und wird langsam preiswerter (bezahlbarer).

Der Rest sind reine Zwischenstufen zu vollwertigem HDR, weil es keinen wirklichen Ansatz gibt, es mit derzeit verfügbaren Displays darzustellen. Wenn man davon ausgeht, daß Monitore so alle fünf Jahre neu gekauft werden, ist das von heute an doch ein guter Zeitraum dann Mitte 2022 auf wirkliches HDR zu updaten. Der Sprung dürfte, was die visuelle Wahrnehmung angeht, Wunder wirken und sich dann auch lohnen.;)

Bis dahin werden uns die Hersteller mit teuren Zwischenstufen nerven.

Isogul
2017-01-20, 21:01:49
Na das ist doch logisch! Doch denkst du denn im ernst, das wenn nun HDR Monitore rauskommen für PC, hier irgendwer was unter UHD anbieten wird, wer will denn das auch kaufen? lol
Ich denke das ist eines der Probleme und wenn ich mich richtig erinnere, ist der von Asus vorgestellte HDR Monitor ja auch was spezielles, der geht nämlich über Thunderbolt, damit werden die hier ihren Spezialtreiber haben und HDMI und DP erstmal umschiffen,somit aber auch wieder uninteressant! ;)

Gast
2017-01-20, 21:12:11
HDR ist unter UHD Auflösungen nicht spezifiziert. Siehe auch Ultra HD Premium.

24p
2017-01-20, 21:45:35
UHD Premium verlangt 90% DCI, so unwichtig ist diese Bedeckung dann also nicht. Und ich behaupte mal, dass DCI für das meiste, was in Filmen vorkommt ausreicht. Die Stops haben afaik mit dem Farbraum nichts zu tun, sondern nur damit, dass rec709 auf 120 nits gemastert wird.

AMD-Gast
2017-01-21, 01:19:51
4:4:4 geht nur in 4K mit 10 bit nicht.
Es ginge technisch schon, wenn es gewollt wäre. HDMI 2.0a bietet einen 4:4:4 Chroma Subsampling Modus unter 4K60 an, nur verwendet man unter HDMI lieber Deep Color. Versuche auf großen/größeren Displays haben wohl gezeigt, dass mehr Farben oder besser gesagt ein größerer Farbraum von Nutzern visuell als positiver Mehrwert empfunden wird, als der Qualitätsgewinn durch Verzicht auf Chroma Subsampling. Wer neue Displays kauft sollte darauf achten, daß sie Ultra Deep Color unterstützen, wie der HDMI Anschluß heißt ist egal.

Natürlich fordert UHD Premium DCI zu min 90%, da dieser Standard UHD Filmqualität garantiert. Besser ist, man setzt auf Dolby Vision da SMPTE ST2084 und ST2086 EOTF lediglich HDR-10 entspricht. Zusatzinformationen (Metadaten) werden unter Dolby Vision immer dynamisch bereitgestellt.

UHD Premium soll aber einen Mindeststandard garantieren, darum ging es zuerst, weil Samsung und Sony eher nicht auf Oled setzen (oder nur im geringen Umfang oder später), Pioneer und LG schon; und sich jeder was eigenes erdacht hatte. Leider benötigt Dolby Vision extra Hardware die wieder kostet (12bit, bis zu 10.000 Nit).

Ob das alles für PC Monitore wichtig wird, wer weiß.

Gast
2017-01-21, 04:10:10
Die Stops haben afaik mit dem Farbraum nichts zu tun, sondern nur damit, dass rec709 auf 120 nits gemastert wird.
Das ist Quatsch, weil die Primärvalenzen völlig anders liegen. Der Iluminant nutzt einen anderen Weißpunkt. HDR kann nur mit min 10bit übertragen werden, da die Farbkanäle unter HDMI dann Ultra Deep Color mit spezifiziertem Gamut unterstützen müssen, was deutlich mehr Bandbreite erfordert. Rec.709 kann Farbräume unter 460nm und über 610nm nicht mehr darstellen. Jeder dieser Standards weist unterschiedliche Koordinaten für die Primärfarben auf. Korrespondierendes Gamma ist heute bei Bluray Wiedergabe auf Rec.709 schon bei dunklen Szenen als deutliche Abstufung sichtbar. Beim Mastern werden die Farbwerte nach gut dünken einfach eingespart.

Die Wertigkeit in Reihenfolge sieht so aus:
DCI
Rec. 601
Rec. 709
Rec. 2020
CMYK

UHD HDR Displays nach Rec.2020 werden heute schon nach der Empfehlung für BT.2035 bewertet. Ich würde jedenfalls keinen DCI Monitor oder Flat TV für knapp 2000 Euro kaufen, wenn er gerade mal 90% von dessen Anforderungen schafft. Ganz gewiss nicht!

24p
2017-01-21, 13:07:59
Nö. DCI bietet einen größeren Farbraum als Rec709.
Der Rest ist schön am Thema vorbei mit viel Bullshit-Bingo.

Ob du nun für 2k€ keinen TV keust, weil er nicht rec2020 vollständig abdeckt interessiert keinen. Es gibt wichtigeres als Farbräume größer als DCI.

DanMan
2017-01-21, 14:23:55
Nö. DCI bietet einen größeren Farbraum als Rec709.
Der Rest ist schön am Thema vorbei mit viel Bullshit-Bingo.

Ob du nun für 2k€ keinen TV keust, weil er nicht rec2020 vollständig abdeckt interessiert keinen. Es gibt wichtigeres als Farbräume größer als DCI.
Sehe ich ähnlich. Der Sprung von SDR zu Premium UHD ist bereits so offensichtlich, dass sich das absolut bereits lohnt, wenn man es sich leisten kann.

Gast
2017-01-21, 18:43:20
Der Rest ist schön am Thema vorbei mit viel Bullshit-Bingo. Es gibt wichtigeres als Farbräume größer als DCI.
Wenn du mir jetzt noch schnell erklärst was DCI 2k/24p/48p und DCI 4k/24p mit PC Monitore zu tun haben soll? - tja dann wäre ich ja echt erleichert (von wegen Bingo Bullshit und so). Wenn die Hersteller DCI meinen, dann ist natürlich NUR das SICHTBARE Farbspektrum gemeint, nichts weiter und dieses reicht von 75-9 Prozent der DCI Parameter (da gibt es ein wildes durcheinander bei den Herstellern, weil sie nicht mal sagen welcher Farbraum (Standard - 2k - 4k). Wie gemastert wird, welche Vollverschlüsselung oder wie der Kopierschutz für Projektoren auszusehen hat - interessiert Monitorhersteller und Spieleentwickler gleich NULL. Das Ganze müsste man dann der Richtigkeit halber, auch noch bei den Filmstudios lizenzieren lassen (das wird wohl keiner machen). Prüfe mal ab, ob du nicht selbst weit offtopic bist! Von Projektorstandard redet hier keiner. Vllt. führst du dir mal zu Gemüt was für Projektoren dabei wichtig ist:
ambiente Licht
Pixelanzahl
Seitenverhältnis
Format
Bildhelligkeit
Weißpunkt
Farbraum
Farbsättigung
*mit maximal zulässiger Toleranz

Es ist verdammt wichtig welche Farben innerhalb der Valenzen von XYZ überhaupt dargestellt werden können (violett, bestimmte Blau- und Grüntöne).:rolleyes:

100 prozentige DCI Farbräume können unter 4k niemals den UHDTV Standard erfüllen und dafür ausreichen, weil der Raum deutlich unter den Anforderungen von 4k liegt.
http://www.bilder-upload.eu/thumb/d8bac8-1485019615.jpg (http://www.bilder-upload.eu/show.php?file=d8bac8-1485019615.jpg)
Womöglich nimmst du das mal zur Kenntnis. Daher ist es völlig blödsinnig ein 4k gelabeltes Display zu kaufen (egal ob TV oder PC), dass unter dem 4k Standard rangiert, weil mit DCI Farbräumen bis zu 98 Prozent aktiv (das kannst du gerne machen - mir egal). Über TV hat hier niemand geredet und darum geht es in erster Linie auch nicht, es geht um PC Monitore, Spiele, Grafikkarten - 2016/2017.

DCI wird im PC Bereich hier zum neuen Logo und sagt rein NULL aus wies um die wirkliche 4k Tauglichkeit bestellt ist. Billige Displays im Overdrive, für einen haufen Kohle mit blauer Hintergrundbeleuchtung wirds dann zu HDR (gerade den Farbton den die PC Monitor Hersteller wegen Augenermüdung verdammen).:lol:

HDR setzt auf VOLLE 4k Kompatibilität auf...kein DCI KlimBim.

scully1234
2017-01-21, 19:47:35
Endlich mal ein Spiel mit Dolby Atmos. :love:

Hoffe Ton für 9.1/11.1 setzt sich in Spielen langfristig durch.


Star Wars u Battlefield 1 haben doch auch Atmos Support
http://surround-sound.info/news/battlefield-1-action-shooter-bietet-dolby-atmos-ton-in-der-pc-version-6950/

just4FunTA
2017-01-21, 21:29:25
Star Wars u Battlefield 1 haben doch auch Atmos Support
http://surround-sound.info/news/battlefield-1-action-shooter-bietet-dolby-atmos-ton-in-der-pc-version-6950/ist bei mir ausgegraut, braucht man dafür ne extra Soundkarte oder?

Kartenlehrling
2017-01-21, 21:40:42
Ich glaube Win10 ist erstmal Pflicht.

AMD-Gast
2017-01-21, 21:42:42
UHD HDR Displays nach Rec.2020 werden heute schon nach der Empfehlung für BT.2035 bewertet.
Aber nur Displays die UHD2 (7k?) unterstützen, UHD1 (4k60) setzen noch auf BT.709 auf. Dolby Vision unterstützt BT.2020 auf jeden Fall.

Nö. DCI bietet einen größeren Farbraum als Rec709.

P3 ja < 25% sRGB, nur muß man aufpassen das es 100% sind und nicht nur 90, 85, 80 usw.. Dann sieht das wieder ganz anders aus. Denn dann fehlen bestimmte helle und dunkle Farbbereiche (man ist dann fast auf BT.709 Niveau). Besser ist, das Display unterstützt tatsächlich schon BT.2020. Gibt es bei Flat-TV ja (Panasonic).

Was an einem solchen 27" Monitor 2000$ kosten soll, muß mir auch mal einer erklären (wobei die Displays wieder von AU-O kommen). Apples Retina (oder iMac Display von LG) kosten weniger und unterstützen den DCI-P3 Farbraum zu 100% (denke das ist damit gemeint). Das Problem ist, daß der höhere Standard oft nicht wiedergeben werden kann, daher verwenden die Hersteller auch verschieden 'fähige' HDMI Eingänge.

Ich bin gespannt was AMD mit 2xsRGB unter Freesync 2 meint (2x35,8% ala sRGB?), denn das entspräche ca. 71,6% und dürfte mehr sein als DCI-P3 (als 90% sowieso) und käme BT.2020 wohl recht nahe.

just4FunTA
2017-01-21, 21:48:07
na win10 hat ja eh jeder.

Nightspider
2017-01-21, 21:57:54
Logisch bräuchte man neue Chips auf den Soundkarten. Dolby Atmos funktioniert schließlich ganz anders.
Das bringt dir am PC eh nix, falls dein PC nicht gerade an eine Anlage mit Deckenlautsprechern angeschlossen ist.
Hier wäre jetzt aber die Frage ob man ein Dolby Atmos Signal per HDMI oder Displayport an einen Receiver durchschleifen könnte.
Mit Kopfhörern hast du jedenfalls keinen Vorteil.

scully1234
2017-01-21, 21:58:24
ist bei mir ausgegraut, braucht man dafür ne extra Soundkarte oder?

Du brauchst dafür sicherlich nen atmos fähigen Verstaerker ,und gehst über HDMI aus der Grafikkarte in diesem, um die Option einzuschalten im Spiel

just4FunTA
2017-01-21, 22:00:25
ah ok also uninteressant für mich. Thx.

scully1234
2017-01-21, 22:05:50
http://answers.ea.com/t5/Bug-Reports/Dolby-Atmos-does-not-work-in-BF1/td-p/5640893


Mit Kopfhörern hast du jedenfalls keinen Vorteil.

mit der Bauernfaengerei haben sie aber schon längst wieder angefangen ,und das mit Dolbys Segen

they’re claiming to be the first game to support Dolby Atmos truly over regular stereo headphones. (http://www.pcgamesn.com/overwatch/overwatch-devs-on-creating-a-game-you-can-play-by-sound-and-announcing-dolby-atmos-support)

24p
2017-01-21, 23:21:02
Aber nur Displays die UHD2 (7k?) unterstützen, UHD1 (4k60) setzen noch auf BT.709 auf. Dolby Vision unterstützt BT.2020 auf jeden Fall.


P3 ja < 25% sRGB, nur muß man aufpassen das es 100% sind und nicht nur 90, 85, 80 usw.. Dann sieht das wieder ganz anders aus. Denn dann fehlen bestimmte helle und dunkle Farbbereiche (man ist dann fast auf BT.709 Niveau). Besser ist, das Display unterstützt tatsächlich schon BT.2020. Gibt es bei Flat-TV ja (Panasonic).

Was an einem solchen 27" Monitor 2000$ kosten soll, muß mir auch mal einer erklären (wobei die Displays wieder von AU-O kommen). Apples Retina (oder iMac Display von LG) kosten weniger und unterstützen den DCI-P3 Farbraum zu 100% (denke das ist damit gemeint). Das Problem ist, daß der höhere Standard oft nicht wiedergeben werden kann, daher verwenden die Hersteller auch verschieden 'fähige' HDMI Eingänge.

Ich bin gespannt was AMD mit 2xsRGB unter Freesync 2 meint (2x35,8% ala sRGB?), denn das entspräche ca. 71,6% und dürfte mehr sein als DCI-P3 (als 90% sowieso) und käme BT.2020 wohl recht nahe.

Kein TV bietet aktuell rec2020. Auch kein Panasonic. Wir liegen im Moment bei max 100 DCI im rec2020 Container.
Was den Asus Monitor angeht, ja der ist zu teuer. Für 2500€ gibt es von Panasonic einen LD TV in 58". Das einzig spezielle an dem Monitor ist eben das local dimming, das gibt es bislang nicht.

y33H@
2017-01-22, 00:45:28
Allgemeine Frage: Was alles muss an einem Spiel - zB Hitman - für HDR nachträglich alles geändert oder vorab angepasst werden?

Gast
2017-01-22, 01:09:17
Aber nur Displays die UHD2 (7k?) unterstützen, UHD1 (4k60) setzen noch auf BT.709 auf. Dolby Vision unterstützt BT.2020 auf jeden Fall.
Der Übergang ist fliessend => UHD1.0 => UHD1.1 => UHD2.0. Bei Ouantum Dots und HDR wird gern auf die Rec.2020 verwiesen (reine Empfehlung der ITU), daher schmücken sich die Hersteller damit. Kein einziges Display unterstützt DCI-P3 zu 100%, auch nicht die von Apple. Das ist ein BuzzWord, mit dem sich die Hersteller seit 2015 schmücken und locken, dass greift jetzt auf den PC Bereich über damit man mehr Umsatz machen kann. Zu einem, kann HDR nur dargestellt werden, wenn der dazugehörige Inhalt ans Display gesendet wird, zum anderen Bedarf Dolby Vison mit zwei Layern (Basic und Enhancement) einen recht hohen Aufwand bei der Übertragung, dass wird so schnell am PC kein Mensch umsetzen und es geht generell nur um Ultra HD Bluray Anforderungen. Wer guckt den dieses Ausgangsmaterial auf so kleinen Displays? Reine Verschwendung!

Der Asus Monitor ist viel zu teuer, wer kauft denn solchen Unsinn. Ouantum Dots sind nahe der Minimalgröße, weil blaue in den Bereich 2nm fallen, sind die extrem teuer, da sie besonders rein sein müssen. Derzeit werden hauptsächlich nur grüne und rote verwendet. Daher werden dann noch blaue LED Hintergrundbeleuchtungen verbaut, um bestimmte Fluoreszensen umzuwandeln (filtern der Lichtintesität). HDR unterstützt derzeit nur DCI Farbräume unter 10bit. Asus spinnt doch, der Monitor dürfte in der EU um 2250 Euro kosten. Irgendwann ist es mal gut mit der Preistreiberei. Dafür kaufe ich lieber einen riesigen SUHD. Ich kann mich noch an Splendidmode und solchen Firlefans erinnern, was NULL für den Umfang oder die Darstellung sichtbarer Farbräume brachte, einfach nur ein Gimmick.

Die Herstellung billiger Quantum Dots ist wegen Cadmiumtechnologien umstritten, da diese äusserst toxisch sind. Es gibt Alternativen diese sind aber kostenaufwendig. Wer weis ob man sowas innerhalb der EU überhaupt verkaufen darf. Derzeit werden nur noch Produkte auf Basis von Cadmiumsalzen innerhalb der EU erlaubt und auch diese sollen ab einem bestimmten Zeitpunkt nicht mehr verkauft werden dürfen. Solche Monitore wird man irgendwann hier also kaum legal erwerben können. Was AMD dabei mit zweimal SRGB meint, wüsste ich auch gerne.

Gast
2017-01-22, 01:12:55
Allgemeine Frage: Was alles muss an einem Spiel - zB Hitman - für HDR nachträglich alles geändert oder vorab angepasst werden?
Der Umfang ist für das Gebotene zu groß, wird kein Mensch machen wenn es keinen wirklichen Standard dafür gibt.

http://www.golem.de/news/spielen-mit-hdr-ausprobiert-in-den-farbtopf-gefallen-1611-124767.html

Foobar2001
2017-01-22, 01:34:53
Logisch bräuchte man neue Chips auf den Soundkarten. Dolby Atmos funktioniert schließlich ganz anders.
Dir ist schon klar, dass Soundkarten seit 1998 programmierbare DSPs haben?

Das ist eher ein Problem mit der Lizenz. Dolby will fuer Atmos mit Sicherheit Kohle sehen pro verkaufter Karte.

Nightspider
2017-01-22, 02:16:59
Und wie leistungsfähig sind diese DSPs? Atmos ist ein objektbasiertes Tonformat.
Die Soundkarten müssten aus den Positionskoordinaten der Klangquellen die resultierenden Kanäle berechnen. Das kostet in Echtzeit bestimmt etwas mehr Leistung als die uralten DSPs liefern können.

Selbst wenn sie es könnten hätten die Soundkarten keine 9 bis 16 Ausgänge für die Tonspuren.

Bei Soundkarten gibt es maximal 7.1, zumindest konnte ich nichts Anderes finden.

24p
2017-01-22, 02:37:40
Das haben EAX Soundkarten bzw die x-fis in Verbindung mit ihrem HRTF schon seit Ewigkeiten so gemacht. Jedes Spiel positioniert die Effekte erstmal in einer virtuellen Position im 3D-Raum, dann erst werden die eben auf die üblichen Konfigurationen gelegt. Sprich: Bei PC Spielen musste die die Koordinaten schon immer auf die Kanäle gemappt werden. Ob da nun noch ein paar Kanäle dazukommen ist sowas von wurscht. Gemacht wird dies heutzutage auch per CPU.

Dieses ach so tolle Soundfeldmixing mit Atmos ist im Heimbereich mit festen LS-Positionen unwichtig. Ob nun im Tonstudio auf die Kanäle gemappt wird oder bei dir im AVR ist bei fest vorgegebenen Positionen im AVR unwichtig. Einen Unterschied würde es nur machen, wenn man die LS tatsächlich frei im Raum positionieren kann und dies dann dem AVR so mitteilt, so dass er dann selbstständig die Kanäle mischt. Das ist für Kinos mit deren vielen Konfigurationen und der skalierbaren Anzahl von LS (tw 30 Stück für den Surroundbereich) sinnvoll, da man so beliebig viele Kanäle frei aufstellen kann. Im Heimbereich mit 2 oder 4 polpeligen Zusatzkanäle, die dann im AVR feste Positionen haben ist das ganze am Ende nichts anderes als eine Erweiterung wie von 5.1. auf 7.1.

Nightspider
2017-01-22, 02:52:00
In jedem Fall ist es gut das die Tendenz dahin geht das die Spiele so viele Kanäle unterstützen und sich auf die neuen Tonformate verstehen.

Es ist auf jeden Fall ein Zugewinn wenn Ton auch von oben kommt.

TobiWahnKenobi
2017-01-22, 10:44:21
ja, absolut. ich kenne zwar nur die PC version von battlefront
als mein bisher einziges dolby atmos-spiel aber das hat meine
erwartung erfüllt- bitte mehr davon.

btw,
ton von oben ist das einzige wirklich neue gimmick an aktuellen AVR.
für mich zumindest, da ich meine geräte nur wg. HDMI2.0/HDCP2.2
ersetzt habe und alle anderen spielereien vorher schon hatte.


(..)

mfg
tobi

DanMan
2017-01-22, 12:45:02
Allgemeine Frage: Was alles muss an einem Spiel - zB Hitman - für HDR nachträglich alles geändert oder vorab angepasst werden?
Gibt da eine Reihe von Artikeln zu bei Nvidia: https://developer.nvidia.com/category/tags/hdr
Unter anderem am Beispiel von Tomb Raider.

koffeinjunkie
2017-01-22, 16:24:04
Heißt Monitore mit 3D und HDR wie bei den Fernsehern sind im kommen?

Dann wird das wieder ein Akt auf 21:9 Gerät zu warten was beides hat.

Gast
2017-01-22, 16:37:51
Heißt Monitore mit 3D und HDR wie bei den Fernsehern sind im kommen?

Dann wird das wieder ein Akt auf 21:9 Gerät zu warten was beides hat.
HDR unterstüzt 21:9 nicht, weils auf 4K oder 8K Auflösung beschränkt bleibt. Du wirst auf 16:9 warten müssen. 3D bei TVs ist erstmal EoL.

DanMan
2017-01-22, 16:46:48
3D bei TVs ist erstmal EoL.
Gibt aber noch ein paar: http://geizhals.de?cat=tvlcd&xf=2454_3D-f%E4hig%7E3952_HDR was zumindest für Spiele noch interessant ist, wenn auch Filme erstmal nicht mit HDR + 3D in Sicht sind.

scully1234
2017-01-22, 17:24:42
Kein TV bietet aktuell rec2020. Auch kein Panasonic. Wir liegen im Moment bei max 100 DCI im rec2020 Container.


Welches Gerät schafft denn mittlerweile die Kinonorm komplett abzudecken, welches noch im bezahlbaren Rahmen liegt?

Mir fällt da auf Anhieb ,nur ein sündhaft teurer Sony Projektor ei (https://youtu.be/rFXQeuC9uFo?t=1641)n, der auch abliefert was das Marketing bewirbt

24p
2017-01-22, 18:36:30
Die akuellen OLEDs zB oder der Panasonic dxw900, die Samsung-Geräte mit qdots. Ok, da sind es 97-99%, aber den Unterschied siehst du nicht.
Ansonsten soll der neue epson ls10500 dowie der Vorgänger etwas über 100 DCI bieten, kosten aber 5000-7000€. Dazu gibt es ein paar alte Geräte, die schon vor Jahren eine sehr weiten Farbraum hatten. Das waren zB die JVC x70er oder neuer und auch mit mitsubishi hc5 (beide haben einen Filter im grünen Lichtweg, der das ermöglicht (DCI ist insbesondere in Grün sehr stark erweitert).

scully1234
2017-01-22, 19:25:08
Die akuellen OLEDs zB oder der Panasonic dxw900, .

Na ob die kalibriert wirklich auf den Punkt 100% abrufen, dafür würde ich meine Oma nicht verwetten wollen.

Das ist so zwielichtig , wie die aktuelle Dolby Vision "Tauglichkeit" bei LG , mit Nits Werten die eigentlich was anderes attestieren

Bei der "Laserkanone" von Epson könnte das sogar klappen, aber da kommen wir auch schon wieder in Preisregionen , die nicht jeder bereit wäre ab zu drücken

24p
2017-01-22, 19:30:48
Ob nun 98% oder 100% ist wurscht.

Gast
2017-01-22, 19:37:54
Der Panasonic ist der letzte Krempel, kommt nicht auf die Schwarzwerte von Samsung und Sony, zwei der vier HDMI Eingänge unterstützen 4k50/60 (der Rest nicht), er verbaucht im Durchschnitt (Normalbetrieb) 170w (was viel zu hoch für den Preis ist - Effizienzklasse B), Smartfunktionen gehen nicht und die Bewegtwiedergabe ruckelt bei 4k Inhalten auffällig.

Nur weil Panasonic seinen internen Chip 4k Pro nennt, muss das nicht gleich bedeuten der ist gut (und ist er tatsächlich nicht). Knapp um 3000 Euro will Panasonic dafür haben (nie und nimmer). Samsung Farbdynamik ist grundsätzlich höher als bei anderen (was man mögen muss). Upscaling ist auf dem Panasonic nur als gut zu bewerten, Samsung und Sony in gleichgroßer Geräteklasse sehr gut. Blurays sehen daher oftmals verrauscht auf dem Display aus. Ich halte von dem Panasonic gar nichts, die waren mal gut - ist aber lange her. Viel Blah Blah um nichts. Ton Mittelklasse, zudem gibt es Inhomogenitäten in der Bildhelligkeitsverteilung und sowas darf in dieser Preisklasse einfach nicht vorkommen. Da wird gespart wo es nur geht und der Kunde wird erbarmaungslos ausgepresst, weil der Markt völlig übersättigt ist, mit HDR Gefasel.

UHD+, UHD Plus, 4k Pro, 4k HDR, 4k HDR Ultra usw., jeder Hersteller meint, er hat das Geheimrezept für 4k gefunden, nur an die Vorgaben hält sich kein einziger.

Die Geräterückseite ist der billigste Kunststoff den man sich nur vorstellen kann (wahrscheinlich recycelte Plasteflaschen :freak:), ziemlich brüchig (und so brummen und summen die Lautsprecher auch), peinlich - wenn mich einer fragt, aber 3T dafür haben wollen. Die Kiste ging gleich wieder zurück, weil er das Geld einfach nicht Wert ist. Bis zum 08.01. gabs 500 Euro Cashback weil der Verkauf nur schleppend läuft. Habe mir jetzt einen xd93 geholt und bin damit zufrieden (der Ton ist mager, dafür ist der Preis angemessen), knapp 0,7T weniger Anschaffungskosten. Für obere Mittelklasse soviel zu verlangen ist einfach frech von Panasonic.

Gast
2017-01-23, 12:06:23
Kein TV bietet aktuell rec2020. Auch kein Panasonic. Wir liegen im Moment bei max 100 DCI im rec2020 Container.
Danke für den Hinweis, dann hatte ich das falsch verstanden. Da ich gedacht habe der Flat wechselt unter SDR und HDR die Farbräume. Ich habe nochmal nachgelesen, gemeint war rec.709 und DCI.

Der Panasonic ist der letzte Krempel, kommt nicht auf die Schwarzwerte von Samsung und Sony, zwei der vier HDMI Eingänge unterstützen 4k50/60 (der Rest nicht), er verbaucht im Durchschnitt (Normalbetrieb) 170w (was viel zu hoch für den Preis ist - Effizienzklasse B), Smartfunktionen gehen nicht und die Bewegtwiedergabe ruckelt bei 4k Inhalten auffällig.

Nur weil Panasonic seinen internen Chip 4k Pro nennt, muss das nicht gleich bedeuten der ist gut (und ist er tatsächlich nicht).
Das ist Quatsch, oder Du hattest ein anderes Gerät da. Panasonic verwendet bei den sichtbaren Plastikflächen z.B. bei Fernbedienungen viel Aluminium und der Panasonic packt fast Oled was den Schwarzwert angeht. Das ist deutlich mehr als bei Sony oder Samsung und kostet natürlich auch. Mit 1120 Candela unter SDR und 1200 Candela unter HDR macht das Display auch bei der Ausleuchtung eine verdammt gute Figur und zeigt keinerlei Schwächen, leistet mehr als es müßte. Da gibt es nicht unbedingt was vergleichbares. Der Preis ist damit für die Größenordnung gerechtfertigt, sehe ich jedenfalls so.

Effizienzklasse B passt auch zu den Größenverhältnissen und dem Mehrwert (über Standard), den Panasonic dem Flat mitgibt. Ruckeln kann ich nicht feststellen.;)

Kartenlehrling
2017-01-28, 16:32:04
Capcom hat den ersten Patch für die PC-Version von Resident Evil 7: Biohazard veröffentlicht.
Das Changelog umfasst nur zwei Punkte: Speicherstände werden an einem weiteren Ort abgelegt, um ein versehentliches Löschen zu vermeiden,
und der HDR-Modus soll nicht mehr automatisch gestartet werden. Einen Ultra-Widescreen-Modus gibt es weiterhin nicht.
http://www.pcgameshardware.de/Resident-Evil-7-Biohazard-Spiel-57353/News/PC-Patch-HDR-Steam-1219377/

Heisst das im Umkehrschluss das man in der RE7 PC Version HDR auch schon aktivieren kann?

Kartenlehrling
2017-01-29, 10:13:31
http://stadt-bremerhaven.de/hdr-gaming-am-samsung-ue55ks8090-es-werde-licht/
HDR-Gaming am Samsung UE55KS8090: Es werde Licht

Ich selbst hatte nun die Chance an einem Samsung UE55KS8090 in den letzten Wochen ausgiebig mit HDR zu experimentieren.
Zu meiner eigenen Überraschung hat mich vor allem HDR-Gaming extrem begeistert.

Ergebnis:
Ich werde noch zu HDR bei Filmen etwas schreiben, sage aber schonmal klar, dass ich beim Zocken den größten Spaß mit der Technik hatte.
Speziell „Uncharted 4: A Thief’s End“ war in HDR eine Erfahrung, die ich so in dieser Qualität wirklich nicht erwartet hatte.

Das war für mich tatsächlich vergleichbar mit den ersten 3D-Filmen, die ich im Kino sah.
Falls ihr euch wundert: Ja, natürlich hatte ich HDR vorher schon auf Messen gesehen, in Märkten und bei Kumpels damit herumgespielt.
Aber es war für mich schon etwas anderes nun ganz gemütlich zuhause im Bett mit persönlich abgestimmten TV-Einstellungen HDR-Gaming auszutesten und
über mehrere Wochen Eindrücke zu sammeln.
Dabei hat sich für mich auch bestätigt: Die erhöhte Auflösung ist nett, aber HDR ist der wirkliche Vorteil der aktuellen TV-Generationen.
Speziell wenn ihr Gamer seid: Die Spieleerfahrung profitiert teilweise wirklich enorm.
Das Manko ist eben, dass HDR je nach Spiel unterschiedlich eingebunden wird und somit auch die Wirkung variiert.
Außerdem unterstützen aktuell eben nur eine Handvoll an Titeln das Feature.
Aber ich gebe zu, dass mich die Zeit mit dem Samsung UE55KS8090 hier extrem angefixt hat.

HDR-Gaming ist somit etwas, das aus meiner Sicht einen neuen Meilenstein markiert,
der hoffentlich bald noch stärker ins Rampenlicht rückt.

krötenfresse
2017-01-29, 15:54:32
ist eigentlich für bereits existierende spiele ein hdr-update möglich, oder müssen die spiele von vornherein für hdr entwickelt sein?

Mearest
2017-01-29, 16:13:44
http://www.pcgameshardware.de/Resident-Evil-7-Biohazard-Spiel-57353/News/PC-Patch-HDR-Steam-1219377/

Heisst das im Umkehrschluss das man in der RE7 PC Version HDR auch schon aktivieren kann?

Falls Du fragst ob man mit HDR bei RE7 auf dem PC über den TV zocken kann. Ja das geht und sieht auch sehr gut aus.

Kartenlehrling
2017-01-29, 17:21:58
@krötenfresse
Ich habe gelesen das alle Game-Engine die bereits Physically-Based Rendering (PBR) unterstützen mit geringen Aufwand auch für HDR jedes Spiel nachträglich umschreiben können.
Soll zudem wenig Manpower benötigen, ob sich das trotzdem für die Entwicklungstudios auch finanziell lohnt ist fraglich, im Fall PS4pro hat wohl Sony die Entwickler gebeten es zu machen.
Und im Fall XBoneS ist es erstmal auch von Microsoft gekommen um etwas für die XBoneS einige Titel zu präsentieren.

VooDoo7mx
2017-01-30, 17:13:05
Nachdem ich seit kurzen einen LG OLED UHD Monitor habe, kann ich nach zocken von Uncharted 4, Last Of Us, Infamous Second Son auf der PS4 Pro und Gears of War 4 der X-Box One S nur noch sagen:
The Hype is Real!

Wenn man diese Spiele auf den OLED und danach ein "normales" Spiel, kommt einen das dann irgendwie "falsch" vor. Das Spiel wirkt dann irgendwie komplett "flach". Das ist irgendwie nur sehr schwer zu beschreiben.

Das Resi VII auf den PC HDR unterstützt wusste ich noch gar nicht. Das werde ich mir dann heute nach der Arbeit mal kaufen. Mal sehen ob HDR am PC so problemlos funktioniert wie an der Konsole. Ich vermute aber das es wieder in elendiges rumgebastel ausartet...

Bin auch schon voll gehyped auf Mass Effect Andromeda und freu michd as mein Most Wanted 2017 HDR am PC haben wird. Hoffentlich funktioniert das gut.

Mearest
2017-01-30, 17:34:16
Ne, eigentlich kein rumgebastel. Ich hab einfach nur mit den Tasten "Windows&P" auf TV geschaltet und das Game per Steam gestartet. Der TV meldet ein erkanntes HDR Signal. Dann führt einen das Game durch ein kurzes Setup für HDR, fertig.

DanMan
2017-01-30, 17:49:16
Wenn man diese Spiele auf den OLED und danach ein "normales" Spiel, kommt einen das dann irgendwie "falsch" vor. Das Spiel wirkt dann irgendwie komplett "flach". Das ist irgendwie nur sehr schwer zu beschreiben.
Als ob ein Grauschleier über dem Bild liegt, ne?

Gast
2017-01-30, 18:00:15
Nachdem ich seit kurzen einen LG OLED UHD Monitor habe...
Welcher soll das sein, LG? Die haben meist nur AH-IPS im Monitorbereich. Klär uns doch mal auf!

VooDoo7mx
2017-01-30, 20:22:42
Ne, eigentlich kein rumgebastel. Ich hab einfach nur mit den Tasten "Windows&P" auf TV geschaltet und das Game per Steam gestartet. Der TV meldet ein erkanntes HDR Signal. Dann führt einen das Game durch ein kurzes Setup für HDR, fertig.

Hört sich gut an. Danke für die Antwort. :up:
Als ob ein Grauschleier über dem Bild liegt, ne?
Ja so in etwa aber auch nicht nur. :ugly: Es fehlen aber nicht nur die Farben, sondern auch die Highlights die an gewissen stellen rauspoppen. Das Bild bekommt insgesamt viel mehr "tiefe" mit HDR.
Welcher soll das sein, LG? Die haben meist nur AH-IPS im Monitorbereich. Klär uns doch mal auf!

LG55B6D
http://gzhls.at/p/4829/1424829/1424829-1.jpg

Gast
2017-01-31, 11:28:22
Die schwäche von Oled ist deren Stromverbrauch, viel zu viel. So wie auch beim LG. Ansonsten vom Bild auch nicht besser als vergleichbare HDR LCD. Die schaffen die Schwarzwerte mittlerweile auch und sind kostengünstiger. Ist doch kein Monitor, sondern ein Fernseher ohne 3D, keine Freesyncunterstützung, UHD@60Hz - nix für mich. BT.2020 Verarbeitung ist ok. Oled stirbt wohl aus, ist der gleiche Effekt wie Plasma, begründet Standards setzt sich aber nicht durch. In 2-4 Jahren reden wir darüber nicht mehr. Die Anschaffung ist wegen der Fixkosten im Consumerbereich einfach viel zu teuer. Gibt LCDs die in der gleichen Referenzklasse besser sind. Der LG erhielt um 90% von 100, ist nicht mal besonders gut für einen Oled.

scully1234
2017-01-31, 16:19:15
Nachdem ich seit kurzen einen LG OLED UHD Monitor habe

Ist aber denke ich schon noch ein TV=)

VooDoo7mx
2017-02-02, 00:51:56
Die schwäche von Oled ist deren Stromverbrauch, viel zu viel. So wie auch beim LG. Ansonsten vom Bild auch nicht besser als vergleichbare HDR LCD. Die schaffen die Schwarzwerte mittlerweile auch und sind kostengünstiger. Ist doch kein Monitor, sondern ein Fernseher ohne 3D, keine Freesyncunterstützung, UHD@60Hz - nix für mich. BT.2020 Verarbeitung ist ok. Oled stirbt wohl aus, ist der gleiche Effekt wie Plasma, begründet Standards setzt sich aber nicht durch. In 2-4 Jahren reden wir darüber nicht mehr. Die Anschaffung ist wegen der Fixkosten im Consumerbereich einfach viel zu teuer. Gibt LCDs die in der gleichen Referenzklasse besser sind. Der LG erhielt um 90% von 100, ist nicht mal besonders gut für einen Oled.

Ich lese hier nur:
mimimimi viel zu teuer, kann ich mir nicht leisten, also ist es doof. mimimimi

Die LG 2016er OLED sind mit die absoluten Referenzgeräte wenn es um Bildqualität geht, das sag nicht ich, sondern so gut wie alle Fachpublikationen.
Und welcher Fernseher kann schon Freesync? Wie kann man das dann negativ anrechenen? Ist genauso sinnvoll wie den neuen BMW 5er zu kritisieren, dass er nicht fliegen kann.
Und Freesync ist mir sowas von Wumpe, da ich ne Titan X im Rechner hab. Der LG akzeptiert auch problemlos benutzerdefinierte Auflösungen wie z.B. 1800p. Und in 1800p läuft auch sowas wie Rise of The Tomb Raider problemlos mit festen 60fps mit Ultra Details und ich hab sogar noch Rechenleistung über.
Aber gerade mit der Forderung nach Freesync kommt wieder so ein typischer AMD Billigheimer um die Ecke der 24/7 auf MyDeals surft weil es irgendwo 2,37€ mehr Cashback gibt. Und jede Grafikkarte die mehr als 200€ kostet ist sowieso nur Abzocke.
Und ob so nen Fernseher nun im Jahr für durchschnittlich 10€ mehr Strom verbraucht ist mir sowas von egal. Die Leute die solch ein Gerät für 2000€+ kaufen juckt das ganz allgemein komplett nicht. Wenn ich STrom sparen möchte, hätte ich sicher keine Titan X im Rechner. Das ist wie nen Ferrari zu kritisieren das er zu viel Sprit verbraucht. Wayne?! Und gerade bei Leuten die sich sowas hinstellen, läuft sowieso nicht rund um die Uhr die Glotze. Weil Arbeit und so...

Und OLED stirbt aus, ah ja is klar... Deswegen hat ja LG das neue 2017 Lineup schon angekündigt mit weiteren Verbesserungen an der Technik. Weil OLED ausstirbt hat ja auch ja auch Sony für 2017 eine neue Top Linie aus OLED TVs eingeführt, die das eigene Lineup anführen und nach oben hin ergänzen. Genau deswegen investiert auch Samsung in die Technik um in den nächsten Jahren auch großformatige OLED TVs anbieten zu können.
High End Smartphones nutzen schon seit Jahren OLED Displays und gerade die von Samsung, sind auch da die besten Schirme die es in diesen Bereich gibt. Gerade im mobilen Bereich werden die nächsten Innovationen möglich durch OLED Displays. Ich sag nur Smartphones und Tablets mit durchsichtigen Displays die sich zusammen rollen und falten lassen.

Das einzige was man über OLED TVs sagen kann, dass sie wegen der hohen Kosten nicht massenmarkttauglich sind. Das ist aber ein Supersportwagen auch nicht. OLED wird und kann niemals LCD in allen Bereichen ersetzen. Das wird eben auch in den nächsten Jahren nur die Technik für Leute sein, die High End Technik mögen und auch bereit sind ordentlich was dafür zu zahlen. Kein Hersteller wird nur auf OLED setzen sondern die nur als absolutes Premiumprodukt anbieten um das Lineup nach oeben hin abzurunden. Was daran schlecht sein soll muss mir noch jemand erklären. Und zum Glück gibt es auch Leute noch die gute Tehcnik zu schätzen wissen und auch bereit sind entsprechend Geld auszugeben. Auch wenn die Billigheimer die sind, die am lautesten schreien.

24p
2017-02-02, 06:45:15
Mal ganz abgesehen davon, dass ein FALD LCD auch extrem viel Strom verbraucht ohne dabei die Schwarzwerte des OLED zu erreichen.

SamLombardo
2017-02-02, 09:05:56
@VooDoo7mx, ich kann nur in allen Punkten zustimmen. Seit ich meinen LG 65B6D habe, spiele ich kaum noch am Monitor. PC an dem Gerät fuktioniert problemlos. Gerade durch den brutalen Kontrast bedingt durch das echte Schwarz ist das Spielen am OLED ein Hochgenuss. Ich sehe Details, gerade in dunklen und halbdunklen Bereichen, die ich vorher nicht gesehen habe (und mein Monitor ist schon ein 40 Zöller mit VA Panel mit 5000:1 Kontrast - der OLED ist eine andere Liga). Von den herrlichen Farben des OLED ganz zu schweigen. Mir gefällt übrigens auch das HDR am OLED besser als am 2016er Samsung den ichbauhc angesehen habe. Dieser hat zwar nominell mehr Nits und kann ein helleres Flächenweiß darstellen....Der Eindruck von HDR Spitzenlichtern wirkt aber auf dem OLED trotzdem besser, einfach bedingt durch den viel höheren Kontrast und die pixelgenaue Ansteuerung. Das muss sogar mein Kollege als überzeugter Samsung Fan nach eigenem Vergleich anerkennen:D

MadManniMan
2017-02-02, 14:04:18
Wenn man diese Spiele auf den OLED und danach ein "normales" Spiel, kommt einen das dann irgendwie "falsch" vor. Das Spiel wirkt dann irgendwie komplett "flach". Das ist irgendwie nur sehr schwer zu beschreiben.

Ich freue mich sehr darauf, auch mal gutes HDR erleben zu können - denn das was Du das beshreibst, trifft bei mir auf Stereo-3D zu.

Ich habe einen eeeecht hohen Leidensdruck, dass mein 2010er-System für 3D generell zu schwach ist und andererseits so gut wie nie gut umgesetzt wurde.

Aber schön, dass HDR die geringere Einstiegsschwelle hat (kein so großer zusätzlicher Leistungsbedarf, keine Brille nötig, niemand der nicht 3D sehen kann ;) ).

SamLombardo
2017-02-02, 15:33:54
@MMM der Wow Effekt von gutem Stereo 3D gaming ist dennoch nochmal ne Ecke höher. Es ist so schade, dass die Entwicklung da vor Jahren stehengeblieben ist. Man stelle sich einen 40 Zöller mit 4k und HDR vor, der passiv problemlos 3D vision unterstützt. Wird wohl leider ein Traum bleiben, da Nvidia 3D so gut wie begraben hat. Dennoch ist HDR Gaming ein echter Schritt vorwärts, ich spiele zum Beispiel gerade Uncharted 4 nochmal auf der PS4 PRO und es sieht deutlich plastischer und einfach schöner aus als ohne HDR. Ich war richtig überrascht, da ich in Reviews nur was von "marginalen Verbesserungen" gelesen hatte. Naja vielleicht Hatten die Reviewer keinen 2016er OLED :biggrin:. Dennoch hatte gut implementiertes 3D Vision einfach den größten Zuwachs an WOW Faktor. Echt schade drum:(.

Kartenlehrling
2017-02-03, 11:34:48
http://www.pcgameshardware.de/Fernseher-Hardware-134500/Specials/HDR-Hitman-Shadow-Warrior-Resident-Evil-7-1219723/
HDR auf dem PC ausprobiert in Resident Evil 7, Shadow Warrior 2 und Hitman

TobiWahnKenobi
2017-02-03, 13:42:10
kuhl.. der LG fernseher meldet - sofern in RE7 eingestellt - anliegendes HDR, ohne dass ich unter windows an auflösung und farbtiefe rumfingern muss.. sehr praktisch :) muss das zuhause mal checken, ob das bei sony genauso ist.

maximal einstellbarer ingame-refresh sind @uhd allerdings 29fps/Hz.



(..)

mfg
tobi

DanMan
2017-02-03, 18:39:23
http://www.pcgameshardware.de/Fernseher-Hardware-134500/Specials/HDR-Hitman-Shadow-Warrior-Resident-Evil-7-1219723/
HDR auf dem PC ausprobiert in Resident Evil 7, Shadow Warrior 2 und Hitman
Der TV hat eine "peak brightness of 545nits (https://www.avforums.com/review/panasonic-dx802-tx-50dx802b-ultra-hd-4k-tv-review.12800)". Das kann man nicht mehr als HDR bezeichnen. Artikel = Fail, auch weil sie das nicht mal erwähnen.
Der einzige TV von Panasonic, dessen HDR was taugt, ist der DXW904/DX902 mit ca. 1200 nits peak level.

scully1234
2017-02-03, 19:27:57
Die Mogelpackung endet da ja nicht, siehe LG und Dolby Vision

wir sprechen da besser nicht über die entsprechenden Werte

24p
2017-02-03, 19:30:48
Ich sehe da weiterhin keine Mogelpackung, du hast nur DV nicht verstanden. 540 nits reichen für gutes HDR, wenn der Kontrast gegen unendlich geht und das Tonemapping korrekt eben auch mit bis zu 10000 nits gemastertes HDR darstellen kann. Und nur darum geht es bei DV. Das ist bei dem Panasonic eben nicht der Fall, daher wohl auch der Grauschleier. Wenn das Backlight für HDR voll aufgedreht wird ist es eben essig mit einem guten Schwarzwert.

SamLombardo
2017-02-03, 19:41:25
Genau. Siehe mein Posting oben. Hatte im Vergleich einen 2016er Samsung gesehen mit massenhaft Nits (glaube 1000 plus). Selbst mein Arbeitskollege der sich selber als Symsung Fan bezeichnet, musste nach Vergleich mit dem 16er OLED eingestehen, dass HDR auf dem OLED besser rüber kommt als auf dem Samsung. Trotz nominell weniger Nits. Dem echten Schwarz und der pixelgenauen Ansteuerung sei dank. Beim LCD hellt sich bei den Spitzenlichtern immer zumindest die nähere Umgebung dieser, etwas auf. Wirkt auch mit xxxx Nits nicht so beeindruckend auf dem OLED. Selber mal anschauen kann ich nur empfehlen.

scully1234
2017-02-03, 19:50:41
Ich sehe da weiterhin keine Mogelpackung, du hast nur DV nicht verstanden. 540 nits reichen für gutes HDR, wenn der Kontrast gegen unendlich geht und das Tonemapping korrekt eben auch mit bis zu 10000 nits gemastertes HDR darstellen kann..

Das mag im Schwarzwert stimmen, nur wirst du in hellen Sequenzen, eben nicht das Potential ausspielen können, was dir der Standard eigentlich bieten soll.

Dolby drückt da doch auch eher wegen der Kooperation mit LG ein oder zwei Augen zu

Kontrast ist da auch eher sekundaer ,OLED läuft in dem hellen Sektor vor die Mauer, wie das Samsung mit Quantum Dot im schwarzen nicht gebacken bekommt

Kartenlehrling
2017-02-03, 19:52:10
Bei HDR TV kann man ja die Backlight Helligkeit regeln, nach unten sowieso also dürften eigentlich Grauschleier über "Schwarz" nicht nötig sein.
Das Spiel RE7 soll ja sogar extra ein HDR Einrichtungs Menü haben mit einer Graustufenhilfe,
an Gammerwerte sollte man sowieso nicht dran gehen.
LG TV haben auch extra eine Schwarzhilfe für Breitband Kinofilme.
(https://youtu.be/zZ8yYv40TiI?t=546)
Im Fall PCGH.de hätte man sich zusätzlich einfach einen OLED oder bessern Dimming TV als vergleichs Gerät ausleihen sollen.
Und auch eine PS4pro gegentesten, da sind die Erfahrunge ja schon vorhanden.

24p
2017-02-03, 20:00:33
Das mag im Schwarzwert stimmen, nur wirst du in hellen Sequenzen, eben nicht das Potential ausspielen können, was dir der Standard eigentlich bieten soll.

Dolby drückt da doch auch eher wegen der Kooperation mit LG ein oder zwei Augen zu

Kontrast ist da auch eher sekundaer ,OLED läuft in dem hellen Sektor vor die Mauer, wie das Samsung mit Quantum Dot im schwarzen nicht gebacken bekommt

DV gibt keine nits vor, das ist Bullshit. Du hast DV eben nicht verstanden. Da geht es NICHT um die nits, die erreicht wwrden müssen, sondern darum mit wie viel nits gemastert werden kann damit DV es noch mit optimal auf TVs mit weniger nits darstellen kann. Dolby hat da nirgendwo Zugeständnisse gemacht. DV IST das Zugeständnis für ALLE TVs, die weniger als 10000 nits schaffen. Nur deswegen braucht man dynamische Metadaten zur Anpassung.
Funktionieren tut DV auch auf einem TV mit 120 nits, eben dort so wie es möglich ist.

Und btw ist der Kontrast bei HDR alles andere als Sekundär. Dass OLED gegen eine Wand läuft stimmt auch nicht. Die aktualisieren ihre Panels nur im Tik Tok Zyklus, so dass die 2017ner eben nur optimierte 2016er Panels sind. 2018 gibt es dann eine neue Gen und deutlich mehr nits. LCD hingegen packt seit Bestehen kein richtiges Schwarz.

DanMan
2017-02-03, 20:04:31
Ich sehe da weiterhin keine Mogelpackung, du hast nur DV nicht verstanden. 540 nits reichen für gutes HDR, wenn der Kontrast gegen unendlich geht und das Tonemapping korrekt eben auch mit bis zu 10000 nits gemastertes HDR darstellen kann. Und nur darum geht es bei DV. Das ist bei dem Panasonic eben nicht der Fall, daher wohl auch der Grauschleier. Wenn das Backlight für HDR voll aufgedreht wird ist es eben essig mit einem guten Schwarzwert.
545 nits peak - d.h. auf Flächen größer als eine Zigarettenschachtel sind es vielleicht noch 300 nits. Der DXW904 schafft selbst vollflächig noch 800 nits. Da liegen einfach nochmal Welten dazwischen, und weil er FALD hat stimmt auch der Schwarzwert (0.023 cd/m² nativ, also mit Adaptive Backlight noch auf 0.005 cd/m² reduzierbar).

Was ich damit sagen will ist, dass es klar ist, dass man einen eher bescheidenen Eindruck von HDR bekommt, wenn man es auf einem Gerät der Mittelklasse anschaut. Da sie den Vergleich nicht liefern ist der Artikel eben nicht aussagekräftig, sondern eher irreführend. Es klingt als wäre das, was sie gesehen haben alles ist, was HDR zu Leisten im Stande ist. Ist.

scully1234
2017-02-03, 20:08:20
Aus dem Dolby Whitepaper

Dolby Vision brightness of 4,000 nits using today’s monitor capabilities and
up to 10,000 nits in the future, a content creator has the range to represent a sky that
is truly bright and saturated, making it seem more natural


The natural world has a much broader range of color and brightness than current
broadcast, Blu-ray™, and cinema systems support. For example, just in the simple flower
shown here, brightness ranges from 145 nits for the background all the way to 14,700
nits for the yellow part of the petal. (Note: A nit is a unit used to measure brightness
and is equivalent to a candela per square meter.)

https://www.dolby.com/us/en/technologies/dolby-vision/dolby-vision-white-paper.pdf

Und da kann einer sagen was er will ,hier wird mehr als nur ein Auge zu gedrückt bei LG mit den derzeitigen OLED Panels, wenn Dolby wirklich auf solche Werte abzielt

24p
2017-02-03, 20:11:19
"UP TO" und "A CONTENT CREATOR". Lern lesen. Und vor allem: Versuche wenigstens DV zu verstehen. Da steht nirgendwo wie viele nits benötigt werden. Das ist auch gar nicht der Sinn von DV.

Und btw haben die Vizio TVs auch weniger als 1000 nits und trotzdem, nein, gerade DESWEGEN DV. Die haben wol auch Dolby geschmiert.
Nochmal: Bei DV geht es darum, dass Content der mit bis zu 10000 nits gemastert wurde korrekt dargestellt wird. DV ist gerade für Displays mit wenig nits sinnvoll und auch gedacht. Ein TV mit 4000 nits braucht kein DV und keine dynamischen Metadaten, gerade die OLEDs um so mehr, daher auch die Promotion von DV mit OLED. Nicht trotz, sondern wegen.

@dan man

Die 16er OLEDs packen 650 nits bei 10% weiss. Das ist bei einem 65" Gerät eine Fläche von 13,8*13,8cm. Das sind ein paar Schachteln. ;) und btw, da es bei HDR überwiegend um Highlights geht reicht dies aus. Das FALD bei dem Pana hat wenig Zonen und wird daher nicht ausreichen, um die recht kleinen schwarzen Flächen dort zu dimmen.

scully1234
2017-02-03, 20:28:32
"UP TO" und "A CONTENT CREATOR". Lern lesen. Und vor allem: Versuche wenigstens DV zu verstehen. Da steht nirgendwo wie viele nits benötigt werden. Das ist auch gar nicht der Sinn von DV.
.

Dolby weisst explizit hier darauf hin, das mit 100nits nichts zu reissen ist


The
problem with restricting maximum brightness to 100 nits (as in TV and Blu-ray) is that
the brighter the color, the closer it becomes to white, so bright colors become less
saturated

Und Weiß bringt nunmal auch kein Kontrast gegen unendlich zur Geltung

und verdeutlicht hier die Vorzüge von ihrem erweiterten Standard

With the
maximum Dolby Vision brightness of 4,000 nits using today’s monitor capabilities and
up to 10,000 nits in the future, a content creator has the range to represent a sky that
is truly bright and saturated, making it seem more natural.

24p
2017-02-03, 20:31:54
Nein, das schreiben sie nirgendwo. Lern englisch. Da steht "maximum" und "up to". Und dass man mit 100 nits nichts reissen kann habe ich nirgends abgestritten.

Und nein, weiss bringt eben DOCH ein Schwarzwert zur Geltung. Und btw hast du den Teil dort vollkommen aus dem Zusammenhang gerissen und imo auch nicht annähernd verstanden, was dort gemeint ist.
Bei HDR geht es nicht darum riesige Flächen weiss erstrahlen zu lassen. Dafür braucht es nämlich keine 10 bit. Es geht um den KONTRAST. Helle und dunkle Elemente gleichzeitig. Ohne Banding und möglich ohne clipping (dafür gibt es Tonemapping).

Das ist hier wieder gemeckere von Leuten, die Geräte schlechtreden, die sie sich nicht leisten können.

scully1234
2017-02-03, 20:37:38
Was ist denn an dem Satz nicht zu verstehen

Dolby Vision brightness of 4,000 nits using today’s monitor capabilities and
up to 10,000 nits in the future,

Da ist klar aufgeführt wo sie hin möchten mit der Technik, und was State of the Art derzeit ist

24p
2017-02-03, 20:39:44
UP TO. Man. UP TO. Was zu fick ist da so schwer zu verstehen? Bei DV geht es darum mit 4000 nits und mehr gemastertes HDR auf Displays mit (deutlich) weniger Helligkeit optimal darzustellen. Ein Mindestwert wird nirgendwo vorgegeben.

Und btw, die Mehrzahl der DV Displays packen nichtmal 1000 nits, das hat nichts mit Bestechung zu tun, sondern damit, dass DV gerade für diese Displays Sinn macht.

https://www.dolby.com/us/en/technologies/dolby-vision/dolby-vision-white-paper.pdf

Ab Seite 6.

http://www.hdtvtest.co.uk/news/dolby-hdr-201606214303.htm

In other words, Dolby Vision pulled ahead of HDR10 4K Blu-ray when the display featured suboptimal peak brightness/ colour volume/ tone-mapping, but the gap was closed to negligible levels by a high-end HDR TV with 1000+ nit peak luminance and accurate tone-mapping. Future developments like dynamic metadata for HDR10 (as demonstrated by Samsung at NAB 2016) may level the playing field or even swing things in favour of the open standard.

Perhaps the greatest appeal of Dolby Vision is the promise of high-quality HDR performance on low-cost and midrange televisions, allowing shrewd video enthusiasts to save some money in the pursuit of better home cinema experience, though any possible savings may be partially offset by the potentially higher prices of DV-enabled Ultra HD Blu-ray players (due to the licensing fees payable to Dolby Laboratories) when they’re launched. Exciting (if uncertain) times ahead…

Je geringer die Peak brightness, desto wichtiger wird DV, weil es pro Frame eine optimale Darstellung gem. der Eigenschaften des Displays liefert.

scully1234
2017-02-03, 20:40:55
Und davor steht


Dolby Vision brightness of 4,000 nits using today’s monitor capabilitie

Und da muss man eben sagen, das LG dieses Ziel derzeit noch klar verfehlt, Kontrast hin oder her

Genau so wie Samsung mit Quantum Dot nicht auf das Schwarz von LG kommt


Das ist hier wieder gemeckere von Leuten, die Geräte schlechtreden, die sie sich nicht leisten können.

Hab ich keinen Grund zu ,habe bis vor kurzen selber noch einen 86" LG besessen,also hätte ich mir auch die OLED Sparte gönnen können

Kartenlehrling
2017-02-03, 20:57:43
Über Dolby Vision und 10.000nits brauchen wir sowieso nicht diskutieren solange OLED gerademal 800nits schaft.
Ich wette das Samsung 2020 schneller ein Schwarz bringt, als das LG ein OLED mit 4.000nits abliefert.

Das Problem ist ja sowieso das die "wahrnehmbaren" Helligkeitsstufen sich nicht Linear verhalten.
Wenn heute (2017er Modelle) Samsung 1500-2000nits versprechen, muss die nächste Stufe sowieso schon 4.000-5.000nits sein damit man es überhaupt merkt.
Dagegen sind die Abstufung ins Schwarz viel kleiner, die man warscheinlich auch sofort sehen kann.

24p
2017-02-03, 21:03:26
Und davor steht




Und da muss man eben sagen, das LG dieses Ziel derzeit noch klar verfehlt, Kontrast hin oder her

Genau so wie Samsung mit Quantum Dot nicht auf das Schwarz von LG kommt



Hab ich keinen Grund zu ,habe bis vor kurzen selber noch einen 86" LG besessen,also hätte ich mir auch die OLED Sparte gönnen können

Nein. DV setzt kein Ziel und mit den 4000 nits ist ein Mastering Monitor (Dolby Pulsar) gemeint.

Die Wette mit Samsung gehe ich mit. Deren Qled ist meilenweit von der Serienreife entfernt. Selbst wenn die es marktreif bekommen müssen sie ähnliche Probleme wie oled lösen und packen dann garantiert nicht mehr nits als LG 2020 schaffen wird.

Ectoplasma
2017-02-04, 18:56:19
Genau. Siehe mein Posting oben. Arbeitskollege hat einen 2016er Samsung mit massenhaft Nits (glaube 1000 plus) und musste nach Vergleich mit dem 16er OLED eingestehen, dass HDR auf dem OLED besser rüber kommt als auf dem Samsung. Trotz nominell weniger Nits. Dem echten Schwarz und der pixelgenauen Ansteuerung sei dank.

Darum sollte man auch besser von "Dynamik Range" sprechen und nicht ständig dieses marketingverseuchte NITS Geschwafel von sich zu geben.

SamLombardo
2017-02-06, 07:51:42
Wie ist denn das eigentlich mit den Einstellungen im Controll Panel der Grafikkarte? Wenn ich PC Spiele mit HDR spielen will, sollte ich dann für das bestmögliche Erlebnis 4:4:4 und 8 bit oder 4:2:2 bzw. 4:2:0 und 12 bit wählen? Was ist da die Empfehlung? Vielen Dank schonmal :wink:

24p
2017-02-06, 08:06:01
Tja, 8 bit sind nicht wirklich HDR, daher musst du wohl mit 12bit und 4:2:2 leben.

SamLombardo
2017-02-06, 08:37:21
Tja, 8 bit sind nicht wirklich HDR, daher musst du wohl mit 12bit und 4:2:2 leben.
Ja, schade. Danke für die Antwort.

Edit: wie ist denn die Erfahrung, ist der Unterschied zwischen 4:4:4 und 4:2:2 merklich, bzw praxisrelevant ?

Der HeinZ
2017-02-06, 09:45:46
Ja, schade. Danke für die Antwort.

Edit: wie ist denn die Erfahrung, ist der Unterschied zwischen 4:4:4 und 4:2:2 merklich, bzw praxisrelevant ?

Im Grunde ist das Bild bei 4:2:2 nicht ganz so scharf, lese einfach mal bei beiden Einstellungen ein rote Schrift auf blauem Hintergrund (oder andersrum).
Das kann man sehen, wenn man sucht, sonst definitiv nicht.
Gruss Matthias

SamLombardo
2017-02-06, 10:14:34
Ah ok, danke für die Antwort. Gut zu wissen. Dann werd ich für HDR doch die 4:2:2 und 12 bit Einstellung nehmen.

SamLombardo
2017-02-07, 08:29:46
Hab jetzt mal etwas Resident Evil 7 auf dem OLED in 4k mit HDR gespielt. Es ist echt beeindruckend. Während das Game auf meinem Monitor "ganz nett" aussieht, trotz ebenfalls 4k und alles auf max, ist es am OLED eine andere Welt. Klingt hochtrabend, ist aber so. HDR ist toll implementiert und in Kombination mit dem echten Schwarz des OLED ein wirkliches Erlebnis. Hat mir seit Langem mal wieder ein "wow" entlockt:wink:

24p
2017-02-07, 08:37:09
Aber, aber, aber, der OLED hat doch nur 600 nits und nur 120 nits im Vollweiss. Das ist doch viiieeeell zu dunkel. ;) :D

SamLombardo
2017-02-07, 09:30:45
Hehe jaaaa genau:D. Jeder der das denkt, sollte gerade RE7 mal auf dem OLED testen. Ich kann mir nicht vorstellen, dass das auf einem LCD, und sei er auch noch so teuer, so gut aussieht. RE7 ist aber auch prädestiniert für OLED mit seinen dunklen Kellern in denen Spitzenlichter wie Taschenlampen oder Feuer ohne das Aufhellen von irgendwelchen angrenzenden Dimmingzonen in HDR einfach fantastisch aussehen.

starfish
2017-02-07, 11:29:28
Welcher HDR Fernseher liefert denn jetzt aktuell das beste Bild?
Irgendwie blick ich nicht mehr so ganz durch.

Für mich am relevantesten wäre die Performance im unteren Helligkeitsbereich, also den Tiefen.

SamLombardo
2017-02-07, 12:07:14
Für mich definitiv der 2016er LG OLED. (B6D). Ich habe ihn ausführlich mit einem 2016er Samsung SUHD verglichen, der sogar teurer war, aber trotz über 1000 nits in HDR nicht so beeindruckend war wie der OLED. Das hat sogar mein Arbeitskollege, überzeugter Samsung Fan, eingestehen müssen :biggrin:. Der brutale Kontrast durch das echte Schwarz ist ausschlaggebend. Man hat halt selbstleuchtende Pixel und nicht Dimmingzonen. Das ist wie geschaffen für HDR, da Spitzenlichter nicht die Umgebung aufhellen. Wer es nicht glaubt: Selber mal vorführen lassen, jeder Media Markt macht das auf Termin.

Awrack
2017-02-07, 12:25:52
Hab jetzt mal etwas Resident Evil 7 auf dem OLED in 4k mit HDR gespielt. Es ist echt beeindruckend. Während das Game auf meinem Monitor "ganz nett" aussieht, trotz ebenfalls 4k und alles auf max, ist es am OLED eine andere Welt. Klingt hochtrabend, ist aber so. HDR ist toll implementiert und in Kombination mit dem echten Schwarz des OLED ein wirkliches Erlebnis. Hat mir seit Langem mal wieder ein "wow" entlockt:wink:

Wie sieht es bei sehr dunklen stellen aus, ich lese immer mal wieder das Details bei Oleds in einem schwarzen Sumpf verschwinden sollen?

SamLombardo
2017-02-07, 13:05:07
Wie sieht es bei sehr dunklen stellen aus, ich lese immer mal wieder das Details bei Oleds in einem schwarzen Sumpf verschwinden sollen?
Ja, ich hab auch gelesen, dass OLED von Hause aus eher Black Crush anfällig sein sollen. Ist mir persönlich jetzt aber nicht aufgefallen, ich denke das bekommt man mit den richtigen Einstellungen (ich hab im Einstellungsthread im Hifi Forum ein paar Vorschläge ausprobiert) gut in den Griff. Auf den ersten Blick ist mir eher das Gegenteil aufgefallen, nämlich dass ich in dunklen und halbdunklen Bereichen merkbar mehr Details sehe als auf meinem LCD selbst mit VA Panel (und mit IPS oder gar TN sowieso). Ist natürlich erst mal nur meine persönliche Einschätzung, ich will den Black Crush nicht völlig ausschließen. Es ist aber wie gesagt nichts, was mir störend aufgefallen wäre.

Awrack
2017-02-07, 13:29:21
Danke für die Info, das wäre ein KO Kriterium für OLED gewesen.
Nach der Helligkeit wird ja auch oft die Bewegt Darstellung als Kritikpunkt genannt, wie sieht es hier aus beim LG?

Jupiter
2017-02-07, 13:35:02
LCD schafft die hohe Helligkeit nur mit dynamischen Kontrast. Weltallszenen und Feuerwerk sehen demzufolge mit einen maximalen Kontrast von nur 5000:1 (VA Panel) unansehnlich aus. Die Sterne mögen zwar hell leuchten dafür ist aber das Weltall hellgrau. Oder andersherum. Das Weltall ist relativ dunkel aber die Sterne auch. Der Inbildkontrast ist sehr niedrig und Dimming verursacht endlos viele Bildfehler. Halo, Clouding, verfälschte Werte in der Farbwiedergabe und im Weißabgleich, DSE etc. Dagegen ist das ABL eines OLED noch harmlos.

Das größte Problem der OLEDs ist für mich klar die Bewegbilddarstellung. Diese ist etwa auf LCD-Niveau.

Die Meisten schaffen es nicht einmal, ihren TV/Monitor mit Messgeräten zu justieren. Da brauchen die gar nicht erst mit HDR anfangen.... Solange ich die erweiterten Farben etc. nicht zufriedenstellend justieren kann (zu große Deltaabweichungen) würde ich diese auch gar nicht nutzen wollen. Da spiele/schaue ich lieber in justierten SDR mit geringen Deltaabweichungen.

Awrack
2017-02-07, 13:47:48
Das zeigt sich dann wie, schlieren, Schattenbilder, Bewegungsunschärfe?

Jupiter
2017-02-07, 13:55:31
Ich konnte die Bewegbilddarstellung der OLEDs nicht lange genug betrachten. Manches wird erst später entdeckt.
Was aber natürlich sofort zu sehen ist, ist die Bewegungsunschärfe. Wenn die Kamera gedreht wird ist das Bild matschig für Personen, welche LCDs mit BFI oder Panasonic Plasmas gewohnt sind.

Theoretisch sollte die Schlierenbildung bei OLEDs ein geringeres Problem als bei LCDs sein. Angeblich sollen aber die LG OLEDs in dunklen Szenen manchmal Probleme mit Schlieren haben. Bestätigen oder verneinen kann ich das nicht.

Generell hat die OLED-Technologie sogar mit BFI Potential, die beste Bewegbilddarstellung zu haben. Plasmas haben Fehler mit RBE oder Phosphorlag und die zahllosen Fehler von LCDs lasse ich mal aus.

Kartenlehrling
2017-02-07, 14:05:32
Auch wenn wir eine Seite OT sind, .... wenn ihr mir ein Bild zeigt wo der OLED seine Stärke zeigt, zeige ich euch zwei wo der OLED schlecht aussieht.

24p
2017-02-07, 14:10:19
Da nur ca 1% der Bildszenen mehr als 1000 nits Spitzenhelligkeiten vorsehen, sehe ich nicht wirklich deinen Punkt. Bei HDR geht es um so viel mehr als Spitzenhelligkeiten und vollflächiges weiss.

Angeblich sollen aber die LG OLEDs in dunklen Szenen manchmal Probleme mit Schlieren haben. Bestätigen oder verneinen kann ich das nicht.



Das ist eher ein Problem der Samsung OLEDs. Von den LGs gibt es in den Reviews sehr viele Bilder mit den Ufo-Tests für die Bewegungen und da ist (im ggs zu VA LCDs) kein Black Smearing zu sehen.

Was mich btw endgültig vom Kauf des ZD9 abgehalten hat war btw die Homogenität. Ich habe bislang knapp 10 ZD9 in den Märkten begutachtet und alle wiesen sehr viel DSE und tw störendes vertikales Banding auf. Auf die Lotterie hatte ich dann bei 5k€ keine Lust. Da sind die 2016er OLEDs (bei denen Near Black deutlich besser ist als 2015) einfach sehr viel besser.

SamLombardo
2017-02-07, 14:21:28
Auch hier kann ich nur empfehlen: Auf zum nächsten Elektronikmarkt und selber mal anschauen. Diese Schwarzbild Einblendung zwischen den Frames (BFI) hat der OLED zwar nicht, aber die Bewegungsdarstellung ist für mich echt in Ordnung. Ich sehe keinen Unterschied zu meinem vorherigen Sony. Nachzieheffekte oder Bewegungsunschärfe sind mir nicht aufgefallen - und ich spiele sehr viel damit, sowohl PC als auch PS4. Klar könnt ihr jetzt sagen, der kann ja viel erzählen....Deswegen....Die Dinger stehen in jedem Media Markt und Co, schaut es einfach selber mal an;).

Edit: Best Gaming TVs Winter 2017 (http://www.rtings.com/tv/reviews/by-usage/video-gaming/best)



The best 4k TV we tested so far to play video games is the LG B6 OLED. The input lag is not the lowest at 27.8 ms, but since it is an OLED TV, it offers no motion blur following moving objects and perfect blacks. Regarding picture quality, OLED can't be beaten.

24p
2017-02-07, 14:24:57
Zumal beim LCD mi wirksamen BFI auch nicht mehr viel mit HDR ist. Da wird schon mal 50 der Helligkeit verloren.

Jupiter
2017-02-07, 14:29:12
Das ist eher ein Problem der Samsung OLEDs. Von den LGs gibt es in den Reviews sehr viele Bilder mit den Ufo-Tests für die Bewegungen und da ist (im ggs zu VA LCDs) kein Black Smearing zu sehen.

Was mich btw endgültig vom Kauf des ZD9 abgehalten hat war btw die Homogenität. Ich habe bislang knapp 10 ZD9 in den Märkten begutachtet und alle wiesen sehr viel DSE und tw störendes vertikales Banding auf. Auf die Lotterie hatte ich dann bei 5k€ keine Lust. Da sind die 2016er OLEDs (bei denen Near Black deutlich besser ist als 2015) einfach sehr viel besser.

Dann wird dem so sein. Im Gegensatz zu LCDs ohne BFI nimmt sich die Bewegbilddarstellung demzufolge sehr wenig. LGs MCFI soll zwar schlecht sei aber solche Zwischenbildberechnungen interessieren mich generell nicht. Zu viele Artefakte.

Über die geringe Panelhomogenität des ZD9 habe ich viel lesen können. Da ich diesbezüglich relativ hohe Ansprüche habe, würde ich mir solch ein Gerät natürlich niemals kaufen. Schon OLED finde ich da schlechter als die Panasonic Plasmas. Aber bei den OLEDs verbessert sich die Homogenität von Jahr zu Jahr. Während ich bei LCDs keine Verbesserungen sehe.

Auch hier kann ich nur empfehlen: Auf zum nächsten Elektronikmarkt und selber mal anschauen. Diese Schwarzbild Einblendung zwischen den Frames (BFI) hat der OLED zwar nicht, aber die Bewegungsdarstellung ist für mich echt in Ordnung. Ich sehe keinen Unterschied zu meinem vorherigen Sony. Nachzieheffekte oder Bewegungsunschärfe sind mir nicht aufgefallen - und ich spiele sehr viel damit, sowohl PC als auch PS4. Klar könnt ihr jetzt sagen, der kann ja viel erzählen....Deswegen....Die Dinger stehen in jedem Media Markt und Co, schaut es einfach selber mal an;).

Deshalb wird es nur jenen negativ auffallen, welche LCD mit BFI oder Plasmas gewohnt sind.

Zumal beim LCD mit wirksamen BFI auch nicht mehr viel mit HDR ist. Da wird schon mal 50 der Helligkeit verloren.

Selbstverständlich. BFI wäre mir aber viel wichtiger als HDR.

SamLombardo
2017-02-07, 14:33:45
Da nur ca 1% der Bildszenen mehr als 1000 nits Spitzenhelligkeiten vorsehen, sehe ich nicht wirklich deinen Punkt. Bei HDR geht es um so viel mehr als Spitzenhelligkeiten und vollflächiges Weiß.
Das kann man gar nicht genug betonen. Und selbst die Helligkeitsspitzen wirken auf dem OLED heller als auf HDR LCDs, die nominell heller sind - einfach wegen des Kontrast - ich weiß, es klingt komisch, aber es ist so. Übertrieben gesagt: Echtes Schwarz neben 700 nits wirken besser/heller als grau neben 1000+ nits. Schaut es euch an, das geht in den Märkten relativ problemlos. Hier fast noch wichtiger als woanders...selber ein Bild machen und nix einreden lassen;).

Ectoplasma
2017-02-09, 12:04:52
Das kann man gar nicht genug betonen. Und selbst die Helligkeitsspitzen wirken auf dem OLED heller als auf HDR LCDs, die nominell heller sind - einfach wegen des Kontrast - ich weiß, es klingt komisch, aber es ist so. Übertrieben gesagt: Echtes Schwarz neben 700 nits wirken besser/heller als grau neben 1000+ nits. Schaut es euch an, das geht in den Märkten relativ problemlos. Hier fast noch wichtiger als woanders...selber ein Bild machen und nix einreden lassen;).

Wenn du dir die Definition zu NIT mal durchlesen würdest, dann würde auch dir und anderen schnell auffallen, dass man daraus keinen Schwarzwert ableiten kann und auch ganz allgemein darüber zur Qualität eines Fernsehbildes, keine Aussage treffen kann.

SamLombardo
2017-02-09, 12:48:28
Wenn du dir die Definition zu NIT mal durchlesen würdest, dann würde auch dir und anderen schnell auffallen, dass man daraus keinen Schwarzwert ableiten kann und auch ganz allgemein darüber zur Qualität eines Fernsehbildes, keine Aussage treffen kann.
Ja, genau das meine ich ja. Ich bezog mich ja auf Aussagen wie "HDR braucht mindestens xxxx nits", die einfach so nicht stimmen. Die "(Hohe) Dynamic Range" ist im wahrsten Sinne wichtig, nicht die Maximalhelligkeit.

Kartenlehrling
2017-02-17, 11:39:06
OyfBHCuPha4
Panasonic TVs 2017: Vorschau OLED EZW954 (EZ950), EZW1004 (EZ1000)

Thomas Gräf
2017-02-18, 12:44:55
Hmm schicke Teile. Kommen solche Geräte mal mit HDMI 2.1 wirds wohl ungemütlich auf meinem Konto. :freak:

Kartenlehrling
2017-02-18, 13:16:00
Hybrid Log-Gamma (HLG) und dynamik HDR10 sollen sie mit Firmwareupdate alle TV die im Sommer verkauft werden können,
da beide schon bestandteil von HDMI2.1 sind sieht es also gut aus.
HDMI2.1 ist ja erst für 8k wichtig, dann brauch man auch neue HDMI Kabel.
Ich hoffe wenn sie von Gamingmode sprechen, das sie nicht nur inputlag meinen sondern auch variable refresh rates (VRR).

Thomas Gräf
2017-02-18, 14:28:30
Eine Frage, wie siehts aus mit den GPU's, hat da überhaupt einer HDMI 2.1 auf der Rechnung?
Hjo und was wird nVidia machen, VRR isja nunmal kein GeSync. Nehmen die dann VRR raus, falls sie HDMI 2.1 mal unterstützen?

Kartenlehrling
2017-02-18, 15:15:57
Jedenfalls wirbt Samsung bei ihren neuen Q-LED nicht mehr mit Bildfrequenz (interpoliert) wo dann Zahlen von zb. 2700Hz geschrieben wurde.
Jetzt werben sie nur noch mit 240 Motion Rate, was wir von LG und Eizo Monitor her kennen.

Die Chance TVs mit 100/120Hz HDMI Gamingh-VRR zu sehen stehen nicht schlecht.

00-Schneider
2017-02-18, 17:25:09
Hybrid Log-Gamma (HLG) und dynamik HDR10 sollen sie mit Firmwareupdate alle TV die im Sommer verkauft werden können,
da beide schon bestandteil von HDMI2.1 sind sieht es also gut aus.


Gilt das auch für adaptive V-Sync, oder muss das dann der TV direkt unterstützen?

Kartenlehrling
2017-02-25, 20:07:02
Auf einmal gehts,... jetzt ohne Chip-Dongle.

http://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/Nun-als-reine-Software-Loesung-verfuegbar-1221792/
Dolby Vision HDR: Nun als reine Software-Lösung verfügbar

DanMan
2017-02-25, 20:11:27
Auf einmal gehts,... jetzt ohne Chip-Dongle.

http://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/Nun-als-reine-Software-Loesung-verfuegbar-1221792/
Dolby Vision HDR: Nun als reine Software-Lösung verfügbar
Das war doch schon lange klar als bekannt wurde, dass es mit HDMI 1.4 funktioniert und es für die PS4 im Gespräch war. Wenn die Rechenkraft ausreicht, dann kann man es per Software nachrüsten. Nur tut sie das bei den meisten TVs eben nicht.

Wenn man hier (https://youtu.be/qNu8WHuAzTE) zwischen den Zeilen ließt ist es klar.

scully1234
2017-02-25, 20:19:55
Auf einmal gehts,... jetzt ohne Chip-Dongle.

http://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/Nun-als-reine-Software-Loesung-verfuegbar-1221792/
Dolby Vision HDR: Nun als reine Software-Lösung verfügbar


Das der Dongel anderen Zwecken diente ,war eigentlich absehbar, nun sah man Samsung gegen den Strom schwimmen, und hat sein Angebot entsprechend angepasst

Man darf gespannt sein wie die Lizenzierungsgebühr im Laufe der Zeit noch fallen wird bei Dolby...

Samsung bleibt jetzt eigentlich nichts anderes mehr übrig als das Spiel mitzuspielen.

Das waren schon die Vorboten für den Spagat

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11289797&postcount=320

Kartenlehrling
2017-02-25, 20:33:21
nächsten jahr wär es mit advanced HDR10 (technicolor) sowieso vom Fenster, so wird sich DolbyVision vielleicht doch als "Standard" entpuppen.

DanMan
2017-02-25, 20:35:28
nächsten jahr wär es mit advanced HDR10 (technicolor) sowieso vom Fenster, so wird sich DolbyVision vielleicht doch als "Standard" entpuppen.
Wohl kaum, denn HDR10 ist bereits der kleinste, gemeinsame Nenner.

scully1234
2017-02-25, 20:59:24
Damit hat man dem "ordinären" Volke ,aber gleich den Beweis mit geliefert ,das HDR/Dolby Vision,nicht gekoppelt ist an 4k Scheiben

Das konnte man ja bisher sehr gut unter HDMI 2.0 verstecken, und nur die Nerds wussten das da mehr geht bis runter zur BluRay

Mal sehen wann Hollywood sich erbarmt und die ersten BluRays mit den Standards released

Kartenlehrling
2017-03-02, 21:17:41
Samsung Q9F (65 Zoll – 5.499 Euro)

Nur der Q9 bietet übrigens HDR 2000, Supreme UHD Dimmen und Samsungs Precision Black Ultimate.
Hinter den Marketing-Begriffen Verbirgt sich die Höchsten Helligkeit von 2.000 Nits und
eben die meisten Dimmen-Zonen bzw. Die besten Schwarzwerte.
Die Q8 und Q7 bieten dann jeweils beide HDR 1500, Supreme UHD Dimmen und Precision Black Pro.
https://news.samsung.com/de/samsung-qled-tv-und-tv-audio-produktportfolio-2017-feiern-deutschlandpremiere/


5500€ ist zwar billiger als die 2017er OLED Preise, aber kann Samsung auch das gleich Bild abliefern?

24p
2017-03-02, 21:26:19
Mit einer edge LED Beleuchtung? Eher nicht.

scully1234
2017-03-02, 21:53:59
Wie ist denn das jetzt bei anderer Peripherie mit Dolby Vision HDR

Hat da jemand schon was abseits der TVs aus der Beamerbranche läuten gehört, welche 4k Geräte eventuell die Chance hätten auf ein Firmwareupgrade?

Ich hoffe das klärt sich noch bis im Juni der Optoma UHD 65 erscheint

Nightspider
2017-03-09, 02:31:42
Was benötigt es denn eigentlich für (Video-)Kamerasensoren um für HDR TVs und Monitore auch echt HDR Videos zu erstellen?

Besitzen die aktuellen Sensoren eine Dynamik die groß genug ist? Wie groß muss diese überhaupt sein? Gibts da Richtwerte?

Wird daran gearbeitet?

Wenn ich nach HDR Sensoren google spuckt Google nur eine Million Links zu Kameras und Sensoren aus, welche mehrere Bilder übereinander legen so wie bei alten HDR Fotos. Nur das diese ja nicht die gleichen Helligkeitsinformationen enthalten wie aktueller, echter, HDR Content.

Wie soll man da in der Suche differenzieren?

AintCoolName
2017-03-09, 09:01:55
Ich hatte mal was gelesen zum Theme HDR da wurde gesagt das die Dynamic Reduzierung schon immer vorgenommen wurde weil hochwertige Filmkameras (auch die analogen) schon immer HDR waren. Ich werde das leider nicht mehr finden, aber in dem Artikel gab es eine Grafik die in etwa Ausgesagt hat das das menschliche Auge auf einer Skala von 0-16 bei 16 lag, Film Kameras bei 14 und ein Standard TV bei 4 oder so.

Hier wird beschrieben was ich meine:
Today’s high-performance camera systems including cinematography cameras and studio cameras can
capture high dynamic range and wide color gamut images. But due to technological limitations of
conventional CRT displays, current standard-dynamic-range (SDR) production restricts luminance levels
to a maximum of 100 cd/m2 (nit) and supports only the ITU-R BT.709 standard color space.

https://assets.pro.sony.eu/Web/commons/solutions/pdfs/HDR_Explained.pdf

Man benötigt also keine neuen Kameras, sondern die Schritte danach sind es worauf es eigentlich ankommt.

Sven77
2017-03-09, 09:07:47
Besitzen die aktuellen Sensoren eine Dynamik die groß genug ist?

Kann man pauschal so nicht sagen, aber bis in den Prosumer-Bereich ist das tatsächlich so.. die Sensoren sind schon lange nicht mehr das Problem sondern die Verwertungskette dahinter.

Ectoplasma
2017-03-10, 07:37:12
Ich hatte mal was gelesen zum Theme HDR da wurde gesagt das die Dynamic Reduzierung schon immer vorgenommen wurde weil hochwertige Filmkameras (auch die analogen) schon immer HDR waren.


Ich weiss nicht, wo du die Information her hast, aber das ist nun wirklich vollkommener Unsinn. Bei analogen Filmkameras hat der Film selbst eine entsprechend Filmkurve gehabt, was aber mehr oder weniger dem Zufall geschult war. Ohne diese Kurve, wäre das Ergebnis auf dem Film eher unbrauchbar. Das heißt, hier komprimierte das Material selbst. Mit HDR hat das aber null zu tun. Auch heutige Kameras sind weit entfernt davon, vernünftiges HDR Out Of The Box zu liefern. Nur weil sie besser als Monitore sind, heißt das noch lange nicht, dass man von HDR sprechen kann. Erst neuere Kameras, bei denen in den Specs steht, dass sie HDR tauglich sind, können sich das auf die Fahne schreiben. Lies dir einfach mal dies hier durch (http://www.red.com/learn/red-101/hdrx-high-dynamic-range-video) und frage dich bitte, warum es bei Firmen wie RED, erst seit Kurzem Lösungen dafür gibt.

Ph03n!X
2017-03-12, 16:36:59
Ist schon ein 40 Zoll 4K Monitor mit HDR (1000 nits) in Aussicht?

Kartenlehrling
2017-03-26, 19:39:43
http://www.eurogamer.de/articles/2017-03-24-die-besten-tv-in-2017-fuer-ps4-pro-4k-gaming-hdr-hd-tv
Die besten TV in 2017 für PS4 Pro (4K Gaming, HDR, HD-TV), Welchen man sich gönnen sollte

00-Schneider
2017-03-26, 19:51:12
http://www.eurogamer.de/articles/2017-03-24-die-besten-tv-in-2017-fuer-ps4-pro-4k-gaming-hdr-hd-tv
Die besten TV in 2017 für PS4 Pro (4K Gaming, HDR, HD-TV), Welchen man sich gönnen sollte


Netter Artikel. Mittlerweile gibts schon die Nachfolger(B7 etc.) der LG OLEDs die ~25% heller sind.

Die neuen 2017er-Samsung LCDs sind leider schlechter als die 2016er Modelle.

DanMan
2017-03-26, 20:16:54
http://www.eurogamer.de/articles/2017-03-24-die-besten-tv-in-2017-fuer-ps4-pro-4k-gaming-hdr-hd-tv
Die besten TV in 2017 für PS4 Pro (4K Gaming, HDR, HD-TV), Welchen man sich gönnen sollte
Das dient bei denen nur um ihre Amazon Partnerlinks zu platzieren. Es wird nicht mal "UHD Premium" erwähnt im ganzen Artikel. Wennn ich dann noch " 600 [cd/m²] reichen bereits locker aus, um die Vorteile von HDR richtig zur Geltung zu bringen." lese, dann hab ich schon genug. Man gewöhnt sich sehr schnell an die zusätzliche Helligkeit, und dann fällt's immer weniger auf. Warum werden Dolby Vision Filme denn sonst heute schon bei bis zu 4000 cd/m² gemastert?

00-Schneider
2017-03-26, 21:07:40
Warum werden Dolby Vision Filme denn sonst heute schon bei bis zu 4000 cd/m² gemastert?


Weil sie es können?

Wäre das nicht viel zu hell btw.?

DanMan
2017-03-26, 21:41:03
Wäre das nicht viel zu hell btw.?
In dem Bereich geht's nur noch um Glanzlichter und Lichtquellen, also die Lichtreflexion auf einer Chrome-Stoßstange oder eben eine Lampe oder die Sonne. Aber ja, das ist dann schon verdammt hell, fast schon blendend - zumindest nachts im abgedunkelten Raum. Da fängt es an problematisch zu werden, wenn man es damit übertreibt.

Kartenlehrling
2017-03-26, 21:50:00
Ich kann diesen Schwachsinn von "zu hell" und geblende nicht mehr lesen,
die Helligkeit wird in Farbbrillanz umgewandlet, keiner muss mit einer Sonnenbrillen vor dem TV sitzen.
Die bis heute verkauften OLED TV (400nits) bieten bei grossflächig hellen Aufnahmen meist eine fehlende Farbbrillanz die in ein grauschleier resultiert.
Selbst bei den 2017er (600-800nits) wird man es noch feststellen können.

DanMan
2017-03-27, 00:49:04
Ich kann diesen Schwachsinn von "zu hell" und geblende nicht mehr lesen, die Helligkeit wird in Farbbrillanz umgewandlet, keiner muss mit einer Sonnenbrillen vor dem TV sitzen.
Die bis heute verkauften OLED TV (400nits) bieten bei grossflächig hellen Aufnahmen meist eine fehlende Farbbrillanz die in ein grauschleier resultiert.
Selbst bei den 2017er (600-800nits) wird man es noch feststellen können.
Hast du es selbst ausprobiert? Wenn nicht, dann kannst du auch nicht mitreden. Ich hab neulich ME: Andromeda gespielt, und wenn ich da nachts auf der Couch im abgedunkelten Wohnzimmer sitze, und das Bild plötzlich mehrfach, bildschirmfüllend weiß aufblitzt, ja, dann haben meine Augen da Probleme mit bei 800 cd/m². Von Epileptikern ganz zu schweigen. Solche Situationen gilt es bei HDR zu vermeiden.

In der Szene die das Bild zeigt ist auch kein Maximalweiß zu sehen, also ein schlechtes Beispiel.