Archiv verlassen und diese Seite im Standarddesign anzeigen : OLED macht Fortschritte
w0mbat
2020-09-13, 16:07:10
Wann wird es endlich gute OLEDs in PC Monitoren geben? Ich will keinen 55'' OLED, ich will nen 34'' UW 3440x1440 120Hz OLED. Kann auch gerne 1k€+ kosten.
Kartenlehrling
2020-09-13, 16:15:13
Mit der neuen inkjet Drucker Tecknik wird es vielleicht was, die Hoffnung stirbt zuletzt, jedenfall hoffe ich das Samsung ein <32inch Q-OLED Monitor bringt.
BlacKi
2020-09-13, 16:37:00
Wann wird es endlich gute OLEDs in PC Monitoren geben? Ich will keinen 55'' OLED, ich will nen 34'' UW 3440x1440 120Hz OLED. Kann auch gerne 1k€+ kosten.
die chinesen bringen doch sowas demnächst, hab ich vor ein paar monaten gelesen.
aber ich gehe davon aus, das die nicht wirklich fortschrittliche oled burn in prevention massnahmen haben, d.h. ich glaub die sind recht schnell unbrauchbar nach ein paar jahren.
woodsdog
2020-09-13, 16:51:33
GnRdJQMf6C0
Nvidia Ampere HDMI 2.1 is 48Gbps - LG C9 Owners Get Last Laugh?
Nvidia has confirmed that its new Ampere series of graphics cards, including the RTX 3090, RTX 3080 and RTX 3070, will be using 12Gbps@4 lanes, amounting to 48Gbps of HDMI 2.1 bandwidth.
We explain the implications for LG CX and Samsung 2020 QLED owners (these TVs' HDMI 2.1 bandwidth tops out at 40Gbps), and how 12-bit video signal can bring some benefits even on a 10-bit panel.
Nightspider
2020-09-18, 20:59:11
Samsung will wohl nicht die QD-OLEDs von Samsung Display nutzen für TVs nutzen aber für Bildschirme.
Eventuell 8K QD-OLED Gaming Monitore.
https://www.4kfilme.de/samsung-electronics-zeigt-sich-unbeeindruckt-von-den-qd-oled-displays/
wolik
2020-09-19, 08:10:00
Für Gaming kommt nichts ausser OLED mehr in die Frage. Für "Wetten das" reicht auch die Glotze aus 1990.
Wie teuer kann 8K OLED sein? Mh.. 4x 48CX kosten grade 6K. Nach paar Jahren denke ich 3K. 5 Jahren unter 2K.
Samsung ist weit von LG entfernt. Habe beide Top Produkten von diese Firmen in Haus.
Kartenlehrling
2020-09-19, 10:47:26
Wenn die Filmindustrie uns wirklich erstmal nur geradeso über den SDR Farbraum BT.709 uns ein Fake HDR präsentiert,
kann man den Unterschied nie sehen und man wird immer den OLED vorziehen.
Fragman
2020-09-19, 11:01:58
Wenn die Filmindustrie uns wirklich erstmal nur geradeso über den SDR Farbraum BT.709 uns ein Fake HDR präsentiert,
kann man den Unterschied nie sehen und man wird immer den OLED vorziehen.
Bei den OLED Preisen will man sich nicht ausmalen, was etwas besseres kosten sollen würde. :D
Kartenlehrling
2020-09-19, 14:12:59
Wiegesagt es kristalliert sich heraus das wir betrogen werden und
jeder OLED Besitzer kann es ja an der Matrix UHD bewerten ob ihr OLED sich wirklich als die beste HDR Ausgabe beweist.
https://www.4kfilme.de/wp-content/uploads/2019/08/high-apl-dual-layer-lcd-vs-oled-1024x576.jpg
Diese Szene von der Matrix 4K Blu-ray mit einer hohen APL (Durchschnittlichen Bildhelligkeit)
stellt der Dual-Layer-LCD-Display Sony HX310 (Profigerät 30.000€) weitaus besser als ein 2019 OLED TV dar!
Vincent Teoh behaupte das Matrix Bluray nicht nur Filmisch der Zeit voraus ist sondern auch Technisch,
die UHD-Bluray soll bei dem BT.2020 Farbraum bis an die Grenzen dessen heute technisch machbaren TV Geräte sein.
Selbst die HDR10 Metadaten sind für die heutige Zeit (2020) Richtig bzw. gut eingestellt.
Matrix 4k UHD Bluray Metadaten (oppo Blurayplayer info)
Maximum Light Level 992 nit
Maximum Luminance 1000 nit
Minimum Luminance 0,0020 nit
Wiegesagt es kristalliert sich heraus das wir betrogen werden und
jeder OLED Besitzer kann es ja an der Matrix UHD bewerten ob ihr OLED sich wirklich als die beste HDR Ausgabe beweist.
HDR hat Range im Namen. Daher ist nicht die Spitzenhelligkeit das alleinige Kriterium.
Ich habe die Matrix UHD und einen OLED. HDR sieht super aus. Der letzte Stop nach oben fehlt, abends dafür ken Blooming bei den vielen Highlights. Dass da diese eine Szene auf einem 32" Monitor, der so viel wie ein Auto kostet besser aussieht: geschenkt.
Kartenlehrling
2020-09-19, 15:27:36
HDR hat Range im Namen. Daher ist nicht die Spitzenhelligkeit das alleinige Kriterium.
Das eine hat mit dem anderen zu tun, ein LG CX OLED hat eine Normalized Rec 2020 Coverage ITP 61.0 % (Q90t 70.2 %) und
Normalized DCI P3 Coverage ITP 80.6 %. (Q90T 85.2 %)
Und wenn ich sage das die Matrix UHD Blu-ray am Aussenrand von Rec 2020 mitmischt, dann werden die 61% wohl nicht reichen um alles abzudecken.
Der Panasonic Dual-Panel MegaCon der auf der ifa2019 gezeigt wurde schaft 99 Prozent des DCI-P3-Farbraums.
Nach dem jetztigen Stand, behaupte ich das 80% der jetzigen veröffentlichten Film in 4k-HDR10 nichtmal den Rand von DCI P3 erreichen.
Und die Geschichte mit den Metadaten bei HDR10 muss auch aufgeklärt werden, aber das gehört hier im Thread nicht rein.
Um den Thread Titel gerecht zu werden, OLED im Jahr 2020 hat keine Fortschritte in Helligkeit und Farbraum gemacht.
http://www.av199.net/upload/default/20200206/6cff521cc730fbd24df1898bdfc902d5.jpghttps://tmfta.konsole-labs.com/data/img/2697.jpg
70% ebenfalls nicht. Und schon mal gar nicht bei den dunklen Farben aus dem Video, die kann ein LCd nämlich nicht mit hoher Sattigung darstellen.
aufkrawall
2020-09-19, 15:46:41
Kann man das denn sehen, oder lässt sich das nicht einfach unter dem schlechteren Schwarzwert verbuchen?
Ohne Vergleich fällt einem das nicht auf. In beide Richtungen. Das Blooming der FALD LCDs hingegen schon.
Kartenlehrling
2020-09-19, 15:55:07
70% ebenfalls nicht.
Habe ich nie behauptet, nur das Wir belogen werden und vielleicht die OLED Besitzer sich selbst belügen. :cool:
Wenn die Filmindustrie uns wirklich erstmal nur geradeso über den SDR Farbraum BT.709 uns ein Fake HDR präsentiert,
kann man den Unterschied nie sehen und man wird immer den OLED vorziehen.
Implizit schon. Wenn man es nicht sieht, belügt man sich nicht selber. Brauchst dich also nicht herauszureden.
aufkrawall
2020-09-19, 15:59:29
Nach Kalibrierung schafft LG OLED doch sicherlich >90% DCI-P3?
Klar. Nur nicht bei sehr hellen Farben. Da geht es ja um das Farbvolumen. RGB (ohne weissen Pixel) schafft ein OLED nur ca 400 nits, daher ist das DCI Farbvolumen geringer. Dafür schafft ein LCD keine sehr gesättigte dunkle Farben, da er die anderen Subpixel nicht ausschalten kann.
aufkrawall
2020-09-19, 16:12:39
Ja, beides ist so gesehen halb so wild. Der saubere Kontrast von OLED sollte das aber ums Zigfache aufwiegen.
Wenn die Farbraumabdeckung ootb aber wirklich so schlecht ist, sollte LG da trotzdem mal den Arsch hochkriegen.
Ist er nicht. Der liegt bei ca 97-98% DCI.
Kartenlehrling
2020-09-19, 16:42:32
Nur wird bei HDR nicht mehr mit dem 2D Bild - Wide Color Gamut
bewerte, sonder wie du es schon richtig festgestellt hast mit der 3D Bild - Color Volume.
Um den Thread Titel gerecht zu werden, OLED im Jahr 2020 hat keine Fortschritte in Helligkeit und Farbraum gemacht.
2019 eigentlich auch schon nicht mehr. Das ist mal wieder ein typischer Stillstand dank fehlender Konkurrenz.
Das wird dann evtl nächstes Jahr etwas. Dafür werden die Dinger aber wenigstens jedes Jahr günstiger.
Wenn die Filmindustrie uns wirklich erstmal nur geradeso über den SDR Farbraum BT.709 uns ein Fake HDR präsentiert,
kann man den Unterschied nie sehen und man wird immer den OLED vorziehen.
Natürlich, das wichtige für HDR steckt im Namen und das ist die Range, und OLED ist aktuell die einzige Technik welche die Range auch bieten kann.
Die Maximalhelligkeit spielt dagegen kaum eine Rolle, da sich unser Auge an die Helligkeit anpasst und damit eine weiße Fläche, nach Adaption der Augen, immer mehr oder weniger gleich aussieht, egal wie hoch die Helligkeit dieser Fläche ist.
Dass etwas wesentlich heller ist bekommen wir erst mit, wenn wir gleichzeitig auch etwas deutlich dunkleres im Blickfeld haben, wir sehen effektiv nur relative Helligkeiten, keine absoluten.
Daher ist es auch nebensächlich wenn Technologie A eine höhere Maximalhelligkeit bietet, weil wir diesen Umstand ohne direkten Vergleich ohnehin nicht Wahrnehmen, und erst wenn wir gleichzeitig auch was dunkles sehen und sich unsere Augen darauf einstellen nimmt man die hohe Helligkeit wirklich war. Nur kann die aktuelle LCD Technologie, gar nicht gleichzeitig das dunkle sowie das sehr helle darstellen, weshalb diese für HDR ungeeignet ist.
Kartenlehrling
2020-09-20, 18:11:28
Das ist mal wieder ein typischer Stillstand dank fehlender Konkurrenz.
Man brauch keine Konkurrenz.
Man hat sich vor 3 Jahre schon selbst ein Ziel gesetzt, (https://www.tv-plattform.de/de/ultra-hd-premium-logo)
und ich rede nicht vom Klimaziel :tongue:
"The UHD Alliance Premium specification is for 90% of DCI-P3 and 1000 nits for LCDs and 540 nits for OLED HDR displays. "
Selbst diese Werte werden nicht erfüllt, aber sie brauchen es ja nicht, weil das Zuspielmaterial gerade bessers SDR BT.709 bereitstellt.
Anforderungen des Ultra HD Premium Logos
Bildwiedergabe-Geräte
Die UHD Alliance unterstützt unterschiedlichste Display-Technologien.
Es wurden mehrere Parameter festgelegt um die Premium-Erfahrung für den Verbraucher zu sichern.
Displays welche das UHD Alliance Logo tragen möchten müssen folgende Spezifikationen erfüllen:
• Auflösung: 3840×2160 Bildpunkte
• Farbtiefe: 10-bit Signal
• Farbraum (Wide Color Gamut)
Signaleingang: BT.2020 Farbwiedergabe
Display Wiedergabe: Über 90 Prozent des P3 Farbraumes
• High Dynamic Range (HDR)
SMPTE ST2084 EOTF
Eine Kombination aus Spitzenhelligkeit und Schwarzwert, entweder:
über 1000 cd/m² Spitzenhelligkeit bei einem Schwarzwert von 0.05 cd/moder
über 540 cd/m² Spitzenhelligkeit bei einem Schwarzwert von maximal 0,0005 cd/m²
Ultra HD Blu-ray Player
• Die Anforderungen für Ultra HD Blu-ray Player wurden von der Ultra HD Allianz noch nicht öffentlich kommuniziert.
Vertrieb
Vertriebskanäle welche den UDH Alliance Content unterstützen müssen folgende Parameter erfüllen:
• Auflösung: 3840×2160
• Farbtiefe: Minimum 10-bit Signal
• Farbraum: BT.2020 Farbwiedergabe
• High Dynamic Range: SMPTE ST2084 EOTF (Standard)
Inhalte Mastering
• Auflösung: 3840×2160
• Farbtiefe: Minimum 10-bit Signal
• Farbraum: BT.2020 Farbwiedergabe
• High Dynamic Range: SMPTE ST2084 EOTF (Standard)
Spezifikationen für Ultra HD Mastering Displays
• Display Wiedergabe: Minimum 100% des P3 Farbraumes
• Spitzenhelligkeit: Über 1000 cd/m²
• Schwarzwert: weniger als 0.03 cd/m²
Colin MacLaren
2020-09-20, 20:21:03
Natürlich, das wichtige für HDR steckt im Namen und das ist die Range, und OLED ist aktuell die einzige Technik welche die Range auch bieten kann.
Die Maximalhelligkeit spielt dagegen kaum eine Rolle, da sich unser Auge an die Helligkeit anpasst und damit eine weiße Fläche, nach Adaption der Augen, immer mehr oder weniger gleich aussieht, egal wie hoch die Helligkeit dieser Fläche ist.
Dass etwas wesentlich heller ist bekommen wir erst mit, wenn wir gleichzeitig auch etwas deutlich dunkleres im Blickfeld haben, wir sehen effektiv nur relative Helligkeiten, keine absoluten.
Daher ist es auch nebensächlich wenn Technologie A eine höhere Maximalhelligkeit bietet, weil wir diesen Umstand ohne direkten Vergleich ohnehin nicht Wahrnehmen, und erst wenn wir gleichzeitig auch was dunkles sehen und sich unsere Augen darauf einstellen nimmt man die hohe Helligkeit wirklich war. Nur kann die aktuelle LCD Technologie, gar nicht gleichzeitig das dunkle sowie das sehr helle darstellen, weshalb diese für HDR ungeeignet ist.
Ich bin von OLED auf QLED umgestiegen. Wir schauen zugegebenermaßen nicht im Komplett abgedunkelten Raum, aber definitiv ist der QLED bei HDR um Welten beeindruckender.
Ich bin von OLED auf QLED umgestiegen. Wir schauen zugegebenermaßen nicht im Komplett abgedunkelten Raum, aber definitiv ist der QLED bei HDR um Welten beeindruckender.
Da kann man nur sagen selbst schuld wenn man die Dynamik von HDR bewusst durch vorhandene Umgebungsbeleuchtung verringert. Und diese verringert sich mit jeder Displaytechnologie, aber ja, mit einer höheren Maximalhelligkeit und einer Reflektivität des Panels die gering genug ist, kann dann theoretisch effektiv mehr Dynamik übrig bleiben.
Die ist aber in jedem Fall mehr oder weniger deutlich geringer, als wenn beide Panels idealerweise im abgedunkelten Raum betrieben werden.
sun-man
2020-09-21, 20:09:31
Achtung. B7 hat wohl teilweise Rückrufe wegen Überhitzung
https://stadt-bremerhaven.de/lg-oled-ueberhitzungsgefahr-beim-65b7-aus-dem-jahr-2017/
M4xw0lf
2020-09-21, 20:26:40
Achtung. B7 hat wohl teilweise Rückrufe wegen Überhitzung
https://stadt-bremerhaven.de/lg-oled-ueberhitzungsgefahr-beim-65b7-aus-dem-jahr-2017/
Wat? Jetzt? Was hat sich geändert? :uponder:
Kartenlehrling
2020-09-21, 20:42:12
Da kann man nur sagen selbst schuld wenn man die Dynamik von HDR bewusst durch vorhandene Umgebungsbeleuchtung verringert.
Und diese verringert sich mit jeder Displaytechnologie, aber ja, mit einer höheren Maximalhelligkeit und einer Reflektivität des Panels die gering genug ist,
kann dann theoretisch effektiv mehr Dynamik übrig bleiben.
Die ist aber in jedem Fall mehr oder weniger deutlich geringer, als wenn beide Panels idealerweise im abgedunkelten Raum betrieben werden.
Ich weiß ja nicht wer sich hinter @Gast versteckt, aber du hast schon oben bewiesen das du HDR nicht verstehst und
nur als Helligkeitsabstufunge siehst, nur brauch man diese Helligkeit um die zusätzlichen Farben die über den Bereich von BT.709 (SDR) geht.
Man würde doch heute auch nicht behaupten das 16 oder 255 Farben auf dem Computer reichen.
Schon vor zwei jahren hat Christian Trozinski vom HDTV Magazin das Problem erkannt und ein Video dazu gemacht.
Schade das dieser Youtubekanal von Digitalfernseh.de nicht mehr gibt.
0ujZl2bMsZ8
HDR in Perfektion Teil 1: Sony AF8 und XF90 im Vergleich, SDR, HDR10, Dolby Vision und mehr
Ich weiß ja nicht wer sich hinter @Gast versteckt, aber du hast schon oben bewiesen das du HDR nicht verstehst und
nur als Helligkeitsabstufunge siehst, nur brauch man diese Helligkeit um die zusätzlichen Farben die über den Bereich von BT.709 (SDR) geht.
Schadet hohe Helligkeit? Nein.
Aber sehr viel wichtiger für HDR ist die Range, deshalb ist diese auch im Namen und kein Wort von Helligkeit.
LCDs können die notwendige Range nicht bieten, deshalb ist es völlig egal welche Helligkeit sie haben, und wenn es 100000cd/m² wären.
Abgesehen davon dass der Unterschied gar nicht so groß ist, da wo es darauf an kommt schaffen auch OLEDs 700-800cd, die LCDs vielleicht 1000-1200.
Nur ist das Auge im hellen bereich wesentlich unempfindlicher, sprich es kann wesentlich weniger Abstufungen wahrnehmen als im dunklen Bereich.
Der Helligkeitsunterschied ist also defakto ohne direkten nebeneinander Vergleich gar nicht sichtbar, ganz im Gegensatz zum fehlenden Kontrast der LCDs.
sun-man
2020-09-22, 06:56:53
Wat? Jetzt? Was hat sich geändert? :uponder:
Keine Ahnung. Lies den Artikel. Dinge ändern sich halt. Bei meinem alten Auto (fast 20) gabs noch heute Airbag-Rückrufe.
Zergra
2020-09-22, 08:29:27
Achtung. B7 hat wohl teilweise Rückrufe wegen Überhitzung
https://stadt-bremerhaven.de/lg-oled-ueberhitzungsgefahr-beim-65b7-aus-dem-jahr-2017/
Update:
Es sind mehr Modelle betroffen. Das Überhitzungsproblem betrifft auch folgende OLED-Modelle für den deutschen Markt:
OLED65W7
OLED65E6
OLED65E7
OLED65C7
Betrifft wohl auch andere.
woodsdog
2020-09-22, 10:06:11
Das ist keine News, wir hatten das Thema hier schon ende Juli.
OK, angeblich vorher nur "SK Modelle" betroffen. Ergibt wenig Sinn aber dann ists wohl doch etwas "neues".
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12374750#post12374750
sun-man
2020-09-22, 10:12:45
:up:
Kartenlehrling
2020-09-23, 17:31:56
NaaaJa.
9g0GV3Zh4pk
BOE 13.6-inch FHD QD-OLED prototype, SID Displayweek 2020
2hQs-CM17CE
BOE 55-inch 8K inkjet printed OLED at SID Displayweek 2020
8k auf 55inch ist natürlich klasse, aber nur 400nits ??!! :freak:
PatkIllA
2020-09-25, 20:05:12
Wie ist das eigentlich mit Garantie und Service bei LG macht LG das selbst oder muss man zum Händler.
Hier (https://edigital.de/led-fernseher/lg-oled55cx3la-webos-smart-4k-ultra-hd-hdr-oled-fernseher-p762875) gibt es die SingleTuner Versionen aus Ungarn für billiger als die hiesigen.
Funzt 120 Hz mir VRR jetzt auf den LG Oleds mit den neuen Ampere Grakas? Sind ja die ersten HDMI 2.1 Quellgeräte. Bislang haben die Karten doch nur 12 Bit gemacht was mit der 2020er Serie ja nicht geht.
Ich habe immer nur die 8K Oled mit 60Hz gesehen. Wurde ja anscheinend von NVIDIA so vorgegben.
Sardaukar.nsn
2020-09-26, 06:01:03
Funktioniert aktuell noch nicht, aber man arbeitet daran: https://www.4kfilme.de/lg-arbeitet-an-einem-firmware-update-fuer-das-g-sync-problem/
woodsdog
2020-09-26, 07:03:58
Ich habe immer nur die 8K Oled mit 60Hz gesehen. Wurde ja anscheinend von NVIDIA so vorgegben.
Was meinst du damit? "nur" 8k60 ist jetzt schon nur mit argen Verrenkungen via 2.1 drin, was soll da NV vorgegeben haben? Mehr geht schlicht nicht auf einem Kabel.
PatkIllA
2020-09-26, 07:11:37
Ich meinte dass Nvidia aktiv 8k gaming promoted hat. Aber nicht 4k 120Hz
Funktioniert aktuell noch nicht, aber man arbeitet daran: https://www.4kfilme.de/lg-arbeitet-an-einem-firmware-update-fuer-das-g-sync-problem/
Und schon da:
3c-2Mn4ol1Q
Na dann hoffe ich mal das dies bei zukünftigen Geforce Serien zu keinen Problemen mehr kommt.
Irgendwann mal gibts auch keinen Support mehr bei den 2019/20 Modellen, dann würde man doof da stehen.
BlacKi
2020-09-26, 12:41:23
widhhh widhhh widhhh
Sardaukar.nsn
2020-10-02, 06:47:41
VMyS-muSmbE
Das ging aber zügig. Top!
Ich lese hier noch immer G-Sync :confused:
(beide LG Videos mit G-Sync in der Überschrift)
Haben die echt n G-Sync Modul verbaut ? (glaube ich nicht)
Das ist doch eher G-Sync-kompatibel... (da an sonnst gelogen)
Ich bin gespannt ob irgendwann mal, wenn es wirklich keine extra Module mehr gibt, das G-Sync endlich aus den Köpfen verschwindet...
Nennen tut man das nämlich Adaptive-Sync und das ist inklusive LFC-Support in HDMI 2.1 sowie in DP 2.0 enthalten.
Ich erwarte, das wenn ich einen HDMI 2.1 Bildschirm kaufe und ein HDMI 2.1 Abspielgerät(GPU) besitze,
das Das zusammen gut funktioniert. Dafür haben wir ja Standards :smile:
M.f.G. JVC
woodsdog
2020-10-03, 09:44:27
War VRR auf den C9/CX LGs nicht NVidia exklusiv?
Das dort kein Modul verbaut ist spielt im Grunde keine Rolle. "G-Sync-kompatibel" wird doch nur für "Freesync"-Geräte geführt um damit auszudrücken das es halt auch mit Gforces geht... und wenn die LGs kein VRR bieten wenn keine NV Graka zuspielt... so what?
Gibt es Geräte welche mit "Adaptiv sync" werben?
00-Schneider
2020-10-03, 09:48:24
War VRR auf den C9/CX LGs nicht NVidia exklusiv?
Nope. VRR geht auch mit den neuen Konsolen und auch schon mit der One X heute.
Zusätzlich dann auch noch als G-Sync mit Nvidia-Karten.
Zumindest meine ich deine Frage so verstanden zu haben. Gibt es eigentlich noch Freesync bei AMD, oder sind die zum freien VRR-Standard gewechselt?
BlacKi
2020-10-03, 13:38:41
HDMI 2.1, Nvidia G-Sync™, AMD FreeSync™ und HGiG-Unterstützung
https://www.lg.com/de/tv/lg-oled55cx8lb
Gibt es Geräte welche mit "Adaptiv sync" werben?
Wenn du in der Werbung suchst... natürlich nicht. (ich schaue keine Werbung)
Aber auf der HP der Hersteller unter den Technischen Informationen
steht da tatsächlich soviel ich gesehen habe immer "Adaptiv Sync".
Ebenso gibt es diese Auswahl auch bei Geizhals, womit man in Verbindung
mit "LFC-Support" sofort, unabhängig vom Hersteller, alles nötige hat.
@BlacKi
Aus deinem link... (LG erwähnt "Adaptiv Sync" tatsächlich nicht, umschreibt es aber ausführlich...)
"Nvidia G-Sync-Kompatibilität für flüssiges Gameplay mit Nvidia-Grafikkarten: Ja (4K/2K)"
"AMD FreeSync-Kompatibilität für flüssiges Gameplay mit AMD-Grafikkarten: Ja"
Warum hat NV eine "Beschränkung" auf 2 Auflösungen und mit AMD klappt aber scheinbar jede Auflösung :confused:
M.f.G. JVC
woodsdog
2020-10-04, 09:54:01
Nope. VRR geht auch mit den neuen Konsolen und auch schon mit der One X heute.
Zusätzlich dann auch noch als G-Sync mit Nvidia-Karten.
Zumindest meine ich deine Frage so verstanden zu haben. Gibt es eigentlich noch Freesync bei AMD, oder sind die zum freien VRR-Standard gewechselt?
Die Konsolen hatte ich jetzt nicht auf dem Zettel weil mir egal. Aber zumindest als ich meinen C9 gekauft hatte war ich der Meinung das VRR damit nur mit Turing ging (da erst Turing VRR via HDMI konnte, Pascal war hier auf DP beschränkt) und eben nicht mit AMD. Kann mich aber auch irren. Ist doch gut wenns jetzt mit allen funktioniert. :)
just4FunTA
2020-10-04, 12:37:22
es sind ja gerade jetzt erst grakas mit hdmi 2.1 rausgekommen und davon auch nicht gerade viele, in 1 bis 2 Jahren spricht Niemand mehr von Gsync/Freesync dann nutzt du auf deinem tv einfach vrr und gut ist. ;)
woodsdog
2020-10-04, 16:59:09
mit HDMI 2.1 hat das erst mal nix zu tun, VRR geht mit dem C9 und Turing + XBox ja schon seit 1,5 Jahren in der Praxis. 1440p120/4k60 mit VRR ist schon was
just4FunTA
2020-10-04, 17:12:36
mit HDMI 2.1 hat das erst mal nix zu tun, VRR geht mit dem C9 und Turing + XBox ja schon seit 1,5 Jahren in der Praxis. 1440p120/4k60 mit VRR ist schon was
ja toll geht mit turing, das bringt mir nix. ich warte lieber auf hdmi 2.1 Grakas und dann verschwindet auch der quatsch mit gsync/freesync..
Kartenlehrling
2020-10-05, 17:23:43
Da bin ich aber auf den Test von Vincent (HDTVtest) gespannt.
P1AKZQ1uxDY
I Paid $2750 to Buy This $1300 Vizio OLED TV [Unboxing]
PD8edb585Jk
Vizio OLED TV’s Raised Black Levels an Easy Fix, Right?
Nightspider
2020-10-06, 00:57:42
Auf welchen LG OLEDs wurde jetzt LFC unterstützt und mit welchen Grafikkarten geht dies?
Irgendwie ist es schade das durch Corona die Produktion gedrosselt wurde und die X-Reihe nur so langsam im Preis sinkt.
Und über die 2021er Serie gibts auch noch keine Infos.
Blase
2020-10-06, 08:57:06
Ich meine, dass LG für sowohl die C9 als auch die CX Serie nun die Firmeware Updates draußen hat, die 4K @120 HZ VRR unterstützen.
Damit du allerdings GSync überhaupt einstellen kannst, wird imho eine 30X0 Grafikkarte benötigt, weil nur die via HDMI 2.1 dies auch unterstützt. Ansonsten wird ja ein DP Anschluss benötigt - den der Fernseher gar nicht hat. Keine Ahnung, wie das mit Freesync aussieht...
woodsdog
2020-10-06, 09:14:13
Da LFC Software ist und die LGs mit 40-120Hz einen ausreichend großen Bereich bieten sollte es mit praktisch allem laufen was VRR über HDMI kann.
Das ist bei NV ab Turing und bei AMD ab Polaris der Fall (AFAIK).
Der Link hier (https://www.4kfilme.de/kein-perfekter-gaming-tv-lg-oled-2019-muessen-ohne-amd-freesync-auskommen/) schreibt im August 2020 das für B9/C9/E9 wohl doch keine offizielle Freesync Unterstützung mehr kommt und die nur Gsync und generisches VRR können - ggf ist das als Einschränkung für LFC zu verstehen - i don't know
Die 2020er BX/CX/GX/ZX können Gsync/Freesync/generisch VRR laut LG, die WX und RX Modelle hingegen gar nichts (warum auch immer...)
Kartenlehrling
2020-10-06, 09:54:57
LG Signature Series OLED TV R (65R9 rollable television)
It's only available in South Korea for now
https://www.techradar.com/news/lgs-rollable-oled-tv-is-so-much-more-expensive-than-we-thought
Rollbarer LG TV gibts in Korea für 116.091.000 Südkoreanischer Won, ca. 85.000€
Für 65inch ein spur zu teuer.
woodsdog
2020-10-06, 10:02:12
kommt halt ganz drauf an wie oft du deine herkömlichen OLEDs aufrollst. Nach ca. 60 mal aufrollen und neu kaufen lohnt das schon. :biggrin:
Nightspider
2020-10-06, 10:11:11
:ugly:
https://www.techradar.com/news/lgs-rollable-oled-tv-is-so-much-more-expensive-than-we-thought
Rollbarer LG TV gibts in Korea für 116.091.000 Südkoreanischer Won, ca. 85.000€
Für 65inch ein spur zu teuer.
Ich wüsste nicht wofür ich das brauchen sollte.
00-Schneider
2020-10-11, 20:12:51
Hatte ich gar nicht auf dem Schirm, klingt nicht schlecht:
uEMa-CenQwc
-----------------
Scheiß EU mit ihren Energieregularien.
Tobalt
2020-10-11, 20:25:30
Noone Said Double Penetration was easy :D
wie sieht es mit den Kosten von Dual LCDs aus?
Deinorius
2020-10-21, 15:12:36
Wer sagt, dass Dual LCD überhaupt eine reelle Chance hat, wenn sich ja auch OLED weiterentwickelt und spätestens mit dem Druckverfahren (deutlich?) billiger wird. Ein weiteres Layer senkt die Kosten sicher nicht.
00-Schneider
2020-10-21, 15:17:55
Dual Layer wird halt vor allem wegen den hohen Energiekosten scheitern. Da gibt es von der EU etc. deutliche Regularien. Selbst OLEDs könnten heutzutage deutlich heller sein, wenn es nicht diese Regularien der EU gäbe.
PatkIllA
2020-10-21, 15:28:12
Komischerweise kann man immer noch Projektoren mit 250W+ quecksilberhaltigen Lampen verkaufen.
Naja, die Teile verschlingen bei 32" mehr als 1000W im HDR Modus. Sie sind daher dick, schwer und aktiv gekühlt. Sowas würde ich nicht im WZ haben wollen, wo es im Sommer auch so schon warm genug wird. Man kann sich vorstelken wie viel Leistung ein 65" Dual LCD benötigen wird. Das ist einfach nicht zu betreiben, Regularien hin oder her.
Megatron
2020-10-21, 17:19:21
Naja, die Teile verschlingen bei 32" mehr als 1000W im HDR Modus. Sie sind daher dick, schwer und aktiv gekühlt. Sowas würde ich nicht im WZ haben wollen, wo es im Sommer auch so schon warm genug wird. Man kann sich vorstelken wie viel Leistung ein 65" Dual LCD benötigen wird. Das ist einfach nicht zu betreiben, Regularien hin oder her.
Bitte WAS :rolleyes:
Wenn du den Verbrauch drittelst und das dann für die 65" Variante nimmst, dürften wir der Realität deutlich näher kommen.
So ein aktueller 65" Samsung mit bis zu 2000 Nits liegt laut Webseite bei etwas über 200W. Für das gesamte Gerät, also Beleuchtung + Panel + Tuner + Prozessor + Audioverstärker.
Selbst wenn man sagt, das Zusatzpanel hätte in der Spitze eine Lichtdurchlässigkeit von 66%, und wir sagen die 200W gehen nur für Display + Beleuchtung drauf, dann landest du bei 300W für eine vergleichbare Helligkeit.
Wahrscheinlicher ist es aber, das aber so ein abgespecktes Display fürs Dimming (es gibt ja keine Farbunterteilung wie beim normalen Panel) deutlich mehr vom Licht durchlässt und dementsprechend selbst die 300W noch deutlich über der Realität sind.
Zur Preisfrage, gab es da mal was von BOE. Ich glaube für einen 55" TV ging man bei der Massenproduktion von ~30€ für das extra Panel aus. Das wäre also noch recht überschaubar.
Savay
2020-10-21, 17:35:22
Bitte WAS :rolleyes:
Schau dir weiter oben doch einfach mal das Video an.
Nen kleiner LMCL Fieldmonitor bei 1000Nits zieht da schon 330W. Gemessen! :rolleyes:
Bei mehr Fläche wird das definitiv nicht besser.
Selbst wenn es dann bei 55-65 "nur" irgendwo zwischen 500-700W werden ist das nicht mit irgendwelchen Regularien vereinbar oder Kunden zu erklären geschweige denn abseits irgendwelcher Nischen in der Breite verkaufbar.
deutlich mehr vom Licht durchlässt und dementsprechend selbst die 300W noch deutlich über der Realität sind.
Wenn das LM Panel signifikant durchlässiger wird, bedeutet aber weniger Kontrastgewinn durch den 2. Layer.
Konterkariert den ganzen Sinn irgendwie komplett.
Ja, das mit den 1000W hatte ich verwechselt. Trotzdem sind 380W für 32" zu viel. 65" sind die 4fache Fläche. Da landest du bei 1.600W bei HDR. Da es immer noch ein LCD ist, leuchtet das gesamte Backlight, egal was dargestellt wird.
Der Samsung zieht nur 200W, weil der bei 2000 nits nur bei 10% der Fläche ausleuchtet und den Rest des Backlights dimmt. Kannst ja mal ausrechnen, was der Samsung ziehen würde, wenn das ganze Backlight mit 2000 nits ausleuchten muss. Und nein zusätzlich Local Dimming würde das ganze Konzept konterkarieren. Der Sony BVM hat btw schon ein einfaches Panel (1080p und Monochrom) als ersten Layer und trotzdem verbraucht er zu viel weil durch einen LCD Layer wesentlich mehr Licht als nur 33% verloren gehen.
Megatron
2020-10-21, 19:07:37
Ok, ok, wie wäre es dann mit einem mehr oder weniger realen Produkt (https://www.displayspecifications.com/en/model/666e1ab5) ;)
Das Teil hat ganz sicher keine Postproduction Referenzqualität aber besser als reguläre Techniken alleine ist das schon.
Das ist übrigens das BOE-Dual Layer Panel....
Ist halt die Frage wie viel es kostet. 500 cd/m2 ist jetzt auch kein Fortschritt ggü OLED.
Megatron
2020-10-21, 19:36:02
Da gibt es was bei Youtube (https://www.youtube.com/watch?v=RZ9hHRQQYgY&feature=emb_logo)
So richtig erhältlich ist das Teil nur in Austalien (https://hisense.com.au/product/65-dual-cell-series-sx/) und das US Modell sollte eigentlich langsam verfügbar werden. Hier als U9x (https://www.4kfilme.de/hisense-u9x-dual-cell-4k-tv-mit-2-mio-dimming-zonen-und-1-500-nits-ces-2020/) angekündigt und auf der anderen Seite des Teiches als XD9G (https://www.makeuseof.com/tag/hisense-xd9g-dual-cell-lcd-tv-rivals-oled-displays/).
PatkIllA
2020-10-22, 20:12:39
Habe mir auch einen LG OLED65CX9LA bestellt. Hoffentlich passt der ins Auto und die Treppe hoch. Größer musste es als Zweitgerät fürs Schlafzimmer aber nicht sein :biggrin:
Ich hatte schon erwartet,dass MediaMarkt vor der Mehrwertsteueraktion teurer oder nicht mehr verfügbar macht.
JaniC
2020-10-22, 20:43:19
Kommt auf dein Auto an. Der Karton ist abartig riesig. Kannst alleine eigentlich wegen der Größe auch nicht wirklich tragen.
Bei einem normalen 5 Türer sehe ich schwarz.
Selbst Kombi wird eng.
VW Bus geht klar. ;)
Hab's liefern lassen, bis inne Bude.
PatkIllA
2020-10-22, 20:48:09
Aber liefern dauert eine Woche und beim lokalen markt direkt verfügbar. Hätte einen Yeti. Notfalls hat der noch eine Anhängerkupplung
JaniC
2020-10-22, 20:50:54
Ich könnte kurz in den Keller, den Karton ausmessen. Aber bin ehrlich gesagt zu faul.
JaniC
2020-10-22, 20:55:56
Ok, Foto aus dem März rausgesucht. Der Teppich unter dem Karton ist 2m lang und ich hab Schugröße 47, for scale:
https://abload.de/img/lgc9kartonirjpk.png
Viel Glück ;)
Schätze mal so 170-180cm x 80-100cm x 20-25cm.
Mr Power
2020-10-22, 20:59:44
Same here. Auch gerade den 65CX bestellt. Hoffe, ich krieg den in den Golf.
Rooter
2020-10-22, 21:00:16
Hätte einen Yeti. Notfalls hat der noch eine AnhängerkupplungVon deiner Freundin, die ein Pferd hat!? :wink:
MfG
Rooter
JaniC
2020-10-22, 21:00:16
Same here. Auch gerade den 65CX bestellt. Hoffe, ich krieg den in den Golf.
Sehe ich schwarz. Aber bin auf Fotos gespannt. :D
sven2.0
2020-10-22, 21:02:51
Hatte den C9 im Ford Cmax.. sollte gehen, die Packmasse stehen aber bei MM auch auf der Seite
JaniC
2020-10-22, 21:03:58
Von der offiziellen Webseite:
https://abload.de/img/verpackungc94sjoq.png
https://www.lg.com/de/tv/lg-OLED65C97LA
Mr Power
2020-10-22, 21:04:43
Sehe ich schwarz. Aber bin auf Fotos gespannt. :D
Ich versuche es mal. Zur Not gibt es in der Familie noch einen Kombi und ein SUV. Oder es muss eine Carsharing-Karre sein.
PatkIllA
2020-10-22, 21:04:51
Von deiner Freundin, die ein Pferd hat!? :wink:Meine Schwester hätte einen Pickup und Viehanhänger. Allerdings für Kühe.Notfalls ginge auch also auch ein Trecker :)
Mr Power
2020-10-22, 21:08:02
Von der offiziellen Webseite:
https://abload.de/img/verpackungc94sjoq.png
https://www.lg.com/de/tv/lg-OLED65C97LA
Danke. Damit wird es knapp beim Golf. Könnte aber klappen. Beim Octavia meiner Schwester klappt es dann definitiv.
PatkIllA
2020-10-22, 21:12:37
Ich habe heute gelernt, dass es einen 4K 152" Plasma gab. Der wog auch nur über eine halbe Tonne und hat 3700W Verbraucht.
Also so größ ist 65 Zoll dann nicht.
MasterElwood
2020-10-22, 22:57:55
Same here. Auch gerade den 65CX bestellt. Hoffe, ich krieg den in den Golf.
Hab den 65"C8 in einen Hyundai I30 bekommen. Der is genauso groß wie ein Golf.
Muselbert
2020-10-22, 23:35:45
Hab den 65"C8 in einen Hyundai I30 bekommen. Der is genauso groß wie ein Golf.
65C8: 160x97x20.7cm
65CX: 167.7x95x20.7cm
Die knapp 8cm mehr Länge könnten aber entscheidend werden...
Ich habe heute gelernt, dass es einen 4K 152" Plasma gab. Der wog auch nur über eine halbe Tonne und hat 3700W Verbraucht.
Also so größ ist 65 Zoll dann nicht.
Ui, den kannte ich noch gar nicht!
https://www.panasonic.com/business/plasma/pdf/TH152UX1SpecSheet.pdf
https://newatlas.com/panasonic-hd-3d/13842/
Was für ein Biest!
Hacki_P3D
2020-10-23, 14:14:08
65C8: 160x97x20.7cm
65CX: 167.7x95x20.7cm
Die knapp 8cm mehr Länge könnten aber entscheidend werden...
Und der 65CX8 ist ein weiteres Modell? Oder ein Schreibfehler? Langsam blick ich nicht durch ;D
https://www.expert.de/shop/unsere-produkte/tv-audio/fernseher/lcd-led-fernseher/11128240509-oled65cx8lb-oled-tv.html
00-Schneider
2020-10-23, 14:23:12
Liefern die Märkte aktuell wegen Corona nicht mehr aus?
Kostet zwar Geld, aber spart Nerven/Zeit und das Transportrisiko liegt auch beim Markt.
PatkIllA
2020-10-23, 15:24:46
Habe mir auch einen LG OLED65CX9LA bestellt. ...
Ich hatte schon erwartet,dass MediaMarkt vor der Mehrwertsteueraktion teurer oder nicht mehr verfügbar macht.Jetzt auch erst wieder Lieferung online ab 2.11. und in den Märkten bei mir in der Nähe auch nicht mehr direkt verfügbar.
Und ich habe auch noch keine Abholbestägigung bekommen.
Liefern die Märkte aktuell wegen Corona nicht mehr aus?
Kostet zwar Geld, aber spart Nerven/Zeit und das Transportrisiko liegt auch beim Markt.
Lieferung wäre möglich und sogar umsonst gewesen. Hätte trotz verfügbar eine Woche gedauert.
Muselbert
2020-10-23, 15:32:01
Und der 65CX8 ist ein weiteres Modell? Oder ein Schreibfehler? Langsam blick ich nicht durch ;D
https://www.expert.de/shop/unsere-produkte/tv-audio/fernseher/lcd-led-fernseher/11128240509-oled65cx8lb-oled-tv.html
Ne, der c8 den Master Elwood erwähnt hat ist das Vorgängermodell von 2018 (das X steht ja bescheuerterweise für ne 10).
Habe mir auch einen LG OLED65CX9LA bestellt. Hoffentlich passt der ins Auto und die Treppe hoch. Größer musste es als Zweitgerät fürs Schlafzimmer aber nicht sein :biggrin:
Ich hatte schon erwartet,dass MediaMarkt vor der Mehrwertsteueraktion teurer oder nicht mehr verfügbar macht.
Just in case:
Denk auch dran den Cashback von LG zu nutzen: https://www.service-lg.com/lg/StrahlendeAugen
Ich hab beim LG OLED77CX9LA bei der MediaMarkt-Aktion zugeschlagen. Ich hab aber schon etwas Respekt wegen der Größe, ich hab aktuell noch einen 42" LCD, aber den fand ich die letzte Zeit schon immer arg klein. Am 02.11 kommt er :D
Kartenlehrling
2020-10-23, 16:56:16
Ich hab aber schon etwas Respekt wegen der Größe,...
Nach zwei Wochen ist er Dir zuklein.
Muselbert
2020-10-23, 18:00:17
Nach zwei Wochen ist er Dir zuklein.
Wem ein 77inch-Modell zu klein ist, hat ein Problem :freak:
PatkIllA
2020-10-23, 18:15:32
Wem ein 77inch-Modell zu klein ist, hat ein Problem :freak:
Schaut auf seine 110 Zoll Leinwand...
MasterElwood
2020-10-23, 18:17:03
Nach zwei Wochen ist er Dir zuklein.
Zustimmung. Mein 65" war mir schon nach EINER Woche zu klein.
MasterElwood
2020-10-23, 18:28:55
Schaut auf seine 110 Zoll Leinwand...
Schaut sabbernd auf Samsung The Wall Werbung
SamLombardo
2020-10-23, 18:50:33
Wem ein 77inch-Modell zu klein ist, hat ein Problem :freak:
Hier! Warte sehnsüchtig auf einen bezahlbaren 88er. Sobald dieser unter 5k zu haben ist (hoffe auf übernächstes Jahr) löst er meinen 77c8 ab. :wink:
Mr Power
2020-10-23, 19:48:47
65C8: 160x97x20.7cm
65CX: 167.7x95x20.7cm
Die knapp 8cm mehr Länge könnten aber entscheidend werden...
Ich hab den CX9 übrigens gerade storniert und einen CX6 bestellt. Den Twin Tuner brauch ich nicht und spare so noch mal 50 EUR (und den Aufwand mit Cashback).
Ich bin mir inzwischen sicher, dass er nicht in den Golf passt. Allerdings hat der Golf GTE auch einen besonders kleinen Kofferraum. In den normalen Golf 7 müsste es eigentlich passen. Ich fahr jetzt nächste Woche mit dem Octavia Kombi vorbei.
woodsdog
2020-10-24, 11:19:34
mein 55" C9 hat gerade so in meinen 2016er 1er gepasst ohne das wir die Vordersitze noch anpassen mussten. War schon etwas erschrocken xD
PatkIllA
2020-10-30, 18:57:04
Irgendwie angepisst vom MediaMarkt.
Donnerstag letzte Woche bestellt und sowohl online als auch im Markt lieferbar bei Bestellung.
Montag angerufen ob ich auch auf Lieferung umstellen könne. Ginge nicht und Geräte wäre auch schon auf dem Weg zum Markt.
Heute steht das Teil auf lieferbar und seit heute nachmittag steht, da dass man den bei heutiger Bestellung morgen abholen könnte. Trotzdem habe ich keine Abholbestätigung bekommen.
ChaosTM
2020-10-30, 19:37:32
Ich habe heute gelernt, dass es einen 4K 152" Plasma gab. Der wog auch nur über eine halbe Tonne und hat 3700W Verbraucht.
Also so größ ist 65 Zoll dann nicht.
Das war damals die Maximale Größe, die in einen Flieger gepasst hat ;)
00-Schneider
2020-11-04, 15:31:13
Scheiß auf die geringere Helligkeit bei OLED, aber sowas ist doch absolut grausam in 2020 bei LCDs:
https://abload.de/img/unbenannthxjew.png
https://www.youtube.com/watch?v=xjee0qoDwJ4
---------------------
Hat sich da in den letzten Jahren echt nichts in der Richtung getan?
MasterElwood
2020-11-04, 16:34:31
Scheiß auf die geringere Helligkeit bei OLED, aber sowas ist doch absolut grausam in 2020 bei LCDs:
https://abload.de/img/unbenannthxjew.png
https://www.youtube.com/watch?v=xjee0qoDwJ4
---------------------
Hat sich da in den letzten Jahren echt nichts in der Richtung getan?
Schaut in Wirklichkeit nicht so aus. Ist mit extremen ISO aufgenommen um das Verhalten deutlicher zu sehen
Sunrise
2020-11-04, 18:15:14
Scheiß auf die geringere Helligkeit bei OLED, aber sowas ist doch absolut grausam in 2020 bei LCDs:
https://abload.de/img/unbenannthxjew.png
https://www.youtube.com/watch?v=xjee0qoDwJ4
---------------------
Hat sich da in den letzten Jahren echt nichts in der Richtung getan?
Was sollte sich denn da deiner Meinung nach noch tun? Je mehr Dimming-Zonen und High-End Panels du verbaust desto teurer wirds. LCD/klassische LEDs sind eben am Ende, deshalb will man da ja weg und produziert jetzt nur noch möglichst billig.
OLED, Quantum-Dot OLED, MiniLED, MicroLED...
MasterElwood
2020-11-04, 19:07:27
Was sollte sich denn da deiner Meinung nach noch tun? Je mehr Dimming-Zonen und High-End Panels du verbaust desto teurer wirds. LCD/klassische LEDs sind eben am Ende, deshalb will man da ja weg und produziert jetzt nur noch möglichst billig.
OLED, Quantum-Dot OLED, MiniLED, MicroLED...
https://hifi.de/feature/hisense-dual-cell-lcd-statt-oled-23104
Rooter
2020-11-04, 19:13:50
https://hifi.de/feature/hisense-dual-cell-lcd-statt-oled-23104Braucht zuviel Strom. Und finde ich von der Grundidee auch seltsam. "Wenn X nicht gut genug ist, nehmen wir halt zwei X übereinander." :-/
MfG
Rooter
why_me
2020-11-04, 19:33:46
Wieso soll es zu viel Strom brauchen? Die LCD Layer sind relativ Sparsam, was kostet ist die Hintergrunds Beleuchtung und die bleibt gleich.
Die Idee mit 1/4 der Auflösung die Hintergrunds Beleuchtung zu dimmen ist definitiv interessant.
Nein. Jede LCD-Schicht schluckt Licht. Wurde hier auch schon diskutiert.
Undertaker
2020-11-04, 21:26:11
Da dürfte recht viel Optimierungspotential bestehen, wenn man keine Farbfilter benötigt und die Auflösung erheblich absenkt - bei einem 65"-TV dürfte man nicht einmal 640 x 360 Pixel brauchen, um Blooming in der Praxis zu unterbinden. Gleichzeitig multipliziert sich sich der Kontrast, aus zwei 1.000:1 Panels würde ein Gerät mit 1.000.000:1 resultieren - reicht für subjektives OLED-Niveau. Insgesamt also eine sehr spannende Technologie...
...sage ich als Nutzer eines High-End OLEDs. So gut das Bild im Dunklen ist, so durchschnittlich sieht es durch die begrenzte (Flächen)Helligkeit bei hellem Content tagsüber aus. Leider scheinen sich OLEDs diesbzgl. seit Jahren auch kaum weiterzuentwickeln. Ich will ein "echtes" HDR-Erlebnis mit 2.000 oder 4.000 cd/m² bzw. >1.000 cd/m² bei vollflächigem Weißanteil. Das geht aktuell leider nur unbezahlbar teuer mit Mikro-LEDs... :(
Das bezieht sich auf den Sony Referenzmonitor. Der hat ein FHD SW Panel dafür und verbraucht bei nur 32 Zoll viel zu viel.
Undertaker
2020-11-04, 21:51:47
Schafft der nicht auch abartige Helligkeiten? Zudem würde ich bei einem Display dieser Art keine vorrangige Effizienz-Optimierung erwarten. Schauen wir mal, was HiSense da abliefert... Zudem: Bei hellem Bildinhalt schwächelt die Effizienz bei OLEDs leider auch enorm, da könnte auch ein LCD mit verringerter Effizienz durchaus konkurrenzfähig bleiben. Aktuell würde ich da noch kein pauschales Urteil fällen wollen.
Undertaker
2020-11-05, 11:11:35
1.000 cd/m2 Fullscreen wäre Faktor 6-7 mehr als bei aktuellen OLED-TVs. Ich weiß jetzt nicht, welcher Verbrauch für das Teil bei welcher Helligkeit und welchem Weißanteil genau gemessen wurde - aber wie gesagt, ich hätte generell zunächst die Consumer-Umsetzung abgewartet.
Naja, bei 32" ist Fullscreen jetzt auch nicht so viel. Da kommt ein 77" OLED bei 25% weißer Fläche schon nah dran. Ich bleibe skeptisch. Insbesondere weil man bei IPS nicht beliebig die Auflösung der SW Panels herunterschrauben kann. Der Kontrast ist da so schlecht, dass du da sehr schnell kleine Halos sehen würdest.
Ich will ein "echtes" HDR-Erlebnis mit 2.000 oder 4.000 cd/m² bzw. >1.000 cd/m² bei vollflächigem Weißanteil. Das geht aktuell leider nur unbezahlbar teuer mit Mikro-LEDs... :(
Die absolute Helligkeit bei vollem Weißanteil ist ziemlich Nebensächlich.
Was HDR ausmacht sind die Helligkeitsunterschiede, das Auge passt sich immer an die Helligkeit an, ansonsten würdest du ja draußen im Sonnenlicht gar nichts sehen.
Wenn du nur eine Helligkeit siehst ist deren absoluter Wert ziemlich egal, das Auge hat "Autobelichtung" und "Autoweißabgleich" und sagt dir damit bei vollflächigem Weiß immer "das ist jetzt helles weiß" egal wie hoch die absolute Helligkeit ist.
Erst wenn man gleichzeitig Hell und Dunkel sieht bemerkt man die Unterschiede. Mit nicht vollflächiger Weißdarstellung sind die OLEDs mittlerweile nicht weit von 1000cd/m² entfernt.
Und viel wichtiger, mittlerweile bleibt die Helligkeit ziemlich lange auf sehr hohem Niveau, erst im Bereich >90% Weiß fällt sie wirklich nennenswert ab.
Mayk-Freak
2020-11-08, 21:26:29
Der B7D LG 2018 kann jetzt auch 4k@120Hz mit einer Ampere RTX.
Ultron
2020-11-09, 07:43:36
Der B7D LG 2018 kann jetzt auch 4k@120Hz mit einer Ampere RTX.
Firmwareupdate? Kann das der 2017er auch? :)
Ultron
2020-11-09, 07:56:08
https://hifi.de/feature/hisense-dual-cell-lcd-statt-oled-23104
https://www.prad.de/hisense-65sx-erster-marktreifer-dual-cell-fernseher/
Mega interessant! Könnte richtig gut werden. 2 Mio Dimming Zonen, so geht LCD :cool:
Das ist das erste mal, wo ich eine Alternative zu OLED sehe, Kontrast 150'000 : 1 geht klar :D
Tobalt
2020-11-09, 08:06:09
Das ist endlich mal FALD-Done-Right.
In einer Backlight Zone liegen nur 12 Front Cells. Damit sollte fast die Definition von OLEDs erreicht werden.
Für den TV Bereich ist dies eine sehr gute Technik.
Für Gaming stellt sich die Frage nach den Schaltzeiten.
Fragman
2020-11-09, 10:57:38
https://www.prad.de/hisense-65sx-erster-marktreifer-dual-cell-fernseher/
Mega interessant! Könnte richtig gut werden. 2 Mio Dimming Zonen, so geht LCD :cool:
Das ist das erste mal, wo ich eine Alternative zu OLED sehe, Kontrast 150'000 : 1 geht klar :D
Auch wenn man das schnell selbst googlen kann, hier ein Test, denn die News ist ja schon von Ende August.
https://www.techradar.com/reviews/hisense-65sx-dual-cell-tv
Schwarzwerte und Farben scheinen wohl sehr gut zu sein.
dargo
2020-11-09, 16:57:43
Hat hier jemand den LG OLED 48CX8LC und könnte vielleicht auf meine Fragen eingehen?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12492466&postcount=38
Fernseher wird nur fürs TV-Programm benutzt.
PS: sind auch kleinere OLEDs von LG in naher Zukunft geplant? Ich denke da Richtung 43".
Mayk-Freak
2020-11-09, 20:15:51
Firmwareupdate? Kann das der 2017er auch? :)
Das weiß ich nicht ob das beim Lg 2017 funktioniert, ich hab mir ein 8K Kabel und eine RTX 3070 gekauft und dann hab ich Benutzerspezifische Auflösung erstellen im NV Treiber benutzt und 3840x2160@120Hz erstellt was dann ohne Problem übernommen wurde.
PatkIllA
2020-11-09, 21:06:15
Das weiß ich nicht ob das beim Lg 2017 funktioniert, ich hab mir ein 8K Kabel und eine RTX 3070 gekauft und dann hab ich Benutzerspezifische Auflösung erstellen im NV Treiber benutzt und 3840x2160@120Hz erstellt was dann ohne Problem übernommen wurde.
Und du bist sicher, dass das auch ankommt?
https://www.reddit.com/r/OLED/comments/fmkgb4/you_can_check_hdmi_diagnostics_by_going_into/
Mayk-Freak
2020-11-09, 23:03:50
Mit einer GTX 1070 konnte ich in den Spieleoptionen nur max. 4k@60Hz V-Sync einstellen und 4K@120Hz konnte man auch nicht mit dem 8K Kabel in der Benutzerspezifische Auflösung des NV Treibers erstellen, Bild bleit schwarz.
Mit der RTX3070 lassen sich ohne Probleme 4K@120Hz in Treiber einstellen und auch im den Spieleoptionen kann man 4K@120Hz mit V-Sync einstellen und der Input Lag scheint ist bei 4K@120Hz auch etwas geringer zu sein.
GTX1070@4K@60Hz V-Sync Forza4
https://abload.de/thumb/un18nkhj.png (https://abload.de/image.php?img=un18nkhj.png)
RTX3070@4K@120Hz V-Sync Forza4
https://abload.de/thumb/unhqkvk.png (https://abload.de/image.php?img=unhqkvk.png)
Savay
2020-11-09, 23:50:35
Sicher das du da nicht einfach DSR testest, immerhin ist der 2. Screenshot in FHD und FHD@120Hz ging schon ewig. ;)
Würd mich etwas wundern wenn HDMI2.0 plötzlich per Patch mit 40GBps+ funktionieren würde.
Mayk-Freak
2020-11-10, 00:25:27
Nein kein DSR getestet. Im Benchmark sieht man 4K@120Hz V-Sync on . Screenshot wurde nur in FHD abgespeichert.
Nein kein DSR getestet. Im Benchmark sieht man 4K@120Hz V-Sync on .
Das ist genau das was man bei DSR sehen würde.
Mayk-Freak
2020-11-11, 15:45:05
Ja DSR ist aber off und so sieht es im Treiber aus.
https://abload.de/thumb/lg24hjfv.png (https://abload.de/image.php?img=lg24hjfv.png)
Gouvernator
2020-11-11, 17:01:51
Ja DSR ist aber off und so sieht es im Treiber aus.
https://abload.de/thumb/lg24hjfv.png (https://abload.de/image.php?img=lg24hjfv.png)
4K/120Hz auch noch mit RGB? Mache mal ein Screenshot wo die ganzen Timings zu sehen sind. Solange nämlich "Anpassen"-Button ausgegraut ist kann es nur DSR sein.
Solange nämlich "Anpassen"-Button ausgegraut ist kann es nur DSR sein.
Also bei mir ist der Anpassen Button nur nach dem Start nicht grau.
Ändert man irgendwas in der Ansicht wird er sofort grau.
Mayk-Freak
2020-11-12, 21:22:35
4K/120Hz auch noch mit RGB? Mache mal ein Screenshot wo die ganzen Timings zu sehen sind. Solange nämlich "Anpassen"-Button ausgegraut ist kann es nur DSR sein.
Hab die Grafikkarte leider nicht mehr und kann nicht nach schaunen.
Aber es könnte wirklich DSR gewesen sein.
Lowkey
2020-11-24, 14:13:22
Krass, der Kauf des LG OLED 55" ist nun gut ein Jahr her und nun kann man endlich HDMI 2.1 Grafikkarten mit VRR nutzen.
Damals waren die Preise mit den Rabatten zwischen 980 und 1300 Euro. Dieses Jahr wird es wohl nicht günstiger.
00-Schneider
2020-12-05, 09:11:44
VGO38f1EoYE
AintCoolName
2020-12-07, 13:35:29
Kann der LG C9 AMD Freesync? Ich hatte meine 5700XT angeschlossen und das ConrolCenter meinte VRR und 40-120hz ist supported. Ich dachte VRR geht ohne Hdmi 2.1 nicht und AMD Freesync ist vom TV nicht supported?
00-Schneider
2020-12-07, 13:37:47
Kann der LG C9 AMD Freesync? Ich hatte meine 5700XT angeschlossen und das ConrolCenter meinte VRR und 40-120hz ist supported. Ich dachte VRR geht ohne Hdmi 2.1 nicht und AMD Freesync ist vom TV nicht supported?
Nope, nur CX kann Freesync. C9 kann "nur" VRR und G-Sync.
VRR ging auch schon auf der One X bei einigen Titeln, und die Konsole hatte kein HDMI 2.1.
Tobalt
2020-12-07, 19:15:33
aintcoolname: und funktioniert vrr @amd?
AintCoolName
2020-12-07, 20:38:07
Bin mir nicht sicher, ich hatte Tearing, habs dann aber erstmal nicht genauer erforscht. Deswegen habe ich gefragt, ich war mir nicht sicher ob es jetzt nicht doch durch ein Update gehen sollte. Leider hat der C9 auch nicht dieses versteckte Menü was der CX hat wo man das dann genau sieht.
Gynoug MD
2020-12-07, 22:15:00
Der B7D LG 2018 kann jetzt auch 4k@120Hz mit einer Ampere RTX.
Firmwareupdate? Kann das der 2017er auch? :)
Schließe mich den o.g. Fragen an.
Mayk-Freak
2020-12-08, 07:45:09
Hab die Grafikkarte gewechselt als von der RTX3070 auf RTX3080 und jetzt gehen die 120 Hz@4k nicht mehr, hab,s mehrmals versucht aber geht nicht mehr. Ich habe auch anderen Treiber probiert aber nichts zu machen. :(
Kartenlehrling
2020-12-10, 15:29:22
Da dürfte recht viel Optimierungspotential bestehen, wenn man keine Farbfilter benötigt und die Auflösung erheblich absenkt - bei einem 65"-TV dürfte man nicht einmal 640 x 360 Pixel brauchen, um Blooming in der Praxis zu unterbinden. Gleichzeitig multipliziert sich sich der Kontrast, aus zwei 1.000:1 Panels würde ein Gerät mit 1.000.000:1 resultieren - reicht für subjektives OLED-Niveau. Insgesamt also eine sehr spannende Technologie...
...sage ich als Nutzer eines High-End OLEDs. So gut das Bild im Dunklen ist, so durchschnittlich sieht es durch die begrenzte (Flächen)Helligkeit bei hellem Content tagsüber aus. Leider scheinen sich OLEDs diesbzgl. seit Jahren auch kaum weiterzuentwickeln. Ich will ein "echtes" HDR-Erlebnis mit 2.000 oder 4.000 cd/m² bzw. >1.000 cd/m² bei vollflächigem Weißanteil. Das geht aktuell leider nur unbezahlbar teuer mit Mikro-LEDs... :(
Ich habe gestern angefangen die neue Agenten Serie Spy City (4k-HDR Magenta Exklusiv) zu schauen (https://www.youtube.com/watch?v=d30ngbPN0po),
da hatte ich zum ersten mal ein unangenehmes Gefühlt gehabt das Licht wär zu stark.
Da waren Szenen von dunklen Zimmer wo das Licht durch die Fenster reinscheinte,
mir tränten die Augen und wir haben extra ein Ambilight am TV verbaut damit das eigentlich nicht passieren sollte.
...
mir tränten die Augen und wir haben extra ein Ambilight am TV verbaut damit das eigentlich nicht passieren sollte.
Gratuliere zu noch einem Stück mehr Realismus :up:
(das Ambilight hilft nicht viel wenn der Rand vom Bild schwartz ist ^^)
(aber du schaust trotz alledem besser nicht durch ein "Lichtloch" in die Sonne ;))
M.f.G. JVC
Deinorius
2020-12-14, 00:33:19
mir tränten die Augen und wir haben extra ein Ambilight am TV verbaut damit das eigentlich nicht passieren sollte.
Ich nehme an, du hast einen LG OLED. Ich verstehe ehrlich gesagt nicht, was manche Leute mit 2000 und mehr nits machen wollen. Selbst über 1000 nits... :ugly:
woodsdog
2020-12-14, 10:04:03
Naja, objektiv haben solch hohe Helligkeitswerte Vorteile bei BFI das schnell mal 50% schluckt.
Ich verstehe ehrlich gesagt nicht, was manche Leute mit 2000 und mehr nits machen wollen. Selbst über 1000 nits... :ugly:
In solchen Situationen haben die OLEDs auch kaum geringere Helligkeiten, vor allem da die Helligkeitswahrnehmung des Auges ja mehr oder weniger logarithmisch ist, und damit Unterschiede je heller es wird umso weniger wahrgenommen werden.
Die wirklichen Helligkeitsunterschiede zwischen OLED und LCD gibt es nur bei vollflächiger Darstellung von weiß, wobei man dann eh 0 Kontrast hat, und das damit auch wieder mehr oder weniger Egal ist (außer wenn die Helligkeit nicht mehr gegen eine Helle Umgebung ankommen kann).
Deinorius
2020-12-14, 13:22:35
Das stimmt schon, aber ich mache mir schon länger Sorgen über die Haltbarkeit bei Verwendung von BFI. Bei HDR werden ja nicht ständig hohe Helligkeitswerte verwendet. Bei BFI hingegen ist das durchgehend (je nach Bild natürlich).
Zumindest unter SDR bräuchte ich persönlich (unter Beachtung meines Wohnzimmers) auch im Sommer nicht mehr als 140 nits! Unter HDR klingen dann 700 schon als "Heilige Scheiße". :D
Das stimmt schon, aber ich mache mir schon länger Sorgen über die Haltbarkeit bei Verwendung von BFI.
Wieso sollte BFI die Haltbarkeit verschlechtern?
Durch BFI fließt ja weniger Strom durch die OLEDs, was die Haltbarkeit eher verbessern sollte.
Tobalt
2020-12-15, 08:25:03
Wieso sollte BFI die Haltbarkeit verschlechtern?
Durch BFI fließt ja weniger Strom durch die OLEDs, was die Haltbarkeit eher verbessern sollte.
Naja, bei gleicher Betrachtungs-Helligkeit fließt durch die OLEDs grob der gleiche gemittelte Strom mit/ohne BFI.
Bei BFI fließt mehr Spitzenstrom und die Alterung ist damit insgesamt etwas schneller, da bei den meisten Bauteilen die Alterung nicht linear mit der Last zunimmt, sondern bei hoher hoher Last die Alterung überproportional schnell ist.
Ich hoffe, dass künftig BFI zugunsten stark erhöhter Bildrate unwichtiger wird. Panels wie OLED können ja prinzipiell durch ihre sehr kurzen Transitions Times auch mit 1000Hz umgehen. Wie ? Grob gesagt, indem man den Rekonstruktionsschritt eines Verfahrens wie DLSS (das bin dahin hoffentlich unproprietär genormt ist) in den Monitor verlegt. Also man rendert zB mit 400 fps mit zB nur 2 MP + Rekonstruktionsdatenoverhead. Sosehr ich nV für ihr proprietäres GSync Modul verachte, bietet genau dieses doch vielleicht die Hardware basis, um so etwas lauffähig zu kriegen.
Badesalz
2020-12-15, 09:31:57
Naja, bei gleicher Betrachtungs-Helligkeit fließt durch die OLEDs grob der gleiche gemittelte Strom mit/ohne BFI.Ah nö? :rolleyes: Ging es ihm nicht darum, daß durch BFI die... "Betrachtungs-Heligkeit" (WTF?) eher abnimmt als zunimmt?
Bei BFI fließt mehr Spitzenstrom Warum?
Ich hoffe, dass künftig BFI zugunsten stark erhöhter Bildrate unwichtiger wird. Panels wie OLED können ja prinzipiell durch ihre sehr kurzen Transitions Times auch mit 1000Hz umgehen. Wie ? Grob gesagt, indem man den Rekonstruktionsschritt eines Verfahrens wie DLSS (das bin dahin hoffentlich unproprietär genormt ist) in den Monitor verlegt. Also man rendert zB mit 400 fps mit zB nur 2 MP + Rekonstruktionsdatenoverhead. Sosehr ich nV für ihr proprietäres GSync Modul verachte, bietet genau dieses doch vielleicht die Hardware basis, um so etwas lauffähig zu kriegen.Soetwas wird es niemals geben. Und da braucht bei Media auch absolut keine Sau. Was man HÄTTE machen können wäre 24p auf 48p zu bringen. Oder direkt überall mit 48p aufnehmen. Und mit 96p ausgeben.
Kein Geruckel, kein Gezuckel, kein Soap.
Stattdessen quälen wir uns auch beim neusten Content immernoch mit diesem 24/50/60 Bullshit, obwohl die Wiederholfrequenz mittlerweile seit Urzeiten von der Stromnetzfrequenz entkoppelt ist.
Unter den noch paar kleinen Ärgernissen, ist das diese eine Sache die mich echt nur noch ankotzt.
Und die 96"fps" reichen ja auch zum Zocken dicke (vs. 120fps). Ergo auch 48fps mit 96Hz ausgegeben, beim Hardsync. Beim Freesync ist es ja egal.
Naja, bei gleicher Betrachtungs-Helligkeit fließt durch die OLEDs grob der gleiche gemittelte Strom mit/ohne BFI.
Aber die Spitzenhelligkeit nimmt ja mit BFI ab.
Bei BFI fließt mehr Spitzenstrom und die Alterung ist damit insgesamt etwas schneller, da bei den meisten Bauteilen die Alterung nicht linear mit der Last zunimmt, sondern bei hoher hoher Last die Alterung überproportional schnell ist.
Ohne BFI liegt aber "dauerhaft" (bzw. so lange die hohe Helligkeit eben dargestellt werden soll) der hohe Strom an, mit BFI dagegen nur für Sekundenbruchteile.
Bei gleicher Helligkeit wäre es wie du gesagt denkbar dass BFI die Abnutzung beschleunigt, aber die Helligkeit ist ja eben nicht gleich sondern geringer, und durch die geringere Maximalhelligkeit sollte man generell in einem Bereich sein in dem Abnutzung keine große Rolle spielt.
Grob gesagt, indem man den Rekonstruktionsschritt eines Verfahrens wie DLSS (das bin dahin hoffentlich unproprietär genormt ist) in den Monitor verlegt.
Sowas kann niemals funktionieren, zumindest nicht gut.
DLSS ist kein einfacher Upscaler, dieses arbeitet mit realem Wissen über die 3D-Welt das es von der Spieleengine bekommt.
Aus reinen Bilddaten müsstest du versuchen dieses Wissen aus mehreren Bildern zu rekonstruieren, was einerseits niemals so gut funktionieren kann, wie mit echten, nicht geratenen, Daten zu arbeiten und andererseits zu einer hohen Latenz führen würde, und damit für Echtzeitanwendungen ungeeignet ist.
Tobalt
2020-12-15, 20:01:32
Zu Helligkeit/BFI: mit gleicher Helligkeit meine ich die gleiche subjektive Helligkeit. War das wirklich so schwer zu verstehen ? :-s
Dlss auf Monitor: natürlich ists kein Upscaler. Deshalb schrub ich ja "+ Rekonstruktionsdaten". Wenn da pro 24bit pixel nochmal 24bit daten für den Motionvektor und Tiefe eingeplant werden, ist das doch schon reichlich.
der schritt, den der monitor dann machen müsste, ist doch im wesentlichen ein bischen breit angebundenen DRAM für die vergangenen Frames und jede menge low precision MAC. und damit gut mit DSP/FPGA zu erschlagen. Die Latenz sollte nicht viel höher liegen als was das DLSS auf der Graka dauert, wenn da ähnlich viele Einheiten sitzen. Das erhöht natürlich den Energieverbrauch des Monitors aber umgeht halt das Bottleneck der Linkbandbreite.
Badesalz: ich stimme zu, dass es bei TVs kein sinnvolles Feature ist, aber bei Gamermonitoren natürlich schon. naja massively OT. deshalb EoD bzw PN.
DLSS ist von den Tensor-Kernen abhängig! Also proprietärer geht's kaum...
(und da man die eigentlich nur im Profi Bereich braucht...)
Ebenso "verringert" DLSS die komplette Auflösung...
VRS... ist schon eher etwas, was bleiben könnte.
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/AMD-Patent-VRS-Einsatz-in-Next-Gen-Konsolen-und-Navi-GPUs-1276548/ (VRS 01.03.2019)
https://www.computerbase.de/2019-07/3dmark-feature-test-variable-rate-shading-vrs/ (VRS 20.7.2019)
"Falls AMD tatsächlich sowohl Desktop- als auch Konsolen-GPUs mit einer eigenen Variante von VRS bedenkt, dürfte der Anreiz für Entwickler, sich tatsächlich der Technologie zu bedienen, deutlich größer werden"
Die Konsolen haben RDNA ebenso wie der Desktop.
(sowie Samsung Handys und noch einiges anderes wird hinzu kommen...)
RDNA kann VRS, ziemlich gut sogar :smile:
Und früher oder später, wird auch NV die Profieinheiten auf den SpieleGPUs zu Grabe tragen und VRS verwenden ;)
M.f.G. JVC
Megatron
2020-12-16, 11:10:31
Sowas kann niemals funktionieren, zumindest nicht gut.
DLSS ist kein einfacher Upscaler, dieses arbeitet mit realem Wissen über die 3D-Welt das es von der Spieleengine bekommt.
Aus reinen Bilddaten müsstest du versuchen dieses Wissen aus mehreren Bildern zu rekonstruieren, was einerseits niemals so gut funktionieren kann, wie mit echten, nicht geratenen, Daten zu arbeiten und andererseits zu einer hohen Latenz führen würde, und damit für Echtzeitanwendungen ungeeignet ist.
Wieso muss ich gerade wieder an alte Science Fiction Filme denken, in denen den Computern die gar wundersamsten Fähigkeiten angedichtet wurden...
Natürlich hat das NN kein "Wissen" im klassischen Sinn.
Es gibt ein antrainiertes Rekonstruktionsschema. Vor allem je nach Grafikstil weicht dieses Schema entsprechend ab. Exemplarisch nehmen wir mal Borderlands oder WoW, die zwar beide einen gewissen Comicstil haben, aber letztendlich doch eine ganz andere Stimmung rüberbringen.
Ja natürlich nimmt man hier möglichst verschiedene Szenen im Spiel, damit das "Schema" zum Upscaling möglichst gut passt. Aber die Tensor-Cores hätten gar nicht genug Speicher, um dort auch nur einen Bruchteil der 4k-Texturen abzulegen.
Oder mit anderen Worten: Wenn es nur einen Hersteller gäbe, der sich für eine standardisierte Schnittstelle einsetzen würde, über die dann die Spezifikationen mit dem Spielstart übertragen werden könnten, wäre man durchaus in der Lage hier die Arbeit auszulagern - z.B. auf eine (potente) IGP (die dann auch die Bildausgabe selbst übernimmt) :wink:
Fragman
2020-12-16, 11:29:04
Der Standard kann ja erst nach Einzellösungen kommen, vorher gibt es den nicht.
Wenn ich dann sehe, wie lange sowas dauert, zb im Bereich Rendering, dann sind wir auf Einzellösungen angewiesen, da sonst nichts vorwärts gehen würde.
In dieser Diskussion kommen dann noch Leute dazu, die wie bei DLSS einem die Welt erklären (wie der Gast dort), aber nicht bereit sind, sich etwas einzulesen um zu verstehen, wie das Ganze funktioniert (an der Stelle könnte man auch die Position der Mods hier im Forum hinterfragen, die das alles stehen lassen, aber gut).
Oder mit anderen Worten: Wenn es nur einen Hersteller gäbe, der sich für eine standardisierte Schnittstelle einsetzen würde, über die dann die Spezifikationen mit dem Spielstart übertragen werden könnten, wäre man durchaus in der Lage hier die Arbeit auszulagern - z.B. auf eine (potente) IGP (die dann auch die Bildausgabe selbst übernimmt) :wink:
Kann man nicht.
DLSS ist KEIN Postprocessing das einfach ein niedrig aufgelöstes Bild nimmt und ein höher aufgelöstes ausspuckt. DLSS ist teil der Renderpipeline selbst, und es macht überhaupt keinen Sinn einen Teil der Renderpipeline auf irgendein externes Gerät oder einen anderen Chip auszulagern, das kann niemals funktionieren, schon gar nicht performant.
Deshalb ist es auch nicht möglich DLSS irgendwie per Treiber für jedes Spiel zu erzwingen, was überhaupt kein Problem wäre wenn es lediglich ein Post-Processing-Filter wäre.
Es gibt Upscaler die rein auf Basis der Bilddaten ein Bild skalieren, und unter denen auch solche die mit neuronalen Netzen arbeiten.
Diese können aber nicht mal ansatzweise die Qualität bieten die DLSS kann, und die wirklich guten würden Latenzen im Sekundenbereich erzeugen, weil sie sowohl Bilder aus der Vergangenheit als auch welche aus der Zukunft verarbeiten.
Das einzige was man sinnvoll in einen Monitor integrieren könnte wären Post-Processing Filter, wobei hier auch die Sinnhaftigkeit zu hinterfragen ist, weil man in einem Monitor kaum so Performante Hardware verbauen wird um das mit ähnlich niedriger Latenz zu schaffen wie es eine Grafikkarte schon kann.
Der Standard kann ja erst nach Einzellösungen kommen, vorher gibt es den nicht.
Wenn ich dann sehe, wie lange sowas dauert, dann sind wir auf Einzellösungen angewiesen, da sonst nichts vorwärts gehen würde.
Einzellösungen(Proprietäres) behindern aber den Vorschritt des Standards,
da man diese Energie ja in die mit Entwicklung des Standards stecken könnte.
Und ist der Standard rechtzeitig gefunden (man konnte sich einigen),
wären Einzel-Lösungen langfristig nur Ressourcenverschwendung...
(außer man verwendet Sie als "Marken-Fußfessel")
M.f.G. JVC
Fragman
2020-12-16, 15:13:43
Einzellösungen(Proprietäres) behindern aber den Vorschritt des Standards,
da man diese Energie ja in die mit Entwicklung des Standards stecken könnte.
Und ist der Standard rechtzeitig gefunden (man konnte sich einigen),
wären Einzel-Lösungen langfristig nur Ressourcenverschwendung...
(außer man verwendet Sie als "Marken-Fußfessel")
M.f.G. JVC
Der Standard muss ja irgendwoher kommen.
Unterschiedliche Unternehmen haben unterschiedliche Ansätze und damit Einzellösungen, die man irgendwann zu einem Standard zusammenführen kann.
Die stehen ja nicht in Kontakt miteinander und tauschen sich über deren Entwicklungen aus um daraus vielleicht mal einen Standard gewinnen zu können.
Megatron
2020-12-16, 15:45:28
Der Standard muss ja irgendwoher kommen.
Unterschiedliche Unternehmen haben unterschiedliche Ansätze und damit Einzellösungen, die man irgendwann zu einem Standard zusammenführen kann.
Die stehen ja nicht in Kontakt miteinander und tauschen sich über deren Entwicklungen aus um daraus vielleicht mal einen Standard gewinnen zu können.
Das man auf Basis einer Einzellösung zu einem Standard finden kann, zeigt ja beispielsweise Mantle :wink:
Bzw. ist es häufig auch so, dass in diversen Standardisierungsgremien auch Vertreter der jeweiligen Firmen sitzen. Dann wird im Idealfall innerhalb dieses Gremiums ein Konsens erzielt der dann für alle umgesetzt wird. Beispielsweise die VESA und die Umsetzung von VRR.
Dass das erstmal deutlich länger dauert, als eine Einzellösung durchzudrücken, bei der man sich nicht nach anderen richtet, ist klar.
Aber besagte proprietäre Einzellösung kann und sollte eigentlich nie mehr als ein übergangsweiser Prototyp zur Demonstration eines Features sein.
Die stehen ja nicht in Kontakt miteinander und tauschen sich über deren Entwicklungen aus um daraus vielleicht mal einen Standard gewinnen zu können.
Genau das wäre aber gut für einen Standard und einem gemeinsamen schnellen Fortschritt.
Und ohne reden kommt man nicht zusammen, geschweigenden weiter.
M.f.G. JVC
Fragman
2020-12-16, 16:09:50
Wir reden ja hier von dem "vor" dem Standard.
Mantle ist ja ein Beispiel für das, was ich beschrieb. Der Standard kann nicht vor der Einzellösung kommen, da man diese (unterschiedlichen) Einzellösungen ja nicht voraussehen kann.
Der Standard ist am Ende auch genereller, weil jeder Mitreden will und muss, damit das möglichst alle unterstützen (was dann wieder zum Problem werden kann).
Kann aber auch passieren, das man aus propritären Entwicklungen Quasistandards macht, weil es keine Alternativen gibt.
Aus der Sicht "danach" kann man immer sagen "Wieso haben die nicht miteinander gesprochen", aber die Firmen konkurieren nun einmal untereinander.
Kann ich zumindest so schreiben nachdem was ich in meinen beschränkten Blickfeld die letzten Jahre mitbekommen hab. ;)
woodsdog
2020-12-16, 19:11:42
Zu Helligkeit/BFI: mit gleicher Helligkeit meine ich die gleiche subjektive Helligkeit. War das wirklich so schwer zu verstehen ? :-s
Was du "meinst" ist aber nicht das, was man in der Praxis erlebt. Deswegen ist das "wirklich so schwer zu verstehen" :wink:
Ich kann natürlich auch mit einem theoretischen 2000 Nits OLED Display anfangen zu argumentieren - zielführend ist das aber nicht.
BFI halbiert nunmal praktisch die Helligkeit und dann kann man ggf mit einem super hellen LCD Panel nachregelnd ausgleichen. Im Kontext von OLED hier im Thread geht das aber de-facto nicht weil man schlicht nicht so hell kann wenn man seinen Schirm nicht pre-BFI mit minimal-Hell betrieben hat v0v
Warum 0,5 Zeit X 100% Spitzenhelligeit (aka BFI) jetzt mehr abnutzen soll ggü 1 Zeit X 100%, leuchtet (:biggrin:) mir auch nicht ein.
Tobalt
2020-12-16, 19:15:53
du hast leider immernoch nicht verstanden was ich meine. ich sage 50% der zeit 100% strom ist schwieriger als 100% der zeit 50% strom. die subjektive Helligkeit wäre in beiden Fällen gleich.
ich hätte auch genug reserve bei meinem OLED die helligkeit zu erhöhen für den Fall von BFI. ich liege aktuell stets unter 50/100. aber da ich nicht drauf spiele, bietet mir bfi keinen Mehrwert.
woodsdog
2020-12-16, 20:06:07
Jetzt hast du dich halt verständlich ausgedrückt ;)
50/100 ist nicht sehr viel, das stimmt. Tagsüber mit etwas Sonne ist das aber auch nicht gerade doll. Wenn das kein Anwendungs-Szenario für dich darstellt, ist es natürlich tatsächlich egal.
Deinorius
2020-12-19, 22:47:00
Da fehlt noch etwas zusätzlich Erklärung. 50/100 100/50 mögen subjektiv für das Auge relativ gleich aussehen, aber die Elektronik sieht das nochmal etwas anders. Die Alterung der OLEDs und vieler anderer elektronischer Teile steigt mit höherer Spannung/Helligkeit/Temperatur nicht linear an. Ich weiß nicht mehr, ob es die dritte oder vierte Potenz war.
50/100 und 100/50 mögen relativ gleich aussehen und es wird auch nicht zwingend etwas früher Tschüss sagen, aber 50/100 (also 50 % der Zeit 100 % Helligkeit) werden früher Alterserscheinungen zeigen, weswegen mir ja dieser ganze 1000/2000 nits oder gar mehr Wahnsinn etwas Sorgen bereitet, sofern die Hersteller nicht entsprechende Innovationen in der Haltbarkeit vorweisen können. Denn ich weiß auch nicht, dabei geht es ja nur um HDR, wie präpotent sich diese Alterserscheinungen zeigen würden. Unauffällig? Auffällig? Flecken im Display? ¯\_(ツ)_/¯
Naja, schau dir mal die APL (mittlere Helligkeit) von HDR Filmen an. Die liegt weit unter 1000 nits. Eher noch bei 100 nits. Spitzenlichter sind nur einen kleinen Zeitraum auf kleiner Fläche zu sehen.
Deinorius
2020-12-20, 00:17:29
Es ging gerade um BFI...
Tobalt
2020-12-20, 08:09:14
Deinorius: Genau dieser Sachverhalt veranlasste mich ja, vor ca. 10 posts (;)) zu dieser Debatten.
basix
2020-12-20, 10:57:53
Zur Thematik Pulse/PWM vs. DC: Das menschliche Auge ist da nicht linear. Nehmen wir die selbe Energiemenge an (50/100 und 100/50 für Duty Cycle sowie LED-Strom). Die abgestrahlte Lichtleistung, ist in beiden Fällen identisch. Ein kurzer und heller Puls sieht für das Auge aber heller aus als ein schwaches konstantes Licht. PWM mit höheren Strömen aber in selbem Masse verringerter Duty-Cycle sieht heller aus. Das ist ein Trick für Low Power Anwendungen, um die verbrauchte Energie zu reduzieren aber die subjektiv wahrgenommene Helligkeit dennoch zu erreichen. 10% Duty Cycle mit 10x Strom sieht viel heller aus als 100% mit 1x Strom.
BFI mit doppelter Helligkeit sollte also als heller wahrgenommen werden ;) Eine genügend hohe Framerate sollte aber vorhanden sein.
Tobalt
2020-12-20, 12:11:59
basix, das wäre mir neu. hast du bitte eine quelle ?
pwm nutzt man doch oft nur deshalb weil man auf lineare regelung verzichten kann mit all ihren Nachteilen (inkl. elektrischer Verlustleistung und höherer Komplexität)
BFI halbiert nunmal praktisch die Helligkeit und dann kann man ggf mit einem super hellen LCD Panel nachregelnd ausgleichen.
Das kann man nicht generalisieren und hängt extrem stark von der Implementierung ab.
BFI kann die effektive Helligkeit halbieren, es kann aber auch deutlich weniger oder theoretisch auch etwas mehr sein.
BFI ist je nach Umsetzung eben nicht 50:50, insbesondere nicht bei LCDs. Es geht ja darum damit die Umschaltzeit der Pixel unsichtbar zu machen, bei LCDs die einen großen Teil des Refreshzyklus alleine zum Umschalten brauchen ist 50:50 alles andere als realistisch.
Realistisch ist eher 10-20% on und der Rest off bei LCDs.
Andererseits kann man aber die maximale Helligkeit bei nur 20% on time drastisch erhöhen und damit einen Teil des Helligkeitsverlustes kompensieren.
Bei OLEDs ist eine 50:50 Verteilung von on zu off durch die schnellere Schaltzeiten schon eher realistisch.
Das was die Helligkeit bei OLEDs limitiert ist nicht unbedingt die erreichbare Helligkeit der Leuchtmittel selbst, sondern die Stromversorgung die durch das ganze Panel muss.
Deshalb können OLEDs BFI mit deutlich weniger Helligkeitsverlust bieten, und der Rückstand gegenüber LCDs wird sogar geringer.
Es geht ja darum damit die Umschaltzeit der Pixel unsichtbar zu machen,
Nein!
Badesalz
2020-12-30, 19:14:49
BFI halbiert nunmal praktisch die Helligkeit Wie funktioniert das, wie bei meinem, wenn es mal in der Konfig die Wahl zwischen aus/niedrig/mittel/hoch BFI gibt?
Megatron
2020-12-30, 21:41:39
Wie funktioniert das, wie bei meinem, wenn es mal in der Konfig die Wahl zwischen aus/niedrig/mittel/hoch BFI gibt?
Hoch halbiert die Helligkeit, die anderen Stufen bedeuten entsprechend weniger Helligkeitsverlust. (Niedrig war glaube ~20%)
Wie funktioniert das, wie bei meinem, wenn es mal in der Konfig die Wahl zwischen aus/niedrig/mittel/hoch BFI gibt?
Regelt das Verhältnis zwischen "On" und "Off" der Beleuchtung/Pixel.
Je geringer die "On" Time der Pixel ist, desto Schärfer wird das Bild, aber desto mehr nimmt man auch das Flimmern war und desto mehr Helligkeit verliert man.
Badesalz
2020-12-31, 10:04:46
Pana löst das irgendwie. Hab mir(/uns) jetzt einen HZW2004 hier hingestellt. Oder eher hingeschleppt und hingezerrt... Da taucht jenachdem in den Einstellungen eine Option für Kontrastkorrektur. Auch + nochmal extra manuell bei HDR.
Schon mit Auto zieht er die Leuchtkraft mit "niedrig" paar Prozent über der, die ohne BFI eingestellt ist. BFI wirkt trotzdem.
Für jedes Problem gibt es also eine Lösung...
Die "stärksten" erreichbaren Werte sind jedenfalls kein Qualitätsmerkmal bzw. die sind nicht gleich die "besten". Die erste Vorführung mit Werkseinstellungen und DolbyVision war in Anwesenheit meines Schwagers. Er hat die 42kg Packung Tag davor auch mit hierhin gezerrt :tongue:
Der weiß, daß ich schon per Auge Glotzen halbwegs ordentlich einstellen kann, wenn das Menü es hergibt. Was ich bis dahin aber noch nicht tat. Werkseinstellungen, wie gesagt. Also Content an und sein Urteil direkt:
"Alter... Ich komm morgen mal. Stell das erstmal alles ein. Das Teil brennt mir gleich die Augenbrauen weg..."
Kartenlehrling
2020-12-31, 10:46:14
"Alter... Ich komm morgen mal. Stell das erstmal alles ein. Das Teil brennt mir gleich die Augenbrauen weg..."
Ein OLED kann das überhaupt nicht, auch nicht dein 2000er Panasonic.
https://www.4kfilme.de/wp-content/uploads/2019/08/high-apl-dual-layer-lcd-vs-oled-1024x576.jpg
Diese Szene von der Matrix 4K Blu-ray mit einer hohen APL (Durchschnittlichen Bildhelligkeit)
stellt der Dual-Layer-LCD-Display Sony HX310 (Profigerät 30.000€) weitaus besser als ein 2019 OLED TV dar!
Badesalz
2020-12-31, 10:57:28
Nun... Ich weiß, daß man je nach Bildanteile die Helligkeit bzw. Luminanz runterfährt, aber diesen Screenshot ins Feld zu führen ist Bullshit. Soetwas gab es hier noch nie. Niemals wird weiß zu so einem grau. Auch bei der härtesten Alaska im Winter Doku in HDR nicht.
Wie auch immer das den GZx fordert. Der HZW2004 bricht niemals SO ein.
Daß so ein HZW vielleicht keine Schnitte gegenüber einem HX310 hat, kann sehr gut sein. Trotzdem sieht hier niemals etwas so aus wie rechts ;)
Badesalz
2021-01-01, 11:46:20
Regelt das Verhältnis zwischen "On" und "Off" der Beleuchtung/Pixel.
Je geringer die "On" Time der Pixel ist, desto Schärfer wird das Bild, aber desto mehr nimmt man auch das Flimmern war und desto mehr Helligkeit verliert man.Wenn der Anspruch an dich selbst damit erfüllt ist, daß du auf die Frage
"Wie funktioniert das mit dem Melken?", antwortest
"Man saugt die Milch aus den Zitzen.", dann hast du es auch diesmal super gemacht.
Für mich ist derartiges unnützes Hintergrundrauschen.
Nightspider
2021-01-06, 00:16:23
Samsung Display to introduce more than 10 new AMOLED displays for laptops in 2021
Samsung Display announced that the company plans to introduce more than 10 different AMOLED displays for the laptop market in 2021. The company will launch displays ranging from 13.3-inch to 16-inch to meet customer demand.
Samsung Display started producing 15.6" 4K AMOLED displays in 2019 for the laptop market, which kickstarted the OLED laptop market as several leading makers (including HP, Lenovo and Dell) started to offer high-end OLED laptops. Since then SDC added more OLED laptop displays [13.3 inch] to its lineup, and other OLED producers (such as EDO and BOE) started to offer laptop panels as well.
The first new display will be a 15.6-inch FHD model which SDC plans to start producing next month, which the company hopes will be in high demand as this meets the most popular laptop display specification. The company hopes to increase its OLED laptop sales 5X compared to 2020 as demand for IT displays is high.
https://www.oled-info.com/samsung-expand-its-laptop-amoled-product-lineup
Kartenlehrling
2021-01-06, 09:22:41
15.6-inch FHD model
Warum nicht wenigsten WQHD 2560x1440, das sollte man doch bei 16 inch hinbekommen?
PatkIllA
2021-01-06, 09:45:09
Warum nicht wenigsten WQHD 2560x1440, das sollte man doch bei 16 inch hinbekommen?
Es gibt doch schon UHD OLED Notebook-Displays in 15,6" Zoll. Ich benutze gerade eins. Thinkpad P1.
Zwischendurch war das mal aus der Konfiguration auf der Webseite verschwunden mittlerweile ist es aber wieder drin.
Da geht es wahrscheinlich eher um den Preis.
Kartenlehrling
2021-01-06, 10:03:26
Da geht es wahrscheinlich eher um den Preis.
Nicht um Akkubetrieb und Wiederholrate?
4k OLED Laptop ist doch ein Stormfresser und 120Hz hat er doch auch nicht oder?
WQHD + 120Hz wär wohl das beste aus beiden Eigenschaften.
Nightspider
2021-01-06, 12:22:33
WQHD und 120Hz werden bestimmt auch kommen.
Der Artikel spricht ja von 10 neuen Displays für 2021.
Nicht um Akkubetrieb und Wiederholrate?
4k OLED Laptop ist doch ein Stormfresser und 120Hz hat er doch auch nicht oder?
Zumindest nach den Erfahrungen im Smartphone-Bereich nicht.
Dort kann man ja beispielsweise bei den Samsung Smartphones schon seit längerer Zeit die Auflösung zwischen 720p+ WQHD+ variieren, und defaultmäßig werden die auch nur auf 1080p+ gestellt, anstatt die volle Auflösung auszunutzen.
Auf den Akkuverbrauch hat allerdings die Auflösung nur einen eher geringeren Einfluss.
Ganz im Gegensatz zu 120Hz, was im Gegensatz zu 60Hz enorm auf den Akkuverbrauch schlägt, obwohl dafür teilweise sogar die Auflösung reduziert werden muss.
Sony stellt seine 2021er Master Serie vor (A90J):
97AhjhSwsos
00-Schneider
2021-01-07, 20:59:20
Bis jetzt der interessanteste TV in 2021. Bin gespannt, wieviel heller sie ggü. LG OLEDs sind.
Badesalz
2021-01-07, 21:34:35
Bis jetzt der interessanteste TV in 2021. Wir haben heute auch den 7ten Januar :rolleyes:
00-Schneider
2021-01-07, 21:39:03
Wir haben heute auch den 7ten Januar :rolleyes:
Naja, dann halt der, der bis jetzt vorgestellt wurde. Alles, was im Januar nicht vorgestellt wird, kommt doch eh nicht mehr 2021, oder?
Badesalz
2021-01-07, 22:25:52
:|
Das geht bis Ende Januar noch locker. Wie uns die Geschichte auch lehrt ;)
Bis jetzt der interessanteste TV in 2021. Bin gespannt, wieviel heller sie ggü. LG OLEDs sind.
Verbaut Sony nicht LG Panels?
Wenn ja ist wohl davon auszugehen, dass die 2021 LGs ähnlich hell werden.
Verbaut Sony nicht LG Panels?
Wenn ja ist wohl davon auszugehen, dass die 2021 LGs ähnlich hell werden.
Falls LG sich entschließen sollte, auch eine Metallplatte hinter das Panel zu bauen, wie es Panasonic schon länger und Sony ab dieses Jahr bei den Top-Modellen tun. Sonst eher nicht.
00-Schneider
2021-01-08, 08:34:41
Eigentlich eine recht "triviale" Idee. Warum machen das nicht auch andere Hersteller?
M4xw0lf
2021-01-08, 08:41:08
Kosten und Kosten/Nutzen, wie immer.
robbitop
2021-01-08, 11:02:49
Kostet ggf auch Bauraum. Es ist soweit ich verstanden habe ein Heatsink. Der braucht ein wenig Dicke für sich selbst und für den Luftstrom. Super dünn ist ja bei der Masse "in". Kosten sind sicherlich auch relevant. Ich finde die Idee aber auch sehr gut. Das wird sicherlich auch bei geringerer Helligkeit zuträglich für die Lebenszeit und die Image Retention sein.
00-Schneider
2021-01-08, 11:16:05
In den letzten 3-4(?) Jahren hat sich ja nicht viel bei OLED getan. Wird auf jeden Fall mal wieder Zeit für einen größeren Sprung.
ChaosTM
2021-01-08, 11:35:38
Sony`s "Cognitiv Intelligence" (https://www.engadget.com/sony-bravia-xr-tvs-cognitive-intelligence-180040870.html)
mal schauen ob das mehr als nur ein Buzzword wird
Erbsenkönig
2021-01-08, 13:09:44
Kann mir als Plasma Veteran mal jemand verraten, was es mit den für HDR wohl notwendigen sehr hohen Helligkeitswerten auf sich hat? Man kennt das ja z.B. vom Handy oder vom Laptop: In dunklen Räumen kommt es einem bei voll aufgedrehter Helligkeit so vor, als werde man vom Bildschirm erschlagen. Tritt derselbe Effekt dann bei Fersehern nicht auch auf? Oder geht es dabei eher um eine selektive Helligkeit und somit eine Art "künstlichen Konstrast"?
robbitop
2021-01-08, 13:20:30
Das kann man einstellen. HDR bedeutet einfach, dass die Spannweite zwischen hellster Helligkeit und dunkelster Helligkeit steigt. Auch der Farbraum wird größer.
Out of the Box wird die Maximalhelligkeit ggü SDR deutlich gesteigert, um diese Dynamik zu erzeugen. In HDR Content bestimmt der Content Creator ganz genau was sehr hell oder mittelhell oder dunkel sein soll.
Wem das hellste hell zu hell ist, kann das problemlos runterstellen. Es sieht auf einem OLED IMO einfach phantastisch aus. Insbesondere, wenn der Content dafür (gut) gemacht wurde.
Z.B. Ghost in the Shell als 4K HDR BD. Da ist mir das erste Mal der Unterkiefer runtergefallen.
Davor hatte ich einen sehr guten Plasma und entsprechend nur SDR Content.
Panasonics neues Flaggschiff:
2FRua0KnFTw
Badesalz
2021-01-08, 16:16:16
Kostet ggf auch Bauraum. Es ist soweit ich verstanden habe ein Heatsink. Der braucht ein wenig Dicke für sich selbst und für den Luftstrom. Super dünn ist ja bei der Masse "in". Kosten sind sicherlich auch relevant. Ich finde die Idee aber auch sehr gut. Das wird sicherlich auch bei geringerer Helligkeit zuträglich für die Lebenszeit und die Image Retention sein.Jep. Den HZW2004 konnte man halt so bauen. Mit dem Soundsystem von Technics ist die Erwartungshaltung der Zielgruppe auch andere als sich für thinnest thin zu interessieren :uking:
Man nutzt die Tiefe schon irgendwie... Andererseits sieht man auch, daß oben an den Seiten da wo man nur Panel + Platte hat, das Teil trotzdem ziemlich dünn ist/bleibt.
https://www.hifi-regler.de/news/ces-consumer_electronics_show/panasonic_hzw2004-neues_oled_topmodell_auf_der_ces_2020.php
Wenn man sein PC-Gehäuse innen vernünftig ordnen kann, kann man aber auch den HZW sehr sauber "aufbauen". Sehr einfache Ideen, die sehr gut funktionieren.
Selbst ein dicker OLEd wie der Pana ist doch auch noch dünner als handelsübliche LCD-TVs. Erst recht wenn es da um FALD Modelle geht. Auch die MiniLED Backlit-LCDs sind ja bei weitem nicht so dünn wie OLEDs. Viel interessanter als die 1000 nits der Panas finde ich aber eher die Selektion bezüglich der Uniformität (near black banding). Das hat ja mit der Kühlung nichts zu tun. Da wünsche ich mir von LG aich einfach mal einen Anreiz etwas mehr für ein besseres Modell (C oder E statt B) auszugeben.
Kostet ggf auch Bauraum. Es ist soweit ich verstanden habe ein Heatsink. Der braucht ein wenig Dicke für sich selbst und für den Luftstrom.
Kann ich mir kaum vorstellen, das Panel ist doch mit Abstand das Dünnste vom ganzen Fernseher, und auch LG hat ja beispielsweise auf der Rückseite eine Aluplatte über die ganze Fläche. Ich kann mir eigentlich kaum Vorstellen, dass da großartig bessere Wärmeableitung drinnen ist.
Badesalz
2021-01-09, 15:29:02
Kann ich mir kaum vorstellen, Alle Reviews in allen Sprachen haben irgendwas zu der besonderen (passiven) Kühlung geschrieben, die Pana an die LEDs gepappt hat.
Da kommts glaub ich nichtmehr an deine Vorstellungskraft an.
Nightspider
2021-01-10, 16:02:39
Yoga Slim 7i Pro: Lenovo bietet OLED-Display mit Dolby Vision an
Lenovo will im Verlauf dieses Jahres das 14-Zoll-Notebook Yoga Slim 7i Pro mit einer OLED-Option anbieten. Das hat der Hersteller im Rahmen der CES 2021 angekündigt. Die weiteren Eckdaten des Notebooks entsprechen dem Stand zur Vorstellung letzten Herbst.
Die neue Panel-Option wird von Samsung Display beigesteuert. Auf 14 Zoll vereint das Display 2.880 × 1.800 Pixel und arbeitet mit 90 Hz. Das entspricht einer hohen Pixeldichte von 242,59 ppi. Das 16:10-Seitenverhältnis hatte Lenovo letztes Jahr zur IFA mit dem Yoga Slim 7i Pro eingeführt. Das „i“ im Namen steht für die Intel-Variante, ein Modell namens Yoga Slim 7 Pro mit AMD Renoir gibt es ebenfalls. Die neue OLED-Option hat Lenovo bisher ausschließlich für die Variante mit Intel-CPUs angekündigt.
Das ist lecker.
Hoffentlich gibts das auch mit AMD Cezanne APU.
https://www.computerbase.de/2021-01/lenovo-yoga-slim-7i-pro-oled/
Alle Reviews in allen Sprachen haben irgendwas zu der besonderen (passiven) Kühlung geschrieben, die Pana an die LEDs gepappt hat.
Und alle Reviews haben geschrieben, dass Pana so extrem Dick ist?
00-Schneider
2021-01-11, 14:39:29
LG bringt 2021 eine neue G-Serie(OLED) mit 20% hellerem Panel.
y6JXAsWhMo4
Neurosphere
2021-01-11, 14:42:40
Viel wichtiger für den Desktop:
xVNhMdEgELc
42 Zoll! Bessere PPI (ähnlich 27" WQHD) und wohl nochmal verbessertes OLED gegenüber dem 48CX.
gnomi
2021-01-11, 16:10:54
Prima.
So einen würde ich zu ~ 1250 Euro max. auch kaufen.
Beim letzten Monitor habe ich wegen der vielen technischen Kompromisse ein Warehouse Acer X34P mit 21:9 und GSync 120 Herz für die Hälfte als Übergangslösung gekauft.
Tut seinen Job, aber die Ausleuchtung in den Ecken nervt schon etwas bei Schwarz und meinem LG OLED Fernseher 55er kann das Bild prinzipiell nicht das Wasser reichen.
GSync per Modul finde ich trotzdem nach wie vor die beste Lösung. Das funktioniert selbst bei heftigen Frametimes und niedrigen fps und rettet manches nicht so optimierte Spiel.
BlacKi
2021-01-11, 17:57:15
32zoll 4k oled von lg
https://www.computerbase.de/2021-01/lg-ultrafine-32ep950-oled-pro-ces-2021/
Da werden jetzt wohl die Zeiten der Top Margen für Schrott-LCDs als Gamerdisplay gepimped vorbei sein. :D
Der wird doch preislich locker im Bereich eines 55-65Zoll LG OLED TV liegen.
Fragman
2021-01-11, 19:06:11
Wenn der ordentlich kalibriert ist sind noch mehr drin.
Im Artikel steht "professionell", also für Gamer wohl eher nichts.
aufkrawall
2021-01-11, 19:23:49
GSync per Modul finde ich trotzdem nach wie vor die beste Lösung. Das funktioniert selbst bei heftigen Frametimes und niedrigen fps und rettet manches nicht so optimierte Spiel.
Erzähl doch nicht so einen unqualifizierten Unsinn.
Der wird doch preislich locker im Bereich eines 55-65Zoll LG OLED TV liegen.
Der 42" TV aber nicht.
PatkIllA
2021-01-11, 19:28:37
Der 42" TV aber nicht.
der 48" ist doch auch nie richtig günstig geworden.
Wenn der ordentlich kalibriert ist sind noch mehr drin.
Im Artikel steht "professionell", also für Gamer wohl eher nichts.
Der 32" in nicht ganzso gut kalibriert wäre für den normalo gamer noch interessant. Immerhin gibt es jetzt solche Panel.
Samsung kommt hoffentlich von unten nach für Monitore.
Linmoum
2021-01-11, 19:32:28
Ich hab zwar erst seit Black Friday einen OLED (55" CX), aber seitdem warte ich schon nur darauf, mir so ein Teil auch auf den Schreibtisch zu stellen. Schön, dass das dieses Jahr dann mit dem 42" klappt.
Freut mich aber auch für Asus, Acer und Konsorten, deren vierstelligen überteuerten 43" Schrott kauft dann niemand mehr. Längst überfällig, dass der Schmu von Monitormarkt endlich mal durchgewischt wird.
der 48" ist doch auch nie richtig günstig geworden.
Der 32" in nicht ganzso gut kalibriert wäre für den normalo gamer noch interessant. Immerhin gibt es jetzt solche Panel.
Samsung kommt hoffentlich von unten nach für Monitore.
Naja, wenigstens bekommt man aber für das Geld etwas sehr gutes. Gibt ja Hersteller, die den gleichen Preis für LCDs dieser Größe verlangen.
basix
2021-01-12, 08:59:13
32zoll 4k oled von lg
https://www.computerbase.de/2021-01/lg-ultrafine-32ep950-oled-pro-ces-2021/
:love2:
Der noch mit 120-144 Hz sowie G-Sync / Free Sync und ich bin glücklich.
gnomi
2021-01-12, 09:09:02
Erzähl doch nicht so einen unqualifizierten Unsinn.
Ich benutze GSync in Hardware seit Launch 2014.
Für das Spielerlebnis seitdem kann ich ganz klar nur die Bestnote geben.
Mich interessiert für diese Feststellung zunächst mal Null, ob da andere mittlerweile vergleichbare Lösungen haben.
Out of the Box hat das perfekt funktioniert, und da nvidia bis heute auch die schnellsten GPU's baut, die man damit dann kombiniert, war es egal, auf eine Hersteller eigene Lösung zu setzen.
Und klar funktioniert so etwas wie ein extra Hardware Boost. Man ist flexibler und muss nicht perfekt die fps antackern oder sich so extrem ärgern, wenn es mal etwas unruhiger wird. (was sich nicht vermeiden lässt gerade bei Open World und ambitionierten Titeln)
Warum wohl arbeiten die neuen Konsolen und mittlerweile alle Bildschirme mit solchen Lösungen? (teilweise nun kostenoptimiert und ohne Modul- mit Modul ging es jedoch bereits über 6 Jahre und in der größten Reichweite marktweit mit imho erträglichen Kosten Ultimate dann ausgenommen)
Ich hoffe, LG hält diesen Standard mit ihren Bildschirmen. (gab einige nicht so perfekte Erlebnisberichte - ich kann dazu leider nichts sagen, da mein OLED ein 2017er Modell ohne HDMI 2.1 ist)
robbitop
2021-01-12, 09:33:38
Anständiges VRR mit großer FPS Range und anständigem LFC ist ein deutlicher Mehrwert beim Spielen. Da gebe gnomi Recht. Der Gradient fps über die Zeit und auch die FPS Bandbreite ist damit subjektiv deutlich höher, bevor man hier etwas merkt. Das Spielerlebnis wurde für mich sofort deutlich konsistenter. Man brauchte weniger Hardwareoverhead um dieses Erlebnis zu haben. Klar vsync=off ging auch. Aber dann hatte man tearing und es war trotzdem nicht so schön smooth. VRR ist IMO einer der besten Neuerungen des letzten Jahrzehnts in der PC Hardware.
Das hat NV tatsächlich in ihrer (leider) proprietären Lösung bereits 2014 geliefert. Kann ich bestätigen. Bin damals zum ASUS ROG SWIFT (1440p 144 Hz GSync TN) gewesechselt und das war wirklich schon damals super gut.
Offenes VRR brauchte erst eine Weile bis obige Mechanismen in der Mehrzahl der Gerät so gut umgesetzt war, dass man es als vergleichbar ansehen konnte. Das ist aber mittlerweile seit einigen Jahren der Fall. Die FPGA Lösung braucht heute keiner mehr.
Aber ggf. war diese gut darin, Druck aufzubauen, um den VRR Standard zeitlich schnell auf das Level zu heben, wo er heute ist. Sicher ist das natürlich nicht.
AMD's und NV's Zertifizierungen der offenen Lösungen waren sicherlich auch sehr sehr hilfreich - wobei NV sehr spät damit angefangen hat und sich ein wenig "in's gemachte Nest" gesetzt hat. :D
:love2:
Der noch mit 120-144 Hz sowie G-Sync / Free Sync und ich bin glücklich.
Und entweder in 27" [16:9] oder 34" [21:9].
32" in 16:9 ist mir definitiv zu groß beim normalen Blickabstand zum Spielen. Ich verliere beim Spielen viel zu viel Übersicht weil HUD Teile oftmals in den Ecken sind und weil das FoV dann für die Größe nicht mehr passt.
Badesalz
2021-01-12, 09:47:53
Und entweder in 27" [16:9] oder 34" [21:9].
32" in 16:9 ist mir definitiv zu groß beim normalen Blickabstand zum Spielen. Ich verliere beim Spielen viel zu viel Übersicht weil HUD Teile oftmals in den Ecken sind und weil das FoV dann für die Größe nicht mehr passt.Wenn gleich das direkte Überleben vom HUD abhängt ist das Spiel falsch designt ;)
Sonst postuliere ich weiterhin die Abkehr von dem Schwachsinn mit den :9 Spielzeugformaten und wieder zu 16:10 zurückzukehren.
robbitop
2021-01-12, 10:42:00
Wenn gleich das direkte Überleben vom HUD abhängt ist das Spiel falsch designt ;)
Sonst postuliere ich weiterhin die Abkehr von dem Schwachsinn mit den :9 Spielzeugformaten und wieder zu 16:10 zurückzukehren.
Tja als Spieler kann man sich es nicht aussuchen. ;)
Wenn das HUD und der vertikale und horizontale FOV immer frei einstellbar wäre - das wäre klasse.
Das menschliche Gesichtsfeld entspricht nämlich mitnichten 21:9 oder ähnliches. 214° horizontal und 150° vertikal.
Der Grund warum viele 21:9 so gut finden ist, weil bei Spielen das horizontale FoV erweitert ist und das HUD in die Mitte rückt. Entsprechend passiert das Wesentlich in der Mitte und zusätzlich wird die horizontale Immersion erhöht.
Noch besser wäre es aber auch die vertikale Immersion zu steigern. Also bspw ein sehr großer 16:10 Monitor, bei dem aber ggü 27" Monitoren sowohl horizontales als auch vertikales FoV deutlich erhöht sind und das HUD auch in die Mitte gerückt wird.
Damit so etwas im Massenmarkt funktioniert (also out of the box der Nutzer bei Spielen profitiert) müsste es dafür ein extra Preset in Spielen geben und eine Erkennung, dass es sich um einen solchen besonders großen 16:10 Monitor handelt.
Händisch einstellen würde es wohl nur die Minderheit.
Die Realität sieht leider aus wie sie ist. Deshalb finde ich 27" @16:9 oder auch 34" @21:9 in der Praxis einfach am besten.
In der Theorie gäbe es aber bessere Ansätze - da gebe ich dir Recht.
basix
2021-01-12, 10:43:01
Anständiges VRR mit großer FPS Range und anständigem LFC ist ... IMO einer der besten Neuerungen des letzten Jahrzehnts in der PC Hardware.
Das hat NV tatsächlich in ihrer (leider) proprietären Lösung bereits 2014 geliefert. Kann ich bestätigen. Bin damals zum ASUS ROG SWIFT (1440p 144 Hz GSync TN) gewesechselt und das war wirklich schon damals super gut.
...
Und entweder in 27" [16:9] oder 34" [21:9].
32" in 16:9 ist mir definitiv zu groß beim normalen Blickabstand zum Spielen. Ich verliere beim Spielen viel zu viel Übersicht weil HUD Teile oftmals in den Ecken sind und weil das FoV dann für die Größe nicht mehr passt.
Japp, G-Sync und FreeSync sind definitiv ihr Geld wert. Wenn ich es heute abschalte merke ich das sofort. Man benötigt deutlich mehr FPS für das selbe flüssige Spielerlebnis.
Ich bin noch heute auf dem Swift unterwegs und bin immer noch zufrieden (ausser dass ich ihn 2x wegen Defekt auf Garantie tauschen musste). Für ein TN-Panel ist die Bildqualität sehr gut und ich kam von 24" und 1920x1200 @ 60Hz, war also ein ordentlicher Sprung. 750.- waren damals für einen Monitor sehr viel Geld, verglichen mit den heutigen High-End Monitorpreisen war das aber schon fast ein Schnäppchen.
Neu würde ich gerne etwas grösser gehen aber für die meisten ist 27" wohl der Sweet Spot. 34" Ultra Wide ist für mich weniger ein Thema. Für Spiele ist das Ding sicher genial. Für einige Hollywood Porduktionen sicher auch. Für den grössten Teil des Contents ist aber 16:9 und 4K der Standard. Ist bei OLED zwar weniger ein Problem, man hätte im Notfall einfach schwarze Ränder links und rechts. Von der Auflösung her sollte man dann aber 5120x2160 haben. Damit deckt man 4K ab und 3440x1440 wäre für mich kein Fortschritt bei der Pixeldichte gegenüber 1440p @ 27"
Ich suche grundsätzlich nach folgendem:
4K
31-32" @ 16:9
120-144Hz
Gutes HDR
VRR / G-Sync + FreeSync (beides, möchte nicht G-Sync only)
Non-Glare
Ausser dem zukünftigen Gaming Ableger des ASUS ProArt PA32UCX-PK gibt es momentan nichts, was dem entsprechen würde. Der ASUS hat aber auch "nur" 1152 Zonen und scheint einen Lüfter verbaut zu haben (für mich ein NoGo). Der LG OLED würde diese Nachteile nicht mitbringen. Ausserdem verwende ich generell eine relativ niedrige Bildschirmhelligkeit (9% beim Swift ;D), das empfinde ich als angenehmer. Da wäre der OLED Nachteil bei der Maximalhelligkeit egal und bei allenfalls noch weiter reduzierter Helligkeit reduziert sich auch die Einbrenngefahr. Der LG OLED Monitor mit 31.5" sieht nach dem perfekten Monitor für mich aus, wenn er denn noch High Refresh Rates und VRR mitbringen würde.
robbitop
2021-01-12, 11:08:06
Ich schätze die Monitorgröße ist sehr abhängig von den individuellen Sehgewohnheiten, Präferenzen und des Abstands.
Ich hatte mir vor 3 Jahren mal einen 4K 32" G-Sync IPS Monitor gekauft. Keine 2 Wochen später ging der zurück. War mir zu groß. Ich persönlich hasse es aber auch wenn Dinge aus dem Fokus sind und ich den Überblick verliere. Andere scheint es selbst bei 40"+ nicht zu stören. :)
Der ROG SWIFT war phantastisch. Nur die Blickwinkelabhängigkeit und damit die eingeschränkte Farbtreue hat mich am Ende dann gestört. Bin dann auf die 2015er Monitorserie gewechselt als es das dann auch mit IPS (und gelben "Pissecken") gab.
Badesalz
2021-01-12, 11:32:17
Sweetspot... 30", 16:10, 2560x1600 :up:
Vom Gesichtsfeld her ist das subjektiv immer ein ordentlicher Zuwachs gegenüber 16:9/1440. Kommt einem wesentlich mehr vor als nur die Pixelanzahl.
Du denkst nicht mehr über 4k (gaming) nach.
Es kostet nicht so brutal viel Leistung wie sonst 4k vs. 1440.
Das größere, aber trotzdem... konzentriertere Sichtfeld ist angenehmer. Produktiv wie fürs Zocken.
Zocken auf 16:9 ist trotzdem kein Problem -> PS5, HZW2004 55", 1440. Nur Pad, kein Kabel, Sitzabstand passt.
ps:
Das Problem mit der Verfügbarkeit in Zockerquali bzw. des Preises, ist mir natürlich klar. Es ging halt um den Sweetsport :wink:
Gebrechlichkeit
2021-01-12, 11:39:29
PSA: LG CX Gamers, DO NOT install latest firmware. 20% Brightness reduction (https://www.forbes.com/sites/johnarcher/2021/12/31/latest-lg-oled-tv-firmware-update-reportedly-makes-gaming-duller/amp/?sh=36e08dd5243b&__twitter_impression=true)
https://old.reddit.com/r/OLED/comments/knu9ps/psa_lg_cx_gamers_do_not_install_latest_firmware/?utm_content=title&utm_medium=post_embed&utm_source=embedly&utm_name=09750d11f3db4d39b88723e928130c99&utm_term=knu9ps
robbitop
2021-01-12, 12:12:35
PSA: LG CX Gamers, DO NOT install latest firmware. 20% Brightness reduction (https://www.forbes.com/sites/johnarcher/2021/12/31/latest-lg-oled-tv-firmware-update-reportedly-makes-gaming-duller/amp/?sh=36e08dd5243b&__twitter_impression=true)
https://old.reddit.com/r/OLED/comments/knu9ps/psa_lg_cx_gamers_do_not_install_latest_firmware/?utm_content=title&utm_medium=post_embed&utm_source=embedly&utm_name=09750d11f3db4d39b88723e928130c99&utm_term=knu9ps
Old news. LG hat schon angekündigt, das Problem in der nächsten FW zu lösen. Scheint ungewollt zu sein.
Shaft
2021-01-12, 12:50:02
Wurde wohl auch schon gefixt.
:love2:
Der noch mit 120-144 Hz sowie G-Sync / Free Sync und ich bin glücklich.
Wenn der Preis nicht all zu hoch ausfällt, ist er mein. Grösse ist genau richtig für mich. Mit LCD brauch man nicht mehr anfangen, das ist durch, entgültig.
aufkrawall
2021-01-12, 13:02:36
Ich benutze GSync in Hardware seit Launch 2014.
Für das Spielerlebnis seitdem kann ich ganz klar nur die Bestnote geben.
Mich interessiert für diese Feststellung zunächst mal Null, ob da andere mittlerweile vergleichbare Lösungen haben.
Aha, und deshalb war deine Aussage defakto auch, dass mit VRR per Modul angeblich die Spielbarkeit besser sei als ohne (sonst hättest du das Modul ja nicht in dem Zusammenhang erwähnt):
GSync per Modul finde ich trotzdem nach wie vor die beste Lösung. Das funktioniert selbst bei heftigen Frametimes und niedrigen fps und rettet manches nicht so optimierte Spiel.
Wenn du also gar nicht weißt, dass es da ohne Modul keinen Unterschied gibt (bis auf variablen Overdrive), warum erzählst du dann so einen Käse? :confused:
Gsync per Modul "rettet" rein gar nichts an der Spielbarkeit vs. VRR ohne Modul. Dass VRR mit HDMI 2.1 für LG OLED seine Tüte Bugs hat(te), ist wieder eine ganz andere Baustelle...
Badesalz
2021-01-12, 13:07:54
Wurde wohl auch schon gefixt.Ja das war ne geile Nummer.
Firmware rausgebracht mit der die vorherige Baureihe 20% dunkler wurde und für 2021 Modelle angekündigt, die 20% heller können als die vorherige Baureihe :biggrin:
:up:
gnomi
2021-01-12, 13:31:02
Aha, und deshalb war deine Aussage defakto auch, dass mit VRR per Modul angeblich die Spielbarkeit besser sei als ohne (sonst hättest du das Modul ja nicht in dem Zusammenhang erwähnt):
Wenn du also gar nicht weißt, dass es da ohne Modul keinen Unterschied gibt (bis auf variablen Overdrive), warum erzählst du dann so einen Käse? :confused:
Gsync per Modul "rettet" rein gar nichts an der Spielbarkeit vs. VRR ohne Modul. Dass VRR mit HDMI 2.1 für LG OLED seine Tüte Bugs hat(te), ist wieder eine ganz andere Baustelle...
Ich habe doch gar keinen direkten Vergleich aufgestellt. Nur GSync explizit gelobt.
Du hast da was in den falschen Hals bekommen.
Mit GSync habe ich gute Erfahrungen gemacht. Ist ja nicht verboten. :rolleyes:
Deshalb habe ich auch bei dem Warehouse Acer X34P Gerät nach dem Swift nochmalig extra auf das Feature in Form des Moduls und nicht Compatible gesetzt, was teils nicht genauso ist, sondern sich dem nur qualitativ annährt.
Out of the Box ist mir immer sehr wichtig. Und diese Sache funktioniert eben einfach.
Auch dachte ich ein bisschen an das VRR Problem bei LG OLED, aber mir fehlt da die Erfahrung wie gesagt.
Und die Fernseher haben HDMI 2.1 und keinen Display Port extra.
Solche Sachen sind ja neben vielen anderen nicht uninteressant, wenn es nun um den Einsatz als PC Monitor geht.
Man muss also erst einmal gucken, ob da jetzt bei LG OLED Produkten alles passt.
Auf jeden Fall sind die Ankündigungen allerdings prima.
Du hättest es stehen lassen sollen oder nachfragen können. Oder vielleicht doch nicht. (Name ist Programm und jede gefühlt unpassende Äußerung anderer Provokation. :freak: )
Lasse einfach mal andere hier in Ruhe sich austauschen und bleibe cool.
Ist so schon unentspannt überall gerade.
robbitop
2021-01-12, 13:44:33
Der inhärente Vorteil des GSync Moduls war, dass bei den Modellen sehr sehr streng zertifiziert wurde. Entsprechend gut war das out of the box Erlebnis. Und es gab auch eine ganze Menge VRR Geräte, die nicht so gut funktioniert haben. Gibt es auch heute noch einige sicherlich.
Das aktuellste Freesync 2.0 HDR oder auch G-Sync Compatible Zertifikat ist aber auch schon so streng, dass das Endergebnis mit den jeweiligen Grafikkarten sehr gut passen sollte.
gnomi
2021-01-12, 14:15:44
Gebe ich Dir absolut Recht.
Denke auch, dass du das genauer weißt und besser erklärst.
Hoffe halt, VRR ist Out of the Box dann auch genauso gut wie gewohnt.
Kartenlehrling
2021-01-12, 19:30:04
Das ist ein Rückschritt, ich will nicht wissen wieviel Käufer nur auf den Preis schauen und
sich später wenn das Teil im Wohnzimmer steht, rummeckern.
A1 OLED TV: LG präsentiert günstigen Einstiegs-OLED mit HDMI 2.0 und nur 50Hz/60Hz.
https://www.4kfilme.de/a1-4k-oled-tv-lg-guenstigen-oled-hdmi-2-0/
basix
2021-01-13, 14:50:00
Update: LG 4K OLED mit nur 60Hz...das ist doch Bockmist! Hoffentlich gibt es zeitnah einen Gaming-Ableger mit 120Hz.
https://www.computerbase.de/2021-01/lg-ultrafine-32ep950-oled-pro-ces-2021/
Badesalz
2021-01-13, 19:29:51
@basix
Ja schick. Passt grad. Mit welchem Kabel wolltest du denn die 4k/120Hz stresssfrei betreiben?
basix
2021-01-13, 20:20:43
Da hätte ich mir Gedanken dazu gemacht, wenn es soweit wäre ;) So ist es mal wieder wie immer: Grundsätzlich guter Monitor, aber 1-2 Features fehlen.
Jupiter
2021-01-13, 21:06:40
In den letzten 3-4(?) Jahren hat sich ja nicht viel bei OLED getan. Wird auf jeden Fall mal wieder Zeit für einen größeren Sprung.
Natürlich hat sich viel getan?! Große OLEDs wurden deutlich günstiger, BFI kam, OLEDs, welche dünner als Haare sind, transparente OLEDs usw. Das ist erst der Anfang von OLED.
Bis jetzt der interessanteste TV in 2021. Bin gespannt, wieviel heller sie ggü. LG OLEDs sind.
Mehr Helligkeit bringt beim Gesamteindruck kaum etwas.
00-Schneider
2021-01-13, 21:50:15
Große OLEDs wurden deutlich günstiger
Naja, ging mir eher um die Bildqualität bei TVs. Halber Punkt.
BFI kam,
Zumindest bei LG nicht zu gebrauchen, da Helligkeit deutlich leidet und das Bild wie sau flimmert.
OLEDs, welche dünner als Haare sind,
Und? Von mir aus können OLEDs gerne wieder dicker werden(siehe Heatsink), solange sich die Bildqualität dadurch verbessert
transparente OLEDs usw.
Nette Spielerei, aber wer braucht sowas in einem TV?
Mehr Helligkeit bringt beim Gesamteindruck kaum etwas.
Natürlich nicht... ;D
BFI flimmert bei den aktuellen Modellen nicht mehr.
Jupiter
2021-01-13, 22:22:03
Naja, ging mir eher um die Bildqualität bei TVs. Halber Punkt.
Zumindest bei LG nicht zu gebrauchen, da Helligkeit deutlich leidet und das Bild wie sau flimmert.
Und? Von mir aus können OLEDs gerne wieder dicker werden(siehe Heatsink), solange sich die Bildqualität dadurch verbessert
Nette Spielerei, aber wer braucht sowas in einem TV?
Natürlich nicht... ;D
Siehe den Kommentar von 24p
Ultradünne OLED ermöglichen eine enorme Bandbreite an Anwendungsfällen.
Wenn LG tiefere OLEDs macht, beschränkt das die Einsatzzwecke. LG zielt eher auf Helligkeitsverbesserungen beim Panel ab, was technisch fortschrittlicher ist.
Wir brauchen nicht zwangsläufig transparente Konsumentenfernsehgeräte, aber es wird für viele andere Anwendungen sinnvoll sein.
robbitop
2021-01-14, 08:36:58
@basix
Ja schick. Passt grad. Mit welchem Kabel wolltest du denn die 4k/120Hz stresssfrei betreiben?
Kein Witz - habe mir genau dafür ein optisches HDMI Kabel, welches mit 48 Gbit/s spezifiziert wurde (von Corning) in meinem Haus verlegen lassen. Für schlappe 300 €. Gibt aber für diese Bandbreitenanforderungen für die Länge, die ich zwischen PC und TV habe nichts was funktioniert. :)
Ist aber wohl ein Sonderfall.
Es gibt auch Kupferkabel, die 48 gbit/s spezifiziert sind. Die sind etwas teurer als die hdmi 2.0 Kabel aber noch gut bezahlbar. Aber alles ab 2m wird dann stressig.
robbitop
2021-01-14, 08:44:42
Natürlich nicht... ;D
Ich würde auch sagen, jedes bisschen hilft. Aber: der menschliche Seheindruck von Helligkeit ist leider nicht proportional sondern logarithmisch. Die 20% peak brightness werden bei einem upgrade von einem 2020er Panel vermutlich nur wenig auffallen. Bzw weniger als man von den 20% annimmt.
Aber: die neuen Panels sollen bei hoher Helligkeit ja auch besser in der Farbtreue sein und nicht zu sehr in's Weiß abdriften. Insofern ist es kumuliert schon ein guter Schritt.
Leider hat erst der wohl deutlich teurere G1 das neue Evo Panel. A1-C1 haben offenbar das Panel was wir seit der 8er Serie kennen.
Was aber nicht schlecht ist. Ich habe seit kurzem einen 77C9 (WZ) und einen 55BX (Mancave/Arbeitszimmer). Es ist einfach phantastisch. Insbesondere abends/wenn man die Jarlousien runterlässt und HDR Content an ist. Ob 4K Filme oder Games (spiele gerade RDR2 mit HDR auf dem Gerät .... vom allerfeinsten). Ich komme ja vom Plasma und fand den schon wegen der guten Schwarzwerte gut und hab mit der niedrigen Helligkeit leben können - mit den OLEDs mache ich eigentlich auch tagsüber im Vergleich dazu keine Kompromisse. Heller geht immer - klar - aber ist IMO ein Level was mich 100% zufriedenstellt.
Auf jeden Fall würde ich dir Recht geben. Bei den OLED Panels hat sich lange nichts getan (sie waren aber so gut, dass sie laut renormierten Tests immer Referenzniveau hatten - aber: das Bessere ist des Guten Fein). Insofern schön, dass etwas passiert. Gerne mehr davon und gerne auch in der normalen Consumer Serie. Dann wohl erst nächstes Jahr.
BFI flimmert bei den aktuellen Modellen nicht mehr.
Kommt auf's Setting an. Man kann ja die Intensität einstellen. In der Default Einstellung flimmert es bei meinen C9 und BX jedenfalls. Dreht man es runter, geht aber auch der BFI Effekt immer mehr verloren.
Badesalz
2021-01-14, 09:01:15
Wir brauchen nicht zwangsläufig transparente Konsumentenfernsehgeräte, aber es wird für viele andere Anwendungen sinnvoll sein.Für was denn?
robbitop
2021-01-14, 09:16:03
Für was denn?
Das werden sich schon findige PMs in allen möglichen Branchen überlegen. ;)
Spekulativ meinerseits:
- HUDs und AR in Fahrzeugen nicht mehr über Projektion.
Es ist ja häufig so, dass zunächst die Technologie erforscht wird und dann die Applikation kommt.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.