PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : OLED macht Fortschritte


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 [26] 27 28

Savay
2023-12-01, 10:30:50
Haben die MacBooks mit MiniLED anständiges VRR?

Das ist bei allen MiniLED Displays halt immer echt wieder die größte Stolperfalle.

Gast
2023-12-01, 11:26:27
Haben die MacBooks mit MiniLED anständiges VRR?


Ja, bzw. "ProMotion" wie es in Apple-Speech heißt.


Das ist bei allen MiniLED Displays halt immer echt wieder die größte Stolperfalle.

Das größte Problem (für Gaming) ist die relativ schlechte Latenz aller FALD Displays mit aktivem Local Dimming, das ist auch bei Apple der Fall, wobei die Zonendichte hoch genug ist, dass man in fast allen realen Fällen praktisch nichts mehr vom Blooming mitbekommt.

Und natürlich die langsamen Schaltzeiten aller LCDs.

Savay
2023-12-01, 12:52:55
..oder dass das Dimming mit VRR garnicht zusammen funktioniert.

Hier auch schon wieder:
https://www.computerbase.de/2023-07/ktc-m27p20-pro-mini-led-monitor-test/

Ich weiß ehrlich gesagt nicht was schlimmer ist...potenzielles Burn-In das man vglw. gut mitigieren kann oder je nach nutzungsverhalten fast irrelevant ist.
Oder dieser ständige Kompatibilitätsalptraum bei FALD Displays + Lag und Blooming.
Dazu die angesprochene Inkonsistenz in der Qualität.

IMHO bisher eher letzteres...bei FALD höre ich mittlerweile schon auf genauer Hinsehen zu wollen.
Ist m.E. eher alles DoA...

Daredevil
2023-12-02, 23:55:07
Haben die MacBooks mit MiniLED anständiges VRR?

Das ist bei allen MiniLED Displays halt immer echt wieder die größte Stolperfalle.
Jup, VRR kann MacOS. Das drosselt ja auch u.a. runter, wenn z.B. nur 24fps Material abgespielt wird. Bei Standbild sind es auch weniger, als wenn ich jetzt im Safari surfe und scrolle, das funktioniert ganz wunderbar. Die Displays sind echt fantastisch, man kann bis 1000Nits aufdrehen ( Mit Vivid ) , hat 2500 Dimming Zones bei einer sehr hohen Pixeldichte und in Kombination mit dem MacBook ist es sehr effizient. Ich wüsste an der Stelle nicht, wieso ich dort OLED haben wollen würde, weil jetzt schon alles nahezu perfekt aussieht. Klar gibt es hier und da Kleinigkeiten, bei einem mobilen Computer würde ich aber Helligkeit bevorzugen, da ich gerne im Sommer mal rausgehe mit der Kiste. Aber am Ende auch nur, weil es eben so hell wird.

Und HDR ist imho auch besser bzw. "unsichtbarer" implementiert als in Windows, aber das ist wieder eine andere Geschichte.


Erstes Fazit zum 77" C3: Was ne Wucht! Alter ist das riesig. :D
Von der Bildqualität sehe ich ehrlich gesagt kaum unterschiede zum C9, es sieht alles nach wie vor immer noch wunderbar aus. Ich komme jetzt allerdings in Regionen, wo YouTube Videos oder Streams in 720p/1080p einfach nur schlecht aussehen, als würde man sich ARD SD in 480p anschauen. Das ist natürlich ein aelbatgemachtes Problem, welches auf dem 55" eher weniger da war, aber wir sind halt immer noch bei 4K und nicht bei 8K und selbst wenn, würde es ja eh nur schleppend Material geben. Allerdings kann es an der Stelle ja auch nur besser werden, weil eher das 8K kommt, kommt öffentlich ordentlicheres 4k mit hoher Bitrate. Das ist jetzt der Moment, wo man eigentlich Blu Rays kauft und nichts mehr streamt, oder? Da ich aber meist bei AppleTV+ und Disney+ unterwegs bin, ist die Quali dann doch ganz gut.

Tobalt
2023-12-03, 07:20:56
hattest du mit C9 Probleme bekommen?

Daredevil
2023-12-03, 10:14:36
Ne, der läuft nach wie vor. Vorher war der 55“ mein Arbeitsgerät und Fernseher, jetzt ist der 77“ mein Fernseher und der 55“ in einem anderen Raum mein Arbeitsgerät aka MacBook steckt ab und an dran, primär aber zocken auf Windows.

Gast
2023-12-03, 12:13:51
Ich wüsste an der Stelle nicht, wieso ich dort OLED haben wollen würde, weil jetzt schon alles nahezu perfekt aussieht.


Weil die Latenz sehr schlecht ist, gut am Mac gibt es eh kaum Spiele, ist also weniger relevant, und auch weil die Schaltzeiten ziemlich schlecht sind, was auch beim normalen Arbeiten wie beim Scrollen oder verschieben deutlich störend auffällt.



Klar gibt es hier und da Kleinigkeiten, bei einem mobilen Computer würde ich aber Helligkeit bevorzugen, da ich gerne im Sommer mal rausgehe mit der Kiste. Aber am Ende auch nur, weil es eben so hell wird.


Bis Macbook Größe werden noch "normale" direkt emittierende OLEDs verwendet, die haben kein Problem vergleichbare Helligkeiten zu erreichen, siehe 3000nits bei der Apple Watch Ultra, oder 2000nits bei den Iphones.


Und HDR ist imho auch besser bzw. "unsichtbarer" implementiert als in Windows, aber das ist wieder eine andere Geschichte.


Allerdings nur mit dem integrierten Display, das kann nämlich nur für die Bildbereiche die es gerade benötigen mit HDR angesteuert werden.
Bei externen Displays, musst du wieder entscheiden ob du HDR verwenden willst oder nicht und es gilt für das gesamte Bild, dann ist das Verhalten sehr ähnlich wie von Windows.

Thunder99
2023-12-03, 17:48:19
..oder dass das Dimming mit VRR garnicht zusammen funktioniert.

Hier auch schon wieder:
https://www.computerbase.de/2023-07/ktc-m27p20-pro-mini-led-monitor-test/

Ich weiß ehrlich gesagt nicht was schlimmer ist...potenzielles Burn-In das man vglw. gut mitigieren kann oder je nach nutzungsverhalten fast irrelevant ist.
Oder dieser ständige Kompatibilitätsalptraum bei FALD Displays + Lag und Blooming.
Dazu die angesprochene Inkonsistenz in der Qualität.

IMHO bisher eher letzteres...bei FALD höre ich mittlerweile schon auf genauer Hinsehen zu wollen.
Ist m.E. eher alles DoA...
Gab ein Update de Firmware die es nun möglich macht :wink:
Update 16.11.2023 21:11 Uhr

Mit Firmware 2.0.3A anstelle der im Test genutzten Version 2.0.3 kann FreeSync/G-Sync und Local Dimming nun auch gleichzeitig aktiviert werden und der KTC M27P20 Pro kann problemlos auch über DisplayPort ohne Farbunterabtastung FreeSync mit 160 Hz nutzen, was vorher auf maximal 144 Hz begrenzt war.

Edit:
Habs nun endlich geschafft den Samsung G8 aufzustellen und in Betrieb zu nehmen. Was für ein Ding und ja, man merkt die Verbesserung bei jedem Kontent ;D
Muss nur noch die Einstellungen finden die passen, wie z.B.
- Augenkomfort ein/aus? Ist ein die automatische Helligkeit?
- Kontrast-Verbesserung ein/aus?
- VVR über Moni ein/aus? (G-Sync Kompatibel ist eingestellt im Treiber)
- Sonstige Sachen?

Bin happy und Breite geht gut :D

Hikaru
2023-12-07, 20:12:52
Ist ja auch nicht so, das so ein VA schlecht wäre.

Ich find VA super für mein Nutzerverhalten. Leider sind praktische alle VA's die was taugen gebogen. Wenn mir jemand einen Tip für einen 4K 32" hätte wäre ich sehr dankbar. rtings hab ich schon durchgekämmt und nichts gefunden.

medi
2023-12-08, 04:12:04
Ich find VA super für mein Nutzerverhalten. Leider sind praktische alle VA's die was taugen gebogen. Wenn mir jemand einen Tip für einen 4K 32" hätte wäre ich sehr dankbar. rtings hab ich schon durchgekämmt und nichts gefunden.

Ich hab seit 2 Wochen den hier im Einsatz: https://geizhals.de/lenovo-legion-y34wz-30-67b0uac1eu-a2990635.html?hloc=at&hloc=de
Wird primär als Arbeitsgerät genutzt. Betreibe ihn mit 10% Helligkeit und an die Biegung hat man sich schnell gewöhnt. Hatte ich mir schlimmer vorgestellt und war auch nur die ersten paar Tage "störend"
Gabs vor kurzem noch für 750€

Redneck
2023-12-08, 09:48:20
Erstes Fazit zum 77" C3: Was ne Wucht! Alter ist das riesig. :D
Von der Bildqualität sehe ich ehrlich gesagt kaum unterschiede zum C9, es sieht alles nach wie vor immer noch wunderbar aus. Ich komme jetzt allerdings in Regionen, wo YouTube Videos oder Streams in 720p/1080p einfach nur schlecht aussehen, als würde man sich ARD SD in 480p anschauen. Das ist natürlich ein aelbatgemachtes Problem, welches auf dem 55" eher weniger da war, aber wir sind halt immer noch bei 4K und nicht bei 8K und selbst wenn, würde es ja eh nur schleppend Material geben. Allerdings kann es an der Stelle ja auch nur besser werden, weil eher das 8K kommt, kommt öffentlich ordentlicheres 4k mit hoher Bitrate. Das ist jetzt der Moment, wo man eigentlich Blu Rays kauft und nichts mehr streamt, oder? Da ich aber meist bei AppleTV+ und Disney+ unterwegs bin, ist die Quali dann doch ganz gut.

Glückwunsch..
Discs bringen es auch nicht immer.
Habe mir kürzlich die Uhd discs von House of the Dragon zugelegt und bin ziemlich ernüchtert,was Schärfe und Durchzeichnung angeht (ich schaue in einem optimierten Kino Raum auf einer 120' Leinwand mit 4k Triple Laser Beamer).
Blu Ray/Uhd heißt nicht automatisch besser (es gibt etliches 4k Material bei Netflix oder Youtube, was ganz fantastisch ausschaut) und dann wiederum 4k Streams, welche nicht einmal die Quali meiner FHD BR erreicht (Beispiel Oblivion bei AppleTV in Uhd vs BR disc).

Lowkey
2023-12-08, 10:09:15
@Daredevil

Ich habe mit dem C9 SD gesehen und Augenkrebs bekommen. Wenns mit dem C3 dann schlimmer wird, was nimmt man dann heutzutage in Zeiten der 720p Streams?

Mein Nachbar sucht nun einen neuen OLED, aber will perfektes Bild für YT und BR. Das scheint nicht machbar zu sein.

Nightspider
2023-12-08, 11:43:21
Über eure Fernseher könnt ihr euch eigentlich im OLED Erfahrungsberichte Thread austauschen.

Hier geht's eigentlich um die Technologie und gerade zwischen C1,C2 und C3 gibt's nur geringe Unterschiede zwischen den Panels.

Our friends at DisplayMate posted an in-depth technical review of BOE's new X1 AMOLED display used in the upcoming OnePlus 12 smartphone. The OnePlus 12 hasn't officially launched, but we know it uses a 6.8" 3168x1440 2600 nits LTPO AMOLED display. The display has several novel technologies, including BOE's new-generation LTPO backplane, and the new Oppo P1 display chip that features high-precision pixel calibration algorithms that ensure high brightness, high image quality - reduced power consumption (by 13%, according to OnePlus).

BOE X1 OLED ceremony with OnePlus - photo
Based on DisplayMate's extensive lab tests and measurements the OnePlus 12 delivers excellent display performance - and has earned the company's highest overall display assessment rating and highest display performance grade of A+. The display matches or breaks 18 different display quality records. some of these display records records include the highest peak display brightess (it reaches 2,675 nits for Low APL), the lowest screen reflectance (4%), the highestabsolute color accuracy (visually indistinguishable from perfect), and the largest native color gamut.

Macht gerade den Anschein als ob BOE bessere Mobiledisplays produziert als Samsung.

Samsung setzt vielleicht bald komplett auf QD-OLEDs könnte ich mir vorstellen und arbeitet primär an dieser Front.

Gast
2023-12-08, 13:44:34
Samsung setzt vielleicht bald komplett auf QD-OLEDs könnte ich mir vorstellen und arbeitet primär an dieser Front.

Sicher nicht, QD-OLEDs sind viel zu ineffizient für mobile Bedürfnisse und in der aktuellen Form auch für Outdoor ungeeignet, und das zu ändern würde die Effizienz nochmal verschlechtern.

Kartenlehrling
2023-12-15, 15:03:32
TCL's brighter printed RGB OLED TVs could arrive in 2025
TCL hat FlatpanelsHD ein Update zu seinen Plänen für die Produktion von RGB-OLED-Fernsehern mit Tintenstrahldruckern gegeben.
Demnach soll die Kleinserienproduktion Ende 2024 oder 2025 beginnen.
https://www.flatpanelshd.com/news.php?subaction=showfull&id=1702466953

Auf die Preise kann man gepannt sein.

00-Schneider
2024-01-03, 08:36:38
NdOnEh0kvDE

------------

G4 kaufen, oder auf einen QD von LG warten? Argh...

ChaosTM
2024-01-04, 11:35:35
480hz OLEDs kommen (https://www.engadget.com/lg-reveals-new-oled-tvs-with-high-144hz-refresh-rates-ahead-of-ces-2024-164550931.html)

Die CES wird spannend heuer. Die "normalen" TVs bieten auch bald 144hz. Kein riesiger Fortschritt, aber immerhin. Die ginge sicher schon deutlich mehr (240) wenn man denn wollte. Ist mmn. aber nicht zwingend notwendig.

Exxtreme
2024-01-04, 11:38:09
Wobei 480 Hz schon bissl ... Overkill ist. :freak: Ich glaube kaum, dass noch jemand den Unterschied zwischen 240 Hz und 480 Hz wahrnimmt. :freak:

ChaosTM
2024-01-04, 11:43:25
Wobei 480 Hz schon bissl ... Overkill ist. :freak: Ich glaube kaum, dass noch jemand den Unterschied zwischen 240 Hz und 480 Hz wahrnimmt. :freak:


Für Extremsportler :)

sven2.0
2024-01-04, 12:26:03
Wobei 480 Hz schon bissl ... Overkill ist. :freak: Ich glaube kaum, dass noch jemand den Unterschied zwischen 240 Hz und 480 Hz wahrnimmt. :freak:

BFI könnte dann langsam interessant werden.

Mark3Dfx
2024-01-04, 12:43:16
Schade dass die C4-Serie so künstlich beschränkt wird.
War wohl zu erfolgreich.

00-Schneider
2024-01-04, 12:47:43
Irgendwie muss LG ja die G-Serie rechtfertigen.

Die G-Serie(afaik ab G1 oder G2) ist der eigentliche Nachfolger der "alten" C-Serie, preislich und was Features betrifft. Die C-Serie ist dann Preis- und Featuretechnisch dementsprechend nach unten gerutscht.

robbitop
2024-01-04, 12:56:54
BFI könnte dann langsam interessant werden.
Du meinst uninteressant? Je höher die Refreshrate (vorausgesetzt es gibt genügend frames - egal ob Zwischenframes oder echte) desto geringer ist der hold-type Effekt, den BFI addressiert.

Ja mit höherer Refreshrate wird der "Flimmer"aspekt von BFI weniger schlimm. Aber da OLEDs eh schon helligkeitslimitiert sind, ist BFI leider sehr nachteilbehaftet. Dazu kommt noch, dass es nicht mit VRR zusammenspielt (wobei es da mit dem Verfahren von ASUS eine Ausnahme gab die aber auch nicht kompromisslos war).
IMO ist Framegeneration (ggf mit mehr Zwischenbildern) und hohe Refreshrate da kein schlechter Weg Bewegtschärfe zu vermeiden ohne die obigen Nachteile.
Laut Blurbusters wären 1000 Hz dann ohne wahrnehmbaren hold type effekt.

sven2.0
2024-01-04, 13:22:49
Das Quellmaterial ist immer noch zu 90% fürs Kino gemacht und so sollte es auch angesehen werden. Und da werden eben immer noch Einzelbilder mit Schwarzblende projiziert.

Aber egal, soll jeder schauen wie er möchte, auf diese Diskussion hab ich keinen Lust. Gutes BFI für Kinolook würde ich dankend annehmen.

Jupiter
2024-01-04, 13:32:56
Die sollen mal größere OLED-Fernseher zu guten Preisen anbieten. LCD gehen jetzt vermehrt in diese Marktlücke. Ein 120 Zoll OLED unter 10 000 Euro wäre gut. Dafür müssen aber auch die neuen Fabriken hochgefahren werden.

Gast
2024-01-04, 13:39:38
Wobei 480 Hz schon bissl ... Overkill ist. :freak: Ich glaube kaum, dass noch jemand den Unterschied zwischen 240 Hz und 480 Hz wahrnimmt. :freak:

Nimmst du den Unterschied zwischen 240Hz Hold Type und 240Hz mit Strobing war?

Wenn ja nimmst du auch den Unterschied zwischen 240Hz und 480Hz war.

Gast
2024-01-04, 13:57:42
Du meinst uninteressant? Je höher die Refreshrate (vorausgesetzt es gibt genügend frames - egal ob Zwischenframes oder echte) desto geringer ist der hold-type Effekt, den BFI addressiert.

Je höher die Refreshrate desto geringer werden aber auch die Nachteile von BFI, der Helligkeitsverlust und das Flimmern nimmt ab je höher die Refreshrate ist.

00-Schneider
2024-01-05, 20:17:57
Kein neues OLED High-End Modell von Sony in 2024:

grBlT1DIqZk

Troyan
2024-01-06, 00:15:18
Naja bei den Kampfpreisen von Samsung bleibt denen auch nicht viel übrig. OLED hat einfach zu wenig Panelhersteller. Da ist jeder Fernseher ja im Grunde identisch.

Nightspider
2024-01-06, 00:16:55
Zumal LG und Samsung bestimmt auch einen guten Kaufpreis für ein Panel verlangen.
Nicht umsonst kosten die Sony Fernseher deutlich mehr.

Hikaru
2024-01-06, 03:35:58
"...my C7 suddenly started showing permanent burn in including the UI of a game I hadn't played in months. I suspect what happened is that when brand new the screen has some margin in how bright it can drive the pixels, and it uses that margin to compensate for burn-in... But when it's done instead of dimming the rest of the picture it just gave up, and all the accumulated burn-in started to show up. I'd much rather it dimmed the rest of the picture though, because as it is it basically went from "perfect" to "unusable" overnight, a couple of months after the warranty expired."

Linmoum
2024-01-06, 03:44:35
Da mir der Zusammenhang auch mit etwaige vorherigen Beiträgen nicht ganz klar ist: Was genau willst du damit jetzt mitteilen? So ein Zitat (btw. Quelle immer angeben) einfach in den Raum geworfen ohne Hintergrund, worüber man jetzt überhaupt diskutieren soll, ist immer wenig sinnvoll.

Nightspider
2024-01-06, 03:59:09
C7 ist ja auch ein ziemlich altes Model.

Wir sind schon 6 Generationen weiter und dieses Jahr kommt noch eine neue Generation.

Hikaru
2024-01-06, 04:20:07
rtings OLED Dauertest Kommentar https://www.youtube.com/watch?v=Fa7V_OOu6B8

Mir geht es um das refreshing oder die Dauerlebenserhaltungsmaßnahme:anonym:

Klar ist ein altes Panel aber hat sich soviel verändert was das refreshing betrifft Auch interessant das dies kurz nach Garantieende passiert ist.

Jetzt hab ich wieder keinen Bock mehr auf OLED *heul*

PS: Habe mit dem LG G3 in 77" geliebäugelt wenn die 24er Generation rauskommt. Sprich 3000 wirds wohl immer noch kosten und da will ich schon das die Möhre lange lebt. Gaming und bisschen Filme, kein TV.

Nightspider
2024-01-06, 05:52:04
Wie viele Jahrzehnte möchtest du denn einen Fernseher behalten?

Die aktuellen OLEDs haben doch eine viel höhere Lebensdauer als der 6-7 Jahre alte Kram.

Der G3 ist viel heller und langlebiger als alle alten Modelle.
Wenn du nicht gerade die Helligkeit auf 100% stellst, weil dein Wohnzimmer lichtdurchflutet ist, dann wirst du den bestimmt nicht tot kriegen.
Oder anders gesagt: Die Wahrscheinlichkeit ist höher das andere Bauteile ausfallen, bei durchschnittlicher Nutzung.

Tobalt
2024-01-06, 06:10:10
Spoiler: Wenn du lange genug das Darknet durchforstest, wirst du auch in 10 Jahren noch Berichte zu Burn-In des Todes finden ;)

00-Schneider
2024-01-06, 08:46:12
Ui, haben wir hier jetzt wieder die ~alle 6 Monate auftretende Diskussion bzgl. Burn-In bei OLEDs, und warum man diese daher generell nicht kaufen sollte?

Falls ja: Sagt mit bitte Bescheid, dann komm ich in zwei Wochen wieder, wenn diese "Diskussion" abgeschlossen wurde und wir wieder zum eigentlichen Thema zurückgekehrt sind.

Linmoum
2024-01-06, 09:27:47
Im Prinzip sind es immer dieselben 2-3 Nutzer, die damit wiederholt versuchen, anzufangen. Und dann auch noch User, die selbst keine OLEDs besitzen und deswegen auch keine Ahnung davon haben. Sieht man ja schon daran, wenn hier irgendwelche Uralt-OLED wie ein C7 von 2017 mit den aktuelleren (W)OLEDs verglichen werden und man meint, seitdem hat sich ja eh nichts getan.

Das ist dann nichts weiter als eine "ich will aber recht haben"-Attitüde. Warum auch immer man das braucht. Wer dann immer noch Panik hat und einen OLED eh nicht als TV nutzen will, soll sich halt einfach einen Dell holen, da gibt's explizite 3 Jahre Burn-In-Garantie. Dann hat man selbst seine Ruhe und der Thread hier auch.

Iamnobot
2024-01-06, 09:56:59
Hihi. Die "Fans" versuchen mal wieder, eine kritische Diskussion im Keim zu ersticken :)

C7 ist ja auch ein ziemlich altes Model.

Wir sind schon 6 Generationen weiter und dieses Jahr kommt noch eine neue Generation.
Langzeiterfahrungen macht man nunmal in erster Linie mit alten Modellen. Und das Gegen"argument" "aber in der Zwischenzeit hat sich soo viel geändert und ab Modell XYZ ist OLED total ausgereift!" genauso alt wie das Problem.
Bei intensiveren Burn-In Tests, die Langzeiterfahrungen mit neueren Modellen simulieren heißt es dann, dass das Testverfahren total unrealistisch wäre :freak:

P.S.: Im Thread werden seit 2006 (!) die noch immer nicht gelösten und Technologie-immanenten Probleme von OLED genannt. Und genauso lange geleugnet ;D

robbitop
2024-01-06, 10:13:10
Was am meisten Substanz hat sind Zahlen, Daten, Fakten. Die liefert uA RTINGS mit ihren Dauertests.
Wenn es bei normalem Kontent richtig starke Probleme in großer Breite gäbe würde sich das in Userratings zeigen.

Negative Einzelberichte gibt es von allem und immer. Wie sehr man die bewerten will muss jeder selbst einschätzen.

IMO zeigt der ratings Test eigentlich gut was bei welcher Nutzung zu erwarten ist.

redpanther
2024-01-06, 10:42:17
Hihi. Die "Fans" versuchen mal wieder, eine kritische Diskussion im Keim zu ersticken :)


Langzeiterfahrungen macht man nunmal in erster Linie mit alten Modellen. Und das Gegen"argument" "aber in der Zwischenzeit hat sich soo viel geändert und ab Modell XYZ ist OLED total ausgereift!" genauso alt wie das Problem.
Bei intensiveren Burn-In Tests, die Langzeiterfahrungen mit neueren Modellen simulieren heißt es dann, dass das Testverfahren total unrealistisch wäre :freak:

P.S.: Im Thread werden seit 2006 (!) die noch immer nicht gelösten und Technologie-immanenten Probleme von OLED genannt. Und genauso lange geleugnet ;D

Wer leugnet hier denn die Probleme?

Jede der Technologien hat Vor- und Nachteile.
Zu den Nachteilen von OLED gehört der mögliche BurnOut.
Die meisten hier sagen nur, das dies heutzutage nicht mehr so relevant ist, wenn überhaupt.
Dafür bekommt man halt die IMHO allgemein beste Bildqualli die man kaufen kann. Was nicht heißt der Rest ist schlecht!
Nur, das bessere ist des guten Feind.

Wenn du dir gerne die Netzhaut wegbrennst, 12h im Homoffice immer die gleiche Excel Tabelle / Texteditor anschaust oder gerne den ganzen Tag N-TV bei voller Helligkeit nebenbei laufen lässt, dann würde ich sagen, du solltest dir keinen OLED kaufen. Aus den allgemein bekannten gründen.
Wäre dann meiner Meinung nach auch "Perlen für dir Säue", wie man so schön sagt.
Ist doch toll das man die Wahl hat.
Wenn ich da noch an die Röhren Zeiten zurück denke. Hach, was haben wir es gut. (ps. schau dir mal den Burnout bei den CRT an, man hätte damals besser nur Radio hören sollen. Warum gibt's wohl Bildschirmschoner?)

Das ist genauso wie wenn man sich ein EAuto kauft und sich dann wundert, das das Laden an der Autobahn länger dauert als das Tanken mit Benziner.
Ist bekannt, man kann damit leben. Wenn nicht, kauft man sich ein Erdgas Auto :biggrin:

Linmoum
2024-01-06, 10:58:43
IMO zeigt der ratings Test eigentlich gut was bei welcher Nutzung zu erwarten ist.Tut er auch. Passt nur nicht ins Narrativ der Heulsusen, wie man auch schon an dem Beitrag über dir sieht.

Leute wollen einfach recht haben und saugen sich ihre Meinungen bei dem Thema aus irgendwelchen Erfahrungen Dritter, die in ihr Weltbild passen, ohne selbst wissen zu können, wovon sie hier reden.

Tobalt
2024-01-06, 11:09:05
Wer Angst vor Burn-In hat, kauft halt LCD. Alle Selbstleuchter altern pixelspezifisch. Also bleibt nur LCD. Auch bei FALD altern die Zonen unterschiedlich.

Also nur Edge-lit LCD bei Burn-In-Angst zu empfehlen! Diskussion abgeschlossen 👍

Iamnobot
2024-01-06, 11:21:01
Leute wollen einfach recht haben und saugen sich ihre Meinungen bei dem Thema aus irgendwelchen Erfahrungen Dritter, die in ihr Weltbild passen, ohne selbst wissen zu können, wovon sie hier reden.
Gute Idee. Verbieten wir einfach allen Usern, die nicht seit mindestens 5 Jahren einen OLED besitzen, hier zu posten. Dann sind wir Fans schön unter uns und können uns gegenseitig zu unseren Käufen beglückwünschen. Das wird super!

robbitop
2024-01-06, 11:48:25
Einbrennen gibt es zT aucj bei LCDs.

Tobalt
2024-01-06, 12:14:57
Fun fact: Sogar bei der Netzhaut. Wird aber vom Sehapparat kompensiert, ganz ähnlich wie man es bei den OLEDs auch macht. ☺️

Tesseract
2024-01-06, 12:45:24
Langzeiterfahrungen macht man nunmal in erster Linie mit alten Modellen.
tests macht man mit dem was man testen will und nicht mit etwas anderem.

Bei intensiveren Burn-In Tests, die Langzeiterfahrungen mit neueren Modellen simulieren
tun viele nicht. "langzeiterfahrung" bedeutet normale compensation cycles alle X stunden laufzeit, wenn diese in einem extremtest durch das firmwaredesign nicht so laufen wie sie in der praxis sollten simulieren die ergebnisse nicht die langzeiterfahrung. und das ist nur eine variable von vielen.

Troyan
2024-01-06, 20:38:40
Zumal LG und Samsung bestimmt auch einen guten Kaufpreis für ein Panel verlangen.
Nicht umsonst kosten die Sony Fernseher deutlich mehr.

Sony möchte wohl eher Premium sein. Dumm nur, dass die Unterschiede bei OLEDs kaum relevant sind und am Ende das Panel entscheidet. Mit Tricks wie bessere Kühlung kann man mehr Helligkeit rausquetschen, aber eigentlich gibt es kaum noch Unterscheidungen.

Bei LCD sieht das anders aus - IPS, VA, QD-Besichtung, Weitwinkelfolie, Hintergrundbeleuchtung, Processing, Overdrive etc.

Nightspider
2024-01-07, 00:05:34
Falls ja: Sagt mit bitte Bescheid, dann komm ich in zwei Wochen wieder, wenn diese "Diskussion" abgeschlossen wurde und wir wieder zum eigentlichen Thema zurückgekehrt sind.

Ob deine eingebetteten YouTube Videos über neuen Fernseher viel besser sind könnte man auch streiten.

Hier gehts primär um die Technologie und nicht über neue TV Geräte oder darum ob Sony dieses Jahr keine OLED Serie auf den Markt bringt. ^^

Ontopic:

Die Pläne für JDIs eigene 8.7 Gen eLEAP Fab in China stehen jetzt scheinbar fest. Ende 2026 werden die eLEAP OLED Panels in der Massenproduktion starten (30,000 monthly substrates).

https://www.oled-info.com/sites/oled/files/2023-11/JDI-eLEAP-advantages.jpg

Die sollen ja in jeder Metrik besser sein als bisherige OLED Panels. Mal schauen ob damit auch kleine mobile Displays kommen.

00-Schneider
2024-01-08, 11:22:25
LG bringt mit der T-Serie transparente OLEDs:

https://www.digitaltrends.com/home-theater/lg-signature-oled-t-ces-2024/

---------------

Für mich nur ein Lifestyle-Produkt...

Iamnobot
2024-01-08, 11:42:31
2023 hat Sony im Bravia-Topmodell noch auf (QD-)OLED gesetzt, 2024 wechselt man wohl auf LCD+Mini LED
https://www.youtube.com/watch?v=grBlT1DIqZk

Durango
2024-01-08, 12:18:55
rtings OLED Dauertest Kommentar https://www.youtube.com/watch?v=Fa7V_OOu6B8
Sorgen die Reinigungszyklen nicht auch nur dafür, dass alles gleichmäßig abbrennt? Sprich man verkürzt die Lebensdauer des Gerätes.

Naja, OLED ist halt nur für Fernseher geeignet. Außerhalb von Medien gibt es dort viel zu viele Elemente, wo schnell was einbrennt. Die paar Exoten, die extra den Monitor fürs Spielen am Computer umstecken, sind mit einem Fernseher besser bedient.

Oder man hat halt genug Geld und das Thema ist irrelevant.

Troyan
2024-01-08, 12:21:48
Ja, die Pixel werden gleichmäßig belastet und somit entsprechend abgenutzt.

redpanther
2024-01-08, 12:50:17
Naja, OLED ist halt nur für Fernseher geeignet.

Und die ganzen Firmen die OLED Monitore haben in den Garantiebedingungen stehen, "verfällt bei Nutzung am PC" oder wie :freak:

GH listet mir 32 OLED Monitore...

Platos
2024-01-08, 12:51:08
Ist es nicht eher so, dass alle Pixel auf das schwächste angepasst werden (die werden nicht "mit ausgebrannt") und dadurch sinkt die helligkeit insgesammt immer weiter ab. Diese Pixel sind aber eig. gar nicht ausgebrannt technisch gesehen.

Nützt natürlich trotzdem nichts, wenn sie faktisch weniger hell leuchten.

Das würde auch bedeuten, dass man bei einer hohen Grundhelligkeit deutlich früher nicht mehr kompensieren kann, weil einige Pixel einfach nicht mehr so hell leuchten können. Bei weniger allg. Helligkeit träte das dann viel später auf.

So habe ich das verstanden.

Und wenn man einzelne Bereiche stärker belastet (Logos etc), muss das ganze display faktisch (aber nicht technisch) "mitaltern". Deswegen gibt es ja diese Logo-Dimmingfunmtionen heutzutage, so dass diese Teile gedimmt werden und weniger schnell ausbrennen und andere ähnliche technologien.

/Locutus oB
2024-01-08, 13:02:06
mein Plasma Fernseher hat 11t Stunden auf der Uhr und davon bestimmt 3t Stunden ps3 gezocke... der hat bis heute nichts eingebrannt... ich kann diese Diskussion nicht verstehen... alle zwei Jahre neue Grafikkarten kaufen aber der Monitor soll 10 jahre halten?

Durango
2024-01-08, 13:22:33
Und die ganzen Firmen die OLED Monitore haben in den Garantiebedingungen stehen, "verfällt bei Nutzung am PC" oder wie :freak:
Du bist einer dieser erwähnten Leute, welche die Diskussion absichtlich ins Lächerliche ziehen. Die Abhobelzyklen kann man wunderbar auf die Garantiedauer anpassen. Man kauft da ein Gerät, was ein absehbares Verfallsdatum hat (solange man es nicht wie ein rohes Ei behandelt).


mein Plasma Fernseher hat 11t Stunden auf der Uhr und davon bestimmt 3t Stunden ps3 gezocke... der hat bis heute nichts eingebrannt... ich kann diese Diskussion nicht verstehen... alle zwei Jahre neue Grafikkarten kaufen aber der Monitor soll 10 jahre halten?
Und wie viel davon im Desktop-Betrieb? Niemand bestreitet, dass OLEDs mit einem normalen Fernsehbetrieb keine sonderlichen Probleme haben. Du diskutierst an der Diskussion vorbei.

sun-man
2024-01-08, 13:25:19
Macht es eigentlich irgendwie Sinn auf den C4 zu warten? Wir haben noch einen B7D :D

Tesseract
2024-01-08, 13:40:18
Sorgen die Reinigungszyklen nicht auch nur dafür, dass alles gleichmäßig abbrennt?

nein, soweit ich weiß wird die helligkeit dem verfallsgrad angepasst. wenn ein pixel am ende eines long compensation cycles z.B. 1% helligkeit bei gleichbleibender spannung verloren hat steuert die elektronik es nachher 1% heller an. das passiert so oft so lange die zellen noch spielraum haben. theoretisch kann danach auch die maximale helligkeit vom ganzen panel angepasst werden. fast alles was hier passiert ist firmwaresache ähnlich wie wear leveling bei SSDs.
damit eine zelle trotz intelligenter kompensation zu stark ausberennt muss schon verdammt viel passieren, z.B. 100% helligkeit über 5000h+ was bei paperwhite mit ~150nits die man am desktop fahren würde dann eher 25000h+ sind und wenn das pixel nicht 24/7 paperwhite anzeigt sondern gemischen kontent wahrscheinlich eher 100000h+.

Platos
2024-01-08, 14:29:32
nein, soweit ich weiß wird die helligkeit dem verfallsgrad angepasst. wenn ein pixel am ende eines long compensation cycles z.B. 1% helligkeit bei gleichbleibender spannung verloren hat steuert die elektronik es nachher 1% heller an. das passiert so oft so lange die zellen noch spielraum haben. theoretisch kann danach auch die maximale helligkeit vom ganzen panel angepasst werden. fast alles was hier passiert ist firmwaresache ähnlich wie wear leveling bei SSDs.
damit eine zelle trotz intelligenter kompensation zu stark ausberennt muss schon verdammt viel passieren, z.B. 100% helligkeit über 5000h+ was bei paperwhite mit ~150nits die man am desktop fahren würde dann eher 25000h+ sind und wenn das pixel nicht 24/7 paperwhite anzeigt sondern gemischen kontent wahrscheinlich eher 100000h+.

Bist du dir sicher, dass man die schwachen stärker leuchten lässt (höhere Spannung) und nicht umgekehrt die starken den schwachen anpasst ?

Ich selber bin mir nicht sicher, aber die ohnehin schon schwachen Pixel noch mehr zu stressen, hört sich für mich nach einer schlechten Methode an.

mein Plasma Fernseher hat 11t Stunden auf der Uhr und davon bestimmt 3t Stunden ps3 gezocke... der hat bis heute nichts eingebrannt... ich kann diese Diskussion nicht verstehen... alle zwei Jahre neue Grafikkarten kaufen aber der Monitor soll 10 jahre halten?

Wieder einer dieser nutzlosen, irrelevanten Nutzerberichten...

Wann verstehen Leute endlich, das eine einzelne Stichprobe einfach total Wertlos ist und Internet-Forenberichte von einzelnen Leuten keine Aussagekraft haben?

Und ja, gewisse Dinge halten länger, bzw müssen länger halten. Du wäschst deine Jacke auch nicht jeden Tag. Demnach kann man ja die Unterhosen gleich lange nicht waschen, gell...

redpanther
2024-01-08, 15:59:38
Und wie viel davon im Desktop-Betrieb? Niemand bestreitet, dass OLEDs mit einem normalen Fernsehbetrieb keine sonderlichen Probleme haben. Du diskutierst an der Diskussion vorbei.


Eine PS3 ist kein normaler Fernsehbetrieb.

Ich nehme an, die meisten Spiele habe auch an einer PS§ ein festes hud.

Exxtreme
2024-01-08, 16:17:05
Eine PS3 ist kein normaler Fernsehbetrieb.

Ich nehme an, die meisten Spiele habe auch an einer PS§ ein festes hud.

Naja, es geht wohl wiederum um so Sachen wie Entwicklungsumgebungen etc. Da hast du monate- bis jahrelang 10 Stunden am Tag die gleichen Menüs und Leisten an exakt der gleichen Stelle. ;) Das ist bissl härter.

/Locutus oB
2024-01-08, 16:23:38
11t stunden sind nichts wert?
Damals als Plasmas auf den Markt kamen wollte mir auch jeder erzählen mit einer ps3 hab ich nach kurzer zeit eingebrannte Menüs ect. und wie gesagt, nach 11t stunden ist kein einiger pixel kaputt.

bis ihr mal Langzeit-Tests abwartet haben andere viel freude an ihren OLEDs.

aber gut jeder wie er möchte...

Evil Ash
2024-01-08, 16:29:44
Man kauft da ein Gerät, was ein absehbares Verfallsdatum hat.

Aha.
Na super, und wo ist das heutzutage nicht der Fall? Dein Smartphone-Akku verträgt auch nur x Ladungen, das E-Auto auch. Dein Reifen am Auto hält auch nur 40.000 km und die Siebe/Rohre deiner Küchen/Waschmaschine verdrecken auch immer mehr.

Aber deshalb auf Fun/OLED verzichten? Ne, sicher nicht. ;)

redpanther
2024-01-08, 16:30:21
Naja, es geht wohl wiederum um so Sachen wie Entwicklungsumgebungen etc. Da hast du monate- bis jahrelang 10 Stunden am Tag die gleichen Menüs und Leisten an exakt der gleichen Stelle. ;) Das ist bissl härter.

Klaro, aber es ging ja auch um die Statischen Elemente in Spielen, die von vielen als SEHR kritisch angeshen werden.

Ich persönlich würde auch nie auf die Idee kommen, mir einen OLED zu kaufen, wenn ich zum ganz überwiegenden Teil ein Entwicklungsumgebungen oder ähnlichem arbeiten arbeiten würde.
Ganz abgesehen von der Burnout Problematik, hab ich da ja auch nicht viel von den Vorteilen, wozu brauch ich die Überlegene Bewegt Darstellung und Kontrast im Texteditor? Dazu kommt ja noch das suboptimale subixel layout.
Wofür also?

Ich kaufe mir als Förster ja auch keinen Ferrari F40 um in den Wald zu fahren.

/Locutus oB
2024-01-08, 16:33:48
wenn ihr der Meinung seid OLED ist nicht für 10 stunden Office am Tag warum dann einen kaufen?

ich kauf mir zum Loch bohren doch auch keinen Hammer.

Durango
2024-01-08, 16:41:01
wenn ihr der Meinung seid OLED ist nicht für 10 stunden Office am Tag warum dann einen kaufen?

ich kauf mir zum Loch bohren doch auch keinen Hammer.
Laut Einigen hier ist es kein Problem und wir erzählen mit dem Einbrennen Unsinn.

/Locutus oB
2024-01-08, 16:55:49
gesunder Menschenverstand ist in diesem Forum Mangelware...

Tesseract
2024-01-08, 17:15:53
Bist du dir sicher, dass man die schwachen stärker leuchten lässt (höhere Spannung) und nicht umgekehrt die starken den schwachen anpasst ?

das sind dann implementationsdetails, die meisten werden wahrscheinlich eine kombination machen. macht im grunde aber auch kaum einen unterschied, der burn-in den man in solchen langzeittests leicht auf grau sieht entspricht minimalen helligkeitsänderungen und davon sieht man dann eher die kanten als die flächen. deswegen gibt es auch pixelshift: wenn man eine harte kante (z.B. senderlogo) ein paar pixel verschiebt ist die burn-in kante über jahre hinweg keine harte pixelkante sondern ein gradient von ~3 pixel und das reicht oft schon um es garnicht mehr zu sehen. mit dem gleichen panel gibt es teilweise verschiedene modelle mit 20% maximalhelligkeitsunterschied, das entspricht wahrscheinich mehreren zehntausend stunden max brightness burn-in. die meisten LCD haben fabriksneu mehr helligkeitsungleichmäßigkeit im backlight als OLED compensation cycles wahrscheinlich in ihrer gesamten durchschnittlichen nutzungsdauer durchmachen.

genau wie bei SSDs können leute einfach nicht mit zahlen umgehen und verstehen nicht dass zwischen extremfall und praxis mehrere größenordnungen liegen können.

redpanther
2024-01-08, 18:03:21
Laut Einigen hier ist es kein Problem und wir erzählen mit dem Einbrennen Unsinn.

Bitte mal jemanden Zitieren der das Sagt. Also das es absolut keine Gefahr des Einbrennens gibt.
Wenn das Einige sind, dürfte das ja kein Problem sein.

Durango
2024-01-08, 21:23:11
Bitte mal jemanden Zitieren der das Sagt. Also das es absolut keine Gefahr des Einbrennens gibt.
Wenn das Einige sind, dürfte das ja kein Problem sein.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13467842#post13467842
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13466213#post13466213
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13466283#post13466283

Alles Marke "Ja aber bei mir nicht" oder "Aber Garantie und so" oder "Andere Sachen gehen auch kaputt!". Nur aus den letzten zwei Seiten.

Und nun?

Linmoum
2024-01-08, 21:28:34
Er fragte nach "absolut keine Gefahr des Einbrennens" und du verweist auf Beiträge, die genau das nicht sagen.

Phänomenal.

Durango
2024-01-08, 21:49:32
Er fragte nach "absolut keine Gefahr des Einbrennens" und du verweist auf Beiträge, die genau das nicht sagen.

Phänomenal.
Der Kontext ist der selbe. Du verschiebst nur die Argumentation.

00-Schneider
2024-01-08, 22:39:55
Zur Abwechslung mal was zum Thema:

LG OLED G4 mit ~3.000nits im 3% Fenster:

VM7eFI5pqSY

--------------

D65 wird wahrscheinlich weniger nits bringen. Im Vorjahr wurde der G3 mit 2.100 nits beworben, in der Praxis waren es ~1.400 nits, also 33% weniger. Wenn wir den gleichen Schlüssel beim G4 anwenden, landen wir bei 3.000 -> 2.000 nits im 3% Fenster, was 40% heller als der G3 wäre. Außerdem hat es LG anscheinend endlich geschafft, ihr near black zu verbessern. Da war bis dato immer die große Schwäche.

Nightspider
2024-01-08, 22:53:53
QD-OLED Gen 3 schafft jetzt offiziell auch 3000 Nits im TV Bereich. HDTV Test hat >3100 auf der CES gemessen.

Jetzt schaffen also Samsung und LG 3000 Nits.

Macht es eigentlich irgendwie Sinn auf den C4 zu warten? Wir haben noch einen B7D :D

Kommt drauf an.

Gast
2024-01-08, 23:15:14
Naja, es geht wohl wiederum um so Sachen wie Entwicklungsumgebungen etc.


Alle Entwickler die ich kenne bevorzugen den Darkmode, und sind beleidigt wenn sie eine Software verwenden müssen welche diesen nicht unterstützt.

Zusammen mit einer angenehmen Helligkeit dürfte da kaum Gefahr bestehen, und das Ausbrennen kleinerer Heller Elemente wird durch Pixelshift wirksam unterdrückt.

Platos
2024-01-09, 11:28:35
das sind dann implementationsdetails, die meisten werden wahrscheinlich eine kombination machen. macht im grunde aber auch kaum einen unterschied, der burn-in den man in solchen langzeittests leicht auf grau sieht entspricht minimalen helligkeitsänderungen und davon sieht man dann eher die kanten als die flächen. deswegen gibt es auch pixelshift: wenn man eine harte kante (z.B. senderlogo) ein paar pixel verschiebt ist die burn-in kante über jahre hinweg keine harte pixelkante sondern ein gradient von ~3 pixel und das reicht oft schon um es garnicht mehr zu sehen. mit dem gleichen panel gibt es teilweise verschiedene modelle mit 20% maximalhelligkeitsunterschied, das entspricht wahrscheinich mehreren zehntausend stunden max brightness burn-in. die meisten LCD haben fabriksneu mehr helligkeitsungleichmäßigkeit im backlight als OLED compensation cycles wahrscheinlich in ihrer gesamten durchschnittlichen nutzungsdauer durchmachen.

genau wie bei SSDs können leute einfach nicht mit zahlen umgehen und verstehen nicht dass zwischen extremfall und praxis mehrere größenordnungen liegen können.

Ok, danke für die Info.

Aber ich bin halt ein Extremfall. Auch bei den SSDs.

In den letzten 2 Monaten alleine habe ich ~30-50 TB geschrieben mit meiner SSD (das ist zwar weit weg von meinen 600 TBW, die die SSD können soll, aber früher, als die SSDs nur ~100 konnten, wäre das schon zu viel gewesen).

Und es gibt nun wirklich genug berichte, die von dauerhaftem Burn-in sprechen und rtings mit ihren Extremtests zeigen auch, welcher Hersteller/Anbieter da besser damit umgehen kann und dass es ein Problem sein kann in extremfällen.

Grössenordnungen sinds vlt. bei anderen, aber nicht bei mir.Und wie gesagt: Bei mir muss ein TV 10 Jahre halten und nicht 3 Jahre und nicht 5 Jahre. Meiner jetzt ist auch schon 7 Jahre alt und ich habe nicht vor, bald einen neuen zu kaufen. Monitor das Selbe...

Und ich nutze sowohl TV als auch Monitor als PC Monitor.

Exxtreme
2024-01-09, 11:32:58
Alle Entwickler die ich kenne bevorzugen den Darkmode, und sind beleidigt wenn sie eine Software verwenden müssen welche diesen nicht unterstützt.

Zusammen mit einer angenehmen Helligkeit dürfte da kaum Gefahr bestehen, und das Ausbrennen kleinerer Heller Elemente wird durch Pixelshift wirksam unterdrückt.

Ja, die meisten Entwickler bevorzugen den Dark Mode. Das ist aber einem OLED egal ob dunkle Schrift auf weissen Hintergrund oder vice versa. Die Pixel, die heller leuchten, altern auch schneller. Sprich, beim Darkmode wird man exakt die gleichen Einbrenneffekte haben nur quasi spiegelverkehrt.

Platos
2024-01-09, 11:53:00
Ja, die meisten Entwickler bevorzugen den Dark Mode. Das ist aber einem OLED egal ob dunkle Schrift auf weissen Hintergrund oder vice versa. Die Pixel, die heller leuchten, altern auch schneller. Sprich, beim Darkmode wird man exakt die gleichen Einbrenneffekte haben nur quasi spiegelverkehrt.

Man muss dazu aber sagen, dass gute Darkmodis keine Schwarz/Weiss haben, sondern eher dunkles irgendwas + helleres grau. Bei "White" modis ist das aber wirklich meistens weiss auf sehr schwarz.

Also der Kontrast ist (muss bzw. sollte) Naturbedingt (wegen dem Mensch) deutlich geringer bei Darkmodis. Schneeweisse Schrift auf schwarz sieht viel heller und blendender aus, wie ein weisser Hintergrund mit dunkler schrift.

Also: Gute Darkmodis sollten zu weniger Einbrennen führen.


Aber: Es soll ja auch noch Leute geben, die am Desktop sind und nicht Entwickler sind ;)

Allein schon Windows Fensterrahmen können zu Problemen führen (1px breite Linien, die man nicht (so einfach) individuell in der Farbe einstellen kann). Viel Spass, wenn man 2 Fenster nutzt, die immer gleich Angeordnet sind.

Es gibt sehr viele Dinge, die nur mit viel Aufwand (sei es nur wegen der Recherche) geändert/ OLED freundlich gemacht werden können. Gerade, wenn man individualität schätzt.

Gast
2024-01-09, 12:16:05
Die Pixel, die heller leuchten, altern auch schneller. Sprich, beim Darkmode wird man exakt die gleichen Einbrenneffekte haben nur quasi spiegelverkehrt.

Das ist ein enormer Unterschied. So ziemlich alle OLEDs verwenden Pixelshift, was bei großen hellen Blöcken kaum was bringt, bei kleinen hellen Strukturen auf dunklem Hintergrund wie es z.B. bei Schrift oder Icons der Fall ist aber die Alterung deutlich verzögert.

Gast
2024-01-09, 12:17:43
Allein schon Windows Fensterrahmen können zu Problemen führen (1px breite Linien, die man nicht (so einfach) individuell in der Farbe einstellen kann). Viel Spass, wenn man 2 Fenster nutzt, die immer gleich Angeordnet sind.



Gerade diese 1 pixel breite Linien werden sehr gut von Pixelshift kompensiert.

redpanther
2024-01-09, 12:42:26
Das ist ein enormer Unterschied. So ziemlich alle OLEDs verwenden Pixelshift, was bei großen hellen Blöcken kaum was bringt, bei kleinen hellen Strukturen auf dunklem Hintergrund wie es z.B. bei Schrift oder Icons der Fall ist aber die Alterung deutlich verzögert.

Außerdem sollte er auch deutlich weniger Strom verbrauchen.
Denn ein richtiger OLED dark mode wird den Hintergrund auch auf komplett Schwarz stellen und nicht wie platos sagt, dunkel irgendwas.

Am Smartphone gibt es öfter die Unterscheidung Dark Mode / OLED Mode.

Klar kann man den Dark Mode auch anders gestalten, und zB dunkel violett als Hintergrund nehmen, wenn es einem gefällt, warum nicht.
Das Optimum ist es halt nicht.

redpanther
2024-01-09, 13:22:21
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13467842#post13467842
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13466213#post13466213
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13466283#post13466283

Alles Marke "Ja aber bei mir nicht" oder "Aber Garantie und so" oder "Andere Sachen gehen auch kaputt!". Nur aus den letzten zwei Seiten.

Und nun?

Durango: "Laut Einigen hier ist es kein Problem und wir erzählen mit dem Einbrennen Unsinn."
Relativieren ist was anderes als leugnen, oder etwa nicht?
Bei keinem der drei Zitate wurde gesagt, "Es gibt keine Einbrenn Problematik" Darum hatte ich gebeten, denn das hattest DU behauptet.

Geht es dir darum aufzuzeigen das dieses Problem VIEL schlimmer ist als alle sagen, oder wie?

Jeder kann sich doch den RTINGS dauertest anschauen und auch das Fazit lesen. Und man sieht dort auch, das LCD mehr Probleme haben können als man denkt, denn die laufen da auch mit.

Mir geht es halt echt auf die Nüsse, sobald man das Wort OLED in den Mund nimmt, kommt jemand und kritisiert "JAAAAA ABER das EINBRENNEN"
Als ob das eine ganz neue Tatsache wäre. :eek:

Thunder99
2024-01-09, 19:43:08
Gehts nur mir so oder ist die neue QD-OLED Technik (2nd oder 3rd), welche jetzt Monitore auf dem Markt kommen langweilig? Die neue Sub-Pixel Anordnung, gut aber bin mit der aktuellen Anordnung zufrieden (34" G8 OLED). Hab sogar Clear Type an was besser ausschaut also off.

240Hz braucht es auch nicht wenn man keine Shooter spielt.

/Locutus oB
2024-01-09, 20:08:33
langweilig? endlich gibts für MICH kaufbare monitore. 31 zoll 4k und hoffentlich gute Schriftdarstellung.

Thunder99
2024-01-10, 11:46:47
langweilig? endlich gibts für MICH kaufbare monitore. 31 zoll 4k und hoffentlich gute Schriftdarstellung.

Auflösung ist besser, ja aber Schrift Darstellung finde ich jetzt schon gut bzw sehe es nicht da es ja auch auf den Content ankommt.

big_lebowski
2024-01-12, 20:22:25
hMm7S-zomVg
https://www.flatpanelshd.com/news.php?subaction=showfull&id=1705077862
One of the highlights of CES 2024 is LG's transparent OLED TV, which can transform into a regular screen with a mechanical backplate that rolls up behind the panel.

Sardaukar.nsn
2024-01-14, 10:36:24
Ich habe dieses Wochenende seit Jahren mal wieder meine alte Playstation Vita in die Hand genommen. Inzwischen gibt es eine große Community inkl. Jailbreak um das Gerät.

Testweise auf mal Cyberpunk 2077 auf dem jetzt 12 Jahre alten OLED (5 Zoll (16:9), 960 × 544 Pixel) gespielt. Sah prima aus.

https://i.imgur.com/fyDQmaC.jpg

https://i.imgur.com/KaUlXBT.jpg

https://i.imgur.com/0nFvRmL.png

https://i.imgur.com/V8G6c5N.png

VmYnypFnFmI

BlacKi
2024-01-14, 11:22:25
Hihi. Die "Fans" versuchen mal wieder, eine kritische Diskussion im Keim zu ersticken :)


Langzeiterfahrungen macht man nunmal in erster Linie mit alten Modellen. Und das Gegen"argument" "aber in der Zwischenzeit hat sich soo viel geändert und ab Modell XYZ ist OLED total ausgereift!" genauso alt wie das Problem.
Bei intensiveren Burn-In Tests, die Langzeiterfahrungen mit neueren Modellen simulieren heißt es dann, dass das Testverfahren total unrealistisch wäre :freak:

P.S.: Im Thread werden seit 2006 (!) die noch immer nicht gelösten und Technologie-immanenten Probleme von OLED genannt. Und genauso lange geleugnet ;D


das kommt halt auf das nutzungsverhalten an. wenn man sich an ein paar regeln hält, oder bereit dazu ist, dann kann ein oled auch für office und gaming herhalten.


dazu gehört einfach die leuchtstärke zu reduzieren. gerade bei statischen inhalten. ich zb. drehe das energiesparen an, wenn ich im internet surfe oder auf dem desktop bin, und für filme oder gaming mache ich energiesparen wieder aus.


so muss ich mir keine sorgen machen, das ich mich mit image retention rumärgern muss.


ich muss mich dagegen nicht wundern, wenn ich bei einem oled die beleuchtugn auf max stelle, 20h am tag dasselbe darstelle, das ich dann image retention bekomme.


ich nutze meinen 55zoll oled für alles. fernsehen, gaming, surfen, office, desktop kram. 3,5 jahre hab ich ihn schon. ich hab keinerlei retentions und ich erwarte auch die nächsten jahre keine.


die oleds nutzen sich exponentiell schneller ab, je höher die lichtstärke eingestellt ist. vermutlich kannst du auf modus energiesparen max die oleds 10 jahre durchlaufen lassen mit demselben bild, ohne das was einbrennt, weil sie sich so nicht einbrennen.


ich hol mir nen oled nicht wegen der leuchtstärke, sondern wegen dem perfekten schwarz.

ChaosTM
2024-01-14, 12:01:21
Mach mir auch keine Sorgen. Im normalen Desktopbetrieb liegt die Helligkeit bei 15-25% je nach Tageszeit und wenn die Sonne hereinscheint geh ich auf 50-60. Mehr war noch nie nötig.

Wenn man immer das selbe, sehr helle HDR Game bei 100% spielt und das Bild über Nacht stehen lässt dann könnte es zu Problemen kommen, aber wer tut das schon..

readonly
2024-01-14, 12:42:53
Ich denke Oled wird genauso sterben wie seinerzeit Plasma. Für mobile Geräte eventuell nicht, da punktet die Bautiefe, aber für grosse TVs halte ich die Technik für Overkill.

Mein aktueller 100" TV von Hisense hat durch das ausgefeilte Mini LED Local Dimming, hervorragende Schwarzwerte, top Helligkeit und guten Kontrast. Das ein Oled im Standbild eventuell noch weniger Bleeding hat, geschenkt. Mit weisser Schrift auf schwarzem Grund kommt das Teil 1a zurecht.

Dazu der Preisvorteil, in der Grösse kostet ein Oled 20k statt 3,5k und eben kein Einbrennen oder Farbverschiebungen.

ChaosTM
2024-01-14, 12:57:43
Der 100U7KQ ist ein tollen Gerät, keine Frage. Speziell zu dem Preis.

OLED wird sterben - irgendwann, aber erst wenn MicoLED erschwinglich ist. Selbstleuchtend kann selbst die beste Hintergrundbeleuchtung nicht erreichen.

https://www.youtube.com/watch?v=0PvuwLda_ac
Die starke Blickwinkel Abhängigkeit würde ich nicht mehr wollen. Man muss wirklich genau in der Mitte sitzen.
Aber mehr TV um den Preis gibts momentan nicht, das stimmt.

Linmoum
2024-01-14, 13:09:50
Ich denke Oled wird genauso sterben wie seinerzeit Plasma. Für mobile Geräte eventuell nicht, da punktet die Bautiefe, aber für grosse TVs halte ich die Technik für Overkill.

Mein aktueller 100" TV von Hisense hat durch das ausgefeilte Mini LED Local Dimming, hervorragende Schwarzwerte, top Helligkeit und guten Kontrast. Das ein Oled im Standbild eventuell noch weniger Bleeding hat, geschenkt. Mit weisser Schrift auf schwarzem Grund kommt das Teil 1a zurecht.

Dazu der Preisvorteil, in der Grösse kostet ein Oled 20k statt 3,5k und eben kein Einbrennen oder Farbverschiebungen.Der Hisense hat in 100" gerade einmal 1620 Zonen, das ist nichts, was irgendwie "ausgefeilt" ist. ;)

OLED ist schon seit Jahren erschwinglich und etabliert genug, sodass es schon länger in gewissen Preisklassen Standard geworden ist.

"Overkill" ist OLED tatsächlich dann, wenn man sowieso nur den ganzen Tag RTL und Co. guckt. Wer aber viel an Filmen und Serien genießen will, der bekommt zurzeit nichts besseres.

readonly
2024-01-14, 13:27:23
Die Zonen reichen aber, theoretisch wenig, gebe ich dir recht. Praktisch sieht das aber super aus, wie gesagt kaum Bleeding rund um weisse Schrift auf Schwarz. Schaue nur Filme oder gut gemachte Serien.

Ich habe das Teil bei einem Händler gekauft der Oled in 98" und den Hisense da hängen hatte. Konnte keinen Vorteil der 17k Aufpreis wert wäre entdecken.

Die starke Blickwinkel Abhängigkeit würde ich nicht mehr wollen. Man muss wirklich genau in der Mitte sitzen
Auch das hält sich in Grenzen. Genau mittig ist nicht nötig. Guck dir das Ding mal an wenn du die Gelegenheit hast. War selbst überrascht da die Specs eigentlich schlechter klangen als das Bild real ist.

SamLombardo
2024-01-14, 13:30:35
OLED wird sterben - irgendwann, aber erst wenn MicoLED erschwinglich ist. Selbstleuchtend kann selbst die beste Hintergrundbeleuchtung nicht erreichen.

Aber:MicroLED wird genauso einbrennen wie OLED. Jeder Selbstleuchter hat das Risiko einzubrennen. Ob OLED wegen Micro LED sterben wird ist völlig offen. Diesjährige OLED sollen die 3000 Nits knacken. Wie weit OLED sein wird, wenn MicroLED in Massen verfügbar ist, darüber kann man nur spekulieren. Bleibt auf jeden Fall spannend.

SamLombardo
2024-01-14, 13:33:46
Die Zonen reichen aber, theoretisch wenig, gebe ich dir recht. Praktisch sieht das aber super aus, wie gesagt kaum Bleeding rund um weisse Schrift auf Schwarz. Schaue nur Filme oder gut gemachte Serien.

Ich habe das Teil bei einem Händler gekauft der Oled in 98" und den Hisense da hängen hatte. Konnte keinen Vorteil der 17k Aufpreis wert wäre entdecken.

Den siehst du im neonbeleuchteten Markt auch nicht. Zuhause im dunklen Raum bei dunklen Szenen dann auf jeden Fall.

Nicht falsch verstehen, der 100er Hisense ist eine super Sache. Ich überlege selber, ob ich nicht meinen Beamer dagegen austausche. OLED bleibt trotzdem King;)

ChaosTM
2024-01-14, 13:39:32
Anorganische Elemente brennen weit weniger ein. Das sah man bei den Polarisierern der
LCD Beamern. Die Organischen brannten bei (der unvermeidlichen) Dauerhitze recht schnell ein, die anorganischen nicht mehr.

Bis Micro ED erschwinglich wird fließt noch viel Wasser die Donau runter, keine Frage und OLED hat noch genug Luft nach oben mit besseren Materialien, Kühlung etc.

readonly
2024-01-14, 13:42:10
Den siehst du im neonbeleuchteten Markt auch nicht. Zuhause im dunklen Raum bei dunklen Szenen dann auf jeden Fall.

Nicht falsch verstehen, der 100er Hisense ist eine super Sache. Ich überlege selber, ob ich nicht meinen Beamer dagegen austausche. OLED bleibt trotzdem King;)

Ja aber bei mir zu Hause sehe ich das jetzt. ;) Da ist Schwarz auch wirklich schwarz. Und hell ist auch hell. Das Ganze mit der vergleichbar günstigen Technik, daher ja meine Aussage. Oled ist Overkill und wird wie das eigentlich gute Plasma sterben, wenn die Technik nicht ähnlich günstig wird, wie so ein "Billig TV" .

Oled hat dazu halt auch Nachteile. Wollte eigentlich auch nur noch auf Oled gehen, ob des kleinen Preisunterschieds hab ich mich dann doch für das Teilchen entschieden.

ChaosTM
2024-01-14, 13:47:02
Plasma war viel teurer in der Herstellung als OLED und brauchte auch mehr Strom. Außerdem ließen sich die Zellen nicht beliebig verkleinern. Das ist auch ein Problem dem sich MicroLED stellen muss. 4k mit Plasma wäre schwierig geworden unter 65".

LCD und OLED werden noch lange friedlich co-existieren.

Sardaukar.nsn
2024-01-14, 16:00:23
LCD und OLED werden noch lange friedlich co-existieren.

Im Automobil Bereich setzt sich OLED immer mehr durch. Innen wie aber auch im Außen: https://www.oled-info.com/automotive-oled

Nightspider
2024-01-14, 19:02:50
OLED wird sterben - irgendwann, aber erst wenn MicoLED erschwinglich ist.

Bullshit. :)

So günstig wie OLEDs wirst du MicroLEDs nie fertigen können.

OLEDs kannst du drucken.

Gast
2024-01-14, 19:27:01
Bullshit. :)

So günstig wie OLEDs wirst du MicroLEDs nie fertigen können.

OLEDs kannst du drucken.

Und selbst OLEDs sind so teuer dass sie wahrscheinlich niemals LCDs ablösen werden.

ChaosTM
2024-01-14, 19:40:17
Bullshit. :)

So günstig wie OLEDs wirst du MicroLEDs nie fertigen können.

OLEDs kannst du drucken.


Und daher wird es auch nicht sterben. Sollte eine ironische Replik auf readonly sein, kam aber falsch rüber.

Add.: es gibt genug Platz für alle Technologien am Markt. LCD eher im Budget/Mid Range Segment, OLED Richtung High End und (Micro)LED im Professionellen Sektor wie Kinos oder großen Werbetafeln und (momentan noch) für wirklich betuchte Leute

Platos
2024-01-15, 03:51:57
Kinos? Das ist doch unbezahlbar. Vlt. so ein mini-Kino, aber kein grosses.

Nightspider
2024-01-15, 05:53:25
Und selbst OLEDs sind so teuer dass sie wahrscheinlich niemals LCDs ablösen werden.

OLEDs werden noch deutlich günstiger in der Produktion werden.

Die Chancen stehen sehr gut das OLEDs über die Jahre günstiger werden als LCD Panels.


Add.: es gibt genug Platz für alle Technologien am Markt. LCD eher im Budget/Mid Range Segment, OLED Richtung High End und (Micro)LED im Professionellen Sektor wie Kinos oder großen Werbetafeln und (momentan noch) für wirklich betuchte Leute

Du erzählst manchmal auch echt Käse.

Was willst du mit MicroLED im Kino wenn es schon 4K LED Leinwände im Kino gibt? Die haben gerade mal um die 7,5 PPI bei 10,3m breite.

Außerdem gibts OLED in 150 Euro Smartphones und 500 Euro Laptops. Vorgestern sogar einen OLED Laptop im Angebot für 400 Euro gesehen.
Das ist nicht highend.

LCDs werden immer weiter verdrängt und OLEDs werden gleichzeitig immer besser und günstiger.

Die Chancen stehen auch gut das OLEDs in Zukunft eine 3-10 mal so lange Lebensdauer erreichen.

Kinos? Das ist doch unbezahlbar. Vlt. so ein mini-Kino, aber kein grosses.

Gibt doch schon Kinos mit LED Leinwänden.

Glaubst du die Projektoren wären in der Anschaffung oder im Unterhalt günstig?
Es gibt sogar Stadien mit LED Leinwänden.

Letztes Jahr kam der erste Kinofilm mit HDR (ins Kino). (https://news.samsung.com/de/ein-scharfes-seherlebnis-elemental-jetzt-hochaufgelost-auf-samsung-onyx-zu-sehen)

ChaosTM
2024-01-15, 08:42:58
OLEDs werden noch deutlich günstiger in der Produktion werden.

Die Chancen stehen sehr gut das OLEDs über die Jahre günstiger werden als LCD Panels.



Du erzählst manchmal auch echt Käse.

Was willst du mit MicroLED im Kino wenn es schon 4K LED Leinwände im Kino gibt? Die haben gerade mal um die 7,5 PPI bei 10,3m breite.

Außerdem gibts OLED in 150 Euro Smartphones und 500 Euro Laptops. Vorgestern sogar einen OLED Laptop im Angebot für 400 Euro gesehen.
Das ist nicht highend.

LCDs werden immer weiter verdrängt und OLEDs werden gleichzeitig immer besser und günstiger.

Die Chancen stehen auch gut das OLEDs in Zukunft eine 3-10 mal so lange Lebensdauer erreichen.

Gibt doch schon Kinos mit LED Leinwänden.

Glaubst du die Projektoren wären in der Anschaffung oder im Unterhalt günstig?
Es gibt sogar Stadien mit LED Leinwänden.

Letztes Jahr kam der erste Kinofilm mit HDR (ins Kino). (https://news.samsung.com/de/ein-scharfes-seherlebnis-elemental-jetzt-hochaufgelost-auf-samsung-onyx-zu-sehen)


Schwache Lesekompetenz. .. Jeez :)


Erstens stand das "Micro" in Klammer und für große Werbetafeln, die nahe am Kunden platziert werden braucht man auch eine vernünftige Auflösung und vor allem Pixeldichte.
Das können normale LED Wände nicht.

Für Kinos und speziell Stadien reicht LED auf Grund des großen Betrachtungsabstands meist aus.
Mehr Pixel schaden aber auch im Kino nicht. Die derzeitigen Wände sind alles andere als perfekt.



Wer Samsungs "The Wall" mal live gesehen hat weiß, warum so was einfach nur geil ist.

Relex
2024-01-15, 10:45:38
Die Zonen reichen aber, theoretisch wenig, gebe ich dir recht. Praktisch sieht das aber super aus, wie gesagt kaum Bleeding rund um weisse Schrift auf Schwarz. Schaue nur Filme oder gut gemachte Serien.


Großer Vorteil von selbstleuchtenden Pixeln ist eben, dass dadurch Texturen und Inhalte mit hoher Frequenz und Granularität und hohem Kontrast in der Struktur in HDR deutlich besser dargestellt werden.

Wenn im Abstand von wenigen Pixeln teifes schwarz neben nem 1000 oder lass es nur 500 Nits hellen Pixel dargestellt wird, erreichst du subjektiv eine enorme brillianz und schärfe.

Es kommt natürlich auf den Content und das Mastering an. Nicht jeder Content braucht das, aber wenn HDR so feingranular genutzt wird ist das schon ein gewaltiger Vorteil.

readonly
2024-01-15, 10:57:08
Es kommt natürlich auf den Content und das Mastering an. Nicht jeder Content braucht das, aber wenn HDR so feingranular genutzt wird ist das schon ein gewaltiger Vorteil.

Keine Frage. Local Dimming Test auf YT. Wenn da nur eine ein Pixel dicke Linie gezogen wird, sieht man die Zonen etwas, sobald die etwas dicker wird ist das aber kein Problem mehr. Das meinte ich ja, in der Theorie kann ich mit solchen Videos zeigen "Siehste", in der Praxis aber irrelevant.

Klar wenn Oled sich, in grossen Größen, günstig herstellen lässt, gute Wahl. Gibt aber auch Nachteile, wenn ich hier lese dass man auf die Helligkeit achten muss etc. Hab selbst nur Oled Handys und mein Huawei Tablet erfreut mich auch immer mit dem Oled Screen.

Wenn ein TV aber doppelt bis x-Fach so teuer ist. Dann ist die günstigere Lösung, die ein fast so gutes Bild bietet, imho überlegen. Zumal man mit Mini LED wohl einfacher Spitzen Helligkeiten hinbekommt, wenn ich mich nicht verlesen habe.

Relex
2024-01-15, 11:19:31
Na ja, ob man das Blooming sieht ist das eine. Ich glaube dir absolut, dass man es bei normalen Filmcontent niemals erkennen wird. Vor allem wenn der Raum nicht abgedunkelt ist, ist schwarz schon wirklich sehr schwarz bei VA mit local dimming. Darum gehts mir auch gar nicht.

Mein Punkt ist schlicht und einfach die wahrgenommene Bildqualität und Schärfe. Wenn ein Film HDR so feingranular nutzt (vor allem bei Spielen ist das tatsächlich sehr oft der Fall) dann macht es sich eben sehr positiv hinsichtlich Bildqualität bemerkbar., wenn ein helles Pixel neben einem dunklen Pixel erscheint und die sich nicht gegenseitig beeinflussen, weil der TV entscheiden muss, ob er das Backlight lieber dimmt und damit die Helligkeit in dem Bereich reduziert oder ob er lieber aufhellt und damit das Schwarz aufhellt. Wie gesagt, man merkt nicht unbedingt, dass an der Stelle dann der Kontrast fehlt, weil das Panel es einfach nur so darstellt, wie es möglich ist (woher soll man auch wissen, dass es besser geht).
Im direkten Vergleich mit OLED sieht man dann aber erst, dass der OLED an solchen Stellen viel mehr Kontrast herausholt.

Aber gut, am Ende sind das Detailunterschiede, genauso wie Farbraumabdeckung, höhere Peakhelligkeit im allgemeinen. Es gibt eben immer nen Aspekt, der noch besser geht.


Fakt ist für mich, dass in Zukunft kein Weg mehr an selbstleuchtenden Pixeln vorbei führt.
Und klar, am Ende ist es immer eine Preisfrage. LCDs gibts eben in großen Größen meist deutlich günstiger. Ob einem der Unterschied das dann wert ist, ist eine absolut berechtigte Frage, die nicht jeder mit ja beantworten wird.


Bin daher auch ganz klar der Meinung, dass OLED preislich noch lange nicht da sind, wo sie sein sollten.


Ein 27 Zoll OLED Monitor, 1440p für 300-400€ oder ein 65 Zoll OLED für unter 1000€ und keiner würde mehr zögern. Solche preise brauchen wir. meinetwegen zu dem Preis dann auch "nur" mit dem Specs vom (Vor)Vorjahr.
Burn in wäre dann auch kaum noch der Rede wert. Denn gerade das hängt ja auch stark mit dem preis zusammen. Viele leute würden ein teures Gerät dann eben auch gerne länger nutzen oder erwarten eine lange nutzbarkeit ohne Kompromisse. Aber wenn meinetwegen ein 300€ OLED Monitor nach 5 Jahren wegen Burn in durch wäre. Würde mich kaum jucken. Gibt's halt nen neuen. Bei 1000+€ würde mich das schon eher zum grübeln bringen. UNd ich denke so gehts da vielen.

Platos
2024-01-15, 16:13:08
Gibt doch schon Kinos mit LED Leinwänden.

Glaubst du die Projektoren wären in der Anschaffung oder im Unterhalt günstig?
Es gibt sogar Stadien mit LED Leinwänden.

Letztes Jahr kam der erste Kinofilm mit HDR (ins Kino). (https://news.samsung.com/de/ein-scharfes-seherlebnis-elemental-jetzt-hochaufgelost-auf-samsung-onyx-zu-sehen)

Ich habe mich aber auf micro-LED bezogen. Aber du hast ja schon gesagt, dass es keinen Sinn ergibt, da die selbst mit einer 8k Leinwand nicht mehr "micro" wären.

Nightspider
2024-01-15, 18:19:24
Erstens stand das "Micro" in Klammer und für große Werbetafeln, die nahe am Kunden platziert werden braucht man auch eine vernünftige Auflösung und vor allem Pixeldichte.
Das können normale LED Wände nicht.

Die Klammern habe ich nicht gesehen aber zwischen MicroLED und LED ist der Unterschied einfach zu groß, als das man die in einen Topf wirft.

Und für Werbetafeln, die nah am Kunden platziert werden, reichen aktuellen LCD Bildschirme und zunehmen auch OLED Bildschirme. Ist viel günstiger als LED oder MicroLED Tafeln.

Was willst du also mit der teuersten Displaytechnik für Werbetafeln?


Für Kinos und speziell Stadien reicht LED auf Grund des großen Betrachtungsabstands meist aus.
Mehr Pixel schaden aber auch im Kino nicht. Die derzeitigen Wände sind alles andere als perfekt.

4K ist im Kino der Standard.

Die LED Leinwände haben schon ein deutlich besseres Bild als die bisherigen Projektoren+Leinwände.

Ich hätte gerne so eine LED Leinwand mit HDR in Dresden in einem Kino.
Leider gibts noch nicht mal eine Hand voll Kinos in Deutschland mit so einer LED Leinwand.

Thunder99
2024-01-15, 18:52:50
DER grosse next Wurf?
https://www.computerbase.de/2024-01/qdel-alias-nanoled-neuer-prototyp-der-eierlegenden-display-sau-auf-der-ces/
QDEL alias NanoLED: Neuer Prototyp der eierlegenden Display-Sau auf der CES
Wenns machbar wird wäre das die Alternative zu MicroLED?

ChaosTM
2024-01-15, 19:08:27
Schaut interessant aus weil selbstleuchtend.

@LED Kino

Wir haben eines in Wien, aber der Screen ist einfach zu klein für wirklich "große" Filme. Die Qualität ist aber hervorragend.

add.: dieser wurde schon 2018 installiert und seither kam keiner mehr dazu afaik. Kosten immer noch fast 10x soviel wie gute IMAX Projektoren und bei richtig großen "Leinwänden" wird es natürlich noch teurer.

Tobalt
2024-01-15, 19:30:54
DER grosse next Wurf?
https://www.computerbase.de/2024-01/qdel-alias-nanoled-neuer-prototyp-der-eierlegenden-display-sau-auf-der-ces/

Wenns machbar wird wäre das die Alternative zu MicroLED?

;D hab es gerade im uLED Faden gepostet.

Eine "Alternative" zu MicroLED Displays braucht es nicht, weil MicroLED Displays weder existieren, noch existieren werden.

QDEL scheint aber mglw. eine künftige anorganische Alternative zu OLED zu sein. Dazu müssten die QD halt heller/haltbarer als OLED sein, was IMO alles andere als gewiss ist - aber immerhin möglich.

Gast
2024-01-15, 20:40:57
Dazu müssten die QD halt heller/haltbarer als OLED sein, was IMO alles andere als gewiss ist - aber immerhin möglich.

Das ist sogar sehr gewiss, ich hab noch von keinem Monitor gehört dessen QDs vor der Beleuchtung gealtert wäre.

ChaosTM
2024-01-15, 20:43:56
eONWY3kbZc0


Es gibt ein kaufbares MicroLED Produkt, aber 150k (https://www.samsung.com/us/televisions-home-theater/tvs/micro-led/110-class-micro-led-samsung-4k-with-smart-hub-mna110ms1acxza/) ist halt nur was für Superreiche oder Prestigeobjekte für Firmenfoyers.


Könnte sich im Obersten/Profi Segment etablieren aber natürlich nicht zu dem Preis

Tobalt
2024-01-15, 20:46:18
110" 4k ist jetzt auch nicht wirklich MIKRO.

Exxtreme
2024-01-15, 20:46:52
Das ist sogar sehr gewiss, ich hab noch von keinem Monitor gehört dessen QDs vor der Beleuchtung gealtert wäre.

Alles was von sich aus leuchtet, altert in der einen oder anderen Weise. Das ist Physik. Auch normale LEDs altern. Aber nicht die Pixel sondern die Hintergrundbeleuchtung.

ChaosTM
2024-01-15, 20:58:10
Das stimmt.
Aber organische Materialien altern deutlich schneller. Glaub kaum, dass man LEDs so schnell umbringt, auch wenn sie wie in Dimming Zonen TVs/Monitoren dauern an und abgeschaltet werden, was zusätzlichen Stress verursacht

Tobalt
2024-01-15, 21:01:29
Das ist sogar sehr gewiss, ich hab noch von keinem Monitor gehört dessen QDs vor der Beleuchtung gealtert wäre.
Das stimmt.
Aber organische Materialien altern deutlich schneller. Glaub kaum, dass man LEDs so schnell umbringt, auch wenn sie wie in Dimming Zonen TVs/Monitoren dauern an und abgeschaltet werden, was zusätzlichen Stress verursacht


Optisch gepumpte QDs sind weniger Verlustleistung ausgesetzt als elektrische. Wenn bei einem QD von 3 nm Größe nur ein paar Atome durch Alterungsprozesse wandern, ändern sich die Emissionseigenschaften aka es gibt Alterung. Deutlich mehr als bei einer fetten diskreten XGaN LED die mehrere 100 um groß ist.

ChaosTM
2024-01-15, 21:11:53
110" 4k ist jetzt auch nicht wirklich MIKRO.


Das ist auch die größte Schwäche von MicroLED. Der kleinste 4k TV ist momentan 76 Zoll groß, wenn der (https://www.gamepro.de/artikel/samsung-micro-led-oled-nachfolger-angenehme-groessen,3406643.html) Artikel korrekt ist. Ähnlich wie bei Plasma sind der Miniatuarisierung offensichtlich Grenzen gesetzt.

Relex
2024-01-15, 21:48:08
Die größen liegen doch genau in dem Bereich die sich die (gehobene) Kundschaft wünscht.

Ich denke nicht die Größen oder die weitere Miniaturisierung sind das Problem. (im sinne von 76 zoll sind ja nicht zu groß als TV)

Vermutlich ist der kleinste momentan einfach am teuersten in der Herstellung oder am wenigsten lange haltbar oder es gibt andere Nachteile wie geringere Helligkeit usw.

Das wären schon eher Probleme die ich nachvollziehen könnte und die eventuell aus der Problematik der schwierigen miniaturisierung entstanden sein könnten. Aber Größe alleine? Ergibt für mich wenig Sinn. Man wird denke ich anfangs so oder so nicht den Kunden ansprechen wollen, der sich nur einen 50 Zöller kaufen möchte, weil der wohl eh nicht bereit wäre den Aufpreis für die neue Technik zu zahlen.

Jupiter
2024-01-15, 23:42:19
Das Gerät hat auf einer Consumer Electronic Show nichts verloren.

Nightspider
2024-01-16, 01:54:56
Du hast Probleme.

Es ist für die Consumer Geräte der nächsten Generation.

Gast
2024-01-16, 07:28:10
Alles was von sich aus leuchtet, altert in der einen oder anderen Weise. Das ist Physik. Auch normale LEDs altern. Aber nicht die Pixel sondern die Hintergrundbeleuchtung.

Keiner sagt, dass sie gar nicht altern, aber sie altern definitiv deutlich langsamer als alles bisher dagewesene.

Wobei es bei QDs schwer vorstellbar ist, dass die Alterung dieser irgendwann in der Lebensdauer eines Geräts relevant ist. Da wird vorher die Elektronik dahinter die das Ganze ansteuert den Geist aufgeben.

The_Invisible
2024-01-27, 14:53:20
Hat hier eigentlich jemand einen LG 42"C1/2/3 schon länger im Einsatz mit viel Office als PC Monitor? Würden mich Erfahrungsberichte interessieren...

Sardaukar.nsn
2024-01-27, 16:41:26
Seit September 2022 habe ich den C2. Ab der zweiten Jahreshälfte wurde damals das Deuterium Panel eingebaut welches nochmal deutlich besser gegen burn-in schützen soll. Bisher kann ich nur positives berichten. Windows 11 Skalierung habe ich auf 125% und das Schriftbild habe ich mit cleartype so angepasst das es mir gefällt.
Gestern hat mich noch die neuen RTX Auto HDR Funktion für Videos überrascht, da ich den Bildschirm meist 50:50 aufteile rechts Internet bzw Text und links oft Videos laufen.

Ich glaube den C1 gab es noch nicht in 42".

Aktuell auch mal wieder günstig als C3 zu bekommen... https://www.mydealz.de/deals/lgcom-eff-79911eur-lg-oled42c37la-42-4k-oled-evo-smart-tv-120hz-vrr-freesync-g-sync-twin-triple-tuner-2307868?itm_source=admanager&itm_medium=cpm&itm_campaign=2307868&itm_term=6505211458

robbitop
2024-01-27, 16:59:01
Schade, dass die Dinger nur 120 Hz machen. 240 Hz wären eigentlich bei 4K und HDMI2.1 mit DSC machbar. Gerade im Hinblick auf Framegeneration und Bewegtschärfeerhöhung etwas wenig.
Damit Framegeneration gut funktioniert braucht es mind 60 Hz Input - besser mehr. Lieber 80+ Hz also bräuchte es eher 160-175 Hz um Framegeneration wirklich sinnvoll zu nutzen.

Gumril
2024-01-27, 17:12:12
Schade, dass die Dinger nur 120 Hz machen. 240 Hz wären eigentlich bei 4K und HDMI2.1 mit DSC machbar. Gerade im Hinblick auf Framegeneration und Bewegtschärfeerhöhung etwas wenig.
Damit Framegeneration gut funktioniert braucht es mind 60 Hz Input - besser mehr. Lieber 80+ Hz also bräuchte es eher 160-175 Hz um Framegeneration wirklich sinnvoll zu nutzen.


Denke ich wird Absicht sein, man will ja nicht den eigenen Monitoren Konkurrenz machen. Oder aber die Helligkeit hat auch was mit den Hz zu tun denn die TV sind ja deutlich heller als Ihre Monitor-Verwandschaft.
Hoffe aber auch das die 240Hz mal im TV Einzug halten, wird aber wohl noch ein paar Jahre dauern.

w0mbat
2024-01-27, 17:49:46
C4 hat 144Hz.

robbitop
2024-01-27, 17:57:49
Ja ab dem C4. Ist aber leider nur ein kleines Upgrade und leider noch zu wenig für Framegeneration mMn.

Tobalt
2024-01-27, 18:00:10
Mit der displayinterner ZBB kommen doch glaube so manche TVs schon auf 240 Hz oder nicht? Ich weiß aber nicht wie die Latenz dabei ist, vermutlich nicht so dolle.

robbitop
2024-01-27, 18:22:19
Ne kannste für das Spielen vergessen. Auch optisch. Sollte schon richtiges Framegeeration sein mit Motion Vectors vom Spiel. Die TVs sehen ja nur spatiale Daten aber keine temporale und das macht so viel aus was Potenzial für processing von realtime 3D angeht.

Sardaukar.nsn
2024-01-27, 19:20:50
Ich bin da durchaus kritisch was flüssiges Bild angeht, aber 120fps auf OLED ist schon sehr weit vorne. Gerade durch die geringe Latenz und schnellen Schaltzeiten der Pixel. Die Teile sind schon echt gut auf Gaming getrimmt. Der Fortschritt wird natürlich weitergehen. Aber 4k 120fps muss man auch erstmal GPU-Seitig bedienen.

robbitop
2024-01-27, 20:06:16
Ich kenne 120 Hz auf dem OLED gut. Ja ist gut aber trotzdem greift der Sample and Hold Effekt.
Dank Framegeneration verdoppelt man die fps. Es sind keine echten frames. Aber aus 70-80 fps macht man dann 140-160 fps die dann die Bewegtschärfe nach vorn bringen. 120 Hz sind für frame generation einfach zu wenig. Ich würde sagen 160-175 Hz sollte das Display haben damit man es sinnvoll nutzen kann.

ChaosTM
2024-01-27, 20:34:05
Mein OLED hier kann 138 fps und ich liebe FG.
Speziell beim Flugsimulator von MS.

Der Laptop kann 240hz @ 1440p. Kommt auch nicht viel besser und ist natürlich viel zu klein (17`)

Platos
2024-01-27, 23:21:06
Framegeneration verdoppelt aber die FPS nicht immer. Also das kann gut sein, dass man mit Framegen 100FPS hat und ohne 70FPS.

robbitop
2024-01-28, 08:59:15
Mein OLED hier kann 138 fps und ich liebe FG.
Speziell beim Flugsimulator von MS.

Der Laptop kann 240hz @ 1440p. Kommt auch nicht viel besser und ist natürlich viel zu klein (17`)
OLED =/ LCD in deinem Laptop. Und manche sind ggf. auch einfacher zufrieden zu stellen. Ist ja auch okay. 120 Hz auf dem OLED sind gut aber da geht noch was.

robbitop
2024-01-28, 09:00:36
Framegeneration verdoppelt aber die FPS nicht immer. Also das kann gut sein, dass man mit Framegen 100FPS hat und ohne 70FPS.

Geht ja auch nicht um „immer“ sondern darum dass der Monitor das Potenzial nicht ausbremsen soll wenn es da ist. Dass es ein bisschen weniger ist als eine Verdoppelung ist auch gar nicht der Punkt.

Lurtz
2024-01-28, 10:08:54
Framegeneration verdoppelt aber die FPS nicht immer.
Eher so gut wie nie.

Sardaukar.nsn
2024-01-28, 10:13:27
Framegeneration verdoppelt aber die FPS nicht immer. Also das kann gut sein, dass man mit Framegen 100FPS hat und ohne 70FPS.

Kommt bei mir in Cyberpunk 4k mit Pathtracing in etwa hin.

Badesalz
2024-01-28, 10:36:08
OLED =/ LCD in deinem Laptop. Und manche sind ggf. auch einfacher zufrieden zu stellen. Ist ja auch okay.Das sind die mit auch bei 1%minFPS konstanten 60 ;)

120 auf schmierfreien Displays ist schon richtig fein. Der Rest ist so Bentley vs. RR, wenn man immer hinten sitzt. Kann man machen...

robbitop
2024-01-28, 10:54:17
Das Bessere ist des Guten Feind. ;)
Kein Mensch braucht mehr als 640 kiB Arbeitsspeicher ^^

Wer schonmal richtig gute Bewegtschärfe gesehen hat (zB 120 Hz OLED mit BFI oder crt) wird wissen was ich meine. 120 Hz OLED ohne BFI sind nett aber da geht noch ordentlich was.

Viele wollen ja auch unbedingt 4K aber von den Details ist in Bewegung wegen sample und old nicht mehr alles zu sehen. Kann man sich auch in Windows anschauen wenn man das Browserfenster bewegt oder scrollt und sieht wie der Text unschärfer wird. Und das sieht man auch bei 120 Hz OLED noch deutlich wenn man noch gute Augen hat.
Das kann man auf hold type displays nur mit BFI oder mehr Refreshrate (gekoppelt mit mehr fps) kompensieren.

Wie gesagt: gut für jeden dem das Gute reicht und nichts Besseres mehr wollen. Ich finde es auch gut aber da ist für mich definitiv noch Luft nach oben. Entsprechend steht ein 4K240Hz OLED 32“ Panel auf der Wunschliste. Dazu einen Blackwell um es zu befeuern.

Badesalz
2024-01-28, 11:26:42
Das Bessere ist des Guten Feind. ;)
Kein Mensch braucht mehr als 640 kiB Arbeitsspeicher ^^
Seltsamerweise gilt das dann ab und zu doch.
Im Umfeld hier spricht niemand der 4k OLED-TV hat, von 8k ^^
Mitglieder meiner Car-Gang ;) hier hörten auf sich für Motorleistung zu interessieren, sobald sie jeweils die 300PS erreicht haben.
usw. usw.
Kann aber alles nur eine Blase sein.

Ich glaub da gibts trotzdem schon mehr Beispiele für "Allgemeines Sattsein" bei etwas, als die 640KB Arbeitsspeicher in der Lage sind an Klischees zu bedienen.

Selbstverständlich aber jedem das Seine. Keine Frage! :up:

PS:
Mich wundert es an der Stelle nur bisschen, daß man die Matsche spätestens neben der Bildmitte bei DLSS nicht wahrnehmen kann, aber Bewegungsunschärfen bei 120/BFI/OLED(QLED) noch spürbar stören.

robbitop
2024-01-28, 11:43:17
Auflösung ist aufgrund der Winkelauflösung des Auges halt irgendwann ausgereizt. Bei Bewegtschärfereduktion sind wir bei hold type displays aber gerade mal am Anfang. Erst 1000 Hz / 1000 fps ist dann der Hold Type Effekt weg.

Und wie gesagt das kann jeder testen wenn er sich bewegenden Text anschaut. Das blutet auch auf 120 Hz OLED noch deutlich sichtbar. Und genau das geht an Details auch in Spielen flöten.
Das Potenzial an Bewegtschschärfereduktion ist noch ziemlich groß. Bei Auflösung eher weniger groß.
Zumal einem die 4K nichts bringen wenn die hart erarbeiteten Details in Bewegung durch hold type absaufen.

Zu DLSS: hängt sehr sehr stark vom Qualitypreset, vom Spiel, vom verwendeten Modell und Dingen ab wie LoD nachkorigiert und guter Schärfefilter wie rCAS.

Badesalz
2024-01-28, 11:50:15
Und wie gesagt das kann jeder testen wenn er sich bewegenden Text anschaut. Das blutet auch auf 120 Hz OLED noch deutlich sichtbar. Und genau das geht an Details auch in Spielen flöten.
Dafür muss man aber auch so spielen können, daß einem DABEI das auch wirklich in Bewegungen auffällt :wink: Mit DLSS ist es ja gleich wie auch umgekehrt. Es fällt eher auf, wenn es langsamer wird, also man Zeit für Details hat.

robbitop
2024-01-28, 12:12:16
Dafür muss man aber auch so spielen können, daß einem DABEI das auch wirklich in Bewegungen auffällt :wink: Mit DLSS ist es ja gleich wie auch umgekehrt. Es fällt eher auf, wenn es langsamer wird, also man Zeit für Details hat.

Na schaue dir im Standbild eine detaillierte Textur oder Geometrie an oder ein Schild auf dem was steht. Was verwäscht alles.
Ggf mal motion blur ausschalten?
Vorteile aus temporaler Abtastung (Framerate/refreshrate) kann man viel besser (auch wenn der Visus irgendwann nachlässt) viel besser sehen als spatiale.
Oder schließe mal einen CRT an und spiele mal eine Runde. Klar BQ kommt das Teil nicht an moderne Displays heran aber: die Bewegtschärfe fällt sofort auf.
Ich glaube die meisten haben einfach keine realen Referenzpunkte in naher Vergangenheit gesehen (OLED BFI oder CRT) und denken deshalb was sie haben ist schon super. Oftmals muss man das Bessere erstmal gesehen haben um zu merken wie viel besser es ist.

The_Invisible
2024-01-28, 12:30:50
Seit September 2022 habe ich den C2. Ab der zweiten Jahreshälfte wurde damals das Deuterium Panel eingebaut welches nochmal deutlich besser gegen burn-in schützen soll. Bisher kann ich nur positives berichten. Windows 11 Skalierung habe ich auf 125% und das Schriftbild habe ich mit cleartype so angepasst das es mir gefällt.
Gestern hat mich noch die neuen RTX Auto HDR Funktion für Videos überrascht, da ich den Bildschirm meist 50:50 aufteile rechts Internet bzw Text und links oft Videos laufen.

Ich glaube den C1 gab es noch nicht in 42".

Aktuell auch mal wieder günstig als C3 zu bekommen... https://www.mydealz.de/deals/lgcom-eff-79911eur-lg-oled42c37la-42-4k-oled-evo-smart-tv-120hz-vrr-freesync-g-sync-twin-triple-tuner-2307868?itm_source=admanager&itm_medium=cpm&itm_campaign=2307868&itm_term=6505211458

Danke, lustigerweise habe ich genau das Angebot auch gesehen ; )

Überlege es (nochmals) zu versuchen, aber wahrscheinlich nur Schnapsidee wegen Langeweile, vor allem da diese Jahr ja 4k/240Hz OLEDs kommen sollen wie hier schon gesagt. Könnte dann aber auch ins Schlafzimmer wandern, hm...

btw
habe mit 144Hz und FG auch kein Problem, zumindest bei DLSS-FG wenn Reflex auch immer dabei ist. Mein Bruder hat seit kurzem einen 1440p/240Hz OLED, ist schon nochmal eine Stufe geiler von der Bewegtschärfe :D

robbitop
2024-01-28, 12:37:43
Naja das Problem ist, dass es dir das Potenzial limitiert. 120 Hz bedeutet dass Frame Generation dann nur mit 60 fps arbeitet was gerade mal das sinnvolle Minimum ist. Auch wenn der PC mehr kann - der Monitor limitiert den PC dann auf 60 input fps. Mit 144 Hz sind es dann gerade mal 72 input fps.
Selbst meine 3080 und mein 5800X3D schafft in vielen Spielen richtung 8x fps. (klar optimierte Settings und DLSS aber mir ist Flüssigkeit und Bewegtschärfe auch wichtig - ich finde man merkt es die gesamte Zeit). Wie gesagt: HDMI 2.1 mit DSC wären 240 Hz möglich. Aber 160-175 Hz wären auch schonmal nicht schlecht wenn man Frame Generation hat.

Der Hauptnutzen von Framegeneration ist nämlich die Bewegtschärfe zu erhöhen und damit die BQ in Bewegung. Und das geht nur sehr begrenzt wenn man am unteren Limit von FG kratzt.

Aber ja: TVs sind für Video Content gemacht und sollen wie hier schon gesagt wurde nicht den Monitormarkt kanibalisieren. Entsprechend muss man dann Kompromisse machen.

Und klar wenn es um BQ/EUR geht, ist so ein 42" C-Level OLED von LG schon sehr sehr geil. Ich meine den C2 (oder war es der C3?) gab es vor ein paar Wochen ja für knapp unter 800 EUR.
Ein 240 Hz 4K OLED wird sicherlich locker das Doppelte kosten und ist aus P/L Sicht dann natürlich schlechter.
Aber wie gesagt mit 120 Hz macht FG dann eigentlich keinen Sinn mehr - da würde ich echte 80-90 fps dann schon den gecapten 60@120 fake FPS vorziehen.

BlacKi
2024-01-28, 13:50:26
Ein 240 Hz 4K OLED wird sicherlich locker das Doppelte kosten und ist aus P/L Sicht dann natürlich schlechter.

ah, genauso wie damals die 120hz oleds das doppelte gekostet haben wie 60hz oleds zuvor. not.


die oleds werden die gleichen sein, lediglich die ansteuerung wird geändert. da das aber wohl erst kurz vor den konsolen mit 240hz support kommen, wird das garnicht kommen.


leider, denn ich würde mir das echt auch wünschen.

Relex
2024-01-28, 14:33:21
Mein Bruder hat seit kurzem einen 1440p/240Hz OLED, ist schon nochmal eine Stufe geiler von der Bewegtschärfe :D

Ich kanns kaum erwarten, bis die neuen Monitore die auf der CES angekündigt wurden verfügbar sind.

Bei mir wirds auch so einer werden. Ich hab hier aktuell 1440p mit 170 Hz und einen 65" 4K OLED als Wohnzimmer TV der häufig für Spiele genutzt wird.

Alleine die 120 Hz am OLED sind fast schon vergleichbar mit den 170 Hz am Monitor, was die Bewegtbildschärfe betrifft.

Aber auch auf dem Monitor sehe ich deutliche Unterschiede zwischen 120 und 170 Hz. Man merkt richtig, wie bei 60 (sowieso) und bei 120 Hz sich immer so ein Unschärfeschleier in Bewegung übers Bild legt und er sich mit zunehmender Bildfrequenz immer mehr auflöst.

Mir ist das anfangs ehrlich gesagt nie sonderlich aufgefallen, da ich eigentlich nur aufs Ruckeln geachtet habe. Das Ruckeln im Bild wird imho so ab ca. 90 Hz so gering, dass es nicht mehr störend wird. Aber wenn man sich mal wirklich auf die Schärfe in Bewegung fokussiert, dann merkt man, dass selbst 170 Hz gerade mal der Anfang des Möglichen sind.

Beim Monitor werde ich daher erstmal bei 1440p bleiben. Für 4K 240 Hz, so geil es auch wäre, würde ich mich mit einer 5090 oder sowas schon eher wohl fühlen. Der 4080 wird da in den nächsten Jahren zu schnell die Puste ausgehen, weswegen die 120 Hz @ 4K bzw. 1440p @ 240 Hz für mich optimal erscheinen. Denn ein GPU Upgrade ist in nächster Zeit erstmal nicht angedacht.

Platos
2024-01-28, 22:08:07
Bezüglich Bewegtbildschärfe und Framgen stellt sich mir immer noch die gleiche Frage:

Wird diese überhaupt signifikant erhöht? Hat hier mal jemand 120FPS (ohne Framegen) mit Framegen On verglichen?

Weil wenn man sich Analysen von Framegen anachaut (z.B die von Digital Foundry bei der Spidermananalyse), sieht man, dass Framegen eben zum teil verschwommene Zwischenbilder erzeugt.

Und solche Zwischenbilder würde ja die Bewegtschärfe nicht verbessern. Da würde nur das bild flüssiger werden, aber nicht Schärfer.

basix
2024-01-29, 08:47:27
Bewegtbildschärfe ist ja nicht unbedingt nur eine Eigenschaft der Bilder, sondern des Monitors und des Panels. Und dann was das Auge damit macht. Aber prinzipiell hast du recht: "Echte" 120fps könnten schärfer aussehen als 120fps mit FG. Wüsste aber nicht, dass das irgendjemand mal getestet hat.

Ich kann aber aus eigener Erfahrung sagen, dass es mit FG wesentlich flüssiger aussieht. Das nimmt man automatisch als "schärfer in Bewegung" wahr. Das ist eine Kombination aus "ruckelfrei sein" und Bewegtbildschärfe.

robbitop
2024-01-29, 08:55:06
Dass Zwischenbilder mitunter Artefakte haben kann ich mich erinnern bei den Analysen aber verschwommen? Und das in signifikanter Häufigkeit?

00-Schneider
2024-01-29, 09:01:40
Weil hier immer von 240Hz @ 4K gesprochen wird:

Wie stark ist der Qualitätsabfall mit DSC? Bringt ja nichts, wenn man dann eine höhere Bewegtschärfe hat, aber dann auch Artefakte(?) wegen DSC?

robbitop
2024-01-29, 09:04:00
DSC ist visually lossless. Da siehst du keinen Unterschied. Bei den niedrigen Kompressionsraten ist auch nichts anderes zu erwarten.
Aber: DSR/DLDSR geht nicht mehr mit aktivem DSC. Wenn das stört entweder eine rdna3 Karte oder auf Blackwell warten.
4K240 OLED mit dp2.1 wurden auch auf der CES angekündigt.

basix
2024-01-29, 09:07:00
Das mit DSR/DLDSR ohne DSC: Ist das nicht eine reine Software Angelegenheit? Mit DSR/DLSR schickt man ja ein natives Bild an den Monitor. Nvidia könnte das ja via Treiber updaten. Ich hoffe das tun sie bald mal.

robbitop
2024-01-29, 09:11:33
Ich verstehe es auch nicht (DSR passiert ja vor dem scanout und läuft mWn komplett über compute) aber Nvidia gibt es offiziell so an.

Exxtreme
2024-01-29, 09:11:46
"Visually lossless" bedeutet, dass es für 75% der Menschen ununterscheidbar ist. Man kann Pech haben und zu den anderen 25% gehören. Ist so ähnlich wie mit MP3 auch. Es gibt Leute, die in der Lage sind die Kompressionsartefakte herauszuhören. Meistens haben diese Leute einen Hörfehler und die Psychoakustik, die hinter dem MP3-Algorithmus steckt, greift bei ihnen nicht.

Hier gibt es Beispielbilder:
https://www.guru3d.com/review/asus-rog-swift-pg43uq-review/page-3/

basix
2024-01-29, 09:14:50
Komplett gleich wird DSC nicht aussehen. Aber verglichen mit so Sachen wie 4:2:0 Farbunterabtastung ist es die qualitativ viel bessere Lösung und die Kompressionsrate ist sogar deutlich höher.

robbitop
2024-01-29, 09:17:02
In einem Blindtest würde es wahrscheinlich niemand zuverlässig erkennen. Irgendwelche worstcase zooms bild mit bild vergleichen: ok da kann man immer was konstruieren. Aber ein reiner Blindtest in der Praxis bestehen mit hoher statistischer Trefferquote (>>50% damit man erstmal besser ist als der Zufall) ist was ganz anderes.

redpanther
2024-01-29, 09:18:06
Ich würde auch sagen, das kommt auf den Anwendungsfall an.

In Games (oder anderen bewegt Bildern) dürfte es wirklich kaum jemanden überhaupt auffallen.
Bei Bildbearbeitung zB könnte ich mit Vorstellen das man Unterschiede sehen kann.
Mir Persönlich ist nach einem Switch zu einem Monitor mit DSC gar nichts aufgefallen.

Habe aber auch keine side-by-side Analyse durchgeführt und hab das auch nicht vor.

00-Schneider
2024-01-29, 09:18:22
Hier gibt es Beispielbilder:
https://www.guru3d.com/review/asus-rog-swift-pg43uq-review/page-3/


Gibts da bessere Bilder? 120Hz vs. 144Hz ist jetzt auch kein wirklich extremer Anwendungsfall. ;)

basix
2024-01-29, 09:20:13
Das erste Bild ist nicht DSC mit/ohne sondern 4:4:4 vs. 4:2:2 ;)

redpanther
2024-01-29, 09:22:08
genau, und das zweite ist wertlos, da es kein Vergleichsbild ohne DSC hat.
Oder habe ich das übersehen?

basix
2024-01-29, 09:28:47
Ich habe kurz gegoogelt:
- DSC Kompressionsrate ist 3x für 8bit und 3.75x für 10bit
- Für 12bit habe ich keine Infos gefunden, ich nehme aber an es ist 4.5x (3x 12bit auf 1x 8bit komprimiert)
- DP2.1 mit UHBR20 würde bei 3.75x für 8K/233Hz mit 12bit Farbtiefe und 4:4:4 reichen, bei 4.5x wären es 8K/289Hz

Ich glaube das ist genug ;)

Gibt auch neue Verfahren wie VDC-M, welches noch höher komprimiert:
https://www.anandtech.com/show/12759/vesa-and-mipi-announce-vdcm11-display-compression-standard-for-mobile
https://vesa.org/vesa-display-compression-codecs/#tab-dsc

Thunder99
2024-01-29, 09:38:40
Muss ich echt mal testen die Unschärfe bei Bewegungen. Ist mir bisher nicht aufgefallen. Verstehe zwar ab wann es nicht mehr sichtbar wird aber holy shit was man da als Power braucht wenn man spielen möchte. Da wird nicht mal ein Blackwell langen vermute ich, außer das Spiel ist simple in der Grafik (Fortnite?).

Tobalt
2024-01-29, 09:47:12
Ich würde auch sagen, das kommt auf den Anwendungsfall an.

In Games (oder anderen bewegt Bildern) dürfte es wirklich kaum jemanden überhaupt auffallen.
Bei Bildbearbeitung zB könnte ich mit Vorstellen das man Unterschiede sehen kann.
Mir Persönlich ist nach einem Switch zu einem Monitor mit DSC gar nichts aufgefallen.

Habe aber auch keine side-by-side Analyse durchgeführt und hab das auch nicht vor.

Der Anspruch von DSC ist, dass es eben gerade *NICHT* vom Anwendungsfall abhängt. Alle, die an der Qualität von DSC zweifeln, sollten sich mal Durchlesen, welche Qualitätsstandards sich die Technik selbst setzt. Die entscheidenden Punkte:

- Es wird menschlichen Profis ein Bild gezeigt, welches auf dem selben Anzeigegerät einmal pro Sekunde zwischen dem DSC Bild und dem Nativ Bild hin- und herschaltet.
- DSC verlangt, dass deutlich weniger als 25% der Profis in diesem direkten Overlay Standbild-Vergleich einen Unterschied ausmachen können. (Dh. eine korrekte Zuordnung erfolgt mit maximal 62.5% Chance durchschnittlich, aber eher deutlich näher an 50%)
- Es gibt glaube mehrere Testbilder mit völlig unterschiedelichem Content
- Standbilder sind natürlich eh der Wortcase, sobald sich etwas minimal bewegt, kann niemand mehr diese Unterschiede wahrnehmen.

Mathematischer Background: Bei einer Kompression von nur ~3-4 braucht das Bild eine enorm hohe Entropie, damit beim komprimieren überhaupt erstmal Verluste entstehen. Quasi alle natürlich Bild oder Text, oder Testbilder, oder Linie/Gitter/Schachbrettmuster liegen WEIT unter dieser Schwelle. Eine so hohe Entropie erreicht man eigentlich nur mit einem Bild aus "Buntem Rauschen". Und wie man sich wohl gut vorstellen kann, sind minimale lokale Veränderungen in buntem Rauschen nicht erkennbar, weil sie das Spektrum nicht verändern.

redpanther
2024-01-29, 10:06:19
Alles schön und gut, hab ja auch eigentlich nichts anderes geschrieben.

Mir stößt nur der Marketing Sprech sauer auf.
"Visually lossless"
Wenn bis zu 25% einen Unterschied sehen dürfen, ist das für mich nicht Lossless.
0% ist meiner Meinung nach Lossless und das immer. Visually my ass.
Ist dann mp3 mit bitraten über 160kbs auch lossless, wei keiner mehr einen Unterschied hört?
Das alles ganz unabhängig davon wie gut oder schlecht DSC ist.

Exxtreme
2024-01-29, 10:54:14
Hier gibt es eine Untersuchung mit Vergleichsbildern:
https://www.researchgate.net/publication/317425815_Large_Scale_Subjective_Evaluation_of_Display_Stream_Compression

Und da gab es Bilder, die von allen Testern zuverlässig erkannt wurden. Und nein, da wurden keine speziellen Schachbrettmuster getestet nur um die Schwächen der Kompression zu provozieren. Man sollte das IMHO aber trotzdem nicht überbewerten. Bloß weil ein Unterschied im Vorher-/Nachher-Vergleich wahrnehmbar ist, heisst es noch lange nicht, dass das komprimierte Bild dadurch schlechter aussieht. Es sieht halt leicht anders aus, mehr nicht.

Gast
2024-01-29, 11:02:06
Wird diese überhaupt signifikant erhöht? Hat hier mal jemand 120FPS (ohne Framegen) mit Framegen On verglichen? ^


Ja, die Bewegtschärfe ist auch der einige Grund Framegen überhaupt zu verwenden.

Alles andere wird mit Framegen schlechter, die Bewegtschärfe ist der einzige Parameter der sich verbessert.

Platos
2024-01-29, 11:17:45
Ja, die Bewegtschärfe ist auch der einige Grund Framegen überhaupt zu verwenden.

Alles andere wird mit Framegen schlechter, die Bewegtschärfe ist der einzige Parameter der sich verbessert.

Aber hast du es getestet ?

Und stimmt aber nicht ganz, das Bild (nicht das Latenzgefühl) wird auch noch flüssiger (= weniger ruckelig).

Bewegtbildschärfe ist ja nicht unbedingt nur eine Eigenschaft der Bilder, sondern des Monitors und des Panels. Und dann was das Auge damit macht. Aber prinzipiell hast du recht: "Echte" 120fps könnten schärfer aussehen als 120fps mit FG. Wüsste aber nicht, dass das irgendjemand mal getestet hat.

Ich kann aber aus eigener Erfahrung sagen, dass es mit FG wesentlich flüssiger aussieht. Das nimmt man automatisch als "schärfer in Bewegung" wahr. Das ist eine Kombination aus "ruckelfrei sein" und Bewegtbildschärfe.

Ok, das ist gut zu wissen, wenn hier mal jemand wirklich eine höhere Bewegtschärfe wahrnimmt (hab kein 120Hz monitor, nur 60).

Gast
2024-01-29, 13:21:46
Aber hast du es getestet ?


Ja in dem Bereich in dem FG sinnvoll ist, also mindestens 60 echte FPS.

Richtig gut wird es im Bereich 75-90 echte FPS, hier bringt die Verdopplung einen enormen Gewinn an Bewegtschärfe.


Und stimmt aber nicht ganz, das Bild (nicht das Latenzgefühl) wird auch noch flüssiger (= weniger ruckelig).


Nicht in dem Bereich in dem FG sinnvoll einsetzbar ist. Klar wenn man nur 30FPS hat bringt FG einen enormen Gewinn an Flüssigkeit, aber bei inakzeptabler Latenz. Wenn man idealerweise schon 80-90FPS hat ruckelt so schon nix mehr, da gibt es kaum mehr was an "Flüssigkeit" zu gewinnen.



Ok, das ist gut zu wissen, wenn hier mal jemand wirklich eine höhere Bewegtschärfe wahrnimmt (hab kein 120Hz monitor, nur 60).

120Hz sind für ideale FG auch zu wenig, 144Hz sollte das das absolute Minimum sein, besser 165 oder 175Hz.

robbitop
2024-01-29, 13:32:18
Richtig gut wird es im Bereich 75-90 echte FPS, hier bringt die Verdopplung einen enormen Gewinn an Bewegtschärfe.

....

120Hz sind für ideale FG auch zu wenig, 144Hz sollte das das absolute Minimum sein, besser 165 oder 175Hz.
Genau so ist es :up:

Platos
2024-01-29, 13:59:47
Naja, wenns um TVs geht, dann gibts nur extrem wenig Auswahl an 144Hz TVs, bzw. eig. keine, die mir Gefallen.

Aber ich warte ja immer noch auf OLED TVs mit strobing und Helligkeitsregelung und VRR (alles gleichzeitig @ 120Hz und auch 60Hz). Dann noch 144Hz erwarten, schmälert die möglichen Kandidaten noch weiter (also es gibt ja Stand jetzt gar keine, die das erfüllen).

Bei Monitoren ist mir das persönlich weniger wichtig, da ich dort eig. nur strategiespiele drauf zocke. Aber dort gibt es immerhin ein paar (nicht OLED Monitore), die Strobing und VRR gleichzeitig können. Bei TVs gibts das glaube ich gar nicht.

Bei TVs lässt man Strobing aber irgendwie immer öfters komplett liegen. LG hat beispielsweise nur noch bei wenigen TVs strobing bzw. nicht mehr bei den Flagships. Samsung hat jetzt auch nicht grad sooo viel Auswahl. Finde das etwas schade.

ChaosTM
2024-01-29, 19:11:42
Genau so ist es :up:


Schade, dann sind die 70/80 auf 138 bei mir also völlig sinnfrei. Soo knapp daneben. ;)


Sobald es 4k/240, vorzugsweise mit Kopfschmerz induzierendem Strobing und mindestens 40 Zoll gibt, wandert das Ding natürlich sofort auf den Müll !

Gumril
2024-01-29, 19:53:16
@Platos: Auch Strategiespiele profitieren stark von hohen Hz.
Hatte letztes Jahr den LG 27GR95QE-B gehabt, ging leider wegen dem nervigen Lüfter wieder zurück.
Aber mit 240Hz Warcraft 3 oder Diablo zu zocken ist was Bewegungsschärfe angeht einfach ein Traum.
Bei Warcraft 3 waren beim Scrollen über die Karte alle Bäume Messerscharf und bei Diablo auch die Umgebung beim Laufen, nicht so "verwaschen" wie bei 170 Hz.

BlacKi
2024-01-29, 23:12:51
Alles schön und gut, hab ja auch eigentlich nichts anderes geschrieben.

Mir stößt nur der Marketing Sprech sauer auf.
"Visually lossless"
Wenn bis zu 25% einen Unterschied sehen dürfen, ist das für mich nicht Lossless.
0% ist meiner Meinung nach Lossless und das immer. Visually my ass.
Ist dann mp3 mit bitraten über 160kbs auch lossless, wei keiner mehr einen Unterschied hört?
Das alles ganz unabhängig davon wie gut oder schlecht DSC ist.du schreibst schon was anderes.
du sagst: jeder 4. dude darf den unterschied sehen.
tobalts erklärung sagt: es dürfen weniger als 25% der profis 2 vergleichsbilder richtig tippen. in bewegung wirst du also garnichts erkennen.


und wenn du als profi auf einem 4 oder 8k monitor an bildern arbeitest, kannst du dsc auch deaktivieren indem du die herzzahl änderst.

Relex
2024-01-30, 08:39:25
du schreibst schon was anderes.
du sagst: jeder 4. dude darf den unterschied sehen.
tobalts erklärung sagt: es dürfen weniger als 25% der profis 2 vergleichsbilder richtig tippen. in bewegung wirst du also garnichts erkennen.


und wenn du als profi auf einem 4 oder 8k monitor an bildern arbeitest, kannst du dsc auch deaktivieren indem du die herzzahl änderst.


Zumal Unterschied nicht gleichbedeutend mit subjektiv schlechter ist.

Erstell mal ein JPEG mit voller Qualität und ohne Chroma Subsampling. Die Unterschiede zum Original erkennt man nur bei 500-1000% zoom wenn man die Farbwerte einzelner Pixel vergleicht. Die sind dann eben minimal anders. Das erkennt man aber auch nur wenn man die Bilder übereinander legt und umschaltet. Im side by side ist es schon nicht mehr erkennbar. Aber andere Farbwerte sind eben erstmal nur andere Farbwerte. Da man von Kompressionsartefakten noch weit entfernt ist, kann man daher auch nicht sagen, was das Original ist.

DSC wird da ähnlich sein. Habs aber auch noch nicht live gesehen.

Die Frage ist ja auch wie der Algo arbeitet. Wenn er normiert auf Bitrate arbeitet und immer die zur Verfügung stehende Datenrate ausnutzt, dann dürfte in den meisten fällen ja auch gar kein Unterschied zum original entstehen, wenn bespielsweise eine verlustfreie Komprimierung für den aktuellen Inhalt auch ausreichen würde, um auf die nötige Datenrate zu kommen. Man kann ja verlustbehaftete codecs so gestalten, dass bei maximierter Qualität der verlustbehaftete Teil gegen null geht.
Aber das sind jetzt nur mutmaßungen im Bezug auf DSC.

redpanther
2024-01-30, 10:26:45
du schreibst schon was anderes.
du sagst: jeder 4. dude darf den unterschied sehen.
tobalts erklärung sagt: es dürfen weniger als 25% der profis 2 vergleichsbilder richtig tippen. in bewegung wirst du also garnichts erkennen.


und wenn du als profi auf einem 4 oder 8k monitor an bildern arbeitest, kannst du dsc auch deaktivieren indem du die herzzahl änderst.

Ich glaube du verstehst nicht worauf ich hinaus will.
Wenn es "nur" weniger als 25% der Profis sehen, bedeutet es Visually Lossless?
Und wie ist die Definition von "Profi"?
Finde es halt eine Wischi Waschi Aussage. Aber egal, ist nur meine Meinung.

Das du DSC mit der Verringerung der Wiederholfrequenz deaktivieren kannst, ist imho auch nicht gesagt. Ich denke das hängt vom Monitor ab.
Ist auch gar nicht mal so einfach zu prüfen ob es nun an ist oder nicht, wenn es der Monitor nicht irgendwo anzeigt.

Exxtreme
2024-01-30, 10:31:22
Das du DSC mit der Verringerung der Wiederholfrequenz deaktivieren kannst, ist imho auch nicht gesagt. Ich denke das hängt vom Monitor ab.
Ist auch gar nicht mal so einfach zu prüfen ob es nun an ist oder nicht, wenn es der Monitor nicht irgendwo anzeigt.

Unter 4K mit 120 Hz sollte es aus sein weil man es da nicht braucht. Denn das deckt DP1.4a auch ohne Kompression ab.

00-Schneider
2024-01-30, 10:44:52
Unter 4K mit 120 Hz sollte es aus sein weil man es da nicht braucht. Denn das deckt DP1.4a auch ohne Kompression ab.


Ich sehe gerade, das 144Hz schon zu viel(>48gbps) sind:

https://www.rtings.com/images/reviews/tv/articles/misc/misc-formatdataratetable-medium.jpg

-----------

Dann müssten die neuen 2024er OLEDs mit 144Hz ja zumindest schon mal DSC unterstützen.

Exxtreme
2024-01-30, 10:50:40
Ich sehe gerade, das 144Hz schon zu viel(>48gbps) sind:


Japp. Und mit 10 Bit Farbtiefe reicht es auch nicht für 120 Hz. Da sind 97 Hz das Maximum.
https://en.wikipedia.org/wiki/DisplayPort#Resolution_and_refresh_frequency_limits

Zum Glück reichen mir 120 Hz Bildwiederholfrequenz für ein angenehmes Spielen. :)

redpanther
2024-01-30, 10:51:03
Unter 4K mit 120 Hz sollte es aus sein weil man es da nicht braucht. Denn das deckt DP1.4a auch ohne Kompression ab.
Du sagst es, sollte.
Ich stelle meinen Samsung OLED G9 auf 60Hz, kann aber weiterhin kein DSR aktivieren.
Erst wenn ich dem Monitor sage, nimm DP 1.1 oder HDMI 1.4, kann man es aktivieren.
Da NV sagt, DSR geht mit DSC nicht, gehe ich also davon aus, das der Monitor immer DSC nutzt.
Ich kann es aber schlecht prüfen. Mir ist kein Weg bekannt.

Cubitus
2024-01-30, 19:04:38
Denke die DSC Angst ist überbewertet.

The_Invisible
2024-01-30, 20:05:11
Du sagst es, sollte.
Ich stelle meinen Samsung OLED G9 auf 60Hz, kann aber weiterhin kein DSR aktivieren.
Erst wenn ich dem Monitor sage, nimm DP 1.1 oder HDMI 1.4, kann man es aktivieren.
Da NV sagt, DSR geht mit DSC nicht, gehe ich also davon aus, das der Monitor immer DSC nutzt.
Ich kann es aber schlecht prüfen. Mir ist kein Weg bekannt.

Hier geht aber DSR mit 4k/144Hz wo ganz sicher DSC aktiv ist.

Eventuell liegts an dem Ultrawide Dingens?

Platos
2024-01-30, 23:49:18
Denke die DSC Angst ist überbewertet.

Wenn man DSR nicht nutzen kann (als Person, die das oft nutzt), dann schon.

basix
2024-01-31, 07:14:28
Ich glaube DSC ist qualitativ für die meisten gut genug (insbesondere mit hohen DPI). Also ich werde es sicher nutzen. Und das mit DSR ist mMn eine reine Treiberangelegenheit von Nvidia.

Was macht eigentlich AMD bei VSR?

robbitop
2024-01-31, 08:02:42
Das Interessante ist dass DSR bei manchen trotz DSC geht. Das liest man immer wieder. Aber offiziell soll es nicht gehen. Klingt nach irgendeiner Treiberlimiitation die NV bekannt ist.
Für mich ist das definitiv ein Argument auf blackwell zu warten und einen dp2.1 Monitor für 4K240 zu holen.

Tobalt
2024-01-31, 09:01:35
Was sagt denn der DSC Herausgeber dazu? Gibts da ein Statement?

Exxtreme
2024-01-31, 09:13:43
Was sollen die denn sagen? Die können ja nichts dafür wie Nvidia ihre Grafikkarten baut oder Treiber entwickelt.

Tobalt
2024-01-31, 09:23:53
Die können aber zB. sagen "Es liegt nicht an DSC. NV hat die Treiber nicht im Griff. Flamet die voll. Sobald NV ihre Treiber auf die Kette kriegt, dann läuft es auch!"

Stand jetzt wird halt DSC auch skeptisch betrachtet, zu Recht oder Unrecht, weiß man nicht.

Cubitus
2024-01-31, 09:50:36
Wenn man DSR nicht nutzen kann (als Person, die das oft nutzt), dann schon.

Bei nativem 4K ist DSR allenfalls nice to have.

Mir wäre es lieber, wenn HDR+4K und eben die entsprechenden HZ-Zahlen zusammen harmonieren.

Beispiel:
Bei Cyberpunk gibt es z.B. die Option HDR10+.

Mit Display Port 1.4a geht diese Option gar nicht.
Bei HDMI 2.1 kann dafür auf dynamische Metadaten zurückgegriffen werden, die dann auch die eigentliche Funktion unterstützen.

Trotz 165Hz bei 4K und "leichter" DSC Kompression ist mir dieses Ergebnis am Ende des Tages lieber als irgendwelche DSR Spielfrei.
Hauptsache der Bums läuft halbwegs schnell und das HDR Ergebnis ist besser.

Jetzt träumen die Leute schon von 4K@480hz OLED, dann soll natürlich noch ein brauchbares HDR Signal dazukommen,
dass geht selbst mit den neusten Standards nicht ohne Kompression, und DSR soll es auch noch möglich sein.... Ähm ja :rolleyes:


Stand jetzt wird halt DSC auch skeptisch betrachtet, zu Recht oder Unrecht, weiß man nicht.

Um die neusten Panels auch mit neuster Technologie auszufahren wird weiterhin DSC benötigt.
Am Ende des Tages liegt es an einem selbst, welche Szenerie er wählt, aber sich darüber zu beschweren wenn auf der anderen Seite dann möglichst alle Features genutzt werden wollen, ist komplett sinnlos.

Platos
2024-01-31, 11:03:23
Das Interessante ist dass DSR bei manchen trotz DSC geht. Das liest man immer wieder. Aber offiziell soll es nicht gehen. Klingt nach irgendeiner Treiberlimiitation die NV bekannt ist.
Für mich ist das definitiv ein Argument auf blackwell zu warten und einen dp2.1 Monitor für 4K240 zu holen.

Und woher die Annahme, dass das gefixt wird? Das ist ja kein Lovelace-Problem. Das ist ein generelles nvidia Problem.

Es gibt genug Leute, die von Problemen berichten und ich sehe da 0 Indizien dazu, dass das (überhaupt) jemals gefixt wird.

Die Hoffnung stirbt ja zuletzt, aber ich sehe da nicht viel. Ist doch alles ne Nische einer Nische einer Nische usw. Das interessiert nvidia nicht...

Cubitus
2024-01-31, 11:29:16
Und woher die Annahme, dass das gefixt wird? Das ist ja kein Lovelace-Problem. Das ist ein generelles nvidia Problem.

Es gibt genug Leute, die von Problemen berichten und ich sehe da 0 Indizien dazu, dass das (überhaupt) jemals gefixt wird.

Die Hoffnung stirbt ja zuletzt, aber ich sehe da nicht viel. Ist doch alles ne Nische einer Nische einer Nische usw. Das interessiert nvidia nicht...

Wenn ich in der Heimat an meinem anderen Monitor sitze, da geht DLSDR ohne Probleme sogar mit Display-Port 1.4a, vielleicht sperren auch manche Monitorhersteller auch einfach die Funktion oder stellen bestimmte Daten nicht mehr zur Verfügung, könnte ja auch sein.

The_Invisible
2024-01-31, 12:01:09
Hier gehts ja wie gesagt, sogar mit HDR/10bit.

Anscheinend werden aber ab einer gewissen Pixelrate 2 Displaycontroller genutzt, dann könnte man sogar nur 2 Monitore betreiben, das wäre dann ja wie ein "tiled" mode wo DSR auch nicht geht. Hängt eventuell von der Implementierung des Monitors auch ab.

https://nvidia.custhelp.com/app/answers/detail/a_id/5338/

When a display is connected to the GPU and is set to DSC mode, the GPU may use two internal heads to drive the display when the pixel rate needed to drive the display mode exceeds the GPU’s single head limit. This may affect your display topology when using multiple monitors. For example if two displays with support for DSC are connected to a single GeForce GPU, all 4 internal heads will be utilized and you will not be able to use a third monitor with the GPU at the same time.

@Cubitus
Nutzte gerne DLDSR mit DLSS sogar in UHD, kann man auch gut verwenden um höhere Inputs für DLSS zu erzeugen, ist ja ein recht großes Loch zwischen 1440p und 2160p

ChaosTM
2024-01-31, 13:03:21
Bei nativem 4K ist DSR allenfalls nice to have.

Mir wäre es lieber, wenn HDR+4K und eben die entsprechenden HZ-Zahlen zusammen harmonieren.

Beispiel:
Bei Cyberpunk gibt es z.B. die Option HDR10+.

Mit Display Port 1.4a geht diese Option gar nicht.
Bei HDMI 2.1 kann dafür auf dynamische Metadaten zurückgegriffen werden, die dann auch die eigentliche Funktion unterstützen.

Trotz 165Hz bei 4K und "leichter" DSC Kompression ist mir dieses Ergebnis am Ende des Tages lieber als irgendwelche DSR Spielfrei.
Hauptsache der Bums läuft halbwegs schnell und das HDR Ergebnis ist besser.

Jetzt träumen die Leute schon von 4K@480hz OLED, dann soll natürlich noch ein brauchbares HDR Signal dazukommen,
dass geht selbst mit den neusten Standards nicht ohne Kompression, und DSR soll es auch noch möglich sein.... Ähm ja :rolleyes:



Um die neusten Panels auch mit neuster Technologie auszufahren wird weiterhin DSC benötigt.
Am Ende des Tages liegt es an einem selbst, welche Szenerie er wählt, aber sich darüber zu beschweren wenn auf der anderen Seite dann möglichst alle Features genutzt werden wollen, ist komplett sinnlos.




Gerade auf HDMI 2.1 umgeschaltet und jetzt hab ich auch HDR10+ bei 77.
Windows lässt sich auch auf 12bit Farbtiefe einstellen, aber alles bei nur 138hz.


Qualitätsverlust ist kein sichtbarer zu erkennen und ich nehme an bei 12bit wird man schon DSC brauchen ?

Mal gröber reinzoomen..

robbitop
2024-01-31, 13:08:34
Und woher die Annahme, dass das gefixt wird? Das ist ja kein Lovelace-Problem. Das ist ein generelles nvidia Problem.

Es gibt genug Leute, die von Problemen berichten und ich sehe da 0 Indizien dazu, dass das (überhaupt) jemals gefixt wird.

Die Hoffnung stirbt ja zuletzt, aber ich sehe da nicht viel. Ist doch alles ne Nische einer Nische einer Nische usw. Das interessiert nvidia nicht...
Ist die Frage ernst gemeint?
Blackwell wird DP2.1 bringen und dann kann man 4K240 ohne DSC bedienen. Problem umgangen.

Wenn ich in der Heimat an meinem anderen Monitor sitze, da geht DLSDR ohne Probleme sogar mit Display-Port 1.4a, vielleicht sperren auch manche Monitorhersteller auch einfach die Funktion oder stellen bestimmte Daten nicht mehr zur Verfügung, könnte ja auch sein.

Zumindest gibt Nvidia offiziell an, dass DSR nicht unterstützt wird wenn DSC aktiv ist. Siehe unten. Warum es manchmal trotzdem geht ist allerdings seltsam.
https://support.nvidia.eu/hc/de/articles/5024944181650-Verwendung-von-Displays-mit-hoher-Aufl%C3%B6sung-Bildwiederholfrequenz-mit-VESA-Display-Stream-Compression-DSC-Unterst%C3%BCtzung-auf-NVIDIA-GeForce-GPUs


Wenn die GPU erkennt, dass ein Display DSC unterstützt, wird der DSC-Modus automatisch aktiviert. Bei einigen Displays können Sie DSC deaktivieren, indem Sie die Kommunikationsverbindung in den internen Einstellungen des Displays ändern (z. B. den DisplayPort-Modus von Displayport 1.4 auf DisplayPort 1.2 ändern).
NVIDIA DSR, NVIDIA DLDSR und NVIDIA Image Scaling werden nicht unterstützt, wenn der DSC-Modus aktiviert ist.

--------------

edit:

Hier gehts ja wie gesagt, sogar mit HDR/10bit.

Anscheinend werden aber ab einer gewissen Pixelrate 2 Displaycontroller genutzt, dann könnte man sogar nur 2 Monitore betreiben, das wäre dann ja wie ein "tiled" mode wo DSR auch nicht geht. Hängt eventuell von der Implementierung des Monitors auch ab.
Ist trotzdem merkwürdig weil DSR eigentlich mit dem Displaycontroller nichts zu tun haben dürfte. Nach meinem Verständnis wird der Framebuffer vor dem Scanout gedownsampelt. Hat also dann im Scanoutbuffer die gleiche Auflösung.
Aber anscheinend läuft es intern doch anders. Mit GeDoSaTo mäßigem Downsampling wäre es dann wahrscheinlich kein Problem.

redpanther
2024-01-31, 14:18:32
Wenn ich in der Heimat an meinem anderen Monitor sitze, da geht DLSDR ohne Probleme sogar mit Display-Port 1.4a, vielleicht sperren auch manche Monitorhersteller auch einfach die Funktion oder stellen bestimmte Daten nicht mehr zur Verfügung, könnte ja auch sein.

DSR ist auch nicht von Display-Port oder HDMI oder dem Monitor Hersteller abhängig. Sondern nur von DSC, jedenfalls laut NVIDIA offizieller aussage.
Siehe Zitat vor mir von Robbi

Cubitus
2024-01-31, 15:12:39
Gerade auf HDMI 2.1 umgeschaltet und jetzt hab ich auch HDR10+ bei 77.
Windows lässt sich auch auf 12bit Farbtiefe einstellen, aber alles bei nur 138hz.


Qualitätsverlust ist kein sichtbarer zu erkennen und ich nehme an bei 12bit wird man schon DSC brauchen ?

Mal gröber reinzoomen..

HDR10+ ist cool, man merkt sofort wie das Gamma (Grauschleier) im Menü angepasst wird, finde das HDR auch im Spiel damit deutlich ausgewogener.

Bei HDMI 2.1 mit einer realen Bandbreite von 40 Gbit/s und 12 Bit HDR sollte bei einer 4K-Auflösung ohne DSC eine Bildwiederholrate von bis zu
~134 Hz möglich sein. DSC wird bei dir dann trotzdem verwendet, aber wahrscheinlich mit einem sehr niedrigen Kompressionsgrad.

Oder es ist wirklich knapp an der Grenze..

Die Frage ist, ob man die 2 Bit mehr HDR überhaupt merkt bzw. was dein Monitor daraus macht?

Bei meinem Samsung ist es wohl so:
Eine zusätzliche 2-Bit Dithering Stufe, die vom Skalierer des Monitors angewendet wird, zumindest wird das im Test behauptet.

Die 2-Bit-Dithering-Stufe soll Farbübergänge glätten und die Darstellung von Farbverläufen und Details unter HDR verbessern.
Ob das so ist, ist mir nicht aufgefallen, gut möglich das auch Cyberpunk oder andere Spiele kein 12 Bit HDR liefern, bzw. da kein DolbyVision Mode Setting verfügbar ist.
Da 12 Bit HDR ja eigentlich ein Dolby Vision Format ist bzw. sein kann.

Platos
2024-02-02, 22:32:50
Ist die Frage ernst gemeint?
Blackwell wird DP2.1 bringen und dann kann man 4K240 ohne DSC bedienen. Problem umgangen.

Ah so ja, wegen Displayport 2.1, hast Recht. Aber das gilt hald nur für Monitore und für TVs nicht, die kommen weiterhin mit HDMI 2.1 und ohne Displayport.

Und es ging ja darum, das DSC kein Problem sei und Displayport 2.1 löst ja das Problem nicht, sondern umgeht es, indem man DSC gar nicht mehr erst benötigt.

Aber ja, hast schon recht. Das ist ja auch das, was ich sage: Es braucht "native" Bandbreite für alle, die eben DSR nutzen wollen. Das war ja quasi mein Argument (DSR), warum man DSC eben nicht nutzen kann (wenn man DSR nutzen will).

00-Schneider
2024-02-03, 07:27:20
Die Frage ist, ob man die 2 Bit mehr HDR überhaupt merkt bzw. was dein Monitor daraus macht?

Bei meinem Samsung ist es wohl so:
Eine zusätzliche 2-Bit Dithering Stufe, die vom Skalierer des Monitors angewendet wird, zumindest wird das im Test behauptet.

Die 2-Bit-Dithering-Stufe soll Farbübergänge glätten und die Darstellung von Farbverläufen und Details unter HDR verbessern.
Ob das so ist, ist mir nicht aufgefallen, gut möglich das auch Cyberpunk oder andere Spiele kein 12 Bit HDR liefern, bzw. da kein DolbyVision Mode Setting verfügbar ist.
Da 12 Bit HDR ja eigentlich ein Dolby Vision Format ist bzw. sein kann.


Mein letzter Stand ist: Es gibt im Comsumer-Bereich keine echten 12bit-Panels, egal ob TV oder Monitor. Ergo ist die 12bit-Option(z.b. im Nvidia-Control Panel) ohne echten Nutzen.

Bei HDMI 2.1 mit einer realen Bandbreite von 40 Gbit/s und 12 Bit HDR sollte bei einer 4K-Auflösung ohne DSC eine Bildwiederholrate von bis zu
~134 Hz möglich sein. DSC wird bei dir dann trotzdem verwendet, aber wahrscheinlich mit einem sehr niedrigen Kompressionsgrad.


HDMI 2.1 deckt doch bis zu 48gbps ab, wieso reden wir hier von nur 40gpbs? Afaik braucht man auch die vollen 48gbps für 4:4:4.

robbitop
2024-02-03, 09:39:03
Und es gibt iirc keinen consumer 12 bit content. Weder Videos noch Spiele rendern die Farbtiefe. Insofern im Moment sinnlos für die Meisten.

basix
2024-02-03, 09:47:40
Und es gibt iirc keinen consumer 12 bit content. Weder Videos noch Spiele rendern die Farbtiefe. Insofern im Moment sinnlos für die Meisten.

Ich würde den Monitor dann gerne lange behalten ;)

The_Invisible
2024-02-03, 10:09:58
10bit bringt ja auch nur in HDR Mode was, der ganze Standard Krempel (Windows und "Legacy"-Apps) rendern ja trotzdem nur in 8bit.

robbitop
2024-02-03, 11:16:59
Ich würde den Monitor dann gerne lange behalten ;)

Wie lange gibt es 12 bit schon? Und trotzdem kommt nix. Ggf macht das einfach keinen richtigen Mehrwert. Bei Spielen würde die höhere Farbtiefe auch mehr Bandbreite bei der GPU kosten. wahrscheinlich irrelevant

00-Schneider
2024-02-03, 11:20:51
Bei Spielen würde die höhere Farbtiefe auch mehr Bandbreite bei der GPU kosten.


Mir ist neu, dass HDR(10bit) generell mit weniger fps läuft als SDR(8bit).

robbitop
2024-02-03, 11:52:16
Mir ist neu, dass HDR(10bit) generell mit weniger fps läuft als SDR(8bit).

Beides sind in Summe 32 bit iirc. 10-10-10-2 vs 8-8-8-8. RGBA. Entsprechend ändert sich am Bandbreitenbedarf nichts. Das wäre mit einem FP12 Datenformat aber nicht mehr so.

Ggf müsste man damit es Sinn macht dann auch die Datenformate für Texturen und Shader verändern was mehr Transistoren für die Einheiten kosten würde oder Durchsatz.

Deswegen hat man sich schon Mitte der 2000er auf das FP10 Format eingeschossen. Nur dass es damals noch keine HDR Displays gab und man tonemapping machen musste.

Tobalt
2024-02-03, 12:03:49
Habe nichts zu fp10 gefunden. Hast du was dazu?

Cubitus
2024-02-03, 13:16:02
HDMI 2.1 deckt doch bis zu 48gbps ab, wieso reden wir hier von nur 40gpbs? Afaik braucht man auch die vollen 48gbps für 4:4:4.

In der Theorie ja, aber bei den meisten Geräten sind es nur 40gps was wirklich ankommen.

ist bei meinem Monitor auch so, HDMI 2.1 aber effektiv nur mit 40gps

https://www.rtings.com/monitor/reviews/samsung/odyssey-neo-g7-s32bg75

HDMI 2.1 Rated Speed, 40Gbps (FRL 10x4)

basix
2024-02-04, 08:52:36
Mir ist neu, dass HDR(10bit) generell mit weniger fps läuft als SDR(8bit).

Ist es auch nicht (mehr). Pascal hatte Einbussen mit HDR, mit Turing war das fast komplett weg. Bei AMD Karten war es afaik weniger ein Problem.

Gast
2024-02-05, 16:20:09
Beides sind in Summe 32 bit iirc. 10-10-10-2 vs 8-8-8-8. RGBA.


Im VRAM, an den Monitor wird logischerweise kein A übertragen, durchs Monitorkabel gehen entweder 24bit oder 30bit pro Pixel bzw. bei 12bit Kanälen dementsprechend 36bit.

Das 10+10+10+2-Format wird auch kaum verwendet, Spiele verwenden in der Regel intern FP16 Kanäle. Das 10+10+10+2 Format ist mehr oder weniger ein Relikt aus einer Zeit als "echtes" FP16 HDR für GPUs noch verdammt teuer war. In moderner Software wird das soweit ich weiß nur mehr in professionellen Video- bzw. Fotobearbeitungsprogrammen real verwendet.

Gast
2024-02-05, 16:25:42
Ergo ist die 12bit-Option(z.b. im Nvidia-Control Panel) ohne echten Nutzen.

Man braucht kein 12bit Panel um von 12bit Übertragung zu profitieren.

Was auch immer am Eingang des Monitors ankommt ist der Input für die Pipeline des Displays, und alles was diese macht kann potentiell zu Rundungsfehlern führen, die mit einem 10bit Input immer einen größeren Einfluss haben werden als mit einem 12bit Input.
Wenn die komplette Display-Pipeline mit 12bit arbeitet und das Panel mit 10bit, kann man davon ausgehen dass diese Verlustfrei ist, bei einem 10bit Input nicht.

sun-man
2024-02-09, 06:44:04
Macht es in ner hellen Umgebung Sinn einen B7D gegen einen C3 (55 -> 65) zu ersetzen? MM/Saturn halt....+ Cashback macht ~1400€

ChaosTM
2024-02-09, 06:59:23
Man braucht kein 12bit Panel um von 12bit Übertragung zu profitieren.

Was auch immer am Eingang des Monitors ankommt ist der Input für die Pipeline des Displays, und alles was diese macht kann potentiell zu Rundungsfehlern führen, die mit einem 10bit Input immer einen größeren Einfluss haben werden als mit einem 12bit Input.
Wenn die komplette Display-Pipeline mit 12bit arbeitet und das Panel mit 10bit, kann man davon ausgehen dass diese Verlustfrei ist, bei einem 10bit Input nicht.


Hab das intensiv getestet mit High Bitrate UHD Videos und Spielen. Ist sinnfrei*..

add.: *zumindest können meine Augen keinen Unterschied in den Farbgradienten ausmachen.

00-Schneider
2024-02-09, 08:13:25
Macht es in ner hellen Umgebung Sinn einen B7D gegen einen C3 (55 -> 65) zu ersetzen? MM/Saturn halt....+ Cashback macht ~1400€


Wirklich heller ist der C3 nicht. Hat aber einen etwas besseren Bildprozessor für Filme und VRR+120Hz fürs Zocken.

sun-man
2024-02-09, 08:23:02
Hi,

OK. Das lohnt sich "kaum". Gezockt wird da nicht. Also bliebe fast nur das bessere Bild und eben 65" statt 55. Zusätzlich könnte ich die Waipu App auf dem TV anstatt dem FireStick haben.

VG

robbitop
2024-02-09, 08:32:52
Erst die G Serie ist deutlich heller. Ich empfehle eher was mit der hellen Umgebung zu machen. Das geht einfacher / günstiger (Plissee, Vorhänge, Rollos). Mir ist unklar warum man mit voll bratziger Sonne im Raum TV konsumieren will. IMO ist das sogar bei LCDs nicht wirklich ideal. Und OLEDs sind ja lange nicht so dunkel wie die Plasmas damals wo das gar nicht ging.

sun-man
2024-02-09, 08:33:57
OK. Danke. Der Hardwareteufel ruft ^^. Mit Cashback 1400 und 200-250 bekommt man für einen B7D auch noch :D. Mal sehen ;)

00-Schneider
2024-02-09, 08:35:09
Erst die G Serie ist deutlich heller.


G2 afaik +200nits ggü. C2, deutlich heller ist erst der G3 mit +600nits ggü C3.

robbitop
2024-02-09, 09:04:26
Jap G3/G4 ist der aktuelle Gipfel. Knapp gefolgt von QD-OLED gen2/3.

sun-man
2024-02-09, 09:10:33
Hab mal geschaut.
B7 - 650 Candella
C3 - 872 Candella
--------------
Kann das aber gar nicht abschätzen/einschätzen.

robbitop
2024-02-09, 09:12:30
Das sind weder fullscreen noch highlight (3% window) Werte.

sun-man
2024-02-09, 09:14:12
Das sind weder fullscreen noch highlight (3% window) Werte.
Ich hab nur gegoogelt. Den B7D hab ich nur mit Candella gefunden

00-Schneider
2024-02-09, 09:21:10
Hab mal geschaut.
B7 - 650 Candella
C3 - 872 Candella
--------------
Kann das aber gar nicht abschätzen/einschätzen.


https://www.rtings.com/tv/reviews/lg/b7-b7a-oled -> 768nits im 10% Fenster
https://www.rtings.com/tv/reviews/lg/c3-oled -> 815nits im 10% Fenster

Da es sich bei "nits" um eine logarithmische Größe handelt, sind B7 und C3 ~gleich hell.

robbitop
2024-02-09, 10:20:19
Für das grundsätzliche TV benutzen bei heller Umgebung würde ich sagen ist der 100% Window (Fullscreen white) wichtiger weil das was über die Fullscreen ABL Reserven aussagt.
Die OLED Hersteller tunen mitunter die kleinen Window sizes für die HDR Highlights und auch für den hohen Helligkeitswert auf dem Werbeschild. Bei 100% white hat sich aber IIRC nicht viel getan. Zumindest abseits der G Serie.

sun-man
2024-02-09, 10:30:22
Da es sich bei "nits" um eine logarithmische Größe handelt, sind B7 und C3 ~gleich hell.
OK. Das meinte ich mit "Weiß ich nicht". Danke

Gumril
2024-02-09, 10:45:33
Wie die meisten schon gesagt haben siehst du später wenn du den TV eingestellt hat kaum Unterschiede zwischen den Generation.
Habe hier mal ein Vergleichsbild von meinem Wechsel, ja die Weißhelligkeit des Samsung ist besser macht aber nicht super viel aus wenn man ein wenig justiert hat.

sun-man
2024-02-09, 11:18:42
Danke

BlacKi
2024-02-16, 12:15:37
mhh, warum nicht größer? ich würds feiern.

https://videocardz.com/press-release/asus-rog-swift-pg32ucdm-4k-240hz-oled-monitor-now-available-at-1299

woodsdog
2024-02-16, 13:10:01
Weil die Loide dann einfach die viel billigeren 42" LG "Fernseher" kaufen würden.

32" ist als Monitor selbst für die Boomer (inkl mir) genug.

Cubitus
2024-03-01, 10:21:51
Mittlerweile hat Dell wirklich ein gutes OLED Eisen im Feuer, preislich für das was man dort bekommt und im Gegensatz zur Konkurrenz "günstig"

GR9H_kg1uZU

Den Monitor gibt es mit diversen Rabatten unter einem Tauie

https://www.shoop.de/cashback/dell
Kombinierbar mit 5 Prozent Gutschein.

Denke es macht Sinn auch bald einen eigenen Thread für dieses Modell aufzumachen. Spätestens wenn ich mein Modell habe werde ich das tun,
aber immer gerne Freiwillige vor :freak:

ChaosTM
2024-03-01, 11:21:35
Sehr nettes Gerät !
Die Biegung hätte man sich bei OLED und der Größe zwar sparen können, aber so ist es nun mal.
240hz ist nochmals smoother am Desktop, allerdings ist 4k 240 schon sehr grenzwertig ohne DP2.0. Kann funktionieren muss es aber nicht. Was sagt er im Video?

- hab momentan nicht die Zeit mir alles durchzuschauen.

MSI oder Asus haben hier momentan die "besseren" Angebote da flach.

basix
2024-03-01, 11:48:40
Gibt es eigentlich Tests zu 4K/240Hz und GPU Idle-Verbrauch? Bei 4K/120Hz war das zu Beginn ja öfters ein Problem, dass der Verbrauch hoch ging.

ChaosTM
2024-03-01, 11:59:55
Am Laptop bei 240hz ist es kein Problem, aber der hat nur 1440p.
Wenn zusätzlich ein 4k 138er dran hängt, gehts auch nicht über 20 Watt. (lt. GPUz)
Sollte also kein Problem sein.
Der Antrieb ist ein mobiler 3080er Prozessor.

Platos
2024-03-01, 12:10:18
Und ansonsten einfach den nvidia Inspector (dort Display Power saver oder sowas) nutzen. Nutze ich auch und hab 7Watt idle auf 4k60 (15Watt mit der alten GPU, aber das ist dann reinGPU Abhängog, was die im idle kann). Auslastung quasi 0. Selbst bei 4-Facher Auslastung dürfte sich das nicht ändern (also müsste nicht hochtakten).

Aber natürlich entsprechende Graka vorausgesetzt.

Aber theorie und praxis sind das eine... Darf gerne hier jemand mit nem 4k144Hz +Nvidia Inspector mal seine Erfahrung mitteilen.

Ps. Es geht um den Nvidia Inspector, nicht Nvidia Profile Inspector.

Cubitus
2024-03-01, 14:55:47
MSI oder Asus haben hier momentan die "besseren" Angebote da flach.

Für mich zählt Dell hat die deutlich günstigeren Angebote, curved ist in dem Falle egal, die Preisdifferenz beträgt zum Teil fast 600 Euro

ChaosTM
2024-03-01, 15:09:20
Die Preise sind abartig, ja.

Nightspider
2024-03-01, 16:02:21
Ist Dell noch bei Corporate Benefits dabei?

Konnts gerade auf die schnelle nicht mehr finden.

Cubitus
2024-03-01, 18:40:36
Ist Dell noch bei Corporate Benefits dabei?

Konnts gerade auf die schnelle nicht mehr finden.

Machs am besten darüber

Nightspider
2024-03-01, 18:48:43
Gibts scheinbar nicht mehr.

Der_Korken
2024-03-01, 20:03:56
Mittlerweile hat Dell wirklich ein gutes OLED Eisen im Feuer, preislich für das was man dort bekommt und im Gegensatz zur Konkurrenz "günstig"

https://youtu.be/GR9H_kg1uZU


Gibt es eigentlich Tests zu 4K/240Hz und GPU Idle-Verbrauch? Bei 4K/120Hz war das zu Beginn ja öfters ein Problem, dass der Verbrauch hoch ging.

Mir stößt hier gerade die Verbrauchsgrafik auf. Faktor 3 (!) mehr Verbrauch bei gleicher Helligkeit? WTF?

Ansonsten gibt es natürlich immer paar Kleinigkeiten auszusetzen: Kein DP 2.0 (AMD-Nutzer sind unter Linux mit HDMI ziemlich gekniffen (https://www.computerbase.de/2024-03/keine-freigabe-amds-open-source-kampf-fuer-hdmi-2-1-unter-linux-ist-verloren/)), aktive Kühlung, Curved ist nicht jedermanns Sache, VRR-Flickering müsste noch getestet werden.

Gast
2024-03-01, 22:46:38
Mir stößt hier gerade die Verbrauchsgrafik auf. Faktor 3 (!) mehr Verbrauch bei gleicher Helligkeit? WTF?


Bei 100% APL. Bei 0% APL hast du weniger als 1/3 Verbrauch.

Platos
2024-03-01, 23:22:51
Wie kann das eig. sein? Sollten bei 32" nicht eig. maximal nur 37Watt erlaubt sein? https://www.computerbild.de/artikel/avf-News-Fernseher-EU-Stromverbrauch-27486803.html

Oder sind die Verbräuche auf HDR bezogen? Weil die EU war ja so schlau, HDR aus den Regelungen auszunehmen :D

Oder werden die dann in der EU auf 1% Helligkeit ausgeliefert xD ?

Cubitus
2024-03-02, 00:01:20
Mir stößt hier gerade die Verbrauchsgrafik auf. Faktor 3 (!) mehr Verbrauch bei gleicher Helligkeit? WTF?

Ansonsten gibt es natürlich immer paar Kleinigkeiten auszusetzen: Kein DP 2.0 (AMD-Nutzer sind unter Linux mit HDMI ziemlich gekniffen (https://www.computerbase.de/2024-03/keine-freigabe-amds-open-source-kampf-fuer-hdmi-2-1-unter-linux-ist-verloren/)), aktive Kühlung, Curved ist nicht jedermanns Sache, VRR-Flickering müsste noch getestet werden.

Der Lüfter dreht wohl gar nicht bis selten.
Stromverbrauch naja im Peak der c2 hat noch mehr..

DP 2.0 ist nice aber eigentlich ist HDMI 2.1 zumindest für HDR ausreichend.
Und DSC halte ich nicht für schlimm.

Der_Korken
2024-03-02, 00:19:27
Der Lüfter dreht wohl gar nicht bis selten.
Stromverbrauch naja im Peak der c2 hat noch mehr..

DP 2.0 ist nice aber eigentlich ist HDMI 2.1 zumindest für HDR ausreichend.
Und DSC halte ich nicht für schlimm.

Ich versuch mir die OLEDs halt irgendwie als All-in-One-Gerät zum arbeiten und zocken schönzusaufen, aber da die Arbeitszeit deutlich größer als die Zockzeit ist, fallen mir die Nachteile von OLED da ordentlich auf die Füße. Dass OLEDs tatsächlich eine um Faktor 2-3 geringere Lichtausbeute als Nichtorganische LEDs, war mir bis vorhin gar nicht bewusst. Ich kann mich einfach nicht mit Dark Modes anfreuden, sondern hab alles hell, wenn auch nur auf 20-30% Helligkeit (~120Nits). Dreifacher Idleverbrauch ist aber übel. Und Burn-In gibt's auch noch :usad:.

00-Schneider
2024-03-15, 07:48:28
lsWK6hyqTb8

4er-Reihe kommt am 24.04. Hier die Preise:

https://www.4kfilme.de/preise-und-termine-der-2024-lg-oled-fernseher-veroeffentlicht-b4-c4-g4-m4/#google_vignette

Sardaukar.nsn
2024-03-15, 08:43:37
Wo sind die Geräte kleiner als 48" ?

readonly
2024-03-15, 08:45:28
Wo sind die Geräte kleiner als 48" ?

Die Displays werden alle in Handys verbaut 😄 So kleine Geräte haben wohl keinen Markt.

robbitop
2024-03-15, 09:40:41
Ich könnte mir vorstellen, dass sie den Monitormarkt (wo anscheinend die Preise und somit die Margen höher zu sein scheinen) nicht mehr durch zu günstige TVs kanibalisieren wollen (kann mir vorstellen, dass 42" für den reinen TV Zweck kaum noch gekauft werden). So würde ich es jedenfalls machen.