Archiv verlassen und diese Seite im Standarddesign anzeigen : OLED macht Fortschritte
aufkrawall
2024-08-28, 13:04:14
Jo, IPS ist unerträglich mit mehr als 100nits. Der Kontrast bleibt zwar mitunter gleich bei höherer Helligkeit, aber subjektiv ist das ruinierte Schwarz vs. niedrigere Helligkeit trotzdem übel. Bei Local Dimming mit IPS kommen die Halos ja auch nicht nur daher, dass die Beleuchtungszone größer als die darüberliegenden hellen Pixel ist, sondern es bleeded auch ins sehr lichtdurchlässige Panel selbst um den Bereich herum rein. Bei OLED kann man die Helligkeit ohne diese Nachteile hochdrehen, was es natürlich verlockender macht. Bis man halt mitunter trotzdem genug davon hat.
Der_Korken
2024-08-28, 13:16:40
Ich finde die hohe Helligkeit als Test sehr hilfreich, weil damit mehr Alterung simuliert wird als in Echtzeit möglich wäre. Wie ich schon mehrfach im Thread schrieb: Was nützen mir als Konsument realistische Bedingungen, wenn die Ergebnisse dadurch erst Jahre nach Release vorliegen und das Produkt dadurch eh längst veraltet ist? Das einzige Manko ist für mich, dass ich nicht weiß wie hoch der Abnutzungsfaktor zwischen 200 und 120 Nits ist. Er wird mindestens linear sein, also 1,66x aber vielleicht ist der Zusammenhang auch nichtlinear.
redpanther
2024-08-28, 13:19:15
Gute frage, denn bei höherer Helligkeit wird das Display ja auch wärmer und das mögen die ja auch nicht so sehr.
Evil Ash
2024-08-28, 14:06:33
Was nützen mir als Konsument realistische Bedingungen, wenn die Ergebnisse dadurch erst Jahre nach Release vorliegen und das Produkt dadurch eh längst veraltet ist?
Ist das nicht irgendwie sinnlos?
Das könnte man auch umformulieren:
Wenn das Produkt erst nach vielen Jahren Burn-In/Burn-Out aufweist und dann mittlerweile eh total veraltet ist ... warum dann nicht ein neues Gerät kaufen und sich erfreuen? Warum nicht jetzt OLED nutzen und (jahrelang) genießen?
Platos
2024-08-28, 14:20:02
Ich finde die hohe Helligkeit als Test sehr hilfreich, weil damit mehr Alterung simuliert wird als in Echtzeit möglich wäre. Wie ich schon mehrfach im Thread schrieb: Was nützen mir als Konsument realistische Bedingungen, wenn die Ergebnisse dadurch erst Jahre nach Release vorliegen und das Produkt dadurch eh längst veraltet ist? Das einzige Manko ist für mich, dass ich nicht weiß wie hoch der Abnutzungsfaktor zwischen 200 und 120 Nits ist. Er wird mindestens linear sein, also 1,66x aber vielleicht ist der Zusammenhang auch nichtlinear.
Sehe ich auch so. Es ist nunmal ein Testszenario, das Alterung in einem kürzeren Zeitrahmen testet. Es ist im Übrigen auch nicht 24h am Tag, es waren glaube ich 16h oder sowas (bei OLED kann man keine 24h laufen lassen, es müssen ja diese Erholzeiten eingeplant werden, in denen der TV Refreshes macht.)
Platos
2024-08-28, 14:22:40
Ist das nicht irgendwie sinnlos?
Das könnte man auch umformulieren:
Wenn das Produkt erst nach vielen Jahren Burn-In/Burn-Out aufweist und dann mittlerweile eh total veraltet ist ... warum dann nicht ein neues Gerät kaufen und sich erfreuen? Warum nicht jetzt OLED nutzen und (jahrelang) genießen?
Ganz einfach: Wenn du heute also die Resultate von den 10 Jahre alten OLEDs bekommts, würdest du zum schluss kommen, dass sie total scheisse sind und somit nicht kaufen (nach deiner Logik). Diese Tests erlauben jedoch nach 2 Jahren schon die gleiche Aussage, die du sonst erst nach 10 Jahren kriegst. Und abgesehen davon ist in 10 Jahren möglicherweise sogar eine Displaytechnologie durchaus mal einfach nicht mehr relevant... Siehe weite oben, da wurden ja grad erst die blauen OLED Emitter verlinkt, die wieder andere Alterungserscheinungen haben. Die kommen auch bald. Es könnte gut sein, dass in 2-5 Jahren das in TVs steckt. 10 Jahresspannen sind absoluter Nonsens für Testszenarien bei elektronischen Produkten. Bis dahin ist wieder alles anders.
robbitop
2024-08-28, 15:06:53
Ich würde gern sehen, wie ein torture test Ergebnis aussieht, wenn man sanfte Settings fährt vs "voll aufgerissen".
Die Frage ist, ob man als Homeofficemensch, der gern zockt, mit angepassten/sanften Settings (sagen wir 100 nits, taskleiste ausblenden, dark mode, freundlicher Hintergrund, alle 4h den Bildschirm in den Standby laufen lassen so dass er einen refresh cycle fahren kann usw) 10 Jahre aus dem Panel bekommt, ohne dass man da Einbrennen unter normalen Bedingungen sieht.
Post Covid gibt es bestimmt immer mehr Leute, die am heimischen Arbeitsplatz arbeiten und in der Freizeit zocken wollen. ^^
Ich hab einen LG C2 als PC-Bildschirm und nach 9200 Betriebsstunden noch keinen Burn-In der irgendwie bemerkbar ist gegenüber Spiegelungen am Bildschirm.
Einstellungen: Dark-Mode, Pixel shift aktiv, 80 Brightness, Taskbar autohide.
Auf im dunklen Raum Fotos von Testmotiven machen und per Bildbearbeitung Kontrast erhöhen um was zu sehen hab ich kein Interesse, das ist für meine Nutzung irrelevant.
Savay
2024-08-28, 15:55:37
Ich würde gern sehen, wie ein torture test Ergebnis aussieht, wenn man sanfte Settings fährt vs "voll aufgerissen".
Sowas? ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13604300&postcount=18450
0815 HO Usecase über mindestens 4/5 Tagen die Woche.
Wenn ich das OSD richtig verstehe habe ich 62 Refresh Zyklen bisher + 11h vom Timer für den aktuell laufenden Zyklus. (Fix alle 16h für die Benachrichtigung habe ich bei mir eingestellt!)
Also irgendwas um die 990-1000 Betriebsstunden.
Meine Settings sind anscheinend doch signifikant sanfter als bei HWUB da ich wesentlich dichter an den 100nits als den 200nits bin.
Ich nutze zudem auch nicht durchgehend den Splitscreen und habe ggf. mehr wechselnde Inhalte.
(Bis auf die Taskleiste, die blende ich nie aus!)
Ich würde aber eh total ramdöselig werden wenn ich 7,4h auf die gleich Anwendung starren müsste...alleine daher geht das schon nicht.
Ansonsten benutze ich das Ding halt einfach (auch) zum arbeiten, und zwar exakt genauso wie vorher den IPS.
Ich habe an meinem Verhalten diesbezüglich bisher nichts geändert.
Aber auch mein 2 Jahre altes Yoga7 mit dem 14" OLED Panel ist bisher unauffällig und das wird fast auch nur zum Browsen und Co. benutzt.
Daher war und bin ich da bisher noch recht tiefenentspannt.
. Er wird mindestens linear sein, also 1,66x aber vielleicht ist der Zusammenhang auch nichtlinear.
Der Einfluss der Stromstärke/Temperatur ist bei der Alterung von OLEDs m.W. grundsätzlich erstmal nichtlinear!
Das sollte man bei solchen Tests immer bedenken.
Wie der Faktor konkret aussieht hängt sicher auch ein wenig davon ab wie sehr das Panel bei "100%" an die Grenze getrieben wird und wie gut es gekühlt ist!
https://www.lme.uni-saarland.de/download/Sonstiges/Jiang_SID_Journal.pdf
Der_Korken
2024-08-28, 17:44:37
Ist das nicht irgendwie sinnlos?
Das könnte man auch umformulieren:
Wenn das Produkt erst nach vielen Jahren Burn-In/Burn-Out aufweist und dann mittlerweile eh total veraltet ist ... warum dann nicht ein neues Gerät kaufen und sich erfreuen? Warum nicht jetzt OLED nutzen und (jahrelang) genießen?
Der Zeitraum, den ich einen Monitor nutze ist erstmal völlig unabhängig von dem Zeitraum zwischen Monitor-Release und meinem Kaufdatum. Ich möchte einen Monitor mindestens 5 Jahre nutzen können ohne dass ich im Alltag eingebrannte Konturen wahrnehme. Dass zwischendurch bessere Modelle auf den Markt kommen könnten, ist da egal, denn ich ersetze einen Monitor nicht sobald der Nachfolger da ist, sondern sobald er defekt ist oder ich für einen vertretbaren Preis was wesentlich besseres bekomme.
Bei der Kaufentscheidung dagegen bin ich immer am neuesten interessiert. Wenn ich nur Testergebnisse von mindestens 3 Jahre alten Modellen sehen könnte, weil bei den neueren die Tests noch nicht durch sind, dann wäre das ziemlich sinnlos. Deswegen sind die Härtetests so interessant. Wenn jemand die Teile so hart ran nimmt, dass er innerhalb eines Monat die Belastung eines ganzen Jahres unter meinen Alltagsbedingungen simuliert, ist das doch super. Dann sehe ich nach 3 Monaten im Test wie mein Monitor nach 3 Jahren aussehen würde, ohne dass ich die 3 Jahre auch warten muss.
Wenn ich meine CPU übertakte (oder undervolte), dann lass ich auch irgendwas ekliges wie Prime95 laufen, damit ich es möglichst schnell mitbekomme, wenn meine Kiste nicht mehr stabil ist. Nach der Logik dass man nicht mit synthetischen Lasten darf, weil die "unrealistisch" sind, müsste ich nach jeder Einstellungsänderung im BIOS erstmal wochenlang produktive Arbeit auf dem System simulieren (echte produktive Arbeit geht ja nicht, weil ich das nicht auf einem instabilen System machen möchte). Das geht doch völlig am eigentlichen Zweck vorbei.
Ich würde gern sehen, wie ein torture test Ergebnis aussieht, wenn man sanfte Settings fährt vs "voll aufgerissen".
Die Frage ist, ob man als Homeofficemensch, der gern zockt, mit angepassten/sanften Settings (sagen wir 100 nits, taskleiste ausblenden, dark mode, freundlicher Hintergrund, alle 4h den Bildschirm in den Standby laufen lassen so dass er einen refresh cycle fahren kann usw) 10 Jahre aus dem Panel bekommt, ohne dass man da Einbrennen unter normalen Bedingungen sieht.
Taskleiste und Darkmode dürften ordentlich reinhauen. Die durchschnittliche Helligkeit im Darkmode ist so viel geringer als im Brightmode, dass die OLEDs sich um ein Vielfaches langsamer abnutzen. Zudem hast du helle Konturen auf dunklem Hintergrund, was perfekt durch Pixel Shifting aufgefangen wird. Wäre Darkmode für mich eine Option wäre das Thema Burn-In für mich erledigt.
Edit:
Der Einfluss der Stromstärke/Temperatur ist bei der Alterung von OLEDs m.W. grundsätzlich erstmal nichtlinear!
Das sollte man bei solchen Tests immer bedenken.
Wie der Faktor konkret aussieht hängt sicher auch ein wenig davon ab wie sehr das Panel bei "100%" an die Grenze getrieben wird und wie gut es gekühlt ist!
Rein intuitiv hätte ich auch etwas nichtlineares vermutet, da es im Bereich Elektronik fast immer so ist, dass die Belastung der Teile überproportional mit höherer Spannung ansteigt. Die Lebensdauer linear hochzurechnen (also x1,66 bei 200 -> 120 Nits) dürfte definitiv eine untere Schranke für den Gewinn darstellen, d.h. was HWUB nach 6 Monaten sieht, wäre bei 120 Nits frühestens nach 10 Monaten sichtbar. Da der Zusammenhang aber auch stark nichtlinear sein kann, wäre es durchaus möglich, dass es nicht 10 Monate in dem Beispiel sind, sondern vielleicht 20 oder gar 30 Monate.
Platos
2024-08-29, 01:23:01
Taskleiste würde ich persönlich auch nie ausblenden. Ich ändere doch nicht mein Nutzungsverhalten für ein Gerät. Es soll mir ja eine Verbesserung bringen und nicht einen Auftrag zur Pflege.
Wenn man die Taskleiste ausblendet, muss man auch immer zuerst mal nach unten gehen, um die Leiste einblenden zu lassen und kann erst dann präzise zum Taskleistensymbol fahren. Werden wohl die wenigsten "blind" perfekt zur Position steuern können, wo das Symbol ist und dann im perfekten Moment klicken.
Ich habe das schon mehrere Male ausprobiert, um vertikal ein paar Pixel mehr zu haben, aber das ist für mich einfach ein No-Go. Habe bisher keine Methode gefunden, die das oben beschriebene Problem löst.
redpanther
2024-08-29, 11:46:58
Vergleiche hinken, aber das ist in etwa so, wie ins kalte Auto zu steigen und dann immer gleich in den Drehzahlbegrenzer zu Orgeln, weil man sich nicht umgewöhnen will und immer gleich viel Gas gibt.
Kann man machen, man sollte sich dann über die Konsequenzen halt nicht wundern oder gar beschweren.
BlacKi
2024-08-29, 12:02:43
Taskleiste würde ich persönlich auch nie ausblenden. Ich ändere doch nicht mein Nutzungsverhalten für ein Gerät. Es soll mir ja eine Verbesserung bringen und nicht einen Auftrag zur Pflege.
bei mir steht die persönliche nutzungserfahrung im fordergrund. und die kann von person zu person unterschiedlich sein. ich persönlich gehe gerne kompromisse ein, wenn sich die allgemeine nutzererfahrung sich bessert.
ein arbeitskollege von mir macht seinen rechner und monitor nie aus, selbst spiele laufen oft einfach im hintergrund einfach weiter wenn er arbeiten geht. das sind seine kompromisse die ein monitor und rechner mitbringen muss.
ein anderer kollege meinte, er hat 4k ausprobiert, aber die vielen details überfordern sein hirn, er kommt damit nicht klar. er ist glücklich mit fhd.
ich reduziere auf dem desktop einfach die helligkeit durch den energiesparmodus, um die pixel zu schonen und den verbrauch zu reduzieren. bei filmen und spielen mache ich den energiesparmodus wieder aus. das ist das einzigste was ich tue mit meinem oled.
Asaraki
2024-08-29, 12:02:54
Platos fährt mit seinem Elektroauto einfach weiterhin zur Tankstelle und beschwert sich ^^
Ist ja ok, wenn man starre Verhaltensmuster hat. Aber dann ist das halt so und man muss bei den alten Technologien bleiben
Mal davon abgesehen, dass die Taskleiste sowieso kein produktives Tool ist, benötigt eine Hand und einen Fokuswechsel. Wer dafür Zeit hat, der arbeitet sowieso eher gemütlich ^^
Schon mal was von Alt-Tab / Win-tab gehört? Meine Taskleiste ist im Office Desktop längst ausgeblendet, schon lange vor OLED. Verlangsamt mich ja sowieso nur UND nimmt Platz weg. Also produktiv geht anders, die ist imho ja nur für die Rentner da
Böse gesagt, wer die taskleiste benutzt öffnet doch auch ein command window über das Startmenü ^^
The_Invisible
2024-08-29, 12:05:30
Solche Beschränkungen funktionieren halt bei 08/15 Nutzern nicht, das muss OOTB alles funktionieren.
Bei meinem neuen Lenovo OLED Dev Notebook war als einzige Maßnahme der DarkMode und ein relativ kurzer aktivierter "Bildschirmschoner" eingestellt, dazu irgendein "Reinigungsprogramm" das alle heiligen Zeiten läuft. Da ich sowieso immer DarkMode fahre für mich kein Problem.
Relex
2024-08-29, 12:08:07
Niemand zwingt einen zur "Pflege". Ist wie mit allen Gegenständen. Halten dann halt nicht so lange, wenn man die Pflege ignoriert..
Asaraki
2024-08-29, 12:15:05
Solche Beschränkungen funktionieren halt bei 08/15 Nutzern nicht, das muss OOTB alles funktionieren.
Bei meinem neuen Lenovo OLED Dev Notebook war als einzige Maßnahme der DarkMode und ein relativ kurzer aktivierter "Bildschirmschoner" eingestellt, dazu irgendein "Reinigungsprogramm" das alle heiligen Zeiten läuft. Da ich sowieso immer DarkMode fahre für mich kein Problem.
Ist ja ok, gibt ganz viele Monitore mit denen man weiterhin arbeiten kann wie 1999. ups CRTs hatten ja auch burn in ;-))
Der_Korken
2024-08-29, 13:13:04
Platos fährt mit seinem Elektroauto einfach weiterhin zur Tankstelle und beschwert sich ^^
Ist ja ok, wenn man starre Verhaltensmuster hat. Aber dann ist das halt so und man muss bei den alten Technologien bleiben
Mal davon abgesehen, dass die Taskleiste sowieso kein produktives Tool ist, benötigt eine Hand und einen Fokuswechsel. Wer dafür Zeit hat, der arbeitet sowieso eher gemütlich ^^
Schon mal was von Alt-Tab / Win-tab gehört? Meine Taskleiste ist im Office Desktop längst ausgeblendet, schon lange vor OLED. Verlangsamt mich ja sowieso nur UND nimmt Platz weg. Also produktiv geht anders, die ist imho ja nur für die Rentner da
Böse gesagt, wer die taskleiste benutzt öffnet doch auch ein command window über das Startmenü ^^
Es ist immer leicht sich über Gewohnheiten oder Workflows anderer Leute lustig zu machen, nur weil irgendeine neue Technologie zufällig den eigenen Gewohnheiten in die Karten spielt. Das macht die anderen aber nicht zu rückständigen Personen.
redpanther
2024-08-29, 14:06:04
Rückständig würde ich das nicht bezeichnen, unflexibel eher.
Ist ja nicht so, das es total komplett anders ist, wenn man die Taskleiste ausblendbar macht.
Ich frage mich halt, wenn schon so eine (für mich) "Kleinigkeit" komplett abgelehnt wird, die einem einen Vorteil bringt (potentiell längere Lebensdauer), wie das dann mit anderen Sachen aussieht?
Es KÖNNTE natürlich sein, das er aus irgend einem Grund, 500 mal am Tag über die Taskleiste gehen Muss. Dann könnte ich es auch verstehen. Hat sich jetzt aber nicht so angehört.
Niemand wird gezwungen. Aber wundern wird man sich wohl auch dürfen.
Asaraki
2024-08-29, 14:06:09
Es ist immer leicht sich über Gewohnheiten oder Workflows anderer Leute lustig zu machen, nur weil irgendeine neue Technologie zufällig den eigenen Gewohnheiten in die Karten spielt. Das macht die anderen aber nicht zu rückständigen Personen.
Doch tut es. Rückständig heisst genau das. Wer heute noch Dinge in der taskleiste anklickt arbeitet halt wie vor 20 Jahren. Aber das Wort hast du gewählt, nicht ich
Ich mache mich auch nicht lustig über die Arbeitsweise, sondern dezent und nicht sehr ernst gemeint über den „Anspruch“ eine revolutionäre Technologie müsse mir veralteten workflows kompatibel sein. Wären alle so hätten wir heute noch keine dampfkraft, ging ja auch von Hand ne
Das ist aber nicht schlimm, man kann bloss nicht beides haben. Gibt viele Lebensbereiche bei denen ich die Dinge meinen Gewohnheiten anpasse, völlig ok. Du wirst mich aber nie hören, wie ich mich über Dinge beklage die ich nicht kontrollieren kann
Evil Ash
2024-08-29, 14:21:46
Doch tut es. Rückständig heisst genau das. Wer heute noch Dinge in der taskleiste anklickt arbeitet halt wie vor 20 Jahren.
Na ja, ehe ich eine Hand "weggebe" und immer umständlich per Alt-Tab durch zig Fenster switche, habe ich das per Maus schon tausendmal schneller erledigt. Egal, ob die Taskleiste sichtbar ist oder nicht.
Meiner Meinung nach ... arbeitest du rückständig. Und nun?
Exxtreme
2024-08-29, 14:30:41
Doch tut es. Rückständig heisst genau das. Wer heute noch Dinge in der taskleiste anklickt arbeitet halt wie vor 20 Jahren. Aber das Wort hast du gewählt, nicht ich
Ist das Steuern eines Autos mittels Lenkrad für dich auch rückständig?
Der_Korken
2024-08-29, 14:33:42
Ich frage mich halt, wenn schon so eine (für mich) "Kleinigkeit" komplett abgelehnt wird, die einem einen Vorteil bringt (potentiell längere Lebensdauer), wie das dann mit anderen Sachen aussieht?
Kleinigkeit ist subjektiv. Ich sehe sehr gerne mit einem Augenschwenk die aktuelle Uhrzeit, meine CPU- und RAM-Auslastung und finde ich es angenehmer durch meine Fenster zu klicken, weil ich deren manchmal 20 Stück aufhabe und ich da keinen Bock habe durch zu Alt-Tabben.
Ich "fordere" ja nicht, dass irgendwelche neuen Technologien sich meinen Gewohnheiten unterwerfen sollen, sondern ich eruiere, ob die neuen Technologien mit meinem Nutzungsprofil kompatibel wären bzw. woran es mangelt. Für mich subjektiv wäre ein OLED ein Rückschritt gegenüber einem IPS, wenn er mich dazu zwingt auf gewisse zu verzichten, da ich mit Arbeit anteilsmäßig sehr viel mehr Zeit als mit Gaming verbringe. Deswegen habe ich noch keinen (und weil Preis :freak:).
Relex
2024-08-29, 14:35:23
Man kann auch ALT+TAB aufrufen und die Fenster mit der Maus anklicken. Das geht mit Abstand am schnellsten. Man muss nicht suchen und hat alle Fenster in der Mitte des Bildschirms.
Alternativ nutzt man WIN+TAB.
Programme in der Taskleiste kann man mit WIN + 1, 2, 3 usw. direkt starten.
Seitdem ich mir das angewöhnt habe, ist auch am Arbeitsnotebook die Taskleiste ausgeblendet. Braucht nur platz und hat für mich keinen Nutzen mehr.
Na ja, ehe ich eine Hand "weggebe" und immer umständlich per Alt-Tab durch zig Fenster switche, habe ich das per Maus schon tausendmal schneller erledigt. Egal, ob die Taskleiste sichtbar ist oder nicht.
Wieso musst du die Hand weggeben, die ist doch eh schon auf der Tastatur? Alt+Tab bzw. Windows+Tab ist viel schneller und viel übersichtlicher. Und mit einem Druck auf die Windows-Taste ist sie auch sofort da, ohne erst auf die Maus umgreifen zu müssen.
Also Task switchen ist wirklich kein Grund für eine eingeblendete Taskleiste, das einzige was ich mir noch einreden lasse, ist dass man ständig eine Uhr haben möchte, oder andere Infos im Tray.
Sardaukar.nsn
2024-08-29, 17:10:04
Was habt ihr denn da drauf zum Test laufen lassen? Mit dem Eizo Test sehe ich nur das ich meinen C2 mal wieder richtig putzen müsste.
https://www.eizo.de/monitortest/?srsltid=AfmBOopca4cv3dJdVCqsKME7dFS7j1jRLmq4xa9h_GXnS171rKxCJf8O
Cubitus
2024-08-29, 17:44:40
Ich nutze die Taskleiste für einen schnellen Zugriff auf Programme, ansonsten bleibt der Desktop fast leer. Die Taskleiste gefällt mir gut und ist mir über die Jahre ans Herz gewachsen,
ich lasse sie maximal automatisch ausblenden und das war's. Eigentlich ist es mir ziemlich egal, die Technik wird es schon aushalten, sonst kaufe ich eben etwas Neues. :freak:
Asaraki
2024-08-29, 18:30:17
Na ja, ehe ich eine Hand "weggebe" und immer umständlich per Alt-Tab durch zig Fenster switche, habe ich das per Maus schon tausendmal schneller erledigt. Egal, ob die Taskleiste sichtbar ist oder nicht.
Meiner Meinung nach ... arbeitest du rückständig. Und nun?
Na und nun hast du eine andere Meinung. Enjoy! Maus ist halt langsamer als Tastatur, da abhängig von direktem sichtkontakt mit dem Mauszeiger. Beansprucht also auch mehr deiner Aufmerksamkeit
Imho hat jeder der vor allem mit der Maus arbeitet (also ausserhalb spezifischer Programme) halt einen eher gemütlichen approach / nutzt die technischen Möglichkeiten bewusst nicht
Und hört mal auf mit dem Begriff rückständig, kommt nicht von mir. Da sollen sich andere darin laben ^^
Und ist sowieso OT, ich meine ja nur dass jeder halt die Prioritäten setzen muss wie es für ihn selbst passt. Keiner muss arbeiten wie ich, wobei ich halt die Gelegenheit sehe mal den approach zu ändern und auf die permanente Leiste zu verzichten, da es ganz andere Vorteile hat als eventuellen Burn In zu verhindern
Ich hab immer tausende Programme und Ordnerfenster gleichzeitig offen. Wenn ich das mittels alt+tab durchswitchen will würde ich wahnsinnig werden. Ich nutze es auch aber meist nur um zw. Der letzten und der aktuellen App hin und her zu switchen.
Savay
2024-08-29, 21:19:24
Also Taskleiste ausblenden ist ja schon ganz schön "like it`s 1999"...von wegen Oldschool und so. ;D
Hab das regelmäßig nur mit W98 und W2000 und zuletzt bestenfalls noch zum Anfang der XP Zeiten mit den ersten LCDs gemacht um Realestate für die Anwendungen zu gewinnen. :wink:
Mit dem ersten Quad WXGA Display hab ich sie dann irgendwann an die Seite verschoben...und bin dann bis ich 2015 auf UHD umgestiegen dabei geblieben. Dann kam sie wieder nach unten.
Mit 1800p+ und spätestens mit 2160p ist das schon ziemlich wurscht und soll doch bitte jeder so machen wie er mag.
PS man kann Alt+Tab und Co. tatsächlich auch mit eingeblendeter Taskleiste nutzen...was das eine (Shortcuts) mit dem anderen (sichtbare GUI Elemente) zu tun hat will mir eh noch nicht so ganz einleuchten aber sei's drum.
Asaraki
2024-08-30, 00:42:34
Ich hab immer tausende Programme und Ordnerfenster gleichzeitig offen. Wenn ich das mittels alt+tab durchswitchen will würde ich wahnsinnig werden. Ich nutze es auch aber meist nur um zw. Der letzten und der aktuellen App hin und her zu switchen.
Explorer hat tabs :) also mehr als zwei braucht man nur für sehr spezielle Sachen
Und wenn du statt dessen zwei Desktops nutzt sind vermutlich dann, wenn du produktiv arbeiten musst nur wenige offen. Und für das leisure Desktop kannst du bestimmt auf die 0.1 Sekunden verzichten die eine ausgeblendete taskleiste kostet
Immer noch kein Versuch irgendwen zu überzeugen, aber sind halt keine wahnsinnig guten Argumente. Das ist Gewohnheit, mehr nicht
Explorer hat tabs :) also mehr als zwei braucht man nur für sehr spezielle Sachen
Ist das so? Dann erklär mir mal bitte wie ich die bei meinem Windows10 Office Rechner nutze? Ich finde dazu nix.
Ansonsten hab ich schon allein 4 Explorer offen um bequem Dateien auf verschiedene Server zu schieben oder visuell abzugleichen. Hab da leider kein Photographisches Gedächtnis und brauch da ne Gegenüberstellung.
Und wenn du statt dessen zwei Desktops nutzt sind vermutlich dann, wenn du produktiv arbeiten musst nur wenige offen. Und für das leisure Desktop kannst du bestimmt auf die 0.1 Sekunden verzichten die eine ausgeblendete taskleiste kostet
Immer noch kein Versuch irgendwen zu überzeugen, aber sind halt keine wahnsinnig guten Argumente. Das ist Gewohnheit, mehr nicht
Ich will dich von gar nichts überzeugen. Du willst uns einreden, dass man ohne Taskleiste besser zurecht kommt weil für dich das gilt. Ich will dir nur aufzeigen das es für andere Menschen ein Verzicht auf Kompfort bedeuten kann deinen Weg zu gehen. Also warum willst du sie dazu nötigen?
Ich hab allein 20 Programme an die Taskleiste geheftet. Viele sind oft mehrfach geöffnet. Bei Teams und Outlook sehe ich auf einen Blick wenn Aktivität vorhanden ist. Blende ich das aus nehme ich mir Infos weg, die ich mag. Die Taskleiste zeigt mir die aktuelle Uhrzeit, das Datum und das angewendete Systemsprache an. Ich kann meinen VPN Tunnel schnell wechseln und sehe wenn mir das System Infos hinterlegt hat.
Ich hack mir doch auch kein Bein ab nur weil mir ein Einbeiniger sagt, dass man auch mit einem Bein leben und dann sogar weniger Füße waschen und Nägel schneiden muss...
Also leb du mit deiner no-taskbar-environment und lass uns unsere 🙃
Ist das so? Dann erklär mir mal bitte wie ich die bei meinem Windows10 Office Rechner nutze?
Im Office nutzt man auch nicht den Windows-Explorer sondern einen besseren Filemanager.
Asaraki
2024-08-30, 08:53:56
Ich will dir ja auch keinen OLED verkaufen für ein high productivity Environment ^^ (eventuell aber Windows 11 oder ein besseres Tool für das file Management, oder gerade bei vielen Remote Sessions wirklich die Nutzung mehrerer Desktops)
Wie mehrmals geschrieben muss jeder die Prioritäten selbst setzen. Aber die Taskleiste ist doch nicht der Grund keinen OLED zu holen für 99% aller User…
Wer so arbeitet wie du der kann vermutlich auch mit eventuellen burnin leben sollte er aus gründen trotzdem unbedingt OLED wollen
Schon witzig wie man sich scheinbar daran aufhängen kann. Und jetzt müssen wir noch vergleichen wie produktiv wir alle sind ^^
Aber weil hier lustige Vergleiche in sind : Ich kauf auch kein Elektroauto wenn ich zuhause keinen Strom habe ^^
Und jetzt back to topic sonst nimmt uns leonidas die taskleisten weg :D
Aber weil hier lustige Vergleiche in sind : Ich kauf auch kein Elektroauto wenn ich zuhause keinen Strom habe ^^
Du hast zuhause Benzin/Diesel?
Evil Ash
2024-08-30, 11:13:50
Du hast zuhause Benzin/Diesel?
Ja, gleich um die Ecke. Nennt sich "Tankstelle".
Ganz ehrlich, selbst wenn man mir ein E-Auto schenken würde ... ich könnte damit nichts anfangen, ich kann es einfach nicht laden.
Aber das ist eine andere Geschichte ... off topic.
Im Office nutzt man auch nicht den Windows-Explorer sondern einen besseren Filemanager.
Was ne Aussage. Ich nutze das was ich installieren/nutzen darf und das ist arg beschränkt.
Cubitus
2024-08-30, 11:37:38
Bei der Diskussion wird ein wichtiger Punkt komplett übersehen, es spielt absolut keine Rolle, was auf dem Bildschirm angezeigt wird, er darf einfach nicht kaputtgehen.
Daher liegt es an den Herstellern, die Technologie so zu beherrschen, dass es nicht zu Abnutzungserscheinungen wie einer eingebrannten Taskleiste kommt.
Anfangs war ich sehr vorsichtig im Umgang mit OLED, mittlerweile ist es mir einfach komplett egal, und ich verwende das Gerät nach Belieben ohne Einschränkungen.
Die Nutzungsdauer meiner Bildschirme beträgt in der Regel 5-10 Jahre. Mein letzter Samsung 34-Zoll VA-Panel aus dem Jahr 2017 ist immer noch in Betrieb bei meinem Schwager.
Es fällt mir schwer zu glauben, dass jemand seinen Hauptbildschirm länger als 10 Jahre verwendet. Ende letzten Jahres wollte ich einfach etwas Neues und habe noch 150 Euro für meinen alten Samsung bekommen. Ob ich am Ende für den OLED noch etwas erhalten werde, ist ungewiss. Wenn der pixeltechnisch durch ist, gibt es eben kein Geld mehr.
Deshalb würde ich niemals mehr als 1000+ Euro in einen Monitor investieren, das wäre eindeutig ein Verlustgeschäft.
Letztendlich wäre es mir jedoch zu dumm, mich aus Angst vor Degeneration über die Jahre hinweg einschränken zu lassen.
redpanther
2024-08-30, 11:59:22
Wenn du das Einschränkung empfindest, ist das so.
Kein OLED Hersteller wird dich dazu zwingen, die hier diskutierten Maßnahmen durchzuführen.
Ich mache es, weil ich meine Technik pfleglich behandle und mir eine längere Lebenszeit erhoffe.
Ob es so kommt, ist natürlich eine andere Frage, das weiß man nie.
Ich habe hier aber noch meinen ersten Dell LCD Schirm in Benutzung. Der wird nächstes Jahr 20 sehe ich gerade.
Generell sind Monitore wohl das langlebigste an einem PC System. Mir ist auch noch keiner in der Familie oder Bekanntschaft kaputt gegangen.
Wenn das bei dir nicht so ist. Ausnahmen bestätigen oft die Regel.
Asaraki
2024-08-30, 12:05:12
Man könnte meinen die Leute werden gezwungen sich OLEDs zu kaufen ^^
Ich warte derweil auf den nächsten OLED mit 3D… dann gibts mal wieder einen und schwups wieder eingestellt ^^ gerne einen Hinweis wenn jemand ein aktuelles Modell kennt
Savay
2024-08-30, 12:10:48
Im Office nutzt man auch nicht den Windows-Explorer sondern einen besseren Filemanager.
Erzähl das bitte mal unserer IT... :freak:
redpanther
2024-08-30, 12:23:25
Man könnte meinen die Leute werden gezwungen sich OLEDs zu kaufen ^^
Ich warte derweil auf den nächsten OLED mit 3D… dann gibts mal wieder einen und schwups wieder eingestellt ^^ gerne einen Hinweis wenn jemand ein aktuelles Modell kennt
Wüsste nicht das es jemals einen gegeben hätte. Lass mich aber gerne eines besseren belehren.
Die Hersteller haben sich aber scheinbar darauf geeinigt, das 3D für Zuhause mit aktueller Technik Tot ist.
redpanther
2024-08-30, 12:25:32
Erzähl das bitte mal unserer IT... :freak:
Oft kann man mit denen auch sprechen.
Habe gerüchte weise auch gehört, da arbeiten auch nur normale Menschen.
Die haben bestimmt auch schon mal was vom TotalCommander und Consorten gehört. Sind jetzt ja nicht so wahnsinnig teure SW Pakete, oder?
Lurtz
2024-08-30, 12:59:27
Erzähl das bitte mal unserer IT... :freak:
Unternehmens-IT ist eh nicht zu retten. Bei uns kann man jetzt nicht mal mehr einstellen, dass man seine Browser-Tabs bitte wiederherstellen möchte.
Cubitus
2024-08-30, 13:02:31
Sprechen ja, aber Ohne Ticket geht gar nichts.
Muss ja alles seine Ordnung haben und fürs Audit und für die KPIs protokolliert sein. :wink:
Asaraki
2024-08-30, 13:10:13
Wüsste nicht das es jemals einen gegeben hätte. Lass mich aber gerne eines besseren belehren.
Die Hersteller haben sich aber scheinbar darauf geeinigt, das 3D für Zuhause mit aktueller Technik Tot ist.
Z.b der LG 65EF950V, OLED und Polfilter. Spiele gerade shadow of the tomb raider in SBS, aber halt wegen dem alten Panasonic in 1080, mehr kann er in 3D nicht :-/
Ist nicht wirklich perfekt umgesetzt, aber der Effekt ist einfach Sweet wenn man irgendwo rumkrabbelt
Es kommen immer noch blurays raus, Ready Player One z.b ist in 3D einfach ein anderer Film. Die renderszenen sind dann absolut top und sehen nicht so billig aus wie sonst
Aber mein OLED hat halt das viel bessere Bild ^^
Angeblich kommt bald eine T Serie von LG mit „transparentem Panel“(?) und 3D, Ich bleibe dran ^^
Ja, gleich um die Ecke. Nennt sich "Tankstelle".
Gleich um die Ecke ist aber nicht daheim, und gleich um die Ecke gibts auch die E-Ladestation
Erzähl das bitte mal unserer IT... :freak:
Gerne, sende mir die Kontaktdaten, eine Einzelplatzlizenz für Totalcommander würde ich sogar spenden
Nightspider
2024-09-15, 21:10:34
BOE developed 5,000 nits tandem 4K 0.9" OLED microdisplays
During the company's 2024 Innovation Partner Conference, BOE unveiled its latest OLED microdisplay. The display is a 0.9" 4K (6020 PPI) panel, that is based on a tandem OLED architecture. It achieves a maximum brightness of 5,000 nits.
https://www.oled-info.com/boe-developed-5000-nits-tandem-4k-09-oled-microdisplays
Researchers achieve OLED displays boasting 84,000 PPI, with the world's smallest OLED pixels
Researchers from ETH Zürich and the Huazhong University of Science and Technology developed a new scalable fabrication technology that enables the deposition of extremely small OLED pixels. The so-called nano-OLEDs achieve a pixel density of 84,000 PPI, or even higher. The pixel size is around 100 nm, the smallest pixels ever reported.
The method is based on direct nanomolecular patterning of the OLED materials, realized by self-aligned evaporation through nanoapertures fabricated on a free-standing silicon nitride film adhering to the substrate. The researchers report that the average nano-OLED EQEs is up to 10%.
The researchers further say that at the subwavelength scale, individual pixels act as electroluminescent meta-atoms forming metasurfaces that directly convert electricity into modulated light. The diffractive coupling between nano-pixels enables control over the far-field emission properties, including directionality and polarization.
:| :eek:
https://arxiv.org/pdf/2404.05336
https://www.oled-info.com/researchers-achieve-oled-displays-boasting-84000-ppi-worlds-smallest-oled
Sardaukar.nsn
2024-09-15, 21:21:35
Cyberpunk 2077 Implantate kommen näher :freak:
basix
2024-09-16, 08:34:39
Schon interessant der Gedanke, dass die Pixel <Lambda gross sind und sich damit neue Möglichkeiten eröffnen.
Im Paper wird auch on-Chip Kommunikation mit optischen Mitteln erwähnt, welche man allenfalls mit solchen Verfahren realisieren könnte.
ChaosTM
2024-09-16, 09:03:32
BOE developed 5,000 nits tandem 4K 0.9" OLED microdisplays
https://www.oled-info.com/boe-developed-5000-nits-tandem-4k-09-oled-microdisplays
Researchers achieve OLED displays boasting 84,000 PPI, with the world's smallest OLED pixels
:| :eek:
https://arxiv.org/pdf/2404.05336
https://www.oled-info.com/researchers-achieve-oled-displays-boasting-84000-ppi-worlds-smallest-oled
Das Ready Player One Skibrillen Headset rückt näher.
Fragman
2024-09-16, 09:22:25
5000nits direkt an den Augen?
Scheint mir schon leicht fahrlässig zu sein...
ChaosTM
2024-09-16, 09:27:07
Das würde dem Begriff "augenausbrennend" einen realen Touch verleihen. ^^
Ist ja nur die Maximalhelligkeit.
dargo
2024-09-16, 09:46:45
Ist ja nur die Maximalhelligkeit.
Nur ist gut. :tongue: Stelle dir mal einen technischen defekt vor wo das Teil dann tatsächlich auf den max. Wert springt. Wie viele Nits hat eigentlich so ein Lichtbogen beim schweißen? :D
Exxtreme
2024-09-16, 09:53:03
Beim Schweissen ist nicht die Helligkeit das Problem sondern das UV-Licht. Das kann zur Netzhautablösung führen.
dargo
2024-09-16, 09:55:55
Die Helligkeit ist trotzdem übel.
Wie viele Nits hat eigentlich so ein Lichtbogen beim schweißen? :D
Nits haben damit wenig zu tun, du kannst auch 0 nits haben und dir die Augen wegbrennen.
Nits beziehen sich auf die wahrgenommene Helligkeit, die Schädlichkeit von Licht bzw. genauer elektromagnetischer Strahlung kommt aber nicht in erster Line von der Intensität, sondern von der Wellenlänge, und Wellenlängen die sich Außerhalb des sichtbaren Bereichs befinden und damit 0 nits erzeugen, sind da viel schädlicher.
Schweißen ist nicht nur wegen der Helligkeit gefährlich sondern vor allem wegen dem Anteil unsichtbarer UV-Strahlung im Lichtbogen.
ChaosTM
2024-09-16, 10:22:38
Eine Blendgranate hat 6-8Mio Candela und macht auch nicht gleich blind.
Die 170-180Db sind das schon gefährlicher fürs trommelnde Fell
Daredevil
2024-09-16, 11:36:16
5000nits direkt an den Augen?
Scheint mir schon leicht fahrlässig zu sein...
Je nach Linsensystem des VR Headsets geht beim Transfer Display > Auge Helligkeit verloren, deswegen ist das jetzt nicht leicht übertragbar zum Blick auf das direkte Display.
Auf Reddit schreiben manche AVP Nutzer, dass effektiv eher 250-300 Nits ankommen, was ich gefühlt bestätigen kann, denn das HDR auf meinem LG C3 "poppt" deutlich mehr, auch wenn die Displays in der AVP mehrere tausend Nits haben. Insofern können Displays in jeglichen VR Display gerne noch heller sein, ohne das einem der Augapfel weggebrannt wird. :D
Wichtig ist hier jedoch nicht unbedingt die maximale Helligkeit, sondern die Tandem OLEDs. Ähnlich wie bei CPUs ist es deutlich effizienter und langlebiger, zwei Displays mit 500Nits leuchten zu lassen als ein einzelnes bei 1000Nits ( 1 Kern bei 6Ghz vs. 2 Kerne bei 3Ghz = Max Effizienz ). Das iPad Pro 2024 wird dadurch nicht nur durchgehend heller, sondern bleibt auch kühler und verbraucht natürlich weniger Energie. Da die Zellen nicht auf max Karacho laufen, verbrauchen sie sich zudem auch gleichmäßig und langsamer. Tandem OLED ist quasi die "Multicore Technologie" der OLED Displays und die aktuellen Single OLEDS sind ein Intel P4. :D
5000nits direkt an den Augen?
Scheint mir schon leicht fahrlässig zu sein...
Lebst du im Keller? An einem sonnigen Tag können draußen schon mal 10000nits auf dich "einprasseln".
Der_Korken
2024-09-16, 12:59:26
Kann man eigentlich schon nächstes Jahr mit Tandem-OLEDs in Monitoren rechnen oder werden die wieder erst bedient, nachdem die Technologie bereits mehrere Jahre in allen anderen Bereichen etabliert ist?
Asaraki
2024-09-16, 13:05:49
LG baut die schon für Laptops aktuell, denke Monitore sollten 2025 zumindest auf den roadmaps erscheinen
wolik
2024-09-16, 13:37:46
5000nits direkt an den Augen?
Scheint mir schon leicht fahrlässig zu sein...
Das Problem sind natürlich nicht die 5.000 Nits, sondern der plötzliche Wechsel von einem dunklen Bild zu einer 100% weißen Logo-Oberfläche. Es gibt genug Spiele, die dafür schon längst verklagt werden sollten.
Nightspider
2024-09-16, 14:54:54
Kann man eigentlich schon nächstes Jahr mit Tandem-OLEDs in Monitoren rechnen oder werden die wieder erst bedient, nachdem die Technologie bereits mehrere Jahre in allen anderen Bereichen etabliert ist?
Nope.
Sehr unwahrscheinlich.
Erstmal werden mobile Devices abgedeckt, bei denen es auch wichtiger ist.
Die Kosten für die Panels steigen ja schon ein Stück. 2026/2027 vielleicht
Könnte aber auch noch länger dauern wenn schon mit einer Licht emmitierenden Schicht 1500 Nits und aufwärts erreicht werden können.
Der_Korken
2024-09-16, 15:43:26
Könnte aber auch noch länger dauern wenn schon mit einer Licht emmitierenden Schicht 1500 Nits und aufwärts erreicht werden können.
Die Peak-Helligkeit könnte mir egaler nicht sein. Mir geht es nur um die Haltbarkeit. Aber wahrscheinlich ist Pessimismus hier erstmal angebracht.
ChaosTM
2024-09-16, 16:22:50
Wer sich gröbere Sorgen bezüglich des Einbrennens der Taskleiste oder der Desktop icons macht, kann sich das freie Tool AutoHideDesktopIcons mal anschauen.
Damit kann man icons und die Taskleiste entweder zeitgesteuert oder per Mausklick wegblenden.
Zusätzlich kann man den Hintergrund auf eine Farbe, zb. Schwarz, umstellen (lassen).
Relex
2024-09-16, 18:07:16
Das Problem sind natürlich nicht die 5.000 Nits, sondern der plötzliche Wechsel von einem dunklen Bild zu einer 100% weißen Logo-Oberfläche. Es gibt genug Spiele, die dafür schon längst verklagt werden sollten.
So sieht's aus.
Das Auge muss sich immer erst adaptieren. Quasi wie eine Blendenöffnung einer Kamera.
Der Helligkeitsumfang für eine bestimmte Öffnung der Iris ist relativ stark begrenzt. Alles was zu viel ist blendet schmerzhaft so lange bis sich die Iris zusammengezogen und adaptiert hat.
Um den gesamten Helligkeitsumfang des Auges auszureizen reichen in einem dunklen Raum wahrscheinlich 1000 nits, meinetwegen allerhöchstens 2000 nits punktuell bereits aus.
10.000 nits und mehr wird man in einem dunklen Raum niemals nutzen können. Die Subjektive Helligkeit wäre SEHR viel höher, als die gleiche Helligkeit draußen an einem hellen Tag mit entsprechend adaptierten Augen. 10.000 nits im dunklen raum wäre wahrscheinlich vergleichbar wie ein blick vom taghellen Raum aus dem Fenster direkt in die Sonne. Damit kann man sich sehr wohl die Netzhaut kaputt machen.
Platos
2024-09-16, 18:13:23
Halte solche Hellogkeiten auch für Blödsinn (aber auch schon ohne Szenenwechsel).
Das mit dem Szenenwechsel ist aber nicht nur bei Spielen so. Bei Filmen gibt es das meiner Erfahrung nach auch immer öfter und es nervt einfach nur, da ich dann oft einfach die Augen schliessen muss, weil es so hell ist (und ich habe mein Fernseher ja eigentlich extrem dunkel eingestellt und der kann auch auf 100% Helligkeit niemals ao viel, wie neue TVs).
Mit den immer weiter steigenden, absurden Helligkeitswerten grenzt es dann irgendwann wirklich fast achon an Körperverletzung xD
Relex
2024-09-16, 18:17:53
Wenn ein Format wie Dolby Vision oder HDR10+ mit Metadaten genutzt wird, dann sollte der TV unabhängig von seiner Maximalhelligkeit das Bild so hell anzeigen, wie es vorgesehen ist. Egal ob er 1000 oder 10.000 nits kann.
Von daher hätten die Produzenten da volle Kontrolle.
Und trotzdem ist es jetzt bereits störend. Und das selbst auf meinem LG, der punktuell nur max. 800 nits kann.
Selbst ein Himmel mit 300-400 nits brennt einem nach einer dunklen Szene gefühlt die Netzhaut weg.
Ich hatte es im Monitor Thread schon gesagt. Die helligkeitswahn ist sinnfrei. Ein bisschen was kann man sicher noch rausholen, gerade in der Fläche und wenn die Produzenten auf den Zuschauer acht geben. Aber ansonsten ist der status quo schon relativ nahe an "as good as it gets". Mehr helligkeit wäre dann nur noch für entsprechend hellere Räume zu gebrauchen. Wobei da aber grundsätzlich die durchzeichnung in dunklen Szenen kompromittiert ist (der iris sei "dank") und man künstlich aufhellen müsste, um in dunklen Szenen was zu erkennen.
Nightspider
2024-09-16, 18:53:51
Die Peak-Helligkeit könnte mir egaler nicht sein. Mir geht es nur um die Haltbarkeit. Aber wahrscheinlich ist Pessimismus hier erstmal angebracht.
Helligkeit und Haltbarkeit korrelieren.
Die Haltbarkeit steigt ja im gleichen Maße, wenn man die Helligkeit nicht voll aufdreht und das Panel noch viele Reserven hat.
Wärme ist schädlich für die organischen Stoffe. Ich glaube sogar die Haltbarkeit skaliert zum Teil sogar exponentiell mit reduzierter Maximalhelligkeit.
wolik
2024-09-16, 19:57:55
So sieht's aus.
Das Auge muss sich immer erst adaptieren. Quasi wie eine Blendenöffnung einer Kamera.
Der Helligkeitsumfang für eine bestimmte Öffnung der Iris ist relativ stark begrenzt. Alles was zu viel ist blendet schmerzhaft so lange bis sich die Iris zusammengezogen und adaptiert hat.
Um den gesamten Helligkeitsumfang des Auges auszureizen reichen in einem dunklen Raum wahrscheinlich 1000 nits, meinetwegen allerhöchstens 2000 nits punktuell bereits aus.
10.000 nits und mehr wird man in einem dunklen Raum niemals nutzen können. Die Subjektive Helligkeit wäre SEHR viel höher, als die gleiche Helligkeit draußen an einem hellen Tag mit entsprechend adaptierten Augen. 10.000 nits im dunklen raum wäre wahrscheinlich vergleichbar wie ein blick vom taghellen Raum aus dem Fenster direkt in die Sonne. Damit kann man sich sehr wohl die Netzhaut kaputt machen.
Mein Fernseher schafft 3000 Nits, aber das kommt immer noch nicht annähernd an das heran, was man draußen sieht. Ich vergleiche das abends oft mit Autoscheinwerfern oder Rücklichtern. Es ist noch weit entfernt davon. Natürlich ist das auch nicht besonders wichtig.
Mein Fernseher schafft 3000 Nits....
Der hier (https://www.rtings.com/tv/reviews/samsung/qn900b-8k-qled#test_179)?
00-Schneider
2024-09-16, 22:25:17
Mein Fernseher schafft 3000 Nits.
Bist du besoffen?
ChaosTM
2024-09-16, 22:37:12
3000 Nits TVs sind Realität - ganz ohne Sauferei.
00-Schneider
2024-09-16, 22:46:01
Gibts die schon zu kaufen?
10.000 nits im dunklen raum wäre wahrscheinlich vergleichbar wie ein blick vom taghellen Raum aus dem Fenster direkt in die Sonne. Damit kann man sich sehr wohl die Netzhaut kaputt machen.
Mit einem Blick direkt in die Sonne kann man sich auch draußen die Augen kaputt machen, dass muss man nicht unbedingt durchs Fenster machen.
ChaosTM
2024-09-16, 23:18:55
Gibts die schon zu kaufen?
Gibt ang. einige mit der Helligkeit aber bezüglich QLEDs ist mein Informationsstand sehr begrenzt.
So sieht's aus.
Das Auge muss sich immer erst adaptieren. Quasi wie eine Blendenöffnung einer Kamera.
Wenn es um die Subjektive Blendempfindung geht ja. Wenn es um tatsächliche Schäden am Auge geht nein.
aceCrasher
2024-09-17, 09:57:55
Gibts die schon zu kaufen?
https://www.rtings.com/tv/reviews/hisense/u8-u8n
"Peak 10% Window: 3,691 cd/m²"
Relex
2024-09-17, 11:10:13
Mein Fernseher schafft 3000 Nits, aber das kommt immer noch nicht annähernd an das heran, was man draußen sieht. Ich vergleiche das abends oft mit Autoscheinwerfern oder Rücklichtern. Es ist noch weit entfernt davon. Natürlich ist das auch nicht besonders wichtig.
Ein Autoscheinwerfer blendet ja auch ziemlich extrem und das Auge und netzhaut wird maximal gestresst. Das ist ja genau das was ich sagte. Das ist bereits deutlich über der Helligkeitsrange die das Auge ohne weitere Adaptierung der Iris erfassen kann. So eine helligkeit trägt absolut nichts mehr zur Bildqualität bei. Eher wird sie gemindert, da durch die Blendung die Iris (mit Verzögerung) adaptiert und du dafür dann weniger Details in den Schatten siehst. Das sollte auch jeder Autofahrer nachvollziehen können. Und genau das ist ja der Knackpunkt. Sobald du Helligkeiten erreichst, für die die Iris adaptieren muss, saufen dir die Schwarzwerte ab. Du hast also ganz objektiv einen Qualitätsverlust!
Abgesehen davon gibt es aber kaum Inhalte, die 3000 nits ausreizen.
Die meisten Filme und Serien erreichen max. 1000 nits. sehr häufig aber auch viel weniger.
Wenn du deinem TV also nicht mit irgend ner Einstellung sagst, er soll das Bild 3x so hell machen, wie vorgesehen, dann siehst du von den 3000 nits die allermeiste Zeit eh nichts.
Mit einem Blick direkt in die Sonne kann man sich auch draußen die Augen kaputt machen, dass muss man nicht unbedingt durchs Fenster machen.
Ich weiß, ich rede nur vom subjektiven Eindruck. Wenn man schon länger draußen in der Sonne steht ist ein versehentlicher Blick richtung Sonne deutlich weniger schmerzhaft, als wenn man aus der verschatteten Wohnung nach draußen schaut.
Ein Autoscheinwerfer blendet ja auch ziemlich extrem und das Auge und netzhaut wird maximal gestresst.
Weder das Auge noch die Netzhaut wird gestresst, maximal das Gehirn das mit der Verarbeitung der Informationen nicht hinterherkommt.
Wenn man schon länger draußen in der Sonne steht ist ein versehentlicher Blick richtung Sonne deutlich weniger schmerzhaft, als wenn man aus der verschatteten Wohnung nach draußen schaut.
Schmerzhaft ist da gar nichts, die Netzhaut hat kein Schmerzempfinden, selbst wenn du dich zwingst direkt in die Sonne zu schauen bis die Netzhaut geschädigt ist spürst du keine Schmerzen.
Abgesehen davon gibt es aber kaum Inhalte, die 3000 nits ausreizen.
Die meisten Filme und Serien erreichen max. 1000 nits. sehr häufig aber auch viel weniger.
Es gibt durchaus Filme in einem 4000nits Container.
PatkIllA
2024-10-06, 16:47:53
Mein OLED65CX9LA ist jetzt ein paar mal nicht angegangen. Stecker rausziehen etwas warten und es ging wieder.
KLingt nach Netzteil oder? Wie kriegt man denn wohl die Teile Nummer raus ohne erst das Teil auseinander zu nehmen? Obwohl das nicht allzu schwierig zu sein scheint. Oder gibt es da noch kaputten Kondensator tauschen?
Da macht man sich Sorgen über Einbrennen und dann sowas..
Blase
2024-10-06, 17:38:25
So rein aus Sicht eines Gamers - Unterscheidet sich ein "alter" CX von einem aktuellen C4? Von Jahr zu Jahr tut sich wahrscheinlich so gut wie gar nichts innerhalb der Generationen, oder?
MfG Blase
Nightspider
2024-10-06, 17:46:29
@Blase: Die Panels sind in den letzten Generationen halt etwas heller geworden aber für Konsolen-Gamer hat sich nicht mehr viel verändert.
PC-Gamer können sich über den 144Hz Modus support freuen.
Die G Serie punktet schon mit einem guten Helligkeitsboost, der auch in manchen Spielen gut etwas ausmacht, wenn du tagsüber zockst.
Was TVs angeht bist aber auch du tendenziell im falschen Thread. ;)
Mein OLED65CX9LA ist jetzt ein paar mal nicht angegangen. Stecker rausziehen etwas warten und es ging wieder.
KLingt nach Netzteil oder? Wie kriegt man denn wohl die Teile Nummer raus ohne erst das Teil auseinander zu nehmen? Obwohl das nicht allzu schwierig zu sein scheint. Oder gibt es da noch kaputten Kondensator tauschen?
Da macht man sich Sorgen über Einbrennen und dann sowas..
Falscher Thread:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=584732&page=100&highlight=OLED
00-Schneider
2024-10-06, 18:38:35
So rein aus Sicht eines Gamers - Unterscheidet sich ein "alter" CX von einem aktuellen C4? Von Jahr zu Jahr tut sich wahrscheinlich so gut wie gar nichts innerhalb der Generationen, oder?
MfG Blase
Die Nightspider richtig sagt: Musst auf die teurere G-Klasse wechseln für mehr spürbar mehr Helligkeit.
CX auf C4 ist ein eher sinnloses Upgrade, da der C4 keine neuen Features ggü. dem CX hat.
Blase
2024-10-06, 22:24:15
Die Nightspider richtig sagt: Musst auf die teurere G-Klasse wechseln für mehr spürbar mehr Helligkeit.
CX auf C4 ist ein eher sinnloses Upgrade, da der C4 keine neuen Features ggü. dem CX hat.
Danke euch. Behalte das mit der G-Klasse im Hinterkopf. Noch tut es der CX. Ob 120 oder 144 Hz macht den Kohl nicht fett. Wenn es mal auf 240 Hz hoch geht oder ein anderes Killerfeature kommen mag, schaue ich noch einmal...
MfG Blase
Nightspider
2024-10-06, 22:26:54
Nächstes Jahr kommen Gaming OLED Monitore mit 5120*2160er Auflösung in 34 und 39 Zoll mit 240Hz.
Vielleicht ist da was für dich dabei aber dafür bitte den "neue monitore" Thread benutzen. :)
Mandalore
2024-10-07, 21:49:24
Hast du vllt. die Roadmap (da ich die leider nirgends finde), was Samsung für Panels im Bereich QD-OLED anbieten wird für 2025?
Nightspider
2024-10-07, 23:21:10
Ich glaube für Samsung gibts bisher keine offizielle 2025 QD-OLED Roadmap.
LG:
https://www.pcgameshardware.de/screenshots/original/2024/01/LG-Roadmap-2025-pcgh.jpg
https://www.pcgameshardware.de/screenshots/original/2024/01/LG-Roadmap-2025-pcgh.jpg
Lurtz
2024-10-08, 14:21:39
Warum sind QD-OLED-Panels eigentlich so viel verbreiteter als WOLEDs? Sehen die Hersteller die als überlegen an? Hat die Fertigung mehr Kapazitäten bzw. ist billiger?
Sardaukar.nsn
2024-10-08, 14:34:05
@Nightspider: Von dem 45" 21:9 5120x2160 habe ich schon lange nichts mehr gehört. Wäre für mich das einzig denkbare Upgrade zum 42"er LG C2. Zusammen mit ner 5090 :freak:
Tesseract
2024-10-08, 15:56:23
Warum sind QD-OLED-Panels eigentlich so viel verbreiteter als WOLEDs? Sehen die Hersteller die als überlegen an? Hat die Fertigung mehr Kapazitäten bzw. ist billiger?
liegt wohl haupsächlich daran dass samsung früher in der massenproduktion war und darauf aufbauend verträge geschlossen wurden.
Außerdem ist sind die Horrorstories über Einbrennen bei OLED eine effektive PR.
Thunder99
2024-10-11, 09:04:37
Sehe QD-OELD etwas in Vorteil und war auch früher am Markt.
Wird vielleicht auch eher angenommen am Markt.
Weltraumeule
2024-10-18, 13:39:57
Mich nervt color banding beim LG C2 40'' extrem. Bei jedem Farbübergang, sei es Himmel, Nebel, Logos, css gradient, Steam Oberfläche. Es gibt keinen sauberen Übergänge! Manche sagen, es solle am SDR Inhalt liegen? Mein vorheriger 32 Zoll VA hatte ebenfalls keine schönen Übergänge, aber war nicht so extrem.
Und der vorherige TN Panel (2007-2022 )war sogar noch besser in der Hinsicht! Nur bei blauen Himmelsfoto gab es unsauberes color banding, aber ansonsten bei Nebel, Steam Oberfläche, css gradient, Logos, alles sauber trotz SDR und den TN-typischen limitierten 16,2 Millionen Farben.
Woran kann das beim C2 liegen?
redpanther
2024-10-18, 13:49:28
Ich weiß es natürlich nicht spezifisch bei dir, aber ein höherer Kontrast bringt solche Sachen imho auch deutlicher hervor.
Kannst ja mal austesten, zB mit: https://www.eizo.de/monitortest/
AintCoolName
2024-10-18, 14:01:04
Schonmal Kalibriert?
Es gibt eine App im Windows Store extra für HDR Displays.
"Windows HDR Calibration (https://apps.microsoft.com/detail/9n7f2sm5d1lr?hl=en-us&gl=US)".
Es gab dann noch ein Tool von Vesa aber das scheint nicht mehr im Shop zu sein.
https://www.computerbase.de/2018-05/vesa-displayhdr-test/
alles sauber trotz SDR und den TN-typischen limitierten 16,2 Millionen Farben.
Dithering (wie bei TN üblich) hilft gegen color-banding
Mit https://github.com/Maassoft/ColorControl kann man bei NVIDA unter Settings... / Test Dithering ein paar Einstellungen probieren.
Nightspider
2024-10-21, 11:16:01
@all:
Bitte mal mit den TV Problemchen in dem Thread "OLED-TV Erfahrungen? (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=584732&page=100&highlight=OLED)" bleiben.
BOE launches its Q10 AMOLED display, receives DisplayMate's highest ever rating
https://www.oled-info.com/boe-launches-its-q10-amoled-display-receives-displaymates-highest-ever-rating
BOE launched a new flexible AMOLED display, branded as Q10 AMOLED, that has a new OLED stack and delivers increased performance - the company said that compared to its previous flagship OLED stack, it enhances the peak brightness by 12.5%, the lifetime by 33%, and it reduces the power consumption by 10%. The company also says the color saturation and response time is increased.
The new Q10 display will debut at three smartphones, the OnePlus 13, OPPO Find X8 and Vivo iQOO 13. That specific screen is a 6.8" 3168x1440 (510 PPI) 120Hz LTPO AMOLED. DisplayMate tested the new display, and says it is the world's highest performing mobile display ever, seting or matching 21 performance records. It is the first display to receive DisplayMate's A++ rating.
The new Q10 AMOLED has the world's highest color accuracy (of white, and also absolute color accuracy), it has the highest screen brightness (800 nits, at 100% APL), and it has the lowest screen reflectance (4.6%). This is a very impressive
Wird dann wohl Richtung 5000 bis 6000 Nits gehen.
Lifetime +33% ist ein ordentlicher Sprung.
Mich nervt color banding beim LG C2 40'' extrem. Bei jedem Farbübergang, sei es Himmel, Nebel, Logos, css gradient, Steam Oberfläche. Es gibt keinen sauberen Übergänge! Manche sagen, es solle am SDR Inhalt liegen? Mein vorheriger 32 Zoll VA hatte ebenfalls keine schönen Übergänge, aber war nicht so extrem.
Das kommt vom höheren Nativen Farbraum, ohne sRGB-Modus zeigen sRGB-Inhalte logischerweise mehr Banding.
Savay
2024-10-22, 17:17:13
Woran kann das beim C2 liegen?
Also Grading Probleme sehe ich vor allem bei SDR Content der im HDR Modus angezeigt wird...
Da nimmt sich weder mein 65C3 noch der MSI 321 URX wirklich viel.
Das wird durch den höheren Kontrast halt auch einfach nochmal offensichtlicher als es bspw. bei nem IPS ist.
Weltraumeule
2024-10-27, 15:23:05
Ich weiß es natürlich nicht spezifisch bei dir, aber ein höherer Kontrast bringt solche Sachen imho auch deutlicher hervor.
Kannst ja mal austesten, zB mit: https://www.eizo.de/monitortest/
Huhu, ich habe deine Anleitung mal befolgt und HDR in non HDR Spielen per Reshade unter Windows 10 getestet.
Allerdings nur in zwei Spielen, auch noch Indiespiele. Crime Scene Cleaner und Golf it.
Und bei Liliums inverse tone mapping auch diverse Einstellungen durchgetestet.
Leider wird das Bild in Crime Scene Cleaner durchweg schlechter, in den dunklen Bereichen erkennt man nichts mehr.
Bei Golf It dagegen wirkt es recht gut würde ich sagen, der Himmel und von der Sonne beleuchtete Flächen wirken heller und realistischer. Aber mir eigentlich zu hell :biggrin: Daher bleibe ich erstmal bei SDR, mit Bloom und BloomingHDR sieht das ähnlich gut aus, ohne zu blenden.
Habe es noch mit Half Life 2 Lost Coast versucht, aber bei dem uraltem DX9 Spiel hat es nicht geklappt zu installieren.
Muss mal in Zukunft bei anderen moderneren AAA Spielen dieses HDR per Reshade testen. Wobei ich Anfang des Jahres eh auf Windows 11 umsteige und wahrscheinlich bei Auto HDR oder dem RT HDR bleibe.
Wusste auch nicht wie ich den LG C2 42 richtig konfigurieren soll. HDR aktiviert, dann ging Game Optimizer an, habe auf HGiG gestellt, Oled Brightness auf 70, Kontrast auf 100. Dann im Win 10 Kalibrierungsmenu den Regler hin und her geschoben, war nicht sicher was korrekt ist.
Was mich stutzig gemacht that, sobald HDR lief, summte der Monitor etwas und ich hatte eine Art "Filmkorn" oder "Rauschen" auf dem Bild, feine senkrechte Linien welche sich hin und her bewegten. Je nachdem wo sich der Schieberegler befand, waren sie mal stärker, mal schwächer :frown: Was kann das sein?
Also bisher war der erste Ausflug in die Welt des HDR ernüchternd für mich. Besitze den C2 seit halbem Jahr, scheu aber auch keine Filme oder Serien.
Nightspider
2024-10-27, 16:09:43
Könnte ein Mod den ganzen Kram mal verschieben der mit TV und Gaming zu tun hat ?
ChaosTM
2024-10-27, 16:14:54
Die Eule hat ein paar gute Punkte angesprochen,
trotz dem Textwalls. Das Hätte man in eine Satz komprimieren könne..
Tobalt
2024-10-27, 16:40:04
Eule kleine Vermutung? Hast du irgendwelches Sharpen am Monitor auf einen Wert über Null/50/Neutral/Aus gestellt? Diese Sharpenartefakte könnte man auch als Fringing fehlinterpretieren
Weltraumeule
2024-10-27, 16:53:30
Eule kleine Vermutung? Hast du irgendwelches Sharpen am Monitor auf einen Wert über Null/50/Neutral/Aus gestellt? Diese Sharpenartefakte könnte man auch als Fringing fehlinterpretieren
Jegliches Schärfen ist ausgestellt...
Weltraumeule
2024-10-27, 19:37:16
Mus mal schauen ob dieses Phänomen nur auftritt, wenn helle Windowsfenster mit HDR zu sehen sind und der 100 % Kontrast und 70 % Helligkeit einfach zu viel für den Monitor sind, weil der dann auch leicht pfeift. Glaube im Spiel wenn eher "normal" helle Flächen z.B.: Himmel zu sehen ist, könnte das Phänomen verschwinden. Muss ich mal die Tage über testen.
Gibt es ein gutes kostenloses Spiel oder eine Demo mit eigenem HDR, wobei das Spiel selbst nicht mehr als 50 GB auf der Platte belegt? Würde gerne echtes HDR testen.
redpanther
2024-10-28, 09:32:54
Deine "HDR Probleme" sind hier tatsächlich OT.
Nur hier kurz ein Link mit den angebelich besten HDR Games in 23: https://www.youtube.com/watch?v=VcMr9Mdhdw4
Gibt auch genügend HDR Demo Filmchen auf YT, einfach nach HDR Demo suchen. Wenn der Desktop auf HDR eingestellt ist, laufen HDR Clips auch in HDR, kannst es in den Qualli settings prüfen, da muss HDR stehen.
w0mbat
2024-10-28, 12:31:09
Den MSI MEG 342CDE QDOLED (https://de-store.msi.com/collections/black-friday-early-bird-msi-offical-e-shop/products/meg-342cde-qd-oled-gaming-monitor) gibts mit Code "MSIBFMNT30 oder MSIBFMNT20" gerade für 639€.
dildo4u
2024-10-31, 05:53:19
2024 42 Zoll LG C4 für 800€!
https://geizhals.de/lg-oled42c47la-a3162828.html
Sardaukar.nsn
2024-10-31, 09:28:49
Mein 42"C2 vor zwei Jahren war einer der besten Hardware Anschaffungen. Daumen hoch!
Cubitus
2024-10-31, 09:42:12
Hatte mein C3 Anfang dieses Jahres auch für 799 Euro gekauft.
Best Bang for Bucks..
Kriegsgeier
2024-10-31, 10:05:04
taugt es als Gamingmonitor?
dildo4u
2024-10-31, 10:26:18
Ja macht sich sehr gut das Modell kann 4k 144hz VRR wenn deine Karte HDMI 2.1 kann.
Kriegsgeier
2024-10-31, 10:32:34
auch im Windowsalltag noch ok?
Evil Ash
2024-10-31, 10:53:15
Mit dem C2 hier nach 2 Jahren noch alles ok. Auch Home-Office mit hellen Flächen. Allerdings habe ich Pixel-Shift an, stört mich nicht so sehr.
Cubitus
2024-10-31, 10:55:03
auch im Windowsalltag noch ok?
Jap, spiele und arbeite damit :)
Ebenfalls Pixel-Shift on, und eben StandBy aktviert wegen dem nicht störenden Pixel-Refresh..
dargo
2024-10-31, 17:17:02
del
BlacKi
2024-10-31, 17:28:59
Ja macht sich sehr gut das Modell kann 4k 144hz VRR wenn deine Karte HDMI 2.1 kann.ist das der erste lg oled tv der 144hz kann?
Sardaukar.nsn
2024-10-31, 22:53:26
Davor halt 120hz, aber macht das was aus?
Der Gamechanger war der C9 OLED von 2019. Mit Hdmi 2.1, VRR, 4K, 120Hz, VRR, HDR, ect.
Fünf Jahre später haben high-end PC auch nur mit DLSS FG usw. die Möglichkeit dieses geile Display anständig zu bespielen. Phantom Liberty, Pathracing, großer OLED, HDR, 100+FPS... oh boy.
Nightspider
2024-10-31, 22:57:24
LEUTE es gibt einen Thread für OLED TVs und Gaming Monitore.
Was ist so schwer daran?
TobiWahnKenobi
2024-11-01, 09:09:51
Davor halt 120hz, aber macht das was aus?
Der Gamechanger war der C9 OLED von 2019. Mit Hdmi 2.1, VRR, 4K, 120Hz, VRR, HDR, ect.
Fünf Jahre später haben high-end PC auch nur mit DLSS FG usw. die Möglichkeit dieses geile Display anständig zu bespielen. Phantom Liberty, Pathracing, großer OLED, HDR, 100+FPS... oh boy.
..schaue ich heute noch täglich drauf, wenn ich zuhause am schreibtisch sitze. der tuts bei mir schon etwas über vier jahre..
(..)
mfg
tobi
Nightspider
2024-11-01, 15:50:15
Researchers from SNU and Samsung identify a critical mechanism in OLED performance degradation, and use the knowledge to dramatically improve OLED efficiency and lifetime
https://www.oled-info.com/researchers-snu-and-samsung-identify-critical-mechanism-oled-performance
By controlling this phenomenon, the team achieved an increase in efficiency of over 50% for red, green, and blue phosphorescent OLEDs and extended the lifespan of blue OLEDs by more than 70%.
https://www.oled-info.com/sites/oled/files/2024-10/OLED-exciton-quenching-polaron-accumulation-SNU-SAIT.jpg
https://eng.snu.ac.kr/snuEng/bbs/BMSR00005/view.do?boardId=5442&menuNo=200152
Tobalt
2024-11-01, 17:46:07
Das sind tolle Neuigkeiten. Letztendlich ist es in der Praxis fast noch wichtiger, dass die Degradation über Alter und Stromdichte bekannt und *reproduzierbar* ist, als dass die Alterung insgesamt gering ist.
Solange man die Alterungskurve sehr genau kennt, kann die Software die Alterung ausgleichen. Ich hoffe mal dass diese Fortschritte in der Haltbarkeit also auch höchst reproduzierbar sind, damit wir am Ende hellere und langlebigere Panels bekommen :)
Leider ist die Möglichkeit für Feedback zur Leichtstärkenregulierung bei selbstleuchtenden Pixeln begrenzt.
ChaosTM
2024-11-01, 17:54:21
Wenn man nicht immer @ 100% Helligkeit fährt und dem Monitor gelegentlich eine Auszeit gönnt, dann gibt es keine echten Hindernisse mehr.
OLED oder LCD "donald". Das muss jeder für sich selbst entscheiden..
Slipknot79
2024-11-01, 19:37:35
Die monatliche Meldung zum Wunderakku. (y)
Selbst wenn man nun die Alterung hinauszögert, dann kommen die Hersteller her mit 4000 nits schon sind wir wieder beim Thema Alterung. (y)
BlacKi
2024-11-01, 20:39:31
Die monatliche Meldung zum Wunderakku. (y)
Selbst wenn man nun die Alterung herauszögert, dann kommen die Hersteller her mit 4000 nits schon sind wir wieder beim Thema Alterung. (y)stört die leute nicht, die schon bei 300nits die beleuchtung runterdrehen.
Nightspider
2024-11-01, 21:12:30
Selbst wenn man nun die Alterung hinauszögert, dann kommen die Hersteller her mit 4000 nits schon sind wir wieder beim Thema Alterung. (y)
Wenn die Lebensdauer und die max. Helligkeit zunehmen und die Effizienz um 50% steigt ist das doch genial.
Mobile Geräte halten mit einer Akkuladung immer länger durch, stationäre Anzeigen (Werbebanner, Haltestellenbildschirme, Anzeigen in Bussen und Bahnen) können mit langlebigen OLED Panels realisiert werden und sind auch bei heller Umgebung bzw. Sonnenschein gut ablesbar und Gaming Monitore können in wenigen Jahren uneingeschränkt für Office empfohlen werden.
Mein S24 Ultra hält schon 2 Tage durch bei normalem Gebrauch und wir sind auf dem Weg zu Smartphones mit 3 Tagen Laufzeit mit einer Ladung. Der neue Snapdragon Elite soll ja schon knapp 50% effizienter sein. Das die Displays bei der Effizienz mitziehen ist mindestens genauso wichtig.
Platos
2024-11-02, 15:27:19
stört die leute nicht, die schon bei 300nits die beleuchtung runterdrehen.
Kann man bei solchen 2000Nits Fernsehern überhaupt noch auf 100Nits runter regeln, ohne dass es fiebt, blinkt oder sonst was ? Oder überhaupt ?
AintCoolName
2024-11-02, 16:08:25
Treten diese Werte nicht nur bei <1% Bildfläche auf. Also Sonne spiegelt sich im Autolack und sowas.
BlacKi
2024-11-02, 16:18:47
Kann man bei solchen 2000Nits Fernsehern überhaupt noch auf 100Nits runter regeln, ohne dass es fiebt, blinkt oder sonst was ? Oder überhaupt ?wenn dann kann das oled besser als alle anderen, da sie selbst leuchtend sind. 100 nits sind schon wenig. der normale gamer hat früher so 200-250nits auf dem monitor gehabt. als dann nits cool wurden, fingen die hersteller an überall die beleuchtung zu erhöhen, welche dann wieder runtergeregelt werden, da eben so ein dauerhaft heller bildschirm hintergrund auf die dauer unangenehm ist. deshalb werden die max nits eigentlich auch nur im HDR bereich erreicht, weil HDR content nicht dauerhaft ist wie ne exeltabelle.
00-Schneider
2024-11-27, 18:16:24
LG OLED G5: Bildwiederholrate von 165 Hz bestätigt
So kann der LG OLED G5 laut der VESA nicht nur mit 165 Hz Bildwiederholrate aufwarten, sondern erhält eine ClearMR-Einstufung von 10.000. Das Vorgängermodell LG OLED G4 musste sich mit 144 Hz und 9.000 begnügen. Im Klartext sollte der LG OLED G5 also bei Bewegungen ein klareres Bild zeigen. Die 165 Hz dürften aber in der Praxis ansonsten nur für wenige Anwender tatsächlich Vorteile mit sich bringen. Primär sind sie für PC-Spieler mit mächtigen Gaming-Rechnern verlockend.
https://www.4kfilme.de/lg-oled-g5-bildwiederholrate-von-165-hz-bestaetigt/
ChaosTM
2024-11-27, 18:37:32
Ok, wollte mir schon bald einen 65er OLED neben/schräg hinter den 42er Monitor stellen.
Mehr Platz ist hier im Gaming Cave* leider nicht. Musste Raum für VR schaffen..
Warum nicht gleich 240hz?
300nits im Desktop Mode sind übrigens unsinnig. Haut dir die Augen ein, außer die Sonne scheint frontal herein.
* ist eigentlich das private Büro, aber es wird mehr gezockt als gearbeitet
Turrican-2
2024-11-27, 20:17:08
LG OLED G5: Bildwiederholrate von 165 Hz bestätigt
Ich hatte letztens den C4 (2024) hier und scheiterte daran, die beworbenen 144hz zu aktivieren. Lediglich 3840 x 2160 @ 120hz waren mir unter Win10 mit AMD 6800XT möglich. Was habe ich falsch gemacht?
Lurtz
2024-11-27, 21:19:48
Die LG TVs machen nicht nur Fortschritte. Offenbar hat man bei den 2024 TVs einen beschissen umgesetzten "Detail Enhancer" implementiert und das CPC von den PC-OLEDs ist auch aktiv:
https://github.com/Maassoft/ColorControl/issues/399#issuecomment-2299937826
aceCrasher
2024-11-28, 09:37:43
Ich hatte letztens den C4 (2024) hier und scheiterte daran, die beworbenen 144hz zu aktivieren. Lediglich 3840 x 2160 @ 120hz waren mir unter Win10 mit AMD 6800XT möglich. Was habe ich falsch gemacht?
Angeblich muss man im "Game Optimizer Menu" noch den 144Hz Mode aktivieren. Und HDMI Deep Colour muss wohl aktiv sein (sollte es aber eh).
Ich hatte letztens den C4 (2024) hier und scheiterte daran, die beworbenen 144hz zu aktivieren. Lediglich 3840 x 2160 @ 120hz waren mir unter Win10 mit AMD 6800XT möglich. Was habe ich falsch gemacht?
Evtl. das Kabel, bei Übertragungsraten die den Standard ausreizen ist die Qualität des Kabels durchaus relevant. Vor allem mit größeren Längen funktionieren die höchsten Einstellungen nicht immer stabil oder gar nicht.
Nostalgic
2024-12-13, 10:21:35
Eine Frage von jemand der sich seit 10 Jahren nicht mehr mit dem Thema OLED beschädigt hat:
Einer DER Nachteile war Einbrennen.
Wie stehts heute damit?
Ich hab noch den letzten Panasonic Plasma TV da war das auch ein Riesenthema aber seit 12 Jahren nichts davon bemerkt.
Besonders beim Thema Monitor wäre da aber ein No-Go oder?
Flusher
2024-12-13, 11:24:28
Eine Frage von jemand der sich seit 10 Jahren nicht mehr mit dem Thema OLED beschädigt hat:
Einer DER Nachteile war Einbrennen.
Wie stehts heute damit?
Ich hab noch den letzten Panasonic Plasma TV da war das auch ein Riesenthema aber seit 12 Jahren nichts davon bemerkt.
Besonders beim Thema Monitor wäre da aber ein No-Go oder?
Ist zwar nach wie vor ein Thema wird aber von modernen Panels weitestgehend vermieden durch verschiedene Massnahmen wie Orbiting oder regelmässige Panel-Refreshs.
Gibt imho heute keinen Grund keinen OLED Monitor zu kaufen.
Exxtreme
2024-12-13, 11:27:34
Alles, was leuchtet, nutzt sich ab. Deshalb wird das Einbrennen niemals komplett weg sein und wird bei bestimmten Aufgaben womöglich zum Problem. Also eine Entwicklungsumgebung würde ich jetzt nicht auf einem OLED-Bildschirm nutzen. Denn dort hat man die gleichen Menüs etc. exakt an der gleichen Stelle. Und das womöglich jahrelang.
Colin MacLaren
2024-12-19, 20:00:41
Wie ist die aktuelle Meinung zu den richtig schnellen Gaming-Monitoren? Ich überlege, ob ich von meinem 48CX auf einen LG 32GS95UE-B umzusteigen. Ist der @240 oder 480Hz wirklich deutlich sichtbar schneller als ein 48CX @120Hz mit BFI?
Kann nur von meinem 17" 240hz 1440p Laptop Display sprechen (vs. 138hz 42er OLED) und da hält sich der Unterschied doch in sehr engen Grenzen.
480 hingegen soll zb. lt. John Linneman von DF "the real thing" sein. Also quasi perfekte Bewegt-schärfe.
240 oder eben gar 480hz in modernen Spielen zu erreichen lassen die derzeitigen Recheneinheiten nicht wirklich - bzw. nur mit massiver Reduktion der Bildqualität - zu.
Mit mehr E-EI bzw. besserer, darauf basierender Zwischenbildberechnung könnte das aber in ein paar Jahren durchaus möglich werden.
Natives 4k/480 kann man sich aber definitiv abschminken.
Wenn du viele grafisch eher simple, kompetitive Spielezockst, dann ist es sicher einen Blick wert bzw. fast ein Muss.
Muss man einfach ausprobieren..
Colin MacLaren
2024-12-20, 11:18:35
Ich komme mit meinem Laptop auf 300fps in Marvel Rivals oder Overwatch und 250fps in CoD BO6. Mit dem geplanten 9800X3D System nächstes Jahr sollte das drin sein.
00-Schneider
2024-12-20, 12:19:59
Ich komme mit meinem Laptop auf 300fps in Marvel Rivals oder Overwatch und 250fps in CoD BO6. Mit dem geplanten 9800X3D System nächstes Jahr sollte das drin sein.
In welcher Milchglasauflösung? ;D
480p auf Ultra-Low_reicht für kompetitive High Speed Spiele locker. Zumindest im Death Match Mode.
Einfach auf jeden Pixelbrei schießen der sich bewegt. :D
Im Ernst..
Würde ich noch solche Dinger spielen, hätte ich garantiert so ein Gerät und keinen großen Opa Monitor mit Schnarchbildrate.
240fps erreicht man in 1080p (und auch 1440p) schon recht einfach. 480 ist aber schon eine andere Nummer...
Colin MacLaren
2024-12-20, 13:01:02
In FullHD halt, mit DLSS Leistung und Framegen. Der LG hat ja den FullHD 480Hz und 4K 240Hz.
In 13 Monaten läuft die Garantie des 42er Asus ab und dann wird er, wie fast alle meiner Geräte, an die Schwester samt Schwager vererbt.
Bin schon gespannt und hoffe, dass es bis dahin eine 21:9 OLED mit 2160 horizontalen Linien gibt. 240hz+ setze ich voraus und kleiner sollte er auch nicht sein.
Lt. Nightspider sind solche Geräte ja angekündigt.
00-Schneider
2024-12-20, 13:52:40
In FullHD halt, mit DLSS Leistung und Framegen. Der LG hat ja den FullHD 480Hz und 4K 240Hz.
Ähm, 1080p DLSS Performance sind 540p interne Renderauflösung. Und mit Framegen kommt auch ordentlich Latenz drauf, was den fps-Zuwachs größtenteils negiert.
aufkrawall
2024-12-20, 14:14:56
Wahrscheinlich bringt eine Minute mehr Aim Trainer mehr als 240Hz -> 480Hz.
Asaraki
2024-12-20, 14:29:08
Wahrscheinlich bringt eine Minute mehr Aim Trainer mehr als 240Hz -> 480Hz.
Möglich, aber wer in unserem Alter setzt sich bitte vor einen AimTrainer ^^ ich übe ja nicht einmal gross meine Instrumente ausser vor einem Konzert, da spiele ich die lieber frei von der Leber weg und hab Spass
Gleiches beim Gaming. Aber wenn mehr Hz bisschen helfen die altersbedingte Reaktionszeit zu negieren nimmt man das doch gerne mit :)
Platos
2024-12-20, 16:02:08
Altersbedingte Reaktionszeit negieren mit mehr Hz, was nur dann funktioniert, wenn man eine entsprechnd hohe Reaktionszeit hat, ist komplett widersprüchlich.
Wenn du eine altersbedingt niedrigere Reaktionszeit hast, wirst du den Unterschied (abseits von Placebo) erst recht nicht merken.
Und abgesehen davon: Abseits von E-Sport Titeln erreicht man allein wegen der CPU bzw. der Engine nicht mal 240FPS und schon gar nicht 480FPS. Und wenns um Reaktion geht und man dann z.B mit Framegen kommt, dann ist es natürlich noch widersprüchlicher.
Also kurz gesagt: Abseits von E-Sport geht 480Hz nicht für Leute, die niedrige Latenz haben wollen. Nur für Leute, die ein flüssigeres Bild haben wollen (dafür auf 540p rendern). Leute, die mehr Bewegtschärfe wollen, können ebenso nix mit 480Hz anfangen, da man dafür wieder in 540p rendern muss und daher jegliche Schärfe dahin ist (ultimative Bewegtschärfe wollen, dann aber mit DLSS kommen, wäre sowieso auch widersprüchlich).
Also ganz kurz gesagt: 480Hz wird nix für lange Zeit ausserhalb von E-Sport bzw. sonstigem Anspruchslosem.
Relex
2024-12-20, 16:43:26
Das hat nichts mit Reaktionszeit zu tun. Die liegt auch bei jüngeren Menschen irgendwo im 200 ms Bereich, weil sie den kompletten Weg aus optischen Reiz, verarbeitung und Entscheidung zu einer Reaktion treffen, sowie physisches ausführen einer Reaktion beinhaltet.
Ginge es danach, wären 5 Hz bereits ausreichend…
Das hat nichtmal entfernt etwas damit zu tun, wie man Bildfolgen wahrnimmt.
Der Vorteil hoher Bildraten ist vermindertes Ruckeln und schärfere Abbildung in Bewegung. Das wirst du selbst dann genauso wie eine junge Person wahrnehmen, wenn deine Reaktionszeit 1 Sekunde ist. Das hat überhaupt nichts mit deiner körperlichen Wahrnehmung zu tun. Die Abbildung von bewegungen ist einfsch physisch/optisch bedingt auf Displays unscharf und mit höheren Bildwiederholraten wird sie schärfer.
Mehr Bildwiederholrate ist in Bewegung exakt genauso wie Auflösung erkennbar. Beides macht das Bild einfach nur schärfer. Wenn du den Unterschied zwischen 1440p und 4K sehen kannst, dann wirst du auch den Unterschied zwischen 240 Hz und 480 Hz sehen können, weil selbst bei 240 Hz auf einem OELD das 4K Bild in Bewegung unscharf wird, auf grund der „geringen“ Bildwiederholrate. Wie gesagt, falls du 4K von geringeren Auflösungen unterscheiden kannst, dann musst du auch sehen können, dass das Bild in Bewegung unschärfer wird.
Um die volle Schörfe zu erhalten bräuchte man 1000+ Hz.
In der Theorie würde man wollen, dass ein Objekt das sich über den Bildschirm bewegt, jedes Pixel durchquert.Bei 3840 Pixeln und einem Objekt das sich innerhalb einer Sekunde über den Bildschirm bewegt wären also 3840 Hz notwendig, damit das objekt mit jedem Bildwechsel exakt einen Pixel weiter wandert.
Je nach Geschwindigkeit des Opjektes wären also auch locker 10.000 Hz notwendig, um es perfekt scharf abzubilden, wenn du es mit deinen Augen verfolgst.
Man braucht keine übernatürlichen Fähigkeiten, um das zu erkennen. Wer 4K erkennen kann, hat die notwendige Fähigkeit längst, weil es bei zu wenig Hz einfach nur etwas unschärfer als 4K aussieht… Das sollte wirklich jeder hier ekennen können.
Das Problem ist viel eher, dass sich viele nicht bewusst sind, wie einfach man das testen kann. Wenn du im wahrsten Sinne nicht weißt, wo du hinsehen musst, dann wird es natürlich schwierig. Denn unscharfe Bilder in Bewegung sind wir ja praktisch gewohnt.
Asaraki
2024-12-20, 17:26:06
Äh nein, die Latenz beeinflusst wann die Reaktionszeit anfängt zu zählen. Bei einem Reflextest irrelevant, da die Messung erst beginnt wenn es leuchtet. Bei einem Bildschirm kannst du Verzögerung flat drauf rechnen.
Edit : spielt natürlich keine wirkliche Rolle, das ist schon klar ;-) aber sie wäre bei 5hz (1s/5) deutlich spürbar
Colin MacLaren
2024-12-20, 23:10:10
Ähm, 1080p DLSS Performance sind 540p interne Renderauflösung. Und mit Framegen kommt auch ordentlich Latenz drauf, was den fps-Zuwachs größtenteils negiert.
Mir geht es um die Bewegungsschärfe, nicht um 2 oder 3 Millisekunden Latenz.
Verwechselt ihr irgendwie Bewegtschärfe mit genereller (Standbild-)Schärfe bzw. Renderauflösung? Ich persönlich sehe bei DLSS bis runter auf „Leistung“ quasi keinen Unterschied, sehr wohl aber, ob ich bei meinem LG CX die BFI anschalte oder nicht. Für Shooter bevorzuge ich daher aktuell durchaus 1440p, DLSS Leistung und ~200fps gegenüber 4K, Gsync, max 118 fps. Mit BFI wird nur leider das Bild arg dunkel und ohne VRR bleibt es halt unruhig und teart.
Hier mal die Beispiele von meinem CX aus dem Test von RTINGS. Das hat doch nichts mit der (internen) Renderauflösung zu tun.
Asaraki
2024-12-21, 07:57:32
Nö absolut einverstanden. Bewegung/veränderung lokaler Bildteile erkennt der visuelle cortex natürlich zuverlässiger, wenn die Informationen zahlreicher sind.
Früher war das alles deutlich stärker vom Bildschirm abhängig, unabhängig der Hz, da die refresh times einfach nicht gut genug waren.
Aber es ist ein komplexes Ding aus der Fähigkeit des screens das mehr an Information (FPS) überhaupt deutlich darzustellen und dem entsprechenden Bild (FG ist imho oft kontraproduktiv) und dem sehr individuellen Sehempfinden. Jemand der sehr scharf/gut sieht könnte z.B durch DLSS auch abgelenkt sein, da es doch teilweise Informationen vermischt und die Verarbeitung des Bilds insofern gestört wird, da auf dem letzten Bild noch etwas zu sehen war, das jetzt im Rauschen untergeht
Es ist daher schwer selbst für andere zu beurteilen was genau als besser wahrgenommen wird, das ist und bleibt einfach super individuell und hat aber auch wieder mit Standbildern gar nichts zu tun :)
Aus dem selben Grund gibt es auch keine besten Lautsprecher/Kopfhörer obwohl diese objektiv sehr gut messbar sind oder wie ein Freund von mir der OLEDs prinzipiell komisch wahrnimmt ^^ ist hale einfach deutlich subjektiver als man meint das ganze
Man kann eine Orchesteraufnahme auch auf 50 Kopfhörern analysieren und weiss trotzdem nicht wie es für den Dirigenten klang…
aufkrawall
2024-12-21, 08:18:50
Mir geht es um die Bewegungsschärfe, nicht um 2 oder 3 Millisekunden Latenz.
Ja, und da lockst du in Shootern i.d.R. ein Ziel in Bildmitte oder flickst auf einen bestimmten Punkt.
Natürlich ist mehr = besser und das auch wahrnehmbar. Aber imho nicht so viel, dass es einen großartig erwähnenswerten Unterschied macht, wenn man es nicht künstlich provoziert.
Asaraki
2024-12-21, 08:49:12
Gibt schon noch andere Beispiele wie competitive RTS mit schnellen Bewegungen über eine Map / mehreren Fokus punkten auf dem Bildschirm wovon keiner in der Mitte ist, Beat em ups, Racinggames mit Markern am streckenrand etc
Gerade beim RTS scrolling sind mehr hz fast bestimmt spürbar im Hinblick auf die eigenen Performance, das ist auch auf meinem 120hz OLED mehr oder weniger Brei ^^
aufkrawall
2024-12-21, 08:59:25
Gibt es, die waren aber nicht der Kontext (und sind fps-mäßig oft problematisch). ;)
Heroes of the Storm mit seinen Schrott-Frame-Times flackert etwa auch abartig auf OLED mit VRR.
Colin MacLaren
2024-12-21, 10:22:05
Ja, und da lockst du in Shootern i.d.R. ein Ziel in Bildmitte oder flickst auf einen bestimmten Punkt.
Natürlich ist mehr = besser und das auch wahrnehmbar. Aber imho nicht so viel, dass es einen großartig erwähnenswerten Unterschied macht, wenn man es nicht künstlich provoziert.
Bei Spielen wie Overwatch oder Marvel Rivals gibt es sehr viel Rumgehopse, viel Nahkampf oder Target Switching (z.B. als Heiler, der fünf Leute gleichzeitig im Blick behalten muss). Ein Counterstrike-Pro hat afaik im Schnitt eine Sense von 60cm/360°, ein Overwatch-Tank-Spieler 16cm. Da ist die Bewegtschärte schon hilfreich, um a)den Überblick zu behalten und b) nicht gaming-sick zu werden. Beides ist mir wichtiger als die letzten 10ms Latenz.
Asaraki
2024-12-21, 13:02:02
Gibt es, die waren aber nicht der Kontext (und sind fps-mäßig oft problematisch). ;)
Heroes of the Storm mit seinen Schrott-Frame-Times flackert etwa auch abartig auf OLED mit VRR.
Das stimmt - wobei das Hauptproblem bei RTS als Genre die fehlenden Games sind ^^
Rocket würde ich gerne mal auf 360hz spielen. Davon werden meine Aerials zwar auch nicht besser, aber das schliert manchmal schon extrem wenn sich die Kamera in 0.2s um 200 grad dreht :D stable fps @120hz oled
Anyway : Mehr Hertz sind sowieso immer besser. Ausnahmen bestätigen bestimmt nur die Regel ^^
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.