Archiv verlassen und diese Seite im Standarddesign anzeigen : Bessere Monitore?
SamLombardo
2024-05-01, 08:44:51
Ist wieder Comedy Time im 3DC? :tongue:
So langsam zeichnet sich ab, dass der Cooler Master Tempest GP27U und ich doch keine Freunde werden. :usad: Ich nehme das dezente Flackern jetzt sogar auf dem Desktop im Browser wahr wenn ich hier zb. im Forum was schreibe sobald lokal Dimming aktiviert ist. Ist lokal Dimming deaktiviert flackert nichts. Ich empfehle öfter zwischen lokal Dimming On und Off zu wechseln (dabei nicht vergessen die Helligkeit anzupassen), irgendwann sind die Augen dafür dann gut trainiert um es zu erkennen. Gestern war ich mir diesbezüglich noch nicht 100% sicher, heute schon. Und sowas geht natürlich gar nicht, egal welche Preisklasse. Das geht voll auf die Augen auf Dauer. Für mich völlig unverständlich, dass kein Reviewer das erwähnt. Eigentlich unfassbar wie schlecht manche Reviews heute durchgeführt werden. :down:
Vorteile:
* exzellentes HDR dank hohen Nits bei guter HDR-Implementierung
* 4K auf 27" liefert wunderbare Schriftendarstellung am Desktop und weniger Fuckups mit TAA und Upscaling in Games dank mehr PPI
* fantastische Farbdarstellung mit sRGB und Kontraste mit lokal Dimming
* recht hohe Refreshrate mit 160Hz und einwandfrei funktionierendes VRR (hatte hier aber nichts anderes erwartet)
Nachteile:
* flackern mit lokal Dimming (für mich inakzeptabel, Technik offenbar noch nicht ausgereift)
* Bild über die gesamte Fläche nicht ganz homogen, bei einem komplett weißen Bild ist das "weiß" hervorragend zum großen Teil (lokal Dimming On) dargestellt, auf der rechten Seite (ca. die letzten 20%) und unten (ca. 10-15%) wird das "weiß" minimal fleckig, wenn ich den Kopf nach rechts bewege verschwindet diese Fleckigkeit, ergo etwas problematische Blickwinkelstabilität
* bei IrfanView macht sich lokal Dimming mit den 576 Zonen negativ bemerkbar, wenn ich oben als Beispiel den Reiter "bearbeiten" aufschlage verändert sich sichtbar die Helligkeit der oberen Leiste und der aufgeschlagenen Optionen von hellgrau auf eher weiß, sowas finde ich irritierend, bisher nur bei Irfanview dieses Problem angetroffen
Ich werde den Bildschirm noch etwas weiter testen. Mit diesem Flackerproblem wird das aber definitiv nichts für mich. Vielleicht muss diese Technik noch etwas reifen (auf bessere Firmware verlasse ich mich hier jedenfalls nicht, Prinzip Hoffnung ist mir da zu riskant) für spätere Bildschirme mit MiniLED. Aber 27" mit 4K spricht mich als nächstes Upgrade in 2025+ definitiv an. Gerne dann auch mit 240Hz und 1152+ Zonen.
Deine Negativpunkte sind allesamt LCD Probleme. Hol dir einen OLED Monitor und vergleiche selbst. OLED hat kein Local Dimming und keine ungleichmäßige Ausleuchtung. Die Helligkeit liegt mittlerweile auch bei 1500 Nits (wobei selbst 1000 heller wirken als 1500 mit LCD, nicht umsonst haben OLED und LCD unterschiedliche HDR Spezifikationen). Und VRR Flicker hast du allenfalls in Loading Screens. Probier es selbst aus! Warten, ob die LCDs 2025 besser werden ist doch sinnlos.
ChaosTM
2024-05-01, 09:22:39
Es bleibt halt unterschwellig immer noch die Angst, dass das teure Gerät früher oder später einbrennt.
The_Invisible
2024-05-01, 09:48:41
Mit HDR ist er immerhin bereits 3-4 Jahre hinter uns. Kennen die meisten hier schon ohnehin, als FALD oder OLED oder beides, ist schon nen alter Café und alles durch. Can mich aber selbst auch nicht daran satt sehen (y).
Aber zu Lederjacke wird er nicht mal in 30-40 Jahren aufsteigen. :smile::cool: Auch hier wird er eine Gen hinterherlaufen. :smile:
Bei dargo ist halt immer alles schei*e und unnötig bis er es selbst hat. Freu mich deshalb schon bis AMD gescheite RT performance/ai-upscaling hat, denkt an meine Worte ;-)
Lurtz
2024-05-01, 10:02:01
Deine Negativpunkte sind allesamt LCD Probleme. Hol dir einen OLED Monitor und vergleiche selbst. OLED hat kein Local Dimming und keine ungleichmäßige Ausleuchtung. Die Helligkeit liegt mittlerweile auch bei 1500 Nits (wobei selbst 1000 heller wirken als 1500 mit LCD, nicht umsonst haben OLED und LCD unterschiedliche HDR Spezifikationen). Und VRR Flicker hast du allenfalls in Loading Screens. Probier es selbst aus! Warten, ob die LCDs 2025 besser werden ist doch sinnlos.
Sein großes Problem ist doch das Flackern und das hat OLED potenziell auch.
SamLombardo
2024-05-01, 10:27:08
Sein großes Problem ist doch das Flackern und das hat OLED potenziell auch.
Das spezielle Flackern das dargo bemängelt gibt´s bei OLED nicht, da es kein Local Dimming gibt. Ja, potentiell gibts VRR Flackern. In der Praxis ist das wohl sehr einzelfallabhängig und bei den Meisten allenfalls in Ladescreens zu sehen. Es mal selber zu testen ist es auf jeden Fall Wert. Die Vorteile gegenüber LCD sind zu gravierend.
Und @Einbrennen, natürlich kann es vorkommen, liest man ja hin und wieder im Internet. Aber mal aus meiner eigenen Erfahrung: ich war wohl hier im Forum einer der ersten, die OLED als reinen Monitor verwendet haben. Das war damals 2017 ein LG 55C7. Diesen habe ich einige Tausend Stunden (ich glaube es waren über 7000) benutzt, hauptsächlich für Gaming und meistens in HDR. Und da waren auch schon mal 200+ Stunden Divinity 2 mit festem HUD dabei. Einbrennen nach 5 1/2 Jahren: Null. Und der C7 hatte noch die alte Subpixelstruktur, die angeblich einbrenngefährdet war, ...heutige OLED sind damit gar nicht zu vergleichen. Ich hab halt unterschiedlichen Content bespielt und vor allem die Algorithmen machen lassen (also nicht an der Steckdosenleiste ausschalten).
Derzeit, seit Herbst 2022, nutze ich den S95b QDOLED als Monitor. Da hört man ja auch Horrorgeschichten bzgl Einbrennen. Ich habe meinen sogar per Servicemenü auf 1500 Nits Peak getweakt (sieht zum Niederknien aus:eek:) und habe jetzt 1800 Stunden runter. Ebenfalls weiterhin perfekt mit Null Burn in. Und sollte es doch mal passieren, dann ist das ein Risiko, das ich gern eingehe. Dafür hatte ich dann jahrelang die mit Abstand beste Bildqualität, die man haben kann.
Tobalt
2024-05-01, 10:36:16
Was heisst nichts? Nichts ist ja auch da bei Nutzung von Strobing. Nichts und Matsch ist ja ein Unterschied. Es ist ja sogar so, dass ein kurzes Bild und dazwischen "Nichts" extrem die Bewegtschärfe erhöht. Oder was meinst du mit "nichts" ?
Ja mit "nichts" meine ich dass der Schirm da schwarz ist.
Aber was die Bewegtschärfe - wie gesagt - erhöht, ist nicht das schwarz an sich, sondern konkret: das Fehlen von *falschen*, aber scharfen und kontrastreichen Informationen in dieser Zeit.
Diesen Vorteil bekommst du mit matschiger ZBB auch, und zusätzlich ist die Helligkeit gegenüber CRT oder BFI höher.
Nochmal: um hohe Bewegtschärfe zu erreichen ist es UNNÖTIG, mit 1000 Hz korrekte scharfe Infos zu liefern, dafür reichen ~100 Hz aus. Viel viel wichtiger ist es, die falschen Infos *nicht* anzuzeigen. Den Schirm einfacher schwarz machen ist dafür die Brute Force Methode (ergo nicht sonderlich elegant). ZBB ist das elegantere BFI, quasi BFI2.0.
Oder um es noch anders auszudrücken (verschiedene Sichtweisen machen evtl deutlicher worauf ich hinaus will): Um zu deinem ABBBBBABBBBBBBBABBBB Beispiel zurück zu kommen. BFI zeigt in A korrekte Bilder an und als B wird bei BFI ein absurd falsches Bild gezeigt (komplett schwarz). Trotzdem *siehst* du eine gute Szene mit hoher Bewegtschärfe. Mit BFI 2.0 (ZBB) wird jetzt versucht, dass die B Bilder nicht mehr ganz so absurd falsch sind, sondern näher an der tatsächlichen Szenendarstellung liegen.
Für ZBB ist es folglich nicht das Ziel möglichst krass alle Details einzufangen - im Gegenteil, das ist unnötig und gefährlich wegen des hohen Artefaktrisikos. Hauptziel von ZBB ist es, dass kontrastreiche Inhalte entweder geblurrt werden, oder besser noch im richtigen Maß weitergerückt werden.
Relex
2024-05-01, 10:47:00
Gerade eben HDR in HFW probiert und auf max. 1500 Nits gestellt. Keine Ahnung ob dieses Setting was bewirkt, aber wenn ich im Dunkeln da einer Lichtquelle nahe komme muss ich schon beinah die Sonnenbrille aufsetzen. ;D HDR macht aber echt was her, plötzlich sieht SDR so langweilig aus. X-D Das einzige was ich bei HDR doof finde ist, dass man Screenshots oder Videos damit gar nicht erstellen kann weil die in SDR dann völlig falsch aussehen. Auch finde ich etwas nervig, dass ich in Windows HDR jedes Mal ausschalten muss weil die Farben dann am Desktop völlig falsch sind. Und etwas verwirrend finde ich bei HDR, dass im AB-Overlay plötzlich die Schrift anstatt orange knall rot wird. ;D Kann man das irgendwie abstellen?
Edit:
Erstaunlich finde ich auch wie klar der Desktop aussieht wenn ich keine nativen 2160p sondern nur 1440p hier einstelle. :uponder: Hier macht sich offenbar wieder die hohe ppi bemerkbar. Das finde ich richtig gut für Games wo kein Upscaling zur Verfügung steht. Denn wenn der Desktop schon überzeugt dann erst recht die Games mit dieser Auflösung.
Klar, Peak auf 1500 stellen und paperwhite sollte je nach Helligkeit im Raum zwischen 100 und 200 nits sein. Paperwhite definiert praktisch die Helligkeit bei der der SDR Farbraum mit vollweiß endet. Referenz wären hier 100 nits. Aber wie gesagt, je nach Umgebungshelligkeit macht es Sinn, das etwas höher zu stellen. Über 250 nits würde ich aber selbst in einem sehr hellen Raum nicht gehen. Wenn du HDR nutzt sind je nach Szene ca 70-95% der Bildinhalte weiterhin in SDR. Die restlichen paar Prozent sind für die HDR Highlights gedacht.
HDR ist ja nicht dazu da, das Bild heller zu machen, sondern um den Kontrast zu erhöhen und das Bild durch sich abhebende Highlights lebensechter zu machen.
Ob HDR und SDR am Desktop gleich aussehen ist immer so ne Sache.
Wenn du mit dem Slider in Windows die Helligkeit korrekt angepasst hast, damit sie sich mit dem SDR Modus deckt, sollte es gleich aussehen. Das würde dann zeigen, dass der Monitor sowohl in SDR als auch HDR sehr akkurat arbeitet. Wenn das nicht gleich aussieht, dann ist entweder HDR oder SDR nicht ganz richtig. Das liegt leider am Monitor (wie genau ist der SDR Modus und was macht der Tonemapper im HDR Modus), ist aber in der Praxis überhaupt kein Problem.
Denn rein auf Signalebene stellt Windows einfach nur SDR innerhalb eines HDR containers dar. Wenn dein Monitor daran nichts verändert, muss es gleich aussehen. Das einzige was im HDR Modus anders ist, ist die Helligkeit bei sehr dunklen inhalten. Hier nutzt Windows im HDR Modus für SDR Inhalte eine leicht angepasste Gamma curve, die minimal heller ist als 2.2.
Aber das solltest du wirklich nur bei sehr dunklen Inhalten sehen können. Ansonsten sollten sich Helligkeit und insbesondere die Sättigung in HDR und SDR decken.
Ich hab mir für den Desktop mittlerweile den AW3225QF geholt und meinen IPS jetzt ersetzt.
Sowohl bei meinem LG CX OLED als auch beim AW3225QF sieht HDR und SDR auf dem Desktop bis auf den leichten Helligkeitsunterschied im near black Bereich absolut identisch aus. (schwarz ist hingegen immer schwarz, die Unterschiede gibts nur nahe schwarz)
Aber so oder so ist das bestenfalls nice to know wie akkurat die beiden Modi sind. In der Praxis wechselt man immer zwischen SDR und HDR je nach inhalt, da das hellere SDR-near-black im HDR Modus einfach Mist ist, wenn man SDR Inhalte betrachtet. (Was für ein Satz) Vor allem abends fällt das halt auf.
Bzgl. Afterburner Overlay: Ist normal. Da werden vermutlich die SDR Farben einfach auf den vollen HDR Farbraum aufgeblasen. Musst eben einfach dunklere Farben einstellen um das zu kompensieren oder ein anderes Overlay nutzen. Ich glaube es gibt noch keine Option, das sauber zu korrigieren, damit es für HDR und SDR gleichermaßen passt.
Troyan
2024-05-01, 10:49:37
HDR ist ja nicht dazu da, das Bild heller zu machen, sondern um den Kontrast zu erhöhen und das Bild durch sich abhebende Highlights lebensech
:facepalm:
Natürlich soll HDR das Bild heller machen. Sonst bräuchte man ja auch gar keine Helligkeit bei OLED mehr.
Relex
2024-05-01, 10:56:27
:facepalm:
Natürlich soll HDR das Bild heller machen. Sonst bräuchte man ja auch gar keine Helligkeit bei OLED mehr.
Nö, falsch. Nur die Highlights sollen hell sein, NICHT das gesamte Bild. Das sollte sich größtenteils mit SDR decken! HDR erweitert SDR nur an den stellen wo SDR ans Limit kommt und einen Roll-off oder clipping hätte.
Siehe hier:
https://www.lightillusion.com/what_is_hdr.html
Ich weiß, ist den allerwenigsten Leuten tatsächlich bewusst, weil das gesamte Marketing nur auf "heller, heller, heller" aus ist und das in den Foren so gepredigt wird.
Ja, es macht schon Sinn irgendwann Displays zu haben, die bis zu 10.000 nits können. Aber selbst auf nem 10.000 Nits Display wäre die durchschnittliche Helligkeit in HDR im 100-200 nits Bereich, meist sogar deutlich darunter.
Genau deswegen sind die 250 nits die aktuelle OLED Monitore für Fullscreen weiß schaffen gar kein großes Thema für HDR. Ja, es gibt Szenen wo mehr verlangt wird und so ein OLED im APL limitiert ist, da ist noch Luft nach oben, aber solche Szenen sind mit korrekten Settings tatsächlich ziemlich rar.
Kann man auch alles selbst nachvollziehen mit dem Ilium HDR Analyse Shader in Reshade.
SamLombardo
2024-05-01, 10:57:41
:facepalm:
Natürlich soll HDR das Bild heller machen. Sonst bräuchte man ja auch gar keine Helligkeit bei OLED mehr.
Nö, er hat Recht. Der APL (average picture level) ist bei korrekt eingestelltem HDR nicht wesentlich höher als bei kalibriertem SDR. Der Unterschied sind die Spitzenlichter und die sogenannten specular highlights (Reflexionen an Glas oder Metall zum Beispiel), die dann eben viel heller sein können. Dazu nicht zu vergessen die 10 bit Farbtiefe und der HDR Farbraum. Der APL ist aber wie gesagt nicht wesentlich anders.
Edit: Relex war schneller;). Genau so isses.
dargo
2024-05-01, 11:18:28
Deine Negativpunkte sind allesamt LCD Probleme. Hol dir einen OLED Monitor und vergleiche selbst. OLED hat kein Local Dimming und keine ungleichmäßige Ausleuchtung. Die Helligkeit liegt mittlerweile auch bei 1500 Nits (wobei selbst 1000 heller wirken als 1500 mit LCD, nicht umsonst haben OLED und LCD unterschiedliche HDR Spezifikationen). Und VRR Flicker hast du allenfalls in Loading Screens. Probier es selbst aus! Warten, ob die LCDs 2025 besser werden ist doch sinnlos.
Naja... bei einem kleinen Bildausschnitt ja. Aber sonst hat OLED keine Chance bei weiß, insbesondere wenn die ganze Bildfläche weiß ist. Das ist bei OLED dann eher hellgrau, zumindest kein reines weiß. OLED hat auch andere Probleme die mich stören. Schriftendarstellung (da kommt eventuell Abhilfe demnächst bzw. Linderung), den Monitor dauerhaft im Standby zu lassen finde ich auch absolut nervig. Und die Einbrenngefahr ist immer noch gegeben. Wenn ich mir jetzt einen Monitor kaufe dann soll das Ding wieder die nächsten 7-10 Jahre bleiben. MikroLED könnte noch was werden. Aber das ist noch eher weite Zukunftsmusik. Afaik noch viel zu teuer für den Massenmarkt.
Bei dargo ist halt immer alles schei*e und unnötig bis er es selbst hat. Freu mich deshalb schon bis AMD gescheite RT performance/ai-upscaling hat, denkt an meine Worte ;-)
Du raffst halt immer noch nicht, dass es hier nicht um dargo sondern den Massenmarkt geht weil ich nicht nur auf die eigene Nase achte, im Gegensatz zu dir. Wie Brett vor dem Kopf.
Sein großes Problem ist doch das Flackern und das hat OLED potenziell auch.
Eben... das ist echt nur noch zu heulen. Wobei ich ehrlich sagen muss wenn das wirklich nur in Menüs oder Ladescreens passiert könnte ich das eventuell akzeptieren. Nur wer garantiert mir, dass ich in keinem einzigen Game im Gameplay ein Flackern erkenne? Niemand! Wenn ich das richtig aktuell bei GH überblicke ist es eh noch zu früh bei mir für einen OLED denn ich sehe keinen 27-28" OLED mit 4K Auflösung. Und ein bissel mehr Leistung bei der GPU könnte bei 4K (trotz Upscaling) je nach Game auch nicht schaden. Insofern sehe ich das völlig locker... ein 4K Screen kann noch bis 2025+ warten. Ab FSR 3.1 muss ich das eh wieder neu bewerten.
SamLombardo
2024-05-01, 11:38:13
Naja... bei einem kleinen Bildausschnitt ja. Aber sonst hat OLED keine Chance bei weiß, insbesondere wenn die ganze Bildfläche weiß ist. Das ist bei OLED dann eher hellgrau, zumindest kein reines weiß. OLED hat auch andere Probleme die mich stören. Schriftendarstellung (da kommt eventuell Abhilfe demnächst bzw. Linderung), den Monitor dauerhaft im Standby zu lassen finde ich auch absolut nervig. Und die Einbrenngefahr ist immer noch gegeben. Wenn ich mir jetzt einen Monitor kaufe dann soll das Ding wieder die nächsten 7-10 Jahre bleiben. MikroLED könnte noch was werden. Aber das ist noch eher weite Zukunftsmusik. Afaik noch viel zu teuer für den Massenmarkt.
Ich weiß nicht, derzeitige OLED leuchten full white mit 220-250 nits. Da ist nichts mehr grau, das ist strahlend weißes Weiß. Das gedimmte war eher bei den 16er,17er so, die vollweiß gerade mal 120 nits schafften. Klar sind High End LCDs vollweiß heller, aber mal ehrlich, wann schaust du auf ein weißes Bild mit voller Helligkeit. Schon in Mischszenen und erst recht in dunklen spielt der OLED seine Vorteile gnadenlos aus.
Ich meine, probier es mal aus. Was hast du zu verlieren außer dem Aufwand gegebenenfalls ein zweites Mal zur Post zu gehen um ihn zurück zu schicken. Auf der anderen Seite ist die Möglichkeit, dass du begeistert bist und den nicht mehr hergeben willst nicht gerade klein;).
dargo
2024-05-01, 11:40:57
Ich weiß nicht, derzeitige OLED leuchten full white mit 220-250 nits. Da ist nichts mehr grau, das ist strahlend weißes Weiß. Das gedimmte war eher bei den 16er,17er so, die vollweiß gerade mal 120 nits schafften. Klar sind High End LCDs vollweiß heller, aber mal ehrlich, wann schaust du auf ein weißes Bild mit voller Helligkeit.
Öfter als du denkst im Browser oder bei diversen Apps. :) Ich wiederhole mich gerne nochmal... Gaming ist nicht der Haupteinsatz bei mir mit einem Monitor.
Ich meine, probier es mal aus. Was hast du zu verlieren außer dem Aufwand gegebenenfalls ein zweites Mal zur Post zu gehen um ihn zurück zu schicken.
Mache ich eventuell wenn die ersten OLEDs mit 4K @27-28" erscheinen. Dieses testen von Bildschirmen geht mir aber wirklich auf den Sack, ich habe in der Regel keine Zeit für diese scheiße. Ich finde das super nervig mit dem zurück schicken wenn was nicht überzeugt. Auch dann für den Händler.
The_Invisible
2024-05-01, 11:42:00
Massenmarkt für HDR gibts schon ewig, mein 2017er Sony hat schon 1000nits HDR mit FALD. Bei FG war ja das gleiche mit dir obwohls das bei NV auch schon über ein Jahr gab.
Du tust immer so überrascht und wie geil es ja ist obwohl es die Techs schon lange woanders gibt. Daher, abwarten auf gescheite RT performance, ich zitiere mich dann hier...
dargo
2024-05-01, 11:44:01
Massenmarkt für HDR gibts schon ewig...
Vollkommender Blödsinn. Und komme mir hier nicht mit TVs. :rolleyes:
The_Invisible
2024-05-01, 11:55:54
Konsolen = Massenmarkt worauf du sonst immer so herumreitest und da ist HDR schon lange Standard.
dargo
2024-05-01, 12:01:32
Och Gottchen... ja, bei Konsolen trifft das zu. Beim Massenmarkt im PC-Gaming trifft es eben nicht zu!
btw.
Ist es eigentlich normal bei neuen Bildschirmen, dass die ein externes Netzteil haben? Ich hatte bei dem CM Bildschirm daran gar nicht gedacht und finde das externe NT auch etwas störend. Aktuell liegt es auf dem Schreibtisch, sieht natürlich doof aus. Wenn ich aber das Kabel so betrachte bin ich mir nicht mal sicher ob die Kabellänge ausreicht um das NT hinter dem Schreibtisch auf den Boden abzulegen. Aber ganz ehrlich... ich habe lieber die ganze Elektronik im Bildschirm drin.
Platos
2024-05-01, 12:03:05
Ja mit "nichts" meine ich dass der Schirm da schwarz ist.
Aber was die Bewegtschärfe - wie gesagt - erhöht, ist nicht das schwarz an sich, sondern konkret: das Fehlen von *falschen*, aber scharfen und kontrastreichen Informationen in dieser Zeit.
Diesen Vorteil bekommst du mit matschiger ZBB auch, und zusätzlich ist die Helligkeit gegenüber CRT oder BFI höher.
Nochmal: um hohe Bewegtschärfe zu erreichen ist es UNNÖTIG, mit 1000 Hz korrekte scharfe Infos zu liefern, dafür reichen ~100 Hz aus. Viel viel wichtiger ist es, die falschen Infos *nicht* anzuzeigen. Den Schirm einfacher schwarz machen ist dafür die Brute Force Methode (ergo nicht sonderlich elegant). ZBB ist das elegantere BFI, quasi BFI2.0.
Oder um es noch anders auszudrücken (verschiedene Sichtweisen machen evtl deutlicher worauf ich hinaus will): Um zu deinem ABBBBBABBBBBBBBABBBB Beispiel zurück zu kommen. BFI zeigt in A korrekte Bilder an und als B wird bei BFI ein absurd falsches Bild gezeigt (komplett schwarz). Trotzdem *siehst* du eine gute Szene mit hoher Bewegtschärfe. Mit BFI 2.0 (ZBB) wird jetzt versucht, dass die B Bilder nicht mehr ganz so absurd falsch sind, sondern näher an der tatsächlichen Szenendarstellung liegen.
Für ZBB ist es folglich nicht das Ziel möglichst krass alle Details einzufangen - im Gegenteil, das ist unnötig und gefährlich wegen des hohen Artefaktrisikos. Hauptziel von ZBB ist es, dass kontrastreiche Inhalte entweder geblurrt werden, oder besser noch im richtigen Maß weitergerückt werden.
Das Ziel von BFI ist die Bewegschärfe zu erhöhen. Es senkt aber das Flüssigkeitsgefühl. Zwischenbildberechnung erhöht aber beides (bei guter Implementierung).
Wenn ein Bild aber Artefakte aufweist (also komplett falsche Darstellung, was eben genau der Fall ist bei schnellen Bewegungen unter Framegen nvidia), glaube ich nicht, dass man die nicht sieht, wenn sie 3x länger als das scharfe Bild angezeigt werden. Es handelt sich hier nicht mehr um "nichts", sondern genau um das Gegenteil.
Streu mal in ein Film ein random Frame eines Nackten ein. Das kannst du sehen. Du kannst nicht einfach "ganz anders" (schwarz) mit "ganz anders" (artefaktbehaftete völlig verdrehte daratellung) oder "ganz anders" (völlig andere Szene) in einen Topf werfen.
Wir müssen eig. gar nicht drüber philosophieren, ob man es sieht. Ich weiss, dass ich es sehe. Dazu kannst du dir z.B einfach die Digital Foundry Analyse anschauen mit Spiderman. Da sieht man beim hochlaufen an einem Hochhaus schon ordentlich (in realtime), wie die Fehlerhafte Darstellung sichtbar wird. Und das bei "normalem" framegen. Würde hier auch noch 3x so viele Falsche Frames angezeigt werden, würde man es noch deutlicher sehen.
Also kurz gesagt: Theoretische Diskussionen darüber, was das menschliche Auge alles nicht sieht, kann man sich sparen... Man siehts jetzt schon...
Es kommt irgendwie aber auch so rüber, als würdest du so tun, als wäre es Absicht bei Zwischenbildberechnung möglichst falsch zu liegen. Habe auch noch nie von einer Zwischenbildberechnung gehört, die mit absicht alles blurry darstellt (worum es mir aber gar nicht geht. Ich habe von matsch, völlig falscher Darstellung gesprochen. Also eben Zwischenbildberechnungsartefakte). Also nein, das Ziel von Zwischenbildberechnung sollte ganz klar sein, dass man auf "originale" Framequalität kommt.
Deine Methode mit "BFI 2.0" ist da was ganz anderes und hat nichts mehr mit höheren FPS zu tun und nichts damit, was Zeischenbildberechnung heute tut. Das kann ja sein, dass das gut ist, aber darum ging es ja nie.
Relex
2024-05-01, 12:28:15
Ich glaube ihr seht das mit FG völlig falsch.
Die Zwischenbilder müssen rein logisch betrachtet schlechter werden, je größer die zeitliche Differenz zwischen zwei Frames ist.
Das sieht man ja auch jetzt schon wenn man von 30 auf 60 will oder von 60 auf 120. Je größer die zeitliche Differenz, desto schlechter die Zwischenbilder.
Wenn du 50 FPS hast und somit 20ms zwischen zwei Frames, dann wird mit FG bei idealer skalierung nach 10ms ein Frame dazwischen geschoben. Dieses Frame ist mit 10 ms "am weitesten" zwischen den zwei echten Frames entfernt. Die Bewegung der Inhalte stellt hier den größtmöglichen Unterschied dar und der Algo muss am meisten interpolieren.
Wenn du die Zwischenbilder aber weiter erhöhst und z.B. alle 2 ms ein Bild einfügst, dann sind die Bilder die nach 2 und 4 ms bzw. nach 16 und 18 ms eingefügt werden natürlich hochwertiger und haben weniger Artefakte, da sie deutlich näher an den echten Frames sind und weniger zeitliche Unterschiede aufweisen - es muss weniger weit interpoliert werden.
Es gibt also sehr wahrscheinlich einen graduellen Qualitätsabfall zwischen zwei Frames, der in der mitte (zeitlich gesehen) am höchsten sein muss und an den Rändern am geringsten.
Da bei nur einem zwischenbild das mittlere Bild länger angezeigt wird, als bei mehreren Zwischenbildern würde ich stark davon ausgehen, dass es hinsichtlich wahrgenommener Bildqualität GAR KEINEN unterschied macht, ob man jetzt 1 Zwischenbild oder 10 Zwischenbilder hat.
Man wird hier wahrscheinlich einen smoothen übergang zwischen den Qualitätsstufen haben. In etwa so:
Echtes Bild | gut | schlecht | am schlechtesten | schlecht | gut | Echtes Bild usw..
Die Qualität einer Bildsequenz wird somit auch bei mehreren Zwischenbildern nur davon abhängig sein, wie groß der zeitliche Abstand zweier echter Frames ist. Die Anzahl der Zwischenbilder wird keine Rolle spielen.
Und ganz grundsätzlich hinsichtlich Qualität von FG im allgemeinen. Wenn man so empfindlich auf Artefakte reagiert, dann müsste man auch TAA, DLSS, FSR und co ablehnen. Denn die erzeugen selbst in nativer Auflösung tendenziell mehr Artefakte als FG bei ausreichender Auflösung und Framerate. Aber man muss auch sehen, dass beide Features stetig verbessert werden. TAA hat nen langen Weg hinter sich und war anfangs völliger Müll. DLSS auch...
Ex3cut3r
2024-05-01, 12:36:09
Ich halte FG mit mindestens 60 FPS für gut, idealerweise ab nativen 70 FPS. Unter 50 FPS finde ich es unzureichend, da der Input Lag zu stark wird und die Artefakte zunehmen.
Platos
2024-05-01, 12:40:58
Framegen-Artefakte sind nicht mal ansatzweise mit anderen vergleichbar. DLSS Smearing ist aber auch ganz schön hässlich und jenachdem würde ich das dann auch ausschalten, wenn es oft auftritt. Framegenartefakte kann man aber bei schnellen Bewegungen immer provozieren. Smearing nicht, das kommt auch auf sen Spielinhalt an (kleine Objekte).
Aber bezüglich der Framegenerierung: Das ist ein Irrglaube, weil: Wenn du 2 echte Frames hast, die von der Bewegung weit auseinander sind, kannst du noch so viele Frames dazwischen schieben, du (bzw der Algo) weisst deswegen trotzdem nicht, wie die Bewegung aussehen soll. Also wenn! Artefakte/Missinterpretationen auftreten, dann! sind alle erzeugten Zwischenframes murks. Natürlich wird die Änderung möglicherweise weniger drastisch sein, aber murks ist es trotzdem.
Könntest du bei A123B nr. 1 und 3 ohne Fehler darstellen, könntest du das auch bei nr.2. Das Problem liegt aber (eben in diesen Problemfällen) darin, dass A und B so unterschiedlich sind, dass man die Bewegung nicht Artefaktfrei rekonstruieren kann. Es spielt keine Rolle ob du 10 oder 1 Frame dazwischen schiebst. Alle davon werden Artefaktbehaftet sein.
Fazit: Ob es zu Artefakten kommt oder nicht (bei allen! Zeischenbildern), entscheidet nur, wie weit auseinander die beiden Frames A&B sind. Und das wiederum entscheided die Änderung pro Zeit. Dafür muss man sich (als Gamer) nicht mal "schnell" bewegen. Dafür reicht sich schnell ändernde und unvorhersehbare "Choreographie", wie eben z.B bei Spiderman, der die Wand hoch läuft. Du musst nicht mal die Kamera bewegen, um das zu provozieren.
Relex
2024-05-01, 12:45:54
Also genau das was ich gesagt habe. :smile: Es macht keinen Unterschied, ob du 1 oder mehrere Frames generierst. Die wahrgenommene Qualität bleibt gleich.
Ob die Qualität gut ist hängt nur vom Algo und der tatsächlichen Framerate ab.
Es spielt keine Rolle ob du 10 oder 1 Frame dazwischen schiebst. Alle davon werden Artefaktbehaftet sein.
Dem würde ich zumidnest teilweise wiedersprechen. So gesehen stimmt das zwar, aber es spielt in dem Falle keine Rolle, weil du mit zusätzlichen Zwischenbildern einfach nur einen mehrstufigen übergang zwischen echtem Frame und im worst case total vermurkstem mittleren Zwischenbild erzeugst.
Wenn du bei 20 ms Frametime 10 Zwischenbilder einfügst, dann kann das erste nicht so starke Artefakte zeigen, wie das mittlere, da das echte Frame in dem Fall deutlich höher gewichtet wäre, da zeitlich näher. Selbst bei einem Kameracut wäre es also nicht logisch, dass alle Zwischenbilder in gleichem Maße artefaktbehaftet sind. Es muss einen übergang geben wie ich erklärt habe. Alles andere ergibt aus meiner Sicht keinen Sinn.
Platos
2024-05-01, 12:52:49
Also genau das was ich gesagt habe. :smile: Es macht keinen Unterschied, ob du 1 oder mehrere Frames generierst. Die wahrgenommene Qualität bleibt gleich.
Ob die Qualität gut ist hängt nur vom Algo und der tatsächlichen Framerate ab.
Die Qualität der einzelnen Frames: Ja. Die Qualität des ganzen Ergebnis (das "bewegte Bild): Nein.
Wie ich sagte (bzw. du), es ändert sich nicht gross was an der Qualität der Frames ohne besseren Algo (egal wie viele).
Jetzt kommt aber das Problem: Die zeitlich absolute und relative Anzeigedauer der Frames: Man sieht jetzt schon Artefakte bei nur der Hälfte der Zeit (also z.B von 60 auf 120FPS (Framegen) 8.3ms lang ein artefaktbehaftetes Frame bzw. zur Hälfte der Zeit). Erhöht man nun diese Zwischenbilder von 1 auf 3 (die alle gleich Artefaktbehaftet sein werden), dann hast du im Falle von solchen Artefakten nun (von 60 auf 240FPS) 12.5ms Artefakt-Frames und nur noch 4.17ms artefaktfreie Frames. Dazu kommt noch, dass das relativ gesehen 3x länger ist.
Ich hätte vlt. nicht so salopp von "matsch" reden sollen. Denn das wurde hier als "unscharf" verstanden. Ich meinte damit aber eben kompletter matsch, also komplett fehlerhafte Darstellung bei schnellen Bewegungen. Da hätte ich mich präziser ausdrücken sollen.
Erhöht man also die Zwischenframes bei gleicher Anzahl echter Frames, nimmt die zeitlich absolute UND relative Anzeigedauer von artefaktbehafteten Frames zu!!!
Und wie gesagt: Man sieht die Artefakte jetzt schon. Solche Dinge sieht das Auge eig. ziemlich gut.
Tobalt
2024-05-01, 12:59:12
Ja ich würde sagen, gute ZBB sollte ziemlich stark matschen um das Artefaktrisiko zu minimieren. ABER:
Nvidia FG hat zwei große Probleme:
- Die Zwischenframes sind screenshotbar, also werden sie sinnlos von Testern beurteilt werden, obwohl ihre statische Anzeige völlig zweckentfremdet ist. Dies nötigt NV dazu, in der ZBB sinnlos und gefährlich viele Details mitzuschleppen und ein entsprechend hohes Artefaktrisiko einzugehen.
- Es kann nicht garantiert werden das FG nur bei > 80 HZ Basisframerate agiert. Dies ist aber IMO eine gesunde Voraussetzung dafür dass man bei ZBB auf die Details verzichten kann.
Stellt man diese zwei Krankheiten ab, kann der Detailgrad sehr konservativ gestellt werden, womit das Artefaktrisiko sinkt
Relex
2024-05-01, 12:59:21
@Platos
Siehe meine Ergänzung oben. Ich bin da anderer Meinung. Die Frames die zeitlich näher am echten Frame sind unterscheiden sich zwangsläufig nur am geringfügigsten von diesem Frame. und müssen daher immer weniger Artefakte zeigen. Es muss also immer der Übergang von gut zu schlecht stattfinden.
Platos
2024-05-01, 13:01:59
Also genau das was ich gesagt habe. :smile: Es macht keinen Unterschied, ob du 1 oder mehrere Frames generierst. Die wahrgenommene Qualität bleibt gleich.
Ob die Qualität gut ist hängt nur vom Algo und der tatsächlichen Framerate ab.
Dem würde ich zumidnest teilweise wiedersprechen. So gesehen stimmt das zwar, aber es spielt in dem Falle keine Rolle, weil du mit zusätzlichen Zwischenbildern einfach nur einen mehrstufigen übergang zwischen echtem Frame und im worst case total vermurkstem mittleren Zwischenbild erzeugst.
Wenn du bei 20 ms Frametime 10 Zwischenbilder einfügst, dann kann das erste nicht so starke Artefakte zeigen, wie das mittlere, da das echte Frame in dem Fall deutlich höher gewichtet wäre, da zeitlich näher. Selbst bei einem Kameracut wäre es also nicht logisch, dass alle Zwischenbilder in gleichem Maße artefaktbehaftet sind. Es muss einen übergang geben wie ich erklärt habe. Alles andere ergibt aus meiner Sicht keinen Sinn.
Mit im gleichen Masse Artefaktbehaftet meinte ich, dass die herauskommende Bewegung aller Zwischenframes auf der nicht mehr richtig rekonstruierbaren Bewegung resultieren. Man nutzt ja nicht nur 1 Frame, man nutzt immer 2 (A& B) und rekonstruiert dann die Bewegung. Ob du da nun 10 oder 1 dazwischen schiebst, kommt nicht drauf an für die korrekt (oder eben nicht korrekt) rekonstruierten Bewegung.
Aber ja klar, natürlich ist das 1. Zwischenbild weniger weit weg vom echten Frame A. Aber man darf jetzt nicht meinen, dass dieses keine Artefakte aufweist, weil dieses ja näher ist. Es handelt sich ja nicht um extrapolation, wo man in die Zukunft spekuliert. Dann könnte man sagen, dass je näher desto wahrscheinlicher wird eine Artefaktfreie Darstellung.
Ich hätte es so sagen sollen.
Aber trotzdem: Es wird die völlig falsche Daratellung einfach "Smoother" dargestellt. Falsch ist sie trotzdem. Natürlich, das 1. Frame sieht (noch) nicht so falsch aus.
Platos
2024-05-01, 13:08:58
Ja ich würde sagen, gute ZBB sollte ziemlich stark matschen um das Artefaktrisiko zu minimieren. ABER:
Nvidia FG hat zwei große Probleme:
- Die Zwischenframes sind screenshotbar, also werden sie sinnlos von Testern beurteilt werden, obwohl ihre statische Anzeige völlig zweckentfremdet ist. Dies nötigt NV dazu, in der ZBB sinnlos und gefährlich viele Details mitzuschleppen und ein entsprechend hohes Artefaktrisiko einzugehen.
- Es kann nicht garantiert werden das FG nur bei > 80 HZ Basisframerate agiert. Dies ist aber IMO eine gesunde Voraussetzung dafür dass man bei ZBB auf die Details verzichten kann.
Stellt man diese zwei Krankheiten ab, kann der Detailgrad sehr konservativ gestellt werden, womit das Artefaktrisiko sinkt
Und woher die Annahme, dass 75% blurry frames den selben Effekt haben wie 75% schwarzes frame (also Bewegtschärfe erhöhen)? Woher kommt die Annahme, das Auge könnte das nicht mehr sehen?
Also hast du dazu irgendwelche Belege? Theoretische Annahmen sind mir da zu wenig überzeugend.
Slipknot79
2024-05-01, 13:21:00
Nö, er hat Recht. Der APL (average picture level) ist bei korrekt eingestelltem HDR nicht wesentlich höher als bei kalibriertem SDR. Der Unterschied sind die Spitzenlichter und die sogenannten specular highlights (Reflexionen an Glas oder Metall zum Beispiel), die dann eben viel heller sein können. Dazu nicht zu vergessen die 10 bit Farbtiefe und der HDR Farbraum. Der APL ist aber wie gesagt nicht wesentlich anders.
Edit: Relex war schneller;). Genau so isses.
Naya, ein OLED darf in HDR schon mehr knallen. Geht ja nicht nur um highlights mit 1000 nit bei 2% window, sondern wenn man mal in die Sonne schauen oder am halben Bildschirm den Himmel darstellen will. Da sieht man schon, wie OLED drosselt, es legt sich dann ein leichtes rauhiges grau über das Bild wegen dem ABL.
Das ist so ziemlich das einzige, was man noch an OLED kritisieren can. Aber klar, es ist besser als IPS, VA etc.. wo jedes Pixel geschrottet wird mit den spezifischen Panelnachteilen (mangelhafter Kontrast, bleeding, glowing, schlechte Schaltzeiten der Pixel etc), ausnahmslos und das zu jedem Zeitpunkt. Dunno wie man sich sowas noch antut freiwillig, da kann ich mir gleich ne AMD Karte einbauen wenn ich leiden will. :redface:
dargo
2024-05-01, 13:41:37
Ich weiß nicht, derzeitige OLED leuchten full white mit 220-250 nits.
Jetzt mal ernsthaft... das ist für HDR doch ein Witz. Bei SDR würde ich sagen geht klar, aber doch nicht bei HDR. Außer deine HDR-Ausflüge begrenzen sich nur auf winzige Bildschirmbereiche.
Tesseract
2024-05-01, 13:55:14
gutes HDR beschränkt sich in 99,9% der fälle nur auf winzige bildschirmbereiche, was denn sonst? wo gibt es in HDR "volles weiß" außer nach flashbangs oder in irgendwelchen cutscene transitions?
wieviel bildfläche nimmt eine typische sonne in einem spiel ein? 2%? :freak:
Cubitus
2024-05-01, 14:11:42
Jetzt mal ernsthaft... das ist für HDR doch ein Witz. Bei SDR würde ich sagen geht klar, aber doch nicht bei HDR. Außer deine HDR-Ausflüge begrenzen sich nur auf winzige Bildschirmbereiche.
Es kommt immer auf den Bildinhalt an, Highlights Hervorhebung ist ein Must Have. Wobei ich finde das 25 bzw. 50 Prozent Bildinhalt Abdeckung schon wichtig ist. Da lobe ich mir meinen C3, der macht das mit den richtigen konfigurierten Modis super.
Also bis auf das gelegentliche VRR Flackern, bietet OLED das ultimative HDR Erlebnis, einfach weil sich jede Pixel einzeln steuern lassen. Probleme die es auf FALD Displays gibt, bis auf das VRR flackern, gibt es bei OLED so nicht.
Wichtig ist eben das der Bildschirm nicht so arg viel Helligkeit verliert. Und das das Auto-brightness limiting nicht allzu aggressiv ist.
Savay
2024-05-01, 14:14:09
Jetzt mal ernsthaft... das ist für HDR doch ein Witz.
Ist es nicht! :tongue:
Vollflächig derart hohe Helligkeiten gibt es in realem Material kaum bis gar nicht.
Und wenn dann sowieso eher nur für (sehr) kurze Zeit.
Jegliche ABL kicken m.E. zudem ja auch nicht sofort sondern leicht verzögert mit ner linearen Absenkung.
Sich permanent mit weit über 200nits bestrahlen lassen zu wollen finde ich eh etwas drollig.
Gaming am Abend mit Sonnenbrille oder Mittags mit Sonneneinstrahlung direkt auf dem Screen?! :freak:
PS
Mein Yoga 7 schafft dauerhaft ~400nits...
Das brauche ich maximal auf der Terasse...im Sommer.
Ex3cut3r
2024-05-01, 14:22:21
Dargos Vorurteile sind meistens stark ausgeprägt, doch sobald er etwas selbst ausprobiert, ist er normalerweise begeistert – ein wirklich komplizierter Kerl.
Relex
2024-05-01, 14:25:00
Jetzt mal ernsthaft... das ist für HDR doch ein Witz. Bei SDR würde ich sagen geht klar, aber doch nicht bei HDR. Außer deine HDR-Ausflüge begrenzen sich nur auf winzige Bildschirmbereiche.
Glaub du hast mich auf Ignore oder? :D
Hier nochmal, die Grafik zeigt es ganz gut:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88002&stc=1&d=1714564136
So the reality is that HDR should mainly add to the existing brightness range of SDR displays, so more detail can be seen in the brighter areas of the image, where existing SDR images simply clip, or at least roll-off, the image detail.
The following histogram is a simplified view of the difference between a SDR (Standard Dynamic Range) image, and its PQ HDR equivalent.
Note that the APL (Average Picture Level) remains approximately consistent between the SDR and ST2084 HDR images, with just the contrast range and specular highlight levels increasing.
Die Wahrnehmung von Helligkeit ist logarithmisch. Du siehst das gut daran, dass das meiste im Histogramm unterhalb 100 nits ist und diese 100 nits auch mittig platziert sind, obwohl die Skala bis 10.000 Nits geht. Würde man die Grafik bei 1000 nits abschneiden, wären die 100 nits sogar bereits deutlich näher am rechten Rand.
Ich glaube du hast ne etwas falsche Vorstellung von HDR. Ich kann wirklich nur dringend dazu raten sich den Artikel mal durchzulesen:
https://www.lightillusion.com/what_is_hdr.html
Naya, ein OLED darf in HDR schon mehr knallen. Geht ja nicht nur um highlights mit 1000 nit bei 2% window, sondern wenn man mal in die Sonne schauen oder am halben Bildschirm den Himmel darstellen will. Da sieht man schon, wie OLED drosselt, es legt sich dann ein leichtes rauhiges grau über das Bild wegen dem ABL.
Der Himmel ist IRL dunkler als z.B. eine Mauer oder Kiesel wo die Sonne drauf scheint und das Sonnenlicht zurückgeworfen wird. Selbst wenn man sich specular highlights weg denkt. Der Himmel muss also relativ zum Rest des Bildes nicht sonderlich knallen, wenn der Himmel großflächig im Bild ist. Wenn dann nur die Sonne oder Specular Highlights.
Der Himmel soll nur dann hell sein, wenn das meiste vom Bild dunkel ist (wegen eye Adaption). Wie gesagt, das kannst dir in Spielen alles mit Reshade anzeigen lassen. (Vorausgesetzt man hat die Regler richtig eingestellt, sonst machts ja keinen Sinn)
Hier, kann ich auch beweisen, z.B. mit Horizon Forbidden West.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88003&stc=1&d=1714565967
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88004&stc=1&d=1714565967
Der Himmel ist kaum heller als der Rest, nur die Wolken gehen stellenweise bis ca 300 nits. Nur die Partikel im Vordergrund gehen bis auf 1000 nits
Sobald die Sonne dann ins Bild kommt, sieht man auch im Himmel im Bereich der Sonne eben die 1000 nits. Der Himmel selbst bleibt über die fläche aber eben vergleichsweise "dunkel".
Das was du hier im Histogramm siehst ist natürlich das Signal so wie es vom Spiel kommt, ohne Einfluss vom Monitor.
PS: Schau mal auf die AVG nits. 25.... 25!!
Und hier verlangen Leute 1000 vollflächig.
Das zeigt, wie wenig Verständnis für das Thema vorhanden ist.
Die ganzen HDR Demos Videos auf YouTube würde ich übrigens nicht als Referenz nehmen. Da sind alle Regler auf 11 gedreht. So sieht KEIN normaler HDR Content aus. Wenn dann schau dir Dolby Vision Content von BluRay oder Netflix oder AppleTV+ an. Das ist ordentlich gemastertes HDR (zumindest dann, wenn es nicht gerade nur ein SDR Film im HDR container ist). Im Cinema Modus wird da selbst mein 800 nits LG OLED nur gefühlt zur Hälfte ausgenutzt hinsichtlich durchschnittlicher Bildhelligkeit. Ein Display das die 800 nits auch vollflächig könnte, würde da absolut null Unterschied in der Darstellung machen.
Mit im gleichen Masse Artefaktbehaftet meinte ich, dass die herauskommende Bewegung aller Zwischenframes auf der nicht mehr richtig rekonstruierbaren Bewegung resultieren. Man nutzt ja nicht nur 1 Frame, man nutzt immer 2 (A& B) und rekonstruiert dann die Bewegung. Ob du da nun 10 oder 1 dazwischen schiebst, kommt nicht drauf an für die korrekt (oder eben nicht korrekt) rekonstruierten Bewegung.
Aber ja klar, natürlich ist das 1. Zwischenbild weniger weit weg vom echten Frame A. Aber man darf jetzt nicht meinen, dass dieses keine Artefakte aufweist, weil dieses ja näher ist. Es handelt sich ja nicht um extrapolation, wo man in die Zukunft spekuliert. Dann könnte man sagen, dass je näher desto wahrscheinlicher wird eine Artefaktfreie Darstellung.
Ich hätte es so sagen sollen.
Aber trotzdem: Es wird die völlig falsche Daratellung einfach "Smoother" dargestellt. Falsch ist sie trotzdem. Natürlich, das 1. Frame sieht (noch) nicht so falsch aus.
Ja, so wird auch für mich ein Schuh draus. Du kannst natürlich durchaus schon im ersten Frame Artefakte sehen, ggf. auch stärkere welche sich dann bis zum mittleren Frame verschlimmern.
Aber durch den immernoch geringen zeitlichen Unterschied dürfte das Artefakt selbst wenn es bereits da ist (z.B. disocclusion artefakt) vergleichsweise wenig auffällig sein.
Es kommt wahrscheinlich auch auf den Content an.
dargo
2024-05-01, 14:31:13
Verdammt... leider habe ich diesen Test verpasst.
https://tftcentral.co.uk/reviews/cooler-master-tempest-gp27u
Das erklärt dann auch warum ich ein dezentes Flackern mit lokal Dimming wahrnehme. Die sagen zwar, dass in der Praxis es zu keinem wahrnehmbaren Flackern kommen sollte, dem ist aber leider nicht so.
Edit:
In einem anderen Forum (viel weiße Fläche mit einzelnen dunklen Leisten als Trennung zwischen den Usern) gibts ein richtig übles Flackern mit lokal Dimming beim scrollen mit der Maus. Ohne lokal Dimming alles sauber. Ich bin echt fassungslos wie man so einen Bildschirm releasen kann. :facepalm:
aufkrawall
2024-05-01, 14:53:22
Ich weiss, dass ich es sehe.
Warum fällt es dann hier beim HUD ohne Ausklammerung extrem auf, bei Elementen der 3D-Szene aber ~gar nicht?
https://i.ibb.co/n8vvn2M/Dying-Light-Game-x64-rwdi-2024-01-15-20-49-10-079.png
Kann ein Dutzend Screenshots machen, und auf keinem ghostet die 3D-Szene. Die sieht quasi identisch aus zu FSR Upsampling on FG off.
Cubitus
2024-05-01, 15:15:55
Glaub du hast mich auf Ignore oder? :D
Hier nochmal, die Grafik zeigt es ganz gut:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88002&stc=1&d=1714564136
Die Wahrnehmung von Helligkeit ist logarithmisch. Du siehst das gut daran, dass das meiste im Histogramm unterhalb 100 nits ist und diese 100 nits auch mittig platziert sind, obwohl die Skala bis 10.000 Nits geht. Würde man die Grafik bei 1000 nits abschneiden, wären die 100 nits sogar bereits deutlich näher am rechten Rand.
Ich glaube du hast ne etwas falsche Vorstellung von HDR. Ich kann wirklich nur dringend dazu raten sich den Artikel mal durchzulesen:
https://www.lightillusion.com/what_is_hdr.html
Der Himmel ist IRL dunkler als z.B. eine Mauer oder Kiesel wo die Sonne drauf scheint und das Sonnenlicht zurückgeworfen wird. Selbst wenn man sich specular highlights weg denkt. Der Himmel muss also relativ zum Rest des Bildes nicht sonderlich knallen, wenn der Himmel großflächig im Bild ist. Wenn dann nur die Sonne oder Specular Highlights.
Der Himmel soll nur dann hell sein, wenn das meiste vom Bild dunkel ist (wegen eye Adaption). Wie gesagt, das kannst dir in Spielen alles mit Reshade anzeigen lassen. (Vorausgesetzt man hat die Regler richtig eingestellt, sonst machts ja keinen Sinn)
Hier, kann ich auch beweisen, z.B. mit Horizon Forbidden West.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88003&stc=1&d=1714565967
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88004&stc=1&d=1714565967
Der Himmel ist kaum heller als der Rest, nur die Wolken gehen stellenweise bis ca 300 nits. Nur die Partikel im Vordergrund gehen bis auf 1000 nits
Sobald die Sonne dann ins Bild kommt, sieht man auch im Himmel im Bereich der Sonne eben die 1000 nits. Der Himmel selbst bleibt über die fläche aber eben vergleichsweise "dunkel".
Das was du hier im Histogramm siehst ist natürlich das Signal so wie es vom Spiel kommt, ohne Einfluss vom Monitor.
PS: Schau mal auf die AVG nits. 25.... 25!!
Und hier verlangen Leute 1000 vollflächig.
Das zeigt, wie wenig Verständnis für das Thema vorhanden ist.
Die ganzen HDR Demos Videos auf YouTube würde ich übrigens nicht als Referenz nehmen. Da sind alle Regler auf 11 gedreht. So sieht KEIN normaler HDR Content aus. Wenn dann schau dir Dolby Vision Content von BluRay oder Netflix oder AppleTV+ an. Das ist ordentlich gemastertes HDR (zumindest dann, wenn es nicht gerade nur ein SDR Film im HDR container ist). Im Cinema Modus wird da selbst mein 800 nits LG OLED nur gefühlt zur Hälfte ausgenutzt hinsichtlich durchschnittlicher Bildhelligkeit. Ein Display das die 800 nits auch vollflächig könnte, würde da absolut null Unterschied in der Darstellung machen.
Ja, so wird auch für mich ein Schuh draus. Du kannst natürlich durchaus schon im ersten Frame Artefakte sehen, ggf. auch stärkere welche sich dann bis zum mittleren Frame verschlimmern.
Aber durch den immernoch geringen zeitlichen Unterschied dürfte das Artefakt selbst wenn es bereits da ist (z.B. disocclusion artefakt) vergleichsweise wenig auffällig sein.
Es kommt wahrscheinlich auch auf den Content an.
Würde deinem Beitrag (y) geben aber die olle Forumssoftware gibts ja nicht her. Aber sehr schön zusammengefasst. Dafür eventuelle Ignore Umgehung :)
Troyan
2024-05-01, 15:50:30
Nö, falsch. Nur die Highlights sollen hell sein, NICHT das gesamte Bild. Das sollte sich größtenteils mit SDR decken! HDR erweitert SDR nur an den stellen wo SDR ans Limit kommt und einen Roll-off oder clipping hätte.
Siehe hier:
https://www.lightillusion.com/what_is_hdr.html
Das ergibt kein Sinn. "Highlights" würden bei der Argumentation überhaupt nicht existieren, da der Kontrast bei OLED immer unendlich ist - egal ob 100 oder 1000 Nits.
fulgore1101
2024-05-01, 17:24:56
@dargo
Das ist alles für 700€ natürlich sehr ärgerlich! :(
SamLombardo
2024-05-01, 17:47:07
Jetzt mal ernsthaft... das ist für HDR doch ein Witz. Bei SDR würde ich sagen geht klar, aber doch nicht bei HDR. Außer deine HDR-Ausflüge begrenzen sich nur auf winzige Bildschirmbereiche.
dargo, schau es dir selbst an um mitzureden. Vollfläches Weiß ist für den HDR Effekt relativ irrerelevant. Spitzenlichter bei den G4 oder "D" QD-OLED sind über 2000 Nits hell, was noch mal deutlich eindrucksvoller wirkt als ein LCD mit 2000 Nits Spitze. Einfach durch den unendlichen Kontrast. Wie gesagt selber angucken und Kinnlade wiederhochdrücken:). OLED sind für HDR gemacht.
dargo
2024-05-01, 17:52:39
@dargo
Das ist alles für 700€ natürlich sehr ärgerlich! :(
Jepp... ich bin mir aktuell nicht mal sicher was mich mehr ärgert. Dass Hersteller sowas zum unverschämten Preis (regulär waren das 900-1000€) releasen? Dass renommierte Reviewer die Flicker Problematik von lokal Dimming im Alltag gar nicht sehen/erwähnen oder meine verschwendete Freizeit für den Aufbau und das Testen sowie Retoure. :mad:
PS: ich werde die exzellente Schriftendarstellung von 4k @27" aber definitiv vermissen. Verdammt... :usad:
dargo, schau es dir selbst an um mitzureden.
Wie oft denn noch? Es gibt bei OLED aktuell nichts anzuschauen weil es keinen 27-28" 4k OLED gibt. Wenn irgendwann was Passendes von den Herstellern kommt werde ich eventuell einen weiteren Testversuch starten. HDR schön und gut, mich muss ein neuer Monitor vor allem aber auch am Desktop überzeugen.
Edit:
In einem anderen Forum (viel weiße Fläche mit einzelnen dunklen Leisten als Trennung zwischen den Usern) gibts ein richtig übles Flackern mit lokal Dimming beim scrollen mit der Maus. Ohne lokal Dimming alles sauber. Ich bin echt fassungslos wie man so einen Bildschirm releasen kann. :facepalm:
Mist... hier ist mir ein übler Fehler passiert. Hatte vergessen in Windows HDR zu deaktivieren. Kommando zurück... mit SDR und lokal Dimming kein Flackern mehr bei diesem Thema.
Thunder99
2024-05-01, 18:14:57
Es gibt einfach nicht den perfekten Monitor gerade. Musste es selbst feststellen. Aber OLED ist auch zum arbeiten geeignet. :)
Ex3cut3r
2024-05-01, 19:44:50
Wie oft denn noch? Es gibt bei OLED aktuell nichts anzuschauen weil es keinen 27-28" 4k OLED gibt. Wenn irgendwann was Passendes von den Herstellern kommt werde ich eventuell einen weiteren Testversuch starten. HDR schön und gut, mich muss ein neuer Monitor vor allem aber auch am Desktop überzeugen.
Warum keinen 31,5" 4K OLED mit 240Hz? Warum beschränken auf 27" oder 28"?
Ein 31,5" Monitor bietet immer noch 140 PPI mit einer 125% Skalierung in Windows, vergleichbar mit einem 27" Monitor mit 1440p und 100% Skalierung, jedoch mit einem deutlich besseren Schriftbild und einer viel größeren Immersion beim Spielen oder Filme schauen.
Der_Korken
2024-05-01, 19:56:05
Die 32er OLEDs sind schlecht verfügbar, meist nur bei irgendwelchen Noname-Händlern, mit ewig langen Lieferzeiten, zu imho überteuerten Euro-Preisen und dem Risiko, dass einem das 1400€+ Gerät nach 3 Jahren beim Arbeiten eingebrannt ist. Solange es keine belastbaren Langzeittests und bessere Verfügbarkeit gibt, würde ich von sowas als Auch-Arbeitsgerät die Finger lassen.
dargo
2024-05-01, 19:57:18
Warum keinen 31,5" 4K OLED mit 240Hz? Warum beschränken auf 27" oder 28"?
Weil ich gerne die höheren PPI mitnehme und 32" am Schreibtisch bei 60cm Sitzabstand für etwas bedenklich halte. Aber in dieser Beziehung bin ich noch sehr unentschlossen.
btw.
In Talos 2 ist Flackern auch sehr gut mit lokal Dimming erkennbar mit SDR.
Die 32er OLEDs sind schlecht verfügbar, meist nur bei irgendwelchen Noname-Händlern, mit ewig langen Lieferzeiten, zu imho überteuerten Euro-Preisen und dem Risiko, dass einem das 1400€+ Gerät nach 3 Jahren beim Arbeiten eingebrannt ist. Solange es keine belastbaren Langzeittests und bessere Verfügbarkeit gibt, würde ich von sowas als Auch-Arbeitsgerät die Finger lassen.
Das kommt noch hinzu. Für den 32" OLED mit 4k und 240Hz ist es noch viel zu früh. Bei GH sehe ich einzelne Angebote ab ca. 1400€ und noch nicht mal lieferbar. Und den Early Adopter möchte ich auch nicht unbedingt spielen.
horn 12
2024-05-01, 20:08:16
Dell für 1120 Euro den Alienware 3225QF
Mit Cashback und 5% gute 1000 Euro.
Tesseract
2024-05-01, 20:11:35
32" ist links und rechts jeweils gerade mal ~3m breiter und die ppi sind visuell viel näher an 4k/28 als 1440p/27. finde das eigentlich eine sehr gute größe für 4k.
mit QDOLED muss man halt bedenken, dass der raum darauf ausgelegt sein sollte, d.h. gut kontrollierbares umgebungslicht. WOLED ist da definitiv "alltagsfreundlicher" als universalmonitor. dafür rockt QD in punkto farbbrillianz. in szenen mit viel farbe (dunkle straße mit neonlichtern usw.) wischen die QD mit meinem C1 den boden auf, hätte nie gedacht dass der unterschied da so groß ist.
dargo
2024-05-01, 20:23:28
Dell für 1120 Euro den Alienware 3225QF
Mit Cashback und 5% gute 1000 Euro.
Ein gebogenes Panel kaufe ich nicht, habe ich schon mehrmals gesagt. :) Achja... und kein Lüfter im Monitor!!!
Ex3cut3r
2024-05-01, 20:23:36
Man gewöhnt sich sehr schnell an die Größe. Und die PPi @ 4K sind immer noch sehr gut für einen PC Monitor.
https://s20.directupload.net/images/240501/o4uhmdec.jpg
Der_Korken
2024-05-01, 20:25:46
Dell für 1120 Euro den Alienware 3225QF
Mit Cashback und 5% gute 1000 Euro.
- curved
- Lieferzeiten immer noch random bzw. von Dell-Support nur schlechtes gehört bisher
- Lüfter (lässt auf schlechte Temps und somit schneller alternde OLEDs schließen)
- andere 32er haben noch einen KVM-Switch (auch ich persönlich ihn nicht brauche)
mit QDOLED muss man halt bedenken, dass der raum darauf ausgelegt sein sollte, d.h. gut kontrollierbares umgebungslicht. WOLED ist da definitiv "alltagsfreundlicher" als universalmonitor.
Bei mir liefen bisher alle LCDs durchgehend mit max. 25% Helligkeit, d.h. da mache ich mir wenig Sorgen, dass mir ein Monitor nicht hell genug ist. Vielmehr ist es für den Verschleiß sogar sehr schlecht, wenn er ständig mit hoher Helligkeit und viel Weißanteil läuft.
aufkrawall
2024-05-01, 20:27:46
Er meint den Lila-Stich für Schwarz bei QD-OLED durch Umgebungslicht. Würd ich auch nicht haben wollen.
dargo
2024-05-01, 20:31:20
32" ist links und rechts jeweils gerade mal ~3m breiter und die ppi sind visuell viel näher an 4k/28 als 1440p/27. finde das eigentlich eine sehr gute größe für 4k.
Hmm... ok, 3cm pro Seite mehr hört sich dann wiederum doch nicht so riesig an. :uponder: Zur Not könnte ich den Sitzabstand noch auf 70cm erweitern, dann ist aber definitiv Schluss hier. Aber ich denke die neuen OLEDs mit 4k und 240Hz sind frühestens was für Ende 2024 wenn du keinen Early Adopter spielen willst. Ich möchte nicht wissen wie viele Firmware Updates wieder nötig sind bis die Dinger fertig gepatched sind.
Tesseract
2024-05-01, 20:38:03
Bei mir liefen bisher alle LCDs durchgehend mit max. 25% Helligkeit, d.h. da mache ich mir wenig Sorgen, dass mir ein Monitor nicht hell genug ist.
was hat das mit der angesteuerten helligkeit zu tun? QD werden hell wenn umgebungslicht drauf fällt, unabhängig davon wie hell das panel eingestellt ist oder ob es überhaupt eingeschaltet ist - und das nicht nur bei direktem einfall sondern allgemein viel ambientem licht. mit WOLED ist das nicht so. wenn der raum darauf ausgelegt ist, d.h. man abdunkeln kann, kein großes problem aber in einem hellen raum ist das ein ähnlich gravierendes problem wie winkelabhängigkeit auf LCD. im gegensatz zu den ganzen pseudoargumenten wie subpixelstruktur oder DSC ist das ein wirklich praxisrelevanter aspekt den man bedenken muss.
robbitop
2024-05-01, 20:47:24
DSC verhindert (oft) DSR. Das ist schon mitunter ein Nachteil.
Laut Monitors Unboxed sieht Textrendering auf dem 4K 32“ QDOLED tatsächlich leicht besser aus als auf dem woled Äquivalent (trotz neuem subpixelmuster dort).
Tesseract
2024-05-01, 20:48:18
ja das schon, ich meinte die kompression.
Der_Korken
2024-05-01, 20:57:57
Er meint den Lila-Stich für Schwarz bei QD-OLED durch Umgebungslicht. Würd ich auch nicht haben wollen.
Ah, das Problem kannte ich noch gar nicht. Das dürfte aber für den eigenen Raum sehr schwer zu schätzen sein wie stark man betroffen wäre. Viel Umgebungslicht habe ich in Summe nicht, da ich Monitore mit geringer Helligkeit betreibe, aber rechts von mir habe ich immer eine Schreibtischlampe leuchten. Vom Fenster sitze ich weit weg (parallel zum Fenster sitzend).
Platos
2024-05-01, 21:51:59
Warum fällt es dann hier beim HUD ohne Ausklammerung extrem auf, bei Elementen der 3D-Szene aber ~gar nicht?
https://i.ibb.co/n8vvn2M/Dying-Light-Game-x64-rwdi-2024-01-15-20-49-10-079.png
Kann ein Dutzend Screenshots machen, und auf keinem ghostet die 3D-Szene. Die sieht quasi identisch aus zu FSR Upsampling on FG off.
Verstehe grad nicht, worum es hier geht bzw. was du sagen willst. Ich meinte ja, dass man bei schnellen Bewegungen bei FG Artefakte sieht (also nicht nur schnelle Bewegungen vom Spieler, sondern eben wie im Beispiel genannt auch z.B wenn Spiderman die Wand hoch läuft etc).
Verstehe auch nicht ganz den Zusammenhang zu FSR ohne FG, weil es ging ja um FG ??
Slipknot79
2024-05-01, 23:55:05
- Lüfter (lässt auf schlechte Temps und somit schneller alternde OLEDs schließen).
Der Lüfter läuft aber nie. Wie beim DWF.
Außer: Knallende 100% Helligkeit, konsequent heller content, nach 30min, im Sommer.
Also nie.
aufkrawall
2024-05-02, 03:39:35
Verstehe grad nicht, worum es hier geht bzw. was du sagen willst. Ich meinte ja, dass man bei schnellen Bewegungen bei FG Artefakte sieht (also nicht nur schnelle Bewegungen vom Spieler, sondern eben wie im Beispiel genannt auch z.B wenn Spiderman die Wand hoch läuft etc).
Ggf. hat DLSS das Problem stärker als FSR. Hatte schon mal Videos für 30 -> 60fps mit beiden Varianten verlinkt und DLSS sah dabei deutlich schlechter aus.
Verstehe auch nicht ganz den Zusammenhang zu FSR ohne FG, weil es ging ja um FG ??
Der Zusammenhang ist, dass du die Upsampling-/TAA-Artefakte siehst, die von FG praktisch nicht (Schatten und Bildränder ggf. ausgeklammert).
dargo
2024-05-02, 07:29:10
Heute teste ich den neuen Monitor etwas beim produktiven Arbeiten. Also die 4k Auflösung bzw. Schriftendarstellung ist ein Träumchen in SAP und Konsorten. :love4: Witzigerweise schafft das HDMI-Kabel welches ich vom Betrieb zur Verfügung für Home Office gestellt bekommen habe bei 4k nur 30Hz. X-D Oder der Laptop bzw. die iGPU von Intel limitiert hier, keine Ahnung.
Platos
2024-05-02, 12:46:31
Ggf. hat DLSS das Problem stärker als FSR. Hatte schon mal Videos für 30 -> 60fps mit beiden Varianten verlinkt und DLSS sah dabei deutlich schlechter aus.
Der Zusammenhang ist, dass du die Upsampling-/TAA-Artefakte siehst, die von FG praktisch nicht (Schatten und Bildränder ggf. ausgeklammert).
Hmm, aber wie kommst du darauf, dass ich sie nicht sehe bei FG? Ich habe ja die ganze Zeit gesagt, dass ich die Artefakte bei nvidia Framegen jetzt schon sehe?
Ich stehe grad auf dem Schlauch^^
w0mbat
2024-05-02, 12:56:42
Hab mir gerade den AW3423DWF geschossen, für 610€ + 12% cashback also knapp 550€. Mal schauen, ich hab schon Bock :D
woodsdog
2024-05-02, 13:36:40
Hab mir gerade den AW3423DWF geschossen, für 610€ + 12% cashback also knapp 550€. Mal schauen, ich hab schon Bock :D
Wo denn?
Ex3cut3r
2024-05-02, 13:40:07
Ah, das Problem kannte ich noch gar nicht. Das dürfte aber für den eigenen Raum sehr schwer zu schätzen sein wie stark man betroffen wäre. Viel Umgebungslicht habe ich in Summe nicht, da ich Monitore mit geringer Helligkeit betreibe, aber rechts von mir habe ich immer eine Schreibtischlampe leuchten. Vom Fenster sitze ich weit weg (parallel zum Fenster sitzend).
QD OLED mit miserablen Coating in Aktion, jegliches direkte Licht im Raum vor dem Monitor = miserable Schwarzwerte
Da kann QD OLED noch so viel besser als WOLED sein, das ist für mich ein K.O. Argument.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12980298&postcount=14067
w0mbat
2024-05-02, 13:59:02
Wo denn?
Direkt bei Dell + Shoop.
Tesseract
2024-05-02, 14:00:29
QD OLED mit miserablen Coating in Aktion
das ist kein coating, das sind die quantum dots die mit dem licht reagieren. dazu muss man aber auch sagen dass ausnahmslos jeder monitor, von CRT über LCD bis OLED, bei viel umgebungslicht deutlich schlechter performt als bei "kerzenschein". mit einem QD ist der unterschied zwichen best case und worst case einfach nur größer aber wenn man das maximum aus seinem monitor holen will muss der raum sowieso kontrolliert sein.
woodsdog
2024-05-02, 14:08:12
Direkt bei Dell + Shoop.
bei mir sagt er mit dem 28% DELLAW3423DWF Code nur das er schon eingelöst wurde - 1079 Eur bidde
50% inkl Cashback klingt auch irgendwie etwas zu gut
dargo
2024-05-02, 14:13:48
QD OLED mit miserablen Coating in Aktion, jegliches direkte Licht im Raum vor dem Monitor = miserable Schwarzwerte
Da kann QD OLED noch so viel besser als WOLED sein, das ist für mich ein K.O. Argument.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12980298&postcount=14067
Meine Fresse.... darauf muss man also auch noch achten. Diese Bildschirmtechnologien sind einfach nur noch zum heulen.
Exxtreme
2024-05-02, 14:14:43
bei mir sagt er mit dem 28% DELLAW3423DWF Code nur das er schon eingelöst wurde - 1079 Eur bidde
50% inkl Cashback klingt auch irgendwie etwas zu gut
Geh über Google rein. ;D Bei mir zeigt er da 916,38 € an und das ohne den Gutschein.
Edit: Die Meldung mit dem eingelösten Gutscheincode bekomme ich auch. Und dann springt der Preis auf 1078 EUR hoch. Komisch ...
w0mbat
2024-05-02, 14:35:31
Scheint abgelaufen bzw. von Dell nicht so geplant gewesen zu sein. Mal sehen, ob meiner kommt. Bestellbestätigung hab ich schon.
Thunder99
2024-05-02, 22:08:44
Finde es wird übertrieben mit QD-OLED und dieser Problematik. Kann es hier bei mir nicht nachvollziehen. Es kommt auf den Raum und dessen Beleuchtung an ob das nun ein Problem ist oder nicht.
Dunkle sowieso bei mir am Nachmittag den Raum ab da die Sonneneinstrahlung vor dem Monitor nicht schon immer gestört hat :D
Slipknot79
2024-05-02, 22:40:23
IPS/VA/TN Panel Hintergrundbeleuchtung stört nicht, aber Licht unter einem bestimmten Winkel auf das OLED Panel wird zur Sorge? :confused:
Wobei mir sowieso nie klar war, warum man überhaupt einen hellen Gamingplatz haben möchte. (y)
Lurtz
2024-05-03, 07:51:52
IPS/VA/TN Panel Hintergrundbeleuchtung stört nich
Das hat niemand gesagt. Aber wenn man für den dreifachen Preis schon auf einen OLED wechselt, will man natürlich nicht solche Probleme behalten.
robbitop
2024-05-03, 08:00:26
Naja alternativ gibt es ja noch WOLEDs. Der perfekten Monitor wird es ohnehin nie geben. Aber wenn man sich anschaut, wie gut moderne OLED Monitore (trotz einiger Schwächen) sind, hat sich da schon ordentlich was getan. :)
Ich werde mir nächstes Jahr einen 32“ 4K240 QDOLED (warte noch auf dp2.1 Ausführung weil ich wert auf DSR lege und das geht (oft) nicht mit dsc). Dazu noch eine 5070. :)
dargo
2024-05-03, 08:49:35
Cooler Master Tempest GP27U ist wieder eingepackt und der alte ASUS MG279Q steht wieder auf dem Schreibtisch zum produktiven Arbeiten.
Ich muss ehrlich sagen ich bin schockiert, jetzt wo der ASUS wieder installiert ist, wie schlecht die Bildhomogenität bei dem CM bei einem vollen weißen Bild war. Der ASUS schafft zwar nicht so ein reines weiß wie der CM (das war bei dem CM wirklich fantastisch mit lokal Dimming), das was der ASUS aber schafft sieht über die gesamte Fläche gleich aus. Bei dem CM war das sichtbar fleckig (ging schon eher Richtung gelbe Flecken) in der rechten Ecke und unten. Eigentlich unfassbar für diese Preisklasse. Natürlich wäre es auch denkbar, dass ich in der Panellotterie damals mit dem ASUS Glück hatte. Der Unterschied bei der Schriftdarstellung ist jetzt aber doch nicht so rieeesig wie es anfangs den Anschein hatte zwischen 1440p und 2160p bei gleicher Fläche. Ja... es gibt einen sichtbaren Unterschied, aber ich denke der "Fliegengittereffekt" war damals doch etwas größer von 1080p @24" auf 1440p @27". Dennoch wird mein nächster Bildschirm ein 4K Screen mit 27-32" wenn alle Rahmenbedingungen passen. Überzeugende Bildschirmtechnologie und schnellere, preiswerte Grafikkarten in noch für mich akzeptablem Powerbudget. Also frühestens Ende 2024 wenn nicht sogar eher 2025. :) Die bessere Pixeldichte von 4k @27" hatte mir sehr gut in Games mit Upscaling gefallen. Horizon Forbidden West sah für mich in 4K + FSR 2.2 Balanced verdammt gut aus in Bewegung. Diverse Fuckups vom Upscaling und/oder TAA fallen bei 4K kaum noch auf.
VfBFan
2024-05-03, 09:30:41
Bildhomogenität bei größeren gleichfarbigen Flächen war bei meinem VA zum IPS auch um einiges schlechter. Kein Pro ohne Kontra, in jeglicher Hinsicht und Richtung.
dargo möchte den perfekten Monitor, den es nie geben wird. :)
Kannst ja auch auf 5K@27" warten, sollte dann mit 200%-Skalierung am wenigsten Probleme machen. ;)
Xaver Koch
2024-05-03, 09:40:09
Was spräche gegen den GIGABYTE AORUS FO32U2P?
Sehe gegenüber 27 Zoll 1440p folgende Vorteile.
+ Farbsäume um Schriften so gut wie nicht sichtbar
+ Native 1:1 Darstellung von UHD Inhalten (Bild und Video)
+ Blid durch höhere PPI sauberer, klarer und detailreicher
Für 1440p sprechen eigentlich nur der etwas geringere Preis und weniger Last an der Grafikkarte (dafür denke ich kann man bei 2160p auf AA und eventuell AF verzichten; "high" statt "ultra" sollte es auch tun).
Nur die für dargo zu geringe PPI bei 32 Zoll 2160p könnte ein Problem sein. ;)
Sollte es in der Praxis keine Probleme (inkl. DP 2.1) geben, wäre das auch mein persönlicher Favorit.
dargo
2024-05-03, 10:48:12
Kannst ja auch auf 5K@27" warten, sollte dann mit 200%-Skalierung am wenigsten Probleme machen. ;)
Dafür geht mir leider der GPU-Fortschritt viel zu langsam nach vorne. Hätten wir alle ~1,5 Jahre Faktor 2 bei "normalen" Preisen wäre das was anderes.
Bildhomogenität bei größeren gleichfarbigen Flächen war bei meinem VA zum IPS auch um einiges schlechter. Kein Pro ohne Kontra, in jeglicher Hinsicht und Richtung.
Du meinst dann kann ich gleich beim alten Bildschirm bleiben bis der kaputt geht? Auch gut... Geld gespart. :tongue:
Was spräche gegen den GIGABYTE AORUS FO32U2P?
* hoher Preis mit >1400€
* Early Adopter spielen, kein Bock drauf
* Einbrenngefahr über lange Nutzungsdauer, ich brauche den Monitor auch für Homeoffice
* Monitor muss dauerhaft an Strom für seine "Selbstheilung" hängen
Ganz ehrlich? Ich bin erstmal geheilt vom Monitor testen. Die Jahreszeit passt mir dafür auch überhaupt nicht. Vielleicht mal wieder im Winter. :)
Edit:
Boah... endlich kein Flackern mehr beim produktiven Arbeiten. Das war wirklich schlimm mit dem lokal Dimming.
Asaraki
2024-05-03, 11:27:01
Ernst gemeint : Warum stören sich scheinbar einige am „immer am Strom hängen“? Gehts da um das bisschen standby Strom oder ums „Prinzip“?
Relex
2024-05-03, 11:36:43
Versteh ich auch nicht. Standby Verbrauch dürfte bei Monitoren und TVs deutlich unter 1 W liegen...
Zumal man ja einfach den Monitor oder TV vom Rest trennen kann. Dann kann man den rest ja weiterhin ganz vom Strom nehmen.
Was beim TV wie z.B. bei meinem LG OLED reinhaut sind die Online Funktionen im Standby. z.B. dass man den TV per YouTube Pairing vom Handy aufwecken kann, wenn er im Standby ist.
Das kostet durchgehend 15 W nur dafür, dass ich mir den Druck auf den Einschaltknopf der Ferbedinung spare.
Dass sowas bei all den EU Einschränkungen überhaupt erlaubt ist werd ich nie verstehen.
dargo
2024-05-03, 11:44:25
Ernst gemeint : Warum stören sich scheinbar einige am „immer am Strom hängen“? Gehts da um das bisschen standby Strom oder ums „Prinzip“?
Ich sags mal so... wenn das der einzige Kompromiss wäre dann gehe ich den auch ein sofern beim Rest alles wirklich überzeugt. Es ist das kleinste Übel.
Cubitus
2024-05-03, 11:46:04
Versteh ich auch nicht. Standby Verbrauch dürfte bei Monitoren und TVs deutlich unter 1 W liegen...
Zumal man ja einfach den Monitor oder TV vom Rest trennen kann. Dann kann man den rest ja weiterhin ganz vom Strom nehmen.
Was beim TV wie z.B. bei meinem LG OLED reinhaut sind die Online Funktionen im Standby. z.B. dass man den TV per YouTube Pairing vom Handy aufwecken kann, wenn er im Standby ist.
Das kostet durchgehend 15 W nur dafür, dass ich mir den Druck auf den Einschaltknopf der Ferbedinung spare.
Dass sowas bei all den EU Einschränkungen überhaupt erlaubt ist werd ich nie verstehen.
Ist dann die Option stets bereit oder?
Oder ist das die allgemeine Funktion das der TV über das Smartphone sich steuern lässt?
Xaver Koch
2024-05-03, 11:57:43
* hoher Preis mit >1400€
* Early Adopter spielen, kein Bock drauf
* Einbrenngefahr über lange Nutzungsdauer, ich brauche den Monitor auch für Homeoffice
* Monitor muss dauerhaft an Strom für seine "Selbstheilung" hängen
Deswegen schrieb ich ja, wenn in Tests und Praxis keine Probleme auftauchen und nicht gleich bestellen, wenn verfügbar. Von daher sehe ich den Punkt erly adaptor entstpannt. ;)
Gibt auch drei Jahre Garantie auf "Einbrennen" und man kann die Garantie bei vielen Händlern auf 5 Jahre verlängern, was ich angesichts des Preises (mal abwarten, wie der sich entwickelt) sicher tun werde.
Die "Regeneration" kann man auch manuell starten und beim Panasonic TV dauert es keine halbe Stunde. Danach kann man den Monitor m.E. auch vom Netz trennen.
Bleibt als einziger Kontrapunkt der Preis, aber wenn ansonsten alles stimmt und man mit ein paar Kleinigkeiten (bzw. gelegentlicher umstädlicher Handhabung), welcher jeder Montitor hat leben kann passt es für mich.
Relex
2024-05-03, 11:58:06
Ist dann die Option stets bereit oder?
Oder ist das die allgemeine Funktion das der TV über das Smartphone sich steuern lässt?
Ja, ist immer bereit, sobald der TV eingeschaltet wird. Ich brauche noch nichtmal die YouTube App selbst starten.
Einfach TV einschalten, auf dem Smartphone in der App verbinden und die YouTube App startet automatisch auf dem TV mit dem jeweiligen Video.
Wenn man die Standby online features aktiv lässt spart man sich also wirklich nur den Druck auf die Einschalttaste auf der Fernbedienung.
Aber gut, kann sein, dass man das für irgend welche anderen Funktionen auch noch gebrauchen kann. Wüsste nur nicht was.
dargo
2024-05-03, 12:27:38
Gibt auch drei Jahre Garantie auf "Einbrennen" und man kann die Garantie bei vielen Händlern auf 5 Jahre verlängern, was ich angesichts des Preises (mal abwarten, wie der sich entwickelt) sicher tun werde.
3 Jahre sind mir viel zu kurz. Und dann nochmal 200-300€ für zwei Jahre Garantieverlängerung draufzahlen wird mir zu affig. Zumal die Dinger eh schon teuer genug sind.
woodsdog
2024-05-03, 12:46:21
Meine Güte, dann kauf halt nix wenn alles 10 Jahre halten soll aber nix kosten darf, dabei aber perfekt sein muss...
Dieses seitenlange Thread-hijacking mit deinen persönlichen Befindlichkeiten dieser und jener Sache ggü nervt kolossal.
dargo
2024-05-03, 12:50:26
Meine Güte, dann kauf halt nix wenn alles 10 Jahre halten soll aber nix kosten darf, dabei aber perfekt sein muss...
Dein Leseverständnis ist wieder bemerkenswert. Wo habe ich gesagt, es darf nichts kosten? Hauptsache wieder etwas bellen. :ulol:
btw.
Du darfst mir aber auch gerne erklären warum ein Hersteller von sich aus keine 5 Jahre Garantie auf Einbrennen gewährleistet wenn er schon Preise von ~1400€ abruft? Ist der von der Haltbarkeit vielleicht doch nicht so überzeugt?
Cubitus
2024-05-03, 13:00:18
Ja, ist immer bereit, sobald der TV eingeschaltet wird. Ich brauche noch nichtmal die YouTube App selbst starten.
Einfach TV einschalten, auf dem Smartphone in der App verbinden und die YouTube App startet automatisch auf dem TV mit dem jeweiligen Video.
Wenn man die Standby online features aktiv lässt spart man sich also wirklich nur den Druck auf die Einschalttaste auf der Fernbedienung.
Aber gut, kann sein, dass man das für irgend welche anderen Funktionen auch noch gebrauchen kann. Wüsste nur nicht was.
Color Control benötigt das per Wifi Einschalten. 15 Watt dafuq: Dass muss ich heute Abend sofort ändern.
Dann schalte ich den TV eben wieder mit der Fernbedienung ein.. hab das ausgerechnet pro Jahr wären es ca 38 Euro für diesen "Luxus" Ist unnötig.
Der_Korken
2024-05-03, 13:09:14
Hier muss ich dargo tatsächlich beipflichten: Die mickrigen Burn-In-Garantien riechen für mich danach, dass die Hersteller genau wissen wie fragil die Panels sind. Vor allem sollte man auch nicht das Kleingedruckte in den Garantiebestimmungen übersehen:
https://www.computerbase.de/2024-04/garantie-oled-monitor-burn-in/
MSI
Kurz vor Gigabyte hatte MSI ebenfalls in diesem Jahr mit einer Pressemitteilung seine „3 Jahre-Sorglos-Garantie für OLED-Monitore“ bekannt gegeben, die ausdrücklich „nun auch bei Schäden durch Einbrennen“ greife. Den Garantiebedingungen auf der Website des Herstellers ist zu entnehmen, dass allerdings die Funktion „OLED Care“ weder verzögert noch ausgeschaltet oder anderweitig außer Betrieb gesetzt werden darf, damit die Garantie im Fall eines Burn-ins gilt.
Ist halt die Frage, was das bedeutet. Wenn der Refreshzyklus mitten in der Spielesession kommt, muss man das laufende Spiel abbrechen, weil MSI sonst im Garantiefall das Log ausliest und sieht, dass ich die Refreshes weggedrückt habe?
Es geht hier ja auch nicht um sporadische Defekte, die mit geringer Wahrscheinlichkeit auftreten, sondern um ein sicher eintretendes Ereignis, das in einem Totalschaden des gesamten Geräts resultiert. Wenn Burn-In statistisch bei 95% der Geräte überhaupt nicht auftreten würde (so wie alle möglichen Defekte), dann wäre die kurze Garantie verschmerzbar, weil man halt viel Pech haben muss, dass es einen überhaupt trifft.
Edit: Man könnte die Garantie statt in "Jahren" auch in "Betriebsstunden bei voller Helligkeit" angeben, wo geringere Helligkeiten entsprechend nur anteilig angerechnet werden. Dann ist das für mich als Nutzer transparent wie lange das Gerät wirklich hält.
Exxtreme
2024-05-03, 13:15:20
Edit: Man könnte die Garantie statt in "Jahren" auch in "Betriebsstunden bei voller Helligkeit" angeben, wo geringere Helligkeiten entsprechend nur anteilig angerechnet werden. Dann ist das für mich als Nutzer transparent wie lange das Gerät wirklich hält.
So einfach ist das auch nicht da das auch stark davon abhängt wie dynamisch das Bild ist. Benutzt du z.B. eine Entwicklungsumgebung dann ändern sich viele Bildelemente für tausende Stunden nicht etc. Selbst wenn diese Entwicklungsumgebung im dark mode läuft. Deshalb ist das extrem schwer vorauszusagen wie lange sowas halten wird.
The_Invisible
2024-05-03, 13:43:43
So einfach ist das auch nicht da das auch stark davon abhängt wie dynamisch das Bild ist. Benutzt du z.B. eine Entwicklungsumgebung dann ändern sich viele Bildelemente für tausende Stunden nicht etc. Selbst wenn diese Entwicklungsumgebung im dark mode läuft. Deshalb ist das extrem schwer vorauszusagen wie lange sowas halten wird.
Genau das wär auch mein Problem, unter meiner Linux-Produktivumgebung habe ich quasi einen Tilingmanager der die Fenster immer gleich anordnet und ich schon auswendig weiß wo was ist.
Wobei ich es bei 3 Jahre Garantie schon mal riskieren würde, ist aber eh nix lagernd, schlimmer als bei Grafikkarten...
Relex
2024-05-03, 13:50:41
Color Control benötigt das per Wifi Einschalten. 15 Watt dafuq: Dass muss ich heute Abend sofort ändern.
Dann schalte ich den TV eben wieder mit der Fernbedienung ein.. hab das ausgerechnet pro Jahr wären es ca 38 Euro für diesen "Luxus" Ist unnötig.
Ja, einfach mal mit nem Strommessgerät prüfen, was der so zieht.
Ich kann dir jetzt aber auf anhieb nicht sagen, welche Option man dafür genau deaktivieren muss. Aber findest du sicher recht schnell.
Wenn die Leistungsaufnahme runter geht, dann wars die richtige. :biggrin:
Ansonsten kann ichs auch nochmal prüfen, wenn du willst.
War übrigens bei meinem AVR genau das gleiche. Ebenfalls ca 15W im Standby, nur damit er im StandBy als Abspielgerät in Spotify sichtbar ist.
Da könnte man vielleicht noch argumentieren, dass es komfortabel ist, aber der hohe Stromverbrauch dafür ist schon etwas dekadent.
Edit:
Boah... endlich kein Flackern mehr beim produktiven Arbeiten. Das war wirklich schlimm mit dem lokal Dimming.
Warum aktiviert man auch local dimming beim produktiven Arbeiten, das ist doch sinnlos wenn nicht sogar kontraproduktiv.
dargo
2024-05-03, 14:44:20
Um bessere Schwarz-/ und Kontrastwerte zu erhalten. Welchen Sinn soll sonst ein Monitor mit lokal Dimming machen wenn ich es nicht überall nutzen kann?
Cubitus
2024-05-03, 14:45:22
Ja, einfach mal mit nem Strommessgerät prüfen, was der so zieht.
Ich kann dir jetzt aber auf anhieb nicht sagen, welche Option man dafür genau deaktivieren muss. Aber findest du sicher recht schnell.
Wenn die Leistungsaufnahme runter geht, dann wars die richtige. :biggrin:
Ansonsten kann ichs auch nochmal prüfen, wenn du willst.
War übrigens bei meinem AVR genau das gleiche. Ebenfalls ca 15W im Standby, nur damit er im StandBy als Abspielgerät in Spotify sichtbar ist.
Da könnte man vielleicht noch argumentieren, dass es komfortabel ist, aber der hohe Stromverbrauch dafür ist schon etwas dekadent.
Danke für dein Angebot :)
Werds mal testen mit dem Strommessgerät.
Denke die Option, "über Wifi Einschalten" ist der Übeltäter :)
Ist echt heftig, wenn man mal überlegt das 15 Watt locker 3 LED Birnen mit ca 400-500 Lumen abdecken können.
ChaosTM
2024-05-03, 14:47:20
Um bessere Schwarz-/ und Kontrastwerte zu erhalten. Welchen Sinn soll sonst ein Monitor mit lokal Dimming machen wenn ich es nicht überall nutzen kann?
Sollte man überall nutzen können, sonst ist es sinnlos..
dargo
2024-05-03, 14:54:58
Sollte man überall nutzen können, sonst ist es sinnlos..
Richtig, so sehe ich das auch. Wobei dieser Bildschirm auch in Games flackert, insofern ist das lokal Dimming nirgendwo einsetzbar. :freak: Ich würde zu gern wissen warum CM das lokal Dimming über eine Art "PWM" ansteuert. Denn das scheint mir das Hauptproblem dabei zu sein. Die Art der Ansteuerung.
Um bessere Schwarz-/ und Kontrastwerte zu erhalten. Welchen Sinn soll sonst ein Monitor mit lokal Dimming machen wenn ich es nicht überall nutzen kann?
Weil local dimming eben generell nicht das gelbe vom Ei ist, und auch Nachteile hat, und wo außer bei HDR-Content hast du überhaupt die Kontraste um davon nennenswert zu profitieren?
Savay
2024-05-03, 15:03:30
Meine Fresse.... darauf muss man also auch noch achten. Diese Bildschirmtechnologien sind einfach nur noch zum heulen.
Plasmas und CRTs hatten oft sehr ähnliche Probleme... :freak:
OLED ist als Technologie schon sehr nah an der Perfektion und besser als alles andere was wir bisher haben und hatten!
(Solange man keine Angst vorm Burn-In hat)
Die Homogenität bei meinem QD-OLED ist die mit abstand beste die ich je bei nem Monitor und Fernseher gesehen habe, die Farben absolut großartig, die HDR Experience gnadenlos gut...
Da nehme ich gerne in Kauf dass ich die Plissees nicht hoch ziehen kann und nicht mit angeschalteter Deckenlampe zocken kann, sondern den Hue Play Gradient Strip hinter dem Display nehmen "muss"! (aka es aber eh will, weil es einfach absolut geil ist mit der Hue Sync App!)
:tongue:
dargo
2024-05-03, 15:07:30
Ach du meine Güte...
Plasmas und CRTs hatten oft sehr ähnliche Probleme... :freak:
Sag bloß... bevor der Reifen erfunden wurde war der Transport von A nach B auch recht unkomfortabel. X-D
btw.
Meine Güte... ich sehe jetzt erst bei GH, dass der Monitormarkt bei 4k + 165(+)Hz + gerades Panel praktisch tot ist. :freak:
https://geizhals.de/?cat=monlcd19wide&xf=11940_32%7E11963_165%7E11996_keine+W%F6lbung%7E14591_38402160
Ok... weckt mich wieder in 2025. :tongue:
Savay
2024-05-03, 15:17:47
Sag bloß... bevor der Reifen erfunden wurde war der Transport von A nach B auch recht unkomfortabel. X-D
Wenn das der einzige nennenswerte Nachteil neben dem potenziellen Burn-In sein soll (den auch CRT und Plasmas hatten) ist der nun ziemlich unbedeutend verglichen mit den ganzen Vorteilen.
LCDs und vor allem VAs zeigen zudem leider oft diese brutalen Regenbögen bei Lichteinstrahlung und/oder das Coating führt zu Halos.
Dazu die generell schlechtere "Ausleuchtung" und mehr Homogenitätsprobleme.
Und IPS sind toll für productivity und SDR...aber für HDR irgendwie absolut ungeeignet egal wieviel Dimming man drauf wirft.
Direkte Lichteinstrahlung auf nen Display willst du zudem eigentlich nie haben.
Nutze den QD-OLED bisher nicht anders als die vorherigen IPS...und kann es zwar sehen...muss aber schon darauf anlegen, dass es wirklich stört.
Wobei mein Fenster zwar Südseite ist ich aber die Lichteinstrahlung gut kontrollieren kann. (Und zudem zur Not überall Rollos habe!)
Der Hinweis auf die Aufhellung ist m.E. auch eher relevant bei der Entscheidung zwischen QD-OLED oder WOLED als bei der generellen Entscheidung OLED oder LCD.
Wer nen sehr hellen Arbeitsplatz hat und dort die Lichteinstrahlung weniger gut kontrollieren kann sollte halt im Zweifel eher WOLED in Betracht ziehen.
ChaosTM
2024-05-03, 15:29:04
.. lool, es ist völlig wurscht, Hauptsache der Bildschirm wird nicht mehrt von hinten beleuchtet
Hübie
2024-05-03, 15:35:56
Color Control benötigt das per Wifi Einschalten. 15 Watt dafuq: Dass muss ich heute Abend sofort ändern.
Dann schalte ich den TV eben wieder mit der Fernbedienung ein.. hab das ausgerechnet pro Jahr wären es ca 38 Euro für diesen "Luxus" Ist unnötig.
Da streikt der Schwabe ;D :biggrin:
Das Angebot von Dell ist mittlerweile beendet. Ich war mit dem Finger auf dem Abzug, aber da ich mittlerweile fast nur noch oben an der XBOX daddel, dachte ich mir, ich lass anderen den Vortritt. Irgendwie bereue ich es nun doch... oder nicht? Oder doch nicht? :redface:
The_Invisible
2024-05-03, 16:03:05
Sag bloß... bevor der Reifen erfunden wurde war der Transport von A nach B auch recht unkomfortabel. X-D
btw.
Meine Güte... ich sehe jetzt erst bei GH, dass der Monitormarkt bei 4k + 165(+)Hz + gerades Panel praktisch tot ist. :freak:
https://geizhals.de/?cat=monlcd19wide&xf=11940_32%7E11963_165%7E11996_keine+W%F6lbung%7E14591_38402160
Ok... weckt mich wieder in 2025. :tongue:
Hä, 4k + >144Hz gibts ja noch gar nicht lange, das ist eher gerade eher am Blühen. Geh mal auf 144Hz runter und es gibt eine Menge.
ashantus
2024-05-03, 16:05:00
Sag bloß... bevor der Reifen erfunden wurde war der Transport von A nach B auch recht unkomfortabel. X-D
btw.
Meine Güte... ich sehe jetzt erst bei GH, dass der Monitormarkt bei 4k + 165(+)Hz + gerades Panel praktisch tot ist. :freak:
https://geizhals.de/?cat=monlcd19wide&xf=11940_32%7E11963_165%7E11996_keine+W%F6lbung%7E14591_38402160
Ok... weckt mich wieder in 2025. :tongue:
Ein guter kompletter Monitor kommt gerade auf den Markt, zuerst in Japan. Vielleicht ist er was. Benq Mobiuz EX321UX. Ist ein 32 Zoll 4k bei 144Hz und Helligkeit bis 1000nits. IPS mit Mini LED und 10 bit Farbtiefe (mit oder ohne FRC ist nicht bekannt). Anschlüsse HDMI 2.1 und DP 2.1.
Meldung gibt es bei Prad.
Cubitus
2024-05-03, 16:08:55
Da streikt der Schwabe ;D :biggrin:
Das Angebot von Dell ist mittlerweile beendet. Ich war mit dem Finger auf dem Abzug, aber da ich mittlerweile fast nur noch oben an der XBOX daddel, dachte ich mir, ich lass anderen den Vortritt. Irgendwie bereue ich es nun doch... oder nicht? Oder doch nicht? :redface:
Haha, ja genau sowas triggert mein schwäbisches Hirn..
Das ist ähnlich schlimm wie beim Händewaschen, beim Einseifen das Wasser laufen zu lassen, oder beim kleinen Geschäft die große Spülung zu verwenden ;D
Ich hatte kurz vor dem 42erC3 den Alienware QD-OLED mit 32 Zoll und 240Hz.
Ja an sich ein schönes Gerät, Problem war nur das er komplett verkratzt ankam, hab retourniert und bin durch Zufall auf ein gutes C3 Angebot gestoßen.. Mittlerweile stellte es sich als der bessere Kauf heraus.
Günstiger, mehr Multimedia, perfekte Verarbeitung (auf der Schutzfolie des LGs waren weniger Kratzer als wie auf dem eigentlichen Dell Panel)
Tolle Gaming Optionen, sehr gutes HDR, im Durschnitt Heller als der Dell oder sonstige aktuelle (QD)OLED-Monitore.
Und zu den Konsolen eine hervorragende Kompatibilität. Zudem lässt er sich auch prima als Arbeitsmonitor verwenden, weil 42 Zoll einen super Platz bieten.
Aktuell ist der TV für 858 Euro mit Versand zu haben.
https://fox-mart.de/lg-oled42c31la-oled-tv-42-zoll-107-cm-uhd-4k-smart-tv-webos-23-mit-lg-thinq/?utm_source=idealo.de&utm_campaign=idealo&utm_medium=cpc&utm_term=3361
ChaosTM
2024-05-03, 16:16:47
Mein 65 Oled, 1,3 Meter entfernt kommt sehr nahe an ein Kinoerlebnis.
Size still matters ;)
Cubitus
2024-05-03, 16:18:52
Mein 65 Oled, 1,3 Meter entfernt kommt sehr nahe an ein Kinoerlebnis.
Size still matters ;)
65 Zoll als Desktop mit max 1 Meter Abstand,
dann aber nur im Unterhemd und mit Sonnenbrille ;D
Fürs Wohnzimmer natürlich perfekt. :)
ChaosTM
2024-05-03, 16:22:19
65 Zoll als Desktop mit max 1 Meter Abstand,
dann aber nur im Unterhemd und mit Sonnenbrille ;D
Fürs Wohnzimmer natürlich perfekt. :)
Es sind 1,4 Meter und ja, ich sitze mit Unterhend ohne Sonnenbrille hier.
Probiers mal aus.
@ momentan sind es genau 140cm - die perfekte Entfernung für einen 4k 65er Monitor und 4k
dargo
2024-05-03, 16:40:37
Hä, 4k + >144Hz gibts ja noch gar nicht lange, das ist eher gerade eher am Blühen. Geh mal auf 144Hz runter und es gibt eine Menge.
144Hz habe ich seit vielen Jahren. Wenn schon neu für die nächsten 5+ Jahre dann darf es auch mehr sein. Zumal wenn ich die Auswahl auf OLED einschränke lande ich da wo ich vorher war... beim toten Markt. :D
Relex
2024-05-03, 16:44:44
Es sind 1,4 Meter und ja, ich sitze mit Unterhend ohne Sonnenbrille hier.
Probiers mal aus.
@ momentan sind es genau 140cm - die perfekte Entfernung für einen 4k 65er Monitor und 4k
Bei wahnsinnigen 1,4 Meter Entfernung "braucht" es so ne Größe aber auch.
Das entspricht ca 32 Zoll auf 70 cm Entfernung.
VfBFan
2024-05-03, 17:53:13
Ist echt heftig, wenn man mal überlegt das 15 Watt locker 3 LED Birnen mit ca 400-500 Lumen abdecken können.
Bei aktuellster Technik sind wir da aber gleich mal bei ingesamt 3000 Lumen. :)
Slipknot79
2024-05-03, 17:55:48
Das hat niemand gesagt. Aber wenn man für den dreifachen Preis schon auf einen OLED wechselt, will man natürlich nicht solche Probleme behalten.
Für den 3-fachen Preis bekommst du zB 5 Millionen-fach bessere Pixel zurück. (y)
Weltraumeule
2024-05-03, 18:39:08
Ernst gemeint : Warum stören sich scheinbar einige am „immer am Strom hängen“? Gehts da um das bisschen standby Strom oder ums „Prinzip“?
Ich habe Angst dass Feuer entsteht, während ich außer Haus bin. Außer Kühlschrank, Router und Telefon, sind alle meine Geräte im Haus an Steckdosenleisten mit Schalter und werden in der Nacht oder beim Verlassen des Hauses ausgeschaltet. Eventuell irrationale Angst, aber sie sitzt sehr tief bei mir :(
Savay
2024-05-03, 18:51:41
Gänzlich Irrational ist das nicht, nicht umsonst müssen Unternehmen Geräte nach DGUV V3 prüfen. (Bei uns mittlerweile auch jegliche private Geräte die mitgebracht werden)
Aber das derartige Markengeräte in Flammen aufgehen ist an sich schon extremst unwahrscheinlich!
Wer dem wirklich nicht traut kann die Geräte auch mal durch nen Elektriker prüfen lassen.
Größtes Problem sind aber eh nicht moderne (Marken)Schaltnetzteile mit ihrem sehr geringem Standby Verbrauch sondern eher Akkuladegeräte mit hoher Ladeleistung bzw. die daran hängenden Akkus (E-Bike, Handwerkzeuge und Co.), sehr alte Netzteile mit großen Caps oder alles was heizt. (Durchlauferhitzer, Heizdecken, 3D Drucker, Föhn und Co.)
Zumal wenn ich die Auswahl auf OLED einschränke lande ich da wo ich vorher war... beim toten Markt. :D
OLED in 4K und Gamingtauglich fängt als Monitor unter 40" bei 240Hz an...und gibt's jetzt genau wie lange?! 1 Monat oder schon ganze 2?! :freak:
Der Markt ist nicht tot...er fängt grade erst an sich zu etablieren!
Dafür ist die Auswahl an Modellen eigentlich sogar schon erstaunlich breit...abzüglich Verfügbarkeit natürlich.
Das wird sich aber auch noch geben wenn die 27" Panels und die WOLED Modelle dazu kommen im laufe der nächsten Monate.
dargo
2024-05-03, 20:29:38
OLED in 4K und Gamingtauglich fängt als Monitor unter 40" bei 240Hz an...und gibt's jetzt genau wie lange?! 1 Monat oder schon ganze 2?! :freak:
Der Markt ist nicht tot...er fängt grade erst an sich zu etablieren!
Ja... tot ist falsch formuliert, der ist noch nicht mal zum Leben erwacht passt hier wesentlich besser. :)
Ein guter kompletter Monitor kommt gerade auf den Markt, zuerst in Japan. Vielleicht ist er was. Benq Mobiuz EX321UX. Ist ein 32 Zoll 4k bei 144Hz und Helligkeit bis 1000nits. IPS mit Mini LED und 10 bit Farbtiefe (mit oder ohne FRC ist nicht bekannt). Anschlüsse HDMI 2.1 und DP 2.1.
Meldung gibt es bei Prad.
Habs gelesen. Die 1152 Zonen finde ich schon mal gut, gerade auch wegen der größeren Fläche von 32". Aber es steht und fällt alles mit der Ansteuerung von lokal Dimming. Wenn das Ding nachher auch flackert ist es direkt zum Tode verurteilt. Und wieder "nur" 144Hz... ich weiß nicht so recht.
The_Invisible
2024-05-03, 20:43:21
Irgendwie werden die 4k 240Hz Modelle nur immer angekündigt aber kaufbar ist nix, langweilig ;)
Ex3cut3r
2024-05-03, 20:45:11
Mini-LEDs neigen außerdem zu Halo-Effekten. Das erste Level von SoTR in Mexiko, die Szene mit dem Totenfest und den zahlreichen Kerzen, stellt einen Worst-Case für jegliche Art von Local Dimming dar.
https://s20.directupload.net/images/240503/qfg96yst.jpg
Tesseract
2024-05-03, 21:16:43
Irgendwie werden die 4k 240Hz Modelle nur immer angekündigt aber kaufbar ist nix, langweilig ;)
kaufbar sind sie schon, nur nicht lagernd. alles was geliefert wird geht halt direkt an kunden weiter die bereits tage bis wochen davor bezahlt haben. der andrang ist offensichtlich wesentlich größer als das angebot.
Relex
2024-05-04, 00:15:42
Mini-LEDs neigen außerdem zu Halo-Effekten. Das erste Level von SoTR in Mexiko, die Szene mit dem Totenfest und den zahlreichen Kerzen, stellt einen Worst-Case für jegliche Art von Local Dimming
So eine Szene könnte mit LCD ja noch halbwegs machbar sein, auch wenn man die Schwächen sehen würde. Aber sowas ist noch eher harmlos.
Ich spiele gerade Horizon Forbidden West zuende und bei dem Spiel ist es mal wieder sehr auffällig, wie das HDR häufig für Highlights genutzt wird, die nur wenige Pixel groß sind. Rüstung, Metalloberflächen, Haut und Haare, kleine Lichter.
Es gibt so viele Oberflächen, die ohne selbstleuchtende Pixel in der Form gar nicht darstellbar wären.
ashantus
2024-05-04, 09:15:06
Mini-LEDs neigen außerdem zu Halo-Effekten. Das erste Level von SoTR in Mexiko, die Szene mit dem Totenfest und den zahlreichen Kerzen, stellt einen Worst-Case für jegliche Art von Local Dimming dar.
https://s20.directupload.net/images/240503/qfg96yst.jpg
Mini-LEDs neigen außerdem zu Halo-Effekten. Das erste Level von SoTR in Mexiko, die Szene mit dem Totenfest und den zahlreichen Kerzen, stellt einen Worst-Case für jegliche Art von Local Dimming dar.
Es ist halt so, daß Mini-LED das geringste Flcikering Problem hane.
OLED haben da eine Schwäche. Ich erklär es nochmal.
OLED haben exzellenten Kontrast, Grauabstufungen. Sie haben auch -wenn der Hersteller es gut umsetzt- eine sehr gute Ausleuchtung der verschiedenen Bereiche eines Bildes. So wie in deinem Bild mit den kerzen.
Wann OLED aber ein sehr großes Problem haben ist, wenn
1) ein Bild mit dunklem Hintergrund vorliegt
2) dieses Bild mit wenig FPS (niedriger als 50Hz) angezeigt wird und
3) gleichzeitg eine starke Varianz / Schwankung der FPS anliegt, bspw. zwischen 20-50 FPS.
Dein Bild wird auf einem OLED unter solchen Bedingungen extremes Flcikering versursachen. Flickering heißt, unkontrolliertes stark schwankendes Auf-/ Ableuchten des Bildes.
Bei einer 4 K Auflösung und einer Mittelklassekarte wie einer 4070 Super oder 7800XT hat man genau solche Situationen eben öfter. Daher ist flickerfrei bei einem Mini-LED besser als bei einem OLED, abhängig von der Situation.
Hier ist ein Artikel von rtings, welcher genau dieses Problem auffasst.
https://www.rtings.com/monitor/learn/research/vrr-flicker
Linmoum
2024-05-04, 09:35:38
Das ist aber VRR-Flickering und kein "OLED-Flickering". Ersteres hast du auch bei LCDs, da fällt es nur kaum bzw. gar nicht auf.
Cubitus
2024-05-04, 09:37:32
Wenn du VRR ausmachst ist es weg.
ashantus
2024-05-04, 11:46:00
Das ist aber VRR-Flickering und kein "OLED-Flickering". Ersteres hast du auch bei LCDs, da fällt es nur kaum bzw. gar nicht auf.
Mit VRR kann man das Flickering besser provozieren für den test. Aber gerade die Konsumenten haben in vielen Kommentaren von Flickering bei OLED berichtet, mit und ohne VRR aktiv.
Und nein, dieses Flickering ist bei IPS nur sehr wenig ausgeprägt. Die Bewertungen von rting gehen bei OLED auf 3/10 runter, bei IPS sind alle bei 8/10 oder besser. Flickering kann man OLED und IPS bestimmt nicht auf eine Stufe stellen.
Ich bin die Antwort zu dem Blooming/HALO- Effekt offen.
OLED hat hier natürlich den Vorteil der selbstleuchtenden Pixel und schneidet deutlich besser ab als Mini-LED.
Ich bin nur soweit davon ausgegangen, daß die höhere Anzahl an Beleuchtungssektoren / bzw. Array dimming eben dazu führen sollte, daß weniger Blooming auftritt als bei klassischem IPS.
Ich frage nochmal nach: ist meine Annahme richtig oder falsch, daß Mini-LED den Blooming effekt verbessert ggü. klassischem IPS?
Platos
2024-05-04, 12:23:04
Ja, es ist ja nicht mehr nur eine subjektive Wahrnehmung. rtings hat das flickering ja getestet und OLED sind hier ganz klar faktisch deutlich schlechter. Da muss man eig. nicht mehr drüber diskutieren. Die Messungen lügen nicht.
robbitop
2024-05-04, 12:27:21
Die Frage ist ob man das technologisch in den Griff kriegen kann oder ob man bei OLED immer damit leben muss.
Ich glaube ich könnte damit leben da es ja in gamingrelevanten Szenarien kaum vorkommt. :)
Am Ende ist es immer ein Kompromiss. :)
Exxtreme
2024-05-04, 12:43:07
Man kann das OLED-Flickering womöglich auch weitgehend fixen. Das hängt ja von der Bildwiederholfrequenz ab. Die Firmware des Monitors könnte da also dynamische Helligkeitsanpassungen machen je nachdem wie hoch die Bildwiederholfrequenz ist. Aber gut, sowas muss man erstmal einbauen. Und dann muss die Firmware auch noch schnell genug reagieren können. Und kann sein, dass man genau hier gespart hat.
dargo
2024-05-04, 13:11:14
Wenn du VRR ausmachst ist es weg.
Gaming ohne VRR? :freak: :lol: Dann kann ich es gleich an den Nagel hängen.
Der_Korken
2024-05-04, 13:22:49
Die Frage ist ob man das technologisch in den Griff kriegen kann oder ob man bei OLED immer damit leben muss.
Ich hatte weiter oben schon geschrieben, dass es theoretisch gehen müsste, indem man die interne Refreshrate deutlich nach oben schraubt. Man bekommt also nach wie vor 48-240Hz als Input, aber die Spannungen der Pixel werden unabhängig davon immer mit z.B. 5000Hz angesteuert. Dann kann man mit einer Latenz von max. 0,2ms auf einen neuen Frame reagieren und hat trotzdem immer fixe, vorhersehbare interne Refreshintervalle. Der Nachteil ist natürlich die aufwändigere Ansteuerung und dass VRR nicht mehr ganz variabel ist, sondern die angezeigten Frametimes auf 0,2ms gerundet werden. Bei 232,5fps (bzw. 4,3ms Frametime) würde das Panel dann immer abwechseln nach 4,2 bzw. 4,4ms refreshen. Das dürfte aber so minimal sein, dass es dem menschlichen Gehirn nicht auffällt.
Platos
2024-05-04, 15:28:31
Die Frage ist ob man das technologisch in den Griff kriegen kann oder ob man bei OLED immer damit leben muss.
Ich glaube ich könnte damit leben da es ja in gamingrelevanten Szenarien kaum vorkommt. :)
Am Ende ist es immer ein Kompromiss. :)
Es soll doch im Menu auch auftreten? Also wenn ich z.B die Karte öffne oder in einer Lobby auf Spieler warte oder sonst irgend ein Menu.
Oder ist das da nicht der Fall?
Also auf sowas hätte ich kein bock. Ebenfalls hätte ich kein bock, wenn ich keine niedrigen Frameraten zulassen darf, damit es weniger/nicht auftritt. Ich spiele einige Spiele, die mit (weit) unter 60FPS sehr gut spielbar sind.
Ich hoffe da eher auf negative Presse und darauf folgend irgendwann verbesserungen der Hersteller (wie auch immer).
Exxtreme
2024-05-04, 15:55:41
Es soll doch im Menu auch auftreten? Also wenn ich z.B die Karte öffne oder in einer Lobby auf Spieler warte oder sonst irgend ein Menu.
Oder ist das da nicht der Fall?
Also auf sowas hätte ich kein bock. Ebenfalls hätte ich kein bock, wenn ich keine niedrigen Frameraten zulassen darf, damit es weniger/nicht auftritt. Ich spiele einige Spiele, die mit (weit) unter 60FPS sehr gut spielbar sind.
Ich hoffe da eher auf negative Presse und darauf folgend irgendwann verbesserungen der Hersteller (wie auch immer).
Das tritt dann auf wenn es extreme fps-Schwankungen(!) gibt. Wenn die Framerate gleichmässig ist dann ist das nicht bzw. kaum sichbar.
robbitop
2024-05-04, 16:02:08
Wenn es so wild wäre wäre das wesentlich mehr publik. Bisher sieht das für mich nach Ausnahmen aus über die sich (wir) Nerds etwas zu sehr hochziehen.
Wie gesagt ich zocke seit Jahren völlig zufrieden am 55CX LG OLED. (wenn ich auf der Couch in der man cave zocke - aber ich zocke auch oft am Schreibtisch am LCD Monitor)
Mein Eindruck ist, dass das ein wenig overhypt ist. ^^
Relex
2024-05-04, 16:04:04
Es ist schon echt witzig, was ihr euch alles zusammenreimt.
Macht euch bitte selbst ein Bild an einem echten Gerät, sobald ihr die Möglichkeit dazu habt...
Für mich ist das Thema wie gesagt ein non-issue in der Praxis und maßlos aufgebauscht.
Das Problem exisitiert, keine Frage, aber ich kann nur sagen, bewertet es selbst. Ich denke dass es für wahrscheinlich 99% der Leute kein Problem ist.
Natürlich solten die Hersteller daran arbeiten, dass sowas grundsätzlich nicht auftreten kann. Aber aktuell wäre das für mich der allerletzte Grund, keinen OLED zu kaufen.
Hikaru
2024-05-05, 09:06:51
Für dich ist es kein Problem. Gut. Du denkst (weisst es aber nicht) das es für 99% auch kein Problem ist. Auch gut. Nehmen wir mal an das dies tatsächlich zutrifft auf 99% der Leute. Gut. Wir sind hier aber im 3DC, also mit Sicherheit nicht 99% der Leute. Wir sezieren hier alles auf den Pixel herunter, und da gehört es sehr wohl dazu Mißstände zu erwähnen.
Ich fahre ebenfalls VRR aber nur um meine festgenagelten fps tearingfrei zu bekommen. Vsync kommt natürlich nicht in Frage. Bei Forza Horizon 5 jedenfalls ist mir nichts aufgefallen und da schwankt es im Ladebildschirm ziemlich wild. Was ich aber sehr wohl weiss auch ohne es erfahren zu haben ist das es mich annerven würde. Ich kenne Helligkeitsschwankungen schon von Plasmas (Thema ABL) und habe darauf nicht wirklich Lust das schon wieder erleben zu dürfen auch wenn die Ursache eine andere ist. Obwohl, auch OLEDs unterliegen ABL Schwankungen.
Habe schon oft genug auf einen CX "Monitor" schauen dürfen und musste mir aus verschiedenen Gründen auf die Zunge beissen um meinem Kumpel nicht den Spass zu verderben. ABL, green/pink tint, ruckelndes nicht perfektes VRR ahoi. Ich könnte damit nicht leben.
Thunder99
2024-05-05, 10:34:11
Finde es gut die Problematik aber anzusprechen was welche Technologie mit sich bringt.
Jeder ist anders empfindlich. Daher hilft wohl nur es selbst zu testen.
War mir dessen was QDOLED betrifft nicht bewusst. Aber es tritt bei mir auch nicht (sichtbar) auf, da die Lichtverhältnisse nicht schlecht sind und bei den derzeitigen Spiele wo ich spiele die FPS sowieso konstant sind (Grafikkarte langweiligt sich :D).
robbitop
2024-05-05, 11:25:44
Jede Paneltechnologie hat Schwächen. Die Frage ist welche dem jeweiligen Käufer am wichtigsten und unwichtigsten sind. Und somit kommt dann jeder auch zu einer anderen Entscheidung. :)
Ghost1nTh3GPU
2024-05-05, 11:59:14
Gerade die Sub-G OLEDs bei LG werde ja aus Design-optischen Gründen etwas schwächer gemacht, als es das Panel hergeben würde. Mit 1-2cm Dicke für das Panel-Case, statt den <0,5cm im oberen Bereich, wäre da sicherlich etwas mehr Helligkeit/Lebensdauer drin.
Platos
2024-05-05, 12:07:58
Das tritt dann auf wenn es extreme fps-Schwankungen(!) gibt. Wenn die Framerate gleichmässig ist dann ist das nicht bzw. kaum sichbar.
Ja, kann ja auch von 50-40 auf 20 fallen (kurze frametime Schwankungen). Reicht das nicht ?
Hikaru
2024-05-05, 12:17:57
Ist zwar kein Monitor aber was ist aus der laser scanning Tech geworden? Also die Dinger die tatsächlich einen (immer scharfen) RGB Laser ala CRT auf die weisse Oberfläche scannen. Damit sollte motion blur, Helligkeit sowie variable Auflösungen/Hz Zahl kein Thema mehr sein. Ich glaub ein leichtes Grieseln war so ein Problem. Sone kleine tragbare Kiste die überall aufgestellt werden kann wäre mega.
Edit: Und das alles auf einer speziellen schwarzen QD Leinwand/Beschichtung projiziert die aktiv mitglüht. Und NUR vom Laserlicht angeregt wird, nicht vom Umgebungslicht. Das wärs! Ideen hab ich schon, nur wohl zuviel verlangt für den derzeitigen Stand der Technik.
Die Frage ist ob man das technologisch in den Griff kriegen kann oder ob man bei OLED immer damit leben muss.
Samsung hat ein Setting, das es verhindert.
Es soll doch im Menu auch auftreten? Also wenn ich z.B die Karte öffne oder in einer Lobby auf Spieler warte oder sonst irgend ein Menu.
Es tritt nur bei extremen FPS-Schwankungen auf.
Der Grund warum es hauptsächlich in Menüs sichtbar wird, ist dass viele Spiele in Menüs automatisch FPS-Limiter verwenden, und du dann plötzlich von 150FPS ingame auf 60FPS herunten bist, bzw. auch umgekehrt wenn du ingame nur 30FPS hast und das Menü ohne Limiter dann auf einmal 500.
Wreckx-N-Effect
2024-05-05, 21:25:03
Ich kann total nachvollziehen, was du meinst. Es wäre wirklich super, wenn die Monitorhersteller mehr auf die Bedürfnisse der Nutzer eingehen würden. Ein höherer Auflösung, IPS-Technologie und eine höhere Bildwiederholungsrate wären echt klasse.
exzentrik
2024-05-06, 11:37:55
Neue Firmware für die MSI-Displays 271QRX und 321URX (https://www.prad.de/msi-271qrx-321urx-neue-firmware-bringt-dsc-switch/) – unter anderem mit DSC-Schalter für Downsampling sowie Fixes gegen VRR-Flicker und Whitelining (bei WQHD@360).
horn 12
2024-05-06, 18:52:59
Nun, die Neuen 4K 240 Hz Monitore von MSI sind nicht patchbar,- also bringt dies dann schlussendlich herzlichst wenig!
Tesseract
2024-05-06, 18:57:53
natürlich sind die patchbar, habe ich eben gemacht. :freak:
Cubitus
2024-05-06, 19:00:41
Downsampling ist mit der C Serie gar kein Problem.
Aktuell ist der C3 für ~850 Euro zu haben, ziemlich guter Deal wie ich finde. Man bekommt wirklich viel Bang for Bucks.
Patchen übernimmt LG frei Haus, falls nötig xD
aufkrawall
2024-05-06, 19:36:00
Ja, kann ja auch von 50-40 auf 20 fallen (kurze frametime Schwankungen). Reicht das nicht ?
Es gibt sowieso ständig "extreme" Frame Time-Schwankungen in allen möglichen Spielen.
Wenn es auf Ladeschirmen flackert und man das mit angepasster Range wirklich nicht größtenteils abstellen kann -> direkt zurück. Sonst eigene Doofheit...
Robspassion
2024-05-07, 14:48:41
Neue Firmware für die MSI-Displays 271QRX und 321URX (https://www.prad.de/msi-271qrx-321urx-neue-firmware-bringt-dsc-switch/) – unter anderem mit DSC-Schalter für Downsampling sowie Fixes gegen VRR-Flicker und Whitelining (bei WQHD@360).
Leider habe ich weiterhin VRR Flickerung bei einigen Spielen mit dem MSI MPG 321URX, ja auch während des Spielens. Es ist super nervig und ich hatte echt für einen kurzen Moment gehofft, dass das Problem behoben wurde :frown:
Wollte den Monitor nicht zurückschicken, da es in den meisten Spielen nur während des Ladebildschirms auftritt, bei einigen Spielen ist es aber auch während des Zockens sichtbar und das deutlich da braucht man keine Brille für :D
Mein LG C2 42 Zoll hat auch praktisch kein Flickering und ich bin extrem sensibel was das angeht.
Cubitus
2024-05-07, 17:32:38
Mein LG C2 42 Zoll hat auch praktisch kein Flickering und ich bin extrem sensibel was das angeht.
Hab letztens die Möglichkeit gehabt einen C2 zu testen, und ich muss leider sagen das der C3 in Sachen Helligkeit zwar minimal besser ist, aber in Sachen Flicker der C2 deutlich die Nase vor einem nicht modifizierten C3 hat :frown:
Robspassion
2024-05-07, 17:36:27
Hab letztens die Möglichkeit gehabt einen C2 zu testen, und ich muss leider sagen das der C3 in Sachen Helligkeit zwar minimal besser ist, aber in Sachen Flicker der C2 deutlich die Nase vor einem nicht modifizierten C3 hat :frown:
War auch total zufrieden mit dem C2 von LG. 120 hz ist halt ein bisschen lahm aber ich muss ihn eh behalten für die Flacker Spiele :freak:.
Mein LG CX 48 den ich davor hatte war auch unauffällig was das Flackern anging.
robbitop
2024-05-07, 17:44:42
Das iPad Pro 2024 hat eine Technologie die Apple TandemOLED nennt (Kombination aus 2 OLED Panels). Das Ding schafft laut Apple 1000 nits FULL SCREEN (das gab es bei OLED noch nie).
Wäre ja geil wenn das auch in den Monitorbereich käme.
Ghost1nTh3GPU
2024-05-07, 17:48:16
EU-Energiesparverordnung sagt nein.:freak:
robbitop
2024-05-07, 17:50:37
EU-Energiesparverordnung sagt nein.:freak:
Wenn das auf einem Tablet geht (wo das Display nur wenige W ziehen darf), dann sollte das auch auf einem Monitor gehen (mit ~4x der Fläche -> 4x Leistungsaufnahme).
aufkrawall
2024-05-07, 17:57:04
Hab letztens die Möglichkeit gehabt einen C2 zu testen, und ich muss leider sagen das der C3 in Sachen Helligkeit zwar minimal besser ist, aber in Sachen Flicker der C2 deutlich die Nase vor einem nicht modifizierten C3 hat :frown:
Kann sein, dass LG das Processing beim C3 generell verkackt hat?
Das OLED-Flackern soll (angeblich) ja auch nicht durch Helligkeitsschwankungen kommen, sondern durch Gamma-Veränderungen je nach Wiederholrate. Das muss dann entsprechend, ähnlich Kalibrierung, korrigiert werden.
Das iPad Pro 2024 hat eine Technologie die Apple TandemOLED nennt (Kombination aus 2 OLED Panels). Das Ding schafft laut Apple 1000 nits FULL SCREEN (das gab es bei OLED noch nie).
Apple Watch schafft 3000nits Fullscreen, Iphone 2000nits, andere Phones sind schon bei 2500nits oder so.
EU-Energiesparverordnung sagt nein.:freak:
Dass ist ein OLED damit braucht es bei schwarz "nix" und die EU-Engergiesparverordnung limitiert überhaupt nicht den Verbrauch im HDR-Betrieb, und generell nur im Auslieferungszustand. Genauso wie eine Kaffeemaschine im Auslieferungszustand nach einer bestimmten Zeit abschalten muss aber durchaus die Möglichkeit für Dauerbetrieb bieten darf.
Wenn das auf einem Tablet geht (wo das Display nur wenige W ziehen darf), dann sollte das auch auf einem Monitor gehen (mit ~4x der Fläche -> 4x Leistungsaufnahme).
4x Fläche ist bei OLED eben nicht 4x Leistungsaufnahme sondern deutlich mehr.
Tesseract
2024-05-07, 20:42:34
bei einigen Spielen ist es aber auch während des Zockens sichtbar und das deutlich
hast du ein paar beispiele?
robbitop
2024-05-07, 20:54:57
Apple Watch schafft 3000nits Fullscreen, Iphone 2000nits, andere Phones sind schon bei 2500nits oder so.
Sicher? Waren das nicht nur highlights? Apple sagt selbst das Tandem OLED sei das hellste OLED aller Zeiten. Das würden sie ja nicht sagen wenn das iPhone das Fullscreen schaffen würde.
robbitop
2024-05-07, 20:56:42
4x Fläche ist bei OLED eben nicht 4x Leistungsaufnahme sondern deutlich mehr.
Warum das? Nach meinem Verständnis kostet eine Fläche X mit Leuchtkraft Y dann Z an Leistung und Fläche ist ein Linearer Parameter. Warum sollte das nicht so sein?
Sicher? Waren das nicht nur highlights?
Ja, allerdings nicht dauerhaft, was allerdings hauptsächlich daran liegen dürfte dass man den Akku nicht instant leersaufen will.
Apple sagt selbst das Tandem OLED sei das hellste OLED aller Zeiten. Das würden sie ja nicht sagen wenn das iPhone das Fullscreen schaffen würde.
Apples Angaben sind immer, nennen wir es mal kreativ. Für die "Klasse", also Displays im 10-15" Bereich dürfte das wohl auch stimmen. Jedenfalls ist mir da nichts vergleichbares bekannt.
Warum das? Nach meinem Verständnis kostet eine Fläche X mit Leuchtkraft Y dann Z an Leistung und Fläche ist ein Linearer Parameter. Warum sollte das nicht so sein?
Weil OLEDs Emitter sind und damit die Energie zur Lichterzeugung direkt zu den jeweiligen Pixeln fließen muss.
Wenn du rein die Energieaufnahme der Emitter selbst betrachtest stimmt deine Rechnung, die Verluste durch das Panel werden aber umso größer, je größer das Panel ist.
Robspassion
2024-05-08, 10:05:37
hast du ein paar beispiele?
Ja na klar bei Starfield, wenn Frame Generation an ist. Typischerweise an Stellen, die etwas dunkler sind. Tritt dann auch auf, wenn man stehen bleibt. Durch Frame Gen habe ich mehr Spikes bei den Frametimes, praktisch alle 1-2 Sekunden dadurch flackert es. Deaktiviere ich Frame Gen ist es weg.
Alan Wake 2, praktisch in allen dunklen Bereichen. Hier aber nur in Bewegung. Es reichen leider schon kleine Frametime Spikes bei dem Game. Framerate ist egal daran liegt es nicht.
Dragons Dogma, Worst Case es flackert grade am Anfang, wenn man da im Kerker erwacht aber auch so ständig in dunklen Szenen. Das Game performt so mies und hat so viele Frametime Spikes.
Wrath Aeon of Ruin. Schon im Menü und ständig im Spiel. Absoluter Worst Case. Unübersehbar.
Das Video ist nicht von mir aber die Person hat es bei Tarkov. So sieht´s bei mir aber in den Spielen oben mehr oder weniger auch aus:
https://www.reddit.com/r/OLED_Gaming/comments/1beee6f/msi_mpg_321urx_screen_flashing_while_gaming/
exzentrik
2024-05-08, 10:28:07
Resident Evil 4 Remake zeigt bei 60-fps-Cap @ 240 Hz übrigens auch recht deutlich ein Flackern, bei 120-fps-Limit (@ 144 oder 240 Hz) dann deutlich weniger. Gut zu sehen beispielsweise in den dunklen Ecken der ersten Hütte von Level 1. Letzteren gibt es, wenn man's testen möchte und die Vollversion nicht besitzt, übrigens auch in der Demo.
Cubitus
2024-05-08, 11:16:49
Kann sein, dass LG das Processing beim C3 generell verkackt hat?
Das OLED-Flackern soll (angeblich) ja auch nicht durch Helligkeitsschwankungen kommen, sondern durch Gamma-Veränderungen je nach Wiederholrate. Das muss dann entsprechend, ähnlich Kalibrierung, korrigiert werden.
Ich vermute es, da LG ja seit mehreren Jahren das gleiche Panel in ihrer C Serie verwendet.
Und wegen dem bescheuerten Zwang alle Jahre ein neues Modell herauszubringen wird an den Panels herumgedoktert um bessere Helligkeitswerte/Latenzen/Hz wie jetzt beim C3/C4 zu erreichen. :rolleyes:
Durch die Anpassung der Range wird es besser, aber wenn ich es mir aussuchen dürfte hätte ich lieber 120Hz/120FPS als die paar Punkte mehr Helligkeit im Zuge Gamma-Veränderungen und daraus resultierendem VRR-Flackern
Tesseract
2024-05-08, 12:08:18
Resident Evil 4 Remake zeigt bei 60-fps-Cap @ 240 Hz übrigens auch recht deutlich ein Flackern, bei 120-fps-Limit (@ 144 oder 240 Hz) dann deutlich weniger. Gut zu sehen beispielsweise in den dunklen Ecken der ersten Hütte von Level 1. Letzteren gibt es, wenn man's testen möchte und die Vollversion nicht besitzt, übrigens auch in der Demo.
60fps limit erzeugt tatsächlich flackern, auf 120 bzw. variable ist es aber weg.
Weltraumeule
2024-05-08, 15:24:03
Ich vermute es, da LG ja seit mehreren Jahren das gleiche Panel in ihrer C Serie verwendet.
Und wegen dem bescheuerten Zwang alle Jahre ein neues Modell herauszubringen wird an den Panels herumgedoktert um bessere Helligkeitswerte/Latenzen/Hz wie jetzt beim C3/C4 zu erreichen. :rolleyes:
Hat der C2 das Problem nicht? Sollte ich mir lieber diesen holen? Oder den C3 und die Range anpassen wie du es schon mal beschrieben hattest?
exzentrik
2024-05-08, 15:37:41
60fps limit erzeugt tatsächlich flackern, auf 120 bzw. variable ist es aber weg.
Jo, ingame nahezu oder ganz weg (je nach Szene) und in Ladebildschirmen aber noch öfter zu sehen (was natürlich egal ist).
Cubitus
2024-05-08, 17:11:02
Hat der C2 das Problem nicht? Sollte ich mir lieber diesen holen? Oder den C3 und die Range anpassen wie du es schon mal beschrieben hattest?
Der C2 flackert auch, aber in den Szenarios welche ich testete, nicht so offensichtlich für das Auge sichtbar.
Ich würde einfach nach dem Preis schauen.
Wenn C2 günstig und neu dann kaufen.
Wenn C3 günstig dann diesen kaufen.
Den C2 gibt es momentan für 739 Euro.
https://fernseh-kirsch.de/de/product/lg-oled42c29lb-aeu-oled-tv-uhd-4k-twin-triple-tuner-s-1004711/?utm_source=idealo
Da bekommt man schon einen wirklich "guten" OLED PC Monitor für das Geld.
Hab für meinen C3 insgesamt 790 Euro bezahlt mit Cashback..
Der C2 kann gutes HDR, es lässt sich gut damit arbeiten und Filme bzw. Streaming onTop ist auch sehr gut damit.
Der Gamemode ist bzgl Latenz, VRR brauchbar.
DLSDR kann er auch und LG hat ihm das neue Update auf WEbOS23 verpasst also gleiches BS wie beim C3.
Wer mit 42 Zoll (Platz dafür hat), 120 Hz und dem Glossy Panel zurecht kommt, ein absoluter NoBrainer bei dem Preis.
The_Invisible
2024-05-08, 20:37:27
Der C2 flackert auch, aber in den Szenarios welche ich testete, nicht so offensichtlich für das Auge sichtbar.
Ich würde einfach nach dem Preis schauen.
Wenn C2 günstig und neu dann kaufen.
Wenn C3 günstig dann diesen kaufen.
Den C2 gibt es momentan für 739 Euro.
https://fernseh-kirsch.de/de/product/lg-oled42c29lb-aeu-oled-tv-uhd-4k-twin-triple-tuner-s-1004711/?utm_source=idealo
Da bekommt man schon einen wirklich "guten" OLED PC Monitor für das Geld.
Hab für meinen C3 insgesamt 790 Euro bezahlt mit Cashback..
Der C2 kann gutes HDR, es lässt sich gut damit arbeiten und Filme bzw. Streaming onTop ist auch sehr gut damit.
Der Gamemode ist bzgl Latenz, VRR brauchbar.
DLSDR kann er auch und LG hat ihm das neue Update auf WEbOS23 verpasst also gleiches BS wie beim C3.
Wer mit 42 Zoll (Platz dafür hat), 120 Hz und dem Glossy Panel zurecht kommt, ein absoluter NoBrainer bei dem Preis.
Benutzt du den für langes Homeoffice? Erfahrungen?
ChaosTM
2024-05-08, 21:10:20
Geht alles problemlos, obwohl meine* 42er beide matt sind, aber ich hab auch schon den Glossy 65er (LG C2) für einige Tage als Office Monitor benutzt. Natürlich mit entsprechend größerem Sitzabstand.
Das einzige was ich bereue habe bisher ist, dass ich nicht gleich 48er gekauft habe.
Man muss natürlich den entsprechenden Platz haben, sonst wirds fad..
Nur mehr selbstleuchtend...
*2 Standorte
Sardaukar.nsn
2024-05-08, 21:42:39
Benutzt du den für langes Homeoffice? Erfahrungen?
Über den 42C2 kann ich nur gutes berichten. Nutze für Homeoffice gerne eine 50/50 Aufteilung finde gerade das Surfen/Scrollen auf Webseiten auf einer Hälfte sowie HDR Videos auf der anderen mit 120hz OLED einfach eine Offenbarung.
dargo
2024-05-08, 21:45:36
Das mit den OLEDs ist echt nur noch ein Trauerspiel. :(
Hatte mir das mit dem 4k nochmal durch den Kopf gehen lassen. Nachteil dabei... man läuft immer den schnellsten und durstigsten Grafikkarten hinterher, auch nervig. Klar... hier und da hilft Upscaling schon, aber dennoch sind die Anforderungen höher. Jetzt habe ich mir mal die 27" OLEDs mit 1440p mal angesehen und fand den Dell Alienware AW2725DF mit 360Hz und QD-OLED recht interessant, zumal gerade dank Shoop für 800€ zu bekommen. Wenn ich Hardware Unboxed richtig verstanden habe ist QD-OLED WOLED bei der Textdarstellung und "nur" ~110ppi überlegen. Und dann lese ich wieder was von VRR-Flicker bei den QD-OLEDs, egal ob DELL, MSI oder sonst was. Ist echt nur noch zum heulen welcher Müll da an die Kunden für teures Geld losgelassen wird. Das wird wieder Jahre dauern bis man das in den Griff bekommt, falls überhaupt technisch lösbar. Wirklich schade, denn auf HDR hätte ich schon Lust demnächst.
ChaosTM
2024-05-08, 23:16:58
Das mit den OLEDs ist echt nur noch ein Trauerspiel. :(
Hatte mir das mit dem 4k nochmal durch den Kopf gehen lassen. Nachteil dabei... man läuft immer den schnellsten und durstigsten Grafikkarten hinterher, auch nervig. Klar... hier und da hilft Upscaling schon, aber dennoch sind die Anforderungen höher. Jetzt habe ich mir mal die 27" OLEDs mit 1440p mal angesehen und fand den Dell Alienware AW2725DF mit 360Hz und QD-OLED recht interessant, zumal gerade dank Shoop für 800€ zu bekommen. Wenn ich Hardware Unboxed richtig verstanden habe ist QD-OLED WOLED bei der Textdarstellung und "nur" ~110ppi überlegen. Und dann lese ich wieder was von VRR-Flicker bei den QD-OLEDs, egal ob DELL, MSI oder sonst was. Ist echt nur noch zum heulen welcher Müll da an die Kunden für teures Geld losgelassen wird. Das wird wieder Jahre dauern bis man das in den Griff bekommt, falls überhaupt technisch lösbar. Wirklich schade, denn auf HDR hätte ich schon Lust demnächst.
Flickern die "kleinen*" QD-OLEDs wirklich auch während des Spiels?
Das wäre wirklich ein KO Argument.
Mache mich da derzeit nicht schlau, da gut versorgt..
* "klein" ist alles unter 42
Linmoum
2024-05-08, 23:29:37
VRR-Flicker hat im Prinzip jeder Monitor, auch LCDs. Es fällt nur bei OLEDs (stärker) auf, beschränkt sich aber immerhin in der Regel auch nur auf Ladebildschirme. Vermutlich wird es dafür auch nie eine Lösung geben, sonst hätte LG schon längst eine solche gefunden. Wen das stört, der muss halt weiterhin mit LCD und allen Nachteilen leben. Was fast unmöglich ist, wenn man einmal OLED erleben konnte und dann realisieren muss, wie mies alles andere einfach aussieht.
raffa
2024-05-08, 23:37:23
Ich hab bei meinem VA die Flackerei auf ein erträgliches Maß gedrückt, in dem ich die Range von 48-100 auf 75-100 eingeschrängt hab. Kein Lfc und niedrige Range helfen ganz gut. Freilich zu Lasten des nutzbaren Frequenzbandes. Und bei VA kommt noch "flackerei" durch dark"smearing" dazu, gerade dunkle, inhomogene, sich bewegende Flächen erzeugen einen zusätzlichen Flackereffekt. Mein 27" 60Hz IPS hatte jedenfalls den stabileren Bildeindruck (auf kleinerer Fläche und bei deutlich schlechterem Kontrast)
So ganz verstehen kann ichs bei den Oleds nicht, warum der Gammahift nicht in der Firmware kompensiert wird, schnell genug sind die Pixel ja.
Gouvernator
2024-05-08, 23:50:21
Mein Vchance (https://de.aliexpress.com/item/1005005605978497.html?spm=a2g0o.order_list.order_list_main.5.21ef5c5fvHq4Dk&gatewayAdapt=glo2deu) ist heute gekommen. Mein lieber Scholli ist das Ding geil.
Genau was ich gesucht hab. Speziell dieses Panel 3840x2160, 15,6" kommt von extrem teuren Laptops. Die Bauweise ist auch so leicht und handlich, man kann das Ding einfach am langen 90° USB-C Kabel locker als Tablet nutzen. Das Kabel überträgt dann Bild, Touch, Ton.
Alles zusammen hat nur 370€ gekostet.
Platos
2024-05-09, 03:04:11
Dass ist ein OLED damit braucht es bei schwarz "nix" und die EU-Engergiesparverordnung limitiert überhaupt nicht den Verbrauch im HDR-Betrieb, und generell nur im Auslieferungszustand. Genauso wie eine Kaffeemaschine im Auslieferungszustand nach einer bestimmten Zeit abschalten muss aber durchaus die Möglichkeit für Dauerbetrieb bieten darf.
Ja, deswegen ist die Verordnung ja auch totaler Mist. Vor 10 Jahren wäre das vlt. was gewesen, aber jetzt zu Zeiten von HDR ein witz.
Samsung zeigt ja 1A wie das geht. Im Uaslieferungszustand Helligkeit extrem minimieren und den Zustand dann "öko" (oder sowas) nennen und dann gleich beim Einrichten dej "Standart"-Modus empfehlen, der natürlich deutlich nehr saufen kann/darf. Genau so läuft das bei den 8k Modellen.
:D
Mein Vchance (https://de.aliexpress.com/item/1005005605978497.html?spm=a2g0o.order_list.order_list_main.5.21ef5c5fvHq4Dk&gatewayAdapt=glo2deu) ist heute gekommen. Mein lieber Scholli ist das Ding geil.
Genau was ich gesucht hab. Speziell dieses Panel 3840x2160, 15,6" kommt von extrem teuren Laptops. Die Bauweise ist auch so leicht und handlich, man kann das Ding einfach am langen 90° USB-C Kabel locker als Tablet nutzen. Das Kabel überträgt dann Bild, Touch, Ton.
Alles zusammen hat nur 370€ gekostet.
Nice. Dann gehts bei dir endlich mal wieder aufwärts mit der Diagonale :D
dargo
2024-05-09, 07:22:14
VRR-Flicker hat im Prinzip jeder Monitor, auch LCDs.
Falsch... mein ASUS MG279Q fickert überhaupt nicht. Jedenfalls nicht sichtbar für meine Augen. Hört doch endlich auf sich dieses Flickern von OLEDs schön zu reden.
Es fällt nur bei OLEDs (stärker) auf, beschränkt sich aber immerhin in der Regel auch nur auf Ladebildschirme. Vermutlich wird es dafür auch nie eine Lösung geben, sonst hätte LG schon längst eine solche gefunden. Wen das stört, der muss halt weiterhin mit LCD und allen Nachteilen leben. Was fast unmöglich ist, wenn man einmal OLED erleben konnte und dann realisieren muss, wie mies alles andere einfach aussieht.
Flicker geht bei mir als Kompromiss überhaupt nicht! Das ist kein Kompromiss, das ist Augenvergewaltigung. Und das reicht schon aus um einen großen Bogen um OLEDs zu machen. Bisher lese ich zwar öfter nur was von Ladescreens und/oder Menüs. Ist aber alles nur hörensagen. Niemand kann mir garantieren, dass sowas eventuell zukünftig nicht auch im Gameplay passieren kann. Ich würde mich jedenfalls schwarz ärgern viel Geld in die Hand zu nehmen um dann mit Flicker leben zu müssen.
Flickern die "kleinen*" QD-OLEDs wirklich auch während des Spiels?
Das wäre wirklich ein KO Argument.
Scheinbar ja, aus den Dell-Bewertungen.
Tolles Gerät, das tolle, akkurate und schnelle Bilder produziert. Allerdings wirbt es groß mit FreeSync Premium Pro, sogar jedes mal wenn man es einschaltet. Aktiviert man dies, flackert das Bild hell auf, wenn man dunkle Szenen im Vollbild anzeigt. Das scheint erwartetes Verhalten zu sein, da der Support hier nicht helfen kann, außer ein neues Gerät mit identischem Verhalten zu schicken.
https://www.dell.com/de-de/shop/alienware-27-360-hz-qd-oled-gamingmonitor-aw2725df/apd/210-blhh/monitore-und-monitorzubeh%C3%B6r#ratings_section
Pixel Shifting ist auch ein Witz, plötzlich verschwinden einzelne Buchstaben auf dem Screen.
Und wenn ich sowas lesen muss frage ich mich welchen Lack die Hersteller gesoffen haben? :crazy2:
Ach ja, die zu erwartenden Nachteile des QD-OLED-Panels sind natürlich auch manchmal nervig: Um Einbrennen vorzubeugen, springt das Bild alle paar Minuten um ein paar Pixel, und alle 4 Stunden will der Bildschirm einen Pixel-Refresh machen, wenn er das nächste mal aus geht.
Ich hab bei meinem VA die Flackerei auf ein erträgliches Maß gedrückt, in dem ich die Range von 48-100 auf 75-100 eingeschrängt hab. Kein Lfc und niedrige Range helfen ganz gut.
Naja... min. 75Hz wäre aber auch ein fauler Kompromiss. Das bedeutet, dass ich niemals unter 75fps fallen darf da es sonst ruckelt. Dauerhaft 80+fps stelle ich mir etwas schwierig vor.
Gouvernator
2024-05-09, 08:06:02
Also bei solchen high Ppi Displays scheinbar lächerlicher Unterschied von 1-inch an Diagonale, zu meinem 14.5" Tab Extreme hat beachtbare Konsequenzen. Ich habe jetzt vollwertiges fast 16" Display und habe gleichzeitig die Ppi gesteigert von 240 auf 280. Und 280ppi auf ~16 Zoll, das will was heißen.
Man könnte etwas höher dank 2400p gehen, aber ich will unbedingt nativ 16:9 wegen Xbox. Ja... lasst das euch auf der Zunge zergehen ---> 4K, 280ppi Xbox. Bin jetzt selber gespannt wie so ein UFC Game damit aussieht.
raffa
2024-05-09, 08:33:28
Falsch... mein ASUS MG279Q fickert überhaupt nicht. Jedenfalls nicht sichtbar für meine Augen. Hört doch endlich auf sich dieses Flickern von OLEDs schön zu reden.
....
Naja... min. 75Hz wäre aber auch ein fauler Kompromiss. Das bedeutet, dass ich niemals unter 75fps fallen darf da es sonst ruckelt.
IPS flackert (meistens) nicht.
Klar ist das ein fauler Kompromiss, es schränkt in meinem Fall die Nutzbarkeit von VRR auf ~39-50Fps mit Framedoubling (nicht FG, MSFS2020 spiel ich so) bzw ~78-100 ein.
Ist mir aber immer noch lieber als die Flackerei, mich stört das auch auf Ladescreens und im Menü sehr.
Hätt ich das vorher gewusst, hätt ich ihn nicht gekauft -
einem 500€ (407 in der Aktion) Arbeitsschirm kann ich das aber noch eher verzeihen als einem 1000€ Gamingspezialisten.
Hikaru
2024-05-09, 09:02:42
Ich wollte mal ein paar Dinge einwerfen was OLED im Allgemeinen betrifft. Auch wenn ich nun harschen Gegenwind bekomme;) So sei es...
Meine Erfahrung damals mit meinem 486er Escom PC der an einem Sony CRT angestöpselt war, war Stress für meine Augen und die meines Bruders. Wieso? Nun weil der Kontrast exzellent war. Die extremen Kontraste waren alles andere als angenehm für unsere Augen. Was glaubt ihr wieso die paperartige display Darstellung der Kindles so angenehm ist zum Lesen? Der aktuelle OLED meines Bruders hat angehobenen Schwarzwert, also leicht gräulich weil er es nicht ertragen kann aber dennoch die bunten farben geniessen möchte. Verrückt, aber für ihn nunmal angenehm was ich sehr gut nachvollziehen kann. Er hat übrigens sehr viel Erfahrung (Jahrzenhnte) mit Spiegelreflex Photographie sowie Digitalfotographie. Objektive alleine von denen man sich paar 4090er kaufen könnte. Nur so am Rande.
Wenn ich surfe/lese habe ich automatisch den Kontrast immer auf "weich" eingestellt und die Helligkeit IMMER der Umgebungsbeleuchtung angepasst damit sich das Monitorbild unauffällig in mein Gesamtsichtfeld einfügt. Das empfinde ich als angenehm. Ich emuliere praktisch das Lesen von Print wennich surfe/lese.
Weiterhin, ob ihr es glaubt oder nicht ist nun eure Sache. Ich habe vor ein paar Jahren gelesen das der Samsung Boss (Oberboss von ganz Samsung oder der display abteilung, kein Plan) gesagt hatte das "diese neue Technologie" welche die Augen "kaputt" macht NICHT in sein Haus käme.
Weiterhin, ist es nicht wahr das QD OLEDs mit viel Blau arbeiten um ihre Helligkeit zu erreichen? Also genau das was man eigentlich nicht will? Und tatsächlich sind die blauen Subpixel der QDs viel grösser als rot und grün, richtig? Es gibt auf reddit genug Erfahrungsberichte wo Leute Augenschmerzen bekommen bei den QDs aber auch bei den WOLEDs welche zwar weniger Blau brauchen um Helligkeit zu erzeugen aber dennoch den extremen Kontrast bieten nach dem alle so geil sind. Thema meine Erfahrungen mit dem Sony CRT.
Nun könnte man sagen, tja ich merke davon nix. Genauseo wie einige Leute PWM schmerzfrei sind. Ich bekomme bei der OLED Switch schon nach zehn Minuten die Krise. Sobald ich auf meine LCD Switch switche im A/B Vergleich, völlige Entspannung! Die Wahrnehmung im Hirn mag zwar bei vielen Leuten nicht da sein aber der Sehapparat bekommt das sehr wohl mit und degradiert in Folge dessen.
Das hatte ich bei "normalen" CRT TVs sowie meinem Plasma nie! Wieso? Weil Phosphor ein GANZ anderes Bild als OLED erzeugt trotz 60Hz Geflimmer was durch die Abklingzeit des Phosphors sehr kompensiert/"verweichlicht" wird.
Ich empfand OLEDs schon immer als stressig in ihrer Darstellungsweise. Die Farben sind zu krass und haben mit der Realität wenig zu zun. Selbst wenn man die Dinger farblich bändigt bleibt die OLED Darstellungsweise. Neulich meinen alten Plasma zwecks XBox360 und co wieder angeworfen. Was soll ich sagen? Sehr angenehmes und natürliches Bild was durch Phosphorleuchten erzeugt wird. Von Hauttönen (Film) ganz zu schweigen! Out of the box wohlgemerkt (Kinomodus).
Ja in der Realität kann es auch zu extremen Kontrasten kommen wenn die Sonne sehr hell scheint, und auch hier wird es stressig nicht wahr? Wieso zieht man Sonnenbrillen an;) Nun wieso sollte ich mir das die ganze Zeit auf meinem Bildschirm antun? Womöglich noch bei ganz abgedunkeltem Raum?
Dieses ganze gebetsmühlenartige "superschwarz mit extremen Helligkeiten ist gute Bildqualität" ist so dermassen in den Köpfen der Menschen eingebrannt dank Marketing das alle glauben "ja das ist toll!" Kommt mir vor wie sektenmässiges Hinterherlaufen von etwas was uns eigentlich nicht gut tut.
Ich bin durch mit OLED. Von all den anderen lustigen Problemen ganz zu schweigen...
Ich versuche hier NICHT Leute davon zu überzeugen was ICH für meine Augen/Gesundheit gut befinde sondern lediglich ein Aufzeigen was meine Erfahrung ist gekoppelt mit meiner "wissenschaftlichen" Erklärung wieso und warum:)
PS: Once you OLED... zieht bei mir nicht. Oft genug über längeren Zeitraum auf nem CX und C2 gezockt. Ich geh gerne wieder zu meinem VA zurück. Vor allem das sehr bunte Sonic AllStars Racing Transformed sieht für mich fürchterlich übertrieben auf den Dingern aus. Dann gibts noch den ebenso bunten OutRun2 Automaten mit CRTs auf den ich Zugriff habe. Kein Vergleich zu meinem VA und schon garnicht zu irgendeinem OLED. Das ist ein wundervolles Bild in meinen Augen.
Cubitus
2024-05-09, 09:33:43
Benutzt du den für langes Homeoffice? Erfahrungen?
Ja, arbeite mit dem C3 8+ Stunden im HO, überhaupt kein Problem.
Nutze dafür einen angepassten ISF Mode für helle Umgebungen.
Die 42 Zoll werden hier effektiv genutzt. Nutze mehrere Fenster gleichzeitig bzw. nebeneinander. Es passt sehr viel Content auf die Fläche.
Techniken wie Pixelshifting lassen sich ausstellen, falls dies nervt.
Ansonsten gebe ich dem TV in der Pause Zeit für einen Refresh,
wenn ich beim Essen oder auf der Toilette bin, wird der TV kurz ausgeschalten
Ist aber kein Muss, der TV ist überhaupt nicht nervig was dies anbelangt, man kann auch ohne Probleme durcharbeiten, sobald der interne Zähler über 4 Stunden erreicht, wird der Refresh beim nächsten ausschalten getriggert.
dargo
2024-05-09, 09:34:53
IPS flackert (meistens) nicht.
Ich habe jetzt mehrere Jahre den IPS-Monitor mit VRR und in diesen Jahren nichts angetroffen was flackert. Erst mit dem neuen IPS mit local Dimming konnte ich mich überzeugen wie grausam das ist.
Deisi
2024-05-09, 09:38:46
Sind die OLEDs mit Gsync Modul wegen der Range im Vorteil beim VRR Flicker Thema? Bei meinem Alienware damals mit 1.Gen QD OLED und Gsync Modul ist mir nie Flicker aufgefallen. Mit dem Asus 3.Gen QD OLED und Freesync fällt es aber manchmal auf. Für mich zwar nicht wirklich relevant, da nur im Ladescreen, aber trotzdem nicht schön.
Slipknot79
2024-05-09, 09:42:42
Falsch... mein ASUS MG279Q fickert überhaupt nicht. Jedenfalls nicht sichtbar für meine Augen. Hört doch endlich auf sich dieses Flickern von OLEDs schön zu reden.
Flicker geht bei mir als Kompromiss überhaupt nicht! Das ist kein Kompromiss, das ist Augenvergewaltigung. Und das reicht schon aus um einen großen Bogen um OLEDs zu machen. Bisher lese ich zwar öfter nur was von Ladescreens und/oder Menüs. Ist aber alles nur hörensagen. Niemand kann mir garantieren, dass sowas eventuell zukünftig nicht auch im Gameplay passieren kann. Ich würde mich jedenfalls schwarz ärgern viel Geld in die Hand zu nehmen um dann mit Flicker leben zu müssen.
Pixel Shifting ist auch ein Witz, plötzlich verschwinden einzelne Buchstaben auf dem Screen.
Und wenn ich sowas lesen muss frage ich mich welchen Lack die Hersteller gesoffen haben? :crazy2:
Du hast natürlich die Wahl zwischen VRR flicker in Menüs und Ladescreens (was nicht mal der Spielzeit anzurechnen ist) und flickerlosem, aber dafür verunstaltetem Bild auf Grund von IPS/VA/TN-Nachteilen, je nach deiner LCD-Alternative, was jedoch zu 100% der Spielzeit wirkt auf jedes Pixel ausnahmslos. Man hat also die Wahl zwischen VRR-flickering und ggf. einem einzigen betroffenen Spiel in seiner Spielkarriere, das flickert, und damit das Erlebnis schrottet oder man wählt ein Panel, das in JEDEM Spiel die Qualität schrottet. Was tun? Man wählt genau das Panel, das in JEDEM Spiel die Qualität schrottet. lol (y)
Etwa so: Ich habe die Wahl zwischen einem verrosteten Auto und einem, das vielleicht mal Rost kassieren könnte, wobei der Rost nicht bleiben wird. Ich wähle das verrostete Auto. (y)
Natürlich kannst du auch prophylaktisch auf OLED Verzichten, könnte ja nen Spiel rauskommen, das flickert. Am besten ist es natürlich sich gleich flach auf den Boden hinlegen, dann passiert einem gar nichts. Ist auch eine Möglichkeit, wie man machen kann.
Der aus den Dell-Kommentaren hätte das Spiel angeben müssen. Dann könnte man mehr Infos zu dem Spiel suchen.
Beim pixel shifting verschwinden gar keine Inhalte. Wie kommst du auf den Bullshit schon wieder?
dargo
2024-05-09, 09:52:57
Beim pixel shifting verschwinden gar keine Inhalte. Wie kommst du auf den Bullshit schon wieder?
https://photos-eu.bazaarvoice.com/photo/2/cGhvdG86ZGVsbGdsb2JhbA/ca7f1154-97ec-56f5-b4c9-3518401ea212
Mag sein, dass du Recycle ohne "R" schreibst. :freak:
Ich wollte mal ein paar Dinge einwerfen was OLED im Allgemeinen betrifft. Auch wenn ich nun harschen Gegenwind bekomme;) So sei es...
Ich kann das absolut nachvollziehen was du da geschrieben hast. :) Mir ist augenschonende Bilddarstellung auch wichtiger als super duper Kontraste und Schwarzwerte. Zumal die Schwarzwerte jetzt nicht so extrem schlecht hier sind da ich nie im absolut dunklen Raum sitze. Auch das ist nicht gerade für die Augen auf Dauer förderlich auf einen Screen im komplett dunklen Raum zu starren.
Tesseract
2024-05-09, 10:05:01
pixelshift ist sowohl auf meinem TV als auch monitor in der praxis völlig unsichtbar, da verschwindet überhaupt nix und verschiebt sich auch nicht sichtbar. ist außerdem ausschaltbar.
das auf dem bild sieht nach overscan aus... oder einer buggy firmware.
dargo
2024-05-09, 10:07:37
Ja... wäre durchaus möglich, dass Dell dort Mist bei der Firmware gebaut hat. Schon alleine, dass das alle paar Minuten passieren soll ist einfach nur behämmert. Pixel Shifting zu deaktivieren sehe ich in Bezug auf Garantieleistungen beim Burn In problematisch an.
raffa
2024-05-09, 10:12:36
Ich meinte damit, das IPS (und TN) generell nicht zum flickern bei Frequenzwechseln neigen, VA und OLED aber schon. Ausnahmen bestätigen die Regel.
Man muss da auch nicht das eine Spiel suchen, dass vielleicht flickert, sondern ein Schirm, der flickert, flickert immer bei starken Frequenzwechseln, und das sieht man das je nach Kontent und Frametimes mal mehr und mal weniger stark.
Ladeschirme flackern, weil die Frequenz stark schwankt, Menüs flackern weil oft die FPS begrenzt werden und ein umschalten zb einen mini Laderuckler auslöst.
Es flackert an der LFC Grenze, weil hin- und hergschalten wird zwischen zb 50 und 100hz,
usw usf.
Weiss flackert nicht, dunkelgrau flackert stärker als mittelgrau...Wozu kauft man sich nen OLED? Wohl kaum wegen dem hervorrangenden hellgrau ;)
Relex
2024-05-09, 10:16:45
Mag sein, dass du Recycle ohne "R" schreibst. :freak:
Wahrscheinlich HDMI Overscan oder so nen Mist aktiviert. Was ist das für ein Modell?
Bei allen mir bekannten OLEDs wird nichts abgeschnitten. Und für den AW3225QF und den LG CX kann ichs persönlich bestätigen. Das Panel hat mehr Pixel als für die native Darstellung gebraucht wird. Kannste ja auch super einfach mit nem Testbild prüfen, das die Äußersten Pixel am Rand einfärbt.
Also bei solchen high Ppi Displays scheinbar lächerlicher Unterschied von 1-inch an Diagonale, zu meinem 14.5" Tab Extreme hat beachtbare Konsequenzen. Ich habe jetzt vollwertiges fast 16" Display und habe gleichzeitig die Ppi gesteigert von 240 auf 280. Und 280ppi auf ~16 Zoll, das will was heißen.
Man könnte etwas höher dank 2400p gehen, aber ich will unbedingt nativ 16:9 wegen Xbox. Ja... lasst das euch auf der Zunge zergehen ---> 4K, 280ppi Xbox. Bin jetzt selber gespannt wie so ein UFC Game damit aussieht.
Was soll das denn bringen? Warum 16 Zoll? Du zockst damit an einer Xbox. Verrückt...
Wie scharf du etwas wahrnimmst hängt nicht von den DPI ab sondern von Verhältnis aus Sitzabstand und Displaygröße sowie der Auflösung.
Ich weiß ja nicht wie nah du an deinem 16 Zoll Display sitzt, aber lass es meinetwegen 50 cm sein, dann hast du auf einem Sichtfeld von 39 Grad eine 4K Auflösung.
Das gleiche hättest du z.B. wenn du 1m von einem 32 Zoll 4K Monitor entfernt sitzt. Die wahrgenommene Schärfe wäre exakt identisch, da 32 Zoll auf 1 Meter ebenfalls 39 Grad Sichtfeld einnehmen.
Also wenn du dir so kleine Displays kaufst, weil du bestmögliche Schärfe erreichen willst, dann hast du nen ziemlich großen Denkfehler gemacht. :wink:
Die extremen Kontraste waren alles andere als angenehm für unsere Augen. Was glaubt ihr wieso die paperartige display Darstellung der Kindles so angenehm ist zum Lesen? Der aktuelle OLED meines Bruders hat angehobenen Schwarzwert, also leicht gräulich weil er es nicht ertragen kann aber dennoch die bunten farben geniessen möchte. Verrückt, aber für ihn nunmal angenehm was ich sehr gut nachvollziehen kann. Er hat übrigens sehr viel Erfahrung (Jahrzenhnte) mit Spiegelreflex Photographie sowie Digitalfotographie. Objektive alleine von denen man sich paar 4090er kaufen könnte. Nur so am Rande.
Oh man, wo soll man da anfangen...
Kontrast ist IMMER der Unterschied zwischen Hell und dunkel und hat mit den Schwarzwerten alleine erstmal gar nichts zu tun. Wenn du deine Augen schonen willst, musst du entsprechend die Helligkeit anpassen. Viele stellen ihre Monitore viel zu hell ein. SDR Referenz wären 100 nits in einem abgedunkelten Raum. Die meisten werden mindestens mit dem doppelten, wenn ich 2-3 fachen arbeiten (was aber jetzt auch nicht sooo extrem ist, wie es klingt, da wir Helligkeit logarithmisch wahrnehmen)
Das Problem mit LCDs ist einfach, dass sie einen Grauschleier haben und man daher immer auf eine trübe Fläche schaut, die nie so klar ist, wie die Realität.
Weiterhin, ist es nicht wahr das QD OLEDs mit viel Blau arbeiten um ihre Helligkeit zu erreichen? Also genau das was man eigentlich nicht will? Und tatsächlich sind die blauen Subpixel der QDs viel grösser als rot und grün, richtig? Es gibt auf reddit genug Erfahrungsberichte wo Leute Augenschmerzen bekommen bei den QDs aber auch bei den WOLEDs welche zwar weniger Blau brauchen um Helligkeit zu erzeugen aber dennoch den extremen Kontrast bieten nach dem alle so geil sind. Thema meine Erfahrungen mit dem Sony CRT.
Nein, der emissive Layer ist z.B. bei QD OLED blau und wird durch QuatumDots noch in Rot und Grün umgewandelt. Mit Betonung auf umgewandelt, nicht gefiltert. Der Anteil der Farben ist also gleichmäßig bzw. ist eben auf dem Level wie er nach sRGB sein sollte. Bei LCDs hast du hingegen häufiger das Problem, dass die Farbfilter nicht alle Blauanteile rausfiltern können und das Farbspektrum damit mehr Blauanteil hat und die Farben weniger rein sind.
Dass manche Leute Augenschmerzen bei OLEDs oder QD OLEDs haben liegt meistens daran, dass die Leute unter Windows ohne sRGB clamp arbeiten und das sRGB Bild damit auf den vollen HDR Farbraum des OLED aufgeblasen wird. Damit sind farben viel stärker gesättigt und das Bild sieht völlig falsch aus.
Dazu kommt dann noch Clear Type, welches die farbigen Subpixel zur Schriftglättung nutzt. Und dort passieren dann zwei Fehler.
1. Durch die viel zu hohe Sättigung werden die farbigen Subpixel die die Schrift glätten sollen viel zu stark betont und die Schrift ist von deutlich sichtbaren farbigen Rändern umgeben.
2. Wenn das Subpixellayout nicht zu der Anordnung passt, die ClearType erwartet, dann funktioniert ClearType nicht richtig und es sieht noch schlimmer aus.
Das sind zwei Faktoren, die für Augenschmerzen sorgen.
Wenn man aber den sRGB modus nutzt, so wie vorgesehen und eine halbwegs hohe Pixeldichte hat, dann ist das praktisch kein Problem mehr und die Schrift ist nahezu genauso gut lesbar wie auf einem LCD. Mit dem richtigen Subpixellayout für ClearType kann man aber sicher noch etwas mehr Qualität bei der Schriftdarstellung herausholen.
Das hatte ich bei "normalen" CRT TVs sowie meinem Plasma nie! Wieso? Weil Phosphor ein GANZ anderes Bild als OLED erzeugt trotz 60Hz Geflimmer was durch die Abklingzeit des Phosphors sehr kompensiert/"verweichlicht" wird.
Ich empfand OLEDs schon immer als stressig in ihrer Darstellungsweise. Die Farben sind zu krass und haben mit der Realität wenig zu zun. Selbst wenn man die Dinger farblich bändigt bleibt die OLED Darstellungsweise. Neulich meinen alten Plasma zwecks XBox360 und co wieder angeworfen. Was soll ich sagen? Sehr angenehmes und natürliches Bild was durch Phosphorleuchten erzeugt wird. Von Hauttönen (Film) ganz zu schweigen! Out of the box wohlgemerkt (Kinomodus).
Da wird nichts verweichlicht, das Geflimmer ist so deutlich, dass du es mit bloßem Auge deutlich sehen kannst. Das ist der größte Mist, den du deinen Augen antun kannst. Nicht umsonst wird bei heutigen Monitoren viel wert darauf gelegt, dass sie nicht flimmern. Ist glaube ich auch für Arbeitsplätze vorgeschrieben.
Wenn die Darstellung in Sachen Farben so stark von dem abweicht, was du für normal empfindest, dann ist der OLED eben völlig falsch eingestellt. Was natürlich auch immer der Fall ist, wenn man nicht explizit den sRGB Modus aktiviert.
PS: Once you OLED... zieht bei mir nicht. Oft genug über längeren Zeitraum auf nem CX und C2 gezockt. Ich geh gerne wieder zu meinem VA zurück. Vor allem das sehr bunte Sonic AllStars Racing Transformed sieht für mich fürchterlich übertrieben auf den Dingern aus. Dann gibts noch den ebenso bunten OutRun2 Automaten mit CRTs auf den ich Zugriff habe. Kein Vergleich zu meinem VA und schon garnicht zu irgendeinem OLED. Das ist ein wundervolles Bild in meinen Augen.
Siehe oben. Wenn farben "übertrieben" aussehen, dann liegt das an völlig vermurksten Einstellungen und nicht am Panel.
Klar bekommst du Gegenwind für deine Aussagen. Aber NICHT weil wir übertriebene Darstellung lieben, im Gegenteil. Das was du sagst ist einfach nicht richtig und steht einer natürlichen und augenschonenden Darstellung sogar noch im Weg.
Tesseract
2024-05-09, 10:24:58
Es gibt zb den Hardwarecursor, was bedeutet, dass der Mauszeiger unabhängig vom restlichen Bild aktualisiert wird, asynchron sozusagen
hardware cursor bedeutet die "GPU", also der treiber, rendert den zeiger in den frame, nicht die anwendung. wenn das spiel z.B. 2 frames inputlag hat hat der softwarecursor ebenfalls 2 frames lag, der hardwarecursor aber nicht.
das hat nichts mit dem sync oder der frameausgabe zu tun.
Cubitus
2024-05-09, 10:27:38
Beim pixel shifting verschwinden gar keine Inhalte. Wie kommst du auf den Bullshit schon wieder?
Pixelshifting lässt sich deaktivieren, und der Refresh läuft zumindest hier beim C3 völlig unauffällig ab, bei den neusten Alienware Monitore ist es ähnlich.
@Thread
Flickern tritt hier vor allem unter HDR auf, SDR bzw. der Desktop (SDR/HDR) ist nicht betroffen.
Wenn ich überlege wie mein alter 34er Zoll Samsung VA Monitor mit VRR (ohne HDR) geflackert hatte, ist der OLED jetzt schon um Welten Besser.
Flackern ist ein Thema ja, stört es? Bedingt, kommt aufs Szenario im/aufs Spiel an. Auch lässt sich mit der Anpassung der VRR Range das Problem einschränken.
Ob man eher kompromissbereit ist, kommt drauf an. OLED Pixel sind durch ihre schnellen Schaltzeiten nicht anfällig für Smearing, was wirklich ein Segen ist.
Ich frag mich wirklich wie ich das all die Jahre mit VA ausgehalten hab. :freak:
Das HDR Erlebnis ist gegenüber Local Dimming ebenfalls deutlich überlegen, kein Ringing, kein Nachleuchten, neigt nicht zum Absaufen von dunklen Bereichen.
Das sind für mich einfach so gute Vorteile das ich aktuell über das VRR-Flackern "hauptsächlich" in Menüs und dem Verfallsdatum der OLED Pixel bzw. über das Thema OLED-Care beide Augen zudrücke.
Die nächsten Jahre werde ich hoffentlich Spaß mit dem TV haben, und dann wird sowieso wieder neu bewertet und geschaut was der Markt so hergibt.
Den Preis natürlich immer im Fokus, was bringt mir ein 1500-2000 Euro teurer Monitor der nach 5-6 Jahren eventuell durch ist..
Das wäre mir zu riskant bei aller Liebe zur aktuellen Technik. Meinen letzten Monitor hatte ich fast 7 Jahre im Einsatz, das kurze Intermezzo mit dem G7 Neo nicht mitgerechnet.
Wenn der OLED optimistisch geschätzt 7 Jahre hält, dann sind das bei meinem Preis 112 Euro pro Jahr.
dargo
2024-05-09, 10:28:26
Wahrscheinlich HDMI Overscan oder so nen Mist aktiviert. Was ist das für ein Modell?
Dell AW2725DF, einfach die Bewertungen bei Dell lesen.
Relex
2024-05-09, 10:54:32
Dell AW2725DF, einfach die Bewertungen bei Dell lesen.
Du hast recht. Stimmt wohl tatsächlich. Beim 27 Zoll Modell gibts viele Leute die sich darüber beschweren.
DAS ist natürlich völliger Mist. Sowas sollte man dann auch zurecht nicht kaufen.
raffa
2024-05-09, 11:06:32
hardware cursor bedeutet die "GPU", also der treiber, rendert den zeiger in den frame, nicht die anwendung. wenn das spiel z.B. 2 frames inputlag hat hat der softwarecursor ebenfalls 2 frames lag, der hardwarecursor aber nicht.
das hat nichts mit dem sync oder der frameausgabe zu tun.
Ja, haste recht, habs editiert.
Gibt wohl bugs im amdgpu linux kernel Treiber, die derzeit Cursor Only Updates und VRR nicht recht zusammenspielen lassen.
Gouvernator
2024-05-09, 11:33:22
Ich komme mit dem Vchance nicht zum Gaming, weil ich so geflasht bin von der Videoqualität. Das ist echt next Level. Doug DeMuros Autos sehen aus wie Forza in 16K. Ohne Scheiß, 4K YT ist der Hammer. Man kann einfach nur irgendwas anstarren, weil es so "realistisch" aussieht.
Ich kann solche Compilations stundenlang sehen. Das sieht aus legit wie nextgen Gran Turismo Replay in 8K mit Raytracing.
https://youtu.be/01ngbuJvYIU?si=qc3ELGKtXAWQzK3n
Man hat im Monitor reichlich Einstellungen um das Bild möglichst realistisch anzupassen.
Weltraumeule
2024-05-09, 13:24:51
Wenn man aber den sRGB modus nutzt
Wenn die Darstellung in Sachen Farben so stark von dem abweicht, was du für normal empfindest, dann ist der OLED eben völlig falsch eingestellt. Was natürlich auch immer der Fall ist, wenn man nicht explizit den sRGB Modus aktiviert.
Wie und wo stellt man das ein?
Weltraumeule
2024-05-09, 13:31:11
Der C2 flackert auch, aber in den Szenarios welche ich testete, nicht so offensichtlich für das Auge sichtbar.
Ich würde einfach nach dem Preis schauen.
Wenn C2 günstig und neu dann kaufen.
Wenn C3 günstig dann diesen kaufen.
Den C2 gibt es momentan für 739 Euro.
https://fernseh-kirsch.de/de/product/lg-oled42c29lb-aeu-oled-tv-uhd-4k-twin-triple-tuner-s-1004711/?utm_source=idealo
Da bekommt man schon einen wirklich "guten" OLED PC Monitor für das Geld.
Hab für meinen C3 insgesamt 790 Euro bezahlt mit Cashback..
Der C2 kann gutes HDR, es lässt sich gut damit arbeiten und Filme bzw. Streaming onTop ist auch sehr gut damit.
Der Gamemode ist bzgl Latenz, VRR brauchbar.
DLSDR kann er auch und LG hat ihm das neue Update auf WEbOS23 verpasst also gleiches BS wie beim C3.
Wer mit 42 Zoll (Platz dafür hat), 120 Hz und dem Glossy Panel zurecht kommt, ein absoluter NoBrainer bei dem Preis.
Ich selber schaue kein oder kaum Serien und Filme, mein Raum ist abgedunkelt oder ganz dunkel, brauche also auch keine besonders hohe Helligkeit des Monitors. Wenn ich selten Filme oder Serien schaue, dann eh über den PC von lokalen Dateien, BlueRay Player oder im Browserfenster. Daher ist mir SmartTV Software egal.
Von daher kann ich ruhig zum älteren C2 greifen dahingehend? Auch weil der etwas weniger VRR Flimmern hat. Und zudem, wie ich gelesen habe, auch weniger Banding in dunklen Szenen?
Der Gamemode ist bezüglich Latenz auch nicht langsamer als beim C3?
Aber beim C3 wird aufgeführt "Prozessor
LG a9 Gen6 AI Prozessor 4K, Quad-Core".
Ist dieser u.a. auch für die Interpolation zuständig? Denn ich würde manche Spiele ggf. nur in 1440p spielen wollen und habe Sorge, dass der C3 besser interpoliert als der C2. Oder solle man das eh besser der Grafikkarte überlassen?
Cubitus
2024-05-09, 13:50:30
Ich selber schaue kein oder kaum Serien und Filme, mein Raum ist abgedunkelt oder ganz dunkel, brauche also auch keine besonders hohe Helligkeit des Monitors. Wenn ich selten Filme oder Serien schaue, dann eh über den PC von lokalen Dateien, BlueRay Player oder im Browserfenster. Daher ist mir SmartTV Software egal.
Von daher kann ich ruhig zum älteren C2 greifen dahingehend? Auch weil der etwas weniger VRR Flimmern hat. Und zudem, wie ich gelesen habe, auch weniger Banding in dunklen Szenen?
Der Gamemode ist bezüglich Latenz auch nicht langsamer als beim C3?
Aber beim C3 wird aufgeführt "Prozessor
LG a9 Gen6 AI Prozessor 4K, Quad-Core".
Ist dieser u.a. auch für die Interpolation zuständig? Denn ich würde manche Spiele ggf. nur in 1440p spielen wollen und habe Sorge, dass der C3 besser interpoliert als der C2. Oder solle man das eh besser der Grafikkarte überlassen?
Es ist beim C2 alles genauso wie beim C3. Game-Mode, Latenzen etc.
Mittlerweile ist auch die Software beim C2 auf WebOS23, Probleme wie ein zu aggressives ABL gibt es nicht mehr. In den Menüs ist der C2 genauso schnell und die Algorithmen für die Interpolation sind die gleichen.
Wobei ich lieber zu DLSS und CO greifen würde. Die Interpolation ist okay, aber Wunder brauchst du keine erwarten. Zu dem Banding beim C2 kann ich nichts sagen.
dargo
2024-05-09, 15:31:17
Du hast recht. Stimmt wohl tatsächlich. Beim 27 Zoll Modell gibts viele Leute die sich darüber beschweren.
DAS ist natürlich völliger Mist. Sowas sollte man dann auch zurecht nicht kaufen.
Vielleicht liege ich mit meiner Annahme falsch, ich habe aber langsam grundsätzlich den Verdacht, dass es völlig sinnlos ist OLED Monitore und OLED TVs hier in einen Topf zu werfen. OLED Monitore sind hauptsächlich auch für den Desktop bzw. produktives Arbeiten von den Herstellern vorgesehen (sollte man zumindest annehmen) und ich befürchte, dass die ganzen Schutzmechanismen bei den OLED Monitoren noch aggressiver sind als bei OLED TVs.
Hikaru
2024-05-09, 17:03:41
@Relex In einigen Punkten haste mich überzeugt. Aber nicht in allen.
Grauschleier habe ich nicht da ich immer mit recht hellem Umgebungslicht am Monitor hänge. Den Grauschleier hätte ich aber mit QDs zumindest sehr wohl. Das ganze Theater mit Clear Type und ppi ist nunmal Theater. Und ich möchte kein 4K @27" um entsprechende ppi zu erreichen, nicht mein Ding aus verschiedenen Gründen. Ich fahre gerade bewusst 1440p @32" bei entsprechendem Sitzabstand was für mich ideal ist. Was sRGB betrifft mag das beim Surfen sehr gut und einleuchtend sein aber beim Spielen auch?
Was aber immer wie ein Damoklesschwert über mich hängen würde ist letztendlich Einbrennen im desktop Betrieb. Ich möchte sorglos damit umgehen können und das ist nicht garantiert mit OLEDs. Mein erster VA hat 55.000 Stunden auf den Zeiger bekommen. Oft auch stundenlang nicht "Vollbild". Thema Emulation in 4:3 oder auch 3:4. Solln wir mal die Hersteller fragen ob die bei meinem Verhalten ne Garantie geben?
Wenn microLED endlich bzahlbar an den Start kommt und keine komischen Nachteile mit sich bringt wird hier jeder OLED nicht mal mehr mit der Kohlezange anfassen wollen, versprochen;)
Wäre alles so easy gäbe es diesen langen Thread nicht. Letzendlich entscheidet jeder für sich was das Beste für einen ist und das Gesamtpaket OLED ist für mich (noch) nicht richtig. Bin happy mit meinem 275 Euro Monitor. Kann mir immer noch einen OLED kaufen wenn mal einer für mich in Frage kommen würde ohne das Gefühl Geld "herausgeschmissen zu haben" für meinen jetzigen.
Niemand kann mir garantieren, dass sowas eventuell zukünftig nicht auch im Gameplay passieren kann. Ich würde mich jedenfalls schwarz ärgern viel Geld in die Hand zu nehmen um dann mit Flicker leben zu müssen.
Du hast garantiert kein Flicker wenn du entweder:
- vernünftige Settings wählst die keine enormen FPS-Sprünge erzeugen.
- auf VRR verzichtest
- Einen Samsung-Monitor verwendest und die entsprechende Option aktivierst.
Slipknot79
2024-05-09, 17:28:46
https://photos-eu.bazaarvoice.com/photo/2/cGhvdG86ZGVsbGdsb2JhbA/ca7f1154-97ec-56f5-b4c9-3518401ea212
Mag sein, dass du Recycle ohne "R" schreibst. :freak:
Garantiefall oder Rückgabe. Außerdem soll er mal das Hintergrundbild akti4en um zu sehen ob nicht ein Fake, weil sowas can ich auch in 2min basteln.
Pixelshifting lässt sich deaktivieren, und der Refresh läuft zumindest hier beim C3 völlig unauffällig ab, bei den neusten Alienware Monitore ist es ähnlich.
Ich würde das Teil nicht deakti4en, auch nicht damit "Papierkorb" wieder richtig dargestellt wird. (y)
SamLombardo
2024-05-09, 18:07:40
Vielleicht liege ich mit meiner Annahme falsch, ich habe aber langsam grundsätzlich den Verdacht, dass es völlig sinnlos ist OLED Monitore und OLED TVs hier in einen Topf zu werfen. OLED Monitore sind hauptsächlich auch für den Desktop bzw. produktives Arbeiten von den Herstellern vorgesehen (sollte man zumindest annehmen) und ich befürchte, dass die ganzen Schutzmechanismen bei den OLED Monitoren noch aggressiver sind als bei OLED TVs.
Also ich muss sagen, DAS hab ich auch schon überlegt. Wäre ja nur logisch, da viel intensiver lange feststehende Inhalte ausgehalten werden müssen. Wie gesagt, ich hatte nach 7000+ Stunden OLED TV als Monitor kein Einbrennen, aber ich hab schon auf wechselnde Inhalte geachtet. Und damit nicht gearbeitet . Für tatsächliche Monitore sind die sicher sehr viel vorsichtiger werksseitig.
dargo
2024-05-09, 18:10:43
Du hast garantiert kein Flicker wenn du entweder:
- vernünftige Settings wählst die keine enormen FPS-Sprünge erzeugen.
- auf VRR verzichtest
- Einen Samsung-Monitor verwendest und die entsprechende Option aktivierst.
Gaming ohne VRR tue ich mir nie mehr im Leben an! Nach deiner Definition ist also OLED nichts für mich und auch keine echte Gamingoption. Wer ohne VRR spielt hat keinen blassen Schimmer von flüssiger Bildausgabe. Ich weiß auch gar nicht wie ich früher vor vielen Jahren ohne VRR das Geruckel überhaupt ertragen konnte. :freak: Nie wieder zurück zu non VRR bis meine Augen die Frequenz nicht mehr als Stutter wahrnehmen können. Aber da sind wir noch weit von entfernt. Vielleicht irgendwann mit 500+Hz, im schlimmsten Fall vielleicht erst mit 1000Hz. X-D
Cubitus
2024-05-09, 18:30:38
Du hast garantiert kein Flicker wenn du entweder:
- vernünftige Settings wählst die keine enormen FPS-Sprünge erzeugen.
- auf VRR verzichtest
- Einen Samsung-Monitor verwendest und die entsprechende Option aktivierst.
Ja geht beim Samsung zwar, aaber der Input-Lag nimmt deutlich zu.
https://i.postimg.cc/YCpVYdGw/Screenshot-2024-05-09-183106.png (https://postimg.cc/crbXNMBD)
Hier Test beim NeoG7
https://www.rtings.com/monitor/reviews/samsung/odyssey-neo-g7-s32bg75
Würde von dem VRR Control abstand nehmen.
Noch ein Punkt welcher mich beim NeoG7 sehr gestört hatte, die Blickwinkelabhängigkeit. Bei LG quasi nicht vorhanden. :)
Das war soo nervig, lehnst dich im Stuhl zurück hast ausgewaschene Farben..
Thunder99
2024-05-09, 19:17:31
G8 hier, keine Probleme :wink:
Ja geht beim Samsung zwar, aaber der Input-Lag nimmt deutlich zu.
Ich würde sagen im akzeptablen Bereich.
Würde von dem VRR Control abstand nehmen.
Ich auch, aber nicht wegen der geringfügig steigenden Latenz, sondern weil bei dem VRR-Flicker Problem aus einer Mücke ein Elefant gemacht wird, und es in der Praxis nie ein Problem ist.
Platos
2024-05-09, 23:18:32
was ist denn "VRR Controll On" ?
aufkrawall
2024-05-10, 00:01:33
was ist denn "VRR Controll On" ?
Vermutlich eine Art Trägheit/Hysterese fürs VRR, damit es weniger flackert. Erkauft mit Mikrorucklern und Lag.
Klingt schon in der Theorie komplett behämmert und ist es garantiert auch in der Praxis.
was ist denn "VRR Controll On" ?
Ein Buffer von einem Frame, der es erlaubt die benötigte Spannung für die Pixel vorherzuberechnen.
Damit ein Refreshzyklus mehr Latenz, dafür garantiert kein Flackern mehr.
Deathcrush
2024-05-10, 01:22:07
Das war soo nervig, lehnst dich im Stuhl zurück hast ausgewaschene Farben..
Was hast du denn bitte für einen Stuhl? Das kann ich bei meinem Neo G7 so nicht bestätigen.
dargo
2024-05-10, 08:02:01
Den Test von Hardware Unboxed zum Burn In beim produktiven Arbeiten finde ich recht interessant, mal sehen wie sich das über weitere Monate mit dem 32" 4k 240Hz QD-OLED verhält.
ShRbArSGq1U
Manche Schutzmechanismen können aber durchaus etwas lästig sein. :tongue:
Hamster
2024-05-10, 08:14:57
Ich warte ja schon lange auf einen großen, geschwungenen Monitor mit ordentlicher Auflösung und mehr als 60 hz.
Der neue Dell U4025QW ( https://www.dell.com/de-de/shop/geschwungener-dell-ultrasharp-40-thunderbolt-hub-monitor-u4025qw/apd/210-bmdv/monitore-und-monitorzubeh%C3%B6r) scheint endlich in die richtige Richtung zu gehen (zumindest kenne ich keinen anderen Monitor der in der gleichen Liga spielt).
Lediglich der Preis ist aktuell noch abschreckend. Hat den hier bereits jemand oder kennt eine Alternative?
ChaosTM
2024-05-10, 09:05:56
Den Test von Hardware Unboxed zum Burn In beim produktiven Arbeiten finde ich recht interessant, mal sehen wie sich das über weitere Monate mit dem 32" 4k 240Hz QD-OLED verhält.
https://youtu.be/ShRbArSGq1U
Manche Schutzmechanismen können aber durchaus etwas lästig sein. :tongue:
Prinzipiell eine gute Idee, aber kaum jemand lässt seinen Monitor immer auf 100% dahinköcheln und verwendet niemals einen Bildschirmschoner. Alleine schon des Stromverbrauchs wegen..
Die Schutzmechanismen treten normalerweise nur dann in Kraft, wenn sich der Schoner aktiviert, was bei "normalem" Gebrauch doch recht oft passiert.
Ich verwende meine Geräte so wie jeden anderen Monitor auch. Nix mit Leisten oder Icons ausblenden oder schwarzer Hintergrund, aber der Schoner ist halt eingeschaltet und wird nach 5-10 Minuten aktiv.
Bin schon auf die Ergebnisse gespannt.
fulgore1101
2024-05-10, 10:01:05
Von Rtings zum Thema Burn-in:
https://www.youtube.com/watch?v=Fa7V_OOu6B8&pp=ygUTcnRpbmdzIGJ1cm4gaW4gdGVzdA%3D%3D
Der_Korken
2024-05-10, 10:26:31
Prinzipiell eine gute Idee, aber kaum jemand lässt seinen Monitor immer auf 100% dahinköcheln und verwendet niemals einen Bildschirmschoner. Alleine schon des Stromverbrauchs wegen.
Das ist ja auch nicht der Punkt. Man möchte gerne wissen, wie stark der Burn-In nach z.B. 3 Jahren ist ohne diese 3 Jahre abwarten zu müssen. Wenn ich ihn 24h pro Tag laufen lasse, obwohl ich ihn selber nur 8h/Tag nutzen würde, weiß ich nach einem Jahr bereits wie hoch der Verschleiß nach 3 Jahren wäre, wenn ich ihn normal nutzen würde.
Stresstests bei OC sind doch das gleiche Prinzip: Ich möchte ihn möglichst kurzer Zeit herausfinden, ob meine Einstellung stabil ist. Also erzeuge ich eine absurd hohe Last, die 100x schlimmer als meine Alltagslast ist und wenn die x Stunden stabil bleibt, kann ich mich drauf verlassen, dass mein Rechner höchstens alle 100*x Stunden abstürzt.
ChaosTM
2024-05-10, 10:39:56
Das funktioniert aber speziell bei OLEDs nicht so. Einmal zerstört durch unsachgemäßen Betrieb und die Sache ist gegessen.
Das kann man nicht einfach von einem auf 3 Jahre hochrechnen.
Du betreibst deinen Monitor auch die 8h niemals immer mit 100% und ohne Bildschirmschoner.
Von daher ist es zwar "interessant" sagt aber über die echte Lebensdauer leider wenig bis gar nichts aus.
SamLombardo
2024-05-10, 10:41:34
Das ist ja auch nicht der Punkt. Man möchte gerne wissen, wie stark der Burn-In nach z.B. 3 Jahren ist ohne diese 3 Jahre abwarten zu müssen. Wenn ich ihn 24h pro Tag laufen lasse, obwohl ich ihn selber nur 8h/Tag nutzen würde, weiß ich nach einem Jahr bereits wie hoch der Verschleiß nach 3 Jahren wäre, wenn ich ihn normal nutzen würde.
Stresstests bei OC sind doch das gleiche Prinzip: Ich möchte ihn möglichst kurzer Zeit herausfinden, ob meine Einstellung stabil ist. Also erzeuge ich eine absurd hohe Last, die 100x schlimmer als meine Alltagslast ist und wenn die x Stunden stabil bleibt, kann ich mich drauf verlassen, dass mein Rechner höchstens alle 100*x Stunden abstürzt.
Das ist aber bei OLED anders, wegen der Anti Burn in Algorithmen alle 4 Stunden. Wenn du ihn tagelang 24 Stunden durchlaufen lässt mit einem Standbild dann ist er relativ schnell hinüber. Einmal in 4-6 Stunden muss ein OLED für ~5 Minuten ausgeschaltet werden, damit der Algorithmus durchlaufen kann. Wer diese Eigenheiten nicht beachtet, der hat bald zwangsläufig Burn in. Ist halt der Preis für die beste Bildqualität. Ich könnte wetten ein Grossteil der Burn n Opfer beachtet genau das nicht und schaltet dann vielleicht sogar noch an der Steckdosenleiste aus.
Exxtreme
2024-05-10, 10:45:11
Das ist aber bei OLED anders, wegen der Anti Burn in Algorithmen alle 4 Stunden.
Es gibt kein Anti-Burn-In bei OLEDs. ;) Diese Refresh-Zyklen sind eigentlich nur eine Methode den Burn-In zu adaptieren. Sprich, man passt die Helligkeit der anderen Pixel bissl an damit der Burn-In relativ gesehen nicht mehr sichbar ist.
ChaosTM
2024-05-10, 10:57:18
Das Gerät 16h lang bei maximaler Helligkeit und immer dem selben Bild laufen zu lassen ist kein Langzeittest, sonder mutwillige Sachbeschädigung, die aber einen netten Clickbait Wert hat. ;)
Mehr aber auch nicht..
SamLombardo
2024-05-10, 11:02:50
Es gibt kein Anti-Burn-In bei OLEDs. ;) Diese Refresh-Zyklen sind eigentlich nur eine Methode den Burn-In zu adaptieren. Sprich, man passt die Helligkeit der anderen Pixel bissl an damit der Burn-In relativ gesehen nicht mehr sichbar ist.
Wie die funktionieren ist mir schon klar. Wieso sagst du es gäbe kein Anti Burn in bei OLED? Diese Algorithmen sind genau das. Die gibt es, weil es ohne sie ganz schnell Burn in geben würde. Sie sind eine Anti Burn in Massnahme. Die auch funktioniert, man muss sie aber machen lassen.
Weltraumeule
2024-05-10, 11:11:26
Das ist aber bei OLED anders, wegen der Anti Burn in Algorithmen alle 4 Stunden. Wenn du ihn tagelang 24 Stunden durchlaufen lässt mit einem Standbild dann ist er relativ schnell hinüber. Einmal in 4-6 Stunden muss ein OLED für ~5 Minuten ausgeschaltet werden, damit der Algorithmus durchlaufen kann. Wer diese Eigenheiten nicht beachtet, der hat bald zwangsläufig Burn in. Ist halt der Preis für die beste Bildqualität. Ich könnte wetten ein Grossteil der Burn n Opfer beachtet genau das nicht und schaltet dann vielleicht sogar noch an der Steckdosenleiste aus.
Wenn ich den Monitor 2 Stunden laufen lasse, danach weggehe und wieder zwei Stunden einschalte, muss der Algorithmus danach laufen? Also zählt er bis vier Stunden vorbei sind, ob mit oder ohne Unterbrechung und legt dann los?
Oder legt er generell los, nachdem der Monitor ausgeschaltet wurde? Egal ob 4 oder nur 2, 3 Stunden betrieben?
Der_Korken
2024-05-10, 11:17:46
1. HWUB-Tim nutzt seinen OLED nicht 24/7, sondern 60h/Woche zum Arbeiten als Ersatz für seinen vorigen LCD. Das ist in keinster Weise übertriebener Gebrauch.
2. Ich habe nie gesagt, dass die 24/7 ohne Refresh zwischendurch laufen sollen. Es ging nur darum eine Art Zeitraffer zu simulieren, da ich ja offensichtlich nicht erst in 3 Jahren wissen will, ob der Monitor von heute diese 3 Jahre ohne sichtbaren Burn-In übersteht - bis dahin ist er veraltet und die Antwort hinfällig.
3. Von maximaler Helligkeit habe ich ebenfalls nichts geschrieben. Wobei ich hier das Problem auch nicht sehen würde, weil ich mit 240 statt 120Nits die Alterung ja nochmal verdoppeln kann (wenn nicht gar mehr, weil das vielleicht nicht linear zusammenhängt). Dann kann ich 3 Jahre Gebrauch sogar in <= 6 Monaten "simulieren".
4. Wie Exxtreme sagt, kann Burn-In nicht verhindert, sondern nur durch pixelabhängiges Nachjustieren kompensiert werden. OLEDs verlieren nach x-tausend Stunden y% ihrer Leuchtkraft und das führt zu permanentem Burn-In. Wobei mir persönlich nicht klar ist, inwiefern diese Refresh-Zyklen alle 4h dagegen helfen sollen, denn eigentlich bräuchte ich für das Nachjustieren eine geeichte Kamera, die bei einem komplett weißen/roten/grünen/blauen Bild den Monitor abfährt und eine Software, die aus den Bildern abliest, welche Pixel wie stark verschlissen sind und passt deren Ansteuerung an. OLEDs werden ja wohl kaum an jedem Pixel einen Lichtsensor haben, um den Verschleiß zu überwachen.
Exxtreme
2024-05-10, 11:18:04
Wie die funktionieren ist mir schon klar. Wieso sagst du es gäbe kein Anti Burn in bei OLED? Diese Algorithmen sind genau das. Die gibt es, weil es ohne sie ganz schnell Burn in geben würde. Sie sind eine Anti Burn in Massnahme. Die auch funktioniert, man muss sie aber machen lassen.
Es ist deshalb kein Anti-Burn-In weil es den Burn-In nicht rückgängig macht oder irgendwie abschwächt. Weil das schlicht nicht geht. Der Burn-In ist eine physische Abnutzung.
SamLombardo
2024-05-10, 11:26:22
Wenn ich den Monitor 2 Stunden laufen lasse, danach weggehe und wieder zwei Stunden einschalte, muss der Algorithmus danach laufen? Also zählt er bis vier Stunden vorbei sind, ob mit oder ohne Unterbrechung und legt dann los?
Oder legt er generell los, nachdem der Monitor ausgeschaltet wurde? Egal ob 4 oder nur 2, 3 Stunden betrieben?
Der legt los, wenn 4 Stunden kumulativ voll sind. Das heißt wenn du ihn acht mal eine halbe Stunde anhast genauso wie einmal vier Stunden. Wenn du aber einmal 5 Stunden pausenlos anhast, startet der Algo danach auch, fängt dann wieder von vorne an zu zählen. Ist aber auch kein Problem, man sollte es eben nur nicht übertreiben und zum Beispiel 10 Stunden am Stück anlassen. Da lieber nach 4-5 stunden mal ausmachen und nach 5-10 Minuten wieder einschalten..
SamLombardo
2024-05-10, 11:28:58
Es ist deshalb kein Anti-Burn-In weil es den Burn-In nicht rückgängig macht oder irgendwie abschwächt. Weil das schlicht nicht geht. Der Burn-In ist eine physische Abnutzung.
Ah so meinst du das. Ja das stimmt. Also nennen wir es eine Präventionsmassnahme damit es gar nicht erst vorkommt;).
Asaraki
2024-05-10, 12:11:42
Es ist deshalb kein Anti-Burn-In weil es den Burn-In nicht rückgängig macht oder irgendwie abschwächt. Weil das schlicht nicht geht. Der Burn-In ist eine physische Abnutzung.
Pure Semantik, aber der Begriff Anti wird durchaus auch als Präventionale Massnahme genutzt. Anti-Brumm als bestes Beispiel :D
Eigentlich auch logisch, da auch im deutschen Anti als „Gegen“ eingesetzt wird und das lässt die zeitliche Komponente offen/interpretierbar
Von daher sprachlich völlig in Ordnung. BurnIn-Removerwäre dagegen falsch.
Die Antifa beschränkt sich auch nicht auf das Ableben von Nazis ^^
Ex3cut3r
2024-05-10, 13:51:52
Vermutlich eine Art Trägheit/Hysterese fürs VRR, damit es weniger flackert. Erkauft mit Mikrorucklern und Lag.
Klingt schon in der Theorie komplett behämmert und ist es garantiert auch in der Praxis.
Jap ist es auch. Die Funktion hatte mein 27", 1440p G7, VA, 240HZ Modell schon 2020. Damit gabs kein VRR Flickern, allerdings ging die Flüssigkeit vollkommen verloren, und es gab Stuttering.
Thunder99
2024-05-10, 17:50:53
Muss ich mal testen, ist bei mir auch aktiviert (ist ne Default Einstellung bei Samsung) :redface:
SentinelBorg
2024-05-10, 22:05:06
Btw, weil gerade IPS Black erwähnt wurde. Die haben was Flackern angeht dann auch das Problem ähnlich wie VAs.
Gouvernator
2024-05-11, 08:27:05
Ha! Mein Vchance 4k OLED akzeptiert auch 1440p@144Hz.
Platos
2024-05-11, 15:17:41
Ein Buffer von einem Frame, der es erlaubt die benötigte Spannung für die Pixel vorherzuberechnen.
Damit ein Refreshzyklus mehr Latenz, dafür garantiert kein Flackern mehr.
Und warum berichten dann manche von stuttering, wenn es nur die latenz erhöht?
Xaver Koch
2024-05-11, 16:25:54
Erster Erfahrungsbericht zum Gigabyte AORUS FO32U2P:
https://www.computerbase.de/forum/threads/monitore-mit-qd-oled-gigabyte-nennt-alle-eckdaten-zu-fo32u2-p-und-fo27q3.2186251/page-3#post-29323756
https://www.computerbase.de/forum/threads/monitore-mit-qd-oled-gigabyte-nennt-alle-eckdaten-zu-fo32u2-p-und-fo27q3.2186251/page-3#post-29332099
Wie erwartet sehr positiv.
Platos
2024-05-11, 20:28:48
Hmm, der Monitor sieht ja gut aus. Preis aber recht teuer.
Gibts dazu irgendwelche Tests bezüglich Stromverbrauch auf verschiedenen Helligkeitsstufen? Die angegebenen 78Watt sind schon recht viel für so mikrige 32", aber das wird ja auf 100% Helligkeit sein, was ich niemals fahren würde.
Gibts da irgendwelche Tests also mit z.B nur 30% Helligkeit?
Edit: Aber leider ist das Ding matt. Dürfte dann wohl abstinken von den Farben her im Vergleich zu Glossy.
Hoffentlich testet RTINGs den Monitor bald.
aufkrawall
2024-05-11, 20:57:58
Btw, weil gerade IPS Black erwähnt wurde. Die haben was Flackern angeht dann auch das Problem ähnlich wie VAs.
Gibts denn überhaupt Deep Black-Geräte ohne furchtbare Reaktionszeiten? Würd die dann eh für Gaming komplett ausschließen (und eigentlich auch für alles andere, wenn man nicht gerade im Notebook keine andere Wahl hat).
Cubitus
2024-05-12, 02:23:46
Hmm, der Monitor sieht ja gut aus. Preis aber recht teuer.
Gibts dazu irgendwelche Tests bezüglich Stromverbrauch auf verschiedenen Helligkeitsstufen? Die angegebenen 78Watt sind schon recht viel für so mikrige 32", aber das wird ja auf 100% Helligkeit sein, was ich niemals fahren würde.
Der 32er Alienware verbrauchte bei 100 Prozent weiß, über 100 Watt.
Ich würde also nicht davon ausgehen das die 78 Watt bei 100% Helligkeit zustande gekommen sind.
Preislich deutlich zu teuer, vor allem gegen den Alienware Preis.
Display-Port 2.1 beim UP gefällt.
Das Gerät 16h lang bei maximaler Helligkeit und immer dem selben Bild laufen zu lassen ist kein Langzeittest, sonder mutwillige Sachbeschädigung, die aber einen netten Clickbait Wert hat. ;)
Mehr aber auch nicht..
Wenn das schon reicht, um das Gerät zu beschädigen, ist das Gerät Mist.
Gumril
2024-05-12, 10:28:15
Wenn das schon reicht, um das Gerät zu beschädigen, ist das Gerät Mist.
Achtung ein Autovergleich: Wenn du ständig im roten Umdrehungsbereich fährst geht dein Motor auch schneller hinüber, also alle Motoren Mist :uponder:
Xaver Koch
2024-05-12, 10:56:05
Gibts dazu irgendwelche Tests bezüglich Stromverbrauch auf verschiedenen Helligkeitsstufen? Die angegebenen 78Watt sind schon recht viel für so mikrige 32", aber das wird ja auf 100% Helligkeit sein, was ich niemals fahren würde.
Schau mal andere (IPS und Mini LED) 32 Zöller an. Da geht es teils bis über 200W! Im Vergleich einer der genügsamsten 32er mit 240 Hz, die man (über alle Paneltypen) finden kann (der Tempest GP27Q braucht als 27er ähnlich viel Strom). Von daher für mich sehr interessant, zumal ich eher ca. 100 Nits in der Fläche bevoruge (heller blendet die Augen). Der einzig richtig sparsame 32er ist von EIZO, aber halt nur 60 Hz SDR fürs Arbeiten. Über die Verbrauchsangaben pro Jahr (SDR und HDR) kann man die Monitore vergleichen. Bei mir läuft der PC vielleicht 20 Stunden pro Woche, von daher kommt es auf ein paar Watt mehr oder weniger nicht an.
Bei AOC stört mich der generell sehr hohe Stromverbrauch und das eher klobige Desing. Bei Acer ist die Firmware (was zu teils schlechter Performance führt) mist und Cooler Master hat mit die größten Farbabweichungen (Delta E). Bleiben eigentlich nur Asus, Dell, Gigabyte und MSI, wobei bei den aktuellen QD-OLED die Gigabyte bisher die beste Figur machen.
Platos
2024-05-12, 10:59:59
Der 32er Alienware verbrauchte bei 100 Prozent weiß, über 100 Watt.
Ich würde also nicht davon ausgehen das die 78 Watt bei 100% Helligkeit zustande gekommen sind.
Preislich deutlich zu teuer, vor allem gegen den Alienware Preis.
Display-Port 2.1 beim UP gefällt.
Welches genaue Modell von Alienware meinst du?
Schau mal andere (IPS und Mini LED) 32 Zöller an. Da geht es teils bis über 200W! Im Vergleich einer der genügsamsten 32er, die man (über alle Paneltypen) finden kann. Von daher für mich sehr interessant, zumal ich eher ca. 100 Nits in der Fläche bevoruge (heller blendet die Augen).
Nein, ich schaue mir nicht an, was so die schlimmsten Modelle verbrauchen, um mir dann irgendwie die Werte schönzureden. "Weil es ja noch schlimmere gibt"...
Das können andere gerne machen. Ich entscheide aber weiterhin selber, was mir zu viel ist. Und deswegen bin ich an Tests diesbezüglich interessiert.
robbitop
2024-05-12, 11:38:30
Naja aber man muss es ja schon mit Featureparität vergleichen ansonsten vergleicht man Äpfel mit Birnen. Also 4K 32“ und 240 Hz.
Wenn man einen sparsameren LCD als Referenz nimmt, muss man dazu auch wieder einen OLED nehmen der dazu Parität hat.
Relex
2024-05-12, 11:45:27
Immer diese Äpfel Birnen Vergleiche...
Ein LCD braucht wenn er 100W bei Weiß braucht, ebenso 100W bei schwarz, wohingegen es beim OLED komplett abhängig vom Inhalt ist.
Bei weiß ist WOLED dann auch wieder effizienter, als QD OLED, dafür ist QD OLED bei mittleren Farbtönen effizienter.
Wie hoch die Aussagekraft bei einer 100% weiß Messung im Bezug auf den durchschnittlichen Stromverbrauch ist kann sich ja jeder selber ausmalen... Genau genommen ist der Momentanverbrauch bei 100% weiß einfach das falsche Testszenario, um eine Aussage über den Stromverbrauch bzw. die Stromkosten zu machen. Kannst also absolut null Rückschlüsse daraus ziehen, falls dein Einsatzszenario sich nicht 1:1 mit dem Testcase deckt, weil der eben nur die maximale Leistungsaufnahme berücksichtigt.
Wäre so als würde man in einem Spiel nur die Maximal FPS bewerten und sonst nichts...
Xaver Koch
2024-05-12, 12:34:49
Naja aber man muss es ja schon mit Featureparität vergleichen ansonsten vergleicht man Äpfel mit Birnen. Also 4K 32“ und 240 Hz.
Wenn man einen sparsameren LCD als Referenz nimmt, muss man dazu auch wieder einen OLED nehmen der dazu Parität hat.
Genau so und nicht anders. Kommt ja auch kenier auf die Idee, den Verbrauch eines 318d mit dem eines M3 CS zu vergleichen.
Xaver Koch
2024-05-12, 12:37:56
Nein, ich schaue mir nicht an, was so die schlimmsten Modelle verbrauchen, um mir dann irgendwie die Werte schönzureden. "Weil es ja noch schlimmere gibt"...
Dann zeige uns einen 32er mit 240 Hz, der weniger Strom benötigt. ;)
Wenn es nur um den Stromverbrauch geht: 18W "typisch". https://geizhals.de/eizo-flexscan-ev3240x-schwarz-ev3240x-bk-a2999474.html?hloc=at&hloc=de
Aber auch hier nur im "eco" Modus (schätze 25 bis 30 nits), maximal sind es bis zu 163W.
Dein neuer Monitor:
https://geizhals.de/fujitsu-b-line-b27-9-ts-fhd-s26361-k1692-v160-a2195863.html?hloc=at&hloc=de mit maximal 15W Leistungsaufnahme.
A++ gibt es leider nur bis 27 Zoll. :D
Lass mich raten: 1080p und 60 Hz sagen Dir nicht zu.
Der_Korken
2024-05-12, 14:07:55
Weiß eigentlich jemand, wie es mit dem Idle-Stromverbrauch von dGPUs aussieht bei 4K@240Hz? Insbesondere bei RDNA3 könnte ich mir vorstellen, dass die dann saufen wie vor den ganzen Treiberfixes.
Cubitus
2024-05-12, 14:44:30
Welches genaue Modell von Alienware meinst du?
Diesen hier:
AW3225QF
https://www.dell.com/de-de/shop/alienware-8128-cm-32-4k-qd-oled-gamingmonitor-aw3225qf/apd/210-bllv/monitore-und-monitorzubeh%C3%B6r
Platos
2024-05-12, 15:17:37
Naja aber man muss es ja schon mit Featureparität vergleichen ansonsten vergleicht man Äpfel mit Birnen. Also 4K 32“ und 240 Hz.
Wenn man einen sparsameren LCD als Referenz nimmt, muss man dazu auch wieder einen OLED nehmen der dazu Parität hat.
Für eine rein technische Bewertung ja, für eine Kaufentscheidung: NEIN!
Ich kaufe Produkte und entscheide, was bringt es mir, wie viel muss ich dafür aufwenden. So einfach ist das. Ist das gleiche wie beim P/L. Mich interessiert nicht, ob es technisch gerechtfertigt ist (zumal 240Hz nicht 4x mehr Strom wie 60Hz verbraucht btw...). Ich kaufe nach Nutzen/Kosten Verhältnis.
Theoretische, technische Vergleiche mache ich nicht bei einem Kauf.
Dann zeige uns einen 32er mit 240 Hz, der weniger Strom benötigt. ;)
Wenn es nur um den Stromverbrauch geht: 18W "typisch". https://geizhals.de/eizo-flexscan-ev3240x-schwarz-ev3240x-bk-a2999474.html?hloc=at&hloc=de
Aber auch hier nur im "eco" Modus (schätze 25 bis 30 nits), maximal sind es bis zu 163W.
Dein neuer Monitor:
https://geizhals.de/fujitsu-b-line-b27-9-ts-fhd-s26361-k1692-v160-a2195863.html?hloc=at&hloc=de mit maximal 15W Leistungsaufnahme.
A++ gibt es leider nur bis 27 Zoll. :D
Lass mich raten: 1080p und 60 Hz sagen Dir nicht zu.
Nein, ich muss gar nichts zeigen, noch irgendwie rechtfertigen ^^
Ich entscheide, was für ein Stromverbrauch für mich gerechtfertigt ist für einen bestimmten Nutzen, den mir ein Gerät bietet.
Warum du mir hier jetzt irgendwelche Monitore verlinkst, nachdem ich nach Tests bezüglich Stromverbrauch des ANDEREN Monitor gefragt habe, ist mir aber schleierhaft...
Hast du irgend eine Mission oder so?
Diesen hier:
AW3225QF
https://www.dell.com/de-de/shop/alienware-8128-cm-32-4k-qd-oled-gamingmonitor-aw3225qf/apd/210-bllv/monitore-und-monitorzubeh%C3%B6r
Danke!
Der hat natürlich kein DP 2.x.
Kann ich nicht gebrauchen. Das Rechtfertigt natürlich den Preis des anderen trotzdem nicht.
Xaver Koch
2024-05-12, 15:51:51
Ich entscheide, was für ein Stromverbrauch für mich gerechtfertigt ist für einen bestimmten Nutzen, den mir ein Gerät bietet.
Genau so sehe ich das auch. ;)
Eizo FlexScan EV3285: 34kWh/1000h; 43.8kWh (A)
BenQ EW3280U: 38kWh/1000h (G); 56.9kWh (A)
GIGABYTE AORUS FI32U: 40kWh/1000h (G) -> HDR 400
GIGABYTE AORUS FO32U2P: 44kWh/1000h (G) -> HDR 1000 (1000cd/m²)
Wenn ich jetzt die im Schnitt drei Abende an welchen der PC läuft bezüglich der Verbrauchsdifferenz aufs Jahr rechne, kommen da nur weinige Euros (ca. € 4,50 im Jahr zwischen Eizo und Gigabyte OLED) bei rum. ;) Der Unterschied wird in der Praxis noch geringer, da nicht so viel Bildanteile mit hohem Weißanteil und hier sind die QD-OLED sehr effizient. Oder bei Nutzung von viel HDR höher, aber das bietet der Eizo gar nicht.
Klar gibt es 27er 1440p, die weniger Strom brauchen. Aber einen guten 32er 2160p hat man viel länger, kauft also weniger Monitore (bei der Herstellung wird viel Strom verbraucht). Habe früher auch sehr auf den Stromverbrauch jeder Komponente geachtet, betrachte aber inzwischen lieber das Gesamtsystem inkl. "Kosten/Nutzen" und wie lange man ein Komponente auch sinnvoll nutzen kann (Leistung und Haltbarkeit).
Heute wieder an einem anderen PC, welcher durch eine PV-Anlage gespeist wird.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.