Archiv verlassen und diese Seite im Standarddesign anzeigen : Bessere Monitore?
redpanther
2024-09-05, 10:26:39
Vorher 120hz OLED gehabt?
Nee, VA.
Im wozi steht ein 120hz OLED
Gut, dann haste halt 160 FPS die mit FG verdreifacht werden und spielst effektiv mit der Latenz von ~140 FPS oder so.
Das funktioniert doch nicht wirklich?
Woher hast du diese Zahlen?
Ich bezweifel, dass Frame Interpolation im Esport jemals weit verbreitet sein wird, solange die zusätzliche Latenz >1 ms ist. Je nach Geschmack vielleicht auch 5ms, aber am Ende will niemand einen messbaren Nachteil haben.
Asaraki
2024-09-05, 10:33:33
Nee, VA.
Im wozi steht ein 120hz OLED
Bin nur neugierig, weil mein IPS auch aus 165 lief für die esport Titel aber die 120 am OLED sind so viel besser ^^ sehe persönlich den Bedarf für mehr kaum, aber Shooter spiele ich auch kaum. Da könnte es natürlich was bringen
Hab schon 240er ausprobiert bei einem Kollegen der auch Rocket spielt und gefühlt war das genau so unscharf ^^ aber in RL dreht die Kamera schneller als in shootern, glaube das kriegst auch mir 1000hz nicht weg
The_Invisible
2024-09-05, 10:41:16
Könnte mich anhand einer Roadmap (LG?) erinnern das ja jetzt irgendwann die neuen 5k2k OLEDs kommen sollten, ist da schon was bekannt?
StevenB
2024-09-05, 10:42:28
Ich habe ja den großen Bruder G9 OLED seit bald einem Jahr und bin sehr zufrieden. Bin gespannt wie du ihn als Korinthen Kacker so beurteilst :biggrin:
Arbeitest du mit dem G9 auch? Ich bin am überlegen meine drei Monitore mit dem G9 zu ersetzen, wäre halt 8-10h Arbeiten und dann ab und zu zocken.
Relex
2024-09-05, 10:47:04
Ich bezweifel, dass Frame Interpolation im Esport jemals weit verbreitet sein wird, solange die zusätzliche Latenz >1 ms ist.
Wie gesagt, hatte schon CoDs und battlefields wo ich in CPU limit hing. Teilweise schon bei 100-140 FPS.
Ist halt die Frage, ob jemand bei so einer Framerate besser spielt, als jemand der via Frame Gen dann mit der 3 Fachen Framerate spielt und viel weniger Unschärfe sieht.
Je mehr Frames Frame Gen in zukunft erzeugen kann, desto besser wird eben das Kosten/Nutzen verhältnis. Verzögert wird immer um 1 Frame, egal ob man ein zusätzliches Bild generiert oder mehrere.
Ich denke schon, dass an nem gewissen Punkt die Vorteile die Nachteile aufwiegen können.
Könnte mich anhand einer Roadmap (LG?) erinnern das ja jetzt irgendwann die neuen 5k2k OLEDs kommen sollten, ist da schon was bekannt?
Die LG Roadmap sagte 2025. Ich glaub nichtmal H1.
redpanther
2024-09-05, 11:04:23
Arbeitest du mit dem G9 auch? Ich bin am überlegen meine drei Monitore mit dem G9 zu ersetzen, wäre halt 8-10h Arbeiten und dann ab und zu zocken.
Nein, der ist nur zum Zocken, maximal noch etwas browsen/YT.
Gibt Leute, die nehmen auch OLED zum arbeiten. Ich würde es nicht machen oder empfehlen, wenn der Schwerpunkt Arbeit wäre.
Ist doch auch perlen vor die Säue, oder?
Beim arbeiten brauch ich ein Scharfes Bild (Vorteil LCD) und kein Flimmern.
Das ist mir persönlich der Kontrast, Farbe, Bewegtschärfe, HDR rel. unwichtig.
Ich habe halt den "Luxus" am Schreibtisch einen LCD und im Gamig Rig den G9 OLED zu haben.
Aber es gibt doch auch gute 32:9 oder 21:9 LCDs.
Oder nimm zwei UHDs?
Bin nur neugierig, weil mein IPS auch aus 165 lief für die esport Titel aber die 120 am OLED sind so viel besser ^^ sehe persönlich den Bedarf für mehr kaum, aber Shooter spiele ich auch kaum. Da könnte es natürlich was bringen
Hab schon 240er ausprobiert bei einem Kollegen der auch Rocket spielt und gefühlt war das genau so unscharf ^^ aber in RL dreht die Kamera schneller als in shootern, glaube das kriegst auch mir 1000hz nicht weg
Ja, LCD hat bei der Bewegt Schärfe keine chance gegen OLED, einfach weil die Physik dagegen spricht. Die Kristalle im Display dort sind einfach zu träge im Vergleich.
Gab bei Linus nen vid, wo die das gestest haben. Oberhalb 144hz haben die meisten keinen/kaum Unterschied gemerkt. Bist also nicht allein. (Ich glaube die hatten aber nen LCD)
Aber wenn es nicht viel mehr/gleich viel Kostet, nehm ich die 240hz immer mit.
Crazy_Chris
2024-09-05, 11:13:27
Die LG Roadmap sagte 2025. Ich glaub nichtmal H1.
Laut Roadmap sogar erst im 4. Quartal.
StevenB
2024-09-05, 11:40:27
Nein, der ist nur zum Zocken, maximal noch etwas browsen/YT.
Gibt Leute, die nehmen auch OLED zum arbeiten. Ich würde es nicht machen oder empfehlen, wenn der Schwerpunkt Arbeit wäre.
Ist doch auch perlen vor die Säue, oder?
Beim arbeiten brauch ich ein Scharfes Bild (Vorteil LCD) und kein Flimmern.
Das ist mir persönlich der Kontrast, Farbe, Bewegtschärfe, HDR rel. unwichtig.
Ich habe halt den "Luxus" am Schreibtisch einen LCD und im Gamig Rig den G9 OLED zu haben.
Aber es gibt doch auch gute 32:9 oder 21:9 LCDs.
Oder nimm zwei UHDs?
Ich bin mir absolut unschlüssig, aktuell hab ich Links und Rechts 2x24Zoll FullHD stehen und in der Mitte einen 28 4K.
Den in der Mitte nutze ich auch zum zocken, das Problem hierbei ist das TN Panel und ich kann jetzt wieder mehr und mehr zocken, da stört mich der schlechte Blickwinkel und miese Kontrast.
Bei der Entscheidungsfindung bin ich auch etwas verloren, ich hatte mir auch schon den G9 NEO angeschaut, dachte dann aber warum nicht gleich OLED wie ich es vom TV gewohnt bin.
aceCrasher
2024-09-05, 11:41:11
Niemand wird FG im esport nutzen imho und in CS hast du keine 480 Frames ^^ das limitiert lange vorher
(Engine, api und OS)
https://www.youtube.com/watch?v=4HEBXtsBMEo
400+ fps in CS2 max. Settings in WQHD. In FHD oder mit reduzierten Einstellungen sind auch locker 500+ fps möglich. Die Engines dieser Spiele sind darauf optimiert.
https://www.youtube.com/watch?v=uqQOIP4h1vA
~800 fps in Valorant mit einem 7800X3D und einer 4080 Super
Pasend dazu:
Es wurde ein neuer 600Hz FHD TN von Acer vorgestellt. 60Hz als die bisherigen 540Hz Spitzenreiter. (https://videocardz.com/newz/acer-announces-600-nitro-xv240-f6-gaming-monitor-with-600hz-refresh-rate)
redpanther
2024-09-05, 12:00:14
Ich bin mir absolut unschlüssig, aktuell hab ich Links und Rechts 2x24Zoll FullHD stehen und in der Mitte einen 28 4K.
Den in der Mitte nutze ich auch zum zocken, das Problem hierbei ist das TN Panel und ich kann jetzt wieder mehr und mehr zocken, da stört mich der schlechte Blickwinkel und miese Kontrast.
Bei der Entscheidungsfindung bin ich auch etwas verloren, ich hatte mir auch schon den G9 NEO angeschaut, dachte dann aber warum nicht gleich OLED wie ich es vom TV gewohnt bin.
Ja, den NEO hatte ich mir auch angeschaut, soll auch ein guter Monitor sein, war aber Preislich ähnlich zum OLED und da war die Wahl dann nicht so schwer mit Schwerpunkt Zocken.
Wenn die Dinger nicht doch so relativ teuer wären, würde die Entscheidung leichter Fallen.
Asaraki
2024-09-05, 12:08:41
Fair enough ^^ aber naja FHD um auf die Frames zu kommen.
Aber ja eventuell im esport halbwegs useful, dürfte für die meisten trotzdem eher einfach mehr Stromverbrauch ohne wirklichen Nutzen sein
Ich bezweifel, dass Frame Interpolation im Esport jemals weit verbreitet sein wird, solange die zusätzliche Latenz >1 ms ist. Je nach Geschmack vielleicht auch 5ms, aber am Ende will niemand einen messbaren Nachteil haben.
Wenn der Latenznachteil so klein ist, dass ihn die menschliche Reaktionszeit gar nicht mehr wahrnehmen kann, und gleichzeitig die zusätzliche Schärfe einen größeren Vorteil bietet ist es am Ende kein Nachteil mehr.
dargo
2024-09-05, 16:10:37
Lässt du den Jetzt aus Italien für die 5 hundert und ein paar zerquetschte?
Nee... von Coolblue.
aufkrawall
2024-09-05, 17:11:29
Niemand wird FG im esport nutzen imho und in CS oder dota oder sogar rocket hast du keine 480 Frames ^^ das limitiert lange vorher
(Engine, api und OS)
Imho vor allem Marketing, schon mal 240 in echt gesehen? Das merkt man de facto nicht
Jo. Hatte gedacht, man braucht mit OLED unbedingt mehr als 144Hz, ist aber nicht so. 138fps mit VRR-Limit sehen noch ziemlich flüssig aus, erst bei <130fps wirds langsam unschön und ab 110fps dann eklig.
DLSS FG ist auch auf einer 4090 in 4k bei >100fps Basis schon völliger Murks hinsichtlich der Skalierung. Da müsste Nvidia die Hardware schon derbe fett aufbohren, also erstmal Luftschloss.
Bei der Bewegtschärfe kommts arg drauf an. Gerade bei kompetitiven Titeln starrt man wie ein Wahnsinniger nur auf die Bildschirmmitte, Counter-Strike ist ja fast ein reiner Click-Shooter (und Valaront noch etwas mehr Flicking). Dabei hat man von etwas höherer Bewegtbildschärfe quasi auch nichts, wenn man nicht künstlich drauf achtet. Ist auch nur für irgendwas zwischen 0-1% der Käufter relevant, die in höheren Ranks sind. Und die kaufen so etwas auch eher aus Prinzip, und nicht, weil es unbedingt über den Placebo hinausgehen würde.
Habe meine Meinung zu 4k auch geändert. DLSS Preset E und Ray Reconstruction sind wesentlich besser nutzbar in 4k, weil das als Target die störenden Pixel-Kanten oder den Oil Paint Look für die subjektive Wahrnehmbarkeit deutlich reduziert. Dann doch nicht so geil, für so viel Geld noch 1440p zu kaufen...
dargo
2024-09-05, 17:29:19
Dann doch nicht so geil, für so viel Geld noch 1440p zu kaufen...
Meinst du jetzt die ~650€ für den OLED? Das finde ich sogar richtig günstig. Zumal so ein Monitor bei mir wieder mindestens 5+ Jahre hält. Für den ASUS MG279Q IPS LCD der gerade mal max. 144Hz macht hatte ich damals ca. 550€ bezahlt. Und der hat nur eine VRR-Range von 35-90Hz bzw. 56-144Hz mit manuellem Eingriff.
aufkrawall
2024-09-05, 17:37:18
Mittlerweile sind 1440p 144Hz+ IPS bei ~200€ angekommen, die Kreise um den Gammel der ersten Tage ziehen.
Sind zwar blass, aber flackern auch nicht und haben kein Banding. Von daher hauen mich >600€ 1440p mit den üblichen OLED-Macken auch nicht aus den Socken. HDR ist prinzipiell geil, scheint aber in UE5-Titeln auch generell kacke auszusehen.
Lurtz
2024-09-05, 17:41:15
"Blass" ist eine sehr euphemistische Beschreibung :redface: :D
Für 2160p legt man halt locker nochmal 50% drauf. Von den GPU-Kosten abgesehen. Hättest du Lust deine 4070 Super mit 2160p-Monitor zu nutzen?
dargo
2024-09-05, 17:41:44
Also mein letzter Ausflug mit mini LED und HDR hat mich schon aus den Socken gehauen. :tongue: Und der OLED ist dafür maßgeschneidert. :)
Für 2160p legt man halt locker nochmal 50% drauf. Von den GPU-Kosten abgesehen. Hättest du Lust deine 4070 Super mit 2160p-Monitor zu nutzen?
Eben... wie ich schon sagte. Läufst wie ein Idiot hinter jedem überteuerten Heizofen hinterher bei der Graka. Das mag in 5 Jahren etwas anders aussehen, heute ist es aber leider so. Aber das ist eine sehr individuelle Entscheidung die jeder für sich persönlich selbst treffen muss.
aufkrawall
2024-09-05, 17:52:20
Hättest du Lust deine 4070 Super mit 2160p-Monitor zu nutzen?
Das Problem ist halt, dass der Oil Paint Look von RR in 1440p wesentlich ausgeprägter sein dürfte, und man RT zumindest bei Reflexionen ohne RR in die Tonne treten kann. Und das funktioniert auch mit Lumen, also ohne Nvidias Quatsch-Effekte. Möchte da eigentlich nicht mehr drauf verzichten. ;(
Gumril
2024-09-05, 17:54:52
Niemand wird FG im esport nutzen imho und in CS oder dota oder sogar rocket hast du keine 480 Frames ^^ das limitiert lange vorher
(Engine, api und OS)
Imho vor allem Marketing, schon mal 240 in echt gesehen? Das merkt man de facto nicht
Ja habe eine LG OLED 240Hz gehabt und Momentan einen 144Hz OLED und einen 170Hz IPS.
Und bei Diablo 4 und Warcraft 3 hast du die 240 Hz gemerkt.
Bei Warcraft 3 hast du bei 240 knackscharfes scrollen der Map.
Bei Diablo bleibt das Bild in bewegung ebenfalls schärfer als mit 144Hz.
@dargo:
Wenn der OLED ankommt kannst du mal testen ob die Helligkeit getrennt für HDR- und SDR-Inhalte einstellbar ist.
Laut hardwareluxx-Forum-User kann er das beim großen Bruder G80 nicht machen(also immer nur eine Helligkeit für HDR und SDR-Inhalte), was ich merkwürdig finden würde.
dargo
2024-09-05, 18:00:36
Das Problem ist halt, dass der Oil Paint Look von RR in 1440p wesentlich ausgeprägter sein dürfte, und man RT zumindest bei Reflexionen ohne RR in die Tonne treten kann. Und das funktioniert auch mit Lumen, also ohne Nvidias Quatsch-Effekte. Möchte da eigentlich nicht mehr drauf verzichten. ;(
Warum soll das kacke bei 1440p aussehen? Wegen dem sparsamen Einsatz um Kosten zu sparen? Das ist dann auch nur eine Frage der Zeit. Kommt schnellere RT-Hardware kommen bessere RT-Reflektionen.
aufkrawall
2024-09-05, 18:03:59
Nein, weil es offenbar ungenauer bei geringerer Target-Auflösung arbeitet. So richtig kacke sieht das mit 4k Target erst mit UP, also intern 720p aus. Auf 1440p fand ich schon Q unerträglich, wobei ich das allerdings mit aktuellen DLL-Versionen nochmal testen sollte.
The_Invisible
2024-09-05, 18:05:57
Die LG Roadmap sagte 2025. Ich glaub nichtmal H1.
Hab jetzt nochmal gesucht, soll doch schon Q4 2024 kommen, aber anscheinend alles curved:
https://www.pcgameshardware.de/screenshots/original/2024/01/LG-Roadmap-2025-pcgh.jpg
dargo
2024-09-05, 18:08:24
Nein, weil es offenbar ungenauer bei geringerer Target-Auflösung arbeitet. So richtig kacke sieht das mit 4k Target erst mit UP, also intern 720p aus. Auf 1440p fand ich schon Q unerträglich, wobei ich das allerdings mit aktuellen DLL-Versionen nochmal testen sollte.
Q ist doch auch nur 960p als Input bei 1440p. Und wenn da irgendwelche RT-Effekte noch womöglich mit halber Genauigkeit aktuell auf den aktuellen RT-Schnecken realisiert werden weil immer noch deutlich zu langsam dann hast du in Teilbereichen als Input 480p. :freak: Kommt irgendwann potente RT-Hardware gibt es keinen Grund mehr mit halber Genauigkeit zu arbeiten. Und nach der RX 6800XT ist mein Ziel eh überall 1440p + Upscaling (Native AA bei AMD, DLAA bei Nvidia, Native XeSS bei Intel) und nicht lausiges Quality Upscaling. Und bitte nicht vergessen, dass Upscaling auf eine höhere Output Auflösung immer teurer ist bei gleichem Input. Soll heißen 4k Performance ist teurer als 1440p mit 75% Upscaling.
Asaraki
2024-09-05, 18:18:49
Ja habe eine LG OLED 240Hz gehabt und Momentan einen 144Hz OLED und einen 170Hz IPS.
Und bei Diablo 4 und Warcraft 3 hast du die 240 Hz gemerkt.
Bei Warcraft 3 hast du bei 240 knackscharfes scrollen der Map.
Bei Diablo bleibt das Bild in bewegung ebenfalls schärfer als mit 144Hz.
@dargo:
Wenn der OLED ankommt kannst du mal testen ob die Helligkeit getrennt für HDR- und SDR-Inhalte einstellbar ist.
Laut hardwareluxx-Forum-User kann er das beim großen Bruder G80 nicht machen(also immer nur eine Helligkeit für HDR und SDR-Inhalte), was ich merkwürdig finden würde.
Kling gut. Hattest den Effekt auch ohne entsprechende Frames? Denn soviele FPS will ich nicht rendern, nur schon der Wärmeentwicklung wegen
aufkrawall
2024-09-05, 18:19:58
Geht nicht nur um RT-Effekte, der Oil Paint Look betrifft alles. Es ist im Grunde aber simpel: Es sieht auf 1440p-Monitor alles aus wie Müll vs. 4k RR 50%. Das funktioniert auch als AA für Nanite besser als jedes andere AA bei 100% Auflösung, da erübrigt sich das Abwägen von Alternativen zu 4k irgendwo.
dargo
2024-09-05, 18:26:46
Imo alles nur Status Quo in der langem Übergangsphase zu Raytracing in Games wegen viel zu langsamen Hardware. Und logisch, dass 4k überall etwas besser abschneidet, schon alleine wegen der höheren Pixeldichte. TAA sieht mit 160ppi auch wesentlich besser aus als mit 110ppi und erst recht vs. 90ppi.
Tesseract
2024-09-05, 18:43:52
das verhältnis ist aber nicht linear, die subjektive qualität nimmt - je nach algorithmus - anfangs leicht, dann irgendwann rapide ab und bei modernen algorithgmen die oft einen großteil der rechenlast einsparen (nicht 10% oder 20% sondern kumulativ über die ganze pipeline hinweg eher 80%+) ist eben 1440p schon oft jenseits des sweetspots.
in der DX9-zeit war das paradigma "auflösung und Hz sind streng limitiert, wir müssen die pixel so gut wie möglich machen", das hat sich im laufe der jahre zu "monitore/TVs haben spatial und termporal absurd hohe pixeldurchsätze, die einzelnen pixel müssen nicht unbedingt perfekt sein solange das gesamtbild aus quantität und qualität ansprechend ist" geändert.
redpanther
2024-09-05, 19:46:51
erst bei <130fps wirds langsam unschön und ab 110fps dann eklig.
Nix für ungut, aber dein Username ist einfach Programm.
Diese Aussage ist einfach... :freak:
Und auch Komisch das auf meinem 1440p-Monitor NICHT alle RT-Effekte, wie Oil Paint Look, also wie Müll ausschaut.
OK, gegen die UE natürlich schon. DIE ist natürlich in allen Blangen übelegen und unschlagbar.
Festzuhalten bleibt, du übertreibst maßlos. Vielleicht sprichst du sogar etwas wahres an.
Durch deine völlig deplatzierte und unausgewogene Wortwahl kann man (bzw ich) dich aber nicht ernst nehmen.
aufkrawall
2024-09-05, 20:02:25
Nix für ungut, aber dein Username ist einfach Programm.
Diese Aussage ist einfach... :freak:
Werden dir andere mit OLED bestätigen. Nicht ahnungslos rumquatschen.
Und auch Komisch das auf meinem 1440p-Monitor NICHT alle RT-Effekte, wie Oil Paint Look, also wie Müll ausschaut.
Ging auch um RR bez. Oil Paint, nicht RT. Siehe Aussage oben.
Durch deine völlig deplatzierte und unausgewogene Wortwahl kann man (bzw ich) dich aber nicht ernst nehmen.
Das bekümmert mich aber.
redpanther
2024-09-05, 20:16:02
Werden dir andere mit OLED bestätigen. Nicht ahnungslos rumquatschen.
Total ahnungslos sitze ich vor einem 240 HZ OLED.
Danke fürs Gespräch.;D
Du beziehst dich damit EXPLIZIT auf OLED?
Als was bezeichnest du denn dann 90 oder gar, nicht auszudenkende, 60 FPS ???
Ich würde, ungenießbare Grütze vorschlagen. Einverstanden?
Ging auch um RR bez. Oil Paint, nicht RT. Siehe Aussage oben. Hab ich gesehen, aber nicht in die Antwort geschrieben.
Das bekümmert mich aber.
Mich nicht.
Sardaukar.nsn
2024-09-05, 20:46:05
Werden dir andere mit OLED bestätigen. Nicht ahnungslos rumquatschen.
Nein. Ich glaube @aufkrawall rüttelt einfach mal wieder am Ban-Baum :freak:
...was hier gerade auf dem 42er OLED mit etwa 90-100 FPS los ist. Mehr schafft die 4090 nicht. Von dir aber mal wieder wie gewohnt aggro Ton, und wenig Substanz.
https://i.imgur.com/DqN7Nyp.jpeg
https://i.imgur.com/7NXb6NQ.jpeg
aufkrawall
2024-09-05, 20:49:32
Den Kontext vorher zu 480Hz hast du mitbekommen, und jetzt sollen 60fps auf einem OLED irgendwie ausreichend sein?
Lass mal lieber gut sein...
Nein. Ich glaube @aufkrawall rüttelt einfach mal wieder am Ban-Baum :freak:
Gibt auch Foren-Regeln zu Flame-Posts btw. Aber hast du wohl nicht gelesen.
Ex3cut3r
2024-09-05, 20:57:43
Sehe gar keinen Sinn für 1440p in Zeiten von Upscaling. Natives 1440p vs 4K mit Q Upscaling sieht einfach meilenweit besser aus, egal ob auf 27" oder 31.5" Und die FPS sind doch fast gleich. Verstehe das Argument, dass die FPS mit 1440p Nativ vs 4K mit Upscaling egal ob Q oder P so weit auseinander sein sollen. Aber gut, muss jeder selbst wissen. 1440p wurde ich mir persönlich ende 24 nicht mehr in Haus stellen.
redpanther
2024-09-05, 21:01:27
Den Kontext vorher zu 480Hz hast du mitbekommen, und jetzt sollen 60fps auf einem OLED irgendwie ausreichend sein?
Lass mal lieber gut sein...
Ja, 480 wurden hier im Thread sicher mal besprochen. In deinem Post schreibst du aber nix davon. Im Gegenteil, sagst mehr als 144 brauchts nicht?
Aber schon bei weniger als 130 wirds unschön.
Wenn du das wirklich im Blindtest eine varianz von 14 fps (in dem Bereich) feststellen kannst. Respekt! Ich kann es ganz sicher nicht.
Sehe gar keinen Sinn für 1440p in Zeiten von Upscaling. Natives 1440p vs 4K mit Q Upscaling sieht einfach meilenweit besser aus, egal ob auf 27" oder 31.5" Und die FPS sind doch fast gleich. Verstehe das Argument, dass die FPS mit 1440p Nativ vs 4K mit Upscaling egal ob Q oder P so weit auseinander sein sollen. Aber gut, muss jeder selbst wissen. 1440p wurde ich mir persönlich ende 24 nicht mehr in Haus stellen.
Gibt halt immer noch einen Aufpreis für 4k und wenn man vielleicht ein anderes Format will als 16:9. (ist mir persönlich zu schmal) wirds erst recht dünn mit der Auswahl und dem Preis.
Dazu kann man mit 1440p leichter mehr FPS erreichen.
Alles unter der Voraussetzung, das einem die Auflösung reicht. Da geb ich dir recht.
Aber natürlich sind die FPS fast gleich, wenn die Nativ gegen Upscaling vergleichst?
Relex
2024-09-05, 21:03:31
Um mal etwas Klarheit zu schaffen bzgl. 1440p vs 4K
Hier mal ein Vergleich zwischen 4K mit DLSS Performance, 1440p mit DLAA und 1440p mit DLSS Q.
Das ganze ist in BEWEGUNG entstanden (vorwärts laufen) und alle Bilder sind ein Frame aus einem per Nvidia App aufgenommenen AV1 Video mit 250 Mbit/s Bitrate.
Im Stillstand ist 4K DLSS P massiv im Vorteil, weil es dann nahezu die volle 4K Schärfe zeigt. Deswegen hier der realistischere und fairere Vergleich in Bewegung.
---> https://imgsli.com/Mjk0NDI5/0/1
https://i.ibb.co/G51Z2Vt/001.png
https://i.ibb.co/7jZDBM6/002.png
Hier nochmal alle drei Bilder als Einzeldownload:
https://ibb.co/XzMxChK
https://ibb.co/JHn18XB
https://ibb.co/yBvnNVL
Die Performancewerte auf den Bildern kann man ignorieren, da in der Stadt teilweise CPU Limit herrscht. Grundsätzlich kann man aber sagen, dass die Performance von 4K DLSS P immer in etwa mittig zwischen 1440p DLAA und DLSS Q liegt.
Das Ergebnis ist ziemlich eindeutig. 4K DLSS P ist deutlich schärfer als 1440p mit DLAA und läuft auch schneller (performanceunterschied sind wie gesagt in anderen Spielen deutlich größer, da hier CPU Limit herrscht) Und dabei ist es auch völlig egal, ob man zum vergleichen das 4K Bild auf 1440p verkleinert oder die 1440p bilder auf 4K vergrößert. Egal welche Zoomstufe, das 4K Bild mit DLSS performance wirkt immer deutlisch schärfer und detaillierter.
4K hat natürlich den Nachteil, dass es praktisch nicht möglich ist, mit den DLSS Presets die Performance von 1440p DLSS Q zu erreichen, da man eben immer mindestens in 1080p rendert. Der Ultra Performance mode ist zwar noch brauchbar, fällt qualitativ aber deutlich ab. Wenn die performance wirklich nicht reichen sollte, kann man sich notfalls mit 1800p Zielauflösung + DLSS Performance behelfen. Sieht immernoch recht gut aus. Ist aber natürlich nur bei starken performanceproblemen zu empfehlen. Und wenn alle Stricke reißen nutzt man eben 1440p und erhöht den Abstand zum Display etwas.
In der Hinsicht ist ein 4K Display natürlich extrem flexibel. Aber klar, wenn man einmal 4K gesehen hat, dann will man diese Schärfe auch möglichst erhalten.
Ansonsten gibts natürlich die üblichen Nachteile wie erhöhter VRAM bedarf und ein etwas geringerer Performancegewinn mit Frame Generation, als unter 1440p.
Also ja, 1440p mit DLSS Q ist schneller, keine Frage. Das Upgrade auf 4K ist optisch aber selbst mit 4K DLSS Performance sehr groß und mit einem ziemlich geringen performancehit machbar. Man kann ja selbst die FPS bei 1440p nativ vs 1440p Quality Upscaling messen und in etwa die Mitte nehmen. Das ist dann ungefähr die Framerate mit 4K Performance Upscaling.
aufkrawall
2024-09-05, 21:15:08
Guter Testaufbau. Allerdings wird es wohl die Einschränkung geben, dass DLAA Preset F ist? Von daher nicht 100% fair. Aber trotzdem zulässig, weil mit 4k Performance sich Preset E gut nutzen lässt. Bzw. würd ich es fast schon No-Brainer nennen, wenn nicht gerade Leistung übrig ist (imho selbst auf einer 4090 mitunter unwahrscheinlich).
redpanther
2024-09-05, 21:17:09
Danke Relex. Kleiner Einwurf:
Man kann mit vorherigen DL-DSR Upsampling unter 1440p schärfe gewinnen.
Geht natürlich in 4K auch. Weis aber nicht wie groß der BQ gewinn VS der performance Einbuße ist.
Aber ja, 4K ist überlegen. Hat aber in vielerlei Hinsicht einen gewissen Aufpreis. Aber wenn einem 1440p reicht, ist das eben auch ok imho.
Man muss halt auch sagen, die Unterschiede sind auch nicht so gigantisch, wenn das Bild sich bewegt und man nicht auf einen SideBySide Vergleich mit gezoomten Bildern schaut.
Und wir betrachten hier auch "nur" die Auflösung.
Relex
2024-09-05, 21:31:44
Guter Testaufbau. Allerdings wird es wohl die Einschränkung geben, dass DLAA Preset F ist? Von daher nicht 100% fair. Aber trotzdem zulässig, weil mit 4k Performance sich Preset E gut nutzen lässt. Bzw. würd ich es fast schon No-Brainer nennen, wenn nicht gerade Leistung übrig ist (imho selbst auf einer 4090 mitunter unwahrscheinlich).
Ich hab alles mit Preset E getestet. Preset F hätte vielleicht etwas besser das Aliasing bei 1440p DLAA in den Griff bekommen, aber dafür insgesamt noch viel mehr Unschärfe gezeigt. Das wäre kein fairer Vergleich gewesen.
Was mich hier mehr ärgert ist die noch immer recht deutlich sichtbare Videokomprimierung. Aber ich kann versichern, dass die Unschärfe nicht davon kommt. Ich hab mir das jetzt lang genug live am Bildschirm angesehen, die Unterschiede kommen gut genug rüber.
Wüsste aber auch nicht, wie man sonst Vergleiche in Bewegung anstellen soll, weil das Bild beim manuellen screenshotten sonst immer nen Ruckler zeigt und damit ggf ein Standbild auf dem Screenshot landet statt das Bewegtbild.
Danke Relex. Kleiner Einwurf:
Man kann mit vorherigen DL-DSR Upsampling unter 1440p schärfe gewinnen.
Geht natürlich in 4K auch. Weis aber nicht wie groß der BQ gewinn VS der performance Einbuße ist.
Aber ja, 4K ist überlegen. Hat aber in vielerlei Hinsicht einen gewissen Aufpreis. Aber wenn einem 1440p reicht, ist das halt auch ok imho.
Richtig mit DL-DSR kann man natürlich auch auf nem 1440p Display deutlich an Schärfe rausholen. Das dürfte aber auf einem 1440p Display bei so hohen Refreshraten nicht funktionieren, da DSC aktiv ist und DL-DSR und DSC auf Nvidia nicht kompatibel sind.
Aber ich zeigt dir jetzt lieber nicht das 4K DLSS P Bild im Stillstand, das ist natürlich seehr viel schärfer :D
Am Ende will ich ja auch niemandem was schlecht reden. 1440p hat den Performancevorteil sowohl mit Upscaling als auch mit Frame Gen sowie den VRAM Vorteil. Je nach Budget ist 1440p mMn. immernoch sinnvoll. Wer möglichst lange Nutzungszeit aus seiner GPU holen will, der nimmt 1440p.
Je nach GPU ist 4K aber auf jeden Fall ne Überlegung wert, weil man ja bereits mit Performance Upscaling von der Auflösung profitiert. Ausprobieren und dann zurückwechseln kann man sich aber abschminken. Dieser weg ist zumindest bei mir psychisch blockiert. ;D
Ex3cut3r
2024-09-05, 23:16:17
Danke Relex. Kleiner Einwurf:
Man kann mit vorherigen DL-DSR Upsampling unter 1440p schärfe gewinnen.
Geht natürlich in 4K auch. Weis aber nicht wie groß der BQ gewinn VS der performance Einbuße ist.
Aber ja, 4K ist überlegen. Hat aber in vielerlei Hinsicht einen gewissen Aufpreis. Aber wenn einem 1440p reicht, ist das eben auch ok imho.
Man muss halt auch sagen, die Unterschiede sind auch nicht so gigantisch, wenn das Bild sich bewegt und man nicht auf einen SideBySide Vergleich mit gezoomten Bildern schaut.
Und wir betrachten hier auch "nur" die Auflösung.
Klar. Kann 1440p füf "ausreichend" angesehen werden. Nur ich bin ich der Meinung, einen Monitor behält man dann doch mal länger als ne GPU. In der Regel 5-7 Jahre. Wenn nicht sogar eher 10 Jahre. In 4 Jahren ist 4K auch nichts mehr dolles. Und 1440p ist dann irgendwo das neue 1080p oder gar 720p
dargo
2024-09-06, 05:45:59
Um mal etwas Klarheit zu schaffen bzgl. 1440p vs 4K
Hier mal ein Vergleich zwischen 4K mit DLSS Performance, 1440p mit DLAA und 1440p mit DLSS Q.
Das ganze ist in BEWEGUNG entstanden (vorwärts laufen) und alle Bilder sind ein Frame aus einem per Nvidia App aufgenommenen AV1 Video mit 250 Mbit/s Bitrate.
Im Stillstand ist 4K DLSS P massiv im Vorteil, weil es dann nahezu die volle 4K Schärfe zeigt. Deswegen hier der realistischere und fairere Vergleich in Bewegung.
---> https://imgsli.com/Mjk0NDI5/0/1
Hast du hier auch exakt den gleichen Frame verglichen? Denn die einzelnen Frames weichen etwas von einander ab. Und Klarheit ist so eine Sache. Du vergleichst ja DLSS, was ich nicht nutze. Mich interessiert nur wie es mit FSR, XeSS und TSR aussieht. :) Aber witzigerweise sehe ich bei deinem 2k DLAA Bild an manchen Stellen eine etwas bessere Detailrekonstruktion als beim 4k P Bild im Direktvergleich (kein Zoom). Am Boden fällt mir bei 4k P auch etwas mehr Unschärfe auf.
Relex
2024-09-06, 08:00:36
Exakt gleiche Position ist bei einer Videoaufnahme in Bewegung nicht möglich. Ich hab eh schon mit 120 FPS aufgenommen um möglichst viele Zeitpunkte zu haben, genauer gehts nicht. Du suchst dir dann eben in Aufnahme 1 ne Stelle raus und siehst, dann dass die Stelle in Aufnahme 2 genau zwischen 2 Frames wäre. Dann musst du eben das nehmen, was am ehesten rankommt.
PS: Ich hab mir das ganze vorhin mal mit FSR angesehen. Jaaa... neee. Also 4K FSR Performance sieht ziemlich schrecklich aus. Zumindest mit der hier genutzten Version 3.0. Flimmern, matsch, wenig Details. Nö. Das ist qualitativ näher an 1440p FSR Q als an 1440p Nativ. Kanten sind zwar schärfer, aber die Vegetation wird zu Matsche.
Für AMD User ist ein 1440p Display da wahrscheinlich sinnvoller.
redpanther
2024-09-06, 09:43:32
Richtig mit DL-DSR kann man natürlich auch auf nem 1440p Display deutlich an Schärfe rausholen. Das dürfte aber auf einem 1440p Display bei so hohen Refreshraten nicht funktionieren, da DSC aktiv ist und DL-DSR und DSC auf Nvidia nicht kompatibel sind.
Das stimmt, wie ich am eigenen Leib leider selbst erfahren musste.
Ist aber sehr Monitor abhängig und dürfte dann bei 4K monitoren noch kritischer sein, da wegen der Bandbreite dort schon früher DSC benötigt wird.
Klar. Kann 1440p füf "ausreichend" angesehen werden. Nur ich bin ich der Meinung, einen Monitor behält man dann doch mal länger als ne GPU. In der Regel 5-7 Jahre. Wenn nicht sogar eher 10 Jahre. In 4 Jahren ist 4K auch nichts mehr dolles. Und 1440p ist dann irgendwo das neue 1080p oder gar 720p
Richtig. Nur ist Auflösung eben nicht das einzige was ein Monitor können muss, um ein tolles Bild zu zaubern.
Hätte es meinen Oled, so wie er ist für 1-200€ mehr in 4K gegeben, hätte ich den genommen. Gabs, (und gibt's glaube ich immern noch) nicht. Und ich bin trotzdem so zufrieden, wie mit noch keinem anderen Monitor zuvor.
Hängt ja auch von der Verwendung ab. Wenn ich mehr am Moni arbeite, könnte man auch eher zu einer höheren Auflösung Tendieren. Nur fürs Spielen finde ich aber 1440p nach wie vor den besten Kompromiss.
Gumril
2024-09-06, 10:01:23
Kling gut. Hattest den Effekt auch ohne entsprechende Frames? Denn soviele FPS will ich nicht rendern, nur schon der Wärmeentwicklung wegen
Nein. 120 Hz hat von der schärfe wie 120 Hz ausgesehen.
Erst mit den 240 Hz war es fast ohne Bewegungsunschärfe beim OLED.
dargo
2024-09-06, 10:04:09
PS: Ich hab mir das ganze vorhin mal mit FSR angesehen. Jaaa... neee. Also 4K FSR Performance sieht ziemlich schrecklich aus. Zumindest mit der hier genutzten Version 3.0. Flimmern, matsch, wenig Details. Nö. Das ist qualitativ näher an 1440p FSR Q als an 1440p Nativ. Kanten sind zwar schärfer, aber die Vegetation wird zu Matsche.
Für AMD User ist ein 1440p Display da wahrscheinlich sinnvoller.
Danke fürs Feedback, denn genau sowas hatte ich erwartet. Schon alleine aus meinen Beobachtungen mit FSR und XeSS bei Q vs. nativ Upscaling @1440p.
Exakt gleiche Position ist bei einer Videoaufnahme in Bewegung nicht möglich.
Und hier sehe ich schon das Grundproblem bei solchen Vergleichen wo es manchmal wirklich schon um Korinthenkackerei geht. Wer garantiert mir, dass der Upscaling-Algorithmus jeden Frame exakt gleich gut behandelt? Wer garantiert mir, dass die Videokompression da auch nicht zwischen grätscht? Im Prinzip sehe ich nur die Summe aus ca. 80-120fps auf dem Bildschirm in der Sekunde, das wäre so der Bereich wo ich mich meistens bewege. Wer mit deutlich weniger fps spielt wird auch eher Fuckups erkennen, war auch schon bei reinem TAA so.
Hab jetzt nochmal gesucht, soll doch schon Q4 2024 kommen, aber anscheinend alles curved:
Tatsache. 45 Zoll ist natürlich ein ganz schöner Klopper. Da muss ich nochmal in mich gehen, ob das praktikabel ist und wieviel ich dafür ausgeben würde.
Curved ist für mich stark präferiert bei Monitoren ab 32".
M4xw0lf
2024-09-06, 13:00:56
"Blass" ist eine sehr euphemistische Beschreibung :redface: :D
Für 2160p legt man halt locker nochmal 50% drauf. Von den GPU-Kosten abgesehen. Hättest du Lust deine 4070 Super mit 2160p-Monitor zu nutzen?
Lawl. Ich nutze seit bald 8 Jahren 2160p, angefangen mit der altehrwürdigen R9 Nano und aktuell mit einer 7900XT, und habe durchaus Lust das so beizubehalten. Alles eine Frage der persönlichen Anforderungen. Für mich: PPI >> Hz, adaptive sync vorausgesetzt. #soschönmit60
The_Invisible
2024-09-06, 13:12:03
Tatsache. 45 Zoll ist natürlich ein ganz schöner Klopper. Da muss ich nochmal in mich gehen, ob das praktikabel ist und wieviel ich dafür ausgeben würde.
Curved ist für mich stark präferiert bei Monitoren ab 32".
Bei der Größe könnte ich mich eventuell auch abfinden wenn die Krümmung nicht zu übertrieben ist. Vorteil ist man kann noch natives 4k fahren wenn Widescreen in Games nicht unterstütz wird...
Platos
2024-09-06, 13:19:47
Tatsache. 45 Zoll ist natürlich ein ganz schöner Klopper. Da muss ich nochmal in mich gehen, ob das praktikabel ist und wieviel ich dafür ausgeben würde.
Curved ist für mich stark präferiert bei Monitoren ab 32".
Da steht aber 21:9 Monitor. 45" @ 21:9 ist wie ein 36" 16:9, der breiter ist. 36" ist natürlich tatsächlich sehr gross, aber nur so als Hinweis, dass es sich hier nicht um 45" 16:9 handelt.
Mir persönlich wären die PPI da aber zu niedrig. 1440p @ 27" hat ne PPI von 109 und 2160p @ 27" hat ne PPI von 163. So ein 45" 21:9 hätte aber ne PPI von nur 122, also deutlich näher an 1440p 27" als 2160p 27".
Man bräuchte hier exakt 2880p ("5k") bei der Grösse, um wieder bei 163PPI zu landen. Also bei 45" 21:9 wären das dann 6880x2880 für 163PPI.
aufkrawall
2024-09-06, 15:59:23
Ich hab alles mit Preset E getestet.
Ah, ok. Das unterstreicht dann natürlich deutlich, dass das höhere Target auch viel bringt.
Wüsste aber auch nicht, wie man sonst Vergleiche in Bewegung anstellen soll, weil das Bild beim manuellen screenshotten sonst immer nen Ruckler zeigt und damit ggf ein Standbild auf dem Screenshot landet statt das Bewegtbild.
Der Ruckler sollte erst nachfolgende Frames betreffen. Und bei Afterburner gibts afair auch meist nur beim ersten Screenshot in einer Session einen Ruckler. Windows kann afair mit winkey + druck auch ohne Ruckler Screenshots erzeugen, die XBox Game Bar auch. Nur ggf. nicht so leicht zu drücken, Wenn man gleichzeitig noch Bewegungstasten gedrückt halten muss.
Ich hab aber mit AB das schon oft recht problemlos hinbekommen.
Richtig mit DL-DSR kann man natürlich auch auf nem 1440p Display deutlich an Schärfe rausholen. Das dürfte aber auf einem 1440p Display bei so hohen Refreshraten nicht funktionieren, da DSC aktiv ist und DL-DSR und DSC auf Nvidia nicht kompatibel sind.
Kompatibel schon, nur alt + tab dauert dann ewig.
Edit: Ist wohl gefixt? alt + tab geht hier genauso schnell wie mit FSR ohne DLDSR. Bzw. langsam mit den Nvidia-typischen 1-2s Transition mit Display-Neuinitialisierung.
DLDSR sieht aber einfach nur kacke aus gegen RDNA3 VSR, mir fällt in Fortnite schon im Menü die Überschärfung von Texturen trotz 100% Smoothness sofort auf...
Lurtz
2024-09-06, 16:31:05
Lawl. Ich nutze seit bald 8 Jahren 2160p, angefangen mit der altehrwürdigen R9 Nano und aktuell mit einer 7900XT, und habe durchaus Lust das so beizubehalten. Alles eine Frage der persönlichen Anforderungen. Für mich: PPI >> Hz, adaptive sync vorausgesetzt. #soschönmit60
Naja, ich hatte auch 2015 oder so einen 60 Hz 2160p Monitor, und klar war die Bildschärfe genial, aber in Verbindung mit 60 Hz war das natürlich dennoch ein Irrweg. Außerdem gabs damals bis auf erste TAAU-Versuche noch kein vernünftiges Upsampling.
Aber ich hab mir mal 2160p DLSS Performance mit RR in Alan Wake 2 angeschaut, das ist schon wirklich kein Vergleich zu 1440p.
redpanther
2024-09-06, 16:32:13
Kompatibel schon, nur alt + tab dauert dann ewig.
Nope, ist DSC aktiv, geht DSR nicht.
Aussage von NV höchstpersönlich.
Gibt hier auch einen separaten Fred dazu.
Es gibt zwar aussagen, das es mit manchen Monitoren gehen soll, aber eventuell sind das auch nur Anzeige Fehler.
VSR hat wohl kein Problem mit DSC, habe ich gehört.
aufkrawall
2024-09-06, 16:37:00
Nope, ist DSC aktiv, geht DSR nicht.
Und wieso kann ich es hier mit 4k 144Hz DP 1.4 einfach aktivieren und nutzen?
redpanther
2024-09-06, 16:58:33
Und wieso kann ich es hier mit 4k 144Hz DP 1.4 einfach aktivieren und nutzen?
Ich habe keine Ahnung, denn diese Erklärung hier seitens NVIDIA mach für mich auch keinen Sinn. Kannte ich bisher nicht:
https://www.tomshardware.com/pc-components/gpus/nvidia-dsr-and-dldsr-tech-can-work-on-some-dsc-monitors
Denn auch Nvidia:
NVIDIA DSR, NVIDIA DLDSR und NVIDIA Image Scaling werden nicht unterstützt, wenn der DSC-Modus aktiviert ist. (https://support.nvidia.eu/hc/de/articles/5024944181650-Verwendung-von-Displays-mit-hoher-Aufl%C3%B6sung-Bildwiederholfrequenz-mit-VESA-Display-Stream-Compression-DSC-Unterst%C3%BCtzung-auf-NVIDIA-GeForce-GPUs)
Da es eben bei manchen doch funktioniert, spricht für einen Treiber FuckUp.
Relex
2024-09-06, 17:18:12
Na ja, ob es funktioniert oder nicht ist ja nicht zufällig, sondern bei jeder config 100% reproduzierbar.
Die Frage ist nur, was zusammenkommen muss, damit Features wie DSR abgeschaltet werden.
Bei meinem 4K 240 Hz Monitor geht es z.B. nicht. Da existiert nichtmal die DSR Option im Treibermenü.
Aber war mir auch egal. Hab DSR in 1440p schon nie genutzt und hab es erstrecht nicht in 4K vor.
aufkrawall
2024-09-06, 17:24:48
Da es eben bei manchen doch funktioniert, spricht für einen Treiber FuckUp.
Macht auf mich auch den Eindruck, als wären die dahingehend selbst verwirrt. Überrascht mich aber auch nicht komplett. Dass ich von der Art und Weise, wie der ganze Auflösungs- und Display-Kram im Nvidia-Treiber implementiert ist, nicht sonderlich viel halte, hatte ich ja schon mal angemerkt. Bräuchte einen großen Rewrite.
Allerdings ist der Verlust mit 4k-Monitor auch nicht so schlimm bzw. würde ich auch mit 1440p das künstlich aussehende DLDSR nicht nutzen, um den künstlichen Look von RR bei 1440p zu reduzieren. Das eine Übel mit dem anderen ersetzt, bleibt nur echtes 4k (leider)...
The_Invisible
2024-09-06, 17:27:33
Und wieso kann ich es hier mit 4k 144Hz DP 1.4 einfach aktivieren und nutzen?
Ja geht hier auch ohne Probleme mit gleicher Monitor Konfiguration. Die Aussagen von NV sind hier sehr vage, anscheinend kommt es draufan wie viele Displayengines intern benutzt werden, da gibts dann ja auch Einschränkungen von der max Monitoranzahl.
Hier gibts eine "Erklärung": https://tftcentral.co.uk/news/nvidia-dsr-and-dldsr-do-work-with-dsc-monitors-sometimes
“NVIDIA DSR, NVIDIA DLDSR and NVIDIA Image Scaling are supported when DSC mode is enabled, if the pixel rate needed to drive the display mode does not exceed the GPU’s single head limit. If GPU uses two or more internal heads to drive the display, NVIDIA DSR, NVIDIA DLDSR and NVIDIA Image Scaling are not supported”
robbitop
2024-09-06, 17:38:51
Was ist denn das Limit eines display heads?
The_Invisible
2024-09-06, 17:46:52
Weiß anscheinend nicht Mal NV :D
Tesseract
2024-09-06, 17:56:35
Hier gibts eine "Erklärung": https://tftcentral.co.uk/news/nvidia-dsr-and-dldsr-do-work-with-dsc-monitors-sometimes
das hier ist der entscheidende punkt:
there is no simple rule for an end-user to determine if two heads are needed, as it is highly dependent on internal monitor timings specified in the EDID
es gibt 4k/144 wo es definitiv funktioniert, scheinbar auch 4k/144 wo es nicht funktioniert, aber auch viele ultra wide die nominell weniger pixeldurchsatz als 4k/144 haben wo es ebenfalls nicht funktioniert.
redpanther
2024-09-06, 19:10:08
Ich kann meinen Monitor ja auch auf 60Hz runter drehen oder DP auf Vers 1.2 ändern.
Trotzdem will der Treiber nicht DSR aktivieren. Daran hängt es also anscheinend nicht.
Ich hätte gerne die Option, man muss es ja nicht zwanghaft immer nutzen.
Platos
2024-09-06, 19:34:28
Ich habe keine Ahnung, denn diese Erklärung hier seitens NVIDIA mach für mich auch keinen Sinn. Kannte ich bisher nicht:
https://www.tomshardware.com/pc-components/gpus/nvidia-dsr-and-dldsr-tech-can-work-on-some-dsc-monitors
Denn auch Nvidia:
NVIDIA DSR, NVIDIA DLDSR und NVIDIA Image Scaling werden nicht unterstützt, wenn der DSC-Modus aktiviert ist. (https://support.nvidia.eu/hc/de/articles/5024944181650-Verwendung-von-Displays-mit-hoher-Aufl%C3%B6sung-Bildwiederholfrequenz-mit-VESA-Display-Stream-Compression-DSC-Unterst%C3%BCtzung-auf-NVIDIA-GeForce-GPUs)
Da es eben bei manchen doch funktioniert, spricht für einen Treiber FuckUp.
Nein, nvidia hat bestätigt, dass DSR grundsätzlich funktioniert, jedoch kommt es auf den Monitor an. Wurde auch schon so (von mir) hier in dem Thread verlinkt mit Quelle. Aber die Quelle finde ich jetzt grad nicht mehr. Müsste man im Thread hier stöbern.
Aber auf jeden Fall gehts, wenn der Monitor das kann. Ich weiss jedoch noch, dass es quasi unmöglich ist herauszufinden, ob er das kann (ausser andere Nutzer fragen). Es ist irgend ein Wert oder sowas, den man als normalsterblicher nicht herausfindet.
Ob nvidia es nicht bei allen Monitoren kompatibel machen könnte, kann man natürlich nicht sagen...
aufkrawall
2024-09-06, 19:44:43
Ob nvidia es nicht bei allen Monitoren kompatibel machen könnte, kann man natürlich nicht sagen...
Dass es nur am Willen scheitert, kann man schon konstatieren. Ist keine Raketentechnik, dem Monitor ein skaliertes Bild zukommen zu lassen. Wenn das wegen dümmlichen Hardware-Limits klemmt, kann man das auch mit mehr Software/Abstraktion lösen. Haben sie aber keinen Bock zu oder kriegen es nicht auf die Kette.
Tesseract
2024-09-06, 19:57:11
Ich kann meinen Monitor ja auch auf 60Hz runter drehen oder DP auf Vers 1.2 ändern.
Trotzdem will der Treiber nicht DSR aktivieren. Daran hängt es also anscheinend nicht.
da ist die firmware vom monitor schuld. gibt haufenweise moitore die DSC explizit ausschaltbar machen damit es funktioniert, z.B. einige der 4k/240 OLEDs. der monitor wird dann z.B. als 4k/120 ohne DSC neu erkannt und die option wird verfügbar.
redpanther
2024-09-06, 20:05:25
da ist die firmware vom monitor schuld. gibt haufenweise moitore die DSC explizit ausschaltbar machen damit es funktioniert, z.B. einige der 4k/240 OLEDs. der monitor wird dann z.B. als 4k/120 ohne DSC neu erkannt und die option wird verfügbar.
Kann gut sein.
Allerding sagte NVidia im TomsHW Artikel oben selbst, das es ja angeblich auch mit DSC funktionieren soll, solange nur ein Kabel verwendet wird.
Tesseract
2024-09-06, 20:11:55
display engine (fixed function units auf der GPU), nicht kabel. und ja, 4k/144 benötigt bereits DSC und geht noch auf einigen monitoren wenn die firmware mitspielt. 4k/240 natürlich nicht mehr.
redpanther
2024-09-06, 20:21:39
Dann steht es in dem THW Artikel falsch:
"“NVIDIA DSR, NVIDIA DLDSR, and NVIDIA Image Scaling are supported when DSC mode is enabled if the pixel rate needed to drive the display mode does not exceed the GPU’s single head limit. If GPU uses two or more internal heads to drive the display, NVIDIA DSR, NVIDIA DLDSR, and NVIDIA Image Scaling are not supported,” a Nvidia representative told TFTCentral.
Nvidia clarifies that DSR/DLDSR can be used with a DSC-enabled monitor. The only requirement for it to work is that the display needs to be connected to the GPU with a single cable. This won’t be a problem for most gamers, but a few GPU/monitor configurations require two or more display connections to work (particularly first-generation 4K and 8K displays)."
Tesseract
2024-09-06, 20:38:12
ja, tut es. keine ahnung warum es bei diesem thema von nvidia mehrere teilweise widersprüchliche aussagen gibt, irgendwas stimmt da an der internen kommunikation nicht.
GPUs haben eine gewisse anzahl an display engines (z.B. 3), die nehmen die frames und regeln das ganze DP/HDMI zeug für die ausgabe (formate, packages, timings, DSC etc.). im normalfall macht eine DE einen ausgang, d.h. mit 3 engines kann man 3 monitore gleichzeitig betreiben. es gibt allerdings fälle wo eine engine den durchsatz nicht hat und zwei zusammengeschaltet werden müssen um gemeinsam einen monitor anzusteuern, das ist dann der fall wo DSC und DSR nicht gleichzeitig funktionieren und wo man einen anschluss weniger gleichzeitig nutzen kann.
wahrscheinlich meinen die mit "cable" link?
redpanther
2024-09-06, 22:37:36
Macht Sinn was du schreibst.
Aber warum sollte die GPU bei zB einer nur 60Hz Auflösung, immer noch mehrere DE nutzen?
Für mich mach dann der Treiber was falsch. Eventl. lässt er sich durch irgend eine EIDE Flag verwirren. Oder die Aussage, es funktioniert mit DSC bei nur einer DE ist falsch.
Oder?
Tesseract
2024-09-06, 23:05:55
ja, ist sicher etwas das man theoretisch im treiber fixen könnte, aber der aufwand ist für so ein obskures problem wohl zu groß, außerdem wird das mit dem nächsten update der DE auf DP 2.1 in einer späteren generation (blackwell?) wahrscheinlich sowieso hardwareseitig nebenbei gelöst.
Platos
2024-09-06, 23:12:12
Dass es nur am Willen scheitert, kann man schon konstatieren. Ist keine Raketentechnik, dem Monitor ein skaliertes Bild zukommen zu lassen. Wenn das wegen dümmlichen Hardware-Limits klemmt, kann man das auch mit mehr Software/Abstraktion lösen. Haben sie aber keinen Bock zu oder kriegen es nicht auf die Kette.
Ja, ich meinte damit mehr, man (bzw ich) kann es nicht beweisen. Aber ich würde mal vermuten, wenn es ihnen wichtig wäre, würden sie es schon hingkriegen. Vor allem wird doch das hochaufgelöste Bild (also z.B 6k bei nem 4k Monitor) gar nicht an den Monitor geschickt oder?
robbitop
2024-09-07, 07:11:36
ein das wird vorher downgesampled. Und klar müsste das gehen wenn sie wollten. Wenn du im Spiel die resolution slider auf 200% stellst oder mit GeDoSaTo (bei alten Spielen) downsampling betreibst geht es ja auch. Und VSR bei AMD hat die Limitierung nicht. Warum auch immer läuft ein Teil vom Downsampling über die displayhead HW. Das müsste aber nicht unbedingt so sein.
Gouvernator
2024-09-07, 07:47:51
Es ist doch kein so triviales Problem für NV, wenn man HDMI 2.1 basierte custom .inf nicht mal in Windows installieren kann. Es ist auch lustig zu sehen, wieviel Bandbreite für Hz zur Verfügung steht, wenn man in Windows eine custom .inf mit unterschiedlichen HDMI Quellen betreibt. Will man 4K120 streamen, dann geht das nur mit einem physischen 4k120 HDMI 2.0 Monitor. Ein BILLIGER HDMI-Dummy schafft es nur mit 1080p, teurer mit 1440p. Und dann mit DSR auf 4K upscalen und streamen. Sprich da ist irgendwie alles miteinander verlinkt, EDID-Hardware im Monitor, Windows und wie Grafikkartentreiber es für sich interpretiert.
Als erstes müsste man NV Blackwell auf 8K HDMI 2.1 DSR testen...
The_Invisible
2024-09-07, 09:41:21
ein das wird vorher downgesampled. Und klar müsste das gehen wenn sie wollten. Wenn du im Spiel die resolution slider auf 200% stellst oder mit GeDoSaTo (bei alten Spielen) downsampling betreibst geht es ja auch. Und VSR bei AMD hat die Limitierung nicht. Warum auch immer läuft ein Teil vom Downsampling über die displayhead HW. Das müsste aber nicht unbedingt so sein.
Schätze mal in der derzeitigen Implementierung ist irgendeine Hardware im Spiel die da limitiert. Wäre es rein Software gäbe es keinen Grund. Wobei halt die Sache ist wie viele Leute DSR wirklich nutzen, dürfte in der Priority List sicher recht weit hinten sein und irgendwann automatisch durch DP2.x gelöst werden...
Relex
2024-09-07, 10:06:20
DP2.0 mit UHBR20 ist aber aktuell auf extrem kurze Kabel limitiert, die schon bei vielen Standard Schreibtisch Setups viel zu kurz sein können.
Selbst mit DP2.0 wird man also bei längeren kabeln mit geringeren Bandbreiten fahren und DSC nutzen.
Nvidia muss das ganze GPU bzw. Treiberseitig lösen.
Ich würde aber auch behaupten, dass es ein Treiberproblem ist. Angeblich sollen mit DSC keine benutzerdefinierten Auflösungen möglich sein. Ist mit einem Workaround aber möglich.
DL-DSR nutzt außerdem wenn man Nvidia glauben schenken kann die Tensor cores. Also muss das Bild ja irgendwo intern in der GPU bearbeitet und auf die richtige Auflösung gebracht werden. Das wird sicher nicht die Display engine machen, denn die hat sicher keine eigenen Tensor Cores.
MMn. alles höchst merkwürdig und nicht plausibel.
DrFreaK666
2024-09-07, 11:07:19
"Nvidia hat bessere Treiber"
dargo
2024-09-07, 11:25:06
OLED frisch eingetrudelt. Dann mal sehen wie der sich so schlägt. :)
Edit:
Erstmal ein ganz kurzer Ersteindruck. :)
* Aufbau vom Bildschirm absolut kinderleicht und ohne Werkzeug, Kabelmanagement hinten finde ich auch super gelöst. Gesamte Verarbeitung absolut tadellos und hochwertig wirkend. Mit diesen Silberakzenten sieht der Bildschirm imo schon edel aus. Ich hatte wegen dem Silber kleine Bedenken, harmoniert auch schon ganz gut mit den weißen Nuberts.
* Maus am Desktop mit 360Hz ein Träumchen.
* Bei 360Hz am Desktop zieht die RX 6800XT in Idle leider 18-23W anstatt der üblichen 7W ASIC... blöd, Vram bleibt dann bei 908Mhz. ;( Mit 240Hz sind es wieder die alten 7W ASIC. Jedes Mal wenn ich was spiele die Frequenzen umschalten könnte auf Dauer nerven. Oder ich bleibe halt bei 240Hz überall.
* Dass ein QD-OLED zu dunkel ist kann ich jetzt als reinen Mythos abhacken. Bin gerade im Grafikmodus bei dem Samsung mit 28 Helligkeit (max. geht 50) und das ist schon ziemlich hell. Habe rechts neben dem Bildschirm in einer Entfernung von knapp 2 Metern ein 136x136cm Fenster. Mit Tageslicht (natürlich aktuell keine direkte Sonneneinstrahlung) überhaupt kein Problem. Wenn die Westsonne rein scheint lasse ich eh die Rollläden runter oder Markise raus. Sonst hält man es im Zimmer nicht aus.
* Bei der Textklarheit kann ich aktuell keine Nachteile feststellen. Eine Sache ist mir aber direkt aufgefallen. Ich meine der Text zb. hier gerade im Forum ist ganz minimal unschärfer als auf meinem IPS LCD. Das aber unter Vorbehalt denn erstens habe ich den LCD noch nicht im direkten Vergleich aufgebaut und zweitens bin ich etwas übermüdet. Die letzten Tage sehr früh aufgestanden, obwohl ich diese Woche frei habe. Kann also sein, dass es hauptsächlich an der Augenmüdigkeit liegt.
* Eine Sache irritiert mich beim OLED. Die Farben sehen mir am Desktop zu bunt aus, dieses Orange hier im 3DC knallt auch ganz schön. Auf mich wirkt das schon etwas zu bunt. Aber mit den einzelnen Bildsettings habe ich noch nicht rumgespielt, kommt erst später. Und nein, mein IPS LCD war nicht blass. Auch der hat schon knallige Farben, der OLED knallt aber noch mehr.
* Irgendwelche elektronischen Geräusche vom Display und Netzteil kann ich absolut nicht vernehmen was schon mal exzellent ist. Das beurteile ich aber erst richtig nachts wenn draußen alles still ist.
* Die Lösung mit den externen Netzteilen, da bin ich kein Fan von. Wieder unnötiges Gerümpel was irgendwo rum liegen muss. Scheint aber bei den aktuellen Displays normal zu sein.
Edit 2:
Gerade die Markise rausgefahren da die Sonne langsam vom Westen kommt. Dadurch ist es etwas dunkler im Zimmer. Da muss ich mit der Helligkeit runter auf 21-22 sonst ist das Bild zu hell.
aceCrasher
2024-09-07, 14:10:52
* Eine Sache irritiert mich beim OLED. Die Farben sehen mir am Desktop zu bunt aus, dieses Orange hier im 3DC knallt auch ganz schön. Auf mich wirkt das schon etwas zu bunt. Aber mit den einzelnen Bildsettings habe ich noch nicht rumgespielt, kommt erst später. Und nein, mein IPS LCD war nicht blass. Auch der hat schon knallige Farben, der OLED knallt aber noch mehr.
Das liegt daran dass dein Desktop in sRGB ist, der Monitor das aber auf seinen nativen (sehr hohen bei QD-OLED) Farbraum streckt. Wenn du das vermeiden willst musst du die Einstellung "Color-Space" auf "auto" statt "native" stellen, das locked ihn auf sRGB.
Hier im RTINGS Review (https://www.rtings.com/monitor/reviews/samsung/odyssey-g6-s32bg65) sieht man sehr schön dass die sRGB Farbgenauigkeit mit dieser Einstellung sogar sehr gut ist.
dargo
2024-09-07, 14:40:12
Ah.. sehr gut, danke dir! :up:
Gleich deutlich angenehmer für die Augen. Dieses quitschi bunti war echt extrem schon alleine bei meinem Hintergrundbild am Desktop. :freak: Jetzt sieht das deutlich natürlicher aus, mich hatte das an Dynamik bei TVs irgendwie erinnert. Manche mögen das, ich finde das vollkommen übertrieben und auch anstrengend für die Augen.
Edit:
Boah... extremen Dank für diesen Tipp!!!
Ich hätte wieder Stunden bis Tage gesucht was hier los ist. X-D Mir ist zb. auch im Menü von GoT aufgefallen, dass die fetteren Schriften irgendwie unscharf wirken. Gleiches gilt für das Overlay vom Arschbrenner. Hier am Beispiel...
https://www2.pic-upload.de/thumb/37412533/GhostofTsushima_2024.09.07-14.55.png (https://www.pic-upload.de/view-37412533/GhostofTsushima_2024.09.07-14.55.png.html)
die orange Schrift mir den ganzen Werten wirkte etwas unscharf vs. Beschriftung in grün und blau. Die beiden letzteren Sachen wirken schön scharf. Schalte ich auf HDR um wird aus orange bei den Werten beim Arschbrenner automatisch knalliges rot. Und das war mit dem nativen Farbraum dermaßen extrem knallrot, dass ich davon Augenkrebs bekam. Dieses knallrot wirkte dann richtig unscharf. Ich dachte schon das hat mit dem Subpixel Layout vom OLED was zu tun und bekam einen Schreck. :eek: Jetzt fange ich wieder bei Null mit der Bewertung an. :D
btw.
Die Farben allgemein in Spielen wirken jetzt auch besser mit "Auto" beim Farbraum. Alles wirkt natürlicher. :)
aufkrawall
2024-09-07, 15:50:13
"Nvidia hat bessere Treiber"
Perfekt ist es auf Radeon auch nicht, manchmal blitzen kurz alte Bildinhalte vom Zeitpunkt der VSR-Initialisierung durchs Bild. Meist nach alt + tab, kann aber auch später sporadisch noch passieren.
DrFreaK666
2024-09-07, 17:06:51
Hab bisher keine negativen Erfahrungen damit gemacht. Aber wenn es nur nach Alt+Tab passiert... Besser als gar keine Funktion
aufkrawall
2024-09-07, 17:14:33
Sicher. Und selbst mit dem Problem-chen find ichs trotzdem viel besser als DSR/DLDSR, weil es einfach nur besser, und nicht irgendwie komisch aussieht.
dargo
2024-09-07, 18:02:33
Boah... also ich bin bisher absolut von dem Samsung G6 QD-OLED begeistert. Es ist einfach Wahnsinn was diese Dinger leisten, insbesondere dann auch bei HDR. HDR habe ich echt vermisst nachdem ich das mit dem letzten mini LED LCD kurz bestaunen durfte. Es sieht einfach wahnsinnig gut aus bsw. in Horizon Forbidden West wenn man Nachts ein Lager mit den ganzen Lichtern sieht. :massa: Auch in Ghost of Tsushima kann der QD-OLED absolut glänzen. Das Game ist oft besonders dunkel im Vergleich zu anderen Games, was man da alles für feinste Details in der Dunkelheit jetzt sieht was man vorher gar nicht mit nem IPS LCD gesehen hat oder nur erahnen konnte ist schon echt bemerkenswert. Zwei Sachen sind auch noch witzig. Jetzt mit dem OLED muss ich überall RCAS leicht wieder absenken weil das Bild sonst zu scharf wirkt. Wahrscheinlich liegt das an der Bewegungsschärfe vom OLED, LCD hat da in Bewegung mehr geschmiert. Zweite lustige Sache... als ich GoT mit HDR gespielt habe ist mir das Game nach einigen Minuten abgestürzt. Ich hatte erstmal gedacht... nanu, belastet HDR die GPU spürbar stärker als SDR? Ich undervolte ja. Bis mir dann einfiel, dass ich jetzt keinen Framelimiter mehr nutze weil bis 360fps ist es sehr weit. :tongue: Vorher hatte ich immer bei 140fps wegen 144Hz Monitor limitiert. Und in GoT gehen die Frames gelegentlich Richtung 160+fps. Habe jetzt eine Spannungsstufe (6,25mV) erhöht. Sieht erstmal soweit gut aus.
btw.
Mit Clear Type konnte ich eine noch etwas bessere Textklarheit rausholen. Bisher komme ich mit der Textklarheit gut zurecht. Übernächste Woche habe ich Homeoffice, da kann ich den QD-OLED am Desktop noch besser testen.
Achja... noch was vergessen. Mit HDR ist das Overlay vom Afterburner unerträglich mit den knallroten Werten im Overlay. Ich kann mich jetzt auch schwach dran erinnern, dass das bei dem mini LED LCD auch schon bescheiden aussah. Keine Ahnung was da im Afterburner schief läuft sobald HDR dazu geschaltet wird. Die einfachste Lösung dafür... das AMD-Overlay nutzen, geht natürlich nur mit Radeon. Das funktioniert einwandfrei sowohl mit SDR als auch HDR bei der Textdarstellung. Im AMD-Overlay ist immer alles schön scharf dargestellt.
PS: bisher nirgendwo im Gaming VRR-Flicker aufgefallen.
robbitop
2024-09-07, 18:27:31
Ich sagte ja schon mehrfach dass vrr flicker überhypt war. Das tritt außerhalb von Ladesequenzen so selten auf - IMO (bis auf wenige Ausnahmen vielleicht) ein non issue.
Der_Korken
2024-09-07, 19:04:06
Mit Clear Type konnte ich eine noch etwas bessere Textklarheit rausholen. Bisher komme ich mit der Textklarheit gut zurecht. Übernächste Woche habe ich Homeoffice, da kann ich den QD-OLED am Desktop noch besser testen.
Sind das 1440p@27Zoll, also 109ppi? Das wäre positiv, wenn Text trotzdem gut aussieht. Auch kein color fringing?
Lurtz
2024-09-07, 19:21:16
Boah... also ich bin bisher absolut von dem Samsung G6 QD-OLED begeistert.
Klingt ja gut. Dann beobachte ich den Mal bis zum nächsten Angebot, vielleicht teste ich den dann auch mal.
Muss mir dann nur überlegen ob ich einen anderen Monitorarm nehme und für längere Desktopnutzung dann doch den IPS erstmal behalte. Hab den Monitor im Home Office halt meist stundenlang nebenher laufen... Und auch eigentlich keine Lust den ständig erst aufzuwecken und solche Späße.
Eine 32"-Variante gibts von dem nicht, oder? :uponder:
Lurtz
2024-09-07, 19:30:18
Samsung gibt gar keine explizite Garantie wegen Burn In? Nur zwei Jahre Standardgarantie?
Ich sagte ja schon mehrfach dass vrr flicker überhypt war. Das tritt außerhalb von Ladesequenzen so selten auf - IMO (bis auf wenige Ausnahmen vielleicht) ein non issue.
Bei Rtings klingt es als wäre das ein Riesenproblem und der Anti-VRR Flicker-Modus würde den Monitor praktisch unbenutzbar machen.
robbitop
2024-09-07, 19:42:03
Also ich zocke seit 4 Jahren an einem 55BX OLED (aber nicht nur) und hab das nie als Problem empfunden.
ChaosTM
2024-09-07, 19:56:59
In Spielen selbst hab ich gsd. noch nie eine Flickerei erlebt.
In Menüs sehr wohl und gelegentlich auch im RDR2 und Wukong Benchmark
aufkrawall
2024-09-07, 19:59:46
Bei Rtings klingt es als wäre das ein Riesenproblem und der Anti-VRR Flicker-Modus würde den Monitor praktisch unbenutzbar machen.
Kommt auf die Varianz der Frame Times an. Es ist in quasi allem mit UE irgendwann mal zu merken. Mal kaum, mal mehr. Meist imho nicht so schlimm wie VA.
Kann natürlich theoretisch auch selbst mit jedem Firmware Update anders sein, weil das darüber zumindest, offenbar anders als bei VA, teilweise korrigierbar ist. Hab schon gelesen, dass es sich dadurch bei irgendeinem Modell auch schon verschlechtert haben soll...
Edit: Wenn "Anti-VRR-Flicker-Modus" natürlich heißt, dass die Range so eingeschränkt ist, dass LFC nicht mehr oder nicht mehr (gut) funktioniert, ist das Murks und man mit (oft eher wenig) Geflacker besser unterwegs.
dargo
2024-09-07, 20:06:38
Eine 32"-Variante gibts von dem nicht, oder? :uponder:
Doch, mit 4k und 240Hz dann natürlich.
https://geizhals.de/samsung-odyssey-oled-g8-g80sd-ls32dg800suxen-a3201647.html?hloc=at&hloc=de
Sind das 1440p@27Zoll, also 109ppi? Das wäre positiv, wenn Text trotzdem gut aussieht. Auch kein color fringing?
Ja, ist 1440p @27". Ich kann keine Farbsäume beim Text feststellen. Das einzige was mich noch etwas unsicher macht ist die Textschärfe vs. 1440p @27" IPS LCD. Mir ist nur momentan zu warm den LCD daneben anzuschließen um einen direkten Vergleich zu haben. Habe wenig Lust dazu. Nächste Woche soll sich hier deutlich abkühlen dann schaue ich mir das im Direktvergleich im Laufe der Woche an. PCMonitors spricht beim Samsung G6 von "Gen2.5", also verbessertes Subpixel Layout vs. Gen1. Beim Samsung G8 sprechen die von "Gen3", wobei das nur "Gen2.5" mit mehr PPI ist.
https://pcmonitors.info/articles/qd-oled-and-woled-fringing-issues/
Lurtz
2024-09-07, 21:17:47
Offenbar erzwingt der Monitor immer DSC, das ist ja bescheuert. Andererseits nutze ich DSR eh praktisch nie, weil der AA-Effekt verglichen mit modernen Techniken trotzdem suckt und die Implementierung mit dem langsamen Alt+Tab bei nVidia eh nervt.
Edit: Wenn "Anti-VRR-Flicker-Modus" natürlich heißt, dass die Range so eingeschränkt ist, dass LFC nicht mehr oder nicht mehr (gut) funktioniert, ist das Murks und man mit (oft eher wenig) Geflacker besser unterwegs.
Laut Rtings steigt der Input Lag stark (gut das ist technisch plausibel I guess) und es kommt zu Stuttering.
Doch, mit 4k und 240Hz dann natürlich.
https://geizhals.de/samsung-odyssey-oled-g8-g80sd-ls32dg800suxen-a3201647.html?hloc=at&hloc=de
Ja, habs jetzt auch gesehen. Fast doppelt so teuer plus höhere GPU-Anforderungen. Ich glaube das ist es mir einfach nicht wert. Wenn das PS5 Pro-Upsampling was taugt dürfte sie einen 1440p-Monitor mit DLSS dann deutlich übertreffen, was Bildqualität angeht, aber so ist es dann eben :ulol:
Bleibt eh abzuwarten ob ich damit klar komme. Mit Nano IPS kam ich gar nicht klar, und die OLEDs verwenden ja auch alle irgendwelche Quantum Dots.
Relex
2024-09-07, 21:44:14
Achja... noch was vergessen. Mit HDR ist das Overlay vom Afterburner unerträglich mit den knallroten Werten im Overlay. Ich kann mich jetzt auch schwach dran erinnern, dass das bei dem mini LED LCD auch schon bescheiden aussah. Keine Ahnung was da im Afterburner schief läuft sobald HDR dazu geschaltet wird.
Die SDR Farben werden auf den HDR Farbraum aufgeblasen. 100% rot in SDR wird dann eben 100% rot in HDR, was auf einem QD-OLED eine sehr hohe Helligkeit und eine völlig kranke Farbsättigung ergibt. :D
Ist in dem Fall natürlich ein Bug bzw. einfach falsches Farbmanagement von Windows oder dem RTSS.
Ich denke ein relativ simpler Workaround ist, im Afterburner die Farben fürs Overlay halbtransparent zu machen. Kann man dort einstellen, wo man auch die Farben ändern kann. Im RTSS dann am besten den schwarzen hintergrund mit einblenden, damit es lesbar bleibt.
Alternativ kann man die Farben einfach dunkler machen, aber dann sind sie in SDR nicht mehr lesbar. Transparent funktioniert mMn. besser.
Wobei ich glaube, dass man im Afterburner auch verschiedene Profile hinterlegen und dann per Hotkey umschalten kann. Dann könnte man ein Profil für SDR und eines für HDR hinterlegen.
Ob das auch die overlay config oder nur die GPU settings betrifft weiß ich aber nicht. Wollte das eigentlich selber mal austesten, bin aber bisher nicht dazu gekommen...
Sardaukar.nsn
2024-09-07, 22:36:40
Ich sehe da kein Problem, im Gegenteil. Vielleicht ist das am PC noch Neuland, aber im Mobile Bereich hat man das mit den inzwischen sehr hellen OLED Displays schon lange im Griff. Auf den Flagship Phones mit OLED ist seit Jahren schon keine Farbe mehr übersättigt oder was hier sonst noch in den Raum geworfen wird. Ist einfach ein anderes Level als IPS und Co.
dargo
2024-09-08, 05:47:00
Die SDR Farben werden auf den HDR Farbraum aufgeblasen. 100% rot in SDR wird dann eben 100% rot in HDR, was auf einem QD-OLED eine sehr hohe Helligkeit und eine völlig kranke Farbsättigung ergibt. :D
Ist in dem Fall natürlich ein Bug bzw. einfach falsches Farbmanagement von Windows oder dem RTSS.
Kann dann nur ein Bug von RTSS oder Afterburner sein. Denn im AMD-Overlay ändert sich nichts an der Farbe zwischen SDR und HDR.
btw.
Was ich auch richtig kacke finde ist der Stromverbrauch in Idle @4k wenn ich es mit VSR simuliere. Dann ist meine RX 6800XT schon bei 35-36W ASIC mit 360Hz. :down: Leider kann ich bei VSR nichts außer 360Hz wählen, bei VSR wird immer die max. Frequenz vom Bildschirm gefahren. Das bedeutet aber, dass 240Hz definitiv nicht bei 7W mit 4k rauskommt. Boah... ich hoffe Navi48 wird hier sparsamer mit 4k und 240Hz. Ansonsten muss man wohl auf 120Hz runter in Idle.
Edit:
Das lässt sich zum Glück beim Arschbrenner alles konfigurieren. Wenn ich die gleiche grüne Farbe als Systemfarbe wähle wie bei Farbe 0 bekomme ich bei HDR kein Augenkrebs mehr. :)
89441
Mal ganz blöd gefragt... welchen Farbraum muss ich bei HDR für Games nehmen? Als Auswahl habe ich beim Monitor Nativ, Normal und Auto. Das lässt sich separat für SDR und HDR zum Glück wählen. Bei SDR fahre ich ja jetzt "Auto".
@Relex
Und danke für den Tipp mit der Deckkraft. Mit 85% Deckkraft überall finde ich das AB-Overlay nun sehr angenehm in HDR. Dann muss man wohl wirklich hier mit zwei verschiedenen Profilen für SDR und HDR arbeiten. :freak: Schade, dass HDR Overlays einfach nicht ignoriert. :tongue:
Lurtz
2024-09-08, 11:05:08
Ohne Quantum Dot bleibt nur WOLED. Aber da ist die Textdarstellung bei 1440p dann wohl einfach zu schlecht.
https://geizhals.de/lg-ultragear-oled-27gs95qe-b-a3091299.html
In den Rezensionen schreibt jemand er kam mit dem Quantum Dot bei anderen OLEDs nicht klar, könnte gut sein, dass mich das dann auch betrifft wenn ich schon mit Nano IPS Probleme hatte.
aceCrasher
2024-09-08, 12:35:08
Mal ganz blöd gefragt... welchen Farbraum muss ich bei HDR für Games nehmen? Als Auswahl habe ich beim Monitor Nativ, Normal und Auto. Das lässt sich separat für SDR und HDR zum Glück wählen. Bei SDR fahre ich ja jetzt "Auto".
Ich glaube auch Auto. So wie ich das verstehe wählt Auto den Farbraum anhand des Input-Signals, das wäre bei HDR dann DCI-P3 oder REC 2020. Native streckt immer auf das Maximum. Das sollte bei deinem Monitor aber keinen Unterschied machen, da er den DCI-P3 Farbraum nicht komplett abdeckt, native ist also auch "innerhalb" von DCI-P3 und übersättigt daher keine Farben. Falls Auto aber spürbar weniger gesättigte Farben als "native" hat in HDR, dann nimm lieber native.
Tesseract
2024-09-08, 13:13:22
zumindest die neuen 4k/240 QDOLEDs haben einen größeren farbraum als DCI-P3, manche modelle haben sogar ein kalibriertes profil dafür. der unterschied ist aber nicht groß.
SDR sollte natürlich immer im sRGB profil sein, in HDR kann man ruhig das native maximum lassen.
Kann dann nur ein Bug von RTSS oder Afterburner sein. Denn im AMD-Overlay ändert sich nichts an der Farbe zwischen SDR und HDR.
Kein Bug, sondern einfach ein fehlendes Feature, HDR wird nicht berücksichtigt.
Relex
2024-09-08, 13:38:43
Ohne Quantum Dot bleibt nur WOLED. Aber da ist die Textdarstellung bei 1440p dann wohl einfach zu schlecht.
https://geizhals.de/lg-ultragear-oled-27gs95qe-b-a3091299.html
In den Rezensionen schreibt jemand er kam mit dem Quantum Dot bei anderen OLEDs nicht klar, könnte gut sein, dass mich das dann auch betrifft wenn ich schon mit Nano IPS Probleme hatte.
Ich vermute, dass das Problem einfach ist, dass viele Leute die Monitore nicht im sRGB Modus sondern im Standardmodus betreiben. Die Monitore haben dann eine ziemlich hohe Sättigung, da eben ein sehr breiter Farbraum unterstützt wird, erstrecht mit Quantum Dots.
Das was dann ausschlaggebend ist, ist wahrscheinlich Clear Type.
Clear Type nutzt ja die Farbigen Subpixel zur Schriftglättung.
Wenn aber die Sättigung zu hoch bzw. der Farbraum nicht auf sRGB begrenzt ist, dann sind diese Clear Type Subpixel sehr dominant. Schriften zu lesen ist dann sehr unangenehm, da jeder Buschstabe dann einen Farbsaum mit sehr hoher Sättigung hat.
Und die Sättigung die diese Displays erzeugen können ist aber selbst in der Fläche schon irritierend hoch, so dass es teilweise unangenehm ist drauf zuschauen. Wenn dann jeder Pixel mit so kräftigen Farben umrandet wird, ist das natürlich sehr anstrengend.
Für ordentliche Schriftdarstellung halte ich es daher für sehr wichtig, den Monitor im SDR Betrieb auf sRGB zu stellen.
Im HDR Betrieb sollte es egal sein, da hier Windowsseitig ja bereits der Farbraum des Desktops im sRGB Bereich gehalten wird und eine Übersättigung damit normalerweise nicht möglich ist.
fondness
2024-09-08, 13:45:37
Kann dann nur ein Bug von RTSS oder Afterburner sein. Denn im AMD-Overlay ändert sich nichts an der Farbe zwischen SDR und HDR.
Was hat das Ding eigentlich noch für einen Vorteil ggü. AMD Overlay? Ich verwende schon lange nur noch das von AMD, weniger externe Software die rein grätschen kann.
dargo
2024-09-08, 15:10:50
Ich glaube auch Auto. So wie ich das verstehe wählt Auto den Farbraum anhand des Input-Signals, das wäre bei HDR dann DCI-P3 oder REC 2020. Native streckt immer auf das Maximum. Das sollte bei deinem Monitor aber keinen Unterschied machen, da er den DCI-P3 Farbraum nicht komplett abdeckt, native ist also auch "innerhalb" von DCI-P3 und übersättigt daher keine Farben. Falls Auto aber spürbar weniger gesättigte Farben als "native" hat in HDR, dann nimm lieber native.
Auto:
https://www2.pic-upload.de/thumb/37412882/Auto.jpg (https://www.pic-upload.de/view-37412882/Auto.jpg.html)
Nativ:
https://www2.pic-upload.de/thumb/37412881/Nativ.jpg (https://www.pic-upload.de/view-37412881/Nativ.jpg.html)
Ich würde blind behaupten Auto sieht natürlicher aus. Nachdem ich jetzt mit den verschiedenen Farbräumen und HDR On gespielt habe würde ich doch eher zu nativ tendieren oder mindestens zu normal. Auto sieht bei HDR manchmal doch etwas zu blass aus. Ist aber vielleicht auch Geschmacksache.
Edit:
Mit diesem Bildschirm macht auch endlich Frame Generation Sinn. Bei ca. 200fps fühlt sich die Maus echt gut an inkl. Antilag 2. :up:
https://www2.pic-upload.de/thumb/37412883/GhostofTsushima_2024.09.08-15.18.png (https://www.pic-upload.de/view-37412883/GhostofTsushima_2024.09.08-15.18.png.html)
Nicht über die Farben wundern, ist HDR. GoT kann in HDR auch absolut glänzen. :massa:
aufkrawall
2024-09-08, 15:39:08
Was hat das Ding eigentlich noch für einen Vorteil ggü. AMD Overlay? Ich verwende schon lange nur noch das von AMD, weniger externe Software die rein grätschen kann.
Das tolle AMD Overlay hat hier Ruckler mit FG und Frame Time Graphen gemacht, anders als RTSS. Schon wieder eine reife Leistung von AMD, wenn ihre eigene Software nicht richtig mit ihrer eigenen Software funktioniert.
Mal abgesehen davon, dass das Feature Set von RTSS um Magnituden größer ist. Der fehlende HDR-Support ist natürlich unschön, aber kann man sich mit arrangieren.
redpanther
2024-09-08, 16:00:33
Und danke für den Tipp mit der Deckkraft. Mit 85% Deckkraft überall finde ich das AB-Overlay nun sehr angenehm in HDR. Dann muss man wohl wirklich hier mit zwei verschiedenen Profilen für SDR und HDR arbeiten. :freak: Schade, dass HDR Overlays einfach nicht ignoriert. :tongue:
Ich habe immer HDR an, auch auf dem Desktop. Warum sollte man sich mit zwei Profilen belasten? Vielleicht ist es bei bestimmten Anwendungen besser, Bildbearbeitung? Sonst aber?
Man kann die SDR Helligkeit ja in den Windows Settings beliebig runter regeln.
Mit meinem VA LCD vorher, war der Desktop in HDR nicht schön. Da habe ich auch immer umgeschaltet. Bzw fast immer SDR genutzt, da das HDR dort lange nicht so toll aussah.
Mit dem OLED aber aber sieht es lustiger weise immer gut aus.
dargo
2024-09-08, 16:04:57
Ich habe immer HDR an, auch auf dem Desktop. Warum sollte man sich mit zwei Profilen belasten? Vielleicht ist es bei bestimmten Anwendungen besser, Bildbearbeitung? Sonst aber?
Schon alleine am Desktop sehen die Farben falsch mit HDR On aus. Außerdem säuft die Graka in Idle mit HDR mehr. Dafür musst du natürlich entsprechende Frequenzen fahren. Bei nur 120Hz @1440p ist auch mit HDR beim Stromverbrauch noch alles in Ordnung. Bei 240Hz aufwärts nicht mehr.
aufkrawall
2024-09-08, 16:10:07
Bist du noch auf Windows 10? Bei Windows 11 soll es mit HDR auch auf dem Desktop größere Verbesserungen gegeben haben (welche genau auch immer).
Ansonsten scheint es auch arg vom Display abzuhängen, wie etwa das Gamma für SDR-Inhalte im HDR-Modus aussieht. Beim Asus PG32UCDP sah mit den ersten Firmware der HDR 400-Modus inkl. Desktop noch komisch blass aus, mittlerweile nicht mehr.
dargo
2024-09-08, 16:11:18
Bist du noch auf Windows 10?
Jepp. :)
Tesseract
2024-09-08, 16:50:33
wenn am desktop HDR aus ist funktioniert es halt auch in den diversen videoplayern nicht.
aufkrawall
2024-09-08, 16:53:18
wenn am desktop HDR aus ist funktioniert es halt auch in den diversen videoplayern nicht.
Funktioniert es dann überhaupt in Spielen, die die Windows-API nutzen? Ältere Spiele nutzen ja noch die herstellerexklusiven HDR-APIs.
Mit Win 11 und OLED sollte es jedenfalls gar nicht mehr nötig sein, ständig händisch HDR in Windows zu toggeln.
dargo
2024-09-08, 17:02:23
Das tolle AMD Overlay hat hier Ruckler mit FG und Frame Time Graphen gemacht, anders als RTSS. Schon wieder eine reife Leistung von AMD, wenn ihre eigene Software nicht richtig mit ihrer eigenen Software funktioniert.
Also bei mir ist alles sauber mit dem AMD-Overlay, genauso wie mit dem AB-Overlay. Vielleicht bleibe ich doch lieber noch bei Win10 wenn ich so manche Probleme bei dir lese. :tongue:
btw.
Ich habe mir in GoT jetzt mal 360Hz ohne VRR angeschaut. Das reicht noch nicht damit meine Augen das Mikroruckeln bei Drehungen nicht wahrnehmen können. Es ist aber definitiv weniger ausgeprägt als mit 144Hz ohne VRR. Ob 540Hz ausreichen würden? Schwer zu orakeln. Spätestens aber 1000Hz denke ich schon.
Edit:
Kann mir einer noch einen Tipp geben welches Game ich auf VRR-Flicker untersuchen soll? Ich habe schon einige verschiedene Spiele getestet und nirgenwo bisher VRR-Flicker angetroffen. :freak: Auch weiß ich nicht wo aufkrawall Banding gesehen haben möchte. Beim Eizo-Monitortest sehe ich jedenfalls nichts von Banding mit dem Samsung QD-OLED.
Tesseract
2024-09-08, 17:09:36
Funktioniert es dann überhaupt in Spielen, die die Windows-API nutzen? Ältere Spiele nutzen ja noch die herstellerexklusiven HDR-APIs.
Mit Win 11 und OLED sollte es jedenfalls gar nicht mehr nötig sein, ständig händisch HDR in Windows zu toggeln.
der gamma-unterschied zwischen SDR und HDR-SDR-clamp am desktop ist halt immer noch vorhanden, aus hardwaresicht sollte es eigentlich - anders als auf LCD - keinen grund geben am OLED was anderes als HDR zu verwenden und die helligkeit in software zu regeln.
welche spiele welche API verwenden weiß ich nicht aber mir sind da keine grundlegenden probleme beim umschalten bekannt.
aufkrawall
2024-09-08, 17:16:52
Also bei mir ist alles sauber mit dem AMD-Overlay, genauso wie mit dem AB-Overlay.
Gab die Ruckler auch nur mit Frame Time Graphen, mit nur Zahlen im Overlay nicht. Sowohl das AMD-Overlay als auch RTSS haben dann Mini-Ruckler im Graphen mit FG (+ggf. Vsync) angezeigt, die aber deutlich wahrnehmbar waren. Auch ohne RTSS waren die da, ohne AMD-Graphen nicht. Ansonsten gehe ich immer noch davon aus, dass die Frame Ausgabe bei dir mit Windows 10/RDNA2 und FG mangels HAGS sowieso nicht optimal ist (brauchen wir aber auch nicht wieder zu diskutieren).
der gamma-unterschied zwischen SDR und HDR-SDR-clamp am desktop ist halt immer noch vorhanden
Scheint mit dem Asus und aktueller Firmware aber nicht mehr auszusehen wie die blasse (weil im dunklen Bereich extrem steile) sRGB Gammakurve, sondern eher wie typische 2.2 Kurve. Könnte ich ggf. irgendwann mal mit Kolorimeter überprüfen.
Der Asus hat offenbar durch Firmware-Updates btw. eine blöde Regression erhalten: Der dimmt im HDR-Modus nun ständig durch helle Fenster unterschiedlicher Größe, während das im SDR-Modus bei wesentlich höherer Helligkeit trotzdem nicht der Fall ist...
Auch weiß ich nicht wo aufkrawall Banding gesehen haben möchte. Beim Eizo-Monitortest sehe ich jedenfalls nichts von Banding mit dem Samsung QD-OLED.
Wirf nicht irgendwas durcheinander. Ich hab überhaupt nicht etwas zu irgendwelchen Erfahrungen mit QD-OLED geschrieben.
Btw. weiß ich aus eigener Erfahrung, dass das Problem etwa bei SAMOLED deutlich weniger bis quasi nicht merkbar sein kann. Scheint WOLED härter zu betreffen.
Mit dem Asus gibts aber auch eine FreeSync Premium-Option im Radeon-Treiber, die das Banding im HDR-Modus auf dem Desktop mit SDR-Inhalten reduziert. Da ist man mit Nvidia offenbar im Nachteil.
dargo
2024-09-08, 17:24:23
Wirf nicht irgendwas durcheinander. Ich hab überhaupt nicht etwas zu irgendwelchen Erfahrungen mit QD-OLED geschrieben.
Hmm... verwechsle ich da gerade was? :uponder: Ach... es war ein WOLED von LG oder?
Gab die Ruckler auch nur mit Frame Time Graphen, mit nur Zahlen im Overlay nicht.
Bei mir läuft der Frametime-Graphen immer mit, reine Werte sind auch irgendwie sinnfrei. Egal ob AB oder AMD-Overlay, beides völlig fehlerfrei. :)
btw.
Gerade bin ich ziemlich baff. Habe mit dem Adrenalin 24.8.1 AFMF2 in Forza Horizon 5 probiert. Mal ganz davon abgesehen, das FH5 wieder verdammt umwerfend mit HDR aussieht funktioniert hier schon mal AFMF2 nicht übel. :eek: Selbst Worst Cases mit im Kreis fahren habe ich mir angesehen. Und das ist noch die alte AFMF2 Version mit dem höheren Lag (bei 200+fps ca. 15-16ms FG-Lag). Eins kann ich schon mal definitiv sagen... vergesst 144Hz Bildschirme oder so ein Quatsch bei AFMF2. Da musste ich die Framerate auf 68-70fps limitieren damit das ordentlich funktioniert. Hier mit 240Hz und erst recht mit 360Hz muss gar nichts limitiert werden und schon gar nicht so tief. Ich installiere gleich mal den letzten, überarbeiteten Preview AFMF2 Treiber. Mal sehen wie der sich schlägt.
https://www.amd.com/en/resources/support-articles/release-notes/RN-RAD-WIN-AFMF2-TECH-Preview.html
Lurtz
2024-09-08, 17:30:59
Ich vermute, dass das Problem einfach ist, dass viele Leute die Monitore nicht im sRGB Modus sondern im Standardmodus betreiben. Die Monitore haben dann eine ziemlich hohe Sättigung, da eben ein sehr breiter Farbraum unterstützt wird, erstrecht mit Quantum Dots.
Das was dann ausschlaggebend ist, ist wahrscheinlich Clear Type.
Clear Type nutzt ja die Farbigen Subpixel zur Schriftglättung.
Wenn aber die Sättigung zu hoch bzw. der Farbraum nicht auf sRGB begrenzt ist, dann sind diese Clear Type Subpixel sehr dominant. Schriften zu lesen ist dann sehr unangenehm, da jeder Buschstabe dann einen Farbsaum mit sehr hoher Sättigung hat.
Und die Sättigung die diese Displays erzeugen können ist aber selbst in der Fläche schon irritierend hoch, so dass es teilweise unangenehm ist drauf zuschauen. Wenn dann jeder Pixel mit so kräftigen Farben umrandet wird, ist das natürlich sehr anstrengend.
Für ordentliche Schriftdarstellung halte ich es daher für sehr wichtig, den Monitor im SDR Betrieb auf sRGB zu stellen.
Im HDR Betrieb sollte es egal sein, da hier Windowsseitig ja bereits der Farbraum des Desktops im sRGB Bereich gehalten wird und eine Übersättigung damit normalerweise nicht möglich ist.
Hm, ich kannte damals novideo_srgb noch nicht (oder das gab es damals noch gar nicht), aber ich meine ich habe den sRGB-Modus des Monitors benutzt und das hat es nicht wirklich gebessert.
Ich habe nochmal ein bisschen dazu gelesen, viele meinen aber schon, dass es damit zusammenhängt. Je heller und je stärker der Farbwert, desto mehr leuchtet das Ding halt auch in die Augen. Wenn dann noch Dinge wie schlechtes Coating, suboptimale Textdarstellung dazukommt, wirds für die Augen sicher nicht angenehmer. Den Umstieg von IPS auf OLED am Smartphone fand ich auch gewöhnungsbedürftig. Das finde ich bei zu hoher Helligkeit auch sehr unangenehm.
Da hilft wohl nur praktisches Ausprobieren, aber 27"-Monitore durch die Republik zu schicken ist auch nicht das angenehmste. Wüsste keinen Einzelhändler, bei dem man eine repräsentative Auswahl vernünfig testen könnte.
Ich weiß nur dass es bei dem LG GN 800-B kein Thema ist, egal auf welcher Helligkeit. Der Nano IPS war selbst bei niedriger Helligkeit unerträglich für mich.
aufkrawall
2024-09-08, 17:36:44
Wenn man einen unkalibrierten Monitor gewöhnt ist, ist man mit hoher Wahrscheinlichkeit übersättigte Farben gewöhnt. Selbst wenn der native Farbraum des Monitors viel kleiner als Display-P3 ist, wird er trotzdem größer sein als sRGB/rec709 (kompletten Schrott oder sehr alten Kram ausgenommen), also auch etwas übersättigt ohne Clamp. Dazu kommt dann noch die Gammakurve. Bei Gamma 2.4 sieht es subjektiv auch mit rec709 oft schön gesättigt aus, während die sRGB-Gammakurve unerträglich blass ist (ist sie ja auch auf LCD vs. 2.2 oder selbst BT.1886).
Dann gibts natürlich noch die Möglichkeiten Monitor-Fail und User-Fail. Alles nicht so einfach, wenn man es nicht schon länger kennt und keinen Vergleich zu Geräten hat, die nachweislich den Soll-Werten nahe kommen.
Wie schon mal erwähnt: Die Werkskalibrierung vom LG (Modell-Name vergessen) war zum Kotzen, vom Asus laut Kolorimeter (und subjektiv) quasi perfekt.
Nano-IPS ist aber auch einfach Augenkrebs. Und mittlerweile halt auch veraltet, gibt vergleichbare Reaktionszeiten bei real >1000:1 Kontrast mit etwa FastIPS. Sieht gegen OLED natürlich trotzdem kacke aus, ist aber erstaunlich schnell für LCD.
dargo
2024-09-08, 18:07:31
Lol... vorher mit dem Adrenalin 24.8.1 bei ~200fps 15-16ms FG-Lag, jetzt mit dem Preview Treiber bei gleichen Frames 6ms FG-Lag.
fondness
2024-09-08, 18:33:21
Das tolle AMD Overlay hat hier Ruckler mit FG und Frame Time Graphen gemacht, anders als RTSS. Schon wieder eine reife Leistung von AMD, wenn ihre eigene Software nicht richtig mit ihrer eigenen Software funktioniert.
Mal abgesehen davon, dass das Feature Set von RTSS um Magnituden größer ist. Der fehlende HDR-Support ist natürlich unschön, aber kann man sich mit arrangieren.
Also bei mir keine Probleme mit dem AMD Overlay, bin zufrieden damit. FG verwende ich öfters, HDR immer. Features geht mir auch nichts ab, aber ich bin womöglich nicht so der pro-User. :)
Lurtz
2024-09-08, 19:55:37
Ist Pixel Shift auf Monitoren mit höherer Auflösung grundsätzlich weniger störend, weil mehr Pixel zum Shiften vorhanden sind? :ugly:
dargo
2024-09-08, 21:25:13
Ja leck mich fett... ich habe mir ein paar HDR-Videos auf dem Samsung G6 QD-OLED angesehen. :eek: :O :massa:
z2Bbm1Jr0mI k7dy1B6bOeM
NNS5Piu-EII DcvvWjExea4
Ich will nie mehr zu dem SDR-Schrott auf einem schrottigen LCD zurück!!! X-D
Slipknot79
2024-09-08, 21:51:15
Für uns als OLED-HDR-User ist das doch schon völlig veraltet. ;)
Aber ja, dennoch immer gerne gesehen. (y)
Dank des 16:9 Formats der Videos im 21:9 Monitor knallt HDR sogar noch etwas mehr, da die beiden schwarzen Bereiche links und rechts vom Video in der ABL-Kalkulation berücksichtigt werden. Das Bild dunkelt weniger stark up dank der "Reserve". (y)
Asaraki
2024-09-08, 21:56:51
Ist Pixel Shift auf Monitoren mit höherer Auflösung grundsätzlich weniger störend, weil mehr Pixel zum Shiften vorhanden sind? :ugly:
Bei höherer Pixeldichte, ja. Hab jetzt schon in mehreren Review zu 27/1440 gelesen, dass man es dann plötzlich sieht und nicht mehr übersehen kann
Der Shift ist halt entsprechend weniger weit
Aber auch das wird den einen stören und der nächste sieht es nicht :)
Welcome to OLED dargo ^^ enjoy. In ein paar Wochen sind dann leider schlechte Filme einfach wieder schlechte Filme, auch in HDR ^^
dargo
2024-09-08, 22:03:14
Welcome to OLED dargo ^^ enjoy. In ein paar Wochen sind dann leider schlechte Filme einfach wieder schlechte Filme, auch in HDR ^^
Hehe... ich schaue schon seit einigen Jahren keine Filme. ;) Filme langweilen mich. :)
aufkrawall
2024-09-08, 22:07:23
Bei Filmen/Serien gibts leider auch viel Schrott in HDR und man ist froh, wenn man wieder vernünftig gemastertes SDR aus der Vor-HDR-Zeit schaut. Andererseits gibts auch wieder Sachen wie Ozark, wo HDR den ekligen Grauschleier vs. SDR auf quasi wundersame Weise lüftet.
Linmoum
2024-09-08, 22:10:36
Ich will nie mehr zu dem SDR-Schrott auf einem schrottigen LCD zurück!!! X-DJetzt verstehst du wenigstens endlich mal, was viele hier seit längerem meinen und warum auf den gammeligen LCD-Schrott geschimpft wurde (und wird...). :tongue:
fondness
2024-09-08, 22:14:34
Jetzt verstehst du wenigstens endlich mal, was viele hier seit längerem meinen und warum auf den gammeligen LCD-Schrott geschimpft wurde (und wird...). :tongue:
Naja, hdr gibt's auch auf einem LCD.
woodsdog
2024-09-08, 23:06:25
Und nun stellen wir uns vor, dargo würde sich mal ne aktuelle Graka die was kann gönnen, dann wär plötzlich RT und PT der geilste Scheiss. Ende 2024 isser immerhin bei OLED gelandet.
"Ich will nie mehr zu dem non-RT-Schrott zurück!!! Raster kann mich mal!!!"
Hier habt ihrs zuerst gelesen.
<3
Relex
2024-09-08, 23:46:35
Ja leck mich fett... ich habe mir ein paar HDR-Videos auf dem Samsung G6 QD-OLED angesehen. :eek: :O :massa:
https://youtu.be/z2Bbm1Jr0mI https://youtu.be/k7dy1B6bOeM
https://youtu.be/NNS5Piu-EII https://youtu.be/DcvvWjExea4
Ich will nie mehr zu dem SDR-Schrott auf einem schrottigen LCD zurück!!! X-D
Das ist alles irgend ein Auto HDR schrott. Das sieht knallig und beeindruckend aus, ist aber kein ordentlich gemastertes HDR. Viel zu hohe Durchschnittshelligkeit, alles nur auf hohen Kontrast getrimmt, die Highlights sind teilweise völlig falsch gesetzt. Da leuchten Inhalte mit extremer Helligkeit, die gar nicht leuchten sollten. vieles davon sind nur hochskalierte und nachträglich überschärfte FullHD Videos.
Gutes HDR Mastering sieht so aus:
https://youtu.be/apsKR74R_uw?si=1xDfzCyiLcJ2ubxK&t=4433 (dunkle Szene)
https://youtu.be/mHGQD7HfBSk?si=5MP4ubXiMeEW-IYd&t=485 (helle Szene - imo schon nen tick zu hell gemastert, hat trotzdem schöne dynamik range)
https://www.youtube.com/watch?v=gR5aehvgKi4
Durchschnittshelligkeit muss auf SDR level sein.
Es ist völlig okay, wenn es mal ganze Szenen gibt, bei denen die 1000 nits nicht ausgesteuert werden. Bei den Demos Videos strahlt gefühlt in jedem Frame 25% des Displays mit 1000 nits.
Das sollte aber nur genutzt werden, wenn es gebraucht wird, sonst wirds albern.
Das Bild soll realistischer und hochwertiger aussehen mit mehr dynamikumfang und besserer Durchzeichnung, nicht knalliger, heller und bunter.
aufkrawall
2024-09-08, 23:55:34
Bunter mitunter schon, aber halt nicht absurd. rec709 ist ziemlich begrenzt bei gesättigten Grüntönen etc.
dargo
2024-09-09, 06:02:10
@Relex
Da muss ich wieder fragen mit welchen Farbraum du dir diese von mir verlinkten Videos anschaust? Denn mich würde es nicht wundern wenn viele es sich mit dem nativen Farbraum ansehen. Mit "Auto" sieht das hier auf dem G6 absout fantastisch und natürlich aus. Mit "Nativ" sind die Farben völlig überdreht. Dagegen sehen deine verlinkten Videos schon wieder "langweilig" aus. Oder ich muss da wieder von "Auto" auf "Nativ" umstellen. :freak:
Und nun stellen wir uns vor, dargo würde sich mal ne aktuelle Graka die was kann gönnen, dann wär plötzlich RT und PT der geilste Scheiss. Ende 2024 isser immerhin bei OLED gelandet.
Bullshit. Das ändert nichts an meiner Kritik an RT/PT. Ist auch überhaupt nicht vergleichbar mit (QD)OLED + HDR. Da investiere ich 1x etwas mehr und habe auf viele Jahre Ruhe. Wenn ich mir jetzt so einen QD-OLED am Desktop hinstelle darf er um die 10 Jahre bleiben (es sei denn er fällt aus irgendeinem Grund aus, das kann ja bei Elektronik immer mal passieren). Ich wüsste nämlich nicht was man hier noch verbessern könnte. 360Hz sind zumindest für mich vollkommen ausreichend und bei der Bildqualität sind es auch nur noch Nuancen bis man zum Referenzgerät von Sony aufschließt, die man eh nur noch im Direktvergleich erkennt. Mit dem Sony Referenzgerät meine ich das Ding welches Vincent immer zum Vergleich bei seinen Tests nimmt. Wenn mich nicht alles täuscht liegt das "kleine" Ding mit 30" bei ca. 30.000€. Und es mag dich überraschen, aber erst 2024 kamen die ersten brauchbaren high refresh QD-OLEDs für den Desktop und Gaming, der Samsung G6 ist sogar erst seit 3 Monaten in DE gelistet. :rolleyes: Irgendein TV mit 120Hz oder gar 60Hz (lol) ist für mich absolut kein Gerät für den Schreibtisch wo auch ab und zu mal gespielt wird!
btw.
Meine Kritik an RT/PT bezieht sich überhaupt nicht auf die Technik selbst sondern die damit verbundenen hohen Kosten sowohl am Anschaffungspreis als auch Powerbudget! Erst wenn ich volles RT/PT in Games mit geringen Frametimekosten aktivieren kann ist diese Technik für mich marktreif. Und dann bitte im 150 bis max. 250W Powerbudget und Mainstream-Preisbudget und nicht wieder irgendeinem bullshit @600W und 2.000€+. Und nein... irgendein CP77 oder Alan Wake 2 ist für mich auch keine Referenz. Auch das sind nur Sparbrötchen im Bereich RT/PT auf der sehr langen Reise.
Gab es überhaupt früher so einen Hype hier im 3DC um HDR wie aktuell um RT/PT? Bei HDR finde ich den Hype absolut gerechtfertigt, nur irgendwie muss der an mir vorbei gekommen sein.
Naja, hdr gibt's auch auf einem LCD.
Ja... aber mini LED LCDs haben wieder ganz andere Probleme. Ich hatte einen mini LED LCD hier und der hatte mit HDR geflackert. Komplett unbrauchbar und für mich auch völlig unverständlich wie man sowas releasen kann. Und selbst wenn so ein mini LED LCD mit hohen Nits glänzen kann kommt er nicht an den QD-OLED dran, je nach Content. Das kann frühestens erst mit mikro LED funktionieren wenn die LEDs wirklich winzig sind.
Asaraki
2024-09-09, 06:43:45
Relex, Word ^^ aber seit der Invasion von HDR damals auf den DSLRs / lightroom und der entsprechenden Flut auf Photoseiten bin ich abgehärtet
Ist ja in der Musik das gleiche… alles übertrieben
@krawall : naja streng genommen sagt bunt nur etwas aus über die Verschiedenheit der Farben. Bin ich gar nicht sicher ob das „bunter“ wird ^^ aber umgangssprachlich auf jeden Fall korrekt
ChaosTM
2024-09-09, 06:44:32
Die ersten paar Tage/Wochen mit OLED sind schon was besonderes - genieße es.
Wird leider zu schnell zur Normalität.
dargo
2024-09-09, 06:47:55
Die ersten paar Tage/Wochen mit OLED sind schon was besonderes - genieße es.
Wird leider zu schnell zur Normalität.
Wieso leider? :tongue:
Edit:
Bezüglich Helligkeit beim QD-OLED von Samsung kann ich absolute Entwarnung geben. Das Ding ist hell ohne Ende. Aktuell ist es draußen relativ stark bewölkt, im Zimmer leuchten an der Decke drei LEDs mit je 470 Lumen und ich bin bei SDR am Desktop bei 20 von 50 bei der Helligkeit. Und selbst das ist sehr hell. Bei HDR gehe ich mit der Helligkeit auf 18 von 50 runter. Und auch hier muss ich noch paar Tage mehr testen, ob das nicht auch noch etwas zu hell ist.
Grindcore
2024-09-09, 07:29:48
Wie stark ist eigentlich der Performanceverlust so im Durchschnitt mit aktiviertem HDR?
ChaosTM
2024-09-09, 07:51:09
Hier ein sehr oberflächlicher Test mit ein paar Spielen.
Cxmd0cPsQG4
add: der Verlust hält sich hier sehr in Grenzen.
Hab das selbst nur bei CP77 ausprobiert und da gibt es praktisch keinen Unter5schied
dargo
2024-09-09, 07:52:17
Wie stark ist eigentlich der Performanceverlust so im Durchschnitt mit aktiviertem HDR?
Mit der RX 6800XT nichts.
https://www2.pic-upload.de/thumb/37413234/Cyberpunk2077_2024.09.09-07.44.png (https://www.pic-upload.de/view-37413234/Cyberpunk2077_2024.09.09-07.44.png.html) https://www2.pic-upload.de/thumb/37413235/Cyberpunk2077_2024.09.09-07.47.png (https://www.pic-upload.de/view-37413235/Cyberpunk2077_2024.09.09-07.47.png.html)
Das blasse Bild ist mit HDR.
ChaosTM
2024-09-09, 08:04:58
Ja, die Menüs sind seltsam blass, aber im Spiel schauts gut aus.
Relex
2024-09-09, 08:18:38
@Relex
Da muss ich wieder fragen mit welchen Farbraum du dir diese von mir verlinkten Videos anschaust? Denn mich würde es nicht wundern wenn viele es sich mit dem nativen Farbraum ansehen. Mit "Auto" sieht das hier auf dem G6 absout fantastisch und natürlich aus. Mit "Nativ" sind die Farben völlig überdreht. Dagegen sehen deine verlinkten Videos schon wieder "langweilig" aus. Oder ich muss da wieder von "Auto" auf "Nativ" umstellen.
Keine Sorge, ich hab hier zusätzlich ein iPhone 12 Pro und meinen LG OLED als vergleich. Sieht auf allen drei Geräten gleich aus.
Außerdem sind wie gesagt, ja auch die Highlights teilweise völlig falsch gesetzt.
Bzgl. helligkeit unter HDR. Eigentlich sollte eine Helligkeitseinstellung im Monitor hier keine Auswirkung haben, falls es keine Tonemapping Einstellung oder eine Einstellung zur Limitierung der Maximalhelligkeit ist. Unter HDR kontrolliert das zugespielte Material die absoluten Helligkeitswerte, weswegen man displayseitig nicht begrenzen sollte.
Anders als bei SDR, wo das Display die Kontrolle haben soll, da dort alles nur relative Helligkeitswerte sind.
EDIT: Wenn du dir dein verlinktes Video hier ansiehst: https://youtu.be/nnUaBOfnuVs?si=eiMFXKh-eIUo0SWq&t=588
Dann sagt er bei 9:48, dass unter HDR der Farbraum auf Nativ stehen muss, weil Auto und Normal den Farbraum deutlich einschränken.
(Im Grafiktreiber hast du 10 Bit Farbe eingestellt?)
Und ja, ich seh gerade dass der Samsung extrem viele Settings unter HDR erlaubt. Das mag grundsätzlich nicht schlecht sein, erschwert es aber natürlich auch, ein unverfälschtes Bild zu bekommen. Und der Monitor sollte sich natürlich die Settings merken, je nachdem ob du SDR oder HDR zuspielst.
Ach ja, mach doch mal einen Test am Windows Desktop.
Such dir irgend ein Testbild mit vielen Farben und schau welchen Farbraum du unter HDR einstellen musst, damit die Farben identisch zum SDR Modus mit sRGB clamp aussehen. Wenn du mit WIN+ALT+B HDR an und abschaltest sollte (mit SDR Gamma 2.2) so gut wie kein Unterschied mehr sichtbar sein. Vorausgesetzt, du hast unter HDR in Windows die Desktophelligkeit richtig angeglichen (irgendwas zwischen 7 und 15 sollte normalerweise passen). Aber bei der Sättigung solltest du auf jeden Fall absolut gar keinen Unterschied sehen können.
Wenn das unter HDR mit den Auto und Normal settings tatsächlich blasser als sRGB SDR aussieht, dann sollte es mit Nativ richtig aussehen und dann hättest du auch für dich selbst die Bestätigung, dass Nativ korrekt ist.
Kann aber natürlich auch sein, dass du am Windows Desktop gar keinen Unterschied siehst, weil die drei Modi nur am oberen Ende des HDR Farbspektrums was begrenzen. So stark wie sich das Bild im Video ändert, bezweifle ich das aber.
Ich würde das an deiner Stelle aber zumindest mal prüfen.
Grindcore
2024-09-09, 09:47:48
@ChaosTM: Danke Dir, gut zu wissen.
The_Invisible
2024-09-09, 09:54:23
Und nun stellen wir uns vor, dargo würde sich mal ne aktuelle Graka die was kann gönnen, dann wär plötzlich RT und PT der geilste Scheiss. Ende 2024 isser immerhin bei OLED gelandet.
"Ich will nie mehr zu dem non-RT-Schrott zurück!!! Raster kann mich mal!!!"
Hier habt ihrs zuerst gelesen.
<3
Tja dargo halt, nur wenn er es selbst hat ist es geil und sonst Murks :D
Nächste Stufe wäre dann 4k weil das sieht nochmal eine Ecke geiler aus.
redpanther
2024-09-09, 10:07:27
Naja, hdr gibt's auch auf einem LCD.
Ja, die protzen meist mit Helligkeit, weil das deren Stärke ist.
Vermutlich ist das in Szenen wie einer Wüste zu Mittag ein Vorteil,
aber sonst eher nicht. Und wie oft kommen solche Szenen vor?
IMHO ist der Kontrast viel wichtiger als die Absolute Spitzen Helligkeit.
Und das ist eben bei selbst leuchtenden Pixeln unendlich besser als bei LCD.
Die meisten Spiele sind doch eher dunkel, und gerade da kann dann OLED seien Stärken ausspielen.
Umso trauriger das anno 2024 immer noch spiele Raus kommen, die kein HDR nativ unterstützen (WH4 SM2 als aktuelles Beispiel)
Würde mich echt interessieren, was die da an Aufwand gespart haben?
Mein Vorgänger VA LCD Schirm war heller als mein OLED jetzt, aber das HDR bestenfalls nett.
OK, der hatte kein gutes Local dimming, was erschwerend hinzu kommt.
Tja dargo halt, nur wenn er es selbst hat ist es geil und sonst Murks :D
Naja, im Prinzip hat er ja recht mit seinen Argumenten. Nur macht das RT/PT nicht per se schlecht.
Es ist halt (noch) teuer.
Gerade mit OLED HDR ist aber zb CP77 schon sehr toll anzuschauen.
Man muss da aber etwas twaken/modden, zb mit RenoDX oder wie das heisst.
dargo
2024-09-09, 10:25:00
Tja dargo halt, nur wenn er es selbst hat ist es geil und sonst Murks :D
Junge... werde endlich mal erwachsen! Ich hatte dir schon mehrmals gesagt, dass ich Gaming als Ganzes sehe und nicht nur für die FDP-Wähler wenn du verstehst was ich meine. Mal ganz davon ab, dass es bei einem Monitor nicht nur ums Gaming geht. Zumindest in meinem Fall.
fondness
2024-09-09, 10:45:51
Ja, die protzen meist mit Helligkeit, weil das deren Stärke ist.
Vermutlich ist das in Szenen wie einer Wüste zu Mittag ein Vorteil,
aber sonst eher nicht. Und wie oft kommen solche Szenen vor?
IMHO ist der Kontrast viel wichtiger als die Absolute Spitzen Helligkeit.
Und das ist eben bei selbst leuchtenden Pixeln unendlich besser als bei LCD.
Die meisten Spiele sind doch eher dunkel, und gerade da kann dann OLED seien Stärken ausspielen.
Umso trauriger das anno 2024 immer noch spiele Raus kommen, die kein HDR nativ unterstützen (WH4 SM2 als aktuelles Beispiel)
Würde mich echt interessieren, was die da an Aufwand gespart haben?
Mein Vorgänger VA LCD Schirm war heller als mein OLED jetzt, aber das HDR bestenfalls nett.
OK, der hatte kein gutes Local dimming, was erschwerend hinzu kommt.
Ich habe eine IPS LCD. Ich habe natürlich keinen Vergleich mit OLED, aber wie du schon sagst gerade Sonnenaufgänge bzw. alles wo viel Helligkeit gefordert ist sieht absolut unglaublich aus mit HDR. Hatte damals einen ähnlichen Aha-Effekt wie dargo gerade. Bei dunklen Szenen bist du mit OLED sicher im Vorteil ja, muss ich mir mal im Vergleich ansehen.
Relex
2024-09-09, 11:12:34
Gibt nur kaum Material, wo in der Fläche viel Helligkeit gefordert wird. (Außer vielleicht irgendwelche Demo Videos, wo alle Regler auf 11/10 stehen)
Selbst bei nem Sonnenuntergang würde man nur die Sonne mit 1000+ nits strahlen lassen, den Himmel vielleicht mit 300-400 und den Rest VIEL dunkler.
In die meisten Filmen hast du ne durchschnittshelligkeit von weit unter 50 nits. Gibt auch oft sehr helle Szenen wo es im Peak (!) nicht über 400-500 nits geht.
Wie ich schon oft sagte die HDR helligkeit auszunutzen ist eine Möglichkeit, die sinnvoll und sparsam eingesetzt werden sollte, ähnlich wie der Tiefbass im Heimkino. Es ist völlig normal und richtig, dass man nicht ständig das volle HDR Spektrum ausnutzt.
Bei SDR war das natürlich was anderes. Da hat man sehr häufig das gesamte Spektrum ausgenutzt, egal ob helle oder dunkle Szene, weil sonst einfach kein Kontrast da ist. Bei HDR muss man umdenken.
EDIT: Ich lass später mal den HDR Analyse Filter über die Sonnenuntergangsszene aus Hellblade laufen, die ich gestern verlinkt habe. Ist eigentlich das perfekte Beispiel.
Slipknot79
2024-09-09, 11:41:58
Die ersten paar Tage/Wochen mit OLED sind schon was besonderes - genieße es.
Wird leider zu schnell zur Normalität.
Überhaupt nicht "schnell zur Normalität". Ich sitzt hier immer noch mit nem Steifen wegen dem Schwan... ähm Schwarzwert.
Gestern erst wieder Doom II in raytracing gespielt, top Kontraste, vorallem in dunklen Levelbereichen, gibt immer wieder nen Boner. (y) Davon can man nicht satt werden.
Alleine schon wenn Windows startet und man sieht den drehenden Punktekreis (Sanduhr?) im sonst schwarzen Bild. MOAR! (y)
Wenn man dann noch nen IPS daneben stehen hat, so wie ich, dann ist jeder Zweifel ausgeräumt und die Erinnerung frisch gehalten. (y)
redpanther
2024-09-09, 12:30:55
Ich Sekundiere dies!
Nach knapp 1 Jahr keine Abnutzungserscheinung. Immer wieder mal Freude über ein tolles Bild.
IMHO gibt's speziell beim Gaming nix besseres.
dargo
2024-09-09, 12:52:10
@Relex
Zum Glück lässt sich bei Samsung jeder Pups separat für SDR und HDR einstellen. Das finde ich schon mal super praktisch. Ich kann dir allerdings nicht sagen was jetzt bei HDR richtig ist. Ich kann das nur subjektiv bewerten. In GoT gefällt mir "Nativ" doch besser weil manche Szenen auf mich etwas zu blass wirken. In den HDR-Videos die ich hier verlnkt habe gefällt mir wiederum "Auto" besser. Mit "Nativ" kommt mir das alles too much vor. Dann gibt es beim Samsung noch bei HDR die HDR-Dynamikkompression mit "statisch" und "aktiv". Aktiv hebt die helleren Inhalte auch noch etwas an. Und ja, im Treiber stehen default 10Bit.
Ach ja, mach doch mal einen Test am Windows Desktop.
Such dir irgend ein Testbild mit vielen Farben und schau welchen Farbraum du unter HDR einstellen musst, damit die Farben identisch zum SDR Modus mit sRGB clamp aussehen. Wenn du mit WIN+ALT+B HDR an und abschaltest sollte (mit SDR Gamma 2.2) so gut wie kein Unterschied mehr sichtbar sein. Vorausgesetzt, du hast unter HDR in Windows die Desktophelligkeit richtig angeglichen (irgendwas zwischen 7 und 15 sollte normalerweise passen). Aber bei der Sättigung solltest du auf jeden Fall absolut gar keinen Unterschied sehen können.
Wenn das unter HDR mit den Auto und Normal settings tatsächlich blasser als sRGB SDR aussieht, dann sollte es mit Nativ richtig aussehen und dann hättest du auch für dich selbst die Bestätigung, dass Nativ korrekt ist.
Kann aber natürlich auch sein, dass du am Windows Desktop gar keinen Unterschied siehst, weil die drei Modi nur am oberen Ende des HDR Farbspektrums was begrenzen. So stark wie sich das Bild im Video ändert, bezweifle ich das aber.
Ich würde das an deiner Stelle aber zumindest mal prüfen.
Ich habe das jetzt ausprobiert. SDR Helligkeit mit 20 und HDR Helligkeit mit 15 + nativer Farbraum. Letzteres sieht für meine Augen noch etwas zu übersättigt bei den Farben aus ("Auto" sieht wiederum spürbar blasser aus). SDR gefällt mir in dem Fall besser weil es natürlicher aussieht.
Edit:
Habe glaube den Fehler gefunden.
HDR mit Helligkeit 20 + nativer Farbraum sieht praktisch erst identisch mit SDR + 20 Helligkeit aus wenn die HDR-Dynamikkompression auf "statisch" und nicht "aktiv" steht. Aktiv übersättigt die Farben wieder etwas.
Naja, hdr gibt's auch auf einem LCD.
Nicht wirklich das R in HDR steht für Range, und LCDs fehlt hardwarebedingt die notwendige Range.
Es gibt LCDs mit HDR-Stickern, das heißt noch lange nicht dass sie tatsächlich HDR können.
Relex
2024-09-09, 13:29:55
Deine hier verlinkten Videos sind auch too much, egal auf welchem Gerät ich sie ansehe, das ist einfach Mist. Ich denke Nativ wird wie im Testvideo schon von dem Tester angemerkt, die korrekte Einstellung sein.
Bzgl. Helligkeitsanforderungen hab ich jetzt mal den Analysefilter bei Hellblade II laufen lassen.
Das ist die Szene: https://youtu.be/mHGQD7HfBSk?si=hmGRRbO6OCOnGsCb&t=119
Hab natürlich selber das Spiel getestet und nicht das Video. Hab nur gerade keine Lust, das Video hochzuladen. Die Screenshots sehen in SDR natürlich kaputt aus, weil alle highlights clippen.
Übrigens rechts unten alles was grau ist, liegt im SDR Bereich (bis 100 nits). Alles darüber nutzt den HDR Bereich.
https://i.ibb.co/Z2Wd1Y2/Screenshot-2024-09-09-123542.png (https://ibb.co/wcMyrwc)
Ziemlich helle Szene. Peak 155 nits. AVG 6 (!) nits
https://i.ibb.co/26bbzrW/Screenshot-2024-09-09-123800.png (https://ibb.co/fScc3Wq)
Cutscene. Helle Szene, heller Himmel, Kamera Richtung Sonnenuntergang. Peak 404 nits, AVG 48 nits.
https://i.ibb.co/hBPHj4k/Screenshot-2024-09-09-123926.png (https://ibb.co/GWKkL8X)
Gameplay mit Kamera Richtung Sonnenuntergang.
Peak 635 nits jedoch nur für kleine specular Highlights. Der Himmel erreicht max 400 nits. AVG gerade mal 33 nits.
https://i.ibb.co/bsWJ6dJ/Screenshot-2024-09-09-124033.png (https://ibb.co/HtFdKgd)
Hier Kamera weggedreht in den von der Sonne beleuchteten Bereich. Max ~200 nits (der graph unten updated sich schneller als die Anzeige links oben) avg. 10 nits.
https://i.ibb.co/0Yp0VPg/Screenshot-2024-09-09-124143.png (https://ibb.co/VM0FpX7)
Hier Specular Highlights im Wasser fast 1000 nits. Himmel bleibt bei ca 400 nits. AVG 45 nits. Trotzdem wirkt das Licht sehr hell und gleißend. Man beachte übrigens den Farbraum unten links. Das Licht ist nicht nur hell sondern auch sehr warm und intensiv.
https://i.ibb.co/9qckKdH/Screenshot-2024-09-09-124226.png (https://ibb.co/7GjdM0t)
Wieder entgegengesetzte Richtung. Sonne im Rücken, max. nur noch 158 nits. Avg nur noch 7 nits.
https://i.ibb.co/2WY9TWw/Screenshot-2024-09-09-124314.png (https://ibb.co/tQPG9QS)
Hier praktisch das gleiche.
https://i.ibb.co/YLQ6hxy/Screenshot-2024-09-09-124712.png (https://ibb.co/qrjzpvW)
Cutscene. der Lensflare im Bild geht bis auf 3000 nits hoch (rot sogar 9500). Obwohl die Szene sehr hell wirkt und der halbe Bildschirm Himmel sind es AVG nur 41 nits.
Fazit: Für mich zeigt das, dass selbst in solchen Szenen wo man gegen die Sonne filmt und der ganze Himmel leuchtet, keine sonderlich hohen Helligkeitskapazitäten in der Fläche notwendig sind. HDR fordert immer nur punktuell sehr hohe Helligkeiten. Größere Flächen beschränken sich meist auf max 400-600 nits und betreffen dann auch nur höchstens 10-20% des Bildes, meistens viel weniger.
Heißt, selbst mit in Zukunft sehr viel leistungsstärkeren OLEDs, die 1000 nits vollflächig oder noch viel mehr schaffen, wird sich in den allermeisten Szenen dadurch nichts ändern, wenn man das Mastering nicht komplett über den Haufen wirft und alles viel viel heller macht.
Ist natürlich nicht verkehrt, wenn OLEDs das mittelfristig schaffen, weil man dann jegliches Dimming ausschließen kann. Aber das heiß erwartete Ziel ist es sicher nicht. Auch so viel höhere Spitzenhelligkeiten von 2000 und noch viel mehr Nits sind nicht nötig. Klar, die Szene mit dem Lensflare wäre bei bis zu 10.000 nits natürlich brutal, würde mich echt interessieren, wie das aussehen würde. Aber ihr seht ja selbst, dass über den ganzen Ablauf schon kaum 1000 nits im peak erreicht werden und der durchschnitt eben um einige Größenordnungen niedriger liegt.
Hellblade ist da sogar ziemlich repräsentativ für das was aktuell an HDR BluRays und Content mit Dolby Vision und HDR10(+) auf den Streaming Seiten wie Netflix, Amazon und co angeboten wird. Da ist oft content dabei, der im Peak sogar weit unter 1000 nits für den gesamten Film liegt.
Dieser Helligkeitswahn der so häufig propagiert wird, ist völlig am Ziel vorbei. Der content wird für dunkle Umgebungen gemastert und kein colorist hat das Ziel den Zuschauer mit jeder Szene zu blenden. In dunkler Umgebung reichen bereits punktuell 1000 nits, um so einen Blendeffekt zu erreichen. Also perfekt für das was aktuelle OLEDs leisten können.
An erster Stelle steht bei mir die Bildschirmdiagonale.
Entsprechend ist VR > Beamer > TV > Monitor.
Monitore zum zocken sind für mich nicht mehr attraktiv, da viel zu klein. Ein Beamer ist mir teilweise zu umständlich/sperrig für den Alltag aber mein TV muss schon sein zum zocken.
redpanther
2024-09-09, 13:41:21
Dieser Helligkeitswahn der so häufig propagiert wird, ist völlig am Ziel vorbei. Der content wird für dunkle Umgebungen gemastert und kein colorist hat das Ziel den Zuschauer mit jeder Szene zu blenden. In dunkler Umgebung reichen bereits punktuell 1000 nits, um so einen Blendeffekt zu erreichen. Also perfekt für das was aktuelle OLEDs leisten können.
Naja, aber hör mal. Womit sollen denn die LCD Hersteller denn sonst werben?:wink:
Relex
2024-09-09, 13:50:45
An erster Stelle steht bei mir die Bildschirmdiagonale.
Entsprechend ist VR > Beamer > TV > Monitor.
Monitore zum zocken sind für mich nicht mehr attraktiv, da viel zu klein. Ein Beamer ist mir teilweise zu umständlich/sperrig für den Alltag aber mein TV muss schon sein zum zocken.
Wie groß ist denn dein TV?
Bei den 31,5 Zoll erreiche ich bei 0,75 m Sitzabstand bereits 50 grad Sichtfeld.
Vorm TV bei 3 Metern Sitzabstand bräuchte ich dafür 120-130 Zoll.
Oder man geht auf 2 Meter ran, dann reichen 85-90 zoll.
Also mit nem Monitor ist es viel einfacher, viel Sichtfeld abzudecken und ein großes Bild zu bekommen. TVs in der notwendigen Größe sind entweder sündhaft teuer oder praktisch unbezahlbar.
redpanther
2024-09-09, 14:30:07
An erster Stelle steht bei mir die Bildschirmdiagonale.
Entsprechend ist VR > Beamer > TV > Monitor.
Monitore zum zocken sind für mich nicht mehr attraktiv, da viel zu klein. Ein Beamer ist mir teilweise zu umständlich/sperrig für den Alltag aber mein TV muss schon sein zum zocken.
Und wie groß ist die Diagonale der Displays in der VR Brille?
Du siehst wohl deutlich, das die Diagonale eines Displays da nicht der einzig entscheidende Faktor ist.
Und wie groß ist die Diagonale der Displays in der VR Brille?
Du siehst wohl deutlich, das die Diagonale eines Displays da nicht der einzig entscheidende Faktor ist.
TV ist 75" und ich sitze 3m entfernt. Im anderen Wohnsitz sind es 50" und ich sitze ca. 1,5m entfernt.
Mit meiner Quest 2 bzw. CV1 habe ich in dem Sinn keine Diagonale weil du 2 Linsen direkt vor deinen Augen hast. Ich meine, die decken ca. 90 Grad Blickwinkel ab. Das ist schon sehr gut und fühlt sich lebendig an.
Bei den TVs ist das Sichtfeld ggf. kleiner als beim Monitor, aber es fühlt sich dennoch besser an, da der Bildschirm einfach gewaltig wirkt. Du kriegst auch mit deinem Handy ein grösseres Sichtfeld hin als mit TV/Monitor aber das macht kein Spass bzw. beeindruckt nicht.
Hinzu kommt, dass ich auch an einem Wohnsitz eben ein 5.1 Sound System noch nutze. Da ist insgesamt die Stimmung und das Erlebnis viel authentischer ist.
Wegen HDR: Das ist kaum zu vergleichen bzw. Geschmackssache. Da sieht jeder Fernseher anders aus. Samsung macht vom Haus aus sehr knallige Farben. Andere Fernseher sind kühler. Muss jeder für sich entscheiden was ihm gefällt. HDR wirkt oft zu kontrastreich und nicht natürlich. HDR ist auch nicht gleich HDR. Gibt statisches und dynamisches HDR.
Für gutes HDR muss der Bildschirm grundsätzlich sehr hell sein. Ich habe mir vor 2 Jahren einen Top Samsung gekauft, der läuft immer mit halber Helligkeit, weil er Abends zu grell ist.
OLED sieht geil aus aber brennt bei PC Nutzung gerne ein bzw. die Farben lassen mit der Zeit einfach nach. Deshalb habe ich mich gegen OLED entschieden am TV.
dargo
2024-09-09, 16:01:41
Den Samsung G8 gibt es jetzt für 999€. :up:
https://www.coolblue.de/produkt/951113/samsung-ls32dg802suxen.html?cmt=c_p%2Cr_geizhals.de&utm_source=geizhals.de&utm_medium=pricecomparison&utm_content=2292
redpanther
2024-09-09, 16:33:33
TV ist 75" und ich sitze 3m entfernt. Im anderen Wohnsitz sind es 50" und ich sitze ca. 1,5m entfernt.
Mit meiner Quest 2 bzw. CV1 habe ich in dem Sinn keine Diagonale weil du 2 Linsen direkt vor deinen Augen hast. Ich meine, die decken ca. 90 Grad Blickwinkel ab. Das ist schon sehr gut und fühlt sich lebendig an.
Bei den TVs ist das Sichtfeld ggf. kleiner als beim Monitor, aber es fühlt sich dennoch besser an, da der Bildschirm einfach gewaltig wirkt. Du kriegst auch mit deinem Handy ein grösseres Sichtfeld hin als mit TV/Monitor aber das macht kein Spass bzw. beeindruckt nicht.
Hinzu kommt, dass ich auch an einem Wohnsitz eben ein 5.1 Sound System noch nutze. Da ist insgesamt die Stimmung und das Erlebnis viel authentischer ist.
Wegen HDR: Das ist kaum zu vergleichen bzw. Geschmackssache. Da sieht jeder Fernseher anders aus. Samsung macht vom Haus aus sehr knallige Farben. Andere Fernseher sind kühler. Muss jeder für sich entscheiden was ihm gefällt. HDR wirkt oft zu kontrastreich und nicht natürlich. HDR ist auch nicht gleich HDR. Gibt statisches und dynamisches HDR.
Für gutes HDR muss der Bildschirm grundsätzlich sehr hell sein. Ich habe mir vor 2 Jahren einen Top Samsung gekauft, der läuft immer mit halber Helligkeit, weil er Abends zu grell ist.
OLED sieht geil aus aber brennt bei PC Nutzung gerne ein bzw. die Farben lassen mit der Zeit einfach nach. Deshalb habe ich mich gegen OLED entschieden am TV.
Nichts hindert dich ein Sound System am PC zu betreiben.
HDR kann man natürlich vergleichen, wenn man die Displays Kalibriert, oder einfach den Modus nimmt, der einer Kalibrierten Darstellung am nächsten kommt.
Wenn dir HDR zu unnatürlich vorkommt ist entweder das Quellmaterial schlecht oder das Display ist falsch eingestellt, oder kann HDR gar nicht korrekt darstellen.
Du erzählst bei der Helligkeit Mumpitz, wie Relex oben ja bereits ausführlich dargestellt hat.
Wenn HDR sehr hell sein MUSS, warum betreibst du denn deinen dann mit halber Helligkeit? Je heller, desto besser, dachte ich??
aceCrasher
2024-09-09, 16:45:10
Den Samsung G8 gibt es jetzt für 999€. :up:
https://www.coolblue.de/produkt/951113/samsung-ls32dg802suxen.html?cmt=c_p%2Cr_geizhals.de&utm_source=geizhals.de&utm_medium=pricecomparison&utm_content=2292
Die Preise purzeln weiter, leider hauptsächlich bei den QD-OLEDs und noch nicht so stark bei den 4K WOLEDs.
Linmoum
2024-09-09, 17:30:20
Das Problem an den ganzen UHD-Dingern mit 240Hz (und WQHD >240Hz) ist, dass das nur mittels DSC möglich ist. Was wiederum heißt, dass man bei Nvidia kein (DL)DSR nutzen kann, weil das in Verbindung mit DSC nicht funktioniert. Und es Monitore gibt, bei denen sich DSC selbst dann nicht ausschalten lässt, wenn man auf niedrigere Refreshrate zurückgeht.
Gut, ist selbstverständlich nicht für jeden relevant, aber auf (DL)DSR will ich persönlich ungern verzichten.
Relex
2024-09-09, 17:33:05
Bei den TVs ist das Sichtfeld ggf. kleiner als beim Monitor, aber es fühlt sich dennoch besser an, da der Bildschirm einfach gewaltig wirkt.
Das mag am Anfang vielleicht so wirken, weil das Teil halt groß ist relativ zu anderen Gegenständen im Raum, aber spätestens wenn man sich mal länger davor setzt und irgend was spielt, merkt man schnell, dass so ein TV bei üblichen Sitzabständen ziemlich klein ist.
Wie gesagt, das FoV ist hier das einzig relevante Maß, weil es das Produkt aus Diagonale und Sitzabstand darstellt.
Ein 200 Zoll TV bringt eben absolut gar nichts, wenn du dann 10 Meter entfernt sitzt. Ist trotzdem wie auf ne Briefmarke zu schauen, obwohl du damit eine ganze Wand füllen kannst... Das ist eben die Krux.
Zum Rest hat redpanther im Grunde schon alles gesagt. Trotzdem mein Senf.
Kalibrierung mit colorimeter halte ich sogar für maßlos überbewertet.
Die meisten aktuellen Displays sind werkskalibiriert und haben nur noch minimale und mit bloßem Auge kaum erkennbare Abweichungen, was ja auch die Reviews bestätigen.
In der Praxis ist es eh irrelevant, ob ein Farbwert minimal in die ein oder andere richtung verschoben ist.
Die Settings die man am Monitor einstellen kann haben einen vielfach höheren Einfluss aufs Bild als jede Kalibrierung. Deswegen ist es für eine korrekte Darstellung ja so wichtig, die richtigen Settings zu finden - idr. jene Settings mit denen kalibriert wurde. Und da geht es eben nicht um Feinjustierung sondern eben um so grundlegende dinge wie den richtigen farbraum zu nutzen oder Tonemapping abzuschalten. Also "eigentlich" recht simpel. Aber leider sind die richtigen settings trotzdem nicht immer so offensichtlich, wie man ja hier im Thread wieder sehen konnte.
Hat man das gemacht, erreicht man recht einfach eine identische Darstellung auf unterschiedlichsten Displays, wie ich ja auf meinem WOLED TV, meinem QD-OLED Monitor und meinem OLED iphone selbst feststelle. (und das obwohl mit dem Standardprofil jeweils noch extreme Unterschiede sichtbar sind)
Wenn HDR also laut deiner Ansicht bei jedem TV anders aussieht, dann nutzt du einfach die falschen Settings.
Mit dynamischen HDR meinst du sicher Formate wie Dolby Vision.
Das sollte aber auch nur das Handling der Highlights beeinflussen.
HDR10 mit statischen metadaten und Dolby Vision sieht zumindest auf meinem LG CX absolut identisch aus, solange (!) das Quellmaterial nicht über 800 nits hat (= max. Helligkeit beim CX).
Bei über 800 nits kann ich das dynamic tonemapping vom TV eingreifen lassen, welches dann auf das HDR10 Bild appliziert wird, was aber je nach Szene das Bild extrem verändert (mal wird es stark aufgehellt, mal stark verdunkelt) oder eben abgeschaltet lassen.
Dolby Vision hingegen macht hier einen deutlich besseren Job und versucht stets das Bild originalgetreu darzustellen und dabei eben nicht die Mitten und dunklen stellen zu verfälschen bzw. aufzuhellen oder abzudunkeln, nur weil mal irgendwas mit über 1000 nits im Bild ist, was der TV nicht nativ darstellen kann.
Auf OLEDs sehe ich da keine nennenswerten Probleme. Solange man die Maximalhelligkeit z.B. in einem Spiel regeln kann oder das Spiel nicht ständig absurd hohe Helligkeit fährt lässt man am Display sowieso jegliches Tonemapping soweit es geht abgeschaltet bzw. nutzt HGIG.
Filme und Serien liegen hingegen fast immer in Dolby Vision vor, was einen exzellenten Job macht. Für den meisten Content muss Dolby Vision aber eh kaum eingreifen und daher auch kein tonemapping betreiben, weil es nur relativ wenig content gibt, der höhere Helligkeit nutzt, als die meisten Displays nativ verarbeiten können.
Das größte Problem sind mMn. LCDs. Prinzipbedingt sind LCDs mit HDR massivst im Nachteil, da die Helligkeit stark vom Backlight abhängig ist und nicht vom Dynamikumfang eines jedes einzelnen Pixel. Verfälschungen sind da unvermeidlich, da man ja schon tief in die Trickkiste greifen muss, um überhaupt erst sowas wie HDR darstellen zu können, selbst ohne tonemapping ist also immer ein Alogrithmus am werkeln der das Backlight bzw. die Mini LEDs steuert, das gelingt je nach Bild mal mehr mal weniger gut. An irgend welchen Stellen müssen immer Kompromisse eingegangen werden. Wenn ein harter Kontrastübergang genau auf einer LED liegt, dann wird der dunkle Teil entweder zu hell dargestellt oder der helle teil zu dunkel. Da hängt also alles vom Backlight Algo ab, der aber am Ende sowieso immer was falsch machen muss und daher je nach Hersteller ganz anders funktionieren kann.
Lurtz
2024-09-09, 17:40:03
Das Problem an den ganzen UHD-Dingern mit 240Hz (und WQHD >240Hz) ist, dass das nur mittels DSC möglich ist. Was wiederum heißt, dass man bei Nvidia kein (DL)DSR nutzen kann, weil das in Verbindung mit DSC nicht funktioniert. Und es Monitore gibt, bei denen sich DSC selbst dann nicht ausschalten lässt, wenn man auf niedrigere Refreshrate zurückgeht.
Gut, ist selbstverständlich nicht für jeden relevant, aber auf (DL)DSR will ich persönlich ungern verzichten.
Wäre an nVidia, was zu ändern. DSC ist an sich ja durchaus sinnvoll und dürfte bei den immer weiter benötigten Bandbreiten und den immer problematischeren Kabeln so schnell auch nicht mehr weggehen.
fondness
2024-09-09, 17:40:30
Das Problem an den ganzen UHD-Dingern mit 240Hz (und WQHD >240Hz) ist, dass das nur mittels DSC möglich ist. Was wiederum heißt, dass man bei Nvidia kein (DL)DSR nutzen kann, weil das in Verbindung mit DSC nicht funktioniert. Und es Monitore gibt, bei denen sich DSC selbst dann nicht ausschalten lässt, wenn man auf niedrigere Refreshrate zurückgeht.
Gut, ist selbstverständlich nicht für jeden relevant, aber auf (DL)DSR will ich persönlich ungern verzichten.
Mit DP2.1 und AMD Karte ist das auch ohne DSC möglich.
aufkrawall
2024-09-09, 17:41:42
Bei AMD gibts eh keinen Unterschied, ob mit oder ohne DSC.
Relex
2024-09-09, 17:53:16
Mit DP2.1 und AMD Karte ist das auch ohne DSC möglich.
Die aktuellen AMD Karten unterstützen nur UHBR 13.5. (54 Gbit/s)
Damit sind keine 4K mit 240 Hz ohne DSC möglich.
Wobei ich weiterhin der Meinung bin, dass DSC einfach nicht sichtbar ist und daher im Bezug auf Bildqualität absolut kein Nachteil ist.
Die Diskussion darüber ist mMn. verschwendete Lebenszeit.
Die Einschränkungen seitens Nvidia sind natürlich da, aber für mich ist z.B. nichts davon von Relevanz. Das muss dann jeder selbst entscheiden.
Linmoum
2024-09-09, 18:08:41
Mit DP2.1 und AMD Karte ist das auch ohne DSC möglich.Nur haben diese Monitore trotzdem alle nur DP1.4(a) oder HDMI 2.1. Geizhals spuckt mir einen Gigabyte aus, bei dem das nicht der Fall ist. Wahnsinn.
Ich habe meine Zweifel, ob sich wirklich alle TVs einheitlich kalibrieren lassen. M.E. ist das ein Grund für die Preisunterschiede, dass nicht alle gleichermaßen die Farben und Helligkeit darstellen. Meine Erfahrung ist auch, dass höherwertige TVs heller sind und eben dadurch auch meist bessere HDR Bilder erzeugen (sollen). Wie sehr das man persönlich merkt, sei mal dahingestellt, aber in bestimmten Szenen merkt man es sicherlich und deshalb wird für HDR auch eine hohe Helligkeit überall empfohlen.
Zur Info: Ich habe mir (vor glaube ich 3 Jahren) den geholt in 75" https://www.tvfindr.com/de/samsung-qn90a-neo-qled/
War im non-OLED Bereich sicherlich high-end und für heutige Maßstäbe auch nicht schlecht. Da hat man mir zu dem Zeitpunkt auch gesagt, dass OLEDs gerne einbrennen im PC Betrieb und das haben mir Verkäufer und Recherchen bestätigt, zumal die Farben ausbleichen mit der Zeit bei OLED. Ob das heute noch immer so ist, weiss ich nicht, damals definitiv. Ich wollte den Fernseher langfristig nutzen und ein konstantes Bild haben. Deshalb habe ich mich bewusst gegen OLED entschieden.
Ich habe die Helligkeit deshalb runtergeregelt, weil mir die Automatik eher zu Dunkel war und bei maximaler Helligkeit ist er mir einfach zu hell gewesen am Abend. Das hat auch der Besuch moniert. Der TV macht 1860 Nits, was nicht so wenig ist in einem dunklen Zimmer bei wechselnden Szenen.
Ist auch egal, HDR kann man ruhig aktivieren. Ob es einem gefällt oder unnatürlich wirkt, mag jeder für sich entscheiden. Mir kommt der Kontrast manchmal zu stark vor, manchmal sieht es toll aus.
Mein FOV könnte grösser sein, stimmt, und beim anstehenden Umzug will ich da auch entgegen steuern und den Abstand verkleinern. Ich bleibe aber dabei: Anstatt Monitor würde ich dann notfalls noch eher auf einen Beamer setzen. Wenn man das mal genutzt hat, sind das Welten zum Monitor. VR ist sowieso nochmal besser. Ich habe noch nie eine solche "Panik" bei Horror Shootern erlebt wie mit der VR Brille.
Der Monitor hat m.E. noch einen Nachteil Es wird schwer sein ein 5.1 System aufzubauen. Das System funktioniert gut, wenn die Lautsprecher mehrere Meter voneinander entfernt sind, was in den meisten Zimmern mit Monitor und Schreibtisch schwer umzusetzen ist. Mit meinem Setup habe ich ein echtes Heim-Kino Erlebnis. Mit Headset am Schreibtisch vor dem PC erinnert mich eher an mein damaliges Kinderzimmer - No Offense, aber da geht m.E. wirklich mehr.
dargo
2024-09-09, 18:12:26
Mit DP2.1 und AMD Karte ist das auch ohne DSC möglich.
Afaik geht DP2.1 mit vollem Durchsatz aktuell nur mit den Profi Karten. Aber auch ich finde das ganze Thema mit DSC überbewertet. Außer jetzt vielleicht das Thema mit Nvidia und DSR, wers braucht.
Crazy_Chris
2024-09-09, 18:17:48
Zumindest bei meinem LG konnte ich keinen Unterschied zwischen HDMI 2.1 und DP 1.4 + DSC sehen (3440x1440@240Hz). Der einzige Nachteil ist im Moment das ich unter Linux über HDMI nicht die 240Hz erreiche. Das HDMI Konsortium erlaubt wohl AMD nicht HDMI 2.1 in ihre Open-Source Treiber zu integrieren. :hammer:
dargo
2024-09-09, 18:49:02
Die Preise purzeln weiter, leider hauptsächlich bei den QD-OLEDs und noch nicht so stark bei den 4K WOLEDs.
Warum möchtest du gerade einen WOLED?
Slipknot79
2024-09-09, 22:09:22
https://i.ibb.co/YLQ6hxy/Screenshot-2024-09-09-124712.png (https://ibb.co/qrjzpvW)
Cutscene. der Lensflare im Bild geht bis auf 3000 nits hoch (rot sogar 9500). Obwohl die Szene sehr hell wirkt und der halbe Bildschirm Himmel sind es AVG nur 41 nits.
Eigentlich solltest du die 3000 nit mit dem ingame HDR-Regler (falls vorhanden?) begrenzen auf die max nit deines Monitors.
Notfalls mit Lilium, weiß nur nicht ob Lilium das can? Hab bisher immer den ingame Regler benutzt.
Mit meiner Quest 2 bzw. CV1 habe ich in dem Sinn keine Diagonale weil du 2 Linsen direkt vor deinen Augen hast. Ich meine, die decken ca. 90 Grad Blickwinkel ab. Das ist schon sehr gut und fühlt sich lebendig an.
Du hast eine Diagonale, nur eben mit wenigen cm Abstand.
Und dein nächster Satz sagt es eh schon, die Diagonale alleine sagt überhaupt nichts aus, relevant ist der Blickwinkel, und der hängt eben von Diagonale und abstand ab.
Du kriegst auch mit deinem Handy ein grösseres Sichtfeld hin als mit TV/Monitor aber das macht kein Spass bzw. beeindruckt nicht.
Das beeindruckt sogar noch mehr, weil kein TV auch mit OLED an die Qualität eines guten OLED Handybildschirms rankommt.
Es ist eben ziemlich unbequem.
Hinzu kommt, dass ich auch an einem Wohnsitz eben ein 5.1 Sound System noch nutze. Da ist insgesamt die Stimmung und das Erlebnis viel authentischer ist.
Ein guter Kopfhörer ist praktisch immer überlegen, und das bei wesentlich geringerem Preis. Da nützen dir die teuersten Lautsprecher nichts, fast niemand hat ein derart perfektes Wohnzimmer für eine perfekte Soundkulisse.
Wegen HDR: Das ist kaum zu vergleichen bzw. Geschmackssache. Da sieht jeder Fernseher anders aus.
Samsung macht vom Haus aus sehr knallige Farben. Andere Fernseher sind kühler. Muss jeder für sich entscheiden was ihm gefällt.
Fast jeder Fernseher hat einen Filmmaker Modus oder dergleichen, der die Quelle so darstellst, wie der Ersteller will, und auch wenn diese nicht perfekt sind, sind sie doch gut genug um ohne Messgerät kaum einen Unterschied zu sehen.
teezaken
2024-09-09, 22:12:21
Eigentlich solltest du die 3000 nit mit dem ingame HDR-Regler (falls vorhanden?) begrenzen auf die max nit deines Monitors.
Notfalls mit Lilium, weiß nur nicht ob Lilium das can? Hab bisher immer den ingame Regler benutzt.
Ja, mit Lilium geht das begrenzen, ich nutze das sehr gerne in Spielen wo ansonsten immer auf 10000 Nits fest sind, sowas wie Uncharted, TLOU, etc..
Relex
2024-09-09, 22:28:03
Eigentlich solltest du die 3000 nit mit dem ingame HDR-Regler (falls vorhanden?) begrenzen auf die max nit deines Monitors.
Notfalls mit Lilium, weiß nur nicht ob Lilium das can? Hab bisher immer den ingame Regler benutzt.
Das Spiel hat keinen HDR Regler. Es gibt zwar ne Einstellung mit der man die mittleren Töne leicht heller oder dunkler machen kann, das hat aber kaum einfluss, vor allem nicht auf die Maximalhelligkeit.
Solange das Spiel kaum 1000 nits nutzt sehe ich aber auch keinen Bedarf. Der Monitor clipt bei 1000 nits mit leichtem roll-off an der Spitze. Das passt eigentlich. Die stelle mit dem hellen Lens Flare sieht dadurch auch absolut sauber aus.
Was macht der Illium Filter? Hab das in der Form noch nicht getestet, vermute aber, dass der auch nichts anderes macht? Soll heißen macht der filter clipping und schneidet alles über z.B. 1000 Nits ab oder versucht er sich an einem Tonemapping um die Details bei >1000 nits zu erhalten?
Ansonsten bin ich natürlich bei dir. Wenn die Möglichkeit besteht, muss man die Maximalhelligkeit ingame auf den vom Display unterstützten Wert begrenzen. Weil dann das Tonemapping direkt von Seiten der Spielengine optimal gerendert wird. Das ist mir natürlich bewusst.
teezaken
2024-09-09, 22:41:35
Das Spiel hat keinen HDR Regler. Es gibt zwar ne Einstellung mit der man die mittleren Töne leicht heller oder dunkler machen kann, das hat aber kaum einfluss, vor allem nicht auf die Maximalhelligkeit.
Solange das Spiel kaum 1000 nits nutzt sehe ich aber auch keinen Bedarf. Der Monitor clipt bei 1000 nits mit leichtem roll-off an der Spitze. Das passt eigentlich. Die stelle mit dem hellen Lens Flare sieht dadurch auch absolut sauber aus.
Was macht der Illium Filter? Hab das in der Form noch nicht getestet, vermute aber, dass der auch nichts anderes macht? Soll heißen macht der filter clipping und schneidet alles über z.B. 1000 Nits ab oder versucht er sich an einem Tonemapping um die Details bei >1000 nits zu erhalten?
Ansonsten bin ich natürlich bei dir. Wenn die Möglichkeit besteht, muss man die Maximalhelligkeit ingame auf den vom Display unterstützten Wert begrenzen. Weil dann das Tonemapping direkt von Seiten der Spielengine optimal gerendert wird. Das ist mir natürlich bewusst.
Die Details die man dazu gewinnt finde ich super in den beiden oben genannten Spielen, auch nutze ich es um herauszufinden wie hoch manche Spiele mit ihren Nits gehen wenn sie z.B. nur einen 0-100 Regler haben statt direkte Nitswerte, so kann man auch diese Spiele genau einstellen.
Dann kann man auch schauen ob der Spieltonemapper besser ist als der Lilium, bis jetzt habe ich mich aber immer für den Spieltonemapper entschieden und Lilium nur zum begrenzen genutzt bei Sonderfällen wie oben, oder aber wie gesagt um Spiele genau auf den Monitor einzustellen.
Slipknot79
2024-09-09, 22:48:03
Was macht der Illium Filter? Hab das in der Form noch nicht getestet, vermute aber, dass der auch nichts anderes macht? Soll heißen macht der filter clipping und schneidet alles über z.B. 1000 Nits ab oder versucht er sich an einem Tonemapping um die Details bei >1000 nits zu erhalten?
Nein, der capt nicht einfach primitiv, sondern tonemaped das Ganze. Der entsprechende Lilium Filter heißt auch tone mapping. Hab mir das gerade angeschaut. (y)
und Lilium nur zum begrenzen genutzt bei Sonderfällen wie oben,
Gefühlt ist Lilium nicht mal ein Sonderfall, wenn man sich die ständigen rised black levels in vielen HDR Spielen anschaut. :mad: Da wird Lilium zum Regelfall. (y)
Sardaukar.nsn
2024-09-09, 23:03:17
Gamechanger Monitor am unteren Ende der Fahnenstange?
Xiaomi hat dieses Jahr weltweit einen 34 Zoll (3440x1440, 180Hz) Ultrawide Gaming Monitor auf die Märkte (inkl. USA) gebracht. Interessant sind die wohl sehr hohe Stückzahl und damit der günstige Preis. Walmart aktuell bei 250$ und hier ab 270€ (https://www.idealo.de/preisvergleich/OffersOfProduct/204428058_-g34wqi-xiaomi.html)
bwXZgdvL0rw
Totaler Crap, oder viel Gaming Monitor fürs Geld?
aufkrawall
2024-09-10, 01:06:50
Sehe nicht, was vs. 1440p 144Hz+ IPS-Geräte für ~200€ bei so einer VA-Gurke in 21:9 für etwas mehr Kohle besonders kompetitiv wäre. Gab schon immer Ramsch-Geräte mit VA. Dabei wirds aber nicht bleiben, wenn der LCD-Gaming-Markt innerhalb der nächsten drei Jahre vermutlich ziemlich zusammenbrechen wird.
Tobalt
2024-09-10, 06:16:15
Der Monitor ist in so ziemlich allem durchschnittlich mit einem leicht unterdurchschnittlichen Preis. Wird dem Thread damit eher nicht gerechnet..
Ich frage mich wie in 2024 der Schock des G7 Odyssee wahrgenommen werden würde, wenn 90% der Enthusiasten schon OLED hatten
Sardaukar.nsn
2024-09-10, 06:43:24
Die Frage ist ob dieses Format der neue Einstiegspunkt, am unteren Ende der Skala ist. Auch von der Auflösung.
Wer kauft denn noch neu 1080p? Ich habe mal nachgeschaut, 27" 1440p G-Sync hatte ich 2016 als Dell https://www.pcgameshardware.de/Monitor-Display-Hardware-154105/Tests/Dell-S2716DG-G-Sync-Test-1181737/ Muss zu Zeiten von Witcher 3 und 1080ti gewesen sein.
Tobalt
2024-09-10, 07:24:44
1440p ja, 21:9 nein.
dargo
2024-09-10, 08:50:18
Nach 3 Tagen macht sich bei mir langsam eine kleine Ernüchterung mit dem QD-OLED breit. Ich weiß nicht genau woran es liegt. Denn Samstag und Sonntag habe ich viel Zeit mit dem Bildschirm verbracht. Das Problem ist meine Augen brennen etwas. Jetzt stelle ich mir die Frage... liegt es daran, dass sich meine Augen an den QD-OLED erst gewöhnen müssen? Liegt es an viel Gaming mit HDR? Oder ist hauptsächlich das suboptimale Subpixel Layout dafür verantwortlich? Ich merke auch manchmal, dass das lesen von Text für meine Augen doch leicht anstrengend ist, komischerweise nicht immer. Aber wenn es etwas anstrengender wird dann fühlt sich das so an als wenn meine Augen ständig versuchen den Text scharf zu stellen und es nicht ganz klappt. Den LCD habe ich noch nicht daneben stehen für einen Direktvergleich, kam noch nicht dazu. Ich tendiere aber doch lieber auf 4k und 32" später zu gehen. Hauptsächlich wegen der höheren PPI von 139-140 was laut diversen Reviews die Textklarheit spürbar verbessern soll. Bringt ja nichts wenn die Augen ständig ermüden. Eigentlich schade weil der Rest absolut überzeugt.
btw.
Mittlerweile bin ich bei Helligkeit 18 von 50 weil mir 20 auf Dauer immer noch etwas zu hell vorkommt.
redpanther
2024-09-10, 09:06:13
Nach 3 Tagen macht sich bei mir langsam eine kleine Ernüchterung mit dem QD-OLED breit. Ich weiß nicht genau woran es liegt. Denn Samstag und Sonntag habe ich viel Zeit mit dem Bildschirm verbracht.
Vielleicht war es einfach zu viel Zeit vor dem/einem Bildschirm?
Wenn du selbst zu viel Gaming vermutest, kann es ja eher nicht am der Textschärfe liegen, oder?
Hast du eigentlich schon MacType probiert?
https://www.reddit.com/r/OLED_Gaming/comments/t30fi7/better_text_rendering_for_oled_displays_getting/
Asaraki
2024-09-10, 09:16:22
Na weil es auch nur ein Gegenstand ist und er stellt halt Dinge dar, ne. Das war’s dann auch schon ^^
Ich code auch lieber an melnem Game auf dem alten VA Panel als auf meinem Oled meinem Job nachzugehen :D
Ein guter Kopfhörer ist praktisch immer überlegen, und das bei wesentlich geringerem Preis. Da nützen dir die teuersten Lautsprecher nichts, fast niemand hat ein derart perfektes Wohnzimmer für eine perfekte Soundkulisse.
Bei was überlegen???
Bei Shootern mag das sein, wenn es um die Ortung geht. Vom Sound selbst sind Lautsprecher natürlich x-mal besser als ein Headset. Das fängt schon beim kraftvollen Bass an.
Ich habe das Setup Monitor und Headset auch schon gehabt. Muss nicht mehr sein.
Jetzt stelle ich mir die Frage... liegt es daran, dass sich meine Augen an den QD-OLED erst gewöhnen müssen? Liegt es an viel Gaming mit HDR? Oder ist hauptsächlich das suboptimale Subpixel Layout dafür verantwortlich?
Das liegt ganz einfach daran, dass zu zu viel Zeit vorm Bildschirm verbracht hast. Dadurch reduziert sich die "Blinzelfrequenz" was im Endeffekt zu trockenen Augen und den von dir beschriebenen Problemen führ.t
dargo
2024-09-10, 12:16:53
Vielleicht war es einfach zu viel Zeit vor dem/einem Bildschirm?
Ist halt jetzt die Frage. :uponder:
Wenn du selbst zu viel Gaming vermutest, kann es ja eher nicht am der Textschärfe liegen, oder?
Ich würde eher sagen gute Mischung aus viel HDR-Gaming und Text lesen (surfen halt). Zusätzlich noch HDR-Videos.
Hast du eigentlich schon MacType probiert?
https://www.reddit.com/r/OLED_Gaming/comments/t30fi7/better_text_rendering_for_oled_displays_getting/
Ja... hatte ich. Darauf greifen aber nicht alle Applikationen die man unter Windows verwendet. Clear Type unter Windows bringt schon eine leichte Verbesserung, aber imho noch nicht genug um an den LCD dran zu kommen.
fondness
2024-09-10, 12:30:37
Gibt es eine Chance oder Perspektive, dass es auch mal OLED mit "korrektem" Subpixel Layout geben wird?
Klar könnte man das auch einfach wie am Smartphone mit höherer Auflösung erschlagen, aber Auflösung kostet eben.
Asaraki
2024-09-10, 12:43:08
Gibt es eine Chance oder Perspektive, dass es auch mal OLED mit "korrektem" Subpixel Layout geben wird?
Klar könnte man das auch einfach wie am Smartphone mit höherer Auflösung erschlagen, aber Auflösung kostet eben.
Naja für Office kostet es nix, einfach skalieren und gut ist. Ich hab schon 10h+ am OLED gearbeitet ohne jegliche Probleme, ist aber ein grosser 4K und mit entsprechendem Abstand. Und sonst 4K auf max. 30 Zoll und das ist auch noch ok, 27 sieht astrein aus, daran hab ich auch schon länger programmiert
Würde aber fürs Office gerne einen 5k 32 Zoll haben, das wär vermutlich ideal
Viel lesen (specs und so) mache ich aber lieber an einem meiner Monitore (HO setup ist ein OLED 48, IPS 34 und ein VA 27), hat aber weniger mit dem Pixellayout zu tun als mit der weniger belastenden lichtfrequenz (für mich)
OLED und tiefe Auflösung (1440) ist halt ein Kompromiss, aber auch an so einem kann man lange arbeiten, muss man einfach brauchbar einstellen (weniger Kontrast, tiefe Helligkeit).
Aber Dargo meinte ja auch die HDR Videos seien super obwohl imho total überdreht, so geht das bestimmt auf die Augen
Und halt sonst ne Brille mit Filter, nutze ich für nachtsessions @ work wenn ich sowieso müde bin und macht das Bild deutlich angenehmer am OLED
fondness
2024-09-10, 12:47:31
Ich bin 4K @27" LCD gewohnt. Wenn ich mir heute einen 1440p Monitor ansehe sehe ich ein Fliegengitter :ugly:
Aber ich muss das selbst mal testen wie das aussieht mit OLED. Augenweh bei langem Arbeiten zu bekommen ist natürlich ein KO-Kriterium.
Relex
2024-09-10, 13:00:45
Entweder ist es das Subpixellayout oder mattes Coating.
Das Color Fringing ist übrigens auch bei Inhalten sichtbar, die keine Schrift sind.
Das ist einfach der Tatsache geschuldet, dass die Subpixel im Vergleich zu LCD einen größeren Abstand zueinander haben und sich einzelne Subpixel bzw. Subpixelreihen stärker abgrenzen können. An harten Kontrastkanten kann es dann zu fringing kommen.
LCD hätte das Problem auch, aber die Subpixel sind da extrem nahe zusammen und haben zudem weniger Sättigung bzw. nicht so reine Farben.
Aber ob das Fringing ein Problem ist oder nicht, sollte man eigentlich mit dem Auge schon recht eindeutig erkennen können.
Bei 4K auf 32 Zoll sehe ich es bei ca 30 cm Abstand recht deutlich. Auf 75 cm Abstand sehe ich davon aber nichts mehr. Wobei das natürlich von der Sehkraft abhängig ist. Meine ist auf einem Auge <100%.
Wie es bei 1440p aussieht kann ich nicht sagen. Nie getestet. Aber logischerweise wird es ausgeprägter sein.
Und ja, wenn ich näher ran gehe, so dass ich das Fringing sehe und dann Text lese ist das definitiv nicht angenehm, da die Subpixel für den weißen Hintergrund bzw. umgekehrt weiße Schrift ja auch relativ hell leuchten müssen. Und weiß ergibt sich eben bei QD OLED nur aus der Mischung von kräftigem, rot, grün und blau. Erkennt man einzelne Subpixel gesondert, nimmt man es als ziemlich intensive Farbe wahr. Und das ist irritierend.
Für mich war das damals auch einer der Gründe, warum ich mich für das 4K Modell entschieden habe, obwohl ich nicht wusste, ob es für mich ein Problem wäre.
redpanther
2024-09-10, 13:03:41
Gibt es eine Chance oder Perspektive, dass es auch mal OLED mit "korrektem" Subpixel Layout geben wird?
Klar könnte man das auch einfach wie am Smartphone mit höherer Auflösung erschlagen, aber Auflösung kostet eben.
Wie ich es verstanden habe, gibt's kein "Korrektes" Layout per se.
Das Problem ist Windows und ClearType, das nur das Standard LCD Layout kennt.
Das konnte wohl auch mal andere Layouts, habe sie aber irgendwann mal raus gepatcht. :freak:
MacOS kann es wohl korrekt und da gibts deshalb auch kein/weniger Probleme damit.
Bitte korrigiert mich, bin nicht sicher ob ich das alles 100% korrekt wieder gegeben habe. Aber ungefähr so habe ich es mal gelesen.
Asaraki
2024-09-10, 13:20:01
Ich bin 4K @27" LCD gewohnt. Wenn ich mir heute einen 1440p Monitor ansehe sehe ich ein Fliegengitter :ugly:
Aber ich muss das selbst mal testen wie das aussieht mit OLED. Augenweh bei langem Arbeiten zu bekommen ist natürlich ein KO-Kriterium.
Ja Auflösung ist King, da es halt die Textprobleme physisch kaschiert. 1440p ist zum zocken aber ok und für gewisse Programme auch, aber PDFs sind scheusslich ^^ sieht aus wie ne schlechte Fotokopie
Mein 4k@48 füllt dank korrektem Abstand das gleiche Blickfeld wie vorher der 1440@34, einfach halt mit mehr Bild oben und unten. Und da ist der OLED deutlich angenehmer zum lesen als der 1440er vorhin, obwohl der ein sehr angenehmes mattes IPS Panel hat. Da fehlt einfach die Auflösung
@redpanther : Ne das stimmt so. Grundsätzlich sind alle Layouts in irgendeiner Form Imperfekt, das einzig perfekte wären sich überlagernde Pixel oder ein Pixel, das alle Farben alleine schafft
Ist halt Windows ne ^^ da war Bild, Ton und Farbe schon immer ein Buch mir sieben Siegeln. Immerhin muss man heute für Audio nicht mehr auf MacOS, kommt bestimmt auch bei Farbe und Bild in naher Zukunft
Aber das Problem ist, bei brauchbarer Auflösung und Einstellung wirklich kein sehr grosses. Hab jetzt mehrere OLEDs „verkauft“ im Umfeld und alle arbeiten daran ohne ein Problem. Man darf halt auch nicht danach suchen sonst stört es mir Sicherheit.
Ich hab mir so meine eigentlich netten Boxen ruiniert, zu viel A/B/C Vergleiche gemacht bis es mich störte (nach >5 Jahren Nutzung ^^). Jetzt stehen an meinem Studio/Arbeits PC halt die deutlich günstigeren ^^
The_Invisible
2024-09-10, 13:26:29
Gibt es eine Chance oder Perspektive, dass es auch mal OLED mit "korrektem" Subpixel Layout geben wird?
Klar könnte man das auch einfach wie am Smartphone mit höherer Auflösung erschlagen, aber Auflösung kostet eben.
LG Panels mit RGB Layout sind für Ende 2025 geplant, aktuelle Displays mit 4k/32" sollten aber auch nix quffälliges mehr zeigen.
dargo
2024-09-10, 13:28:37
Wie ich es verstanden habe, gibt's kein "Korrektes" Layout per se.
Das Problem ist Windows und ClearType, das nur das Standard LCD Layout kennt.
Das konnte wohl auch mal andere Layouts, habe sie aber irgendwann mal raus gepatcht. :freak:
MacOS kann es wohl korrekt und da gibts deshalb auch kein/weniger Probleme damit.
Bitte korrigiert mich, bin nicht sicher ob ich das alles 100% korrekt wieder gegeben habe. Aber ungefähr so habe ich es mal gelesen.
Afaik ist das korrekt, außer dem Teil mit MacOS vielleicht. Da kenne ich mich nicht mit aus. Aber auf Microsoft hoffen, dass die ein vernünftiges Clear Type für WOLED und QD-OLED bringen da möchte ich mich nicht drauf verlassen. Das kann noch Jahre dauern.
aceCrasher
2024-09-10, 13:35:51
Warum möchtest du gerade einen WOLED?
Wegen dem Displaycoating, ich habe in meinem Raum Lichteinfall auf den Monitor und würde gerne vermeiden dass dadurch das Blacklevel angehoben wird.
https://www.youtube.com/watch?v=rCPBgHkFQCQ&t=8s
In dem Video sieht man es schön (0:08 bis 0:12). Links ist ein Glossy WOLED, in der Mitte ein matter WOLED und rechts ein Semi-Glossy QD-OLED. Der Tint auf dem QD-Oled entsteht, weil diese aufgrund ihrer Bauart keinen Polarizer haben.
fondness
2024-09-10, 13:38:55
Wie ich es verstanden habe, gibt's kein "Korrektes" Layout per se.
Das Problem ist Windows und ClearType, das nur das Standard LCD Layout kennt.
Das konnte wohl auch mal andere Layouts, habe sie aber irgendwann mal raus gepatcht. :freak:
MacOS kann es wohl korrekt und da gibts deshalb auch kein/weniger Probleme damit.
Bitte korrigiert mich, bin nicht sicher ob ich das alles 100% korrekt wieder gegeben habe. Aber ungefähr so habe ich es mal gelesen.
Naja gut RGB gilt aber trotzdem als "ideal" nicht? Klar kann man suboptimale Subpixelanordnungen vielleicht etwas abschwächen mit Techniken wie ClearType, aber eine technische Unzulänglichkeit kann man mit Software nicht fixen.
LG Panels mit RGB Layout sind für Ende 2025 geplant, aktuelle Displays mit 4k/32" sollten aber auch nix quffälliges mehr zeigen.
Thx, die ~1,5 Jahre warte ich auch noch.
Tesseract
2024-09-10, 13:39:30
Mittlerweile bin ich bei Helligkeit 18 von 50 weil mir 20 auf Dauer immer noch etwas zu hell vorkommt.
was ist 18 von 50? ein regler im OSD? mit HDR sollte die displayhelligkeit eigentlich immer auf maximum bzw. default und der rest per software geregelt werden. den HDR-helligkeitsregler in windows habe ich auf 12 von 100, für browsing/text usw. reicht das vollkommen und man hat für videos trotzdem immer die volle HDR-range zur verfügung.
wahrscheinlich hast du unbewusst einfach viel mehr licht (auch in relation zur raumhelligkeit) abbekommen. subjektiv "etwas heller" kann gemessen schnell mal die doppelte lichtintensität sein.
Das ist einfach der Tatsache geschuldet, dass die Subpixel im Vergleich zu LCD einen größeren Abstand zueinander haben und sich einzelne Subpixel bzw. Subpixelreihen stärker abgrenzen können.
die neueste QD-OLED generation der 4k modelle (ka welche version diverse 1440p nutzen) hat einen deckungsgrad vergleichbar mit typischen IPS, nur eben anders angeordnet.
Asaraki
2024-09-10, 13:52:09
Naja gut RGB gilt aber trotzdem als "ideal" nicht? Klar kann man suboptimale Subpixelanordnungen vielleicht etwas abschwächen mit Techniken wie ClearType, aber eine technische Unzulänglichkeit kann man mit Software nicht fixen.
RGB ist auch unzulänglich in diesem Sinne, aber alle Fontrenderer wurden halt jahrelang nur so getestet. Hätten wir nach der CRT-Ära gleich LCDs mit verschiedenen Layouts gehabt dann würden wir das heute gar nicht diskutieren.
Windows Devs : "So, this font rendering thing... should we consider any other modes?"
Manager : "Nah, we did a market research, all commonly used displays work the same way"
Tesseract
2024-09-10, 13:53:43
Naja gut RGB gilt aber trotzdem als "ideal" nicht?
nein, speziell für text wäre das günstigste muster momentan theoretisch RGWB von WOLED sofern es korrektes rendering bekommen würde und für orientierungsagnostischen content (film, spiel, foto) eher das von QDOLED.
solange das fontrendering aber nicht falsch ist und das subpixelmuster aktiv sabotiert sollte der unterschied de facto extrem gering sein.
Asaraki
2024-09-10, 13:55:27
nein, speziell für text wäre das günstigste muster momentan theoretisch RGWB von WOLED sofern es korrektes rendering bekommen würde und für orientierungsagnostischen content (film, spiel, foto) eher das von QDOLED.
solange das fontrendering aber nicht falsch ist und das subpixelmuster aktiv sabotiert sollte der unterschied de facto extrem gering sein.
Bald kommen Liebhaber-Screens bei denen man die Pixel nach Bedarf austauschen kann. Alle 8 Millionen :D
robbitop
2024-09-10, 13:57:00
LG Panels mit RGB Layout sind für Ende 2025 geplant, aktuelle Displays mit 4k/32" sollten aber auch nix quffälliges mehr zeigen.
Sicher? LG macht doch WOLED - entsprechend hat man dann auch immer ein weißes subpixel. IIRC haben sie das Subpixellayout bereits bei den neuen WOLED von RBWG auf RGWB geändert und sich damit so nah wie möglich auch an RGB orientiert. Dennoch scheint die text clarity bei qd-oled einen Ticken besser zu sein.
Ich würde sagen mit genug Auflösung ist das gut genug kaschiert. Mit 4K 32“ soll es laut den reviews ein non issue sein.
Nach 3 Tagen macht sich bei mir langsam eine kleine Ernüchterung mit dem QD-OLED breit. Ich weiß nicht genau woran es liegt. Denn Samstag und Sonntag habe ich viel Zeit mit dem Bildschirm verbracht. Das Problem ist meine Augen brennen etwas. Jetzt stelle ich mir die Frage... liegt es daran, dass sich meine Augen an den QD-OLED erst gewöhnen müssen? Liegt es an viel Gaming mit HDR? Oder ist hauptsächlich das suboptimale Subpixel Layout dafür verantwortlich? Ich merke auch manchmal, dass das lesen von Text für meine Augen doch leicht anstrengend ist, komischerweise nicht immer. Aber wenn es etwas anstrengender wird dann fühlt sich das so an als wenn meine Augen ständig versuchen den Text scharf zu stellen und es nicht ganz klappt.
Hattest du mal einen Nano IPS (getestet)? Klingt genau wie das was ich da hatte, nur dass ich es schon nach 15 Minuten gemerkt habe...
dargo
2024-09-10, 14:51:13
Wegen dem Displaycoating, ich habe in meinem Raum Lichteinfall auf den Monitor und würde gerne vermeiden dass dadurch das Blacklevel angehoben wird.
https://www.youtube.com/watch?v=rCPBgHkFQCQ&t=8s
In dem Video sieht man es schön (0:08 bis 0:12). Links ist ein Glossy WOLED, in der Mitte ein matter WOLED und rechts ein Semi-Glossy QD-OLED. Der Tint auf dem QD-Oled entsteht, weil diese aufgrund ihrer Bauart keinen Polarizer haben.
Ah ok, das Problem meinst du. Glücklicherweise passt das bei mir im Raum. :) Ja... da muss man dann nach den eigenen Umgebungsgegebenheiten gehen.
was ist 18 von 50? ein regler im OSD?
Jepp, Helligkeitsregelung am Monitor.
Entweder ist es das Subpixellayout oder mattes Coating.
Das Color Fringing ist übrigens auch bei Inhalten sichtbar, die keine Schrift sind.
Das ist einfach der Tatsache geschuldet, dass die Subpixel im Vergleich zu LCD einen größeren Abstand zueinander haben und sich einzelne Subpixel bzw. Subpixelreihen stärker abgrenzen können. An harten Kontrastkanten kann es dann zu fringing kommen.
LCD hätte das Problem auch, aber die Subpixel sind da extrem nahe zusammen und haben zudem weniger Sättigung bzw. nicht so reine Farben.
Aber ob das Fringing ein Problem ist oder nicht, sollte man eigentlich mit dem Auge schon recht eindeutig erkennen können.
Bei 4K auf 32 Zoll sehe ich es bei ca 30 cm Abstand recht deutlich. Auf 75 cm Abstand sehe ich davon aber nichts mehr. Wobei das natürlich von der Sehkraft abhängig ist. Meine ist auf einem Auge <100%.
Wie es bei 1440p aussieht kann ich nicht sagen. Nie getestet. Aber logischerweise wird es ausgeprägter sein.
Und ja, wenn ich näher ran gehe, so dass ich das Fringing sehe und dann Text lese ist das definitiv nicht angenehm, da die Subpixel für den weißen Hintergrund bzw. umgekehrt weiße Schrift ja auch relativ hell leuchten müssen. Und weiß ergibt sich eben bei QD OLED nur aus der Mischung von kräftigem, rot, grün und blau. Erkennt man einzelne Subpixel gesondert, nimmt man es als ziemlich intensive Farbe wahr. Und das ist irritierend.
Für mich war das damals auch einer der Gründe, warum ich mich für das 4K Modell entschieden habe, obwohl ich nicht wusste, ob es für mich ein Problem wäre.
Da sprichst du ein interessantes Thema gerade an. Wenn ich mich weiter vor den Samsung G6 setze (geschätzt ca. 70-80cm anstatt der üblichen ~40-50cm) dann finde ich die Textklarheit wieder sehr gut. Nur bringen mir dann die 27" nichts mehr. :freak: Und eine normale Sitzposition wäre das dann auch nicht, dafür hat der Schreibtisch zu wenig Tiefe. :tongue: Ich denke ich kann das Problem wirklich nur mit mehr Auflösung erschlagen. Was ich auch wirklich schade finde, dass es keine QD-OLEDs mit 4k und 28" gibt. Das wäre die perfekte Größe bei mir und die 157ppi nehme ich gerne mit. Die 160ppi bei dem mini LED LCD waren schon echt nett.
Hattest du mal einen Nano IPS (getestet)? Klingt genau wie das was ich da hatte, nur dass ich es schon nach 15 Minuten gemerkt habe...
Nee... einen Nano IPS hatte ich noch nicht. Ich hatte die etwas schwierige Textklarheit bei dem QD-OLED auch recht schnell bemerkt. Ich war mir nur nicht ganz sicher ob es an dem Subpixel Layout liegt oder an meiner Müdigkeit. Vorher oft sehr früh aufgestanden, deshalb hatte ich zuerst den Verdacht es würde daran hauptsächlich liegen.
The_Invisible
2024-09-10, 15:31:00
Sicher? LG macht doch WOLED - entsprechend hat man dann auch immer ein weißes subpixel. IIRC haben sie das Subpixellayout bereits bei den neuen WOLED von RBWG auf RGWB geändert und sich damit so nah wie möglich auch an RGB orientiert. Dennoch scheint die text clarity bei qd-oled einen Ticken besser zu sein.
Ich würde sagen mit genug Auflösung ist das gut genug kaschiert. Mit 4K 32“ soll es laut den reviews ein non issue sein.
Wenn die LG Roadmap stimmt dann ja:
https://www.pcgameshardware.de/screenshots/original/2024/01/LG-Roadmap-2025-pcgh.jpg
robbitop
2024-09-10, 16:58:04
Merkwürdig - auf ihrer Roadmap war ja iirc auch QD-OLED. Ggf steigen sie denn dann ja um.
Asaraki
2024-09-10, 17:15:50
Der 21:9 wird mich dann sehr interessieren :) ich schalte meinen TV noch sehr oft auf 21:9, ist für gewisse Games einfach brutal immersiver, auch wenn man Fläche verschenkt
Aber 1440 kann ich einfach nicht mehr kaufen.
dargo
2024-09-10, 18:02:47
Wie passend. :tongue: HWU testet gerade mehrere 4k OLEDs.
tnEIJHX_L6A
MSI verarscht aber echt die Kunden in Europa. Hier in DE kostet der MPG fast 1400€ während der über dem großen See für 950$ angeboten wird. (no)
Sardaukar.nsn
2024-09-10, 21:07:23
LG C4 liegen auch schon unter 1000€, würde ich bei der Auswahl auch in Betracht ziehen. https://www.idealo.de/preisvergleich/OffersOfProduct/204187944_-oled-evo-c4-oled42c44la-lg-electronics.html
[OGC]Schimpi
2024-09-10, 22:15:02
Edit:
Kann mir einer noch einen Tipp geben welches Game ich auf VRR-Flicker untersuchen soll? Ich habe schon einige verschiedene Spiele getestet und nirgenwo bisher VRR-Flicker angetroffen. :freak:
Falls Du keine Sorge hast, Dir ggfls. den Monitor zu versauen, könntest Du Dir mal 7 Days to Die ansehen. :freak:
Da flackert es bei mir auch ingame z.T. sehr stark und zwar der Himmel. Geschieht aber nicht durchgehend, sondern ist stark situativ, hängt offenbar v.A. an der aktuellen Helligkeit des Himmels (Tageszeit, Wetter). Ich vermute aber, dass meine relativ alten Kisten Spikes bei den Frametimes begünstigen und das Problem damit verschärfen - ein weiterer Datenpunkt von Dir wäre schon interessant.
(Wobei das Spiel an sich auch nach ~11 Jahren und "1.0" immer noch herrlich "unoptimiert" ist, bzw. man 'ne Menge Einstellungen zur Verfügung hat, die (situativ) absurde Auswirkungen auf die Performance nehmen können. Sandbox halt...)
Habe das ingame Geflackere in 7D2D inzwischen auf vier VRR Bildschirmen an drei verschiedenen Rechnern nachvollziehen können:
Sony TV (85" 4K WOLED, Bj. 2022)
LG UltraGear OLED 32GS95UE-B (https://www.lg.com/de/monitore/gaming/32gs95ue-b/) (32"4K WOLED, Bj. 2024)
Acer 32" VA (WQHD mit GSync, Bj. 2019)
AOC 27" VA (WQHD mit Async, Bj. 2023)
Gefühlt benehmen sich die OLED dabei schlimmer, was ja auch zu den Messungen von RTINGs passt. An meinem ollen IPS ohne VRR ist wie zu erwarten Ruhe.
Linmoum
2024-09-10, 22:57:18
Ich hab hier übrigens mit einem Zephyrus G14 (120Hz OLED/G-Sync) nahezu kein wahrnehmbares VRR-Flickering. Wenn ich diesen Laptop allerdings extern an einen LG C1/C2 anschließe, ist das genaue Gegenteil der Fall. Leider gibt's nur einen einzigen OLED-Monitor mit echtem G-Sync, damit man vielleicht mal feststellen könnte, ob das nicht vielleicht eher in erster Linie ein FreeSync-Problem ist. Ich hab mit dem G14 ja eigentlich nichts anderes erwartet als das, was ich an VRR-Flickering mit OLED kenne. Aber das hat mich dann zum ersten mal stutzig gemacht, dass es eben nicht die obligatorisch pauschale "VRR"-Problematik ist. Ich muss hier echt ganz genau hinschauen, damit ich das wirklich wahrnehme, während mir die exakt gleiche Stelle an den LGs (und auch an dem 21:9 34" Alienware mit FreeSync, an dem ich das zwischenzeitlich auch mal ausprobieren konnte) mit teils extrem auffälligen Flickering entgegnet.
aufkrawall
2024-09-10, 23:00:30
Ich hab hier übrigens mit einem Zephyrus G14 (120Hz OLED/G-Sync) nahezu kein wahrnehmbares VRR-Flickering. Wenn ich diesen Laptop allerdings extern an einen LG C1/C2 anschließe, ist das genaue Gegenteil der Fall. Leider gibt's nur einen einzigen OLED-Monitor mit echtem G-Sync, damit man vielleicht mal feststellen könnte, ob das nicht vielleicht eher in erster Linie ein FreeSync-Problem ist.
Du solltest eher nochmal mit Radeon/AMD APU gegentesten. Die Möglichkeit, dass Nvidia mal wieder LFC verkackt, würd ich jedenfalls nicht als völlig irreal abtun...
Linmoum
2024-09-10, 23:11:31
Die 780M des 8945HS zeigt an den LGs dieselbe (ausgeprägtere) Problematik. An dem C1 hing bis vor zwei Jahren auch noch meine 6900XT, da war es ähnlich.
Reaping_Ant
2024-09-11, 03:53:00
Leider gibt's nur einen einzigen OLED-Monitor mit echtem G-Sync, damit man vielleicht mal feststellen könnte, ob das nicht vielleicht eher in erster Linie ein FreeSync-Problem ist.
Ich habe den 34" Alienware mit GSync Modul und kann gerne testen. Welches Spiel/welche Szene?
dargo
2024-09-11, 07:22:42
LG C4 liegen auch schon unter 1000€, würde ich bei der Auswahl auch in Betracht ziehen. https://www.idealo.de/preisvergleich/OffersOfProduct/204187944_-oled-evo-c4-oled42c44la-lg-electronics.html
Viel zu groß für einen Schreibtisch und unter 240Hz kaufe ich nichts mehr (vorteilhaft für Frame Generation sofern man es verwenden möchte). Zudem hättest du da auch nur 110ppi wie bei 27" und 1440p. Und mal ehrlich... warum sollte ich mir so ein "Fliegengitter" kaufen wenn es für einen ähnlichen Preis einen Samsung Odyssey G8 mit 32" 4k und 240Hz gibt?
Edit:
Nee... sogar nur 104ppi.
Da sprichst du ein interessantes Thema gerade an. Wenn ich mich weiter vor den Samsung G6 setze (geschätzt ca. 70-80cm anstatt der üblichen ~40-50cm) dann finde ich die Textklarheit wieder sehr gut. Nur bringen mir dann die 27" nichts mehr. :freak: Und eine normale Sitzposition wäre das dann auch nicht, dafür hat der Schreibtisch zu wenig Tiefe. :tongue: Ich denke ich kann das Problem wirklich nur mit mehr Auflösung erschlagen. Was ich auch wirklich schade finde, dass es keine QD-OLEDs mit 4k und 28" gibt. Das wäre die perfekte Größe bei mir und die 157ppi nehme ich gerne mit. Die 160ppi bei dem mini LED LCD waren schon echt nett.
Lol... bei dem Sitzabstand habe ich mich völlig verhauen. X-D Jetzt habe ich den Zollstock genommen und der normale Sitzabstand zum Bildschirm beträgt hier ~70cm und nicht wie angegeben 40-50cm. Gleiches gilt für das zweite Maß... es sind keine 70-80cm sondern dann ~110cm.
Ach... übrigens, ich glaube Lurtz hatte danach gefragt. Pixel Shifting fällt mir am Desktop bei dem 27" und 1440p auf. Mich stört das aber ehrlich gesagt nicht. Kann aber auch nicht sagen wie oft das in der Stunde passiert, habs nicht mitgezählt. :D Das geht auch so schnell... wenn du in dem Augenblick blinzelnst kriegst du das gar nicht mal mit. :D In Games ist mir Pixel Shifting noch nicht aufgefallen.
Schimpi;13612741']Falls Du keine Sorge hast, Dir ggfls. den Monitor zu versauen, könntest Du Dir mal 7 Days to Die ansehen. :freak:
Da flackert es bei mir auch ingame z.T. sehr stark und zwar der Himmel. Geschieht aber nicht durchgehend, sondern ist stark situativ, hängt offenbar v.A. an der aktuellen Helligkeit des Himmels (Tageszeit, Wetter). Ich vermute aber, dass meine relativ alten Kisten Spikes bei den Frametimes begünstigen und das Problem damit verschärfen - ein weiterer Datenpunkt von Dir wäre schon interessant.
Schaue ich mir an. Brauche ich dafür eine bestimmte Szene? Ein Savegame wäre wohl recht hilfreich. Oder sehe ich das direkt schon am Anfang?
Edit:
Oh Gott ist das Game hässlich. X-D Aber egal, für die "Wissenschaft" opfere ich mich. ;D
Also ich schaue hier in den Himmel, auch gegen die Sonne. Am Samsung G6 flackert hier nichts. Ist jetzt aber Ingame am Tag und nicht in der Nacht. Keine Ahnung ob das eine Rolle spielt. Frametimes sind absolut sauber. Das einzige was mir wieder negativ auffällt. Obwohl Frametimes absolut sauber sind gibt es Mousestuttering. Bewege ich mich nur mit der Tastatur ist alles tutti. Nur so nebenbei, ist ja nicht da Thema. Schon irgendwie strange, dass es bei dir flackert. :uponder: Ob dieses Freesync Premium Pro bei diesem Thema eine Rolle spielt? Vieleicht sollte ich dann doch auf diese Zertifizierung beim nächsten Bildschirm achten. :uponder: Haben jedenfalls beide Samsungs G6 und G8.
redpanther
2024-09-11, 09:56:47
Also ich schaue hier in den Himmel, auch gegen die Sonne. Am Samsung G6 flackert hier nichts. Ist jetzt aber Ingame am Tag und nicht in der Nacht. Keine Ahnung ob das eine Rolle spielt. Frametimes sind absolut sauber. Das einzige was mir wieder negativ auffällt. Obwohl Frametimes absolut sauber sind gibt es Mousestuttering. Bewege ich mich nur mit der Tastatur ist alles tutti. Nur so nebenbei, ist ja nicht da Thema. Schon irgendwie strange, dass es bei dir flackert. :uponder: Ob dieses Freesync Premium Pro bei diesem Thema eine Rolle spielt? Vieleicht sollte ich dann doch auf diese Zertifizierung beim nächsten Bildschirm achten. :uponder: Haben jedenfalls beide Samsungs G6 und G8.
Hat dein G6 auch die Option "VRR Control" ?
Wenn ja, hast du mit an oder aus getestet?
dargo
2024-09-11, 10:14:40
Ich finde nur Freesync Premium Pro On und Off. Von VRR-Control sehe ich hier nichts. Kann aber auch sein, dass eine neuere Firmware das bringt. Ich habe an der Firmware nichts geändert.
btw.
Endlich habe ich zum ersten Mal ein dezentes Flackern gesehen. Und zwar beim Kompilieren der Shader in TLOU. War aber nicht besonders hochfrequent das Flackern. Eher langsamer und auch nicht durchgehend hat sich die Helligkeit links vom Fenster in dem dunklen Bereich etwas verändert. Das gleiche passiert unter der Fensterbank im Schatten dieser, ca. die Hälfte der Fensterbank. Das es nicht durchgehend passiert lag einfach daran, dass die Fluktuationen in den Frametimes während des Kompilierens nicht dauerhaft so stark waren.
https://www2.pic-upload.de/thumb/37414372/TLOU.jpg (https://www.pic-upload.de/view-37414372/TLOU.jpg.html)
Wen das stört einfach 30fps Limit setzen. Siehe auch das Ende beim Kompilieren mit der Flatline. Mit dem 30fps Limit flackerte dann auch nichts mehr. Und manchmal beschleunigt so ein 30fps Limit sogar den Kompilierungsvorgang etwas. :D
Habe aktuell den Kontrast von Stock 50 auf 42 gesenkt und die Helligkeit aktuell bei 20. Kommt mir subjektiv einiges angenehmer für die Augen am Desktop vor und ich meine auch, dass dadurch die Textklarheit nochmal besser wird.
Achja... und VRR-Control kann gar nicht aktiv sein wenn der Treiber 48-360Hz Freesync-Range meldet. Oder halt aktuell bei mir 48-240Hz. Fahre am Desktop 240Hz + SDR damit der Stromverbrauch bei 7W ASIC bleibt.
Edit:
Mal ne Frage am Rande... ist es normal, dass der Kontrast bei QD-OLED default @max. steht? Der stand nämlich hier auf 50 von 50.
LCD hätte das Problem auch, aber die Subpixel sind da extrem nahe zusammen und haben zudem weniger Sättigung bzw. nicht so reine Farben.
LCD hätte nicht nur das Problem, es hat genau das gleiche Problem, und sogar viel stärker, allerdings beschränkt auf annähernd vertikale Kanten.
QD-OLED hat insgesamt weniger fringing, allerdings gleichmäßig auf alle Winkel verteilt.
Sicher? LG macht doch WOLED - entsprechend hat man dann auch immer ein weißes subpixel.
Wodurch es für Text sogar noch besser wäre, da man bei schwarz-weiß Text rein das weiße Subpixel verwenden könnte, und komplett auf die farbigen Subpixel verzichten kann.
Damit gibt es dann gar keine Farbränder.
MacOS kann es wohl korrekt und da gibts deshalb auch kein/weniger Probleme damit.
In MacOS gibt es kein Subpixelrendering
redpanther
2024-09-11, 12:27:20
Also, mein G9 hat im System menü einem Punkt, VRR Control. den kann man manuell on/off stellen. Wüsste nicht das dies irgendwie vom Treiber abhängt.
On soll wohl das Flackern verhindern, was es auch tut. Soll aber auch leichte "unsmoothness" mitbringen. Ich habe es aus, da mich das flackern bei Ladescreens nicht wirklich stört und es sonst nirgends auftritt.
Kann aber beim G6 natürlich anders sein, oder FW abhängig.
ChaosTM
2024-09-11, 12:38:38
Da ich bei "What Remains of Edith Finch" das erste mal Flackern in Spielen selbst bemerkte, musste VRR am Monitor deaktiviert werden. Flackern auf "Disco Level"...
UE4 nehme ich mal an..
dargo
2024-09-11, 12:39:57
Also, mein G9 hat im System menü einem Punkt, VRR Control. den kann man manuell on/off stellen. Wüsste nicht das dies irgendwie vom Treiber abhängt.
So war das auch nicht gemeint. Afaik verringert dieses VRR-Control nur die VRR-Range und das müsste eigentlich der Treiber entsprechend zurück melden.
Da ich bei "What Remains of Edith Finch" das erste mal Flackern in Spielen selbst bemerkte, musste VRR am Monitor deaktiviert werden. Flackern auf "Disco Level"...
UE4 nehme ich mal an..
Dann sind da mit hoher Wahrscheinlichkeit die Frametimes im Arsch. Sowas spiele ich dann gar nicht. Ohne VRR kann ich einfach nichts mehr spielen. Ok... zur Not vielleicht mit 360Hz. Aber optimal fürs Auge, dass ich überhaupt mein Mikrostuttering sehe ist das noch nicht. Nur bringt dir VRR-Off bei solcher Bananensoftware auch nichts, denn dadurch ändert sich ja nichts an den miesen Frametimes.
So war das auch nicht gemeint. Afaik verringert dieses VRR-Control nur die VRR-Range und das müsste eigentlich der Treiber entsprechend zurück melden.
Nö, VRR Control Puffer 1 Frame im Monitor und zeigt dieses eben um 1 Refreshzyklus später an.
redpanther
2024-09-11, 14:16:44
Da ich bei "What Remains of Edith Finch" das erste mal Flackern in Spielen selbst bemerkte, musste VRR am Monitor deaktiviert werden. Flackern auf "Disco Level"...
UE4 nehme ich mal an..
Tatsache. Kurz gezogen, weil ichs eh mal anspielen wollte.
Gleich am Start pumpt es stark. Hab ich so noch nie gesehen.
"VRR Control" auf on und schon ist es weg.
Aber irgendwas ist technisch eh faul an dem game. GPU auf 95%, aber nur 250W verbrauch. Schafft gerade mal die 60FPS.
Sieht aber nett aus der Anfang.
Platos
2024-09-11, 15:27:45
Glaub das 3D Center sollte mal eine Umfrage machen. "Wie viele Stunden verbringe ich mit Videospielen?"... und "Wie viel Zeit benchmarke ich meinen PC ?" :freak:
dargo
2024-09-11, 15:42:15
Glaub das 3D Center sollte mal eine Umfrage machen. "Wie viele Stunden verbringe ich mit Videospielen?"... und "Wie viel Zeit benchmarke ich meinen PC ?" :freak:
Also ich sehe hier keinen benchmarken sondern Problemfälle der Technologie untersuchen. Nicht jeder sieht diverse Hardware durch rosarote Brille. ;)
btw.
Aktuell habe ich nicht mal was zum Spielen selbst wenn die Zeit da wäre, alles was ich interessant fand ist erstmal durch. :)
Asaraki
2024-09-11, 16:19:05
Ein eigener Thread für VRR Probleme wäre aber eine Idee. Ganz unrecht hat Platos nicht, die meisten benutzen ihre Monitore mehr als sie sie analyiseren ^^
Ist doch streng genommen sehr OT hier
horn 12
2024-09-11, 18:48:39
@Dargo
Dann holst dir nun den 4K 240 Hz
oder behaltest den Samsung G6
dargo
2024-09-11, 20:22:33
Ich denke es wird ein 32" 4k 240Hz QD-OLED werden müssen, ja. Bei den 27" und 1440p bin ich noch nicht 100% mit der Textklarheit auf die ~70cm Sitzabstand zufrieden. Der Rest überzeugt allerdings auf ganzer Linie. Ich hole mir den Bildschirm aber erst später (vermutlich erst März 2025). Zuerst muss eine schnellere Graka her für 4k + Upscaling (favorisiere hier mindestens balanced Preset), voraussichtlich N48. Bis die ersten, überzeugenden custom N48 da sind vergehen ja auch noch einige Wochen. Wäre nett wenn AMD Referenz N48 wirklich schon Oktober/November 2024 bringt, sonst verzögert sich alles nochmal um paar Monate.
Edit:
Noch besser fände ich 28" 4k 240Hz QD-OLED, gibts aber leider nicht. Und ist offenbar auch nicht geplant.
raffa
2024-09-11, 21:55:23
Ganz interessant.
Ich bin absolut happy mit den 110ppi am VA 34er 21:9. Der hat andere Schwächen, aber Text ist top scharf und das Bild ist null anstrengend für die Augen.
Thunder99
2024-09-11, 22:23:04
dargo, du bist ja speziell ;D
Hab ja den G8 21:9 und die 1440p stören mich nicht im geringsten. VRR Geflicker noch nicht gesehen (Control on) aber liegt auch an den Spielen wo ich spiele.
Schade wenn es dir nicht zusagt mit den Erfahrungen die du schilderst. Kalibriert in Windows hast du den Monitor? Damit lassen sich super die Helligkeit und Farben normalisieren. D.h. das Profil ist auf HDR400 richtig eingestellt.
Leider gibt es noch immer nicht die 4k+ Monitore auf breiter Basis. Die GPU Anforderungen steigen aber massiv wenn die Auflösung signifikant steigt.
aufkrawall
2024-09-11, 23:04:19
lol, LFC ist wirklich kaputt in den aktuellen Nvidia-Treibern :freak::
https://www.nvidia.com/en-us/geforce/forums/game-ready-drivers/13/549741/geforce-grd-56109-feedback-thread-released-91124/3474956/
Mit der höheren Frame Time-Varianz mit FG kam mir das auch so seltsam ruckelig bei <100fps vs. Radeon vor...
robbitop
2024-09-11, 23:24:13
Leider gibt es noch immer nicht die 4k+ Monitore auf breiter Basis. Die GPU Anforderungen steigen aber massiv wenn die Auflösung signifikant steigt.
Naja dafür gibt es ja upsampling. Wenn es um Textsxhärfe geht und einem die BQ von 1440p in Spielen schon reicht, dann kann man einfach mit der gleichen Inputresolution wie für 1440p upsamplen. Also zB das was das Quality Preset wäre für 1440p ist dann für 4K grob das Performance Preset. Das sollte eigentlich nicht schlechter (eher leicht besser) aussehen. Etwas mehr Performance kostet es schon aber nicht annähernd so viel wie jeweils in native.
dargo
2024-09-12, 06:27:03
Ganz interessant.
Ich bin absolut happy mit den 110ppi am VA 34er 21:9.
Bin ich bei 27" und 1440p am IPS auch, das Thema ist aber nicht LCD. ;)
Loeschzwerg
2024-09-12, 07:42:08
Edit:
Noch besser fände ich 28" 4k 240Hz QD-OLED, gibts aber leider nicht. Und ist offenbar auch nicht geplant.
Da gehe ich mit, die Textklarheit bei 27"@1440p ist einfach nicht gut. Also dauerhaft arbeiten möchte ich so nicht und bin auch froh das ich es nicht muss.
Aber UHD ab 240Hz wird in dieser Größe schon noch kommen.
Crazy_Chris
2024-09-12, 09:21:47
Zum spielen langt mir mein LG OLED 39" 21:9 mit schlappe 98 ppi. Hört sich schlimm an, ist aber beim spielen überhaupt kein Thema (für mich). :eek: Zum Arbeiten nehme ich aber trotzdem lieber meine beiden LG 32" 4k IPS Bildschirme mit 140ppi.
Lurtz
2024-09-12, 09:24:58
Ich denke es wird ein 32" 4k 240Hz QD-OLED werden müssen, ja. Bei den 27" und 1440p bin ich noch nicht 100% mit der Textklarheit auf die ~70cm Sitzabstand zufrieden. Der Rest überzeugt allerdings auf ganzer Linie. Ich hole mir den Bildschirm aber erst später (vermutlich erst März 2025). Zuerst muss eine schnellere Graka her für 4k + Upscaling (favorisiere hier mindestens balanced Preset), voraussichtlich N48. Bis die ersten, überzeugenden custom N48 da sind vergehen ja auch noch einige Wochen. Wäre nett wenn AMD Referenz N48 wirklich schon Oktober/November 2024 bringt, sonst verzögert sich alles nochmal um paar Monate.
Edit:
Noch besser fände ich 28" 4k 240Hz QD-OLED, gibts aber leider nicht. Und ist offenbar auch nicht geplant.
Wieso nimmst du nicht einfach den Samsung G80, wenn der dir grundsätzlich so gut gefällt? Wird doch genug Spiele geben, in denen du den bis März dennoch gut ausfahren kannst.
redpanther
2024-09-12, 10:22:58
Da gehe ich mit, die Textklarheit bei 27"@1440p ist einfach nicht gut. Also dauerhaft arbeiten möchte ich so nicht und bin auch froh das ich es nicht muss.
Aber UHD ab 240Hz wird in dieser Größe schon noch kommen.
Ist schon lustig, bis vor ein paar Jahren hatte kaum jemand 4K und die meisten Leute waren mit super 1440p happy.
Ich meine, klar, 4k ist besser, logisch. Aber die Kommentare hören sich hier teilweise an, als ob alles was darunter liegt, eigentlich nicht benutzbar ist :freak:
Auf der Arbeit haben bei uns alle Plätze 2x 27" FHD (IT Firma). Vielleicht könnt ihr die Kollegen mal umstimmen, das sie alles auf 4K umstellen? Ich hätte nichts dagegen... :cool:
@Asaraki die VRR Prolematiken finde ich garnicht OT.
robbitop
2024-09-12, 10:46:43
Ist schon lustig, bis vor ein paar Jahren hatte kaum jemand 4K und die meisten Leute waren mit super 1440p happy.
Ich meine, klar, 4k ist besser, logisch. Aber die Kommentare hören sich hier teilweise an, als ob alles was darunter liegt, eigentlich nicht benutzbar ist :freak:
Auf der Arbeit haben bei uns alle Plätze 2x 27" FHD (IT Firma). Vielleicht könnt ihr die Kollegen mal umstimmen, das sie alles auf 4K umstellen? Ich hätte nichts dagegen... :cool:
@Asaraki die VRR Prolematiken finde ich garnicht OT.
Das liegt aber nicht an der Auflösung sondern an dem nicht zur Software passendem Subpixelraster. Dann wird die Schrift unscharf und wenn man mit dem Gerät arbeiten muss, wird es eben unschön. Mit einem RGB subpixel layout wie bei einem normalen LCD hat sich niemand über 1440p beschwert. Man braucht aufgrund des nicht passenden subpixellayouts bei den aktuellen OLEDs eben mehr (als sonst nötig) Auflösung um diesen Nachteil zu kaschieren.
Entsprechend solltest du da differenzieren ;)
redpanther
2024-09-12, 10:55:22
Hast schon recht, war auch bewusst überspitzt. Aber ich glaube tatsächlich das hier einige das auch auf LCD beziehen.
fulgore1101
2024-09-12, 10:56:03
Ich habe mal eine Bitte an die Besitzer eines aktuellen OLED Bildschirms ohne analogen Audioausgang aber mit USB Ports. Könntet ihr mal testen, ob sich ein Audiosignal von den USB Ports abgreifen lässt? Ein simples USB Headset sollte dazu genügen.
Asaraki
2024-09-12, 10:56:48
@redpanther : Ich schon bisschen, vor allem weil sie ständig wiederholt wird ^^ Wäre also auch zum Nachlesen besser in einem eigenen Thread. Hier wird gefühlt alle 40 Postings ein Monitor erwähnt und dann geht es wieder 2 Seiten um persönliche Vorlieben und wie man VRR ohne Issue hinkriegt. Mir ja egal, hab jetzt wieder alle Monitore und TVs die ich gerade will und bin wieder raus aus dem Thema :D Aber der Thread heisst halt 'Bessere Monitore"
Und jo @ robbitop. Hab den 1440er OLED vom Kollegen mal kurz ausgeliehen und coden geht soweit problemlos, aber riesige kleine Texte sind angenehmer auf meinem IPS 1440er. Während der grosse 4K da überhaupt kein Problem ist, da sitze ich weit genug weg, das wird wirklich von der Auflösung / Abstand alles perfekt kaschiert. Gut, habe jetzt keinen riesigen IPS zum Vergleich, der wäre vermutlich nochmal einen Tick angenehmer, aber ich kann arbeiten ohne ungewöhnliche Ermüdungserscheinungen. Nur das normale "Meine Augen tun weh nach 10h Code" :D
Dank Upsampling, wie von dir erwähnt, steht bei mir einem 2160er 21:9 Screen zum Glück nichts im Weg, wären mir nämlich zu viele Pixel zum rendern. Bin eh positiv überwältigt vom modernen Upsampling/Scaling, zocke gerade viel FHD @ 4k im Wohnzimmer, einfach weil der Rechner dann auch fast unhörbar bleibt und ganz ehrlich, das merkt man kaum bis garnicht und ich sitze noch relativ nahe dran. Bei normalem Couchabstand ist das imho nicht wirklich erkennbar für das menschliche Auge.
Ich habe mal eine Bitte an die Besitzer eines aktuellen OLED Bildschirms ohne analogen Audioausgang aber mit USB Ports. Könntet ihr mal testen, ob sich ein Audiosignal von den USB Ports abgreifen lässt? Ein simples USB Headset sollte dazu genügen.
Du meinst z.b. das HDMI Audio über USB des TVs/Screens ausgeben oder anders herum?
Tesseract
2024-09-12, 10:58:05
Ist schon lustig, bis vor ein paar Jahren hatte kaum jemand 4K und die meisten Leute waren mit super 1440p happy
diese diskussion gibt es seit den CRT-zeiten. die leute waren verhältnismäßig happy weil 1440p besser als 1080p und das besser als 1024 war. 1440p war subjektiv der größte sprung.
fulgore1101
2024-09-12, 11:01:53
Du meinst z.b. das HDMI Audio über USB des TVs/Screens ausgeben oder anders herum?
Also ob HDMI Audio des Screens über USB ausgegeben werden kann. Der PC müsste dann natürlich per HDMI mit dem Monitor verbunden sein und als Audioquelle ausgewählt.
Oder falls vorhanden eine Konsole oder BlueRay Player anschließen
Lurtz
2024-09-12, 11:37:52
Das liegt aber nicht an der Auflösung sondern an dem nicht zur Software passendem Subpixelraster. Dann wird die Schrift unscharf und wenn man mit dem Gerät arbeiten muss, wird es eben unschön. Mit einem RGB subpixel layout wie bei einem normalen LCD hat sich niemand über 1440p beschwert. Man braucht aufgrund des nicht passenden subpixellayouts bei den aktuellen OLEDs eben mehr (als sonst nötig) Auflösung um diesen Nachteil zu kaschieren.
Entsprechend solltest du da differenzieren ;)
Bei gewissen LDC-Panels je nach Coating etc. kann 1440p auch schon eklig werden :redface:
exzentrik
2024-09-12, 12:10:32
Xiaomi G Pro 27i (https://www.prad.de/preisbrecher-xiaomis-mini-led-display-mit-hdr-1000/) mit WQHD, 180 Hz, 1152 Mini-LED-Zonen, HDR 1000 und FreeSync jetzt in Deutschland verfügbar. Kostet nur rund 350 Euro. Normalerweise ist man bei vierstelliger Zonenzahl ab 650 Euro dabei.
dargo
2024-09-12, 13:21:58
Wieso nimmst du nicht einfach den Samsung G80, wenn der dir grundsätzlich so gut gefällt? Wird doch genug Spiele geben, in denen du den bis März dennoch gut ausfahren kannst.
Der steht auf jedenfalls als ein Favorit neben dem MSI MPG 321URXDE auf meiner Liste. KVM würde bei mir schon Sinn machen da ich öfter HomeOffice mache. Aber irgendwie bin ich zu geizig nur dafür 370€ Aufpreis zu bezahlen. :D Deshalb hoffe ich, dass der MSI MPG in Europa noch etwas im Preis fällt bis ich eine schnellere Graka habe. Ich will nichts überstürzen da ich aktuell eh alle Spiele die mich interessieren erstmal durch habe. Und bald gibt es Black Friday. Ich denke den Samsung G80 bekomme ich auf jeden Fall für ca. 900€ mit diversen Angeboten + Cashback. Und wenn der MSI MPG bis ca. März 2025 bei 1000€ landet hätte ich auch nichts dagegen. :) Wobei ich da noch nachforschen muss ob der MSI MPG exakt das gleiche QD-OLED Panel verwendet wie der Samsung G80 mit "Ver. 3.0". Immerhin wurde der MSI MFG ca. 4 Monate früher released.
Sardaukar.nsn
2024-09-12, 13:26:50
Xiaomi G Pro 27i (https://www.prad.de/preisbrecher-xiaomis-mini-led-display-mit-hdr-1000/) mit WQHD, 180 Hz, 1152 Mini-LED-Zonen, HDR 1000 und FreeSync jetzt in Deutschland verfügbar. Kostet nur rund 350 Euro. Normalerweise ist man bei vierstelliger Zonenzahl ab 650 Euro dabei.
Auf Tomshardware scheint man zufrieden zu sein (+Phenomenal value)
https://www.tomshardware.com/monitors/gaming-monitors/xiaomi-g-pro-27i-27-inch-qhd-180-hz-gaming-monitor-review
Takeaway: The G Pro 27i is a great all-around display for work and entertainment in both SDR and HDR modes. It’s an even better gaming monitor thanks to its precise overdrive and flawless Adaptive-Sync operation. Input lag is extremely low, enough to qualify it for competition. Resolution and frame rates are well balanced and motion processing is super smooth. Color is vibrant and saturated, and will no doubt make many users happy. And you get all this for $390, impressive!
Asaraki
2024-09-12, 13:26:51
diese diskussion gibt es seit den CRT-zeiten. die leute waren verhältnismäßig happy weil 1440p besser als 1080p und das besser als 1024 war. 1440p war subjektiv der größte sprung.
Die 1600x1200 waren auf jeden Fall mässig scharf damals ^^ aber wenn man bedenkt, dass ich anno 2000 schon 100hz @ 1024p hatte sind wir in dem Bereich noch nicht so weit gekommen ^^
redpanther
2024-09-12, 13:32:02
Auf Tomshardware scheint man zufrieden zu sein (+Phenomenal value)
https://www.tomshardware.com/monitors/gaming-monitors/xiaomi-g-pro-27i-27-inch-qhd-180-hz-gaming-monitor-review
Der wird hier günstiger angeboten als in USA? 350€ vs 390$ (ohne Steuer)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.