Archiv verlassen und diese Seite im Standarddesign anzeigen : Bessere Monitore?
just4FunTA
2019-05-05, 19:10:38
oh das ging an mir vorbei. Dachte der kommt mit HDMI2. Übrigens gibt es aktuell bei ExpertTevi den LG OLED55C97LA für 1999€ +40€ Versandkosten falls man nicht in der nähe wohnt.
https://www.expert.de/shop/unsere-produkte/tv-audio/fernseher/oled-tv/11128165509-oled55c97la-oled-tv.html
Kartenlehrling
2019-05-13, 16:11:16
SID kürt zur Display Week die besten Bildschirme des Jahres
https://stadt-bremerhaven.de/sid-kuert-zur-display-week-die-besten-bildschirme-des-jahres/
Displays des Jahres
Apple LTPO OLED Display für die Apple Watch Series 4
Samsung Electronics Modular MicroLED Display (The Wall)
Sony Corp. Crystal LED Display System
Display-Komponenten des Jahres
Dexerials Corp.’s AR Films für Piano Black Design
SCHOTT’s RealView High-Refractive Index Glass Wafers
Benutzername
2019-05-13, 16:53:20
SID kürt zur Display Week die besten Bildschirme des Jahres
https://stadt-bremerhaven.de/sid-kuert-zur-display-week-die-besten-bildschirme-des-jahres/
Displays des Jahres
Apple LTPO OLED Display für die Apple Watch Series 4
Samsung Electronics Modular MicroLED Display (The Wall)
Sony Corp. Crystal LED Display System
Display-Komponenten des Jahres
Dexerials Corp.’s AR Films für Piano Black Design
SCHOTT’s RealView High-Refractive Index Glass Wafers
Wie Ich da die micro-LEd sehe, wann gibt es das für Monitore auf dem Tisch?
5CH4CHT3L
2019-05-14, 10:21:02
Wie Ich da die micro-LEd sehe, wann gibt es das für Monitore auf dem Tisch?
Naja im Moment ist man bei 75 Zoll für 4k, also ist jeder pixel 0,42mm groß. Für full HD auf 27" muss man auf 0,31mm runter, für 4k auf 32" auf 0,18. Das ist also noch mindestens 2 Jahre für die Technologie hin.
Und dann muss erstmal ein Hersteller Monitore mit Micro LED bauen, obwohl der Markt für High-End Monitore viel Volumenärmer ist als der für Fernseher.
Es gibt außer der Wall keinen MicroLED Monitor, erst recht nicht in 75". Was es gibt, sind angekündigte TVs mit MiniLED Backlight und es gibt Ankündigungen für derartige Monitore.
Das sind dann keine Selbstleuchter, sondern TVs und Monitore mit sehr vielen Dimmingzonen.
just4FunTA
2019-05-14, 11:43:52
oh das ging an mir vorbei. Dachte der kommt mit HDMI2. Übrigens gibt es aktuell bei ExpertTevi den LG OLED55C97LA für 1999€ +40€ Versandkosten falls man nicht in der nähe wohnt.
https://www.expert.de/shop/unsere-produkte/tv-audio/fernseher/oled-tv/11128165509-oled55c97la-oled-tv.html
Ist Gestern angekommen, das wichtigste zuerst mit meiner GTX1080 kann ich unter Auflösung PC 2560x1440 @120 Hz auswählen. :)
https://abload.de/img/lg120hzjjjzy.jpg
Aber irgendwie war wohl irgendein sync noch an, mir ist jedenfalls bei Battlefield kein Tearing aufgefallen. Vielleicht noch eine Einstellung meines Pc Monitors der Gsync hat? Steht zwar im NVPanel auf Gsync das sollte doch aber kein Einfluß haben auf den TV oder?
Also jedenfalls konnte ich Battlefield damit recht gut spielen und auch direkte Zweikämpfe gewinnen das war mit meinem alten TV nur mit Glück möglich. Die 120hz machen schon einen Unterschied aus.
BlacKi
2019-05-14, 12:04:42
manchmal gibts trotz vsync off kein tearing sondern nur ruckeln.
SamLombardo
2019-05-14, 12:53:08
Ist Gestern angekommen, das wichtigste zuerst mit meiner GTX1080 kann ich unter Auflösung PC 2560x1440 @120 Hz auswählen. :)
https://abload.de/img/lg120hzjjjzy.jpg
Aber irgendwie war wohl irgendein sync noch an, mir ist jedenfalls bei Battlefield kein Tearing aufgefallen. Vielleicht noch eine Einstellung meines Pc Monitors der Gsync hat? Steht zwar im NVPanel auf Gsync das sollte doch aber kein Einfluß haben auf den TV oder?
Also jedenfalls konnte ich Battlefield damit recht gut spielen und auch direkte Zweikämpfe gewinnen das war mit meinem alten TV nur mit Glück möglich. Die 120hz machen schon einen Unterschied aus.
Na dann Glückwunsch, der OLED als PC Monitor ist immer noch meine beste Hardware Entscheidung seit Langem. Warte mal ab, wie deine Kinnlade bei HDR Gaming am Boden liegt:biggrin:. Einziges Problem: LCD jedweder art - selbst die besten VA - geht danach nicht mehr:eek:.
aufkrawall
2019-05-14, 14:40:21
manchmal gibts trotz vsync off kein tearing sondern nur ruckeln.
Falsch, höchstens sieht das Tearing subjektiv aus wie Ruckeln oder DWM-Vsync oder FastSync ist an.
woodsdog
2019-05-15, 08:43:01
Was ist daran falsch?
Wenn Tearing aufgrund von X Y oder Z nun Ruckelt weil es _nicht Tearen kann_... ist es Ruckeln, kein Tearing.
BlacKi
2019-05-15, 10:13:40
ich hab vsync im treiber und in der gsync demo deaktiviert, trotzdem kein tearing nur ruckeln.
das wollte ich damit sagen.
aufkrawall
2019-05-15, 10:54:07
Was ist daran falsch?
manchmal gibts trotz vsync off kein tearing sondern nur ruckeln.
Falsch, höchstens sieht das Tearing subjektiv aus wie Ruckeln oder DWM-Vsync oder FastSync ist an.
Ohne VRR bei unpassender Framerate: Tearing (Vsync aus) oder Ruckeln (irgendein Vsync an). Nix Grauzone. Eigentlich nicht so schwer...
robbitop
2019-05-15, 11:10:35
Naja da ja ein Teil des Frames "alt" ist beim tearing ohne Vsync und ohne VRR kann das schon ein bisschen nach judder aussehen IMO.
Der Effekt ist natürlich bei 144 Hz Displays viel geringer, da öfter gerefresht wird. Bei 60 Hz Monitoren fällt das IMO schon auf.
aufkrawall
2019-05-15, 11:18:15
Darum ging es aber nicht. Es ging darum, dass kein Tearing zu sehen wäre.
BlacKi
2019-05-15, 11:44:03
ok, ich formuliere es anders, trotz vysnc aus ist manchmal noch vsync an. man meint dann vsync wäre of obwohl es nicht so ist.
robbitop
2019-05-16, 20:36:30
Mit hoher Refreshrate fällt das Tearing weniger auf. Die Tearlines sind öfter in Bereichen des Bildes, die nicht so direkt in's Auge springen und sie verweilen natürlich nicht so lange.
Tobalt
2019-05-17, 12:53:37
edit: denkfehler
=Floi=
2019-05-23, 21:50:25
https://www.youtube.com/watch?v=Um0PFoB-Ls4
Da wundert einem am GSync preis nichts mehr.
Sponsored bei nVidia. Und man sieht deutlich, dass es Zeit für OLED wird, das ganze Multi-Ansteueuerungs-Zeugs für "FALD" (von wegen Full...) ist Banane, sogar noch lieber direkt ein zweites Graustufen Panel verbauen, so teuer kann das doch gar nicht sein, das einfach nur gleich angesteuert wird ohne Farben.
=Floi=
2019-05-25, 06:41:36
Sponsored bei nVidia.
und?
Es ändert nichts am validierungsprozess von g-sync und deren hohe ansprüche an die panels. So einen tiefen einblick gab es bisher auch eher selten.
Natürlich soll man bei wie bei jeder Selbst-Darstellung Fragezeichen setzen. Die Testerei ist so aufwändig und teuer, aber obwohl das dementsprechend wichtig ist, unsere proprietären Prozessoren und Boards custom made und riesig, haben wir genau ein Lab, hängen darin Panles mit Klebeband an handgemachte Halterungen, verdunkeln unsere Darkrooms mit Papier, benutzen anscheinend hangelötete daughter boards etc. Narrative setzen für Bezeichnungen des konkurrierenden Labels inklusive (Rubber Stamp etc.). Versteh mich nicht falsch, mir gefällt dieser Hands-on-Approach, und er scheint den GSync-Monitor-Herstellern einiges an Validierungsarbeit abzunehmen dafür, dass er sie im Gegenzug in ein Scaler- und I/O-Korsett zwängt.
Bezüglich des Topics "bessere Monitore" scheint mir letztlich relevanter, dass für mich so Vieles im Zusammenhang mit LCD Bildschirmen einfach ein Sammelsurium an Workarounds für inhärente Schwächen geworden ist. OLED und irgendwann kommende Micro-LED beheben Teile davon. Ich denke aber, dass sogar der antiquierte Weg, Displays anzusprechen, endlich ersetzt gehört, das ganze Strahl-auf-Phosphorschicht-Prinzip muss den aktuellen Gegebenheiten angepasst werden.
Kartenlehrling
2019-05-26, 14:46:24
Am Ende litten die Asus Premium G-sync Monitor auch an der Pissecke und das bis heute.
aufkrawall
2019-05-26, 15:49:26
Es ändert nichts am validierungsprozess von g-sync und deren hohe ansprüche an die panels. So einen tiefen einblick gab es bisher auch eher selten.
Nur gibt es halt auch Flacker-Reports von Gsync-Monitoren mit Modul verbaut, hat etwa TurricanM3 im Anno 2070-Thread beschrieben. ;)
Es gibt keine Garantie für gar nichts. Natürlich trotzdem sehr löblich, dass Nvidia so ein Testlabor hat.
Unicous
2019-05-26, 16:15:08
Ist ja jetzt nicht so, dass AMD die Monitore nicht auch Funktionalität und Tauglichkeit testet um ihr "Seal of Approval" draufzuklatschen.
Nvidia ist hier der Mittelsmann über den alle gehen müssen, die Komponenten einkaufen müssen und bei Nichtbestehen kann man den Monitor (bzw. das Panel) nicht als G-Sync-fähig verkaufen.
Das würden alles die Hersteller machen, wenn G-Sync nicht proprietär wäre. :wink:
Im Endeffekt hat Nvidia die Monitor-Hersteller zum outsourcen gezwungen, dafür dürfen sie einen ordentlichen Aufpreis zahlen, der wiederum an die Kunden weitergegeben wird.
Bei G-Sync compatible scheint es im Übrigen nicht viel anders zu verlaufen als bei AMD. Es wird auf Adaptive Sync Fähigkeit überprüft und das wars.
Ich frage mich ob sie für die G-Sync compatible Einstufung auch einen Obolus zu entrichten haben.:wink:
aufkrawall
2019-05-26, 16:19:38
Bei G-Sync compatible scheint es im Übrigen nicht viel anders zu verlaufen als bei AMD. Es wird auf Adaptive Sync Fähigkeit überprüft und das wars.
Offenbar nicht, sonst würden ja zig Monitore das Siegel bei NV nicht bekommen, während quasi jeder VRR-Monitor als "FreeSync" von den Herstellern beworben wird.
Lowkey
2019-05-26, 16:54:22
Ich frage mich seit gestern, ob der Acer Nitro 4k mit 144hz auf 27" für zB. Fortnite eine Wahl wäre. Denn die Reaktionszeit stimmt. Gegenüber einem 24" Gerät hat man nur den Nachteil mit den zusätzlichen 3". Bei den FPS kann man sicherlich die 144fps halten. Erste Tests zeigen bei Fortnite an die 300fps. Der Vorteil wäre die Bildschärfe und auf Antialiasing kann man auch verzichten.
Irgendeine Meinung, abgesehen vom hohen Preis bzw. viel zu hohen Preis für die Gsync Version?
Unicous
2019-05-26, 17:06:21
Offenbar nicht, sonst würden ja zig Monitore das Siegel bei NV nicht bekommen, während quasi jeder VRR-Monitor als "FreeSync" von den Herstellern beworben wird.
Es wurde doch schon festgestellt, dass "FreeSync"-Monitore die bei Nvidia durchgefallen sind einwandfrei laufen und die mit G-Sync compatible beworbenen keine besonderen Überflieger sind.
Wurde nicht auch mit einem Samsung verglichen, der kurz zuvor ein Firmware Update bekommen hatte. Irgendetwas war da fishy, kann mich aber nicht mehr richtig erinnern.
Im übrigen beworben ist etwas anderes als das Zertifikat auch bekommen. Gab ja ein paar Fälle wo die Hersteller das Logo auf den Karton gedruckt haben und AMD davon nichts wusste. Oder Asus die auf einer Messe bewusst von einem Adapative Sync Monitor sprachen, weil er noch nicht getestet wurde.
Beide Herangehensweisen sind nicht optimal. Die Monitorhersteller ruhen sich schön auf dem gemachten Bett auf. Nvidia setzt auf einen proprietären Standard und tritt als alleiniger "Standards Body" auf der rigide Standards setzt und durchsetzt, AMD hat zum Teil viel zu lasche Vorgaben und biegt den Rücken für die Monitorhersteller krumm, damit sie überhaupt FreeSync/Adaptive Sync implementieren.
Im Endeffekt ist der Kunde wieder gearscht.:frown:
aufkrawall
2019-05-26, 17:29:43
Es wurde doch schon festgestellt, dass "FreeSync"-Monitore die bei Nvidia durchgefallen sind einwandfrei laufen und die mit G-Sync compatible beworbenen keine besonderen Überflieger sind.
Zumindest hatte ihr kaputter defakto Beta-Treiber da sicherlich seinen Teil zu beigetragen. ;)
Ich glaub aber schon, dass bei einem nicht geringen Teil der Geräte, die die Zertifizierung nicht schaffen (zumindest aus anderen Gründen als der Unfähigkeit des eigenen Treiberteams), dies durchaus gerechtfertigt sein kann.
Die ganze LCD-Kacke neigt einfach gerne zum Flimmern bei rapiden Refreshraten-Wechseln, und dabei gibt es sicherlich eine ziemlich große Streuung. Das Problem ist ja auch, dass nicht jeder Content gleich stark das Flackern auslöst. Offenbar ist das Verhalten auch von der dargestellten Farbe der Pixel abhängig. Das bei Nvidia gezeigte Durchlaufen von Unigine-Benchmarks überzeugt mich dahingehend auch nicht so völlig...
Unicous
2019-05-26, 17:35:44
Ja, aber da wir nicht wissen welche Methodik angewendet wird (genauso wenig wie bei AMD :rolleyes:) können wir gar nicht wissen welche Kriterien dazu führen, dass ein Monitor das Zertifikat nicht erhält. Und die edge cases die bei den "echten" G-Sync Monitoren bzw. Panels zum Tragen kommen werden bei compatible eben gar nicht erst getestet.
Ich fände es viel besser wenn sich Nvidia mit AMD, Intel, VESA und Co. zusammengesetzt hätte und eine gemeinsame Methodik und Standard für ein Qualitätslabel zu schaffen. Aber Pustekuchen wir labeln es nach unserem Geheimrezept und die ungewaschene Masse frisst uns eh aus der Hand. Na schönen Dank auch.
akuji13
2019-05-26, 21:31:36
Das Problem ist ja auch, dass nicht jeder Content gleich stark das Flackern auslöst.
Oder ob überhaupt Flackern auftritt.
Das war/ist ja schon beim nativen G-Sync kaum zu ergründen.
Da hatte ich Monitor xy der in 20 Spielen problemlos läuft und dann nur an einer bestimmten Stelle in Wildlands zickt...um mit dem nächsten Treiber zu funktionieren und dem übernächsten wieder zu zicken. :freak:
Bin dazu übergegangen wie beim oc alles nur noch temporär zu betrachten.
Ist ja jetzt nicht so, dass AMD die Monitore nicht auch Funktionalität und Tauglichkeit testet um ihr "Seal of Approval" draufzuklatschen.
Monitor kann VRR --> du darfst Freesync draufklatschen, viel mehr ist es nicht.
Freesync 2 ist da etwas besser, wobei auch hier nur Features abgefragt werden, nicht wie gut diese umgesetzt sind.
Das heißt natürlich nicht, dass es nicht gute Freesync-Monitore gibt, nur Freesync ist ein reines Featurelevel, G-Sync ist ein Qualitätssiegel.
Kartenlehrling
2019-05-27, 14:48:05
PG27UQX, 576 dimming zone 'Mini-LED' 27" '4K' UHD 144Hz Model Release verzögert sich
https://www.nvidia.com/en-us/geforce/news/geforce-gsync-ultimate-mini-led-hdr-4k-144hz-gaming-monitors/
=Floi=
2019-05-27, 19:35:42
Natürlich soll man bei wie bei jeder Selbst-Darstellung Fragezeichen setzen. Die Testerei ist so aufwändig und teuer, aber obwohl das dementsprechend wichtig ist, unsere proprietären Prozessoren und Boards custom made und riesig, haben wir genau ein Lab, hängen darin Panles mit Klebeband an handgemachte Halterungen, verdunkeln unsere Darkrooms mit Papier, benutzen anscheinend hangelötete daughter boards etc. Narrative setzen für Bezeichnungen des konkurrierenden Labels inklusive (Rubber Stamp etc.). Versteh mich nicht falsch, mir gefällt dieser Hands-on-Approach, und er scheint den GSync-Monitor-Herstellern einiges an Validierungsarbeit abzunehmen dafür, dass er sie im Gegenzug in ein Scaler- und I/O-Korsett zwängt.
.
Denke NV will selbst die hand darauf haben, weil sie mit dem hersteller support nicht zufrieden waren.
Die anforderungen an G-Sync sind ja schlicht absurd. (wenn man an die ganzen billigen panels und den preiskampf denkt.)
Gerade das quick and dirty finde ich geil, weil man hier einen echten blick hinter die kulissen bekam und keinen geschönten!
Als ob das von der pressestelle jemand so durchgehen lassen hätte... :freak: Hier sieht man auch, dass der bereich eigentlich nicht für führungen zugänglich ist, weil es sonst cleaner aussehen würde.
ezzemm
2019-05-28, 06:26:43
https://www.nvidia.com/en-us/geforce/news/geforce-gsync-ultimate-mini-led-hdr-4k-144hz-gaming-monitors/
Mal schauen ob die ohne Lüfter auskommen...
Mal schauen ob die ohne Lüfter auskommen...
Da muss ich dich gleich enttäuschen, die haben sogar 2 davon ;D.
Swift PG27UQX also introduces new smart fan controls, enabling gamers to adjust fan speeds directly from the display. These controls allow the user to dial in the exact rotational speed needed to maintain ideal thermals without causing unnecessary noise. The display’s dual fans operate more efficiently than ever, generating barely more than a whisper.
Guru3D - ASUS Announces ROG Swift PG27UQX Mini-LED G-SYNC Ultimate Gaming Minitor (https://www.guru3d.com/news-story/asus-announces-rog-swift-pg27uqx-mini-led-g-sync-ultimate-gaming-minitor.html)
https://www.nvidia.com/en-us/geforce/news/geforce-gsync-ultimate-mini-led-hdr-4k-144hz-gaming-monitors/
Eine 3-Stellige Anzahl an Zonen bei Millionen von Pixeln ist immer noch Lachhaft.
Wird langsam mal Zeit, dass wirklich OLED verwendet wird.
Vor allem bei den BFGs ist es schon lächerlich, die kosten mehr als ein vergleichbarer OLED der selben größe, der die ganzen Krücken nicht braucht um ein annehmbares Bild zu liefern.
Rampage 2
2019-05-29, 18:06:36
https://www.nvidia.com/en-us/geforce/news/geforce-gsync-ultimate-mini-led-hdr-4k-144hz-gaming-monitors/
WARUM kommt keiner der beiden Hersteller auch nur auf den Gedanken, auch 1440p-Modelle mit derselben Technologie (QD, MLED, LD/FALD, HDR) zu bauen!?
Etwa, weil sie wissen, dass dann Niemand mehr diese arschteuren 4K-Modelle kaufen wird? Dieselbe Technik in 1440p wäre vermutlich viel billiger - etwa "nur" ~ 1000€... :freak:
R2
Simon
2019-05-29, 18:15:08
Weil es Verschwendung ist, fuer so ein Nischenprodukt eine extra Fertigungsstrasse aufzulegen. 1080p oder 4k. Vor allem der groessere Konsolenmarkt kennt nix anderes.
Und vor allem weil ein 4K Panel kaum billiger ist.
Rampage 2
2019-05-29, 19:21:58
Weil es Verschwendung ist, fuer so ein Nischenprodukt eine extra Fertigungsstrasse aufzulegen.
Nischenprodukt WTF?
Die Mehrheit der PC-Gamer spielt immer noch in 1080p. Und wieviele GPUs können alle (oder fast alle) aktuellen Spiele mit maximalen Settings (außer AA) in 4K flüssig darstellen? Ganz zu schweigen von zukünftigen Spielen. Und auch der VRAM-Bedarf steigt dann massiv an - eine 8GB-Karte kannste dann vergessen und es gibt derzeit keine 12+ GB GPU in bezahlbaren Regionen. Man kauft sich nicht alle 1-2 Jahre eine Enthusiast-GPU und Viele können oder wollen sich gar keine 800+ Euro GPU leisten...
1440p ist der perfekte Sweetspot - Mondpreise weder für GPU noch für Monitor nötig!
Und die Konsoleros spielen in 4K ohne zu wissen, dass viele ihrer Spiele Konsolenports mit massiv herabgesetzten Settings sind - natürlich sind die PC-Versionen langsamer, schließlich kann man dort maximale Details einschalten:P
R2
WARUM kommt keiner der beiden Hersteller auch nur auf den Gedanken, auch 1440p-Modelle mit derselben Technologie (QD, MLED, LD/FALD, HDR) zu bauen!?
Weil nicht das Panel das teure ist sondern das drumherum, und bei 4k kann man eher einen hohen Preis rechtfertigen.
Simon
2019-05-30, 15:11:12
Nischenprodukt WTF?
Die Mehrheit der PC-Gamer spielt immer noch in 1080p.
Na dann sind wir uns ja einig, dass 1440p ein Nischenprodukt ist, im Vergleich zu 1080p (und auch 4k).
Mit ordentlichem Upsampling ist auch 4k kaum ein Problem: Ich sitze 1.5m von meinem 55" 4K TV weg (geht gerade nicht anders) und sehe sehr selten Artefakte vom Upsampling der PS4 Pro.
Rampage 2
2019-06-21, 17:08:23
Ich habe einige Fragen zum Acer Nitro XV2 (XV272U) (27", 1440p, IPS, FreeSync 48-144Hz, G-Sync-compatible lt. CB-Forum):
1.) Kann dieses Gerät LFC? Lt. Geizhals kein LFC-Support und im Internet konnte ich keine klaren Informationen dazu finden - lt. 2 Quellen in einem Reddit-Thread dann doch wieder ("ab unter 60Hz", "ab unter 48Hz"). Was denn jetzt?
2.) Fühlt sich natives Variable Sync bis runter auf 30Hz (wie es bei vielen G-Sync-Modellen der Fall ist) stets besser an als LFC von 30-48Hz? Diese Frage ist eines der Gründe, die mich weiterhin an G-Sync festhalten...
3.) Wie sieht es mit der tatsächlichen Kompatibilität von G-Sync mit FS-Monitoren aus? Also Flackern, Bildfehler, schlechtere Qualität und so weiter.
Laufen FS-Monitore mit GPUs ohne nativen/echten FS-Support (= GeForce-GPUs, inkl. Turing) stets schlechter als mit nativen FS-GPUs? (= AMD-GPUs, Intel-iGPUs (?) )
Ich will nach dem Kauf keine bösen Überraschungen erleben, falls ich mich für einen FS-Monitor entscheide und es an meine RTX 2070 anschließe...
4.) Sind G-Sync-Monitore bzw. G-Sync an sich immer noch "besser" als FreeSync-Monitore bzw. FreeSync (Bildqualität, Bildwiedergabe, Reaktionszeiten, Input-Lag, Motion Blur, Ghosting, Flackern, etc.) oder herrscht hier Gleichstand? Wenn doch besser, dann viel besser oder nur marginal besser?
5.) Die Reaktionszeiten des XV272U sollen recht schlecht sein (Quelle: der gleiche Reddit-Thread wie oben erwähnt). Haben manche von euch hier Erfahrungen dazu?
6.) Das XV272U wird anscheinend mit einem neueren Innolux-Panel ausgeliefert und nicht mit dem älteren AU Optronics-Panel. Eure Meinungen dazu?
Na dann sind wir uns ja einig, dass 1440p ein Nischenprodukt ist, im Vergleich zu 1080p (und auch 4k).
1080p ja, aber 4K kann doch nicht sein - mit Sicherheit ist 1440p verbreiteter als 4K. Selbst eine 2080 Ti schafft nicht ganz 60fps in 4K bei allen aktuellen Spielen bei maximalen Settings - zukünftige Titel noch nicht mal eingerechnet. Und nein, "Schalter nach links" ist kein Argument und war es auch nie gewesen; schon gar nicht bei einer 1000€-Karte!
Was mich persönlich angeht: Ich will (möglichst) niemals unterhalb von maximalen Settings zocken - egal wie billig oder teuer die gekaufte GPU ist!
Außerdem will man möglichst viele Spiele in 144Hz spielen, wenn man sich schon einen HighEnd-Monitor kauft - 4K/144Hz in vielen (nicht allen;)) Spielen wird wohl auch mit der nächsten GPU-Generation (Ampere, Arcturus) nicht möglich sein...
Mit ordentlichem Upsampling ist auch 4k kaum ein Problem: Ich sitze 1.5m von meinem 55" 4K TV weg (geht gerade nicht anders) und sehe sehr selten Artefakte vom Upsampling der PS4 Pro.
Viel sinnvoller fände ich es, wenn wieder Monitore rauskommen würden, wo man einfach die Auflösung verringern oder erhöhen könnte *ohne* dass das Bild dann wie Brei aussieht - so wie damals bei den CRT-Monitoren. Das würde das Problem der mangelnden GPU-Leistung auf einen Schlag erledigen...
Ganz abgesehen davon, dass 4K auf 27 Zoll etwas zu viel des Guten ist (Stichwort Skalierung; vor allem in älteren Games). Da braucht es vielleicht mehr als 27 Zoll, aber höher als 27/28 Zoll will ich auf keinen Fall gehen bei einem PC-Monitor.
R2
looking glass
2019-06-21, 17:59:43
Hab den Monitor am laufen, versteh das nicht falsch, aber hast mal ins Handbuch gesehen, das PDF ist auf deren Seite verlinkt:
https://www.acer.com/ac/de/DE/content/support-product/7833?b=1
Da ich technisch nicht so firm bin, kann ich vieles von dir gefragte einfach nicht adäquat beantworten, sry. Ich komme von einem 60Hz TN Notebook, insofern kann ich bezüglich 5. nur sagen, das ich die 144Hz merke, ich nicht wieder zurück auf 60Hz will und ansonsten wegen direkter Vergleichsmöglichkeit (also zwei 144Hz nebeneinander) die Reaktionszeitkritik nicht ganz verstehe. Für mich ist es sehr schön klar, ich sehe bei Bewegungen kaum noch verschwommen (z.B. beim Text scrollen oder Mauszeiger bewegen).
Zu 3. läuft soweit bisher super, hatte bisher nur 2, 3 Spiele wo ich Abweichungen bemerkt habe, die nicht da sein sollten/dürften - das letzte war "blackwood crossing", wo sich so komische Ruckler (zuckeln) bemerkbar machten, wenn man sich bewegte, trotz weit über 100Hz. Bei einem anderen Spiel hatte ich im Gegensatz dazu diese komischen "Ruckler" nur wenn ich an einem aktiven Terminal Ingame stand. Hab ebenfalls eine 2070 (Quit Bios), also genug Power. Wenn ich sage 2, 3 Spiele dann bitte in Relation setzen, ich habe dieses Jahr schon gut 70 Spiele auf dem neuen System gedaddelt.
Ansonsten bin ich bisher nicht in die Verlegenheit gekommen, unter 48FPS zu rutschen (also wo dann LFC greifen würde).
Was ich sagen kann, das Pannel soll 10 Bit bringen, allerdings nur wenn man HDR einschaltet, wenn man aber HDR drin hat, gibt es kein Freesync, wenn Du Freesync willst, bekommst nur 8Bit.
Ansonsten kann ich sagen, ich habe keine Pixelfehler, allerdings halt zu den Rändern hin kein ordentliches Schwarz, kennt man ja, stört mich nicht.
Rampage 2
2019-06-23, 23:02:39
Hab den Monitor am laufen, versteh das nicht falsch, aber hast mal ins Handbuch gesehen, das PDF ist auf deren Seite verlinkt:
https://www.acer.com/ac/de/DE/content/support-product/7833?b=1
Ansonsten bin ich bisher nicht in die Verlegenheit gekommen, unter 48FPS zu rutschen (also wo dann LFC greifen würde).
Das Problem ist ja, dass im Handbuch nichts über LFC geschrieben steht - weder, dass es unterstützt wird noch, dass es *nicht* unterstützt wird. Ich hatte das Handbuch schon überprüft BEVOR ich hier mein letztes Posting verfasst habe - eben habe ich es nochmal überflogen und konnte nichts zu LFC finden. Im technischen Datenblatt auf der Produktseite steht auch nichts dazu...
Deswegen ja auch die Frage, falls Andere hier im Forum oder Besitzer mehr dazu wissen...
Aber unabhängig davon können natürlich auch andere Member hier mit FS-Monitoren ihre Eindrücke berichten, ob der LFC-Framebereich (30-48Hz) sich genauso gut anfühlt wie der native VS-Framebereich (48-144Hz) ;)
Ich komme von einem 60Hz TN Notebook, insofern kann ich bezüglich 5. nur sagen, das ich die 144Hz merke, ich nicht wieder zurück auf 60Hz will [...]
Ich rezitiere ja auch nur das Feedback von anderen Besitzern - der besagte Besitzer behauptet z.B. , dass Acer VRB die Reaktionszeit (oder aber die Bildwiedergabe) sogar verschlimmert anstatt sie zu verbessern. Zumindest habe ich seine Behauptung so interpretiert:wink:
Zu 3. läuft soweit bisher super, hatte bisher nur 2, 3 Spiele wo ich Abweichungen bemerkt habe, die nicht da sein sollten/dürften - das letzte war "blackwood crossing", wo sich so komische Ruckler (zuckeln) bemerkbar machten, wenn man sich bewegte, trotz weit über 100Hz. Bei einem anderen Spiel hatte ich im Gegensatz dazu diese komischen "Ruckler" nur wenn ich an einem aktiven Terminal Ingame stand. Hab ebenfalls eine 2070 (Quit Bios), also genug Power. Wenn ich sage 2, 3 Spiele dann bitte in Relation setzen, ich habe dieses Jahr schon gut 70 Spiele auf dem neuen System gedaddelt.
Könnte es sein, dass es gar nicht an G-Sync/Nvidia-GPU liegt - diese Symptome also auch bei einer AMD-GPU auftreten würden? Und kannst du die Spiele mal nennen?
Ist es allgemein so, dass manche Spiele nicht mit G-Sync auf FS-Monitor funzen? Man kann ja nicht im Vornherein wissen, ob die Spiele, die man spielt oder gar ausgerechnet das Lieblingsspiel betroffen sind... (zukünftige Spiele noch nichtmal eingeschlossen)
Gibt's hier im Forum oder in anderen Foren einen Sammelthread mit einer Liste von Spielen, die Probleme bereiten? Oder ist das von Hersteller zu Hersteller bzw. Modell zu Modell jedesmal anders?
Was ich sagen kann, das Pannel soll 10 Bit bringen, allerdings nur wenn man HDR einschaltet, wenn man aber HDR drin hat, gibt es kein Freesync, wenn Du Freesync willst, bekommst nur 8Bit.
Ist das bei GSync-Monitoren genauso, dass bei manchen Modellen G-Sync + HDR gleichzeitig nicht möglich sind?
Ansonsten: solange der Monitor *jederzeit* immer natives 8Bit ausgibt, reicht mir das - aber natürlich würde ich gerne HDR mitnehmen, wann immer es möglich ist.
R2
aufkrawall
2019-06-23, 23:58:13
Aber unabhängig davon können natürlich auch andere Member hier mit FS-Monitoren ihre Eindrücke berichten, ob der LFC-Framebereich (30-48Hz) sich genauso gut anfühlt wie der native VS-Framebereich (48-144Hz) ;)
Gibts von Gipsel, ab ~2,5x soll man das Doubling nicht mehr merken. Du hast da übrigens einen gehörigen Denkfehler, LFC ist ohne Gsync-Modul ein Treiber-Feature.
akuji13
2019-06-24, 10:33:06
Aber unabhängig davon können natürlich auch andere Member hier mit FS-Monitoren ihre Eindrücke berichten, ob der LFC-Framebereich (30-48Hz) sich genauso gut anfühlt wie der native VS-Framebereich (48-144Hz) ;)
Das kann ich dir trotz vieler FS Monitore nicht sagen.
Ich empfinde die allermeisten Spiele auf einem 144Hz Gerät als unangenehm wenn weniger als 60 fps anliegen.
VRR hilft mir da inzwischen nur noch sehr wenig weiter.
Liegt auch daran das die panel deutlich abbauen in Sachen blur wenn die fps/Hz derart gesenkt werden.
Auf meinem 40" Philips sind auch weniger ok weil die anderen Baustellen dort es überlagern (nur 60Hz, ein grundsätzlich langsames panel).
1.) Kann dieses Gerät LFC? Lt. Geizhals kein LFC-Support und im Internet konnte ich keine klaren Informationen dazu finden - lt. 2 Quellen in einem Reddit-Thread dann doch wieder ("ab unter 60Hz", "ab unter 48Hz"). Was denn jetzt?
LFC ist unabhängig vom Gerät und macht der Grafiktreiber.
LFC ist ja nichts anderes, als dass der selbe Frame unterhalb der VRR-Grenze mehrfach ausgegeben wird.
Einzige Voraussetzung des Monitors ist VRR-Bereich von mindestens dem Faktor 2,5. Theoretisch ginge es schon ab einem Faktor 2, dann kann es allerdings Sprünge geben, wenn die Framerate ganz knapp unter dem Minimum der VRR-Range liegt bzw. ständig zwischen dem unteren Bereich von VRR und darunter schwankt.
2.) Fühlt sich natives Variable Sync bis runter auf 30Hz (wie es bei vielen G-Sync-Modellen der Fall ist) stets besser an als LFC von 30-48Hz? Diese Frage ist eines der Gründe, die mich weiterhin an G-Sync festhalten...
Das ist grundsätzlich egal.
3.) Wie sieht es mit der tatsächlichen Kompatibilität von G-Sync mit FS-Monitoren aus? Also Flackern, Bildfehler, schlechtere Qualität und so weiter.
Besser als NVs Kompatibilitätsliste den Anschein hat. NV macht da wohl sehr genaue Tests bevor es ein Logo gibt, und wenn sie in irgendeiner Situation ein Problem feststellen gibt es kein Logo. Du wirst in der Realität aber evtl. nur ganz selten oder gar nie die Situation haben wo es dann tatsächlich zu Flackern oder ähnlichem kommt.
Laufen FS-Monitore mit GPUs ohne nativen/echten FS-Support (= GeForce-GPUs, inkl. Turing) stets schlechter als mit nativen FS-GPUs? (= AMD-GPUs, Intel-iGPUs (?) )
Nein, sie laufen in der Regel genau gleich gut/schlecht. Freesync ist nur ein Checklistenfeature, das bestimmte Features verlangt, aber nicht wie gut diese umgesetzt wurden.
Mit Freesync 2 ist man schon deutlich besser dran, da Freesync 2 zwingend eine VRR-Range größer 2,5, sowie HDR und wide color support erfordert.
Auch wenn weiterhin keine qualitative Umsetzung dieser Features erzwungen wird, heißt das in der Regel, dass deutlich bessere Panels zum Einsatz kommen müssen als bei Freesync.
G-Sync dagegen ist ein Qualitätssiegel, das nicht nur das Vorhandensein bestimmter Features verlangt, sondern auch eine Mindestqualität in der Umsetzung.
4.) Sind G-Sync-Monitore bzw. G-Sync an sich immer noch "besser" als FreeSync-Monitore bzw. FreeSync (Bildqualität, Bildwiedergabe, Reaktionszeiten, Input-Lag, Motion Blur, Ghosting, Flackern, etc.) oder herrscht hier Gleichstand? Wenn doch besser, dann viel besser oder nur marginal besser?
Nicht zwangsweise. Freesync-Monitore können genauso gut oder besser sein müssen es aber nicht.
Genauso wie bei Monitoren ohne VRR Support gibt es eben qualitative Unterschiede die einfach vom Verwendeten Panel abhängen.
Generell würde ich auf die allgemeine Qualität des Monitors achten und nicht unbedingt auf die verwendete VRR-Umsetzung.
Viel sinnvoller fände ich es, wenn wieder Monitore rauskommen würden, wo man einfach die Auflösung verringern oder erhöhen könnte *ohne* dass das Bild dann wie Brei aussieht - so wie damals bei den CRT-Monitoren. Das würde das Problem der mangelnden GPU-Leistung auf einen Schlag erledigen...
Bei CRT-Monitoren sieht das Bild immer "wie Brei".
Generell wird es unproblematischer nicht Native Auflösungen zu verwenden, je kleiner die Pixel sind. 1440p auf einem 4k-Monitor anzuzeigen sieht normalerweise nicht schlechter aus als auf einem nativen 1440p Panel. Klar sieht es schlechter aus als 4k auf dem 4k Monitor.
Der Schärfeverlust entsteht hauptsächlich durch die verringerte Anzahl an Pixel. 1440p hat nicht mal die hälfte der Pixel von 4k, klar sieht das deutlich unschärfer aus. Das macht es aber genauso auf einem 1440p Panel.
Ganz abgesehen davon, dass 4K auf 27 Zoll etwas zu viel des Guten ist (Stichwort Skalierung; vor allem in älteren Games). Da braucht es vielleicht mehr als 27 Zoll, aber höher als 27/28 Zoll will ich auf keinen Fall gehen bei einem PC-Monitor.
Warum nicht, was spricht gegen einen größeren Monitor?
Abgesehen davon haben 3D-Spiele in der Regel überhaupt kein Problem mit höheren Auflösungen, da die Skalierung eben nicht von der Auflösung abhängt.
Probleme gibt es mit älterer Win32 Software. Wobei hier Windows 10 mittlerweile sehr viele Möglichkeiten zur Skalierung anbietet, und man für so ziemlich Alles ein akzeptables Ergebnis erreichen kann.
looking glass
2019-06-24, 16:12:30
@ Rampage,
ich hab noch mal rein gesehen in meine Monitorkonfig und ich habe VRB auf Aus, Grund ist simpel, wenn Freesync aktiviert wird, stellt sich VRB automatisch auf aus, beides zusammen geht nicht, zumal VRB wahnsinnig viele Abschaltfaktoren hat:
1. Der Modus PIP/PBP (BiB/BuB) wird von VRB nicht unterstützt.
2. HDR-Einstellung: „Auto (Autom.)“ wird von VRB nicht unterstützt.
3. Ist VRB auf „On (Ein)“ eingestellt und FreeSync wird aktiviert, setzt sich VRB
automatisch auf „Off (Aus)“.
4. Ist VRB auf „On (Ein)“ eingestellt und es werden Einstellungen vorgenommen
(Brightness (Helligkeit), Blue Light (Blaulicht), ACM), setzt sich VRB automatisch auf „Off
(Aus)“.
5. Die VRB-Funktion wirkt sich nicht auf die Helligkeit von (Logo, Aim Point ((Zielpunkt)),
einer Meldung und des Eingangssymbols) aus.
6. Ist VRB auf „On (Ein)“ eingestellt und wird das Eingangs-Timing < 75 Hz festgestellt,
deaktiviert sich VRB automatisch und ist ausgegraut.
7. Ist VRB = (Normal oder Extreme (Extrem)), ist die allgemeine Helligkeit aufgrund einer
saubereren IC-Steuerung der Bilddynamik dunkler und „Extreme (Extrem)“ ist dunkler als
„Normal“.
Btw. HDR limitiert, glaube ich, auf 120Hz. Ist immer noch mehr als genug, aber bedenke, das ist nur HDR 400, das ist das unterste Limit, ehrlich, Du hast davon nicht wirklich was, wer HDR wirklich nutzen will, sollte lieber nach einem Monitor mit einem höheren HDR Faktor suchen + soweit ich das noch zusammen bekomme Freesync 2, das dann HDR und VRR vereint (wobei ich nicht weiß, ob G-Sync compatible das beherrscht, ich glaube das kann erst G-Sync 2 und dort hatten die Monitormodulle ja alle Lüfter).
Ach ja, ich stand beim Kauf vor der Entscheidung Acer Nitro XV272U oder den Acer Nitro VG270U. Beides sind 144Hz/1440p/27"/IPS Bildschirme. Eigentlich wollte ich auf den VG gehen, weil zu dem Zeitpunkt es den XV nicht gab. Hatte dann Glück, das just zum Kaufzeitpunkt endlich wieder XV in den Handel kamen. Warum ich auf den XV gegangen bin, weil der VG ein AUO Panel verbaut hat und verdammte Scheisse, diese Ficker es seit Jahren nicht hinbekommen genau in dem Segment eine vernüftige Qualität zu liefern, Du hast so eine Scheiss Panellotterie, da bin ich lieber das andere Risiko eingangen.
Btw. wenn es bei dir noch ein wenig warten kann, bei LG soll Ende des Jahres ebenfalls ein 27"/144Hz/1440p/IPS Monitor kommen, der dann wohl nen LG Panel bekommt, die haben ihre Quali etwas besser im Griff, AUO lebt in dem Bereich eigentlich nur, weil sie keine Konkurenz haben, nicht weil sie wirklich was gutes abliefern.
Vergiss irgendwas-sync.
Low-persistancy ist viel wichtiger als g-sync, freesync whatever, und meines Wissens gibt es noch keinen Monitor der low persistancy mit VRR gleichzeitig kann.
Bei 144Hz muss man schon sehr genau schauen um tearing überhaupt zu sehen, da kann man gleich ohne irgendwelches sync spielen, hat damit die geringste Latenz und kann den low persistency modus seines Monitors aktivieren (kann fast jeder 144Hz G-Sync, und auch sehr viele Freesync-Modelle).
Ex3cut3r
2019-06-24, 19:26:29
Nja, HDR ohne OLED oder wenigstens Local Dimming bei LCD Screens macht IMO keinen Sinn, am ende hat mit man HDR nur ein "knalligeres" Bild, das wars dann aber auch schon. Das kriegt man auch so im NV CP mit der Digitalen Farbanpassung und/oder Reshade hin. Grade diese HDR 400 Monitore sind doch ein Witz was HDR angeht.
Dann lieber ein gutes SDR Bild wenn es geht ohne IPS Glow/Bleeding. Ich glaube auch nicht, dass HDR am PC noch groß besser wird, wenn Local Dimming integriert wird, wollen Sie bisher immer gleich eine horrende Summe dafür, Stichwort G-Sync HDR, 2000-3000€ für 27" bzw 35"....sind an der Tagesordnung.
Nur dafür kriegt man im TV Bereich einen 65" OLED. Nja, ich denke der PCler freut sich am ende des Tages über ein gutes SDR Bild mit VRR und hohen HZ/FPS mehr als über Pseudo HDR. Es ist leider so. Vermutlich ist Local Dimming mit VA HDR und G-Sync/Fresync das höchste der Gefühle, wenn es um die Reine Bildqualität geht.
Tobe1701
2019-06-24, 19:56:54
Bei 144Hz muss man schon sehr genau schauen um tearing überhaupt zu sehen
Warum wird so ein Quark immer und immer wieder behauptet. Wer für Tearing empfindlich ist sieht auch bei 144 Hz problemlos ob VRR an ist oder nicht. Niemals wieder ohne für mich.
Warum wird so ein Quark immer und immer wieder behauptet. Wer für Tearing empfindlich ist sieht auch bei 144 Hz problemlos ob VRR an ist oder nicht. Niemals wieder ohne für mich.
Weil es stimmt.
Mit 144Hz ist jeder Tear unter 7ms Sichtbar, da muss man schon sehr genau schauen um in diesen 7ms einen Tear überhaupt zu erkennen.
Wenn die Framerate auch noch hoch ist hilft das noch weiter, weil damit die Unterschiede zwischen den Frames gering werden.
Nein es ist nicht unsichtbar, aber man muss schon explizit danach suchen, im normalfall wenn man sich auf das Spielgeschehen konzentriert nimmt man kein Tearing mehr wahr.
Tobalt
2019-06-26, 08:27:10
ist doch wurst wir lange ein tear sichtbar ist... gerade bei hohen fps ist sogut wie IMMER ein tear im Bild.. natürlich ist das absolut klar zu sehen.
Dennoch habe ich lange so gespielt da es mich einfach nicht so sehr gestört hat und für mich die konsistent niedrige Latenz wertvoller war als tearingfreiheit mittels vsync
nun da ich aber bei vrr auch mit der Latenz zufrieden bin, nutze ich das nur noch
woodsdog
2019-06-26, 10:18:49
Weil es stimmt.
Mit 144Hz ist jeder Tear unter 7ms Sichtbar, da muss man schon sehr genau schauen um in diesen 7ms einen Tear überhaupt zu erkennen.
nein, tut es nicht.
Ich sehe Tearing @144Hz auch sofort ohne explizit danach zu suchen.
Vieleicht einfach dein subjektives Empfinden nicht pauschal als allgemeingültig darstellen? Offenkundig sind Menschen unterschiedlich empfindlich was das angeht...
Soll ja auch jede menge Leute geben die mit 25-30Hz/FPS spielen können :freak:
M4xw0lf
2019-06-26, 10:20:26
Weil es stimmt.
Mit 144Hz ist jeder Tear unter 7ms Sichtbar, da muss man schon sehr genau schauen um in diesen 7ms einen Tear überhaupt zu erkennen.
Weil es ja immer nur einen Frame mit Tear drin gibt, ne?
Weil es ja immer nur einen Frame mit Tear drin gibt, ne?
So lange die Framerate nicht der doppelten Refreshrate ist gibt es immer nur 1 Tear ja.
Soll ja auch jede menge Leute geben die mit 25-30Hz/FPS spielen können :freak:
Nicht wenn du mit low motion blur spielst, dann fängt alles unter ~90FPS an zu ruckeln :D
Unicous
2019-06-26, 17:12:38
VESA Announces DisplayPort 2.0 Standard: Bandwidth For 8K Monitors & Beyond (https://www.anandtech.com/show/14590/vesa-announces-displayport-20-standard-bandwidth-for-8k-monitors-beyond)
DisplayPort 2.0, in turn, is shooting for 8K and above. Introducing not just one but a few different bitrate modes, the fastest mode in DisplayPort 2.0 will top out at 80 Gbps of raw bandwidth, about 2.5 times that of DisplayPort 1.3/1.4. Layered on that, DisplayPort 2.0 also introduces a more efficient coding scheme, resulting in much less coding overhead. As a result, the effective bandwidth of the new standard will peak at 77.4 Gbps, with at 2.98x the bandwidth of the previous standard is just a hair under a full trebling of available bandwidth.
Damit dürfte für eine Weile vorgesorgt sein.:freak:
https://images.anandtech.com/doci/14590/VESA_DisplayPort_2.0_Chart.jpg
3% overhead ist auch eine Ansage.
Rente
2019-06-26, 17:44:17
Thunderbolt 3 im neuen Gewand also.
Rather than attempting to reinvent the wheel, for DisplayPort 2.0 the VESA decided to take advantage of Intel’s existing Thunderbolt 3 technology, which already hits the data rates that the VESA was looking for. While initially a proprietary Intel technology, Intel released the technology to the wider industry as a royalty-free standard earlier this year. This allowed third parties to not only create pure Thunderbolt 3 devices without paying Intel, but also allowed Thunderbolt 3 technology to be repurposed for other standards. So whereas USB4 is a more straightforward rebranding of Thunderbolt 3, for DisplayPort 2.0 takes it in a different direction by essentially creating a one-way Thunderbolt 3 connection.
Under the hood, Thunderbolt 3 operates fairly similarly to DisplayPort, with 4 high-speed each lanes carrying packets of information at 20 Gbps. However while TB3 is a true bi-directional, full-duplex link with 2 lanes allocated for each direction, DisplayPort is focused on sending large volumes of data in just one direction: out. As a result, DisplayPort 2.0 reverses the two inbound lanes to outbound lanes, allowing the four total lanes to be combined into a single 80 Gbps link.
Passive Kabel sind im ersten Entwurf aber auf 40 Gbps begrenzt, also eigentlich sogar schlechter als die geplanten 48 Gbps-Kabel für HDMI2.1.
€: Oder ich verstehe "Tethered" falsch.
Unicous
2019-06-26, 17:53:59
Tethered bedeutet, dass die Geräte das Kabel (fest) "mitliefern". Separate, passive Kabel nur bis 40Gb/s.
Tobe1701
2019-06-26, 18:01:07
nein, tut es nicht.
Ich sehe Tearing @144Hz auch sofort ohne explizit danach zu suchen.
+1
Tobalt
2019-06-26, 18:27:11
Das, was momentan bei DP, HDMI, USB, Thunderbolt etc abgeht erinnert mich doch sehr an das GHz Race...
Marginale Verbesserungen die immer weiter zu lasten der Praktikabilität gehen.
Ich denke es wird gerade bei Monitoren endlich Zeit für schnelle Hardware-Kompressionsverfahren.
Nein, ich rede nicht von Unterabtastung um die Datenmenge zu reduzieren, sondern von (zunächst) verlustfreier Kompression.
Im nächsten Schritt bin ich aber auch verlustbehafteter Kompression auf psychovisuellen Grundlagen nicht abgeneigt, wenn sich dadurch eine spürbare Verbesserung erreichen lässt, wie zB. 240 Hz @ 4K.
Rente
2019-06-26, 18:40:26
Das gibt es doch in Form von DSC bei DP bereits, ist nur nicht verlustfrei (aber wohl kaum sichtbar).
https://vesa.org/vesa-display-compression-codecs/
Das gibt es doch in Form von DSC bei DP bereits, ist nur nicht verlustfrei (aber wohl kaum sichtbar).
Verlustfrei ist auch unmöglich, wenn man eine maximal erreichbare Datenrate garantieren will.
Tobalt
2019-06-26, 22:13:54
gibt es monitore die das nutzen ?
exzentrik
2019-06-26, 23:08:32
gibt es monitore die das nutzen ?
ASUS hat einen in Planung (https://www.prad.de/asus-monitor-mit-4k-und-144-hz-ueber-einen-displayport/) – mit 4K, 144 Hz, DisplayHDR 1000 und FreeSync 2 HDR über einen DisplayPort 1.4.
Reaping_Ant
2019-06-27, 03:15:47
Ich denke es wird gerade bei Monitoren endlich Zeit für schnelle Hardware-Kompressionsverfahren.
Nein, ich rede nicht von Unterabtastung um die Datenmenge zu reduzieren, sondern von (zunächst) verlustfreier Kompression.
Das Problem bei verlustfreier Kompression ist halt, dass es im schlimmsten Fall nichts bringt. In diesen Faellen hat man dann Probleme, wenn ploetzlich die Bandbreite der Schnittstelle nicht mehr ausreicht. Das mag in 99% aller Faelle nicht relevant sein, aber der Fallback, wenn es denn mal auftritt ist halt etwas schwieriger zu implementieren.
Da ist ein verlustbehaftetes Verfahren (wie DSC) mit garantierter maximaler Bandbreite deutlich besser. Bei den 99% "gutartigen" Inhalten ist der Unterschied dann praktisch nicht zu erkennen, und bei den 1% "boesen" Inhalten kann man sichtbare Unterschiede auch in Kauf nehmen. Zumal man letztere wohl ohnehin gezielt provozieren muss.
Insgesamt stimme ich Dir aber zu: Das Bildsignal komplett unkomprimiert durch das DP/HDMI Kabel zu jagen ist eingentlich pure Verschwendung von Bandbreite. Lieber intelligent komprimieren, das spart im Endeffekt Strom und vereinfacht das Design der Schnittstellen deutlich.
Tobalt
2019-06-27, 07:13:11
stimmt. dass man manchmal nicht verlustfrei komprimieren kann hatte ich nicht bedacht.
dann lieber ein Verfahren mit dynamischer Qualität, dass im Extremfall bis hin zu verlustfrei skaliert. ich bin angetan davon was bspw mit h265 bei nur wenigen Mbit möglich ist. Mit mehreren Gbit hat man sicher viel Spielraum.
was ist eigentlich aus superMHL geworden ? die versprachen schon 2015 8K @ 120 Hz mittels Kompression.
Asus ROG Swift PG35VQ TFTCentral Review (https://www.tftcentral.co.uk/reviews/asus_rog_swift_pg35vq.htm)
Asus ROG Swift PG35VQ TFTCentral Review (https://www.tftcentral.co.uk/reviews/asus_rog_swift_pg35vq.htm)
Sind die wahnsinnig bei dem Preis?
Man bekommt ein 55" OLED Panel für ~1000€, da kann es doch nicht so schwer sein ein OLED im Bereich 30-40" für < 1000€ zu bauen und man kann auf das ganze Zeugs um die Schwächen von LCDs auszugleichen verzichten.
Und für den Preis gibt es dann nicht mal ULMB.
Troyan
2019-06-28, 07:51:34
Vielleicht gibt es ja einen Grund, wieso es noch keine OLEDs außer in Notebooks in solchen Größen gibt...
Das Rumheulen um den Preis ist so lächerlich. Einerseits will man bessere Monitore, aber man will gleichzeitig auch nichts bezahlen. Gut, $3000 sind nicht ohne, aber der wie auch die 16:9 Monitore sind reine High-End Luxus Monitore. Und nachdem ich hier selbst in jedem Spiel zwischen Dimming an/aus umschalten kann, will ich nicht mehr ohne Zocken.
robbitop
2019-06-28, 11:03:38
Das Haloing würde mich wahnsinnig machen - und keine Lust ständig Dimming ein und auszuschalten. In Windows sieht man es auf homogenen Flächen mit hohen Kontrasten und in Spielen in dunklen räumen mit weißem Zielkreuz - Halo. Anno 1800 auf dem Meer: Halo.
Scheint oft gut zu funktionieren - aber leider oft genug nicht.
Was helfen würde wäre sicherlich ein Profilingtool, so dass der Monitor Backlight Dimming je nach Anwendung an und ausschaltet.
Troyan
2019-06-28, 11:17:30
Halos sind nur problematisch, wenn man in Dunkelheit zockt. Aber so spielt niemand mit einem IPS oder VA Panel.
Ich finde es nicht störend. Ich sehe es als Kompromiss für eine vernünftige Bildqualität. Lieber Halos als deutlich schlechtere Bildqualität.
Savay
2019-06-28, 11:22:15
Was helfen würde wäre sicherlich ein Profilingtool, so dass der Monitor Backlight Dimming je nach Anwendung an und ausschaltet.
Und DSC gleich mit dazu! :wink: (*Nicht in diesem Fall...aber perspektivisch)
Bei Bild und Videobearbeitung etc. bzw. im regulären Desktopbetrieb möchte ich eher nicht mit zusätzlichen Kompressionsartefakten leben müssen. :uponder:
Das Rumheulen um den Preis ist so lächerlich. Einerseits will man bessere Monitore, aber man will gleichzeitig auch nichts bezahlen.
Ich wäre durchaus bereit den Preis zu bezahlen, aber dann ohne die ganzen LCD-Nachteile bitte.
Kartenlehrling
2019-06-28, 17:14:51
Innolux M315DCM-E70 31.5″ IPS-type Panel with 4K @ 144Hz with >1 Million Zone Dimming Backlight!
https://www.tftcentral.co.uk/blog/innolux-latest-panel-development-plans-june-2019/
Innolux Latest Panel Development Plans – June 2019
Halos sind nur problematisch, wenn man in Dunkelheit zockt. Aber so spielt niemand mit einem IPS oder VA Panel.
Ich spiele immer bei Dunkelheit.
robbitop
2019-06-28, 19:12:18
Halos sind nur problematisch, wenn man in Dunkelheit zockt. Aber so spielt niemand mit einem IPS oder VA Panel.
Ich finde es nicht störend. Ich sehe es als Kompromiss für eine vernünftige Bildqualität. Lieber Halos als deutlich schlechtere Bildqualität.
Halos sind dann problematisch wenn man den Kontrast braucht. Bei Tageslicht haste von den tollen Schwarzwerten nichts un d bräuchtest das Dimming kaum.
Robspassion
2019-06-28, 20:32:21
Ganz netter First look zum Asus PG35VQ von LTT
https://www.youtube.com/watch?v=kdMzJHLHB9A
Ich will ihn.
BlacKi
2019-06-29, 18:23:16
Sind die wahnsinnig bei dem Preis?
Man bekommt ein 55" OLED Panel für ~1000€, da kann es doch nicht so schwer sein ein OLED im Bereich 30-40" für < 1000€ zu bauen und man kann auf das ganze Zeugs um die Schwächen von LCDs auszugleichen verzichten.
Und für den Preis gibt es dann nicht mal ULMB.
nur um das nochmal hervorzuheben 3008€
https://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/Asus-ROG-Swift-PG35VQ-lebt-1293198/
echt nicht mehr sauber...
akuji13
2019-06-29, 22:57:49
Man sieht immer mehr das die vorhandenen Techniken am Ende angelangt sind.
Man versucht auf Biegen und Brechen noch mehr rauszuholen mit entsprechenden negativen Folgen.
Die anderen Werte wären schon bei 1000€ kritisch, die halo Thematik könnte ich selbst bei 500€ nur schwer verdauen.
Aber das muss jeder selbst entscheiden.
woodsdog
2019-06-30, 07:50:52
Gibt es ggf ein anschauliches Video aus der Gaming Praxis, welche die Halo Probleme aufzeigt?
ich kann es mir vorstellen würde es aber schlicht gern mal sehen WIE SCHLIMM das ist.
robbitop
2019-06-30, 08:37:54
Bei Anno 1800 sieht man es auf dem Meer, in dunklen Spielen/Szenen und hellem Zielkreuz ebenso.
Wie das aussieht -> google ;)
Schnoesel
2019-06-30, 14:12:27
Ich hatte letztes Jahr auch kein Bock mehr auf den Asus bzw. den Acer X35 zu warten und mich dann für den (ebenfalls zu teuren) X34p entschieden. Da kann ich jetzt ziemlich zufrieden mit sein wenn ich die Mondpreise sehe und den HALO Effekt. Gott ich verliebe mich immer mehr in meinen LG OLED. Der nächste Monitor darf keinesfalls schlechter sein als mein TV. Aber es ist ja leider nichts in Sicht was es besser machen könnte. OLED für PC Monitore ungeeignet und Micro LED in weiter Ferne.
ich kann es mir vorstellen würde es aber schlicht gern mal sehen WIE SCHLIMM das ist.
Ich würde niemals HDR auf einem LCD verwenden, zumal aufgrund des Helligkeitsverlust damit auch kein low persistance funktioniert.
HDR spiele ich mittlerweile ausschließlich am LG-OLED Fernseher auf der Couch.
Aber es ist ja leider nichts in Sicht was es besser machen könnte. OLED für PC Monitore ungeeignet und Micro LED in weiter Ferne.
OLED ist nicht ungeeignet für PC, es gibt ja mittlerweile bzw. es wurden mehrere Laptops mit OLED angekündigt.
Die Technik ist da.
Teuer? Klar, aber wie es aussieht sind die ganzen LCD-Nachteil-Verschleierungstechniken auch nicht unbedingt günstiger, also warum dann nicht gleich was mit OLED bauen?
Nightspider
2019-06-30, 15:35:46
Schon lustig wenn man in manchen Games bei einem 3000 Euro Monitor das teuerste Feature ausschalten muss weil es nervt. ;D
Würde mich total nerven.
Die sollen halt mal ein 55" OLED Substrat längs in zwei Hälften teilen und daraus günstigere, curved, OLED, HDR, 120Hz Displays basteln. Kann doch nicht so schwer sein.
Das wären dann knapp 500€ für das Panel und ein Monitor wäre deutlich günstiger produzierbar. Dann störts auch manche bei dem Preis nicht wenn man die Teile nach 3-5 Jahren auswechseln muss.
robbitop
2019-06-30, 15:46:10
Mir sind die alle zu groß. Aber wenn 55“ in 8k kommt, kann man ja eine Teilauflösung ohne Skalierung wählen (schwarze Rahmen), so dass man einen 34“ 21:9 oder einen 27“ 16:9 hat. ^^
Robspassion
2019-07-01, 10:25:46
Hier gibt es ein weiteres Review von Paul´s Hardware zum Asus PG35VQ
https://www.youtube.com/watch?v=YnFB2pFL2wc
Und hier ein weiteres Review von Hardware Unboxed:
https://www.youtube.com/watch?v=vorAhaiKhS0
In dem Video wird davon gesprochen, dass in den meisten Games kein Unterschied zwischen 8 Bit Farbtiefe und 10 Bit Farbtiefe (Einstellung im NV Control Panel) gesehen werden kann auf dem Monitor. Irgendwie kann ich das nicht nachvollziehen. Auf meinem TV sieht man in HDR Games einen sehr klaren Unterschied. Das Banding ist in 8 Bit sehr stark erkennbar vor allem im Himmel. Ansonsten klasse Review. Bestätigt, dass der Monitor einfach top ist. Leider zu teuer.
BlacKi
2019-07-09, 17:15:57
da isser. insta buy. ob er mir das geld wirklich wert ist, werde ich mir überlegen wenn ich ihn getestet habe. *happy*
https://www.amazon.de/LG-38GL950G-B-Zoll-UltragearTM-Curved/dp/B07T6J28SN/ref=olp_product_details?_encoding=UTF8&me=
Hm sieht geil aus aber preisgünstig ist das ja nicht gerade.
Thomas Gräf
2019-07-27, 00:31:38
...ich hasse es. Alles ab 30' und min 120HZ is curved. Das kann ich nicht mehr sehen.
Ich hab zwei 21:9, einen 29' Form gerade aber mit 60HZ. Einen tollen 38' mit 144Hz aber Form curved.
Ich dachte naja gewöhne dich iwie an curved, nee klappt nich, es nervt immer mehr. Woran ich mich aber gwöhnt habe sind die 144Hz.
Zum Mäusemelken das mit dem Konsumerscheiss :(
ChaosTM
2019-07-27, 02:04:17
Die Monitore die so im Umlauf sind sind meistens entweder glitzernder IPS Schrott oder überteuerte ROG/wasweisich Kisten. Gebogen geht gar nicht.
Deshalb hol ich mir demnächst wahrscheinlich einen 55er LG OLED. Der kann ang. mit Firmware update zumindest 4K 120HZ darstellen.
SamLombardo
2019-07-27, 08:32:44
Die Monitore die so im Umlauf sind sind meistens entweder glitzernder IPS Schrott oder überteuerte ROG/wasweisich Kisten. Gebogen geht gar nicht.
Deshalb hol ich mir demnächst wahrscheinlich einen 55er LG OLED. Der kann ang. mit Firmware update zumindest 4K 120HZ darstellen.
Und du wirst es nicht bereuen. DAS stellt jeden anderen Bildschirm in den Schatten. Wenn er dir zu groß wird, erstellst du eine benutzerdefinierte (21:9) Auflösung:wink:. Und wenn du nicht gerade Wettkampf Multiplayer spielst, sind die 13 Millisekunden auch für schnelle Shooter absolut problemlos. Ich hab jetzt seit über nem Jahr nen 55er OLED als PC Monitor. Und würde nichts anderes mehr wollen:eek:.
massaker
2019-07-28, 04:23:13
...ich hasse es. Alles ab 30' und min 120HZ is curved. Das kann ich nicht mehr sehen.
Ich hab zwei 21:9, einen 29' Form gerade aber mit 60HZ. Einen tollen 38' mit 144Hz aber Form curved.
Ich dachte naja gewöhne dich iwie an curved, nee klappt nich, es nervt immer mehr. Woran ich mich aber gwöhnt habe sind die 144Hz.
Zum Mäusemelken das mit dem Konsumerscheiss :(
Waaas, du hast bereits den neuesten LG 38GL950G? Denn andere 38" 144Hz Monitore sind mir nicht bekannt, höchstens welche mit 75Hz. Und in den 2 Tagen, die Du ihn hast (denn die Test Samples sind laut Reddit erst vor 3 Tagen an die Tester verschickt worden), hast du dich schon dermaßen an die 144Hz gewöhnt? Also bei Dieser Breite erachte ich curved als sinnvoll.
Ultron
2019-07-28, 15:29:14
Schon lustig wenn man in manchen Games bei einem 3000 Euro Monitor das teuerste Feature ausschalten muss weil es nervt. ;D
Würde mich total nerven.
Die sollen halt mal ein 55" OLED Substrat längs in zwei Hälften teilen und daraus günstigere, curved, OLED, HDR, 120Hz Displays basteln. Kann doch nicht so schwer sein.
Das wären dann knapp 500€ für das Panel und ein Monitor wäre deutlich günstiger produzierbar. Dann störts auch manche bei dem Preis nicht wenn man die Teile nach 3-5 Jahren auswechseln muss.
muhaha ist so! Du sprichst mir sowas von aus der Seele. Hätte es nicht besser schreiben können. Versteh das auch echt nicht. :rolleyes:
Thomas Gräf
2019-07-28, 23:43:13
Waaas, du hast bereits den neuesten LG 38GL950G? Denn andere 38" 144Hz Monitore sind mir nicht bekannt, höchstens welche mit 75Hz. Und in den 2 Tagen, die Du ihn hast (denn die Test Samples sind laut Reddit erst vor 3 Tagen an die Tester verschickt worden), hast du dich schon dermaßen an die 144Hz gewöhnt? Also bei Dieser Breite erachte ich curved als sinnvoll.
Nee, 38'' is falsch 34'' ist richtig. Mein Fehler...
Naja wenn's Du immer alles gebogen und krumm sehen willst, da is curved geeignet für.
Naja wenn's Du immer alles gebogen und krumm sehen willst, da is curved geeignet für.
Bei Monitoren ist das durchaus Sinnvoll.
Mittlerweile gibt es ja Monitore mit sinnvollen kleinen Radien, bei denen der Abstand zu den Bildschirmecken wirklich nennenswert reduziert wird wenn man in der Mitte sitzt.
Bei TVs hat das natürlich wenig Sinn, wenn man ein vielfaches vom Biegeradius weiter weg sitzt.
bnoob
2019-08-12, 14:19:56
Er ist ja jetzt fast schon verfügbar, weiß man was zum Panel des Asus ROG Strix XG438Q?
Wird der 144Hz Acer das selbe haben?
M4xw0lf
2019-08-13, 09:28:36
Seit ich den LG C8 daneben stehen habe, nervt mich mein IPS Monitor am PC zunehmend. Ich brauche selbstleuchtende Pixel!
Nostalgic
2019-08-13, 09:45:16
Ich hab jetzt seit über nem Jahr nen 55er OLED als PC Monitor. Und würde nichts anderes mehr wollen:eek:.
Sitzabstand eine Armlänge? :D
jojo13
2019-08-13, 11:57:25
Werde mir den mal zulegen
https://www.lg.com/de/monitore/lg-27GL850-B
https://www.nvidia.com/en-us/geforce/products/g-sync-monitors/specs/
seh nicht mehr ein das ich denen noch zig Euronen für ihr dusseliges Modul in den Rachen schiebe.
curved...heiss kalt heiss kalt bei dem Alienware scheint die Sonne durch den Rahmen...ich habs so satt.
SamLombardo
2019-08-13, 12:21:42
Sitzabstand eine Armlänge? :D
Benutzerdefinierte Auflösungen:biggrin:. Eine 3840x1620 21:9 Auflösung wirkt nach etwas Gewöhnung nicht zu groß. Sitze einen knappen Meter weg. Wenn die mal nicht funktonieren sollte (zu 90 Prozent funktioniert sie einwandfrei), dann rücke ich noch ein Stückchen weiter weg und spiele mit Controller;)
SamLombardo
2019-08-13, 12:23:46
Seit ich den LG C8 daneben stehen habe, nervt mich mein IPS Monitor am PC zunehmend. Ich brauche selbstleuchtende Pixel!
So isses. Selbst mein 40er Philips VA der mit 7000:1 Kontrastkönig unter den Monitoren war wirkt im Vergleich wie ein TN. Einmal HDR auf OLED gespielt versaut einen für alle Zeit:wink:
ChaosTM
2019-08-13, 12:38:57
Die neue Samsung Q90 Serie kommt OLEDs erstaunlich nahe.
Bin etwas im Zwiespalt momentan.
Hab aber noch ein paar Monate Zeit zum überlegen.
120hz VRR könnten die auch. Konnte glaub ich auch schon die 2018er Generation.
SamLombardo
2019-08-13, 13:29:10
Die neue Samsung Q90 Serie kommt OLEDs erstaunlich nahe.
Das sagen sie schon seit Jahren:D.
Hast du nicht einen Bekannten mit OLED wo du es mal persönlich testen kannst? Ansonsten mach dir die Mühe und bestelle beide und teste zuhause. Auch wenn ich mir ziemlich sicher bin, dass ich schon weiß, welcher dann letztendlich bleiben darf:wink:
ChaosTM
2019-08-13, 13:35:55
Das sagen sie schon seit Jahren:D.
Hast du nicht einen Bekannten mit OLED wo du es mal persönlich testen kannst? Ansonsten mach dir die Mühe und bestelle beide und teste zuhause. Auch wenn ich mir ziemlich sicher bin, dass ich schon weiß, welcher dann letztendlich bleiben darf:wink:
Ich hab den gesehen. Der ist wirklich erstaunlich gut.
und.: https://www.avsforum.com/samsung-75-q90r-qled-tv-review/
Beide bestellen hab ich mir auch schon überlegt .. OLED hat keine soweit ich weiß - haben alle noch Einbrennbammel
75er wird es auch keiner ;)
Ich bin sehr zufrieden mit meinem QLED :up:
Ich freu mich schon auf die "Zukunft" ^^
https://www.youtube.com/watch?v=A_-_A0-FMBo
M.f.G. JVC
ChaosTM
2019-08-13, 13:43:37
Von der Eleganz her hätte ich gerne den Sony. Die bieten jetzt 5 Jahre Garantie gegen einbrennen an - woraufhin Samsung mit 10 Jahren gekontert hat. :)
Der ist auch schön leicht - mein derzeitiger Fernseher ist semi -mobil auf einem Rack mir Rädern.
Nach meiner Praxiserfahrung in über 2,5Jahren bin ich ziemlich sicher das QLED nicht einbrennen kann :smile:
Nutze ihn ja ausschließlich als Monitor der die "Windfof FuBar" im schnitt bestimmt 6h pro tag zeigen darf.
M.f.G. JVC
just4FunTA
2019-08-13, 14:15:43
probleme mit dem einbrennen haben doch nur die oleds soweit ich weiß, da wirste ja keine Probleme mit nem qled haben..
ChaosTM
2019-08-13, 14:25:00
Die 10 Jahre Garantie gegen Einbrennen ist ein Werbegag von Samsung - scheint aber zu funktionieren. ;)
Damit hat man auf die 5 Jahre Garantie von Sony im Schauraum reagiert.
Der Samsung Verkäufer dort hat auf mein Anfrage hin auch gegrinst.
Die 10 Jahre Garantie gegen Einbrennen ist ein Werbegag von Samsung - scheint aber zu funktionieren. ;)
Kein Gag ^^ und es ist für Viele notwendig ;)
M.f.G. JVC
Tobalt
2019-08-13, 16:09:38
Qled ist ein gutes Beispiel für Studenten des Marketing wie man mit unterlegenem Produkt und gezieltem Nichtzeigen von Fakten Kunden abgreift
Qled ist ein gutes Beispiel für Studenten des Marketing wie man mit unterlegenem Produkt und gezieltem Nichtzeigen von Fakten Kunden abgreift
Egal ^^, einen QLED hab ich bereits und er funktioniert noch immer wie am ersten Tag!
Ziehl: 8K , mir gleich ob QLED (dessen Leistung mir ausreicht), oder ein OLED (mehr Schwarz, ich will mehr Schwarztöne!)...
(mit Samsung bin ich bis jetzt immer "gut gefahren"...)
M.f.G. JVC
Robspassion
2019-08-15, 09:58:05
Ich hab mir den Asus ROG Swift PG35VQ zugelegt wohlwissend um dessen Kompromisse und trotz des hohen Preises. Ich weiß, dass es dafür keine rationale Rechtfertigung gibt und ich möchte das Produkt nicht verteidigen, schönreden oder relativieren. Ich weiß, dass selbst für die meisten Enthusiasten in dem Forum hier der Monitor nicht genügend bietet für das Geld.
Nichtsdestotrotz war ich eigentlich schon länger dabei, wenn es um neue Technik im Monitorbereich geht und bin zu verwöhnt, um jemals komplett zufrieden zu sein. Typischen 1st World problem. Angefangen mit dem Asus ROG PG278Q in 2014 über den Acer Predator Z35P in 2017 und jetzt der PG35VQ.
Die Vorteile liegen aus meiner Sicht klar auf der Hand und sind sofort sichtbar (die Nachteile aber natürlich auch).
+Der Kontrast ist mit aktiviertem Local Dimming in Spielen absolut konkurrenzlos im Gaming Monitor Bereich. Ich klammere hier bewusst Oled TVs aus. Ich mag OLED aber es gibt leider keine OLED Monitore mit vergleichbaren Speccs wie sie der Asus hat. Es ist ein Quantensprung zu meinem Acer mit VA Panel und 120 hz. Es gibt nicht mal Ansatzweise irgendetwas zu deuten oder zu relativieren. Die beiden spielen nicht in der gleichen Liga.
+HDR: Die Maximalhelligkeit ist absolut unnormal hoch. Ich kenne das natürlich aus dem TV Bereich (Habe einen ZD9 mit 1870 nits Peak Helligkeit aber ich klammere TVs mal aus). Ich würde sagen es ist für mich zumindest an der Grenze des Ertragbaren. Beispiel Metro Exodus: Einfach am Anfang wenn man durch die Tunnel läuft und mit dem Feuerzeug die Spinnennetze wegfackelt - ich und ein Kollege der beim Unboxing dabei war haben das "Feuer" gespürt. Es ist einfach unbeschreibbar. Da man ja auch recht nah am Monitor sitzt ist es nochmal ne Ecke krasser als am TV. Die Dynamic Range ist dadurch sehr hoch, da der Monitor gleichzeitig auch absolutes Schwarz darstellen kann und das ist bei Metro sehr eindrucksvoll gleich in den ersten Minuten zu beobachten. Die Farben sind der Wahnsinn in HDR, es wirkt einfach wesentlich satter und natürlicher. Man kann im HDR Mode auch kaum Anpassungen vornehmen, das übernimmt der Monitor.
+200hz: OMG ich kenne 120 hz vom Acer und 144 hz von dem Asus PG27Q aber 200 Hz sind für mich gefühlt nochmal eine Steigerung. Ich habe es definitiv gespürt. Habe Wolfenstein Youngblood gespielt und hatte unterirdisch und in Innenräumen locker 200 FPS mit der 2080ti. In Außengefechten ging es aber auf bis zu 160 FPS runter. Trotzdem ein fühlbaren und sichtbarer Vorteil. Zumindest für mich.
+Local Dimming: In Spielen ist es zu 95% kein Problem. Man sieht das Blooming und Halo-ing nicht. Es gibt aber natürlich Szenen, in denen man es registriert, wenn man darauf achtet. HUDs und auch Markierungen vor allem am Rand off Axis sind mit einem leichten Blooming versehen. Aber es ist meiner Meinung nach nicht so schlimm wie bei meinem Acer vorher, der recht viel BLB hatte wodurch in dunklen Szenen bestimmte Bereiche immer aufgehellt waren und ansonsten Schwarz eher Dunkelgrau war.
Es gibt aber auch etwas, dass mich stört:
-Brightness in HDR Spielen ist festgetackert im Monitor und lässt sich nicht anpassen. Das ist sehr schade, denn man muss auf Helligkeitseinstellungen im Spiel zurückgreifen. Und in manchen Spielen lässt sich z.B. nur die Maximalhelligkeit runterregeln oder das Gamma verschieben. In Assassins Creed Odyssey, das übrigens einfach nur umwerfend aussieht in HDR gibt es oft Szenen, in denen das ganze Bild extrem hell ist. Der Monitor schafft ja über 800 nits full field Brightness und das auch ohne Abfall konstant.
-Der Lüfter ist hörbar. Da lässt sich nichts verschönigen, wenn alles im Raum ruhig ist, hört man ihn, wenn man einen Silent PC haben sollte, hört man ihn. Ich höre ihn nicht wenn mein PC an ist aber das muss man bedenken. Es ist nicht störend und reguliert sich auch etwas aber der Lüfter ist immer an. Auch nach dem Ausschalten für mindestens 20-40 sec, je nachdem wie lange man den Monitor genutzt hat.
-Hitze: An der Stelle wo die Luft aus dem Monitor geblasen wird - hinten in der Nähe der Inputs - ist es heiß. Man verbrennt sich nicht, wenn man dahin fasst aber es ist einfach nur heiß.
Falls mich der Monitor nicht durch ein Ableben vorzeitig verlässt, was ich immer bei allen teuren Elektrosachen befürchte, kann ich nur sagen, es hat sich für mich persönlich gelohnt. Er ist konkurrenzlos (bis natürlich auf den Acer x35) in dem Formfaktor mit den Speccs. Teuer mit einem gehörigen Early Adopter Aufschlag aber um Welten besser als alles ohne HDR 1000 und Local Dimming.
Achja auf dem Desktop ist local Dimming eher eine Plage und ich schalte es da ab, wenn ich grade mal nicht zocke. Nervig, weil dazu in Windows erstmal HDR deaktiviert werden muss, weil sonst kann man es im Monitor nicht ausstellen aber hey. Was nimmt man als Enthusiast nicht alles auf sich für den nächsten Schritt in Sachen Bildqualität.
Edit: Was ich vergessen habe. Gsync Ultimate kann wohl Variable Refresh von 1-200 Herz bei dem Monitor. Wahrscheinlich lag es daran, dass es bei Ladebildschirmen nicht mehr flimmert, wie bei meinen beiden anderen Gsync Monitoren vorher.
Ich hab mir den Asus ROG Swift PG35VQ zugelegt wohlwissend um dessen Kompromisse und trotz des hohen Preises.
Geiler Bildschirm :up:
https://geizhals.de/asus-rog-swift-pg35vq-90lm03t0-b02370-a1631436.html
Wobei ich da eher zu nem ~55" OLED mit HDMI 2.1 für den "halben Preis" gegriffen hätte.
https://geizhals.de/lg-electronics-oled-55c97la-a2019159.html?hloc=de
8K 55" QLED für unter 4K :) (mit 8K AI Upscaling, was ganz gut aussehen soll, besser als NVs DLSSss? zu mindestens funktioniert es immer ^^)
https://geizhals.de/samsung-gq55q950r-a2091089.html?hloc=de
M.f.G. JVC
Robspassion
2019-08-15, 10:51:10
Hab auch eine Weile überlegt, ob ich auf einem 55er C9 zocken möchte aber letztendlich ist mir das dann doch etwas zu groß bei 50 cm Sitzabstand :D. Er hätte auf meinen Schreibtisch gepasst. Aber wenn schon am TV zocken nehm ich meinen ZD9 in 75 Zoll halt so für Gamepad Gedaddel. Und ob Nvidia jemals Freesync über HDMI supporten wird steht in den Sternen. Und ob AMD auch wirklich ne gute Grafikkarte liefert, die bei 4K mehr als 60 FPS in AAA Spielen rausdrückt wage ich zu bezweifeln. Außerdem ohne Adaptive Sync wollt ich keine PC Games mehr spielen und ich müsste dann schon zwingend zu AMD wechseln in absehbarer Zeit.
Ich hoffe doch, das auch NV den vollen HDMI 2.1 Standard unterstützen wird ...
(4K 120Hz +8K AI Upscaling = 120Fps in 8K :eek:
und 55" 8K sind bestimmt fein genug für den Tisch...
falls es einem zu groß ist, einfach "im Fenster arbeiten" :biggrin:)
M.f.G. JVC
Robspassion
2019-08-15, 13:47:39
Ich hoffe doch, das auch NV den vollen HDMI 2.1 Standard unterstützen wird ...
M.f.G. JVC
Aktuell gehe ich nicht davon aus, dass Sie Freesync über HDMI unterstützen werden, da Nvidia ihre Big Format Displays damit komplett überflüssig machen würde. Wer kauft dann noch einen 65er mit 384 Dimming Zonen, wo selbst bei einem 35 Zoller mit 512 Dimming Zonen die Technik teilweise an ihre Grenzen stößt und OLED TVs so viel günstiger und besser sind.
https://www.digitaltrends.com/monitor-reviews/hp-omen-x-emperium-65-review/
Aktuell gehe ich nicht davon aus, dass Sie Freesync über HDMI unterstützen werden...
Müssen sie auch nicht ^^ ("tun sie doch schon")
Es reicht wenn sie HDMI 2.1 unterstützen was VRR("free"-Sync) beinhaltet.
(G-Sync und BFG´s sind m.M.n. schon so gut wie tot)
(QLED hat doch so viele "Dimming Zonen" wie Pixel?
und selbst bei "nur" FHD-Dimming wären es an die 2 Mille)
*Edit*
Micro Dimming , Direct Full Array = Ultimate 8K Dimming .... laut 24p nur Marketing.
https://www.samsung.com/de/tvs/qled-q950r/GQ55Q950RGTXZG/
Wenn es schon HDMI 2.1 Karten geben würde ...
würde ich den einen Tausender auf deinen Monitor auch noch drauf legen und hätte 8K + nem unabhängigem 8K AI Upscaling ;)
M.f.G. JVC
Herzlichen Glückwunsch, du bist auf Samsungs Marketing hereingefallen. Samsung gibt nirgendwo die echte Zahl der Dimmingzonen an. Tests schätzen diese auf ca 600 beim 65" Modell und entsprechend weniger beim 55"er.
Herzlichen Glückwunsch, du bist auf Samsungs Marketing hereingefallen. Samsung gibt nirgendwo die echte Zahl der Dimmingzonen an. Tests schätzen diese auf ca 600 beim 65" Modell und entsprechend weniger beim 55"er.
Hmm, kay ...
Mein 65" QLED hat kein sichtbares "Clowding" ;)
(hab lange gesucht und auch suchen lassen)
https://www.youtube.com/watch?v=lyEgg-xXmYo
"U9E is a 75in 8K LED LCD TV with 5376 Local Dimming Zones!"
M.f.G. JVC
M4xw0lf
2019-08-15, 21:23:45
https://www.youtube.com/watch?v=lyEgg-xXmYo
"U9E is a 75in 8K LED LCD TV with 5376 Local Dimming Zones!"
M.f.G. JVC
Das sind... 0,016% der "Dimmingzonen" eines 8k-Displays mit selbstleuchtenden Pixeln wie bei OLED. ;D
Es werden also minimal ~6200 Pixel gleichzeitig beleuchtet, statt einem.
Darkman.X
2019-08-16, 01:45:18
[...]
-Der Lüfter ist hörbar. Da lässt sich nichts verschönigen, wenn alles im Raum ruhig ist, hört man ihn, wenn man einen Silent PC haben sollte, hört man ihn. Ich höre ihn nicht wenn mein PC an ist aber das muss man bedenken. Es ist nicht störend und reguliert sich auch etwas aber der Lüfter ist immer an. Auch nach dem Ausschalten für mindestens 20-40 sec, je nachdem wie lange man den Monitor genutzt hat.
[...]
"Freu" dich schon mal auf den Lüfter in einem Jahr oder so. Ich habe den Asus PG27UQ, der auch Lüfter hat (2 Stück). Zu Anfang war noch alles ok, hörbar wenn man keine Nebengeräusche wie laufende Musik, einen TV oder ähnliches hat, aber akzeptabel.
Jetzt nach ca. 1 Jahr scheint der Monitor wohl innerlich schon etwas verstaubt zu sein und wird wärmer. Vermutlich spielt auch der Sommer etwas mit hinein. Dadurch habe ich häufig die Situation, dass die 2 Lüfter beim Wechsel von 63°C auf 64°C um ca. 100 U/min höher drehen, was trotz der niedrigen Steigerung deutlich hörbar ist. Wenn der Monitor auf 63°C herunter gekühlt wurde, dann reduzieren sich die Drehzahlen wieder etwas, bis der Monitor wieder die 64°C erreicht, dann drehen sie wieder hoch. usw. usw.
Sehr nervig. Aber was soll ich machen? Umtauschen? Bei Asus besteht leider die sehr große Gefahr, dass man ein Austauschgerät mit Pixelfehlern, Staubeinschluss oder andere Probleme mit schlechterer Bildqualität erhält. Und selbst wenn das Austauschgerät perfekt ist: Nach ca. einem Jahr würde ich vermutlich wieder die Probleme haben.
Ich sag dir, das ist mein erster und letzter Monitor mit Lüftern :-/ Ich kann nur hoffen, dass es ab Herbst wieder besser wird...
Robspassion
2019-08-16, 10:09:21
Hörst du es beim Spielen auch? Hat sich durch die höhere Wärmeentwicklung etwas an der Performance am Monitor verändert?
Ich hatte von einem RMA Fall gelesen vom PG35VQ, da hat sich durch extreme Hitze und wohl fehlerhafte Lüftersteuerung das HDR manchmal in Spielen selbst deaktiviert.
https://rog.asus.com/forum/showthread.php?112485-PG35VQ-overheating-RMA-assigned-but-no-replacement
Der Asus PG35VQ soll ja drei Lüfter haben und eine bessere Lüftersteuerung und bisher ist es für mich beim Spielen absolut nicht warnehmbar. Mal schauen wie es nächstes Jahr im Hochsommer ist.
Troyan
2019-08-16, 10:17:17
Ich habe den Acer Monitor. Und bei 30°+- Raumtemperatur war der Lüfter am Rennen wie nichts. Aber was will man machen. HDR am PC lässt sich anders nicht realisieren.
Der Lüfter hat ja nichts mit HDR zu tun, sondern mit dem Gsync-Modul.
Darkman.X
2019-08-16, 20:46:58
Hörst du es beim Spielen auch? Hat sich durch die höhere Wärmeentwicklung etwas an der Performance am Monitor verändert?
Ich hatte von einem RMA Fall gelesen vom PG35VQ, da hat sich durch extreme Hitze und wohl fehlerhafte Lüftersteuerung das HDR manchmal in Spielen selbst deaktiviert.
https://rog.asus.com/forum/showthread.php?112485-PG35VQ-overheating-RMA-assigned-but-no-replacement
Der Asus PG35VQ soll ja drei Lüfter haben und eine bessere Lüftersteuerung und bisher ist es für mich beim Spielen absolut nicht warnehmbar. Mal schauen wie es nächstes Jahr im Hochsommer ist.
Beim Spielen höre ich es nicht, wenn es nicht gerade ruhige Szenen sind. Zur Performance kann ich nicht viel sagen, weil ich mit den Spielen etwas hinterherhinke, so ca. 3,5 Jahre. Also spiele ich noch ohne HDR. Die restlichen Features (FALD, 120 Hz @ 4k, G-Sync) arbeiten problemlos. Die Lüfter funktionieren ja bei mir. Einzig eine weichere Lüfterkürve mit sanfterer Anhebung der Drehzahl wäre mir lieber.
BlacKi
2019-08-18, 00:49:18
schnapper
https://www.saturn.de/de/product/_acer-ed323qura-2470902.html?rbtc=aff|con|394042||||&subid=861161687#technische-daten
Nightspider
2019-08-18, 16:43:27
Ist der LG 27GL850-B derzeit der beste Gaming Monitor mit WQHD und im Bereich zwischen 400 und 800 Euro?
https://www.rtings.com/monitor/reviews/lg/27gl850-b
Input Lag, Motion Blur sollen ja hervorragend sein, dank dem neuen Panel von LG, auch wenn der Kontrast nicht gerade toll ist.
Kommt drauf an. Wenn er für ne AMD-Grafikkarte dienen soll ist der stark aktualisierte Samsung C27HG70 (HDMI2, DP1.4, mittlerweile flimmerfrei) immer noch die bessere Wahl, da HDR600 i.V.m. Freesync 2, was auch bei HDR das Lag niedrig hält. Mit NV geht das ja nicht, da verliert der Monitor dann diesen Vorteil.
Rampage 2
2019-08-18, 17:22:47
Werde mir den mal zulegen
https://www.lg.com/de/monitore/lg-27GL850-B
Dann werfe ich auch mal ein neues Modell von ASUS in den Raum, den ich erst gestern beim Stöbern auf Geizhals entdeckt habe:
ASUS TUF Gaming VG27AQ, 27" - Geizhals (https://geizhals.de/asus-tuf-gaming-vg27aq-90lm0500-b01370-a2112120.html?hloc=at&hloc=de&hloc=eu&hloc=pl&hloc=uk)
ASUS TUF Gaming VG27AQ HDR Gaming Monitor - ASUS Produktseite (https://www.asus.com/Monitors/TUF-Gaming-VG27AQ/overview/)
Oder wurde der schon hier im Thread genannt?
Weiß einer, welches Panel verwendet wird? Dieses Modell soll erstmals GS/FS + MBR gleichzeitig möglich machen! :up:
Da es seit über 'ner Woche auf GH gelistet ist, dauerts wohl nur noch wenige Tage (oder Wochen), bis es kaufbar ist, oder?
R2
Nightspider
2019-08-18, 17:27:40
Kommt drauf an. Wenn er für ne AMD-Grafikkarte dienen soll ist der stark aktualisierte Samsung C27HG70 (HDMI2, DP1.4, mittlerweile flimmerfrei) immer noch die bessere Wahl, da HDR600 i.V.m. Freesync 2, was auch bei HDR das Lag niedrig hält. Mit NV geht das ja nicht, da verliert der Monitor dann diesen Vorteil.
Curved geht halt mal gar nicht.
Dann werfe ich auch mal ein neues Modell von ASUS in den Raum, den ich erst gestern beim Stöbern auf Geizhals entdeckt habe:
ASUS TUF Gaming VG27AQ, 27" - Geizhals (https://geizhals.de/asus-tuf-gaming-vg27aq-90lm0500-b01370-a2112120.html?hloc=at&hloc=de&hloc=eu&hloc=pl&hloc=uk)
ASUS TUF Gaming VG27AQ HDR Gaming Monitor - ASUS Produktseite (https://www.asus.com/Monitors/TUF-Gaming-VG27AQ/overview/)
Oder wurde der schon hier im Thread genannt?
Weiß einer, welches Panel verwendet wird? Dieses Modell soll erstmals GS/FS + MBR gleichzeitig möglich machen! :up:
Da es seit über 'ner Woche auf GH gelistet ist, dauerts wohl nur noch wenige Tage (oder Wochen), bis es kaufbar ist, oder?
R2
Bringt BFI noch viel bei 144/155Hz ?
BFI verringert ja das Motion Blur, richtig? Bei LG soll das ja auch nicht mehr sichtbar sein dank dem neuen 1ms Panel.
Die Frage wäre halt bei welchem Display die Bildqualität besser ist.
Oder nutzt der ASUS TUF Gaming VG27AQ eventuell auch das neue LG Panel?
Ich hab mir den Asus ROG Swift PG35VQ zugelegt wohlwissend um dessen Kompromisse und trotz des hohen Preises. Ich weiß, dass es dafür keine rationale Rechtfertigung gibt und ich möchte das Produkt nicht verteidigen, schönreden oder relativieren. Ich weiß, dass selbst für die meisten Enthusiasten in dem Forum hier der Monitor nicht genügend bietet für das Geld.
Nichtsdestotrotz war ich eigentlich schon länger dabei, wenn es um neue Technik im Monitorbereich geht und bin zu verwöhnt, um jemals komplett zufrieden zu sein. Typischen 1st World problem. Angefangen mit dem Asus ROG PG278Q in 2014 über den Acer Predator Z35P in 2017 und jetzt der PG35VQ.
Die Vorteile liegen aus meiner Sicht klar auf der Hand und sind sofort sichtbar (die Nachteile aber natürlich auch).
+Der Kontrast ist mit aktiviertem Local Dimming in Spielen absolut konkurrenzlos im Gaming Monitor Bereich. Ich klammere hier bewusst Oled TVs aus. Ich mag OLED aber es gibt leider keine OLED Monitore mit vergleichbaren Speccs wie sie der Asus hat. Es ist ein Quantensprung zu meinem Acer mit VA Panel und 120 hz. Es gibt nicht mal Ansatzweise irgendetwas zu deuten oder zu relativieren. Die beiden spielen nicht in der gleichen Liga.
+HDR: Die Maximalhelligkeit ist absolut unnormal hoch. Ich kenne das natürlich aus dem TV Bereich (Habe einen ZD9 mit 1870 nits Peak Helligkeit aber ich klammere TVs mal aus). Ich würde sagen es ist für mich zumindest an der Grenze des Ertragbaren. Beispiel Metro Exodus: Einfach am Anfang wenn man durch die Tunnel läuft und mit dem Feuerzeug die Spinnennetze wegfackelt - ich und ein Kollege der beim Unboxing dabei war haben das "Feuer" gespürt. Es ist einfach unbeschreibbar. Da man ja auch recht nah am Monitor sitzt ist es nochmal ne Ecke krasser als am TV. Die Dynamic Range ist dadurch sehr hoch, da der Monitor gleichzeitig auch absolutes Schwarz darstellen kann und das ist bei Metro sehr eindrucksvoll gleich in den ersten Minuten zu beobachten. Die Farben sind der Wahnsinn in HDR, es wirkt einfach wesentlich satter und natürlicher. Man kann im HDR Mode auch kaum Anpassungen vornehmen, das übernimmt der Monitor.
+200hz: OMG ich kenne 120 hz vom Acer und 144 hz von dem Asus PG27Q aber 200 Hz sind für mich gefühlt nochmal eine Steigerung. Ich habe es definitiv gespürt. Habe Wolfenstein Youngblood gespielt und hatte unterirdisch und in Innenräumen locker 200 FPS mit der 2080ti. In Außengefechten ging es aber auf bis zu 160 FPS runter. Trotzdem ein fühlbaren und sichtbarer Vorteil. Zumindest für mich.
+Local Dimming: In Spielen ist es zu 95% kein Problem. Man sieht das Blooming und Halo-ing nicht. Es gibt aber natürlich Szenen, in denen man es registriert, wenn man darauf achtet. HUDs und auch Markierungen vor allem am Rand off Axis sind mit einem leichten Blooming versehen. Aber es ist meiner Meinung nach nicht so schlimm wie bei meinem Acer vorher, der recht viel BLB hatte wodurch in dunklen Szenen bestimmte Bereiche immer aufgehellt waren und ansonsten Schwarz eher Dunkelgrau war.
Es gibt aber auch etwas, dass mich stört:
-Brightness in HDR Spielen ist festgetackert im Monitor und lässt sich nicht anpassen. Das ist sehr schade, denn man muss auf Helligkeitseinstellungen im Spiel zurückgreifen. Und in manchen Spielen lässt sich z.B. nur die Maximalhelligkeit runterregeln oder das Gamma verschieben. In Assassins Creed Odyssey, das übrigens einfach nur umwerfend aussieht in HDR gibt es oft Szenen, in denen das ganze Bild extrem hell ist. Der Monitor schafft ja über 800 nits full field Brightness und das auch ohne Abfall konstant.
-Der Lüfter ist hörbar. Da lässt sich nichts verschönigen, wenn alles im Raum ruhig ist, hört man ihn, wenn man einen Silent PC haben sollte, hört man ihn. Ich höre ihn nicht wenn mein PC an ist aber das muss man bedenken. Es ist nicht störend und reguliert sich auch etwas aber der Lüfter ist immer an. Auch nach dem Ausschalten für mindestens 20-40 sec, je nachdem wie lange man den Monitor genutzt hat.
-Hitze: An der Stelle wo die Luft aus dem Monitor geblasen wird - hinten in der Nähe der Inputs - ist es heiß. Man verbrennt sich nicht, wenn man dahin fasst aber es ist einfach nur heiß.
Falls mich der Monitor nicht durch ein Ableben vorzeitig verlässt, was ich immer bei allen teuren Elektrosachen befürchte, kann ich nur sagen, es hat sich für mich persönlich gelohnt. Er ist konkurrenzlos (bis natürlich auf den Acer x35) in dem Formfaktor mit den Speccs. Teuer mit einem gehörigen Early Adopter Aufschlag aber um Welten besser als alles ohne HDR 1000 und Local Dimming.
Achja auf dem Desktop ist local Dimming eher eine Plage und ich schalte es da ab, wenn ich grade mal nicht zocke. Nervig, weil dazu in Windows erstmal HDR deaktiviert werden muss, weil sonst kann man es im Monitor nicht ausstellen aber hey. Was nimmt man als Enthusiast nicht alles auf sich für den nächsten Schritt in Sachen Bildqualität.
Edit: Was ich vergessen habe. Gsync Ultimate kann wohl Variable Refresh von 1-200 Herz bei dem Monitor. Wahrscheinlich lag es daran, dass es bei Ladebildschirmen nicht mehr flimmert, wie bei meinen beiden anderen Gsync Monitoren vorher.
Das wichtigste, wie gut funktioniert ULMB? Und was von den tollen Features kann man noch verwenden wenn ULMB aktiv ist?
ezzemm
2019-08-19, 06:09:10
Das wichtigste, wie gut funktioniert ULMB? Und was von den tollen Features kann man noch verwenden wenn ULMB aktiv ist?
Potentiell müsste ULMB ja richtig geil sein mit dem Ding, bei dem hellen Backlight.
Mein PG278Q ist mit ULMB viel zu dunkel um sinnvoll nutzbar zu sein.
Robspassion
2019-08-19, 07:47:10
"One thing sadly missing from this screen is support for an ULMB (Ultra Low Motion Blur) strobing backlight. This was not possible to include with the FALD backlight sadly. Although G-sync is far more useful and valuable anyway given the high demands of the resolution and high refresh rates. You can't use ULMB and G-sync at the same time currently (although some recently announced screens are changing that), so even if it was available, it would not be as useful as the G-sync variable refresh rate support."
https://www.tftcentral.co.uk/reviews/asus_rog_swift_pg35vq.htm
Tobalt
2019-08-19, 12:59:11
Bringt BFI noch viel bei 144/155Hz ?
tldr: ja definitiv. deutlichst.
normalerweise dauert bei gestrobtem backlight der Strobe so 1-3 ms. also worstcase wäre das mit der Bewegtschärfe von 300 bildern pro sekunde vergleichbar. gutes bfi ist ziemlich gut mit der Bewegtschärfe des echten lebens vergleichbar ;-)
und zweitens: die marketing-1-ms-ohne-MBR-angaben beziehen sich meist auf die pixel transition. du kannst auch bei 30 hz eine 1 ms pixel transition haben. bringt dir nur nix da die Bewegtschärfe durch die hold time bestimmt wird und nicht durch die transition time. aktuell bringen transition times unter ca.4 ms herzlich wenig, da wir eh keine so hohen refresh rates verfügbar haben. die leute kaufen ja lieber 230" 12K bildschirme und 18bit Ultra HDR
Rampage 2
2019-08-19, 13:46:38
und zweitens: die marketing-1-ms-ohne-MBR-angaben beziehen sich meist auf die pixel transition. du kannst auch bei 30 hz eine 1 ms pixel transition haben. bringt dir nur nix da die Bewegtschärfe durch die hold time bestimmt wird und nicht durch die transition time.
Und wie hoch ist Diese bei aktuellen HighEnd-Monitoren?
Unabhängig davon, ob MBR noch von zusätzlichem Nutzen bei sehr hohen Refresh-Rates ist: reichen sehr hohe RRs für sich allein denn nicht aus? D.h. habe ich mit 120/144Hz RR/fps nicht auch so schon ausreichend Bewegtschärfe?
R2
akuji13
2019-08-19, 13:54:11
Definiere ausreichend.
Für die meisten würde ich behaupten ja, für mich nur je nach Spiel.
Gibt immer wieder Spiele wo ich auf VRR verzichte und MBR nutze. Bioshock (1) ist so eines.
Sogar bei 240Hz Geräten ist der Unterschied noch deutlich sichtbar mMn.
Und wie hoch ist Diese bei aktuellen HighEnd-Monitoren?
Hat mit "aktuell" und "HighEnd" nichts zu tun.
Ohne BFI ist das einfach der Kehrwert der fps.
30 fps hold time: 33,33 ms
144 fps hold time: 6,94 ms
"One thing sadly missing from this screen is support for an ULMB (Ultra Low Motion Blur) strobing backlight.
Kein ULMB? Das ist ein ein Fail sondergleichen. Dass es gemeinsam mit G-Sync und HDR funktioniert hätte ich nicht erwartet, aber zumindest dass man Optional G-Sync+HDR oder ULMB verwenden kann.
Und wie hoch ist Diese bei aktuellen HighEnd-Monitoren?
Die ist der Kehrwert deiner aktuellen Framerate, bzw. minimal der Kehrwert der Refreshrate.
Unabhängig davon, ob MBR noch von zusätzlichem Nutzen bei sehr hohen Refresh-Rates ist: reichen sehr hohe RRs für sich allein denn nicht aus? D.h. habe ich mit 120/144Hz RR/fps nicht auch so schon ausreichend Bewegtschärfe?
Bei 500-1000 FPS und Hz vielleicht im niedrigen 3-Stelligen Bereich auf keinen Fall.
Nicht umsonst verwenden auch alle VR-Headsets, selbst mit OLED und damit vernachlässigbar geringen Schaltzeiten, immer ein Strobing (Backlight kann man ja bei OLED nicht mehr wirklich sagen).
Wenn du ein Samsung-Handy mit GearVR hast kannst du das auch wunderbar selbst Testen. Einmal VR mit Google-Cardbox oder ähnlichem und dann mit der GearVR. Im Normalfall leuchtet das Display nämlich dauerhaft, sobald du es aber in die GearVR steckst wird es auf strobing umgestellt und ist damit um Welten besser.
Das schöne mit dem Strobing Backlight ist auch, dass das Bild kaum an Schärfe verliert, auch wenn du mal die FPS nicht halten kannst.
Umgekehrt fängt es dafür viel schneller zum Ruckeln an, bei schnellen Shootern ist bei mir da die Grenze ungefähr bei 90-100FPS, darunter ruckelt es schon deutlich.
Käsetoast
2019-08-19, 16:56:00
Ist der LG 27GL850-B derzeit der beste Gaming Monitor mit WQHD und im Bereich zwischen 400 und 800 Euro?
https://www.rtings.com/monitor/reviews/lg/27gl850-b
Sieht wirklich gut aus!
https://www.tftcentral.co.uk/reviews/lg_27gl850.htm
Werde mir den nächsten Monat wohl auch kaufen...
Tesseract
2019-08-19, 17:02:31
mit den schaltzeiten könnte man sogar ein ordentliches 240Hz-gerät bauen, das ist echt gut.
aktuell bringen transition times unter ca.4 ms herzlich wenig, da wir eh keine so hohen refresh rates verfügbar haben. die leute kaufen ja lieber 230" 12K bildschirme und 18bit Ultra HDR
Sind halt nicht alle User gleich :-)
aufkrawall
2019-08-19, 19:18:12
Wie kann man ein Gerät mit einem Kontrast-Verhältnis von 836:1 loben? Das ist selbst für IPS richtig kacke...
Käsetoast
2019-08-19, 21:55:58
Wie kann man ein Gerät mit einem Kontrast-Verhältnis von 836:1 loben? Das ist selbst für IPS richtig kacke...
Weil das gute Farbspektrum den Bildeindruck minimal aufwertet und man wenn man ehrlich ist es am Ende nicht merken wird, ob man 850:1 oder 950:1 Kontrast hat. Zumal das auch der einzige "große" Kritikpunkt an dem Monitor ist denn Farbraum, Farbtreue, Reaktionszeit, Coating und Lag sind alle super bzw. teilweise für ein IPS spitzenmäßig. Auch darf man noch darauf hoffen, dass LG die Qualitätskontrolle einigermaßen im Griff hat - bei den bisherigen AOC LCDs war die Panel Lotterie teilweise schon ziemlich schlimm...
Die eierlegende Wollmilchsau gibt es zwar nicht, aber ich finde wer einen 27" 1440p Monitor mit 144Hz & FreeSync sucht, der kriegt mit dem 27GL850 etwas das da verdammt nah dran ist...
Naja, mal die Gamescom abwarten, aber ich habe die Hoffnung, dass Eizo dem 27" Foris 2735 mal ein Update gönnt nach 4 Jahren am Markt (begrenzte FreeSync Range, die man per Hand umschalten muss, ist doch kacke), inzwischen aufgegeben bzw. darauf kann man wohl noch lange warten...
Tesseract
2019-08-19, 23:10:55
Wie kann man ein Gerät mit einem Kontrast-Verhältnis von 836:1 loben? Das ist selbst für IPS richtig kacke...
weil helligkeitsempfindung logarithmisch ist und solche kleinen unterschiede in der praxis kaum relevant sind. da hat das coating und das verhalten vom glow einen größeren einfluss als der 90°-kontrast gemessen vom colorimeter.
aufkrawall
2019-08-19, 23:44:09
Weil das gute Farbspektrum den Bildeindruck minimal aufwertet
Und was soll das bei sRGB-Content bringen?
und man wenn man ehrlich ist es am Ende nicht merken wird, ob man 850:1 oder 950:1 Kontrast hat.
Ein kurzer Blick in andere Tests hätte dir verraten, dass es auch IPS-Geräte gibt, die die 1200:1-Marke knacken.
Und wenn der Kontrast bei IPS kacke ist, liegt das bestimmt nicht an einem tranfunzeligen Weiß, weil die Durchlässigkeit so schlecht wäre. Ich bitte euch...
Nightspider
2019-08-19, 23:55:49
Sieht wirklich gut aus!
https://www.tftcentral.co.uk/reviews/lg_27gl850.htm
Werde mir den nächsten Monat wohl auch kaufen...
Hmmm jetzt schwanke ich zwischen diesem und dem ASUS TUF Gaming VG27AQ.
Jetzt haben mich die anderen wieder heiß auf BFI (ELMB) gemacht. :usad:
Und mit 155Hz hat der ASUS noch bissl mehr Dampf für ältere Games (CS:GO).
Ist ULMB und ELMB jetzt das Gleiche? Sind das nur vers. Marketingbegriffe für BFI?
Und was war jetzt nochmal MBR ? :freak:
Gott ich habe jetzt seit 7 oder 8 Jahren meinen Korea QNIX Import.
Hätte damals nie gedacht das man heutzutage immer noch so schwierig einen optimalen Monitor finden würde. :usad:
Und wie verhält es sich mit der Helligkeit? Die bleibt doch bestimmt nicht Konstant, bei denen angegebenen 350cd/m² oder?
Kann ich dann nur Nachts mit BFI spielen? :ugly:
Ist ULMB und ELMB jetzt das Gleiche? Sind das nur vers. Marketingbegriffe für BFI?
Es beschreibt ein pulsierendes Backlight, ULMB ist ein Marketingbegriff von Nvidia und Teil vom G-Sync-Programm. ULMB findest du also nur bei G-Sync Monitoren.
Bei anderen Herstellern (bzw. Monitore ohne G-Sync Zertifikat) gibt es teilweise andere Bezeichnungen, und manche Monitore können es auch ohne das groß anzupreisen.
Mein Monitor schaltet beispielsweise auf den schnellsten Stufen der Response Time auf ein pulsierendes Backlight, hat dafür aber keine Eigene Bezeichnung.
Ein Indiz für ein pulsierendes Backlight sind extrem kurze Response-Times bei nicht TN-Panels, bzw. wenn die Response-Time als MPRT angegeben wird.
Und was war jetzt nochmal MBR ? :freak:
Gott ich habe jetzt seit 7 oder 8 Jahren meinen Korea QNIX Import.
Hätte damals nie gedacht das man heutzutage immer noch so schwierig einen optimalen Monitor finden würde. :usad:
Und wie verhält es sich mit der Helligkeit? Die bleibt doch bestimmt nicht Konstant, bei denen angegebenen 350cd/m² oder?
Kann ich dann nur Nachts mit BFI spielen? :ugly:[/QUOTE]
akuji13
2019-08-20, 08:14:50
Wie kann man ein Gerät mit einem Kontrast-Verhältnis von 836:1 loben? Das ist selbst für IPS richtig kacke...
Der Kontrast würde mich als (auch) TN user nicht entscheidend stören (mein BenQ hat einen ziemlich ähnlichen Wert), aber wenn ich den glow und das blb schon wieder sehe...:rolleyes:
da hat das coating und das verhalten vom glow einen größeren einfluss als der 90°-kontrast gemessen vom colorimeter.
Coating ist ein schönes Stichwort.
Hoffen wir mal das das besser ist als das der restlichen 27" Bande.
Ist ULMB und ELMB jetzt das Gleiche? Sind das nur vers. Marketingbegriffe für BFI?
Und was war jetzt nochmal MBR ? :freak:
MBR: motion blur reduction
ULMB nennt man das bei NV und ELMB bei Asus.
Dann gibts noch ein paar andere Bezeichnungen je nach Hersteller, das Ziel ist aber identisch.
Käsetoast
2019-08-20, 12:32:58
Ein kurzer Blick in andere Tests hätte dir verraten, dass es auch IPS-Geräte gibt, die die 1200:1-Marke knacken.
Und wenn der Kontrast bei IPS kacke ist, liegt das bestimmt nicht an einem tranfunzeligen Weiß, weil die Durchlässigkeit so schlecht wäre. Ich bitte euch...
Beworben wird er mit 1000:1, weshalb man denke ich realistisch 950:1 hätte erwarten können. Schafft er leider nicht - wenn du dir aber den TFTCentral Test ansiehst, den ich verlinkt hate, dann siehst du, dass im Schnitt vergleichbare IPS Monitore meist bei um die 1000:1 rangieren. Somit ist der LG zwar schlechter, aber nicht total deklassiert und wie erwähnt wird einem der Unterschied zwischen einem 850er und 950er Kontrast kaum auffallen. Zumal man teilweise auch den Preis beachten muss - mehr Kontrast geht sicherlich, aber ob der dann immer noch für 500-600 € verkauft werden würde sei mal dahingestellt. So gesehen finde ich, dass das Gesamtpaket sehr stimmig ist. Der Monitor ist bei weitem nicht perfekt, hat aber eigentlich nur den Kontrast als echten Nachteil und ist da jetzt auch nicht unbrauchbar schlecht. Bessere Gesamtpakete gibt es kaum am Markt...
Ansonsten fehlt vielleicht noch das BFI oder unter welcher knackigen Abkürzung man die Grundidee auch verkaufen will. Da sich das ohne Kopfstand aber nicht mit VRR verträgt (und das ist mir da momentan wichtiger), finde ich das nicht weiter schlimm bzw. ich will mich nicht über eine PWM freie Ansteuerung der Hintergrundbeleuchtung erfreuen, um mir dann durch BFI wieder eine Art Flimmern einzuhandeln... ;)
Hoffen wir mal das das besser ist als das der restlichen 27" Bande.
Laut TFTCentral Test ist es leicht besser als bei den meisten vergleichbaren Monitoren...
Nightspider
2019-08-20, 12:40:10
Wollten die nicht eigentlich mal mehrere LCDs hintereinander schalten um deutlich bessere Kontraste zu erhalten?
Käsetoast
2019-08-20, 12:49:45
Die wollten auch mal SED zur Marktreife treiben... :freak:
Ne - im Ernst: Man hört hier und da immer wieder mal von Ideen, aber am Markt kommt sowas irgendwie nicht an. Manchmal habe ich das Gefühl, das ist im PC Monitor Segment fast schon gewünscht, dass sich da möglichst wenig tut. Wäre schön wenn die Hersteller dann wenigstens mal das was technisch am Markt ist sauber abliefern würden - gerade die Ausleuchtungsproblematik ist in den letzten Jahren schlimm geworden (selbst bei den <30" Displays). Vor allem deswegen merkwürdig, weil häufig nur die maschinelle Montage Ursache für die sehr schlechten Ergebnisse sind. Häufig kann man ja selber Hand anlegen und durch das Drehen an einigen Schrauben den Verzug im Rahmen leicht verändern, was oft schon reicht um die gleichmäßige Ausleuchtung deutlich zu verbessern. Ein Verfahren in der Fertigung, dass das besser hinkriegt kann man werbetechnisch wohl nicht herausstellen und wird deshalb nicht umgesetzt, weil kostet ja Geld und der Kunde merkt nicht viel davon, wenn ein Hersteller sich da verbessert. Dann doch lieber große curved Displays bauen, VA-Panel rein und 144 Hz dranschreiben. Interessiet ja keinen, dass die Reaktionszeiten vieler VA Panels gar nicht reichen, um überhaupt die 144 Hz erreichen zu können...
Kartenlehrling
2019-08-20, 13:26:01
Wollten die nicht eigentlich mal mehrere LCDs hintereinander schalten um deutlich bessere Kontraste zu erhalten?
http://mylime.info/images/ph/ph-optik-led-info-6.jpg
Das werden wir wohl weniger bei TV und Monitor sehen, es ist geplant wo man hohe PPI brauch, Uhren, VR/AR und Mobil.
dann werden die LED- und Nanopunkte an die Wände einer Röhren- bzw. Wabenstrucktur gespritzt.
Was halt geht, die OLED teilweiße duchlässig machen so das zwei OLED Schichten zusammenarbeiten und
somit sich die Helligkeit wohl verstärkt, Transparente OLED gibts ja schon lange.
yIuwDVd4214
TRANSPARENTER OLED TV PROTOTYP - Panasonic
Werewolf
2019-08-20, 14:05:54
Sieht wirklich gut aus!
https://www.tftcentral.co.uk/reviews/lg_27gl850.htm
Werde mir den nächsten Monat wohl auch kaufen...
Hätte gerne eine 32" Version davon.
Käsetoast
2019-08-20, 14:21:27
Vom Asus TUF VG27AQ gibt es jetzt auch einen Test (fränzösisch):
https://www.tomshardware.fr/test-asus-tuf-vg27aq-ecran-gaming-elmb/
(Google Translate (https://translate.google.com/translate?hl=de&sl=auto&tl=de&u=https%3A%2F%2Fwww.tomshardware.fr%2Ftest-asus-tuf-vg27aq-ecran-gaming-elmb%2F))
Muss ich mir mal in Ruhe durchlesen...
Was halt geht, die OLED teilweiße duchlässig machen so das zwei OLED Schichten zusammenarbeiten und
somit sich die Helligkeit wohl verstärkt, Transparente OLED gibts ja schon lange.
https://youtu.be/yIuwDVd4214
TRANSPARENTER OLED TV PROTOTYP - Panasonic
Auf das trau ich mich wetten :freak:
M.f.G. JVC
Was halt geht, die OLED teilweiße duchlässig machen so das zwei OLED Schichten zusammenarbeiten und
somit sich die Helligkeit wohl verstärkt, Transparente OLED gibts ja schon lange.
Ich bezweifle, dass das so funktioniert.
Damit die OLEDs Transparent sind müssen mal einerseits die OLEDs klein sein, damit man in den transparenten Lücken zwischen den OLEDs durchsehen kann.
Das bedeutet aber geringere erreichbare Helligkeit der OLEDs selbst.
Andererseits ist das Problem um bei den OLEDs Helligkeit zu erreichen nicht die erreichbare Helligkeit der OLEDs selbst, wie man auch an den hohen erreichbaren Helligkeiten wenn nur wenige OLEDs aktiv sind sieht, sondern dass bei OLEDs die Erzeugung der Photonen und Steuerung dieser ein und dasselbe sind, und damit der gesamte Strom der ja das Licht erzeugt zu den einzelnen OLEDs fließen muss.
Damit müssen durch die dünnen Strukturen des Panels selbst 500W und mehr fließen können, was nicht gerade Trivial ist. Wenn man da mehrere Layer übereinander hat wird das eher noch komplizierter als einfacher.
https://www.asus.com/Monitors/ROG-Strix-XG43UQ/
Verfügbar Ende des Jahres, schön groß, 144Hz, keine Farbuntertastung, nur ein Kabel.
1.5K ist eigentlich gar kein so schlechter Preis. Dann hätte mein alter 4K Monitor glatte 6 Jahre überlebt. (100 Euro pro Jahr, keine 10 pro Monat^^)
redpanther
2019-08-21, 12:30:41
Mich würde ja der Samsung C49RG94 interessieren. Soweit hört man ja fast nur gutes zu dem.
Hat den hier jemand oder kennt ihn in Aktion?
Für den würde ich von meinem Tripple Screen Setup abrücken,
Robspassion
2019-08-21, 14:47:36
Hier gibt es ein Review:
https://www.rtings.com/monitor/reviews/samsung/c49rg9-crg9
FlashBFE
2019-08-21, 17:11:51
https://www.asus.com/Monitors/ROG-Strix-XG43UQ/
Verfügbar Ende des Jahres, schön groß, 144Hz, keine Farbuntertastung, nur ein Kabel.
1.5K ist eigentlich gar kein so schlechter Preis. Dann hätte mein alter 4K Monitor glatte 6 Jahre überlebt. (100 Euro pro Jahr, keine 10 pro Monat^^)
Schade, warum nur diese eine Größe? Wenn man mit UHD auf 43" geht, dann hat man ja wieder nur eine grobe Auflösung von 102ppi. Zuhause habe ich UHD auf 27", auf Arbeit UHD auf 32". Irgendwo in dem Bereich (163...138ppi) sollte es sich bewegen.
Normalerweise wird doch der Mainstream-Markt zuerst bedient^^
Weiß auch nicht warum Asus bei den großen Displays anfängt, wird also sicher nicht mehr lange dauern, bis es das auch "in klein" gibt.
Sardaukar.nsn
2019-08-21, 21:06:25
https://www.asus.com/Monitors/ROG-Strix-XG43UQ/
Verfügbar Ende des Jahres, schön groß, 144Hz, keine Farbuntertastung, nur ein Kabel.
1.5K ist eigentlich gar kein so schlechter Preis. Dann hätte mein alter 4K Monitor glatte 6 Jahre überlebt. (100 Euro pro Jahr, keine 10 pro Monat^^)
2020 sollen auch die "kleinen" :rolleyes: LG OLED mit 48 Zoll kommen. Vielleicht unter 1000€.
https://www.prad.de/lg-plant-oled-fernseher-mit-48-zoll-fuer-2020/
Lowkey
2019-08-22, 18:48:11
Den ASUS XG438Q habe ich mal auf die Liste gesetzt. Damit könnte ich den Schreibtisch nach oben und unten Ausfüllen.
ChaosTM
2019-08-22, 21:20:12
https://www.asus.com/Monitors/ROG-Strix-XG43UQ/
Verfügbar Ende des Jahres, schön groß, 144Hz, keine Farbuntertastung, nur ein Kabel.
1.5K ist eigentlich gar kein so schlechter Preis. Dann hätte mein alter 4K Monitor glatte 6 Jahre überlebt. (100 Euro pro Jahr, keine 10 pro Monat^^)
Mein erster LCD, ein Dell 2405 hat damals vor 14 Jahren auch 1200 gekostet und der geht immer noch. Frühes PVA Panel.
Erschreckend ist wie wenig sich seither getan hat. Der IPS meines Laptops, der lt. Prad.de mit zum besten gehörte was dieser Panel Typ vor 2 Jahren konnte, ist in etwa gleichwertig. Der alte hat sogar den besseren Schwarzwert und das uniformere Backlight --- CFL . Nur beim spielen verliert er naturgemäß.
Bei 43 und 4k kommt man halt schon an die untere Grenze mit den dpi..
8K 65er OLED - bei der Pixeldichte ist Skalierung auch kein Problem mehr - ist es beim 27`4K Monitor schon nicht mehr wirklich.
Oder ein 4K OLED bis 40..
haha, ich hab meine 3 13 Jahre alten Dell 3007 WHP (mein erster 2560x1600 30" TFT) auch noch im Sim-Rig. Die haben auch 1.5K pro Stück gekostet. Rechnet sich über die Zeit^^
Aber ganz ehrlich ... 144hz ... hätte ich dann schon gerne mal in 4K und wenn als Abfallprodukt auch noch HDR dabei ist ... alles gut. :-)
Also ich bin ehrlich gesagt nicht mehr bereit so viel für einen Monitor auszugeben der dann wieder nur ein Kompromiss ist.
Für einen 4-Stelligen Betrag muss ein Monitor wirklich "perfekt" sein, also mindestens 4k, mindestens 144Hz, perfektes Schwarz und niedrige Latenz, und dabei einen für Bildbearbeitung tauglichen Farbraum bieten.
Für "nur" einen Kompromiss in einem dieser Punkte gebe ich nicht mehr so viel Geld aus.
ChaosTM
2019-08-22, 21:42:38
Klar...
M4xw0lf
2019-08-22, 22:53:20
Aber ganz ehrlich ... 144hz ... hätte ich dann schon gerne mal in 4K und wenn als Abfallprodukt auch noch HDR dabei ist ... alles gut. :-)
Ein 9er LG OLED kommt da an allen Fronten schon sehr nahe dran.
Jop, der 55C9 könnte ein gutes Gamingdisplay sein. Imo besser als das Alienware-Teil für 4000€.
SamLombardo
2019-08-23, 07:57:35
So ist es. Und wie gesagt, wenn ihr einmal angefangen habt, mit OLED zu spielen, wollt ihr nichts anderes mehr. Ich hatte ja bevor ich einen 55er C7 OLED als Monitor genutzt habe den Philips 40BDM4065uc, der der absolute Kontrast Meister unter den VA Bildschirm war mit satten 7000:1. Eine Weile hatte ich noch beide Bildschirme in Betrieb, bevor ich den Philips verkauft habe. Und gegen den OLED sieht der 7000:1 Kontrast König einfach aus wie ein Bildschirm von vorgestern. Klingt übertrieben und polemisch? Ist es aber nicht. Ich behaupte, jeder der es selber probiert, wird mir recht geben. Ich spiele am 55er OLED meist mit benutzerdefinierter pixelgenauer 21 zu 9 Auflösung (3840x1620), damit ist der Bildschirm dann auch nicht mehr zu groß, aus dem üblichen Abstand. Bzw man gewöhnt sich sehr schnell an die neue Größe. Ich habe meinen 55C7 OLED als PC only Bildschirm (für Filme nutze ich einen anderen OLED;)) jetzt seit einem Jahr und drei Monaten, habe mal im Servicemenü nachgeschaut, er läuft jetzt ungefähr 1400 Stunden. Und ich habe nicht den Hauch eines Einbrennen, selbst wenn ich die kritischen Tests durchlaufen lasse ist nichts zu sehen. Und das obwohl ich wirklich alles spiele, egal ob festes HUD oder nicht. Also mein Fazit zum 55er OLED als PC Bildschirm ist durchweg positiv. Wie gesagt, einmal HDR Games auf OLED gespielt:eek:, geht LCD jedweder Art einfach nicht mehr. Und jeder, der den Schritt zu OLED geht, wird genauso versaut. Wetten?:D
Savay
2019-08-23, 09:32:40
Das stimmt schon, mich stören bei meinem 55er OLED nur die PPI von <90 bei üblichem Sitzabstand am Tisch...so weit komme ich am Schreibtisch nämlich leider nicht weg!
In 40-43" sollte das aber gangbar sein wenn ich den an die Wand hänge...ich hoffe einfach mal nächstes Jahr kommen dann HDMI 2.1 Grafikkarten und von LG oder sonstwem auch noch kleinere OLEDs als 48"
M4xw0lf
2019-08-23, 09:39:33
Joa, in normalem Sitzabstand gebe ich mir auch keine 80 ppi, mal abgesehen davon, dass es ein ergonomischer Alptraum wäre ^^
SamLombardo
2019-08-23, 09:45:57
Wie gesagt benutzerdefinierte 21 : 9 Auflösung. Ich sitze ungefähr einen Meter entfernt, und das funktioniert nach kleiner Gewöhnungsphase ganz hervorragend. Nichtsdestotrotz, ein 55 Zoll 8k OLED Bildschirm würde sofort bei mir einziehen dürfen, keine Frage. Ob ich das wirklich wieder kleiner wollte, bin ich mir mittlerweile gar nicht mehr sicher, nachdem ich mich an die Größe gewöhnt habe:eek::biggrin:..
Robspassion
2019-08-23, 17:19:18
Ein Meter Abstand ist leider immer noch signifikant mehr als 40-50 cm, was denke ich für viele Monitor Gamer so das Maximum darstellt, wenn man nicht kompetitiv spielt. Für kompetitives Spielen ist sicher noch ein geringerer Abstand sinnvoll und notwendig. Daher sind so 55 Zoll Teile vielleicht für manche User trotzdem brauchbar als Monitor Ersatz, wenn man einen großen Schreibtisch hat, ich finde es aber unpraktisch und unpassend. Für Konsolen Daddelei vielleicht mitm Gamepad und gewissen Abstand geht es sicher. Ich denke viele hier suchen nach etwas bis maximal 40-43 Zoll und da gibt es nichts mit Oled.
Sardaukar.nsn
2019-08-23, 18:22:14
Ich denke für das nächste Jahr ernsthaft über einen 48 Zoll LG Oled nach. Dafür würde ich dann das Büro etwas umbauen und den Bildschirm an der Wand hinterm Schreibtisch montieren. Wie viel Abstand sollte man denn etwa haben?
Kartenlehrling
2019-08-23, 19:43:23
Kann man sich ja ausrechnen, 60° zum Arbeiten, 120° zum Spielen und
Satz des Pythagoras, dann müsste man es doch hinbekommen.
http://www.vrnerds.de/wp-content/uploads/2015/05/sichtfeld-mit-beiden-augen.png
ChaosTM
2019-08-23, 20:50:21
Deshalb ist mein derzeitiger Sekundär - "Monitor" auch auf einem fahrbaren Gestell montiert..
Sardaukar.nsn
2019-08-23, 20:59:58
April nächsten Jahres: Cyberpunk 2077 am PC auf OLED Screen.
Man wird ja noch träumen dürfen. :rolleyes:
bnoob
2019-08-24, 00:22:13
Der Asus ist auf jeden Fall fest eingeplant.
Lustig ist ja, dass es hier grob zwei Fraktionen gibt, einmal 27" 4K, was in Spielen komplett sinnbefreit fein aufgelöst ist und sinnlos Grafikpower verballert, und einmal 55" 4K, was ein ziemlich genau mit 27" FHD vergleichbares Pixelfest ist :freak:
40-43" 4K (110 DPI immerhin!) ist die perfekte Schreibtischmonitorgröße, deal with it.
Zum Spielen komplett ohne Umgewöhnung, einfach die (fast) totale Immersion, beim Arbeiten braucht die Umstellung ihre zwei Wochen (die Musik spielt Mitte unten, das ist bei 22"FHD aber eigentlich auch nicht anders). Ich sitze beim arbeiten keinen Meter weit weg, beim spielen je nach Spiel.
Wer einmal beim hundertsten Playthrough von Assassin's Creed 1 mit unendlicher Sichtweite den höchsten Turm erklommen und beim Herunterschauen auf einmal Höhenangst bekommen hat will nichts mehr anderes.
Wer einmal 6 Word-Seiten eines Dokuments auf einmal offen und damit den totalen Kontext hatte will nichts mehr anderes.
Ich freue mich schon auf Cyberpunk 2077 auf 43" :tongue:
Tobalt
2019-08-24, 07:56:38
ich erkenne bei mir ebenso diese Tendenz. ich hatte eine Weile 27",4k und fand die hohen Dpi geil fürs arbeiten und aucb sinnvoll für spiele *gerade weil* man durch die vielen dpi eben nicht gezwungen war nativ in 4k zu spielen.
aber jetzt bin ich bei 32" auf 1440p 144hz. und das Gefühl ist für mich einfach massiv besser. Klar ich muss zusehen dass ich immer auf die native Auflösung komme, aber die Kombination aus großer Fläche und hohen Hz ist einfach für mich das optimum.
Ein perfektes schwarz würde das für mich noch abrunden. wenige dpi stören mich hingegen nicht. ich bin sehr zufrieden, aber wenn ich wechsel dann evtl auf noch mehr Diagonale und Oled. wenn es mal einen TV in der region um 42" gibt und der wenigstens 144 Hz bietet bei sehr geringem input lag, ist es eine option.
gebogen halte ich bei soviel Blickwinkel auch nicht für automatisch schlecht
M4xw0lf
2019-08-24, 09:32:33
Der Asus ist auf jeden Fall fest eingeplant.
Lustig ist ja, dass es hier grob zwei Fraktionen gibt, einmal 27" 4K, was in Spielen komplett sinnbefreit fein aufgelöst ist und sinnlos Grafikpower verballert,
I'm gonna stop you right there... Bullshit. Es ist fantastisch. Jeder Mensch mit einem halbwegs normalen Visus kann das sehen.
Es kommt halt drauf an was man spielt - wenn man nur in Fortnite/PUBG/Overwatch/wasweißich unterwegs ist, dann bringen 200 FPS bei niedrigerer Auflösung mehr für den Erfolg. Aber wer Singleplayerspiele und andere Genres als nur Shooter bevorzugt, der bekommt durch die zusätzlichen Pixel ein schöneres Bild - besseres AF, weniger sichtbares Aliasing; feine Texturdetails (wenn vorhanden) werden überhaupt erst sichtbar.
Jop. Witcher 3 in 4K rockt einfach. Die feinen Details überall (Häuser, Bäume) sind deutlich sichtbar. Dazu kommt, dass man sich kaum noch Gedanken um vernünftiges AA machen muss. Es reicht popeliges FXAA und co, wohingegen man bei WQHD die Kanten immer sehr gut glätten muss oder eben sofort Unschärfen sieht.
5CH4CHT3L
2019-08-24, 10:01:13
Gerade gefunden:
https://geizhals.de/asus-rog-strix-xg438q-90lm04u0-b01170-a2112234.html?hloc=at&hloc=de
ASUS ROG Strix XG438Q
43" 4k, 120Hz VA Panel mit Freesync 2 und LFC
Nur 1200€ :O
Tobalt
2019-08-24, 10:49:02
40" find ich bei VA zu groß. mein 32" ist grenzwertig, was die Blickwinkel angeht. besonders beim schwarz was in der bildmitte sehr gut ist, aber außen nicht so tief, fallen die Blickwinkel negativ auf
gut ist ne frage des Abstandes aber mehr als 120hz wäre bei dem preis auch angemessen, oder alternativ gleichzeitig MBR und Freesync.
just4FunTA
2019-08-24, 10:52:38
nur? 1200€ ist jetzt nicht gerade ein Schnäppchen, hattest du die BFG Preise erwartet?
https://www.hardwareluxx.de/index.php/artikel/hardware/monitore/50542-asus-rog-swift-pg35vq-im-test-vollausgestattet-aber-extrem-teuer.html
Im Vergleich zu dem hier. 2800€ abartig teuer, dafür bekomme ich einen 65C9 von LG, zwar nicht vergleichbar, aber die Relation stimmt einfach nicht.
bnoob
2019-08-24, 12:46:49
Es kommt halt drauf an was man spielt - wenn man nur in Fortnite/PUBG/Overwatch/wasweißich unterwegs ist, dann bringen 200 FPS bei niedrigerer Auflösung mehr für den Erfolg. Aber wer Singleplayerspiele und andere Genres als nur Shooter bevorzugt, der bekommt durch die zusätzlichen Pixel ein schöneres Bild - besseres AF, weniger sichtbares Aliasing; feine Texturdetails (wenn vorhanden) werden überhaupt erst sichtbar.
Bei Shootern würde ich, wenn ich das kompetitiv mache, nichtmal über 24" gehen, mehr kann das Auge nicht auf einmal erfassen. Meinetwegen sogar mit 1440p, das ist dann 120 DPI, also angenehm, und mit vielen Texturdetails.
Dann kann ich in stimmungsvollen Singleplayerspielen auch eine vernünftige Bildschirmdiagonale fahren wenn ich einfach nur Spielerlebnis will, die Mehrdetails (die ich nie bestreiten würde!) werden ja nicht per se weniger, nur die Diagonale größer. Und 110/102 (40/43") DPI ist auf Nicht-Laptops einfach unpixelig genug.
Bei der Diagonale geht dann aber auch ein bisschen Rechenpower in AA, da gebe ich dir recht, aber das ist das Immersionserlebnis einfach wert.
Ich hatte innerhalb von 4 Jahren
19" 1600x1200 -> 19" 1280x1024 -> 22" 1080p -> 2x24" 1200p -> 1x27" 1440p -> 1x43" 4k + 1x24" 1080p 144hz FS
und nutze regelmäßig einen 24" 4K Monitor.
Ich habe also schon vieles hinter mir und vieles ausprobiert und den perfekten Kompromiss gefunden ;)
BlacKi
2019-08-24, 12:46:50
40" find ich bei VA zu groß. mein 32" ist grenzwertig, was die Blickwinkel angeht. besonders beim schwarz was in der bildmitte sehr gut ist, aber außen nicht so tief, fallen die Blickwinkel negativ auf
gut ist ne frage des Abstandes aber mehr als 120hz wäre bei dem preis auch angemessen, oder alternativ gleichzeitig MBR und Freesync.
oder eben halt als curved. aber den gibts so nicht.
Bei Shootern würde ich, wenn ich das kompetitiv mache, nichtmal über 24" gehen, mehr kann das Auge nicht auf einmal erfassen. Meinetwegen sogar mit 1440p, das ist dann 120 DPI, also angenehm, und mit vielen Texturdetails.
Dann kann ich in stimmungsvollen Singleplayerspielen auch eine vernünftige Bildschirmdiagonale fahren wenn ich einfach nur Spielerlebnis will, die Mehrdetails (die ich nie bestreiten würde!) werden ja nicht per se weniger, nur die Diagonale größer. Und 110 DPI ist auf Nicht-Laptops einfach unpixelig genug.
Bei der Diagonale geht dann aber auch ein bisschen Rechenpower in AA, da gebe ich dir recht, aber das ist das Immersionserlebnis einfach wert.
Ich hatte innerhalb von 4 Jahren
19" 1600x1200 -> 19" 1280x1024 -> 22" 1080p -> 2x24" 1200p -> 1x27" 1440p -> 1x43" 4k + 1x24" 1080p 144hz FS
und nutze regelmäßig einen 24" 4K Monitor.
Ich habe also schon vieles hinter mir und vieles ausprobiert und den perfekten Kompromiss gefunden ;)
wenn ein 4k 55" entsprechend weit weg steht zur größe wie ein 4k 24", dann gibt es keinen unterschied in der pixel density fürs auge(wenn man genug platz hat), auch wenn die PPI sich komplett unterscheidet. deshalb zählt für mich nur die auflösung. über den sitzabstand kann man die fehlende PPI 1zu1 ausgleichen.
und den sitzabstand vergrößern zu können ist eigentlich was tolles, da hat man mehr platz vor sich auf dem desktop.
Raspo
2019-08-24, 12:52:09
Gerade gefunden:
https://geizhals.de/asus-rog-strix-xg438q-90lm04u0-b01170-a2112234.html?hloc=at&hloc=de
ASUS ROG Strix XG438Q
43" 4k, 120Hz VA Panel mit Freesync 2 und LFC
Nur 1200€ :O
Den hab ich schon sehr lange im Auge.
Warte aber erstmal paar Tests ab und vielleicht sinkt er noch etwas im Preis.
SamLombardo
2019-08-24, 12:58:39
Das ist halt auch das schöne bei OLED, da spielt der Blickwinkel keine Rolle. Zur besseren Vorstellung habe ich mal zwei Bilder gemacht, wie das bei mir auf dem Schreibtisch aussieht. Wie gesagt, an die Größe hab ich mich doch schnell gewöhnt. Das Weniger an PPI habe ich im Vergleich zu meinem 40er Philips überhaupt nicht bemerkt. Gegenüber einem 27er ist das natürlich was anderes. Dennoch, der Gewinn durch den Wahnsinns Kontrast ist einfach dermaßen beeindruckend, dass die der Größe geschuldete relativ gesunkene Pixeldichte für einen Gaming Bildschirm zunächst mal wenig relevant ist. Zumal es ja ein 4k Bildschirm ist und alle 4K Details darstellt. Nur eben nicht so brutal scharf wie auf 27 Zoll komprimiert. Alles MMn natürlich ;).
https://abload.de/img/p1011406tdj4d.jpg (https://abload.de/image.php?img=p1011406tdj4d.jpg)
https://abload.de/img/p1011390dvkf1.jpg (https://abload.de/image.php?img=p1011390dvkf1.jpg)
bnoob
2019-08-24, 13:06:28
und den sitzabstand vergrößern zu können ist eigentlich was tolles, da hat man mehr platz vor sich auf dem desktop.
Hab leider einen Schreibtisch mit sehr wenig Tiefe und hinter dem Bildschirm noch einen Centerspeaker, da wird sowas leider unmöglich :(
Sonst hätte ich das mit dem 55" LG vielleicht sogar schonmal ausprobiert
BlacKi
2019-08-24, 13:33:33
für 55" müsste ich auch einiges umstellen, was allerdings möglich wäre.
gibt es eigentlich Oled displays mit 120hz und Async? oder ist der kommende alienware wirklich der erste?
robbitop
2019-08-24, 13:42:19
Das würde mich irre machen. Alles außerhalb des scharfen Sichtfeldes. Kein Überblick, ständig mit Augen und Kopfrotation das Bild absuchen.
Ich hatte mal einen 37“ TV als Monitor an die Wand geschraubt. 80 cm Abstand. Ätzend für mich persönlich. 32“ ebenfalls für mich zu groß.
Wenn man das FOV viel größer machen könnte und das HUD/Minimal massiv ins Zentrum verschieben könnte, so dass jeweils im äußeren Drittel des Sichtfeldes keine so relevanten Informationen liegen würden und das ganze eher eine Erweiterung für das periphere Sichtfeld für die Immersion wäre -> super.
Aber solange das FOV und HUD unverändert sind -> anstrengend IMO.
Das ist bspw der Grund warum 34“ 21:9 Monitore so gut ankommen. Unser Blickfeld hat keine 21:9. Aber die Games sind so gemacht, dass der FOV einfach größer ist und das HUD in die Mitte rutscht und schon ist der Mehranteil der Pixel immersionssteigernd. Wäre echt klasse, wenn man hud und fov in jedem Spiel selbst justieren könnte. Dann würden auch die riesen 55“ TVs zum Spielen richtig gut sein ohne die aktuellen Nachteile.
Bei einem 8K 55“ TV könnte man als Workaround auch einen 34-38“ 21:9 Bereich via custom resolutions ausschneiden. (Nachteil: DSR funktioniert mit CR nicht)
robbitop
2019-08-24, 13:44:12
für 55" müsste ich auch einiges umstellen, was allerdings möglich wäre.
gibt es eigentlich Oled displays mit 120hz und Async? oder ist der kommende alienware wirklich der erste?
LG C9 Serie kann das via HDMI 2.1. Kann aber leider noch keine Graka. Wohl erst die nächste Generation von NV/AMD.
5CH4CHT3L
2019-08-24, 14:43:44
40" find ich bei VA zu groß. mein 32" ist grenzwertig, was die Blickwinkel angeht. besonders beim schwarz was in der bildmitte sehr gut ist, aber außen nicht so tief, fallen die Blickwinkel negativ auf
gut ist ne frage des Abstandes aber mehr als 120hz wäre bei dem preis auch angemessen, oder alternativ gleichzeitig MBR und Freesync.
Alles eine Frage des Geschmackes...
Das ist jedenfalls der erste Monitor mit 120Hz in der Größe
Darf ich fragen für was MBR steht?
Darf ich fragen für was MBR steht?
Motion Blur Reduction, ein pulsierendes Backlight.
Das ist unter unterschiedlichen Bezeichnungen bei verschiedenen Herstellern zu finden.
BlacKi
2019-08-24, 15:11:25
LG C9 Serie kann das via HDMI 2.1. Kann aber leider noch keine Graka. Wohl erst die nächste Generation von NV/AMD.
nice. hdmi, ja das ist ein haken. aber ich hab auch nen relativ neuen LG tv 4k60hz 1080p120hz, aber er lässt keine custom resolutions zu über 60hz. ich war davon sehr enttäuscht.
würde die c9 oled serie das zulassen, dann könnte ich mir den gut vorstellen.
ChaosTM
2019-08-24, 15:47:12
Das ist halt auch das schöne bei OLED, da spielt der Blickwinkel keine Rolle. Zur besseren Vorstellung habe ich mal zwei Bilder gemacht, wie das bei mir auf dem Schreibtisch aussieht. Wie gesagt, an die Größe hab ich mich doch schnell gewöhnt. Das Weniger an PPI habe ich im Vergleich zu meinem 40er Philips überhaupt nicht bemerkt. Gegenüber einem 27er ist das natürlich was anderes. Dennoch, der Gewinn durch den Wahnsinns Kontrast ist einfach dermaßen beeindruckend, dass die der Größe geschuldete relativ gesunkene Pixeldichte für einen Gaming Bildschirm zunächst mal wenig relevant ist. Zumal es ja ein 4k Bildschirm ist und alle 4K Details darstellt. Nur eben nicht so brutal scharf wie auf 27 Zoll komprimiert. Alles MMn natürlich ;).
[/URL]https://abload.de/img/p1011406tdj4d.jpg (https://abload.de/image.php?img=p1011406tdj4d.jpg)
[URL]https://abload.de/img/p1011390dvkf1.jpg
Sehr schön. Bei LCD wäre das zweite Bild nur ein grauer Sumpf bei der Beleuchtung.
Die Entfernung wäre mir allerdings dann auch etwas zu knapp bemessen.
SamLombardo
2019-08-24, 16:20:32
Das würde mich irre machen. Alles außerhalb des scharfen Sichtfeldes. Kein Überblick, ständig mit Augen und Kopfrotation das Bild absuchen.
Ich hatte mal einen 37“ TV als Monitor an die Wand geschraubt. 80 cm Abstand. Ätzend für mich persönlich. 32“ ebenfalls für mich zu groß.
Ja, ist halt wirklich Geschmackssache. Ich kenne auch jemanden, der tatsächlich von einem 50 Zoll Fernseher zurück auf 40 Zoll ist, weil er unbedingt das komplette Bild im Blick haben will ohne die Augen zu bewegen. Konnte ich zwar auch nicht verstehen, mir ist mein 77 Zöller schon zu klein:wink:, aber es zeigt, dass es halt doch jeder anders wahrnimmt. Ist ja auch kein Problem.:wink:
Sehr schön. Bei LCD wäre das zweite Bild nur ein grauer Sumpf bei der Beleuchtung.
Die Entfernung wäre mir allerdings dann auch etwas zu knapp bemessen.
Das stimmt, wobei es in echt noch mal sehr viel schicker aussieht. Das HDR kann ja durch die Kamera nicht dargestellt werden. Durch den perfekten Kontrast ist das ganze schon sehr beeindruckend.
Man sieht 2° vom Gesichtsfeld scharf.
Eigentlich ist es also völlig wumpe wie groß der Monitor ist, weil man ihn in seiner Gesamtheit nicht scharf erfassen kann, außer man setzt sich 20m weit weg.
x-force
2019-08-24, 21:30:57
also ist es für dich nicht anstrengender die augen soweit zu bewegen, bis du nicht mehr kannst, als sie einfach nur minmal zu bewegen?`
interessant
robbitop
2019-08-24, 21:38:19
Jep. Das Argument ist quatsch. Ist auch in der Praxis deutlich zu merken.
Ich weiß nicht, selbst am 20" auf der Firma muss ich mit dem Hals arbeiten.
Und den Hals bewegen ist ergonomisch nicht schlecht. Hält den Hals beweglich. Wirste merken wenn Du die 60 erreichst, dann wird der nämlich langsam steif^^
Aber es gibt verschiedene User, und die einen werden die anderen nie verstehen^^
Ich stell mir das lustig vor wie ein Ölgötze bewegungslos vor dem Monitor zu sitzen. Mir erscheint das nicht angenehm oder weniger anstrengend.
SamLombardo
2019-08-24, 21:46:30
Sehe ich wie HisN, (wer hätte das gedacht;)), zumal die Halsbewegung auch lange nicht so extrem ist, wie ihr es euch vielleicht ausmalt. Das Wesentliche spielt sich eh im zentralen Sichtfeld ab, das weiter außen ist sozusagen das periphere Gesichtsfeld, was halt auch noch mit eingeschlossen ist. Und somit einfach die Immersion noch mal ordentlich steigert. Klar, ab und zu muss man schon mal die Augen bewegen, etwa wenn man eine bestimmte Anzeige lesen will oder so. Aber es ist lange nicht so dramatisch wie man sich das vielleicht vorstellt. Aber wie HisN schon sagte, jeder User ist anders;).
M4xw0lf
2019-08-24, 21:46:57
Ja, ist halt wirklich Geschmackssache. Ich kenne auch jemanden, der tatsächlich von einem 50 Zoll Fernseher zurück auf 40 Zoll ist, weil er unbedingt das komplette Bild im Blick haben will ohne die Augen zu bewegen. Konnte ich zwar auch nicht verstehen, mir ist mein 77 Zöller schon zu klein:wink:, aber es zeigt, dass es halt doch jeder anders wahrnimmt. Ist ja auch kein Problem.:wink:
Kommt auch auf die Inhalte an, die man sich so gibt. Meiner Meinung nach laden moderne Produktionen vielmehr dazu ein, den Blick übers Bild schweifen zu lassen, statt immer mehr oder weniger die Bildmitte zu fokussieren, als ältere. Hängt natürlich mit Sicherheit auch mit der typischerweise verfügbaren Bildfläche beim Konsumenten zusammen.
x-force
2019-08-24, 22:34:30
Und den Hals bewegen ist ergonomisch nicht schlecht. Hält den Hals beweglich.
ich mache lieber sport als in 1m abstand vor einer 2m leinwand zu stehen und konstant den focus zu verlieren.
robbitop
2019-08-24, 22:51:09
Das ist nicht rein binär. Gar nicht bewegen oder bewegen. Reine Polemisierung der Diskussion IMO.
Sachlicher/Differenzierter: Die Frage ist wie viel man schauen muss. Je größer die Abstände zwischen den Punkten auf dem Bildschirm die abgesucht werden müssen desto größer die Dauer für die Verschaffung des Überblicks. Je nach Toleranzschwelle nervt es den einen früher oder später. Die Physik des Glaskörpers des Auges ist wahrscheinlich weitestgehend vergleichbar.
x-force
2019-08-24, 23:03:02
achne, soweit war ich letzte seite auch schon, die polemisierung kam erst nachdem niemand auf ordentliche kritik eingegangen ist ;)
also ist es für dich nicht anstrengender die augen soweit zu bewegen, bis du nicht mehr kannst, als sie einfach nur minmal zu bewegen?`
es wäre jetzt festzustellen ab wie viel grad der durschnittliche mensch die augenbewegung als anstrengend empfindet.
ich stelle schon bei bewegungen über ~15° abseits der achse fest, daß es anstrender ist.
BlacKi
2019-08-24, 23:16:58
es ist aber auch viel antrainiert von früher. oft werden gewohnheiten als optimal hingestellt. wäre man anfang an mit 55" bildschirmen aufgewachsen würde man nicht mit einem 24" zocken können. daher finde ich es pauschal falsch zu sagen es ist etwas zu groß.
akuji13
2019-08-25, 09:13:18
Ich finde z. B. mini maps furchtbar.
Wenn die nicht deaktiviert werden können stören sie bei einem großen Bildschirm kaum.
Gleiches gilt auch für Dinge wie Auftragsstatus usw.
Bei Strategietiteln kann ich das mit der Übersicht nachvollziehen.
Allerdings kann ich, auch altersbedingt, die Einheiten auf einem großen Bildschirm besser erkennen als auf einem 27".
In allen anderen Arten von Spielen liegt mein Fokus in der Bildmitte.
Und der wird z. B. durch die Ausrichtung/den Blickwinkel der Spielfigur dann auch entsprechend in die Bildmitte verlegt.
Was mich auch nervt sind die Gehäuseränder der Monitore.
Wenn ich die nicht bemerke dient das zusätzlich der Immersion.
Allerdings könnte ich nur mit 1 Bildschirm ebenfalls nicht glücklich werden.
Für einige Spiele brauch ich dann auch mal einen schnellen 27" mit mbr.
Lowkey
2019-08-25, 09:30:58
Ich schreibe es mal hier rein:
Es geht um die 49" Samsung Monitore mit 32:9:
https://geizhals.de/?cmp=2003534&cmp=1640134
Der Unterschied ist an sich nicht groß: das neue Modell hat die höhere Auflösung und die doppelte Helligkeit.
Das Problem mit der doppelten Helligkeit ist nun nicht der Stromverbrauch, sondern dass das Bild selbst auf 0% Helligkeit sehr anstrengend für die Augen wird. Ich bin mir nicht sicher, ob ich nicht doch wieder auf den Vorgänger mit der geringeren Auflösung wechseln sollte, weil das Bild deutlich angenehmer wirkt. Im Windows-HDR Modus wird aus dem schwarz dann wieder ein grau bzw. es sieht im Desktop nicht gut aus. Da muss man dann irgendwann doch wieder mit den drei Monitorprofilen arbeiten.
Sardaukar.nsn
2019-08-25, 15:32:21
LG C9 Serie kann das via HDMI 2.1. Kann aber leider noch keine Graka. Wohl erst die nächste Generation von NV/AMD.
Ich denke wenn im Winter die neuen Konsolen vorgestellt werden, wird das auch der Startschuss für HDMI 2.1 und VRR.
robbitop
2019-08-25, 16:16:03
Das wird richtig genial. Schön auf der Couch in anständiger Refreshrate inkl HDR und 4K spielen. :)
x-force
2019-08-25, 16:50:52
das würde ja heißen nv beerdigt gsync endgültig...
klingt atm etwas zu schön
aufkrawall
2019-08-25, 16:54:58
Wieso sollten sie, wenn noch genug Leute blöd genug sind, für ein überflüssiges Vendorlock-Heizmodul einen gepfefferten Aufpreis zu zahlen?
M4xw0lf
2019-08-25, 17:18:25
das würde ja heißen nv beerdigt gsync endgültig...
klingt atm etwas zu schön
Die neuen Konsolen bringen das ja, also wird ein Großteil der Gamer ganz unabhängig von nV für VRR ausgestattet sein.
... ganz unabhängig von nV ...
"Ohne" zusatzkosten und vorallem ohne NV :ulol:
Oder will NV tatsächlich mal nen allgemeinen Standard ohne wenn und aber unterstützen :confused: da hamse doch nix von ...
... der Startschuss für HDMI 2.1 und VRR.
Eher die Zielflagge :wink:
M.f.G. JVC
robbitop
2019-08-25, 18:25:24
NV wird schon nachziehen so wie sie es mit vrr bei DP gemacht haben. Die Anzahl der Geräte mit dem jeweiligen Standard wird wie bei DP mit VRR früher oder später den Markt überschwemmen. AMD wird es garantiert unterstützen und Intel sicherlich auch. Die Konsolen auch. Irgendwann ist das ein relevanter Nachteil und dann werden sie einlenken.
Schade, dass das Einlenken auf offene Standards bei NV leider mit notwendigem Druck verbunden zu sein scheint.
Offene Standards sind so viel besser für den Markt. Aber nachvollziehbar wieder eine Möglichkeit weniger Kunden zu binden durch Exklusivität.
Wird denke ich nicht lange dauern das NV "nachzieht".
Die überlegen bestimmt schon wie sie "HDMI 2.1.2" am besten vermarkten ^^
Irgendwas baldowern die schon aus, um möglichst lange um AMDs Free-Sync "herum zu schiffen" ...
(rein bei Computerkäufern die nicht Richtung Fernseher schauen, könnte das ne weile gehen)
AMD wills ja sogar nachreichen ;)
https://www.overclock3d.net/news/gpu_displays/hdmi_2_1_vrr_support_will_come_to_amd_radeon_rx_gpus_with_a_future_driver_update/1
"Radeon Software will add support for HDMI 2.1 Variable Refresh Rate (VRR) technology on Radeon RX products in an upcoming driver release. This support will come as an addition to the Radeon FreeSync technology umbrella, as displays with HDMI 2.1 VRR support reach market."
M.f.G. JVC
Tobalt
2019-08-26, 10:31:54
ich denke auch dass die grafikkarten outputs sicher zu mehr im stande sind. wenn man den standard per firmware nachreicht und dann auch ein entsprechendes kabel und Endgerät verwendet, kann es schon sein dass auch ältere karten zumindest hdmi 2.0 per "overclock" gut übertreffen können, wenn auch vielleicht nicht ganz hdmi 2.1 bieten.
ich stelle mir das ähnlich vor wie beim monitor overclock.
es hängt natürlich alles am wille des gpu Herstellers. Wenn sich AMD darauf einlässt, ist das schon positiv. verlieren würden sie auch nicht wirklich was, weil frameraten jenseits der hdmi 2.0 spec für die alten karten eh kaum möglich sein sollte. aber im betriebssystem endlich mal 4k und 120 hz gemeinsam zu bieten, wäre mit den alten karten sicher drin, und bewirkt ein deutlich verbessertes Arbeitsgefühl
Savay
2019-08-26, 10:59:55
Geht da eher um das Featureset...wohl weniger um die Bandbreite!
Wenn AMD es nachreicht wird es wohl eher ein HDMI 2.1 Featurelevel @ HDMI 2.0 Bandbreite sein. (Ein bisschen wie mit HDMI 2.0 a und b...und mehr so ne Art inoffizielles "HDMI 2.0c")
Ich hoffe zwar immer noch drauf, frage mich allerdings schon langsam wann das passieren soll!
Lustig ist ja, dass es hier grob zwei Fraktionen gibt, einmal 27" 4K, was in Spielen komplett sinnbefreit fein aufgelöst ist und sinnlos Grafikpower verballert, und einmal 55" 4K, was ein ziemlich genau mit 27" FHD vergleichbares Pixelfest ist :freak:
Das ist nicht "sinnbefreit" und verballert auch nicht "sinnlos" Grafikpower. :rolleyes:
Kommt schlicht auf den Visus und den Sitzabstand an! Wer es nicht sieht, braucht es halt nicht, wer es tut, will aber keinesfalls mehr weniger sobald er sich dran gewöhnt hat. :tongue:
Ich sitze von meinem 27er UHD etwas über Armlänge weg...also ca. 70-80cm...und die 160ppi sind so nahezu ideal. ggf. wäre irgendwas mit 200-220ppi bei dem Abstand noch besser, dann würde das Pixelraster noch weniger auffallen.
Weniger Winkelauflösung kommt mir ehrlich gesagt nicht mehr in die Tüte, deswegen ist ein 55er auch keine Option für den Schreibtisch...ich komme nämlich, egal wie ich es drehe und wende, nicht auf die 1,6m Abstand zur Wand die es da bräuchte!
Was ich eben nicht verstehe ist, dass man bei den aktuellen 4K-Monitoren nicht einfach WQHD@120Hz anbietet, denn das ginge. So könnte man sich aussuchen, was man will. Mit Ach und Krache gingen auch 4K@120Hz, aber mit Chromasubsampling (4:2:0).
robbitop
2019-08-26, 11:25:49
Eine hohe Auflösung bietet mehr als ein feines Pixelraster, welches mancher statisch nicht ausreizen könnte. Es bietet aber auch mehr temporale Stabilität und somit weniger temporales Aliasing. Flimmern, Schimmern, Moire. Bewegtartefakte kann unser Auge leider sehr gut erfassen. Auch ist das LoD an die Auflösung gekoppelt. Man sieht also auch ein bisschen mehr Details weiter auf der Z Achse.
Gutes TAA hilft da - führt aber idR auch zu eigenen Artefakten.
Am Ende ist die Investition der Rechenleistung (sie ist endlich) immer ein Kompromiss.
Mehr fps (vorausgesetzt der Monitor kann sie darstellen) führen hingegen zu mehr Bewegtschärfe und weniger Inputlag. Das ist etwas von dem auch Menschen mit schlechterer Sehfähigkeit sofort etwas haben.
Am Ende ist es immer Sache des Gustos. Raff zB zockt bei geringer Framerate und hoher Auflösung. Ich tue das zwar auch gern, aber auf so niedrife Framerate habe ich seit 120/144Hz Monitoren keine Lust mehr. Möglichst >75 fps besser in Richtung 90...100 fps. Die Flüssigkeit, Bewegtschärfe und der geringe Inputlag sind einfach super. Zumindest bei Spielen mit M+T und etwas Bewegung.
Mit Gamepad gibt es weniger direktes Feedback- da reicht auch weniger.
Savay
2019-08-26, 12:11:42
Mit Ach und Krache gingen auch 4K@120Hz, aber mit Chromasubsampling (4:2:0).
Mit 8bpc gehen auch 120Hz@UHD ohne Chromasubsampling über DP 1.4! ;)
Der Nitro XV273K kann das doch z.B. und dank VRR kann man sich doch dann aussuchen ob man WQHD drauf schickt und mit 144Hz zockt oder eben in UHD mit bis zu 120Hz mit dem was die GPU halt hergibt.
Geht da eher um das Featureset...wohl weniger um die Bandbreite!
Ich hoffe zwar immer noch drauf, frage mich allerdings schon langsam wann das passieren soll!
Jup, vielleicht kommt es ja auch erst mit den neuen Konsolen ;)
(k.a. wie viel die Konsolenhersteller mitgearbeitet/zu sagen haben...)
Mir wäre aber auch Gestern lieber als Heute.
Echtes vollwertiges HDMI 2.1 wird erst mit "Navi21" kommen.
M.f.G. JVC
nordic_pegasus
2019-08-26, 13:19:43
Mit 8bpc gehen auch 120Hz@UHD ohne Chromasubsampling über DP 1.4! ;)
wenn die Monitore endlich mal flächendeckend DSC 1.2 unterstützen würden, wären auch 10bpc/120Hz/UHD mit 4:4:4/RGB über DisplayPort 1.4 möglich.
Wobei das bei dem Alienware 55" OLED kein Problem sein wird, da die Helligkeit nicht für HDR ausreicht. Darum sind 10bpc nicht notwendig ;-)
Lowkey
2019-08-26, 15:26:08
Zum neuen Asus XG438Q (UHD + 120hz + 43")
Kein Reaktionszeitverbesserer. In der Tat ist das keine Option bei VA. Ich habe es eben mal ausprobiert.
Aus der Rezession von Alternate:
Da vermutlich viele Leute mit dem Kauf dieses Monitors hadern, wird meine Bewertung etwas länger ausfallen.
Zunächst mal zum Performancesprung von WQHD auf UHD - fällt deutlich geringer aus, als gedacht. Ich habe eine 1080TI und musste die Details in BF5 nur wenig reduzieren, um wieder auf meine vollen 120HZ zu kommen. Das hätte ich nicht gedacht und ist mir positiv aufgefallen.
Nun zum Bildschirm. Die Haptik ist solide, jedoch nichts besonderes. Der Standfuss ist massiv und suggeriert Sicherheit.
Momentan nutze ich ein TN Panel und das Bild des VA Panels ist im Gegensatz richtig, richtig gut. Die Auflösung, die Refreshrate, das funktionierende G-Sync, alles absolut super. Auch HDR ist eine tolle Sache, jedoch für Competitive Shooter ungeeigner (added Input Lag).
Nun zum großen Nachteil, der dem Monitor 3-4 Sterne zuspricht: Es ist keine Form von Extreme Low Motion Blur verbaut. Viele hier werden den gravierenden Unterschied zwischen 60Hz und 120Hz kennen. Der Unterschied von 120Hz zu 120Hz mit Extreme/Ultra Low Motion ist nochmal genau so gravieren! Diese Technik bei einem 1200€ Monitor nicht einzusetzen, ist ein schlechter Scherz. Ich habe keine Ahnung, was ASUS sich dabei gedacht hat. Besonders, da die 120FPS doch wieder recht schnell erreicht werden.
Schade, ich habe seit Ende 2016 auf einen Monitor dieser Größe mit 4k/120Hz gewartet. Hoffentlich hat der "dickere Bruder", der Q4 erscheinen soll, die Technik an Bord. Oder aber der kommende ACER CG437KP.
bnoob
2019-08-26, 15:45:43
Wegen fehlendem ULMB, obwohl nie in den Specs vermerkt, 3 Sterne zu vergeben ist aber auch mal wieder Peak deutscher Forennutzer, wtf.
RTFM
Lowkey
2019-08-26, 15:59:35
Na er kauft, wie viele Leute, ein 1200 Euro Gerät und erwartet die beste Lösung für den Gamermarkt. Wozu lesen, wenn man doch ein Rückgaberecht hat? :D
bnoob
2019-08-26, 16:12:44
Wenn er nicht dumm die Klappe aufgerissen hätte hätte ich nichts gesagt.
Stattdessen freue ich mich über die erste RL-Erfahrung für was wahrscheinlich mein nächster Monitor wird und bekomme dummes rumgetrolle von jemandem der die Specs nicht gelesen hat, na danke.
€dit:
Hier gibt es noch ein "Review"-Video dazu, aber mehr oder weniger aussagefrei
-xDNVl3LlVs
Lowkey
2019-08-26, 16:45:43
Du kaufst ihn dir?
BlacKi
2019-08-26, 17:30:03
Wenn er nicht dumm die Klappe aufgerissen hätte hätte ich nichts gesagt.
Stattdessen freue ich mich über die erste RL-Erfahrung für was wahrscheinlich mein nächster Monitor wird und bekomme dummes rumgetrolle von jemandem der die Specs nicht gelesen hat, na danke.
€dit:
Hier gibt es noch ein "Review"-Video dazu, aber mehr oder weniger aussagefrei
https://youtu.be/-xDNVl3LlVs
die ganzen größen probleme mit einem 43er sind auf den schreibtisch zurückzuführen, die ganze "neck" geschichte ebenso. mein schreibtisch hat 80cm tiefe und steht nochmals 10cm von der wand weg. leute die so wenig platz haben sollten einfach kleinere monitore kaufen, und nicht meckern wenn andere sich auf große monitore freuen.
aber das dimming ist auch bei meinem fernseher so ne geschichte. vl ist der aufpreis und die wartezeit für oleds doch berechtigt.
ULMB bringt bei VA auch nicht sonderlich viel. Die Schaltzeiten sind zu hoch als dass man da bei 120Hz schnell genug schalten kann, was dann zu Ghosting führt (selbes Problem wie damals bei 3D Shutter).
Lowkey
2019-08-26, 17:54:23
Ghosting im HDR Modus erlebe ich gerade. Das ist nicht schön. Auf höchster Stufe ist es dagegen gut. Nur geht dann auch weder FreeSync2 noch Gsync.
bnoob
2019-08-26, 19:20:50
Du kaufst ihn dir?
Denke mal ja, im Oktober oder so. 1200€ sind ne Hausnummer und im September kommt Ryzen 3000.
die ganzen größen probleme mit einem 43er sind auf den schreibtisch zurückzuführen, die ganze "neck" geschichte ebenso. mein schreibtisch hat 80cm tiefe und steht nochmals 10cm von der wand weg. leute die so wenig platz haben sollten einfach kleinere monitore kaufen, und nicht meckern wenn andere sich auf große monitore freuen.
aber das dimming ist auch bei meinem fernseher so ne geschichte. vl ist der aufpreis und die wartezeit für oleds doch berechtigt.
Bei mir ist es ein reiner Tausch von 43" auf 43", da werde ich zum Glück keine Überraschungen erleben.
Eingewöhnung von 27" kommend hat bei mir damals alleine 2 Wochen gebraucht, die Typen hatten den Monitor aber überhaupt nur eine Woche da stehen, das kann nichts werden.
Hätte mir halt echte Aussagen gewünscht, aber außer "wähhh wähhh DP kann kein 4K 144 Hz 10-Bit" und "10-Bit per Dithering ist VÖLLIG ÜBERRASCHEND ne scheiß Idee" und "An sich ist das Panel halt ein 43" VA" kam rein GAR nichts an Infos.
Bin bisher immer am besten damit gefahren Dimming komplett abzuschalten, ich reagiere auf das verzögerte Dimming das es bisher gibt immer sehr empfindlich.
Ghosting im HDR Modus erlebe ich gerade. Das ist nicht schön. Auf höchster Stufe ist es dagegen gut. Nur geht dann auch weder FreeSync2 noch Gsync.
Hast du ihn da?
Gibt es ohne HDR weniger/kein Gosting? Ich brauche kein HDR bevor ich einen OLED habe.
Kannst du bitte mal den Abstand vom Tisch zur Gehäuseunterkante messen?
ULMB bringt bei VA auch nicht sonderlich viel. Die Schaltzeiten sind zu hoch als dass man da bei 120Hz schnell genug schalten kann, was dann zu Ghosting führt (selbes Problem wie damals bei 3D Shutter).
Genau deshalb brauchst du mit VA unbedingt ULMB weil dann gibt es eben praktisch kein ghosting mehr, trotz VA.
Nein. Das Ghosting durch Overdrive geht durch ULMB nicht weg.
Tobalt
2019-08-27, 09:35:18
kommt alles darauf an wann der strobe kommt...
bei va sollte der strobe eben zb erst 4 ms nach frame transition beginn einschalten.
der display lag ist dann eben ca 2 ms größer als bei einem tn mit strobe
allerdinhs ist für gutes strobing auch ne hohe Helligkeit wichtig damit der strobe nicht selbst wieder 4 ms dauern muss ;-)
Lowkey
2019-08-27, 09:40:16
@bnoob
Nee bin immer noch beim Samsung 49". Ich kann mir nicht vorstellen, dass sich HDR10 bei 80cm Abstand am PC bei 40" oder mehr wirklich durchsetzen kann, da es für die Augen extrem anstrengend ist.
Uzundiz
2019-08-27, 12:10:30
hey,
hat jemand einen vergleich zwischen tn und oled in sachen motion blur / bewegungsunschärfe?
SamLombardo
2019-08-27, 12:24:29
hey,
hat jemand einen vergleich zwischen tn und oled in sachen motion blur / bewegungsunschärfe?
Da OLED deutlich schnellere Reaktionszeiten (Faktor 10!) haben ist die Bewegungsschärfe auch besser. Der "Nachteil" ist, dass einem das normale 24p Ruckeln ohne Frame Interpolation etwas ruckliger vorkommt, als auf einem LCD TV (die ja meistens VA oder IPS Panel haben) da eben das Motion Blur weniger ist.:biggrin:. FI auf leichter Stufe sorgt aber trotzdem für ein flüssiges Bildgefühl bei Kinofilmen. Für den Gaming Einsatz ist das aber gut, da man eh mit höheren fps Zahlen unterwegs ist. Und das ohne stöhrende Nachzieheffekte (mein VA Philips Monitor war in dieser Beziehung ziemlich nervig).
Tobalt
2019-08-27, 13:42:03
oled hat ne viel schnellere transition als lcds wie auch TN.
motion blur hingegen sollte bei oled und tn sehr ähnlich sein, da das ja nicht von der schnellen transition time provitiert.
SamLombardo
2019-08-27, 14:30:27
Das stimmt, frei von motion blur ist oled auch nicht. Es ist nur halt ein komplett anderes Level, als ein VA panel. Da war das schon sehr grenzwertig.
robbitop
2019-08-27, 15:32:18
Jedes Holdtype Display hat diesen Effekt. Egal wie schnell. Da hilft nur BFI und/oder höhere Refreshrate.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.