Archiv verlassen und diese Seite im Standarddesign anzeigen : Bessere Monitore?
Ah, für die 4K-User die auch 21:9 haben wollen^^
https://www.heise.de/newsticker/meldung/MSI-Prestige-PS341WU-Ultrawidescreen-Monitor-mit-5120-X-2160-Pixeln-4509614.html
Ups .. gleiches Panel wie der LG ... war ich wieder zu lahm^^
Uzundiz
2019-08-29, 18:45:04
Da OLED deutlich schnellere Reaktionszeiten (Faktor 10!) haben ist die Bewegungsschärfe auch besser. Der "Nachteil" ist, dass einem das normale 24p Ruckeln ohne Frame Interpolation etwas ruckliger vorkommt, als auf einem LCD TV (die ja meistens VA oder IPS Panel haben) da eben das Motion Blur weniger ist.:biggrin:. FI auf leichter Stufe sorgt aber trotzdem für ein flüssiges Bildgefühl bei Kinofilmen. Für den Gaming Einsatz ist das aber gut, da man eh mit höheren fps Zahlen unterwegs ist. Und das ohne stöhrende Nachzieheffekte (mein VA Philips Monitor war in dieser Beziehung ziemlich nervig).
OK danke. Ich besitze derzeit ein va Panel. Bildqualität ist bisweilen gut, jedoch macht mich die Bewegungsunschärfe verrückt. Als ich nach ein paar Jahren wieder angefangen habe zu gamen, dachte ich zunächst, dass ich zu alt geworden wäre, um das Bildgeschehen zu verfolgen. Dann saß ich bei meinem Bruder vor einem Tn und dachte mir OMFG.
Ich hoffe sie kommen Mal langsam in die hufe mit den OLED Monitoren. Ich würde mich notfalls mit einem kleinem OLED Fernseher begnügen, aber Nada. 55" ist leider mir zu groß...
ChaosTM
2019-08-29, 18:50:44
@HisN
Finally --- so was such ich schon seit Jahren als Hauptmonitor. Es gibt zwar schon seit einiger Zeit einen anderen von LG aber der war/ist nicht so gut.
Gleiche Pixeldichte wie mein derzeitiger 27er..
Jetzt fehlt nur mehr 120Hz/VRR/HDR und ich wäre glücklich.
Tesseract
2019-08-29, 18:59:12
Jetzt fehlt nur mehr 120Hz/VRR/HDR und ich wäre glücklich.
und eine graka aus dem jahr 2026 :freak:
ChaosTM
2019-08-29, 19:00:49
2024 ;)
Nightspider
2019-08-29, 22:00:05
Zum ASUS TUF Gaming VG27AQ gibts noch nix Neues oder?
Lieferbarkeit und Tests verzögern sich scheinbar noch etwas.
aufkrawall
2019-08-29, 22:18:42
und eine graka aus dem jahr 2026 :freak:
Temporales Upscaling + RAS -> läuft 2019.
ChaosTM
2019-08-29, 22:27:55
Meinen ersten 4k Monitor kaufte ich vor ziemlich genau 5 Jahren. Damals war an natives 4k Spielen nur in Ausnahmefällen zu denken. Das schöne an High-DPI Monitoren ist die Möglichkeit der Skalierung. 1620p oder 1800p schauen recht gut aus in Spielen und ich hab nebenbei immer noch den 2160p Desktop ohne Pixelgrafik. Bin aber auch kein Hardcore Gamer mehr.
RAS? - steh auf Kriegsfuß mit diesen Abkürzungen ;)
aufkrawall
2019-08-29, 22:30:11
Der mit Navi eingeführte Sharpen-Shader, den Nvidia nun offenbar in FreeStyle kopiert hat.
Käsetoast
2019-08-30, 17:27:35
Review vom Asus TUF Gaming VG27AQ ist da:
https://www.tftcentral.co.uk/reviews/asus_tuf_gaming_vg27aq.htm
Klingt ein wenig durchwachsen...
Tesseract
2019-08-30, 18:43:14
rofl, ich war ja von anfang an skeptisch ob low persistence + adaptive sync ordentlich funktionieren wird, aber den strobe einfach mit festem refresh asynchron zum dynamischen bildaufbau im hintergrund weiter laufen lassen ist an dreistigkeit ja kaum noch zu überbieten. zumindest scheint es ab 100fps zu funktionieren.
Der "Nachteil" ist, dass einem das normale 24p Ruckeln ohne Frame Interpolation etwas ruckliger vorkommt, als auf einem LCD TV (die ja meistens VA oder IPS Panel haben) da eben das Motion Blur weniger ist.. FI auf leichter Stufe sorgt aber trotzdem für ein flüssiges Bildgefühl bei Kinofilmen.
Na mit VRR sollte der 24p-Blu-ray-Judder doch eh kein Problem mehr sein, oder?
akuji13
2019-08-31, 00:04:22
Review vom Asus TUF Gaming VG27AQ ist da:
https://www.tftcentral.co.uk/reviews/asus_tuf_gaming_vg27aq.htm
Klingt ein wenig durchwachsen...
Also das finde ich nicht.
Total vergeigt nenne ich das.
Auf Asus ist halt wie immer Verlass.
Rampage 2
2019-08-31, 02:50:00
Total vergeigt nenne ich das.
Auf Asus ist halt wie immer Verlass.
Finde ich nicht - bis auf den erbärmlichen Farbraum (angeblich nichtmal 100% sRGB-Abdeckung, nur 78.6% DCI-P3 Abdeckung wo andere Displays gleichmal 95+ % aufbieten:down: ), hat das Review einen positiven Tenor - so zumindest mein Eindruck: schnelle Reaktionszeiten, niedriger Input-Lag und gutes VRR.
Wo liegt eigentlich das Problem, wenn das Strobing mit hoher fixer Refreshrate (120-165Hz) asynchron zur VRR-Refreshrate läuft?
R2
x-force
2019-08-31, 03:47:15
Wo liegt eigentlich das Problem, wenn das Strobing mit hoher fixer Refreshrate (120-165Hz) asynchron zur VRR-Refreshrate läuft?
R2
du schießt dir selbst ins bein und vernichtest die meisten vorteile von vrr.
je nach art der implemantation des strobing ergibt das ruckeln, ausgelassene bilder, oder ne art von tearing
davon ab verstehe ich nicht, wieso man sich im jahr 2019 noch immer mit einem kontrast zufrieden gibt, der minimal über dem einer fast 20 jahre alten röhre ist.
nimmst man ein ordentliches panel ist man ruck zuck beim 3-4 fachen kontrast.
SamLombardo
2019-08-31, 08:01:06
Na mit VRR sollte der 24p-Blu-ray-Judder doch eh kein Problem mehr sein, oder?
Die 9er LG OLED haben eine VRR Range von 40 bis 120fps. Die 24fps von Kinofilmen sind da zu wenig.
Akkarin
2019-08-31, 09:52:52
Die 9er LG OLED haben eine VRR Range von 40 bis 120fps. Die 24fps von Kinofilmen sind da zu wenig.
Kann man da keinen Kino-Mode einbauen und das ganze einfach mit 48 hz laufen lassen ? Anders als bei Spielen sind die fps ja stabil.
Was hat den VRR mit 24p zu tun? 24p laufen beim LG mit 120Hz per 5:5 Pulldown.
SamLombardo
2019-08-31, 10:15:23
Jo, stimmmt auch wieder.:redface:
Käsetoast
2019-08-31, 10:39:34
davon ab verstehe ich nicht, wieso man sich im jahr 2019 noch immer mit einem kontrast zufrieden gibt, der minimal über dem einer fast 20 jahre alten röhre ist.
nimmst man ein ordentliches panel ist man ruck zuck beim 3-4 fachen kontrast.
Mit einem VA Panel mag der Kontrast zwar höher sein, aber man hat andere Nachteile insbesondere bei der Bewegtbilddarstellung. Technologisch wirkt es ein wenig als wären wir in einer Sackgasse. Es gibt halt das Dreigestirn TN, IPS und VA aber außer das alle im Laufe der Jahre ein wenig getunet wurden, hat sich unterm Strich nur wenig getan. OLED könnte alle Vorteile unter einen Hut bringen bzw. in einigen Dingen wie Farben bzw. Kontrast sogar noch nie dagewesenes bieten, brennt aber sehr schnell ein. Dementsprechend tingeln wir immer noch bei den altbekannten Technologien herum. Mal sehen was die Mini-LEDs bringen...
robbitop
2019-08-31, 10:46:05
Zumal Filme eine statische Refreshrate haben. Das Ändern von Refreshraten war nie ein Problem.
VRR ist für dynamisch wechselnde Bildraten - Spiele.
Troyan
2019-08-31, 10:46:42
IPS mit vernünftigen FALD ist die Lösung. Aber das kostet eben deutlich mehr.
robbitop
2019-08-31, 11:34:55
Für Spiele ist FALD wegen der Halos IMO je nach Situation sehr kompromissbehaftet. Ich hoffe, dass es irgendwann selbst emitierende PC Displays gibt.
SamLombardo
2019-08-31, 12:46:54
OLED könnte alle Vorteile unter einen Hut bringen bzw. in einigen Dingen wie Farben bzw. Kontrast sogar noch nie dagewesenes bieten, brennt aber sehr schnell ein.
Wie gesagt ich zocke seit nunmehr 15 Monaten auf OLED (mittlerweile 1500 Stunden) und das volles Programm, also meist in HDR ob mit oder ohne HUD. Auch längere Internet sessions. Der Bildschirm wird gefordert und nicht wie ein rohes Ei behandelt. Einzig die Algorithmen lass ich natürlich ihren Dienst tun. Bisher auch in den kritischen Tests nicht das kleinste Einbrennen zu sehen. Sollte das irgendwann mal sein, habe ich auch kein Problem damit, das hier zu schreiben. Aber bisher wirklich alles tiptop. Bin da weiter optimistisch.
Nightspider
2019-08-31, 13:42:13
IPS mit vernünftigen FALD ist die Lösung. Aber das kostet eben deutlich mehr.
LCD bleibt LCD.
Hast auch mit FALD keine tollen Farben wie bei OLED. Denn da wo die LEDs leuchten, lassen auch die Farbfilter zu viel Licht durch, welches nicht gewollt ist.
OLED hat einfach viel sattere Farben und scharfe Kontrastgrenzen.
Gepulste OLEDs sollten auch kein Problem bei schnellen Shootern haben, Stichwort Hold Type Problematik.
Käsetoast
2019-08-31, 15:26:41
Gepulste OLEDs sollten auch kein Problem bei schnellen Shootern haben, Stichwort Hold Type Problematik.
Zumal das auch der Langlebigkeit entgegenkommen dürfte... :smile:
Ansonsten denke ich irgendwo auch, dass sich Oled inzwischen schon als PC Monitor eignen würde - wird wahrscheinlich jetzt keine 10 Jahre halten, aber machbar sollte es eigentlich sein wie SamLombardo hier ja auch darstellt. Leider lassen sich die Monitorhersteller noch nicht überreden so einen Fernseher Oled zu halbieren um zwei 27"er oder dergleichen draus zu machen und auf den Monitormarkt zu schmeißen. Leider nicht gerade der umkämpfteste Markt wenn ich mir so ansehe wie seit Jahren derselbe Kram neu aufgegossen wird mit nur minimalsten Fortschritten...
x-force
2019-08-31, 15:42:28
Zumal das auch der Langlebigkeit entgegenkommen dürfte... :smile:
wie kommst du darauf? um eine aktzeptable helligkeit zu erreichen müssen die teile mit maximaler helligkeit pulsen. es ist anzunehmen, daß digitales vollgas(an/aus) für die elektronik schädlicher ist als ein betrieb auf sparflamme.
Nightspider
2019-08-31, 16:19:51
Leider lassen sich die Monitorhersteller noch nicht überreden so einen Fernseher Oled zu halbieren um zwei 27"er oder dergleichen draus zu machen und auf den Monitormarkt zu schmeißen.
Ich hab da neulich was verlinkt.
Wenn ich das richtig verstanden habe hat LG bisher die Panels immer zusammen mit der Elektronik bzw. den Treibern der Pixel verkauft (verlötet?) und jetzt verkaufen sie auch die Panels alleine.
Eventuell können jetzt andere Hersteller die 55 Zoll Panels nochmal zerteilen.
wie kommst du darauf? um eine aktzeptable helligkeit zu erreichen müssen die teile mit maximaler helligkeit pulsen. es ist anzunehmen, daß digitales vollgas(an/aus) für die elektronik schädlicher ist als ein betrieb auf sparflamme.
Die meisten Monitore haben auch nur 300-400cd/m².
Dann pulst du halt kurz mit 600-700 cd/m². Das ist doch nicht viel.
Zumal Filme eine statische Refreshrate haben. Das Ändern von Refreshraten war nie ein Problem.
VRR ist für dynamisch wechselnde Bildraten - Spiele.
Ändert doch aber nichts daran, daß man es für eine ruckelfreie Wiedergabe "mißbrauchen" kann, eher man sich mit dem "Blu-ray judder" einfach so abfindet wie in den USA (3:2 pulldown) üblich. Zumal die statische Abpielrate der Filme es ja technisch sogar einfacher macht. An die 120 Hz hatte ich in dem Zusammenhang tatsächlich gar nicht mehr gedacht, aber die Vielfachen von 24 sind doch erst im Zuge der Aufrüstung auf VRR bei Fernsehern ins Spiel gekommen (O.K. Panasonic hatte wohl auch schon früher eine 3:3 pulldown Abspielvariante für Blu-ray drin [also 72 Hz], aber die waren auch die ganz große Ausnahme nach meinem Wissensstand.). Bringt mich zu der Frage, welche AbspielAnzeigeraten bei LG-OLEDs so im Menü zu finden sind?
ChaosTM
2019-08-31, 18:39:21
madVR hat einen netten Filter eingebaut der 24p judder sehr effektiv bekämpft, ohne Soap Effekt.
Ändert doch aber nichts daran, daß man es für eine ruckelfreie Wiedergabe "mißbrauchen" kann, eher man sich mit dem "Blu-ray judder" einfach so abfindet wie in den USA (3:2 pulldown) üblich.
Nicht wirklich.
Wenn der Pulldown bereits im Quellmaterial vorhanden ist bringt es gar nichts.
Und wenn nicht kann man gleich die korrekte statische Bildwiederholfrequenz einstellen, da braucht es kein VRR.
Danke für den Tip, ChaosTM :up:!
Kannte ich bisher noch nicht, aber ich benutze MadVR ja auch erst seit über einem Jahrzehnt. "RTFM", hm "RTFM", ich komm' jetzt nicht drauf, was hieß das nochmal...? Egal.
Um dann wieder vorzugaukeln, als wüßte ich, was ich tue, murmel ich mal was von Custom Resolution Utility/Radeon Einstellungen, "72 Hz Monitorfrequenz" (ganz wichtig!) + Reclock (spätestens ab da bin ich dann wieder der "Experte"), und raune noch, "man sei dann ja maximal flexibel aufgestellt". Tja.
x-force
2019-09-01, 01:09:55
madvr überblendet einfach die frames, das ist in erster linie für pulldown gedacht. deshalb steht da auch motion judder und nicht cam shutter!
shutter ist genau so beabsichtigt von regisseur.
Ändert doch aber nichts daran, daß man es für eine ruckelfreie Wiedergabe "mißbrauchen" kann, eher man sich mit dem "Blu-ray judder" einfach so abfindet wie in den USA (3:2 pulldown) üblich. Zumal die statische Abpielrate der Filme es ja technisch sogar einfacher macht. An die 120 Hz hatte ich in dem Zusammenhang tatsächlich gar nicht mehr gedacht, aber die Vielfachen von 24 sind doch erst im Zuge der Aufrüstung auf VRR bei Fernsehern ins Spiel gekommen (O.K. Panasonic hatte wohl auch schon früher eine 3:3 pulldown Abspielvariante für Blu-ray drin [also 72 Hz], aber die waren auch die ganz große Ausnahme nach meinem Wissensstand.). Bringt mich zu der Frage, welche AbspielAnzeigeraten bei LG-OLEDs so im Menü zu finden sind?
Nein, den 5:5 Pulldown gibt es schon seit Ewigkeiten. Der 3:2 Pulldown ist schon seit langem Geschichte bei den TVs.
robbitop
2019-09-01, 10:55:02
Ändert doch aber nichts daran, daß man es für eine ruckelfreie Wiedergabe "mißbrauchen" kann, eher man sich mit dem "Blu-ray judder" einfach so abfindet wie in den USA (3:2 pulldown) üblich. Zumal die statische Abpielrate der Filme es ja technisch sogar einfacher macht. An die 120 Hz hatte ich in dem Zusammenhang tatsächlich gar nicht mehr gedacht, aber die Vielfachen von 24 sind doch erst im Zuge der Aufrüstung auf VRR bei Fernsehern ins Spiel gekommen (O.K. Panasonic hatte wohl auch schon früher eine 3:3 pulldown Abspielvariante für Blu-ray drin [also 72 Hz], aber die waren auch die ganz große Ausnahme nach meinem Wissensstand.). Bringt mich zu der Frage, welche AbspielAnzeigeraten bei LG-OLEDs so im Menü zu finden sind?
Ich glaube, du missverstehst mich. Judder entsteht wenn die Refreshrate des Panels nicht der des Contents entspricht. Ist der Content 23.9x Hz, sollte das Panel, damit es kein Judder gibt, die gleiche Refreshrate (oder ein ganzzahliges Vielfaches davon) haben. Nochmal: dafür braucht es kein VRR. Die Refreshrate eines Panels kann man schon immer ändern. Plex/Emby und Co machen das sogar automatisch. Vernünftige BD Player machen das IIRC auch. Ist der Content 24p, ändert die Software die Refreshrate des Panels auf 24p (bzw ein ganzzahliges Vielfaches). Gleiches mit 25/30/48/50/60Hz Content.
Das geht sogar schon bei meinem uralten Plasma. Das ist kalter Kaffee.
VRR braucht es nur, wenn die Refreshrate dynamisch geändert werden muss.
Reclock usw braucht man in der HDMI Ära eigentlich auch nicht mehr, weil Ton und Bild synchron zum AVR übertragen werden. (vorausgesetzt dass man hdmi für beides nutzt)
(vorausgesetzt dass man hdmi für beides nutzt)
Ich habe ein 10m 4K Kabel zum Fernseher.
(abgesehen davon das erst das teuerste funktionierte)
Wenn ich zum Bild auch noch den Ton übertrage kommen selten Aussetzer :(
Ich freue mich schon tierisch auf HDMI 2.1 :smile:
Alles Andere davor interessiert mich nicht mehr :freak:
(Fernseher als Monitor "vor ever" ^^)
M.f.G. JVC
robbitop
2019-09-01, 12:21:00
Nimm ein optisches (lwl) Kabel. Problem in jedem Fall gelöst. Damit gehen bei voller Bandbreite auch zB 30 m. Ist zwar teuer aber funktioniert. ;)
x-force
2019-09-01, 12:49:07
wirklich sinnvoll ist reclock auch nur für bzw gegen pal speedup gewesen
Nein, das wurde vorrangig genutzt, da die Soundkarte und die Graka einen eigenen Taktgeber hatten und somit nie 100%ig synchron liefen. So kam es alle paar Minuten zu einem Aussetzer.
Lurtz
2019-09-02, 11:45:50
I'm gonna stop you right there... Bullshit. Es ist fantastisch. Jeder Mensch mit einem halbwegs normalen Visus kann das sehen.
Die Diskussion wirds im PC-Bereich wohl noch ewig geben.
Ich habe mich an meinem 13"er-Notebook für FullHD entschieden und bereue es gerade ein wenig. Angesichts der IGP und Akkulaufzeit wahrscheinlich der bessere Kompromiss, aber die DPI fehlen mir schon massiv. Gerade Textrendering ist einfach eklig wenn man 27"@4k gewohnt ist. Da sieht alles wie gedruckt aus. An meinem 27"er auf Arbeit mit 1440p fehlen mir die DPI auch.
aufkrawall
2019-09-02, 11:54:23
Ich kenne 4k von 32", und auch bei der Pixeldichte bringt es noch enorm viel mit gescheitem TAA. Da ist quasi das Revival des SGSSAA-Wow-Effekts. Wer etwas anderes behauptet, hat es schlicht noch nicht selbst gesehen, und sollte vielleicht nicht andere über etwas belehren, von dem er offenbar selbst keine Ahnung hat...
BlacKi
2019-09-02, 12:03:49
Die Diskussion wirds im PC-Bereich wohl noch ewig geben.
Ich habe mich an meinem 13"er-Notebook für FullHD entschieden und bereue es gerade ein wenig. Angesichts der IGP und Akkulaufzeit wahrscheinlich der bessere Kompromiss, aber die DPI fehlen mir schon massiv. Gerade Textrendering ist einfach eklig wenn man 27"@4k gewohnt ist. Da sieht alles wie gedruckt aus. An meinem 27"er auf Arbeit mit 1440p fehlen mir die DPI auch.
dann geh weiter weg bis die dpi passt:biggrin: dpi ohne angabe der distanz ist unvollständig.
aufkrawall
2019-09-02, 12:10:10
Von kleineren Diagonalen kann man nicht so schrecklich weit entfernt sein, gebietet die Logik und so..
BlacKi
2019-09-02, 12:51:01
stimmt, in den kleineren bereichen. war auch nicht ganz ernst gemeint. in den größeren bereichen 27" usw. zählt das IMO nicht mehr. aber eigentlich zählt für mich nur die auflösung. denn schlechte DPI/PPI kann man dann mit dem sitzabstand komplett ausgleichen. die dpi eines 4k monitors spielt keine rolle wenn man den abstand anpassen kann.
Ich habe mich an meinem 13"er-Notebook für FullHD entschieden und bereue es gerade ein wenig. Angesichts der IGP und Akkulaufzeit wahrscheinlich der bessere Kompromiss, aber die DPI fehlen mir schon massiv. Gerade Textrendering ist einfach eklig wenn man 27"@4k gewohnt ist. Da sieht alles wie gedruckt aus.
Angesichts der Tatsache dass FHD@13" mehr DPI sind als UHD@27" hast du dich hier vielleicht etwas ungluecklich ausgedrueckt. Zumindest gehe ich einfach mal davon aus, dass dir das klar ist, und der Abstand entsprechend variiert.
Bei mir ist es zumindest so, dass FHD@13" und WQHD@27" im Zusammenhang mit dem typischen Abstand ziemlich aehnlich aussehen. Der subjektive Eindruck laesst sich auch leicht verifizieren, indem man den Laptop mal im Typischen Abstand auf den Schreibtisch vor den Monitor stellt. Bei mir deckt der Laptop dann durch die Perspektive dann etwa 3/4 der Bildschirmbreite ab, was ja auch die Relation 1920/2560 waere. Das hatte ich vor dem Kauf gar nicht bedacht, aber ist ein ganz angenehmer Zufall.
Insgesamt duerfte es aber trotzdem gerne mehr sein, das stimmt.
aufkrawall
2019-09-02, 12:56:05
stimmt, in den kleineren bereichen. war auch nicht ganz ernst gemeint. in den größeren bereichen 27" usw. zählt das IMO nicht mehr. aber eigentlich zählt für mich nur die auflösung. denn schlechte DPI/PPI kann man dann mit dem sitzabstand komplett ausgleichen. die dpi eines 4k monitors spielt keine rolle wenn man den abstand anpassen kann.
27" ist nicht groß und fehlende ppi kann man nicht durch Abstand "ausgleichen". Mit dem gleichen Maß, mit dem man Artefakte nicht mehr sieht, sieht man auch keine feinen Details mehr.
Mr.Scott
2019-09-02, 13:36:12
32"
4K
>60Hz
HDR
VA oder IPS Panel
>1000:1
KVM Switch
<600€
Würde ich mir wünschen für 2020 :wink:
Richtig cool wäre natürlich ein UltraWide - 5040x2160 - 21:9
In der Vertikalen brauchts halt Auflösung!
Lowkey
2019-09-02, 14:09:32
Für 999 Euro gibt es den Samsung C490RG94 (https://www.mydealz.de/deals/samsung-c49rg94ssu-49-zoll-5k-120-hz-hdr-1000-freesync-2-va-panel-4ms-gtg-1428449) (5120x1440 mit 120hz)
Mr.Scott
2019-09-02, 14:33:04
Für 999 Euro gibt es den Samsung C490RG94 (https://www.mydealz.de/deals/samsung-c49rg94ssu-49-zoll-5k-120-hz-hdr-1000-freesync-2-va-panel-4ms-gtg-1428449) (5120x1440 mit 120hz)
kenne ich schon...
Hab mir schon alle Modelle am Markt angeschaut.
Es sind gute Teile dabei, aber nichts was mich vom Hocker reíßt, vor allem wenn man den Preis sieht.
Ich warte und hoffe auf die CES 2020 und darauf das evtl. die ersten Modelle so im Q2 dann rauskommen werden.
Anzeichen dafür gibt es ja schon, wenn man sich den neuen 32" Philips Momentum anschaut der 2020 rauskommen soll.
https://www.computerbase.de/2019-08/philips-momentum-558m1ry-328m1r-278m1r/
"Der 328M1R liefert 4K UHD, 120 Hz und DisplayHDR 600 auf 31,5 Zoll."
Ich denke das wird was ;-)
Ich warte und hoffe auf die CES 2020 und darauf das evtl. die ersten Modelle so im Q2 dann rauskommen werden.
Fernseher sind mittlerweile kaum noch hinter den PC Monitoren ...
Wer groß liebt greift besser zu Fernsehern ...
Falls HDMI 2.1 zuerst nur auf Fernsehern kommt ...
Haben Monitore bei mir endgültig verloren ...
M.f.G. JVC
Mr.Scott
2019-09-02, 19:08:23
Fernseher sind mittlerweile kaum noch hinter den PC Monitoren ...
Wer groß liebt greift besser zu Fernsehern ...
Falls HDMI 2.1 zuerst nur auf Fernsehern kommt ...
Haben Monitore bei mir endgültig verloren ...
M.f.G. JVC
2.1 gibts wohl aber noch nicht... Heißt also auch warten, egal ob Monitor oder TV.
Vor allem wenn man >60hz bei 4k haben möchte ;-)
robbitop
2019-09-02, 19:30:42
Die C9 Serie von LG (OLED) hat bereits hdmi 2.1.
Es fehlen aber noch Grafikkarten, die das können.
Lowkey
2019-09-02, 20:44:32
Versuch mal einen UHD Fernseher mittels PC und Nvidia Grafikkarte zu 1920x1080 @ mehr als 60hz zu bewegen. Theoretisch müßte es gehen, aber praktisch eben nicht.
exzentrik
2019-09-02, 20:56:47
Bei Fernsehern ist HDMI 2.1 durchaus schon verbreiteter. Zum Beispiel auch bei der Q950R-Serie von Samsung. Und die Q900-Modelle werden gratis mit 2.1 nachgerüstet (https://www.prad.de/gratis-upgrade-auf-hdmi-2-1-fuer-samsung-q900-fernseher/), wenn man will.
BlacKi
2019-09-02, 22:31:13
27" ist nicht groß und fehlende ppi kann man nicht durch Abstand "ausgleichen". Mit dem gleichen Maß, mit dem man Artefakte nicht mehr sieht, sieht man auch keine feinen Details mehr.
doch klar geht das. auflösung kann man nicht ausgleichen, niedrige ppi schon.
wenn du nen vor nem 4k 27"(163dpi) mit 50cm sitzt, ist der pixelabstand fürs auge wie wenn du vor nem 4k 55"(80dpi) mit 150cm abstand sitzt.
Versuch mal einen UHD Fernseher mittels PC und Nvidia Grafikkarte zu 1920x1080 @ mehr als 60hz zu bewegen. Theoretisch müßte es gehen, aber praktisch eben nicht.
klar geht das. sogar mit nem 10m kabel über hdmi 2.0 auf meinem lg lcd mit 120hz(spielt sich nicht schlecht, abgesehen das fhd einfach bei mir nicht mehr geht). die lg c9 serie kann sogar 2560x1440p@120 hz darstellen über hdmi2.0. das problem ist wohl, das nur custom auflösungen egal welcher art über 60hz nicht gehen. wenn der fernseher die auflösung nicht vorschlägt, dann geht sie auch nicht über 60 hz, nichtmal 75hz@fhd, so meine erfahrung.
Die C9 Serie von LG (OLED) hat bereits hdmi 2.1.
Es fehlen aber noch Grafikkarten, die das können.
hätte amd ne passende karte, würd ich glatt wechseln.
Lowkey
2019-09-03, 18:28:54
Mein Philips kann das wohl nicht.
Asus XG438Q (4k+120hz+VA)
https://www.youtube.com/watch?v=UrFBr_rZbcg
Fail für 1200 Euro. Denn die Responsetime ist laut Video viel zu hoch.
Robspassion
2019-09-03, 21:27:36
Mein Philips kann das wohl nicht.
Asus XG438Q (4k+120hz+VA)
https://www.youtube.com/watch?v=UrFBr_rZbcg
Fail für 1200 Euro. Denn die Responsetime ist laut Video viel zu hoch.
Fuck was haben die da gemacht. Das ist echt übel selbst für VA.
BlacKi
2019-09-03, 23:03:21
Mein Philips kann das wohl nicht.
selbst 1440p@120hz wäre schon ne option
https://youtu.be/cP-KqgN_Cnk?t=5
bnoob
2019-09-04, 10:12:16
Mein Philips kann das wohl nicht.
Asus XG438Q (4k+120hz+VA)
https://www.youtube.com/watch?v=UrFBr_rZbcg
Fail für 1200 Euro. Denn die Responsetime ist laut Video viel zu hoch.
tl;dr: Scheint wirklich nicht viele Vorteile gegenüber meinem HiSense zu haben, erstmal no cop
Vielleicht mal wenn ich irgendwo einen Gebrauchten zum Schnapplerpreis finde :/
Schade, hatte mich echt gefreut
Lowkey
2019-09-04, 13:47:27
Selbst die 2300 Euro für den PG35VQ sind zu viel Geld für ein gutes Gerät.
selbst 1440p@120hz wäre schon ne option
https://youtu.be/cP-KqgN_Cnk?t=5
Ja mit den neuen OLEDs kein Problem...
Käsetoast
2019-09-04, 15:26:13
Ich find's schade, dass von Eizo irgendwo so gut wie gar nichts Neues mehr für die Foris Reihe kommt. Gerade läuft die IFA, aber gelesen habe ich zu dem Thema noch nichts Neues. Sehr schade gerade weil man bei Eizo immer mit guter Qualitätskontrolle rechnen konnte und Panel Lotterie sich stark im Rahmen hielt...
Lowkey
2019-09-05, 16:29:01
Noch was zum XG438Q (wer von euch ist das?)
https://www.heise.de/preisvergleich/?sr=2112234,-1
Lowkey
2019-09-06, 09:04:10
Und was zum PG35VQ ((HDR10, 200Hz, Gsync Ultimate, 3440x1440, VA)
Kostet derzeit 2300 Euro, aber laut Testbericht ist das immer noch zu viel Geld. Dafür ist es derzeit mit das beste Gamer Gerät.
Man bekommt doch nach Jahren immer noch nicht genau das, was die Gamer eigentlich wollen ;)
BlacKi
2019-09-06, 09:10:30
hab mir gestern denhier geordert https://geizhals.de/msi-optix-mpg341cqr-9s6-3da05t-009-a2067475.html?hloc=de mit ebay gutschein war er dann 50€günstiger.
so, bin durch mit testen. die euphorie ist verflogen. das vrr flackern ist doch vorhanden, tritt nur bei niedrigen fps oder frametimes auf wenn der monitor ein helles bild hat :( noch schlimmer ist aber das wenn man in dunklen räumen sich bewegt alles schwarz bleibt und erst aufhellt/details sichtbar werden, wenn man die maus stillhält. das war das hauptkriterium, warum er wirklich zurückgeht. hinzukommt noch das leichte schmieren selbst in hellen umgebungen von dunklen gegenständen. das hab ich richtig gemerkt als ich auf mein TN panel zurück bin. spielerisch ist das TN panel hochhaus überlegen.
ich trauere der breite zurück auf 16:9 schon hinterher, es war erstaunlich wie schnell ich mich an die breite und die krümmung gewöhnt habe. mein flacher monitor kam mir im ersten moment sogar gekrümmt vor wie ein crt monitor XD
eine frage zu OLED: welche dinge werden ich gegenüber einem TN panel am meisten vermissen? gibts da auch das schmieren oder ähnliches?
Lowkey
2019-09-06, 09:42:11
Gute Wahl.
Wäre mir noch für 900 Euro zu viel Geld für ein 3440x1440.
Robspassion
2019-09-06, 16:25:09
Und was zum PG35VQ ((HDR10, 200Hz, Gsync Ultimate, 3440x1440, VA)
Kostet derzeit 2300 Euro, aber laut Testbericht ist das immer noch zu viel Geld. Dafür ist es derzeit mit das beste Gamer Gerät.
Man bekommt doch nach Jahren immer noch nicht genau das, was die Gamer eigentlich wollen ;)
Den findet man eher ab 2.800€ (https://geizhals.de/asus-rog-swift-pg35vq-90lm03t0-b02370-a1631436.html#offerlist) und ja das ist zu viel aber das Teil ist einfach nur geil. Mich stört eigentlich nur das Black Smearing ansonsten ist es der Hammer. Komme vom Acer Predator z35p und der Unterschied in der Bildqualität ist enorm.
Lowkey
2019-09-06, 16:38:56
Naa man bekommt ihn schon für 2300 Euro, aber ich mag es gerne günstiger ;)
Ich suche noch ein besseres Angebot.
versus01091976
2019-09-07, 13:29:51
Nun den LG c8 hier.
Welchen Modus und welche Bildeinstellungen empfiehlt ihr?
M4xw0lf
2019-09-07, 13:48:32
Nun den LG c8 hier.
Welchen Modus und welche Bildeinstellungen empfiehlt ihr?
Ich empfehle diesen Thread zu verwenden: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=584732&page=11
BlacKi
2019-09-07, 14:53:24
Gute Wahl.
Wäre mir noch für 900 Euro zu viel Geld für ein 3440x1440.
ist heute angekommen. ich muss mich erstmal durch die optionen kämpfen, aber soweit kann er gut mit meinem alten mithalten, plus eben mehr breite. dafür ist er in der bildhöhe ein paar mm kleiner als mein 27 zoll XD
er macht auch 200hz mit, aber das bringt einiges probleme mit sich. es fühlt sich ruckeliger und schwammiger an als 144hz.
in dunklen zimmern in pubg schmiert das bild recht stark. aber das kann man mit höherer beleuchtung ausgleichen.
VRR geht ohne probleme ohne flimmern oder sonstige probleme.
ich muss noch etwas dran rumspielen um dann zu entscheiden ob er wirklich bleibt. aber soweit sogut, die breite und krümmung sind wirklich nice.
Screemer
2019-09-07, 15:14:37
er macht auch 200hz mit, aber das bringt einiges probleme mit sich. es fühlt sich ruckeliger und schwammiger an als 144hz.
das deutet auf frame skipping hin. ist aus den korea-monitor-oc zeiten bekannt und lässt sich eigentlich hiermit und ner handykamera gut testen:
https://www.testufo.com/frameskipping
höchste iso-werte am handy oder einfach mit ner digicam und manueller belichtungszeit. sollten auf den bildern komplett schwarze felder sein, dann hast du ausgelassen frames.
https://www.avsforum.com/lg-announces-nvidia-g-sync-support-for-e9-and-c9-series-oleds/
G-Sync will work with HDR10 or Dolby Vision at frame rates up to 120 Hz in full HD, as well as deliver a hyper-low latency of only 6 ms with 1440p content at 120 Hz.
Nett.
robbitop
2019-09-10, 08:42:00
NV hat VRR über HDMI 2.1 noch gar nicht angekündigt, oder? Zunächst muss NV das ja auch freischalten, damit das funktioniert.
Aber schön zu hören, dass das offenbar geschehen wird. IMO war das aber auch nur eine Frage der Zeit.
Oder aber es gilt für HDMI 2.0. Dann würde die Restriktion der Auflösung (120Hz bei WQHD) Sinn machen.
just4FunTA
2019-09-10, 08:59:19
NV hat VRR über HDMI 2.1 noch gar nicht angekündigt, oder? Zunächst muss NV das ja auch freischalten, damit das funktioniert.
Aber schön zu hören, dass das offenbar geschehen wird. IMO war das aber auch nur eine Frage der Zeit.
die aktuellen Grakas haben kein HDMI 2.1..
Wundert mich das man nur die RTX20 Gen nennt im Artikel, die anderen haben Pech gehabt oder wie?
https://www.nvidia.com/en-us/geforce/news/lg-gsync-compatible-hdmi-big-screen-gaming/
LG E9 and C9 models, ranging in size from 55 to 75-inches, will receive G-SYNC Compatible firmware updates later this year. Simultaneously, we’ll release a new GeForce Game Ready Driver, enabling GeForce RTX and GeForce GTX 16-Series gamers to connect their PCs via HDMI to validated G-SYNC Compatible LG TVs.
(…)
If you don’t own a LG TV, but do own a display or TV that only supports Variable Refresh Rates via HDMI, you can try enabling HDMI VRR when the aforementioned driver is released. As these displays and TVs haven’t yet been through our comprehensive validation process, we can’t guarantee VRR will work, or work without issue.
Es gibt also bald Gsync compatible via HDMI, leider wohl nur für die RTX und GTX16. Meh, als GTX1080Ti Nutzer...
Kartenlehrling
2019-09-10, 09:15:30
https://displayhdr.org/performance-criteria-cts1-1/
Leistungsstufen, Zusammenfassung der DisplayHDR-Spezifikationen unter CTS 1.1
Die VESA hat in Bezug auf DisplayHDR Neues zu verkünden. So hat man die Spezifikationen generell überarbeitet, was sich in der neuen Versionsnummer 1.1 widerspiegelt.
Außerdem führt man eine neue Spitzenstufe ein: DisplayHDR 1400. Es gibt sogar bereits einen ersten Monitor, welcher die Vorgaben von DisplayHDR 1400 erreicht.
So zeigte Asus auf der IFA 2019 in Berlin sein ProArt Display PA32UCG, welches sogar Spitzenhelligkeiten von 1.600 Nits erreicht – DisplayHDR 1400 erfordert „nur“ mindestens 1.400 Nits.
Zudem kann der Monitor über den gesamten Bildschirm 1.000 Nits für mindestens 30 Minuten halten – da liegt die neue Anforderung für DisplayHDR 1400 bei mindestens 900 Nits.
Monitore mit DisplayHDR 1400 müssen zudem einen 3,5-mal größeren, dynamischen Kontrast aufweisen, als Modelle mit DisplayHDR 1000.
Zudem spricht die VESA davon, dass bei DisplayHDR 1400 sogar 95 % des DCI-P3-D65-Farbraumes abgedeckt sein müssen – auf den anderen Stufen sind es nur 90 %.
Auch die Schwarzwerte müssen deutlich tiefer kommen, als bei etwa DisplayHDR 1000. Laut VESA sei DisplayHDR 1400 als höchste Stufe vor allem an professionelle Anwender gerichtet.
Falls ihr mehr Details mustern möchtet, gibt es hier auch eine genauere Übersicht – nicht nur zu DisplayHDR 1400, sondern zu Version 1.1 und den Anforderungen insgesamt.
https://stadt-bremerhaven.de/displayhdr-neue-spezifikationen-1-1-mit-displayhdr-1400-sind-da/
Lowkey
2019-09-10, 09:16:40
Ich kenne noch die Diskussion von 2013, wo kein Hersteller ein 2560x1440 Monitor mit mehr als 60hz im Sortiment hatte und die ersten Geräte teuer waren.
Und irgendwie geht die Problematik seit Jahren so weiter, weil kein Hersteller den idealen Gaming Monitor auf den Markt bringen will oder kann.
Also haben wir 2020 alle OLED mit HDMI 2.1 und Gsync auf dem Tisch - in 55"?
robbitop
2019-09-10, 09:21:25
Oder aber es gilt für HDMI 2.0. Dann würde die Restriktion der Auflösung (120Hz bei WQHD) Sinn machen.
die aktuellen Grakas haben kein HDMI 2.1..
Wundert mich das man nur die RTX20 Gen nennt im Artikel, die anderen haben Pech gehabt oder wie?
Ja das ist schon klar. Mir ging es um VRR via hdmi.
HDMI 2.1 mit entsprechender Bandbreite kommt frühestens bei NVs Nextgen.
just4FunTA
2019-09-10, 09:22:06
https://www.nvidia.com/en-us/geforce/news/lg-gsync-compatible-hdmi-big-screen-gaming/
Es gibt also bald Gsync compatible via HDMI, leider wohl nur für die RTX und GTX16. Meh, als GTX1080Ti Nutzer...
was soll denn der rotz?
https://www.nvidia.com/en-us/geforce/news/lg-gsync-compatible-hdmi-big-screen-gaming/
Es gibt also bald Gsync compatible via HDMI, leider wohl nur für die RTX und GTX16. Meh, als GTX1080Ti Nutzer...
"will receive G-SYNC Compatible firmware updates"
Per update G-Sync ? Das ist wohl eher Free-Sync ^^
M.f.G. JVC
NVs Freesync wird ja "Gsync Compatible" genannt.
Und ja, dass Pascal außer vor bleibt bei GSync über HDMI, ist Mist und nicht nachvollziehbar.
robbitop
2019-09-10, 09:43:24
Ich kenne noch die Diskussion von 2013, wo kein Hersteller ein 2560x1440 Monitor mit mehr als 60hz im Sortiment hatte und die ersten Geräte teuer waren.
Und irgendwie geht die Problematik seit Jahren so weiter, weil kein Hersteller den idealen Gaming Monitor auf den Markt bringen will oder kann.
Also haben wir 2020 alle OLED mit HDMI 2.1 und Gsync auf dem Tisch - in 55"?
Ich hoffe, dass auch kleinere Panels kommen werden. :D
Uzundiz
2019-09-10, 10:02:36
Ich hoffe, dass auch kleinere Panels kommen werden. :D
gibt es irgendwelche neue gerüchte oder so darüber?
q4'19 sollten sie rauskommen oder? eigentlich müssten demnächst paar infos rauskommen...
gruß
Ich meine erst Anfang 2020. Das sind dann die 44" 4K, die sich aus der Fertigung ergeben, welche auch die 88" 8K Modelle herstellt.
Uzundiz
2019-09-10, 15:40:49
Hi,
ich dachte es kommen 48" aber 44" wäre noch besser. ich würde mich sehr darüber freuen.
NVs Freesync wird ja "Gsync Compatible" genannt.
"AMDs gratis Freesync" wird bei NV als "Gsync Compatible" verkauft.
(Fixt it vor you :wink:)
Und ja, dass Pascal außen vor bleibt bei GSync über HDMI, ist Mist und nicht nachvollziehbar.
Reine Berechnung von NV ... die wollen ja neue Karten verkaufen!
("fine-Wine" für lau ist nicht so NVs Ding, also gut nachvollziehbar)
M.f.G. JVC
BlacKi
2019-09-10, 18:08:30
amd verkauft async als freesync und nv async als gsync compatible. also wenn schon denn schon.
Unicous
2019-09-10, 19:01:31
AMD verkauft gar nichts. (Nvidia mit ihren Modulen hingegen schon.) Die Zertifizierung ist kostenlos.
Jedoch verkaufen einige Hersteller Adaptive Sync Monitore mittlerweile nur noch als G-Sync-Compatible und es wird kein Sterbenswörtchen mehr über FreeSync verloren, dafür wird aber immerhin Adaptive Sync erwähnt.
https://www.techpowerup.com/258955/acer-announces-nitro-xv3-line-of-pc-gaming-monitors
edit:
https://www.techpowerup.com/258956/lg-announces-ultragear-ips-1-ms-lineup-with-nvidia-g-sync
Ist natürlich reiner Zufall, dass FreeSync nicht mehr erwähnt wird.
Für die AMD-Benutzer ist aber noch wichtig, daß im Moment der Stand ist, daß die 2019 LGs - dem Vernehmen nach - zwar HDMI 2.1 unterstützen, aber offenbar kein FreeSync (https://www.youtube.com/watch?v=KkXE_n4Pn2Q#t=14m46s).
Es ist mir leider noch nicht gelungen, Berichte von Benutzern dahingehend im Netz aufzuspüren, um das zu überprüfen (Was ich fand, waren Aussagen, daß VRR auch jetzt schon funktioniere - aber leider bisher immer nur im Zusammenspiel mit einer XBox One X), insofern besteht noch Potenzial für ein Mißverständnis. Mit einer Vega und z.B. Full HD bekäme man demnach also trotzdem kein VRR - wenn's denn stimmt und kein Ergebnis von "stiller Post" ist (Kann ja auch sein, daß dafür das lange schon von AMD angekündigte Treiber-Update nötig ist.). Muß sich halt irgendwie fügen, daß jemand so einen LG mal an seinen PC mit AMD-Karte stöpselt.
Oder kann hier schon jemand vielleicht harte Fakten liefern?
Unicous
2019-09-10, 20:16:25
Wie oft denn noch. FreeSync über HDMI ist nichts anderes als VRR. Nvidia hat nichts anders gemacht als das jetzt für die LG TVs zu validieren.
Ob die TVs HDMI 2.1 komplett unterstützen wird gar nicht erwähnt, lediglich, dass sie VRR unterstützen, eines von vielen neuen "Features" von HDMI 2.1..
Nvidia selbst erwähnt HDMI 2.1 mit keiner Silbe, was sie hingegen erwähnen ist Folgendes:
If you don’t own a LG TV, but do own a display or TV that only supports Variable Refresh Rates via HDMI, you can try enabling HDMI VRR when the aforementioned driver is released. As these displays and TVs haven’t yet been through our comprehensive validation process, we can’t guarantee VRR will work, or work without issue.
Es geht um die Praxis, nichts anderes. Ob ein 2019er LG schon jetzt übergangsweise bei niedriger Auflösung vielleicht VRR anbietet oder nicht im Zusammenspiel mit einer AMD-Grafikkarte in einem PC. Weißt Du es? Laut den Aussagen wird er es wohl nicht, aber vielleicht doch? Hast Du da harte Fakten?
Unicous
2019-09-10, 20:49:21
Ich habe den "harten" Fakt, dass VRR bei einem LG OLED über die Xbox One funktioniert.
https://www.rtings.com/tv/reviews/lg/c9-oled#comparison_2477
Update 05/03/2019: There is currently an issue when using the C9 in 'Game' mode with an Xbox One, we've updated the text below.
The LG C9 has a native 120Hz refresh rate, and it supports VRR, which is great. Unfortunately, it only supports HDMI Forum's new HDMI-VRR format, which is not compatible with FreeSync or G-SYNC. The only device currently on the market which supports HDMI-VRR is the Xbox One. We tested it for compatibility with the Xbox One, and it does appear to work, but only in SDR. If HDR is enabled on the Xbox and you are in Game mode, the screen flickers constantly. LG has confirmed that they are working on a fix. Unfortunately, it isn't possible to determine the VRR range with an Xbox One.
It is unlikely that HDMI-VRR will remain an Xbox exclusive format. If updated drivers or new graphics cards are released that support it, we will retest the C9 to determine the VRR range.
Reicht das aus?:uponder:
Ich meine in der Xbox One (S/X) ist eine AMD-GPU und die Xbox kann man als einen PC betrachten.
Es stellt sich hier die Frage ob LG ihre TVs nicht hat bei AMD validieren lassen, bei Nvidia hingegen schon. Warum auf einmal das "G-Sync Compatible" Label wichtiger ist, nach all den Jahren in denen man mit FreeSync geworben hat und man Adaptive Sync nur noch beiläufig erwähnt sollte doch irgendwie zu denken geben, oder nicht?
Denn wir sprechen hier weiterhin von "G-Sync-Compatible", nicht von "G-Sync" oder gar "G-Sync Ultimate". G-Sync Compatible ist nichts anderes als Adaptive Sync/VRR das von Nvidia validiert wurde.
Naja also mir ist das zu wenig, weil die XBox One X das erst seit einem Firmware-Upate beherrscht und ich leider sonst nichts gehört habe bezüglich AMD-Karten und 2019er LGs.
Aber um auf Deinen anderes logo-politisches (ist das ein Wort? Scrabble?) Argument ein wenig einzugehen: Fast könnte es scheinen, daß LG "FreeSync" hier einfach mal als Synonym für "legacy VRR" (alles vor HDMI 2.1; und da Nvidia bei HDMI ja eh außen vor war) - dann etwas schlampig (ist halt die Treiberumsetzung AMDs von VRR und hat erstmal nichts mit der HDMI-Norm zu tun) - verwendet hätte.
Aber wir wissen ja noch nicht, was wirklich Sache ist.
Sardaukar.nsn
2019-09-11, 07:08:10
...
Also haben wir 2020 alle OLED mit HDMI 2.1 und Gsync auf dem Tisch - in 55"?
Ja, allerdings irgendwo zwischen 48-43" https://www.flatpanelshd.com/news.php?subaction=showfull&id=1559553128
bnoob
2019-09-11, 10:30:01
Geil, das wird dann wohl der Austausch für meinen 43" VA
Lowkey
2019-09-11, 11:59:20
Also nochmal 1 1/2 Jahre warten ^^
Opprobrium
2019-09-16, 12:31:17
Und in 1 1/2 Jahren warte man dann auf günstige mikroLEDs :)
https://www.anandtech.com/show/14868/tcl-shows-off-132inch-micro-led-4k-uhdtv-24000000-micro-leds
Also nochmal 1 1/2 Jahre warten ^^
Ich hoffe doch, das echte HDMI 2.1 Grakas früher kommen ...
(vorher sehe ich mir wenig sinn darin auf zu rüsten)
M.f.G. JVC
Lowkey
2019-09-16, 14:43:10
Mitte 2020 kommt die 3080TI und dann rüsten wir auf.
Mitte 2020 kommt die 3080TI und dann rüsten wir auf.
Dein Wort in Gottes Ohr :smile:
(Geld für den neuen "Monitor", liegt schon bereit ^^)
Ist wohl für die Meisten ganz neu, dass ein Fernseher jetzt besser werden könnten als Monitore ;D
(mein erster 2T-"Monitor" war ein LCD 42" Fernseher mit 1366xirgendwas und FHD war ganz nice auf dem ;))
M.f.G. JVC
Jupiter
2019-09-16, 23:17:43
Sie bestätigen das, was ich schon seit Jahrzehnten sage.
https://www.youtube.com/watch?v=V8BVTHxc4LM
Ein CRT von Anfang der 2000er ist bildqualitativ besser als alle LCD Monitore für Konsumenten. Deshalb vollzog ich nie den Sprung auf LCD-Monitore. Zu unscharf war das Bewegbild, zu niedrig der Kontrast etc. ALs die ersten LCD Monitore zu normalen Preisen kamen, war das Bild sogar noch um ein vielfaches schlechter.
Tschibbl
2019-09-16, 23:31:40
Sie bestätigen das, was ich schon seit Jahrzehnten sage.
https://www.youtube.com/watch?v=V8BVTHxc4LM
Ein CRT von Anfang der 2000er ist bildqualitativ besser als alle LCD Monitore für Konsumenten. Deshalb vollzog ich nie den Sprung auf LCD-Monitore. Zu unscharf war das Bewegbild, zu niedrig der Kontrast etc. ALs die ersten LCD Monitore zu normalen Preisen kamen, war das Bild sogar noch um ein vielfaches schlechter.
Hast du also auf nen Plasma bzw. OLED gewechselt oder immer noch beim CRT geblieben ?
BlacKi
2019-09-17, 00:22:05
habsch bis 2008 auch gemacht mit CRT. dann kam ein schrott 60hz lcd für ein jahr(furchtbares teil!), und hab mich tierisch über den Samsung 2233RZ mit 120hz gefreut!
bildquali war mir aber immer egal, mir ging es um die responsetime und fps.
Tesseract
2019-09-17, 00:41:06
Ein CRT von Anfang der 2000er ist bildqualitativ besser als alle LCD Monitore für Konsumenten. Deshalb vollzog ich nie den Sprung auf LCD-Monitore. Zu unscharf war das Bewegbild, zu niedrig der Kontrast etc. ALs die ersten LCD Monitore zu normalen Preisen kamen, war das Bild sogar noch um ein vielfaches schlechter.
teilweise unsinn was die da sagen. ich habe selbst noch einen G420 von damals im hinterzimmer stehen und wenn ich den wieder mal aufstelle wird ziemlich schnell klar wie scheiße CRT eigentlich sind.
- ja, die bewegungsdarstellung ist natürlich besser als auf jedem TFT, allerdings hat auch die ihre probleme: die phosphorschicht leuchtet nämlich sehr lange nach, d.h. wenn sich etwas über einen schwarzen hintergrund bewegt ist das objekt zwar scharf, zieht aber einen langen schweif hinterher. damals war das halt normal aber wenn man jahrelang mit TFT gespielt hat fällt das sofort auf.
- die pixelgeometrie ist völliger dreck und dementsprechend sind auch alle auflösungen dreck. die reden davon, dass non-native auflösungen auf TFT schlecht aussehen - das problem haben CRT mit ALLEN auflösungen, inkl. der "nativen". schwarze zwischenzeilen gehen mit höheren auflösungen nahtlos in matsch über wo einem die augen tränen.
- der ANSI-kontrast von CRT ist absolut beschissen. wenn das ganze bild schwarz ist ist es dunkel, ergo ist der theoretische kontrast hoch. in der realtät wo szenen stellenweise hell und stellenweise dunkel sind sieht das gleich ganz anders aus, besonders wenn der CRT nicht nur auf <20% helligkeit läuft.
JaniC
2019-09-17, 00:49:45
Ebay nach FW900 durchsucht, 0 Treffer, damn. ;)
Jupiter
2019-09-17, 09:26:09
Hast du also auf nen Plasma bzw. OLED gewechselt oder immer noch beim CRT geblieben ?
Als ich 2002 bei Alien vs. Predator 2 das blaugraue Bild des Samsung LCDs sah (es war wahrscheinlich dieser SyncMaster 170MP: http://www.pcstats.com/articleview.cfm?articleID=748), blieb ich am CRT. Dann testete ich später neuere LCD-Monitore bei DOOM und blieb am Röhrenmonitor. Ich spielte noch ein paar Jahre lange mit Röhrenmonitoren, bis ich dann ab etwa 2009 am Plasma-Fernseher weiter machte.
Der Samsung LCD hatte aber etwas interessantes. Die Tasten reagierten auf Wärme.
teilweise unsinn was die da sagen. ich habe selbst noch einen G420 von damals im hinterzimmer stehen und wenn ich den wieder mal aufstelle wird ziemlich schnell klar wie scheiße CRT eigentlich sind.
- ja, die bewegungsdarstellung ist natürlich besser als auf jedem TFT, allerdings hat auch die ihre probleme: die phosphorschicht leuchtet nämlich sehr lange nach, d.h. wenn sich etwas über einen schwarzen hintergrund bewegt ist das objekt zwar scharf, zieht aber einen langen schweif hinterher. damals war das halt normal aber wenn man jahrelang mit TFT gespielt hat fällt das sofort auf.
- die pixelgeometrie ist völliger dreck und dementsprechend sind auch alle auflösungen dreck. die reden davon, dass non-native auflösungen auf TFT schlecht aussehen - das problem haben CRT mit ALLEN auflösungen, inkl. der "nativen". schwarze zwischenzeilen gehen mit höheren auflösungen nahtlos in matsch über wo einem die augen tränen.
- der ANSI-kontrast von CRT ist absolut beschissen. wenn das ganze bild schwarz ist ist es dunkel, ergo ist der theoretische kontrast hoch. in der realtät wo szenen stellenweise hell und stellenweise dunkel sind sieht das gleich ganz anders aus, besonders wenn der CRT nicht nur auf <20% helligkeit läuft.
Ein Röhrenmonitor nutzt sich relativ schnell ab. Es ist wahrscheinlich, dass sie heute nach jahrelanger Nutzung ein Kontrast- und farbarmes Bild haben. Ein frischer Röhrenmonitor war beim Kontrast deutlich überlegen. Gerade bei den vielen dunklen Videospielen, welche ich damals spielte, war das optisch ein enormer Vorteil.
Wenn man sich einen gebrauchten Röhrenmonitor kauft, sollte er eine möglichst geringe Nutzungsdauer haben.
Tesseract
2019-09-17, 11:10:12
bei hoher leuchtkraft hellen reflexionen in der röhre das bild auf, das ist ein bauartbedingtes problem und unabhängig von der alterung, aber ja, alterung kommt natürlich noch dazu. mein gerät hat z.B. probleme mit dem blaukanal, das habe ich aber garnicht erwähnt weil kein allgemeines problem ist.
DavChrFen
2019-09-17, 19:21:58
Ich bin direkt von einem CRT auf einen 120Hz LCD gegangen, der BFI kann. Das war dann nicht ganz so Matsch wie ohne BFI.
Was aber schon lustig war damals, war, als die FullHd LCDs rausgekommen sind: Das konnte die Röhre schon längst. Das einzige, was schade war, war, dass ich keine High-End-Röhre mehr erwischt habe, die 2048x1596 mit 85Hz können. Meine konnte das nur mit 75Hz. Wenn mich die Erinnerung nicht täuscht.
Als nächstes kommt mir ein OLED mit BFI ins Haus. Wenn möglich mit G- oder Free-Sync. Irgendwer hatte doch einen 24" FullHd angekündigt, wenn ich richtig bin?
robbitop
2019-09-17, 19:40:06
OLED und BFI ist ein wenig ungünstig IMO. OLED aind gerade in Bezug auf Vollbildhelligkeit etwas eingeschränkt. BFI kostet ja nochmals Helligkeit.
DavChrFen
2019-09-17, 20:11:58
Kommt immer darauf an, wie lang man das "black frame" macht. Und mit welcher Helligkeit man typischerweise so spielt. Einstellbar wäre :umassa:
robbitop
2019-09-17, 20:22:05
Das stimmt. Ist es zu kurz, ist der Hold Type Effekt aber weniger aufgehoben.
wolik
2019-09-18, 06:28:17
Sie bestätigen das, was ich schon seit Jahrzehnten sage.
https://www.youtube.com/watch?v=V8BVTHxc4LM
Ein CRT von Anfang der 2000er ist bildqualitativ besser als alle LCD Monitore für Konsumenten. Deshalb vollzog ich nie den Sprung auf LCD-Monitore. Zu unscharf war das Bewegbild, zu niedrig der Kontrast etc. ALs die ersten LCD Monitore zu normalen Preisen kamen, war das Bild sogar noch um ein vielfaches schlechter.
Ich hatte am ende CRT 21" EIZO und was da in Video behauptet wird ist nur beschämend.
MadManniMan
2019-09-18, 07:30:02
So sehr ich DF in vielen Belangen zustimme: Was ich NICHT vermisse, ist das Geflimmere ... Ich habe 60-CRT-Hz nie ausgehalten, bin immer eine Auflösungsstufe runtergegangen, um mindestens 75 Hz zu haben.
Und wenn ich mich auch anfang der 2000er noch über Holdtype lustig gemacht habe - da war ich noch reiner Zocker. Jetzt arbeite ich 90 % der Zeit am Screen.
Früher war nicht alles besser ;)
Mortalvision
2019-09-18, 07:35:22
auch, dass die Teile negativ curved waren... :freak:
Ich kann das nicht mehr vergleichen. Das Retina-Display des Macs ist klasse. Sonys sahen in Spielen immer besser als Eizos aus. CRTs waren nie richtig scharf - manuelle Feinjustierung der Modi (mit Matrox Millennium I+II). Hohe Refreshraten waren erforderlich, um dem Geflimmer zu entgehen. Das war auf CRTs mal richtig fies, z.B. mit nem 1084S im PAL-Interlaced Modus - da hat man sich nach höheren Auflösungen gesehnt. Schwarzwerte und Farben waren prima und ne gesunde Portion Glow gab's umsonst on top. Das Bild hatte etwas analoges - bei Vectorbildschirmen noch viel stärker. Ich möchte CRTs nicht mehr rumschleppen müssen. Ich war 'schwer' beeindruckt davon, dass die spezielle Relativitätstheorie dabei bereits Berücksichtigung fand und hoffte, dass die Beballerung durch Elektronen und Lichtquanten langfristig nicht schadet. Mein erster Sony-LCD hatte ungesättigte Farben und Motionblur ohne Ende, aber er war schlanker, scharf und die Flimmerei war weg.
BlacKi
2019-09-18, 10:57:31
auch, dass die Teile negativ curved waren... :freak:
die reden über die highendgeräte. die waren praktisch alle komplett flach.
für die masse unter 500€ (oder bis 300€) war ein 120hz lcd display definitiv besser zum zocken als eine 300€ röhre.
ich hab auch die ganze zeit die hand auf die stirn schlagen müssen. mag das bild noch so einzigartig gewesen sein. die meisten hätten die nachteile zu dem preis niemals in kauf genommen. gesprochen haben sie praktisch nur über die vorteile.
Lowkey
2019-09-18, 11:09:14
Und da haben wir ein Review des Acer X35 (3440x1440 + 200hz) ~2500 Euro Klasse
https://www.youtube.com/watch?v=zv-mhycc3us
https://www.techspot.com/review/1913-acer-predator-x35/
https://geizhals.de/acer-predator-x35-um-cx0ee-005-a1632988.html?hloc=at&hloc=de
Im direkten Vergleich zum Asus PG35VQ schlechtere Farben out of the Box und ein lauterer Lüfter. HDR ist auch hier Top. Responsetime und Inputlag sind ebenfalls sehr gut. Mich stört der geringe Kontrast. Gefühlt ist Kontrast für mich immer der wichtigste Faktor.
Preislich dennoch zu hoch. In absehbarer Zeit sehe ich die Geräte auf der 2000 Euro Marke. Die Widerrufquote ist bei den teuren Displays relativ hoch. Auch der neue Samsung 49" 5140x1440 wird wohl sehr oft wieder retourniert, da P/L einfach nicht stimmt.
Geächteter
2019-09-18, 12:58:17
Auch der neue Samsung 49" 5140x1440 wird wohl sehr oft wieder retourniert, da P/L einfach nicht stimmt.
Die Industrie bekommt es im PC-Bereich ja auch nicht mehr hin, konstante Qualität zu liefern. Bei IPS große gelbe Pissecken an den Rändern, bei VA blau-weißliche Einleuchtungen vom Rand und bei TN Wolkenbildung. Je nach Panel mal extrem bis immer noch ungenügend. Jeder dunkle Hintergrund ein Graus.
Richtig Gute gibt es wohl selten und schon vorher hat der Postmann oder der Versender die Schnauze voll vom Retournieren.
FlashBFE
2019-09-18, 14:36:45
Die Industrie bekommt es im PC-Bereich ja auch nicht mehr hin, konstante Qualität zu liefern. Bei IPS große gelbe Pissecken an den Rändern, bei VA blau-weißliche Einleuchtungen vom Rand und bei TN Wolkenbildung. Je nach Panel mal extrem bis immer noch ungenügend. Jeder dunkle Hintergrund ein Graus.
Richtig Gute gibt es wohl selten und schon vorher hat der Postmann oder der Versender die Schnauze voll vom Retournieren. Das war schon früher so und liegt aber eben auch dran, dass es im PC-Bereich noch keine Alternativen zu LCDs gibt. Das störte mich auch an den Tests von PRAD.de früher immer. Da wurden Farbräume & Kalibrierung gemessen, Blickwinkel und der Kontrast, das war es dann. Am Ende bekam die durchschnittliche Massenware von Büromonitoren ein gut bis sehr gut. Dass die Teile dann kaum spieletauglich waren & eine große Serienstreuung (inkl. Pixelfehler) hatten, war lange kaum ein Thema, bis die Lag-Messungen anfingen und die sinnlosen offiziellen Pixelfehlerklassen kritisiert wurden. Aber man konnte sich eben zwischen TN, IPS und VA immer nur zwischen Pest und Cholera entscheiden. Plasma für PC und diese ominösen SED-Monitore kamen nie auf den Markt. Heute hat man dagegen eine richtig gute Wahl: Mit hohen Hz, HDR und verschiedenen Auflösungen & Seitenverhältnissen hat man schon beim Grundstock an Features viel mehr Wahlmöglichkeiten. Die inhärenten Probleme von LCD werden weiter optimiert, aber z.B. größere Diagonalen sind eben auch abträglich für bestimmte Qualitätskriterien wie Homogenität.
Das "Problem" ist auch, dass mit Abstand die meisten Monitore in Büros landen, wo es auf fast nichts ankommt. Spieler-, Grafiker- und Videoschnittmonitore sind Nischenprodukte und mangels Stückzahlen entsprechend teuer.
Lowkey
2019-09-18, 15:43:27
Samsung 49" C49RG90
https://www.computerbase.de/2019-09/samsung-c49rg90-monitor-test/
Wie ich auch festgestellt habe, ist der Monitor mit HDR10 zu hell. Es dürfte demnach alle Geräte mit HDR10 treffen, dass die Norm für HDR ideal ist, aber für den Einsatz als PC Monitor ungeeignet (aka blind). Die stecken einfach eine doppelt so helle LED Kette in den Monitor und lassen die Kalibrierung der der Farben wie sie war. Fail?
Und dann kritisieren alle Leute die Auflösung beim Vorgänger und den Konkurrenzprodukten von 1080, aber praktisch erfreut sich niemand über 5140x1440. Samsung merzt das Hauptkriterium aus, aber keinen interessiert es.
akuji13
2019-09-18, 16:05:01
Interessant ist das Gerät schon.
Die Umsetzung mit dem local dimming gefällt mir aber gar nicht, ebenso die angesprochene Helligkeit.
Das müsste ich also deaktivieren um ihn überhaupt nutzen zu können.
Wenn ich aktuell Platz für ein so großes Gerät hätte würde ich vermutlich eher zu einem OLED TV greifen.
OLED und BFI ist ein wenig ungünstig IMO. OLED aind gerade in Bezug auf Vollbildhelligkeit etwas eingeschränkt. BFI kostet ja nochmals Helligkeit.
Das sollte bei OLED deutlich weniger kosten, da das Hauptproblem bei der durchgängigen Vollbildhelligkeit bei OLED ja nicht die maximale Helligkeit der einzelnen OLEDs ist (sonst könnte diese ja bei nur teilweise aktiven OLEDs nicht massiv höher sein), sondern der Energieverbrauch im Panel selbst.
Man kann also pulsierende die OLEDs zwischendurch abschalten, dafür aber dann auch umso heller Leuchten lassen.
Wobei die Relevanz der Vollbildhelligkeit sowohl bei Filmen als auch bei Spielen nicht wirklich da ist, weil da hat man selten ein voll weißes Bild.
Und selbst wenn man dies hat, ist es eigentlich nicht wirklich relevant, weil sich das Auge ja automatisch auf die Helligkeit einstellt. Ein voll weißes Bild sieht, nachdem sich das Auge eingestellt hat weitestgehend gleich aus, egal ob es mit 500cd/m² oder 1000cd/m² leuchtet.
Erst wenn teile vom Screen dunkel sind, können die hellen Teile wirklich hervorstechen, und eine höhere Peak-Helligkeit macht auch einen nennenswerten Unterschied in der Wahrnehmung.
Robspassion
2019-09-18, 16:59:49
Wie ich auch festgestellt habe, ist der Monitor mit HDR10 zu hell. Es dürfte demnach alle Geräte mit HDR10 treffen, dass die Norm für HDR ideal ist, aber für den Einsatz als PC Monitor ungeeignet (aka blind). Die stecken einfach eine doppelt so helle LED Kette in den Monitor und lassen die Kalibrierung der der Farben wie sie war. Fail?
In dem Artikel steht aber auch, wenn Local Dimming aus ist stimmt die minimale Helligkeit. Davon abgesehen kann man unter Windows 10, wenn es im HDR Mode ist die helligkeit mit einem Slider verringern.
"Erst bei ausgeschaltetem Local Dimming ist auch die niedrigste Helligkeit mit rund 28 cd/m² beim Samsung C49RG90 gut."
Das "Local Dimming" an dem Teil ist echt ein Witz. 10 Zonen. Selbst mit 512 gibt auf dem Desktop Halo-ing.
Mr.Scott
2019-09-19, 10:19:21
Hatte es schonmal hier erwähnt. Ab 2020 kommen zumindest etwas bessere Monitore.
Anzeichen gibt es schon hier mit diesem Model:
"Der 328M1R liefert 4K UHD, 120 Hz und DisplayHDR 600 auf 31,5 Zoll."
https://www.computerbase.de/2019-08/philips-momentum-558m1ry-328m1r-278m1r/
Mr.Scott
2019-09-19, 10:20:07
Das ist der erste 4k den ich kenne mit mehr als 60hz ;-)
Aber ohne HDMI 2.1 ... = für mich uninteressant.
https://www.heise.de/select/ct/2019/15/1563275243640189
"Die angekündigten neuen Generationen DisplayPort 2.0 und HDMI 2.1 sollen enorme Bandbreiten von 80 respektive 48 GBit/s erzielen."
Fernseher gibt's ja auch schon. Wo bleiben die Monitore ?
(aber ok, man wartet ja auch noch auf ne HDMI 2.1 GPU ...)
M.f.G. JVC
Lowkey
2019-09-19, 13:42:50
HDR400 oder HDR600 sind keine echten Normen. Mittlerweile gibt HDR die Helligkeit an und dann will ich eher HDR400 als HDR1000 oder HDR1400. Beim TV sieht das dann aber wieder anders aus. HDR ist wohl in Form von 1000 und mehr ein Stromfresser und wenig Umweltfreundlich ;)
Savay
2019-09-19, 16:12:56
Naja...relativ hoch gegriffene 150kWh extra machen den Bock irgendwie auch nicht fett. (~50Watt dauerhafter Mehrverbrauch bei 8h/Tag)
750km p.a. mit ÖPNV statt der eigenen Karre gefahren oder gar nur 500km komplett eingespart und du hast es wieder raus...selbst mit dem normalen Strommix. :wink:
Und dann sprechen wir noch nicht davon das Strom eh der am einfachsten CO2 neutral zu bekommende Energieträger ist.
Insofern ist HDR1000 oder nicht eher keine echte Umweltfrage...höchstens der Konsum, inkl Transport Herstellung und Co. der mit Neugeräten so oder so verbunden ist.
Aber das nur mal so nebenbei. :tongue:
Das ist der erste 4k den ich kenne mit mehr als 60hz ;-)
Uh? Echt? Gibt doch ein paar 27" mit UHD und 120Hz(+)!
Und jeder halbwegs aktuelle OLED TV läuft intern eh mit 120Hz :wink:...
Lowkey
2019-09-19, 16:20:25
Nur so nebenbei: ich beziehe mich mal auf alle Besitzer in der Summe.
Savay
2019-09-19, 16:30:04
Nur so nebenbei: ich beziehe mich mal auf alle Besitzer in der Summe.
Auch in Summe ändert es nicht viel.
Der deutsche pro Kopf Schnitt beim Stromverbrauch liegt bei 0,76t CO2 p.a. und das auch noch bei dem doch ziemlich hohen CO2 Ausstoß pro kWh hierzulande. In Frankreich wär es mal weniger als ein Viertel davon, in Dänemark die Hälfte, in Schweden ca. ein Sechstel!
Pro Kopf sind es hierzulande zudem insgesamt mal gleich knapp über 11,5t CO2 p.a.
Da sind 0,03t mit normalem deutschend Mix und 0,002t bei 100% Ökostrom die sowas extra verbraucht irgendwie...Peanuts. :wink:
Zumal die Summe aller HDR Nutzer am PC doch überschaubar ist und das Panel nicht unbedingt dauernd das Maximum verbrät, da der Schnitt sehr vom Content abhängt.
Das Ding ist...wenn du schon neu kaufst, kauf lieber was das möglichst viele Jahre hält.
Spart am Ende wohl mehr als sich gegen HDR1000 zu entscheiden nur weil es einem wegen des verbrauchs ein schlechtes Gewissen verpasst.
Zumal man das Dimming bei Nichtbedarf ja auch ausschalten kann und hier ja wohl auch sollte. :freak: Und ich noch keinen Grund sehe den Desktop unbedingt in HDR bewundern zu müssen. ;)
Womit der Mehrverbrauch wohl eher unter 150kWh pro Gerät liegen dürfte.
Jasch
2019-09-20, 10:14:08
Hi, weiß jemand wie der Monitor im DigitalFoundry Test angeschlossen war (geht aus dem Video
nicht hervor).
Würde das gerne mal nachtesten.
Ich habe noch nen Elsa Ecomo 850 (24H96) rumstehen (baugleich Sony GDM-fw900).
Früher haben wir die mit Analog to RGBHV Kabel(5xBNC) angeschlossen.
Aber heute habe ich ja "nur" DP oder HDMI als Ausgang bei neuen Karten.
@Jasch Hat der nicht auch noch nen DVI Eingang ?
HDMI to DVI oder DP to DVI Kabel (solange es um das Digitale Signal geht) gibt es ja.
M.f.G. JVC
Jasch
2019-09-20, 10:34:15
Nein der hat nur nen normalen Analog und den RGBHV (5xBNC ) Eingang.
Jup, grad gefunden ... http://www.radie.us/literature/sony/SonyFW900.pdf
Nur Analog ... das benötigt nen Digital-Analog Wandler ...
Wenns nur zum Spaß ist würd ichs bleiben lassen ...
https://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/moderne-Spiele-auf-Roehrenmonitor-1332664/ (17.09.2019)
"Selbst teure 144-Hz-Monitore sollen schlechter sein"
Hab meine 24" Iiyama schon entsorgt ... (der hatte auch nen Digitalen DVI Eingang)
Auch wenn das Bild was hatte, war es mir zu anstrengend für die Augen und der Monitor brauchte einfach viel zu viel Platz für nur mickrige 24"
M.f.G. JVC
BlacKi
2019-09-20, 10:57:27
es gibt diverse usb to vga adapter, möglicherweise gibts auf dem MB einen vga anschluss, oder man hat einfach ne 2. karte mit vga reingesteckt.
oder man hat einen dvi anschluss onboard und nutzt einen dvi to vga adapter. oder oder oder.
gibt zig möglichkeiten.
Lowkey
2019-09-20, 10:58:45
Auch in Summe ändert es nicht viel.
Der deutsche pro Kopf Schnitt beim Stromverbrauch liegt bei 0,76t CO2 p.a. und das auch noch bei dem doch ziemlich hohen CO2 Ausstoß pro kWh hierzulande. In Frankreich wär es mal weniger als ein Viertel davon, in Dänemark die Hälfte, in Schweden ca. ein Sechstel!
Pro Kopf sind es hierzulande zudem insgesamt mal gleich knapp über 11,5t CO2 p.a.
Da sind 0,03t mit normalem deutschend Mix und 0,002t bei 100% Ökostrom die sowas extra verbraucht irgendwie...Peanuts. :wink:
Zumal die Summe aller HDR Nutzer am PC doch überschaubar ist und das Panel nicht unbedingt dauernd das Maximum verbrät, da der Schnitt sehr vom Content abhängt.
Das Ding ist...wenn du schon neu kaufst, kauf lieber was das möglichst viele Jahre hält.
Spart am Ende wohl mehr als sich gegen HDR1000 zu entscheiden nur weil es einem wegen des verbrauchs ein schlechtes Gewissen verpasst.
Zumal man das Dimming bei Nichtbedarf ja auch ausschalten kann und hier ja wohl auch sollte. :freak: Und ich noch keinen Grund sehe den Desktop unbedingt in HDR bewundern zu müssen. ;)
Womit der Mehrverbrauch wohl eher unter 150kWh pro Gerät liegen dürfte.
Janein, die staatlichen Menschen sehen den Verbrauch immer als Gesamtsumme und jede Änderung bewirkt etwas. Also 1% Ersparnis ist relativ viel als reiner Wert. Mein alter TV auf 55" konnte mit <50 Watt betrieben werden. Für das perfekte TV Bild braucht aber jeder neue Fernseher über 100 Watt. Gerade mit HDR steigt der Verbrauch an, da der TV selbstständig auf HDR umschaltet. Es sind nicht viele Filme und Serien, aber auch nicht viele HDR Fernseher in den Wohnzimmern. Immer weniger Menschen können mit technischen Geräte gut umgehen. Ich darf für 14jährige das Smartphone einstellen. So ein Mensch stellt HDR oder den Stromverbrauchswert des TVs nicht ein.
UND... https://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/moderne-Spiele-auf-Roehrenmonitor-1332664/
"Wer sich kein eigenes Bild machen kann, kann folglich auch nichts vermissen."
...so ist es wohl auch besser ^^
M.f.G. JVC
Jasch
2019-09-20, 11:00:20
Naja nicht wirklich die neuen Karten haben zwar manchmal noch DVI, aber das ist ohne Analog, die Adapter gehen da nicht.
Und die hantieren da ja mit RTX Karten.
Können eigentlich nur sowas in der Art verwendet haben.
https://www.hdfury.com/product/hdfury-x4/
Vielleicht gehr sie ja nochmal darauf ein.
Kartenlehrling
2019-09-24, 17:16:20
Morgen gibts wohl infomationen zu der neuen hybrid QD-OLED Technik.
Nanosys to present QDEL advances at OLEDs World Summit
Commercialization of Quantum Dot Electroluminescent (QDEL) displays may happen sooner than you think.
Device efficiencies already approach or meet commercial requirements and lifetimes are improving rapidly.
In this presentation, Dr. Ray Ma, Nanosys Director of Device Development, reports on recent breakthroughs
in the development of QDEL displays including Heavy Metal Free and hybrid QD-OLED approaches.
Dr. Ma will speak this Wednesday, September 25 at 5:00pm.
For more information, visit: https://www.oledsworldsummit.com/
Zuerst dachte ich toll, kingt doch vielversprechend, bis ich gelesen habe das die Seriereife für 2022 geplant ist, ooohhhman !!!
Business Korea sagt, dass Samsung Display seine QD-OLED TV-Produktionspläne abgeschlossen hat.
Das Unternehmen wird 13 Billionen Won (rund 10,85 Milliarden Dollar) investieren,
um seine L8-LCD-Produktionslinie in Tangjeong auf QD-OLED-Produktion umzustellen.
Dem Bericht zufolge werden die Investitionen der DEZA die bisher grösste Einzelinvestition in die koreanische Displayindustrie sein.
Die LCD-Linie L8-1-1-1 wird sofort abgeschaltet und auf QD-OLED-Produktion umgestellt.
Die DEZA wird auch ihre zweite Linie (L8-2-1) stilllegen und insgesamt können die beiden Fabriken jeden Monat 200.000 8-Gen-Glassubstrate produzieren
(gegenüber den derzeit 360.000 Substraten in der LCD-Produktion). Die Serienproduktion von QD-OLED-Paneelen beginnt 2022.
Nach der Abschaltung der L8-LCD-Linie wird die DEZA nur noch eine einzige großflächige LCD-Linie in Suzhou, China haben.
https://www.oled-info.com/business-korea-samsung-invest-1085-billion-qd-oled-tv-production
JaniC
2019-09-26, 01:28:32
https://abload.de/img/ebay900trkpi.png
https://www.ebay-kleinanzeigen.de/s-anzeige/sony-gdm-fw900/1214314875-225-9416
Wer von euch war das? ;D
/edit: Oh Gott, kleinanzeigen ist ja voll mit Gesuchen seit ein paar Tagen. Dat Hype! ;D https://www.ebay-kleinanzeigen.de/s-fw900/k0
/edit2: Der hier könnte eventuell interessant werden:
ViewSonic XG270QG
https://www.viewsonic.com/elite/xg270qg/engineered4more/
https://www.tftcentral.co.uk/blog/viewsonic-elite-xg270qg-with-27-nano-ips-panel-and-nvidia-g-sync/
https://www.computerbase.de/2019-09/viewsonic-elite-xg270qg-xg270qc-xg05-monitore/
27" 1440p, 144-165hz, G-Sync, "Nano-IPS"
Klingt soweit wie der 27GL850-B von LG. Kontrast aber auch hier nur 1000:1. Meh. Mal Tests abwarten.
/edit3: ES IST DAS GLEICHE PANEL wie bei dem LG. Daher auch gleicher Kontrast. Schade, sonst wären die ja echt schon nah dran.
ViewSonic are set to release a new 27″ gaming screen in their XG range, making use of the same LG.Display Nano IPS panel that has been featured in the LG 27GL850 already and is attracting a lot of buyer interest.
Für Diejenigen, welche ihren "ollen" CRT nochmal begutachten wollen und eine Intel-Onboardgrafik ihr Eigen nennen, gibt es unter Windows 10 (ab 1803) die Möglichkeit, den Intel-Grafikchip als primäre Grafikkarte im Bios anzuwählen (und dort dann den CRT über einen hoffentlich noch vorhandenen DVI-I-auf-VGA-Adapter anschließen), das eigentliche Rendern im Spiel jedoch die dedizierte Grafikkarte übernehmen zu lassen:
"Unter Einstellungen>System>Anzeige>erweiterte Anzeigeeinstellungen>klassische App" mittels der Schaltfläche "Durchsuchen" die Exe-Datei des Spiels auf der Platte auswählen und mit Hilfe der nun unter dem aufgelisteten Spiel angezeigten Schaltfläche "Optionen" (nach Öffnen werden dort beide Grafikkarten aufgelistet) im dortigen Bereich den Radiobutton "Hohe Leistung" anklicken.
Mr.Scott
2019-09-27, 10:55:39
Hier mal ein schöner Beitrag:
https://www.gamestar.de/artikel/144-hz-monitore-schauen-in-die-roehre-alte-crts-besser-als-moderne-tfts,3349161.html
Im übrigen der größte Witz! Und wir leben in 2019/2020!
Wie gut doch eine alte Röhre doch noch ist, von der Bildqualität her gesehen.
Das ganze Flachbildschirm Marketing Blah Blah von Samsung, Sony, Sharp, LG.... Katastrophe!
Tobe1701
2019-09-27, 10:58:23
Hier mal ein schöner Beitrag:
https://www.gamestar.de/artikel/144-hz-monitore-schauen-in-die-roehre-alte-crts-besser-als-moderne-tfts,3349161.html
Im übrigen der größte Witz! Und wir leben in 2019/2020!
Wie gut doch eine alte Röhre doch noch ist, von der Bildqualität her gesehen.
Das ganze Flachbildschirm Marketing Blah Blah von Samsung, Sony, Sharp, LG.... Katastrophe!
Ja 80Hz vermisse ich auch wie verrückt...
Nostalgic
2019-09-27, 11:59:54
SONY GDM-FW900
42 kg (93 lb) (https://aperturegrille.fandom.com/wiki/SONY_GDM-FW900)
Fuck off. Mein armer Rücken.
Im übrigen der größte Witz! Und wir leben in 2019/2020!
Wie gut doch eine alte Röhre doch noch ist, von der Bildqualität her gesehen.
!
Sehr einseitig.
Das einzige was Röhren wirklich besser konnten war die fehlende Sample&Hold-Unschärfe.
Beim Rest sind moderne Monitore weit überlegen.
Du kannst auf einer Röhre jede Auflösung darstellen? Kannst du auf einem LCD genau so. Aber dann ist ja das Bild unscharf? Das ist es auf einem CRT immer. Die fehlende native Auflösung eines CRT ist eben kein Vorteil, sondern ein deutlicher Nachteil, weil kein CRT, egal in welcher Auflösung, jemals die Schärfe eines LCD in nativer Auflösung erreichen kann.
Und die bessere Bewegungschärfe erkauft man sich beim CRT mit deutlich mehr flimmern, jedenfalls bei den meisten.
Daredevil
2019-10-03, 01:03:47
Sagt mal, was haltet ihr von "Monitor Overclocking"?
Irgendwelche Signifikanten Vor- oder Nachteile, die man beachten sollte?
Ich habe seit ner Woche einen kleinen "Big Format Gaming" Monitor in Betrieb, also nen 43" 4k @ 120hz und ein wenig Herzl könnte ich gerne noch vertragen.
Mit dem Nvidia Treiber komme ich auf 129hz ohne Fehler, ist schön fürs Gewissen, aber ob mans spürt? I dont know.
Gibts Nachteile?
BlacKi
2019-10-03, 03:40:51
solange man keine nebeneffekte hat?
Gibts Nachteile?
Länger wird die Hardware dadurch bestimmt nicht halten ^^
Wenn du keine Vorteile bemerkst, würd ich es sein lassen.
M.f.G. JVC
nordic_pegasus
2019-10-03, 09:44:12
Linus hat den Alienware AW5520QF (55" OLED Monitor) getestet
https://youtu.be/L3oqktdx2a8
abgesehen vom Preis, welcher natürlich jenseits von Gut und Böse ist, gefällt mir der Monitor wirklich gut. Ich habe jetzt seit 4 Jahren einen LG OLED TV als Monitor in Gebrauch und hätte gerne endlich mal 120Hz/FreeSync. Da ich Ende Oktober Geburtstag habe, werde ich wohl die nächsten Tage stark überlegen, ob ich so wahnsinnig sein will.
Gibt auch eine erste Listung in einem deutschen Shop
https://geizhals.de/dell-alienware-aw5520qf-210-auds-a2147955.html?hloc=at&hloc=de
5CH4CHT3L
2019-10-03, 10:02:52
Linus hat den Alienware AW5520QF (55" OLED Monitor) getestet
https://youtu.be/L3oqktdx2a8
abgesehen vom Preis, welcher natürlich jenseits von Gut und Böse ist, gefällt mir der Monitor wirklich gut. Ich habe jetzt seit 4 Jahren einen LG OLED TV als Monitor in Gebrauch und hätte gerne endlich mal 120Hz/FreeSync. Da ich Ende Oktober Geburtstag habe, werde ich wohl die nächsten Tage stark überlegen, ob ich so wahnsinnig sein will.
Gibt auch eine erste Listung in einem deutschen Shop
https://geizhals.de/dell-alienware-aw5520qf-210-auds-a2147955.html?hloc=at&hloc=de
Der ist wirklich so ziemlich das was viele hier wollten, mich eingeschlossen (vielleicht noch ein wenig groß)
Der Aufpreis ggü. den Einsteiger-OLEDs (~1000€) ist aber wirklich enorm. Ich denke 1500€ wären angemessener, aber da man der einzige Anbieter ist kann man sich das schon mal erlauben.
Vielleicht doch bis zum nächsten Geburtstag warten (typischer Rat, ich weiß)
robbitop
2019-10-03, 10:06:50
Er hat aber auch festgestellt dass der Monitor für Schreibtischbetrieb für viele Games zu groß ist.
@nordic_pegasus
Wenn man zu viel Geld hat ist das durchaus ne Überlegung wert :)
Wäre mir "zu teuer"(ist es mir nicht wert).
Da würde ich eher zu so was greifen:
https://geizhals.at/lg-electronics-oled-55c97la-a2019159.html?hloc=at
(55" mit HDMI 2.1 also 120HZ+VRR für ~1800.-, in 65" ~2-2,4K)
Wird hald echt zeit das die neuen Übertragungsstandards kommen.
https://www.heise.de/select/ct/2019/15/1563275243640189
"Die angekündigten neuen Generationen DisplayPort 2.0 und HDMI 2.1 sollen enorme Bandbreiten von 80 respektive 48 GBit/s erzielen."
https://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/Displayport-20-kommt-2020-1293176/
"Displayport 2.0 kommt: UHD mit 3.840 × 2.160 Pixel, 144 Hertz und 8 Bit 4:4:4 ohne Kompression"
"Mit HDMI 2.1 stehen 48 Gbps zur Verfügung. Allerdings darf man auch immer nicht vergessen, dass HDMI deutlich großzügigere Kabellängen erlaubt."
Er hat aber auch festgestellt dass der Monitor für Schreibtischbetrieb für viele Games zu groß ist.
So Etwas stellt man auch auf ein "Fernseherkastl" :wink:
und nutzt am Couchsessel ein schönes großes "Tablett" für Maus und Tastatur :smile:
(dadurch kann man den Abstand auch noch ziemlich frei wählen :up:)
M.f.G. JVC
M4xw0lf
2019-10-03, 10:36:21
Linus hat den Alienware AW5520QF (55" OLED Monitor) getestet
https://youtu.be/L3oqktdx2a8
abgesehen vom Preis, welcher natürlich jenseits von Gut und Böse ist, gefällt mir der Monitor wirklich gut. Ich habe jetzt seit 4 Jahren einen LG OLED TV als Monitor in Gebrauch und hätte gerne endlich mal 120Hz/FreeSync. Da ich Ende Oktober Geburtstag habe, werde ich wohl die nächsten Tage stark überlegen, ob ich so wahnsinnig sein will.
Gibt auch eine erste Listung in einem deutschen Shop
https://geizhals.de/dell-alienware-aw5520qf-210-auds-a2147955.html?hloc=at&hloc=de
Nimm einen LG C9 und spar dir einen Haufen Kohle.
Raspo
2019-10-03, 10:55:05
Nimm einen LG C9 und spar dir einen Haufen Kohle.
Haben die denn schon Freesync-Support? Meines Wissens nicht.
HDMI 2.1 beinhaltet VRR welches AMD "Free-sync" und NV "G-sync via HDMI" nennen.
Aber damit das funktioniert müssten die Graka-Hersteller auch mal in die Hufe kommen und die neuen Anschlüsse auch unterstützen ;)
Fernseher besser als Monitore ...*kopfschüttel* ... wann gabs das zuletzt ?
M.f.G. JVC
Nightspider
2019-10-03, 11:55:22
Habt ihr geschlafen?
Die 9er Reihe von LG hat offiziellen G-Sync Support von Nividia bekommen.
https://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/Erste-LG-Fernseher-mit-Support-fuer-Nvidia-G-Sync-Compatible-vorgestellt-1332166/
Wird bestimmt nicht lange dauern bis AMD nachzieht.
robbitop
2019-10-03, 12:00:37
Fehlt nur noch eine GPU mit hdmi 2.1.
Ggf kann ja Navi12 das?
Fehlt nur noch eine GPU mit hdmi 2.1.
Ggf kann ja Navi12 das?
Soviel ich weiß, leider nein.
Navi "21/23" sollen das können...
M.f.G. JVC
Daredevil
2019-10-03, 12:25:06
solange man keine nebeneffekte hat?
Spürbar nicht, ist halt ne Frage, ob das auf die Lebenszeit geht.
Was macht man überhaupt mit dem Panel, wenn es einfach mit mehr HZ läuft?
Länger wird die Hardware dadurch bestimmt nicht halten ^^
Wenn du keine Vorteile bemerkst, würd ich es sein lassen.
M.f.G. JVC
Gibts da Infos zu, ob und wie das die Lebenszeit verkürzt?
Das ist ja gerade die Frage, ob es egal ist, oder eben für den kleinen Benefit quatsch. ^^
Linus hat den Alienware AW5520QF (55" OLED Monitor) getestet
https://youtu.be/L3oqktdx2a8
abgesehen vom Preis, welcher natürlich jenseits von Gut und Böse ist, gefällt mir der Monitor wirklich gut. Ich habe jetzt seit 4 Jahren einen LG OLED TV als Monitor in Gebrauch und hätte gerne endlich mal 120Hz/FreeSync. Da ich Ende Oktober Geburtstag habe, werde ich wohl die nächsten Tage stark überlegen, ob ich so wahnsinnig sein will.
Gibt auch eine erste Listung in einem deutschen Shop
https://geizhals.de/dell-alienware-aw5520qf-210-auds-a2147955.html?hloc=at&hloc=de
Der ist wirklich so ziemlich das was viele hier wollten, mich eingeschlossen (vielleicht noch ein wenig groß)
Der Aufpreis ggü. den Einsteiger-OLEDs (~1000€) ist aber wirklich enorm. Ich denke 1500€ wären angemessener, aber da man der einzige Anbieter ist kann man sich das schon mal erlauben.
Vielleicht doch bis zum nächsten Geburtstag warten (typischer Rat, ich weiß)
Er hat aber auch festgestellt dass der Monitor für Schreibtischbetrieb für viele Games zu groß ist.
Fehlt nur noch eine GPU mit hdmi 2.1.
Ggf kann ja Navi12 das?
https://abload.de/img/unbenanntxejge.png
Das sind aktuell die einzigen Big Format Gaming Monitore auf dem Markt.
Leichte Unterschiede in der Größe, aber auf jeden Fall:
Ab 30"
Ab 4k
Ab 120hz
Display Port
Mit Freesync/Gsync
Den Asus habe ich mir ja geholt, um meine drei Geräte zu ersetzen, die da waren
27" + 24" Monitor im "Schreibtisch" Mode
46" Plasma für Filme/Gaming im Bett
und bislang bereuhe ich den Wechsel überhaupt nicht, 43" gehen total klar.
https://abload.de/img/img_3019avjbf.jpg
Komplett Kompromisslos ist das ganze aber nun ganz offen gesagt auch nicht.
Weitere Bilder hier: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=587530&page=4
PS: Gibts im Alternate Outlet gerne mal für unter 1000€ ;)
robbitop
2019-10-03, 12:41:50
Soviel ich weiß, leider nein.
Navi "21/23" sollen das können...
M.f.G. JVC
Woher kommt die Info? IIRC war über Navi 12 bis auf die SDPs noch nichts bekannt.
Stammtischplauderei ...
Mir wär es ja auch lieber, würd sie mit HDMI 2.1 sofort kaufen ;)
M.f.G. JVC
Gibts da Infos zu, ob und wie das die Lebenszeit verkürzt?
Das ist ja gerade die Frage, ob es egal ist, oder eben für den kleinen Benefit quatsch. ^^
Genaue Infos gibt es nicht. Bei manchen stirbt Hardware auch ohne OC/Tuning :wink:
Der "kleine" Benefit ist kein quatsch, genauso wenig wie weitere 10PS mehr beim Auto kein Quatsch sind :freak:
(ganz egal ist es bestimmt nicht)
"Wie lange hält der Gummi am Reifen noch?" fragt doch auch keiner der grad voll durchtritt :ulol:
M.f.G. JVC
Spürbar nicht, ist halt ne Frage, ob das auf die Lebenszeit geht.
Was macht man überhaupt mit dem Panel, wenn es einfach mit mehr HZ läuft?
Auf einem LCD? Sicher nicht. Bei einem CRT konnte es tatsächlich die Lebenszeit negativ beeinflussen, wenn dieser mit zu hoher Frequenz betrieben wird.
Bei einem LCD ist das egal, wobei die Frage vielmehr ist ob es überhaupt was bringt, bzw. nicht sogar negativ ist. Weil beispielsweise Overdrive abzustimmen ist alles andere als trivial, weshalb das auch üblicherweise bei der höchsten offiziellen Frequenz am besten funktioniert. Da kann es durchaus sein, dass eine höhere Frequenz eher zu Nachteilen als zu Vorteilen führt.
bnoob
2019-10-04, 11:40:47
Jetzt gibt es für den 43" Asus auch mal eine brauchbare Review, sehr gut!
aoCZSLptiL0
robbitop
2019-10-04, 13:10:12
IMO wird mittelfristig miniLED den nächsten großen Sprung geben. >1000 Dimmingzonen bei normalen Monitordiagonalen sollten den Halo Effekt deutlich reduzieren und ggf IPS Panels ermöglichen (die VAs sind IMO einfach zu lahm).
https://www.google.de/amp/s/www.computerbase.de/2019-09/asus-proart-pa32ucx-erster-mini-led-monitor-preis/%3famp=1
32“ ist mir noch zu viel als 16:9 und 4K ist mir persönlich zu viel Auflösung (möchte lieber Rechenleistung in temporale Auflösung investieren).
Aber wahrscheinlich sie die Panels nur die Vorboten. Ggf gibt es dann in 2020/21 auch 27“ 1440p Versionen oder zumindest 34/35“ als 21:9.
IMO wird mittelfristig miniLED den nächsten großen Sprung geben. >1000 Dimmingzonen bei normalen Monitordiagonalen sollten den Halo Effekt deutlich reduzieren und ggf IPS Panels ermöglichen (die VAs sind IMO einfach zu lahm).
Das macht nur Sinn wenn es deutlich günstiger als OLED ist.
Ansonsten kann man gleich OLED bauen.
Daredevil
2019-10-04, 23:10:08
Update zu den 129hz, das ist quatsch, weil der Monitor bei mir sich dann nur noch mit 6bit betreiben lässt. :D
Also grundsätzlich isses ja so bei dem Ding:
4k@60hz > 10Bit HDR
4K@120hz > 8Bit HDR
4K@129hz > 6Bit HDR
Ist ja quatsch, bleib ich bei 120. War eh nur mal ein Test, sowas habe ich noch nie gemacht ^^
Der Apple TV fühlt sich aber direkt wohl mit 10Bit und HDR, das geht Allgemein eh besser als mit Windows.
Nightspider
2019-10-05, 00:04:38
IMO wird mittelfristig miniLED den nächsten großen Sprung geben. >1000 Dimmingzonen bei normalen Monitordiagonalen sollten den Halo Effekt deutlich reduzieren und ggf IPS Panels ermöglichen (die VAs sind IMO einfach zu lahm).
https://www.google.de/amp/s/www.computerbase.de/2019-09/asus-proart-pa32ucx-erster-mini-led-monitor-preis/%3famp=1
32“ ist mir noch zu viel als 16:9 und 4K ist mir persönlich zu viel Auflösung (möchte lieber Rechenleistung in temporale Auflösung investieren).
Aber wahrscheinlich sie die Panels nur die Vorboten. Ggf gibt es dann in 2020/21 auch 27“ 1440p Versionen oder zumindest 34/35“ als 21:9.
Für das Geld kriegt man 2-3 OLED Fernseher und deutlich bessere Kontraste und bessere Bildschärfe.
Gerade die 44 Zoll OLED TVs werden zügig für rund 999 kaufbar sein. 55 OLED der 2018er Gen gabs auch schon für 1100-1200 Online und zur WM 2018 gabs den sogar mal für 999 irgendwo lokal. Und die OLEDs werden von Jahr zu Jahr günstiger.
Wozu also überteuerten LCD Müll?
Zudem scheinen OLEDs durch ihre scharf abgetrennten Subpixel etwas schärfer zu sein und etwas mehr Details sichtbar zu machen als LCDs mit gleicher Auflösung.
(Bezogen auf das Video in dem OLED (?) Thread wo es um 8K LCD vs 4K OLED ging und der OLED Gewann bei den Details)
robbitop
2019-10-05, 08:59:43
Das macht nur Sinn wenn es deutlich günstiger als OLED ist.
Ansonsten kann man gleich OLED bauen.
OLED ist für PC Monitore leider nicht ideal. Statische Inhalte würden zu größeren Schwierigkeiten bzgl Imageretention führen. Leider. Deshalb macht das auch kaum ein Hersteller und auch schon gar nicht im großen Stil. Kosten wären IMO kein Problem. LG verkauft 55“ OLEDs. Wenn sie wollten, könnten sie. Aber obiges haben sie auch mal als Argument in einem Interview angegeben.
Für reine Zocker, die sich des Risikos bewusst sind und die expliziten Vorteile kennen: OK. Aber das ist die absolute Minderheit. Die Masse würde die Monitore mit statischen Inhalten einbrennen und es würde große Warrenty Cases geben. Wird mMn mittelfristig nicht (als expliziter PC Monitor in Massen zu erschwinglichen Preisen) passieren. Als kleine teure Serie ggf schon. Dann kann man das Geld für die Warranty Cases mit einplanen.
OLED wird man sich als Massenprodukt dann mit einem TV aushelfen müssen. Und die sehe ich nicht unter 55“ in bezahlbaren Massen aus og Gründen kommen. Am Schreibtisch ist das den meisten zu groß.
—————
Bzgl Schärfe: da man ja bewegt spielt und nicht statisch, ist für den Detailgrad des Spiels in Bewegung primär die zeitliche Auflösung relevant (wenn man mal von Bewegtartefakten absieht, die man aber mit Antialiasing bekämpfen kann).
Ein schnelleres Bewegtbild ist mit 120Hz in 1440p schärfer als mit 60Hz in 4K.
Da Rechenleistung leider endlich ist, ist das leider stets ein Kompromiss.
BlacKi
2019-10-05, 10:13:05
Ein schnelleres Bewegtbild ist mit 120Hz in 1440p schärfer als mit 60Hz in 4K.
Da Rechenleistung leider endlich ist, ist das leider stets ein Kompromiss.
ja, aber mittlerweile hat doch fast jedes spiel einen internen screenscaler eingebaut, bei division 2 ist der so gut, das man ohne augenkrebs auf 50% stellen kann. ich hätte no worries auf 4k120hzvrr jetzt schon zu gehen, oder mit ner Oced 2070. das problem bleibt aber mit dem hdmi2.0.
robbitop
2019-10-05, 10:17:12
Ja. Upscaling wird immer besser. Insbesondere in wenn temporale Rekonstruktion und/oder AI enthalten sind.
Andererseits: wozu eine hohe Auflösung wenn man dann doch upsamplet? Egal wie gut Upsampling ist: an nativ kommt es nicht heran.
Sofern mal Leistung im Überschuss vorhanden ist kann man ja auch downsampeln.
BlacKi
2019-10-05, 10:42:19
weil man screenscale oft prozentual an die leistung anpassen kann. wqhd @4k sieht zwar ok aus, aber ist ebenfalls nicht nativ. ich halte upscaling für die bessere lösung, zumindest wenn ich die wahl hätte.
Nostalgic
2019-10-05, 14:17:26
wie ist es mit upscaling von 1080p auf 1440p?
OLED ist für PC Monitore leider nicht ideal. Statische Inhalte würden zu größeren Schwierigkeiten bzgl Imageretention führen. Leider.
Bei 8h jeden Tag im Büro vielleicht. Für den Hausgebrauch wäre das aber absolut vernachlässigbar, insbesondere als Spielemonitor, der üblicherweise eh kaum dauerhafte statische Inhalte anzeigen muss.
Nightspider
2019-10-05, 16:23:19
Man kann alle Spiele mir 4K 120fps zocken wenn man paar Details runter nimmt und irgendwas ab der 2070 Super hat.
Und Monitore wechselt man nicht jedes Jahr. Dafür kommt nächstes Jahr aber schon Nvidias nächste Generation die wahrscheinlich doppelt so schnell wird.
Hab mit meine 1440p120 Monitor oft in 4K per Downsampling gespielt mit 95-110fps mit meiner 1080ti und paar reduzierten Details. Geht alles.
robbitop
2019-10-05, 16:32:00
Bei 8h jeden Tag im Büro vielleicht. Für den Hausgebrauch wäre das aber absolut vernachlässigbar, insbesondere als Spielemonitor, der üblicherweise eh kaum dauerhafte statische Inhalte anzeigen muss.
Da können wir nur spekulieren. Möglich wäre so ein Gerät schoj lange. Es ist aber wie beschrieben nicht möglich aus IR Gründen ohne warranty cases und Imageverlust. Man muss immer im Hinterkopf behalten, dass wir nicht der Maßstab oder der Markt sind. 99% der Leute sind nunmal anders. ;)
robbitop
2019-10-05, 16:34:16
Man kann alle Spiele mir 4K 120fps zocken wenn man paar Details runter nimmt und irgendwas ab der 2070 Super hat.
Und Monitore wechselt man nicht jedes Jahr. Dafür kommt nächstes Jahr aber schon Nvidias nächste Generation die wahrscheinlich doppelt so schnell wird.
Hab mit meine 1440p120 Monitor oft in 4K per Downsampling gespielt mit 95-110fps mit meiner 1080ti und paar reduzierten Details. Geht alles.
Meine 1080ti packt das bei den neusten AAAs nicht. 4K mit 120fps - auch bei optimierten Settings nicht.
120fps sind bei 1440p drin - aber auch nicht immer. 4K sind 2,25x so viele Pixel wie 1440p.
Nightspider
2019-10-05, 16:54:39
Lass es halt 90fps sein, fühlt sich auch schon viel flüssiger an bei einem 120hz monitor.
Und Grafikkarten werden ja nicht langsamer.
Ich kauf mir kein 60Hz Display mehr und ich sehe absolut keinen Grund warum nicht 4K+120Hz.
Und das können die neuen LG OLEDs ja nun auch schon per Nvidia Grafikkarte.
Hoffentlich kommt die große Navi Grafikkarte dann auch mit dem entsprechenden Anschluss.
robbitop
2019-10-05, 17:33:57
Verbraucht halt 2,25x an Rechenleistung ggü 1440p. 4K 90 fps muss sich eine 2070 super in modernsten AAA Games aber auch schon massivst strecken. Halte ich für optimistisch wenn damit gemeint ist dass alle neuen Blockbuster durchgehend damit diese Performance erreichen.
Kaufen kann sich natürlich jeder wie er mag.
Ich werde mir auch einen 55“ 4K120 C9 OLED für Couchgaming zulegen. Als PC Monitor vorerst nicht da da mMn erstmal bei der Performance was geschehen muss.
Sieht aber jeder anders. Ist ein freies Land. ;)
Nightspider
2019-10-05, 17:40:55
1440p mit 120hz hab ich seit knapp 8 Jahren und damals haben auch alle gemeint das würde zu viel Leistung brauchen aber ich konnte immer super zocken wenn ich paar unwichtige Details reduziert habe. Man muss ja auch nichts zwangsläufig konstante 120fps oder 100fps erreichen um von einem 120Hz Display massiv zu profitieren.
90Hz vs 60Hz ist auch schon 50% mehr und fühlbar schneller. Auch bei meinem Smartphone mit 90Hz Display.
Und selbst wenn man in einem Tomb Raider oder Assassins Creed oder Anno1800 mal für hohe Details auf deutlich weniger fps runtergehe. Was interessiert einen das in einem langsamen Singleplayer Spiel?
Muss dazu sagen das ich aber auch am liebsten schnelle Online Shooter zocke.
Ich werde bloß nie wieder Shooter mit 60Hz spielen.
robbitop
2019-10-05, 19:52:31
Je mehr FPS und Hz desto schärfer das Bewegtbild. Latenz und Flüssigkeit sind sicherlich schnell auf einem Punkt, an dem es einem genügt. Bewegtschärfe hingegen skaliert (insbesondere ohne BFI) aber noch wesentlich weiter. Auch 240 Hz würde da noch einiges bringen.
Je langsamer die Bewegung desto wichtiger die Auflösung für die Details und Schärfe (wenn man wie gesagt Bewegtartefakte mal ausklammert). Bei schnellen Bewegungen ist temporale Auflösung wichtiger. Bzw weniger Sample and Hold. Das ist ein Stück weit das was John Linneman von DF auf seinem CRT aktuell so genießt. CRTs haben ja kein Sample+Hold. Dazu 120 fps/Hz -> sehr schön scharf.
Auf einem LCD klaut BFI leider ziemlich viel Helligkeit und leider ist es nicht mit VRR so wirklich kompatibel (was ja IMO, wenn man es jemals benutzt wird, man nicht mehr hergeben will).
Ich habe noch keinen 240 Hz Monitor besessen. Aber die SloMoGuys haben mit Linus da mal einen Test gemacht und der hat ziemlich drastisch die Bewegtschärfe gezeigt.
Bis dato gibt es bei 240 Hz ja auch nur Müll. Fast nur TN und FullHD. Bei 1440p gibt es dort auch nur TN. 165 Hz und 1440p sind hier im Moment das Höchste der Gefühle.
21:9 1440p könnte wegen der netteren Immersion noch ein guter Kompromiss sein.
Das gilt aber auch nur, sobald man bewegten Objekten mit dem Auge folgt. Ansonsten ist der Effekt der gleiche wie beim schauen aus dem Fenster. Imo ein Grund, weswegen das abseits shootern nicht so wichtig ist.
robbitop
2019-10-05, 20:38:05
Es ist wichtig wenn man und wo man Details in Bewegung sehen will.
BlacKi
2019-10-05, 20:46:37
21:9 1440p könnte wegen der netteren Immersion noch ein guter Kompromiss sein.
hab ich mit meinem fernseher versucht. läuft, ist aber massiv unscharf, da läuft wohl ein interner scaler.
Nightspider
2019-10-06, 01:28:05
Ich habe noch keinen 240 Hz Monitor besessen. Aber die SloMoGuys haben mit Linus da mal einen Test gemacht und der hat ziemlich drastisch die Bewegtschärfe gezeigt.
Jain. Zum einen war das Video sehr, sehr beschränkt in seiner Aussagekraft. 3 Noobs in einem völlig isolierten Reaktionstest sagt eigentlich nur eins aus: 240 Hz sind besser als 60Hz.
Aber sind 240Hz auch besser als 120Hz? Der Unterschied dürfte viel kleiner sein als von 60 auf 120Hz. Zudem ist der Test extrem beschränkt durch die Reaktionszeit der 3 Videomacher.
Wichtig bei schnellen Shootern ist auch der periphere Blickfeld, wo das menschliche Gehirn noch empfindlicher für schnelle Bewegungen ist und das wird bei so einem Test gar nicht berücksichtigt, wo eine Figur plötzlich erscheint und dann die immer gleiche Bahn läuft.
Gut möglich das 144Hz schon zu 98% das abdeckt, was die menschlichen Nervenzellen können.
robbitop
2019-10-06, 08:23:34
Ja naja. Ich sehe bei 144 Hz immernoch Holdtypeschlieren. Und das nicht unwesentlich. Und die kosten Schärfe. Wenn ich das mit 120Hz BFI vergleiche, sehe ich da noch einiges an Potenzial.
Ich meine auch gar nicht irgendeine Trefferrate. Ich spiele nur Offline. :)
Mir geht es dabei nur um Schärfe in Bewegung.
4K60 gsync habe ich besessen - ging mangels Bewegtschärfe nach 2 Wochen zurück und 1440p144 habe ich zum Vergleich. Der kann auch 120bfi.
Also das Potential oberhalb 120 ist für mich in dem Aspekt deutlich sichtbar. Wesentlich sichtbarer als nur mehr Auflösung.
Nostalgic
2019-10-06, 11:39:59
Dachte immer man profitert bei hohen Herzfequenzen auch von besserer Ergonomie.
Sprich das es für die Augen angenehmer ist, selbst im Office.
aufkrawall
2019-10-06, 12:24:49
Natürlich. Nützt nur nichts, wenn diese "Gaming"-Anzeigeräte ansonsten eine Bilddarstellung für den Arsch haben.
Dachte immer man profitert bei hohen Herzfequenzen auch von besserer Ergonomie.
Sprich das es für die Augen angenehmer ist, selbst im Office.
Nö. Wie kommst du darauf? Das war früher so, als es eben bei 60Hz geflimmert hat.
aufkrawall
2019-10-06, 13:09:06
Ah ja, er wird das so gemeint haben. Mehr Hz sind aber natürlich auch auf dem Desktop angenehm.
Das bezweifle ich. Angenehm ja, beim Fensterschubsen. Aber ergonomischer? Nö. Und ja, ich kenne beides.
Tobalt
2019-10-06, 13:25:57
auch die Ergonomie erhöht sich, da man mit der maus einfach treffsicherer ist und dadurch bin ich zumindest weniger verkrampft
Mit der Treffsicherheit habe ich da noch nie Probleme gehabt. Aber ich spiele auf der Arbeit ja auch keine Browsergames...
aufkrawall
2019-10-06, 13:33:21
Das bezweifle ich. Angenehm ja, beim Fensterschubsen. Aber ergonomischer? Nö. Und ja, ich kenne beides.
Angenehmer, aber nicht ergonomischer? Finde den Widerspruch...
robbitop
2019-10-06, 18:00:26
Ist schon netter. Die Schrift bleibt in Bewegung schärfer. Man trifft etwas gezielter. IMO merkt man das "blind" schon in Windows.
Ich bewege aber nicht die Fenster während ich lese, das ist etwas anderes als beim iPAD. Zu 99% sind die Inhalte beim Arbeiten statisch und wer Probleme beim Treffen der Symbole mit der Maus hat, sollte sich mal untersuchen lassen. Was hingegen zieht, sind hohe DPI.
just4FunTA
2019-10-06, 19:10:59
selbst das scrollen hier im Forum ist mit höherer hz Zahl angenehmer..
Ich scrolle mit dem Mausrad, da macht es keinen Unterschied.
just4FunTA
2019-10-06, 19:29:20
ich auch und das ist mit höherer hz fürs Auge angenehmer als mit niedriger..
Mein Rad rastert sprunghaft und da macht es keinen Unterschied.
robbitop
2019-10-06, 19:58:31
Ich bewege aber nicht die Fenster während ich lese, das ist etwas anderes als beim iPAD. Zu 99% sind die Inhalte beim Arbeiten statisch und wer Probleme beim Treffen der Symbole mit der Maus hat, sollte sich mal untersuchen lassen. Was hingegen zieht, sind hohe DPI.
Verschiedene Menschen haben verschiedene Angewohnheiten.
Es geht auch nicht darum, dass etwas binär ist. Also geht oder nicht geht. Es ist einfach netter.
Es liest sich so als hättest du nie einen 120 Hz+ Monitor genutzt?
Habe ich doch geschrieben. Ich habe einen genutzt. Ja es flutscht, aber mehr auch nicht.
robbitop
2019-10-06, 20:38:02
Die Vorteile bezüglich Bewegtschärfe und Inputlag sind eindeutig. Inwiefern und wie intensiv das als Vorteil betrachtet wird ist wahrscheinlich abhängig von der individuellen Wahrnehmung.
bnoob
2019-10-07, 11:14:03
Ich scrolle durch lange Texte gerne mit Mittelklick, und da ist es echt ein krasser Unterschied. Mit gerastertem Scrollrad nicht, ja.
Ein anderer Usecase bei mir auf der Arbeit wäre schneller Konsolenoutput o.ä., man erkennt bei 144Hz noch eher was wenn es schnell vorbeifliegt als bei 60Hz.
Mein Rad rastert sprunghaft und da macht es keinen Unterschied.
Ob 60 oder 120Hz macht schon einen riesen Unterschied nur beim ziehen von Fenstern.
Bei 60Hz sieht man eindeutig quasi einen Rolling Shutter Effekt der mit 144Hz nicht mehr da ist.
Daredevil
2019-10-07, 23:28:39
Den ASUS ROG Strix XG438Q, 43" 120hz 4k Moni kann man aktuell im Alternate Outlet ( Mit Newsletter Link ) günstig erschnappern.
Geizhals Neupreis ist 1148€
Bezahlen kann man, wenn noch was da ist, knapp 770€.
Ein paar 65" BFG Displays sind auch noch da für "nur" 2400€.
bnoob
2019-10-07, 23:41:16
...und führe mich nicht in Versuchung...
TobiWahnKenobi
2019-10-09, 08:47:14
Die Vorteile bezüglich Bewegtschärfe und Inputlag sind eindeutig. Inwiefern und wie intensiv das als Vorteil betrachtet wird ist wahrscheinlich abhängig von der individuellen Wahrnehmung.
wahrnehmung und gewöhnung.. mir hat das fensterschubsen mit 120Hz damals ne menge spaß gemacht.. muss jetzt ca 7-8 jahre her sein, als 3d-vision und/oder zocken auf dem beamer noch was tolles war. abseits der frequenzen waren die bildschirme aber alles gurken (darunter auch asus mit 3x tauschen lassen und nervigem support).
mehr hertzen sind immer toll, aber bei mir lösen die aktuellen geräte noch keinen kaufrausch aus. mag daran liegen, dass an der wand vor meinem schreibtisch schon ein 43" hdr1000 gerät hängt und ausser ein paar hertz gewinne ich durch einen wechsel nix. irgendwie möchte ich auch nix von asus (bauchgefühl) -> voll zufrieden mit philips (ohne das gerät je getauscht haben zu müssen).
(..)
mfg
tobi
robbitop
2019-10-09, 09:32:15
Das Maß an Verbesserung ist leider nicht besonders groß gewesen.
In den Feldern Auflösung, Refreshrate, Kontrast, Helligkeit, VRR schon - aber in der Regel kommen nur einige dieser Verbesserungen jedoch nicht alle gleichzeit in einem Gerät hervor.
Daredevil
2019-10-09, 12:24:46
@TobiWahnKenobi
Was hängt bei dir denn an der Wand? :)
Ich habe meinen ersten Asus gestern erfolgreich verkauft und warte auf den zweiten von Alternate, weil er halt 240€ günstiger gewesen ist. ^^
Aktuell habe ich wieder die 27" WQHD Möhre auf dem Tisch und meine güte, ist das alles klein. :D
Man gewöhnt sich dann doch schneller als man denkt an die große Größe.
Gibt es eigentlich aktuell was im ~40-50" Fernsehbereich, was 120hz+, Async und HDMI 2.1 abdeckt für um die 1000€?
Weil anstatt sich nun mit einem "Gaming Monitor" bei Kinofilmen einzuschränken ( VA Panel.. ), könnte man auch einfach ein Film fokussiertes Gerät holen, wo man einfach schnellstmöglichst ne GPU mit HDMI 2.1 nachreicht.
TobiWahnKenobi
2019-10-09, 14:46:40
@TobiWahnKenobi
Was hängt bei dir denn an der Wand? :)
Philips Momentum 436M6VBPAB, wenn ich mich nicht irre.
der da:
Philips Momentum 43 - 108 cm (43 Zoll), LED, VA-Panel, 4K UHD-Auflösung, HDR, Quantum.. (https://www.notebooksbilliger.de/philips+momentum+43/eqsqid/cf072388-0797-47c0-b8b4-dffad5ade265)
(..)
mfg
tobi
Gibt es eigentlich aktuell was im ~40-50" Fernsehbereich, was 120hz+, Async und HDMI 2.1 abdeckt für um die 1000€?
https://geizhals.eu/?cat=tvlcd&xf=122_HDMI+2.1%7E3952_OLED
55" 4K 120Hz VRR O-LED fängt bei ~1400.- an.
Wenn es den auch noch in ~45" um ~999.- geben würde,
wären wohl sehr viele glücklich ^^
Kommenden Herbst sollte sich das Bild aber schon komplett geändert haben ...
(dann gibt's auch Monitore mit HDMI 2.1 und DP 2.0 +Grakas die das dann endlich auch können)
(4K + 120Hz ist mit den alten Standards "total fürn arsch")
Weil anstatt sich nun mit einem "Gaming Monitor" bei Kinofilmen einzuschränken ( VA Panel.. ), könnte man auch einfach ein Film fokussiertes Gerät holen, wo man einfach schnellstmöglichst ne GPU mit HDMI 2.1 nachreicht.
This :up: Aber dann bitte nen O-LED :smile:
Ich liege ja schon länger vor 65" 4K ... kann also warten bis das richtig gute Zeugs da ist.
(zeugs zeugs zeugs ... glänziges!!! Bin im Moment wieder etwas GW2 geschädigt :ulol: der Schurke ist geil)
Bis dahin reicht mir die 1080Ti dicke.
Hab noch kein Spiel was ich nicht mit etwas Regler bedienen befriedigend zum laufen gebracht hätte :wink:
(und das optisch m.M.n noch oft viel zu viel glänzige RT brauch ich nicht ... da nehme ich noch eher 80" 8K :freak:)
M.f.G. JVC
Tobalt
2019-10-09, 15:55:03
Ohne jetzt eine Quelle parat haben, gibt es in meinem Hirn ein paar Bereiche, die mir suggerieren, dass ich mal gelesen habe, dass demnächst auch LG OLED in 43" oder 48 " kommen sollen. Also die mit HDMI 2.1 und 120 Hz
Kann das jd. bestätigen oder verneinen ?
https://www.4kfilme.de/lg-48-zoll-oled-tv-fuer-unter-1-000-euro-soll-im-4-quartal-2019-erscheinen/ (13. März 2019)
("LG: 48 Zoll OLED TV für unter 1.000 Euro soll im 4. Quartal 2019 erscheinen")
Zum 43" find ich nix ...
Wenn die noch kleiner werden, können sich die Monitorhersteller "schleichen" ^^
M.f.G. JVC
Kartenlehrling
2019-10-09, 16:33:52
210ppi OLED, nur von 120Hz schreiben sie nichts.
https://www.asus.com/media/global/products/SD1N7m9h1xe4mmbi/P_setting_000_1_90_end_500.png
https://www.asus.com/de/Monitors/ProArt-PQ22UC/overview/
ASUS ProArt PQ22UC Professional OLED Monitor - 54,86cm (21,6 Zoll), 4K, OLED, HDR-10, 99% DCI-P3
ASUS ProArt PQ22UC Professional OLED Monitor
https://geizhals.at/asus-proart-pq22uc-90lm047e-b01370-a1970091.html
60Hz mit DisplayPort 1.2 ...
~5000.- :eek:
M.f.G. JVC
bnoob
2019-10-09, 16:58:49
Weil anstatt sich nun mit einem "Gaming Monitor" bei Kinofilmen einzuschränken ( VA Panel.. ), könnte man auch einfach ein Film fokussiertes Gerät holen, wo man einfach schnellstmöglichst ne GPU mit HDMI 2.1 nachreicht.
Du meinst aber nicht ernsthaft IPS lol
Abseits OLED ist VA schon das beste für Filme.
basix
2019-10-09, 21:24:25
ASUS ProArt PQ22UC Professional OLED Monitor - 54,86cm (21,6 Zoll), 4K, OLED, HDR-10, 99% DCI-P3
Das Ding in 27", 144 Hz, 99% BT.2020 und FreeSync / Gsync Compatible und es wäre meins :D
Preis: Unbezahlbar
Lowkey
2019-10-14, 17:50:01
Selbst die 1900 Euro (bzw. 1800 Euro) - 3% Cashback sind mir beim Asus PG35VQ schon zu viel Geld.... obwohl 1000 Euro Rabatt.
Es ließt sich leider nicht optimal, wenn man das Review ließt. Mit HDR oder G-sync kann ich sowieso nichts anfangen.
PS: Alternate 20% Outlet Aktion.
Lowkey
2019-10-18, 10:31:54
Konnte nicht NEIN sagen.
Der Asus PG35VQ übertrifft den C49RG90 und auch den C49HG90 in Sachen Bildqualität. Asus holt aus dem VA Panel alles raus. Die Reaktionszeit und der Inputlag (https://static.techspot.com/articles-info/1867/images/2.png)sind gefühlt besser bzw. auf dem Level des alten TN 144hz von Benq. 200fps bei 200hz sind äußerst flüssig. Der Nachzieheffekt des Samsung C34F791 war relativ hoch. Der Asus hat hier deutlich weniger Nachteile. Der Halo-Effekt stört nicht wirklich. Der Kontrast ist immens hoch. Man erkennt auf Fotos mehr Details in dunklen Flächen. Jeder PG35VQ ist ab Werk kalibriert. Fehlerhafte Geräte sind wohl nicht bekannt. Die Serienstreuung betrifft nur die Ausleuchtung. Bei HDR=AN (Windows) ist ein schwarzer Bildschirm auch komplett schwarz. Ohne HDR hat man ein paar Flecken nicht so stark wie im Prad Test (https://www.prad.de/wp-content/uploads/2019/08/asus-pg35vq-schwarz-lang.jpg) Der olle Asus PG348Q und der scharfe Acer XR342CK werden glatt überholt. IPS sieht mit dem Glow bei der Wölbung alt aus. Zudem fühlen sich 100hz auf dem PG348Q sehr langsam an.
Das ABER:
Der Lüfter ist immer wahrnehmbar. Da haben sie bei der Qualität und Steuerung gespart. Mit Kopfhörer oder Lautsprechern im Spiel fällt es nicht auf.
Mein Fazit: Es ist interessant zu sehen was man derzeit unter einem Highend Gaming Monitor versteht und selbst dort gibt es Nachteile und Kompromisse. Die Frage ist die, ob der Monitor in naher Zukunft überholt werden wird? Mit der ollen 2070 kann ich 200fps nicht halten. Ein 4k Monitor wäre selbst bei geringsten Details nicht bei 200hz/fps.
Die Frage ist die, ob der Monitor in naher Zukunft überholt werden wird?
Ziemlich sicher im nächsten Jahr schon.
DP 2.0 und HDMI 2.1 sind Pflicht wenn man 4K und 120Fps übertragen können will.
Die aktuell noch immer verwendete Übertragungstechnik ist einfach total veraltet/am Ende.
Vielleicht bringt auch LG neben dem 48" 4K 120Hz VRR O-LED mit HDMI2.1 (angeblich unter 1000.-)
https://www.golem.de/news/lg-kleine-48-zoll-oled-fernseher-kommen-bald-1906-141713.html
wirklich noch einen mit 43"...
M.f.G. JVC
Robspassion
2019-10-18, 13:51:56
Glückwunsch zum PG35VQ. Ist ein geiles Teil :)
Lowkey
2019-10-18, 14:50:09
Ziemlich sicher im nächsten Jahr schon.
DP 2.0 und HDMI 2.1 sind Pflicht wenn man 4K und 120Fps übertragen können will.
Die aktuell noch immer verwendete Übertragungstechnik ist einfach total veraltet/am Ende.
Vielleicht bringt auch LG neben dem 48" 4K 120Hz VRR O-LED mit HDMI2.1 (angeblich unter 1000.-)
https://www.golem.de/news/lg-kleine-48-zoll-oled-fernseher-kommen-bald-1906-141713.html
wirklich noch einen mit 43"...
M.f.G. JVC
Mein Problem ist, dass man laufend auf neue Monitore (oder TVs) wartet und sie dann doch Nachteile haben oder gar dicke Schwächen wie der neuere Asus 43" Strixweissnichtwas.
Nun kann meine 1080Ti die 200fps in Fortnite liefern. Wie sieht es mit 120fps bei 120hz in 4k aus? Wie hoch ist der Inputlag?
34" ist ideal. Ich wollte eigentlich mehr haben, aber ein Tag vor einem 55" Fernseher und man hat keine Lust mehr.
Wie sieht es mit 120fps bei 120hz in 4k aus?
Wie hoch ist der Inputlag?
Der neue HDMI 2.1 Standard kann 120fps/hz in 4K übertragen. (nur Graka kanns noch keine :mad:)
Der Inputlag liegt bei den O-LED bei "~6ms at 120Hz"
https://www.eurogamer.net/articles/digitalfoundry-2019-05-09-best-2019-4k-tvs-for-hdr-gaming-7009
Mein Samsung Q-LED hat ~14ms bei max 60fps/hz bei 4K (mehr schafft der alte Standard nicht)
34" ist ideal. Ich wollte eigentlich mehr haben, aber ein Tag vor einem 55" Fernseher und man hat keine Lust mehr.
Geschmackssache :wink:
Sitze/liege schon länger vor 4K 65" und will MEHR :freak: (auch mehr DPI)
Ein Fernsehkastl(niedriger als ein Tisch) und ein großes Tablett für den Couchsessel sind empfehlenswert.
Für den Freizeit-Spiele-Computer brauch Ich keinen Schreibtisch...
M.f.G. JVC
Gouvernator
2019-10-20, 20:08:31
Glückwunsch zum PG35VQ. Ist ein geiles Teil :)
Warum bei dem Preis keinen 75" Samsung mit 4k/120Hz und per Custom Auflösung 3840x1440?
Robspassion
2019-10-20, 21:07:55
Weil ich schon nen 75er habe und der nicht so gut auf den Schreibtisch passt :D.
Daredevil
2019-10-20, 21:17:33
Mein Problem ist, dass man laufend auf neue Monitore (oder TVs) wartet und sie dann doch Nachteile haben oder gar dicke Schwächen wie der neuere Asus 43" Strixweissnichtwas.
Jo, da bin ich jetzt aber auf der sicheren Seite. ^^
Den erstem Outlet Asus 43" habe ich für +5% EK wieder verkaufen können, also eben für 1050€.
Jetzt habe ich für die gleiche Kiste 770€ gezahlt. Wenn also in nächster Zeit Kisten und GPUs rauskommen, wo man nicht mehr auf den DP angewiesen ist, wird halt wieder verkauft. ^^
Neupreis sind ja für die Kiste aktuell 1200 Taler, da ist noch viel Spielraum beim Verkauf. Ist ja bei deinem Monitor auch nicht anders. ^^
USS-VOYAGER
2019-10-20, 21:57:49
Xiaomi steigt in den Monitor Markt ein:
https://www.chinahandys.net/xiaomi-gaming-monitor-mit-144-hertz-und-34-zoll-vorgestellt/
Für den Preis echt gute Specs.
Linmoum
2019-10-20, 22:45:33
Mehr als gut für den Preis, zumindest auf dem Papier.
Panel ist wohl ein 1500R-curved VA von Samsung. Für rund 300€ würde ich das Teil ja glatt mal ausprobieren wollen. :D Mal schauen, ob man es in EU/US auch bekommt. Würde mich eigentlich stark wundern, wenn die das nur in Asien auf den Markt hauen.
Lowkey
2019-10-20, 23:31:20
Bestimmt zum Teil identisch zum Xiaomi 34"?
https://geizhals.de/lc-power-lc-m34-uwqhd-100-c-a2140643.html?hloc=at&hloc=de
Ich erwarte auf dem deutschen Markt keine Kampfpreise. Ein 27" 100hz IPS Koreaner kostete 2013 auch nur um die 230 Euro als Import.
Ich erwarte aber dann eine Menge 34" Clone auf dem Markt. Ein Import Koreaner für unter 300 Euro wäre machbar.
Jo, da bin ich jetzt aber auf der sicheren Seite. ^^
Den erstem Outlet Asus 43" habe ich für +5% EK wieder verkaufen können, also eben für 1050€.
Jetzt habe ich für die gleiche Kiste 770€ gezahlt. Wenn also in nächster Zeit Kisten und GPUs rauskommen, wo man nicht mehr auf den DP angewiesen ist, wird halt wieder verkauft. ^^
Neupreis sind ja für die Kiste aktuell 1200 Taler, da ist noch viel Spielraum beim Verkauf. Ist ja bei deinem Monitor auch nicht anders. ^^
Da war ich gerade nicht am Rechner als das Angebot kam. Wobei Shopbuddies das Alternate Cashback wohl auszahlt.
Nightspider
2019-10-21, 02:05:30
Wird Zeit das der Monitor-Markt aufgemischt wird.
Das per Crowdfunding jetzt sogar ein Monitor realisiert wird habt ihr bestimmt auch mitbekommen.
x-force
2019-10-21, 04:51:24
Das per Crowdfunding jetzt sogar ein Monitor realisiert wird habt ihr bestimmt auch mitbekommen.
das teil wirkt überflüssig... welche einmaligen features entgehen mir?
Lowkey
2019-10-21, 10:06:34
Ich suche die sogenannten Bildfehler beim PG35VQ und werde zum Glück nicht fündig.
Und ob OLED VA/IPS oder TN ablösen wird? Der PG35VQ hat wie mein damaliger Qnix sehr wenige Eingänge, was direkt mit dem Inputlag zusammenhängen muss. Je mehr Anschlüsse, desto langsamer? Und das Problem mit OLED ist immer noch der Burn-In. Diverse Leute hier hätten nach einem halben Jahr das 3Dc Forum eingebrannt :D Die Lösung wäre die Helligkeit stark zu reduzieren.
das teil wirkt überflüssig... welche einmaligen features entgehen mir?
Ich sage es mal so: Er ist ein Monitor mit LGs neuem 144Hz Nano-IPS-Panel. Der einzige Monitor der das hat und schon veröffentlicht wurde ist regelmäßig ausverkauft, weil es wirklich sehr gut ist für ein Gaming-Panel.
Der Crowdfunding Monitor bietet zwei aktive Anschlüsse mit Picture in Picture gedöns und anders als der LG kann er übertaktet werden und hat ein Strobing Backlight. Gerade das mit dem OC ist eine feine Sache, weil das Panel wohl von Haus aus ein 165Hz-Panel ist, dass lediglich durch den Scaler begrenzt wird.
Wenn der Monitor erst nächstes Jahr kommt weiß ich nicht ob er noch so einschlagen wird, aber er ist halt etwas besser als der derzeit gesuchteste Monitor überhaupt. Daher der Hype denke ich. Wahrscheinlich hilft den Machern auch, dass die vorherigen Projekte wohl eher gut liefen.
Lowkey
2019-10-21, 10:28:38
Ich finde den Crowdfunding Monitor nicht. Link?
Also dieses Bild sollte Flimmern:
https://pcmonitors.info/wp-content/uploads/2019/09/snowy-village.jpg
Wohl der hier:
https://www.hardwareluxx.de/index.php/news/hardware/monitore/51129-crowdfunding-fuer-monitor-eve-spectrum-kommt-mit-27-zoll-und-165-hz.html
Ich sehe da nichts besonderes. IPS-WQHD-Möhre mit 165Hz.
BlacKi
2019-10-21, 12:10:20
hat hier jemand erfahrung mit der LG c9 serie und der RTX serie? ich finde es schwer erfahrungen dazu zu finden. youtube enttäuscht da komplett.
Lowkey
2019-10-21, 12:36:10
Fällt dir auch auf, dass es im Internet immer noch einen großen Mangel an Informationen gibt?
BlacKi
2019-10-21, 12:56:32
ja, leider. bis auf ein paar dürftige infos von privatpersonen auf yt.
vl muss ich selber tester spielen. 1080ti raus und 2070s rein, auch wenns schmerzt. ne 2080ti leg ich mir jetzt nichtmehr zu.
naja, black friday abwarten, auch wenn nichtglaube das da richtige schnäppchen dabei sein werden.
x-force
2019-10-21, 18:43:44
Der Crowdfunding Monitor bietet zwei aktive Anschlüsse mit Picture in Picture gedöns und anders als der LG kann er übertaktet werden und hat ein Strobing Backlight. Gerade das mit dem OC ist eine feine Sache, weil das Panel wohl von Haus aus ein 165Hz-Panel ist, dass lediglich durch den Scaler begrenzt wird.
.
danke!
sobald sie einen mit strobing in verbindung mit freesync funden wollen, bin ich auch dabei.
hat hier jemand erfahrung mit der LG c9 serie und der RTX serie? ich finde es schwer erfahrungen dazu zu finden. youtube enttäuscht da komplett.
Ich nehme an, das hier kennst Du schon längst, aber falls doch nicht:
https://www.youtube.com/watch?v=cP-KqgN_Cnk
Wird aber leider auch eine RTX 2080 Ti verwendet.
Lowkey
2019-10-21, 21:26:32
Der Nachzieheffekt ist bestimmt der Inputlag. Man merkt bei jedem Dreher die Verzögerung.
Ich vergleiche gerade den Samsung C34J791 mit dem Asus PG35VQ und dem Samsung C49HG90.
In Sachen Kontrast gewinnt der Asus.
In Sachen Hz auch der Asus.
Das Bild ist beim Asus eine Idee stabiler.
C49HG90 > C34J791
100hz auf dem C34 sind ruckelig im Vergleich zum C49 (144hz) und PG35 (200hz).
Sync war aus. Es ging mir nur um Helligkeit/Kontrast/Schwarzwert.
Trotz des Lüfters ist der Asus für das Auge ein Wohltat. Die Helligkeit habe ich nun auf 100%, Kontrast auf 50% und 200hz + schnellste Einstellungen. Und es läuft...
Deisi
2019-10-22, 21:56:03
Kann der Monitor wirklich 12 Bit? Ist bei mir unter 120Hz einstellbar. :confused:
Die HDR Bildqualität ist wirklich extrem gut. Deshalb habe ich mir den Montior auch geholt, da leider kein anderer Gaming Monitor "echtes" HDR bietet.
Nightspider
2019-10-22, 22:09:32
Ich sage es mal so: Er ist ein Monitor mit LGs neuem 144Hz Nano-IPS-Panel. Der einzige Monitor der das hat und schon veröffentlicht wurde ist regelmäßig ausverkauft, weil es wirklich sehr gut ist für ein Gaming-Panel.
Der Crowdfunding Monitor bietet zwei aktive Anschlüsse mit Picture in Picture gedöns und anders als der LG kann er übertaktet werden und hat ein Strobing Backlight. Gerade das mit dem OC ist eine feine Sache, weil das Panel wohl von Haus aus ein 165Hz-Panel ist, dass lediglich durch den Scaler begrenzt wird.
Wenn der Monitor erst nächstes Jahr kommt weiß ich nicht ob er noch so einschlagen wird, aber er ist halt etwas besser als der derzeit gesuchteste Monitor überhaupt. Daher der Hype denke ich. Wahrscheinlich hilft den Machern auch, dass die vorherigen Projekte wohl eher gut liefen.
Hieß es nicht auch das die beim LG Panel ein andere Coating verwenden wollen um den Kontrast zu erhöhen?
Computerbase schrieb:
Gegenüber dem LG-Monitor soll aber ein anderes Backlight mit höherer Helligkeit (400 cd/m² statt 350 cd/m2) und auf höheren Kontrast getrimmtem Polarisationsfilter zum Einsatz kommen, das zudem Local Dimming mit acht LED-Zonen biete. Außerdem ist eine Backlight-Strobing-Technik zur Reduzierung von Bewegungsunschärfe (Motion Blur) geplant, die der Eve Spectrum dem 27GL850 voraus hätte. Per Übertaktung sollen die 144 Hz des LG 27GL850 bei der Bildwiederholrate überboten und Spiele mit bis zu 165 Hz dargestellt werden. FreeSync und G-Sync (Compatible) im Frequenzbereich von 48 Hz bis 165 Hz sind außerdem angedacht.
Ich weiß nur nicht was die mit 8 Dimming Zonen anfangen wollen. :ulol:
Das Local-Dimming ist raus und zum Polarisationsfilter finde ich auf der offiziellen Seite auf die Schnelle auch nichts:
https://eve.community/t/feature-update-early-october/18904
Bleibt etwas mehr Helligkeit...
Imo ist der Monitor hier im Thread fehl am Platze. Der Titel lautet bessere Monitore.
Ich finde es passt schon. Wenn es den Monitor jetzt zu kaufen gäbe wäre er IMO sehr interessant. Ob er das das nächstes Jahr noch ist? Ich hoffe nicht! :)
akuji13
2019-10-23, 12:35:30
Ob etwas besser ist bleibt letzlich doch oft subjektiv und eine Frage des Standpunktes.
Vor allem wenn nur Teilbereiche besser werden und andere dafür sogar schlechter.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.