Archiv verlassen und diese Seite im Standarddesign anzeigen : Bessere Monitore?
Adaptive Sync funktioniert.
Das mag ja sein, das es funktioniert. Wir wissen doch aber noch gar nicht, wie es dann mit den Geräten tatsächlich so arbeiten wird. Du weißt doch gar nicht, wie gut oder schlecht die Hersteller das dann implementieren werden.
Schau Dir mal den Chipsatz-Bug bei Intel an, den sogenannten USB-Bug. Das ist kein Problem der Normierung, richtig, aber ein Problem in der Praxis, und die Leute haben reihenweise diese Platinen gekauft, und hatten Probleme. Das ist nun mal das Leben und die Praxis.
Warum muss man das mit "Wenn Freesync genauso gut und problemlos läuft und AMD es schafft" relativieren?
Würdet ihr die gleich Chose auch bei Intel veranstalten, falls sie Adaptive Sync in ihren SoCs implementieren?
Siehe USB-Bug.
Wegen Dir hab ich jetzt Boxen verpaßt, Mist. :mad:
Unicous
2014-11-16, 01:02:58
@Grestorn
Doch. Der VBLANK Befehl ist genauso ausgelegt. Er wurde nur nie dafür verwendet die Wiederholrate adhoc und variabel zu verändern sondern eben den üblichen Intervallen 30, 60,... .
Nun übernimmt der Treiber das. Er sendet den Befehl und ein Monitor dessen Hardware dazu in der Lage ist den VBLANK dynamisch zu verarbeiten veranlasst den Bildaufbau.
Ich kann das nicht so elegant erklären wie Gipsel, es ist aber kein Voodoo sondern klar wie Kloßbrühe. Es hat sich bloß jahrelang keiner dafür interessiert. Weil es Geld kostet.
Die Monitorhersteller nutzen weiterhin alte Protokolle, die schon längst von eDP und Co. drei und vierfach überholt wurden. Apple hingegen nutzt eDP bereits seit Jahren in sehr vielen Geräten u.a. (iirc) im iPad.
Es ist keine Raketenwissenschaft... denn Nvidia macht es genau so.;)
Nur eben mit eigener Hardware, die sie den Monitorherstellern verkauft.
@PHuV
Ich weiß nicht wie oft ich es noch sagen muss. Adaptive Sync ist ein (optionaler) Standard von DP 1.2a und DP 1.3. Wer sich nicht an die Spezifikationen hält, der stellt eben minderwertige Ware her.
Was hat das mit Adaptive Sync/Freesync/G-Sync zu tun?
Genauso kann ein Monitorhersteller einen Fehler bei einem G-Sync Monitor machen. Wirkt sich das dann auf deine Wahrnehmung von G-Sync aus, oder denkst du nur, der Hersteller hat Mist gebaut.
Und wie sieht das bei einem potentiellen Adaptive Sync-Monitor aus?
@PHuV
Ich weiß nicht wie oft ich es noch sagen muss. Adaptive Sync ist ein (optionaler) Standard von DP 1.2a und DP 1.3. Wer sich nicht an die Spezifikationen hält, der stellt eben minderwertige Ware her.
Optional. Und wie gesagt, nimmt die Beispiele mit HDMI und USB 2.0/3.0. Selbst ein Standard sichert nicht automatisch, daß etwas auch reibungslos funktioniert, und das willst Du nicht begreifen. Das wird sich sicher nach ein paar Jahren, wie bei allen Technologien, einpendeln. Man muß aber immer mit Anfangsschwierigkeiten rechnen, wenn etwas neues eingeführt wird. Und wenn Du das nicht kapieren willst, bist Du entweder sehr jung (und hast nicht die entsprechenden Erfahrungen gemacht) oder schlichtweg ignorant oder engstirnig. Die Zeitschriften sprechen doch Bände, liest Dir mal alte Ausgaben von c't und Co. durch. Das fing damals mit neuen Ram- und Busstandards wie Laufwerkschnittstellen an, sei es MFM, RLL, dann IDE und SCSI, die ersten CD-Roms, bis zu den verschiedenen Bussystemen ISA, Vesa Local Bus, AGP, PCI, PCIe usw. Wie viele Beispiele willst Du noch haben? Die haben alle durch die Bank weg am Anfang Probleme gemacht, da ist kaum etwas reibungslos verlaufen. Wenn das so reibunglos ginge, warum brauchen wir seit Anbeginn IT-Technologie permanent Test, wie was mit welchen Komponenten im SW oder HW-Bereich zusammenarbeitet?
Wenns gut läuft, schön, mal ein positives Beispiel. Fakt ist aber, es gibt selten etwas, was neu ist, was auf Anhieb dann auch entsprechend gut funktioniert. Wenn Du in der IT arbeiten würdest, wüßtest Du das.
Unicous
2014-11-16, 02:28:29
Was haben deine persönlichen (negativen Erfahrungen hier zu suchen? Mit USB wird aller Orten Schindluder getrieben. Es wird dann behauptet das Kabel hielte sich an die spec tut es aber nicht. Was sagt das über die spec an sich aus?
Nichts.
Btw woher weißt du wo ich arbeite?
Was haben deine persönlichen (negativen Erfahrungen hier zu suchen?
Ok, ist also alles, was so in diversen Computerzeitschriften persönlich? Soso. :rolleyes: Und auch die ganzen Userberichte, persönlich. Und Du hast doch angefangen, mir was zu unterstellen, wo ich lediglich sagte, daß ich das erst sehen will und abwarte mit meinem Urteil. Meine Erfahrungsberichte sollten lediglich Dir aufzeigen, warum ich abwarte. Und nun unterstellst Du mir daß auch noch. Du bist echt ein seltsamer Vogel.
Btw woher weißt du wo ich arbeite?
Ich weiß nur, wo Du definitiv nicht arbeitest. Ganz simples Ausschlußverfahren.
Bisher gab es von FreeSync noch nichts zu sehen, wir wissen nicht mal, welcher Monitorhersteller es unterstützt, und Du weißt schon, wie gut alles werden wird.
Warum wird wohl aktuell G-Sync nur mit TN-Panels gemacht? Wie will man bei langsameren IPS-/PLS- und PVA-Panels mit Free/A-Sync die Bildsynronisation sicherstellen? Zaubern kann ja A-Sync auch nicht, oder? Also, warum soll dann A-Sync das Wundermittel sein, was bei IPS-Panels (oder vergleichbaren) mit einer entsprechenden Frequenzteiler funktionierten soll? Wie wird dann der natürlichen Trägheit der IPS-Panel entgegengewirkt? Hier muß doch mit großer Wahrscheinlich definitiv mehr gemacht werden, als nur Frequenzteiler einbauen und hoffen, daß das Panel auch packt, oder nicht? Wo gibt diese Infos zu lesen, mit Quellen bitte?
Beantworte mir bitte diese Fragen genau, so daß ich es technisch verstehe.
Unicous
2014-11-16, 11:24:00
Du drehst dich im Kreise und trägst nicht viel Neues zum Thema bei, deine Anekdoten/Erfahrungsberichte/whatever bekräftigst du auch nicht, indem du sie zigfach wiederholst. Ich unterstelle dir gar nichts, du besitzt anscheinend nicht die Fähigkeit zu differenzieren und verbreitest weiterhin FUD ohne technische Grundlage, nur dein Gefühl und deine Erfahrung sagt dir das. Das hat aber nichts mit der Realität zu tun.
Hättest du das Gleiche gesagt, wenn dein 4K GS Monitor nicht in Ordnung gewesen wäre, oder hättest du dir gesagt, es ist ein Montagsmodell ich werde es umtauschen, an G-Sync wird es nicht liegen?
Auch hier tippe ich wieder Ersteres. Dein conformation bias sitzt sehr tief.
Das Zeug was du über IPS-Panels und Co. brabbelst ist echt nicht mehr feierlich.
Dir fehlt das Hintergrundwissen und folglich verbreitest du unnötig FUD.
Thomas Gräf
2014-11-16, 11:28:02
Der Thread is jetzt über vier Jahre alt, und was hat sich getan? Wir haben immernoch Top Standbild Betrachtungsgeräte. Hoffentlich schaffen VR Geräte wie die Rift mal den Sprung zur flüssigen Darstellung ansonsten gibt es diesen Klage Thread wohl noch in 10 Jahren...ja ich sehs inzwischen genauso wie PHuV. ;)
Ich unterstelle dir gar nichts
Aha, ich zitiere:
Du bezichtigst damit VESA der Lüge.
:
Du bezichtigst damit auch Intel der Lüge, die nämlich die gleiche Technik schon vor 3 Jahre öffentlich gezeigt haben, nur unter der Stromsparprämisse.
Und weiter kommt von Dir gleich im weiteren Satz eine weitere üble Unterstellung:
du besitzt anscheinend nicht die Fähigkeit zu differenzieren und verbreitest weiterhin FUD ohne technische Grundlage,
:
Dir fehlt das Hintergrundwissen
Du weißt wirklich nicht, was Du da schreibst, oder? Oder leidest Du schon so an Wahrnehmungsverzerrung?
Das Zeug was du über IPS-Panels und Co. brabbelst ist echt nicht mehr feierlich.
Dir fehlt das Hintergrundwissen und folglich verbreitest du unnötig FUD.
Ach, wenn Du das Hintergrundwissen den hast, dann erklär mich doch mal bitte, wie A-Sync nun mit den IPS-Panel funktionieren soll? Was weißt Du aktuell, was wir nicht wissen? Warum gibt es den noch kein G-Sync mit IPS-Panel. Für einen, der nicht mal IT-Wissen, hat, schon starker Tobak. :rolleyes:
Dann beantworte doch meine Fragen, wenn Du es wirklich besser weißt. Nicht mal die Fachzeitschriften können diese Fragen beantworten, aber der ach so gescheite (ohne IT-Wissen) und überaus schlaue Unicous (der nicht mal über entsprechende Hardware verfügt), weiß alles besser. Junge, ich hab hier aktuell mehr Hardware rumstehen, als Du jemals im Leben besitzen wirst. Klar weiß ich nicht alles, aber ich bin wenigstens nicht so ein Blender wie Du, der gar nichts weiß. Aber anstatt das Du mal den Mund einfach hältst oder mal endlich gescheite Antworten gibst, kommen nur Unterstellungen und falsche Interpretationen von Dingen, die so nicht gesagt wurden.
Also, gib Antworten, oder schweig. Nochmals, wie überwindet A-Sync die größere Trägheit der IPS-Panels, was G-Sync aktuell auch nicht schafft, wenn man den Zeitschriften glauben mag? c't schreibt in Heft 24/2014 auf Seite 140:
Da das Backlight synchron zur Bildwiederholfrequenz getaktet wird, bietet es sich für eine möglichst flimmerarme Darstellung an, ULMB im 120-Hz-Modus zu betreiben. Das Blinking Backlight lässt sich nicht in Kombination mit dem ruckelfreien G-Sync Modus nutzen. Falls die Grafikkarte weniger als 60 fps schafft, würde das dann zu langsam pulsierende Backlight unerträglich flimmern. Das Backlight unabhängig von G-Sync immer mit 120 Hz zu takten, würde hingegen zu Interferenzen führen.
:
Blickwinkelstabile IPS-Panels schaffen bislang selbst mit Overdrive keine besonders flotten Schaltzeiten . Bei den getesteten Gaming-Monitoren kommen deshalb flinkeTN-Pa nels zum Einsatz, deren stärkere Blickwinkelabhängigkeit abe r zulasten der Bildqualität geht:
Mag ja sein, daß ich keine Ahnung habe, aber ich kann lesen. Oder sind die bei c't jetzt alle blöde, oder schreiben nur Unsinn? Warum schreiben dann so viele Zeitschriften und Onlineberichte ähnliches?
Du weißt, wer c't ist, oder nicht? Liest Du überhaupt solche Zeitschriften? Oder andere ähnlich kompetente?
Gipsel
2014-11-16, 14:06:22
Ich würde den Streithähnen empfehlen, hier wieder etwas zivilisierter zu diskutieren.
@Topic:
Wie man Black-Frame-Insertion bzw. Backlight-Strobing mit variablem Refresh (G-/A-Sync) kombinieren könnte (was insbesondere für langsamere Panels wichtig ist, da da ein continous-backlight ziemlich übel bei Bewegungen wirkt), hatte ich schon ganz am Anfang bei der Ankündigung von G-Sync beschrieben. Da inzwischen auch Monitore mit sehr hohen PWM-Frequenzen (>20kHz) für das Backlight angekündigt sind, vereinfacht das die Implementierung der von mir damals vorgeschlagenen Lösung erheblich. Es kann also durchaus sein, daß da was kommt.
Achja, die ct hat zum Thema G-/A-Sync durchaus schon ziemlichen Blödsinn geschrieben (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10219848#post10219848) (der zitierte Abschnitt gehört nicht dazu, aber offenbar erkennen sie da auch nicht die naheliegende Lösung: sehr hoher Takt für die PWM-Backlight-Regelung).
Da inzwischen auch Monitore mit sehr hohen PWM-Frequenzen (>20kHz) für das Backlight angekündigt sind, vereinfacht das die Implementierung der von mir damals vorgeschlagenen Lösung erheblich. Es kann also durchaus sein, daß da was kommt.
Wieder reine Spekulation. Tatsächlich ist da bisher nichts genaueres bekannt. Mal nachgefragt, welcher Hersteller bzw. welchen genauen Monitormodellen wurde den angekündigt, muß mir irgendwie entgangen sein.
Gipsel
2014-11-16, 15:21:19
Wieder reine Spekulation.Wieso wieder?
Tatsächlich ist da bisher nichts genaueres bekannt. Mal nachgefragt, welcher Hersteller bzw. welchen genauen Monitormodellen wurde den angekündigt, muß mir irgendwie entgangen sein.Das wurde hier schon mal angesprochen (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10399276#post10399276). Z.B. der NEC PA322UHD (http://www.necdisplay.com/p/desktop-monitors/pa322uhd-bk), 4k@24...87Hz, FullHD@120Hz, IGZO/IPS und PWM-Backlight@20kHz. Mit sowas als Basis, geht dann aus technischer Sicht die Umsetzung von A-Sync auch hinreichend einfach (es gibt keine wirklichen Hürden mehr, es muß nur mit einem passenden Scaler umgesetzt werden, sogar die Kombination von A-Sync+BFI [bzw. Strobing wenn nahe an 120Hz@1080p] wäre möglich). Ist halt im Moment noch ein wenig teuer und sie machen es offenbar noch nicht, aber wir sind ja im Technologie-Thread. ;)
Gynoug MD
2014-11-16, 15:27:50
Wenns gut läuft, schön, mal ein positives Beispiel. Fakt ist aber, es gibt selten etwas, was neu ist, was auf Anhieb dann auch entsprechend gut funktioniert.
G-Sync läuft bei mir; und zwar auf Anhieb perfekt.
Ich finde der Riesen-Vorteil ist, auch für Gelegenheits-Spieler+sonstiges komisches Volk, wie z.B. Elektromarkt-Kunden, sofort ersichtlich.
Erst jetzt fällt mir so richtig auf, daß sich V-Sync an+60Hz wie ein zähes Kaugummi anfühlt.
Ich werd`gleich nochmal den Asus PG278Q anschließen, vielleicht behalte ich ihn ja doch...:freak:
Ist halt im Moment noch ein wenig teuer und sie machen es offenbar noch nicht, aber wir sind ja im Technologie-Thread. ;)
Stimmt, 3000 € ist schon nicht wenig.
G-Sync läuft bei mir; und zwar auf Anhieb perfekt.
Ich finde der Riesen-Vorteil ist, auch für Gelegenheits-Spieler+sonstiges komisches Volk, wie z.B. Elektromarkt-Kunden, sofort ersichtlich.
Bei mir ja auch, und hier sieht man, daß Nvidia es auch richtig in die Hand genommen hat. Jedoch funktioniert kein DSR mit SLI.
Tobalt
2014-11-16, 16:32:01
Ich hab früher, als ich noch ambitionierter Zocker war (mit CRT logischerweise), IMMER ohne Vsync gespielt.
bei 100 Hz konnte mit Vsync ja im schlimmsten Fall 10 ms zusätzlicher Inputlag entstehen. Außerdem ist der inputlag mit Vsync ja variabel was einfach grässlich war. Tearing hingegen ist da deutlich akzeptabler.
Mit den neuen Techniken wie GSync/FreeSync wäre es ja prinzipiell möglich, direkt nach Erhalt des Frames den bildaufbau zu starten.
Gibt es dazu Messungen, wie groß der Lag zwischen Bilderhalt und Bildaufbau dabei ist? Also der zusätzliche Lag gegenüber Vsync aus. Idealerweise ist der 0, aber in der Praxis gibt es da wohl auch verzögerungen. Das wäre meiner Meinung ein entscheidendes Qualitätsmerkmal zwischen Gsync/Freesync falls es unterschiede gibt.
PatkIllA
2014-11-16, 16:37:07
Mit den neuen Techniken wie GSync/FreeSync wäre es ja prinzipiell möglich, direkt nach Erhalt des Frames den bildaufbau zu starten.Es sollte prinzipiell möglich sein schon während Erhalt des Bildes den Bildaufbau zu starten.
FlashBFE
2014-11-17, 11:02:45
Ich hab früher, als ich noch ambitionierter Zocker war (mit CRT logischerweise), IMMER ohne Vsync gespielt.
bei 100 Hz konnte mit Vsync ja im schlimmsten Fall 10 ms zusätzlicher Inputlag entstehen. Außerdem ist der inputlag mit Vsync ja variabel was einfach grässlich war. Tearing hingegen ist da deutlich akzeptabler.
Mit den neuen Techniken wie GSync/FreeSync wäre es ja prinzipiell möglich, direkt nach Erhalt des Frames den bildaufbau zu starten.
Gibt es dazu Messungen, wie groß der Lag zwischen Bilderhalt und Bildaufbau dabei ist? Also der zusätzliche Lag gegenüber Vsync aus. Idealerweise ist der 0, aber in der Praxis gibt es da wohl auch verzögerungen. Das wäre meiner Meinung ein entscheidendes Qualitätsmerkmal zwischen Gsync/Freesync falls es unterschiede gibt.Ich vermute mal, die richtig guten Tests werden dann erst kommen, wenn beide Technologien verfügbar sind und man beides miteinander vergleichen kann.
Es könnte auch wieder so kommen, dass die Technologie selbst kaum einen Unterschied macht und es alles von der Implementierung in den einzelnen Monitoren abhängt. Denn bei den heutigen Monitoren gibt es ja auch immer noch eine riesige Spanne von Verzögerungen von <10ms bis >50ms. Dabei ist es mir ein Rätsel, warum ein Monitor drei und mehr Bilder puffern muss.
akuji13
2014-11-17, 12:40:35
Wenn Freesync genauso gut und problemlos läuft und AMD es schafft die Monitorhersteller dazu zu bewegen, das auf breiter Front anzubieten, dann haben sie auf jeden Fall einen echten Coup gegen nVidia platziert und deren Investition komplett obsolet gemacht.
Ich denke sie werden das Geld verschmerzen können.
Jedoch funktioniert kein DSR mit SLI.
Noch nicht.
Wie man Black-Frame-Insertion bzw. Backlight-Strobing mit variablem Refresh (G-/A-Sync) kombinieren könnte (was insbesondere für langsamere Panels wichtig ist, da da ein continous-backlight ziemlich übel bei Bewegungen wirkt), hatte ich schon ganz am Anfang bei der Ankündigung von G-Sync beschrieben.
Hast du da noch einen Link zu oder könntest du das bitte nochmal kurz zusammenfassen?
Nach meinem Verständnis benutzt man Black-Frame-Insertion ja, um den Hold-Type-Effekt zu minimieren. Der entsteht, da das Auge einer (nicht vorhandenen) kontinuierlichen Bewegung folgen will, und damit ein und der selbe Bildinhalt auf der Netzhaut "breitgeschmiert" wird. Kommt nun kurz ein Bild, dann Schwarz und dann wieder dasselbe Bild, hat man zwar kein schmieren mehr, aber dafür doppelte Bilder (bzw. Mehrfachbilder) auf der Netzhaut, wenn sich das Auge währenddessen bewegt. Auch nicht schön...
Eventuell könnte man mit Helligkeitsanpassung was machen, aber auch nur begrenzt, sonst flimmert es.
Pivot überflüssig: Eizo mit Quadrat-Display im 1:1-Format (http://www.computerbase.de/2014-11/pivot-ueberfluessig-eizo-mit-quadrat-display-im-1-1-format/)
Leider nur mit 1920x1920. Wenn das Ding auch mit UHD oder 4k in quadratisch gäbe, wäre das ein echter Knaller.
Kartenlehrling
2014-11-21, 00:45:29
der 27" im gebürsterem Aluminium Look von Philips gefällt mir, aber keine infos zu freesync .
http://chinese.vr-zone.com/134969/philips-announced-4k-uhd-lcd-and-monitor-in-taiwan-11192014/
272P4APJKES,IPS-AHVA, 2560 x 1440
FlashBFE
2014-11-21, 10:50:15
Pivot überflüssig: Eizo mit Quadrat-Display im 1:1-Format (http://www.computerbase.de/2014-11/pivot-ueberfluessig-eizo-mit-quadrat-display-im-1-1-format/)
Leider nur mit 1920x1920. Wenn das Ding auch mit UHD oder 4k in quadratisch gäbe, wäre das ein echter Knaller.
Das ist ein mutiger Schritt. Das Format könnte wie 21:9 eine neue lukrative Marktnische erschaffen oder wie Blei in den Regalen liegen bleiben, weil sich die Nutzer schon an Widescreen gewöhnt haben und viele Software darauf ausgelegt ist. Ich mache auf Arbeit nebenher noch ein wenig CAD mit meist kreisrunden Teilen, die von meinem 2560x1440 Monitor eben auch nur die beschränkte Höhe nutzen können. Durch einen quadratischen Zweitmonitor hätte ich da schon einen deutlichen Vorteil.
Die Auflösung ist gar nicht mal wenig. 1920x1920 sind exakt so viele Pixel wie 2560x1440. Man hat eben die übliche DPI von rund 100. Da der als CAD-Arbeitsmonitor verkauft wird, ist das für den Anfang gar nicht so schlecht, weil viele CAD-Software noch eher rustikal gebackene Oberflächen hat, die nicht skalierbar sind.
Frage an die ASUS ROG Swift PG278Q-Besitzer:
Wie variabel kann man im Desktop die Bildfrequenz einstellen? Und stimmt es, daß man nur 144 im Spiel, aber nicht im Desktop schafft?
akuji13
2014-11-21, 11:07:24
144Hz gehen unter Windows wie in Spielen.
Was meinst du mit variabel?
Zwischenschritte zwischen den üblichen 60, 85, 120, 144?
Godmode
2014-11-21, 11:11:24
144Hz gehen unter Windows wie in Spielen.
Was meinst du mit variabel?
Zwischenschritte zwischen den üblichen 60, 85, 120, 144?
IIRC taktet die GPU am Desktop nicht mehr runter, wenn man mehr als 120Hz verwendet.
differenzdiskriminator
2014-11-21, 11:17:31
IIRC taktet die GPU am Desktop nicht mehr runter, wenn man mehr als 120Hz verwendet.
Korrekt.
akuji13
2014-11-21, 11:39:38
Da habt ihr völlig recht, ist ja seit langem bekannt.
Aber was genau hat das mit seinen Fragen zu tun? ;)
144Hz sind einstellbar, es liegen 144Hz an sowohl in Windows als auch im Spiel.
differenzdiskriminator
2014-11-21, 11:43:26
Ist wohl eher die Frage, was mit der Frage gemeint sein soll.
Mir wäre keine GPU in den letzten 10 Jahren bekannt, die unter 2D auf dem Desktop Frames gedroppt hätte.
Mir gehts darum, ich möchte mal gerne einen Test machen, der Filme (nicht Spiele, hier wissen wir ja, hier braucht man definitiv mehr) in unterschiedlichen FPS darstellt, ab wann man einen Unterschied noch merkt oder nicht. Und da bräuchte ich einen Monitor, der mit die Einstellung von variablen FPS-Zahlen zuläßt, eben ab 60, 75, 85 usw. bis 144 Hz. Dafür würden dann die Filme natürlich nativ in in den entsprechenden Auflösungen aufgenommen werden, es gibt ja heute genügend Kameras, die das können.
144Hz gehen unter Windows wie in Spielen.
Was meinst du mit variabel?
Zwischenschritte zwischen den üblichen 60, 85, 120, 144?
Ist zwischendrin auch möglich, also 70, 80, 90, 100 usw?
Wichtig wäre eben, dies nicht in Spielen, sondern im Desktop möglich ist, da ich nicht weiß, wie entsprechende Programmen und Applikationen reagieren.
Das Filme in 60 FPS besser und flüssiger aussehen als in 24 oder 25 FPS ist klar, mir geht es um die Werte darüber.
differenzdiskriminator
2014-11-21, 12:25:05
Du möchtest deinen Monitor also gern mit 24fps ansteuern?
ChaosTM
2014-11-21, 12:49:55
Ein halbwegs guter Monitor sollte 1080p/24 empfangen und als solche ausgeben können und NICHT in ein 60Hz Pulldown-Geruckle umwandeln.
Meiner kanns GSD.
1920x1920 ist sicher für viele Anwendugen interessant.
Mir schwebt eher ein 21:9er in 2160p vor.
Hab sowas letztes Wochenende in 85Zoll und gekrümmt gesehen.. Sabber!
Du möchtest deinen Monitor also gern mit 24fps ansteuern?
Nein, darüber, es wird ab 60 FPS interessant, ob man das noch wahrnimmt oder nicht. Den Unterschied von 24 und 48 FPS wie beim Hobbit sieht man ja auch klar und deutlich.
differenzdiskriminator
2014-11-21, 13:43:11
Nein, darüber, es wird ab 60 FPS interessant, ob man das noch wahrnimmt oder nicht. Den Unterschied von 24 und 48 FPS wie beim Hobbit sieht man ja auch klar und deutlich.
Ach so!
Prinzipiell müsstest du es mal versuchen, ob ein G-Sync Monitor nicht jede Frequenz anzeigen kann, eventuell als benutzerdefinierte Auflösung.
akuji13
2014-11-21, 14:16:03
Ist zwischendrin auch möglich, also 70, 80, 90, 100 usw?
Zumindest bei mir nicht.
Vielleicht geht es mit einer benutzerdefinierten Auflösung, müssten wir mal testen.
Welche Auflösung soll es denn sein wo du die 70 usw. brauchst?
Kartenlehrling
2014-11-21, 14:32:10
Also ich finde es zb. irritierend, das bei einem 4k g-sync bei 60fps schluss ist.
Man könnte es ja so einrichten das der Monitor die fps zwischen 30-60hz 1:1 syncronisiert und
wenn über 60fps dabei sind diese zwar ausgibt aber der Monitor bei 60hz bleibt,
dann fühlt sich das Spiel trotzdem geschmeidiger an wie eine fest auf 60fps Begrenzung.
Weil ich finde die Beschränkung auf 40-60fps bei einen 4k-gsync zu schmal.
differenzdiskriminator
2014-11-21, 15:05:05
Man könnte es ja so einrichten das der Monitor die fps zwischen 30-60hz 1:1 syncronisiert und
wenn über 60fps dabei sind diese zwar ausgibt aber der Monitor bei 60hz bleibt,
dann fühlt sich das Spiel trotzdem geschmeidiger an wie eine fest auf 60fps Begrenzung.
Quatsch, auch wenn das Spiel mit sagen wir mal 120 fps läuft, siehst du trotzdem nur 60, jeder zweite Frame wurde umsonst berechnet.
Das läuft weder geschmeidiger, noch sonstwas. Deine Grafikkarte orgelt nur sinnlos herum.
ChaosTM
2014-11-21, 15:10:31
Etwas Geduld - 4k Monitore sind erst vor ca. einem halben Jahr am Massenmarkt aufgetaucht.
2160p/144 Geräte werden wir erst mit DP 1.3 sehen.
Hail to the King, Baby: :cool:
http://i.imgur.com/IU2WMjo.jpg
Ich habs doch getan. :freak:
PatkIllA
2014-11-21, 20:01:39
Hail to the King, Baby: :cool:Dann mal Testbericht posten.
Beim Lesen der Mailbenachrichtgung hatte ich jetzt schon gedacht da hätte sich wieder einen so einen UHD-TN Monitor gekauft, aber hier geht King in Ordnung.
Mit Adaptive Sync und HDMI 2.0 wäre er quasi perfekt.
Die 30" mit 2560*1600 sind aber jetzt endgültig obsolet.
Ex3cut3r
2014-11-21, 20:17:25
:up: Fettes Teil *sabber* Hätte ich auch gerne. :D
Kommt für mich aber nicht in frage, da 16:10 und ich damit bei Far Cry 4 schwarze Balken hätte.
Dann mal Testbericht posten.
Mach ich, bin gerade am Testen. ;)
Mit Adaptive Sync und HDMI 2.0 wäre er quasi perfekt.
Darauf müssen wir wohl noch eine Weile warten. :frown:
Die 30" mit 2560*1600 sind aber jetzt endgültig obsolet.
Yup, wer will meinen Dell 3007 haben?
Erster Eindruck in Farben: Wow, ganz andere Liga als der Acer und der Dell. Aber leider einen Pixelfehler, den man zum Glück kaum sieht, der erste seit langem. Und das gerade bei so einem teuren Monitor :frown:
Sunrise
2014-11-21, 21:00:12
@PHuV:
Genau den würde ich mir auch kaufen, Glückwunsch, das Teil ist zumindest von den Daten her aktuell das geilste Stück Monitor, das ich kenne, dagegen stinkt dann sogar Eizo ab (hab ja nen CG243W aktuell). Zumindest das Panel was da verbaut ist, gehört wohl aktuell mit zum Besten überhaupt. Eizo nutzt ja auch LG-Panels für die CGs.
Da wird dir jetzt wohl erstmal nach dem TN-Acer schlecht vor dieser Farbgewalt, oder? :D
99% Adobe RGB und 97% DCI-P3 ist schon krass...
Brauchst noch ne Sonde für die Hardwarekalibrierung, dann ist er perfekt.
Hier gibts nen Elysium 4K-Trailer, falls du den nicht schon hattest:
http://www.demo-uhd3d.com/
Mit Adaptive Sync und HDMI 2.0 wäre er quasi perfekt.
In der Tat.
Da wird dir jetzt wohl erstmal nach dem TN-Acer schlecht vor dieser Farbgewalt, oder? :D
Du magst lachen, aber es ist wirklich so. :eek:
Brauchst noch ne Sonde für die Hardwarekalibrierung, dann ist er perfekt.
Das mit der internen Hardwarekalibrierung habe ich echt falsch verstanden, man braucht wirklich ein zusätzliches Gerät. Was soll ich den nehmen? Ich würde zu diesem Gerät tendieren:
http://www.amazon.de/X-Rite-i1Display-Kolorimeter-Projektoren-EODIS3/dp/B0055MBQOW
True Color Pro (Monitor Color Calibration Software)
Installation priority (required/optional) Optional
Usage Calibrates the monitor's color output using the hardware calibration function.
separate calibrator is required.
Applicable calibrators LG Calibrator, Spyder3, Spyder4, i1Display Pro, ColorMunki Photo/Design, and iPro2
True Color Pro may not support PBP mode.
The software execution images may vary depending on the model.
Hier gibts nen Elysium 4K-Trailer, falls du den nicht schon hattest:
http://www.demo-uhd3d.com/
Super, danke.
Erster Eindruck, für Fotos super, für Arbeiten super. Erster Test mit Far Cry 4: Für Spielen leider nicht so geeignet, etwas laggy, ruckelig ohne G-Sync, aber die Grafik. :eek::eek:
Die haben wirklich das Kabel vergessen, es ist nur ein Kaltgerätekabel mit den 3 Stangen drin, ein deutsches fehlt. Zum Glück habe ich genug davon rumliegen. :cool:
Sunrise
2014-11-21, 21:43:38
Das mit der internen Hardwarekalibrierung habe ich echt falsch verstanden, man braucht wirklich ein zusätzliches Gerät. Was soll ich den nehmen? Ich würde zu diesem Gerät tendieren:
http://www.amazon.de/X-Rite-i1Display-Kolorimeter-Projektoren-EODIS3/dp/B0055MBQOW
Ja, der ist extrem gut, würde ich auch nehmen. Soll gerade bei wenig Helligkeit seine Stärken ausspielen und generell sehr genau sein. Kannst zuschlagen.
PatkIllA
2014-11-21, 21:45:52
Ich dachte das Dinge wäre vom Werk aus kalibriert.
Ist es auch, ist sogar ein Zettel dabei.
In meiner unendlichen Dekadenz habe ich nun den Acer und den LG gleichzeitig am SpielePC angeschlossen.
Die GTX 980 zickt etwas rum, und ich mußte erst rumprobieren, bis ich die beiden zum Laufen bekommen habe. Glücklicherweise hat diese Karte 3 DP-Anschlüsse. Mal sehen, ob ich dann noch den ollen Dell per DVI ranbekomme.
Meine Güte, sieht der Acer farblich..... sch... beischeiden aus. Mist, hätte ich bloß nicht den LG gekauft. :frown:
Sunrise
2014-11-21, 22:05:01
...Meine Güte, sieht der Acer farblich..... sch... beischeiden aus. Mist, hätte ich bloß nicht den LG gekauft. :frown:
Und der Witz ist, dass du dein Panel aktuell "nur" mit 8bit ansteuerst, dabei hast du jetzt eins der wenigen echten 10bit Panels, weshalb da praktisch sogar noch mehr ginge als du jetzt sehen kannst.
Ich dachte das Dinge wäre vom Werk aus kalibriert.
Ja, ist auch zumindest laut der Bescheibung. Mit der Sonde gewinnt er aber natürlich an Flexibilität und kann die Software nutzen. So ne gute Sonde für 200 EUR finde ich gut investiert.
PatkIllA
2014-11-21, 22:09:10
Und der Witz ist, dass du dein Panel aktuell "nur" mit 8bit ansteuerst, dabei hast du jetzt eins der wenigen echten 10bit Panels, weshalb da praktisch sogar noch mehr ginge als du jetzt sehen kannst.
Die grundsätzlichen Farben bleiben die gleichen. Zwischem jedem Wert bei 8 Bit passen halt noch 3 weitere Abstufungen.
Soll ich hier schon mal ein Vergleichsbild posten? Ich schaff den kompletten Test erst im Laufe des Wochenendes.
aufkrawall
2014-11-21, 22:12:15
Und der Witz ist, dass du dein Panel aktuell "nur" mit 8bit ansteuerst, dabei hast du jetzt eins der wenigen echten 10bit Panels, weshalb da praktisch sogar noch mehr ginge als du jetzt sehen kannst.
Unterstützt nur das Panel intern 10 Bit, der Rest nicht?
Sunrise
2014-11-21, 22:19:15
Die grundsätzlichen Farben bleiben die gleichen. Zwischem jedem Wert bei 8 Bit passen halt noch 3 weitere Abstufungen.
8bit+FRC vor dem Panel (in der Monitorelektronik) werden das auch relativ ausgleichen, allerdings wird es eben genauer (durch die Abstufungen).
Unterstützt nur das Panel intern 10 Bit, der Rest nicht?
Das Panel und die Elektronik sollten das können (müsste evtl. Prad verifizieren), das Problem ist vor allem die Zuspielung, das geht scheinbar nur mit bestimmten Grafikkarten+Treibern und z.B. per OpenGL. Und dann muss es noch die Anwendung unterstützen, z.B. Photoshop kann das.
madshi (der Autor von madVR) hat aktuell auch noch kein 10bit-Support in madVR, weil es für ihn schwierig ist, das einzubauen (ist von den IHVs scheinbar auch sehr schlecht dokumentiert).
PatkIllA
2014-11-21, 22:22:53
madshi (der Autor von madVR) hat aktuell auch noch kein 10bit-Support in madVR, weil es für ihn schwierig ist, das einzubauen (ist von den IHVs scheinbar auch sehr schlecht dokumentiert).Laut meinem Beamer kriegt der jetzt auch schon 10 Bit von meiner nicht gerade taufrischen Radeon 5870 per HDMI.
aufkrawall
2014-11-21, 22:25:46
Das geht bei NV mit allen D3D10+ Vollbildanwendungen, etwa mit diesem Videoplayer:
http://forum.doom9.org/showthread.php?t=171120
Einer der Gründe, warum madVR nicht 10 Bit unterstützt, ist auch, dass es quasi keinen D3D10 DXVA-Decoder gibt.
Muss man Copyback nutzen (was ich aber nicht sehr schlimm finde, LAV ist da sehr performant).
Kann man bei AMD mittlerweile nicht sogar einfach 10 Bit im CCC auswählen, sodass es auch auf dem Desktop genutzt wird?
Hm, ich wollte jetzt mal Far Cry 4 parallel auf beiden Monitoren laufen lassen, und er bleibt bei "Profil wird angelegt" hängen. :frown:
Sunrise
2014-11-21, 22:31:30
Laut meinem Beamer kriegt der jetzt auch schon 10 Bit von meiner nicht geraden taufrischen Radeon 5870.
Aber nicht "out of the box" oder? Per Registry-Hack aktiviert?
Interessant.
Das geht bei NV mit allen D3D10+ Vollbildanwendungen, etwa mit diesem Videoplayer:
http://forum.doom9.org/showthread.php?t=171120
Einer der Gründe, warum madVR nicht 10 Bit unterstützt, ist auch, dass es quasi keinen D3D10 DXVA-Decoder gibt.
Muss man Copyback nutzen (was ich aber nicht sehr schlimm finde, LAV ist da sehr performant).
Kann man bei AMD mittlerweile nicht sogar einfach 10 Bit im CCC auswählen, sodass es auch auf dem Desktop genutzt wird?
Stimmt, der Player hat das nativ drin, hatte ich ganz vergessen.
Das mit der 10 Bit-Option bei AMD ist mir neu, na das wäre ja ein Ding.
fondness
2014-11-21, 22:41:42
http://s24.postimg.org/bygqt8u0l/Catalyst14910_Bit_Setting.png (http://postimage.org/)
FirePROs konnte das schon ewig, würde AFAIK mit dem Cat. 14.9 auch für Radeons eingeführt.
Sunrise
2014-11-21, 22:57:01
Soll ich hier schon mal ein Vergleichsbild posten? Ich schaff den kompletten Test erst im Laufe des Wochenendes.
Klar, warum nicht. Lass dir Zeit und genieße es. :D
...FirePROs konnte das schon ewig, würde AFAIK mit dem Cat. 14.9 auch für Radeons eingeführt.
Hab mal kurz gegoogelt, die Option scheint tatsächlich mit Cat. 14.9 hinzugekommen zu sein. Allerdings fraglich was die Option auf den Consumer-Grafikkarten wirklich macht:
https://forums.adobe.com/thread/1537555
Es ist jedenfalls verwirrend. Vor allem da PatkIllA schreibt, dass sein Beamer am Eingangssignal 10 Bit erkennt.
Sailor Moon
2014-11-21, 23:00:14
Und der Witz ist, dass du dein Panel aktuell "nur" mit 8bit ansteuerst, dabei hast du jetzt eins der wenigen echten 10bit Panels, weshalb da praktisch sogar noch mehr ginge als du jetzt sehen kannst.
10bit Paneltreiber sind tatsächlich weiterhin selten - das ist aber nicht entscheidend. Ein 10bit LVDS Interface mit panelinternem FRC ist dagegen auch im High-End-Segment absolut üblich. In dieser Konfiguration kannst du bei geeigneter Auslegung von einer 10bit-Zuspielung trotz 8bit Paneltreiber voll profitieren.
Eizo nutzt ja auch LG-Panels für die CGs.
Mit dem Umstieg auf LED-Hingergrundbeleuchtungen kommen inzwischen meist spezielle Varianten von Samsung (PLS) zum Einsatz. Ist für den Nutzer aber unerheblich.
Ich würde zu diesem Gerät tendieren:
http://www.amazon.de/X-Rite-i1Displa.../dp/B0055MBQOW
Gute Wahl.
Sunrise
2014-11-21, 23:11:38
10bit Paneltreiber sind tatsächlich weiterhin selten - das ist aber nicht entscheidend. Ein 10bit LVDS Interface mit panelinternem FRC ist dagegen auch im High-End-Segment absolut üblich. In dieser Konfiguration kannst du von einer entsprechenden Zuspielung trotz 8bit Paneltreiber voll profitieren.
Welche Methodik/Tests nutzt ihr, damit ihr erkennt, ob "echte" 10 Bit wiedergegeben werden? Spielt ihr da Gradients zu? Ich habe nämlich wie du beschreibst schon bei 8 Bit Ausgabe und FRC im Monitor quasi perfekte Übergänge (Eizo CG243W). Kann ich optisch überhaupt noch erkennen, ob ich "echte" 10 Bit aktiv habe?
Reicht es da aus, ein 10 Bit Gradient (Grayramp) zuzuspielen?
@PHuV:
Da kam gerade ein neuer NVIDIA-Hotfix Treiber raus, hast du den schon gesehen?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=558820
So, bitte nicht böse sein, wenn es nicht soo tolle Bilder sind, weil Bildschirmfotografie ist doch ganz schon anders und anspruchsvoll. Die Bilder sehen wirklich bescheiden aus, aber glaubt mir, wenn man direkt davor sitzt, ist der Unterschied schon frapierend.
Bilder sind von einem Besuch in Prag im Oktober diesen Jahres. Kamera ist eine Canon EOS 7D:
Update: Test ist nun hier:
Test 4k Monitor LG 31MU97-B 31" (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=558821)
Ich hab jetzt endlich nach 45 min es geschafft, beide Monitore mit 3840x2160 als Klon zum Laufen bekommen, so daß auch Far Cry 4 nicht mehr abstürzt. Es soll ein Videovergleich mit G-Sync VA und IPS ohne gemacht werden. Mal sehen, ob ich das so auf die Schnelle hinbekomme.
Update: Fuuu, die Videos sind leider zu verrauscht in der Nacht, daß muß ich morgen bei Tageslicht wiederholen.
differenzdiskriminator
2014-11-22, 11:04:03
Welche Methodik/Tests nutzt ihr, damit ihr erkennt, ob "echte" 10 Bit wiedergegeben werden? Spielt ihr da Gradients zu? Ich habe nämlich wie du beschreibst schon bei 8 Bit Ausgabe und FRC im Monitor quasi perfekte Übergänge (Eizo CG243W). Kann ich optisch überhaupt noch erkennen, ob ich "echte" 10 Bit aktiv habe?
Ja, kann man. Minimale Farbunterschiede über eine große Fläche. Irgendwann muss man den Bitflip sehen, bei 8 Bit natürlich viel schneller, als bei 10 bit.
Aktuell bin ich wirklich geneigt, lieber Geruckle im Spielen zu ertragen den schlechtere Farben. Nachdem ich eine Weile nur den LG dran habe und etwas Far Cry 4 spiele, muß ich sagen, es geht definitiv auch so.
Terrarist
2014-11-22, 13:06:43
Wie ist denn die Panelhomogenität des LG? (Backlight Bleeding etc.). Gibts da einen Modus wie bei Eizo der unregelmäßigkeiten feststellt und ggfs. "nachregelt"?
Sailor Moon
2014-11-22, 13:26:50
Welche Methodik/Tests nutzt ihr, damit ihr erkennt, ob "echte" 10 Bit wiedergegeben werden? Spielt ihr da Gradients zu? Ich habe nämlich wie du beschreibst schon bei 8 Bit Ausgabe und FRC im Monitor quasi perfekte Übergänge (Eizo CG243W). Kann ich optisch überhaupt noch erkennen, ob ich "echte" 10 Bit aktiv habe?
Aufgrund der präzisen Elektronik (hier: 16bit LUT) wird das Eingangssignal verlustfrei verarbeitet - seine beschränkte Quantisierung wird dadurch natürlich nicht aufgehoben. Großflächige Verläufe zeigen ohne weitere Optimierungen (Dithering auf Seiten der Quelle) also mehr oder weniger leichte Stufen. Die Ausprägung hängt insbesondere von der Tonwertkurve ab. Mit 10bit pro Farbkanal tut sich da schon noch sichtbar etwas - allerdings lässt sich faktisch nicht ausmachen, ob nun ein Panel mit 10bit Paneltreiber implementiert ist (zumal auch hier i.d.R. noch Dithering zum Einsatz kommt).
Wie ist denn die Panelhomogenität des LG? (Backlight Bleeding etc.).
Blacklight Bleeding ist nicht vorhanden, soweit ich das laienhaft beurteilen kann. Ausleutchtung sieht in allen Farben gut aus, nur in grün wirkt es etwas fleckig.
mironicus
2014-11-22, 14:16:12
Mach doch mal ein Foto mit einem schwarzen Bild (Raum abgedunkelt, perfekt wäre eine lange Belichtungszeit).
Terrarist
2014-11-22, 15:45:21
Blacklight Bleeding ist nicht vorhanden, soweit ich das laienhaft beurteilen kann. Ausleutchtung sieht in allen Farben gut aus, nur in grün wirkt es etwas fleckig.
Ok Danke, ein scrot wie vom Vorposter beschrieben wäre klasse :)
Interessant sind auch Vergleiche mit sw Bildern, da sollte im Optimalfall dann keine Färbung vorhanden sein.
ChaosTM
2014-11-22, 16:07:14
Ob die Farben halbwegs passen, zeigt ein Schwarz/Weiß Bild recht gut und schnell.
Manche sind extrem Knallbunt Out of the Box und Weiß ist dann selten wirklich weiß.
Meiner war auch ziemlich übel eingestellt..
Nur der RGB Modus war akkurat aber (mir) viel zu hell.
Ok Danke, ein scrot wie vom Vorposter beschrieben wäre klasse :)
Interessant sind auch Vergleiche mit sw Bildern, da sollte im Optimalfall dann keine Färbung vorhanden sein.
Ok, ist das nicht ein bißchen übertrieben? Lange Belichtungszeit, so sieht man doch immer was, oder? Was die Kamera da aufnimmt, sehe ich definitiv nicht, bei mir ist das Bild schwarz.
Bild ist in meinem Test drin.
Terrarist
2014-11-22, 22:36:19
Danke für das Update, hb mit schlimmerem gerechnet..
Btw, in ein paar Wochen kommt ein 34" Curved 3440x1440 von Samsung raus mit 100% sRGB und VA!! Panel :)
http://overclockers.co.uk/pimg/MO-211-SA_400.jpg
Und, was konntest Du jetzt hier rauslesen, wenn ich neugierig fragen darf? Ich hab mich zwar eingelesen, mir sagt es aber absolut nichts. Im Endeffekt wird doch bei Langzeitbelichtung jeder Monitor so aussehen, daher ist mir absolut unklar, was man hier erkennen will.
Terrarist
2014-11-22, 23:09:13
Jeder Monitor sieht da anders aus PHUV. Bei normaler Helligkeit ist das kaum relevant, guckst du im Dunkeln Filme könnte es jedoch passieren dass die oberen schwarzen Balken dann einen leicht helleren Teint haben ;)
ChaosTM
2014-11-22, 23:42:59
Danke für das Update, hb mit schlimmerem gerechnet..
Btw, in ein paar Wochen kommt ein 34" Curved 3440x1440 von Samsung raus mit 100% sRGB und VA!! Panel :)
http://overclockers.co.uk/pimg/MO-211-SA_400.jpg
Sowas in 5120×2160 wärs.
Der Lokale Media Markt hatte einen 85er in dem Format in Ausstellung.. WoW
Ist nur die Frage, ob das mit DP1.2 noch geht. edit.: Scheinbar nur Multistream; heißt wohl warten bis dp 1.3
Sehr feiner Monitor und vor allem VA! :)
drmaniac
2014-11-22, 23:50:35
Danke für das Update, hb mit schlimmerem gerechnet..
Btw, in ein paar Wochen kommt ein 34" Curved 3440x1440 von Samsung raus mit 100% sRGB und VA!! Panel :)
http://overclockers.co.uk/pimg/MO-211-SA_400.jpg
wie o.g. mit 4k oder 5k war das ding ein Traum :) aber mit x1440 find ich den zu niedrig auflösend.
Terrarist
2014-11-23, 00:44:51
wie o.g. mit 4k oder 5k war das ding ein Traum :) aber mit x1440 find ich den zu niedrig auflösend.
Der viel bessere Kontrast bzw. Schwarzwert durch VA dürfte das locker wettmachen wenn es um den Bildeindruck geht, und du auf ein möglichst kristallklares Bild Wert legst.
ChaosTM
2014-11-23, 01:16:46
Ein möglicher 5120×2160er sollte sowieso VA oder besser OLED sein..
TN ist schon bei einem 27" 3840x2160er ein schwer zu schluckender Kompromiss..
drmaniac
2014-11-23, 10:31:59
Terrarist: das habe ich vorausgesetzt, ein TN Display käme mir nie in's Haus ;)
Jeder Monitor sieht da anders aus PHUV. Bei normaler Helligkeit ist das kaum relevant, guckst du im Dunkeln Filme könnte es jedoch passieren dass die oberen schwarzen Balken dann einen leicht helleren Teint haben ;)
Und was sagt Dir jetzt mein Bild. Gut oder nicht gut?
Terrarist: das habe ich vorausgesetzt, ein TN Display käme mir nie in's Haus ;)
Sagen wir es mal so, nachdem ich jetzt viele Jahre bei größeren Monitoren immer IPS hatte, und der Acer (bis auf den BenQ XL2410T für ein Jahr zum 3D-Spielen) ein weitere TN ist, kann ich diese Position verstehen. Das Problem ist für mich nicht mal die Farben, sondern wirklich die störende Bildwinkelabhängigkeit. Ich würde gerne den Acer beispielsweise mit Pivot hochkant stellen, daß kann man hier mit 28" total vergessen, selbst mit 24" ist das schon ein Problem.
Unicous
2014-11-23, 13:08:08
Ich habe mal kurz deine Review überflogen.
Nur mal so zur Info. Das mit den DP-Anschlüssen muss nicht unbedingt an Nvidia liegen. Bei AMD gab es auch einige Aufregung und es könnte sein, dass die Displayhersteller nicht allzu gewissenhaft an die Sache herangegangen sind. Außerdem: das Kabel... kann es natürlich immer sein. Aber du hattest doch extra ein "gutes" gekauft, oder? Bzw. nutzt du das beiliegende?
Ich benutze jeweils von Acer und von LG das beiliegende Kabel. Bei LG liegt ein DP nach MiniDP-Kabel dabei. Aber ich werde mich mal nach anderen Kabeln umsehen, HisN hat mir hier einen Hinweis geliefert.
Blöde Frage, weiß jemand, wie man eigentlich Windows dazu bringen kann, automatisch die Pivotstellung zu erkennen?
Unicous
2014-11-23, 13:58:07
Braucht man da nicht spezielle Software vom Hersteller? Bzw. funktioniert das doch nicht bei jedem Display, afaik.
Hat LG Software "mitgeliefert"?
Such mal nach fortepivot... das ist dirket von LG, aber keine Ahnung ob das noch gepflegt wird.
Hier gibts nen Elysium 4K-Trailer, falls du den nicht schon hattest:
http://www.demo-uhd3d.com/
Uaa, sunrise, was tust Du mir hier an. :eek: Das sieht ja so was vom Hammer aus. Ich habe als Vergleich nur den Youtube-Trailer, gibts den auch irgendwo so zum Runterladen, mit einer besseren Codierung? Ich hab auf die Schnelle nichts gefunden.
Braucht man da nicht spezielle Software vom Hersteller? Bzw. funktioniert das doch nicht bei jedem Display, afaik.
Hat LG Software "mitgeliefert"?
Such mal nach fortepivot... das ist dirket von LG, aber keine Ahnung ob das noch gepflegt wird.
Danke, es liegt zwar Software bei, aber es ist einmal die TrueColor-SW und eine Splitscreen-SW.
Sunrise
2014-11-23, 18:39:55
Uaa, sunrise, was tust Du mir hier an. :eek: Das sieht ja so was vom Hammer aus. Ich habe als Vergleich nur den Youtube-Trailer, gibts den auch irgendwo so zum Runterladen, mit einer besseren Codierung? Ich hab auf die Schnelle nichts gefunden.
Du kannst mal noch die 4K-Trailer von hier probieren, das sind MP4-Container, wegen der Bitrate habe ich selbst noch nicht geschaut, ist allerdings deutlich kleiner als der auf der anderen Seite:
http://www.hd-trailers.net/ultrahd/
Da gibts auch drei Interstellar-Trailer in 4K. :D
Ich habe mal gerade bei Ebay und Co. gestöbert, es sind eine Menge Leute, die den iMac Retina 5k wieder verkaufen. Interessant. :uponder:
FlashBFE
2014-11-25, 22:44:24
Ich habe mal gerade bei Ebay und Co. gestöbert, es sind eine Menge Leute, die den iMac Retina 5k wieder verkaufen. Interessant. :uponder:
Es muss ja nichts mit dem Monitor zu tun haben. Das ist eben der Nachteil an einem AIO. Passt dir irgendwas an dem Gerät nicht, hast du Pech gehabt.
MilesEdgeworth
2014-11-26, 08:45:00
Hat hier jemand Erfahrung mit dem Samsung U28D590P? Den gibt's heute wieder bei Amazon im Angebot. Ich erwarte einen Preis von 360€ (wie schon am Montag), von daher wäre das natürlich ein echtes Schnäppchen. Zuschlagen oder lieber auf IPS (Asus PB279Q, Acer B276HKymjdpprz) warten? :freak:
Zum Spielen soll der Monitor übrigens nur selten mal verwendet werden.
@PHuV:
Der iMac Retina hat wohl in der Konfiguration mit der R9295MX teilweise Hitzeprobleme. Bin da mal drüber gestolpert, als ich nach Benchmarks gesucht habe! Wobei es eher so aussieht, als ob die Besitzer Panik schieben, da die GPU 105°C heiß werden darf und das wohl auch wird.. :freak:
InsaneDruid
2014-11-26, 10:30:30
Warten. Du willst keinen TN-Sondermüll.
fondness
2014-11-26, 10:36:17
Ab Jahreswechsel kommen Monitore mit FreeSync, selbst als NV-User schadet es sicher nicht das Feature mitzunehmen, gerade da diese kaum teurer sein werden.
Na ja, warten wir erst mal, bis das in die Gänge kommt. Es heißt ja ab März 2015, und das sind noch 4 Monate hin.
MilesEdgeworth
2014-11-26, 11:48:26
Dann werd ich einfach mal zuschlagen, wenn er mir nicht passt, dann schick ich ihn eben zurück. Ein halbes Jahr will ich dann noch nicht mehr warten. Ansonsten kann der auch mal 2 Jahre als Übergang dienen. Das Problem ist, dass mein derzeitiger Samsung 2433BW leider im rechten Bildbereich einen grünen Streifen zeigt. Ist zwar nicht tragisch, aber nach etwa zwei Monaten doch recht nervig. Zeitweise war das auch schon deutlich intensiver; dabei hat das gesamte rechte Sechstel geflackert und war von bunten Streifen durchzogen.
Unicous
2014-11-26, 12:11:26
Na ja, warten wir erst mal, bis das in die Gänge kommt. Es heißt ja ab März 2015, und das sind noch 4 Monate hin.
Ab März für Samsung, andere Hersteller könnten durchaus früher dran sein (wenn man Fudzilla Glauben schenkt).
Interessanter Hinweis:
BenQ and Viewsonic FeeSync monitors in time for holidays (http://www.fudzilla.com/home/item/36389-benq-and-viewsonic-feesync-monitors-in-time-for-holidays)
We have few details about the screen size or resolution at this point, but back in September AMD told us that DisplayPort receivers from MStar, Novatek and Realtek enable 144Hz panels with QHD 2560x1440 and UHD 3840x2160 panels up to 60Hz. They will go head to head with G-Sync offerings designed for Nvidia graphics cards.
Machen die dann gleich DP 1.3? Das würde sich ja anbieten.
Unicous
2014-11-26, 12:50:26
Eher nicht. Das schafft DP 1.2(a) gerade noch. DP 1.3 ist dafür einfach noch zu "frisch". Aber vllt. sieht man ja schon erste Prototypen zur CES Anfang Januar... wer weiß.
Drogenbaron
2014-11-26, 12:55:14
Also immer noch kein 4K mit 120Hz :(
Unicous
2014-11-26, 13:01:42
Keine Ahnung ob man das nicht durch MST irgendwie hinbiegen könnte, aber nein, weder G-Sync noch (hypothetische) FreeSync Monitore können 4K@60Hz+.
Dazu benötigt man dann DP 1.3. (Und bei G-Sync frage ich mich, über welches Protokoll sie es schicken, ich denke ja, es ist auch nur eDP oder iDP)
Drogenbaron
2014-11-26, 13:10:01
Ja, DP1.3 muss sein für 4K bei mehr als 60Hz. Hätte nur gedacht, man würde Freesync-Monitore damit direkt ausrüsten, ich sehe keinen Grund mir einen Gaming-Monitor mit nur 60Hz zu kaufen.
Kann mir jemand sagen, wie das mit den Pixelfehlern und der Klassifizierung geregelt ist? Bei einem billigeren Modell würde ich ja nichts sagen, aber bei einem so teuren Gerät wie den LG stört mich das schon etwas.
[dzp]Viper
2014-11-27, 08:57:44
Acer S277HK (UHD) - 27" - HDMI 2.0 - IPS Panel - ca. 700€
http://www.computerbase.de/2014-11/erster-uhd-monitor-mit-hdmi-2.0-vor-markteinfuehrung/
http://pics.computerbase.de/6/1/6/0/2/1_m.jpg
Leider kein Pivot, sonst könnte der als guter 2.Monitor durchgehen.
Unicous
2014-11-27, 16:51:18
Der Displayport Standard ist seit 1.1 HDCP-fähig. Daher würde ich das mal unter urban legend abheften.
:confused:
Warum hast du den Beitrag gelöscht?
Gipsel
2014-11-27, 18:01:36
Der Displayport Standard ist seit 1.1 HDCP-fähig. Daher würde ich das mal unter urban legend abheften.
:confused:
Warum hast du den Beitrag gelöscht?
Vermutlich weil Hallo eingesehen hat, daß es Blödsinn war.
Ich habe mir 4 DP-Kabel gekauft, 2 normale günstige und kurze Kabel, und 2 teuere mit 7,5 m. Die beiden kurzen funktionieren, die beiden teuren nicht. :mad:
Jetzt stöpsle ich schon stundenlang hin und her, und es ist echt übel. Ein langes Kabel läßt nur 30 Hz mit 3840x2160 zu. Und ich hab mich schon gewundert, warum das so rumruckelt im Desktop. Das macht echt keinen Spaß. :uexplode:
Das einzige zuverlässige Kabel ist das von LG von DP nach miniDP. Und ich brauche noch ein langes DP nach DP. Was ist den da schon wieder so schwer. :motz:
@Unicous
Wieder mal ein schönes Beispiel für "Standard", was wieder mal nicht richtig funktioniert.
gr0mit
2014-11-27, 20:28:52
Kann mir jemand sagen, wie das mit den Pixelfehlern und der Klassifizierung geregelt ist? Bei einem billigeren Modell würde ich ja nichts sagen, aber bei einem so teuren Gerät wie den LG stört mich das schon etwas.
Auf der Herstellerseite und im Datenblatt habe ich keine Angabe zur Pixelfehlerklasse des LG 31MU97-B gesehen. Bei Prad wird Pixelfehlerklasse II angegeben (http://www.prad.de/guide/screen9648.html). Dann wären, sofern auf 8 Mio. Pixel abgerundet wird, 16 ständig leuchtende Pixel, 16 schwarze Pixel und bis zu 80 Subpixelfehler gemäß ISO 9241-307 (http://www.prad.de/new/monitore/shownews_lex90.html) zu tolerieren.
Das ist schon eine ganze Menge. Der englische Wikipediaeintrag zur ISO 9241-307 sagt, dass mittlerweile die Klasse I bei den hochpreisigen Modellen typischer sei.
Danke für die Info. Ich habe auch heute von LG eine Antwort bekommen, es ist Pixelfehlerklasse II. Sch..ade.
dargo
2014-11-27, 20:40:07
Yes... der erste(?) VA mit 3440x1440. :up:
http://geizhals.de/samsung-ls34e790c-a1195794.html
Jetzt nur noch Freesync dabei und ich werde echt schwach. :naughty:
Ex3cut3r
2014-11-27, 20:48:20
Geiles Teil :O nur funzt Freesync überhaupt mit Nvidia?
Terrarist
2014-11-27, 20:50:20
Vermutlich kommt Samsung's neues cPVA2 Panel dort zum Einsatz. Hoffentlich werden sich die Prad Leute das Teil "zeitnah sichern" und Testen :D
Ich hab jetzt endlich bei Ebay ein Kabel gefunden, was 4k mit DP 1.2 und 4096x2160 in der Beschreibung garantiert. Bei den meisten Kabelanbietern findet man gar nichts.
dargo
2014-11-27, 21:07:28
Geiles Teil :O nur funzt Freesync überhaupt mit Nvidia? :P
Ich habe keinen blassen Schimmer. Frag mich das nochmal wenn die ersten Freesync Bildschirme erhältlich sind. Falls nicht hoffe ich bloß, dass Fiji gut wird.
Ex3cut3r
2014-11-27, 21:13:22
Ok doki! :)
Unicous
2014-11-27, 21:18:18
@PhuV
Das hat nichts mit dem Standard zu tun. Da brauchst du dich nicht zu echauffieren. Bis drei Meter (iirc) ist DP (1.2) passiv für die volle Bandbreite spezifiziert, darüber braucht man aktive Kabel. Ich behaupte ganz ungeniert, dass die Kabel dennoch passiv sind und demnach entweder nicht nach Spec hergestellt wurden bzw. du verarscht wirst. Kannst ja mal den/die Kabelhersteller samt Artikelnr. posten dann kann man das nachprüfen.
Etwas spitz formuliert: Wenn du für deine Angebete eine Louis Vuitton Tasche aus China importieren lässt, für ein Viertel des Preises, darfst du dich dann nicht bei olle Louis beschweren was für eine beschissene Qualität das doch ist.:tongue:
Theoretisch müsste auf der Verpackung dieses Symbol prangen:
http://www.displayport.org/wp-content/uploads/2012/04/DP-Compliance-Active-Cable-Logosm.png
Das ist das offizielle Compliance Logo für ein aktives DP-Kabel.
Kartenlehrling
2014-11-27, 21:18:35
Der Philips ist wohl auch mehr ein TVgerät als ein Monitor, aber der Preis finde ich gut.
http://geizhals.de/philips-bdm4065uc-bdm4065uc-00-a1201936.html
Philips BDM4065UC, 39.5" (BDM4065UC/00) ab €799,--
@PhuV
Das hat nichts mit dem Standard zu tun. Da brauchst du dich nicht zu echauffieren. Bis drei Meter (iirc) ist DP (1.2) passiv für die volle Bandbreite spezifiziert, darüber braucht man aktive Kabel. Ich behaupte ganz ungeniert, dass die Kabel dennoch passiv sind und demnach entweder nicht nach Spec hergestellt wurden bzw. du verarscht wirst. Kannst ja mal den/die Kabelhersteller samt Artikelnr. posten dann kann man das nachprüfen.
Danke für den Hinweis. Jedoch finde ich weder auf Ebay noch bei Amazon aktive DP-Kabel nur mit 15 m. Ich hätte aber gerne 5 - 7 m, und die gibts anscheinend nicht aktiv. Bei Geizhals finde ich nur aktive für DP nach DVI.
Godmode
2014-11-27, 22:34:42
Yes... der erste(?) VA mit 3440x1440. :up:
http://geizhals.de/samsung-ls34e790c-a1195794.html
Jetzt nur noch Freesync dabei und ich werde echt schwach. :naughty:
Könnt ihr mir den Vorteil dieser 21:9 Monitore erklären?
Mehr vertikale Arbeitsfläche, z.B. für Video/Audioschnitt, für Dokumentation usw. ..?
Chris Lux
2014-11-27, 23:27:40
trauriger trend :/ zum coden weine ich ordentlichen 16:10 displays nach.
Botcruscher
2014-11-27, 23:29:00
Wohl eher der Tausch der Nachteile von 3 Monitoren gegen neue.
PS: Der Samsung U28D590P ist morgen noch mal 16:30 Uhr bei Amazon drin. Wer also noch bedarf hat...
Hatstick
2014-11-28, 00:05:02
Ist denn irgendwas konkretes absehbar bzgl. UHD Monitore mit IPS Panel + G-Sync und im Preisbereich bis 750€ oder kann man das aktuell noch gar nicht abschätzen?
trauriger trend :/ zum coden weine ich ordentlichen 16:10 displays nach.
Me2. :frown: Ich hatte ja auf einen 5120x3200 Monitor gehofft. :frown:
Ist denn irgendwas konkretes absehbar bzgl. UHD Monitore mit IPS Panel + G-Sync und im Preisbereich bis 750€ oder kann man das aktuell noch gar nicht abschätzen?
Nur in Deinen feuchten Träumen.
Hatstick
2014-11-28, 00:11:38
Hmm, ok. Dann wird es wohl erst 2016 was. (Hoffentlich!)
UHD juckt mich schon in den Fingern aber seit ich ein 1440p IPS Panel hier stehen habe, möchte ich eigentlich nicht mehr zurück zum TN Switchen. :frown:
Der günstigste lieferbare IPSUHD-Monitor ist aktuell der Acer B326HK, und der Acer 27" ist ja erst angekündigt.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10436554&postcount=2598
Hier kommst Du mit 700 € hin, aber nix A/G-Sync.
Hatstick
2014-11-28, 00:20:28
Ok, Danke!
Wobei der G-Sync Aufpreis bei ca. 100€ liegt. Wären dann ca. 800€ für den 27" und durchaus lecker.
Wundert mich bissl, das Acer bzgl. UHD Vollgas gibt es und keine anderen Hersteller nachgezogen haben. Gerade bzgl. G-Sync.
Naja, bin wahrscheinlich nur zu ungeduldig. :rolleyes:
akuji13
2014-11-28, 07:36:51
Könnt ihr mir den Vorteil dieser 21:9 Monitore erklären?
In Spielen wirkt das mMn sehr gut.
Naja, bin wahrscheinlich nur zu ungeduldig. :rolleyes:
Nö.
Ist ja nicht so das wir erst seit ein paar Monaten auf den Monitor warten. :wink:
Godmode
2014-11-28, 07:58:59
In Spielen wirkt das mMn sehr gut.
Blöd nur das es damit wieder kein 3D Vision gibt. :/ Also wahrscheinlich muss ich dann doch einfach den Asus Rog Swift kaufen und eventuell noch einen 2. 4k Monitor für Spiele ohne 3D Vision.
dargo
2014-11-28, 08:22:15
Könnt ihr mir den Vorteil dieser 21:9 Monitore erklären?
Cockpitview bei Rennspielen. Shooter finde ich in 21:9 auch nicht schlecht.
akuji13
2014-11-28, 08:43:31
Blöd nur das es damit wieder kein 3D Vision gibt. :/ Also wahrscheinlich muss ich dann doch einfach den Asus Rog Swift kaufen und eventuell noch einen 2. 4k Monitor für Spiele ohne 3D Vision.
Neulich schrieb ich, das es aus meiner Sicht momentan eher schlechter als besser wird.
Ich bräuchte aktuell zum vollendeten Spieler-Glück folgende Monis:
1x G-Sync für die Flüssigkeit
1x IPS für die Farben
1x VA für den Schwarzwert
1x 21:9 für die Immersion
Wahlweise nach Spiel dann jeweils in 1080p, 1440p oder 4K für ältere Titel wie z. B. Mafia II. :freak:
Die "neuen" 120 Hz IPS die so viele herbeisehnen sehe ich skeptisch...die können dann zwar 3D Vision und G-Sync/FreeSync, aber auch die werden dank glow + Schwarzwert nicht deutlich besser als die Korea-Modelle sein.
Wobei der G-Sync Aufpreis bei ca. 100€ liegt. Wären dann ca. 800€ für den 27" und durchaus lecker.
Es gibt kein A/G-Sync für IPS-Panels, wie oft den noch. :rolleyes: Gipsel hat zwar eine theoretische Möglichkeit genannt, die jedoch kaum genutzt wird, und bisher recht teuer ist.
Terrarist
2014-11-28, 10:16:16
Könnt ihr mir den Vorteil dieser 21:9 Monitore erklären?
21:9 kann ein Vorteil sein wenn du Surround abmischst oder masterst. Mit einem 30" und 16:10 ist es quasi unmöglich den Hochtöner des Centers oder Kontrollmonitore auf Ohrhöhe zu platzieren, da ist dann der Monitor im Weg. Auch beim Stereo Mischen ist es vorteilhaft wenn du über den Monitor in die Tiefe des Raums gucken kannst, das ergibt eine bessere tiefer gestaffelte Bühne, wenn du für visuelle Effekte anfällig bist. Meistens wird der Monitor in der tiefsten Position leicht nach oben angewinkelt betrieben, so dass du wenn du gerade aus guckst über die obere Kante des Monitors in den Raum sehen kannst.
Ist halt ähnlich wie im Highend Hifi Bereich wo auch oft visuell getrickst wird. Visuelle Eindrücke wirken sich stark auf das Gehörte aus, deshalb siehst du in einem Setup eines Highenders auch selten einen TV oder andere Dinge auf Linie mit den Monitoren und auf Augenhöhe.
Desweiteren bist du mit einem 21:9 Monitor (imho) flexibler bei der Anordnung von UI Elementen gegenüber einen Dual-Monitor Setup.
robbitop
2014-11-28, 11:17:39
Es gibt kein A/G-Sync für IPS-Panels, wie oft den noch. :rolleyes: Gipsel hat zwar eine theoretische Möglichkeit genannt, die jedoch kaum genutzt wird, und bisher recht teuer ist.
A/G-Sync funktioniert panelunabhängig gleich. Was Gipsel beschrieben hat, wäre die Kombination aus pulsierendem Backlight mit A/G-Sync.
4K IPS Monitore mit A/G-Sync werden 2015 kommen. Es wurde ja bereits im Zusammenhang mit A-Sync gehinted. Die Frage ist, ob die G-Sync Fraktion da nachzieht.
Der Grund, warum G-Sync momentan nur in Kombination mit TN-Panels verwnedet wird ist IMO:
- G-Sync ist ein Spieler Feature - TN ist ein Spielertyp Panel - ggf. nimmt man an, dass IPS/VA in Kombination mit G-Sync zu sehr in Richtung Marktnische gehen würde.
- G-Sync ist teuer. IPS/VA Panels sind teurer als TN. Um den Gesamtpreis im Zaum zu halten, bleibt man vorsichtigerweise vermutlich erstmal bei TN.
Bei A-Sync ist die Story etwas anders. Alle neueren Scaler werden ab einem gewissen Punkt A-Sync unterstützen. Einfach aus dem Grunde, dass A-Sync Teil der DP Spec ist und sehr einfach in einen Scaler zu integrieren ist, weil es auf bestehende Standards aufsetzt. Und da Scaler eh ständig neu entwickelt werden, wird irgendwann praktisch jeder Scaler A-Sync einfach mitunterstützen.
Bei G-Sync muss ein teures, propreitäres FPGA Modul erworben werden und dieses dann in die eigene Monitorentwicklung eingebaut werden. Das ist halt Nische.
Ich tippe sogar darauf, dass 4K + IPS mit A-Sync in Kombination eher dran sein wird. Einfach weil die ersten neuen Scaler bald fertig sind und es kostenlos mit-unterstützen.
(ich könnte mir sogar vorstellen, dass man das A-Sync Feature in günstigeren Monitoren im Scaler "ausknipst" um ggf. etwas höherpreisige Modellen mehr Existenzberichtigung/Exklusivfeatures zu spendieren - also nochmal 50 € extra abzukassieren - ist aber pure Spekulation)
Ich hoffe nur, dass NV A-Sync möglichst bald unterstützen wird.
Intel hat es IIRC vor - und spätestens wenn die Mehrzahl der Monitore am Markt A-Sync unterstützt wird NV wohl einlenken müssen.
Godmode
2014-11-28, 11:31:43
Ich habe mir jetzt einfach den Rog Swift gekauft. 3D Vision ist mir einfach zu wichtig.
robbitop
2014-11-28, 11:33:47
Zur Zeit IMO der beste Spielemonitor. 144 Hz und G-Sync und 1440p. Dazu ist das bestmöglichste TN Panel verbaut, was es gibt.
Aber sobald es nächstes Jahr einen 4K IPS G-Sync Monitor und GM200 gibt, steige ich um. :D
Grestorn
2014-11-28, 11:35:29
Unter 120Hz mache ich es nicht mehr (auch wegen 3DVision). Ich halte das für viel wichtiger als 4k und IPS. Für mich ist der Unterschied zwischen IPS und TN vernachlässigbar (obwohl ich ihn jeden Tag sehe, da mein Zweitmonitor ein IPS Display hat).
Godmode
2014-11-28, 11:50:02
Zur Zeit IMO der beste Spielemonitor. 144 Hz und G-Sync und 1440p. Dazu ist das bestmöglichste TN Panel verbaut, was es gibt.
Aber sobald es nächstes Jahr einen 4K IPS G-Sync Monitor und GM200 gibt, steige ich um. :D
Die Leistung reicht für 4K und 3D IMHO nicht. Auch nicht mit GM200.
robbitop
2014-11-28, 11:52:15
Unter 120Hz mache ich es nicht mehr (auch wegen 3DVision). Ich halte das für viel wichtiger als 4k und IPS. Für mich ist der Unterschied zwischen IPS und TN vernachlässigbar (obwohl ich ihn jeden Tag sehe, da mein Zweitmonitor ein IPS Display hat).
Ich habe 3DVision nie probiert. Ist 3D Gaming wirklich so gut? Ich mochte im Kino nie 3D weil es idR schlecht aussieht und man eine Brille tragen muss.
Wie ist das beim Spielen?
Ansonsten merke ich täglich selbst beim ROG SWIFT (mit einem der besten TN Panels die man kaufen kann) direkt den Unterschied zu IPS Panels. Mein 24" FullHD Display (2. Monitor). Farben und Blickwinkel - mich nervt es wenn der Kontrast und die Farben zu den Bildschirmrändern hin abnehmen.
Die Leistung reicht für 4K und 3D IMHO nicht. Auch nicht mit GM200.
2D. SLI. ;)
Und dennoch wird man für butterweiche 50 fps noch hin und wieder das ein oder andere Detail runterschrauben müssen.
3D reicht sie nicht. Mangels 120 Hz @4K wird es auch eine Weile keine 3D Vision Monitore für 4K geben.
Kann ich eigentlich meine normale 3D Shutterbrille vom Samsung Plasma TV für 3D Vision vom ROG Swift benutzen (um es mal zu testen)? Oder muss man dafür extra Brillen kaufen?
4K IPS Monitore mit A/G-Sync werden 2015 kommen. Es wurde ja bereits im Zusammenhang mit A-Sync gehinted. Die Frage ist, ob die G-Sync Fraktion da nachzieht.
Das ist wieder ein sehr kräftiger Schluck aus der Spekulationspulle! :rolleyes: Fakt ist, bisher ist nichts in diesem Bereich angekündigt oder angedeutet. Wenn es alle so einfach wäre, hätten wir ja das Zeug schon, oder? Die Tatsache, daß aber bisher rein gar nichts angedeutet, geschweige den auf den Markt ist, hat doch schon eine gewisse Aussagekraft.
Anhand von Asus und dem ROG Swift kann man doch deutlich sehen, daß Hersteller sehr wohl auch einen Nischenmarkt wie den Gamermarkt bedienen können und wollen. Auch Benq und Acer sind hier schon Vorreiter gewesen. Nur passiert das seltsamerweise bisher ausschließlich mit TN-Panels! So, nun erkläre mir mal genau, warum dann keiner bereit ist, IPS mit G-Sync oder A-Sync anzubieten, oder wenigstens mal anzukündigen? Bei allen anderen Monitoren gab es bestimmt 6 oder mehr Monate mehrfach Ankündigungen, keiner dieser Monitore kam überraschend.
Ich spekuliere mal auch kräftig und behaupte, wenn ich jetzt anhand der oben gemachten Beobachtungen und Fakten 1 und 1 zusammenzähle, gibt es frühestens am Jahresende nächsten Jahres irgend etwas mit IPS oder vergleichbarem. Wir rede also vom Ende 2015, das ist noch locker ein Jahr hin. Die Leute, die also warten, werden hier mindestens noch weitere 12 Monate warten müssen.
Wunschträume und spekulative Fantasien bringen nichts. Und dann sich immer so aus den Fenster zu lehnen, und zu behaupten, es werde etwas geben, woher nehmt Ihr die Gewissheit?
Wir sprechen uns in einem Jahr.
OC_Burner
2014-11-28, 12:14:02
Unter 120Hz mache ich es nicht mehr (auch wegen 3DVision). Ich halte das für viel wichtiger als 4k und IPS. Für mich ist der Unterschied zwischen IPS und TN vernachlässigbar (obwohl ich ihn jeden Tag sehe, da mein Zweitmonitor ein IPS Display hat).
Ich mag ja 120HZ auch aber bei 4K kommt man doch nur mit Mühe auch auf 120FPS. Ist für die meisten wohl kein Kriterium bei 4K Monitoren. Ein Kompromiss wären 60HZ bei 4K Betrieb und 120HZ nur bis 1440p.
Ich hoffe ja auf 4K mit PVA (zur not auch IPS) und polarisations 3D wodurch dann Full-HD ohne Auflösungsverlust mit leichter Brille möglich wäre. Als Sahnehäubchen käme dann noch A-Sync obendrauf.
Grestorn
2014-11-28, 12:18:19
Ich habe 3DVision nie probiert. Ist 3D Gaming wirklich so gut? Ich mochte im Kino nie 3D weil es idR schlecht aussieht und man eine Brille tragen muss.
Wie ist das beim Spielen?
Es ist ein schwieriges Thema.
Es gibt leider zu wenig Spiele, bei denen es wirklich problemlos funktioniert. Es gibt jede Menge Community-Patches, die das verbessern. Dennoch, Crysis3, Skyrim, DMC, alle Batmans, Metro Redux, Tomb Raider, Walking Dead, Max Payne 3, Witcher 2, Vanishing of Ethan Carter und viele andere laufen ausgesprochen gut.
Wenn es gut läuft, ist der Effekt zum niederknien. Nicht wenige möchten gar nicht mehr ohne spielen. Mit Filmen ist der Effekt nur schlecht zu vergleichen.
Aber - die Brille natürlich. Als Brillenträger stört sie mich nicht sonderlich (auch nicht über meiner normalen Brille). Aber wenn man's nicht gewohnt ist...
Und noch was: In 3D zu spielen strengt die Augen mehr an als normal zu spielen. Auch das lässt sich für mich nicht leugnen. Dennoch ist es ein Gimmick, das für mich mehr bringt, als viele andere Dinge für den PC, die ich in den letzten Jahren so gekauft habe.
Ansonsten merke ich täglich selbst beim ROG SWIFT (mit einem der besten TN Panels die man kaufen kann) direkt den Unterschied zu IPS Panels. Mein 24" FullHD Display (2. Monitor). Farben und Blickwinkel - mich nervt es wenn der Kontrast und die Farben zu den Bildschirmrändern hin abnehmen. Ich habe nicht gesagt, dass ich es nicht sehe. Natürlich ist der Effekt, gerade bei einem so großen Monitor, sehr deutlich zu sehen. Ich habe nur gesagt, dass es mich nicht stört.
Ehrlich gesagt: Die Farbwiedergabe ist ohnehin stark subjektiv. Auch dass es eine Verschiebung zu den Rändern gibt, ist nichts was jetzt unbedingt schlechter aussieht. Es ist halt eine Abweichung vom Soll und somit für viele per Definition schlecht. Ich sehe das ein bisschen anders.
Und speziell in Spielen ist der Unterschied absolut irrelevant und meines Erachtens auch unsichtbar.
Kann ich eigentlich meine normale 3D Shutterbrille vom Samsung Plasma TV für 3D Vision vom ROG Swift benutzen (um es mal zu testen)? Oder muss man dafür extra Brillen kaufen?
Du brauchst ein 3D-Vision Kit, also den Sender und die spezielle Brille. Leider sind die derzeit überall ausverkauft.
Chris Lux
2014-11-28, 12:32:27
Vor 10Jahren hatte ich eine 24" 16:10 Röhre, die locker 1920x1200 bei 85Hz machte. Nur gab es keine GPU, die bei der Auflösung 85fps lieferte... Ich habe alles bei 1600x1024 gespielt und war happy. Teilweise ging ich sogar weiter runter.
Warum will eigentlich jeder unbedingt 4k auf einem 4k-Display rendern, wenn es die GPU aktuell einfach nicht hergeben? Die Interpolation sollte doch gut genug sein da ggf. 2560x1440 einzuspielen...
Unicous
2014-11-28, 12:43:07
@PhuV
Du bist doch auch im A-Sync/G-Sync Thread aktiv. Wir haben dort doch schon geklärt (hier ja auch schon eigentlich), dass es IPS-Panels mit A-Sync geben wird. Nicht in einem Jahr (wie kommst du auf diesen Zeitsprung?) sondern zeitnah.
Es gibt zwei unabhängige, seriöse Quellen:
Die eine ist Robert Hallock von AMD, seines Zeichens "Global Technical Marketing Lead", AMDs größtes Sprachrohr in Sachen Radeon und Verfasser unter anderem des Freesync-FAQs usw.
Er bestätigt bei Twitter, dass es 4K IPS Freesync Monitore geben wird, die Hersteller aber entscheiden wann sie das der Öffentlichkeit mitteilen.
Eine zweite seriöse Quelle ist der "Chefeinkäufer" von OcUK Andrew "Gibbo" Gibson, der bestätigt hat, er würde exklusiv mit LG verhandeln IPS Monitore für den Shop einzukaufen bzw. anzubieten (ich schätze mal exklusiv für UK).
Ohne Grund und technischen Hintergrund verbreitest du also weiter Angst, Unsicherheit und Zweifel. Warum?
Annator
2014-11-28, 12:49:39
Vor 10Jahren hatte ich eine 24" 16:10 Röhre, die locker 1920x1200 bei 85Hz machte. Nur gab es keine GPU, die bei der Auflösung 85fps lieferte... Ich habe alles bei 1600x1024 gespielt und war happy. Teilweise ging ich sogar weiter runter.
Warum will eigentlich jeder unbedingt 4k auf einem 4k-Display rendern, wenn es die GPU aktuell einfach nicht hergeben? Die Interpolation sollte doch gut genug sein da ggf. 2560x1440 einzuspielen...
Sehe ich ähnlich. Will eigentlich nur 120Hz, WQHD, 27" mit einer sehr guten Farbwiedergabe. Darauf warte ich seit mehreren Jahren. Habe das Gefühl, dass der 4k Hype das noch weiter verzögert.
robbitop
2014-11-28, 12:54:54
Das ist wieder ein sehr kräftiger Schluck aus der Spekulationspulle! :rolleyes: Fakt ist, bisher ist nichts in diesem Bereich angekündigt oder angedeutet. Wenn es alle so einfach wäre, hätten wir ja das Zeug schon, oder? Die Tatsache, daß aber bisher rein gar nichts angedeutet, geschweige den auf den Markt ist, hat doch schon eine gewisse Aussagekraft.
Anhand von Asus und dem ROG Swift kann man doch deutlich sehen, daß Hersteller sehr wohl auch einen Nischenmarkt wie den Gamermarkt bedienen können und wollen. Auch Benq und Acer sind hier schon Vorreiter gewesen. Nur passiert das seltsamerweise bisher ausschließlich mit TN-Panels! So, nun erkläre mir mal genau, warum dann keiner bereit ist, IPS mit G-Sync oder A-Sync anzubieten, oder wenigstens mal anzukündigen? Bei allen anderen Monitoren gab es bestimmt 6 oder mehr Monate mehrfach Ankündigungen, keiner dieser Monitore kam überraschend.
Ich spekuliere mal auch kräftig und behaupte, wenn ich jetzt anhand der oben gemachten Beobachtungen und Fakten 1 und 1 zusammenzähle, gibt es frühestens am Jahresende nächsten Jahres irgend etwas mit IPS oder vergleichbarem. Wir rede also vom Ende 2015, das ist noch locker ein Jahr hin. Die Leute, die also warten, werden hier mindestens noch weitere 12 Monate warten müssen.
Wunschträume und spekulative Fantasien bringen nichts. Und dann sich immer so aus den Fenster zu lehnen, und zu behaupten, es werde etwas geben, woher nehmt Ihr die Gewissheit?
Wir sprechen uns in einem Jahr.
Es wurde auf dem A-Sync Event gehintet, dass 4K+IPS+A-Sync auf dem Weg sind. Nicht offiziell - aber wenn man nur über 100 % offizielle Dinge redet, dann kann man auch gleich das Forum sein lassen.
mironicus
2014-11-28, 13:21:21
Ich behaupte, dass es ab Frühjahr/Sommer 2015 gar keine neuen GSync-Monitore mehr geben wird und NVidia dazu gezwungen ist A-Sync zu unterstützen, weil die Fans ordentlich Druck machen werden.
Ich verfolge den Thread nun schon eine Weile und habe eben den Swift ausgepackt. Jetzt warte ich nur noch darauf das sich das Teil aklimatisiert hat.
Es ist ein schwieriges Thema...
Aber - die Brille natürlich. Als Brillenträger stört sie mich nicht sonderlich (auch nicht über meiner normalen Brille). Aber wenn man's nicht gewohnt ist...
Mal abgesehen vom Tragekomfort, weiss jemand ob die 3D-Brillen auch für Bifokal-Brillenträger geeignet sind? Bei mir sind es immerhin -5,0 und +1,25 Dioptrien. Im Kino stört es es nicht besonders aber der Monitor ist ja nun ein paar Meter näher dran als die Leinwand....
akuji13
2014-11-28, 13:30:42
Und speziell in Spielen ist der Unterschied absolut irrelevant und meines Erachtens auch unsichtbar.
Mich persönlich stören Farbdarstellung, Schwarzwert und Blickwinkel des Swift massiv.
Sobald da ein besseres Gerät zu haben ist kommt meiner weg.
Wir haben dort doch schon geklärt (hier ja auch schon eigentlich), dass es IPS-Panels mit A-Sync geben wird. Nicht in einem Jahr (wie kommst du auf diesen Zeitsprung?) sondern zeitnah.
Den BenQ XL2720Z sollte es auch schon lange geben. ;)
Wie seriös ein Hersteller ist der seine eigenen Produkte bewirbt sei mal dahingestellt. ;)
Zwischen seriös und zuverlässig hinsichtlich Erscheinungsterminen usw. einen Zusammenhang zu ziehen halte ich für ziemlich gewagt. :D
Unicous
2014-11-28, 13:33:26
Ich behaupte, dass es ab Frühjahr/Sommer 2015 gar keine neuen GSync-Monitore mehr geben wird und NVidia dazu gezwungen ist A-Sync zu unterstützen, weil die Fans ordentlich Druck machen werden.
Das glaube ich nicht. So schnell wird sich G-Sync nicht erledigt haben. Tom Peterson sagt, sie wollen es verbessern und ich denke sie werden wenn nötig, den FPGA (bzw. die ASIC wenn sie existiert) rabattieren. Nvidia ist da sehr stur und wird das durchziehen, solange es sich rechnet.
Nur die Monitorhersteller könnten da Druck aufbauen... aber das kann auch nur geschehen, wenn Intel Adaptive Sync unterstützt...und das steht ja noch in den Sternen (mir ist jedenfalls nicht bewusst, dass Intel Unterstützung zugesagt hätte). Bis dahin wird das parallel weiterlaufen, die Leute sind weiterhin bereit für Nvidia mehr auszugeben.
@akuji13
Welchen "Hersteller" meinst du? AMD? Stellt soweit ich weiß keine Monitore her. FreeSync ist die Hardware- und Softwareumgebung um Adapative Sync Monitore ansprechen zu können. Ich fände es auch eigentlich gut, wenn auf den Monitoren Adaptive Sync-fähig steht und nicht FreeSync-fähig, aber dieses "freie" Marketing wird sich AMD erstmal nicht entgehen lassen.
Was hat ein Monitor von BenQ damit zu tun. Der BenQ G-Sync Monitor sollte auch im Herbst erscheinen und jetzt gibt es ihn glaube ich nur in Amerika und Deutschland steht weiter auf dem Trockenen. BenQ hat wohl Probleme seine Termine einzuhalten, aber das ist hier mehr als irrelevant.
Es ging erst einmal um den Zweifel an IPS Adaptive Sync bzw. 4K IPS Adaptive Sync... während G-Sync eben dies für einen späteren Zeitpunkt eingeräumt wird. Das ist eine absurde Vorstellung.
Kartenlehrling
2014-11-28, 13:52:46
Intel wird es 100% für seine Laptops/Table einsetzten, aber nicht für die Gamer der Welt sondern um den Akku-Strom zu sparen.
Unicous
2014-11-28, 14:07:24
Intel wird es 100% für seine Laptops/Table einsetzten, aber nicht für die Gamer der Welt sondern um den Akku-Strom zu sparen.
Das wäre/ist schon heute möglich. Einfach ein eDP-Display, das Panel Self Refresh beherrscht, verbauen.
Grestorn
2014-11-28, 14:11:08
Mich persönlich stören Farbdarstellung, Schwarzwert und Blickwinkel des Swift massiv.
Sobald da ein besseres Gerät zu haben ist kommt meiner weg.
Meld dich dann, evtl. kauf ich ihn dir ab :)
Mal abgesehen vom Tragekomfort, weiss jemand ob die 3D-Brillen auch für Bifokal-Brillenträger geeignet sind? Bei mir sind es immerhin -5,0 und +1,25 Dioptrien. Im Kino stört es es nicht besonders aber der Monitor ist ja nun ein paar Meter näher dran als die Leinwand....
Ich hab noch keine Bifokal Brille, aber ich brauche unbedingt ein. Das Alter ... :(
Wobei man am Monitor ja immer den Fernbereich nutzt, auch wenn er relativ nah steht. Der Nahbereich ist ja für Dinge, die 5-20cm am Auge sind.
Der 3D Effekt hat mit der Brennweite nichts zu tun. Also auch wenn etwas durch den 3D Effekt gefühlt vor dem Monitor liegt, müssen sich die Augen deswegen immer noch auf die Monitoroberfläche fokussieren. Diese Diskrepanz zwischen der Entfernung, die die Linse zum fokussieren enstellt und der Entfernung, die Deine beiden Augen durch die Paralaxe erkennen, ist ja auch ein Problem, das einigen Menschen etwas zu schaffen macht.
@PhuV
Du bist doch auch im A-Sync/G-Sync Thread aktiv. Wir haben dort doch schon geklärt (hier ja auch schon eigentlich), dass es IPS-Panels mit A-Sync geben wird. Nicht in einem Jahr (wie kommst du auf diesen Zeitsprung?) sondern zeitnah.
Nochmals: ES GIBT BISHER KEINE EINZIGE KONKRETE PRODUKTANKÜNDIGUNG EINES A/G-SYNC-FÄHIGEN IPS/PLS-MONITORS!
Du brauchst Dir doch nur mal die Meldungen in den diversen Computerportalen über alle verschiedenen Monitore ansehen, die waren alle mit 3-6 Monaten vorher angekündigt worden.
Ohne Grund und technischen Hintergrund verbreitest du also weiter Angst, Unsicherheit und Zweifel. Warum?
Also jetzt muß ich wirklich lachen. Wenn ich mit Fakten und ungelegten Eier bzw. Hardware, die bisher weder angekündigt ist, geschweige den über die permanente hohlen Phrasen, was da kommen könnte, und Sachen, die man nicht kaufen kann Angst, Unsicherheit und Zweifel verbreiten kann, dann haben wir ein ganz anderes Problem. Das trägt ja schon wirklich religiöse Züge hier. :rolleyes:
Bis jetzt wurde nur heiße Luft produziert, mehr nicht. Und wir wissen es erst dann, wenn es da ist! Und bisher weiß keiner etwas genaues. Was alles CEOs und sonstwas ankündigen ist mir egal, das sind auch nur Luftnummern, bis sie dann konkret werden. Es wurde schon vieles angekündigt, und vieles ist eben auch nicht gekommen, ich nenne mal als Beispiel eines von vielen: Intel Larrabee.
Was nützt den jemanden ein Gerücht oder eine Ankündigung, wenn er sich jetzt was kaufen will? Wer immer wartet, wartet ewig, ganz einfach.
robbitop
2014-11-28, 14:16:51
Naja aber zumindest halboffiziell und ernstzunehmen ist es schon, wenn ein AMD PR Manager offiziell (Twitter) so etwas ankündigt. Und Samsung ist auch kein kleines Licht.
Ich sehe da auch kein großes Problem, weil A-Sync eh in allen neuen Scalern (zumindest bei Samsung) drin ist. Also damit auch in allen neuen 4K IPS Monitoren nächstes Jahr.
G-Sync ist eine andere Nummer. Da müssen teure, propretäre FPGAs gekauft werden und drum herum ein Monitor entwickelt werden. Bei A-Sync nimmst du einfach deinen neuen Standardscaler, der überall eingebaut wird.
akuji13
2014-11-28, 14:23:06
Welchen "Hersteller" meinst du? AMD?
Die Monitorhersteller.
Und von denen gibts es keinerlei konkrete Aussagen.
AMD´s Aussagen sind geprägt von Hoffnungen um im Weihnachtsgeschäft gegen Maxwell nicht völlig hinten runterzufallen.
Was hat ein Monitor von BenQ damit zu tun.
Es ist ein konkretes Beispiel was von Ankündigungen und der realen Umsetzung zu halten ist.
Meld dich dann, evtl. kauf ich ihn dir ab :)
Jo.
Unicous
2014-11-28, 14:23:24
@PhuV
Erstens bold und Großbuchstaben? Wirklich. Wir sind hier nicht bei 4chan, zügele dich bitte.
Das trägt ja schon wirklich religiöse Züge hier. :rolleyes:
Wenn ich und andere sagen die Erde ist rund, rein schon aus einer physikalischen Notwendigkeit und du dann behauptest ich glaube es erst wenn ich es sehe, was soll man da noch sagen? Ich kann dir leider keinen Flug zur ISS finanzieren und Virgin hatte gerade einen Unfall (auch das könnte und würde ich dir aber nicht finanzieren wollen $200k+ liegt nicht in meinem Budget).
Du zweifelst IPS und Adaptive Sync an, einzig und allein weil es keine G-Sync Monitore mit IPS gibt? Aber du lieferst keine technische Erklärung dafür. Und dann sagst du, es würde religiöse Züge annehmen wenn man dir erklärt, es wäre technisch möglich. Immer und immer wieder.
Liefere uns doch bitte harte Fakten die gegen IPS und VRR sprechen.
@akuji13
Was hat das Weihnachtsgeschäft damit zu tun? Robert Hallock hat lediglich ausgesagt, dass es die Kombination 4K+IPS+AS gibt und darauf verwiesen, dass er nicht sagen kann welcher Hersteller und wann sie erscheinen, weil er unter NDA steht. Zur CES verspricht er mehr Vorstellungen. Also sagt er selbst man muss bis zur CES warten. Ob Fudzilla mit BenQ und Viewsonic Recht hat steht in den Sternen. Fakt ist: Ein hochrangiger AMD Arbeiter, der unmittelbar in das Freesync-Projekt involviert ist hat das bestätigt. Und er äußert sich normalerweise nicht zu unangekündigten Produkten. Dass IPS und Adaptive Sync auch von Herstellerseite möglich ist, zeigt der hochrangige Mitarbeiter von Overclockers UK.
Und nochmals, was hat BenQs Produktankündigungsmentalität mit dem Thema zu tun? Weil BenQ unzuverlässig ist, ist es LG, Samsung und Co. auch? Regt man sich bei den verspäteten G-Sync Monitoren so künstlich auf? Man stöhnt vllt. ein bißchen, aber man bauscht das doch nicht künstlich zu einem Skandal auf.
Ich verstehe überhaupt nicht wo dein Problem liegt. BenQ unzuverlässig=alle anderen auch scheiße?
Wenn ich und andere sagen die Erde ist rund
Ach bitte, das ist doch jetzt Unsinn und eine ganz anderen Nummer.
Du zweifelst IPS und Adaptive Sync an, einzig und allein weil es keine G-Sync Monitore mit IPS gibt? Aber du lieferst keine technische Erklärung dafür.
Hab ich doch bereits vorher. Nur akzeptiert Du das nicht. Wenn es so einfach wäre, warum haben wir dann keine IPS-Monitore mit A/G-Sync? Jemand, der Geld verdienten will, baut doch gerne für Nischen etwas. IPS ist bezahlbar, G-Sync ebenfalls, die 100 € mehr reissen es auch nicht raus. So, wo bleiben sie denn? Und wenn es nicht mal im realen Dingen getan wird, dann meinst Du, eine Ankündigung allein regelt alles weitere. Samsung hätte doch bei der Ankündigung ein IPS-Panel nennen können. Haben sie aber nicht getan. Warum wohl?
Und dann sagst du, es würde religiöse Züge annehmen wenn man dir erklärt, es wäre technisch möglich. Immer und immer wieder.
Es wäre auch technisch möglich, zum Mars zu fliegen. Macht aber tatsächlich keiner, weil es zu teuer und aufwendig ist.
Liefere uns doch bitte harte Fakten die gegen IPS und VRR sprechen.
Brauche ich doch gar nicht. Ich kann doch gegen nichts liefern, wenn nichts da ist. ;)
Sag ich doch, es trägt schon religöse Züge hier. Du kannst nicht beweisen, ob es etwas nicht gibt. Man kann nur beweisen, wenn es etwas gibt. Was ist daran bitte schön so schwer zu verstehen? Nichts ist nichts, da kann man nichts beweisen. Es muß erst mal bewiesen werden, ob etwas geht, so wird ein Schuh draus.
Ich gehe mit Dir gerne eine Wette ein, sollte auch um was gehen: Ich sage, es gibt (ab heute) innerhalb der nächsten 6 Monaten keinen IPS-Monitor mit A/G-Sync im Bereich bis zu 1500 € zu kaufen. Stichtag ist dann der 28.05.2015. Um was wetten wir?
akuji13
2014-11-28, 14:59:13
Was hat das Weihnachtsgeschäft damit zu tun?
Grundkurs Marktwirtschaft?
Freesysnc ist ein Anreiz eine aktuelle AMD Karte zu erwerben.
Ist ein release entsprechender Monitore unklar oder in weiter Ferne sinkt das Interesse.
Und AMD muss sich an jeden Strohalm klammern und gegen die 970 anzukommen.
Und nochmals, was hat BenQs Produktankündigungsmentalität mit dem Thema zu tun? Weil BenQ unzuverlässig ist, ist es LG, Samsung und Co. auch?
Firmen sind grundsätzlich kritisch zu betrachten.
Also ob BenQ da alleine wäre.
Ziehe ich G-Sync heran kann ich das auf etliche Monitorhersteller inklusive NV ausweiten.
Regt man sich bei den verspäteten G-Sync Monitoren so künstlich auf? Man stöhnt vllt. ein bißchen, aber man bauscht das doch nicht künstlich zu einem Skandal auf.
Wo wird denn das hier bitte zum Skandal aufgebauscht?
Ich verstehe überhaupt nicht wo dein Problem liegt. BenQ unzuverlässig=alle anderen auch scheiße?
Ich habe überhaupt kein Problem, höchstens du mit deiner Leichtgläubigkeit. ;)
Über 30 Jahre Erfahrung als Kunde haben mir mehr als genug Produkte beschert auf die ich noch heute warte...OLED soll es ja auch bald geben seit Jahren. :D
Und da steht zufällig auch ein ganz großer dahinter. ;)
Unicous
2014-11-28, 14:59:29
@PHuV
Du bist schon wieder beim Sätze zerlegen angekommen. Es macht keinen Spaß mit dir zu diskutieren. Recht und Ruhe und so.:rolleyes:
edit:
Seid ihr irgendwie verwandt? Zerlegt ihr immer Postings in ihre einzelnen Sätze? Ist ja schrecklich. Und schlimm wäre es, wenn jeder machen würde.
@akuji13
AMD bewirbt FreeSync jetzt seit fast einem Jahr und entsprechende Hardware seit ca. einem halben Jahr. Was hat das mit dem Weihnachtsgeschäft zu tun. Du konstruierst hier etwas zusammen um ein fadenscheiniges Argument zu haben, die Aussage zu diskreditieren.
Das mit der Leichtgläubigkeit verbitte ich mir, das schlägt in die gleiche Kerbe wie die Aussagen von PhuV. Es geht nicht darum wann und wo es enstprechende Monitore gibt sondern darum, dass es überhaupt technisch möglich ist. Die Wissenschaft sagt: Ja. PhuV und anscheinend du auch sagen: Nein.
Der Skandal besteht darin, dass du völlig aus dem Nichts einen irrelevanten Vergleich zu BenQ ziehst, der aber auch nichts mit dem Thema zu tun hat und nicht mal ansatzweise argumentatorisch verwertbar ist. Was hat die Zuverlässigkeit von BenQ mit IPS Panels zu tun? Ich verstehe es nicht. Es ist mir unverständlich.
Und der Allgemeinplatz "Firmen sind grundsätzlich kritisch zu betrachten." ist auch völlig irrelevant. Wir sind hier in einem Technikforum. Einige Leute sprechen bei Adaptive Sync weiterhin von Vaporware, obwohl es jetzt schon zumindest ein öffentliches Commitment von einem Hersteller gibt. Und dann wird das in anderen Foren sogar so zusammengesponnen, dass Samsung nur Nvidia eins auswischen will, weil sie verklagt wurden.
Wir sind hier doch nicht bime Kopp Verlag.
Ein Grundskeptizismus ist immer angesagt, aber doch nicht bei etablierten technologischen Fakten und der Extrapolation auf ähnliche Technologien. Hier geht es nicht um Voodoo, Magie und Religion. Es ist möglich und da sollte es auch keine Debatte drüber geben. Variable Refreshraten sind ersteinmal völlig unabhängig vom Paneltyp. Das in Frage zu stellen ist nichts weiter FUD.
Grundkurs Marktwirtschaft?
Freesysnc ist ein Anreiz eine aktuelle AMD Karte zu erwerben.
Ist ein release entsprechender Monitore unklar oder in weiter Ferne sinkt das Interesse.
Und AMD muss sich an jeden Strohalm klammern und gegen die 970 anzukommen.
Genau so sieht es auch aus. In meinen Augen ist das reine Hinhaltetaktik, damit die Leute, die sich nicht entscheiden können, noch länger hingehalten werden.
Ich habe überhaupt kein Problem, höchstens du mit deiner Leichtgläubigkeit. ;)
Über 30 Jahre Erfahrung als Kunde haben mir mehr als genug Produkte beschert auf die ich noch heute warte...OLED soll es ja auch bald geben seit Jahren. :D
Und da steht zufällig auch ein ganz großer dahinter. ;)
Das ist es eben. Wenn man so lange mit dabei ist, hat man vieles in diesem Bereich kommen und gehen sehen, besonders das Geschwätz diverser CEOs. Es wurde so viel versprochen, und was kam? Richtig, OLED ist auch so ein Reizthema. Ich war so viele Jahre regelmäßig auf der IFA, und hab nachgefragt, wann ich den endlich mal so einen schicken Monitor kaufen kann. "Bald, nicht mehr lange!" war die Antwort, und ich warte schon seit 5 Jahren darauf.
akuji13
2014-11-28, 15:05:40
Alleine das G-Sync Thema sollte uns doch schon Mahnung genug sein was von "bald" zu halten ist. ;)
@PHuV
Du bist schon wieder beim Sätze zerlegen angekommen. Es macht keinen Spaß mit dir zu diskutieren. Recht und Ruhe und so.:rolleyes:
Ach komm jetzt, wie soll ich den sonst auf Deine Argumente gezielt eingehen? :confused: Anders funktioniert das doch nicht.
Natürlich kann ich Deine Vorfreude verstehen, und auch die Hoffnungen dahinter. Aber wenn nix da ist, ist nun mal nix da, und dann ist alles Gerede einfach nur heiße Luft, mehr nicht.
Und wir spielen derweil mit G-Sync und müssen mit den TN-Paneln leben. Denkst Du, mir macht das permanente Monitorgeschiebe zwischen Acer und LG Spaß? Ich hoffe, daß mein Monitorarm endlich da ist, damit erst mal das erledigt ist.
Unicous
2014-11-28, 15:20:10
Vorfreude?:rolleyes:
Es geht einzig und allein um die Technologie, die Hand und Fuß hat und schon vor Jahren (z.B. durch Intel) vorgestellt wurde. Wir drehen uns im Kreise weil du das nicht anerkennen willst. Stattdessen kommt eine Geschichte vom geprellten OLED-Enthusiasten die irrelevant ist.
Es gibt keinen technologischen Hinderungsgrund, der IPS und variable Refreshraten verhindert, nur die Zweifel die du hier säst, die aber keinen technologischen Hintergrund haben.
@akuji13
Es geht nicht um den Zeitpunkt, verstehe das doch bitte endlich.
Es geht einzig und allein um die Technologie, die Hand und Fuß hat und schon vor Jahren (z.B. durch Intel) vorgestellt wurde. Wir drehen uns im Kreise weil du das nicht anerkennen willst. Stattdessen kommt eine Geschichte vom geprellten OLED-Enthusiasten die irrelevant ist.
Es gibt keinen technologischen Hinderungsgrund, der IPS und variable Refreshraten verhindert, nur die Zweifel die du hier säst, die aber keinen technologischen Hintergrund haben.
Intel hat auch Larrabee angekündigt. Und wo gibt's das nun zu kaufen? q.e.d.
Thunderbolt wurde übrigens auch als moderne Schnittstelle angekündigt, eben auch als Ersatz für DVI und Co Wo haben wir Monitore damit? Findest Du ganz selten. TB wurde auch gleich mit 40 GB/s versprochen, haben wir auch noch nicht, wir sind gerade mal bei 20 GB/s mit TB2. Und das versprochene optische wurde auch aus Kostengründen weggelassen, statt dessen gabs dann doch wieder nur Kupfer.
Rente
2014-11-28, 15:29:17
Intel hat auch Larrabee angekündigt. Und wo gibt's das nun zu kaufen? q.e.d.
Kein gutes Beispiel: http://geizhals.de/?cat=gra16_512&asd=on&asuch=Xeon%20Phi
akuji13
2014-11-28, 15:29:39
Zerlegt ihr immer Postings in ihre einzelnen Sätze? Ist ja schrecklich. Und schlimm wäre es, wenn jeder machen würde.
Es tut mir leid wenn du nicht in der Lage bist solchen posts zu folgen.
Die Masse kann es.
AMD bewirbt FreeSync jetzt seit fast einem Jahr und entsprechende Hardware seit ca. einem halben Jahr. Was hat das mit dem Weihnachtsgeschäft zu tun. Du konstruierst hier etwas zusammen um ein fadenscheiniges Argument zu haben, die Aussage zu diskreditieren.
Und seit fast einem Jahr gibt es nichts kaufbares.
Jetzt gibt es die 970 die sich wie geschnitten Brot verkauft, AMD hat wenig exklusive features die sie dagegen setzen können.
Hier wird nichts diskreditiert, das nennt sich Marktwirtschaft.
Da gehört Klappern zum Handwerk, sich mal wieder ins Gespräch bringen.
Es geht nicht darum wann und wo es enstprechende Monitore gibt sondern darum, dass es überhaupt technisch möglich ist. Die Wissenschaft sagt: Ja. PhuV und anscheinend du auch sagen: Nein.
Na dann bin ich ja mal gespannt wo ich geschrieben habe das das nicht gehen soll.
Bitte mit Angabe der Stellen.
Mir ging es stets nur darum das diese Produkte nicht kaufbar sind und es unklar ist ab wann.
Der Skandal besteht darin, dass du völlig aus dem Nichts einen irrelevanten Vergleich zu BenQ ziehst, der aber auch nichts mit dem Thema zu tun hat und nicht mal ansatzweise argumentatorisch verwertbar ist. Was hat die Zuverlässigkeit von BenQ mit IPS Panels zu tun? Ich verstehe es nicht. Es ist mir unverständlich.
Dann solltest du besser nichts mehr schreiben wenn du nicht in der Lage bist einfachste Sätze nicht zu verstehen.
Kein gutes Beispiel: http://geizhals.de/?cat=gra16_512&asd=on&asuch=Xeon%20Phi
Ein perfektes Beispiel.
Klick mal auf "lagernd". ;)
Unicous
2014-11-28, 15:41:32
Hilfe, PhuV. Geht's noch weiter vom Thema weg? Larrabee ist jetzt XeonPhi, Thunderbolt knocked sich wie Firewire selbst aus weil es teuer ist und Zusatzhardware erfordert...oh wie G-Sync auch. Gut doch nicht so weit vom Thema entfernt.:freak:
@akuji13
"Die Masse" zitiert entweder komplett oder gar nicht.
Deine adhominens kannst du in der Schublade lassen. Dein kompletter Post ist nichtssagend und hat nichts mit der ursprünglichen Fragestellung zu tun.
Ernstgemeinte Frage. Warum müsst ihr künstlich vom Thema abkommen. Die Frage war IPS und Adaptive Sync, technisch möglich oder nicht? Es ging nicht um AMD, oder ihre Produkte oder die 970, oder Marktwirtschaft oder Handwerk, nicht kaufbare Produkte, mein Leseverständnis :rolleyes: geizhals-Listungen...edit von Xeon Phi? Als ob man die Dinger im Einzelhandel kauft. Ganz großer Triple Facepalm.
Ihr beiden seid echt ganz weit weg. Ganz weit weg.
nalye
2014-11-28, 15:45:37
Und ihr kommt mal bitte ganz weit weg von den persönlichen Anfeindungen hier
Kartenlehrling
2014-11-28, 15:48:17
Thunderbolt
Das ist genauso wie mit dem G-sync, man verlangt viel zu hohe lizenzgebühren.
Kein gutes Beispiel: http://geizhals.de/?cat=gra16_512&asd=on&asuch=Xeon%20Phi
Larrabee != Xeon Phi. Weiterin schau Dir mal die Intension an, und was man daraus gemacht macht. Xeon Phi wird nicht als GPU vermarktet, sondern hat einen ganz anderen Zweck. Den Preis lasse ich mal unkommentiert,
Ein perfektes Beispiel.
Klick mal auf "lagernd". ;)
Und vor allen Dingen muß man sich den Zeitraum ansehen. Larrabee wurde 2007 groß angekündigt. Wir haben 2014, und das Ding gibt's noch nicht zu kaufen.
Das ist genauso wie mit dem G-sync, man verlangt viel zu hohe lizenzgebühren.
Das spielt erst mal keine Rolle. Es war großartig als optische Schnittstelle der Zukunft (auch für Monitore) mit Anfangsgeschwindigkeiten von 40 GB/S angekündigt, und rausgekommen ist in der ersten Stufen nur eine lummelige Kuperleitung mit 10 GB/s.
Hilfe, PhuV. Geht's noch weiter vom Thema weg? Larrabee ist jetzt XeonPhi, Thunderbolt knocked sich wie Firewire selbst aus weil es teuer ist und Zusatzhardware erfordert...oh wie G-Sync auch. Gut doch nicht so weit vom Thema entfernt.:freak:
Und was unterscheidet das nun von AMD und Co.? Macht AMD automatisch alles besser, oder die anderen Monitorhersteller? Es ist das übliche Marketinggedöns, was Du nicht wahrhaben willst.
Aber Du hast mich auf eine gute Idee gebraucht, ich schreibe mal frech alle Monitorhersteller an, warum es kein IPS+G-Sync gibt, oder wann nun A-Sync mit IPS kommt. Ich erwarte zwar keine ernsthaften Antworten, aber man kann es ja mal probieren.
Update: Es gibt Acer, Asus, Benq, wenn gibts den noch bisher mit G-Sync? Eizo und Philips haben 120 Hz, die würde ich mal nicht anschreiben. Und Samsung wird vermutlich auch nichts rausrücken.
Godmode
2014-11-28, 18:05:27
Ich habe 3DVision nie probiert. Ist 3D Gaming wirklich so gut? Ich mochte im Kino nie 3D weil es idR schlecht aussieht und man eine Brille tragen muss.
Wie ist das beim Spielen?
3DVision ist die größte Aufwertung der Spielerfahrung die ich die letzten Jahre am PC erlebt habe. Wenn es funktioniert ist es einfach atemberaubend. Schade das die Marktdurchdringung nicht geglückt ist, wenn mehre Leute wissen würden wie genial das ist, würde es jeder haben wollen. Typisches Henne-Ei Problem.
robbitop
2014-11-28, 18:07:56
Was ich blöd finde, ist dass es wieder propertärer Kram ist. Wie G-Sync. :(
Warum kann man nicht den 3D-Standard nutzen, den es für TVs gibt? Die Shuttern auch. Dann könnte man jede x beliebige 3D Brille nehmen und es nutzen. Warum bauen die Monitorhersteller den Sensor nicht direkt in den Monitor ein?
Was mich bei 3D nervt ist die Brille. Ich trage bereits eine Brille zum sehen und muss dann 2 tragen.
So richtig ausgereift ist das Thema 3D IMO noch nicht.
fondness
2014-11-28, 18:10:23
Weil NV wie üblich alles boykottiert wo sie die Kunden nicht abzocken können. Es könnte auch schon längst einen gemeinsamen Physik-Standard geben und und und. Solange die Kunden das goutiert und auch noch toll finden wird sich daran auch nichts ändern. NV hat zunehmend die Marktmacht auf offene Standards verzichten zu können.
robbitop
2014-11-28, 18:14:16
Naja über PhysX brauchen wir nicht zu reden. IMO sinnlos da nur Effektphysik. Man müsste Physikengines für SoCs schreiben (AMDs Fusion APUs und Intels Cores). Dann wäre die Latenz geringer und dann könnte man auch Spielphysik machen. Und dabei OpenCL nutzen.
Ist hier aber nicht das Thema.
Rancor
2014-11-28, 18:16:53
Weil NV wie üblich alles boykottiert wo sie die Kunden nicht abzocken können. Es könnte auch schon längst einen gemeinsamen Physik-Standard geben und und und. Solange die Kunden das goutiert und auch noch toll finden wird sich daran auch nichts ändern. NV hat zunehmend die Marktmacht auf offene Standards verzichten zu können.
Und warum haben sie die Marktmacht?
Weil die Konkurrenz hauptsächlich Müll produziert. Niemand wird gezwungen NV Produkte zu kaufen.
Die Frage ist wieso wird es gemacht? Weil es einfach die besseren Produkte sind...
AMD soll aus dem Arsch kommen und vernüftige Treiber rausbringen, sprich sich nicht auf Mantle konzentrieren ( wird ehh bedeutungslos mit dx12 ), sondern an der DX Performance schrauben, Features wie DSR etc.. bringen.
Dann klappt es auch wieder mit den Marktanteilen... Die Hardware ist ja top !
fondness
2014-11-28, 18:18:03
Naja über PhysX brauchen wir nicht zu reden. IMO sinnlos da nur Effektphysik. Man müsste Physikengines für SoCs schreiben (AMDs Fusion APUs und Intels Cores). Dann wäre die Latenz geringer und dann könnte man auch Spielphysik machen. Und dabei OpenCL nutzen.
Ist hier aber nicht das Thema.
Das war auch nur ein weiteres Beispiel, du hast ja nach einen 3D-Standard gefragt. Es gab durchaus Initiativen in diese Richtung, NV wollte es halt nicht.
aufkrawall
2014-11-28, 18:23:24
Heiße Luft, die großen Studios werden über die Lebensdauer der aktuellen Konsolengeneration eh (mit eigenen Lösungen oder Havok) alles rausholen was geht. Für krass bessere Gameplay-Physik reicht sowieso die Rechenleistung nicht aus.
Abgesehen davon braucht man sicher kein OpenCL für so etwas bzw. will es gar nicht haben.
robbitop
2014-11-28, 18:50:03
Und wie willst du die Hardware auf dem PC sonst ansprechen?
aufkrawall
2014-11-28, 19:14:38
Eine zusätzliche GPU einbinden wird mit DX12/Mantle nicht das Problem sein.
Die Sinnhaftigkeit für Gameplay-Physik ist aber einfach nicht gegeben bei den momentanen Schleich-APUs mit Flaschenhals Bandbreite.
Ist gut, dass AMD die Ersten sind, sie brauchen zum Überleben dringend irgendwelche, hoffentlich zukunfsträchtigen, Nischen.
Ohne NV & Intel, die beide noch nicht so weit sind/waren, geht aber gar nichts, weils der Markt nicht hergibt. Wahrscheinlich eh nicht vor der nächsten Konsolen-Gen, weil die jetzige, wie gesagt, zu langsam ist.
Was ich blöd finde, ist dass es wieder propertärer Kram ist. Wie G-Sync. :(
Warum kann man nicht den 3D-Standard nutzen, den es für TVs gibt? Die Shuttern auch. Dann könnte man jede x beliebige 3D Brille nehmen und es nutzen. Warum bauen die Monitorhersteller den Sensor nicht direkt in den Monitor ein?
Nicht ganz, Du brauchst hier leider doch wieder mehrfach herstellerspezifisch die Brillen. Bei Beamern genau so. :mad:
akuji13
2014-11-28, 22:41:35
Weil NV wie üblich alles boykottiert wo sie die Kunden nicht abzocken können.
Bringst du das Geheule auch bei allen anderen Produkten des täglichen Lebens wo ein Hersteller das verhindert?
Naja über PhysX brauchen wir nicht zu reden. IMO sinnlos da nur Effektphysik.
Sehe ich anders.
Macht wie AF auch Spiele schöner.
Grestorn
2014-11-29, 00:56:03
Warum kann man nicht den 3D-Standard nutzen, den es für TVs gibt? Die Shuttern auch. Dann könnte man jede x beliebige 3D Brille nehmen und es nutzen. Warum bauen die Monitorhersteller den Sensor nicht direkt in den Monitor ein?Es gibt meines Wissens keinen Standard für TV Geräte. Jeder Hersteller kocht sein eigenes Süppchen.
Und es gibt durchaus Monitore mit integriertem Sender.
Was mich bei 3D nervt ist die Brille. Ich trage bereits eine Brille zum sehen und muss dann 2 tragen. Ohne Brille wird es m.E. nie zufriedenstellend funktionieren.
Auf der IFA konnte man sich schon 3D ohne Brillen ansehen. War einmal so lala, und eines war richtig gut. 4 m Plasma-Bildschirm von Panasonic.
Terrarist
2014-11-29, 04:55:09
3D kommt erst gut wenn mehr als 45° des Sichtfelds abgedeckt werden, was in normalen Wohnzimmern selbst mit nem Beamer schwierig wird. VR Brillen sind da sinnvoll für den Privatanwender ohne eigenes Mega Heimkino..
Botcruscher
2014-11-29, 10:26:13
3DVision ist die größte Aufwertung der Spielerfahrung die ich die letzten Jahre am PC erlebt habe. Wenn es funktioniert ist es einfach atemberaubend. Schade das die Marktdurchdringung nicht geglückt ist, wenn mehre Leute wissen würden wie genial das ist, würde es jeder haben wollen. Typisches Henne-Ei Problem.
Weil ein HMD in jeder Hinsicht besser ist. Die sollen endlich ein ordentliches Display in das Rift stecken.
Godmode
2014-11-29, 11:46:16
Was ich blöd finde, ist dass es wieder propertärer Kram ist. Wie G-Sync. :(
Warum kann man nicht den 3D-Standard nutzen, den es für TVs gibt? Die Shuttern auch. Dann könnte man jede x beliebige 3D Brille nehmen und es nutzen. Warum bauen die Monitorhersteller den Sensor nicht direkt in den Monitor ein?
Was mich bei 3D nervt ist die Brille. Ich trage bereits eine Brille zum sehen und muss dann 2 tragen.
So richtig ausgereift ist das Thema 3D IMO noch nicht.
Tja, Nvidia macht immer viel, aber leider meistens proprietär, das ist auch der Grund IMHO, warum sich die Sachen nie richtig durchsetzen. Ich meine wem bringt GPU Physx was, bei den wenigen Titeln?
Es gibt Monitore, die haben den Sensor integriert. Die Brille stört mich überhaupt nicht und ich bin auch Brillenträger.
Zu 3D Vision nochmal: Das Kit bekommt man um 100 Euro. Ich würde das einfach mal kaufen und wenn es dir nicht gefällt, kannst du es wieder verscherbeln. Auch wenn nicht so viele Spiele eine perfekte Unterstützung haben, ist es für die wenigen, wo es gut funktioniert, auf jeden Fall wert.
Weil ein HMD in jeder Hinsicht besser ist. Die sollen endlich ein ordentliches Display in das Rift stecken.
Ja schon, aber die gibt es erst seit kurzem. 3D Vision gibt es seit Jahren. Ich kann mir auch vorstellen, das man 3D Vision weiterhin nutzen wird, da man bei HMD bei gewissen Genres mit starker Motion-Sickness zu kämpfen hat.
Grestorn
2014-11-29, 12:35:57
Weil ein HMD in jeder Hinsicht besser ist. Die sollen endlich ein ordentliches Display in das Rift stecken.
Das bezweifle ich ehrlich gesagt etwas. Die Entkopplung von Bewegung und Blickrichtung ist noch störender als bei der indirekten Maus- und Tastatursteuerung.
3D kommt erst gut wenn mehr als 45° des Sichtfelds abgedeckt werden, was in normalen Wohnzimmern selbst mit nem Beamer schwierig wird. VR Brillen sind da sinnvoll für den Privatanwender ohne eigenes Mega Heimkino..
Kann ich so bestätigen, mit 3,80mx2,20m Fläche. :cool:
Ich habe deshalb 3D-Vision wieder aufgegeben.
Ich kann mir auch vorstellen, das man 3D Vision weiterhin nutzen wird, da man bei HMD bei gewissen Genres mit starker Motion-Sickness zu kämpfen hat.
Sehe ich auch so. Wer will den, daß ihm beim Spielen permanent schlecht wird? Das passiert bei 3D Vision eben nicht.
akuji13
2014-11-29, 13:59:10
Hat jemand von euch diesen Moni zu Hause?
http://geizhals.de/samsung-s27d590c-a1151752.html
Habe ihn gerade hier und würde gerne weitere Meinungen dazu einholen.
Ex3cut3r
2014-11-29, 15:36:07
FHD auf 27? Ich glaube das ist für viele hier ein K.O Kriterium. Obwohl er sonst von specs schon nicht schlecht ist, gebogen, MVA, stylishes design.
dargo
2014-11-29, 16:22:51
Jup, 1440p sollten es bei dieser Größe schon sein.
SamLombardo
2014-11-30, 07:19:02
Auch wenn nicht so viele Spiele eine perfekte Unterstützung haben, ist es für die wenigen, wo es gut funktioniert, auf jeden Fall wert.
Nicht zu vergessen: 3D Vision hat eine der aktivsten Communities. Wenn ein Spiel kein 3D Vision unterstützt, dauert es nicht lange (manchmal ein paar Wochen) und der entsprechende Fix ist draußen. Siehe Liste hier. (http://helixmod.blogspot.de/2013/10/game-list-automatically-updated.html)
Also uch kann nur empfehlen, es einfach mal zu testen. Und wartet es ab, unter Umständen wollt ihr dann nicht mehr zu 2D Gaming zurück:wink:.
ChaosTM
2014-11-30, 09:05:19
Kann ich so bestätigen, mit 3,80mx2,20m Fläche. :cool:
Nette Größe! Wie viele Lumen hat das Ding?
Das Bild meines 2400 Lumen Epson 5030er wird ab 3m Breite schon zu ausgewaschen und die Pixelstruktur wird stark sichtbar. Mein alter Panasonic war da besser.
Mein Ziel ist natürlich sowas https://geizhals.at/sony-vpl-vw300es-a1179575.html.
Sorry für das leichte OT.
3D Vision verliert immer gegen einen halbwegs guten Beamer.
akuji13
2014-11-30, 10:52:59
FHD auf 27? Ich glaube das ist für viele hier ein K.O Kriterium.
Jup, 1440p sollten es bei dieser Größe schon sein.
Ich plane eher von WQHD zurück auf 1080p weil mir die fps nicht reichen. :D
Aber das Gerät ist eh nix. ;)
ChaosTM
2014-11-30, 11:19:43
Das Panel schaut interessant aus.
Bitte sowas in 1440p/27" und/oder 2160p/27" oder 30+" incl. V/G Sync.
Ein 24er mit 1440p wär für viele sicher auch interessant.
dargo
2014-11-30, 13:38:55
Ich plane eher von WQHD zurück auf 1080p weil mir die fps nicht reichen. :D
Aber das Gerät ist eh nix. ;)
Deshalb sage ich auch... alles größer 1080p nur mit Freesync. ;) Ich hatte hier schon mal zu Testzwecken einen 27-er mit 1080p. Mir war die Auflösung zu grobkörnig. Ist wie vieles Geschmacksache, muss jeder für sich selbst entscheiden ob er damit klarkommt. Ich persönlich würde bei 1080p nur 24" nehmen.
[dzp]Viper
2014-11-30, 13:47:25
Deshalb sage ich auch... alles größer 1080p nur mit Freesync. ;) Ich hatte hier schon mal zu Testzwecken einen 27-er mit 1080p. Mir war die Auflösung zu grobkörnig. Ist wie vieles Geschmacksache, muss jeder für sich selbst entscheiden ob er damit klarkommt. Ich persönlich würde bei 1080p nur 24" nehmen.
Ich habe momentan einen 27" mit 1080p (BenQ GW2760S -VA Panel) . Am Anfang fand ich das auch ein wenig grobkörnig. Mittlerweile habe ich mich dran gewöhnt. Was mir aber bei dem Monitor nicht gefällt ist die extrem ungleiche Ausleuchtung. Deswegen wird der Monitor sicher keine 3-4 Jahre bleiben ;)
Aber 1440p wären wahrscheinlich doch sichbar besser. Aber störend ist es mit 1080p nicht solange man weit genug weg sitzt. Ich habe einen Abstand zum Monitor von 0,8-1,0m.
Ex3cut3r
2014-11-30, 13:55:54
Ich plane eher von WQHD zurück auf 1080p weil mir die fps nicht reichen. :D
Aber das Gerät ist eh nix. ;)
Oh ok, das sieht man wieder wie unterschiedlich, die Geschmäcker sind. Ich plane nämlich von 1080p auf 3440x1440 aufzusteigen. ;) Allerdings nicht grade güngstig, da eine neue Graka auch fällig wird.
Mfg
akuji13
2014-11-30, 17:29:00
Viper;10439832']Ich habe einen Abstand zum Monitor von 0,8-1,0m.
Bei dem Sitzabstand würde ich den Monitor gar nicht mehr sehen. :D
Ich habe von Asus bereits eine Antwort bzgl. Anfrage IPS und A/G-Sync erhalten. Sie machen es sich ganz einfach, und sagen, daß sie keine Angaben machen können.
Botcruscher
2014-12-01, 13:20:20
Dann hat es das Produkt entweder noch nicht aus der Entwicklung Richtung Marketing gepackt oder es wird noch seeeehr lange dauern.
Sag ich doch, aber mir glauben ja gewisse Leute nicht. Asus ist mit Acer und Benq ja einer von denen, die sich in den letzten Jahren eh immer als Vorreiter in Sachen Monitore gezeigt hatten. Wenn eine Firma sich mit etwas Erfolg verspricht, dann kündigen sie es groß und breit an. Und wenn ein Monitorhersteller sagen würde: "Wir arbeiten an einem A/G-Sync-Monitor mit IPS, es dauert aber noch ein Jahr", dann wäre das doch mal eine klare Ansage. Aber es kommt nichts, und daher glaube ich nicht daran, daß irgend jemand überhaupt was in diese Richtung plant.
robbitop
2014-12-01, 14:02:14
Als wenn jeder Hersteller schon hinausposaunt, was in 1 Jahr passiert. Damit würde man aktuelle Modelle gefärden, die dann keiner mehr kaufen will.
FlashBFE
2014-12-01, 14:13:28
Und oftmals bei so großen Firmen bekommt der Endkundensupport eh keine Infos über neue Geräte. Ich kenne das von einem großen IT-Konzern: Da bekommen die Supportler erst Infos, nachdem die Geräte im Handel sind. Da hat die Kundschaft schon mehr Ahnung von ihren neu gekauften Geräten als die "niederen" Mitarbeiter.
Kartenlehrling
2014-12-01, 14:27:50
Als wenn jeder Hersteller schon hinausposaunt, was in 1 Jahr passiert. Damit würde man aktuelle Modelle gefärden, die dann keiner mehr kaufen will.
Mir kommst es auch soo vor als wenn es ein Nicht-angriffspakt zwischen den Paneln Hersteller gibt und sie "ihren" Zeitplane gedrosselt fahren.
Das viele TV- und Bildrohrenhersteller den Wechsel auf LED verpasst und nicht überstanden haben ist ja auch kein Geheimiss.
Gynoug MD
2014-12-01, 19:35:25
Mir kommst es auch soo vor als wenn es ein Nicht-angriffspakt zwischen den Paneln Hersteller gibt und sie "ihren" Zeitplane gedrosselt fahren.
Das viele TV- und Bildrohrenhersteller den Wechsel auf LED verpasst und nicht überstanden haben ist ja auch kein Geheimiss.
Das sehe ich ähnlich, wenige Panel-Hersteller beliefern den kompletten Markt (TV/PC) und für viele teure Marken wirds immer schwieriger zu erklären, warum dem ausgerechnet ihr doppelt so teures Gerät besser ist, obwohl es das gleiche Panel besitzt.
Auch Leute ohne "Billig-MediaMarkt"-Einstellung waren nicht bereit, nur für ein schickes Gehäuse, für Loewe und Metz-Geräte das 3fache zu zahlen.
PS: Es kann doch nicht sein, daß ich für meinen NEC S-PVA heute weit und breit keinen qualitativ gleichwertigen Ersatz finden kann!
Was nützen mir IPS-Panel mit farbstabilen Blickwinkeln, wenn der IPS-Glow jedes dunklere Bild zu einem grauen Brei werden lässt?
Ist der Monitormarkt qualitativ so miserabel geworden, daß ich heute min. 1000€ ausgeben muß, um einen 5 Jahre alten Monitor, der noch heute mit 90% aller Tfts den Boden wischt, zu ersetzen?
akuji13
2014-12-01, 20:15:30
PS: Es kann doch nicht sein, daß ich für meinen NEC S-PVA heute weit und breit keinen qualitativ gleichwertigen Ersatz finden kann!
Was nützen mir IPS-Panel mit farbstabilen Blickwinkeln, wenn der IPS-Glow jedes dunklere Bild zu einem grauen Brei werden lässt?
Ist der Monitormarkt qualitativ so miserabel geworden, daß ich heute min. 1000€ ausgeben muß, um einen 5 Jahre alten Monitor, der noch heute mit 90% aller Tfts den Boden wischt, zu ersetzen?
Leider ja.
Sehe ich regelmäßig wenn ich den NEC 20WGX² zum Vergleich mit anderen Monitoren anschließe.
FlashBFE
2014-12-01, 20:51:21
Es kann auch einfach damit zu tun haben, dass ihr in den falschen Preisregionen vergleicht. Heutige IPS-Panels, die unter Preisdruck für Konsumenten gefertigt werden sind vielleicht nicht das Richtige für euch. Wenn ich mal einen Test eines aktuellen High-End Monitors raussuche, dann steht da:
Neben der neutralen und homogenen Darstellung punktet der Eizo CG277 durch die hohe Blickwinkelstabilität seines IPS-Panels. Ein für diese Technologie sonst üblicher Kontrastverlust, der bereits bei frontaler Betrachtung zu störenden Aufhellungen führen kann, wurde stark reduziert. Die Antireflexbeschichtung verhindert Reflexionen wirksam, ohne das Auge des Benutzers durch starke Körnungs- bzw. Glitzereffekte zu strapazieren.
Ich meine was erwartet ihr denn, wenn ihr einen 34" IPS Monitor für teilweise weit unter 1000€ kauft? Doch sicher kein High-End!
raumfahrer
2014-12-01, 22:44:34
Es kann auch einfach damit zu tun haben, dass ihr in den falschen Preisregionen vergleicht. Heutige IPS-Panels, die unter Preisdruck für Konsumenten gefertigt werden sind vielleicht nicht das Richtige für euch. Wenn ich mal einen Test eines aktuellen High-End Monitors raussuche, dann steht da:
Ich meine was erwartet ihr denn, wenn ihr einen 34" IPS Monitor für teilweise weit unter 1000€ kauft? Doch sicher kein High-End!
Naja, ich würde schon irgendwie erwarten, dass gleiche Leistung mit der Zeit günstiger wird. Oder eben ich für einen ähnlichen Preis besseres bekomme.
ATW-Polarizer gab es mal bei NEC für 1200€ (LCD2690WUXI). Heute darf man für vergleichbares z.B. zur (von dir zitierten) CG-Reihe von Eizo greifen. Also eher teurer.
Manche bildqualitätsrelevante Merkmale scheinen bestimmten Preisregionen vorbehalten zu sein.
Gynoug MD
2014-12-02, 02:28:12
Es kann auch einfach damit zu tun haben, dass ihr in den falschen Preisregionen vergleicht. Heutige IPS-Panels, die unter Preisdruck für Konsumenten gefertigt werden sind vielleicht nicht das Richtige für euch. Wenn ich mal einen Test eines aktuellen High-End Monitors raussuche, dann steht da:
Ich meine was erwartet ihr denn, wenn ihr einen 34" IPS Monitor für teilweise weit unter 1000€ kauft? Doch sicher kein High-End!
Ich erwarte natürlich keinen perfekten Tft für 250€.
Ich möchte einen guten, ausgereiften 24" 1920x1200 (16:10) Monitor mit halbwegs vernünftigen Blickwinkeln, guten Farben und möglichst wenig IPS-Glow.
Dafür bin ich auch bereit 500-700€ abzudrücken.
Jedoch sind selbst diese vergleichsweise einfachen Anforderungen anscheinend zuviel für das, was der Markt aktuell bietet.
Terrarist
2014-12-02, 09:28:49
Ist der Monitormarkt qualitativ so miserabel geworden, daß ich heute min. 1000€ ausgeben muß, um einen 5 Jahre alten Monitor, der noch heute mit 90% aller Tfts den Boden wischt, zu ersetzen?
Kommt auf dein Qualitätskriterium an. Für Bildbearbeitung in sRGB auf 1920 x 1200 reichen 250€ für einen HP Z24i + 120€ für ein Colorimeter.
Möchtest du einen mit deinem PVA vergleichbaren Schwarzwert, und semiprofessionell Bilder bearbeiten, dann geht das auch auf nem Asus für 300€, durchaus auch wertig verarbeitet.
Für Zocker gibts die 144hz Geräte. Hobby Videoschnitt und Profi Audiobearbeitung tendiert zu 21:9..
Der Prosumer Markt ist stärker segmentiert, logisch da auch die Nutzer jeweils unterschiedliche Ansprüche haben die derzeit nicht in einer Wollmilchsau vereinbar sind. Früher gab es diese starke segmentierung ja eher nur im Enterprise Bereich.
Kann man auch gut an dem Mainboard Marketing erkennen, früher gab es ja höchstens ein Gamer MB pro Chipsatz und Hersteller, mittlerweile gibts eine ganze Palette an jeweils Pro, Gamer, Workstation oder Eco Boards. So ist das halt schon fast im gesamten mainstream Technik Bereich, das perfekte Produkt gibts nicht da die Nachfolger sonst nicht verkauft werden können. Natürlich versuchen die Hersteller so möglich wie lange ohne echte Innovationen durchzukommen, es gibt da quasi ein blindes Verständnis untereinander.
FlashBFE
2014-12-02, 10:05:27
Naja, ich würde schon irgendwie erwarten, dass gleiche Leistung mit der Zeit günstiger wird. Oder eben ich für einen ähnlichen Preis besseres bekomme. Man bekommt zumindest Größeres und mehr Pixel zum gleichen Preis, von daher haben wir schon eine Steigerung. Aber extra A-TW Polarisationsfolien auf große Monitore auftragen kostet heute sicher kaum weniger als vor einigen Jahren. Wir können ja schon froh sein, dass es nach dem Glare-Hype vor zehn Jahren immer noch Monitore mit guter Entspiegelung gibt.
Jedoch sind selbst diese vergleichsweise einfachen Anforderungen anscheinend zuviel für das, was der Markt aktuell bietet. Um dieses Problem geht's doch die ganze Zeit hier im Thread. Bei LCDs muss man immer irgendwo zurückstecken und sich für das kleinere Übel entscheiden. Warum nun keine neuen Panels mit A-TW Folie mehr produziert werden, ist natürlich trotzdem ne gute Frage.
Kurze Info zu Freesync Monitoren von LG.
Ich habe in einer Anfrage an den Support nebenbei nach künftigen Freesync Geräten gefragt, Antwort:
"LG 21:9 Ultrawide-Monitore, die Freescnc unterstützen, werden voraussichtlich im ersten Quartal 2015 auf den Markt kommen."
Keine Ahnung ob das schon bekannt ist.
Gynoug MD
2014-12-02, 17:26:07
Der Prosumer Markt ist stärker segmentiert, logisch da auch die Nutzer jeweils unterschiedliche Ansprüche haben die derzeit nicht in einer Wollmilchsau vereinbar sind. Früher gab es diese starke segmentierung ja eher nur im Enterprise Bereich.
Eben.
Wenn jedoch die grundsätzliche Qualität in den einzelnen Segmenten so rapide nachgelassen hat (und dazu kommt noch die anscheinend immer größer werdende Serienstreuung), daß ich mich bei ~1000€ Geräten umsehen muss, nur um eine akzeptable Ausleuchtung sowie wenig IPS-Glow (paar € teure Folie!) für den Alltagsgebrauch Web/Spiele/anderes Gedöhns zu bekommen, hilfts auch wenig.
Ich hab`mich jetzt mit dem Eizo EV2436 arrangiert, der abgesehen vom kapitalen IPS-Glow, meinen Anforderungen voll entspricht (d.h mMn hervorragende Farben trotz 6bit+FRC IPS).
Blöde Frage, wie bemerkt Ihr alle IPS-Glow? Mir ist hier weder beim LGs noch beim Dell jemals etwas aufgefallen.
akuji13
2014-12-02, 17:47:29
Ich meine was erwartet ihr denn, wenn ihr einen 34" IPS Monitor für teilweise weit unter 1000€ kauft? Doch sicher kein High-End!
Mein 20WGX² hat 550€ gekostet.
Wenn ich die Entwicklung mit einrechne gehe ich von 600-700€ für einen 27" aus...und da gibt es keine die dem 20WGX² das Wasser reichen können.
Nicht mal bei 1000€ klappt das.
Blöde Frage, wie bemerkt Ihr alle IPS-Glow?
Ich wie verrückt.
Ich wie verrückt.
Ja, und wie?
aufkrawall
2014-12-02, 17:52:21
Raum abdunkeln und Schwarz anzeigen lassen.
akuji13
2014-12-02, 17:54:14
Und um es zu steigern den Kopf bewegen.
Wobei das bei den grottigen panels meist nie nötig ist.
Raum abdunkeln und Schwarz anzeigen lassen.
Ich dachte, so betrachtet man das Backlight-Bleeding? :confused: Das kann ich beispielsweise beim Acer sehr gut und deutlich sehen, beim LG sehe ich hier nix, da ist alles schön gleichmäßig schwarz.
big_lebowski
2014-12-02, 18:15:12
Abdunkeln ist der erste Schritt. Um nicht das Ergebnis zu verfälschen, würde ich auch hellfarbige/reflektierende Oberflächen in der Nähe des Displays Tisch usw. abdecken.
Am ehesten sichtbar ist der Glow wenn man von schräg oben auf den Monitor schaut. (geht vielleicht von schräg unten genauso - aber wer krabbelt schon gerne unterm Tisch rum). Frontal oder von der Seite auf den Bildschirm schauen fördert den Effekt - je nach Panel - nicht immer zu Tage. Mein alter Pana-IPS-TV ist ein solcher Fall. Am besten erkennbar ist der Glow btw bei einem schwarzen Bild.
aufkrawall
2014-12-02, 18:15:44
IPS-Glow führt zu schlechterem Schwarzwert/Kontrast (und kann bei schlechter Paneltechnik auch Farbstiche hervorrufen, bei PLS oder AH-IPS sollte er farblos sein). BLB ist nicht vom Blickwinkel abhängig, Glow schon.
Gibt allerdings einige IPS-Displays mit A-TW-Polarisierer, die kaum Glow haben.
Terrarist
2014-12-02, 18:23:10
Ich dachte, so betrachtet man das Backlight-Bleeding? :confused: Das kann ich beispielsweise beim Acer sehr gut und deutlich sehen, beim LG sehe ich hier nix, da ist alles schön gleichmäßig schwarz.
Das Dilemma bei IPS ist eben dass das Schwarz nie richtig schwarz ist in einem dunklen Raum, auch bei dir nicht. Das ist eher eine blau graue Suppe,maximal ca. 1000:1 Kontrast.
Viele sind ja schon zufrieden wenn diese Suppe gleichmäßig ist, also ohne regionale Aufhellungen durch BB. Hersteller wie Apple tricksen etwas mit einer glossy Kontrastscheibe vor dem Panel, da fällt es nicht mehr so stark auf. 1000:1 Kontrast stinkt halt subjektiv gegen 3000:1 ala MVA und 5000:1 bei alten PVA's total ab.
aufkrawall
2014-12-02, 18:28:33
Der Kontrast ist real weniger als 1000:1, weil nicht die Differenz zwischen Bildmitte und -ecken einfließt.
Echte 1000:1 bei jedem Pixel wären schon mal gar nicht so schlecht.
Nightspider
2014-12-02, 18:31:26
Dieser Glow nervt mich bei meinem QNIX auch am meisten - mit Abstand.
Ich hätte gern ein perfektes Schwarz bis in die Ecken wie bei OLEDs.
aufkrawall
2014-12-02, 18:35:06
Spannend, wie neue PVA-Panels für curved sich schlagen werden.
3000:1 in über 80% der Fläche wären schon nett.
Ich habe immer noch die mikroskopisch kleine Hoffnung, dass die Reaktionszeiten nicht so grottig sind wie in Teilen bei MVA.
Also nochmal für blöde wie mich: Ich mache das Bild schwarz, bewege meine Kopf hin und her, rauf und runter, und beobachte beispielsweise an meinem Dell U2412M auf Arbeit, wie an den Rändern bzw. Ecken die schwarzen Flächen sich aufhellen? Und das ist dann das IPS-Glow?
big_lebowski
2014-12-02, 18:44:59
BLB ist nicht vom Blickwinkel abhängig
Imo nicht ganz, da BLB bei extremeren Winkeln auch stärker erkennbar wird. Back light bleeding ist soweit ich verstanden habe, ein "Durchschimmern" der Hintergrundbeleuchtung. Durch die Anordnung der Kristalle in der IPS-Matrix kommt ohnehin bei gewissen Blickwinkeln "mehr Licht raus" als bei frontaler Betrachtung. Hat der Monitor dann zusätzlich noch BLB werden diese Stellen um so heller je weiter man vom Optimum (frontal) entfernt ist.
Jedenfalls ist das meine Erfahrung.
5000:1 bei alten PVA's
Welche pvas waren das? (ernstgemeinte Frage). Ich dachte erst mit den mva's kam dann ein richtiger Schub, was die Kontraste anbelangt. Also um den Faktor 2 oder 3.
Bei den PVA oder S-PVA Panels die ich kannte waren etwa 1500:1 gängig. Also etwas besser als die besten IPS mit etwa 1400:1.
@PHuV:
Ja, aber im Prinzip reicht schon wenn Du wie bereits beschrieben von schräg oben draufschaust. Dabei am besten näher ran gehen. Ich würde mich aber an Deiner Stelle nicht verrückt machen. Wenn Dir der Effekt bislang nicht sauer aufgestossen ist, dann belaß es dabei. Ich würde jederzeit den IPS-Glow dem extrem störenden "Color/Gamma-Shift" der VA's vorziehen.
aufkrawall
2014-12-02, 18:45:41
Also nochmal für blöde wie mich: Ich mache das Bild schwarz, bewege meine Kopf hin und her, rauf und runter, und beobachte beispielsweise an meinem Dell U2412M auf Arbeit, wie an den Rändern bzw. Ecken die schwarzen Flächen sich aufhellen? Und das ist dann das IPS-Glow?
Genau.
Erscheint bei Tageslicht mit hellem Content harmlos. Je weniger Licht in dein Auge fällt, desto schlimmer wird es aber.
EPIC_FAIL
2014-12-02, 18:48:31
Also nochmal für blöde wie mich: Ich mache das Bild schwarz, bewege meine Kopf hin und her, rauf und runter, und beobachte beispielsweise an meinem Dell U2412M auf Arbeit, wie an den Rändern bzw. Ecken die schwarzen Flächen sich aufhellen? Und das ist dann das IPS-Glow?
Zu sehen gibt es da einen relativ starken Silberschimmer. Je nach Panel kann der auch Gelb/Rot sein.
dargo
2014-12-02, 18:53:57
Das Dilemma bei IPS ist eben dass das Schwarz nie richtig schwarz ist in einem dunklen Raum, auch bei dir nicht. Das ist eher eine blau graue Suppe,maximal ca. 1000:1 Kontrast.
Jup... leider. Ich konnte mich vor wenigen Tagen wieder hervorragend davon überzeugen. Auf Arbeit haben wir einen neuen 24 Zöller mit IPS bekommen da der alte TN den Geist aufgegeben hat. IPS ist schon eine sehr gute Steigerung was die Farbdarstellung angeht gegenüber dem TN-Schrott. Aber der Schwarzwert? Oh weiha... ich hab da ein Bild mit schwarzen Hintergrund drauf. Das ist kein Schwarz sondern irgend eine Abstufung von Grau. Und das bei recht hellen Raum. Da liegen Welten zwischen zu meinem MVA zu Hause beim Schwarzwert.
big_lebowski
2014-12-02, 19:31:59
Na ja MVA ist kontrastmäßig sicherlich besser als IPS. Aber bei einigermaßen heller Umgebung ist der Schwarzwert ab 1000:1 (Schätzung von mir) kein Thema mehr. Im übrigen sind die hohen Kontraste bei den VA's nur in der Bildmitte vorhanden. Sprich wenn man zu den Ecken hin schaut nimmt der Kontrast ab:
http://nec2490.blogspot.de/
Etwa in der Mitte des Artikels Überschrift *VA (PVA, MVA) monitors
Hm, wenn ich das gleiche am Acer oder meinem kleinen 22" LG mache, habe ich aber dieses Phänomen genau so, und es ist ein TN-Panel. Was macht dann IPS hier anders?
aufkrawall
2014-12-02, 19:58:51
Bei TN oder MVA gibt es durch die schlechten Blickwinkel neben dem Colorshift ebenfalls einen Kontrastabfall. Bei IPS ist der aber wesentlich ausgeprägter. Probier es im Dunkeln aus.
Gynoug MD
2014-12-02, 20:12:16
Blöde Frage, wie bemerkt Ihr alle IPS-Glow? Mir ist hier weder beim LGs noch beim Dell jemals etwas aufgefallen.
Generell bei dunkleren Bildinhalten und gedimmter Raumbeleuchtung aus schon geringen Blickwinkeln, Teile des Schirms oder auch der komplette Schirm werden stark aufgehellt, die Aufhellung "wabert" je nach Blickwinkel.
Teilweise auch schon bei frontaler Betrachtung (in meinem Fall unten rechte Ecke) ersichtlich.
Die Blickwinkelabhängigkeit für die Wahrnehmung des IPS-Glow ist, je nach Gerät, vergleichbar mit der eines TN-Panels bezüglich Farbstabilität/Helligkeit etc. , die schönen IPS-Blickwinkel sind eigentlich (trotz auch seitlich stabilen Farben) nur bei vergleichweise hellen+bunten Bildern oder Weiß/Webbrowser wirklich nutzbar.
Ergo viel Gelaber, einfach abends mal `nen dunklen Bildschirminhalt (Outlast,Skyrim nachts) anzeigen und seitlich gugge...:biggrin:
big_lebowski
2014-12-02, 20:19:04
@Phuv:
wenn ich das gleiche am Acer oder meinem kleinen 22" LG mache, habe ich aber dieses Phänomen genau so
Auf welches Phänomen beziehst Du dich gerade? (Nur um nix durcheinander zu bringen)
Was den abfallenden Kontrast bei IPS anbetrifft: Stimmt sicherlich, dass der Glow den Kontrast/Schwarzwert verschlechtert. Aber es ist auch behebbar (wie schon erwähnt A-TW Polarizer). Und wie gesagt: manche IPS-Panele sind nicht so anfällig dafür (auch ohne A-TW).
Terrarist
2014-12-02, 21:25:10
Welche pvas waren das? (ernstgemeinte Frage).
Samsung cPVA 1 panel. Die wurden in ein paar Monitoren verbaut, z.B. Samsung 2333T, ein paar NEC's, jedoch hauptsächlich in TV Topmodellen mit Backlight Dimming. Da gabs immer diese krasssen unterschiede zwischen den billigen LG's mit IPS (die sich jedoch gut kalibrieren und sogar hacken ließen), und den teureren PVA Modellen von Samsung und Sony. Der oben genannte Samsung Monitor hatte ca. 4000:1, die NEC's kamen auf 3000:1.
Sony hatte wohl im Pro Video Kontrollmonitor-Bereich vor OLED auch PVA's mit hohem Kontrast in Richtung 5000:1
Ich dachte erst mit den mva's kam dann ein richtiger Schub, was die Kontraste anbelangt. Also um den Faktor 2 oder 3.
Ne die PVA von Samsungs gibts schon länger, nur sind die MVA von AUO reaktionsschneller, näher an den Stärken von IPS bzw. TN, halt so ein Mittelding. Deshalb hat Samsung die PVA Panel für Monitore vor ein paar jahren eingestampft.
Mittlerweile haben sie die 2. Generation dieser Panel am Start, da kommt demnächst dieser 34" Curved mit cPVA2 raus ;)
Bei den PVA oder S-PVA Panels die ich kannte waren etwa 1500:1 gängig. Also etwas besser als die besten IPS mit etwa 1400:1.
Hmm.. PVA hatte eigentlich immer einen wesentlich (sichtbar) besseren Kontrast wie die besten IPS Monitore. Über 1100:1 gibts m.W. gar keinen IPS wo nicht extrem per Kontrastscheibe (Apple) getrickst wurde..
Jupiter
2014-12-02, 21:36:36
Ich zocke am Panasonic Plasmafernseher (nativer Kontrast 25 000:1), weil es für mich meine persönlichen Ansprüche keine geeigneten Monitore gibt. Nur ein OLED könnte mich dazu bringen, nach über einen Jahrzehnt wieder auf einen Monitor zu spielen. Die einzigen Monitore welche ich am PC zum Spielen genutzt habe, waren CRTs. Diese waren gegenüber der LCDs m.E. in fast allen Belangen überlegen. LCDs konnte ich wegen des geringen Kontrastes und der trägen Kristalle nie ertragen.
Terrarist
2014-12-02, 21:46:48
Die Pioneer Kuro Linie war klasse..
big_lebowski
2014-12-02, 21:53:59
@Terrarist:
Hast Recht. Hab's vorhin auch selbst unter "Monitorsuche" auf Prad nachgeschaut. Waren lange Zeit auf max. 1500:1 und später gab's nen Sprung auf 3000:1 insbesondere mit den cPVA's.
Über 1100:1 gibts m.W. gar keinen IPS wo nicht extrem per Kontrastscheibe (Apple) getrickst wurde..
http://www.prad.de/new/monitore/test/2010/test-fsc-p22w-5-teil9.html
Hier unter srgb-Modus schauen.
Der hier ist mir spontan eingefallen. Liegt bei etwas über 1300:1. Dann gibt es noch einen Eizo, von dem ich weiß, dass er 1400:1 erreicht. Ich glaub es ist der RadiForce. Also ein medizinischer Monitor. Es gibt aber einige über 1100:1. Gerade bei manch günstigen Modellen. Siehe Fujitsu.
Ok zufällig noch den hier entdeckt:
http://www.eizo.de/monitore/flexscan/square-serie/S2133.html. Soll laut Datenblatt 1500:1 erreichen.
Terrarist
2014-12-02, 22:09:15
Wieder was gelernt, danke für den Link :)
Wer aktuell noch nen Monitor sucht und mit Full HD leben kann: http://geizhals.at/de/asus-vn279qlb-90lm00e1-b01370-a970434.html
2500:1 Kontrast, erreicht sogar 97% sRGB, eigentlich ein Nobrainer für low budget Bildbearbeitung und Leute die IPS nicht abkönnen.
http://www.prad.de/new/monitore/test/2013/test-asus-vn279qlb.html#Einleitung
Kartenlehrling
2014-12-02, 22:23:02
Schon verrückt was für Monitore Hewlett-Packard uns presentiert, wer macht bei den die Marktforschung?
Die grossen Lautprecher an den Seiten mit DTS Audio, ge-curvt ... 8ms GtoG (overdrive max)
... ich hätte auf einen Medien und Consolen Monitor getippt aber die niedrige Helligkeit von 300cd/m passen nicht dazu.
Diagonale: 27"/68.6cm, gebogen • Auflösung: 1920x1080 • Helligkeit: 300cd/m² •
Kontrast: 3000:1 (statisch), 10000000:1 (dynamisch) • Reaktionszeit: 8ms • Blickwinkel: 178°/178° • Panel: MVA •
Anschlüsse: VGA, 2x HDMI 1.4 (1x MHL) • Weitere Anschlüsse: N/A • Ergonomie: N/A • VESA: 100x100 (frei) •
Leistungsaufnahme: 65W (maximal), 35W (typisch), 0.5W (Standby) • Besonderheiten: LED-Backlight, Lautsprecher (2x 4W)
http://www8.hp.com/us/en/products/monitors/product-detail.html?oid=7334614#!tab=specs
EliteDisplays HP EliteDisplay S270c 27-in Curved Display
Vor allem immer und immer wieder nur 1080p :rolleyes:. Der Monitormarkt ist einfach beschissen. An sich wär ich mit meinem LG 34UM95-P zufrieden, nur muss ich den nun zum 2. Mal einschicken. Zuerst starkes Backlight Bleeding und nun sind am Sonntag plötzlich zwei tote Pixel aufgetaucht :mad:. Einfach nur ein Witz was LG in Sachen Qualität da abliefert. Werd den wohl über kurz oder lang verkaufen und mal auf den Samsung LS34E790C warten.
Hätte Eizo doch nur ein größeres Portfolio ;(. Mit Eizo war ich bisher immer zufrieden, aber die haben einfach keinen Monitor der mich anspricht oder die sind abartig teuer.
akuji13
2014-12-02, 23:04:46
Dieser Glow nervt mich bei meinem QNIX auch am meisten - mit Abstand.
Scheiße ja.
Heute ist der QNIX aus Korea angekommen...herje ist der übel, seit damals hat sich nix geändert.
Wer aktuell noch nen Monitor sucht und mit Full HD leben kann: http://geizhals.at/de/asus-vn279qlb-90lm00e1-b01370-a970434.html
2500:1 Kontrast, erreicht sogar 97% sRGB, eigentlich ein Nobrainer für low budget Bildbearbeitung und Leute die IPS nicht abkönnen.
http://www.prad.de/new/monitore/test/2013/test-asus-vn279qlb.html#Einleitung
http://geizhals.de/samsung-s27d590c-a1151752.html
Den hab ich gerade hier...wäre schön wenn man sich auf die Werte verlassen könnte als Indikator für ein gutes Bild...nur leider kann man das nicht.
aufkrawall
2014-12-02, 23:06:26
Scheiße ja.
Heute ist der QNIX aus Korea angekommen...herje ist der übel, seit damals hat sich nix geändert.
Sehe jetzt nicht, dass der U2713HM weniger glowen würde.
akuji13
2014-12-02, 23:11:05
Also meiner war da besser als der QNIX.
http://www.prad.de/new/monitore/test/2012/test-dell-u2713hm-teil6.html
Der DELL ist da noch human seitlich betrachtet.
Und der DELL hatte wenigstens eine gleichmäßige Ausleuchtung und nicht so ein katastrophales backlight-bleeding.
aufkrawall
2014-12-02, 23:24:16
Ich les bei Prad nichts Gutes bezüglich Glow?
Um BLB gings doch jetzt auch gar nicht.
akuji13
2014-12-02, 23:27:19
Gut ist auch der natürlich nicht.
Aber wenn ich mir das Bild bei prad anschaue spielgelt das meinen DELL wieder...der QNIX ist wesentlich schlechter was das angeht.
Der glow von der Seite betrachtet ist bei ihm deutlicher zu sehen.
Die anderen Macken haben natürlich nix mit dem glow zu tun, machen aber wie der glow es noch schwieriger ein optimale Sitzposition zu finden.
Warum kauft Ihr Euch dann so ein QNIX? :confused:
akuji13
2014-12-03, 08:09:22
27" WQHD IPS mit bis zu 120Hz (der hier schafft 105hz)
Abseits der Schwächen gutes/sehr gutes Bild
Hohe Farbtreue ab Werk
Relativ günstig (301€)
Ich habe den für jemanden bestellt der einen glossy IPS wollte und da sieht es mau aus.
Das backlight-bleeding fixe ich am Wochenende, dann wird gleich noch der Fußstummel entfernt und der neue Besitzer wird zufrieden sein. =)
Mafia II sah gestern in 5.120 × 2.880 per DSR schon sehr sehr gut darauf aus.
Außerdem ist es ja nicht so das z. B. ein DELL so unproblematisch wäre, ich habe damals 3 Stück zurückgegeben bis ich einen hatte der keinen lila Farbstich hatte.
Kurze Info zu Freesync Monitoren von LG.
Ich habe in einer Anfrage an den Support nebenbei nach künftigen Freesync Geräten gefragt, Antwort:
"LG 21:9 Ultrawide-Monitore, die Freescnc unterstützen, werden voraussichtlich im ersten Quartal 2015 auf den Markt kommen."
Keine Ahnung ob das schon bekannt ist.
Da sind wir ja mal mächtig gespannt. UW-Monitore von LG sind doch bisher nur IPS oder VA, richtig?
Kartenlehrling
2014-12-03, 17:01:25
http://i.dell.com/images/global/products/monitors/monitors_highlights/dell-u2515h-monitor-overview-3.jpghttp://img1.digitalversus.com/produits/38/21703/acer-h257hu_8ff5c827d781246d_400x400.png
http://www1.la.dell.com/vc/en/corp/peripherals/dell-u2515h-monitor/pd.aspx?refid=dell-u2515h-monitor&s=corp
Dell Ultrasharp U2515H .... 800€ das ist mir aber gut 300€ zu teuer, aber genau die grösse die ich gern habe will,
es wird wohl die gleiche Panele verbaut sein wie in dem Acer H257HU.
mein Gott, die lassen uns aber ganzschön zappeln. :mad:
akuji13
2014-12-03, 17:08:16
Da sind wir ja mal mächtig gespannt. UW-Monitore von LG sind doch bisher nur IPS oder VA, richtig?
Ich befürchte er werden die alten panels nur mit FreeSync.
Also wieder massig glow und beschissene Schwarzwerte.
Dell Ultrasharp U2515H .... 800€ das ist mir aber gut 300€ zu teuer
Und da wurde sich über den Swift aufgeregt.
25", IPS mit 60Hz...wo ist da nochmal der Kaufanreiz?
Kartenlehrling
2014-12-03, 17:23:19
Und lebt dein Asus PG278q noch?
Laut einigen Forumseinträge sterben sie im moment wie die Fliegen.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.