PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : G-/Free-/A-Sync: framesynchronisierter Displayrefresh per variablem vblank-Intervall


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17] 18 19 20 21 22 23 24 25 26 27 28 29 30

aufkrawall
2015-08-12, 23:44:22
Lässt sich der Dell 27MU67 auf 75Hz takten?

horn 12
2015-08-13, 09:16:55
OC Burner
Echt genial wie du dich auskennst und uns weiterhilft!

Dann kann man auf dem LG 27 Zoll FreeSync wenn die Leistung nicht reicht problemlos auf 1920 x 1200 /1080 runterskalieren, oder auch 2560 x 1440 wenn bei dieser Auflösung die Leistung ausreicht für die FreeSync Range 33 bis 60 Hz.

Trap
2015-08-13, 11:59:19
Lässt sich der Dell 27MU67 auf 75Hz takten?
Der LG 27MU67...

Ich hab mit custom Refreshrates kurz rumprobiert: 61 Hz geht noch, 62 Hz gibt schon Darstellungsfehler. Aber dafür hab ich wirklich nur die Refreshrate angelegt. Ich habe keine weiteren Einstellungen wie das Pixelclock-Limit der AMD-Karten oder die Blanking-Einstellungen geändert, wenn man das macht geht vielleicht auch mehr.

dargo
2015-08-13, 15:53:31
Wie kriege ich jetzt wieder den originalen Monitortreiber bei Windows 10 für den ASUS MG279Q installiert? Durch die Fummelei in der EDID komme ich jetzt nicht über 90Hz hinaus. Dabei wollte ich 144Hz wählen um dann mit CRU die ganzen Timings zu prüfen und übertragen können damit ich mir eine Range von 31-144Hz erstellen kann.

OC_Burner
2015-08-13, 16:19:59
Wie kriege ich jetzt wieder den originalen Monitortreiber bei Windows 10 für den ASUS MG279Q installiert? Durch die Fummelei in der EDID komme ich jetzt nicht über 90Hz hinaus. Dabei wollte ich 144Hz wählen um dann mit CRU die ganzen Timings zu prüfen und übertragen können damit ich mir einen Range von 31-144Hz erstellen kann.

Im Geräte-Manager Monitortreiber deinstallieren und gleichzeitig Häckchen setzen bei "Die Treibersoftware für dieses Gerät löschen".

Aber Achtung beim erstellen der Timings für FreeSync. Die voreingestellten 90Hz bei deinem Bildschirm sind Custom-Timings vom Hersteller. Diese Timings entsprechen nicht der Reduced-Blanking-Norm. Aber du kannst ja trotzdem probieren ob auch die genormten Timings zusammen mit höheren Refreshraten funktionieren. Ansonsten schlage ich dir nacher mal ein paar Custom-Timings vor.

Loeschzwerg
2015-08-13, 16:20:01
Vollständige Deinstallation (inkl. Löschung) des Treibers über den Gerätemanager?

Edit: Gnaaah, 2 Sek. zu langsam ^^

aufkrawall
2015-08-13, 16:30:54
Der LG 27MU67...

Klar. :)


Ich hab mit custom Refreshrates kurz rumprobiert: 61 Hz geht noch, 62 Hz gibt schon Darstellungsfehler. Aber dafür hab ich wirklich nur die Refreshrate angelegt. Ich habe keine weiteren Einstellungen wie das Pixelclock-Limit der AMD-Karten oder die Blanking-Einstellungen geändert, wenn man das macht geht vielleicht auch mehr.
Wenn 2Hz mehr schon nicht mit den normalen Timings gehen, ist die Chance auf 75Hz mit anderen wohl ziemlich gering.

fondness
2015-08-13, 16:33:07
Geht sich das in punkto DP-Bandbreite überhaupt aus in Verbindung mit den 10 bit Farben? Aber generell geht bei 4K Monitoren fast nichts mit mehr Hz, da limitieren wohl noch die Scaler oder DP 1.2 kommt schon an seine Grenzen.

OC_Burner
2015-08-13, 16:57:15
Geht sich das in punkto DP-Bandbreite überhaupt aus in Verbindung mit den 10 bit Farben? Aber generell geht bei 4K Monitoren fast nichts mit mehr Hz, da limitieren wohl noch die Scaler oder DP 1.2 kommt schon an seine Grenzen.

4K60 und RGB 10Bit ist eh nicht möglich. Ich weiß nicht genau wie die AMD-Treiber funktionieren und warum überhaupt bei 4K@60Hz überhaupt noch 10Bit angeboten werden aber über DP1.2 passt das schon lange nicht mehr. Die Datenrate wäre bei 10Bit um 25% höher. Die Videobandbreite würde um die 666MHz betragen.

Generell könnte man aber für höhere Refreshraten die Auflösung reduzieren, das spart dann Bandbreite ein die für höhere Refreshraten notwendig wären. Mit 2560x1440@144Hz, 2880x1620@110Hz oder 3200x1800@90Hz käme man fast auf die gleiche Bandbreite wie 3840x2160@60Hz.

fondness
2015-08-13, 17:19:11
Hm erlaubt DP1.2 nicht maximal 4K@85Hz? Das wäre ja dann aquivalent zu den 4K@60Hz +25% für die 10 bit?! Und das würde dann auch erklären, warum mehr Hz nicht gehen. Aber stimmt die Auflösung könnte man reduzieren, nur ist das für mich dann ein schlechter Tausch, da braucht es wohl einfach DP1.3 und das wird vermutlich noch ewig auf sich warten lassen.

mironicus
2015-08-13, 17:19:59
http://www.pcgameshardware.de/AMD-Freesync-Hardware-259942/News/Hertz-Spanne-vergroessern-Treiber-Mod-1167860/

4K60 und RGB 10Bit ist eh nicht möglich. Ich weiß nicht genau wie die AMD-Treiber funktionieren und warum überhaupt bei 4K@60Hz überhaupt noch 10Bit angeboten werden aber über DP1.2 passt das schon lange nicht mehr. Die Datenrate wäre bei 10Bit um 25% höher. Die Videobandbreite würde um die 666MHz betragen.

Bei NVidia-Grafikkarten sind auch 10 Bit anwählbar in den Treibern.

fondness
2015-08-13, 17:24:04
http://www.pcgameshardware.de/AMD-Freesync-Hardware-259942/News/Hertz-Spanne-vergroessern-Treiber-Mod-1167860/

Gut recherchiert ist der Artikel nicht gerade. Erstens geht beim Samsung schon 32Hz und zweitens ist die Spanne nicht 33-66Hz.

horn 12
2015-08-13, 17:26:36
@fondness
@mironicus

Koennt ihr mir oben gestellte Frage beantworten und wie fluessig laueft bei Euch dann Full HD oder gar 2560x 1440 wenn ihr die Games zwecks der Framerate runterskalieren muesst.
Immer mit den gesetzten 33 Hz bis max. 59 Hz.
Um ein Vielfaches Fluessiger als ohne dem Freesync LG 27 Zoll Monitor?

Dank Euch!

Unicous
2015-08-13, 17:32:16
Gut recherchiert ist der Artikel nicht gerade. Erstens geht beim Samsung schon 32Hz und zweitens ist die Spanne nicht 33-66Hz.

Was willst du anderes erwarten, es ist Mark Mantel, seines Zeichens offizieller PCGH-Forencrawler. Devise lautet bei ihm: Hauptsache es landet schnell auf der Website. Weitergehende Recherche ist ihm fremd, Fehler und Falschinformationen korrigieren ist sooo 2014.:rolleyes:

OC_Burner
2015-08-13, 17:48:43
Hm erlaubt DP1.2 nicht maximal 4K@85Hz? Das wäre ja dann aquivalent zu den 4K@60Hz +25% für die 10 bit?! Und das würde dann auch erklären, warum mehr Hz nicht gehen. Aber stimmt die Auflösung könnte man reduzieren, nur ist das für mich dann ein schlechter Tausch, da braucht es wohl einfach DP1.3 und das wird vermutlich noch ewig auf sich warten lassen.

DP1.2 erlaubt eine Videobandbreite von max. 540Mhz. Je nach Timings beträgt die Videobandbreite bei 3840x2160@60Hz bereits 517MHz oder sogar schon 533MHz. Da ist gearade mal Luft für 1-2Hz. Überlicherweise schaffen die Monitore dann aber doch ein bißchen mehr. Der LG 27MU67 schafft laut EDID bis zu 560Mhz (ergibt ca. 65Hz). Ein kleiner Puffer nach oben wird dennoch vorhanden sein (vielleicht zusätzliche 10-20Mhz und damit evtl. erreichbare 67Hz). Und wenn man dann noch händisch an den Timings dreht lassen sich weitere 1-2Hz rausholen. Der ASUS MG279Q von Dargo bietet max. 590Mhz und der Samsung U24E850R sogar satte 600Mhz an.

Tru
2015-08-13, 17:51:45
Was willst du anderes erwarten, es ist Mark Mantel, seines Zeichens offizieller PCGH-Forencrawler. Devise lautet bei ihm: Hauptsache es landet schnell auf der Website. Weitergehende Recherche ist ihm fremd, Fehler und Falschinformationen korrigieren ist sooo 2014.:rolleyes:
1. Kommen die meisten Vorschläge von den Kollegen, die hier aktiv im 3DCenter aktiv unterwegs sind.
2. Sollte der Artikel eigentlich noch gar nicht online gehen und wurde dementsprechend noch nicht wirklich korrekturgelesen.
3. Verabschiede ich mich jetzt in den Feierabend. :P

mironicus
2015-08-13, 17:52:51
Wahrscheinlich verbraucht der 27MU67 den möglichen Puffer durch die 10 Bit-Daten, die die GPU zusätzlich übertragen muss. :)

OC_Burner
2015-08-13, 17:55:27
Wahrscheinlich verbraucht der 27MU67 den möglichen Puffer durch die 10 Bit-Daten, die die GPU zusätzlich übertragen muss. :)

Aber für 10Bit bräuchte es 647MHz bzw. 666MHz und diese sind weit von 560Mhz entfernt.

http://www.pcgameshardware.de/AMD-Freesync-Hardware-259942/News/Hertz-Spanne-vergroessern-Treiber-Mod-1167860/

Ist der Artikel nicht mehr Online?

mironicus
2015-08-13, 17:56:28
Auch bei 8 Bit+FRC?

aufkrawall
2015-08-13, 17:58:33
Nein, die benötigte Bandbreite des Ausgangssignals ändert sich durch Dithering nicht.

Unicous
2015-08-13, 18:02:36
1. Kommen die meisten Vorschläge von den Kollegen, die hier aktiv im 3DCenter aktiv unterwegs sind.
2. Sollte der Artikel eigentlich noch gar nicht online gehen und wurde dementsprechend noch nicht wirklich korrekturgelesen.
3. Verabschiede ich mich jetzt in den Feierabend. :P

1. Irrelevant.
2. Irrelevant.
3. Schönen Feierabend.

4. Ich nehme mal an, du bist Mark Mantel. Dann gibt es mal ein kurzes Feedback. Deine Beiträge sind sehr oft einfach dahingeschludert und mit vermeidbaren Fehlern übersät. In der Hinsicht sind sie der WTF-Tech Masche sehr ähnlich. Hauptsache schnell clickbait erzeugen. Das mag dir sauer aufstoßen, am Ende des Tages sollte man sich aber mal an die eigene Nase fassen. Übrigens meinte ich keine Rechtschreibfehler sondern sachliche Fehler. Über Rechtschreibfehler kann ich großzügig hinwegsehen, solange ich einen sauber recherchierten Artikel lesen kann und keine viertelstündige Abtipporgie.

Ich kann dich aber beruhigen, du bist nicht der Einzige und auch nicht der Schlimmste.:wink:

mironicus
2015-08-13, 18:04:29
PCGH-Artikel wurde offline genommen.

13.08.2015 um 09:30 Uhr: Ein Forenmitglied vom 3DCenter hat eine ausführliche Anleitung zur Verfügung gestellt, wie sich die Hertz-Spanne von Freesync-Monitoren vergrößern lässt. Statt beispielsweise 40 bis 60 Hertz, können einige Exemplare 33 bis 66 Hz darstellen. Nötig sind dafür drei Tools, mit denen man einen modifizierten Monitor-Treiber erstellt.

Derzeit haben Freesync-Monitore noch einen großen Nachteil gegenüber den G-Sync-Pendants: Die Spannen, in denen die Bildwiederholrate dynamisch dargestellt werden kann, fallen oftmals niedriger aus. Nutzer eines Freesync-Displays können allerdings manuell nachhelfen, "OC_Burner" vom 3DCenter-Forum zeigt, wie es funktioniert. Dabei wird der Monitortreiber modifiziert, der sendet nämlich seine ab Werk unterstützte Freesync-Spanne über die "Extended Display Identification Data", kurz EDID, an die GPU. Ebendiese EDID lassen sich über nützliche Tools manuell anpassen.

Dazu werden die drei Tools "Phoenix EDID Designer", "EnTech Monitor Asset Manager" und "EnTech softMCCS", die bei den Kollegen von prad.de heruntergeladen werden können. "OC_Burner" zeigt in einer Schritt-für-Schritt-Anleitung mit Screenshots, wie man zuerst die EDID aus dem Monitor extrahiert, dann modifiziert, den neuen Monitortreiber erstellt und letztendlich erfolgreich installiert. Anschließend muss man die neu eingestellte Minimal-Frequenz austesten, wofür sich Frostbite-3-Titeln anbieten. Dort muss man in die Konsole "GameTime.MaxVariableFps=X" (X für die minimale Hertz-Zahl) eingeben; kommt es nach dem Spielstart dann zu keinen Bildfehlern, schafft das Display die Bildwiederholrate. Für die konkrete Anleitung besuchen Sie bitte das Forum vom 3DCenter.

Mehrere Nutzer des LG 27MU67-B und von Samsungs E850R-Reihe konnten die untere Freesync-Spanne von 40 auf 33 Hertz reduzieren. Da es sich um Ultra-HD-Geräte handelt, ist das bereits viel Wert. Interessanterweise schafften zwar alle bislang getesteten Displays die 33 Hertz, nicht aber 32 – dort kommt es zu starken Bildfehlern, wie Sie hier zu sehen sind (ab 0:15). Verständlicherweise lassen sich die Monitorhersteller noch "Polster", damit alle Exemplare die Mindestanforderungen unterstützen.

Übrigens lässt sich auch die maximale Hertz-Rate erhöhen, dafür ist aber noch zusätzlich die "Custom Resolution Utility" nötig, da in den EDID neben der höheren Hertz- auch die Refresh-Rate selbst angepasst werden muss. Erneut "OC_Burner" zeigt, welche Daten wo eingetragen werden müssen damit es klappt. Nutzer müssen selbst ausprobieren, welche Werte unterstützt werden und welche Spanne man letztendlich haben möchte – üblicherweise kann man bis zu einer bestimmten Grenze eine höhere maximale Rate einstellen, wenn man die untere Grenze nach oben setzt. Hat man Werte eingestellt, die vom Monitor nicht unterstützt werden, kann man den Treiber wieder deinstallieren und einen neuen erstellen.

Quelle: 3DCenter (Links im Fließtext)

OC_Burner
2015-08-13, 18:07:31
Auch bei 8 Bit+FRC?

Ich kann mir vorstellen das zwar mit 10Bit gerendert wird aber vor der eigentlichen Bildausgabe erfolgt dann eine Transformation mit Dithering in die 8Bit 2D-LUT.

aufkrawall
2015-08-13, 18:14:14
Bei Windows 8.1 war der DWM nur 8 Bit. afaik gibt es keinen Test dazu, ob Windows 10 nun 10 Bit ist.
Es braucht sonst D3D10+ FSE.

Unicous
2015-08-13, 18:17:37
btw.

Irgendwo wurde behauptet, dass nur AMD bei ihren Retail-Karten 10Bit Farbtiefe im Treiber unterstützt (bei professionellen Karten sieht es natürlich anders aus).

Kann auch sein, dass das Quatsch ist, habe das selbst nur am Rande mitbekommen.

fondness
2015-08-13, 18:21:29
Da ist NV AFAIK irgendwann mal nachgezogen, wie auch beim HDMI Pixelformat.

aufkrawall
2015-08-13, 18:23:11
Bei AMD kann man das schon länger mit Consumer-Karten wählen, bei Nvidia seit der 352er Treiber-Serie (wohl zumindest mit DP).

"Problem" ist, dass man mit dem Auge kaum (oder gar nicht?) sehen kann, ob der Farbraum 10 bittig ist oder nur 8 Bit + Dithering.
Vll. bei Profi-Monitoren, die geringstes Rauschen haben?

mironicus
2015-08-13, 18:23:11
Ich habe eine GTX 970 und eine GTX 980 Ti an dem LG angeschlossen. Beide bieten 8 und 10 Bit-Farbe über Displayport wählbar im Treiber. Kein Unterschied zu AMD.

Die Freesync-Version des Acer XR341K hat sogar 12 Bit die man unter Windows anwählen kann.

Bringt das wohl irgendwelche Vorteile beim Zocken außer ein gutes Gefühl/Placebo? :D

Tru
2015-08-13, 18:25:00
Ist der Artikel nicht mehr Online?
Wie gesagt sollte der eigentlich noch gar nicht online gehen. Kommt morgen.

fondness
2015-08-13, 18:27:04
Bringt das wohl irgendwelche Vorteile beim Zocken außer ein gutes Gefühl/Placebo? :D

Vermutlich nicht, aber im Zweifel nehme ich trotzdem mehr Bit und kann mir meinen Kauf schön rechtfertigen. :D

aufkrawall
2015-08-13, 18:27:10
Bringt das wohl irgendwelche Vorteile beim Zocken außer ein gutes Gefühl/Placebo? :D
Siehst du denn hier einen Unterschied zu mutmaßlichen echten 10 Bit und 8 Bit + Dithering?
http://forum.doom9.org/showthread.php?t=172128
Nö. ;)
Rendern in 10 Bit macht schon Sinn, die Ausgabe aber nicht unbedingt.

fondness
2015-08-13, 18:31:48
Ich kann mir vorstellen das zwar mit 10Bit gerendert wird aber vor der eigentlichen Bildausgabe erfolgt dann eine Transformation mit Dithering in die 8Bit 2D-LUT.

Wird beim Link von aufkrawall bestätigt, lässt sich aber wohl ausschalten:

Check the Catalyst Control Center under "Information" -> "Software" to get the 2D driver path. Then run regedit.exe and open that path in the left pane. You should see values in the right pane like "AdapterDesc" and a bunch of settings. Add a DWORD value named TMDS_DisableDither (for DVI) or DP_DisableDither (for DisplayPort) with a value of 1

http://forum.doom9.org/showpost.php?p=1721434&postcount=7

OC_Burner
2015-08-13, 18:57:01
Wird beim Link von aufkrawall bestätigt, lässt sich aber wohl ausschalten:



http://forum.doom9.org/showpost.php?p=1721434&postcount=7

Wenn man das ausschaltet sollte Colorbanding auftreten. Zumindest ist das der Fall wenn man ein normales 8Bit pro Kanal Bild anzeigen läßt und im AMD-Treiber nur 6Bit aktiviert. Bei 10Bit im Treiber kommt es dann vermutlich nur zu Colorbanding wenn man eine echte 10Bit Quelle in einer 10Bit fähigen Anwenung anzeigen läßt.

Ich frage mich aber warum Nvidia kein Dithering betreibt. Mein Samsung leidet an starken Colorbanding wenn Kalibriert wurde. Angeschlossen an einer AMD-Karte gibt es dank Dithering kein Colorbanding.

aufkrawall
2015-08-13, 19:01:02
Für 10 Bit -> 8 Bit macht NV auch Dithering, zumindest über DVI.
Oder er gibt hier tatsächlich 10 Bit aus und der Monitor kann damit umgehen. afair wird bei DVI aber nur 8 Bit ausgegeben.

OC_Burner
2015-08-13, 19:06:58
Für 10 Bit -> 8 Bit macht NV auch Dithering, zumindest über DVI.
Oder er gibt hier tatsächlich 10 Bit aus und der Monitor kann damit umgehen. afair wird bei DVI aber nur 8 Bit ausgegeben.

Leider nicht für 8Bit -> 8Bit wie es bei AMD der fall ist.:(

dargo
2015-08-13, 21:30:54
Das erhöhen der FreeSync-Range ist ein bißchen komplizierter aber zusammen mit dem Custom Resolution Utility (CRU), das einem die Timings sehr einfach und schnell ausrechnen kann, klappt es wunderbar die nötigen Werte für den Phoenix EDID Designer zu erfahren. Es ist nämlich nicht einfach damit getan nur die Min. V Rate (Hz) im Phoenix EDID Designer unter Monitor Range Limits zu erhöhen. Damit FreeSync eine höhere Range bekommt muss im Spiel natürlich auch eine höhere Refreshrate gewählt werden und genau diese höhere Refreshrate muss in den EDID-Infos vordefiniert werden (typischerweise in Block1 oder Block2).

http://www.grafik-feti.de/ftp/tweaks_mods_tools_etc/FreeSync/Tutorial_modify_maximum_freesync_range/legend_of_Phoenix-EDID-Designer_and_CRU.png
Ich habe mir jetzt eine Range von 31-144Hz erstellt.

Habe also Block 2 mit den Daten von CRU @144Hz gefüllt (Timings, Pixelclock) und in Block 3 min. auf 31Hz gesetzt und max. auf 144Hz. Jetzt habe ich allerdings überhaupt kein Freesync damit. Die Freesync Option im Grafiktreiber fehlt dadurch auch. Wo liegt der Fehler?

OC_Burner
2015-08-14, 00:41:05
Ich habe mir jetzt eine Range von 31-144Hz erstellt.

Habe also Block 2 mit den Daten von CRU @144Hz gefüllt (Timings, Pixelclock) und in Block 3 min. auf 31Hz gesetzt und max. auf 144Hz. Jetzt habe ich allerdings überhaupt kein Freesync damit. Die Freesync Option im Grafiktreiber fehlt dadurch auch. Wo liegt der Fehler?

Klingt soweit erstmal richtig, vielleicht passen die Timings nicht. Hier mal ein Paket mit 95HZ, 100Hz, 110Hz, 120Hz, 144Hz, 155Hz usw.:

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=52864&stc=1&d=1439504935

Darin sind normale Timings enthalten wie sie dir auch CRU ausrechnet, außerdem gibt es noch alternative Timings die sich an der 90Hz Custom-Norm von ASUS zu deinem Monitor halten. Bei einem kurzen Test mit den alternativen Timings 31Hz-144Hz blieb im Catalsyst Control Center die Checkbox für FreeSync erhalten. Ein Bild gab es freilich nicht, da mein Monitor max 85Hz darstellt.

EDID: Presets mit einer Range beginnend 50Hz hinzugefügt

dargo
2015-08-14, 16:32:35
Klingt soweit erstmal richtig, vielleicht passen die Timings nicht. Hier mal ein Paket mit 95HZ, 100Hz, 110Hz, 120Hz, 144Hz, 155Hz usw.:

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=52864&stc=1&d=1439504935

Darin sind normale Timings enthalten wie sie dir auch CRU ausrechnet, außerdem gibt es noch alternative Timings die sich an der 90Hz Custom-Norm von ASUS zu deinem Monitor halten. Bei einem kurzen Test mit den alternativen Timings 31Hz-144Hz blieb im Catalsyst Control Center die Checkbox für FreeSync erhalten. Ein Bild gab es freilich nicht, da mein Monitor max 85Hz darstellt.
Danke für deine Arbeit.

Habe sie alle ausprobiert. Alle produzieren Bildfehler. Komischerweise ist 31-120Hz alternativ am wenigsten von Bildfehlen betroffen. Da blitzen nur kurz 2-3x Bilder auf. Ich schätze mal sobald man über 90Hz kommt braucht es andere Timings. Jedenfalls habe ich mir auf Basis deiner Timings auch 39-120Hz und 41-144Hz gebastelt (du erinnerst dich an den Range Hinweis von Gipsel). Auch hier gibt es gelegentlich kurzes Aufblitzen.

Kartenlehrling
2015-08-14, 16:43:32
Ich hatte ja auf wenigsten 30-100Hz gehofft,
aber 31 ist immer noch besser als 35-90Hz.

OC_Burner
2015-08-14, 16:43:54
Danke für deine Arbeit.

Habe sie alle ausprobiert. Alle produzieren Bildfehler. Komischerweise ist 31-120Hz alternativ am wenigsten von Bildfehlen betroffen. Da blitzen nur kurz 2-3x Bilder auf. Ich schätze mal sobald man über 90Hz kommt braucht es andere Timings. Jedenfalls habe ich mir auf Basis deiner Timings auch 39-120Hz und 41-144Hz gebastelt (du erinnerst dich an den Range Hinweis von Gipsel). Auch hier gibt es gelegentlich kurzes Aufblitzen.

Thx für das testen. Das heißt sobald die Framerate über 90FPS hinaus geht, kommt es zu sporadischen Blitzen? Läßt sich da keine feste Grenze ausmachen so wie es bei der unteren der Fall ist? Die Rechnung von Gipsel ist mir bekannt aber zum erschließen der Grenzen dachte ich, wäre ein weites Fenster erstmal von Vorteil.

Grestorn
2015-08-14, 16:55:00
Na, ganz ohne Grund wird Asus die Range ja nicht beschränkt haben. Je nach Exemplar mag wohl etwas mehr gehen, als Asus im Standard vorsieht, aber dass man die volle Range ausnutzen kann, wäre schon mehr als überraschend.

Warum sollte Asus den Monitor schlechter machen als technisch notwendig?

dargo
2015-08-14, 16:59:08
Thx für das testen. Das heißt sobald die Framerate über 90FPS hinaus geht, kommt es zu sporadischen Blitzen?
Nee... die Bildfehler sind selbst in der Range von 35-90Hz dann vorhanden. Auch teilweise beim Szenenwechsel, also da wo eigentlich ein schwarzes Bild ist.
Na, ganz ohne Grund wird Asus die Range ja nicht beschränkt haben. Je nach Exemplar mag wohl etwas mehr gehen, als Asus im Standard vorsieht, aber dass man die volle Range ausnutzen kann, wäre schon mehr als überraschend.

Warum sollte Asus den Monitor schlechter machen als technisch notwendig?
Schau dir nochmal die Rechnung von Gipsel an.

akuji13
2015-08-14, 17:03:40
Warum sollte Asus den Monitor schlechter machen als technisch notwendig?

Um wie bei BenQ nächstes Jahr ein aktualisiertes Modell zu verkaufen. :D

OC_Burner
2015-08-14, 17:09:29
Nee... die Bildfehler sind selbst in der Range von 35-90Hz dann vorhanden. Auch teilweise beim Szenenwechsel, also da wo eigentlich ein schwarzes Bild ist.

Hast du mal die Auflösung reduziert (Aufskalierung deaktivieren!)? Klingt fast nach zu schlechter Signalqualität? Tritt das auch mit FPS Limiter auf und was passiert wenn du FreeSync im Catalyst Control Center deaktivierst und somit nur eine statische Refreshrate hast. Achso und welche Tmings genau verwendest du jetzt? Die normalen oder die alternativen?

dargo
2015-08-14, 17:26:10
Hast du mal die Auflösung reduziert (Aufskalierung deaktivieren!)? Klingt fast nach zu schlechter Signalqualität?

Ja... habe Full-HD genommen damit ich auch dreistellige fps bekomme.


Tritt das auch mit FPS Limiter auf und was passiert wenn du FreeSync im Catalyst Control Center deaktivierst und somit nur eine statische Refreshrate hast.

FPS-Limiter nicht getestet. Was soll das bringen? Freesync war im Treiber aktiv ansonsten dürfte es ja kein Freesync geben.


Achso und welche Tmings genau verwendest du jetzt? Die normalen oder die alternativen?
Die alternativen genommen.

mironicus
2015-08-14, 17:26:41
Range von 31-90 geht aber fehlerfrei?

dargo
2015-08-14, 17:29:53
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10739320&postcount=3994

Edit:
Argh... halt! OC_Burner... ich habe bei meinen eigenen Versuchen mit 39-120Hz und 41-144Hz den "EDID modifizieren part 2" vergessen. :hammer: Also nochmal von vorne. :cool:

Edit 2:
So... jetzt mal richtig modifiziert mit 39-120Hz. Bringt auch nichts. Vereinzelt gibt es Bildfehler. Was aber merkwürdig ist. Heute gibts direkt am Anfang mit 31-90Hz starke Bildfehler wo es noch gestern fehlerfrei lief. :| Gestern hatte ich allerdings nicht die ganze Zeit das mitgelieferte DP/Mini DP Kabel dran sondern auch ein DP/DP Kabel. Kann das auch am Kabel liegen? :confused:

mironicus
2015-08-14, 18:35:57
Hoffentlich greift noch die Herstellergarantie wenn der Monitor aufgrund der Modifizierung kaputt geht.

horn 12
2015-08-14, 18:44:12
@Dargo
Lass gut sein, ansonsten schrottest das Teil noch!

@mironicus
Wie gut läuft auf dem Ultra HD dann mit der FreeSync rRange 33 bis 60 die Full HD Interpolation
und gibt der LG 27 Zoll Geräusche von sich, sprich bei Verändern der Helligkeit, des Kontrast, udg. ----> Oder in jeder Einstellung absolut Geräuschlos?

aufkrawall
2015-08-14, 18:44:16
Wenn er aufgrund derer kaputt geht, sicher nicht.
Es würde wahrscheinlich aber niemand merken, wenn man das mit seinem Gewissen vereinbaren kann.

dargo
2015-08-14, 19:13:16
@Dargo
Lass gut sein, ansonsten schrottest das Teil noch!

Schon geschehen, keine Lust auf Gefrickel. ;) Übrigens gibts gerade eine Aktion bei ASUS. Für u.a. den Bildschirm gibts einen Battlefield: Hardline Key gratis. Habe gerade den Antrag gestellt.

Kartenlehrling
2015-08-14, 19:14:58
War beim Monitor nicht schon ein AC.unity dabei ?

dargo
2015-08-14, 19:15:55
Ja... der ist auch dabei. Den muss ich auch noch einlösen. Nur habe ich das Spiel schon. :freak: Egal... kann man verkaufen. Die Aktion mit BF: H gibt es erst seit dem 05.08.15 und ist begrenzt.

horn 12
2015-08-14, 21:08:29
http://www.trovaprezzi.it/prezzo_monitor-lcd__philips_bdm4065uc.aspx?exp=1&utm_expid=36802610-20.Cynt-rcFQEG-qATbAXPIjQ.1&utm_referrer=http%3A%2F%2Fwww.trovaprezzi.it%2Fprezzo_monitor-lcd__philips_bdm4065uc.aspx%3Fexp%3D1

100+ Euro Preisunterschied zwischen Italien und Deutschland
Dies lässt auf guten Preis bei uns des LG 27 Zoll FreeSync hoffen <=500 Euro!
Sobald jener verfügbar ist wird bestellt (Wohl erst ab 18/19 August)

blaidd
2015-08-14, 22:05:53
100+ Euro Preisunterschied zwischen Italien und Deutschland

Pier Carlo (https://de.wikipedia.org/wiki/Pier_Carlo_Padoan), bist du's? ;)

FlashBFE
2015-08-14, 22:46:06
Was aber merkwürdig ist. Heute gibts direkt am Anfang mit 31-90Hz starke Bildfehler wo es noch gestern fehlerfrei lief. :|
Bist du sicher, dass du den alten Treiber sauber losgeworden bist? Ich habe mehrere Versuche gebraucht, um den Treiber zu wechseln. Obwohl der Name des neuen drin stand, hatte ich (auch nach Neustart) trotzdem noch die Bildfehler des alten.

dargo
2015-08-14, 23:00:08
Ja... vor so einer Frickelei erstelle ich mir immer zuerst einen Wiederherstellungspunkt. Ein Neustart ist nicht notwendig unter Windows 10 beim neuen Monitortreiber.

fondness
2015-08-15, 10:38:56
Bist du sicher, dass du den alten Treiber sauber losgeworden bist? Ich habe mehrere Versuche gebraucht, um den Treiber zu wechseln. Obwohl der Name des neuen drin stand, hatte ich (auch nach Neustart) trotzdem noch die Bildfehler des alten.

Jap, bei mir das gleiche, musste auch tw den alten deinstallieren und neustarten, damit er sauber übernommen wurde.

/Edit: Sieht also aktuell so aus, als wäre man mit einer hohen oberen Schranke besser dran, den Range nach unten abzusenken scheint wesentlich problemloser zu funktionieren als nach oben zu erweitern. Dann könnte der Eizo erst recht interessant werden, wenn man da nach unten noch etwas anpassen kann.

horn 12
2015-08-15, 10:45:59
@Fondness

Hatte Mironicus einige Fragen gestellt, erbitte Antwort falls auch du antworten kannst
Wie fühlen sich die Games (Ultra HD oder Full HD) dann auch mit dem FreeSync Monitor (33 bis 60 Hz) an mit den eben limitierenden 60Hz.

fondness
2015-08-15, 10:52:39
Ich weiß nicht was ich darauf antworten soll. FreeSync funktioniert zuverlässig von diesen 33-60 Hz, auch mit Interpolation. Natürlich fühlt sich das wesentlich besser an wie ohne FreeSync. Geräusche gibt der Monitor keine von sich, zumindest habe ich nichts bemerkt.

horn 12
2015-08-15, 11:08:04
Danke schonmal :-)
Wichtig sind mir keine Brummgeröusche bei Verstellen der Helligkeit, Kontrast:
Setzt du dann eine Limitierung auf 59 Hz, oder lässt den Monitor auch über die Freesync Range von 60 hinaus?

akuji13
2015-08-15, 11:31:38
Asus MG279Q Schnäppchen (354€):
https://www.alternate.de/ASUS/MG279Q/html/product/1205433?tk=9157&lk=8702

fondness
2015-08-15, 11:38:56
Nixeus FreeSync Monitor wird in Kürze ausgeliefert, MSRP soll bei $350 liegen:
http://www.anandtech.com/show/9530/nixeus-nxvue24a-144hz-freesync-monitor-set-to-ship

Setzt du dann eine Limitierung auf 59 Hz, oder lässt den Monitor auch über die Freesync Range von 60 hinaus?

Hängt vom Framelimiter ab, der AMD-Limiter limitiert leicht unterhalb des eingestellten Wertes, sodass ihn ihn bei 60 fps belassen kann.

Unicous
2015-08-15, 12:12:27
$350 sind mMn zu teuer, wenn man bedenkt, dass das Ding hierzulande sicherlich noch teurer sein wird.

$/€300 bzw. weniger wäre IMHO angemessen gewesen, zumal es ja G-Sync Konkurrenz gibt, die "nur" 400 Euro kostet.

dargo
2015-08-15, 12:27:48
$350 sind mMn zu teuer, wenn man bedenkt, dass das Ding hierzulande sicherlich noch teurer sein wird.

$/€300 bzw. weniger wäre IMHO angemessen gewesen, zumal es ja G-Sync Konkurrenz gibt, die "nur" 400 Euro kostet.
Es geht vom Preis her. Ohne VRR und 144Hz samt Ergonomie siehts so aus.
http://geizhals.de/?cat=monlcd19wide&v=e&hloc=at&hloc=de&sort=p&xf=99_24%7E1455_24%7E6492_144Hz%7E5137_1920x1080%7E2663_h%F6henverstellbar#xf_to p

Langfristig wird sich das Ding denke ich hier bei knapp über 300€ einpendeln. Und dann das Alleinstellungsmerkmal... da muss einfach mehr Konkurrenz kommen.

Unicous
2015-08-15, 12:47:29
Es geht eben nicht. €250 kostet der günstigste Monitor bei Mediasaturn und Amazon. Dürfte vom feature set nicht wirklich hinten anstehen. $350 bzw. u.U sogar hier teurer sind nur 50 Euro von einem G-Sync Monitor entfernt. Ich weiß, das ist ein kleiner Hersteller, der nicht so stark mit den Großen konkurrieren kann, aber dennoch ist der Preis zu hoch, auch 300 Euro sind eigentlich zu hoch. Für 330 Euro bekomme ich schon den LG 29"er mit IPS. Ist ein komischer Vergleich aber zeigt auf, dass bis auf FreeSync und die geringere Min. Range nichts besonders ist an dem Monitor und FreeSync nicht 100 Euro Aufpreis kosten sollte (eigentlich gar keinen Aufpreis). Als novelty product kann man gerne den ein oder anderen Euro drauflegen, aber wie gesagt nicht gleich 70-100. Gibt ja auch noch mehrere andere Bildschirme wie z.B. den ehemals zu G-Sync aufrüstbaren Asus 24"er. Der kostet auch nur noch 280 Euro.

Ich wette AOC wird mit ihren Monitoren deutlich drunter liegen.

dargo
2015-08-15, 12:51:24
$350 bzw. u.U sogar hier teurer sind nur 50 Euro von einem G-Sync Monitor entfernt.
Nur ist das Blödsinn. Der ASUS MG279Q hat eine UVP von 599$ und kostet hier unter 600€. Gab schon vereinzelt für 563€.

Für 330 Euro bekomme ich schon den LG 29"er mit IPS. Ist ein komischer Vergleich aber zeigt auf, dass bis auf FreeSync und die geringere Min. Range nichts besonders ist an dem Monitor und FreeSync nicht 100 Euro Aufpreis kosten sollte (eigentlich gar keinen Aufpreis).
Der Vergleich hinkt schon alleine deshalb weil nicht der selbe Hersteller (unter diesen gibt es gewisse Preisspannen) und natürlich ist die Range und vorallem die max. Refreshrate im Vergleich zum Nixeus ein Witz. Außerdem hat der LG keine Ergonomie was auch etwas kostet bzw. sich die Hersteller bezahlen lassen.

Unicous
2015-08-15, 13:02:13
Was willst du jetzt mit dem MG279Q? Guck dir mal bitte die Preisentwicklung an. Der sollte wahrscheinlich anfangs unter 600 Euro kosten, dann haben sie den UVP auf 650 Euro hochgesetzt, siehe auch hier -> https://www.alternate.de/ASUS/MG279Q/html/product/1198150

und jetzt gibt es ihn bei einigen Händlern für unter 600 Euro. Das ist der MSRP in den USA 599 und z.B. bei Newegg kostet er momentan 579 Dollar.
Vor ein paar Monaten sah das noch ganz anders aus. Da lag der deutsche Preis bei den günstigsten Händlern bei Elektronik deutlich unter dem MSRP und z.T. auch den rabattierten Preisen. Das kommt ja nicht von ungefähr. Der Dollarkurs ist weiterhin auf einem Tiefststand.

Edit:

Jaja, hink hink. Hatte ich bereits geschrieben, dass der Vergleich nicht der Beste ist, das mit dem Hersteller ist aber Müll. Bloß weil es ein anderer Hersteller ist, heißt das nicht, dass man nicht mit dem günstigsten Angebot vergleichen kann. Ein 29" IPS Panel ist nunmal deutlich teurer als ein 24" TN Panel. Da gibt es auch nichts dran zu rütteln. Allein das Panel macht einen großen Teil der Materialkosten aus. Logisch.

dargo
2015-08-15, 14:39:11
Jaja, hink hink. Hatte ich bereits geschrieben, dass der Vergleich nicht der Beste ist, das mit dem Hersteller ist aber Müll. Bloß weil es ein anderer Hersteller ist, heißt das nicht, dass man nicht mit dem günstigsten Angebot vergleichen kann. Ein 29" IPS Panel ist nunmal deutlich teurer als ein 24" TN Panel. Da gibt es auch nichts dran zu rütteln. Allein das Panel macht einen großen Teil der Materialkosten aus. Logisch.
Das ist völliger Unsinn. Ein 24" TN mit 144Hz kostet das doppelte von einem 24" TN mit 60Hz. Der LG ist mit seinen 75Hz nur leicht drüber.

Unicous
2015-08-15, 14:45:04
Das ist völliger Unsinn. Ein 24" TN mit 144Hz kostet das doppelte von einem 24" TN mit 60Hz. Der LG ist mit seinen 75Hz nur leicht drüber.

Und Beweise für deine Behauptung? Ich rede nicht von Monitoren sondern von Panels.:rolleyes:

Was der Monitor am Ende kostet, und wie viel der Hersteller dafür verlangt sind zwei verschiedene Dinge.

dargo
2015-08-15, 14:51:27
Und Beweise für deine Behauptung? Ich rede nicht von Monitoren sondern von Panels.:rolleyes:

Und natürlich kann jedes Panel mit 144Hz angesteuert werden. :rolleyes:

Unicous
2015-08-15, 15:02:18
Was soll der Müll?

Die reinen Produktionskosten eines IPS-Panels liegen höher als die eines TN-Panels. Punkt. Da gibt es auch keine Diskussion.

Es gibt mehrere TN-Monitore die 144Hz beherrschen und unter 300 Euro kosten. Punkt.

Allein, dass FreeSync implementiert ist berechtigt nicht zu 70-100 Euro Aufpreis. Punkt.

Allein schon, dass ein G-Sync Panel nur 50 Euro mehr kostet, bzw. bei Newegg kostet der Acer nur 384 Dollar, beweist, dass der Preis zu hoch gesteckt ist.

Traurig auch, dass du nicht mal darauf eingehst, wenn man deine Behauptungen bzgl. des Asus widerlegt und du jetzt nur noch ablenken willst.:rolleyes:

dargo
2015-08-15, 15:07:54
Was du wieder für einen Müll von dir gibst tut echt weh.

1. Ein 60-75Hz IPS Monitor ist nicht zwangsläufig billiger als ein 144Hz TN. Und komm mir nicht schon wieder mit dem Panel Schwachsinn. Damit ich hier was auf dem Schirm sehe reicht ein Panel alleine nicht.
2. Dein Vergleich mit G-Sync ist für die Tonne. Die G-Sync Monitore sind schon seit Monaten verfügbar. Der Nixeus ist der erste Freesync Bildschirm mit einer Range von 30-144Hz. Hast du den Markt immer noch nicht verstanden? Es braucht seine Zeit bis sich die Straßenpreise stabilisieren.

Hier hast du nochmal den Vergleich.

24" Full-HD @60Hz:
http://geizhals.de/?cat=monlcd19wide&xf=1455_24~99_24~5137_1920x1080~6492_60Hz#xf_top

24" Full-HD @144Hz
http://geizhals.de/?cat=monlcd19wide&xf=1455_24~99_24~5137_1920x1080~6492_144Hz#xf_top

Was die Panels in der Herstellung alleine kosten ist völlig irrelevant. Nur der Endkundenpreis zählt!

Unicous
2015-08-15, 15:19:47
Ney, was du hier laberst tut echt weh. Du verteidigst das Preisgebahren eines Herstellers ohne Argumente zu haben. Ich wiederhole es immer wieder gern. Es ist scheiß egal, wann die Monitore herausgekommen sind, sie kosten deutlich weniger, als der angegebene MSRP und haben wahrscheinlich sehr ähnliche Specs zu bieten.

Der Acer G-Sync hat im Vergleich auch noch das ein oder andere Nvidia-spezifische Feature mehr, btw.

Für die Tonne ist auch dein Beharren darauf dass Straßenpreise irrelevant wären. Wenn du einen Monitor in die Runde wirfst und der im Marktegefüge untergeht, hat man den Preis falsch gewählt. Da ist es auch scheiß egal, was der Monitor in ein paar Wochen kostet, zumal die Preise momentan eher stabil sind.

$300 wäre der richtige Preis. Das braucht man nicht zu relativieren. Das Teil wird auch nicht mir nichts dir nichts 70 Euro im Preis sinken um konkurrenzfähig zu sein. Man übertrumpft die Konkurrenz mit mehr Features zum selben Preis, nicht mit einem überhöhten Preise für ein so gut wie kostenloses Feature.

Edit:

Du bist vllt. eine Nulpe. Die 60Hz Monitore haben fast durch die Bank weg schlechtere Werte oder Features. 250 cd/m² vs. 350 z.B.

:facepalm:

Kleiner Tip: Ein bißchen mehr nachdenken bevor du postest.:wink:


btw. Den LG gibt es beim amazon.com für 309 Dollar (Microcenter 300 Dollar), der NX-VUE24B mit Standardfuß soll 329 Dollar kosten.

dargo
2015-08-15, 16:25:27
Es ist sinnlos mir jemanden darüber zu diskutieren der den Unterschied im Preis zwischen einem 60Hz Panel und einem 144Hz Panel nicht mal versteht. Es ist genauso sinnlos mit jemanden zu diskutieren der querbeet über verschiedene Hersteller vergleicht. TN ist nicht gleich TN, gleiches gilt für IPS und VA. Da gibt es riesen Unterschiede! Ich frage mich ernsthaft ob du den LG 29UM67-P überhaupt live erlebt hast? Die Bildqualität ist grausam, ich hatte immer das Gefühl ich habe einen Grauschleier über dem Bild. Nachdem ich den selbst testen durfte verstehe ich auch den niedrigen Preis. Die Ausleuchtung, Schwarzwert sind eine Katastrophe. Da spielt ein ASUS MG279Q in einer ganz anderen Liga! Ich vermute allerdings, dass das 21:9 Format dem LG zum Verhängnis wird was die Ausleuchtung angeht. Eventuell lässt sich das schlechter gleichmäßig ausleuchten. Oder LG spart hier einfach.

Und was kapierst du eigentlich nicht daran, das der Nixeus der erste Bildschirm mit einer Range von 30-144Hz sein wird? Wenn ich der Hersteller wäre würde ich da genauso erstmal versuchen etwas abzukassieren. Sollte der Bildschirm im Regal verstauben oder mehr Konkurrenz kommen kann man den Preis immer noch später nach unten korrigieren.

Unicous
2015-08-15, 16:47:54
Ich sagte dir schon mal, zeig mir bitte wie teuer ein 60 Hz Panel im Vergleich zu einem 144Hz Panel ist. Exakt die gleichen Specs, bis auf die Refreshrate.


Und komm mir nicht immer mit Monitoren, die völlig anders ausgestattet sind, oder deutlich schlechtere Panels verbaut haben mit völlig rudimentären Features.

Die ganzen 144Hz TNs haben mit 99%er Wahrscheinlichkeit die M240HW01 Panels von AU Optronics verbaut, soweit ich weiß gibt es kein anderes Panel mit den gleichen Charakteristika. Ich könnte mir auch vorstellen, dass der Nixeus eben dieses Panel nutzt. Und am Ende liegt es dann am Scaler und an der Firmware. Noch ein edit: Der Nixeus hat ja nur 300 cd/m², also auch hier ist er erst mal schlechter als die anderen Monitore.

Und es ist scheiß egal, ob er der erste Monitor mit dieser Range ist. Ein G-Sync Monitor kann das auch und kostet "nur" 50 Euro/35 Dollar mehr.

Deine Argumente sind mehr als dünn und nicht mal durch Fakten gefüttert. Du laberst mich jetzt mit den verschiedenen zu, wie du es bei aufkrawall auch andauernd machst um vom eigentlichen Thema abzulenken.

Du hast keine Ahnung wie teuer ein Panel im Ankauf ist, und behauptest einfach mal frech du wüsstest es, weil man ja bei gh die Preise vergleichen kann und zeigst dann Monitore die völlig andere Specs haben. Da möchte ich gerne noch ein paar :facepalm::facepalm::facepalm: verteilen.

Screemer
2015-08-15, 17:19:12
Das einzig nötige Argument ist, die alleinige Präsenz mit dieser Range am Markt. Da kann man die Preise erst mal mutig gestalten. Was da verbaut ist, ist in dem Fall erst mal sekundär. Die Preise reguliert der Markt. Ich bin da voll bei dargo. Der Aufpreis ist aus verbrauchersicht natürlich ungut und die Kiste würde sich mit moderaterem preis wohl besser verkaufen, aber deppenaufschlag gibts immer und überall.

Warum man sich so rumzanken muss ist mir unbegreiflich.

Unicous
2015-08-15, 17:26:25
G-Sync Monitore haben diese Range durch Framedoubling auch. Wir sind hier nicht im FreeSync-only Thread.

Man muss sich der Konkurrenz von allen Seiten stellen. Mutig wäre man gewesen, wenn man ihn für 300 Dollar angeboten hätte. Bei Twitter hat man sich jemand auch schon enttäuscht gezeigt zumal behauptet wurde, man wäre beim Preis konkurrenzfähig.

Gerade weil der Produktmanager dahingehend ziemlich großkotzig die Konkurrenzfähigkeit über die letzten Monate in zahlreichen Foren angepriesen hat und Nixeus den Monitor nicht einmal veröffentlich hat, nachdem sie ihn auf der Computex gelaunched haben.

Kartenlehrling
2015-08-15, 17:41:40
Beim Nixeus hatte ich einen 1080p VA panel wie sie beim Eizo Foris FG2421 eingesetzt wird vermute und da wär ein Preis von 350-400€ immer noch gut.
So bin ich auch enttäuscht, was ich auch nicht verstehe wieso sie den Nixeus NX-VUE27D, der ja als Testmonitor bei AMD Freesync funktionierte nie mit Freesync angeboten wurde und
auch nie ein Firmeware-update für die verkauften gab.

Unicous
2015-08-15, 17:43:16
Na, der wird sicherlich auch noch kommen, sie hatten ja schon angekündigt (über Twitter iirc), dass noch mehrere Monitore in der pipeline sind.

mironicus
2015-08-15, 17:48:36
http://www.trovaprezzi.it/prezzo_monitor-lcd__philips_bdm4065uc.aspx?exp=1&utm_expid=36802610-20.Cynt-rcFQEG-qATbAXPIjQ.1&utm_referrer=http%3A%2F%2Fwww.trovaprezzi.it%2Fprezzo_monitor-lcd__philips_bdm4065uc.aspx%3Fexp%3D1

100+ Euro Preisunterschied zwischen Italien und Deutschland
Dies lässt auf guten Preis bei uns des LG 27 Zoll FreeSync hoffen <=500 Euro!
Sobald jener verfügbar ist wird bestellt (Wohl erst ab 18/19 August)

Dieses Mal nicht: Deutschland ist 100 Euro günstiger.
http://www.idealo.it/confronta-prezzi/4785088/lg-27mu67-b.html


Auf Geizhals wurden die technischen Daten des Acer Predator X34 GSync auf den aktuellsten Stand gebracht.
http://geizhals.de/acer-predator-x34bmiphz-um-cx1ee-006-a1257523.html

Diagonale: 34"/86.4cm • Auflösung: 3440x1440, 21:9 • Helligkeit: 350cd/m² • Kontrast: 1000:1 (statisch), 100000000:1 (dynamisch) • Reaktionszeit: 4ms • Blickwinkel: 172°/178° • Panel: AH-IPS • Bildwiederholfrequenz: 100Hz • Anschlüsse: HDMI 1.4, DisplayPort • Weitere Anschlüsse: 4x USB 3.0 • Ergonomie: höhenverstellbar (130mm) • VESA: 100x100 (belegt) • Leistungsaufnahme: keine Angabe (typisch), keine Angabe (Standby) • Farbraum: 100% sRGB • Besonderheiten: LED-Backlight, Lautsprecher (2x 7W), NVIDIA G-Sync (30-100Hz), flicker-free, Slim-Bezel, gewölbt (3000R/3m) • Herstellergarantie: drei Jahre

nalye
2015-08-15, 18:31:43
Hier kehrt mal wieder ein zivilisierter Ton ein!

Angel3DWin
2015-08-15, 21:28:45
Man möge mir verzeihen, aber der Thread ist einfach zu groß um alles zu lesen:

Ist das auch mit 4k G-Sync TFTs möglich? Oder nur mit Freesync?

Kartenlehrling
2015-08-15, 21:43:32
Es gibt nur ein 4k g-sync und der ist TN-Panel, im Oktober will Asus ein 4k-IPS bringen.

http://rog.asus.com/wp-content/uploads/2015/06/PG27AQ-a.jpg
PG27AQ

mironicus
2015-08-17, 14:59:55
Acer bringt noch zwei Curved mit 35 Zoll auf dem Markt, sowohl Freesync und GSync-Version.
http://www.pcgameshardware.de/LCD-Hardware-154105/News/Acer-Predator-X35-Curved-VA-Freesync-G-Sync-1168238/

2580x1080, 144 Hz, VA-Panel. >1000 Euro.

M4xw0lf
2015-08-17, 15:12:08
Nur 2,5 Megapixel auf dieser Fläche und zu diesem Preis? :|

horn 12
2015-08-17, 15:26:27
Test auf anderer Plattform:
http://www.hardwareluxx.de/community/f111/lg-27mu67-b-mit-freesync-und-ultrahd-im-test-1083283.html

Zudem hab ich die 3 Insider erwähnt und die 33 bis 60 Hz kundgetan
Hoffe ich durfte dies mitteilen ? ---> Ansonsten bitte um Entschuldigung!

mironicus
2015-08-17, 15:40:49
Ha! Die haben nicht heraus gefunden wie HDMI 2.0 aktiviert wird und behaupten jetzt der Monitor könne nur HDMI 1.4 mit 4K30. :D

Kartenlehrling
2015-08-17, 23:29:29
LOL, Massensuizid unter ASUS ROG Swift PG278Q Monitor, meldunge aus dem Luxxforum.



Meinen hat´s nun auch erwischt :shake: - verschwommener Text inkl. Flimmern (außer unten rechts lol).


Meiner hat sich gerade auch so verabschiedet. Flimmern + unscharf außer unten rechts. :mad:
Kabel hab ich nochmal getauscht und länger vom Strom getrennt, jedoch alles ohne Erfolg.


Ist mir gerade soo eingefallen ...

ChatJack
2015-08-18, 00:08:47
Hat eigentlich inzwischen jemand erfolgreich die EDID beim LG 29UM67P anpassen können? Ich hab sie mit softMCCS (2.5.0.1040) ausgelesen, aber wenn ich sie im Phoenix EDID Designer (v1.3) öffne, bekomme ich falsche Werte angezeigt. Gespeichert hab ich das Ganze als "Raylar EDID file".

OC_Burner
2015-08-18, 00:15:44
Hat eigentlich inzwischen jemand erfolgreich die EDID beim LG 29UM67P anpassen können? Ich hab sie mit softMCCS (2.5.0.1040) ausgelesen, aber wenn ich sie im Phoenix EDID Designer (v1.3) öffne, bekomme ich falsche Werte angezeigt. Gespeichert hab ich das Ganze als "Raylar EDID file".

Laut deinem Anhang befindet sich in Block 2 die vordefinierte Auflösung 1920x1080@60hz. Du darfst nicht einfach den kompletten Block ändern. Bei dir befinden sich die korrekten Werte in Block4.

ChatJack
2015-08-18, 00:22:53
Laut deinem Anhang befindet sich in Block 2 die vordefinierte Auflösung 1920x1080@60hz. Du darfst nicht einfach den kompletten Block ändern. Bei dir befinden sich die korrekten Werte in Block4.

Besten Dank! Das sieht schon besser aus. :)

ChatJack
2015-08-18, 02:08:49
Kurzes Fazit nach ersten Testläufen mit dem LG 29UM67P:

Boah, ist das geil! :biggrin: Die Magische Grenze liegt hier wohl auch bei 31-32Hz. Bildfehler bleiben zwar aus, aber wenn ich mich ab hier mit der Framerate weiter heruntertaste kommt es hier nach und nach zu immer stärkeren Rucklern und bei abgeschaltetem V-Sync zu Tearing.

Bis 32Hz läuft aber alles Butterweich weshalb ich hier im Treiber nun auch die Grenze gezogen habe. Und das ist schon ein Unterschied wie Tag und Nacht. Beim 29UM67P lag die minimale Bildwiederholrate bei 48Hz, was man teils schon deutlich merkte. Drehe ich jetzt bei Battlefield das Supersampling hoch und fällt die Framerate mal unter 40Hz ist das (zumindest fürs Rumrennen auf ner Testmap) immernoch absolut verträglich. Wahnsinn. :)

mironicus
2015-08-18, 09:34:09
Glückwunsch! Damit wird der Monitor tausend mal interessanter. Was hat LG bloß geritten die Range so stark zu limitieren? Der größte Kritikpunkt des Monitors ist damit weg.

horn 12
2015-08-18, 09:54:44
Hoffe AMD gibt ein Statement ab, bzw. optimiert den Treiber und Bessert die Spezifikationen generell aus.
Damit würden die FreeSync Monitor den G-Sync das Wasser komplett abgraben und NV wäre wohl endlich am Arsch mit Ihrer Sturheit!
Nett wenn sich AMD und die MonitorHersteller zu Wort melden würden, warum die Scaler so hoch angepriesen werden wenn weitaus besser möglich ist!

fondness
2015-08-18, 10:14:54
Kurzes Fazit nach ersten Testläufen mit dem LG 29UM67P:

Boah, ist das geil! :biggrin: Die Magische Grenze liegt hier wohl auch bei 31-32Hz. Bildfehler bleiben zwar aus, aber wenn ich mich ab hier mit der Framerate weiter heruntertaste kommt es hier nach und nach zu immer stärkeren Rucklern und bei abgeschaltetem V-Sync zu Tearing.

Bis 32Hz läuft aber alles Butterweich weshalb ich hier im Treiber nun auch die Grenze gezogen habe. Und das ist schon ein Unterschied wie Tag und Nacht. Beim 29UM67P lag die minimale Bildwiederholrate bei 48Hz, was man teils schon deutlich merkte. Drehe ich jetzt bei Battlefield das Supersampling hoch und fällt die Framerate mal unter 40Hz ist das (zumindest fürs Rumrennen auf ner Testmap) immernoch absolut verträglich. Wahnsinn. :)

Wow, das ist ja genial, damit hat der Monitor einen Range von 32-75 Hz und der ist noch dazu Spottbillig.

horn 12
2015-08-18, 10:38:39
Dennoch fehlt ihm die Ergonomie :-(
und Euer LG 27 Zoll ist ihm doch weitaus überlegen mit auch nur 32 bis 60 Hz
Zudem 200 Euro Teurer, mit Stolzem Ultra HD, dafür aber KEIN 21:9 Format.

mironicus
2015-08-18, 11:03:12
Ich habe gestern mal GTA 4 auf dem LG in 4K gespielt. Das Spiel ist prädestiniert für Adaptive Sync-Monitore. Dieses Spiel konnte man bisher nicht konstant flüssig auf einen normalen Monitor spielen, egal wie stark die CPU oder die Grafikkarte war. Aber jetzt läuft das total weich und smooth. Nur gelegentlich gibt es mal einen Nachladeruckler aber wenn das Spiel erst mal im Speicher ist läuft es so flüssig wie niemals zuvor.

horn 12
2015-08-18, 11:10:14
Bitte Mit welcher GPU und welcher CPU
Habe R9 290 @1100 Mhz und Stock i5 4670K
Könnte der CPU noch etwa 4,2 Ghz geben, mehr ist nicht drinn

Somit bringt dieser LG 27 Zoll U-HD weitaus mehr als eine Fury X / GTX 980 für Ultra HD und zudem noch perfekt skalierbar auf FULL HD wenn eben die Frames nicht ausreichen..

mironicus
2015-08-18, 11:19:57
Ich habe nur eine R290x mit 1100/1500 auf einem i7-3770k mit 4,4 GHz. Die Karte stemmt GTA 4 in 4K ohne weiteres und bleibt auch in der Freesync-Range, aber wohl nur dank der Senkung auf 33 Hz. Besonders merkt man die Vorteile von Freesync wenn man während der Autofahrt einfach mal rechts und links wendet und dann die ganzen Gebäude konstant und ohne Mikroruckler smooth an einen vorbei ziehen. Das war sonst jahrelang mit Rucklern und Tearing verbunden.

Ein anderes Games was ich früher schon mal komplett durchgespielt hatte ist Enslaved: Odyssey to the West. Das Spiel läuft aber gar nicht in 4K, sondern nur in 1080P. Es ist eine schlampige Portierung und VSync konnte man gar nicht einschalten. Doch der Framelimiter und Freesync machen das Bild auch hier ganz smooth und einwandfrei.

Da kann man echt noch mal die ganze Bibliothek durchgehen und antesten wie die ganzen Games in 4K ausschauen bzw. generell mit Freesync laufen.

OC_Burner
2015-08-18, 11:41:15
Kurzes Fazit nach ersten Testläufen mit dem LG 29UM67P:

Boah, ist das geil! :biggrin: Die Magische Grenze liegt hier wohl auch bei 31-32Hz. Bildfehler bleiben zwar aus, aber wenn ich mich ab hier mit der Framerate weiter heruntertaste kommt es hier nach und nach zu immer stärkeren Rucklern und bei abgeschaltetem V-Sync zu Tearing.

Bis 32Hz läuft aber alles Butterweich weshalb ich hier im Treiber nun auch die Grenze gezogen habe. Und das ist schon ein Unterschied wie Tag und Nacht. Beim 29UM67P lag die minimale Bildwiederholrate bei 48Hz, was man teils schon deutlich merkte. Drehe ich jetzt bei Battlefield das Supersampling hoch und fällt die Framerate mal unter 40Hz ist das (zumindest fürs Rumrennen auf ner Testmap) immernoch absolut verträglich. Wahnsinn. :)

Toll,

aber sag mal läuft dein LG wirklich mit bis zu 75Hz? Es sind zwar kleinere Auflösungen mit 75Hz angegeben aber 2560x1080 ist nur mit maximal 60Hz verzeichnet. Es kann natürlich sein, dass diese Informationen innerhalb des extended EDID-Blocks liegt, damit aber würde man diese Informationen nicht so einfach manipulieren können.

ChatJack
2015-08-18, 11:58:36
Glückwunsch! Damit wird der Monitor tausend mal interessanter. Was hat LG bloß geritten die Range so stark zu limitieren? Der größte Kritikpunkt des Monitors ist damit weg.

Danke! :) Ich denke, des Problem liegt hier in einer fehlenden Optimierung bei der Handhabe niedriger Bildwiederholraten. So wie ich das sehe, schaltet der Monitor bei geringeren Bildwiederholraten nicht hoch aufs Maximum, was bedeutet das er bei 48Hz stagniert und dadurch ein stärkeres Ruckeln bei Frameraten darunter entsteht.

LG hat vermutlich versucht, hier einen Kompromiss zu finden, damit ein Spiel noch spielbar bleibt, auch wenn es mal unter die Grenze von 30fps fällt. Ich hoffe, AMD schafft es noch, das Problem per Treiberupdate auszugleichen, sodass der Framebuffer ein zweites Mal ausgeliefert wird, wenn der nächste Frame nicht innerhalb der maximal zur Verfügung stehenden Zeitspanne ausgeliefert wird und ab da wieder die komplette Range zur Verfügung steht.

Gefühlt ist es so, dass die Framerate unter 48fps dann plötzlich auf 24fps einbrach, weshalb der Effekt dann auch so überaus störend auffällt. Bei einem Minimum von 32Hz wären das dann nur noch 16fps. Falls AMD das per Treiberupdate hinbekommt, würde ja eine Range von 37-75Hz reichen, um das Problem der Framedrops komplett zu eliminieren.

Soweit ich das gelesen habe, bekommt das G-Sync zurzeit wohl noch etwas besser hin.

OC_Burner
2015-08-18, 12:06:36
Danke! :) Ich denke, des Problem liegt hier in einer fehlenden Optimierung bei der Handhabe niedriger Bildwiederholraten. So wie ich das sehe, schaltet der Monitor bei geringeren Bildwiederholraten nicht hoch aufs Maximum, was bedeutet das er bei 48Hz stagniert und dadurch ein stärkeres Ruckeln bei Frameraten darunter entsteht.

LG hat vermutlich versucht, hier einen Kompromiss zu finden, damit ein Spiel noch spielbar bleibt, auch wenn es mal unter die Grenze von 30fps fällt. Ich hoffe, AMD schafft es noch, das Problem per Treiberupdate auszugleichen, sodass der Framebuffer ein zweites Mal ausgeliefert wird, wenn der nächste Frame nicht innerhalb der maximal zur Verfügung stehenden Zeitspanne ausgeliefert wird und ab da wieder die komplette Range zur Verfügung steht.

Gefühlt ist es so, dass die Framerate unter 48fps dann plötzlich auf 24fps einbrach, weshalb der Effekt dann auch so überaus störend auffällt. Bei 32fps wären das dann nur noch 16fps. Falls AMD das per Treiberupdate hinbekommt, würde ja eine Range von 37-75Hz reichen, um das Problem der Framedrops komplett zu eliminieren.

Soweit ich das gelesen habe, bekommt das G-Sync zurzeit wohl noch etwas besser hin.

Das musste ich vor etlichen Wochen unter DX11 Heaven auch feststellen. Weg mit Double Buffering -> Problem gelöst

ChatJack
2015-08-18, 12:17:40
Toll,

aber sag mal läuft dein LG wirklich mit bis zu 75Hz? Es sind zwar kleinere Auflösungen mit 75Hz angegeben aber 2560x1080 ist nur mit maximal 60Hz verzeichnet. Es kann natürlich sein, dass diese Informationen innerhalb des extended EDID-Blocks liegt, damit aber würde man diese Informationen nicht so einfach manipulieren können.

Wenn der Monitor per DisplayPort angeschlossen ist, stehen über die Monitoreinstellungen unter Windows in 2560 x 1080 neben 60Hz auch 75Hz zur Verfügung. Es ist mir ein Rätsel, warum selbst LG unter den Spezifikationen nur 60Hz aufführt.

dargo
2015-08-18, 12:30:40
Ich habe gestern mal GTA 4 auf dem LG in 4K gespielt. Das Spiel ist prädestiniert für Adaptive Sync-Monitore. Dieses Spiel konnte man bisher nicht konstant flüssig auf einen normalen Monitor spielen, egal wie stark die CPU oder die Grafikkarte war. Aber jetzt läuft das total weich und smooth. Nur gelegentlich gibt es mal einen Nachladeruckler aber wenn das Spiel erst mal im Speicher ist läuft es so flüssig wie niemals zuvor.
Ich hatte schon mal gesagt, dass VRR keine Lösung für schlechte Frametimes ist. Das Spiel bzw. die Engine muss sauber laufen. Zum Glück kommt langsam DX12, sollte also in Zukunft wenn der Entwickler keinen Bockmist baut alles vernünftig laufen. Fluktuationen von ca. 5-10ms sind noch nicht das Problem. Aber solche Scherze wie bsw. 30+ ms sieht man sofort. Von Standbildern wie 80+ ms reden wir lieber nicht. Ich habe eh das Gefühl, dass man auf Stuttering mit VRR noch empfindlicher reagiert da die Frequenzen 1:1 wiedergegeben werden und man die Nachteile von keinem VRR einfach nicht mehr hat. Ergo fällt der kleinste Stutterer umso mehr auf.

samm
2015-08-18, 13:13:00
Ich habe eh das Gefühl, dass man auf Stuttering mit VRR noch empfindlicher reagiert da die Frequenzen 1:1 wiedergegeben werden und man die Nachteile von keinem VRR einfach nicht mehr hat. Ergo fällt der kleinste Stutterer umso mehr auf.Das leuchtet mir nicht ein und widerspricht auch der Erfahrung fast aller VRR Nutzer - was sich nun als unregelmässige Bildrate äussert, war davor in Form von wesentlich grösseren fps-drops (mit VSync, double buffering), Rubberbanding (mit VSync) oder Tearing (ohne VSync).

ChatJack
2015-08-18, 13:37:05
Ich hatte schon mal gesagt, dass VRR keine Lösung für schlechte Frametimes ist. Das Spiel bzw. die Engine muss sauber laufen. Zum Glück kommt langsam DX12, sollte also in Zukunft wenn der Entwickler keinen Bockmist baut alles vernünftig laufen. Fluktuationen von ca. 5-10ms sind noch nicht das Problem. Aber solche Scherze wie bsw. 30+ ms sieht man sofort. Von Standbildern wie 80+ ms reden wir lieber nicht. Ich habe eh das Gefühl, dass man auf Stuttering mit VRR noch empfindlicher reagiert da die Frequenzen 1:1 wiedergegeben werden und man die Nachteile von keinem VRR einfach nicht mehr hat. Ergo fällt der kleinste Stutterer umso mehr auf.

Kommt auf das Spiel an. Ein Battlefield würde ich mit 30fps als unspielbar bezeichnen. Ein GTA5 hingegen kann auch mit 30fps Spaß machen. Darüber hinaus geht es vor allem um kleinere Täler bei der Framerate die aufgrund unterschiedlichster Gründe entstehen können. Manchmal liegt es auch schlicht an einer schlechten Optimierung.

Solange kein Aktualisierungszyklus übersprungen wird, macht es auch nichts aus, wenn die Framerate mal kurzzeitig unter 30ms fällt. Erst wenn ein solcher Zyklus übersprungen wird, bemerkt man diese krassen Hakler.

Das hatte ich vor allem bei Far Cry 4. Solange die Framerate zwischen 50 und 60 fps pendelte war alles OK. Sobald sie dann knapp unter 48 fps fiel, hat es übelst geruckelt. Selbst das Abschalten des V-Sync hat hier nichts geändert, was ja im Idealfall zur Folge haben sollte, dass das Ruckeln nur minimal stärker wird und von Tearing begleitet wird. Scheinbar hat der Monitor aber hier an der geringen Bildwiederholrate von 48Hz festgehalten was das Tearing hier im Gegensatz zu konstanten 75Hz noch verstärkt hat.

Pauschal würde ich sagen, dass bei Spielen mit Maus und Tastatur mein Minimum bei 50fps liegt, bei Spielen mit Controller (ausgenommen Rennspiele) aber auch bei 30fps liegen kann.

Im Kino beschwert sich ja auch keiner, dass es ruckelt. Peter Jackson mal ausgenommen. ;)

samm
2015-08-18, 13:41:30
Im Kino beschwert sich ja auch keiner, dass es ruckelt. Peter Jackson mal ausgenommen. ;)Doch ich, und danke Peter Jackson für die HFR 3D Variante, es war wirklich viel angenehmer zu sehen (mal vom Film an sich abgesehen... :P )

akuji13
2015-08-18, 13:45:55
Kommt auf das Spiel an. Ein Battlefield würde ich mit 30fps als unspielbar bezeichnen. Ein GTA5 hingegen kann auch mit 30fps Spaß machen.

Kommt auch relativ unabhängig von den fps auf das Spiel bzw. dessen engine an.

GTA5 läuft mMn mit 40 fps deutlich sauberer als ein State of Decay mit 60+ fps.
Da sind die Syncs dann ein wirklicher Segen.

mironicus
2015-08-18, 13:52:11
Zu viel FPS sind manchmal auch gar nicht so gut, vor allem bei IPS-Displays. :D

Wenn ich Witcher 3 in 4K durchgehend in 60 fps spielen könnte und dann im Vergleich mit 35-45 FPS mit GSync/Freesync dann hätten die 60 fps den Nachteil das die Grafik mehr schliert als mit 35-45 FPS gesynct. Die Bewegungsschärfe leidet unter den hohen FPS-Zahlen wenn das Display selbst nicht schnell genug ist. Und gerade bei Spielen mit besonders guter Grafik will man diese ja auch genießen können.

Die 144 Hz von den neuesten IPS-Monitoren merkt man im Desktop auch nicht gerade, bei TN-Monitoren ist dies deutlich besser.

d2kx
2015-08-18, 14:02:23
Die 144 Hz von den neuesten IPS-Monitoren merkt man im Desktop auch nicht gerade, bei TN-Monitoren ist dies deutlich besser.

Der Unterschied mit 144Hz meines ASUS MG279Q war und ist ein Schock (im positiven Sinne), gerade auch auf dem Desktop.

mironicus
2015-08-18, 14:11:11
Ich kenne den Unterschied, aber ein TN-Panel mit 144 Hz ist noch smoother.
Meine Referenz auf die ich mich beziehe: Benq XL2420Z mit v3-Bios. Wenn du damit Fenster im Desktop verschiebst ist die Schrift noch klarer als beim 144 Hz-IPS.

akuji13
2015-08-18, 14:16:56
Die Bewegungsschärfe leidet unter den hohen FPS-Zahlen wenn das Display selbst nicht schnell genug ist. Und gerade bei Spielen mit besonders guter Grafik will man diese ja auch genießen können.

Klingt für mich nicht logisch.

100% Bildschärfe (im Rahmen der Möglichkeiten des Monitors) erreicht man z. B. bei meinem Philips mit 60fps@60Hz.
Bei 45fps@60Hz ist der Wert z. B. bei nur noch 75%.

80fps@60Hz bringen das in Sachen Bewegungsschärfe nichts mehr, schaden aber auch nicht.
Sowas habe ich noch nicht bemerkt, egal ob TN, IPS oder VA.

Benq XL2420Z mit v3-Bios. Wenn du damit Fenster im Desktop verschiebst ist die Schrift noch klarer als beim 144 Hz-IPS.

Jup, an solche Geräte kommt mMn bislang nichts ran.
Fand ich sogar noch besser als beim Swift.

dargo
2015-08-18, 14:27:30
Das leuchtet mir nicht ein und widerspricht auch der Erfahrung fast aller VRR Nutzer - was sich nun als unregelmässige Bildrate äussert, war davor in Form von wesentlich grösseren fps-drops (mit VSync, double buffering), Rubberbanding (mit VSync) oder Tearing (ohne VSync).
Du hast mich nicht verstanden.

Ohne VRR und Vsync Off hast du quasi immer Stuttering. Mal stärker, mal schwächer ausgeprägt je nachdem wie die fps zu den 60Hz vom Bildschirm liegen. Solange du dieses Stuttering hast ist es schwer zu unterscheiden ob die Frametimes leicht fluktuieren oder es einfach an no VRR liegt. Mit VRR läuft immer alles schön gleichmäßig. Hast du paar Fluktuationen (und das müssen keine großen Spikes sein) in den Frametimes siehst du den Unterschied sofort. Um Tearing gehts mir dabei gar nicht.

Kommt auf das Spiel an. Ein Battlefield würde ich mit 30fps als unspielbar bezeichnen. Ein GTA5 hingegen kann auch mit 30fps Spaß machen.

Du bist ganz woanders. Ich spreche von der Ausprägung der Fluktuationen in ms. Nicht von der tatsächlichen Framerate.


Pauschal würde ich sagen, dass bei Spielen mit Maus und Tastatur mein Minimum bei 50fps liegt, bei Spielen mit Controller (ausgenommen Rennspiele) aber auch bei 30fps liegen kann.

Ist auch in etwa meine Meinung, trotz VRR. Und da ich überzeugter M+T Spieler und Gamepad-Verweigerer bin...


Die 144 Hz von den neuesten IPS-Monitoren merkt man im Desktop auch nicht gerade, bei TN-Monitoren ist dies deutlich besser.
Sorry, aber das ist völliger Unsinn.

mironicus
2015-08-18, 14:32:45
Klingt für mich nicht logisch.

100% Bildschärfe (im Rahmen der Möglichkeiten des Monitors) erreicht man z. B. bei meinem Philips mit 60fps@60Hz.

Ich meine höhere Bewegungsschärfe aufgrund niedriger FPS. Hm... folgendes Beispiel. Witcher 3 in 4K und 30 fps vs 60 fps.
Guck auf den Rasen und bewege dich ein wenig im Spiel herum. Den Rasen und andere feine Details wird dein Auge mit 30 fps in Bewegung noch besser und klarer/schärfer sehen können als das gleiche mit 60 fps, da siehst du mehr Blurring weil das Panel zu langsam ist.

Wenn ich ein Spiel gesynct mit 35-45 fps spielen kann kommt zu dem smoothen Gameplay auch noch ein subjektiv höhere Bewegungsschärfe dazu, wodurch das Bild noch plastischer und tiefer und angenehmer wirkt.

Bei zu viel FPS kann man auch leicht Schwindelgefühle bekommen, besonders wenn man so gerne in ein Spiel eintaucht. Witcher 3 würde ich nie mit 100fps+ spielen wollen. Ausnahme: ULMB.

d2kx
2015-08-18, 14:38:53
Ich meine höhere Bewegungsschärfe aufgrund niedriger FPS. [...] Den Rasen und andere feine Details wird dein Auge mit 30 fps in Bewegung noch besser und klarer/schärfer sehen können als das gleiche mit 60 fps, da siehst du mehr Blurring weil das Panel zu langsam ist.

Wenn ich ein Spiel gesynct mit 35-45 fps spielen kann kommt zu dem smoothen Gameplay auch noch ein subjektiv höhere Bewegungsschärfe dazu, wodurch das Bild noch plastischer und tiefer und angenehmer wirkt.

Bei zu viel FPS kann man auch leicht Schwindelgefühle bekommen, besonders wenn man so gerne in ein Spiel eintaucht. Witcher 3 würde ich nie mit 100fps+ spielen wollen.

Im Bezug auf alle drei Abschnitte: ist der Post ernst gemeint? Falls das der Fall ist, bitte nicht böse aufnehmen.

akuji13
2015-08-18, 14:46:24
Witcher 3 in 4K und 30 fps vs 60 fps.
Guck auf den Rasen und bewege dich ein wenig im Spiel herum. Den Rasen und andere feine Details wird dein Auge mit 30 fps in Bewegung noch besser und klarer/schärfer sehen können als das gleiche mit 60 fps, da siehst du mehr Blurring weil das Panel zu langsam ist.

Das hat was mit den Augen zu tun, nicht mit dem Gerät. :D

Ich kenne kein aktuelles panel (Elektronik) das (die) zu langsam für 60fps ist (oder gar bei 30fps schärfe Bilder liefert als bei 60fps).

Sowas gibt es, aber bei einer deutlich höheren Grenze.
Einfallen tun mir da die Korea Geräte die die 120fps nicht 1:1 umsetzen können oder eben auch der MG279Q.
Aber auch die sind schärfer oder zumindest gleich scharf mit höheren fps, sie profitieren nur weniger von einer Steigerung als andere Geräte.

Die Sichbarkeitsgrenze des Auges liegt in Sachen Sehschärfe auch deutlich über 60fps.

robbitop
2015-08-18, 15:00:36
Ich hatte schon mal gesagt, dass VRR keine Lösung für schlechte Frametimes ist. Das Spiel bzw. die Engine muss sauber laufen. Zum Glück kommt langsam DX12, sollte also in Zukunft wenn der Entwickler keinen Bockmist baut alles vernünftig laufen. Fluktuationen von ca. 5-10ms sind noch nicht das Problem. Aber solche Scherze wie bsw. 30+ ms sieht man sofort. Von Standbildern wie 80+ ms reden wir lieber nicht. Ich habe eh das Gefühl, dass man auf Stuttering mit VRR noch empfindlicher reagiert da die Frequenzen 1:1 wiedergegeben werden und man die Nachteile von keinem VRR einfach nicht mehr hat. Ergo fällt der kleinste Stutterer umso mehr auf.
DX12 ist kein Zaubermittel. Im Gegenteil wird dem Entwickler noch mehr Verantwortung gegeben. Die kann er nutzen, damit es schneller wird. Aber er kann noch mehr als vorher versauen. Es ist also nicht unwahrscheinlich, dass auch in der DX12 Ära genauso viel versaut wird wie vorher. Wenn nicht sogar mehr. Auch bezogen auf Frametimes.

A fool with a tool is still a fool... ;)

Ansonsten verschlechtert VRR unsauberere Frametimes eigentlich nicht. Es macht sie aber auch nicht besser, wenn die Ursachen nicht in der Synchronisierung der Bildausgabe lag.

Gipsel
2015-08-18, 15:00:52
Das hat was mit den Augen zu tun, nicht mit dem Gerät. :DGenau. Und 30fps können im Zweifelsfall vielleicht gerade so reichen, daß man die Einzelframes scharf sieht. Man tracked also nicht die dargestellten Objekte kontinuierlich, sondern springt mit jedem Bild. Das kann dann zwar eventuell mehr Detailschärfe offenbaren, ist aber keine flüssige Darstellung mehr. Bei 60fps ist das Auge zu langsam, um die Einzelbilder wirklich aufzulösen, man geht also unweigerlich zum kontinuierlichen Tracking über, was dann zu der bekannten Bewegungsunschärfe der Hold-Type Displays führt. Vermutlich meint mironicus das.

d2kx
2015-08-18, 15:01:40
Einfallen tun mir da die Korea Geräte die die 120fps nicht 1:1 umsetzen können oder eben auch der MG279Q.

Mit Trace Free 80 (Standard ist 60) und der aktualisierten Firmware ist der ASUS MG279Q prinzipiell schnell genug für 144Hz.

robbitop
2015-08-18, 15:11:10
Ich kenne den Unterschied, aber ein TN-Panel mit 144 Hz ist noch smoother.
Meine Referenz auf die ich mich beziehe: Benq XL2420Z mit v3-Bios. Wenn du damit Fenster im Desktop verschiebst ist die Schrift noch klarer als beim 144 Hz-IPS.
Da hat TFTCentral beim PixerPanTest aber was anderes abfotografiert. Zumindest im Fall des Acer 27" Predators, der nochmal deutlich bessere Bewegtschärfe ablieferte als XL2420Z


Then there is a comparison against the BenQ XL2720Z with another very fast TN Film panel and 144Hz refresh rate. This showed very low levels of motion blur, but some dark overshoot was introduced as a side-effect as you can see. This screen also includes a native Blur Reduction mode to help eliminate further perceived motion blur and works well.
http://www.tftcentral.co.uk/reviews/acer_xb270hu.htm


Acer Predator: http://www.tftcentral.co.uk/images/pixperan/acer_xb270hu.jpg
BenQ http://www.tftcentral.co.uk/images/pixperan/benq_xl2720z.jpg

Wobei es sein kann, dass du nicht den Predator gesehen hast, sondern den ASUS MG279Q. (?) Der soll nochmal ein wenig langsamer sein als der Predator.

Insofern ist die Grundaussage über das Panel (AHVA) nicht korrekt.

Mit Trace Free 80 (Standard ist 60) und der aktualisierten Firmware ist der ASUS MG279Q prinzipiell schnell genug für 144Hz.
Ja. Aber immernoch langsamer als das gleiche Panel im Acer Predator.

mironicus
2015-08-18, 15:18:10
Das hat was mit den Augen zu tun, nicht mit dem Gerät. :D

Ich kenne kein aktuelles panel (Elektronik) das (die) zu langsam für 60fps ist (oder gar bei 30fps schärfe Bilder liefert als bei 60fps).

Mach eine Kamera-Hochgeschwindigkeitsaufnahme mit 60 fps RAW und filme dann eine Sequenz mit einem Computerspiel locked mit 60 fps und 30 fps auf einen gewöhnlichen IPS-Monitor mit 60 Hz.

Zum Beispiel Grid Autosport, da gibt es detaillierte Objekte wie z.B. Hochhäuser mit vielen kleinen Fenstern. Bei dem 30 fps gelockten Spiel werden diese Objekte Bild für Bild klarer und schärfer vom Monitor dargestellt.

dargo
2015-08-18, 15:22:30
DX12 ist kein Zaubermittel.

Da zeigt mir Mantle aber was anderes. ;) Zudem sieht man schon in der Pre Alpha von Ashes of Singularity ganz gut die Auswirkungen bei der Fury X.
http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-DirectX-12-DirectX-11-1167997/

Wobei das noch mit Vorsicht zu genießen ist. Die großen Spikes unter DX11 scheinen nur an den 4GB der Fury zu liegen. Unter DX12 nutzt man den knappen Speicher wohl effizienter. Außerdem sollte man erst die finale Version abwarten.

Hast du schon Mantle in Aktion gesehen was Frametimes angeht?


Ansonsten verschlechtert VRR unsauberere Frametimes eigentlich nicht. Es macht sie aber auch nicht besser, wenn die Ursachen nicht in der Synchronisierung der Bildausgabe lag.
Habe ich auch nirgendwo gesagt oder wo liest du das?

akuji13
2015-08-18, 15:25:32
Bei 60fps ist das Auge zu langsam, um die Einzelbilder wirklich aufzulösen, man geht also unweigerlich zum kontinuierlichen Tracking über, was dann zu der bekannten Bewegungsunschärfe der Hold-Type Displays führt. Vermutlich meint mironicus das.

Also eher ein Problem des Auges statt des panels. :wink:
Da verzichte ich lieber auf 100% Schärfe als das ich weniger fps bevorzuge.

Nein, 30fps sind nicht cineastisch. :D

robbitop
2015-08-18, 15:29:30
Da zeigt mir Mantle aber was anderes. ;) Zudem sieht man schon in der Pre Alpha von Ashes of Singularity ganz gut die Auswirkungen bei der Fury X.
http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-DirectX-12-DirectX-11-1167997/

Schön wäre es ja schon. Aber: Das sind bisher größtenteils Showcases und Einzelbeispiele. Und die sollten schon darauf ausgelegt sein, dass der Vorteil heraussticht. IdR auch von Studios mit Top Leuten, die wissen was sie tun.

Warten wir mal ab was passiert, wenn Studios mit 0815 Leuten die Mehrzahl der Spiele in 1-2 Jahren abliefern. Die Studios, die auch heutige Frametimes verhunzt haben. Von denen hat IIRC noch keiner ein Low Level API Spiel veröffentlicht.

Mach eine Kamera-Hochgeschwindigkeitsaufnahme mit 60 fps RAW und filme dann eine Sequenz mit einem Computerspiel locked mit 60 fps und 30 fps auf einen gewöhnlichen IPS-Monitor mit 60 Hz.

Zum Beispiel Grid Autosport, da gibt es detaillierte Objekte wie z.B. Hochhäuser mit vielen kleinen Fenstern. Bei dem 30 fps gelockten Spiel werden diese Objekte Bild für Bild klarer und schärfer vom Monitor dargestellt.
Dafür hast du für die Augen dann in Bewegung aber Motion Blur. Einfach wegen des Sample and Hold Effekts.

Allerdings ist der Effekt, den du beschreibst tatsächlich da, wenn aus der Vermessungsmatrix die gemessene Übergangszeit > 1/Wiederholfrequenz ist.

Im Fall vom sehr populären Philips BDM4065UC wird es bspw in Einzelfällen nicht ganz erreicht.

akuji13
2015-08-18, 15:33:27
Mit Trace Free 80 (Standard ist 60) und der aktualisierten Firmware ist der ASUS MG279Q prinzipiell schnell genug für 144Hz.

Aber langsamer als ein vergleichbares Gerät wie der Predator.
Deshalb meine Aussage.

Zum Beispiel Grid Autosport, da gibt es detaillierte Objekte wie z.B. Hochhäuser mit vielen kleinen Fenstern. Bei dem 30 fps gelockten Spiel werden diese Objekte Bild für Bild klarer und schärfer vom Monitor dargestellt.

Bei den 30fps kann ich diese Details ebenfalls nicht wahrnehmen weil das gesamte Bild ruckelt was meine Augen enorm anstrengt und ablenkt. :wink:

mironicus
2015-08-18, 17:11:55
Im Fall vom sehr populären Philips BDM4065UC wird es bspw in Einzelfällen nicht ganz erreicht.

Den habe ich aufgrund der Langsamkeit des Panels auch wieder zurückgeschickt.

Schon mal Far Cry 4 darauf gespielt? Standbild, der Hammer. Bewegst du dich ein Stück wird das Bild fast schon matschig. Nur im Schneckentempo bleibt das Bild scharf. Das ist das Problem. Je detailreicher ein Spiel ist, desto matschiger wird das Bild in Bewegtdarstellung. Bei detailarmen Spielen ist es besser.

Far Cry 4 ist ein prima Testspiel um die Grenzen eines Monitors festzustellen. Ein zweites gutes Spiel zum Testen ist für mich Dead or Alive 5, ein schnelles Kampfspiel. Auch da sehe ich sofort Unterschiede in der Bewegungsschärfe zwischen unterschiedlichen Panels. :smile:

akuji13
2015-08-18, 17:19:18
Es bestreitet wohl auch keiner das ein 144Hz TN oder auch IPS meistens besser wegkommt.
Zusätzlich habe ich beim VA den gamma shift und beim Philips das Problem das er sehr von 60fps profitiert um die optimale Schärfe zu erreichen.

Allerdings hat man dann dafür ganz andere Probleme bei den anderen Techniken, da muss dann jeder wieder abwägen was ihm wichtiger ist.

Mit 30 fps spielen ist jedenfalls keine Lösung. :D

M4xw0lf
2015-08-19, 10:15:40
PCGH hat sich nochmal mit dem Verändern der VRR-Range beschäftigt: http://www.pcgameshardware.de/AMD-Freesync-Hardware-259942/Tipps/AMD-Freesync-Tuning-Spanne-erhoehen-1168369/
Freesync mit 31-110 Hz, neiß :)

fondness
2015-08-19, 10:23:51
Wow genial, seltsam, dass das bei dargo nicht klappen wollte. Vielleicht doch ein Problem mit dem Kabel?

Kartenlehrling
2015-08-19, 10:37:21
Also wenn der MG nun eine 31-100Hz Freesync Range hätte wär schon klasse.
Gerade für unseren Europäischen Raum finde ich die 100Hz wichtig, da unserer TV-Bild mit 720p/50Hz laufen,
bin gespannt wann wir da mal ein einheitliches system haben, aber wenn in 10! Jahre alle TV und Monitor freesync von 10- 240Hz haben ist das dann auch egal.

dargo
2015-08-19, 10:43:35
Also wenn der MG nun eine 31-100Hz Freesync Range hätte wär schon klasse.
Gerade für unseren Europäischen Raum finde ich die 100Hz wichtig, da unserer TV-Bild mit 720p/50Hz laufen,

Was willst du denn damit? Du kannst doch im Treiber ganz einfach 100Hz für u.a. 720p und 1080p auswählen.
52945

TV-Bild hat doch eine konstante Refreshrate. Dafür braucht man kein VRR.

Kartenlehrling
2015-08-19, 11:09:17
Sicher kann man das, aber Ich bin zu Faul jedesmal die Werte um zu legen und
warum sollte ich es tun wenn ich die obere Grenze gleich von 90Hz auf 100Hz festsetzen kann ... was mir halt besser zusagt.
Für mich ist halt die "Magische" 100Hz wichtig, andere sind halt erst mit 120 oder 144hz zufrieden.

Kartenlehrling
2015-08-19, 11:36:44
Was willst du denn damit?
Du kannst doch im Treiber ganz einfach 100Hz für u.a. 720p und 1080p auswählen.

In diesem fall ist aber dein Treiber schon manipuliert, im normalfall sind nur 60,90,120 und 144Hz auswählbar, nur so nebenbei.

dargo
2015-08-19, 11:40:46
In diesem fall ist aber dein Treiber schon manipuliert, im normalfall sind nur 60,90,120 und 144Hz auswählbar, nur so nebenbei.
Das ist doch völliger Unsinn was du erzählst. Wie kommst du überhaupt darauf? Ich hatte hier schon alle Frequenzen gepostet die der ASUS von sich aus bietet.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10735424&postcount=3780

Kartenlehrling
2015-08-19, 11:45:25
Hat das was zu sagen das einige Werte "kursiv" geschrieben werden?

dargo
2015-08-19, 11:56:29
Ja, hat es. Im Prinzip sieht es so aus. Für die native Auflösung stehen 60, 90, 120 und 144Hz zur Verfügung. Für HDTV stehen 50, 59, 60 und 100Hz zur Verfügung. Und die ganzen Exoten dazwischen stehen dann bei anderen Auflösungen bereit. Wie zb. 75p bei 1280x1024.

Edit:
Was auch interessant ist... unter Windows 10 mit Cat. 15.7.1 hatten die Frequenzen bei mir ja bei 25i angefangen. Unter Windows 8.1 mit Cat. 15.7 fangen die Frequenzen bei 50p an. Also entweder liegts am OS oder am Treiber.

ChatJack
2015-08-19, 12:10:02
Ja, hat es. Im Prinzip sieht es so aus. Für die native Auflösung stehen 60, 90, 120 und 144Hz zur Verfügung. Für HDTV stehen 50, 59, 60 und 100Hz zur Verfügung. Und die ganzen Exoten dazwischen stehen dann bei anderen Auflösungen bereit. Wie zb. 75p bei 1280x1024.

In diesem Zuge stellt sich mir eine ganz andere Frage. Gibt es inzwischen eigentlich etwas in Richtung Interpolierung höherer Frameraten für Geräte mit geringerer Bildwiederholrate? Für Auflösungen gibt es das ja schon, sodass die Grafikkarte intern mit höherer Auflösung rendert und das ganze für den Monitor herunter skaliert. Ich Frage mich, wie sich das auch Frameraten auswirken könnte.

Beispiel: Der Monitor unterstützt 60Hz. Die Grafikkarte arbeitet intern mit 240Hz, also mit 4x so vielen Bildern pro Sekunde. Ein Frame auf dem Monitor beinhaltet also 4 intern generierte Frames. Auf diese Weise entstünde bei einer Framerate bis zu 60fps eine Überlagerung zweier Bilder von 25%/75%, 50%/50%, 75%/25% oder ein Vollframe. Bei Frameraten über 60fps würden mehr als zwei Frames zu einem Frame vermischt.

Ich gebe zu, dass sich das natürlich negativ auf den Einzelframe auswirken würde, da hier Ghosting entsteht, frage mich aber dennoch, ob sowas softwareseitig möglich ist und ob es sich positiv auf den subjektiven Spielfluss auswirken könnte, wenn kein Freesync zur Verfügung steht.

Ich bin drauf gekommen, weil ich ab und an Aufzeichnungen von Battlefield in Sony Vegas schneide. Wenn ich etin 60fps-Video beispielsweise mit 24fps ausgebe, werden die Frames interpoliert, solange man diese Option nicht explizit abschaltet. Es wirkt dadurch zwar etwas matschiger, andrerseits aber auch flüssiger.

Nachtrag: Vielleicht ist Interpolation hier das falsche Wort, da ja keine Zwischenframes berechnet werden, so wie man es vom Fernseher her kennt, sondern mehrere Frames zu einem vermischt werden.

Grestorn
2015-08-19, 12:16:28
Interessantes Konzept. Und technisch wohl sogar recht einfach machbar.

Der MotionBluring Effekt, der in vielen Spielen angeboten wird, liefert aber ein ähnliches Ergebnis mit viel weniger Rechenaufwand.

robbitop
2015-08-19, 12:21:42
Nennt sich Motion Blur und gab es schon Anno 1999 in der Voodoo 5. Ist technisch problemlos möglich. Im Prinzip simuliert es längere Belichtungszeiten, die wir aus 24p Filmen kennen. Das verbessert die zeitliche Abtastung. Erzeugt natürlich auch Unschärfe - allerdings korrekte Unschärfe. So wie Anti-Aliasing auch scheinbar zu Unschärfe führt - aber eben korrekte Unschärfe. Es werden mehr Informationen hinzugefügt und heruntergerechnet (Tiefpass).

Motion Blur kostet aber n-fache Leistung. (n = fps_intern/fps_extern). Deshalb wird es in der Praxis auch nicht gemacht.

Wird AFAIK auch bei gernderten Filmen (Avatar, Pixar Filme etc) angewendet.

Das was ihr "Motion Blur" aus Spielen nennt, ist kein echtes Motion Blur. Das ist Motion Trail. Da werden nicht intern mehr Frames pro Zeiteinheit erzeugt, sondern nur das Bild mit Teilen des Vorgängerbildes vermischt. Es entstehen also nicht mehr Informationen und damit auch keine bessere Abtastung. Ergo: Crap.

Apfel-Birne Vergleich. :)

Kartenlehrling
2015-08-19, 12:56:13
Nachtrag: Vielleicht ist Interpolation hier das falsche Wort, da ja keine Zwischenframes berechnet werden, so wie man es vom Fernseher her kennt, sondern mehrere Frames zu einem vermischt werden.

Biete sie doch an "Fluid Motion Video"-Technologie, es ist im moment nur bei Cyberlink PowerDVD 14 zu finden, in wie weit man die SDK für was anders nutzten kann weiss ich nicht.


https://youtu.be/gZLsYpSAouo?t=93
AMD Catalyst Omega: Fluid Motion Video

http://www.hardwareluxx.de/index.php/artikel/software/treiber/33504-amd-praesentiert-den-catalyst-omega-mit-downsampling-option.html?start=4
AMD präsentiert den Catalyst Omega

ChatJack
2015-08-19, 13:08:37
Das Motionblur, das man heute aus Spielen kennt, ist ja eher ein Filter, der über das fertige Bild gelegt wird. Das erkennt man dann häufig an den Rändern, weil dort je nachdem, wie der Effekt umgesetzt ist, häufig eine harte Kante entsteht, bei der der Effekt endet.

Das kann man zum Beispiel sehr gut bei Battlefield erkennen, wenn man durch Gestrüpp läuft. Das Zusammenfügen von echten Frames hätte hier natürlich sowohl Vorteile als auch Nachteile.

Vorteil: Werden genug Frames miteinander vermischt, entsteht ein natürlicheres Motionblur, da das verhalten einer längeren Belichtungszeit besser simuliert als durch die Verwendung eines Filters.

Nachteil: Die benötigte Rechenleistung steigt. Darüber hinaus entsteht möglicherweise der Eindruck von Ghosting, wenn zu wenig Bilder bei schnellen Bewegungen überlagert werden als bei der Verwendung eines partiellen Unschärfefilters.

Dennoch könnte es möglicherweise das subjektive Empfinden von rucklern bei einer fixen Bildwiederholrate minimieren. Ältere Spiele, die jenseits der 100fps laufen könnten ebenfalls deutlich von diesem Feature profitieren.

Es ist ein wenig wie der Unterschied zwischen SSAA und FXAA.

robbitop
2015-08-19, 13:24:39
Kann man eigentlich -wie bereits gesagt- nicht vergleichen.

Eines ist klar: nativ ist immer besser als interpoliert. Sowohl bei der Abtastung des Bildes als auch der Zeit.
So ist 4K deutlich besser als 1080p @2x2 OGSS - weil eben kein Tiefpass nötig ist. Genauso wäre 120 Hz native Darstellung auch besser/schärfer als 60 Hz @Motion Blur.

Der Begriff "Motion Blur" ist nur legitim, wenn tatsächlich zeitliche Abtastung n-fach so hoch ist wie die ausgegebene.
Alles andere ist nur Motion Trail oder irgendeine Art Post Processing.

Gipsel
2015-08-19, 13:39:28
Künstlicher Motion Blur in Spielen ist meiner Meinung nach totaler Schrott. Ich vertraue auf meine Augen, den korrekt umzusetzen. Mit künstlich zugefügtem werden nämlich auch Objekte geblurt, die ich mit den Augen tracke. Da gibt man sich viel Mühe bei den Displays, um das Hold-Type-Problem in diesem Fall rumzukommen und dann macht das Spiel das mit (mehr oder weniger) viel Rechenaufwand wieder kaputt? :freak: WTF?!?
Der einzige Grund, warum das im Kino benutzt wird (im Prinzip sind es nur relativ lange Belichtungszeiten bei der Aufnahme), ist die enorm niedrige Framerate von 24Hz, die sonst zu störenden und sichtbaren Rucklern führen würde. Bei annehmbareren Werten in Richtung 60Hz oder höher wird das immer unnötiger (bzw. nur noch hohe Winkelgeschwindigkeiten oder sehr spezielle Objekte erfordern das, weil man sonst Artefakte und temporales Aliasing bekommen würde [letzteres vermeidet man schlicht durch eine Belichtungsdauer von 1/Framerate, also volle 360° Shutter in der alten Kino-Terminologie]). In Spielen, wo es doch meist auf Reaktionen auf das Gesehene ankommt, stört Motion Blur (z.B. durch zeitliche Überabtastung, also nicht das noch miesere "Motion Trail") nur, weil es das Augentracking aushebelt. Und nicht getrackte Objekte sehen sowieso geblurt aus.

aufkrawall
2015-08-19, 13:43:33
Das kann schon als Stilmittel taugen, je nach Anwendung. Der Motion Blur in der UE4 Kite Demo sieht schon viel weniger nach Echtzeit-Rendering aus, passt gut zum gesamten filmic look.
Außerdem fällt so der starke Blur des temporalen AAs auch nicht mehr als solcher auf. :freak:

ChatJack
2015-08-19, 13:43:49
Wenn ich es schaffe mache ich heute Abend mal ein paar Testläuft. Bei Rocket League hat man ja die Möglichkeit, das Replay langsamer abzuspielen. Wenn ich das jetzt in 25% abspiele, mit 60 Frames aufzeichne und in Sony Vegas in 4facher Geschwindigkeit als 60fps-Video rendere, hat man ja schon einen ungefähren Eindruck.

Gipsel
2015-08-19, 13:54:08
Das kann schon als Stilmittel taugen, je nach Anwendung. Der Motion Blur in der UE4 Kite Demo sieht schon viel weniger nach Echtzeit-Rendering aus, passt gut zum gesamten filmic look.Beim reinen Betrachten wie im Kino als Stilmittel ist es okay. Aber wenn ich die menschliche Komponente in einer Feedback-Loop bin, also auf Gesehenes möglichst gut und korrekt reagieren muß, stört es schlicht.

dargo
2015-08-19, 15:48:14
Die beiden Samsungs sind nun auf GH gelistet.
http://geizhals.de/samsung-s24e370dl-ls24e370dl-a1302300.html?hloc=de
http://geizhals.de/samsung-s27e370d-ls27e370ds-a1302317.html?hloc=de

Locuza
2015-08-20, 01:04:13
IDF — In a Q&A session this afternoon, I asked Intel Fellow and Chief Graphics Software Architect David Blythe about Intel's position on supporting the VESA Adaptive-Sync standard for variable refresh displays. (This is the standard perhaps better known as AMD's FreeSync.)

Blythe indicated that Intel is positively inclined toward standards-based solutions like Adaptive-Sync, and he said Intel is investigating the possibility of supporting this optional extension to the DisplayPort spec. However, Blythe wasn't yet willing to commit to a timetable for Intel enabling Adaptive-Sync support in its products.
http://techreport.com/news/28865/intel-looking-into-support-for-vesa-adaptive-sync-displays

Pls Skylake make it real!

dargo
2015-08-20, 08:22:50
Damit Skylake adaptiv Sync unterstützt muss Intel die Bretter erstmal mit DP ausstatten. Oder bis dahin geht adaptiv Sync dann auch mit HDMI. Gab ja einen Prototypen bei AMD und Freesync.

Edit:
Ops... ich sehe gerade manche Skylake Bretter haben ja schon DP. Dummerweise aber nicht alle.

robbitop
2015-08-20, 08:45:27
Selbst mein Haswell Z97 Board hat DP.

dargo
2015-08-20, 08:50:38
Hehe... da ich eigentlich immer nur die günstigen Bretter kaufe ist mir das entgangen. :anonym:

samm
2015-08-20, 13:11:10
Intel ist vielleicht künftig an Bord bei Adaptive Sync: Quelle bei TR (http://techreport.com/news/28865/intel-plans-to-support-vesa-adaptive-sync-displays)
Die Auswahl an verfügbaren und angekündigten Geräten ist jetzt schon grösser als bei GSync, und falls Intel wirklich mitzieht, wird der Trend wohl so weiter gehen.

robbitop
2015-08-20, 13:17:03
Wurde 4 Posts vor dir bereits gepostet.

Die mittelfristige Entwicklung war eigentlich mit der Standardisierung von A-Sync absehbar. Die Unterstützung ist praktisch kostenlos und bringt eigentlich nur Vorteile. Klar, dass Intel auch auf diesen Zug springen wird. Immerhin hätten sie sonst keine VRR Unterstützung und alle anderen schon.

Mittelfristig wird auch NV A-Sync unterstützen. Und zwar dann, wenn ihre komplette Lineup entsprechende Displaycontroller verbaut haben (vermutlich mindestens Maxwell v2) und/oder zum nächsten Major Launch (Pascal).
Würde mich auch nicht wundern, wenn es weiterhin als G-Sync tituliert werden würde.

Bis dahin sollte das Marktumfeld voll von Monitoren sein, die eine vernünftige VRR-Range unterstützen.

samm
2015-08-20, 13:21:39
Wurde 4 Posts vor dir bereits gepostet.:freak: damn

Bis dahin sollte das Marktumfeld voll von Monitoren sein, die eine vernünftige VRR-Range unterstützen.Vor allem hoffe ich noch darauf, dass durch die mehr und mehr erscheinenden Bildschirme die Range an sich ein Konkurrenz-Kriterium wird, um sowas wie die 48Hz-Min-Range bei den 21:9 LGs oder die 90Hz Max-Range beim Asus IPS abzustrafen. Bis dahin bleibt OC_Burner's Lösung für die Bastelfreudigen.

aufkrawall
2015-08-20, 14:01:44
Skylake unterstützt es wohl leider nicht. Bei Intels GPU-Abteilung malen die Mühlen teilweise echt noch in Zeitlupe. Zeigt ja auch das nicht-native HDMI 2.0.

fondness
2015-08-20, 14:10:03
Na mal abwarten ab welcher Generation es Nvidia dann wirklich unterstützt^^. Das es AMD schon seit Bonaire (Tapeout 2012) in Hardware hat, zeigt die langfristige Planung.

Grestorn
2015-08-20, 14:20:29
So lange A-Sync Feature- und Qualitätsmäßig noch eine so große Distanz zu GSync hat, wäre nVidia dumm, es zu supporten. Im Moment ist GSync durchaus noch ein Argument für den Kunden (für den informierten zumindest), vom Konkurrenten abstand zu nehmen.

Allerdings... wer weiß, vielleicht ist das aber eher ein Grund für nVidia, A-Sync erst recht zu unterstützen. Nach dem Motto: Mit A-Sync geht halt nur 33-90 fps plain, mit GSync 1-144 fps mit SLI, DSR und im auch Fenster auf dem Desktop. Wäre ja auch eine Message. Wobei hier eine eine Einschränkung der Features für A-Sync (abgesehen von der Framerate) wohl ziemlich sicher rein künstlich wäre und damit wieder zu einem Shitstorm führen wird.

Es ist wohl auch nur eine Frage der Zeit, bis A/Free-Sync aufgeholt haben wird. Es bleibt spannend, am Ende wird es einen Gewinner geben. Und der wird aller Wahrscheinlichkeit A-Sync heißen - einfach weil es für einen Einzelnen, auch wenn der Marktführer im Zielmarkt ist, unheimlich schwer ist, sich gegen die Masse durchzusetzen.

aufkrawall
2015-08-20, 14:23:49
So lange A-Sync Feature- und Qualitätsmäßig noch eine so große Distanz zu GSync hat, wäre nVidia dumm, es zu supporten. Im Moment ist GSync durchaus noch ein Argument für den Kunden (für den informierten zumindest), vom Konkurrenten abstand zu nehmen.

Nicht wirklich, mittlerweile gibt es wirklich gute A-Sync Monitore, deren Preis auch keine Frechheit ist.
4k IPS gibts mit Gsync noch gar nicht, mit FreeSync sogar für einen richtig humanen Preis.

Es kotzt mich nur so an, bei AMD nicht vernünftig prerenderlimit forcieren zu können. :(
Man ist online kompetitiv einfach im Nachteil.

akuji13
2015-08-20, 14:38:11
Nicht wirklich, mittlerweile gibt es wirklich gute A-Sync Monitore, deren Preis auch keine Frechheit ist.
4k IPS gibts mit Gsync noch gar nicht, mit FreeSync sogar für einen richtig humanen Preis.

Ganz so einfach ist es momentan dann doch nicht zugunsten von FreeSync.

Bei 4K steht FreeSync besser da, aber man suche mal ein 24" Gerät mit 144Hz und/oder 1080p. :wink:

Bei 27" WQHD sehe ich keinen großen Unterschied.
Gut, FreeSync Geräte sind günstiger, aber dafür fehlen features wie 3DVision oder ULMB.

Das Preisargument wird den Ausschlag zugunsten FreeSync bringen, da bin ich mir sicher.
Da kommen deutlich mehr Geräte nach und letztlich wird man dann auch persönlich einen finden der passt.

fondness
2015-08-20, 15:00:02
So lange A-Sync Feature- und Qualitätsmäßig noch eine so große Distanz zu GSync hat, wäre nVidia dumm, es zu supporten.

Das Argument zieht nicht, da sich A-Sync und G-Sync nicht ausschließen. Zumal ich nicht weiß, was du mit Feature- und Qualitätsmäßig meinst, außer den größeren Range, denn auch G-Sync hat einiges aufzuholen, zB was Schnittstellen, oder diverse Monitorfeatures wie Skalierung, PiP, etc, betrifft.

Ich spiele zB auf einem tollen 4K IPS-Schim von LG, bei einem Range hinunter bis 33Hz und das Ganze zu einem sehr guten Preis. Dass das ein völlig neues Qualität- und Spielerlebnis ist, brauche ich dir wohl nicht zu sagen. Mit NV schlicht nicht möglich.

Bei 4K steht FreeSync besser da, aber man suche mal ein 24" Gerät mit 144Hz und/oder 1080p. :wink:


Die Frage ist wer sich heute noch 1080p und/oder TN antut. Für die nicht so geringe Anzahl an Leuten, für welche beides nicht infrage kommt, bleibt genau ein G-Sync-Monitor am Markt, der offensichtlich beträchtliche Qualitätsprobleme hat und völlig überteuert ist.

Psychopat
2015-08-20, 15:13:55
Den Ausschlag für Freesync gibt die Tatsache das ich mich damit nicht auf einen Grafikkartenhersteller beschränke. nVidia wird es früher oder später unterstützen.
Bei mir ist ein Monitor 6+ Jahre im Einsatz, da will ich nichts drin haben was mich bei der Wahl der anderen Hardware einschränkt. Nur DP bei Gsync ist da ebenfalls ein Problem.

Sunrise
2015-08-20, 15:17:46
Wenn Intel das in den Markt drückt (AMD hat aktuell da eher einen schweren Stand), dann ist das "Feature" für NV nur noch ein Premium-Exklusiv obendrauf. Jedoch könnte NV auch G-Sync ständig erweitern, A-Sync ist VRR, das wars, der Rest müsste IHV-abhängig über den Treiber kommen (wenn überhaupt was kommt).

NV kann sich einen kleineren Markt noch erlauben, solange die höheren Preise auch bezahlt werden und NV weiterhin so häufig gekauft wird wie derzeit.

Das muss im Endeffekt also der Markt regeln, NV hat da eigentlich aber erstmal noch keinen Grund, G-Sync aufzugeben.

Mal schauen, ob mit Pascal da noch was hinzukommt.

AMD muss mit Fakten kontern, die sehr guten A-Sync Monitore sind zumindest schonmal von den Herstellern ein guter Anfang. Jetzt gilt es ein paar andere Dinge evtl. noch aufzuholen, dann wird die Luft bei NV immer dünner. A-Sync über HDMI wäre auch noch ein Bonus.

Malabolge
2015-08-20, 15:18:06
Allerdings... wer weiß, vielleicht ist das aber eher ein Grund für nVidia, A-Sync erst recht zu unterstützen. Nach dem Motto: Mit A-Sync geht halt nur 33-90 fps plain, mit GSync 1-144 fps mit SLI, DSR und im auch Fenster auf dem Desktop. Wäre ja auch eine Message. Wobei hier eine eine Einschränkung der Features für A-Sync (abgesehen von der Framerate) wohl ziemlich sicher rein künstlich wäre und damit wieder zu einem Shitstorm führen wird.

Ach Quatsch - Nvidia muss das nur richtig "Kommunizieren" :rolleyes:
Bei der 970er hat das mit den Einschränkungen ja auch so geklappt , wurde leider nur "falsch kommuniziert":biggrin:

fondness
2015-08-20, 15:21:15
Wenn Intel das in den Markt drückt (AMD hat aktuell da eher einen schweren Stand), dann ist das "Feature" für NV nur noch ein Premium-Exklusiv obendrauf. Jedoch könnte NV auch G-Sync ständig erweitern, A-Sync ist VRR, das wars, der Rest müsste IHV-abhängig über den Treiber kommen (wenn überhaupt was kommt).

NV kann sich einen kleineren Markt noch erlauben, solange die höheren Preise auch bezahlt werden und NV weiterhin so häufig gekauft wird wie derzeit.

Das muss im Endeffekt also der Markt regeln, NV hat da eigentlich aber erstmal noch keinen Grund, G-Sync aufzugeben.

Mal schauen, ob mit Pascal da noch was hinzukommt.

AMD muss mit Fakten kontern, die sehr guten A-Sync Monitore sind zumindest schonmal von den Herstellern ein guter Anfang. Jetzt gilt es ein paar andere Dinge evtl. noch aufzuholen, dann wird die Luft bei NV immer dünner. A-Sync über HDMI wäre auch noch ein Bonus.

Solange außer ASUS und Acer niemand mehr neue G-Sync-Monitore auf den Markt bringen will, hat NV mittelfristig ohnehin ein Problem IMO. Die Hersteller haben wohl auch nur eine begrenzte Lust, sich von NV abhängig zu machen.

Gipsel
2015-08-20, 15:59:12
So lange A-Sync Feature- und Qualitätsmäßig noch eine so große Distanz zu GSync hat, wäre nVidia dumm, es zu supporten.NV steht es frei, alle GSync-Features auch mit ASync zu supporten. ASync limitiert das nicht. Man sollte nicht die momentan von AMD genutzten Möglichkeiten von Async mit den prinzipiell bestehenden Möglichkeiten verwechseln ;). Mit ASync kann man schlicht mehr machen (z.B. Stichwort Framedoubling, das ist unabhängig vom Monitor, solange der nur >Faktor 2 zwischen Minimum und Maximum der Range bietet), als bisher von AMD umgesetzt. Hier könnte nV also eventuelle Vorteile auch entsprechend vermarkten. Der dadurch insgesamt größer werdende Markt würde dann vermutlich auch größere Anreize für die Monitorhersteller schaffen, schneller bessere ASync-Monitore (Panels, Range, Reaktionszeiten usw.) anzubieten.

mironicus
2015-08-20, 16:55:00
Jetzt wüsste ich echt gerne mal was für eine Range dieser 42 Zoll-Freesync Monitor hat wenn man den Treiber anpasst. Den kann sicherlich auch auf 32-33 Hz drücken.

http://www.pcper.com/reviews/General-Tech/Wasabi-Mango-UHD420-42-4K-FreeSync-and-HDMI-20-800

http://www.ebay.de/itm/WASABI-MANGO-UHD420-REAL-4K-SE-Grade-42-LG-AH-IPS-UHD-3840x2160-42-zoll-Monitor-/131508674731?hash=item1e9e8720ab

akuji13
2015-08-20, 17:17:06
Klingt lecker. :)

Aber: Mist! Zu groß! :D
Der ~40" Philips passt gerade so hin, 42" wird nichts mehr.

Hätte man zum Testen ja glatt mal ordern können.
Allerdings muss der auch erstmal heile ankommen...

mironicus
2015-08-20, 17:29:57
Der Scaler beim Wasabi Mango ist von Microstar, da sollten also 31-33 Hz möglich sein. :)

Mich stören die Füße des Monitors, das Teil sollte einen normalen Stand in der Mitte haben dann passt er bei mir. Früher oder später wird es ähnliche Monitore sicherlich auch im deutschen Handel geben, das werden die sich nicht entgehen lassen, siehe den Erfolg des Philips. :D

Loeschzwerg
2015-08-20, 17:56:02
http://www.tftcentral.co.uk/reviews/asus_mg279q.htm
The Asus ROG Swift PG278Q and Acer XB270HU (IPS panel) showed very low lag at all refresh rates, since they do not have a scaler at all because of the NVIDIA G-sync module.

Das dürfte für viel Spieler immer noch ein Argument sein, daher würde ich G-Sync nicht so schnell abschreiben.

Kartenlehrling
2015-08-20, 18:21:01
Mir gehen zuviel Rog Swift kaputt.

Loeschzwerg
2015-08-20, 18:34:24
Das ist ja vom zitierten Absatz erst einmal völlig unabhängig.

fondness
2015-08-20, 18:47:24
Der Satz ist irreführend. Ohne Scaler gibt es kein Bild, das G-Sync-Modul ist vielleicht ein besonders schneller Scaler. Aber ich sehe keinen Grund, warum das nicht auch ein Monitorhersteller schaffen sollte.

Loeschzwerg
2015-08-20, 18:51:11
Ändert aber am Ergebnis nix :D

Für die Zielgruppe Pro-Gamer gibt es leider keine Freesync Alternative.

Neben einer besseren Range darf da schon noch mehr passieren bei den Scalern. Vielleicht zeigt der kommende EIZO ja schon wie es im Bezug auf Lag besser geht.

fondness
2015-08-20, 19:47:57
Ändert aber am Ergebnis nix :D

Für die Zielgruppe Pro-Gamer gibt es leider keine Freesync Alternative.

Neben einer besseren Range darf da schon noch mehr passieren bei den Scalern. Vielleicht zeigt der kommende EIZO ja schon wie es im Bezug auf Lag besser geht.

Keine Alternative halte ich für arg übertrieben. Bei einem unteren Sync-Bereich im Bereich von 30Hz, was zumindest durch die Treiber-Modifikation offenbar eh alle Monitore schaffen, brauche ich ehrlich gesagt kein Framedoubeling mehr. Und ob man die eine Millisekunde weniger Inputlag bemerkt, wage ich zu bezweifeln, da spiele andere Dinge eine wesentlich größere Rolle, zumal der Input-Lag stark vom Monitor abhängt und man hier sicher nicht pauschalisieren kann. Außerdem scheinen die einzigen interessanten G-Sync-Monitore arge Qualitätsprobleme zu haben, von daher sehe ich da erstmal eine äußerst wackelige Alternative.

Loeschzwerg
2015-08-20, 20:10:54
4ms/3ms (Asus/Acer; kompletter Frequenzbereich) zu schwankenden 4-17ms (MG279Q; 144hz - 60hz gemessen) ist leider ganz und gar nicht optimal. Da kannst du gerne in die Diskussion mit etliche Pro-Gamern gehen wenn du möchtest.

Aber den meisten normalo Zockern (mir inklusive) ist das vermutlich egal, da gebe ich dir recht.

Die Qualitätsprobleme sind in der technischen Betrachtung zunächst völlig egal. Fakt ist dass nur diese beiden G-Sync Monitore (evtl. auch die anderen, aber da gibt es keine Tests bei TFTC) so eine optimale Reaktionszeit hinlegen. Wer darauf schwört findet keine A-Sync Alternative, zumindest noch nicht.

blaidd
2015-08-20, 21:25:00
Es kotzt mich nur so an, bei AMD nicht vernünftig prerenderlimit forcieren zu können. :(
Man ist online kompetitiv einfach im Nachteil.

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=52987&stc=1&d=1440098432

Registry-Eintrag für die Grafikoptionen des CCCs suchen (unter UMD), neuen Binärwert eintragen: "FlipQueueSize", dann dort als Wert 31 (1), 32 (2), 33 (3) eintragen. ;)

Die Option gibt's schon, nur nicht zum Anwählen. Außerdem muss man neustarten, das nervt. Ich schreib's mal auf die Catalyst-Wunschliste.

fondness
2015-08-20, 21:30:38
Geht das nicht nur unter DX9?

blaidd
2015-08-20, 21:43:05
Geht das nicht nur unter DX9?

Hmm, könnte sein. Müsste ich mal checken... vielleicht finde ich am WE mal Muße dazu, die Freesync-Grenze abzusenken wollte ich sowieso mal ausprobieren. Womit wir wieder beim Thema wären, sorry ;)

Schaffe89
2015-08-21, 05:09:12
So lange A-Sync Feature- und Qualitätsmäßig noch eine so große Distanz zu GSync hat, wäre nVidia dumm, es zu supporten. Im Moment ist GSync durchaus noch ein Argument für den Kunden (für den informierten zumindest), vom Konkurrenten abstand zu nehmen.

Feature und Qualitätsmäßig?
Der Nixeus Bildschirm unterstützt 30 bis 144 Hertz, Full HD für wahrscheinlich rund 300 Euro.
Die Range Raten werden immer besser.
35 bis 90 Hertz ist dabei, sowie 40 bis 144 Hertz.
Große Unterschiede gibts da nicht mehr und Framedoubling ist bei nem aureichend hohen Range sowieso sinnfrei.

akuji13
2015-08-21, 07:28:23
Die Qualitätsprobleme sind in der technischen Betrachtung zunächst völlig egal.

Außerdem muss man erstmal abwarten ob Geräte wie der MG279Q auf die Dauer stabil laufen.
Lass auch erstmal Acer ein paar FreeSync Geräte auf den Markt bringen. :D

Kartenlehrling
2015-08-21, 12:28:13
In 8 Stunden gibts den kleinen 21:9 LG im ZackZack Verkauf, normal koste er ca. 330€ man kann bestimmt 50€ sparen.
Der Monitor hat ja eine Freesync-Range von 48-75Hz , schaft man hier über Treibermode 40Hz ?

http://www.zackzack.de/html/articlePreview.html

fondness
2015-08-21, 13:23:57
Angeblich gehen sogar 32 Hz min.

Kurzes Fazit nach ersten Testläufen mit dem LG 29UM67P:

Boah, ist das geil! :biggrin: Die Magische Grenze liegt hier wohl auch bei 31-32Hz. Bildfehler bleiben zwar aus, aber wenn ich mich ab hier mit der Framerate weiter heruntertaste kommt es hier nach und nach zu immer stärkeren Rucklern und bei abgeschaltetem V-Sync zu Tearing.

Bis 32Hz läuft aber alles Butterweich weshalb ich hier im Treiber nun auch die Grenze gezogen habe. Und das ist schon ein Unterschied wie Tag und Nacht. Beim 29UM67P lag die minimale Bildwiederholrate bei 48Hz, was man teils schon deutlich merkte. Drehe ich jetzt bei Battlefield das Supersampling hoch und fällt die Framerate mal unter 40Hz ist das (zumindest fürs Rumrennen auf ner Testmap) immernoch absolut verträglich. Wahnsinn. :)

samm
2015-08-21, 14:50:03
Jup, das macht die LG-Angebote doch wesentlich interessanter :)Lass auch erstmal Acer ein paar FreeSync Geräte auf den Markt bringen. :DGibt doch schon den 40-144Hz TN 2560x1440 27" und den 75Hz IPS 3440x1440 34". Bloss ist der erste gegenüber dem BenQ in der öffentlichen Wahrnehmung untergegangen, und Acer reagierte erst seeehr spät und zögerlich auf das Feedback zum fehleden Overdrive. Und der zweite ist durch die kommende 100Hz-Variante GSync und seinen hohen Preis wirklich nur begrenzt publikumsfähig.

Die mehr-als-1000-Post-Threads zum Swift und zum GSync-IPS-Predator lassen wirklich nur die Hoffnung übrig, dass Asus und Acer bei den neueren Freesync-/GSync-Monitoren etwas bessere Qualitätsprüfung anwenden und längerfristig Geld sparen wollen durch weniger Retouren... :D

mironicus
2015-08-21, 14:59:38
Was meinst du was mit den RMA-Retouren passiert? Geräte die wegen Pixelfehler oder Staub zurückgingen werden einfach neu verpackt und dann wieder zurück in den Handelskreislauf gebracht, solange bis der Markt die Ware geschluckt hat. Manche Kunden werden über die Zeit nach und nach darauf konditioniert, das Backlight-Bleeding, Pixelfehler und Staub etwas völlig normales seien.

Ich habe neulich eine Neuware von Amazon erhalten (ein Acer XB270HU), bei dem noch der RMA-Zettel eines anderen Kunden im Inneren des Kartons hing. Der Zettel war am Deckel mit Tesafilm angebracht, den kann man beim Auspacken leicht übersehen.

OC_Burner
2015-08-21, 15:15:16
In 8 Stunden gibts den kleinen 21:9 LG im ZackZack Verkauf, normal koste er ca. 330€ man kann bestimmt 50€ sparen.
Der Monitor hat ja eine Freesync-Range von 48-75Hz , schaft man hier über Treibermode 40Hz ?

http://www.zackzack.de/html/articlePreview.html

Der schafft sogar 32Hz

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10744881#post10744881

Edit: wurde ja schon beantwortet

Grestorn
2015-08-21, 15:19:11
Was meinst du was mit den RMA-Retouren passiert? Geräte die wegen Pixelfehler oder Staub zurückgingen werden einfach neu verpackt und dann wieder zurück in den Handelskreislauf gebracht, solange bis der Markt die Ware geschluckt hat. Manche Kunden werden über die Zeit nach und nach darauf konditioniert, das Backlight-Bleeding, Pixelfehler und Staub etwas völlig normales seien.

Ich habe neulich eine Neuware von Amazon erhalten (ein Acer XB270HU), bei dem noch der RMA-Zettel eines anderen Kunden im Inneren des Kartons hing. Der Zettel war am Deckel mit Tesafilm angebracht, den kann man beim Auspacken leicht übersehen.

was erwartet ihr denn? Dass man die Geräte wegschmeisst, weil ein Pixel kaputt ist oder ein Fusel im Panel ist?

samm
2015-08-21, 15:25:13
Meine Erwartung wäre:

Fusel im Panel --> nicht wegschmeissen sondern öffnen, putzen & wieder zu und zurücksenden.
Pixel kaputt --> wenn keine Pixelgarantie: Wieder zurück auf den Markt. Sonst: Vergünstigt verhökern.

fondness
2015-08-21, 16:47:56
Der ASUS MG278Q ist bereits ab 519 EUR lieferbar:
http://geizhals.eu/asus-mg278q-90lm01s0-b01170-a1277261.html?hloc=at&hloc=de

Guter Preis im Vergleich zu den anderen 1440p/144 Hz/TN FreeSync-Modellen.

mironicus
2015-08-21, 18:44:43
Der LG 27MU67 sinkt auch weiter im Preis, schon ab 546 Euro.

Bei Allyouneed kann man ihm mit Gutscheinen+Qipu schon für rund 530 Euro bekommen.

dargo
2015-08-21, 19:04:28
Der ASUS MG278Q ist bereits ab 519 EUR lieferbar:
http://geizhals.eu/asus-mg278q-90lm01s0-b01170-a1277261.html?hloc=at&hloc=de

Guter Preis im Vergleich zu den anderen 1440p/144 Hz/TN FreeSync-Modellen.
Inwiefern? Der Acer liegt bei 481€. Oder zählt Acer hier nicht mehr? :D

Schaffe89
2015-08-22, 08:02:58
Asus birngt bald einen zweiten Freesync monitor mit 35 bis 144 Hertz und 1440p.
Das könnte vielleicht meiner sein. :)

nagus
2015-08-22, 09:25:33
Asus birngt bald einen zweiten Freesync monitor mit 35 bis 144 Hertz und 1440p.
Das könnte vielleicht meiner sein. :)

TN oder was besseres?

ich hab meinen ASUS MG279Q nach 2 tagen wieder zurück geschickt. freesync range per treiber mod erweitern hat praktisch nicht funktioniert, hatte sofort bildfehler. und die ausleuchtung und blickwinkelstabilität in den ecken ist ziemlich shice. für den preis einfach zu wenig "WOW" effekt. aber freesync ist schon ne geile sache :) die range muss nur besser werden und die anderen qualitätsmerkmale (helligkeitsverteilung, kontrast, blickwinkel, farben etc...) muss einfach passen. ich will freesync UND ein geiles bild! keine kompromisse

akuji13
2015-08-22, 12:02:36
TN.

http://www.computerbase.de/2015-08/spielermonitor-asus-mg278q-mit-144-hz-und-freesync-ab-ende-august/

fondness
2015-08-22, 12:19:27
TN oder was besseres?

ich hab meinen ASUS MG279Q nach 2 tagen wieder zurück geschickt. freesync range per treiber mod erweitern hat praktisch nicht funktioniert, hatte sofort bildfehler. und die ausleuchtung und blickwinkelstabilität in den ecken ist ziemlich shice. für den preis einfach zu wenig "WOW" effekt. aber freesync ist schon ne geile sache :) die range muss nur besser werden und die anderen qualitätsmerkmale (helligkeitsverteilung, kontrast, blickwinkel, farben etc...) muss einfach passen. ich will freesync UND ein geiles bild! keine kompromisse

Probiere den LG 27MU67. Hatte auch vorher den ASUS, der mich wenig begeistert hatte, der LG hingegen hat mich geflashed. Zumal ich ohnehin der Meinung bin, dass die Qualitätssicherung von Acer und ASUS - wenn überhaupt vorhanden - eine Frechheit ist.

mironicus
2015-08-22, 12:53:45
Wenn man sich auch erst mal an 4K gewöhnt hat, will man auch nicht mehr zurück. Alles sieht besser aus.

Meinen alten 1440P-Monitor schalte ich gar nicht mehr ein, was soll ich auch mit dieser C64-Auflösung...? :D

fondness
2015-08-22, 12:57:18
Wenn man sich auch erst mal an 4K gewöhnt hat, will man auch nicht mehr zurück. Alles sieht besser aus.

Meinen alten 1440P-Monitor schalte ich gar nicht mehr ein, was soll ich auch mit dieser C64-Auflösung...? :D

Jap, hatte auch eine zeit lang meinen alten Monitor daneben stehen, da ich dachte zwei Monitore könnten praktisch sein. Aber das Bild ist viel zu hässlich um damit ernsthaft zu arbeiten, wenn der LG daneben steht. Mittlerweile habe ich den alten Schirm längst aussortiert.

Kriton
2015-08-22, 13:30:55
Ich wüsste ja mal gern wann wir 4k mit 120 Hz sehen. Das müsste mit DP 1.3 möglich sein, oder?

fondness
2015-08-22, 13:37:51
Nur dauert das vermutlich noch ewig bis es da brauchbare Monitore zu vernünftigen Preisen gibt. Die Specs wurde erst vor kurzem finalisiert, aktuell gibt es weder Grafikkarten mit DP1.3, geschweige denn Scaler oder gar Bildschirme. Zudem erlaubt DP1.3 dann natürlich auch 5K@60Hz RGB und 8K Monitore (mit reduzierter Farbtiefe )^^

Und wenn ich das richtig sehe, ist auch mit DP1.3 4K@120Hz nur mit reduzierter Farbtiefe möglich, denn DP1.3 liefert nur ~50% mehr Bandbreite wie DP1.2.

Unicous
2015-08-22, 18:49:24
Ist das immer noch nicht hier angekommen?

Brand new @iiyamaCo B2783QSU #FreeSync sample spotted @club3d HQ. 1st in Europe! @AMDRadeon FreeSync FTW

https://twitter.com/GBlonet/status/633634281001209857

https://pbs.twimg.com/media/CMsfBUVWUAQRT1a.jpg

Scheint aber nur ein "08/15" 1440p 27"er, IPS oder TN ist die Frage (ich schätze IPS), von der Stange zu sein.
Die trauen sich mal wieder nicht etwas Interessantes in die Runde zu schmeißen sondern hauen lieber den mittlerweile 5ten 27er mit 1440p raus.
Aber immerhin erhöht sich die Anzahl an Herstellern weiter.

Und da Intel jetzt auch offiziell im Boot ist, dürfte Nvidia spätestens nächstes Jahr in Zugzwang geraten.

Kartenlehrling
2015-08-22, 19:19:38
Und da Intel jetzt auch offiziell im Boot ist, dürfte Nvidia spätestens nächstes Jahr in Zugzwang geraten.
Wenn man sich das mit Intel wirklich durchliest können wir glücklich sein wenn es 2017 wird, also in 2 Jahre !! sehen wir Intel Adaptive-Sync/Freesync.

Und zum iiyama .... erinnere ich mal an den fast auch schon 1 Jahre alten Beitrag der sich dann als Zeitungsente enpuppte.

http://www.computerbase.de/2014-12/freesync-per-upgrade-fuer-iiyama-monitor/

Als ersten Monitor mit Unterstützung für AMDs FreeSync-Technik bewirbt ein Händler das bereits seit Monaten erhältliche 28-Zoll-UHD-Display ProLite B2888UHSU von iiyama.
Der „Trick“ dahinter: FreeSync wird erst zu einem späteren Zeitpunkt vom Hersteller per Upgrade aktiviert.

Unicous
2015-08-22, 19:31:59
2016 kommt Kaby Lake, die GPU-Seite bei Intel ist deutlich auf Zack, siehe DX12_1 Implementation Bei Sky Lake.

Die Referenz mit der Ente kann ich auch nicht nachvollziehen, brauchst da hingehend auch nicht zu stänkern. (btw. war es keine "Zeitungsente, sondern das gebrochene Versprechen seitens des Sales Managers von OcUK, der behauptete, iiyama würde ein Upgrade der firmware bereitstellen)

Das Bild und der Tweet kommt vom Sales-Typen (Gerjan Blonet) bei Club 3D, der hat in den letzten Monaten so einiges "geleaked". (Glaube auch etwas zu Fiji, wenn ich mich nicht irre)
https://www.linkedin.com/pub/gerjan-blonet/55/b57/a44

Der Monitor kommt mit äußerst großer Wahrscheinlichkeit, hat auch schon seine retail-Verpackung samt FreeSync-Stickern. Gelistet ist er auch schon bei einigen Shops, sogar z.T. mit "FreeSync" in der Beschreibung.

Kartenlehrling
2015-08-22, 19:37:54
das gestänkere ging auch in richtung iiyama,
ich glaube nicht das wir dez.2016 einen intel mainboard mit einen freesync Monitor verbinden können,
wenn überhaupt werden wir ein table oder notebook als erstes sehen.

Unicous
2015-08-22, 19:49:18
Es geht nur darum, dass man DP 1.2a + Adaptive Sync hardwareseitig unterstützt. Für Sky Lake kam das zu spät, bei Kaby Lake könnte man es rein quetschen ( AS Spec von Mitte 2014, Release ca. Mitte? 2016). Und auch wenn es bis 2017 dauert, das Signal wurde ja schon gesendet. Die Hersteller werden das sicherlich auch empfangen haben und wer weiß, vllt. hat man das im stillen Kämmerlein eh schon angekündigt.

Es ist jedenfalls bezeichnend, dass momentan nur Acer und Asus neue G-Sync Monitore bringen wollen. Ich hoffe, das bleibt auch so. Ich glaube kaum, dass man sich langfristig zum Handlanger von Nvidia machen lassen will und auf Gedeih und Verderb die Module in die eigenen Produkte steckt ohne Möglichkeit einzugreifen oder das Ganze zu modifizieren.

Mancko
2015-08-23, 14:57:27
Es ist jedenfalls bezeichnend, dass momentan nur Acer und Asus neue G-Sync Monitore bringen wollen. Ich hoffe, das bleibt auch so. Ich glaube kaum, dass man sich langfristig zum Handlanger von Nvidia machen lassen will und auf Gedeih und Verderb die Module in die eigenen Produkte steckt ohne Möglichkeit einzugreifen oder das Ganze zu modifizieren.

Das sind aber so ziemlich die einzigen Hersteller die für Gamer eine Relevanz haben, außer vielleicht noch BenQ. Es ist sowieso unwichtig wieviele Hersteller es gibt. Entscheidend ist, dass Monitore verfügbar sind. Wenn ich Nvidia wäre würde ich sowieso langsam damit beginnen ein oder zwei Monitore in Auftrag zu geben und mit einem eigenen Logo zu versehen. Optik am Besten analog der Shield Konsole im typischen Nvidia Design. Nvidia Gamer kaufen ohnehin keine Freesynch Monitore. Wozu auch.

Kartenlehrling
2015-08-23, 15:09:18
Wenn die Qualität stimmt würde ja auch in jedem Format ein Monitor reichen und nur ein Liferant.
Nvidia sieht für Gsync erstmal nur die Gamer.

Unicous
2015-08-23, 15:40:31
Das sind aber so ziemlich die einzigen Hersteller die für Gamer eine Relevanz haben, außer vielleicht noch BenQ.

Großer Blödsinn. Schau dich mal im professionellen Gaming-Sektor um (der natürlich auch auf den "normalen" Gaming-Sektor abfärbt). Und dann überdenke deine Behauptung noch einmal.:rolleyes:

Mancko
2015-08-23, 18:23:21
Großer Blödsinn. Schau dich mal im professionellen Gaming-Sektor um (der natürlich auch auf den "normalen" Gaming-Sektor abfärbt). Und dann überdenke deine Behauptung noch einmal.:rolleyes:

Ich bin selber leidenschaftlicher Gamer und verfolge die Szene sehr genau. Und sorry aber Gamer kaufen derzeit mehrheitlich einfach Nvidia Grafikkarten und das nicht erst seit gestern - Punkt! Ob es Dir gefällt oder nicht interessiert mich einen Scheissdreck und Nvidia Gott sei Dank auch. Und wer Nvidia Grafikkarten nutzt der nutzt nun mal keine Freesynch Monitore. Der kauft sich einen G-Sync Monitor oder eben nutzt gar nichts von beiden. Solange Nvidia auf G-Sync setzt wird das so bleiben und ganz ehrlich bei nahezu 80% Marktanteil unter Add-In Karten können die noch lange darauf setzen. Da ist es irrelevant wieviele verschiedene Monitorhersteller nun Adaptive Sync anbieten. Der Großteil ist doch sowieso Schrott und Gaming untauglich. Herstellervielfalt ist bei Monitoren nun wirklich das letzte was wichtig ist und wenn ich mir einen Gaming Monitor kaufe, dann kaufe ich den genau für diesen Einsatzzweck. Fürs Arbeiten würde ich niemals einen Gaming Monitor nutzen. Da gibt es andere Geräte mit anderen Schwerpunkten und die brauchen dann auch kein G-Sync oder Adaptive Sync.

Unicous
2015-08-23, 19:01:28
Was hat jetzt Nvidia damit zu tun? Du sprachst gerade von Monitoren in der Gaming-Szene. Ob du persönlich "leidenschaftlicher" Gamer bist, ist völlig irrelevant.:rolleyes:

Die " professionellen Gamer" interessiert auch nicht wie geil der Monitor ist, die spielen zum Großteil noch auf 1080p aber eben 144Hz Monitoren. Von EIZO und BenQ. Asus und Acer haben da im Vergleich weniger zu sagen. Ich glaube sogar AOC hat da einen größeren Stand in der Szene. Acer und ASUS versuchen lediglich mit brute force sich einzukaufen.

Seth
2015-08-23, 21:18:05
CS:GO ESL ONE Finale läuft gerade und die Spielen auf Asus Monitoren ;-)
Und die interessiert A-Sync sicher nicht. Die Spielen teils in 800x600 mit mittleren dreistelligen FPS und 144Hz.
Die Spielen halt auf den Monitoren des Team oder eben Turnier Sponsors.

Unicous
2015-08-23, 21:34:33
Ich sagte ja, Asus und Acer kaufen sich in die Turniere ein.:wink:

Schosl
2015-08-23, 23:41:00
Hallo Leute,
also ich hab meinen LG 29UM67-P von 48-75 auf 25-75Hz getuned.
Hab schon 2 Stunden ein Spiel, das ca 30 fps und auch drops zwischen 20-80 hat gespielt. Läuft eigentlich einwandfrei.
Wenn man von der Ober/Untergrenze 5ps weg ist, teart das Bild ungewöhnlich schwach. Das war aber vorher auch schon so.
Aber wenn ich in eine 3D Anwendung reingehe, meldet der Monitor immer "Ausser Spezifikation" und ich muss ihn aus und einschalten und hoffen, dass es nicht wieder kommt.
Kann man da was dagegen machen oder eskaliert hier noch der AMD Treiber.
Ich glaube eher letzteres, da die Windmühlendemo immer einwandfrei läuft.

Kartenlehrling
2015-08-24, 01:06:14
also ich hab meinen LG 29UM67-P von 48-75 auf 25-75Hz getuned.

25Hz finde ich aber sehr ambitioniert von Dir, spiel doch erstmal mit 32-75Hz.

FlashBFE
2015-08-24, 09:44:43
Ja die Untergrenze ist zu niedrig. Das schafft der Monitor nicht mehr. Geh' erstmal auf Nummer sicher und fange mit 33Hz unterer Frequenz an und dann Hz für Hz tiefer, bis die Fehler wiederkommen.

fondness
2015-08-24, 09:45:58
Zumindest cool, das sich der LG offenbar nicht mit Bildfehler verabschiedet. Der scheint also einen sehr guten Scaler drinnen zu haben.

Schosl
2015-08-24, 12:52:53
Also ich spiel jetzt eh mit 33-75Hz, weil bei 25 ist meine Chance sehr gering, dass der Fehler nicht kommt.
Bis 40Hz kommt er aber trotzdem meistens wenn man das Spiel startet und das finde ich schon nervig, aber es ist es Wert :biggrin:
Ich will ja irgendwann auch vom Framedoubling profitieren :smile:
Schaden dürfte es dem Monitor ja nicht, da dadurch imo nirgends mehr Strom fließt.

Aber was da noch geht ist halt schon Krass muss man sagen.

Pirx
2015-08-24, 13:02:13
...
Nvidia sieht für Gsync erstmal nur die Gamer.
Ja, die sollen langfristig an den proprietären Nvidia-Standard "GSync" gebunden werden und brav möglichst jedes Jahr eine neue nv-Karte kaufen.

Grestorn
2015-08-24, 14:02:02
Ja, die sollen langfristig an den proprietären Nvidia-Standard "GSync" gebunden werden und brav möglichst jedes Jahr eine neue nv-Karte kaufen.

Boah, die Vorstellung man wäre an Freesync gebunden und müsste deswegen jedes Jahr eine AMD oder gar Intel GPU kaufen... Horror!!!!

(Sarkasmus-Alert!)

Unicous
2015-08-24, 14:09:13
Adaptive Sync ist ein VESA-Standard den jedes Mitglied unentgeltlich nutzen kann. FreeSync ist die Software- und Hardware-Schnittstelle seitens AMD um Adaptive Sync zu ermöglichen.

Intel wird sich entweder selbst einen fancy Namen ausdenken oder den VESA-Namen verwenden.

Deine Spitzfindigkeit ist also völlig fehl am Platz. IMG Tech, Qualcomm (Adreno), ARM (Mali) z.B. könnten es auch nutzen. Man kann auch gerne mal über den Tellerrand hinausschauen.:rolleyes:

Grestorn
2015-08-24, 14:15:06
Du verstehst nicht. Niemand ist gezwungen, jedes Jahr eine neue Karte zu kaufen, ganz egal ob er AMD/Freesync oder nVidia/GSync verwendet :)

Und derzeit ist de Fakto Freesync für einen genauso limitierten Nutzerkreis interessant wie GSync. Even more so, wenn man sich ansieht, welchen Marktanteil AMD hat. Und wie schon geschrieben, für die Masse an Intel GPU Nutzern ist keiner der VSS Lösungen so wahnsinnig spannend.

Im Moment bin ich jedenfalls sehr happy mit meine GSync Lösung und sehe keine Veranlassung, einen Freesync Monitor zu kaufen. Und es ist auch nicht absehbar, dass sich das ändern wird.

aufkrawall
2015-08-24, 14:17:20
Jetzt hier bitte nicht wieder das aus den Thread-Stichworten abziehen...
An alle gerichtet. ;)

Kartenlehrling
2015-08-24, 14:17:54
Intel wird es wie DX12 mehr als Stromsparfeature für seine Surface Table und Notebooks verwursten, .... 100%.

Unicous
2015-08-24, 14:30:04
Intel wird es wie DX12 mehr als Stromsparfeature für seine Surface Table und Notebooks verwursten, .... 100%.

PSR (Panel Self Refresh) wird schon ewig genutzt. Adaptive Sync baut lediglich darauf auf.

Es wird also sicherlich nicht als Stromsparfeature genutzt, denn das machen sie im mobilen Bereich längst.

Kartenlehrling
2015-08-24, 14:36:28
Kannst du uns ein Produkt nennen wo es eingesetzt und damit geworben wird, ein table oder Notebook?

Unicous
2015-08-24, 14:49:43
Produkt? Jede Intel CPU (edit: mit entsprechender iGPU, versteht sich) kann das seit Jahren.

http://ic.tweakimg.net/ext/i/imagelarge/1385381592.png

Und Qualcomm hat zumindest seit letztem Jahr auch integriert.

http://www.anandtech.com/show/7208/understanding-panel-self-refresh

Earlier today Brian spent some time with the G2, LG's 5.2-inch flagship smartphone based on the Qualcomm Snapdragon 800 (MSM8974) SoC. I'd recommend reading his excellent piece in order to get all of the details on the new phone, but there's one disclosure I'd like to call out here: the G2 supports Panel Self Refresh.

Google is your friend, btw.

Kartenlehrling
2015-08-24, 14:53:21
Seit Jaaaaahren ... du übertreibst,
auf der IDF2011 hat LG+Intel es zum ersten mal vorgestellt und auf deinem Foto lese ich auch nur Iris (HD5xxxx).

Unicous
2015-08-24, 14:59:01
IDF 2011...4 Jahre... seit Jahren. Du untertreibst.

Bei jedem Panel, dass direkt über eDP angesteuert wird funktioniert es.

Das Foto habe ich schnell aus der Bildersuche geholt. Ich bin übrigens nicht dein persönlicher Suchassistent.:rolleyes:

Ustrof
2015-08-24, 16:14:41
Kurzes Fazit nach ersten Testläufen mit dem LG 29UM67P:

Boah, ist das geil! :biggrin: Die Magische Grenze liegt hier wohl auch bei 31-32Hz. Bildfehler bleiben zwar aus, aber wenn ich mich ab hier mit der Framerate weiter heruntertaste kommt es hier nach und nach zu immer stärkeren Rucklern und bei abgeschaltetem V-Sync zu Tearing.

Bis 32Hz läuft aber alles Butterweich weshalb ich hier im Treiber nun auch die Grenze gezogen habe. Und das ist schon ein Unterschied wie Tag und Nacht. Beim 29UM67P lag die minimale Bildwiederholrate bei 48Hz, was man teils schon deutlich merkte. Drehe ich jetzt bei Battlefield das Supersampling hoch und fällt die Framerate mal unter 40Hz ist das (zumindest fürs Rumrennen auf ner Testmap) immernoch absolut verträglich. Wahnsinn. :)
Danke dafür.
Habe jetzt auch den Monitor und mal ohne viel rumzufummeln deine Version drübergebügelt, funktioniert einwandfrei.
Ob man tiefer kommt kann ich vielleicht noch mal testen aber für den Anfang reichts.

Nach ein paar Tagen mit dem Monitor muss ich sagen: 21:9 ist echt ne Wucht.
Freesync bringt einen mehrwert, IPS bringt einen mehrwert...aber, 21:9, ich glaube das ist tatsächlich der größte Mehrwert.
Ich merke in den Spielen keinen Performanceunterschied, bemerke aber ein deutlich gesteigertes Sichtfeld.
Ürsprünglich wollte ich ja 2560x1440 27" IPS aber die 2 Monitore die es gibt haben ja auch ihre Probleme und sind schweineteuer, für das Geld bekomme ich schon den 27" 4K Monitor, den ich vor 1440p sehe. Da ich aber nicht 500€ oder mehr Ausgeben will, habe ich den LG gewählt, knapp unter 300€.
Die Performance-Probleme durch (deutlich) höhere Auflösungen bleiben mir erspart, im Gegensatz zu einem höherauflösenden 16:9 Monitor habe ich auch ein erweitertes Sichtfeld (was sich spürbar auf die immersion auswirkt) und mit 75Hz eine zumindest etwas gesteigerte Bildwiederholrate.

Das einzige was die Freude am neuen Monitor etwas schmälert ist ein Pixelfehler...ein Pixel bleibt immer schwarz. Ist außerhalb des Hauptsichtfeldes, fällt im Alltag nicht wirklich auf, aber wenn man hinsieht schon...ist natürlich doof, aber da es kein anerkannter Defekt ist bliebe nur zurückschicken und neu kaufen, da kann man natürlich noch schlechter erwischt werden. Und 5 mal hin und herschicken (und jedes mal Versand bezahlen) ist auch nicht gerade optimal, also werde ich wohl damit leben müssen.
Ich hatte auch überlegt in den sauren Apfel zu beißen und einen der beiden 23,6" 4K Samsung zu nehmen, aber...für native Auflösung ist meine R9 290 in vielen fällen zu schwach, teurer ist es natürlich auch und nur 60Hz.
Das erweiterte Sichtfeld von 21:9 fällt natürlich auch weg, daran habe ich mich nach 3 Tagen schon gewöhnt...ich glaube, ich werde nie mehr ohne 21:9 wollen :D

Deshalb warte ich wohl mal bis 34" 21:9 1440p 144Hz gebogen bezahlbar (und verfügbar) wird und weiß schon was ich dann kaufe und behalte so lange den LG.

Weiteres Manko: Das DP-Kabel, ohne welchem Freesync nicht funktioniert, ist nicht dabei. Deshalb musste ich mir am WE erst mal einen Eindruck ohne Freesync verschaffen welches ich gerade erst eingerichtet habe.

Schosl
2015-08-24, 18:12:05
Ich hab jetzt das Problem beim LG 29UM67-P entdeckt, das den Scaler abschmieren lässt.
War doch in gewisser Weise der Treiber.
Bei Windows unter den erweiterten Anzeigeeinstellungen muss die Monitorfrequenz auf 75Hz gestellt werden. Nicht nur im CCC.
Sonst bringt er immer beim Wechsel den Fehler "Ausser Spezifikation".

Ustrof
2015-08-24, 18:17:20
Kann ich nicht nachvollziehen...wenn ich das im CCC ändere, wird das in der entsprechenden Windows-Einstellung sofort übernommen.
Zumindest Windows 10 macht da (bei mir) keine Probleme.

Schosl
2015-08-24, 20:19:42
Hab auch Win 10 und normal sollte es ja auch sofort übernommen werden aber wundern tuts mich nicht, teilweise verlieren die Programme ja die Einstellungen wenn beim speichern ein Fehler auftritt und kein Backup vorliegt.

Ustrof
2015-08-24, 20:50:32
Ich habe gerade ein anderes Problem festgestellt:
Wenn Freesync aktiviert ist, hat man unten im Bildschirm einen grauen Rand, Höhe geschätzt 3 Pixel.

Dieser stört teilweise schon etwas, weiß jemand wie man das weg bekommt?

Schosl
2015-08-25, 00:12:59
Der graue Rand ist produktionsbedingt und normal.
Hat der gleiche LG von einem Freund auch.
Ist aber immer zu sehen nicht nur bei Freesync.
Der stört dich ernsthaft :biggrin:

Unicous
2015-08-25, 01:13:04
Peter Trinh von Nixeus erzählt mal wieder ein bißchen, aber nur ein bißchen, aus dem Nähkästchen wie lange es dauert einen AS-Monitor der die FreeSync-Validierung bestehen soll, zusammenzubasteln und erwähnt auch, dass AMD vor einigen Monaten die Voraussetzungen nochmals erhöht hat.

ab-> http://www.overclock.net/t/1570248/tech-report-intel-plans-to-support-vesa-adaptive-sync-displays-freesync/130#post_24335472

Er sagt auch, es ist an sich relativ einfach ist einen Adaptive Sync-Monitor in den Handel zu bringen solange der Scaler es beherrsct, aber die Frage eher ist ob dadurch nicht andere Probleme entstehen. Er hat auch in der Vergangenheit schon gesagt, dass die Abstimmung zwischen den einzelnen Komponenten sehr schwierig ist, was mich zu der Vermutung führt, dass LG gerade so das LG, Acer und BenQ gerade so das Zertifikat bekommen haben und AMD dann bemerkt hat, dass sie sich nicht besonders viel Mühe gegeben haben (deswegen schätze ich auch, dass Over Drive nicht funktionierte bzw. nicht deaktiviert wurde). Ich denke mal Asus war da schon weiter hatte aber dennoch den 144Hz Bug. Jedenfalls hört sich das mit der strengeren Regeln schon mal positiv an und ich hoffe mal dass der 2. bzw. 3. Schwung an Monitoren davon schon profitiert.

gecan
2015-08-25, 17:58:52
hallo an alle,
funktioniert freesync nur wenn man vsync aktiviert ?

M4xw0lf
2015-08-25, 18:00:05
hallo an alle,
funktioniert freesync nur wenn man vsync aktiviert ?
Nein, geht sowohl mit als auch ohne.

gecan
2015-08-25, 18:01:46
also ohne funktioniert bei mir nicht, ich muss den vsync immer einschalten.

Unicous
2015-08-25, 19:00:16
Der 34" (UWQHD) IPS curved G-Sync Monitor wurde laut sweclockers auf 2016 verschoben.

http://www.sweclockers.com/nyhet/20981-asus-ultrabreda-och-valvda-gamingskarm-rog-swift-pg348q-drojer-till-2016

Googlish:

https://translate.google.com/translate?sl=auto&tl=en&js=y&prev=_t&hl=de&ie=UTF-8&u=http%3A%2F%2Fwww.sweclockers.com%2Fnyhet%2F20981-asus-ultrabreda-och-valvda-gamingskarm-rog-swift-pg348q-drojer-till-2016&edit-text=

Kartenlehrling
2015-08-25, 21:39:50
http://www.pcper.com/reviews/Displays/Nixeus-Vue-24-1080P-144Hz-TN-30-144Hz-FreeSync-Monitor-Review
Nixeus Vue 24-in 1080P 144Hz TN 30-144Hz FreeSync Monitor Review

Mich haut er nicht um, aber erfüllt wohl seine Aufgaben.

fondness
2015-08-25, 22:23:53
Test des Samsung U32E850R 32" 4K FreeSync Schirms bei Prad, kommt ganz gut weg:
http://www.prad.de/new/monitore/test/2015/test-samsung-u32e850r.html

FreeSync-Range offenbar 40-60Hz. Aber IMo im Vergleich zum LG viel zu teuer und leistet sich auch einige Schwächen.

Kartenlehrling
2015-08-25, 22:37:22
Seltsames schwarzes Bild, gefällt mir nicht.
Funktioniert PiP im Spiel mit Freesync ?

Das für Spieler äußerst interessante "FreeSync" arbeitet gut in der von AMD vorgegebenen und der vom Monitor möglichen Frequenz und
eliminiert Tearing sowie Stuttering bei vielen Games.
Andererseits ist diese Option nicht bei jedem Spiele-Titel verfügbar, so dass man sich vorher erkundigen sollte, ob gerade das persönliche Lieblingsspiel unterstützt wird.
Dass der U32E850R jedoch kein reinrassiges Gaming-Display ist, wird klar, wenn man sich die Gesamtlatenz von 9 ms anschaut,
die sich für schnelle Shooter nur bedingt eignet. Für Gelegenheitsspieler reicht dieser Wert aber allemal.

?? Bitte was?

dargo
2015-08-26, 09:36:28
Test des Samsung U32E850R 32" 4K FreeSync Schirms bei Prad, kommt ganz gut weg:
http://www.prad.de/new/monitore/test/2015/test-samsung-u32e850r.html

FreeSync-Range offenbar 40-60Hz. Aber IMo im Vergleich zum LG viel zu teuer und leistet sich auch einige Schwächen.
Was für ein mieser Kontrast. X-D Und dafür wollen die über 1000€? :crazy2:

horn 12
2015-08-26, 10:00:42
Besseren Monitor als den ULTRA HD von LG zu den 27 Zoll gibt es derzeit wohl kaum.
Ebenso der Preis ist komplett in Ordnung und absolut attraktiv!

akuji13
2015-08-26, 10:19:48
Was für ein mieser Kontrast. X-D Und dafür wollen die über 1000€? :crazy2:

Das nennt sich gutes Marketing. :D

Wo prad es gerade im Fazit erwähnt:
Hat schon jemand die G-Sync Problemtitel wie z. B. Diablo 3 oder The Evil Within auf G-Sync nachgetestet ob es dort inzwischen läuft bzw. mit FreeSync getestet?

FlashBFE
2015-08-26, 10:29:34
Was für ein mieser Kontrast. X-D Und dafür wollen die über 1000€? :crazy2:
Ich bin auch froh, den doch nicht gekauft zu haben sondern den nur halb so teuren LG.

Ich frage mich auch immer wieder, warum Prad immer solche guten Wertungen verteilt. Der Kontrast bekommt bei denen ein "gut"? Zusätzlich ärgert mich, dass der FreeSync-Absatz nur so vor Fehlern strotzt:

Der Monitor bietet mit "Standard Engine" und "Ultimative Engine" zwei Stufen an. Was es mit diesen zwei Möglichkeiten auf sich hat, wird im Handbuch nicht beschrieben. Ein Unterschied dieser beiden Einstellungen ist uns nicht aufgefallen.

Bei unserem Testspiel "DiRT Rally", das in der Regel stark zu Tearing neigt, ist FreeSync eine gute Waffe. Bis 75 Hz konnten wir tatsächlich kein Tearing mehr beobachten. Über der höchstmöglichen Bildwiederholungsrate des Monitors wirkt FreeSync leider nicht mehr. Man hat jedoch die Wahl, zusätzlich VSync zu wählen, was ab dieser Frequenz eingreift. Leider erhöht sich dann auch wieder der Input-Lag, den es ja eigentlich zu vermeiden gilt.

Nach unten beginnt FreeSync ab 40 Hz zu arbeiten. Ob das Testgerät bereits bei 40 Hz seine Synchronisation mit FreeSync beginnt, konnte uns leider auch der Support von Samsung nicht beantworten. Das flüssigere Gameplay spricht aber für diese Tatsache und fällt bei längeren Sessions spürbar positiv auf. Leider unterstützen viele Spiele FreeSync erst gar nicht und lassen keinerlei Effekt erkennen, darunter "Titanfall".

M4xw0lf
2015-08-26, 11:08:21
Das nennt sich gutes Marketing. :D

Wo prad es gerade im Fazit erwähnt:
Hat schon jemand die G-Sync Problemtitel wie z. B. Diablo 3 oder The Evil Within auf G-Sync nachgetestet ob es dort inzwischen läuft bzw. mit FreeSync getestet?
Woher kommt es eigentlich, wenn G-Sync/FreeSync NICHT funktioniert? Das sollte doch eigentlich gar nicht vorkommen. Irgendwelches "borderless window statt Fullscreen"-Gedöns?

Tru
2015-08-26, 11:26:27
Hat schon jemand die G-Sync Problemtitel wie z. B. Diablo 3 oder The Evil Within auf G-Sync nachgetestet ob es dort inzwischen läuft bzw. mit FreeSync getestet?
Diablo 3 läuft auf einem MG279Q butterweich. Lustigerweise musste ich den Framelimiter im Treiber auf 90 Fps und gleichzeitig V-Sync im Spiel einstellen, Letzteres greift dann allerdings nicht. Fps-Limiter im Treiber oder Spiel alleine haben's nicht getan.

akuji13
2015-08-26, 12:19:19
Irgendwelches "borderless window statt Fullscreen"-Gedöns?

Scheint so.

Allerdings gibt es im NV Control Panel inzwischen den Punkt das G-Sync für fullscreen und window zu aktivieren.
Das war wenn ich mich nicht irre beim Start noch anders.

Im NV FAQ steht immer noch:
"Funktioniert NVIDIA G-SYNC mit allen Spielen?

NVIDIA G-SYNC funktioniert mit allen Spielen. Wir haben jedoch festgestellt, dass sich manche Spiele nicht optimal verhalten. In diesem Fall empfehlen wir, G-SYNC über die Systemsteuerung für das jeweilige Spiel zu deaktivieren. Wenn NVIDIA feststellt, dass bei bestimmten Spielen mit G-SYNC Probleme auftreten, werden diese in unserem Treiber standardmäßig deaktiviert."

D3 habe ich allerdings gar nicht und TEW aktuell nicht installiert, deshalb auch die Frage ob das inzwischen anders ist.

aufkrawall
2015-08-26, 12:30:33
Du könntest die kostenlose D3 Demo ja einfach selbst probieren, wenn das Inet nicht das Problem ist.

Schosl
2015-08-26, 12:45:08
Ich hab mir mal das Video von pcper zum Nixeus nx-vue24 angeschaut.

Die sagen ja, dass anscheinend die Flüssigkristalle so ausgerichtet sind, dass wenn man gerade auf den Monitor schaut, es so auschaut als ob man von ganz weit oben auf ein TN Panel schauen würde. Damit dieser hell/dunkel Effekt von TN Panels nicht so stark stört. Natürlich hat Nixeus dementsprechend das Bild angepasst, dass es trotzdem natürlich wirkt.

Ich finde das eigentlich ziemlich sinnvoll, aber die von pcper hats anscheinend nicht umgehauen.
Wer mal gerade auf ein TN Panel geschaut hat weiß ja, dass man besser wieder wegschaut ;D
Für 330-350 $/€ finde ich den Monitor ziemlich gut, wenn man mit 1920x1080 zufrieden ist.

Wäre schön wenn sich den jemand kaufen würde und sich das mal anschaut. Der Monitor wird aber imo wahrscheinlich nicht in Europa erscheinen.