Archiv verlassen und diese Seite im Standarddesign anzeigen : G-/Free-/A-Sync: framesynchronisierter Displayrefresh per variablem vblank-Intervall
Kartenlehrling
2019-01-07, 10:43:11
Nvidia hat jetzt ein Logo eingeführt, das keiner braucht,
weil die Geräte schon alle Voraussetzungen für VRR/AS/FreeSync erfüllen, und meint, dass sie doch nicht G-Sync genug sind?
Respekt! :uup:
Wenn man ganz ehrlich ist, sind viele freesync1 Monitor ja auch nicht wirklich tauglich,
also bekommen nur Monitor die mindesten die Low Framerate Compensation (LFC) unterstützten und
wohl mindesten 100Hz beherschen eine offizelle Freischaltung im Treiber.
Das hätte AMD auch gleich machen sollen, hätte dem Image von AMD nicht geschadet.
deekey777
2019-01-07, 10:44:41
Tschüss Gsync. Keiner wird dich vermissen.
Wieso das denn? G-Sync hat schon seine Vorteile.
Klevapalis
2019-01-07, 10:50:23
Nvidia hat jetzt ein Logo eingeführt, das keiner braucht, weil die Geräte schon alle Voraussetzungen für VRR/AS/FreeSync erfüllen, und meint, dass sie doch nicht G-Sync genug sind?
Nichts weiter, als was AMD bisher mit dem Standard AdaptiveSync unter dem Label "FreeSync" gemacht hat.
Ich bleibe bei G-Sync :up:
pilzsammler2002
2019-01-07, 10:50:52
Wieso das denn? G-Sync hat schon seine Vorteile.
Welche denn?
Ausser der Platine?
Hochwertige Freesync Monitore gibt es ja auch :)
Grendizer
2019-01-07, 11:03:36
Ab welchen nVidia -Karten wird das den freigeschaltet werden ? Erst mit der aktuellen 2060 RTX oder auch für Pascal und drunter ?
Edit: Lesen bildet....
https://www.nvidia.com/en-us/geforce/news/g-sync-ces-2019-announcements/?cjevent=91fad74f126311e9821b030f0a18050b
We will test monitors that deliver a baseline VRR experience on GeForce GTX 10-Series and GeForce RTX 20-Series graphics cards, and activate their VRR features automatically,
aufkrawall
2019-01-07, 11:05:05
Wieso das denn? G-Sync hat schon seine Vorteile.
Es wird in absehbarer Zeit ausgereifte 4k 144/120Hz FreeSync-Geräte geben, gegenüber denen Hardware-Gsync null Vorteile bieten würde. 0.
Käsetoast
2019-01-07, 11:07:37
Ich sagte es ja - NVIDIA kann sich dem Druck jetzt wo Intel das richtig unterstützen will und Samsung mit ihren Fernsehern da groß Werbung macht nicht länger entziehen. Ich habe es eben bei Computerbase gelesen und musste das teilweise zweimal lesen, weil so richtig glauben konnte ich es nicht...
Natürlich bleibt NVIDIA NVIDIA und es "einfach unterstützen" ist nicht. Sie basteln halt ein Siegel draus. Der DAU wird also weiterhin ausgeschlossen in dem Sinne, dass NVIDIA garantiert eine Warnung einblenden wird, wenn man versucht das zu aktivieren und der Monitor ist nicht von NVIDIA abgenickt worden. Der informierte Nutzer wird ein "Achtung! Die Nutzung dieses Features kann zu schlechter Bildqualität führen!" oder was auch immer kommt dann mit einem müden Lächeln wegklicken...
Ich muss sagen, dass NVIDIA Karten für mich damit wieder attraktiv geworden sind...
Stretcher
2019-01-07, 11:10:58
Oder anders ausgedrückt: Nvidia ist nicht in der Lage das VESA Adaptive-Sync-Protokoll ordnungsgemäß zu implementieren weshalb es nur mit wenigen Adaptive-Sync Monitoren funktioniert.
Schon traurig.
Freesync war ja von den Mindestvorraussetzungen her ein reiner Flickenteppich.
Aber deine Aussage ist Blödsinn.
Natürlich ist das ordentlich implementiert, Nvidia geht aber weiter den Weg der höheren Standards.
NVidia hat Sync entwickelt und eingeführt, nicht AMD, die sind erst nachgezogen, wie so oft.
aufkrawall
2019-01-07, 11:13:43
Troyan meint, LFC würde vom neuen Software-Gsync nicht unterstützt. Hat das irgendeine Redaktion festgehalten?
Und Nvidia hat sicherlich variablen Vblank nicht erfunden. Mit ihrer Modul-Scheiße haben sie wahrscheinlich eher der Entwicklung besserer Scaler geschadet...
Lowkey
2019-01-07, 11:18:51
Diverse Freesync Monitore laufen nur mit 75hz im Freesync Modus. Ich bin gespannt, ob nun 75hz auch mit Nvidia klappen.
aufkrawall
2019-01-07, 11:21:19
Diverse Freesync Monitore laufen nur mit 75hz im Freesync Modus.
Stimmt das überhaupt? Man dürfte auch ohne VRR-Karte einfach FS im Monitor-OSD einschalten können, oder nicht?
maguumo
2019-01-07, 11:25:21
Troyan meint, LFC würde vom neuen Software-Gsync nicht unterstützt. Hat das irgendeine Redaktion festgehalten?
Nein. Und es macht auch keinen Sinn, warum sollten sie sonst ein Verhältnis von 2.4:1 von Refreshrate:Unterer Range fordern?
Tesseract
2019-01-07, 11:31:58
Es wird in absehbarer Zeit ausgereifte 4k 144/120Hz FreeSync-Geräte geben, gegenüber denen Hardware-Gsync null Vorteile bieten würde. 0.
ist zu hoffen, aber die könnte es (ohne 4k) seit jahren geben, die realität sieht aber nach wie vor anders aus.
BlacKi
2019-01-07, 11:34:17
Ich sagte es ja - NVIDIA kann sich dem Druck jetzt wo Intel das richtig unterstützen will und Samsung mit ihren Fernsehern da groß Werbung macht nicht länger entziehen.
Ich muss sagen, dass NVIDIA Karten für mich damit wieder attraktiv geworden sind...
das ist der punkt den ich nicht verstehe. warum hat man das jetzt erst gemacht. es hat eigentlich nur nachteile gehabt es nicht zu unterstützen.
kumpel von mir hat es richtig getroffen indem er sagte: "das heißt es ist dan egal was man für ein monitor kauft solange man eine nvidea graka hat?"
damit hat NV einfach karten die beides können. für die daus gibts dann nur noch NV karten, weil kompromissloser.
Screemer
2019-01-07, 11:34:37
War so klar, dass es nicht für die 9er Serie kommt :( ziemlich blöd. So hätte ich meine Ti noch ein bisschen behalten. Jetzt wechsel ich halt auf ne etwa gleich schnelle AMD.
Troyan
2019-01-07, 11:36:50
War so klar, dass es nicht für die 9er Serie kommt :( ziemlich blöd. So hätte ich meine Ti noch ein bisschen behalten. Jetzt wechsel ich halt auf ne etwa gleich schnelle AMD.
Macht Sinn. :freak:
Schnoesel
2019-01-07, 11:36:50
Das ist der Anfang vom Ende von Gsync, in Zukunft wird es wohl nur noch A-Sync Monitore geben und das ist gut so auch wenn Nvidia noch versucht die Enthusiasten mit ihrem neuen Hyper Dyper Syper Modul abzugreifen. Der Kunde gewinnt.
Screemer
2019-01-07, 11:40:53
Macht Sinn. :freak:
Ja, da ich gleichzeitig meinen Monitor wechseln werde weil mein Koreaner kein vrr unterstütz und nun auch schon etwas in die Jahre gekommen ist. 110hz@1440p sind zwar ok Aber ich will schon lange ein vrr-modell. Mehr Power als die Ti@1,4ghz liefert brauche ich Grad einfach nicht. Hab es einfach abgewartet in der Hoffnung NV würde vrr bis runter zur 9er irgendwann nachreichen. Haben sie jetzt getan aber halt nicht für meine gpu. Warum soll ich also derzeit ne 1070/80 kaufen?
Mearest
2019-01-07, 12:00:37
Ich verstehe das gerade nicht so richtig. Adaptive Sync ist ja nicht gleich Adaptive VSync nehme ich mal an. Kann das dann theoretisch jeder Monitor (auch wenn die noch nicht getestet wurden) (Adaptive Sync), wo man Adaptive und Adaptive (halbe Aktualisierungsrate) bei "Vericale Synchronisierung" auswählen kann? Z.B mbei meinen zweiten Monitor Dell UltraSharp IPS U2715H, geht das da dann auch?
aufkrawall
2019-01-07, 12:03:34
Das "alte" adaptive Vsync schaltet einfach nur Vsync ab, wenn die fps unterhalb die Refreshrate fallen.
Das hat nichts mit variablem Vblank zu tun.
BlacKi
2019-01-07, 12:03:46
nicht jeder monitor kann async.
Colin MacLaren
2019-01-07, 12:28:36
Puh, da bin ich heilfroh, dass ich meinen Gsync.Monitor zurückgeschickt und mir stattdessen einen C49HG90 gekauft hatte. Sehr, sehr geil.
Das hat mein Ansehen von NVIDIA gerade massiv gesteigert.
Daredevil
2019-01-07, 12:34:11
Als Besitzer eines X270HU freue mich ebenfalls. :)
Freesync war doch zu aller letzt ein Kriterium, warum ich eine Vega 64 einer 1080ti vorlieb genommen habe. So kann ich nun irgendwann mal das Boot wechseln und habe nich so ein mieses "Wrong Ecosystem" Gefühl bei der Sache.
Schön wäre jetzt natürlich auch, wenn Nvidias Experteneinheit auch mal Fernseher testet...
sulak
2019-01-07, 12:43:11
Glaube da können wir den TV Herstellern danken, die alle auf G-Sync geschissen haben und auf FreeSync2 setzen (und ohne Lüfter...)
Jetzt wo die MiningFelle wegschwimmen muss nV sich bewegen.
maguumo
2019-01-07, 12:51:22
Schön wäre jetzt natürlich auch, wenn Nvidias Experteneinheit auch mal Fernseher testet...
Die Funktionalität ändert sich doch nicht nur weil sie ihr Siegel draufstempel und dankbarer weise kann man ja jedes adaptive sync fähige Gerät nutzen.
xiao didi *
2019-01-07, 12:51:28
Glaube da können wir den TV Herstellern danken, die alle auf G-Sync geschissen haben und auf FreeSync2 Adaptive-Sync setzen (und ohne Lüfter...)
:smile:
Die Funktionalität ändert sich doch nicht nur weil sie ihr Siegel draufstempel und dankbarer weise kann man ja jedes adaptive sync fähige Gerät nutzen.
Nvidia bietet damit eine Qualitätssicherung, die es bei AMDs Freesync bisher nicht gibt. Freesync ist in gewissem Rahmen immer noch eine Wundertüte.
Ob das Gsync Label dann auch hält was es verspricht, muss sich dann zeigen.
maguumo
2019-01-07, 13:00:40
Qualitätssicherung für DAUs ist sicherlich eine gute Sache aber für eine Userbase wie hier im Forum doch kaum relevant. Man liest sich doch eh ein paar Reviews durch und kauft nicht auf gut Glück irgendeinen Fernseher/Monitor.
robbitop
2019-01-07, 13:34:44
Stimmt das überhaupt? Man dürfte auch ohne VRR-Karte einfach FS im Monitor-OSD einschalten können, oder nicht?
Kann ich bestätigen. 27" FHD Monitor mit A-Sync und 75Hz. Auf einer 970 führt kein Weg zu den 75 Hz. Und ein 29" 21:9 Monitor mit einer GTX460 -> ebenfalls keine 75 Hz obwohl das Interface das können müsste.
Brillus
2019-01-07, 13:59:39
:smile:
Nvidia bietet damit eine Qualitätssicherung, die es bei AMDs Freesync bisher nicht gibt. Freesync ist in gewissem Rahmen immer noch eine Wundertüte.
Ob das Gsync Label dann auch hält was es verspricht, muss sich dann zeigen.
Dafür hat AMD Freesync2 eingeführt, das ist das Qualitätssiegel. NV fängt so gesehen halt erst da an.
Sunrise
2019-01-07, 15:19:34
Sehr schön und lustiges Timing.
LG hat im TV-Bereich mit HDMI 2.1 (full bandwidth), VRR, 120Hz und maximalen 13ms im Game-Mode nach Samsungs VRR-Unterstützung auch endlich nachgelegt. War klar, war nur eine Frage der Zeit bis sie einknicken.
Diese horrenden Aufpreise für Monitore waren mir schon immer ein Dorn im Auge und sich mit einem Monitor an einen Hersteller zu binden, ich glaub es hackt...
Sven77
2019-01-07, 15:20:35
Dafür hat AMD Freesync2 eingeführt, das ist das Qualitätssiegel. NV fängt so gesehen halt erst da an.
Lol.. für Freesync fängt das auch erst jetzt an, vorher war das eine Lotterie ob gut oder grütze..
dargo
2019-01-07, 15:23:53
Lol.. für Freesync fängt das auch erst jetzt an, vorher war das eine Lotterie ob gut oder grütze..
Schwachsinn... jeder halbwegs interessierte Käufer hatte sich auch vernünftig informiert.
Tesseract
2019-01-07, 15:28:54
Schwachsinn... jeder halbwegs interessierte Käufer hatte sich auch vernünftig informiert.
für die meisten monitore gibt es überhaupt keine guten tests weil es einfach zu viele modelle am markt gibt und die die getestet wurden hatten - soweit ich weiß - IMMER irgendwelche probleme.
Klevapalis
2019-01-07, 15:35:46
Schwachsinn... jeder halbwegs interessierte Käufer hatte sich auch vernünftig informiert.
Deshalb haben hier im Forum auch ständig Leute an der Firmware ihrer Monitore rumgefrickelt ;)
Und LFC ist noch lange kein Standard bei FreeSync - selbst heute noch nicht.
dargo
2019-01-07, 15:51:23
für die meisten monitore gibt es überhaupt keine guten tests weil es einfach zu viele modelle am markt gibt und die die getestet wurden hatten - soweit ich weiß - IMMER irgendwelche probleme.
Wenn es keine guten Tests gibt gibt es genug Foren wo man sich informieren kann. Man muss halt nur den Arsc... hoch bekommen.
fondness
2019-01-07, 16:06:20
War so klar, dass es nicht für die 9er Serie kommt :( ziemlich blöd.
Das könnte allerdings auch HW-technische Gründe haben. Auf jeden Fall gut, dass NV endlich eingeknickt ist, auch wenn man so lange gewartet hat, bis es praktisch nicht mehr anders ging und alles versucht wurde um irgendwie den völlig überteuerten proprietären Mist durchzudrücken. Richtig genervt wäre ich jetzt, wenn ich mir vor kurzem einen überteuerten G-Sync-Monitor gekauft hätte.
Tesseract
2019-01-07, 16:07:04
Wenn es keine guten Tests gibt gibt es genug Foren wo man sich informieren kann.
über was genau willst du dich da informieren? die meisten haben genau einen VRR-monitor und keine möglichkeit objektiv irgendwelche werte zu ermitteln. wenn man glück hat findet sich jemand, der von offensichtlichen problemen berichten kann, dann kannst du genau dieses modell gleich ausschließen, aber das wars dann meistens auch schon.
Savay
2019-01-07, 16:11:39
Deshalb haben hier im Forum auch ständig Leute an der Firmware ihrer Monitore rumgefrickelt ;)
Ach...und wo? Bei welchem Monitor abseits bestimmter Koreanischer Bastelteile kommt man denn bitte auch nur ansatzweise an die FW?!
Ein vollkommen profaner INF Mod hat mit der FW übrigens rein garnichts zu tun. :rolleyes:
Und LFC ist noch lange kein Standard bei FreeSync - selbst heute noch nicht.
Beim Freesync 2 (HDR) Label ist LFC sehr wohl "Standard"...auch heute schon...bei FreeSync nicht. Das ist doch alles ein alter Hut.
Was genau willst du uns sagen?
Robspassion
2019-01-07, 16:12:07
Wird es generell auch möglich sein HDR + A-Sync von den kommenden FreeSync 2 HDR Monitoren mit einer Nvidia Grafikkarte zu nutzen?
Was denkt ihr?
Das Teil ist schon nett:
https://wccftech.com/samsung-crg9-49-ultrawide-gaming-monitor/
Troyan
2019-01-07, 16:13:45
Sollte irrelevant sein. Wenn HDR bei Freesync 2 nicht verdongelt ist, dann funktioniert es einwandfrei mit nVidia.
Loeschzwerg
2019-01-07, 16:13:56
Wenn es keine guten Tests gibt gibt es genug Foren wo man sich informieren kann.
Sehe ich nicht so. Das ist wie im Audiobereich ein ziemlicher Dschungel mit vielen persönlichen Eindrücken und nur wenig brauchbaren Berichten von Leuten mit der nötigen Ahnung/Erfahrung (Hier im Forum fällt mir spontan Akuji ein).
Es ist leider kein Bereich in dem man einfach nackte Zahlen vorlegen kann.
Savay
2019-01-07, 16:16:18
Was genau willst du da denn auch bitte als Endanwender "objektiv" ausmessen!
Entweder es gibt offensichtliche Probleme...die dann im Betrieb auch störend auffallen...oder aber eben nicht.
Bestes Beispiel ist doch wohl jüngst die Odysee die Deathcrush da mit gemacht hat.
DAS ist relevant...nicht ob das OD um 0,21müh% besser ist als bei Modell XYZ...das merkt doch in der Praxis am Ende eh fast keine Sau.
Unicous
2019-01-07, 16:17:01
'so weit ich weiß... IMMER'
...ist eine bemerkenswerte Aussage.
Dieses dämliche Adapative Sync Gebashe geht mir tierisch auf den Sack. Es gibt sehr viele AS Monitore.... und viele AS Monitore sind Schrott, aber das ist doch der Sinn an der ganzen Sache.
Adaptive Sync sollte kein Luxus-Feature sein sondern in ALLEN Monitoren Standard und durch die Masse werden eben auch Monitore verkauft die absoluter Kernschrott sind. Aber das wären sie auch ohne Adaptive Sync gewesen.
Was wollt ihr denn nun? Freie Marktwirtschaft (Adaptive Sync)? Eine "diktatorische" Technokratie (G-Sync)?
Die Zukunft sollte doch sein, dass jeder Monitor egal welche Sparte er bedient VRR beherrscht. Wie gut oder wie schlecht das am Ende implementiert wird zeigen dann entsprechende Tests. Und das Argument es gibt nicht genug Tests ist auch lachhaft. Es wird gerade mal ein Bruchteil der angebotenen Monitore getestet und der Rest wird trotzdem weiter verkauft. Beschwerst du dich bei diesen Monitoren auch, dass die Ausleuchtung ungenügend ist oder du fieses Backlight Bleeding hast, die OSD-Menüführung das Allerletzte ist?
Behandelt VRR als das was es, ist ein Feature das schon längst Standard sein sollte und ein entsprechendes Spektrum aufweist. Vom LowEnd 50 Euro Ladenhüter bis zum HighEnd 5000-Euro Monster.
Warum verlangt ihr nicht von den Herstellern, dass sie generell mehr Sorgfalt in ihre Produkte stecken, denn um ehrlich zu sein ist der FreeSync Support und wie er qualitativ ausfällt bei einem potentiellen Monitorkauf nicht meine allererste Priorität. Wenn ich bei einem Produkt, dass 500 Euro und mehr kostet immer noch fieses Backlight Bleeding habe, IPS-Glow, etc. und theoretisch zig mal Retoure schicken müsste um ein ordentliches Produkt zu erhalten und die Hersteller mit der Aussage abspeisen, das wäre bauartbedingt und ließe sich nicht vermeiden da sollte man doch eher auf die Barrikaden gehen. In jeder Preisklasse wird minderwertige Qualität verkauft und der Kunde verarscht und ihr regt euch auf, dass Monitor X kein LFC beherrscht.
Wie Adaptive Sync implementiert wird geht Hand in Hand mit der allgemeinen Sorgfalt und Mühe die in das Produkt gesteckt wird. Und das gilt genauso für G-Sync Monitore, am Ende des Tages kämpft man mit den gleichen Problemen und der Monitor ist durch das Modul auch noch teurer.
Warum Nvidia überhaupt diesen Schritt geht, wird gar nicht hinterfragt? All die Jahre wurde hier von einigen gepredigt, dass sie es gar nicht nötig hätten und dass es eh nicht geht, weil Gründe. Jetzt geht es auf einmal doch und sie zertifizieren selbst Monitore. Was im Übrigen auch völlig hirnrissig ist: anstatt sich mit AMD, Intel und den Herstellern auf ein Verfahren zu einigen, wird jetzt die eigene G-Sync Marke "verwässert".:freak:
Und was getestet wird, welche Specs erfüllt werden müssen bleibt wohl auch ein Geheimnis.:rolleyes:
Loeschzwerg
2019-01-07, 16:23:34
Was genau willst du da denn auch bitte als Endanwender "objektiv" ausmessen!
Entweder es gibt offensichtliche Probleme...die man dann im Betrieb auch störend auffallen...oder aber eben nicht.
Ja nichts, außer der entsprechende Nutzer hat das nötige Equipment und kann es auch richtig nutzen.
Für den Rest: Amazon Bewertungen... Logischerweise mit dem nötigen "Filter" ;)
Savay
2019-01-07, 16:26:38
Sollte irrelevant sein. Wenn HDR bei Freesync 2 nicht verdongelt ist, dann funktioniert es einwandfrei mit nVidia.
Es ist insofern schon "verdongelt" als dass das Tonemapping für "FS2 HDR" Anwendungsabhängig halt vor der Übertragung zum Monitor passiert...und nicht erst im Display wie bei anderen HDR Verfahren.
Das ist aber dann auch vom Spiel abhängig und könnte durchaus nur dann gehen wenn der Treiber in Kombination mit dem Display vermeldet, dass die Kette dazu in der Lage ist.
Ob nV diesen Modus einfach so kopieren kann ist halt die Frage.
Wenn die Kette aber den normalen HDR10 Übertragungsweg darstellt, sollte es irrelevant sein...
dargo
2019-01-07, 16:35:57
über was genau willst du dich da informieren? die meisten haben genau einen VRR-monitor und keine möglichkeit objektiv irgendwelche werte zu ermitteln. wenn man glück hat findet sich jemand, der von offensichtlichen problemen berichten kann, dann kannst du genau dieses modell gleich ausschließen, aber das wars dann meistens auch schon.
Über die Freesync Range sowie mögliche Erweiterungen/Verschiebungen mit Hilfe von CRU. Alle möglichen Panel-Schwächen außerhalb von diesem Thema betreffen genau so G-Sync Bildschirme.
Auf jeden Fall gut, dass NV endlich eingeknickt ist, auch wenn man so lange gewartet hat, bis es praktisch nicht mehr anders ging und alles versucht wurde um irgendwie den völlig überteuerten proprietären Mist durchzudrücken.
Ich finds auch gut. Diese Segmentierung der PC-Gamer war der größe Fail der letzten Jahre.
Ach...und wo? Bei welchem Monitor abseits bestimmter Koreanischer Bastelteile kommt man denn bitte auch nur ansatzweise an die FW?!
Ein vollkommen profaner INF Mod hat mit der FW übrigens rein garnichts zu tun. :rolleyes:
Zumal ein INF-Mod schon ewig nicht mehr notwendig ist. Zwei Einträge in CRU, Neustart... fertig.
Sehe ich nicht so. Das ist wie im Audiobereich ein ziemlicher Dschungel mit vielen persönlichen Eindrücken und nur wenig brauchbaren Berichten von Leuten mit der nötigen Ahnung/Erfahrung (Hier im Forum fällt mir spontan Akuji ein).
Es ist leider kein Bereich in dem man einfach nackte Zahlen vorlegen kann.
Wie viel Ahnung muss man haben um die tatsächliche Freesync-Range herauszufinden? Die spuckt der Treiber sogar selbst aus. :freak:
Sven77
2019-01-07, 16:38:52
Was wollt ihr denn nun?
saubere Zertifizierungen?
Unicous
2019-01-07, 16:47:51
Wie wäre es wenn du das mal ausführst, denn so ist es nur ein schnippischer Kommentar, der nichts zur Diskussion beiträgt (und im Übrigen nichts mit der eigentlichen Fragestellung zu tun hat).
Troyan
2019-01-07, 16:50:49
Es ist insofern schon "verdongelt" als dass das Tonemapping für "FS2 HDR" Anwendungsabhängig halt vor der Übertragung zum Monitor passiert...und nicht erst im Display wie bei anderen HDR Verfahren.
Das ist aber dann auch vom Spiel abhängig und könnte durchaus nur dann gehen wenn der Treiber in Kombination mit dem Display vermeldet, dass die Kette dazu in der Lage ist.
Wenn AMD für AMD-propritäre HDR-Umsetzungen bezahlt, dann wird es kein HDR geben. Ansonsten unterstützt Pascal/Turing ja HDR10 und Dolby Vision. Eher wird niemand außerhalb von AMDs Partnern einen zusätzlichen HDR-Pfad einbauen.
Sven77
2019-01-07, 16:55:57
Wie wäre es wenn du das mal ausführst, denn so ist es nur ein schnippischer Kommentar, der nichts zur Diskussion beiträgt (und im Übrigen nichts mit der eigentlichen Fragestellung zu tun hat).
Freesync war genau der Archetyp eines nutzlosen offenen Standards, es war nicht wirklich was standarisiert. Ausser das ein Monitor eben Freesync kann. Kann der BenQ den ich vor mir habe auch, halt nur von 60-45Hz. Nutzlos, Schrott, Checklisten-Feature.. hey aber Freesync
dargo
2019-01-07, 17:00:31
Freesync war genau der Archetyp eines nutzlosen offenen Standards, es war nicht wirklich was standarisiert. Ausser das ein Monitor eben Freesync kann. Kann der BenQ den ich vor mir habe auch, halt nur von 60-45Hz. Nutzlos, Schrott, Checklisten-Feature.. hey aber Freesync
Und warum genau soll das nutzlos sein? Klar... 45(? oder eher 40Hz?)-60Hz ist nicht gerade optimal. Wenn du aber eine passende Grafikkarte hast die ca. 47fps Minimum liefern kann (zur Not einzelne Details reduzieren) ist es immer noch besser als stur auf >60fps zu pochen. Oben limitierst du eh mit Vsync + Framelimit falls der Inputlag stört.
Edit:
Welcher Benq soll das genau sein? Bei GH finde ich nur drei mit 60Hz und der schlechteste hat zumindest laut GH 40-60Hz.
https://geizhals.de/benq-el2870u-9h-lgtlb-qse-a1776339.html?hloc=de
https://geizhals.de/benq-el2870ue-9h-lgtlb-fse-a1918026.html?hloc=de
https://geizhals.de/benq-ew3270u-9h-lgvla-tse-a1790472.html?hloc=de
Brillus
2019-01-07, 17:02:10
Schwachsinn... jeder halbwegs interessierte Käufer hatte sich auch vernünftig informiert.
Kein Schwachsinn, Freesync 2 ist einfach das Label wo die Qualitätsbedingungen drin sind wie z.b. eine Range die Bilddopplung erlaubt.
Loeschzwerg
2019-01-07, 17:03:41
Wie viel Ahnung muss man haben um die tatsächliche Freesync-Range herauszufinden? Die spuckt der Treiber sogar selbst aus. :freak:
Wenn es nur um die Range geht, klar, da reicht z.B. die Liste von fondness.
Aber gut, ich habe auch nur "Test" gelesen.
aufkrawall
2019-01-07, 17:04:17
Sehe ich nicht so. Das ist wie im Audiobereich ein ziemlicher Dschungel mit vielen persönlichen Eindrücken und nur wenig brauchbaren Berichten von Leuten mit der nötigen Ahnung/Erfahrung (Hier im Forum fällt mir spontan Akuji ein).
Der sagt u.a., dass es auch Gsync-Geräte mit Flacker-Problemen gibt. Die Technik kocht auch einfach nur mit Wasser.
fps-Limit muss man ja genau so setzen gegen Lag, auch 0 Vorteile gegenüber FreeSync.
Sven77
2019-01-07, 17:09:47
https://geizhals.de/benq-ew3270u-9h-lgvla-tse-a1790472.html?hloc=de
Der hier und Freesync funktionierte definitv nicht unter 40Hz
dargo
2019-01-07, 17:10:52
Wenn es nur um die Range geht, klar, da reicht z.B. die Liste von fondness.
Im Prinzip ist doch nur das bei der Suche relevant. Eben ob der Bildschirm im besten Fall LFC (braucht nicht jeder, ist immer vom einzelnen User abhängig, wenn ich bsw. nie unter 50fps kommen möchte dann bringt mir auch ein LFC oder möglichst niedrige min. Frequenz nichts, in dem Fall ist es nur ein Checklisten-Feature) unterstützt. Alles andere sind Teilbereiche die sich genau so negativ auf einen Bildschirm mit G-Sync oder ganz ohne VRR auswirken können.
Savay
2019-01-07, 17:11:12
Nutzlos, Schrott, Checklisten-Feature.. hey aber Freesync
Das einzige was Nutzlos und Schr*** ist, ist dein Kommentar! :rolleyes:
Ich hab hier seit etwas über einem Jahr unter UHD primär 40-60Hz bzw. gemoddete 33-60Hz im Einsatz und das ist eine massive(!) Verbesserung ggü. normal gesyncten 60Hz. :freak:
Der offensichtliche "Trick" ist es eh nur die min FPS im Worst-Case in einem gegebenen Spiel einfach nur passend einzustellen...und jeder der in der Lage ist zu sehen/verifizieren das A-Sync auch zieht, sollte grade dazu durchaus befähigt sein.
LFC zu nutzen um damit dauerhaft 30Hz oder weniger zu fahren ist eher überflüssig wie ein Kropf...da ruckelt es eh und man hat dadurch weitaus größere Probleme als gelegentliches Tearing. :crazy:
Das ist vor allem bei HFR Panels nützlich, bei denen die min. Wiederholrate vergleichsweise hoch liegt.
dargo
2019-01-07, 17:12:46
Der hier und Freesync funktionierte definitv nicht unter 40Hz
Du hast vorhin noch von min. 45Hz gesprochen. Also ist es entweder ein 40-60Hz Bildschirm und die Angaben von GH sind falsch (auf diese würde ich mich eh nie blind verlassen) oder der Treiber spinnt.
aufkrawall
2019-01-07, 17:13:03
Richtig, FreeSync ist auch bei nicht optimaler Range eine große Verbesserung. Man kann bei genug Leistung mit niedrigem Lag und ohne Tearing gleichzeitig spielen, was sonst nicht möglich wäre. Außerdem wird der borderless Modus ohne ekliges DWM-Vsync erst brauchbar.
Sven77
2019-01-07, 17:16:01
Du hast vorhin noch von min. 45Hz gesprochen. Also ist es entweder ein 40-60Hz Bildschirm und die Angaben von GH sind falsch (auf diese würde ich mich eh nie blind verlassen) oder der Treiber spinnt.
ich teste es die Woche gerne nochmal
dargo
2019-01-07, 17:22:57
ich teste es die Woche gerne nochmal
Laut TH (und bei denen gehe ich davon aus, dass die kompetent genug sind um das beurteilen zu können) beträgt die Freesync-Range 24-60Hz.
You do get FreeSync support though, over an impressive 24-60Hz range. That enables low-frequency compensation (LFC), so you’ll never see a tear, even your framerates dip into very low territory.
https://www.tomshardware.com/reviews/benq-ew3270u-ultra-hd-hdr-monitor,5587.html
Probiere am besten mehrere Treiber falls es mit einem nicht geht.
Loeschzwerg
2019-01-07, 17:26:31
Alles andere sind Teilbereiche die sich genau so negativ auf einen Bildschirm mit G-Sync oder ganz ohne VRR auswirken können.
Ja, genau darum ging es mir.
Wenn es in eurer Diskussion nur um die Range ging, alles gut, habe ich nichts gesagt.
Unicous
2019-01-07, 17:53:33
@Sven77
FreeSync-Zertifizierung ist mehr als nur eine Checkliste mit genau einem Eintrag.:rolleyes:
Im Übrigen ist Adaptive Sync der Standard, FreeSync ist die Implementierung/Zertifizierung seitens AMD.
Dass AMD die Range anfangs so deutlich vernachlässigt hat ist mehr als kritikwürdig und wurde hier schon seitenlang besprochen. Nach all den Jahren hier anzukommen und zu sagen: "Range scheiße, alles Scheiße" ist einfach nur trollen.:rolleyes:
Die Situation hat sich seitdem deutlich gebessert, Mindest-Range für "FreeSync" ist jetzt immerhin schon 20 Hz (edit: Quatsch, war es iirc schon immer die 45Hz haben mich verunsichert), was immer noch viel zu wenig ist, besonders bei 60Hz Monitoren, aber dafür wurde die Spec bei FreeSync 2 noch einmal verschärft.
AMD wollte die Spec in Monitoren sehen und hat mit den Herstellern für die Display-Elektronik und den Monitorherstellern verhandelt. Das was dabei anfangs herauskam war zum Teil mehr als unterwältigend, aber die Schuld allein AMD in die Schuhe zu schieben während es sogar kleine Klitschen wie Nixeus geschafft haben, ihre Monitiore mit einer Range von 30-144Hz zu kalibrieren (den ersten Monitor hatten sie übrigens schon 2015 mit dieser Range herausgebracht) finde ich... bemerkenswert.
Klar hätte AMD von Anfang an deutlich strengere Specs für die Zertifizierung verlangen können... nur hätte es dann wahrscheinlich keine Adaptive Sync Monitore auf absehbare Zeit gegeben.
Wenn AMD und Nvidia (und potentiell auch Intel) von Anfang an einen kollaborativen Weg eingeschlagen hätten würden wir uns jetzt vermutlich nicht einer Masse an minderwertigen Produkten herumschlagen müssen. Nvidia hatte genug Zeit sich mit den Herstellern zu verständigen und anfangs war es ja nichts weiter als eine frickelige "Mod" mit genau einem "kompatiblen" Monitor.
Die Zeit und Arbeit die Nvidia in diese Mod investierte hätte genauso gut in eine offene Spec (oder zumindest Industrie-Spec) fließen können. Genau das hat AMD dann ein paar Monate später angekündigt (und Intel davor mit PSR, das zu der Zeit schon in Produkten implementiert war) und im nächsten Jahr gab es dann schon Adaptive Sync. Nvidia als VESA-Mitglied hat das nicht tangiert. Sie hätten jederzeit mit einsteigen können, Druck ausüben, Specs ausarbeiten, etc.. G-Sync wurde Ende 2013 angekündigt. Es sind also über 5 Jahre vergangen in denen (so gut wie) nichts passiert ist.
Wenn Jensen die Gamer so am Herzen liegen hätte er hier die Initiative ergreifen müssen zum Wohle aller Gamer. Ich habe aber irgendwie das Gefühl das ihm nur die Gamer am Herzen liegen, die seine Produkte kaufen. Ist aber nur so ein Gefühl.:freak:
Jetzt auf einmal wird natürlich alles besser, nur sind die "kompatiblen" Monitore jetzt auch nicht wirklich konsisten in ihrem Specs. Es gibt genau zwei AOC-Monitore die bis auf 30Hz runter gehen, er Rest startet bei 40 bzw. 48 Hz.
Dazu gibt es jetzt G-Sync Ultimate (früher G-Sync HDR), also 3 verschiedene "Specs". Soll das jetzt dem Konsumenten bei der Auswahl helfen?
Nvidia legt sich hier ins gelegte Nest der deutlich größeren Auswahl, sucht sich die "besten" Äpfel aus, "zertifiziert" sie und das wars?
Im Übrigen, die bislang zertifizierten Monitore sind jetzt auch nicht das was ich mir unter einem Premium G-Sync (compatible) Monitor vorstelle. Fast alle TN, der Großteil 24", fast alle 1080p.
Ich hatte ja die Hoffnung, dass Nvidia mit diesem Schritt auch in Adaptive Sync "investiert", bislang sieht es eher nach me too aus.
An der Situation wird sich also nicht viel ändern.
Die Monitorhersteller bringen jedes Jahr wieder ein paar Halo-Produkte heraus und der Rest ist Aufguss vom letzten Jahr. Der wiederum Aufguss vom vorhergehenden Jahr war.
Die Monitor-Landschaft hat sich nicht grundlegend verändert, also tut doch bitte nicht so, als läge das allein an Adapative Sync bzw. konkret FreeSync.
Unicous
2019-01-07, 18:11:54
Ryan Smith vermutet übrigens, dass Nvidia Geld verlangen könnte fürs Branding:
If nothing else, I fully expect that NVIDIA will charge manufacturers to use the G-Sync branding in promotional materials and on product boxes, as NVIDIA owns their branding. But I’m curious whether certification itself will also be something the company charges for.
https://www.anandtech.com/show/13797/nvidia-to-support-vesa-adaptive-sync-with-gsync-compatible-branding
Was im Umkehrschluss bedeutet, dass die Monitore teurer werden.:uup:
Schöne neue Nvidia Welt. Big (cost increase) if true.:freak:
Man hätte sich auch unter einem gemeinsamen Label zusammenfinden können, aber das wäre wohl zu einfach gewesen.
Loeschzwerg
2019-01-07, 18:22:06
Die Praxis wird zeigen ob man da überwiegend nicht eh auf das "G-Sync branding" wird pfeifen können. Schön wäre es zumindest.
Unicous
2019-01-07, 18:28:45
Ich glaube niemand der Hersteller möchte auf ein Nvidia-Branding auf seiner Packung verzichten.:wink:
Den Preis zahlt man gerne... und reicht die Rechnung gleich weiter an den Kunden.
Wir werden sehen, aber da es beim "normalen" G-Sync Branding nicht anders ist vermute ich, dass Nvidia hier keine Ausnahme macht.
Birdman
2019-01-07, 18:48:36
FreeSync-Zertifizierung ist mehr als nur eine Checkliste mit genau einem Eintrag.:rolleyes:
FreeSync als Label taugt nun mal einfach nullkommanix.
Die entsprechende "Zertifizierung" hat keinerlei Requirements, welche über den initialen VESA Standard von Adaptive-Sync hinausgehen.
Unicous
2019-01-07, 18:56:29
Das ist eine Falschaussage.
Birdman
2019-01-07, 18:58:45
Die Praxis wird zeigen ob man da überwiegend nicht eh auf das "G-Sync branding" wird pfeifen können. Schön wäre es zumindest.
Gehe davon aus dass jeder Adaptive-Sync Monitor welcher die G-Sync Specs erfüllt auch entsprechend vom Hersteller zertifiziert wird.
Die paar Dollar dies es kosten wird, lassen sich gut irgendwo im Endpreis verstecken - zumal das ja jetzt schon relativ teure Monitore sind. (auch die in der Freesync Ecke)
Schlussendlich ist doch jeder froh wenn er nicht mehr zwei Produktreihen wegen Freesync und G-Sync fahren muss. Da fallen dann auch wieder einige Kosten weg, weil nur noch eine Assembly Line, eine Verpackung, eine Marketingkampagne, etc. und das für ein nun mehr gemeinsames und somit grösseres Verkaufsvolumen von einem Display.
Blediator16
2019-01-07, 20:43:22
Gehe davon aus dass jeder Adaptive-Sync Monitor welcher die G-Sync Specs erfüllt auch entsprechend vom Hersteller zertifiziert wird.
Die paar Dollar dies es kosten wird, lassen sich gut irgendwo im Endpreis verstecken - zumal das ja jetzt schon relativ teure Monitore sind. (auch die in der Freesync Ecke)
Schlussendlich ist doch jeder froh wenn er nicht mehr zwei Produktreihen wegen Freesync und G-Sync fahren muss. Da fallen dann auch wieder einige Kosten weg, weil nur noch eine Assembly Line, eine Verpackung, eine Marketingkampagne, etc. und das für ein nun mehr gemeinsames und somit grösseres Verkaufsvolumen von einem Display.
Bei Nvidia ist alles möglich siehe GPP.
CompuJoe
2019-01-07, 21:47:23
Da bin ich mal gespannt ob das mit meinem AOC Q3279VWF funkt.
Kollege von mir fährt den mit mod auf 37-75Hz.
Unicous
2019-01-07, 23:48:21
Ich schaue mir gerade den Teil von der Keynote an wo er über FreeSync spricht.
Ich wusste gar nicht, dass Nvidia, "Async" Adaptive Sync erschaffen hat.:eek:
Ich zitiere(eigene Trankskription):
Well, the invention of G-Sync and us working with the ecosystem inspired all of the panels to get better. And we worked with the VESA industrial standards body to create what ist called "Async", Adaptive Sync. Adapative Sync has been adopted by panel makers all over the world.
Das wusste ich gar nicht. Nvidia hat die ganze Zeit hinter "Async" gesteckt (übrigens das erste Mal dass ich diese Abkürzung höre.:uponder:) Nur etwas merkwürdig, dass sie es es all die Jahre nicht unterstützt haben. Warum hat Jensen seine eigene Kreation wie ein unerwünschtes Kind gemieden?:frown:
edit:
So viel Chuzpe muss man erst mal haben. Jensen sagt wir haben 400 Monitore getestet. Von denen sind alle scheiße bis auf 12. Die sind nicht ganz so scheiße, deswegen kleben wir ein Logo mit unserem Namen drauf. Was er verschweigt: Nicht nur kommt ein großer Teil von den Monitoren, die sie getestet haben von Asus, Acer, AOC, BenQ und Co., er sagt damit eben diesen Herstellern: Euer komplettes (Adaptive Sync) Produktportfolio ist schlecht für "Gamer" bis auf die Handvoll Monitore die wir persönlich für gut befunden haben.
Wenn das nicht ein harmonisches Geschäftsverhältnis auf Augenhöhe ist.:freak:
Klevapalis
2019-01-07, 23:59:44
Das wusste ich gar nicht. Nvidia hat die ganze Zeit hinter "Async" gesteckt (übrigens das erste Mal dass ich diese Abkürzung höre.:uponder:) Nur etwas merkwürdig, dass sie es es all die Jahre nicht unterstützt haben. Warum hat Jensen seine eigene Kreation wie ein unerwünschtes Kind gemieden?:frown:
ASync ist schon ewig im DP-Standard nur eben nicht für die framegenaue Refreshrate, sondern zum Energiesparen in Mobilgeräten. Bei einem Video mit 24Hz ist es ziemlich sinnlos die GPU 60Hz refreshen zu lassen.
Und was hat NVIDIA nochmal so um die Zeit entwickelt? Ach ja, einen Mobilchip. Na, Sachen gibt's. Und NVIDIA ist auch mitglied im VESA. Na, Zufälle gibt's
Unicous
2019-01-08, 00:02:28
Das heißt Panel Self Refresh und nicht Async und kommt von Intel.:rolleyes:
Brillus
2019-01-08, 00:29:04
Ne Panel Self refresh ist wieder was anderes.
Es gibt einmal die Variante es auf eine beliebige aber Fest Refresh rate einzustellen. Und dann adaptive VSync wo jedes Bild eine andere Rate haben kann.
Panel Self Refresh ist, GPU sagt Monitor wenn ein neues Bild erwartet wird: Kein neues da benutz das alte nochmal.
CompuJoe
2019-01-08, 00:44:15
aSync baut doch auf dem PSR vom eDP auf oder nicht?
dildo4u
2019-01-08, 11:31:02
Gsync Kompatibel Demo Validiert vs nicht validiert.
6yCiBbQh2fA
Klevapalis
2019-01-08, 11:50:42
aSync baut doch auf dem PSR vom eDP auf oder nicht?
Nein, PSR ist ein zusätzlicher Framebuffer im Display, so dass die GPU gar kein Frame mehr senden muss, solange sich der Framebuffer nicht ändert, also der Displayinhalt statisch ist
AdaptiveSync ist einfach nur ein variabel länger VBlank, so dass die GPU eben bei 24Hz nur 24 Bilder pro Sekunde an das Display senden muss, statt auf 60 auffüllen zu müssen.
Troyan
2019-01-08, 11:51:20
aSync baut doch auf dem PSR vom eDP auf oder nicht?
Ja. PSR war für mobile Geräte gedacht, wo man beim Desktop und (Video-)Content dynamisch die Hz-Zahl anpassen konnte. Es war aber nie vorgesehen, dass das ganze für Spiele implementiert werden sollte.
Wobei ich nicht weiß, ob dies je irgendwo umgesetzt wurde damals.
RainingBlood
2019-01-08, 12:05:58
Kollege von mir fährt den mit mod auf 37-75Hz.
wie geht das?
BlacKi
2019-01-08, 12:34:27
Gsync Kompatibel Demo Validiert vs nicht validiert.
https://youtu.be/6yCiBbQh2fA
müsste der hier sein.
https://geizhals.de/lg-electronics-34uc79g-b-a1505099.html?hloc=de
Die Praxis wird zeigen ob man da überwiegend nicht eh auf das "G-Sync branding" wird pfeifen können. Schön wäre es zumindest.
ganz wohl nicht wie man es bei dildo auf yt sieht.
schund bleibt schund, solange nicht gsync compatible.
Gehe davon aus dass jeder Adaptive-Sync Monitor welcher die G-Sync Specs erfüllt auch entsprechend vom Hersteller zertifiziert wird.
Die paar Dollar dies es kosten wird, lassen sich gut irgendwo im Endpreis verstecken - zumal das ja jetzt schon relativ teure Monitore sind. (auch die in der Freesync Ecke)
Schlussendlich ist doch jeder froh wenn er nicht mehr zwei Produktreihen wegen Freesync und G-Sync fahren muss. Da fallen dann auch wieder einige Kosten weg, weil nur noch eine Assembly Line, eine Verpackung, eine Marketingkampagne, etc. und das für ein nun mehr gemeinsames und somit grösseres Verkaufsvolumen von einem Display.
die 400 monitore wurden doch schon von nv getestet.
Linmoum
2019-01-08, 12:39:29
wie geht das?
Mittels Custom Resolution Utility (CRU). Bei meinem LG UHD z.B. sind's damit statt der standardmäßigen 40-60Hz angepasste 33-60Hz.
https://www.monitortests.com/forum/Thread-Custom-Resolution-Utility-CRU
M4xw0lf
2019-01-08, 12:41:34
Bei meinem LG UHD z.B. sind's damit statt der standardmäßigen 40-60Hz angepasste 33-60Hz.
Same here.
Hott3X
2019-01-08, 14:39:51
Ich habe auch einen LG 27UD68P-B mit 40-60hz. Spiele im Moment Destiny 2 in 4K und das Läuft so mit >55fps, würde es da Sinn machen Freesync zu aktivieren?
Screemer
2019-01-08, 14:42:47
klar. damit hättest du kein tearing mehr.
dargo
2019-01-08, 15:28:21
müsste der hier sein.
https://geizhals.de/lg-electronics-34uc79g-b-a1505099.html?hloc=de
ganz wohl nicht wie man es bei dildo auf yt sieht.
schund bleibt schund, solange nicht gsync compatible.
Wenns mit AMD-Hardware problemlos läuft ist dann der Bildschirm schund oder eher der Nvidia-Treiber? ;)
klar. damit hättest du kein tearing mehr.
Und kein Stuttering. :)
Deathcrush
2019-01-08, 20:17:09
Hmm, von 400 Monitoren bekamen nur 12 das Gsync compatible. Das hört sich ja bisher nicht so spannend an.
M4xw0lf
2019-01-08, 20:22:01
Hmm, von 400 Monitoren bekamen nur 12 das Gsync compatible. Das hört sich ja bisher nicht so spannend an.
Die anderen funktionieren trotzdem. Nvidia hat halt bisher nur diesen wenigen Modellen ihren shiny Aufkleber verpasst, den sie sich vielleicht, vielleicht auch nicht, weiterhin vom Hersteller bezahlen lassen.
Deathcrush
2019-01-08, 20:43:46
Die Frage ist ob es dann nicht zu problemen kommen kann
Tobalt
2019-01-08, 22:08:58
Ich glaube dass diese Hersteller einfach dafür bezahlt haben... ist ja jetzt nicht so als gebe es keine anderen guten freesync monitore.
BlacKi
2019-01-08, 23:09:14
ich glaube das wir ein neues testkriterium bei monitoren mit async. funzt es auf nvidia?
EvilOlive
2019-01-08, 23:25:53
In einer Wochen wissen wir mehr, ich werde mal ein Feedback geben ob es bei meinem AOC problemlos funktioniert. :D
CompuJoe
2019-01-08, 23:35:33
Meinst du den AOC Q3279VWF?
Wenn ja, ich werde testen ^^
Ich hoffe meiner geht auch auf 37Hz runter, gibt welche da geht er Flimmer/Flackerfrei bis 30Hz.
akuji13
2019-01-08, 23:47:28
Ist heute der 01.04.?
Hätte nicht gedacht das das bei den Vorzeichen in Sachen Marktanteil noch passiert.
Das G-Sync als Premium Produkt beibehalten wird hatte ich mir aber schon vor Jahren gedacht.
Ansonsten müsste man eingestehen das man gescheitert ist oder zumindest die Ziele nicht erreicht hat.
Auch wenn ich VRR aktuell gar nicht mehr nutze bin ich doch sehr gespannt bin ich wie das mit den Geräten hier klappt.
Und ob im Treiber irgendwelche Hintertürchen eingebaut sind die bestimmte Geräte benachteiligen und was später per hack umgangen wird. ;)
Ich glaube dass diese Hersteller einfach dafür bezahlt haben... ist ja jetzt nicht so als gebe es keine anderen guten freesync monitore.
Wenn z.B. BenQ bezahlt hätte wäre es verwunderlich das nicht mehr Geräte aus dem Portfolio genannt wurden.
Reaping_Ant
2019-01-09, 04:24:17
Ich bin schon mal gespannt wie gut NV@ASync letztendlich funktionieren wird - gibt ja doch noch einige Unbekannte: Kompatibilität im Bezug auf Spiele und Monitore, geht es im Fenstermodus, gibt es Framedoubling... Ich freue mich schon es in einer Woche selbst ausprobieren zu können.
Sollte es gut funktionieren, kann ich a) meine GTX 1080 noch gut ein oder zwei Jährchen behalten b) mir irgendwann einen 4K@120Hz ASync Monitor kaufen und würde c) NV bei der nächsten Grafikkarte wieder in die engere Auswahl nehmen. Gerade c) wäre mit GSync only keine Option mehr gewesen.
ApuXteu
2019-01-09, 07:06:46
Gsync Kompatibel Demo Validiert vs nicht validiert.
https://youtu.be/6yCiBbQh2fA
Das Video ist erschreckend. Ich kann mir beim besten Willen nicht vorstellen, dass Nvidia es nicht schaffen soll, einen Industriestandard vernünftig umzusetzen. Das ganze dürfte lediglich ein Versuch sein, Adaptive Sync für sich zu vereinnahmen und umzubenennen, damit die Monitorhesteller mit dem "Siegel" Geforce compatible (statt Adaptive Sync) gratis Werbung für Nvidia machen.
Ich war schon soweit in Betracht zu ziehen meine GTX1070 durch ein anderes Nvidia Modell zu ersetzen, aber nachdem ich das Video gesehen habe, wird es wohl ziemlich sicher eine AMD Karte werden, sobald was vernünftiges da ist.
Reaping_Ant
2019-01-09, 09:53:26
Das Video ist erschreckend. Ich kann mir beim besten Willen nicht vorstellen, dass Nvidia es nicht schaffen soll, einen Industriestandard vernünftig umzusetzen.
Ich würde mir jetzt aufgrund dieses Videos noch kein Urteil erlauben. Flackern mit Freesync tritt offenbar bei manchen Monitoren auch bei AMD auf, da scheint es eher an der Umsetzung seitens des Monitor-Herstellers zu hapern. Vielleicht hat man da auch einfach einen worst case ausgesucht um die GSync(-ready) Modelle gut dastehen zu lassen.
Sollte ASync auf NV tatsächlich schlechter laufen als auf AMD, dann muss man ihnen dafür natürlich auf die Finger klopfen.
Rancor
2019-01-09, 09:58:40
Naja erstmal ist es positiv das es überhaupt geht. Wenn es am Anfang Probleme gibt, dann würde ich da nicht sofort die Flinte ins Korn werfen.
Das Flickering Problem ist auch mit AMD Karten weit verbreitet.
https://www.google.com/search?q=AMD+Freesync+flickerin&rlz=1C1GCEU_deDE821DE821&oq=AMD+Freesync+flickerin&aqs=chrome..69i57j0l5.5447j1j4&sourceid=chrome&ie=UTF-8
Es ist offenbar ein generelles Problem.
Grendizer
2019-01-09, 10:01:05
Stand vor 3 Tagen:
nVidia ist böse, weil man sich für G-Sync Monitore entscheiden muss und die sind viel teurer als Freesync Monitore
Stand aktuell:
Ab dem 15.01. wird der vorhandene nicht validierte Monitor vieleicht unterstützt, aber in Zukunft habe ich die Option einen hochwertigen Monitor zu kaufen, der sowohl für nVidia als auch für AMD geeignet ist.
Ich finde diese Entwicklung sehr gut. Das vieleicht vorhandene Monitore nicht zuverlässig funktionieren werden ist bedauerlich, aber verschmerzbar. Niemand hat den Monitor gekauft in der Erwartung Freesync mit Nvidia nutzen zu können.
Freestaler
2019-01-09, 10:29:19
Naja erstmal ist es positiv das es überhaupt geht. Wenn es am Anfang Probleme gibt, dann würde ich da nicht sofort die Flinte ins Korn werfen.
Das Flickering Problem ist auch mit AMD Karten weit verbreitet.
https://www.google.com/search?q=AMD+Freesync+flickerin&rlz=1C1GCEU_deDE821DE821&oq=AMD+Freesync+flickerin&aqs=chrome..69i57j0l5.5447j1j4&sourceid=chrome&ie=UTF-8
Es ist offenbar ein generelles Problem.
Ja, das Problem existiert. Die Frage ist jedoch, ob dies mit GSync Label besser wird? Ist es den überhaupt ein "FreeSync" Thema oder eher ein Problem der aktuellen Displaytechnologie bzw. Displayqualität (inkl. Umsysteme wie Scaler)? Denn sogar bei GSync Monitoren gibt es das Flickering, und die sind doch schon "härter" geprüft:
https://www.google.com/search?safe=active&rlz=1C1GCEU_deDE821DE821&ei=cr41XMKLDoqysAfh6LmYBQ&q=gsync+flickerin&oq=gsync+flickerin&gs_l=psy-ab.3...3723.4543..4671...0.0..0.179.540.1j3......0....1..gws-wiz.......0i71j0i5i30j0i5i10i30j0i8i30j0i8i10i30.UBdOAflmN7Y
Generell als Konsument, mich freuts das wohl ASync nun weiter geht.Evtl. sind wir dann in 2-3 Jahren wirklich auf einem breiten Standard, der auch gut funktioniert (zu 99%, 1% miese Monitore wirds immer geben).
Rancor
2019-01-09, 10:30:51
Jo eben. Es wird unter Nvidia sicher nicht besser werden. Warum sollte es das auch? Ich gehe davon aus das es im Falle von Freesync einfach an der Implementation der Monitorhersteller liegt.
Käsetoast
2019-01-09, 10:46:26
Es kommt halt immer darauf an, ob Freesync ernsthaft umgesetzt wird, oder nur als Alibi-Feature mit drin ist, weil der Scaler der verbaut wurde das so ein Bisschen kann. Gerade bei den günstigen UHD Monitoren mit sehr schmalem Freesync Bereich wird die Umsetzung oft nur halbgar sein. Ich weiß nicht welcher Monitor das da war, aber das könnte einer sein von dem ich gelesen habe, wo ein Firmware Update des Flickern dann behebt bzw. ich gehe davon aus, dass wenn man per Hand die Freesync Range (noch) kleiner setzt, dass das Flickern dann besser wird / aufhört. Der Scaler von dem Monitor arbeitet da wohl am Limit und kommt nicht ganz hinterher...
Grundsätzlich finde ich es aber mutig von NVIDIA wie sie da die Monitore testen. Im Grunde machen sie ja genau das was ich mir irgendwo schon lange wünsche bzw. was ich in Tests dann immer nachlese: Nämlich wie gut die Bewegtbildqualität ist - trotz irgendwelchen ms Angaben kann das Overdrive nämlich einfach schlecht sein, so dass Bewegungen stark schmieren, Coronas oder Farbsäume haben und so weiter. Wenn eine Größe wie NVIDIA da jetzt testet und Hersteller vielleicht ein gutes Prüfsiegel haben wollen, dann tut sich bei der Qualität von Monitoren vielleicht was, die in den letzten Jahren wirklich nicht das Gelbe vom Ei war...
pilzsammler2002
2019-01-09, 10:48:30
Ich kann das flickern auch forcen auf nem Freesync. Der Monitor muss einfach nur an der unteren Grenze der Syncrange liegen und dort dann immer hin und her schalten zwischen lfc on/Off.
Wenn man nennt Spiel nimmt was 50hz forced (Crysis 1) kann man sogar nen kompletten blackscreen unter 50fps forcieren :freak:
Birdman
2019-01-09, 11:33:26
Das Video ist erschreckend. Ich kann mir beim besten Willen nicht vorstellen, dass Nvidia es nicht schaffen soll, einen Industriestandard vernünftig umzusetzen.
Die Situation stellt sich aktuell eher so dar, als ob diese Monitore kein gescheites Adaptive-Sync können, aber natürlich trotzdem das "Freesync" Label bekommen haben.
Dies weil AMD eben keinerlei Qualitätsansprüche an die Freesync Zertifizierung gestellt hat und somit jedes Display welches ein bisschen VRR beherscht damit herumläuft.
Dass nVidia bei der Demo nun sicherlich Situationen rausgesucht hat, bei denen solche Displays eben diese Probleme aufweisen ist natürlich klar - ging ja auch darum aufzuzeigen wieso sie solchen Geräten eben kein Gsync-Compatible Logo geben.
Kann gut sein dass man ansonsten mit diesen Displays in 95% der Fälle keinerlei Probleme bei der Verwendung von Adaptive-Sync hat und es einem daher nicht sofort aufällt oder man bei den andern 5% die Schuld dann eben auf die Applikation schiebt.
dargo
2019-01-09, 11:46:49
Das Flickering Problem ist auch mit AMD Karten weit verbreitet.
https://www.google.com/search?q=AMD+Freesync+flickerin&rlz=1C1GCEU_deDE821DE821&oq=AMD+Freesync+flickerin&aqs=chrome..69i57j0l5.5447j1j4&sourceid=chrome&ie=UTF-8
Es ist offenbar ein generelles Problem.
Mir gehts dabei nicht um Flickering in einzelnen Games sondern um generelles Flickering. Wenn einzelne Games flickern ist oft der Treiber schuld.
Klevapalis
2019-01-09, 11:50:42
Die Situation stellt sich aktuell eher so dar, als ob diese Monitore kein gescheites Adaptive-Sync können, aber natürlich trotzdem das "Freesync" Label bekommen haben.
Korrekt. FreeSync ist zu einem gewissen Teil ein mies implementiertes Checklist-Feature. Leider. Was zum Teil auch Schuld von AMD ist, denn z.B. LFC wurde zu Beginn gar nicht von AMD supportet.
Es wundert mich nicht, dass NVIDIA da nochmal eine extra Zertifizierung einführt. ASync selbst ist leider unzureichend.
dargo
2019-01-09, 11:52:04
Dass nVidia bei der Demo nun sicherlich Situationen rausgesucht hat, bei denen solche Displays eben diese Probleme aufweisen ist natürlich klar - ging ja auch darum aufzuzeigen wieso sie solchen Geräten eben kein Gsync-Compatible Logo geben.
Kann gut sein dass man ansonsten mit diesen Displays in 95% der Fälle keinerlei Probleme bei der Verwendung von Adaptive-Sync hat und es einem daher nicht sofort aufällt oder man bei den andern 5% die Schuld dann eben auf die Applikation schiebt.
Das ist mir etwas zu kurz gedacht. Wo ist der direkte Vergleich mit einer Radeon? Oder anders gefragt... was sagt so ein Test genau aus wenn ne Geforce mit Monitor X Probleme bereitet und eine Radeon nicht? Ich kenne da nur zwei Antworten. Entweder ist Geforce immer noch nicht 100% zu A-Sync kompatibel oder die Treiber sind noch nicht so weit.
Klevapalis
2019-01-09, 11:54:10
Das ist mir etwas zu kurz gedacht. Wo ist der direkte Vergleich mit einer Radeon? Oder anders gefragt... was sagt so ein Test genau aus wenn ne Geforce mit Monitor X Probleme bereitet und eine Radeon nicht?
Zeigen die im Video präsentierten Monitore im identischen Szenario mit einer Radeon ein anderes Verhalten?
Kartenlehrling
2019-01-09, 11:59:35
Wollt ihr nicht wirklich warten bis zum Treiberupdate?
Das jetzige Diskutieren ist doch lächerlich, wir reden doch nur von einer Woche.
Danach kann man immer noch sagen das A-sync Scheiße ist und G-sync nur das Wahre.
dargo
2019-01-09, 12:02:11
Zeigen die im Video präsentierten Monitore im identischen Szenario mit einer Radeon ein anderes Verhalten?
Es gab nur einen "Test" mit Geforce, zumindest in diesem Video.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11893957&postcount=6827
Wollt ihr nicht wirklich warten bis zum Treiberupdate?
Das jetztige Diskutieren ist doch lächerlich, wir reden doch nur von einer Woche.
Das ist wirklich das beste, es gibt noch zu viele Unklarheiten.
Klevapalis
2019-01-09, 12:06:12
Es gab nur einen "Test" mit Geforce, zumindest in diesem Video.
Eine Demo. Und hättest du das Video Mal geschaut, wäre dir die Aussage aufgefallen, dass die identischen Probleme auch mit einer Radeon auftreten ;)
dargo
2019-01-09, 12:18:25
Da passt aber was nicht zusammen. Oder glaubst du ernsthaft von den >500 A-Sync Monitoren würden nur 12 ordnungsgemäß mit einer Radeon funktionieren? :freak:
Käsetoast
2019-01-09, 12:18:56
Zeigen die im Video präsentierten Monitore im identischen Szenario mit einer Radeon ein anderes Verhalten?
Auf der Tonspur wurde gesagt, dass es auch mit einer Radeon flackert. Da man das genaue Modell nicht kennt, kann man nur spekulieren, aber es gibt in der Tat Monitore die solche Probleme haben, auch wenn so ein Flackern extrem selten ist. Ich tippe da auf einen der großen und teilweise günstig angebotenen UHD Monitore wo so ein 40 - 60 Hz Alibi Freesync angeboten wird, nur dass der Scaler dabei am Limit arbeitet...
Das Schmieren ist bei VA Displays auch eher Standard, denn nur wenige kriegen das Overdrive gut in den Griff bzw man muss sich halt die Frage stellen, inwiefern VA Displays 144 Hz überhaupt schaffen können. Viele so verkaufte Displays werden solche Schaltzeiten technisch einfach nicht packen können. Da wird halt so lange rumgespielt bis man in irgendeiner Spezial Situation entsprechende Reaktionszeiten schafft, aber bei realen Bildwechseln sind die Kristalle einfach zu langsam für 144 Hz und übersteuern dann auch noch und man kriegt ein unschönes Bild...
Klevapalis
2019-01-09, 12:22:50
Da passt aber was nicht zusammen. Oder glaubst du ernsthaft von den >500 A-Sync Monitoren würden nur 12 ordnungsgemäß mit einer Radeon funktionieren?
Du hast ein massives Verständnisproblem. Wo soll das jemand behauptet haben?
Dein Strohmann ist gerade umgefallen ;)
Auf der Tonspur wurde gesagt, dass es auch mit einer Radeon flackert. Da man das genaue Modell nicht kennt, kann man nur spekulieren, aber es gibt in der Tat Monitore die solche Probleme haben, auch wenn so ein Flackern extrem selten ist.
Ja und nichts weiter sagt NVIDIA in der Demo. Es wird sich auch nicht über die Häufigkeit geäußert, auch wenn das manche - s.o. - da gern hinein interpretieren wollen, um endlich ihren Strohmann zu finden ;)
Birdman
2019-01-09, 12:31:18
Zeigen die im Video präsentierten Monitore im identischen Szenario mit einer Radeon ein anderes Verhalten?
Im Test wird nur Geforce gezeigt, der Journalist meint aber dass nVidia ihm erzählt hat, dass beim verwendeten Setup die genau gleichen Probleme auch mit einer Radeon zum Vorschein kommen.
Da ich hier mal die Aussage von nVidia nicht als Lüge ansehe, stellt sich mir nur die Frage ob man hier einfach bewusst ganz spezielle Game/Monitor Einstellungen verwendet hat (welche dazu führen dass sich dieses flickering zeigt) und man dies im "Normalbetrieb" gar nicht habe würde - egal mit welcher Grafikkarte.
dargo
2019-01-09, 12:33:25
Du hast ein massives Verständnisproblem. Wo soll das jemand behauptet haben?
Das impliziert diese Demonstration. Ansonsten kannst du mir gerne erklären warum nur 12 Monitore den ominösen Test (Details unbekannt) von Nvidia bestanden haben.
btw.
Merkwürdig finde ich auch, dass man bei der Demonstration den Hersteller bei den beiden nicht kompatiblen Bildschirmen unkenntlich macht. Was hat man hier zu verbergen? Wenn das tatsächlich stimmt, dass diese Bildschirme die gleichen Probleme auch mit einer Radeon haben dann sollte man das auch Publik machen. Dann erfühlen diese Monitore einfach nicht die Spezifikationen.
Käsetoast
2019-01-09, 12:35:58
Da ich hier mal die Aussage von nVidia nicht als Lüge ansehe, stellt sich mir nur die Frage ob man hier einfach bewusst ganz spezielle Game/Monitor Einstellungen verwendet hat (welche dazu führen dass sich dieses flickering zeigt) und man dies im "Normalbetrieb" gar nicht habe würde - egal mit welcher Grafikkarte.
Ein "Spezialfall" was Software & Spiel angeht besteht hier denke ich nicht. Es gibt halt tatsächlich Monitore, die einfach nicht gut sind. Bei Youtube lassen sich auch diverse Videos zu Freesync Problematiken finden. Ich gehe also davon aus, dass der dargestellte Fall im großen Ganzen schon den "Normalbetrieb" darstellt. Natürlich sieht man hier so ziemlich den absoluten Worst Case der eintreten kann, aber es ist ja auch naheliegend, dass NVIDIA genau diesen Fall hier demonstriert. Das sowas die absolute Ausnahme (und Grund warum man Monitore möglichst nur dann kauft, wenn man einen Test dazu gelesen hat) ist hängt NVIDIA natürlich nicht an die große Glocke - ihr GSync Ansatz soll halt möglichst positiv darstehen. Business as usual halt und nichts Ungewöhnliches oder Verwerfliches...
Ich würde aber tatsächlich davon ausgehen, dass wenn man per Hand den Freesync Range des flackernden Monitors beschränkt, der dann ohne Flackern funktionieren würde...
Das impliziert diese Demonstration. Ansonsten kannst du mir gerne erklären warum nur 12 Monitore den ominösen Test (Details unbekannt) von Nvidia bestanden haben.
NVIDIA hat wohl tatsächlich auch die Bildqualität getestet bzw. die Schaltzeiten. Da werden viele VA Displays schonmal direkt rausfallen. Bei vielen Monitoren hast du dann auch noch größeren Input Lag - das killt dann auch nochmal viele Monitore wenn du so ein "Für's Gaming Optimal"-Siegel haben willst. Dann nimmst du noch Monitore, die keinen großen Freesync Range haben - auch suboptimal für das geilste Gaming Erlebnis und schon fallen auch die raus...
Das ist jetzt schon alles nichts Ungewöhnliches und auch Grund, warum es in Monitor Kaufberatungen eigentlich immer nur ganz wenige Empfehlungen gibt, denn Monitore, die wirklich rundum gut sind, sind sehr selten...
Troyan
2019-01-09, 12:39:31
nVidia macht doch keine Aussage, welche Probleme welche Monitore haben. Die beiden Monitore sind einfache Beispiele.
Es ist nur die Demonstration, was man bei einem normalen A-Sync Monitor im schlimmsten Fall erwarten kann. Aber vielleicht legen nun Tests viel mehr Wert auf solche Probleme und die Leute bekommen einen besseren Überblick.
Mangel76
2019-01-09, 12:40:57
Auf der Tonspur wurde gesagt, dass es auch mit einer Radeon flackert.
Das hätte ich gern unabhängig bestätigt, sagen kann man viel, warum hat man es nicht direkt demonstriert???
Das Schmieren ist bei VA Displays auch eher Standard, denn nur wenige kriegen das Overdrive gut in den Griff bzw man muss sich halt die Frage stellen, inwiefern VA Displays 144 Hz überhaupt schaffen können. Viele so verkaufte Displays werden solche Schaltzeiten technisch einfach nicht packen können. Da wird halt so lange rumgespielt bis man in irgendeiner Spezial Situation entsprechende Reaktionszeiten schafft, aber bei realen Bildwechseln sind die Kristalle einfach zu langsam für 144 Hz und übersteuern dann auch noch und man kriegt ein unschönes Bild...
Da stimme ich dir zu, hat jedoch überhaupt nichts mit A-/Free-/G-Sync zu tun, sondern nur mit der Monitorqualität.
Die ganze Diskussion hier geht doch am eigentlichen Thema völlig vorbei. Die einen argumentieren mit den Qualitätskriterien von GSync als Maßstab und Kennzeichen eines hochqualitativen Monitors. Als solches sicher sehr nützlich. Die anderen argumentieren einfach mit einer Fähigkeit des Monitors, die einem offenen Standard entspricht. Also solches ebenfalls nützlich. Was man eben nicht machen sollte, ist beides gleichzusetzen und dann darüber zu diskutieren. Beide haben nunmal unterschiedliche Zielsetzungen und Informationsgehalte. Und wer sich einen neuen Monitor kaufen möchte, sollte sich unabhängig von diesen Kennzeichnungen über Eigenschaften und Qualitäten der infrage kommenden Geräte informieren.
Birdman
2019-01-09, 12:44:11
Da passt aber was nicht zusammen. Oder glaubst du ernsthaft von den >500 A-Sync Monitoren würden nur 12 ordnungsgemäß mit einer Radeon funktionieren? :freak:
Was heisst funktionieren?
Flickering zeigen sicher nur die wenigsten, aber wenn man noch all die Displays mit leichten Blur-Erscheinungen abzieht und vor allem all die welche kein LFC beherschen, dann bleiben schnell nicht mehr viele Geräte übrig, welche die nVidia Requirements für ein "GSync-Compatible" Logo erfüllen.
Ich muss ja nur in diesen Thread schauen um zu sehen dass die meisten User hier ein Freesync Setup verwenden, welches zwar grundsätzlich funktioniert, aber aufgrund fehlendem LFC und nur 60Hz Refreshrate nie eine GSync Kompatibilität erhalten würden.
Käsetoast
2019-01-09, 12:51:54
Ich denke man sollte sich einfach mal angucken, wieviele FreeSync 2 Monitore es gibt. Da kann man nämlich denke ich schon eher von "vernünftigem" FreeSync sprechen (auch wenn es keine rundum glücklich Garantie ist - einer der Samsungs damit hatte ja auch Flackerprobleme bis eine Firmware kam). Obwohl es das nun schon eine ganze Weile gibt, haben wir glaube ich immer noch nichtmal 10 Monitore mit so einem Siegel auf dem Markt. Wenn NVIDIA da dann entsprechend die Kriterien setzt (und die getesteten Monitore "clever" auswählt) ist es kein Wunder, dass nur wenige den Test bestehen...
dargo
2019-01-09, 12:51:55
Ich muss ja nur in diesen Thread schauen um zu sehen dass die meisten User hier ein Freesync Setup verwenden, welches zwar grundsätzlich funktioniert, aber aufgrund fehlendem LFC und nur 60Hz Refreshrate nie eine GSync Kompatibilität erhalten würden.
Fehlendes LFC kann ich noch nachvollziehen wer Wert darauf legt, schließlich braucht es nicht jeder. Aber max. 60Hz? Wie haben dann die ganzen 4k 60Hz Bildschirme ein G-Sync-Logo bekommen?
Ich denke man sollte sich einfach mal angucken, wieviele FreeSync 2 Monitore es gibt. Da kann man nämlich denke ich schon eher von "vernünftigem" FreeSync sprechen (auch wenn es keine rundum glücklich Garantie ist - einer der Samsungs damit hatte ja auch Flackerprobleme bis eine Firmware kam). Obwohl es das nun schon eine ganze Weile gibt, haben wir glaube ich immer noch nichtmal 10 Monitore mit so einem Siegel auf dem Markt. Wenn NVIDIA da dann entsprechend die Kriterien setzt (und die getesteten Monitore "clever" auswählt) ist es kein Wunder, dass nur wenige den Test bestehen...
Das ist kein Argument. Bei den 12 zertifizierten A-Sync Monitoren gibt es mindestens einen (ich habe mir nicht alle genauer angesehen) der kein Freesync 2 unterstützt.
@Käsetoast
Das mit VA ist mir auch etwas weit hergeholt. Bei GH sehe ich sechs 144Hz G-Sync Bildschirme.
Käsetoast
2019-01-09, 12:59:07
Das ist kein Argument. Bei den 12 zertifizierten A-Sync Monitoren gibt es mindestens einen (ich habe mir nicht alle genauer angesehen) der kein Freesync 2 unterstützt.
Es ging mir darum zu sagen, dass Freesync 2 ja nun auch keine besonders hohe Hürde darstellt. Trotzdem kommt da nur ultimativ langsam tröpfelnd was auf den Markt. Die meisten Monitore setzen diese ganze Thematik halt nur sehr stiefmütterlich um - man sollte meinen jeder neu angekündigte Monitor, der jetzt nicht ein Preisdrücker sein will, sollte heutzutage FreeSync 2 sein. Ist aber nicht der Fall - der Großteil kommt ohne auf den Markt. Einen Monitor kann man meiner Meinung nach nur nach einem Test mit gutem Gewissen kaufen - ansonsten kauft man immer die Katze im Sack wo es irgendwo einen ganz großen Haken geben kann, der in den Spezifikationen so nicht rauslesbar ist...
Birdman
2019-01-09, 13:00:41
Die einen argumentieren mit den Qualitätskriterien von GSync als Maßstab und Kennzeichen eines hochqualitativen Monitors. Als solches sicher sehr nützlich.
Das macht hier keiner, gewisse "Fans" aus dem andern Lager deuten das aber gerne so, damit es ihnen besser in den Kram passt.
GSync ist allenfalls ein Qualitätskriterium für ein hochwertiges (smooth, lagfrei, oder wie auch immer man das bezeichnen will) Spielgefühl, hat aber sicher keinerlei Anspruch darauf das allgemeine Kennzeichen eines hochqualitativen Monitors zu sein - um hier mal deine Worte zu verwenden.
Genausowenig wie die Aussage "Freesync ist Schrott" impliziert, dass ein entsprechend damit ausgerüsteter Monitor schlecht sei. Höchstens dass halt dessen relevanten A-Sync Fähigkeiten (LFC, Sync Range, etc) trotz Zertifizierung mager ausfallen können und somit ein ruckelfreies Gaming nicht oder nur in einem sehr eingeschränken Rahmen möglich ist.
Birdman
2019-01-09, 13:07:05
@Dargo
Es gibt nur sehr wenige 60Hz GSync Displays, die meisten haben 100Hz und mehr. Afaik brauchts für GSync aber halt zwingend LFC und damit dies bei 60Hz Displays geht, muss deren min. Refreshrate auf bis zu 24Hz runter und das können halt nur ganz wenige.
AMD hat bei "Freesync 2" gewisse Requirements für HDR drin, was "GSync-Compatible" nicht hat.
Dies hat nVidia dann erst in Ihrem "GSync-Ultimate" dann drin, oder wie die das auch genau genannt haben.
dildo4u
2019-01-09, 13:10:22
Freesync als Spec ist viel zu lose,es gibt Samsung 4KTV die können "Freesync" dort geht es von 48 zu 60hz. Was für PC Gameing ein Witz wäre.
dargo
2019-01-09, 13:28:49
Es ging mir darum zu sagen, dass Freesync 2 ja nun auch keine besonders hohe Hürde darstellt. Trotzdem kommt da nur ultimativ langsam tröpfelnd was auf den Markt. Die meisten Monitore setzen diese ganze Thematik halt nur sehr stiefmütterlich um - man sollte meinen jeder neu angekündigte Monitor, der jetzt nicht ein Preisdrücker sein will, sollte heutzutage FreeSync 2 sein.
Wird nur nicht passieren weil HDR am PC noch stiefmütterlich behandelt wird.
Klevapalis
2019-01-09, 13:39:53
Das impliziert diese Demonstration. Ansonsten kannst du mir gerne erklären warum nur 12 Monitore den ominösen Test (Details unbekannt) von Nvidia bestanden haben.
Schade, dass du das Video immer noch nicht geschaut hast. Denn der Punkt wird erklärt, als auch dein zweiter Punkt, den ich jetzt nicht zitiert habe.
Magst du vielleicht endlich Mal das Video schauen, bevor du weiterhin den Thread mit deiner völligen Unwissenheit shredderst? Danke.
Da ich hier mal die Aussage von nVidia nicht als Lüge ansehe, stellt sich mir nur die Frage ob man hier einfach bewusst ganz spezielle Game/Monitor Einstellungen verwendet hat (welche dazu führen dass sich dieses flickering zeigt) und man dies im "Normalbetrieb" gar nicht habe würde - egal mit welcher Grafikkarte.
Natürlich werden spezielle Einstellungen benutzt, welchen Sinn macht es denn bei einer Demo nicht das zu zeigen, was man zeigen möchte? :rolleyes:
Mangel76
2019-01-09, 13:48:03
Freesync als Spec ist viel zu lose,es gibt Samsung 4KTV die können "Freesync" dort geht es von 48 zu 60hz. Was für PC Gameing ein Witz wäre.
Und was hat das eine mit dem anderen zu tun? Freesync heißt einfach nur, dass die Refreshrate variabel ist. Es ist eben kein Kennzeichen für Super-Duper-Gaming-Bling-Bling! Freesync=ASync, nichts weiter. So eine kleine Range ist natürlich für Gaming nicht toll, dass hat doch aber mit Freesync an sich nichts zu tun??? Hier versucht man in diese Kennzeichnung etwas reinzuinterpretieren, was gar nicht enthalten ist, und wundert sich dann, dass es diese Aussage eben nicht enthält!
dildo4u
2019-01-09, 13:56:30
Und das ist Dreck für Kunden,Freesync sollte ein Game Fokus haben da es von AMD Gameing GPU Seite gepusht wird.Alles was nicht Zocker tauglich ist sollte unter VRR geführt werden.
Käsetoast
2019-01-09, 14:12:10
Es sollte einfach immer so sein, dass wenn man Freesync Support bietet, man auch die volle Range hat von 30 bis max Hz des Monitors bzw. da LFC schon interessant ist, sollte es für den Fall von 60 Hz Monitoren so sein, dass das untere Limit so tief liegt, dass LFC noch möglich ist...
Das Ganze natürlich dann auch ohne Probleme wie Flackern lauffähig versteht sich...
dargo
2019-01-09, 14:34:03
Es sollte einfach immer so sein, dass wenn man Freesync Support bietet, man auch die volle Range hat von 30 bis max Hz des Monitors bzw. da LFC schon interessant ist, sollte es für den Fall von 60 Hz Monitoren so sein, dass das untere Limit so tief liegt, dass LFC noch möglich ist...
Und warum sollte das so sein? Was hat ein high-fps Spieler von einem Bildschirm der bsw. mit 30Hz refreshen kann?
Das Ganze natürlich dann auch ohne Probleme wie Flackern lauffähig versteht sich...
Hier bin ich voll bei dir. Flackern darf der Bildschirm natürlich nicht, Treiberfehler ausgeschlossen versteht sich.
Savay
2019-01-09, 14:47:42
Und warum sollte das so sein?
Weil hier gerne viel rum theoretisiert wird. :rolleyes:
Praktisch sind 30FPS oder weniger für das Spielgefühl selbst in vielen langsamen Stategiespielen eh vollkommen unzureichend!
Ob es dann teart weil dort nicht mehr A-Sync zieht oder nicht ist tatsächlich eher ziemlich sekundär...man stellt die Spiele ja eh meistens so ein das man wohl eher nicht oder nur im Ausnahmefall überhaupt mal so tief droppt.
Und um normale Spikes und Schwankungen abzufangen und tearingfrei bei möglichst geringer Latenz zu spielen reicht auch bspw. async mit 40-60Hz inkl. ggf. Framelimiter allemal aus.
Nen HFR Panel bei dem das LFC nicht sauber zieht ist am Ende deutlich tragischer, zumal es auch oft schwerer ist entsprechend hohe FPS zu halten...
aufkrawall
2019-01-09, 14:56:12
Die Range sollte nur groß genug für perfektes LFC sein, sonst handelt man sich durch die steigende Helligkeitsdifferenz neue Flacker-Probleme ein.
Sven77
2019-01-09, 15:02:39
https://abload.de/img/freesynclai0v.jpg
Solche Monitore werden mit dem Freesync Label verkauft.. der weiter vorne genannte BenQ mit ner Vega FE und 18.Q4
das meinte ich mit "Freesync label ist nutzlos". Ob man damit brauchbares A-Sync erhält ist ein Glücksspiel
Savay
2019-01-09, 15:04:42
Das hat mit einem Glücksspiel doch nix zu tun.
Freesync sagt erstmal aus das mit einer Freesync fähigen AMD GPU VBlank genutzt werden kann.
Die Range ist bei jedem dieser Displays zudem immer mit angegeben!
Wer weiß warum und wofür er FS braucht, was das ist und wie es sich bemerkbar macht kann dann wohl auch anhand dieser Infos durchaus beurteilen ob die Range für die eigenen Bedürfnisse überhaupt ausreicht oder nicht!
Und wie gut das Gerät am Ende ist, kannst du von nem profanen Label eh nicht ableiten...von KEINEM davon, egal ob Rot, Grün oder Blau.
dargo
2019-01-09, 15:07:28
Die Kommentare zum Video finde ich putzig. :tongue:
Look Gordon, you fixed it - after you moved the mouse there was no blinking for 8 seconds.
So this guy's being told that the monitor would also flicker with a Radeon card even though that was never shown? What a load of BS.
I think the monitor that has the blinking issue is the LG 34UM69G-B (or similar), same stand atleast and I have had that monitor with a Vega 56 and RX 570 and had no issue with it. Currently I am on my third 34" ultrawide from LG and I have never had any issues at all that couldn't be traced back to something in the drivers.
Personally I think Nvidia is just trying to shine a negative light on "freesync", this is just marketing. "Our G-sync branding runs perfectly, but for a less than premium experience we approve only 12 of 400+ displays" truth be told is that Nvidia could have used the open standard from the beginning but found a way to charge customers for something that should be free. Poor drivers (Nvidia) doesn't mean that "Freesync" displays are bad. My experience with Freesync on multiple generations of Radeon cards and an MG279Q has been far better than what is displayed here.
I'm running a lg freesync ultrawide with my Radeon and I don't have any of those issue. Don't know what Nvidia is talking about
@Gordon Ung gordon dont lie to me!!! that first monitor was a samsung chg70 1440p 144hz. the tape was right over the samsung logo on mine. the samsung VAs are very overdriven according to reviewers. i had high hopes cause it was freesync 2. there are 3 response time settings so maybe that was just with the fastest overdrive setting. ill try it anyway. to be honest adaptive sync is not that big of a deal to me. i just lock to 135 or 150 fps depending on whether the game runs a bit above or bit below the refresh rate and i see no tearing that way. but it would be nice. if i can find settings that work ok ill let you know
Echt zu dumm, dass man nicht genau bestimmen kann welche Monitore es sind die da "durchgefallen" sind. Falls Nvidia bei dem angeblichen Samsung Bildschirm echt die höchte Overdriveeinstellung gewählt hat um das Ghosting zu zeigen wäre das schon ein harter Tobak.
Edit:
Apropo Gsync-Siegel. :ulol:
That flickering is most likely due to the overclocking of the monitor. I have a strix 1080Ti paired with an Acer X34A (3440x1440p, 34", Gsync, up to 100hz) - I get the same flickering while running at 100hz, turn down the monitor to 95hz and its working flawlessly. Keep in mind, that's a G-sync monitor already equipped with a module from Nvidia. So I call BS on their new certification, they just handpicked literally broken monitors or ones with B-sorted panels to show off. Any decent display will not have blur nor flickering regardless of panel type or sync technologies
Unicous
2019-01-09, 15:12:51
https://abload.de/img/freesynclai0v.jpg
Solche Monitore werden mit dem Freesync Label verkauft.. der weiter vorne genannte BenQ mit ner Vega FE und 18.Q4
das meinte ich mit "Freesync label ist nutzlos". Ob man damit brauchbares A-Sync erhält ist ein Glücksspiel
Offiziell sind 40-60Hz für diesen Monitor. Offensichtlich ist bei dir etwas nicht in Ordnung (oder BenQ lügt). 20Hz sind Mindestanforderung für FreeSync. Anstatt hier rumzumeckern hättest du schon längst hier oder in ähnlichen Threads nachfragen können, wo das Problem liegt, andere Treiber installieren können, z.B. den eigenen Treiber von BenQ (falls dieser nicht über WU schon installiert wurde). Es kann durchaus sein, dass Windows einen Standardtreiber für den Monitor installiert hat und die Range deswegen deutlich geringer ist.
edit:
Im Übrigen könnte es auch an HDMI liegen, falls du es nicht über Displayport angeschlossen hast.
Savay
2019-01-09, 15:14:59
del...
war quatsch.
Es ist im uebrigen nicht sofort sinnlos, nur weil die Range (zugegebenermassen sehr) klein ist. Es ist trotzdem immer noch besser als nix.
M4xw0lf
2019-01-09, 15:22:55
https://abload.de/img/freesynclai0v.jpg
Hat der Monitor in seinem OSD eventuell noch ein Setting für erweiterte FS-Range versteckt? Ist bei meinem LG so.
dargo
2019-01-09, 15:33:54
Im Übrigen könnte es auch an HDMI liegen, falls du es nicht über Displayport angeschlossen hast.
Laut Radeon-Settings ist sein Bildschirm über DP angeschlossen.
Edit:
Sein Bildschirm kann übrigens 24-60Hz.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11893306&postcount=6805
Warum er da min. 48Hz bekommt... keine Ahnung. Eventuell spinnt die Software bei einer Vega Frontier Edition. Müsste man mal mit RX Vega oder Polaris gegentesten.
fondness
2019-01-09, 15:34:37
https://abload.de/img/freesynclai0v.jpg
Solche Monitore werden mit dem Freesync Label verkauft.. der weiter vorne genannte BenQ mit ner Vega FE und 18.Q4
das meinte ich mit "Freesync label ist nutzlos". Ob man damit brauchbares A-Sync erhält ist ein Glücksspiel
Das ist noch immer um WELTEN besser als gar kein FreeSync. Denn dann hast du nur 60Hz VSync plus Lag.
Käsetoast
2019-01-09, 15:41:20
Und warum sollte das so sein? Was hat ein high-fps Spieler von einem Bildschirm der bsw. mit 30Hz refreshen kann?
Weil hier gerne viel rum theoretisiert wird.
Weil es in Spielen immer wieder dazu kommt, dass Cutscenes auf 30 fps (und weniger) begrenzt werden. Soll wohl dem Cinematic Look zuträglich sein. Ich hätte da halt gerne LFC aktiv, damit auch solche Bereiche schön dargestellt werden. Plus gerade jetzt wo die Monitore so groß werden will der eine oder andere sicher auch mal eine Konsole anstecken. Da sind geringe fps ja oft an der Tagesordnung...
Wenn eine kleine Klitsche wie Nixeus es beim EDG27 schafft 30-144 Hz anzubieten bei 27"@1440p was sonst am Markt quasi niemand schafft, dann kann das ja nicht so schwer sein...
Troyan
2019-01-09, 15:42:47
Nicht nur begrenzen. Ingame-Cutscenen können auch mit deutlich besserer Qualität laufen. So kann es sein, dass zwar Ingame-Gaming im Bereich des Intervalls liegt, aber die Cutscenen weit darunter...
Savay
2019-01-09, 15:53:13
Ich hätte da halt gerne LFC aktiv, damit auch solche Bereiche schön dargestellt werden.
Du kannst ja auch mit V-Sync + A-Sync + FastSync spielen... 30fps -> 60Hz
Wie gesagt...es ist in der Praxis ist das alles schon ziemlich unproblematisch!
Gibt weitaus schlimmeres.
Wenn eine kleine Klitsche wie Nixeus es beim EDG27 schafft 30-144 Hz anzubieten bei 27"@1440p was sonst am Markt quasi niemand schafft, dann kann das ja nicht so schwer sein...
Weil es halt auch komplett unnötig ist! Dafür gibt es ja das Framedoubling.
Faktor 2 reicht für LFC...Faktor 2,3-2,4 ist besser.
Sobald das erfüllt ist brauchst du eh keine 30-xxx Hz.
Und mit den faktisch dahingelogenen "Wiederholraten" der G-Sync Schirme braucht man das eh nicht vergleichen.
Klevapalis
2019-01-09, 15:53:26
Die Kommentare zum Video finde ich putzig.
Stimmt. Erinnert stark an dieses Forum. Alles BS nennen und dann selbst irgendwelchen Blödsinn dahin fabulieren ;D
Apropo Gsync-Siegel.
"overclock". Weiter muss man nicht lesen.
das meinte ich mit "Freesync label ist nutzlos". Ob man damit brauchbares A-Sync erhält ist ein Glücksspiel
Eben. Man muss sich nicht wundern, dass das teurere G-Sync verkauft wird, wenn die Alternative dermaßen problematisch ist. AdaptiveSync bot am Anfang ja nicht Mal LFC. Murks ist da noch nett formuliert.
Ist eben das Problem, wenn man voll in Hektik, weil die Konkurrenz etwas präsentiert hat, dass man selbst nicht bieten kann, schnell irgendein Feature missbraucht, um 70% des Ergebnisses zu erreichen und dann behauptet man hätte ja doch was im Petto.
Savay
2019-01-09, 15:55:21
Laberrabhahber...LFC ist ein Treiber/Softwarefeature...das hat mit A-Sync nur indirekt was zu tun. :facepalm:
aufkrawall
2019-01-09, 15:58:17
Weil es ja auch so viele Gsync VA-Geräte mit maximal 60Hz gibt. Lächerlich. :rolleyes:
dargo
2019-01-09, 15:58:24
Weil es in Spielen immer wieder dazu kommt, dass Cutscenes auf 30 fps (und weniger) begrenzt werden. Soll wohl dem Cinematic Look zuträglich sein.
Kann mich an solche Szenarien nicht erinnern. Aber vielleicht spiele ich auch die falschen Games. Feste 30fps sollten dennoch kein Problem darstellen. Wenn der Bildschirm nicht mit 30Hz refreshen kann läuft er halt in diesen Szenen mit 60Hz, ergo keine Probleme.
btw.
Wenn du ein Spiel erwischst welches bei Cutszenen/Zwischensequenzen streamt bzw. die nächste Szene nachlädt werden diese eh nicht flüssig laufen weil die Stocker vom Streaming kommen. Solche Spiele gibt es auch.
Klevapalis
2019-01-09, 15:59:55
Laberrabhahber...LFC ist ein Treiber/Softwarefeature...das hat mit A-Sync nur indirekt was zu tun. :facepalm:
AdaptiveSync ohne LFC ist aber einfach sinnlos. Gerade bei Ranges mit Minimum 40Hz oder gar mehr.
aufkrawall
2019-01-09, 16:01:13
AdaptiveSync ohne LFC ist aber einfach sinnlos. Gerade bei Ranges mit Minimum 40Hz oder gar mehr.
Ich habe es mit just so einer Range ausprobiert und komme zu einem anderen Schluss. Du erzählst wahrscheinlich nur aus der Ferne irgendeinen Foren-Stuss nach (oder denkst ihn dir selbst aus...).
Klevapalis
2019-01-09, 16:03:27
Ich habe es mit just so einer Range ausprobiert und komme zu einem anderen Schluss. Du erzählst wahrscheinlich nur aus der Ferne irgendeinen Foren-Stuss nach (oder denkst ihn dir selbst aus...).
Nein, leider Erfahrung. Die ersten FreeSync Monitore ohne LFC waren keine Freude. Dabei wurde doch - sogar hier im Forum - die Existenz von LFC bei G-Sync sogar auf breiter Front geleugnet. Da hat man immer auf so ein peinliches AMD-Chart mit "MinFPS 2Hz" gedeutet, während die VRR-Funktion bei 35fps ausstieg, während es bei G-Sync smooth weiter ging ;D
Savay
2019-01-09, 16:04:21
Ach....du spielst also gerne mit signifikant weniger als 40fps?!
Interessant.
Ich habe übrigens bisher ebenfalls eine komplett gegenteilige Erfahrungen gemacht.
LFC ist nett...kompensiert aber eh keine unzureichenden Frameraten....insofern ist es sowieso extrem Kontextabhängig wann und wo es wirklich wichtig ist.
IMHO primär bei ~50Hz+ bis 1xxHz Refresh....also idR eher bei HFR Monitoren.
Argo Zero
2019-01-09, 16:04:45
Benehmt euch, ansonsten Urlaub ahoi
maguumo
2019-01-09, 16:06:44
Warum sollte die Existenz von LFC geleugnet werden? Viel weiter als ~30Hz kommen aktuelle Panels nicht runter, wie sollte es ohne also funktionieren?
Warum adaptive sync ohne LFC schlechter sein sollte als gar kein adaptive sync verstehe ich auch nicht...
Klevapalis
2019-01-09, 16:07:53
Ach....du spielst also gerne mit signifikant weniger als 40fps?!
Interessant.
Nicht gerne.
Aber ich habe lieber bei einem kurzfristigen Framespike 30fps, als ein schwarzes Bild.
Was bringt mir VRR, wenn ich aus Angst vor flimmern sowieso bei 60 FPS spielen muss?
dargo
2019-01-09, 16:07:53
@Sven77
Warum schnappst du dir eigentlich nicht CRU und änderst die FS-Range manuell auf 24-60Hz? Das ist in wenigen Sekunden erledigt. Einfach die Range anpassen, neustarten und schauen wie sich der Bildschirm damit verhält. Offiziell kann er 24-60Hz. Kannst auch gerne paar Zwischenschritte nehmen wie bsw. 35-60Hz usw.
Savay
2019-01-09, 16:11:57
Aber ich habe lieber bei einem kurzfristigen Framespike 30fps, als ein schwarzes Bild.
Schwarzes Bild? Wieso denn ein schwarzes Bild? :freak:
Ich hatte noch nie eines...ausser ich provoziere es mit komplett versaubeutelten und untauglichen CRU Settings für das Panel.
Wenn du unter die VRR Range droppst teart es ohne V-Sync einfach nur...oder es lagt halt mit V-Sync! :rolleyes:
Wenn du schwarze Frames bekommst ist der Monitor einfach für die eingestellte Range nicht geeignet.
Klevapalis
2019-01-09, 16:13:08
Schwarzes Bild? Wieso denn ein Schwarzes Bild?
Sieh dir das Video an, dann diskutieren wir weiter.
Savay
2019-01-09, 16:15:31
Sieh dir das Video an, dann diskutieren wir weiter.
Und worüber? Das eine falsch konfigurierte Range zu Fehlern führt?
Das ist doch vollkommen offensichtlich. :freak:
Und jedem FS Nutzer der schonmal via CRU an der Range rumgespielt hat ziemlich sicher bekannt.
Es gibt übrigens Panels die (nicht nur) mit ihrer Default Range komplett unproblematisch sind....also bitte tue uns allen den gefallen und versuche hier keinen generellen FUD zu verbreiten zu wollen. :rolleyes:
unl34shed
2019-01-09, 16:16:03
Liefer doch eine technische Erklärung für das schwarze Bild, denn das ist Blödsinn.
Sven77
2019-01-09, 16:18:31
@Sven77
Warum schnappst du dir eigentlich nicht CRU und änderst die FS-Range manuell auf 24-60Hz? Das ist in wenigen Sekunden erledigt. Einfach die Range anpassen, neustarten und schauen wie sich der Bildschirm damit verhält. Offiziell kann er 24-60Hz. Kannst auch gerne paar Zwischenschritte nehmen wie bsw. 35-60Hz usw.
Freesync ist damit gar nicht nötig da es ein reiner Arbeitsmonitor ist. Ich wollte damit eigentlich nur auf die bandbreite der Qualität hinweisen die man mit dem Freesync-Label erhält. Nur um das gings mir in der Diskussion. Wenn dann nVidia herkommt und mit GSync compatible eine Art Qualitätskontrolle einbringt das sehr wohl einen Sinn haben kann..
Klevapalis
2019-01-09, 16:25:26
Und worüber? Das eine falsch konfigurierte Range zu Fehlern führt?
Das ist doch vollkommen offensichtlich.
Wie kann man denn bitte eine Range "falsch konfigurieren"? Da bin ich jetzt Mal sehr gespannt. Die Ansteuerung ist ja offensichtlich erstmal in Ordnung, es wird ja ein Bild zu 99% dargestellt. Nur flackert es hin und wieder, eher zufällig. Wie konfiguriert man das?
Liefer doch eine technische Erklärung für das schwarze Bild, denn das ist Blödsinn.
Das Zusammenspiel scaler/panel passt nicht.
Savay
2019-01-09, 16:29:31
Wie konfiguriert man das?
Ich denke du hast das alles intensiv ausprobiert und bist so ein alter Freesync Hase der da so profunde Erfahrungen mit hat?!?? :rolleyes:
Wenn die Grafikkarte mit einer für den Bildschirm faktisch zu niedrigen Wiederholrate versucht ein vblank an den Monitor zu schicken bekommt der Aussetzer, weil zwischen den Refreshes zuviel zeit vergeht....das führt dann in Konsequenz zu schwarzen Frames!
Um das zu provozieren kann man ganz einfach in CRU bei so gut wie jedem FS Bildschirm einfach nur eine absurd niedrige Wiederholrate für die Untergrenze eintragen...dann muss man nur die FPS in diese Regionen drücken und schon kann man das bewundern. :tongue:
Also ehrlich.
Bei meinem LG UHD von Anno 2015 ist das übrigens super einfach.
40-60Hz -> alles super
33-60Hz -> alles super
32-60Hz -> seltene Aussetzer
31-60Hz oder weniger -> häufige Aussetzer
Damit es zu schwarzen Aussetzern kommt reichen nicht selten schon relativ geringe Änderungen an der Min-Rate.
Vorausgesetzt natürlich die FPS droppen auch so tief.
Unicous
2019-01-09, 16:29:51
Nochmal. Der BenQ hat eine Range von 40-60Hz. Das bei dir 48Hz angezeigt werden bzw. "gefahren" werden ist also ein Fehler. Höchstwahrscheinlich ein Treiberfehler seitens BenQ bzw. dem Treiber der von Windows automatisch installiert wird. Es gibt einen eigenen Treiber auf der BenQ Seite.
Warum einige Seiten behaupten die Range läge bei 24Hz finde ich zwar auch etwas verwunderlich, aber es ist natürlich in den Sinne auch interessant warum mit 48Hz Faktor 2 bei Radeon Software angezeigt wird.:uponder:
dargo
2019-01-09, 16:31:03
Freesync ist damit gar nicht nötig da es ein reiner Arbeitsmonitor ist. Ich wollte damit eigentlich nur auf die bandbreite der Qualität hinweisen die man mit dem Freesync-Label erhält.
Ich sehe hier nur zwei Probleme.
1. Eine Vega Frontier Edition ist keine Gaming Karte.
2. Eine Vega FE hat nicht die gleiche Software wie eine RX Vega.
Ich vermute den Fehler bei Punkt 2. Hätte ich deine Hardwarekonfiguration hätte ich den Fehler schon längst aufgespürt. Wenn man natürlich kein Interesse daran hat (so deute ich deinen Fall) kommt man nicht weiter.
Nur um das gings mir in der Diskussion. Wenn dann nVidia herkommt und mit GSync compatible eine Art Qualitätskontrolle einbringt das sehr wohl einen Sinn haben kann..
Die Qualitätskontrolle von Nvidia ist nichts wert wenn schon "eigene" G-Sync Monitore die Spezifikation nicht erfüllen.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11895153&postcount=6887
Hatte dich schon drauf hingewiesen, dass der Monitor außerhalb der Spezifikationen betrieben wirst. Warum wiederholst du den Bullshit auch noch? Warum lügst du bewusst? Sind deine Argumente schon dermaßen schwach, dass du zu solchen Methoden greifen musst?
Mit Fakten hast du es nicht so gell? Der genannte Acer Monitor wird mit 30-100Hz vermarktet.
https://geizhals.de/acer-predator-x34a-um-cx0ee-a01-a1428180.html?hloc=de
Da interessiert es den Kunden überhaupt nicht ob Acer das Panel übertaktet oder nicht. In diesem Fall hätte dieser Bildschirm durch die Qualitätkontrolle von Nvidia überhaupt nicht durchkommen dürfen.
Nochmal. Der BenQ hat eine Range von 40-60Hz.
Gibt es dazu auch eine verlässliche Quelle? Weil selbst Tomshardware sagt 24-60Hz.
Edit:
Schon strange... AMD sagt 40-60Hz. :freak:
https://abload.de/img/freesyncu3i4w.jpg
https://www.amd.com/en/products/freesync-monitors
Loeschzwerg
2019-01-09, 17:05:03
Zusammenfassung von THW zum aktuellen Stand:
https://www.tomshw.de/2019/01/09/guide-alles-ueber-die-kompatibilitaet-zwischen-g-sync-und-a-sync-vrrr-freesync-igorslab/
Und man nennt auch ein Mindestverhältnis für den von der Anzeige verwalteten Aktualisierungsratenbereich. Es muss mindestens 2,4:1 betragen, also zum Beispiel 60 bis 144 Hz. Es gibt also keine Mindestuntergrenze: Die 12 validierten Bildschirme beginnen bereits bei 30, 40 oder 48 Hz. Andererseits werden die meisten 60- oder 75-Hz-Bildschirme automatisch eliminiert, es sei denn, sie können an der unteren Grenze unter 30 Hz liefern. Eine 30 bis 75 Hz Anzeige konnte jedoch validiert werden!
Berechnet NVIDIA seinen Partnern die Zertifizierung?
Nein. Mehrere Quellen haben mittlerweile unabhängig voneinander bestätigt, dass NVIDIA für seine „G-Sync Compatible“ Validierung keine extra Zahlung verlangt. Die einzige Investition des Herstellers ist es, den zu testenden Monitor an NVIDIA zu senden. Es scheint auch, dass der jeweilige Monitor-Hersteller die Tests nach Nvidias Kriterien in seinen eigenen Labors durchführen und die Ergebnisse, sowie zertifizierten Nachweise zur Validierung an NVIDIA senden kann. Also ähnlich wie das Green Light Program mit der speziellen Software bei den Grafikkarten.
Es geht sicher in erster Linie auch darum, dass NVIDIA die Kontrolle über sein G-Sync-Brand behält und seinen Ruf bewahrt. Das Ziel ist es, mögliche schlechte Abenteuer zu vermeiden, zum Beispiel mit einem unbekannten Hersteller, der einen Bildschirm mit sehr schlechter Qualität und aufgeklebtem G-Sync Label auf den Markt bringen könnte. Ein völlig berechtigtes Anliegen, wie ich meine, auch im Sinne der Endverbraucher.
Die 400 bereits getesteten Monitore wurden übrigens im Handel gekauft und einzeln bei Nvidia getestet. Es gibt derzeit allerdings keine Pläne für zukünftige, echte FreeSync-Displays und eigene, interne Tests dazu. Allerdings werden 140 weitere Monitore derzeit getestet.
Savay
2019-01-09, 17:05:24
@Dargo
40-60 klingt auch plausibler...gibt nur wenige Panels die überhaupt mit echten 30Hz Refreshen können...geschweige denn mit 24.
Zusammenfassung von THW zum aktuellen Stand:
Knaller...
NVIDIA hat zumindest deutlich gemacht, dass zum jetzigen Zeitpunkt keine HDMI VRR-Kompatibilität geplant ist. Also muss man fürs Wohnzimmer BFGD-Bildschirme wenden
Das neben den wegfallenden absurden Aufschlägen grade im Entry Level mit Abstand beste Argument für A-Sync @ nVidia ist am Ende also doch keines! :ulol:
Sven77
2019-01-09, 17:14:49
Gibt es dazu auch eine verlässliche Quelle? Weil selbst Tomshardware sagt 24-60Hz.
Edit:
Schon strange... AMD sagt 40-60Hz. :freak:
https://abload.de/img/freesyncu3i4w.jpg
https://www.amd.com/en/products/freesync-monitors
Ich denke das zeigt was für ein Fuckup das alles ist.. obs nVidia besser macht oder die Verwirrung sogar noch größer wird sich zeigen.. schon jetzt ist der Monitorkauf ein Alptraum
Screemer
2019-01-09, 17:16:53
Der fuckup liegt bei deinem Rechner und in der Unfähigkeit einzelner seiten, aber sicher nicht bei AMD oder freesync an sich. Kannst du es jetzt endlich Mal sein lassen? Es langweilt einfach.
aufkrawall
2019-01-09, 17:17:24
Du, mit 4k 120/144Hz ist das Problem in 1-2 Jahren abgefrühstückt. Schon das 1000€ Acer-Ding als frühes Modell funktioniert ziemlich gut, der Hersteller müsste nur noch Overdrive etwas anders justieren.
dargo
2019-01-09, 17:19:56
Zusammenfassung von THW zum aktuellen Stand:
https://www.tomshw.de/2019/01/09/guide-alles-ueber-die-kompatibilitaet-zwischen-g-sync-und-a-sync-vrrr-freesync-igorslab/
Deute ich diesen Punkt richtig?
Ist sogar LFC erforderlich? Die 12 von NVIDIA validierten Displays verfügen interessanterweise alle über die Low Framerate Compensation (LFC)-Technologie, die Bilder aufteilt, wenn die Bildrate niedrig ist. Dies könnte insbesondere dazu beitragen, Flackern und Blanking zu vermeiden. NVIDIA hat uns jedoch erklärt, dass das Vorhandensein der LFC wohl eher ein Zufall ist, jedoch kein explizites Kriterium und erklärte zudem auch, gar nicht genau zu wissen, was die LFC in der Praxis exakt macht, da sie es nicht überprüfen könnten.
Es wird also mit einer Geforce kein LFC geben? Schließlich ist LFC im Radeon-Treiber implementiert.
Savay
2019-01-09, 17:23:07
nVidia erklärt also nicht zu wissen was LFC macht?! Ähh...okay...
maguumo
2019-01-09, 17:24:13
Das macht doch im Zusammenhang mit dem von Loeschzwerg zitierten Paragraph keinen Sinn?...
Und man nennt auch ein Mindestverhältnis für den von der Anzeige verwalteten Aktualisierungsratenbereich. Es muss mindestens 2,4:1 betragen, also zum Beispiel 60 bis 144 Hz. Es gibt also keine Mindestuntergrenze: Die 12 validierten Bildschirme beginnen bereits bei 30, 40 oder 48 Hz. Andererseits werden die meisten 60- oder 75-Hz-Bildschirme automatisch eliminiert, es sei denn, sie können an der unteren Grenze unter 30 Hz liefern. Eine 30 bis 75 Hz Anzeige konnte jedoch validiert werden!
Knaller...
"NVIDIA hat zumindest deutlich gemacht, dass zum jetzigen Zeitpunkt keine HDMI VRR-Kompatibilität geplant ist. Also muss man fürs Wohnzimmer BFGD-Bildschirme wenden."
Hä :confused: Was :eek:
Grad "lobt" man NV noch und dann so eine willkürliche scheisse :freak:
( geht DP auf HDMI Adapter mit VRR ? ne glaub nicht ... )
Und AMD hat gesagt, das sie per Softwareupdate HDMI 2.1 VRR unterstützen werden ...
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Interview-Tungler-Wasson-CES-2018-1248666/
AMD:
"...Außerdem werden wir per Treiber-Update auch die VRR-Technologie von HDMI 2.1 unterstützen..."
Will uns NV verarschen oder haben die echt mit ihrer Hardware solche
massiven Probleme um damit simple Standards zu erfüllen !?
m.f.g. JVC
Savay
2019-01-09, 17:27:05
Wahrscheinlich wollen sie mit dem gestelze in Bezug auf die LFC wirklich eher darauf hinaus, dass sie nicht wissen wie LFC im AMD Treiber tatsächlich umgesetzt ist, ohne einzugestehen das sie noch keinen exakten Plan diesbezüglich haben.
Klingt aber wirklich eher verdächtig danach, dass es sie es erst nachbauen müssten.
Wäre auch kein wunder...bisher macht das bei denen ja das Modul.
Ex3cut3r
2019-01-09, 17:28:05
Wieso sollte man als PCler HDMI als DP benutzen?
Vlt. übersehe ich da grade etwas, die Übersicht habe ich in diesem Thread schon länger verloren.
Savay
2019-01-09, 17:29:45
Es geht um die überteuerten BFGDs...denen wollen die sicher nicht komplett den Markt abgraben...
Sonst wären die eh Tot bevor sie überhaupt auf dem Markt sind und sie könnten die gleich komplett einstampfen!
Schließlich sind die ersten regulären LGs OLDEs mit HDMI VRR schon angekündigt....die max. die hälften von den Teilen kosten werden. :ulol:
Unicous
2019-01-09, 17:34:28
TVs werden heutzutage so gut wie ausschließlich über HDMI angesteuert.
Es gibt auch FS-Monitore mit HDMI-Anschluss.:rolleyes:
Bei einigen ist der Tellerrand schon sehr weit über der Sichtlinie.:facepalm:
edit:
@Sven77
Was willst du eigentlich? Hilfe?
Oder willst du nur stänkern, weil ein Feature dass du nicht nutzt anscheinend fehlerhaft auf deinem System ausgeführt wird?
dargo
2019-01-09, 17:35:04
Das macht doch im Zusammenhang mit dem von Loeschzwerg zitierten Paragraph keinen Sinn?...
Ist mir gerade auch aufgefallen. :freak:
Schließlich sind die ersten regulären LGs OLDEs mit HDMI VRR schon angekündigt....die max. die hälften von den Teilen kosten werden. :ulol:
Genau Das ... :mad:
Und es gibt von Samsung schon Fernseher mit Free-Sync zu kaufen ...
http://www.pcgameshardware.de/Fernseher-Hardware-134500/Tests/Samsung-Q9FN-Freesync-TV-1268364/
"Samsung Q9FN im Test: Kann Freesync am TV überzeugen?"
"Auf der Seite der TVs jedenfalls dürfte der Samsung Q9FN mit Freesync 2 HDR,
120 Hz und guter Bildqualität das aktuell beste Modell fürs Wohnzimmer-Gaming sein."
"Kurz gesagt: absolut spieletauglich."
Hab echt überlegt den zu holen, aufgrund der "VRR Öffnung" bei NV hin ...
m.f.g. JVC
Linmoum
2019-01-09, 17:41:12
Das ist ja mal völlig Banane. Aber gut, wen überrascht es.
Troyan
2019-01-09, 17:42:31
Schließlich sind die ersten regulären LGs OLDEs mit HDMI VRR schon angekündigt....die max. die hälften von den Teilen kosten werden. :ulol:
Die benutzen HDMI 2.1. Die könnten auch DP1.4 implementieren, so wie es Dell mit dem 55" OLED machen.
dargo
2019-01-09, 17:44:13
Will uns NV verarschen oder haben die echt mit ihrer Hardware solche
massiven Probleme um damit simple Standards zu erfüllen !?
Ehrlich gesagt verstehe ich die Validierungskriterien von Nvidia überhaupt nicht. Schon alleine, dass nur 12 Monitore von 400 validiert sind ist ein Witz. Am Beispiel von meinem Asus MG279Q. Steht nämlich nicht in der Liste.
* Rangefaktor >2,4 *check
Bleibt also nur Flickering, schwarze Bilder oder Overdriveprobleme. Warum sehe ich davon nichts mit einer Radeon (einzelne, fehlerhafte Treiber mal ausgenommen)? Irgendwie glaube ich noch nicht an eine vollständige A-Sync Kompatibilität mit einer 10/20-er Geforce. Oder deren A-Sync Treiber ist ein Schnellschuss und braucht noch einiges an Zeit.
maguumo
2019-01-09, 17:47:17
Was sollte der Treiber denn da versägen das nur bei einigen Monitoren zu Problemen führt? Hört sich für mich nicht realistisch an.
Savay
2019-01-09, 17:48:17
Die benutzen HDMI 2.1.
Warum sollte man bei einem TV auch DP implementieren?!
Das kostet nur unnötig und das komplette Ökosystem an dem das Teil betrieben wird, setzt mittlerweile seit Jahren zu 99.999% HDMI...und die Hersteller die diese Geräte bauen sind nunmal im wesentlichen zusammen mit den Studios alle in der HDMI Alliance organisiert.
Also warum sollten sich die Hersteller noch mit dem VESA Standard auseinandersetzen der zum Teil nicht alle Features hat die benötigt werden (und umgekehrt!)?
Die könnten auch DP1.4 implementieren, so wie es Dell mit dem 55" OLED machen.
Was ebenfalls offensichtlich ein BFGD wird. :rolleyes:
Also eigentlich ein Monitor mit TV Panel zum doppelten Preises eines äquivalenten TVs.
Wie der sich dann Preislich orientiert wird man sehen...ich glaube kaum, dass der mit den LGs in der Beziehung konkurrieren wird. :tongue:
Und auch Feature technisch wird der ziemlich sicher in einer anderen Liga spielen.
dargo
2019-01-09, 17:49:52
Was sollte der Treiber denn da versägen das nur bei einigen Monitoren zu Problemen führt? Hört sich für mich nicht realistisch an.
Beim Thema Flickering betraf das Problem einzelne Bildschirme in einzelnen Games mit Radeon. Ich spreche da aus eigener Erfahrung. Ist bei mir allerdings schon etwas länger her.
Troyan
2019-01-09, 17:51:24
Es wird kein Hersteller VRR ohne HDMI2.1 unterstützen... außer vielleicht Samsung. Und der Dell 55" OLED ist kein BFGD. Das ist ein Monitor von Dell mit DP1.4 mit 4K/120Hz.
Savay
2019-01-09, 17:53:53
Es wird kein Hersteller VRR ohne HDMI2.1 unterstützen...
Und wo ist das Problem? Man kann übrigens auch das Protokoll auf HDMI2.1 erweitern und theoretisch weiterhin bei HDMI2.0 Bandbreite bleiben.
Gibt auch für HDMI2.0 einen Fallback auf HDMI 1.4 Symbolrate.
Solange die Quelle die entsprechende Protokollerweiterung beherrscht ist das kein riesen Thema.
Die handeln das doch eh miteinander aus.
AMD hat doch schon angekündigt HDMI VRR nachzupatchen! :tongue:
Wo ein Wille, da auch ein Gebüsch.
Und die ersten TVs mit HDMI VRR sind halt auch schon für dieses Jahr angekündigt...
Also was genau ist dein Punkt?
Das ist ein Monitor von Dell mit DP1.4 mit 4K/120Hz.
Ach...und was sind "BFGDs" bitte sonst? :rolleyes:
Zufälligerweise nicht etwa große Monitore mit DP1.4 und 4K/120Hz/HDR?
maguumo
2019-01-09, 17:57:10
Beim Thema Flickering betraf das Problem einzelne Bildschirme in einzelnen Games mit Radeon. Ich spreche da aus eigener Erfahrung. Ist bei mir allerdings schon etwas länger her.
Sicher das das an den spezifischen Monitormodellen und nicht an der Range lag? Letzteres könnte ich mir eher vorstellen. Ich dachte abgesehen von der Range sieht der Treiber zwischen async Monitoren keinen Unterschied.
Savay
2019-01-09, 17:59:33
Frametime Fluktuationen könnten eine Rolle spielen...grade wenn man sich am unteren Ende bewegt!
Je kleiner die Sprünge, desto besser ist das am Ende ja auch für sauberes VRR.
Wenn man halt mal extreme Spikes drin hat, die länger sind als das Panel die Ladung halten kann und dadurch starke Wechsel provoziert dürfte das u.U. sicher schon problematisch sein können.
dargo
2019-01-09, 18:07:57
Sicher das das an den spezifischen Monitormodellen und nicht an der Range lag? Letzteres könnte ich mir eher vorstellen. Ich dachte abgesehen von der Range sieht der Treiber zwischen async Monitoren keinen Unterschied.
Ich kann dir nur sagen, dass das vereinzelte Flickering mit anderen Treibern nicht mehr vorkam.
aufkrawall
2019-01-09, 18:10:07
dass sie nicht wissen wie LFC im AMD Treiber tatsächlich umgesetzt ist, ohne einzugestehen das sie noch keinen exakten Plan diesbezüglich haben.
Sieht jetzt nicht gerade nach Arbeit für ein ganzes Team aus:
https://cgit.freedesktop.org/~agd5f/linux/commit/?h=amd-staging-drm-next&id=6378ef012ddce949a60c9c3742816a9c3c9ff3bf
Zum Flackern: Bei meinem Schrott-Samsung mit VRR 48-60Hz lag es tatsächlich auch mit am Bildinhalt. Einige Bilder haben bei konstanten 50fps durchgängig geflackert, andere nicht.
Savay
2019-01-09, 18:12:33
Sieht jetzt nicht gerade nach Arbeit für ein ganzes Team aus:
Das bestimmt nicht...aber wer weiß schon welchen Stellenwert A-Sync bei denen intern hat(te) angesichts ihres G-Sync Ökosystems. :wink:
Und wer weiß wann die Ingenieure das Go vom Management bekommen haben.
Wäre sicher nicht das erste mal das im ersten Versuch einfach eher ein neben dem Tagesgeschäft angefallener interner Hack oder reines PoC zum Feature erhoben wurde.
Erstmal zeigen das es geht -> dann der Feinschliff.
Käsetoast
2019-01-09, 22:58:44
Naja ich denke, dass das Feature bei NVIDIA seit Jahren schon fertig da war, denn in Notebooks werden die Displays ja entsprechend angesprochen und das nicht erst seit gestern...
nordic_pegasus
2019-01-10, 00:52:30
[I]
Und AMD hat gesagt, das sie per Softwareupdate HDMI 2.1 VRR unterstützen werden ...
VRR ist genauso wie eARC ein optionaler Teil von HDMI 2.1. Man kann beides auch mit HDMI 2.0 anbieten. So hat Sony bereits TVs am Markt, die eARC können. Genauso kann der Samsung Q8 und Q9 bereits VRR (aber mit HDMI 2.0 und maximal 60HZ@UHD). Volles HDMI 2.1 mit 48 Gbit/s wird man nicht per Software-Update nachreichen können.
Ach...und was sind "BFGDs" bitte sonst? :rolleyes:
Zufälligerweise nicht etwa große Monitore mit DP1.4 und 4K/120Hz/HDR?
BFGD müssen G-sync Ultimate / HDR unterstützen, VA-Panels mit FALD und 384 Zonen haben sowie einen Nvidia Shield integriert haben.
Das alles wird der Dell/Alienware OLED nicht haben. Das ist im Prinzip ein 55" OLED Panel ohne TV-Tuner und mit DP1.4 Eingang.
Da wohl HDMI 2.1 in einer potenten GraKa noch Zukunftsmusik ist (meine größte Enttäuschung heute bei AMD), ist der Dell OLED eine Alternative dank der Trick mit DP1.4. Vielleicht wird der ja sogar von Nvidia als G-sync compatible bewertet.
Unicous
2019-01-10, 01:09:00
Wenn man denkt Jensen könnte nicht noch unsympathischer agieren wird man immer wieder eines Besseren belehrt.
“We never competed,” Huang said of upcoming FreeSync support. “(FreeSync) was never proven to work. As you know, we invented the area of adaptive sync. The truth is most of the FreeSync monitors do not work. They do not even work with AMD’s graphics cards.”
https://www.pcworld.com/article/3332025/computers/nvidia-disses-the-radeon-vii-vowing-the-rtx-2080-will-crush-amds-underwhelming-gpu.html
Ich möchte nochmals darauf hinweisen, dass sowohl Intel als auch AMD Patente besitzen die sich eindeutig auf VRR und die Funktionsweise beziehen, die lange vor Verlautbahrung von G-Sync erteilt wurden. Wenn ich mich recht entsinne war AMD/Ati die erste Firma die dahingehend Patente angemeldet hat. Da sich die Patentanträge die Nvidia dazu verfasst hat auf eben diese beziehen behaupte ich, das ist eine einwandfreie Lüge.
Hätte er gesagt wir waren die ersten die VRR in einem Endprodukt implementiert haben gäbe es keine Debatte. Aber dieses arrogante und ignorante Eiergeschaukel ist einfach nur widerlich.
Blediator16
2019-01-10, 01:13:41
Hat er jemals so öffentlich und hart gelästert? Ich kann mich ehrlich gesagt an keine Situation erinnern, wo er so klare Worte gefasst hat.
Deathcrush
2019-01-11, 16:22:24
Aus spaß mal ne 2070er bestellt. Mal schaun ob dann Freesync gescheit funktioniert oder nicht. Wenn ja behalte ich die 2070er :D
Kartenlehrling
2019-01-14, 11:53:12
Dieses ist schon alt.
Kann gelöst werden, ich habe zwar seiten zurück geblätter, das es schon 6 Seiten war mir nicht klar.
Da ich es nicht neu aufwühlen will, wars das :) , dank @drago
dargo
2019-01-14, 12:12:20
Falsches Video verlinkt? Dieses ist schon alt.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11893957&postcount=6827
trunks18
2019-01-14, 12:12:36
Hab mir den AOC G2590FX (Laut Nvidia kompatibel) bestellt. Berichte dann ob es gut läuft.
dargo
2019-01-14, 12:15:45
Hab mir den AOC G2590FX (Laut Nvidia kompatibel) bestellt. Berichte dann ob es gut läuft.
Lol... diesen Bildschirm hatte ich vor paar Monaten einer Bekannten samt kompletten Rechner gekauft. Kombiniert das ganze wurde mit der RX580 8GB. Reiner Glückskauf wenn das Teil mit Geforce funzt. :D
Nightspider
2019-01-14, 17:46:19
Wieso gibts den ACER XF270HUA eigentlich nur bei 3 Händlern und ist kaum verfügbar?
https://geizhals.de/acer-xf0-xf270huabmiidprzx-um-hx0ee-a01-a1528218.html?hloc=at&hloc=de
Gibts da auch Alternativen in dem Preisbereich mit den Features?
Nightspider
2019-01-15, 03:38:55
Ist der ACER Nitro XV2 sogar besser? Sehe gerade das er statt dem oben genannten Monitor DP1.4 besitzt? Bei Geizhals ist nur kein LFC aufgelistet?
https://geizhals.de/acer-nitro-xv2-xv272upbmiiprzx-um-hx2ee-p01-a1954774.html?hloc=at&hloc=de
Aber auch dieser ist nur bei 4 Händlern gelistet. Oo
Hott3X
2019-01-15, 09:35:43
So wer hat es schon getestet? Werde es nach der Arbeit mal mit meinem LG 4K testen.
Savay
2019-01-15, 09:38:58
Ist der ACER Nitro XV2 sogar besser?
ich glaube das ist der Nachfolger vom XF270...die XVxxx Nitros verstehen ja zusätzlich auch HDR10.
y33H@
2019-01-15, 10:37:18
Treiber ist da: https://www.geforce.com/drivers/results/141906
mironicus
2019-01-15, 11:23:18
Ich ärgere mich ernsthaft, dass ich damals doch noch einen 240 Hz-GSync Monitor gekauft habe, da hätte die Freesync-Variante gereicht, die in Zukunft mit allen Herstellern Intel/AMD/NVidia laufen wird.
Ich ärgere mich ernsthaft, dass ich damals doch noch einen 240 Hz-GSync Monitor gekauft habe,...
Du bist also mit ein Grund warum Nvidia so lange gewartet hat.
aufkrawall
2019-01-15, 12:30:12
Geht hier schon mal nicht:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11901413&postcount=20
FreeSync mit Polaris ging einfach...
Wird eigentlich irgendwo in den weiten des Internets eine Art Liste geführt welcher Monitor gut läuft und welcher nicht?
Im Luxx und CB werden Sammelthreads erstellt.
aufkrawall
2019-01-15, 13:11:25
Geht hier schon mal nicht:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11901413&postcount=20
Ok, lag an der nicht übernommen Checkbox für nicht offiziell unterstützte Geräte. Nach Reset der erkannten Displays via CRU geht es nun.
Oder auch nicht: Beim ersten Start gabs komisches Zucken in BF4 fullscreen-exclusive, obwohl das auch nur im regulären 60fps-Limit mittels Vsync lief.
Ich hatte dann im Treiber Gsync für borderless abgeschaltet, nur für den Fall. Danach lief BF4 (sauber neu gestartet, immer noch fullscreen-exclusive) nur noch mit komischen 44fps. Ich musste es dann minimieren und wieder aufrufen, dann waren die fps normal. Aber kaum schalte ich den in-game fps-Limiter auf 55, gibts lauter schwere Anzeigefehler, schwarzes Flackern usw.
Nein, die gabs mit FreeSync garantiert nicht. :freak: ;D
Mal sehen, was als nächstes hier passiert...
aufkrawall
2019-01-15, 13:30:59
Nvidias VRR-Unterstützung ist völlig inkompatibel mit dem Samsung U32J590, es funktioniert schlicht gar nicht -> ständig Zucken und schwarzes Flackern.
Mit der RX 580 lief es 100% einwandfrei. :facepalm:
Schätze mal, DDU würde auch nichts bringen.
Ist jetzt die Frage, ob Nvidia wirklich so unfähig ist, oder ob die pure böse Absicht dahinter steht. Leider beides ziemlich plausibel bei der Firma.
Locuza
2019-01-15, 13:32:28
Läuft bei PCGH mit einer 2080Ti und einem Samsung C32HG70 angeblich zufriedendstellend und Frame-Doubling unter der Adaptive-Range von 44-144Hz soll zum Einsatz kommen:
Die variable Darstellung funktionierte auf Anhieb im kompletten, vom Monitor unterstützten Fps-Bereich (48-144). Ebenso funktioniert die Frame-Vervielfachung unterhalb der Spanne, sodass 40 Fps zum Beispiel jeweils gedoppelt mit 80 Hertz ausgegeben werden - AMD nennt das Low Framerate Control oder kurz LFC. In Overwatch kam es beim Herabsetzen des Fps-Limiters auf 40 Fps (unterhalb der nativen Menü-Darstellung von 60 Fps) lediglich zu einem kurzen, aber danach nicht mehr reproduzierbaren Flackern.
http://www.pcgameshardware.de/Monitor-Display-Hardware-154105/Specials/Nvidia-Geforce-Compatible-Test-Anleitung-Treiber-1273243/
Hott3X
2019-01-15, 18:01:32
Na toll, bei meinem LG 27UD68P-B flackert das Pendel wie blöd.
aufkrawall
2019-01-15, 18:08:00
Startet bei Flacker-Problemen mal den Monitor nach der Windows-Anmeldung neu. Sieht aus, als ob ohne der NV-Treiber bei Modellen mit beschränkter Range irgendwie das untere Limit nicht korrekt beachtet.
Na ja, aber auch mit diesem Workaround ist die Erfahrung ziemlich mies. Man muss weit über der unteren Range bleiben und es wirkt allgemein irgendwie ruckelanfälliger und instabiler als mit Radeon. Borderless scheint auch komplett kaputt zu sein.
Man testet angeblich hunderte Monitore, und will solche Bugs nicht bemerkt haben? Echt lächerlich.
M4xw0lf
2019-01-15, 18:33:52
Startet bei Flacker-Problemen mal den Monitor nach der Windows-Anmeldung neu. Sieht aus, als ob ohne der NV-Treiber bei Modellen mit beschränkter Range irgendwie das untere Limit nicht korrekt beachtet.
Na ja, aber auch mit diesem Workaround ist die Erfahrung ziemlich mies. Man muss weit über der unteren Range bleiben und es wirkt allgemein irgendwie ruckelanfälliger und instabiler als mit Radeon. Borderless scheint auch komplett kaputt zu sein.
Man testet angeblich hunderte Monitore, und will solche Bugs nicht bemerkt haben? Echt lächerlich.
Ist dein Monitor denn zertifiziert nach JIN* A38? Ansonsten wurde er natürlich aussortiert, weil er den hohen Standards des HERRN Huang, gepriesen sei sein Name, nicht genüge tut, und eventuelle Problemchen sind die gerechte Strafe für deinen sündigen Lebenswandel (Kauf von nicht JIN-zertifizierten und premiumbepreisten Produkten).
*Jacken-Industrie-Norm
Unicous
2019-01-15, 18:52:20
Ein Glück haben die Journalisten vor Ort sofort als Jensen diese Worte aussprach das richtige getan und ihn für diese Aussagen ausgelacht und ihn als Lügner entlarvt.
Ach nein, sie haben schnell Videos und Artikel zusammengebastelt und die Behauptungen so gut wie ohne Widerspruch weiterverbreitet, anstatt kritisch nachzufragen und unabhängige Tests abzuwarten.
Vielen Dank dafür.(y)
Hott3X
2019-01-15, 19:29:44
@Aufkrawall
Danke, hilft aber auch nicht. Naja, bin bissher auch gut ohne ausgekommen. Ist aber
ja auch erst der Erste Treiber, vielleicht wird es noch.
aufkrawall
2019-01-15, 20:00:17
Ein Glück haben die Journalisten vor Ort sofort als Jensen diese Worte aussprach das richtige getan und ihn für diese Aussagen ausgelacht und ihn als Lügner entlarvt.
Wobei Nvidia ja die verwendeten Monitor-Modelle unkenntlich gemacht hatte, was den Vergleichstest vor Ort verhindert hatte. Du hast aber trotzdem einen Punkt, denn afair hatte der Typ von pcmag das so dargestellt, dass es am Monitor an sich liegen würde oder soll, ohne das kritischer auszuführen. Leider lassen sich Leute für Jensen offenbar nur allzu bereitwillig zu nützlichen Idioten degradieren, in der Hinsicht ist er in der Öffentlichkeit eine echt unglaublich toxische Persönlichkeit.
Savay
2019-01-15, 20:03:46
Na toll, bei meinem LG 27UD68P-B flackert das Pendel wie blöd.
Etwa auch mit der normalen 40-60er Range?!??!! :freak:
Meiner läuft mit der Radeon auch erweitert auf 33-60 komplett ohne zu flackern oder Aussetzer zu zeigen.
Na dann weiß man ja echt was von den "Tests" von nV zu halten ist.
Der Samsung U28E590 funzt leider auch nicht. :redface:
basix
2019-01-15, 20:08:31
Na dann weiß man ja echt was von den "Tests" von nV zu halten ist.
Ach komm, it just works! :freak:
USS-VOYAGER
2019-01-15, 20:11:12
Na toll, bei meinem LG 27UD68P-B flackert das Pendel wie blöd.
Komisch bei meinen 27UD68-W funktioniert es. Sogar unterhalb der freesync range von 40-60fps.
Ab 61fps habe ich tearing aber unterhalb der 40fps bekomme ich kein tearing selbst mit 30 oder 20fps nicht.
Beim ersten Mal starten der Pendel Demo hatte ich auch starkes ruckeln und flackern. Das war nach einem Neustart aber weg.
aufkrawall
2019-01-15, 20:13:45
Was "von selbst" verschwindet, kommt auch so wieder. ;)
Unicous
2019-01-15, 20:14:48
@aufkrawall
War nicht nur der PCWorld Typ (meintest du oder?). Gab aber zum Glück auch Leute wie Joel Hruska die Jensen sofort angezählt haben für den Müll den er erzählt hat.
Dass es ein Implementationsproblem seitens Nvidia zu sein scheint (ob Hardware und/oder Software) und nicht flächendeckend ein Problem bei den Adaptive Sync Monitoren zeigen ja die ersten Tests in der community. Besonders scheint Nvidia nicht mit den Ranges zurechtzukommen. Wenn z.B. per CRU die Ranges verändert/erweitert werden verschwindet das Flackern bei einigen Monitoren. Aber interessanterweise gibt es dieses Problem gar nicht bei Radeon-GPUs (bis auf einige Ausnahmen wo der Hersteller offensichtlich richtigen Müll verzapft hat).:rolleyes:
aufkrawall
2019-01-15, 20:16:04
Du, das habe ich doch eben erst selbst geschildert. :freak: ;)
Savay
2019-01-15, 20:20:19
Müsste man mal schauen aus welchem Erscheinungsjahr die auf nV eher problematischen Modelle sind!
Wenn es vor allem "Vanilla" FreeSync Displays betrifft könnte das ja auch der anfangs angeblich eher semi-offiziellen A-Sync Implementierung liegen...
Unicous
2019-01-15, 20:20:49
@aufkrawall
Ich sprach nicht unbedingt von 3DCenter sondern der "community" im weiteren Sinne. Außerhalb der 3DCenter-Blase gibt es ja auch Leute die es ausgetestet haben.:wink:
U.a. bei Reddit gibt es viele Erfolgsmeldungen.
@Savay
Iirc waren ein paar der 12 zertifizierten Monitore schon relativ alt (ich glaube mindestens einer wurde schon 2015 released), daher glaube ich nicht, dass es an Kinderkrankheiten per se liegt sondern eher an der "Faulheit" der Hersteller, die Ressourcen und Zeit in die Validierung zu stecken.
y33H@
2019-01-15, 21:01:15
Tut auf dem C27HG70 mit Freesync auf Standard Engine, sonst Flackern ... leider muss man sich für Adaptive Sync oder Motion Blur Reduction entscheiden ;(
//differentRob
2019-01-15, 21:11:26
y33h@, welche Firmware beim C27HG70?
werd ich gleich auch testen müssen mit meinem.
y33H@
2019-01-15, 21:14:30
Die aktuelle von Samsung:
http://downloadcenter.samsung.com/content/FM/201810/20181012165030773/m-HG727CCAA-1020.0..zip
Gipsel
2019-01-15, 21:18:22
leider muss man sich für Adaptive Sync oder Motion Blur Reduction entscheiden ;(Muß man bisher bei allen variablen Frameratentechniken und Backlight Strobing (oder BFI oder ULMB oder LightBoost oder ... wie immer man das auch nennen mag). Denn was anderes ist das "Motion Blur Reduction" von Samsung auch nicht.
y33H@
2019-01-15, 21:49:44
Klar, ich wollte es nur noch mal sagen, weil ich nun wochenlang mit ner RTX 2080 Ti unterwegs war und daher MBR genutzt habe, dann fällt einem das sofort auf.
Flusher
2019-01-15, 22:48:19
Medion AKOYA X58434 an einer GTX 1080 funktioniert nicht. Massives Bildflackern unter 50 Hz und bei über 90 Hz.
Panel wird ebenfalls im Samsung C34H890 (als non validated Monitor bei NVIDIA an der CES ausgestellt) als auch einigen No-Name Herstellern wie dem HKC NB34C genutzt.
Ich befürchte NVIDIA wird daran auch nichts ändern. Eigentlich traurig, dass die sowas nicht gebacken bekommen.
aufkrawall
2019-01-15, 23:13:49
Scheint auch immer noch Probleme mit borderless und neueren Windows 10 Builds zu geben, mit 1809 funktionierte Nvidia-VRR mit dem weiter hinten genannten Modell schlicht überhaupt nicht (ganz normales DWM-Gestotter). Mit 1607 gehts relativ ok, aber auch anfälliger für Ruckler als fullscreen-exclusive. Und DX9 ist irgendwie allgemein im Arsch bez. Anfälligkeit für Ruckler, wo ohne Nvidia-VRR keine sind.
Einfach nur heftig, wie mies der Treiber ist.
Morale
2019-01-15, 23:38:25
Also bei meinem XG32VQ scheint es zu gehen, jedenfalls merk ich nix negatives.
Woran sieht man dass A-Sync aktiv ist?
Im Monitor ist es an und auch im der Nvidia Systemsteuerung, aber ob es wirklich aktiv ist sieht man wo?
Cubitus
2019-01-15, 23:38:42
Hab ich ein Glück :tongue:
Funktioniert 1A im Fullscreen Setting mit meinem großen Samsung
https://www.samsung.com/de/monitors/curved-cf791/
und geht genauso gut mit dem Lenovo
https://www.amazon.de/Lenovo-Display.../dp/B078X5PPFR
Windows 1809
Den Singelplayer spiele ich nicht mehr ohne ^^ Der Unterschied ist schon krass
Was ich gut finde ist die getrennte Behandlung der zwei TFTs..
Die Entscheidung auf den freien Standard zu setzen war richtig und schon längst überfällig.
Also bei meinem XG32VQ scheint es zu gehen, jedenfalls merk ich nix negatives.
Woran sieht man dass A-Sync aktiv ist?
Im Monitor ist es an und auch im der Nvidia Systemsteuerung, aber ob es wirklich aktiv ist sieht man wo?
Machs aus und du merkst den Unterschied eigl sofort.
Morale
2019-01-15, 23:46:57
Machs aus und du merkst den Unterschied eigl sofort.
hm auch bei 100+ fps?
Hab mir diese Pendel Demo installiert, da merkt man es auf jeden Fall.
Bei Overwatch hab ich jetzt nicht wirklich was gemerkt mit der 1080ti
myMind
2019-01-16, 00:11:28
Kurzer Ersteindruck
Hauptmonitor: Acer XB270HU (G-Sync)
Zweitmonitor: Acer XG270HU (Free-Sync) <<< Das ist einer der wenigen als kompatibel gelisteten.
Nach der Treiberinstallation tauchte der Free-Sync-Monitor direkt unter "G-SYNC einrichten" auf und das Häkchen "Enable settings for the selected display model" war aktiviert.
Wenn man den "G-Sync indicator" aktiviert, so wird dieser auch bei dem Free-Sync Modell mit "G-Sync On" angezeigt.
Grafikkarte. 1080 Ti
The Witcher: Läuft einwandfrei. Kein Unterschied wahrnehmbar.
Schadow of the Tomb Raider: Läuft ebenfalls einwandfrei.
Allerdings wird der "G-Sync On" Indikator bei DirectX 12 nicht angezeigt. Das Info-Display vom Monitor zeigt mir aber dieselben Refreshraten an, wie der Afterburner (oder Vielfache davon bei niedrigen FPS). Scheint mir eher ein Problem mit den "G-Sync On" Indikator zu sein.
Bei Shadow kann man die Anzeige im Spiel auf den anderen Monitor konfigurieren und damit sehr direkt vergleichen. Fühlt sich für mich komplett gleich an zwischen dem G-Sync und Free-Sync Monitor. Auch bei den Frameraten ist kein Unterschied zu bemerken.
Bin bisher begeistert, auch wenn es jetzt nur ein sehr kurzer Test war.
myMind
2019-01-16, 00:19:23
Also bei meinem XG32VQ scheint es zu gehen, jedenfalls merk ich nix negatives.
Woran sieht man dass A-Sync aktiv ist?
Im Monitor ist es an und auch im der Nvidia Systemsteuerung, aber ob es wirklich aktiv ist sieht man wo?
Schau mal im Konfigurationsmenü des Monitors. Da wird unter "Info" oder so ähnlich die vertikale Refreshrate angezeigt. Die muss der Framerate im Spiel folgen, bzw. Vielfache davon anzeigen.
Alternativ in der nVidia Systemsteuerung im Hauptmenü unter "Display" "G-SYNC, G-SYNC Compatible Indicator" aktivieren. Wobei das nicht so 100% zuverlässig zu sein scheint.
Reaping_Ant
2019-01-16, 01:52:18
Na toll, bei meinem LG 27UD68P-B flackert das Pendel wie blöd.
Bei meinem 27MU67-B (also dem Vorgänger) funktioniert es problemlos. Auch mit CRU auf 34-61 Hz erweiterter Range.
Hast Du nach dem Aktivieren von GSync im Treiber mal neu gestartet?
Hott3X
2019-01-16, 07:04:54
Bei meinem 27MU67-B (also dem Vorgänger) funktioniert es problemlos. Auch mit CRU auf 34-61 Hz erweiterter Range.
Hast Du nach dem Aktivieren von GSync im Treiber mal neu gestartet?
Ja öfter, hat alles nichts geholfen. Arbeitskollege hat den weißen ohne Höhenverstellung und die selben Probleme.
Flusher
2019-01-16, 10:27:00
hat jemand schon die Erfahrung gemacht ob borderless oder fullscreen eine verbesserung zeigt? das hab ich gestern nicht getestet (nur fullscreen geprüft)
hilft es vielleicht overdrive zu deaktivieren?
Birdman
2019-01-16, 12:30:27
hm auch bei 100+ fps?
Nein, VRR ist für low-FPS Bobs :biggrin:
Auf einem 120+ Hz Display und solch hohen fps muss man bei Spielen schon sehr genau hinschauen um einen Unterschied zu bemerken.
dargo
2019-01-16, 12:38:55
Bullshit... ich sehe den Unterschied sofort.
Es soll Spieler geben die selbst mit einem 60Hz Bildschirm ohne VRR kein Stuttering sehen. Von daher lasst es mit den Pauschalisierungen.
Cubitus
2019-01-16, 14:10:13
hm auch bei 100+ fps?
Hab mir diese Pendel Demo installiert, da merkt man es auf jeden Fall.
Bei Overwatch hab ich jetzt nicht wirklich was gemerkt mit der 1080ti
Kommt drauf an, manchmal hast du auch bei über 100 FPS ein stottern trotz Vsnyc.
Mir gehts bei Burnout Paradise z.b so. Aber bei TR oder dem neuen Resident Evil taugt es definitiv.
Bullshit... ich sehe den Unterschied sofort.
Japp so ist es :)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.