Archiv verlassen und diese Seite im Standarddesign anzeigen : G-/Free-/A-Sync: framesynchronisierter Displayrefresh per variablem vblank-Intervall
Tobalt
2019-01-16, 16:54:25
auch bei 144 hz ist der unterschied zwischen fresync und vsync immer eklatant.
der unterschied zwischen freesync und kein sync ist je nach game schwieriger festzustellen.
Flusher
2019-01-16, 20:20:54
hat jemand schon die Erfahrung gemacht ob borderless oder fullscreen eine verbesserung zeigt? das hab ich gestern nicht getestet (nur fullscreen geprüft)
hilft es vielleicht overdrive zu deaktivieren?
Um mir mal selbst zu antworten: nein hilft scheinbar nicht. Immer noch sporadisches Bildflackern
Gipsel
2019-01-16, 20:24:04
Für Fragen zum Betrieb von Adaptive Sync Monitoren an nV-Grafikkarten gibt es inzwischen übrigens einen eigenen Thread im nV-Hardware-Hilfe-Unterforum (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=592864).
aufkrawall
2019-03-07, 15:19:42
Radeon FRTC funktioniert übrigens völlig exakt, wie die Refreshraten-Anzeige im Monitor-OSD offenbart: Kann man ein fps unterhalb der maximalen Range setzen, und es gibt, anders als mit anderen fps-Limitern, offenbar auch ohne Vsync nie Tearing und die Refreshrate ist völlig stabil.
Ist ganz nett, wenn man kein LFC hat und die Vsync-Ruckler unterhalb der Range vermeiden will. Scheint sich auch problemlos mit anderen fps-Limitern für niedrigeren Input Lag kombinieren zu lassen.
foenfrisur
2019-03-07, 15:30:49
bei mir führt es in bf1 und bf5 zu Rucklern, wenn beide limiter aktiv sind.
aber viele Spiele haben ja nicht mal einen.
mfg
aufkrawall
2019-03-07, 15:35:54
Ich hatte es in BF4 mit FreeSync getestet, da schien es problemlos zu gehen.
foenfrisur
2019-03-07, 17:29:08
habs über ini Datei auf 73 oder 74 stehen.
im Spiel hat man ja nur 60, 120, 144hz oder so.
im Adrenalin stelle ich nun im spielprofil aus.
hat lange gedauert, bis ich die Ursache gefunden hatte, das die 2 framelimits sich behaken.
mfg
aufkrawall
2019-04-26, 14:31:30
Im Linux-Treiber kann man immer mal wieder Einblicke erhalten, was es für Besonderheiten zu beachten gilt:
https://www.phoronix.com/scan.php?page=news_item&px=FreeSync-Low-FR-Improvements-V2
Unicous
2019-05-10, 16:17:05
Motion Blur Reduction + VRR (gleichzeitig) :cool:
https://www.tftcentral.co.uk/blog/asus-tuf-gaming-vg32vq-with-simulatenous-blur-reduction-and-variable-refresh-rate/
Komisch, der wurde anscheinend schon vor ein paar Tagen vorgestellt bzw. auf der "ROG Convention 2019" gezeigt. Die PM ist vom 26.04., in der PM selbst schreibt man vom 12.04.:freak:
ASUS Republic of Gamers Announces Latest Gaming Products at ROG Convention 2019
2019/04/26
Duisburg, GERMANY, April 12, 2019 — ASUS Republic of Gamers (ROG) today announced new gaming products, including ROG in-ear active noise-cancelling headphones, the ROG Throne Qi headset stand and ROG Strix Helios premium mid-tower PC case at ROG Convention 2019, the largest world’s ROG fan-fest for gamers and hardware enthusiasts. In addition to the ROG product announcements at the convention, ASUS announced the first-ever TUF Gaming monitor, VG32VQ, which is also the world’s first monitor with concurrent motion blur reduction and Adaptive-Sync.
https://www.asus.com/id/News/DNuis71kCPrLGBBd/
foenfrisur
2019-05-10, 17:55:55
das ist ja mal richtig Granate.
mit 21:9 fast die eierlegende wollmilchsau :D
mfg
Tesseract
2019-05-10, 18:19:52
wie soll das ordentlich funktionieren? mit low persistence kann man nicht unter ~100Hz gehen sonst flimmert es und wenn der monitor low persistence unterhalb von ~100fps deaktiviert springt man in der realität wahrscheinlich ständig zwischen den modi sichtbar hin und her oder liegt sogar dauerhaft außerhalb des bereichs wenn man keine 2080ti hat. und dann kommen auf einem VA mit low persistence noch die ghostingprobleme dazu.
statt solcher krückenlösungen will ich endlich mal sinnvolle OLED- oder µLED-monitore sehen.
wie soll das ordentlich funktionieren? mit low persistence kann man nicht unter ~100Hz gehen sonst flimmert es
Das gilt wenn man pro Frame genau 1 mal das Licht anmacht. Bei einer deutlich höheren Backlight Schaltfrequenz könnte das auch ohne flimmern funktionieren (wenn man es korrekt steuert).
So ähnlich wie der LFC-Modus, nur mit Ziel 100+ Hz statt 30+ Hz.
aufkrawall
2019-05-10, 18:49:21
und wenn der monitor low persistence unterhalb von ~100fps deaktiviert springt man in der realität wahrscheinlich ständig zwischen den modi sichtbar hin und her oder liegt sogar dauerhaft außerhalb des bereichs wenn man keine 2080ti hat.
Sagst ausgerechnet du, der sonst immer auf dem Thema Motion Blur rumreitet. X-D
Tesseract
2019-05-10, 19:04:12
Das gilt wenn man pro Frame genau 1 mal das Licht anmacht. Bei einer deutlich höheren Backlight Schaltfrequenz könnte das auch ohne flimmern funktionieren (wenn man es korrekt steuert).
man muss genau einen flash pro frame machen wenn das ganze in begwegung scharf sein soll, sonst hat man mehrere geisterbilder. außerdem ist ein VA schon für einen flash ganz am ende des refreshzyklus zu langsam, deswegen hat samsung das strobing sogar in mehrere zonen aufgeteilt und selbst das war problematisch.
Sagst ausgerechnet du, der sonst immer auf dem Thema Motion Blur rumreitet. X-D
hm? habe ich was gegen geringen motion blur gesagt? ich zweifle nur sehr stark an der umsetzung.
Unicous
2019-05-24, 20:46:33
Uiuiui, Asus hat wohl noch ein ASync+MBR mit IPS in petto.
ASUS TUF Gaming VG27AQE, 27", 155Hz, 1440p
https://img30.360buyimg.com/sku/jfs/t28102/114/912056709/224967/e425b6c2/5cda89d9N5bc90d81.jpg
https://item.jd.com/100003432739.html
Bucklew
2019-05-24, 23:00:11
Linus hat sich mal das G-Sync Labor von NVIDIA angeschaut:
Um0PFoB-Ls4
Ziemlich beeindruckende Nerdbude und erklärt auch den Qualitätsunterschied G-Sync/FreeSync. Wird deutlich mehr getestet, als nur VRR.
Blediator16
2019-05-24, 23:27:34
Nach all den Jahren, die Gsync auf dem Markt ist und kurz nach Nvidias Aufgabe im VRR Kampf, bringt ausgerechnet Nvidia den größten Sellout auf Youtube in ihre geheimen Labore. Das kann man sich nicht ausdenken. Interessant ist es dennoch.
Tobalt
2019-06-02, 09:25:33
Tesseract hat schon recht..
mit ner 90-144Hz range sollte es halbwegs laufen aber darunter nicht... wichtig ist hierbei noch zu erwähnen dass bei mbr+vrr auch eine low framerate compensation nicht greifen darf, da es sonst wieder zu geisterbildern kommt.
ich finde es dennoch mutig von Asus das zu wagen. Diese Einschränkung sollte aber klar kommuniziert werden, sonst kommt es nachher zu enttäuschten usern
"Sellout", naja. Er ist halt sehr mainstream, und sehr erfolgreich. Immerhin vergleicht und berichtet er noch, für mich noch nicht Generation "Influencer" und somit nervig aber ganz OK
Cool, dass BFI nun auch mit VRR kommt (y)
man muss genau einen flash pro frame machen wenn das ganze in begwegung scharf sein soll, sonst hat man mehrere geisterbilder. außerdem ist ein VA schon für einen flash ganz am ende des refreshzyklus zu langsam, deswegen hat samsung das strobing sogar in mehrere zonen aufgeteilt und selbst das war problematisch.Mehrere Zonen klingt nunmal nicht nach Vorteil, und nicht nur bei VA sondern auch bei TN ist der Effekt des Strobings nicht über den ganzen Bildschirm uniform. Sieht man bei den entsprechenden Tests ja jeweils, das die entstehenden Artefakte resp. der intendierte Schärfungseffekt nicht über den ganzen Screen identisch ist leider. Wie im "Bessere Monitore" Thread bemerkt, wäre es endlich Zeit, vom CRT bedingten Bildaufbau-Prinzip wegzukommen.
Zeit kurz das mit den Geisterbildern durch mehrere Strobes pro frame zu erklären?
Idealfall:
Eine "echte" Black Frame Insertion, also nicht nur blinkende Hintergrundbeleuchtung: Das Schwarz müsste, solange die Schaltzeit der Kristalle eingehalten wird, das Bild in dem Sinne leeren, und ohne Zwischenbildberechnung ist der nächste dargestellte nicht-schwarze Inhalt dann das nächste Bild, unabhängig davon, wieviele schwarze Frames zwischen Bild 1 und Bild 2 angezeigt wurden. Mehr schwarze Frames würden nur die Helligkeit verringern. Meiner Interpretation nach sollte bei OLED ohne Farbfilter, oder bei Micro-LED, wo Hintergrundbeleuchtung == Anzeige ist, BFI und strobing backlight* identisch sein, und die Qualität der resultierenden Bilder nur noch von der LED Schaltzeit abhängen, also wenn da noch LEDs == Subpixel "nachglühen", dann gibt es negative Effekte, wenn nicht, dann ist das Bild knackscharf.
*: eigentlich immer noch scanning backlight, solange eben noch daran festgehalten wird, Bilder CRT-Style zu zeichnen.
Realfall:
Die Kristalle richten sich nicht schnell genug neu aus, dass sie für jedes Bild vollständig neu ausgerichtet sein können. Ohne Strobing entsteht durch bewegten Inhalt ein Schlieren- / Unschärfe-Effekt. Mit Strobing wird ein Teil der Übergangszeit zwischen Bild 1 (sowie noch vorhandener Reste noch älterer Bilder) und Bild 2 unsichtbar gemacht. Je mehr strobes pro Frame-Übergang, desto mehr Zwischenstufen sind sichtbar.
Gipsel
2019-06-02, 11:08:08
Wie man strobing backligths (ULMB, Lightboost, MBR, whatever) mit VRR kombinieren kann (ohne daß sich die Helligkeit frameratenabhängig ändert), habe ich vor 6 Jahren schon mal erläutert (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=9985309#post9985309) (gibt mehrere Posts dazu). ;)
@samm:
Es gibt übrigens mehrere Quellen der Unschärfe/Schlieren bei Displays. Die, die backlight strobing (mit sehr kurzen Pulsen) verringert, ist hauptsächlich die Bewegungsunschärfe (und natürlich die endlichen Schaltzeiten der Pixel, die man aber schon mit klassischem BFI bei 30Hz [relativ kurze schwarze Frames] ganz gut maskieren kann, was aber beinahe nichts für die prinzipielle Bewegungsunschärfe von hold-type Displays macht), die daher kommt, daß das Bild persistent auf dem Schirm angezeigt wird. Verfolgst Du mit dem Auge sich bewegende Objekte auf dem Schirm, werden die auf Deiner Netzhaut bzw. in Deinem Hirn geblurrt ;)). Dies passiert nicht, wenn das (aktualisierte) Bild nur mit z.B. 100Hz jeweils kurz aufblitzt. OLEDs haben deutlich bessere Schaltzeiten (Mikrosekunden statt Millisekunden), aber wenn man die kontinuierlich ansteuert, zeigen OLED-Displays trotzdem die gleiche Bewegungsunschärfe (von mit den Augen verfolgten Objekten) wie LCDs.
Danke für die Präzisierung. Mir ging's v.a. um das verstärkte Ghosting durch mehrere strobes pro Frame(wechsel), was Tesseract angesprochen hatte.
[edit]Zur verlinkten Lösung VRR + Strobe (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=9985309#post9985309):
Ein Blend von Strobing zu kontinuierlichem Backlight. Backlight geht aus bei Ankunft des neuen Frames (Pixelmatrix wird geschrieben), dann der Strobe und anschließend (quasi-)kontinuierliches Backlight, was dann nach dem Strobe solange anbleibt, bis der nächste Frame kommt (der das Backlight dann wieder ausknippst). Dann hat man konstante Helligkeit für alle Frameraten ohne vorher wissen zu müssen, wie lange der Frame dargestellt werden soll, kein Flimmern bei niedrigen Frameraten und trotzdem die bessere Bewegungsschärfe (zumindest bei hohen Frameraten), die dann hin zu langsameren Frameraten kontinuierlich in den bekannten Weichzeichnereffekt bei Bewegungen durch das Hold-Type-Display übergeht. Man hat es immer so gut, wie es bei der Framerate halt geht.
Verstehe noch nicht, weshalb das nicht flackern würde, und wie dadurch die Helligkeit identisch gehalten werden kann bei wechselnden Frameraten.
Beispiel: fixe Zeit x ns Schwarz+Strobe, Framerate Wechsel von z.B. 40fps (25ns) --> 100fps (10ns). Auch wenn x klein genug ist, um an sich nicht bewusst wahrgenommen zu werden: Hier wäre doch die Zeit, welche man bei 40fps verbringt, anders hell als die Zeit, welche man bei 100fps verbringt, allein durch die Häufigkeit des strobes.Müsste passen wenn Schwarz + Strobe sich quasi aufhebt von der Helligkeit her.
Tesseract
2019-06-02, 12:36:07
Zeit kurz das mit den Geisterbildern durch mehrere Strobes pro frame zu erklären?
wenn du ein objekt über den schirm verfolgst bewegen sich die augen kontinuierlich, nicht ruckartig, das objekt selbst wird aber ruckartig (bei jedem neuen frame) weiterbewegt.
mit persistentem bild schmiert dir das statische bild eine bewegungsunschärfe auf die retina da sich das auge zwischen 2 updates bewegt, das objekt aber nicht. ist die refreshrate höher bewegt sich das auge zwischen zwei updates weniger weit, ergo sind höhere Hz in bewegung schärfer.
bei low persistence displays/modi hingegen blitzt das bild kurz auf. passiert das ganau ein mal pro frame blitzt das objekt relativ zur retina immer wieder an der selben stelle auf. deswegen ist low persistence in bewegung immer scharf, flimmert aber wenn die refreshrate zu niedrig ist.
wenn du allerdings mehrere identische bilder pro frame blitzt bewegt sich das auge zwischen den blitzen weiter und jeder der blitze - obwohl für sich scharf - projiziert auf eine andere stelle der retina. 4 blitze pro frame bedeutet also 4 scharfe, überlagerte geisterbilder.
Tobalt
2019-06-02, 16:15:29
tolle Lösung gipsel. der puls muss halt über der Dauerhelligkeit liegen, damit das integral aus off+black gleich der Dauerhelligkeit sein kann.
hast du es dir auch gleich patentiert oder wieso gibts das noch nicht ?
selbst lfc könnte funktionieren da es bei niedrigen refrehsraten quasi hold type ist :-)
Tesseract
2019-06-02, 16:33:11
oder wieso gibts das noch nicht ?
weil es nicht so funktioniert wie gipsel sich das vorstellt. die gesamthelligkeit des objektes über die zeit wäre strobe+hold, in bewegung liegen der strobe und der schweif vom hold auf der retina aber nicht übereinander, d.h. bei schwankenden frameraten wird mal der strobe und mal der schweif einen größeren anteil der helligkeit ausmachen und dementsprechend würde das objekt rumflackern.
Tobalt
2019-06-02, 16:59:57
klingt logisch, aber wäre bei hohen refreshraten wohl wohl kaum schlechter als nur strobe ( da der schweif gegen 0 geht und somit im oberen viertel des fps bereichs sogut wie die gesamte helligkeit im strobe liegt), und bei niedrigen refreshraten eben halt nicht schlechter als völliger hold type.
gibts irgendwo test seiten die visualisieren wie schlecht eine inhomogener helligkeitsverlauf innerhalb eines frames aussehen ?
Tesseract
2019-06-02, 17:13:22
das hauptproblem sind schwankungen. das auge ist extrem empfindlich darauf und wenn die framerate nur um ~10% schwankt würde man das wahrscheinlich deutlich sehen, ganz besonders im hohen frameratenbereich wo ein großteil des lichtes vom strobe kommt.
simulation kenne ich keine, aber ältere TFTs deren zellen nicht schnell genug für den refresh waren hatten ein ähnliches problem mit der helligkeit in bewegung und da war es stark sichtbar.
Gipsel
2019-06-02, 19:36:18
tolle Lösung gipsel. der puls muss halt über der Dauerhelligkeit liegen, damit das integral aus off+black gleich der Dauerhelligkeit sein kann.
hast du es dir auch gleich patentiert oder wieso gibts das noch nicht ?
selbst lfc könnte funktionieren da es bei niedrigen refrehsraten quasi hold type ist :-)Genau das ist die Idee dabei. Und patentiert ist es natürlich nicht, weil es (meiner Meinung nach) die nötige Schaffenshöhe nicht erreicht, da das Prinzip eigentlich völlig klar ist (zumindest Leuten, deren Job das ist und die da mal mehr als 10s drüber nachgedacht haben). Außerdem ist es hier im öffentlichen Forum mehrfach dargestellt worden. Wenn irgendwer fragt, war es mein kostenloser Beitrag zur Verbesserung von Gaming-Monitoren ;).
Aber geben tut es das doch jetzt bei dem neuen Asus-Monitor (VG32VQ), oder? Und ich denke nicht, daß Asus das von mir hat. Da kommen die auch schon selber drauf.
weil es nicht so funktioniert wie gipsel sich das vorstellt. die gesamthelligkeit des objektes über die zeit wäre strobe+hold, in bewegung liegen der strobe und der schweif vom hold auf der retina aber nicht übereinander, d.h. bei schwankenden frameraten wird mal der strobe und mal der schweif einen größeren anteil der helligkeit ausmachen und dementsprechend würde das objekt rumflackern.Was bedeutet, daß es genau so funktioniert wie geplant. Bei 30Hz bekommst Du nunmal keine gute Bewegungsabbildung hin, egal wie. "Meine" Lösung ergibt so ziemlich den bestmöglichen Kompromiß bei der jeweiligen Framerate. *Perfekt* funktioniert eine Bewegungsdarstellung natürlich nur bei Framerate unendlich (für's menschliche Auge sind >120Hz [besser 200Hz]) schon ganz gut, aber die hat man halt nicht immer.
gibts irgendwo test seiten die visualisieren wie schlecht eine inhomogener helligkeitsverlauf innerhalb eines frames aussehen ?Verlinkungen habe ich gerade keine. Ich habe aber mal über Tests gelesen, daß sprunghafte Änderungen der Helligkeit etwas stärker wahrnehmbar sind, als kontinuierliche (selbst bei gleicher Wiederholfrequenz), also eine Rechteckmodulation der Helligkeit mit 100Hz sehen viele Leute schon leicht flackern, wenn das ein Sinus ist, eher noch nicht. Außerdem ändert sich die Perzeption der Helligkeit wohl etwas, wenn die Lichtquelle flackert, als wenn sie kontinuierlich leuchtet. Deswegen muß die Zeitdauer ohne Backlight möglichst kurz bleiben (was schnellere Pixelschaltzeiten wünschenswert macht, kombiniert mit einer höheren Maximalfrequenz [definiert ja die Summe der Zeitdauern der Dunkelzeit und des Strobes]) und außerdem muß so ein System ziemlich sorgfältig kalibriert werden, damit es bei allen eingestellten Displayhelligkeiten über einen großen Frameratenbereich zufriedenstellend funktioniert (also Dunkelzeit und Helligkeit des Strobes in Kombination mit der Helligkeit während der kontinuierlichen Phase). Will man dann noch Overdrive gleichzeitig verwenden (bei nicht-TN-Panels vermutlich nötig bei einem auf Bewegungsschärfe ausgelegtem Monitor), wird es nochmal komplizierter, alle Kombinationen halbwegs zufriedenstellend hinzubekommen. Dies dürfte der Hauptgrund sein, warum es dann doch so lange gedauert hat, bis sich der erste Hersteller mit so einem Display an die Öffentlichkeit traut.
=========================
das hauptproblem sind schwankungen. das auge ist extrem empfindlich darauf und wenn die framerate nur um ~10% schwankt würde man das wahrscheinlich deutlich sehen, ganz besonders im hohen frameratenbereich wo ein großteil des lichtes vom strobe kommt.Helligkeitsschwankungen werden dabei ja gerade vermieden, wenn das so angesteuert wird, wie beschrieben. Oder was für Schwankungen meinst Du?
simulation kenne ich keine, aber ältere TFTs deren zellen nicht schnell genug für den refresh waren hatten ein ähnliches problem mit der helligkeit in bewegung und da war es stark sichtbar.Na bei Uralt-Panels mit 30ms Reaktionszeiten der Pixel und 75Hz Refresh oder so wird das Bild an den Kanten von bewegten Objekten natürlich völlig undefiniert. Ob das hinter diesen Kanten nun tendentiell zu hell oder zu dunkel wird, hängt dabei übrigens auch vom Paneltyp und dessen Ansteuerung ab (meist haben ja dunkel zu hell andere Schaltzeiten als hell zu dunkel [z.B. ziehen dunkle Objekte einen dunklen Schweif, helle Objekte aber keinen bzw. einen deutlich kleineren]).
Und es gab ein paar Displays, deren Helligkeitsregelung nicht mit unterschiedlichen (insbesondere übertakteten) Refresheinstellungen klarkamen (Firmwarebug bei der Kopplung der PWM-Frequenz der Backlight-Helligkeitsregelung an die Refreshrate und Ähnliches). Aber das ist ja ein völlig anderes Thema.
Tesseract
2019-06-02, 19:58:03
Helligkeitsschwankungen werden dabei ja gerade vermieden, wenn das so angesteuert wird, wie beschrieben. Oder was für Schwankungen meinst Du?
angenommen wir bewegen uns im ~120-144Hz bereich: wenn erst ein paar strobes ~7ms und darauf ein paar ~8ms intervall haben wird das bewege objekt im ~8ms-bereich über 10% helligkeit verlieren. je geringer die framerate umso geringer die schwankung da der hold-anteil immer mehr dominiert, aber im oberen breich wäre das sicher problematisch.
Na bei Uralt-Panels mit 30ms Reaktionszeiten der Pixel und 75Hz Refresh oder so wird das Bild an den Kanten von bewegten Objekten natürlich völlig undefiniert.
ich meine nicht nur die kanten, da wurde oft ein ganzes objekt inkl. texturen usw. heller und dunkler je nach dem wie schnell es sich bewegt hat. kamera still -> hell, kamera bewegt sich -> objekt verliert in bewegung sichtbar helligkeit, kamera bleibst stehen -> objekt wird wieder hell. ist ein sehr unschöner effekt.
Gipsel
2019-06-02, 20:25:59
angenommen wir bewegen uns im ~120-144Hz bereich: wenn erst ein paar strobes ~7ms und darauf ein paar ~8ms intervall haben wird das bewege objekt im ~8ms-bereich über 10% helligkeit verlieren. je geringer die framerate umso geringer die schwankung da der hold-anteil immer mehr dominiert, aber im oberen breich wäre das sicher problematisch.Nein, die Objekte verlieren ja keine 10% Helligkeit (die ist ja immer noch da), sondern die werden nur sanft einsetzend langsam unschärfer.
Nehmen wir 144Hz Maximalrefresh (6,9ms) und eine Strobedauer von 1ms an. Bei Maximalrefresh gibt es nur 2 Zustände, Backlight an (1ms) oder aus (5,9ms). Jetzt sinkt die Framerate (und auch die Refreshrate unseres VRR-Displays). Die Zeitdauern des Backlight aus und an bleiben absolut konstant bei 5,9 und 1ms. Nach dem 1ms Strobe wird aber eine variabel lange Phase mit konstantem Backlight angefügt (bis der nächste Refresh kommt, der das Backlight ausknipst und den nächsten Refreshzyklus startet), der von der Helligkeit genau so bemessen ist, daß es der Durchschnittshelligkeit zwischen 5,9ms backlight aus und dem 1ms Strobe entspricht (in diesem Beispiel also grob ein Siebtel). Damit muß man am Strobe selber nichts ändern, man muß nicht vorher wissen, wie lange das Bild angezeigt werden wird, um die Helligkeit korrekt hinzubekommen. Dies tut die Phase mit dem (relativ schwachen) kontinuierlichen Backlight.
Dies führt dann natürlich zu einer mit sinkender Frame-/Refreshrate sanft einsetzenden Bewegungsunschärfe, aber die Helligkeit bleibt konstant. Bei 72Hz wäre dann z.B. die Hälfte der Helligkeit im Strobe, die Hälfte im kontinuierlichen Teil. Es ist also immer noch schärfer als 72Hz komplett ohne Strobing (was bei 72Hz schon ziemlich [unbenutzbar] flimmern würde), bei konstanter Helligkeit. Und bei noch niedrigeren Frameraten (sagen wir mal 30-40Hz) gibt es natürlich kaum noch Vorteile gegenüber konstantem Backlight. Der Vorteil ist, daß man einen kontinuierlichen Übergang hat und im mittleren Frameratenbereich zumindest noch ein paar Vorteile vom Strobing rettet.
ich meine nicht nur die kanten, da wurde oft ein ganzes objekt inkl. texturen usw. heller und dunkler je nach dem wie schnell es sich bewegt hat. kamera still -> hell, kamera bewegt sich -> objekt verliert in bewegung sichtbar helligkeit, kamera bleibst stehen -> objekt wird wieder hell. ist ein sehr unschöner effekt.Das funktioniert natürlich bei texturierten Objekten ganz genau so, wenn die ein Muster haben. Geht ja auch locker in 2D:
Grauen Kasten verschieben vs. einen Kasten aus schwarzen und weißen Linien (senkrecht zur Bewegungsrichtung). Da kann es passieren, daß der Kasten aus Linien in Bewegung recht dunkel wird, wenn die Pixel weiß auf schwarz schnell schalten und schwarz auf weiß langsam (verschiedene Farbtöne ist das gleiche Spiel). Das ist genau der von mir beschriebene Effekt. Und der hat mit den Helligkeitsänderungen durch Strobing und variabler Framerate auch nicht viel zu tun.
Tesseract
2019-06-02, 20:55:47
du hast einen denkfehler.
angenommen die gesamthelligkeit ist 1,0. auf maximalem refresh ist 1,0 strobe und 0,0 hold. ein bewegtes objekt ist scharf mit helligkeit 1,0.
geht die framerate z.B. auf 0,8 strobe + 0,2 hold runter ist die helligkeit eines statischen objekts nach wie vor 1,0 weil 0,8+0,2=1,0. bewegt sich das objekt allerdings (und wird mit dem auge verfolgt) hat die scharfe strobe-silhouette nur eine helligkeit von 0,8 wärend die restlichen 0,2 im schweif sind. ist die framerate konstant niedriger sollte das kein großes problem sein, wenn die framerate allerdings schwankt, dann ändert sich auch die helligkeit der strobe-silhouette und diese änderung wird deutlich sichtbar sein - wesentlich stärker sichtbar als die unterschiedliche länge des schweifs (was auf hold-type+VRR ebenfalls ein problem ist, allerdings erst 30%+ schwankungen wirklich auffällt).
Grauen Kasten verschieben vs. einen Kasten aus schwarzen und weißen Linien (senkrecht zur Bewegungsrichtung). Da kann es passieren, daß der Kasten aus Linien in Bewegung recht dunkel wird, wenn die Pixel weiß auf schwarz schnell schalten und schwarz auf weiß langsam (verschiedene Farbtöne ist das gleiche Spiel). Das ist genau der von mir beschriebene Effekt. Und der hat mit den Helligkeitsänderungen durch Strobing und variabler Framerate auch nicht viel zu tun.
es geht darum wie stark man helligkeitsänderungen wahrnimmt. wenn die textur in veränderlicher geschwindigkeit durch den raster fährt und je nach momentaner geschwindigkeit nur ein paar stufen heller oder dunkler wird flackert das objekt rum wie verrückt.
Gipsel
2019-06-02, 23:36:43
du hast einen denkfehler.
angenommen die gesamthelligkeit ist 1,0. auf maximalem refresh ist 1,0 strobe und 0,0 hold. ein bewegtes objekt ist scharf mit helligkeit 1,0.
geht die framerate z.B. auf 0,8 strobe + 0,2 hold runter ist die helligkeit eines statischen objekts nach wie vor 1,0 weil 0,8+0,2=1,0. bewegt sich das objekt allerdings (und wird mit dem auge verfolgt) hat die scharfe strobe-silhouette nur eine helligkeit von 0,8 wärend die restlichen 0,2 im schweif sind. ist die framerate konstant niedriger sollte das kein großes problem sein, wenn die framerate allerdings schwankt, dann ändert sich auch die helligkeit der strobe-silhouette und diese änderung wird deutlich sichtbar sein - wesentlich stärker sichtbar als die unterschiedliche länge des schweifs (was auf hold-type+VRR ebenfalls ein problem ist, allerdings erst 30%+ schwankungen wirklich auffällt).Oder das ist kein Denkfehler.
Die totale Helligkeit (Silhouette + Schweif) ist immer noch die gleiche, auch in Bewegung. Und die Helligkeitsverteilung zwischen beiden Komponenten kann bei schwankender Framerate eben etwas variieren. Den gleichen (besser: vergleichbaren) Effekt hat man (auch bei echten bewegten Objekten, nicht nur auf dem Bildschirm), wenn das Tracking mit dem Auge mal nicht ganz präzise ist (und das ist es oft nicht). Ich würde mal ganz stark vermuten, daß das meist vom Gehirn ziemlich passabel kompensiert werden könnte (zumal man in einem Spiel ja nicht nur krampfhaft ein Objekt mit den Augen verfolgt, sondern meist auch den gesamten Schirm erfassen muß, was auch eine Unmenge an extrem schnellen [aber unpräzisen] Saccaden des Auges erfordert [wo man mehrere Punkte des Bildes kurz "anspringt" und währenddessen gar nichts verfolgt wird und sogar beinahe Alles unscharf wird, was das Gehirn aber auch sehr gut rausrechnet]). Das fällt im Vergleich zu gar nicht Stroben (sondern immer konstantes Backlight) immer noch schärfer aus. Und wirklich schwankende Helligkeit fällt wohl noch viel mehr auf, als ein etwas schwankender Schweif eines Objekts.
Aber wie auch immer, das ist ja Alles noch recht theoretisch. Warten wir doch einfach erste Testberichte vom dem Asus ab, der das (oder irgendwas, um VRR mit Strobing zu kombinieren) implementiert und dann sehen wir weiter, was die wirklichen Probleme damit in der Praxis sind.
akuji13
2019-06-03, 12:05:36
Richtig, bislang hat Asus noch jedes ELMB so versaut das es (für mich) nicht nutzbar war. :wink:
gross2
2019-06-14, 23:13:28
Passt nicht ganz in den Spekulations-Thread, aber ich habe auch keinen besseren Thread gefunden um es zu posten.
Ich habe zufällig (durch ungeduldiges Button drücken) das Factory Menu für den Acer XB273K gefunden. Keine Ahnung ob es schon bekannt ist, ich konnte nach kurzer Suche aber nichts dazu finden.
Habe mich noch nicht näher damit beschäftigt aber anscheinend lässt sich auch der Lüfter damit beeinflussen.
Zum aufrufen den Menüs folgende Buttons in dieser Reihenfolge drücken:
4 | 4 | 3 | 3 | 2 | 2
Anbei ein Foto vom Menü.
Und die Beschreibung der Buttons aus dem Manual.
Power Button (oben) = 1
Steuerkreuz/D-Pad Funktion Button (unten) = 5
Wenn jemand den "grossen" Acer X27 hat bitte auch mal testen ob es bei dem genauso funktioniert.
Die gleichen Buttons in gleicher Anordnung hätte er zumindest.
Der Asus PG27UQ scheint die Buttons in umgekehrter Reihenfolge angeordnet zu haben, Power unten, Steuerkreuz oben.
Zudem auch mit anderen Funktionen belegt. Vielleicht kann es trotzdem jemand auch dort versuchen. Entsprechend vielleicht in der umgekehten Reihenfolge.
Wäre interessant in wie fern die IHVs dafür verantwortlich sind oder ob es vielleicht sogar ein generic Menu von NVIDIA für das G-Sync HDR Module ist.
Darkman.X
2019-06-15, 00:34:57
Ich habe beide Varianten getestet (von oben nach unten gezählt und umgekehrt), bei mir kommt das Service-Menü nicht.
gross2
2019-06-15, 07:37:05
Ich habe beide Varianten getestet (von oben nach unten gezählt und umgekehrt), bei mir kommt das Service-Menü nicht.
Mit welchem Monitor? Mit dem Asus nehme ich an?
Habe für den inzwischen auch keine Hoffung mehr. Habe nochmal gegoogelt und zum Acer immer noch nichts finden können. Zum Asus aber ein Post von einem User im HardOCP Forum:
https://hardforum.com/threads/asus-swift-pg27uq.1924821/page-5#post-1043777520
Der ist anscheinend auch zufällig in das Menü gekommen aber weiss nicht wie.
Mir ging es zuerst genauso, nachdem ich es einmal gesehen habe konnte ich aber nicht anders als so lange zu probieren bis ich die Kombination raus hatte um wieder in das Menü zu kommen.
Jedenfalls habe ich für den Asus keine Hoffnung mehr, da das Menü dort anders aussieht liegt das wohl in der Hand der IHVs und ist nicht von NVIDIA vorgegeben, wie ich erst gehofft hatte.
Asus hat anscheinend auch eins - siehe HardOCP, aber keine Ahnung wie das aufgerufen wird.
Wäre gut wenn noch jemand mit dem Predator X27 testen könnte.
Für den hätte ich noch Hoffung da er relativ ähnlich zu meinem "kleinen" Predator XB273K ist.
gross2
2019-06-15, 10:25:22
Jetzt kann ich auch die ersten Erkenntnisse zur Lüfterteuerung liefern.
Minimum das einstellbar ist:
Fan Duty = 0 = ca. 1300 rpm (weniger geht nicht)
Ich habe mal mit der Pendel Demo unterschiedliche Refresh Ranges an den Monitor geschickt. Wie zu erwarten verursacht das max. von 144Hz auch die höchste Last und damit die höchste Core Temp für den FCPGA.
Meine Ergebnisse wenn ich den Monitor per Pendel Demo mit konstant 130-144fps G-Sync gefüttert habe.
Standard:
Smart Fan = on
Fan Duty = 49 = ca. 1650 rpm (von Smart Fan gesteuert)
Core Temp = 62°C
Manuelle Einstellung:
Fan Duty = 0 = ca. 1300 rpm
Smart Fan = off
Core Temp = 66°C
ca. rpm, da bei mir die Anzeige um bis zu ~50 rpm schwankt
Wenn man die Fan Duty manuell einstellen will sollte "Smart Fan = off" ausgewählt sein, sonst springt Smart Fan an das wie folgt zu arbeiten scheint:
Beim überschteiten von Grenztemperaturen regelt der Lüfter hoch.
Rausgefunden habe ich bisher:
Core Temp = 66°C = Fan Duty 52
Runter zu regeln scheint Smart Fan dann gar nicht mehr (bzw. zumindest nicht zeitnah). Sondern erst wenn 60°C unterschritten werden (sprich bei 59°C), dann ging es bei mir zurück auf Fan Duty 49.
Für diejenigen die es interessiert wie es ohne Lüfter aussieht. Ich habe den Monitor ausgeschaltet, den Lüfter blockiert und dann auch mal eine Versuchsreihe gestartet.
Smart Fan scheint bei "Fan Duty = 49" zu starten und rein gar nichts zu tun so lange kein Tachosignal vom Lüfter kommt. Die Temp ging innerhalb von 2-3min. auf 82°C hoch.
Es wäre sicher noch weiter gegangen, aber das war mir persönlich schon zu viel des Guten und ich habe dort abgebrochen.
So bald der Lüfter nicht mehr blockiert war ist auch Smart Fan angesprungen und hat rapide angefangen die Fan Duty stufenweise bis auf 99 (>3000 rpm) hochzudrehen. Im Foto habe ich noch "Fan Duty = 97" bei 82°C erwischt (für die vorhergehenden Schritte war ich zu langsam...
Der Fan Duty Wert ist dann bei 99 geblieben (ca 2min.) bis runter zu einer Core Temp von 60°C.
Mit erreichen von 59°C ging es wieder stufenweise rapide (innerhalb von Sekunden) runter auf "Fan Duty = 49".
gross2
2019-06-15, 10:38:32
Hier noch die restlichen Bilder meiner Versuchsreihe.
PS: Ausschalten am Monitor scheinen die Einstellungen zu "überleben".
Aber nach dem ziehen vom Netzkabel steht Fan Duty bei mir auf 30.
Smart Fan = off (das bleibt zumindest)
Relevant für Diejenigen die den Monitor ganz vom Strom trennen...
Ich denke ich werde nochmal testen was für Temps und rpm ich mit "Fan Duty = 30" sehe und das dann auch noch nachliefern.
foenfrisur
2019-06-15, 11:29:19
wusste bis eben nicht mal, das im Monitor Lüfter verbaut werden. nur bei gsync?
teste das Menü mal bei meinem predator 34" mit freesync.
aber sinnvolle Einstellungen sind nicht dabei oder?
mfg
Mr.Magic
2019-06-15, 12:10:24
wusste bis eben nicht mal, das im Monitor Lüfter verbaut werden. nur bei gsync?
Nur bei G-Sync Ultimate (4K@144Hz).
gross2
2019-06-15, 12:42:47
wusste bis eben nicht mal, das im Monitor Lüfter verbaut werden. nur bei gsync?
teste das Menü mal bei meinem predator 34" mit freesync.
aber sinnvolle Einstellungen sind nicht dabei oder?
mfg
Ja, Lüfter im Monitor gibt es aktuell nur bei denen mit G-SYNC HDR Modul (aka G-SYNC Ultimate). Auch nicht bei denen mit dem "alten" G-SYNC Modul.
Also akutell nur bei den 4k 144Hz Monitoren mit G-SYNC HDR und wahrscheinlich bei den zukünftigen Ultrawide 3440x1440 Monitoren mit 200Hz die das gleiche Modul verwenden werden (wenn sie tatsächlich mal auf den Markt kommen).
Man kann halt sonst auch noch die Standard Farbwerte für die Farbprofile Warm, Normal, Kalt anpassen und solche Spielereien.
Weiss nicht bei welchen Monitoren die Tastenkombination noch funktioniert.
Vielleicht noch bei dem Freesync Schwester Modell von meinem?
Acer Nitro XV273K. Vielleicht auch noch bei anderen neuen Acer Monitoren.
Müsste jeder mal selber testen.
Der XB270HU hatte z.B. dem Youtube Video nach wieder eine andere Tastenkombination um in das Menü zu kommen:
https://www.youtube.com/watch?v=kwPkE4P8CAk
Aber zurück zu dem was ich noch schuldig bin.
Erstmal eine Korrektur.
Wenn der Monitor mit "Smart Fan = off" ausgeschaltet war wird nach dem Einschalten IMMER "Fan Duty = 30" gesetzt.
Unabhängig ob das Netzteil gezogen war oder der Monitor über den Power Button ausgeschaltet wurde.
Ich habe zuvor nur nicht gewartet bis der Monitor ganz aus war...
So lange der Lüfter noch nachläuft kann man ihn wieder einschalten und die Einstellung bleibt, wenn der Lüfter steht ist beim Neustart mit "Smart Fan = off" effektiv die "Fan Duty" Einstellung weg und wieder auf 30 gesetzt.
Egal ob man manuell einen niedrigeren oder höheren Wert eingestellt hat.
Weniger als "Fan Duty = 30" macht aber auch keinen Sinn da die Lüfterkennlinie bis "Fan Duty = 40" relativ flach (1250 - 1350 rpm) ist und sich erst über 40 was nennenswertes tut.
Entsprechend habe ich mit "Smart Fan = off" und "Fan Duty = 30" auch das gleiche Ergebnis das ich schon mit "Fan Duty = 0" hatte. 66°C bei ca. 1300rpm.
Effektiv bleibt also nur die Wahl "Smart Fan = off", was in permanent ~1300rpm Lüfterdrehzahl resultiert und bei mir +5°C höhere Core Temp ergeben hat.
Oder "Smart Fan = on", mit ca. 1650rpm (ich höre den Unterschied bei laufendem PC nicht wirklich) und der Sicherheit das der Lüfter noch genug Spielraum hat hochzudrehen falls die Core Temp doch mal nach oben ausreisst.
Ich denke ich beibe bei der Standard-Einstellung mit "Smart Fan = on".
Hätte mir zuerst aber auch echt mehr versprochen als ich das Menü gestern gefunden habe.
Ich hätte nichts dagegen wenn der Monitor deutlich dicker wäre mit grossem Passivkühler auf dem G-SYNC HDR Modul...
Aber nein, lieber dünn und mit Lüfter. Danke NVIDIA!
Aber nicht das es bei AMD besser läuft, der gleiche Mist, nur in dem Fall bei den Chipsatz Kühlern für die neuen X570 Mainboards...
PS: Ich habe das Lüfter Blocken auch mit "Smart Fan = off" getestet. So bald der Lüfter wieder laufen darf dreht er auch nicht schneller als er eingestellt ist (Core Temp über 80°C hin oder her).
PPS: Falls sich jemand wegen den Screenshots wundert, der Wert für "Panel Using Time" wird Minutenweise hochgezählt, "Panel OverClock Time" zählt anscheinend nur die Zeit in der das Panel tatsächlich über 120Hz anzeigen muss und wird nur in 30min. Schritten hochgezählt.
Ich hatte mich zuerst gewundert das sich nichts getan hat nachdem ich OverClock aktiviert habe.
Kartenlehrling
2019-06-20, 14:39:02
ROG Swift PG35VQ Ultra-Wide HDR Gaming Monitor – 35” 21:9 (3840 x 1440), FALD 512 Zones,
Peak Brightness 1000nits, Overclockable 200Hz, 4ms, G-SYNC Ultimate, DisplayHDR1000 ™,
Quantum-dot, Smart Fan Control, Aura Sync, Hi-fi-grade ESS Amplifier
35-inch UWQHD 21:9 (3840 x 1440) Ultra-Wide HDR gaming monitor with an overclockable 200Hz refresh rate and 4ms response time for super-smooth gaming visuals
G-SYNC ULTIMATE features the latest NVIDIA G-SYNC processors to deliver the best HDR gaming experience.
Full Array Local Dimming (FALD) backlight delivers 512 independent LED zones and peak brightness 1000 nits with DisplayHDR 1000 certification.
Quantum-dot display with a wide DCI-P3 90% color gamut provides realistic colors and smoother gradation
Smart fan control dials in the exact rotational speed needed to maintain ideal thermals without overdoing it and causing unnecessary noise.
ASUS PG35VQ 200Hz 3440 x 1440 Ultraweit mit G-SYNC HDR
Der Monitor wird derzeit ausgewertet und voraussichtlich bis Juli weltweit veröffentlicht.
Ein UVP von 2699 £ wurde von unseren britischen Pressekontakten erteilt.
https://www.asus.com/Monitors/ROG-SWIFT-PG35VQ/
Auf jedenfall über 3000€, nicht gerade billig. :eek: und dann auch noch Lüfter.
https://www.asus.com/media/global/products/hnNSgr7izutbvP07/P_setting_000_1_90_end_500.png
just4FunTA
2019-06-20, 14:58:58
Dann habe ich mit den 2.000€ ja ein richtiges Schnäppchen gemacht für meinen C9 55" Oled. ;)
M4xw0lf
2019-06-20, 15:05:46
Dann habe ich mit den 2.000€ ja ein richtiges Schnäppchen gemacht für meinen C9 55" Oled. ;)
Sehr wahrscheinlich für absehbare Zeit der Preis-Leistungs-Sieger unter den großformatigen "Gaming""Monitoren" ^^
Kartenlehrling
2019-06-20, 15:10:08
Wollte nicht LG oder ein Chinese ein 48" OLED bringen?
Ich finde 48-inch immer noch zu gross aber besser als ein 55er allemal.
Sardaukar.nsn
2019-06-20, 16:08:19
LG nächstes Jahr, bis dahin sollte sich das Thema HDMI 2.1 inkl VRR auch bei Grafikkarten verfügbar sein https://www.golem.de/news/lg-kleine-48-zoll-oled-fernseher-kommen-bald-1906-141713.html
just4FunTA
2019-06-20, 16:25:21
meine GTX1080 schafft in 4k eh keine gute Performance, aber glücklicherweise unterstützt der TV 120Hz @2560x1440 das war auch meine Auflösung auf meinem 27" GamingMonitor.
Sardaukar.nsn
2019-06-20, 16:39:25
Ja, ein aktueller LC C9 hat auch schon die 1440p Unterstützung. https://www.rtings.com/tv/reviews/lg/c9-oled Bei Kapitel Input-Lag bzw. Supported Resolutions.
Als 48" eine sehr spannende alternative zu diversen Gaming Monitoren, die ja auch alle kein vernünftiges HDR darstellen können.
Darkman.X
2019-06-30, 17:16:00
[Diverse Screenshots vom Servicemenü vom "Acer XB273K"]
Hey,
wenn es dich interessiert: Hier das Servicemenü vom "Asus PG27UQ". Ich komme geschätzt einmal im Monat ohne Tastenkombination ins Servicemenü rein, keine Ahnung warum.
Außer "Check Fan Speed" (beide Lüfter drehen für 2,5 sek mit 100%) habe ich noch keinen Menüpunkt ausprobiert, ich traue mich nicht.
Was man im Screenshot nicht sehen kann: Die Werte von "Module Fan" (ungefähr in der Mitte). Die Werte wechseln im Sekundentakt zwischen "Module Fan" und "System Fan" hin und her. Beim "Module Fan" wurden "45" (Prozent) & "2470" (U/min) angezeigt.
.
gross2
2019-07-04, 14:43:16
Hey,
wenn es dich interessiert: Hier das Servicemenü vom "Asus PG27UQ". Ich komme geschätzt einmal im Monat ohne Tastenkombination ins Servicemenü rein, keine Ahnung warum.
Außer "Check Fan Speed" (beide Lüfter drehen für 2,5 sek mit 100%) habe ich noch keinen Menüpunkt ausprobiert, ich traue mich nicht.
Was man im Screenshot nicht sehen kann: Die Werte von "Module Fan" (ungefähr in der Mitte). Die Werte wechseln im Sekundentakt zwischen "Module Fan" und "System Fan" hin und her. Beim "Module Fan" wurden "45" (Prozent) & "2470" (U/min) angezeigt.
.
Durchaus Interessant es mal zu sehen.
Falls du irgendwann mal rausfindest wie man in das Servicemenü kommt wäre es evtl. noch interessant das für andere zu dokumentieren.
War auch der Grund aus dem ich es für meinen Acer gepostet habe.
Ich habe bei meinem aber auch lieber die Finger von den Farbeinstellungen gelassen.
Und die Fan Optionen die meiner hat sind auch wieder komplett auf Default.
Halte ich für am sinnvollsten von dem was möglich ist.
Aber wie gesagt, zumindest ist es mal dokumentiert wie man beim Acer XB273K ins Servicemenü kommt und wie sich die Lüftersteuerung verhält.
Wenn es jemand für den Acer X27 testen und bestätigen könnte wäre es gut, ich glaube das steht ja noch aus?
PS: Total Uptime finde ich beim Asus interessant, scheint seit dem letzten Power off zu zählen? Du wirst ihn ja sicher schon länger als 7min am laufen gehabt haben. Unter der Bezeichnung hätte ich allerdings was anderes erwartet...
Darkman.X
2019-07-05, 00:39:05
Die niedrige Uptime fiel mir auch auf. Wen ich geschätzt 1x im Monat ohne Tastenkombination reinkam, dann fragte der Monitor auch nach den Aura-Einstellungen (die RGB-Beleuchtung usw.), wie nach einem Reset des Monitors. Vielleicht wurde in diesem Fall alles zurückgesetzt, inkl. der Uptime?!
Mit Pech komme ich zukünftig nicht mehr in das Servicemenü, weil ich ein FW-Update von Asus installiert habe. Vielleicht wurde mein Problem damit auch behoben.
Und eine Tastenkombination herausfinden? Bei 4 Tasten + Steuerkreuz und der unbekannten Länge ist das ein wenig viel zu testen. Und umständlicher wird es, falls sogar ein Stromreset noch involviert ist, wie ich es schon bei anderen Asus-Modellen gelesen hatte.
gross2
2019-07-05, 10:27:14
Ja klar, verstehe ich.
Ich hätte auch fast aufgegeben die Tastenkombination rauszufinden und ich wusste zumindest noch ungefähr was ich rumgedrückt habe als ich das erste mal ins Menü gekommen bin.
War nur als Bitte gemeint die Tastenkombinatione zu posten falls du zufällig doch drauf kommst, nicht als Aufforderung das du sie brute force rausfinden sollst.
Bzgl. der Uptime klingt mir die Theorie das sie nach einem ungewollten Reset auf 0 gesetzt wird auch am plausibelsten.
Aber das ist dann trotzdem ein spannender Bug.
Typisch IT das es von uns einfach als Bug abgetan wird. Ich meine, lass sowas mal mit dem Kilometerzähler bei einem Auto passieren, da ist man glaube ich ein bisschen weniger nachsichtig...
Mr.Magic
2019-07-05, 11:00:25
Uptime ist doch nur wie lange das Gerät seit dem letzten Start läuft?! Wie bei Windows* eben auch.
*
https://www.technipages.com/windows-10-how-to-see-system-uptime
gross2
2019-07-05, 12:44:38
Ja, wir sprechen aber von dem Wert der sich "Total Uptime" im Menü nennt.
Das "Total" hatten wir uns jetzt nur bei den letzten Posts gespart dazu zu schreiben...
Und bei "Total Uptime" erwarte ich eigentlich doch die gesamte aufsummierte Uptime.
Doc Bo
2019-07-07, 01:39:59
Hi zusammen, erstmal fettes Danke an @gross2 für den Service Menü Zugang.
Kann man den XB273K in Zukunft updaten, also die FW?!
Ich glaube beim großen Bruder ist das möglich.
Snoopy69
2019-07-09, 21:47:39
Sind User mit einem Acer Predator X27 hier? Bräuchte Hilfe...
Doc Bo
2019-07-25, 06:50:08
Mein Monitor XB273K stellt sich sporadisch auf 82hz, das Ausgabeformat ändert sich ebenfalls.
Es kommt plötzlich einfach so aus dem Nichts, der Monitor der 120hz bzw im OC 144hz (nutze ich nicht) beherrscht,
stellt sich einfach mal auf 82hz. Beim spielen ist das nocht nicht passiert, und das seltsame ist das die 82hz dann auch
die maximale Frequenz ist, und das Ausgabeformat stellt sich von RGB auf YCbrCr422 und lässt sich auch nicht mehr
ändern. Manchmal kommt es auch vor das dazu auch noch die Gsync Funktion im Treiber verschwindet. Es hilft am Ende nur ein Neustart.
Treiber wurde aktualisiert und brachte keine Veränderung, sogar Windows habe ich neu aufgesetzt.
Die Graka (2080 Ti) ist auch nicht anders Übertaktet also so wie sie ausgeliefert wurde.
Ob es am DP Kabel liegt kann ich nicht sagen da ich kein anderes zur verfügung habe. ist ein KabelDirekt - 8K DisplayPort Kabel - 3m.
Als ob die Bandbreite nachlässt und nur noch die besagten Werte möglich sind.
Darkman.X
2019-07-25, 21:14:35
Was ich so bisher immer gelesen hatte (nicht besonders viel), lagen solche Probleme (z.B. auch Bildaussetzern) immer am Kabel, weil die Qualität für die erforderliche Bandbreite nicht hoch genug war....wie du es ja schon selber vermutest.
Snoopy69
2019-07-25, 21:33:20
3m sind schon viel...
Probier mal ein Club3D DP 1.4 Kabel. Die sollen sehr gut sein.
Oder ist das mit dem Originalkabel auch so?
Bei meinem X27 ist es 2m lang
Clonemaster
2019-08-02, 13:27:09
Hallo, ich bin heute über diesen thread gestolpert, da ich die Tastenkombination vom Servicemenü meines XB273K gesucht habe.
Eventuell könnte deshalb für manche mein Lüfterumbau interessant sein.
https://abload.de/thumb/9dkupdfjsb.jpg (https://abload.de/image.php?img=9dkupdfjsb.jpg) https://abload.de/thumb/qlk5jewjh4.jpg (https://abload.de/image.php?img=qlk5jewjh4.jpg)
Erste Ergebnisse bescheinigen bessere Temperaturen als der original Lüfter, ohne den neuen
Lüfter zu hören (für meine Ohren) PWM 50% = 1200rpm
Einkaufsliste:
Noctua NF A9x14
Shroud (Rahmen eines 92mm billig Lüfter)
4x Schraube M4x50
Original Lüfter wurde abgesteckt und ausgebaut. Rückbau auf Original problemlos Möglich.
(Umbau nicht mit original Standfuß kompatibel!)
https://abload.de/thumb/gvjtzxijki.jpg (https://abload.de/image.php?img=gvjtzxijki.jpg)
Snoopy69
2019-08-03, 04:03:16
Konntest du den org. Lüfter ohne öffnen des Gehäuses entfernen?
Wenn man den Standfuß entfernt, sieht man ja den Großteil vom Lüfter
Und welche Tastenkombination hast du benutzt fürs Servicemenu?
Clonemaster
2019-08-03, 11:59:56
Nein, den Stecker abmachen, ohne das Gehäuse zu öffnen, ist fast unmöglich.
Wie ein paar Beiträge zuvor erwähnt: 4 4 3 3 2 2
aufkrawall
2019-08-24, 10:58:12
Gab den Acer Nitro VG270UP für 300€ netto bei Amazon: Außer, dass die BFI wegen Farbgeschmieres in Bewegung völlig nutzlos ist, überzeugt das Gerät in der Breite.
Range geht von 40-144Hz, der Übergang von LFC an/aus ist nicht zu bemerken. Flackert vielleicht auf Ladebildschirmen minimalst, in Spielen bisher (trotz einiger fieser Stocker) gar nicht. Die hohe Range zeigt die erwünschte Wirkung: Ich muss mir um schimmliges Vsync und Triple Buffering keine Gedanken mehr machen, FRTC bei 140fps oder in-game Limiter etwas weiter drunter haben Tearing bisher vollständig eliminiert. Mit Anti-Lag und VRR sind niedrigere Frameraten zwar weiterhin nicht toll, aber doch trotzdem wesentlich weniger unangenehm.
Die Overdrive-Option ist mit FreeSync ausgegraut. Keine Ahnung, ob das adaptiv, ein wenig oder komplett aus bedeutet. Der Unterschied beim 144Hz Text-Scrolling ohne FreeSync ist mit OD aus vs. "normal" quasi nicht zu bemerken, es verschwimmt in beiden Fällen eklig. Die höhere OD-Stufe macht Höllen-Coronas, völlig nutzlos.
Farben sind angenehm, gesättigte Farben kommen als solche wesentlich besser rüber als auf dem Qnix. Schwarzwert und BLB sind für IPS auch nicht schlecht, wobei der Glow recht stark auffällt. Der ist bei der Panel-Art übrigens immer noch von links gesehen gelblich, von rechts weiß. Könnte besser sein, aber das ist halt der Kompromiss.
von Richthofen
2019-08-24, 11:13:01
Damit also DVI adé. Vor dem Problem stehe ich ebenfalls. Um eine neue Graka braucht man sich damit damit leider keine Gedanken zu machen.
Die Lichthöfe in den Ecken des QNIX sind mMn seine größte Schwäche. In den Nächten von Kingdom Come, die im Gegensatz zu anderen Spielen richtig dunkel sind, bringt einen das zur Verzweiflung. Habe allerdings die Helligkeit in Spielen stets auf Max. Der Acer ist bestimmt Preis-/Leistungsmäßig eine gute Wahl. Hab den auch auf dem Radar. Preise liegen bei ab 350€.
aufkrawall
2019-08-24, 11:25:19
Goldener Pro-Tipp: Es darf mit IPS nicht zu dunkel im Raum sein. :tongue:
Ich hatte vor ein paar Jahren schon mal so ein AU Optronics Panel-Gerät hier stehen, das hatte den gelben Pissglow auch bei mittiger Betrachtung noch übers ganze Bild verteilt. Ich hab jetzt wohl etwas Glück gehabt, aber es dürfte sich schon etwas getan haben. Hab btw. auch 0 Pixelfehler und Staubeinschlüsse.
aufkrawall
2019-08-27, 13:11:21
Gab den Acer Nitro VG270UP für 300€ netto bei Amazon: Außer, dass die BFI wegen Farbgeschmieres in Bewegung völlig nutzlos ist, überzeugt das Gerät in der Breite.
Ich nehms zurück, die Gamma-Kurve ist ein Witz. Stellt man Gamma auf 2,2 ohne Black Boost, gibt es üblen Black Crush. Stellt man Black Boost hoch, wirken insbesondere mittelhelle Grautöne widerwärtig grell. Stellt man Gamma auf 2,4 und Black Boost höher, hat man trotzdem noch ein zu knalliges Bild.
Unbrauchbar, weil etwas völlig simples ohne Not verkackt. Schade. Ich hab ewig an den Einstellungen rumgefriemelt, irgendwann reichts. Typischer "Gaming"-Schrottkrempel...
Qnix wieder angeschlossen -> It just works vong die farben her.
#qnixforlife
Kartenlehrling
2019-09-06, 14:36:48
Der Monitor ist schon Sexy :eek:
https://encrypted-tbn0.gstatic.com/images?q=tbn:ANd9GcRUoE07t5iIBsKtcZBO9_mhxjIp2uKrhuWJZf2FYlIpL0Gsm_mFbg
https://www.gadgetfreak.gr/wp-content/uploads/2019/09/img-20190903-144654asusmonitor.jpg
https://www.computerbase.de/2019-09/asus-proart-pa32ucg-mini-led-monitor-displayhdr-1400/
Asus ProArt PA32UCG: Mini-LED-Monitor unterstützt schon DisplayHDR 1400
Sardaukar.nsn
2019-09-07, 08:02:54
Schön das statt G-/Free-Sync einfach mal direkt von VRR gesprochen wird. HDMI 2.1 ick hör dir trapsen.
BoMbY
2019-09-07, 13:20:49
Ja, da kommen wir endlich in den Bereich von Displays welche ich mir schon vor zwei Jahren gewünscht hätte.
Kartenlehrling
2019-09-07, 13:56:31
Das Vormodell hat schon 2200€ gekostet und hatte nur ein 1/4 der Backlight LED, das K-Modell wird die 3000€ durchschlagen.
https://www.asus.com/Monitors/ProArt-PA32UCX-K/
ASUS ProArt PA32UCX-K
Signal Input : Thunderbolt™ 3 USB-C™ x2 (In x1, Out x1), HDMI(v2.0b) x3, DisplayPort 1.2
Wollen die uns verarschen?
Ich sehe das doch richtig das die volle übertragung nur über den Thunderbolt3 Anschluss möglich ist?!
https://www.club-3d.com/en/detail/2443/mini_displayport_1.4_to_hdmi_2.0b_hdr/
Mini DisplayPort 1.4 to HDMI 2.0b HDR
Rente
2019-09-07, 14:27:49
Wieso? Die Grafikkartenhersteller wollen dich eher verarschen, weil sie immer noch nicht HDMI2.1 bzw. VRR über HDMI einheitlich implementiert haben und kaum bis gar nicht USB-C/TB3-Anschlüsse anbieten.
Der Monitor- und Schnittstellenmarkt bleibt noch eine Weile ein Trauerspiel, es kommen u.a. immer noch 4K/120 Hz-Monitore die kein DSC unterstützen/implementiert haben, HDR-Monitore ohne Dimming-Zonen, etc...
Davon mal ab ist die Zielgruppe des Monitors auch definitiv nicht in der Spieler-Ecke zu suchen, der Preis wird locker die 3000€, eher sogar 5000€ sprengen.
Snoopy69
2019-09-07, 14:57:42
Das Vormodell hat schon 2200€ gekostet und hatte nur ein 1/4 der Backlight LED, das K-Modell wird die 3000€ durchschlagen.
https://www.asus.com/Monitors/ProArt-PA32UCX-K/
ASUS ProArt PA32UCX-K
Wieder mit Lüfter?
Mal gucken, wann ich meinen Predator auf Wasser umbaue...
BTW:
Bis gestern war der Predator kurz für 1679€ zu haben.
Normal sind sonst 1999...
Bucklew
2019-09-10, 14:02:06
NVIDIA bringt VRR über HDMI2.0:
https://www.nvidia.com/en-us/geforce/news/lg-gsync-compatible-hdmi-big-screen-gaming/
Automatisch aktiviert für 5 LG TVs, manuell für jedes Gerät aktivierbar.
Man korrigiere mich, aber damit hat NVIDIA die größte Verbreitung von VRR-Modi? ;D
Unterstützt nicht AMD auch VRR via HDMI 2.0?
BTW unterstützen das nur GTX16 und RTX Karten. So weit verbreitet ist das dann leider doch nicht.
mironicus
2019-09-10, 14:16:43
Könnte man den USB-C Anschluss der RTX-Karten nicht auch für VRR (via DP 1.4) nutzen?
Laut Golem "Im Test der Geforce RTX 2080 (Ti) sind wir kurz auf den Virtual Link eingegangen, da es keine passenden VR-Headsets für den Anschluss gibt. Der Virtual Link kann jedoch mehr: Er ist als USB-C-Buchse ausgeführt und unterstützt neben USB 3.1 Gen2 für Daten auch noch Power Delivery für bis zu 27 Watt und schleift ein Displayport-1.4-Signal für 4K-Bildschirme mit 60 Hz durch."
Blediator16
2019-09-10, 15:05:58
NVIDIA bringt VRR über HDMI2.0:
https://www.nvidia.com/en-us/geforce/news/lg-gsync-compatible-hdmi-big-screen-gaming/
Automatisch aktiviert für 5 LG TVs, manuell für jedes Gerät aktivierbar.
Man korrigiere mich, aber damit hat NVIDIA die größte Verbreitung von VRR-Modi? ;D
Bei AMD VRR über HDMI seit Jahren ein Standard.
https://premiumbuilds.com/televisions/freesync-tv-list/
:freak:
AintCoolName
2019-09-10, 15:18:49
Das heißt die TVs brauchen ein Firmware Update weil Nvidia nicht VRR macht sondern was anderes?
Das heißt die TVs brauchen ein Firmware Update weil Nvidia nicht VRR macht sondern was anderes?
Nene, sie nennen es nur anders.
NV öffnet sich scheinbar für den HDMI-VRR-Standard :smile:
(ich hoffe mal, das sich NV nicht wieder künstliche Sperren einfallen lässt ...)
"G-SYNC Compatible firmware updates"
G-Sync kann man nicht nur durch n Software-Update frei schalten, Free-Sync schon :wink:
M.f.G. JVC
Bucklew
2019-09-10, 16:30:25
Bei AMD VRR über HDMI seit Jahren ein Standard.
Aber nur proprietär:
AMD bietet schon seit HDMI 1.4 variable Refresh-Raten über eine herstellereigene, aber spezifikationskonforme Erweiterung an. Einige QLED-Fernseher von Samsung beherrschen FreeSync in Full HD (1920 × 1080 Pixel) und WQHD (2560 × 1440 Pixel) mit bis zu 120 Hertz.
Einen Windows-Radeon-Treiber mit HDMI-VRR-Unterstützung gibt es bis dato nicht. Die Spielekonsolen Xbox One X und Xbox One S mit AMD-Hardware unterstützen bereits seit Anfang 2018 VRR, nutzen aber auch eine andere Display-Engine als die Desktop-GPUs.
Und wir wissen ja wie bööööööse hersteller-eigene VRR-Standards sind :freak:
Man korrigiere mich, aber damit hat NVIDIA die größte Verbreitung von VRR-Modi? ;D
Ich korrigiere:
AMD hat es geschafft VRR zu standardisieren.
NV will nur nicht für alle sichtbar zu geben, das G-Sync tot ist :biggrin:
(ein paar Mäuse können sie damit bestimmt noch melken)
M.f.G. JVC
Unicous
2019-09-10, 16:47:59
Schon traurig (aber auch lustig), wie Bucklew Nvidias Marketing vollkommen auf den Leim gegangen ist.:freak:
Samsung 2018 TVs mit 120 Hz FreeSync und VRR
06.04.2018
Die zweite Technologie ist VRR (Variable Refresh Rate) per HDMI 2.1, die in Form und Funktion weitgehend FreeSync ähnelt, aber für Fernsehgeräte gedacht ist. Laut Samsung ist es nicht mit FreeSync identisch. Allerdings sollte erwähnt werden, dass nicht alle 2018er-Samsung-Fernseher eine volle HDMI-2.1-Unterstützung bieten. Diese Fernseher basieren immer noch auf dem HDMI-2.0-Schnittstellenstandard. Allerdings dürfen Hersteller bestimmte Funktionen von HDMI 2.1 auch auf HDMI-2.0-basierten Fernsehern bereitstellen. Aus diesem Grund kann Samsung auf seinen Fernsehgeräten VRR-Unterstützung bieten.
https://www.prad.de/samsung-2018-tvs-mit-120-hz-freesync-und-vrr/
BoMbY
2019-09-10, 17:40:03
Da gibt es auch eine Bestätigung:
When FlatpanelsHD met HDMI Forum’s CEO Rob Tobias and Marketing Director Brad Bramy at CES 2018, the team highlighted VRR (Variable Refresh Rate), QMS (Quick Media Switching) and eARC (enhanced Audio Return Channel) as examples of features that can be added via a firmware update.
https://www.flatpanelshd.com/news.php?subaction=showfull&id=1516615699
Zum Teil unterstützen HDMI 2.0 Fernseher/Geräte ja auch HDR10+, wobei "Dynamic HDR" eigentlich auch scheinbar erst ab 2.1 vorgesehen ist:
https://www.hdmi.org/download/hdmi_2_1/FeatureSupport.jpg
nordic_pegasus
2019-09-10, 21:46:30
Bei AMD VRR über HDMI seit Jahren ein Standard.
https://premiumbuilds.com/televisions/freesync-tv-list/
:freak:
AMD unterstützt bislang nicht VRR (Feature des HDMI Forums aus den HDMI 2.1 Specs). Es gibt hingegen TVs, die FreeSync über HDMI unterstützen.
Unicous
2019-09-10, 21:57:43
Die Xbox One unterstützt VRR, ergo unterstützt AMD VRR.
Das Gelaber hier ist eh nur Semantik, aber das checkt ihr nicht.
Screemer
2019-09-10, 21:59:24
gibt aber halt keinen treiber für radeons. ist derzeit halt fakt und warum das so ist weiß auch nur amd.
Unicous
2019-09-10, 22:08:33
Das ist eine andere Geschichte. Warum die LG TVs von Nvidia unterstützt werden und nicht von AMD ist mehr als merkwürdig. Zumal sich LG dazu auf Nachfrage nicht äußern wollte. WTF?:confused:
Es stellen sich die Fragen:
Kann/will AMD die LG TVs nicht unterstützen? (Unwahrscheinlich)
Hat LG sie nicht zur Validierung geschickt?
Kann/will LG "FreeSync" nicht unterstützen/ sich für das Label validieren lassen?
Hat AMD Probleme VRR bei ihren APUs/GPUS zu implementieren?
Hat AMD geschlafen?
Sie werden unterstützt und AMD hat vergessen das zu kommunizieren oder sie im Treiber auszuweisen.
Das sind valide Fragen.
Fakt ist aber: VRR als Standard wird unterstützt und das Gegenteil zu behaupten ist schlicht und einfach ein bad faith argument, wie man so schön sagt. Die Diskussion haben wir hier schon mal geführt.
Nene, sie nennen es nur anders.
NV öffnet sich scheinbar für den HDMI-VRR-Standard :smile:
(ich hoffe mal, das sich NV nicht wieder künstliche Sperren einfallen lässt ...)
"G-SYNC Compatible firmware updates"
G-Sync kann man nicht nur durch n Software-Update frei schalten, Free-Sync schon :wink:
M.f.G. JVC
heißt das jetzt das mein "Freesync" Monitor ohne display port mit HDMI 2.0 evtl. von NV unterstützt werden könnte?
nordic_pegasus
2019-09-11, 07:54:58
heißt das jetzt das mein "Freesync" Monitor ohne display port mit HDMI 2.0 evtl. von NV unterstützt werden könnte?
ich gehe davon aus, dass Nvidia lediglich VRR des HDMI-Forums unterstützt. Darum wird man weiterhin nicht Async über HDMI auf Monitoren/TVs nutzen können, welche nur Freesync haben.
Die Xbox One unterstützt VRR, ergo unterstützt AMD VRR.
Das Gelaber hier ist eh nur Semantik, aber das checkt ihr nicht.
AMD unterstützt VRR des HDMI-Forums auf der XBox One X/S, das ist korrekt. Jedoch unterstützt derzeit keine AMD Grafikkarte diese Technik (treiberseitig noch nicht implementiert).
Auch wenn ich hier wieder verhauen werde, FreeSync und VRR sind nicht 100% identisch. Aus welchen anderen Grund funktioniert derzeit kein Async mit AMD Grafikkarten an LG TVs mit HDMI 2.1 (VRR). Und warum sind dann Samsung TVs explizit mit FreeSync kompatibel?
Bucklew
2019-09-11, 08:20:51
AMD unterstützt VRR des HDMI-Forums auf der XBox One X/S, das ist korrekt. Jedoch unterstützt derzeit keine AMD Grafikkarte diese Technik (treiberseitig noch nicht implementiert).
Ach jetzt komm doch Unicous nicht mit Fakten! Es ist ganz klar NVIDIA Marketing, wenn man diesen Fakt wiedergibt :ulol:
Was AMD aktuell da mit TVs liefert ist schlicht proprietär. Ganz einfach.
Gipsel
2019-09-11, 09:26:33
Hatten wir das nicht schon mal? Die eigentliche Umsetzung ist offenbar identisch, nur die Flags für den Support und die Codierung für die unterstützte Range in den EDID-Daten ist unterschiedlich,
Screemer
2019-09-11, 09:34:37
Sollte man da nicht was per Cru drehen können?
heißt das jetzt das mein "Freesync" Monitor ohne display port mit HDMI 2.0 evtl. von NV unterstützt werden könnte?
Ja, sollte so kommen :smile:
(aber nur Tu, Pa wollen sie nicht frei schalten)
Über DP hat es NV ja schon frei geschaltet...
Ist beim HDMI genau das gleiche ;)
AMD hat auch versprochen HDMI 2.1-VRR frei zu schalten...
(wenn die Technik am Markt angekommen ist)
Wäre langsam mal zeit das Versprechen einzulösen.
Egal, ich warte sowieso auf eine echte HDMI 2.1 Graka :biggrin:
M.f.G. JVC
Bucklew
2019-09-11, 10:44:11
nur die Flags für den Support und die Codierung für die unterstützte Range in den EDID-Daten ist unterschiedlich,
Kurz: proprietär :ugly:
(aber nur Tu, Pa wollen sie nicht frei schalten)
Kann auch schlicht technische Gründe habe :rolleyes:
Gipsel
2019-09-11, 11:36:44
Sollte man da nicht was per Cru drehen können?
Die Aussage kommt glaube ich von den Blurbuster-Leuten, die darüber bereits laut nachgedacht haben. ;)
=========================
Kurz: proprietär :ugly:
Kann auch schlicht technische Gründe habe :rolleyes:Ähm, welche technischen Gründe sollten denn verhindern, daß man die EDID-Daten etwas anders interpretiert? :rolleyes:
Bucklew
2019-09-11, 11:52:19
Ähm, welche technischen Gründe sollten denn verhindern, daß man die EDID-Daten etwas anders interpretiert?
Weil z.B. die Spezifikation dagegen spricht.
Ist auch völlig egal, AMD unterstützt kein HDMI-VRR auf Radeons und die Lösung mit Samsung funktioniert eben auch nur mit Samsung. Somit ist die Aussage von NVIDIA völlig in Ordnung.
Gipsel
2019-09-11, 11:58:06
Weil z.B. die Spezifikation dagegen spricht.Das ergibt keinen Sinn. Man interpretiert dann doch nur die EDID-Daten gemäß HDMI 2.1 VRR Spec.
Ist auch völlig egal, AMD unterstützt kein HDMI-VRR auf Radeons und die Lösung mit Samsung funktioniert eben auch nur mit Samsung. Somit ist die Aussage von NVIDIA völlig in Ordnung.Mal abwarten, wie die Treiberlage bei AMD ist, wenn die entsprechenden Firmwareupdates für die Displays und entsprechenden Treiber-Updates von nV dafür kommen. Noch geht da nämlich auch nichts bei nV. :lol:
Bucklew
2019-09-11, 12:13:26
Das ergibt keinen Sinn. Man interpretiert dann doch nur die EDID-Daten gemäß HDMI 2.1 VRR Spec.
Die Grafikkarten beherrschen nur HDMI2.0b, wie wollen die die HDMI2.1 VRR Spec beachten? :confused:
Mal abwarten, wie die Treiberlage bei AMD ist, wenn die entsprechenden Firmwareupdates für die Displays und entsprechenden Treiber-Updates von nV dafür kommen. Noch geht da nämlich auch nichts bei nV. :lol:
Mal schauen, hängt aktuell nur an LG und deren Firmware. Mal schauen, ob die Samsung TVs mit HDMI VRR klar kommen oder nur mit FreeSync ;D
Gipsel
2019-09-11, 13:33:56
Die Grafikkarten beherrschen nur HDMI2.0b, wie wollen die die HDMI2.1 VRR Spec beachten? :confused:
Nun, wie man EDID-Daten liest, ändert sich nicht mit HDMI 2.1. Dies wird davon überhaupt nicht berührt. Im Prinzip geht es um die banale Frage, ob in einem bestimmten Datenblock (den alle jetzt auch schon lesen können, nur eben eventuell noch nicht richtig interpretieren) Bit x oder Bit y gesetzt ist und ob die Range nun an Byte w oder Byte z steht.
Kann auch schlicht technische Gründe habe :rolleyes:
Ja, es könnte sein das sich NV gewisse Features die man dafür benötigt gespart hat ...
Da es aber schon bei DP und in Laptops funktioniert, scheint Das nicht der Fall zu sein :wink:
Mal schauen, ob die Samsung TVs mit HDMI VRR klar kommen oder nur mit FreeSync ;D
Samsung möchte es einem sogar ermöglichen das externe "Steuergerät" zu tauschen,
um so auch auf älteren Fernsehern HDMI 2.1 nachrüsten zu können.
Die Neuen unterstützen schon HDMI 2.1 ...
(informier dich bitte etwas besser, bevor du Weisheiten preis gibst)
Bei AMD VRR über HDMI seit Jahren ein Standard. (welcher VRR beinhaltet)
https://premiumbuilds.com/televisions/freesync-tv-list/
:freak:
Wurde wohl von vielen übersehen ...
(Link anklicken und runter scrollen, laut der Liste unterstützt LG Free-Sync)
Technisch sind Free-Sync und HDMI 2.1-VRR nahezu das selbe.
Aber die Liste ist auch schon über n halbes Jahr alt ...
LG, Panasonic und Samsung unterstützen schon offiziell den Vollen HDMI 2.1 Standard. (welcher VRR beinhaltet)
https://geizhals.at/?cat=tvlcd&xf=122_HDMI+2.1
M.f.G. JVC
Bucklew
2019-09-11, 14:33:31
Nun, wie man EDID-Daten liest, ändert sich nicht mit HDMI 2.1. Dies wird davon überhaupt nicht berührt.
Deren Inhalt + Interpretation aber sehr wohl. Da HDMI2.0 kein VRR kennt, kann es gar nicht nach Spezifikation sein, dass man die Kennung "Ich kann VRR" überträgt.
Somit ist es eine proprietäre Lösung.
Ja, es könnte sein das sich NV gewisse Features die man dafür benötigt gespart hat ...
Da es aber schon bei DP und in Laptops funktioniert, scheint Das nicht der Fall zu sein
DP != HDMI
Hat ja auch seinen Grund, warum AMD bei Radeons auch kein VRR unterstützt, außer über die proprietäre FreeSync-Lösung.
Samsung möchte es einem sogar ermöglichen das externe "Steuergerät" zu tauschen,
um so auch auf älteren Fernsehern HDMI 2.1 nachrüsten zu können.
Die Neuen unterstützen schon HDMI 2.1 ...
(informier dich bitte etwas besser, bevor du Weisheiten preis gibst)
Du hast nicht verstanden, was ich schrieb. Bevor du mich also anblaffst, solltest du erstmal deine Hausaufgaben machen. Dass ich eventuell einen Samsung-TV mal aufrüsten kann auf HDMI2.1 hat nichts mit dem proprietären FreeSync von AMD/Samsung auf HDMI 2.0 zu tun.
LG, Panasonic und Samsung unterstützen schon offiziell den Vollen HDMI 2.1 Standard. (welcher VRR beinhaltet)
https://geizhals.at/?cat=tvlcd&xf=122_HDMI+2.1
LG, Panasonic und Samsung vielleicht, AMD nur leider mit den Radeons nicht ;-)
Du hast nicht verstanden, was ich schrieb. Bevor du mich also anblaffst, solltest du erstmal deine Hausaufgaben machen. Dass ich eventuell einen Samsung-TV mal aufrüsten kann auf HDMI2.1 hat nichts mit dem proprietären FreeSync von AMD/Samsung auf HDMI 2.0 zu tun.
Ok, einmal noch ...
Hab ich irgendwo in diesem Gespräch mal HDMI 2.0 erwähnt ?
Und Google mal "proprietär", ich glaub du verwendest das Wort falsch?
(NVs G-Sync ist ein gutes Beispiel für etwas proprietäres.
AMDs Free-Sync wirkt dagegen sehr offen )
... den Rest spar ich mir jetzt. (inklusive Dir)
M.f.G. JVC
BoMbY
2019-09-11, 14:50:18
Also für Linux gab es vor genau einem Jahr einen entsprechenden Patch von AMD:
[PATCH 0/9] A DRM API for adaptive sync and variable refresh rate support (https://lists.freedesktop.org/archives/dri-devel/2018-September/189404.html?print=UGhvcm9uaXg)
aufkrawall
2019-09-11, 15:04:03
Dem Kommentar geht es nur um die unterschiedliche Benennung für HDMI vs. DP, es gibt aber immer noch keinen HDMI-Support im Linux-Treiber für variablen Vblank.
BoMbY
2019-09-11, 15:09:40
These patches enable adaptive variable refresh on X for AMD hardware provided that the user sets the variable_refresh_enabled property to true on supported connectors (ie. using xrandr --set-prop).
Abgesehen davon gibt es mehrere dutzend Monitore von verschiedenen Herstellern (inkl. LG) bei welchen FreeSync over HDMI funktioniert: https://www.amd.com/en/products/freesync-monitors
Wenn es da jetzt Probleme mit irgendwelchen LG TVs gibt wird sich das sicher lösen lassen.
Bucklew
2019-09-11, 15:16:35
Hab ich irgendwo in diesem Gespräch mal HDMI 2.0 erwähnt ?
Musst du ja zwangsweise, da es um VRR über HDMI bei Radeons geht. Es geht also zwangsläufig um HDMI 2.0, da die Karten kein 2.1 unterstützen :-)
AMDs Free-Sync wirkt dagegen sehr offen
Warum gibt es dann keinen Treiber mit Unterstützung HDMI VRR bei Radeons?
Es gibt nur die - offensichtlich proprietäre - Umsetzung von FreeSync.
Wenn es da jetzt Probleme mit irgendwelchen LG TVs gibt wird sich das sicher lösen lassen.
Es gibt ja kein Problem, es gibt einfach nur keine Unterstützung durch AMD im Treiber.
BoMbY
2019-09-11, 15:21:44
Es ist ein Name für die Implementierung . Bei NVidia heißt es auch G-Sync over HDMI.
Gelöscht da unnötiges hier stand ...
... meno doch ned ^^
Wenn es da jetzt Probleme mit irgendwelchen LG TVs gibt wird sich das sicher lösen lassen.
https://premiumbuilds.com/televisions/freesync-tv-list/
Laut der Liste unterstützt LG auch Free-Sync.
(keine Kunst, steckt ja schon in HDMI 2.1 drinnen)
M.f.G. JVC
Gipsel
2019-09-11, 15:43:34
Deren Inhalt + Interpretation aber sehr wohl. Da HDMI2.0 kein VRR kennt, kann es gar nicht nach Spezifikation sein, dass man die Kennung "Ich kann VRR" überträgt.Na klar kann man das spezifikationskonform machen, die für VRR benötigten Daten über EDID bereitzustellen (was bei AMDs Lösung bereits seit etlichen Jahren ja auch passiert ;)). Die EDID-Daten sehen unterschiedliche Datenblöcke vor, die nicht alle exakt einem bestimmten Format genügen müssen (z.B. für herstellerspezifische Daten). Wenn irgendeine Grafikkarte (besser: deren Treiber) bestimmte Daten nicht interpretieren kann, wird der Teil schlicht ignoriert. Es ist natürlich für die Displays nicht verboten, solche Daten anzubieten. Das, was sich mit HDMI 2.1 ändert, ist daß es jetzt eine von der HDMI group vorgegebene Methode gibt, um den Support zu signalisieren. Nicht mehr und nicht weniger.
aufkrawall
2019-09-11, 15:51:47
...
Was soll mir das Zitat von dort nun sagen?
Bucklew
2019-09-11, 16:10:24
Die EDID-Daten sehen unterschiedliche Datenblöcke vor, die nicht alle exakt einem bestimmten Format genügen müssen (z.B. für herstellerspezifische Daten).
Also exakt das, was ich schrieb: proprietär. Warum widersprichst du mir, wenn du mir eigentlich Recht gibst? :rolleyes:
Aktuell unterstützt AMD bei Radeons kein HDMI VRR, nur ihr eigenes FreeSync Protokoll.
BoMbY
2019-09-11, 16:53:59
Okay, also offiziell gab es jedenfalls scheinbar keinen Patch der HDMI 2.1 VRR einführt, nur die Ankündigung 2018:
AMD also announced that Radeon™ Software will add support for HDMI 2.1 Variable Refresh Rate (VRR) technology on Radeon™ RX products in an upcoming driver release. This support will come as an addition to the Radeon™ FreeSync technology umbrella, as displays with HDMI 2.1 VRR support reach market.
https://www.amd.com/en/press-releases/ces-2018-2018jan07
Also any moment now.
Und bisher wird auf Navi nur offiziell HDMI 2.1 ALLM unterstützt:
Automatic Low Latency Mode(7)
Allows supported graphics products to communicate with your connected TV and enter low-latency (gaming) mode automatically.
[...]
(7) Compatible with: AMD Radeon™ RX 5700 Series Graphics. Requires a connected HDMI®2.1 specification supported TV that supports low-latency modes. Supports Windows© 7 and 10.
https://www.amd.com/en/support/kb/release-notes/rn-rad-win-19-7-1
Und ebenso HDCP 2.3 was auch eigentlich erst mit HDMI 2.1 kommt. (https://www.amd.com/en/support/kb/release-notes/rn-rad-win-19-8-2)
Blediator16
2019-09-11, 16:54:13
Korinthenkacken is strong in this one
Bucklew
2019-09-11, 16:55:17
Korinthenkacken is strong in this one
Nicht funktionieren sollen Korinthen sein? ;D
(Und ich dachte FreeSync soll nur ein Label für VRR sein? :cool: )
Unicous
2019-09-11, 17:10:46
Dieses absichtliche Dummstellen.:facepalm:
Fakt ist: bislang wird HDMI VRR nur von AMD unterstützt. LG wird firmware updates bereitstellen, so wie es komischerweise Samsung vor einem Jahr gemacht hat um VRR anscheinend proprietär für Nvidia zur Verfügung zu stellen. Denn Fakt ist, dass VRR ein HDMI 2.1 Feature ist und Nvidia keine 2.1 fähigen GPUs hat.
Bucklew und nordic_pegasus argumentieren "mala fides" um irgendwie Recht zu bekommen, denn sein wir ehrlich, wenn die LG TVs wirklich exklusiv für Nvidia VRR bereitstellen obwohl das nicht spec-konform ist, dann ist es genauso "proprietär" wie bei AMD, Bucklew versucht nur die Narrative zu drehen, was auch immer der Zweck dahinter ist.:wink:
(Und nein, FS ist nicht nur ein Label, genauso wenig wie G-Sync Compatible es ist.)
nordic_pegasus
2019-09-11, 18:17:46
Dieses absichtliche Dummstellen.:facepalm:
Fakt ist: bislang wird HDMI VRR nur von AMD unterstützt.
Bucklew und nordic_pegasus argumentieren "mala fides" um irgendwie Recht zu bekommen, denn sein wir ehrlich, wenn die LG TVs wirklich exklusiv für Nvidia VRR bereitstellen obwohl das nicht spec-konform ist, dann ist es genauso "proprietär" wie bei AMD, Bucklew versucht nur die Narrative zu drehen, was auch immer der Zweck dahinter ist.:wink:
tut mir leid, aber Deine Uneinsichtigkeit nervt langsam.
Nochmals zum mitschreiben, da Du anscheinend den Begriff "VRR" auch absichtlich anders verstehen willst. Variable Bildwiederholungsfrequenz kann man allgemein mit VRR abkürzen, alternativ kann man es auch Async nennen.
FreeSync ist die technische Umsetzung von AMD. Wobei AMD den Standard, welcher eigentlich für DisplayPort gedacht war, auf HDMI erweitert hatte.
Nvidia kocht sein eigenes Süppchen mit Zusatz-Modulen und nennt es Gsync.
Dann gibt es das HDMI-Forum, welches in den Specs zu HDMI 2.1 eine Async Technik implementiert hat. Diese nennt sich HDMI-VRR. Wobei es ein optionales Features in HDMI 2.1 ist, welches auch bereits bei HDMI 2.0 angeboten werden kann.
Fakt ist, dass AMD derzeit kein HDMI-VRR unterstützt, sondern nur FreeSync über DisplayPort und HDMI.
Ich zitiere aus der aktuellen Meldung von heise.de
https://www.heise.de/newsticker/meldung/Variable-Refresh-Rate-Nvidia-bringt-HDMI-2-1-Feature-VRR-fuer-GeForce-4518789.html
HDMI VRR vs. AMD FreeSync
HDMI VRR ist nicht mit FreeSync zu verwechseln. AMD bietet schon seit HDMI 1.4 variable Refresh-Raten über eine herstellereigene, aber spezifikationskonforme Erweiterung an. Einige QLED-Fernseher von Samsung beherrschen FreeSync in Full HD (1920 × 1080 Pixel) und WQHD (2560 × 1440 Pixel) mit bis zu 120 Hertz.
Einen Windows-Radeon-Treiber mit HDMI-VRR-Unterstützung gibt es bis dato nicht. Die Spielekonsolen Xbox One X und Xbox One S mit AMD-Hardware unterstützen bereits seit Anfang 2018 VRR, nutzen aber auch eine andere Display-Engine als die Desktop-GPUs.
Wenn Du alles besser weist, dann schreibe bitte Heise.de an und bitte um Korrektur des Artikels. Ferner erkläre mir dann, warum Samsung TVs explizit FreeSync supporten und stattdessen die LG OLEDs mit HDMI 2.1 und HDMI-VRR derzeit nicht mit einer AMD Grafikkarte zusammen ein Async-Signal aufbauen können.
Belege bitte einmal Deine launischen Antworten mit Quellen, ansonsten halte ich die Diskussion für beendet.
... und stattdessen die LG OLEDs mit HDMI 2.1 und HDMI-VRR derzeit nicht mit einer AMD Grafikkarte zusammen ein Async-Signal aufbauen können.
Belege bitte Deine Antworten mit Quellen.
Quelle1: https://premiumbuilds.com/televisions/freesync-tv-list/
Quelle2: https://www.youtube.com/watch?v=30PRyjKNy8Q ( This combined with the HDMI 2.1 addition of Adaptive Sync Technology (Freesync))
Quelle3: https://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/Erste-LG-Fernseher-mit-Support-fuer-Nvidia-G-Sync-Compatible-vorgestellt-1332166/ (Das ist grundsätzlich bei jedem Modell mit HDMI 2.1 der Fall, weil die Spezifikation VRR (variable refresh rate) und damit Freesync beinhaltet. Laut Nvidia soll sich G-Sync via HDMI künftig bei jedem TV aktvieren lassen, der auch VRR bzw. Freesync unterstützt.)
LG kann Free-Sync. (wie voraussichtlich jeder HDMI 2.1 Fernseher...)
M.f.G. JVC
Bucklew
2019-09-11, 20:05:08
Dieses absichtliche Dummstellen.:facepalm:
Leider müsst ihr euch da gar nicht verstellen :rolleyes:
Fakt ist: bislang wird HDMI VRR nur von AMD unterstützt.
Nicht von der Radeon-Reihe von AMD. Belege siehe oben.
Denn Fakt ist, dass VRR ein HDMI 2.1 Feature ist und Nvidia keine 2.1 fähigen GPUs hat.
Ach so ;D
Wo AMD ja so viele HDMI 2.1 fähigen GPUs hat ;D
Bucklew und nordic_pegasus argumentieren "mala fides" um irgendwie Recht zu bekommen, denn sein wir ehrlich, wenn die LG TVs wirklich exklusiv für Nvidia VRR bereitstellen obwohl das nicht spec-konform ist, dann ist es genauso "proprietär" wie bei AMD, Bucklew versucht nur die Narrative zu drehen, was auch immer der Zweck dahinter ist.
:facepalm:
Wo auch immer steht, dass die Implementierung von LG/NVIDIA nicht spec-konform ist. Dass sie es bei Samsung/AMD nicht ist, wissen wir ja, sonst würden Radeon-Karten ja einfach jeden TV mit HDMI VRR einfach so unterstützen. Tun sei aber nicht, es funktioniert nur mit Samsung/FreeSync.
NVIDIA dagegen wird jeden TV, der HDMI VRR unterstützt, unterstützen.
LG liefert nur ein FW-Update (und NVIDIA den passenden Treiber), damit es out of the box funktioniert (oder auch überhaupt. Eventuell ist bei der bisherigen FW VRR nur unter HDMI2.1 unterstützt und nun erweitert man den Support auf HDMI 2.0).
Was dies nun mit dem Fehlen des Radeon-Treibers von AMD für HDMI VRR, der seit Januar 2018 angekündigt ist, zu tun hat, außer, dass du deine übliche Rabulistik ablieferst, erschließt sich denke ich niemandem.
Quelle1: https://premiumbuilds.com/televisions/freesync-tv-list/
FreeSync -> Daher irrelevant.
Quelle2: https://www.youtube.com/watch?v=30PRyjKNy8Q ( This combined with the HDMI 2.1 addition of Adaptive Sync Technology (Freesync))
Quelle3: https://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/Erste-LG-Fernseher-mit-Support-fuer-Nvidia-G-Sync-Compatible-vorgestellt-1332166/ (Das ist grundsätzlich bei jedem Modell mit HDMI 2.1 der Fall, weil die Spezifikation VRR (variable refresh rate) und damit Freesync beinhaltet. Laut Nvidia soll sich G-Sync via HDMI künftig bei jedem TV aktvieren lassen, der auch VRR bzw. Freesync unterstützt.)
Wo ist dann der Radeon Treiber für HDMI 2.1 bzw. HDMI VRR?
LG kann Free-Sync. (wie voraussichtlich jeder HDMI 2.1 Fernseher...)
Nein, LG kann HDMI VRR. Das kann aber AMD mit den Radeon-Karten nicht. (Oder wollen es nicht)
Ich zitiere aus der aktuellen Meldung von heise.de
https://www.heise.de/newsticker/meldung/Variable-Refresh-Rate-Nvidia-bringt-HDMI-2-1-Feature-VRR-fuer-GeForce-4518789.html
AMD bietet schon seit HDMI 1.4 variable Refresh-Raten über eine herstellereigene, aber spezifikationskonforme Erweiterung an.
Huch! Jetzt sage bloß, dass auch Heise das schreibt, was ja angeblich laut JVC, Unicous, Gipsel & Co falsch ist: Dass die - aktuelle - AMD-Implementierung proprietär ist ;D
Ach, wer hätte das gedacht? :ulol:
Und dabei waren Hersteller-proprietäre VRR-Modi doch so böse, böse, böse? :uponder:
"AMD bietet schon seit HDMI 1.4 variable Refresh-Raten über eine herstellereigene, aber spezifikationskonforme Erweiterung an."
So jetzt war alles mal Fett ^^ :popcorn:
Im Endeffekt könnte man meinen, NV trägt G-Sync zu Grabe und "kopiert" AMD ... :uexplode:
M.f.G. JVC
Bucklew
2019-09-11, 20:42:47
So jetzt war alles mal Fett
Warum sollte etwas proprietäres nicht auch spec-konform sein? :confused:
Demnach ist G-Sync dann ja auch nicht mehr proprietär, weil ist ja auch DP-Spec konform :ulol:
Im Endeffekt könnte man meinen, NV trägt G-Sync zu Grabe und "kopiert" AMD ...
Eigentlich ist NVIDIA bald führend, was den Support von VRR-Displays angeht :eek:
Gipsel
2019-09-12, 14:07:38
Eigentlich ist NVIDIA bald führend, was den Support von VRR-Displays angeht :eek:Weil sie "GSync compatible" (also AdaptiveSync/FreeSync) Displays unterstützen? Baut nV mit dem dem kommenden Treiberupdate eigentlich nur das bisherige Standardverfahren von Async/FreeSync über HDMI ein (weil sie ja wohl sagen, daß man das manuell auch auf anderen Displays über HDMI aktivieren können wird) und die LGs sind bloß die ersten, die den Test durchlaufen haben um das "GSync compatible" zu nennen oder doch was Eigenes? Denn "normales" HDMI 2.1 VRR unterstützt nV damit vermutlich auch nicht, denn dann würden die LGs kein Firmware-Update dafür benötigen (die EDID-Daten für HDMI 2.1 VRR werden da nämlich jetzt schon übermittelt und es läuft an der XB1X ja). Rüstet LG eventuell mit dem Firmware-Update die EDID-Daten für Async über HDMI nach? Wir wissen es nicht. :rolleyes:
Bucklew
2019-09-12, 15:37:07
Weil sie "GSync compatible" (also AdaptiveSync/FreeSync) Displays unterstützen?
- G-Sync
- G-Sync HDR
- Adaptive Sync per DP
- Adaptive Sync per HDMI
Kannst du kurz einen IHV nennen, der einen breiteren Support bietet?
Denn "normales" HDMI 2.1 VRR unterstützt nV damit vermutlich auch nicht
Aber selbstverständlich, siehe Press Release.
Wir wissen es nicht.
Du willst es nicht wissen, wie Unicous. Aber das interessiert sehr wenig.
Übrigens hat es - um Gipsel und Unicous vollends auf die Palme zu bringen - AMD mit ihrer proprietären Samsung-HDMI Lösung sogar geschafft "FreeSync" als Synonym für "Adaptive Sync von AMD" komplett zu verwässern. Galt das ja wenigstens noch für den PC-Bereich, ist es jetzt bei TV nicht mehr korrekt und hinter "FreeSync" kann sich auch eine nicht mit normalen AdaptiveSync kompatibel Lösung verbergen.
Dass man seit Januar 2018 einen Treiber für HDMI VRR versprochen und noch keinen geliefert hat - naja, AMD eben, ne?
- G-Sync
- G-Sync HDR
- Adaptive Sync per DP
- Adaptive Sync per HDMI
Kannst du kurz einen IHV nennen, der einen breiteren Support bietet?
Das alte G-Sync mit extra-Modul und "+500.-" Das ist von NV.
Das neue "G-Sync via HDMI" ist eine "Kopie" von AMDs "free-Sync".
Ebenso wie "G-Sync per DP" nur AMDs Lösung nachahmt ...
AMD hat "free-Sync" basierend auf den laut Standard vorhandenen Möglichkeiten entwickelt.
Und sich dafür eingesetzt Das in HDMI 2.1 zu übernehmen (was ~ auch gemacht wurde)
NV hat nur was eigenes entwickelt, was auch noch zusätzliche Hardware benötigt.
Das "G-Sync-Modul" ist jetzt vom Tisch, der offene VRR-Standard hat sich zum glück durch gesetzt.
Und NV nutzt nun das von AMD mit entwickelte VRR welches auch in HDMI 2.1 steckt.
Letzter Versuch, da ich das Gefühl habe das du da wirklich noch nicht durchblickst ...
(ansonsten lass es gut sein, ich versuch auch nicht mehr dir zu helfen ... versprochen)
(einfacher kann ich es leider nicht mehr erklären)
M.f.G. JVC
Bucklew
2019-09-12, 17:09:44
Das neue "G-Sync via HDMI" ist eine "Kopie" von AMDs "free-Sync".
Es kann keine Kopie sein, weil FreeSync bei HDMI eine proprietäre Lösung ist, während NVIDIA schlicht HDMI VRR nutzt.
Ebenso wie "G-Sync per DP" nur AMDs Lösung nachahmt ...
Hä? Wie kann G-Sync, das zuvor erschienen ist, irgendwas nachahmen, was erst später erschien? :confused:
AMD hat "free-Sync" basierend auf den laut Standard vorhandenen Möglichkeiten entwickelt.
Eigentlich ist FreeSync immer noch nichts Anderes, als ein Label von AMD für "Adaptive Sync". Da weiß ja bis heute keiner, was AMD genau "entwickelt" haben soll. Aber laut dir hat NVIDIA diese super AMD-Entwicklung ja auch nur nachgeahmt, obwohl G-Sync bereits im Oktober 2013 präsentiert wurde, während die Marke "FreeSync" von AMD erst anderthalb Jahre später, Januar 2015, registriert wurde:
https://register.dpma.de/DPMAregister/marke/register/3020150453862/DE
Was NVIDIA kann, sogar mehr als ein Jahr in die Zukunft gucken ;D
Wobei.... die Aussage, dass es einfach nur ein Label für AdaptiveSync ist, stimmt ja dank dem proprietären Modus für Samsung TVs auch nicht mehr. Irgendwie ein riesen Mist, den AMD mit der ganzen Hektik, um schnellstmöglich G-Sync irgendwie zu kontern, verursacht hat.
Das "G-Sync-Modul" ist jetzt vom Tisch, der offene VRR-Standard hat sich zum glück durch gesetzt.
Ich denke wir werden weiterhin beide Technologie sehen. Eine Parallelexistenz ist ja auch kein Problem. Günstig eben AdaptiveSync aka G-Sync compatible und die gute/teuren Monitore haben eben G-Sync.
Letzter Versuch, da ich das Gefühl habe das du da wirklich noch nicht durchblickst ...
(ansonsten lass es gut sein, ich versuch auch nicht mehr dir zu helfen ... versprochen)
Danke, dass du uns alle in Zukunft mit deinen Falschaussage nicht mehr belästigst, finde ich einen tollen Zug von dir :up:
PS: Auf meine konkrete Aussage bist du - trotz Zitat - überhaupt gar nicht eingegangen :facepalm:
Gipsel
2019-09-12, 17:52:28
- Adaptive Sync per HDMISeit wann geht das denn? Also außer bei AMD.
Aber selbstverständlich, siehe Press Release.Warum benötigt es dann nicht nur ein zukünftiges Treiberupdate von nV sondern auch noch ein zukünftiges Firmware-Update von LG, wo doch HDMI 2.1 VRR schon mit der aktuellen Firmware funktioniert? Deswegen ja die Frage, ob die da noch ein eigenes Süppchen kochen.
Übrigens hat es - um Gipsel und Unicous vollends auf die Palme zu bringen - AMD mit ihrer proprietären Samsung-HDMI Lösung sogar geschafft "FreeSync" als Synonym für "Adaptive Sync von AMD" komplett zu verwässern. Galt das ja wenigstens noch für den PC-Bereich, ist es jetzt bei TV nicht mehr korrekt und hinter "FreeSync" kann sich auch eine nicht mit normalen AdaptiveSync kompatibel Lösung verbergen.Was willst Du denn damit sagen? FreeSync über HDMI bei Samsung benutzt genau das gleiche Verfahren, wie es FreeSync über HDMI auch auf einer Vielzahl an Monitoren nutzt. Dein Geschreibe ergibt keinen Sinn.
amdfanuwe
2019-09-12, 18:16:54
Günstig eben AdaptiveSync aka G-Sync compatible und die gute/teuren Monitore haben eben G-Sync.
Lol, wo ist G-Sync denn AdaptiveSync Kompatibel? Nvidia muß ja eine Liste rausgeben, mit welchen AdaptiveSync Monitoren ihr G-Sync funktioniert.
Die teuren Monitore mit G-Sync sind teuer wegen dem proprietäten G-Sync Modul, aber dewegen nicht besser.
Bucklew
2019-09-12, 20:12:04
Seit wann geht das denn? Also außer bei AMD.
Bei AMD geht es nicht, wie euch jetzt 100x erklärt wurde (bei Radeons!) ;-)
Bei NVIDIA geht es ab einem demnächst erscheinenden Treiber.
Warum benötigt es dann nicht nur ein zukünftiges Treiberupdate von nV sondern auch noch ein zukünftiges Firmware-Update von LG, wo doch HDMI 2.1 VRR schon mit der aktuellen Firmware funktioniert? Deswegen ja die Frage, ob die da noch ein eigenes Süppchen kochen.
Das NV-Update wird benötigt, um VRR über HDMI freizuschalten und die LG-Geräte als G-Sync compatible zu markieren.
Warum LG ein Update benötigt hatte ich bereits beschrieben, aber lesen können ist wohl keine Fähigkeit, die ein Moderator mitbringen muss :rolleyes:
LG liefert nur ein FW-Update (und NVIDIA den passenden Treiber), damit es out of the box funktioniert (oder auch überhaupt. Eventuell ist bei der bisherigen FW VRR nur unter HDMI2.1 unterstützt und nun erweitert man den Support auf HDMI 2.0).
Noch Fragen?
Was willst Du denn damit sagen?
Einfach: "FreeSync" ist nicht mehr gleichbedeutend mit "AdaptiveSync", schließlich ist die Samsung-Lösung proprietär.
FreeSync über HDMI bei Samsung benutzt genau das gleiche Verfahren, wie es FreeSync über HDMI auch auf einer Vielzahl an Monitoren nutzt. Dein Geschreibe ergibt keinen Sinn.
Als unterstützt eine Radeon mit dem heutigen Treiberstand (19.9.1) generisches HDMI VRR über HDMI2.0?
Demnach lügt also Heise, pegasus, Screemer & Ich?
AMD unterstützt bislang nicht VRR (Feature des HDMI Forums aus den HDMI 2.1 Specs). Es gibt hingegen TVs, die FreeSync über HDMI unterstützen.
gibt aber halt keinen treiber für radeons. ist derzeit halt fakt und warum das so ist weiß auch nur amd.
Hardwareluxx auch?
Die 2019er Fernseher von LG unterstützen bereits eine variable Aktualisierungsrate über HDMI 2.1. Besagte Aktualisierungsrate konnte in der Vergangenheit mit der Xbox One X genutzt werden. PC-Grafikprozessoren besitzen jedoch noch keine Unterstützung für den HDMI-2.1-Standard.
Dann bitte einen Beleg für den HDMI VRR Support im Radeon Treiber. Taucht ja sicherlich im Press Release und dem Changelog auf :up:
Lol, wo ist G-Sync denn AdaptiveSync Kompatibel? Nvidia muß ja eine Liste rausgeben, mit welchen AdaptiveSync Monitoren ihr G-Sync funktioniert.
Falsch, NVIDIA gibt eine Liste mit extra getesteten und kompatiblen Monitoren heraus, bei der G-Sync aka Adaptive Sync automatisch funktioniert.
Bei allen anderen Monitor kann es manuell aktiviert werden.
Gipsel
2019-09-13, 00:19:22
Bei AMD geht es nicht, wie euch jetzt 100x erklärt wurde (bei Radeons!) ;-)Na klar geht das, und zwar schon seit Jahren (im Gegensatz zu nV). Was Du vielleicht meintest, war HDMI 2.1 VRR, was dann in Zukunft mal bei nV gehen soll (bei AMD laut AMD-Aussagen aber auch, hmm).
Das NV-Update wird benötigt, um VRR über HDMI freizuschaltenDas ist doch schon längst vorhanden. Die LGs können das mit im Moment aktueller Firmware bereits. Das wurde bereits als funktionsfähig getestet (mit XB1X/S). Da muß also nichts mehr freigeschaltet werden. Standards ermöglichen ja gerade das Zusammenspiel von Zuspiel- und Anzeigegerät. ;)
und die LG-Geräte als G-Sync compatible zu markieren.Das passiert über Liste im Treiber, nicht über die Firmware des Displays.
Weitere Ideen (gibt ja noch mehr ;))?
Einfach: "FreeSync" ist nicht mehr gleichbedeutend mit "AdaptiveSync", schließlich ist die Samsung-Lösung proprietär.Wo hast Du das denn her, daß es eine proprietäre "Samsung-Lösung" gäbe? Das ist doch schlicht Bullshit. Wie schon mal gesagt, benutzt Samsung bei seinen Fernsehern exakt die gleiche Lösung, mit der sich etliche Monitore verschiedenster Hersteller (und eben auch ein paar TVs) seit Jahren mit variablen Refreshraten über HDMI 1.4 oder 2.0 betreiben lassen (mit AMD-Karten allerdings nur). Die Kommunikation der Fähigkeiten erfolgt über einen (von AMD definierten) Eintrag in den EDID-Daten (praktisch identisch zu dem bei Async per DP), die eigentliche Umsetzung über variable vblank-Intervalle wie bei allen Anderen auch. AMD bzw. die Displayhersteller nennen das dann FreeSync über HDMI oder eben manchmal auch Adaptive Sync über HDMI (wenn das FreeSync-Label von AMD nicht draufsteht). Da mußt Du also nicht groß rumwundern oder irgendwelchen Blödsinn über "Samsung-Lösungen" verbreiten.
HDMI 2.1 definiert jetzt einen zusätzlichen EDID-Datenblock, mit dem dann die Range (und noch der Support für ein paar andere Features) kommuniziert wird, das war es dann aber auch schon so ziemlich.
Achja, AMD GPUs konnen übrigens auch variablen Refresh über DVI ausgeben (das ist ja elektrisch praktisch HDMI 1.0 auf einem anderen Stecker), wenn da die passenden EDID-Daten vorhanden sind. ;)
Bucklew
2019-09-13, 09:26:59
Na klar geht das, und zwar schon seit Jahren (im Gegensatz zu nV). Was Du vielleicht meintest, war HDMI 2.1 VRR, was dann in Zukunft mal bei nV gehen soll (bei AMD laut AMD-Aussagen aber auch, hmm).
Wann und wo kann bitte AMD mit Radeons HDMI VRR? Speziell über HDMI 2.0?
Also behauptest du, dass alle lügen, nur du nicht?
hardwareluxx, Heise, pegasus, Screemer, ich - alle lügen?
Das ist doch schon längst vorhanden. Die LGs können das mit im Moment aktueller Firmware bereits. Das wurde bereits als funktionsfähig getestet (mit XB1X/S). Da muß also nichts mehr freigeschaltet werden. Standards ermöglichen ja gerade das Zusammenspiel von Zuspiel- und Anzeigegerät.
Was denn nun? Erst behauptest du oben, dass NV es nicht kann, nun behauptest du plötzlich NV würde kein Update benötigen. Was willst du denn jetzt? :confused:
Vielleicht solltest du erstmal mit dir selbst einig sein, bevor du mit mir diskutieren willst?
Das passiert über Liste im Treiber, nicht über die Firmware des Displays.
Deshalb auch ein Update des NV-Treibers, du Experte :rolleyes:
Wo hast Du das denn her, daß es eine proprietäre "Samsung-Lösung" gäbe? Das ist doch schlicht Bullshit. Wie schon mal gesagt, benutzt Samsung bei seinen Fernsehern exakt die gleiche Lösung, mit der sich etliche Monitore verschiedenster Hersteller (und eben auch ein paar TVs) seit Jahren mit variablen Refreshraten über HDMI 1.4 oder 2.0 betreiben lassen (mit AMD-Karten allerdings nur).
Also werden die Samsung-TVs mit dem NV-Update out-of-the-box (nach anklicken des Kästchens im Treiberpanel) mit einer GeForce funktionieren?
Na wenn du das sagst, ich bin gespannt :biggrin:
Achja, AMD GPUs konnen übrigens auch variablen Refresh über DVI ausgeben (das ist ja elektrisch praktisch HDMI 1.0 auf einem anderen Stecker), wenn da die passenden EDID-Daten vorhanden sind. ;)
Vielleicht sollte AMD erstmal HDMI freischalten und dafür den passenden Treiber liefern, bevor wir uns über DVI unterhalten....? :rolleyes:
https://www.amd.com/de/technologies/free-sync-faq#faq-Funktioniert-die-Radeon-FreeSync%E2%84%A2-Technologie-%C3%BCber-HDMI%C2%AE?
Hitler!
Posts aus 2016:
https://forums.tomshardware.com/threads/does-freesync-work-on-a-hdmi-cable.2775203/
Screemer
2019-09-13, 09:52:40
Hier geht's Grad um TV Geräte ;)
deekey777
2019-09-13, 10:34:10
Wann und wo kann bitte AMD mit Radeons HDMI VRR? Speziell über HDMI 2.0?
Wo genau ist VRR Bestandteil des HDMI 2.0?
Gipsel
2019-09-13, 10:36:49
Nee, hier geht es allgemein um VRR-Technik. Und bei AMD geht halt FreeSync/AdaptiveSync schon seit Jahren über HDMI (und natürlich nicht nur mit Samsung Displays). Da muß Bucklew keine "Samsung-Lösung" herbeiphantasieren.
robbitop
2019-09-13, 11:00:34
Jap das geht bei hdmi 1.4 Monitoren seit Ewigkeiten. Der Monitor muss das natürlich unterstützen da das da noch kein Bestandteil der hdmi spec war. Am Ende ist die Entwicklung gut für alle. NV und AMD werden beide bald via hdmi 2.1 den offenen vrr Standard unterstützen. Über dp ist das bereits der Fall. Die Geräte erreichen auch immer mehr Marktdurchdringung und niedrigere Preise. Alles super.
Ein Glück dass es nicht beim teuren, propertärem Standard geblieben ist und vrr somit zukünftig jedem zur Verfügung stehen wird.
Intel wird mittelfristig sicherlich auch beides implementieren.
Bucklew
2019-09-13, 11:59:16
Wo genau ist VRR Bestandteil des HDMI 2.0?
Das musst du Gipsel fragen. Der sagt, das wäre Standard, was AMD/Samsung da treiben.
Da muß Bucklew keine "Samsung-Lösung" herbeiphantasieren.
Lüg doch bitte nicht noch mehr, Gipsel.
Das schreiben alle Seite, von Heise über hardwareluxx gibt keine Ahnung wo.
Nochmal an dich die klare Frage: Mit dem LG-Update funktioniert HDMI VRR mit einer Radeon Grafikkarte mit Treiberstand 19.9.1 ja oder nein?
Aus dem Link von DerF aus dem AMD-FSQ übrigens noch ein Zitat:
Does Radeon™ FreeSync technology work over HDMI®?
Yes. In addition, the latest HDMI specification has adopted Variable Refresh Rate technology, and Radeon™ graphics will support that functionality as well.
Wie lange willst du noch dein "Fake News" Gekreische beibehalten, Gipsel? :facepalm:
BK-Morpheus
2019-09-13, 12:09:50
Kurze Frage in die Runde:
Funzt Freesync über die RTX Karten auch im Borderless Window Modus korrekt?
Hintergrund der Frage ist nur, dass damals, als Nvidia den Support für Freesync Monitore freigegeben hat, bei meiner 1070 + Freesync Monitor der Spaß nur im exklusiven Vollbild-Modus einwandfrei funktioniert hatte. Wenn ich im rahmenlosen Fenstermodus gezockt habe, hat der Monitor seine Refreshrate zwar auch dynamisch geändert, aber es war kein sauberer Sync, was in sichtbarem Ruckeln oder gar Tearing auffällig war.
Als workaround dafür funktionierte damals ein Framelimit über den Treiber via Nvidia Profile Inspector. Limits über das Spiel selbst oder RTSS haben nicht geholfen.
Ist das heute noch genauso?
Ich habe aktuell nur die Vega56 zur Hand (wo es diese Probleme eh nicht gibt), daher kann ich nicht selbst prüfen.
"Does Radeon™ FreeSync technology work over HDMI®?
Yes. In addition, the latest HDMI specification has adopted Variable Refresh Rate technology, and Radeon™ graphics will support that functionality as well."
=
Funktioniert die Radeon ™ FreeSync-Technologie über HDMI®?
Ja. Darüber hinaus hat die neueste HDMI-Spezifikation die Variable Refresh Rate-Technologie übernommen, und Radeon ™ -Grafiken unterstützen diese Funktionalität ebenfalls.
Und die neueste HDMI Spezifikation ist HDMI 2.1
Und laut dem Text von *beep*, hat also HDMI 2.1 das VRR von der FreeSync-Technologie übernommen.
Und NV übernimmt diese Technik nun eben auch.
M.f.G. JVC
Bucklew
2019-09-13, 13:30:49
Und die neueste HDMI Spezifikation ist HDMI 2.1
Immer noch das Thema verfehlt. Es geht um HDMI 2.0.
Ja. Darüber hinaus hat die neueste HDMI-Spezifikation die Variable Refresh Rate-Technologie übernommen, und Radeon ™ -Grafiken unterstützen diese Funktionalität ebenfalls.[/I]
Welche Radeon-Grafikkarte mit HDMI2.1 gibt es denn?
Allein daran sieht man, dass da einfach nur der Übersetzer einen Fehler gemacht hat. AMD unterstützt heute mit Radeon kein HDMI 2.1.
Aus dem Link von DerF aus dem AMD-FSQ übrigens noch ein Zitat:
Wie lange willst du noch dein "Fake News" Gekreische beibehalten, Gipsel? :facepalm:
Öh, was?
Does Radeon™ FreeSync technology work over HDMI®?
Yes.
Der Satz danach sagt nur, dass VRR in die HDMI-Spec übernommen wurde. Die noch nicht kaufbar ist, deswegen "will support".
Bucklew
2019-09-13, 13:35:55
Die noch nicht kaufbar ist, deswegen "will support".
Eben. Auf den Treiber warten wir seit Januar 2018.
Keine Ahnung, warum ihr da noch gegen Windmühlen und die Aussage von AMD kämpft. Kann man doch einfach mal eingestehen, dass die aktuelle Implementierung von FreeSync mit Samung proprietär ist.
Sie ist im Moment eher einzigartig ;)
Proprietär würde bedeuten das sie keiner nach machen kann oder darf ...
(außer man bezahlt dafür, so wie beim klassischen G-Sync)
Ein Glück dass es nicht beim teuren, propertärem Standard geblieben ist und vrr somit zukünftig jedem zur Verfügung stehen wird.
Intel wird mittelfristig sicherlich auch beides implementieren.
Intel hat sich dazu schon geäußert (ka wo ich das gelesen habe).
Ja, sie werden HDMI 2.1 unterstützen. :up:
Ich wünsch mir aber auch bei NV HDMI 2.1 Grakas !
Nur von NV hab ich noch nix gehört ... die "reiten scheinbar noch immer auf der G-Sync Welle"...
M.f.G. JVC
Bucklew
2019-09-13, 14:21:46
Proprietär würde bedeuten das sie keiner nach machen kann oder darf ...
Nö.
Ich wünsch mir aber auch bei NV HDMI 2.1 Grakas !
Nur von NV hab ich noch nix gehört ... die "reiten scheinbar noch immer auf der G-Sync Welle"...
Hä? Warum schreibst du hier zig Postings im Threads und liest nicht mal, was drin steht?
If you don’t own a LG TV, but do own a display or TV that only supports Variable Refresh Rates via HDMI, you can try enabling HDMI VRR when the aforementioned driver is released.
aufkrawall
2019-09-13, 14:31:05
Funzt Freesync über die RTX Karten auch im Borderless Window Modus korrekt?
Hintergrund der Frage ist nur, dass damals, als Nvidia den Support für Freesync Monitore freigegeben hat, bei meiner 1070 + Freesync Monitor der Spaß nur im exklusiven Vollbild-Modus einwandfrei funktioniert hatte. Wenn ich im rahmenlosen Fenstermodus gezockt habe, hat der Monitor seine Refreshrate zwar auch dynamisch geändert, aber es war kein sauberer Sync, was in sichtbarem Ruckeln oder gar Tearing auffällig war.
War zumindest Anfang des Jahres mit dem ersten Gsync-kompatibel-Treiber immer noch kaputt.
Afair funktioniert aber prerender limit 1 via Treiber nicht für windowed/borderless (weder AMD noch NV), weshalb davon eh abzuraten wäre. Wobei es natürlich einige Spiele gibt, die nur borderless anbieten, oder die im exklusives Vollbild-Modus mit Alt + Tab nicht klarkommen etc...
Ich will einen vollwertigen HDMI 2.1 Ausgang !!!
NVs proprietärer Mist interessiert mich nicht.
(genau so wenig interessiert mich proprietäres von AMD...)
Seien wier einfach froh, das mit HDMI 2.1 ein neuer brauchbarer Standard für Fernseher und Monitore kommt :smile:
Wenn man fürs zocken gerne große Bildschirme(Beamer) hat,
dann ist das fast so gut wie n 6er im Lotto :eek:
M.f.G. JVC
BK-Morpheus
2019-09-13, 14:39:13
War zumindest Anfang des Jahres mit dem ersten Gsync-kompatibel-Treiber immer noch kaputt.
Afair funktioniert aber prerender limit 1 via Treiber nicht für windowed/borderless (weder AMD noch NV), weshalb davon eh abzuraten wäre. Wobei es natürlich einige Spiele gibt, die nur borderless anbieten, oder die im exklusives Vollbild-Modus mit Alt + Tab nicht klarkommen etc...
Danke.
Bei meiner V56 funzt es sowohl im Borderles Window, als auch Exclusive Fullscreen korrekt. Da ich häufig auf den Zweitmonitor rüber gehe, ist es bei manchen Games etwas nervig mit dem exklusiven Vollbildmodus.
Bucklew
2019-09-13, 14:47:12
NVs proprietärer Mist interessiert mich nicht.
Ich frage mich, ob du es nicht kapieren kannst oder willst :facepalm:
Gleiche frage an dich ...
Ich will 4K 120Fps übertragen können und in 8K 60Fps rein schnuppern können :freak:
(mit einem Kabel und ohne gefickre)
Und natürlich VRR nutzen können ;)
Da nützt mir NVs "Flaschenhals-Verschönerung" leider nur wenig ...
M.f.G. JVC
Bucklew
2019-09-13, 14:52:01
Gleiche frage an dich ...
In Bezug auf was?
NVIDIA aktiviert AdaptiveSync per HDMI. Ende.
Warum sollte das plötzlich proprietär sein?
Und warum sit eine AMD Lösung "FreeSync", die nur mit Samsung TVs funktioniert nicht mehr proprietär? Nur weil AMD und FreeSync drauf steht?
Mit deinem Bullshit bezüglich des "nachmachen" von FreeSync, das erst zwei Jahre nach G-Sync erschien, fang ich mal gar nicht an.
aufkrawall
2019-09-13, 14:53:56
Danke.
Bei meiner V56 funzt es sowohl im Borderles Window, als auch Exclusive Fullscreen korrekt. Da ich häufig auf den Zweitmonitor rüber gehe, ist es bei manchen Games etwas nervig mit dem exklusiven Vollbildmodus.
Ich muss noch anmerken, dass das mit einer GTX 1060 war, und nicht Turing. Würde mich aber wundern, wenn dieser von der Hardware unabhängige Teil des Treibers sich dahingehend unterscheiden würde.
Mit deinem Bullshit bezüglich des "nachmachen" von FreeSync, das erst zwei Jahre nach G-Sync erschien, fang ich mal gar nicht an.
Quelle3: https://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/Erste-LG-Fernseher-mit-Support-fuer-Nvidia-G-Sync-Compatible-vorgestellt-1332166/
"Das ist grundsätzlich bei jedem Modell mit HDMI 2.1 der Fall, weil die Spezifikation VRR (variable refresh rate) und damit Freesync beinhaltet.
Laut Nvidia soll sich G-Sync via HDMI künftig bei jedem TV aktvieren lassen, der auch VRR bzw. Freesync unterstützt."
Ganz ohne Zusatz Modul oder anderen zusätzlichen kosten = der offene Standard = nicht proprietär.
NV nennt es hald "G-Sync via HDMI" und AMD "Free-Sync" ...
aber beides baut auf den neuen HDMI 2.1 Standard auf.
Das von NV entwickelte alte "G-Sync" benötigte Zusatz Hardware und verursacht zusätzliche Kosten.
(bitte nicht "G-Sync" und "G-Sync via HDMI"(G-Sync via DP) verwechseln! Das sind 2 komplett unterschiedliche Techniken)
M.f.G. JVC
Gipsel
2019-09-13, 15:24:48
Das musst du Gipsel fragen. Der sagt, das wäre Standard, was AMD/Samsung da treiben.Mal eine Frage mit Bitte um ehrliche Antwort: Trollst Du?
Die AMD-Lösung für variable Refreshraten über HDMI existiert seit Jahren und wird von den verschiedensten Herstellern genutzt. Das wurde Dir jetzt schon wiederholt gesagt. Samsung macht da bei seinen TVs ganz genau gar nichts anders als z.B. LG hier (1080p mit 48-240Hz Range über HDMI 2.0 [der Monitor kann die Range sowohl über DP als auch HDMI]) (https://www.lg.com/de/monitore/lg-27GK750F-B), Dell Alienware (https://geizhals.de/dell-alienware-aw2518hf-210-amop-a1675366.html?hloc=at&hloc=de), Acer, Asus, HP, ViewSonic (https://geizhals.de/viewsonic-vx2758-c-mh-a1922706.html?hloc=at&hloc=de) oder sonstwer, der vor HDMI 2.1 variable Refreshraten über HDMI angeboten hat (es gibt dutzende wenn nicht hunderte Displays, die das tun, die Links sind nur die erstbesten Beispiele). Es gibt nur eben sehr wenige TVs, die bisher variable Refreshraten unterstützen. Aber Deine Faselei von einer "Samsung-Lösung" ist genau das: Blafasel ohne Basis in der Realität.
Nochmal an dich die klare Frage: Mit dem LG-Update funktioniert HDMI VRR mit einer Radeon Grafikkarte mit Treiberstand 19.9.1 ja oder nein?Es gibt bisher weder das Firmware-Update (HDMI 2.1 VRR läuft auch schon mit der aktuellen Firmware an einer XB1X/S), noch den aktualisierten nV-Treiber, mit dem das dann zukünftig gehen soll (und auch keinen aktualisierten Treiber von AMD, mit dem das gehen würde, ein paar TVs unterstützen aber auch schon die altbekannte A-/FreeSync über HDMI-Methode der Kommunikation ihrer Fähigkeiten zusätzlich zu dem neuen EDID-Datenblock für HDMI 2.1 VRR). Die Frage geht also irgendwie dran vorbei, daß das Stand heute noch mit gar nichts (außer der XB1X/S) geht. :rolleyes:
Und es ändert gleich gar nichts an Deinem "Samsung-Lösung" Bullshit.
=========================
NVIDIA aktiviert AdaptiveSync per HDMI. Ende.Nein. Sie planen (laut Dir ;)) HDMI 2.1 VRR zu unterstützen. Adaptive Sync ist ein offener VESA-Standard (mit dem die HDMI group erstmal nicht viel am Hut hat). Das Prinzip ist zwar kompatibel mit dem HDMI-Standard (weswegen AMD das seit Jahren über HDMI anbieten kann), aber war bisher nicht Teil der Spec. Mit HDMI 2.1 hat die HDMI group jetzt einen zusätzlichen EDID-Datenblock definiert, mit dem ein Display (unter Anderem) seine VRR-Fähigkeiten an das Wiedergabegerät mitteilen kann (was dies natürlich richtig interpretieren können muß). Ältere Displays benutzen einfach das "althergebrachte" (VESA AdaptiveSync) EDID-Format für die für variable Refreshraten nötigen Daten (und bei einigen steht es in beiden Formaten drin).
Es könnte aber natürlich sein, daß LG mit dem angekündigten Firmware-Update die EDID-Daten im A-Sync-Format einbaut (zusätzlich zu dem per HDMI 2.1 VRR definierten) und das der Grund für das Firmware-Update ist. Dann würde das nach dem Update aber auch an AMD-Karten funktionieren (mit momentanem Treiber, kein Treiberupdate nötig).
Raspo
2019-09-13, 15:39:38
Ich klinke mich da mal ein.
Nochmal zur Klarstellung: Wenn ich meine RX480 per HDMI 2.0b an den LG 49SM90007LA hänge, hab ich garantiert (?) quasi Freesync an nem TV, richtig?
Weil HDMI 2.1 vorhanden ist und nicht weil das die Radeons schon länger können.
VRR Range ist übrigens 40-120Hz.
Gipsel
2019-09-13, 15:49:35
Ich klinke mich da mal ein.
Nochmal zur Klarstellung: Wenn ich meine RX480 per HDMI 2.0b an den LG 49SM90007LA hänge, hab ich garantiert (?) quasi Freesync an nem TV, richtig?
Weil HDMI 2.1 vorhanden ist und nicht weil das die Radeons schon länger können.
VRR Range ist übrigens 40-120Hz.Nein. Das EDID-Datenformat (das sind die Daten, die bei der Displayerkennung übermittelt werden und Auflösung mögliche Refreshraten usw. enthalten) bei den LGs ist (im Moment noch?) inkompatibel. Das funktioniert bisher nur an der XBox One X oder S. Variabler Refresh über HDMI an AMD-Karten geht bisher nur, wenn die Fähigkeiten der Anzeige (egal ob Monitor oder TV) in dem Format übermittelt werden, was AdaptiveSync nutzt. Die HDMI group hat da ein eigenes Süppchen gekocht und einen eigenen Datenblock für die neuen Features definiert, den bisher eben nur die XBox OneX/S versteht.
LG hat zusammen mit nV ein kombiniertes Firmware- und Treiberupdate angekündigt, mit denen dann variable Refreshraten als "G-Sync compatible" an den RTX-Karten verfügbar sein sollen. Und von AMD gab es eine (inzwischen schon ziemlich lange zurück liegende) Ankündigung, daß man ein Treiberupdate herausbringen werde, was dann auch die HDMI 2.1 EDID-Daten korrekt interpretieren kann (das macht tatsächlich der Treiber und nicht die Hardware). Bisher scheint das nicht die große Priorität gehabt zu haben (gibt wenige HDMI 2.1 TVs [von denen es bei grob der Hälfte über das alte ASync-EDID-Datenformat ja sowieso schon läuft] und noch weniger, die ihren PC daran betreiben).
Bucklew
2019-09-13, 15:50:07
Ganz ohne Zusatz Modul oder anderen zusätzlichen kosten = der offene Standard = nicht proprietär.
2013, während FreeSync erst 2014 - damals sogar noch ohne den Namen FreeSync - gezeigt wurde. Sehr "nachgeahmt".
NV nennt es hald "G-Sync via HDMI" und AMD "Free-Sync" ...
aber beides baut auf den neuen HDMI 2.1 Standard auf.
Falsch. NVIDIA nennt es "G-Sync compatible", egal ob per DP oder HDMI.
AMD nennt es mal FreeSync im Sinne von AdaptiveSync und mal FreeSync im Sinne von "proprietäre Technik".
(bitte nicht "G-Sync" und "G-Sync via HDMI"(G-Sync via DP) verwechseln! Das sind 2 komplett unterschiedliche Techniken)
Ach sag bloß :rolleyes:
Danke, dass du auf dem Stand der Diskussion - zumindest teilweise - angekommen bist, Capt. Obvious!
Mal eine Frage mit Bitte um ehrliche Antwort: Trollst Du?
Das solltest du lieber dich fragen.
Die AMD-Lösung für variable Refreshraten über HDMI existiert seit Jahren und wird von den verschiedensten Herstellern genutzt.
"AMD-Lösung" = HDMI VRR?
Ja oder nein?
Mal gucken, ob wir deinem Getrolle langsam entwirren können.
Aber Deine Faselei von einer "Samsung-Lösung" ist genau das: Blafasel ohne Basis in der Realität.
Also werden auch die bisherigen Samsung TVs sofort unterstützt, wenn es den NV Treiber mit HDMI VRR gibt?
Ja oder nein?
Die Frage geht also irgendwie dran vorbei, daß das Stand heute noch mit gar nichts (außer der XB1X/S) geht. :rolleyes:
Und es ändert gleich gar nichts an Deinem "Samsung-Lösung" Bullshit.
Ja blöd, wenn man vor lauter Getrolle nicht mal richtig lesen kann, gell, Gipsel? ;D
Ich schrieb ja extra
"Mit dem LG-Update"
Du sagst, es wäre alles identisch. Also müsste alles zusammen funktionieren. Daher frage ich dich nochmal ganz klar:
Wenn es für die LG C9/E9 Reihe das Update für die Unterstützung von G-Sync compatible gibt, funktioniert dann auch sofort VRR auf einer Radeon?
Ja oder nein?
Nein. Sie planen (laut Dir ;)) HDMI 2.1 VRR zu unterstützen.
Falsch. Schon wieder falsch. Du willst wirklich nur Trollen :facepalm:
Wie, Gipsel, sollen sie denn mit HDMI 2.0 Hardware plötzlich HDMI 2.1 Support hin kriegen? Man, man, man. Du willst wirklich nur trollen. Aber dann frage mich nicht so scheinheilig, nur weil du nichts und wieder nichts in der Hand hast, außer großmäuligen Behauptungen.
Die Tonnen an Zitaten, Links und Quellen ignorierst du ja komplett.
Dann würde das nach dem Update aber auch an AMD-Karten funktionieren (mit momentanem Treiber, kein Treiberupdate nötig).
Kurz: Ja.
Mal sehen wer Recht haben wird :cool:
(Blöd halt, dass AMD gar kein HDMI VRR auf Radeons frei geschaltet hat bisher, aber das willst du ja nicht wahr haben ;D)
Nein. Das EDID-Datenformat (das sind die Daten, die bei der Displayerkennung übermittelt werden und Auflösung mögliche Refreshraten usw. enthalten) bei den LGs ist (im Moment noch?) inkompatibel.
Eigentlich liegt's ja daran, dass wir noch auf den Radeon Treiber mit HDMI VRR Support warten. Aber du wirst es schon wissen, ne? ;D
Ich klinke mich da mal ein.
Nochmal zur Klarstellung: Wenn ich meine RX480 per HDMI 2.0b an den LG 49SM90007LA hänge, hab ich garantiert (?) quasi Freesync an nem TV, richtig?
Weil HDMI 2.1 vorhanden ist und nicht weil das die Radeons schon länger können.
VRR Range ist übrigens 40-120Hz.
Ohne echten HDMI 2.1 Ausgang hast du leider sowieso zu wenig Bandbreite.
Was jetzt gerade wo mit welchem Treiber und wie funktioniert, kann ich leider nicht vor Ort testen.
Vielleicht hilft das weiter... https://premiumbuilds.com/televisions/freesync-tv-list/
........
Gefunden https://www.dein-fernseher.de/produkt/lg-49sm90007/
"AMD Freesync: Nein"
Musst du wohl auf den AMD-Treiber warten, so wie die anderen auf die NV-Treiber warten ;)
(ich muss nicht mehr warten da NV die 10ner Serie nicht mehr supporten will)
M.f.G. JVC
2013, während FreeSync erst 2014 - damals sogar noch ohne den Namen FreeSync - gezeigt wurde. Sehr "nachgeahmt".
"(bitte nicht "G-Sync" und "G-Sync via HDMI"(G-Sync via DP) verwechseln! Das sind 2 komplett unterschiedliche Techniken)"
Ach sag bloß :rolleyes:
Danke, dass du auf dem Stand der Diskussion - zumindest teilweise - angekommen bist, Capt. Obvious!
Du widersprichst dir immer häufiger ... bist noch nicht angekommen ;)
"AMD-Lösung" = HDMI VRR?
Ja oder nein?
HDMI 2.1 VRR ist der AMD Lösung nahezu gleich.
NVs altes "G-Sync" ist eine komplett andere Technik.
NVs neue "G-Sync via HDMI" ist AMDs Lösung sehr ähnlich. (und wesentlich jünger als AMDs altes "Free-Sync")
Aber egal, HDMI 2.1 vereint und verbindet endlich Alle und Alles :up:
M.f.G. JVC
Gipsel
2019-09-13, 16:21:09
@Bucklew:
Da habe ich meine Antwort, Du trollst ganz offensichtlich. Du widersprichst Deinen Post von gestern (daß nV HDMI 2.1 VRR Unterstützung einführen wird, jetzt soll das mit einem Mal unmöglich sein?) und verstehst entweder nicht, wie das funktioniert oder willst es mutwillig nicht verstehen.
Insofern... :rolleyes:
Und nochmal kurz zusammengefaßt:
Es ist im Moment noch nicht hundertprozentig klar (ich halte es aber für wahrscheinlich), ob nV das HDMI 2.1 VRR Feature unterstützen wird (gestern war das für Dich noch sicher, heute sagst Du, es ginge prinzipiell nicht :freak:), was natürlich optional auch über einen HDMI 2.0 Link geht (die XB1X macht es ja so).
Sollte LG mit dem Firmware-Update die EDID-Daten im AdaptiveSync-Format nachrüsten, dann werden mit dem angekündigten Treiber von nV vermutlich fast alle über einen HDMI-Anschluß zu variablen Refreshraten fähigen Geräte (also nicht welche mit lediglich HDMI 2.1 VRR Support sondern alle, die A-/FreeSync über HDMI anbieten [gibt wie gesagt wohl hunderte davon]) lauffähig sein (und die LGs dann auch an AMD-Karten mit variabler Refreshrate laufen können [ohne Treiberupdate]). Rüstet nV lediglich die Interpretation der HDMI 2.1 VRR EDID-Daten nach und ist dieses bei der nV-Implementation für variable Refreshraten über HDMI nötig, beschränkt sich der Support auf Geräte mit HDMI 2.1 VRR Unterstützung (was bisher nur eine Handvoll ist). Letzteres könnte ein Ansporn für AMD sein, dann auch mal ihrerseits mit dem passenden Treiberupdate rauszukommen.
Unicous
2019-09-13, 17:35:22
Um mal kurz aus Bucklews (und nordic_pegasus') circle jerk herauszutreten (danke für deine Geduld, Gipsel, ich habe schon aufgegeben:freak:)
*Husthust*
We observe an increasing trend of monitor manufacturers using “G-SYNC Compatible” label instead of “G-SYNC” or “FreeSync” to market monitors otherwise also FreeSync-compatible.
This is brilliant marketing by NVIDIA to certify FreeSync monitors, causing monitor manufacturers to inexpensively label the higher-quality generic VRR monitors as “G-SYNC Compatible” with less of the G-SYNC cost premium (native G-SYNC has extra attributes many willingly pay for, such as ULMB, improved overdrive, and less ghosting).
This allows NVIDIA to get more brand name marketing, at cost to AMD, because monitor manufacturers say “G-SYNC Compatible” instead of “FreeSync”.
We welcome the vigorous competition. Everybody wins. G-SYNC becomes cheaper via the Compatible label, and better quality even on AMD cards!
However, we express a bit concern by confused readers that contact Blur Busters to ask about G-SYNC and FreeSync compatibility, since some monitor manufacturers ceased to mention “FreeSync”, despite also functioning with AMD Radeon graphics cards at high quality!
Be noted, “G-SYNC Compatible” means NVIDIA certified a generic Adaptive-Sync / VRR display, as having passed quality thresholds to warrant the G-SYNC label. Such displays work with FreeSync-enabled AMD Radeon cards too.
The higher performance native G-SYNC displays with the G-SYNC chip require an NVIDIA card. However, but ones only labelled “G-SYNC Compatible” also work with AMD. If G-SYNC is followed by the word “Compatible“, it means it also will work with AMD Radeon graphics (And soon Intel) too.
https://www.blurbusters.com/lg-expands-ultragear-line-with-144-hz-175-hz-and-240-hz-gamining-monitors/
edit: Wobei man auch sagen muss, das es ein wenig weird ist das aus Blurbusters "Mund" zu hören, da sie G-Sync auch deutlich mehr Raum bieten als Adaptive Sync, ein Teil der Seite ist exklusiv G-Sync gewidmet. ;)
Bucklew
2019-09-13, 23:22:35
Du widersprichst dir immer häufiger ... bist noch nicht angekommen
Wo denn?
HDMI 2.1 VRR ist der AMD Lösung nahezu gleich.
Blöd nur, dass AMD keinen Treiber für Radeons mit HDMI 2.1 VRR hat.
Aber ja, fast gleich ;D
NVs neue "G-Sync via HDMI" ist AMDs Lösung sehr ähnlich. (und wesentlich jünger als AMDs altes "Free-Sync")
1. "G-Sync compatible"
2. Schlicht nur HDMI VRR
Da habe ich meine Antwort, Du trollst ganz offensichtlich.
Sollte eigentlich zu einer Sperre von dir führen
3 Punkte (verfallen nach 1 Jahr): Persönliche Beleidigung anderer User, Copyright-Verletzung, aktive Meinungsmache/Propaganda/Agitation/Schleichwerbung
Zumal ohne jede Begründung. Einfach nur peinlich, aber eben typisch Gispel. Wunder mich ja etwas, dass du noch keinen Mod-Kollegen von dir aufgefordert hast, deine Dmontage von mir hier im Forum zu unterbinden :ugly:
Du widersprichst Deinen Post von gestern (daß nV HDMI 2.1 VRR Unterstützung einführen wird, jetzt soll das mit einem Mal unmöglich sein?) und verstehst entweder nicht, wie das funktioniert oder willst es mutwillig nicht verstehen.
Insofern... :rolleyes:
Was widerspricht sich wo? Ohne Zitate oder konkrete Ansage komplett unsinnige Aussage (was sonst?).
NVIDIA führt mit einem kommenden Update die Kompatibilität mit HDMI VRR ein. Ende. Etwas, worauf wir bei AMD seit Januar 2018 (!) warten.
Es ist übrigens interessant, dass du dich verweigerst meine konkreten Fragen zu beantworten. Klar, mit einer klaren Ja/Nein Antwort, könntest du dich ja nicht - wie üblich - billig heraus schwurbeln ;D
Also nochmal, für dich Gipsel:
Wenn LG das angekündigte Update heraus bringt und man das auf dem TV installiert hat, funktioniert dann VRR über HDMI mit aktuellen Radeon Grafikkarten mit aktuellen Treiber 19.9.1 ja oder nein?
Du sagst ist alles das Gleiche, alles total kompatibel und AMD macht nix proprietäres blablabla - obwohl alle das Gegenteil behaupten. Dann sollte obrige Frage ja extrem einfach für dich zu beantworten sein :P
Um mal kurz aus Bucklews (und nordic_pegasus') circle jerk herauszutreten (danke für deine Geduld, Gipsel, ich habe schon aufgegeben:freak:)
Es ist schon spannend, dass jetzt plötzlich ein Label für AdaptiveSync, wie es AMD seit Jahren mit FreeSync betreibt, ein Problem sein soll. Die Kritik konnte ich hier im Forum auch nie lesen, obwohl sie auch schon 2015 angebracht wäre. Auch AMD hätte es einfach AdaptiveSync nennen können.
Jetzt wo es NVIDIA tut, ist es natürlich wieder ganz böse, genauso wie es auch bei AMD plötzlich völlig ok ist, eine hersteller-spezifische Implementierung zu haben und da "FreeSync" drauf zu schreiben ;D
Aber immerhin, da du dich nicht mehr in die für euch unhaltbare Position begibst, in der du bisher warst, bist du immerhin etwas cleverer als Gipsel.
PS: Warum schließt sich eigentlich Blurbuster dem AMD-Marketing an und bezeichnet die Monitore als "FreeSync"? :confused:
less of the G-SYNC cost premium (native G-SYNC has extra attributes many willingly pay for, such as ULMB, improved overdrive, and less ghosting).
Kann nicht sein, laut den Helden des Forums Gipsel + JVC ist G-Sync genau das Gleiche wie FreeSync. Ganz klar FakeNews! :eek:
Unicous
2019-09-14, 00:05:03
Leute die Posts zerstückeln und von sich selbst behaupten sie würden jemanden "demontieren" tun sehr oft genau das Gegenteil, sie demontieren sich selbst, jfyi.:wink::wink:
Zu behaupten "gewonnen" zu haben nur weil man tagelang einen Thread "brigadiert" sich mit einem Mod anzulegen, ihn zu beleidigen, zu behaupten er würde beleidigen, zeigt nur auf, dass es dir nicht an Aufklärung gelegen ist sondern nur darum geht Zwietracht zu säen. Es ist vergebene Liebesmüh, das mit dir auszudiskutieren, du argumentierst nicht im Guten, du verdrehst Tatsachen um sie deiner Narrative anzupassen.
Jeder weitere Versuch eine gesittete Debatte zu führen wird scheitern, denn du fühlst dich ja eh schon als Gewinner. Das Problem ist nur: es gibt nichts zu gewinnen. In meinen Augen hast du jedenfalls deutlich an Respekt verloren. Dein Verhalten in anderen threads untermauert das.
maguumo
2019-09-14, 00:47:16
Hatten wir doch in diesem Thread schon mal mit ihm, an der Sturheit und technischen Inkompetenz hat sich offensichtlich nichts geändert.
Na Nvidia muß doch ihren Treiber auch erst einmal ausliefern, Bucklew. Wo ist da jetzt der Unterschied zu AMD?
Auch Nvidias Grafikkarten bieten nur HDMI-2.0b-Ausgänge. Wo ist da der Unterschied zu AMD?
Und im Gegensatz zu AMD, wo man noch überhaupt nicht weiß, welche Karten gegebenenfalls unterstützt werden (Oder glaubst Du allen Ernstes, daß AMD nie HDMI-2.1 unterstützende Treiber ausliefern wird? Nicht wirklich, oder?), hat Nvidia ja schon klar gemacht, daß bei ihnen nur Turing dieses Upgrade erfährt. Das ist dann allerdings ein Unterschied zu AMD.
Gipsel
2019-09-14, 04:44:48
@Bucklew:
Einige Dich erstmal selbst, was Du überhaupt sagen willst. Will nVidia jetzt HDMI 2.1 VRR auf den RTX-Karten (mit HDMI 2.0 Anschlüssen) unterstützen oder ist so eine Unterstützung Deiner Meinung nach unmöglich (beides steht von Dir hier im Thread). Oder aktiviert nVidia den Support von "AdaptiveSync über HDMI"? Was immer das genau sein soll. Meinst Du damit etwa die bereits existierende Umsetzung, die von AMD seit Jahren benutzt wird, um variable Refreshraten über HDMI zu ermöglichen (was im Wesentlichen schlicht die Übertragung des VESA Adaptive Sync Standards von DP auf HDMI darstellt)?
Die Grafikkarten beherrschen nur HDMI2.0b, wie wollen die die HDMI2.1 VRR Spec beachten? :confused:
Da HDMI2.0 kein VRR kennt, kann es gar nicht nach Spezifikation sein, dass man die Kennung "Ich kann VRR" überträgt.
Sie [nV] planen (laut Dir ;)) HDMI 2.1 VRR zu unterstützen.Falsch. Schon wieder falsch. [..] Wie, Gipsel, sollen sie denn mit HDMI 2.0 Hardware plötzlich HDMI 2.1 Support hin kriegen? Man, man, man.
Aber nV führt doch vermutlich Support für das in der HDMI 2.1 Spec definierte VRR Feature (auf Grafikkarten mit HDMI 2.0-Anschlüssen) ein, oder? Das hast Du ja auch mehrfach geschrieben (oder soll ich das jetzt auch noch zitieren? :rolleyes:). Und warum nennst Du das auch öfter mal Adaptive Sync (ein VESA-Standard für DisplayPort) über HDMI? Weil das "G-Sync compatible" Label bisher für deren Adaptive-Sync Implementation stand?
Unicous
2019-10-04, 22:20:15
Well, well, well...
Harry Wentland, a longtime member of the AMD Linux graphics team and patch wrangler around the DC display code, was the presenter at XDC2019. One of the big complaints of the AMD FreeSync/Adaptive-Sync Linux support to date has been the lack of supporting HDMI outputs... Wentland explained that on Windows, AMD uses a proprietary AMD-developed protocol for enabling FreeSync on HDMI. Obviously that won't fly for the open-source AMDGPU kernel driver. But as for the formal HDMI Variable Rate Refresh (VRR) support, they note it's "pending" but held up by a HDMI VRR conformance test suite being released. So hopefully once that CTS is available, HDMI VRR will be flipped on for Linux users wishing to enjoy Adaptive-Sync/VRR functionality for HDMI displays.
https://www.phoronix.com/scan.php?page=news_item&px=AMD-FreeSync-2019-Update
aufkrawall
2019-10-04, 22:32:41
Tja, die Desinformations-Masche von Nvidia lebt von Usern, die sich bereitwillig vor ihren Karren spannen lassen...
Bucklew
2019-10-05, 01:23:01
Wentland explained that on Windows, AMD uses a proprietary AMD-developed protocol for enabling FreeSync on HDMI.
Tjo, genau wie ich schon vermutet hatte :cool:
Soviel zum ach so offenen FreeSync-Protokoll.
Unicous
2019-10-05, 01:44:55
Das ist keine Neuigkeit und wurde hier von Anfang an erläutert, du tust so als würdest du hier als einziger den Durchblick haben... stattdessen machst du dich fortwährend mit Halbwahrheiten lächerlich.:facepalm:
edit:
Im Übrigen... WTF?:confused: Ich dachte FreeSync ist kein Protokoll, sondern ein Label wie du selbst nicht müde wirst zu erwähnen?:confused::confused::confused:
Bucklew
2019-10-05, 01:47:40
Das ist keine Neuigkeit und wurde hier von Anfang an erläutert, du tust so als würdest du hier als einziger den Durchblick haben...
Offensichtlich:
Wo hast Du das denn her, daß es eine proprietäre "Samsung-Lösung" gäbe?)
Derweil schrieb ich 100x, dass die aktuelle Implementierung offensichtlich proprietär ist. Wurde mir 100x widersprochen. Nun soll es plötzlich keine Neuigkeit mehr und von Anfang klar gewesen sein.
Was denn nun?
Kann nix dafür, dass ich Rechte hatte und habe, ist leider manchmal auch ein Fluch :cool:
@Gipsel: Ich beantworte dir gern deine Fragen, wenn du meine aus meinem vorherigen Posting beantwortest hast :cool: Sind sogar, selbst für dich, einfach per Ja/Nein beantwortbar.
Unicous
2019-10-05, 01:56:04
Dunning Kruger is strong in this one.
Btw. proprietär bedeutet in der Linux/Open Source-Welt etwas anderes als du es hier darstellst. Das checkst du offensichtlich nicht, bzw. hast das offensichtlich aus dem Zitat ausgelassen.
Wentland explained that on Windows, AMD uses a proprietary AMD-developed protocol for enabling FreeSync on HDMI. Obviously that won't fly for the open-source AMDGPU kernel driver.
Du verstehst nicht einmal was hier gemeint ist und versuchst daraus einen Strick zu drehen. :facepalm:
Bucklew
2019-10-05, 02:11:38
Dunning Kruger is strong in this one.
Du postest ja auch hier :rolleyes:
Btw. proprietär bedeutet in der Linux/Open Source-Welt etwas anderes als du es hier darstellst. Das checkst du offensichtlich nicht, bzw. hast das offensichtlich aus dem Zitat ausgelassen.
Blöd für dich, dass ich (und nicht nur ich) nichts weiter behauptet hatte, als dass die aktuelle AMD/Samsung-FreeSync-Lösung proprietär ist.
Genau deshalb gibt es auch keinen Support für generische VRR-Lösungen über HDMI.
Das hatte nicht nur ich hier schon gesagt:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12093434#post12093434
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12093443#post12093443
Also beschwere dich doch selbst, der bei Postings, die genau die obig von dir zitierte Aussage wiedergeben, widerspricht :freak:
Alles nur Semantik, ne? :facepalm:
nordic_pegasus
2019-10-05, 08:45:22
Um mal kurz aus Bucklews (und nordic_pegasus') circle jerk herauszutreten (danke für deine Geduld, Gipsel, ich habe schon aufgegeben:freak:)
keine Sorge, ich schreibe zu dem Thema nichts mehr. Ich verbinde lieber den ganzen Tag eine AMD Radeon GraKa mit einem HDMI 2.1 VRR TV und wundere mich, warum ich kein VRR nutzen kann, obwohl es doch identisch zu Freesync und nur ein anderer Marketing-Name sein soll :freak: :facepalm:
robbitop
2019-10-05, 08:56:42
Gipsel hat es doch relativ gut erklärt. Sowohl für HDMI < 2.1 (wo es noch keinen offiziellen HDMI Standard für vrr gab) als auch für HDMI 2.1(+). Den Diskussionsbedarf verstehe ich nicht.
Unicous
2019-10-05, 14:31:42
keine Sorge, ich schreibe zu dem Thema nichts mehr. Ich verbinde lieber den ganzen Tag eine AMD Radeon GraKa mit einem HDMI 2.1 VRR TV und wundere mich, warum ich kein VRR nutzen kann, obwohl es doch identisch zu Freesync und nur ein anderer Marketing-Name sein soll :freak: :facepalm:
Tu das Gleiche mit einer Nvidia Karte und bitte erzähl uns was passiert. :uup:
edit:
Der genaue Wortlaut aus der pdf:
AMD currently doesn’t enable HDMI™ VRR pending HDMI™ VRR CTS
https://xdc2019.x.org/event/5/contributions/331/attachments/424/675/HarryWentland-Freesync-20191003.pdf
AMD wartet brav auf das HDMI Konsortium und zwei Brückentrolle versuchen AMD daraus einen Strick zu drehen. Es ist an Lächerlichkeit nicht zu überbieten.:facepalm:
Vortrag von der XDC: https://youtu.be/HYa4UvVtMOE?t=30080
Bucklew
2019-10-05, 18:54:20
Tu das Gleiche mit einer Nvidia Karte und bitte erzähl uns was passiert.
Den Inhalt bezüglich HDMI VRR Support von NVIDIA hast du überlesen oder nicht verstanden? :facepalm:
AMD wartet brav auf das HDMI Konsortium und zwei Brückentrolle versuchen AMD daraus einen Strick zu drehen. Es ist an Lächerlichkeit nicht zu überbieten.
Leider warten sie ja nicht, sondern implementieren eine proprietäre Lösung. Bei NVIDIA war das mit G-Sync ein No-Go, jetzt bei AMD ist das superklasse.
Euer zweierlei Maß ist an Lächerlichkeit wirklich nicht zu überbieten.
Unicous
2019-10-05, 20:17:45
Du hast keinerlei Ahnung wovon du sprichst. Du hast weder das Verlinkte gelesen/gesehen noch kapierst du überhaupt den Kontext.:facepalm:
Den Inhalt bezüglich HDMI VRR Support von LG hast du überlesen oder nicht verstanden?
FTFY
Bislang gibt es keinen Support für die OLED TVs weil es keine firmware gibt. Ergo kein G-Sync über HDMI, da kann Nvidia noch so oft eine PM an die Medien verteilen.:wink::wink::wink:
(Soweit ich das mitbekommen habe, soll die firmware erst im November bereit sein, man möge mich korrigeren wenn dem nicht so ist)
Da AMD auf eine CTS des HDMI Konsortiums wartet, kann Nvidia ergo gar nicht HDMI VRR offiziell unterstützen, oder misst du hier auch mit zweierlei Maß?:uponder:
Es kristallisiert sich immer weiter heraus, dass Nvidia entweder eine proprietäre Lösung mit LG ausgehandelt hat, oder LG und Nvidia vergessen haben zu erwähnen, dass HDMI VRR erst noch auf Konformität getestet werden muss.
FreeSync over HDMI ist eine proprietäre Lösung, weil HDMI 1.4 und 2.0 kein VRR unterstützen und man hier die firmware modifiziert hat um es zu ermöglichen. VRR ist der offizielle Standard für HDMI 2.1 und da wartet AMD auf das HDMI Konsortium, warum ist das so schwer verständlich für euch beide?:confused:
Gipsel
2019-10-05, 21:51:44
@Bucklew:
Das Trollen hört jetzt auf. Letzte Ansage.
Lehdro
2019-10-12, 18:31:35
Ich weiß, Adored ist hier nicht gerne gesehen, aber der erste Teil des Videos zeigt mal wieder auf wie marketingtechnisch NV einfach die Nase bei den Herstellern vorn hat:
5q31xSCIQ1E
Tl,dr wer es nicht schauen will:
Fast jeder Freesyncmonitor der nachträglich von NV für Gsync zertifiziert wurde wird offensiv nur mit Gsync beworben. In den Beispiellistungen die Adored auf zb Amazon aufzeigt taucht ausser unten bei den Features das Wort Freesync zur Vermarktung gar nicht mehr auf. Selbiges auf den Herstellerseiten.
Selbst der allgemeingültige Begriff Adaptive Sync wird nur sehr sparsam benutzt. Auf den ersten Blick lässt sich Freeync nicht mehr finden und wird auch nicht beworben. Er spekuliert dass das eine inoffizielle Anforderung gewesen sein könnte um die Zertifizierung für Gsync üpberhaupt zu bekommen.
Hatte Unicous ja schon vor ein paar Wochen erspürt, diesen Trend. Und auch Blurbusters war das aufgefallen - > (Post# 7156 in diesem Thread)
[...]
https://www.blurbusters.com/lg-expands-ultragear-line-with-144-hz-175-hz-and-240-hz-gamining-monitors/
edit: Wobei man auch sagen muss, das es ein wenig weird ist das aus Blurbusters "Mund" zu hören, da sie G-Sync auch deutlich mehr Raum bieten als Adaptive Sync, ein Teil der Seite ist exklusiv G-Sync gewidmet. ;)
Edit: Und hier AMD verkauft gar nichts. (Nvidia mit ihren Modulen hingegen schon.) Die Zertifizierung ist kostenlos.
Jedoch verkaufen einige Hersteller Adaptive Sync Monitore mittlerweile nur noch als G-Sync-Compatible und es wird kein Sterbenswörtchen mehr über FreeSync verloren, dafür wird aber immerhin Adaptive Sync erwähnt.
https://www.techpowerup.com/258955/acer-announces-nitro-xv3-line-of-pc-gaming-monitors
edit:
https://www.techpowerup.com/258956/lg-announces-ultragear-ips-1-ms-lineup-with-nvidia-g-sync
Ist natürlich reiner Zufall, dass FreeSync nicht mehr erwähnt wird.
Ich weiß, Adored ist hier nicht gerne gesehen, aber der erste Teil des Videos zeigt mal wieder auf wie marketingtechnisch NV einfach die Nase bei den Herstellern vorn hat:
https://youtu.be/5q31xSCIQ1E
Tl,dr wer es nicht schauen will:
Fast jeder Freesyncmonitor der nachträglich von NV für Gsync zertifiziert wurde wird offensiv nur mit Gsync beworben. In den Beispiellistungen die Adored auf zb Amazon aufzeigt taucht ausser unten bei den Features das Wort Freesync zur Vermarktung gar nicht mehr auf. Selbiges auf den Herstellerseiten.
Selbst der allgemeingültige Begriff Adaptive Sync wird nur sehr sparsam benutzt. Auf den ersten Blick lässt sich Freeync nicht mehr finden und wird auch nicht beworben. Er spekuliert dass das eine inoffizielle Anforderung gewesen sein könnte um die Zertifizierung für Gsync üpberhaupt zu bekommen.
GPP 2.0 :freak:
robbitop
2019-10-13, 06:42:20
Wenn das stimmt, dann zeigt es, was für Normen es bei NV anscheinend nicht gibt: don‘t be evil. (Google)
Natürlich ist jede kommerzielle Organisation auf Gewinnmaximierung getrimmt - aber ob das auch immer mit solchen destruktiven Geschäftsgebaren sein muss? (Siehe Intel, die Druck auf Händler machten keine Wettbewerbsprodukte mehr zu verkaufen - oder eben das GPP.)
Finde ich wirklich unschön. Echter Wettbewerb ist eigentlich was gutes für den Endkunden.
AffenJack
2019-10-13, 09:13:20
Wenn das stimmt, dann zeigt es, was für Normen es bei NV anscheinend nicht gibt: don‘t be evil. (Google)
Natürlich ist jede kommerzielle Organisation auf Gewinnmaximierung getrimmt - aber ob das auch immer mit solchen destruktiven Geschäftsgebaren sein muss? (Siehe Intel, die Druck auf Händler machten keine Wettbewerbsprodukte mehr zu verkaufen - oder eben das GPP.)
Finde ich wirklich unschön. Echter Wettbewerb ist eigentlich was gutes für den Endkunden.
Dann solltest AMD aber gleich mit verurteilen, denn schließlich haben sie die Monitorhersteller anscheinend gezwungen mit Freesync zu werben, anstatt mit Adaptive Sync.:freak: Ganz destruktives Geschäftsgebahren.
Oder man überlegt sich wieso es für die Hersteller Sinn gemacht hat mit Freesync zu werben und jetzt mit G-Sync. Aus purem Marketing macht das im Moment schlicht und einfach Sinn, genauso wie früher Freesync.
Dann solltest AMD aber gleich mit verurteilen, denn schließlich haben sie die Monitorhersteller anscheinend gezwungen mit Freesync zu werben, anstatt mit Adaptive Sync.:freak: Ganz destruktives Geschäftsgebahren.
Oder man überlegt sich wieso es für die Hersteller Sinn gemacht hat mit Freesync zu werben und jetzt mit G-Sync. Aus purem Marketing macht das im Moment schlicht und einfach Sinn, genauso wie früher Freesync.
Wenn AMD die Monitorhersteller gezwungen hätten also auch vertraglich gebunden wären mit dem Freesync zu werben dann hätte das jetzt gar nicht passieren können.
Es macht auch aus Marketingsicht keinen Sinn. Das einzige was Sinn gemacht hätte wäre zu sagen unser Monitor unterstütz Freesync und ist G-sync compatible also mit beidem zu werben.
Lehdro
2019-10-13, 10:40:50
Es macht auch aus Marketingsicht keinen Sinn. Das einzige was Sinn gemacht hätte wäre zu sagen unser Monitor unterstütz Freesync und ist G-sync compatible also mit beidem zu werben.
Genau so. Warum sich selber einem Kundenkreis freiwillig vorenthalten? Das ergibt doch wirklich keinerlei Sinn - das kann nur von NV kommen, denn als Monitorhersteller betreibst du doch keine aktive Einschränkung deines Kundenkreises ohne Not.
robbitop
2019-10-13, 11:12:26
Dann solltest AMD aber gleich mit verurteilen, denn schließlich haben sie die Monitorhersteller anscheinend gezwungen mit Freesync zu werben, anstatt mit Adaptive Sync.:freak: Ganz destruktives Geschäftsgebahren.
Oder man überlegt sich wieso es für die Hersteller Sinn gemacht hat mit Freesync zu werben und jetzt mit G-Sync. Aus purem Marketing macht das im Moment schlicht und einfach Sinn, genauso wie früher Freesync.
Hä? Freesync ist freiwillig. Das wird wie G-Sync compatible über eine Zertifizierung bei AMD erwirkt. Dann darf man die Badge tragen. Für adaptive sync muss man nur den vesa Standard unterstützen. Keine Zertifizierung notwendig. FS/GS sind zusätzlich. Zumal AS auch von keinem Mitbewerber ist. Das ist einfreier Standard. Die Monitore, die Freesync unterstützten haben auch recht häufig/fast immer die Unterstützung von async benannt.
AMD hat da mMn gar nichts erzwungen. Interessant ist, dass exakt die Monitore die Freesync und async badges hatten nach der gsync Zertifizierung keine Freesync Badges mehr haben.
Wenn du die Wahl hast, 2 Logos auf die Packung zu drucken (beide Zertifizierungen wurden ja bestanden) - dann machst du das auch. Es sei denn jemand hindert dich daran.
Und genau dieses Muster ist bei jedem Freesync Monitor zu sehen nachdem er die Gsync Zertifizierung bestanden hat. Relativ auffällig. Wenn es stimmt, ist das definitiv kein sauberes Geschäftsgebaren IMO.
Unicous
2019-10-13, 15:06:52
Dann solltest AMD aber gleich mit verurteilen, denn schließlich haben sie die Monitorhersteller anscheinend gezwungen mit Freesync zu werben, anstatt mit Adaptive Sync.:freak: Ganz destruktives Geschäftsgebahren.
Oder man überlegt sich wieso es für die Hersteller Sinn gemacht hat mit Freesync zu werben und jetzt mit G-Sync. Aus purem Marketing macht das im Moment schlicht und einfach Sinn, genauso wie früher Freesync.
:rolleyes:
Beweise für diese Behauptung hast du hoffentlich auch, oder?
Das ist das erste Mal dass ich davon höre, dass AMD die Hersteller gezwungen hat das FreeSync Logo, daher hoffe ich du saugst dir das gerade nicht aus den Fingern. Gibt genug Displays die das Label nicht haben, auch wenn über die wenig bis gar nicht berichtet wird.
(und btw. Gebaren)
AffenJack
2019-10-13, 21:02:40
Wenn du die Wahl hast, 2 Logos auf die Packung zu drucken (beide Zertifizierungen wurden ja bestanden) - dann machst du das auch. Es sei denn jemand hindert dich daran.
Und genau dieses Muster ist bei jedem Freesync Monitor zu sehen nachdem er die Gsync Zertifizierung bestanden hat. Relativ auffällig. Wenn es stimmt, ist das definitiv kein sauberes Geschäftsgebaren IMO.
Wenn sowieso jeder Monitor Freesync stehen hat, hast du damit keinen Marketingeffekt mehr. Freesync kriegt sogut wie jeder Monitor oder sogar jeder? G-Sync Compatible hat ein deutlich härteres Zertifizierungsverfahren und du hast ein deutlich besseres Alleinstellungsmerkmal. Dazu hat Nvidia aufgrund der Marktanteile schlicht und einfach mehr Kundschaft, die man mit GSync überzeugen kann. Der Marketingeffekt von GSync ist einfach deutlich höher.
:rolleyes:
Beweise für diese Behauptung hast du hoffentlich auch, oder?
Beweise? Nicht mehr und nicht weniger als die Behauptungen die hier aufgestellt werden. Aber es muss doch schließlich einen Grund haben, wieso die Hersteller mit Freesync statt Adaptive Sync werben.:freak: Das Motto hier ist doch erstmal Sachen zu unterstellen, egal ob es Beweise gibt. Ich hab gelernt mich dem neuen Niveau von 3dcenter anzupassen.:wink:
Lehdro
2019-10-13, 21:07:29
Aber es muss doch schließlich einen Grund haben, wieso die Hersteller mit Freesync statt Adaptive Sync werben.:freak:
Jetzt du: Bei manchen wurde aus "Freesync" -> "G-sync compatible" + "adaptive sync". Warum ist das Freesync durch die "schlechtere" Spezifikation ersetzt wurden?
Jetzt du: Bei manchen wurde aus "Freesync" -> "G-sync compatible" + "adaptive sync". Warum ist das Freesync durch die "schlechtere" Spezifikation ersetzt wurden?
Weil Nvidia-Käufer nur an Gsync interessiert sind und diese die deutliche Mehrheit darstellen. Der Werbeeffekt ist nicht zu unterschätzen, da sich in der Masse die Öffnung von Gsync wohl eher nicht rumgesprochen hat. NV ist Marktführer, daran orientieren sich die Hersteller.
NV hat auch möglicherweise eine Verwendung beider Label verboten. Wäre nicht verwunderlich.
Kartenlehrling
2019-10-13, 21:35:43
Warscheinlich auch wegen ihrer selbt gemachten Namenähnlichkeit von nvidias Adaptive VSync
nVidias "Adaptive VSync Technology" - die wahrscheinlich interessanteste Kepler-Neuerung
Unicous
2019-10-13, 21:45:38
@Affenjack
Also verstehe ich das richtig: Weil andere hier im Forum deiner Meinung nach lügen gibt dir dieser Umstand das Recht, selbst Lügen zu verbreiten (denn nichts anderes ist es, wenn du ohne Anhaltspunkte oder gar Beweise Behauptungen aufstellst)? Du nennst das "Niveau anzupassen", ich nenne es Armutszeugnis.:rolleyes:
Ich würde mir wünschen, dass du auf deinem hohen Rosse verweilst und dir das mit den Lügen in Zukunft sparst.:up:
Im Übrigen würde ich gerne wissen welches härtere Zertifzierungsverfahren "G-Sync Compatible" darstellt wenn gar nicht klar ist welche Kriterien erfüllt werden müssen (bis auf ein paar öffentlich dargestellte).
Da Nvidia immer mal wieder geflunkert hat wenn es um die Darstellung von FreeSync und G-Sync (Compatible) geht würde ich da gerne mehr zu erfahren oder ist das auch wieder ein Beweis durch Behauptung.
Was Nvidia verschweigt ist die Tatsache, dass es bei G-Sync Compatible Monitoren auch zu Flickering und anderen unschönen Nebeneffekten kommt oder dass "durchgefallene" Monitore mit FreeSync wunderbar zusammenarbeiten.:wink:
Vielleicht, aber auch nur vielleicht, liegt es nicht immer an den Monitoren sondern an Nvidias Implementierung, nur mal so als Denkanstoß.:uponder:
Lehdro
2019-10-13, 22:22:07
Weil Nvidia-Käufer nur an Gsync interessiert sind und diese die deutliche Mehrheit darstellen. Der Werbeeffekt ist nicht zu unterschätzen
Mir ist schon bewusst das Gsync deutlich besser zieht, aber darum geht es eigentlich nicht. Es geht darum das Freesync gar nicht mehr draufsteht.
NV hat auch möglicherweise eine Verwendung beider Label verboten. Wäre nicht verwunderlich.
Ein anderer Grund ergibt keinen Sinn, da Freesync strikter (aber immer noch deutlich lascher als G-sync) als adaptive Sync ist.
Gsync und Freesync draufzuschreiben wäre die beste Lösung, wird aber von niemanden gemacht - die Frage ist warum? Die wahrscheinlichste Antwort hast du schon geliefert. ;)
AffenJack
2019-10-13, 23:46:27
Mir ist schon bewusst das Gsync deutlich besser zieht, aber darum geht es eigentlich nicht. Es geht darum das Freesync gar nicht mehr draufsteht.
Ein anderer Grund ergibt keinen Sinn, da Freesync strikter (aber immer noch deutlich lascher als G-sync) als adaptive Sync ist.
Gsync und Freesync draufzuschreiben wäre die beste Lösung, wird aber von niemanden gemacht - die Frage ist warum? Die wahrscheinlichste Antwort hast du schon geliefert. ;)
Scheint Gigabyte wohl das Memo nicht bekommen zu haben?
https://www.gigabyte.com/Monitors/AD27QD#kf
Ebenso wie BenQ, die zwar keins aktiv bewerben, aber beides in den Spezifikationen listen:
https://zowie.benq.eu/de-de/product/monitor/xl/xl2740.html
Bucklew
2019-10-14, 09:01:13
Scheint Gigabyte wohl das Memo nicht bekommen zu haben?
https://www.gigabyte.com/Monitors/AD27QD#kf
Ebenso wie BenQ, die zwar keins aktiv bewerben, aber beides in den Spezifikationen listen:
https://zowie.benq.eu/de-de/product/monitor/xl/xl2740.html
Haben wohl beide nicht das Memo bekommen ;D
Adored hat sich eben mal wieder ne weitere Lüge aus dem Arsch gezogen. Und die üblichen Claqueure springen auf.
Ist doch klar, dass der Hersteller lieber mit dem Werbewirksameren Label wirbt. Das ist G-Sync. Eigentlich hätte man von Anfang an AMD dafür kritisieren müssen, dass sie auf den VESA Standard Adaptive Sync ein eigenes Label drauf pappen. Aber AMD darf ja eigentlich immer alles machen, nur bei NVIDIA ist es dann plötzlich per se böse. AMD darf ja auch proprietäres HDMI VRR anbieten :ugly:
Da Nvidia immer mal wieder geflunkert hat wenn es um die Darstellung von FreeSync und G-Sync (Compatible) geht [keine Belege]
Tolle Belege für deine Behauptung hast du da geliefert :up:
Unicous mal wieder an der eigenen öffentlichen Selbst-Demontage, herrlich ;D
robbitop
2019-10-14, 09:14:53
G-Sync Compatible und Freesync basieren beide auf dem a sync Standard der VESA, setzen jedoch jeweils weitere/zusätzliche Kriterien und eine Prüfung durch Zertifizierung voraus.
Zumal man hier konstatieren sollte, dass AMD der Treiber des offenen Industriestandards ist/war, den sie bei der VESA eingereicht haben. G-Sync kam früher, war jedoch propertär und zumindest sah es für mich so aus, als dass sie VRR nach VESA erst unterstützt haben, als es zum Nachteil wurde. Für mich sah es so aus als wollten sie damit Kunden binden. Nicht verwerflich - Marktwirtschaft. Verwerflich finde ich es nur (und das ist aktuell unbestätigt im aktuellen Falle), wenn man Lieferanten/Kunden/Partner mit Marktmacht/anderen Mitteln bedrängt, Nachteile für den Wettbewerber zu erzeugen. GPP steht da definitiv auf der Liste - was zumindest zeigt, dass es eine Variante ist, die man gegangen ist. Ggf gibt es weitere, die aber nicht aufgedeckt worden sind. Hier kann man aktuell nur Indizien folgen aber sicher keine vollständig bestätigte definitive Aussage treffen. Das stimmt.
Dass G-Sync werbewirksamer ist, scheint mir konkludent. Jedoch ist es nicht konkludent, dass ein zusätzliches Aufführen von Freesync ein Nachteil sein sollte. Ganz im Gegenteil. Man schränkt seinen Kundenkreis/Interessenkreis unnötig ein. Und das tuen (bis auf sehr wenige Ausnahmen) die Mehrheit der Vendors. Unbestätigt und Spekulativ. Aber auffällig mMn. Und der Trackrecord für so etwas ist zumindest in Teilen vorhanden. Leider.
Meines Wissens nach werden alle Vendors vrr nach hdmi 2.1 unterstützen sobald die SW dafür fertig ist. Andere Implementierungen waren mMn nur komplementierend, um vorher schon (Pre hdmi 2.1 Gerätekombinationen - siehe vrr über hdmi 1.4 Monitore) VRR über hdmi zu ermöglichen. So lange die Intension, einen offenen Standard nicht zu ersetzen/verdrängen ist, sondern ihn zu komplementieren, sehe ich persönlich da keinen Nachteil.
Bitte gern obiges korrigieren, wenn Fehler enthalten sein sollten. Jedoch bitte auf sachliche, fundierte Art und Weise.
Ich hoffe, dass Diskussionen weniger polemisch, persönlich und aggressiv geführt werden können. Das gilt für alle.
Bucklew
2019-10-14, 09:32:14
G-Sync Compatible und Freesync basieren beide auf dem a sync Standard der VESA, setzen jedoch jeweils weitere/zusätzliche Kriterien und eine Prüfung durch Zertifizierung voraus.
Gab es das bei FreeSync wirklich?
Die ersten FreeSync-Monitore waren doch voll mit Schrottmonitoren, mit 2 fps VRR-Range, ohne FrameDoubling etc.
Irgendwo schrieb AMD mal was von "9-240Hz" für FreeSync und alle haben sie gejubelt. Gekauft werden konnte dann "40-60Hz" :rolleyes:
robbitop
2019-10-14, 09:58:19
Freesync war zu Beginn wirklich relativ beschränkt. Da hat AMD mit LFC und später Freesync 2 HDR nachgebessert.
Man muss sich aber auch fragen, warum das so war:
1.) Scaler (= ASICs) werden selten neu entwickelt - Lebenszyklen sind relativ gesehen lang
Die Scaler die 2014 vorlagen waren zum Großteil eben sehr beschränkt
2.) Paneltechnologie - für eine große VRR Range braucht es schon relativ spezifische Optimierungen an den Panels. Auch das war 2014 rar und teuer.
Freesync hatte das Ziel, VRR möglichst kostengünstig möglichst vielen Spielern zugänglich zu sein. Freesync hätte höhere Anforderungen hinsichtlich VRR Range, Panelqualität, LFC etc setzen können. Dann hätte es aber kaum Produkte gegeben. So musste man das ganze als einen Evolutionären Weg sehen.
Zunächst einmal VRR in beschränkter Form, möglichst ohne Mehrkosten, in den Markt zu bekommen. Mit so vielen Monitoren wie möglich.
Weiterentwicklung neuer Scaler (im nächsten Zyklus) und modernere Panels würden folgen. Industrialisierung und Skaleneffekte würden dann die Preise drücken. Und genau so war es. Ab einem gewissen Punkt konnte man dann die Anforderungen in einem Nachfolgestandard anziehen. Und dennoch hat man mit FS 1.0 ein weiterhin gültiges Siegel was low cost VRR zulässt.
Ich schätze mal, dass es anders kaum möglich gewesen wäre.
Günstig für G-Sync compatible war, dass entsprechende HW zum Releasezeitraum schon so ausgereift war (Scaler, Panels), dass man die Anforderungen gleich etwas erhöhen konnte und es dennoch genug Modelle zu kaufen gibt.
Am Ende ist IMO eines wichtig für uns Endkunden: Ein gesunder Wettbewerb. Egal wer vorn und wer hinten liegt. Ein Wettbewerb sorgt für größere Auswahl und ein besseres Preis/Leistungsverhältnis. Ich persönlich finde es unschön (egal von welchem Vendor in welcher Branche es kommt), wenn Dinge passieren, die den Wettbewerb gefährden. (das liegt aber nunmal in der Natur der Marktwirtschaft - denn ohne Wettbewerb sind Gewinne potenziell höher - und genau das ist das Optimierungskriterium der Marktwirtschaft).
Danke für die nüchterne Darlegung, robbitop. Das wär super, wenn wir Diskutierenden uns das als Vorbild nähmen. Egal zu welchem Thema. :)
Troyan
2019-10-14, 11:21:26
Halten wir fest:
AMD bewirbt einen offenen Standard mit einem nicht vom Kommitee entworfenen und standardisierten Namen und das finden alle toll.
Nun bewerben die Monitorhersteller einen offenen Standard mit einem nicht vom Kommitee entworfenen und standardisierten Namen und die selben Leute finden dies doof.
Man hätte AMD nie durchgehen lassen dürfen eine reine Propagandashow mit ihrem Marketingnamen für Adaptive-Sync fahren zu dürfen. Umso mehr freut es mich, dass dass die Monitorhersteller nun den Spieß umdrehen.
Bucklew
2019-10-14, 11:27:31
Halten wir fest:
AMD bewirbt einen offenen Standard mit einem nicht vom Kommitee entworfenen und standardisierten Namen und das finden alle toll.
Nun bewerben die Monitorhersteller einen offenen Standard mit einem nicht vom Kommitee entworfenen und standardisierten Namen und die selben Leute finden dies doof.
3DCenter in a nutshell :up:
PS: robbitop, du hast viel geschrieben, bist aber null auf mein Posting eingegangen. Von einer wirklich "Zertifizierung" kann bei FreeSync, gerade in den Anfangstagen, nicht die Rede sein.
robbitop
2019-10-14, 12:54:18
PS: robbitop, du hast viel geschrieben, bist aber null auf mein Posting eingegangen. Von einer wirklich "Zertifizierung" kann bei FreeSync, gerade in den Anfangstagen, nicht die Rede sein.
Was ist denn eine "wirkliche" Zertifizierung und was nicht?
Ich denke eher, dass die relativ geringen Anforderungen für die Zertifizierung gemeint sind? Entsprechend schlecht ist das Resultat, wenn nur diese erfüllt werden. Warum das so war, habe ich dargestellt.
Welche Informationen fehlen konkret?
Halten wir fest:
AMD bewirbt einen offenen Standard mit einem nicht vom Kommitee entworfenen und standardisierten Namen und das finden alle toll.
Sowohl G-Sync compatible als auch Freesync setzen auf den offenen VESA Standard und sind kompatibel zu diesem. Es ist sozusagen der kleinste gemeinsame Nenner. G-Sync compatible und Freesync sind beides eigentlich nur erhöhte Anforderungen, die per Zertifikation geprüft wird. Erfüllt das Gerät die Anforderungen, darf damit geworben werden. Ist ja auch ein Mehrwert für Spieler (höhere VRR Range, ggf höhere Mindesthelligkeit). Dagegen ist wenig einzuwenden.
Nun bewerben die Monitorhersteller einen offenen Standard mit einem nicht vom Kommitee entworfenen und standardisierten Namen und die selben Leute finden dies doof.
Ich vermute, dass niemand die Vermarktung dieser Zertifikate kritisiert (oder nur eine Minderheit). Kritisiert wird der hypothetische Fall (aber das ist eben noch spekulativ), dass einer der Vendors sein Zertifikat nur vergibt, wenn die Bewerbung des Zertifikats des Wettbewerbers nicht mehr erfolgen wird. Das ist mMn schon etwas anderes.
Man hätte AMD nie durchgehen lassen dürfen eine reine Propagandashow mit ihrem Marketingnamen für Adaptive-Sync fahren zu dürfen. Umso mehr freut es mich, dass dass die Monitorhersteller nun den Spieß umdrehen.
Naja AMD hat A-Sync getrieben und der VESA zur Verfügung gestellt. Und wie oben dargestellt, haben die Zertifikate beide für sich einen Mehrwert.
Bucklew
2019-10-14, 12:57:02
Was ist denn eine "wirkliche" Zertifizierung und was nicht?
Tatsächliche QS/Tests zum Beispiel.
Um0PFoB-Ls4
Ich denke eher, dass die relativ geringen Anforderungen für die Zertifizierung gemeint sind? Entsprechend schlecht ist das Resultat, wenn nur diese erfüllt werden. Warum das so war, habe ich dargestellt.
Die Frage ist, was der Kunde von einer zusätzlichen, proprietären "Zertifizierung" hat, wenn es schlicht nichts weiter prüft, als dass das Geräte Adaptive Sync unterstützt.
Da kann man sich es auch sparen.
Naja AMD hat A-Sync getrieben und der VESA zur Verfügung gestellt.
Was genau hat AMD da an die VESA gegeben? Adaptive Sync war doch schon von der VESA in der eDP Spezifikation von 2009 vorgesehen (da primär zum Stromsparen in Mobile Devices).
Was hat AMD da genau geleistet?
Troyan
2019-10-14, 13:46:36
Naja AMD hat A-Sync getrieben und der VESA zur Verfügung gestellt. Und wie oben dargestellt, haben die Zertifikate beide für sich einen Mehrwert.
Und man hätte von Anfang an darauf pochen müssen, dass A-Sync der Name ist mit denen beworben werden sollte.
"Freesync", "Geforce compartible", "whatever" hat keine Bedeutung. Die Monitorhersteller sind frei, ob Fantasiename a) oder b) genommen wird.
robbitop
2019-10-14, 13:56:27
Tatsächliche QS/Tests zum Beispiel.
https://youtu.be/Um0PFoB-Ls4
Eine Zertifizierung ist keine Qualitätssicherung. Eine Zertifizierung bedeutet das Abprüfen von Anforderungen.
Diese kann jedoch auch gewisse Qualitätsmerkmale enthalten. Da die Stichprobengröße im Vergleich zum Serienausstoß sehr eingeschränkt ist, können das sicher eher konstruktive Aspekte als sein als welche die aus der Produktion stammen (Toleranzen von einer Maschine zB).
Da die Anforderungen für Freesync und G-Sync compatible nicht offen vorliegen, ist das schlecht zu bewerten.
Die Anforderungen für Freesync 1.0 waren jedoch kaum höher als der offene Standard.
FS2 und G-Sync compatible hingegen erhöhen die Anforderungen in durchaus sinnvollen Bereichen. Helligkeit, VRR Range, LFC und sicher eine ganze Reihe Tests zur Implementierung.
Qualitätsprüfungen der Produkte in der Produktion (Fertigungsprotokolle, Q-Karten, Warenausgangskontrollen etc) sind aber Sache der Hersteller und nicht die eines Zertifikates.
Die Frage ist, was der Kunde von einer zusätzlichen, proprietären "Zertifizierung" hat, wenn es schlicht nichts weiter prüft, als dass das Geräte Adaptive Sync unterstützt.
Da kann man sich es auch sparen.
Es wird wesentlich mehr abgeprüft, als dass der Monitor AS gemäß VESA unterstützt. VRR Range, LFC, Helligkeit und auch das Verhalten bei LFC etc, damit die Produkterfahrung möglichst gut ist. Gibt ja auch etliche Geräte, die die Zertifizierung nicht schaffen, weil kein LFC oder LFC ziemlich wonky funktioniert.
Die Idee dahinter ist, dass der Kunde der ein Monitor mit VRR kauft, mittels Siegel sicher sein kann, dass die Erfahrung (im aktuellsten Falle spezifisch für HDR, VRR Range) auf einem gewissen Mindestmaß ist.
Theoretisch braucht es die Zertifizierung nicht. Der Monitor kann auch ohne Zertifizierung all diese Dinge. Ggf. sogar besser als die Minimum Requirements. Aber da es hunderte Modelle gibt, kann sich der Kunde dort nicht sicher sein.
Die Zertifikate machen es wesentlich einfacher: willst du eine sehr gute VRR Erfahrung (hohe VRR Ranges, sinnvolles HDR etc) kaufe einen Monitor der G-Sync compatible oder Freesync 2 HDR zertifiziert ist.
Besser geht natürlich immer.
Das erleichtert es dem Endkunden. Ist optional - aber die Hersteller scheinen es sinnvoll zu finden - sonst würden sie den Aufwand der Zertifzierung nicht einzugehen. Scheint ja auch werbewirksam zu sein.
Eines von beiden Zertifikaten ab einem gewissen Punkt nicht mehr zu bewerben, obwohl sämtliche Aufwände bereits getätigt sind, erscheint nicht sinnvoll. -> Einschränkung des Interessentenkreises. Ohne irgendwelche erkennbaren Vorteile.
Wenn das bei der Mehrheit der Modelle unabhängig vom Vendor geschieht, ist das zumindest auffällig.
robbitop
2019-10-14, 13:57:44
Und man hätte von Anfang an darauf pochen müssen, dass A-Sync der Name ist mit denen beworben werden sollte.
"Freesync", "Geforce compartible", "whatever" hat keine Bedeutung. Die Monitorhersteller sind frei, ob Fantasiename a) oder b) genommen wird.
Ich glaube es hapert bei vielen noch etwas am Verständnis, was die einzelnen Zertifikate bedeuten. Ich habe es im letzten Post erläutert. Kurz: G-Sync compatible und Freesync 2HDR sind mehr als nur A-Sync. :)
Bucklew
2019-10-14, 14:02:23
Eine Zertifizierung ist keine Qualitätssicherung. Eine Zertifizierung bedeutet das Abprüfen von Anforderungen.
Natürlich kann eine Zertifizierung auch eine QS beinhalten, sollte es sogar im Minimum. Niemand hat was davon, wenn 1-2 Laborgeräte die Anforderungen einhalten und das Produktionsprodukt nicht.
Die Anforderungen für Freesync 1.0 waren jedoch kaum höher als der offene Standard.
Was die Zertifizierung eben extrem sinnlos macht.
Aber hier im Forum wurde ja ständig wiederholt, wie ja FreeSync 1.0 und G-Sync komplett vergleichbar wären ;D
FS2 und G-Sync compatible hingegen erhöhen die Anforderungen in durchaus sinnvollen Bereichen. Helligkeit, VRR Range, LFC und sicher eine ganze Reihe Tests zur Implementierung.
Bei G-Sync gebe ich dir Recht, auch, weil eben nicht jeder Monitor das Label erhält. Bei FreeSync kann ich es nicht ganz glauben, weil einfach jeder Monitor das Label erhält.
Prüft AMD tatsächlich jeden Monitor mit FreeSync Logo selbst nach oder ist das eine reine Selbst-Zertifizierung des Herstellers ala 737 MAX?
Die Idee dahinter ist, dass der Kunde der ein Monitor mit VRR kauft, mittels Siegel sicher sein kann, dass die Erfahrung (im aktuellsten Falle spezifisch für HDR, VRR Range) auf einem gewissen Mindestmaß ist.
Dachte man bei FreeSync1 auch. Und was wars? Nix....
robbitop
2019-10-14, 14:10:40
Bezüglich Freesync möchte ich auf den Post vor 1x Seite hinweisen:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12116966&postcount=7194
Kurz: Freesync 1.0 ist sehr beschränkt. Das ist aber eben "historisch bedingt". Freesync 1.0 ist mittlerweile eher Richtung: Low Cost - bzw hat heute IMO kaum noch eine Bedeutung des Mehrwerts.
2014/15 bedeutete Freesync eben Pionierarbeit - es war ja vor A-Sync da und bildete dessen Grundlage.
Um diesen Mehrwert zu schaffen gibt es Freesync 2 HDR. Das ist mMn relativ vergleichbar mit G-Sync compatible.
Natürlich kann eine Zertifizierung auch eine QS beinhalten, sollte es sogar im Minimum. Niemand hat was davon, wenn 1-2 Laborgeräte die Anforderungen einhalten und das Produktionsprodukt nicht.
Kann - aber nicht muss. Zertifizierungen sind sehr häufig auf die (mechanische/elektrische) Konstruktion fokussiert. Ich vermute, dass hier in der Hauptsache eher elektrische Schnittstellen geprüft werden.
Wenn man auch noch ein Audit der Produktionsstätte und eine Abprüfung des Endproduktes abbilden wollte, würden es den Rahmen der Zertifizierung sprengen. Immerhin werden hunderte Modelle geprüft. Dafür muss man eben Kriterien eingrenzen.
Troyan
2019-10-14, 15:00:49
Ich glaube es hapert bei vielen noch etwas am Verständnis, was die einzelnen Zertifikate bedeuten. Ich habe es im letzten Post erläutert. Kurz: G-Sync compatible und Freesync 2HDR sind mehr als nur A-Sync. :)
Und deswegen reicht "G-Sync compatible" neben A-Sync auch aus.
"Freesync" war und ist nicht die offizielle Bezeichnung. Sich nun darüber aufzuregen, dass eine propritäre Bezeichnung verschwindet, ist schon abstrus.
aufkrawall
2019-10-14, 15:12:23
Kurz: Freesync 1.0 ist sehr beschränkt.
Es funktioniert mit 144Hz IPS/TN genau so gut oder schlecht wie Gsync via Modul, das es fast nur für solche Geräte gibt. Was ist daran beschränkt?
Lehdro
2019-10-14, 15:14:10
"Freesync" war und ist nicht die offizielle Bezeichnung. Sich nun darüber aufzuregen, dass eine propritäre Bezeichnung verschwindet, ist schon abstrus.
Freesync ist in jedweder Form mehr als A-sync. Wie oft noch?
Unicous
2019-10-14, 15:18:10
@Bucklew
Bist du wirklich nicht in der Lage mal bei Google "G-Sync" Flickering einzugeben?:confused:
Ist das wirklich zu viel verlangt? ( Bei Bedarf kann man auch für einzelne Seiten filtern, lass mich dir helfen: site:nvidia.com und dann das entsprechende Suchwort :wink:)
Und nein, eine Zertifizierung ist keine Qualitätssicherung, wie kommst denn darauf?;D
Zu dem Namensblödsinn. Ich sage seit mittlerweile vielen Jahren, dass Adaptive Sync genutzt werden sollte, aber das tangiert weder AMD und schon gar nicht Nvidia. Siehe die unzähligen Laptops mit G-Sync die nichts anderes nutzen als Adaptive Sync und das mittlerweile seit vielen Jahren. Zertifizierung und Qualitätssicherung my ass.:rolleyes:
Bucklew
2019-10-14, 15:21:56
Bist du wirklich nicht in der Lage mal bei Google "G-Sync" Flickering einzugeben?
Was soll das Belegen?
Du kannst heute jeder "Problem" mit einer Googlesuche belegen, selbst wenn es ein reiner Einzelfall ist, weil jemand zu Blöd ist den Treiber zu installieren.
Und nein, eine Zertifizierung ist keine Qualitätssicherung, wie kommst denn darauf?
Wenn man sich anschaut was NVIDIA da für G-Sync treibt, ist das auch sehr stark QS und nicht nur einfach "Ah, Specliste passt, fertig".
Offensichtlich ist das auch notwendig.
Birdman
2019-10-14, 15:31:03
Vielleicht, aber auch nur vielleicht, liegt es nicht immer an den Monitoren sondern an Nvidias Implementierung, nur mal so als Denkanstoß.:uponder:
Die Implementierung in Bezug auf auf LFC ist auf jedenfall nicht (bei jedem Monitor) identisch. Da setzt das Frame-Doubling bei AMD und Nvidia mitunter bei einer andern Frequenz ein.
Unicous
2019-10-14, 15:45:56
@Bucklew
Also ist das Flicker-Problem demzufolge nur ein Treiberproblem aber beweisen kannst du es nicht?:uponder:
Und nein, es ist ein schnöder Zertifizierungsprozess.
Oder behauptest du, dass Nvidia jeden einzelnen Monitor auf Funktion und Qualität überprüft?:eek:
Bei FreeSync wird der Monitor genau wie bei G-Sync auf Funktion getestet. Dass die Zertifizierung bei G-Sync Monitoren noch darüber hinaus geht liegt in der Tatsache begründet, dass für die Monitore spezielle Panels gesourced werden müssen die die "Übertaktungen" von Nvidia aushalten. Dass es auch bei Adaptive Sync/FreeSync möglich ist die "magische 30Hz-Barriere zu halten" zeigten als erstes die Nixeus Monitore (und später andere Hersteller, zudem ist klar, das längst nicht alle G-Sync Monitore 30Hz beherrschen). Aber hier mussten auch Panels gesourced werden, die Scaler angepasst, die firmware programmiert werden.
Das ist den Herstellern zu viel Arbeit, deswegen werden zum Großteil Schrott-Panels aus der Massenproduktion genutzt und FreeSync bzw. Adaptive Sync war ihnen offensichtlich lange Zeit nicht so wichtig, weil AMD einen deutlich kleineren Marktanteil hat. Die Motivation bessere Monitore herzustellen dürfte sich mit Nvidias und Intels Support deutlich erhöhen, zumal die Hersteller sicherlich auch nicht so großen Bock haben den G-Sync Fee zu zahlen. Da Nvidia die "G-Sync Compatible" Zertifizierung wie AMD in Eigenleistung und -inititive zu machen scheint halte ich es für möglich, dass die Hersteller auf lange Sicht weniger "G-Sync"-Monitore entwickeln werden.
Diese dämliche Situation hätte man von Anfang an vermeiden können, wenn Nvidia mit VESA (und HDMI) zusammengearbeitet hätte.:rolleyes:
Troyan
2019-10-14, 15:46:02
Freesync ist in jedweder Form mehr als A-sync. Wie oft noch?
Wie soll "Freesync" mehr sein, wenn es jegliche Implementierung von A-Sync darstellt?
"Freesync" ist ein simples Rebranding vom offiziellen Namen, um damit gegen nVidia schießen zu können. Da dies nun nicht mehr möglich ist, ist Freesync somit als Bezeichnung auch tot.
Unicous
2019-10-14, 15:48:12
Dieser Thread ist jetzt 5 Jahre alt und Troyan kämpft immer noch damit Falschinformationen zu verbreiten.:freak:
Troyan
2019-10-14, 15:49:33
Okay. Wo unterscheidet sich "Freesync" von "Adaptive-Sync". Das möchte ich jetzt mal wissen.
Bitte hier ausführlich darlegen, wann ein Monitor "Freesync" und wann er nur "A-Sync" ist.
Bucklew
2019-10-14, 15:53:44
Also ist das Flicker-Problem demzufolge nur ein Treiberproblem aber beweisen kannst du es nicht?
Du willst beweisen, dass es ein NVIDIA-Problem ist, also hau rein :up:
Und nein, es ist ein schnöder Zertifizierungsprozess.
Zertifzierungen können vieles enthalten, nicht nur das, was ihr da gerade ohne Ahnung von irgendwas, im Kopf habt :rolleyes:
Oder behauptest du, dass Nvidia jeden einzelnen Monitor auf Funktion und Qualität überprüft?
Nein, im Gegensatz zu dir behaupte ich keinen Bullshit.
Bei FreeSync wird der Monitor genau wie bei G-Sync auf Funktion getestet.
Ich hätte überhaupt gern mal einen Beleg dafür, dass AMD irgendwas in Sachen Test macht und das nicht komplett an die Hersteller gibt. Gibt ja massiv Probleme mit FreeSync-Monitoren, die auch an AMD-Karten auftreten. Soviel zum Thema NVIDIAs Implementierung und so :tongue:
Diese dämliche Situation hätte man von Anfang an vermeiden können, wenn Nvidia mit VESA (und HDMI) zusammengearbeitet hätte.
Hätte auch vermieden werden können, wenn AMD nicht irgendwelches Rebranding von bekannten Technologien verhindert.
aufkrawall
2019-10-14, 16:13:58
Okay. Wo unterscheidet sich "Freesync" von "Adaptive-Sync". Das möchte ich jetzt mal wissen.
Bitte hier ausführlich darlegen, wann ein Monitor "Freesync" und wann er nur "A-Sync" ist.
Vesa-VRR kennt keine LFC, das ist ein Bonus des Grafiktreibers.
Troyan und Bucklew
Könntet ihr bitte aufhören den Tread mit eurem Halbwissen zu überlagern !?
Manche die euch nicht kennen könnten euch zum Schluss ja auch noch erst nehmen :eek:
Danke.
Bezüglich der Werbung, das fällt natürlich auf ...
Ka ob es Absicht ist oder Zufall ...
(nach NV´s ruf ...)
M.f.G. JVC
Bucklew
2019-10-14, 16:16:51
Vesa-VRR kennt keine LFC, das ist ein Bonus des Grafiktreibers.
FreeSync-Monitore haben nicht zwangsläufig LFC.
Also hat FreeSync hier auch keinen Vorteil ggü Adaptive Sync.
robbitop
2019-10-14, 16:20:55
Und deswegen reicht "G-Sync compatible" neben A-Sync auch aus.
"Freesync" war und ist nicht die offizielle Bezeichnung. Sich nun darüber aufzuregen, dass eine propritäre Bezeichnung verschwindet, ist schon abstrus.
Du liest Postings offenbar leider nicht im Detail. Niemand sagt, dass Freesync die offizielle Bezeichnung von A Sync war.
Es handelt sich um eine Zertifizierung völlig analog zu G-Sync compatible.
Es funktioniert mit 144Hz IPS/TN genau so gut oder schlecht wie Gsync via Modul, das es fast nur für solche Geräte gibt. Was ist daran beschränkt?
Sofern kein LFC unterstützt wird (das ist keine Voraussetzung für FS 1.0), ist die untere Schwelle eingeschränkt. Mit TNs funktioniert es aber tatsächlich relativ gut.
Mit IPS/VAs gab es da schon relativ eingeschränkte VRR Ranges in 2014/15 und z.T. 2016.
FreeSync-Monitore haben nicht zwangsläufig LFC.
Also hat FreeSync hier auch keinen Vorteil ggü Adaptive Sync.
Die aktuellste Version von FreeSync - nämlich FreeSync 2 HDR - hat das schon. Freesync 1.0 hat IMO keinen Vorteil ggü Adaptive Sync - Freesync 1.0 kam wie gesagt vor dem VESA Standard und bildete die Grundlage dessen. FS 1.0 war so zu sagen Pionierarbeit. Heute wäre es in der Tat (bitte korrigieren wenn falsch) ohne zusätzlichen Nutzen ggü dem VESA Standard.
-------------
Ich finde beide Zertifikate nett. Man kann IMO ruhigen Gewissens einen Monitor mit FS2 HDR/ G-Sync compatible kaufen und weiß, dass LFC gut unterstützt wird und HDR (in dem Rahmen was heutige LCDs so ohne FALD schaffen) implementiert ist. Im Endeffekt hat man eine relativ sorgenfreie VRR Erfahrung damit. Werbewirksam ist so ein Zertifikat sicherlich auch.
aufkrawall
2019-10-14, 16:27:05
FreeSync-Monitore haben nicht zwangsläufig LFC.
Also hat FreeSync hier auch keinen Vorteil ggü Adaptive Sync.
Mimimi, dann ist das bei Monitoren ohne LFC halt so. Who gives a shit?
Und trotzdem ist das Gsync-Logo wertloser Marketing-Schwachsinn. Da kann man sich auch einfach gleich an den Produkteigenschaften 144Hz und TN/IPS orientieren...
robbitop
2019-10-14, 16:31:53
Mimimi, dann ist das bei Monitoren ohne LFC halt so. Who gives a shit?
Und trotzdem ist das Gsync-Logo wertloser Marketing-Schwachsinn. Da kann man sich auch einfach gleich an den Produkteigenschaften 144Hz und TN/IPS orientieren...
Für uns 3DCler kein Problem. Filter bei Geizhals: untere VRR Grenze, max Refreshrate, LFC einstellen: fertig.
Für einen Großteil der Endkunden ist das IMO anders. Die wissen häufig nicht im Detail worauf es ankommt. Der Massenmarkt besteht nunmal aus der Masse. :)
Unicous
2019-10-14, 16:34:52
Mit TNs funktioniert es aber tatsächlich relativ gut.
Mit IPS/VAs gab es da schon relativ eingeschränkte VRR Ranges in 2014/15 und z.T. 2016.
Was an den Panels und der Elektronik liegt.:rolleyes:
Anhaltspunkte zum Zertifizierungsprozess bei FreeSync hat "Peter Nixeus" über die Jahre unter anderem bei overclock.net gestreut. Ich habe keinen Bock jeden einzelnen Post (hier und dort) zu durchforsten, also wer sich wirklich informieren möchte anstatt Behauptungen aufzustellen dem möge diese Anlaufstelle nuzten.:up:
Und trotzdem ist das Gsync-Logo wertloser Marketing-Schwachsinn. Da kann man sich auch einfach gleich an den Produkteigenschaften 144Hz und TN/IPS orientieren...
Stimmt.
Bevor ich was kaufe interessieren mich doch als erstes die technischen Daten zu dem Gerät.
Aber die die Damit überfordert sind und es nicht zugeben wollen sprechen auf So etwas an :wink:
Daher korrekt, "Marketing-Schwachsinn".
M.f.G. JVC
Lehdro
2019-10-14, 16:54:35
Okay. Wo unterscheidet sich "Freesync" von "Adaptive-Sync". Das möchte ich jetzt mal wissen.
Das Freesync Logo garantiert dir das der Monitor mit Freesync fähigen Grafikkarten zur Nutzung der Freesyncfähigkeit zusammenarbeitet. Deswegen ist es ja eine Zertifizierung, duh.
Adaptive Sync garantiert dir erst einmal gar nichts zwecks der Gegenseite des Monitors. Nur das der Monitor das halt kann, genau wie in der Spezifikation festgelegt.
Ist jetzt nicht so schwer zu verstehen. Das sich das meist krass überschneidet ist hier sicherlich jedem bewusst, aber nichts anderes macht G-sync compatible, nur halt mit anderen Regeln. Aber generell sollten die meisten Freesync 2.0 Monitore auch G-sync compatible sein...
Troyan
2019-10-14, 16:55:34
Du liest Postings offenbar leider nicht im Detail. Niemand sagt, dass Freesync die offizielle Bezeichnung von A Sync war.
Es handelt sich um eine Zertifizierung völlig analog zu G-Sync compatible.
Hier beschweren sich Leute, dass die Bezeichnung "Freesync" verschwindet. Freesync ist keine "Zertifizierung". Das sollte doch langsam jeder verstanden haben. Es ist eine reine Umbenennung der offiziellen Bezeichnung von VESA.
Es gibt keine qualitativen Standards für "Freesync". Daher ist Freesync und A-Sync ein und das selbe. Und damit ist "Freesync" heute auch wertlos und damit bedeutungslos geworden.
Das Freesync Logo garantiert dir das der Monitor mit Freesync fähigen Grafikkarten zur Nutzung der Freesyncfähigkeit zusammenarbeitet. Deswegen ist es ja eine Zertifizierung, duh.
Adaptive Sync garantiert dir erst einmal gar nichts zwecks der Gegenseite des Monitors. Nur das der Monitor das halt kann, genau wie in der Spezifikation festgelegt.
Äh, "Adaptive Sync" ist der Standard definiert von VESA. Das "Freesync"-Logo auf einem PC-Monitor mit DP bedeutet nichts, da die Technik dahinter von VESA definiert wurde. Anders sieht es auch mit Freesync über HDMI, wo bis heute nicht klar ist, ob AMD den Standard von HDMI unterstützt.
robbitop
2019-10-14, 17:00:03
Was an den Panels und der Elektronik liegt.:rolleyes:
So ist es. LFC und entsprechendes Tuning der HW hat hier zu heutigen Resultaten geführt.
Anhaltspunkte zum Zertifizierungsprozess bei FreeSync hat "Peter Nixeus" über die Jahre unter anderem bei overclock.net gestreut. Ich habe keinen Bock jeden einzelnen Post (hier und dort) zu durchforsten, also wer sich wirklich informieren möchte anstatt Behauptungen aufzustellen dem möge diese Anlaufstelle nuzten.:up:
Das klingt wirklich gut. Hast du einen Link? Falls du keinen raussuchen magst (IMO legitim), erwartet aber auch niemand von dir jeden einzelnen Post hier zu lesen oder durchzugehen. :)
Hier beschweren sich Leute, dass die Bezeichnung "Freesync" verschwindet. Freesync ist keine "Zertifizierung". Das sollte doch langsam jeder verstanden haben. Es ist eine reine Umbenennung der offiziellen Bezeichnung von VESA.
Es gibt keine qualitativen Standards für "Freesync". Daher ist Freesync und A-Sync ein und das selbe. Und damit ist "Freesync" heute auch wertlos und damit bedeutungslos geworden.
Du beziehst dich auf FS 1.0? Dann würde ich das in Bezug auf den Nutzwert ähnlich sehen. Aber wie gesagt ist das seit einer ganzen Weile nicht der aktuelle Stand. FS 2 HDR ist der aktuelle Stand. Und das ist durchaus das Pendant zu G-Sync compatible. Dort sieht die Sache also wieder völlig anders aus.
edit: siehe Zitat von Nixeus
https://www.overclock.net/forum/225-hardware-news/1570248-tech-report-intel-plans-support-vesa-adaptive-sync-displays-freesync-14.html#post24335472
Aber generell sollten die meisten Freesync 2.0 Monitore auch G-sync compatible sein...
https://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/Erste-LG-Fernseher-mit-Support-fuer-Nvidia-G-Sync-Compatible-vorgestellt-1332166/
"Nvidia stellt auf seiner Website klar, dass sich G-Sync Compatible grundsätzlich bei jedem Fernseher aktivieren lässt, der die dynamische Bildwiederholrate per HDMI unterstützt. Das ist grundsätzlich bei jedem Modell mit HDMI 2.1 der Fall, weil die Spezifikation VRR (variable refresh rate) und damit Freesync beinhaltet."
Nächstes Jahr kommt HDMI 2.1 in Verbindung mit DP2.0 auch bei den Monitoren.
Dann ist VRR Standard und das Thema hoffentlich gegessen ^^
M.f.G. JVC
Unicous
2019-10-14, 17:03:39
Warum lügst du Troyan? Deine Beiträge lassen sich allein in diesem Thread auf 2015 zurückführen, warum also lügst du?:confused:
I can confirm on our end it was not minor. Costs would be low if we did something as simple as just installing the Adaptive-Sync/FreeSync firmware onto existing monitor scalars, using existing PCBs, and just shipped it as an "Adaptive-Sync" monitor that works with FreeSync.
Also in Q2/Q3 AMD added a new set of requirements for FreeSync Certification that we had adhere to - it is not just a branding thing.
However, we worked with AMD to fix the issues that AMD recommended us to fix to get FreeSync certified. We also worked on improving and stabilizing the Adaptive-Sync Range of 30Hz to 144Hz that required modifications to particular things.
We could've just shipped it as an "Adaptive-Sync" monitor and called it a day, but we did much more to get AMD FreeSync Certified and also improved the stability of the range.
https://www.overclock.net/forum/225-hardware-news/1570248-tech-report-intel-plans-support-vesa-adaptive-sync-displays-freesync-14.html#post24335472
The reason why we never updated it is because it would require AMD FreeSync re-certification for any new firmware changes because it may cause something else to behave differently = may prolong the approval of the changes = delays during mass production.
https://www.overclock.net/forum/44-monitors-displays/1627631-nixeus-edg-27-ips-144hz-freesync-gaming-monitor-40.html#post27619036
robbitop
2019-10-14, 17:09:01
Also in Q2/Q3 AMD added a new set of requirements for FreeSync Certification that we had adhere to - it is not just a branding thing.
However, we worked with AMD to fix the issues that AMD recommended us to fix to get FreeSync certified. We also worked on improving and stabilizing the Adaptive-Sync Range of 30Hz to 144Hz that required modifications to particular things.
https://www.overclock.net/forum/225-hardware-news/1570248-tech-report-intel-plans-support-vesa-adaptive-sync-displays-freesync-14.html#post24335472
Du beziehst dich auf FS 1.0? Dann würde ich das in Bezug auf den Nutzwert ähnlich sehen.
Dann scheint das selbst bei FS 1.0 strenger zu sein als ich dachte. Entsprechenden Mehrwert hätte das Zertifikat also schon ggü A-Sync. Demzufolge nehme ich obige Aussage zurück.
Danke für den Beitrag bzw. den Aufwand die Quotes, Unicious! :up: Nixeus sollte schon eine sehr renomierte Quelle sein.
Unicous
2019-10-14, 17:12:16
I think when AMD was talking about open standard they were referring to the Adaptive-Sync standard they are using for their FreeSync environment - which they did take to VESA and had it incorporated in their DisplayPort standard.
What I am trying to clarify is their Certification process, is a set of tests they run for their AMD FreeSync Certification. I can't reveal what those tests are because that is AMD's thing. Once the monitor passes all those tests (and they have added additional tests these past few months), then they are AMD FreeSync Certified and allowed to use the AMD FreeSync branding.
We are also free to make Adaptive-Sync monitors without having to go through the AMD FreeSync Certification. Including monitors that fail the FreeSync certification, but will still work with FreeSync.
https://www.overclock.net/forum/225-hardware-news/1570248-tech-report-intel-plans-support-vesa-adaptive-sync-displays-freesync-16.html#post24336186
(Da ich bei overclock.net keinen Account habe, ist es ein wenig nervig die Posts herauszusuchen, das sind Aussagen zumeist aus dem Jahr 2015 kurz nach Veröffentlichung der Spec, einen Teil hatte ich hier im Forum und in diesem Thread auch schon verlinkt, aber traurigerweise scheinen das Viele wieder vergessen zu haben. Über die Jahre hat er auf jeden Fall noch mehr Hinweise fallen lassen, auch in anderen Foren, z.B. reddit.)
I do know that FreeSync was updated shortly after the "over drive issue" in 2015 to require a monitor to have Over Drive working with FreeSync.
https://old.reddit.com/r/Monitors/comments/c0kiou/freesync_2_certification_should_require_adaptive/er5zhiv/
If you wanna talk about standards, maybe check this out
https://youtu.be/Um0PFoB-Ls4
I don’t think AMD does anything close to this for freesync monitors
I can confirm we do.
https://old.reddit.com/r/Amd/comments/bxb8la/the_monitor_market_is_a_mess_amd_intel_and_nvidia/eq87ttz/
robbitop
2019-10-14, 17:29:26
Da kommt doch eine ganze Menge Licht in's Dunkle bezüglich der Zertifizierung. :)
Unicous
2019-10-14, 17:31:00
Wie gesagt, Vieles hatte ich über die Jahre hier schon verlinkt. ;)
For clarification, AMD did not charge us anything to implement that feature in our monitor or our future monitors - to develop any monitor there are costs involved, not just FreeSync/Adaptive-Sync monitors. The validation periods are also long - I had to validate every one of our existing monitor models for 6 months are longer.
I wish they just magically appeared working perfectly all the time.
https://www.overclock.net/forum/225-hardware-news/1570248-tech-report-intel-plans-support-vesa-adaptive-sync-displays-freesync-17.html#post24336291
Again - it depends how the monitor vendor wants to do it. We could have just installed the Adaptive-Sync firmware and called it a day - but we did not choose that route. We chose to improve on it or refine it. You can see that other monitor vendors added in other features and things. For clarification an Adaptive-Sync/FreeSync monitor is a "new model type" of a monitor which you still have to invest time, R&D, etc to develop, which has almost similar costs to develop any other new monitor model. Monitors don't just pop out and magically appear as consumer ready.
https://www.overclock.net/forum/225-hardware-news/1570248-tech-report-intel-plans-support-vesa-adaptive-sync-displays-freesync-17.html#post24336479
It may be the limitation of the scalar or the PCB that the scalar sits on that allows for a specific "stable range."
Messing and hacking the ranges may have some repercussions later on if the PCB/Scalar cannot support it - I fried/killed a few PCBs when trying to get the ranges to be stable for 30Hz to 144Hz until I we developed the final shipping revision. It took awhile before the issues showed up - and there was no reversing or fixing those issues because I killed the PCBs and scalars.
For example if we shipped our NX-VUE24 monitors back in November 2014, the stable range would have been 40Hz to 110Hz/120Hz. It took us an additional 6 months and several PCB revisions, aging process, and validation tests to get to today's 30hz to 144Hz.
https://www.overclock.net/forum/44-monitors-displays/1574877-guru3d-owners-freesync-monitors-can-enlarge-hz-range-simple-hack-8.html#post24670717
It is hard to determine because every scalar, PCB, TCON, and panel is different - it is all those parts that factor into what is the stable range and not just one component.
The hack that people are talking about in this thread - I actually have a toolkit that sets the range instantly and can turn it back instantly when I encounter issues. I have one regular monitor that allows me to monitor and tweak things on desktop while playing with the other "Adaptive-Sync" monitor's range. I recommend that if anyone is messing with any monitor hack, to have a second monitor connected to turn things back quickly if the "hacked" monitor encounter issues.
I can only comment on what I have been working with on our own products. Moving the range makes no difference in our scenario - it is when exceeding the top end or the bottom end that I saw weird things happening after awhile. Moving back to the original stable range MOST of the time the issues go away, but there was at least 3 instances that some of the issues did not go away. For example in one testing phase when I tried to move the range too high - the monitor would work fine, until I turned on Adaptive-Sync. After running the monitor for awhile for validation artifacts then start to appear.
I can honestly say the amount of R&D, revisions and validation periods we did - we essentially created our very own "Adaptive-Sync/FreeSync module" because the shipping firmware and PCB is very different than the reference ones I played with in the very beginning.
Some scalar silicon and TCONs are not able to support it. But from my knowledge, there are scalar silicons and TCONs in monitors that have been shipping for at least the past 4 years that have the ability to do Adaptive-Sync. Features and the range may be limited - they may or may not also pass FreeSync Certification. Please keep in mind Adaptive-Sync monitors can still work with AMD FreeSync cards/drivers even if they are not FreeSync certified.
So for FreeSync monitors that dont come close to 30-144Hz or 30-60Hz all due to Monitor manufactures cheaping out and not bothering?
I think it has more to do with what all of the monitor's components can do - scalar, PCB, TCON, firmware and panel.
AMD left it up to the monitor vendors to determine how to configure their Adaptive-Sync monitors. AMD then tests and certifies the monitors for their "FreeSync" environment.
https://www.overclock.net/forum/44-monitors-displays/1574877-guru3d-owners-freesync-monitors-can-enlarge-hz-range-simple-hack-8.html#post24672919
Unicous
2019-10-14, 17:54:26
Eine weitere, wenn auch nur oberflächliche Erläuterung zum Zertifizierungsprozess:
For clarification:
The certification process are not specs and not numbers - but a series of tests to make sure it works well with AMD's "FreeSync" environment. This "Certification or validation testing" is AMD's own method and not for public disclosure. Adaptive-Sync is an open standard, and FreeSync is AMD's execution and application of that open standard. We make Adaptive-Sync monitors, I test it with AMD's FreeSync Certification tests - to make sure it passes, then the monitors are sent to AMD for verification and Certification testing, too. If it does not pass, then I either fix what needs to be fixed to pass or weigh the risks (if there are any issues or not) to ship the monitor as an Adaptive-Sync only monitor.
There are going to be a lot of Adaptive-Sync monitors coming out - some may be AMD FreeSync certified and some may not. Some Adaptive-Sync monitors may work perfectly fine in AMD's FreeSync environment and some may not (or some end users may never experience the issues if there are any).
Every monitor manufacturer has their own validation tests to make sure their monitors work well with all available hardware/vendor drivers before shipping them. I'm not going to disclose to the public what my own tests are - but I can assure you, before our monitors ship, I find problems that occur in Nvidia, AMD, Intel, and Apple hardware. If the problems can be fixed on our monitor end, then we do it. But some time these issues are from the hardware (Nvidia, AMD, Intel, and Apple) and it is up to them to implement a solution to the issues if there are none yet.
I'm not sure why you want to know what these tests are - no manufacturer or even hardware/software company is going to give you their validation tests or make it public.
https://www.overclock.net/forum/44-monitors-displays/1575826-did-gsync-freesync-thing-cause-war-2.html#post24478575
Alter Tobak, denn auch dieser Post ist von 2015. ;)
For example during the development of our NX-VUE24, I fried several PCBs when testing ranges but did not damage the panel (I swapped the panel and installed it in another retail monitor to confirm this). Some engineering samples of the NX-VUE24 can go as long as 24Hz - but we set it at 30Hz due to variations of panel yields and just to be safe for stability. Some of these issues did not appear till days, weeks or even months later - by that time the damage was irreversiable to the scalar/pcb, but the panel was still fine.
The factory shipping FreeSync/G-Sync ranges are generally the "safe" ranges and should give the monitor a long life - we ensure this by running aging tests to make sure. It is true you can get better ranges with the custom stuff people are doing in this thread - but once you encounter something during modifications switch back right away. But if you were running that custom setting for awhile then an issue appears it may most likely the PCB. I know we can tell if it has been modified - not sure if monitor vendors will check for it.
https://www.overclock.net/forum/44-monitors-displays/1574877-guru3d-owners-freesync-monitors-can-enlarge-hz-range-simple-hack-11.html#post25727139
The Adaptive-Sync and FreeSync specification is widely published. The AMD FreeSync Certification testing methods are just AMD's version of monitor validation (like we have our own version of monitor testing/validation) they test it to make sure it works well with their FreeSync environment and Radeon Cards. I have to test our monitors to make sure it works well with Intel, AMD, Nvidia, Apple, SoC, and other hardware, etc....
I think by the time Intel enters the picture and support Adaptive-Sync they should have some experience since it is similar to display power saving features in laptops and AIO computers. Also Intel is part of VESA so they are not going into this blindly.
Nvidia is already using Adaptive-Sync (with no G-sync module) in their new G-Sync gaming laptops - but have their own driver/software to run it with their feature sets.
AMD has its own drivers/software to run Adaptive-Sync in laptops and monitors with their feature sets.
I'm pretty sure Intel may also have their own drivers/software to run Adaptive-Sync with their feature sets.
Each scalar partner have "reference" Adaptive-Sync firmwares - but ultimately it is up to the monitor vendors how they want to implement it or modify it for additional features or their preferences.
The nightmares you are talking about had nothing to do with AMD FreeSync - because I did not experience them during our development.
https://www.overclock.net/forum/44-monitors-displays/1575826-did-gsync-freesync-thing-cause-war-2.html#post24478857
From what I am hearing from "chatter" in the pipeline - I think there will be more FreeSync and Adaptive-Sync monitors coming out of all shape, sizes, and price ranges. I remember reading about a "big monitor" vendor originally was going to release just an Adaptive-Sync monitor but eventually got it FreeSync Certified.
I mentioned before that during one of AMD's Certification tests they detected a minor bug and recommended we fix it in order to get the final okay to be FreeSync Certified.
This bug which is caused by VRR due to the monitor parts we were using - may or may not be experienced by some end users or not even bother some people. We decided to fix it and got Certified.
If not, we may have to ship it as an Adaptive-Sync monitor.
https://www.overclock.net/forum/225-hardware-news/1570248-tech-report-intel-plans-support-vesa-adaptive-sync-displays-freesync-27.html#post24372591
Lehdro
2019-10-14, 18:53:09
Interessant, danke :up:
Also lagen die üblichen Verdächtigen wie erwartet erneut falsch.
VfBFan
2019-10-14, 18:55:46
Danke für die interessanten Infos.
Thema kann somit geschlossen werden. :biggrin:
Unicous
2019-10-14, 19:01:45
Interessant, danke :up:
Also lagen die üblichen Verdächtigen wie erwartet erneut falsch.
Als ob sie das tangieren würde.:rolleyes:
In zwei Tagen ist alles wieder vergessen, wie es in DIESEM Thread in Vergessenheit geraten ist. Und dann fängt es von Neuem an. Siehe die HDMI VRR Debatte.:ucrazy:
Troyan
2019-10-14, 19:10:59
Warum lügst du Troyan? Deine Beiträge lassen sich allein in diesem Thread auf 2015 zurückführen, warum also lügst du?:confused:
https://www.overclock.net/forum/225-hardware-news/1570248-tech-report-intel-plans-support-vesa-adaptive-sync-displays-freesync-14.html#post24335472
https://www.overclock.net/forum/44-monitors-displays/1627631-nixeus-edg-27-ips-144hz-freesync-gaming-monitor-40.html#post27619036
Cool, da wird immer der selbe Typ zitiert, der Monitore verkaufen will. Der hat bestimmt kein Grund zu lügen. ;D
Aber du kannst bestimmt die Aussagen von dem Typen mit offiziellen Aussagen von AMD belegen. U.A. bin ich interessiert an Range, LFC, Adaptive-Overdrive und Co.
Oh und da musste ich jetzt doch schmunzeln:
Each scalar partner have "reference" Adaptive-Sync firmwares - but ultimately it is up to the monitor vendors how they want to implement it or modify it for additional features or their preferences.
Na dann. Ich glaube, du hast nicht verstanden, dass das Optimieren von Monitoren für bessere A-Sync Unterstützung nichts mit der reinen Umbenennung einer offiziellen Bezeichnung von VESA zu tun hat. Wobei, dann wiederum muss nVidia ja gezaubert haben, dass die aus dem Nichts plötzlich alle Freesync-Monitore unterstützen. Hm. Magie?
Unicous
2019-10-14, 19:13:35
Q.E.D.. Hat nicht mal 10 Minuten gedauert.:freak:
Lehdro
2019-10-14, 19:17:32
Auch geil wie da Quellen und Zitate von Verantwortlichen mit einem: "Die können aber auch Lügen!" entkräftet werden sollen. Vielleicht nicht immer von sich selber auf andere projezieren @ Trollyan.
robbitop
2019-10-14, 19:28:38
Also ich halte es auch für weit hergeholt, dass er als Chefentwickler und Gründer der Firma Unwahrheiten verbreiten würde. Dazu sind die Inhalte viel zu spezifisch und für die wenigsten interessant und viel zu sachlich, als dass das Werbewirkung haben würde. Zumal er damit seine Glaubwürdigkeit auf's Spiel setzen würde.
Ich denke, dass die Quelle solide genug ist und mehr ist als bisher an Quellen in letzter Zeit hier gepostet worden ist. Die Inhalte sind auch schlüssig genug, um mMn nicht ernsthaft daran zweifeln zu müssen.
Klevapalis
2019-10-30, 09:43:48
Aus den Release Notes für den GeForce Treiber 441.08:
Added support for HDMI 2.1 VRR
Sardaukar.nsn
2019-10-31, 07:26:05
Das wäre schon eine große Sache.
Irgendwelche Infos für welche Karten das alles zutrifft?
Loeschzwerg
2019-10-31, 07:35:17
Auf das komplette Turing Lineup, also GTX 16xx und RTX.
Wurde zumindest in folgender News so genannt:
https://www.nvidia.com/en-us/geforce/news/lg-gsync-compatible-hdmi-big-screen-gaming/
Simultaneously, we’ll release a new GeForce Game Ready Driver, enabling GeForce RTX and GeForce GTX 16-Series gamers to connect their PCs via HDMI to validated G-SYNC Compatible LG TVs.
Loeschzwerg
2019-11-01, 16:21:30
Passend dazu die Ankündigung von LG entsprechend notwendige FW-Updates bis Ende des Jahres auszurollen: https://www.computerbase.de/2019-11/lg-oled-fernseher-g-sync-update/
nordic_pegasus
2019-11-02, 16:59:29
die nachfolgende Frage ist kein Versuch zu Trollen oder ein GSync/FreeSync Bashing zu starten...
Ich habe mir den Dell 55 OLED geholt und bin von dem Monitor wirklich begeistert. Offiziell unterstützt der Monitor nur FreeSync (kein FreeSync2, weil die Helligkeit für HDR zu gering ist). Die Sync-Range ist 40-120Hz. Ich habe eine Nvidia Turing Karte und den Monitor mit DisplayPort angeschlossen.
Soweit funktioniert FreeSync mit dem "GSync compatible" Haken im Nvidia Treiber. Allerdings bemerke ich in Spielen (in dunklen Szenen) ein Flackern, dass mit Deaktivieren von FreeSync verschwindet. Beispiele sind Shadow of the Tomb Raider (Ladebildschirm) oder die Menüs in Witcher 3. Wenn ich Google mit Freesync Flackern/flickering befrage, bekomme ich recht viele Treffer. Es erscheint mir, dass es ein bekanntes Problem auf zahlreichen FreeSync Monitoren ist. Leider habe ich derzeit keine AMD Karte um einen Kontrolltest zu machen.
Kann es der Monitor nicht besser oder ist hier Nvidia zu blöd? Mir geht das Flackern so stark auf den Zeiger, dass ich lieber ohne FreeSync spiele und dafür wie früher FastSync im Nvidia Treiber einschalte.
Ich habe mal eine Frage: G-Syncs Variable Overdrive soll doch overshooting (bright corona) verhindern.
Das gilt aber nur für den Fall, dass G-Sync an ist und das Panel unerhalb seiner Max-Hz arbeitet oder?
Also z.B. wenn man 144Hz G-Sync Display hat und "nur" 40-110fps. Dann hat man dank Variable Overdrive kein overshooting, da die Intensität des Overdrive bei weniger fps (=Hz) reduziert wird. Dementsprechend bringt das ganze auch keinen Vorteil, wenn man das Display G-Sync bei 144Hz betreibt, da ja dann ohnehin das schnellste Overdrive greifen muss.
Ich komme darauf, weil bei Reddit behauptet wurde, dass durch Variable Overdrive bestimmte Panels schneller würden.
myMind
2019-11-02, 17:44:58
Kann es der Monitor nicht besser oder ist hier Nvidia zu blöd?
Dell Alienware AW5520QF?
Findet sich hier nicht: https://www.nvidia.com/en-us/geforce/products/g-sync-monitors/specs/
D.h. du kannst G-Sync zwar aktivieren, aber es gibt keine Kompatibilitätszusage von nVidia.
Unicous
2019-11-02, 17:54:01
@nordic_pegasus
Warum suchst du nach FreeSync Flickering und nicht nach G-Sync Flickering?:confused:
G-Sync Monitore haben genauso wie FreeSync Monitore Flickering-Probleme. Manchmal ist es die firmware, manchmal ist der Treiber Schuld, oder es ist das Display an sich.
Da du nicht spezifiziert hast, welchen Monitor du meinst gehe ich davon aus, dass du den AW5520QF meinst?
Wenn ich für den Monitor explizit nach FreeSync Flickering suche bekomme ich keine relevanten Ergebnisse, also nehme ich an, du hast allgemein danach gesucht, was natürlich zu allerlei Meldungen führt.
Es gab in der Vergangenheit Berichte (besonders auch von Nvidia selbst als PR-Stunt), dass FreeSync Monitore Flickering verursachen. Dieses Flickering trat dann aber bei Radeon GPUs komischerweise nicht auf. Da Nvidia den Dell offenbar (noch?) nicht getestet hat und daher auch keine Anpassungen im Treiber gemacht hat, ist erst einmal davon auszugehen, dass Adaptive Sync hier nicht ordentlich mit einer G-Sync GPU funktioniert. Da ich keine Berichte zu FreeSync und dem Monitor finde gehe ich davon aus, dass der Monitor entweder normal arbeitet oder kaum jemand ihn mit FreeSync nutzt.
Btw. G-Sync hat und hatte immer schon Probleme mit Ladebildschirmen, wenn man nach loading screen g-sync flickering sucht gibt es einige Einträge, z.B. im Nvidia Forum.
Ganz zum Anfang lag es glaube ich daran, dass insbesondere bei Ladebildschirmen die fps entweder zu niedrig oder viel zu hoch waren und Nvidia hat dass dann per Treiber gefixed. Stellt sich die Frage ob Nvidia (und vermutlich auch AMD) das für jeden Bildschirm händisch machen muss.
nordic_pegasus
2019-11-02, 17:55:39
Dell Alienware AW5520QF?
Findet sich hier nicht: https://www.nvidia.com/en-us/geforce/products/g-sync-monitors/specs/
D.h. du kannst G-Sync zwar aktivieren, aber es gibt keine Kompatibilitätszusage von nVidia.
Produziert ein Monitor, der mit Nvidia GraKa ein Flackern produziert (ohne GSync compatible Zertifikat) auch mit einer AMD GraKa diese Probleme?
FreeSync ist doch ein Standard. Müsste das Resultat das gleiche sein, egal mit welcher GraKa ein Monitor angesteuert wird?
nordic_pegasus
2019-11-02, 18:03:16
@nordic_pegasus
Warum suchst du nach FreeSync Flickering und nicht nach G-Sync Flickering?:confused:
G-Sync Monitore haben genauso wie FreeSync Monitore Flickering-Probleme. Manchmal ist es die firmware, manchmal ist der Treiber Schuld, oder es ist das Display an sich.
Da du nicht spezifiziert hast, welchen Monitor du meinst gehe ich davon aus, dass du den AW5520QF meinst?
Wenn ich für den Monitor explizit nach FreeSync Flickering suche bekomme ich keine relevanten Ergebnisse, also nehme ich an, du hast allgemein danach gesucht, was natürlich zu allerlei Meldungen führt.
Es gab in der Vergangenheit Berichte (besonders auch von Nvidia selbst als PR-Stunt), dass FreeSync Monitore Flickering verursachen. Dieses Flickering trat dann aber bei Radeon GPUs komischerweise nicht auf. Da Nvidia den Dell offenbar (noch?) nicht getestet hat und daher auch keine Anpassungen im Treiber gemacht hat, ist erst einmal davon auszugehen, dass Adaptive Sync hier nicht ordentlich mit einer G-Sync GPU funktioniert. Da ich keine Berichte zu FreeSync und dem Monitor finde gehe ich davon aus, dass der Monitor entweder normal arbeitet oder kaum jemand ihn mit FreeSync nutzt.
Btw. G-Sync hat und hatte immer schon Probleme mit Ladebildschirmen, wenn man nach loading screen g-sync flickering sucht gibt es einige Einträge, z.B. im Nvidia Forum.
Ganz zum Anfang lag es glaube ich daran, dass insbesondere bei Ladebildschirmen die fps entweder zu niedrig oder viel zu hoch waren und Nvidia hat dass dann per Treiber gefixed. Stellt sich die Frage ob Nvidia (und vermutlich auch AMD) das für jeden Bildschirm händisch machen muss.
ja, es ist der AW5520QF. Der Monitor ist brandneu am Markt und wird wohl auf Grund des Preises kaum Absatz haben. Darum habe ich hier auch keinerlei Infos gefunden.
Darum habe ich allgemein nach FreeSync Flickering gesucht (ich habe nunmal einen FreeSync Monitor gekauft). Ob GSync auch solche Probleme macht, bringt mich nicht weiter, da ich keinen GSync Monitor habe.
Ich teste jeden neuen Nvidia Treiber in der Hoffnung, dass ein Fix kommt bzw. der Monitor in die Liste aufgenommen wird. Kann hier Dell mit einem Firmware-Update fixen?
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.