PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : G-/Free-/A-Sync: framesynchronisierter Displayrefresh per variablem vblank-Intervall


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 [27] 28 29 30

Savay
2018-08-13, 20:23:47
Wieso soll die Geschwindigkeit der GPU einen Einfluss auf den Input Lag haben, wenn durch den fps-Limiter Wartezyklen eingefügt werden? Es wird in einem festen Intervall nur alle xms ein Bild ausgegeben. Folglich gibt die schnellere GPU nicht schneller ein Bild aus, nur weil sie eher fertig wird.

Du meinst also die Limiter sind so clever und antizipieren die Renderzeit aufgrund unterschiedlicher Rechenleistung?! :wink: Das müsste dann ja sogar auf Frame-to-Frame basis passieren.

AFAIR sorgt ein Limitier eigentlich nur dafür das nach einem festen Intervall von x ms mit dem Rendern angefangen und das Frame dann so schnell aus wie möglich ausgegeben wird und nicht dafür das ein Frame in x ms fertig im Buffer vorliegen muss!

Gipsel
2018-08-13, 20:25:58
Oder ihr habt einen Denkfehler. :P
Erklärt es mir nochmal:
Wieso soll die Geschwindigkeit der GPU einen Einfluss auf den Input Lag haben, wenn durch den fps-Limiter Wartezyklen eingefügt werden?Die Wartezyklen werden vor Beginn des Renderings eingefügt, nicht vor der Frameausgabe (um den Input-Lag bei integrierten Framelimitern zu minimieren).
Und wenn ein System mit GTX1080 und eins mit RX570 exakt zeitgleich starten (wie bei in-Game-Framelimiter der Fall), welches System ist dann mit dem Frame früher fertig? ;)
Es wird in einem festen Intervall nur alle xms ein Bild ausgegeben. Folglich gibt die schnellere GPU nicht schneller ein Bild aus, nur weil sie eher fertig wird.Nein, es gibt ein Minimum-Intervall, was beim Start des Frames nicht unterschritten wird. Der Start wird eingetaktet, nicht die Ausgabe. Zumindest wenn man die Eingabelatenzen niedrig halten will. Genau deswegen gibt es ja auch in dem von Daredevil verlinkten Video Tearing bei FreeSync On/VSync off und Framelimiter auf 142fps. Fluktuationen in der Renderzeit pro Frame führen auch bei perfekt auf 142fps eingetaktetem Renderbeginn (alle 7ms) dazu, daß manchmal das Intervall der fertigen Frames unter 6,9ms (144Hz Maximalrefreshrate) sinkt, weswegen man das wohl besser mit Framelimiter auf 142fps und VSync on spielt (FreeSync natürlich auch an).

aufkrawall
2018-08-13, 20:29:25
Ich werd mich die Tage nochmal reindenken, gerade muss ich anderes Zeug zeitnah fertig bekommen.

hmmm
2018-08-13, 20:31:05
An dem Sachverhalt wird sich auch in Wochen nichts ändern. ;)

aufkrawall
2018-08-13, 20:33:41
Es bleibt trotzdem weltfremdes Theoretisieren, das in der Empirie keine Rolle spielt.

Gipsel
2018-08-13, 20:37:38
Es bleibt trotzdem weltfremdes Theoretisieren, das in der Empirie keine Rolle spielt.Ich denke die Spielehersteller haben auch empirisch herausgefunden, wie man am besten die Eingabelatenz per Framelimiter minimiert und wo man da genau die Wartezyklen einfügen muß ;). VSync an ist ja auch ein Limit, aber das führt eben häufig zu merklich erhöhten Eingabelatenzen (wenn ohne die Framerate höher wäre). Und hier wird die Ausgabe des Frames eingetaktet (Start ist wann immer bereit, also direkt nach einem Refresh/Bufferflip).

Savay
2018-08-13, 20:42:38
habt ihr denn ein test auf lager bei dem gleichschnelle gpus unter gleicher hardware getestet wird, gerne auch als video.


Hier ist ein recht...interessantes...Video dazu. :biggrin:

Fury X vs. 980 Ti
https://www.youtube.com/watch?v=MzHxhjcE0eQ

Ohne zuviel zu Spoilern...das Fazit ist aber nicht ganz eindeutig! :tongue:
"Problem": er hat die Frames der aufzeichnenden Kamera gezählt...kann man aber in ms umrechnen wenn man will.

Davon abgesehen sind seitdem halt schon einige Treiberversionen durchs Netz geflossen.

aufkrawall
2018-08-13, 20:46:15
Ich denke die Spielehersteller haben auch empirisch herausgefunden, wie man am besten die Eingabelatenz per Framelimiter minimiert und wo man da genau die Wartezyklen einfügen muß ;).
Wir sind ja immer noch im A-Sync Thread und es ging um den Vergleich Gsync vs. FreeSync. Selbst wenn das so stimmt wie geschildert, ist die Beachteiligung offenbar geringfügig, da das konkrete Gerät mit dem Trümmer-FPGA am Ende immer noch leicht schneller ist. Mücke -> Elefant (Fanboy-Probleme...)...

hmmm
2018-08-13, 20:50:24
Es bleibt trotzdem weltfremdes Theoretisieren, das in der Empirie keine Rolle spielt.
Klar. Aber warum macht man denn solche Videos (570 vs 1080)? Und warum werden solche Videos auch noch in Foren bitte böse verteidigt?

Auch "nett" finde ich die adaptive-sync vs vsync=off Latenz Diskussion, wenn man nämlich immer ein Komplettes Bild (also zB bei FullHD 1080 Zeilen) misst, dann sind die Latenz Unterschiede auch deutlich in der Meßtoleranz.

Gipsel
2018-08-13, 21:23:05
Wir sind ja immer noch im A-Sync Thread und es ging um den Vergleich Gsync vs. FreeSync. Selbst wenn das so stimmt wie geschildert, ist die Beachteiligung offenbar geringfügig, da das konkrete Gerät mit dem Trümmer-FPGA am Ende immer noch leicht schneller ist. Mücke -> Elefant (Fanboy-Probleme...)...Nun, genau das war die Aussage: Die höhere Performance der 1080 erzeugt die etwas (1-2ms) niedrigere Baseline. Die Performance bezügliche des Anzeigedelays an sich ist bei FreeSync und G-Sync innerhalb der Meßgenauigkeit offenbar ziemlich identisch. Weil das ja immer noch Einige bezweifeln.

Tesseract
2018-08-13, 21:52:42
Wieso soll die Geschwindigkeit der GPU einen Einfluss auf den Input Lag haben, wenn durch den fps-Limiter Wartezyklen eingefügt werden?

weil der limiter quasi sagt wieviele sekunden die leute auf der wasserrusche im schwimmbad abstand halten müssen. wenn oben mehrere leute anstehen (render ahead) muss man viel länger warten bis man unten ankommt aber unanhängig davon ist jemand der schneller rutscht trotzdem immer früher unten wenn alles andere gleich ist, egal ob er auf 1, 2 oder 3 leute warten musste oder ganz alleine im bad ist.

ich hoffe das verdeutlicht die sachlage.

ChaosTM
2018-08-13, 21:58:42
Besteht eigentlich, zumindest theoretisch die Chance auf einen Monitor der beide Systeme unterstützt, oder legt sich da eine oder beide Parteien quer?

Ich will mich einfach nicht an einen Hersteller binden...

edit.: Solange es keine 21:9 Geräte mit 2160 oder mehr Zeilen gibt, interessiert mich aufrüsten sowieso nicht

Savay
2018-08-13, 22:01:44
Naja nVidia stünde es frei A-Sync zu nutzen! :tongue: Sie könnten es sogar sicher irgendwie in den FPGAs nachrüsten falls die GPUs die Voraussetzungen dafür erfüllen.
Ist immerhin nen offener Standard. (tun sie ja auch in Notebooks.)

Ob das andersrum aber gilt wage ich zu bezweifeln. (Wahrscheinlich nur mit nem saftigen Lizenzabschlag)

Technisch könnte man sicher irgendwie nen G-Sync FPGA und nen normalen A-Sync fähigen Scaler in einem Modell verwurschteln...aber es würde dann wohl eher teurer als ein entsprechendes G-Sync Modell und massivst teurer als ein vergleichbares reines FS Modell.
Davon abgesehen glaube ich das sich die Hersteller mit der Labelvergabe für so einen Frankensteinmonitor wohl eher schwer tun würden....von der Beschaffung des G-Syncmoduls und Anpassungen an der Firmware ganz zu schweigen...da dürfte nV ziemlich sicher die Hand drauf halten.

tEd
2018-08-13, 23:00:29
Ich hoffe das ganze hat dann mit HDMI2.1 endlich ein Ende

Bucklew
2018-08-14, 12:22:22
Und bei GSync muß das Panel auch mit dem minimalen Refresh beliefert werden, damit da nichts zusammenbricht. Und? Wo siehst Du jetzt den fundamentalen Unterschied bei der Funktionalität?
Habe ich dir jetzt 3x lang und breit erklärt und du hast es immer noch nicht verstanden :)

Es ist doch ein massiver Unterschied, ob die GPU einen alten Frame senden muss, weil ansonsten die Synchronisation GPU<->Monitor zusammen bricht, oder, ob die GPU einfach nur einen neuen Frame schickt, wenn sie fertig ist und den Rest (also die Synchronistation des Panel) über das G-Sync Modul läuft.

Das sollte doch für jeden halbwegs technisch visierten Laien nicht schwer zu verstehen sein?

Wenn du das nicht verstehst, ist eine weitere Diskussion sinnlos.

Und in beiden Fällen muss dann ein Refresh mit dem alten Bild erfolgen und das neue kann erst angezeigt werden sobald das Panel den nächsten Refresh rauswürgen kann. Ich verstehe dein Argument nicht. Oder meinst du das es einen Latenzvorteil gibt wenn das neue Bild schon im Buffer des G-Sync Moduls ist bevor der nächste Refresh startet? Die Signallaufzeit von Karte zu Monitor sind ein paar ns.
Warum sollte die Signallaufzeit GPU->Monitor bei ein paar ns liegen? Auch die Übertragung des Frames an sich benötigt natürlich Zeit. Und schon mit 4K ist der heutige DP1.3 schnell an seiner Grenze. Ab 144 Hz kannst du schon nicht mehr ein vollwertiges Bild übertragen.

es ist der gleiche frame, der lag ist an diesem punkt bereits so lange wie der frame schon lokal im speicher liegt.
Das ergibt keinen Sinn, wenn der Frame auch bei FreeSync komplett gebuffert wird, wäre LFC ja bei jedem Monitor mit jeder Range möglich. Ist es aber nicht.

Tesseract
2018-08-14, 12:36:17
Das ergibt keinen Sinn, wenn der Frame auch bei FreeSync komplett gebuffert wird, wäre LFC ja bei jedem Monitor mit jeder Range möglich. Ist es aber nicht.

keine ahnung was das mit der aussage zu tun haben soll auf die du geantwortet hast. der lag ist die differenz zwischen dem zeitstempel des frames (also dem zeitpunkt den der frame darstellt) und dem was man am schirm sieht. es ist vollkommen egal ob der doppelte frame bei LFC von der GPU oder vom modul kommt, wenn zu z.B. nach 10ms den frame nochmal durch den scanout jagst dann ist das was der frame zeigt bereits >10ms alt. außerdem ist LFC sowieso nur eine heuristik die bei niedrigen frameraten versucht einen refresh so einzuschieben, dass das panel genug refreshes bekommt aber es trotzdem keine kollisionen zwschen neuem frame und laufendem scanout gibt. sollte eine variante des framedoublings deutlich langsamer sein (was sie de facto nicht ist) könnte man das in der heuristik einfach berücksichtigen.

Bucklew
2018-08-14, 13:12:13
es ist vollkommen egal ob der doppelte frame bei LFC von der GPU oder vom modul kommt
Nein, ist es nicht. Weil die Übertragung des Frames über den Link wie DisplayPort eben a) auch Zeit benötigt und b) den Bus blockiert.

Ich finde es ist ein massiver Unterschied, ob der Monitor quasi in sich die Frames wiederholen kann (G-Sync) oder ob dies durch die GPU geschehen muss (FreeSync). Freesync unterscheidet sich dort eben nicht durch den normalen Sync, außer, dass die Refreshrate nicht fix ist.

maguumo
2018-08-14, 13:33:55
Warum sollte die Signallaufzeit GPU->Monitor bei ein paar ns liegen? Auch die Übertragung des Frames an sich benötigt natürlich Zeit. Und schon mit 4K ist der heutige DP1.3 schnell an seiner Grenze. Ab 144 Hz kannst du schon nicht mehr ein vollwertiges Bild übertragen.

Na so groß ist die Latenz zwischen Karte und Monitor. Das ganze Bild zu übertragen dauert länger, klar - aber maximal 1/refreshrate des Monitors s. Wenn du also mit dem alten Bild refreshen musst ist zum nächst möglichen refresh also definitiv ein neues Bild, falls vorhanden, da.

EDIT: Mal als Beispiel. Ein 8bit 1440p 144Hz Monitor stellt grob alle 7ms ein neues Bild dar. Über DP 1.2 dauert die Übertragung pro Frame grob 5.7ms. Andere Kombinationen aus Auflösung, Farbtiefe und Refreshrate sind da mehr auf Kante genäht, aber die Übertragungszeit pro Frame ist logischerweise nie länger als 1/Hz des Monitors.

Tesseract
2018-08-14, 13:57:06
Nein, ist es nicht. Weil die Übertragung des Frames über den Link wie DisplayPort eben a) auch Zeit benötigt und b) den Bus blockiert.

das ist vollkommen egal. wenn der letzte frame 40ms gerendert hat springt die LFC-heuristik an und fügt im nächsten intervall irgendwo in der mitte einen zweiten scanout ein. ob die übertragung das ganze um z.B. 2ms verzögert macht keinen unterschied weil man den eingeschobenen scanout dann einfach 2ms früher ansetzen könnte um der übertragung zeit zu geben.

aber abgesehen davon stimmt deine vorstellung sowieso nicht. sowohl framebufferübertragung als auch scanout erfolgt zeilenweise. wenn beide varianten ordentlich optimiert sind sollten da nicht mehr als ein paar microsekunden dazwischen liegen.

das einzige was das modul wirklich machen kann ist der graka etwas bandbreite sparen weil der framebuffer auf der graka weniger oft gelesen werden muss. das ist aber erstens sehr wenig und zweitens würde es da wesentlich mehr sinn machen den speicher der am modul sitzt gleich in die graka zu investieren. sprich: X€ weniger für den monitor, dafür X€ mehr in eine stärkere GPU.

Gipsel
2018-08-14, 14:19:56
Habe ich dir jetzt 3x lang und breit erklärt und du hast es immer noch nicht verstanden :)

Es ist doch ein massiver Unterschied, ob die GPU einen alten Frame senden muss, weil ansonsten die Synchronisation GPU<->Monitor zusammen bricht, oder, ob die GPU einfach nur einen neuen Frame schickt, wenn sie fertig ist und den Rest (also die Synchronistation des Panel) über das G-Sync Modul läuft.Wie Dir schon mehrfach erklärt, ist das praktisch eben kein wesentlicher Unterschied. Auch bei G-Sync muß das Panel nach einer gewissen Zeit refreshed werden, weil sonst Alles zusammen bricht. Ob der Refresh von der GPU oder vom Modul kommt, ist gehupft wie gesprungen. Du gewinnst einfach nichts (weil der Panelrefresh genau so lange dauert wie die Übertragung).
Das sollte doch für jeden halbwegs technisch visierten Laien nicht schwer zu verstehen sein?
Wenn du das nicht verstehst, ist eine weitere Diskussion sinnlos.Das denke ich auch. ;)
Warum sollte die Signallaufzeit GPU->Monitor bei ein paar ns liegen?Faustregel für einfache Kabel ist grob halbe Lichtgeschwindigkeit. Lichtgeschwindigkeit sind ~30cm/ns. Ein typisches 1,8m Kabel ergeben also ~12ns reine Signallaufzeit. ;)
Die sind aber in dieser Betrachtung eigentlich unerheblich. Entscheidend ist eher, wie schnell die Elektronik beim Durchreichen der Daten ist. DP ist so gebaut, daß der Panelrefresh mit minimalem Puffern der Daten funktionieren kann. Ein ordentliches Design produziert da nur wenige Mikrosekunden Delay zwischen der Übertragung über das Kabel und der Programmierung der Pixelmatrix des Panels. Die Übertragung per DP funktioniert typischerweise isochron zum Panelrefresh (auch wenn DP paketbasiert ist, die Datenübertragung wird schlicht mit Wartezeiten aufgefüllt ["stuffing"], so daß die Übertragung quasi synchron zum Panelrefresh läuft; bei HDMI ist es traditionell sogar direkt auf den Pixeltakt des Panelrefreshes synchronisiert). Die Daten können also wie vom Monitor erhalten direkt an das Panel durchgereicht werden (gepuffert wird vielleicht eine Zeile [maximal einige wenige, wenn man irgendwelches fancy Zeugs machen will], was bei 144Hz FHD unter 7µs dauert). Es gibt kein wesentliches Delay (bzw. es muß keins geben, was einige TVs da machen, kann man ja nicht als Maßstab nehmen) aus dieser Quelle.
Kurz: Der Panelrefresh vom integrierten Speicher des G-Sync-Moduls geht praktisch auch nicht schneller.
Auch die Übertragung des Frames an sich benötigt natürlich Zeit.Ja, wie schon mehrfach geschrieben exakt so lange wie der Panelrefresh, weswegen das eben gerade keinen Unterschied macht. Während des Refreshes ist das System sowieso blockiert (wenn man nicht mitten im Refresh auf ein neues Frame switched [VSync off]), egal wo der herkommt.
Das ergibt keinen Sinn, wenn der Frame auch bei FreeSync komplett gebuffert wird, wäre LFC ja bei jedem Monitor mit jeder Range möglich. Ist es aber nicht.Was? LFC geht immer nur (wenn man ganz krude eingeschobene Zwangrefreshes, die dann den nächsten Refresh teilweise blockieren und so zu Judder führen, mal nicht dazu rechnet), wenn der mögliche Panelrefresh einen Faktor größer 2 überstreicht. Das hat nichts mit einer eventuellen Speichern eines Frames in irgendeinem on-board-Speicher des Scalers zu tun.
Und man will eventuell die alten Pixeldaten mit dem neuen Frame vergleichen, um z.B. die Overdrive-Steuerung optimal anzupassen (die Schaltzeiten eines Pixels variieren ja in Abhängigkeit von Ausgangswert und Zielwert, der Ausgangswert kommt aus dem alten Frame, der Zielwert aus dem neuen; diesen Vergleich kann man natürlich auch pixel- bzw. zeilenweise durchführen, da benötigt man also nicht den kompletten neuen Frame, das geht on-the-fly).

Bucklew
2018-08-14, 22:11:10
Wie Dir schon mehrfach erklärt, ist das praktisch eben kein wesentlicher Unterschied. Auch bei G-Sync muß das Panel nach einer gewissen Zeit refreshed werden, weil sonst Alles zusammen bricht. Ob der Refresh von der GPU oder vom Modul kommt, ist gehupft wie gesprungen.
Danke, Gipsel, dass du wieder mal belegst, dass du hier nur Trollen willst. Wenn du mit mir diskutieren möchtest (was du ja nachweislich tust), dann lese doch wenigstens mal, was meine Argumentation ist :rolleyes:

Gern nochmal zitiert, auch wenn es müssig ist:
Der größte Unterschied besteht darin, wer die entscheidende Instanz ist.

Bei FreeSync (und auch bei normalem Sync) ist der Monitor die Instanz, die entscheidet, wann ein Bild von der GPU zu senden ist.
[...]
Bei G-Sync ist es dagegen die GPU, die entscheidet, wann ein Bild an den Monitor geht - wenn der Frame fertig gerendert ist.
Danach ist es eben mitnichten gehupft wie gesprungen, ob ein Refresh von der GPU oder vom Modul ausgelöst wird :rolleyes:

Ich werde dein Posting jetzt als Spam/Trolling melden. Interessiert zwar sicherlich wieder mal Niemanden, weil Mods dürfen das, aber ein anderes Mittel verbleibt ja gegen diese Form des Trollings nicht :rolleyes:

maguumo
2018-08-14, 22:31:18
Klar, 5 Leute hier wollen dich nur trollen.

In beiden Fällen wird das neue Bild aufgebaut sobald der letzte refresh durch ist. Ob die Daten dafür direkt aus dem Framebuffer der Grafikkarte oder dem G-Sync Modul kommen macht schlicht keinen Unterschied denn der limitierende Faktor ist der refresh des Panels selbst, nicht die Übertragung der Bilddaten.

Und nein, bei Freesync/VESA Adaptive Sync/HDMI VRR ist es ebenfalls die Grafikkarte bzw. der Treiber der entscheidet wann ein neues Bild zu senden ist. Das muss nicht immer der maximale Zeitintervall sein, es kann das alte Bild auch früher erneut gesendet werden um eine Kollision des refreshs mit einem fertig gerendertem neuen Bild zu vermeiden.

Bucklew
2018-08-14, 22:56:07
Und nein, bei Freesync/VESA Adaptive Sync/HDMI VRR ist es ebenfalls die Grafikkarte bzw. der Treiber der entscheidet wann ein neues Bild zu senden ist.
Das ist technisch absoluter Blödsinn.

Kann der Monitor nur bis 30 Hz minimaler Refreshrate, sorgt eine Refreshrate von 29 Hz für ein nicht zustande kommendes Bild.

Wie soll da die Grafikkarte der Entscheider sein, wenn es nix zu entscheiden gibt?

Gipsel
2018-08-14, 23:02:58
Gern nochmal zitiert, auch wenn es müssig ist:

Danach ist es eben mitnichten gehupft wie gesprungen, ob ein Refresh von der GPU oder vom Modul ausgelöst wird :rolleyes:
Wenn der Refresh von der GPU ausgelöst wird (mit variablem Timing je nach Situation), wie kann dann der Monitor die Instanz sein, die über den Refresh entscheidet? Du hast da irgendwo einen logischen Fehlschluß eingebaut. ;)
Wie Dir hier schon mehrfach von mehreren Leuten gesagt wurde, ist Deine Behauptung vom Monitor als entscheidende Instanz nämlich schlicht falsch. Die GPU hat natürlich auch bei FreeSync die Kontrolle darüber, wann genau es ein Frame an den Monitor sendet. Es wäre schon irgendwie nett, wenn Du Dich mal irgendwann mit diesem Fakt anfreunden würdest. ;)

Der einzige technische Unterschied (mal abgesehen vom leicht performancemindernden Polling der ersten G-Sync-Version, was es inzwischen vermutlich[?] nicht mehr gibt) ist, ob ein eventuell einzuschiebener Zwangsrefresh (weil man unter die minimale Refreshrate des Panels sinkt bzw. zu sinken droht) von der GPU initiiert wird (GPU ist auch hier die Instanz, die das entscheidet!) oder vom GSync-Modul. Das ist aber für das Timing der Anzeige neuer Frames und die Funktionalität wie schon mehrfach beschrieben ziemlich irrelevant. Die Constraints sind die gleichen.

=========================================

edit:
Das ist technisch absoluter Blödsinn.Nicht Alles, was man nicht versteht, ist gleich Blödsinn. In diesem Fall hat maguumo vollkommen recht.
Kann der Monitor nur bis 30 Hz minimaler Refreshrate, sorgt eine Refreshrate von 29 Hz für ein nicht zustande kommendes Bild.

Wie soll da die Grafikkarte der Entscheider sein, wenn es nix zu entscheiden gibt? Die GPU kann entscheiden, einen Refresh mit dem alten Bild nach 17ms auszulösen. Genau das passiert bei LFC. Sowohl bei FreeSync als auch G-Sync. Praktisch kein Unterschied bei gleichen Ranges der Panels.

gravitationsfeld
2018-08-15, 00:09:01
Bucklew gaslighted euch doch, ist euch das nicht klar? Der sagt so lange dass ihr Bloedsinn erzaehlt, bis ihr es selber glaubt.

Gipsel
2018-08-15, 00:50:15
Ich glaube nicht, daß das ein absichtlicher Versuch dazu ist. Und erfolgreich ist es auch nur sehr bedingt. Er verwirrt maximal Leute, die keine Idee davon haben, wie das funktioniert. Aber denen zu liebe muß man das auch öffentlich richtigstellen. ;)

N0Thing
2018-08-15, 01:04:21
Ich glaube nicht, daß das ein absichtlicher Versuch dazu ist. Und erfolgreich ist es auch nur sehr bedingt. Er verwirrt maximal Leute, die keine Idee davon haben, wie das funktioniert. Aber denen zu liebe muß man das auch öffentlich richtigstellen. ;)

Und ich sage da mal danke an alle, die sich die Mühe machen, auch bei provozierenden, hämischen, verfälschenden, oder einfach inhaltlich falschen Beiträgen, sachlich Inhalte zu erklären und richtig zu stellen. Und dies ohne Provokation, Häme oder Halbwahrheiten. Danke, ihr seid die Basis und die Zukunft dieses Forums.

dargo
2018-08-15, 08:11:13
Und ich sage da mal danke an alle, die sich die Mühe machen, auch bei provozierenden, hämischen, verfälschenden, oder einfach inhaltlich falschen Beiträgen, sachlich Inhalte zu erklären und richtig zu stellen. Und dies ohne Provokation, Häme oder Halbwahrheiten. Danke, ihr seid die Basis und die Zukunft dieses Forums.
Dem kann ich mich nur anschließen. (y)

Bucklew
2018-08-15, 08:51:30
Wie Dir hier schon mehrfach von mehreren Leuten gesagt wurde, ist Deine Behauptung vom Monitor als entscheidende Instanz nämlich schlicht falsch. Die GPU hat natürlich auch bei FreeSync die Kontrolle darüber, wann genau es ein Frame an den Monitor sendet. Es wäre schon irgendwie nett, wenn Du Dich mal irgendwann mit diesem Fakt anfreunden würdest.
Gut. Da du sagst, dann prüfen wir diesen Fakt doch mal anhand eines Szenarios:

FreeSync Monitor mit minimaler Refreshrate 30 Hz. Die GPU sendet nun alle 50ms ein Frame an den Monitor. Sie ist ja völlig frei und hat die Kontrolle, kann das also eurer Theorie nach.

Was sehen wir?

Die GPU kannmuss entscheiden, einen Refresh mit dem alten Bild nach 17ms auszulösen. Genau das passiert bei LFC.
Fixed that for you :up:

(Und würdest du diesen kleinen, aber feinen Unterschied verstehen, müsstest du hier auch nicht so einen Blödsinn schreiben ;))

Sowohl bei FreeSync als auch G-Sync. Praktisch kein Unterschied bei gleichen Ranges der Panels.
Eben genau nicht. Bei G-Sync muss die GPU keinen Refresh mit dem alten Bild nach 17ms auslösen. Da ist da eben der praktische Unterschied :up:

Bucklew gaslighted euch doch, ist euch das nicht klar? Der sagt so lange dass ihr Bloedsinn erzaehlt, bis ihr es selber glaubt.
Immerhin mal ohne Beleidigung. Nicht schlecht, Herr Coda! :up:

Megatron
2018-08-15, 09:24:52
Gut. Da du sagst, dann prüfen wir diesen Fakt doch mal anhand eines Szenarios:

FreeSync Monitor mit minimaler Refreshrate 30 Hz. Die GPU sendet nun alle 50ms ein Frame an den Monitor hat nun alle 50ms ein neues Frame fertig berechnet.
Fixed that for you :up:
Was sehen wir?

Mit GSync muss nur alle 50ms ein neues Bild gesendet werden.
Bei Async wird das alte Bild am Ende 4 mal alle 10ms gesendet, bevor es dann genauso wie bei GSync das neue Bild gibt.

Du sparst die Übertragungszeit von 1,8m Kabel und verlierst "hoffentlich" nicht allzu viel Zeit durch die Zusatzlogik des FPGA. Am Ende geht sich das +/- null aus.

Gipsel
2018-08-15, 10:03:16
Da das zu repetetiv wird, nur hierzu:
Eben genau nicht. Bei G-Sync muss die GPU keinen Refresh mit dem alten Bild nach 17ms auslösen. Da ist da eben der praktische Unterschied :up:Auch bei G-Sync muß das Panel zwischendurch refresht werden. Ganz genauso wie bei A-/FreeSync. Und auch da dauert das ~1/Maximalrefreshrate an Zeit, in der kein neues Bild angezeigt werden kann (so denn eins genau dann fertig würde). Es gibt praktisch keinen Unterschied in der Funktionalität, egal ob der Refresh von der GPU oder aus dem G-Sync-Modul kommt.
Dieser Unterschied der technischen Umsetzung wurde ja weiter vorne bereits ausführlich erklärt. Aber ich wiederhole: Das führt erstmal zu keinem Unterschied der tatsächlichen Funktionalität. Beide Lösungen können prinzipiell genau das gleiche Ergebnis hervorbringen (mit dem erwähntem Spielraum in Nano- bzw. Mikrosekundenbereich, wo aber die exakt benutzte Elektronik wesentlich wichtiger ist). Es gibt kein Szenario, in dem z.B. G-Sync ein zu einem bestimmten Zeitpunkt neu gestartetes Frame wirklich früher am Schirm darstellen könnte, wenn alle Bedingungen außer Free-/G-Sync identisch sind, die FreeSync-fähige GPU kann alle timingrelevanten Dinge praktisch identisch nachbilden.
Kurz zusammengefaßt: Die Dauer der Kette vom Beginn des Rendern eines Frames bis zur letztendlichen Anzeige dieses Frames auf dem Bildschirm ist prinzipiell unabhängig von der Wahl von G- oder FreeSync. Und in der Funktionalität (z.B. bezüglich LFC) und deren Einschränkungen für das Timing (während eines eingeschobenen "LFC-Refreshes"/Zwangsrefreshes ist der Schirm für die Dauer 1/Maximalrefreshrate für die Anzeige eines neues Frame blockiert [VSync on]) gibt es ebenfalls keinen Unterschied. Es gibt diesbezüglich also keinen praktischen Vorteil für irgend eine der beiden Lösungen.
Und im Prinzip könnte natürlich auch ein mit G-Sync prinzipiell mögliches kurzfristige Triple Buffering Verhalten (dort mit dem dritten Puffer im Speicher des Moduls) während Refreshkollisionen nachgebildet werden (dann mit dem dritten Buffer im VRAM der GPU), so man denn will (ob das bei G-Sync überhaupt gemacht wird, ist mir unklar; bei großer Range sollte die Situation sowieso sehr selten auftreten). Das wurde ja schon mal vor ein paar Jahren diskutiert. Aber das sind dann die "advanced details", wie die Buffer gehandhabt werden (was aber obige Kurzzusammenfassung nicht beeinträchtigt).

Bucklew
2018-08-15, 10:34:55
Fixed that for you :up:
Was sehen wir?
Danke, du hast komplett den Sinn der Frage zerstört, weil es nämlich genau Gipsels Behauptung ist, dass die GPU frei entscheiden kann, wann Sie einen Frame zum Monitor sendet. Genau dies versuche ich ihm mit dieser Frage zu erklären. Hat nur nicht funktioniert, er ignoriert sie lieber (was ich verstehen kann, müsste er ja eingestehen, dass er falsch liegt und Blödsinn redet. Ist Gipsel nur nicht so gut drin).

Mit GSync muss nur alle 50ms ein neues Bild gesendet werden.
Bei Async wird das alte Bild am Ende 4 mal alle 10ms gesendet, bevor es dann genauso wie bei GSync das neue Bild gibt.
Genau das, was ich schreibe, danke, dass es endlich mal jemand kapiert, wenn auch unbewusst :up:

[sinnloses Gelaber]
Statt zu labern, beantworte mal konkret meine Frage:
FreeSync Monitor mit minimaler Refreshrate 30 Hz. Die GPU sendet nun alle 50ms ein Frame an den Monitor. Sie ist ja völlig frei und hat die Kontrolle, kann das also eurer Theorie nach.

Was sehen wir?

Screemer
2018-08-15, 11:07:29
Statt zu labern, beantworte mal konkret meine Frage:
Wie oft muss man dir eigentlich noch sagen, dass die gpu die min und max refreshrate des Monitors kennt und so auch weiß ob sie dem Monitor den alten frame noch mal an den Monitor senden muss bzw. einfach den Inhtalt des framebuffers sendet?

31 min / 60 max -> 29fps -> Inhalt des framebuffers wird übertragen -> tearing

30 min / 60 max -> 29fps -> alter frame wird noch Mal übertragen und das Panel refresht mit 60hz bzw. der nächste scanout wird in der halb Zeit angestoßen aka framedoubling.

Das steuert der Treiber und nicht der Monitor.

maguumo
2018-08-15, 11:25:03
@Bucklew
Abgesehen davon ist die Frage ist nicht zielführend. Natürlich darf die minimale VRR range nicht unterschritten werden. Das heißt aber nicht das der Monitor entscheidet wann refresht wird, der legt nur das mögliche Zeitfenster fest bis zu dessen Ende das erfolgt sein muss. Das ist genauso irrsinning wie zu behaupten das Panel würde dem G-Sync Modul vorschreiben wann der refresh zu erfolgen hat.

Geht auch am ursprünglichen Punkt vorbei, oder? Auf den Rest darfst du ruhig auch antworten denn die Erklärung wo der Nachteil herkommen soll bleibst du uns seit ein paar Posts schuldig.

Tesseract
2018-08-15, 12:24:38
Gipsels Behauptung ist, dass die GPU frei entscheiden kann, wann Sie einen Frame zum Monitor sendet. Genau dies versuche ich ihm mit dieser Frage zu erklären.

was heißt "frei entscheiden"? der monitor teilt der graka die range mit, die graka schickt dann die frames und der monitor ist dabei passiver empfänger. wenn die graka etwas schickt das außerhalb der spec liegt dann ist das ein protokollbruch und was dabei passiert hängt von der firmware des monitors ab. das wird aber nie passieren es sei denn du hackst den treiber oder ähnliches.

hmmm
2018-08-15, 12:25:24
Lustigerweise musste Nvidias GPU bei den ersten gsync Modulen noch alle ms mittels polling den Vblank Status abfragen.

Kriton
2018-08-15, 14:15:27
Und ich sage da mal danke an alle, die sich die Mühe machen, auch bei provozierenden, hämischen, verfälschenden, oder einfach inhaltlich falschen Beiträgen, sachlich Inhalte zu erklären und richtig zu stellen. Und dies ohne Provokation, Häme oder Halbwahrheiten. Danke, ihr seid die Basis und die Zukunft dieses Forums.

Korrekt.

Bucklew
2018-08-15, 15:21:34
Abgesehen davon ist die Frage ist nicht zielführend. Natürlich darf die minimale VRR range nicht unterschritten werden.
Eben. Erkläre das bitte Gipsel. Laut dem ist die GPU die alles entscheidende Instanz. Was schlichtweg - wie du nun plötzlich auch bestätigst - nicht der Fall ist.

Die GPU MUSS refreshen bei FreeSync. Bei G-Sync muss sie das nicht, da tut es der Monitor selbst.

Ich halte das für einen massiven Unterschied in der Praxis und die Tests (InputLag) belegen hier ja auch Vorteile für G-Sync.

Gipsel
2018-08-15, 15:50:40
Eben. Erkläre das bitte Gipsel.Das steht doch in meiner längeren Erklärung vor ein paar Seiten (und auch Allen anderen hier im Thread) drin. Du verstehst offenbar nicht, daß das bloß überhaupt nicht der Punkt ist. Und auch damit bleibt die GPU die entscheidende Instanz.
Allgemein: Nehmen wir eine Range von 40Hz bis 100 Hz (um einfache Zahlen zu haben), also ein Fenster für den Refresh zwischen 10ms und 25ms.
Innerhalb der genannten Range von 10ms bis 25ms steht es sowohl der GPU (bei A-/FreeSync) als auch dem G-Sync-Modul völlig frei, einen Refresh innerhalb dieses Fensters zu triggern. Und ein Refresh dauert auch immer etwa 10ms (Inverses der maximalen Refreshrate), egal ob das über DP/HDMI kommt oder vom G-Sync-Modul selber. Ob der Refresh nach 10ms, 15ms, 20ms oder 22,34ms erfolgt, entscheidet allein die GPU oder das G-Sync-Modul (hoffentlich halbwegs sinnvoll in Abhängigkeit davon, wie lange das letzte Frame gebraucht hat und wann ein neues Frame fertig wird [was dann direkt den Refresh triggern sollte], das ist nämlich der ganze verdammte Punkt an einem adaptiven Refresh).
Unterschied für den Nutzer (bei ansonsten identischen Bedingungen): Null.
Laut dem ist die GPU die alles entscheidende Instanz. Was schlichtweg - wie du nun plötzlich auch bestätigst - nicht der Fall ist.Konzentriere Dich auf das Problem! Nämlich zu erklären, was denn mit GSync besser/schneller gehen soll. ;)
Und im Übrigen steht es der GPU wie schon gesagt natürlich frei, innerhalb der unterstützten Range ein Refresh zu senden, wann immer es ihr beliebt. Der Monitor macht das mit. Der Monitorrefresh wird also von der GPU kontrolliert.
Die GPU MUSS refreshen bei FreeSync. Bei G-Sync muss sie das nicht, da tut es der Monitor selbst.Zum bestimmt 15. Male: Es ist völlig egal, ob die GPU einen LFC-Refresh triggert oder das G-Sync-Modul. Bei G-Sync MUSS das Modul das Panel genau so refreshen, damit es innerhalb der Specs bleibt. Und das dauert genau so lange und blockiert damit auch genau so lange die Anzeige eines neuen Frames wie bei FreeSync. Das ist praktisch kein Unterschied bei der Funktionalität (sondern nur ein Detail der konkreten Umsetzung, was aber keinen inhärenten Vorteil bietet).
Ich halte das für einen massiven Unterschied in der Praxis und die Tests (InputLag) belegen hier ja auch Vorteile für G-Sync.Das tun die hier im Thread verlinkten Tests der letzten Seiten gerade nicht. Die belegen nämlich, daß es in der Praxis bei den Anzeigedelays keinen Unterschied gibt (also unter Berücksichtigung der unterschiedlichen Grundgeschwindigkeiten der verglichenen Karten, also nach Korrektur um die unterschiedlichen Renderzeiten bei unterschiedlich schnellen Karten). ;)

Wenn Du einen Vorteil postulierst, kannst Du doch sicher erklären, wo der genau herkommen kann. Also mal so mit Ablauf des ganzen Prozesses und wo man Zeit spart auf dem Weg vom gerade fertig gestellten Bild auf der GPU zum Anzeigen des geänderten Pixels auf dem Schirm. Dann kann man ja darüber diskutieren.

maguumo
2018-08-15, 15:51:13
Du hast nur den ersten Satz gelesen, oder? Die GPU entscheidet wann refresht wird. Und es ist eben kein massiver Unterschied, hier wurde jetzt auch schon etliche male wiederholt warum. Wo die Differenz in dem Vergleichsvideo herkommt übrigens auch.

EDIT: Zu spät.

Savay
2018-08-15, 15:51:39
Eben. Erkläre das bitte Gipsel.

Was ist denn so schwer an dem nachzuvollziehen was Gipsel dir da bisher so geduldig erklärt hat! :freak:

Die GPU kennt die Refresh-Range des angeschlossenen Displays (kann man übrigens einfach über die Monitor INF ändern!!!!) und der Treiber entscheidet anhand dieser Informationen wann es den Inhalt des Framebuffers über die Schnittstelle an die Monitorelektronik schickt (fällt die FPS Rate unterhalb der min. Wiederholrate bleibt der Displayrefresh bspw. beim Minimum hängen auf non-LFC Displays!)...so weit so gleich zwischen nV und AMD.

Nur LFC unterscheidet sich im Detail....hier muss der Treiber bei AMD wissen wann er das Doubling und Trippeling einschieben soll...bei nV machts dann ja wohl das FPGA.

Am Ende der Tage ist es aber trotzdem nahezu wurscht wo das Vervielfachen passiert!


Die GPU MUSS refreshen bei FreeSync. Bei G-Sync muss sie das nicht, da tut es der Monitor selbst.

Das eigentliche "Refreshen" macht am Ende aber immernoch der Scaler und die Monitorelektronik...nicht die GPU...die schickt nur den Inhalt des Framebuffers an eben jenen....das macht sie bei FreeSync Displays aber ausschließlich innerhalb des zulässigen Bereichs der über die VRR Range im Monitor INF definiert wird.

Unicous
2018-08-15, 15:58:53
Das wird ja noch eine Weile so weitergehen, weil Bucklew nicht eingestehen will, dass er vollkommen falsch liegt, aber mal als Denkanstoß dieses Schaubild (als Beispiel), vllt. fällt ja dem ein oder anderen etwas auf.:wink:

https://www.paradetech.com/wp-content/uploads/2017/02/DP696-block.png
https://www.paradetech.com/products/dp696/

(edit: Auch wenn das eher auf per eDP angesteuerte Displays zutrifft)

Bucklew
2018-08-15, 16:00:28
Und im Übrigen steht es der GPU wie schon gesagt natürlich frei, innerhalb der unterstützten Range ein Refresh zu senden, wann immer es ihr beliebt. Der Monitor macht das mit. Der Monitorrefresh wird also von der GPU kontrolliert.
Bitte beantworte meine Frage:

Was passiert nun, in deinem Beispiel, wenn die GPU nur alle 50ms einen Frame an den Monitor sendet.

Und schon merkst du den Unterschied G-Sync/A-Sync.

Tut mir leid, aber dümmer kann ich es nicht mehr erklären. Wenn du jetzt immer noch nicht auf den Trichter gekommen bist, dann bist du offensichtlich nicht in der Lage, den wichtigsten Unterschied G-Sync/A-Sync zu verstehen.

Du hast nur den ersten Satz gelesen, oder? Die GPU entscheidet wann refresht wird.
Auch an dich dann die Frage:

Was passiert, wenn die GPU entscheidet alle 50ms einen Frame zu schicken?

Savay
2018-08-15, 16:03:16
Was passiert, wenn die GPU entscheidet alle 50ms einen Frame zu schicken?

Wenn der Monitor damit nicht klar kommt entstehen Bildfehler...Falschfarben, Flickern etc. pp.

Kannst du durch die ganz leicht per CRU Tool modifizierbaren FS-Ranges auf bestimmten Modellen übrigens recht gut simulieren. :P
Wenn die Daten im INF aber korrekt sind(!) (was sie sein sollten!) sendet die GPU ganz einfach nur innerhalb des zulässigen Bereichs den Framebuffer an den Monitor...was ist daran so schwer zu verstehen. :rolleyes:

Die GPU und der Treiber entscheiden ja nicht willkürlich und im luftleeren Raum wann sie ein Frame senden darf sondern anhand dieser Metadaten. :tongue:

Bucklew
2018-08-15, 16:05:43
Wenn der Monitor damit nicht klar kommt entstehen Bildfehler...

Kannst du durch die ganz leicht per CRU Tool modifizierbaren FS-Ranges simulieren.
Aha. Na endlich, hat nur 50 Postings gedauert :up:

So, wenn doch nun der Monitor - bei A-Sync! - Vorgaben macht, die die GPU einzuhalten hat, damit ein Bild angezeigt wird, also die GPU innerhalb der Range bleiben muss, dann ist doch die GPU nicht die maßgebliche Instanz, wann ein Frame über den Displaybus gesendet wird, sondern der Monitor ;)

Ganz simple Logik. Hätte man in zwei Postings abhanden können, wenn manche Leute nur nicht akzeptieren können, dass A-Sync eben doch was ganz anderes als G-Sync ist.

Savay
2018-08-15, 16:07:23
dann ist doch die GPU nicht die maßgebliche Instanz, wann ein Frame über den Displaybus gesendet wird, sondern der Monitor ;)

Ganz simple Logik.

Hääääh?! :facepalm:
Wie Metadaten funktionieren und wofür sie da sind weißt du schon oder?! Zumal die nicht aktiv vom "Monitor" kommen, sondern von dessen *.INF und mit nem profanen Texteditor manipulierbar sind.

Und was soll das davon abgesehen bitte für einen Unterschied machen?! Der Refresh wird bei FS durch das ankommen des Frames im Puffer des Scalers initiiert...d.h. wenn die GPU kein Frame schickt...wird auch nix refresht und wenn es nicht zu dem passt was die Hardware kann, kommt es entsprechend zu Fehlern....um das zu verhindern gibt es die Metadaten, die der Treiber hoffentlich berücksichtigt.
Wo is da bitte der Monitor die "maßgebliche Instanz"?!

Das gleiche passiert doch auch bei G-Sync...nur das die GPU nix von der unteren Grenze wissen muss (von der oberen(!) meines Wissens aber schon!)...weil das LFC auf dem FPGA realisiert wird und nicht über den Treiber. Bei G-Sync ist die Untergrenze in der Firmware des G-Sync Moduls fest einprogrammiert, und jenes sorgt dafür, dass der Refresh nicht seltener stattfindet als er soll.

N0Thing
2018-08-15, 16:10:32
Aha. Na endlich, hat nur 50 Postings gedauert :up:

So, wenn doch nun der Monitor - bei A-Sync! - Vorgaben macht, die die GPU einzuhalten hat, damit ein Bild angezeigt wird, also die GPU innerhalb der Range bleiben muss, dann ist doch die GPU nicht die maßgebliche Instanz, wann ein Frame über den Displaybus gesendet wird, sondern der Monitor ;)

Ganz simple Logik. Hätte man in zwei Postings abhanden können, wenn manche Leute nur nicht akzeptieren können, dass A-Sync eben doch was ganz anderes als G-Sync ist.

Deine Schlussfolgerung ist falsch. Wäre sie richtig, müsste der Monitor ja für den Fall, in dem die GPU nur 1ms für ein neues Bild braucht schon vorher wissen, dass die GPU so schnell fertig sein wird und ein neues Bild anfordern.
Der Monitor gibt die Rahmenbedingungen vor und die GPU entscheidet wann ein neues Bild gesendet/angezeigt wird.

Mangel76
2018-08-15, 16:16:45
Das steht doch in meiner längeren Erklärung vor ein paar Seiten (und auch Allen anderen hier im Thread) drin. Du verstehst offenbar nicht, daß das bloß überhaupt nicht der Punkt ist. Und auch damit bleibt die GPU die entscheidende Instanz.
Allgemein: Nehmen wir eine Range von 40Hz bis 100 Hz (um einfache Zahlen zu haben), also ein Fenster für den Refresh zwischen 10ms und 25ms.



Bitte beantworte meine Frage:

Was passiert nun, in deinem Beispiel, wenn die GPU nur alle 50ms einen Frame an den Monitor sendet.



Die GPU weiß doch, dass nach spätestens 25ms ein neuer Frame erwartet wird. Dauert es bis zum nächsten länger als 25ms, so wird halt der alte rechtzeitig nochmal geshickt und der neue dann, wenn er fertig ist.

Die GPU sendet nicht nur alle 50ms einen Frame, da sie ja weiß, dass mindestens alle 25ms ein Frame erwartet wird!!!

Und der GSync-Monitor macht es doch genauso, nur dass das alte Bild nach spätestens 25ms aus dem Speicher und nicht von der GPU kommt!

Braucht der nächste Frame 40ms zu Berechnung, könnte also z.B. nach (idealerweise) 20ms der Refresh des alten Frames (durch GPU aus Framebuffer oder durch FPGA aus Speicher) erfolgen und nach 40ms schickt die GPU den neuen Frame und das Panel stellt den neuen Frame dar. Genau 0 Unterschied zwischen beiden Vorgehensweisen.

Bucklew
2018-08-15, 16:24:12
Zumal die nicht aktiv vom "Monitor" kommen
Doch, nennt sich EDID. Google das mal.

Wo is da bitte der Monitor die "maßgebliche Instanz"?!
Weil er der GPU Vorgaben macht, die die GPU einhalten muss. Wieso sollte die GPU die maßgebliche Instanz sein und frei entscheiden können, wann ein Frame gesendet wird, wenn Sie die Vorgaben des Monitors einhalten muss?

Die GPU sendet nicht nur alle 50ms einen Frame, da sie ja weiß, dass mindestens alle 25ms ein Frame erwartet wird!!!
Bingo! Wird ja doch langsam mal was, meiner Argumentation zu folgen! :up:

Und der GSync-Monitor macht es doch genauso, nur dass das alte Bild nach spätestens 25ms aus dem Speicher und nicht von der GPU kommt!
Wo macht es denn G-Sync genauso?

A-Sync: GPU MUSS innerhalb der minimalen Refreshrate einen neuen Frame senden.
G-Sync: GPU kann einen Frame senden, wenn dieser fertig ist

Bei A-Sync ist es genauso wie mit traditionellem Sync, bei G-Sync arbeitet der Monitor unabhängig vom Sync der GPU weiter, bis diese den neuen Frame fertig hat.

Der Monitor gibt die Rahmenbedingungen vor und die GPU entscheidet wann ein neues Bild gesendet/angezeigt wird.
Ich bleibe bei meiner Frage: Die GPU entscheidet nach 50ms ein neues Bild zu senden. Was passiert?

(Haben wohl noch nicht alle den Unterschied kapiert ;))

maguumo
2018-08-15, 16:27:42
Edeka hat bei mir von 9 bis 22 Uhr geöffnet. Ich entscheide trotzdem selbst wann ich einkaufen gehe, ich muss das nur innerhalb der vorgegebenen Parameter tun.

Und erneut, stelle doch mal dar wo G-Sync irgendwelche Vorteile hätte und wo genau die herkommen.

hmmm
2018-08-15, 16:31:09
Weil er der GPU Vorgaben macht, die die GPU einhalten muss. Wieso sollte die GPU die maßgebliche Instanz sein und frei entscheiden können, wann ein Frame gesendet wird, wenn Sie die Vorgaben des Monitors einhalten muss?
Die Post hat auch nur Werktags auf, damit entscheidet die Post WANN ich mein Päckchen verschicke? Echt jetzt?
EDIT: ok, zu spät ;) War aber auch meine Entscheidung ;)

Savay
2018-08-15, 16:35:21
Doch, nennt sich EDID. Google das mal.

Mal ne ganz praktische Frage:
Wann hast du eigentlich das letzte mal bei nem FS Monitor die Range modifiziert? :tongue:

Das mit den "Metadaten" für die VRR läuft bei FS etwas anders als du es dir scheinbar vorstellst!


Weil er der GPU Vorgaben macht, die die GPU einhalten muss.

Deine Logik ist schlicht fehlerhaft und konfus...davon abgesehen:
Was zum Henker verstehst du unter "frei entscheiden"?!

Auf ner Landstraße darfst du auch nicht 200 fahren nur weil du es könntest...kannst du deshalb etwa nicht "frei entscheiden" ob du eine beliebige Geschwindigkeit innerhalb des zulässigen Limits fährst? :rolleyes:

Die GPU schickt bei FS das Frame und da wird auch nix vom Monitor gepollt...dementsprechend ist ausschließlich die GPU der Master der den refresh initiiert und Monitor schlicht nur der Slave der die Aktion daraufhin ausführt...
Das sich der Master nicht beliebig über technische Limits des Slaves hinwegsetzen sollte ist doch ne absolute Binsenweisheit, also wieso das Theater?! :freak:

Mangel76
2018-08-15, 16:37:49
Bingo! Wird ja doch langsam mal was, meiner Argumentation zu folgen! :up:


Wo macht es denn G-Sync genauso?

A-Sync: GPU MUSS innerhalb der minimalen Refreshrate einen neuen Frame senden.
G-Sync: GPU kann einen Frame senden, wenn dieser fertig ist

Bei A-Sync ist es genauso wie mit traditionellem Sync, bei G-Sync arbeitet der Monitor unabhängig vom Sync der GPU weiter, bis diese den neuen Frame fertig hat.


Ist das so schwierig zu verstehen? Bei beiden Systemen hat man einen Zwischen-Refresh und nach 40ms gibt es den neuen Frame? Wo ist der Unterschied für dich?

Bei A-Sync refreshed der Monitor doch genau dann, wenn ein Frame (alt oder neu) übertragen wurde!!! Beide stellen nach 40ms den neuen Frame dar!!! Wer den Zwischen-Refresh auslöst (Monitor oder GPU), denn der muss in beiden Fällen passieren, ist doch völlig irrelevant. Die GPU wird doch nicht ausgebremst, weil sie den alten nochmal schicken muss. Es hat also keinen Einfluss auf die Berechnungszeit des neuen Frames und der wird zur selben Zeit geschickt und daher auch zur selben Zeit angezeigt!!!

Mangel76
2018-08-15, 16:44:04
Die GPU sendet nicht nur alle 50ms einen Frame, da sie ja weiß, dass mindestens alle 25ms ein Frame erwartet wird!!!




Bingo! Wird ja doch langsam mal was, meiner Argumentation zu folgen! :up:



Ich bleibe bei meiner Frage: Die GPU entscheidet nach 50ms ein neues Bild zu senden. Was passiert?

(Haben wohl noch nicht alle den Unterschied kapiert ;))

Willst du uns echt trollen? Erst stimmst du zu, dass spätestens alle 25ms ein neuer Frame geschickt wird. Und dann fragst du, was passiert, wenn nur alle 50ms ein Frame geschickt wird? :confused:

Entschuldige, aber dieser Argumentation ist nicht zu folgen!

Bucklew
2018-08-15, 16:52:29
Edeka hat bei mir von 9 bis 22 Uhr geöffnet. Ich entscheide trotzdem selbst wann ich einkaufen gehe, ich muss das nur innerhalb der vorgegebenen Parameter tun.
Sehr gutes Beispiel. Vorgebende Instanz also hier der EDEKA. Wenn du um 8 Uhr da bist, kriegst du nix. Wenn der EDKEA morgen beschließt nur zwischen 10 und 11 Uhr aufzuhaben, kannst du auch nicht um 12 hinkommen.

Also wie schon von mir beschrieben: EDEKA - maßgebliche Instanz (Monitor) - an deren Vorgaben du (GPU) dich halten musst. Ansonsten gibt es eben nix zu kaufen (kein Bild wird dargestellt)

Bei G-Sync kann die GPU auch um 8 Uhr den Frame los schicken ;)

Auf ner Landstraße darfst du auch nicht 200 fahren nur weil du es könntest...kannst du deshalb nicht "frei entscheiden" ob du eine beliebige Geschwindigkeit innerhalb des zulässigen Limits fährst?
Klar kann ich 200 fahren. Wenn mein Auto aber nur 180 zulässt, wo kann ich mich denn dann entscheiden 200 zu fahren?

Beispiel A-Sync: Der Monitor MUSS alle 20ms einen neuen Frame bekommen, weil das seine unterste Range ist. Wo kann die GPU dann entscheiden alle 50ms nur einen zu schicken?

Wer ist da also die Maßgebliche Instanz? Genau: Der Monitor. Weil der die Vorgaben macht, wann die GPU ein Bild zu senden hat. Bei G-Sync ist es umgekehrt. Da sendet die GPU, wenn sie fertig hat und den Rest macht der Monitor selbstständig.

Wenn das kein Unterschied ist, dann weiß ich auch nicht.

Wer den Zwischen-Refresh auslöst (Monitor oder GPU), denn der muss in beiden Fällen passieren, ist doch völlig irrelevant.
Nein, ist es nicht, weil das genau keine Aussage war. Das ist eben genau der Kernpunkt und nicht irrelevant.

Entschuldige, aber dieser Argumentation ist nicht zu folgen!
Dann hast du nicht verstanden, worum es hier geht.

Lies es dann doch erst nach, bevor du hier antwortest.

Toll, wie hier fünf User auf mich eindreschen, aber nicht mal wissen, worum es geht:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11767717#post11767717

Savay
2018-08-15, 16:59:11
Wenn das kein Unterschied ist, dann weiß ich auch nicht.


Der einzige Unterschied ist der, dass bei G-Sync das FPGA Modul mithilfe eines zusätzlichen(!) Framebuffers der Master ist der sich schlicht ebenso an definierte Ober und Untergrenzen halten muss...statt wie bei A-Sync das direkt über die GPU zu erledigen. :rolleyes:

Und du hast sowieso immer noch nicht erklärt wo der praktische technische Vorteil sein soll?! (Abseits davon das die GPUs bei nVs Variante weniger flexibel sein können, weil die eigentliche Arbeit das Modul extern erledigt!)
Du meinst echt die paar Milli-Joule an Energie die man theoretisch beim Betrieb des DP spart würde man nicht durch den irrsinnig ineffizienten und sauteuren FPGA wieder komplett verbraten?! :freak:
Das ist schon ne ziemlich weltfremde Diskussion hier.

Gipsel
2018-08-15, 17:04:30
Sehr gutes Beispiel. Vorgebende Instanz also hier der EDEKA. Wenn du um 8 Uhr da bist, kriegst du nix. Wenn der EDKEA morgen beschließt nur zwischen 10 und 11 Uhr aufzuhaben, kannst du auch nicht um 12 hinkommen.

Also wie schon von mir beschrieben: EDEKA - maßgebliche Instanz (Monitor) - an deren Vorgaben du (GPU) dich halten musst. Ansonsten gibt es eben nix zu kaufen (kein Bild wird dargestellt)

Bei G-Sync kann die GPU auch um 8 Uhr den Frame los schicken ;)Was dann aber auch vor geschlossener Türe warten muß, bis der Laden wieder aufmacht. ;D


Ehrlich Bucklew, laß es gut sein. Ansonsten ärgerst Du Dich irgendwann mal über das, was Du hier geschrieben hast.

Alles, was Du schreibst, was bei A-/FreeSync wegen dem Monitor machen muß, muß im Prinzip auch bei G-Sync (dann halt wegen dem Panel) gemacht werden. Das ist wirklich gehupft wie gesprungen.

Vielleicht könnten wir ja mal Deinen Gedanken auf die Spur kommen, wenn Du mal - wie schon vorgeschlagen - explizit darlegst, wie und unter welchen Umständen ein fertig berechnetes Frame schneller von der GPU auf die Pixel des Bildschirms kommen könnte. Denn immerhin hast Du ja einen niedrigeren Input-Lag behauptet (in dem gerade von Dir verlinkten Post von vor ein paar Seiten).

Bucklew
2018-08-15, 17:04:40
Der einzige Unterschied ist der, dass bei G-Sync das FPGA Modul mithilfe eines zusätzlichen(!) Framebuffers der Master ist der sich ebenso an definierte Ober und Untergrenzen halten muss, statt wie bei A-Sync das direkt über die GPU zu erledigen.
Na siehst du. Genau meine These. Nicht mehr, nicht weniger.

Und du hast immernoch nicht erklärt wo der praktische technische Vorteil sein soll?! (abseits davon das die GPU seitig bei nVs Variante weniger flexibel sein können!)
Hatte ich erläutert. Unter Anderem, dass bereits während des laufenden Refreshes durch den Monitor, bei G-Sync bereits ein neuer Frame übertragen werden kann, während A-Sync noch den alten Frame übertragen muss.

Zeigt sich dann auch am niedrigeren InputLag.

Warum sollten die GPUs weniger flexibel sein?

Savay
2018-08-15, 17:07:00
bei G-Sync bereits ein neuer Frame übertragen werden kann, während A-Sync noch den alten Frame übertragen muss.


Welches dann im G-Sync Modul eh im Framebuffer landet, weil der Refresh ja sowieso nicht beliebig abgebrochen werden kann wenn das Ziel ein gesyncter Betrieb ist! :rolleyes:

Ergo...absolutes Nullsummenspiel...nur mit zusätzlichem Kosten, Energie und Produktionsaufwand auf seiten des "Monitors".
Du hast einfach keinen relevanten Latenzvorteil dadurch.

ndrs
2018-08-15, 17:07:02
Vorschlag: Bastelstunde! Man zerschneide ein Papier in unterschiedlich breite Blöcke für jede Aktion (Panel-Refresh, DP-Übertragung, Renderzeit, ...). Die Blockbreite entspricht der Zeit, die die jeweilige Aktion benötigt. Dazu noch ein Zeitskala und ihr könnt lustig Blöcke hin- und herschieben und versuchen einen Unterschied zwischen GSync und ASync zu finden.

Bucklew
2018-08-15, 17:08:26
Was dann aber auch vor geschlossener Türe warten muß, bis der Laden wieder aufmacht.
Aber dann eben sofort im Laden drin ist.

Womit eben der niedrige InputLag begründet liegt :up:

Ehrlich Bucklew, laß es gut sein. Ansonsten ärgerst Du Dich irgendwann mal über das, was Du hier geschrieben hast.
Ach Gipsel, als ob du solche Tipps geben solltest ;D

Wie war das nochmal mit der Polaris Leistungsaufnahme, die garantiert niemals nie bei 150W liegen wird, sondern ganz, ganz weit darunter? ;)

Schade, dass du aus solch einschneidenden Erfahrungen nicht mal was gelernt hast.

Alles, was Du schreibst, was bei A-/FreeSync wegen dem Monitor machen muß, muß im Prinzip auch bei G-Sync (dann halt wegen dem Panel) gemacht werden. Das ist wirklich gehupft wie gesprungen.
Es ist aber eben ein Unterschied, ob es die GPU oder ob es der MONITOR macht. So dumm kann man nun wirklich nicht sein, um das als völlig irrelevant abzutun.

Vielleicht können wir ja mal Deinen Gedanken auf die Spur kommen, wenn Du mal, wie schon vorgeschlagen explizit darlegst, wie und unter welchen Umständen ein fertig berechnetes Frame schneller von der GPU auf die Pixel des Bildschirms kommen könnten.
Gerne, aber sicherlich nicht dir :up:

Schade, dass man Mods nicht ignorieren kann.

Welches dann im G-Sync Modul eh im Framebuffer landet, weil der Refresh ja eh nicht beliebig abgebrochen werden kann wenn das Ziel ein gesyncter Betrieb ist! :rolleyes:
Aber der Refresh des Panels sofort begonnen werden kann, wenn der alte Refresh durch ist -> Reduzierung des InputLags.

Gipsel
2018-08-15, 17:10:55
Aber dann eben sofort im Laden drin ist.Wenn der Laden um 10 Uhr aufmacht, G-Sync seit 8 Uhr schon sinnlos vor der Tür wartet, Freesync aber direkt um genau 10 Uhr vorbei kommt (weil er die Öffnungszeiten kennt), was genau hast Du dann gewonnen?
Nichts! Beide sind Punkt 10 Uhr im Laden.
Es ist aber eben ein Unterschied, ob es die GPU oder ob es der MONITOR macht.Welchen Unterschied gibt es denn genau? Also für das Anzeigedelay.
Aber der Refresh des Panels sofort begonnen werden kann, wenn der alte Refresh durch ist -> Reduzierung des InputLags.Das geht mit Freesync eben auch. Es gibt kein zusätzliches Delay.
Wenn die GPU mit dem Senden des Frames fertig ist und es in der Zwischenzeit ein neues gibt, wird direkt ohne Pause (Maximalrefreshrate bzw. minimaler Abstand zwischen den Refreshes, der der Zeitdauer eines Refreshes entspricht) mit dem nächsten weitergemacht. Schneller geht es mit G-Sync auch nicht. Es bringt halt nichts, wenn G-Sync schon seit 8 Uhr vor dem geschlossenen Laden wartet (Panelrefresh läuft noch), wenn er erst um 10 Uhr aufmacht und Freesync just in time um 10 Uhr vorbeikommt. ;)

Bucklew
2018-08-15, 17:13:44
Wenn der Laden um 10 Uhr aufmacht, G-Sync seit 8 Uhr schon sinnlos vor der Tür wartet, Freesync aber direkt um genau 10 Uhr vorbei kommt (weil er die Öffnungszeiten kennt), was genau hast Du dann gewonnen?
Nichts!
Aaaahhh... Gipsel lebt wieder in seiner Phantasiewelt ohne Delays, Signallaufzeiten und direkter Ansteuerung von Monitoren ohne zwischengeschaltete Elektronik :rolleyes:

:facepalm:

Mehr sage ich da nicht mehr zu. Dein Bullshit ist entlarvt und nun zündest du schnell wieder ne Nebelkerze, statt einfach mal einzugestehen, dass du Blödsinn gelabert hast, als du hier verzweifelt bei A-Sync die GPU als allein entscheidende Instanz darzustellen :rolleyes:

Mangel76
2018-08-15, 17:16:22
Na siehst du. Genau meine These. Nicht mehr, nicht weniger.


Hatte ich erläutert. Unter Anderem, dass bereits während des laufenden Refreshes durch den Monitor, bei G-Sync bereits ein neuer Frame übertragen werden kann, während A-Sync noch den alten Frame übertragen muss.

Zeigt sich dann auch am niedrigeren InputLag.

Warum sollten die GPUs weniger flexibel sein?
Endlich sehe ich mal dein Punkt! Ist doch aber auch Quatsch. Wenn der Monitor grade den alten Frame refreshed, muss er eh bis zum nächstmöglichen Refresh warten. Bis dahin ist der neue Frame auch bei ASync übertragen, bei GSync liegt er so lange im Speicher rum.

Savay
2018-08-15, 17:16:56
Aber der Refresh des Panels sofort begonnen werden kann, wenn der alte Refresh durch ist -> Reduzierung des InputLags.

Dafür muss es aber erst aus dem lokalen Framebuffer in den eigentlichen Scaler!

Das Übertragen eines Frames dauert offensichtlich eh nicht so lange wie du dir das scheinbar zurecht fantasierst.
Darf es auch gar nicht...sonst wäre ja nen möglichst latenzarmer Betrieb generell absolut unmöglich...insbesondere ungesynct oder mit 240Hz Panels o.ä.

Unicous
2018-08-15, 17:17:06
Warum wird dieses Getrolle eigentlich über Tage toleriert? Andere User hätten schon längst eine Auszeit kassiert für dieses arrogante Gespamme.:rolleyes:

maguumo
2018-08-15, 17:19:26
Aaaahhh... Gipsel lebt wieder in seiner Phantasiewelt ohne Delays, Signallaufzeiten und direkter Ansteuerung von Monitoren ohne zwischengeschaltete Elektronik :rolleyes:


Ich meine da waren wir schon mal. Vielleicht ignorierst du die Posts dazu ja dieses mal nicht wenn man sie dir vor die Nase setzt:

Einfach und halb richtig:
Na so groß ist die Latenz zwischen Karte und Monitor. Das ganze Bild zu übertragen dauert länger, klar - aber maximal 1/refreshrate des Monitors s. Wenn du also mit dem alten Bild refreshen musst ist zum nächst möglichen refresh also definitiv ein neues Bild, falls vorhanden, da.

EDIT: Mal als Beispiel. Ein 8bit 1440p 144Hz Monitor stellt grob alle 7ms ein neues Bild dar. Über DP 1.2 dauert die Übertragung pro Frame grob 5.7ms. Andere Kombinationen aus Auflösung, Farbtiefe und Refreshrate sind da mehr auf Kante genäht, aber die Übertragungszeit pro Frame ist logischerweise nie länger als 1/Hz des Monitors.
Und hier in ausführlich und technisch versierter:

Faustregel für einfache Kabel ist grob halbe Lichtgeschwindigkeit. Lichtgeschwindigkeit sind ~30cm/ns. Ein typisches 1,8m Kabel ergeben also ~12ns reine Signallaufzeit. ;)
Die sind aber in dieser Betrachtung eigentlich unerheblich. Entscheidend ist eher, wie schnell die Elektronik beim Durchreichen der Daten ist. DP ist so gebaut, daß der Panelrefresh mit minimalem Puffern der Daten funktionieren kann. Ein ordentliches Design produziert da nur wenige Mikrosekunden Delay zwischen der Übertragung über das Kabel und der Programmierung der Pixelmatrix des Panels. Die Übertragung per DP funktioniert typischerweise isochron zum Panelrefresh (auch wenn DP paketbasiert ist, die Datenübertragung wird schlicht mit Wartezeiten aufgefüllt ["stuffing"], so daß die Übertragung quasi synchron zum Panelrefresh läuft; bei HDMI ist es traditionell sogar direkt auf den Pixeltakt des Panelrefreshes synchronisiert). Die Daten können also wie vom Monitor erhalten direkt an das Panel durchgereicht werden (gepuffert wird vielleicht eine Zeile [maximal einige wenige, wenn man irgendwelches fancy Zeugs machen will], was bei 144Hz FHD unter 7µs dauert). Es gibt kein wesentliches Delay (bzw. es muß keins geben, was einige TVs da machen, kann man ja nicht als Maßstab nehmen) aus dieser Quelle.
Kurz: Der Panelrefresh vom integrierten Speicher des G-Sync-Moduls geht praktisch auch nicht schneller.


Gab noch ein paar andere.

Unicous
2018-08-15, 17:25:04
Versteht doch, dass er seine eigene Realität und Narrative erschaffen hat in der bei Adapative Sync alle Vorgänge entgegen der Physik (und dem gesunden Menschenverstand) mehrere Millisekunden dauern, bei G-Sync aber alles normal abläuft.:rolleyes:

maguumo
2018-08-15, 17:26:28
Ja, erscheint ziemlich zwecklos. Entweder er trollt oder er ist der Typ der sich auf der Autobahn über die unzähligen Falschfahrer beschwert.

Gipsel
2018-08-15, 17:30:58
Phantasiewelt ohne Delays, Signallaufzeiten und direkter Ansteuerung von Monitoren ohne zwischengeschaltete Elektronik :rolleyes:Du meinst jetzt die Handvoll Nanosekunden Signallaufzeit im Kabel? Welche Latenz hat eigentlich der Speicher auf dem G-Sync-Modul und wieviel Delay produziert das? :rolleyes:
Das ist doch absolut irrelevant.

Und wie Dir schon gesagt wurde, werden die Daten genau so übertragen (egal ob DP oder HDMI) daß man tatsächlich direkt mit den ankommenden Daten on-the fly die Pixelmatrix beschreiben kann (bei einigen Monitoren kann man das sogar direkt sehen, wenn man Bilder mit 1000fps oder so aufnimmt, hängt aber von der genauen Funktionsweise der Panelelektronik [dem Teil, den auch G-Sync nicht ersetzt] ab*).

*:
Sogenannte Top-Bottom Refreshes kann man wie gesagt bei einigen Monitormodellen direkt sehen (sieht im Prinzip aus wie bei einem CRT, das Bild wird zeilenweise von oben nach unten geupdatet). Bei anderen Modellen wird das Bild in eine Art "Backbuffermatrix" programmiert (das dauert wie immer grob 1/max Refreshrate) und auf einen Trigger hin möglichst schnell alle Pixel auf einmal auf den neuen Wert geswitched (bei einigen Samsung geschieht das wohl auch segmentweise). Das beeinflußt aber nur die interne Arbeitsweise des Panels, wie schnell die Pixeldaten zum Panel kommen, ändert sich dabei nicht. Dies kommt manchmal bei neueren Monitoren vor, die BFI/Backlight Strobing (ULMB)/Scanning Backlight oder Ähnliches unterstützen (was also eine bessere Bewegungsschärfe ermöglicht [allerdings im Normalfall nicht mit A-/G-Sync kombinierbar], was aber ein wenig zusätzliches Lag kreiert [weil man das Resultat erst sieht, wenn das komplette Frame geupdated wurde/Top-Bottom-Refresh ist nicht sichtbar]). Aber längst nicht Alle haben das. Man findet auch Kombinationen von zeilenweisem Update und Backlight strobing. Aber das sind Details, die auch unabhängig von A-/G-Sync sind
Edit:.
hD5gjAs1A2s

Bucklew
2018-08-15, 17:54:20
Ich meine da waren wir schon mal. Vielleicht ignorierst du die Posts dazu ja dieses mal nicht wenn man sie dir vor die Nase setzt
Endlich sehe ich mal dein Punkt! Ist doch aber auch Quatsch. Wenn der Monitor grade den alten Frame refreshed, muss er eh bis zum nächstmöglichen Refresh warten. Bis dahin ist der neue Frame auch bei ASync übertragen, bei GSync liegt er so lange im Speicher rum.
Du meinst jetzt die Handvoll Nanosekunden Signallaufzeit im Kabel? Welche Latenz hat eigentlich der Speicher auf dem G-Sync-Modul und wieviel Delay produziert das?
Das ist doch absolut irrelevant.
Jaja, alles irrelevant, Gipsel, und die RX480 zieht deutlich weniger als 150W Leistung (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11066221#post11066221) ;D
63904

maguumo
2018-08-15, 17:58:59
Na das kann man dann wohl als Resignation werten...

Gipsel
2018-08-15, 18:09:45
Ja, er zeigt nochmal genau das, was hier schon diskutiert wurde:
In Anbetracht der unterschiedlichen Renderzeiten der GTX1080 und RX570 (die in den gemessenen Zahlen enthalten sind) zeigt sich eine identische Performance der Sync-Technik innerhalb der Meßtoleranzen. Weder G-Sync noch FreeSync addieren offenbar merklich Input-Lag bei Aktivierung gegenüber VSync off bei fester Refreshrate (eliminieren aber das Tearing).

Edit:
Änderungen der gemessenen mittleren Eingabverzögerung in Millisekunden:
Disziplin|FreeSync|G-Sync
142fps Cap, VRR on vs off@144Hz| +0,28 | -0,06
60fps Cap, VRR on vs off@60Hz| +0,29 | +0,76
Mittelwert| +0,285 | +0,35
Und nun?

hmmm
2018-08-15, 18:21:47
Edit:
Delayänderungen in Millisekunden
Disziplin|FreeSync|G-Sync
142fps Cap, VRR on vs off@144Hz| +0,28 | -0,06
60fps Cap, VRR on vs off@60Hz| +0,29 | +0,76
Mittelwert| +0,285 | +0,35
Und nun?
OMG ist GSync schei... ;)

dargo
2018-08-15, 18:25:43
Warum wird dieses Getrolle eigentlich über Tage toleriert? Andere User hätten schon längst eine Auszeit kassiert für dieses arrogante Gespamme.:rolleyes:
Ich glaube Gipsel hat Spaß dran. :tongue: Ich bewundere jedenfalls immer wieder seine Geduld.

Unicous
2018-08-15, 18:38:09
Ja, ich aber nicht. Jedenfalls nicht tagelang. Der Thread wird in letzter Zeit eh nur noch zugemüllt, da es eben keine wirklichen Neuerungen gibt.

Ob jemand in Zukunft etwas aus dieser ellenlangen "Konversation" ziehen kann wage ich auch zu bezweifeln. Der Mehrwert erschließt sich mir daher nicht.:rolleyes:

Locuza
2018-08-15, 18:44:10
Ich habe das Gefühl wir sind (fast) am Ziel angekommen.
Zwar teile ich die große Abneigung gegenüber Dauergetrolle/Gespamme, ohne ersichtlichen Mehrwert, aber indem Fall habe ich den Eindruck das es sich gelohnt hat.

Und hey, immer mal wieder ein Refresher und im Detail finde ich persönlich nicht verwerflich.

Unicous
2018-08-15, 18:51:09
Da kann man auch den Startpost editieren und die Information dort sammeln, zum Glück stammt der ja von einem Mod.:freak:

Und nein, es hat sich definitiv nicht gelohnt. Denn ich bin mir mehr als sicher, dass hier keine Erkenntnis erfolgt, wie man schon aus den letzten Posts lesen konnte. Der Herr ist unbelehrbar und versucht Dunning-Kruger Style andere zu belehren. Er wird auch nicht eingestehen, dass er falsch liegt. Stattdessen folgen nur noch shitposts (Wobei eigentlich waren es ja alles shitposts) um den Schein zu wahren. Null Selbstreflexion.

Bucklew
2018-08-15, 19:37:01
Weder G-Sync noch FreeSync addieren offenbar merklich Input-Lag
Oha, danke, dass du das genau das sagst, was ich schon vor drei Tagen zu Digidi gesagt hatte:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11767026#post11767026

Und nun?
Hast du belegt, dass du einen sinnlosen Mittelwert bilden kannst.

Effe
2018-08-15, 19:38:28
Dimitri Mayakowsky reloaded.

@Topic: Gibt es irgendein technisches Hindernis, dass Nvidia Adaptive Sync (nach DP-Spec) unterstützen könnte? Ein Treiberupdate könnte doch genügen, oder?

Gipsel
2018-08-15, 19:51:42
@Topic: Gibt es irgendein technisches Hindernis, dass Nvidia Adaptive Sync (nach DP-Spec) unterstützen könnte? Ein Treiberupdate könnte doch genügen, oder?Optimalerweise will man die Display-Engine der GPU so programmieren können, daß die Zwangsrefreshes bei Erreichen des maximal unterstützten Refreshintervalls per Hardwaretimer ausgelöst werden. Softwarelösungen könnten da zu Unzuverlässigkeit neigen. Für LFC ist im Prinzip eine etwas geringere Genauigkeit ausreichend (Triggern durch Treiber wäre wohl meist genau genug). Und die Display-Engine muß überhaupt erst mal flexibel genug sein, die Wartezeit zum nächsten Frame durch VBI-Pakete (Display-Port) bzw. VBI-Signale (HDMI) bis zum nächsten Front-/Backbufferflip flexibel verlängern zu können. Aber das düften nur minimale Änderungen sein, die nV schon längst integrieren konnte. Und daß im Mobilbereich GSync ja auch ohne Modul funktioniert, spricht ebenfalls dafür, daß die da quasi A-Sync bereits unterstützen (und das nur anders nennen).

===========================

Edit @Bucklew:
Oha, danke, dass du das genau das sagst, was ich schon vor drei Tagen zu Digidi gesagt hatte:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11767026#post11767026Du meinst, wo Du bestritten hast, daß das Prinzip von A- und G-Sync das Gleiche wäre? Achja, Du hast Digidis Post verlinkt, das hier war Deine inhaltsreiche Antwort (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11767031#post11767031).

Und ich will ja nicht drauf rumreiten, aber Du stimmst jetzt schon zu, daß A-/FreeSync bei gleichen Ausgangsvoraussetzungen keine höheres Delay als G-Sync liefert, richtig?

Locuza
2018-08-15, 20:19:08
[..]
Hast du belegt, dass du einen sinnlosen Mittelwert bilden kannst.
Die Werte hast du geliefert und man sieht das zwischen G-Sync und FreeSync kein Unterschied bezüglich der Ausgabeverzögerung besteht, dabei wolltest du einem weiß machen das G-Sync Vorteile beim Delay hat.
Welcher Spin kommt jetzt?
Die Werte liefern nicht die Range wo G-Sync angebliche Vorteile hat, du wolltest die Zahlen aber dennoch teilen, weil?
Oder kommt nun einfach ein Mantel des Schweigens?

dargo
2018-08-15, 20:20:30
Ja, ich aber nicht.
Du musst auch mal lockerer werden. ;)

N0Thing
2018-08-15, 20:24:36
@Topic: Gibt es irgendein technisches Hindernis, dass Nvidia Adaptive Sync (nach DP-Spec) unterstützen könnte? Ein Treiberupdate könnte doch genügen, oder?

Scheinbar nicht, sie nutzen Adaptive Sync ja schon schon via eDP in Notebooks, wo man verständlicherweise kein g-sync Modul verbauen will.

Bucklew
2018-08-15, 20:24:42
Du meinst, wo Du bestritten hast, daß das Prinzip von A- und G-Sync das Gleiche wäre?
Genau Gipsel, deshalb antworte ich auf deine Aussage mit dem InputLag.

:facepalm:

Herrje, sollte man als Mod nicht zumindest ausreichend Lesekompetenz haben?

Die Werte hast du geliefert und man sieht das zwischen G-Sync und FreeSync kein Unterschied bezüglich der Ausgabeverzögerung besteht, dabei wolltest du einem weiß machen das G-Sync Vorteile beim Delay hat.
Hat es ja auch. Nur weil man die beim Mittelwert nicht sieht, sind sie ja nicht weniger vorhanden.

(Dass der Vorteil von G-Sync natürlich nicht im oberen Bereich der VRR-Range zu finden ist - wie im Test - sollte natürlich nach allen Ausführungen hier im Thread logisch sein)

Gipsel
2018-08-15, 20:27:51
Hat es ja auch. Nur weil man die beim Mittelwert nicht sieht, sind sie ja nicht weniger vorhanden.Okay, es hat also Vorteile, man kann sie aber nicht messen? :|
Gibt es vielleicht noch eine andere Theorie, so daß man zwischen den beiden per Ockhams Razor entscheiden könnte? Z.B. daß es keinen Performanceunterschied gibt?

Bucklew
2018-08-15, 20:32:51
Okay, es hat also Vorteile, man kann sie aber nicht messen?
Doch, sind sie ja sogar. Du solltest mal G-Sync mit FreeSync vergleichen und nicht nur die Unterschiede innerhalb der Technologien. Ist nämlich ziemlich sinnlos das zu tun.

Locuza
2018-08-15, 20:35:21
[...]
Hat es ja auch. Nur weil man die beim Mittelwert nicht sieht, sind sie ja nicht weniger vorhanden.

(Dass der Vorteil von G-Sync natürlich nicht im oberen Bereich der VRR-Range zu finden ist - wie im Test - sollte natürlich nach allen Ausführungen hier im Thread logisch sein)
Mate, es sind zwei simple Vergleiche okay, einmal zur 144Hz Basis mit Gsync/FreeSync Off und einmal zur 60Hz Basis.
Beim 144Hz Fall hat G-Sync kleine Vorteile (also da wo die Vorteile laut dir nicht zu finden sind), bei 60Hz war es FreeSync, aber beides fällt unter das Spektrum Messungenauigkeit.

Okay, da die Werte deine Behauptungen nicht unterlegen, sind die Werte nutzlos, richtig?
Warum hast du sie also geliefert?

Bucklew
2018-08-15, 20:39:37
In 144Hz Fall hat G-Sync kleine Vorteile (also da wo G-Sync keine haben sollte), bei 60Hz war es FreeSync
Interessant wäre der Bereich ~35 Hz. Das sollte ja nach der Diskussion klar sein.

Ist aber auch egal, die Grundaussage, der ich widersprochen habe, war, dass G-Sync einen höheren Input-Lag hat. Da habt ihr ja nun selbst bemerkt, dass mein Widerspruch da völlig richtig war :up:

maguumo
2018-08-15, 20:41:37
Also waren die Zahlen völlig wertlos und du hast sie nur gepostet um dich aus einer Antwort auf die vorherigen Posts rauszuwinden? Ist auch eine Option wenn einem das letzte Wort wichtiger als der Inhalt ist...

Unicous
2018-08-15, 20:45:58
Ist ein typisches Beispiel von "moving the goalposts". Es wird nicht besser. Es ist erschreckend ohne Ende.:eek:

Gipsel
2018-08-15, 21:06:20
Doch, sind sie ja sogar. Du solltest mal G-Sync mit FreeSync vergleichen und nicht nur die Unterschiede innerhalb der Technologien. Ist nämlich ziemlich sinnlos das zu tun.Vorteile müssen ja von irgendwoher kommen. Bisher hast Du hier wohl noch keinem klarmachen können, wieso das hier der Fall sein sollte.
Und es gibt übrigens auch Tests, die behaupten, daß LFC bei FreeSync-Monitoren mit ausreichend großer Range im Allgemeinen problemlos funktioniert.
Daß Du ursprünglich auch bestritten hast, daß G-Sync und A-/FreeSync auf dem gleichen Funktionsprinzip beruhen, lassen ich jetzt mal durchgehen und nehme an, daß Du da Deine Meinung revidiert hast. Denn die Diskussion entzündete sich ja gerade nicht an dem angeblich höheren Delay von G-Sync (das war eine Einzelmeinung, der ich auch widersprochen habe).

Locuza
2018-08-15, 21:10:22
Interessant wäre der Bereich ~35 Hz. Das sollte ja nach der Diskussion klar sein.

Ist aber auch egal, die Grundaussage, der ich widersprochen habe, war, dass G-Sync einen höheren Input-Lag hat. Da habt ihr ja nun selbst bemerkt, dass mein Widerspruch da völlig richtig war :up:
Wenn der FreeSync Monitor eine vergleichbare Range besitzt und LFC unterstützt, dann wird man auch dort keinen relevanten Unterschied sehen.
Darauf muss man natürlich bei FreeSync achten, da bei Monitoren wo das variable Spektrum von Min-to-Max nicht mindestens Faktor 2 beträgt, LFC nicht unterstützt wird.
Aber die grundlegenden Möglichkeiten sind da, um die selben Resultate wie bei G-Sync mit einem Modul zu erzielen.

Und der Aussage das G-Sync den Input-Lag in die Höhe treibt, dem haben hier die Leute auch widersprochen, du hast den Spin aber noch umgekehrt und gemeint G-Sync hätte in der Hinsicht Vorteile gegenüber FreeSync.

Bucklew
2018-08-16, 09:22:52
Also waren die Zahlen völlig wertlos und du hast sie nur gepostet um dich aus einer Antwort auf die vorherigen Posts rauszuwinden? Ist auch eine Option wenn einem das letzte Wort wichtiger als der Inhalt ist...
Auch meine Zahlen zeigen bereits den Vorteil. Speziell bei 144 Hz, also wenn der DP-Bus fast am Anschlag ist. Dort hat G-Sync den deutlich niedrigeren InputLag als FreeSync.

Daß Du ursprünglich auch bestritten hast, daß G-Sync und A-/FreeSync auf dem gleichen Funktionsprinzip beruhen, lassen ich jetzt mal durchgehen und nehme an, daß Du da Deine Meinung revidiert hast.
Nö, da ist nix revidiert. Dass du dir deine Meinung nicht mit Fakten kaputt machen lässt und meine Frage, die der Unterschied zeigt, einfach mehrfach ignorierst, ist doch nicht mein Problem :up:

Darauf muss man natürlich bei FreeSync achten, da bei Monitoren wo das variable Spektrum von Min-to-Max nicht mindestens Faktor 2 beträgt, LFC nicht unterstützt wird.
Das gibt es meines Erachtens bei G-Sync nicht.

Wie kann das denn sein, wenn doch - laut Gipsel - das Funktionsprinzip identisch ist? ;D

unl34shed
2018-08-16, 09:48:53
Wie kann das denn sein, wenn doch - laut Gipsel - das Funktionsprinzip identisch ist? ;D

Gibt es bei Gsync auch, da es technisch nur so geht. Bist du leicht unter der minimal Frequenz, kommt beim framedoubling wie der Name schon sagt das doppelte raus.

Nvidia macht im Gegensatz zu AMD allerdings die Vorgabe, das min und max mind. Faktor 2 besitzt.

Kartenlehrling
2018-08-16, 09:56:44
Schon 8 Seiten müssen wir den Schwachsinn von Zwei lesen die von Ihre Meinung nicht abrücken,
gibt es überhaupt neueste Test, wo auch auf gleiche Leistungklasse bei den GPU geachte wurden.

Schon ein vergleich Freesync2-HDR gegenüber Nvidia-HDR würde mich interessieren,
im Bereich 30-60Hz (2160p) und 70-100Hz (1440p).

robbitop
2018-08-16, 10:15:53
So ist es. Unter 30 Hz wird Framedoubling bei G-Sync laut NV gemacht.
G-Sync hatte IMO für den Endverbraucher lediglich den Vorteil, dass man so viele wie mögliche Einflüsse (Panel, Ansteuerung des Panels etc) einfach fixiert hat. Dadurch ging man sicher, dass es immer eine entsprechende Range und Framedoubling hat. Dafür waren aber die Kosten höher.
Freesync tat dies nicht - dadurch waren die Ergebnisse eben unterschiedlicher - aber dafür der Einstieg in die Technologie für den Kunden günstiger.
Freesync 2 HDR zieht ja nun auch LFC als Grundvoraussetzung an. Damit dürfte das Mindestgrunderlebnis besser sein.

Ansonsten sehe ich bei vergleichbaren Specs der Monitore (dazu gehört IMO vor allem die Range), keine signifikanten Vorteile für G-Sync.

dargo
2018-08-16, 10:42:39
So ist es. Unter 30 Hz wird Framedoubling bei G-Sync laut NV gemacht.

Das ist aber gelogen. ;) Bzw. trifft nicht auf jeden G-Sync Monitor zu.

Unicous
2018-08-16, 10:43:53
Wir können dann auch langsam von dem Mythos abrücken jeder G-Sync Monitor hätte eine min range von 30 Hz. ;)
Jeder G-Sync Monitor hat garantiert frame-Vervielfachung, wie niedrig die range ist
hängt natürlich vom Panel ab.

Bucklew
2018-08-16, 11:11:21
Das ist aber gelogen. ;) Bzw. trifft nicht auf jeden G-Sync Monitor zu.
Falsch:
https://www.pcper.com/image/view/54615?return=node%2F62655

Man kann also gar nicht davon sprechen, dass G-Sync und A-Sync das identische Funktionsprinzip haben, wenn sie völlig unterschiedlich funktionieren.

Below that 40 FPS mark though things shift. The red line shows how AMD's FreeSync and Adaptive Sync work: the refresh rate stays static at 40 Hz even as the frame rate dips below 40 FPS, to 35 FPS, 30 FPS, etc. G-Sync works differently, doubling the refresh rate and inserting duplicate frames starting at around the 37 FPS mark. This continues until the game frame rate hits 19/20 FPS where a third frame is inserted and the refresh rate is increased again. The result is the dashed line representing the effective experience of G-Sync.

Aber dargo wird uns ja sicherlich gleich einen Beleg dafür liefern, dass es G-Sync Monitore gibt, die das anders machen. Just kidding, ist natürlich nur Troling von ihm ;)

Wir können dann auch langsam von dem Mythos abrücken jeder G-Sync Monitor hätte eine min range von 30 Hz.
Die Min Frequenz von G-Sync ist praktisch 1Hz.

Welche Frequenz das Panel intern fährt ist ja irrelevant für die Technologie der Monitoransteuerung, das ist ne interne Sache des Monitors.

dargo
2018-08-16, 11:14:58
Wir können dann auch langsam von dem Mythos abrücken jeder G-Sync Monitor hätte eine min range von 30 Hz. ;)

Ist eigentlich seit fast 3,5 Jahren bekannt. Aber manche Mythen halten ewig. :D

Screemer
2018-08-16, 11:18:15
Schon 8 Seiten müssen wir den Schwachsinn von Zwei lesen die von Ihre Meinung nicht abrücken,
gibt es überhaupt neueste Test, wo auch auf gleiche Leistungklasse bei den GPU geachte wurden.

Schwachsinn von Zwei? Reiß dich Mal zusammen. Hier wird wenigstens versucht jemandem ohne das entsprechende technische Knowhow zu vermitteln was Phase ist. Das er es nicht verstehen will steht natürlich auf nem anderen Blatt.

So ist es. Unter 30 Hz wird Framedoubling bei G-Sync laut NV gemacht.

Laut Nvidia? Gibt's da mittlerweile ne offizielle Aussage? 2015 als pcper das bei einem Monitor ausgemessen hat war die min. Refreshrate bei 37 (https://youtu.be/VkrJU5d2RfA). Ab 36 gab's framedoubling. Das ist also wohl auch monitorabhängig.

Gipsel
2018-08-16, 11:25:46
Interessant wäre der Bereich ~35 Hz. Das sollte ja nach der Diskussion klar sein.
Auch meine Zahlen zeigen bereits den Vorteil. Speziell bei 144 Hz, also wenn der DP-Bus fast am Anschlag ist. Dort hat G-Sync den deutlich niedrigeren InputLag als FreeSync.Was nun?

Aber nein. Ich habe nicht umsonst öfter mal die Meßungenauigkeiten erwähnt, das Konzept ist hoffentlich zumindest in Grundzügen bekannt.
Also mal die von Dir gepostetn Zahlen:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=63904&d=1534348259
Der systematische Offset von 1-2 ms zwischen dem nV- und AMD-System wird wie erläutert durch die unterschiedliche Geschwindigkeit der GPUs hinreichend erklärt.
Netterweise wird nicht nur immer der Mittelwert jeder Messung angegeben, sondern auch die Maximal- und Minimalwerte. Die Differenz dieser sind ein passabler Schätzwert für die Fehlerbalken einer Einzelmessung. Wenig überraschend liegen diese Werte grob im Bereich des inversen Framerate-Caps bzw. der Refreshrate (das muß es mindestens sein, dazu kommen noch Verzögerungen durch Polling-Delay von Maus/Keyboard und natürlich variable Verzögerungen in der Engine, dem ganzen Softwarestack und dem Rendering, die Meßwerte samplen das halt nur mehr oder weniger gut in stochastischer Weise). Dies ist ja auch verständlich.
Wenn man nun weiß, daß die Ungenauigkeit eines Mittelwertes von N Messungen in etwa mit 1/sqrt(N) skaliert, dann kann man mit ein paar Vermutungen über die Anzahl der Einzelmessungen auch einen Fehlerbalken für den Mittelwert abschätzen. Was ist denn so eine glaubhafte Menge an Einzelmessungen für jedes der Settings? 10 wären vielleicht wenig, aber 20 oder 30 sind doch schon mal ganz gut. 100 wäre vermutlich schon ziemlich hoch angesetzt, aber nehmen wir einfach mal hundert, um auf der sicheren Seite zu sein.
Für den Fall mit 142fps cap ist die Unsicherheit der Einzelmessung mindestens +-3,5ms, der wirkliche Mittelwert (bei unendlich vielen Messungen) liegt also wahrscheinlich innerhalb von +-3,5ms/sqrt(100) = +-0,35ms des angegebenen Wertes. Für die Messungen bei einem 60Hz cap (+-8,4ms für die Einzelmessung) ergeben sich dann logischerweise eine Unsicherheit des angegebenen Mittelwertes von +-0,84ms.
=> Mit den Werten ist die Performance der verschiedenen Sync-Lösungen innerhalb der Fehlergrenzen nicht zu unterscheiden. Weder bei 142Hz noch bei 60Hz Cap.
Wer Lust verspürt, darf das gerne auch mal genau nachrechnen (vielleicht findet sich ja auch irgendwo die Anzahl der Einzelmessungen, die wirklich benutzt wurden), aber dann am besten auch gleich unter Berücksichtigung des Fakts, daß der Großteil der Unsicherheiten nicht normalverteilt, sondern gleichverteilt sein dürften. Aber für so eine grobe Abschätzung habe ich das jetzt mal vernachlässigt.

meine Frage, die der Unterschied zeigt, einfach mehrfach ignorierst,Da wurde Dir bereits von verschiedenen Leuten geantwortet, daß das zu keinem geringeren "Mausklick zu Pixel"-Delay führt.

Das gibt es meines Erachtens bei G-Sync nicht.
Wie kann das denn sein, wenn doch - laut Gipsel - das Funktionsprinzip identisch ist? ;DDas gibt es nur nicht, weil es keine G-Sync Monitore mit einer Range kleiner Faktor 2 gibt. Das hat mit dem Funktionsprinzip Null zu tun.

=================================

edit:
Falsch:
https://www.pcper.com/image/view/54615?return=node%2F62655

Man kann also gar nicht davon sprechen, dass G-Sync und A-Sync das identische Funktionsprinzip haben, wenn sie völlig unterschiedlich funktionieren.Mit LFC bei beiden sieht es wohl wieder ziemlich ähnlich aus. ;)

Bucklew
2018-08-16, 11:26:01
war die min. Refreshrate
Die minimale Refreshrate ist niedriger, wie ja PcPer gezeigt hat.

Welche Frequenz das Panel fährt ist dabei irrelevant.

iuno
2018-08-16, 11:26:38
Falsch:
https://www.pcper.com/image/view/54615?return=node%2F62655

Man kann also gar nicht davon sprechen, dass G-Sync und A-Sync das identische Funktionsprinzip haben, wenn sie völlig unterschiedlich funktionieren.



Aber dargo wird uns ja sicherlich gleich einen Beleg dafür liefern, dass es G-Sync Monitore gibt, die das anders machen. Just kidding, ist natürlich nur Troling von ihm ;)

Damals gabs noch kein LFC, mit dem FS dann genau das selbe Verhalten hat wie G-Sync im Graph (bei einem Panel minimum von 40 Hz und 30 FPS werden 60 Hz gezeigt). Wen willst du hier eigentlich trollen?

Unicous
2018-08-16, 11:30:39
Er trollt sich die ganze Zeit selbst und checkt nicht einmal was gemeint war.

fondness
2018-08-16, 11:31:36
Ansonsten sehe ich bei vergleichbaren Specs der Monitore (dazu gehört IMO vor allem die Range), keine signifikanten Vorteile für G-Sync.

Was heißt hier keine signifikanten, welche Vorteile hat den G-Sync bei den selben Monitorspecs? Die Nachteile sind jedenfalls beachtlich mit dem erheblich höheren Preis, Stromverbrauch, jetzt auch noch aktive Kühlung, weniger Schnittstellen.

Bucklew
2018-08-16, 11:35:00
Das gibt es nur nicht, weil es keine G-Sync Monitore mit einer Range kleiner Faktor 2 gibt. Das hat mit dem Funktionsprinzip Null zu tun.
Laut AMD benötigt LFC Faktor 2,5:
https://www.amd.com/Documents/freesync-lfc.pdf

Wie geht das bei identischem Funktionsprinzip? ;)

Mit LFC bei beiden sieht es wohl wieder ziemlich ähnlich aus.
Beleg?

Damals gabs noch kein LFC, mit dem FS dann genau das selbe Verhalten hat wie G-Sync im Graph (bei einem Panel minimum von 40 Hz und 30 FPS werden 60 Hz gezeigt). Wen willst du hier eigentlich trollen?
Danke nochmal für den Beleg, dass das Funktionsprinzip A-Sync/G-Sync sich unterscheidet :up:

Screemer
2018-08-16, 11:35:08
Die minimale Refreshrate ist niedriger, wie ja PcPer gezeigt hat.

Welche Frequenz das Panel fährt ist dabei irrelevant.
Alter. Es ist sinnlos. Das Panel hat ne min. Refreshrate und die ist schlicht panelspezifisch. Es gibt welche mit 24hz, 30hz oder auch 36hz. Mein uraltes wqhd samsungpanel refreshed ohne Bildaussetzer bis hinab zu 22hz, wenn ich mich richtig erinnere (hab ich für diesen thread vor bestimmt drei Jahren getestet). Die Hersteller geben hier noch einen Puffer ontop um Serienstreuung zu vermeiden. Was pcper gezeigt at ist, dass das Modul bei 37hz min. und deinen 1fps dem Panel 37x den gleichen frame zur Anzeige innerhalb einer Sekunde gibt. Bei 2 FPS 19x (38hz) und bei 18fps eben 54x, da bei letzterem getrippelt wird, da die min. Refreshrate mit *2 nicht erreicht werden würde. Bei da mit lfc ist das keinen Millimeter anders.

Edit: Die minimale Refreshrate ist niedriger, wie ja PcPer gezeigt hat.

Welche Frequenz das Panel fährt ist dabei irrelevant.
Endlich. Wir haben ein grundlegendes Terminologieproblem. Du verstehst die Definition von refreshrate nicht.

Bucklew
2018-08-16, 11:36:53
Alter. Es ist sinnlos. Das Panel hat ne min. Refreshrate und die ist schlicht panelspezifisch.
Die Panelrefreshrate ist bei G-Sync aber unabhängig von der Refreshrate auf dem DisplayPort.

Das unterscheidet eben FreeSync und G-Sync massiv. Wo bei G-Sync der Frame verdoppelt wird, ist keine Frameübertragung notwendig, bei FreeSync aber sehr wohl.

Nichts weiter habe ich die ganze Zeit gesagt. Nun plötzlich, nach 50 Postings, stimmen mir alle zu ohne es zu kapieren ;D

Herrliches Kino!

Unicous
2018-08-16, 11:36:58
Wie lang geht das denn jetzt hier noch weiter?

Gipsel
2018-08-16, 11:38:05
Was heißt hier keine signifikanten, welche Vorteile hat den G-Sync bei den selben Monitorspecs? Die Nachteile sind jedenfalls beachtlich mit dem erheblich höheren Preis, Stromverbrauch, jetzt auch noch aktive Kühlung, weniger Schnittstellen.Na Du könntest argumentieren, daß Du sicherer sein kannst, daß Alles ordentlich funktioniert. Es gibt ja durchaus einige A-Sync-Monitore, bei denen sich die Hersteller nicht gerade mit Ruhm bekleckert haben. Das geht dann allerdings weg vom technischen Funktionsprinzip und A-/-G-/FreeSync-Unterschieden sondern eher zur Qualität der Umsetzung durch den Monitorhersteller.

========================

edit:
Die Panelrefreshrate ist bei G-Sync aber unabhängig von der Refreshrate auf dem DisplayPort.Und wie hier von mehreren Leuten mehrfach beschrieben bringt das keinen Vorteil. Du hast die letzten Seiten des Threads keinen anführen können. Wenn das so weitergeht, kann man das nur noch als Trolling und nicht mehr als Unverständnis der Materie werten.

dargo
2018-08-16, 11:38:09
Ich finds unterhaltsam. ;D

Kriton
2018-08-16, 11:39:47
Ich finds unterhaltsam. ;D

Weil Du es verstehst. Denk mal daran wie viele hier lesen und das nicht einordnen können. Ich bin da voll bei Unicious, auch wenn ich Gipsels Ruhe und Ausdauer (mal wieder) bewundere.

iuno
2018-08-16, 11:41:56
Danke nochmal für den Beleg, dass das Funktionsprinzip A-Sync/G-Sync sich unterscheidet :up:
Natuerlich unterscheidet sich das Funktionsprinzip. Ankommen tut am Panel aber seit inzwischen knapp drei Jahren (wie ausgesprochen ungeschickt von dir, ausgerechnet einen 3,5 Jahre alten Test heranzunehmen) genau dasselbe.

Das unterscheidet eben FreeSync und G-Sync massiv. Wo bei G-Sync der Frame verdoppelt wird, ist keine Frameübertragung notwendig, bei FreeSync aber sehr wohl.
Und die Laufzeit der Signale durch 0,5m Kabel sollen was genau fuer einen Unterschied machen?
Zumal das ja nicht alles ist, sondern das FPGA auch noch irgendeine Latenz hat. Natuerlich sind beide voellig gleich vernachlaessigbar.

dargo
2018-08-16, 11:42:48
Weil Du es verstehst. Denk mal daran wie viele hier lesen und das nicht einordnen können.
Ich denke jeder der halbwegs sich mit dem Thema VRR beschäftigt kann einordnen wer hier in jedem Post Bullshit verbreitet und wer nicht. Oder bin ich da zu naiv? :eek:

Savay
2018-08-16, 11:48:06
Und wie hier von mehreren Leuten mehrfach beschrieben bringt das keinen Vorteil.

Wenn man jetzt noch ganz spitzfindig wäre, könnte man ihm sogar erklären, dass das zitierte sowieso nur auf V-Sync off ohne VRR zutrifft...dann wird nämlich wirklich refresht, egal wann das letzte Frame übertragen wurde. :wink:

robbitop
2018-08-16, 11:49:41
Laut Nvidia? Gibt's da mittlerweile ne offizielle Aussage? 2015 als pcper das bei einem Monitor ausgemessen hat war die min. Refreshrate bei 37 (https://youtu.be/VkrJU5d2RfA). Ab 36 gab's framedoubling. Das ist also wohl auch monitorabhängig.
Wieder was dazugelernt. Danke :)

Was heißt hier keine signifikanten, welche Vorteile hat den G-Sync bei den selben Monitorspecs? Die Nachteile sind jedenfalls beachtlich mit dem erheblich höheren Preis, Stromverbrauch, jetzt auch noch aktive Kühlung, weniger Schnittstellen.
Mir fallen keine ein. :)

Was ist eigentlich aus dem merkbaren Übergang von der nativen Range in die Framedoubling Range geworden? Ich hatte da im Gedächtnis, dass 2015(?) als der MG279Q? rauskam, dass das damals merkbar war in manchen Spielen? :)
War die Implementierung im Treiber von LFC damals ggf noch nicht so ausgereift? Ist es heute besser?

Na Du könntest argumentieren, daß Du sicherer sein kannst, daß Alles ordentlich funktioniert. Es gibt ja durchaus einige A-Sync-Monitore, bei denen sich die Hersteller nicht gerade mit Ruhm bekleckert haben. Das geht dann allerdings weg vom technischen Funktionsprinzip und A-/-G-/FreeSync-Unterschieden sondern eher zur Qualität der Umsetzung durch den Monitorhersteller.

Wobei das ja mit Freesync 2 HDR eigentlich passé sein sollte, oder? Dort ist LFC ja verpflichtend.

dargo
2018-08-16, 11:51:18
Wieder was dazugelernt. Danke :)
What? :| Du hattest das echt verpasst? :eek:

Bucklew
2018-08-16, 11:56:27
Und wie hier von mehreren Leuten mehrfach beschrieben bringt das keinen Vorteil.
Ach jetzt auf einmal ist das Funktionsprinzip doch nicht mehr identisch? :eek:

Das war es noch vor ein paar Stunden:
Daß Du ursprünglich auch bestritten hast, daß G-Sync und A-/FreeSync auf dem gleichen Funktionsprinzip beruhen

Danke, dass du endlich eingestanden hast, hier die ganze Zeit getrollt zu haben, als du mir die ganze Zeit widersprochen hast, dass sich die Prinzipien G-Sync/A-Sync unterschieden :up:

Natuerlich unterscheidet sich das Funktionsprinzip.
Erkläre das mal Gipsel (s.o.) :up:

Hat bei mir 50 Postings gedauert.

robbitop
2018-08-16, 12:00:03
What? :| Du hattest das echt verpasst? :eek:
Eher wohl wieder vergessen. :freak: Ich meine, mich dunkel erinnern zu können...

iuno
2018-08-16, 12:02:32
Es kommt halt darauf an, wo man die Grenze des "Prinzips" sieht. Beide benutzen variables vblank Intervall, beide synchronisieren so die Ausgabe des Monitors mit den berechneten Frames. Die Funktionsweise unterscheidet sich natuerlich im Detail, ohne dass es hinterher fuer den Nutzer einen Unterschied macht (ausser halt im Geldbeutel). Wenn du dich dafuer ruehmst, fuer solche Wortklauberei 50 Posts rausgehauen zu haben, dann herzlichen Glueckwunsch.

Was ist eigentlich aus dem merkbaren Übergang von der nativen Range in die Framedoubling Range geworden? Ich hatte da im Gedächtnis, dass 2015(?) als der MG279Q? rauskam, dass das damals merkbar war in manchen Spielen? :)
War die Implementierung im Treiber von LFC damals ggf noch nicht so ausgereift? Ist es heute besser?
Die Erfahrung hatte ich damals mit dem Monitor auch gemacht (custom range auf 56-144, bei FPS Schwankungen von 50-80 oder so, also denkbar unguenstig). Ist aber sehr schnell viel besser geworden. Damals hatte ich vor allem Battlefront gespielt, da hat man es anfangs gemerkt, kurz darauf aber ueberhaupt nicht mehr. Ich weiss nicht, ob die Problematik am Spiel oder in der LFC Heuristik lag. Ich habe auch seit ein paar Monaten kein Windows mehr installiert um das kurzfristig nochmal mit ein paar Titeln zu testen.

robbitop
2018-08-16, 12:03:23
@iuno
So würde ich es auch sehen.

Bucklew
2018-08-16, 12:07:09
Es kommt halt darauf an, wo man die Grenze des "Prinzips" sieht. Beide benutzen variables vblank Intervall, beide synchronisieren so die Ausgabe des Monitors mit den berechneten Frames. Die Funktionsweise unterscheidet sich natuerlich im Detail, ohne dass es hinterher fuer den Nutzer einen Unterschied macht
Die komplette Aufhebung der bisher (und bei FreeSync immer noch vorhandenen) Zwangsläufigkeit zwischen GPU- und Panel-Refresh halte ich für mitnichten ein "Detail". Das ist sogar eine der wichtigsten Prinzipien in diesem ganzen Konstrukt.

Der G-Sync Monitor kann autark von der GPU das Panel refreshen. A-Sync kann das nicht. Das soll ein Detail sein? Nein, mitnichten.

(Und die 50 Posts gehen wohl eher auf das Konto eines Trolls, nicht auf Meins ;))

iuno
2018-08-16, 12:08:48
Dann erklaere mir doch mal bitte was es fuer dich fuer einen Unterschied macht, der es ueber die Stufe eines Implementierungsdetails hebt.

aufkrawall
2018-08-16, 12:08:53
Die Funktionsweise unterscheidet sich natuerlich im Detail, ohne dass es hinterher fuer den Nutzer einen Unterschied macht (ausser halt im Geldbeutel).
Wobei sich allerdings kaum jemand die Mühe macht, zu testen, ob das Overdrive mit FreeSync genau so gut funktioniert wie ohne. Auch das muss der Hersteller des FS-Monitors selbst einbauen, während das bei Gsync das Modul (oder ein anderweitiges Zusammenspiel) automatisch macht.
Wobei ich annehmen würd, dass mit moderat ausgewählter OD-Stufe das Problem eh nicht so schlimm ist.
Auch funktionieren wohl immer noch weniger Spiele mit in-game fps Limiter als bei Gsync, wobei sich leider auch hier niemand die Mühe macht, das genauer zu testen.

Bucklew
2018-08-16, 12:11:45
Dann erklaere mir doch mal bitte was es fuer dich fuer einen Unterschied macht, der es ueber die Stufe eines Implementierungsdetails hebt.
Das hatte ich bereits im vorherigen Posting erklärt.

iuno
2018-08-16, 12:13:10
Nein, denn ob der Refresh vom G-Sync Modul aus kommt oder von der Display Engine der GPU macht in der Praxis rein gar keinen Unterschied, womit es ein Implementierungsdetail bleibt.

dargo
2018-08-16, 12:15:18
Auch funktionieren wohl immer noch weniger Spiele mit in-game fps Limiter als bei Gsync, wobei sich leider auch hier niemand die Mühe macht, das genauer zu testen.
Ein Fakt der auf Vermutungen basiert? Nett...

Bucklew
2018-08-16, 12:15:33
Nein, denn ob der Refresh vom G-Sync Modul aus kommt oder von der Display Engine der GPU macht in der Praxis rein gar keinen Unterschied, womit es ein Implementierungsdetail bleibt.
Ist in der Implementierung aber kein Detail.

Und den Unterschied in der Praxis sieht mehr sehr wohl. Deshalb kann jeder G-Sync Monitor LFC, während es bei FreeSync nur ein Bruchteil der Monitore kann. Selbst heute noch:
https://preisvergleich.golem.de/?cat=monlcd19wide&xf=11992_Adaptive+Sync%2FAMD+FreeSync

316 FreeSync Monitore - 50 mit LFC Support.

Nicht mal 15% der verfügbaren Monitore unterstützten das sicherlich entschiedenste adaptive Sync Feature.

aufkrawall
2018-08-16, 12:19:18
Ein Fakt der auf Vermutungen basiert? Nett...
Du bist ja offenbar zu faul, das weiter zu testen. Von wem stammt denn die Aussage, es gäbe mit FS damit Probleme? Richtig, von dir...

iuno
2018-08-16, 12:19:33
Das hat mit der Technologie aber nichts zu tun. Der Monitor muss nicht LFC explizit unterstuetzen, sondern nur eine Spanne, die breit genug dafuer ist. Das liegt in der Natur der Sache.

Wir diskutieren hier nicht darueber, ob es mehr Schrottmonitore mit FreeSync gibt als mit G-Sync. Wir diskutieren darueber, ob es mit beiden Technologien moeglich ist, das gleiche Ergebnis zu erzielen. Und das ist der Fall.

Dafuer, dass Nvidia das Angebot filtert, werden halt 150 € faellig. Wer das nicht braucht, kann auch einen guten FreeSync Monitor kaufen.

Auch funktionieren wohl immer noch weniger Spiele mit in-game fps Limiter als bei Gsync, wobei sich leider auch hier niemand die Mühe macht, das genauer zu testen.
Woher kommt die Info?
Und was heisst Probleme? Funktioniert der Limiter nicht oder geht mit Limiter die Synchronisation kaputt?
Die einzigen Spiele die ich mit Limiter gespielt habe waren IIRC Overwatch und Rocket League. Das ist natuerlich keine riesige Basis aber da gab es zumindest keine Probleme.

aufkrawall
2018-08-16, 12:24:02
Woher kommt die Info?

Von dargo. Der meinte auch, dass es mit VRR allgemein nicht ginge, bis ich dann mit Gsync in BF4 das Gegenteil erleben durfte... :freak:
(Vorher schon TurricanM3 das testen lassen, der zu dem gleichen Ergebnis kam. Hatte dargo natürlich nicht interessiert...)


Und was heisst Probleme? Funktioniert der Limiter nicht oder geht mit Limiter die Synchronisation kaputt?

Wohl Letzteres.


Die einzigen Spiele die ich mit Limiter gespielt habe waren IIRC Overwatch und Rocket League. Das ist natuerlich keine riesige Basis aber da gab es zumindest keine Probleme.
Ich hatte im WoW Thread auch um einen Test mit in-game Limiter gebeten, da gabs mit FreeSync auch keine Probleme. Was langsam vermuten lässt, dass das, was dargo irgendwann mal getestet hatte (er sagt ja nichts genaueres...), wohl nicht der Weißheit letzter Schluss war...

Savay
2018-08-16, 12:35:41
Und den Unterschied in der Praxis sieht mehr sehr wohl. Deshalb kann jeder G-Sync Monitor LFC.

Du missverstehst da was vollkommen...nicht wegen des FPGA Moduls geht bei G-Sync LFC immer, sondern weil die Panels+Treiber(!) so ausgelegt sind das sie immer einen Faktor >=2 bei der Refreshrange unterstützen!

Das ist eine technische Auslegung der Monitore die von Anfang an als obgligatorisch bei G-Sync festgelegt wurde damit das Label verteilt wird...das hat überhaupt nichts damit zu tun wo die Vervielfachung stattfindet.
Wenn du das G-Sync Modul mit nem Panel koppeln würdest, das diesen Faktor eben technisch nicht erfüllen kann, hättest du exakt genau die gleichen Einschränkungen wie mit einem äquivalenten FS Monitor. (würdest als Hersteller aber auch nicht das Bapperl aufkleben dürfen!) Das FPGA hat da am Ende schlicht null komma null Einfluss drauf was ein gegebenes Panel fehlerfrei darstellen kann und was nicht. :freak:

Noch dazu wird gar nicht die konkrete Refreshrange der Panels angegeben sondern das was das G-Sync Modul annimmt...das ist aber nicht zwingend das, was tatsächlich physikalisch bei einer bestimmten Bildrate auf dem Panel dargestellt wird!
Insofern ist das wesentlich in-transparenter als bei FS...


Nicht mal 15% der verfügbaren Monitore unterstützten das sicherlich entschiedenste adaptive Sync Feature.

Als ob LFC tatsächlich das "entschiedenste" Feature wäre! :rolleyes:

Das hängt ja wohl "extremst" von der Range und den Min-Hz im VRR betrieb ab ob es relevant ist oder nicht!
Bei meinem UHD Monitor habe ich LFC noch nie(!) vermisst...ich will eh nicht unterhalb von 35-40FPS zocken! (Never ever!)
Dann stellt ich die Settings halt so ein das im Worst-Case immer >35FPS rauskommen und gut ist....problem solved. :P (wofür gibt es die Settings denn sonst?!)

Wenn die Min-Hz bei 50 liegen...das max. aber nur bei 90 ist es halt Mist ohne LFC...das ist halt so...shit happens...

So und jetzt kannst du BTW eh gerne mal die 144Hz+ FreeSync Monitore raussuchen die kein LFC unterstützen.
Davon abgesehen gibt es weitaus mehr FS Monitore als G-Sync Modelle, noch dazu bedeutend mehr Entry-Level Modelle...weshalb so ne relative Auswertung einfach nur irreführend ist und zudem technisch überhaupt keine Aussagekraft hat.

dargo
2018-08-16, 12:46:39
Du bist ja offenbar zu faul, das weiter zu testen. Von wem stammt denn die Aussage, es gäbe mit FS damit Probleme? Richtig, von dir...
Warum sollte ich auch alles testen wenn ich es nicht brauche? Bezahlst du mich auch für die verlorene Lebenszeit?

btw.
Wie alt ist eigentlich mein Statement dazu wo ich das behauptet hatte?

aufkrawall
2018-08-16, 12:49:40
Warum sollte ich auch alles testen wenn ich es nicht brauche? Bezahlst du mich auch für die verlorene Lebenszeit?

btw.
Wie alt ist eigentlich mein Statement dazu wo ich das behauptet hatte?
Dafür verweise ich ebenfalls auf das Argument der verlorenen Lebenszeit.
Ist aber schon ulkig, wie dein Gedächtnis imstande ist, unkomfortable Erinnerungen einfach auszusortieren.

dargo
2018-08-16, 12:50:45
Von dargo. Der meinte auch, dass es mit VRR allgemein nicht ginge, bis ich dann mit Gsync in BF4 das Gegenteil erleben durfte... :freak:
(Vorher schon TurricanM3 das testen lassen, der zu dem gleichen Ergebnis kam. Hatte dargo natürlich nicht interessiert...)

Spätestens hier dürfte dir aufgefallen sein, dass es geht. Treiber entwickeln sich nun mal weiter. ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11765008&postcount=17

Ob das auch tatsächlich auf jedes Spiel so übertragbar ist... keine Ahnung. Ich nutze einen Framelimiter nie beim Spielen. Außer ich möchte ein Video aufnehmen.

aufkrawall
2018-08-16, 12:51:35
Ich bin gerne bereit, meine Meinung zu ändern. Bzw. habe ich das schon. Ein weiterer Pluspunkt für Navi.

Unicous
2018-08-16, 13:09:10
Warum hat noch niemand den FUD von Bucklew korrigiert, dass LFC 2,5fache Range braucht?

Wie lange soll denn diese Seifenoper noch laufen, bis sie abgesetzt wird?:confused:

Savay
2018-08-16, 13:12:21
Warum hat noch niemand den FUD von Bucklew korrigiert, dass LFC 2,5fache Range braucht?


Hatte ich schon...war aber nur nen Einzeiler und ist deswegen vlt. untergegangen. :wink:

Bucklew
2018-08-16, 13:15:07
Wir diskutieren hier nicht darueber, ob es mehr Schrottmonitore mit FreeSync gibt als mit G-Sync. Wir diskutieren darueber, ob es mit beiden Technologien moeglich ist, das gleiche Ergebnis zu erzielen. Und das ist der Fall.
Wenn nur ein kleiner Bruchteil der tatsächlich erhältlichen Monitore LFC unterstützt, dann sollte man nicht so tun, als könnten alle Monitore LFC und das wäre ja ein Ding der Vergangenheit.

Da darf man sich dann auch nicht wundern, warum die Kunden hinterher G-Sync kaufen, wenn man die Marke FreeSync mit Schrott dermaßen vor die Wand fährt.

Ich dachte FreeSync wäre eine geschützte Marke von AMD und da gibt es eine Zertifizierung für? :eek:

Du missverstehst da was vollkommen...nicht wegen des FPGA Moduls geht bei G-Sync LFC immer, sondern weil die Panels+Treiber(!) so ausgelegt sind das sie immer einen Faktor >=2 bei der Refreshrange unterstützen!
Das ist einfach Quatsch, NVIDIA muss (dank Modul) überhaupt gar nichts am Treiber machen, um LFC zu unterstützen. Dies geschieht rein im Monitor selbst.

Das war ja auch genau der Unterschied, den ich hier herausstellen wollte und der von Einigen versucht wurde vehement wegzudiskutieren :up:

Warum hat noch niemand den FUD von BucklewAMD korrigiert, dass LFC 2,5fache Range braucht?
Fixed that for you :up:

Wahrscheinlich weil AMD irgendwie schwer zu widerlegen ist ;D

Savay
2018-08-16, 13:18:21
Das ist einfach Quatsch, NVIDIA muss (dank Modul) überhaupt gar nichts am Treiber machen, um LFC zu unterstützen. Dies geschieht rein im Monitor selbst.

Das war ja auch genau der Unterschied, den ich hier herausstellen wollte und der von Einigen versucht wurde vehement wegzudiskutieren :up:



Oh Boy! :facepalm: Nicht der Grafikkartentreiber sondern die Gate-Treiber (https://de.wikipedia.org/wiki/Gate-Treiber) die die LCDs ansteueren. :lol:

Oder was glaubst du mit welcher Magie dein G-Sync Modul das Panel dazu bringt irgendwas sinnvolles darzustellen?

Unicous
2018-08-16, 13:20:59
Du beziehst dich auf veraltete Dokumente und versuchst hier einen Kackewerfwettbewerb zu gewinnen.

Traurig genug, dass man das hier tolereriert, noch trauriger, dass du nicht merkst, wie du dich hier aufführst. Wie in einem Kindergarten.:rolleyes:

Ich verstehe nicht wie solch einem asozialen und autistischen Verhalten einfach zugesehen wird, während der Thread den Bach runtergeht.

Bucklew
2018-08-16, 13:21:00
Oh Boy! :facepalm: Nicht der Grafikkartentreiber sonder den Gate-Treibern (https://de.wikipedia.org/wiki/Gate-Treiber) die die LCDs ansteueren.
Selber :facepalm: wenn du dich nicht anständig ausdrückst.

Du beziehst dich auf veraltete Dokumente und versuchst hier einen Kackewerfwettbewerb zu gewinnen.
Na dann verlinke doch mal das aktuelle Dokument, statt hier nur Blödsinn und Flames vom Stapel zu lassen.

Könntest du wenigstens mal ausnahmsweise einen konstruktiven Beitrag zur Diskussion leisten :Up:

Kartenlehrling
2018-08-16, 13:21:13
Als ob LFC tatsächlich das "entschiedenste" Feature wäre! :rolleyes:

Das hängt ja wohl "extremst" von der Range und den Min-Hz im VRR betrieb ab ob es relevant ist oder nicht!
Bei meinem UHD Monitor habe ich LFC noch nie(!) vermisst...ich will eh nicht unterhalb von 35-40FPS zocken! (Never ever!)
Dann stellt ich die Settings halt so ein das im Worst-Case immer >35FPS rauskommen und gut ist....problem solved. :P (wofür gibt es die Settings denn sonst?!)
Wenn die Min-Hz bei 50 liegen...das max. aber nur bei 90 ist es halt Mist ohne LFC...das ist halt so...shit happens...

So und jetzt kannst du BTW eh gerne mal die 144Hz+ FreeSync Monitore raussuchen die kein LFC unterstützen.



Gutes Beispiel ist jetzt Samsung QLED TV (>2018), UHD 2160p ist die VRR 48-60Hz, 1080p soll es 20!! - 120Hz sein laut USA Testseite.
Ich habe genug Consolenspiele auf PS4 und XBoxXYYY gesehen wo die FPS unter 48fps rutschen, das macht VRR in diesem Fall unbrauchbar,
gerade in einen Bereich die nach VRR schreit, man kann da nichts am Setting ändern.


Native Refresh Rate: 120 Hz
Variable Refresh Rate: FreeSync
4k VRR Maximum: 60 Hz
4k VRR Minimum: 48 Hz
1080p VRR Maximum: 120 Hz
1080p VRR Minimum: < 20 Hz
VRR Supported Connectors: HDMI
https://www.rtings.com/tv/reviews/samsung/q9fn-q9f-q9-2018

Bucklew
2018-08-16, 13:25:32
Ich habe genug Consolenspiele auf PS4 und XBoxXYYY gesehen wo die FPS unter 48fps rutschen, das macht VRR in diesem Fall unbrauchbar,
gerade in einen Bereich die nach VRR schreit, man kann da nichts am Setting ändern.
Danke, genau das meine ich.

Hätte ich das geschrieben, wäre das wieder nur Getrolle gewesen :rolleyes:

Savay
2018-08-16, 13:29:42
Selber :facepalm: wenn du dich nicht anständig ausdrückst.

Ich hätte jetzt gedacht, da ich konkret von Panel(!)+Treiber schrieb und im selben Satz weiterhin von der Fähigkeit sprach das beide (in Personalunion) fehlerfrei mit einem bestimmten Faktor zwischen min und max. refresh arbeiten müssen, das es klar wäre das hier die Hardware gemeint ist.

Aber wenn für dich das alles eigentlich eher nur Blackboxen sind in denen irgendwas mysteriöses passiert, ist es ja klar wieso wir diese ellenlange Diskussion haben. :wink:

Danke, genau das meine ich.
Hätte ich das geschrieben, wäre das wieder nur Getrolle gewesen :rolleyes:

Wie viele G-Sync fähige Fernseher kennst du eigentlich die es besser machen?! :biggrin: (und hast du auch die passende Konsole dazu?!)

Zudem widerspricht es nicht meiner zitierten Aussage, sondern bestätigt sie nur. :tongue:

1080p soll es 20!! - 120Hz sein laut USA Testseite.

Das BTW kann wohl kaum auf Hardwareebene(!) stimmen und wird so ne wischiwaschi aussage wie die übliche Angabe für G-Sync sein... :biggrin:
Unter FHD werden es wohl eher echte 48-120Hz sein die das Panel kann wenn es unter UHD das 48Hz Limit gibt (die 60Hz nach oben kommen halt durch die Schnittstelle(!))...da zieht nämlich locker LFC und die 20FPS laufen dann intern ziemlich sicher mit 60Hz (oder 80 oder 120)

Aber da man mit der aktuellen Konsolengeneration eh nicht wirklich nativ in UHD spielen kann wüsste ich nicht was dagegen spricht einfach FHD zu nutzen und die LFC fähige Range mitzunehmen. Problem solved! :tongue:
Sobald die PS5 und XB Next da sind die wirklich UHD tauglich werden dürften, gibt es sicher auch TVs mit HDMI 2.1...spätestens dann ist das Problem gegessen.

Unicous
2018-08-16, 13:36:56
Ich brauche nichts zu verlinken, es gibt genug Monitore die LFC mit 2facher min. Range beherrschen.

Die 2,5 waren eine Sicherheitsmarge die von AMD vorgegeben wurde. Gibt auch genug Range-Mods die zeigen, dass LFC bei einem "nicht"-LFC fähigen Monitor aktiviert wird sobald die Spanne auf die zweifache Min Range erhöht wurde.
Iirc hatte das sogar ein Mitarbeiter bei einem PCPer? Interview erzählt, dass 2fach geht, sie aber anfangs 2,5fach zur Sicherheit genommen haben.

Wenn du kein Realitäts- und Logikverweigerer wärst, würde dir auch klar sein, dass es keine technische Limitation geben kann.

Auch gibt es keine feste Min Range bei Adaptive. Das ist eine VESA Spec die auf die Realitäten des Marktes abzielt. Es gibt bislang keine bzw. so gut wie keine Panels die in der Lage sind im einstelligen Bereich zu refreshen daher die künstliche Begrenzung seitens VESA auf 9-240Hz.

All das über das du dich hier mokierst und echauffierst sind Limitationen der Monitorhersteller. Manche durch pure Dummheit, manche durch pure Habgier. Dass es auch anders geht zeigen kleine Firmen wie Nixeus, oder das ein oder andere "Premium"-Modell der Monitorhersteller.

Bucklew
2018-08-16, 14:02:09
Ich hätte jetzt gedacht, da ich konkret von Panel(!)+Treiber schrieb und im selben Satz weiterhin von der Fähigkeit sprach das beide (in Personalunion) fehlerfrei mit einem bestimmten Faktor zwischen min und max. refresh arbeiten müssen, das es klar wäre das hier die Hardware gemeint ist.
Man könnte ja auch einfach mal eingestehen sich ungenau ausgedrückt zu haben, statt den Fehler bei Anderen zu suchen.

Peinlicher Auftritt von dir.

Aber wenn für dich das alles eigentlich eher nur Blackboxen sind in denen irgendwas mysteriöses passiert, ist es ja klar wieso wir diese ellenlange Diskussion haben.
Und noch einen oben drauf, weil du sonst keine Argumente hast.

Mein Mitleid :)

Wie viele G-Sync fähige Fernseher kennst du eigentlich die es besser machen?!
Welchen großen Unterschied soll es deiner Meinung nach zwischen Fernseher und Monitor geben?

Außer vielleicht das DVB-C/S/T Modul?

Ich brauche nichts zu verlinken, es gibt genug Monitore die LFC mit 2facher min. Range beherrschen.
Tipp: Beschwere dich bei AMD :)

Wenn du kein Realitäts- und Logikverweigerer wärst, würde dir auch klar sein, dass es keine technische Limitation geben kann.
Offensichtlich gibt es eine ziemliche große Limitation bei FreeSync, sonst wäre nicht ein kleiner Bruchteil der Monitore (nicht mal 15%) LFC-fähig.

Locuza
2018-08-16, 14:04:20
Wenn nur ein kleiner Bruchteil der tatsächlich erhältlichen Monitore LFC unterstützt, dann sollte man nicht so tun, als könnten alle Monitore LFC und das wäre ja ein Ding der Vergangenheit.

Da darf man sich dann auch nicht wundern, warum die Kunden hinterher G-Sync kaufen, wenn man die Marke FreeSync mit Schrott dermaßen vor die Wand fährt.
[...]
Ein Monitor mit einer variablen Refreshrate von 40-60Hz ohne LFC ist besser, als ein Monitor mit einer fixen Refreshrate von 60Hz.
Als Kunde habe ich lieber diesen freien Markt, wo 300 Monitore FreeSync unterstützen, anstatt nur 50.
Es ist zwar ein Zoo, aber so ist das Angebot wesentlich reichhaltiger und umfasst viele unterschiedliche Preisbereiche.

Savay
2018-08-16, 14:11:57
Und noch einen oben drauf, weil du sonst keine Argumente hast.

Mir tut es leid...nur lässt die Art wie du hier unbelehrbar in deiner Blase an jeglichen technischen Fakten vorbei argumentierst keinen anderen Schluss mehr zu. :smile:


Welchen großen Unterschied soll es deiner Meinung nach zwischen Fernseher und Monitor geben?

Zumindest erstmal den das es keinen mit G-Sync gibt.
Davon abgesehen gibt es keinen...LFC wird hier unter UHD aber schlicht durch die Limits von HDMI 2.0 verhindert.


Tipp: Beschwere dich bei AMD :)


Worüber sollte er sich denn beschweren?! Verstehe ich nicht! :freak:


Offensichtlich gibt es eine ziemliche große Limitation bei FreeSync, sonst wäre nicht ein kleiner Bruchteil der Monitore (nicht mal 15%) LFC-fähig.

Sorry aber solche Aussagen beweisen einfach nur das du entweder hart trollst oder schlicht nicht verstehst was technisch passiert oder welche Voraussetzungen auf Hardwareebene für funktionierendes LFC gegeben sein müssen.
Und da ich dir wirklich keine Böswilligkeit unterstellen will, bleibt ja nur noch eine Möglichkeit.

Bucklew
2018-08-16, 14:14:04
Ein Monitor mit einer variablen Refreshrate von 40-60Hz ohne LFC ist besser, als ein Monitor mit einer fixen Refreshrate von 60Hz.
Als Kunde habe ich lieber diesen freien Markt, wo 300 Monitore FreeSync unterstützen, anstatt nur 50.
Es ist zwar ein Zoo, aber so ist das Angebot wesentlich reichhaltiger und umfasst viele unterschiedliche Preisbereiche.
Und manche Kunden bezahlen eben lieber die 100€ Aufpreis, um ein vernünftiges Erlebnis zu haben.

Für einen Großteil der 300 Monitore ist der A-Sync doch einfach nur ne Checkbox auf der Featureliste. Wer dann wirklich einen Gamingmonitor kauft, legt sowieso einiges an Geld mehr auf den Tisch.

Savay
2018-08-16, 14:18:57
Definiere "vernünftiges" Erlebnis. :lol:

LFC alleine ist mir für einen UHD Monitor definitiv keine 300€ Aufpreis wert...da es eh nur im komplett unspielbaren Bereich eine Rolle spielt und somit schlicht keinen praktischen Nutzbaren Mehrwert darstellt.

Bei anderen Ranges/FPS-Targets sieht das ggf. anders aus aber das kann man ja wohl auch bewusst auf Fall zu Fall Basis entscheiden.

Unicous
2018-08-16, 14:21:20
Ich beschwere mich bei dir Bucklew, der diesen Thread gekapert hat für seine eigene FUD-Agenda während all deine "Fakten" (und sind wir ehrlich, du bleibst so vage das man kaum die Schemen deiner Argumentationskette erkennen kann) die du hier vermeintlich als einzige Wahrheit verbreitest schon lang und breit diskutiert wurden. Dass sich Specs ändern, dass sich Treiberverhalten ändert, das hoffe ich kapierst sogar du. Dass das nicht immer vom Hersteller dokumentiert wird, sollte auch klar sein, denn Vieles wird nur durch Zufall entdeckt.

Dass du nicht einmal weißt, dass es z.B. schon ewig LFC-Monitore gibt die nur eine 2fache Range brauchen obwohl eben dies in diesem Thread zigfach durchgekaut wurde und du dann auf ein 2 1/2 Jahre altes Dokument (oder auch ein Video, oder einen input lag Vergleich zweier Monitore, wie es dir eben gerade passt und wie weit die Pfostenabstände noch vergrößert werden sollen) verweist, zeigt, dass dir gar nicht daran gelegen ist Fakten zu erläutern. Du versuchst hier krampfhaft zu "gewinnen" (bzw. siehst dich bizarrerweise als Gewinner, wie ein Läufer der noch eine Runde zu laufen hat und die Arme in Siegerpose ausstreckt). Aber hier gibt es nichts zu gewinnen. Das einzige was du hier schon längst verloren hast ist jeglicher Respekt dir gegenüber.

Gipsel
2018-08-16, 14:22:29
Sorry Leute, aber ich ziehe hier wohl mal lieber die Notbremse. Es ist ja ganz offensichtlich, daß es hier so kaum noch zu einer Einsicht kommen wird. Lassen wir der Sache mal ein wenig Zeit, eventuell wirken einige Argumente ja langsamer.

Edit:
Wieder auf. Dann hoffen wir mal, daß es jetzt besser weiter geht.

Kartenlehrling
2018-08-24, 00:10:15
06.06.2018
Auf der CES wurden das BFGD (Big Format Gaming Display) erstmals gezeigt und
nun hat Nvidia auch einen Release-Termin in Aussicht gestellt. Einen Preis gibt es nach wie vor nicht, ....

Release-Termin gab es nicht. Man sprach immer von "later this year".
Nvidia hat aber nun in Aussicht gestellt, dass die Geräte von Acer, Asus und
HP bis Ende des Jahres auf den Markt kommen sollen.
Das wäre dann wohl passend zum Weihnachtsgeschäft.


23.08.2018
nix dieses Jahr... in einer fernen Zukunft :P
hauptsache man arbeitet noch am 144Hz Over and Overclocking


http://www.pcgameshardware.de/Monitor-Display-Hardware-154105/Videos/Asus-Big-Format-Gaming-Display-vorgestellt-65-Zoll-Monitor-mit-4K-144-Hz-und-G-Sync-HDR-1263569/
Asus Big-Format-Gaming-Display vorgestellt: 65-Zoll-Monitor mit UHD, 144 Hz und G-Sync HDR

Loeschzwerg
2018-08-24, 10:23:48
Eigentlich wäre so ein BFGD genau das was ich will. Kein Tuner, kein langsames OS, keine intigrierten Boxen... einfach nur ein großer Monitor.

Sind auch 55" Modelle angedacht?

Dural
2018-08-24, 10:26:51
für max 3000.- würde ich so einen 65er kaufen. Aber ich denke das wird teurer.

robbitop
2018-08-24, 12:04:45
Finde ich viel zu teuer, ehrlich gesagt. 65" OLEDs (mit deutlich besserem Kontrast und ohne Halos) sind deutlich günstiger. Nächstes Jahr wird HDMI 2.1 Einzug halten und damit auch 4K+120Hz+VRR+OLED. Input Latency wird bei den aktuellen TVs ja auch immer besser.
BFG wird damit IMO sehr absehbar obsolet.

Savay
2018-08-24, 12:22:19
BFG wird damit IMO sehr absehbar obsolet.

Das hab ich mir heute auch gedacht...vor nem Jahr wäre das vielleicht noch interessant gewesen...aber je länger sich das zieht umso enger wird es für das Konzept...zumal die Teile garantiert nicht günstiger als entsprechende OLED TVs werden...

maguumo
2018-08-24, 12:28:15
Wie sieht das mit VRR und OLED Panels eigentlich aus? Lässt sich die minimale Refreshrate beliebig nach unten verschieben oder gibt es da irgendwelche limitierenden Faktoren?

Tesseract
2018-08-24, 13:06:51
sollte eigentlich kein limit nach unten geben.

Unicous
2018-08-24, 13:08:52
Gleich kommt jemand aus dem Loch gekrochen: aber aber die Spec sagt doch es ginge nur bis auf 9Hz runter.:freak:

Loeschzwerg
2018-08-24, 14:38:21
BFG wird damit IMO sehr absehbar obsolet.

Wenn der Preis nicht entsprechend zu den kommenden TVs (HDMI2.1 usw.) gewichtet ist, dann ja.

Kartenlehrling
2018-08-24, 14:42:48
in zwei wochen werden wir hoffentlich einige TV Modell auf der IFA in Berlin sehen, Samsung Q9S wird alles können.

Linmoum
2018-08-24, 14:43:03
Das ist zwar noch recht vage, aber ich denke nicht, dass das plötzlich 2000-3000€ billiger wird, wenn HP schon solche Preise in Betracht zieht.

Ein Artikel von Hardware.info nennt ebenso das erste Quartal 2019 und liefert darüber hinaus erste Hinweise auf das mögliche Preisniveau: HP gehe von einem Preis zwischen 4.000 und 5.000 Euro aus. HP Deutschland wollte das gegenüber ComputerBase aber nicht bestätigen. Nicht ohne Grund: Noch stünden die Gesamtkosten für Herstellung und Teile (auch die von Nvidia) noch nicht fest.
https://www.computerbase.de/2018-08/nvidia-hp-bfgd-monitore-termin/

LeDude83
2018-08-25, 17:57:45
Tutorial für angepasste Freesync-Min-Range

Download Links zu (http://www.prad.de/new/monitore/specials/signalpegel/signalpegel-teil2.html)
*Phoenix EDID Designer
*EnTech Monitor Asset Manager
*EnTech softMCCS

1. EDID extrahieren
http://www.grafik-feti.de/ftp/tweaks_mods_tools_etc/FreeSync/Tutorial_modify_minimum_freesync_range/01_extract_EDID.png

2. EDID modifizieren (part1)
http://www.grafik-feti.de/ftp/tweaks_mods_tools_etc/FreeSync/Tutorial_modify_minimum_freesync_range/02_modify_EDID_part1.png

3. EDID modifizieren (part2)
http://www.grafik-feti.de/ftp/tweaks_mods_tools_etc/FreeSync/Tutorial_modify_minimum_freesync_range/03_modify_EDID_part2.png

4. Monitortreiber erstellen
http://www.grafik-feti.de/ftp/tweaks_mods_tools_etc/FreeSync/Tutorial_modify_minimum_freesync_range/04_create_monitor.inf.png

5. Beschreibung zum Treiber hinzufügen
http://www.grafik-feti.de/ftp/tweaks_mods_tools_etc/FreeSync/Tutorial_modify_minimum_freesync_range/05_add_description_to_monitor.inf.png

6. Deaktivieren der Windows 8.1 Treiber Signatur
http://www.grafik-feti.de/ftp/tweaks_mods_tools_etc/FreeSync/Tutorial_modify_minimum_freesync_range/06_deactivate_driver_signature.jpg

7. Monitortreiber installieren
http://www.grafik-feti.de/ftp/tweaks_mods_tools_etc/FreeSync/Tutorial_modify_minimum_freesync_range/07_install_monitor.inf.png

Hallo zusammen,

ich habe das ausprobiert, um die
FS-Range meines LG 34UM67-P auf 35 herabzusetzen. Ist massiv in die Hose gegangen: FreeSync schien nicht mehr aktiv zu sein - WOT sah übel aus trotz hoher FPS bei ~90. Habe dann den offiziellen LG-Treiber wieder geladen aber das hat's nur schlimmer gemacht - bekomme jetzt nur noch 40 FPS und von flüssig kann auch keine Rede sein.

Wenn ich den Asset Manager öffne, steht auch jedesmal meine modifizierte (verhunzte?!?) Angabe von 35-75 Hz drin.

Ich würde gerne "zurück auf Null", als mein Monitor - zwar mit bescheidener FreeSync-Range - normal funktionierte. Kann mir irgendjemand helfen?

Danke im Vorraus.

hilo
2018-08-25, 22:53:56
Habt ihr schon mitbekommen, daß jemand FreeSync auf einer GTX 1060 zum Laufen gebracht haben soll (über die Vega 8 auf dem Mainboard).
https://www.reddit.com/r/Amd/comments/99yz9h/freesync_on_nvidia_1060_6gb_through_amd_apu/

maguumo
2018-08-26, 00:28:20
Lustig, vor Ewigkeiten hatte hier mal jemand geschrieben das man das mit Intel IGPs machen könnte würden sie FreeSync/VESA Adaptive Sync unterstützen. Daran das man das seit Raven Ridge mal mit AMD APUs probieren könnte hatte ich gar nicht gedacht. Klar, macht Sinn das das geht. Solange der Treiber der ausgebenden GPU das kann macht es keinen Unterschied wo das Bild herkommt.

hilo
2018-08-26, 00:59:12
Ich meine mich dunkel zu erinnern, daß man ähnliche Konstellationen (Onboard-Grafik an Monitor, dedizierte Grafikkarte zum Rendern beim Gaming durchschleifen) zu Zeiten von Lucid Virtu erörterte. Weiß aber nicht mehr, ob Lucid Virtu dazu nötig war oder einfach nur der Anlaß, um überhaupt darüber nachzudenken. Ging damals nur ums Stromsparen.

Lurtz
2018-08-26, 10:37:26
Verliert man da nicht massiv Performance? Ich habe das Win10-Feature mal ausprobiert, mit dem man Anwendungen zB auf der iGPU rendern und dann über die dedizierte GPU ausgeben kann. War bei mir massiv langsamer.

mironicus
2018-08-26, 11:25:29
Bei Notebooks mit Optimus (Intel + NVidia) gibt es keine großen Performance-Probleme. Hier ist auch die Intel-Grafik als primäre Karte aktiv. Bei einer Vega+NVidia Kombination sollte das nicht anders sein. Wäre aber interessant zu testen.

Wenn man so z.B. eine NVidia-Karte an einen Samsung 4K Freesync-Fernseher betreiben könnte, wäre das eine Alternative zu NVidias teurer Lösung.

Gipsel
2018-08-26, 18:05:01
Wie sieht das mit VRR und OLED Panels eigentlich aus? Lässt sich die minimale Refreshrate beliebig nach unten verschieben oder gibt es da irgendwelche limitierenden Faktoren?
sollte eigentlich kein limit nach unten geben.
Eigentlich sollte aus ähnlichen Gründen Limits wie bei normalen Panels gelten. Wie auch dort gibt es eine Art Sample&Hold-Schaltung für jeden Pixel und deren Haltezeit entscheidet über den möglichen Minimalrefresh des Panels. Die LED an sich in einem Pixel ist zwar strom- und nicht spannungsgesteuert wie bei LCDs, aber die Information über die Helligkeit eines Subpixels (also welcher Strom da durchgeschickt wird) steckt auch da in einem kleinen Kondensator, der bei einem Refresh auf den gewünschten Wert geladen wird und dann die Steuerspannung für den Transistor liefert, durch den der Strom für die LED geregelt wird. Also im Detail unterschiedlich, aber vom Prinzip doch sehr ähnlich. In welchem Bereich genau die Haltezeiten bei den üblichen OLED-Backplanes liegen, entzieht sich meiner Kenntnis. Kann sein, daß es ziemlich identisch zu LCDs ist, muß aber nicht. Und so kommt es dann auch hier wie bei LCD-Panels am Ende darauf an, wie genau das Panel ausgelegt ist (und auch bei OLEDs sollte IGZO deutlich was bringen).

=======================

@LeDude:
Monitortreiber komplett deinstallieren, sollte das eigentlich wieder fixen. Und inzwischen sollte man die Range besser mit CRU modifizieren.
Zu Details kannst Du ja einen Thread im Hardware-Hilfe Subforum eröffnen (oder im Sammelthread zu A-/FreeSync Monitoren nachfragen).

falloutboy85
2018-08-26, 22:08:58
Habt ihr schon mitbekommen, daß jemand FreeSync auf einer GTX 1060 zum Laufen gebracht haben soll (über die Vega 8 auf dem Mainboard).
https://www.reddit.com/r/Amd/comments/99yz9h/freesync_on_nvidia_1060_6gb_through_amd_apu/

Kann es sein dass es auch mit den neueren integrierten Intel-Grafikchips funktioniert? Adaptive Sync auf Intel & darüber auf Nvidia?

JJJT 15. April 2018
Letzte Woche hat der Laptop einen haufen Updates bekommen und als ich ihn heute angeschlossen habe, hat mein Monitor automatisch den Freesync-Modus aktiviert und entsprechend das Logo kurz eingeblendet. Vorher noch nie passiert.

Habe ich etwas verpasst und Intel hat Adaptive-Sync jetzt aktiviert?

Verbaut ist ein i7-7500U mit Intel HD 620 ohne eine dedizierte Grafikkarte.
https://www.computerbase.de/forum/threads/intel-jetzt-mit-adaptivesync-freesync.1761922/

Hätte jemand mit entsprechender Hardware Lust zum testen. Es sollten doch so einige einen i7-8700k mit Nvidia GPU und FreeSync Monitor haben :biggrin:

LeDude83
2018-08-27, 10:56:43
Hallo zusammen,

ich habe das ausprobiert, um die
FS-Range meines LG 34UM67-P auf 35 herabzusetzen. Ist massiv in die Hose gegangen: FreeSync schien nicht mehr aktiv zu sein - WOT sah übel aus trotz hoher FPS bei ~90. Habe dann den offiziellen LG-Treiber wieder geladen aber das hat's nur schlimmer gemacht - bekomme jetzt nur noch 40 FPS und von flüssig kann auch keine Rede sein.

Wenn ich den Asset Manager öffne, steht auch jedesmal meine modifizierte (verhunzte?!?) Angabe von 35-75 Hz drin.

Ich würde gerne "zurück auf Null", als mein Monitor - zwar mit bescheidener FreeSync-Range - normal funktionierte. Kann mir irgendjemand helfen?

Danke im Vorraus.

Um das abzuschließen: nach einer Nacht drüber schlafen hab ich's dann - im Nachgang easy - selber analysiert und repariert bekommen.

Problem 1: ich muss wohl die falsche Range erwischt haben - in Block 2 der EDID steht bei mir ab Werk eine min./max.-Angabe von 56/45 Hz. Wie kann es sein, dass der Maximalwert unter dem Minimalwert liegt? Ich hatte dort dann einfach 35/75 eingetragen. Ergebnis: FreeSync war nicht mehr verfügbar laut AMD-Treiber; das Bild war mies.
Habe dann den alten Monitortreiber und auch den Standard-Windows-Treiber versucht, aber das Bild blieb mies. Außerdem erkannten verschiedene Tools verschiedene Monitore: Der AMD-Treiber erkannte einen "DDC", Windows selber den LG Ultrawide, im Treiberdialog stand dann aber wieder "Generic PnP Monitor" etc.
"Gerät entfernen" im Treiberdialog mit Häkchen bei "Treiberdaten löschen". war dann die Lösung. Darauf ein Neustart, den LG-Treiber installiert und alles war wieder i.O.

Problem 2: in diesem Durcheinander hatte sich die Taktfrequenz meiner GPU halbiert. Daher kamen die niedrigen FPS. Ließ sich mit Afterburner leicht beheben.

Jetzt läuft alles wieder wie zuvor - puh. Aber ich würde dennoch gerne die FS-Range nach unten erweitern. Hat jemand noch ne Idee? Wie gesagt: die Beschreibung von OC Burner funktioniert bei mir nicht, weil die Werte in Block 2 bei mir nicht die richtigen zu sein scheinen, die es zu ändern gilt.

Danke im Vorraus und viele Grüße

Gipsel
2018-08-27, 13:38:16
Aber ich würde dennoch gerne die FS-Range nach unten erweitern. Hat jemand noch ne Idee? Wie gesagt: die Beschreibung von OC Burner funktioniert bei mir nicht, weil die Werte in Block 2 bei mir nicht die richtigen zu sein scheinen, die es zu ändern gilt.

Danke im Vorraus und viele Grüße
Wie oben schon gesagt, nimmt man heutzutage das CRU-Tool (https://www.monitortests.com/forum/Thread-Custom-Resolution-Utility-CRU) dafür.
Bei Anschluß über Displayport einfach oben rechts auf Edit gehen (für das aktuelle bzw. passende Monitorprofil natürlich), die neue Range eintragen, Neustart, fertig. Im Treiber dann überprüfen, ob die neue Range wirklich übernommen wurde. Und natürlich am besten auch testen (z.B. mit dem Pendel-Demo von nV, da dann VSnyc anmachen und die fps-Slider aktivieren), ob es im gesamten Refreshratenbereich problemlos läuft.

Kartenlehrling
2018-08-27, 23:41:03
Habt ihr schon mitbekommen, daß jemand FreeSync auf einer GTX 1060 zum Laufen gebracht haben soll (über die Vega 8 auf dem Mainboard).
https://www.reddit.com/r/Amd/comments/99yz9h/freesync_on_nvidia_1060_6gb_through_amd_apu/

https://www.pcper.com/files/imagecache/article_max_width/review/2018-08-27/latency-chart.png
https://www.pcper.com/reviews/Graphics-Cards/AMD-FreeSync-Working-NVIDIA-GPUs-Some-Strings-Attached?utm_source=dlvr.it&utm_medium=twitter
AMD FreeSync Working With NVIDIA GPUs - Some Strings Attached

basix
2018-08-28, 00:04:03
Das wäre der Knüller. So viele Intel + Nvidia Konfigurationen könnten FreeSync nutzen. Jetzt noch Zen 2 mit GPU-Power und Tools direkt von AMD und Intel zum das konfigurieren. Dann endlich könnten alle Konfigurationen VRR nutzen ohne lästigen Herstellerzwang.

LeDude83
2018-08-28, 07:51:29
Wie oben schon gesagt, nimmt man heutzutage das CRU-Tool (https://www.monitortests.com/forum/Thread-Custom-Resolution-Utility-CRU) dafür.
Bei Anschluß über Displayport einfach oben rechts auf Edit gehen (für das aktuelle bzw. passende Monitorprofil natürlich), die neue Range eintragen, Neustart, fertig. Im Treiber dann überprüfen, ob die neue Range wirklich übernommen wurde. Und natürlich am besten auch testen (z.B. mit dem Pendel-Demo von nV, da dann VSnyc anmachen und die fps-Slider aktivieren), ob es im gesamten Refreshratenbereich problemlos läuft.

Ich habe deine erste Antwort überlesen - my bad.

Vielen Dank für die Tips, werde es mit CRU nochmal ändern und mit dem Pendel-Demo testen.

Hochinteressant übrigens, was ich hier zu VRR mit FreeSync-Monitor und NVidia-GPU lese. Der Aufschlag eines G-Sync-Monitors ggü. einem FreeSync-Monitors ist enorm (und in letzter Zeit m.E. nochmal angestiegen). Deshalb habe ich auch die Kombination AMD/FreeSync gewählt. Leider ist AMD GPU-mäßig momentan ziemlich abgehängt.

vinacis_vivids
2018-08-28, 07:58:53
Leider ist AMD GPU-mäßig momentan ziemlich abgehängt.

Beim Balkenvergleich vielleicht, aber welcher Gamer lässt dauernd seinen fps-encounter offen?

https://www.hardocp.com/article/2017/07/26/blind_test_rx_vega_freesync_vs_gtx_1080_ti_gsync

Rancor
2018-08-28, 08:10:15
Beim Balkenvergleich vielleicht, aber welcher Gamer lässt dauernd seinen fps-encounter offen?

https://www.hardocp.com/article/2017/07/26/blind_test_rx_vega_freesync_vs_gtx_1080_ti_gsync

Ich :P

vinacis_vivids
2018-08-28, 08:43:04
dieser fps-Fetischismus hat dazu geführt, dass wir auf dem Markt so schlecht dastehen. Ich bevorzuge saubere rendering-Bildqualität statt Zusatzkosten zu ungunsten der BQ.

LeDude83
2018-08-28, 11:53:55
Beim Balkenvergleich vielleicht, aber welcher Gamer lässt dauernd seinen fps-encounter offen?

https://www.hardocp.com/article/2017/07/26/blind_test_rx_vega_freesync_vs_gtx_1080_ti_gsync

Der Balkenvergleich stört mich nicht - eine 64 performt auf dem Niveau einer 1080 und das wäre hinreichend für mich. Konkurrenz für die höheren Karten hat AMD halt gerade nicht und das ist nicht das Problem. Aber die preiswerteste 64 kostet bei Mindfactory gerade 499 und das ist nicht unbedingt ein gutes Exemplar: von Gigabyte, viele User klagen über arge Probleme. Die erste m.E. vernünftige kostet 579 (Sapphire Nitro). 1080 bekommst du aber von MSI schon ne ordentliche für 469.

Hinzu kommt, dass die Vega viel, viel mehr Strom verbraucht. Das ist wohl für viele User egal, aber muss auch als Argument auf den Tisch.

Unicous
2018-08-28, 11:58:31
Könnt ihr den Müll jetzt mal einstellen?:rolleyes:

hilo
2018-08-28, 12:11:25
Na ja, mal abwarten, ob Nvidia darauf reagiert. Kartenlehrling hat ja schon auf die (erwartbare) anwachsende Eingabeverzögerung hingewiesen, und noch ist es ja nicht gerade in aller Munde. Wie mironicus einwarf, könnten die von Nvidia beworbenen Big Format Game Displays unter Umständen einen schweren Stand gegen TVs haben, weil FreeSync ja sogar über hdmi funktioniert. Aber es müßte noch so Einiges getestet werden. Die Eingabeverzögerung ließe sich bei einer stärkeren dedizierten AMD-Grafikkarte ja vielleicht ein bißchen drücken. Allerdings sind zwei dedizierte Grafikkarten erstens teurer (noch dazu wenn es eine stärkere AMD-Karte sein soll) und zweitens werden sie zumindest mit höherem Stromverbrauch assoziiert (dürfte vernachlässigbar sein, aber psychologisch...) und schließlich kommt (dann erst recht) Konfigurationsaufwand hinzu (Nicht der Rede Wert, meiner Meinung nach, aber Ihr wisst ja wie das läuft...). Fragen über Fragen.

Edit: Ach ja, den umgekehrten Weg G-Sync an AMD-Karte (ich weis, ist ökonomisch uninteressant, ja) könnte man natürlich nur aus Neugier auch mal probieren.

mironicus
2018-08-30, 13:31:39
Freesync mit NVidia-GPUs nutzbar durch Umleitung der Grafikausgabe über AMD-APUs:

https://www.computerbase.de/2018-08/trick-freesync-mit-nvidia-gpu/

Das funktioniert praktisch so wie bei Gaming-Laptops mit NVidia Optimus. Die schwache Intel-Grafik wird als Powersaving-Device in Windows registriert und schleust die NVidia-Grafik durch.

Wenn jetzt AMD das Powersaving-Device ist und die NVidia-Grafik durchschleust kann dann tatsächlich Freesync bei jedem Spiel genutzt werden. Das Limit ist nur die CPU-Power der bis jetzt erhältlichen AMD-APU. Nebenbei hat die gleichzeitige Nutzung von zwei GPUs im Tandem auch praktische Vorteile im produktiven Einsatz wie z.B. bei Schnittprogrammen wie Adobe Premiere.

Und das Beste: NVidia kann das wohl auch nicht mit Treiberupdates wegpatchen (bei Einsatz einer AMD-APU), weil das vom Betriebssystem verwaltet wird.

aufkrawall
2018-08-30, 13:47:14
Es geht bei Desktop-PCs halt über PCIe, bei intensivem Streaming könnte das schon zumindest messbar bremsen.

mironicus
2018-08-30, 13:59:04
Bei den Laptops wird das schon seit mehreren Jahren gemacht (Intel GPU ist direkt mit dem Display verbunden und streamt die NVidia-GPU) mit geringen Performance-Verlusten.

Wenn ich einen Benchmark mache mit meinen Gaminglaptop (MSI, 7700HQ und GTX 1070) dann habe ich einen Verlust von 1-2% im 3DMark im Vergleich wenn ich einen externen Monitor am Displayport anschließe der direkt mit der GTX 1070 angebunden ist.

Da die Vega-Grafik wohl kaum langsamer als die Intel GPU ist sollte es da kaum Verluste geben.

SKYNET
2018-08-30, 14:08:45
Und das Beste: NVidia kann das wohl auch nicht mit Treiberupdates wegpatchen (bei Einsatz einer AMD-APU), weil das vom Betriebssystem verwaltet wird.

ach, da wird NV schon wege finden, die sind ja so derbe mimimimi bei sowas, siehe physX :rolleyes:

was die firmenpolitik angeht ist NV noch vor apple, der grösse scheissladen den es in bereich elektronik gibt auf der welt derzeit.... dicht gefolgt von intel, wobei man intel zugute halten muss, das die wenigstens sofort zurückrudern wenn was die runde macht(wie letztens mit den benchmark verboten, wo sie sofort die AGB wieder auf den stand gebracht haben, das doch jeder benchen darf).... bei NV und apple passiert sowas erst auf massiven druck der öffentlichkeit :mad:

Savay
2018-08-30, 14:16:23
Von wegen "Schwache" APU:

Könnte man nicht auch einfach eine billige Polaris 11 Karte in den Rechner packen und es darüber laufen lassen?!
Dürfte bei den meisten Modellen wohl immernoch billiger kommen als das G-Sync Modul. ;)

mironicus
2018-08-30, 14:21:18
Es wurde gemunkelt das Intel auch Freesync unterstützen könnte. In letzter Zeit haben alle Hersteller teure aber dafür sehr leichte Gaminglaptops rausgebracht, die alle mit einer langen Akkulaufzeit glänzen. Die haben aber alle kein GSync, weil dafür die NVidia-Grafik allein mit dem Display verbunden sein muss. Wenn Intel mittels Treiberupdate Adaptive Sync unterstützen würde, könnten auch diese Laptops davon profitieren.

hilo
2018-08-30, 14:55:06
@ Savay

Es wurde ja schon gewitzelt, Nvidia könnte ja AMD-Grafikkarten statt G-Sync-Modul verbauen - wäre billiger (zumindest im BFGD)... :D

So jetzt mal wieder Ernst: es gibt wohl noch Probleme, Windows 10 zuverlässig beizubiegen, welche von zwei dedizierten Grafikkarten das powersaving device sein soll.

aufkrawall
2018-08-30, 14:56:50
Bei den Laptops wird das schon seit mehreren Jahren gemacht (Intel GPU ist direkt mit dem Display verbunden und streamt die NVidia-GPU) mit geringen Performance-Verlusten.

In Notebooks gibt es dafür Hardware-Muxer, das dürfte nicht über das normale PCIe laufen.

Savay
2018-08-31, 11:38:46
Es wurde gemunkelt das Intel auch Freesync unterstützen könnte.

Ich denke zwar nicht das sie es "FreeSync" nennen werden sondern irgendwie nen anderen intel spezifischen Marke kreieren, aber offensichtlich scheint die Adaption vom VESA A-Sync immer noch in Planung zu sein.

https://www.computerbase.de/2018-08/intel-adaptive-sync-bestaetigung/

Loeschzwerg
2018-08-31, 18:16:52
Intel bestätigt, dass A-Sync weiterhin in der Planung ist:
https://www.computerbase.de/2018-08/intel-adaptive-sync-bestaetigung/

Mit Gen12 bzw. den dGPUs rechne ich fest damit, aber ich hoffe Intel führt A-Sync schon mit Gen11 ein. Je früher desto besser.

Kartenlehrling
2018-08-31, 18:55:15
kmACrOvE8To
Acer Predator XB273K UHD G-Sync Monitor mit 144 Hz

Unicous
2018-08-31, 19:01:42
Ich habe ja schon länger das dumme Gefühl, dass die iGPU schon dazu in der Lage wäre, aber Intel zu "faul" ist es im Treiber zu implementieren. Ich meine 3 Jahre nach Ankündigung ist nichts geschehen obwohl man schon 2011 Panel Self Refresh vorgestellt hat. Ich wette zumindest im Mobile Bereich könnte man es über eDP realisieren.

Bei FreeSync hat man 3 Monate nachdem Nvidia G-Sync vorgestellt hatte eine Demo zusammengehackt. Ca. ein Jahr später wurden erste Monitore vorgestellt.

Intel hat im selben Jahr Unterstützung zugesagt. Geschehen ist nichts. Totenstille seitdem. Was Chris Hook damit meint wissen wir auch nicht. Ich finde Adaptive Sync super ist mir etwas zu wenig commitment.

Locuza
2018-08-31, 21:04:37
Ich würde dagegen wetten, GCN Gen 1 kann auch keine variablen Refreshrates unterstützen und Intel produziert seit praktisch 3 Jahren das gleiche Design, mit vermutlich ähnlichen Limitierungen bei der Display-Pipeline.

An der Stelle würde ich aber davon ausgehen das Cannon Lake Adaptive-Sync unterstützen könnte, aber das Projekt und die Produkte erfüllen Intel mit scheinbar soviel Scham das sie gar keine Informationen dazu veröffentlichen.

Unicous
2018-08-31, 21:10:15
Für Adapative Sync muss man aber nicht die komplette GPU neu designen sondern "nur" den Display Controller.:rolleyes:

Ich wiederhole nochmals, jede (aktuelle) Intel iGPU unterstützt Panel Self Refresh, was ein "precursor" für Adaptive Sync ist. Ich sehe nicht, warum das für Intel so ein riesiges Problem sein soll. ¯\_(ツ)_/¯

Locuza
2018-08-31, 22:08:59
Vielleicht kam mein Edit mit der Display-Pipeline zu spät, aber hier fehlt GCN Gen1 Produkten die passende Ansteuerungslogik und Intel sehr wahrscheinlich ebenso, denn Faulheit wäre ein brutal grotesker Grund für eine fehlende Umsetzung.
PSR ist dagegen eine starre Lösung, dass Panel selber buffered den letzten Frame und wenn keine Frame-Änderungen vorliegen, aktualisiert das Panel eben selber, aber die Refreshrates werden nicht geändert.
Deutlich näher liegt das Feature Dynamic Refresh Rate Switching (DRRS), welches zwischen Refresh-Rates wechselt, aber scheinbar nur in groben Schritten und nicht pro Hz.

Unicous
2018-08-31, 22:50:44
AMD hat auch mehrere Iterationen, die APUs vor Bristol Ridge sind z.B. PSR-fähig (jedenfalls nehme ich das aus dem folgenden Grund an.):

AMD APUs codenamed "Kaveri," "Kabini," "Temash," "Beema" and "Mullins" also feature the necessary hardware capabilities to enable dynamic refresh rates for video playback, gaming and power-saving purposes. All products must be connected to a display that supports DisplayPort Adaptive-Sync.

Jedoch war schon Bonaire etwas mehr als 1 1/2 Jahre nach Release von GCN1 FreeSync-fähig.

AMD selbst hat Adaptive Sync Anfang 2014 eingereicht, im Mai wurde es als VESA-Standard angenommen. (Von G-Sync wusste man auch schon seit Ende 2013)

Intel ist VESA-Mitglied. Hatte also nun mittlerweile 4 Jahre Zeit. Ich sehe nicht was sie aufhalten sollte, oder willst du den Intel'schen GPU-Architekten Unfähigkeit unterstellen?:wink:

Ich unterstellen ihnen Untätigkeit, wenn es wirklich noch nicht in Hardware implementiert wurde. Denn wie du selbst schreibst haben sie die PSR-Idee schon längst weitergesponnen und es gibt mittlerweile PSR2 oder eben DRRS, das D steht meiner Meinung nach aber nicht für Dynamic sondern für Display. Denn dynamisch ist es ja eben nicht.:wink:

Hier steht es u.a. auch:

https://www.intel.co.jp/content/dam/doc/white-paper/power-management-technologies-for-processor-graphics-display-and-memory-paper.pdf

Das ist zum Teil auch schon in den eDP-Standard geflossen. Sie haben 2015 bestätigt, dass sie zukünftig den Standard unterstützen werden. Es war meiner Meinung nach genug Zeit, inklusiver ihrer eigenen Grundlagenforschung die VRR überhaupt ermöglicht hat, Adaptive Sync zu implementieren. Um ehrlich zu sein ging ich sogar davon aus, dass es schon 2016, spätestens 2017 soweit ist. Stattdessen Totenstille.

edit:
https://www.chiploco.com/wp-content/uploads/2013/11/Intel-Cherry-Trail-SoC-_3-660x446.png

Intel weiß wohl selbst nicht wie sie es nennen wollen.

Locuza
2018-08-31, 23:44:25
Bei PSR würde es mich nicht wundern, wenn jeder Prozessor mit passendem Display-Anschluss das Feature unterstützt.
Bei GCN1 wurde auch FreeSync Support für Video Playback genannt, ich weiß aber nicht ob es auch funktioniert oder je umgesetzt wurde, aber dadurch hätte man immerhin von einer beständigen Hz-Anzahl zu einer anderen beständigen Hz-Anzahl wechseln können, darauf scheint auch Intel limitiert zu sein.

Bezüglich DSSR steht das D für Dynamic:
Dynamic Refresh Rate Switching (DRRS) is a power conservation feature which enables switching between low and high refresh rates based on the usage scenario.
This feature is applicable for internal eDP panel.
Indication that the panel can support DRRS is given by the panel EDID, which would list multiple refresh rates for one resolution.
The patch series supports idleness detection in display i915 driver and switch to low refresh rate.
https://lists.freedesktop.org/archives/intel-gfx/2013-December/037563.html

Das Problem was ich sehe ist das Skylake 2015 erschien, dass Hardware-Design aber wie viele Jahre schon zuvor in der Hinsicht fertig gestellt worden ist?
Nach Skylake hat Intel mit Kaby-Lake das erste und letzte mal das Featureset angehoben und das scheinbar nur bei den Media-Engines.

Ich nehme an das Intel ab Cannon-Lake Adaptive-Sync unterstützen könnte, aber dank den 10nm-Problemen ist CNL nicht 2016, nicht 2017 und auch 2018 nicht mit einer iGPU und einem Display-Controller erschienen, stattdessen gammelt man bei Skylakes Hardware-Design herum.
Es wird vermutlich bis Ende 2019 mit Ice Lake dauern, bis Intel es endlich schafft Adaptive Sync zu unterstützen.

Unicous
2018-09-01, 00:09:20
Ich merke schon, du hast die .pdf nicht geöffnet.:rolleyes:

Intel® Display Refresh Rate Switching (Intel® DRRS)

Intel® DRRS provides a mechanism where the monitor is placed in a slower refresh rate (the rate at which the display is updated). The system is smart enough to know that the user is not displaying either 3D or media like a movie where specific refresh rates are required. The technology is very useful in an environment such as a plane where the user is in battery mode doing E
-mail, or other standard office applications.
It is also useful where the user may be viewing web pages or social media sites while in battery mode.


Du sagtest Faulheit kann es nicht sein und sagst jetzt, sie haben seit Skylake die GPU nicht angerührt... jedoch bei Kaby Lake haben sie es dann doch wieder getan.:freak:
Ist schon etwas widersprüchlich meinst du nicht. Ich sehe nicht das Problem die "Display Engine" Blöcke zu ändern, wenn sie es doch schaffen die "Media Engine" zu modifizieren.

Zumal das doch eine fantastische Möglichkeit gewesen wäre ihre iGPU zu pushen, wo sie doch schon über die letzten Jahre den Treiber aufpoliert haben und den Spiele-Support verbessert haben. Dazu noch Adaptive Sync, besonders im mobilen Bereich, wo man ja bereit ist noch deutlich mehr Kompromisse einzugehen, wäre das ein exzellentes Feature. :wink:

Tut mir leid, ich nenne das Faulheit.

Locuza
2018-09-01, 01:09:27
Das merkst du woran?

Denn der Text sagt mir nicht, dass wenn der Prozessor DRRS unterstützt, er auch keine Probleme hätte Adaptive Sync mit 1Hz-Granularität zu unterstützen.

---

Bei KBL hat Intel in diesem kleinen Rahmen Änderungen umgesetzt, sie haben sich auch gezwungen gefühlt mit Coffee Lake zwei Kerne zusätzlich anzuflanschen bzw. bald vier.
Anstatt Faulheit würde ich es schlechtes Planmanagement nennen, denn Intel hatte keine Back-Up-Pläne und reagiert gezwungen reaktionär und führt die aktuellen Designs nur mit minimal nötigen Aufwand fort.
Man hätte sich z.B. auch Gedanken machen können CNL in 14nm umzusetzen und das Design zu portieren.

Dein Vorschlag ist natürlich völlig legitim, es kann nach etlichen Jahren nicht so schwer sein den Display-Controller zu aktualisieren, mein Einwand bezog sich allerdings auf die jetzigen Produkte und das wenn Intel schon jetzt die Möglichkeit hätte Adaptive-Sync zu unterstützen, sie es auch tun würden.
Natürlich stimme ich zu, dass Intel mehr Änderungen umsetzen hätte können, Coffee Lake hat schließlich sowieso neue Masken gebraucht, aber ne, nada.

Unicous
2018-09-01, 01:58:50
Es ging mir bei dem Zitat aussschließlich um den Namensdisput weil du auf Dynamic bestehst (ich dir dabei auch zustimme du siehst ja dass ich das Bild gepostet habe), während Intel sich nicht einmal selbst sicher ist/war wie es denn nun heißt. Ich habe das unbestimmte Gefühl du willst mich absichtlich falsch verstehen.:rolleyes:

Am Ende stimmst dann du zu, dass Intel zu "faul" ist, nennst es nur reaktionär.:freak:

Denn was anderes ist es wenn man immer nur "reagiert" anstatt zu agieren. Wenn man eine Technologie entwickelt hat und so engstirnig ist sie nicht dahingehend weiterzuentwickeln, dass sie nicht nur als Stromsparmechanismus fungiert und sie stattdessen in der eDP Spec halb vergammeln lässt. Währenddessen wird von beiden Konkurrenten der Gedanke weitergesponnen, entweder auf dessen Basis oder unabhängig davon und zur Marktreife geführt. Die Patente die man von AMD und später auch Nvidia gefunden hat zeigen das ja auch auf. Und die Idee ist ja an sich auch nicht neu. Aus den 90er gibt es auch schon Einträge dazu.

Intel hat den Zug verpasst und schafft es einfach nicht wieder aufzuspringen. Das ist doch mehr als traurig anzusehen. Besonders wenn der Name des Zuges Intel Express lautet.:freak:

Locuza
2018-09-01, 02:25:20
Oh sry, dass ist mir spontan nicht in den Sinn gekommen.
Ja, da steht auch Display.

Faulheit kann man je nachdem und seinem Standard nach unterschiedlich auffassen.
Wenn Intel mit 10nm und dem Zeitplan gepokert hat, dann sehe ich sie nicht automatisch als faul an, wenn sie die Wette verloren haben und parallel nicht in unterschiedliche Back-Up-Pläne investiert haben.
Ich schränke es natürlich insofern ein, dass es irgendwann für Intel gewiss ersichtlich war, dass die Sache mit 10nm nicht in sehr naher Zukunft durchstarten wird und sie aggressivere Pläne bezüglich des technischen Fortschritts unter 14nm aufstellen hätten können.
Es ist schließlich alles relativ und man müsste die Abschätzungen von Intel selber kennen.

Natürlich ist es ein Trainwreck, dabei ist Adaptive-Sync nur ein kleiner Teil davon, die GPU- und CPU-Kerne könnten auch soviel weiter sein, stattdessen ist Ersteres unglaubliches Gammelfleisch und wird millionenfach bis Heute in Laptops ausgeliefert und Raven Ridge hat nach wie vor mit der Verbreitung zu kämpfen, wo man gescheite GPU-Performance und Adaptive-Sync hat.

Ich würde mir die Situation auch ganz anders wünschen.
Z.B. auch fricking Adaptive Sync Support von Nvidia, weil die Schweine könnten es praktisch jeden Tag umsetzen, wenn sie es denn wollen würden.

mironicus
2018-09-01, 08:37:08
Neue GSync/Freesync-Modelle von LG.

https://www.computerbase.de/2018-09/lg-ultragear-monitor-34gk950g-34gk950f-ifa/

Das GSync-Modell ist klar schlechter, es wird begrenzt durch ein altes GSync-Modul was nur DP 1.2 unterstützt. Das Freesync-Modell ist deutlich günstiger, hat DP 1.4, 10 Bit-Unterstützung und 144 Hz.

Schnoesel
2018-09-01, 09:51:47
Der Freesync LG gefällt mir richtig gut. Da stinkt das Gsync Modell gegen ab aber hey hat dafür „Sphere Lighting“, das darf einem dann schon 200€ wert sein ... :biggrin:

fondness
2018-09-01, 10:39:41
Neue GSync/Freesync-Modelle von LG.

https://www.computerbase.de/2018-09/lg-ultragear-monitor-34gk950g-34gk950f-ifa/

Das GSync-Modell ist klar schlechter, es wird begrenzt durch ein altes GSync-Modul was nur DP 1.2 unterstützt. Das Freesync-Modell ist deutlich günstiger, hat DP 1.4, 10 Bit-Unterstützung und 144 Hz.

LOL, aber auf der IFA bewirbt LG das klar schlechtere und um 200 EUR teurere G-Sync-Modell. Wie man das noch verteidigen kann erschließt sich mir nicht.

Hübie
2018-09-01, 19:49:38
Es wäre mir an NVIDIA's Stelle zu peinlich dort das Siegel drauf zu kleben... X-D Na ja. Jeden Morgen steht ein Dummer auf.

dargo
2018-09-01, 19:56:04
Neue GSync/Freesync-Modelle von LG.

https://www.computerbase.de/2018-09/lg-ultragear-monitor-34gk950g-34gk950f-ifa/

Endlich tut sich was im Bereich 3440x1440 und 144Hz, gefällt mir. Weiter machen... =)

LOL, aber auf der IFA bewirbt LG das klar schlechtere und um 200 EUR teurere G-Sync-Modell. Wie man das noch verteidigen kann erschließt sich mir nicht.
Dafür verbraucht er weniger. :weg:

Edit:
Ich sehe jetzt erst den Preis. WTF? 1200€? :| Nee... also hier brauchts definitiv mehr Konkurrenz.

LeDude83
2018-09-04, 07:51:40
Endlich tut sich was im Bereich 3440x1440 und 144Hz, gefällt mir. Weiter machen... =)


Dafür verbraucht er weniger. :weg:

Edit:
Ich sehe jetzt erst den Preis. WTF? 1200€? :| Nee... also hier brauchts definitiv mehr Konkurrenz.

Da stimme ich zu. So ein Monitor würde mich sehr interessieren aber zu dem Preis sicher nicht. Generell ist ein Upgrade von 60 Hz/1080-gaming meines Erachtens teuer. Eine GPU um die ganzen Pixel zu füllen und dann auch noch hohe FPS zu erzielen plus der Monitor kosten ein Vermögen. Ich hab den LG 34UM67-P und bei dem werde ich angesichts der aktuellen Preise auch noch lange bleiben.

Ex3cut3r
2018-09-08, 16:08:32
Gönnt euch doch mal was. Man lebt nur einmal. ;)
1200€ und dann 7 Jahre ruhe. So wartet ihr auf billigere Preise für 3440x1440 @ 144hz und bis dahin ist schon wieder 5120x2160 @ 120hz am Markt.

Savay
2018-09-08, 16:37:06
Da fiele mir aber auch deutlich sinnvolleres ein um Geld zu verbraten!
Zumal läppische 110ppi... no thanks. Diese hypothetische 2160p Version mit 120Hz nehme ich aber für 1200€!

Ex3cut3r
2018-09-08, 16:39:56
Ja dann braucht man auch wieder eine stärkere GPU, eine 1080Ti ist grade mal fähig in den meisten Titel in 3440x1440 Max. 60FPS avg zu liefern. In 3 Generationen weiter vlt?! :biggrin:

Sinnvoll ist ja auch immer Eigensache, wenn man +3 STD. am Tag spielt, wurde es sich doch locker lohnen.

Kriton
2018-09-08, 22:07:02
Die sollen mal diesen Wölbungsmist weglassen. Und 1440p auf 34"? Das doch lieber auf 27".

Ex3cut3r
2018-09-09, 01:38:56
Und 1440p auf 34"? Das doch lieber auf 27".

Wir meinten 34" auf 21:9. PPi bleibt gleich.

gnomi
2018-09-09, 10:50:18
Habe GSync seit Release 2014 mit 27 Zoll und 144 Herz. (knapp 800 Euro Anschaffungskosten)
Das sind aber ja erst 4 Jahre!
Mit dem Wechsel von der 980 auf die 1080 habe ich mir später schon einiges gegönnt wie ich finde. :wink:
Da kommt man oft bequem in die dreistelligen fps Bereiche und kann höchste Textur Details flüssiger streamen.
Prinzipiell schafft aber auch die alte 980 noch alle Games.
Mit GSync lässt sich angepasst eben auch gut im Grenzbereich mit 35-50 fps spielen. (wirkt wie ein 30% GPU Update habe ich damals immer so gedacht)
Ich habe das ganze überhaupt nur gemacht, weil ich 2016 noch ganz gut am Zocken war und dann mal den Monitor ausfahren wollte.
Aktuell brauche ich aber keine neue GPU mehr.
Preise von High End Monitoren und Grafikkarten sind noch verrückter, weshalb ich zunehmend auf OLED und Konsole spiele.
Als angenehmer Nebeneffekt funktioniert dort auch HDR auf Xbox X und Playstation 4 sogar ohne Pro problemlos. (PCGH Artikel zu HDR spricht hingegen von Problemen und einstelligen fps Verlusten)
Und die X hat auch einige nicht 4k Modi mit besserer Performance bei Spielen, wo der Gamer auf so etwas Wert legen könnte.
Man kommt dem PC Singleplayer Feeling letztendlich mittlerweile sehr nahe.
Nur Maus und Tastatur mag manchmal fehlen, aber die Spiele sind muss man sagen kaum noch darauf fokussiert designt.
PC ist einfach zu abgehoben geworden.
Auch stört mich, dass man kaum noch Games auf einer Scheibe im Laden vorfindet und alles Account gebunden ist. Wenn man Steinzeit DSL hat, ist es schön, wenigstens im Offline Modus ohne Updates spielen zu können, und nur bei Bedarf die fehlenden Daten updaten zu müssen.

mironicus
2018-09-10, 19:38:03
Acer bringt neue und günstigere 4K 144 Hz-Monitore.

http://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/Acer-Nitro-XV273K-Ultra-HD-144-Hertz-Freesync-1264743/

Die G-Sync-Version kostet 1499 Euro.
Die Free-Sync-Version kostet 999 Euro!

*Prust* *Kicher*

Kartenlehrling
2018-09-10, 19:57:24
Aber jedenfalls kann man die kosten für das neue G-sync Modul gut einschätzen,
die ca. 500€ sind also jetzt sicher für DP1.4 + HDMI2.0b Modul.
Somit wär ein Freesync2 1000nits Full Array Local Dimming (384 Zonen) unter 2000€,
das traurige daran die erst Preisvorstellung waren ja 1999$ für das G-sync Modell.

dargo
2018-09-11, 20:24:20
Gönnt euch doch mal was. Man lebt nur einmal. ;)

Da gönne ich mir lieber was anderes als nur etwas mehr Breite. ;) Wüsste jetzt auch nicht warum ich mehr als den doppelten Preis nur für etwas mehr Breite ausgeben sollte. Erst recht wenn es demnächst tatsächlich 4k 144Hz 16:9 Bildschirme für 1000€ geben soll. Das 21:9 1440p Teil dürfte eigentlich kaum mehr als 600-700€ kosten.

aufkrawall
2018-09-11, 20:26:39
Die Preise sind mir einfach zu krank, es gibt sehr gute 4k 60Hz FreeSync-Geräte für ~400€. Da zahl ich für die doppelte Refreshrate doch nicht glatt auch noch das Doppelte...

Linmoum
2018-09-11, 20:35:51
Die Preise sind mir einfach zu krank, es gibt sehr gute 4k 60Hz FreeSync-Geräte für ~400€.
Mach 270€ draus. ;)

https://geizhals.de/lg-electronics-27ud58-b-a1495783.html

Tolles Teil mit richtig guter Bildqualität (und wer es braucht, die FS-Range geht sogar runter auf 33Hz). Bisschen an der Ausstattung gespart, aber das kann man denke ich verschmerzen. Ansonsten dürfen sich über 60Hz und UHD auf 27" jetzt wieder die üblichen Verdächtigen die Köppe einschlagen. :P

robbitop
2018-09-11, 21:20:23
Wieso? 27“ ist doch die ideale Diagonale für 4K. IMO.

Screemer
2018-09-11, 21:58:02
96hz würden mir schon völlig reichen bei 4k.

aufkrawall
2018-09-22, 17:54:28
Tesseract/Gipsel hatten btw. Recht mit den unterschiedlichen Eigenschaften von in-game- vs. Treiber-Limiter/Vsync.
in-game Limiter 60fps: GPU taktet kaum runter:
https://abload.de/thumb/sam2017_2018_09_22_176gdgz.jpg (https://abload.de/image.php?img=sam2017_2018_09_22_176gdgz.jpg)
Läuft allerdings auch nicht mit Volltakt, sonderlich benachteiligt wird die 580 vs. die 1080 bei battlenonsense also nicht gewesen sein.

Vsync und Treiber-Limiter: GPU taktet weiter runter:
https://abload.de/thumb/sam2017_2018_09_22_17e8exp.jpg (https://abload.de/image.php?img=sam2017_2018_09_22_17e8exp.jpg) https://abload.de/thumb/sam2017_2018_09_22_17gpd8a.jpg (https://abload.de/image.php?img=sam2017_2018_09_22_17gpd8a.jpg)

Der Treiber-Limiter wird durchs Stromsparen auch etwas ungenau, kann man aber durch Forcieren des Boost-States verhindern.

Lurtz
2018-09-22, 20:32:58
Heißt? Besser die Ingame-Limiter nutzen oder hängt vom Einzelfall ab?

aufkrawall
2018-09-22, 21:01:39
Prinzipiell können in-game Limiter den niedrigsten Lag aufweisen, darin waren sich vor ein paar Seiten alle einig. Für das beste Ergebnis also VRR + Vsync + in-game Limiter ~2fps unterhalb der maximalen Refreshrate. Sagen afair sowohl Gipsel, Tesseract, als auch, von der Gsync-Front her, Blaire.

robbitop
2018-09-22, 21:11:36
Auch blurbusters kam iirc zum gleichen Schluss.

Lurtz
2018-09-24, 08:45:54
Das ist doch mal eine gute Faustregel, danke.

Kartenlehrling
2018-09-25, 09:48:24
Update 24.09.2018 13:49 Uhr

Auf Anfrage eines Lesers hat LG Electronics Deutschland mitgeteilt,
dass der 34GK950G Anfang Dezember erscheint, der 34GK950F soll dagegen erst 2019 verfügbar sein.


Das Freesync Modell mit 8bit+FRC (10bit 400nits HDR) kommt und
die G-sync Variantem darauf verzichten obwohl es teuer ist schon seltsam, es ist auch nicht das erste Modell.
Mich stört aber das sie nun doch DisplayHDR400 und Freesync-2 verkaufen,
zuerst wurde von einer Mindestvoraussetzung von Display600 gesprochen.

https://www.computerbase.de/2018-09/lg-ultragear-monitor-34gk950g-34gk950f-ifa/
LG UltraGear-Monitore: UWQHD mit 144 Hz & FreeSync 2 oder 120 Hz & G-Sync

derF
2018-09-25, 10:19:43
Mich stört aber das sie nun doch DisplayHDR400 und Freesync-2 verkaufen,
zuerst wurde von einer Mindestvoraussetzung von Display600 gesprochen.
Es wurde von etwas dazwischen gesprochen. Deswegen bekommen die Monitore nur "DisplayHDR 400", wenn sie 600 nicht erreichen.
https://www.computerbase.de/2018-06/freesync-2-hdr-specs/
Die Verwirrung kam primär deswegen auf, da AMD immer von hohen Standards gesprochen hat, jedoch bereits DisplayHDR-400-Monitore zertifiziert werden. Jedoch ist es so, dass die Anforderungen von FreeSync 2 HDR bezüglich des „HDR-Teils“ (sprich maximale Helligkeit, Schwarzwert und Farbraum) genau zwischen DisplayHDR 400 und DisplayHDR 600 liegen – wo genau, will AMD aber immer noch nicht verraten. Die Mindestanforderungen für DisplayHDR 400 sind für FreeSync 2 HDR nicht ausreichend. Solch ein Gerät würde keine Zertifizierung für FreeSync 2 HDR erhalten.

Kartenlehrling
2018-09-25, 11:02:31
Brightness 320cd/m_(Min.), 400cd/m_ (Typ.)



Bei den 400nits wurde ja schon getrickst. :rolleyes:

derF
2018-09-25, 11:26:20
Jo, nicht schön, aber steht so in der Spezifikation.
https://displayhdr.org/performance-criteria/

Savay
2018-09-25, 12:12:33
Da die meisten Panels eh ihre spezifizierte Leuchtdichte überschreiten, sollte dass das kleinere Problem sein.
Was in den Datenblättern steht, ist halt immer sehr konservativ ausgelegt.

Wichtiger ist in der Praxis eh der Schwarzwert und da es nen IPS Panel ohne LD ist, wird das sowieso nicht das absolute Optimum für HDR sein!
Je nach Signalaufbereitung könnte der eine oder andere Content aber dennoch besser aussehen als reines SDR Quellmaterial.

Aber grade bei so suboptimal für HDR geeigneten Panels steht und fällt der Eindruck extrem starkt mit dem Content (und tw. auch der internen Nachbereitung)!
Gutes HDR Material, sieht da sicher auch ganz gut aus...aber schlechtes kommt halt weniger gut zur Geltung als bspw. auf nem OLED.

Viel bemerkenswerter an dem LG Pärchen finde ich eh, dass sich hier anfängt die G-Sync Strategie mit dem teuren Hardwaremodul zu rächen...dass der Freesync Monitor für weniger Geld besser ausgestattet ist, weil der ASIC bei deutlich weniger Kosten schlicht mehr kann, ist schon äußerst...amüsant. :lol:

Kartenlehrling
2018-09-25, 12:33:19
Eine konservative Annahme liegt auf der sicheren Seite.
Das wär ja dann wie beim Metzger, "... darf es auch etwas mehr sein", das ist es aber nicht.
Oder wie bei Oktober Bier, über den Eichstrich befüllt.

Das wär toll aber gerade bei den HDR TV sieht man es das viel nichtmal die 1000nits erreichen.
Ein 2018er LG SK8000 der mit Cinema HDR wirbt, schaft aber nichtmal 600nits auf 10%.

https://www.lg.com/at/tv/lg-65SK8000PLB
LG Electronics 65SK8000

HDR Real Scene Peak Brightness: 271 cd/m²
HDR Peak 2% Window: 523 cd/m²
HDR Peak 10% Window: 523 cd/m²
HDR Peak 25% Window: 412 cd/m²
HDR Peak 50% Window: 333 cd/m²
HDR Peak 100% Window: 332 cd/m²
https://www.rtings.com/tv/reviews/lg/sk8000

Savay
2018-09-25, 12:39:41
Das wär toll aber gerade bei den HDR TV sieht man es das viel nichtmal die 1000nits erreichen.


Im HDR Modus kommt bei TVs aber noch die starke Signalaufbereitung oben drauf...die kappt oft das was möglich wäre....und ohne das auszutesten, weißt du vorher eh nicht was die in welcher Situation macht!
Das muss zudem nicht immer sehr konsistent oder logisch verhalten, wie das Ding hier gut zeigt: http://www.tftcentral.co.uk/reviews/dell_up2718q.htm#hdr (bei 10% ist es heller als bei 1%!)

Ich sprach zudem eher davon, dass nicht wenige Desktop-Panels ihre spezifizierte Leuchtdichte tatsächlich reißen...das eine mehr, das andere weniger und das nächste vlt. garnicht...aber so extrem ungewöhnlich ist das nicht unbedingt.

Der hier geht z.B. auf 450 hoch...bei 400 "typ" und 320 "min"
http://www.tftcentral.co.uk/reviews/lg_27gk750f.htm#panel

Davon abgesehen, ist diese "max. Nits" Fixiertheit IMHO eh unangebracht...entscheidend für den HDR Bildeindruck ist und bleibt das Kontrastverhältnis.

Reaping_Ant
2018-10-17, 11:09:03
Nur um sicher zu gehen: Alle GSync Monitore (bzw. das GSync Modul) machen Framedoubling, wenn die Framerate unter den Sync-Bereich faellt? Bei Freesync gibt es LFC dagegen nur bei explizit unterstuetzten Monitoren (z.B. nicht bei meinem LG)?

Ich bin gerade am Ueberlegen ob und wie ich am besten auf VRR umsteigen soll: GTX 1080 behalten und GSync Monitor kaufen, oder Freesync Monitor (LG 27MU67-B) behalten und eine Vega 64 kaufen? Eigentlich bin ich ja sowohl mit dem Monitor als auch mit der GPU recht zufrieden, allerdings kann ich Judder gar nicht ab.
Ich liebaeugle ein wenig mit dem Acer XB271HKbmiprz (was fuer ein bescheuerter Modellname), den gibt es hier in Japan fuer ca. 550 Euro und er hat eine vernuenftige Range (24-60 Hz). Sonst sieht es mit bezahlbaren 4K GSync Monitoren ja etwas mau aus.

Klevapalis
2018-10-17, 11:10:08
Nur um sicher zu gehen: Alle GSync Monitore (bzw. das GSync Modul) machen Framedoubling, wenn die Framerate unter den Sync-Bereich faellt? Bei Freesync gibt es LFC dagegen nur bei explizit unterstuetzten Monitoren (z.B. nicht bei meinem LG)?
Korrekt.

Savay
2018-10-17, 11:14:22
Ich bin gerade am Ueberlegen ob und wie ich am besten auf VRR umsteigen soll: GTX 1080 behalten und GSync Monitor kaufen, oder Freesync Monitor (LG 27MU67-B) behalten und eine Vega 64 kaufen? Eigentlich bin ich ja sowohl mit dem Monitor als auch mit der GPU recht zufrieden, allerdings kann ich Judder gar nicht ab.


VRR lohnt sich auf jeden fall...musst dir nu mal durchrechnen was für dich akut günstiger ist und ob du dich auf das perspektivisch deutlich teurere nV System einlassen willst! ;)

Ich hab den genannten LG mit ner Vega64 und bin zufrieden...das fehlende LFC fällt bei einer so niedrig angesiedelten Range tatsächlich nicht wirklich sooo negativ...wenn überhaupt nur in ganz ganz seltenen Fällen.

Eigentlich muss man nur die Range auf 33-60Hz modden und zusehen das die min-FPS in Spielen nicht unter 35FPS fallen und schon ist das Problem quasi non-existent.
Mit 30FPS oder weniger will ich bspw. eh nicht zocken, weshalb ich die Spiele auch mit wohl nicht viel anders einstellen würde.

Mein nächster Step ist dann wohl der kommende ACER Nitro mit UHD und 144Hz, wenn der kein technischer Totalausfall wird.

Klevapalis
2018-10-17, 11:24:14
Wenn er sowieso 4K nutzen will und in der Leistungsklasse 1080 sucht, würde ich auf G-Sync setzen. Es ist schließlich unbekannt, wann es bei AMD mal was schnelleres als Vega gibt und unsicher, ob man in den nächsten Generationen mit NVIDIA konkurrieren kann. Bei NVIDIA gibt es heute schon schnellere Alternativen.

AffenJack
2018-10-17, 11:54:06
Nur um sicher zu gehen: Alle GSync Monitore (bzw. das GSync Modul) machen Framedoubling, wenn die Framerate unter den Sync-Bereich faellt? Bei Freesync gibt es LFC dagegen nur bei explizit unterstuetzten Monitoren (z.B. nicht bei meinem LG)?

Ich bin gerade am Ueberlegen ob und wie ich am besten auf VRR umsteigen soll: GTX 1080 behalten und GSync Monitor kaufen, oder Freesync Monitor (LG 27MU67-B) behalten und eine Vega 64 kaufen? Eigentlich bin ich ja sowohl mit dem Monitor als auch mit der GPU recht zufrieden, allerdings kann ich Judder gar nicht ab.
Ich liebaeugle ein wenig mit dem Acer XB271HKbmiprz (was fuer ein bescheuerter Modellname), den gibt es hier in Japan fuer ca. 550 Euro und er hat eine vernuenftige Range (24-60 Hz). Sonst sieht es mit bezahlbaren 4K GSync Monitoren ja etwas mau aus.

Irgendwie finde ich ist gerade der Zeitpunkt einen Monitor zu kaufen sehr schlecht. Nächstes Jahr kommt HDMI 2.1 und damit besteht die Möglichkeit, dass auch Nvidia Adaptive Sync unterstützen wird + es wird mehr 120Hz Monitore bei 4K geben. Zusätzlich sollte da auch mehr mit HDR kommen. Da man Monitore in Regel für einen längeren Zeitraum kauft, würde ich das 1 Jahr vielleicht noch warten.

Unicous
2018-10-17, 15:38:09
VRR ist sicherlich optional und nicht obligatorisch. Ich gehe eher davon aus, dass Nvidia wieder ein eigenes Ding macht um Adaptive Sync/VRR zu umgehen.:rolleyes:

Reaping_Ant
2018-10-17, 15:51:04
Irgendwie finde ich ist gerade der Zeitpunkt einen Monitor zu kaufen sehr schlecht.
Da hast Du natürlich auch wieder Recht. Allerdings glaube ich an zeitnahe ASync Unterstützung von NV erst wenn ich es sehe; ich vermute eher dass sie an GSync festhalten, solange es irgendwie geht. Die Möglichkeit, dass man im nächsten Jahr vernünftige Modelle mit 4K, 120Hz und HDR bekommen kann, besteht natürlich durchaus. Und 120Hz machen den Judder auch ohne VRR etwas erträglicher. Allerdings bin ich nach der doch eher schleppenden Entwicklung der letzten Jahre etwas skeptisch, was einen plötzlichen Fortschritt im Monitorbereich angeht...

Savay
2018-10-17, 15:53:14
Wieso?
Acer hat doch schon zwei UHD 144 Hz Modelle (mit pseudo HDR) unterhalb der extrem teuren FALD Modelle angekündigt! (Je eines mit G-Sync und eines mit Freesync)
Wenn die Produktion der Panels erstmal läuft und es passende Scaler gibt dürften dann mittelfristig sicher noch das eine oder andere ähnliche Modell von den üblichen Verdächtigen folgen (Asus z.B.).

Wirklich optimalst HDR taugliche Geräte mit 144Hz würde ich im bezahlbaren Bereich aber erstmal nicht in Hülle und Fülle erwarten....das scheint wenn man es stärker als in TVs auf minimale Latenzen optimieren muss nicht ganz trivial zu sein.
Für solche Zwecke dürfte mittelfristig wohl wenn überhaupt eher ein hoffentlich irgendwann mal kommender OLED TV mit HDMI 2.1 + VRR besser geeignet sein.

Kartenlehrling
2019-01-07, 09:47:25
Wie hat es @HisN schön gesagt...



Die Hölle ist auf der CES zugefroren.



Es gibt Hunderte von Monitormodellen, die mit dem VESA DisplayPort Adaptive-Sync-Protokoll variable Aktualisierungsraten (VRR) erreichen können.
Das VRR-Spielerlebnis kann jedoch stark variieren.

Um das Spielerlebnis zu verbessern, wird NVIDIA Monitore testen.
Diejenigen, die unsere Validierungstests bestehen, sind G-SYNC-kompatibel und
werden standardmäßig im GeForce-Treiber aktiviert.

amdfanuwe
2019-01-07, 10:00:57
Diejenigen, die unsere Validierungstests bestehen, sind G-SYNC-kompatibel und
werden standardmäßig im GeForce-Treiber aktiviert.
Oder anders ausgedrückt: Nvidia ist nicht in der Lage das VESA Adaptive-Sync-Protokoll ordnungsgemäß zu implementieren weshalb es nur mit wenigen Adaptive-Sync Monitoren funktioniert.
Schon traurig.

dildo4u
2019-01-07, 10:12:19
Natürlich könnten sie es sie haben aber strengere Kriterien die die Masse nicht erfüllen.(z.b 144hz) Es kann aber trotzdem überall zum selber testen aktiviert werden.


G-SYNC Compatible testing validates that the monitor does not show blanking, pulsing, flickering, ghosting or other artifacts during VRR gaming. They also validate that the monitor can operate in VRR at any game frame rate by supporting a VRR range of at least 2.4:1 (e.g. 60Hz-144Hz), and offer the gamer a seamless experience by enabling VRR by default.

For VRR monitors yet to be validated as G-SYNC Compatible, a new NVIDIA Control Panel option will enable owners to try and switch the tech on - it may work, it may work partly, or it may not work at all.



https://www.nvidia.com/en-us/geforce/news/g-sync-ces-2019-announcements/

deekey777
2019-01-07, 10:24:35
Nvidia hat jetzt ein Logo eingeführt, das keiner braucht, weil die Geräte schon alle Voraussetzungen für VRR/AS/FreeSync erfüllen, und meint, dass sie doch nicht G-Sync genug sind?

Respekt! :uup:

Schnoesel
2019-01-07, 10:33:09
Tschüss Gsync. Keiner wird dich vermissen.