PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : blurbusters.com G-Sync 101


Sardaukar.nsn
2017-07-16, 07:29:13
Die Seite ist bekannt durch den ufo-Test: http://www.testufo.com/#test=framerates und hat jetzt einen sehr ausführlichen und informativen Guide zu nVidias G-Sync Technik veröffentlicht den ich gerne weiterempfehlen möchte.

U.a. geht es dabei Grenzen der Technik aufzuzeigen und den geringsten Inputlag zu finden. Zum Schluss gibt es auch noch ganz konkrete Hinweise für G-Sync Benutzer, wie z.B. in jedem Fall seine FPS (idealerweise intern) im Spiel zu auf das Maximum minus 2 zu begrenzen. Ansonsten einen extern Framelimiter wie RivaTunerStatisticsServer (RTSS) zu verwenden.
Aber auch auf das Parken von CPU Kernen und die Bedeutung der Maus Einstellungen wird eingegangen. Wie gesagt, meiner Meinung nach der informativste Guide zum Thema G-Snyc.

Link: http://www.blurbusters.com/gsync/gsync101/

EDIT: Im Anhang das tl;dr :wink:

Lowkey
2017-07-16, 08:32:39
Solche Artikel braucht das Land.

Ich hatte immer angenommen, dass +2 FPS der ideale Weg war.


Die Settings gelten für G-Sync, aber die Streamer auf Twitch spielen ohne Vsync oder Gsync. Also für maximale FPS und minimalen Lag müßte es mit Vsync und Gsync = Off reichen.

d2kx
2017-07-16, 10:22:05
Blur Busters war schon immer eine der besten Anlaufstellen für solche Themen.

Ich gebe zu, dass die diversen *Sync-Techniken nicht so simpel sind, wie man das gerne hätte, aber es ist schon ermüdend, dass auch nach Jahren in praktisch sämtlichen Diskussionsthreads auf Reddit & co. völlig falsche Aussagen gemacht werden, insbesondere was das "Zusammenspiel" zwischen FreeSync/G-SYNC und Vsync angeht.

Ebenfalls empfehlen zur einfachen Darstellung kann ich AMDs Folien zu dem Thema:

https://www.amd.com/Documents/freesync-lfc.pdf

Sardaukar.nsn
2017-07-16, 10:47:51
...Also für maximale FPS und minimalen Lag müßte es mit Vsync und Gsync = Off reichen.

Da tut sich nicht mehr viel. Siehe: http://www.blurbusters.com/wp-content/uploads/2017/06/blur-busters-gsync-101-gsync-vs-vsync-off-144Hz.png

Aber man müsste sicherstellen das man immer konstante FPS hat die immer über den Hz des Monitors liegen. In der Praxis ist das leider selten der Fall, es sei denn man zockt CS:GO auf einer 1080Ti. Daher ist das G-Sync meist die bessere Wahl.

Lowkey
2017-07-16, 16:28:35
Und den Framelimiter des Profileinspectors sollte man meiden ...

Iscaran
2017-07-17, 08:59:03
Nach welcher logischen Begründung minimiert ein Framecap auf V-Sync MINUS 2 den Input-Lag mehr als ein Framecap auf V-Sync PLUS 2 ?

Wenn ich nen Framebuffer habe der die "überzähligen" Bilder einfach nicht darstellt weil sie mit dem Sync nicht synchron gehen ist doch V-SYNC PLUS X "Besser" (flüssiger)

Min Frametime = 1/Vsync und zwar immer ? (da die plus X ja einfach nicht dargestellt werden)

Als wenn ich V-SYNC MINUS X einstelle wo ich dann ab und an mal eine "Lücke" habe wo ich zu wenig FPS habe und es da dann zu einem Versatz der Darstellung kommt ?

Hier hab ich dann 1/(Vsync minus 2) was immer langsamer ist als obiges.

EDIT: Ah - OK es geht um die Fälle wo man mehr als nur 1 Sync technologie aktiviert und da dann Effekte der Framebufferüberlagerung reinspielen...Ansonsten solang nur V-Sync einfach V-Sync PLUS X.

Lowkey
2017-07-17, 09:05:38
Genau das hatte ich bislang auch immer gedacht.

Iscaran
2017-07-17, 09:17:08
Die Blurbuster liefern dazu auch keine Erklärungen und/oder gar Messungen mit 60FPS vs 62FPS @V-Sync.

Sondern immer nur den 58FPS fall...ist klar dass ich da 1 Frame delay habe weil ich ja ab und an nicht 60 hab...

IMHO ist das alles nicht so "gut" dargestellt auf Blurbusters..

Das einzige bild das in die richtung geht ist dieses: http://www.blurbusters.com/wp-content/uploads/2017/06/blur-busters-gsync-101-60hz-60fps-vs-144hz-60fps.png

Das zeigt nur dass man G-Sync + V-Sync nicht parallel einschalten sollte weil wegen der überlappenden Framebuffer dann der Inputlag steigt...
Ist eigentlich logisch...G-Sync ist eine Filter Technologie und V-Sync eine andere. Lege ich beide übereinander kommt es zu zusätzlichen Frame delays.
Aber nur V-Sync @62FPS Cap vs nur V-Sync 58FPS Cap zeigen sie nicht...

Screemer
2017-07-17, 12:27:33
Kann man ja anregen. würde mich auch interessieren. vielleicht ist ja jemand auf blurbusters mm forum aktiv?

Annator
2017-07-17, 13:47:57
Das zeigt nur dass man G-Sync + V-Sync nicht parallel einschalten sollte weil wegen der überlappenden Framebuffer dann der Inputlag steigt...
Ist eigentlich logisch...G-Sync ist eine Filter Technologie und V-Sync eine andere. Lege ich beide übereinander kommt es zu zusätzlichen Frame delays.
Aber nur V-Sync @62FPS Cap vs nur V-Sync 58FPS Cap zeigen sie nicht...

Dort steht aber als Empfehlung im Treiber G-Sync + V-Sync an im Spiel V-Sync deaktivieren.

aufkrawall
2017-07-17, 13:54:49
Empfiehlt Blaire auch, also wirds schon stimmen.

captain_drink
2017-07-17, 15:22:09
Nach welcher logischen Begründung minimiert ein Framecap auf V-Sync MINUS 2 den Input-Lag mehr als ein Framecap auf V-Sync PLUS 2 ?

Weil im ersten Fall G-Sync aktiv ist, im zweiten hingegen nur V-Sync, vermute ich.

aufkrawall
2017-07-17, 15:24:43
Klingt logisch für mich.

JaniC
2017-07-17, 16:32:27
Ich spiele aktuell Titanfall 2 mit...

- "Enable G-Sync for full screen mode" im NVCP.
- Spiel habe ich mit "-noborder -window" Paratmeter am laufen, da sonst mein ICC Profil nicht greift und die Farben und der Kontrast schlecht sind. Also borderless windowed.
- Frames schwanken zwischen ~90 und 130, bei 144 ist irgendwie Schluss. War auch im full screen schon so, obwohl weder ingame noch im Treiber V-Sync on.

Spiel fühlt sich absolut perfekt an. Es gibt kein Tearing. Inputlag nehme ich auch nicht wahr.

Eigentlich dürfte G-Sync garnicht greifen, da nicht Fullscreen. Sonst hätte ich ja Tearing. Es performt im Fullscreen und im -noborder -window Mode exakt gleich gut.

/pre-edit-weil-grad-getestet-mit-G-Sync-Indikator-vergiss-alles-da-oben:

G-Sync greift logischerweise tatsächlich nicht im borderless full screen, es gibt, wenn man ganz genau hinguckt, bei ganz schnellem Hin und Her doch ganz bisschen Tearing, fällt aber bei 130fps kaum (mir gestern in vier Stunden Zocken garnicht) auf, so subtil ist das. Ich dachte, ich zocke mit G-Sync gestern.

*Artikel les*

So:

Habe jetzt wie beschrieben alles eingestellt, G-Sync (bei mir jetzt full screen and windowed mode, weil sonst wie gesagt das ICC Profil nicht greift, muss sein), V-Sync im Treiber on, Frames auf 142 im RTSS und es flutscht - gut, es flutsche vorher auch, aber jetzt weiss ich, dass ich nur noch ~ 25ms Verzögerung habe und freue mich noch mehr über mein e-Penis. ;)

/edit: Wer auch noch wie am Ende des Artikels kurz erwähnt seine Mouse Polling Rate checken will, hier: http://zowie.benq.com/en/support/mouse-rate-checker.html (ging bei mir nur im Firefox, Vivaldi wollte nicht)

iuno
2017-07-17, 16:37:49
Was soll denn, um beim Beispiel von 60 Hz zu bleiben, ein Limit auf 62 bringen?
Dann hast du ohne V-Sync Tearing, was du nicht willst, oder eben V-Sync an und, um es bloed zu sagen, alle halbe Sekunde ein Bild uebrig. Im Zeitfenster fuer den aktuellen vblank wird dann im backbuffer immer schon das naechste Bild begonnen. Da man ja schon am Maximum ist, geht schneller schalten nicht mehr, der input lag steigt also immer solange, bis man ein uebriges Bild verwerfen kann und ist im Mittel hoeher.

captain_drink
2017-07-17, 18:41:55
/edit: Wer auch noch wie am Ende des Artikels kurz erwähnt seine Mouse Polling Rate checken will, hier: http://zowie.benq.com/en/support/mouse-rate-checker.html (ging bei mir nur im Firefox, Vivaldi wollte nicht)

Das liefert falsche Ergebnisse. Akkurat ist das hier: http://www.softpedia.com/get/System/System-Miscellaneous/Mouse-Rate-Checker.shtml

Titanfall 2 hat übrigens ein internes Framecap von 144. Ich persönlich nutze FSE und habe die Brightness runtergeregelt (~1mm vom Minimum entfernt).

Sardaukar.nsn
2017-07-18, 08:30:25
Ich spiele aktuell Titanfall 2 mit...


Eigentlich dürfte G-Sync garnicht greifen, da nicht Fullscreen. Sonst hätte ich ja Tearing. Es performt im Fullscreen und im -noborder -window Mode exakt gleich gut.


Interessant, ich habe dieses Wochenende auch endlich mal Titanfall 2 durchgezockt. Genial! Für mir der beste Shooter des letzten Jahres. Ich hatte fast durchgehend 141fps, ganz selten mal ein paar Drops auf ca 100fps, aber das gleicht das G-Sync ja wunderbar aus. Bitte beachten, die dynamische Auflösung aus zu stellen.

@G-Sync im Fenster. Ich meine das greift seit einiger Zeit auch dort schon.

...the new Game Ready drivers introduce Windowed Mode for G-SYNC, enabling you to enjoy super smooth gaming whilst playing in a window or borderless window.

Quelle: https://www.geforce.com/whats-new/articles/g-sync-gets-even-better

Iscaran
2017-07-18, 08:58:01
Was soll denn, um beim Beispiel von 60 Hz zu bleiben, ein Limit auf 62 bringen?


Klar kann man auch 300 einstellen...das bringt logischerweise "weniger" inputlag bei V-Sync. Aber man will ja evtl. die GPU nicht immer auf 100% laufen lassen wenns 20% auch tun.

Mit Framecap auf 58 hast aber das Problem dass du nicht immer einen Frame im Buffer hast wenn vblank kommt...=> "Tearing" bzw. V-Sync off... (+ dein Inputlag ist immer wieder mal deutlich "höher" da du dann ja 1 frame skip hast)
=> Nur bei G-Sync ist die Situation an ders, da hier der vblank variabel kommen kann.


Wie ich oben schon feststellte ist das Problem offensichtlich "komplexer" wenn man mehrere Syncmodi zeitgleich verwendet....denn dann hat man mehrere Framebuffer parallel laufen und kriegt dann ggf. 1-2 oder sogar mehr frames versatz.

G-Sync sollte man eigentlich nur aktivieren wenn die FPS durchgehend UNTERHALB der refresh rate des displays liegen.

Schafft die GPU hingegen mehr ist es ratsam NUR V-Sync zu benutzen (bzw. nur G-Sync da das dann in einen "V-Sync" mode wechselt).
Man braucht nicht V-Sync + G-Sync und erst recht nicht V-Sync ingame + V/G-Sync im Treiber.

Das halte ich für kontraproduktiv und ich denke das zeigt sich auch in den Messungen von Blurbusters...

Das ist um ein einfaches beispiel zu bringen wie ein Auto das 2 Gaspedale hat...welche soll man drücken ? Oder gar beide gleichzeitig ?

Iscaran
2017-07-18, 09:25:57
http://www.overclock.net/t/1595291/v-sync-or-60-fps-framerate-cap/20#post_25016612

Hier die Beschreibung ist exzellent...blurbusters finde ich hingegen weniger gut auch wenn sie irgendwelche Messungen gemacht haben. Leider testen sie eben nicht wirklich die Randbedingungen systematisch durch so dass man viel lernen kann.

EDIT: im Blurbustersforum wird zu dem Thema diskutiert - Die Kernaussage vom obersten Blur buster ist. Es ist game abhängig, manche games zeigen minimalen input-lag mit FPS-X, die meisten mit FPS+X @V-Sync. G-Sync ist ähnlich...die Kombination mit V-Sync + G-Sync ist in der regel völliger quark allerdings. Der grund für das Verhalten ist das manche games quasi intern bereits ein V-Sync/Adaptive Sync nutzen...in diesen fällen ist es in der Regel besser die FPS-rate auf 1-2 FPS unter der Monitor Sync-Rate zu cappen...da das ingame sync dann am besten funktioniert und man am wenigsten oft den Fall des Buffer overflows hat welcher zu einem extrem Inputlag anstiegt von 1-2 frame times führt.
http://forums.blurbusters.com/viewtopic.php?f=2&t=98

EDIT: 3 weitere Exzellente Artikel
http://www.anandtech.com/show/2794
http://www.anandtech.com/show/2803
http://www.neogaf.com/forum/showthread.php?p=150371456#post150371456

Und das bei randlosen Fenstermodi der V-Sync von Windows Aero kontrolliert wird wissen denk ich auch die wenigsten:
http://www.neogaf.com/forum/showpost.php?p=150563411&postcount=68

Deisi
2017-07-18, 11:06:57
Ohne V-sync hast du oberhalb der max hz dann tearing. Warum sollte man das bevorzugen?

Lowkey
2017-07-18, 11:21:28
Für Online Shooter wäre geringerer Lag wichtiger als Tearing. Hängt aber auch vom Alter ab. Mit 17 Jahren kannst du jede Millisekunde ausnutzen.

captain_drink
2017-07-18, 17:53:03
"V-Sync+G-Sync" heißt nicht, dass beides parallell liefe.
Wenn V-Sync eingeschaltet ist, wird es verwendet, sobald G-Sync nicht mehr aktiv ist (i.e. bei FPS>=refresh rate); wenn es ausgeschaltet ist, wird es nicht verwendet, sobald G-Sync nicht mehr aktiv ist.
G-Sync hat in beiden Fällen Priorität.

Darkman.X
2017-07-18, 18:57:17
Doch, es läuft parallel. In zwei nVidia-Treiber-Threads wurde schon darüber gesprochen: Mit "GSync an" + "VSync aus" soll es auch innerhalb der Refresh Rate irgendwelche Probleme geben. Deshalb hat Blaire (inoffizieller nVidia-Beauftragter ;)) auch empfohlen, VSync zu aktivieren.

Noch jemand, der das Thema kennt:
Empfiehlt Blaire auch, also wirds schon stimmen.

aufkrawall
2017-07-18, 19:16:34
Es geht ja um die Frametimes, und wenn die stark schwanken und einzelne so niedrig sind, dass sie kürzer als die minimale Refreshdauer des Displays sind, landet man ja außerhalb des VRR-Bereichs und hat entsprechend ohne weitere Limits Tearing.
Also muss man limitieren, und zusätzlich Vsync ist hier offenbar die sichere Methode, dass kein Frame zu kurz angezeigt wird. Womöglich kann ein fps-Limiter allein nicht in jedem Fall genau genug arbeiten, um das zu verhindern. Aber einen fps-Limiter kann man ja noch zusätzlich zu VRR + Vsync verwenden, um den Input Lag zu drücken (mit in-game Limitern enorm, wie diverse Tests zeigen).

Iscaran
2017-07-19, 11:09:48
ähnlich wie RealNC rate ich eigentlich eher davon ab zu viele derartige Filter "gleichzeitig" anzuschalten.

Und ja V-Sync und G-Sync laufen gleichzeitig wenn beide an sind...ergo auf eines fokussieren.

Dazu kommt noch die Problematik das hier die Game Engines bzw die APIs reinspielen (z.B. wegen unterschiedlicher Verwendung des Pre-Render-Limits)
https://forums.blurbusters.com/viewtopic.php?f=5&t=3441#p26814

Ich warte schon gespannt auf den follow up VSYNC ON HOWTO article...
https://forums.blurbusters.com/viewtopic.php?f=5&t=3441#p26822

Bei V-Sync ON und "korrekter" Umsetung von TripleBuffering - hat man all diese Probleme nicht (AFAIK ist bei AMD GPUs und Triple Buffering genau das der Fall):
(EDIT: Allerdings bietet nur openGL diese Funktion an, Unter DX gibt es kein TripleBuffering afaik - zumindest kein "real TBF" )

http://www.neogaf.com/forum/showpost.php?p=241411980&postcount=63
'Fake' triple buffering has two back-buffers queuing up frames in series, waiting once they are full. So the framerate is capped at your refresh rate.
'Real' triple buffering has two back-buffers in parallel, and will flip between them, rendering as many frames as possible. Then when it's time to refresh the display, the most recent complete frame is moved to the front-buffer.

MadManniMan
2017-07-20, 18:10:13
Ist Freesync in irgendeiner weise besser oder schlecht bzw. unterscheidet sich technisch von GSYNC?

aufkrawall
2017-07-20, 18:19:50
ähnlich wie RealNC rate ich eigentlich eher davon ab zu viele derartige Filter "gleichzeitig" anzuschalten.

Und ja V-Sync und G-Sync laufen gleichzeitig wenn beide an sind...ergo auf eines fokussieren.

Nope. Wo sind Nachteile mit Gsync + Vsync + in-game fps-Limiter nachgewiesen?


Dazu kommt noch die Problematik das hier die Game Engines bzw die APIs reinspielen (z.B. wegen unterschiedlicher Verwendung des Pre-Render-Limits)
https://forums.blurbusters.com/viewtopic.php?f=5&t=3441#p26814

Limitiert man über den Treiber auf 1.

Ist Freesync in irgendeiner weise besser oder schlecht bzw. unterscheidet sich technisch von GSYNC?
Idealerweise funktioniert FreeSync genau so gut, aber es gibt Einschränkungen.
-je nach Monitor keine LFC, also kein VRR bei niedrigen fps
-zu Anfang gab es Probleme mit Overdrive, das muss der Monitor-Hersteller offenbar selbst mit FreeSync für jedes Modell abstimmen (*Verkackungsgefahr*...)
-inkompatibel mit in-game fps-Limitern, oder das Limit muss weit unterhalb der maximalen Refreshrate liegen (doof, weil Treiber-Limiter höheren Input Lag hat)
-der Radeon Treiber-Limiter funktioniert nicht mit DX12, Vulkan und auch nicht im borderless windowed-Modus

Sardaukar.nsn
2017-07-20, 22:55:54
Ist Freesync in irgendeiner weise besser oder schlecht bzw. unterscheidet sich technisch von GSYNC?

Hat zwar nicht direkt mit den Monitoren zu tun, aber 4k,60hz oder 1440p,144hz brauchen halt auch richtig starke Grafikkarten und da hatte AMD in letzter Zeit wenig anzubieten.
Ich hoffe aber das ändert sich bald, weil Konkurrenz belebt das Geschäft, ist besser für den Kunden usw. ;)

MadManniMan
2017-07-20, 23:42:58
Danke für die Antworten!

Ich hoffe ja, irgendwann mal wieder aufrüsten zu können und bei den Preisen von Free- und Gsync-Monitoren schreit es ja eigentlich nach AMD - die Sache mit den Limitern ist aber irgendwie doof.

ezzemm
2017-08-01, 06:46:48
Ist Freesync in irgendeiner weise besser oder schlecht bzw. unterscheidet sich technisch von GSYNC?

Laut diesem Beitrag (ich schaue seine Videos sehr gerne; er scheint recht kompetent zu sein) ist Free- und G-Sync praktisch identisch, bis auf leichte Unterschiede in Extremsituationen.

mVNRNOcLUuA

Gynoug MD
2017-08-01, 12:58:56
Freesync:
Im Alltag am nervigsten ist der nicht durchgängige FS-Bereich, daß heißt z.B. bei einem vernünftigen Monitor mit (sehr) großem FS-Bereich, daß man, etwas übertrieben gesagt, je nach Spiel, den FS-Bereich manuell umstellen muß (Low/High).
Ansonsten sehe ich beide AdaptSync auf einem Level, der AMD-interne Framelimiter verursacht bei mir (sehr empfindlich diesbezüglich) keinerlei Lags bzw. Eingabeverzögerungen, vermutlich eher wieder so eine theoretische Sache, die im Alltag keine Sau bemerkt.:smile:

robbitop
2017-08-01, 23:30:34
Was ist eigentlich von G-Sync + Fast-Sync zu halten. Laut Treiberpanelerklärung liest sich das so wie das "enhanced sync" von AMD, welches in Kombination mit Freesync läuft. Also VRR + V-Sync mit echtem Triple Buffer. Wird dann noch ein Framelimiter benötigt?
Erste Tests mit GTA5 und Witcher 3 von mir führten zu gefühlt sehr guten Ergebnissen (1080ti @2000/6000 @4K @60Hz)


edit - nicht empfehlenswert:


So, what about pairing Fast Sync with G-SYNC? Even Nvidia suggests it can be done, but doesn’t go so far as to recommend it. But while it can be paired, it shouldn’t be…

Say the system can maintain an average framerate just above the maximum refresh rate, and instead of an FPS limit being applied to avoid V-SYNC-level input lag, Fast Sync is enabled on top of G-SYNC. In this scenario, G-SYNC is disabled 99% of the time, and Fast Sync, with very few excess frames to work with, not only has more input lag than G-SYNC would at a lower framerate, but it can also introduce uneven frame pacing (due to dropped frames), causing recurring microstutter. Further, even if the framerate could be sustained 5x above the refresh rate, Fast Sync would (at best) only match G-SYNC latency levels, and the uneven frame pacing (while reduced) would still occur.

That’s not to say there aren’t any benefits to Fast Sync over V-SYNC on a standard display (60Hz at 300 FPS, for instance), but pairing Fast Sync with uncapped G-SYNC is effectively a waste of a G-SYNC monitor, and an appropriate FPS limit should always be opted for instead.
http://www.blurbusters.com/gsync/gsync101-input-lag/

MadManniMan
2017-08-02, 00:48:02
Laut diesem Beitrag (ich schaue seine Videos sehr gerne; er scheint recht kompetent zu sein) ist Free- und G-Sync praktisch identisch, bis auf leichte Unterschiede in Extremsituationen.

http://youtu.be/mVNRNOcLUuA

Danke für die Info, sehr cool zu wissen!

Sardaukar.nsn
2017-08-02, 07:11:49
Laut diesem Beitrag ... ist Free- und G-Sync praktisch identisch, bis auf leichte Unterschiede in Extremsituationen.

http://youtu.be/mVNRNOcLUuA

Theoretisch ja, praktisch gibt es mit vielen FreeSync Monitoren aber bisher immer wieder Hardware Probleme. Aktuelles Beispiel der eigentlich sehr interessante Samsung CF791 (34", UWQHD 3.440 × 1.440, VA-Panel, Quantum Dots, 100 Hz) https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11446108#post11446108

Erzeugt bei eingeschaltetem FreeSync z.B. bei Witcher 3 ganz böses flickern, hier ab 1:00min https://www.youtube.com/watch?v=fhkn2t1CXc0&t=103s da fragt man sich echt wie so etwas überhaupt in den Handel kommen kann. Andere FreeSync Monitore kämpfen mit teils sehr beschränkten Hz-Bereichen (48-75hz usw.) oder haben Probleme mit der LFC (low frequency compensation) also mit ganz niedrigen FPS so um 30fps.

MartinRiggs
2017-08-04, 08:52:06
Ich habe gestern den 27 Zoll Acer gekauft und bin von G-Sync auch wirklich angetan, man muss es mal selbst erlebt haben.

Das schlimme ist halt das man sich erstmal auf nen Hersteller festlegt, aber da mich VEGA eh nicht überzeugt macht das nichts.
Wichtig ist mir auch eine große Range ohne Frickelei und grade das verkacken ja etliche Freesync Monitore.

Das mit dem Samsung auf Youtube ist ja wohl mal albern, der flackert bei gut 50FPS weil die Range des Samsung so schmal ist :eek:
Was für ein Schrott

Sardaukar.nsn
2017-08-04, 18:25:51
Herzlichen Glückwunsch. Ich denke wenn man den Schritt erst mal gemacht und gesehen hast, will man dann nicht mehr zurück. Letztes Wochenende habe ich die Titanfall 2 Kampagne im Bereich von 110-140fps auf 1440p, 27" durchgespielt und das war einfach the next big thing, im Vergleich zu FullHD 60hz.
Ich hoffe halt das mit HDMI 2.1 die variable Refreshrate sich auf breiter Front durchsetzt, aber aktuell sehe ich die Hardware Lösung (G-Sync) vor der Software Lösung (FreeSync).

Kriton
2017-08-04, 21:48:33
Freesync ist nicht mehr SW-Lösung als G-Sync, sondern lediglich (als Vesa-Standard) Teil des Scalers, während Nvidia außerhalb des Standard ein eigenes HW-Modul verbauen muss. SW-Unterstützung (Treiber) brauchen natürlich beide.

Sardaukar.nsn
2017-08-05, 06:57:38
@Kriton: Genau um dieses Modul ging es mir. http://images.anandtech.com/doci/7582/DSC_4622.jpg

The G-Sync board itself features an FPGA and 768MB of DDR3 memory. NVIDIA claims the on-board DRAM isn’t much greater than what you’d typically find on a scaler inside a display. The added DRAM is partially necessary to allow for more bandwidth to memory (additional physical DRAM devices). NVIDIA uses the memory for a number of things, one of which is to store the previous frame so that it can be compared to the incoming frame for overdrive calculations.
Quelle: http://www.anandtech.com/show/7582/nvidia-gsync-review

Die Hardware wird ja irgend einen Zweck haben. Scheinbar funktioniert das auch besser (z.B. breitere G-Sync Range) als die andere Lösung.
Ich hoffe aber auch das es spätestens im Zuge von HDMI 2.1 zu einer gemeinsamen und untereinander kompatiblen Lösung für die variable Wiederholrate kommen.

Kriton
2017-08-05, 13:31:30
Mir ist klar, dass Du auf das Modul angespielt hast. Ich sage ja auch nicht, dass Nvidia keine extra HW verbaut, sondern, dass die Aussage, dass Freesync eine SW-Lösung wäre, falsch ist. Die dafür notwendige HW findet sich aber bereits im Scaler, weil das auf einem VESA-Standard basiert und nicht propietär ist, wie bei Nvidia.