PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : G-/Free-/A-Sync: framesynchronisierter Displayrefresh per variablem vblank-Intervall


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 [24] 25 26 27 28 29 30

Kartenlehrling
2016-09-06, 23:06:37
Mediamarkt hat wohl die ersten Paletten ganz abgenommen ...

http://geizhals.de/?cat=monlcd19wide&xf=106_3%7E3311_2016%7E950_Lenovo%7E99_27#xf_top
LCD-Monitore mit Hersteller: Lenovo, Diagonale ab 27", Panel: VA, Gelistet seit: ab 2016

mili2110
2016-09-07, 02:51:46
wer kann sich ernsthaft 1080p auf 27" antun!?:confused:

Zero-11
2016-09-07, 06:35:12
wer kann sich ernsthaft 1080p auf 27" antun!?:confused:

ohne IPS kein Problem

Loeschzwerg
2016-09-07, 07:04:49
http://www.techspot.com/images2/news/bigimage/2016/08/2016-08-29-image-2.jpg


Dann ist es besonders Witzig das sie den neuesten Freesync Monitor mit Titanfall 2 werben, 1000$ heist bei uns 1300€ ... Teuer aber wohl ein wirklich tolles Teil.

http://www.techspot.com/news/66125-samsung-curved-quantum-dot-gaming-monitors-show-ifa.html

Doch etwas billiger als gedacht, gelistet ab 1163€:
http://geizhals.de/samsung-c34f791w-lc34f791wqux-en-a1502619.html?hloc=at&hloc=de

Angeblich hat der eine Range von 48-100Hz.

Unicous
2016-09-15, 12:05:38
23,8(24)" UHD IPS mit FreeSync und 60Hz Refresh(40-60? Hz Range). Ausleuchtung ziemlich mies, liegt bei nur 250cd/mm². 10bit wird behauptet, sind aber nur 8bit+FRC.


http://www.lg.com/us/monitors/lg-24UD58-B-4k-uhd-led-monitor


TPU behauptet, das Ding könnte um die 300 Dollar kosten.

https://www.techpowerup.com/225843/lg-unveils-the-24ud58-b-24-inch-ultra-hd-monitor

Achim_Anders
2016-09-15, 17:50:41
Wie wirken sich eigentlich schlechte Frametimes der Graka mit den neuen Synctechnologien aus? Wird das abgemildet, oder sieht man kurzzeitige Frameeinbrüche doch noch deutlich? (Ich habe nie Adaptive Sync gesehen, ich hoffe die Frage macht so überhaupt Sinn.)

dargo
2016-09-15, 17:58:50
Abgemildert wird da nichts. Imo ist man eher noch empfindlicher auf schlechte Frametimes weil man die dauerhaften Ruckler bis Miniruckler durch die unpassende Frequenz zwischen Monitor und Graka nicht mehr hat.

Kartenlehrling
2016-09-15, 18:22:28
Ich spiele nie mit 100% GPU Last, ich setzt einen fps-limiter immer 5-20fps unter maxFPS und fahr damit gut,
das hat den Vorteil die CPU Last wird auch minimiert und mögliche Lastspitzen werden abgefangen.

dargo
2016-09-17, 20:55:26
Kleine Randnotiz von mir da Rise of the Tomb Raider mein erstes DX12 Game ist. Der Übergang ist hier in den LFC Bereich und wieder zurück mit Freesync absolut flüssig. Getestet mit einer Range von 47-120Hz.

Kartenlehrling
2016-10-03, 17:01:00
http://geizhals.de/?cmp=1491748&cmp=1502773&cmp=1497808
BenQ Zowie XL2730, 27" (9H.LEVLB.QBE) Samsung C27FG70FQ, 27"(LC27FG70FQUX/EN) Lenovo Y27f, 27"

Im Video war es wohl der 24", wieso Samung diesen genommen hat müssen sie uns Morgen erzählen.
Von einem Bildtest kann man ja wohl auch nicht reden, schlimmer als beim tomshardware Bildtest, da hatte man wenigsten versucht Seriosität zuerwecken.

https://www.youtube.com/watch?v=ore6DeSGLfQ
[Blind test] 1ms vs 4ms, Flat vs curved, What's your choice?

aufkrawall
2016-10-09, 20:09:55
Bin schwer angepisst über die Marktsituation.
Bei FreeSync gibts mit 1080p und 4k eine recht gute Auswahl. Bei WQHD IPS/VA ist es dann aber, genau wie mit Gsync, vollkommen Essig. Gibt nur das überteuerte AU Müll-Panel. :mad:

raumfahrer
2016-10-09, 20:39:43
Bei 4k FreeSync sieht es jetzt auch nicht so sonderlich gut aus. Keine VAs (gibt scheinbar nur ein einziges 4k VA Panel, ohne FS), keine mit brauchbarer Range.

Die einzigen Sync Monitore, die ich momentan irgendwie interessant finde sind der viel zu teure Eizo und die Dells mit GSync, bei den beiden Herstellern soll ja angeblich die QA noch halbwegs funktionieren. Letztere haben aber leider nur TN (wenngleich wohl sehr gute) Panele und eben kein FS. Preislich sind die auch eher Oberkante Unterlippe (für TN).

Savay
2016-10-09, 21:29:50
Seit wann ist VA an und für sich eigentlich der ultimative Heilsbringer?!

VA/IPS/TN sind je nachdem worauf man besonders wert legt wirklich brauchbar oder halt totaler müll...
Solange man keine Schrottpanels abbekommt kann man mit allem mehr oder weniger Glücklich werden...die werden insbesondere bei IPS nur mehr, da es einfach auch im Lowcost Segment wesentlich weiter verbreitet ist als früher.
Die LG IPS UHD Panels sind durchaus ganz gut (vergleichsweise wenig Glow und kaum bis garkeine Pixelfehler) und das mit der Range dürfte bei den UHD Panels viel eher am DP und dem Scaler klemmen. Die Untergrenze ist generell sowieso nicht beliebig absenkbar...alles um 35-40Hz ist da schon ok...nach oben raus wären mehr als 60Hz nur langsam mal ganz nett.

Ich sags ja nur ungern...aber solange OLED immernoch so teuer ist und mit den Kinderkrankheiten kämpft, gibts das Eierlegende Wollmilchpanel einfach nicht.
VA hinkt bei den Schaltzeiten stärker hinterher als IPS, dazu ist es weit weniger Blickwinkelstabil...sowohl was Farbtreue als auch Kontrast angeht...nur ist der Schwarzwert tendenziell halt der beste.
IPS ist halbwegs flott und halt sehr stabil, dafür ist der Schwarzwert etwas schlechter. Das mit den Pissecken und sonstige Qualitätsprobleme hängen da stark am Panel Lieferanten.
TN ist und bleibt halt das schnellste...eigentlich mMn immernoch der einzige typ wo 144Hz+ tatsächlich noch Sinn macht.

Für nen TV würde ich auch eher nen VA vorziehen...bei nem Monitor aber immernoch eher IPS...ist mMn für Allroundzwecke meistens noch der beste Kompromiss...

aufkrawall
2016-10-09, 21:43:50
Wer bitte sagt, VA wäre der "ultimative Heilsbringer"?
Ich will ein ausgewogenes Produkt, und das trifft auf TN schon mal prinzipiell nicht zu.

Meine Definition von Ausgewogenheit:
-anständige Auflösung/Pixeldichte (mindestens WQHD@27")
-anständige Blickwinkel (mit TN nicht möglich)
->60Hz, allermindestens 75Hz
-nicht zu extreme Ausreißer bei den Reaktionszeiten (hier versagen die meisten VAs, aber nicht alle bzw. gehts bei AMVA+ teilweise gerade noch so)
-<10ms Input Lag durch Signalverarbeitung
- realer Kontrast nicht schlechter als ~900:1, was starken Glow & BLB ausschließt
-nahe 100% sRGB
-Gsync oder FreeSync mit LFC

Wär nun wirklich nicht unmöglich, als Hersteller mit so einem Monitor für 500€ Geld zu verdienen.

Savay
2016-10-09, 21:50:19
Joar mit den AUO WQHD AHVA Panels ist man echt angeschissen.
Das Problem ist aber auch das diese >60Hz Geschicht halt primär Gamerkram und immernoch eher "Nieschenkram" ist und die Panelhersteller da offensichtlich nicht so das arge Marktpotenzial für bspw. 144Hz IPS-Type sehen um da massiv R&D reinzustecken...außer halt billig, billig, billig und/oder Resteverwertung.

Die LG UHD IPS Panels sind dagegen an und für sich tatsächlich ganz gut...aber da klemmts halt einzig an der Range...mE. primär wohl eher wegen DP1.2

raumfahrer
2016-10-09, 22:04:12
Seit wann ist VA an und für sich eigentlich der ultimative Heilsbringer?!

VA/IPS/TN sind je nachdem worauf man besonders wert legt wirklich brauchbar oder halt totaler müll...
Solange man keine Schrottpanels abbekommt kann man mit allem mehr oder weniger Glücklich werden...die werden insbesondere bei IPS nur mehr, da es einfach auch im Lowcost Segment wesentlich weiter verbreitet ist als früher.
Die LG IPS UHD Panels sind durchaus ganz gut (vergleichsweise wenig Glow und kaum bis garkeine Pixelfehler) und das mit der Range dürfte viel eher am DP und dem Scaler klemmen. Die Untergrenze ist generell sowieso nicht beliebig absenkbar.

Ich sags ja nur ungern...aber solange OLED immernoch so teuer ist und mit den Kinderkrankheiten kämpft, gibts das Eierlegende Wollmilchpanel einfach nicht.
VA hinkt bei den Schaltzeiten stärker hinterher als IPS, dazu ist es weit weniger Blickwinkelstabil...sowohl was Farbtreue als auch Kontrast angeht...nur ist der Schwarzwert tendenziell halt der beste.
IPS ist halbwegs flott und halt sehr stabil, dafür ist der Schwarzwert etwas schlechter. Das mit den Pissecken und sonstige Qualitätsprobleme hängen da stark am Panel Lieferanten.
TN ist und bleibt halt das schnellste...eigentlich mMn immernoch der einzige typ wo 144Hz+ tatsächlich noch Sinn macht.

Darum geht es doch gerade, jede Technik hat Stärken und Schwächen. Also braucht es Auswahl. Nur gibt es die nicht.

Wieso gibt es den 27" Dell nur mit GSync? Bin gerne bereit, für ein hochwertiges TN Panel zu zahlen, aber nicht den nvidia Premium. GSync raus, FreeSync rein und für 500 Euro ein guter Preis für gute Qualität. Wo bleiben FS VAs? Da gibt es nur lächerliche <95dpi Panele. Die aufgerufenen Preise für die 1440p IPS mit FS sind auch erbärmlich bei einem schrottigen Panel, für das man FAG-Lotterie spielen muss. Eizo siebt die wohl als einziger aus und verlangt dann dafür Preise...

Was ist an <=30Hz Scalern eigentlich so schwierig? Das gibt es ja fast nur mit GSync.

Und wo ich den Dell angesprochen habe: Steckt im AOC AGON AG271QX das gleiche Panel, nur mit FS? Da bliebe dann nur noch die Frage, wie viel Dell bei AUO aussortiert, also ob der AOC die gleiche Qualität bietet.

horn 12
2016-10-09, 22:18:40
Habe den Ultra HD S-IPS Panel Modell LG 27UD68 -P
und eben nur 32 bis 60 Hz (Range modifiziert)
aber dies muss man unter Ultra HD erst mal erreichen und da musss wohl zwingend Vega 10 (in Groß) her.
Was nützt mir 144+ Hz wenn man da nur in 2560x1080 unterwegs ist.

foenfrisur
2016-10-09, 22:30:59
also für mich war der acer x34 einfach am nächsten dran an der eierlegenden wollmilchsau.
nachteilig:
-der preis
-ips ist nicht der knaller, farben kaum besser als ein sehr gutes tn-panel, glow-effekt, backl.bleeding
-dadurch das es 21:9 ist, sind es logischerweise von der pixeldichte nur wie 2,5k, statt 4k auflösung :(
-ghosting ist wegen 4ms auch stärker

finde meinen benq xl immernoch grandios ggü. dem acer, auch wenn ich letzteren behalten werde.
blickwinkel des tn fand ich nie so dramatisch, weil ich mich ja kaum vor dem monitor bewege beim spielen :P
aber 120/144Hz und 1ms reaktionszeit ist beim shooter schon ein traumhaftes spielgefühl, wenn man auch die FPS erreicht.

mfg

Savay
2016-10-09, 22:37:24
Naja angeblich kommt von LG ja im Q1 noch nen IPS Panel in 34" 21:9 mit 1440p und 144Hz.

Mal schauen wie LG IPS Type und 144Hz unter einen Hut bekommt und vlt schieben die ja im Laufe des Jahres auch noch was in 16:9 hinterher.
Man sollte die Hoffnung nicht aufgeben: Mühsam ernährt sich das Eichhörnchen. :wink:

LG.Display AH-IPS LM340UW3-? 3440x1440 14ms G2G 1000:1 300 178/178 W-LED 144Hz 21:9 Curved 1900R Q1 2017

foenfrisur
2016-10-09, 22:41:29
naja....klingt wie der acer, nur mit besserer anbindung dp1.3.
14ms ist wohl ein schreibfehler.

die range geht sicher nicht bis 144Hz.

mfg

Savay
2016-10-09, 22:45:58
Im Acer ist aber ein Overclocked 60Hz Panel drin... ;)

http://www.tftcentral.co.uk/news_archive/35.htm#lg.display_144hz

Das mit den Zeiten muss nix heißen...die 144Hz AUO sind da wohl auch mit 12ms spezifiziert.
Was sehr IPS typisch klingt...können ja die Technik nicht gänzlich überlisten.

Kartenlehrling
2016-10-09, 23:07:57
Alle Anbieter kommen mehr oder weniger im TV Bereich mit Quatum Dot Technik und die ersten Monitor sind auch schon da, geplant bzw. werden spätesten zur CES im Januar gezeigt.
Mit dieser Technik kommt man bei ca. 130 Leuchtpunkte auf ca. 7000 Dimmingzonen bei ca. 55 zoll,
damit kommt man zwar nicht auf OLED Niveau Schwarzwerte, aber dafür sind die Farben brillianter bei hellen Bilder, was ja eigentlich mehr aufwiegt.

Um den 30" Dell OLED ist es ja verdammt still geworden, Dells Angestellte sind nichtmal bereit einen Verschiebungs Termin mehr zu nennen.

Nach dem Asynchronous Spacewarp Bericht für die Brillen frage ich mich ob wir Freesync so noch brauchen, vielleicht sehen wir bald auch für Monitor so eine Funktion,
anstelle mit 45fps rumzukrebsen werden echte Zwischenbilder berechnend (kein frame doubling) damit wir 60fps/60Hz halten können.
Und mit Sonys 4k upscaling interpolation schaft man auch 60Hz besser zu halten.


Leider hat das Koreateil nur 60Hz und nur 350nits, aber laut einigen Seite soll freesync funktionieren.
Ich würde heute nichts mehr kaufen ohne HDR unterstützung.
http://www.ebay.de/itm/WASABI-MANGO-340UC-HDMI-2-0-Samsung-Curved-PVA-Panel-3440X1440-WQHD-34-Monitor-/131902492612

Hübie
2016-10-09, 23:31:19
660 € für koreanische Panellotterie wäre mir ohne Garantie zu heikel. Hab mir die Konditionen jetzt nicht durchgelesen, aber idR ist's ja so dass die dich bei den Eiern haben wenn da was ist...

Ich sitze die Monitorproblematik weiterhin mit meinem 4k-Monitor aus den ich für 80 € erstehen konnte. :D Da verzeiht man fehlendes VRR.
Was ist dieses asynchronous spacewarp? :redface:

Edit: Vergiss die Frage. Gerade den Bericht auf www.computerbase.de gefunden.

Edit2: lol. Beide gleichzeitig.

Kartenlehrling
2016-10-09, 23:32:59
https://www.computerbase.de/2016-10/mindestanforderungen-asynchronous-spacewarp-registry-eintrag/
Oculus Rift : Gesenkte Anforderungen durch Asynchronous Spacewarp

Hübie
2016-10-09, 23:39:47
Das ist kein Ersatz für VRR und hat damit eigentlich auch nix zu tun. ;)

foenfrisur
2016-10-10, 08:03:41
Ja, ich frage mich auch Grad, was dass eine mit dem anderen zu tun hat.
Bzw. Wieso man nun auf VRR verzichten soll/kann.

Vielmehr würde ich doch sogar fordern, das alle VR-Brillen VRR anbieten müssen ;)

Mfg

Hübie
2016-10-10, 10:52:11
Soviel ich weiß haben die fixed v-sync. Kann mich da aber gerade täuschen. Tearing tritt jedenfalls nicht auf. Die road to VR wurde auch erst befahren. Da gibt es noch einiges zu optimieren. Momentan erachte ich es (und da bin ich sicher nicht allein) als teures Spielzeug.

Kartenlehrling
2016-10-10, 11:15:19
Weiße nicht wieso ihr das nicht sehen wollt.
Geworben wurde die Variable Refresh Rate (VRR) um Tearing und Vsync Ruckler zu beseitigen, umgesetzt wird es damit das der Monitor eine Max Range hat, nach oben fest begenzt,
nach unten variable bis zu einem Punkt wo entweder Low Framerate Compensation (LFC) greift was aber zu schlieren neigt durch die Verdoppelung der Bilder oder
man verzichte auf die Funktion und hat wieder Tearing im schlimmstenfall beim zugeschalten von Vsync schalte der Rechner auf Half-miniVRR.

Asynchronous Spacewarp wird versucht die MaxRange immer zu erreichen, durch ein Bild-Algorithmus werden die Zwischenbilder errechnend,
das ist anscheinend einfach und nicht so Rechnenintensiv wie ein wirkliches Bild.
Der Vorteil von MaxRang, weniger Bewegungsunschärfe und keine Geisterbilder, das Tearing und Vsync Ruckeln gibt es natürlich auch nicht,
ähnlich arbeite doch auch dieses AMD fluid motion für Kino-Filme, da wird nicht einfach ein Bild verdoppelt sondern das Zwischenbild errechnend.

Ich sehe es aber auch mehr als ein kommendes Consolenfeature als auf dem PC.
Laut Fussnote kann es im Moment nur die RX4xx von AMD und bei Nvidia ab Maxwell.

Hübie
2016-10-10, 11:49:15
In Filmen ist es deutlich einfach, da du die Frames ja schon hast und alles deterministisch ist. Du weißt was passiert und musst nur entsprechend den Buffer auslesen und inter- bzw. extrapolieren. Diese ganzen Referenzframes werden dann gesampled und zusammengeklatscht. Das ist teils Schrott.
Bei 3D Spielen ist es allein durch Vektorisierung und dem wenig vorhersehbaren Bewegungen schon eine riesige Herausforderung. Aber ich habe verstanden was du meinst: Immer max refresh-rate = fps. Das wäre nice, aber was ist mit input lag und was ist wenn sich das System mal verrechnet im Sinne von: Uuuups ich dachte du guckst dahin. Kennst das ja aus Doom. Läufst n Gang runter, hörst was und drehst dich plötzlich schnell um, dann kommen die von links, rechts oben und unten. Das stelle ich mir mikrotechnisch sehr schwer vor, denn ein kompletter Frame ist schon im zweistelligen Mikrosekundenbereich, wenn wir nicht immer davon ausgehen jeder hat eine TXP drin. :D

Vielleicht kommt dies noch als sinnvolle Ergänzung aber für die kommenden Jahre ist VRR doch schon eine sehr gute Technik und wird wohl auch weiter bestand haben.
LFC greift bei G-Sync afair nur zwischen 24 und 30 fps, also da wo man eh nie sein will. Korrigiert mich wenn ich irre (mit Quelle bitte :)).

akuji13
2016-10-10, 12:12:42
http://www.pcper.com/reviews/Graphics-Cards/Dissecting-G-Sync-and-FreeSync-How-Technologies-Differ

"G-Sync works differently, doubling the refresh rate and inserting duplicate frames starting at around the 37 FPS mark."

foenfrisur
2016-10-10, 13:04:44
Es geht ja nicht darum, das die Technik nicht sinnvoll ist.

Aber Wieso soll man nun wieder alle Techniken ala VRR obsolet machen und nur auf zwischenbild Berechnungen der graka bauen, um eine permanent hohe frameanzahl zu erreichen? Das war die Ausgangslage weiter oben.

Nach dem Asynchronous Spacewarp Bericht für die Brillen frage ich mich ob wir Freesync so noch brauchen, vielleicht sehen wir bald auch für Monitor so eine Funktion,

Dann würde man zu oft mit einem nicht idealen Zustand spielen. Idealer sind nämlich meistens echte berechnete Bilder.
Für mich kann Sowas nur ein Teil eines weiteren hybrid Modi sein.
Oder ich kapier Grad was nicht?

Mfg

Hübie
2016-10-10, 13:19:40
Ich denke es ist nicht verkehrt so etwas ergänzend zu erforschen, denn immerhin versucht man ja auch schon so etwas wie 'branch-prediction' zu implementieren (beides basiert halt auf statistischer Verteilung).

@foenfrisur: Hast frei? :|

@akuji13: Gilt glaub ich so nicht für alle Modelle. Ich such mal eben wo ich das gelesen habe. :uponder:

akuji13
2016-10-10, 13:49:10
Muss ja auch nicht immer so sein.

Zumal die G-Sync Module und die firmware inzwischen andere sind als zu Zeiten des Tests.

Es geht nur darum das bei G-Sync davon die Rede war das es immer bis 30 runtergeht.

fondness
2016-10-10, 13:58:17
Es ist bei G-Sync jedenfalls maximal intransparent. Könnte genauso gut sein, dass manchen Modelle eine untere Schranke von 50Hz haben, wo dann mit der Doppelung begonnen wird, das kann niemand nachvollziehen.

akuji13
2016-10-10, 14:44:54
Inwiefern kann der Laie von zu Hause aus das bei FreeSync besser einsehen?

Selbst wenn man bei einigen Geräten 50Hz hätte (!):
LFC ist lt. Aussage diverser Nutzer kein Nachteil, warum sollte es also FD bei G-Sync sein? ;)

Wobei ich diese Aussage "ist gleichwertig" sowieso nicht nachvollziehen kann.
Irgendwie, irgendwo, irgendwann könnte es ein Szenario geben wo LFC/FD eben nicht so gut arbeitet wie eine native range.

Wäre dem nicht so würden die Hersteller nicht versuchen diese möglichst niedrig anzusetzen.

fondness
2016-10-10, 15:48:37
Inwiefern kann der Laie von zu Hause aus das bei FreeSync besser einsehen?

Es wird im Treiber angezeigt und auch beim Monitor zumindest meist angegeben, bzw. auf der AMD Homepage.


Selbst wenn man bei einigen Geräten 50Hz hätte (!):
LFC ist lt. Aussage diverser Nutzer kein Nachteil, warum sollte es also FD bei G-Sync sein? ;)

Wobei ich diese Aussage "ist gleichwertig" sowieso nicht nachvollziehen kann.
Irgendwie, irgendwo, irgendwann könnte es ein Szenario geben wo LFC/FD eben nicht so gut arbeitet wie eine native range.

Wäre dem nicht so würden die Hersteller nicht versuchen diese möglichst niedrig anzusetzen.

Das wäre ein interessanter Untersuchungsgegenstand. Theoretisch sollte es in der Tad keinen Unterschied machen. Aber wie du schon sagst, im Zweifel nehme ich natürlich auch lieber den größeren Range.

Schnoesel
2016-10-10, 16:43:39
Kann mir einer mal erklären was es mit dem empfohlenen Multiplikator von 2,5 für LFC auf sich hat? Es funktioniert ja ab Faktor 2. Also welche Nachteile hat das ggf.?

foenfrisur
2016-10-10, 16:51:01
Du kannst noch weniger fps haben und kommst dennoch auf deine min-frequenz vom VRR des Monitors.
Nachteil sind eben mehr zwischenbilder.

Mfg

FatBot
2016-10-10, 17:10:01
Nach meinem Verständnis ist die AMD-Angabe mit 2,5 als sichere Seite zu verstehen, auf dem Papier klappt es ja ab 2. So wie ich die Erfahrungen hier lese, haut es wohl in der Regel auch hin, wenn man per Einstellung die FS-Range mit Faktor 2 gerade so trifft, was zum Beispiel bei den Monitoren mit nach Spezifikation 40-75 Hz gut klappen soll (sind ja nur 3..5 Hz), bei den 4K mit 40-60 Hz wohl leider eher nicht.

aufkrawall
2016-10-10, 17:33:17
Leider hat hier nur dargo den Wissensdrang, diese Range-Übergänge zu testen. Berichte dazu sind rar. :frown:

akuji13
2016-10-10, 18:06:42
Den Drang habe ich auch, nur fehlt es mir an der Fähigkeit das richtig beurteilen zu können.

Es wird im Treiber angezeigt und auch beim Monitor zumindest meist angegeben, bzw. auf der AMD Homepage.

;D

Was Treiber anzeigen oder man meint mit irgendwelchen Demos nachzustellen hat doch kaum Relevanz.
Wer sagt das das stimmt was dort steht?

Beispiel:
Ich habe zwei Monitore am Rechner hängen, einen mit G-Sync (Acer) und einen ohne (Philips).
Der Acer wird benutzt, der Philips ist deaktiviert.
Aktiviere ich nun den Philips und deaktiviere den Acer steht im Treiber noch immer das G-Sync aktiv ist. :D

Was die Hersteller angeben (egal ob die der Karten oder die der Monitore) ist auch nicht verlässlich, letztlich helfen nur Tests eines jeden Monitors.

Kartenlehrling
2016-10-10, 18:11:19
bei Acer und Asus kann man den LFC übergang im Monitor menü überprüfen (https://www.youtube.com/watch?v=2GxgqmK4YXk), das müsste man dann auch bei G-sync sehen.

fondness
2016-10-10, 18:12:45
;D

Was Treiber anzeigen oder man meint mit irgendwelchen Demos nachzustellen hat doch kaum Relevanz.
Wer sagt das das stimmt was dort steht?

Beispiel:
Ich habe zwei Monitore am Rechner hängen, einen mit G-Sync (Acer) und einen ohne (Philips).
Der Acer wird benutzt, der Philips ist deaktiviert.
Aktiviere ich nun den Philips und deaktiviere den Acer steht im Treiber noch immer das G-Sync aktiv ist.

Was die Hersteller angeben (egal ob die der Karten oder die der Monitore) ist auch nicht verlässlich, letztlich helfen nur Tests eines jeden Monitors.


Keine Ahnung, was daran so witzig ist. Bei AMD wird für jeden Monitor im Treiber der Range angegeben und ob FreeSync unterstützt wird, bzw. aktiv ist oder nicht. Und dieser Range entspricht auch den tatsächlich anliegenden FreeSync-Bereich, denn der Range wird direkt ausgelesen anhand des offenen VESA Adaptive Sync Standards und liegt nicht etwa in einer Datenbank. Und die Angabe MUSS stimmen, denn sonst weiß die GPU gar nicht, in welchem Bereich gesynct werden soll. Die ganze FreeSync-Logik liegt bei AMD in der GPU und nicht etwa in einem FPGA im Monitor.

https://s13.postimg.org/cqa2f6qg7/Clipboard01.jpg

fondness
2016-10-10, 18:32:38
Kann mir einer mal erklären was es mit dem empfohlenen Multiplikator von 2,5 für LFC auf sich hat? Es funktioniert ja ab Faktor 2. Also welche Nachteile hat das ggf.?

Es gab dazu nie eine offizielle Begründung von AMD. Die Empfehlungen lauten aber ganz klar, dass es ab Faktor 2 funktioniert, ab Faktor 2.5 soll es besser funktionieren. Naheliegend ist, dass eine Art einschleifverfahren bei Faktor 2.5 aktiv ist um einen smooteren Übergang zu ermöglichen, aber das ist nur eine Spekulation.

von Richthofen
2016-10-10, 20:31:29
Und dieser Range entspricht auch den tatsächlich anliegenden FreeSync-Bereich, denn der Range wird direkt ausgelesen anhand des offenen VESA Adaptive Sync Standards und liegt nicht etwa in einer Datenbank. Und die Angabe MUSS stimmen, denn sonst weiß die GPU gar nicht, in welchem Bereich gesynct werden soll.
https://s13.postimg.org/cqa2f6qg7/Clipboard01.jpg

Ich kannte diesen Balloon-Tipp der FS-Range im Crimson Treiber-Panel gar nicht.
Hier steht 48-120Hz. Ahhhhh! Egal ob ich nun den M$ Standard PnP-Monitor Treiber, den offiziellen, welcher mit 35-144Hz wirbt, oder den unsignierten Beta-Treiber mit 30-146Hz Range Overwrite benutze. Der obere Bereich wird hier durch die in Windows gewählte Wiederholfrequenz eingestellt. (bei 144Hz läuft die Graka auf voller VRAM-Frequenz)

Wenn die vollen 144Hz eingestellt werden stimmt auch die im Crimson angezeigte Range (30-144Hz)
Und nur damit wird der Einstieg in den Sync-Bereich weit genug (wie beworben) abgesenkt.
Das heisst ich hab die ganze Zeit (Spielzeit) im LFC-Bereich verbracht und es gar nicht gemerkt. Das spricht fuer die Technik.

Edit: Jetzt steht plötzlich 30-120Hz :usad:
Wohl erst später aktualisiert worden.

akuji13
2016-10-10, 20:34:35
Keine Ahnung, was daran so witzig ist.

Weil "Es wird im Treiber angezeigt und auch beim Monitor zumindest meist angegeben, bzw. auf der AMD Homepage." ganz klar bedeutet "das steht da, also stimmt das auch!".

Firmen die etwas verkaufen wollen sollte man nie trauen.

Und die Angabe MUSS stimmen, denn sonst weiß die GPU gar nicht, in welchem Bereich gesynct werden soll. Die ganze FreeSync-Logik liegt bei AMD in der GPU und nicht etwa in einem FPGA im Monitor.

Na dann sollten Treiberfehler oder gezielte Manipulation möglich sein.

Sowas wäre dann auch eine mögliche Erklärung dafür warum bei Prad die Funktion von FreeSync bzw. die nicht Funktion bei einigen Monitoren bemängelt wurde.

Für mich ist das kein Beweis.
Wäre dem so hätte PC Perspective FreeSync ja auch gar nicht testen müssen wenn sowieso immer alles stimmt.

fondness
2016-10-10, 20:47:52
Edit: Jetzt steht plötzlich 30-120Hz :usad:
Wohl erst später aktualisiert worden.

Ein neuer FreeSync-Bereich wird immer erst nach einem Neustart übernommen.

Weil "Es wird im Treiber angezeigt und auch beim Monitor zumindest meist angegeben, bzw. auf der AMD Homepage." ganz klar bedeutet "das steht da, also stimmt das auch!".

Firmen die etwas verkaufen wollen sollte man nie trauen.



Na dann sollten Treiberfehler oder gezielte Manipulation möglich sein.

Sowas wäre dann auch eine mögliche Erklärung dafür warum bei Prad die Funktion von FreeSync bzw. die nicht Funktion bei einigen Monitoren bemängelt wurde.

Für mich ist das kein Beweis.
Wäre dem so hätte PC Perspective FreeSync ja auch gar nicht testen müssen wenn sowieso immer alles stimmt.

Ich finde das eine sehr seltsame Argumentation ehrlich gesagt. Aber womöglich ist man es ja als NV-User gewohnt so misstrauisch zu sein.^^ *scnr*

Es macht keinen Sinn, dass der Monitor lügt, denn der Treiber nimmt genau diese Werte für FreeSync her, also müssen sie funktionieren, sonst gebe es Bildfehler. Es macht auch keinen Sinn, dass der Treiber lügt, denn man kann das ganze ja sehr einfach austesten. Man kann den Bereich ja sogar sehr einfach mittels CRU bzw mittels anderer Monitor-Treiberangaben manipulieren, und schauen, ob sie vom Treiber korrekt angezeigt werden und funktionieren - das ist eben der Vorteil an einem offenen Standard. Und PC Perspective braucht bei FreeSync im Gegensatz zu G-Sync den Range auch sicher nicht zu testen nein.

dargo
2016-10-10, 20:55:41
Den Drang habe ich auch, nur fehlt es mir an der Fähigkeit das richtig beurteilen zu können.

Du hast doch zwei gesunde Augen oder nicht? :)

Einfach eine Stelle im Spiel sich aussuchen wo durch eine Drehbewegung zb. in einem Shooter immer wieder die min. Refreshrate vom Bildschirm unter-/ und überschritten wird. Dann müsste es dir eigentlich auffallen ob es kurz stockt oder nicht. Falls die Frames zu hoch sind entsprechend Details anheben. Wenns immer noch nicht reicht entsprechend die Grafikkarte untertakten. Ist schon mit etwas Aufwand verbunden wenn du jedes Spiel untersuchen willst. Absolut wichtig dabei ist, dass die Frametimes sauber sind. Ansonsten wird es schwierig mit der Beurteilung ob die Stocker von der Framevervielfältigung kommen oder vom Spiel selbst.


Was Treiber anzeigen oder man meint mit irgendwelchen Demos nachzustellen hat doch kaum Relevanz.
Wer sagt das das stimmt was dort steht?

Ich, auch eine geänderte Range wird sofort nach einem Neustart richtig erkannt.


Beispiel:
Ich habe zwei Monitore am Rechner hängen, einen mit G-Sync (Acer) und einen ohne (Philips).
Der Acer wird benutzt, der Philips ist deaktiviert.
Aktiviere ich nun den Philips und deaktiviere den Acer steht im Treiber noch immer das G-Sync aktiv ist. :D

Wir sprechen hier von Freesync, nicht von G-Sync. ;)

bei Acer und Asus kann man den LFC übergang im Monitor menü überprüfen (https://www.youtube.com/watch?v=2GxgqmK4YXk), das müsste man dann auch bei G-sync sehen.
Eine OSD Anzeige mit der aktuellen Refreshrate gibt es afaik bei keinem G-Sync Bildschirm.

aufkrawall
2016-10-10, 20:57:01
Eigentlich sollte das ja unabhängig vom Spiel sein und sich mit der Gsync Pendel-Demo gut überprüfen lassen.

fondness
2016-10-10, 20:57:24
Eigentlich sollte das ja unabhängig vom Spiel sein und sich mit der Gsync Pendel-Demo gut überprüfen lassen.

Richtig, etwas komplizierter wird es nur, wenn der Monitor LFC unterstützt und man keine OSD Anzeige im Monitor mit den tatsächlichen Refreshraten hat.
Denn dann kann man die untere Grenze nicht mehr so einfach austesten. Aber dafür gibt es ja die Treiberanzeige.

dargo
2016-10-10, 21:06:39
Eigentlich sollte das ja unabhängig vom Spiel sein und sich mit der Gsync Pendel-Demo gut überprüfen lassen.
Eigentlich, ist aber nicht der Fall. Ansonsten gäbe es nicht einzelne Spiele wo ich damals die Übergänge mit einem kleinen Stocker bemerkt habe und andere nicht.

fondness
2016-10-10, 21:25:50
Da die Fragen jetzt schon wiederholt aufgekommen sind, haben ich im FreeSync-Thread ein zusätzliches Kapitel mit FreeSync-Range auslesen/austesten erstellen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10998369#post10998369

Eine OSD Anzeige mit der aktuellen Refreshrate gibt es afaik bei keinem G-Sync Bildschirm.

Das will NV wohl vermeiden, denn dann könnte man die tatsächliche untere Grenze einfach feststellen.

akuji13
2016-10-10, 22:04:43
Ich finde das eine sehr seltsame Argumentation ehrlich gesagt. Aber womöglich ist man es ja als NV-User gewohnt so misstrauisch zu sein.^^ *scnr*

Es war AMD die mich mit dem Far Cry x64 Video beschissen hat. ;)
Und ja: das ist für mich noch immer die gleiche Firma, Fusion und Veränderung hin oder her.

Ich traue weder denen noch NV, die haben beide genug auf dem Kerbholz.

Da ich sehr oft zeitgleich hardware beider Hersteller nutze und 4 G-Sync sowie 3 mit FreeSync hatte/habe sehe ich mich auch nicht als NV only user.
Wären AMDs Karten besser (= mehr Leistung) könnte es auch genau so gut anders herum sein.

Du hast doch zwei gesunde Augen oder nicht? :)

Nö, habe ich definitiv nicht.

Für mich war LFC schon immer flüssig, konnte da keinen Unterschied zu FD feststellen.

Wir sprechen hier von Freesync, nicht von G-Sync. ;)

Kein Problem! :D

Der letzte FreeSync Schirm den ich hatte (LG 34UM68-P) zeigte trotz deaktivierter FreeSync Einstellung im Gerät im Treiber aktives FreeSync an.

Das ist auch nicht uninteressant denn bei solchen Geräten ist es eben nicht nur die GPU in der Kette sondern eine Einheit im Gerät die mit reinspielt.
Ohne diese Einstellung gibts nämlich keine 75Hz und mit dieser Einstellung zeigen NV Karten frameskipping.

dargo
2016-10-10, 22:11:12
Das will NV wohl vermeiden, denn dann könnte man die tatsächliche untere Grenze einfach feststellen.
Guter Punkt. ;)


Der letzte FreeSync Schirm den ich hatte (LG 34UM68-P) zeigte trotz deaktivierter FreeSync Einstellung im Gerät im Treiber aktives FreeSync an.

Das ist auch nicht uninteressant denn bei solchen Geräten ist es eben nicht nur die GPU in der Kette sondern eine Einheit im Gerät die mit reinspielt.
Ohne diese Einstellung gibts nämlich keine 75Hz und mit dieser Einstellung zeigen NV Karten frameskipping.
Ich kann dir nur sagen, dass die Treiberangaben beim Asus MG279Q absolut mit dem übereinstimmen was ich hier einstelle. Wie das bei anderen FS-Bildschirmen aussieht weiß ich nicht.

aufkrawall
2016-10-10, 22:19:33
Warum sollte Nvidia vermeiden wollen, dass man die tatsächliche Refreshrate erfährt?
Da es keine Berichte über Probleme mit LFC & Gsync gibt, interessiert das doch gar keinen.

akuji13
2016-10-10, 22:19:41
Weil 30-XY für jeden Monitor besser klingt.
So muss man sich als Käufer keine Gedanken machen welchen man kauft.

Ich kann dir nur sagen, dass die Treiberangaben beim Asus MG279Q absolut mit dem übereinstimmen was ich hier einstelle. Wie das bei anderen FS-Bildschirmen aussieht weiß ich nicht.

Das glaube ich dir, zumal ich den selbst hatte.

Allerdings kann der die 144Hz ja auch nativ darstellen und muss sie nicht per (vermutlichem) OC erreichen wie der LG.
Und da kann nunmal ein Knackpunkt liegen.

Der Asus z. B. funktionierte an einer NV Karte völlig problemlos mit maximalen Hz, irgendwas ist also anders gegenüber dem LG.

dargo
2016-10-10, 22:31:56
Warum sollte Nvidia vermeiden wollen, dass man die tatsächliche Refreshrate erfährt?

Weil du u.U. nicht mehr so schön mit Gsync 30-xHz werben kannst.


Allerdings kann der die 144Hz ja auch nativ darstellen und muss sie nicht per (vermutlichem) OC erreichen wie der LG.
Und da kann nunmal ein Knackpunkt liegen.

Das wäre durchaus möglich.

Wo wir gerade bei OC sind... mich würde mal brennend interessieren wie tief die 4k G-Sync Bildschirme tatsächlich refreshen können. Es gibt bei FS immer noch keinen einzigen 4k Bildschirm der Framedoubling macht, eben wegen der max. 60Hz. Vielleicht übertaktet NV einfach die 4k Panels? Mal als Beispiel... XY 4k G-Sync Bildschirm kann mit min. 34Hz refreshen. Um FB zu gewährleisten geht der Bildschirm in so einer Situation auf 68Hz hoch. Leider nur eine wilde Theorie da noch keiner sich einen 4k G-Sync Bildschirm so genau angeschaut hat.

dargo
2016-10-10, 22:38:53
doppelpost

N0Thing
2016-10-10, 22:40:00
Der letzte FreeSync Schirm den ich hatte (LG 34UM68-P) zeigte trotz deaktivierter FreeSync Einstellung im Gerät im Treiber aktives FreeSync an.

Ich habe bei mir mit Treiber gar keine Statusanzeige gefunden, nur den Schalter zu de-/aktivieren von FreeSync. Hinter welchem Menüpunkt versteckt sich diese Anzeige? :confused:

dargo
2016-10-10, 22:42:11
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11180681&postcount=5793

N0Thing
2016-10-10, 22:51:37
Ah, okay, es gibt also keine separate Statusanzeige, sondern nur einen Tooltip wenn man die Maus über den Schalter bewegt.
Habe den Beitrag von fondness vor seinem Edit gelesen.

dargo
2016-10-10, 22:53:00
Korrekt. :)

fondness
2016-10-12, 18:11:03
Why AMD FreeSync is beating Nvidia G-Sync on monitor selection and price
http://www.pcworld.com/article/3129276/components-graphics/why-amd-freesync-is-beating-nvidia-g-sync-on-monitor-selection-and-price.html

Schnoesel
2016-10-12, 18:24:01
Nachvollziebare Argumente. Auf Nvidias Seite könnte man auch sagen deren Kunden sind hohe Preise gewohnt und bezahlen eben oder kaufen einen Monitor ohne Sync. Ich denke, dass es mit der Auswahl der Monitore mit Gsync in Zukunft noch schlechter bestellt sein wird.

Kartenlehrling
2016-10-12, 18:29:14
Das Nvidia damit die Entwicklung mehr gebremst als gefördert hat sind wir uns wohl alle einig, das g-sync in einigen Punkten besser ist als Freesync will ich nicht bestreiten.
Aber Nvidia bremst und lenkt die Entwickung seit Jahren nach ihren Wünschen das es schon weh tut.

Mancko
2016-10-12, 22:04:51
Das Nvidia damit die Entwicklung mehr gebremst als gefördert hat sind wir uns wohl alle einig, das g-sync in einigen Punkten besser ist als Freesync will ich nicht bestreiten.
Aber Nvidia bremst und lenkt die Entwickung seit Jahren nach ihren Wünschen das es schon weh tut.

Warum auch nicht? Sie wollen ihr eigenes Ökosystem samt Hard und Software. Ich halte das nicht für Bremsen, denn ihre Lösung ist technisch besser. Eine geringere Auswahl an Geräten ist da verschmerzbar. Die wichtigsten Hersteller für Gamingmonitore sind dabei. Mehr ist da auch nicht notwendig.

dargo
2016-10-12, 22:15:44
Warum auch nicht? Sie wollen ihr eigenes Ökosystem samt Hard und Software. Ich halte das nicht für Bremsen, denn ihre Lösung ist technisch besser.
Das ist eine glatte Lüge.

raumfahrer
2016-10-12, 22:47:51
Warum auch nicht?

Darum:

Sie wollen ihr eigenes Ökosystem samt Hard und Software.

Die können sich ihr "eigenes Ökosystem" in die Steve Jobs-Gedächtnis Haare schmieren.

StefanV
2016-10-13, 04:38:24
Eingezäunte Ökosysteme sind einfach nur Mist, was gibts daran noch zu rütteln?
WARUM wehrt man sich als nVidia Nutzer nicht gegen die Umzäunung sondern verteidigt es auch noch?

Dass man selbst daraus nur Nachteile hat, wird dabei auch gern ignoriert...

Foobar2001
2016-10-13, 05:04:59
G-Sync war mal wieder ein genialer Schachzug von NVIDIA. Die Leute haengen sich fuer Jahre einen NVIDIA-Dongle an den Rechner und reissen es ihnen auch noch aus den Haenden.

dargo
2016-10-13, 08:36:30
Naja... wir wollen nicht gleich übertreiben. Von "aus den Händen reißen" sehe ich bisher nichts. Unter 400€ gibt es praktisch keinen G-Sync Bildschirm. Beim vergleichbaren VRR Bildschirm im untersten Preissegment sieht es aktuell bei MF so aus.
http://www.mindfactory.de/product_info.php/24Zoll--60-96cm--AOC-G2460PF-schwarz-1920x1080-1xDisplayPort-1xDVI-1xHDM_1022037.html

Der direkte Gegner lag vor wenigen Tagen bei MF noch bei über 110 verkauften Exemplaren obwohl dieser über ein Jahr früher am Markt war.
http://geizhals.de/aoc-g2460pg-a1132957.html?hloc=at&hloc=de

Natürlich wären mir globale Zahlen deutlich lieber. Gibts aber leider nicht.

akuji13
2016-10-13, 08:44:15
Das hilft mir nur alles nicht solange AMD es nicht schafft mit seinen Karten Leistungstechnisch aufzuschließen.
Und letztlich gibt es weder einen G-Sync noch FreeSync Schirm der mir wirklich zusagt, das sind alles mehr oder weniger unbefriedigende Kompromisse.

Verkaufszahlen interessieren G-Sync Nutzer übrigens genau 0, so wie 3DVision Nutzer sie auch nicht interessiert haben, oder SLi Nutzer usw.

Hübie
2016-10-13, 09:17:03
Was ist eigentlich mit ULMB? Ist es nun sinnvoll oder eher ein Checklistenfeature? Es gibt genau zwei Freesync Monitore damit. Ich persönlich konnte es nicht aus der Praxiserfahrung her betrachten sondern nur hörensagen, also bitte nur Antworten von denen die es haben / hatten. Die graue Theorie kenne ich selber. ;)

@akuji13: Meine vollste Zustimmung. Jeder Monitor auf dem Markt ist ein faules Ei. Einer mehr, der andere weniger. Stinken tun se alle. :frown:

Vega wird für mich so eine Art entscheid ob Freesync oder G-Sync für die kommenden Jahre. Zäune sind nicht immer schlecht, StefanV. Sie halten auch Ungebetenes fern.
In CUDA z.B. kommen Anpassung oftmals deutlich schneller als OpenCL (jedenfalls für die Devs die mit NV zusammen arbeiten; für alle anderen später im SDK) und Gleiches gilt für G-Sync. Da kann der Treiber viel machen. Wie das bei Freesync ist weiß ich zwar nicht, aber ich vermute dass es dort nicht so ohne weiteres geht. Nachteil dieses Duopols ist halt dass man einfach nicht viel Auswahl, aber einen hohen Preis für Endkunden und Bindung hat, klar. Keine Frage.
Da es aber in vielen Situationen befriedigend oder besser läuft verzeiht man auch eher. ;)

Eine Frage zum Abschluß: Geht mittlerweile DSR, SLi und G-Sync zusammen? Geht das bei AMD problemlos (VSR, CFX und Freesync)? Was ist mit den windowed modes? Sind die immer noch ein Problem?

Kartenlehrling
2016-10-13, 10:02:23
Verkaufszahlen interessieren G-Sync Nutzer übrigens genau 0, so wie 3DVision Nutzer sie auch nicht interessiert haben, oder SLi Nutzer usw.

Dafür ist 3Dvision und SLI (nur noch 2x) ja auch bei Nvidia gestrichen,
weil ihnen die Verkaufszahlen nicht interessiert und nur um das Wohl der Käufer geht.
Ich versteh nicht was du damit sagen willst.
Anstelle eine Technik für alle offen zulegen, stampft Nvidia sie lieber ein und begräbt sie neben den Atari E.T. Module in Mexiko.


Was ist eigentlich mit ULMB?

Naja Nvidia hat sich die Patentrechte auf ULMB gesichert, jedenfalls hat der Begriff ein copyright.
Samsungs neuer bietes eine Form an.

https://youtu.be/qGMJd2eVlfg?t=49
Samsung C24FG70FQ

Hübie
2016-10-13, 10:04:52
Kannst du mal bitte einen vernünftigen Satz bilden? Ich versteh nicht was du damit sagen willst. :rolleyes:

gnomi
2016-10-13, 10:20:39
Window Modus und DSR funktionieren mit GSync.
Die Preise sind allerdings gesalzen. Schade, dass sich da seit Release wenig getan hat.
Die 27 Zoll mit 1440P Generation war schon sehr teuer, aber mit jetzt 34 und mehr mit 3840*x ist man schon im vierstelligen Bereich. :O

Hübie
2016-10-13, 10:29:15
Es gibt leider auch keinen 21:9 g-sync mit >110 ppi (aktuell habe ich 157 ppi). Also alles für die Katz und faule Kompromisse. Bin ich wenig bereit 1000 Euro und mehr für auszugeben. Wenn Vega kein fail wird sattel ich um.

Lurtz
2016-10-13, 11:48:46
Vega wird für mich so eine Art entscheid ob Freesync oder G-Sync für die kommenden Jahre.
Ich habe mir die Tage überlegt eine GTX 1070/1080 zu holen, da einfach Leistung fehlt, aber nach Tests einiger Spiele ohne Freesync bin ich da schnell wieder von abgekommen.
Nichts schlägt die Fluffigkeit eines Witcher 3 mit Freesync bei 40-50 fps, ich glaube da würden nicht mal konstante 60 fps oder VSync off mithalten können (außer > 60 Hz, aber das kann man sich mit bezahlbaren GPUs ja nicht leisten). Mit Tearing kann ich nicht leben, das zerstört für mich sofort jede Immersion.

Was ist mit den windowed modes? Sind die immer noch ein Problem?
Freesync funktioniert windowed nicht. Ist für mich momentan das größte Manko, da es mittlerweile einige Spiele ohn exklusiven Fullscreen gibt.
Ich hoffe auf den Crimson-Nachfolger, sonst weiß ich auch nicht... GSync-Monitore sind mir mit den sonstigen technischen Eckdaten momentan definitiv zu teuer.

Hübie
2016-10-13, 12:45:38
1070 ist eine 3,7 (2560*1440) und 1080 eine 4,9 Megapixel-Karte (3440*1440), wenn wir von fluffiges Spielen @max sprechen. Deshalb kotzt mich auch meine 980 Ti schon nach etwas über einem Jahr an. Bin da also voll bei dir. Ist das Geld dann doch nicht wert.
Für meine Ansprüche kostet übrigens jeder in Frage kommende Monitor viel zu viel.

dargo
2016-10-13, 12:48:57
Für meine Ansprüche kostet übrigens jeder in Frage kommende Monitor viel zu viel.
Dann musst du auf die kommenden Freesync TVs warten. :upara:

Hübie
2016-10-13, 13:01:36
Meinst die sind besser geeignet? :uponder: Na ja eine Überlegung ist es wert. TVs sind für gewöhnlich ja schneller wenn es um neue Technologien oder Anschlüsse geht. Nur VRR haben die verpasst (wozu auch).
Da fällt mir ein: Theoretisch müssten die SoCs in den Konsolen doch auch Freesync beherrschen, da ich kaum glaube, dass man den Displaycontroller großartig modifiziert hat...

dargo
2016-10-13, 13:07:24
Meinst die sind besser geeignet? :uponder:
Keine Ahnung, nur so ne Schnapsidee. :D

foenfrisur
2016-10-13, 13:09:44
Proprietäre Lösungen sind fast immer für die Firmen gut, nvidia, Adobe, Apple, Microsoft usw.
Selten aber für die Endnutzer. Kurzfristig vielleicht.
Also keine Ahnung, wie man dass unterstützen kann.
Und nicht verwechseln mit der gemeinsamen Unterstützung proprietärer Standards ;)
Wir sprechen hier von einer firma mit ihrem eigenen geschlossenen Standard.

Man denke nur noch mal an das Handy Stecker chaos damals...
Sowas kann man doch nicht wollen.

Menschen nehmen nur dann die klügste Lösung, wenn alle anderen Möglichkeiten ausgeschöpft sind.
Der Spruch trifft es ziemlich gut.
Zusammen mit Einsteins philosophieren, was denn unendlich ist :D

Mfg

Hübie
2016-10-13, 13:15:17
Da widerspreche ich nicht, aber man benötigt entsprechende Substitute. Persönliche Präferenzen lassen sich ja zu einer Tendenz zusammenfassen um dann statistisch den wahrscheinlichsten Ausgang zu erfassen und offenbar trifft NVIDIA hier zu oft den Nerv der Kundschaft, die dann schon mal bereitwillig das Portemonnaie zückt.

ps: Zock endlich sonst klatscht das! :D Ich sitz hier auf dem Trockenen :P

Thunder99
2016-10-13, 13:48:03
Gibt es eine Checkliste welches Feature welche Lösung nun kann bzw nicht kann?

Lurtz
2016-10-13, 14:12:47
Gibt es eine Checkliste welches Feature welche Lösung nun kann bzw nicht kann?
Nicht dass ich wüsste. Es ist auch echt schwer rauszubekommen, wer überhaupt was kann.
Mir war zB monatelang nicht klar, ob Freesync unter OpenGL/DX12/Vulkan funktioniert oder nicht, auch beim Googeln war wenig rauszubekommen.

akuji13
2016-10-13, 16:30:43
Sowas kann man doch nicht wollen.

Möchte ich auch nicht.
Ich möchte vor allem eine bestimmte Leistung.

Und da bietet mir AMD nichts.
Oder soll ich aus Verbundenheit mit AMD eines deren Produkte kaufen?

Dafür ist 3Dvision und SLI (nur noch 2x) ja auch bei Nvidia gestrichen, weil ihnen die Verkaufszahlen nicht interessiert und nur um das Wohl der Käufer geht.

3D Vision gibt es seit 2008.
Mal schauen wie viele Produkte aus 2016 noch 2024 unterstützt werden. :wink:

Sli gibt es seit 2004.

Damit das eine ohnehin schon wenig verbreitete Technik und deren exklusive Ausnahmen, die im Promille Bereich liegen dürften, irgendwann mal eingeschränkt oder fallen gelassen werden sollte man rechnen.

Sowas gilt nicht nur für NV.

Was ist eigentlich mit ULMB? Ist es nun sinnvoll oder eher ein Checklistenfeature?

Das kommt darauf an was man spielt oder wie empfindlich man ist.
Ich nutze es auch wegen der 170Hz meines Acer durchaus öfter.

Es gibt Spiele wie z. B. Bulletstorm das ich aktuell spiele die mMn wenig von G-Sync profitieren (wegen der dauerhaft hohen Hz/fps) und wo ich dann die deutlich verbesserte Bewegungsschärfe mitnehme.

Kartenlehrling
2016-10-13, 19:56:59
falscher Thead.

Schnoesel
2016-10-14, 10:47:07
AMDs Freesync funktioniert mit Custom Resolution Utility auch über DVI

http://www.pcgameshardware.de/AMD-Freesync-Hardware-259942/News/CRU-DVI-1210440/

fondness
2016-10-15, 09:52:11
Was ist eigentlich mit ULMB? Ist es nun sinnvoll oder eher ein Checklistenfeature? Es gibt genau zwei Freesync Monitore damit.

Einige Hersteller bieten mittlerweile eine art ULMB an bei 144Hz Schirmen. Es gibt mit Sicherheit wesentlich mehr als 2 FreeSync-Schirme damit. Leider wird das meistens kaum beworben und ich habe keine Lust, bei jeden eingefügten Monitor ständig alle Specs durchzuforsten, zumal auch jeder Hersteller einen anderen Namen dafür hat. :)

Bei den zwei, wo es erwähnt wird, wurde es von Usern im Thread explizit angesprochen.

Eine Frage zum Abschluß: Geht mittlerweile DSR, SLi und G-Sync zusammen? Geht das bei AMD problemlos (VSR, CFX und Freesync)? Was ist mit den windowed modes? Sind die immer noch ein Problem?

Ersteres ging bei AMD schon immer, letzteres geht nicht.

Hübie
2016-10-15, 11:32:02
Ich hab halt nur über www.gh.de geguckt ;) Also ist das jetzt keine empirische Erhebnung. :D Welche Namen gibt es denn noch dafür? Kenne halt nur diesen einen...

samm
2016-10-16, 16:37:51
Welche Namen gibt es denn noch dafür? Kenne halt nur diesen einen...Black Frame Insertion oder Strobing Backlight oder Scanning Backlight (generell), Blur Reduction oder Motion Blur Reduction (BenQ, LG, Eizo), Ältere Markennamen à la LG Motion 240, Eizo Turbo 240, usw. :)

Hübie
2016-10-16, 17:42:16
Die Firma dankt :up:

Unicous
2016-10-18, 13:17:56
#BenQ XL2540 to launch as #FreeSync supporting alternative to ASUS PG258Q (both native 240Hz models).

https://twitter.com/pcmonitors/status/788032361996886016

Denke nicht, dass der im Thread schon aufgetaucht ist, oder?

Jedenfalls gibt es schon einen Eintrag bei AMD der von
48-240Hz via DisplayPort; 48-240 via HDMI 2.0


spricht. Untere Range also mal wieder zum Vergessen. Und wenn man sich das Acer Experiment anschaut wahrscheinlich auch generell zum Vergessen.

dargo
2016-10-18, 16:17:37
Untere Range also mal wieder zum Vergessen.
Bei einer so riesen Spanne glaube ich nicht Tim. ;)

Unicous
2016-10-18, 16:26:02
Du brauchst nicht zu glauben sondern solltest wissen, Al.:rolleyes:

dargo
2016-10-18, 16:26:23
Ich weiß es. ;)

Kartenlehrling
2016-10-23, 21:46:19
http://www.zackzack.de/html/detail/zackzack.html?itemId=34684&
1080p TN 180hz Gsync für 444€+ Mafia3

derF
2016-11-21, 11:57:40
Samsung hat es scheinbar mal versucht mit FreeSync und Blinking Backlight? Mit mäßigem Erfolg..

https://www.heise.de/ct/artikel/Blinken-Pumpen-und-scharfe-Bewegungen-3410809.html

Kartenlehrling
2016-11-21, 13:46:06
Das war von uns Wuschträumen... das einzige was sie zb. bei LG hinbekommen haben ihr Dynamic Action Sync mit AMD Freesync zu kombinieren. (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11198885&postcount=508)
Für das alte Vollbild-Blacklighting brauch man >80Hz damit es nicht stört,
viel besser wird es mit dem Motionblur in 2 oder 4 Schritte auch nicht besser sein.

Adaptive Sync/​AMD FreeSync (70-144Hz via DisplayPort, 62-119Hz via HDMI, LFC-Support)
Man hat sich gewundert wieso die Angaben so hoch waren, jetzt versteht man es wenigsten.
Freesync 45-80Hz (RPG und Rennspiele)
Blacklight 120-180Hz ( Shooter , MOBA )

Da man bei Freesync darauf achten sollte, keine oder geringe FPS Drops zu haben sollte man trotzdem mit einem FPS Limiter arbeit,
der so eingestellt ist das die FPS range max 40fps sind, damit fahre ich gut.

Lurtz
2016-11-26, 13:15:12
https://youtu.be/MzHxhjcE0eQ?t=703

Kann mir das bitte jemand erklären? :ugly: Warum liefert Freesync mit VSync weniger Input Lag bei niedrigen FPS als ohne VSync?

Und warum gibts bei GSync/Freesync überhaupt noch eine VSync-Option?

Kartenlehrling
2016-11-26, 13:40:08
Die Messung war doch teilweise Falsch, wurde im dazugehörigen Beitrags Thread geklärt.

Was ich weiss das Freesync/GSync nur bis zu einer bestimmten Hz wenig Probleme mit inputlag haben.
Warscheinlich gibts ein Punkt wo die Regelung der Frames bremsen.
Ich habe ein 90Hz/144Hz Freesync Monitor und spiele fast 90% der Spiele zwischen 45-60Hz (Limiter/VsyncOFF).

Die 180Hz gsync Monitore Funktionieren ja auch nicht.

akuji13
2016-11-26, 14:08:00
Und warum gibts bei GSync/Freesync überhaupt noch eine VSync-Option?

Für die Bereiche außerhalb der range.

Du hast z. B. eine range von 48-75Hz und deswegen kein LFC.
Fällt nun die Bildrate unter 40 wechselt das System von Free- auf V-Sync wenn du möchtest.

Auch G-Sync hat eine range (offiziell z. B. 30-144), allerdings ist das "Problem" wohl der Bereich über der oberen Grenze da die G-Sync Geräte ja schon länger (immer?) framedoubling nutzen.

http://www.geforce.com/whats-new/articles/g-sync-gets-even-better
https://forums.geforce.com/default/topic/838560/what-is-the-new-g-sync-vsync-on-off-option-/

"So basically, with G-SYNC on, you have the option on what to do when your FPS exceeds your monitors maximum refresh rate by what the v-sync setting is. If vsync is on, your video card will never generate more than the refresh rate of your monitor. If vsync is off, it could generate more frames than the refresh rate of the monitor, and when this happens GSYNC is automatically turned off."

Interessant finde ich das diese Option unterschiedliches bewirkt.

Normalerweise überschreibt z. B. G-Sync innerhalb der range grundsätzlich V-Sync.
Bei vielen Spielen ist es egal ob ich V-Sync einschalte oder nicht, ich merke keinerlei Unterschied.

Bei einigen aber steigt dadurch der inputlag deutlich an obwohl das nicht sein sollte.
So wie einige Spiele auch Probleme mit FreeSync haben.

Kartenlehrling
2016-11-26, 14:14:17
Ich frag mich gerade bei welcher G-sync Modul Version man momentan ist,
mit dem HDMI1.4 Eingang war es doch die dritte Version oder nicht?

Lurtz
2016-11-26, 15:08:15
Die Messung war doch teilweise Falsch, wurde im dazugehörigen Beitrags Thread geklärt.
Ah, ok. Gibt es irgendwo korrekte Messungen?

Was ich weiss das Freesync/GSync nur bis zu einer bestimmten Hz wenig Probleme mit inputlag haben.
Warscheinlich gibts ein Punkt wo die Regelung der Frames bremsen.
Ich habe ein 90Hz/144Hz Freesync Monitor und spiele fast 90% der Spiele zwischen 45-60Hz (Limiter/VsyncOFF).
Irgendwie ist das ganze Thema noch sehr intransparent. Man findet auch kaum wirklich gute Analysen dazu. Das Thema scheint einfach noch zu nischig zu sein.

Für die Bereiche außerhalb der range.

Du hast z. B. eine range von 48-75Hz und deswegen kein LFC.
Fällt nun die Bildrate unter 40 wechselt das System von Free- auf V-Sync wenn du möchtest.
Es scheint ja aber teilweise auch innerhalb der Range für Veränderungen zu sorgen.

Interessant finde ich das diese Option unterschiedliches bewirkt.

Normalerweise überschreibt z. B. G-Sync innerhalb der range grundsätzlich V-Sync.
Bei vielen Spielen ist es egal ob ich V-Sync einschalte oder nicht, ich merke keinerlei Unterschied.

Bei einigen aber steigt dadurch der inputlag deutlich an obwohl das nicht sein sollte.
So wie einige Spiele auch Probleme mit FreeSync haben.
Also passiert das auch bei nVidia, interessant. Das liest man ja selten, sonst hat man immer den Eindruck da würde alles perfekt laufen...

akuji13
2016-11-26, 16:45:03
Schön wärs.
Kommt natürlich auch darauf an was man spielt.

Am Anfang lief G-Sync in einigen Titeln gar nicht (z. B. in The Evil Within) und wenn man dann keinen Monitor hat der die Funktion anzeigt können viele gar nicht sehen das es nicht läuft.

Zwischendurch funktionierte bei mir in The Division weder G- noch FreeSync.
Keine Ahnung ob es am Treiber, am Spiel oder meinen Rechnern gelegen hat.

Kartenlehrling
2016-12-07, 19:30:20
http://images.hardwarecanucks.com/image/akg/Monitor/XB321HK/bleed.jpg
Acer Predator XB321HK 32" 4K G-SYNC Monitor

Ist schon traurig das sich nichts weiterentwickelt,
ich habe einen MG279Q der hat auch diese "Pissecke" man kann sie zwar kaschieren in dem man den Monitor nicht mittig aufstellt aber eigentlich eine Enttäuschung.

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/73790-acer-predator-xb321hk-32-4k-g-sync-monitor-review.html
Acer Predator XB321HK 32" 4K G-SYNC Monitor Review

Orbmu2k
2016-12-14, 23:04:39
http://images.hardwarecanucks.com/image/akg/Monitor/XB321HK/bleed.jpg
Acer Predator XB321HK 32" 4K G-SYNC Monitor

Ist schon traurig das sich nichts weiterentwickelt,
ich habe einen MG279Q der hat auch diese "Pissecke" man kann sie zwar kaschieren in dem man den Monitor nicht mittig aufstellt aber eigentlich eine Enttäuschung.

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/73790-acer-predator-xb321hk-32-4k-g-sync-monitor-review.html
Acer Predator XB321HK 32" 4K G-SYNC Monitor Review

Die schreiben jetzt (im November) ein Review und sagen "the new", der steht hier schon seit Januar. :eek:

Schönes Teil, bin zufrieden!

mili2110
2016-12-15, 17:09:37
was kann man vom dem hier halten? Hat den schon jemand?
https://www.youtube.com/watch?v=0vvdvjralvs

Typisch Linus: Test nen Freesync Monitor mit ner Nvidia Karte :freak:

akuji13
2016-12-15, 17:22:35
Frameskipping@NV kann man aber nur so testen. :D
Glow, Reaktionszeit usw. gehen auch, für ein "richtiges" review braucht man natürlich eine AMD Karte.

Sein DAN A4-SFX review war leider ebenfalls nicht zu gebrauchen.
Finde ihn persönlich auch irgendwie überbewertet.

Zum Monitor:
Wer die Auflösung will und mit 100Hz leben kann für den sicher interessant.
Für mich selbst gar nicht mehr seit ich den 144Hz LG habe.
Zwischen 100 und 144Hz liegt mMn nochmal eine ganze Welt.

Wäre mir auch zu teuer, der Abstand damals bei den Qnix war erheblich größer.
Da würde ich lieber etwas warten bis hier was vergleichbares erscheint.

fondness
2016-12-15, 17:50:35
LOL, das heißt es sind >100 Monitore am Markt, die potentiell auf NV-Karten nicht sauber laufen bzw. Frameskipping verursachen? :ugly:

aufkrawall
2016-12-15, 18:24:11
Wolltest du lustig sein, oder erzählst du Unsinn?

Kartenlehrling
2016-12-15, 18:46:08
Viel witziger kann man eigenlich nicht sein als ein Freesync Monitor nur mit einer Nvidia Karte zu testen, aber das scheint Mode zu sein.
Eigentlich sind doch 80% der vermeidlichen Freesync Monitor nicht zu empfehlen.

2017 wird auch ein schwieriges Monitor Jahr, man kann mit der Entwicklung nicht zufrieden sein.

akuji13
2016-12-15, 19:05:04
LOL, das heißt es sind >100 Monitore am Markt, die potentiell auf NV-Karten nicht sauber laufen bzw. Frameskipping verursachen? :ugly:

Häme geht meistens auch in zwei Richtungen, man könnte es also auch so sehen:
AMDs Technik ist entweder so schrottig das Karten anderer Hersteller daran nicht richtig funktionieren oder sie machen es absichtlich um Kunden zu binden. :wink:

Aber im Ernst: Nein, ich denke die Zahl der Geräte ist eher gering.

Evtl. hängt es damit zusammen das die Geräte die maximale Hz nur in einem OC Modus erreichen (wie der LG oder der Acer XR341)
Der Asus den ich hatte oder der LG den ich jetzt nutze funktionieren fehlerfrei@maximaler Hz.

Testen sollte man das mMn aber immer.
Kann ja mal sein das man noch eine NV Karte hat, jetzt schon einen anderen Monitor kauft (bedingt z. B. durch Defekt) und auf FreeSync setzt weil man Ende 2017 auf Vega umsteigen will.
Da wäre es natürlich ärgerlich monatelang eingeschränkt spielen zu müssen.

fondness
2016-12-15, 19:10:44
Wolltest du lustig sein, oder erzählst du Unsinn?

Offensichtlich hast du die Beitrage die letzten Seiten nicht gelesen. Danke @akuji13 für die Aufklärung.

aufkrawall
2016-12-15, 19:39:43
Ich habe gelesen und ich hatte mir auch extra dieses dämliche Video komplett angeschaut.

etp_inxession
2016-12-19, 09:33:17
Moin, ..

ich nutze seit kurzem einen Acer XF270 an einer R9 290X 8G.
Hat schon jemand Erfahrungen mit dem Monitor zwecks "FreeSync Range nach unten erweitern"?

Bevor ich ran gehe, frag ich lieber mal.

Ich zocke eigtl nur Dirt Rallye und FarCry 4.

Beide fallen kaum unter die vom Monitor vorgegebenen 48 Hz .. trotzdem würde ich zwischen den Feiertag ein wenig testen.

fondness
2016-12-19, 09:56:18
Es gibt mehrere Acer XF270, aber nein wir haben dazu noch keine Erfahrungswerte:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=572279

Wenn du weißt wie weit runter du kommst, dann bitte posten. :)

Kartenlehrling
2016-12-19, 20:26:07
http://www.prad.de/images/monitore/asus_mx27uq/OSD-4.jpg

Was versteht Asus unter Adaptive-Sync?

Unicous
2016-12-19, 20:31:31
Was soll es da zu verstehen geben?:confused:

Es wäre im Sinne aller wenn du nicht solche kryptischen Fragen posten würdest und klar ausdrücken könntest wo der Pudel seinen Kern hat.

Kartenlehrling
2016-12-19, 21:14:28
Nachdem in The Division eine Option von Adaptive Sync gab war ich verwirrt.
Aber Asus beschreibt es so:
Adaptive Sync auf dem ASUS MG248Q aktivieren
Um von den Vorteilen von Adaptive Sync beziehungsweise Freesync auf dem ASUS MG248Q zu profitieren, braucht ihr zunächst die passende Radeon-Grafikkarte.

Somit ist AMD Freesync allein, solange kein anderer Anbieter (Intel/Nvidia) was anbiete.

Unicous
2016-12-19, 21:29:53
Adaptive Sync wurde schon öfter in den Menüs genutzt.

Gibt ja auch einige Monitore die nicht FreeSync-zertifiziert sind.
Gibt auch Monitore die nicht zertifiziert sind und sich trotzdem FS-Monitore schimpfen.

Jeder FreeSync-Monitor ist ein Adaptive Sync-Monitor aber nicht jeder Adaptive Sync Monitor ist ein FS-Monitor. :freak:

Schmuppes
2017-01-03, 16:50:14
Tutorial für angepasste Freesync-Min-Range

Download Links zu (http://www.prad.de/new/monitore/specials/signalpegel/signalpegel-teil2.html)
*Phoenix EDID Designer
*EnTech Monitor Asset Manager
*EnTech softMCCS

1. EDID extrahieren
http://www.grafik-feti.de/ftp/tweaks_mods_tools_etc/FreeSync/Tutorial_modify_minimum_freesync_range/01_extract_EDID.png

2. EDID modifizieren (part1)
http://www.grafik-feti.de/ftp/tweaks_mods_tools_etc/FreeSync/Tutorial_modify_minimum_freesync_range/02_modify_EDID_part1.png

3. EDID modifizieren (part2)
http://www.grafik-feti.de/ftp/tweaks_mods_tools_etc/FreeSync/Tutorial_modify_minimum_freesync_range/03_modify_EDID_part2.png

4. Monitortreiber erstellen
http://www.grafik-feti.de/ftp/tweaks_mods_tools_etc/FreeSync/Tutorial_modify_minimum_freesync_range/04_create_monitor.inf.png

5. Beschreibung zum Treiber hinzufügen
http://www.grafik-feti.de/ftp/tweaks_mods_tools_etc/FreeSync/Tutorial_modify_minimum_freesync_range/05_add_description_to_monitor.inf.png

6. Deaktivieren der Windows 8.1 Treiber Signatur
http://www.grafik-feti.de/ftp/tweaks_mods_tools_etc/FreeSync/Tutorial_modify_minimum_freesync_range/06_deactivate_driver_signature.jpg

7. Monitortreiber installieren
http://www.grafik-feti.de/ftp/tweaks_mods_tools_etc/FreeSync/Tutorial_modify_minimum_freesync_range/07_install_monitor.inf.png



Hallo zusammen. Entschuldigt, dass ich mich extra registriert habe, um den Beitrag auszubuddeln und eine Frage dazu zu stellen.
Ich habe seit Kurzem einen iiyama B2783QSU (1440p und FreeSync von 48-70 Hz). Die Anleitung funktioniert bei mir leider nicht und ich hoffe, dass ihr mir da weiterhelfen könnt.

Es hakt schon bei Schritt 2:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=58537&stc=1&d=1483458220

Block 2 sieht wie folgt aus:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=58538&stc=1&d=1483458220

Block 3 passt eher zu den Werten, die ich von meinem Display erwarten würde:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=58539&stc=1&d=1483458304

Die Werte aus Block 3 (Range von 48 bis 70 und Min/Max H Rate könnte ich in Block 2 übernehmen, aber ein Pixel Clock von 300 MHz geht nicht. Dementsprechend funktionieren auch die weiteren Schritte nicht und ich kann keinen brauchbaren Treiber erzeugen. Ich hätte gerne als unteres Limit 45 oder 42 Hertz (statt 48) ausprobiert, aber so gibt das nix.
Weiß einer von euch Rat?

fondness
2017-01-03, 17:20:40
Warum nimmst du nicht CRU? Siehe: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=572279

Schmuppes
2017-01-03, 17:28:31
Äh... Hab ich nicht gewusst, danke!

Troyan
2017-01-04, 18:11:15
Variable Refresh Rate hat es ins HDMI 2.1 geschafft:
Game Mode VRR features variable refresh rate, which enables a 3D graphics processor to display the image at the moment it is rendered for more fluid and better detailed gameplay, and for reducing or eliminating lag, stutter, and frame tearing.
http://www.hdmi.org/manufacturer/hdmi_2_1/index.aspx

robbitop
2017-01-04, 18:12:17
Ein Grund mehr für NV so eine Lösung zu unterstützen. PC Gaming am TV wird ein Stück weit interessanter. :up:

fondness
2017-01-04, 18:25:52
Variable Refresh Rate hat es ins HDMI 2.1 geschafft:

http://www.hdmi.org/manufacturer/hdmi_2_1/index.aspx

Beantragt von AMD.

Kartenlehrling
2017-01-04, 18:26:43
Im HDMI Bereich ist wohl die Console mit Variable Refreshraten (VRR) erstes Ziel,
PS4pro mit 4K+ Variable Refreshrate ist dann wohl kein Traum mehr.

Loeschzwerg
2017-01-04, 18:37:07
PC Gaming am TV wird ein Stück weit interessanter. :up:

Kann ja nur Jahrzehnte dauern bis entsprechende TV Monitore kommen... die Hersteller fackeln doch gerade erst den HDR Zug ab :(

fondness
2017-01-04, 18:40:31
Kann ja nur Jahrzehnte dauern bis entsprechende TV Monitore kommen... die Hersteller fackeln doch gerade erst den HDR Zug ab :(

Jap, bin mittlerweile wirklich froh, mir Mitte 2015 einen 4K FreeSync Schirm gekauft zu haben. Die ganzen groß angekündigten Monitorrevolutionen verzögern sich ständig.

M4xw0lf
2017-01-04, 19:08:50
Jap, bin mittlerweile wirklich froh, mir Mitte 2015 einen 4K FreeSync Schirm gekauft zu haben.
Wenn es halt nur einen einzigen LFC-fähigen gäbe, bzw alternativ/gleichbedeutend, einen mit <30 Hz unterer Grenze.

Troyan
2017-01-04, 19:57:03
Asus hat den ersten 4K, 144Hz, HDR und G-Sync Monitor angekündigt:
http://videocardz.com/65369/asus-announces-swift-pg27uq-4k-ips-144hz-g-sync-monitor

Jo. Ich gehe schonmal ein paar Nieren sammeln. :eek:

Locuza
2017-01-04, 21:49:49
Oh mein Gott, Asus hat die Wollmilchsau gebaut wovon jeder träumt.
Man muss den Text auf der Zunge zergehen lassen:
ASUS Republic of Gamers (ROG) today announced Swift PG27UQ, a 27-inch G-SYNC HDR gaming monitor that is the very first to offer 4K UHD (3840 x 2160) gaming visuals at an ultra-fast 144Hz refresh rate for the gaming experience with incredible contrast, deep saturated colors, and stunning brightness. Quantum-dot display technology gives PG27UQ a wide DCI-P3 color gamut for more realistic colors and smooth color gradations. In addition, PG27UQ has a peak brightness of 1,000cd/m² and a high contrast ratio for exceptional distinction between light and dark hues. G-SYNC variable refresh rate technology provides tear-free, smooth, and low-lag gameplay. PG27UQ is built for gaming enthusiasts and pro-gamers, and is designed to take gaming visuals to a whole new level.
+ IPS-Panel

Da bin ich mal auf den Preis gespannt.
Sehr schade das Asus sich etwas weigert ihr Adaptive-Sync-Angebot genau so enthusiastisch zu verfolgen.

Kartenlehrling
2017-01-04, 22:41:29
http://www.guru3d.com/news-story/hp-reveals-omen-x-35-curved-g-sync-monitor.html
HP Reveals Omen X 35 Curved G-Sync Monitor

Curved 35” diagonal, AMVA, 3440x1440 21:9, NVIDIA G-Sync, 100Hz, 1300€

maximus_hertus
2017-01-04, 23:03:03
Oh mein Gott, Asus hat die Wollmilchsau gebaut wovon jeder träumt.
Man muss den Text auf der Zunge zergehen lassen:

+ IPS-Panel

Da bin ich mal auf den Preis gespannt.
Sehr schade das Asus sich etwas weigert ihr Adaptive-Sync-Angebot genau so enthusiastisch zu verfolgen.

Wenn ich raten darf: Im Bundle mit der 1080 Ti für rund 3000 Euro :)

Alleine wir es sicher über 1000, aber unter 2000 Euro bleiben. So irgendwas im Bereich 1500 - 1900 Euro.

samm
2017-01-04, 23:16:18
Oh mein Gott, Asus hat die Wollmilchsau gebaut wovon jeder träumt.
Man muss den Text auf der Zunge zergehen lassen:

+ IPS-Panel

Da bin ich mal auf den Preis gespannt.
Sehr schade das Asus sich etwas weigert ihr Adaptive-Sync-Angebot genau so enthusiastisch zu verfolgen.Sehr toll, will haben :D Aber womit schliesst man das Teil denn an? Bei 2160p @144Hz @HDR braucht man ja drei Kabel oder sowas für genügend Bandbreite ;D OK, mit HDMI 2.1 dann nur noch zwei...

[edit]OK, mit einem DP 1.4 und Kompression würde man 144 hinbekommen. Aber auch irgendwie blöd, wenn man super Farb- und Kontrastumfang hat mit HDR und dann mit lossy Komprimierung arbeiten muss.

Hübie
2017-01-05, 01:44:59
Wo steht denn HDR? Ist dieses DCI-P3 damit gemeint? :redface:

Der ist echt ein Traum :ulove:

akuji13
2017-01-05, 08:42:09
Oh mein Gott, Asus hat die Wollmilchsau gebaut wovon jeder träumt.
Man muss den Text auf der Zunge zergehen lassen

27" + IPS kommen höchstens noch in meinen Albträumen vor. :D

HisN
2017-01-05, 08:45:30
Ein paar Zoll mehr können es tatsächlich sein.

Troyan
2017-01-05, 08:58:33
Preis liegt laut Asus bei $1199 und Auslieferung soll in Q3 erfolgen.

Kartenlehrling
2017-01-05, 15:00:13
https://pics.computerbase.de/7/6/1/6/7/3-1260.png
Update:
Mittlerweile konnten wir auch den US-Preis in Erfahrung bringen, er wird bei 1.199 US-Dollar liegen.
Weitere Details zum Thema Gsync HDR kommen von Nvidia und Asus. So entstammen die Displays einer Zusammenarbeit mit AU Optronics und
im Gegensatz zu HDR-Fernsehern, die laut Nvidia eine Latenz von 22-41 ms hätten, seien entsprechende Gsync-HDR-Displays nahezu latenzfrei.
Außerdem sei die in 384 Zonen unterteilte LED-Hintergrundbeleuchtung einzigartig, sie erlaube selektierbare Dimmerflächen, um den Kontrast zu maximieren.
Übrigens soll auch Acer einen entsprechenden HDR-Monitor planen und Nvidia bestätigt, dass Mass Effect: Andromeda auch auf dem PC HDR unterstützen soll.
http://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/ROG-Swift-PG27UQ-mit-144-Hz-und-4K-1217477/

Hier wird nochmal bestätig das sie den gleich Ansatz ausführen um die Latenz zu drücken.


...
ASUS ROG Swift PG27UQ

Display Resolution: 3840x2160
Panel type: 27in (16:9) IPS panel
Backlight Type: Direct LED; dynamically controlled across 384 zones
High Dynamic Range: Yes, HDR 10
Refresh rate: Up to 144Hz
Brightness: 1,000cd/m² (peak)
Quantum Dot Technology: Yes
Input: DisplayPort 1.4 x2, HDMI x1

Asus hat nun entlich auch eine Seite aufgeschalte.
Aber das meiste wissen wir ja nun, aufjedenfall eine Wollmichsau für Nvidia Besitzer, und erstmal Mass der Dinge.
http://rog.asus.com/articles/gaming-monitors/press-release-republic-of-gamers-announces-swift-pg27uq/

robbitop
2017-01-05, 15:56:32
Bei normalem Sitzabstand am Schreibtisch >27" schon sehr viel im peripherem Sichtfeld. Dann muss man ständig den Kopf drehen und die Augen drehen ständig - IMO verliert man da ein Stück weit Übersicht in Spielen (HUD, Minimap sieht man nicht mehr so richtig etc). Zumal das FOV des Menschen entgegen der weitläufigen Meinung eher zu 16:9 passt als zu 21:9.

akuji13
2017-01-05, 16:08:51
Bei normalem Sitzabstand am Schreibtisch >27" schon sehr viel im peripherem Sichtfeld. Dann muss man ständig den Kopf drehen und die Augen drehen ständig - IMO verliert man da ein Stück weit Übersicht in Spielen (HUD, Minimap sieht man nicht mehr so richtig etc).

Die Augen zu bewegen ist gesünder für sie als stur zu starren. :wink:

Ich tausche da lieber ein wenig Verlust in Sachen Übersicht gegen einen großen Gewinn an Immersion.
Schaue ich auf einen 27" kommt es mir vor als schaue ich in ein Aquarium.
Überall fehlt was: oben, unten, links und rechts.

HUD & Minimap blende ich sehr oft aus bzw. schaue zwischendurch mal kurz drauf wenn ich es wirklich benötige.
Man kann sich auch zum Sklaven von Anzeigen machen.

In Shadow Warrior 2 z. B. blende ich lieber kurz die map ein als ständig die minimap auf dem Schirm zu haben.
Was mich an ganz vielen Spielen stört ist das die Anzeigen nur im 16:9 Bereich liegen, ich habe die Sachen wenn überhaupt lieber ganz in den Ecken so wie es in Fallout 4 mit dem tweaker möglich ist.
Das trägt für mich ebenfalls zu einer Steigerung der Immersion bei.

Das unser Sichtfeld 16:9 enspricht kann ich nicht sagen, schließlich stört oben die Augenhöhle und unten die Nase/Wagenknochen die mein Sichtfeld begrenzen.
Für mich wirkt das eher wie 21:9.

Das 27" eine große Basis anspricht ist natürlich richtig.

robbitop
2017-01-05, 16:26:01
Das Sichtfeld des Menschen muss man nicht diskutieren und braucht auch keiner zu empfinden. Das ist wissenschaftlich ermittelt und belegt.


Bei einem Erwachsenen beträgt die horizontale Ausdehnung des binokularen Gesichtsfelds etwa 214° (±107° auf jeder Seite),[5][6][7] die vertikale zirka 60°–70° nach oben und 70°–80° nach unten.[8][9][10][4]
...


Quellen:
Theodor Axenfeld (Begründer), Hans Pau (Hrsg.): Lehrbuch und Atlas der Augenheilkunde. 12., völlig neu bearbeitete Auflage. Unter Mitarbeit von Rudolf Sachsenweger u. a. Gustav Fischer, Stuttgart u. a. 1980, ISBN 3-437-00255-4.
Henning Rönne: Zur Theorie und Technik der Bjerrrumschen Gesichtsfelduntersuchung. In: Archiv für Augenheilkunde. 78, Nr. 4, 1915, S. 284–301.
Hochspringen ↑ Harry Moss Traquair: An Introduction to Clinical Perimetry, Chpt. 1. Henry Kimpton, London 1938, S. 4–5.
Hochspringen ↑ Robert H. Spector: Clinical Methods: The History, Physical, and Laboratory Examinations. 3rd edition.. 1990.



https://de.wikipedia.org/wiki/Gesichtsfeld_(Wahrnehmung)

Rechnen wir also:

Mensch
214 horizontal : (60 oben + 70 unten) = 1,64

Monitorverhältnisse
16:9 = 1,77
16:10 = 1,6
21:9 = 2,33

Das menschliche Sichtfeld liegt folglich sogar eher unter 16:9.

akuji13
2017-01-05, 16:43:39
Das Sichtfeld des Menschen muss man nicht diskutieren und braucht auch keiner zu empfinden. Das ist wissenschaftlich ermittelt und belegt.

So so.
Du oder die Medizin wollt mir erzählen was ich wie empfinde.
Wenn ich also Kopfschmerzen habe und man nichts feststellen kann sind die auch nicht da! ;D

Das Gesichtsfeld ist noch nicht einmal bei einem gesunden Auge stets gleich.
https://de.wikipedia.org/wiki/Gesichtsfeld_(Wahrnehmung)
"Bei einem Erwachsenen beträgt die horizontale Ausdehnung des binokularen Gesichtsfelds etwa 214° (±107° auf jeder Seite),die vertikale zirka 60°–70° nach oben und 70°–80° nach unten."
10° sind ein ganze Menge.

Ganz zu schweigen von der großen Anzahl der Menschen bei denen es mehr oder weniger eingeschränkt ist (wie hier!).
Und genau das macht das Empfinden des eigenen Sehens aus.
"Vom Gesichtsfeld zu unterscheiden ist das Blickfeld, das auf der zentralen Fixation von Gegenständen mit Hilfe von Augenbewegungen beruht und nicht von unterschiedlicher Empfindlichkeit beeinflusst wird."

Ich empfinde auch die Farbe Pink als unangenehm obwohl man das wissenschaftlich nicht belegen kann.

Thomas Gräf
2017-01-05, 16:53:26
Mein Empfinden will einen perfekten 55'er ohne Bewegtbildunschärfe, und bitte bitte nicht curved.
Das mag ich gar nicht.

robbitop
2017-01-05, 18:02:36
So so.
Du oder die Medizin wollt mir erzählen was ich wie empfinde.
Wenn ich also Kopfschmerzen habe und man nichts feststellen kann sind die auch nicht da! ;D

Das Gesichtsfeld ist noch nicht einmal bei einem gesunden Auge stets gleich.
https://de.wikipedia.org/wiki/Gesichtsfeld_(Wahrnehmung)
"Bei einem Erwachsenen beträgt die horizontale Ausdehnung des binokularen Gesichtsfelds etwa 214° (±107° auf jeder Seite),die vertikale zirka 60°–70° nach oben und 70°–80° nach unten."
10° sind ein ganze Menge.

Ganz zu schweigen von der großen Anzahl der Menschen bei denen es mehr oder weniger eingeschränkt ist (wie hier!).
Und genau das macht das Empfinden des eigenen Sehens aus.
"Vom Gesichtsfeld zu unterscheiden ist das Blickfeld, das auf der zentralen Fixation von Gegenständen mit Hilfe von Augenbewegungen beruht und nicht von unterschiedlicher Empfindlichkeit beeinflusst wird."

Ich empfinde auch die Farbe Pink als unangenehm obwohl man das wissenschaftlich nicht belegen kann.

Ich habe extra die jeweils niedrigsten vertikalen Werte genommen, um dir eher entgegen zu kommen - sonst wäre das Blickfeld noch weiter weg von 21:9.

Wenn man wie in dem letzten von dir genannten Satz ausgeht, sieht das Blickfeld natürlich anders aus. Aber dann muss man ja ständig die Augen bewegen. Das ist ermüdend und raubt Übersicht.

Wie auch immer: jeder wie er mag. Aber es gibt sehr wohl gute und objektiv sinnvolle Gründe, dass 27" bei 16:9 ein gutes und keineswegs nicht mehr zeitgemäßes Maß ist.

Thomas Gräf
2017-01-05, 18:24:39
robbitop ich würde das Display in mein Flight-Rig hängen und natürlich ein TrackIR verwenden.
Ja eine oberaffengeile VR Brille täte es notfalls auch. ;)

robbitop
2017-01-05, 21:24:44
OK solche Sonderanwendungen sind was anderes. :)

Kartenlehrling
2017-01-06, 09:55:35
Update 06.01.2017 09:37 Uhr
Asus hat ComputerBase soeben darüber informiert,
dass der zunächst von Asus selbst auf der Website kommunizierte Preis von 1.199 US-Dollar falsch ist und inzwischen wieder entfernt wurde.
Der Preis für den Asus PG27UQ stehe derzeit noch nicht fest, weshalb vom Unternehmen auch noch kein neuer Pries kommuniziert werden könne.


Also billiger?

Schnoesel
2017-01-06, 12:13:51
Asus hat ComputerBase soeben über die tatsächlichen Kosten informiert. Der PG27UQ wird in Deutschland voraussichtlich mit einer unverbindlichen Preisempfehlung von 1.999 Euro in den Handel gelangen.

Ups

https://www.computerbase.de/2017-01/asus-rog-swift-pg27uq-uhd-144-hz-displayport-1.4-g-sync-hdr/

Troyan muss wohl beide Nieren löhnen.

Kartenlehrling
2017-01-06, 12:36:51
shut up and take my money, 2.000€ ist doch geschenkt !!

maximus_hertus
2017-01-06, 12:38:51
Wenn ich raten darf: Im Bundle mit der 1080 Ti für rund 3000 Euro :)

Damit dürfte ich es ziemlich gut getroffen haben ;)

Die ursprünglich genannten 1199 hätten nicht zum Premium Feeling gepasst. nVidia = Premium, da soll der Bildschirm auch einen Premium-Preis haben :D


Ich warte derweil auf einen Bildschirm für Preisbewusste - mit dieser Ausstattung:

Freesync 40 - 100 Hz+, LFC, möglichst dünner Rahmen, IPS Panel, günstig :) (max 200 Euro, brauche ja 3 Stück für Eyefinity/Surround Action).

Troyan
2017-01-06, 12:40:28
1999€ entsprechen mehr der Realität für 1000Nits und Dimming. $1199 wären aber cool gewesen.

Effe
2017-01-06, 12:53:50
1999$ ist Realität für einen 27'' Monitor? Wohl kaum...

Troyan
2017-01-06, 13:17:23
Natürlich:
4k, 144Hz, 1000Nits, 384 Dimmingzonen, DCI-P3 Abdeckung, Quantom Dot.

Der 32" HDR Monitor von Asus ohne 144Hz und G-Sync kostet das selbe.

Effe
2017-01-06, 13:24:44
...und die bewährte ASUS-Qualität...

Schnoesel
2017-01-06, 13:25:25
Lotto war nie so teuer ;-)

Blediator16
2017-01-06, 13:43:07
...und die bewährte ASUS-Qualität...

Und natürlich das grüne Logo :biggrin:

akuji13
2017-01-06, 14:10:17
Wieviele tote Pixel und Staubeinschlüsse bekomme ich da für mein Geld?
Ich hoffe doch mehr als bei den Geräten für den Pöbel! :D

Ich finde den Preis super. :)
Der ist überhalb meiner Schmerzgrenze und macht mein Kaufverhalten bedeutend einfacher.

gnomi
2017-01-07, 07:51:39
Der Preis ist echt heftig. :O
Und ich dachte schon, GSync 1 2014 war teuer. :freak:

Kartenlehrling
2017-01-07, 09:45:05
Das Direct-LED-Backlight Dimming nicht umsonst ist sollte klar sein, gibts bis heute immer noch nur in der Premium TV Klasse,
der 120Hz OLED von Dell vor genau einem Jahr sollte 5000$ kosten, wir warten immer noch darauf. (Spatz/Taube?)
Der Monitor hat nun 2x DP1.4 und warscheinlich HDMI2.0b somit müsste Nvidia auch ein neues Gsync Modul entwickelt,
das Nvidia sowas nicht subventioniert sollte auch klar sein.
Ausserdem ist es bis Herbst (Q3/2017) verdammt lang, kann man noch mehr Geld ansparen :)

Aber die Hoffnung das wir eine preiswerte Freesync2 Version bekommt ist immer noch da.
Ich würde mich wohl auch mit 600nits/100%Rec709/10bit, edge LED Dimming und 100Hz freuen für einen Preis unter 1200€.
Der China Anbieter TLC hat auf der CES 2017 einige QuatumDot TV Modelle angeboten,
vielleicht sehen wir schon viel früher Freesync2 fähige TV Geräte als uns lieb sind.
Vorallem weil eins der Modell aussieht wie die TV Darstellung welche AMD für ihre Freesync2 Folie präsentierte.

akuji13
2017-01-07, 10:10:50
Ich bin auch bereit viel Geld für einen Monitor auszugeben.
Dann muss aber auch wirklich alles passen, sowohl was die eigenen Wünsche angeht (Auflösung, Größe, Hz usw.) als auch die Qualität ansich.

Jetzt hat jedes Gerät mehr oder weniger große Defizite, den Optimismus das sich das ändert habe ich inzwischen verloren.

Das neue dimming könnte aber durchaus etwas in Sachen bleeding, Ausleuchtung und Schwarzwert bringen.
Das was da bislang in Sachen IPS zu haben ist ist für mich indiskutabel.

Troyan
2017-01-07, 10:13:05
Schwarzwert wird kaum gesteigert, da die Zonen zu gering sind. Aber Bleeding und IPS Glow sollten damit verschwinden, da die Zonen die Helligkeit auf ein minimum reduzieren können.

Kartenlehrling
2017-01-08, 16:59:30
JCF7CXIMdh4
CES kompakt: HDMI 2.1

Der Zeitplant heist Japan Olympiade 2018.
Unlustig finde ich das er im Video von Game Mode VRR spricht, die vergleichbar mit Nvidia G-sync Lösung sein soll.

Thomas Gräf
2017-01-08, 19:56:27
Vielleicht kennt er keine Radeon Karten. :biggrin:

Die Jungs hier sehen das etwas kompletter.
http://www.eurogamer.net/articles/digitalfoundry-2017-hdmi-2-1-specifications-revealed

Für Konsolen und PC, eine runde Sache wenn dann die 100 oder gar 120HZ der 4k OLED TV's +Sync nun auch vom PC angesteuert werden können.
Für sowas lohnt es sich dann wenigstens Geld in die Hand zu nehmen.

Kartenlehrling
2017-01-08, 22:42:55
https://youtu.be/FwcUMZLvjYw?t=1745
Freesync2 are No Secret sauce!

Thomas Gräf
2017-01-09, 00:18:27
Jen-Hsun disliked this video. :biggrin:

Kartenlehrling
2017-01-27, 00:02:15
http://aoc-europe.com/images/product/fibb/productdetail-large/Public/AOC/Product%20Data%20and%20Pictures/AGON2/AG352QCX_FTR-KV.png
http://aoc-europe.com/en/products/ag352ucg#product-detail-technical

AOC AGON AG352UCG
A 100 Hz refresh rate and NVIDIA G-SYNC technology

Monitor Size 35 Inch Screen Format 21:9
Brightness 300 cd/m2 (type) Contrast Ratio 2000:1
Dynamic Contrast Ratio - Viewing Angle 178/178
Response time 4 ms Maximum
Resolution35" 3440x1440@100Hz

Sardaukar.nsn
2017-01-28, 19:29:51
Heute ist mein Dell S2716DG angekommen. http://www.tftcentral.co.uk/reviews/dell_s2716dg.htm

Sehr zu meiner Freude in der aktuellsten Revision A04 und komplett ohne Pixelfeher, backlight bleeding usw.
Besonders gespannt war ich wie das G-Sync mit meiner GTX1060 funktioniert. Ein Wort: wunderbar!
Ganz ohne großes Gefummel, wurde automatisch alles erkannt und die Resultate sind einfach einmalig. Der Dell hat einer G-Sync Range von 30-144hz das mir ganz wichtig war und ich auch fast ganz ausnutzen kann.

- Diablo 3, das ich aktuell in Season 9 wieder spiele ist ein 120+ fps ein Traum. Bei den wilden Rifts mit mega vielen Monstern und umherfliegenden Zaubern und Zahlen ist der unterschied zu 60fps absolut enorm.
- Doom läuft zwischen 70-100fps sensationell schnell (auch vom Gameplay) und flüssig.
- Witcher 3 eiert bei mir um die 60fps, aber geht auch gerne mal runter auf 50fps und tiefer. Gerade hier finde ich das G-Sync auch noch mal einen tollen Gewinn. Der Bereich von 40-60fps läuft einfach wunderbar und kein Vergleich zu meinem bisherigen (nur) 60hz Bildschirm.

Fazit, die Technik funktioniert tadellos und ist meiner Meinung nach den Aufpreis beim Bildschirm wert.

FatBot
2017-01-29, 12:03:11
Wie empfindest Du die Blickwinkel? Hatte den auch in der engeren Auswahl, bin mir aber nicht so sicher, wenn ich an das TN-Display meines alten Notebooks denke. Sonst sitze ich vor IPS oder VA.

hmmm
2017-01-29, 12:21:28
... Der Dell hat einer G-Sync Range von 30-144hz das mir ganz wichtig war und ich auch fast ganz ausnutzen kann.
...

Ist bekannt welches Panel genau verbaut wird und wie weit dies wirklich runter kann? Die 30-144Hz "G-Sync Range" sind ja nur "haarscharfes" Marketing.

EPIC_FAIL
2017-01-29, 12:21:55
Habe den Dell auch. Die Blickwinkel sind nicht vergleichbar mit üblichen TNs in Laptops. Der horizontale Blickwinkel ist schon sehr gut, hatte diverse Monitore hier gehabt, die hatten stärkere Verfälschungen zu den Seiten hin weil alleine die Farbtemparatur geschwankt hat (war z.B. beim HP 2475W ziemlich arg, links stark rot, rechts heftig grün). Vertikal ist auch akzeptabel für die Größe, allerdings sieht man im Worst-Case (z.B. hier im Forum wegen großen gleichfarbigen Flächen) immer Unterschiede zwischen oben und unten. In Spielen ist das aber unkritisch, da kommt soetwas kaum vor.

Sardaukar.nsn
2017-01-29, 18:36:44
Wie empfindest Du die Blickwinkel? Hatte den auch in der engeren Auswahl, bin mir aber nicht so sicher, wenn ich an das TN-Display meines alten Notebooks denke. Sonst sitze ich vor IPS oder VA.

Die Blickwinkel sind für ein TN Panel super, aber da ich eh ziemlich gerade davor sitze ist es für mich kein echtes Thema.
Ein ganz anschauliches Review das gleich auf das Vorurteil ("nur" ein TN-Panel) eingeht: https://www.youtube.com/watch?v=dydg7Fv-Oy4

Dell hat den Monitor auch über das letzte Jahr immer wieder verbessert, so dass ältere Reviews nicht mehr ganz zutreffend sind. So wurde die Anti-Glare Beschichtung mit einer Revision deutlich verbessert und auch an der Technik hat man gearbeitet. Inzwischen ist man bei Revision A04, aber für genauere Infos kann man sich mal hier durch den Thread wühlen: http://www.overclock.net/t/1577511/dell-s2716dg-1440-144-hz-g-sync-owners-thread

Heute habe ich noch etwas Civilisation 6 gespielt. Dort habe ich sehr starke FPS Schwankungen. Von 110 im Zoom bis manchmal zu 35fps in der Totalen in einem sehr weit fortgeschrittenen Spielstand. Vorher hatte ich hier beim Scrollen über die Landkarte ganz böses tearing, das ist jetzt komplett weg.

Lurtz
2017-01-29, 18:59:29
D.h. GSync funktioniert bei dir in Civ VI? Welche Anzeigeeinstellungen hast du ingame?

EPIC_FAIL
2017-01-29, 19:17:18
Bei mir geht auch GSync in Civ VI.
Modus ist Rahmenloses Fenster. VSync in den Optionen an, Framelimiter aus. Rest alles auf Max.

Ist unter Win7, also DX11. Treiber is 375.95

aufkrawall
2017-01-29, 19:34:24
Ganz ohne großes Gefummel, wurde automatisch alles erkannt und die Resultate sind einfach einmalig. Der Dell hat einer G-Sync Range von 30-144hz das mir ganz wichtig war und ich auch fast ganz ausnutzen kann.

Hier liegt ein kleines Missverständnis vor: Die "Range" ist bei Gsync nach meinem Kenntnisstand völlig egal, denn das Ergebnis ist mit jedem Monitor zu jeder Zeit immer flüssig und Tearing-frei, weil das Modul das Panel automatisch bestmöglich anspricht und LFC immer gegeben ist. Das ist der wesentliche Unterschied zu FreeSync.

Dass Gsync zusätzlich gegenüber FreeSync keine Probleme mit fps-Limitern hat und offenbar bei weniger Spielen Ärger macht, kommt dann noch hinzu, wie man ja gerade wieder beim Civ-Beispiel sieht. ;)

FatBot
2017-01-29, 20:26:17
@sardaukar @epic: besten dank fuer die Info.

Lurtz
2017-01-29, 20:51:30
Na mit VSync an habe ich auch kein Tearing in Civ und Freesync, mit VSync off aber immer. Würde mich interessieren ob das bei GSync auch so ist. Echten Fullscreen unterstützt das Spiel nicht wirklich.

Sardaukar.nsn
2017-01-29, 21:44:09
Na mit VSync an habe ich auch kein Tearing in Civ und Freesync, mit VSync off aber immer. Würde mich interessieren ob das bei GSync auch so ist. Echten Fullscreen unterstützt das Spiel nicht wirklich.

Ich spiele es ohne VSync und Framelimiter. Kein Stottern bei den großen FPS Sprüngen beim Zoomen. Kein Tearing. Die Framerate geht maximal bis 143 hoch.

Einstellungen sind so: http://www2.pic-upload.de/img/32582214/civ6_gsync.jpg

Lurtz
2017-01-29, 22:13:06
Ok, dann ist mal wieder Freesync bei dem Spiel kaputt. Das teart immer.

Kartenlehrling
2017-02-21, 10:14:27
http://www.blurbusters.com/wp-content/uploads/2017/02/CombineVarRefreshStrobe.png

NVIDIA has published a new patent on combining GSYNC and ULMB.

Also, the Dell S2716DG has a “bonus bug” that simultaneously enables ULMB and GSYNC.
This unintended mode does flicker badly at low frame rates,
but it reveals high-quality blur reduction during variable refresh rate operation,
especially at higher frame rates.

http://www.blurbusters.com/combining-blur-reduction-strobing-with-variable-refresh-rate/
Combining strobing (ULMB/LightBoost) with variable refresh (GSYNC/FreeSync)

Gerhard
2017-02-21, 14:19:07
Ich spiele es ohne VSync und Framelimiter. Kein Stottern bei den großen FPS Sprüngen beim Zoomen. Kein Tearing. Die Framerate geht maximal bis 143 hoch.
[/url]
Naja, das ist dann aber technisch gesehen eindeutig (variabler) Vsync, ohne VSync müsste es auch über 143 hochgehen. Vermutlich überschreibt hier also NVidia einfach den VSync regler auf VSync immer an während das bei AMD nicht passiert.

fondness
2017-02-21, 14:23:52
Naja, das ist dann aber technisch gesehen eindeutig (variabler) Vsync, ohne VSync müsste es auch über 143 hochgehen. Vermutlich überschreibt hier also NVidia einfach den VSync regler auf VSync immer an während das bei AMD nicht passiert.

Habe ich mir auch gerade gedacht, das entspricht exakt dem, was bei Lurtz auch geht.

Da scheint eher G-Sync seltsame Sachen zu machen, wenn VSync automatisch eingeschaltet wird. Oder ist das bei G-Sync immer so, dass VSync automatisch aktiviert wird?

Gipsel
2017-02-21, 14:28:55
http://www.blurbusters.com/wp-content/uploads/2017/02/CombineVarRefreshStrobe.png

http://www.blurbusters.com/combining-blur-reduction-strobing-with-variable-refresh-rate/
Combining strobing (ULMB/LightBoost) with variable refresh (GSYNC/FreeSync)So ein Patent hätte ich als Angestellter im Patentamt mal glatt abgelehnt. Die erforderliche Erfindungshöhe wird da klar verfehlt. Da kommt jeder drauf, der sich ein wenig damit auseinandersetzt (was das Kriterium ist, ob es eine patentierbare Erfindung ist). Das Verfahren zur Kombination von Strobing Backlight mit variablen Refreshraten wurde ja schon mehrfach und sogar von Laien beschrieben (auch hier im Forum).

Edit:
Und da diese Beschreibungen in der Public Domain liegen und vor dem Datum der Einreichung des Patents (erst 2015 eingereicht) existierten, ist das Patent auch recht einfach wegen Prior Art anzufechten (und müßte im Prinzip für ungültig erklärt werden).

akuji13
2017-02-21, 14:52:36
Oder ist das bei G-Sync immer so, dass VSync automatisch aktiviert wird?

Nein.

Du kannst V-Sync im Treiber an- oder ausschalten für den Bereich oberhalb der G-Sync range.

"For enthusiasts, we’ve included a new advanced control option that enables G-SYNC to be disabled when the frame rate of a game exceeds the maximum refresh rate of the G-SYNC monitor. For instance, if your frame rate can reach 250 on a 144Hz monitor, the new option will disable G-SYNC once you exceed 144 frames per second. Doing so will disable G-SYNCs goodness and reintroduce tearing, which G-SYNC eliminates, but it will improve input latency ever so slightly in games that require lighting fast reactions."
http://www.geforce.com/whats-new/articles/g-sync-gets-even-better

Bei den meisten Spielen bewirkte der ingame V-Sync Schalter nichts, bei einigen lief G-Sync nur damit.
Das war eine Zeit bei The Division so, später funktionierte es auch ohne.

Ähnliche Kuriositäten gab/gibt es mit FS aber auch.

Sardaukar.nsn
2017-02-21, 19:05:30
Danke für die Info mit dem ULMB, bisher habe ich es nur ein mal getestet und es hat mir nicht so gut gefallen. Daher nutze ich eigentlich nur G-Sync und bin damit sehr zufrieden.

MarcWessels
2017-02-23, 00:53:16
Danke für die Info mit dem ULMB, bisher habe ich es nur ein mal getestet und es hat mir nicht so gut gefallen. Daher nutze ich eigentlich nur G-Sync und bin damit sehr zufrieden.Was genau hat Dir denn nicht gefallen?

Hübie
2017-02-28, 17:43:57
Gibt es eine Möglichkeit dass ich beim PG278Q ULMB und G-Sync gleichzeitig aktiviere? Wie geht das beim Dell hab es nicht mitbekommen. :smile:

samm
2017-02-28, 20:57:16
Einfach im Treiber & Bildschirm GSync aktivieren, dann ULMB am Bildschirm? Funktioniert zumindest bei meinem Freesync einfach so... Führt aber zu hässlichem Judder, weil die "patentierte" Logik nicht eingebaut ist.

Hübie
2017-03-01, 17:05:19
Ok ich teste das mal. Der Schirm sollte bis zum Wochenende ja hier angekommen sein. :D

Troyan
2017-03-14, 11:19:04
Ha, es scheint, dass die Hölle zugefroren ist:
Samsung bringt G-Sync Monitore auf den Markt: https://www.reddit.com/r/nvidia/comments/5z4g9v/full_samsung_gaming_monitor_lineup_2017/

USS-VOYAGER
2017-03-22, 19:41:35
Habe meine Fury Karte gegen eine GTX1070 getauscht und wollte jetzt mal nach ein G-Sync Monitor gucken. Wollte mein LG IPS 4K Monitor mit Freesync für den ich glaub mal 400€ bezahlt habe gleichwertig ersetzen. Aber ein G-Sync IPS 4K Monitor kostet Mal eben das doppelte :crazy: also nein danke dann gibt es eben kein neuen Monitor.
Muss ich eben hoffen das Vega was vernünftiges wird und dann wieder zurück wechseln.

horn 12
2017-03-22, 20:10:39
Nun wieviel schneller kommt dir nun die GTX 1070 vor. Sollte ein Unterschied sein, weltbewegendes aber kaum!

Frage: Nicht ein Rückschritt vor Allem bei FreeSync und deinem, wie meinem LG 27UD68-P /B Monitor?

Hübie
2017-03-22, 20:17:04
Warum hast du gewechselt wenn ich fragen darf? Leistung dürfte nicht so doll unterschiedlich ausfallen oder? Hast du denn mal nach gebrauchten geguckt? Ich finde 1440p ist noch ein fairer Kompromiss, obwohl 4k schon echt ne andere Hausnummer ist.
Der nächste G-Sync-Monitor zu deinem wäre der Acer Predator XB271HK. Ist in jeder Hinsicht wohl etwas besser als der LG. Ob's 400 Euro Aufpreis rechtfertigt sei mal dahin gestellt.
Ich konnte meinen ASUS PG278Q günstig als Gebrauchten ergattern und bereue es nicht. :D

USS-VOYAGER
2017-03-22, 20:44:05
Gewechselt hatte ich aus mehreren gründen.
-Schneller
-mehr Speicher
-weniger Stromverbrauch
-Wasserkühler dadurch kühler und leiser
Für meine Fury gab es keinen passenden Wasserkühler. Habe hier ein Mora3 stehen und für eine CPU only Kühlung ist der einfach zu schade deswegen wollte ich die Grafikkarte auch wieder mit Wasser kühlen.
Und die ganzen Punkte waren mir ein aufpreis von 170€ die ich nach dem verkauf der Fury zur 1070 mit Wasserkühler zuzahlen musste einfach wert.

Und wegen Monitor, unter 4K möchte ich nicht mehr. Nachdem ich ein paar Monate den 4K Monitor hatte, habe ich mir zum testen auch mal ein Monitor mit 144hz geholt aber der ging gleich wieder zurück die Auflösung ging gar nicht mehr es war einfach zu Pixelig. Also 4K muss schon sein.
Aber 800€ ist mir G-Sync jetzt nicht wert.
Entweder wechsel ich auf Vega wenn die Leistung stimmt und habe dann wieder mein freesync oder lebe dann halt ohne G/freesync.

aufkrawall
2017-03-22, 20:48:53
Entweder wechsel ich auf Vega wenn die Leistung stimmt und habe dann wieder mein freesync oder lebe dann halt ohne G/freesync.
Endlich noch jemand, der nicht meint, A-Sync sei das Wichtigste. ^^
Ich leb auch lieber ohne als mit anderen Nachteilen.

M4xw0lf
2017-03-22, 21:28:56
Pixel sind das wichtigste. VIELE PIXEL

Hübie
2017-03-22, 22:16:16
Deshalb hab ich beides: 4k und G-Sync. X-D Erspart mir auch ne neue Graka, wenn man es so nimmt.

M4xw0lf
2017-03-22, 23:03:51
4k+Freesync ftw.

aufkrawall
2017-03-22, 23:08:46
Erspart mir auch ne neue Graka, wenn man es so nimmt.
Kann dieses Argument nicht nachvollziehen, für mich hatte sich die Spielbarkeit mit Gsync bei niedrigen fps nicht erhöht. Klar, die Bilder zerreißen nicht mehr wie Unterhosen von KiK. Das Bewegtbild ist aber trotzdem für die genaue Beobachtung ungeeigneter, unansehnlicher Matsch und die Steuerung kam mir auch nicht genauer vor.

akuji13
2017-03-22, 23:32:52
Ich schon.
45 fps in TW3 spielen sich mit Sync für mich wie 60+ ohne.

Das klappt nicht in jedem Spiel weil es engines gibt die einfach nicht sauber laufen und aus 30 fps wird trotzdem kein Vergnügen.
Wobei ganz mies optimierte Spiele (die Men of War Reihe fällt mir da ein) selbst mit weniger als 20 fps viel weniger zuckeln beim scrollen über die Karte.

Was mir persönlich aber auch aufgefallen ist mit den Syncs:
Ich wurde empfindlicher.

45 fps sind bedeutend besser geworden, aber...mit 60+ Sync ist es dann nochmals besser und ich jagte plötzlich wieder höheren fps hinterher die ich mir eigentlich ersparen wollte.
Ein Traum sind dann konstante 144 fps@144Hz@Sync die man es in älteren Titeln alá Borderlands (1+2) oder Bulletstorm erreicht.

aufkrawall
2017-03-22, 23:47:58
45 fps sind bedeutend besser geworden, aber...mit 60+ Sync ist es dann nochmals besser und ich jagte plötzlich wieder höheren fps hinterher die ich mir eigentlich ersparen wollte.
Ein Traum sind dann konstante 144 fps@144Hz@Sync die man es in älteren Titeln alá Borderlands (1+2) oder Bulletstorm erreicht.
Das war auch meine Erfahrung mit 144Hz Gsync. So wirklich flüssig wirds erst Richtung dreistellig, man kann nicht genug bekommen bzw. weniger ist dann schnöde.
Da krebs ich nach kurzer Umgewöhnung lieber wieder mit meinen schäbigen Qnix 75Hz rum, bei immerhin brauchbaren Farben und nicht gänzlich grausigem Schwarz, anstatt die fps-Jagd auf Kosten der Standbild-Qualität.

Hübie
2017-03-23, 00:23:42
Kann dieses Argument nicht nachvollziehen, für mich hatte sich die Spielbarkeit mit Gsync bei niedrigen fps nicht erhöht. Klar, die Bilder zerreißen nicht mehr wie Unterhosen von KiK. Das Bewegtbild ist aber trotzdem für die genaue Beobachtung ungeeigneter, unansehnlicher Matsch und die Steuerung kam mir auch nicht genauer vor.

Nun ja. Das liegt zum einen an der Empfindsamkeit der Person und auch an den Spielen die man spielt. Ich gewöhne mich schnell an Dinge wie input lag und guck auch mal über flimmernde Spielinhalte hinweg. Ich nehme das alles wahr, aber ich störe mich weniger dran (zumal ich nicht so digital wie du Dinge betrachte). Muss halt jeder für sich entscheiden. Meine Multiplayer-Zeiten sind jedenfalls eindeutig vorbei und somit braucht man nicht mehr zwangsläufig überall 100+ fps. ;)

Es ist auch so, dass ich die 1080 Ti einfach nicht kaufen möchte, da die Preise immer weiter ansteigen und ich aussteige. Somit leg ich dieses Argument mit in diese Kiste. Nicht dass ich am Ende doch noch eine Dummheit begehe, du verstehst? :biggrin:

dargo
2017-03-23, 07:37:33
Was mir persönlich aber auch aufgefallen ist mit den Syncs:
Ich wurde empfindlicher.

Willkommen im Club. ;)

mironicus
2017-03-23, 09:16:15
LG 32UD89-W für 644 Euro zum Vorbestellen.
https://www.amazon.fr/dp/B01ND44JR2

4K, 32 Zoll, Freesync 40-60 Hz. Ist vielleicht ein Preisfehler.

M4xw0lf
2017-03-23, 09:35:00
LG 32UD89-W für 644 Euro zum Vorbestellen.
https://www.amazon.fr/dp/B01ND44JR2

4K, 32 Zoll, Freesync 40-60 Hz. Ist vielleicht ein Preisfehler.
Ich denke nicht. LG bietet mehrere 4k-FS-Monitore mit 27-28" für ~400€, würde also nahtlos dazu passen.

mironicus
2017-03-23, 09:41:21
Der kostet normalerweise über 900 Euro.

https://geizhals.de/lg-electronics-32ud89-w-a1574890.html

Screemer
2017-03-23, 09:41:26
Jetzt endlich noch dp1.3 und >=75hz und ich Kauf mir doch nen neuen monitor.

akuji13
2017-03-23, 10:05:18
Willkommen im Club. ;)

Und tschüss aus dem Club. ;)

Ich habe mich entwöhnt. :)

robbitop
2017-04-18, 19:32:15
Mit HDMI2.1 wird NV (vermutlich dann zu Volta) G-Sync auf ein dort offenes VRR Verfahren erweitern müssen. Mwn ist VRR bei HDMI 2.1 nicht mehr optional.

fondness
2017-04-18, 19:33:54
Mwn ist VRR bei HDMI 2.1 nicht mehr optional.

Quod esset demonstrandum. Was zu beweisen wäre.

Thomas Gräf
2017-04-18, 22:54:24
Das war mein allererster Gedanke als HDMI2.1 vorgestellt wurde.
Wie geht nV damit jetzt um. Sony Samsung und LG werden sich eh nichts aufschwatzen lassen.

24p
2017-04-18, 22:59:51
Quod esset demonstrandum. Was zu beweisen wäre.

Jeder TV mit hdmi 2.1 wird es wohl können, da zB die neue xbox vrr können soll. Da wird es dann ab 2018 schwer als TV-Hersteller TVs ohne vrr zu verkaufen. Das ganze istnja nicht ohne Grund in den Standard hereingerutscht. Und ja, Nvidia muss sich da bewegen, sonst stehen sie im Abseits.

dargo
2017-04-19, 11:02:20
Mit HDMI2.1 wird NV (vermutlich dann zu Volta) G-Sync auf ein dort offenes VRR Verfahren erweitern müssen. Mwn ist VRR bei HDMI 2.1 nicht mehr optional.
Huch... ist da wirklich was dran? Dann wird das in naher Zukunft recht interessant. :D

iuno
2017-04-19, 13:51:30
Quod esset demonstrandum. Was zu beweisen wäre.
Es wird zumindest als offizielles Feature genannt und gelistet und da steht nirgends was von optional. Ich nehme schon an, dass man alle Features erfuellen koennen muss, um sein Produkt mit "HDMI 2.1"-faehig zu bezeichnen.

deekey777
2017-04-19, 14:10:03
...
Es wird zumindest als offizielles Feature genannt und gelistet und da steht nirgends was von optional. Ich nehme schon an, dass man alle Features erfuellen koennen muss, um sein Produkt mit "HDMI 2.1"-faehig zu bezeichnen.

Oder die TV-Hersteller bleiben bei HDMI 2.0a so lange, wie es geht. Für den normalen Markt bringt HDMI 2.1 keine Vorteile und bleibt ggf. länger den teureren Geräten vorbehalten.

Das gilt auch für die Grafikkartenhersteller und alle möglichen Hersteller.

robbitop
2017-04-19, 16:38:29
Die TV Hersteller sind eigentlich immer recht froh, wenn es eine neue Sau gibt, die sie durchs Dorf treiben können. Dann gibt es wieder Gründe, neue Geräte zu verkaufen. VRR mit Scorpio und PCs (und ggf zukünftigen anderen Geräten) ist sicherlich nur ein Teilgrund. Höhere Refreshraten und/oder höhere Auflösung und/oder Farbabtastung ist ein sicherlich nicht kleiner weiterer Grund. Bisher wurden eigentlich alle neuen HDMI Revisionen schnell von den TV Herstellern umgesetzt. Sobald Stückzahlen relevant werden (was im TV Bereich schnell passiert), wächst der Druck auf NV immer mehr. Die möchten sicherlich HDMI 2.1 auf die Box schreiben.
So sehr viel verdienen sie sicherlich an G-Sync nicht mit. Die Stückzahl ist sicherlich überschaubar. Der primäre Grund ist eigentlich eher Kundenbindung. Kaufst du einen G-Sync Monitor, kaufst du die nächsten GPUs wohl immer bei NV. ;)

Loeschzwerg
2017-04-19, 17:59:55
Dann unterstützt NV halt VRR @ HDMI2.1, aber was soll das dann am aktuellen Stand bei den PC Monitoren (Displayport) ändern?

deekey777
2017-04-20, 09:19:22
Die TV Hersteller sind eigentlich immer recht froh, wenn es eine neue Sau gibt, die sie durchs Dorf treiben können. Dann gibt es wieder Gründe, neue Geräte zu verkaufen. VRR mit Scorpio und PCs (und ggf zukünftigen anderen Geräten) ist sicherlich nur ein Teilgrund. Höhere Refreshraten und/oder höhere Auflösung und/oder Farbabtastung ist ein sicherlich nicht kleiner weiterer Grund. Bisher wurden eigentlich alle neuen HDMI Revisionen schnell von den TV Herstellern umgesetzt. Sobald Stückzahlen relevant werden (was im TV Bereich schnell passiert), wächst der Druck auf NV immer mehr. Die möchten sicherlich HDMI 2.1 auf die Box schreiben.

Die wohl größte Neuerung ist dynamisches HDR, das ist für den Markt vielleicht am interessantesten. Aber auch diese Neuerung ist für Leute interessant, die das beste visuelle Ergebnis rausholen wollen.

Die ersten 4K-Fernseher hatten nur 4K, man kaufte sie in der Hoffnung, dass sie halbwegs schnelle Prozessoren für 4K-Upscaling haben. Irgendwann kam HDMI 2.0 (es war auch nicht wirklich fertig) und HDR.

So oder so:
Wenn VRR obligatorisch ist, bedeutet das für die TV-Hersteller Kosten im hartumkäpften Markt. Und diese Kosten wird man vermeiden wollen, so dass HDMI 2.1 eher teureren Geräten vorbehalten bleibt. Nicht jeder Xbox-User ist bereit 1.000,00 EUR und mehr für einen Fernseher auszugeben, um in den Genuß von VRR zu kommen, aber viele deutlich darunter, wo der Preiskampf tobt. Also werden sie auf VRR eher verzichten.

Ich bleib pessimistisch.
Nebenbei:
Bei den Grafikkarten hat es immer etwas länger gedauert, bis neues HDMI implementiert wird. Unrühmliches Beispiel ist Intel.


So sehr viel verdienen sie sicherlich an G-Sync nicht mit. Die Stückzahl ist sicherlich überschaubar. Der primäre Grund ist eigentlich eher Kundenbindung. Kaufst du einen G-Sync Monitor, kaufst du die nächsten GPUs wohl immer bei NV. ;)
Und so verdient man Geld.

robbitop
2017-04-20, 09:23:01
Dann unterstützt NV halt VRR @ HDMI2.1, aber was soll das dann am aktuellen Stand bei den PC Monitoren (Displayport) ändern?
Es gibt auch Monitore mit HDMI Schnittstelle. Und es wird auch welche mit HDMI2.1 geben. Insbesondere dann, wenn man dann VRR ohne teurem propertärem FPGA verkaufen kann.


So oder so:
Wenn VRR obligatorisch ist, bedeutet das für die TV-Hersteller Kosten im hartumkäpften Markt. Und diese Kosten wird man vermeiden wollen, so dass HDMI 2.1 eher teureren Geräten vorbehalten bleibt. Nicht jeder Xbox-User ist bereit 1.000,00 EUR und mehr für einen Fernseher auszugeben, um in den Genuß von VRR zu kommen, aber viele deutlich darunter, wo der Preiskampf tobt. Also werden sie auf VRR eher verzichten.

Wieso höhere Kosten? Für HDMI2.1 müssen eh neue Scaler entwickelt werden. Und die Implementierung von VRR in HDMI2.1 ist der von DP1.2a wohl sehr sehr ähnlich. Das ist wohl relativ unkompliziert zu lösen. Da nimmt man das eben mit. Es entstehen mMn nicht direkt höhere Kosten.

Die GPU Vendors (AMD/NV) haben die HDMI Standards eigentlich in der Vergangenheit schon halbwegs zeitnah umgesetzt. So viel länger hat es nicht gedauert (im Vergleich zu echten HDMI 2.0 inkl HDCP2.2 TV Geräten). Intel ist für mich irrelevant (auch wenn der Marktanteil an GPUs groß ist). Damit kann man kaum sinnvoll spielen.

Ab nächstes Jahr wird es sicherlich die ersten HDMI2.1 TVs geben. 2019 sollte der Marktanteil dann signifikant wachsen. Spätestens 2019 (wenn nicht sogar eher) sollte HDMI2.1 auch in Grafikkarten implementiert sein. IMO.

deekey777
2017-04-20, 09:27:42
Es gibt auch Monitore mit HDMI Schnittstelle. Und es wird auch welche mit HDMI2.1 geben. Insbesondere dann, wenn man dann VRR ohne teures propertäres FPGA verkaufen kann.

Hier ist so eins:
https://www.asus.com/Monitors/VG245Q/

Es wäre schade, wenn Scorpio "nur" VRR beherrscht, nicht aber FreeSync (es sei denn, die sind miteinander kompatibel).

fondness
2017-04-20, 09:33:14
Das jeder HDMI2.1 Fernseher einen VRR-Range unterstützen muss, steht ja nach wie vor in den Sternen. Genau so, dass jede HDMI2.1 Grafikkarte VRR unterstützen muss. Ich kann mir das nämlich ehrlich gesagt nicht vorstellen. Auch heute müssen keineswegs alle Features von HDMI unterstützt werden.

Locuza
2017-04-20, 09:50:58
Das jeder HDMI2.1 Fernseher einen VRR-Range unterstützen muss, steht ja nach wie vor in den Sternen. Genau, dass jede HDMI2.1 Grafikkarte VRR unterstützen muss.
^ This

Loeschzwerg
2017-04-20, 09:54:09
Es gibt auch Monitore mit HDMI Schnittstelle. Und es wird auch welche mit HDMI2.1 geben. Insbesondere dann, wenn man dann VRR ohne teurem propertärem FPGA verkaufen kann.


I know (mein FS2735 hat auch zwei), aber wer sagt dass die Monitorhersteller so schnell auf HDMI2.1 umsatteln, wenn doch am Desktop der Displayport die technologische Triebfeder ist?

robbitop
2017-04-20, 10:00:55
I know (mein FS2735 hat auch zwei), aber wer sagt dass die Monitorhersteller so schnell auf HDMI2.1 umsatteln, wenn doch am Desktop der Displayport die technologische Triebfeder ist?
Das stimmt schon. Aber: ein Blick in den Geizhals Filter sagt, dass es aktuell immerhin 86 Monitormodelle mit HDMI 2.0 gibt. 375 sind es für DP1.2. Ist zwar etwas mehr als 4:1 - aber dennoch würde ich es als marktrelevant bezeichnen.
HDMI2.1 bringt auch für PC Monitore interessante Dinge. Die Bandbreite ist sogar höher als bei DP1.4 und man kann höhere Auflösungen/Refreshraten darstellen. Plus VRR. Hier erwarte ich jedenfalls keine Senkung des o.g. Verhältnisses. Und ggf. "rutscht" VRR dann auch bei NV zum DP rüber, wenn man es auf HDMI freigibt. (die Hoffnung stirbt zuletzt)

Das jeder HDMI2.1 Fernseher einen VRR-Range unterstützen muss, steht ja nach wie vor in den Sternen. Genau so, dass jede HDMI2.1 Grafikkarte VRR unterstützen muss. Ich kann mir das nämlich ehrlich gesagt nicht vorstellen. Auch heute müssen keineswegs alle Features von HDMI unterstützt werden.
Tja ich weiß leider auch nicht, ob es wieder optional ist. IMO wäre das dämlich für die Verbreitung eines so sinnvollen Features, was man bei der Neuentwicklung von Scalern (die dann eh nötig ist), quasi kostenlos mitnehmen kann. AMD hatte mal erläutert, wie einfach das ist, weil ein Großteil der benötigten Dinge bereits eh in fast jedem Scaler bereits vorhanden war.

In jedem Fall verkleinert VRR@HDMI2.1 die Chancen nicht gerade, dass NV G-Sync um einen offenen Standard erweitert.

Loeschzwerg
2017-04-20, 10:04:38
Es wäre zumindest wünschenswert wenn NV sich hier öffnen würde, aber dafür braucht es entsprechende Verpflichtungen durch die HDMI2.1 Spec (bzw. dann würde es schneller gehen).

Abseits davon nervt mich aber die Konkurrenz zwischen HDMI und DP. EINE Schnittstelle und fertig.

robbitop
2017-04-20, 10:07:28
Ggf. beschleunigt Konkurrenz aber auch die Entwicklung? Wir brauchen Datenrate. 8K@120Hz+@10-12bit@volle Farbabtastung. Ist noch ein langer Weg. :)

Kartenlehrling
2017-04-27, 18:58:57
Cuv9d9Oe540


https://youtu.be/G9zWIJ9SDEw?t=6031
Acer Predator X27 und Z271UV setzen auf die Quantum-Dot-Technik, G-sync und HDR

robbitop
2017-04-27, 21:45:20
So wie bei den letzten Geräten das gleiche Gerät wie ROG SWIFT Gerät - nur eben von Acer.

Hübie
2017-04-28, 00:00:02
Sind beide noch nicht verfügbar oder? Gibt's Termine? :confused:

Klevapalis
2017-04-28, 10:01:41
Hallo zusammen,

war eigentlich auf der Suche nach einem Ultrawide Monitor mit G-Sync, aber da ich inzwischen (wenn ich mal zum Zocken komme) Overwatch spiele und Blizzard ja alles über 16:9 als Witchcraft und Cheating beschimpft und daher bei Ultrawide lieber weniger anzeigt als mit 16:9, konnte es ja auch 16:9 werden.

Hab dann gestern bei nem Deal bei Otto zugeschlagen:
https://www.mydealz.de/deals/schwab-lenovo-y27g-6858-cm-27-zoll-full-hd-matt-curved-monitor-hdmi-14-displayport-12-4-ms-reaktionszeit-g-sync-144-hz-neigbar-hohenverstellbar-drehbar-992521

Bin mal gespannt. Für knapp 330€ kann man bei 27" mit 144Hz und G-Sync nicht meckern.

Soll heute kommen, hoffentlich ist nen Nachbar da :freak:

akuji13
2017-04-28, 12:04:02
Bin auf deine Eindrücke gespannt. :)

Hab schon so einiges über das Gerät gehört.

Klevapalis
2017-04-28, 13:26:55
Monitor ist im Haus, hat seinen Vorteil Lehrer als Nachbarn zu haben ;D

Werd nachher mal die Eindrücke im Vergleich zu meinem BenQ XL2420T beschreiben.

Kartenlehrling
2017-04-30, 15:57:50
Dx-pujAWTbc
Is Acer INSANE?! - $2,000 Gaming Monitor

Ist die Demo auf 98fps limitert?
jedenfall zeigt das Menu nur 98Hz an und schwankt auch nicht.

Klevapalis
2017-05-04, 11:30:22
So, hier dann endlich mal ein paar Eindrücke zum Lenovo Y27G:

Zunächst mal wovon ich gekommen bin:
59895
BenQ XL2420T - 24", FullHD, 120Hz

Inzwischen fast 5 Jahre alt (wie man sieht :D) und hat damals neu ca. 330€ gekostet. Eigentlich war ich damit sehr glücklich und hätte wenn dann eher zu einem UltraWide-Modell gegriffen. Weil aber Blizzard für Overwatch das total blöd fand, macht das für mich keinen Sinn, spiele fast nur noch Overwatch :P

Also jetzt für 330€ den Lenovo bekommen, hier mal im Vergleich und mit allem Zubehör:
59896

Daneben habe ich noch einen Dell 27" (UltraSharp U2711) mit 2560x1440 Auflösung. Da fällt natürlich sofort auf, dass der Lenovo deutlich pixeliger wirkt. Ist aber auch ne Gewöhnungssache, sobald man den Monitor ne Stunde genutzt hat, fällt das gar nicht mehr auf.

Aufgebaut schaut es dann so aus:
59897

Mit Overwatch macht der Monitor natürlich richtig Spaß, kann seine 144Hz super ausspielen. Musste zwar etwas die Details reduzieren, aber was solls.

Mit G-Sync habe ich mangels Zeit noch nicht viel rumgespielt, was allerdings auffällt ist ein kurzzeitiges Flickern, wenn die FPS-Zahl sehr stark abfällt, hier mal ein YouTube-Video vom Effekt:
https://www.youtube.com/watch?v=kb4CvuzMlX4
Ich muss aber sagen, dass es mir bisher nicht weiter negativ aufgefallen ist. Muss ich mal noch etwas testen.

Aktuell überlege ich noch, ob ich den Monitor mit diesem Problem behalten will, weil es natürlich G-Sync etwas ab absurdum führt. Gleichzeitig hat der Monitor mich soviel gekostet, wie ein 27"/FullHD/144Hz-Gerät auch ohne G-Sync.

Ich glaube für den Preis halte ich den Monitor für in Ordnung, für 600€ ist er nix, einfach zu teuer für das Gebotene.

FatBot
2017-05-04, 13:38:40
Den Dell S2417DG gibt es zur Zeit für um die 380 € bei mehreren Händlern, falls jemand Interesse hat. Imo für das TN-Gerät ein etwas angemessenerer Preis, wenn man den GSYNC-Aufschlag bedenkt.

Lurtz
2017-05-04, 23:25:56
FreeSync vs. G-Sync Delay Analysis (https://www.youtube.com/watch?v=mVNRNOcLUuA)

iuno
2017-05-05, 00:24:15
Der Energiesparplan hat Auswirkungen auf frame limiter? :ugly:

Achill
2017-05-05, 01:20:19
FreeSync vs. G-Sync Delay Analysis (https://www.youtube.com/watch?v=mVNRNOcLUuA)

Ich habe mal ein Kommentar geschrieben, dass die GPU-Geschwindigkeit natürlich die Latenz beeinflusst. Dies wurde m.M. nach im Video nicht beachtet ... evtl. wird es angenommen und noch getestet.

iuno
2017-05-05, 01:25:28
Auch die Monitore an sich unterscheiden sich. Er hat ja auch ausdruecklich gesagt, dass er keinen Quervergleich macht, sondern jeweils mit einem Setup die Verschiedenen Optionen vergleicht.

woodsdog
2017-05-05, 07:30:27
Mit G-Sync habe ich mangels Zeit noch nicht viel rumgespielt, was allerdings auffällt ist ein kurzzeitiges Flickern, wenn die FPS-Zahl sehr stark abfällt, hier mal ein YouTube-Video vom Effekt:
https://www.youtube.com/watch?v=kb4CvuzMlX4
Ich muss aber sagen, dass es mir bisher nicht weiter negativ aufgefallen ist. Muss ich mal noch etwas testen.

Aktuell überlege ich noch, ob ich den Monitor mit diesem Problem behalten will, weil es natürlich G-Sync etwas ab absurdum führt. Gleichzeitig hat der Monitor mich soviel gekostet, wie ein 27"/FullHD/144Hz-Gerät auch ohne G-Sync.

Das Flackern sollte nur kurzzeitig auftreten wenn sich GSync "einschießt". Also quasi auf/nach Ladebildschirmen oder beim Wechsel in den Vollbildmodus. Das Ganze ist aber in der Regel in unter einer Sekunde durch.

Ich hatte letztens das Phänomen das solch ein Flackern auftrat als ich via Vollbild RDP Verbindung auf einem anderen Rechner unterwegs war. Letztlich stellte sich heraus das der TFT mit 120 statt 144Hz lief und es irgendwie dadurch auftrat. Wieder auf 144 Hz gestellt verschwand es.
Versuch das also erst mal. Vielleicht ist der 165Hz Modus nur mittels ULMB-Betrieb möglich und zickt mit GSync.

Hübie
2017-05-05, 08:19:19
Ich habe mal ein Kommentar geschrieben, dass die GPU-Geschwindigkeit natürlich die Latenz beeinflusst. Dies wurde m.M. nach im Video nicht beachtet ... evtl. wird es angenommen und noch getestet.

Wenn beide Settings so gewählt sind, dass 144 fps gehalten werden... :confused:

aufkrawall
2017-05-05, 08:27:34
Interessant wär noch ein Test von Input Lag ungelockten fps vs. fps-Limiter (die fps müsste man z.B. per Resolution Scale angleichen). Bin mir ziemlich sicher, dass bei Overwatch der Lag mit ungelockten fps deutlich höher wäre, ich konnte das ohne den in-game Limiter gar nicht erst spielen.
Hab ich ja schon vor Jahren zu BF4 beschrieben, wobei es da nicht ganz so extrem ist. Wenn in-game Limiter nicht richtig/gut mit FreeSync funktionieren, ist das für mich persönlich deshalb ein großer Nachteil.

Hübie
2017-05-05, 08:33:25
Grundsätzlich sollte es ja so sein, dass der ingame limiter das bessere Ergebnis liefert. Ist dies nicht der Fall deutet es auf unsauberen Code hin.
Hab ich dich richtig verstanden, dass Overwatch ohne fps-limit mehr input lag hat als wenn ich das begrenze? Das leuchtet mir nicht ein. :confused:

@Klevapalis: Braucht Overwatch @FullHD so viel Power das du nur mit reduzierten Details auf die 144 Hz kommst? 27" @1080p muss doch Flimmern und Pixeln aus der Hölle sein. Wieso tut man sich 2017 so etwas noch an? :|

akuji13
2017-05-05, 08:40:43
Das Flackern sollte nur kurzzeitig auftreten wenn sich GSync "einschießt". Also quasi auf/nach Ladebildschirmen oder beim Wechsel in den Vollbildmodus. Das Ganze ist aber in der Regel in unter einer Sekunde durch.

Das konnte der user im CB Forum nicht bestätigen, es flackerte auch im Spiel teilweise heftig.
Ähnlich den neuen 35" VA Geräten.

Hab das auch schon mehrfach gelesen, irgendwie scheinen VA Geräte und Sync nicht so richtig zusammen zu passen.

Hübie
2017-05-05, 08:47:08
Gerät tauschen. Da würde ich nicht lange fackeln. Ich habe ein leichtes Flackern beim Ladebildschirm vom 3D Quark. Aber wirklich nur dort. :confused: Ansonsten fiel mir in Spielen noch nichts derart negatives auf.

Was mich abfuckt: Dragon Age Inquisiton hat 30-fps cutscence (warum macht man so etwas eigentlich :rolleyes:). Das bemerkt man sofort. Auch wenn man in diese Schädel-Teleskope schaut um Scherbe zu entdecken ruckelt es riiiiichtig ekelig und fies. Das tut meinen Augen weh. Ansonsten ist G-Sync eines der besten Features die ich in den letzten Jahren erlebt habe.

aufkrawall
2017-05-05, 09:38:44
Hab ich dich richtig verstanden, dass Overwatch ohne fps-limit mehr input lag hat als wenn ich das begrenze? Das leuchtet mir nicht ein. :confused:

Ist aber so. Gipsel hatte irgendwann auch mal erklärt, wie ein spielinterner fps-Limiter den Input Lag senken kann.

akuji13
2017-05-05, 10:07:07
Gerät tauschen. Da würde ich nicht lange fackeln. Ich habe ein leichtes Flackern beim Ladebildschirm vom 3D Quark. Aber wirklich nur dort. :confused: Ansonsten fiel mir in Spielen noch nichts derart negatives auf.


Das Problem ist das es ja nichts zum tauschen gibt weil es...vermutlich...technisch bedingt ist und sich nicht mit einem firmware update lösen lassen wird.

Die 35" VA flackern allesamt, egal ob mit FS oder G-Sync.
Die mit FS flackern mehr, trotzdem ist auch der HP X35 schon stark betroffen.

Das ist auch in keinster Weise mit dem flackern vergleichbar was G-Sync schon immer hatte und wie erwähnt in Menüs oder Ladebildschirmen auftritt.
Die sind teilweise sogar schon auf dem Desktop betroffen.