PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : G-/Free-/A-Sync: framesynchronisierter Displayrefresh per variablem vblank-Intervall


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30

Troyan
2015-04-15, 09:31:09
Im Beyond3d.com Forum hat jemand sich das Video genauer angesehen:
https://forum.beyond3d.com/posts/1837324/

Es sieht wohl deswegen nicht so dramatisch aus, weil das Video mehr Frames beinhaltet als in der Wirklichkeit vorhanden sind.

Reduziert man die Geschwindigkeit sieht man die Unterschiede und das Freesync nicht in Synchronisierung mit dem Display ist, wenn das untere Limit unterschritten wird.

fondness
2015-04-15, 10:03:06
Mal sehen ob die Specs stimmen:
https://www.overclockers.co.uk/showproduct.php?prodid=MO-217-SA

Sunrise
2015-04-15, 10:43:54
Mal sehen ob die Specs stimmen:
https://www.overclockers.co.uk/showproduct.php?prodid=MO-217-SA
Wenn man mal den Marketingquatsch mit "100,000,000:1 Contrast Ratio" ignoriert, sieht das schon verdammt gut aus.

Allerdings hat man hier eben wahrcheinlich wieder nur eine extrem begrenzte Range für variablen Refresh zur Verfügung. FreeSync ist hier also nur ein kleines Plus, aber davon ab sieht der Monitor wirklich sehr gut aus, wirkt auf jeden Fall hochwertiger als der aktuelle Plastik-Schrott mit Klavierlack- und Wasweißich-Monitoren.

Der Preis ist für das Gebotene auch nicht schlecht.

krötenfresse
2015-04-15, 12:10:11
Die panels gehen bei FS derzeit nur bis 40/48hz. Gsync waren 36 wenn ich mich recht erinnere. Flüssiger wird durch framedoubling. 20fps auf 40fps aufgepumpt sind aber trotz dem zäh.
und framedoubling hat keine spürbaren nachteile?

mironicus
2015-04-15, 12:17:33
Mal sehen ob die Specs stimmen:
https://www.overclockers.co.uk/showproduct.php?prodid=MO-217-SA

Bezahlbarer 4K-Monitor mit Freesync und einem PLS-Screen? :eek:

fondness
2015-04-15, 12:24:06
Overclockers listet witzigerweise auch die 24" Monitore mit PLS-Screen, die 28" Modelle allerdings mit TN:
https://www.overclockers.co.uk/showproduct.php?prodid=MO-216-SA
https://www.overclockers.co.uk/showproduct.php?prodid=MO-215-SA
https://www.overclockers.co.uk/showproduct.php?prodid=MO-214-SA
https://www.overclockers.co.uk/showproduct.php?prodid=MO-213-SA

Wäre ein etwas seltsamer Ansatz von Samsung, allerdings würde es zu den Gerüchten weiter hinten passen.

M4xw0lf
2015-04-15, 12:25:57
Overclockers lag bei den Spezifikationen schon öfter nur semi-richtig.

Screemer
2015-04-15, 12:26:17
und framedoubling hat keine spürbaren nachteile?
nicht das ich wüsste. wird der frame hat noch mal angezeigt, bis ein neuer fertig ist. am besten mit der maximal frequenz des panels, denn so ist das panel am schnellsten wieder ansprechbar. so hab ichs zumindest verstanden.

Ephiriel
2015-04-15, 14:45:10
nicht das ich wüsste. wird der frame hat noch mal angezeigt, bis ein neuer fertig ist. am besten mit der maximal frequenz des panels, denn so ist das panel am schnellsten wieder ansprechbar. so hab ichs zumindest verstanden.
Nicht ganz richtig, der Refresh des Bildes dauert ja immer in etwa gleichlang (1/Max. Bildwiederholfrequenz --> 6,9ms bei 144Hz)
Das Problem ist, dass wärend des Refreshs im Monitor, kein neues Bild angezeigt werden kann. Wird nun also wie es AMD anscheinend machen will (aber durch einen Bug? nicht macht) mit max. Refresh-Rate des Panels das Bild erneuert, hat man im schlimsten Fall 6,9ms Verzögerung (oder z.b. 16ms bei 60Hz) bis ein bereits fertiges Bild tatsächlich angezeigt werden kann (Da der Monitor mit dem Refresh des alten Bildes noch beschäftigt ist.
Durch den Refresh mit der max. Bildwiederholfrequenz ist es allerdings sehr wahrscheinlich, immer in ein Delay von 0 - 6,9ms zu haben.

Der Gedanke beim Frame-Doubling ist nun, sollten die Graphikkarte aktuell z.B. 30fps schaffen, ich mit 60Hz (alle 16ms) das alte Bild nochmal anzeige, somit ergibt sich in diesem Fall 9,7ms (abzüglich Dauer des refreshes) Zeit, in dem ein neu Fertig werdendes Bild sofort angezeigt werden kann. D.h. die Wahrscheinlichkeit mit der ein so ein Delay auftreten kann, wird reduziert. Umso konstanter die FPS sind, umso besser funktioniert das auch.

Sunrise
2015-04-15, 15:05:50
Overclockers lag bei den Spezifikationen schon öfter nur semi-richtig.
Ja, sieht man auch dieses Mal:

Oben im Text:
"Fast 1ms Response Time: See even the fastest on-screen motion clearly without any motion blur, judder or ghosting"

Unten bei der Spec-Beschreibung:
"Response Time: 4ms (GTG)"

Geile Mischung aus TN- und PLS-Angaben.

Wäre ja zu schön, wenn es denn wirklich so wäre, aber 4ms GtG ist schon ordentlich (wenn die halbwegs stimmen).

Kriton
2015-04-15, 15:14:12
Nicht ganz richtig, der Refresh des Bildes dauert ja immer in etwa gleichlang (1/Max. Bildwiederholfrequenz --> 6,9ms bei 144Hz)
Das Problem ist, dass wärend des Refreshs im Monitor, kein neues Bild angezeigt werden kann. Wird nun also wie es AMD anscheinend machen will (aber durch einen Bug? nicht macht) mit max. Refresh-Rate des Panels das Bild erneuert, hat man im schlimsten Fall 6,9ms Verzögerung (oder z.b. 16ms bei 60Hz) bis ein bereits fertiges Bild tatsächlich angezeigt werden kann (Da der Monitor mit dem Refresh des alten Bildes noch beschäftigt ist.
Durch den Refresh mit der max. Bildwiederholfrequenz ist es allerdings sehr wahrscheinlich, immer in ein Delay von 0 - 6,9ms zu haben.

Der Gedanke beim Frame-Doubling ist nun, sollten die Graphikkarte aktuell z.B. 30fps schaffen, ich mit 60Hz (alle 16ms) das alte Bild nochmal anzeige, somit ergibt sich in diesem Fall 9,7ms (abzüglich Dauer des refreshes) Zeit, in dem ein neu Fertig werdendes Bild sofort angezeigt werden kann. D.h. die Wahrscheinlichkeit mit der ein so ein Delay auftreten kann, wird reduziert. Umso konstanter die FPS sind, umso besser funktioniert das auch.

Das verstehe ich nicht. Wenn bei der Frameverdoppelung das alte Bild noch einmal gezeigt wird, dann ist das doch auch ein Refresh?

Gipsel
2015-04-15, 15:33:33
Das verstehe ich nicht. Wenn bei der Frameverdoppelung das alte Bild noch einmal gezeigt wird, dann ist das doch auch ein Refresh?Ja, aber zu einem Zeitpunkt, der die Kollision mit einem neuen Frame hoffentlich unwahrscheinlicher macht.

FlashBFE
2015-04-15, 15:49:44
Overclockers listet witzigerweise auch die 24" Monitore mit PLS-Screen, die 28" Modelle allerdings mit TN:
https://www.overclockers.co.uk/showproduct.php?prodid=MO-216-SA
https://www.overclockers.co.uk/showproduct.php?prodid=MO-215-SA
https://www.overclockers.co.uk/showproduct.php?prodid=MO-214-SA
https://www.overclockers.co.uk/showproduct.php?prodid=MO-213-SA

Wäre ein etwas seltsamer Ansatz von Samsung, allerdings würde es zu den Gerüchten weiter hinten passen.
Das würde aber gut in die derzeitige Marktverteilung von UHD-Monitoren passen. Alle 24"er sind IPS, 27/28"er vorrangig TN und über 30"er wieder IPS/VA. Bis jetzt hatte Samsung ja nur zwei UHD-Monitore auf dem Markt und da ist das auch so.

Seltsamer finde ich da eher, dass des 32"-Flaggschiff nicht mal sRGB vollständig abdeckt. Ich dachte mit den neuen BluRays kommen nun endlich auch mal größere Farbräume in Mode.

Sunrise
2015-04-15, 15:55:00
Seltsamer finde ich da eher, dass des 32"-Flaggschiff nicht mal sRGB vollständig abdeckt[B]. Ich dachte mit den neuen BluRays kommen nun endlich auch mal größere Farbräume in Mode.
Wenn man mal nach der 1ms-Angabe geht, die auch in diesem Text steht, dann sind das die Angaben für die TN-Panels. Wäre für TN auch ein guter Wert.

PLS sollte problemlos sRGB abdecken, normalerweise gibt sich Samsung da keine Blöße.

aufkrawall
2015-04-15, 16:11:04
Diese Reaktionszeitangaben sind eh nur Fantasiewerte: Beziehen sich auf einen bestimmten Grauwechsel mit höchster Overdrive-Einstellung.
Auch jedes TN-Panel ist im Durchschnitt aller Farbwechsel weit von 1ms entfernt.
Noch mal zur Erinnerung: Das AHVA-Panel im Acer hat reale TN-Werte erreicht!

Sunrise
2015-04-15, 16:26:50
Es ging um die sRGB-Abdeckung und dem Kontext, dass die 97% zu den 1ms im Text passen. Und diese Marketing-Werte werden üblicherweise bei den schnellen TNs angegeben.

Was real erreicht wird oder nicht, darum ging es nicht. Um das zu sehen, muss man jeden Monitor einzeln vermessen, bevor man das überhaupt beurteilen kann.

fondness
2015-04-15, 18:28:36
haEdPpIKIwU

Besonders ab Minute 04:00 interessant.

fondness
2015-04-16, 12:48:46
Schon bekannt?
http://www.computerbase.de/2015-04/acer-xr341ck-a-uwqhd-mit-freesync-oder-g-sync-auf-krummen-34-zoll/

Sunrise
2015-04-16, 13:03:53
Keine Ahnung was Acer geraucht hat, aber das Ding ist hoffnungslos überteuert. Der Samsung mit dem 32" PLS-Panel und 4K ist nicht nur um 100 GBP günstiger, sondern wahrscheinlich auch der bessere Monitor. Bei bis zu 75Hz kommen wohl die gleichen IPS-Panels zum Einsatz wie bei den bereits verfügbaren von LG. Und dafür machen sie jetzt so einen Aufriss?

Wenn ich da 500 EUR drauflege, bekomme ich einen Profi-Eizo CG, den Schrott können sie behalten.

fondness
2015-04-16, 13:08:05
Naja es wäre zumindest der erste curved 21:9 IPS-Monitor mit 1440p und Free-/G-Sync. Der Preis ist hoffentlich noch nicht fix.

robbitop
2015-04-16, 14:24:52
Nur 75 Hz? -> Fail. DP1.2 würde für 144 Hz knapp reichen.
Und schon ist das Ding für mich schlagartig uninteressant geworden. :(

ndrs
2015-04-16, 17:12:17
Nur 75 Hz? -> Fail. DP1.2 würde für 144 Hz knapp reichen.
Und schon ist das Ding für mich schlagartig uninteressant geworden. :(
Warum? Schonmal framesynchrone 75Hz live gesehen?

aufkrawall
2015-04-16, 17:16:28
ULMB bei 75Hz? :freak:

Kartenlehrling
2015-04-16, 17:55:26
die Refresh Rate von Oculus Rife D2 sind auch nur 72Hz, und wenn sie genauso wie Eizo rechnen?
Aus 75Hz werden ja nicht 38,5Hz sondern turbo... 150 Motion.

dargo
2015-04-16, 17:59:29
Nur 75 Hz? -> Fail. DP1.2 würde für 144 Hz knapp reichen.
Und schon ist das Ding für mich schlagartig uninteressant geworden. :(
Es gibt ja nicht nur dich. :)

Mir würden 40-75Hz schon reichen wenn der Bildschirm nicht zu teuer ist. Man kann den ja später immer noch ersetzen wenn was Besseres kommt. Mich werden da aber andere Dinge wohl eher stören wie zb. curved. Aber egal... die Hersteller sollen ruhig den Markt mit neuen Produkten überschütten damit endlich mehr Konkurrenz in Bewegung kommt.

robbitop
2015-04-16, 18:57:17
Warum? Schonmal framesynchrone 75Hz live gesehen?
144 Hz ist für das Framedoubling bei G-Sync sehr sehr vorteilhaft. Alternativ ist UMLB mit 120 Hz auch sehr sehr gut für Bewegungsschärfe.

dargo
2015-04-19, 13:39:15
Also gelistet sind schon mal mehr Bildschirme mit Freesync als G-Sync.
http://geizhals.at/de/?cat=monlcd19wide&xf=99_23~5848_AMD+FreeSync+%28Adaptive-Sync%29#xf_top
http://geizhals.at/de/?cat=monlcd19wide&xf=99_23~5848_NVIDIA+G-Sync#xf_top

Wenn man den zeitlichen Vorteil von NV betrachtet nicht schlecht.

Godmode
2015-04-19, 14:00:08
Also gelistet sind schon mal mehr Bildschirme mit Freesync als G-Sync.
http://geizhals.at/de/?cat=monlcd19wide&xf=99_23~5848_AMD+FreeSync+%28Adaptive-Sync%29#xf_top
http://geizhals.at/de/?cat=monlcd19wide&xf=99_23~5848_NVIDIA+G-Sync#xf_top

Wenn man den zeitlichen Vorteil von NV betrachtet nicht schlecht.

Auch kein Wunder bei dem proprietären Crap von Nvidia. Vielleicht lässt sich NV ja doch noch mal herab und setzt auch auf den offenen Standard. Wahrscheinlich aber eher nicht, so wie man sie eben kennt.

Kartenlehrling
2015-04-19, 14:19:58
Bei neuen Acer 21:9 /75hz gsync schreiben sie ja von einem gsync v2 Modul was immer das sein soll.
Wenn Nvidia mehr Monitor mit 60Hz bzw. Overclock 75Hz presentieren wird das Angebot auch grösser sein.

Aber viel würde ich mir nicht versprechen wenn 27" 1080p 144Hz mit IPS noch nichtmal zum kaufen gibt.

Ich will sowieso 24-25" VA 144Hz 1440p(WQHD),
wenn es meinen momentan laufenden U2515h mit 120Hz/freesync geben würd wär ich glücklich.
Das leichte BLB kann man vernachlässigen, damit bräuchte ich auch kein VA-Panel.


The following provides some updates on LG.Display's panel development, with a focus as ever on their IPS technology.

Of particular note is the new 27 " LM270WF8 panel going in to production in Q3 2015.
This will be LG.Display's first high refresh rate IPS panel, following on from the success we've seen from AU Optronics' recent AHVA (IPS-type) offering.
This panel will offer a 1920 x 1080 resolution, 14ms G2G response time (to be improved with overdrive circuits),
1000:1 contrast ratio, 300 cd/m2 brightness, sRGB gamut and 178/178 viewing angles. It has a target 144Hz refresh rate.

Grestorn
2015-04-19, 14:43:35
Auch kein Wunder bei dem proprietären Crap von Nvidia. Vielleicht lässt sich NV ja doch noch mal herab und setzt auch auf den offenen Standard. Wahrscheinlich aber eher nicht, so wie man sie eben kennt.

Wenn der Crap halt auch einfach besser funktioniert und evtl. auch besser durchdacht ist als der Standard... Ist zwar noch nicht erwiesen, aber momentan hat Freesync halt noch Probleme. Man kann nur hoffen, dass sie sich fixen lassen.

fondness
2015-04-19, 14:50:45
Auch kein Wunder bei dem proprietären Crap von Nvidia. Vielleicht lässt sich NV ja doch noch mal herab und setzt auch auf den offenen Standard. Wahrscheinlich aber eher nicht, so wie man sie eben kennt.

Es würde zumindest niemanden schaden wenn NV zusätzlich auch den AdativeSync-Standard unterstützen würde. Man könnte dann ja noch immer behaupten für die "Premium"-User gibt es G-Sync mit Modul - sofern man dadurch wirklich einen Vorteil hat. Für viele andere reicht vielleicht auch AdativeSync um 100EUR weniger und ohne proprietäres Zeug. Aber so gibt es wieder mal einen offenen Standard den NV ohne jegliche Lizenzkosten übernehmen könnte und aus rein taktischen Gründen blockiert und damit den Fortschritt behindert.

Mancko
2015-04-19, 17:11:52
Es würde zumindest niemanden schaden wenn NV zusätzlich auch den AdativeSync-Standard unterstützen würde. Man könnte dann ja noch immer behaupten für die "Premium"-User gibt es G-Sync mit Modul - sofern man dadurch wirklich einen Vorteil hat. Für viele andere reicht vielleicht auch AdativeSync um 100EUR weniger und ohne proprietäres Zeug. Aber so gibt es wieder mal einen offenen Standard den NV ohne jegliche Lizenzkosten übernehmen könnte und aus rein taktischen Gründen blockiert und damit den Fortschritt behindert.

Wieso behindern die den Fortschritt? Die haben doch den Fortschritt erfolgreich beflügelt. Das Produkt ist derzeit besser und kam deutlich eher auf den Markt. Mehr Ausbaupotential ist ebenfalls vorhanden, da Nvidia direkt an der Schaltzentrale die eigene Hardware sitzen hat. Dass die Konkurrenz keinen Zugriff darauf hat ist einzig und allein das Problem der Konkurrenz. Ich sehe keinen Grund wieso Nvidia auf Adaptive Synch derzeit setzen sollte. Was haben die davon? Für Nvidia ist es besser mehr Kunden in das eigene Ökosystem zu integrieren. Nvidia typische Aufpreise waren hier noch nie störend. Die hat der Markt schon lange akzeptiert. Dafür bekommt er ja auch das insgesamt rundere Produkt.

Schaffe89
2015-04-19, 17:22:34
Das man damit das insgesamt rundere Produkt bekommt, ist aber lediglich eine Meinung.
Und natürlich behindert Nvidia den Fortschritt mit solchen Krams.
Sie hätten auf den Adaptive Standard setzen können, aber das haben sie nicht getan, eben wegen des DRM Effektes.

Sunrise
2015-04-19, 17:39:17
Das Produkt ist derzeit besser und kam deutlich eher auf den Markt. Mehr Ausbaupotential ist ebenfalls vorhanden, da Nvidia direkt an der Schaltzentrale die eigene Hardware sitzen hat. Dass die Konkurrenz keinen Zugriff darauf hat ist einzig und allein das Problem der Konkurrenz.
Wenn NV das Modul offen gelegt hätte, dann könntest du so argumentieren, ansonsten ist das totaler Quatsch.

Würde man es aber offen legen, dann würde sich etwas zeigen, und zwar, dass NV wohl nicht viel anderes macht als A-Sync mit ein paar speziellen Anpassungen von NV, sodass es insgesamt früher vor dem Standard am Markt war, man sich von A-Sync noch etwas featureseitig distanzieren kann und man somit den restlichen Markt an sich bindet, weil NV genau wusste, dass es tricky ist, soetwas nur rein ohne Zusatzhardware (auf breiter Basis mit ihren GPUs) umzusetzen.

Deshalb ist es aber noch lange kein Problem der Konkurrenz, weil die Konkurrenz sperrt ja auch keinen aus. Es wird aber zum Problem der Konkurrenz, weil diese sich dann entweder strikt an den A-Sync-Standard halten muss, was der NV-Lösung nicht gleichkommt und man jetzt in AMDs Fall zusätzliche Änderungen vornehmen muss, damit auch insgesamt alles ähnlich wie bei NV abläuft, da der Markt das indirekt erwartet.

Die könnten von heute auf morgen ein ASIC daraus machen (wenn es nicht schon eins ist, es macht die Dinger ja leider keiner auf...), das Modul günstiger produzieren lassen und es öffnen und alle hätten darauf Zugriff. Dann hätte sich auch dieses Durcheinander mit zig Dutzend Monitoren erledigt, einmal nur mit G-Sync, einmal mit FreeSync, einmal mit beidem, einmal noch zusätzlich mit eigenem Scaler.

Das ist eigentlich so ein Schwachsinn, wenn man sich das mal überlegt.

NV will hier einfach möglichst keinen offenen PC-Gaming-Markt mehr unterstützen, sie wollen den ohnehin geschrumpfen Markt faktisch komplett an sich binden, quasi "Nvidia PC-Gaming". Mit dem Modul zeigt man eben der restlichen Industrie quasi den Stinkefinger und dass sie sich für Standards nicht interessieren.

Dabei wäre es eine Bereicherung für den Gaming-Markt, wäre das Ding offen, dadurch hätte NV auch eine Menge positiven Zuspruch erhalten. Aber so bleibt es eben geschlossen und der PC- und Monitor-Markt wird unausweichlich weiter gespalten.

Wenn NV es mit G-Sync v2 endlich schafft, HDMI zu integrieren, sollten wir sie beglückwünschen. Selten so eine gigantische Innovation gesehen. Wer Sarkasmus findet, darf ihn behalten.

aufkrawall
2015-04-19, 18:16:10
G-Sync 2 könnte imho nur durch Strobing und variablen Vblank gleichzeitig überzeugen (Gipsel meinte ja, dass dies mit neueren PWM-Beleuchtungen möglich wäre). Mehrere Inputs wären gegenüber FreeSync ziemlich lame für eine neue Major-Version.

Godmode
2015-04-19, 18:17:58
Danke Sunrise!

Mancko
2015-04-19, 18:51:37
Das man damit das insgesamt rundere Produkt bekommt, ist aber lediglich eine Meinung.
Und natürlich behindert Nvidia den Fortschritt mit solchen Krams.
Sie hätten auf den Adaptive Standard setzen können, aber das haben sie nicht getan, eben wegen des DRM Effektes.

Dann hätten sie länger warten müssen und sie müssten sich wie AMD mit allen anderen im Konsortium abstimmen. Sowas kann langwierig sein und auch die zukünftige Weiterentwicklung behindern, da nicht jeder im Konsortium nun ein elementares Interesse and tollen AdaptiveSynch Features hat. Da sind eine Reihe Unternehmen dabei die mit Gaming gar nichts am Hut haben. Das ist einfach anstrengender und Nvidia hat zudem genug Finanzen, dass sie im Zweifelsfall so eine Nummer auch alleine reiten können. Das AMD das nicht kann ist wie gesagt AMDs Problem.

Mancko
2015-04-19, 19:03:19
Wenn NV das Modul offen gelegt hätte, dann könntest du so argumentieren, ansonsten ist das totaler Quatsch.

Würde man es aber offen legen, dann würde sich etwas zeigen, und zwar, dass NV wohl nicht viel anderes macht als A-Sync mit ein paar speziellen Anpassungen von NV, sodass es insgesamt früher vor dem Standard am Markt war, man sich von A-Sync noch etwas featureseitig distanzieren kann und man somit den restlichen Markt an sich bindet, weil NV genau wusste, dass es tricky ist, soetwas nur rein ohne Zusatzhardware (auf breiter Basis mit ihren GPUs) umzusetzen.


Die haben alles richtig gemacht. Sie gehen ihren eigenen Weg und das können sie sich auch leisten. Derjenige der in Zukunft das bessere und umfangreichere Ökosystem hat wird auch die meiste Asche verdienen. Das ist halt einfach fakt und eine Lehre aus anderen Märkten. Nvidia scheint mir das gut gelernt zu haben.


Deshalb ist es aber noch lange kein Problem der Konkurrenz, weil die Konkurrenz sperrt ja auch keinen aus. Es wird aber zum Problem der Konkurrenz, weil diese sich dann entweder strikt an den A-Sync-Standard halten muss, was der NV-Lösung nicht gleichkommt und man jetzt in AMDs Fall zusätzliche Änderungen vornehmen muss, damit auch insgesamt alles ähnlich wie bei NV abläuft, da der Markt das indirekt erwartet.


Also ist es ja doch das Problem der Konkurrenz :) Am Ende des Tages muss sich AMD genau mit diesem Druck auseinander setzen. Ob sie finanziell das noch können wage ich zu bezweifeln. Das wiederum ist aber das eigene Versagen. Dafür ist weder Intel und schon gar nicht Nvidia Schuld. Wer genug Geld hatte um es für einen völlig unrealisitischen Preis für ATI rauszuwerfen, oder mit SeaMicro die Toilette runterzuspüen oder wer sich von GlobalFoundries so veräppeln lässt, der muss sich nicht wundern, wenn er für solche Dinge eben kein Geld mehr hat. Am Ende ist es dann eben auch gerechtfertigt, wenn dieser jemand am Ende die Rechnung eiskalt serviert bekommt. In der Marktwirtschaft geht es immer ums Überleben und Verdrängen. Das ist wie in der Natur simple natürliche Auslese. Die einen sind einfach cleverer und erfolgreicher als die anderen. Chronische Erfolglosigkeit heißt dann eben auch irgendwann "Game Over".


NV will hier einfach möglichst keinen offenen PC-Gaming-Markt mehr unterstützen, sie wollen den ohnehin geschrumpfen Markt faktisch komplett an sich binden, quasi "Nvidia PC-Gaming".


Genau das ist Nvidia's Auftrag. Nichts anderes erwarte ich von jedem Unternehmen. Maximierung des eigenen Erfolgs ist und bleibt das elementarste Ziel eines jeden Unternehmens.


Dabei wäre es eine Bereicherung für den Gaming-Markt, wäre das Ding offen, dadurch hätte NV auch eine Menge positiven Zuspruch erhalten. Aber so bleibt es eben geschlossen und der PC- und Monitor-Markt wird unausweichlich weiter gespalten.

Den Zuspruch hat Nvidia auch so. Für die eigene Community und Kundschaft die mittlerweile 3/4 des Marktes ausmachen hat man die bessere Lösung geschaffen. Der Rest kann ja gern AMD kaufen solange es noch geht und sich an Freesynch erfreuen.

Kartenlehrling
2015-04-19, 19:16:09
Die haben alles richtig gemacht. Sie gehen ihren eigenen Weg und das können sie sich auch leisten.
Derjenige der in Zukunft das bessere und umfangreichere Ökosystem hat wird auch die meiste Asche verdienen. Das ist halt einfach fakt und eine Lehre aus anderen Märkten.
Nvidia scheint mir das gut gelernt zu haben.

Genau wer für die Wildnis zu schwach ist wird aufgefressen.
Darf ich erfahren wie du deine Brötchen verdienst?

Grestorn
2015-04-19, 19:20:18
Genau wer für die Wildnis zu schwach ist wird aufgefressen.
Darf ich erfahren wie du deine Brötchen verdienst?

Wie ist Deine Frage zu verstehen? Darf man eine solche Meinung nur dann vertreten, wenn man eigene monätere Interessen damit verbindet?

Das ist schlicht eine perfide (und immer wieder gelesene) Methode, eine ungeliebte Meinung zu diskreditieren.

(Hey, Gipsel: Wenn Du das liest kannst Du gerne schreiben: "Wer den ersten Stein wirft..." ... Und Du hättest Recht :) )

dargo
2015-04-19, 19:23:10
Wenn der Crap halt auch einfach besser funktioniert und evtl. auch besser durchdacht ist als der Standard... Ist zwar noch nicht erwiesen, aber momentan hat Freesync halt noch Probleme. Man kann nur hoffen, dass sie sich fixen lassen.
Diese sogenannten "Probleme" betreffen nicht jeden, sollte man nicht vergessen. :)

Blediator16
2015-04-19, 19:23:25
Hier wird wie immer eigentlich nur aus Sicht eines Unternehmers argumentiert. Dass der offene Standart besser für den Konsumenten ist juckt nicht. Wo bin ich hier bloß gelandet.

dargo
2015-04-19, 19:31:18
Das frage ich mich auch öfters in letzter Zeit. :freak: Zum Glück sind nicht alle Foren so Nvidia biased wie das 3DC.

aufkrawall
2015-04-19, 19:31:58
Diese sogenannten "Probleme" betreffen nicht jeden, sollte man nicht vergessen. :)
Stimmt, die Blinden und Toten sind weit weniger empfindlich bei so etwas.

dargo
2015-04-19, 19:34:15
Stimmt, die Blinden und Toten sind weit weniger empfindlich bei so etwas.
Na du gehörst ja zu den absoluten Favoriten, Stichwort 30fps. :uup:

aufkrawall
2015-04-19, 19:37:02
Jetzt rat mal, auf welche fps GTA 5 in max Details ohne MSAA in WQHD mit einer 980 OC mitunter einbricht, Meister Schlaufuchs?
Komischerweise kann ich es noch problemlos dabei bedienen, wenn ich die prerendered frames im Treiber auf 1 limitiere (was auf AMD mit DX11 nicht geht).

dargo
2015-04-19, 19:48:06
Und? Ich kann die Grafikoptionen bedienen, im Gegensatz zu dir offenbar. Kauf dir deinen G-Sync Bildschirm endlich und gut ist. Und kapiere endlich, dass nicht für jeden so wenige fps brauchbar sind.

Troyan
2015-04-19, 19:50:54
NV will hier einfach möglichst keinen offenen PC-Gaming-Markt mehr unterstützen, sie wollen den ohnehin geschrumpfen Markt faktisch komplett an sich binden, quasi "Nvidia PC-Gaming". Mit dem Modul zeigt man eben der restlichen Industrie quasi den Stinkefinger und dass sie sich für Standards nicht interessieren.

Dabei wäre es eine Bereicherung für den Gaming-Markt, wäre das Ding offen, dadurch hätte NV auch eine Menge positiven Zuspruch erhalten. Aber so bleibt es eben geschlossen und der PC- und Monitor-Markt wird unausweichlich weiter gespalten.

nVidia hat einen Markt erschaffen, der vorher weder im Notebook- noch im PC-Markt existierte: Variable Refresh Rate.

Wo war denn der "offene PC-Gaming" Markt vor G-Sync? Wieso existierte in der Richtung nichts?

Der größte Innovationsfaktor im PC-Gaming Markt ist Konkurrenz. Ohne RoI wird es auch keine großartigen Innovationen geben. Man sollte froh sein, dass nVidia das PC-Gaming in eine neue Ebene gebracht hat.

Ab jetzt wird es eben nur noch besser werden und die bessere Technik wird sich durchsetzen. Darüber sollte man sich freuen.

Grestorn
2015-04-19, 19:53:16
Diese sogenannten "Probleme" betreffen nicht jeden, sollte man nicht vergessen. :)

Hm. Jeden, der auch mal mit weniger als 50 fps spielen möchte... :) Ok, das mag nicht jeder sein, aber jemand, der keinen Wert auf spielbare, niedrige Frameraten legt, kann m.E. auch relativ problemlos ganz auf Adaptive Sync Lösungen verzichten.

Hier wird wie immer eigentlich nur aus Sicht eines Unternehmers argumentiert. Dass der offene Standart besser für den Konsumenten ist juckt nicht. Wo bin ich hier bloß gelandet.

Nun ja, ihr werft nVidia vor kein Samariter im Dienste der Anwender zu sein.

Newsflash: Das ist AMD auch nicht. Und wenn sie weniger konsequent im eigenen Sinne handeln, um im Geschäft zu bleiben, dann sieht man den Erfolg gerade bedauernswerter Weise überdeutlich.

Und damit *schadet* AMD dem Anwender unmittelbar. Denn wenn sie sich selbst aus dem Markt kicken, wäre das das schlimmste, was uns Anwendern passieren kann.

PHuV
2015-04-19, 19:57:54
NV will hier einfach möglichst keinen offenen PC-Gaming-Markt mehr unterstützen, sie wollen den ohnehin geschrumpfen Markt faktisch komplett an sich binden, quasi "Nvidia PC-Gaming". Mit dem Modul zeigt man eben der restlichen Industrie quasi den Stinkefinger und dass sie sich für Standards nicht interessieren.

Dabei wäre es eine Bereicherung für den Gaming-Markt, wäre das Ding offen, dadurch hätte NV auch eine Menge positiven Zuspruch erhalten. Aber so bleibt es eben geschlossen und der PC- und Monitor-Markt wird unausweichlich weiter gespalten.
Darin sehe ich erst mal nichts verwerfliches, oder was, was ich so bei anderen Herstellern nicht auch schon so gesehen hatte. Schau Dir MS an, Stichwort Silverlight und Flash, IBM, HP, Oracle/Sun, Apple,...

Der Erfolg gibt ihnen doch recht. Oder erkläre mir, warum bisher Apple mit ihrem proprietären Stromanschlüssen bis heute damit durchkommen.

dargo
2015-04-19, 20:05:52
Hm. Jeden, der auch mal mit weniger als 50 40 fps spielen möchte... :)
fixed

Kartenlehrling
2015-04-19, 20:09:38
Der Erfolg gibt ihnen doch recht.

die klage gegen Google kommt für mich auch schon zu spät,
was in den letzten 2 jahren mit der suchmaschine google passiert ist schlimm genug.
Das schlimme ist das es so schleichend passiert ist, das es den meisten nicht mal aufgefallen.

Grestorn
2015-04-19, 20:11:26
fixed

47 > 40.

Menace
2015-04-19, 20:17:34
Und wenn sie weniger konsequent im eigenen Sinne handeln, um im Geschäft zu bleiben, dann sieht man den Erfolg gerade bedauernswerter Weise überdeutlich.

Und damit *schadet* AMD dem Anwender unmittelbar. Denn wenn sie sich selbst aus dem Markt kicken, wäre das das schlimmste, was uns Anwendern passieren kann.

Das meinst Du sarkastisch, oder? Nein, ich fürchte nicht.

Ich versuche mal die Logik daran herauszuarbeiten:

- AMD darf nicht bankrott gehen, weil sie sonst den nvidia-Kunden Schaden zufügen, da diese dann mehr für ihre Grafikkarte zahlen müssten. :freak:
- AMD geht deshalb bankrott, weil sie offene Standards fördern und nicht so vorgehen wie nvidia.

:biggrin: Ich wusste ja dank dieses Forums schon lange, dass AMD alles falsch macht, was man falsch machen kann. Aber das treibt die Argumentation auf eine neues Argumentationshöhe Niveau.

dargo
2015-04-19, 20:18:02
47 > 40.
Ich kann dir nicht folgen. Was möchtest du mir damit sagen?

Grestorn
2015-04-19, 20:20:04
Ich kann dir nicht folgen. Was möchtest du mir damit sagen?

Liegt die Untergrenze bei einigen FS Monitoren nicht bei 47 Hz? Dachte mich erinnern das so gelesen zu haben.

Beim Swift sind es bekanntermaßen etwa 37 Hz, bei denen auf Framewiederholung umgeschaltet wird.

dargo
2015-04-19, 20:23:53
Liegt die Untergrenze bei einigen FS Monitoren nicht bei 47 Hz? Dachte mich erinnern das so gelesen zu haben.

Keine Ahnung wo du das her hast. Ich zitiere mal blaidd:
Untere Grenze für Freesync beim Acer sind übrigens 40 Fps, nicht 42 und da bleibt er auch wie festgetackert, falls die Frameraten weiter abfallen. Wenn die Bildraten aber zwischen ~42 und 38 pendeln wirkt das Bild unruhig - man will definitiv konstant 40+ Fps.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10577839&postcount=32

Min. 48Hz gibts bisher nur bei den beiden LGs.
http://geizhals.at/de/lg-electronics-29um67-p-a1223769.html?hloc=at&hloc=de&hloc=pl&hloc=uk&hloc=eu
http://geizhals.at/de/lg-electronics-34um67-p-a1218026.html?hloc=at&hloc=de&hloc=pl&hloc=uk&hloc=eu

Die neu gelisteten 4k Samsungs sind unten noch alle offen. Keine Ahnung ob 40Hz, 48Hz oder weiß der Geier was. Da müssen wir erstmal die Verfügbarkeit abwarten.

Kriton
2015-04-19, 20:24:34
DDas AMD das nicht kann ist wie gesagt AMDs Problem.

Eigentlich ist es auch unseres. Und das nicht unerheblich. Aber wenn die Leute 1000,- € für eine Grafikkarte ausgeben, die eigentlich nichts besonderes ist, und die unter anderen Umständen auch günstiger zu haben gewesen wäre...

Aber hey, Monopole sind geil und fördern die Innovation. Vergessen wir Offene Standards, die funktionieren eh nicht - sieht man ja an Linux auf dem Desktop...

Für alle Fälle: Da war ein wenig Ironie drin.

Genau das ist Nvidia's Auftrag. Nichts anderes erwarte ich von jedem Unternehmen. Maximierung des eigenen Erfolgs ist und bleibt das elementarste Ziel eines jeden Unternehmens.

Das ist so - warum man das aber mit Blick auf die eigentlich eigenen (davon üblicherweise abweichenden) Interessen als Konsument verteidigt, das geht mir ab.

Grestorn
2015-04-19, 20:25:08
Das meinst Du sarkastisch, oder? Nein, ich fürchte nicht. Ganz richtig, das war völlig sarkasmusfrei

- AMD darf nicht bankrott gehen, weil sie sonst den nvidia-Kunden Schaden zufügen, da diese dann mehr für ihre Grafikkarte zahlen müssten. :freak:
- AMD geht deshalb bankrott, weil sie offene Standards fördern und nicht so vorgehen wie nvidia.

AMD sollte nicht pleite gehen, das ist richtig. Das wäre ziemlich scheiße.

Und AMD geht nicht bankrott, weil sie offene Standard unterstützen. Sie gehen pleite, weil sie keine Produkte anbieten, die dem Kunden genügend Vorteile bieten, so dass diese bereit sind, einen Preis zu bezahlen, der es AMD erlaubt, einen gesunden Gewinn einzufahren.

Und ja, das bedeutet evtl. auch, dass die Strategie, bei Investitionen (in neue Techniken, in Entwickler-Support, in Innovationen) zu sparen, nicht wirklich glücklich ist.

Auch nVidia hat schon oft genug in Techniken investiert, die sich als wenig erfolgreich auf dem Markt herausgestellt haben. Das gehört dazu. Aber immerhin *wird* dort investiert und nicht meistens nur darauf gehofft, dass die Community oder andere Hersteller das Problem schon lösen werden so dass man sich die eigentlich notwendigen Investitionen sparen kann.

:biggrin: Ich wusste ja dank dieses Forums schon lange, dass AMD alles falsch macht, was man falsch machen kann. Aber das treibt die Argumentation auf eine neues Argumentationshöhe Niveau.

Ich sehe an Deinem Beitrag nichts, woraus man erkennen könnte, was an meiner Argumentation so absurd sein soll...

Sunrise
2015-04-19, 20:27:28
Das meinst Du sarkastisch, oder? Nein, ich fürchte nicht.

Ich versuche mal die Logik daran herauszuarbeiten:

- AMD darf nicht bankrott gehen, weil sie sonst den nvidia-Kunden Schaden zufügen, da diese dann mehr für ihre Grafikkarte zahlen müssten. :freak:
- AMD geht deshalb bankrott, weil sie offene Standards fördern und nicht so vorgehen wie nvidia.

:biggrin: Ich wusste ja dank dieses Forums schon lange, dass AMD alles falsch macht, was man falsch machen kann. Aber das treibt die Argumentation auf eine neues Argumentationshöhe Niveau.
Ich war auch leicht sprachlos, als ich das gelesen hatte.

Grestorn
2015-04-19, 20:27:30
Keine Ahnung wo du das her hast. Ich zitiere mal blaidd:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10577839&postcount=32

Min. 48Hz gibts bisher nur bei den beiden LGs.
http://geizhals.at/de/lg-electronics-29um67-p-a1223769.html?hloc=at&hloc=de&hloc=pl&hloc=uk&hloc=eu
http://geizhals.at/de/lg-electronics-34um67-p-a1218026.html?hloc=at&hloc=de&hloc=pl&hloc=uk&hloc=eu

Ich hab ja nie einen bestimmten Monitor erwähnt... Also ist die Grenze beim Acer halt 40 fps und beim LG 48. Und?

dargo
2015-04-19, 20:32:45
Was und? Du sprichst in Rätseln.

Kriton
2015-04-19, 20:34:21
Und AMD geht nicht bankrott, weil sie offene Standard unterstützen. Sie gehen pleite, weil sie keine Produkte anbieten, die dem Kunden genügend Vorteile bieten, so dass diese bereit sind, einen Preis zu bezahlen, der es AMD erlaubt, einen gesunden Gewinn einzufahren.

Und ja, das bedeutet evtl. auch, dass die Strategie, bei Investitionen (in neue Techniken, in Entwickler-Support, in Innovationen) zu sparen, nicht wirklich glücklich ist.


Du tust gerade so als wäre AMD nicht innovativ. Wenn wir mal davon ausgehen, dass die größten Umsätze (auch wenn das nicht Gewinne sind) im bereich unter 200,- € pro Grafikkarte gemacht werden muss man mir mal erzählen was Nvidia da soviel besser macht als AMD. Zumal meinem Empfinden nach (das ich jetzt nicht validiert habe) AMD-Karten länger "mithalten" zu können scheinen.

Ich kann verstehen wenn ein Enthusiast andere Anforderungen hat - aber in der Preisrange fällt es mir schwer derartige technische Vorteile gegenüber Nvidia zu erkennen (momentan "nur" der Verbrauch).

Grestorn
2015-04-19, 20:34:37
Was und? Du sprichst in Rätseln.

Na, Du meintest meinen Beitrag korrigieren zu müssen weiter oben. Ich hatte mich halt an die Werte des LGs erinnert habe und habe deswegen 50 Hz geschrieben.

So, beenden wir das. Das ist ja wie im Kindergarten.

Machen wir's so: Ich gebe Dir einfach Recht, es sind 40 Hz, und Frieden ist :)

Du tust gerade so als wäre AMD nicht innovativ.
Nicht ausreichend innovativ. Ja, das sehe ich so.

Wir können ewig diskutieren, aber eigentlich ist das sinnlos. AMD ist ja nicht in Schwierigkeiten, weil nVidia so schrecklich böse ist, oder doch?

Ich kann verstehen wenn ein Enthusiast andere Anforderungen hat - aber in der Preisrange fällt es mir schwer derartige technische Vorteile gegenüber Nvidia zu erkennen (momentan "nur" der Verbrauch).

Schau her, ich seh das ganz anders. Ich zahl einen heftigen Aufpreis für nVidia für relativ wenig Leistungsplus. Und das nur wegen der technischen Vorteile von nVidia. Und ich scheine da nicht ganz alleine zu sein.

dargo
2015-04-19, 20:40:26
Machen wir's so: Ich gebe Dir einfach Recht, es sind 40 Hz, und Frieden ist :)
Es ist halt vom Bildschirm abhängig. Aktuell geht kein Bildschirm unter 40Hz mit Freesync. Ob da die Grenze bleibt wird sich mit späteren Bildschirmen zeigen. Schließlich geht Freesync ansich deutlich tiefer.

Edit:
Um mal wieder was Sinnvolles beizutragen. Warum gibt es eigentlich noch keinen einzigen Freesync Bildschirm mit 1080p (mal den 21:9 LG rausgenommen)? Damit würde man doch viel eher die Masse ansprechen. So ein 24" 1080p Bildschirm ist mittlerweile extrem günstig und die neuen Scaler würden das Ganze kaum verteuern. Sehen die Hersteller da wirklich keinen Markt für?

Grestorn
2015-04-19, 20:45:06
Es ist halt vom Bildschirm abhängig. Aktuell geht kein Bildschirm unter 40Hz mit Freesync. Ob da die Grenze bleibt wird sich mit späteren Bildschirmen zeigen. Schließlich geht Freesync ansich deutlich tiefer.

Freesync geht sicher auch mit 10 Hz wenn der Schirm das kann. Das war doch gar nicht der Punkt. So lange die Ingenieure aber das Problem nicht gelöst haben, *gibt* es eine untere Grenze. Und so lange diese über 30 fps ist, ist sie auch im relevanten Bereich möchte ich meinen.

Kriton
2015-04-19, 20:45:15
Wir können ewig diskutieren, aber eigentlich ist das sinnlos. AMD ist ja nicht in Schwierigkeiten, weil nVidia so schrecklich böse ist, oder doch?

Hier sind wir uns einig.

Schau her, ich seh das ganz anders. Ich zahl einen heftigen Aufpreis für nVidia für relativ wenig Leistungsplus. Und das nur wegen der technischen Vorteile von nVidia. Und ich scheine da nicht ganz alleine zu sein.

Hier sind aber auch viele Enthusiasten unterwegs - und Du gehörst sicher auch dazu. Ich habe nicht umsonst von einer Preisrange unterhalb von 200,- € gesprochen. Hat Deine Karte soviel gekostet, oder doch mehr?

Grestorn
2015-04-19, 20:53:49
Hier sind aber auch viele Enthusiasten unterwegs - und Du gehörst sicher auch dazu. Ich habe nicht umsonst von einer Preisrange unterhalb von 200,- € gesprochen. Hat Deine Karte soviel gekostet, oder doch mehr?

Leute in dieser Preisrange sind meist nicht so extrem anspruchsvoll. Aber selbst dann bietet nVidia für einige Anwender ein klein wenig mehr. Auch in dem Range bekommt man oft etwas gleichmäßigere Frametimes, das Profilmanagement im Treiber, in vielen Fällen eine bessere Unterstützung von Spielen zum Releasezeitpunkt und auch meist eine etwas bessere Effizienz.

Das mag nicht für jeden relevant sein, dafür ist in dem Segment aber auch der Preisvorteil für AMD nicht mehr ganz so heftig.

Wer einfach nur möglichst viel Leistung / Euro haben will, der bekommt bei AMD die besseren Produkte. Einigen meiner Freunde empfehle ich genau deswegen auch AMD Karten. Aber dieses Geschäftsmodell scheint offensichtlich nicht ausreichend erfolgreich zu sein. Das sage ich ja nicht, um AMD oder deren Fans zu ärgern, das zeigt einfach die Realität.

Sunrise
2015-04-19, 20:54:46
Um mal wieder was Sinnvolles beizutragen. Warum gibt es eigentlich noch keinen einzigen Freesync Bildschirm mit 1080p (mal den 21:9 LG rausgenommen)? Damit würde man doch viel eher die Masse ansprechen. So ein 24" 1080p Bildschirm ist mittlerweile extrem günstig und die neuen Scaler würden das Ganze kaum verteuern. Sehen die Hersteller da wirklich keinen Markt für?
Es wirbt sich mit 1440p einfach besser. Vor allem für PC-Gaming.

LG Display kommt bald dennoch mit einem neuen 1080p IPS Panel mit hohen Frequenzen raus, wurde ja im Monitorthread gepostet.

aufkrawall
2015-04-19, 20:57:29
Schon heftig, dass es recht brauchbare IPS 1080p Geräte für nur 140€ gibt.
Durch A-Sync würden die wahrscheinlich auch kaum oder gar nicht teurer werden.
Was ein zäher Krampf dieser PC-Markt ist...

Kriton
2015-04-19, 21:13:58
Leute in dieser Preisrange sind meist nicht so extrem anspruchsvoll. Aber selbst dann bietet nVidia für einige Anwender ein klein wenig mehr. Auch in dem Range bekommt man oft etwas gleichmäßigere Frametimes, das Profilmanagement im Treiber, in vielen Fällen eine bessere Unterstützung von Spielen zum Releasezeitpunkt und auch meist eine etwas bessere Effizienz.

Das mag nicht für jeden relevant sein, dafür ist in dem Segment aber auch der Preisvorteil für AMD nicht mehr ganz so heftig.

Wer einfach nur möglichst viel Leistung / Euro haben will, der bekommt bei AMD die besseren Produkte. Einigen meiner Freunde empfehle ich genau deswegen auch AMD Karten. Aber dieses Geschäftsmodell scheint offensichtlich nicht ausreichend erfolgreich zu sein. Das sage ich ja nicht, um AMD oder deren Fans zu ärgern, das zeigt einfach die Realität.

Offenbar zieht Nvidia als Marke mehr - das ist offensichtlich. Aber ich wage zu behaupten, dass die meisten nie am Treiber "spielen" oder sogar noch andere Dinge tun. Im Vergleich zu den sonstigen Forenteilnehmern hier bin ich technisch ein Waisenknabe und in meinem Umkreis bin ich oben in der "Nahrungskette" was das angeht.

Es sind vermutlich oft nur die Marke und (menschliche) Multiplikatoren.

Aber ich merke gerade, dass wir ziemlich OT werden.

dargo
2015-04-19, 21:17:44
Es wirbt sich mit 1440p einfach besser. Vor allem für PC-Gaming.

Bei Samsung habe ich aktuell das Gefühl die haben nur 4k im Kopf. :freak:


LG Display kommt bald dennoch mit einem neuen 1080p IPS Panel mit hohen Frequenzen raus, wurde ja im Monitorthread gepostet.
Na immerhin. 16:9 nehme ich doch stark an?

Kartenlehrling
2015-04-19, 21:23:33
Auch wenn ich mich wiederhole, gerade der 29" LG 21:9 freesync für 330€ sehe ich als idealer Gaming-Monitor für Papas Liebling.

Game auf max 80-90fps stellen bzw. minFPS 50 und dann vsync 75Hz (freesync) einschalten,
das sollte mit einer R9290 für 300€ kein problem sein auf 2560x1080.




...., mit 75fps durch die Strassen von Vice City zu rasen auf einem 330€ Monitor finde ich toll.

https://www.youtube.com/watch?v=Lu7EocyGk7s
Grand Theft Auto 5 PC GTX 780 Ti vs R9 290 1080p Benchmark Test

dargo
2015-04-19, 21:29:13
Auch wenn ich mich wiederhole, gerade der 29" LG 21:9 freesync für 330€ sehe ich als idealer Gaming-Monitor für Papas Liebling.

Das blöde Ding muss aber erstmal lieferbar sein. :motz: Seit 2 Monaten gelistet und nirgendwo zu bekommen. Paperlaunch par excellence. :freak:

Kartenlehrling
2015-04-19, 21:40:16
computeruniverse.net schreibt ...

Vorankündigung
für ca. Ende April 2015


Altenate.de auch ...


Jetzt vorbestellen
Lieferung im April 2

https://www.alternate.de/LG/29UM67-P-LED-Monitor/html/product/1182367?event=search


Und der Asus MG279Q soll zweite Mai Woche kommen,
davon habe ich mal auf verdacht einen bestellt, bin gespannt welche Händer diesen in Deutschland bekommt.

Godmode
2015-04-19, 22:28:02
Ich fasse jetzt nochmal die letzten Seiten zusammen, vielleicht herrscht da ja sogar ein Konsens unter uns:

- Ein offener Standard wie A-Sync ist einer proprietären Lösung vorzuziehen
- G-Sync hätte nicht so schnell am Markt sein können, wenn man bis auf die Standardisierung gewartet hätte
- Aus Nvidia Sicht ist ein geschlossene Lösung besser, weil man so die Kunden an das eigene Ökösystem bindet
- Aus Kundensicht natürlich schlecht, weil man dadurch auf eine Firma festgelegt ist

Mancko
2015-04-19, 23:24:48
Genau wer für die Wildnis zu schwach ist wird aufgefressen.
Darf ich erfahren wie du deine Brötchen verdienst?

Brauchst Dir keine Sorgen machen. Die gleichen Gesetze gelten für mich und mein Unternehmen auch. Deswegen seh ich auch nicht ein wieso bei AMD eine Außnahme gemacht werden soll. Wer dauerhaft erfolglos ist verschwindet von der Bildfläche. Das war noch nie anders und wird auch nie anders sein.

Mancko
2015-04-19, 23:36:14
Hier wird wie immer eigentlich nur aus Sicht eines Unternehmers argumentiert. Dass der offene Standart besser für den Konsumenten ist juckt nicht. Wo bin ich hier bloß gelandet.

Wie Grestorn schon sagte werfen hier auch viele Nvidia vor nicht in ihrem Sinne zu agieren. Wo ist da der Unterschied? Es ist nicht Nvidia's Aufgabe hier jeden Kunden mit der maximalen Leistung zum allergünstigsten Preis und den besten Rahmenbedingungen zu beglücken.

Diejenigen die sich beschweren sollen sich doch an AMD wenden. Im Grunde ist doch AMD Hauptschuld an der ganzen Entwicklung. Die machen es Nvidia einfach so lächerlich einfach. Was ist aus diesem Unternehmen bitte geworden? Ich würde sagen, dass die einfach aufs falsche Pferd setzen. Die Geiz ist Geil und Preisdumping Methode scheint einfach nicht erfolgreich zu sein.

Zudem stört mich die Vorgehensweise immer irgendwas loszutreten, es dann aber anderen zu überlassen und nicht konsequent zu Ende zu denken. Das ist für die Kunden auch nicht gerade hilfreich. Da gefällt mir Nvidia's Vorgehensweise einfach besser. Die ziehen ihre Nummer durch ohne wenn und aber und sind sich auch nicht zu schade dafür mal mit richtig Großen der Branche anzulegen.

PHuV
2015-04-19, 23:56:10
- Aus Nvidia Sicht ist ein geschlossene Lösung besser, weil man so die Kunden an das eigene Ökösystem bindet

Das ist nicht nur ein Grund. Warum verbaut Apple Hardware auf ihre Weise? So haben sie noch ein Maß an Einfluß über die Qualität und die Leistung der Geräte, und sie können ein gewisses Maß an Qualität aufrecht erhalten. Sprich, es funktionieren die Geräte wie versprochen. Apple macht das schon immer so, und beschwert sich jemand? Die wenigsten. Und das Zeug verkauft sich doch wie blöde. Beschwert Euch nicht bei Nvidia, beschwert Euch bei Firmen wie Apple und Co., die das schon immer so machen, und damit Erfolg haben.

Und an dem Freesync-Desaster sieht man doch, wie man es nicht machen sollte. Was nützt ein freier Standard, der erst bei 40 FPS greift, oder die Hersteller damit machen können, was sie wollen? Da ist doch den Kunden eine Lösung lieber, die funktioniert. Und selbst wenn diese Lösung proprietär und teurer ist. Der Kunde hat hier durchaus auch ein Vorteil. Wenn es nicht funktioniert, kann man beispielsweise Apple direkt haftbar machen. Wenn etwas ein Standard ist, dann kann man Unwegsamkeiten immer hin und her schieben. Ich erinnere hier mal die Anfangsprobleme von HDMI, wo dann die Probleme von jedem Hersteller auf den anderen abgewiesen wurde, wenn was nicht funktionierte.

Und der Traum von Standard ist ein Wunschtraum. Schaut Euch doch mal in der IT-Welt um? Was machen die Firmen alles aus "Standard". Es ist traurig, aber das läuft doch schon seit vielen Jahrzehnten so. Jeder versucht zu dominieren, eine Facette reinzubringen, wo der Kunde "abhängig" gemacht wird, oder man einen Marktanteil schafft, der featureabhängig von einer Firma dominiert wird. Und warum werfen hier das einige Nvidia vor, obwohl das Firmen wie Apple, IBM, HP, Sun/Oracle und Co. seit Jahren so tun? Ich versteh hier die Gedanken von einigen nicht.
Schon heftig, dass es recht brauchbare IPS 1080p Geräte für nur 140€ gibt.
Definiere "brauchbar"!

Screemer
2015-04-20, 00:03:56
gsync geht auch nur bis 36hz (weil die panels eben nicht besser sind). was soll der die diskussion und vor allem die bezeichnung "desaster"? einzig das framedoubling ist ein feature, dass amd schnellstmöglich nachbessern sollte.

PHuV
2015-04-20, 00:17:48
gsync geht auch nur bis 36hz (weil die panels eben nicht besser sind).
Woher hast Du diese Info?

Schnoesel
2015-04-20, 00:55:02
Woher hast Du diese Info?

Steht hier glaub ich, dass Gsync ab 37Fps anfängt die Frames zu verdoppeln:

http://www.pcper.com/reviews/Graphics-Cards/Dissecting-G-Sync-and-FreeSync-How-Technologies-Differ

Ich denke darauf spricht screemer an

Screemer
2015-04-20, 01:55:22
korrekt und pcper als sprachrohr von nvidias marketingabteilung glaub ich das durchaus.

Skysnake
2015-04-20, 07:38:19
nVidia hat einen Markt erschaffen, der vorher weder im Notebook- noch im PC-Markt existierte: Variable Refresh Rate.

Wo war denn der "offene PC-Gaming" Markt vor G-Sync? Wieso existierte in der Richtung nichts?

Der größte Innovationsfaktor im PC-Gaming Markt ist Konkurrenz. Ohne RoI wird es auch keine großartigen Innovationen geben. Man sollte froh sein, dass nVidia das PC-Gaming in eine neue Ebene gebracht hat.

Ab jetzt wird es eben nur noch besser werden und die bessere Technik wird sich durchsetzen. Darüber sollte man sich freuen.
Ach komm, das ist doch an den Haaren herbeigezogen. Wo war denn nVidia bitte besonders innovativ, wenn VESA da wohl schon seit Jahren drüber am sprechen ist, und der Standard mehr oder weniger unter Dach und Fach ist.

Wenn waren Sie höchstens ein kicker, um es unter Dach und Fach zu bringen. Mehr aber auch nicht.

Es ist halt vom Bildschirm abhängig. Aktuell geht kein Bildschirm unter 40Hz mit Freesync. Ob da die Grenze bleibt wird sich mit späteren Bildschirmen zeigen. Schließlich geht Freesync ansich deutlich tiefer.

Edit:
Um mal wieder was Sinnvolles beizutragen. Warum gibt es eigentlich noch keinen einzigen Freesync Bildschirm mit 1080p (mal den 21:9 LG rausgenommen)? Damit würde man doch viel eher die Masse ansprechen. So ein 24" 1080p Bildschirm ist mittlerweile extrem günstig und die neuen Scaler würden das Ganze kaum verteuern. Sehen die Hersteller da wirklich keinen Markt für?
Weil Sie hoffen, dass Sie mit den höheren Auflösungen mehr Gewinn erwirtschaften?

Wenn Sie FreeSync mit 1080p bringen, wird doch so mancher diesen kaufen. Wenn es das aber nicht gibt, wird so mancher, der eigentlich nur ~200€ ausgeben wollte, vielleicht doch 300€ ausgeben rein mal als fiktives Zahlenspiel

Troyan
2015-04-20, 11:31:49
Zeige doch mal deine Belege, dass VESA darüber "seit Jahren" sprechen würde.
Einzig "Panel Self Refresh" war ein Thema und wurde bis zu G-Sync auch nie für den Desktopmarkt angekündigt.

Screemer
2015-04-20, 11:45:57
Zeig doch ein paar belege, dass sie das nicht taten. Kindergarten Argumentation. Glaubst du ernsthaft, dass die vesa AS innerhalb von 6 Monaten plant, finalisiert und absegnet?

Troyan
2015-04-20, 12:02:15
AMD hat den Vorschlag im November 2013 (http://www.hardware.fr/news/13545/amd-freesync-proposition-dp-1-2a.html)eingebracht. Im Mai 2014 hat VESA ihn als 1.2a in die Spezifikation aufgenommen. Im März 2015 gab es erste Produkte.

Im Oktober 2013 hat nVidia G-Sync vorgestellt.

Isen
2015-04-20, 12:50:14
@Troyan,

Französisch ist nicht so deine stärke?

dargo
2015-04-20, 13:00:45
Weil Sie hoffen, dass Sie mit den höheren Auflösungen mehr Gewinn erwirtschaften?

Wenn Sie FreeSync mit 1080p bringen, wird doch so mancher diesen kaufen. Wenn es das aber nicht gibt, wird so mancher, der eigentlich nur ~200€ ausgeben wollte, vielleicht doch 300€ ausgeben rein mal als fiktives Zahlenspiel
Naja... das ist aber doch schon etwas weit hergeholt. Schau mal wieviele 16:9 1080p Bildschirme ohne Freesync am Markt sind. Wenn sich damit kein Geld mehr verdienen lässt würde man die doch einstampfen.

Troyan
2015-04-20, 13:03:14
Google sagt folgendes:

We learn that a request type SCR (Specification Change Request) was filed to incorporate the optional support variable refresh rate to the standard DisplayPort 1.2a. Given the name of the document dated 25 November DP1.2a Extend MSA Tmg Para AMD SCR, it seems clear that the proposal was submitted by AMD. She is currently in GMR (General Member Review) is on track to be finalized and ratified.
http://www.hardware.fr/news/13545/amd-freesync-proposition-dp-1-2a.html

Onlineübersetzer sind schon was tolles. :freak:

Achja, Bonaire wurde im März 2013 veröffentlicht. Hawaii im September vorgestellt. AMD hat nie über "Variable Refresh Rates" gesprochen. Erst auf der CES 2014 haben sie sich darüber zu Wort gemeldet. Da die Spezifikation 6 Monate nach der Einreichung des Vorschlages stand, hätte also schon vor G-Sync ein offener Standard existieren können.

Isen
2015-04-20, 13:05:22
Dann übersetz mal fein weiter. Viel Spaß dabei.
Vielleicht stolperst du ja auf etwas ;)

Schnoesel
2015-04-20, 13:06:19
"En fait, cette fonctionnalité existe depuis 2008 dans le standard eDP 1.0 (DisplayPort interne) puisqu'elle peut permettre des économies d'énergie, par exemple en ne rafraîchissant pas l'affichage du bureau Windows quand rien ne bouge. " ist wohl eher das entscheidende. Klingt weniger nach Innovation als vielmehr vorhandenes auf den Desktop-Monitor übertragen aber gut jeder definiert Innovation anders nicht wahr?

Grestorn
2015-04-20, 13:14:48
"En fait, cette fonctionnalité existe depuis 2008 dans le standard eDP 1.0 (DisplayPort interne) puisqu'elle peut permettre des économies d'énergie, par exemple en ne rafraîchissant pas l'affichage du bureau Windows quand rien ne bouge. " ist wohl eher das entscheidende. Klingt weniger nach Innovation als vielmehr vorhandenes auf den Desktop-Monitor übertragen aber gut jeder definiert Innovation anders nicht wahr?

Das bedeutet nichts anderes als dass die Technik schon seit 2008 für embedded DP (also innerhalb von Notebooks) im Einsatz ist. Das ist nichts neues und außerdem hilft es nichts, da die dort eingesetzte Technik nur die halbe Miete ist. Insbesondere sagt es nichts darüber aus, seit wann AMD an einer entsprechenden Lösung für Desktop Computer arbeitet.

"In der Tat, diese Funktion ist seit 2008 in der Standard eDP 1,0 (Internal Displayport) durch nicht das Aktualisieren der Windows-Desktop-Anzeige vorhanden, da es zu Energieeinsparungen führen, beispielsweise wenn nichts bewegt"

Coda
2015-04-20, 13:25:07
Was spielt das überhaupt für eine Rolle wer zuerst die Idee hatte? Sind wir hier im Kindergarten?

Grestorn
2015-04-20, 13:26:19
Was spielt das überhaupt für eine Rolle wer zuerst die Idee hatte? Sind wir hier im Kindergarten?

Klar. Wusstest Du das noch nicht?! :)

dargo
2015-04-20, 13:54:22
Was spielt das überhaupt für eine Rolle wer zuerst die Idee hatte? Sind wir hier im Kindergarten?
Jeden Tag, das müsstest du doch wissen. :freak:

Kriton
2015-04-20, 16:02:57
Google sagt folgendes:

http://www.hardware.fr/news/13545/amd-freesync-proposition-dp-1-2a.html

Onlineübersetzer sind schon was tolles. :freak:

Achja, Bonaire wurde im März 2013 veröffentlicht. Hawaii im September vorgestellt. AMD hat nie über "Variable Refresh Rates" gesprochen. Erst auf der CES 2014 haben sie sich darüber zu Wort gemeldet. Da die Spezifikation 6 Monate nach der Einreichung des Vorschlages stand, hätte also schon vor G-Sync ein offener Standard existieren können.

Solche Requests werden üblicherweise dann eingereicht wenn der Inhalt mit den Betroffenen soweit abgestimmt ist.

dargo
2015-04-21, 08:20:49
computeruniverse.net schreibt ...

Altenate.de auch ...

https://www.alternate.de/LG/29UM67-P-LED-Monitor/html/product/1182367?event=search

Der ist tatsächlich nun lieferbar. Wer testet zuerst? :D
http://geizhals.at/de/lg-electronics-29um67-p-a1223769.html?hloc=at&hloc=de

Mir fehlt dummerweise entsprechende Graka. :anonym:

Kartenlehrling
2015-04-21, 10:02:00
passend dazu kommt doch projekt Cars am 7.Mai.

https://www.youtube.com/watch?v=5ZG9zh8hyrI
Project CARS 16:9 vs 21:9 @ default FOV

muhh der innenraum rückspiegel ist aber dann immer noch nutzlos.

dargo
2015-04-21, 10:13:22
Ja, leider. Trotzdem imho ein deutlicher Immersion Zuwachs. Immerhin ist der Außenspiegel komplett. 16:9 wirkt schon beinah wie ein Guckloch. X-D

PS: kann man sich mittig bei pCars nicht einen virtuellen Innenspiegel hinklatschen?

Kartenlehrling
2015-04-22, 11:30:31
BenQ XL2730Z(tn-freesync) hat wohl ein schweres Leben,
wie sie aber auf fast 700€ gekommen sind muss BenQ uns wirklich erkären, das Ding liegt anscheinend wie Blei im Regal.

fondness
2015-04-22, 11:46:23
Wie kommst du darauf? Wenn man sich die Lagerbestände bei Amazon ansieht scheinen sich dieser relativ schnell zu ändern.

BTW, mittlerweile ist der Samaung 32" 4K FreeSync-Monitor auch in D gelistet:
http://geizhals.at/eu/samsung-u32e850r-lu32e85krs-a1258115.html?hloc=de

Unicous
2015-04-23, 14:38:42
Interessant, dass Troyan den Link zu dem overclock-Eintrag mit dem BenQ-Support Typen gepostet hat, aber dabei vergessen hat, dass ein paar Einträge darunter das steht (vom gleichen User):

I had a more detailed conversation with another rep. I asked a few general questions to come to an understanding that the hardware (also the scalar for freesync) responsible for overdrive functions with freesync disabled would also be responsible for controlling overdrive with freesync enabled, and for some reason it does not seem to be functioning when freesync is enabled; references were made to both programming and hardware in terms of where the issue could lie. So basically the conversation arrived at a similar conclusion: They are apparently working with AMD, and that there could be a possible solution in the future. Whether it be a firmware/software update or require hardware changes (new monitor models, or possible extra hardware on new amd card lines) it seems atm that no one can officially give an answer.

Außerdem hat ein Asus Rep. bei OcUK bestätigt, dass Overdrive+FS beim MG279Q

Just wanted to let you know, I've now had it confirmed that the ASUS MG279Q can enable both FreeSync and Overdrive (TraceFree) at the same time.

http://forums.overclockers.co.uk/showpost.php?p=27941631&postcount=120

Es ist ergo keine technische bzw. technologische Limitierung wie hier immer und immer und immer wieder kolportiert und behauptet wird.

Dazu auch noch eine Aussage von (Simon Baker?/) Badass von TFTCentral.

guys, i'm currently talking to BenQ about the situation but to avoid any confusion here, this is the issue as it stands:

If you connect the XL2730Z to a FreeSync system then the AMA function (overdrive circuit) is disabled. It doesnt matter whether you have FreeSync ticked or not in the graphics card settings, it is still turned off. If you "break" the end to end freeSync system by doing something like switching to DVI instead of DisplayPort, or using a non-FreeSync supporting drive, AMA behaves as it should. obviously if you use the screen from an NVIDIA /Intel card or a non-FreeSync card then it behaves as it should.

AMA High is much faster than AMA off, as with it off there is a lot more blurring (hence the reported blurring problems of FreeSync). So at the moment connecting the screen to a FreeSync system is not great, as although you get the benefits of dynamic refresh rate, you have much worse response times and more possible blurring.

This is apparently an issue affecting all FreeSync screens and will require both an AMD driver fix (being worked on i'm told) and a firmware update for the FreeSync screen. i'm pending info from benQ about what is needed for the XL2730Z and how that will work. http://forums.overclockers.co.uk/showpost.php?p=27936113&postcount=569


Ich hoffe diese unqualifzierten Behauptungen finden jetzt ein Ende.

fondness
2015-04-23, 15:10:31
BTQ, der besagte Benq ist bei Newegg seit kurzem um $200 im Preis gefalllen:
http://www.newegg.com/Product/Product.aspx?Item=N82E16824014451&cm_re=benq_freesync-_-24-014-451-_-Product

Unicous
2015-04-23, 15:30:29
Der BenQ hat schon immer $599 bei newegg gekostet, der angegeben Preis ist auch großer bullshit, denn $599 Dollar ist der MRSP. Am 30. April ist übrigens internationaler Launch-Tag.

The XL2730Z will be priced at US $599.

http://www.techpowerup.com/211928/benq-xl2730z-27-inch-amd-freesync-monitor-to-launch-next-week.html


Ich hatte es ja schon einmal gesagt, auch hier sollte er mit 599 Euro starten bis sich BenQ gedacht hat, ach warum melken wir die die Europäer nicht ein bisschen mehr.



Da fällt mir gerade ein ich wollte vor einiger Zeit schon mal etwas posten, habe es aber immer wieder vergessen:

Wer hats erfunden?

http://www.google.com/patents/US20080055318


Interessant auch welche Patente und Patentnehmer sich auf eben jenes Patent zurückverweisen. ;)

Sunrise
2015-04-23, 16:02:35
Bei G-Sync gibt es doch aktuell ein Problem mit statischem Content, bei dem der Bildschirm anfängt zu flackern.

Macht hier G-Sync irgendeine Frameanalyse und Frameabgleich, sodass dies irgendein ungewünschter Nebeneffekt bei extrem statischem Content ist?

Mir kommt es nämlich komisch vor, dass da ein Zusammenhang zwischen statischem Content und Flimmern zu herrschen scheint, während das G-Sync-Modul diese Probleme bei bei Bewegtbildern nicht hat (wenn sich der Inhalt verändert) und es alles dafür tut, dass der Bildeindruck immer flüssig bleibt.

Oder liegt das an einem Failsafe, der bei kurzzeitigen FPS bei quasi 0 (was ja eigentlich bedeuten würde, garkeinen refresh zu fahren, was nicht passieren sollte) dann einschreitet und der den Screen erneut in sehr langen Intervallen refreshen muss, was sich in diesen Helligkeitsunterschieden bemerkbar macht?

Würde das Zweite zutreffen, würde ich nämlich mal davon ausgehen, dass dieser Effekt in ähnlicher Weise auch bei FreeSync zu sehen ist. Konnte das einer der FreeSync-Besitzer (von denen es wahrscheinlich nur wenige gibt) auch beobachten?

Grestorn
2015-04-23, 16:17:32
Es geht nicht um den Content sondern darum, dass es Standbilder sind, sprich kein Update mehr von der Grafikkarte kommt. Oder anders gesagt: Framerate = 0 fps. Dann flackert es leicht.

Ich kann damit leben, wäre trotzdem nicht schlecht, wenn man das noch beheben könnte. Ich vermute aber, dass dazu ein Firmwareupdate des GSync Modus notwendig wäre.

Sunrise
2015-04-23, 16:36:04
Es geht nicht um den Content sondern darum, dass es Standbilder sind, sprich kein Update mehr von der Grafikkarte kommt. Oder anders gesagt: Framerate = 0 fps. Dann flackert es leicht.
Ein Standbild ist doch aber Content der sich nicht verändert, also FPS = 0. Also ist es ja doch abhängig vom Content. :)

Die ganze Geschichte sollte sich eigentlich auch positiv auf das Spulenfiepen auswirken, wenn hier statt unrealistisch hoher FPS bei Standbildern plötzlich nur noch wenige Refreshes stattfinden. Hat das mal jemand überprüft? Würde mich nicht wundern, wenn bei der Nutzung von variablen Refreshraten kaum noch Grafikkarten anfangen bei Standbildern zu pfeifen. Wäre ein netter Nebeneffekt.

Kartenlehrling
2015-04-23, 16:45:30
Würde mich nicht wundern, wenn bei der Nutzung von variablen Refreshraten kaum noch Grafikkarten anfangen bei Standbildern zu pfeifen. Wäre ein netter Nebeneffekt.

Kann doch bestimmt einer mit g-sync testen,
in Assassin's Creed Unity sind bei zonewechsel und standbild >500fps obwohl vsync an ist.

Grestorn
2015-04-23, 16:51:01
Ein Standbild ist doch aber Content der sich nicht verändert, also FPS = 0. Also ist es ja doch abhängig vom Content. :)

Ob ein unverändertes Bild nur einmal gerendert wird und dann stehenbleibt (FPS = 0) oder immer wieder neu gerendert wird obwohl sicht nichts ändert, liegt am jeweiligen Programm. Beides gibt es. Und nur bei echten Standbildern, die nicht mehr neu gerendert werden, flackert GSync.

Kann doch bestimmt einer mit g-sync testen,
in Assassin's Creed Unity sind bei zonewechsel und standbild >500fps obwohl vsync an ist.

GSync bedeutet auch immer VSync bei der maximalen Refreshrate des Monitors. Also mehr als 144 fps geht nicht. Und dass es 500 fps mit VSync sein sollen, glaub ich nicht. Dann funktioniert VSync schlicht nicht.

dargo
2015-04-23, 17:06:19
Kann doch bestimmt einer mit g-sync testen,
in Assassin's Creed Unity sind bei zonewechsel und standbild >500fps obwohl vsync an ist.
:confused:

Hast du einen ~500Hz Bildschirm? :biggrin: Wie Grestorn schon sagte funzt in dem Fall Vsync einfach nicht.

Sunrise
2015-04-23, 17:12:17
Ob ein unverändertes Bild nur einmal gerendert wird und dann stehenbleibt (FPS = 0) oder immer wieder neu gerendert wird obwohl sicht nichts ändert, liegt am jeweiligen Programm. Beides gibt es. Und nur bei echten Standbildern, die nicht mehr neu gerendert werden, flackert GSync.
Ok, das leuchtet schon eher ein. Es ist mir jedoch gänzlich unverständlich, warum es dann überhaupt flackert, wenn ein FailSafe einschreitet. Warum wird dann nicht einfach mit der maximalen Refreshrate des Panels weiter refresht? Weil es kein neues Bild gibt? Dann hat man aber doch das alte?

Denn wenn der FailSafe sowieso hardcoded ist, sollte das doch überhaupt kein Problem der Umsetzung sein. Es ist ja eigentlich nur eine Ausnahme zu definieren, während G-Sync einer festen Logik unter der VRR-Grenze zu folgen scheint (wie PCPer nachgewiesen hat).

Unicous
2015-04-23, 18:43:51
Weil es immer wieder zu Missverständnisse bei DP 1.2a kommt. Die Spec gibt es schon eine Weile (bevor AMD den Adaptive Sync Part eingereicht hat). Wenn ein Monitor für DP 1.2a spezifiziert ist heißt das nicht automatisch, dass er auch Adaptive Sync fähig ist denn wie man ja weiß ist der Spec-Teil auch optional.

Sunrise
2015-04-23, 20:40:33
Asus MG279Q jetzt für 649 EUR bei Alternate vorbestellbar (Alternate gibt Lieferung in 7 Tagen an):
https://www.alternate.de/ASUS/MG279Q-LED-Monitor/html/product/1198150?tk=7&lk=8711

Bildfrequenz 35 - 144 Hz - das klingt sehr gut!

Wenn ich ne AMD hätte würde ich den jetzt bestellen und testen...

dargo
2015-04-23, 20:51:36
Vorsicht!
• FreeSync only can be activated within “35Hz ~ 90Hz”.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10600657&postcount=4282

Sunrise
2015-04-23, 21:03:16
Ein oberes Limit von 90Hz wenn der Monitor 144Hz nativ kann? Was ist denn das jetzt schon wieder? Wollen die uns verarschen?

Ergibt das obere Limit irgendeinen technischen Sinn, wenn man ohne FreeSync 144Hz fahren kann? Wenn der Scaler 144Hz abkann, wieso sollte er bei FreeSync plötzlich limitiert sein? Ist das diese komische FreeSync-Range, von der AMD gesprochen hatte? Ich verstehe nichts mehr.

fondness
2015-04-23, 21:04:12
Das wäre in der Tat lächerlich. Auch wenn 90Hz als oberes Limit jetzt keine Katastrophe wäre, über 90fps kann meinetwegen VSync greifen.

dargo
2015-04-23, 21:04:23
Wer ist "die"? Asus? :D

Isen
2015-04-23, 21:10:15
Wie hohl ist das denn? ...
Unverständlich...

Schnoesel
2015-04-23, 21:12:42
Öh wieso ne Obergrenze von 90? Hat nicht blaidd diesen anderen Monitor getestet und war begeistert ab keine Ahnung 120Hz + Freesnyc oder hängt es mit den 35 Hz zusammen? Kann da mal jemand nachhaken von PCGH/CB oder wer auch immer da mitliest?! Der hats mir nämlich angetan nachdem ich die Pläne mit 4K in diesem Jahr aufs Eis gelegt habe.

An den Frequenzbereichen kanns ja nicht liegen:

" Potential ranges include 36-240Hz, 21-144Hz, 17-120Hz and 9-60Hz."
http://support.amd.com/en-us/search/faq/222

Troyan
2015-04-23, 21:16:39
Das wäre in der Tat lächerlich. Auch wenn 90Hz als oberes Limit jetzt keine Katastrophe wäre, über 90fps kann meinetwegen VSync greifen.

90Hz ist ein Verlust von 37%. Vorallem ältere Spiele werden unnötig begrenzt.
Imo viel zu viel. 120Hz - okay. Aber 90Hz?!

fondness
2015-04-23, 21:18:31
90Hz ist ein Verlust von 37%. Vorallem ältere Spiele werden unnötig begrenzt.
Imo viel zu viel. 120Hz - okay. Aber 90Hz?!

Ich spiele nicht über 90fps und wenn wäre es mir auch egal wenn aller darüber begrenzt wird, aber andere mögen das anders sehen. Finde es allerdings natürlich auch ziemlich dämlich.

Troyan
2015-04-23, 21:22:04
Je höher die Frames, umso besser die Latenz und die Bildklarheit. Wieso sollte man Spiele auf 90FPS freiwillig beschränken, wenn diese mit mehr als diese laufen könnten?

Ansonsten kann man auch bei 60FPS bleiben. Wäre sowieso viel besser, da es Großteil der Animationen und Physikberechnungen darauf optimitiert werden...

Isen
2015-04-23, 21:24:04
Ist halt leicht umständlich. Je nachdem was man zockt halt umstellen.

Aber sowieso panne 35-90hz... ich hab kein Game, wo, wenn ich Über 90Fps komme, auf 35fps krache... höchstens min. 60fps.. ich stell doch das Game nicht so scheiße ein, dass ich von 90fps auf 35fps krache, nur damit ich dort Variablen Refresh hab und durch die Funktion " Profitiere " :D

35-120 Hz wäre ok... aber das gleiche in Grün... raff ich nicht. 4K Monitor 25-60/120 Hz und gut ist. Was will ich mit " 144 Hz " außer für CS:GO und so Scherze...

Unicous
2015-04-23, 21:26:37
Es ist (wenn die Angaben denn auch wirklich stimmen) wahrscheinlich dem Panel+144Hz geschuldet.

Ob der G-Sync IPS Acer auf 144Hz hochgeht, weiß man ja auch nicht, von Acer oder Nvidia gibt es ja keinerlei Angaben. Dass die G-Sync Displays auch nicht auf 30 Hz runtergehen wie von Nvidia anfangs behauptet wissen wir ja mittlerweile auch.

Sunrise
2015-04-23, 21:36:51
Kann mal jemand Gipsel wachklingeln?

Wenn ich doch nativ 144Hz fahren kann, und der Monitor also bis 144Hz Overdrive unterstützen sollte, dann muss doch auch 144Hz mit Overdrive und FreeSync funktionieren, dabei unterscheidet sich doch nichts.

Es sei denn das Problem beim BenQ hat der Asus auch und man hat aus irgendwelchen Gründen eine HW-Limitierung im Monitorscaler die FreeSync zusammen mit angepasstem Overdrive und ohne Ghosting nur dann erlaubt, wenn man die obere Frequenz begrenzen würde.

Das ist aber an den Haaren herbeigezogen, da hört bei mir das technische Verständnis auf. Da wäre der NV-Scaler aber ganz schön überlegen und es würde sich immer mehr abzeichnen, warum NV das selbst gemacht hat, weil Entsprechendes auf dieser Basis noch nichtmal produziert wurde.

samm
2015-04-23, 21:38:10
Wie könnte sowas dem Panel geschuldet sein, wenn das Panel ja eben mit 144 Hz klarkommt? Wäre ja wirklich mal merkwürdig... Wenn das wahr ist, ist es doch eher ein Versagen der Firmware-Programmierer: Einerseits gegenüber dem BenQ den Vorteil zu haben, in der Firmware Overdrive auch bei aktivem Freesync anwenden zu können, andererseits die Unfähigkeit, die Hardware zu mehr als zwei Dritteln ausreizen zu können.

[edit]
Stimmt, es müssen nicht zwingend die Firmware-Programmierer sein, die hier mal in einen Kurs geschickt werden müssten, sondern es könnten auch Beschränkungen seitens der Scaler von Asus und BenQ sein, die zuwenig flexible Konfigurationsmöglichkeiten bieten.

aufkrawall
2015-04-23, 21:38:48
Oha. Eben sprach man noch davon, hoffentlich nicht enttäuscht zu werden, und dann so was. :frown:
Auf die Erklärung bin ich mal gespannt...

samm
2015-04-23, 21:41:04
Falls es denn zutrifft... Ich glaube, ich sollte mal auf OcUK einen Account machen und den Asus-Rep grillen ;)

Isen
2015-04-23, 21:44:12
Ich grill mit. Anfrage ist raus.

Kartenlehrling
2015-04-23, 21:49:02
Das ist aber an den Haaren herbeigezogen, da hört bei mir das technische Verständnis auf. Da wäre der NV-Scaler aber ganz schön überlegen und es würde sich immer mehr abzeichnen, warum NV das selbst gemacht hat, weil Entsprechendes auf dieser Basis noch nichtmal produziert wurde.


Wir reden aber immer noch von einem IPS und nicht TN wie beim AsusROG, der Acer-gsync hat ja auch mehr Beschränkunge als der Asus-TN-ROG.

Am 2.05 wissen wir wohl mehr, ich habe das ja schon einigemal wiederholt, mir hätten 25-100Hz auch gereicht.

samm
2015-04-24, 22:45:22
Ich grill mit. Anfrage ist raus.Bah, ich bekomme bislang kein Bestätigungsmail für meinen Account, kann mich also nicht wirklich einloggen dort. Jedoch sind die neusten Infos laut CB, dass der Screen doch 35-144Hz als VRR unterstützen soll. Kombiniert mit der Aussage des Asus-Reps auf OcUK (http://forums.overclockers.co.uk/showpost.php?p=27941631&postcount=120), dass Overdrive im Gegensatz zum BenQ funktionieren soll, würde das, wenn wahr, den Asus Dominator zum potentiellen Asus-SWIFT-Kontrahenten: Gleicher Speed bei besserer Panel-Technologie und grösserer Feature-Umfang dank richtigem Scaler statt G-Sync :) Jetzt dann bitte noch ULMB für Spiele, wo Freesync nicht nötig ist, wie es auch der BenQ bietet, und die vorläufige Wunschliste ist komplett :)

Kartenlehrling
2015-04-25, 14:19:28
In HardwareLuxx haben 2 Leute neue Chargen vom Acer xb270hu-gsync bekommen, gekauft bei Computeruniverse.de , Fertigung soll vom März-2015 sein.

http://www.hardwareluxx.de/community/f111/ips-monitore-mit-144-hz-und-1440p-1054362-61.html#post23419464

Unicous
2015-04-25, 14:42:43
Und?

Kartenlehrling
2015-04-25, 15:01:33
warum nicht? (http://geizhals.de/acer-predator-xb270hubprz-um-hb0ee-009-a1216766.html?t=alle&plz=&va=b&vl=de&hloc=at&hloc=de&v=k#filterform)

Unicous
2015-04-25, 15:32:48
Warum nicht?
:confused:

Was willst du uns mit den Links sagen? Ich verstehe es nicht?
Warum fällt es so schwer eine Einordnung des Verlinkten zu liefern?

Alter Sack
2015-04-25, 20:48:53
Ist halt leicht umständlich. Je nachdem was man zockt halt umstellen.

Aber sowieso panne 35-90hz... ich hab kein Game, wo, wenn ich Über 90Fps komme, auf 35fps krache... höchstens min. 60fps.. ich stell doch das Game nicht so scheiße ein, dass ich von 90fps auf 35fps krache, nur damit ich dort Variablen Refresh hab und durch die Funktion " Profitiere " :D

35-120 Hz wäre ok... aber das gleiche in Grün... raff ich nicht. 4K Monitor 25-60/120 Hz und gut ist. Was will ich mit " 144 Hz " außer für CS:GO und so Scherze...

Beispielsweise Call of Duty Black Ops 2: flutscht bei mir mit vollen Details auf 144 Hz (durchgehend!!).
Das neue Unreal Tournament (Alpha) flutscht ebenfalls mit 144 Hz.

Ich verzichte für mehr FPS gerne auf Details oder hohe AA/AF-Werte.
Zwischen 90 und vollen 144 Hz liegt optisch nochmal ne kleine Welt.

Gipsel
2015-04-26, 01:13:08
Ich verzichte für mehr FPS gerne auf Details oder hohe AA/AF-Werte.
Zwischen 90 und vollen 144 Hz liegt optisch nochmal ne kleine Welt.Die Frage wäre hier, ob das mit A-/G-/FreeSync immer noch gültig wäre, oder ob mit framesynchroner Ausgabe 90fps nicht vergleichbar flüssig wirken wie 144fps, so daß man auf den Verzicht "auf Details oder hohe AA/AF-Werte" verzichten kann ;).

aufkrawall
2015-04-26, 01:17:46
Er hat doch Gsync.
Ohne Strobing haben in MP-Spielen ganz sicher viele Leute lieber +100fps wegen des Motion Blurs.
Es wird auch immer Spiele mit kackigem Input Lag wie Team Fortress 2 geben.

Gipsel
2015-04-26, 01:45:29
Ohne Strobing haben in MP-Spielen ganz sicher viele Leute lieber +100fps wegen des Motion Blurs.Das ist ein Argument.
Es wird auch immer Spiele mit kackigem Input Lag wie Team Fortress 2 geben.Hmm, ich weiß ja nicht, ob man Spiele mit "kackig" ausgelegter Engine als Maßstab heranziehen sollte. Da präferiere ich immer, daß die Entwickler was tun. Wenn für irgendein Spiel geringe Inputlatenzen wichtig sind, sollen die gefälligst die Engine so stricken, daß die dafür optimiert ist. Das hinterher Bruteforce über die Leistung (bzw. Framerate 100+) totzuschlagen ist immer die schlechtere Lösung, weil es das volle Spielerlebnis im Zweifelsfall erst mit der Verspätung von einer Hardwaregeneration (wenn überhaupt) ermöglicht.

aufkrawall
2015-04-26, 02:25:08
Das Problem ist, dass schon viele Engines ohne Vsync unnötig prerendern. Manchmal hat man echt den Eindruck, es wird alles vekehrt gemacht, was man verkehrt machen kann.
Davon darf man sich aber nicht das Hobby kaputt machen lassen, und 144Hz bei gleichzeitigem A-Sync wären halt definitiv in der Praxis sinnvoll.

Für mich persönlich aber zugegebenermaßen auch nur noch selten. Es gibt halt diese alten Klassiker, die vornehmlich von der Lag-Problematik betroffen sind und gleichzeitig schnelles Gameplay haben.

Ich fände 4k mit 60Hz + A-Sync (IPS) ohne Limit nach unten dann allerdings schon wieder reizvoller.
Entweder volle Gaming-Tauglichkeit oder volle Bildqualität, um es mal auf eine kompakte Formel runterzubrechen.

Alter Sack
2015-04-26, 10:26:54
Die Frage wäre hier, ob das mit A-/G-/FreeSync immer noch gültig wäre, oder ob mit framesynchroner Ausgabe 90fps nicht vergleichbar flüssig wirken wie 144fps, so daß man auf den Verzicht "auf Details oder hohe AA/AF-Werte" verzichten kann ;).

Bei mir liegt´s aber auch an der höheren WQHD Auflösung. Hatte vorher FullHD auf 27" und nun eben 70% mehr Bildpunkte dank QGHD. Da sehe ich an Häuserkanten usw. schon so gut wie keine Treppen mehr. Die Auflösung wirkt ja quasi schon wie AA.
Beispielsweise gefällt mir Far Cry 4 optisch komplett ohne AA oder nur mit FXAA deutlich besser, als mit dem verwaschenen SMAA2T. Ohne AA wirkt das Bild irgendwie schärfer und detailierter.

Zu den Settings in heutigen Spielen muss ich leider gestehen, dass ich oft kaum Unterschiede zwischen Medium/High und Ultra-Settings sehe. Zumindest sind die Einschnitte auf High absolut verschmerzbar. Vor 10 Jahren war das noch anders. Da hatte man deutlich schlechtere Texturen, usw.

90 Hz vs. 144 Hz:
Es stimmt. Bei 90 FPS habe ich bereits ein sehr harmonisches Gesamtbild.
Aber die 144 Hz Session gestern im Testspiel COD-BO2 (mit Bots getestet) ist einfach nochmal ne Klasse drüber, wobei 90 Hz defintiv schon "aushaltbar" sind.
Ich würde es vielleicht am ehesten mit WGHD vs 4K Auflösung bei 27 Zoll vergleichen. Im indirekten Vergleich (also nicht beide nebeneinander, sondern nacheinander) wirkt WQHD bereits wie 4K auf mich. Im direkten Vergleich sehe ich vielleicht noch einen Unterschied. Genauso wird es sich mit 90 vs. 144 Hz wohl verhalten.

robbitop
2015-04-26, 10:34:35
Beispielsweise gefällt mir Far Cry 4 optisch komplett ohne AA oder nur mit FXAA deutlich besser, als mit dem verwaschenen SMAA2T.
FXAA ist deutlich verwaschener als SMAA.

Kartenlehrling
2015-04-26, 10:47:49
er meint wohl das nachziehen, blurmotion verhalten unter SMAA2T, das unter Bewegung entsteht, das temporäre SMAA ist unter FC4 eine absolut Katastrophe.

robbitop
2015-04-26, 10:49:18
Achso ok. Ja FC4 hat ja auch schon TXAA versaut. Warum nicht auch SMAA T2x? :D

Aber generell ist SMAA T2x eigentlich ein sehr sehr guter Modus.

Alter Sack
2015-04-26, 10:54:50
FXAA ist deutlich verwaschener als SMAA.

In FXAA kann ich noch die einzelnen Ast-Strukturen der Bäume erkennen. Bei SMAA ist alles verwaschen.

robbitop
2015-04-26, 11:28:38
Liegt nicht an SMAA im Generellen sondern an FC4s Implementierung.

Alter Sack
2015-04-26, 11:50:51
Wie geschrieben:
Früher zu 1280x1024 oder 1680x1200 Zeiten war Kantenglättung fast schon Pflicht.

Auch auf 27 Zoll und 1920x1080 war Kantenglättung wichtig, aber auf 27 Zoll und 2560x1440 (FHD=2 Mio. Pixel vs. WQHD 3,65 Mio Pixel, was 70% mehr Pixel bei gleicher Größe sind!!), ist Kantenglättung für mich und mein Empfinden nicht mehr so wichtig, WENN man die frei gewordene Leistung dank GSync-144Hz in höhere FPS investieren kann.

Auf ein in der Bewegung wirklich flüssiges und unverschmiertes oder durch Tearing zerrissenes Bild möchte ich unter keinen Umständen mehr verzichten. GSync und 144 Hz sind da ein echter Segen!.
Wie das ganze vorher und bei FullHD, ohne GSync und mit 60 Hz aussieht, sehe ich ca. 2 Meter neben mir, wenn meine Frau auf ihrem 27 Zöller zockt. Ein für meine Erfahrung mit dem in der Signatur aufgeführten Bildschirm mittlerweile unvorstellbar-schlechte und veraltete Bildqualität!

Ich spreche hier nicht als ein Theoretiker (von denen es in Foren ja genug gibt, die eine eine Technik verteidigen oder dagegen sind, ohne es im täglichen praktischen Einsatz zu haben), sondern als Besitzer und Benutzer von GSync-144Hz, sowie von klassischer/veralteter FullHD-60Hz Technik.
Trotzdem ist das Empfinden wohl immer subjektiv.

robbitop
2015-04-26, 12:04:35
Ging mir bei dem Umstieg auf 1440p (ROG SWIFT) auch so. Es hängt aber auch davon ab, ob gerade kontrastreiche Kanten im Spiel sind. Da sehe ich Aliasing. Auch hängt es stark davon ab wieviel Specular Aliasing dabei ist.

Mit meiner Titan X @1450 habe ich oftmals sogar genug Leistung für 2,25x DSR (4K@1440p). Dazu ein bisschen FXAA/SMAA und es sieht schon ganz gut aus. Hin und wieder muss ich das ein oder andere Detail runterstellen (gibt zum Glück immer genügend Detailregler, die viel bringen und kaum BQ kosten).
Ziel sind bei mir 50 fps. Ohne DSR geht natürlich mehr an der fps-Front. Allerdings reichen mir 45-50 g-sync FPS (je nach Engine). Mehr fps bringen zwar noch einen Zugewinn an Flüssigkeit - aber der ist dann geringer. Je nach Spielertyp also mehr FPS oder mehr BQ.

Ich freue mich jetzt schon auf GP100 - dann geht vieleicht 5K / 5K DSR.

Ich bin allerdings enttäuscht von der Umsetzung von TXAA in immer mehr Spielen. In FC4 griff es kaum - in AC:U auch nicht (wurde das nicht aber später gefixt?) - und in GTA5 bringt es IMO auch nicht viel.

gnomi
2015-04-26, 12:18:52
Bei Unity und Far Cry 4 habe ich auch auf TXAA verzichtet, aber in GTA V finde ich 2*TXAA jetzt nicht schlecht.
DSR ist natürlich auch eine Option, aber eine native Auflösung von 1440P plus etwas AA finde ich schon extrem gut und 4k ist für die 980 zu viel.
Mit einer Titan X würde ich aber wohl eher diesen Weg gehen.

robbitop
2015-04-26, 12:43:05
Trotz TXAA gibt es viele Kanten, auf die es nicht greift. Auch gegen Flimmern in mittlerer bis hoher Distanz hilft es nicht immer. DSR hingegen schon.
TXAA basiert ja auf MSAA - und MSAA sollte eigentlich alle Polygonkanten behandeln - das ist bei GTA5 nicht der Fall. MSAA/TXAA ist teuer - ist aber kaum besser als FXAA (in GTA5). Normalerweise ist TXAA was Bildberuhigung und Glättung angeht um Welten besser.

gnomi
2015-04-26, 13:31:34
Ausgehend von Max PAyne 3 war aber auch nicht mit sonderlich besseren Ergebnissen zu rechnen. MSAA griff ja äußerst schlecht und war sehr teuer.

DSR ist in GTA V prinzipiell besser, aber wer lieber bei der nativen Auflösung bleiben will und bereits bei 1440P angelangt ist, fährt mit 2*TXAA eben auch sehr gut, da hier der Performance Verlust OK geht und 4GB VRAM reichen.
Und besser als FXAA ist es imho dann schon. (mit GSync, sonst nehme ich lieber das mehr an FPS)
MFAA 2* plus FXAA oder 2*TXAA ist dann aber auch egal.
Alles in allem sind das alles echt winzige Unterschiede.
Eventuell sollte ich mal alle DSR Faktoren durchtesten, aber es ist dann auch schnell Zeitverschwendung.
In diesem Bereich zocken sowieso nur ein kleiner einstelliger Prozentbereich und falls ich das Spiel 2/3 Jahre später spaßeshalber raushole, geht dann mit 2* 980 Leistung und neuer CPU auch 4k ausgefahren.
Der Glättungsgrad wird dann entsprechend super sein, aber neue Spiele dürften trotz ein paar Kanten und Flimmern wieder klar besser aussehen und mehr Spaß machen.

robbitop
2015-04-26, 13:34:57
MFAA geht doch aktuell nur in Zusammenhang mit MSAA. Wäre also MSAA 2x + MFAA.

gnomi
2015-04-26, 14:35:28
Stimmt auch wieder. :)
Dann fehlt wieder die Post AA Komponente, aber man hätte etwas mehr Performance beim MSAA. Glättung bleibt dabei schlecht.
Irgendwie gibt es viel zu viel Modi. Bin fast geneigt, nur noch kurz in der Experience einen Knopf zu drücken und optimieren zu lassen...

robbitop
2015-04-26, 14:39:04
MSAA kann man ja mit FXAA oder Inject SMAA kombinieren. Dadurch sieht man die unbehandelten Kanten (MSAA) nicht mehr. Leider hilft es nicht gegen Flimmerei.

dargo
2015-04-27, 09:45:11
LG 29UM67-P für 268€. :eek:
http://www.amazon.de/dp/B00VX8YX42/ref=asc_df_B00VX8YX4226028821?smid=A3JWKAKR8XB7XF&tag=geizhalspre03-21&linkCode=df0&creative=22498&creativeASIN=B00VX8YX42&childASIN=B00VX8YX42

Leider nicht auf Lager, aber der Preis ist heiß.

woodsdog
2015-04-27, 09:59:40
LG 29UM67-P für 268€. :eek:
http://www.amazon.de/dp/B00VX8YX42/ref=asc_df_B00VX8YX4226028821?smid=A3JWKAKR8XB7XF&tag=geizhalspre03-21&linkCode=df0&creative=22498&creativeASIN=B00VX8YX42&childASIN=B00VX8YX42

Leider nicht auf Lager, aber der Preis ist heiß.

Preisempfehlung von LG ist 450$... :|

Kartenlehrling
2015-04-27, 10:06:07
Interessant ist der Test vom 24" BenQ XL2420G,
er hat einen zusätzlichen Scaler verbaut damit man auch DVI und HDMI anschliessen kann.
Das die Werte so unterschiedlich sind zeigt aber auch das die jetztigen Gsync Mondule wohl nicht optimal arbeiten.
Vielleicht ist das kommende Gsync V2 wirklich eine Verbesserung.

http://www.tomshardware.com/reviews/benq-xl2420g-g-sync-monitor,4101.html
BenQ XL2420G G-Sync Monitor Review

The HDMI inputs support 60Hz-only.

LOL

AffenJack
2015-04-27, 10:25:00
Vielleicht ist das kommende Gsync V2 wirklich eine Verbesserung.


Was soll Gsync V2 sein? Höre davon zum ersten Mal.

Kartenlehrling
2015-04-27, 10:49:33
Neue Informationen zu Acers Spielemonitor XR341CK mit 3.440 × 1.440 Pixeln liegen vor, die sich von bisherigen Annahmen teils deutlich unterscheiden. Statt eines TN-Panels soll nun ein IPS-Panel eingesetzt werden, das mit bis zu 75 Hertz angesteuert werden kann. In zwei Varianten wird entweder FreeSync oder G-Sync geboten.

Nach Informationen von TFT Central unterstützt der Acer XR341CK AMDs FreeSync, während die Variante XR341CKA Nvidias G-Sync bietet. Weitere Unterschiede gibt es bei den Anschlüssen: Erstmals bietet ein G-Sync-Monitor mehr als nur einen DisplayPort, denn zusätzlich ist HDMI 1.4 vorhanden. Das FreeSync-Modell kann hingegen HDMI 2.0, DisplayPort-Ein- und Ausgang sowie Mini-DisplayPort vorweisen.

Von Acer will die Webseite erfahren haben, dass beim XR341CKA „G-sync v2“ eingesetzt wird. Eine neue Version des G-Sync-Moduls ist denkbar, die den Einsatz von mehr als einem Videoeingang ermöglicht. Zusätzlich soll das G-Sync-Modell die Technik ULMB (Ultra Low Motion Blur) unterstützen.


Quelle: TFT Central
http://www.computerbase.de/2015-04/acer-xr341ck-a-uwqhd-mit-freesync-oder-g-sync-auf-krummen-34-zoll/

robbitop
2015-04-27, 10:50:36
Was soll Gsync V2 sein? Höre davon zum ersten Mal.

Ist im Zuge mit dem Acer 34" G-Sync Monitor geteasert worden.

Vermutlich ist es jetzt ein günstiger ASIC statt eines teuren FPGAs. Offenbar werden jetzt auch HDMI Anschlüsse unterstützt (nicht für G-Sync - aber dass man HDMI Geräte überhaupt anschließen kann).

Vieleicht (!!! Spekulation) kommt auch adaptives ULMB bei G-Sync zum Einsatz. Wie wahrscheinlich das ist, weiß aber keiner. Äußerst spekulativ!

Grestorn
2015-04-27, 11:01:28
Angeblich sind doch alle ausgelieferten GSync Monitore mit einem ASIC ausgestattet. Ich habe gelesen, dass nur die Prototyp Nachrüst-GSync Board mit einem FPGA ausgestattet waren. Aber ich kann mich natürlich auch täuschen.

robbitop
2015-04-27, 11:15:35
Interessant. Ich habe davon außer hier im Forum noch nie gehört. Ich will allerdings auch meinen guten SWIFT nicht aufschrauben um nachzuschauen (bin ehrlich gesagt immernoch extrem zufrieden).

dargo
2015-04-27, 11:56:53
Preisempfehlung von LG ist 450$... :|
Lol. :freak:

Hätte ich die passende Graka würde ich mir den LG als Übergangslösung (1-2 Jahre) für die 268€ bestellen. Bei dem Preis würden mich nicht mal die min. 48Hz stören. Extra für den Bildschirm jetzt das hier zu kaufen:
http://geizhals.at/de/sapphire-radeon-r9-290-tri-x-oc-new-edition-1000mhz-11227-13-20g-a1224557.html?hloc=at&hloc=de

so kurz vor Fiji ist aber doof. :cool:

Sunrise
2015-04-27, 12:09:37
Angeblich sind doch alle ausgelieferten GSync Monitore mit einem ASIC ausgestattet. Ich habe gelesen, dass nur die Prototyp Nachrüst-GSync Board mit einem FPGA ausgestattet waren. Aber ich kann mich natürlich auch täuschen.
Woher kommt dieses "Angeblich"?

Es hat bisher einfach niemand einen Monitor mal aufgemacht, bis dahin ist das alles nur reine Vermutung. Auch Reviews schreiben immer "G-Sync module" was für mich kein Hinweis ist, dass sich da irgendwas am Modul (seit der Einführung) geändert hat.

Auch G-Sync v2 kann genausogut nur eine simple Überarbeitung des alten Moduls sein. Wir wissen es einfach nicht sicher.

MilesEdgeworth
2015-04-27, 12:27:53
Am sinnvollsten wäre doch der Umstieg auf Adaptive Sync. Könnte als GSync V2 immernoch als solches vermarktet werden. Dazu Anforderungen an die Hersteller (etwa nutzbarer Frequenzbereich etc), damit die Monitore GSync V2 zertifiziert werden .. :ugly:

mironicus
2015-04-27, 12:32:00
Vieleicht (!!! Spekulation) kommt auch adaptives ULMB bei G-Sync zum Einsatz.

DAS glaube ich nicht... :D

robbitop
2015-04-27, 12:34:40
Ich auch noch nicht. Technisch ist es aber machbar. Gipsel hat ein paar mal beschrieben, wie man es machen könnte. Und IIRC hat NV auch beim G-Sync Launch gesagt, dass sie daran arbeiten und es zu einem späteren Zeitpunkt möglicherweise bringen.

Ist also nicht unmöglich.

Unicous
2015-04-27, 12:39:26
Interessant. Ich habe davon außer hier im Forum noch nie gehört. Ich will allerdings auch meinen guten SWIFT nicht aufschrauben um nachzuschauen (bin ehrlich gesagt immernoch extrem zufrieden).

Das mit v2 würde ich als "Erfindung" von TFTCentral oder Acer interpretieren. was dahinter steckt weiß man nicht. Entweder wurde der FPGA samt restlicher Elektronik verändert oder Nvidia hat einen normalen Scaler eingebaut oder ist gar ein ASIC.

Leider, leider hat ja seither niemand mehr in den Monitor hineingeschaut.

robbitop
2015-04-27, 12:43:31
Es steht in den Folien von Acer. Kann also schonmal nicht von Tftcentral kommen. Wenn Acer das so auf seine Präsis druckt, wird das auch einen Grund haben.

Mindestens eine Änderung ist sichtbar: man kann nun HDMI anschließen. Das geht mit dem normalen G-Sync Modul nicht. Also scheint es ja eine Überarbeitung zu geben.

Unicous
2015-04-27, 12:56:58
Folien? Gibt's da einen Link?

Aber jetzt wo du es sagst, in der PM stand v2 drin.

Kartenlehrling
2015-04-27, 13:07:43
bei acer schreiben sie ja von einer G-sync Module version: 198, das klingt doch nach V1.98,
da wär nicht mehr viel Luft als dann auf V2 ( 200) zu kommen, ausser man nimmt noch Buchstaben und dritte stelle nach dem Komma.


Sehe gerade man könnte auch nur das Firmware meinen.

G-sync MCU FW version 1.12

fondness
2015-04-27, 15:42:06
Der ASUS MG279Q ist bei Alternate lieferbar:
https://www.alternate.de/ASUS/MG279Q-LED-Monitor/html/product/1198150?campaign=Monitor/ASUS/1198150

Sobald ihn jemand hat bitte melden und den FreeSync-Range austesten bzw. allgemein sagen wie sich der Monitor so schlägt. :)

Unicous
2015-04-27, 16:38:05
Scheint so, als habe sich Alternate die erste Charge gesichert, denn Baddass (von TFTCentral) sagt:

Are these still on track for arriving next week?

i really doubt it. Asus UK don't have an ETA on when they are expecting a sample in, so i cant imagine actual retail stock will be ahead of that!

http://forums.overclockers.co.uk/showpost.php?p=27964058&postcount=144

horn 12
2015-04-27, 17:02:08
Wäre klasse vor dem Feiertag ein End-User / Review Test des Asus Monitors.

fondness
2015-04-27, 17:19:32
Die Samsung E590D 4K FreeSync Monitore haben auf jeden Fall schon mal ein TN-Panel wie Samsung mittlerweile bestätigt:
http://www.samsung.com/de/consumer/displays/displays/uhd/LU28E590DS/EN

Bleibt nur noch die Frage wie es bei den E850R-Monitoren aussieht.

Sunrise
2015-04-27, 18:03:46
Bleibt nur noch die Frage wie es bei den E850R-Monitoren aussieht.Sagen wir es mal so, der große 32" 850R steht für rund 1199 EUR aktuell in den Preisvergleichen. Wenn das ein TN ist, wäre das ziemlich daneben, glaube ich deshalb nicht.

FlashBFE
2015-04-27, 23:07:44
Die Samsung E590D 4K FreeSync Monitore haben auf jeden Fall schon mal ein TN-Panel wie Samsung mittlerweile bestätigt:
http://www.samsung.com/de/consumer/displays/displays/uhd/LU28E590DS/EN

Bleibt nur noch die Frage wie es bei den E850R-Monitoren aussieht.
Bitte genau hingucken: Auf der Seite ist nur der U28E590D aufgeführt. Vom 24"er ist noch nichts zu sehen. Bis jetzt sind die Spezifikationen von OCUK also nicht widerlegt.

mironicus
2015-04-28, 09:13:51
LG 29UM67-P für 268€. :eek:
http://www.amazon.de/dp/B00VX8YX42/ref=asc_df_B00VX8YX4226028821?smid=A3JWKAKR8XB7XF&tag=geizhalspre03-21&linkCode=df0&creative=22498&creativeASIN=B00VX8YX42&childASIN=B00VX8YX42

Leider nicht auf Lager, aber der Preis ist heiß.

Der kostet jetzt wieder 329 Euro. Glaube aber nicht, das der nachträglich stoniert wird. Zu dem Preis war er gut. Mit einer normalen R290 sollte der Framebereich 48-75 kein Problem beim Spielen darstellen.

Kartenlehrling
2015-04-28, 13:56:41
Auf Amazone gibts den Acer Predator XB270HUbprz (g-sync) 749€, da kann man zuschauen wie sie weggehen, gerade in 1std ca 10stk verkauften, gerade noch 12 11 da also los.

Alternate.de hat den ersten Asus MG279Q (freesync) 649€ seltsamerweise auch noch auf Lager, die müssen auch einen ganzen Container angenommen haben.

Unicous
2015-04-28, 14:06:44
Also er wird anscheinend schon ausgeliefert.

[...]Habe den asus mg279q gerade bekommen nachdem ich im Geschäft den Acer gesehen hatte war mir klar das es der nicht wird und habe mir dann doch den Asus bestellt.
Bis jetzt habe ich einen sehr guten eindruck von dem Gerät und auch das backlight bleeding ist mehr als im Ramen, die 144hz packt er auch [...]

http://extreme.pcgameshardware.de/monitore/387168-gerade-den-mg279q-bekommen.html

Kartenlehrling
2015-04-28, 14:18:06
wieso hast du das zweite posting nicht dazu geposte?
Er hat genauso wie ich keine freesync taugliche HD7970, die 144Hz werden ohne freesync erreicht,
also wie es schon immer war bei einem "normalem" 144Hz Monitor.


asus mg279q

....die 144hz packt er auch
Weil so suggeriert dein posting das der Monitor 144Hz freesync kann, das ist noch nicht bestätigt.

Momentan kann ich Freesync noch nicht testen aber ich versuche leihweise an eine 290X ranzukommen.
Das Backlight bleeding ist ungefähr so wie bei dem ACER und wird durch den IPS Glow noch "verstärkt" ist aber in dem Ramen den man bei IPS erwarten kann.
IPS ist nunmal nicht das non plus ultra.

Wichtig wär nur zu wissen ob es diese stark leuchtende rechte untere Ecke gibt,
das man kein VA Schwarz bekommt sollte wohl jedem klar sein.

Unicous
2015-04-28, 14:24:12
Hast du irgendein Problem?:confused: Ich habe kurz geguckt, ob schon jemand den Monitor von Alternate bekommen hat, weil ich skeptisch war ob die Angaben bei Alternate der Wahrheit entsprechen. Es ging mir um diese Aussage, nicht ob derjenige eine FreeSync-fähige Karte hat.


Mein Posting suggeriert gar nichts. Ich habe nur etwas zitiert.

Kartenlehrling
2015-04-28, 14:42:26
Das ist genauso wie dein "Und?" vor ein paar Tagen,
wenn man einwenig die Vorgeschichte kennt und
dann sowas liest "asus MG279Q....die 144hz packt er auch", kann man was anderes rauslesen.

Weil Asus hat erstmal was anderes geschrieben,
auch wird in den Forums geschrieben das AMD Grafikkarten an G-sync Monitor keine 144Hz einstellen können.

FreeSync™ Technology Demo (For example: MG279Q)

Note:
• If there shows no option of FreeSync function, it means the model doesn't support this.
• FreeSync only can be activated within “35Hz ~ 90Hz”.
• FreeSync supported AMD GPUs: Radeon R9 295X2, R9 290, and R9 285 graphics cards.
• For other supported GPUs, minimum PC system and driver requirements, please contact the GPU manufactures.



http://www.asus.com/support/Search-Result-Detail/5138EA9F-0612-492D-88F5-D6AEA2A39423/?keyword=MG279Q

Unicous
2015-04-28, 15:09:39
Und von Asus gab es mittlerweile die Bestätigung, das dem wohl nicht so ist. Die Beschränkung ist ja auch nach oben hin an sich eher paradox, aber dennoch könnte sie theoretisch dem Panel und/oder einer Beschränkung der Elektronik geschuldet sein.

Ich könnte auch extra für dich das Zitat anpassen, verstehe bloß nicht warum du mich so schräg von der Seite anmachst. Ich habe Kontext und Zitat zu dem Link geschickt und nicht einfach eben jenen der gewaschenen und gepflegten Masse vor die Füße geworfen.


(btw. der Monitor ist auch für nicht FreeSyncler interessant, z.B. für mich)

Kartenlehrling
2015-04-29, 15:51:22
Und von Asus gab es mittlerweile die Bestätigung, das dem wohl nicht so ist.

Soviel dazu zur deinen Asus Quellen. :eek:


http://abload.de/img/img_0243w6si9.jpg

Und die Ecke wie beim Acer hat der MG279Q anscheinen auch,
die frage ist wie stark es auch im Betrieb durchscheint zb. in dunklen Spiele und 21:9 Filme und da stört.

https://docs.google.com/file/d/0BxeeauwZVbC_TXVYZmhKVDFKT3c/edit
Aaaalso meiner ist da

Es ist ein leichtes gelbes BLB im rechten unteren Bereich zu sehen wenn man von leicht oben schaut, von vorne auf jeden Fall nur minimal!
hab mit einem schwarzen Bild getestet.

Sobald man dieses in paint offen hat und taskleiste usw hat sieht man nix davon!

Mein Z3 stellt das BLB deutlich extremer dar als es ist! Bild folgt gleich.

Das BLB ist für mich also nicht wahrnehmbar im dunkeln sobald man noch etwas helles aufm Bildschirm hat.
Bei Farben bemerkte ich keine farbverschiebung ins gelbliche.

Sobald eine Lampe im Zimmer an ist (bei Rollo zu) merkt man garnix mehr von BLB bei mir.

Pixelfehler habe ich nach kurzen drüberblicken auf weißem Grund keine gefunden!

Da bei manchen das BLB ja nach 2-3 Stunden schlimmer wurde schreib ich dann nochmal wie es ist.
Aber nach aktuellem stand bin ich komplett zufrieden!! :)


Irgendwie streikt kabel Deutschland bei mir gerade deswegen vom Handy geschrieben.



Edit: hier link zum Bild (geht gerade nicht anders)
https://docs.google.com/file/d/0BxeeauwZVbC_TXVYZmhKVDFKT3c/edit?usp=docslist_api

Der monitor ist mir auch noch etwas hell eingestellt aber ich wollte mit Standardeinstellungen testen!

robbitop
2015-04-29, 15:53:34
Das dachte ich mir fast. Solche Dinge denkt sich keiner einfach so aus. Interessant wäre zu wissen, woran es liegt.

Unicous
2015-04-29, 15:54:34
@Kartenlehrling

"Meine" Asus-Quellen?

Hörst du jetzt mal mit deiner passiv-aggressiven Trollerei auf?


Asus hat das Computerbase so bestätigt, ich kann nichts dafür wenn der PR-Typ u.U. Blödsinn erzählt.:rolleyes:

aufkrawall
2015-04-29, 15:55:27
Quelle und Infos drumrum?
Wenn das Bild alles sagt, wärs natürlich ein Griff ins Klo...

Elite_Warrior
2015-04-29, 15:56:15
:ufinger:
Dann wird eben auf DP1.3 gewartet. Keine Lust mir eine Freesync Beta anzutun. War doch sehr scharf auf den Monitor. Wirds eben 4k@120hz+

Und Frameverdopplung wie bei Gsync ist auch nicht Aussicht oder?

Kartenlehrling
2015-04-29, 16:17:00
Die gelbe BLB Ecke stört mich mehr als die 35-90Hz Freesync Beschränkung,
die Spiele die man in >100fps auf 1440p spielt kann man warscheinlich an 2 Händen abzählen davon spiel ich Null(00).

Unicous
2015-04-29, 16:21:40
Quelle und Infos drumrum?
Wenn das Bild alles sagt, wärs natürlich ein Griff ins Klo...

Da Kartenlehrling zu faul ist:

http://www.hardwareluxx.de/community/f111/ips-monitore-mit-144-hz-und-1440p-1054362-66.html#post23433402

Kartenlehrling
2015-04-29, 16:28:44
steht doch auf dem Bild :)

... und das witzige das man auch auf dem Bild sein Taskleistensymbol von Nvidia sieht, er hat nähmlich ein gtx980SLI Gespann im Rechne (http://www.hardwareluxx.de/community/f111/ips-monitore-mit-144-hz-und-1440p-1054362-66.html#post23433402)r.

aufkrawall
2015-04-29, 16:28:47
Leider hat es noch niemand in Spielen überprüft. Aber es wird wohl so sein und nicht nur zum Spaß so etwas im OSD stehen.

Kartenlehrling
2015-04-29, 16:46:41
Das ist wirklich ein Witz,
die ersten die diesem Asus Freeync MG279Q Monitor bestellt haben und infos abliefern haben eine HD7970 oder GTX980SLI im Rechner.

Unicous
2015-04-29, 16:51:09
Und wo genau liegt das Verbrechen? Dieser Monitor ist auch ohne x-Sync ein attraktiver Monitor.

Kartenlehrling
2015-04-29, 17:00:05
Es ist kein verbrechen,
ich habe auch nur eine HD7970 und diesen MG279Q bei Hardwareversand.de bestellt für 580€,
nur um eine Kundenrezensionen über Freesync zu bekommen wär es halt hilfreich wenn diese Käufer auch eine R9285 oder R9290 wenigsten hätten.

Nightspider
2015-04-29, 18:18:12
Ist im Zuge mit dem Acer 34" G-Sync Monitor geteasert worden.

Vermutlich ist es jetzt ein günstiger ASIC statt eines teuren FPGAs. Offenbar werden jetzt auch HDMI Anschlüsse unterstützt (nicht für G-Sync - aber dass man HDMI Geräte überhaupt anschließen kann).

Vieleicht (!!! Spekulation) kommt auch adaptives ULMB bei G-Sync zum Einsatz. Wie wahrscheinlich das ist, weiß aber keiner. Äußerst spekulativ!

Was ist jetzt gleich nochmal adaptives ULMB? Das Gleiche wie ULMB? ^^"

robbitop
2015-04-29, 18:36:59
ULMB das mit adaptiver Refreshrate kombinierbar ist.

Gipsel
2015-04-29, 18:52:18
Was ist jetzt gleich nochmal adaptives ULMB? Das Gleiche wie ULMB? ^^"Backlight Strobing in Kombination mit variabler Framerate. Das macht eine aufwendigere Ansteuerung des Backlights nötig, damit sich die Helligkeit nicht mit der Framerate ändert und es bei niedrigen Frameraten nicht zu flimmern anfängt. Dafür muß man einen Übergang vom gepulsten Backlight zu kontinuierlichem hinbekommen (der Monitorhersteller muß dafür das verbaute Backlight bzw. deren Dioden halbwegs genau charakterisieren und die Regler für das Backlight müssen das auch mitmachen).

Beim normalen Backlight-Strobing kommt ein neues Frame, die Panelelektronik updated die Pixelmatrix und dann wird das Backlight auf maximaler Helligkeit kurz eingeschaltet (und dann wieder aus). Bei 144Hz Refreshrate könnte das Backlight also z.B. 5,94ms ausgeschaltet sein und nur 1ms an (die Helligkeit wird dann über die Länge des Backlight-Pulses gesteuert). Bleibt man bei dieser 1ms Pulslänge, wird bei niedrigerer Refreshrate das Bild dunkler und fängt auch recht bald an zu flimmern. Länger machen kann man den Puls auch nicht, da man nicht weiß, wie lange es bis zum nächsten Frame dauert (oder man gibt die Frames immer verzögert aus, aber das würde dem ganzen Konzept von variablen Frameraten zur Senkung der Latenz widersprechen). Was ist also die Lösung?
Nach dem 1ms Puls wird das Hintergrundlicht erstmal nicht komplett ausgeschaltet, sondern konstant mit einem Strom betrieben, der eine Helligkeit von 1/6,94 der Maximalhelligkeit im Puls entspricht (bei anderen Pulslängen, also am Monitor eingestellten Helligkeit entsprechend andere kontinuierliche Helligkeit). Erst bei Eintreffen eines neuen Frames wird das Backlight dann komplett ausgeschaltet. Damit das funktioniert, muß man (genauer gesagt die Firmware des Monitors) also recht genau wissen, welcher Strom welche Helligkeit verursacht. Und das muß auch noch nach dem Altern der Dioden in einem oder zwei Jahren stimmen. Es ist also mehr Aufwand, aber nicht unmöglich. Bei niedrigeren Frameraten als dem Maximalrefresh verliert sich dann die Wirkung das Strobings allmählich, weil mehr und mehr Licht aus der kontinuierlichen Phase kommen. Die Bewegungsunschärfe nimmt dann also vom Maximalrefresh zu niedrigeren Frameraten hin langsam zu. Aber das läßt sich nun mal nicht verhindern und wäre wohl akzeptabel.

Kartenlehrling
2015-04-29, 19:18:53
Gipsel du bist wirklich ein Astronom und kein Astronaut.
Gibt es überhaupt "heute" ein Gaming Monitor wo ULMB mit 144Hz funktioniert?

fondness
2015-04-29, 19:21:24
Jedenfalls hat das ASUS laut User-Berichten dasselbe Backlight-Bleeding wie der Acer und damit ist das Panel bedingt und man kann die IPS/144Hz Monitore erst mal ad acta legen.

http://extreme.pcgameshardware.de/monitore/387168-gerade-den-mg279q-bekommen-2.html

Ich gehe damit wohl doch auf 4K/IPS/60Hz.

Nightspider
2015-04-29, 19:22:48
ULMB das mit adaptiver Refreshrate kombinierbar ist.
Backlight Strobing in Kombination mit variabler Framerate. Das macht eine aufwendigere Ansteuerung des Backlights nötig, damit sich die Helligkeit nicht mit der Framerate ändert und es bei niedrigen Frameraten nicht zu flimmern anfängt. Dafür muß man einen Übergang vom gepulsten Backlight zu kontinuierlichem hinbekommen (der Monitorhersteller muß dafür das verbaute Backlight bzw. deren Dioden halbwegs genau charakterisieren und die Regler für das Backlight müssen das auch mitmachen).

Beim normalen Backlight-Strobing kommt ein neues Frame, die Panelelektronik updated die Pixelmatrix und dann wird das Backlight auf maximaler Helligkeit kurz eingeschaltet (und dann wieder aus). Bei 144Hz Refreshrate könnte das Backlight also z.B. 5,94ms ausgeschaltet sein und nur 1ms an (die Helligkeit wird dann über die Länge des Backlight-Pulses gesteuert). Bleibt man bei dieser 1ms Pulslänge, wird bei niedrigerer Refreshrate das Bild dunkler und fängt auch recht bald an zu flimmern. Länger machen kann man den Puls auch nicht, da man nicht weiß, wie lange es bis zum nächsten Frame dauert (oder man gibt die Frames immer verzögert aus, aber das würde dem ganzen Konzept von variablen Frameraten zur Senkung der Latenz widersprechen). Was ist also die Lösung?
Nach dem 1ms Puls wird das Hintergrundlicht erstmal nicht komplett ausgeschaltet, sondern konstant mit einem Strom betrieben, der eine Helligkeit von 1/6,94 der Maximalhelligkeit im Puls entspricht (bei anderen Pulslängen, also am Monitor eingestellten Helligkeit entsprechend andere kontinuierliche Helligkeit). Erst bei Eintreffen eines neuen Frames wird das Backlight dann komplett ausgeschaltet. Damit das funktioniert, muß man (genauer gesagt die Firmware des Monitors) also recht genau wissen, welcher Strom welche Helligkeit verursacht. Und das muß auch noch nach dem Altern der Dioden in einem oder zwei Jahren stimmen. Es ist also mehr Aufwand, aber nicht unmöglich. Bei niedrigeren Frameraten als dem Maximalrefresh verliert sich dann die Wirkung das Strobings allmählich, weil mehr und mehr Licht aus der kontinuierlichen Phase kommen. Die Bewegungsunschärfe nimmt dann also vom Maximalrefresh zu niedrigeren Frameraten hin langsam zu. Aber das läßt sich nun mal nicht verhindern und wäre wohl akzeptabel.

Merci!

Skysnake
2015-04-29, 19:28:32
@Gipsel:
Da hat man aber das Problem noch immer mit der Serienstreuung usw.

Da wäre es wohl nicht unbedingt eine schlechte Idee, eine oder mehrere Referenzdioden zu bauen, und schlicht mit ner Photodiode die Leuchtkraft aus zu messen. Damit könnte man dann ohne Probleme die Hardware füttern, und entsprechend adaptiv nachregeln, je nachdem wie sich die Dioden verändern.

Gipsel
2015-04-29, 20:21:48
@Gipsel:
Da hat man aber das Problem noch immer mit der Serienstreuung usw.Die ist bei einer Stromsteuerung hinreichend klein. Sonst würden Dir auch Helligkeitsunterschiede der verschiedenen LEDs der Hintergrundbeleuchtung auffallen (das ist vielleicht meßbar, aber nicht auffällig).
Wenn Du das nicht glaubst, nimm Dir zwei oder mehr LEDs einer Serie und schalte die in Reihe (dann liegt leicht unterschiedliche Spannung an den einzelnen Dioden, aber es fließt durch alle der exakt gleiche Strom). Die werden immer ziemlich gleich hell sein. Parallelschaltung sollte man allerdings vermeiden (gleiche Spannung, durch Serienstreuung aber leicht unterschiedliche Schwellspannungen und durch die nichtlineare Kennlinie ein stark unterschiedlicher Strom und damit Helligkeit) ;).

Gipsel
2015-04-29, 20:23:14
Gipsel du bist wirklich ein Astronom und kein Astronaut.
Gibt es überhaupt "heute" ein Gaming Monitor wo ULMB mit 144Hz funktioniert?Dann nimm halt 100 oder 120Hz. Mein Gott, das war ein Beispiel um das Prinzip zu erläutern.

Skysnake
2015-04-29, 20:38:10
Mir ging es eher darum, das man die Nichtlinearitäten aus dem unterschiedlich hellem Strom ausgleicht.

Also das man eben nicht die Dinger sehr genau charakterisiert, sondern schlicht schaut, was den entsprechenden Wert ergibt. Einen Photosensor dafür zu bauen sollte ja kein großes Problem sein. Damit könnte man dann den Strom für die Dauerbeleuchtung sehr genau anpassen an die anforderungen, ohne sich groß Gedanken darüber machen zu müssen, wie die Kennlinie jetzt aussieht, und sich eventuell sogar aufgrund von Temperatur usw verändert.

Kartenlehrling
2015-04-29, 20:41:06
Eizo hat von ihrem Motion240 eine recht gute pdf geschrieben.

http://www.eizoglobal.com/support/db/files/technical_information/foris/Turbo240.pdf

Gipsel
2015-04-29, 20:53:43
Mir ging es eher darum, das man die Nichtlinearitäten aus dem unterschiedlich hellem Strom ausgleicht.

Also das man eben nicht die Dinger sehr genau charakterisiert, sondern schlicht schaut, was den entsprechenden Wert ergibt. Einen Photosensor dafür zu bauen sollte ja kein großes Problem sein. Damit könnte man dann den Strom für die Dauerbeleuchtung sehr genau anpassen an die anforderungen, ohne sich groß Gedanken darüber machen zu müssen, wie die Kennlinie jetzt aussieht, und sich eventuell sogar aufgrund von Temperatur usw verändert.Wahrscheinlicher halte ich, daß man den Euro dafür spart dafür ein paar Prozent Variabilität in Kauf nimmt, weil das sowieso kaum bemerkt wird (das Helligkeitsempfinden ist eher logarithmisch).

Skysnake
2015-04-29, 21:02:16
Klar, so lange es nicht wirklich nötig ist, lässt man es weg, aber wirklich viel Aufwand ist es eben auch nicht. Sprich, es ist eher ein wollen, denn eine wirkliche technologische Herausforderung, das zu bringen.

Gipsel
2015-04-29, 22:50:28
Eizo hat von ihrem Motion240 eine recht gute pdf geschrieben.

http://www.eizoglobal.com/support/db/files/technical_information/foris/Turbo240.pdfNur daß dabei keine Frames verdoppelt werden und das Backlight in der Realität mit 120Hz gepulst wird statt wie dort behauptet mit 240Hz. Also eigentlich ist es keine so ganz gute Beschreibung. :rolleyes:

Kartenlehrling
2015-04-30, 11:28:47
Bei Gamestar haben sie eine Zusammenstellung von einigen G-sync und Freesync Monitore gemacht.

http://www.gamestar.de/hardware/praxis/tft-monitore/3085216/monitor_uebersicht.html#top
Marktübersicht: Freesync- und G-Sync-TFTs


Neues BLB Foto vom MG279Q gibts auch.
http://abload.de/img/img_1531b2kpu.jpg

Phlox
2015-04-30, 11:44:33
http://www.gamestar.de/hardware/praxis/tft-monitore/3085216/monitor_uebersicht.html#top
Marktübersicht: Freesync- und G-Sync-TFTs


Danke für den Link, schöne Übersicht :up:

Skysnake
2015-04-30, 12:24:06
Bei Gamestar haben sie eine Zusammenstellung von einigen G-sync und Freesync Monitore gemacht.

http://www.gamestar.de/hardware/praxis/tft-monitore/3085216/monitor_uebersicht.html#top
Marktübersicht: Freesync- und G-Sync-TFTs


Neues BLB Foto vom MG279Q gibts auch.
http://abload.de/img/img_1531b2kpu.jpg
Autsch, der Lichthof unten rechts ist aber heftig.

robbitop
2015-04-30, 12:25:04
Die Acer Predators mit dem gleichen Paneltyp haben das gleiche Problem. Wäre auch zu gut um wahr zu sein.

aufkrawall
2015-04-30, 12:45:33
Panels krumm und drücken auf Backlight? :freak:
Wär interessant, falls irgendein Bastler durch Veränderungen an der Rahmenstatik das ausgebügelt bekäme.

robbitop
2015-04-30, 13:33:11
Das würde mich auch mal interessieren.

Kartenlehrling
2015-04-30, 14:16:36
Beim Acer hätte ich noch daran gedacht das man mit gezielten Druck auf die Panele die Ecke ausbügeln kann,
nachdem Asus mit dem gleichen Problem zu kämpfen hat glaube ich nicht mehr daran.

Ich glaube das auch das Flimmerfrei mit reinspielt,
bei immer mehr Monitor die diese funktion haben kann es aber zum memoryeffekt führen, ein nachleuchten der LEDs.
Gerade bei solchen Fälle könnte ein Backlight-Pulsen nicht nur Schlieren und Ghosting verhindern sondern auch ein nachleuchten von LEDs.

Unicous
2015-05-01, 15:42:00
Some information suggesting the Asus MG279Q IPS will only support FreeSync between 35 - 90Hz. Seems odd and we are seeking clarification


https://twitter.com/TFTCentral/status/594083444424110080

Jim - ASUS
ASUS Rep

I just read the Sweclockers report, came here as I figured you all would've seen it too.

I'm making enquiries now.

http://forums.overclockers.co.uk/showpost.php?p=27982585&postcount=177

Hoffentlich bekommt der doofe Kunde mal eine Erklärung, bzw. Aufklärung.

woodsdog
2015-05-01, 17:27:32
was genau ist denn jetzt so schlimm an 30-90?!

samm
2015-05-01, 17:38:38
Dass dieser Monitor an sich 144Hz schafft, und Adaptive Sync von den Specs her auch problemlos 35-144Hz abdecken könnte, und es andere Monitore gibt, die Free-/GSync bis 144Hz bieten, einer davon sogar mit dem gleichen Panel (ein Acer GSync).

ndrs
2015-05-01, 17:39:24
was genau ist denn jetzt so schlimm an 30-90?!
An sich wenig bis nichts, aber die Beschränkung auf weniger als das was das Panel ohne xSync kann hat keinen offensichtlichen technischen Grund.

Unicous
2015-05-01, 21:50:43
Kommentar eines Rep von Nixeus (Hersteller des Adapative Sync Prototyp-Monitor@Computex'
14)

Overdrive has been working on our NX-VUE24 monitors with Freesync Beta Drivers since day one when we received the very first Freesync drivers last year to start validating our monitors - we just had to fine tune it because it was too strong.

Over Drive was not a major issue during our Adaptive Sync monitor development, so I was a bit confused when reviews came out with it being an issue and I want to make sure all information were made public before I contributed to this thread.

On the monitor development side, AMD did left it up to us as on how we want to implement our choice of monitor hardware and features - including Over Drive. They provide us with recommendations on development - for example emphasizing that we provide legacy support and to include speakers since Freesync supports audio (I wanted to make a DisplayPort only Adaptive Sync Monitor with no speakers).

AMD Freesync Certification is not as lax or easy as it is perceived - we still have to overcome one major Freesync Validation requirement before it can be certified.

At the same time we do our own monitor validation process (unrelated to Adaptive Sync/Freesync) which can take a long time going through several hardware and firmware revisions to make sure we deliver a quality product.
http://www.overclock.net/t/1546934/various-amd-freesync-reviews/1640#post_23859659

Rente
2015-05-01, 21:53:52
Gute Nachricht, allerdings ging doch niemand wirklich davon aus das Overdrive mit FreeSync unmöglich ist, oder?
Ich hoffe nur für Besitzer eines FreeSync-Gerätes das das Software-seitig behoben werden kann...

Unicous
2015-05-01, 21:56:27
Dann lies dir mal den Thread hier durch.:wink:

Vor allem wurde AMD die Schuld in die Schuhe geschoben. Selbst von Herstellerseite (bzw. BenQs Support-Mitarbeitern).


Ein kleiner Skandal für mich ist weiterhin, wie man von LG, Acer und BenQ verarscht wird. Monitore im Beta-Status, während Asus es schon hinbekommen hat und ein kleines US-Unternehmen damit offenbar auch keine Probleme hat.

aufkrawall
2015-05-01, 21:57:57
Gute Nachricht, allerdings ging doch niemand wirklich davon aus das Overdrive mit FreeSync unmöglich ist, oder?

Das hieß es afaik nirgends. Ich finde leider den Link nicht, in dem die Rede von Firmware- und Treiber-Updates war.

Viel interessanter ist aber imho derzeit, ob denn der Asus jemals mit 144Hz & FS laufen wird.
Ist wirklich ärgerlich, dass das nicht reibungsfrei über die Bühne ging.

maguumo
2015-05-01, 21:58:08
Wie "since Freesync supports audio"? Was hat denn Audio mit FreeSync zutun?

Unicous
2015-05-01, 22:03:52
Ich weiß es selbst nicht aber kann es sein, dass G-Sync (v1) keine speaker unterstützt?

Ich habe mal kurz bei gh geguckt und lediglich der neue Acer G-Sync 34"er hat wohl speaker, bei Freesync haben Asus, LG und Acer welche.

maguumo
2015-05-01, 22:28:15
Meinst du? Kann mir kaum vorstellen das es großartig Aufwand wäre das Audio Signal durch den FPGA (oder ASIC...) durchzuschleifen... Andererseits scheinen sie viel enger mit den Herstellern zusammengearbeitet zu haben, also vielleicht war es einfach nicht nötig weil sowieso keiner Lautsprecher verbauen wollte.

Unicous
2015-05-01, 22:35:31
Also beim ersten G-Sync Monitor sah es so aus:wink::

You can also see that NVIDIA left the speakers intact, there’s just no place for them to connect to.
http://www.anandtech.com/show/7582/nvidia-gsync-review

Und seitdem hatte anscheinend keiner der Monitore intakte Lautsprecher. Beim Acer werden sie explizit genannt.

Kartenlehrling
2015-05-01, 22:38:52
Um den Nixeus ist es ja auch still geworden,
da es sowieso nur ein 24 inch TN oder PVA werden sollte ist es nur eine Randmeldung.

Das hier keiner im Forum Eier hatte sich einen MG279Q bei Altenate zu bestellen ich auch traurig. :tongue:

maguumo
2015-05-01, 22:52:49
Also beim ersten G-Sync Monitor sah es so aus:wink::


http://www.anandtech.com/show/7582/nvidia-gsync-review

Und seitdem hatte anscheinend keiner der Monitore intakte Lautsprecher. Beim Acer werden sie explizit genannt.

Das wusste ich nicht...

Den MG 279Q hätte ich bestellt wenn er ~500€ gekostet wurde. Hieß es auf der CES nicht das der ne MSRP von 500$ hat?

Kartenlehrling
2015-05-01, 22:57:39
$599 us Dollar. (https://www.youtube.com/watch?v=F1deIQjp4M0)

Unicous
2015-05-01, 23:02:54
Hat er doch (wahrscheinlich auch). $500 599 MRSP in den USA:freak:

Hier kostet das Ding eben ein klein wenig mehr.

@Nixeus-Monitor

Der war von Anfang an für Q2 vorgesehen und die validieren den wohl gerade.

https://twitter.com/Nixeus/status/579532729273831424
https://twitter.com/Nixeus/status/575921834677248000
https://twitter.com/Nixeus/status/591745052877201408

Der wird aber wahrscheinlich eh nicht in europäische Gefilde gelangen. Eigentlich schade.

Kartenlehrling
2015-05-01, 23:39:43
Nixeus Technology
‏@Nixeus

Validating #nixeus NX-VUE24 on the #amd #pcgaming rig with @xfx_playhard #amdradeon R9 285! #freesync https://instagram.com/p/14EW_uxCbx/

Ist die amd PCgaming nicht auf der E3-2015,
die ist doch erst am 16.06 somit reizen sie das zweite Quartal (Q2-2015) ganz schön aus.



https://igcdn-photos-h-a.akamaihd.net/hphotos-ak-xap1/t51.2885-15/11189712_1102885659727223_801181055_n.jpghttps://pbs.twimg.com/media/CD1648qWgAANC9u.jpg

Auf der E3 2015 halten zum ersten Mal nicht nur Hersteller eine Pressekonferenz ab.
Chiphersteller AMD und die Herausgeber des PC Gamer-Magazins haben sich zusammengeschlossen,
um eine Pressekonferenz abzuhalten, die einzig und allein auf PC-Spiele zugeschnitten ist.

Unicous
2015-05-01, 23:48:24
Das eine hat nichts mit dem anderen zu tun.

Das sind nur zufällige Hashtags. Der Monitor wird mit einem "Spielecomputer" (pc gaming rig) von von AMD validiert.

StefanV
2015-05-02, 00:46:11
Wie "since Freesync supports audio"? Was hat denn Audio mit FreeSync zutun?
DP unterstützt Audio, somit kann man das Audio Signal über das gleiche Kabel führen.

Wenn das ganze jetzt über die gleiche 'Display Engine' läuft, könnte, neben dem Bild, auch der Ton mit dem Bild ausgegeben werden und somit 'Bildgenau' übergeben werden.

Rente
2015-05-02, 00:49:14
Das halte ich für unwahrscheinlich, das wurde nirgends auch nur in einem Sterbenswörtchen erwähnt und stelle ich mir technisch auch eher schwierig vor.

maguumo
2015-05-02, 02:14:20
Vor allem würde das keinen Sinn machen. Abgesehen davon das das einfach nicht möglich ist (wie hört sich das denn an wenn man den Ton zusammenstaucht/streckt?) ist das auch überhaupt nicht notwendig, der wird doch sowieso kontinuierlich ausgegeben...

Was sein kann ist das die ersten GSync FPGAs das Audio Signal nicht durchschleifen konnten wie Unicous angemerkt hat... Wobei Lautsprecher bei einem Gaming Monitor kaum einen Einfluss auf die Kaufentscheidung haben dürften...

Mandalore
2015-05-02, 23:51:39
Hat jemand ne Ahnung wann die UHD-FreeSync Monitore von Samsung veröffentlicht werden?

Unicous
2015-05-02, 23:55:54
Lang kanns ja nicht mehr dauern, wenn schon die Handbücher gedruckt werden.:wink:

Ich schätze mal Mai/Juni. Der Overclockers UK Shop rechnet mit Mitte (18.) Mai.

OC_Burner
2015-05-03, 00:14:31
Die Deutschen Shops meinen laut Geizhals-Übersicht sogar erst den 18. Juni.

Unicous
2015-05-03, 00:32:17
Ja, das ist ganz komisch. Anscheinend hat sich OcUk exklusiv die komplette erste Charge geschnappt, ich weiß aber nicht ob das für Gesamteuropa gilt oder nur für UK.

Dafür war der Asus u.a. bei Alternate verfügbar. Aber was ich gerade feststelle: https://www.alternate.de/ASUS/MG279Q-LED-Monitor/html/product/1198150?campaign=AF/DeZanox/Textlinks/Alternate&zanpid=2029711662659392512

Der Artikel ist zur Zeit leider nicht verfügbar.

Der Asus wurde aus dem Sortiment genommen und kann auch nicht mehr gefunden werden?:confused:

Was gehtn da ab?

Kartenlehrling
2015-05-03, 00:39:17
Sie hatten ihn 2 Tage als Lager, der Letzte ist über ebay verkauft worden.
Das muss nichts heissen, vielleicht hat sich ein ander Händler beschwert,
aber der Asus Suppi hat ja Altenate.de als erste Quelle genannt.

Unicous
2015-05-03, 00:47:06
Das muss nichts heißen? Die Artikelseite ist nicht mehr über die Suchfunktion auffindbar und nur über google habe sich sie gefunden und auf einmal ist der "Anlieferungstermin" bei den anderen Händler auf auf den 21.05. gesprungen.

Komisch ist das allemal.

Kartenlehrling
2015-05-03, 01:21:55
Ist doch egal ... will ja sowieso keiner hier im Forum kaufen.

Kartenlehrling
2015-05-04, 19:01:49
Wieder .... DA !!



Auf Lager
Lieferung zwischen Di. 05. und Mi. 06. Mai


https://www.alternate.de/ASUS/MG279Q-LED-Monitor/html/product/1198150?campaign=Monitor/ASUS/1198150
ASUS MG279Q, LED-Monitor

Unicous
2015-05-05, 12:32:01
Jim - ASUS
ASUS Rep

I don't have an immediate press release style response, but what I'd like to pass onto all of you at OcUK is that:

- it has been confirmed that there is presently a 90 Hz FreeSync cap
- I have alerted our team about everyone's concerns, and they have told me it's a priority that they'll be looking into this week
- it was capped for a reason, though I haven't had the specifics confirmed and ready to share, and furthermore I hope that we'll be able to give users the choice, if there are potential drawbacks >90 Hz
http://forums.overclockers.co.uk/showpost.php?p=27996712&postcount=229

mironicus
2015-05-05, 13:25:18
Vielleicht hat das was mit dem Panel zu tun und der Lebenszeit? Gibt es vielleicht ein Problem der durch den dynamischen Frequenzwechsel verursacht wird?

Unicous
2015-05-05, 13:33:51
Ich tippe langsam eher auf den Scaler... in Verbindung mit dem IPS-Panel.

Anscheinend benutzen die zig verschiedene Scaler und/oder Versionen.

Der Nixeus Typ sagte ja, der 24" hat keine Probleme mit Adaptive Sync+Overdrive und auch 144Hz dürften klappen. Natürlich ist es ein TN-Panel. Aber er sagt auch, das lief alles, sie hatten nur das Problem, dass Overdrive zu aggressiv eingestellt war und sie haben dann mit dem Scaler-Hersteller und AMD zusammengearbeitet.

Ich denke also weiterhin, dass es eine time to market Sache ist, die Nvidia eben nicht hatte, weil sie sich auf genau einen Monitor mit einem Display konzentrieren konnten, das Feintuning übernehmen konnten und das dann bei den anderen Panels auch gemacht haben. In dem Zusammenhang muss ich immer noch über die Aussage von Tom Peterson lachen, als er behauptet hat, AMD müsse jeden einzelnen Monitor und Paneltypen validieren. Ich glaube eher das Nvidia das machen muss und sie diese Problematik gerne auch AMD in die Schuhe schieben möchten.
Denn rein logisch gesehen macht diese Behauptung gar keinen Sinn.