PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : G-/Free-/A-Sync: framesynchronisierter Displayrefresh per variablem vblank-Intervall


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30

aufkrawall
2015-05-26, 19:51:23
Gibt es von Sharp Panels in der Größenordnung?
Diskutieren, was technisch möglich wäre, kann man ja viel. Irgendwo muss man aber dann halt doch mal schauen, was wahrscheinlich ist.
Die einzige nennenswerte neue Panel-Technik für Monitore ist bisher das schnelle AHVA-Panel, worauf man auch schon ewig warten musste.

Ansonsten kann man auch irgendwann auf A-Sync pfeifen, und sich einen 4k LG OLED-Fernseher hinstellen, wenn man nicht warten will, bis man schwarz geworden ist.
Man hat ja noch nicht einmal etwas von VA + A-Sync gehört.

OC_Burner
2015-05-26, 20:04:21
Ich habe hier noch ein in die Jahre gekommenes low-cost TN-Panel von Hannspree und dieses geht klaglos bis auf 7Hz hinunter (darunter fangen die Pixel an zu flirren). Wie das dynamisch aussehen würde ist die große Frage.:freak:

Unicous
2015-05-26, 20:16:03
LG 27" IPS UHD, 60Hz und 10-Bit Farbtiefe, 4msGTG (http://www.lg.com/au/it-monitors/lg-27MU67/technical-specifications), laut LG FreeSync-fähig.

via
http://www.tftcentral.co.uk/news_archive/33.htm#lg_27mu67

mironicus
2015-05-26, 20:30:35
LG 27" IPS UHD, 60Hz und 10-Bit Farbtiefe, 4msGTG (http://www.lg.com/au/it-monitors/lg-27MU67/technical-specifications), laut LG FreeSync-fähig.


UVP: 799 australische Dollar = 569 Euro, fairer Preis.

Gipsel
2015-05-26, 20:34:28
Gibt es von Sharp Panels in der Größenordnung?Die verkaufen Fernseher damit. Kleinere Panels in Handies und Tablets gibt es, in ein paar Premium-Notebooks werden die Panels verbaut (4k in 15" und solche Späße). Und in ein paar (meist recht teuren) 4k-Monitoren auch (http://geizhals.de/?fs=igzo&cat=monlcd19wide). Falls es bereits ein Panel geben sollte, welches 120Hz Refresh oder so unterstützt, müßte sich mal einer finden, der ein entsprechend schnelles Panel von Sharp mit einem passenden Scaler zu einem Gaming-Monitor kombiniert.
Aber wie es aussieht, kommt alles oberhalb von kleineren Notebookdisplays mit 4k, da werden zum einen die 100+Hz im Moment noch schwierig und zum anderen sind die bisherigen Monitore damit keine Sprinter und nicht wirklich gamingtauglich (Test des billigsten iGZO-Monitors von Asus (http://www.prad.de/new/monitore/test/2013/test-asus-pq321q.html#Einleitung), knapp 2 Jahre alt). Die bräuchten dafür also definitiv noch eine andere Abstimmung. Keine Ahnung, ob ein gut abgestimmter Overdrive dafür schon reicht (die bisherigen 4k-Monitore erreichen ihre ~10ms Schaltzeiten offenbar so ziemlich komplett ohne) oder ob Sharp die Panels dafür mit fetteren Transistoren für die Pixelmatrix ausstatten müßte (bisher scheinen die eher auf minimale Fläche dafür zu optimieren, um die Lichtdurchlässigkeit zu erhöhen). Wie auch immer, bisher hat sich offensichtlich noch keiner gefunden, der mal sowas zusammenschraubt.

aufkrawall
2015-05-26, 20:40:39
Thanks für die Info. Unmöglich ist es also nicht.

Der LG IPS wäre aber auch schon ein verdammt guter Deal. AMD sollte nur mal ein ähnliches Verhalten wie von G-Sync bei niedrigen fps einbauen. Oder zumindest mal konkret ankündigen. Wäre echt mies, wenn da nichts käme.

Dimitri Mayakovsky
2015-05-26, 21:28:37
g-sync macht 30-144Hz
freesync 9-240Hz (wenn es der Monitor unterstützt ) ;)
Nein, FreeSync macht eben NICHT 9-240 Hz:

Die möglichen Bereiche für die Refresh-Rate über Adaptive Sync liegen bei 36 bis 240 Hz, 21 bis 144 Hz, 17 bis 120 Hz und 9 bis 60 Hz.

http://www.gamestar.de/hardware/news/grafikkarten/3058447/amd_freesync.html

Die 9-240 Hz sind völliger Unfug. Und auch so sind die aktuellen Refreshraten völlig utopisch und tatsächlich, als effektiv, bietet G-Sync schon heute den sehr viel größere VRR-Bereich, z.B. schon der erste Asus "0"-144Hz.

Gipsel
2015-05-26, 21:30:06
Sagen wir es so:
Sowohl A-Sync als auch G-Sync können alles unterstützen, was die Panels können. ;)

Skysnake
2015-05-27, 07:38:46
Dann geht man eben auf 2Hz. ;)
Irgendwann (bei extrem niedrigem Refresh) schon. Aber die sind eben einfach auf das lange Halten der Pixelwerte ausgelegt. Mit den iGZO-Panels von Sharp hat man dabei offenbar einen deutlich größeren Bereich, in dessen Rahmen man sich bezüglich Schalt- und Haltezeit der Pixel bei einer Optimierung bewegen kann.
Naja, ich gehe mal davon aus, dass die "einfach" eine Feedbackloop drin haben, die den Drift stabilisiert, bzw. umgekehrt, das Signal driften lässt, damit optisch die Helligkeit gleich bleibt.

Wie genau man es macht, wird man wohl nie erfahren.

ndrs
2015-05-27, 08:44:07
Naja, ich gehe mal davon aus, dass die "einfach" eine Feedbackloop drin haben, die den Drift stabilisiert, bzw. umgekehrt, das Signal driften lässt, damit optisch die Helligkeit gleich bleibt.

Wie genau man es macht, wird man wohl nie erfahren.
Ein Regelkreis für jeden Pixel? Dann müsstest du aber dennoch ein Eingangssignal permanent halten, was ja bei der Matrix-Ansteuerung nicht gewollt ist. Ich glaube, dann kann man auch gleich einen richtigen refresh durchführen. Es sei denn ich übersehe was xD

Skysnake
2015-05-27, 08:51:00
na du musst nicht zwingend jeden Pixel für sich regeln. Die werden sich ja überwiegend gleichartig verhalten, wobei selbst eine Regelung für jeden Pixel wohl kein Beinbruch wäre. Das sind nur wenige Transistoren, die man dafür braucht.

Man muss aber halt den Aufwand betreiben und das machen.

fondness
2015-05-27, 09:18:31
LG 27" IPS UHD, 60Hz und 10-Bit Farbtiefe, 4msGTG (http://www.lg.com/au/it-monitors/lg-27MU67/technical-specifications), laut LG FreeSync-fähig.

via
http://www.tftcentral.co.uk/news_archive/33.htm#lg_27mu67

Danke für den Link, scheint kaum mehr einen 4K-Monitor ohne FreeSync zu geben.

ndrs
2015-05-27, 10:25:40
na du musst nicht zwingend jeden Pixel für sich regeln. Die werden sich ja überwiegend gleichartig verhalten,
Wenn alle die gleiche Farbe zeigen ja. Nur was ist, wenn nicht? Ich denke schon, dass sich die Driftneigung da ändert. Und wenn es doch alles vorhersehbar ist, kann man auch gleich vorsteuern, statt regeln :)

wobei selbst eine Regelung für jeden Pixel wohl kein Beinbruch wäre. Das sind nur wenige Transistoren, die man dafür braucht.
Ich kenne mich mit Displays nicht wirklich aus. Wieviele Transistoren werden denn grob für jeden Pixel benötigt? Wenn das nicht viele sind, sind ja auch wenige mehr schon ein Beinbruch^^

fondness
2015-05-27, 12:24:07
Test des BenQ XL2730Z 27-inch FreeSync Monitors:
http://www.tomshardware.com/reviews/benq-xl2730z-27-inch-freesync-monitor,4144.html

Kartenlehrling
2015-05-27, 13:26:08
Das ist wohl der wichtigste Satz,
das schlimme daran ist das die Entwicklung mir immer noch zu langsam geht, Samsung erstmal nur 4k Monitore ausliefern.

Still, once you’ve experienced the smoothness of G-Sync or FreeSync,
it’s really hard to go back to a vanilla 144Hz screen.

derF
2015-05-27, 13:37:48
Mal davon abgesehen, dass ich den Preis vom BenQ überzogen finde, warum schreiben die denn sowas: "As with G-Sync, there is no point of comparison between monitors – it either works or it doesn’t." Da sie's nicht extra erwähnen, kann ich zwar davon ausgehen, dass AMA (OverDrive) mit FreeSync funktioniert, aber zur FreeSync-Range find ich nix und dass Blur Reduction (Strobing Backlight) vermutlich mit FreeSync nicht geht, find ich auch nirgendwo.

Edit: ah, die Kommentare dort ziehen darüber auch schon her. Und dass Overdrive funktioniert scheint doch nicht sicher zu sein.

mironicus
2015-05-27, 14:42:04
Overdrive (das heißt "Reaktionszeit" im LG-Menü) funktioniert übrigens mit dem LG 29UM67 auch mit eingeschaltetem Freesync (lasse gerade das Windrad-Demo laufen). Unterschiede zwischen "Mittel" und "Schnell" sind sofort sichtbar. "Mittel" ist auch die beste Einstellung. Eigentlich sollten die Monitore ja schon im März erscheinen, doch kamen sie erst im Mai auf dem Markt. Wahrscheinlich wurde das gefixt.

Der Unterschied zwischen Freesync an/aus ist schon krass. Der Witcher 3 lässt sich ohne Hairworks auf Ultra in 2580x1080 mit einer R290x (1100/1500) flüssig auf dem Monitor spielen.

Schon krass, man braucht dann wirklich keine 1000 Euro Grafikkarte mehr für die 30-40% mehr Leistung um durchgehend flüssig mit 60 fps spielen zu können.

Edit: Dying Light läuft jetzt immer smooth, im Gegensatz zu früher... macht jetzt mehr Spaß. Und vor allem mit 21:9... wer braucht da noch Fiji...? :D

Kartenlehrling
2015-05-27, 16:32:12
LG 27" IPS UHD, 60Hz und 10-Bit Farbtiefe, 4msGTG (http://www.lg.com/au/it-monitors/lg-27MU67/technical-specifications), laut LG FreeSync-fähig.



CB hat anschein nachgefragt .. warum sie dann nicht nach dem Freesync Bereich nachgehakt haben?
40-60Hz wär einfach zu wenig, obwohl ich gerade "The Witcher3" in 28-36fps Bereich spiele und
es wunderbar läuft auf meiner HD7970+u2515h.

Eine Abbildung verrät, dass der 27MU67 über zweimal HDMI, DisplayPort und Mini-DisplayPort als Videoeingänge verfügt.
Daneben sind ein Kopfhörerausgang und ein Stromanschluss auf der Geräterückseite erkennbar. Der Preis liegt bei 799 Australischen Dollar, was aktuell rund 570 Euro entspricht.
Auf Nachfrage von ComputerBase nannte LG eine Verfügbarkeit in Deutschland im Juli. Die Preisempfehlung werde bei 599 Euro liegen.
Nähere Details werden in den kommenden Wochen erwartet.

mironicus
2015-05-27, 17:05:00
599 Euro? Gekauft! :D

Der_Korken
2015-05-27, 17:06:31
Sorry, wenn diese Frage hier schon zig Mal gestellt wurde, aber ich lese hier nicht regelmäßig mit und weiß nicht, wie ich effektiv "suchen" sollte:

Bringen mehr als 60Hz überhaupt einen Vorteil, wenn der Monitor bereits G/Free-Sync nutzt und die Grafikkarte NICHT mehr als 60fps liefert? Ich lese öfters Meldungen über neue Monitore (so wie z.B. der LG) und fast überall wird darüber genörgelt, dass 4k und FreeSync ja schön wären, aber der Monitor ohne 120Hz ein nogo sei.

Ich dachte immer, dass unter den Umständen, die ich genannt habe, gar kein technischer Unterschied mehr zwischen 60Hz und 120Hz besteht. Falls das nicht stimmt, wo liegt der Unterschied und gibt es darüber irgendwelche Tests?

InsaneDruid
2015-05-27, 17:15:58
Wenn das System nie mehr als 60 (oder wo auch immer man eine Grenze hat) liefern kann, lohnen sich Monitore mit höherer maximaler Frequenz nicht mehr. Nur hat man einen Monitor oft länger als eine Grafikkartengenerationen und die FPS-Grenze des Systems ist von Spiel zu Spiel verschieden. Ut läuft auch in 4K+FSAA schneller als 60fps, und da wäre es schön wenn man den verringerten Sample&Hold-Effekt von mehr als 60Hz nutzen könnte.

Kartenlehrling
2015-05-27, 17:22:13
Die Reaktionsfähigkeit und Mausinput wird mit jeder Hz besser, weil viel früher die frames wechseln.
Ausser jemand belegt was anderes ist für g-sync + freesync 120Hz am besten,
mit höheren FPS soll es zu negativ Maus-laggs kommen.

Der MG279Q (ips/2560x1440) kann sowieso nur 35-90Hz freesync.
45-50fps fühlen sich auf g-sync/freesync monitor so flüssig an wie >60fps auf einen herkömmlichen Monitor, weil das typische vsync lagg nicht gibt.

Der_Korken
2015-05-27, 17:28:04
Wenn das System nie mehr als 60 (oder wo auch immer man eine Grenze hat) liefern kann, lohnen sich Monitore mit höherer maximaler Frequenz nicht mehr.

OK, also das, was ich bisher auch dachte.

Die Reaktionsfähigkeit und Mausinput wird mit jeder Hz besser, weil viel früher die frames wechseln.

Reaktionsfähigkeit ist ein Argument, aber der Monitor kann die Frames nicht schneller wechseln, als sie die Grafikkarte liefert. Sprich: Wenn die Graka nur 60 fps schafft, kann auch ein 120Hz+FreeSync-Monitor nur 60 verschiedene Bilder pro Sekunde anzeigen.

Ich will auch gar nicht über den Sinn oder Unsinn von mehr als 60fps streiten. Mir ging es nur um die Frage, ob mehr Hz als fps bei FreeSync überhaupt noch einen technischen Unterschied machen (abseits von den Limitierungen von FreeSync selbst auf 36-90Hz o.ä.).

Kartenlehrling
2015-05-27, 17:44:29
Das wird auch ein Grund sein wieso Samsung gerade bei seinen 4k Monitor bedarf sieht.
Wer COD oder CS:GO mit >150fps spielt der spielt sowieso mit 120Hz+vsyncOFF+Ultra Low Motion Blur (ULMB).

dargo
2015-05-27, 17:51:42
Danke für den Link, scheint kaum mehr einen 4K-Monitor ohne FreeSync zu geben.
Mir gehen die 4k Bildschirme langsam auf den Keks. Ich suche immer noch einen 1080p bis max. 1440p Bildschirm mit Freesync von 40Hz bis mindestens 75Hz und im besten Fall VA. Es kann doch nicht so schwer sein einen günstigen Full-HD Freesync Bildschirm für den Einstieg anzubieten. :down:

Overdrive (das heißt "Reaktionszeit" im LG-Menü) funktioniert übrigens mit dem LG 29UM67 auch mit eingeschaltetem Freesync (lasse gerade das Windrad-Demo laufen). Unterschiede zwischen "Mittel" und "Schnell" sind sofort sichtbar. "Mittel" ist auch die beste Einstellung. Eigentlich sollten die Monitore ja schon im März erscheinen, doch kamen sie erst im Mai auf dem Markt. Wahrscheinlich wurde das gefixt.

Oha... also wenn Overdrive mit Freesync geht wäre das für mich vorerst die einzige Alternative. Diese verflixten min. 48Hz. :uponder:

mironicus
2015-05-27, 19:03:51
Ich habe mal das GSync-Pendel Demo getestet.
http://www.nvidia.de/coolstuff/demos#!/g-sync

Das Demo kann auch 40 fps simulieren. Mit 50 und 60 fps habe ich ein aalglattes Bild.

Mit 40 fps.... nicht ganz. Aber das Tearing ist so minimal das es nur auf einen kleinen Bildbereich begrenzt ist (2 cm vom Bild, waagerechter Balken) und nicht wandert, der Rest ist "stabil". Mein PB248Q dagegen teart über dem ganzen Bildschirm verteilt. Mit VSync aus teart der LG 29UM67 weniger als ein "Normaler" (liegt vielleicht auch an 75 Hz). Aber das muss man weiter austesten. Spiele die nur in 16:9 laufen können übrigens nativ dargestellt werden, dann hast du rechts und links einen schwarzen Balken, keine Skalierung und mehr FPS. Innerhalb eines Spieles fällt ein kurzes Abfallen aus dem VRR-Bereich kaum auf.

Ich bin auf jeden Fall sehr zufrieden und werde den Bildschirm behalten. Spiele wie GTA V, Watch Dogs lassen sich flüssig in Ultra-Settings spielen mit einer R290x.

Kriton
2015-05-27, 19:12:07
Welchen hast du noch mal?

mironicus
2015-05-27, 19:19:13
http://www.amazon.es/gp/product/B00VX8YX42/

Gab es aber auch schon mal für 267 Euro.

dargo
2015-05-27, 19:45:30
Ich habe mal das GSync-Pendel Demo getestet.
http://www.nvidia.de/coolstuff/demos#!/g-sync

Das Demo kann auch 40 fps simulieren. Mit 50 und 60 fps habe ich ein aalglattes Bild.

Mit 40 fps.... nicht ganz. Aber das Tearing ist so minimal das es nur auf einen kleinen Bildbereich begrenzt ist (2 cm vom Bild, waagerechter Balken) und nicht wandert, der Rest ist "stabil". Mein PB248Q dagegen teart über dem ganzen Bildschirm verteilt. Mit VSync aus teart der LG 29UM67 weniger als ein "Normaler" (liegt vielleicht auch an 75 Hz). Aber das muss man weiter austesten. Spiele die nur in 16:9 laufen können übrigens nativ dargestellt werden, dann hast du rechts und links einen schwarzen Balken, keine Skalierung und mehr FPS. Innerhalb eines Spieles fällt ein kurzes Abfallen aus dem VRR-Bereich kaum auf.

Ich bin auf jeden Fall sehr zufrieden und werde den Bildschirm behalten. Spiele wie GTA V, Watch Dogs lassen sich flüssig in Ultra-Settings spielen mit einer R290x.
Das hört sich schon fast zu gut an. Danke für dein Feedback. Oh man... du machst es mir nicht leicht. Was mache ich jetzt bloß mit der R9 290X? :freak:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10641630&postcount=445

Ich hab keine Ahnung ob die nun defekt ist oder es wirklich am Treiber liegt. Aber warum bin ich dann nur davon betroffen? :confused:

Das mit Watch Dogs @Ultra, also auch Texturen nehme ich dir aber nicht ab. Oder VRR kann wirklich zaubern. Denn mit Ultra Texturen sind die Frametimes sehr mies.

mironicus
2015-05-28, 12:18:01
Blöd ist wirklich das die Sache mit dem fehlenden Overdrive bei so vielen Leuten hängengeblieben ist (PCPER) was natürlich viele Leute davon abhält sich einen Freesync-Bildschirm zu kaufen.

horn 12
2015-05-28, 12:53:28
Also ist dein neuer 29 Zoll LG FreeSync Monitor echt eine Emphelung wert?

dargo
2015-05-29, 11:37:59
Den LG 29UM67-P gibts jetzt bei Amazon.de für 286,26€.
http://www.amazon.de/dp/B00VX8YX42/ref=asc_df_B00VX8YX4226666930?smid=A3JWKAKR8XB7XF&tag=geizhalspre03-21&linkCode=df0&creative=22498&creativeASIN=B00VX8YX42&childASIN=B00VX8YX42

So ein Mist, dass meine 290x wohl defekt ist und ich sie zurückschicken muss. ;(

@mironicus
Wie siehts aus mit der Spiegelung vom Panel? Einige bemängeln die starke Spiegelung, gerade bei schwarzen Bildinhalten.

Kartenlehrling
2015-05-29, 12:00:41
So ein Mist, dass meine 290x wohl defekt ist und ich sie zurückschicken muss

Liegt es nicht einfach an diesem blöden Booster,
man müsste den Grundtakt fürs Spielen höher stellen können aber der Boostbereich darf nicht mitsteigen.

mironicus
2015-05-29, 12:19:07
Einige bemängeln die starke Spiegelung, gerade bei schwarzen Bildinhalten.

Kann ich echt nicht verstehen, warum manche Leute so einen Mist schreiben. Also ob man den Monitor absichtlich schlecht machen möchte, genau so wie einer meinte das das Bild milchig sei (wohl ein und die selbe Person)... das müssen absolute Anfänger sein, die bisher nur Glossy-Monitore vor sich hatten. Zumindest kann ich Vergleiche mit anderen IPS-Monitoren ziehen die direkt daneben stehen.

Das Display ist komplett matt, da spiegelt nichts. Der Monitor steckt ja noch nicht mal in einen tiefen Rahmen drin, wo das Licht des Monitors an den Seiten spiegeln könnte. Ich habe den Monitor allerdings auch nicht mit einem Fenster im Rücken stehen.

Wenn ich den Monitor mit einer Taschenlampe beleuchte, wirft er kein strahlendes Licht zurück, und ich konnte mich selbst auch nicht darin spiegeln sehen.

Der Philips 40 Zoll Monitor spiegelt dagegen merklich, aber der ist auch nicht matt.

dargo
2015-05-29, 15:11:32
Ich habe den Monitor allerdings auch nicht mit einem Fenster im Rücken stehen.

Wie behämmert muss man sein um den Bildschirm so aufzustellen, dass ein Fenster im Rücken ist? :freak: Ok... danke nochmal fürs Feedback.

Edit:
Comtech hat nachgezogen. :)
http://www.comtech.de/Computer-und-Zubehoer/Monitore/LG-Monitore/LG-UltraWide-29UM67-P-73-66cm-29-LED-Monitor-EEK-B-mit-IPS-Panel-DVI-DisplayPort-und-HDMI?sPartner=2&campaign=psm/geizhalsat/Computer-und-Zubeh%F6r/Monitore/LG-Monitore

Sollte ich im Laufe des Jahres einen Hawaii mit besseren Kühler in die Finger bekommen schaue ich mir den Bildschirm an. Bei dem Preis kann man nicht viel falsch machen. Wobei mich die fehlende Ergonomie schon stört. Naja... man kann am Anfang nicht alles haben.

Kartenlehrling
2015-05-30, 09:55:15
LG UltraWide 29UM67-P (freesync)
Comtech hat nachgezogen.

286€ versandkostenfrei, das ist wirklich ein guter Preis.

horn 12
2015-05-30, 10:43:52
Der große Bruder für nicht mal 500 Euro!
91 Stück auf Lager :-)

http://www.monclick.it/product.aspx?Codice=34UM67&HTTP_REFERER=http://Trovaprezzi&REFERER_CODE=34UM67&utm_source=trovaprezzi&utm_medium=comparatori&utm_term=34UM67&utm_campaign=monitor%2520pc

NV wird langsam Probleme bekommen, FreeSync kommt langsam in Fahrt!

mironicus
2015-05-30, 10:51:36
Ja, bis Ende des Jahres wird es noch haufenweise neue Monitore geben. 4K IPS-Monitore von 24 bis 32 Zoll, und deutlich preiswerter als GSync-Modelle und mit mehr Anschlüssen.

Troyan
2015-05-30, 20:41:32
MSI stellt auf der Computex ein Notebook mit G-Sync vor:
http://www.overclock.net/t/1557967/tomshw-msi-g-sync-broadwell-gt72-laptop-computex-2015

crux2005
2015-05-30, 20:46:02
Der große Bruder für nicht mal 500 Euro!
91 Stück auf Lager :-)

http://www.monclick.it/product.aspx?Codice=34UM67&HTTP_REFERER=http://Trovaprezzi&REFERER_CODE=34UM67&utm_source=trovaprezzi&utm_medium=comparatori&utm_term=34UM67&utm_campaign=monitor%2520pc

NV wird langsam Probleme bekommen, FreeSync kommt langsam in Fahrt!

Wenn es nur so wäre.

fondness
2015-05-30, 21:05:43
MSI stellt auf der Computex ein Notebook mit G-Sync vor:
http://www.overclock.net/t/1557967/tomshw-msi-g-sync-broadwell-gt72-laptop-computex-2015

Na da ist dann mal sicher kein stromfressendes NV-Modul drinnen.

r3ptil3
2015-05-30, 21:16:05
Habe den Thread nicht ganz mitverfolgt...

Wurde bisher schon ein Monitor mit Freesync, 144Hz, 3840x2160 Auflösung und IPS-Panel vorgestellt oder ist einer in Aussicht?

x-dragon
2015-05-30, 21:27:32
Der hier kommt dem noch am nächsten mit 75 Hz:
https://geizhals.eu/acer-predator-xr341ck-um-cx1ee-001-a1223885.html?hloc=at&hloc=de&hloc=pl&hloc=uk&hloc=eu

Ansonsten wird wohl erstmal DisplayPort 1.3 benötigt, um deine Wunschkonfiguration zu verwirklichen.

Kartenlehrling
2015-05-30, 21:31:06
...gibt es noch nicht 4k/60 bzw75Hz kommen jetzt.


Ich habe es schon im 15.5beta treiber Thread gefragt und noch keine Antwort bekommen,
der framelimiter im Treiber funktioniert er bei euch schon? ist er nur für Freesync? weil 55-95fps ist ein dämlicher Bereich,
ich spiele moment Witcher3 zwischen 28-36fps und würde gern den FPS-Limiter im Treiber nutzten.

samm
2015-05-30, 22:13:45
Wurde bisher schon ein Monitor mit Freesync, 144Hz, 3840x2160 Auflösung und IPS-Panel vorgestellt oder ist einer in Aussicht?UHD bei 144Hz ist derzeit allein schon von der Übertragungsrate her ein Problem. Als TV-Standard ist 2160p ohnehin nicht mal höher als 120Hz spezifiziert, deshalb würde ich auch künftig keine HDMI-standardkonforme Möglichkeit für 144Hz erwarten.

ich spiele moment Witcher3 zwischen 28-36fps und würde gern den FPS-Limiter im Treiber nutzten.Kann mangels Win 10 keine Aussage zum Limiter machen, aber verstehe auch nicht, weshalb man derart niedrige fps noch zusätzlich limitieren wollen würde.

Elite_Warrior
2015-05-30, 22:47:58
Habe den Thread nicht ganz mitverfolgt...

Wurde bisher schon ein Monitor mit Freesync, 144Hz, 3840x2160 Auflösung und IPS-Panel vorgestellt oder ist einer in Aussicht?

Dafür bräuchte man DisplayPort 1.3 weil die jetzige Bandbreite dafür nicht ausreicht. Vermutlich werden wir solche Monitore frühstens nächstes Jahr sehen. Grafikkarten bieten momentan nur 1.2 an.

Trap
2015-05-30, 23:20:19
Dafür bräuchte man DisplayPort 1.3 weil die jetzige Bandbreite dafür nicht ausreicht.
Theoretisch würde 144hz bei 2560x1440 über Displayport 1.2 auch mit einem 4k-Panel im Monitor funktionieren.

Praktisch kann das sicher kein Scaler.

y33H@
2015-05-31, 12:20:50
Hat Nvidia mal öffentlich bestätigt, dass der Scaler in G-Sync Displays tatsächlich die Frames doppelt oder verdreifacht wenn die Bildrate unter 30 fps sinkt? Wurde mir die Tage gezeigt und erläutert.

Kartenlehrling
2015-05-31, 12:32:16
Nvidia nicht, nur PC Perspective haben es mit einem alten Oszilloskope sichtbar gemacht.

http://www.pcper.com/reviews/Graphics-Cards/Dissecting-G-Sync-and-FreeSync-How-Technologies-Differ
Dissecting G-Sync and FreeSync - How the Technologies Differ

y33H@
2015-05-31, 12:45:09
Vor Ort meinten sie, sie hätten es bestätigt und ich sagte mir sei das neu. Kurz: Das was PCPer zeigt, stimmt.

Kartenlehrling
2015-05-31, 12:52:02
Was verstehtst du denn unter bestätigt, ein einfach twitter Eintrag oder
ein Blog von geforce wo sie G-sync erklären, dann würde ich gern auch den Link sehen?!

Grestorn
2015-05-31, 13:08:58
Wer genau meinte, "sie" (wer ist sie) "hätten es" (was ist es) "bestätigt"? Sorry, der Satz lässt mich etwas verwirrt zurück... :)

Unicous
2015-05-31, 13:29:34
Mein Güte Nvidia. Es geht um Nvidia. y33H@ war wahrscheinlich bei einem Presse-Briefing. Ist doch nicht so schwer zu verstehen.

Screemer
2015-05-31, 13:35:52
NV verwechselt wohl die statements ihrer pr-abteilung mit denen von pcper.

Grestorn
2015-05-31, 13:47:13
Mein Güte Nvidia. Es geht um Nvidia. y33H@ war wahrscheinlich bei einem Presse-Briefing. Ist doch nicht so zu verstehen.

Aha. Schön was Du alles aus seinem Satz herauslesen kannst. Du hast recht, ist nicht so zu verstehen, wie er es geschrieben hat. Wenn auch durchaus denkbar freilich.

Unicous
2015-05-31, 13:50:08
Ich kann 1 und 1 zusammenzählen. Dein peinliches Hinweisen auf das Fehlen eines Wortes zeigt mir, dass es dir schwer fällt zwischen den Zeilen zu lesen.:rolleyes:

Grestorn
2015-05-31, 13:56:28
Schon klar, dass das nicht ohne persönlichen Angriff abgehen konnte :rolleyes:

Unicous
2015-05-31, 13:58:40
Kein Spoiler weil es Blödsinn ist. Wer im Kindergarten mit dem Streit angefangen hat, ist am Ende egal. Jeder fässt sich also mal gekonnt an die eigene Nase.;)

Screemer
2015-05-31, 14:23:16
Was so schwer ist über drei posts von sie auf NV zu schließen, ist mir auch unbegreiflich. Vor allem ging es im eingangspost von yeeha explizit um NV. Hoffentlich hat greston in Konversationen im real life nicht auch solche Probleme.

Kriton
2015-05-31, 16:38:53
UHD bei 144Hz ist derzeit allein schon von der Übertragungsrate her ein Problem. Als TV-Standard ist 2160p ohnehin nicht mal höher als 120Hz spezifiziert, deshalb würde ich auch künftig keine HDMI-standardkonforme Möglichkeit für 144Hz erwarten.

Kann mangels Win 10 keine Aussage zum Limiter machen, aber verstehe auch nicht, weshalb man derart niedrige fps noch zusätzlich limitieren wollen würde.

Was hat HDMI mit Freesync zu tun (auf das sich seine Frage ja auch bezog) -das geht doch nur mit DP?

y33H@
2015-05-31, 18:43:50
Bitte mal alle runterkommen.

Im Klartext: Nvidia hat Golem im Gespräch bestätigt, dass G-Sync Frames verdoppelt oder tripled um in der 30-144 Hz Range zu bleiben.

samm
2015-05-31, 19:15:50
Was hat HDMI mit Freesync zu tun (auf das sich seine Frage ja auch bezog) -das geht doch nur mit DP?Stimmt, nichts. Hatte falsch geschaltet weil mal das Thema war, dass vielleicht HDMI beim GSync 2 auch genutzt werden könnte.

Grestorn
2015-05-31, 19:16:30
@y33H@: Danke für die Klarstellung.

fondness
2015-05-31, 21:29:29
Ich sehe kein Modul^^

http://s2.postimg.org/ehnytral5/Mobile_NVIDIA_G_Sync_4_900x506.jpg (http://postimage.org/)
http://s2.postimg.org/ege10c8rd/Mobile_NVIDIA_G_Sync_5_900x506.jpg (http://postimage.org/)


http://videocardz.com/55959/nvidia-also-launching-mobile-g-sync

Kartenlehrling
2015-05-31, 21:35:25
The first 75Hz Not(e)book Gaming Display.

Uiii dann erwarte uns eine Gaming Notebook schwämme.

Troyan
2015-05-31, 21:37:00
Deswegen nennt es nVidia auch "G-Sync direct". :lol:

aufkrawall
2015-05-31, 21:43:16
Bin mal aufs Pcper Review gespannt. Wenn es genau so "limitless" wie beim Acer IPS funktioniert, erwarten uns goldene Zeiten.

fondness
2015-05-31, 21:45:20
Bin mal aufs Pcper Review gespannt. Wenn es genau so "limitless" wie beim Acer IPS funktioniert, erwarten uns goldene Zeiten.

Irgendwie muss das Framedoubeling herkommen wenn es das Modul nicht gibt, der Monitor wird kaum bis 1Hz runter syncen können. Ansonsten wird es nicht "Limitless" sein.

aufkrawall
2015-05-31, 21:48:25
Es ist ja wohl klar, dass ich auf den Treiber spekuliert habe.

Troyan
2015-06-01, 00:08:34
Von Anandtech geborgt:
http://images.anandtech.com/doci/9303/NewMonitors_575px.jpg
http://www.anandtech.com/show/9303

Kartenlehrling
2015-06-01, 00:11:19
Viel wichtiger finde ich Fenster-gsync-Mode ...

http://images.anandtech.com/doci/9303/Windowed_575px.png


But there is a catch, and it’s a big one.

In order for G-Sync to be available on a laptop, a couple of things need to be true. First, the laptop must have a GeForce GPU obviously. Second, the laptop manufacturer needs to work with NVIDIA to enable this, since NVIDIA has to establish the parameters for the particular laptop panel in order to correctly know the maximum and minimum refresh rate as well as the amount of over/under-drive necessary. But the third is the big one. The laptop display must be directly connected to the GeForce GPU.

What this means is that in order for G-Sync to be available, Optimus (NVIDIA’s ability to switch from the integrated CPU graphics to the discrete NVIDIA graphics) will not be available. They are, at least for now, mutually exclusive. As a refresher for Optimus, the integrated GPU is actually the one that is connected to the display, and when Optimus is enabled, the iGPU acts as an intermediary and is the display controller. The discreet GPU feeds through the iGPU and then to the display. Due to the necessity of the GPU being directly connected to the display, this means that Optimus enabled notebooks will not have G-Sync available.

aufkrawall
2015-06-01, 00:19:35
A-Sync mit VA. :eek:

Troyan
2015-06-01, 00:23:07
G - der richtige Buchstabe hier lautet G. :D

derguru
2015-06-01, 00:30:24
eigentlich perfekt aber dann so ne kack auflösung bei der größe. :facepalm:

aufkrawall
2015-06-01, 00:33:23
G - der richtige Buchstabe hier lautet G. :D
Einigen wir uns auf variablen Vblank.

Joa, die Auflösung vom VA ist derbe shitty. Aber es ist ein Anfang.

crux2005
2015-06-01, 00:55:29
Von Anandtech geborgt:
http://images.anandtech.com/doci/9303/NewMonitors_575px.jpg
http://www.anandtech.com/show/9303

Also doch noch warten angesagt. Geht mir langsam auf den Keks. :(

Rente
2015-06-01, 00:57:16
Einigen wir uns auf variablen Vblank.

Joa, die Auflösung vom VA ist derbe shitty. Aber es ist ein Anfang.
Er ist vor allem curved und 21:9, 1440p@27-30'' wären deutlich toller. ;(
Naja, vielleicht kommen dann zukünftig mehr Monitore mit VA und G-Sync...

Unicous
2015-06-01, 01:04:57
A-Sync mit VA. :eek:

Wurde doch afair hier schon vor Wochen besprochen???

11th Apr 2015

Gibbo

Missed this sorry mate.
They are IPS, 3440x1440 and there will be a Freesync version around £899 and a G-Sync version around £999

If I remember right our container is due around end of July, I will put them on the website in coming days for pre-order as I know UK will be getting less than 500 of each so sure to sell out.


The 35" versions also coming can't remember if I mentioned these but these shall be VA panel variants.

http://forums.overclockers.co.uk/showpost.php?p=27897173&postcount=91

Acer wird irgendwann Q3 oder so 4 Modelle herausbringen die auf den zwei Panels basieren, jeweils FreeSync und G-Sync.

TFT Central bzw. Acer (per PM) sagte ja, dass die 34"er im August/September kommen, keine Ahnung ob das auch auf die 35" zutrifft.

aufkrawall
2015-06-01, 01:07:12
Wurde doch afair hier schon vor Wochen besprochen???

Ich habe nicht gesagt, dass es ein göttliches Wunder wäre.
Es ist nun aber ein konkretes Modell angekündigt.

SchinkenSpicker
2015-06-01, 01:17:28
Wurde doch afair hier schon vor Wochen besprochen???

http://forums.overclockers.co.uk/showpost.php?p=27897173&postcount=91

Acer wird irgendwann Q3 oder so 4 Modelle herausbringen die auf den zwei Panels basieren, jeweils FreeSync und G-Sync.

TFT Central bzw. Acer (per PM) sagte ja, dass die 34"er im August/September kommen, keine Ahnung ob das auch auf die 35" zutrifft.

Ich meine gelesen zu haben, dass die 35 Zöller ~ 1 Monat nach den 34 Zöllern kommen sollen, eine Quelle habe ich jetzt aber nicht zur Hand. Auf Acers Hausmesse letztens hieß es, dass weitere Details zu Computex kommen, also dürfte bald Klarheit herrschen.

Unicous
2015-06-01, 01:41:09
Ich habe nicht gesagt, dass es ein göttliches Wunder wäre.
Es ist nun aber ein konkretes Modell angekündigt.

:confused:

Also weil Acer sie nicht ankündigt hat und Gibbo nur Unterlagen zu "konkreten" Monitoren hatte (und Simon Baker von TFT Central es nicht offiziell verkünden durfte) ist es jetzt erst eine tolle Neuigkeit?

Ich hätte auch nichts gegen ein ordentlichen VA-Monitor (habe ja selbst einen)... aber 35"@1080p ist echt traurig.;(


Am besten finde ich, dass IPS an Fahrt aufnimmt. 5 der 7 Modelle sind IPS. Das ist ein gute Neuigkeit. Die Panels an sich sind ein ganzes schönes Spec-Kuddelmuddel. Die Hersteller finden da irgendwie keine Linie und hauen lieber riesige Monitore mit geringer Auflösung und "kleine" Monitore mit hoher Auflösung raus. Ist natürlich auch eine Frage der Fertigung, aber dennoch viel zu inkonsistent.

fondness
2015-06-01, 09:44:04
Von Anandtech geborgt:
http://images.anandtech.com/doci/9303/NewMonitors_575px.jpg
http://www.anandtech.com/show/9303

Hm, bleibt nur noch ASUS und Acer übrig.

Unicous
2015-06-01, 14:54:07
Es findet sich auf dem MG279 keinen einzigen Hinweis auf Adaptive Sync oder FreeSync, ein Schelm der Böses dabei denkt.

https://pbs.twimg.com/media/CGaGCOnWcAAWium.jpg

aufkrawall
2015-06-01, 15:04:15
An was für Böses hast du denn so gedacht?

fondness
2015-06-01, 15:20:05
Sie haben wohl einen exklusiven Werbevertrag mit NV, solange sie trotzdem ordentliche FreeSync-Produkte auf den Markt bringen soll es mir recht sein.

dargo
2015-06-01, 17:11:48
@fondness

Hast du deinen Asus endlich da?

fondness
2015-06-01, 17:12:35
Nope scheint leider seit den Firmware-Problemen nichts mehr ausgeliefert zu werden. :(

Unicous
2015-06-01, 17:15:26
A propos firmware:

http://www.tftcentral.co.uk/news_archive/33.htm#benq_xl2730z_firmware

Unicous
2015-06-02, 22:21:38
MG278Q, 27"? 144Hz, wahrscheinlich TN (->1ms). (e: 1440p)

Daneben der bereits bekannte 279Q

http://rog.asus.com/wp-content/uploads/2015/06/MG-2000.jpg

https://rog.asus.com/422592015/labels/event/computex-2015-asus-rog-announces-latest-range-of-gaming-gear/



Nicht sehr informativ aber hier gibt es Bewegtbilder:
Oe_PyJ5eLFI


350cd/m², 1 DP, 2xHDMI (1x 2.0), 1xDVI, Preis 549 Dollar laut dieser Seite http://www.nextinpact.com/news/95274-asus-fait-plein-decrans-proart-4k-precalibre-freesync-et-deux-g-sync.htm (könnte auch eine abgetippte PM sein)


edit:

Der 24" Nixeus wird wohl am 20. oder 21 Juni auf der ExtravaLANza vorgestellt.

I just confirmed with AMD that we will be unveiling our Freesync monitors at this event for the public to see and play with. Hope I get to see some awesome OCN community members at the event!

http://www.overclock.net/t/1558059/radeon-extravalanza-2015-early-team-registration/10#post_23986303

Keine Ahnung ob uns Europäer das überhaupt tangieren muss.:confused:


https://pbs.twimg.com/media/CGiKcwVUgAIIX92.jpg:large
https://twitter.com/Nixeus/status/605886376991584256

http://www.nixeus.com/?product=nixeus-vue-24


100% sRGB Color Gamut
380cd/m2

Not bad.

Locuza
2015-06-03, 03:31:40
http://www.planet3dnow.de/cms/wp-content/gallery/amd-carrizo-techday-overview/20-Carrizo-Overview.png

Unicous
2015-06-03, 03:41:57
Was? wie soll denn das gehen.:eek: So kurz nachdem Nvidia Laptops mit G-Sync vorgestellt hat.:wink::wink:

Mandalore
2015-06-03, 07:45:35
Drecks Nvidia, ehrlich. Ich fand den Laden einst symphatisch, aber seit man den GK104 released hat, hat man sich ein Drecksego angebaut was kaum übertroffen wird. :mad::mad:

r3ptil3
2015-06-03, 07:54:10
Es findet sich auf dem MG279 keinen einzigen Hinweis auf Adaptive Sync oder FreeSync, ein Schelm der Böses dabei denkt.

https://pbs.twimg.com/media/CGaGCOnWcAAWium.jpg

Ist eigentlich das Problem mit Freesync/144Hz endgültig gelöst?

dargo
2015-06-03, 09:45:02
Der 24" Nixeus wird wohl am 20. oder 21 Juni auf der ExtravaLANza vorgestellt.



http://www.overclock.net/t/1558059/radeon-extravalanza-2015-early-team-registration/10#post_23986303

Keine Ahnung ob uns Europäer das überhaupt tangieren muss.:confused:


https://pbs.twimg.com/media/CGiKcwVUgAIIX92.jpg:large
https://twitter.com/Nixeus/status/605886376991584256

http://www.nixeus.com/?product=nixeus-vue-24

Na endlich ein 1080p 24" Freesync Bildschirm. :cool: Zwar nur TN, aber immerhin ein Anfang.

Edit:
Aus den Spezifikationen:
144Hz (AMD FreeSync™ Range 30Hz to 144Hz)
Dürfte dann wohl der erste Bildschirm sein der ohne Framedoubling bei Freesync auf 30Hz runter geht.

Ist eigentlich das Problem mit Freesync/144Hz endgültig gelöst?
Momentan wird kein MG279 ausgeliefert. Fondness wartet auch schon recht lange auf seinen.

fondness
2015-06-03, 10:00:29
Dürfte dann wohl der erste Bildschirm sein der ohne Framedoubling bei Freesync auf 30Hz runter geht.


Na siehe da, 30-144Hz. Mit ein bisschen Optimierung geht ja dann doch mehr.

Kartenlehrling
2015-06-03, 10:34:43
Selbst wenn der TN Schwarzwerte und Blickwinkelstabilität wie ein IPS hat,
finde ich jetzt die 1080p nicht mehr die Grösse ist die man sich wirklich wünscht.

dargo
2015-06-03, 10:43:27
Selbst wenn der TN Schwarzwerte und Blickwinkelstabilität wie ein IPS hat,
finde ich jetzt die 1080p nicht mehr die Grösse ist die man sich wirklich wünscht.
Und ich finde das ist Bullshit.

Gerade 1080p hilft der Marktdurchdringung viel eher als diese teuren Geräte @1440p-2160p. Zudem brauchst du keine super duper teure Grafikkarte. Schon eine R9 290 (non X) ist für 1080p ideal. Günstiger Bildschirm + günstige Grafikkarte sind starke Argumente für den Mainstream. Ich bin für "VRR für alle!" Und nicht nur High-End Käufer.

Edit:
Keine Ahnung ob die Angaben stimmen:
http://www.dsogaming.com/news/rumour-amd-fiji-models-revealed-will-come-with-both-4gb-8gb-cheapest-model-at-599/

Aber R9 380 riecht nach Tonga Pro mit 4GB. Mit paar kleinen Abstrichen bei den neuesten Games wäre das ebenfalls eine sehr gute Karte für 1080p und Freesync. Und das für 199$.

Blediator16
2015-06-03, 10:46:56
Exakt. Ich wäre ein Kandidat für sowas. Midrange Karte und ein Moni in dieser Größe mit entsprechendem Preis.

Unicous
2015-06-03, 11:31:29
Ist eigentlich das Problem mit Freesync/144Hz endgültig gelöst?

Ja. Aber soweit ich das mitbekommen habe werden die Monitore noch nicht ausgeliefert.

Beim BenQ wurde es auch schon gefixed, aber es dauert wohl noch einen Monat bis die Monitore mit neuer firmware im Laden ankommen, bis dahin muss man das Teil einschicken.


edit:

@dargo

Wenn das mit der Range stimmt, wäre das u.U. wohl der erste VRR Monitor der so eine range hat.


Die Angaben im Link sind mit Sicherheit fake.

Unicous
2015-06-03, 11:51:30
ALTER.:eek::eek::eek::eek:


FreeSync über HDMI (proof of concept)

http://anandtech.com/show/9337/amd-shows-freesyncoverhdmi-concept-at-computex-2015


The monitor in question is running a running a Realtek TCON, with AMD and Realtek developing the prototype together. The TCON itself is by all indications a bog-standard TCON (i.e. not custom hardware), with the only difference being that Realtek has developed a custom firmware for it to support variable refresh operation and the FreeSync-over-HDMI technology.

dargo
2015-06-03, 12:11:50
Lol... für den PC Monitor zwar eher weniger interessant. Aber für den TV könnte das für die Zukunft Freesync bedeuten. :D Ich sehe es schon als Standard für die nächsten Konsolen. ;)

Blediator16
2015-06-03, 12:15:33
Steinigt mich, aber in Kombination mit Konsolen und TV Freesync wäre das der Hammer :D

Unicous
2015-06-03, 12:15:37
@dargo

Obviously.:wink:

Aber nun stell dir mal vor du hast einen Rechner und kannst da Monitor und TV anschließen und dennoch VRR auf beiden Panels nutzen. *lechz*


Fraglich, ob die Konsolen das unterstützen. Gerade die Xbox hat ja glaube ich einen eigenen Scaler.

Disco_STFU
2015-06-03, 12:27:46
Bei Freesync tut sich ja so einiges, klasse! :smile:

Demogod
2015-06-03, 13:16:27
Hier das günstigste Display (http://geizhals.de/lg-electronics-29um67-p-a1223769.html?hloc=at&hloc=de) mit freesync UND 2560*1080 Auflösung. Die Bewertung von dem einen User ist nicht so begeistert. Bei Prad (http://www.prad.de/guide/screen10035.html) gibt es leider keinen Test.. Was haltet ihr davon?

fondness
2015-06-03, 14:31:48
Bei Amazon sind die Bewertungen nicht so schlecht: http://www.amazon.de/dp/B00VX8YX42/ref=asc_df_B00VX8YX4226791457?smid=A3JWKAKR8XB7XF&tag=geizhalspre03-21&linkCode=df0&creative=22498&creativeASIN=B00VX8YX42&childASIN=B00VX8YX42

AFAIK hat sogar jemand hier i Forum den Monitor.

foenfrisur
2015-06-03, 17:43:15
erste NVIDIA Notebooks mit G-sync OHNE zusatzmodul soll es ja auch in kürze geben.

gibt es dazu schon irgendwas neues?

springt nvidia nun doch auf freesync auf??

mfg

aufkrawall
2015-06-03, 17:45:31
Lies einfach den Artikel auf Anandtech.

foenfrisur
2015-06-03, 19:59:53
also nutzen sie es im grunde auch.
nur offenbar nicht ganz so nutzerfreundlich bzw. auf gleichem level, weil sie ein stückweit proprietär behalten wollen....war ja klar^^

danke
mfg

Kartenlehrling
2015-06-03, 20:18:39
http://www.zackzack.de/html/detail/zackzack.html?itemId=28314&
Acer TN-freesync Predator XG270HUomidpx für 470€ versandfrei.

Unicous
2015-06-04, 13:05:36
Kommentar von Ryan Smith @ Anandtech

It's a custom protocol in as much as it's not bog-standard HDMI. However it is developed as an extension to HDMI since AMD is seeking to have it integrated into the standard.

:up:

robbitop
2015-06-04, 16:55:19
Und das macht auch Sinn! :)

Sunrise
2015-06-04, 17:12:52
Das wäre absolut geil, wenn das wirklich kommt.

Gipsel
2015-06-04, 17:15:26
Im Prinzip haben wir darüber schon am Anfang des Threads (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10067910#post10067910) gesprochen. Offenbar lag ich mit meiner Einschätzung, daß da vermutlich niemand mehr was für die "alten" Interfaces basteln wird doch nicht ganz richtig. Aber es ist eine begrüßenswerte Entwicklung.

mironicus
2015-06-04, 17:16:13
Ich habe gehört NVidia plant einen proprietären Videoanschluss speziell für ihre Grafikkarten als Alternative zu Displayport und HDMI. Ob das klappt...? :D :D

Kartenlehrling
2015-06-04, 23:17:33
http://rog.asus.com/wp-content/uploads/2015/06/PG279Q-b.jpg
.
.
h XX p://rog.asus.com/422632015/gaming-monitors/computex-2015-asus-announces-new-gaming-displays/
.
.

Wer kontrolliert eigenlich die Fotos die Asus hochläde :) ???

aufkrawall
2015-06-04, 23:19:32
holy moly, da ist mein Qnix mit locker sitzendem Panel ja völlig harmlos gegen. :eek:

Unicous
2015-06-04, 23:20:22
Ja, echt gruselig.:eek: Voll weiß und fast durchsichtig. Sieht fast aus wie ein Ghost(ing).


e: Also ich meine den Typen im Hintergrund. Ihr doch auch, oder?

aufkrawall
2015-06-04, 23:25:07
Das gelbe/grüne müsste ja eigentlich das blb sein, da mit neueren IPS-Techniken der glow farblos ist.
Also wirklich, wie man so einen Schrott bauen kann. Man kann 180€ Geräte ohne jedes bleeding bekommen...

Troyan
2015-06-04, 23:33:23
Das ist doch ein Panel-Problem. Hat der Acer und andere Asus auch.

Man kann sich natürlich auch den 1080p IPS Screen mit 60Hz kaufen...

Grestorn
2015-06-05, 00:04:48
Seht ihr nicht, dass das Bild massiv überhellt ist?! Man kann bei jedem Monitor mit einem Bild alles beweisen, denn das Ergebnis hängt zu 100% von den Einstellungen der Camera ab!

Nightspider
2015-06-05, 00:10:06
holy moly, da ist mein Qnix mit locker sitzendem Panel ja völlig harmlos gegen. :eek:
Ja, echt gruselig.:eek: Voll weiß und fast durchsichtig. Sieht fast aus wie ein Ghost(ing).


e: Also ich meine den Typen im Hintergrund. Ihr doch auch, oder?

Was habt ihr denn? Auf dem Monitor steht doch selbst "In search of incredible". ;D

robbitop
2015-06-05, 09:01:42
Belichtungszeit beachten. Offenbar ist diese extrem hoch - siehe Bildhintergrund (Grestorn hat es ja schon benannt). Sieht man sehr schön bei Prad und Co, wenn sie die Belichtungszeit hochstellen, sieht jeder Monitor grausam aus.

Wobei auch hier Auffälligkeiten an der rechten unteren Ecke zu sehen sind. Das scheint also der Nachteil dieses Panels zu sein.

mironicus
2015-06-05, 12:53:22
http://www.computerbase.de/2015-06/interview-amd-nvidia-freeync-g-sync/

NVidia hat bestätigt, das Framedoubling bei GSync in Notebooks über den Treiber betrieben wird.

Technisch möglich wäre es. Denn so hat Tom Petersen bestätigt, dass die mehrmalige Ausgabe desselben Frames bei G-Sync für Notebooks durch den Treiber erledigt wird. Bei der Variante für externe Monitore wird das „Frame Doubling“ hingegen noch durch das G-Sync-Modul erledigt, sollte sich aber auch in Software umsetzen lassen.

Und NVidia will nicht ausschließen, Freesync später mal zu unterstützen.

fondness
2015-06-05, 12:54:56
Sie unterstützen es eh schon in Notebooks, auch wenn es nicht zugegeben wird.

Grestorn
2015-06-05, 14:08:50
Sie unterstützen es eh schon in Notebooks, auch wenn es nicht zugegeben wird.
eDP ist nicht DP. Also: Nein.

Unicous
2015-06-05, 14:15:55
Was ist denn das für eine Aussage?

Natürlich ist eDP DP. :freak:

eDP hat als Basis die DP-Spec und implementiert einige Features die für die jeweiligen Anwendungsbereiche wichtig sind.


Edit:

Achso und falls du mir nicht glaubst (kommt ja eigentlich nicht vor, ;) )... siehe z.B. hier:

The eDP v1.4a standard leverages the VESA DisplayPort (DP) Standard v1.3, published in September 2014, as a base specification.

http://www.vesa.org/news/vesa-publishes-embedded-displayport-edp-standard-version-1-4a/

fondness
2015-06-05, 14:17:56
eDP basiert auf dem VESA DP-Standard, verwendet dasselbe elektrische Interface, den selben Port auf der GPU, und dasselbe digitale Protokoll mit ein paar kleineren Erweiterungen, wovon wesentlich eigentlich nur das AdaptiveSync ist welches es jetzt auch in DP1.2a gibt. Jetzt kann man sich entweder über Begrifflichkeiten streiten, oder man kann einfach zugeben, dass das einzige Hindernis ist das NV genau das gleiche was man für eDP wohl bald supportet auch für Desktop-GPUs über den Treiber freigibt.

Grestorn
2015-06-05, 14:32:22
Das mag sein, entscheidend ist aber, dass Notebooks keinen eigenen Scaler haben (i.d.R.) und die Panels selbst das eDP Signal entgegen nehmen. Scaling und Timing übernimmt dann die GPU bzw. der Treiber selbst.

Das ist ähnlich aber eben nicht identisch mit einer FreeSync Lösung, die eben weiterhin auf einem Scaler im Monitor aufbaut.

derF
2015-06-05, 14:39:27
Oh look, it's January 2014 again!
http://www.pcper.com/reviews/Graphics-Cards/AMD-Variable-Refresh-FreeSync-Could-Be-Alternative-NVIDIA-G-Sync

Obviously AMD wasn't using the same controller module that NVIDIA is using on its current G-Sync displays, several of which were announced this week at CES. Instead, the internal connection on the Toshiba notebook was the key factor: Embedded Display Port (eDP) apparently has a feature to support variable refresh rates on LCD panels. This feature was included for power savings on mobile and integrated devices as refreshing the screen without new content can be a waste of valuable battery resources.

Kartenlehrling
2015-06-05, 14:52:07
Darum verlangt Nvidia für Mobil-gsync das es eine direkte Verbindung zur Panele hat,
also muss man im "Moment" Nvidia Optimus auf für G-sync aufgeben,
und somit heisst es auch das Nvidia Laptops die Optimus unterstützen kein G-sync können.

G-Sync on notebooks works in basically the same way as G-Sync on desktops, even though there is no G-Sync-specific chip involved.
However, notebooks that do support G-Sync will have to forgo Nvidia Optimus, which switches between the Nvidia GPU and integrated graphics to save power,
as the display needs to be directly connected to the GPU in order to support adaptive sync.

Kartenlehrling
2015-06-05, 15:23:03
Mich würde interessieren ob der 1900€ teuere ASUS G751JY-T7159H (http://geizhals.de/asus-rog-g751jy-t7066h-90nb06f1-m00880-a1182580.html?plz=&t=v&va=pp&vl=de&hloc=de&v=e#filterform), der schon mit dem DEV- Modding Treiber 347.25 funktionerte nun problemlos läuft, es gab ja unter 25fps Blackscreens.

fondness
2015-06-05, 16:26:36
591 EUR für den ASUS MG279Q - lieferbar:
http://www.pcking.de/eshop.php?action=article_detail&s_supplier_aid=5000402&rid=geizhals

Endlich scheint das Ding ausgeliefert zu werden und sich auch noch was beim Preis zu tun.

Verglichen mit den nach wie vor 750 EUR für das Acer G-Sync Pendant mit dem selben Panel kein schlechtes Angebot.

mironicus
2015-06-05, 17:47:10
Bei dem Händler wäre ich vorsichtig...

Kartenlehrling
2015-06-07, 20:24:35
Bei Seiten wie tftcentral.co.uk erwarte ich eigenlich Sachliches Wissen, wie kann man in der Pro-Contra Liste unter G-sync/Pro "Included ULMB Blur Reduction mode" schreiben und
unter Freesync/Contra "No integrated blur reduction mode", was auch vollkommen falsch ist da der BenQ XL2730Z sehrwohl ULMB hat.

Das Sugeriert doch das mit G-sync auch ULMB funktioniert, bzw. G-sync Monitor ULMB immer haben.
Das liegt aber einfach daran das ausser dem einen 4k Acer es keine 60Hz Monitor gibt mit g-sync.

Ausserdem das bei Freesync Monitor die mit 60Hz bzw. mit 75Hz laufen kein ULMB haben sollte auch klar sein, weil erst >80Hz schnell genug ist für ULMB.
http://www.tftcentral.co.uk/articles/variable_refresh.htm

Bei soo eine besch*ssen Betrag rege ich mich nur auf, weil das blöde Internet nichts vergisst und durch Copie&Paste alles falsch weiter verbreite wird.
Da stimmt doch was nicht oder hat sich das mit G-sync2.0 geändert, dann hätte ich gerne eine Aufklärung?!

samm
2015-06-08, 20:11:27
Erinnert halt auch ein wenig an PCPer, wo die ersten FCAT-Messungen von 7970 CF immer am Anfang eines Reviews stehen mit all den "runt frames" etc. - einfach mal Copy Paste, ganz egal, dass dadurch ein falscher Eindruck vermittelt wird. Hier sogar als Feature präsentieren, dass ULMB mit GSync funktioniert, dabei ist es bestenfalls ein von nVidia mit ins GSync-Paket gepacktes, aber nicht mit dem Namensgeber gleichzeitig verwendbares Feature (Lightboost-Hack offiziell gemacht), und künstlich an eigene Produkte gedongelt. Da lob ich mir die Monitor-spezifische Black Frame Insertion, wie sie BenQ oder Eizo sie bieten. Sollte öfter so gemacht werden.

[edit]
"Possible additional processing lag added by scalers" - nur bei einer der beiden Technologien erwähnt, und trotz des "möglicherweise" darin als fixer Minuspunkt gezählt, man rate mal, bei welcher :ugly:

myMind
2015-06-08, 21:17:37
Weiß nicht, ob der hier schon genannt wurde.

Vorankündigung: Asus PG34Q aus der ROG Serie
- G-Sync
- 34"
- 3440x1440
- 75Hz
- IPS
- DP und HDMI
- Preis unbekannt

Quelle: http://www.golem.de/news/pg34q-asus-zeigt-gekruemmten-rog-monitor-mit-g-sync-1506-114527.html

Schaffe89
2015-06-08, 21:34:08
Das mag sein, entscheidend ist aber, dass Notebooks keinen eigenen Scaler haben (i.d.R.) und die Panels selbst das eDP Signal entgegen nehmen. Scaling und Timing übernimmt dann die GPU bzw. der Treiber selbst.


Ändert trotzdem nichts daran, dass Nvidia sich damit lächerlich macht.
Es ist lächerlich Adaptive Sync nicht zu unterstützen.
Wie man das noch mit zusammengekniffenen Pobacken verteidigen kann, erschließt sich mir nicht.

r3ptil3
2015-06-08, 21:42:44
http://rog.asus.com/wp-content/uploads/2015/06/PG279Q-b.jpg
.
.
h XX p://rog.asus.com/422632015/gaming-monitors/computex-2015-asus-announces-new-gaming-displays/
.
.

Wer kontrolliert eigenlich die Fotos die Asus hochläde :) ???

Belichtungszeit dürfte wahrlich lange sein, dazu wurde es auch noch in Photoshop bearbeitet.

Ich könnte das gleiche Bild von meinem Monitor machen und man wäre schockiert.

PHuV
2015-06-08, 22:04:14
Ändert trotzdem nichts daran, dass Nvidia sich damit lächerlich macht.
Es ist lächerlich Adaptive Sync nicht zu unterstützen.
Wie man das noch mit zusammengekniffenen Pobacken verteidigen kann, erschließt sich mir nicht.
So einfach ist es auch nicht. Mit G-Sync kann Nvidia eine gewisse Qualität vorgeben, mit A-Sync eben nicht, was man aktuell ja bei AMD und A-Sync schön als Fail erleben kann. Wenn ich als Hersteller die Wahl hätte, einen "schlechten" Standard oder ein proprietäres gutes System zu pushen, dann pushe ich doch lieber etwas, was ich eben auch in der Hand habe und entsprechend kontrollieren kann.

Ihr seht das alles immer nur aus Eurer kleinen Froschperspektive, und begreift einfach nicht Zusämmenhänge, oder wie ein Markt funktioniert. :rolleyes:

Grestorn
2015-06-08, 22:27:20
Ändert trotzdem nichts daran, dass Nvidia sich damit lächerlich macht.
Es ist lächerlich Adaptive Sync nicht zu unterstützen.
Wie man das noch mit zusammengekniffenen Pobacken verteidigen kann, erschließt sich mir nicht.

Mir erschließt sich das durchaus. Alleinstellungsmerkmale sind einfach gut für's Marketing. Und GSync ist halt doch noch nen Tick besser. Klar wäre es für die nVidia Nutzer besser, wenn man auch Freesync verwenden könnte, aber das steht nicht im Vordergrund. Im Vordergrund stand schon immer sich abzusetzen.

Man muss das nicht unbedingt gut finden, nachvollziehbar ist es allemal.

Wenn GSync sterben sollte ohne das Freesync technisch aufholt, wäre das zumindest für mich ein Verlust. Auch wenn nVidia Freesync übernehmen würde.

Kartenlehrling
2015-06-08, 22:28:15
@bardh
Mach dich doch nicht lächerlich.

aufkrawall
2015-06-08, 22:31:08
Wenn GSync sterben sollte ohne das Freesync technisch aufholt, wäre das zumindest für mich ein Verlust. Auch wenn nVidia Freesync übernehmen würde.
Das ist jetzt aber sehr hypothetisch, immerhin haben sie schon für Notebooks ohne Modul eine vergleichbar gut funktionierende Lösung versprochen.

Disco_STFU
2015-06-08, 22:47:12
Wenn GSync sterben sollte ohne das Freesync technisch aufholt, wäre das zumindest für mich ein Verlust.

Keine Sorge, sollte es jemals soweit kommen kannst du deine Tränen bestimmt mit dem nächsten überteuerten proprietären Bullshit trocknen.

http://replygif.net/i/718.gif

Grestorn
2015-06-08, 23:28:46
Um mich mal wieder so richtig unbeliebt zu machen: Aus Deinem Posting quillt der Neid nur so heraus! :) Komm her, lass Dir den Kopf streicheln, mein kleiner...

StefanV
2015-06-08, 23:37:10
Um mich mal wieder so richtig unbeliebt zu machen: Aus Deinem Posting quillt der Neid nur so heraus! :) Komm her, lass Dir den Kopf streicheln, mein kleiner...
...sagt man, wenn alle anderen Argumente ausgegangen sind und man keinerlei Möglichkeiten mehr hat, seinen Standpunkt zu verteidigen...

Dann muss man mit dem Neid-Faktor kommen...

Aber warum sollt man hier neidisch sein? Für solch überteuertes Zeugs...

Falls es dir nicht aufgefallen ist, aber mir scheint es, als ob eine ganze Latte an neu erscheinenden Schirmen mit A-Sync ausgestattet sind. Wenn das so weiter geht und wir noch 5-10 Jahre warten, wird es gar keine Schirme mehr geben, die zwar DP haben, aber Adaptive Sync nicht unterstützen...

Aber hey, nVidia ist ja gut und sorgt für Fortschritt...
Wie damals beim ESA Zeugs...

r3ptil3
2015-06-08, 23:38:51
@bardh
Mach dich doch nicht lächerlich.

Ich sage nur das was in den Bildinformationen drin steht.

Grestorn
2015-06-08, 23:42:56
...sagt man, wenn alle anderen Argumente ausgegangen sind und man keinerlei Möglichkeiten mehr hat, seinen Standpunkt zu verteidigen...

Dann muss man mit dem Neid-Faktor kommen...

Er hat ja geradezu darum gebettelt, speziell mit seinem netten Movie. Dass man das auch als Beleidigung sehen könnte, darauf kommt ihr erst mal vorsorglich gar nicht, oder?! :)


Zum Thema: Ich hab nichts gegen Freesync, wie ich auch oft genug geschrieben habe. Ich hoffe, AMD kriegt das hin, dass auch über den Treiber das Framdoubling in unteren Frequenzen möglich wird, oder bessere Scaler übernehmen das mal irgendwann. Sind halt Kinderkrankheiten. Bis dahin wird uns GSync auch gute und sinnvolle Dienste leisten.

Überteuert ist GSync keine Sekunde. Für etwas, das gut funktioniert gebe ich auch gern ein paar Kröten aus meine Portokasse aus (Teasing Teasing....)

Screemer
2015-06-09, 00:04:04
Du siehst doch eh alles als beleidigung, was dir grad nicht in den kram passt.

robbitop
2015-06-09, 08:26:14
Vom technischen Standpunkt hat Grestorn allerdings Recht. Solange die freesync Range noch eingeschränkt ist, ist es eben unterlegen. Das wird nächstes Jahr vermutlich schon anders aussehen. Mittelfristig wird NV IMO auch A-Sync Monitore unterstützen, da sich der Markt dort offenbar hinbewegt.

Conner_Ray
2015-06-09, 10:50:04
Solange die freesync Range noch eingeschränkt ist, ist es eben unterlegen.
Verbesser mich wenn ich falsch liege, aber ich dachte die Range ist eine Sache der Monitorhersteller, nicht die von AMDs Freesync.

Isen
2015-06-09, 10:52:59
So ist es auch. Monitor, Panel usw... auf der Software Seite wird es schon seit Beginn unterstützt, Hardware nur eben nicht.

robbitop
2015-06-09, 12:22:09
Verbesser mich wenn ich falsch liege, aber ich dachte die Range ist eine Sache der Monitorhersteller, nicht die von AMDs Freesync.
Richtig. Aber NVIDIA nutzt Framedoubling unterhalb der zulässigen Range, so dass G-Sync praktisch immer greift.
Das G-Sync Modul ersetzt den Scaler, so dass das Verhalten bei jedem Monitor genau so ist, wie NV das will. Das ist natürlich ein Vorteil.
Selbst der aktuell beste Freesync Monitor (MG279Q) hat unter Freesync eine begrenzte obere Grenze (90 Hz) - einfach Scalerbedingt. Das fällt bei NV eben raus.

MechWOLLIer
2015-06-09, 13:12:08
Laut Nvidia geht das Framedoubling auch genauso gut ohne das G-Sync-Modul. Sie achten nur drauf, dass das Panel mit allem klar kommt.

Troyan
2015-06-09, 13:24:38
Im Notebook ist der Weg zwischen Panel und GPU auch wesentlich kürzer.

fondness
2015-06-09, 13:28:53
Als ob die Kabellänge limitieren würde. :ugly:

Gipsel
2015-06-09, 14:25:07
Richtig. Aber NVIDIA nutzt Framedoubling unterhalb der zulässigen Range, so dass G-Sync praktisch immer greift.Das geht bei FreeSync-Monitoren auch. Die Grafikkarte (bzw. deren Treiber) muß es nur machen.
Das G-Sync Modul ersetzt den Scaler, so dass das Verhalten bei jedem Monitor genau so ist, wie NV das will. Das ist natürlich ein Vorteil.
Selbst der aktuell beste Freesync Monitor (MG279Q) hat unter Freesync eine begrenzte obere Grenze (90 Hz) - einfach Scalerbedingt. Das fällt bei NV eben raus.Wie oft denn noch? Das liegt definitiv NICHT am Scaler. Das ist die Wahl des Monitorherstellers anhand der Abwägung zwischen Anspruch der Hersteller an die gleichmäßige Qualität der Darstellung und den Eigenschaften des Panels. Wird ein zu großer Bereich mit einem unzureichenden Panel gewählt, kann es zu Unterschieden bei Farbdarstellung und/oder Helligkeit bei wechselnder Framerate kommen (im Extremfall zu Flackern). Entweder schrauben die Hersteller die Ansprüche zurück (lassen also leichte Veränderungen zu) oder sie nehmen besser darauf zugeschnittene Panels (bzw. tunen die Ansteuerung existierender etwas, um das Problem zu minimieren). Bei FreeSync verhält sich jeder Monitor in diesem Bereich so, wie es der Monitorhersteller will.

Kartenlehrling
2015-06-09, 14:37:29
Wer hat eigentlich patent auf Ultra Low Motion Blur (ULMB), weil es jetzt neben G-sync im Treiber aktivert werden kann bzw. abgeschalten.

http://international.download.nvidia.com/geforce-com/international/images/nvidia-g-sync/nvidia-gsync-nvcpl-configuration-ulmb-mode.png

Schaffe89
2015-06-09, 14:37:35
Ihr seht das alles immer nur aus Eurer kleinen Froschperspektive, und begreift einfach nicht Zusämmenhänge, oder wie ein Markt funktioniert.

Ich habe auch nicht aus Sicht des Marktes argumentiert, sondern aus Sicht des Verbrauchers.
Das darf man mir als Verbraucher vielleicht auch zugestehen.

Mit G-Sync kann Nvidia eine gewisse Qualität vorgeben, mit A-Sync eben nicht, was man aktuell ja bei AMD und A-Sync schön als Fail erleben kann

Freesync ist also ein Fail, weil Framedoubling noch nicht funktioniert?
Interessant dass manche immer gleich die ganz bösen Wörter benutzen zu wissen.
Bist wohl auch G-sync Nutzer? ;)

Unicous
2015-06-09, 14:50:17
Ist zwar keine mir bekannte Seite aber es gibt auch noch andere internationale Seiten die es berichten:

AOC G2460PF monitor for gamers of 144Hz with technology FreeSync (http://www.tech-boom.com/aoc-g2460pf-monitor-for-gamers-of-144hz-with-technology-freesync/)

AOC wollte ja schon vor einer Ewigkeit einen Adaptive Sync Monitor bringen, hat wohl doch etwas länger gedauert.:rolleyes:

Standardkost 24", 1080p, 144Hz (1ms), 300 cd/m³

At the moment we have no official confirmation on the price of this model, which will arrive in Europe next July.


Der Link alleine wäre mir nicht genug gewesen deswegen dieser Tweet von AOC France von heute:

Les moniteurs gamer "freesync" arrivent!

https://twitter.com/AOC_France/status/608233451490295808

Vllt. haben die Seiten auch die NDA der PM verbockt?

Grestorn
2015-06-09, 14:53:07
Freesync ist also ein Fail, weil Framedoubling noch nicht funktioniert?

Ich mag das Wort "Fail" nicht, es ist sehr despektierlich und zielt nur darauf, dem Gegenüber eins reinzuwürgen.

Das fehlende Framedoubling ist auf jeden Fall ein Nachteil. Alle hoffen, dass AMD das im Treiber noch geregelt bekommt. Meine Meinung von Anfang an war aber, dass die Realisierung über den Treiber schwieriger sein dürfte, als über eine dedizierte Hardware (GSync-Scaler) im Monitor.

Da nVidia das im Falle von eDP auch ohne zusätzliche Hardware machen muss, kann es dort der Treiber entweder schon oder nVidia verzichtet bei Notebooks auf das Framedoubling (was ein klarer Nachteil wäre). Man wird sehen.

Ich sehe aber auch keinen Grund, warum die Freesync-Scaler das nicht auch selbst komplett transparent hinbekommen können sollten. Die Frage ist nur, ob die Scaler-Hersteller daran ein Interesse haben. Offenbar ist das im DP-Standard nicht festgelegt und wurde deswegen auch nicht so implementiert. In meinen Augen eine Lücke in der DP Spezifikation.

Unicous
2015-06-09, 15:01:34
Nur der Vollständigkeit halber:

Asus MG279Q update - overdrive (Trace Free setting) DOES work correctly from a FreeSync system :)

https://twitter.com/TFTCentral/status/608211868054908928

aufkrawall
2015-06-09, 15:02:28
War das nicht schon lange bekannt?

Unicous
2015-06-09, 15:06:43
Immer gut es nochmal von unabhängiger und kompetenter Quelle bestätigt zu wissen. Es gibt genug nennen wir sie wohlwollend, Skeptiker:rolleyes:, die es verneint haben und behaupteten es würde nie funktionieren, weil Nvidia es übers FPGA macht.

aufkrawall
2015-06-09, 15:13:04
Kann das bei den Massen an Monitoren denn echt noch ein FPGA sein?

Loeschzwerg
2015-06-09, 15:18:12
Kann das bei den Massen an Monitoren denn echt noch ein FPGA sein?

Bis jetzt hat sich immer noch keiner getraut einen entsprechenden Moni aufzuschrauben ;(

Grestorn
2015-06-09, 15:20:21
Immer gut es nochmal von unabhängiger und kompetenter Quelle bestätigt zu wissen. Es gibt genug nennen wir sie wohlwollend, Skeptiker:rolleyes:, die es verneint haben und behaupteten es würde nie funktionieren, weil Nvidia es übers FPGA macht.

Der Scaler muss es halt können. Dabei ist es egal, ob der Scaler "GSync-Modul" oder "FreeSync kompatibler Scaler" heißt. Ein Monitor, dessen Scaler es nicht kann, wird es nie können. Mehr hat aber auch niemand je behauptet, oder?

/Edit: Ein FPGA Modul wurde doch nur bei den Prototypen verwendet. Ich bezweifle, dass es einen GSync Monitor auf dem Markt gibt, bei dem tatsächlich ein FPGA eingesetzt wird.

Unicous
2015-06-09, 15:22:53
Der Scaler muss es halt können. Dabei ist es egal, ob der Scaler "GSync-Modul" oder "FreeSync kompatibler Scaler" heißt. Ein Monitor, dessen Scaler es nicht kann, wird es nie können. Mehr hat aber auch niemand je behauptet, oder?

Lies dir den Thread durch.:rolleyes:


Bis jetzt haben alle Monitore ein FPGA-Modul. (Es gibt jedenfalls keine gegenteiligen Berichte.)

StefanV
2015-06-09, 15:36:12
/Edit: Ein FPGA Modul wurde doch nur bei den Prototypen verwendet. Ich bezweifle, dass es einen GSync Monitor auf dem Markt gibt, bei dem tatsächlich ein FPGA eingesetzt wird.
Hast du denn ein aktuelles Bild von den Innereien eines aktuellen G-Sync Monitors?!

Ich nicht, bis ich das nicht gesehen habe, gehe ich nicht von einer Veränderung sondern dem FPGA aus.

robbitop
2015-06-09, 15:39:47
Wie oft denn noch? Das liegt definitiv NICHT am Scaler. Das ist die Wahl des Monitorherstellers anhand der Abwägung zwischen Anspruch der Hersteller an die gleichmäßige Qualität der Darstellung und den Eigenschaften des Panels. Wird ein zu großer Bereich mit einem unzureichenden Panel gewählt, kann es zu Unterschieden bei Farbdarstellung und/oder Helligkeit bei wechselnder Framerate kommen (im Extremfall zu Flackern). Entweder schrauben die Hersteller die Ansprüche zurück (lassen also leichte Veränderungen zu) oder sie nehmen besser darauf zugeschnittene Panels (bzw. tunen die Ansteuerung existierender etwas, um das Problem zu minimieren). Bei FreeSync verhält sich jeder Monitor in diesem Bereich so, wie es der Monitorhersteller will.
Kann nicht sein. Das gleiche Panel wird im Acer Predator und im PG279Q (beides G-Sync) eingesetzt. Und dort ist man außerhalb vom Framedoubling zwischen 36 und 144 Hz. Erst unterhalb von 36 Hz setzt das Framedoubling ein.

Beim MG279Q hingegen ist man auf 90 Hz begrenzt. Kann also nicht am Panel liegen.

dargo
2015-06-09, 15:43:33
Das fehlende Framedoubling ist auf jeden Fall ein Nachteil.

Nein, ist es in der Praxis nicht für jeden. Wurde schon zig mal durchgekaut.


Alle hoffen, dass AMD das im Treiber noch geregelt bekommt.

Wer ist alle? Ich brauchs schon mal nicht. Min. 40Hz reichen mir absolut.

robbitop
2015-06-09, 15:48:58
Es ist schon relevant, wenn es kurze Abstürze in den fps Keller gibt (die gibt es immer mal). Die fallen dann weniger auf.

Eines ist klar: etwas zu haben ist immer besser als etwas nicht zu haben.

Grestorn
2015-06-09, 15:56:11
Ich nicht, bis ich das nicht gesehen habe, gehe ich nicht von einer Veränderung sondern dem FPGA aus.

Das ist vergleichsweise unsinnig. Kein Insider hat je behauptet, dass GSync ein FPGA ist. Nur weil auf dem Prototyp ein solcher verbaut wurde, haben einige Leute in Foren den Schluss gezogen, GSync wäre immer ein FPGA, was schon im Grundsatz eine völlig falsche Annahme war.

Also im Gegenteil: Bevor ich nicht gesehen habe, dass tatsächlich bei einem im Handel regulär verkauften GSync Monitor ein FPGA eingebaut ist, gehe ich davon aus, dass es reguläre Custom-ASICs sind. Alles andere wäre im Übrigen auch nicht wirtschaftlich.

@dargo: Ich spiel Witcher 3 in 30-35 fps gefühlt absolut flüssig. *Mich* würde eine Grenze bei 40 Hz massiv stören. Und bevor Du selbst keine Praxiserfahrung hast, solltest Du Dich besser nicht auf eine endgültige Bewertung einlassen.

M4xw0lf
2015-06-09, 15:59:16
Eines ist klar: etwas zu haben ist immer besser als etwas nicht zu haben.
Krebs? :uponder:

y33H@
2015-06-09, 15:59:42
LG bringt 4K mit Freesync auf 27 Zoll: http://www.prnewswire.com/news-releases/lg-4k-ultra-hd-monitor-to-deliver-exceptional-experience-to-us-gamers-300095892.html

Unicous
2015-06-09, 15:59:54
@Grestorn

Alter. Wir haben uns hier über Seiten gestritten, ob Nvidia bereits einen ASIC nutzt (ich war der Meinung ja, es könnte sein) und wir haben uns darauf geeinigt, dass es momentan nicht danach aussieht und jetzt kommst du mit der Behauptung es wäre so.:freak:

@ y33H@


Ist hier keine Neuigkeit mehr.:tongue:

aufkrawall
2015-06-09, 16:02:35
Mir geht das Tearing in Cutscenes jedenfalls auf die Nüsse, die fps sind dabei fast immer niedriger als im eigentlichen Spiel.
Gibts überhaupt nichts schönzureden.

Grestorn
2015-06-09, 16:05:55
@Grestorn

Alter. Wir haben uns hier über Seiten gestritten, ob Nvidia bereits einen ASIC nutzt (ich war der Meinung ja, es könnte sein) und wir haben uns darauf geeinigt, dass es momentan nicht danach aussieht und jetzt kommst du mit der Behauptung es wäre so.:freak:

Wus?! Ich soll behauptet haben, es wäre ein FPGA? Da muss ich wohl an Gedächtnisverlust leiden. Aber wer weiß, ich werd nicht jünger. Bist Du so nett und zeigst mir die Postings?

Du musst mich verwechseln. Ich hab eben alle Postings von mir gesucht, in denen das Wort FPGA vorkommt. So viele sind das nicht:

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10585941&highlight=FPGA#post10585941
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10586663&highlight=FPGA#post10586663
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10587513&highlight=FPGA#post10587513
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10604576&highlight=FPGA#post10604576

Nirgendwo bestehe ich darauf, dass FPGAs statt ASICs verbaut sind, im Gegenteil.

dargo
2015-06-09, 16:06:14
@dargo: Ich spiel Witcher 3 in 30-35 fps gefühlt absolut flüssig. *Mich* würde eine Grenze bei 40 Hz massiv stören.
Das ist schön für dich. Interessiert mich aber wenig da ich sowas nicht als flüssig empfinde. Auch das wurde schon zig mal durchgekaut. Zum flüssigen Gaming gehört nicht nur die Bildausgabe sondern auch der Input. Ab ~50fps können wir gerne darüber diskutieren was flüssig bedeutet.

aufkrawall
2015-06-09, 16:10:16
Du hast mit 50fps in-game aber keine 50fps in Cutscenes.
Warum soll es da Tearing geben dürfen? Sieht völlig scheiße aus, gerade mit seitlichen Kameraschwenks. Und da man nicht spielt, sondern nur schaut, fällts sogar noch um so stärker auf.

Grestorn
2015-06-09, 16:10:59
Das ist schön für dich. Interessiert mich aber wenig da ich sowas nicht als flüssig empfinde. Auch das wurde schon zig mal durchgekaut. Zum flüssigen Gaming gehört nicht nur die Bildausgabe sondern auch der Input. Ab ~50fps können wir gerne darüber diskutieren was flüssig bedeutet.

Sagt der, der noch nie GSync/Freesync selbst gesehen hat. Aber egal, glaub was Dich glücklich macht.

y33H@
2015-06-09, 16:11:55
Ist hier keine Neuigkeit mehr.Hab doch extra geguckt ob das Teil schon verlinkt wurde :freak:

600 USD für 4K-IPS klingt fein.

EDIT
600 Euro, verfügbar ab Ende Juni.

aufkrawall
2015-06-09, 16:15:30
Die Info über den geringen Input Lag ist afaik neu, wenn sie denn wahr ist.

Unicous
2015-06-09, 16:18:50
Boar, Grestorn. :rolleyes::rolleyes::rolleyes::rolleyes: Ich habe dir schon mal gesagt: Bezieh nicht immer alles auf dich. There is no Grestorn in "Wir".

"Wir" bezieht sich auf die Teilnehmer in diesem Thread und "du" bezieht sich auf... dich.


Ich sage es nochmal. Lies dir den Thread durch. Du hast ja offensichtlich auch Zeit deine eigenen Beiträge herauszusuchen.:rolleyes:

Grestorn
2015-06-09, 16:23:36
Boar, Grestorn. :rolleyes::rolleyes::rolleyes::rolleyes: Ich habe dir schon mal gesagt: Bezieh nicht immer alles auf dich. There is no Grestorn in "Wir".

Dann schreib so was gefälligst nicht als Antwort auf mein Posting. Kein Wunder, dass ich das auf mich beziehe. Dein Posting war ganz klar so geschrieben, dass Du mich speziell meinst "Erst streiten WIR und jetzt behauptest DU". Was ist daran misszuverstehen?

Was Du mit anderen diskutierst interessiert mich nicht und Du kannst es bei mir auch nicht als bekannt voraussetzen.

Boar.

Unicous
2015-06-09, 16:29:00
Was Du mit anderen diskutierst interessiert mich nicht und Du kannst es bei mir auch nicht als bekannt voraussetzen.


Was suchst du dann hier?:confused:

dargo
2015-06-09, 16:43:32
Du hast mit 50fps in-game aber keine 50fps in Cutscenes.
Warum soll es da Tearing geben dürfen? Sieht völlig scheiße aus, gerade mit seitlichen Kameraschwenks. Und da man nicht spielt, sondern nur schaut, fällts sogar noch um so stärker auf.
Die 50fps kannst du als avg. ansehen. Für die Notfälle habe ich gesagt min. 40Hz. Weniger hatte ich hier schon ewig nicht mehr gesehen. Einzige Ausnahme war letztens AC: U. Da ging es schon mal für wenige Sekunden in den Cutszenen Richtung 36fps. Schrottige Software wird es halt immer geben. Ich werde es überleben.

fondness
2015-06-09, 16:49:56
Framedoubeling für FreeSync wird eh kommen, AMD wird es halt erst offiziell machen wenn man auch was zum herzeigen hat.

Kartenlehrling
2015-06-09, 18:11:57
Kann nicht sein. Das gleiche Panel wird im Acer Predator und im PG279Q (beides G-Sync) eingesetzt. Und dort ist man außerhalb vom Framedoubling zwischen 36 und 144 Hz. Erst unterhalb von 36 Hz setzt das Framedoubling ein.

Beim MG279Q hingegen ist man auf 90 Hz begrenzt. Kann also nicht am Panel liegen.


Also mein Outlet MG279Q ist da, das BLB ist wunderbar,
besser ist mein Dell u2515h auch nicht, iPS-glow in der unter rechten Ecke finde ich nicht der Rede wert kann man mit leben.
Da meiner noch das alte Firmeware hat, leide er natürlich unter dem 144Hz bug, man kann ihn zwar einstellen aber er ereicht diesen Wert nicht,
selbst 120Hz kann er nicht halten, laut Blurbuster Test (http://www.testufo.com/#test=framerates), selbst mit den Augen kann man beim skipping-test sehen das er es nicht kann.
Wenn ich ihn nicht wegen der Firmenware einschicken müsste wurde ich ihn wegen den 4! Pixelfehler sogar behalten,
da nur am Rand und auf dieser Grösse sind sie nicht wirklich sichtbar, können auch staubkörner sein.
Was aber stört ist ein grauer Fleck so gross wie 4x4 pixel, das wie eine Blase aussieht auf der Matrize.

Ein Key für Assassin's Creed Unity liegt auch bei und das alles für 375 € :biggrin:

mironicus
2015-06-09, 18:22:35
Du hättest über Qipu noch mal 3% sparen können... >10 Euro! :D

r3ptil3
2015-06-09, 21:02:38
Also mein Outlet MG279Q ist da, das BLB ist wunderbar,
besser ist mein Dell u2515h auch nicht, iPS-glow in der unter rechten Ecke finde ich nicht der Rede wert kann man mit leben.
Da meiner noch das alte Firmeware hat, leide er natürlich unter dem 144Hz bug, man kann ihn zwar einstellen aber er ereicht diesen Wert nicht,
selbst 120Hz kann er nicht halten, laut Blurbuster Test (http://www.testufo.com/#test=framerates), selbst mit den Augen kann man beim skipping-test sehen das er es nicht kann.
Wenn ich ihn nicht wegen der Firmenware einschicken müsste wurde ich ihn wegen den 4! Pixelfehler sogar behalten,
da nur am Rand und auf dieser Grösse sind sie nicht wirklich sichtbar, können auch staubkörner sein.
Was aber stört ist ein grauer Fleck so gross wie 4x4 pixel, das wie eine Blase aussieht auf der Matrize.

Ein Key für Assassin's Creed Unity liegt auch bei und das alles für 375 € :biggrin:

Kannst du noch ein paar Bilder machen?

samm
2015-06-09, 21:04:52
Kann nicht sein. Das gleiche Panel wird im Acer Predator und im PG279Q (beides G-Sync) eingesetzt. Und dort ist man außerhalb vom Framedoubling zwischen 36 und 144 Hz. Erst unterhalb von 36 Hz setzt das Framedoubling ein.

Beim MG279Q hingegen ist man auf 90 Hz begrenzt. Kann also nicht am Panel liegen.Es ist schon etwas merkwürdig, wenn man die Antwort vom damaligen Asus-Rep ansieht:What we determined in testing, and indeed in discussion with AMD, was that the lower boundary was key - with that lower boundary too high, if your fps dropped, you would lose FreeSync capabilities and notice the impact. Therefore, we decided to set the lower boundary at 35 Hz and that required us to bring the higher boundary down to 90 Hz. In testing, the effects of no FreeSync at 35-40 Hz were much more pronounced than they were >90 Hz so this made sense.Quelle (http://forums.overclockers.co.uk/showpost.php?p=28013571&postcount=271)
Sie "mussten" also die Obergrenze senken, weil sie die Untergrenze senkten (was ich ja gut finde, nach den min 48Hz der 21:9 LGs)? Klingt weder bezüglich Panel noch Scaler wirklich schlüssig - prinzipiell klingt es am ehesten nach beschränkter Genauigkeit des Protokolls, aber die möglichen Ranges von Adaptive Sync sind ja bekannt und nicht dermassen limitiert. Ist sowieso fishy, die ganze Geschichte mit dem MG279Q. Zuerst ohne Freesync-Zertifizierung, dann die Range-Einschränkung und dazu noch ein 144Hz-Bug - recht schlampige Arbeit, die Asus da leistet.

Kartenlehrling: Bin gespannt auf weitere Berichte mit dem Austauschgerät dann :)

Gipsel
2015-06-09, 21:31:39
Kann nicht sein. Das gleiche Panel wird im Acer Predator und im PG279Q (beides G-Sync) eingesetzt. Und dort ist man außerhalb vom Framedoubling zwischen 36 und 144 Hz. Erst unterhalb von 36 Hz setzt das Framedoubling ein.

Beim MG279Q hingegen ist man auf 90 Hz begrenzt. Kann also nicht am Panel liegen.Bei der G-Sync-Variante hat Asus vielleicht auch weniger Einflußmöglichkeiten?
Bei der ASync-Variante liegt dagegen Alles in Asus' Hand und sie wollten wohl jegliche Farb-/Helligkeitsveränderungen über die komplette Range ausschließen. Wie ja schon erwähnt wurde, ist der doch von einigen Firmware-Bugs geplagt und sieht somit tatsächlich etwas schlampig umgesetzt aus. Vermutlich wären auch andere Kompromisse (als letztendlich umgesetzt oder auch von dem Asus-Repräsentanten angegeben) gangbar gewesen. Kleinere Änderungen über die Range fallen ja in der Praxis vermutlich nicht so sehr auf wie in einem targeted Test.

Wie auch immer. Es fällt mir keine technische Möglichkeit ein, wie das am Scaler liegen kann. Das macht einfach keinen Sinn. Der macht, was ihm die Firmware sagt in dem Bereich, die ihm die Firmware sagt. Wenn der Scaler 144Hz kann, kann der dort genauso Pausen zwischen den Frames akzeptieren wie er das bei 90Hz oder 30Hz kann. Wird die Pause länger, gibt es nur länger keinen Refresh für das Panel. Wie sollte das den Scaler kümmern?
Es ist schon etwas merkwürdig, wenn man die Antwort vom damaligen Asus-Rep ansieht:Quelle (http://forums.overclockers.co.uk/showpost.php?p=28013571&postcount=271)
Sie "mussten" also die Obergrenze senken, weil sie die Untergrenze senkten (was ich ja gut finde, nach den min 48Hz der 21:9 LGs)? Klingt weder bezüglich Panel noch Scaler wirklich schlüssigDoch, das klingt ziemlich nach den erwähnten Veränderungen des Bildeindrucks mit dem Refreshintervall des Panels (weil die Pixel wegdriften), die man durch Verkleinerung der Range minimieren kann. Eine leichte Senkung der Untergrenze wird durch eine stärkere Senkung der Obergrenze "erkauft". In Millisekunden dürfte es wohl beinahe identisch sein (identische Driftzeiten für die Pixel, um die man die Range da verschiebt ;)).

Edit:
Mal nachrechnen:
144Hz = 6,94ms => 90Hz = 11,11ms, also +4,17ms
35 Hz = 28,57ms - 4,17ms = 24.4ms => 41 Hz

41-144Hz hätte also in Millisekunden gerechnet eine identische Größe des Fensters wie 35-90Hz.
Paßt doch super! :D
Es ist also ziemlich eindeutig die Kombination des Panels mit den Qualitätsansprüchen an die Darstellung.

fondness
2015-06-09, 21:45:07
Also mein Outlet MG279Q ist da, das BLB ist wunderbar,
besser ist mein Dell u2515h auch nicht, iPS-glow in der unter rechten Ecke finde ich nicht der Rede wert kann man mit leben.
Da meiner noch das alte Firmeware hat, leide er natürlich unter dem 144Hz bug, man kann ihn zwar einstellen aber er ereicht diesen Wert nicht,
selbst 120Hz kann er nicht halten, laut Blurbuster Test (http://www.testufo.com/#test=framerates), selbst mit den Augen kann man beim skipping-test sehen das er es nicht kann.
Wenn ich ihn nicht wegen der Firmenware einschicken müsste wurde ich ihn wegen den 4! Pixelfehler sogar behalten,
da nur am Rand und auf dieser Grösse sind sie nicht wirklich sichtbar, können auch staubkörner sein.
Was aber stört ist ein grauer Fleck so gross wie 4x4 pixel, das wie eine Blase aussieht auf der Matrize.

Ein Key für Assassin's Creed Unity liegt auch bei und das alles für 375 € :biggrin:

Kann man die Firmware irgendwie im Menü abfragen oder beurteilst du das "nur" anhand deiner Augen?

Mancko
2015-06-09, 21:46:35
Framedoubeling für FreeSync wird eh kommen, AMD wird es halt erst offiziell machen wenn man auch was zum herzeigen hat.

Tja "wird eh kommen" ist aber eben nicht heute verfügbar und wir bewerten ja nun hier nicht was irgendwann vielleicht mal kommt sondern ausschließlich das, was verfügbar und getestet ist. Für alles andere kannst Du Dir heute nix kaufen. Jemand der heute sich so ein Gerät kauft, wird sich kaum davon trösten lassen was vielleicht irgendwann mal kommt.

Troyan
2015-06-09, 21:58:43
Ich schaue mir gerade den PCPer Stream an und da kommt folgendes vor:
Leistungsverlust mit G-Sync ist nonexistent mit Maxwell (v2), da die Displayengine verbessert wurde. Leistungsverlust gibt es nur mit Kepler-Karten.

M4xw0lf
2015-06-09, 22:04:39
Ich schaue mir gerade den PCPer Stream an und da kommt folgendes vor:
Leistungsverlust mit G-Sync ist nonexistent mit Maxwell (v2), da die Displayengine verbessert wurde. Leistungsverlust gibt es nur mit Kepler-Karten.
Höhö, wahrscheinlich läuft es da einfach schon rein per Treiber, komplett am G-Sync-Modul vorbei. :upara:

Kartenlehrling
2015-06-09, 22:04:49
Kann man die Firmware irgendwie im Menü abfragen oder woher beurteilst du das "nur" anhand deiner Augen?

Weiß nicht ob es ein Firmenware Menu gibt, nur in Monitor UI sieht man welche Hz eingestellt ist und im skipping test kann man es doch sehen, ich habe es mit IE10 und Firefox getest, auch Eizo MotionBlur zeigt, Monitor Hz + FPS an also ...Ja, ich bin mir sicher.

http://cdn.sweclockers.com/artikel/bild/34160?l=eyJyZXNvdXJjZSI6IlwvYXJ0aWtlbFwvYmlsZFwvMzQxNjAiLCJmaWx0ZXJzIjpbInQ9YXJ0 aWNsZUZ1bGwiXSwicGFyYW1zIjpbXSwia2V5IjoiNDE4NTY2M2ZkYzlhNjQyM2ZhM2IxYzZmOTM5OWE0 Y2MifQ%3D%3Dhttp://cdn.sweclockers.com/artikel/bild/34159?l=eyJyZXNvdXJjZSI6IlwvYXJ0aWtlbFwvYmlsZFwvMzQxNTkiLCJmaWx0ZXJzIjpbInQ9YXJ0 aWNsZUZ1bGwiXSwicGFyYW1zIjpbXSwia2V5IjoiZTUyZTU1YmVhMzQ2ZTNlMmYxNjdlYzVjOWJiNjAz YzYifQ%3D%3D

Gipsel
2015-06-09, 22:19:51
Ich schaue mir gerade den PCPer Stream an und da kommt folgendes vor:
Leistungsverlust mit G-Sync ist nonexistent mit Maxwell (v2), da die Displayengine verbessert wurde. Leistungsverlust gibt es nur mit Kepler-Karten.Eine von mir geäußerte Theorie war ja, daß nV dieses FPGA-Modul nur bräuchte, weil Ihnen was an den Displayengines fehlte und sie das erst mit Maxwell (v2) nachrüsten, womit sie dann nicht nur auch kompatibel mit ASync wären, sondern sich allgemein den Handshake bei jedem Frame sparen könnten (angeblich im Schnitt 0,5ms extra-Delay pro Frame).
Paßt irgendwie dazu, oder?

Kartenlehrling
2015-06-09, 22:29:47
http://www.twitch.tv/pcper

Thema gtx980ti und G-sync 2.0 und VR

dargo
2015-06-09, 22:43:00
Eine von mir geäußerte Theorie war ja, daß nV dieses FPGA-Modul nur bräuchte, weil Ihnen was an den Displayengines fehlte und sie das erst mit Maxwell (v2) nachrüsten, womit sie dann nicht nur auch kompatibel mit ASync wären, sondern sich allgemein den Handshake bei jedem Frame sparen könnten (angeblich im Schnitt 0,5ms extra-Delay pro Frame).
Paßt irgendwie dazu, oder?
Also im Prinzip genau das was wir schon mutmaßten. NV brauchte G-Sync nur um eine breitere Palette an GPUs mit VRR kompatibel zu machen. Ab Maxwell (v2) aufwärts brauchts offenbar kein G-Sync Modul mehr.

Edit:
Das einzig wichtige dabei ist bloß ob NV über den eigenen Schatten springt und den Treiber so anpasst, dass Maxwell (v2) auch wirklich mit Freesync kompatibel ist. Bei NV tippe ich eher auf gar nicht oder mit viel Glück frühestens mit Pascal da man dann viel mehr Freesync taugliche GPUs im Angebot hat.

FlashBFE
2015-06-09, 22:47:28
LG bringt 4K mit Freesync auf 27 Zoll: http://www.prnewswire.com/news-releases/lg-4k-ultra-hd-monitor-to-deliver-exceptional-experience-to-us-gamers-300095892.html
@ y33H@
Ist hier keine Neuigkeit mehr.:tongue:
Doch natürlich gibt es in dem Text zum LG 27MU67 Neues:
The monitor supports AMD's FreeSync technology with a refresh range of 40 - 60Hz.
Das macht ihn für mich auch wieder relativ uninteressant. Ich hoffe, wenigstens Samsung kriegt bei seinen UHD-Modellen wenigstens 30 bis 60fps hin. Die halten sich da mit Details aber leider auch sehr bedeckt.

Kartenlehrling
2015-06-09, 23:11:44
Edit:
Das einzig wichtige dabei ist bloß ob NV über den eigenen Schatten springt und den Treiber so anpasst,
dass Maxwell (v2) auch wirklich mit Freesync VESA DISPLAYPORT ADAPTIVE-*SYNC kompatibel ist.
Bei NV tippe ich eher auf gar nicht oder mit viel Glück frühestens mit Pascal da man dann viel mehr Freesync taugliche GPUs im Angebot hat.

Ich habe es mal korrigiert, eigentlich brauchen wir "Neutrale" Monitor, was die Grafikkartenhersteller dann mit dem vorhanden machen ist ihre Sache.

Grestorn
2015-06-09, 23:13:48
Also im Prinzip genau das was wir schon mutmaßten. NV brauchte G-Sync nur um eine breitere Palette an GPUs mit VRR kompatibel zu machen. Ab Maxwell (v2) aufwärts brauchts offenbar kein G-Sync Modul mehr.

Und schon ist eine - nicht sonderlich wahrscheinliche - Annahme zu einer Tatsache mutiert.

dargo
2015-06-09, 23:28:49
Ich habe es mal korrigiert, eigentlich brauchen wir "Neutrale" Monitor, was die Grafikkartenhersteller dann mit dem vorhanden machen ist ihre Sache.
Jeder Freesync Monitor ist neutral.

N0Thing
2015-06-10, 00:32:25
Und schon ist eine - nicht sonderlich wahrscheinliche - Annahme zu einer Tatsache mutiert.

Ist nicht wahrscheinlich, weil...?

Grestorn
2015-06-10, 00:40:08
Dass es ab Maxwell 2 keinen Grund mehr für das GSync-Modul gibt? Ich bitte Dich.

Dass nVidia GPUs prinzipiell auch FreeSync könnten, wenn nVidia das wollte, war nie außer Frage gestanden. Das gilt aller Wahrscheinlichkeit auch nicht erst seit Maxwell 2.

Dass aber GSync irgendwie magisch mit herkömmlichen, nicht Freesync-kompatiblen Scalern funktionieren würde, ist absolut ausgeschlossen. Dass GSync bei eDP Notebooks mit geeigneten Panels funktioniert, liegt schlicht daran, dass diese gar keinen eigenen Scaler HABEN und der somit auch kein Problem darstellen kann.

Was, genau, sollte also am GSync Modul, das nichts anderes als nVidia's eigener Scaler ist, überflüssig sein? Und was soll die bessere GSync Performance von Maxwell 2 nun eigentlich genau beweisen?

Gipsel
2015-06-10, 01:20:31
Und sie unterstützen ASync nicht (im Moment und werden es höchstwahrscheinlich auch nie auf GPUs vor Maxwell), weil...

Grestorn
2015-06-10, 07:00:13
...sie es nicht wollen.

Gipsel
2015-06-10, 08:50:41
Nicht können ist in Bezug auf die älteren GPUs eine mindestens eben so gute Erklärung.
Denn warum wollen Sie es denn nicht? Würde doch einen zusätzlichen Mehrwert für die Kunden generieren. Irgendwelche G-Sync-Monitore können ja weiterhin existieren und zur Differenzierung bzw. Demonstration der behaupteten Überlegenheit der nV-Lösung beitragen.

Mancko
2015-06-10, 09:01:11
Nicht können ist in Bezug auf die älteren GPUs eine mindestens eben so gute Erklärung.
Denn warum wollen Sie es denn nicht? Würde doch einen zusätzlichen Mehrwert für die Kunden generieren. Irgendwelche G-Sync-Monitore können ja weiterhin existieren und zur Differenzierung bzw. Demonstration der behaupteten Überlegenheit der nV-Lösung beitragen.

Äh du scheinst nicht ganz verstehen zu wollen, dass Nvidia den Mehrwert für die Kunden über G-Sync liefert. Sie wollen A-Sync im Augenblick nicht. Nvidia möchte sich weiter von AMD abkanzeln und das eigene Ökosystem schaffen. Die nutzen ihre finanzielle Überlegenheit jetzt gnadenlos und das wird für AMD m.E. noch zum Albtraum werden. Ich halte das für die insgesamt richtige Strategie. So hält man sich auch zukünftig unliebsame Konkurrenz vom Leibe und kann vor allem Kunden binden und in Summe einfach das gesamte Ökosystem auch besser kontrollieren und die Qualität sicherstellen.

G-Sync und Gameworks sind erst der Anfang. Da wird noch mehr kommen ob es AMD passt oder nicht. Die hatten 10 Jahre lang Zeit erfolgreich zu sein und haben es nicht geschafft. Die bekommen jetzt die Rechnung schwarz auf weiß präsentiert. Da können die noch so oft die Heulsuse spielen und mit offenen Standards werben. Das wird Nvidia m.E. nicht interessieren. G-Sync ist auch ein gutes Beispiel warum es manchmal eben auch besser ist sich nicht auf die anderen zu verlassen. Mit G-Sync sitzt Nvidia direkt an der Quelle und kann knallhart Vorgaben machen. Mich interessiert es absolut Null ob nun jeder Wald und Wiesenhof Monitor G-Sync oder A-Sync hat. Wichtig ist, dass man ein paar für Gamer zugeschnittene Monitore hat wo das Feature einwandfrei und mit hoher Qualität funktioniert. Die reine Anzahl der Modelle ist für mich 0,0 interessant. Der Gamer wird den passenden Monitor fürs Gaming kaufen und genau für diese Zielgruppe ist das Feature gedacht. Und diese Kunden greifen nun mal sehr gern zu Nvidia Karten und dank G-Sync werden die das zukünftig auch weiter tun. Von Apple lernen sag ich da nur.

Da wird AMD umdenken müssen wobei ich glaube, dass es für AMD bereits zu spät ist. Das Geld wird bereits knapp und die haben schlichtweg auch nicht mehr die Resourcen da mit zu halten. Das ist aber eben am Ende auch gerecht. Wer über so viele Jahre nicht erfolgreich war, kann jetzt nicht erwarten das andere ihm helfen sollen. So funktioniert Wirtschaft nicht und so darf sie auch nie funktionieren.

Raspo
2015-06-10, 09:04:20
Bin gespannt, ob das die Kunden so mitmachen werden.

Gipsel
2015-06-10, 09:11:18
Irgendwelche G-Sync-Monitore können ja weiterhin existieren und zur Differenzierung bzw. Demonstration der behaupteten Überlegenheit der nV-Lösung beitragen.
Äh du scheinst nicht ganz verstehen zu wollen, dass Nvidia den Mehrwert für die Kunden über G-Sync liefert.Lesen?
Zusätzlicher ASync-Support würde mehr Mehrwert liefern. ;)

dargo
2015-06-10, 09:13:05
Äh du scheinst nicht ganz verstehen zu wollen, dass Nvidia den Mehrwert für die Kunden über G-Sync liefert.
Und du scheinst nicht zu verstehen, dass man die Masse nicht mit Full-HD @TN Monitoren ab 430€ anspricht. Du glaubst doch nicht ernsthaft, dass sich ein GTX960 Kunde so einen Bildschirm hinstellt oder wie naiv bist du? Noch gibt es nicht genug Konkurrenz im "Niedrig-Preisbereich" außer dem LG Electronics 29UM67-P weil sich irgendwie die meisten vorerst auf den 4k Blödsinn stürzen (kann man wahrscheinlich besser mit werben). Schauen wir mal wie es nächstes Jahr aussieht. Dieses Jahr ist schon mal ein 24" FHD Bildschirm mit 40-144Hz und Freesync angekündigt. Fraglich nur ob der in Europa erscheint. Auf jeden Fall sollte der nicht zuletzt dank TN ziemlich günstig ausfallen.

robbitop
2015-06-10, 09:21:06
Lesen?
Zusätzlicher ASync-Support würde mehr Mehrwert liefern. ;)
Eigentlich nicht. Wenn NV sich abkapseln will - also Kundenbindung betreiben will, muss der Monitor inkompatibel zu A-Sync sein. Andernfalls könnte der Kunde ja beim nächsten Mal zurück zu AMD wechseln. Wenn man den Kunden (analog zu Apple) im eigenen Ökosystem binden will, geht es nicht anders.

Gipsel
2015-06-10, 09:26:22
Eigentlich nicht.Eigentlich doch.
Denn wovon Du redest, ist gerade kein Mehrwert für den Kunden. ;)
Wenn NV sich abkapseln will - also Kundenbindung betreiben will, muss der Monitor inkompatibel zu A-Sync sein. Andernfalls könnte der Kunde ja beim nächsten Mal zurück zu AMD wechseln. Wenn man den Kunden (analog zu Apple) im eigenen Ökosystem binden will, geht es nicht anders.

r3ptil3
2015-06-10, 09:31:51
https://www.asus.com/media/global/products/aU21qq6PFhDpORKJ/P_setting_fff_1_90_end_500.png

Im Shop wird zwar in der Beschreibung nichts von Freesync erwähnt, jedoch ist auf einem Produktbild das Freesync-Logo drauf.

Monitor ist lieferbar:
https://www.digitec.ch/de/s1/product/asus-mg279q-27-350cdm2-2560-x-1440-pixel-schwarz-monitor-4677310

Weiss jemand wie man sehen kann ob nun die neue Firmware drauf ist oder nicht?

robbitop
2015-06-10, 09:34:03
Eigentlich doch.
Denn wovon Du redest, ist gerade kein Mehrwert für den Kunden. ;)
Aber ein Mehrwert für den OEM. Und genau das ist der relevante Teil. Man möchte dem Kunden doch gar nicht die Freiheit geben. Kundenbindung ist das beste, was man machen kann, wenn man die Marktmacht hat. Ob da rumgeweint wird, interessiert nicht, solange die Zahlen stimmen.

Grestorn
2015-06-10, 09:47:38
nVidia möchte ihr Image als den Anbieter für das kompromislos beste Gaming-Erlebnis stärken (nein, ich behaupte nicht, dass sie das uneingeschränkt auch sind).

Man wird versuchen, GSync als die bessere Lösung darzustellen. Da man dann Scaler und Panel, deren Abstimmung etc. im direkten Zugriff hat, kann man da auch immer selbst dafür sorgen, dass das Ergebnis passt und nicht durch wurschtige Monitor- oder Scalerhersteller ruiniert wird, denen nur der Haken auf der Checkliste wichtig ist.

Im Moment gibt ihnen die Situation auf dem Freesync Markt auch noch recht. Das mag sich ändern, irgendwann hat sich das vielleicht so eingerüttelt, dass es praktisch keinen nennenswerten Unterschied zwischen einer Freesync und einer GSync Lösung mehr gibt. Wenn das der Fall ist, würde sich nVidia tatsächlich ins eigene Knie schießen, wenn sie Freesync nicht unterstützen. Aber bis dahin entspricht die Haltung einfach ihrem Anspruch, keine Kompromisse einzugehen.

Und natürlich ist ein Support von Freesync auch immer ein Eingeständnis, dass man den Aufwand für GSync gar nicht hätte treiben müssen. Das wird man alleine deswegen schon eher ungerne machen.

r3ptil3
2015-06-10, 09:57:39
nVidia möchte ihr Image als den Anbieter für das kompromislos beste Gaming-Erlebnis stärken (nein, ich behaupte nicht, dass sie das uneingeschränkt auch sind).

Man wird versuchen, GSync als die bessere Lösung darzustellen. Da man dann Scaler und Panel, deren Abstimmung etc. im direkten Zugriff hat, kann man da auch immer selbst dafür sorgen, dass das Ergebnis passt und nicht durch wurschtige Monitor- oder Scalerhersteller ruiniert wird, denen nur der Haken auf der Checkliste wichtig ist.

Im Moment gibt ihnen die Situation auf dem Freesync Markt auch noch recht. Das mag sich ändern, irgendwann hat sich das vielleicht so eingerüttelt, dass es praktisch keinen nennenswerten Unterschied zwischen einer Freesync und einer GSync Lösung mehr gibt. Wenn das der Fall ist, würde sich nVidia tatsächlich ins eigene Knie schießen, wenn sie Freesync nicht unterstützen. Aber bis dahin entspricht die Haltung einfach ihrem Anspruch, keine Kompromisse einzugehen.

Und natürlich ist ein Support von Freesync auch immer ein Eingeständnis, dass man den Aufwand für GSync gar nicht hätte treiben müssen. Das wird man alleine deswegen schon eher ungerne machen.

Und die Moral von der Geschicht, G-Sync mag man oder nicht.

Ich muss sagen aus Sicht eines normalen Users, hätte ich mit G-Sync aktuell einfach ein sichereres Gefühl. Die Frage ist halt nur wie sich das entwickelt. Ob irgendwann einfach der Punkt kommt, dass sich ein Hersteller durchsetzt oder das Ganze einfach untertaucht und am Schluss durch eine vielleicht sogar dritte Lösung ersetzt wird.

Das Problem dabei, man wechselt einen Monitor nicht so oft aus wie eine Grafikkarte.

fondness
2015-06-10, 10:06:42
Aber ein Mehrwert für den OEM. Und genau das ist der relevante Teil. Man möchte dem Kunden doch gar nicht die Freiheit geben. Kundenbindung ist das beste, was man machen kann, wenn man die Marktmacht hat. Ob da rumgeweint wird, interessiert nicht, solange die Zahlen stimmen.

Und das lässt man die User als Sahnehäubchen auch noch mit 100EUR+ bezahlen, denn einen technischen Grund für das Modul gibt es nicht (außer das man dadurch auch ältere Chips unterstützen kann).

mironicus
2015-06-10, 10:15:14
Ein 100 Dollar-Dongel und der Glaube daran das es etwas bewirkt hilft dabei, das viele Kunden immer an NVidias Brust nuckeln. :D

r3ptil3
2015-06-10, 10:17:03
Ein 100 Dollar-Dongel und der Glaube daran das es etwas bewirkt hilft dabei, das viele Kunden immer an NVidias Brust nuckeln. :D

Fakt ist es bewirkt momentan mehr als das der Konkurrenz...

dargo
2015-06-10, 10:19:22
Fakt ist es bewirkt momentan mehr als das der Konkurrenz...
Was für Fakt? Wo hast du die Zahlen her wieviele NV-User tatsächlich einen G-Sync Bildschirm haben?

r3ptil3
2015-06-10, 10:21:35
Was für Fakt? Wo hast du die Zahlen her wieviele NV-User tatsächlich einen G-Sync Bildschirm haben?

Fakt ist:

SLI + G-Sync: Ja!
Crossfire + Freesync: Nein!

G-Sync bis auf 30Hz: Ja.
Freesync unter 40Hz: Nein, nur vert.Synchronisation.

Grestorn
2015-06-10, 10:22:13
Was für Fakt? Wo hast du die Zahlen her wieviele NV-User tatsächlich einen G-Sync Bildschirm haben?

Es ist Fakt, dass GSync im Moment noch besser funktioniert. Zu Deinem zweiten Satz hat niemand eine Behauptung aufgestellt.

G-Sync bis auf 30Hz: Ja.

GSync bis auf weniger als 1 Hz: Ja.
So lange die Karte noch Frames liefert, funktioniert auch GSync. Und zwar transparent durch das Modul, ohne Zutung der GPU oder des Treibers.

dargo
2015-06-10, 10:29:53
Fakt ist:

SLI + G-Sync: Ja!
Crossfire + Freesync: Nein!

Wen interessiert SLI/CF? Das betrifft doch bloß 0,00001% der Spieler.


G-Sync bis auf 30Hz: Ja.
Freesync unter 40Hz: Nein, nur vert.Synchronisation.
Falsch.

Der ASUS MG279Q geht bis 35Hz runter. Und bei dem Nixeus hatte ich mich vertan. Es sind nicht 40-144Hz sondern 30-144Hz.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10650955&postcount=3094

r3ptil3
2015-06-10, 10:36:21
Wen interessiert SLI/CF? Das betrifft doch bloß 0,00001% der Spieler.

Dein ernst? Das gleiche Argument könnte man ebenso auf G-Sync und Freesync bringen, dass es nur einen Bruchteil der Leute interessiert. Jedoch genau dieser Bruchteil der Leute hat nunmal auch öfter ein SLI/Crossfire-System.


Falsch.

Der ASUS MG279Q geht bis 35Hz runter. Und bei dem Nixeus hatte ich mich vertan. Es sind nicht 40-144Hz sondern 30-144Hz.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10650955&postcount=3094

Ok, interessant(mal abgesehen von den Problemen mit dem MG279Q). Genau das könnte man aber ebenso als Nachteil sehen, die Hersteller dürfen und machen wie es ihnen belieb ist bei Freesync. Was auf G-Sync in der Art und Weise nicht zutrifft.

dargo
2015-06-10, 10:44:05
Dein ernst? Das gleiche Argument könnte man ebenso auf G-Sync und Freesync bringen, dass es nur einen Bruchteil der Leute interessiert.
Könnte man aktuell ja. VRR ist einfach noch zu neu, das braucht Zeit für eine große Verbreitung. Richtig interessant wird es erst wenn es nur noch Bildschirme mit VRR zu kaufen gibt.



Ok, interessant(mal abgesehen von den Problemen mit dem MG279Q). Genau das könnte man aber ebenso als Nachteil sehen, die Hersteller dürfen und machen wie es ihnen belieb ist bei Freesync. Was auf G-Sync in der Art und Weise nicht zutrifft.
Du findest mehr Konkurrenz zwischen den Bildschirmherstellern also als Nachteil? Na dann. :uup:

fondness
2015-06-10, 10:44:20
Fakt ist es bewirkt momentan mehr als das der Konkurrenz...

Das hat allerdings keine technischen Gründe....

StefanV
2015-06-10, 10:48:05
Fakt ist es bewirkt momentan mehr als das der Konkurrenz...
...weil jetzt sehr viele 'Freesync' Monitore erscheinen?!
...und man das Gefühl hat, dass jeder neue Monitor, der über einen Display Port eingang verfügt, über ein AMD Freesync Logo verfügt.

r3ptil3
2015-06-10, 10:51:52
Könnte man aktuell ja. VRR ist einfach noch zu neu, das braucht Zeit für eine große Verbreitung. Richtig interessant wird es erst wenn es nur noch Bildschirme mit VRR zu kaufen gibt.



Du findest mehr Konkurrenz zwischen den Bildschirmherstellern also als Nachteil? Na dann. :uup:

Wenn es so uninteressant wäre, hätte AMD nicht vor Monaten schon angekündigt, dass ein Treiber für Crossfire/Freesync nachgereicht wird.

Du hast mich missverstanden. Als Nachteil sehe ich, dass die Hersteller im unteren Bereich unterschiedliche Frequenzen unterstützen können nach belieben.

dargo
2015-06-10, 10:54:13
Du hast mich missverstanden. Als Nachteil sehe ich, dass die Hersteller im unteren Bereich unterschiedliche Frequenzen unterstützen können nach belieben.
Das hat doch mit Belieben nichts zu tun. Es sind einfach Hardwarelimitierungen beim jeweiligen Bildschirm.

r3ptil3
2015-06-10, 10:55:57
...weil jetzt sehr viele 'Freesync' Monitore erscheinen?!
...und man das Gefühl hat, dass jeder neue Monitor, der über einen Display Port eingang verfügt, über ein AMD Freesync Logo verfügt.

Wie schon von einem User erwähnt, es ist ein Unterschied ob ein Hersteller einfach nur einen weiteren Kleber auf seinem Monitor sehen will oder ob man etwas richtig unterstützt.
Du weisst ja es ging um G-Sync...

@fondness
Ob technisch oder softwarebasierend... Das spielt für den User keine Rolle.
Auch wenn man weiss Freesync könnte das und das, wichtig ist was man dann wirklich erhält und nicht was dann irgendwann noch sein könnte.

@Dargo
Schlussendlich dürfte das nicht schlimm sein, aber bei G-Sync ist das nunmal einfach besser gelöst.

dargo
2015-06-10, 11:09:42
@fondness
Ob technisch oder Softwarebasierend... Das spielt für den User keine Rolle.
Auch wenn man weiss Freesync könnte das und das, wichtig ist was man dann wirklich erhält und nicht was dann irgendwann noch sein könnte.
Der Witz ist, dass man bei G-Sync aktuell außerhalb vom TN-Schrott auch nichts Vernünftiges bekommt. Und das trotz des zeitlichen Vorsprungs durch das Modul. Es gibt zwar den Acer, der hat aber katastrophale Kundenrezensionen:
http://www.amazon.de/product-reviews/B00U2FE3HY/ref=cm_rdp_hist_hdr_cm_cr_acr_txt?ie=UTF8&showViewpoints=1

Ist wohl ein Glücksspiel da einen Brauchbaren zu erwischen.

Gipsel
2015-06-10, 11:16:27
Aber ein Mehrwert für den OEM. Und genau das ist der relevante Teil.Nicht in der Linie der Diskussion, in die Du eingestiegen bist. Da ging es um Mehrwert für den Kunden.
Man möchte dem Kunden doch gar nicht die Freiheit geben.Da widerspreche ich nicht.

r3ptil3
2015-06-10, 11:18:03
Der Witz ist, dass man bei G-Sync aktuell außerhalb vom TN-Schrott auch nichts Vernünftiges bekommt. Und das trotz des zeitlichen Vorsprungs durch das Modul. Es gibt zwar den Acer, der hat aber katastrophale Kundenrezensionen:
http://www.amazon.de/product-reviews/B00U2FE3HY/ref=cm_rdp_hist_hdr_cm_cr_acr_txt?ie=UTF8&showViewpoints=1

Ist wohl ein Glücksspiel da einen Brauchbaren zu erwischen.

Ach was, die sind doch gut :D :

https://images-na.ssl-images-amazon.com/images/I/61J9eBm89ZL.jpg
https://images-na.ssl-images-amazon.com/images/I/71C0Sm6ORjL.jpg

Ich persönlich kann zwar mit G-Sync nichts anfangen, da ich sowieso auf Fury warte, aber an sich finde ich aktuell nunmal G-Sync besser gelöst als Freesync. Darum ging's mir.
Dass diese Panels besch..... sind, dem kann wohl niemand etwas entgegen wirken.

Gipsel
2015-06-10, 11:20:36
nVidia möchte ihr Image als den Anbieter für das kompromislos beste Gaming-Erlebnis stärken (nein, ich behaupte nicht, dass sie das uneingeschränkt auch sind).

Man wird versuchen, GSync als die bessere Lösung darzustellen. Da man dann Scaler und Panel, deren Abstimmung etc. im direkten Zugriff hat, kann man da auch immer selbst dafür sorgen, dass das Ergebnis passt und nicht durch wurschtige Monitor- oder Scalerhersteller ruiniert wird, denen nur der Haken auf der Checkliste wichtig ist.Und das kann man Alles tun, auch wenn man ASync unterstützt. Man bietet dem Kunden die Auswahl zwischen normalen Monitor mit fester Refreshrate, dem etwas besseren ASync und dem wegen der optimaler Abstimmung als ultimatives Erlebnis vermarktetem GSync.
Wo wäre das Problem?

mironicus
2015-06-10, 11:24:49
Zumindest bessern sich GSync-Monitore in einer Hinsicht: Die nächste Generation verfügt doch tatsächlich über einen zusätzlichen HDMI-Port, den euch NVidia nun gönnt. :D

So einen Scheiß mache ich nicht mit! Da bin ich lieber frei.

Godmode
2015-06-10, 11:32:23
Zumindest bessern sich GSync-Monitore in einer Hinsicht: Die nächste Generation verfügt doch tatsächlich über einen zusätzlichen HDMI-Port, den euch NVidia nun gönnt. :D

So einen Scheiß mache ich nicht mit! Da bin ich lieber frei.

Ich habe es leider mitgemacht und werde G-Sync in Zukunft meiden, solang es keinen einheitlichen Standard gibt.

Der Rog Swift steht jetzt neben dem PB279Q und wird nur mehr für die Arbeit benutzt. In 1440p will ich nicht mehr spielen und DSR funktioniert ja mit SLI+G-Sync bekanntlich nicht. Ich könnte das Ding eigentlich sofort verkaufen, aber dann müsste ich wieder einen zweit Monitor für die Arbeit anschaffen, daher belasse ich es mal so.

Grestorn
2015-06-10, 11:37:13
...weil jetzt sehr viele 'Freesync' Monitore erscheinen?!
...und man das Gefühl hat, dass jeder neue Monitor, der über einen Display Port eingang verfügt, über ein AMD Freesync Logo verfügt.

Was zu erwarten ist, da kaum noch alte Scaler in neuen Monitoren verbaut werden.

Aber ich persönlich bin trotzdem nicht wirklich traurig, dass nVidia FS nicht unterstützt. Geht mir im Moment nicht ab, auch wenn es weniger GSync Monitore gibt. Wichtig ist, dass es die richtigen Monitore sind. Wenn es einen 21:9 32"+ Monitor mit 144 Hz und einer 3440x1440 Auflösung gibt, dann würde ich erwarten, dass es davon auch eine GSync Variante gibt. Wenn das längere Zeit nicht der Fall sein sollte, wäre ich wohl erstmalig etwas frustriert, weil nV kein FS unterstützt. Aber nur zum Teil, denn die Kröte mit der Untergrenze bei 30-40 Hz schmeckt mir nicht, und so lange es keine FS Lösung ohne dieses Limit gibt, ist das Problem zunächst mit dieser Technologie verknüpft.

mironicus
2015-06-10, 11:41:51
Wir brauchen eine definitive Zusage von AMD, dass sie Framedoubling in den Treibern integrieren. Kann NVidia ja auch...

aufkrawall
2015-06-10, 11:52:02
Aber ich persönlich bin trotzdem nicht wirklich traurig, dass nVidia FS nicht unterstützt.

Warum nicht? Ende des Monats ist den den USA 27" 4k IPS für 600$ mit FS kaufbar.
Kannste knicken mit Gsync.

mironicus
2015-06-10, 11:56:33
Du kannst dich ja mit dem hier trösten.
http://www.amazon.de/gp/product/B00X45CMO0

Die Freesync-Variante davon soll ja 200 Euro günstiger sein, mit zig Anschlüssen mehr...

MartinRiggs
2015-06-10, 12:00:09
Allein schon das man mit G-Sync bisher nur 1xDP hat ist ein absoultes No-Go, wundert mich immer wieder worauf die Leute alles reinfallen.

aufkrawall
2015-06-10, 12:01:33
Wenn ich einen A-Sync Monitor kaufe, dann muss bereits das ganze fps-Spektrum abgedeckt, und das nicht erst vage irgendwann für die Zukunft in Aussicht gestellt sein (oder auch nicht).
Da fällt FS momentan raus. Vielleicht 2016, wenn AMD GPUs auch mit hohen Ansprüchen wieder kaufbar sind.

Kartenlehrling
2015-06-10, 12:27:48
Seit wann gibts den 144Hz, war es nicht erst Ende 2012 der erste 24" 144Hz?
Du übertreibst mit deinen Anforderunge.

aufkrawall
2015-06-10, 12:32:21
Ich meinte <50fps.

fondness
2015-06-10, 12:40:18
Vielleicht 2016, wenn AMD GPUs auch mit hohen Ansprüchen wieder kaufbar sind.

Irgendetwas findet man immer wenn man danach sucht.

mironicus
2015-06-10, 12:41:04
Fail Golem! :down:

LG bringt den ersten UHD-Monitor mit Freesync
http://www.golem.de/news/27mu67-lg-bringt-den-ersten-uhd-monitor-mit-freesync-1506-114563.html

http://geizhals.de/?cat=monlcd19wide&xf=5848_AMD+FreeSync+%28Adaptive-Sync%29~5137_3840x2160#xf_top