Archiv verlassen und diese Seite im Standarddesign anzeigen : G-/Free-/A-Sync: framesynchronisierter Displayrefresh per variablem vblank-Intervall
dargo
2015-03-19, 16:18:41
Wenn Du danach gehst, dürftest Du aktuell kein Spiel über HD betreiben. ;)
Ich habe einen 1080p Bildschirm aus gutem Grund. ;)
Wenn ich mir beispielsweise Dead Rising 3 ansehen mit den 30 FPS fest, das fand ich persönlich sehr angenehm und flüssig zu spielen. Rein von der Wahrnehmung her kann ich durchaus verstehen, warum dann diverse Spielen eine 30FPS-Lock haben.
30fps (egal ob gelockt oder nicht) sind für mich ein absolutes nogo. Ruckelig + extrem hoher Input-Lag... igitt. 50 gelockte fps @50Hz finde ich aber bereits sehr angenehm. Nur der eklige Input-Lag dank Vsync On muss weg. Und schon sind wir wieder bei Freesync. :tongue:
Nächste Review zum 21:9 Kandidat:
http://www.tweaktown.com/articles/7042/amd-freesync-lg-34um67-preview-things/index.html
Werde meinen 21:9 34er ohne Freesync verkloppen und den dann holen. Angefixt son scheiß :D
M4xw0lf
2015-03-19, 16:22:56
Ein weiterer nicht-Test: http://www.tweaktown.com/articles/7042/amd-freesync-lg-34um67-preview-things/index.html
Wie frustrierend ist das denn.
Ups, etwas zu spät. ^^
I30fps (egal ob gelockt oder nicht) sind für mich ein absolutes nogo.
Hast Du mal Dead Rising 3 damit gespielt? Ich könnte hier weder Ruckeln noch Lag feststellen.
dargo
2015-03-19, 16:26:17
Hast Du mal Dead Rising 3 damit gespielt? Ich könnte hier weder Ruckeln noch Lag feststellen.
Das letzte was ich mit etwas mehr als 30fps gespielt habe war Crysis 1, ergo 2007. Bei dem Spiel war der Input-Lag aber bei der niedrigen Framerate sehr niedrig. Bereits Crysis 2 war für mich bei vergleichbarer Framerate völlig unspielbar.
Kartenlehrling
2015-03-19, 16:28:15
Der vergleich Kugel- und LaserMaus ist aber schon pervers.
Ohne wie Kugelmaus, mit wie Laser :D ... das sind halt die üblichen Beschreibungen, die man selber testen muss... bin mal gespannt, was noch so für Reviews kommen, vlt. auch mal Aufwändigere.
Der Tweaktown-Bericht..
Similar to G-Sync, it is pulling the frames up from 65FPS to the 75Hz, and then smoothing it all out - it's beautiful.
BANANE! :freak:
On the desktop side of things, at both 60Hz and 75Hz, the monitor with FreeSync enabled is incredibly smooth. You can grab a window on your Windows desktop and move it around in circles and still see what's going on, instead of the text being a blurred mess.
Weil Freesync! Es kann noch viel mehr als wir dachten... ;)
M4xw0lf
2015-03-19, 16:32:34
17:00 soll das NDA fallen?
Loeschzwerg
2015-03-19, 16:33:09
Der vergleich Kugel- und LaserMaus ist aber schon pervers.
Und dann auch noch Corsair, pfuiii :freak:
An meinem Retro PC hängt immer noch eine PS2 Kugelmaus und damit lässt sich prima Quake 3 / UT zocken. Keine Ahnung was das für ein toller Effekt sein soll... ich merke da nix zu meiner Zowie FK. Beide sind bombig präzise.
Aber schön dass es langsam mit Freesync losgeht. Jetzt bitte noch interessantere Monitore :D
Das letzte was ich mit etwas mehr als 30fps gespielt habe war Crysis 1, ergo 2007. Bei dem Spiel war der Input-Lag aber bei der niedrigen Framerate sehr niedrig. Bereits Crysis 2 war für mich bei vergleichbarer Framerate völlig unspielbar.
Probier bitte mal das besagte Spiel Dead Rising 3, glaub mir, das funktioniert mit 30 FPS wirklich gut.
Der Tweaktown-Bericht..
BANANE! :freak:
Hab ich mir auch so gedacht, Tests bei 65 FPS. :facepalm:
Sunrise
2015-03-19, 16:46:53
Ein weiterer nicht-Test: http://www.tweaktown.com/articles/7042/amd-freesync-lg-34um67-preview-things/index.html
Wie frustrierend ist das denn.
Ups, etwas zu spät. ^^
Von einer Gurkenseite zur nächsten...
Tweakdown (ja, ich weiß, sie heißen Tweaktown, passt aber besser) is das größte Käseblatt ever.
Wenns nicht zum lachen wär, wärs zum heulen, oder so...:D
Unicous
2015-03-19, 16:55:57
Ich schätze mal Guru hat auch die NDA gebrochen.
e:Acer XB270HU
http://www.guru3d.com/articles-pages/amd-freesync-review-with-the-acer-xb270hu-monitor,1.html
17 Uhr kommt übrigens nicht hin, wenn man von den 12 Stunden ausgeht, von denen Ryan Shrout sprach. Das wäre dann eher 21 Uhr unserer Zeit. Aber mal schauen, vllt. hat er sich auch geirrt.
Bei TR gibt es jedenfalls nichts, außer einer News.
http://techreport.com/news/27987/amd-makes-freesync-official-reveals-display-pricing
Der review Artikel kommt später.
Edit:
OC3D http://www.overclock3d.net/reviews/gpu_displays/amd_freesync_review/1
Auch Acer
dargo
2015-03-19, 17:00:22
Probier bitte mal das besagte Spiel Dead Rising 3, glaub mir, das funktioniert mit 30 FPS wirklich gut.
Geht nicht. Hab das Spiel nicht und selbst wenn... mit ner HD6450 momentan wärs schwierig. :D
Unicous
2015-03-19, 17:00:48
Also doch 17 Uhr.
http://www.tomshardware.com/news/amd-project-freesync-launch,28759.html
http://www.computerbase.de/2015-03/amd-freesync-im-praxistest/
http://www.pcper.com/reviews/Displays/AMD-FreeSync-First-Impressions-and-Technical-Discussion
http://www.pcgameshardware.de/AMD-Freesync-Hardware-259942/Specials/AMD-Freesync-G-Sync-Konkurrenz-Test-1153777/
fondness
2015-03-19, 17:07:21
http://www.anandtech.com/show/9097/the-amd-freesync-review
http://s10.postimg.org/53rxhlv6h/AMD_Free_Sync_Slide07_575px.jpg (http://postimage.org/)
http://www.overclock3d.net/reviews/gpu_displays/amd_freesync_review/1
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/34551-gpu-und-display-laufen-synchron-amds-freesync-ausprobiert.html
M4xw0lf
2015-03-19, 17:10:29
Das sieht doch schon besser aus :)
Trotzdem, bisher 40 Hz als unteres Limit. Das ist ein bisschen hoch.
fondness
2015-03-19, 17:10:50
G-Sync hat Probleme in Alien Isolation:
Mein Fehler.
Nightspider
2015-03-19, 17:13:24
Hä? Selbst die schnellen TNs mit 144Hz nutzen FreeSync erst ab 40Hz, wo es bei G-Sync ab 30 geht? The fuck is this?
http://www.computerbase.de/2015-03/amd-freesync-im-praxistest/2/
Acer XG270HU 27“ TN 2.560 × 1.440 40-144 Hz
BenQ XL2730Z 27“ TN 2.560 × 1.440 40-144 Hz
LG 29UM67 29“ IPS 2.560 × 1.080 48-75 Hz
LG 34UM67 29“ IPS 2.560 × 1.080 48-75 Hz
Nixeus NX-VUE24 24“ TN 1.920 × 1.080 ?-144 Hz
Samsung UE590 23,6“, 28“ TN 3.840 × 2.160 ?-60 Hz
Samsung UE850 23,6“, 28“, 31,5“ PLS 3.840 × 2.160 ?-60 Hz
Viewsonic VX2701mh 27“ TN 1.920 × 1.080 ?-144 Hz
fondness
2015-03-19, 17:14:21
Liegt am Monitorscaler.
Sunrise
2015-03-19, 17:18:06
Hä? Selbst die schnellen TNs mit 144Hz nutzen FreeSync erst ab 40Hz, wo es bei G-Sync ab 30 geht? The fuck is this?
Keine Ahnung, das sollte AMD mal näher erklären. Vor allem selbst bei den schnellsten TN-Monitoren.
Aber wie schon geschrieben, das muss eine andere Limitierung sein, wie zum Beispiel, und auch Unicous angesprochen hat, ein Scalerproblem. Hoffen wir mal, dass das nicht dauerhaft so bleibt, denn sonst sind beide Lösungen nicht optimal.
Übrigens endlich mal eine Erklärung (zumindest bei PCPer), was das G-Sync-Modul und der vorhandene RAM macht. Er puffert wohl die Frames um sie einfach mehrfach ausgeben zu können, sobald man unter das G-Sync-Limit kommt. Laut PCPer wurde das auch gemessen und nicht nur vermutet.
But what happens with this FreeSync monitor and theoretical G-Sync monitor below the window? AMD’s implementation means that you get the option of disabling or enabling VSync. For the 34UM67 as soon as your game frame rate drops under 48 FPS you will either see tearing on your screen or you will begin to see hints of stutter and judder as the typical (and previously mentioned) VSync concerns again crop their head up. At lower frame rates (below the window) these artifacts will actually impact your gaming experience much more dramatically than at higher frame rates (above the window).
G-Sync treats this “below the window” scenario very differently. Rather than reverting to VSync on or off, the module in the G-Sync display is responsible for auto-refreshing the screen if the frame rate dips below the minimum refresh of the panel that would otherwise be affected by flicker. So, in a 30-144 Hz G-Sync monitor, we have measured that when the frame rate actually gets to 29 FPS, the display is actually refreshing at 58 Hz, each frame being “drawn” one extra instance to avoid flicker of the pixels but still maintains a tear free and stutter free animation. If the frame rate dips to 25 FPS, then the screen draws at 50 Hz. If the frame rate drops to something more extreme like 14 FPS, we actually see the module quadruple drawing the frame, taking the refresh rate back to 56 Hz. It’s a clever trick that keeps the VRR goals and prevents a degradation of the gaming experience. But, this method requires a local frame buffer and requires logic on the display controller to work. Hence, the current implementation in a G-Sync module.
Sehr interessant. Man benötigt also bei sehr niedrigen Frameraten auch immer Vielfache Refreshes um über bzw. auf die 30Hz zu kommen. Es scheint auch immer ein 2er Faktor angewendet zu werden. Denn wenn PCPer schreibt, dass bei 14fps plötzlich 56Hz rauskommen, würden eigentlich 3*14 über die 30Hz kommen, aber es wird stattdessen Quadrupling gemacht.
Troyan
2015-03-19, 17:26:23
Der Part über "Ghosting" bei PCper ist ebenfalls interessant. Das ist ganz schön heftig. Und am Panel alleine kann es nicht liegen.
Nightspider
2015-03-19, 17:27:38
Oha, interessant. Das ist genau das (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10477756&postcount=1268) was ich hier mal vor paar Wochen vorgeschlagen habe, das unterhalb der Panel-Minimum-Refreshrate das Bild doppelt oder dreifach ausgegeben werden könnte und trotzdem noch synchron wiedergegeben wird.
Aber warum schafft G-Sync dann auch "nur" 30Hz?
Unicous
2015-03-19, 17:28:30
Das ist ganz schön heftig. Und am Panel alleine kann es nicht liegen.
Doch. Kann es. Bzw. an der Panelelektronik.
@Nightspider
Das liegt weiterhin an den Panels. Ich schätze mal die 40Hz-Grenze wurde von AMD und den Herstellern künstlich festgelegt, weil sie die Panels nicht so stark tunen wollen wie sie es bei G-Sync tun. Ich behaupte, dass die G-Sync Monitore auf die 30Hz getrimmt werden, dass aber im Zweifelsfall mit ihrem Leben bezahlen.
Jedenfalls eine nicht so coole Aktion. 30Hz/fps hätte es min. sein müssen. Ich hoffe mal wir sehen so einen Monitor zeitnah.
Troyan
2015-03-19, 17:28:56
30Hz liegt an den Panels. Ist keine Beschränkung des G-Sync Scalers.
Doch. Kann es. Bzw. an der Panelelektronik.
ich höre zum ersten Mal von Ghosting mit VRR. Wäre dies so ein Thema, müsste es seit 18 Monaten relevant sein. Daher scheint ein einfacher Scaler nicht ausreichend zu sein, um bei kontrastreichen Szenen das Ghosting zu unterbinden.
Und das was bei PCPer festgehalten wurde, ist schon verdammt heftig.
Unicous
2015-03-19, 17:34:25
Wie heftig denn?
heftig.co heftig? Oder Forentroll-heftig?
Troyan
2015-03-19, 17:36:35
Wie wäre es, wenn du den Artikel liest:
http://www.pcper.com/reviews/Displays/AMD-FreeSync-First-Impressions-and-Technical-Discussion/Gaming-Experience-FreeSync-
Inkl. Gif und Slow-Motion Video.
Das Ghosting selbst kann nicht vom Panel kommen, da der Swift durch seinen Overdrive auch nachzieht:
http://www.tftcentral.co.uk/reviews/asus_rog_swift_pg278q.htm
Sunrise
2015-03-19, 17:38:04
30Hz liegt an den Panels. Ist keine Beschränkung des G-Sync Scalers.
Was vor allem auch den Slide von AMD in Frage stellt, weil das nicht mehr vergleichbar ist. NV gibt tatsächlich erreichbare und verifizierte Werte an, AMD wirbt mit theoretischen Werten, die aktuell nicht erreicht werden können (ohne gravierende Nebeneffekte).
30Hz sind zwar leider über meinem Wunsch von ca. 23-24Hz, allerdings sollte dauerhaftes Doubling, bzw. Quadrupling eigentlich auch kein Problem sein.
G-Sync hat Probleme in Alien Isolation:
http://s17.postimg.org/oren8x76n/72752.png (http://postimage.org/)
"Except for a glitch with testing Alien Isolation using a custom resolution,... ."
Bei PCPer ist die Performance in AI auch in Ordnung.
Irgendwie zu viele Kompromisse auf beiden Seiten.
Gebt mir 20-120/144 Hz range, Unterstützung für video playback bzw. desktop und Nvidias Lösung was passiert falls die fps zu weit absacken (dafür bin ich auch gern bereit für das Modul extra zu zahlen).
Also frühestens in 3 Jahren dann neuen Monitor kaufen ;).
Unicous
2015-03-19, 17:39:39
Das kommt davon wenn man immer ganz aufgeregt Bilder postet ohne den Kontext zu kennen.
Ja, ich rede mit dir, fondness.
@Troyan
Ich habe den Artikel schon längst gelesen(überflogen). Und genauso wie fondness geilst du dich jetzt an dieser Sache auf. Völlig unverständlich. (Wie heißt eigentlich dein letzter Account hier bei 3DC. Ich frage für einen Freund.)
fondness
2015-03-19, 17:45:59
Sehr interessant. Man benötigt also bei sehr niedrigen Frameraten auch immer Vielfache Refreshes um über bzw. auf die 30Hz zu kommen. Es scheint auch immer ein 2er Faktor angewendet zu werden. Denn wenn PCPer schreibt, dass bei 14fps plötzlich 56Hz rauskommen, würden eigentlich 3*14 über die 30Hz kommen, aber es wird stattdessen Quadrupling gemacht.
Dort wird angedeutet dass das womöglich mit einem späteren Treiber nachgelifert wird:
Below the minimum refresh rate things get dicey. I believe that NVIDIA’s implementation of offering a variable frame rate without tearing is superior to simply enabling or disabling VSync again, as the issues with tearing and stutter not only return but are more prominent at lower frame rates. When I pressed AMD on this issue during my briefing they admitted that there were things they believed could work to make that experience better and that I should “stay tuned.” While that doesn’t help users today, AMD thinks that these problems can be solved on the driver side without a change to the AdaptiveSync specification and without the dedicated hardware that NVIDIA uses in desktop G-Sync monitors.
http://www.pcper.com/reviews/Displays/AMD-FreeSync-First-Impressions-and-Technical-Discussion
Blediator16
2015-03-19, 17:50:11
"Except for a glitch with testing Alien Isolation using a custom resolution,... ."
Bei PCPer ist die Performance in AI auch in Ordnung.
Irgendwie zu viele Kompromisse auf beiden Seiten.
Gebt mir 20-120/144 Hz range, Unterstützung für video playback bzw. desktop und Nvidias Lösung was passiert falls die fps zu weit absacken (dafür bin ich auch gern bereit für das Modul extra zu zahlen).
Also frühestens in 3 Jahren dann neuen Monitor kaufen ;).
Leider Gottes ist beides aktuell nur Nische. Es wäre toll, wenn man solche Techniken in Monitoren um die 200€ haben könnte. Ich habe mir seit jeher immer nur Monitore im Bereich 150-300€ gekauft und das wird sich auch nicht ändern. Solange es nur in 600€ Geräten drinne bleibt, wird daraus nie was.
Troyan
2015-03-19, 17:50:34
Ich "geile" mich nicht an der Sache auf. Ich bin erstaunt, dass es bei den beiden Monitoren zu dieser Erscheinung kommt. Denn verstärktes Ghosting war bis jetzt nie ein Thema bei Variablen Refreshraten.
Es ist z.B. TFTCentral beim Acer IPS Monitor auch nicht aufgefallen.
Für dieses Thread interessant - vollkommen losgelöst von AMD und nVidia.
fondness
2015-03-19, 17:51:05
"Except for a glitch with testing Alien Isolation using a custom resolution,... ."
Sorry übersehen, habe es korrigiert.
Sunrise
2015-03-19, 17:52:03
Leider Gottes ist beides aktuell nur Nische. Es wäre toll, wenn man solche Techniken in Monitoren um die 200€ haben könnte. Ich habe mir seit jeher immer nur Monitore im Bereich 150-300€ gekauft und das wird sich auch nicht ändern. Solange es nur in 600€ Geräten drinne bleibt, wird daraus nie was.
Das ist eigentlich kein Problem des Preises der Technik, sondern momentan noch ein vermarktbares Feature, was sich die Hersteller bezahlen lassen wollen. Ansonsten werden da bald überall Scaler genutzt werden, die (mal abgesehen von evtl. Profi-Monitoren) alle über FreeSync verfügen sollten.
aufkrawall
2015-03-19, 17:54:01
30Hz sind für mich die Untergrenze, eher noch 20Hz.
Von Unicous Verschwörungstheorie halte ich nichts. Eher scheint es mir wahrscheinlicher, dass das FPGA-Board eventuell eine Produktionsschwachstelle hat, zumindest beim Asus ROG. Wenn es denn wirklich daran liegt.
Locuza
2015-03-19, 17:54:31
Dort wird angedeutet dass das womöglich mit einem späteren Treiber nachgelifert wird
Womöglich und später.
Das schafft Vertrauen und Zufriedenheit.
y33H@
2015-03-19, 17:54:41
Auch wenn AMD sie nicht listet: Die HD 7790/8770 ist freilich ebenfalls Freesync-tauglich, weil Bonaire.
Unicous
2015-03-19, 17:54:42
Ich "geile" mich nicht an der Sache auf. Ich bin erstaunt, dass es bei den beiden Monitoren zu dieser Erscheinung kommt. Denn verstärktes Ghosting war bis jetzt nie ein Thema bei Variablen Refreshraten.
Es ist z.B. TFTCentral beim Acer IPS Monitor auch nicht aufgefallen.
Für dieses Thread interessant - vollkommen losgelöst von AMD und nVidia.
Laber doch keinen Blödsinn. Das hat doch nichts mit VR zu tun sondern, wie der Monitor eingestellt ist. Und was hat IPS damit zu tun. Der eine ist ein IPS-Monitor der andere TN.
@aufkrawall
Wieso sollte das FPGA einen Produktionsfehler haben, der dann nur beim ROG Swift zu Ausfällen führt?
Für den Trojaner nochmal der gesamte Absatz.
The ROG Swift animates at 45 FPS without any noticeable ghosting at all. The BenQ actually has a very prominent frame ghost though the image still remains sharp and in focus. The LG 34UM67 shows multiple ghost frames and causes the blade to appear smudgy and muddled a bit.
The question now is: why is this happening and does it have anything to do with G-Sync or FreeSync? NVIDIA has stated on a few occasions that there is more that goes into a VRR monitor than simply integrated vBlank extensions and have pointed to instances like this as an example as to why. Modern monitors are often tuned to a specific refresh rate – 144 Hz, 120 Hz, 60 Hz, etc. – and the power delivery to pixels is built to reduce ghosting and image defects. But in a situation where the refresh rate can literally be ANY rate, as we get with VRR displays, the LCD will very often be in these non-tuned refresh rates. NVIDIA claims its G-Sync module is tuned for each display to prevent ghosting by change the amount of voltage going to pixels at different refresh rates, allowing pixels to untwist and retwist at different rates.
It’s impossible now to know if that is the cause for the difference seen above. But with the ROG Swift and BenQ XL2730Z sharing the same 144 Hz TN panel specifications, there is obviously something different about the integration. It could be panel technology, it could be VRR technology or it could be settings in the monitor itself. We will be diving more into the issue as we spend more time with different FreeSync models.
For its part, AMD says that ghosting is an issue it is hoping to lessen on FreeSync monitors by helping partners pick the right components (Tcon, scalars, etc.) and to drive a “fast evolution” in this area.
Sunrise
2015-03-19, 18:00:11
30Hz sind für mich die Untergrenze, eher noch 20Hz.
Ist bei mir leider auch so, da hoffe ich kommt bald ein Update. 40Hz als unterste Grenze ist leider untauglich, ebenso empfinde ich es als extrem störend, wenn plötzlich diverse Modi (V-Sync Off/On) abseits der unterstützten VRR-Range (ich übernehme den Begriff jetzt mal von PCPer) greifen, wo ich dann wieder zwischen Vor- und Nachteilen entscheiden muss.
Sowas garantiert mir alles, aber sicher kein perfektes Spieleerlebnis. Da muss nachgebessert werden.
Eventuell wollte AMD hier nicht zu aggressiv vorgehen, weil sie möglichst alle Panels unterstützen wollen und somit die Verbreitung maximal ist. Naja, kann nur besser werden.
fondness
2015-03-19, 18:02:47
Ist bei mir leider auch so, da hoffe ich kommt bald ein Update. 40Hz als unterste Grenze ist leider untauglich, ebenso empfinde ich es als extrem störend, wenn plötzlich diverse Modi (V-Sync Off/On) abseits der unterstützten VRR-Range (ich übernehme den Begriff jetzt mal von PCPer) greifen, wo ich dann wieder zwischen Vor- und Nachteilen entscheiden muss.
Sowas garantiert mir alles, aber sicher kein perfektes Spieleerlebnis. Da muss nachgebessert werden.
Auch bei NV greift aber der max. Refreshrate des Monitors Vsync. Bei AMD kann ich zwischen Vsync off und on wählen. Der Ansatz an der unteren Grenze die Frames mehrfach auszugeben ist aber clever keine Frage. Besser wäre aber ohnehin ein Monitor der möglichst weit hinunter geht, dann ist das auch überflüssig.
Nightspider
2015-03-19, 18:03:13
Theoretisch müsste das ja auch die Grafikkarte können Bilder doppelt hintereinander auszugeben, wenn die fps zu tief sind.
Ich vermute aber das da nicht all zu schnell ein "Patch" kommen wird, sonst hätte AMD da jetzt schon was in Aussicht gestellt wie damals mit VSR.
Blediator16
2015-03-19, 18:03:47
Das ist eigentlich kein Problem des Preises der Technik, sondern momentan noch ein vermarktbares Feature, was sich die Hersteller bezahlen lassen wollen. Ansonsten werden da bald überall Scaler genutzt werden, die (mal abgesehen von evtl. Profi-Monitoren) alle über FreeSync verfügen sollten.
Nennen wir es besser AdaptiveSync, so wie es sich gehört :biggrin:
Ich habe den Artikel schon längst gelesen(überflogen). Und genauso wie fondness geilst du dich jetzt an dieser Sache auf. Völlig unverständlich. (Wie heißt eigentlich dein letzter Account hier bei 3DC. Ich frage für einen Freund.)
Tja, Unicous, ich kann mich noch gut erinnern :uponder:, wie Du AMD und Freesync vehement verteidigt hast, und wie toll das alles sein wird. Und? :rolleyes: Nix wars, genau das habe ich gemeint, erst mal abwarten. Die Realität holt einen immer ein.
Und ab 40 FPS ist da wohl ein Witz.
Kriton
2015-03-19, 18:04:47
Dort wird angedeutet dass das womöglich mit einem späteren Treiber nachgeliefert wird:
http://www.pcper.com/reviews/Displays/AMD-FreeSync-First-Impressions-and-Technical-Discussion
Na ja, das würde ich ggfs. auch erst mal sagen.
fondness
2015-03-19, 18:07:20
Und ab 40 FPS ist da wohl ein Witz.
Auch wenn es noch zehnmal wiederholt wird, das ist vom Monitor abhängig.
-/\-CruNcher-/\-
2015-03-19, 18:09:14
Leider Gottes ist beides aktuell nur Nische. Es wäre toll, wenn man solche Techniken in Monitoren um die 200€ haben könnte. Ich habe mir seit jeher immer nur Monitore im Bereich 150-300€ gekauft und das wird sich auch nicht ändern. Solange es nur in 600€ Geräten drinne bleibt, wird daraus nie was.
Ich "geile" mich nicht an der Sache auf. Ich bin erstaunt, dass es bei den beiden Monitoren zu dieser Erscheinung kommt. Denn verstärktes Ghosting war bis jetzt nie ein Thema bei Variablen Refreshraten.
Es ist z.B. TFTCentral beim Acer IPS Monitor auch nicht aufgefallen.
Für dieses Thread interessant - vollkommen losgelöst von AMD und nVidia.
Wobei das aber vor allen ein gutes Licht auf Asus Leistung wirft da bekommt man zumindestens auch was für sein Geld *erstaunlich* deren eigenes R&D ist wirklich interessant vor allem in zusammenarbeit mit Nvidia schon bei dem treiber leak sehr interessant :)
Die anderen scheinen alle sehr halbherzig an den Gamer zu denken ;) so nach dem Motto: "Hauptsache wir haben was im Portofolio das sie anspricht und teuer verkaufen lässt" ;)
Das schliest AMD hier leider ein nach diesen Tests ist ihr Gamer getuhe ja eindeutig nur Show wie schon ihre völlig übertriebene Anti Show zum GTX 970/80 start, junge das war voll blamage und jetzt wird hier ersichtlich das FreeSync zwar funktioniert aber dem Geld entsprechend qualitativ eben nicht auf Nvidias Ökosystem level mit ihrer Doppel Hardware Solution für etwas mehr Aufpreis ist.
Na da binn ich jetzt sehr gespannt ob sie es bei VR genauso mit LiquidVR verhageln werden.
Auch wenn es noch zehnmal wiederholt wird, das ist vom Monitor abhängig.
Ist mir doch wurscht. Fakt ist, hier funktioniert G-Sync ab 30 FPS wirklich und ist auch tatsächlich besser. Wenn man rechnet, wieviel Mehrleistung eine entsprechende Grafikkarte für UHD ab 40 FPS liefert, dann sind doch die hier oftmals kritisierten Aufpreis von 100 € mehr als gerechtfertigt. Das ist dann eben ein Unterschied von 10 FPS, der sich sehr wohl rechnet.
Kartenlehrling
2015-03-19, 18:10:41
somit hat der nicht namentlich bekannte Experte von PCGH.de doch recht ... g-sync ist dem freesync überlegen.
Solche Gosting Nachzieher sind extrem störend.
http://www.pcper.com/files/imagecache/article_max_width/review/2015-03-19/ghost1.jpg
Sunrise
2015-03-19, 18:11:57
Theoretisch müsste das ja auch die Grafikkarte können Bilder doppelt hintereinander auszugeben, wenn die fps zu tief sind.
Ich vermute aber das da nicht all zu schnell ein "Patch" kommen wird, sonst hätte AMD da jetzt schon was in Aussicht gestellt wie damals mit VSR.
Ich gehe mal davon aus, dass das vollständig auch im Display-Controller erfolgen kann, wenn der flexibel genug ist. Allerdings wüsste ich nicht, wo man dann zwischenspeichern sollte, wenn man aus der VRR-Range rausgeht.
Bei der NV-Lösung stellst du aktuell auch noch sicher, dass da keine störenden Komponenten zwischendrin sind, die dir das perfekte Ergebnis zunichte machen.
Offen heißt eben auch wirklich offen.
Eventuell kommt da mit Fiji mehr.
Rein theoretisch könnte es ja auch eine Einstellung im Treiber geben (bzw. dieser holt sich per EDID oder wie auch immer) die Infos direkt und weiß, innerhalb welcher Range er einfach nur rausblasen kann und wann er dann die Bilder doppeln muss. Wäre sicher einiges möglich, nur ist es wohl gefährlich, das für den Benutzer transparent nach außen anzubieten, da dies evtl. zum Schaden am Monitor führt. Das müsste also eher intransparent im Hintergrund erfolgen, sonst spielt da wohl auch kein Monitorhersteller mit.
Unicous
2015-03-19, 18:13:06
Tja, Unicous, ich kann mich noch gut erinnern :uponder:, wie Du AMD und Freesync vehement verteidigt hast, und wie toll das alles sein wird. Und? :rolleyes: Nix wars, genau das habe ich gemeint, erst mal abwarten. Die Realität holt einen immer ein.
Und ab 40 FPS ist da wohl ein Witz.
Willst du mich jetzt wieder trollen wie du es die letzten Monate getan hast?
Lies dir die Artikel durch. Freesync works as advertised.
Das habe ich die ganze Zeit gesagt. Nichts anderes. Wenn du da etwas anderes hineininterpretierst ist das dein Bier. Nicht meins.
Das Ghosting hat nichts mit VRR zu tun, sondern mit dem Panel, dessen Komponenten und den vom Hersteller gemachten Einstellungen. Der ROG Swift wurde speziell getuned. Und das kann man beim BenQ sicherlich auch erreichen (fragt sich nur...wie lange er es dann aushält wenn die Specs überschritten werden). Der LG ist IPS, das macht es nicht einfacher.
Das hat nichts mit Adaptive Sync zu tun. Schlimm genug, dass Ryan Shrout diese Verschwörungstheorie verbreitet.
Ich würde lieber mal auf TFT Central und oder PCM warten bis hier wieder Zeter und Mordio losgeht.
Locuza
2015-03-19, 18:14:41
somit hat der nicht namentlich bekannte Experte von PCGH.de doch recht ... g-sync ist dem freesync überlegen.
Zwei Dinge die überhaupt nichts miteinander zu tun haben.
Hör bitte auf so einen Unsinn zu schreiben.
fondness
2015-03-19, 18:16:39
Ist mir doch wurscht. Fakt ist, hier funktioniert G-Sync ab 30 FPS wirklich und ist auch tatsächlich besser. Wenn man rechnet, wieviel Mehrleistung eine entsprechende Grafikkarte für UHD ab 40 FPS liefert, dann sind doch die hier oftmals kritisierten Aufpreis von 100 € mehr als gerechtfertigt. Das ist dann eben ein Unterschied von 10 FPS, der sich sehr wohl rechnet.
Es spricht absolut null dagegen das ein FreeSync-Monitor ebenfalls mit 30hz oder weniger errscheint. Zu den ganzen Samsung 4Ks gibt es noch nicht mal eine Angabe.
Willst du mich jetzt wieder trollen wie du es die letzten Monate getan hast?
Du hast doch dauernd große Töne gespuckt, wie toll FS sein wird, und hast genau das alles, was jetzt alles als Mängel aufgedeckt wird (ab 40 FPS, Ghosting) verleugnet. Und genau das meinte ich dauernd, man muß erst mal sehen, wie es praktisch realisiert wird.
Und nun kommst Du, und schiebst alles auf Panel und Co. :lol: Ich lach mir einen Ast.
Und, wer lag nun richtig? Du nicht, aber andere und meine Wenigkeit.
Es spricht absolut null dagegen das ein FreeSync-Monitor ebenfalls mit 30hz oder weniger errscheint. Zu den ganzen Samsung 4Ks gibt es noch nicht mal eine Angabe.
Darum geht es nicht. Ich weiß nicht, ob Du dabei warst, aber so Leute wie Unicous haben permanent G-Sync und Nividia schlecht geredet, und sich über den höheren Preis der Monitore mukiert. Und, wo ist das hier jetzt anders? Nvidia war schneller, G-Sync ist aktuell besser (ab 30 FPS ist ein sehr gewichtiges Argument), und Freesync funktioniert, ja, aber ab 40-48 FPS mit dem verbundenen Ghosting ist das in meinen Augen ein Fail, oder eine erste mangelhafte Implementierung. Von dem verspäteten Treibern erst mal ganz zu schweigen. Da nützten die Ausreden mit Panel und Co. erst mal nichts. Fakt ist, G-Sync war vor 7 Monaten - so gesehen - keine schlechte Investition, und ist es heute auch nicht.
Schnoesel
2015-03-19, 18:21:32
Von einem Kindergarten (Arbeit) in den anderen Kindergarten (3d Center). :rolleyes:
Kriton
2015-03-19, 18:21:34
Ist mir doch wurscht. Fakt ist, hier funktioniert G-Sync ab 30 FPS wirklich und ist auch tatsächlich besser. Wenn man rechnet, wieviel Mehrleistung eine entsprechende Grafikkarte für UHD ab 40 FPS liefert, dann sind doch die hier oftmals kritisierten Aufpreis von 100 € mehr als gerechtfertigt. Das ist dann eben ein Unterschied von 10 FPS, der sich sehr wohl rechnet.
Das ist Quatsch, weil Du nicht Technik gegen Technik vergleichst, sondern Technik gegen Implementierung, während Du es gleichzeitig so darstellst, als würdest Du nicht von der Implementierung, sondern der Technik sprechen.
Unicous
2015-03-19, 18:22:28
@PHuV
Hilfe an was für ein Kind im Manne bin ich denn hier geraten.
Adaptive Sync funktioniert. Ist spezifiziert für 9-240Hz. Das Ghosting hat rein gar nichts mit VRR zu tun.
Versuch wenigstens den von mir zitierten Absatz zu lesen, wenn du ihn schon nicht verstehst.:rolleyes:
Mit was man sich hier abgeben muss. Und dann per PM lieb fragen, wie das denn so ist mit DP-Kabeln und der Länge. Keine Ahnung von nichts, aber große Fresse.
Um es noch mal zu unterstreichen:
Nein du liegst falsch. Ganz, ganz, ganz doll falsch.
-/\-CruNcher-/\-
2015-03-19, 18:25:02
somit hat der nicht namentlich bekannte Experte von PCGH.de doch recht ... g-sync ist dem freesync überlegen.
Solche Gosting Nachzieher sind extrem störend.
http://www.pcper.com/files/imagecache/article_max_width/review/2015-03-19/ghost1.jpg
Vor allem da das Ghosting sich auch schnell multiplizieren kann bezüglich AA oder gewolltem Motionblur ;)
@PHuV
Hilfe an was für ein Kind im Manne bin ich denn hier geraten.
Adaptive Sync funktioniert. Ist spezifiziert für 9-240Hz. Das Ghosting hat rein gar nichts mit VRR zu tun.
Versuch wenigstens den von mir zitierten Absatz zu lesen, wenn du ihn schon nicht verstehst.:rolleyes:
Mit was man sich hier abgeben muss. Und dann per PM lieb fragen, wie das denn so ist mit DP-Kabeln und der Länge. Keine Ahnung von nichts, aber große Fresse.
Um es noch mal zu unterstreichen:
Nein du liegst falsch. Ganz, ganz, ganz doll falsch.
Natürlich hat es dass nicht aber solche Hardware lasse ich von Partnern nicht durch meine QC gehen und unfertige Software (wovon ich weiss schonmal garnicht) wenn mir was an meinem Produkt und der Vermarktung mit der Prämise GAMER liegt der erste Eindruck hierbei ist jedenfalls hin im direkten Vergleich zu Asus und Nvidias Partnerschaft und das resultierende Ergebnis derer Zusammenarbeit.
Schnoesel
2015-03-19, 18:30:50
Was genau hat das Gosting denn mit Freesync zu tun? Gar nix bzw. PCper hat keine Ahnung es könnte alles sein und nix anderes steht im Text. Wenn ihr net lesen könnt oder das Gelesene verstehen würde ich auch mal stillhalten. Is ja schlimm hier.
Unicous
2015-03-19, 18:32:52
Adaptive Sync funktioniert, wie in der Spec beschrieben. Was die Hersteller mit ihren Monitoren machen ist ihnen überlassen.
Ob sie die z.B. timings verändern oder nicht wird nicht von Adaptive Sync beeinflusst.
Dass Adaptive Sync Ghosting verursachen soll ist nichts weiter als eine unbelegte Verschwörungstheorie.
-/\-CruNcher-/\-
2015-03-19, 18:34:50
Du Kapierst es einfach nicht
Hier wird ein test im namen AMDs durchgeführt und sie kannten das Ergebnis ;)
Fondness hats ja auch schön fett gepostet
http://s10.postimg.org/53rxhlv6h/AMD_Free_Sync_Slide07_575px.jpg
Momentan ist es ein totaler Fail vom demonstrierten Hardware/Software Ergebnis ;)
mal sehen wann die Leute Shrout vorwerfen er wurde von Nvidia geschmiert ein wenig dumm bei den Einstellungen zu sein ;)
Natürlich hat es dass nicht aber solche Hardware lasse ich von Partnern nicht durch meine QC gehen wenn mir was an meinem Produkt und der Vermarktung liegt der erste Eindruck hierbei ist jedenfalls hin im direkten Vergleich zu Asus und Nvidias Partnerschaft und das resultierende Ergebnis.
Hier wird das Problem sein, daß AMD eben nicht so wie Nvidia aufgrund des Standards den Herstellern Vorschriften machen kann.
Momentan ist es ein totaler Fail vom demonstrierten Hardware/Software Ergebnis ;)
Mit dem Versprechen, die so gemacht wurden, kann man das so sehen.
Keine Frage, über die Zeit wird FreeSync sich sicherlich verbessern. Und das die Dinge fast alle Kinderkrankheiten haben, ist leider schon eher der Normalfall geworden. Was mich immer so geärgert hat sind die ganzen Nvidia und G-Sync-Basher. G-Sync hat zwar mehr gekostet, aber es hat von Anfang hat sofort und unproblematischer funktioniert, und das sollte man einfach sich mal objektiv eingestehen. AMD hätte es besser machen können, tat es aber nicht, und das ist nun mal Tatsache. Schade für die Leute, die sehnsüchtig darauf gewartet haben, aber hier müssen die Hersteller erst mal gewaltig nachbessern. So würde ich erst mal kein FS haben wollen, sondern eher zu G-Sync greifen.
Schnoesel
2015-03-19, 18:39:37
Soll AMD jetzt auch noch Monitore bauen oder was?
Hier wird das Problem sein, daß AMD eben nicht so wie Nvidia aufgrund des Standards den Herstellern Vorschriften machen kann.
Und das ist auch gut so! Naja weitermachen schon genug Lebenszeit hier verschwendet.
Kartenlehrling
2015-03-19, 18:41:09
SWIFT PG278Q NVIDIA® G-Sync
Paneltechnik TN
Frequenzen
Zeilenfrequenz 89 - 222 kHz
Bildfrequenz 50 - 144 Hz
Bildwiederholungsrate 144 Hz
---------------------------------------------------------
BenQ XL2730Z
Paneltechnik TN
Frequenzen
Zeilenfrequenz 15 - 140 kHz
Bildfrequenz 24 - 144 Hz
Bildwiederholungsrate 144 Hz
.........................................................................
LG 34UM67-P
LCD Technologie: AH-IPS
Frequenzen
Horizontale Frequenz: 30 - 90 K Hz
Vertikale Frequenz: 56 - 61 Hz
Bildwiederholungsrate 75 Hz
diese Werte werden auf jeden fall angegeben.
Unicous
2015-03-19, 18:41:14
@-/\-CruNcher-/\-
Ich kapiere was nicht? Dass Asus einen Monitor speziell konfiguriert hat und dafür einen Preis von 800+ Dollar verlangt, während ein anderer Monitor 200 bzw. 300 Dollar weniger kostet?
Und weil der günstigere Monitor nicht die gleichen Features und Konfiguration hat, ist das ein Armutszeugnis für Adaptive Sync?
Ich glaube eher, du kapierst hier etwas nicht.
Es geht nicht darum den "besten" TN G-Sync Monitor zu übertrumpfen, sondern um eine Alternative die keine Zusatzkosten beinhaltet (R&D außen vorgelassen) zu etablieren. Was die Hersteller daraus machen ist ihnen überlassen.
Ich sehe keinerlei Fail.
Adaptive Sync funktioniert.
Soll AMD jetzt auch noch Monitore bauen oder was?
Nein. Sie hätten für die ersten Tests ausgesuchte Hersteller und entsprechende Panels vorschreiben sollen, damit es nicht so ein Desaster wird wie jetzt. QS hätte sehr wohl von AMD kommen können.
Nivida hat doch auch entsprechende Vorgaben gemacht, und es hat funktioniert.
aufkrawall
2015-03-19, 18:46:59
Adaptive Sync funktioniert.
Das würde ich auch so unterschreiben. Ich sehe da kein unlösbares Problem, das dieses bescheuerte FPGA rechtfertigen würde.
Gsync war auch nicht 100%ig bugfrei zum Start, ein bisschen Toleranz sollte man da dem AMD-Treiber schon einräumen.
Ein halbes Jahr kann man jetzt auch noch warten und dann mal schauen, ob es Monitore mit Scalern bis 30Hz A-Sync gibt.
-/\-CruNcher-/\-
2015-03-19, 18:47:17
Wie sieht das Ergebnis mit Samsung und den anderen aus irgend einer der von AMD empfohlenen Monitor überhaupt in der Lage das selbe Ergebniss zu egal welchem Preis zu liefern ?
Nein. Sie hätten für die ersten Tests ausgesuchte Hersteller und entsprechende Panels vorschreiben sollen, damit es nicht so ein Desaster wird wie jetzt. QS hätte sehr wohl von AMD kommen können.
Nivida hat doch auch entsprechende Vorgaben gemacht, und es hat funktioniert.
Jo es scheint eben total egal zu sein Qualität uninteressant hauptsache billiger bin echt gespannt was Huddy dazu sagen wird ;)
Das würde ich auch so unterschreiben. Ich sehe da kein unlösbares Problem, das dieses bescheuerte FPGA rechtfertigen würde.
Gsync war auch nicht 100%ig bugfrei zum Start, ein bisschen Toleranz sollte man da dem AMD-Treiber schon einräumen.
Ein halbes Jahr kann man jetzt auch noch warten und dann mal schauen, ob es Monitore mit Scalern bis 30Hz A-Sync gibt.
Overhead ist also kein Problem für dich vor allem bei dem jetzigen DX 11 verhalten ;)
Loeschzwerg
2015-03-19, 18:53:33
Das würde ich auch so unterschreiben. Ich sehe da kein unlösbares Problem, das dieses bescheuerte FPGA rechtfertigen würde.
Gsync war auch nicht 100%ig bugfrei zum Start, ein bisschen Toleranz sollte man da dem AMD-Treiber schon einräumen.
Ein halbes Jahr kann man jetzt auch noch warten und dann mal schauen, ob es Monitore mit Scalern bis 30Hz A-Sync gibt.
Ja, es funktioniert soweit. Wäre auch schlimm wenn nicht ;D
Die möglichen Probleme sollte man definitiv noch etwas ausführlicher beleuchten (um zu bestätigen oder komplett zu entkräften). In meinen Augen beleuchten PCPer hier als einzige die Techniken etwas genauer bzw. schauen genauer hin.
Mit der aktuellen Einschränkung (40hz) ist FreeSync für mich zunächst uninteressant, genauso wie G-Sync mit den Anschlussmöglichkeiten (DP only).
Kriton
2015-03-19, 19:09:06
PCGH redet jedenfalls schon mal von 30 Hz:
http://www.pcgameshardware.de/AMD-Freesync-Hardware-259942/Specials/AMD-Freesync-G-Sync-Konkurrenz-Test-1153777/
Aber noch einmal: Freesync ist nicht gleich der jeweiligen Implementierung. So schwer ist das doch nicht wenn man mal die (möglicherweise gefärbte) Brille mal abnimmt.
fondness
2015-03-19, 19:10:12
PCGH redet jedenfalls schon mal von 30 Hz:
http://www.pcgameshardware.de/AMD-Freesync-Hardware-259942/Specials/AMD-Freesync-G-Sync-Konkurrenz-Test-1153777/
Aber noch einmal: Freesync ist nicht gleich der jeweiligen Implementierung. So schwer ist das doch nicht wenn man mal die (möglicherweise gefärbte) Brille mal abnimmt.
PCGH ist es schlicht nicht aufgefallen.
Wer hätts gedacht:
"NVIDIA wird G-Sync auf absehbare Zeit nicht durch einen offenen Standard ersetzen. Ich bin gerade auf der GTC und habe gestern Abend mit dem Kopf hinter G-Sync gesprochen. Er betonte mehrfach, dass NVIDIA an G-Sync festhalten wird und das es in Kürze auch ein paar Neuigkeiten geben wird."
Aus dem Luxx (http://www.hardwareluxx.de/community/f14/gpu-und-display-laufen-synchron-amds-freesync-ausprobiert-1064333.html#post23299060).
Loeschzwerg
2015-03-19, 19:15:25
Aber noch einmal: Freesync ist nicht gleich der jeweiligen Implementierung.
Das stimmt völlig, aber IST Stand ist halt einfach so wie er ist, min. 40Hz. Da gilt es halt warten, ganz einfach.
Das ist kein Weltuntergang, aber es ist halt mal wieder kein sauberer Start von AMD.
Unicous
2015-03-19, 19:17:59
Beschwer dich bitte bei den Herstellern.
aufkrawall
2015-03-19, 19:20:31
Da muss man schon sauber trennen zwischen dem, was A-Sync leisten und was AMD per Treiber verbessern kann, und dem, was technisch limitiert ist.
Da es im eigentlichen Sinne keine AMD-Tech ist, kann man sie auch nicht dafür kritisieren.
Wenn man besser geeignete Scaler sofort durchdrücken will, müsste man es wohl so machen wie NV mit proprietärer, exklusiver Aufschlags-Tech.
Kann ja mittel- und langfristig in niemandes Interesse sein, dass AMD das genau so macht.
Womöglich erhalten die 4K Monitore bessere, die 30 erlauben, um einen weiteren Grund zu haben? ... Mal sehen was Samsung anbietet.
Das würde ich auch so unterschreiben.
Toll, das es aber nur mangelhaft funktioniert. :rolleyes:
Gsync war auch nicht 100%ig bugfrei zum Start, ein bisschen Toleranz sollte man da dem AMD-Treiber schon einräumen.
Wo gabs hier Probleme, mir sind keine bekannt. :confused:
Ein halbes Jahr kann man jetzt auch noch warten und dann mal schauen, ob es Monitore mit Scalern bis 30Hz A-Sync gibt.
Das wäre IMHO dringend angeraten, weil gerade ab 30 Hz jede Art von Sync deutlich sichtbar wird.
aufkrawall
2015-03-19, 19:24:04
Toll, das es aber nur mangelhaft funktioniert. :rolleyes:
Ist wahrscheinlich einfach nicht teuer genug für dich.
Ist wahrscheinlich einfach nicht teuer genug für dich.
Das hat doch nichts damit zu tun, warum wirst Du beleidigend? :confused:
Willst Du Ghosting? Oder erst ab 40 FPS Sync? Ich nicht.
Wer hätts gedacht:
"NVIDIA wird G-Sync auf absehbare Zeit nicht durch einen offenen Standard ersetzen. Ich bin gerade auf der GTC und habe gestern Abend mit dem Kopf hinter G-Sync gesprochen. Er betonte mehrfach, dass NVIDIA an G-Sync festhalten wird und das es in Kürze auch ein paar Neuigkeiten geben wird."
Aus dem Luxx (http://www.hardwareluxx.de/community/f14/gpu-und-display-laufen-synchron-amds-freesync-ausprobiert-1064333.html#post23299060).
So gesehen haben sie auch vollkommen recht. Lieder eine proprietäre Lösung, die reibungslos ab 30 FPS funktioniert als es den Herstellern lassen, die das dann u.U. vermurksen.
aufkrawall
2015-03-19, 19:31:10
Das hat doch nichts damit zu tun, warum wirst Du beleidigend? :confused:
Du hattest mir in irgendeinem anderen Thread mal irgendwie so etwas wie "menschenverachtende Einstellungen" nachgesagt.
Das hab ich sehr persönlich genommen und werd ich auch nicht vergessen.
Ich hab keine Lust, mich mit dir auseinanderzusetzen.
Unicous
2015-03-19, 19:32:37
@PHuV
Du beleidigst uns mit deiner Ignoranz.
Die Hersteller bestimmen was sie für Monitore verkaufen. Adaptive Sync hingegen funktioniert.
Es funktioniert nicht halb. Es funktioniert nicht mangelhaft. Es funktioniert VOLLUMFÄNGLICH.
Daran ändert auch dein ignorant/arrogantes Gehabe nichts.
Loeschzwerg
2015-03-19, 19:44:05
Beschwer dich bitte bei den Herstellern.
Warum sollte ich? Da hätte wenn dann AMD Dampf machen müssen.
So bleibt es halt bei dem ersten Eindruck wie es ist. Es funktioniert, aber bedingt durch das Angebot und/oder dem Treiber von AMD halt nicht für alle zufriedenstellend.
Affinator
2015-03-19, 19:53:40
Wie stellt Ihr Euch denn das vor?
Soll AMD in Zukunft zu JEDEM Monitorhersteller einen Angestellten (oder gleich mehrere, wenn wir schon dabei sind) aus der QS für JEDEN neuen Monitor schicken um den ordentlich zu prüfen?
Und wenn die AMD-Truppe dann nicht zufrieden ist, der Monitorhersteller aber schon, dann wird der Monitor nochmal neu entwickelt?
Und wenn wir schon dabei sind, machen wir das auch gleich noch für alle Lautsprecher weil die AMD Motherboards ja auch Soundausgabe haben.
Achja, da gibt es ja noch weitere Peripherie...
Was denkt Ihr denn wie die Einführung eines Produktes, das einer öffentlichen Spezifikation folgt, aussieht? Da wird die Standardkonformität getestet und nachgewiesen und dann wird das Produkt auf den Markt gebracht. Und das ist auch gut so. Sonst würden alle Firmen immer nur kreuz und quer ihre QS-Truppen wie Armeen verschieben.
Das NVidia sich das für ein proprietäres Luxuxprodukt leistet, für das auch nur eine sehr geringe Anzahl an Geräten auf den Markt kommt, ist natürlich im ersten Moment für den Kunden besser. Aber langfristig können nur offene Standards funktionieren.
Unicous
2015-03-19, 19:53:55
@Loeschzwerg
Adaptive Sync ist eine VESA-Spec. Hätte die VESA sich da auch einmischen sollen?
Bloß weil AMD ihre Implementierung per Hardware und Software Freesync nennt und für ihr Ökosystem validiert heißt das doch nicht, dass sie eine Handhabe dahingehend habe was der einzelne Hersteller auf den Markt wirft.
Adaptive Sync kann und sollte am Ende in jedem Preisbereich implementiert werden, weil es eben so gut wie nichts kostet (außer eben R&D).
Ob da Hänschen Müller an einem 20" Monitor mit beschissenem TN-Panel hockt, oder Hans Müllmann einen fetten OLED 55"er mit 0,5 ms vor sich zu stehen hat sollte da völlig unerheblich sein. Das Feature ist einfach essentiell und es sollte zukünftig keine Frage mehr sein ob VRR integriert ist oder nicht. Es hat einfach ein Standard-Feature zu sein.
dargo
2015-03-19, 19:55:58
Ist bei mir leider auch so, da hoffe ich kommt bald ein Update. 40Hz als unterste Grenze ist leider untauglich...
Warum?
aufkrawall
2015-03-19, 20:01:49
Warum?
Einige SP-Spiele lassen sich durchaus mit sehr niedrigen fps spielen.
Filme haben auch nur ~24fps. Ist nicht toll, aber bei besserer BQ als mit höheren fps mitunter der bessere Kompromiss.
Sunrise
2015-03-19, 20:02:51
Warum?
Wie warum? Weil ich normalerweise alles voll aufdrehe und gerade dort ja den A-Sync-Vorteil dann brauche. Also eher unten. Obenrum ist weniger das Problem.
Je weiter runter, umso besser, weil es deutlich mehr Spielraum bietet.
Ich bin eben ein typischer High-End Single-GPU-Käufer, der auch immer die Karte bis ans Limit ausfährt. Ansonsten könnte ich mir den Preis für so ein Ding auch nichtmehr rechtfertigen.
Und 30fps ist eben oft noch gut spielbar. 40Hz sind daher für mich bei aktuellen Modellen zu niedrig. Das wird sicher aber nicht das letzte Wort sein, man sollte AMD mal ein paar Monate Zeit geben. Ebenso wollen sich die Monitorhersteller ja voneinander evtl. abgrenzen. Da hätten sie jetzt bei FreeSync auch die entsprechende Möglichkeit, während sie wie wir bei G-Sync "locked in" sind.
Wie stellt Ihr Euch denn das vor?
Soll AMD in Zukunft zu JEDEM Monitorhersteller einen Angestellten (oder gleich mehrere, wenn wir schon dabei sind) aus der QS für JEDEN neuen Monitor schicken um den ordentlich zu prüfen?
Und wenn die AMD-Truppe dann nicht zufrieden ist, der Monitorhersteller aber schon, dann wird der Monitor nochmal neu entwickelt?
Warum den nicht? So extrem, wie Du es beschreibst, braucht man es ja auch nicht tun.
Das ist doch immer wieder die gleiche Frage: Freier Standard, den dann jeder wieder selbst interpretiert und implementiert, mit den entsprechenden Auswüchsen.
Oder
Proprietär, wo es entsprechende Einschränkungen gibt, aber der Kunde sich eher auf die HW verlassen kann.
Eine pauschale Antwort gibt es leider nicht, da es so oder so ausgehen kann, egal welchen Weg man wählt. Aufgrund von Zeit und Qualität ziehe ich heute aber erfahrungsgemäß eher einen proprietären Ansatz vor, wenn er funktioniert und mir Zeit erspart.
Unicous
2015-03-19, 20:10:37
Es ist kein freier Standard, sondern ein offener Standard.
Jeder Hersteller der irgendetwas mit Monitoren TVs etc. zu tun hat ist Mitglied bei der VESA.
Es wird auch nichts ausgelegt. Der Standard ist so wie er ist.
(del676)
2015-03-19, 20:11:14
40fps?
FreeSync funktioniert auch mit 9hz, sofern es der Monitor unterstuetzt.
Loeschzwerg
2015-03-19, 20:12:54
@Loeschzwerg
Adaptive Sync ist eine VESA-Spec. Hätte die VESA sich da auch einmischen sollen?
@Affinator und Unicous: Natürlich ist das nicht so einfach, aber beschwert euch bitte im Umkehrschluss nicht wenn es eben Kritik hagelt, weil eben nicht alles optimal läuft bzw. die Anforderungen der Kunden (mindestens G-Sync Niveau) nicht erreicht werden.
dargo
2015-03-19, 20:14:24
Einige SP-Spiele lassen sich durchaus mit sehr niedrigen fps spielen.
Robbitop hat selber G-Sync und sagt, dass er es ab 40-45fps sinnvoll findet. Ich glaube ihm da eher als so manchen hier (ist jetzt nicht auf dich bezogen). Von daher finde ich die 40Hz ok, 48Hz allerdings etwas zu hoch angesetzt.
Unicous
2015-03-19, 20:14:52
@Affinator und Unicous: Natürlich ist das nicht so einfach, aber beschwert euch bitte im Umkehrschluss nicht wenn es eben Kritik hagelt, weil eben nicht alles optimal läuft bzw. die Anforderungen der Kunden (mindestens G-Sync Niveau) erreicht werden.
Läuft doch optimal? Ich wiederhole es gerne wieder und wieder. Adaptive Sync funktioniert. Einwandfrei.
Kartenlehrling
2015-03-19, 20:16:06
amd freesync demo build 0.9.1
Und wo kann man jetzt die Demo bekommen?
dargo
2015-03-19, 20:17:24
Wie warum? Weil ich normalerweise alles voll aufdrehe und gerade dort ja den A-Sync-Vorteil dann brauche. Also eher unten. Obenrum ist weniger das Problem.
Je weiter runter, umso besser, weil es deutlich mehr Spielraum bietet.
Ich bin eben ein typischer High-End Single-GPU-Käufer, der auch immer die Karte bis ans Limit ausfährt. Ansonsten könnte ich mir den Preis für so ein Ding auch nichtmehr rechtfertigen.
Und 30fps ist eben oft noch gut spielbar.
Das ist zwar deine Meinung die ich durchaus akzeptiere, aber eben keine allgemeine. Selbst gesynchte 30fps sind imo nicht mehr vernünftig spielbar. Irgendwann wird der Input-Lag einfach zu hoch. Auch wenn du den Bildablauf noch als flüssig empfindest.
Loeschzwerg
2015-03-19, 20:21:23
Läuft doch optimal? Ich wiederhole es gerne wieder und wieder. Adaptive Sync funktioniert. Einwandfrei.
Keiner (zumindest ich) meckert direkt an der Technik, sondern an der aktuellen Umsetzung in den Produkten. Das ist der Umstand der nicht "optimal" läuft.
Hab ich es jetzt deutlich ausgedrückt?
Sunrise
2015-03-19, 20:21:37
Das ist zwar deine Meinung die ich durchaus akzeptiere, aber eben keine allgemeine. Selbst gesynchte 30fps sind imo nicht mehr vernünftig spielbar. Irgendwann wird der Input-Lag einfach zu hoch. Auch wenn du den Bildablauf noch als flüssig empfindest.
Es geht ja auch nicht nur um die dauerhafte Ausgabe, denn mit niedrigem Limit fängst du auch Drops besser ab. Mal ganz von dem m.M. nach aktuell vorbildlicherem Verhalten von G-Sync im unteren Bereich ab.
Ist ja auch nur mein Eindruck, wenn es da Argumente dagegen gibt, immer her damit. Normalerweise spiele ich auch nicht mit 30fps, es geht mir aber um etwas Sicherheitspielraum.
Ist ja immerhin ein neuer Monitor dafür fällig und da ich mich kenne, kaufe ich immer recht teure HW um langfristiger damit Spaß zu haben. Da empfinde ich 40Hz einfach als störend. Aber wie schon besprochen, ist das nur monitorabhängig, ich sehe dem eher mit Optimismus entgegen.
Es ist eben einfach Mist, jetzt evtl. keinen Eizo mehr kaufen zu können, weil sich evtl. Eizo nicht an G-Sync binden will, was ich absolut nachvollziehen könnte. Dann muss ich aber auch zu AMD greifen. Alles Mist.
Blediator16
2015-03-19, 20:21:40
Da wird sich doch tatsächlich um ein Feature gestritten, das noch weniger Menschen besitzen, als irgendwelche 600€ Grafikkarte. Ich fall vom Glauben ab :freak:
Affinator
2015-03-19, 20:21:52
Mich stört es nur dass hier wieder die Fail-Keule geschwungen wird. Ich warte noch auf mein absolutes Unwort "Armutszeugnis" (<- sowas gibt es nicht und das wird hier wahrlich inflationär benutzt).
AMD kann nichts für die Vorstellung der Monitorhersteller. Freesync tut genau das was es tun soll.
Ghosting ist eine Frage der Panelansteuerung.
Minimal 40 Hz sind eine Herstellerentscheidung. (Weniger würde wahrscheinlich die Kristalle "auseinander laufen" lassen, wäre aber technisch sicher möglich.)
Was hat AMD denn bitte falsch gemacht? Sie haben eine Funktion implementiert und jetzt ist es an den anderen etwas daraus zu machen.
Unicous
2015-03-19, 20:22:25
Keiner meckert direkt an der Technik
Lies dir bitte noch einmal Wort für Wort PhuVs Beiträge durch.
Loeschzwerg
2015-03-19, 20:26:39
Das Problem ist, AMD steht mit FreeSync als quasi Schirmherr vor der ganzen Sache.
Eine Teilschuld muss man sich da fast gefallen lassen, denn das Marketing wollte genau diesen Hype um die Technik und gegen Nvidia erreichen.
Jetzt wird "man" gemessen und frisst halt die Scheiße der Monitorhersteller.
@Uni: An genau die Antwort habe ich gedacht nachdem ich auf "Antworten" geklickt hatte :D Siehe mein Edit :)
Na, bis dann mal ein anständiges *VA Panel kommt, gibt es hoffentlich auch gescheitere Implementierungen der Technik - und die 390X ;) Die Unterschiedlichkeit der bisher schon vorgestellten Panels ist ja schonmal toll, von 16:9 bis 21:9, 1080p bis 4k, IPS und TN etc.
Cool, dass PCPer mal wieder genauer hinschaut! Das mit dem Ghosting verstehe ich nicht - auch nicht, wie ein einzelnes Frame des SWIFT komplett Ghosting-frei sein kann, ausser da verwendet man Black Frame Insertion und nicht GSync, oder 0 Overdrive. Oder der Asus ist bis ans letzte Getuned, vgl. die Fehlerquote... So oder so bin ich u.a. auch auf den nicht-Freesync-zertifizierten Adaptive-Sync-Monitor von Asus gespannt :)
AintCoolName
2015-03-19, 21:20:59
Minimal 40 Hz sind eine Herstellerentscheidung. (Weniger würde wahrscheinlich die Kristalle "auseinander laufen" lassen, wäre aber technisch sicher möglich.)
Kann ich mir nicht vorstellen, mein LG Monitor mit 3D modus kann die Kino fps von 23,976, und jeder TV kann das auch. Das habe ich von Freesync eigentlich auch erwartet das man Video immer mit den passenden FPS sieht.
Disco_STFU
2015-03-19, 21:24:27
Wow was ist denn hier bitte los? Bei manchen hier hat man echt den Eindruck, dass sie FreeSync auf biegen und brechen schlecht reden wollen. Ist das ein verzweifelter Versuch, die 700€ Invenstition in eine, nicht bessere, proprietäre Technik rechtfertigen zu wollen oder was?
MadManniMan
2015-03-19, 21:29:08
Was mich bei den ganzen (ausbleibenden) Artikeln stört: wo sind die Highspeed-Abfilmungen von den verschiedenen Modi inklusive sichtbarer Mausbewegung? Ich will nicht den drölfzigsten subjektiven Bericht, ich will endlich mal was Nachvollziehbares ;(
Kartenlehrling
2015-03-19, 21:32:08
@AintCoolName
Laut dem Foto rechnend PowerDVD sogar noch 2 frames dazu beim neuen AMD Fluid Motion Video (Smooth Blu-ray Playback).
http://pics.computerbase.de/6/1/8/4/1/1_m.jpg
aufkrawall
2015-03-19, 21:36:06
TVs betreiben meist Frame Blending, ein Vielfaches von 23,976xxxfps ist schwierig genau zu erreichen. Ansonsten spricht nichts gegen 48Hz.
Blending kann etwa auch madVR.
MiamiNice
2015-03-19, 21:50:16
Was ist den hier schon wieder los :biggrin:
Also ich sehe 2 unterschiedlicher Ansätze:
Nvidia:
Gibt den Hersteller vor was der Monitor können muss um ein G-Sync Monitor zu sein und hat damit die volle Kontrolle über das Feature. Nachteil ist natürlich das NV sich das extra Stück HW im Moni vergolden lassen kann.
AMD:
Hat einen freien Standard geschaffen, den jeder Hersteller nutzen und umsetzen kann wie er will. Vorteil ist natürlich das jeder Hersteller Monitore in jeder Preisrange anbieten kann. Nachteil ist das AMD grundsätzlich keine Kontrolle über die Umsetzung und Qualität des Features hat.
Für mich als Gamer überwiegen da klar die Vorteile von G-Sync, da die Qualität immer gleich bleibt und man sich auf das Feature "verlassen" kann.
Aber mit Sicherheit wird es auch bald für A-Sync "Gamer" Monitore geben, die einen wunschlos zufriedenstellen. Nur muss man halt vorher Tests im Internet wälzen bis man einen brauchbaren Moni gefunden hat. G-Sync Monis kann man dagegen "ungesehen" kaufen.
Ich denke auch das A-Sync das Problem hat das das Siegel "A-Sync" sehr inflationär auf vielen extrem billigen und unbrauchbaren Monitoren zu sehen sein wird.
Ich bin da eher einer von der Sorte "lieber bissel mehr auf den Tisch legen und wissen was man(n) hat".
Salve Jungs, und hat euch nicht die Köppe ein.
M4xw0lf
2015-03-19, 21:50:54
Einige SP-Spiele lassen sich durchaus mit sehr niedrigen fps spielen.
Filme haben auch nur ~24fps. Ist nicht toll, aber bei besserer BQ als mit höheren fps mitunter der bessere Kompromiss.
Also gerade bei Filmen MUSS es doch möglich sein, 24 FPS einfach mit 48 Hz wiederzugeben, da ist schließlich nicht mal Variation der Anzeigedauer nötig. Einfach jeden Frame zweimal zeigen.
Kartenlehrling
2015-03-19, 21:58:28
G-Sync Monis kann man dagegen "ungesehen" kaufen.
1...2...3..... @Sontin komm heraus.
HarryHirsch
2015-03-19, 22:02:07
ls in da house? wo? ich seh keinen frontstring. :freak:
Schaffe89
2015-03-19, 22:04:01
Nachteil ist das AMD grundsätzlich keine Kontrolle über die Umsetzung und Qualität des Features hat.
Falsch. Die Monitore müssen erst zu AMD eingeschickt werden und bekommen dann erst das Siegel "Freesync".
Kartenlehrling
2015-03-19, 22:08:28
@HarryHirsch
Im CB Forum darf er frei schreiben.
Das Zitat ist nicht von ihm, sondern von @MiamiNice
Aber einen habe ich noch ...
Ha, aus VaporSync wird GhostSync
Aber hey, es ist billiger.
MiamiNice
2015-03-19, 22:10:05
Falsch. Die Monitore müssen erst zu AMD eingeschickt werden und bekommen dann erst das Siegel "Freesync".
Dann frage ich mich allerdings warum AMD Monitore mit einem minimalen 48 FPS Sync und Ghostig zertifiziert. Da es ein Feature speziell für Gamer ist, und man sich gerade mit AMD Rechnern gerne unterhalb von 48 FPS bewegt, kann ich das nicht nachvollziehen.
Dann wäre AMD imho gut darin beraten den Herstellern direkte, alltags taugliche, Vorgaben zu machen.
Aber wie schon geschrieben, auch für A-Sync wird über kurz oder lang der "Wundermonitor" kommen der es richtet.
WTF wer ist Sontin?
Ich bin es jedenfalls nicht.
Kartenlehrling
2015-03-19, 22:15:49
Ich verstehe aber auch die Leute nicht "... unter 60fps spiele ich nicht" und die gleichen Leute wollen nun auch gleichzeitig bis 15Hz(fps) Free- und G-sync haben.
Schaffe89
2015-03-19, 22:16:28
AMD ist doch gar nicht dafür da, den Herstellern vorzuschreiben, wie sie ihre Hardware verwenden.
Wenigstens gibt es daraus folgend einen Konkurrenzkampf der Hersteller.
Wer den ersten 30 Hertz Freesyncmonitor bringt, der kriegt bei mir den Zuschlag.
aufkrawall
2015-03-19, 22:19:02
Also gerade bei Filmen MUSS es doch möglich sein, 24 FPS einfach mit 48 Hz wiederzugeben, da ist schließlich nicht mal Variation der Anzeigedauer nötig. Einfach jeden Frame zweimal zeigen.
Ich versteh eh nicht, was da viele Leute einen Fetisch draus machen.
madVR Smooth Motion an und jedes Video läuft ohne Repeat-Judder bei jeder Refreshrate.
Gibt etwas mehr Motion Blur, merkt angesichts des Film-Blurs aber wahrscheinlich kaum jemand.
Mich würde auch das Geswitche in den FSE nerven.
dargo
2015-03-19, 22:25:21
Falsch. Die Monitore müssen erst zu AMD eingeschickt werden und bekommen dann erst das Siegel "Freesync".
Auch falsch.
Aktuell sind elf verschiedene Monitore bekannt, die FreeSync unterstützen werden. Manche davon sind schon erhältlich, andere sollen in Kürze folgen. Weitere Modelle sollen bis Jahresende folgen.
Alle elf Monitore mit Adaptive-Sync werden offiziell mit FreeSync kompatibel sein, das hat allerdings mehr mit Marketing als mit der Technik zu tun. Mit FreeSync kompatibel bedeutet, dass der Hersteller den Monitor vorab zu AMD geschickt hat, dieser verschiedene Testläufe erfolgreich bestanden hat und dann eine kostenlose FreeSync-Zertifizierung erhält. Grafikkarten werden auch mit Monitoren umgehen können, die Adaptive-Sync unterstützen, aber nicht von AMD zertifiziert wurden.
http://www.computerbase.de/2015-03/amd-freesync-im-praxistest/2/
Auch falsch.
http://www.computerbase.de/2015-03/amd-freesync-im-praxistest/2/Entspricht doch genau dem, was Schaffe89 schreibt? :confused:
[OT]aufkrawall: Lassen sich mit MadVR auch BluRays abspielen? Mein aktueller Monitor unterstützt kein (Vielfaches von) 23.xxx / 24Hz, und immer den Fernseher/BD-Player/Receiver anschmeissen um BR zu kucken, ist mühsam....
Grafikkarten werden auch mit Monitoren umgehen können, die Adaptive-Sync unterstützen, aber nicht von AMD zertifiziert wurden.
Welche sind das? ... wäre Interessant...
dargo
2015-03-19, 22:30:26
Entspricht doch genau dem, was Schaffe89 schreibt? :confused:
Also ich lese daraus, dass die Zertifizierung von AMD genauso viel wert ist wie das WHQL Siegel von Microsoft in den Grafiktreibern, nämlich nichts. Also muss auch nicht jeder Freesync Bildschirm zu AMD eingeschickt werden. Wahrscheinlich wird das nur bei den ersten passieren.
Das Einschicken bringt einfach das FreeSync-Siegel. Ohne Einschicken und die paar bestandenen Kompatibilitätstests darf da wohl einfach nicht FreeSync draufstehen - und so verstand ich auch die Aussage von Schaffe89...
WHQL wird der strengere Test sein.
dargo
2015-03-19, 22:35:27
Das Einschicken bringt einfach das FreeSync-Siegel. Ohne Einschicken und die paar bestandenen Kompatibilitätstests darf da wohl einfach nicht FreeSync draufstehen - und so verstand ich auch die Aussage von Schaffe89...
Dann schau nochmal in welchen Zusammenhang er MiamiNice zitiert hat.
[OT]aufkrawall: Lassen sich mit MadVR auch BluRays abspielen? Mein aktueller Monitor unterstützt kein (Vielfaches von) 23.xxx / 24Hz, und immer den Fernseher/BD-Player/Receiver anschmeissen um BR zu kucken, ist mühsam....
Nur ungeschütze.
aufkrawall
2015-03-19, 22:36:08
[OT]aufkrawall: Lassen sich mit MadVR auch BluRays abspielen? Mein aktueller Monitor unterstützt kein (Vielfaches von) 23.xxx / 24Hz, und immer den Fernseher/BD-Player/Receiver anschmeissen um BR zu kucken, ist mühsam....
Nur kommerzielle Abspielprogramme unterstützen BD-Menüs und -Kopierschütze.
Ansonsten muss der Kopierschutz geknackt werden und die BD per Playlist abgespielt werden, wo man aber nicht immer garantiert die richtige Spur erwischt.
Am einfachsten wäre da wohl, sie mittels kommerziellem Tool zu rippen (ohne Re-Encode bzw. per Remuxing).
Toll ist das alles nicht.
Dann schau nochmal in welchen Zusammenhang er MiamiNice zitiert hat.Ja, und ich bleibe bei der Aussage, dass es stimmt, dass AMD durch ihre Tests mitbestimmt, welcher Monitor das Siegel "Freesync" bekommt und welcher nicht. Sie hätten da durchaus auch Qualitätsmasstäbe festlegen können.
Nur ungeschütze.Nur kommerzielle Abspielprogramme unterstützen BD-Menüs und -Kopierschütze.
Ansonsten muss der Kopierschutz geknackt werden und die BD per Playlist abgespielt werden, wo man aber nicht immer garantiert die richtige Spur erwischt.
Am einfachsten wäre da wohl, sie mittels kommerziellem Tool zu rippen (ohne Re-Encode bzw. per Remuxing).
Toll ist das alles nicht.
Danke für die Auskunft. Das ist natürlich schade, müsste ich die Kauf-BDs zuerst rippen... Immerhin wäre das hierzulande meines Wissens noch legal, aber ist mir erst recht zu aufwändig.
dargo
2015-03-19, 22:42:43
Ja, und ich bleibe bei der Aussage, dass es stimmt, dass AMD durch ihre Tests mitbestimmt, welcher Monitor das Siegel "Freesync" bekommt und welcher nicht.
Und was kann ich mir jetzt von diesem Siegel kaufen? Oder was bietet der Bildschirm mit dem Siegel "Freesync" mehr als einer ohne wie zb. der angekündigte Asus MG279Q?
Weiss ich auch nicht - wäre gut zu wissen, was AMD da genau testet, ausser ob die variable Refresh-Rate im angegebenen Bereich überhaupt funktioniert...
Also ich sehe 2 unterschiedlicher Ansätze:
Nvidia:
Gibt den Hersteller vor was der Monitor können muss um ein G-Sync Monitor zu sein und hat damit die volle Kontrolle über das Feature. Nachteil ist natürlich das NV sich das extra Stück HW im Moni vergolden lassen kann.
AMD:
Hat einen freien Standard geschaffen, den jeder Hersteller nutzen und umsetzen kann wie er will. Vorteil ist natürlich das jeder Hersteller Monitore in jeder Preisrange anbieten kann. Nachteil ist das AMD grundsätzlich keine Kontrolle über die Umsetzung und Qualität des Features hat.
Salve Jungs, und hat euch nicht die Köppe ein.
So siehst Du das richtig. Warum hier alle alle gleich dann einen zum Fanboy abstempeln, ist mir scheierhaft. Und so wie es aktuell aussieht, und was die AMD-Fans nicht wahrhaben wollten, daß Freesync (auch wenn AMD selbst dafür großteils - warum auch immer - dafür nichts kann) eben aktuell G-Sync noch (!) unterlegen ist.
Für mich als Gamer überwiegen da klar die Vorteile von G-Sync, da die Qualität immer gleich bleibt und man sich auf das Feature "verlassen" kann.
Mehr sagen die Kenner von G-Sync auch nicht. Wer G-Sync kauft, weiß heute, was er bekommt. Und so wie es aktuell aussieht, wird das so noch einige Zeit bleiben, bis Freesync so funktioniert, so daß die meisten zufrieden damit sein werden. Damit ist Freesync nicht schlechter gemacht, als es ist. Ich verstehe ja auch nicht, was daran so schwer zu kapieren ist.
Gipsel
2015-03-19, 23:08:15
Um mal auf das von PCPer behauptete Judder-/Ruckler-Problem bei Unterschreiten der unteren Grenze des variablen Bereiches zu kommen, irgendwie leuchtet das nicht ein. Die behaupten da irgendwas in die Richtung, nV würde Frames mehrfach ausgeben und so für eine gleichmäßigere Ausgabe sorgen. Ähm, im Grunde macht das VSYNC auch, also das Wiederholen des Frames. Ob der Refresh dann aus dem Speicher auf dem GSYNC-Modul kommt oder über das DP-Port-Kabel sollte eigentlich relativ egal sein. Das Panel erlaubt so oder so nur eine maximale Geschwindigkeit für das Programmieren der Pixelmatrix (das GSYNC-Modul muß die Pixeldaten ja dafür ebenfalls über das LVDS-Interface an das Panel schicken).
Natürlich kann man versuchen rumzutricksen und versuchen, die Refreshrate vorherzusagen (z.B aus der Zeitdauer seit dem letzten von der GPU gekommenen Frame) und dann den Zwangsrefresh so zu legen, daß der nicht mit einem neuen Frame kollidiert (dann müßte die GPU warten). Aber abgesehen davon sollte A-/FreeSync kein erhöhtes Rucklerproblem bei Unterschreiten der 30/40Hz-Grenze zeigen.
Die behaupten ja, es wäre wegen der 40Hz-Grenze gar übler als bei einem 60Hz-Monitor. Das kann ohne Bug so eigentlich gar nicht stimmen. Denn es werden ja keine 40Hz (25ms) Frames dupliziert, sondern der Retransmit des alten Frames von der GPU dauert natürlich nur so lange wie die maximale Refreshrate des Monitors vorgibt (also z.B. knapp 7ms bei einem 144Hz-Modell). In der Zeit kann die GPU kein neues Bild zum Monitor schicken (bzw. würde es Tearing geben, wenn man VSYNC ausmacht), genau wie bei GSYNC in der Zeit des Panelrefreshs ebenfalls kein neues Bild angenommen werden kann (bzw. wird es eben verzögert dargestellt, damit man eben kein Tearing bekommt).
Aber die Dehnung der Refreshzyklen sollte eigentlich auch bei den wiederholten Frames funktionieren. Das bedeutet, daß mit FreeSync on/VSYNC off Tearing statistisch gesehen seltener wird (nicht jedes neues Frame ist bei der ersten Anzeige geteart, sondern nur, wenn es zur Kollision mit einem Retransmit kommt [was beim der 40-144Hz Bereich nur knapp 7ms Übertragungszeit bei bis zu 25ms Anzeigedauer ausmacht, also statistisch gesehen eine knapp 30% Chance bei zufällig verteilten Frametimes, was eine miese Annahme ist]). Und genausowenig kommt es bei VSync on bei allen Frametimes zu Kollisionen. Ein 40-144Hz FreeSync Monitor sollte also VSync-Ruckler/Judder unterhalb von 40Hz nicht schlechter als ein 60Hz-Monitor handhaben, sondern sogar besser als ein normaler 144Hz-Monitor mit VSYNC.
http://abload.de/img/v_freesyncb8rqf.png
http://abload.de/img/v_freesync_zpfrfq.png
Oder mit Frametimes:
http://abload.de/img/v_freesync_ftn2q2c.png
Nach den Zacken (Kollision mit einem Retransmit eines Frames, Dauer hier zu 1/144Hz=6,94ms angenommen) kann ja FreeSync die Anzeigedauer der Frames wieder bis zum Maximum von 25 bzw. 33ms dehnen (im Gegensatz zu normalem VSync, da ist die angezeigte Framerate immer ein 144/N mit N der Anzahl der Framewiederholungen). Es sollte eigentlich wie dargestellt aussehen. Wenn das nicht der Fall sein sollte, versteckt sich irgendwo noch ein Bug.
Schaffe89
2015-03-19, 23:18:21
AMD wird beim einschicken einfach die EDID Profile die der Monitorhersteller an AMD geschickt hat, überprüfen und gegebenenfalls überarbeiten.
Und danach bekommt dat Ding die Zertifizierung.
Es wäre aber wirklich interessant bei AMD das 30 Hertz Problem zu analysieren.
Das mit dem Blacklight Flickering kann ich jetzt als reine Begründung nicht ganz für valide halten, oder sind die Panels derart scheiße, oder will AMD lediglich kein Risiko eingehen?
Gipsel
2015-03-19, 23:27:56
AMD wird beim einschicken einfach die EDID Profile die der Monitorhersteller an AMD geschickt hat, überprüfen und gegebenenfalls überarbeiten.
Und danach bekommt dat Ding die Zertifizierung.
Es wäre aber wirklich interessant bei AMD das 30 Hertz Problem zu analysieren.
Das mit dem Blacklight Flickering kann ich jetzt als reine Begründung nicht ganz für valide halten, oder sind die Panels derart scheiße, oder will AMD lediglich kein Risiko eingehen?
PCPer schreibt ja, daß beim ASUS ROG mit GSync um die 30fps Helligkeitssprünge zu beobachten sind (wenn er also unter 30Hz auf Frameverdopplung umsteigt und die interne Refreshrate dann von 30 auf knapp 60Hz springt). Offenbar wollte man die nicht haben und hat das untere Limit etwas höher gesetzt.
Unicous
2015-03-20, 00:22:44
Öhm....ja.:facepalm::facepalm::facepalm:
Hello Everyone,
First of all, I'm personally sorry for advising you all the driver would be ready today. I hate letting people down as i know many of you have been waiting a long time for this driver.
We want the Catalyst 15.3 Beta driver with AMD FreeSync technology to be the highest quality as possible and are working hard to release it as soon as possible. I’ll make sure to update everyone here when the driver is ready for download.
I don't anticipate a long wait for it to be released, but it's not going to be today I'm afraid as i was expecting.
Thank you for your patience.
http://forums.overclockers.co.uk/showpost.php?p=27798674&postcount=2090
I would never do that, as i know people have been waiting for this. I would have posted earlier, but obviously i wanted to give it to the last minute before confirming. Please be assured, the delay will not be long.
http://forums.overclockers.co.uk/showpost.php?p=27798712&postcount=2106
MiamiNice
2015-03-20, 00:24:06
So siehst Du das richtig. Warum hier alle alle gleich dann einen zum Fanboy abstempeln, ist mir scheierhaft. Und so wie es aktuell aussieht, und was die AMD-Fans nicht wahrhaben wollten, daß Freesync (auch wenn AMD selbst dafür großteils - warum auch immer - dafür nichts kann) eben aktuell G-Sync noch (!) unterlegen ist.
Mir ging es nicht darum etwas als über oder unterlegen zu titulieren. Mir als NV Kunde bleibt eh nicht anders als G-Sync zu nutzen aber ich sehe auch durchaus die positiven Seiten an A-Sync. Das positivste wäre wohl das die extra "Steuer" entfällt, die NV ja nun mal auf jeden G-Sync kompatiblen Monitor erhebt. Ich kann mir durchaus vorstellen das in relativ kurzer Zeit ein A-Sync Monitor auf den Markt kommt, der z.b. mit dem Asus Swift gleichziehen kann der ja auch auf meinem Schreibtisch steht und ein 800€ großes Loch ins Portemonnaie gerissen hat. Das geht mit A-Sync sicher günstiger.
Am Ende werden wir wohl durch die Wahl des Monitors an den Grafikkartenhersteller gefesselt, was für den Kunden nicht gut sein kann. Und das ganz unabhängig davon welcher Art Fanboi man auch immer ist.
Jetzt kann man natürlich darüber sinnieren ob das NV oder AMD Schuld ist.
Es sind imo beide schuld, weil man sich nicht an einen Tisch setzt und sich auf einen Standard einigen kann, der beide Vorteile vereint. Nämlich günstig, mit festen und tauglichen Specs und natürlich kompatibel zu allen Herstellern.
mczak
2015-03-20, 01:07:28
PCPer schreibt ja, daß beim ASUS ROG mit GSync um die 30fps Helligkeitssprünge zu beobachten sind (wenn er also unter 30Hz auf Frameverdopplung umsteigt und die interne Refreshrate dann von 30 auf knapp 60Hz springt). Offenbar wollte man die nicht haben und hat das untere Limit etwas höher gesetzt.
Vielleicht könnte man da noch etwas an der Displaytechnologie verbessern? Man bräuchte wohl stabilere Flüssigkristalle ;-). Oder irgendwelche anderen Tricks - wenn man z.B. das Display (natürlich nur intern, extern könnte man weiterhin variable Rate verwenden sogar ohne unteres Limit) mit fix 1000 Hz ansteuern würde hätte man diese Probleme nicht (die Ansteuerungslogik würde einfach immer das neueste Bild verwenden, ist theoretisch nicht ganz so flüssig das würde aber nicht auffallen). Geht aber wohl mit derzeitiger Technik auch nicht...
Gipsel
2015-03-20, 01:16:31
Vielleicht könnte man da noch etwas an der Displaytechnologie verbessern? Man bräuchte wohl stabilere Flüssigkristalle ;-). Oder irgendwelche anderen Tricks - wenn man z.B. das Display (natürlich nur intern, extern könnte man weiterhin variable Rate verwenden sogar ohne unteres Limit) mit fix 1000 Hz ansteuern würde hätte man diese Probleme nicht (die Ansteuerungslogik würde einfach immer das neueste Bild verwenden, ist theoretisch nicht ganz so flüssig das würde aber nicht auffallen). Geht aber wohl mit derzeitiger Technik auch nicht...
Die IGZO-Panels von Sharp gehen wohl bis 1 Hz runter (im Mobilbereich mit Selfrefresh). Die halten die Werte der einzelnen Pixel schlicht deutlich besser.
mczak
2015-03-20, 01:23:42
Es sind imo beide schuld, weil man sich nicht an einen Tisch setzt und sich auf einen Standard einigen kann, der beide Vorteile vereint. Nämlich günstig, mit festen und tauglichen Specs und natürlich kompatibel zu allen Herstellern.
Naja also ausser eventuell einer maximalen Minimalrate beim Refresh sehe ich nichts was man wirklich sinnvoll in die Spezifikation schreiben könnte. In so einer Display-Port Spezifikation steht ja auch nicht drin wieviel Ghosting am Ende erlaubt ist oder wie stark das PWM-Flimmern sein darf das hängt dann immer alles vom konkreten Monitor ab.
Ich denke die Adaptive-Sync Spezifikation ist relativ offen damit das mit wenig Aufwand in vielen Geräten implementierbar ist - auch ein "minimal adaptives Gerät" ist besser als gar nicht adaptiv (die 48-75Hz bei zwei der vorgestellten Bildschirmen finde ich schon auch grenzwertig aus theoretischer Sicht). AMD könnte allerdings für offiziell FreeSync unterstützte Geräte strengere Vorgaben machen, aber hielt es wahrscheinlich für wichtiger dass man überhaupt einmal relativ günstige Geräte auf dem Markt hat.
Wäre allerdings nett wenn die minimale Refreshrate klar ersichtlich ist bei den Produktbeschreibungen - ich befürchte da wird stark auf die Maximalrate fokussiert werden obwohl die im Vergleich zur Minimalrate quasi unerheblich ist. Aber auch das hilft so direkt nicht weiter, denn ob die Helligkeitsunterschiede sichtbar sind geht daraus natürlich auch nicht hervor.
Kartenlehrling
2015-03-20, 01:26:37
Jedenfall das gute am freesync ist das man nicht am Vsync bzw. Hz des Monitor gebunden ist,
was ja das grösste problem bei den 4k-Gsync Monitor waren da sie nur 60Hz unterstützten.
Der LG 29UM67-P (AH-IPS 75Hz) für 330€ ist doch eigentlich der ideal Gaming Monitor.
Spiele stelle man so ein das mini FPS >50fps sind und max FPS 100fps (limiter setzten)
Da es kein Vsync gibt kann man über die Hz (75hz) spielen und es fühlt sich besser an und ist ̶t̶̶e̶̶a̶̶r̶̶i̶̶n̶̶g̶̶f̶̶r̶̶e̶̶i̶ tearing möglich.
Der Monitor hat zwar dann immer noch "nur" 75hz und die Frames sind nicht mehr synchron aber es fühlt sich trotzdem besser an.
y33H@
2015-03-20, 01:28:57
Sobald du bei 75 Hz mit Freesync über 75 fps kommst, teart es.
Kartenlehrling
2015-03-20, 01:30:02
http://www.guru3d.com/articles-pages/amd-freesync-review-with-the-acer-xb270hu-monitor,8.html
A Quicky FreeSync Video
Ahh sehe gerade in dem video geht es nicht über die Monitor hz grenze .
mczak
2015-03-20, 01:30:09
Die IGZO-Panels von Sharp gehen wohl bis 1 Hz runter (im Mobilbereich mit Selfrefresh). Die halten die Werte der einzelnen Pixel schlicht deutlich besser.
Wusste ich gar nicht das wäre ja theoretisch super für einen Adaptive-Sync Monitor geeignet - schliesslich gibt's IGZO auch relativ gross, allerdings (noch?) selten. Bin aber was Displaytechnologie nicht so auf dem Laufenden da gibt's mittlerweile ja auch noch mehr (LTPS z.B.).
robbitop
2015-03-20, 09:51:21
Robbitop hat selber G-Sync und sagt, dass er es ab 40-45fps sinnvoll findet. Ich glaube ihm da eher als so manchen hier (ist jetzt nicht auf dich bezogen). Von daher finde ich die 40Hz ok, 48Hz allerdings etwas zu hoch angesetzt.
Naja aber mein Empfinden ist ja nicht auf jeden zu applizieren. Es gibt genug Leute, denen reichen 30 fps und Leute, die brauchen 60 fps. 45 fps ist mein eigenes subjektives Empfinden. :)
Es gibt auch Spiele, da ist der Inputlag sehr gering und die Frametimes gleichmäßig und dabei sind sie nicht besonders schnell. Da könnten 30 fps auch genug sein.
IMO ist die untere Limitierung von 30 fps schon gut. (Reserve ist immer gut)
Alles darunter (was durch Frameverfielfältigung aber immernoch im G-Sync läuft) halte ich persönlich nicht mehr für relevant. Es wird idR vorher schon zäh. 2x fps machen mir überhaupt keinen Spaß mehr.
InsaneDruid
2015-03-20, 09:56:58
Lustig. Ewig und drei Tage wird die Folie 9-xxx gegen 30-xxx herumgereicht, um den Vorteil von Freesync zu zeigen. Die ersten Monitore kommen, schaffen erst ab 40Hz und genau ab diesem Tag sind 40Hz ja eigentlich voll ok, 30 braucht echt niemand.
Sooo armseelig.
Palpatin
2015-03-20, 10:04:40
Sobald du bei 75 Hz mit Freesync über 75 fps kommst, teart es.
Aber nur bei dem 75 Hz Monitor oder? Bei den 144er Modellen ist das nicht der Fall hoffe ich doch.
Sunrise
2015-03-20, 10:06:02
Lustig. Ewig und drei Tage wird die Folie 9-xxx gegen 30-xxx herumgereicht, um den Vorteil von Freesync zu zeigen. Die ersten Monitore kommen, schaffen erst ab 40Hz und genau ab diesem Tag sind 40Hz ja eigentlich voll ok, 30 braucht echt niemand.
Sooo armseelig.
Das eine gibt eben die Spec wider, das andere die aktuelle Verfügbarkeit, die überhaupt nichts über die FreeSync-Fähigkeiten aussagt, sondern nur über den aktuellen Stand. Wenn wir IGZO oder ähnlich schnelle Panels in Zukunft hätten, dann könntest du auch deutlich weiter runter gehen und diese Vorteile nutzen.
Ist halt Marketing, die einen sprechen über die Spec, die anderen von der Praxis.
Das Positive an der Sache ist, dass es die Monitorwelt jetzt stark ankurbeln wird, da die FreeSync-Spec offen ist und das treibt in der Regel dann auch die jeweiligen Hersteller soweit an, dass diese sich gegenseitig Konkurrenz machen und sich voneinander abheben wollen.
dargo
2015-03-20, 10:08:16
Naja aber mein Empfinden ist ja nicht auf jeden zu applizieren. Es gibt genug Leute, denen reichen 30 fps und Leute, die brauchen 60 fps. 45 fps ist mein eigenes subjektives Empfinden. :)
Dein subjektives Empfinden deckt sich aber ganz gut mit meinem. ;) Sollte jetzt natürlich nicht als allgemeingültig gelten.
Aber nur bei dem 75 Hz Monitor oder? Bei den 144er Modellen ist das nicht der Fall hoffe ich doch.
Nein, "sobald du bei 144 Hz mit FreeSync über 144 fps kommst, teart es."
Fällt nur weniger auf, weil der Riss kürzer zu sehen ist.
uweskw
2015-03-20, 10:15:50
in 70% der PCs und Laptops läuft ne Intel-Grafik. Und grade die rödeln doch meist im Bereich < 60FPS rum.
Können die auch mit Free-Sync Monitoren arbeiten? Oder ist das mehr als nur ne Treiberfrage?
greetz
U.S.
M4xw0lf
2015-03-20, 10:17:16
Sie können theoretisch, wenn Intels Hardware und Treiber fit dafür sind.
Sunrise
2015-03-20, 10:17:46
in 70% der PCs und Laptops läuft ne Intel-Grafik. Und grade die rödeln doch meist im Bereich < 60FPS rum.
Können die auch mit Free-Sync Monitoren arbeiten? Oder ist das mehr als nur ne Treiberfrage?
greetz
U.S.
Wenn der Display-Controller in der Intel-CPU und die entsprechende Schnittstelle vorhanden ist, ist das überhaupt kein Problem, das muss eben nur von den Treibern auch unterstützt werden.
uweskw
2015-03-20, 10:37:00
Wenn der Display-Controller in der Intel-CPU und die entsprechende Schnittstelle vorhanden ist, ist das überhaupt kein Problem, das muss eben nur von den Treibern auch unterstützt werden.
Wenn tatsächlich demnächst auch alle Intel Chips Free-Sync unterstützen, dann wird NV auch auf den Zug aufspringen müssen und kann den100€ G-Sync Aufschlag vergessen.
greeetz
U.S.
aufkrawall
2015-03-20, 10:37:52
Es wird wenn nicht FreeSync, sondern A-Sync unterstützt.
Sunrise
2015-03-20, 10:41:46
Wenn tatsächlich demnächst auch alle Intel Chips Free-Sync unterstützen, dann wird NV auch auf den Zug aufspringen müssen und kann den100€ G-Sync Aufschlag vergessen.
greeetz
U.S.
Das ist ja die Hoffnung. AMDs FreeSync ist eben nur eine Implementation, jeder kann es genauso für sich auch einsetzen. Intel könnte also einen tollen Marketing-Namen erfinden und das auf die Massen loslassen.
Denn der A-Sync-Vorteil ist IMMER da, das betrifft nicht nur die High-End-Käufer.
Wie schon damals angesprochen, könnte allerdings NV sich jetzt etwas einfallen lassen, um G-Sync noch attraktiver (mehr exklusive Features) zu machen.
Kartenlehrling
2015-03-20, 10:45:02
Ich habe bei HardwareLuxx eine Beitrag zum neunen AH-IPS mit G-sync gefunden, vorallem das Thema flackern ist interessant,
weil es mit dem Acer weg ist, somit könnte die Vermutung stimmten das Asus mit der Swift eine Trick anwende wie das Pulsieren bzw. ein Black-frame ausgibt.
Weil das Gosting schon auffällig ist, wie sieht das denn bei anderen ältere Asus G-sync Monitor aus?
So, mein Acer hat es via Kurier tatsächlich am selben Tag zu mir nach Hause geschafft. ASUS abgeklemmt, Acer dran. Der allererste WOW Effekt ist erstmal ausgeblieben.
Aber nun nach der ersten Stunde Nutzung muss ich sagen, dass ein paar Dinge wirklich eine Ecke besser sind als beim Swift. Allerdings bestätigt mich der Acer auch darin, dass das TN des Swift wirklich gut ist. Denn die Farbdarstellung empfpinde ich am Acer gar nicht mal als soviel besser. Besser ja, aber kein Quantensprung. Die Blickwinkel sind natürlich viel besser. Der Unterschied ist paneltypisch riesig. Was auch heftig ist, ist die Schrift. Viel weicher, viel schöner zu lesen. Beim Swift wirkt die Schrift oft so ausgedünnt bis verwaschen. Ich hatte oft Mühe beim lesen im Browser ohne Zoom. Erst jetzt wird mir klar, dass das nicht alleine der hohen Auflösung geschuldet ist. Schärfe ist glaube ich hier das Stichwort.
Das Handling, die Verarbeitung und die Optik gehen aber in der Tat deutlich an den Swift. Das OSD ist viel besser zu steuern. Er sieht hochwertiger aus, fühlt sich hochwertiger an und sieht einfach besser aus. Kleine Gimmicks wie die LED beim Swift hat der Acer leider auch nicht. Aber der Acer ist nun kein Billigheimer. Ich hatte schon Acer Produkte, und der Predator reiht sich da nun nicht typisch als low budget Produkt ein. Es ist kein ultra premium finish aber ordentliche Qualität. Zugegeben, für 750 EUR dürfte es ein wenig mehr sein.
Das viel diskutierte IPS glowing sehe ich überhaupt gar nicht als Problem. Wenn überhaupt, sieht man das nur auf schwarzen oder generell sehr dunklen Flächen. Und wenn dann aber auch nur, sobald der Raum abgedunkelt ist. Ich kann das glowing auf schwarzem Untergrund bei eingeschalteter Deckenbeleuchtung fast gar nicht sehen. Wenn das hier nicht so gehyped worden wäre, würde ich die zwei Zeilen darüber gar nicht schreiben.
Interessanter Weise funktioniert GSYNC bei manchen Games nun auch besser als mit dem Swift. In World of Tanks zB hat das Bild in der Garage oder im Ladebildschirm manchmal leicht aufgeflackert. Ich habe immer geglaubt, dass WoT einfach nicht für GSYNC optimiert sei. Da WoT für so Einiges nicht gut optimiert ist, hat mich das dann auch nicht weiter gekümmert. GSYNC abgeschaltet und gut wars. Spielt in WoT ohnehin keine große Rolle. Doch siehe da, mit dem Acer treten keinerlei Probleme in WoT auf. Das lässt den Swift rückblickend etwas unausgereift wirken zumindest im Bezug auf GSYNC. So, und wer meine Probleme mit meiner 290X und dem Swift mitbekommen hat (Swift Sammelthread), dem wird klar sein, dass dieser Test auch noch auf meiner Liste mit dem Acer steht. Momentan habe ich meine Titan wieder eingebaut, da mich die Probleme zuletzt einfach zu sehr genervt haben. Aber natürlich will ich wissen, ob der Acer besser mit der AMD GPU zurechtkommt bzw eben so wie man das erwarten kann.
Das soll es erstmal gewesen sein. Ein sehr guter Monitor. Er dürfte gerne etwas günstiger sein oder eben hochwertiger verarbeitet für den aktuellen Preis. Ansonsten habe ich bis jetzt nichts zu meckern.
http://www.hardwareluxx.de/community/f111/ips-monitore-mit-144-hz-und-1440p-1054362-20.html#post23299328
InsaneDruid
2015-03-20, 10:53:07
Das eine gibt eben die Spec wider, das andere die aktuelle Verfügbarkeit, die überhaupt nichts über die FreeSync-Fähigkeiten aussagt, sondern nur über den aktuellen Stand. Wenn wir IGZO oder ähnlich schnelle Panels in Zukunft hätten, dann könntest du auch deutlich weiter runter gehen und diese Vorteile nutzen.
Ist halt Marketing, die einen sprechen über die Spec, die anderen von der Praxis.
Das Positive an der Sache ist, dass es die Monitorwelt jetzt stark ankurbeln wird, da die FreeSync-Spec offen ist und das treibt in der Regel dann auch die jeweiligen Hersteller soweit an, dass diese sich gegenseitig Konkurrenz machen und sich voneinander abheben wollen.
Ach, danke Captain Obvious. Ich sagte nichts anderes. Nur dass jetzt da es aktuell keine 9Hz Monitore gibt die AMD Jünger ihr Fähnchen wenden und - nachdem monatelang 30Hz als vieel zu hoch angesehen wurde 40 oder gar 48 für eigntlich die genau optimale Grenze halten. Wärs nicht so traurig wärs echt lustig.
y33H@
2015-03-20, 10:56:11
Es wird wenn nicht FreeSync, sondern A-Sync unterstützt.Intel kann ja u.a. Panel Self Refresh und Media Buffer Optimization, also zB statt 60 Hz auf 48 Hz bei einem 24-fps-Film. A-Sync ist ja an sich eine Auskopplung von eDP.
Ach, danke Captain Obvious. Ich sagte nichts anderes. Nur dass jetzt da es aktuell keine 9Hz Monitore gibt die AMD Jünger ihr Fähnchen wenden und - nachdem monatelang 30Hz als vieel zu hoch angesehen wurde 40 oder gar 48 für eigntlich die genau optimale Grenze halten. Wärs nicht so traurig wärs echt lustig.
Weiß zwar nicht gegen wen genau du deine Spray'n'Pray-Tiraden fährst, aber ich als durchaus sehnsüchtig auf FreeSync wartender habe nicht mit weniger als 30 Hz gerechnet. Gab auch nie ne Ankündigung eines Monitors mit 9 Hz, verstehe den Wirbel nicht. Dass die ersten Monitore jetzt keine 30 bieten ist zwar schade, kratzt mich aber nicht wirklich, da ich so oder so noch warten wollte bis es einen möglichst all meine Anforderungen erfüllenden Monitor gibt.
Es geht halt nur um die verfügbaren Monitore, die Technik funktioniert, also Geduld haben und nicht ausrasten.
Disco_STFU
2015-03-20, 11:06:09
Wirkt echt so, als ob sich von der G Sync Fraktion jetzt an den letzten Strohhalm geklammert wird, die 40Hz...
-/\-CruNcher-/\-
2015-03-20, 11:29:47
Also ich lese daraus, dass die Zertifizierung von AMD genauso viel wert ist wie das WHQL Siegel von Microsoft in den Grafiktreibern, nämlich nichts. Also muss auch nicht jeder Freesync Bildschirm zu AMD eingeschickt werden. Wahrscheinlich wird das nur bei den ersten passieren.
Sorry aber WHQL so klein zu reden ist irsinn vor allem seit NT 6 ist es bahnbrechend verbessert worden und hat erst zu dieser Stabilität geführt die du Heute erlebst, natürlich kann es nicht alles auffangen aber ohne das willst du nicht wirklich ;)
Kontrolle und Zertifizierung ist manchmal der bessere Weg bei einigen sachen, natürlich kann man daraus auch ein Properitäres Geschäftsmodel basteln das hat man sehr schön bei DivX sehen können ;)
Wie gesagt wir müssen auf den Wettbewerb hoffen und das ist immer wieder schade das man jeden zwingen muss Qualität zu liefern weil xx cent mehr investition geht ja gar nicht in diesem.
Und wir müssen da erstemal eine Marktanalyse durchführen und uns die Statistiken anschauen und unsere Wettbewerber ;)
Auch haben die meisten einfach Angst sich Nvidia zu vergraulen und die Nvidia user weil immernoch Nvidia es in der Hand hat Free Sync/Adaptive Sync zu erlauben für ihre User ;)
Nur ist das Paradox weil gerade deswegen sollte man sich ja eigentlich anstrengen eben nicht davon abhängig zu werden jedenfalls nicht total, das geht aber auch nur mit Leistung und Willen ;)
Und wie gesagt es geht hier doch um die Ach so geschätzten GAMER die wir AMD so lieben denen der Stromverbrauch am Arsch vorbeigeht und wo nur Leistung zählt ;)
AMD sollte nur die Monitore sponsern und überhaupt erwähnen die auch diesen ihren gesetzen Ansprüchen gerecht werden.
Natürlich ist dieser Kampf wichtig um die Preise zu stabilisieren und ich begrüße A-Sync als offenen Standard aber hier wird wieder das selbe abgezogen mit den Messern in der Hand als wie bei vielen anderen offenen Standards erst sitzt man gemeinsam am Tisch und Später wird sich gegenseitig abgestochen.
Ob AMD das unter kontrolle bekommt und wir nicht plötzlich bei den selben Preisen wie bei Nvidia landen für die gleiche Qualität (abwarten)
fondness
2015-03-20, 12:20:04
Von Golem gibt es mittlerweile auch einen Artikel:
http://www.golem.de/news/amd-freesync-im-test-kostenlos-im-gleichen-takt-1503-113065.html
dargo
2015-03-20, 12:29:30
Wurde dieses Ghosting bisher nur bei dem Acer Bildschirm beobachtet oder bei allen verfügbaren?
boxleitnerb
2015-03-20, 12:49:24
Kann man mit einem fps-Limiter das Problem fps > Hz effektiv umgehen? Dann wäre nur noch die untere Grenze bei G-Sync/Freesync relevant.
Kartenlehrling
2015-03-20, 12:55:39
Zu Gosting hat der Wolfgang von CB wenigsten dieses geschrieben, aber vielleicht ist er einfach schon zu alt ...
Das Ghosting bei PCper liegt übrigens nicht an Freesync, aber die Lagerkämpfe können nun beginnen.
Das Ghosting beim BenQ kann zumindest ich in Spielen nicht sehen. Da habe ich extra in mehreren Spielen drauf geachtet (hat nunmal ein Hersteller,
ich sehe da aber nichts.
In der FreeSync-Mühle bzw. der G-Sync Demo kann man da tatsächlich etwas sehen,
doch sehe ich das fast genauso auf dem Asus G-Sync-Monitor.
fondness
2015-03-20, 12:55:40
Kann man mit einem fps-Limiter das Problem fps > Hz effektiv umgehen? Dann wäre nur noch die untere Grenze bei G-Sync/Freesync relevant.
Ja kann man.
Unicous
2015-03-20, 13:01:43
@boxleitnerb
Nunja. Ein AMD-Mitarbeiter hatte ja vor ein paar Monaten einen Catalyst eingebauten Limiter geteasert, das würde dann ja Hand in Hand gehen. (3rd Party Tools außen vorgelassen). Aber dass die Hersteller nur auf 40Hz runtergehen finde ich schon reichlich dämlich. Da frage ich mich, was Nvidia da für Vorgaben gemacht hat. Ich frage mich dahingehend auch, ob die G-Sync Monitore nicht etwas zu hart an/über der Spec-Grenze sind und dann u.U. schneller ausfallen, wobei nur der ROG Swift so harte Settings fährt (im Vergleich zu anderen, vergleichbaren Monitoren). Aber ich möchte da auch kein FUD erzählen. Ist halt beschissen, dass man darüber nichts weiß und nur rätseln kann. Hoffentlich kann da TFT Central, Prad und Co. ein wenig Aufklärung schaffen. Denen traue ich im Zweifelsfall doch deutlich mehr zu als PCPer und Co.
Was ich auch mal wieder beschissen finde, ist die Tatsache, dass keiner die Settings offenlegt bei denen getestet wurde. Hier wird der Monitor wieder als unkonfigurierbares Endgerät dargestellt. Ob z.B. AMA oder andere Overdrive-Optionen genutzt werden und in welcher Einstellung wäre auch seeeehr interessant.
y33H@
2015-03-20, 13:03:57
Default :ugly:
Blediator16
2015-03-20, 13:05:04
Wurde dieses Ghosting bisher nur bei dem Acer Bildschirm beobachtet oder bei allen verfügbaren?
http://www.tftcentral.co.uk/reviews/asus_rog_swift_pg278q.htm
Ghosting gibts auch beim Swift. Dieser Sauhaufen bei PCPER hat natürlich mal wieder alles ins Rollen gebracht. Die sind grüner als grün hinter den Ohren.
aufkrawall
2015-03-20, 13:07:34
Ja kann man.
Hat man denn bei NV definitiv mehr Lag, wenn die fps die Refreshrate übersteigen, oder gibt es nicht eine Automatik, die die fps um 0,x unterhalb der maximalen Refreshrate begrenzen?
-/\-CruNcher-/\-
2015-03-20, 13:18:04
Default :ugly:
Das ist Fahrlässig es sei den AMD hat euch gesagt so zu testen, Reviewer Guide ?
http://www.tftcentral.co.uk/reviews/asus_rog_swift_pg278q.htm
Ghosting gibts auch beim Swift. Dieser Sauhaufen bei PCPER hat natürlich mal wieder alles ins Rollen gebracht. Die sind grüner als grün hinter den Ohren.
Da kann es mehrere Gründe für geben Firmware Update (optimierung seitens Nvidia) oder aber auch ganz hart ein Super Prototype Model zum testen das mit der Retail Version gar nichts am Hut hat ;)
Ehrlichgesagt würde es mich nicht Wundern wenn Ryan immer nur das beste an Hardware bekommt und das hinter seinem rücken Nvidia selbst über die AIBs entscheidet was er eigentlich präsentiert, er muss es nichtmal merken ;)
Deswegen sind indie tests enorm wichtig mit Retail Geräten man kann den ganzen Reviewern die davon Leben nicht mehr trauen, sorry das ist nunmal so, zu viele abhängigkeiten.
robbitop
2015-03-20, 13:23:18
AMD hätte zumindest ein bisschen mehr drauf achten können. Zumindest einen Hersteller hätte man sich rauspicken müssen und mit ihm ein Premium-Referenzgerät auf die Beine stellen müssen.
1440p IPS 144 Hz und 30 Hz als unterste Schwelle. Wenn es den Launch verzögert hätte: so what.
Besser als zu launchen und wieder mal mit einem gemischten (also nicht einwandfreien) Ergebnis den Ruf weiter nicht zu stärken. Es interessiert am Ende keine Sau (man entschuldige die Wortwahl), ob das nicht an Freesync liegt. Wenigstens ein Referenzgerät hätte kommen müssen, das zeigt, dass richtig was geht.
Aber das ist leider seit langem immer wieder das AMD Muster. VSR Phase 1? Hätte man sich sparen können. Abwarten und ein komplette Produkt bringen. Hawaii mit Brüll OEM Kühler und dem bekloppten Ubermode? Hätte man sich sparen können. Ein Monat warten und 3rd Party Modelle mit anständigen Kühlern verteilen. Usw usf.
Der Ersteindruck ist sooo wichtig! Ob irgendwas hinterher gefixt wird oder besser läuft interessiert am Ende (sorry nochmal) keine Sau. Lieber spät und richtig launchen.
Crossfire interessiert heute auch nur noch die Hasen - obwohl es besser skaliert und die Frametimes besser sind. Der Ruf wurde vor Jahren verbrannt und der ist mehr als schwer wieder aufzubauen. IMO ist es das was NV wirklich besser kann: saubere Execution. Ruf, Ruf, Ruf.
Gipsel
2015-03-20, 13:32:07
Sobald du bei 75 Hz mit Freesync über 75 fps kommst, teart es.Nur wenn VSync aus ist. Sonst ist das Verhalten identisch zu GSync.
Von Golem gibt es mittlerweile auch einen Artikel:
http://www.golem.de/news/amd-freesync-im-test-kostenlos-im-gleichen-takt-1503-113065.htmlDer die Funktionsweise und das Zusammenspiel von Monitor und Grafikkarte bei VSync grob falsch darstellt. :rolleyes:
Tipp: Der Monitor weiß gar nicht, ob VSync an ist oder nicht, der gibt nur dumm die Bilder aus, die er bekommt. Und für Framewiederholungen bei Unterschreiten der Refreshrate des Monitors ist ebenfalls rein die GPU zuständig. ;)
y33H@
2015-03-20, 13:32:35
Das ist Fahrlässig es sei den AMD hat euch gesagt so zu testen, Reviewer Guide ?Ich kann dir nicht folgen. AMD hat vier Modelle gesamplet, da gibt's keine Vorgabe zu Overdrive etc.
Nur wenn VSync aus ist. Sonst ist das Verhalten identisch zu GSync.Logisch.
Tipp: Der Monitor weiß gar nicht, ob VSync an ist oder nicht, der gibt nur dumm die Bilder aus, die er bekommt. Und für Framewiederholungen bei Unterschreiten der Refreshrate des Monitors ist ebenfalls rein die GPU zuständig.Ich bin an der Formulierung dran, bin damit nicht glücklich ... lief die Tage mies ;(
Troyan
2015-03-20, 13:34:21
http://www.tftcentral.co.uk/reviews/asus_rog_swift_pg278q.htm
Ghosting gibts auch beim Swift. Dieser Sauhaufen bei PCPER hat natürlich mal wieder alles ins Rollen gebracht. Die sind grüner als grün hinter den Ohren.
TFTCentral hat mit 144Hz getestet.
PCper hat die AMD Demo für den Swift und BenQ auf 45FPS/45Hz eingestellt.
Das ist nicht ganz vergleichbar...
Und auf den Test habe ich gestern auch schon verwiesen. ;)
Unicous
2015-03-20, 13:36:32
@robbitop
Offensichtlich stehen die Hersteller nicht so hinter der Technik, wie gehofft. Das hat sich aber schon zur CES abgezeichnet. Die geteaserten Monitore, waren alle eher meh, einzig die LG-Monitore waren etwas interessanter weil... IPS. Die Auflösung war eher beschissen oder eben Altes in neuen Schläuchen, lediglich die Elektronik wurde "ausgetauscht". (Die Samsung 4K'er sind ja anscheinend auch delayed)
Sie nehmen es gerne mit, aber das war es auch schon. Einzig Asus hat einen interessanten Monitor gezeigt, der wohl aber noch nicht einmal Freesync-zertifiziert sein wird. Der kommt ja hoffentlich früher als gehofft und dann werden wir mal gucken, ob Asus es hinbekommt. Billig wird das Ding aber nicht sein.
VSR hatte man sicherlich längere Zeit in der pipeline , aber dann kam ihnen Nvidia zuvor und sie haben es schnell rausgehauen um irgendwas zu haben.
robbitop
2015-03-20, 13:40:42
@VSR Phase 1:
Dennoch falsche Reaktion. Besser spät und richtig als verfrüht und halbgar.
@Freesync Monitore:
Zur Not muss man dem Monitorhersteller halt etwas Geld in die Hand drücken, um ihm ein solches Referenzgerät schmackhaft zu machen.
Unicous
2015-03-20, 13:44:10
Woher Geld nehmen, wenn nicht stehlen?:biggrin:
AMD hat sich zuweit gestreckt, obwohl sie weiterhin in einer prekären Lage sind. Zuviele verschiedene Initiativen, zu viele Entlassungen, zu wenige Software-Engies.
Grestorn
2015-03-20, 13:51:38
Wenn tatsächlich demnächst auch alle Intel Chips Free-Sync unterstützen, dann wird NV auch auf den Zug aufspringen müssen und kann den100€ G-Sync Aufschlag vergessen.Ich glaube nicht, dass es um einen €100 Aufschlag geht. Und im Moment sieht es auch nicht so aus, als wären Adaptice-Sync Monitore wirklich preisgünstiger als ihre GSync Pendants.
Aber ich sehe genau wie Du kommen, dass nVidia keine Wahl bleiben wird, als Adaptive Sync offiziell zu unterstützen.
Ich habe bei HardwareLuxx eine Beitrag zum neunen AH-IPS mit G-sync gefunden, vorallem das Thema flackern ist interessant,
weil es mit dem Acer weg ist, somit könnte die Vermutung stimmten das Asus mit der Swift eine Trick anwende wie das Pulsieren bzw. ein Black-frame ausgibt.Das Flackern bei GSync hat nichts mit einem Black Frame zu tun. Es tritt genau dann auf, wenn das Spiel keine laufenden Frames mehr erzeugt, also wenn es nachladen muss oder in einem Menü etc. Meines erachtens ein Artefakt des GSync Scalers, was auch immer die technische Ursache sein mag. Ich nehme an, neuere Monitore haben eine neue Version des Scalers on Board, der dieses Problem nicht mehr hat.
Ich muss aber sagen, dass mich das bei meinem Swift so gut wie gar nicht stört. Während des Spielens kommt das ja praktisch nie vor, und wenn man ein Ladescreen leicht flimmert (mehr ist es ja nicht), dann stört mich das nur leicht.
Weil das Gosting schon auffällig ist, wie sieht das denn bei anderen ältere Asus G-sync Monitor aus?Ich bin für das Ghosting offenbar nicht empfindlich genug...
Hat man denn bei NV definitiv mehr Lag, wenn die fps die Refreshrate übersteigen, oder gibt es nicht eine Automatik, die die fps um 0,x unterhalb der maximalen Refreshrate begrenzen?
Keine Automatik, aber nichts hindert Dich daran, den Framelimiter auf 60, 120 oder 144 fps einzustellen, oder?
robbitop
2015-03-20, 13:53:47
Die Freesync/A-Sync Monitore sind so teuer, weil es noch Pionierprodukte sind und sich die Hersteller das Geld einstecken, weil es schönes Abgrenzungsmerkmal ist. Sobald es aber überall verbaut ist, sinken die Preise. Und zwar mehr als es bei einem FPGA möglich ist.
Kartenlehrling
2015-03-20, 13:55:34
Ich bin an der Formulierung dran,
bin damit nicht glücklich ... lief die Tage mies ;(
Kann du noch einen Test mit CiV:BE Benchmark nachschieben,
da springen die fps von >100fps bis runter auf 30fps,
ich finde die AMD Windrad-Demo nicht gelunge, Nvidia-Pendel biete wenigstens wechselnde FPS an.
dargo
2015-03-20, 14:01:22
AMD hätte zumindest ein bisschen mehr drauf achten können. Zumindest einen Hersteller hätte man sich rauspicken müssen und mit ihm ein Premium-Referenzgerät auf die Beine stellen müssen.
1440p IPS 144 Hz und 30 Hz als unterste Schwelle. Wenn es den Launch verzögert hätte: so what.
Besser als zu launchen und wieder mal mit einem gemischten (also nicht einwandfreien) Ergebnis den Ruf weiter nicht zu stärken. Es interessiert am Ende keine Sau (man entschuldige die Wortwahl), ob das nicht an Freesync liegt. Wenigstens ein Referenzgerät hätte kommen müssen, das zeigt, dass richtig was geht.
Aber das ist leider seit langem immer wieder das AMD Muster. VSR Phase 1? Hätte man sich sparen können. Abwarten und ein komplette Produkt bringen. Hawaii mit Brüll OEM Kühler und dem bekloppten Ubermode? Hätte man sich sparen können. Ein Monat warten und 3rd Party Modelle mit anständigen Kühlern verteilen. Usw usf.
Der Ersteindruck ist sooo wichtig! Ob irgendwas hinterher gefixt wird oder besser läuft interessiert am Ende (sorry nochmal) keine Sau. Lieber spät und richtig launchen.
Hört sich nach Fiji an. :uponder:
@VSR Phase 1:
Dennoch falsche Reaktion. Besser spät und richtig als verfrüht und halbgar.
Du wirst es nie jedem recht machen können. Schau dir nur mal die einzelnen Reaktionen über den verspäteten Treiber im AMD-Unterforum an.
robbitop
2015-03-20, 14:03:09
Hoffentlich begreift AMD es noch rechtzeitig...
Blediator16
2015-03-20, 14:05:42
Hoffentlich begreift AMD es noch rechtzeitig...
Aber ganz ehrlich. Wann war das letzte mal, dass AMD so lange gebraucht hat für einen neuen Treiber. Es wird aktuell so getan, alsob es schon immer so war und man aktuell seinen PC überhaupt nicht nutzen könne.
dargo
2015-03-20, 14:11:00
Die Freesync/A-Sync Monitore sind so teuer, weil es noch Pionierprodukte sind und sich die Hersteller das Geld einstecken, weil es schönes Abgrenzungsmerkmal ist. Sobald es aber überall verbaut ist, sinken die Preise.
Naja... was ist daran teuer?
http://geizhals.de/lg-electronics-29um67-p-a1223769.html?hloc=at&hloc=de
Der gleiche Bildschirm kostet ohne Freesync 30€ weniger. Das liegt aber denke ich nur daran, dass der Freesync Bildschirm noch nicht lieferbar ist.
robbitop
2015-03-20, 14:12:12
Ich meinte eher den Acer 27".
Gipsel
2015-03-20, 14:45:58
Weil das Gosting schon auffällig ist, wie sieht das denn bei anderen ältere Asus G-sync Monitor aus?Sieht schlicht so aus, als hätten die den Overdrive bei den FreeSync-Monitoren aus. Wenn Du das auf dem Asus ROG Swift aus machst, ghostet der auch.
http://www.tftcentral.co.uk/images/asus_rog_swift_pg278q/response_comparison.jpg
ich finde die AMD Windrad-Demo nicht gelunge, Nvidia-Pendel biete wenigstens wechselnde FPS an.Dafür gibt es bei der Windrad-Demo auch einen Button (hat 4 Settings, entweder 45, 50 oder 55 fps fest oder eben variabel, wo das ständig hin und her schwankt).
Blediator16
2015-03-20, 14:47:16
Kann man das Video von PCPER ernst nehmen, wenn es mit einem Iphone 6 gefilmt wurde? Ich kenne mich mit den Kameras in Smartphones absolut nicht aus.
Gipsel
2015-03-20, 14:51:35
Kann man das Video von PCPER ernst nehmen, wenn es mit einem Iphone 6 gefilmt wurde? Ich kenne mich mit den Kameras in Smartphones absolut nicht aus.Das Ghosting wird schon da sein, das berichten ja auch andere.
Sunrise
2015-03-20, 14:59:30
Default :ugly:
Was heißt hier Default? Also Overdrive auf Default? Mal einen anderen Wert gegengetestet und dann nachgeschaut, oder geht das nicht? Es kann doch nicht AMDs Ernst sein, dass der Hersteller es zu ihnen einschickt und dann im Nachhinein auf eure Nachfrage kommt zurück, dass es ein Problem des Panels ist, was ich mal stark bezweifle. Und wenn das wirklich so sein sollte, warum lässt man sowas dann zum Testen von FreeSync überhaupt zu? Scheint ihnen ja völlig egal zu sein, so kommt es zumindest rüber.
Kann man das Video von PCPER ernst nehmen, wenn es mit einem Iphone 6 gefilmt wurde? Ich kenne mich mit den Kameras in Smartphones absolut nicht aus.
Das iPhone 6 bietet dir ja auch die Möglichkeit, mit mehr als 60fps (bis zu 240fps bei 720p) abzufilmen, das ist - wenn es auf einem Stativ steht oder ruhig gehalten wird - doch eigentlich eine praktische Lösung.
Troyan
2015-03-20, 15:15:01
Golems Aussage deckt sich mit der von Hardware.fr:
Was uns in allen drei Modi aber stört, ist das Ghosting: Das Bild - im Falle der Demo die Flügel der Windmühle - zieht Schlieren, wo keine sein sollten. AMD bestätigte unsere Vermutung, dass dies ein Problem des Panels sei, konnte aber keine Lösung anbieten. Aktuell raten wir daher vom Acer XG270HU ab.
http://www.golem.de/news/amd-freesync-im-test-kostenlos-im-gleichen-takt-1503-113065-3.html
Gipsel
2015-03-20, 15:22:21
Was heißt hier Default? Also Overdrive auf Default? Mal einen anderen Wert gegengetestet und dann nachgeschaut, oder geht das nicht? Es kann doch nicht AMDs Ernst sein, dass der Hersteller es zu ihnen einschickt und dann im Nachhinein auf eure Nachfrage kommt zurück, dass es ein Problem des Panels ist, was ich mal stark bezweifle. Und wenn das wirklich so sein sollte, warum lässt man sowas dann zum Testen von FreeSync überhaupt zu? Scheint ihnen ja völlig egal zu sein, so kommt es zumindest rüber.Was hat Ghosting mit FreeSync zu tun?
Falls die Overdrive-Funktion im Monitor per Default aus ist oder sie die schlicht vergessen haben (warum auch immer), ist das Sache des Monitorherstellers. Die Funktion hat ja erstmal nichts mit FreeSync zu tun.
Kann nicht irgendwer mit so einem Monitor durch die Menüs gehen und das anschalten und dann berichten, was sich ändert?
Kartenlehrling
2015-03-20, 15:26:15
Das iPhone 6 bietet dir ja auch die Möglichkeit, mit mehr als 60fps (bis zu 240fps bei 720p) abzufilmen, das ist - wenn es auf einem Stativ steht oder ruhig gehalten wird - doch eigentlich eine praktische Lösung.
Bei 240fps/720p wird es aber auch gleich als Zeitlupe-Video ausgegeben.
Sunrise
2015-03-20, 15:26:49
Was hat Ghosting mit FreeSync zu tun?
Falls die Overdrive-Funktion im Monitor per Default aus ist oder sie die schlicht vergessen haben (warum auch immer), ist das Sache des Monitorherstellers. Die Funktion hat ja erstmal nichts mit FreeSync zu tun.
Kann nicht irgendwer mit so einem Monitor durch die Menüs gehen und das anschalten und dann berichten, was sich ändert?
Direkt nichts, völlig unterschiedliche Baustellen. Daher ja die Frage, ob man auch mal abseits der Default-Werte (wegen dem Ghosting) getestet hat.
Für diese Vorstellung sollte man seitens AMD etwas Feingefühl haben und dann solange kein Siegel ausstellen, bis dieses Problem entweder behoben ist oder das Siegel garnicht erst für diesen Monitor vergeben.
NV arbeitet ja auch mit Acer zusammen und komischerweise liefern die dann nicht nur ein spitzen IPS-Panel bis 144Hz, sondern insgesamt einen sehr guten Gaming-Monitor ab, wo selbst ich sehr positiv überrascht war, weil dort alles verdammt gut angepasst wurde.
Warum verbaut man jetzt so einen Schrott (sorry, aber das Ding ist in diesem Status unbrauchbar, wenn das wirklich bei ALLEN MODI auftritt) an die FreeSync-Kunden. Klar kann da AMD direkt nichts dafür, aber warum verbaut Acer nicht das identische, hochwertige Panel auch mit FreeSync? Das ist doch irgendwie alles mehr als nur eigenartig.
Vor allem sollte das Ding ohne G-Sync-Modul deutlich günstiger angeboten werden können und das Panel sollte sich auch auf bis runter zu 30Hz optimieren lassen, geht ja scheinbar auch mit der G-Sync-Scalerelektronik. Will man hier jemand etwa nicht, dass man direkt vergleichen kann?
Gipsel
2015-03-20, 15:35:55
Für diese Vorstellung sollte man seitens AMD etwas Feingefühl haben und dann solange kein Siegel ausstellen, bis dieses Problem entweder behoben ist oder das Siegel garnicht erst für diesen Monitor vergeben.AMD gibt ein Siegel für die getestete Funktionsfähigkeit des Zusammenspiels ihrer GPUs mit ASync fähigen Monitoren aus. Die testen also, ab ASync mit ihren GPUs im vom Monitor vorgegebenen Bereich zufriedenstellend funktioniert, also ob überhaupt (was bei Erfüllen der ASync-Spec gegeben ist) und eventuell auch noch ob z.B. Helligkeitssprünge vermieden werden (die man mit GSync bei 30Hz bei einigen Monitoren angeblich sehen kann, falls man drauf achtet, daß bedeutet im Prinzip, daß man die Grenze der Haltefähigkeit der Pixel ankratzt, die driften schlicht weg).
Ghosting ist ja da, egal ob man den Monitor mit variabler oder fester Framerate ansteuert. Das zu lösen, ist nicht AMDs Problem sondern das der Monitorhersteller, auch wenn es einige hier scheinbar zu AMDs Problem machen. Ist es so schwer, verschiedene Dinge getrennt zu halten?
Warum verbaut man jetzt so einen Schrott (sorry, aber das Ding ist in diesem Status unbrauchbar, wenn das bei ALLEN MODI wirklich auftritt) an die FreeSync-Kunden. Klar kann da AMD direkt nichts dafür, aber warum verbaut Acer nicht das identische, hochwertige Panel auch mit FreeSync? Das ist doch irgendwie alles mehr als nur eigenartig.
Jo, den möchte ich auch mal als FreeSync-Variante sehen, klingt mehr als nur gut.
Screemer
2015-03-20, 15:37:40
bin mal gespannt ob sich hier noch jemand der redakteure zur overdrive on/off geschichte äußert.
M4xw0lf
2015-03-20, 15:38:47
Wenn Nvidia unter 30 FPS auf Frameverdopplung setzt, warum setzen sie das Limit dafür nicht auch schon bei 40 FPS an, um Flackern auszuschließen, das im 30er-Bereich auftritt?
Wenn Nvidia unter 30 FPS auf Frameverdopplung setzt, warum setzen sie das Limit dafür nicht auch schon bei 40 FPS an, um Flackern auszuschließen, das im 30er-Bereich auftritt?
Können ja nicht alle Bildschirme 80 Hz, wollen vielleicht keine Sonderfälle behandeln.
Unicous
2015-03-20, 15:45:01
Ghosting ist ja da, egal ob man den Monitor mit variabler oder fester Framerate ansteuert. Das zu lösen, ist nicht AMDs Problem sondern das der Monitorhersteller, auch wenn es einige hier scheinbar zu AMDs Problem machen. Ist es so schwer, verschiedene Dinge getrennt zu halten?
;(
Ja, offensichtlich.
Mandalore
2015-03-20, 15:45:47
Also die einzige Sache die die FreeSync Monitore schlechter als G-Sync macht ist das Auftreten von Ghosting?
aufkrawall
2015-03-20, 15:47:57
:redface:
M4xw0lf
2015-03-20, 15:52:59
Können ja nicht alle Bildschirme 80 Hz, wollen vielleicht keine Sonderfälle behandeln.
Stimmt, das ist so naheliegend und plausibel, dass ich es glatt übersehen habe ^^
Screemer
2015-03-20, 15:56:03
Also die einzige Sache die die FreeSync Monitore schlechter als G-Sync macht ist das Auftreten von Ghosting?
nein, nein. nur bis 40Hz, schlechteres aussehen, mehr anschlüsse (wer braucht das schon), günstigerer preis (kann ja nix taugen), schlechte verfügbarkeit beim vorstellungstag. hab bestimmt noch das eine oder andere vergessen.
Unicous
2015-03-20, 15:57:28
@Mandalore
Ghosting tritt (normalerweise) bei jedem LCD-Monitor auf, man kann das aber z.B. durch Overdrive-Settings deutlich minimieren z.T. aber auch verschlimmbessern.
Es sind einfach Monitore mit Adaptive Sync, extra zertifiziert durch AMD. Das ist alles.
AMD hat offensichtlich keine Vorgaben gemacht, lediglich Vorschläge unterbreitet. Die Hersteller haben sich das angehört und gesagt, ah ok interessant, wir nehmen aber lieber die Monitore von diesem Jahr und knallen da neue Elektronik rein und bringen die dann raus. Aus Mainstream-Monitoren die dann ein Gamer-Label draufgeklebt bekommen wird aber nicht automatisch ein "Gaming-Monitor.
M4xw0lf
2015-03-20, 15:57:47
nein, nein. nur bis 40Hz, schlechteres aussehen, mehr anschlüsse (wer braucht das schon), günstigerer preis (kann ja nix taugen), schlechte verfügbarkeit beim vorstellungstag. hab bestimmt noch das eine oder andere vergessen.
Den GRÜNEN AUFKLEBER!!!!11einself.
Sunrise
2015-03-20, 16:10:16
...und eventuell auch noch ob z.B. Helligkeitssprünge vermieden werden (die man mit GSync bei 30Hz bei einigen Monitoren angeblich sehen kann, falls man drauf achtet, daß bedeutet im Prinzip, daß man die Grenze der Haltefähigkeit der Pixel ankratzt, die driften schlicht weg).
Ghosting ist ja da, egal ob man den Monitor mit variabler oder fester Framerate ansteuert. Das zu lösen, ist nicht AMDs Problem sondern das der Monitorhersteller, auch wenn es einige hier scheinbar zu AMDs Problem machen. Ist es so schwer, verschiedene Dinge getrennt zu halten?
Ich habe einfach mindestens die identische Qualität vom Acer mit G-Sync auch für einen FreeSync-Monitor erwartet und ich bekomme aktuell nicht annähernd das, was Acer mit G-Sync anbietet. Trotz dessen, dass man ihn mit FreeSync günstiger anbieten könnte.
Wo also liegt das Problem? Wirklich exklusiv beim Monitorhersteller oder auch AMD? Warum geht es denn bei NV?
Das Ghosting-Thema ist doch ein komplett anderes (Grundprinzip LCDs), das habe ich selbst bei meinem Eizo CG minimal, wenn ich OD zu aggressiv einstelle. Es geht mir vor allem auch um die minimale Framerate. Erkläre mir doch mal rein technisch, warum das bei der G-Sync-Implementation von Acer scheinbar bis runter auf 30Hz geht (wohlgemerkt mit einem IPS-Panel!) und bei der FreeSync-Implementation (mit einem TN-Panel!) nicht. Wer hat da jetzt wie die Finger im Spiel? Falsche Kommunikation? Garkeine?
Merkst du, wie schnell die beiden Dinge nichtmehr auseinanderzuhalten sind?
Troyan
2015-03-20, 16:13:35
Der Monitorhersteller ist hier nicht schuld. Die geben nur die Unter- und Obergrenze im EEID an. Für den Rest ist derjenige Verantwortlich, der die Kopplung vornimmt.
Unicous
2015-03-20, 16:22:37
@Sunrise
Die Hersteller verbauen auch schlechtere Panels als bei ähnlichen Pendants. Ich ging die ganze Zeit davon aus, dass sie die gleichen Panels verbauen. Aber der BenQ und ich glaube der Acer haben eben nicht dasselbe Panel, das der ROG Swift verbaut hat, sondern nur ein ähnliches.
Ich denke es geht hier auch ums early-Adopter Melken. So toll sind die Preise nämlich nicht. (Im Vergleich zu vergleichbaren non-Sync Monitoren). Besonders die UVP die BenQ abruft ist einfach nur pervers. Ich sehe keinen riesigen Unterschied zum Acer, denn ich auch als etwas zu teuer empfinde.
Screemer
2015-03-20, 16:24:29
Der Monitorhersteller ist hier nicht schuld. Die geben nur die Unter- und Obergrenze im EEID an. Für den Rest ist derjenige Verantwortlich, der die Kopplung vornimmt.
Wie jetzt? 40hz im eeid, Probleme mit niedrigen frequenzen wegen grottigem panel und dann ist der hersteller nicht verantwortlich? Erklärung bitte.
Troyan
2015-03-20, 16:27:14
Der Monitorhersteller ist nicht verantwortlich dafür, wie bei Adaptive-Sync beim Unter- sowie Überschreiten der Grenzen verfahren wird. Dafür sind die Sendegeräte zuständig. Die Empfangsgeräte geben nur die Grenze an.
Im Gegensatz zu G-Sync, wo nVidia es ins das Modul einbaut bzw. programmiert, wie verfahren wird. Hier hat zwar der Hersteller auch keine Möglichkeiten etwas zu machen, aber die Zusammenarbeit ist wesentlich enger als bei AdaptiveSync.
Gipsel
2015-03-20, 16:44:16
Wie schon gestern gesagt, halte ich die Erklärung bei PCPer mit der Frameverdopplung und den VSYNC-Rucklern mit FreeSync eher für eine Nebelkerze bzw. allerhöchstens noch einen Treiberbug. Ein Freesync-Monitor sollte bei Unterschreiten der unteren Grenze etwas besser arbeiten als ein Monitor mit der selben maximalen Refreshrate mit VSYNC on. Hatte das auch mit entsprechenden Grafiken illustriert (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10559973#post10559973). Wenn das nicht so läuft, läuft was falsch.
Mancko
2015-03-20, 16:49:49
Der Monitorhersteller ist nicht verantwortlich dafür, wie bei Adaptive-Sync beim Unter- sowie Überschreiten der Grenzen verfahren wird. Dafür sind die Sendegeräte zuständig. Die Empfangsgeräte geben nur die Grenze an.
Im Gegensatz zu G-Sync, wo nVidia es ins das Modul einbaut bzw. programmiert, wie verfahren wird. Hier hat zwar der Hersteller auch keine Möglichkeiten etwas zu machen, aber die Zusammenarbeit ist wesentlich enger als bei AdaptiveSync.
Weswegen Nvidia vermutlich auch eher versuchen wird weitere Features zur Abgrenzung von AdaptiveSynch einzubauen als sich darauf einzulassen. Wir sind jetzt nämlich genau an dem Punkt, der vorher eigentlich absehbar war. In den Gremien die den Standard verabschieden sitzen viele Unternehmen, denen das Thema eigentlich scheiß egal ist. Die Monitorhersteller werden auch versuchen für sich zu optimieren und nicht jeder wird es richtig ernst nehmen. Da werden einige dabei sein, die einfach ein "mee2" Produkt rausbringen ohne großartig auf Qualitätsmerkmale zu achten.
Genau das ist, und das muss man so leider festhalten, wieder AMDs Problem beim Launch. AMD versucht es aus Aufwandsgründen mit dem offenen Standard und sagt "so und so sollte es sein" und hofft dann darauf das die anderen machen. Und was passiert? Die machen einfach ihr Ding und gut.
Nvidia geht da deutlich rustikaler zu Werke. Die machen ihr Ding und werden mit Sicherheit harte Vorgaben gemacht haben wie das auszusehen hat. Durch die eigene Logik sitzen die jetzt auch an der Schaltquelle bei der Verbindung Monitor zu Grafikkarte und können nach weiteren Optimierungsmöglichkeiten und Features suchen. Nvidia wird es auch egal sein, ob nun jeder Monitorhersteller G-Synch Monitore anbietet oder nicht. Aus Nvidia's Sicht ist das nicht maßgeblich. Die Kundschaft sind Gamer und da reicht es, wenn ausreichend Monitormarken verfügbar sind. Es muss nicht jeder Massenhersteller dabei sein.
Aus meiner Sicht tut sich AMD auch hier wieder wie so oft keinen Gefallen ein Thema anzustoßen, zu vermarkten und dann aber auch so ein bisschen sich selbst zu überlassen. Sie verpfuschen sich das Thema damit nur selber. Und da hilft es jetzt auch nicht darüber zu reden wer nun für was verantwortlich ist oder wofür Schuld hat (AMD vs. Monitorindustrie). AMD möchte ein ähnliches Feature vermarkten, dass die Konkurrenz im Griff hat, und muss nun mal dafür sorgen dass das läuft und das gute Produkte dafür da sind. Ansonsten ist das Feature halt wieder nicht 100% zu Ende gedacht. Dann kann man sich dafür nix kaufen. Sprich mal über den Schatten springen und rustikaler zu Werke gehen. Heißt natürlich auch Budget und Manpower dafür zur Verfügung stellen. Entlassungen und R&D Kürzungen passen da natürlich nicht ins Bild.
Blediator16
2015-03-20, 17:08:20
Weswegen Nvidia vermutlich auch eher versuchen wird weitere Features zur Abgrenzung von AdaptiveSynch einzubauen als sich darauf einzulassen. Wir sind jetzt nämlich genau an dem Punkt, der vorher eigentlich absehbar war. In den Gremien die den Standard verabschieden sitzen viele Unternehmen, denen das Thema eigentlich scheiß egal ist. Die Monitorhersteller werden auch versuchen für sich zu optimieren und nicht jeder wird es richtig ernst nehmen. Da werden einige dabei sein, die einfach ein "mee2" Produkt rausbringen ohne großartig auf Qualitätsmerkmale zu achten.
Genau das ist, und das muss man so leider festhalten, wieder AMDs Problem beim Launch. AMD versucht es aus Aufwandsgründen mit dem offenen Standard und sagt "so und so sollte es sein" und hofft dann darauf das die anderen machen. Und was passiert? Die machen einfach ihr Ding und gut.
Nvidia geht da deutlich rustikaler zu Werke. Die machen ihr Ding und werden mit Sicherheit harte Vorgaben gemacht haben wie das auszusehen hat. Durch die eigene Logik sitzen die jetzt auch an der Schaltquelle bei der Verbindung Monitor zu Grafikkarte und können nach weiteren Optimierungsmöglichkeiten und Features suchen. Nvidia wird es auch egal sein, ob nun jeder Monitorhersteller G-Synch Monitore anbietet oder nicht. Aus Nvidia's Sicht ist das nicht maßgeblich. Die Kundschaft sind Gamer und da reicht es, wenn ausreichend Monitormarken verfügbar sind. Es muss nicht jeder Massenhersteller dabei sein.
Aus meiner Sicht tut sich AMD auch hier wieder wie so oft keinen Gefallen ein Thema anzustoßen, zu vermarkten und dann aber auch so ein bisschen sich selbst zu überlassen. Sie verpfuschen sich das Thema damit nur selber. Und da hilft es jetzt auch nicht darüber zu reden wer nun für was verantwortlich ist oder wofür Schuld hat (AMD vs. Monitorindustrie). AMD möchte ein ähnliches Feature vermarkten, dass die Konkurrenz im Griff hat, und muss nun mal dafür sorgen dass das läuft und das gute Produkte dafür da sind. Ansonsten ist das Feature halt wieder nicht 100% zu Ende gedacht. Dann kann man sich dafür nix kaufen. Sprich mal über den Schatten springen und rustikaler zu Werke gehen. Heißt natürlich auch Budget und Manpower dafür zur Verfügung stellen. Entlassungen und R&D Kürzungen passen da natürlich nicht ins Bild.
Krass. Bei AMD wird gesagt Mantle ist tot und im Gsync Thread werden haargenau die selben Argumente gebraucht :freak:
Unicous
2015-03-20, 17:09:20
Adaptive Sync ist ein Feature, dass sowohl die GPU als auch der Monitor beherrschen muss. Alles was darüber hinaus passiert ist ein Plus und kein Muss.
Bei G-Sync ist es eben so, dass weder die Nvidia-GPU noch der entsprechende Monitor im Handel die Voraussetzungen für VRR erfüllt, daher musste Nvidia das anders lösen, mit einer dedizierten Displayelektronik die gegen die ursprüngliche ausgetauscht wurde. Damit einher geht auch, dass alles andere von der Elektronik übernommen werden muss. Das ist bei Adaptive Sync nicht so.
Der Hersteller kann also entscheiden, was für Features er in das Modell integriert.
Die Hersteller waren über Jahre einfach zu faul, das selbst zu übernehmen und Nvidia hat offensichtlich dafür Kohle in die Hand genommen und das Ganze mit Cross-Marketing-Gedöns angereichert.
Niemand hält den Monitorhersteller davon ab bessere Panels zu verbauen, bessere firmware zu coden und entsprechende Features zu implementieren.
Bei G-Sync gibt Nvidia das vor. Es wäre also keine Hürde Feature-Parität die über VRR hinausgeht, herzustellen.
Darüber hinaus sind die ersten Monitore offensichtlich nichts weiter als quick&dirty Lösungen um TTM zu verringern.
Blediator16
2015-03-20, 17:12:00
Adaptive Sync ist ein Feature, dass sowohl die GPU als auch der Monitor beherrschen muss. Alles was darüber hinaus passiert ist ein Plus und kein Muss.
Bei G-Sync ist es eben so, dass weder die Nvidia-GPU noch der entsprechende Monitor im Handel die Voraussetzungen für VRR erfüllt, daher musste Nvidia das anders lösen, mit einer dedizierten Displayelektronik die gegen die ursprüngliche ausgetauscht wurde. Damit einher geht auch, dass alles andere von der Elektronik übernommen werden muss. Das ist bei Adaptive Sync nicht so.
Der Hersteller kann also entscheiden, was für Features er in das Modell integriert.
Die Hersteller waren über Jahre einfach zu faul, das selbst zu übernehmen und Nvidia hat offensichtlich dafür Kohle in die Hand genommen und das Ganze mit Cross-Marketing-Gedöns angereichert.
Niemand hält den Monitorhersteller davon ab bessere Panels zu verbauen, bessere firmware zu coden und entsprechende Features zu implementieren.
Bei G-Sync gibt Nvidia das vor. Es wäre also keine Hürde Feature-Parität die über VRR hinausgeht, herzustellen.
Darüber hinaus sind die ersten Monitore offensichtlich nichts weiter als quick&dirty Lösungen um TTM zu verringern.
Beide Lösungen sind aktuell suboptimal. AdaptiveSync muss breitere Unterstützung genießen, erst dann ist es etwas für den Massenmarkt. Aktuell gibts von beiden nur Technikdemos mit zu vielen Kompromissen zu großen Preisen.
Troyan
2015-03-20, 17:15:37
Gerade im Overclock.net Forum gesehen, dort schreibt einer der beiden PCPer redakteure:
All,
Regarding that guy that switched off AMA and the ghosting was 'just gone', I just did the same thing here on the BENQ, with the FreeSync windmill demo running. Switching to off, high, or premium (the three options) have no effect whatsoever on the ghosting effect we photographed and reported. It remains identical - one previous frame at roughly half the intensity of the windmill blade.
http://www.overclock.net/t/1546934/various-amd-freesync-reviews/370#post_23692696
Klingt stark danach, dass überhaupt keine Optimierung durchgeführt wird. Deckt sich auch mit der Aussage von Hardware.fr über den Acer, die (Google Übersetzer) keine Veränderung beim Umstellen der Einstellung feststellen konnten.
Unicous
2015-03-20, 17:24:04
@Blediator16
Beide Lösungen sind su...peroptimal, denn das wichtigste Feature VRR funktioniert (in den jeweiligen Umsetzungen) einwandfrei.:wink:
Was darüber hinaus passiert entscheidet der Markt.
Nvidia's Lösung ist deutlich teurer hat aber einen größeren TAM (total addressable market) ausgehend von den Marktanteilen, AMD's Lösung hat geringere Kosten dafür einen kleineren TAM. Die Risiken für die Hersteller sind also jeweils schwer einzuschätzen, bei "FreeSync" traut man sich noch nicht den HighEnd-Markt anzugreifen und versucht eher seine hohe Mittelklasse besser zu verkaufen, mit einem nice to have Feature.
Die Zeit wird zeigen wie sich das Ganze entwickelt, aber theoretisch ist es keine Kunst in Zukunft alle neuen Monitore mit Adaptive Sync fähigen Scaler auszustatten ohne Zusatzkosten. Warum? Weil die nötigen Scaler eh schon Adaptive Sync fähig sind.
AMD hätte Geld in die Hand nehmen müssen und sich Modelle mit entsprechenden Specs bauen lassen. Das geht aber quer mit dem Gedanken, dass es lediglich eine Spec ist, die sie umsetzen.
Sie haben die Kohle dafür nicht und die Hersteller interessiert es nicht. Alle erhältlichen Monitore sind de facto keine "Gaming-Monitore", da kann BenQ noch so viele Sticker drauf kleben die das Gegenteil behaupten.
Mancko
2015-03-20, 17:39:52
Krass. Bei AMD wird gesagt Mantle ist tot und im Gsync Thread werden haargenau die selben Argumente gebraucht :freak:
Mantle in der ursprünglich geplanten Form ist ja auch tot. Mit DX12 und Vulcan ist alles notwendige für alle offen, was nicht heißt dass AMD nicht Mantle weiter treibt. Die werden das durchaus weitertreiben aber halt mit einer anderen Ausrichtung. Das was sie aber ursprünglich wollten haben sie nicht bekommen.
Was das nun mit G-Synch zu tun haben soll erschließt sich mir nicht. Nvidia hat nie gewollt, dass AMD auf den G-Synch Zug aufspringt. Ich glaube wie AMD das Problem angeht ist Nvidia herzlich egal. Die wollen einfach nur eigene Lösungen für die eigene Kundschaft - sprich kleine Bausteine die irgendwann mal in ein nettes eigenes Ökosystem münden.
Mancko
2015-03-20, 17:43:40
Die Hersteller waren über Jahre einfach zu faul, das selbst zu übernehmen und Nvidia hat offensichtlich dafür Kohle in die Hand genommen und das Ganze mit Cross-Marketing-Gedöns angereichert.
Niemand hält den Monitorhersteller davon ab bessere Panels zu verbauen, bessere firmware zu coden und entsprechende Features zu implementieren.
Bei G-Sync gibt Nvidia das vor. Es wäre also keine Hürde Feature-Parität die über VRR hinausgeht, herzustellen.
Darüber hinaus sind die ersten Monitore offensichtlich nichts weiter als quick&dirty Lösungen um TTM zu verringern.
Ich habe auch nie gesagt, dass es nicht möglich wäre. Ich habe gesagt, dass AMD das Thema wieder bis zu einem gewissen Grad sich selber bzw. den anderen überlassen hat in der Hoffnung, dass die das schon richtig angehen werden. Genau diese Vorgehensweise findet man bei AMD halt einfach häufig. Nvidia geht da in der Regel andere Wege und tritt auch rustikaler und bestimmter gegenüber anderen auf. Deswegen sind deren Launches häufig auch einfach runder. Am Ende bleibt halt ein Gesamteindruck. Dafür das die Hersteller aktuell bei den adaptive Synch Monitoren schlechte Panels verbauen kann sich AMD nichts kaufen. Mit Sicherheit hat Nvidia da sich einzelne Partner herausgepickt und deutlich mehr Vorgaben gemacht oder anderweitig incentiviert.
Deswegen finde ich es auch geschickter sich bei dem Feature lieber auf ein paar Hersteller zu konzentrieren und dafür gescheite Geräte für die Zielgruppe abzuliefern als darauf zu setzen, dass möglichst alle Monitorhersteller das Feature haben und darauf zu hoffen, dass dann schon ein paar dabei sein werden die gescheite Geräte bauen. Am Ende kann es doch Nvidia und AMD egal sein, ob nun 60% oder 90% der Monitorhersteller das Feature haben. Es gibt doch eh auch dort einige Hersteller, deren Geräte sich Gamer sowieso nicht auf den Tisch stellen.
Unicous
2015-03-20, 17:57:05
Am Ende ist dem Massenmarkt aber nicht geholfen. Weder Nvidias Vorgehen, noch AMDs Vorgehen helfen dass sich VRR schnell verbreitet. Und Nvidia wirft mehr Steine in den Weg, weil sie Herzblatt spielen. "Jetzt musst du dich entscheiden zwischen Nr.1 und Nr. 2.". Nr. 3 (Intel) bleibt außen vor.
Und nein VRR ist kein Premium-Feature bzw. sollte nicht dazu gemacht werden.
Da fällt mir mal wieder was ein, was ich glaube ich schon mal gefragt habe. Warum eigentlich fragt keine Sau mal bei Intel nach, was sie dazu zu sagen haben? Mit Broadwell DT und zukünftigen Generationen hat man doch schon ordentlich Performance um einen großen Teil der heutigen Spiele im 30fps+ Bereich spielen zu können?
Edit:
Übrigens, wenn wir schon mit Zitaten von Allyn Malventano rumschmeißen können wir ja auch mal dieses hier wirken lassen.
I don't see how we said it would be so much harder to implement. In my mind it should be the same and I was frankly surprised to see the FreeSync (or any modern LCD) panels ghosting. The fact remains though - there is ghosting.
http://www.pcper.com/reviews/Displays/AMD-FreeSync-First-Impressions-and-Technical-Discussion#comments
Gipsel
2015-03-20, 18:07:24
Gerade im Overclock.net Forum gesehen, dort schreibt einer der beiden PCPer redakteure:
http://www.overclock.net/t/1546934/various-amd-freesync-reviews/370#post_23692696
Klingt stark danach, dass überhaupt keine Optimierung durchgeführt wird. Deckt sich auch mit der Aussage von Hardware.fr über den Acer, die (Google Übersetzer) keine Veränderung beim Umstellen der Einstellung feststellen konnten.Ja, habe das bei hardware.fr auch gesehen. Sieht so aus, als wenn die OD-Einstellungen praktisch funktionslos sind. :freak:
Da kann man nur hoffen, daß das zukünftige Modelle besser machen (und/oder bei den bereits verfügbaren evt. per Firmware-Update behoben werden kann).
Unicous
2015-03-20, 18:09:37
Geil, der Acer-Monitor bei PCPer hat schon den Geist aufgegeben.
We couldn't, because the Acer failed within an hour of using it. Faulty scaler from the looks of it. Ghosting was similar to the BENQ, though.
http://www.overclock.net/t/1546934/various-amd-freesync-reviews/380#post_23692921
Yup. On the BENQ there is a 'blur reduction' mode. Enabling it drops the display out of VRR mode (and FreeSync will no longer remain checked in the AMD driver). It's possible that those folks who claim 'boom ghosting was gone' didn't notice that they were also no longer running in VRR mode.
Fun fact: if you enable blur reduction on that display *while* in VRR mode, the display goes black and reports no input. The only way I could snap it out of that was to reboot the PC *and* power cycle the display by unplugging it.
http://www.overclock.net/t/1546934/various-amd-freesync-reviews/330#post_23692011
heißeNadel.png
aufkrawall
2015-03-20, 18:11:31
Da sollte man isch den Kauf von dem IPS Gsync-Gerät von denen am besten zwei Mal überlegen. Oder aus dem Kopf schlagen.
Flusher
2015-03-20, 18:16:01
Von Golem gibt es mittlerweile auch einen Artikel:
http://www.golem.de/news/amd-freesync-im-test-kostenlos-im-gleichen-takt-1503-113065.html
Da braucht man nur die ersten paar Zeilen zu lesen um sofort zu wissen, dass da ein NVIDIA-Fanboy an der Tastatur zu Gange war. Ist ja unfassbar wie man dort AMD als völlig Rückständig darstellt.
y33H@
2015-03-20, 18:26:11
Äh ja ... bitte weiter haltlose Unterstellungen verbreiten, immer gern gesehen. Im Abstract steht übrigens:
In der Praxis macht Freesync manches besser als Nvidias G-Sync, dafür überzeugen die kompatiblen Bildschirme nicht durchgehend.
Und im Fazit:
Erfreulicherweise überlässt es AMD anders als Nvidia dem Nutzer, was passieren soll, wenn die Bildrate die Wiederholfrequenz des Monitors übersteigt - entweder ist Vsync aus oder an wie bei G-Sync.
Aber hey, AMD ist total rückständig.
dargo
2015-03-20, 18:28:07
Geil, der Acer-Monitor bei PCPer hat schon den Geist aufgegeben.
:ulol:
PS: gleich kommen die ersten mit "AMD wäre daran schuld". :D
Disco_STFU
2015-03-20, 19:05:00
:ulol:
PS: gleich kommen die ersten mit "AMD wäre daran schuld". :D
Wo kämen wir denn hin wenn dem nicht so wäre? :ubash2:
Unicous
2015-03-20, 19:18:41
Any ETA on Samsung 4K ones or any 3440x1440 curved?
Samsung looking around May, I shall be phasing them into the webshop in a week or two.
http://forums.overclockers.co.uk/showpost.php?p=27802956&postcount=3
M4xw0lf
2015-03-20, 19:36:52
Vielleicht kommt Samsung dann mit FS done right... believe.
Unicous
2015-03-20, 19:45:30
Per Zufall entdeckt: Leider spuckt Googlish fast nur Müll aus, bei Ungarisch kapituliert die Maschine.
Intel is actively exploring the Adaptive-Sync technology[Googlish] (https://translate.google.com/translate?sl=auto&tl=en&js=y&prev=_t&hl=de&ie=UTF-8&u=http%3A%2F%2Fprohardver.hu%2Fhir%2Fintel_vizsgalja_adaptive-sync_tamogatas.html&edit-text=)
Wenn ich das richtig interpretiere, steht da, dass Broadwell Adaptive Sync unterstützen könnte und man in Lauerstellung ist. Da scheint auch zu stehen, dass sie von den G-Sync Verkaufszahlen nicht überzeugt sind(Frage ist ob das von dem Autor kommt oder nicht?) und man bei AS noch keine harten Zahlen hat (irgendwie logisch:freak:).
Könnte am Ende aber auch Blödsinn sein, die Übersetzung gibt einfach zu wenig her.
Kartenlehrling
2015-03-20, 20:35:02
https://www.youtube.com/watch?v=EFQGuYx2q7k
Richard Huddy
Laut den geringen Aufrufen ist es bestimmt noch nicht geposte worden.
M4xw0lf
2015-03-20, 20:35:58
https://www.youtube.com/watch?v=EFQGuYx2q7k
Richard Huddy
Laut den geringen Aufrufen ist es bestimmt noch nicht geposte worden.
Ist das mehr als nur Blabla?
Sunrise
2015-03-20, 20:43:37
Ist das mehr als nur Blabla?
Im Prinzip wiederholt Huddy nochmal das was auf den Folien steht. Er erklärt auch offen, dass FreeSync 9-240Hz unterstützt, aber aktuell die Monitore nur bis 40Hz runtergehen, sagt aber natürlich wieder nicht, warum das so ist.
Kartenlehrling
2015-03-20, 20:45:38
Uiii hat der Samsung UE590, viel Backlight Bleeding ;)
Wieso baut Samsung Freesync nicht in ihren 1100€ VA rein ?
Ich dachte ja das der UE590 ein 2560x1440 AH-IPS wäre, .... ähhhm bei Samsung heisen sie ja PLS sorry, aber das ist ein 4k-TN mit 60Hz ......... ohh no.
http://www.techpowerup.com/img/15-01-06/20a.jpg
Unicous
2015-03-20, 20:48:23
Ist das mehr als nur Blabla?
War das eine rhetorische Frage?:wink:
M4xw0lf
2015-03-20, 20:51:06
War das eine rhetorische Frage?:wink:
Naja, Wunder geschehen :freak:
Ich dachte ja das der UE590 ein 2560x1440 AH-IPS wäre, .... ähhhm bei Samsung heisen sie ja PLS sorry, aber das ist ein 4k-TN mit 60Hz ......... ohh no.
http://www.techpowerup.com/img/15-01-06/20a.jpg
Vom UE850 ließt man leider auch nicht weiter genaueres. :(
fondness
2015-03-21, 10:04:33
Der 31.5" UE850 4K-Monitor hat ein PLS-Pannel plus FreeSync. Alle anderen TN AFAIK.
Kartenlehrling
2015-03-21, 10:09:45
Man kann es einer schlechten Marktforschung bestimmt nicht zuschreiben,
ich habe ja schon lange den Verdacht das sie uns absichtlich nicht das abliefern was wir wollen :)
Kartenlehrling
2015-03-21, 12:02:10
Ich nehme alles zurück ... sie sind einfach unfähig uns ein Wollmilchsau-Monitor abzuliefern.
Bei diesem gelbe Lichthof habe ich ja das Gehäuse das auf die Panel drückt im Verdacht,
weil mit dem "normalen" IPS-Glow und Blacklight Bleeding könnte man mit Sicherheit leben,
dann ist halt das Schwarz nicht Schwarz sondern Grau, aber so ein Gelb will wohl keiner sehen.
http://www.hardwareluxx.de/community/f111/ips-monitore-mit-144-hz-und-1440p-1054362-21.html#post23303676
Acer Predator XB270HUbprz, 27" 2560x1440, AH-IPS , 144hz , G-sync €749,--
robbitop
2015-03-21, 12:38:54
Dacia Acer halt.
dllfreak2001
2015-03-21, 14:06:08
Ich weiß nicht was ihr alle habt, Freesync/ASync ist allemal besser als VSync und günstiger als GSync. Welche Technik sich durchsetzt ist in meinen Augen
damit jetzt schon klar.
Gsync wird wohl wie Mantle und PhysX demnächst untergehen.
Ich hoffe niemand hat erwartet, dass man vom Start weg den perfekten Monitor präsentiert.
Gipsel
2015-03-21, 14:43:05
Na das mit dem Ghosting bzw. den verbockten Overdrive-Settings ist schon ärgerlich. Da haben die Hersteller irgendwie gepennt.
Kartenlehrling
2015-03-21, 14:49:37
Ich hoffe niemand hat erwartet, dass man vom Start weg den perfekten Monitor präsentiert.
Vom Acer Predator mit IPS, 1440p und g-sync sind auch die meisten begeistert, wär diese Ecke nicht.
Das ist doch Hausgemacht,
Acer kann uns doch nicht erzählen das man das nicht besser hin bekommt.
Knuddelbearli
2015-03-21, 17:38:39
Eigentlich müsste AMD jetzt die Zeit nutzen und in enger Zusammenarbeit paar Monitore rausbringen. Entweder wie beim Ram unter eigenen Namen :freak: oder Mit FreeSync Plus Logo
Troyan
2015-03-21, 18:30:27
Vom Acer Predator mit IPS, 1440p und g-sync sind auch die meisten begeistert, wär diese Ecke nicht.
Das ist doch Hausgemacht,
Acer kann uns doch nicht erzählen das man das nicht besser hin bekommt.
Kosten alles Geld. Je höher die Qualität, umso höher der Ausschuss. Das wiederrum verteuert das Produkt.
Knuddelbearli
2015-03-21, 18:39:56
ist egal soll ja nur Zeigen was damit möglich ist, darf da dann auch Kleinserie sei für Reviews und nur in kleinen Mengen für den Handel
Unicous
2015-03-21, 18:41:43
The Fuck? AMD soll also die Kundschaft höchstpersönlich hinters Licht führen mit einem Produkt, dass es dann nicht zu kaufen gibt, weil die Hersteller zu faul sind und das Risiko scheuen ein ordentliches Produkt auf den Markt zu bringen.
How fucked up is that?
SamLombardo
2015-03-22, 12:42:24
Nochmal zum Verständnis: Stabile 60+ fps mit Vsync sind auf einem 60hz Bildschirm identisch mit Free/G Sync. Richtig oder Denkfehler?
Danke:)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.