Archiv verlassen und diese Seite im Standarddesign anzeigen : G-/Free-/A-Sync: framesynchronisierter Displayrefresh per variablem vblank-Intervall
Kartenlehrling
2018-06-05, 15:25:32
Digital foundry schreibt was anderes.
Was schreiben die anderes?
aufkrawall
2018-06-05, 15:55:51
Nur hat das bisher eben noch nicht dazu geführt, daß das Potential mal in einem VRR-Produkt ordentlich zusammengeführt wurde.
Der Zug ist halt mittlerweile abgefahren mit >60Hz für 4k am Horizont.
Gipsel
2018-06-05, 16:20:27
Der Zug ist halt mittlerweile abgefahren mit >60Hz für 4k am Horizont.Ich denke die Möglichkeit eines deutlich größeren Bereiches für den variablen Refresh ist auch bei >60Hz und 4k interessant. LFC per Framedoubling/-tripling ist ja schön und gut. Aber mit dem richtigen Panel benötigt man das noch nicht mal (bzw. kommt extrem selten zum Einsatz, weil man z.B. nativ den Refresh zwischen 10Hz und 144Hz fahren könnte). Und man ist potentiell überlegen bezüglich der möglichen Helligkeits-/Farbverfälschungen/Ghosting bei unterschiedlichen Frameraten. Das ist heute relativ aufwendig hinzubekommen (beispielweise sind dafür frameratenabhängige und sogar farbabhängige Overdrive-Parameter erforderlich). Das gestaltet sich mit einem Panel mit für VRR optimiertem Design deutlich einfacher. IGZO (statt amorphes Silizium) als Substrat für die Dünnfilmtransistoren erlaubt prinzipiell sowohl höhere Schaltströme (potentiell schnellere Schaltzeiten) als auch deutlich geringere Leckströme (Pixel behalten ihre Farbe ohne Refresh deutlich länger => deswegen gibt es IGZO-Panels mit 1Hz Minimalrefresh [in mobilen Geräten zum Stromsparen genutzt]). Aber wie schon gesagt kommt das bisher bei Desktop-Monitoren bisher nirgendwo so recht zum Tragen.
Nightspider
2018-06-06, 00:54:00
Wenn ich mich nicht irre leiden IGZO Panels an etwas schlechteren Kontrastwerten.
Für Mobilgeräte aber sicherlich ausreichend. Gerade bei Laptops ist Helligkeit oft wichtiger als Kontrast.
robbitop
2018-06-06, 07:44:32
IGZO hat mWn nichts mit dem Panel selbst, sondern mit seiner Ansteuerung zu tun. Also die tft Matrix.
Kartenlehrling
2018-06-07, 15:01:16
@dildo4u
es sind wohl nicht nur 8 TV, amd schreibt sogar von 20+ SamsungTV. :eek:
https://pbs.twimg.com/media/DfCBu61XkAAMEBN.jpg
Gipsel
2018-06-07, 18:06:23
IGZO hat mWn nichts mit dem Panel selbst, sondern mit seiner Ansteuerung zu tun. Also die tft Matrix.Ganz genau. Man kann mit IGZO alles bauen, egal ob TN, VA, IPS oder OLEDs (ja, es gibt IGZO-OLEDs). IGZO bezeichnet ja nur das Material des Subtrats, was für die Transistoren im Panel benutzt wird. Das hat schlicht bessere Eigenschaften als die ansonsten üblichen Dünnschicht-Si-basierten (die Transistoren können bei gleicher Schichtdicke deutlich höhere Ströme schalten und die Leckströme sind auch noch geringer [was eben erlaubt, die Pixelfarbe ohne Refresh deutlich länger zu halten]).
Kartenlehrling
2018-06-12, 08:02:17
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=63553&d=1528784065
Wie ich vermute habe wird das neue G-sync Modul gekühlt,
würden die Panel eine Kühlung brauch hätte man eine Radialkühlung verbaut,
das Asus 60Hz modell hat keinen Lüfter, jetzt bin ich auf das Asus 120Hz (144Hz) Modell gespannt.
Ist das Netzteil bei Asus im Gehäuse verbaut?
Erinnert ein wenig an die erste XBox, fettes Netzteil und dann noch ein Gehäuse wie ein VHS Recorder damit der Lüfter reinpasste.
Gamer spielen doch sowieso mit Kopfhörer :)
WMOSQszALRw
Acer Predator X27 Fazit: Ein Monitor mit lautem Lüfter? 4K HDR PC Gaming: Nicht ganz ausgereift
akuji13
2018-06-12, 08:18:25
:eek::freak:
Super, gleich mal die nächste Baustelle eröffnet. :up:
Linmoum
2018-06-12, 08:59:52
Endlich wieder Stimmung in der Bude.
Darlie
2018-06-13, 19:35:21
Da ist ein Lüfter im Monitor, oke. :freak: Aber die Luftansausgung faktisch unmöglich machen und sich dann über das Geräusch mokieren ist total Gaga. Scheint ein echter Spezi zu sein der Typ, ellenlanges Geschwafel und Aussagen wie schönes Bild mit etwas Backlightbleeding null technische infos.
Screemer
2018-06-13, 19:42:48
Da ist ein Lüfter im Monitor, oke. :freak: Aber die Luftansausgung faktisch unmöglich machen und sich dann über das Geräusch mokieren ist total Gaga. Scheint ein echter Spezi zu sein der Typ, ellenlanges Geschwafel und Aussagen wie schönes Bild mit etwas Backlightbleeding null technische infos.
Dein ernst? Den Lüfter unter den vesa-mount zu bauen ist sowas von grenzdebil, dass es kaum zu beschreiben ist. Das beste an dem Lüfter ist aber, dass es ein axiallüter ist obwohl ein radiallüfter wesentlich sinniger wäre.
Psychopat
2018-06-13, 19:47:28
Über Turing wird ja spekuliert er soll HDMI 2.1 haben. Ist dafür FreeSync Unterstützung Pflicht? Also, könnte Turing FreeSync Unterstützung bekommen?
maguumo
2018-06-13, 20:35:16
Die jetzigen Karten könnten wohl schon VESA Adaptive Sync/HDMI variable refresh rate unterstützen. Das Feature ist sowohl bei DP als auch HDMI optional. Es scheitert nicht an der Technik sondern daran das Nvidia das nicht unterstützen will.
Kartenlehrling
2018-06-15, 22:01:35
Der Asus hat auch ein Lüfter .... :freak:
3q4z7xXGVZ0
PCGH.de .... Asus ROG Swift PG27UQ | Erstes Display mit UHD, 144 Hz und G-Sync HDR
gnomi
2018-06-16, 10:57:24
War auch anzunehmen.
Na ja. Es werden ja noch weitere Monitore kommen.
WQHD HDR GSync und HDMI 2.1 Geforce GPU kommen ja eventuell auch noch.
Dann wird es interessant mit den Preisen.
Trotzdem reizt mich das Thema natürlich schon. =)
fondness
2018-06-16, 11:37:10
Der Asus hat auch ein Lüfter .... :freak:
OMG, ich verstehe nicht wie man so dumm sein kann.
Käsetoast
2018-06-17, 14:39:26
Um hier aber mal etwas Spekulatius zu betreiben:
Angenommen NVIDIA bringt mit Turing HDMI 2.1 Unterstützung und angenommen sie bauen dort auch VRR ein (einfach weil das jetzt bei Fernsehern und wahrscheinlich danach auch Monitoren zur Standardausrüstung zählen wird) und nehmen wir weiterhin an, sie würden dieses Feature dann tatsächlich auch auf den DisplayPort Ausgängen anbieten - würden FreeSync Monitore das dann erkennen und nutzen können?
Oder kann NVIDIA weiterhin den Spagat betreiben, dass sie VRR nur bei HDMI 2.1 kompatiblen Monitoren erlauben und somit nach wie vor alles was bisher so an FreeSync erschienen ist verschmähen (bis dann eben Monitore mit HDMI 2.1 erscheinen, aber leider sind die Hersteller bei Monitoren da ja im Gegensatz zu Fernsehern eher lahm was neue Technologien angeht)?
Würde einem FreeSync Monitor das HDMI VRR Feature schon reichen, oder ist das Verfahren von FreeSync da "inkompatibel" im Sinne davon, dass selbst mit HDMI VRR ein heutiger Monitor da nicht automatisch mit arbeiten kann, weil die Umsetzung in kleinen Details anders ist?
gnomi
2018-06-17, 14:54:41
Ich denke, dass nvidia die Combo mit Display Port für GSync (HDR) und HDMI 2.1 für VRR mit den neuen GPU's bringt.
Für beides muss man dann das passende Gerät haben.
Freesync Support über HDMI 2 mit bestehenden Geräte kann ich mir nicht vorstellen.
Das wäre kundenfreundlich, aber für nvidia ziemlich ungünstig, weil GSync damit geschwächt wird.
Rente
2018-06-17, 15:04:48
Wieso seid ihr so sicher das Nvidia schon bei der nächsten Generation HDMI2.1 implementiert? Und selbst wenn, warum das optionale VRR wo sie doch G-Sync haben und demnächst Fernseher mit G-Sync an den Mann bringen wollen?
Ich würde mir da erst mal überhaupt keine Hoffnungen machen, bisher scheint G-Sync nach wie vor viel zu gut für sie zu laufen.
Nightspider
2018-06-17, 15:22:54
Also wenn wirklich nur der G-Sync Chip gekühlt werden muss hätte man doch einen ausreichend dimensionierten Kupfer-Kühler draufpacken können. :facepalm:
Wie dumm muss man sein.
Vor allem bei Acer die VESA-Mount Platte nicht zu perforieren. :facepalm:
Käsetoast
2018-06-17, 15:26:20
Wieso seid ihr so sicher das Nvidia schon bei der nächsten Generation HDMI2.1 implementiert? Und selbst wenn, warum das optionale VRR wo sie doch G-Sync haben und demnächst Fernseher mit G-Sync an den Mann bringen wollen?
Die Fernsehhersteller haben halt HDMI 2.1 inklusive VRR ein wenig in den Fokus gerückt - allen voran Samsung, die VRR in quasi allen kommenden Modellen anbieten. Da will man natürlich nicht ins Hintertreffen geraten...
Abseits davon sehe ich keinen Vorteil in G-Sync an Fernsehern. Wer schließt schon einen PC an einen Fernseher an? Das ist ein winzig kleiner Teil und der Großteil von diesem schon kleinen Teil wird mit dem was HDMI 2.1 inkl. VRR bietet vollkommen zufrieden sein. Was man an die Fernseher anschließt sind Konsolen und die können VRR und da auch die nächste Generation wohl wieder von AMD befeuert werden wird (die CPU & GPU Kombi ist gegenüber NVIDIA & Intel einfach ziemlich unschlagbar) sehe ich da auch keine G-Sync Konsole kommen...
Von daher: Wenn NVIDIA nicht in einem schlechten Licht darstehen will, weil eine zig Jahre alte Konsole ein Feature unterstützt, das eine 1000 $ Grafikkarte im Jahre 2018/2019 nicht hat, dann müssen sie auch HDMI 2.1 inklusive VRR bringen...
Was ich mich frage ist halt, ob die VRR Umsetzung gemäß HDMI Standard auch mit derzeitigen FreeSync Monitoren zusammenarbeiten kann gesetzt dem Fall, dieses Feature wäre auch über DisplayPort möglich. Klar, ich denke es spricht schon was dafür von wegen HDMI 2.1 + VRR (und VRR auch nur da - entsprechende Monitore werden ja wohl noch auf sich warten lassen) und DisplayPort mit G-Sync. Meine Frage wäre aber einfach mal ganz grundsätzlich, ob ein FreeSync Monitor mit einer GeForce entsprechend kommunizieren könnte um VRR zu nutzen, wenn NVIDIA VRR gemäß der HDMI Konvention umsetzt. Ist das untereinander kompatibel und FreeSync ist da nur ein fancy Name, oder könnte eine GeForce auch mit VRR gemäß HDMI Norm nicht automatisch FreeSync nutzen (nach wie vor gesetzt dem Fall das Feature wäre auch auf DisplayPort nutzbar)?
Also wenn wirklich nur der G-Sync Chip gekühlt werden muss hätte man doch einen ausreichend dimensionierten Kupfer-Kühler draufpacken können. :facepalm:
Wie dumm muss man sein.
Vor allem bei Acer die VESA-Mount Platte nicht zu perforieren. :facepalm:
C&P aus CB-Forum:
InsertValue hat laut einem Reddit-Review (https://www.reddit.com/r/Monitors/comments/8qzklw/review_of_acer_predator_x27/) einfach vergessen den VESA-spacer zu montieren bzw. hat den falsch rum (mit der geschlossenen Seite zum Monitor) montiert.
Dann wäre es auch kein Wunder wenn der Lüfter aufdreht wenn alles versiegelt ist.
Trotzdem recht mies, dass der Lüfter auch nach dem Abschalten noch weiter drehen muss.
For the fan. Its pretty quiet and low RPM. My watercooled computer is still louder than it. But one criticism is it doesn't turn off...even if the monitor is off. You have to kill the power to stop the fan.
EDIT: As per my suspicion. The fan does auto shut off when the internals are cool enough. This actually takes a bit of time. Probably more than 10 minutes, need to time it.
Now i saw a youtube video of some guy saying the fan has no airflow if you use a vesa mount. He complained it made the fan too loud to use. Well here is his problem.
https://i.imgur.com/f9BW3i0.jpg
This is the thing it comes with. This is not some kind of mounting bracket. This is technically a spacer to add more space between the monitor and the vesa mount specifically to give the fan some breathing room. It has a flat side and an open side. The guy just mounted the flat side against the fan instead of the open side. Both sides have the exact same screw holes and the thing didn't include any pictures so I guess not everyone can be expected to have the same level of common sense.
Kartenlehrling
2018-06-17, 18:38:16
Perfekt sind die neuen Monitore nicht
Trotz des Lobes haben die neuen Monitore beim kurzen Anspielen aber auch eine Schwäche gezeigt:
384 einzelne Zonen für die Hintergrundbeleuchtung sind schlicht nicht ausreichend, um ein fehlerfreies Bild zu liefern.
So war in Destiny 2 in dunklen Szenen ein Halo-Effekt zu sehen, den man immer weiter vor sich her geschoben hat.
Dieser tritt auf, wenn helle Objekte auf dunklem Hintergrund angezeigt werden.
https://www.computerbase.de/2018-06/acer-x27-asus-pg27uq-lautstaerke-luefter/
PG27UQ & Predator x27: UHD, G-Sync, 144 Hz, HDR 10 – und ein (lauter) Lüfter
Also das hätte ich nicht gedacht, vorallem da es Fernseher gibt die weniger Dimming Zonen haben und wenig Halo erzeugen.
BoMbY
2018-06-18, 10:03:07
NVidia 4k 144Hz G-Sync geht übrigens derzeit scheinbar nur mit 4:2:2 Chroma Subsampling, was zu einem teilweise schlechteren Bild führt: https://www.reddit.com/r/hardware/comments/8rlf2z/psa_4k_144_hz_monitors_use_chroma_subsampling_for/
Rente
2018-06-18, 14:38:28
NVidia 4k 144Hz G-Sync geht übrigens derzeit scheinbar nur mit 4:2:2 Chroma Subsampling, was zu einem teilweise schlechteren Bild führt: https://www.reddit.com/r/hardware/comments/8rlf2z/psa_4k_144_hz_monitors_use_chroma_subsampling_for/
Wofür haben sich Nvidia, Asus und Acer eigentlich extra viel Zeit gelassen? "Nur" 384 Zonen, Lüfter und nun auch DSC nicht implementiert (HDMI2.1 sowieso nicht).
Hätten sie mal lieber kleinere Brötchen gebacken und erst mal 60-90 Hz-Modelle in 4K mit Dimming gebracht...
Kartenlehrling
2018-06-18, 15:06:48
NVidia 4k 144Hz G-Sync geht übrigens derzeit scheinbar nur mit 4:2:2 Chroma Subsampling,...
Da war schon vor 3 Seiten bekannt. (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11698885&postcount=6223)
Unicous
2018-06-18, 17:46:37
@Rente
G-Sync ist eh nicht DP-konform also haben sie auch kein DSC implementiert.
Da war schon vor 3 Seiten bekannt. (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11698885&postcount=6223)
Ich glaub das stimmt so auch nicht sondern:
144mhz 4:2:0
120mhz 4:2:2
98mhz 4:4:4
Gipsel
2018-06-18, 19:04:44
Ich glaub das stimmt so auch nicht sondern:
144mhz 4:2:0
120mhz 4:2:2
98mhz 4:4:4Unwahrscheinlich. Bessere Erklärung:
4:4:4 8bpc => 120Hz
4:4:4 10bpc => 98Hz (96Hz benötigt rechnerisch identische Bandbreite)
4:2:2 10 bpc => 144Hz (identische benötigte Bandbreite zu der 120Hz/8bpc Variante)
Das paßt auch mit den für DP1.3/1.4 per HBR3 spezifizierten Übertragungsraten (ohne Übertaktung natürlich) von maximal 25,92 GBit/s.
120Hz, 4:4:4, 8bpc: 3840*2160*8bpc*3*120Hz = 23,9 GBit/s (+ungenutzte Zeit für blanking Intervalle)
144Hz, 4:2:2, 10bpc: 3840*2160*10bpc*2*144Hz = 23,9 GBit/s
98Hz, 4:4:4, 10bpc: 3840*2160*10bpc*3*98Hz = 24,4 GBit/s (96Hz würden wie gesagt wieder 23,9GBit/s ergeben)
Paßt genau in die Spezifikation und so steht das auch bei Anandtech.
Unwahrscheinlich. Bessere Erklärung:
4:4:4 8bpc => 120Hz
4:4:4 10bpc => 98Hz (96Hz benötigt rechnerisch identische Bandbreite)
4:2:2 10 bpc => 144Hz (identische benötigte Bandbreite zu der 120Hz/8bpc Variante)
Das paßt auch mit den für DP1.3/1.4 per HBR3 spezifizierten Übertragungsraten (ohne Übertaktung natürlich) von maximal 25,92 GBit/s.
120Hz, 4:4:4, 8bpc: 3840*2160*8bpc*3*120Hz = 23,9 GBit/s (+ungenutzte Zeit für blanking Intervalle)
144Hz, 4:2:2, 10bpc: 3840*2160*10bpc*2*144Hz = 23,9 GBit/s
98Hz, 4:4:4, 10bpc: 3840*2160*10bpc*3*98Hz = 24,4 GBit/s (96Hz würden wie gesagt wieder 23,9GBit/s ergeben)
Paßt genau in die Spezifikation und so steht das auch bei Anandtech.
ja stimmt.
Unicous
2018-06-19, 22:39:27
AMD wird bald eine FreeSync 2 "Demo" bereitstellen. Sieht sehr schick aus, ähnlich einer Benchmark-Szene.
Quelle: PcPer Livestream
Kartenlehrling
2018-06-19, 22:50:40
https://youtu.be/0Iefdr6g7Tg?t=2401
das ruckelt sich aber die Lunge raus.
Unicous
2018-06-19, 23:04:45
Ist/war auch nicht besonders interessant. Soweit ich das mitbekommen habe sind zwei Sachen "neu".
FreeSync 2 wird zukünftig "FreeSync 2 HDR" heißen um herauszustellen, dass sich die Spec auf HDR Monitore bezieht (bin mir nicht sicher, aber ich glaube, dass HDR 600 unterste Grenze ist, war auch schon bekannt?)
und in den nächsten Wochen/Monaten wird eine entsprechende und mMn ansprechende Demo kommen die die Merkmale von FS 2 HDR herausstellen wird.
Die Windmühlen-Demo war ja nichts nach dem man sich umschaut und das Nvidia Pendulum ist auch ziemlich hässlich, finde ich ganz gut, dass sie da mal etwas Zeit und Arbeit investiert haben um eine ordentliche Demo zu gestalten. Bewegtbild gab es auch. Der Stream wird sicherlich in Kürze hochgeladen.
Kartenlehrling
2018-06-19, 23:16:30
Die Windmühle hatte ich nur kurz bei ersten testen von meinem MG279Q,
Nvidia Pendel hatte später den vorteil das man die Testrange einstellen konnte,
das fehlte der AMD version immer, man hatte immer ein update versprochen, ist aber nie gekommen.
Tjo von wegen VESA-spacer falsch montiert, was soll den der Mist bitte Acer? :crazy2: (https://youtu.be/u8iIZCDizkc?t=238)
Immerhin scheint Acer sich der Sache anzunehmen. (www.youtube.com/watch?v=RUKCFyFzJQY)
akuji13
2018-06-20, 08:06:41
Immerhin gibts sichtbare (oder nicht sichtbare) Fortschritte in Sachen glow, bleeding und Schwarzwert.
Gipsel
2018-06-20, 08:55:23
Tjo von wegen VESA-spacer falsch montiert, was soll den der Mist bitte Acer? :crazy2: (https://youtu.be/u8iIZCDizkc?t=238)
Immerhin scheint Acer sich der Sache anzunehmen. (www.youtube.com/watch?v=RUKCFyFzJQY)Ja, das mitgelieferte Bracket ist ein Fehldesign. Und Alle, die gesagt haben, er hätte das nur falsch rum montiert, haben nie selbst versucht, das mal andersrum anzuschrauben. Das geht nämlich nicht. Für das Festschrauben am Monitor gibt es klar erkennbar Cutouts am Bracket (weil man sonst die Schrauben im Guten gar nicht erreichen kann). Nur Dummerweise sind diese Cutouts auf der "offenen" Seite, so daß die geschlossene Seite notgedrungen den Lüfter abdecken muß. Andersrum bekommt man das Bracket wirklich schlicht nicht angeschraubt.
BoMbY
2018-06-20, 11:53:50
Man sieht es schlecht, aber eigentlich müsste man mit dem Schraubendreher doch durch die Löcher an der anderen Seite kommen? Und wenn man keinen hat der dünn genug ist, wie wäre es mit einer Mini-Ratsche? Ich hab so ein Winz-Ding für 5 Euro aus dem Baumarkt, das müsste eigentlich passen - aber auch das ist natürlich schwer abzuschätzen ohne es wirklich vor sich zu haben.
Ja, das mitgelieferte Bracket ist ein Fehldesign. Und Alle, die gesagt haben, er hätte das nur falsch rum montiert, haben nie selbst versucht, das mal andersrum anzuschrauben. Das geht nämlich nicht. Für das Festschrauben am Monitor gibt es klar erkennbar Cutouts am Bracket (weil man sonst die Schrauben im Guten gar nicht erreichen kann). Nur Dummerweise sind diese Cutouts auf der "offenen" Seite, so daß die geschlossene Seite notgedrungen den Lüfter abdecken muß. Andersrum bekommt man das Bracket wirklich schlicht nicht angeschraubt.
Man sieht es schlecht, aber eigentlich müsste man mit dem Schraubendreher doch durch die Löcher an der anderen Seite kommen? Und wenn man keinen hat der dünn genug ist, wie wäre es mit einer Mini-Ratsche? Ich hab so ein Winz-Ding für 5 Euro aus dem Baumarkt, das müsste eigentlich passen - aber auch das ist natürlich schwer abzuschätzen ohne es wirklich vor sich zu haben.
Am ersten Bild sah es so aus als ob da gleiche Bohrungen 1:1 auf beiden Seiten vorhanden sind. Vor allem links unten ging ich davon aus, dass das oberere der beiden Löcher gleich ausgerichtet ist wie auf der "offenen" Seite.
Stellt sich heraus, dass es gar kein Loch ist sondern einfach nur 2 Noppen welche in die Vertiefungen am Monitor auch noch exakt rein passen ;D.
Angeschraubt wird das Ganze wie im Video zu sehen ganz unten am Rand, somit hat sichs auch mit Bracket-umdrehen.
dargo
2018-06-20, 12:15:04
FreeSync 2 wird zukünftig "FreeSync 2 HDR" heißen um herauszustellen, dass sich die Spec auf HDR Monitore bezieht (bin mir nicht sicher, aber ich glaube, dass HDR 600 unterste Grenze ist, war auch schon bekannt?)
Ich habe die Bezeichnung Freesync 2 eh nie verstanden. Mein Asus MG279Q konnte schon lange LFC, da war von Freesync 2 noch gar keine Rede. In Verbindung mit HDR macht das schon eher Sinn.
akuji13
2018-06-20, 12:18:23
Deiner ja.
Es kann aber nicht jeder Moni LFC und u. a. das wurde durch FS2 bindend.
"Darüber hinaus setzt Freesync 2 die Low Framerate Compensation, kurz LFC, voraus, die bei FS1 nur optional ist."
http://www.pcgameshardware.de/AMD-Freesync-Hardware-259942/Specials/Freesync-2-mit-intelligenter-HDR-Unterstuetzung-1217305/
"Garantierte Unterstützung der Low Framerate Compensation (LFC)"
https://www.amd.com/de/technologies/free-sync
Man sieht es schlecht, aber eigentlich müsste man mit dem Schraubendreher doch durch die Löcher an der anderen Seite kommen? Und wenn man keinen hat der dünn genug ist, wie wäre es mit einer Mini-Ratsche? Ich hab so ein Winz-Ding für 5 Euro aus dem Baumarkt, das müsste eigentlich passen - aber auch das ist natürlich schwer abzuschätzen ohne es wirklich vor sich zu haben.
Verstehe noch immer nicht warum man nicht mal testweise Abstandhalter ausprobiert hat.
dargo
2018-06-20, 12:21:40
Deiner ja.
Es kann aber nicht jeder Moni LFC und das wurde durch FS2 bindend.
Korrekt, dennoch sind solche Folien leicht verwirrend.
https://images.anandtech.com/doci/10967/FreeSync%202%20Presentation%20-%20Final%20-%20Under%20NDA%20Jan%203-page-021_575px.jpg
https://www.anandtech.com/show/10967/amd-announces-freesync-2-improving-ease-lowering-latency-of-hdr-gaming
btw.
Ist 21:9 bereits out? X-D
https://geizhals.de/samsung-c49hg90-lc49hg90dmuxen-a1640134.html?hloc=at&hloc=de
akuji13
2018-06-20, 12:26:42
Jein. :D
Man muss natürlich alle Folien beachten und sollte nicht vergessen das aus einer Marketing Abteilung kommt wo mit Schlagwörtern gearbeitet wird.
Edit: Auf jeden Fall sind weitere 32:9 angekündigt worden.
dargo
2018-06-20, 12:31:50
Edit: Auf jeden Fall sind weitere 32:9 angekündigt worden.
Auch mit 5120x1440? Wobei hier natürlich schon DP1.4 nötig wird für die 144Hz.
akuji13
2018-06-20, 12:34:13
Mit der Auflösung habe ich nur von einem Philips was gelesen.
http://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/Philips-492P8-32-9-doppelt-WQHD-1252140/
Unicous
2018-06-20, 13:22:07
Korrekt, dennoch sind solche Folien leicht verwirrend.
[/url]
Was soll daran verwirrend sein? :confused:
FS2 wurde von Anfang an so vermarktet. Was willst du uns mit dem Slide sagen? Es ist einer von insgesamt 4 slides die mit "FreeSync 2 is..." anfangen.
Warum AMD das FreeSync Label nicht im gleichen Zug angepasst hat und LFC voraussetzt ist mMn der eigentliche "Skandal". "Seit Jahren" wird der Markt nämlich mit Monitoren zugeschissen die zwar FreeSync-fähig sind, aber die das Label eigentlich nicht verdient haben, wenn die Range so gering ist, dass man eigentlich sofort wieder herausfällt und darum ging es ja ursprünglich. Diese Szenarien aufzufangen. Es ist doch ein Unterschied wenn die Framerate von 144Hz auf 120Hz zurückfällt oder ob die Framerate von 60 auf 35 zurückfällt und durch fehlendes LFC das nicht aufgefangen werden kann, weil der Monitor nur eine Range von 40-60Hz hat, 48-75Hz oder was ihnen noch für krumme Zahlen einfallen. Wofür steht das Label denn wenn es nur zur Voraussetzung hat, dass der Monitor eine Mindestspanne von 20Hz oder so vorweisen muss? Warum kann man das Ding dann nicht einfach Adaptive Sync Monitor nennen und FS-Monitore müssen LFC-fähig sein um sich so nennen zu dürfen. Das führt das Ganze ad absurdum und AMD erweist sich und den Kunden am Ende einen Bärendienst. Man kann damit prahlen, dass es ja zigfach mehr FS-Monitore auf dem Markt gibt... aber was nutzt das wenn die Monitore selbst sub par sind.
Und bitte kommt mir nicht mit CRU. Otto-Normal-Verbraucher wird dieses Programm nicht installieren.
LFC sollte Standard sein, stattdessen gibt es zig "Klone" eines Monitors mit den gleichen Specs, mit miserabler Range.
Hier hat Nvidia mit ihrem proprietärem Mist etwas richtig gemacht. Jeder (auch wenn das leider nicht getestet wird) G-Sync Monitor hat eine low framerate compensation.
AMD müsste hier nachbessern aber sie werden es wahrscheinlich nicht machen um die Monitorhersteller nicht zu vergraulen.:rolleyes:
dargo
2018-06-20, 13:25:46
Was soll daran verwirrend sein? :confused:
Der eine oder andere könnte denken ein Freesync 1 Monitor würde kein LFC unterstützen.
akuji13
2018-06-20, 13:39:39
Ich glaube nicht das dadurch ein relevantes Problem auftaucht.
Der eine Teile kauft FS mit ohne es zu nutzen, der andere Teil weiß nur "das das viel besser ist" ohne Details zu kennen, der nächste fragt jemanden der sich damit auskennt vor dem Kauf.
Und bei Geizhals & Co. ist es idR ja auch richtig vermerkt.
von Richthofen
2018-06-20, 13:44:53
Warum AMD das FreeSync Label nicht im gleichen Zug angepasst hat und LFC voraussetzt ist mMn der eigentliche "Skandal".
FreeSync ist seinerzeit ohne LFC gestartet worden. Nach dem Update bzw. nach Einführung des Nachfolgers hätte man bei der Mehrzahl der Bildschirme den FreeSync-Sticker nachträglich wieder entfernen bzw. ein drittes Label einführen müssen.
Da die Sache so murksig gewachsen ist, lässt es sich schwer gerade ziehen.
Kartenlehrling
2018-06-20, 13:55:22
Verstehe noch immer nicht warum man nicht mal testweise Abstandhalter ausprobiert hat.
Der Asus legt ja anscheinend 4 Abstandhalterschrauben bei, die man als "Klein" von Mainboard einschrauben kennt.
akuji13
2018-06-20, 14:02:15
Solche die ich in lang für meinen Crossover brauchte. :D
Weiß auch gerade nicht mehr wie sie heißen.
Aus Interesse an der Sache hätte ich das umgehend ausprobiert um Rückschlüsse auf das Verhalten des Lüfters ziehen zu können.
Bin ich da jetzt eine Ausnahme?
Gerade wer so ein Gerät erwirbt ist doch dafür prädestiniert.
Unicous
2018-06-20, 14:15:58
Es scheint ja für AMD nicht schwierig zu sein aus FreeSync 2 FreeSync 2 HDR zu machen. Wie schwer wäre es wohl ein "FreeSync with LFC" Label einzuführen, das tatsächlich einen Mehrwert darstellt.
Raider heißt jetzt Twix sonst ändert sich nichts. Es gibt de facto keinen Unterschied zwischen FS2 ohne und mit HDR warum also den Namen ändern?
Um die Sichtbarkeit zu erhöhen und das vorrangige Merkmal herauszustellen. Ob das aber wirklich die Sichtbarkeit erhöht und nicht eher zu Konfusion führt wird sich zeigen.
LFC ist ein kritisch wichtiges Feature für VRR und AMD sollte es auch als das behandeln und nicht als nice to have feature in einer HDR-Spec (die sonst ja nicht allzu viel mit FreeSync zu tun hat:rolleyes:).
Die Auswirkungen sieht man ja schon. Xbox unterstützt jetzt FreeSync, was schleudern die Monitorhersteller raus? Monitore mit einer Range von 40-60Hz anstatt 30-60Hz. Eben hier wäre es weise von AMD gewesen LFC als Grundvoraussetzung vorzuschreiben. Stattdessen verkommen sie zu Erfüllungsgehilfen von Asus, Samsung und Co. die "Konsolen-Monitore" auf den Markt bringen. Gerade bei den Konsolen wäre LFC wichtig aber nein du bekommst es nur wenn du einen HDR Monitor/Fernseher kaufst.
Konsolen sind das Paradebeispiel für schlechte Framerateverläufe und hohe Schwankungen. Unzählige Spiele schaffen es nicht die 60Hz zu halten und eine 40-60Hz Range reicht einfach nicht aus.
Das ist wieder halbherzig und zu kurz gedacht von allen Seiten um zu versuchen kurzfristig Erfolg zu verbuchen und im Gespräch zu bleiben. Ich erinnere auch noch mal an das Video von Digital Foundry in dem fast kein Spiel ordentlich funktioniert hat mit aktiviertem FreeSync.
Savay
2018-06-20, 14:27:25
Es gibt de facto keinen Unterschied zwischen FS2 ohne und mit HDR warum also den Namen ändern?
Na warum wohl?!
Einzig und allein weil nV jetzt tatsächlich "G-Sync HDR" auf den Markt gebracht hat...dass nun mal das defakto äquivalent zu FS2 ist, der HDR Aspekt aber bei "FS 2" Marketingtechnisch im Vergleich zu stark unterbetont ist.
Hätte nV die neue Untervariante einfach G-Sync 2 genannt wäre es wohl stur bei FS2 geblieben. :wink: Das ist eine reine Reaktion auf das nV Marketing.
Ausserdem ist Freesync 2 ja eh kein reiner HDR Standard...es ist nur ein Label für FreeSync + LFC + low-latency HDR + Vesa HDR 600+
dargo
2018-06-20, 14:32:11
Und bei Geizhals & Co. ist es idR ja auch richtig vermerkt.
Ist es leider nicht. Wenn ich bei GH nach LFC selektiere taucht der Asus MG279Q gar nicht erst auf. :freak:
Unicous
2018-06-20, 14:38:04
@Savay
Du hast all die Punkte wiederholt die ich bereits genannt habe?:confused:
Worauf wolltest du hinaus?
Savay
2018-06-20, 14:50:45
Worauf wolltest du hinaus?
Weil mir nicht ganz klar ist worauf du eigentlich mit deinem doppelten Rant nun hinaus wolltest!!?
Das AMD bei FS verpennt hat LFC als obligatorisch fest zu zurren ist doch wirklich langsam von Anno-Tobak.
Über die Gründe kann man gerne Streiten...ich halte es vielleicht in manchen Fällen für etwas unglücklich aber gleichzeitig nicht für gänzlich doof, ansonsten hätten wir nämlich garantiert weniger FS Monitore als G-Sync Teile.
Wer sich dafür ernsthaft interessiert kann schon raus finden ob und wo das geht und da wo es echt von interesse ist (sprich bei 144Hz+) funktioniert LFC bis auf wenige Ausnahmen ja idR eh.
30Hz ruckelt davon abgesehen eh...ob da nun A-Sync läuft, es teart oder nicht ist dann am Ende auch wurscht...deswegen kann ich mit der 40-60er Range (bzw. 34-61) bei meinem UHD Ding eigentlich noch ganz gut leben...denn in der Realität will ich eh nicht auf unter 35FPS droppen....da ist das Ziel doch eigentlich via Limiter möglichst konstante 55-60Hz zu fahren und über FS nur kurze Drops abzufangen. :freak:
Ne dritten Iteration der Spec zu bringen die rein aus FS + LFC besteht, wo doch schon seit Monaten das übergeordnete FS2 existiert bringt aber nun auch keinen echten Mehrwert.
Der Markt ist halt eh im Umbruch hin zu HDR...insofern wäre das doch sowieso nur eine reine Übergangslösung!
robbitop
2018-06-20, 14:58:35
Da scheint man ja massiv zurückgerudert sein. Freesync 2 sollte doch mal (Stand 2017) LFC (+niedrigen Inputlag) verpflichten?
https://www.computerbase.de/2017-01/amd-freesync-2-hdr/
Ob die Monitorhersteller da zu viel Druck gemacht haben?
Ich finde das Freesync Logo relativ sinnfrei, wenn es solche Dinge nicht erfordert. VRR ist ja schon dank der VESA als ASync vorgegeben. Aber ein Logo / eine Zertifizierung vom Hersteller sollte hier schon strenger (on top!) sein.
NV macht es IMO hier richtig. (ich meine nicht den FPGA sondern die strengen Vorgaben) Entsprechend ist das Spielerlebnis besser bzw ein gutes Spielerlebnis auch zwingend gewährleistet. -> gute Erfahrung -> gutes Image
Hübie
2018-06-20, 15:10:03
Auf Youtube gibt es einen Kanal von "Battlenonsense", der sich mit dem input lag beider Varianten beschäftigt hat und kam zu dem Schluß, dass zumindest die beiden ASUS Modelle im Millisekunden-Bereich differieren (MG278Q vs PG278Q). Liegen andere Äquivalente denn so weit auseinander? Gibt's dazu noch weitere Tests?
Unicous
2018-06-20, 15:48:59
@Savay
Mir scheint du verstehst nicht ganz wie LFC funktioniert. Es geht mir per se nicht darum auf die 30Hz runterzugehen sondern die nötige Range zu haben um LFC überhaupt zu ermöglichen. Da die Konsolen auf 60Hz beschränkt macht es auch keinen Sinn einen 75Hz Monitor als Konsolenmonitor zu verkaufen (und das würden die Hersteller auch nicht tun) und selbst dann müsste man die unterste Range bei "37"Hz anlegen. Du sagst selbst du möchtest nicht unter 35 Herz fallen und hast die Range deines Monitors modifiziert. Warum dann argumentierst du dann dagegen wenn du selbst nicht "zufrieden" warst?:confused:
Der normale Kunde wird die Range nicht verändern wird aber die Unterschiede bemerken wenn der Monitor aus der Range fällt. Mit LFC könnte man das so gut wie aus der Welt schaffen und eben gerade im Konsolenbereich kann man wenig tun um die Range zu halten. Da sollte man mal über den UHD-Tellerrand hinaus schauen und sehen, dass man beim PC ein wenig an den Grafikeinstellungen schrauben kann um die Range zu halten, bei Konsolen nicht.
Allgemein scheint hier wenig Weitblick vorhanden zu sein und man kümmert sich gerne um sich selbst und die eigene PC-Blase (full disclosure, ich habe nicht eine Konsole und habe auch nicht vor mir eine zuzulegen :wink:). VRR ist meiner Meinung nach eine sehr wichtige Technologie um das Spielerlebnis zu verbessern aber auch was Bewegtbilder anbelangt kann hier noch viel passieren. FreeSync funktioniert ja theoretisch auch bei Media-Playern oder Youtube o.ä.. Es scheitert nur an der Implementierung. Youtube funktioniert wohl bislang nur bei Edge und Chrome Beta oder so.
akuji13
2018-06-20, 16:21:51
Ist es leider nicht. Wenn ich bei GH nach LFC selektiere taucht der Asus MG279Q gar nicht erst auf. :freak:
Ausnahmen bestätigen die Regel.
Liegt evtl. daran das er schon so lange gelistet ist, bei neueren Modellen ist es zumindest gefühlt besser.
30Hz ruckelt davon abgesehen eh...ob da nun A-Sync läuft, es teart oder nicht ist dann am Ende auch wurscht
Sehe ich anders.
Ja 30fps@30Hz ruckeln, das Ruckeln ist aber mit VRR teilweise deutlich erträglicher.
Als Beispiel nenne ich immer gerne die "Men of War" oder "Assault Squad" Reihen wenn man über die Karte scrollt.
Screemer
2018-06-20, 16:38:47
30fps fühlen sich auch bei 60hz an wie laufen über frisch vergossenes bitumen. einfach ekelig. wer das befürwortet, der braucht auch kein "modernes" display ;)
aufkrawall
2018-06-20, 16:42:12
30fps mit fps-Limiter können sich direkter anfühlen als 45fps ohne.
akuji13
2018-06-20, 16:44:59
30fps fühlen sich auch bei 60hz an wie laufen über frisch vergossenes bitumen. einfach ekelig. wer das befürwortet, der braucht auch kein "modernes" display ;)
Hier geht es auch nicht um befürworten, sondern um ist Zustände. ;)
Die Spiele laufen nunmal wie sie laufen, trotzdem laufen sie mit VRR besser (ohne das es damit gleich gut wäre).
Kartenlehrling
2018-06-20, 16:49:03
Viele kapieren hier überhaupt nicht, was das Problem ist wenn ein Monitor mit 40-60Hz Freesync für Spiele Mist ist.
Aber schon 1000x hier durchgekaut... die Leute wollen es wohl nicht verstehen.
Screemer
2018-06-20, 16:53:19
Viele kapieren hier überhaupt nicht, was das Problem ist wenn ein Monitor mit 40-60Hz Freesync für Spiele Mist ist.
Aber schon 1000x hier durchgekaut... die Leute wollen es wohl nicht verstehen.
fällt man unter die lfc range hat man tearing, bleibt man drin, dann nicht. problem erkannt -> sorge dafür, dass deine games nicht unter 40fps droppen. kannst du das nicht und stört es dich, dann hast du dir das falsche gerät gekauft...
60hz sind für mich auch schon fast zu wenig. das ist auch der einzige grund, warum ich noch keinen 4k monitor habe.
30fps mit fps-Limiter können sich direkter anfühlen als 45fps ohne.
wenn du natürlich beschissene frametimes hast, dann kann das schon sein. ich geh da jetzt aber mal nicht vom worstcase aus.
Kartenlehrling
2018-06-20, 16:56:51
:facepalm:
Und das habe ich vor 2 Jahren geschrieben und es hat sich nicht geändert, auch brauch Freesync 2Hz mehr,
zb. wär für einen 4k 60Hz Freesync2 Monitor mit LFC mindesten 28Hz-60Hz pflicht und nicht 30-60Hz.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11153771&postcount=359
Screemer
2018-06-20, 16:59:58
:facepalm:
Und das habe ich vor 2 Jahren geschrieben und es hat sich nicht geändert, auch brauch Freesync 2Hz mehr,
zb. wär für einen 4k 60Hz Freesync Monitor mindesten 28Hz-60Hz pflicht und nicht 30-60Hz.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11153771&postcount=359
und für was hat meine aussage, dann nen facepalm verdient?
v-sync on? dein ernst? das ist ja noch größere grütze als mit sub 40fps und tearing zu spielen. da kann ich mich auch gleich in nen eimer voll kleber stellen. wenn du darauf wert legst, dann kauf dir nen monitor mit entsprechender range. außerdem ist das +2hz ein sollte sein und nicht ein muss sein. ich habe auf dem monitor meiner frau auch exakt 30-60hz fs und überhaupt keine negativen auffälligkeiten.
Kartenlehrling
2018-06-20, 17:10:33
Die Geschichte hat hier angefangen mit, "... wofür steht freesync2, 4k-HDR Console VRR und fehlenden LFC."
Und da spielt man im 30fps-60fps Bereich, auch auf dem PC mit 40-60Hz 4k Monitor.
Screemer
2018-06-20, 17:26:58
"hier" kann man auch verlinken und ansonsten kann ich mit deinem zweiten satz genau 0 anfangen.
Da scheint man ja massiv zurückgerudert sein. Freesync 2 sollte doch mal (Stand 2017) LFC (+niedrigen Inputlag) verpflichten?
https://www.computerbase.de/2017-01/amd-freesync-2-hdr/
Ob die Monitorhersteller da zu viel Druck gemacht haben?
genau das steht doch als vorgabe für fs2 im link?!
FreeSync 2 ist quasi eine Ansammlung verschiedener Technologien. So wird nicht nur die Unterstützung von klassischem FreeSync, also die variablen Refreshraten, vorausgesetzt, sondern ein FreeSync-2-zertifizierter Monitor muss zudem LFC, also die Vervielfachung der Panel-Refreshrate bei niedrigen Frameraten, unterstützen, sodass FreeSync völlig unabhängig von der Framerate aktiv ist.
Kartenlehrling
2018-06-20, 17:41:16
Es gibt bzw. es kommen noch Monitor/TV mit AMD-HDR und Freesync die aber kein LFC haben, vorallem unverständlich wenn sie so werben.
https://images.anandtech.com/doci/10967/FreeSync%202%20Presentation%20-%20Final%20-%20Under%20NDA%20Jan%203-page-021_575px.jpg
Screemer
2018-06-20, 17:46:32
die bekommen aber keinen fs2 badge. wo ist das problem?
Du redest sicherlich vom C32HG70. Firmware-Update bringt die fs range auf 48-144hz. Selbst die 72-144 der alten fw erlauben lfc.
aufkrawall
2018-06-20, 18:19:37
wenn du natürlich beschissene frametimes hast, dann kann das schon sein.
Nö, das kann auch mit sauberen Frametimes so sein.
Screemer
2018-06-20, 18:22:04
Nö, das kann auch mit sauberen Frametimes so sein.
Ist mir noch ne untergekommen. Willing to elaborate?
aufkrawall
2018-06-20, 18:32:14
Ist mir noch ne untergekommen. Willing to elaborate?
Ich hatte im anderen Thread schon GoW4 erwähnt, der Unterschied etwa zu den Limitern im AMD- oder NV-Treiber ist abnorm. Overwatch ist auch so ein Fall, wo man <100fps nicht auf den in-game Limiter verzichten will. Ich hab keine technische Erklärung parat, wodurch sich dieser krasse Unterschied ergibt.
Dummerweise wird durch VRR der Input Lag ja auch nicht geringer bzw. ist sogar höher als mit fixen 144Hz.
Kartenlehrling
2018-06-20, 21:34:31
Die Aussage macht ja überhaupt keinen Sinn. :confused:
https://www.computerbase.de/2018-06/amd-freesync-2-hdr/
Neue Bezeichnung: Aus AMD FreeSync 2 wird FreeSync 2 HDR
Kartenlehrling
2018-06-20, 21:48:21
RyoOvpM1HOg
https://geizhals.de/aoc-agon-ag352ucg6-black-edition-a1774789.html
AOC Agon AG352UCG6 Black Edition, 35" 1000€
für das gebotene zu teuer.
robbitop
2018-06-21, 15:43:28
genau das steht doch als vorgabe für fs2 im link?!
Ich hatte hier im Thread verstanden, dass LFC nun doch nicht mehr Vorgabe ist, um die FS2 Badge zu bekommen.
Der Link ist von 2017 - damals war es Pflicht - heute anscheinend doch nicht mehr? Daher meine Verwunderung. Wenn es tatsächlich so ist, halte ich es für eine Fehlentscheidung..
Mehr wollte ich damit nicht ausdrücken.
Savay
2018-06-21, 15:46:06
Ich hatte hier im Thread verstanden, dass LFC nun doch nicht mehr Vorgabe ist, um die FS2 Badge zu bekommen.
Nein...es ging nur um das Asbachuralt Thema das es für FS ursprünglich nie Vorgabe war und auch nicht ist und auch nie werden wird! :wink:
Daher schlicht meine Verwunderung wieso das jetzt schon wieder hochkocht. :freak:
Das ist vlt. im Detail unschön, hat aber auch erst dazu geführt, das wir überhaupt so eine Bandbreite an "FreeSync" Monitoren auf dem Markt haben.
Wäre LFC obligatorisch gewesen, gäbe es zu 99% deutlich weniger davon als welche mit G-Sync! :wink:
Für FS2 hat sich ja nun nix geändert außer der "HDR" Zusatz im "Label" und das ggf. expliziter VESA HDR600 als minimum gesetzt wird (Die VESA HDR Label gab es afair zur Einführung von FS2 ja so noch nicht)
Mir scheint du verstehst nicht ganz wie LFC funktioniert.
Jetzt werd nicht albern! :wink:
Ich sehe nur den unglaublichen nutzen bei um die 30-40FPS nicht...dann teart es dann halt evtl. mal wenn man kurz nach unten spiked...so what?
Die paar 30FPS-Lock Zwischensequenzen sind dann prinzipiell ja auch wieder Ge-Synct.
Die Range hab ich zudem auch nur aus Spaß an der Freude erweitert...geht halt auch ohne ganz passabel, entgegen aller Unkenrufe...bin halt nur ne Bastelnatur und man kann so auch etwas mehr rumprobieren und an den Detailslidern drehen.
Da wo es drauf ankommt (Shooter bspw.) spiele ich zudem sicher nicht mit signifikant weniger als 40-45 MinFPS (wer tut das bitte?!)...und bei allem anderen wo es keine Rolle spielt ob es unter 40FPS fällt ist sowohl Tearing oder alternativ ein höheres Inputlag im zweifel dann oftmals auch ziemlich egal...das sind dann wenn überhaupt nämlich meistens irgendwelche Isometrischen Strategie-Titel.
Und ja die armen Konsoleros sind eher gekniffen...aber im Ernst...wie hoch ist der Prozentsatz an Spielern die mit Konsole an nem Monitor spielen?! :confused:
Außerdem wollen die garantiert auf dauer wohl eher HDR mitnehmen...da fände bzw finde ich es eher Bedauernswert, dass die (afair allesamt HDR!!) TVs die ein FS Label bekommen (sollen) gänzlich noch ohne FS2 daherkommen. (oder halt jetzt FS2 HDR)
Und wer via Pad an nem TV zockt, mit nem (vergleichsweise) Mords Inputlag, kann in der Beziehung ja wohl eh kaum soooooo empfindlich sein, dass lückenloses A-Sync da nun echt ein absolutes Ober-Killerkriterium wäre. :freak:
Screemer
2018-06-21, 16:04:51
Ich hatte hier im Thread verstanden, dass LFC nun doch nicht mehr Vorgabe ist, um die FS2 Badge zu bekommen.
Der Link ist von 2017 - damals war es Pflicht - heute anscheinend doch nicht mehr? Daher meine Verwunderung. Wenn es tatsächlich so ist, halte ich es für eine Fehlentscheidung..
Mehr wollte ich damit nicht ausdrücken.
kartenlehrling scheint der einzige zu sein, der das so verstanden hat und hier im thread propagiert hat. wie er drauf kam ist mir allerdings nicht klar.
Kartenlehrling
2018-06-21, 16:21:40
das hat doch nicht mit propagiert zu tun, so steht es bei AMD.com auf der Seite und
ist Sinnvoll weil Monitor die kein LFC haben auch eine maxHz unter 80Hz haben.
Mit der Radeon FreeSync™ Technologie kamen Radeon-Besitzer in den Genuss einer Tear- und ruckelfreien Darstellung beim Gaming.
Radeon FreeSync™ 2 legt die Messlatte für Gaming-Monitore erneut höher: vorausgesetzt werden jetzt Bildschirmeigenschaften wie z. B. ein großer,
dynamischer Wiederholfrequenzbereich, eine geringe Latenz und ein in der Wahrnehmung doppelt so großer sRGB-Farbraum für mehr Helligkeit und Kontrast.
Diese erweiterte Funktionalität sorgt für eine außergewöhnliche Benutzererfahrung bei HDR-Spielen, -Filmen und sonstigen HDR-Inhalten.
Garantierte Unterstützung der Low Framerate Compensation (LFC)
Unterstützung für das Anzeigen von HDR-Inhalt
Niedrige Latenz
Quelle: AMD.com
Savay
2018-06-21, 16:25:41
:confused: Da steht aber auch "Garantierte Unterstützung der Low Framerate Compensation (LFC)".
Wo sind denn die FS2 Monitore ganz ohne LFC Support? Ich kenne noch keinen...gut, angesichts der 2 1/2 FS 2 (HDR™) Geräte auch kein Wunder...aber bisher sehe ich noch kein "zurückrudern". :wink:
Screemer
2018-06-21, 16:27:32
Ich verstehe einfach nicht was er will. Da steht genau das gleiche wie vor nem Jahr nur ist hdr600 jetzt auch noch Pflicht.
Kartenlehrling
2018-06-21, 18:03:34
Ich verstehe einfach nicht was er will.
Ich will das Freesync Monitor ohne LFC überhaupt nicht verkauft werden und mit der Ankündigung vor einem Jahr,
hatte ich und einige andere auch die Hoffnung das sich das ändert, Freesync leidet seit der Einführung mit einem Imageschaden.
Und das wird nicht weg gehen wenn 2019 Freesync Monitor ohne LFC verkauft werden.
Dann kommt sowas raus ...
Freesync funktioniert nicht.... Freesync ist scheiße, ich hätte mir gleich G-sync nehmen sollen, am falschen Ende gespart
Es geht ja darum das sich die Hersteller nun die Optionen frei halten das sie mit 2 vor 3 Features die Monitor verkaufen, sie werden zwar nicht mit Freesync2 HDR geworben,
aber wenn AMD ein Jahr lang es so wirbt und nun Monitor und TV zwar mit AMD-LowLatenz-HDR und Freesync auf den Markt kommen aber ohne LFC, das erwarte man doch nicht mehr.
Da lobe ich mir Nvidia, deren Monitor unterstützen 40-144Hz oder bei 4k 30-60Hz und somit haben alle G-sync-HDR Monitor auch LFC.
Es ist nun eine Spitzfindigkeit ob sie AMD Freesync2, Freesync2 HDR oder Freesync und HDR LowLatenz mit werben,
ein Monitor/TV ohne LFC sollte überhaupt nicht verkauft werden ... Punkt!!
beste Beispiel ist doch dieser BenQ EL2870U ... pseudo HDR10, low Latenz, freesync Gaming Monitor mit 40-60Hz und somit ohne LFC.
Aber der hat nichtmal das DisplayHDR400 Label bekommen.
BenQ EL2870U
KEY-FEATURES
4K UHD-Auflösung
High Dynamic Range (HDR10)
Brightness Intelligence Plus-Technologie
Reaktionszeit von 1 ms (GtG)
AMD Free Sync
Die AMD FreeSync™-Technologie eliminiert Bildabrisse, defekte Frames, Lags und daraus resultierende hässliche Gameplays.
Mit einer sehr hohen Refreshrate sind besonders flüssige Spielerlebnisse garantiert der EL2870U besonders flüssige Gameplays und
wird zum Traummonitor für jeden Gamer.
akuji13
2018-06-21, 18:05:26
Wo sind denn die FS2 Monitore ganz ohne LFC Support? Ich kenne noch keinen...gut, angesichts der 2 1/2 FS 2 (HDR™) Geräte auch kein Wunder...aber bisher sehe ich noch kein "zurückrudern". :wink:
Es gab ja schon welche weil Samsung geschlampt hat.
Ist allerdings inzwischen behoben.
Screemer
2018-06-21, 18:23:18
Es gab ja schon welche weil Samsung geschlampt hat.
Ist allerdings inzwischen behoben.
Das stimmt nicht. Deshalb Samsung Monis hatten in der ersten Firmware ne range von 72-144hz und das ist ausreichend für lfc. Ab 71fps wurde auf 142hz gedoppelt. Wer was anderes behauptet verbreitet fud. Ob's optimal ist sei Mal dahingestellt. Mit der neuen Firmware sind es ~40-144hz.
akuji13
2018-06-21, 18:26:06
So so...fud also.
Blöd nur das ich einen hatte. ;)
Die erste range ging von 90-144 und die ultimate funktionierte nicht.
Hatte man beim C34 ja auch schon verkackt.
Kartenlehrling
2018-06-21, 18:38:00
LFC ist eine von AMD Seite nötige... Notlösung mehr nicht,
permenantes Spielen unter LFC ist genauso Mist,
weil es ja nur eine Frameverdoppelung ist.
Es ist kein Heilmittel und man sollte auf jedenfall nicht permanent unter LFC spielen, BenQ und Samsung 72-144Hz Mode sind nur bedingt nutzbar.
Genauso der Quatsch bei Samsung freesync Xbox TV Mode die mit 90-120Hz Mode unter 1080p und 1440p kommen.
dargo
2018-06-21, 18:45:35
das hat doch nicht mit propagiert zu tun, so steht es bei AMD.com auf der Seite und
ist Sinnvoll weil Monitor die kein LFC haben auch eine maxHz unter 80Hz haben.
Hä?
Sowohl ein AOC G2460VQ6 als auch AOC G2590VXQ unterstützen LFC trotz max. 75Hz. Mir scheint du bist nicht auf dem aktuellen Stand.
fondness
2018-06-21, 18:50:35
LFC ist eine von AMD Seite nötige... Notlösung mehr nicht,
Als ob Nvidia ohne auskommen würde.
Kartenlehrling
2018-06-21, 19:23:34
Hä?
Ich habe gewusst ich hätte für Dich 60Hz schreiben sollen.
Biete AOC das auch bei IPS, VA und oder 1440p und 2160p?
AOC hatte schon mit ihren ersten freesync Monitor halb offizelle Treiber mit niedrigen freesync range gebracht,
du müsste das wissen das ich das verfolgt habe, ist zwar nett von AOC aber mehr nicht.
Wir haben 2018 nicht gerade auf einen 30-75Hz 1080p TN Monitor gewarte.
Tesseract
2018-06-21, 19:55:48
LFC ist eine von AMD Seite nötige... Notlösung mehr nicht,
permenantes Spielen unter LFC ist genauso Mist,
weil es ja nur eine Frameverdoppelung ist.
spielen ist auf der framerate für die LFC eigentlich gedacht ist (<30) immer mist, vollkommen egal ob mit LFC, kein LFC, VRR, kein VRR, konstante framerate, schwankend oder sonstwas. zumindest bei nvidias implementierung habe ich aber keine unterschiede zwischen LFC und dem bereich darüber festgestellt. 24fps sieht genau so gleichmäßig aus wie 34fps und der breich ist halt für videos wichtig.
dargo
2018-06-21, 19:56:06
Wir haben 2018 nicht gerade auf einen 30-75Hz 1080p TN Monitor gewarte.
Wer ist überhaupt wir? Bist du jetzt das Sprachrohr für die ganze Welt?
aufkrawall
2018-06-21, 20:06:12
und der breich ist halt für videos wichtig.
Dadurch, dass jeder Monitor mit Vielfachen von 23,976Hz refreshen kann, eigentlich nicht. ;)
Bei Videos innerhalb von Spielen wärs natürlich sinnvoll, wobei viele Spiele dann leider so blöd sind, nicht mit den fps des Videos zu rendern...
Screemer
2018-06-21, 20:18:04
So so...fud also.
Blöd nur das ich einen hatte. ;)
Die erste range ging von 90-144 und die ultimate funktionierte nicht.
Hatte man beim C34 ja auch schon verkackt.
deswegen funktioniert es bei anderen wunderbar. das die ultimate engine nicht geht ist aber kein serienfehler sondern ein problem deines models. da von "gabs schon welche" (betonung auf mehrzahl) und "hat geschlampt" zu sprechen find ich irgendwie :ugly:
AOC hatte schon mit ihren ersten freesync Monitor halb offizelle Treiber mit niedrigen freesync range gebracht,
halb offiziell? das ding ist höchst offiziell: https://eu.aoc.com/de/gaming/products/g2460vq6/support | https://aoc-pim.s3.amazonaws.com/Public/AOC/Drivers_Software_Manuals/Drivers/G2460VQ6/G2460VQ6%20beta%20driver.zip
Tesseract
2018-06-21, 20:23:09
Dadurch, dass jeder Monitor mit Vielfachen von 23,976Hz refreshen kann, eigentlich nicht. ;)
die einzige variante die ich kenne ist vollständiges resampling und das frisst dann unnötig strom ohne einen vorteil gegenüber LFC zu bieten.
und ja, videos in spielen sind auch ein problem.
Kartenlehrling
2018-06-21, 20:28:27
natürlich haben sie es verkackt, sie wollten freesync + Motionblur bringen, dafür brauchten sie aber >90Hz.
Samsung hatte nur glück das ihre Monitor updatefähig sind, so haben sie einfach diese Feature abgeschalten :eek:
Die MG279Q muss man noch einschicken und mit viel Glück hatte man anstelle von 1x pixelfehler,
nun 4x und Staubeinschlüsse und oben drauf eine noch stärker leuchtende Pissecke.
Kartenlehrling
2018-06-21, 20:36:15
halb offiziell? das ding ist höchst offiziell
ja und ist nieeeeee aus der Beta raus :confused:
aufkrawall
2018-06-21, 20:47:03
die einzige variante die ich kenne ist vollständiges resampling und das frisst dann unnötig strom ohne einen vorteil gegenüber LFC zu bieten.
Ich sag ja nicht, dass es überlegen wäre sondern dass man dafür halt keine LFC braucht.
Gsync läuft intern eh nicht mit so niedrigen Refreshraten, da dürfte mit Stromersparnis nicht viel sein (und ist doch auch nur für Notebooks interessant).
akuji13
2018-06-21, 20:57:40
deswegen funktioniert es bei anderen wunderbar. das die ultimate engine nicht geht ist aber kein serienfehler sondern ein problem deines models.
Genau, ein Problem nur bei mir. :D
https://youtu.be/h7JPDa3xgZg?t=1412
Die range Probleme hatten alle der ersten charge.
Danach gabs die 72-144 range, dann die 48-144 die total geiles ghosting eingeführt hat.
Bei Samsung ist man wiederholt einfach nur unfähig.
Kartenlehrling
2018-06-21, 21:02:35
lass es gut sein @Screemer ist auf dem Kreuzzug für AMD oder Gralsfindung.
Er macht ja so als wenn Wir die 3 Jahre nicht mitgemacht hätten.
Screemer
2018-06-21, 22:26:04
Ab 23:31.
Die range Probleme hatten alle der ersten charge.
Danach gabs die 72-144 range, dann die 48-144 die total geiles ghosting eingeführt hat.
Bei Samsung ist man wiederholt einfach nur unfähig.
Und wo ist jetzt das Problem, dass der Monitor scheiße ist, oder wie? Das war euch vorher nicht bewusst? Mir schon. Ändert immer noch nichts an der Tatsache, dass es keine fs2 Monitore ohne lfc und hdr gibt so wie hier behauptet wurde. Das einige davon technische Grütze sind hat damit erst Mal gar nichts zu tun.
Ich find's eher absurd, dass die eigenen überbordenden Ansprüche als Messlatte für den Markt angesehen werden.
ja und ist nieeeeee aus der Beta raus :confused:
Ändert was daran, dass deine Aussagen falsch ist? Schon Mal in das Paket geschaut? Da ist ne simple inf drin.
akuji13
2018-06-21, 22:27:32
Es gab sie (oder ihn damit du zufrieden bist).
Wobei mit "sie" die Geräte der ersten Charge gemeint waren.
Nichts anderes habe ich behauptet. ;)
Und nichts anderes war die Ausgangslage des zitierten posts.
Ich find's eher absurd, dass die eigenen überbordenden Ansprüche als Messlatte für den Markt angesehen werden.
Das sind keine überzogenen Ansprüche sondern eine Erwartung das beworbene features funktionieren.
Und damit hat Samsung nun schon mehrfach seine Probleme gehabt (siehe das C34 Desaster).
Kunden wie dich wünscht sich jeder Hersteller.
Screemer
2018-06-21, 22:44:08
Ich kaufe nichts was meinen Ansprüchen nicht gerecht wird. Ihr wisst es und kauft trotzdem? Warum tut man das? Nur um sich dann in nem Forum darüber zu beklagen, wie beschissen der Monitor doch ist und AMD endlich Mal zu Pötte kommen soll? Euer ernst?
Kunden wie mich? Kunden die keinen Schrott kaufen? Denke ich nicht.
Kleine Anekdote zum Schluss. Mein c32hg70, aus dem späten August letztes Jahr, hatte kein Problem mit meiner 480 die 72-144hz darzustellen. Auch sonst hat er meinen Ansprüchen voll genügt. War sicherlich aus einer der ersten Chargen. Da ich aber zeitnah zum Kauf auf eine NV Karte gewechselt bin ging er aber schon in den ersten 14 Tagen zurück. Muss ich ja richtig Glück gehabt haben schon einen mit neuer Firmware erwischt zu haben oder vielleicht hab ich damals auch mit Cru nachgeholfen. Kann mich leider nicht mehr genau erinnern. Naja man ist ja nicht auf den Kopf gefallen und behilft sich mit den gängigen Tools.
akuji13
2018-06-21, 22:52:43
Ich kaufe nichts was meinen Ansprüchen nicht gerecht wird. Ihr wisst es und kauft trotzdem? Warum tut man das? Nur um sich dann in nem Forum darüber zu beklagen, wie beschissen der Monitor doch ist und AMD endlich Mal zu Pötte kommen soll? Euer ernst?
Nur mal so als kleiner Denkanstoß:
Als der hier eintraf gab es noch keinerlei reviews, Erfahrungsberichte oder ähnliches. ;)
Zweitens: Ich habe das Gerät nicht gekauft.
Drittens habe ich mich nie im Detail über das Gerät in einem Forum geäußert.
Und ja, öffentliche Kritik ist sofern sachlich nun mal das Recht eines Kunden mit der Hoffnung dadurch Besserung zu erreichen.
Damit du beruhigt bist: Das Problem habe ich vorher natürlich auch an Samsung gemeldet. ;)
Dein August Gerät ist erst Monate nach dem release erstanden worden.
Monate in den die Käufer hängen gelassen wurden.
Und viertens: Nun ist hier Schluss mit deinem Kindergarten, für diesen Quark ist meine Lebenszeit nun wirklich zu schade.
Screemer
2018-06-21, 23:07:09
Monate? Das Ding kam Ende Juli 17 auf den Markt. Vorstellung war zwar im juni aber käuflich zu erwerben war er da noch lange nicht. Du beömmelst dich seit mehreren Seiten über einen Monitor den du nicht Mal gekauft hast, du äußerst dich nicht im Detail? Nein du schiebst wie Kartenlehrling den schwarzen Peter für Samsungs bekanntes Unvermögen AMD zu. Das ist das was du hier tust.
Hast aber recht. Hier ist nun wirklich Schluss.
akuji13
2018-06-21, 23:16:46
:facepalm:
http://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/1440p-Monitor-mit-Freesync-20-und-144-Hertz-1229570/
Meldung vom 05.06.2017:
"Die Veröffentlichung des Gerätes steht nun offenbar kurz bevor und so ist es auch nicht verwunderlich, dass bereits erste Tester die Hardware in den Händen halten können. So auch Technopat Global, die in einem Video auf YouTube den Samsung CHG70 auspacken und stolz präsentieren."
Anfang Juni bis Ende August sind fast 3 Monate...
Ob ich einen Monitor kaufe oder nicht ändert genau 0 an seinen Mängeln.
FS2 ist AMDs label, sie sind dazu da die Einhaltung zu überwachen.
Punkt, Ende, aus.
Deinen Blödsinn kann man sich nicht antun.
Ich wünsche noch ein schönes Leben.
Screemer
2018-06-21, 23:29:13
Das ändert sich nichts daran, dass die Kiste erst Ende Juli kaufbar war und meine Hardware aus dem August wohl auch noch alte Software hatte. Kann ich dir auch gern aus ner pcgh News zitieren. Schön, dass wir uns wenigstens einige sind das die Kiste scheiße war und mit neuer fw auch nicht wirklich besser wurde. Ist aber gut jetzt.
Savay
2018-06-22, 13:58:06
FS2 ist AMDs label, sie sind dazu da die Einhaltung zu überwachen.
Punkt, Ende, aus.
Na da frage ich mich aber wie du dir sowas vorstellst! :freak:
Soll dann nen AMD Praktikant in das Samsung Lager latschen und wegen eines (oder mehrerer) offensichtlichen Bugs(!) das FS2 Label der Kartons überkleben und den Sticker auch wieder abreißen sobald so ein (wahrscheinlich schon geplanter) fix kommt?!? :rolleyes:
Ich bin mir ziemlich sicher, dass das Problem vor Release schon bekannt war und auch das die Lösung nicht direkt zum RTM Termin möglich war....da wurde einfach bewusst ein unfertiges Produkt ausgeliefert...das kann man ja wohl kaum AMD ankreiden.
akuji13
2018-06-22, 15:43:37
Doch kann man.
Komischerweise müssen andere Produkte auch erst eine Zertifizierung durchlaufen bevor sie freigegeben werden. ;)
Natürlich schließt das nicht jeden Fehler auf der später entstehen kann, siehe z. B. patches bei Konsolenspielen oder die zig hardware Kombinationen im Bereich von PC software.
Hier aber lag ein eindeutig auf das Produkt bezogener Fehler vor wo es keine Wechselwirkung gibt, den man hätte vermeiden können.
Das sind eben die Nachteile wenn man keine ausreichende Marktmacht hat und das System ein freies ist.
Aber mal ganz ernsthaft Leute: Ihr seid zahlende Kunden, lasst es doch nicht verarschen und applaudiert auch noch dazu.
Kartenlehrling
2018-06-22, 15:56:32
Asus kann demnach also das laut Spezifikationen derzeit schnellste Notebook-LCD-Panel zunächst exklusiv anbieten und
sich damit einen Vorteil im Markt der Gaming-Notebooks verschaffen.
Derzeit gibt es offenbar noch keine marktreife Alternative mit 144 Hz und 3 ms von anderen Panel-Herstellern.
https://www.computerbase.de/2018-06/notebook-display-144-hz-panel-asus-exklusiv/
Das blitzschnelle 144 Hz G-Sync Display lässt deine Games so flüssig wie auf einem Desktop-Setup laufen,
intelligente Software steigert die Akkulaufzeiten
Kartenlehrling
2018-06-22, 23:59:13
NV macht es IMO hier richtig. (ich meine nicht den FPGA sondern die strengen Vorgaben)
Entsprechend ist das Spielerlebnis besser bzw ein gutes Spielerlebnis auch zwingend gewährleistet. -> gute Erfahrung -> gutes Image
https://pbs.twimg.com/media/DgU5hWIWkAA9dnS.jpg
https://www.pcper.com/reviews/Graphics-Cards/ASUS-ROG-Swift-PG27UQ-27-4K-144Hz-G-SYNC-Monitor-True-HDR-Arrives-Desktop/Tea
LOL !!! :freak: :eek: ein fetter Arria 10 chip und sogar zwei Lüfter :biggrin:
akuji13
2018-06-23, 01:11:09
Und mehr Speicher als viele Grafikkarten. :eek:
Die Einheit ist faszinierend und erschreckend gleichzeitig.
Tesseract
2018-06-23, 02:14:25
ich verstehe echt nicht warum sie keinen ASIC designen. an dem ding verdienen sie doch nicht mal wirklich selbst sondern in erster linie micron und altera und zusätzlich macht es die monitore deutlich teurer.
robbitop
2018-06-23, 08:25:20
Ob sich ein extra asic für diese vergleichsweise kleinen Serien für NV lohnt? Die sollen imo lieber (zumindest optional) den vesa Standard unterstützen.
dargo
2018-06-23, 08:27:25
NV macht es IMO hier richtig. (ich meine nicht den FPGA sondern die strengen Vorgaben) Entsprechend ist das Spielerlebnis besser bzw ein gutes Spielerlebnis auch zwingend gewährleistet. -> gute Erfahrung -> gutes Image
Entschuldige bitte, aber manchmal denke ich ich bin hier im falschen Film. Was kann bei der Implementierung von Nvidia richtig sein wenn man damit den Großteil der Spieler von VRR ausschließt? Hast du schon mal gesehen wo die G-Sync Monitore anfangen?
https://geizhals.de/?cat=monlcd19wide&xf=11992_NVIDIA+G-Sync
Du glaubst doch nicht ernsthaft, dass die ganzen Käufer der GTX1050(TI) oder kleiner sich einen G-Sync Monitor kaufen oder? Selbst bei einer GTX1060 habe ich so meine Zweifel, dass das Interesse dort groß ist. Bei Freesync hast du bsw. sowas zur Auswahl.
https://geizhals.de/aoc-g2460pf-a1318972.html?hloc=at&hloc=de
https://geizhals.de/aoc-g2590fx-a1818236.html?hloc=at&hloc=de
Und wenn das einem immer noch zu teuer ist halt eben das.
https://geizhals.de/aoc-g2590vxq-a1744411.html?hloc=at&hloc=de
Edit:
Ich zeige gerne mal wieder diese beiden Displays im Vergleich da sie baugleich sind. Einer mit G-Sync, der andere mit Freesync.
https://www.mindfactory.de/product_info.php/24Zoll--60-96cm--AOC-g2460Pg-schwarz-1920x1080-DisplayPort_974516.html
https://www.mindfactory.de/product_info.php/24Zoll--60-96cm--AOC-G2460PF-schwarz-1920x1080-1xDisplayPort-1xDVI-1xHD_1022037.html
Einfach mal sich die Verkaufszahlen anschauen. Das ganze in Relation zu dGPUs von NV/AMD setzen und mal nachdenken.
fondness
2018-06-23, 08:30:49
https://pbs.twimg.com/media/DgU5hWIWkAA9dnS.jpg
https://www.pcper.com/reviews/Graphics-Cards/ASUS-ROG-Swift-PG27UQ-27-4K-144Hz-G-SYNC-Monitor-True-HDR-Arrives-Desktop/Tea
LOL !!! :freak: :eek: ein fetter Arria 10 chip und sogar zwei Lüfter :biggrin:
Ja, Nvidia macht es ganz großartig. Aktiv gekühlte monitore werden mit dem Ding wohl Pflicht. Erhebliche zusätzliche Leistungsaufnahme und Kosten inklusive. Da braucht man dann auch nicht mehr mit der geringeren Leistungsaufnahme der GPUs argumentieren wenn man soetwas braucht um das zu bekommen, was es bei AMD for free gibt. Sie können es sich leisten, weil AMD zurzeit keine konkurrenzfähigen GPUs liefert, was einmal mehr zeigt, welche ungesunden Auswüchse ein Markt mit einem zu starken Player hervorbringen kann.
It's an unstocked item, without a large bulk quantity price break, but you can actually find this exact same FPGA on both Digikey and Mouser, available to buy. It's clear that NVIDIA isn't paying the $2600 per each FPGA that both sites are asking, but it shows that these are not cheap components in the least. I wouldn't be surprised to see that this FPGA alone makes up $500 of the final price point of these new displays, let alone the costly DDR4 memory
Könnte sich also sogar rentieren, den Monitor zu kaufen um an das FPGA zu kommen. :ugly:
gravitationsfeld
2018-06-23, 08:40:18
https://pbs.twimg.com/media/DgU5hWIWkAA9dnS.jpg
https://www.pcper.com/reviews/Graphics-Cards/ASUS-ROG-Swift-PG27UQ-27-4K-144Hz-G-SYNC-Monitor-True-HDR-Arrives-Desktop/Tea
LOL !!! :freak: :eek: ein fetter Arria 10 chip und sogar zwei Lüfter :biggrin:
Und 3GB (!) Speicher. WTF :D
fondness
2018-06-23, 08:47:39
ich verstehe echt nicht warum sie keinen ASIC designen. an dem ding verdienen sie doch nicht mal wirklich selbst sondern in erster linie micron und altera und zusätzlich macht es die monitore deutlich teurer.
Ein tape out kostet viele Millionen. Von dem Ding werden sie wohl nicht viel verkaufen bei den zu erwarteten Preisen.
Was NV daran verdient liegt im übrigen auch auf der Hand: Kunden die an einem Hersteller gefesselt sind.
Kartenlehrling
2018-06-23, 15:44:59
natürlich haben sie es verkackt, sie wollten freesync + Motionblur bringen, dafür brauchten sie aber >90Hz.
Samsung hatte nur Glück das ihre Monitor updatefähig sind, so haben sie einfach diese Feature abgeschalten :eek:
Die MG279Q muss man noch einschicken und mit viel Glück hatte man anstelle von 1x pixelfehler,
nun 4x und Staubeinschlüsse und oben drauf eine noch stärker leuchtende Pissecke.
Witzig das wir noch vom Samsung Glück geschrieben haben das sie ihre Freesync2-HDR Monitor Updatefähig gemacht haben,
was ich übriges 2018 als selbstverständlich ansehe.
habe einen interessanten Anruf von einem Händler bekommen ... (alternate.de)
Er sagte, sie hätten eine Menge PG27UQ auf Lager - aber ASUS blockierte sie,
um diese zu verkaufen, da sie ein Firmware-Update benötigen ...
Außerdem mussten sie an Leute schreiben, die ihre PG27UQ bereits erhalten hatten,
um sie für den Update-Prozess zurückzusenden
- da es Endbenutzern unmöglich ist, die Firma selbst zu aktualisieren!
https://www.hardwareluxx.de/community/f111/asus-swift-pg27uq-4k-ips-144hz-g-sync-hdr-1147607-24.html#post26375503
Tesseract
2018-06-23, 15:57:03
Ob sich ein extra asic für diese vergleichsweise kleinen Serien für NV lohnt? Die sollen imo lieber (zumindest optional) den vesa Standard unterstützen.
die serien sind unter anderem deswegen so klein weil das ding so teuer ist. ein kompakter, günstiger ASIC könnte ohne weiteres im non-gaming-markt konkurrieren. die meisten monitorhersteller kaufen die scaler ja sowieso zu.
gravitationsfeld
2018-06-24, 05:06:58
Ich könnte mir vorstellen, dass NV mit den ASICs wartet bis die Display-Fähigkeiten ein bisschen beruhigen. In letzter Zeit war mit 144Hz, 4K und HDR viel neues und man will keine ASICs die schnell veralten.
fondness
2018-06-24, 10:18:00
Ein weiteres Argument könnte sein (Wenn man unbedingt welche finden will) time to market. Mit einem fpga ist man natürlich früher dran wie die scaler hersteller, die auf tape out und Produktion warten müssen. Plus man kann das Ding updaten, was wohl gerade beim Asus passiert. :ugly:
Kartenlehrling
2018-06-24, 10:49:52
Mit einem fpga ist man natürlich früher dran wie die scaler hersteller, die auf tape out und Produktion warten müssen.
DP1.4 HBR3 Modul war wohl frühjahr 2016 fertig und Realtek ist ja nur ein Anbieter von vielen.
Realtek Launches the World’s First DisplayPort HBR3 (8.1Gbps) LCD Monitor Solution Supporting 5K@60Hz or 4K@120Hz Display via a Single DisplayPort Cable
http://www.realtek.com.tw/press/newsViewOne.aspx?Langid=1&PNid=1&PFid=1&Level=1&NewsID=432
dildo4u
2018-06-24, 10:56:27
Dort steht nur was von 4k/60hz mit 4:4:4,10 Bit HDR erhöt die nötige Bandbreite gegenüber SDR. Die 4k/120hz sind für SDR.
Das scheint zu Zeit das Limit für Freesync 2 zu sein 3840x1080@144hz.(ca 4 MegaPixel) Es gibt noch kein 4k Modell.(Ca 8 Megapixel)
http://preisvergleich.pcgameshardware.de/samsung-c49hg90-lc49hg90dmuxen-a1640134.html?hloc=at&hloc=de
Kartenlehrling
2018-06-24, 11:17:53
Was willst du Nvidia 144Hz HDR 4k sind doch auch nur mit der Heißen Nadel gestrickt.
Mit neuen HBR3 DP1.4 Kabel sind 32.4Gbps (4 lanes@8.1Gbps) möglich mehr gibts im Moment nicht, HDMI2.1 kann nur mehr.
Native: 120 Hz
4:4:4 HDR: 98Hz
4:2:2 HDR: 120Hz
Overclocked 4:2:2 HDR: 144 Hz
Die angaben die letzte Woche geposte wurden kommen ja nicht von ungefähr.
(https://en.wikipedia.org/wiki/DisplayPort#1.4)
dildo4u
2018-06-24, 11:22:14
Ich steige da nicht durch bekommt man 4 Lanes über ein Kabel?
Gipsel
2018-06-24, 17:37:19
Ich steige da nicht durch bekommt man 4 Lanes über ein Kabel?Ja. In einem Kabel sind 4 Lanes drin (+ AUX).
Und der verlinkte Realtek Scaler kann die exakt gleichen Datenraten wie diese neuen 4k GSync-Monitore. Die können ohne subsampling nämlich auch nur 120Hz mit SDR (was bei Realtek auch steht). Das nutzt die maximale Datenrate von DP1.3/1.4 (knapp 26GBit/s mit HBR3, die manchmal angeführten 32,4GBit/s können wegen der gewählten 8b/10b Kodierung nicht übertragen werden, die Nettodatenrate ist maximal 25,92GBit/s) aus.
AffenJack
2018-06-24, 18:56:45
Wurde das erste G-Sync Modul jemals gegen einen ASIC getauscht? Ich meine nicht oder?
Dieses neue Modul sieht schwer danach aus, dass sich auch mit HDMI 2.1 nichts an der Blockadehaltung von Nvidia ändern wird. Na großartig.:freak:
Hübie
2018-06-25, 09:05:10
Für mein Verständnis würde man durch Einsatz eines ASICs die Preise senken und somit den Absatz steigern können. Somit wäre man nicht mehr auf die Ausrichtung einer Kleinserie angewiesen... :rolleyes:
robbitop
2018-06-25, 09:10:58
Entschuldige bitte, aber manchmal denke ich ich bin hier im falschen Film. Was kann bei der Implementierung von Nvidia richtig sein wenn man damit den Großteil der Spieler von VRR ausschließt? Hast du schon mal gesehen wo die G-Sync Monitore anfangen?
https://geizhals.de/?cat=monlcd19wide&xf=11992_NVIDIA+G-Sync
Du glaubst doch nicht ernsthaft, dass die ganzen Käufer der GTX1050(TI) oder kleiner sich einen G-Sync Monitor kaufen oder? Selbst bei einer GTX1060 habe ich so meine Zweifel, dass das Interesse dort groß ist. Bei Freesync hast du bsw. sowas zur Auswahl.
https://geizhals.de/aoc-g2460pf-a1318972.html?hloc=at&hloc=de
https://geizhals.de/aoc-g2590fx-a1818236.html?hloc=at&hloc=de
Und wenn das einem immer noch zu teuer ist halt eben das.
https://geizhals.de/aoc-g2590vxq-a1744411.html?hloc=at&hloc=de
Edit:
Ich zeige gerne mal wieder diese beiden Displays im Vergleich da sie baugleich sind. Einer mit G-Sync, der andere mit Freesync.
https://www.mindfactory.de/product_info.php/24Zoll--60-96cm--AOC-g2460Pg-schwarz-1920x1080-DisplayPort_974516.html
https://www.mindfactory.de/product_info.php/24Zoll--60-96cm--AOC-G2460PF-schwarz-1920x1080-1xDisplayPort-1xDVI-1xHD_1022037.html
Einfach mal sich die Verkaufszahlen anschauen. Das ganze in Relation zu dGPUs von NV/AMD setzen und mal nachdenken.
Du hast mich missverstanden. Es gibt unabhängig voneinander die Zertifizierung der VESA (async) und von AMD. Niedrige Zertifizierungsanforderungen liefert schon der Vesa Standard. Damit ist budget vrr möglich. Unabhängig davon gibt es zusätzlich das Freesync Zertifikat von AMD optional on top. Und genau das sollte (wie jetzt Zum Glück @freesync 2 erfolgt) etwas höhere Anforderungen stellem, um die Marke zu stärken. Gute Erfahrung -> Kunde zufrieden.
Hübie
2018-06-25, 10:13:40
Es muss doch einen Grund geben, warum NVIDIA soviel Hardware darin verbaut. Wozu der ganze Speicher? Freesync braucht das offenbar nicht oder zumindest nicht in diesen Quantitäten (mal auf die gängigen Auflösungen herunter gerechnet).
Tests haben weder Unterschiede beim input lag, noch bei der Fluppdizität oder Verbrauch feststellen können. Ist das hier vielleicht pures over engineering?
Savay
2018-06-25, 10:15:56
Soviel Hardware brauchen die sicher nur weil sie es "stumpf" über nen FPGA realisieren!
Das was sie da seit Jahren auf den Markt werfen sind technisch betrachtet halt eigentlich eher Prototypen...im Masseneinsatz. (je nach Modell mal mehr, mal weniger)
Der Vorteil mit ihrer Variante ist aber eh das sie die volle Kontrolle über die Wiedergabekette haben...das könnten sie aber auch mit nem eigenen ASIC erreichen...und dann wäre es sicher auch effizienter umsetzbar.
Wieso sie wirklich keinen dafür auflegen finde ich langsam auch etwas arg seltsam....vlt. machen sie es ja irgendwann nochmal wenn nicht mehr so viele neue Standards dazu kommen.
Ich glaub die hatten den langen Einsatz eigentlich nicht geplant. Aber solange man damit Geld verdienen kann, nutzt man das halt aus. Ansonsten wird man das wohl doch irgendwann den Monitorherstellern überlassen. Die können das ja auch einfach härter spezifizieren für ein gsync-Logo und fertig.
StefanV
2018-06-25, 12:42:49
Es muss doch einen Grund geben, warum NVIDIA soviel Hardware darin verbaut.
Ja, verdongelung, damit man nur nVidia Hardware miteinander verbinden kann, Kundenbindung und deine Kohle natürlich so viel wie möglich.
ggF hat man wieder was improvisiert und war sich zu schade, die VESA Version spezifikationsgerecht zu implementieren.
Kartenlehrling
2018-06-25, 13:53:01
Es muss doch einen Grund geben, warum NVIDIA soviel Hardware darin verbaut. Wozu der ganze Speicher? Freesync braucht das offenbar nicht oder zumindest nicht in diesen Quantitäten (mal auf die gängigen Auflösungen herunter gerechnet).
Tests haben weder Unterschiede beim input lag, noch bei der Fluppdizität oder Verbrauch feststellen können. Ist das hier vielleicht pures over engineering?
Nvidia haben damals die Technik-Idee von Lucid virtual sync geklaut,
die haben aber die igpu von Intel als Framebuffer genommen, heutig GPU können das von sich aus selbst,
AMD damals wohl auch schneller, woraus Freesync1 entstand.
Asus hat Lucid aufgekauft, sie haben über 60 Patente bekommen,
die intelligente Software zur steigerung der Akkulaufzeiten,
die jetzt in den neuen Notebooks mit 144-Hz-Panel mit 3 ms ist auch von Lucid.
Kartenlehrling
2018-06-25, 15:35:41
Update 25.06.2018 15:09 Uhr
Acer hat mittlerweile bestätigt, dass die Wandhalterung des Predator x27 die Luftzufuhr des Lüfters beschneidet und die Geräuschkulisse anhebt.
Eine alternative Halterung soll „kurzfristig“ und kostenlos nachgeliefert werden. Einstweilen empfiehlt das Unternehmen die Nutzung des Standfußes.
https://www.computerbase.de/2018-06/acer-x27-asus-pg27uq-lautstaerke-luefter/#update1
Hübie
2018-06-25, 20:03:44
Nvidia haben damals die Technik-Idee von Lucid virtual sync geklaut,
die haben aber die igpu von Intel als Framebuffer genommen, heutig GPU können das von sich aus selbst,
AMD damals wohl auch schneller, woraus Freesync1 entstand.
Asus hat Lucid aufgekauft, sie haben über 60 Patente bekommen,
die intelligente Software zur steigerung der Akkulaufzeiten,
die jetzt in den neuen Notebooks mit 144-Hz-Panel mit 3 ms ist auch von Lucid.
Danke für die Geschichtsstunde, aber beantwortet ja keineswegs meine Fragen. :wink:
https://www.computerbase.de/2018-06/acer-x27-asus-pg27uq-lautstaerke-luefter/#update1
Die scheinen ihre Produkte ja ausführlich zu testen. 5 Minuten lang, an und aus. Was für eine Blamage für den Preis.
AffenJack
2018-06-25, 22:24:49
Nvidia haben damals die Technik-Idee von Lucid virtual sync geklaut,
Ich würde eher sagen Fast Sync wurde da abgekupfert? Lucid vs hat doch an der Monitorfrequnz nix verändert und ist damit schon was ziemlich anderes.
akuji13
2018-06-26, 00:09:54
Die scheinen ihre Produkte ja ausführlich zu testen. 5 Minuten lang, an und aus. Was für eine Blamage für den Preis.
Ich vermute eher es läuft ab wie bei anderen Produkten:
Da wird gar nichts mehr getestet.
Nix, nada, njet. Keine einzige Minute. :)
Hübie
2018-06-26, 01:39:23
Ich würde eher sagen Fast Sync wurde da abgekupfert? Lucid vs hat doch an der Monitorfrequnz nix verändert und ist damit schon was ziemlich anderes.
Iirc war es erzwungenes triple buffering mit einer dynamischen Reihenfolge für den backbuffer. Aber ich weiß nicht genau welche Patente ASUS da haben soll und wie NVIDIA da nun mit rein spielt, um seine Aussage qualifiziert zu beurteilen. Klingt für mich erst mal nach "roter Fraktion". ;D
Kartenlehrling
2018-06-26, 11:31:54
Klingt für mich erst mal nach "roter Fraktion".
Du bist doch der hier immer die Grabenkriege führt,
mir ging es nur darum das Lucid frams synchronisation über D-GPU und i-GPU frühzeitig schon so regelte,
weil zum damaligen Zeitpunkt es keine D-Grafikkarte alleine konnte.
Nvidia schreibt sich immer auf die Tafel als erster eine neue Technik umgesetzt zu haben und
weil man sich wohl nicht mit Intel igpu die es auch nicht bei jeden System vorhanden war binden wollte,
hat man wohl die G-sync Module so umgesetzt wie sie nun sind.
Nvidia hat den Sprung verpasst auf eine D-GPU Only Variante, warscheinlich wegen der Bindung an Nvidia will man es nicht ändern,
nun müssen die G-sync Module mit der Auflösung 8k, 10bit, HDR, 240Hz mitwachsen.
Kartenlehrling
2018-06-28, 10:49:20
e0XMQMKk_II
HDMI 2.1 features coming to Xbox One X (VRR and Auto Low Latency Mode)
Kartenlehrling
2018-06-29, 19:11:38
Man kann wohl doch selbst den PG27UQ updaten, es fehlt wohl nur das Installation Tool, das aber erst noch geschrieben werden muss :D
Or you can wait until later this year when a downloadable utility tool will be available to update your monitor’s firmware yourself.
https://www.asus.com/support/FAQ/1036750#
[LCD Monitors] ROG Swift PG27UQ – Optional Firmware Update Last Update : 2018/06/27
Alternate.de hat sie auch wieder im Program, einer liegt im Outlet für 2350€
Kartenlehrling
2018-07-06, 21:46:00
https://www.lg.com/de/images/MN/features/07_32GK850F_Gaming_GUI.jpg
*1ms Motion Blur Reduction verringert die Spitzenhelligkeit und
folgende Funktionen können währenddessen nicht genutzt werden: Radeon FreeSync™ 2 / DAS(Dynamic Action Sync)
https://www.lg.com/de/monitore/lg-32GK850F
Wieder so ein Werbeverarschung ...
die Aufweichung von Freesync2 ist sowieso lächerlich,
das in bestimmten Fällen auch DisplayHDR400 ausreicht. :freak:
LG treibt es echt auf die Spitze, das G-sync Modell hat nur 8bit (16.7 Mio Farben) somit tricks LG und AMD rum für ihr DisplayHDR400 und
HDMI funktioniert nur 60Hz wobei DP mit overclocking 165Hz geht .... Muuuhhaa!!
http://www.tftcentral.co.uk/reviews/lg_32gk850g.htm
LG 32GK850G Review
Screemer
2018-07-06, 22:01:13
Du hast immer noch nicht gerafft, dass fs2 hdr != Fs2 ist. Letzteres hat ja nur wenige Monate gehalten und es gibt auch kaum solche Monitore. Die kurze Lebensdauer des Labels kann man AMD durchaus ankreiden. Alle die fs2 hdr Label bekommen werden aber mind. Hdr600 haben.
Kriton
2018-07-11, 16:42:42
Ist FS 2 HDR nicht zwischen Vesa 400 und 600 angesiedelt?
N0Thing
2018-07-11, 17:17:38
Scheinbar, ja:
https://www.computerbase.de/2018-06/freesync-2-hdr-specs/
FS2 und die VESA-HDR-Klassen haben erstmal nichts direkt miteinander zu tun, sondern nur teilweise überschneidende Anforderungen. Letztere Einteilung ist halt neuer.
Der verlinkte 32GK850F scheint schon korrekt mit FS2 beworben zu werden: kann Framedoubling, HDR, 400nits "typisch", und so nehme ich kann die HDR-Infos an die Grafikkarte kommunizieren was Voraussetzung für FS2 sein muss (denn woher sonst soll die Grafikkarte die Info für das Tonemapping bekommen, ausser es gibt eine Tabelle im Treiber).
Ein offizielles Spec-Sheet für FS2-Anforderungen wäre doch sehr willkommen.
Kriton
2018-07-14, 12:57:32
Wir reden von FS2 HDR und nicht FS2. FS2 hat allerdings schon HDR-Kompatibilität. Und FS2 HDR kam deutlich nach den Vesa-Standards. da verstehe ich AMD wirklich nicht, sich nicht für den HDR 400 oder 600 Standard entschieden zu haben, sondern ein Mittelding zu nehmen.
Kartenlehrling
2018-07-17, 14:59:02
70w unter Desktop und ca. 130w unter HDR Game (Farcry5), nicht wenig, aber auch nicht überraschend.
https://pics.computerbase.de/8/3/5/5/2/12-1260.jpg
https://www.computerbase.de/2018-07/asus-pg27uq-g-sync-hdr-test/
Asus PG27UQ im Test: Viel Licht und Schatten mit UHD, 144 Hz und G‑Sync HDR
akuji13
2018-07-17, 15:37:52
Der Schwarzwert ist schon nett. :)
Spannend ist auch die im Vergleich zu den passiv gekühlten (G-Sync)Modulen die sehr niedrige Temperatur.
Da könnte man den Lüfter sicher deutlich in der Drehzahl reduzieren, zumindest wenn die maximale Arbeitstemperatur ähnlich ausgelegt ist wie bei den Vorgängern.
Vorausgesetzt natürlich auch das nicht noch etwas anderes gekühlt werden muss.
Kartenlehrling
2018-07-17, 17:38:59
Wenn so ein Monitor schon 2500€ kost hätte man ja gleich in Anlehnung an die Samsung QLED TV
die ganz Anschlüsse und Stromversorgung in eine Extra Box und mit Lichtleitung verbinden können, .... Lüfterlos !!!
152lQQ1R6w0
ONE CONNECT BOX 2018 mit One Invisible Connect (Samsung Roadshow)
Slipknot79
2018-07-17, 18:53:49
Weiß ned wo das Problem ist, gibt Subwoofer um 2500EUR und da ballert nen Alu-Kühlkörper auf der Rückseite rum.
Zeit sowas bei den Monitoren einzuführen. :redface:
horn 12
2018-07-17, 22:04:34
Was sollte man vom bald ablaufenden Angebot
zwecks der FreeSync Monitore heute von Amazon.com / de halten
Vor Allem dieses Modell würde mir zusagen:
LG 34UC79G-B 34-Inch 21:9
https://geizhals.eu/lg-electronics-34uc79g-b-a1505099.html
USS-VOYAGER
2018-07-17, 22:11:41
Full HD auf 34 Zoll? Na dann viel Spaß. Kriegt man ja Augenkrebs von.
Morgen bekomme ich ein 34 Zoll mit 3440x1440. Wenn mir das auch schon zu wenig ist bleibe ich bei 27 Zoll 4K.
Linmoum
2018-07-17, 22:23:38
Vor allem hat horn ja schon 'nen UHD-Monitor. Ergibt gerade dann einfach keinen Sinn, so ein Downgrade hinzulegen.
USS-VOYAGER
2018-07-17, 22:29:16
Wenn man von einem 4K Monitor kommt ist es ja noch schlimmer. Hatte nach dem ich Jahre lang ein 4K Monitor hatte mir mal ein 27 full HD Monitor mit 144Hz geholt weil alle geschwärmt haben wie geil das ist. Aber der ging sofort wieder zurück weil es mir zu pixelig war. Und das schon auf 27 Zoll. Käme daher nie auf die Idee Full HD auf 34 Zoll zu holen.
Bin daher gespannt ob mir morgen die 3440x1440 reichen.
horn 12
2018-07-17, 22:30:18
Nun, seit gut 2 Jahren bereits stolzer Besitzer des Ultra HD Monitor LG 27UD-68-P /B
also die schwarze Version und nicht die weise von Amazon heute angebotene.
Jene weise hat wesentliche Nachteile gegenüber der Black Version, und damals hatte ich gerade mal 462 Euro bezahlt.
PS:
Der Obrige 34 Zöller wäre für einen Zweitrechner, oder für den Bruder gewesen.
USS-VOYAGER
2018-07-17, 22:37:25
Welche Nachteile hat denn die weiße Version? Hab mir den nämlich auch bestellt Falls der 34 Zoll Monitor nix für mich ist.
akuji13
2018-07-17, 22:42:26
Vor Allem dieses Modell würde mir zusagen:
LG 34UC79G-B 34-Inch 21:9
https://geizhals.eu/lg-electronics-34uc79g-b-a1505099.html
Bestell den mal.
Möchte mal wissen ob mit der aktuellen firmware die mbr nun brauchbar ist. :D
Ansonsten war der ganz ok, einer der wenigen 34" IPS deren bleeding gering war und vor allem weiß statt Pissgelb. :wink:
TwoBeers
2018-07-18, 10:34:33
Bin daher gespannt ob mir morgen die 3440x1440 reichen.
Welchen haste denn bestellt? Den Samsung 34F791?
Den hab ich zumindest auf meiner Beobachtungsliste, der würde sich gut mit ner Vega 64 kombinieren lassen .. aber erst nach Turing. ;)
USS-VOYAGER
2018-07-18, 11:58:51
Ne den Iiyama Prolite XUB3490WQSU-B1.
Scheiss DHL hat aber nur den LG Monitor gerade geliefert der andere steht bei den noch rum und kommt erst morgen.....
horn 12
2018-07-18, 18:02:50
@USS-VOYAGER
Und was sagst zum LG 27UD 68-W
Kartenlehrling
2018-07-27, 21:49:00
You can run the #LG 32GK850F at 3840 x 2160 '4K' UHD over HDMI. It sprouts extra pixels and... No, not really.
But useful for those games consoles that don't support a 2560 x 1440 input.
Or for PC users who for whatever reason don't want to use VSR or DSR when gaming.
https://twitter.com/pcmonitors/status/1022914958294753280
USS-VOYAGER
2018-07-27, 22:22:21
@USS-VOYAGER
Und was sagst zum LG 27UD 68-W
Außer das der Monitor recht wackelig ist und das Netzteil recht heiß wird, ist der Monitor gut. Kein bisschen Backlight Bleeding. Auch sonst ist mir nix Negatives aufgefallen.
Kartenlehrling
2018-08-10, 16:31:35
https://www.guru3d.com/articles_pages/asus_rog_swift_pg27uq_monitor_review,1.html
Review: Asus RoG Swift PG27UQ Finally 4K G-SYNC 144Hz Gaming!
HDR 144Hz ist eigentlich Betrug, bei einem TV kann man noch mit 4:2:2 chroma leben aber am Monitor ist das ein Unding (https://www.guru3d.com/articles-pages/asus-rog-swift-pg27uq-monitor-review,3.html).
Rente
2018-08-10, 18:30:34
In Spielen fällt das zu 99% nicht auf und wenn es doch stört kann er immer noch mit 98 Hz betrieben werden. Ohne 10-Bit/HDR geht es außerdem bis 120 Hz.
> 100 FPS ist in den meisten aktuellen Spielen in 4K sowieso kaum zu erreichen ohne Details zu senken und man hat zusätzlich G-Sync.
Ach und falls die Argumentation mit dem Premium-Preis kommt: Welchen Monitor hat man denn als Alternative? Richtig, es gibt bisher und in näherer Zukunft keine...
Danke für den Link zum Review. ;)
Thunder99
2018-08-10, 19:18:02
Dennoch wird geschummelt...
Rente
2018-08-10, 19:30:01
Dennoch wird geschummelt...
Wo wird geschummelt? Sie werben mit 144 Hz und er schafft auch 144 Hz.
Ich weiß worauf du hinaus willst, aber das ist IMHO kein Schummeln sondern eine technische Einschränkung durch die fehlende Implementation von DSC.
Selbst wenn sie DSC (ohne Nachteile) hätten implementieren können, so unterstützen sehr wenige Grafikkarten dieses Feature bisher überhaupt.
Sie könnten den Monitor natürlich auch als 98 Hz-4K-HDR-G-Sync-Monitor verkaufen und 120/144 Hz als Zusatzfeature mit Einschränkungen erwähnen, da hat sich aber das Marketing wohl anders entschieden.
Würde gegenüber den bisherigen ROG-Monitoren mit 144/165 Hz für "Laien" auch etwas merkwürdig aussehen...
Kriton
2018-08-11, 09:56:43
Also darf man als Kunde keine Transparenz bei den technischen Eigenschaften erwarten?
DSC wurde doch mit DP 1.4 eingeführt. Nvida kontrolliert das G-Sync-Modul und die Grafikkarten. Was spricht also (prinzipiell) dagegen es entsprechend zu realisieren, oder alternativ offen (mit der Einschränkung) zu vermarkten?
Ich verstehe immer nicht, warum die Unternehmen bei so etwas verteidigt werden. Das ist gegen den Konsumenten (also uns) gerichtet. Das Argument mit dem Marketing klingt echt so, als wenn Du sagen willst: Wenn sie ehrlich wären, würde es ja keiner kaufen...:freak:
Entweder man implementiert es (sauber), oder man ist offen mit den Spezifikationen.
Edit: Ok, in den Produktspezifikationen steht: 10 Bit mit Dithering
Dort geben sie es also an.
Kartenlehrling
2018-08-11, 10:54:34
Edit: Ok, in den Produktspezifikationen steht: 10 Bit mit Dithering
Nicht mit, sondern 10bit bekommen sie hin über Dithering Technik, also 8bit mit FRC = 10bit Farbtiefe.
Jeder Tricks leider mit dieser Ausführung um sagen zu können ihre TV oder Monitor können 10bit,
ohne FRC bzw. Dithering wären die Monitor mit der heutigen Technik zu träge, somit als Gaming Monitor nicht einsetzbar.
https://computerhindinotes.com/wp-content/uploads/2018/07/What-is-Dithering-in-Multimedia.png
matty2580
2018-08-11, 15:53:49
Bei PCGH wurde mehrere neue Monitore vorgestellt mit G-Sync, alle mit IPS Panel und 144Hz, z.B. so etwas hier:
http://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/Asus-ROG-Swift-PG27UQ-und-Acer-Predator-x27-UHD-Monitore-mit-144-Hz-G-Sync-und-HDR-erscheinen-im-Mai-1256514/
Mich sprechen diese "Gaming"-Produkte nicht an, aber leider viele andere.
Aber das ist ja leider auch bei vielen anderen PC-Komponenten so.
Einfach Gaming darauf hauen. Und schon kann man das deutlich teurer verkaufen.
EinName
2018-08-11, 15:58:09
4K auf 27" macht keinen Sinn - aktive, laute Lüfter, Designfehler und ein unrealistischer Preis kommen dann noch oben drauf. Aber das ist dann schon OT jetzt. Alle neuen Monitore haben idR Freesync, GSync ist abseits einiger unnützen Erscheinungen wie die verlinkten faktisch tot.
Nuja, wenn nicht mit Touring warte ich halt auf Ampere, oder doch AMD...
"Mich sprechen diese "Gaming"-Produkte nicht an, aber leider viele andere." - jup. Das grausamste ist der ganze LED geblinke Wahnsinn, der vielen Jüngeren dann schon wichtiger ist als die eigentliche Qualität oder die wirklich zählenden Eigenschaften des Produktes selbst... aber so ist's halt, oberflächliche Generation -> oberflächliche Produkte und Marketing.
Cubitus
2018-08-11, 16:02:16
Wenn se wenigstens ein sauberes Panel ohne jegliches Bleeding und sonstigen Kompromissen (aktive Lüfter) herausbringen würden...
Aber nein und dafür noch 2000k verlangen :crazy:
Die können so ihren "Gaming Krempel" gern behalten..
Rente
2018-08-11, 16:04:10
Der HDR1000-fähige Monitor mit Freesync muss mir wohl entgangen sein...
Nvidia zieht ihr G-Sync-Ding noch mindestens 2-3 Jahre weiter durch, sie haben doch keinen wirklichen Grund.
EinName
2018-08-11, 16:11:19
Ich brauch kein HDR, und die mit HDR von NV haben derbe Design-Fehler und unrealistische Preise.
Ich will kein Bleeding, WQHD, kein TN, mindestens 144Hz. Aber das ist OT. Ich halt jetzt mal die Klappe und mache, sofern Turing kein FreeSync kann, nach Erscheinen einen "Suche Monitor" Thread auf - da können wir dann darüber schnacken.
Hier ist das gute Stück: Nicht 144Hz, aber ok.
https://www.heise.de/preisvergleich/asus-proart-pa32uc-k-90lm03h0-b02370-a1783971.html
Echtes HDR10, echte 1000cd/m2, 32", maximal 60 Hz, Freesync 40-60Hz.
=Floi=
2018-08-11, 16:14:00
G-Sync funktioniert auch anders und setzt auf hardware. kapiert es mal, dass das leider auch geld kostet, weil dort ne menge hardware am start ist. :rolleyes:
Das ist der "100% perfekt" weg ohne kompromisse. Das kostet auch geld. Man könnte es auch als prfi lösung für konsumer verstehen.
Freesync funktioniert anders. Es funktioniert auch, aber es kann auch keiner nachmessen wie gut. Ich wäre wohl damit auch zufrieden. Freesync ist ein anderer weg.
Screemer
2018-08-11, 16:32:27
Bullshit.
EinName
2018-08-11, 16:46:44
G-Sync funktioniert auch anders und setzt auf hardware. kapiert es mal, dass das leider auch geld kostet, weil dort ne menge hardware am start ist. :rolleyes:
Das ist der "100% perfekt" weg ohne kompromisse. Das kostet auch geld. Man könnte es auch als prfi lösung für konsumer verstehen.
....
Klar kostet Hardware Geld, wenn es nicht gleich der Preis eines halben Monitors wäre UND die Qualität der Panels dem Preis auch entsprechen würde, hätte ich damit gar kein Problem. Nur mag ich nicht von Amazon gesperrt werden, weil ich den 5. Monitor wegen Bleeding wieder zurück schicke, weil es eben nicht Premium ist sondern billiger Mist. Auch gibt es keine Verbesserungen, die 27" WQHD sind eigentlich immer noch die selben seit Release, während die FreeSync Modelle teilweise schon zum zweiten Mal abgelöst werden und z.B. schnellere Schaltzeiten haben. Ein fast drei Jahre alter 27" WQHD kostet mit GSync halt immer noch 700+. Und hat Bleeding.
matty2580
2018-08-11, 17:06:13
Die neuen IPS Monitore mit G-Sync, die in Zusammenarbeit mit Nvidia entstanden, und weitere werden folgen, sind der Entwicklung nicht um Jahre voraus.
Ich selbst würde z.B. gar keinen Monitor mehr mit IPS-Panel aktuell kaufen, weil dass reine Glückssache ist ob man einen guten Monitor erwischt, und eigentlich nur noch etwas mit VA-Panel, allein schon wegen des deutlich besseren Schwarzwert, und weil ich den Monitor auch noch für andere Sachen als Gaming nutze, für Streams, zum Schreiben, u.s.w.
Mein nächster Monitor wird wahrscheinlich wieder ein TV werden, die sowieso nur Free Sync anbieten, was mir übrigens egal ist. Wichtig ist ein Panel mit guten Schwarzwert für mich, hoher Bildwiederholfrequenz, modernen Anschlüssen, und was meinen PC gut unterstützt. Gaming muss da nicht unbedingt drauf stehen, da man mich mit solchen Marketingfloskeln nicht beeindrucken kann.
Troyan
2018-08-11, 17:09:15
VA Panels sind vollkommen unbrauchbar für mehr als 60Hz. Aber das spielt hier keine Rolle. Die IPS 144Hz Monitore von vor drei Jahren mit G-Sync sind selbst heute noch das beste, was es gibt. Und werden nur durch die neuen 4K 144Hz IPS Panels geschlagen.
Es hat auch nichts mit Turing zu tun.
Sam Pau
2018-08-11, 17:10:31
Ist zwar OT, aber
Auch gibt es keine Verbesserungen, die 27" WQHD sind eigentlich immer noch die selben seit Release, während die FreeSync Modelle teilweise schon zum zweiten Mal abgelöst werden und z.B. schnellere Schaltzeiten haben.
hör auf zu lügen!
G-Sync und FreeSync sind zwar auf dem Papier ebenbürtig, aber bei FreeSync hängt alles ab von der Implementierung seitens der Monitorhersteller - die bis jetzt kein ebenbürtiges Gegenprodukt auf dem Markt gebracht haben.
Im Bereich 144 Hz, WQHD, AHVA gibt es absolut keinen FreeSync Monitor, der den "alten" G-Sync Monitoren das Wasser reichen kann. Entweder ist die Range verkrüppelt, es gibt hohen Input Lag unterhalb 120 Hz oder es funktiniert das Overdrive nicht mit FreeSync zusammen.
Außerdem verwenden alle dasselbe Panel, die neuen Revisionen mit den angeblichen geringeren Schaltzeiten gibt es noch nicht.
Apropos Overdrive, bis jetzt gibt es immer noch kein adaptive Overdrive, das seit jeher Standard bei G-Sync ist!
Genug OT, diese Themen wurden ausführlich in den jeweiligen Threads diskutiert.
dargo
2018-08-12, 08:28:38
G-Sync funktioniert auch anders und setzt auf hardware. kapiert es mal, dass das leider auch geld kostet, weil dort ne menge hardware am start ist. :rolleyes:
Das ist der "100% perfekt" weg ohne kompromisse. Das kostet auch geld. Man könnte es auch als prfi lösung für konsumer verstehen.
Freesync funktioniert anders. Es funktioniert auch, aber es kann auch keiner nachmessen wie gut. Ich wäre wohl damit auch zufrieden. Freesync ist ein anderer weg.
:facepalm:
BiG OnE
2018-08-12, 10:25:00
Der HDR1000-fähige Monitor mit Freesync muss mir wohl entgangen sein...
Ist er Dir tatsächlich, Philips Momentum 436M6VBPAB.
Digidi
2018-08-12, 12:32:49
G-Sync funktioniert auch anders und setzt auf hardware. kapiert es mal, dass das leider auch geld kostet, weil dort ne menge hardware am start ist. :rolleyes:
Das ist der "100% perfekt" weg ohne kompromisse. Das kostet auch geld. Man könnte es auch als prfi lösung für konsumer verstehen.
Freesync funktioniert anders. Es funktioniert auch, aber es kann auch keiner nachmessen wie gut. Ich wäre wohl damit auch zufrieden. Freesync ist ein anderer weg.
Das prinzip ist 1zu 1 das selbe nur das NVIDIA da extra Hardware dazu braucht und damit auch den Input Lag in die Höhe treibt. Das ist klar die schlechtere Lösung.
Bucklew
2018-08-12, 12:42:40
Das prinzip ist 1zu 1 das selbe
Nein.
damit auch den Input Lag in die Höhe treibt.
Bullshit.
Digidi
2018-08-12, 12:55:36
Nein.
Bullshit.
https://m.youtube.com/watch?v=MzHxhjcE0eQ
Mimimimi .....
Und jetzt Beweis das Gegenteil.
Daredevil
2018-08-12, 12:57:21
Alter, ein Test von 2015 mit Windows 7. Damit geht der Troll der Woche definitiv an dich. ;D
Hier mal was ( informativeres ) aktuelles: https://www.youtube.com/watch?v=mVNRNOcLUuA
Digidi
2018-08-12, 13:05:20
Alter, ein Test von 2015 mit Windows 7. Damit geht der Troll der Woche definitiv an dich. ;D
Hier mal was ( informativeres ) aktuelles: https://www.youtube.com/watch?v=mVNRNOcLUuA
Ja ich bin der Troll. Troll sind die die behaupten FreeSync und GSync ist nicht das gleiche. Und bei Input Lag denk mal nach das Signal muss einen extra weg über eine eigene Platine mit eigenem Prozessor gehen. Sowas kostet immer Input Lag. Das ist einfache Physik!
Jetzt geh weiter Trollen aber bitte nicht hier.
Toller Test eine rx570 gegen eine 1080. Da macht die Rx570 beim Input Lag eine gute Figur
Bucklew
2018-08-12, 13:08:57
https://m.youtube.com/watch?v=MzHxhjcE0eQ
Mimimimi .....
Und jetzt Beweis das Gegenteil.
Hast du dir das Video überhaupt angeschaut? Ich denke nicht :rolleyes:
Ja ich bin der Troll.
Wenn du es schon sagst: Ja :up:
Digidi
2018-08-12, 13:32:24
Hast du dir das Video überhaupt angeschaut? Ich denke nicht :rolleyes:
Wenn du es schon sagst: Ja :up:
Und wieder mal ein Bedeutungsloser Beitrag deinerseits! Wo ist der Gegenbeweis.
gravitationsfeld
2018-08-12, 13:42:06
Hast du dir das Video überhaupt angeschaut? Ich denke nicht :rolleyes:
Linus ist keine serioese Quelle. Ich kann mir seine Popularitaet nicht wirklich erklaeren.
Was sind denn die genauen Unterschiede zwischen G-Sync und Freesync auf technischer Ebene? Mir konnte das bisher auch keiner erklaeren. Mal abgesehen von verschiedenen Limits fuer frame doubling etc. sollten sie genau das gleiche machen?
Rente
2018-08-12, 14:31:04
Ist er Dir tatsächlich, Philips Momentum 436M6VBPAB.
Nö, ist mir nicht. 48-60 Hz Range, 32 Dimming-Zonen und 43" mit festem Standfuß - das ist ein Fernseher mit minimalen Anpassungen für den PC-Betrieb.
Ich würde ebenfalls wünschen das Nvidia endlich FreeSync mit Turing unterstützt, aber für sie gibt es aus meiner Sicht momentan noch absolut keinen Grund.
AMD müsste viel aggressiver mit Monitor-Herstellern zusammen arbeiten (und eventuell auch mal Exklusiv-Varianten mit ihnen anbieten) um Nvidia in diesem kleinen Bereich überhaupt herauszufordern.
Bösewicht
2018-08-12, 14:34:40
Und bei Input Lag denk mal nach das Signal muss einen extra weg über eine eigene Platine mit eigenem Prozessor gehen. Sowas kostet immer Input Lag. Das ist einfache Physik!
scheinbar ist nvidia da schneller was regst du dich da drüber so auf?
übrigens wird freesync dann wohl in software gelöst das wiederum wird in koordination mit gpu und cpu und speicher realisiert und da entsteht genau so lag...
eine extra platine da bewegt sich das ganze mit fast lichtgeschwindigkeit das kann ehr schlecht in ms gemessen werden aber selbst wenn da auch ordentlich geschaltet wird kann ein diskreter dsp die aufgaben durchaus schneller verarbeiten weil er nur dafür da ist und darauf optimiert werden kann.
ist doch ganz einfaches technik fachwissen:tongue:
Digidi
2018-08-12, 14:38:54
scheinbar ist nvidia da schneller was regst du dich da drüber so auf?
übrigens wird freesync dann wohl in software gelöst das wiederum wird in koordination mit gpu und cpu und speicher realisiert und da entsteht genau so lag...
eine extra platine da bewegt sich das ganze mit fast lichtgeschwindigkeit das kann ehr schlecht in ms gemessen werden aber selbst wenn da auch ordentlich geschaltet wird kann ein diskreter dsp die aufgaben durchaus schneller verarbeiten weil er nur dafür da ist und darauf optimiert werden kann.
ist doch ganz einfaches technik fachwissen:tongue:
FreeSync ist direkt im scaler vom Display integriert und soweit meine letzte Info eigentlich nur der VESA Standart.
Die Signale Bewegen sich eben nicht mit Lichtgeschwindigkeit sondern mit dem Takt der Platine ;). Je mehr Transistoren dazwischen um so größer der Inputlag.
@gravitationsfeld
Ich wünschte ja das mal ein paar mehr Magazine den Test machen. Linus ist auch nicht meine erste Wahl. Wenn man die Renderzeit mit einbezieht in dem anderen Video ist der Input Lag zur rx570 wirklich nicht herausragend.
fondness
2018-08-12, 14:47:40
Was sind denn die genauen Unterschiede zwischen G-Sync und Freesync auf technischer Ebene? Mir konnte das bisher auch keiner erklaeren. Mal abgesehen von verschiedenen Limits fuer frame doubling etc. sollten sie genau das gleiche machen?
Tut es auch, das bestätigt auch jede seriöse Untersuchung bzw. jeder seriöse Vergleich. Unterschiede gibt es einzig in der Implementierung der jeweiligen Hersteller.
Gipsel
2018-08-12, 22:05:20
Was sind denn die genauen Unterschiede zwischen G-Sync und Freesync auf technischer Ebene? Mir konnte das bisher auch keiner erklaeren. Mal abgesehen von verschiedenen Limits fuer frame doubling etc. sollten sie genau das gleiche machen?Das hatten wir in diesem Thread schon mal vor ein paar Jahren erörtert:
Das grundlegende Prinzip ist natürlich identisch, nämlich daß die GPU nicht mit fester Wiederholrate ein Frame zum Monitor schickt, sondern immer dann, wenn eines fertig wird (das weiß die Display-Engine der GPU im Prinzip ja, sonst würde VSYNC nicht funzen). Realisiert wird das (wie im Threadtitel steht) über eine variable Länge des vblank-Intervalls hinter dem Frame. Das wird einfach so lang gemacht, bis das nächste Frame kommt. Die eigentliche Datenübertragung des Frames findet immer mit der Geschwindigkeit der maximalen Refreshrate statt (bei einer Range bis 144Hz dauert also die Übertragung unabhängig von der aktuellen Frame-/Refreshrate immer ~6,9ms), nur das Blanking-Intervall danach kann eben variabel länger als üblich dauern. Bis dahin ist Alles gleich.
Worin sich A-/FreeSync und G-Sync unterscheiden, ist, wie das genau gehandhabt wird, also die Aufgabenteilung zwischen Monitorelektronik (insbesondere der Scaler, das GSync-Modul ist im Prinzip nur eine besonders teure Version davon) und Display-Engine der GPU.
Zuerst mal A-/FreeSync:
Der Monitor teilt der Grafikkarte seine unterstütze Range mit und die Display-Engine stellt sicher, daß die Refreshes sich an diese Range halten. Nehmen wir mal eine Range von 50-144Hz an, also Refresh-Abstände zwischen 6,9ms und 20ms. Die Display-Engine stellt dann sicher, daß es mindestens alle 20ms einen Refresh gibt, auch wenn kein neues Frame gerendert wurde. Es gibt nach Ablauf der 20ms dann praktisch ein Zwangsrefresh mit dem alten Bild (der dann natürlich auch knapp 7ms dauert). Wird während dieses Zwangsrefreshes ein neues Frame fertig, muß gewartet werden (VSYNC on) oder man hat Tearing (VSYNC off). Um das zu vermeiden bzw. die Wahrscheinlichkeit dafür zu verringern (komplett ausschließen geht nicht, GSync hat das gleiche Problem), kann die Grafikkarte LFC unterstützen (das ist kein Teil der ASync-Spec, man ändert nur, wann genau innerhalb der erlaubten Range ein Zwangsrefresh eingeschoben wird [z.B. einfach in dem man die letzte Frametime oder ein kurzzeitiges Mittel von zwei oder drei als Schätzwert für die voraussichtliche Frametime des aktuellen Frames nimmt; klappt also bei glatten Frametime-Verläufen am besten]), wenn die Range des Monitors groß genug ist. Aber ob das wirklich ein Hardware-Feature der Display-Engine ist oder nicht oder ob der Treiber da einen Wert pro Frame setzt, entzieht sich meiner Kenntnis.
Nun G-Sync:
Dort sendet man offenbar wirklich nur jedes Mal, wenn ein neues Frame fertig ist. Die Zwangsrefreshes werden nicht von der GPU-Display-Engine gehandhabt, sondern vom GSync-Modul im Monitor. Das Modul kennt ja die Range des Panels und handhabt das inklusive LFC (also die Zwangsrefreshes an möglichst günstigen Punkten einzuschieben). Dafür wird das Bild auf dem Speicher des GSync-Moduls zwischengespeichert (müssen etwas bessere normale Scaler auch in irgendeiner Form machen, z.B. für die richtigen Overdrive-Settings ist der Unterschied zum vorherigen Bild wichtig). Die Zwangsrefreshes nutzen dann den als Quelle. Der Panelrefresh dauert natürlich trotzdem etwa genau so lange, weil die Daten natürlich genau so über das Interface vom Modul zum Panel müssen und die Bandbreite davon bei jedem mir bekannten Panel gerade so zur maximalen Refreshrate paßt. Der Zwangsrefresh geht also auch nicht schneller, wenn er vom GSync-Modul kommt (wenn man nicht anfängt, das mit µs-Granularität zu betrachten).
Zusätzlich gab es frühe Berichte, daß es für die Übertragung jedes Frames einen Handshake zwischen GPU und GSync-Modul gibt (z.B. über den AUX-Channels von Display-Port). Im Prinzip sollte eine Art Polling (Frequenz 1-2 kHz) stattfinden, mit der die Möglichkeit der Übertragung eines neuen Frames abgefragt wird (so richtig klar ist mir aber nicht, warum man das so machen sollte [irgendwelche obskuren Einschränkungen von irgendeinem Hardwareteil?]). Dies addierte im Mittel ein paar hundert µs Frametime bei Aktivierung von GSync, was zumindest anfangs auch direkt meßbar war (ob es das jetzt noch so ist, weiß ich nicht; ich vermute mal, daß man das inzwischen gefixt hat und es eher wie A-Sync läuft; aber das können vielleicht Andere beantworten). Das kann darauf hindeuten, daß zumindest anfangs grafikkartenseitig die Display-Engines nicht flexibel genug waren, um das anders als durch Softwareintervention per periodischen Timerinterrupt zu handhaben, aber das ist im Prinzip nur eine grobe Theorie.
Im Prinzip nimmt nV den Monitorherstellern ein wenig die Arbeit ab, eine geeignete Monitorelektronik zu beschaffen (bzw. darauf zu warten, daß Scaler von der Stange das gewünschte Featurset unterstützen) und gibt vermutlich auch Hilfe bei der Abstimmung auf das Panel (was nicht ganz trivial zu sein scheint, wenn man sich mal ansieht, wie oft das einige Hersteller versemmeln). Aber abgesehen davon, halte ich persönlich das GSync-Modul nur für einen teuren Hardware-Dongle. Man benötigt keinen FPGA da für irgendwas, was die da tun (hat eben Vorteile bei der time-to-market zuungunsten des Preises und nV behält mehr Kontrolle [auch qualitätstechnisch]).
GSync kann prinzipiell nichts, was nicht auch mit A-Sync (und dem darauf aufbauenden FreeSync) geht. Und wie ich hier im Thread schon vor Jahren schrieb, würde es mich nicht wundern, wenn nV mit einem Mal G-Sync 2.0 ankündigt, was dann auch mit A-Sync-Monitoren funktioniert und die G-Sync-Monitore dann nur eine Zertifizierung zu gewissen Standards erfüllen müssen, damit sie sich so nennen dürfen. Im Mobilbereich geht es ja auch ohne G-Sync-Modul.
TGKlaus
2018-08-12, 22:28:02
Sorry Gipsel. Aber das ist riesengrosser Quatsch was du da schreibst.
gravitationsfeld
2018-08-12, 23:16:38
TGKlaus, was stimmt denn nicht?
Gipsel
2018-08-12, 23:16:44
Sorry Gipsel. Aber das ist riesengrosser Quatsch was du da schreibst.Na dann erleuchte uns doch mal! ;)
TGKlaus
2018-08-13, 11:26:39
Wie lief das noch bei der letzten techn. Diskussion, die wir geführt hatten, bei der du total falsch lagst, Gipsel?
Ach ja, ich bin mitten in der Diskussion für 30 Tage gesperrt wurden und du hast nachträglich meine Posts verändert, was du erst abgestritten hast, durch die Änderungsmeldung aber klar nachweisbar war und ich (durch die Sperre) im normalen Forum nicht richtig stellen konnte.
Als ob ich mit dir nochmal eine techn. Diskussion führen würde ...
Locuza
2018-08-13, 11:49:59
Du bist sicher gesperrt worden, weil Gipsel deine starken Argumente nicht gepasst haben. :wink:
War es zufällig die Geschichte rund um EMIB und UIB/AIB?
Wo du deine Argumente nicht ausführen konntest, aber EOD gerufen hast, weil dir die Behauptungen der anderen nicht gepasst haben und du diese als dumm und getrolle gewertet hast?
Und weil du nicht mit technischen Argumenten überzeugen kannst, verzichtest du jetzt anscheinend folgerichtig ganz darauf.
Wie wäre es wenn du dann einfach das Forum verlässt? ;)
Gipsel
2018-08-13, 13:53:41
Wer keine Diskussion führen will, ist in einem Diskussionsforum falsch.
Und Diskussionen über aktuelle oder vergangene Moderationsentscheidungen (im erwähnten Fall keine von mir) können gerne im Kontaktforum geführt werden, wie der Betreffende sicher weiß. Hier ist das Ausbreiten von (z.T. wenig objektiven) persönlichen Meinungen dazu klar OT.
Danke.
Bucklew
2018-08-13, 14:14:58
Linus ist keine serioese Quelle. Ich kann mir seine Popularitaet nicht wirklich erklaeren.
Das ist sicherlich korrekt, allerdings beziehe ich mich mit meiner Aussage eher darauf, dass auch Linus kein generelles Urteil fällt, sondern, dass es immer wieder auf diverse Faktoren ankommt, welche Technologie den geringeren Inputlag hat.
Pre se zu sagen "G-Sync at einen höheren InputLag als FreeSync" ist definitiv falsch.
Was sind denn die genauen Unterschiede zwischen G-Sync und Freesync auf technischer Ebene? Mir konnte das bisher auch keiner erklaeren. Mal abgesehen von verschiedenen Limits fuer frame doubling etc. sollten sie genau das gleiche machen?
Der größte Unterschied besteht darin, wer die entscheidende Instanz ist.
Bei FreeSync (und auch bei normalem Sync) ist der Monitor die Instanz, die entscheidet, wann ein Bild von der GPU zu senden ist. Tut dies die GPU nicht, gibt es Artefakte oder gar komplette Zusammenbrüche des Bildes auf dem Monitor.
Bei G-Sync ist es dagegen die GPU, die entscheidet, wann ein Bild an den Monitor geht - wenn der Frame fertig gerendert ist. Aus diesem Grunde würde ich auch - rein technisch - davon ausgehen, dass der InputLag bei G-Sync niedriger ist. Während FreeSync eben noch den zwangsweise notwendigen alten Frame überträgt, kann G-Sync den Start der Übertragung aussetzen und den Frame sofort übertragen, wenn er fertig ist.
Gipsel
2018-08-13, 14:21:46
Der größte Unterschied besteht darin, wer die entscheidende Instanz ist.
Bei FreeSync (und auch bei normalem Sync) ist der Monitor die Instanz, die entscheidet, wann ein Bild von der GPU zu senden ist.Das ist irreführend, um nicht zu sagen falsch. Bei A-/FreeSync teilt der Monitor nur seine unterstützte Range mit. Die Entscheidung, wann genau ein Refresh erfolgt, liegt natürlich bei der Grafikkarte (die nur sicherstellen muß, daß es in den unterstützten Bereich fällt). Dies wird übrigens für die LFC-Funktion genutzt (wenn die Range größer als Faktor 2 überstreicht), um einen Refresh an möglichst günstiger Stelle einzuschieben, so daß die Wahrscheinlichkeit der Kollision mit dem neuen Frame möglichst minimiert wird. Das ist im Prinzip identisch zu der äquivalenten Funktion des G-Sync-Moduls (weswegen es auch die gleichen Probleme mit den Kollisionen geben kann).
Während FreeSync eben noch den zwangsweise notwendigen alten Frame überträgt, kann G-Sync den Start der Übertragung aussetzen und den Frame sofort übertragen, wenn er fertig ist.Das funktioniert mit FreeSync und G-Sync ganz äquivalent. Wenn das G-Sync-Modul den Refresh des Panels begonnen hat, wird (zumindest bei aktiviertem VSync bzw. den Refreshkollisionen, bei Framerate oberhalb der Range und deaktiviertem VSync natürlich nicht) das neue Frame auch nicht sofort dargestellt (sondern muß den laufenden Refresh abwarten). Das trifft wie gesagt auch bei Kollisionen des Refreshes im LFC-Bereich zu (bei stark fluktuierenden Frameraten steigt die Wahrscheinlichkeit dafür). Die Einschränkungen sind prinzipiell die selben.
Bucklew
2018-08-13, 14:32:53
Das ist irreführend, um nicht zu sagen falsch. Bei A-/FreeSync teilt der Monitor nur seine unterstützte Range mit. Die Entscheidung, wann genau ein Refresh erfolgt, liegt natürlich bei der Grafikkarte (die nur sicherstellen muß, daß es in den unterstützten Bereich fällt).
Wo ist der Unterschied, ob die GPU 60Hz fix liefern muss oder 30Hz fix liefern muss, aber auch 120 liefern kann?
Soweit ich weiß fällt auch bei FreeSync noch wie früher die Synchronisation zusammen, sobald die GPU ein vom Monitor gefordertes/erwartetes Bild auslässt. Deshalb ist LFC ja auch nicht - wie bei G-Sync - Standard bei FreeSync, sondern Monitor/Scaler-abhängig.
Das funktioniert mit FreeSync und G-Sync ganz äquivalent. Wenn das G-Sync-Modul den Refresh des Panels begonnen hat, wird (zumindest bei aktiviertem VSync bzw. den Refreshkollisionen, bei Framerate oberhalb der Range und deaktiviertem VSync natürlich nicht) das neue Frame auch nicht sofort dargestellt (sondern muß den laufenden Refresh abwarten). Das trifft wie gesagt auch bei Kollisionen des Refreshes im LFC-Bereich zu (bei stark fluktuierenden Frameraten steigt die Wahrscheinlichkeit dafür). Die Einschränkungen sind prinzipiell die selben.
Der Unterschied bei G-Sync ist, dass es keine Übertragung von nutzlosen Frames gibt. FrameDoubleing geschieht im G-Sync Modul selbst. FreeSync dagegen muss den selben Frame eben x Male erneut senden und blockiert natürlich für diese Zeit den DisplayBus. Während bei FreeSync also noch der alte Frame übertragen wird, gibt's bei G-Sync schon den Neuen ;)
Hier wäre also tendenziell der InputLag niedriger.
maguumo
2018-08-13, 14:33:57
Bei G-Sync ist es dagegen die GPU, die entscheidet, wann ein Bild an den Monitor geht - wenn der Frame fertig gerendert ist.
Wo ist das bei Freesync/VESA Adaptive Sync anders? Wenn absehbar ist das innerhalb des Refresh-Fensters kein neues Bild fertig wird wird das alte nochmal rausgesendet, wenn ein neues fertig ist eben das neue. Solange das G-Sync Modul nicht irgendwelche Infos von der GPU bekommt (tut es das eigentlich?) ist die Lösung doch eigentlich sogar flexibler und bietet die Option aktiv zu vermeiden das ein neues Bild fertig wird während der Monitor gerade das alte neu aufbaut indem man ihn das alte Bild früher neu aufbauen lässt.
Bucklew
2018-08-13, 14:38:42
Wo ist das bei Freesync/VESA Adaptive Sync anders? Wenn absehbar ist das innerhalb des Refresh-Fensters kein neues Bild fertig wird wird das alte nochmal rausgesendet, wenn ein neues fertig ist eben das neue.
Bei G-Sync ist es eben nicht nötig, das alte nochmal rauszusenden. Das ist ja schon im Monitor vorhanden und wird einfach (vom Modul) erneut angezeigt.
In der Zeit, während das alte Bild bei FreeSync noch übertragen wird, kann bei G-Sync bereits der neue Frame gesendet werden.
maguumo
2018-08-13, 14:39:45
Wenn das alte Bild nochmal gesendet wird dann ja nur weil noch kein neues fertig ist. Wie sollte das also zu Problemen führen?
Screemer
2018-08-13, 14:43:59
Der Unterschied bei G-Sync ist, dass es keine Übertragung von nutzlosen Frames gibt. FrameDoubleing geschieht im G-Sync Modul selbst. FreeSync dagegen muss den selben Frame eben x Male erneut senden und blockiert natürlich für diese Zeit den DisplayBus. Während bei FreeSync also noch der alte Frame übertragen wird, gibt's bei gsync schon den Neuen ;)
Hier wäre also tendenziell der InputLag niedriger.ftfy, denn sonst ergibt deine Aussage keinen Sinn. Nichts des so trotz ist die Aussage falsch. Auch bei async wird die Übertragung des alten frames abgebrochen und der neue gesendet, wenn er fertig ist und der refreshintervall gerade passt. Die displays/scaler brauchen sowieso nen Buffer für den letzten frame.
Bucklew
2018-08-13, 14:46:20
Wie sollte das also zu Problemen führen?
Weil der Bus von der (notwendigen) Übertragung des alten Frames blockiert wird.
ftfy, denn sonst ergibt deine Aussage keinen Sinn. Nichts des so trotz ist die Aussage falsch. Auch bei async wird die Übertragung des alten frames abgebrochen und der neue gesendet, wenn er fertig ist und der refreshintervall gerade passt. Die displays/scaler brauchen sowieso nen Buffer für den letzten frame.
Hast Recht, Brainfart.
Den Rest halte ich für Blödsinn, denn wenn deine These passt (Übertragung kann abgebrochen werden, Bild ist im Scaler gebuffert), dann wäre ja jeder FreeSync-Monitor in der Lage LFC anzubieten. Weder bietet es aber jeder Monitor noch dazu gibt es merkwürdige Beschränkungen (max. Refreshrate muss 2,5x oberhalb der min. Refreshrate liegen).
Screemer
2018-08-13, 14:51:21
Wenn ich mir diese 3 Jahre alte Diskussion auf dem grünen Planeten so ansehen, dann wundert es mich schon sehr wieviele gsync immer noch aufs Blut verteidigen: https://www.planet3dnow.de/vbulletin/threads/421455-Update-GSync-als-grosser-Bluff-entlarvt-Nvidia-nutzt-AdaptiveSync-der-VESA-fuer-GSync?p=4982724&viewfull=1#post4982724
Savay
2018-08-13, 14:52:41
merkwürdige Beschränkungen (max. Refreshrate muss 2,5x oberhalb der min. Refreshrate liegen).
Das ist keine "Beschränkung" sondern allenfalls eine Empfehlung damit es in jedem erdenklichen Grenzfall funktioniert. :freak:
Glaubst du übrigens ernsthaft das es bei nVs Variante irgendwie großartig anders ist?!
Gipsel
2018-08-13, 14:54:27
Wo ist der Unterschied, ob die GPU 60Hz fix liefern muss oder 30Hz fix liefern muss, aber auch 120 liefern kann?Unverständlich, was Du damit sagen willst.
Soweit ich weiß fällt auch bei FreeSync noch wie früher die Synchronisation zusammen, sobald die GPU ein vom Monitor gefordertes/erwartetes Bild auslässt.Der Monitor fordert kein Bild. Das ist Dein Denkfehler. Es kommt eventuell zu einem schwarzen Bildschirm, wenn zu lange kein Bild kommt, aber dafür kommuniziert der ja seine unterstützte Range (einmal, nicht für jeden Frame), damit die GPU das vermeiden kann. Und das ist für die Funktionsweise irrelevant.
Deshalb ist LFC ja auch nicht - wie bei G-Sync - Standard bei FreeSync, sondern Monitor/Scaler-abhängig.Es ist nur von der unterstützten Range des Monitors abhängig. Ist die größer als Faktor 2 (am besten ist eher was in Richtung Faktor 3, weil das die Kollisionswahrscheinlichkeit der Refreshes verringert), kann die GPU die Refreshes entsprechend der aktuellen Framerate so einschieben, daß es zu keinen Kollisionen kommt. Was Anderes macht das GSync-Modul auch nicht (würde dort die Range kleiner als Faktor 2 werden, würde LFC auch nicht funktionieren).
Der Unterschied bei G-Sync ist, dass es keine Übertragung von nutzlosen Frames gibt. FrameDoubleing geschieht im G-Sync Modul selbst.Und refresht trotzdem das Panel (was praktisch genau so lange dauert und es für diese Zeit ebenso blockiert). Es ist praktisch völlig egal, ob der Refresh aus dem Speicher des GSync-Moduls kommt oder über das Monitorkabel. Okay, es spart vielleicht 1W oder so für die Datenübertragung (und verbraucht einiges mehr für den FPGA auf dem Modul).
FreeSync dagegen muss den selben Frame eben x Male erneut senden und blockiert natürlich für diese Zeit den DisplayBus. Während bei FreeSync also noch der alte Frame übertragen wird, gibt's bei FreeSync schon den Neuen ;)Eben nicht. Läuft ein Refresh aus dem Speicher des G-Sync-Moduls, kann auch dort für die Dauer des Refreshes kein neuer Frame angezeigt werden. Es ist praktisch kein Unterschied (weil der Panelrefresh praktisch genau so lange dauert wie die Übertragung des Frames über das Monitorkabel und da fast nichts gepuffert werden muß). Der Unterschied sind vielleicht ein paar Mikrosekunden.
Bei G-Sync ist es eben nicht nötig, das alte nochmal rauszusenden. Das ist ja schon im Monitor vorhanden und wird einfach (vom Modul) erneut angezeigt.Was genau so lange wie die Übertragung von der GPU dauert. Ein Vorteil ergibt sich da nicht.
In der Zeit, während das alte Bild bei FreeSync noch übertragen wird, kann bei G-Sync bereits der neue Frame gesendet werden.Es kann aber auch nicht früher angezeigt werden, weil der Panelrefresh abgewartet werden muß.
Bucklew
2018-08-13, 14:54:39
Wenn ich mir diese 3 Jahre alte Diskussion auf dem grünen Planeten so ansehen, dann wundert es mich schon sehr wieviele gsync immer noch aufs Blut verteidigen: https://www.planet3dnow.de/vbulletin/threads/421455-Update-GSync-als-grosser-Bluff-entlarvt-Nvidia-nutzt-AdaptiveSync-der-VESA-fuer-GSync?p=4982724&viewfull=1#post4982724
Herrje, da diskutieren ja auch zwei wirkliche "Experten" miteinander....
Alleine das da von Betrug die Rede ist :facepalm:
Bucklew
2018-08-13, 15:03:56
Unverständlich, was Du damit sagen willst.
Steht doch da. Bei einer minimalen Refreshrate von 30 Hz muss die GPU weiterhin 30 Hz mindestens liefern, ansonsten bricht die Synchronisation zusammen.
Wo ist da also der Unterschied zum (klassischen) Sync? Genau: Nicht vorhanden. Weiterhin muss die GPU das liefern, was der Monitor will.
Der Monitor fordert kein Bild. Das ist Dein Denkfehler. Es kommt eventuell zu einem schwarzen Bildschirm, wenn zu lange kein Bild kommt, aber dafür kommuniziert der ja seine unterstützte Range (einmal, nicht für jeden Frame), damit die GPU das vermeiden kann. Und das ist für die Funktionsweise irrelevant.
Blödsinn, du verstehst null was ich schreibe. Der Monitor fordert über das EDID einen spezifischen Modi (Auflösung, Refresh etc. pp.) an und erwartet dann exakt einen dieser Modi. Wird keiner der Modi geliefert, wird kein Bild dargestellt. Deshalb schrieb ich ja auch für die Experten, die gerne sinnlose Semanik-Diskussionen führen, "gefordert/erwartet" ;)
Wenn nur der FreeSync Monitor mindest 30 Hz erwartet, die GPU aber nur 25 fps liefert, gibt es keine Bilddarstellung. Bei G-Sync dagegen sehr wohl. Es wird dann eben jeder 5. Frame doppelt angezeigt.
Es ist nur von der unterstützten Range des Monitors abhängig. Ist die größer als Faktor 2 (am besten ist eher was in Richtung Faktor 3, weil das die Kollisionswahrscheinlichkeit der Refreshes verringert), kann die GPU die Refreshes entsprechend der aktuellen Framerate so einschieben, daß es zu keinen Kollisionen kommt. Was Anderes macht das GSync-Modul auch nicht (würde dort die Range kleiner als Faktor 2 werden, würde LFC auch nicht funktionieren).
Es gibt auch Monitore, gerade zu Beginn von FreeSync, die trotz Faktor 2,5 oder gar 3 kein LFC unterstützen. Und G-Sync unterstützt eben völlig problemlos LFC, selbst wenn der Faktor nun 2 beträgt:
https://www.heise.de/preisvergleich/acer-xb1-xb281hkbmiprz-um-px1ee-001-a1320508.html?hloc=de
Eben weil es bei G-Sync eine völlige Trennung gibt zwischen Übertragung des Frames von der GPU und Darstellung auf dem Panel. Bei FreeSync ist diese immer noch wie eh und je vorhanden.
Und refresht trotzdem das Panel (was praktisch genau so lange dauert und es für diese Zeit ebenso blockiert). Es ist praktisch völlig egal, ob der Refresh aus dem Speicher des GSync-Moduls kommt oder über das Monitorkabel. Okay, es spart vielleicht 1W oder so für die Datenübertragung (und verbraucht einiges mehr für den FPGA auf dem Modul).
Nein, das ist eben nicht egal, weil eben die Übertragung eines Frames auch mehrere Millisekunden in Anspruch nimmt. Gerade bei stark schwankenden Frameraten, kann hier der InputLag reduziert werden, weil der neue Frame früher verfügbar ist, siehe das Video von Dardevil.
[mehrfache Wiederholung der gleichen Unwahrheiten gelöscht]
Daredevil
2018-08-13, 15:04:42
Selbst wenn GSync ein klein wenig besser sein sollte, ist der Preisaufschlag für GSync Monitore immer noch nicht wirklich gerechtfertigt.
Wenn Freesync es ohne Hardware schafft und Nvidia das ganze mit Hardware realisiert( Ein wenig besser ), aber 100-150€ Aufpreis nimmt, dann hat AMD es einfach effizienter hinbekommen.
Bucklew
2018-08-13, 15:07:06
dann hat AMD es einfach effizienter hinbekommen.
Aber auch nur, weil man auf einen VESA-Standard einen eigenen Marketingstempel gedrückt hat ;)
Man hätte es auch einfach AdaptiveSync nennen können. Sie nennen die DisplayPort Ausgänge ja auch nicht FreePort.
Screemer
2018-08-13, 15:10:30
Herrje, da diskutieren ja auch zwei wirkliche "Experten" miteinander....
Alleine das da von Betrug die Rede ist :facepalm:
darum geht's überhaupt nicht. es ging mir eher darum, dass damals viele dachten nvidia würde über kurz oder lang eben das ganze entweder selbst in nen ic gießen oder zumindest scaler als "gsync"-ready zertifizieren. nichts ist passiert. nv setzt immer noch völlig sinnlos auf nen fpga mit endlos viel speicher. der dort genannte STDP7320 untersützt auch externen ram als buffer. dieser wird sicherlich für overdrive genutzt und könnte auch als buffer für die displays genutzt werden. für panel-self-refresh braucht man das sowieso.
Es gibt auch Monitore, gerade zu Beginn von FreeSync, die trotz Faktor 2,5 oder gar 3 kein LFC unterstützen.
da hätte ich gern mal nen link dazu. das hört sich nach hartem bullshit an. darüber entschiedet nicht der monitor sondern amds treiber.
maguumo
2018-08-13, 15:15:11
Weil der Bus von der (notwendigen) Übertragung des alten Frames blockiert wird.
Wie soll da was blockiert werden? Wenn das alte Bild erneut gesendet wird ist kein neues da was übertragen werden könnte.
Troyan
2018-08-13, 15:15:13
Früher glaubten die Leute auch, dass Freesync Hz-Zahlen von 2 bis 240 unterstützen würde.
Selbst wenn GSync ein klein wenig besser sein sollte, ist der Preisaufschlag für GSync Monitore immer noch nicht wirklich gerechtfertigt.
Wenn Freesync es ohne Hardware schafft und Nvidia das ganze mit Hardware realisiert( Ein wenig besser ), aber 100-150€ Aufpreis nimmt, dann hat AMD es einfach effizienter hinbekommen.
Das kommt eben drauf an: G-Sync garantiert dir gewisse Standards, die bei Freesync meisten nur zum Teil erfüllt werden. Gleichzeitig fällt Freesync ab, sobald die Auflösung und Hz-Zahl steigen. Laut Geizhals gibt es nur einen 4K Monitor, der LFC Bei Freesync unterstützt...
Screemer
2018-08-13, 15:17:29
Früher glaubten die Leute auch, dass Freesync Hz-Zahlen von 2 bis 240 unterstützen würde.
wenn es keine panels gibt die das können, dann kann es auch keine produkte geben die die spec ausnutzen. wie auch?
Laut Geizhals gibt es nur einen 4K Monitor, der LFC Bei Freesync unterstützt...
da es keinen displaystandard gibt der mehr als 60hz bei 4k unterstützt ist das auch recht schwierig. wen interessieren denn bitte <40hz als gamer?
Bucklew
2018-08-13, 15:18:34
darum geht's überhaupt nicht. es ging mir eher darum, dass damals viele dachten nvidia würde über kurz oder lang eben das ganze entweder selbst in nen ic gießen oder zumindest scaler als "gsync"-ready zertifizieren. nichts ist passiert. nv setzt immer noch völlig sinnlos auf nen fpga mit endlos viel speicher.
Schön, dass du so ein Experte bist, um zu bewerten, ob das mit dem FPGA und dem Speicher sinnlos ist oder nicht :up:
Ich wollte aber eigentlich viel lieber eine Erklärung dazu hören, warum denn LFC nicht von Anfang an bei jedem Monitor mit FreeSync funktioniert, wenn der Scaler sowieso den Frame zwischen speichert?
Wie soll da was blockiert werden? Wenn das alte Bild erneut gesendet wird ist kein neues da was übertragen werden könnte.
Ein paar Nanosekunden später ja vielleicht schon. Dann ist der Bus mit dem alten Frame blockiert, wo der neue bereits schon übertragen werden könnten. (Und bei G-Sync eben: Übertragen wird)
wenn es keine panels gibt die das können, dann kann es auch keine produkte geben die die spec ausnutzen. wie auch?
Hätte NVIDIA mal mit 1 bis 100000000000 Hz geworben bei G-Sync ;D
dargo
2018-08-13, 15:24:53
Früher glaubten die Leute auch, dass Freesync Hz-Zahlen von 2 bis 240 unterstützen würde.
Früher glaubten Leute auch jeder 144Hz G-Sync Monitor würde mit minimum 30Hz refreshen. Heute sind wir schlauer.
VkrJU5d2RfA
btw.
Die Rede bei Freesync war von 9-240Hz wenn du schon trollen möchtest.
https://www.hardwareluxx.de/images/stories/galleries/reviews/2015/freesync/amd-freesync-press-12-rs.jpg
maguumo
2018-08-13, 15:30:11
Ein paar Nanosekunden später ja vielleicht schon. Dann ist der Bus mit dem alten Frame blockiert, wo der neue bereits schon übertragen werden könnten. (Und bei G-Sync eben: Übertragen wird)
Und in beiden Fällen muss dann ein Refresh mit dem alten Bild erfolgen und das neue kann erst angezeigt werden sobald das Panel den nächsten Refresh rauswürgen kann. Ich verstehe dein Argument nicht. Oder meinst du das es einen Latenzvorteil gibt wenn das neue Bild schon im Buffer des G-Sync Moduls ist bevor der nächste Refresh startet? Die Signallaufzeit von Karte zu Monitor sind ein paar ns.
Tesseract
2018-08-13, 16:19:46
Nein, das ist eben nicht egal, weil eben die Übertragung eines Frames auch mehrere Millisekunden in Anspruch nimmt.
es ist der gleiche frame, der lag ist an diesem punkt bereits so lange wie der frame schon lokal im speicher liegt.
Bösewicht
2018-08-13, 16:35:40
Selbst wenn GSync ein klein wenig besser sein sollte, ist der Preisaufschlag für GSync Monitore immer noch nicht wirklich gerechtfertigt.
Wenn Freesync es ohne Hardware schafft und Nvidia das ganze mit Hardware realisiert( Ein wenig besser ), aber 100-150€ Aufpreis nimmt, dann hat AMD es einfach effizienter hinbekommen.
150 euro ist so ein modul sicher nicht wert aber die letzten 5 prozent sind immer sehr viel teuerer als die goldene mitte.
hab mir dein video angesehen, nvidia ist schneller aber sagen wir ein unterschied von ca. 17 vs 20 ms wird hier NIEMAND merken.
Selbst bei beiden systemen nebeneinander der unterschied ist so gering das man beim wechsel auf die andere hardware diesen minimalen unterschied schon wieder vergessen hat..
vielleicht die weltbesten profis aber kein normaler mensch.
Gipsel
2018-08-13, 17:26:09
Steht doch da. Bei einer minimalen Refreshrate von 30 Hz muss die GPU weiterhin 30 Hz mindestens liefern, ansonsten bricht die Synchronisation zusammen.Und bei GSync muß das Panel auch mit dem minimalen Refresh beliefert werden, damit da nichts zusammenbricht. Und? Wo siehst Du jetzt den fundamentalen Unterschied bei der Funktionalität?
Wo ist da also der Unterschied zum (klassischen) Sync? Genau: Nicht vorhanden. Weiterhin muss die GPU das liefern, was der Monitor will.Nö. Der Monitor ist flexibel genug, um beliebige Frameabstande innerhalb der Range zu akzeptieren. Wann der Frame genau geschickt wird, entscheidet sich auf der GPU, nicht dem Monitor. Die Grafikkarte steuert direkt den Refresh des Monitors.
Und bei GSync muß das Modul auch an das Panel liefern, was das verträgt. Das ist kein wirklicher Unterschied.
Blödsinn, du verstehst null was ich schreibe. Der Monitor fordert über das EDID einen spezifischen Modi (Auflösung, Refresh etc. pp.) an und erwartet dann exakt einen dieser Modi. Wird keiner der Modi geliefert, wird kein Bild dargestellt. Deshalb schrieb ich ja auch für die Experten, die gerne sinnlose Semanik-Diskussionen führen, "gefordert/erwartet" ;)Das ergibt hier im Kontext keinen wirklichen Sinn. Der Monitor offeriert seine Fähigkeiten (ähnlich wie auch das GSync-Modul die Fähigkeiten des Panels kennen muß). Die Nutzung derselben liegt völlig in der Kompetenz der GPU. Der Monitor "fordert" keinen Refresh und steuert/kontrolliert auch nicht die Refreshes, wie hier anfangs geschrieben wurde.
Wenn nur der FreeSync Monitor mindest 30 Hz erwartet, die GPU aber nur 25 fps liefert, gibt es keine Bilddarstellung. Bei G-Sync dagegen sehr wohl. Es wird dann eben jeder 5. Frame doppelt angezeigt.Bei FreeSync auch, weil dann eben die gleichen Zwangsrefreshes eingeschoben werden, wie das das G-Sync-Modul auch tun muß. Und hoffentlich wird nicht nur jeder 5. Frame doppelt angezeigt, sondern alle Frames (Zwangsrefresh nach jeweils 20ms => 50Hz Refresh). Sonst gibt das so einen unschönen Judder-Effekt wie mit triple buffering und VSync bei 30Hz Monitor-Refreshrate (der dann deutlich erkennbar wäre).
Es gibt auch Monitore, gerade zu Beginn von FreeSync, die trotz Faktor 2,5 oder gar 3 kein LFC unterstützen.Quelle? Und hat sich das vielleicht mit einer späteren Version des Grafikkartentreibers (der Suppport für LFC einführte) geändert, ohne daß man was am Monitor machen mußte? Denn der Monitor kann sich ja prinzipiell nicht dagegen wehren, wenn die GPU einen Refresh macht. ;)
Und G-Sync unterstützt eben völlig problemlos LFC, selbst wenn der Faktor nun 2 beträgt:
https://www.heise.de/preisvergleich/acer-xb1-xb281hkbmiprz-um-px1ee-001-a1320508.html?hloc=deDas vergrößert genau wie bei entsprechenden FreeSync-Modellen die Wahrscheinlichkeit von Kollisionen der (Zwangs-)Refreshes. Der Übergang kann also insbesondere bei etwas springenden Frameraten in dem Bereich (beim verlinkten Monitor also bei um 30Hz) durch Judder bzw. entsprechende Frametimesprünge bemerkbar werden.
Eben weil es bei G-Sync eine völlige Trennung gibt zwischen Übertragung des Frames von der GPU und Darstellung auf dem Panel. Bei FreeSync ist diese immer noch wie eh und je vorhanden.Wie schon mehrfach gesagt, bringt Dir das aber nichts. Ob man ein neues Frame nicht direkt darstellen kann, weil gerade noch die Übertragung des alten zum Monitor läuft oder weil das Panel gerade vom GSync-Modul refresht wird, ändert was genau?
Nein, das ist eben nicht egal, weil eben die Übertragung eines Frames auch mehrere Millisekunden in Anspruch nimmt.Das nimmt etwa genau so viel Zeit in Anspruch wie der Refresh des Panels aus dem Speicher des GSync-Moduls. :rolleyes:
Das ist also gehupft wie gesprungen.
Gerade bei stark schwankenden Frameraten, kann hier der InputLag reduziert werden, weil der neue Frame früher verfügbar ist, siehe das Video von Dardevil.Früher am Panel als sichtbares Frame? Nein. Oder Du redest von minimalen Unterschieden im Bereich von µs (da hilft es mehr, eine schnelle Panelelektronik zu haben, die hat da einen viel größeren Einfluß).
Und meinst Du den Test von Daredevil, wo die Reaktionszeit zwischen den beiden Alternativen ziemlich vergleichbar ist? In Anbetracht dessen, daß dort die Renderzeit des Frames mit in den dort gemessenen Zahlen inkludiert ist und man eine RX570 mit der deutlich schnelleren GTX1080 vergleicht (die Renderzeit der Frames ist also niedriger), ist das ziemlich gut für FreeSync. ;)
Der Test ist eher interessant dafür, welcher Framelimiter nun mit Overwatch am besten funktioniert. :rolleyes:
Edit:
Das Setting, was er im Vergleich (sondern nur bei den Einzelzahlen von FreeSync) nicht getestet hat (was aber theoretisch am besten funktionieren sollte), wäre übrigens VSync On mitsamt Framelimiter auf 140Hz oder sowas. Kein Tearing und keine Nötigkeit, den Framelimiter auf 130 zu setzen und auch keine erhöhtes Lag (das sollte man nur haben, wenn es Backpressure vom VSync gibt, was aber durch das Limit unterhalb von 144Hz nach einem Frame oder so wieder abgebaut sein sollte). Alternativ kann das Spiel Triple Buffering (das klassische, keine 3 Frames lange Queue) benutzen, um kurze Schwankungen über 144Hz Framerate (für ein einzelnes Frame) abzufangen (das macht effektiv G-Sync [die Diskussion um das effektive Triple-Buffering mit GSync gab es ja schon mal vor ein paar Jahren], ergibt eventuell durchschnittlich minimalst höhere Framerate [aber mit Framelimiter ist es wohl ziemlich irrelevant ist, ob man bei einem Setting von 142fps im Schnitt 142 oder 141,8fps hat]; VSync on ist sicher einfacher und hier völlig ausreichend als triple buffering auf der Grafikkarte [geht aber im Prinzip auch]). Denn der Grund für das dort beobachtete Tearing sind schlicht kleine Schwankungen der Renderzeiten für die Frames. Der im Spiel integrierte Framelimiter startet das Rendern der Frames mit den spezifizierten Abständen. Das bedeutet aber nicht, daß die auch in exakt diesen Abständen fertig werden, weswegen es eben kurz mal über 144Hz schwanken kann. Das gleicht sich aber in den folgenden Frames wieder aus, weswegen die Aktivierung von VSync das Tearing in diesen Situationen verhindert, ohne ein Inputlag aufzubauen.
Aber egal, im Prinzip zeigt der Test, daß sich G-Sync und FreeSync relativ gesehen absolut identisch verhalten, was das Delay angeht, egal ob Fullscreen oder Windowed. Der konstante 1-2ms Offset in den Zahlen ist lediglich dem Geschwindigkeitsunterschied der RX570 zur GTX1080 geschuldet (ist die in Overwatch nicht praktisch doppelt so schnell?).
Unicous
2018-08-13, 17:45:57
Finde toll, dass der FUD der letzten 5 Jahre wieder von Neuem durchgekaut wird.
Zeigt auch auf, dass von beiden Seiten (bzw. von Monitorherstellerseite) wenig bis gar keine Innovation kommt und man sich stattdessen wieder in Kleinkriegen auf die gepuderten Näschen schlägt.
Der eine Monitor-Hersteller veröffentlicht die zigste 42" 1080p TN Möhre, während der andere "Premium-Monitore" für mehrere tausend Euro der darbenden "Masse" vor die Füße wirft, mit schickem Lüfter und einem "bleeding" edge Panel mit dem ein oder anderen "Schönheitsfehlern".:ucrazy2:
hab mir dein video angesehen, nvidia ist schneller aber sagen wir ein unterschied von ca. 17 vs 20 ms wird hier NIEMAND merken.
Wo bitte ist Nvidia (auf adaptive-sync bezogen!) denn schneller? Die Karte/der Treiber muß trotz Modul das gleiche machen wie AMD auch, zuzüglich latenzen für das Modul.
PS: Kann Nvidia nun auch 10 bit Farbtiefe UND adaptive-sync oder geht das immer noch nicht?
Bösewicht
2018-08-13, 18:28:22
Wo bitte ist Nvidia (auf adaptive-sync bezogen!) denn schneller? Die Karte/der Treiber muß trotz Modul das gleiche machen wie AMD auch, zuzüglich latenzen für das Modul.
PS: Kann Nvidia nun auch 10 bit Farbtiefe UND adaptive-sync oder geht das immer noch nicht?
das modul ist dazu da um die latenz zu reduzieren denke ich, zumindest sollte das bei diskreter hardware so sein.
es ging um sein video dort sind die latenzen etwas geringer wo ist das problem?
Gipsel
2018-08-13, 19:10:12
es ging um sein video dort sind die latenzen etwas geringer wo ist das problem?Das Verhalten sieht im Rahmen der Meßungenauigkeiten identisch aus. Man müßte noch die Framerate ohne Limit und VSYNC off kennen, damit man die Renderzeit für ein Frame als Grundlage hat. Diese Renderzeit müßte man dann nämlich noch von den gemessenen Delays abziehen, um das reine Anzeigedelay (ohne Renderzeit) zu erhalten. Da die GTX1080 in Overwatch wohl deutlichst schneller als die RX570 ist, kommen die 1-2ms Vorteil bei den absoluten Zahlen vermutlich ausschließlich davon. Der Zuwachs des Delays zwischen Free-/G-Sync off mitsamt VSync off und den verschiedenen G-/Free-Sync-Settings ist bei allen Varianten ziemlich identisch (innerhalb der Meßungenauigkeiten) und bei den empfohlenen Settings (mit in-Game Framelimiter) nahe Null.
=> Die Sync-Methoden an sich sind bei dem Test gleichwertig.
Screemer
2018-08-13, 19:16:19
Finde toll, dass der FUD der letzten 5 Jahre wieder von Neuem durchgekaut wird.
Zeigt auch auf, dass von beiden Seiten (bzw. von Monitorherstellerseite) wenig bis gar keine Innovation kommt und man sich stattdessen wieder in Kleinkriegen auf die gepuderten Näschen schlägt.
Der eine Monitor-Hersteller veröffentlicht die zigste 42" 1080p TN Möhre, während der andere "Premium-Monitore" für mehrere tausend Euro der darbenden "Masse" vor die Füße wirft, mit schickem Lüfter und einem "bleeding" edge Panel mit dem ein oder anderen "Schönheitsfehlern".:ucrazy2:
Besser kann man es nicht ausdrücken!
das modul ist dazu da um die latenz zu reduzieren denke ich, zumindest sollte das bei diskreter hardware so sein.
es ging um sein video dort sind die latenzen etwas geringer wo ist das problem?die Hardware verringert per se erst mal gar nix.
Edit: gipsel war schneller
das modul ist dazu da um die latenz zu reduzieren denke ich, zumindest sollte das bei diskreter hardware so sein.
es ging um sein video dort sind die latenzen etwas geringer wo ist das problem?
Also ist erst ins Ram schreiben und dann "verarbeiten" schneller als direkt zu "verarbeiten"?
Das Problem ist das Video an sich, entweder ist der Ersteller dumm oder einfach nur dreist.
Ich versuche es dir mal zu verdeutlichen:
Warum kein Video mit GTX 1030 DDR4 und Vega 64?
aufkrawall
2018-08-13, 19:30:34
Werd mal nicht ausfallend gegenüber Leuten, die wesentlich interessanteren Content produzieren als du...
Oder wo sollen Unmengen an Lag zu Ungunsten der langsameren GPU herkommen, wenn das Spiel komplett im 142fps-Limit läuft?
Gipsel
2018-08-13, 19:35:43
Oder wo sollen Unmengen an Lag zu Ungunsten der langsameren GPU herkommen, wenn das Spiel komplett im 142fps-Limit läuft?
Mal als etwas extremeres Beispiel: Wenn das Game ohne Limiter auf der einen Karte mit 1000fps läuft, auf der anderen aber nur mit 200fps. Dann beträgt die Renderzeit für ein Frame 1ms vs. 5ms. Die schnellere Karte hat also mit der Meßmothode ein 4ms geringeres Delay als Baseline. Beim Vergleich von RX570 mit GTX1080 (in Overwatch wohl rund doppelt so schnell) ist ein Unterschied von 1-2ms Renderzeit wohl vollkommen zu erwarten (200fps vs. 300fps sind schon mal 1,67ms Unterschied). Man müßte halt die Performance ohne VSync und ohne Limiter in der Testszene kennen, um das genau zu sagen (er testet ja auch auf low in FHD, da finden sich vermutlich kaum Benchmarks; keine Ahnung ob das dann GPU- oder CPU-limitiert ist in seinem Setup). Auf Medium (angeblich recht nahe an Low mit der Performance) liegt hier eine GTX1080 bei 273fps, eine RX480 (mal grob gleiche Performance wie die 570 angenommen) bei 168fps (https://www.pcgamer.com/overwatch-settings-guide/). Das wären 3,66ms vs. 5,95ms, satte 2,3ms Unterschied bei der Baseline. Vermutlich sind es etwas andere Zahlen für die eigentliche Testszene in dem Video, aber ich denke die Richtung ist klar.
Die dort benutzte Meßmethode ermittelt die Summe aus Renderzeit und Anzeigedelay. Etwa gleich schnelle karten sind also zu empfehlen oder man sollte die Renderzeit ermitteln und von den Werten abziehen, falls man am reinen Anzeigedelay interessiert ist.
aufkrawall
2018-08-13, 19:41:09
Ich bezweifle, dass es mit in-game Limiter eine nennenswerte Rolle spielt.
Angenommen, das System schafft ~85fps Minimum und du setzt den in-game fps-Limiter auf 80, wird es sich subjektiv genau so anfühlen wie ein System, das z.B. 100fps Minimum schafft und ebenfalls mit dem 80fps in-game Limiter läuft.
Das wird jeder bestätigen können, die schon mal mit so einer Config gespielt hat. Sobald die fps das Limit unterschreiten, wird es schlagartig zäh. Vorher gar nicht, egal wie hoch die GPU-Last ist.
Werd mal nicht ausfallend gegenüber Leuten, die wesentlich interessanteren Content produzieren als du...
Oder wo sollen Unmengen an Lag zu Ungunsten der langsameren GPU herkommen, wenn das Spiel komplett im 142fps-Limit läuft?
Der Content ist Schrott, so einfach ist das.
Mit FPS limit gibst du der (in diesem Fall deutlich) schnelleren Karte nur mehr Pause, du verlangsamst aber nicht den Rendervorgang.
Screemer
2018-08-13, 19:48:48
Ich bezweifle, dass es mit in-game Limiter eine nennenswerte Rolle spielt.
Angenommen, das System schafft ~85fps Minimum und du setzt den in-game fps-Limiter auf 80, wird es sich subjektiv genau so anfühlen wie ein System, das z.B. 100fps Minimum schafft und ebenfalls mit dem 80fps in-game Limiter läuft.
Das wird jeder bestätigen können, die schon mal mit so einer Config gespielt hat. Sobald die fps das Limit unterschreiten, wird es schlagartig zäh. Vorher gar nicht, egal wie hoch die GPU-Last ist.
Deswegen rendert die 1080 den frame bei nem Limit von 80fps trotzdem schneller als die 570 bei gleichem Limit.
Edit: darn. Das nächste mal f5.
Gipsel
2018-08-13, 19:54:08
Genau. Der in-Game Framelimiter taktet den Renderbeginn eines Frames auf bestimmte Intervalle. Aber wenn nach dem Beginn des Renderns die GTX1080 1-2ms früher fertig ist als die RX570, weil es eben schlicht die deutlich schnellere Karte ist, sieht man das mit der Meßmethode halt auch so in den gemessenen Reaktionszeiten. Eine schnellere Karte liefert auch mit Limiter geringere Delays. So einfach ist das.
aufkrawall
2018-08-13, 19:55:19
Deswegen rendert die 1080 den frame bei nem Limit von 80fps trotzdem schneller als die 570 bei gleichem Limit.
Dann müsste der Lag ja deutlich steigen, wenn sich eine GPU durch ein starkes Limit runtertaktet. Halte ich für nicht zutreffend.
Anyhow, wer sich über ein paar ms Lag mokiert, verwendet kein VRR (zeigt das Video ja auch). Absolut unnötige Diskussion...
fondness
2018-08-13, 19:58:27
Dann müsste der Lag ja deutlich steigen, wenn sich eine GPU durch ein starkes Limit runtertaktet. Halte ich für nicht zutreffend.
Die Taktvorgänge in einer GPU geschehen so schnell, das kannst mit mit den üblichen Methoden gar nicht erfassen. Ein Limiter wird wohl eher zu sehr schneller Hoch- und Runtertaktvorgängen führen würde ich jetzt mal raten (ohne es zu wissen).
Gipsel
2018-08-13, 20:01:55
Dann müsste der Lag ja deutlich steigen, wenn sich eine GPU durch ein starkes Limit runtertaktet. Halte ich für nicht zutreffend.Das muß aber logischerweise zutreffen, falls denn der deutlich niedrige Takt auch so zutrifft (könnte man ja theoretisch gegen festgepinnten Takt testen und vergleichen).
Aber zeigen Dir die Tools eigentlich den instantenen Takt an oder das Mittel über die letzten paar 10ms? Zumindest bei AMD-GPUs ist es wohl der gemittelte Takt. Der kann also für die eigentliche Berechnung z.B. für 4ms auf's Maximum takten und dann auf den idle-Takt für 3ms (für 7ms Gesamtzeit bei 142fps Limit) und angezeigt wird Dir der Mittelwert des Ganzen.
Edit: Zu langsam.
Der "Vergleich" 570 vs 1080 ist einfach stuss, weil die 1080 die deutlich schnellere (besser agilere!) Karte ist. Auch wenn du sie auf X FPS trosselst, es bleibt immer die agilere Karte!
aufkrawall
2018-08-13, 20:12:53
Das muß aber logischerweise zutreffen, falls denn der deutlich niedrige Takt auch so zutrifft (könnte man ja theoretisch ghegen festgepinnten Takt testen und vergleichen).
Oder ihr habt einen Denkfehler. :P
Erklärt es mir nochmal:
Wieso soll die Geschwindigkeit der GPU einen Einfluss auf den Input Lag haben, wenn durch den fps-Limiter Wartezyklen eingefügt werden? Es wird in einem festen Intervall nur alle xms ein Bild ausgegeben. Folglich gibt die schnellere GPU nicht schneller ein Bild aus, nur weil sie eher fertig wird.
Falls der Input nicht mehr rechtzeitig für den nächsten Frame verarbeitet werden kann, ergibt sich eine zusätzliche Verzögerung, die mindestens einen Refreshzyklus umfassen muss. Das sind bei 142fps ca. 7ms. Wie passt das mit den ~1,3ms Unterschied zwischen dem FreeSync- und Gsync-Modell zusammen? Gar nicht.
Das wird einfach eine höhere Latenz in der Signalverarbeitung im Monitor sein...
Bösewicht
2018-08-13, 20:18:07
Gipsel
ich nehme das jetzt mal so mit weil du dich scheinbar viel damit bescheaftigt hasst.
aber eigentlich hab ich ja auch geschrieben das sie praktisch gleich schnell sind da die paar ms keine rolle spielen.
das system und render lag hab ich schon im kopf gehabt allerdings geht es ja mehr um die differenz und geschieht wie krawall ja schrieb im limit.
bei meinen test wie z.b over underclocking wurde lag nicht kleiner, nur wenn auch die fps steigt.
habt ihr denn ein test auf lager bei dem gleichschnelle gpus unter gleicher hardware getestet wird, gerne auch als video.
Du hast da leider einen Denkfehler.
Es wird in einem festen Intervall angewiesen ein Bild zur direkten ausgabe zu brechnen, es werden _hier_ keine Bilder gepuffert/zurückgehalten.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.