Archiv verlassen und diese Seite im Standarddesign anzeigen : G-/Free-/A-Sync: framesynchronisierter Displayrefresh per variablem vblank-Intervall
PatkIllA
2014-05-23, 15:09:56
Sag mal, du sprichst vom RAM und ich sage, das macht das Modul teurer und du fragst daraufhin warum das das ASIC teurer machst? Ich glaube du möchtest gerne an mir vorbeireden.:confused:Ich habe von GSync als ASIC Umsetzung geredet. Ob und wieviel RAM man dafür braucht ist offen. Aber sicher keine 768 MiB wie jetzt. GSync wie auch FreeSync wird einmal als ASIC umgesetzt sicher nur ein paar Cent extra kosten. Aber die Umsetzung dauert und kostet halt. Daher der FGPA von NVIDIA und die 6 bis 12 Monate von denen AMD spricht.
Es gab bis jetzt einen Monitor dem man in einer Operation das Modul anflanschen konnte. Jetzt gibt es einen nicht lieferbaren Monitor. Aber was hat das mit der Diskussion zu tun?Du hast gesagt, dass die "Hersteller" das bevorzugen würden. Bislang gibt es nur einen Hersteller mit 2 Monitoren.
Und was willst du mir mit "Monitor und Grafikkarte können schon seit Ewigkeiten miteinander reden." Möchtest du mir jetzt die Geschichte der Welt erklären?Du hast gesagt, dass Handshake das teuer machen würde und das kann nicht sein, denn das machen die jetzt schon.
Es geht darum ob es zwei verschiedene Herangehensweisen sind.Das weiß man ja nicht. Für die nicht Handshake Variante spricht, dass es einfacher ist und bei bislang allen anderen Ausgabeparametern auch nicht gemacht wird.
Ob bei VESA/AMD die GPU der "Taktangeber" ist und bei Nvidia es eine ständige Kommunikation beider Komponenten gibt, oder ob es bei G-Sync genauso ist. Bis jetzt war ich der Meinung es passiert über einen hand shake.Dann belege doch mal wie du auf den Handshake kommst. Nötig ist der nicht und NVIDIA hat AFAIK auch keinen bestätigt.
fondness
2014-06-02, 21:57:07
AMD zeigt FreeSync auf der Computex
https://twitter.com/JasonMegit/status/473551511474016256
aufkrawall
2014-06-02, 21:58:43
Die Demo scheint hässlich zu sein. :usad:
Locuza
2014-06-02, 22:07:36
Da haben wir ja richtige Luxus-Probleme.
Auf jeden Fall ist die Demo nicht neu^^
Locuza
2014-06-02, 22:21:41
Ich befürchte auch schon, dass man fixe Framerates zeigen wird und keine dynamischen, so wie letztes mal.
aufkrawall
2014-06-02, 22:25:31
Warum sollte man das tun, wenn die Technik funktioniert?
Aufwand nicht vorhanden.
fondness
2014-06-02, 22:29:20
Zumindest läuft es diesmal auf Desktop-Bildschirmen und nicht mehr auf Notebooks.
robbitop
2014-06-02, 22:31:03
Wenn die Monitore mit DP angebunden sind, scheint es also zumindest schon 1x Scalerchip zu geben. Insofern ist man tatsächlich zeitlich gar nicht so weit hinter G-Sync. Würde mich nicht wundern, wenn es erste Monitore in ca. 6 Monaten zu kaufen gibt...
Weil das eventuell Schwächen aufzeigen würde, die es bei G-Sync vielleicht nicht gibt?
Ist überhaupt bekannt, wie die beiden Techniken im Detail arbeiten? Hab mal gehört, dass das Free-Sync so arbeitet, dass im Voraus gesagt werden muss, wann das nächste Frame kommt. Sowas würde halt bei stark schwankenden Bildwiederholraten kaum besser funktionieren als V-Sync.
PatkIllA
2014-06-02, 22:32:51
Wenn die Monitore mit DP angebunden sind, scheint es also zumindest schon 1x Scalerchip zu geben. Insofern ist man tatsächlich zeitlich gar nicht so weit hinter G-Sync. Würde mich nicht wundern, wenn es erste Monitore in ca. 6 Monaten zu kaufen gibt...
Vielleicht ist da ja auch ein FPGA-Lösung drin.
fondness
2014-06-02, 22:33:02
Weil das eventuell Schwächen aufzeigen würde, die es bei G-Sync vielleicht nicht gibt?
Du kannst dir sicher sein das Nvidia über Schwächen längst informiert hätte. :)
N0Thing
2014-06-02, 22:50:24
Hab mal gehört, dass das Free-Sync so arbeitet, dass im Voraus gesagt werden muss, wann das nächste Frame kommt. Sowas würde halt bei stark schwankenden Bildwiederholraten kaum besser funktionieren als V-Sync.
Gibt es dazu einen Link? Ich kann mir nicht vorstellen, wie es funktionieren soll, wenn man quasi Informationen aus der Zukunft braucht. Bisher ging ich davon aus, daß bei beiden Lösungen der Monitor auf ein neues Bild von Grafikkarte wartet, bevor das Display aktualisiert wird, anstatt in festen Intervallen neu zu zeichnen.
Dafür wäre es es auch nicht notwendig im voraus anzukündigen, wann ein neues Bild kommt.
robbitop
2014-06-02, 22:52:02
Beide Verfahren arbeiten ähnlich. Sobald der Frame fertig gerendert ist, gibt die Grafikkarten den Scanbefehl an den Monitor.
Vielleicht ist da ja auch ein FPGA-Lösung drin.
Das wäre zu Demonstrationszwecken natürlich möglich und sinnvoll. Allerdings ist es die Frage, ob AMD diesen Aufwand investiert. AMD verdient an Freesync nichts und es wird für alle kostenlos lizensierbar sein. Außerdem meinte Gipsel (?), dass es sehr wahrscheinlich ist, dass bereits einige bestehende Scaler dieses Feature prinzipiell beherrschen würden, wenn man sie mit einer entsprechenden Firmware versorgen würde.
Beide Verfahren arbeiten ähnlich. Sobald der Frame fertig gerendert ist, gibt die Grafikkarten den Scanbefehl an den Monitor.
Free-Sync soll ja das bereits vorhandene Protokoll verwenden. Bist du sicher, dass dies bereits in den Spezifikationen vorgesehen ist?
Gibt es dazu einen Link? Ich kann mir nicht vorstellen, wie es funktionieren soll, wenn man quasi Informationen aus der Zukunft braucht.
In die Zukunft "schaut" eine Grafikengine ja sowieso ständig. Bei Animationen z.B. muss geschätzt werden, wann der Frame fertig werden wird, damit die Animation genau dann an der richtigen Stelle ist beim anzeigen. Auch hier können bei stark schwankender Framerate Mikroruckler (zeitliches Aliasing) entstehen. Die Animation sieht dann quasi ruckliger aus, als sie bei der aktuell niedrigen Rate eigentlich trotzdem noch aussehen könnte.
Screemer
2014-06-02, 23:25:14
Free-Sync soll ja das bereits vorhandene Protokoll verwenden. Bist du sicher, dass dies bereits in den Spezifikationen vorgesehen ist?
In 2011 eDP version 1.3 introduced Panel Self Refresh (PSR).in eDP is das also schon seit ewigkeiten verankert und controller gibts dafür seit 2011. denke nicht, dass der unterschied sonderlich groß ist.
gibts sogar ein patent von 2012 (http://www.google.com/patents/US20140055476) zu dem thema.
hier auch ein kleiner artikel aus 2011: http://www.hardwaresecrets.com/article/Introducing-the-Panel-Self-Refresh-Technology/1384. ram im display wird also hier auch benötigt, allerdings nicht die mengen wie auf dem gsync-modul.
PatkIllA
2014-06-02, 23:53:59
ram im display wird also hier auch benötigt, allerdings nicht die mengen wie auf dem gsync-modul.Panel Self Refresh und Adaptive Sync sind aber nicht das gleiche.
PSR kann mehr oder wenig beliebig lange ohne neues Bild auskommen.
Adaptive Sync hat Minmalrefreshraten. Die wären bei zwingenden Zwischenspeicher überflüssig.
Anscheinend gibt es auch nichts kaufbares mit eDP 1.3
N0Thing
2014-06-03, 00:33:59
In die Zukunft "schaut" eine Grafikengine ja sowieso ständig. Bei Animationen z.B. muss geschätzt werden, wann der Frame fertig werden wird, damit die Animation genau dann an der richtigen Stelle ist beim anzeigen. Auch hier können bei stark schwankender Framerate Mikroruckler (zeitliches Aliasing) entstehen. Die Animation sieht dann quasi ruckliger aus, als sie bei der aktuell niedrigen Rate eigentlich trotzdem noch aussehen könnte.
Die Grafikengine ist aber was anderes als die Grafikkarte und redet nicht mit dem Monitor. Und warum sollte die Engine überhaupt für Animationen in die Zukunft schauen müssen? Die laufen doch abhängig vom Input so ab, wie sie programmiert wurden. Solange die Frames pro Sekunde keine unspielbaren Regionen erreichen, sieht es flüssig aus und unterhalb dieser Region ruckelt es sowieso.
Oder habe ich da einen Denkfehler?
Unicous
2014-06-03, 00:35:02
Ich habe das Gefühl, dass es durchaus schon eDP 1.3 Panels gibt, das aber nicht an die große Glocke gehangen wird. Bei den Panels ist nicht ersichtlich welche Version genutzt wird. Aber das eDP Panels millionenfach genutzt werden, ist klar.
Die Apple iPads z.B. haben eDP Panels.:wink:
Achso. Apple nutzt auch Parade Timing Controller und die wiederum haben schon seit Ende 2012 mehrere Controller mit 1.3 Specs.
http://www.taipeitimes.com/News/biz/archives/2013/10/15/2003574514
http://www.efytimes.com/e1/93460/Parade-Announces-Worlds-First-eDP--LCD-Tcons
Und hier wird auch beiläufig von Version 1.3 gesprochen während ein externes eDP Display beworben wird.
http://www.msc-ge.com/de/9081-www
Unicous
2014-06-03, 13:51:18
http://www.computerbase.de/2014-06/amd-freesync-monitore-guenstiger-als-g-sync/
AMD ist zuversichtlich, dass Adaptive-Sync-Monitore günstiger als ihre G-Sync-Gegenspieler ausfallen werden. Das Argument: Anders als bei G-Sync variiert kein Zusatzchip die Bildwiederholfrequenz des Bildschirms, sondern der nach DisplayPort 1.2a zertifizierte Scaler selbst – es sind keine Zusatzbauteile nötig. Ohne Aufpreis geht es „aufgrund der komplexeren Validierungsphase“ allerdings nicht.
Während G-Sync im 3D-Betrieb eine leicht geringere Leistung als ohne die Technik liefert, soll Adaptive Sync keine Verluste aufweisen. Die bei G-Sync notwendige „Sicherheitsabfrage“, ob der Monitor das fertig berechnete Bild auch wirklich anzeigen könne, findet bei Adaptive Sync nicht statt, erklärt AMD. Das würde voraussetzen, dass die Grafikkarte weiß, in welchen Abständen der Monitor Bilder wiedergeben kann, ohne bei jedem fertig gerechneten Bild erneut nachzufragen. Eine Vermutung, die ComputerBase zum jetzigen Zeitpunkt nicht hat verifizieren können. Nvidia hatte bereits zur Vorstellung von G-Sync angekündigt, den Leistungsverlust mit der Zeit zu reduzieren.
Unterstellungen, AMD habe mit der Initiative FreeSync lediglich auf G-Sync reagiert, wies der Hersteller abschließend erneut von sich. Die Arbeit an der Basis Adaptive Sync habe „bereits vor Jahren begonnen“.
Locuza
2014-06-03, 17:57:16
Und da haben wir es, wie leider vermutet:
Die Demo läuft mit einer Bildwiederholfrequenz von 47 bis 48 Frames pro Sekunde und der Monitor liefert dank der angepassten Bildwiederhohlfrequenz ein einwandfreies Bild ab, das dem von Nvidias G-Sync sehr ähnlich sieht. Eine variierende Framerate, auf die der Monitor reagieren kann, lässt die Demo aktuell noch nicht zu. Während der Monitor während der Präsentation keine Probleme machte, stürzte die Techdemo von AMD zudem mehrfach ab.
aufkrawall
2014-06-03, 18:07:35
omg, wie armselig. Sollen sie halt per RTSS die fps-Ausgabe anpassen.
Da drängt sich der Verdacht förmlich auf, dass Freesync momentan noch nicht vergleichbar gut wie Gsync funktioniert.
Edit: Quelle wär trotzdem gut.
Locuza
2014-06-03, 20:20:46
Das Zitat kommt aus dem Computerbase Link von Unicous über meinem Beitrag.
Unicous
2014-06-03, 20:35:57
Typischer AMD-Fail eben. Demo funktioniert gerade so mit Abstürzen und wichtige Features sind (noch) nicht implementiert. Würde ich mir keine Sorgen machen. Ist noch genug Zeit für die Validierung.
fondness
2014-06-03, 20:40:03
Die viel interessantere Info wäre wie die Monitoren angeschlossen sind.
occ-kh@Mirko
2014-06-03, 20:42:21
Typischer andauernder AMD-Fail eben.
Seit der Erstpräsentation im Hinterstübchen hat sich nix geändert, keine variablen fps Raten, sonst Reihenweise Abstürze. Joh, Zeit ist noch genug, kann Nvidia dann in Ruhe sein GSync in den Markt drücken.
Unicous
2014-06-03, 20:51:45
Was interessiert mich denn, wie weit fortgeschritten FreeSync ist? A-Sync ist jetzt ein VESA-Standard, ich sehe keinen Grund zur Sorge.
€150+ werde ich jedenfalls nicht für dieses Feature ausgeben. Und offene Standards rulen!!!!!111elf
Butterfly
2014-06-03, 21:01:27
Auch ein sehr guter Artikel: http://www.heise.de/ct/artikel/G-Sync-FreeSync-Adaptive-Sync-Mehr-Wunsch-als-Wirklichkeit-2195186.html
Aha, die Pixel sind also zu schnell, lol !
Immerhin scheint mit Freesync ein größeres Hz Spektrum möglich zu sein.
occ-kh@Mirko
2014-06-03, 21:08:37
Aha. 150 Euro sind also kostenlos? Bla bla bla....Komische Rechnung. GSync soll dann um 100$ mehr kosten! Meinen Glückwunsch für deinen kostenlosen freien Standard.
Ein Vesa Standard bedeutet eben nicht das er hardwaretechnisch proprietärlos bleibt...er ist Vesa konform und bindet sich an Zertifizierungen und deren Vorausetzungen die die Monitorhersteller einhalten müssen soweit sie das Label wollen. Wenn AMD clever gewesen wäre hätten sie FreeSync als offenen AMD Standard gebracht, übereilter Gehorsam oder gabs Kohle! Diese Displayport...Mafia...:ulol:
Ich würde mich nicht wundern wenn erst die nächste Desktop GPU Generation wirklich stabile variable fps raten auf VBlank unterstützt, aber warten wir mal ab. Und AMDs Treibersupport bzw. Entwicklung, naja...das dauert manchmal länger als man glaubt.
Unicous
2014-06-03, 21:11:53
Wäre schön wenn du deine Gedanken vorher sortierst, bevor du sie in die Welt lässt, denn richtig verstanden habe ich nicht was du von mir willst.
@Butterfly
Was ist das eigentlich für ein schlecht recherchierter heise(c't) Artikel? Da wimmelt es ja nur von Fehlern und Fehlannahmen. Und GSync is ja eh viel besser und offene Standards fürn Arsch. Jaja....
Gipsel
2014-06-03, 21:33:19
@Butterfly
Was ist das eigentlich für ein schlecht recherchierter heise(c't) Artikel? Da wimmelt es ja nur von Fehlern und Fehlannahmen.Den c't-Artikel hatten wir im Technologieforum schon mal vor einer guten Woche. Auch da habe ich bereits gesagt, daß da die Hälfte nicht so recht stimmt (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10219848#post10219848).
occ-kh@Mirko
2014-06-03, 21:34:52
Wäre schön wenn du deine Gedanken vorher sortierst, bevor du sie in die Welt lässt, denn richtig verstanden habe ich nicht was du von mir willst.
???
150 Euro für einen kostenlosen Standard? Lässt du dir kosten, toll.
Schlichtweg gibt es nicht ein Display das diesen Standard im Desktopsegment unterstützt, weil der entsprechende Scaler fehlt, ausser zugefrimmelter "Präsentationstandard"...selbst derzeitige DP1.2a zertifizierte Displays unterstützen Adaptive Sync nicht, es gibt schon welche zu kaufen! Aber klar, AS kam ja jetzt erst.
Bei der Erstpräsentation auf einen Toshiba Mobile Gerät wurden nur dauerhaft stabile fps raten von 50 oder 30 fps ausgegeben, die eigene Demo funzte zu Präsentationszwecken auf dem Gerät nicht! Angeblich lagen die fps raten höher als die Displayfrequenz...bei einer eigenen Demo????
Die Logik ist, dass stammt garnicht von AMD...die hauen uns die Taschen voll. Meine Postings stehen im Zusammenhang.
Der CT Artikel ist wirklich Müll, Nvidia kann mit GSync keine Displays mit 120 oder 144Hz unterstützen bzw. muss man dann auf das 3D Feature verzichten...stammt von Nvidia selbst.
Unicous
2014-06-03, 21:57:26
Reading Comprehension: F+
150 Euro Aufpreis für GSync. Und ich bin ein Fan von offenen, lizenzfreien Standards.
Dass der neue Scaler Geld kostet ist nur Verarsche von den Herstellern. Sowas nennt man R&D und ist im Preis inbegriffen. (Normalerweise.)
Ob AMD es verkackt ist erst einmal völlig nebensächlich. Es ist ein Standard, den die Monitorhersteller hoffentlich übernehmen werden und hoffentlich Intel und Nvidia und beizeiten auch die Mobile-GPU Hersteller unterstützen.
Nvdia ist doch nur angepisst, dass VESA mit A-Sync dann doch relativ schnell mit der Zertifizierung fertig wurde. Die dachten sicherlich das dauert noch ein Jahr oder mehr. Jetzt meckern sie, dass es noch nicht ausgereift ist... und das ist "Bla bla bla" um dich mal zu zitieren.
Schnoesel
2014-06-03, 22:27:45
Ja wenn Gsync schon so toll ist, kann man denn mittlerweile Gsync Monitore kaufen oder gibts die nur als Bild?
Mein Gott wir haben jetzt so lange ohne Free/G/A sync gelebt auf ein paar Monate kommts doch auch nicht mehr an. Bis ich meinen nächsten Monitor kaufe in ein paar Jahren wird es schon zufriedenstellende Lösungen beider Seiten geben.
Unicous
2014-06-03, 22:34:30
Das ist ja schön für dich, aber nicht jeder kauft sich in zwei Jahren einen Monitor. Ich gedenke zwar auch erst nach erfolgreicher Implementierung umzusteigen, aber dennoch maße ich mir nicht an jemandem zu sagen, er soll mal die Füße still halten.
Jeder kann seine Kohle verballern wie er möchte.
Und ja, theoretisch gibt es einen Asus Monitor zu kaufen. Theoretisch. Mit der Lieferbarkeit ist das aber so eine Sache.:rolleyes: (Bitte nicht von den Suchmaschinen irritieren lassen, der Asus ist nicht vorrätig.)
Schnoesel
2014-06-03, 22:38:42
Ja sicher aber wenn man so einen Wind macht gehts auch nicht schneller. Es dauert eben alles seine Zeit, bis die Monitore marktreif sind/auf den Markt kommen oder die Technik reibungslos funktioniert. Abgesehen davon, als Early Adopter kann man echt Böse hinfallen und dafür löhnt man dann noch ne ganze Ecke mehr.
Ich kanns verstehen wenn ich auf der Suche nach nem neuen Monitor wäre, würde ich auch keinen ohne eines der beiden Features nehmen, da heißt es Geduld haben.
occ-kh@Mirko
2014-06-03, 22:52:36
Aktuelle Flüssigkristalldisplays sind keineswegs so flexibel, wie es für eine adaptive Synchronisation nötig wäre. Die Darstellung würde unangenehm flimmern, wenn man die Bildwiederholfrequenz derart großzügig variiert.
Damit ist alles gesagt, dass kann man keineswegs mit einem einfachen kostenlosen Ansatz wie einem Treiberupdate glattziehen...Wunschvorstellungen seitens AMD...das ist das was ich kritisiere, nicht den freien Standardansatz, dass geht i.O.. man sollte von vornherein alle Karten auf den Tisch legen.
Gipsel
2014-06-03, 23:13:08
Wie schon erwähnt (gerade vor ein paar Posts) ist der Heise-Artikel zu einem Großteil (inklusive Deinem Zitat) schlicht Schrott. Siehe auch dem Link ins Technolgieforum dazu (und mehr als ein Post da lesen).
Die Grafikengine ist aber was anderes als die Grafikkarte und redet nicht mit dem Monitor. Und warum sollte die Engine überhaupt für Animationen in die Zukunft schauen müssen? Die laufen doch abhängig vom Input so ab, wie sie programmiert wurden. Solange die Frames pro Sekunde keine unspielbaren Regionen erreichen, sieht es flüssig aus und unterhalb dieser Region ruckelt es sowieso.
Oder habe ich da einen Denkfehler?
Die Engine redet aber mit der Karte (über x layers of crap). Und richtig, der Maus-Input z.B. läuft Framraten-unabhängig, hier nimmt man einfach den neuesten Wert und gut ist. Bei Animationen sieht es aber anders aus, hier muss nach z. B. 1,5 Sekunden das Modell in einem bestimmten Zustand angezeigt werden. Nun fängt man bei 1,48 Sekunden an, das Bild zu rendern. Man muss also schätzen, dass das Bild bei 1,5 Sekunden fertig sein wird, um dann genau den gewünschten Szenenzustand zu treffen. Ist das Bild wider erwarten später fertig, muss für das nächste Bild ein kürzerer Animationsabstand gewählt werden, um die verlorene Zeit aufzuholen, damit die Animation insgesamt nicht zu schnell oder zu langsam läuft. Dazwischen hat man eine kurzzeitige Verlangsamung gefolgt von einer Beschleunigung innerhalb der Animation (Mikroruckler).
Ich sehe nur 2 Lösungswege: Entweder man hat eine stabile Framerate (am worst-case ausgerichtet), oder man bekommt irgendwie die Abschätzung besser hin, z.B. anhand der Anzahl der zu berechnenden Vertices und Fragments unter Einbezug der konkreten Shader. Eine Hardware-nahe Schnittstelle würde das vereinfachen.
occ-kh@Mirko
2014-06-03, 23:36:24
Wie schon erwähnt (gerade vor ein paar Posts) ist der Heise-Artikel zu einem Großteil (inklusive Deinem Zitat) schlicht Schrott. Siehe auch dem Link ins Technolgieforum dazu (und mehr als ein Post da lesen).
Hm, würde mal behaupten wenn die fps Rate unter AS unter die vorgesehene minimale Bildfrequenz des Monitors fällt dürfte es flimmern...mein Einwurf bezog sich auf den CT Beitrag und den Nvidia Part ala 120-140hz. Hab jetzt nicht verfolgt ob der von heise darauf aufbaut.
Zudem:
Stand 03.06.2014
Die Demo läuft mit einer Bildwiederholfrequenz von 47 bis 48 Frames pro Sekunde und der Monitor liefert dank der angepassten Bildwiederhohlfrequenz ein einwandfreies Bild ab, das dem von Nvidias G-Sync sehr ähnlich sieht. Eine variierende Framerate, auf die der Monitor reagieren kann, lässt die Demo aktuell noch nicht zu.
Stand 07.01.2014
Mittlerweile kann auch der Catalyst-Treiber mit variablen VBLANK-Intervallen umgehen, sodass AMD auf der CES eine erste, kleine Techdemo auf zwei „Satellite Click“-Notebooks von Toshiba zeigt, die laut Anandtech gut funktioniert. Jedoch ist das nur ein sehr kurzer Ersteindruck, da die Demo zum Beispiel keine variablen Frameraten zulässt, sondern nur V-Sync mit 30 FPS und FreeSync mit 50 FPS zeigt.
Man macht Fortschritte...50 vs 48 fps.
fondness
2014-06-04, 11:11:55
Macht ja auch keinen Sinn das der Treiber heute schon läuft wenn Monitore frühestens in einem halben Jahr kommen.
occ-kh@Mirko
2014-06-04, 12:13:09
Eher später: http://www.pcgameshardware.de/LCD-Hardware-154105/News/G-Sync-FreeSync-Adaptive-Sync-wann-kommen-Monitore-1122557/
Ich hab doch nichts gegen den Ansatz an sich, als freien Standard, nur diese Massenverblödung stört mich...erst sagt man Free Sync, alles mit einem Treiber und gut, dann stellt man fest, mh Mist müsste wohl doch zertifiziert werden wenn sich jemand dran halten soll, also wirds zertifiziert (weil sowieso ans DP Protokoll gebunden!) und daraufhin stellt man fest, ups die Displays unterstützen den Ansatz nicht und brauchen zusatzliche Hardware (hat man aber bei der Konkurrenz kritisiert, bei uns geht es ohne, proprietärlos, nee, der Scalerchip (in Form der zusätzlichen Hardware) kommt von einem anderen Hersteller!), gut, nun behauptet man naja es kostet wohl doch etwas, nur wir sind billiger als die Konkurrenz.
Wie will man bitte schön billiger sein wenn man garkeinen Einfluss darauf hat, sondern die Monitorhersteller festlegen was das kostet, nämlich nachdem für was sie die zusätzliche Hardware einkaufen und auch zertifizieren müssen? Zudem hat Nvidia bis dahin Zeit den Preis anzupassen und gehen dann wohl laut Huang von 100$ Mehrkosten pro Monitor aus.
Blödes Marketing...für einen Ansatz der es sicherlich so nicht verdient hat.
fondness
2014-06-04, 12:18:30
Eher später: http://www.pcgameshardware.de/LCD-Hardware-154105/News/G-Sync-FreeSync-Adaptive-Sync-wann-kommen-Monitore-1122557/
Ich hab doch nichts gegen den Ansatz an sich, als freien Standard, nur diese Massenverblödung stört mich...erst sagt man Free Sync, alles mit einem Treiber und gut, dann stellt man fest, mh Mist müsste wohl doch zertifiziert werden wenn sich jemand dran halten soll, also wirds zertifiziert (weil sowieso ans DP zertifikat gebunden!) und daraufhin stellt man fest, ups die Displays unterstützen den Ansatz nicht und brauchen zusatzliche Hardware (hat aber bei der Konkurrenz kritisiert, brei uns geht es ohne, proprietärlos, nee der Scalerchip kommt von einem anderen Hersteller!), gut, nun behauptet man naja es kostet wohl doch etwas, nur wir sind billiger als die Konkurrenz.
Wie will man bitte schön billiger sein wenn man garkeinen Einfluss darauf hat, sondern die Monitorhersteller festlegen was das kostet und auch zertifizieren müssen? Zudem hat Nvidia bis dahin Zeit den Preis anzupassen und gegen dan wohl laut Huang von 100$ Mehrkosten aus.
Blödes Marketing...für einen Ansatz der es sicherlich so nicht verdient hat.
Mir kommt eher vor du betreibst mit diesem Beitrag Massenverblödung. Das man neue Scalerchips benötigen wird war von Anfang an klar. Es gibt keine Lizenzkosten, der VESA-Standard ist frei und jeder kann diese zusätzliche Funktion in ihre Scaler einbauen, es gibt keinen Monopolanbieter wie bei G-Sync.
occ-kh@Mirko
2014-06-04, 12:25:54
Mir kommt eher vor du betreibst mit diesem Beitrag Massenverblödung. Das man neue Scalerchips benötigen wird war von Anfang an klar.
Gut, wenn du meinst...
Die Technologie einer variablen Bildwiederholrate existiert bereits und wird seit einiger Zeit von Radeon-Grafikkarten und -APUs unterstützt. Die Technologie kontrolliert das sogenannte VBLANK-Intervall, das Teil des VESA-Standards (Video Electronics Standards Association) für Monitore ist. Voraussetzung: Sowohl die Display-Engine der Grafikkarte als auch der angeschlossene Monitor unterstützen die Funktion. AMD entwickelte lediglich einen Treiber, der die Kontrolle des VBLANK-Timings unterstützt. In die aktuelle Version des Catalyst-Treibers wurde die Funktion bereits implementiert
Wie Anandtech meldet, hat AMD nun auf der CES 2014 eine Technik mit dem Arbeitstitel »FreeSync« vorgestellt, die ähnlich funktioniert, aber keine spezielle Hardware benötigen soll.
fondness
2014-06-04, 12:28:53
Jeder Monitor benötigt einen Scaler. :rolleyes:
Es wird keine spezielle Hardware wie das tolle FPGA-Board von NV benötigt. Das die Hardware das Feature unterstützen muss steht auch in dem vom dir zitierten Beitrag:
"Voraussetzung: Sowohl die Display-Engine der Grafikkarte als auch der angeschlossene Monitor unterstützen die Funktion."
occ-kh@Mirko
2014-06-04, 12:45:49
Und jeder DP Port ab Version 1.1 kostet wegen HDMI-HDPC konforme Unterstützung Lizenzgebühren...ansonsten ist er verboten oder Unterstützt das Protkoll nicht, aber macht ruhig weiter. Adapter sind ohne Zertifikat ebenfalls regelwidrig. Das HDMI Konsortium hat dazu deutlich Stellung genommen.
fondness
2014-06-04, 12:47:28
Sag mal willst du mich jetzt verarschen?
Unicous
2014-06-04, 12:48:33
@amd-occ-kh@Mirko
Du verwechselt weiterhin zwei Sachen. Adapative Sync, der VESA-Standard und FreeSync, das AMD Projekt um es auf AMD Systemen zum Laufen zu bringen.
Ersteres ist ein offener Standard, zweiteres ist eine Hardware bzw. eher Softwarelösung eines Herstellers.
Du vermischst die Sachen beliebig um darauf rumzuhacken. Dass die Monitorhersteller das nicht mit offenen Armen aufnehmen liegt nicht zuletzt an Nvidia und den anderen GPU-Herstellern die (jedenfalls öffentlich) kein Interesse zeigen, das Ganze zu untersützen. Bei GSync geht Nvidia in Vorleistung und die Hersteller hauen das Modul rein und ihre Marge drauf.(y)
bei A-Sync gibt es nur einen IHV der das überhaupt unterstützt und dann müssen wir auch noch die Arbeit machen. (Ich weiß das hatte ich schon mal gesagt, aber so ist es eben). Lustig finde ich aber dennoch Samsungs Aussage:
Auf die Frage nach G-Sync antwortete Samsung sehr zurückhaltend: "Proprietäre Methoden, die wir nicht selbst entwickelt haben, zu unterstützen, will gut überlegt sein.";D
So wie es aussieht, sind die Hersteller dennoch nicht abgetan von A-Sync, außer eben den Herstellern die auf GSync bauen. Komische Koinzidenz (alliteration intended).:wink:
Ein neuer Scaler kostet doch nicht die Welt, besonders wenn er massenhaft hergestellt wird. Und ich wiederhole auch das nochmals. Das ist R&D und die Scaler, behaupte ich, liegen schon seit Jahren in ihren Labs rum. Die Hersteller tun ja so, als ob das Konzept etwas ganz Neuartiges wäre und erst Ende letzten Jahres von Nvidia "entdeckt" wurde. Intel hatte das schon vor Jahren vorgestellt und die "Grundlagenforschung" ist sicherlich noch älter.
Das ist alles Taktiererei und Marketing. Die wollen auch nichts anderes als Geld. Bzw. mehr Geld.
edit:
Was soll denn jetzt der Quatsch mit HDCP. Thread derailing much?
occ-kh@Mirko
2014-06-04, 13:02:21
"Free Sync" ist nur mittels DP Port möglich...also nicht Lizenzfrei wie mein Beitrag oben erklärt.
Es gibt keine Lizenzkosten, der VESA-Standard ist frei und jeder kann diese zusätzliche Funktion in ihre Scaler einbauen, es gibt keinen Monopolanbieter wie bei G-Sync.
Nein...
DisplayPort 1.1 erlaubt Kompatibilität zu DVI und HDMI, so dass ein Anschluss über preisgünstige Adapter möglich ist, die nur noch eine Anpassung der elektrischen Signalisierungsebene von TMDS auf LVDS vornehmen müssen. Dies erreichen die Grafikchiphersteller Intel, AMD und Nvidia mit einem Trick, der bereits auf der Grafikkarte ansetzt und nicht erst hinter dem eigentlichen Ausgang: Erkennt die Grafikkarte, dass es sich bei dem angeschlossenen Gerät um ein Modell mit DisplayPort handelt, werden die Signale auch in diesem Format ausgegeben. Wird hingegen z. B. ein Adapter auf HDMI verwendet, so signalisiert dies der Karte, intern auf das HDMI-Protokoll umzuschalten. Die Anpassung der unterschiedlichen Signalpegel und Impedanzen der Signalisierungsverfahren LVDS (DisplayPort) und TMDS (DVI/HDMI) auf elektrischer Ebene erfolgt dann im nachgeschalteten Impedanzwandler/Level-Shifter, der die Signalflanken unverändert durchleitet, jedoch Signalpegel und Impedanz an die Zielschnittstelle anpasst.
Im April 2007 verabschiedete die VESA die Version 1.1, die unter anderem die Unterstützung der Verschlüsselung mittels HDCP 1.3 beinhaltet.
Unicous
2014-06-04, 13:07:33
Kannst du mir eigentlich mal sagen was HDMI Konsortium damit zu tun hat?
HDCP gehört Intel, bzw. der Digital Content Protection, LLC.
Get your facts straight, dude.
HDCP ist natürlich optional.
Freund Blase, informiere dich vorher.
occ-kh@Mirko
2014-06-04, 13:18:06
Freund Blase, informiere dich vorher.
Darüber hinaus ist die DisplayPort-Spezifikation seit Version 1.2 nicht mehr frei verfügbar, sondern nur noch gegen Bezahlung oder (ebenfalls kostenpflichtiger) Mitgliedschaft in der VESA-Group einsehbar.
Ich lach mich gerade schlapp...sowas echt.:P
fondness
2014-06-04, 13:29:32
Ja ich lache mich auch gerade schlapp über dein Kindergartenniveau, jeder Monitorhersteller ist ohnehin Mitglied in der VESA-Group und eine Alternative dazu gibt es ohnehin nicht. Aber troll nur weiter herum.
http://www.vesa.org/about-vesa/member-companies/
"Free Sync" ist nur mittels DP Port möglich...also nicht Lizenzfrei wie mein Beitrag oben erklärt.
Der ganze Kram, den du zitierst bezieht sich auf die Verbindung einer DP-GraKa mit einem HDMI/DVI-Monitor (und den damit verbundenen Lizenzkosten). Da A/Free-Sync einen DP-Monitor voraussetzen, tut das hier überhaupt nichts zur Sache.
Unicous
2014-06-04, 13:51:35
Ich lach mich gerade schlapp...sowas echt.:P
Du zitierst die deutsche Wikipedia, aber es gibt dazu keine Quelle.
http://www.vesa.org/vesa-standards/
Ich aber habe eine Quelle
All new DisplayPort related standards issued by VESA will NOT be available to non-VESA members. You must join VESA to have access to these standards. Select the become a member button below.
A number of VESA Standards are available free of charge. Free Standards available here. Non-VESA members can purchase standards via the button below.
If you are not a VESA member, we encourage you to join. Click the button below.
VESA members have access to all VESA Standards free of charge.
Ich wüsste auch nicht, was jetzt das Schlimme daran ist. VESA ist der Kurator der Standards und muss sich als royalty free Institut über Wasser halten. Das macht sie durch Mitgliedsbeiträge oder eben durch per spec fee.
Sich darüber so zu echauffieren, zeigt nur dass du keine Argumente hast.
Du tust ja so als ginge es hier um Millionen Dollar.
http://www.vesa.org/wp-content/uploads/2013/04/memapp-2013.pdf
8000 Dollar. Muahahaha. peanuts.
occ-kh@Mirko
2014-06-04, 14:24:32
dein Kindergartenniveau...troll nur weiter...
O.k. ...
Du zitierst die deutsche Wikipedia, aber es gibt dazu keine Quelle.http://www.vesa.org/vesa-standards/Ich aber habe eine Quelle.
Ich auch: "Non-VESA members may purchase standards via our Purchase Standards Page..."
Die "Holzhammer-Taktik" ist im Übrigen falsch gewählt...gut macht weiter.
Unicous
2014-06-04, 14:31:57
Was für ein Holzhammer? Das Niveau sackt spürbar ab. Du artikulierst dich nicht richtig und schmeißt mit Halbwahrheiten umher. (HDMI ->HDCP-> DP, whatever)
Dass VESA jetzt nicht der geilste Standards Body eva ist, weiß jedes Kind, aber
nochmals:
VESA members have access to all VESA Standards free of charge.
Edit:
Ööööhm
Though they aren't talking about what monitor it is or who the manufacturer is, the demo is up and running and functions with frame rates wavering between 40 FPS and 60 FPS - the most crucial range of frame rates that can adversely affect gaming experiences.
http://www.pcper.com/news/Graphics-Cards/AMD-Demonstrates-Prototype-FreeSync-Monitor-DisplayPort-Adaptive-Sync-Feature
Und noch ein Kicker. Was ich ja die ganze Zeit behaupte:
Even more interesting, this is a pre-existing display that has had its firmware updated to support Adaptive Sync. That's potentially exciting news! Monitors COULD BE UPGRADED to support this feature, but AMD warns us: "...this does not guarantee that firmware alone can enable the feature, it does reveal that some scalar/LCD combinations are already sufficiently advanced that they can support some degree of DRR (dynamic refresh rate) and the full DPAS (DisplayPort Adaptive Sync) specification through software changes."
occ-kh@Mirko
2014-06-04, 15:08:32
Das Niveau sackt spürbar ab. Du artikulierst dich nicht richtig und schmeißt mit Halbwahrheiten umher. (HDMI ->HDCP-> DP, whatever)
Fühlst du dich gut dabei...? Den Schwachsinn den du über FreeSync ala AdpativSync geschrieben hast findest du besser? Fragst dann auch noch nach HDMI.org?
Mach dir mal Gedanken über die Signalanbindung, dann weißt warum was und wie nicht funktioniert.
Im Übrigen es ist genau umgekehrt, jeder DP1.2a unterstützt HDPC aber AdaptivSync ist optional, daher gibt es bereits Geräte am Markt mit dem Standard 1.2a zu kaufen, die eben nicht AdaptivSync kompatibel sind. Was auch normal ist, denn auch eDP/iDP sind kaum verbreitet, man setzt z.B. auch im Mobilebereich auf anderes, dort ist immer noch LVDS weit verbreitet.
robbitop
2014-06-04, 15:12:15
Displayport braucht man sowohl für G-Sync als auch A-Sync.
Einen Scaler braucht man für jeden Monitor.
Scaler werden regelmäßig neu entwickelt, weil es sowieso Fortschritt gibt (DP1.3, 144 Hz, 4K etc). Das VBlank Feature muss man sozusagen bei einer Weiterentwicklung bei Scalern (die eh stattfindet!) nur mitberücksichtigen. Und das Feature is ein offener Standard.
G-Sync ist nicht Teil des offenen Vesa Standards und ist propretär. Auch kann man nicht einfach so das Board in jeden Monitor einbauen. Da ist schon eine ganze Menge Anpassung möglich.
G-Sync nutzt - Stand heute - eine teure FPGA + DRAM Lösung.
G-Sync ist also ggü A-Sync teurer und propretär. Alle anderen Hersteller werden bei einem offenen Vesa Standard mittelfristig schon mitziehen.
Ich verstehe die Diskussion darüber ehrlich gesagt nicht.
Unicous
2014-06-04, 15:20:22
@amd-occ-kh@Mirko
Ich habe doch gesagt du sollst für deine Behauptungen Fakten bringen.
http://www.vesa.org/wp-content/uploads/2013/06/DisplayPort-Marketing-Guidelines-v1_1.pdf
Seite 5
Ich kann auch nichts dafür wenn du etwas von HDMI-HDCP schwadronierst
Zitat:
Und jeder DP Port ab Version 1.1 kostet wegen HDMI-HDPC konforme Unterstützung Lizenzgebühren
HDCP gehört über ein Subsidiary Intel, erzähl also bitte keinen Blödsinn und lass Fakten sprechen.
Und dass dafür Lizenzgebühren abgeführt werden müssen, dafür bist du auch eine Quelle schuldig (wobei ich das noch nicht einmal direkt anzweifele, aber lass doch bitte Fakten sprechen).
Ich weiß nicht ob A-Sync optional ist, kann sein tut aber nichts zur Sache. VESA hat jedenfalls nicht explizit gesagt, es wäre optional, das saugst du dir gerade aus den Fingern, oder hast es von einer anderen minderinformierten Quelle. HDCP hingegen ist weiterhin optional. Einen Gegenbeweis lieferst du nicht, dein Wort ist mir nicht genug.
Wie gesagt, Apple nutzt eDP daher ist es verbreitet.:tongue:
occ-kh@Mirko
2014-06-04, 15:30:38
Alle anderen Hersteller werden bei einem offenen Vesa Standard mittelfristig schon mitziehen.
Das bezweifel ich nicht, es geht dabei um die Art der jeweiligen Informationsverbreitung, sowie "morgen sind wir soweit" und "alles ist umsonst", eben nicht!
Und ob freier Standard dann ggf. mehr kostet ist egal...???? Das ist echt ein Argument, doll.
Wenn Nvidia hier nicht mitzieht was bringt das im dedizierten GPU Bereich?
Man stellt sich hier auf, als wäre es bereits fertig und kann nicht mal eine laufbare Demo geschweige denn stabile Treiber liefern...GSync ist zu DP1.2 kompatibel und genauso hatte Nvidia es auch zum Schluss vermarktet. Als lieferbare Option. Man beschwert sich über buntgrüne Bretterzäune hat aber selbst dunkelrote Brillen auf.
Echt Leute, das vergrault mehr als das sie sich dafür interessieren. Mit diesem ausgeprägten "Konkurrenzdenken" kommt man nicht weit und wen man dann in der Dikussion mal was kritisiert um auf die mittlerweile andere Entwicklung hinzuweisen wird man blöd angemacht und als Troll, niveaulos oder Kindergarten beschrieben...
Gut...
In DP1.3 bleibt AS optional...Schluss. Bringt nichts. Dann eben nicht.
Iruwen
2014-06-04, 15:30:53
Es zeugt nebenbei von Größe einfach auch mal zuzugeben, dass man sich in einer Diskussion verrannt hat. Belegbare Fakten sind auch immer sehr schön.
Screemer
2014-06-04, 15:33:58
alleine das obige zitat von pcper sollte doch die diskussion zur ruhe bringen. es gibt also heute schon monitore, welche edp/as mit firmwareupgrade unterstützen. außerdem sind die panels bis mind. 40hz wohl auch völlig unproblematisch, darunter ist nicht bekannt. mir wäre as bis hinab auf 30hz schon genug. darunter daddel ich sowieso nix.
@amd-occ-kh@Mirko: du solltest deine behauptungen/aussagen mit quellen belegen. der wiki link ist keine quelle, denn dieser ist selbst nicht mit einer aussagekräftigen quelle belegt. damit könntest du die diskussionskultur ein bisschen hochhalten. so gerne ich deine beiträge in anderen themen lese, so mehr geht mir dein gebashe in diesem thread auf den geist. du wirfst mit unterstellungen um dich, die in den posts anderer in keiner art impliziert sind.
occ-kh@Mirko
2014-06-04, 15:34:20
Es zeugt nebenbei von Größe einfach auch mal zuzugeben, dass man sich in einer Diskussion verrannt hat. Belegbare Fakten sind auch immer sehr schön.
Das entwicklet sich definitv, o.k., ich zieh mich zurück, den Rest kann man auf HDMI.org lesen.
Unicous
2014-06-04, 15:39:54
Du checkst weiterhin nicht, dass DP ein freier, lizenzfreier Standard ist, die Specs aber nur (zahlende) Mitglieder einsehen können oder auf per spec Basis zahlende. Da VESA non-profit ist, müssen sie ja irgendwie den Verwaltungsapparat am Laufen halten. Bei HDMI ist es Mitgliedsgebühr plus Lizenzgebühren und ich glaube gestaffelt nach Verkäufen oder so. Müsste ich nochmal nachgucken.
Optionale Features die auf proprietären Technologien basieren könnten in der Tat Lizenzgebühren nach sich ziehen. Aber die zieht ja nicht VESA ein. Sondern der Lizenzgeber, also im Fall von HDCP Intel/DCP.
In DP1.3 bleibt AS optional...Schluss. Bringt nichts. Dann eben nicht.
Auch diese Aussage, ohne Belege. Woher nimmst du das?
Meine Fresse. Was willst du andauernd mit HDMI? Und was entwickelt sich wohin? Du springst hier vom Einen zum Anderen.
robbitop
2014-06-04, 15:54:59
Das bezweifel ich nicht, es geht dabei um die Art der jeweiligen Informationsverbreitung, sowie "morgen sind wir soweit" und "alles ist umsonst", eben nicht!
Es war doch von Anfang an klar, dass die Scaler vblank unterstützen müssen. Und dass das nicht über Nacht passiert, ist doch klar. Wer hat denn bitte was von "morgen" geschrieben?
Und ob freier Standard dann ggf. mehr kostet ist egal...???? Das ist echt ein Argument, doll.
Warum sollte A-Sync teurer sein? Nochmal: Es muss nur das vblank im Scaler bei einer Neuentwicklung (die sowieso ständig passiert! Keine Mehrkosten! Der BWLer würde sagen "ehda-kosten" - also Kosten die "eh da" sind) lediglich mit berücksichtigt werden. Kein großer Aufwand.
Ein FPGA Board + DRAM ist dort um mind. 1x Größenordnung teurer. (dafür aber schneller am Markt)
Wenn Nvidia hier nicht mitzieht was bringt das im dedizierten GPU Bereich?
Über lang oder kurz wird jeder moderne Scalerchip A-Sync sowieso beherrschen. Weil man es in der Scalerentwicklung eben mitberücksichtigen kann. Das ist keine große Sache.
G-Sync hingegen erzeugt hohe Extrakosten und wird nur in ein paar Monitoren verbaut werden. Da wäre es dumm, von NV sich zu sträuben. Dann hätte man AMD ein tolles Alleinstellungsmerkmal geschenkt: die Unterstützung eines offenen und verbreiteten Standards. Man würde sich schlichtweg lächerlich machen.
Sobald das in allen Scalerchips drin ist, wird auch Intel das Ding unterstützen und dann ist NV in Zugzwang.
Über lang oder kurz wird sich das Einpendeln. Das ist eine Kostenfrage.
Man stellt sich hier auf, als wäre es bereits fertig und kann nicht mal eine laufbare Demo geschweige denn stabile Treiber liefern...GSync ist zu DP1.2 kompatibel und genauso hatte Nvidia es auch zum Schluss vermarktet. Als lieferbare Option. Man beschwert sich über buntgrüne Bretterzäune hat aber selbst dunkelrote Brillen auf.
G-Sync hat mit DP wenig zu tun. Es ist reingebastelt. Sonst bräuchte man den FPGA nicht.
AMD hat sich nirgends "hingestellt" und gesagt, dass es fertig sei. Falls ja, bitte ich um eine Quelle. Es war von Anfang an klar, dass das eine Weile dauert, bis es entsprechende Scalerchips gibt.
Dass der Treiber jetzt rumzickt bei einer Demo ist natürlich peinlich für AMD. Aber da es noch eine Demo ist, völlig irrelevant für den Consumer.
Echt Leute, das vergrault mehr als das sie sich dafür interessieren. Mit diesem ausgeprägten "Konkurrenzdenken" kommt man nicht weit und wen man dann in der Dikussion mal was kritisiert um auf die mittlerweile andere Entwicklung hinzuweisen wird man blöd angemacht und als Troll, niveaulos oder Kindergarten beschrieben...
Das Problem ist, dass du eine etwas andere Wahrnehmung zu haben scheinst. Hier sind sich eigentlich alle über die Tatsachen zu G-Sync und A-Sync einig.
Außerdem ist ein offener Standard für die Allgemeinheit immer besser als ein Propretärer.
Gut...
In DP1.3 bleibt AS optional...Schluss. Bringt nichts. Dann eben nicht.
vblank zu implementieren kostet praktisch keinen Aufwand. Neue Scaler werden eh ständig entwickelt. In genau diesem Zuge wird sich A-Sync völlig automatisch mittelfristig in allen Scalerchips wiederfinden - und damit auch in allen Monitoren. Es wird halt etwas dauern.
occ-kh@Mirko
2014-06-04, 16:56:21
Hier kann man die entsprechend DP zertifizierten Produkte einsehen: http://www.vesa.org/displayport-developer/certified-components/ bzw. dann herstellerintern mittels Link auf der Site.
Nvidias Desktop GPUs, soweit noch verfügbar, sind aber auch allesamt zertifiziert, müssten daher das Protokoll unterstützen.
Was man in 2015 erwarten kann vllt. hier: http://www.computerbase.de/2014-05/adaptive-sync-auch-fuer-asus-und-iiyama-ein-thema/
Der weitere DP vs 1.3 Protokollstandard ist bisher nicht offiziell veröffentlicht bzw. steht nicht fest. Ich nehme meine Aussagen zur vorgesehenen Optionalität von AdaptiveSync dahingehend zurück.
In der Diskussion um HDMI Konformität (HDPC) ging es mir um Lizenzgebühren aufgrund der Unterstützung von multimedialen kopiergeschützen Inhalten zur Ausgabe an bildwiedergebende Geräte über DP. Ob die Vesa direkt ans Silicon Valley abführt oder es eine Vereinbarung gibt, dazu kann ich nichts und will ich auch nichts sagen. Da wir uns im Spekulationsbereich befinden, seht es als nicht hinterlegte Info meinerseits oder als Randinformation an.
Adaptive Sync bindet sich an DP1.2a. Nur wenn sich diese Technologie in der Zukunft als Schnittstelle für PC-Monitore auf Dauer durchsetzt, kann es auch flächendeckend zur Anwendung kommen. Ganz kostenfrei war und bleibt es trotzdem nicht wie die Entwicklung gezeigt hat (das wollte ich sagen) und entgegen einiger Argumente klarstellen, die spätere Scaler konforme DP1.2a Zertifizierung und die Kosten für den weiteren Entwicklungsaufwand ausgeschlossen. Ob Herstellerfirmen entsprechender Hardware (z.B. konformer Scalerchips) bereits Mitglieder in Vesa sind lass ich offen.
robbitop
2014-06-04, 17:06:58
Alle großen Monitorhersteller sind VESA Mitglied. Und es entstehen für A-Sync eben keine Mehrkosten. Neue Scaler werden eh immer entwickelt. vblank zu berücksichtigen ist da kein nennenswerter Aufwand.
Unicous
2014-06-04, 17:16:43
LOL.
Jeder popelige Hersteller ist Mitglied bei VESA und auch HDMI, etc.
Der Mitgliedsbeitrag bei VESA sind Peanuts.
Du hast immernoch nicht deine völlig wirren HDMI-Einwürfe erklärt. Was hat das Ganze mit DP zu tun?
Übrigens, falls du es noch nicht weißt, DP hat sein eigenes DRM-Protokoll namens Display Port Content Protection (DPCP).
Weiterhin, was hat HDCP mit A-Sync zu tun? Im doöfsten Fall wird bei HDCP einfach A-Sync ausgeschaltet, im anderen Fall führt man eben die Abgaben an DCP ab und hat HDCP Unterstützung. Ist ja nicht nur VESAs Schuld, dass jeder Depp findet, dass HDMI weiterhin unterstützenswürdig ist und ihre eigene DRM-Technologie dabei ungenutzt vergammelt.
Gipsel
2014-06-04, 18:13:29
Ich bitte doch dringend darum, die OFFTOPIC-Kommentare zu den Lizenzgebühren für HDCP zu unterlassen. Genauso ist es hier sinnfrei darüber zu diskutieren, daß für HDMI generell Lizenzgebühren anfallen und für Displayport nicht.
Dies hat mit dem Thema nun wirklich nicht viel zu tun, da es unabhängig von den für die G-/FreeSync-Funktionalität erforderlichen Features ist.
Danke.
Butterfly
2014-06-04, 18:38:19
Den c't-Artikel hatten wir im Technologieforum schon mal vor einer guten Woche. Auch da habe ich bereits gesagt, daß da die Hälfte nicht so recht stimmt (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10219848#post10219848).
Ok, so gut steig ich da nicht durch.
Soweit ich weiß, ist dafür eine R9 290(x) oder 270x Notwendig!?
???
150 Euro für einen kostenlosen Standard? Lässt du dir kosten, toll.
Schlichtweg gibt es nicht ein Display das diesen Standard im Desktopsegment unterstützt, weil der entsprechende Scaler fehlt, ausser zugefrimmelter "Präsentationstandard"...selbst derzeitige DP1.2a zertifizierte Displays unterstützen Adaptive Sync nicht, es gibt schon welche zu kaufen! Aber klar, AS kam ja jetzt erst.
Naja, was hat wohl ein 1000€ TV für ein Scaler verbaut (AF wird unterstützt)?
Screemer
2014-06-04, 19:41:31
@amd-occ-kh@Mirko: auch dein zitat macht die aussage nicht richtiger. ein monitor mit dp muss hdcp gar nicht unterstützen. das ist optional. was die hersteller machen ist wiederum eine völlig andere sache. nutzt man es führt man seine lizenzzahlungen an intel/DCP (http://www.digital-cp.com/licensing) ab. das hat mit dp gar nix zu tun. das wurde jetzt glaub ich auf den letzten 3 seiten, 10 mal versucht dir klar zu machen. eine nutzung von dp kostet nichts. die specs einsehen kann jeder der für die specs bezahlt (einmalig) oder vesa-mitglied ist.
http://www.allion.com/displayport.html
Test Category
...
• HDCP Test
( not mandatory for DisplayPort logo)
occ-kh@Mirko
2014-06-04, 19:41:58
Ok, so gut steig ich da nicht durch.
Soweit ich weiß, ist dafür eine R9 290(x) oder 270x Notwendig!?
R9 290X, R9 290, R7 260X, R7 260 und APU (Kaveri, Kabini, Temash, Beema, Mullins)
Naja, was hat wohl ein 1000€ TV für ein Scaler verbaut (AF wird unterstützt)?
1.2a unterstützt das Feature, die verfügbaren Geräte im TV Segment sind damit vorerst auf 4k Auflösungen beschränkt (Panasonic etc.) die sehr teuer sind (4000-7000 Euro), zudem unter 1.2a bleibt der Passus "optional". Mehr passt nicht zum Thema.
das ist optional. was die hersteller machen ist wiederum eine völlig andere sache.
...passt nicht zum Thema.
Screemer
2014-06-04, 19:47:04
...passt nicht zum Thema.
wtf?! du hast damit angefangen und dann auch noch seitenlang den quark den du gepostet hast verteidigt. mein post war ein letzter versuch dir das klar zu machen.
Butterfly
2014-06-04, 20:15:34
R9 290X, R9 290, R7 260X, R7 260 und APU (Kaveri, Kabini, Temash, Beema, Mullins)
1.2a unterstützt das Feature, die verfügbaren Geräte im TV Segment sind damit vorerst auf 4k Auflösungen beschränkt (Panasonic etc.) die sehr teuer sind (4000-7000 Euro), zudem unter 1.2a bleibt der Passus "optional". Mehr passt nicht zum Thema.
...passt nicht zum Thema.
Ok, thx für Info!
Wenn die APUs jetzt noch ECC unterstützen, sind sie so gut wie gekauft!
Mit Scaler meine ich ein 37" Samsung TV mit 3x HDMI 1.4 Eingängen, einer davon für den PC.
Wobei ich mit DVI raus gehe, und der Sound (onboard) über SPDIF an den Yamaha 5.1 Receiver geht. :cool:
Gipsel
2014-06-04, 20:20:36
wtf?! du hast damit angefangen und dann auch noch seitenlang den quark den du gepostet hast verteidigt. mein post war ein letzter versuch dir das klar zu machen.Es gab einen Modtext um das zu beerdigen. ;)
Mit Scaler meine ich ein 37" Samsung TV mit 3x HDMI 1.4 Eingängen, einer davon für den PC.
Wobei ich mit DVI raus gehe, und der Sound (onboard) über SPDIF an den Yamaha 5.1 Receiver geht. :cool:
Alles ohne Displayport unterstützt keine adaptive Frameraten.
occ-kh@Mirko
2014-06-04, 20:38:46
mein post war ein letzter versuch dir das klar zu machen.
O.K. danke, sieh dich bei den EXTENSIONS um. Es gibt in beiderseitiger Hinsicht eigene Logos für bestimmte Technologien (Standard, Highspeed; P, P++, P--> usw.), so dann irgendwann auch für das AdapativeSync-Featureset, welche Vorausetzungen dafür erfüllt weden müssen kommt dann mit dem jeweiligen Protokoll zum tragen.
Wenn die APUs jetzt noch ECC unterstützen
Womöglich im FP3, aber dann aufgelötet, weiss nicht ob dich das interessiert: http://www.heise.de/ct/meldung/AMD-Kaveri-Feinheiten-aus-den-Datenblaettern-2088349.html Gab auch eine lange Diskussion um GDDR5 Untertsützung die sich wohl doch erstmal wieder zerschlagen hat, aber auch offtopic, eher hier aufgehoben http://www.forum-3dcenter.org/vbulletin/forumdisplay.php?f=51
Der Rest siehe @Gipsel's Beitrag.
Butterfly
2014-06-04, 20:52:25
Alles ohne Displayport unterstützt keine adaptive Frameraten.
Meno, naja, kann nicht klagen! :smile:
Womöglich im FP3, aber dann aufgelötet, weiss nicht ob dich das interessiert: http://www.heise.de/ct/meldung/AMD-Kaveri-Feinheiten-aus-den-Datenblaettern-2088349.html Gab auch eine lange Diskussion um GDDR5 Untertsützung die sich wohl doch erstmal wieder zerschlagen hat, aber auch offtopic, eher hier aufgehoben http://www.forum-3dcenter.org/vbulletin/forumdisplay.php?f=51
Der Rest siehe @Gipsel's Beitrag.
:massa:
Screemer
2014-06-04, 21:37:06
Es gab einen Modtext um das zu beerdigen. ;)
oh, sorry. den hatte ich übersehen.
fondness
2014-06-05, 13:03:40
Keine Ahnung wie sinnvoll es ist davon ein Video in 30hz aufzunehmen, aber es sind auch einige Infos dabei:
Monitor hat nur ein Firmware-Update benötigt damit das läuft, 9-240hz sollen möglich sein:
fZthhqmhbw8
http://www.anandtech.com/show/8129/computex-2014-amd-demonstrates-first-freesync-monitor-prototype
occ-kh@Mirko
2014-06-05, 13:14:19
Monitor hat nur ein Firmware-Update benötigt damit das läuft
Wenn man schon längerfirstig, also auch vor GSync das Thema aufgegriffen hatte, finde ich den Fortschritt mäßig. Aber meine Meinung!
Man muss den Monitorherstellern schon etwas authentisches liefern, sonst bewegt sich da kein Rad. Weisst du den Monitor-Hersteller? AOC? Das lässt dann hoffen, der Monitor lief ja stabil.
fondness
2014-06-05, 13:16:19
Weisst du den Monitor-Hersteller? AOC? Das lässt dann hoffen, der Monitor lief ja stabil.
Monitorhersteller wird bewusst geheim gehalten.
occ-kh@Mirko
2014-06-05, 13:24:12
O.K.
Screemer
2014-06-05, 13:27:25
ist dann wohl ein asus ;)
robbitop
2014-06-05, 13:28:41
Instead AMD is using it to demonstrate that existing panels and scalers already exist that are capable of variable refresh, and that retail monitors should not require significant/expensive technology upgrades.
Den Satz finde ich wichtig. Gipsel hat ja bereits vermutet, dass aktuelle Scaler prinzipiell das z.T schon unterstützen könnten und es ggf. per Firmware aktivierbar ist.
Sicherlich gehört am Ende etwas mehr dazu. Aber es zeigt, wie viel einfacher es ist, A-Sync zu implementieren als G-Sync.
Unicous
2014-06-05, 13:31:25
In den letzten zwei Tagen seitdem die Demo das erste Mal erwähnt wurde überschlagen sich die Forenexperten allerorten mit dem Scoup was für eine Monitor das konkret sein soll. Von Toshiba über No Name brands bis zu OEM-Gehäusen ist alles dabei.;D
Also ich könnte nicht unterscheiden, was für ein schwarzer Kasten das ist.:freak:
N0Thing
2014-06-05, 13:36:40
ist dann wohl ein asus ;)
Hab mir auch gedacht, daß es wahrscheinlich ein ASUS VG248QE ist und deshalb der Hersteller geheim gehalten wird. :D
occ-kh@Mirko
2014-06-05, 13:37:38
Also ich könnte nicht unterscheiden, was für ein schwarzer Kasten das ist.:freak:
Man kan nur mutmaßen...bringt sicherlich nix, schon wahr. Aber es ist möglich, was einen durchaus hoffen lassen kann, dass zu Weihnachten was geht.
VG248QE???
http://www.asus.com/media/global/products/2HXZjR1YHYisBKrM/dPoJuPZeS1Trkra8_500.jpg
Unicous
2014-06-05, 13:53:10
Grins. Eher nicht.
Wie gesagt, Soviele Monitore gibt es gar, die schon genannt wurden.:biggrin:
Ich gucke mir gerade das Video an. Der AMD Typ sagt, dass nicht erwarten, dass FreeSync//ASync) Mehrkosten für den Endkunden/User bedeutet, weil die Hersteller die Technologie schon nutzen.
Genau das sage ich ja seit Ewigkeiten. Die Technologie ist schon da. Die Hersteller sind einfach nur zu faul/feige, dass zu implementieren.
Screemer
2014-06-05, 14:01:28
Schade ist leider die Aussage im Video: "it is very unlikely that monitor vendors are throwing firmware updates to users...". ist klar, dass die ihr neues zeug verkaufen swollen. trotzdem schade.
occ-kh@Mirko
2014-06-05, 14:01:33
http://img5.fotos-hochladen.net/uploads/lastimport0bdm23ghyra.jpg (http://www.fotos-hochladen.net)
Hier...wenn es erlaubt ist: Nixeus http://www.anandtech.com/show/7585/nixeus-vue27d-monitor-review
Unicous
2014-06-05, 14:05:32
Schade ist leider die Aussage im Video: "it is very unlikely that monitor vendors are throwing firmware updates to users...". list klar, dass die ihr neues zeug verkaufen swollen. trotzdem schade.
Du kannst doch nicht erwarten dass profitorientierte Unternehmen eine "neue" Technologie für lau unters Volk bringen. Und andererseits birgt das auch Kosten und Risiken. Der Scaler kann ja theoretisch in der Lage sein, aber vllt. ist er dennoch nicht ausgereift genug und stable um das 24/7 ohne Bugs zu leisten.
http://images.anandtech.com/gallerie/3252/Last%20Import%20-%2002_575px.jpg
Hier...wenn es erlaubt ist: Nixeus
Wie gesagt, auch dieser Name, und viele andere sind schon gefallen.:wink:
Zum Video. Neue Protoypen im September/Oktober und wieder die Aussage, 6-12 Monate bis die ersten Retail-Monitore erhältlich sind.
occ-kh@Mirko
2014-06-05, 14:13:26
Wie gesagt, auch dieser Name, und viele andere sind schon gefallen.:wink:
Sagen wir mal nicht unmöglich...
http://img5.fotos-hochladen.net/uploads/27dimg6bg3usgf4lo9d.jpg (http://www.fotos-hochladen.net)
Im Übrigen, nicht so schlecht: http://www.nixeus.com/?product=nixeus-vue-27d ausgestattet auch nur DP Input, welche Versionsnummer nicht angegeben. 72w Verbrauch, naja.
Screemer
2014-06-05, 14:14:40
nixeus scheint ja recht aufgeschlossen zu sein: www.overclock.net/t/1430995/at-nixeus-nx-vue27d-a-27-450-wqhd-2560x1440-ips-led-dp-only-monitor/90#post_21698279
Unicous
2014-06-05, 14:24:59
In welcher Hinsicht aufgeschlossen? Gegenüber G-Sync, ja.
For example G-Snync is one feature we are also considering as it is a feature that works out of the box with the supported hardware.
Gegenüber FreeSync/ASync, keine Ahnung?
Aber schön da mal einen Zitat von einem mutmaßlichen (vllt. Peter Trinh, Director of Product Development?) Monitor-Hersteller zu haben... die meine Vermutung bestätigt. G-Sync ist toll, weil die Hersteller das einfach reinschieben können und nichts weiter machen müssen. Nvidia stellt Hardware und Firmware und Treiber für die Grafikkarte. Sozusagen das Rundum Sorglos-Paket. Bei ASync muss man selbst in Vorleistung gehen. Iiih, bäh, Risiken eingehen, wo kommen wir denn da hin.:rolleyes:
robbitop
2014-06-05, 14:28:29
Der Monitor muss schon auf G-Sync angepasst werden. Und der FPGA auf die Eigenheiten des jeweiligen Panels. Einfach nur die Standard-Platine reinklatschen reicht nicht. Zumindest laut Gipsel. Ich kann mir gut vorstellen, dass die Hersteller auch die Platine anpassen müssen.
Schade ist leider die Aussage im Video: "it is very unlikely that monitor vendors are throwing firmware updates to users...". ist klar, dass die ihr neues zeug verkaufen swollen. trotzdem schade.
Wie sollte man die Firmware auch draufspielen? Glaube kaum, dass sich die Scaler über DP programmieren lassen.
Unicous
2014-06-05, 14:31:43
Und was haben sie bei dem Asus Monitor gemacht? Bzw. man konnte es doch einfach selbst machen. Handelsüblicher Asus Monitor Scaler Zeugs raus, Modul rein, dabei keinen Schlag bekommen:biggrin:, Treiber installiert, fertig (jedenfalls laut Nvidia :wink:)
Übrigens, zumindest die FB Page von Nixeus mag wohl ASync.:)
https://www.facebook.com/NixeusTechnology/posts/700603633309943
robbitop, du kleines Schweinchen.:tongue: Schnell noch mal den Beitrag editiert. So macht das natürlich mehr Sinn. Wenn der FPGA für jeden Monitortyp und jeden Hersteller neu angepasst werden muss. Das ist ja eine Heidenarbeit. Ein Glück gibt es einen offenen Standard der solch einen Blödsinn Einhalt gebietet (hoffentlich).
Skysnake
2014-06-05, 14:32:24
Wobei die Frage ist, ob eben nVidia die Aufgabe einem Abnimmt und man "nur" sagen muss welches Panel man verwendet.
Klar ist aber, dass die Hersteller mal wieder die Buchsen voll haben... Beamtenmikado quasi. Wer sich als erstes bewegt verliert....
Der Monitor-, eher der gesamte Displaymarkt ist einfach ungesund, und das nicht erst seit ein zwei Jahren.
Screemer
2014-06-05, 14:38:17
das zitat ist aus dem januar. da war grad mal 3 wochen die rede von freesync (11.1.14). deshalb hab ich das post mal verlinkt. aufgeschlossen war für mich einfach offen für dinge, welche der markt nachfragt.
ich gehe auch davon aus, dass für jedes panel bei gsync der fpga angpasst werden muss. das verfügbare modul ist halt für den asus. andere hersteller/panel -> anderes modul (softwareanpassung). größer ist der aufwand für freesync wohl auch nicht. ist ja auch nicht grad so, dass alle hersteller unterschiedliche scaler und panels benutzen. der obige nutzt lg-panels, wie auch der catleap q270. allerdings in höherer qualität und wohl auch ne andere treiberplatine. soviel kann ich zumindest dem thread bei overclock.net entnehmen.
@ndrs: firmwareupdates sind auch heute keine seltenheit. z.b. bietet eizo (http://www.eizo.com/global/support/compatibility/fw4_01/index.html) und andere (https://www.google.de/search?q=firmwareupdate+monitor) immer wieder updates. ob das jetzt den scaler betrifft kann ich natürlich nicht sagen. in obigem video wird ja auch schlicht von "firmware update" gesprochen.
occ-kh@Mirko
2014-06-05, 14:46:14
Im Monitorsegment sind die Gewinne seit Jahren Mau, auch als der Displaymarkt noch boomte. Solche neuen Feature, die ja das Spielerlebnis steigern können, könnten aber helfen den Absatz auch wieder zu beleben, wenn man es sinnvoll angeht. Sollte Freesync wirklich so einfach zu implentieren sein, wirds irgendwann Monitore geben.
Da Gsync ggf. garnicht so anders funktioniert wie FreeSync muss man abwarten wie sich das entwickelt, AMD und die Hersteller müssen am Ball bleiben...weiss nicht obs stimmt, aber geht Nvidia mit dem Modul beim ASUS und DP1.2 Standard nicht über LVDS ans Panel?
anhandtech (http://www.anandtech.com/show/7582/nvidia-gsync-review)The final limitation of the first G-Sync implementation is that it can only connect to displays over LVDS.
robbitop
2014-06-05, 15:01:39
Und was haben sie bei dem Asus Monitor gemacht? Bzw. man konnte es doch einfach selbst machen. Handelsüblicher Asus Monitor Scaler Zeugs raus, Modul rein, dabei keinen Schlag bekommen:biggrin:, Treiber installiert, fertig (jedenfalls laut Nvidia :wink:)
Genau für diesen einen ASUS Monitor hat NV das PCB angepasst und den FPGA eingestellt. Sonst hätte es nicht funktioniert. Aber NV hat auch klar gesagt, dass das eine Ausnahme dastellt, da man nicht so viel R&D hat und die Arbeit für jeden Monitor machen kann.
Musst dir mal die ersten Interviews mit Tom Petersen anschauen. Da wird das alles gesagt.
Unicous
2014-06-05, 15:02:28
Siehe den Edit: Dein eigentlicher Kommentar war noch nicht so eindeutig.
robbitop
2014-06-05, 15:16:49
Ich habe den Beitrag vor deinem Post editiert. ;) (ich editiere fast all meine Beiträge und fast immer - am besten ein paar min Warten zum Antworten)
Unicous
2014-06-05, 15:23:17
Du weißt aber schon, dass wenn man auf Antworten klickt die letzt-aktuelle Version erscheint und nicht der sekündliche Edit.:tongue:
Ich editiere auch, aber dein Anfangspost war noch deutlich spärlicher in der Ausführung.:wink:
Aber egal, das tut ja nichts zur Sache. Ich hege leise Hoffnung, dass ASync kein Schuss in den Ofen ist und sich die Hersteller doch dazu bequemen, es zeitnah zu implementieren.
Kriton
2014-06-05, 16:21:59
Du kannst doch nicht erwarten dass profitorientierte Unternehmen eine "neue" Technologie für lau unters Volk bringen.
Komisch, die Mainboardhersteller machen genau das beim Intelrefresh...
Unicous
2014-06-05, 17:31:42
Wo ist das eine neue Technologie. Kommentierst du nur des Kommentierens wegen?
occ-kh@Mirko
2014-06-05, 17:42:20
Wo ist das eine neue Technologie.
Msata; M.2 ?
Msata; M.2 ?
Das wird wohl kaum per Update freigeschaltet ...
Kriton
2014-06-05, 19:10:25
Wo ist das eine neue Technologie. Kommentierst du nur des Kommentierens wegen?
Ok, es ist keine neue Technologie im Sinne einer neuen Funktionalität (wußte nicht, dass wir hier Semantikspielchen spielen), aber die Idee ist prinzipiell die Gleiche (mir geht es allein um den refresh als solchen in aktuellen MBs). Ein bisschen mitdenken erwarte ich schon, auch wenn mein Diskussionspartner nicht meiner Meinung ist, anstatt gleich wieder Keule rauszuholen und den Gesprächspartner zu verunglimpfen, aber das ist in diesem Forum ja häufiger mal der Fall.
Nach Deiner Logik dürften Sie IMHO kein Update dafür machen, weil sie ja neue MBs verkaufen wollen.
dildo4u
2014-06-05, 19:11:37
NVIDIA G-Sync powers the new 4K-capable ASUS monitor
http://youtu.be/pHfoe7qmPKA
Unicous
2014-06-05, 19:15:46
Wovon sprichst du, Kriton?
MB-Hersteller haben durch Firmware Updates seit eh und je neue CPUs unterstützt, das ist doch keine neue Technologie oder gar Funktion. Am besten noch Geld für das Firmware Update verlangen oder was?:rolleyes:
@dildo4u
Warum bekomme ich von dem Vergleich gerade Augenkrebs. Hilfe.:eek:
Ach jetzt checke ich das. Das Video wurde von Mr. Shaky Hands aufgenommen. Ich dachte gerade, das ruckelt total. Fullscreen wurde es dann klar.
Nochn Edit: Kann es sein, dass der Typ nen Bildstabilisator reingehauen hat, das wabert ja wie Sau.
occ-kh@Mirko
2014-06-05, 19:20:03
NVIDIA G-Sync powers the new 4K-capable ASUS monitor
http://media.bestofmicro.com/bestofces2014,I-J-417979-3.jpg
Unicous
2014-06-05, 20:45:16
Tja, so schwindet auch langsam das window of opportunity
Markteinführung verzögert sich
Sechs G-Sync-Monitore im dritten Quartal verfügbar (http://www.computerbase.de/2014-06/sechs-g-sync-monitore-im-dritten-quartal-verfuegbar/)
Jensen hat im Oktober noch Q1 2014 gesagt. Dann war es Q2. Jetzt ist es Q3 und man weiß nicht mal ob es der Juni oder doch eher der September ist.
Wird wohl Zeit den Vaporizer anzuschmeißen.
Edit: Nur TN-Panels.:eek: Börgs:uup:
occ-kh@Mirko
2014-06-05, 21:02:46
Edit: Nur TN-Panels.:eek: Börgs:uup:
Naja eine Frage des Anwenderanspruches, manche können mit IPS nix anfangen. Es gibt nix schnelleres als TN?
Unicous
2014-06-05, 21:27:02
Es geht nicht um TN an sich. Aber nur TN finde ich schon sehr schwach. Wenn das mit dem Nixeus stimmen sollte, wäre das ein IPS Display. Wenigstens so etwas wie M-VA (ich hab ein BenQ BL2400PT und die Reaktionszeiten, werden nicht gerade die Besten sein, aber das stört mich persönlich nicht) oder eine der anderen, neueren Panel-Technologien hätte es sein können. IPS ist jetzt auch nicht soo meins, aber damit könnte ich mich arrangieren.
So bekommt man ein (wahrscheinlich) reaktionschnelles aber dennoch beschissenes Bild, mit witzhafter Winkelunabhängikeit etc.. Und dann noch den G-Sync Tarif drauf.
aufkrawall
2014-06-05, 21:43:00
Das fällt dir erst jetzt auf?
Unicous
2014-06-05, 21:44:40
Pfff.
Hätte ja sein können, dass es auch nur einen Hersteller gibt, der mal die Puppen tanzen lässt. Aber anscheinend gibts nur TN-Zeugs für die "Massen" und (Papa's) lockerer Brieftasche.
occ-kh@Mirko
2014-06-05, 22:38:42
Pfff.
Hätte ja sein können, dass es auch nur einen Hersteller gibt, der mal die Puppen tanzen lässt. Aber anscheinend gibts nur TN-Zeugs für die "Massen" und (Papa's) lockerer Brieftasche.
Nee, es geht um den "Spieler", die setzen eben zu Hauf auf FHD TN Led,...für Papas oder dessen Brieftasche gibt es sicherlich auch was.
Unicous
2014-06-05, 22:41:44
Du meinst FPS-Junkies, nicht Gamer.
Denn der gemeine Gamer zockt nicht nur FPS.
Und TN ist auch nuzr ein Relikt, weil man gerne die Massen noch ein wenig mehr melken will.
Skysnake
2014-06-06, 09:25:58
Tja, so schwindet auch langsam das window of opportunity
Markteinführung verzögert sich
Sechs G-Sync-Monitore im dritten Quartal verfügbar (http://www.computerbase.de/2014-06/sechs-g-sync-monitore-im-dritten-quartal-verfuegbar/)
Jensen hat im Oktober noch Q1 2014 gesagt. Dann war es Q2. Jetzt ist es Q3 und man weiß nicht mal ob es der Juni oder doch eher der September ist.
Wird wohl Zeit den Vaporizer anzuschmeißen.
Edit: Nur TN-Panels.:eek: Börgs:uup:
Dann geh mal nochmal ein paar (sehr viele) Seiten zurück. Da sollte sich von mir mehrere Posts finden, in denen ich genau das gesagt habe. Bis aus 1-2 Monitore+das Nachrüstkit, wird es erst Monitore ab Q3 geben. Das gabs nämlich auch mal als Aussage von nem Monitor-Hersteller/nVidia. Wurde aber wohl scheinbar wieder entfernt aus dem Netz. Ich fand das dann nämlich auf Nachfrage nicht mehr.
Iruwen
2014-06-06, 10:46:43
Du meinst FPS-Junkies, nicht Gamer.
Denn der gemeine Gamer zockt nicht nur FPS.
Und TN ist auch nuzr ein Relikt, weil man gerne die Massen noch ein wenig mehr melken will.
Der "gemeine Gamer" braucht die Technik über die wir hier reden auch nicht, der würde nichtmal den Unterschied merken. G-Sync hat sich von vornherein an Enthusiasten gerichtet.
Unicous
2014-06-06, 11:12:56
Der gemeine Gamer, der gemeine Videogucker, der gemeine, (mobile) Stromsparer. Ist ja nicht so, dass eine variable Bildwiederholrate nur für Gamer interessant ist.:rolleyes:
Einige Retrogaming Freaks sind schon ganz horny auf G-Sync/ASync weil alte Arcade-Kamellen mit einer ganz komischen Frequenz arbeiten und die jetzt die CRT-Monitore mit neuen Monitoren austauschen können, anstatt teure Ersatzteile zusammenzuklauben.
Eure beschränkte Sichtweise und Nvidias "Weitsicht" sind wieder bezeichnend.
Iruwen
2014-06-06, 12:59:28
Dein Tonfall ebenfalls. Ich wollte dich auf deiner Mission nicht stören, keep going.
occ-kh@Mirko
2014-06-06, 13:05:17
@iruwen...;), @Unicous...:)
Offtopic...
Den "gemeinen" Gamer gibt es nicht, der Facettenreichtum unserer Gesellschaft schlägt sich auch im Gaminganspruch wieder.
TN ist eben schnell (1ms) und bezahlbar...und passt daher in das Konzept 120-144hz mit GSync...wo ist das Problem?
aufkrawall
2014-06-06, 13:14:36
Einige Retrogaming Freaks sind schon ganz horny auf G-Sync/ASync weil alte Arcade-Kamellen mit einer ganz komischen Frequenz arbeiten und die jetzt die CRT-Monitore mit neuen Monitoren austauschen können, anstatt teure Ersatzteile zusammenzuklauben.
Welche Frequenz soll das sein?
Kannst jeden Gamer-TN und einige IPS per Custom Resolution so ziemlich jede Refreshrate ausspucken lassen.
TN ist eben schnell (1ms) und bezahlbar...und passt daher in das Konzept 120-144hz mit GSync...wo ist das Problem?
Dass die vertikalen Blickwinkel ein mieser Witz sind.
occ-kh@Mirko
2014-06-06, 13:20:30
Dass die vertikalen Blickwinkel ein mieser Witz sind.
Definitiv...;) und noch andere Sachen aber IPS mit dem Glitzerkristalleffekt, da wird man auch blind...mich stört es nicht. TN ist dazu sehr sparsam...
http://img5.fotos-hochladen.net/uploads/1234s2hk8fmpte.png (http://www.fotos-hochladen.net)
@Cybersport
Man versucht wohl die Mehrkosten von GSync so gut wie möglich aufzufangen...
Unicous
2014-06-06, 13:25:44
@aufkrawall
Mensch, dann gibt das doch diesen Bastlerfreaks weiter. Die haben sicherlich keinen Schimmer was sie da zusammenbasteln, obwohl sie in der Materie stecken.
Deine Weisheiten kommen da sicherlich gut an.:rolleyes:
occ-kh@Mirko
2014-06-06, 13:37:30
Bastlerfreaks
Wen meinst du damit wieder? Die den Asus Monitor mit dem Modul geupdatet haben? Siehs mal so, die GSyncer konnten was liefern, alles andere ist bisher ziemlich theoretisch...die Aktion fehlt bisher, 50-48-47fps kann ich auch mit einen Framelimiter rausquetschen. Zudem geht GSync Generation 1 wohl wege über openLDI?
Nvidia hatte nach bekanntwerden der Basteleien sofort das Komplettmodul nachgeliefert, dass gelichfalls das Netzteil beinhaltete.
Auch ein Oculus Dev Kit ist nichts für Unbedarfte...das heisst nicht das es Schrott ist.
aufkrawall
2014-06-06, 13:37:46
Definitiv...;) und noch andere Sachen aber IPS mit dem Glitzerkristalleffekt, da wird man auch blind...mich stört es nicht. TN ist dazu sehr sparsam...
IPS glitzert nicht mehr, es bleibt noch der Glow.
@aufkrawall
Mensch, dann gibt das doch diesen Bastlerfreaks weiter. Die haben sicherlich keinen Schimmer was sie da zusammenbasteln, obwohl sie in der Materie stecken.
Deine Weisheiten kommen da sicherlich gut an.:rolleyes:
Was ist denn jetzt so speziell an dieser Frequenz?
Willst du dich um die Antwort herumdrücken, oder was soll der Zirkus?
Unicous
2014-06-06, 13:39:12
Ney, aber du weißt es eben immer besser und die Leute sind eben seit Jahren zu doof es richtig zu machen.:rolleyes:
Das habe ich auf die Schnelle gefunden.
http://shmups.system11.org/viewtopic.php?f=6&t=47778
bzw.
http://www.mameworld.info/ubbthreads/showflat.php?Cat=&Number=324854&page=0&view=expanded&sb=5&o=&vc=1
Z.B.:
55.017somethinghz
Also ein krumme Zahl, die wohl bei den Arcade-Geräten exakt eingestellt wurde. Aber so tiefgreifend habe ich mich nicht damit beschäftigt.
occ-kh@Mirko
2014-06-06, 13:48:50
Ney, aber du weißt es eben immer besser und die Leute sind eben seit Jahren zu doof es richtig zu machen.
Gott, du subsumierst Beiträge von verschiedenen Usern, wo steht das?
Man darf sich auch entgegen einer Meinung oder einem Trend für anderes entscheiden. Sonst würden alle den selben Kram haben, versteh's doch mal.
Free Sync ist geil wenn es das gleiche liefert wie GSync und fast kostenlos bleibt, aber man kann den Leuten doch nicht vorschreiben was sie wollen und sie dann auch noch beschimpfen, dass ist Holzhammertaktik..."Klappe, wir denken für dich und sagen was du brauchst?"
Wenn andere basteln wollen, lass sie doch! Selbst wenn Gsync sich nicht durchsetzen kann, bleibt es eine Technik die sich manch einer leistet (sieh dir @Leondias 3dC-Umfrage an, 20% haben wohl Interesse), der Markt für Exclusives existiert dann (mehr wollte @Iruwen auch nicht sagen). Mach doch nicht solch einen Zinnober daraus, der Großteil wird als offener Standard auf Freesync eben ASync setzen.
Zurück zum Thema...;).
aufkrawall
2014-06-06, 13:51:20
Ney, aber du weißt es eben immer besser und die Leute sind eben seit Jahren zu doof es richtig zu machen.:rolleyes:
Mein Vorwurf Meine Frage traf nur dich. Nicht irgendeine unbekannte 3dparty, die du (womöglich falsch) zitierst.
Unicous
2014-06-06, 13:53:58
Welcher Vorwurf? Welche Frage?
Was zitiere ich falsch? Was konstruierst du denn hier schon wieder?
aufkrawall
2014-06-06, 13:55:11
Das hat man davon, wenn man dich von der Ignore nimmt...
Unicous
2014-06-06, 14:00:56
Entschuldige mal. Du gehst mich hier an und dann erläuterst du noch nicht mal deine Anschuldigungen?
pr0g4m1ng
2014-06-06, 14:04:05
Definitiv...;) und noch andere Sachen aber IPS mit dem Glitzerkristalleffekt, da wird man auch blind...mich stört es nicht. TN ist dazu sehr sparsam...
http://img5.fotos-hochladen.net/uploads/1234s2hk8fmpte.png (http://www.fotos-hochladen.net)
@Cybersport
Man versucht wohl die Mehrkosten von GSync so gut wie möglich aufzufangen...
Mir fehlt bei der Tabelle eine Spalte für Farbdarstellung.
Schlecht | sehr gut | befriedigend
und Schwarzwert
Schlecht | Schlecht | befriedigend
IMO ist Farbdarstellung doch DAS Argument für IPS.
occ-kh@Mirko
2014-06-06, 14:08:14
IPS glitzert nicht mehr
Bei AH-IPS seit 2011...sind aber teurer.
Mir fehlt bei der Tabelle eine Spalte für Farbdarstellung.
Stammt nicht von mir...@Urheber steht drunter...aber ja, Farbdarstellung ist ein Thema, wurde auch verbessert.
Unicous
2014-06-06, 14:14:36
Es ist zwar weiterhin relativ OT, aber ich finde es schade und auch verwunderlich, dass speziell die Monitorentwicklung und die Paneltechnologie seit Jahren stagniert. Bei Fernsehern gibt es gebogene Riesen-OLEDs bei Monitoren regiert weiterhin TN den Markt und die Preise für die anderen Technologien sind entsprechend hoch.
Wie der Nixeus Angestellte es gesagt hat: Je mehr Hersteller/Kunden die neuen Panel-Technologien bestellen, desto schneller sinken die Preise.
Wenn dann aber Apple die ganzen Kapazitäten aufkauft nutzt das dem Markt natürlich auch nichts.;(
aufkrawall
2014-06-06, 14:18:50
Bei AH-IPS seit 2011...sind aber teurer.
Nicht mehr. Dieses Jahr sollen auch noch 4k PLS-Monitore für ~400€ kaufbar sein.
Bei Fernsehern gibt es gebogene Riesen-OLEDs
Zwei oder drei Stück und die Hersteller haben schon wieder das Interesse verloren.
occ-kh@Mirko
2014-06-06, 14:23:09
OLED ist leider noch nicht soweit, die Lebensdauer bestimmter Oledzellen ist...Kacke, aber ich hab da schon in einem anderen Thread aufs Fell bekommen, daher...:weg: IPS wurde stetig weiterentwickelt, aber alles kostet Kohle. Displays bei denen die Nachteile größtenteils ausgemerzt wurden, bleiben vergleichsweise teuer.
Nicht mehr. Dieses Jahr sollen auch noch 4k PLS-Monitore für ~400€ kaufbar sein.
Mmhh, naja abwarten...habe irengdwie von TN Panels oder eher mit geringer DPI gehört?
Alles andere: Intel möchte den Markt pushen...http://www.theinquirer.net/inquirer/news/2348124/computex-intel-and-samsung-team-up-to-slash-the-price-of-4k-panels?
aufkrawall
2014-06-06, 14:26:10
Mmhh, naja abwarten...habe von TN Panels gehört?
PLS, es sind sogar nur 400$:
http://www.computerbase.de/2014-06/guenstige-4k-pls-displays-intel-samsung/
Unicous
2014-06-06, 14:32:52
War ja nur ein Beispiel. Dass OLED immer noch nicht ausgereift ist, obwohl jedes Jahr das Jahr des OLED verkündet wird ist ja nichts Neues.
Aber in der TV-Sparte und anderen Bereichen gibt es wenigstens den Versuch zu erneuern. Es ist ja nicht so, dass der Gaming und professionelle Display-Bereich stagniert. Bei Smartphones gibt es Innovationen innerhalb von wenigen Jahren hat man die Auflösung vervielfacht, die Farbdarstellung enorm verbessert, die verschiedenen Technologien wetteifern fast jedes Jahr um die Krone der besten Technologie.
Die "neuen" Technologien mit denen die Monitor-Hersteller um die Gunst der Kunden buhlen ist ja als lachhaft zu bezeichnen.
Mit dem Rumgeeier bei 4K blamiert sich doch schon wieder die Industrie.
@PLS unter 400 Euro. Hört sich leider wieder nach "too good to be true" an. Und Samsung genießt bei Displays auch nicht mein vollstes Vertrauen.
occ-kh@Mirko
2014-06-06, 14:34:53
PLS, es sind sogar nur 400$:
http://www.computerbase.de/2014-06/guenstige-4k-pls-displays-intel-samsung/
Danke für die Info; PLS ist aber IPS nur von Samsung...
PLS (Plane-to-Line Switching) und Super-PLS Monitore basieren auf der selben Technik wie IPS Displays. PLS Display Panel werden im Unterschied zu IPS Displays von Samsung produziert...
Samsung meint die seien besser, naja...
aufkrawall
2014-06-06, 14:40:56
Ist vergleichbar mit AH-IPS, hat ebenfalls kein Kristallgrieseln.
Hab selber einen Monitor damit.
Unicous
2014-06-06, 14:42:08
Was ist eigentlich aus PSVA oder so geworden? Und es gab noch irgendwas mit Blauer Phase?
Ahh nette Seite.
http://www.merck-performance-materials.de/de/display/function_of_lcd_technologies/blue_phase/blue_phase.html
http://www.merck-performance-materials.de/de/display/function_of_lcd_technologies/ps_va/ps_va.html
occ-kh@Mirko
2014-06-06, 14:52:31
...
eher offtopic...vllt. einen eigenen Thread?
Ist vergleichbar mit AH-IPS...
...mit mehr Farbbrillianz. Derzeit muss man auch nicht unbedingt jammern, die Preise haben sich mittlerweile selbst für 4k Panels halbiert...1600-1200 vs 800-600
Gut, eher wieder zu FreeSync (ASync) vs GSync mittels V-Blank...:)
robbitop
2014-06-06, 19:10:24
Dein Tonfall ebenfalls. Ich wollte dich auf deiner Mission nicht stören, keep going.
Ich stimme Unicous zu (allerdings in neutralem Ton). G-Sync/A-Sync ist eine sehr wertvolle Innovation. IMO wesentlich wertvoller als viele andere HW Fortschritte. Das Prinzip ist super einfach und sowas wünsche ich mir schon seit 15 Jahren (und habe mich damals schon gefragt, warum das keiner macht).
Es spart Strom und der Content (egal welcher - ob Spiele oder Filmmaterial) wird immer in der korrekten Framerate angezeigt. Dadurch wird alles smoother. Juddern (Film) und Tearing (Spiel) sind dann Vergangenheit!
Hinzu kommt, dass weniger FPS dann flüssiger sind. Ist also nicht nur für Enthusiasten interessant - eigentlich im Gegenteil. Gerade für Spieler mit nur mittelschnellen oder langsamen PCs. Man bekommt ein besseres flüssigeres Spielgefühl bei gleicher Leistung.
IMO verschätzt du dich in deiner Sichtweise.
Offtopic:
Allerdings muss ich sagen, dass mir aufgefallen ist, dass Unicous leider häufig einen zu aggressiven Ton an den Tag legt. IMO macht es keinen Unterschied, ob man Recht oder Unrecht hat. Der Ton macht die Musik.
eher offtopic...vllt. einen eigenen Thread?
....
Gut, eher wieder zu FreeSync (ASync) vs GSync mittels V-Blank...:)
Bist du jetzt neuerdings der Moderator?
Blediator16
2014-06-06, 19:14:02
Bringt nur nichts, wenn die Gsync Bildschirme 700€ kosten.
Gipsel
2014-06-06, 19:15:56
Bringt nur nichts, wenn die Gsync Bildschirme 700€ kosten.Das wird ja nicht so bleiben. Konkurrenz (auch mit Free-/A-Sync) belebt das Geschäft.
Unicous
2014-06-06, 19:28:05
@robbitop
Ich wüsste nicht was du unter aggressiven Tonfall verstehst.
Es ist eine beschränkte Sichtweise. Das ist in keiner Weise böse gemeint. Man muss aber einfach mal über den Tellerrand schauen. Viele Forumsuser sind leider wenn es um neue Technologien geht einzig und allein darum bemüht auszuloten wie sie selbst diese am Besten nutzen können ohne mal dem Blick für andere Anwendungsfälle zu öffnen. Und ich meine Nvidia sollte sich überlegen ob sie G-Sync wirklich nur für Gamer vermarkten wollen. Bei der Titan Z sagen sie ja jetzt auch, wir haben es zu sehr als die ultimative Gamer-GPU angepriesen, als auch den professionellen Markt anzusprechen.
Darüber hinaus ist mir G-Sync weiterhin viel zu viel Magie. Ich hätte gerne etwas konkretere Aussagen zur Technologie. Das was Peterson vor einer Weile erzählt hat war schöne Theorie über Vsync, Tearing, Judder... und wie G-Sync das alles in Wohlgefallen auflöst. Aber wie das Modul im Einzelnen funktioniert weiß ich immer noch nicht wirklich. Ist wahrscheinlich für immer ein trade secret.
Bei Adaptive Sync gibt es die Spezifikation zur "freien" Verfügbarkeit.
robbitop
2014-06-06, 19:33:05
Bringt nur nichts, wenn die Gsync Bildschirme 700€ kosten.
Das ist bei jeder großen Neuerung so. Pionierpreise und irgendwann kommts in die breite Masse. R&D Kosten müssen halt erstmal abgeschrieben werden.
Mir ist es in diesem Falle ausnahmsweise mal egal. Ich kaufe mir einen G-Sync 1440/UHD Monitor. (würde auch A-Sync geben, wenn es kurzfristig verfügbar wäre) Zahle ich halt den Pionieraufpreis. Das Feature ist IMO ein Killerfeature. :)
Kriton
2014-06-06, 22:52:49
Wovon sprichst du, Kriton?
MB-Hersteller haben durch Firmware Updates seit eh und je neue CPUs unterstützt, das ist doch keine neue Technologie oder gar Funktion. Am besten noch Geld für das Firmware Update verlangen oder was?:rolleyes:
Na sowas, dabei sprachen wir doch hiervon:
Schade ist leider die Aussage im Video: "it is very unlikely that monitor vendors are throwing firmware updates to users...". ist klar, dass die ihr neues zeug verkaufen swollen. trotzdem schade.
Worauf Du geantwortet hattest:
Du kannst doch nicht erwarten dass profitorientierte Unternehmen eine "neue" Technologie für lau unters Volk bringen. Und andererseits birgt das auch Kosten und Risiken. Der Scaler kann ja theoretisch in der Lage sein, aber vllt. ist er dennoch nicht ausgereift genug und stable um das 24/7 ohne Bugs zu leisten.
Ab und zu lohnt es sich wieder an den Ausgangspunkt zu denken. :wink:
Bei der Titan Z sagen sie ja jetzt auch, wir haben es zu sehr als die ultimative Gamer-GPU angepriesen, als auch den professionellen Markt anzusprechen.
Ja, weil sie bei den Bechmarks gegenüber 295x nicht mithalten können (in den Leistungsregionen fragt vermutlich keiner so richtig nach der Leistungsaufnahme, ehrlicherweise müsste man die ja berücksichtigen, andererseits hat das bei der 4870 auch keiner gemacht), also muss man ein wenig Richtung CUDA etc. zeigen um das Ding zu dem Preis zu rechtfertigen.
Unicous
2014-06-06, 23:09:43
Kriton, du hast einfach einen komischen Vergleich gebracht, nämlich den nicht von Intel sanktionierten Support von Devil's Canyon CPUs auf "alten" Mainboards und einem Monitorhack, bei dem die firmware modizifiziert wurde um DRR zu unterstützen. Ersteres kostet den MB-Fritzen nicht viel, weil es u.U. nur ein String war, der eingefügt werden musste und sich die Specs von der CPU wenn überhaupt, nur unwesentlich geändert haben. Bzw. einige Features nicht nutzbar sind.
Beim Monitor hingegen wird die Software verändert um neue Features zuzulassen. Ob der Scaler das ab kann, ob der Monitor das auf Dauer ab kann ist nicht gesichert.
occ-kh@Mirko
2014-06-07, 08:53:43
Bist du jetzt neuerdings der Moderator?
Darf man nicht darauf hinweisen, dass es vllt. nicht zum grundlegenden Thema beiträgt sich über Displayspecs auszutauschen, bzw. was wieviel kostet? Schon dann nicht wenn man paar Seiten vorher darauf hingewiesen wird, dass man eher beim Thema bleiben soll? Aber ok, gut zu wissen das es da Unterschiede gibt...ich muss das so nicht posten.
Bei Adaptive Sync gibt es die Spezifikation zur "freien" Verfügbarkeit.
Was bei einem proprietären Ansatz eher noch nie der Fall war. Lass uns deine Annahmen w.o. mal BWL'er weiterspinnen. Ich sehe auf diesem Blog ca. 14000 Hits, wenn man jetzt die Umfragewerte zugrunde legt interessieren sich 8-9% für GSync plus denen die sagen was eher da ist wird gekauft, macht das vllt. insgesamt mit Wankler 15-20% (ist ja immer so wenn man es mal in Aktion sieht entscheidet sich der eine oder andere um). Sind dann in diesem Blog 2800 interessierte User dieses Forums die sich vllt. für GSync interessieren, rechne das mal hoch. Dürfte denen schon reichen zumal im dedizierten GPU Bereich Nvidia immer noch weit vor AMD liegt und ich z.B. eine Intel IGP nicht unbedingt als voll spieltauglich dazurechne.
Das man sich jetzt nach FreeSync/Async noch mehr abschottet, ist normal würd ich sagen.
Ich denke die User tun sich nicht schwer...zumal man preislich alles in den Markt drücken kann, viele haben sicherlich bei "Standard" eben Mittelmäßigkeit im Hinterkopf und wenns nur der Treiber ist der dann nicht so doll funzt. Es kommt drauf an mit wieviel Mühe man das Ganze angeht und was man daraus macht. Ich hab da ein ungutes Gefühl...ist aber meine persönliche Meinung.
Ich sehe auf diesem Blog ca. 14000 Hits, wenn man jetzt die Umfragewerte zugrunde legt interessieren sich 8-9% für GSync plus denen die sagen was eher da ist wird gekauft, macht das vllt. insgesamt mit Wankler 15-20% (ist ja immer so wenn man es mal in Aktion sieht entscheidet sich der eine oder andere um). Sind dann in diesem Blog 2800 interessierte User dieses Forums die sich vllt. für GSync interessieren, rechne das mal hoch.
Bevor du hochrechnest, musst du erstmal runterrechnen, wie oft jeder User auf den Thread geklickt hat.... Nach deiner Theorie müsste ich ja mindestens 15 Monitore kaufen, da ich locker 100 Hits erzeugt habe.
Oder redest du von einem anderen "Blog"?
occ-kh@Mirko
2014-06-07, 13:51:47
Das passt übrigens gut in den Thread von gestern zu @ht4u, musst du mal @Hasebear erklären!
Nee, du hast natürlich Recht, vllt. weisst du die Zahlen der weltweiten Spielegemeinde und dann ist es schwerlich diese auf eine Umfrage bei 3d-center zu übertragen. War eben ein BWL'er Bsp.. Habs vergeigt..;).
Bleiben aber diese möglichen bis zu 20%, wie viele nutzen PhysX und denen ist egal...?
Unicous
2014-06-12, 11:27:41
Diesen Eizo mit G-Sync/A-Sync(bzw. überhaupt erstmal Displayport:rolleyes:). Das wäre doch ein netter Anfang. UVP von 299 Euro finde ich auch ok. Vor allem er ist entspiegelt.:love2:
http://www.computerbase.de/2014-06/eizo-foris-fs2434-monitor-input-lag-ips/
Godmode
2014-06-12, 11:35:09
Ich würde keinen 60hz Monitor mehr kaufen, auch nicht mit A-Sync/G-Sync. Mein nächster wird ein 4k mit 120Hz und das dauert sicher noch ein Weilchen.
Unicous
2014-06-12, 11:40:26
Das ist natürlich ein Manko, keine Frage. Aber die Sache mit der input lag- Verringerung finde ich doch sehr interessant, wenn es denn wirklich zutrifft. Und zusammen mit DRR fände ich 60Hz für einen Mittelklasse-Monitor ok. Der UVP ist nach Vergleich mit anderen IPS-Monitoren doch ein wenig hoch, aber der UVP bei Monitoren ist ja meist auch nur Makulatur.
Acer bringt ja auch ein 28" 60Hz Panel mit G-Sync. Von daher.:wink:
Cortana
2014-06-12, 11:42:23
Ich warte auf einen 120Hz 21:9 Monitor mit Gsync/FreeSync, dann steige ich um.
M4xw0lf
2014-06-12, 12:22:06
Ich warte auf einen 4k 24-27" 120Hz A-Sync OLED-Monitor für unter 400€... :freak:
Nightspider
2014-06-12, 12:24:41
Ich warte auf einen 4k 24-27" 120Hz A-Sync OLED-Monitor für unter 400€... :freak:
This! Aber bitte mit Black Frame Insertion. ;)
144Hz wären optional auch gut aber 120Hz würden für den Anfang reichen.
M4xw0lf
2014-06-12, 12:26:17
Ich denke nicht dass Black Frame Insertion bei OLED prinzipbedingt nötig ist. Keine lahmen Flüssigkristalle und so.
PrefoX
2014-06-12, 12:29:38
lustig finde ich ja, das jeder einen gsync/async monitor haben will mit 120+hz, eure kisten bei den neuen spielen aber diese frames gar nicht erreichen, ihr somit auch wieder bei 50-60hz landen werdet xD
Godmode
2014-06-12, 12:32:32
lustig finde ich ja, das jeder einen gsync/async monitor haben will mit 120+hz, eure kisten bei den neuen spielen aber diese frames gar nicht erreichen, ihr somit auch wieder bei 50-60hz landen werdet xD
3D Vision! Und bei älteren Spielen gibts die 120hz dann sicher und es gibt nichts geileres als einen Shooter mit 120hz zu spielen.
PrefoX
2014-06-12, 12:35:40
3D Vision! Und bei älteren Spielen gibts die 120hz dann sicher und es gibt nichts geileres als einen Shooter mit 120hz zu spielen.
wasn 3dvision? das benutzt kein normaler mensch... dafür kannste dir ja bald nen HMD kaufen also sollte das wirklich kein Argument mehr sein. Klar bei älteren shootern is das subba, wieviel zeit verbringt ihr damit? einen Bruchteil.
Nightspider
2014-06-12, 12:35:42
Ich denke nicht dass Black Frame Insertion bei OLED prinzipbedingt nötig ist. Keine lahmen Flüssigkristalle und so.
Ich glaube du hast nicht verstanden wofür Black Frame Insertion da ist.^^
Das gaukelt dir den alten CRT-Effekt vor und erzeugt ein flüssigeres wahrgenommeneres Bild im Gehirn, siehe Occulus Rift DK2.
Jeder LCD würde noch Bewgungsunschärfe im Kopf hervorrufen, selbst wenn es keine Verzögerung beim Wechsel der Pixel geben würde und das Bild sofort wechseln würde.
lustig finde ich ja, das jeder einen gsync/async monitor haben will mit 120+hz, eure kisten bei den neuen spielen aber diese frames gar nicht erreichen, ihr somit auch wieder bei 50-60hz landen werdet xD
Es wird ja keiner gezwungen neue Games mit 120fps zu spielen.
Selbst 80fps bei 80Hz Ausgabe machen schon einen guten Unterschied.
Es gibt kaum Spiele, die nicht extrem schnell mit einer GTX 880 ode AMD Pedant laufen werden und solch schnelle Grafikkarten gibts noch bis zum Ende des Jahres.
Cortana
2014-06-12, 13:08:27
Ich hab meinen aktuellen BenQ E2400HD Monitor (60Hz) zum Spass mal auf 76Hz übertaktet. Jetzt wirkt alles viel flüssiger :D
Ist das zu empfehlen oder gibts Nachteile?
Godmode
2014-06-12, 13:12:55
wasn 3dvision? das benutzt kein normaler mensch... dafür kannste dir ja bald nen HMD kaufen also sollte das wirklich kein Argument mehr sein. Klar bei älteren shootern is das subba, wieviel zeit verbringt ihr damit? einen Bruchteil.
Ich spiele alles was irgendwie geht mit 3DVision. Jeder der das nicht macht, verpasst einiges. Ja mit HMD wirds hoffentlich besser, aber bis diese endlich verfügbar sind, dauert es ja auch sicher noch eine weile.
wasn 3dvision? das benutzt kein normaler mensch... dafür kannste dir ja bald nen HMD kaufen also sollte das wirklich kein Argument mehr sein. Klar bei älteren shootern is das subba, wieviel zeit verbringt ihr damit? einen Bruchteil.
CS ist momentan sehr populaer, und es ist source-engine.
Hab einmal TF2 (this) auf 144Hz gezockt und in MGE (eine Art quake Mod, 1v1) Leute locker besiegt, gegen die ich nie eine Chance hatte zuvor.
Dann hab ich entdeckt, dass mein alter Monitor 75Hz unterstuezt, den ich jetzt wieder zum Shooter-Zocken nutze ;)
-> wuerde mir NIE wieder einen 60Hz Monitor besorgen.
Nightspider
2014-06-13, 21:09:40
Warum sind dann nur alle früher von CRTs auf 60Hz-TFTs glücklich gewechselt?
Mein guter CRT lief damals mit 100-120Hz und den Rückschritt auf einen TFT mit 60Hz habe ich nicht direkt gemerkt.
War man geblendet von der Farbenpracht und Widescreen? Nahm man dan Kompromiss in Kauf oder sah man den Unterschied nur nicht weil man keinen direkten Vergleich zwischen 60 und 120Hz TFTs kannte?
MadManniMan
2014-06-13, 21:35:52
Das Bild war scharf, die Geometrie war super und die Teile waren eeeecht klein. Ich wusste anfangs gar nicht, was ich mit dem zusätzlichen Platz in meinem Zimmer anfangen sollte :D
FlashBFE
2014-06-14, 00:17:07
Richtig, die LCDs brachten Vorteile, die heute keiner mehr sieht, weil sie alltäglich sind. Bei mir haben die 60Hz nicht gestört, weil ich überhaupt schon froh war, mit meiner jeweiligen Grafikkarte über 30fps in Spielen zu kommen. Ich war damals ständiges Geruckel gewöhnt.
hasebaer
2014-06-14, 07:32:42
Warum sind dann nur alle früher von CRTs auf 60Hz-TFTs glücklich gewechselt?
Mein guter CRT lief damals mit 100-120Hz und den Rückschritt auf einen TFT mit 60Hz habe ich nicht direkt gemerkt.
Ich hab den Wechsel auf einen TFT sofort bereut.
Bei meinem damals 5-6 Jahre alten 19" iiyama VM Pro 451 CRT war der Zeilentrafo oder so im Arsch, und der damals (im Winter 06'/07') angeblich beste 19" Gaming TFT für unter 300€ (http://www.prad.de/new/monitore/test-lge-l1970hr-teil12.html#Fazit) laut Prad,
hatte nicht nur völlig überdrehte Neonfarben sondern insbesondere die typischen Verwischeffekte in der Bewegung waren in BF2 und Quake Wars überdeutlich.
Zudem war ich zum ersten mal auf Kantenglättung angewiesen, brauchte ich vorher auch nie.
Kantenglättung war immer "nice to have", aber bei den runden Pixeln der CRTs nicht zwingend.
Im ersten Moment wollte ich das Teil dann auch gleich wieder zurückschicken, aber es gab schon längst keine guten CRTs mehr ...
Zum ersten Mal positiv ist der TFT dann erst über ein Jahr später auf der Jahresendabrechnung meines Stromversorgers aufgefallen...
Leonidas
2014-06-14, 11:43:05
Mein erster TFT war auch schrecklich, der sollte sofort zurück. Nur weil ihr alle so glücklich mit TFTs wart, hab ich das nicht getan.
Nach einer Woche hatten sich die Augen dran gewöhnt und ich wollte den nicht mehr rausrücken.
StefanV
2014-06-14, 19:02:58
kurz:
TFT ist bei Standbildern (Office!) um WELTEN besser.
CRT ist bei Bewegtbildern (Games!) um WELTEN besser.
Mein CRT ist leider kaputt (gestanden) :( :(
War 'nen schöner A901HT :-/
Unicous
2014-06-17, 23:15:58
Richard Huddy behauptet: FreeSync braucht einen Handshake, bei dem die Specs an die GPU kommuniziert werden und bei GSync muss ständig kommuniziert werden und der Buffer induziert Lag.
aufkrawall
2014-06-17, 23:26:21
Haben Blurbusters nicht festgestellt.
Gipsel
2014-06-18, 00:59:33
Haben Blurbusters nicht festgestellt.
Ein (recht kleiner) Performanceverlust ist wohl meßbar, wenn ich das richtig in Erinnerung habe. Und der zusätzliche Lag ist wahrscheinlich im 1ms-Bereich bzw. drunter. Also vermutlich nicht unbedingt falsch, nur nicht sehr aussagekräftig. Man sollte solche Aussagen nicht immer auf die Goldwaage legen bzw. nicht zu viel hineininterpretieren, denn ein zusätzlicher Puffer bedeutet nicht immer zusätzliche Verzögerungen (kann ganz allgemein in einigen speziellen Fällen sogar andersrum sein).
aufkrawall
2014-06-18, 01:35:44
Ein (recht kleiner) Performanceverlust ist wohl meßbar, wenn ich das richtig in Erinnerung habe.
afair hieß es allerdings auch, dass sie den (relativ geringen) Impact noch verbessern wollten und ob Freesync besser ist, wissen wir ja noch nicht.
Langsam könnte der TN-Schrott mal auf den Markt kommen...
ChainSOV
2014-06-19, 14:26:14
wasn 3dvision? das benutzt kein normaler mensch... dafür kannste dir ja bald nen HMD kaufen also sollte das wirklich kein Argument mehr sein. Klar bei älteren shootern is das subba, wieviel zeit verbringt ihr damit? einen Bruchteil.
ich kenne einen "unnormalen", der zockt in 3d auf einem eyefinity gespann, schon verdammt geil :eek:
mir wuerde ja ein 21:9 ips mit freesync reichen, 120Hz wären auch nett, aber auf 4k kann ich verzichten
DrumDub
2014-06-25, 12:28:07
hat ja lange genug gedauert:
Modell g2460Pg mit 24 Zoll - Erstes G-Sync-Display von AOC im Juli verfügbar (http://www.computerbase.de/2014-06/g2460pg-g-sync-display-aoc-verfuegbarkeit/)
AwesomeSauce
2014-07-27, 14:28:13
Ein paar Infos zu G-Sync: http://youtu.be/aG2kIUerD4c?t=29m47s
Besprochen werden u.a das ominöse zusätzliche Latenz-Frame und die DP-Spec, die für FreeSync verwendet wird.
Spoiler: Keine zusätzliche Latenz durch den Buffer (da Lookaside).
Thomas Gräf
2014-07-28, 20:06:07
http://www.tftcentral.co.uk/reviews/asus_rog_swift_pg278q.htm
Sehr umfangreich, hoffe is noch unbekannt der Artikel...
robbitop
2014-07-28, 20:13:07
Wurde im Nachbarthread bereits 2x gepostet.
Thomas Gräf
2014-07-28, 20:36:31
Ohh, sorry isja auch schon seit zehn Tagen im Netz...scharfbin auf den ROG ;)
robbitop
2014-07-28, 21:11:01
Dito. Wenn er denn mal verfügbar wäre... :(
fondness
2014-07-30, 11:07:57
AMD hat heute ein FAQ zu FreeSync veröffentlicht:
http://support.amd.com/en-us/kb-articles/Pages/freesync-faq.aspx
How is Project FreeSync different from NVIDIA G-Sync?
There are three key advantages Project FreeSync holds over G-Sync: no licensing fees for adoption, no expensive or proprietary hardware modules, and no communication overhead.
The last benefit is essential to gamers, as Project FreeSync does not need to poll or wait on the display in order to determine when it’s safe to send the next frame to the monitor.
Project FreeSync uses industry-standard DisplayPort Adaptive-Sync protocols to pre-negotiate supported min/max refresh rates during plug’n’play, which means frame presentation to the user will never be delayed or impaired by time-consuming two-way handshakes.
When can I buy a monitor compatible with Project FreeSync?
AMD has undertaken every necessary effort to enable Project FreeSync in the display ecosystem. Monitor vendors are now integrating the DisplayPort Adaptive-Sync specification and productizing compatible displays. AMD is working closely with these vendors to bring products to market, and we expect compatible monitors in the 4Q14-1Q15 timeframe.
What AMD Radeon™ GPUs are compatible with Project FreeSync?
Project FreeSync will utilize DisplayPort Adaptive-Sync protocols to enable dynamic refresh rates for video playback, gaming and power-saving scenarios.
All AMD Radeon™ graphics cards in the AMD Radeon™ HD 7000, HD 8000, R7 or R9 Series will support Project FreeSync for video playback and power-saving purposes. The AMD Radeon™ R9 295X2, 290X, R9 290, R7 260X and R7 260 GPUs additionally feature updated display controllers that will support dynamic refresh rates during gaming.
AMD APUs codenamed "Kaveri," "Kabini," "Temash," "Beema" and "Mullins" also feature the necessary hardware capabilities to enable dynamic refresh rates for video playback, gaming and power-saving purposes. All products must be connected to a display that supports DisplayPort Adaptive-Sync.
Unicous
2014-07-30, 12:23:45
Da steht nichts Neues...außer dass sich der time frame nochmals verringert hat. Man ging ja von Q1-Q2'15 aus wenn ich mich nicht irre. Aber ob die Monitore zu kaufen sind, ist natürlich wieder eine andere Frage.
Ob das mit dem Overhead wirklich stimmt wage ich langsam zu bezweifeln, aber dennoch ist das Gericht noch nicht zu einem abschließenden Urteil bereit.
Kann sein, dass ich's bisher verpennt habe (falls ja, es muss sich niemand die Mühe machen und einen alten Post raussuchen :) ), aber die unterschiedliche Unterstützung zwischen GCN1.0 und GCN1.1 war mir noch neu. Demnach unterstützt GCN1.0 lediglich umschalten zwischen statischen Wiederholfrequenzen. Noch ein Grund mehr, warum man Pitcairn und Tahiti ersetzen sollte.
Unicous
2014-07-30, 13:51:28
Da gab es doch dieses Interview mit Sweclockers vor ein paar Wochen mit thracks/Robert Hallocks, Radeon-Marketing/Community Manager oder so.
Da wurde das glaube ich benannt. Bekannt war es auf jeden Fall.
Aber egal. Ich hoffe, da kommt endlich mal ein whitepaper und die Behauptungen gegenüber G-Sync möchte ich auch endlich mal quantifiziert sehen. Ich glaube weder AMD noch Nvidia kein Wort, solange sie es nicht technisch begründen. Tom Peterson traue ich auch kein Stück über den Weg. Der hat auch schon gut Dünnpfiff von sich gelassen.
hasebaer
2014-07-30, 14:07:24
Tom Peterson traue ich auch kein Stück über den Weg. Der hat auch schon gut Dünnpfiff von sich gelassen.
Beispiele?
Unicous
2014-07-30, 14:42:19
Was für Beispiele?
Viele Marketing-Aussagen über den "competitor which you shall not name" sind astreine Lügen. Ich schaue mir gerade das Video und da klopfen sie sich auf die Schulter dass es (wahrscheinlich:rolleyes:) ohne CUDA kein GPGPU gegeben hätte. Weil ohne CUDA kein OpenCL DirectCompute etc.
Denn "Close to Metal" hat es nur in einem Paralelluniversum gegeben. Peterson hat wohl auch noch nie von BrookGPU gehört.
Was bis jetzt aus dem Mündern der Beiden kommt, ist keinen Deut besser als AMDs bzw. Richard Huddys Behauptungen. Und ich habe nicht mal die Hälfte gesehen, habe bei den G-Sync Äußerungen angefangen.
Und herrlich ist auch, wie sie die kritische Fragen zwar beantworten aber einen völlig neuen Spin geben. Herrlich. ("Wir haben nie jemandem verboten für AMD zu optimieren." Was für eine Erkenntnis/Nichtaussage.)
In der Vergangenheit hat Peterson schon so einige Sachen abgelassen, das müsste ich aber explizit raussuchen. Meist waren es Videos. Z.B: bei PCPer war er in der Vergangenheit öfter zu Gast.
Kartenlehrling
2014-07-30, 15:03:57
Eigentlich hatte ich schon gehofft das meinen HD7970 noch vom freesync im Gaming profitiert,
für Videos und Stromsparen brauch ich es wirklich nicht, diese Peter Jackson Hobbit in 48hz finde ich zb. furchbar.
hasebaer
2014-07-30, 15:12:59
Was für Beispiele?
Für Dünnpfiff, wie du es nennst.
Viele Marketing-Aussagen über den "competitor which you shall not name" sind astreine Lügen
Jetzt sind wir schon bei den "astreine Lügen".
Dabei sagt er nicht, dass es vor CUDA nichts Ähnliches gab, sondern das sie im Gegensatz zu Anderen in einen Markt richtig investieren mit einer langfristigen Vision, und der Rest folgt dann.
Da ist die Frage wo zb. OpenCL ohne CUDA wäre schon berechtigt.
Btw bei OpenCL machen doch auch alle nur in soweit mit mMn., wie es ihnen grade kurzfristig nutzt, denn wenn das anders wäre, hätte man CUDA in der Entwickelung doch schon längst überholt, bei so fetten Nutzern wie Apple oder Intel.
Was bis jetzt aus dem Mündern der Beiden kommt, ist keinen Deut besser als AMDs bzw. Richard Huddys Behauptungen.
Huddy wirft mit Dreck, wohl wissend das immer etwas hängen bleibt im Hinterstübchen der Leute, egal ob es stimmte oder gelogen war.
Die beiden von NV vermeiden es sich mit AMDs Komplexen zu beschäftigen, sie fordern einfach nur Beweise für AMD Anklagen.
Wie man das gleichsetzen kann, ist mir ein Rätsel.
Unicous
2014-07-30, 15:31:24
Jaja. Ati/AMD hat sich immer nur beschwert und nichts selber gemacht, währenddessen Nvidia investiert und investiert und investiert.
Es ist immer die selbe Laier. Nvidia der Innovator, AMD/Ati der Rumnörgler der nichts kann aber auch etwas vom Kuchen abhaben will.
Ich schaue mir gerade den ersten Teil an. Es wird nur von Lügen gesprochen. Lügen über Lügen. Und dann sagt doch Herr Lebaradian, dass AMD natürlich keinen Zugriff auf den Source Code hat, weil sie keine Licensees sind.:freak:
Darum ging es doch. Der Entwickler kann! Zugriff auf den Source Code haben, aber AMD darf das nicht einsehen und muss schauen wie es dann auf AMD-Karten läuft. Das ist die Grundaussage. Und die beiden schlauen Fuchse umschiffen jede Frage geschickt. Die Schlaftabletten fragen auch nicht nach. Da hätte ich mir erhofft, dass Leute mit mehr Ahnung die Beiden interviewt hätten. Wie z.B. Ryan Shrout. Da wird auch nicht nachgefragt wenn eine ungenügende bzw. Nicht-Antwort kommt.
Und von den Black Boxes spricht nicht nur AMD, sondern auch einzelne Entwickler.
Genau die gleiche Sache mit G-Sync. Wir investieren und investieren und AMD hat ja nur ne Spec die, haha auch noch 1.2a heißt. Hätten sie ja wenigstens 1.2b nennen, diese Idioten.
G-Sync kann man kaufen. FreeSync nicht.:rolleyes:
Die Mär, dass allein Nvidia investiert und innoviert und "Risiken eingeht" geht mir gehörig auf den Senkel. Und AMD und Intel drehen nur Däumchen.:rolleyes:
edit: Diese MaximumPC haben minimum Ahnung und haben sich anscheinend nicht im Geringsten vorbereitet, sie stellen Fragen aber haben kein Hintergrundwissen. Wenn die Nvidia-Leute geschickt gegenfragen kommt nichts zurück außer... .
edit2:
YT-Kommentar:
JonTerp
vor 3 Tagen
The interviewers have ZERO idea what the hell they are talking about and ask 100% the WRONG questions. A huge waste of time for both parties.
So schauts aus.
Blediator16
2014-07-30, 15:51:18
Das geilste ist sie sagen selbst, dass Verträge unter NDA stehen. Da kann AMD/Hurrrrdy machen was sie wollen sie werden im Leben nichts beweisen können :D
Unicous
2014-07-30, 16:00:14
Ich liebe auch die Auto-Analogien.:rolleyes:
Was hat ein komplettes Auto, mit allem drum und dran, hergestellt mit tausenden zugelieferten Teilen mit Grafikkarten gemein? Richtig, auch eine Grafikkarte ist nur Teil des Ganzen. Nvidia ist nur ein Zulieferer und sollte sich meines Erachtens einen Dreck darum scheren, wie das Auto im Endeffekt fährt, oder wie viele Airbags drin sind. Sie sind nicht "das Auto" sondern "nur" die Lichtmaschine.
fondness
2014-08-14, 20:35:11
Erste FreeSync-Monitore vor Bemusterung
http://www.computerbase.de/2014-08/erste-freesync-monitore-vor-bemusterung/
dargo
2014-08-14, 20:40:14
Erste FreeSync-Monitore vor Bemusterung
http://www.computerbase.de/2014-08/erste-freesync-monitore-vor-bemusterung/
Cool. :up:
Dann warte ich noch mit dem neuen 21:9 Bildschirm. ;)
Unicous
2014-08-14, 20:41:58
Nichts Neues. Die Ansage haben sie schon vor ein paar Wochen gemacht. Im September Samples, retail Anfang nächsten Jahres.
Mandalore
2014-08-14, 20:54:33
Wieso besitzen eigentlich alle G-Sync Monitor nur einen Bildeingang`?! Man muss ja nicht immer G-Sync benutzen, daher würde ein HDMI Bsp. sehr viel SInn machen um andere Geräte anzuschließen....
FlashBFE
2014-08-14, 22:22:41
Erste FreeSync-Monitore vor Bemusterung
http://www.computerbase.de/2014-08/erste-freesync-monitore-vor-bemusterung/
Super, ich hoffe, da sind auch ein paar UHD-Modelle dabei. Leider steht da noch nichts konkretes drin.
Nichts Neues. Die Ansage haben sie schon vor ein paar Wochen gemacht.
Ich kannte das noch nicht. Aber selbst wenn ist es doch trotzdem gut zu hören, dass alles weiterhin nach Plan läuft. So weiß ich z.B., dass es sich lohnt darauf zu warten. AMDs Plan wird sein, den gegenwärtig erscheinenden G-Sync-Monitoren ein bisschen Medien-Wind aus den Segeln zu nehmen.
Unicous
2014-08-14, 22:33:21
Hmm. OK.
Hat AMD aber schon auf der Computex vor zwei Monaten gesagt.
hasebaer
2014-08-14, 22:47:30
Ab wann will AMD Monitore zeigen, die auch dynamisch ihre Hz-Rate anpassen?
Ich frage weil in dem angehängten CB-Video zur "Bemusterung-News" wird wieder nur eine statisch abgesenkte Refreshrate auf 40Hz gezeigt wird.
Unicous
2014-08-14, 23:00:15
:rolleyes:
Das Video ist von der Computex. Der Monitor ist ein retail Modell der einen Scaler hat der Adaptive Sync theoretisch unterstützt und bei dem die firmware modifiziert wurde.
Was soll diese versteckte Anklage? Aufregen kannst du dich, wenn die retail Produkte, die hoffentlich in einem halben Jahr aufschlagen nicht das bieten was versprochen wurde.
hasebaer
2014-08-15, 00:06:53
Der Artikel kaut halt Huddys PR-Phrasen durch, die viel versprechen, aber gezeigt wurde bisher nur statisches Absenken der Refreshrate (aka Vsync @ 40 oder 50 Hz).
Es erscheint unwahrscheinlich, dass dynamische Wechsel fehlerfrei funktionieren werden in dem nächsten 1/2 Jahr, wenn man sie immernoch nicht zeigt.
Denn seit der ersten funktionierenden G-Sync Demo bis heute ist auch bald wieder ein Jahr vergangen und erst jetzt sind Modelle von anderen Herstellern als Asus gelistet (kaufbar erst "demnächst", wann auch immer das ist).
Und AMD will das alles in 6 Monaten auf- und überholen?!
aufkrawall
2014-08-15, 00:13:08
Es erscheint unwahrscheinlich, dass dynamische Wechsel fehlerfrei funktionieren werden in dem nächsten 1/2 Jahr, wenn man sie immernoch nicht zeigt.
Es ist wirklich peinlich, dass die "Fachpresse" da nicht kritischer ist.
Unicous
2014-08-15, 00:51:05
@hasebaer
Nun erkläre mir mal wie es bei einem Monitor, den sie wahrscheinlich in Zusammenarbeit mit dem Hersteller für die Computex modifiziert haben um etwas zum Vorzeigen zu haben, Dinge darstellen wollen die erst explizit mit dem gerade erst verabschiedeten Standard und den dazu nötigen Scalern möglich sind?
Nvidia löst das durch ein extra Modul, das erst einmal hergestellt werden musste und den Scaler und so gut wie die gesamte Elektronik ersetzt, hier war es ein quick'n'dirty Versuchsaufbau.
Diese Diskreditierung im Vohinein kann ich nicht nachvollziehen.
AMD hat einen Rahmen vorgegeben. Anfang 2015 soll es neue Monitore auf Basis von Adaptive Sync geben.
Du behauptest im Umkehrschluss AMD und VESA lügen und Adaptive Sync funktioniert nicht wie im Standard festgelegt.
Kannst dich gerne mit Lovesuckz/sontin im Anandtech-Forum austauschen, der spricht auch andauernd von vapor ware, weil ja G-Sync schon seit Ewigkeiten auf dem Markt ist und AMD ja schon vor ÜBER einem HALBEN Jahr FreeSync/A-Sync vorgestellt hat.
benefit of doubt gilt für AMD anscheinend nicht. Angeklagt wird, bevor das Verbrechen überhaupt begangen wurde.
aufkrawall
2014-08-15, 01:16:21
Nun erkläre mir mal wie es bei einem Monitor, den sie wahrscheinlich in Zusammenarbeit mit dem Hersteller für die Computex modifiziert haben um etwas zum Vorzeigen zu haben, Dinge darstellen wollen die erst explizit mit dem gerade erst verabschiedeten Standard und den dazu nötigen Scalern möglich sind?
Dann sollen sie es gar nicht tun bzw. erst, wenn es so weit funktionsfähig ist.
Dieses trifft btw. ziemlich gut meine Definition von Vaporware: Man impliziert eine Funktion, das man eigentlich gar nicht imstande ist zu präsentieren. Zumindest muss man davon ausgehen, denn sonst würden sie ja die sich ändernden Refreshraten zeigen.
Wenn die fps-Rate wirklich Taktgeber für den Monitor ist, also die Freesync-Funktionalität implementiert ist, wären sich ändernde Refreshraten durch schwankende Frameraten nur ein minimaler Arbeitsaufwand (tippe auf wenige Zeilen Code).
Warum also tut man es nicht?
Man stellt zwei Monitore mit verschiedenen Refreshrates nebeneinander und verkauft das als Freesync mit gleicher Funktionalität wie Gsync.
Bist du wirklich derart leichtgläubig?
Unicous
2014-08-15, 01:50:57
Freund Blase, wir können gerne persönlich werden... per pm.
Mir ist es erst einmal scheiß egal ob jemand Holzschrauben in einen Grafikkartendummy schraubt oder nur zwei Monitore zeigt und laut uneinigen Berichten von Journalisten nur eine gefixte refresh rate darstellt.
VESA hat diesen Standard verifiziert und zertifiziert und du bezichtigst mit deinen Anschuldigungen VESA und AMD der Lüge. So einfach ist das.
Ich wüsste auch nicht, dass Freesync mehrmals verschoben wurde...im Gegensatz zu einem gewissen Konkurrenzprodukt. vaporware ist es erst wenn im 2H2015 kein einziger Monitor mit A-Sync/Freesync Unterstützung angeboten wird.
BASTA. Da gibt es auch keine Debatte. Diese peinliche Diskussion führt zu nichts außer sich gegenseit mimimi an den Kopf zu werfen.
Es ist im Übrigen auch wirklich peinlich dass die "Fachpresse" in keinerlei Hinsicht kritischer ist. Und unbeholfen. Und ahnungslos. Und sich die Ohren abkauen lässt. Das gilt insbesondere auch für G-Sync.
aufkrawall
2014-08-15, 02:11:52
Es ist im Übrigen auch wirklich peinlich dass die "Fachpresse" in keinerlei Hinsicht kritischer ist. Und unbeholfen. Und ahnungslos. Und sich die Ohren abkauen lässt. Das gilt insbesondere auch für G-Sync.
Verzerrte Wahrnehmung? Die ständigen Verzögerungen und fragwürdigen Mehrkosten wurden so ziemlich überall thematisiert...
Wenn du unbedingt PMs von Leuten bekommen möchtest (die wohl vornehmlich keine Beschimpfungen enthalten sollen?), solltest du dir vorher vielleicht mal einen anderen Tonfall angewöhnen.
hasebaer
2014-08-15, 08:25:11
Nun erkläre mir mal wie es bei einem Monitor, den sie wahrscheinlich in Zusammenarbeit mit dem Hersteller für die Computex modifiziert haben um etwas zum Vorzeigen zu haben, Dinge darstellen wollen die erst explizit mit dem gerade erst verabschiedeten Standard und den dazu nötigen Scalern möglich sind?
Adaptive Sync ist seit 2009 Teil von eDP und mit Notebooks hätte man dynamisches Takten schon längst zeigen können.
fondness
2014-08-15, 09:00:17
Es ist wirklich peinlich, dass die "Fachpresse" da nicht kritischer ist.
Dafür schaffst DU es kaum einen Beitrag in diesem Forum zu schreiben ohne zu erwähnen das dynamisches Takten bei FreeSync noch nicht gezeigt wurde.
Zur restlichen Diskussion kann ich nur sagen -> Wenn es funktioniert sobald Hardware vorhanden ist (soll ab September das Fall sein), reicht das. Nein man muss nicht jedes Feature ein Jahr vorher vorführen damit es nachher funktionieren kann. AMD wird auf finale Hardware warten und es dann zeigen, anstatt zu viel Zeit für Hacks zu verschwenden. Und nein den Monitor mit der Graka zu syncen ist keine Herzchirurgie und VESA hätte das auch nicht spezifiziert wenn es nicht funktionieren würde. Aber so hat wenigstens auch ein Herr aufkrawall etwas zu kritisieren.
robbitop
2014-08-15, 10:15:11
Absolut richtig. Man sollte erst das Serienprodukt bewerten. Der Vergleich mit G-Sync hinkt. NV hat in aller Ruhe ihr propertiäres Modul entwickelt und getestet und ist erst dann auf die Hersteller zu gegangen. Als es dann einen Prototypen gab, hat man das Ganze vorgestellt. Der zeitliche Vorsprung gegenüber A-Sync ist dadurch deutlich größer als man als einfacher Leser denkt.
fondness
2014-08-15, 10:20:12
Wobei die Geschichte mit dem FPGA-Modul nicht unbedingt so wirkt als hätte man da etwas "in aller Ruhe" entwicklet. Eher wollte man unbedingt vor AMDs offenen Standard am Markt sein. Mittelfristig wird auch NV auf das FPGA-Modul verzichten, da viel zu teuer.
robbitop
2014-08-15, 10:38:15
Auch für die Entwicklung und Validierung des FPGA Moduls und des PCBs kostet Zeit. Das hat IMO locker 1 Jahr gebraucht. Wenn nicht länger. Das muss ja trotzdem alles in VERILOG geschrieben werden - man spart nur die Zeit die der Fertiger braucht. Also spart man vieleicht 3...5 Monate. Die hätte NV inzwischen auch schon gehabt.
IMO ist da > 1 Jahr Vorsprung zu A-Sync. Und IMO ist A-Sync nur eine schnelle Reaktion auf G-Sync. Und das hat auch nur funktioniert, weil es das bei eDP schon gab.
Die Argumentation zu Mehrkosten ist eh völliger Humbug. Neue Scaler werden sowieso ständig entwickelt. Bei der nächsten Neuentwicklung mal eben vblank noch mitzunehmen ist praktisch nicht der Rede wert. Aber so zu tun, als müsste extra deswegen jetzt ein neuer Scaler entwickelt werden... Wenn nicht sowieso ständig neue Scaler entwickelt werden würden, säßen wir heute noch bei DVI-I. Sowas nennt man "eh-da-Kosten". Die kann man nicht seriöserweise irgendwo draufschlagen.
fondness
2014-08-15, 10:53:17
So wie ich das verstanden habe ersetzt NV die Scaler der Monitore aktuell mit dem FPGA und baut eben zusätzlich noch die G-Sync-Funktionalität dazu. Da die Scaler der einzelnen Monitore und Hersteller nicht identisch sind macht ein Silizium-Chip wenig Sinn. Deshalb dauert es wohl auch so lange bis zusätzliche Monitore erscheinen. Mittelfristig müssten die Hersteller wie bei A-Sync diese Funktionalität in ihre eigenen Scaler einbauen. Bleibt die Frage ob das jemand auch macht bei einem proprietären Standard und A-Sync als VESA-Standard am Horizont.
robbitop
2014-08-15, 10:56:05
Bei G-Sync das FPGA. Natürlich könnte NV auch einen ASIC draus machen. Es müssten alle Hersteller, wie auch für G-Sync, dann genau diesen ASIC einsetzen.
Bei A-Sync kann jeder es so umsetzen wie er will, solange es Spec konform ist. Wer weiß, ob G.Sync da auch mal hinwill. Ich tippe aber darauf, wenn A-Sync vernünftig funktioniert, ist es irgendwann in jedem Monitor automatisch drin.
Kartenlehrling
2014-08-15, 12:24:49
Ich wurde ja gern auch einen ASUS ROG Swift PG278Q, 27" mit Lucid virtual sync vergleichen,
ob der unterscheid soo gewaltig ist.
Askingar
2014-08-15, 20:55:22
ist es irgendwann in jedem Monitor automatisch drin.
Nein, es bleibt vorerst optinal. Zukünftige Spezifikationen und Implikationen stehen nicht fest.
N0Thing
2014-08-16, 11:23:42
Auch ein optionales Feature kann ein de facto Standard werden, wenn es nach einmaligen Entwicklungskosten für den Hersteller keinen Vorteil darstellt, das Feature wegzulassen.
Unicous
2014-08-22, 22:06:53
http://www.google.com/patents/US20080055318
Dynamic frame rate adjustment
An image rendering unit (IRU) of a device determines the dynamic frame rate capabilities (DFRCs) of a display and an image frame rate of content to be displayed. Preferably, the DFRCs are stored in a storage device deployed within the display itself. Based on the DFRCs and the image frame rate for the content, the IRU determines an updated frame rate and thereafter provides the content to the display at the updated frame rate. Where control of power consumption is desired, selection of a reduced frame rate can effect a power savings. In this manner, the present invention provides flexible control over display frame rates and/or power consumption of the device.
Veröffentlichungsdatum 6. März 2008
Eingetragen 31. Aug. 2006
https://www.linkedin.com/pub/david-glen/45/5b4/359
Hört sich ziemlich nach Adaptice Sync an und der Typ ist seit 21 Jahren bei Ati/AMD.
Nur mal um den Mythos zu zerstreuen, AMD hätte aus Torschuss-Panik mal schnell FreeSync "erfunden".
boxleitnerb
2014-08-23, 11:02:16
Zweifelhaft. Auch Patente und Projekte können in der Schublade liegen und dann schnell ausgegraben werden. An solche Zufälle glaube ich nicht, so naivbin ich nicht.
robbitop
2014-08-23, 11:46:15
Sicher wurde Freesync nicht mal eben erfunden. Das gab es ja seit 2009 bereits bei eDP. Die IHV machen viel Forschung, wovon aber nicht immer alles sofort in Endprodukte fließt. Nicht alles kann man marktreif entwickeln - zu wenig Ressourcen / Prioritäten. Andere Projekte erweisen sich als Sackgassen. Am Ende haben IHVs verdammt viel Zeug in der Schublade. Nicht unbedingt immer marktreif.
Das wurde dann halt aus der Schublade gezogen.
Unicous
2014-08-23, 14:28:21
Zweifelhaft. Auch Patente und Projekte können in der Schublade liegen und dann schnell ausgegraben werden. An solche Zufälle glaube ich nicht, so naivbin ich nicht.
Was ist zweifelhaft?
Hier wird eine Methode beschrieben wie DRR funktionieren kann und sie ist sehr ähnlich(/identisch?) zu der Methode die von VESA/AMD beschrieben wird. Der eDP Standard wurde Ende 2008 veröffentlicht.
Dass das Ganze in der Schublade steckte wollte ich gar nicht abstreiten. Es ging darum, dass Einige hier und anderswo behaupten, AMD hat ja nur von VESA den eDP VBLANK State geklaut und es ihnen dann als neue optionale Spezifikation für DP 1.2a verkauft.
Askingar
2014-08-23, 14:48:20
Die Frage ist eher wie lange hätte das Ganze noch in der Schublade bei AMD geschlummert?
Adaptive Sync ist bereits seit 2009 Teil der Spezifikationen für den Embedded DisplayPort (eDP), wie er im Mobilebereich Verwendung findet. Nicht umsonst hat die Vesa diesen genau mit dem selben Namen für den Desktopbereich ab eDP 1.2a Spezifikationen übernommen.
Was ganz Neues oder eigenes ist dann also FreeSync nicht. Wie man es und ob, mittels Hardware ausführt, ist wieder eine andere Sache.
Unicous
2014-08-23, 14:57:54
Die Gegenfrage(n): Wie lange hat AMD schon mit VESA an einem Tisch gesessen und über Adaptive Sync gesprochen um es dann innerhalb von 4 Monaten nach Ankündigung von FreeSync in die 1.2a Spec zu schreiben? Und wie lange hat VESA und die Mitglieder dagegen geblockt? Und was wusste das VESA-Mitglied Nvidia von der Sache?
FreeSync ist die Implementierung von AMD Hardware und Software.
Warum hat Nvidia nichts dergleichen getan? Warum hat Nvidia 4 Jahre gebraucht um etwas Ähnliches auf die Beine zu stellen?
Fragen über Fragen und AMD ist natürlich immer der Dumme und Nvidia der einsame Vorreiter, der doch nur mit seinen Innovationen Geld verdienen will.
Askingar
2014-08-23, 15:13:19
1. FreeSync ist die Implementierung von AMD Hardware und Software.
2. Fragen über Fragen und AMD ist natürlich immer der Dumme und Nvidia der einsame Vorreiter, der doch nur mit seinen Innovationen Geld verdienen will.
1. Freesync ist die Implentierung von AdaptiveSync eDP1.2 in AMD Hardware und Software für den Desktopbereich, als weiter Spezifikationsnorm eDP1.2a (sonst hätte man ja statt "a" höher gehen können).
2. Wo steht das, ich habe nur geschrieben seit wann es AdaptiveSync bereits gibt. Der Rest stammt von Dir selbst.
Die Frage ist, hätte AMD den eigenen Standardansatz schon veröffentlicht oder doch vllt. bis eDP1.3 oder sogar später gewartet? War in eDP1.3 oder auch höher ggf. schon AdaptiveSync für den Desktopbereich seitens der Vesa geplant?
Vermutlich...Fragen über Fragen!
Unicous
2014-08-23, 15:24:28
1. Askingar, bitte drehe meine Worte nicht um. Nichts anderes habe ich gesagt: FreeSync ist die Hardware und Software-Implementierung.
2. Tom Peterson hat schon gesagt, Nvidia wird Adaptive Sync nicht unterstützen, es ist ja nur optional. In DP 1.3 ist es auch (noch?) nicht enthalten und wäre wahrscheinlich auch optional. Weil die Industrie keinen Bock hat. Es kostet. Nvidia wird es nicht unterstützen weil: "Es ist ja nur eine Spec" und wir haben ja schon G-Sync.
Und nun stell dir mal vor wie das so bei VESA Treffen war.:wink:
Dass VESA es implementiert hat ist daher für mich eher merkwürdig. Ich frage mich wie und wer über die Spec entscheidet? Gibts da ein kleines Komitee oder entscheiden alle Mitglieder?
boxleitnerb
2014-08-23, 15:37:54
Was ist zweifelhaft?
Hier wird eine Methode beschrieben wie DRR funktionieren kann und sie ist sehr ähnlich(/identisch?) zu der Methode die von VESA/AMD beschrieben wird. Der eDP Standard wurde Ende 2008 veröffentlicht.
Dass das Ganze in der Schublade steckte wollte ich gar nicht abstreiten. Es ging darum, dass Einige hier und anderswo behaupten, AMD hat ja nur von VESA den eDP VBLANK State geklaut und es ihnen dann als neue optionale Spezifikation für DP 1.2a verkauft.
Dass G-Sync nichts mit dem Terminplan von AMD zu tun hatte.
Askingar
2014-08-23, 15:40:24
Tom Peterson hat schon gesagt, Nvidia wird Adaptive Sync nicht unterstützen
Weil sie glauben das ihre Lösung besser ist. Wenn ASync später Standard wird, muss man es sicherlich unterstützen, wenn man eDP1.x anbietet, was wohl mit Wiedergabe von UHD Inhalten nicht anders gehen wird, wenns auf Standards basieren soll.
Blöde für Nvidia wäre natürlich eine mögliche Verwechslung von Adaptive-Sync zu Adaptive-V-Sync.
Der Rest...enthalte mich der Stimme, was die Vesa entscheiden und wer dies tut, ist deren Ding. Ich glaube aber nicht das AMD oder irgendjemand anderes einen Nachteil dadurch erleidet oder in Kauf zu nehmen hat.
Zudem ist es logisch das Neuerungen erstmal optinal bleiben, wenn noch ältere "Designs" im Umlauf sind. eDP1.2a wird AMD seitig voll nur ab GCN 1.1 mit ASync-Wiederholraten von 36-240Hz, 21-144Hz, 17-120Hz und 9-60Hz unterstützt. Bedeutet man muss wohl eine R9 290X, R9 290, R7 260X oder einen Kabini, Temash, Mullins oder Beema besitzen.
Nun kommt ja Tonga noch dazu. 20min noch...;).
Nvidias Ansatz wird glaub ich von deren Hardware etwas breiter unterstützt, ab 650?
Unicous
2014-08-23, 15:55:56
Was ich bei Nvidia nur "interessant" finde: Wenn es um Mantle geht, dann unterstützt man nur proprietäre Formate von Microsoft, wenn es um G-Sync/FreeSync/Adapative Sync geht unterstützt man nur den eigenen proprietären Standard und macht sich lächerlich über VESA und FreeSync. Es ist nur eine Spec, kein Produkt. Es interessiert uns nicht wir unterstützen es nicht. D.h. sie werden es auch erst unterstützen wenn es wirklich nicht mehr anders geht (vorausgesetzt ASync setzt sich durch). Lustig auch, dass man sich vor Jahren noch vor DisplayPort gesträubt hat und es ewig gedauert hat bis man bei Nvidia Karten Display Ports gesehen hat (ausgenommen Alleingänge von AIB-Partnern) und nun exklusiv über DP G-Sync realisiert.
Das ist meines Erachtens nicht im Sinne des Kunden. Dabei predigen sie doch immer wir wollen unsere Kunden mit Innovationen glücklich machen (für die sie natürlich extra bezahlen dürfen).
Unicous
2014-08-23, 22:55:56
Habs noch nicht gesehen.
http://www.pcper.com/news/Graphics-Cards/PCPer-Live-Recap-NVIDIA-G-Sync-Surround-Demo-and-QA
Neues Video mit Tom Peterson über G-Sync bzw. G-Sync Surround (also mehrere Monitore gleichzeitig...aber das wisst ihr ja:tongue:)
Z_FzXxGVNi4
fondness
2014-08-24, 10:26:38
Schon alleine das alle "GCN1.1"-Chips Hardwaresupport dafür haben (bzw. die GCN1.0 Chips nicht) zeigt, dass A-Sync nicht erst als Reaktion auf G-Sync kam. Das Hardwaredesign von Bonaire war spätestens Q3/2012 abgeschlossen.
Kartenlehrling
2014-08-24, 12:11:55
Schon alleine das alle "GCN1.1"-Chips Hardwaresupport dafür haben (bzw. die GCN1.0 Chips nicht) zeigt,...
Für Film und Streaming soll es ja funktionieren auch mit HD7xxx, was daraus schliessen lässt ein fester Wert 24fps zb. sollte gehen, ohne es von Hand in den System Einstellung vorzunehmen.
Dann könnte man vielleicht auch mit einem FPS limiter arbeiten und RadeonPro Dynamic V-sync Control was dann nochmal zu einem bessern und smootheren Spielen führt, auch ohne GCN1.1/2a.
fondness
2014-08-29, 17:27:05
AMD: Our FreeSync gaming monitors will be $100 cheaper than Nvidia G-Sync
http://www.pcr-online.biz/news/read/amd-our-freesync-gaming-monitors-will-be-100-cheaper-than-nvidia-g-sync/034635
Kartenlehrling
2014-08-29, 19:44:39
Der Tod ist auch schon lange nicht mehr umsonst, das Monitorhersteller die ca. 50€ gerne mitnehmen ist klar !!
Gerade in den 4k-60hz Monitor wird es der Renner sein.
Ich warte immer noch auf ein Vergleichstest, G-sync Nvidia gegen Lucid virtual vsync, natürlich auf dem gleichen Monitor,
ich spiele nun fast 1 Jahr damit, aber leider auf einem 60hz(72hz) Samsung 24" und weiss immer noch nicht wieso der Ruf von Lucid soo schlecht ist,
wenn ich mir die Threads vom PG278Q durchlese laufen auch nicht alle Spiele auf anhieb Rund.
Ich weiss immer noch nicht was LGs "Dynamic Action Sync" (https://www.youtube.com/watch?v=DPwUdOwpr6Q#t=15) sein soll.
Marty98
2014-08-29, 23:10:51
AMD muss erstmals zeigen dass Freesync überhaupt funktioniert, bevor sie was groß ankündigen.
Pentium M
2014-08-29, 23:52:14
Und täglich grüßt das Murmeltier.
StefanV
2014-08-30, 09:20:48
AMD muss erstmals zeigen dass Freesync überhaupt funktioniert, bevor sie was groß ankündigen.
nVidia muss erst mal zeigen, dass G-Sync überhaupt funktioniert, bevor sie was groß ankündigen.
Merkst was?!
Ganz ab davon scheint dir noch nicht aufgefallen zu sein, dass diese Technik in mobilgeräten seit urzeiten Gang und Gäbe ist. ALso zum Beispiel in Tablets und Smartphones.
Aber hey, davon haben sich nVidia und AMD ganz sicher NICHT inspirieren lassen. Und aktuelle Tablet/Smartphone Intel Atom Chips können ja auch ganz sicher keine 'Variable Refrehs rate'. Und die ersten Patente zu diesem Thema sind auch nicht seit 2010 bekannt (http://www.google.com/patents/US7844842)....
Sorry, aber kannst du bitte aufhören hier irgendwelche völlig besheuerten Flames, ohne irgendwelche Fakten rein zu werfen, nur um 'deinen lieblingshersteller' besser dastehen zu lassen?!
Das, worüber wir hier gerade sprechen, ist eigentlich Ein verdammt alter hut!
Neu ist nur, dass man das 'beim zocken' verwenden möchte...
The Intel® Display Refresh Rate Switching technique
involves dynamic selection of the display refresh rate for
traditional LCD panels with progressive-scan driving mode
[1]. This technology offers significant power savings in the
panel electronics, graphics controller, memory, and the
display link, while maintaining excellent visual experience as
well. For LCD panels that support multiple refresh rates, a
variable refresh rate can be employed within a power policy
to save power when in battery mode.
Dieses PDF scheint aus 2007 zu sein, es wird von einem 2,26GHz Pentium M gesprochen.
So und jetzt glaubst du wirklich immer noch, dass diese variablen Refresh Raten für Display neu sind?!
Nachdem Intel schon 2007 den Gedanken hatte, dass man die Refresh Rate eines Displays hätte ändern können?!
Konami
2014-08-30, 15:19:26
nVidia muss erst mal zeigen, dass G-Sync überhaupt funktioniert, bevor sie was groß ankündigen.
Merkst was?!
Ja – dass du am Tag der G-Sync-Ankündigung geschlafen hast, denn da wurde die funktionierende Technik präsentiert. :ugly:
Ohne mich jetzt unbedingt auf die Seite der Ultraskeptiker zu stellen. Ich trau FreeSync schon zu, dass es funktioniert. Nur ob es besser oder schlechter als G-Sync ist, wird sich noch zeigen müssen.
Marty98
2014-08-30, 17:41:31
nVidia muss erst mal zeigen, dass G-Sync überhaupt funktioniert, bevor sie was groß ankündigen.
Merkst was?!
Sie haben es bei der Ankündigung vorgeführt und mittlerweile kann man es ja kaufen. Zig Fachzeitschriften (inkl c't) haben bestätigt dass es gut funktioniert.
Mancko
2014-08-30, 17:50:36
nVidia muss erst mal zeigen, dass G-Sync überhaupt funktioniert, bevor sie was groß ankündigen.
Merkst was?!
Er hat aber nicht ganz unrecht. G-Synch war bereits in den Händen einiger Tester und wurde mit allen Features gezeigt. Das ist nun bei Freesynch ganz und gar nicht der Fall. Zudem werden die G-Synch Monitore im September eintrudeln wenn ich mich nicht irre. Den Asus ROG habe ich sogar bei zwei Shops lagernd gefunden. Insofern können Nvidia User in Deutschland die Technologie wohl ziemlich bald ausprobieren und sich zusätzlich zu den Tests sich ein eigenes Bild machen.
Bei AMDs Variante sind wir davon noch sehr weit weg. "Put up or shut up" sage ich da nur. Und bis jetzt gab es noch keinen unabhängigen Test von AMDs Lösung und vor allem nicht mit sich ändernden Refreshraten. Auf irgendwelchen Dokumenten und Whitepapers herumraten ist definitv nicht ausreichend. Ich sage nicht das es nicht funktionieren kann oder wird. Aber momentan brauch sich AMD und insbesondere Huddy damit nicht brüsten. Sie haben schlicht momentan nichts und das gilt es auch seitens der Presse eindeutig so festzuhalten. Da wird mir häufig zu wenig kritisch nachgefragt. Huddy hört sich gern selber reden. Dann soll er aber eben auch abliefern.
N0Thing
2014-08-30, 18:10:53
Hier im Forum haben ja sogar schon einige den ASUS ROG SWIFT bestellt und ausprobiert, wie man auf den letzten Seiten im Thread Wann kommen endlich bessere Monitore auf den Markt? (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=491007) nachlesen kann.
CountDoku
2014-08-30, 19:48:14
nVidia muss erst mal zeigen, dass G-Sync überhaupt funktioniert, bevor sie was groß ankündigen.
Merkst was?!
Ganz ab davon scheint dir noch nicht aufgefallen zu sein, dass diese Technik in mobilgeräten seit urzeiten Gang und Gäbe ist. ALso zum Beispiel in Tablets und Smartphones.
Aber hey, davon haben sich nVidia und AMD ganz sicher NICHT inspirieren lassen. Und aktuelle Tablet/Smartphone Intel Atom Chips können ja auch ganz sicher keine 'Variable Refrehs rate'. Und die ersten Patente zu diesem Thema sind auch nicht seit 2010 bekannt (http://www.google.com/patents/US7844842)....
Sorry, aber kannst du bitte aufhören hier irgendwelche völlig besheuerten Flames, ohne irgendwelche Fakten rein zu werfen, nur um 'deinen lieblingshersteller' besser dastehen zu lassen?!
Das, worüber wir hier gerade sprechen, ist eigentlich Ein verdammt alter hut!
Neu ist nur, dass man das 'beim zocken' verwenden möchte...
Dieses PDF scheint aus 2007 zu sein, es wird von einem 2,26GHz Pentium M gesprochen.
So und jetzt glaubst du wirklich immer noch, dass diese variablen Refresh Raten für Display neu sind?!
Nachdem Intel schon 2007 den Gedanken hatte, dass man die Refresh Rate eines Displays hätte ändern können?!
Das ist doch Blech was du schreibst. nVidia liefert jetzt schon TFT`s in Massen aus mit Gsync Technologie. Von AMD liest man nur aber keiner weiss wie das alles LIVE aussieht. Also mal echt, zum Brüllen das Geschreibsel.
PCGH hat schon seit einiger Zeit Gsync TFT`s zum testen da und die findens anscheinlich ziemlich geil sonst würde es keine 1,x Note im Fazit geben.
StefanV
2014-08-31, 13:03:14
Das ist doch Blech was du schreibst..
Stimmt, das ganze wird ja auch nicht schon seit langer Zeit im mobilen Bereich eingesetzt...
Und die ersten Dokumente zu diesem Thema sind auch keine 7 Jahre alt.
Das einzig neue ist, dass man dieses Zeugs jetzt auch in den Desktop Markt einführt...
Also eine Technologie, die man seit Jahren im mobilen Bereich benutzt!
WARUM soll dann das, was AMD hier bringt, nicht so toll sein?!
Zumal Intel das jetzt schon bei einigen Chips kann...
Die Atoms könnens z.B. durchgehend...
robbitop
2014-08-31, 13:14:13
In wenigen Jahren werden wir nur die Köpfe über Displays mit fester Refreshrate schütteln. Ich bin mir sicher, dass das dann in praktisch jedem Monitor, der DP hat, implementiert hat. Entweder oder A- oder G-Sync. Dann hat sich die Diskussion eh erledigt.
Mancko
2014-08-31, 13:17:55
Stimmt, das ganze wird ja auch nicht schon seit langer Zeit im mobilen Bereich eingesetzt...
Und die ersten Dokumente zu diesem Thema sind auch keine 7 Jahre alt.
Das einzig neue ist, dass man dieses Zeugs jetzt auch in den Desktop Markt einführt...
Also eine Technologie, die man seit Jahren im mobilen Bereich benutzt!
WARUM soll dann das, was AMD hier bringt, nicht so toll sein?!
Zumal Intel das jetzt schon bei einigen Chips kann...
Die Atoms könnens z.B. durchgehend...
Nochmal du kannst es so oft wiederholen wie du willst. Was im Mobile Bereich für non Gaming irgendwo gemacht wird spielt hier keine Rolle und ist vollkommen irrelevant. Wenn AMD etwas an die Tester herausgibt um es unabhängig und unter den gleichen Bedingungen wie G-Synch zu validieren, dann kannst Du dich hier gern wieder melden. Bis dahin ist und bleibt das Vapoware und der Grundsatz "Put up or Shut up" gilt.
Wie gesagt ich sage nicht, dass es nicht funktionieren wird. Es kann sein, dass es genauso gut funktioniert. Es kann sein, dass es schlechter funktioniert und es kann auch sein, dass es besser funktioniert wie G-Synch. Ich erlaube mir dazu derzeit kein Urteil, weil das unseriös ist. Allerdings braucht AMD und insbesondere Herr Huddy sich nicht weiter dazu äußern. Es ist zum derzeitigen Zeitpunkt völlig unerheblich ob er nun meint es ist "For Free" oder "It will be cheaper" oder "Es ist genauso gut". AMD hat im Moment hier schlichtweg nichts vorzeigbares und dabei bleibst und daran muss sich auch Herr Huddy, AMD und auch Du nun mal halten! Kaufbar ist aktuell nur Nvidia's Lösung und somit hat Nvidia dort im Augenblick auch ein Alleinstellungsmerkmal das durchaus relevant ist.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.