Archiv verlassen und diese Seite im Standarddesign anzeigen : G-/Free-/A-Sync: framesynchronisierter Displayrefresh per variablem vblank-Intervall
Gipsel
2014-01-08, 16:07:06
Gemeinsame Fortführung der bisher getrennten Threads zu nVidias G-Sync (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=546127) und AMDs "FreeSync" (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=549630).
Bitte seht von Fanboy-Kriegen AMD vs. nV ab!
Daß auch G-Sync im Prinzip nur variable vblank-Intervalle nutzt, hat übrigens Tom Petersen von nV praktisch direkt gesagt: (http://techreport.com/news/25878/nvidia-responds-to-amd-free-sync-demo)
When asked about a potential VESA standard to enable dynamic refresh rates, Petersen had something very interesting to say: he doesn't think it's necessary, because DisplayPort already supports "everything required" for dynamic refresh rates via the extension of the vblank interval. That's why, he noted, G-Sync works with existing cables without the need for any new standards. Nvidia sees no need and has no plans to approach VESA about a new standard for G-Sync-style functionality—because it already exists.
-/\-CruNcher-/\-
2014-01-08, 16:35:41
Denke mal für einen großen teil von G-sync zeichnet sich Henry Moreton verantwortlich und wahrscheinlich hat er sogar ein Patent drauf :)
Allerdings war Nvidias Scaler nie wirklich beindruckend Intels ist da viel weiter ;)
aufkrawall
2014-01-08, 16:40:11
Das DXVA-Scaling soll vergleichbar sein mit der Skalierung des Ausgabesignals?
Wurde das mal getestet?
Gipsel
2014-01-08, 16:41:13
Denke mal für einen großen teil von G-sync zeichnet sich Henry Moreton verantwortlich und wahrscheinlich hat er sogar ein Patent drauf :)Ich weiß ehrlich gesagt nicht, was man da patentieren will. Es scheint zwar ein paar Trivialpatente zu dem Thema zu geben (AMD hat wohl auch mindestens eins), aber das Variieren der Länge von vblank ist jetzt keine wirkliche Erfindung, zumal es auch in ein paar Standards explizit vorgesehen ist.
-/\-CruNcher-/\-
2014-01-08, 16:44:46
dafür brauch man mal einen dicken FPGA ne ist klar, da läuft viel mehr ab ;)
uweskw
2014-01-08, 16:51:33
dafür brauch man mal einen dicken FPGA ne ist klar, da läuft viel mehr ab ;)
Wenn man so ein FPGA Modul in den Händen hat, kann man dann herausfinden was es im Hintergrund wirklich macht?
Greetz
U.S.
MartinB
2014-01-08, 16:57:00
Ist denn jetzt überhaupt klar ob beide das gleiche machen?
Skysnake
2014-01-08, 16:59:19
dafür brauch man mal einen dicken FPGA ne ist klar, da läuft viel mehr ab ;)
Was heist hier dick?
Das ist nen Midrange Ding.
Und du musst ja die Funktionalität der normal verbauten Elektronik KOMPLETT ersetzen erstmal...
Gipsel
2014-01-08, 16:59:26
Ist denn jetzt überhaupt klar ob beide das gleiche machen?Ja. Siehe Zitat oben im Eingangspost.
Exxtreme
2014-01-08, 17:00:55
dafür brauch man mal einen dicken FPGA ne ist klar, da läuft viel mehr ab ;)
Das weiss man nicht. Ich kann mir gut vorstellen, dass die FPGA-Variante so eine Art Prototyp ist bzw. Quick&Dirty-Lösung um überhaupt was in der Hand zu haben. FPGAs können nämlich Hardware nachbilden indem man sie entsprechend programmiert. Ich kann mir gut vorstellen, dass spätere G-Sync-Varianten keine FPGAs mehr haben werden sondern hartverdrahtet sind.
-/\-CruNcher-/\-
2014-01-08, 17:06:58
Glaubt ihr wirklich es bedarf 5 Jahre oder waren es 6 Jahre Corporate Forschung für so etwas triviales wie er es da oben ausführt ?
ne das glaub ich nicht, vor allem wie hoch er die Nase dabei hält "das soll uns erstmal einer nachmachen" so nach dem motto möglich ist es aber ihr werdet euch wundern :)
Gipsel
2014-01-08, 17:13:32
Glaubt ihr wirklich es bedarf 5 Jahre oder waren es 6 Jahre Corporate Forschung für so etwas triviales wie er es da oben ausführt ?
ne das glaub ich nicht, vor allem wie hoch er die Nase dabei hält "das soll uns erstmal einer nachmachen" so nach dem motto möglich ist es aber ihr werdet euch wundern :)
Na irgendwie muß man es ja der Masse verkaufen und die jeweiligen Fanboys füttern :rolleyes:.
Wenn es offenbar bereits in irgendwelchen billigen Notebooks funktioniert, kann es gar nicht so aufwendig sein, die Monitorhersteller müssen nur mal ihren Kram zusammenbekommen. ;)
-/\-CruNcher-/\-
2014-01-08, 17:18:56
Das passt nicht dann währe das was er sagt ja so nach dem Motto sorry Kids wir zocken euch ab das wird sowieso bald standard, das würde der nie zugeben oder selbst andeuten öffentlich ;)
Die sind eher so drauf wie "tja ihr scaler board macher dann zeigt mal was ihr könnt" hier ist unser Werk
uweskw
2014-01-08, 17:21:07
Das weiss man nicht. Ich kann mir gut vorstellen, dass die FPGA-Variante so eine Art Prototyp ist bzw. Quick&Dirty-Lösung um überhaupt was in der Hand zu haben. FPGAs können nämlich Hardware nachbilden indem man sie entsprechend programmiert. Ich kann mir gut vorstellen, dass spätere G-Sync-Varianten keine FPGAs mehr haben werden sondern hartverdrahtet sind.
Das Ding macht sicher mehr. Sonst würde NVIDIA die Sache doch nicht so aufwändig quersubventionieren. Mit FPGA, eigenem Netzteil und peripherer Elektronik kommt so ein Kit wohl auf mindestens 500 USD. Aber um den Preis zu bekommen muss man schon etliche tausend abnehmen.
Wenn man das gleiche durch ein Firmware Update und eine ominöse, billige Blackbox erreichen könnte, dann hätte sich NVIDIA einen entsprechenden Hersteller gesucht und nicht so viel Geld verbrannt.
Die Frage ist wirklich was macht das Teil zusätzlich?
Durch das eigene Netzteil wäre es sicher möglich 100 % Kontrolle, selbst über den abgeschalteten PC zu erlangen. Nur, wer könnte daran Interesse haben? Wir könnten ja mal Snowden fragen:freak:
greetz
U.S.
Sunrise
2014-01-08, 17:21:59
Das passt nicht dann währe das was er sagt ja so nach dem Motto sorry Kids wir zocken euch ab das wird sowieso bald standard, das würde der nie zugeben oder selbst andeuten ;)
Hat er auch nicht direkt, er hat um den heißen Brei nur herum geredet.
Er sagte ja, dass lediglich LVDS im aktuellen Modul unterstützt wird (in der PCPer-Präsentation war das eine Frage) und jetzt sagt er, dass das natürlich aus dem Notebook-Bereich kommt. Und dass es dort bereits möglich ist.
Also sagt er, dass es auch anders geht, NV hat hier lediglich eine Führungsrolle übernommen, um es schnellstmöglich auf den Desktop zu übertragen.
Welche Interpretationen das alles zulässt, sieht man ja.
Und dass das Modul die komplette Scaler-Elektronik ersetzt, reicht doch schon als Grund aus, damit man versteht, warum das Ding so fett ist. Man hat hier eben mehr Freiheiten, evtl. auch um zukünftige Dinge zu verändern und neue Features dazuzubauen. Das sollte aber auch mit einem ASIC-Teil und Firmware-EEPROMS gehen, wenn das ASIC etwas flexibler ausgelegt ist.
Gipsel
2014-01-08, 17:23:11
Das passt nicht dann währe das was er sagt ja so nach dem Motto sorry Kids wir zocken euch ab das wird sowieso bald standard, das würde der nie zugeben oder selbst andeuten öffentlich ;)
Die sind eher so drauf wie "tja ihr scaler board macher dann zeigt mal was ihr könnt" hier ist unser Werk
Das Ding macht sicher mehr. Sonst würde NVIDIA die Sache doch nicht so aufwändig quersubventionieren. Mit FPGA, eigenem Netzteil und peripherer Elektronik kommt so ein Kit wohl auf mindestens 500 USD. Aber um den Preis zu bekommen muss man schon etliche tausend abnehmen.
Wenn man das gleiche durch ein Firmware Update und eine ominöse, billige Blackbox erreichen könnte, dann hätte sich NVIDIA einen entsprechenden Hersteller gesucht und nicht so viel Geld verbrannt.
Die Frage ist wirklich was macht das Teil zusätzlich?
Durch das eigene Netzteil wäre es sicher möglich 100 % Kontrolle, selbst über den abgeschalteten PC zu erlangen. Nur, wer könnte daran Interesse haben? Wir könnten ja mal Snowden fragen:freak:
Weniger Verschwörungstheorien! Die einfachen Lösungen sind meistens die richtigen. ;)
Gipsel
2014-01-08, 17:26:45
Er sagte ja, dass lediglich LVDS im aktuellen Modul unterstützt wird (in der PCPer-Präsentation war das eine Frage) und jetzt sagt er, dass das natürlich aus dem Notebook-Bereich kommt. Und dass es dort bereits möglich ist.LVDS wird praktisch überall benutzt (wo kein eDP drinsteckt), nicht nur in Notebooks. Die meisten Panels (auch Desktop) benutzen intern LVDS. Das spielt allerdings keine wirkliche Rolle für die Funktionalität (sprich ob das Panel mit variablem vblank klarkommt oder nicht ist praktisch nur eine Funktion der Panelelektronik, und noch eine einfach/billig integrierbare). Das Notebook, womit AMD das demonstriert hat, nutzt übrigens intern wohl eDP.
Botcruscher
2014-01-08, 17:27:49
Also was macht der FPGA samt RAM jetzt. Für ein bisschen zwischenspeichern ist es overkill.
-/\-CruNcher-/\-
2014-01-08, 17:31:26
Was heist hier dick?
Das ist nen Midrange Ding.
Und du musst ja die Funktionalität der normal verbauten Elektronik KOMPLETT ersetzen erstmal...
Das könnte sinn machen aber sie müssten doch z.b nix am HDCP layer machen oder etwa doch dann macht der FPGA richtig sinn wenn sie das HDCP auch backen müssten weil sie den weg abschneiden zum nativen Decrypter Modul ?
Gipsel
2014-01-08, 17:33:33
Also was macht der FPGA samt RAM jetzt. Für ein bisschen zwischenspeichern ist es overkill.Es dupliziert schlicht die Panelelektronik des Monitors mit der kleinen Modifikation, daß variable vblanks unterstützt werden. Daß die Hardware so massiv ausfällt, liegt lediglich daran, daß es praktisch ein Prototyp-Design (proof of principle) ist, welches kostenmäßig völlig überdimensioniert ist. Das Modul macht im Prinzip nichts anderes, als die Elektronik des Billig-Panels des Notebooks, mit dem AMD das vorgeführt hat. Also ganz klar ja, es ist Overkill.
Rente
2014-01-08, 17:37:21
Es dupliziert schlicht die Panelelektronik des Monitors mit der kleinen Modifikation, daß variable vblanks unterstützt werden. Daß die Hardware so massiv ausfällt, liegt lediglich daran, daß es praktisch ein Prototyp-Design (proof of principle) ist, welches kostenmäßig völlig überdimensioniert ist. Das Modul macht im Prinzip nichts anderes, als die Elektronik des Billig-Panels des Notebooks, mit dem AMD das vorgeführt hat. Also ganz klar ja, es ist Overkill.
Und warum bist du dir so 100%ig sicher das nVidia nicht mehr macht/vor hat?
Ich meine, sie hätten es doch gar nicht nötig so etwas als DIY-Kit zu verkaufen, es gab doch keinen Zeitdruck.
Gipsel
2014-01-08, 17:41:52
Und warum bist du dir so 100%ig sicher das nVidia nicht mehr macht/vor hat?Was sollte das sein? G-Sync IST der Support von variablen vblank-Intervallen. Was sollte man mehr vorhaben, außer von allen Monitorherstellern, die einen entsprechenden Sticker auf ihr Produkt kleben wollen, ein paar Euro zu kassieren? Welches zusätzliche Feature hat nV erwähnt oder erscheint Dir in dem Zusammenhang sinnvoll?
mironicus
2014-01-08, 17:43:15
Hoffentlich bricht jetzt keine Panik bei NVidia aus - und auch bei den Displayherstellern, die ihre modifizierten 200 Euro-Monitore eigentlich für 600 Euro verkaufen wollten. :D
Sunrise
2014-01-08, 17:45:07
...Ich meine, sie hätten es doch gar nicht nötig so etwas als DIY-Kit zu verkaufen, es gab doch keinen Zeitdruck .
DP 1.3 ist noch nicht finalisiert und G-Sync kannst du jetzt schon kaufen (wenn auch nur mit dem ASUS-Panel). Jetzt überleg mal, warum das evtl. für NV Vorteile hat, wenn sich DP evtl. weiter verspätet und NV zuerst am Markt ist.
Vor allem aber die Art, wie das vorgestellt wurde, hat doch schon diesen Effekt ausgelöst.
Es wird interessant zu sehen, ob NV jetzt versucht, sich davon weiter abzugrenzen. Sei es mit zusätzlichen Features oder wie auch immer. Carmack hatte da ja was angedeutet.
-/\-CruNcher-/\-
2014-01-08, 17:47:03
Hoffentlich bricht jetzt keine Panik bei NVidia aus - und auch bei den Displayherstellern, die ihre modifizierten 200 Euro-Monitore eigentlich für 600 Euro verkaufen wollten. :D
Sowas darf einfach nicht sein wenn das hier der Fall ist ist Nvidia für mich echt gestorben und alle partner die da mitmachen und momentan die Gamer melken, was von 5 jahre research zu plappern und dann ist es trivial und schon als standard in Vorbereitung das wäre einfach to much.
uweskw
2014-01-08, 17:50:01
Es dupliziert schlicht die Panelelektronik des Monitors mit der kleinen Modifikation, daß variable vblanks unterstützt werden. .......
NVIDIA hatte doch die Wahl mit welchem Monitor sie ihr Teil vorstellen. War also absolut nicht nötig einen zu nehmen bei dem sie die ganze Panelelektronik ersetzen müssen. Das Ding kann sicher ne Ecke mehr als nur variables vblank. Da gibts bestimmt noch ein paar Features, vielleicht wirds ja auch ne positive Überraschung.
Greetz
U.S.
Gipsel
2014-01-08, 17:53:03
DP 1.3 ist noch nicht finalisiert und G-Sync kannst du jetzt schon kaufen (wenn auch nur mit dem ASUS-Panel). Jetzt überleg mal, warum das evtl. für NV Vorteile hat, wenn sich DP evtl. weiter verspätet und NV zuerst am Markt istWie schon mal gesagt, braucht es dafür nicht zwingend DP1.3 (sagt nV sogar selber). Umsetzbar ist es auch ohne neue Spezifikation (die im Prinzip nur ein bisher zulässiges, aber streng genommen undefiniertes Verhalten regelt [bisher steht es dem Panel frei zu tun was es will bei variablen vblank Intervallen; ein schwarzer Bildschirm ist von den bisherigen Specs gedeckt, aber die DP1.x Specs zwingen die Monitore nicht, einen schwarzen Bildschirm anzuzeigen, variable Refreshrate ist ebenso ein akzeptables Verhalten]), wenn sich Monitorhersteller dazu durchringen den Support mit irgendeinem Flag bei den Timingparametern zu kennzeichnen.
Rente
2014-01-08, 17:53:45
DP 1.3 ist noch nicht finalisiert und G-Sync kannst du jetzt schon kaufen (wenn auch nur mit dem ASUS-Panel). Jetzt überleg mal, warum das evtl. für NV Vorteile hat, wenn sich DP evtl. weiter verspätet und NV zuerst am Markt ist.
Vor allem aber die Art, wie das vorgestellt wurde, hat doch schon diesen Effekt ausgelöst.
Es wird interessant zu sehen, ob NV jetzt versucht, sich davon weiter abzugrenzen. Sei es mit zusätzlichen Features oder wie auch immer. Carmack hatte da ja was angedeutet.
Variable vBlanks sind schon in DP1.0 finalisiert, in 1.3 kommt noch Self-Refresh (also das was z.B. eBook-Reader auf ähnliche Art und Weise schon immer haben) dazu, das ist dafür aber aus meiner Sicht nicht notwendig.
Wenn nVidia wirklich nur Tamtam gemacht, wäre ich in der Tat auch enttäuscht.
Ich kann Gipsels Ausführungen allerdings nur schwerlich glauben, weil es einfach zu dumm wirkt, die Marge z.B. bei dem DIY-Kit ist wohl ziemlich klein, was die Displayhersteller nVidia zahlen ist natürlich nicht bekannt, warum sollten sie aber einen FPGA verbauen, wenn es mit wenig Entwicklungsaufwand eine gleichwertige, aber sehr viel günstigere Variante gäbe?
Das erschließt sich mir einfach nicht, allerdings fallen mir auch selbst keine anderen Gründe für einen FPGA mit der hohen RAM-Menge ein (außer eben als Proof of Concept, so etwas verkauft man aber für gewöhnlich nicht).
Sunrise
2014-01-08, 17:54:15
NVIDIA hatte doch die Wahl mit welchem Monitor sie ihr Teil vorstellen. War also absolut nicht nötig einen zu nehmen bei dem sie die ganze Panelelektronik ersetzen müssen. Das Ding kann sicher ne Ecke mehr als nur variables vblank. Da gibts bestimmt noch ein paar Features, vielleicht wirds ja auch ne positive Überraschung.
Greetz
U.S.
Die Panelelektronik wird lediglich ersetzt, weil es von ASUS in den bereits ausgelieferten Geräten wohl nicht vorgesehen war. Zumindest dafür scheint das DIY-Kit auch da zu sein.
In den fertigen Monitoren sparen sich die Display-Hersteller wohl die Elektronik ein, müssen aber das ASIC + PCB von NV kaufen, bzw. NV etwas dafür bezahlen, aber soweit sind wir noch nicht. Da müssen wir erstmal in die Internas des Monitors schauen.
Es fehlen einfach immernoch viel zuviele Infos.
Gipsel
2014-01-08, 17:55:18
NVIDIA hatte doch die Wahl mit welchem Monitor sie ihr Teil vorstellen. War also absolut nicht nötig einen zu nehmen bei dem sie die ganze Panelelektronik ersetzen müssen. Das Ding kann sicher ne Ecke mehr als nur variables vblank. Da gibts bestimmt noch ein paar Features, vielleicht wirds ja auch ne positive Überraschung.Sei aber nicht enttäuscht, wenn da nicht viel kommt.
Gipsel
2014-01-08, 17:58:10
Variable vBlanks sind schon in DP1.0 finalisiertEs ist wohl erwähnt, daß es variabel sein kann, aber es ist nicht zwingend vorgeschrieben, wie ein Monitor darauf zu reagieren hat (schwarzer Bildschirm ist im Prinzip bisher ein akzeptables Verhalten und die variable Refreshrate wird wahrscheinlich auch mit DP1.3 optional bleiben [aber zumindest das Verhalten bei Support spezifiziert]).
Tesseract
2014-01-08, 18:01:39
wenn es keinen scaler gibt der das kann ist doch eh klar warum man da komplexere logik verbaut die das verhalten einer spezialisierten logik nachbildet.
Rente
2014-01-08, 18:03:01
Es ist wohl erwähnt, daß es variabel sein kann, aber es ist nicht zwingend vorgeschrieben, wie ein Monitor darauf zu reagieren hat (schwarzer Bildschirm ist im Prinzip bisher ein akzeptables Verhalten).
Stimmt, das hatte nicht dazu geschrieben, das ist natürlich korrekt. Ohne entsprechenden ASIC (o. eben das G-Sync-Modul) können aktuell Monitore mit variablen Blanks wenig anfangen, es ist nicht zwingend.
Was mir jetzt noch im Kopf rumschwirrt: Wie will nVidia damit eigentlich länger als ein paar Monate oder ein Jahr Geld verdienen, wenn die Lösung für die Monitor-/Displayhersteller relativ simpel ist?
Durch die Zertifizierung ist wohl nicht viel zu holen, das Modul kauft doch aber auch kein Hersteller mehr, wenn es in-House billiger geht und wenn AMD es auch bietet, funktioniert auch keine Exklusivbindung mehr.
Ich hoffe auf zusätzliche Features für Shadowplay/Streaming, aber so richtig vorstellbar ist dabei für mich nichts.
Iruwen
2014-01-08, 18:05:55
Dass bei NV jemand dem Management erzählt hat "ich hab da 'ne geile Idee" und keiner vorher nachgeschaut hat ob es dafür schon einen Ansatz gibt ist wohl eher unwahrscheinlich? :D
Gipsel
2014-01-08, 18:12:38
Stimmt, das hatte nicht dazu geschrieben, das ist natürlich korrekt. Ohne entsprechenden ASIC (o. eben das G-Sync-Modul) können aktuell Monitore mit variablen Blanks wenig anfangen, es ist nicht zwingend.Nun, irgendeine hinreichend simpel implementierte Logik (ohne viel Brimborium, was dann schief geht), die ehrlich im Sinne eines "best effort" versucht, mit dem Signal was anzufangen (ohne unnötig in Panik auszubrechen, wenn die vblanks unterschiedlich lang sind, die Panels benötigen es ja nicht, daß die Refreshs z.B. in genau 16,67ms Abständen kommen) könnte damit eigentlich klar kommen. Es gab ja schon den Hinweis, daß eventuell schon einige kompatible (Desktop-)Monitore durch die Gegend fliegen könnten. Bester Tipp wären vielleicht DisplayPort-Monitore mit konstantem Backlight (ohne PWM bzw. Strobing).
Was mir jetzt noch im Kopf rumschwirrt: Wie will nVidia damit eigentlich länger als ein paar Monate oder ein Jahr Geld verdienen, wenn die Lösung für die Monitor-/Displayhersteller relativ simpel ist?Brand building.
Sunrise
2014-01-08, 18:14:19
...wenn sich Monitorhersteller dazu durchringen den Support mit irgendeinem Flag bei den Timingparametern zu kennzeichnen.
Du redest von EDID, oder? Klingt bei dir immer so kryptisch. :D
Wenn ich das richtig verstehe, sprechen die Panels also jetzt selbst teilweise schon DP 1.3, jedoch wird das derzeit noch bei keinem Endprodukt auch nach außen zugänglich gemacht, bzw. entsprechend reported, weil es noch nicht final ist.
klutob
2014-01-08, 18:18:19
Stimmt, das hatte nicht dazu geschrieben, das ist natürlich korrekt. Ohne entsprechenden ASIC (o. eben das G-Sync-Modul) können aktuell Monitore mit variablen Blanks wenig anfangen, es ist nicht zwingend.
Was mir jetzt noch im Kopf rumschwirrt: Wie will nVidia damit eigentlich länger als ein paar Monate oder ein Jahr Geld verdienen, wenn die Lösung für die Monitor-/Displayhersteller relativ simpel ist?
Durch die Zertifizierung ist wohl nicht viel zu holen, das Modul kauft doch aber auch kein Hersteller mehr, wenn es in-House billiger geht und wenn AMD es auch bietet, funktioniert auch keine Exklusivbindung mehr.
Ich hoffe auf zusätzliche Features für Shadowplay/Streaming, aber so richtig vorstellbar ist dabei für mich nichts.
Ob Nvidia mit einer Lizenz? des FPGA-Boards überhaupt Geld verdient, steht ja auf einem anderem Blatt.
Sie haben jetzt eine HW-Lösung, die jeder der Partner-Monitor Hersteller einbauen kann (ohne besondere R&D Kosten), um ersteinmal die Sahne abzuschöpfen mit diesem Alleinstellungsmerkmal.
Nvidia verkauft mehr Grafikkarten wegen der exklusiven G-Sync Bindung, irgendwann schaffen es auch einmal sinnvolle Dinge in die Wald und Wiesen Displays (über die Integration eines Standards) und alle sind glücklich.
Wenn man sieht welchen Schrott im Detail die Monitorhersteller jedes Jahr auflegen, war dieser Schritt wohl notwendig.
uweskw
2014-01-08, 18:34:16
Leute, ohne Zusatznutzen, egal für wen, macht der Aufwand für G-Sync überhaupt keinen Sinn.
Lasst euch doch überraschen.
Greetz
U.S.
Gipsel
2014-01-08, 18:34:55
Du redest von EDID, oder? Klingt bei dir immer so kryptisch. :DJa, bzw. E-EDID. ;)
Wenn ich das richtig verstehe, sprechen die Panels also jetzt selbst teilweise schon DP 1.3, jedoch wird das derzeit noch bei keinem Endprodukt auch nach außen zugänglich gemacht, bzw. entsprechend reported, weil es noch nicht final ist.Das hat mit DP1.3 erstmal nicht so viel zu tun. Ein Monitor kann variable vblanks unterstützen, ohne irgendwas mit DP1.3 am Hut zu haben (es ist bisher undefiniert, was bei variablen vblanks passiert, aber nicht verboten, es zu unterstützen). Im doch recht eng verwandten eDP-Standard ist es seit Version 1.0 (von 2008 glaube ich) besser festgezurrt (aber Support auch optional). DP1.3 wird in Bezug auf variable vblanks vermutlich schlicht größtenteils den Teil von eDP sinngemäß übernehmen.
Wie schon mal gesagt, ist es erstmal vollkommen standardkompatibel, wenn eine GraKa einen Datenstrom mit variablen vblanks zum Monitor sendet. Die Frage ist nur, ob der Monitor was damit anfangen kann. Womit der Monitor was anfangen kann, teilt er typischerweise mit den EDID-Daten der Grafikkarte mit. Meist kann er aber noch etwas mehr, wie man an der Unter- bzw. Übertaktungsmöglichkeit sehen kann. Wie ein Monitor auf variable vblank-Intervalle reagiert, ist erstmal unklar, weil das bisher nicht wirklich vorgesehen ist (aber wie gesagt auch nicht verboten). Im Prinzip ist alles was fehlt, daß sich die Monitorhersteller (zumindest ein paar davon) auf irgendwas einigen, wie man den Support der GraKa mitteilt (bzw. auch wie man die minimale bzw. maximale unterstütze Framerate kodiert, daß einfachste wäre, das über den Bereich der unterstützten Displaymodi zu machen). Tun sie dies, ist der offizielle DP-Standard erstmal egal (wenn nicht, benötigt man vielleicht einen Override-Switch im Treiber oder sowas, mit dem der Nutzer das testen und auf eigene Gefahr aktivieren kann, ähnlich wie beim Übertakten). DisplayPort ist durch die paketbasierte Übertragung und der von Auflösung und Refreshrate erstmal unabhängigen Linkgeschwindigkeit (muß nur hoch genug sein) sehr einfach erweiterbar (weswegen man auch relativ einfach andere Daten drüberjagen kann oder mehrere Displays per Daisychaining an ein Kabel hängen usw.). Die Datenübertragung ist bei DP prinzipiell bereits vom Panelrefresh entkoppelt, man muß es nur nutzen.
aufkrawall
2014-01-08, 18:48:28
Wie im anderen Thread schon gesagt: NV sollte schnell G-Sync mit gleichzeitigem Strobing zum Laufen bekommen.
So etwas entwickeln die Monitorhersteller bestimmt auf absehbare Zeit nicht allein.
Gipsel
2014-01-08, 18:59:45
Wie im anderen Thread schon gesagt: NV sollte schnell G-Sync mit gleichzeitigem Strobing zum Laufen bekommen.
So etwas entwickeln die Monitorhersteller bestimmt auf absehbare Zeit nicht allein.Ist eigentlich deren Job :rolleyes: (und wie ich schon ein paar Mal schrieb, auch nicht so schwer).
klutob
2014-01-08, 19:05:51
Ist eigentlich deren Job :rolleyes: (und wie ich schon ein paar Mal schrieb, auch nicht so schwer).
Den sie einfach nicht gut ausfüllen, wie lang gibt es schon die Diskussionen über Strobing/Black Frame Insertion (technisch auch nicht gerade Rocket-Science) um die Schwächen eines Hold-Type-Displays zu kompensieren, obwohl dafür ein "Premium" Markt existiert (120Hz-Gamermonitore).
Gipsel
2014-01-08, 19:09:29
Den sie einfach nicht gut ausfüllen, wie lang gibt es schon die Diskussionen über Strobing/Black Frame Insertion (technisch auch nicht gerade Rocket-Science) um die Schwächen eines Hold-Type-Displays zu kompensieren, obwohl dafür ein "Premium" Markt existiert (120Hz-Gamermonitore).
Deswegen ja auch der :rolleyes:-Smiley. ;)
klutob
2014-01-08, 19:14:27
Deswegen ja auch der :rolleyes:-Smiley. ;)
Wollte mir wohl einfach nur den Frust runterschreiben, kann doch nicht sein das man mit einem alten 24" immer noch nach Gründen für einen Neukauf suchen muss. =)
Skysnake
2014-01-08, 19:23:25
Also was macht der FPGA samt RAM jetzt. Für ein bisschen zwischenspeichern ist es overkill.
Wo soll er denn das Bild sonst puffern als im RAM? Das Ding ist zu klein um das im FPGA zu machen.
Ihr müsst mal die Realitionen sehen. Das ist zwar nen sau teurer Chip, aber das ist nur unteres Midrange. Es ist aber wohl die mit Abstand billigste Lösung. Soweit ich das überblicken kann müsstest du nämlich um das alles komplett im FPGA zu realisieren, nen Stratix V, also High-End verwenden, und da auch nicht den billigsten. Da biste bei mindestens 6k€! und sogar ganz schnell bei 10k€+....
Das könnte sinn machen aber sie müssten doch z.b nix am HDCP layer machen oder etwa doch dann macht der FPGA richtig sinn wenn sie das HDCP auch backen müssten weil sie den weg abschneiden zum nativen Decrypter Modul ?
Stimmt, DHCP müssen Sie wahrscheinlich auch noch integrieren. Gar nicht dran gedacht. Wenn das nämlich nicht funktioniert, dann GZ ;D
Müsste man mal in Erfahrung bringen. DHCP wird sicherlich allein schon einiges an Logikblöcken fressen, und soo viele hat das Ding ja auch nicht.
Es dupliziert schlicht die Panelelektronik des Monitors mit der kleinen Modifikation, daß variable vblanks unterstützt werden. Daß die Hardware so massiv ausfällt, liegt lediglich daran, daß es praktisch ein Prototyp-Design (proof of principle) ist, welches kostenmäßig völlig überdimensioniert ist. Das Modul macht im Prinzip nichts anderes, als die Elektronik des Billig-Panels des Notebooks, mit dem AMD das vorgeführt hat. Also ganz klar ja, es ist Overkill.
Wie gesagt ist es wahrscheinlich sogar ne ziemlich sparsame Lösung. Was einen halt killt ist die Daten für 1-2 Bilder vor zu halten, was Sie ja scheinbar machen.
Da ist die verwendete Lösung wohl mit Abstand am billigsten. Ich hatte ja auch schon mal was erwähnt bzgl der Größe des RAMs. RAM ist bei FPGAs kein Spaß. Wenn man sich die Specs genau durchschaut, wird man sicherlich feststellen, dass das die kleinste RAM-Bestückung ist, in der man die volle RAM-Bandbreite haben kann.
Und warum bist du dir so 100%ig sicher das nVidia nicht mehr macht/vor hat?
Weil der FPGA jetzt auch nicht gerade das Überding ist, wenn man bedenkt was er alles ersetzen muss?
Ich meine, sie hätten es doch gar nicht nötig so etwas als DIY-Kit zu verkaufen, es gab doch keinen Zeitdruck.
Marketing. Einfach Marketing.
DP 1.3 ist noch nicht finalisiert und G-Sync kannst du jetzt schon kaufen (wenn auch nur mit dem ASUS-Panel). Jetzt überleg mal, warum das evtl. für NV Vorteile hat, wenn sich DP evtl. weiter verspätet und NV zuerst am Markt ist.
Vor allem aber die Art, wie das vorgestellt wurde, hat doch schon diesen Effekt ausgelöst.
Es wird interessant zu sehen, ob NV jetzt versucht, sich davon weiter abzugrenzen. Sei es mit zusätzlichen Features oder wie auch immer. Carmack hatte da ja was angedeutet.
Naja, zu nVidia würde passen, dass Sie sich in den entsprechenden Gremien Quer gestellt haben so stark es nur ging, und auf die Bremse gedrückt haben wos nur geht, damit sich alels möglichst lange verzögert, damit Sie ihren Scheis bringen können.
Das passt zu nVidia, also zu dem was man so hört, wie Sie sich in gemeinsamen Gremien aufführen....
NVIDIA hatte doch die Wahl mit welchem Monitor sie ihr Teil vorstellen. War also absolut nicht nötig einen zu nehmen bei dem sie die ganze Panelelektronik ersetzen müssen. Das Ding kann sicher ne Ecke mehr als nur variables vblank. Da gibts bestimmt noch ein paar Features, vielleicht wirds ja auch ne positive Überraschung.
Greetz
U.S.
Naja, aber welche "BOAH IS DAS MA GEILOOOOMAT!!!!"-Effekt hätte es denn gehabt, wenn Sie gesagt hätten: Hey Leute, wir bringen das hier, und alles was wir machen müssen ist ne neue Firma auf zu spielen, bzw die bestehenden Chips um ne Byepass-funktion zu erweitern.
Das wäre doch nur müde belächelt worden.
Variable vBlanks sind schon in DP1.0 finalisiert, in 1.3 kommt noch Self-Refresh (also das was z.B. eBook-Reader auf ähnliche Art und Weise schon immer haben) dazu, das ist dafür aber aus meiner Sicht nicht notwendig.
Wenn nVidia wirklich nur Tamtam gemacht, wäre ich in der Tat auch enttäuscht.
Ich kann Gipsels Ausführungen allerdings nur schwerlich glauben, weil es einfach zu dumm wirkt, die Marge z.B. bei dem DIY-Kit ist wohl ziemlich klein, was die Displayhersteller nVidia zahlen ist natürlich nicht bekannt, warum sollten sie aber einen FPGA verbauen, wenn es mit wenig Entwicklungsaufwand eine gleichwertige, aber sehr viel günstigere Variante gäbe?
Das erschließt sich mir einfach nicht, allerdings fallen mir auch selbst keine anderen Gründe für einen FPGA mit der hohen RAM-Menge ein (außer eben als Proof of Concept, so etwas verkauft man aber für gewöhnlich nicht).
Schau dir doch an, was nVidia mit der GTX Titan usw gemacht hat. Die melken die Kuh bis Sie blutet.... Und die Kuh, aka Fans, bejubeln es auch noch....
nVidia hat völlig jedwede Bodenhaftung seit einiger Zeit verloren, und meint Sie würden mit allem durchkommen. Muss ich an die Aktion mit den Chinesen erinnern, die Sie hochkant rausgeworfen haben für ihre Unverschämtheit?
Stimmt, das hatte nicht dazu geschrieben, das ist natürlich korrekt. Ohne entsprechenden ASIC (o. eben das G-Sync-Modul) können aktuell Monitore mit variablen Blanks wenig anfangen, es ist nicht zwingend.
Was mir jetzt noch im Kopf rumschwirrt: Wie will nVidia damit eigentlich länger als ein paar Monate oder ein Jahr Geld verdienen, wenn die Lösung für die Monitor-/Displayhersteller relativ simpel ist?
Durch die Zertifizierung ist wohl nicht viel zu holen, das Modul kauft doch aber auch kein Hersteller mehr, wenn es in-House billiger geht und wenn AMD es auch bietet, funktioniert auch keine Exklusivbindung mehr.
Ich hoffe auf zusätzliche Features für Shadowplay/Streaming, aber so richtig vorstellbar ist dabei für mich nichts.
Tja, die machen halt ihr Marketing Ding. Sie sind doch "nVidia" die Rocket-Science Firma schlecht hin, die alle "echten GAmer" nutzen, und jeder der was andere nutzt ist eh doch nen Boon, Casual, Hart4-Ärmling usw.
Timbaloo
2014-01-08, 19:23:46
Dass bei NV jemand dem Management erzählt hat "ich hab da 'ne geile Idee" und keiner vorher nachgeschaut hat ob es dafür schon einen Ansatz gibt ist wohl eher unwahrscheinlich? :D
;D
Naja, aber welche "BOAH IS DAS MA GEILOOOOMAT!!!!"-Effekt hätte es denn gehabt, wenn Sie gesagt hätten: Hey Leute, wir bringen das hier, und alles was wir machen müssen ist ne neue Firma auf zu spielen, bzw die bestehenden Chips um ne Byepass-funktion zu erweitern.
Das wäre doch nur müde belächelt worden.
Nach aktuellem Stand würden sie aber Image-mäßig bestimmt besser dastehen. Dann könnten sie groß rumtönen: "Hey, wir haben was gefunden, wo die ganzen anderen Deppen nicht draufgekommen sind, obwohl es so toll und trivial ist." Dann wären erstmal die Monitor- und GPU-Hersteller die Dummen und nV der Held. AMD hätte nur noch "kopieren" können.
So aber wirkt es als wär nV der große Ausbeuter und AMD der Wohltäter der es allen umsonst gibt :)
Naja, Marketing, wie man's macht, macht man's falsch ^^
Knuddelbearli
2014-01-08, 19:48:13
Was mir jetzt noch im Kopf rumschwirrt: Wie will nVidia damit eigentlich länger als ein paar Monate oder ein Jahr Geld verdienen, wenn die Lösung für die Monitor-/Displayhersteller relativ simpel ist?
Durch die Zertifizierung ist wohl nicht viel zu holen, das Modul kauft doch aber auch kein Hersteller mehr, wenn es in-House billiger geht und wenn AMD es auch bietet, funktioniert auch keine Exklusivbindung mehr.
Einfach Freesync nicht unterstützen
Die fanboys ( Die PhysikX, mehr AA Modi usw wollen ) werden es schon kaufen.
Botcruscher
2014-01-08, 19:48:41
Wo soll er denn das Bild sonst puffern als im RAM?
Der soll wegen der Latenz eigentlich überhaupt nichts puffern.
-/\-CruNcher-/\-
2014-01-08, 20:20:04
Wo soll er denn das Bild sonst puffern als im RAM? Das Ding ist zu klein um das im FPGA zu machen.
Ihr müsst mal die Realitionen sehen. Das ist zwar nen sau teurer Chip, aber das ist nur unteres Midrange. Es ist aber wohl die mit Abstand billigste Lösung. Soweit ich das überblicken kann müsstest du nämlich um das alles komplett im FPGA zu realisieren, nen Stratix V, also High-End verwenden, und da auch nicht den billigsten. Da biste bei mindestens 6k€! und sogar ganz schnell bei 10k€+....
Stimmt, DHCP müssen Sie wahrscheinlich auch noch integrieren. Gar nicht dran gedacht. Wenn das nämlich nicht funktioniert, dann GZ ;D
Müsste man mal in Erfahrung bringen. DHCP wird sicherlich allein schon einiges an Logikblöcken fressen, und soo viele hat das Ding ja auch nicht.
Wie gesagt ist es wahrscheinlich sogar ne ziemlich sparsame Lösung. Was einen halt killt ist die Daten für 1-2 Bilder vor zu halten, was Sie ja scheinbar machen.
Da ist die verwendete Lösung wohl mit Abstand am billigsten. Ich hatte ja auch schon mal was erwähnt bzgl der Größe des RAMs. RAM ist bei FPGAs kein Spaß. Wenn man sich die Specs genau durchschaut, wird man sicherlich feststellen, dass das die kleinste RAM-Bestückung ist, in der man die volle RAM-Bandbreite haben kann.
Weil der FPGA jetzt auch nicht gerade das Überding ist, wenn man bedenkt was er alles ersetzen muss?
Marketing. Einfach Marketing.
Naja, zu nVidia würde passen, dass Sie sich in den entsprechenden Gremien Quer gestellt haben so stark es nur ging, und auf die Bremse gedrückt haben wos nur geht, damit sich alels möglichst lange verzögert, damit Sie ihren Scheis bringen können.
Das passt zu nVidia, also zu dem was man so hört, wie Sie sich in gemeinsamen Gremien aufführen....
Naja, aber welche "BOAH IS DAS MA GEILOOOOMAT!!!!"-Effekt hätte es denn gehabt, wenn Sie gesagt hätten: Hey Leute, wir bringen das hier, und alles was wir machen müssen ist ne neue Firma auf zu spielen, bzw die bestehenden Chips um ne Byepass-funktion zu erweitern.
Das wäre doch nur müde belächelt worden.
Schau dir doch an, was nVidia mit der GTX Titan usw gemacht hat. Die melken die Kuh bis Sie blutet.... Und die Kuh, aka Fans, bejubeln es auch noch....
nVidia hat völlig jedwede Bodenhaftung seit einiger Zeit verloren, und meint Sie würden mit allem durchkommen. Muss ich an die Aktion mit den Chinesen erinnern, die Sie hochkant rausgeworfen haben für ihre Unverschämtheit?
Tja, die machen halt ihr Marketing Ding. Sie sind doch "nVidia" die Rocket-Science Firma schlecht hin, die alle "echten GAmer" nutzen, und jeder der was andere nutzt ist eh doch nen Boon, Casual, Hart4-Ärmling usw.
Ja schöner witz DHCP passiert nunmal ;)
Marketing ? ich seh das nicht mehr als Marketing wenn sich das hier alles bewahrheitet geht das mehr in die Richtung Täuschung es kann nicht sein das man das hier als revolutionär promotet wenn es schon Standardbemühungen gibt dieses zu generalisieren für GPUs und den Desktop.
Ey man könnte dann ja fast denken Nvidia hat das mit dem ganzen DIY Kit design auch noch extra large in size geplannt. Momentan weiss ich nicht wirklich was ich glauben soll aber wenn sich das bestätigt oh mann hab schon einige sachen in meiner Nvidianer Zeit erlebt von Nvidia aber das wäre der hammer vor allem das Carmack, Sweeny und Co da auch noch toll jubeln und Nvidia sich hier feiern lässt mit 5 year hard research und keiner macht was aber Nvidia natürlich nur zur liebe der Gamer hat das Problem gelöst.
Aber vielleicht verstehen hier einige auch nicht die Komplexität drumherum und Nvidia hat immernoch eine einzigartige solution entwickelt wir werden sehen, vor allem das AMD hier nicht sofort mit dem Finger auf Nvidia zeigt und die reden nur scheisse wir sitzen hier schon alle zusammen und plannen das für den Desktop zu standardisieren das verwundert einfach nur, statdessen zeigen sie lediglich das es auf Notebooks schon funktioniert demoen aber mit 0 Game Engine.
Der soll wegen der Latenz eigentlich überhaupt nichts puffern.
D.h. du willst jeden Pixel einzeln darstellen? Die Daten müssen zumindest so lange gepuffert werden, bis ein Frame vollständig übertragen ist. DisplayPort is nunmal paketbasiert.
Exxtreme
2014-01-08, 20:38:02
[FONT=Arial][SIZE=2]Das Ding macht sicher mehr. Sonst würde NVIDIA die Sache doch nicht so aufwändig quersubventionieren. Mit FPGA, eigenem Netzteil und peripherer Elektronik kommt so ein Kit wohl auf mindestens 500 USD. Aber um den Preis zu bekommen muss man schon etliche tausend abnehmen.
Wie schon geschrieben, ich glaube nicht, dass das die endgültige Implementierung ist sondern eher eine Quick&Dirty-Lösung.
Und zweitens, falls das Ding mehr kann dann hat man davon noch nichts gesehen.
-/\-CruNcher-/\-
2014-01-08, 20:44:07
Vielleicht hast du gerade das eben doch in der Bildqualität z.b die Text Demo ect in der smoothness des Pendulum Ergebnisses ect wo andere sich vieleicht alle noch die Zähne ausbeisen, das die Monitore es alle können werden sollen tun heist ja noch lange nicht wie der Scaler das darstellt und damit umgeht und Nvidia hat hier immerhin noch den Vorteil die kennen ihr GPU verhalten in und auswendig, das ist ja alles absolut abgestimmt davon bin ich jedenfalls ausgegangen.
Scaler sind eigentlich weitab von Trivial da geht es um verdammt viel Algorithmus know how im Signal Processing und wenn man da jetzt immer gewohnt war fixed framerates zu displayen und plötzlich muss man sich auf die GPU art und weisse mit variable frameraten umstellen dann weiss ich nicht ob das so Trivial mit einem Vblank change erledigt ist.
Botcruscher
2014-01-08, 20:51:20
D.h. du willst jeden Pixel einzeln darstellen? Die Daten müssen zumindest so lange gepuffert werden, bis ein Frame vollständig übertragen ist. DisplayPort is nunmal paketbasiert.
Auf dem Modul sind 768MB! Ein Frame mit verlustfreier Komprimierung ist schon etwas weniger.
Gipsel
2014-01-08, 21:00:28
Vielleicht hast du gerade das eben doch in der Bildqualität z.b die Text Demo ect in der smoothness des Pendulum Ergebnisses ect wo andere sich vieleicht alle noch die Zähne ausbeisen, das die Monitore es alle können werden sollen tun heist ja noch lange nicht wie der Scaler das darstellt und damit umgeht und Nvidia hat hier immerhin noch den Vorteil die kennen ihr GPU verhalten in und auswendig, das ist ja alles absolut abgestimmt davon bin ich jedenfalls ausgegangen.
Scaler sind eigentlich weitab von Trivial da geht es um verdammt viel Algorithmus know how im Signal Processing und wenn man da jetzt immer gewohnt war fixed framerates zu displayen und plötzlich kommen da variable dann ist das sicherlich nicht so einfach wie manche hier denken das darzustellen.Das ist alles eher eine Funktion des Panels, das GPU-Verhalten interessiert da nicht die Bohne. ;)
Und was für Signal-Processing willst Du da groß betreiben? Die Daten kommen in digitaler Form an und müssen in das digitale Format konvertiert werden (es sollte eigentlich nur an ein paar globalen Parametern gedreht werden, um Farbton/Helligkeit usw. an die jeweiligen Einstellungen anzupassen, nichts Wildes), die das jeweilige Panel akzeptiert (weswegen es panelspezifisch ist). Da gibt es eine Vorgabe vom Panelhersteller (der sollte ja die Kennlinien seines Panels kennen, also wie es auf verschiedene Werte reagiert), was man machen muß und gut ist. Man sollte um das Problem nicht so viel rumwundern, das ist alles nicht soo schwierig.
-/\-CruNcher-/\-
2014-01-08, 21:21:00
Das ist alles eher eine Funktion des Panels, das GPU-Verhalten interessiert da nicht die Bohne. ;)
Und was für Signal-Processing willst Du da groß betreiben? Die Daten kommen in digitaler Form an und müssen in das digitale Format konvertiert werden (es sollte eigentlich nur an ein paar globalen Parametern gedreht werden, um Farbton/Helligkeit usw. an die jeweiligen Einstellungen anzupassen, nichts Wildes), die das jeweilige Panel akzeptiert (weswegen es panelspezifisch ist). Da gibt es eine Vorgabe vom Panelhersteller (der sollte ja die Kennlinien seines Panels kennen, also wie es auf verschiedene Werte reagiert), was man machen muß und gut ist. Man sollte um das Problem nicht so viel rumwundern, das ist alles nicht soo schwierig.
Wenn das alles nicht so schwer ist stelle ich mir ernsthaft die Frage wieso wird das jetzt erst gelöst wenn doch anscheinend Wirtschaftlich gesehen das nur ein simpler change ist der die kosten ja anscheinend nicht explodieren lässt
Und man tut sich munter heiter über die jahre mit 3D, HDCP, HDTV und 120 fps interpolation und Co beschäftigen die doch weitaus komplexer sind und unmengen an Research und Geld schon gekostet haben und ballert sich dazu auch noch lieber immer mehr 3rd party zeug in die Chips als ein Fundamentales Problem zu lösen das jeder seit anbegin der Digitalen Zeit kennt ?
Bin ich im Falschen Film ?
Es hat ja keiner danach geschrien, also ist es erst mal unten in der Priorität. Außerdem kann es jede GPU, also wo ist der Grund den Stein ins Rollen zu bringen, man selber hat ja quasi keinen Vorteil?
NVIDIA muss an dieser Stelle auch gelobt werden, das Thema auf den Tisch gebracht zu haben. Jetzt will es auf einmal jeder. :freak:
Botcruscher
2014-01-08, 21:42:35
Da könnte man sich auch fragen warum über Jahre nichts jenseits 24", 1080p usw. gekommen ist. Windows ist da eher eine schlechte Erklärung. Da werden sich die paar Displayhersteller eher auf ruhige Zusammenarbeit "geeinigt" haben. Ungefähr so wie bei den Festplatten...
uweskw
2014-01-08, 21:44:35
......
NVIDIA muss an dieser Stelle auch gelobt werden, das Thema auf den Tisch gebracht zu haben. Jetzt will es auf einmal jeder. :freak:
Richtig!
Für sowas haben wir eigentlich die Fachpresse. Aber diese versagt leider regelmäßig. Ist ja nicht das erste mal. Ist ja schliesslich auch viel einfacher und billiger die Pressemeldungen der Hersteller wiederzukäuen. Und Klicks bringt es genauso.
Greetz
U.S.
PatkIllA
2014-01-08, 22:53:59
D.h. du willst jeden Pixel einzeln darstellen? Die Daten müssen zumindest so lange gepuffert werden, bis ein Frame vollständig übertragen ist. DisplayPort is nunmal paketbasiert.
Was hat das denn mit Paketbasiert zu tun? Wenn das Paket da ist kann man die darin enthaltenen Pixel anzeigen. Puffern muss man nichts, wenn man die Pixel direkt darstellen kann. Also man weder was skalieren muss, noch FRC betreibt und sicher ist, dass ein neuer Frame kommt bevor die Sample and hold Schaltung zu stark nachlässt.
Wie schon geschrieben, ich glaube nicht, dass das die endgültige Implementierung ist sondern eher eine Quick&Dirty-Lösung.
Hat NVIDIA doch selbst gesagt, dass man das auch direkt in die Monitorelektronik einbauen könnte. Dafür müsste man "nur" entsprechende Chips entwickeln.
Was hat das denn mit Paketbasiert zu tun? Wenn das Paket da ist kann man die darin enthaltenen Pixel anzeigen. Puffern muss man nichts, wenn man die Pixel direkt darstellen kann.
Man muss zumindest warten, bis das komplette Bild angekommen ist oder nicht? Du kannst doch nicht den ersten Pixel, der durch den DP-Port kommt schon anzeigen, bevor der letzte im Monitor ist. Zumindest einmal den Framebuffer für die native Auflösung musst du doch schon haben oder hab ich da gänzlich falsche Vorstellungen?
N0Thing
2014-01-09, 00:29:06
Was mir jetzt noch im Kopf rumschwirrt: Wie will nVidia damit eigentlich länger als ein paar Monate oder ein Jahr Geld verdienen, wenn die Lösung für die Monitor-/Displayhersteller relativ simpel ist?
Es ist vielleicht doch nicht so trivial. Das wäre zumindest die Aussage des Nvidia-Vertreter im Techreport-Interview. Scheinbar ist es mit den vorhandenen ASICs nicht möglich G-Sync oder FreeSync zu realisieren, wenn gleichzeitig auch eine komplexe Elektronik nutzen will.
Zudem fehlt es noch an einer Präsentation, in der FreeSync gleichwertige Ergebnisse liefert, die man schon von G-Sync kennt. Bisher hat man ja nur eine Art proof of concept gesehen. Wäre alles so easy peasy, dann hätte AMD auch ein Desktop-System mit voller G-Sync-Funktionalität zeigen können. Ein halbes Jahr für ein simples Firmware- und Treiber-Update wären ja ausreichend, wenn man einigen hier im Thread glauben schenken darf.
Auf dem Modul sind 768MB! Ein Frame mit verlustfreier Komprimierung ist schon etwas weniger.
Die volle Bandbreite erreicht man nur mit Vollbestückung bei den RAM-Modulen.
Was hat das denn mit Paketbasiert zu tun? Wenn das Paket da ist kann man die darin enthaltenen Pixel anzeigen. Puffern muss man nichts, wenn man die Pixel direkt darstellen kann.
Wo ist da der Sinn den Bildinhalt Pixelweise darzustellen, wenn man eine bessere Lösung für V-ysnc liefern will. Dann hätte man ja überall im Bild Tearing, nicht nur auf einer Zeile. Bis da komplette Bild übertragen wurde, muß man schon warten.
PatkIllA
2014-01-09, 01:19:19
Man muss zumindest warten, bis das komplette Bild angekommen ist oder nicht? Du kannst doch nicht den ersten Pixel, der durch den DP-Port kommt schon anzeigen, bevor der letzte im Monitor ist.Wieso nicht? Und was hat das mit DisplayPort zu tun? Die Bilder kommen auch bei DVI und HDMI Pixelweise an.
Wo ist da der Sinn den Bildinhalt Pixelweise darzustellen, wenn man eine bessere Lösung für V-ysnc liefern will. Dann hätte man ja überall im Bild Tearing, nicht nur auf einer Zeile. Bis da komplette Bild übertragen wurde, muß man schon warten.Es ist ja nicht so, dass die Pixel alle gleichzeitig angesteuert werden. Das passiert auch der Reihe nach.
Dass man einen Framebuffer im Display haben muss ist doch eine der Änderungen der sich durch Panel Self Refresh hat. Da braucht man den Framebuffer, damit man gelegentlich mal refreshen kann. Die Sample and Hold Schaltung pro Pixel hält schließlich nicht ewig. Deshalb kann man auch nicht beliebig runter mit der Refreshrate. Im mobilen Segment hat man noch den Vorteil, dass der Speicher im Display eher klein und langsam sein kann und sich dafür aber der Soc länger schlafen legen kann. Eigentlich sollten sich sogar der Speicher und die Displayelektronik runtertakten können, wenn das Panel gerade nicht refreshed wird. Da ist ja sogar vorgesehen, dass man nur geänderte Bildanteile überträgt und refreshed.
OBrian
2014-01-09, 01:38:52
Warum eigentlich? Es gibt doch keinen Kathodenstrahl mehr, der in der Röhre eine Fläche abtasten muß. Die Pixel könnte man auch gleichzeitig ansteuern oder (pseudo-)zufällig durcheinander statt der Reihe nach (letzteres wäre ein Überblendeffekt statt Tearing).
PatkIllA
2014-01-09, 01:51:26
Um alle gleichzeitig anzusteuern bräuchte man für jeden subpixel eine eigene Leitung zum controller.
Für zufällig müsste man für jeden pixel noch die Adresse mit schicken.
Wenn dann wird wohl eher ein Rechteck aktualisiert. Da muss man nur die Anfangs-Koordinate und die Höhe und breite mit schicken.
Skysnake
2014-01-09, 08:13:25
hm...
Keine Ahnung wie das aktuell geregelt ist, aber ich würde nen FlipFlop vor die Ansteuerung von jedem Pixel packen. Ich hab da ja eh schon ne "menge" an Schaltungen. Da fällt so ein FlipFlop auch nicht mehr ins Gewicht, und ich müsste halt im Controller keinen einzelnen fetten Speicher haben, aber keine Ahnung, wie das genau gemacht wird. Wäre eigentlich mal ganz interessant.
Gipsel
2014-01-09, 10:44:12
Ein Flipflop reicht da nicht. Im Prinzip bilden die Pixel eines Displays mit aktiver Matrix (also alle TFTs) eine Art DRAM (die Halteschaltung an jedem Pixel hält den Wert möglichst lange). Um es längere Zeit verlustfrei zu speichern, benötigt man eher 24 bis 30 Bits pro Pixel (RGB-Fabwerte), aber dann sind wir halt beim kompletten Frame.
PatkIllA
2014-01-09, 12:23:28
Ist die Halteschaltung am jeweiligen Pixel nicht analog? Die hält aber auf jeden Fall nicht ewig und muss gelegentlich refreshed werden. Keine Ahnung welche Intervalle da möglich sind.
Die paar MB fallen ja heute auch nicht mehr so ins Gewicht. In den meisten Geräten hat man doch sowieso schon einen Speicher, da man das auch für FRC, Overdrive, Bewegungsinterpolation, Skalierung und bestimmt noch andere Dinge sowieso braucht.
Wenn der Monitor vorgeben kann wann spätestens ein Refresh zu erfolgen hat, dann geht auch erstmal ohne eigenen Speicher. Das GSync wiederholt bei weniger als 30 fps ja auch das letzte Bild. Wobei mir nicht klar ist, ob das die Grafikkarte oder das GSync-Modul macht.
Das GSync wiederholt bei weniger als 30 fps ja auch das letzte Bild. Wobei mir nicht klar ist, ob das die Grafikkarte oder das GSync-Modul macht.
Da würde ich vom praktischen Gesichtspunkt her aufs GSync-Modul tippen, da man sonst im ungünstigsten Fall eine zusätzliche Latenz von einer Frame-Übertragungsdauer reinbekommt. Aber kA
Gipsel
2014-01-09, 14:02:05
Da würde ich vom praktischen Gesichtspunkt her aufs GSync-Modul tippen, da man sonst im ungünstigsten Fall eine zusätzliche Latenz von einer Frame-Übertragungsdauer reinbekommt. Aber kABekommt man auch mit GSync, siehe pcper-Test (die Sprünge zwischen 30 und 25Hz sind genau die knapp 7ms zusätzliches Delay [1/144Hz], die die Neuübertragung über DP offenbar benötigt).
N0Thing
2014-01-09, 14:12:16
Wieso nicht? Und was hat das mit DisplayPort zu tun? Die Bilder kommen auch bei DVI und HDMI Pixelweise an.
So wie ich es hier im Thread verstanden habe, werden die Daten paketweise über den Displayport übertragen und im Anzeigegerät zum kompletten Bild zusammengesetzt, im Gegensatz zur Bild für Bild Übertragen anderer Standards.
Es ist ja nicht so, dass die Pixel alle gleichzeitig angesteuert werden. Das passiert auch der Reihe nach.
Bei einem Refresh mit halben neuen Bildinhalt und zeilenweiser Aktualisierung hätte man doch wieder klassisches Tearing, oder?
PatkIllA
2014-01-09, 14:19:57
So wie ich es hier im Thread verstanden habe, werden die Daten paketweise über den Displayport übertragen und im Anzeigegerät zum kompletten Bild zusammengesetzt, im Gegensatz zur Bild für Bild Übertragen anderer Standards. Da ist aber kein qualitativer Unterschied. Bei allen kommen sequentiell die Daten nacheineeinander rein. Außer, dass es bei HDMI und DVI das Timing genau vorgegeben ist und bei DP unterschiedlich viel Zeit zwischen den Paketen vergeht.
Bei einem Refresh mit halben neuen Bildinhalt und zeilenweiser Aktualisierung hätte man doch wieder klassisches Tearing, oder?Nur den halben Bildinhalt zu refreshen würde man ja nur machen, wenn die andere Hälfte gleich geblieben ist.
Das wäre aber Partial Refresh und nicht direkt abhängig von variablem VBlank.
Da würde ich vom praktischen Gesichtspunkt her aufs GSync-Modul tippen, da man sonst im ungünstigsten Fall eine zusätzliche Latenz von einer Frame-Übertragungsdauer reinbekommt. Aber kAIch sehe immer noch keinen zwingenden Grund warum man nicht schon bei der Übertragung des Bildes das Panel ansteuert (FRC und Overdrive mal ausgenommen)
Gipsel
2014-01-09, 15:00:59
So wie ich es hier im Thread verstanden habe, werden die Daten paketweise über den Displayport übertragen und im Anzeigegerät zum kompletten Bild zusammengesetzt, im Gegensatz zur Bild für Bild Übertragen anderer Standards.Na bei HDMI/DVI werden die Pixeldaten immer schön der Reihe nach mit genau festgelegter Rate übertragen. Auch bei DP versucht die GraKa standardmäßig zwischen den Datenpaketen immer Pausen einzulegen, und so die Daten relativ gleichmäßig über den Refreshzyklus zu verteilen. Im Prinzip kann der Monitor die Pixelmatrix direkt mit den Daten programmieren, wie sie so ankommen. Das Puffern zu minimieren, ist ja gerade die Idee, warum bei DP die Daten meist mit solchen Pausen übertragen werden.
Aber ein Display, was 144Hz unterstützt, kann natürlich die Pixelmatrix auch mindestens 144mal pro Sekunde programmieren (intern sogar noch schneller). Die GraKa kann also immer mit dieser Geschwindigkeit die Daten senden ohne künstliche Pausen einzufügen, und dann nach dem Ende des Frames einfach pausieren, statt direkt mit dem nächsten Transfer (mit dem gleichen Bild, wenn die Framerate unter 144Hz liegt) anzufangen, bis das nächste Frame fertig ist. Nichts anderes machen GSync und "FreeSync". Solange der Monitor nicht in Panik ausbricht (und dann ein schwarzes Bild zeigt), wenn nicht direkt das nächste Bild kommt, sollte das auch funktionieren. Das Display muß sich einfach für die Zeit schlafen legen und nichts machen (außer die Hintergrundbeleuchtung anzulassen).
Bei einem Refresh mit halben neuen Bildinhalt und zeilenweiser Aktualisierung hätte man doch wieder klassisches Tearing, oder?Tearing bekommt man so nicht, daß ist das gleiche Verhalten wie bei den alten CRTs, wo auch der Elektronenstrahl die Fläche abrasterte und immer genau die Pixeldaten "schrieb", die gerade von der GraKa ankamen. Das verursacht kein Tearing sondern eher so etwas wie einen inversen Rolling Shutter-Effekt. Den bekommt man weg (und auch die kurzzeitig falschen Farben beim Schreiben der neuen Pixeldaten), wenn man die Hintergrundbeleuchtung für kurze Zeit während der Programmierung der Pixelmatrix ausschaltet oder anderweitig blockt (bei einigen Paneltypen geht das über zusätzliche Polfilter), das ist die "black stripe insertion". Das verursacht allerdings Probleme mit variabler Framerate wie hier diskutiert (empfundene Helligkeit würde sich je nach Anzeigedauer des Frames ändern), erfordert also auch eine angepaßte Ansteuerung der Hintergrundbeleuchtung, wenn man das beibehalten will. Deswegen werden bei GSync diese Techniken zumindest bei dem Asus-Monitor nicht benutzt (der läuft mit kontinuierlicher Hintergrundbeleuchtung).
Aber es ist durchaus möglich, daß zukünftige Monitore mit an variable Frameraten angepaßter dynamischer Helligkeitsregelung aufwarten können (inklusive Strobing aka "Lightboost"). Sinken die Frameraten unter die maximale des Displays, müssen da allerdings natürlich Kompromisse eingegangen werden. Man kann sich bei 30Hz nicht mehr nur auf die Strobes verlassen, dort muß man langsam zum quasi kontinuierlichen Backlight zurückkehren (es flimmert sonst wie die Hölle), so daß dann bei niedrigen Frameraten fast nur noch black stripe insertion übrig bleibt. Aber man kann einen kontinuierlichen Blend zwischen diesen Lösungen basteln, wenn man es will.
Screemer
2014-01-09, 16:04:29
noch mal auf die, im anderen thread angesprochenen, monitore mit potentieller vblank unterstützung zu kommen. ist es eher warscheinlich, dass da einfache modelle ohne großen elektornikschnickschnack drunter sind.
ich meine damit vor allem die weit verbreiteten 27''-modelle aus korea. diese nutzen ja lg- und samsung-panels und dazu eigentlich nur die treiberelektronik der panelhersteller. keine scaler, keine dac-chips für vga oder notwendige elektronik für hdmi/dp. da gibts dual-link dvi und das war es.
PatkIllA
2014-01-09, 16:15:54
da gibts dual-link dvi und das war es.
Und damit ist schon klar, dass es nicht geht. Das geht nur mit DisplayPort.
Gipsel
2014-01-09, 16:25:26
Und damit ist schon klar, dass es nicht geht. Das geht nur mit DisplayPort.Zumindest spezifikationskonform. Außerhalb der Specs kann man eventuell auch was mit anderen Interfaces basteln, aber da dürfte die Wahrscheinlichkeit des Funktionierens sehr gering sein und es wird wohl keiner was dafür extra auflegen.
PatkIllA
2014-01-09, 16:26:46
Zumindest spezifikationskonform. Außerhalb der Specs kann man eventuell auch was mit anderen Interfaces basteln, aber da dürfte die Wahrscheinlichkeit des Funktionierens sehr gering sein und es wird wohl keiner was dafür extra auflegen.
Das würde aber so ziemlich alle grundlegenden Eigenschaften von DVI/HDMI über den Haufen werfen.
Screemer
2014-01-09, 17:53:51
aso. war mir nicht bewusst. danke für die info.
Gipsel
2014-01-09, 18:41:00
Das würde aber so ziemlich alle grundlegenden Eigenschaften von DVI/HDMI über den Haufen werfen.Nur die GTF bzw. CVT, also die Vorschriften, wie das Timing für bestimmte Auflösungs-Refreshrate-Kombinationen auszusehen hat.
CVT bietet ja gegenüber der GTF z.B. reduzierte Blanking-Intervalle. Man hat also die Wahl zwischen normalem Blanking wie bei VGA bzw. für CRTs nötig und kürzeren Blankingzeiten (wie mit TFTs möglich, erlaubt z.B. bei gleicher Datenrate 1200p statt 1080p). Die Displays sind da also in gewissem Rahmen flexibel.
Aber angenommen man hat eine gutmütige Panel/Scaler-Kombination, dann könnte man versuchen, z.B. eine normale CVT-RB (mit reduziertem [horizontalem] Blanking) Dual-Link-Verbindung für 1080p mit 144Hz aufzubauen, aber erhöht dann einfach (standardverletzend) flexibel das vertical Blanking Intervall. Also im Prinzip das, was man mit GSync/FreeSync auch macht. Im Prinzip könnte das eventuell schon in einer variablen Framerate resultieren (wenn es keinen schwarzen Bildschirm gibt). Nur ist das Timing im Gegensatz zu Displayport bei DVI/HDMI eigentlich recht fest vorgeschrieben. Aber wer weiß, was diese koreanischen Übertaktungswunder fressen würden, wenn man die so ansteuern würde.
Aber wie gesagt wird wohl niemand etwas in die Richtung offiziell vorsehen, weil es eigentlich klar außerhalb der Spezifikation ist.
Edit: Vielleicht ist es doch gar nicht soo weit außerhalb der Spezifikation (sondern nur Konvention). Ich habe mal spaßenshalber in die DVI 1.0 Spec (noch aus dem alten Jahrtausend) reingesehen, und irgendwie ist da erstmal nur ein minimales Blanking-Intervall definiert, aber kein maximales. Die Spec geht zwar irgendwie implizit davon aus, daß das fest ist, aber es ist nirgendwo explizit gefordert, soweit ich das gesehen habe.
Und da steht doch lustigerweise ziemlich am Anfang folgende Passage:
1.2.2 Conversion to Selective Refresh
It is anticipated that in the future the refreshing of the screen will become a function of the monitor. Only when data has changed will the data be sent to the monitor. A monitor would have to employ an addressable memory space to enable this feature. With a selective refresh interface, the high refresh rates required to keep a monitor ergonomically pleasing can be maintained while not requiring an artificially high data rate between the graphics controller and the monitor. The DVI specification does nothing to preclude this potential migration.
Die haben also 1999 zumindest perspektivisch daran gedacht, die Datenübermittlung von der GPU zum Monitor von der Refreshrate zu entkoppeln (etwas anders, als GSync/FreeSync das jetzt machen wollen, da soll es ja immer noch gekoppelt sein, aber nicht mit fester Frequenz ablaufen), hatten aber noch das CRT-Flimmern im Kopf. ;D
Gipsel hab deine Beiträge gelesen sehr interessant und nützlich Danke
bin mal gespannt was draus wird
PatkIllA
2014-01-09, 20:09:55
Eigentlich sind die ganzen Timings mit Blanking, Front und Back Porches, Sync Pulse usw bei einem digitalen Display völlig überflüssig. Es war ja früher mal angedacht, dass man auch Röhren mit DVI-D anschließt und dann dort die Wandlung passiert. Da wäre sowas noch nötig gewesen, wenn man nicht mit (damals) teuren Zwischenspeichern arbeiten wollte.
HDMI und DVI haben für eine digitale Schnittstelle auch die Besonderheit, dass die Datenfrequenz praktisch jeden Wert annehmen kann. Nämlich genau, dasss was sich aus Auflösung und den Timings ergibt. Sonst haben praktisch alle Schnittstellen eine (oder sehr wenige) Frequenzen und es wird mit Dummy Daten aufgefüllt.
Skysnake
2014-01-09, 20:46:18
Ein Flipflop reicht da nicht. Im Prinzip bilden die Pixel eines Displays mit aktiver Matrix (also alle TFTs) eine Art DRAM (die Halteschaltung an jedem Pixel hält den Wert möglichst lange). Um es längere Zeit verlustfrei zu speichern, benötigt man eher 24 bis 30 Bits pro Pixel (RGB-Fabwerte), aber dann sind wir halt beim kompletten Frame.
Naja, kommt halt drauf an, wo denn die ganze Verarbeitung für den Overdrive usw ablauft. Ob das in der Steuerelektronik auf dem Board noch abläuft, oder nicht doch schon teilweise ins Panel an sich gewandert ist.
Aber ja, am einfachsten ist es eigentlich nen Speicher zu bauen und gut ist. In nem ASIC ist das ja auch nicht mehr sooo viel.
Man kann ja komplett Zeilenweise auslesen, es muss nicht sonderlich schnell sein fürn ASIC usw.
Bekommt man auch mit GSync, siehe pcper-Test (die Sprünge zwischen 30 und 25Hz sind genau die knapp 7ms zusätzliches Delay [1/144Hz], die die Neuübertragung über DP offenbar benötigt).
Stimmt, das ist eine sehr schlüsseige Argumentation :up: Ich hab mir auch schon darüber gedanken gemacht, was da passieren könnte, und hatte uahc kurz an sowas wie nen nochmaliger refresh gedacht, aber das es passt hatte ich mir dann incht mehr angeschaut. THX dafür :up:
Was mir noch an dem Nachrüstkit aufgefallen ist.
Das Modul mit dem FPGA hat doch nen PCI-E Anschluss, so wie er bei den Laptops verbaut (MXM oder so heist das doch?) wird oder nicht?
Glaubt ihr da läuft nur die Stromversorgung drüber, oder sonst noch was? Also außer den DAten fürs Panel. Das sollte nämlich wie mir scheint definitiv über den Anschluss laufen. Mehr gibts da ja auch nicht an Anschlüssen. Die Kabel gehen ja auf das große Board und nicht direkt aufs FPGA-PCB
Locuza
2014-01-09, 21:55:55
Ich habe jetzt die letzte Seite zurück geblättert und sorry, falls nicht neu, aber PCGH berichtet über Neuigkeiten. (Die sind für gewöhnlich online nicht die schnellsten. ;))
Project FreeSync is predominately compatible with eDP notebooks displays today. We are working with VESA members to bring forward desktop displays, but I'm not involved enough to comment on a timeline.
http://www.overclock.net/t/1457464/tr-nvidia-responds-to-amds-free-sync-demo/90#post_21543318
Und noch ein trolliger Blog-Eintrag: (Doing the work for everyone)
http://community.amd.com/community/amd-blogs/amd-gaming/blog/2014/01/08/doing-the-work-for-everyone
PCGH mit deutschem Text:
http://www.pcgameshardware.de/LCD-Hardware-154105/News/Freesync-AMD-G-Sync-Konter-mit-offenen-Standards-Techdemo-1103932/
Gipsel
2014-01-09, 22:08:14
Und noch ein trolliger Blog-Eintrag: (Doing the work for everyone)
http://community.amd.com/community/amd-blogs/amd-gaming/blog/2014/01/08/doing-the-work-for-everyoneIst das nicht lediglich eine Antwort auf die etwas pampig klingende Aussage von nV (ich glaube Tom Petersen), man sehe nicht ein, daß man die Arbeit für Andere erledigen soll? Woran das Lustige ja ist, daß es eigentlich tatsächlich die Aufgabe der Panel- bzw. eher der Monitorhersteller (die Panels selber müssten das eigentlich können) wäre, die Kompatibilität zu ermöglichen.
Locuza
2014-01-09, 22:29:24
Genau das ist es ;)
Der Titel spielt ja direkt darauf an.
Bei der prinzipiell tollen Bewegung, die die ganze Sache zu haben scheint, wäre eine grobe Timeline wünschenswert.
Q2 ist laut Wikipedia der grobe Zeitrahmen für DP1.3, wäre dann natürlich toll schon 2015 Monitore zu sehen.
-/\-CruNcher-/\-
2014-01-09, 22:30:09
Das ist doch der entscheidende Punkt hierbei
Es wird allerdings betont, dass für entsprechende Geräte kein Aufpreis verlangt werden wird, da bis auf die Entwicklung keine Mehrkosten entstehen.
Ich hoffe nur das Nvidia das hier nicht weiterhin so durchzieht und die Standardbemühung ignoriert das würde auch im Gegenteil zu dem stehen was sie ja angeblich wollten.
Das ist einfach Moralisch falsch zu wissen es ist ein Standard in Vorbereitung (vielleicht sogar selbst noch im Konsortium sitzen) und mit dem Messer hinter den anderen zu stehen und es ihnen reinzuramen.
Oder eben anstelle in einem Patent Pool beteiligt zu werden alles selbst raffen zu wollen.
Man könnte wiederum auf die idee kommen das Nvidia versucht nochmal kapital zu schlagen gegen den Effizienzgewinn der ihre teurere Hardware zum teil sicherlich runterziehen wird und wohl unweigerlich ein minus für Nvidia bedeutet etwas vorher zu kompensieren ;)
AMD hingegen interessiert dieser verlust anscheinend nicht die Bohne :)
Screemer
2014-01-09, 23:45:36
Nur ist das Timing im Gegensatz zu Displayport bei DVI/HDMI eigentlich recht fest vorgeschrieben. Aber wer weiß, was diese koreanischen Übertaktungswunder fressen würden, wenn man die so ansteuern würde.
Aber wie gesagt wird wohl niemand etwas in die Richtung offiziell vorsehen, weil es eigentlich klar außerhalb der Spezifikation ist.
hab grad mal versucht meinen koreaner zu untertakten. er frisst auf jeden fall schon mal 30Hz bei einer pixelclock von 120.85MHz ohne probleme. nach oben sind 120Hz bei 469.20MHz pixelclock auch kein problem. was allerdings auffällt ist, dass bei 30Hz sogar die Fenster beim verschieben ruckeln und bei 120Hz das bild einen tick dunkler ist. das ganze bei 2560x1440. höher hab ich noch nicht getestet. vielleicht würde er sogar 144Hz mitmachen. wer ich gleich mal testen.
leider hat ati die pixelclock im treiber 330MHz auf begrenzt. bei der auflösung der koreaner ist das sehr hinderlich. es gibt zwar einen pixelclock-patcher. allerdings funktioniert damit keine hwa bei videos mehr. außerdem erhöht sich der takt der karten auf 500 Mhz/vollgas beim ram, das ist auch der takt bei multimonitor mit unterschiedlichen monitoren, und es liegt volle vgpu an. das kommt wohl auch vom treiber, denn diesen state gibt es im bios nicht. man kann allerdings per ccc/aburner den takt auf min. festtackern. ähnlich war das bei nvidia früher auch. allerdings ist es jetzt höher und man kann mit evga precision sogar mit einem "offiziellen" tool die pixelclock erhöhen.
aufkrawall
2014-01-09, 23:53:18
Dass es dunkler wird, liegt aber nicht an der Übertragung zum Monitor.
Gibt S-IPS Monitore, die 120Hz 1440p ohne Verfälschungen mitmachen sollen (Overlord).
30Hz ruckeln bei Hold Type halt.
Gipsel
2014-01-09, 23:53:32
hab grad mal versucht meinen koreaner zu untertakten. er frisst auf jeden fall schon mal 30Hz bei einer pixelclock von 120.85MHz ohne probleme. nach oben sind 120Hz bei 469.20MHz pixelclock auch kein problem. was allerdings auffällt ist, dass bei 30Hz sogar die Fenster beim verschieben ruckeln und bei 120Hz das bild einen tick dunkler ist.
Wenn Du das auch irgendwo sehr frei einstellen kannst (custom configuration und keine der Standard-Timing-Formeln?), würde ich mal versuchen, eine hohe Pixelclock mit niedriger Framerate zu kombinieren. Dann dreht er nämlich notgedrungen die Blanking-Intervalle hoch ;). Falls das funktionieren sollte (am besten mit normal kurzem hblank und nur sehr langem vblank), müßte man nur noch die GPU dazu überreden, mal variable Blanking-Intervalle zu generieren (und damit variable Refreshraten).
aufkrawall
2014-01-10, 00:01:15
allerdings ist es jetzt höher und man kann mit evga precision sogar mit einem "offiziellen" tool die pixelclock erhöhen.
Bei NV brauchts auch nen Patch und afair macht das Pixelclock-OC Tool nichts anderes als einfach nur Custom Resolutions zu erstellen.
StefanV
2014-01-10, 00:12:56
was allerdings auffällt ist, dass bei 30Hz sogar die Fenster beim verschieben ruckeln
Ja, solche niedrigen Widerholraten sind echt unangenhm beim arbeiten.
Gut, 30Hz gehen bei meinem 27" AOC Schirm nicht, 23 und 24Hz aber (k/a, warum).
Das Bild schaut dabei aber 'nen bisserl komisch aus. Die Schrift in diesem Fenster, wo ich gerade schreibe, ist dann etwas bräunlich. Und das Bild wirkt irgendwie unscharf...
Aber der Hauptgrund, es NICHT zu nutzen ist eben, dass es doch spürbar ruckelt, im Windows...
Screemer
2014-01-10, 00:28:46
Bei NV brauchts auch nen Patch und afair macht das Pixelclock-OC Tool nichts anderes als einfach nur Custom Resolutions zu erstellen.
seit längerem ist kein patch bei nvidia mehr nötig. die maximale pixelclock wurde, wenn ich mich recht erinnere, im mai letzten jahres erhöht. zumindest soweit, dass 120Hz bei der auflösung der koreaner kein problem mehr sind. ich zitiere mal aus dem overlord-forum:
I have gotten this reply on the EVGA forum:
"...you do not need Toasty's patch anymore. You do not even need the EVGA OC utility, it's enough to simply create a custom resolution profile in the nVidia control panel for the higher refresh rate. That is exactly what the EVGA OC tool does."
man muss natürlich eine benutzerdefininierte auflösung im nvidia-tool erstellen. allerdings funktioniert das direkt über den treiber und man braucht kein extra tool wie cru mehr. bei amd ist das weiterhin nötig.
zu der farben bei den overlord-monitoren kann ich leider nichts sagen. kann allerdings durchaus sein, denn die ersetzen die komplette treiber-elektronik der panels durch eine eigenentwicklung. die im übrigen soviel kostet wie das g-sync-modul. gibt auch einzeln: http://overlordcomputer.com/collections/accessories/products/overlord-pcb-set.
ach ja und 144Hz bring ich jetzt auf die schnelle nicht zum laufen. da müsste ich mit der pixelclock rumspielen und das maximum ausloten. 120Hz sind solid und das lass ich erst mal.
@gipsel: damit kann ich gern mal rumspielen. da ich allerdings nicht so die ahnung davon habe, müsste mich da einer bisschen führen. hab mal einen screenshot des cru angehängt.
leider kann man im cru nur entweder die pixelclock ändern oder die refreshrate. beides zusammen geht nicht. also z.b. 30Hz und 469MHz. Mit einer Nvidia und dem evga pixelclock oc tool könnte das allerdings funktionieren. pixelclock mit dem evga tool erhöhen und im nvidia control panel eine auflösung mit niedriger frequenz anlegen. das könnte klappen. leider hab ich keine nvidia karte zur hand.
Gipsel
2014-01-10, 00:53:16
@gipsel: damit kann ich gern mal rumspielen. da ich allerdings nicht so die ahnung davon habe, müsste mich da einer bisschen führen. hab mal einen screenshot des cru angehängt.
leider kann man im cru nur entweder die pixelclock ändern oder die refreshrate. beides zusammen geht nicht. also z.b. 30Hz und 469MHz. Mit einer Nvidia und dem evga pixelclock oc tool könnte das allerdings funktionieren. pixelclock mit dem evga tool erhöhen und im nvidia control panel eine auflösung mit niedriger frequenz anlegen. das könnte klappen. leider hab ich keine nvidia karte zur hand.
In dem Screenshot (im "Detailed Resolution" Fenster) ist ja ein sehr kurzes vblank-Intervall gesetzt (nur 6 Zeilen). Wenn Du die Pixelclock fest läßt und dann z.B. mal spaßenshalber 1452 Zeilen für das vertikale Blanking einträgst (mußt mal rumprobieren ob es direkt geht oder man das als Summe aus der Sync width und front/back porch einstellen muß), würde es theoretisch nur noch 60Hz ergeben bei gleicher Pixelclock. Dann kannst Du ja mal sehen, ob das Display das frißt.
Damit würde das Display schlicht grob die Hälfte der Zeit pausieren und zwar genau so, wie GSync und FreeSync ihre variablen Frameraten erzeugen (die ändern auch nur das vblank Intervall, aber jeden Frame und ohne daß das vorher feststeht, wie lange es sein wird).
Screemer
2014-01-10, 01:42:30
scheint leider nicht zu funktionieren. sobald man die zeilen beim vertikalen blanking ändert, kann man nicht mehr speichern. das tool rechnet sich das wohl intern aus.
noch mal gelesen. hab die frequenz auf 30Hz gesenkt und 1452 eingetragen. damit liegt die pixelclock bei 234,60MHz.
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=47634&stc=1&d=1389315261
€dit: obige Einstellung frisst der monitor schon mal. allerdings ist die pixelclock jetzt ja nicht so hoch. fühlt sich aber sehr ruckelig an.
Gipsel
2014-01-10, 02:54:17
scheint leider nicht zu funktionieren. sobald man die zeilen beim vertikalen blanking ändert, kann man nicht mehr speichern. das tool rechnet sich das wohl intern aus.
noch mal gelesen. hab die frequenz auf 30Hz gesenkt und 1452 eingetragen. damit liegt die pixelclock bei 234,60MHz.
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=47634&stc=1&d=1389315261
€dit: obige Einstellung frisst der monitor schon mal. allerdings ist die pixelclock jetzt ja nicht so hoch. fühlt sich aber sehr ruckelig an.
Sind eben nur 30Hz, daß das ruckelt ist normal.
Aber die Message ist, daß das Display solche Einstellungen sehr wohl verträgt. Was für eine variable Refreshrate über DVI/HDMI aber erfüllt sein muß, ist daß die Pixelclock konstant bleibt (weil es sonst gezwungenermaßen eine Neusynchronisation mitsamt Bildstörung gibt). Setze also mal den Radiobutton da unten nicht auf die Refreshrate (120Hz bei 1450Zeilen vblank kann er ja nicht schaffen, da bräuchte er >900MHz Pixelclock) sondern auf die Pixelclock und halte die konstant, so daß sich beim Ändern der vblank-Länge die Refreshrate ändert (ich hoffe mal, das rechnet er dann richtig aus). Und ich würde vielleicht nicht als erstes mit der für 120/144Hz erforderlichen Pixelclock anfangen, sondern vielleicht erstmal etwas konservativer. Langsam rantasten was geht eben.
Aber allgemein können offenbar zumindest ein paar Monitore mit solchen Setting gefahren werden. Das jetzt vermutlich schwierigere bzw. mit Boardmitteln vermutlich unlösbare Problem ist, der GPU beizubringen, die vblank-Intervalle dynamisch zu ändern (da muß man dann hoffen, daß das keine Neusynchronisation des Monitors auslöst, aber wenn die Pixelclock konstant bleibt, sollte das gehen [ist natürlich keine Garantie]).
Loeschzwerg
2014-01-10, 07:06:56
...
Was mir noch an dem Nachrüstkit aufgefallen ist.
Das Modul mit dem FPGA hat doch nen PCI-E Anschluss, so wie er bei den Laptops verbaut (MXM oder so heist das doch?) wird oder nicht?
Glaubt ihr da läuft nur die Stromversorgung drüber, oder sonst noch was? Also außer den DAten fürs Panel. Das sollte nämlich wie mir scheint definitiv über den Anschluss laufen. Mehr gibts da ja auch nicht an Anschlüssen. Die Kabel gehen ja auf das große Board und nicht direkt aufs FPGA-PCB
Der Anschluss ist mit ziemlicher Sicherheit kein PCIe bzw. MXM (kein MXM-I,II,III,HE und MXM 3.0 A, B ist es auch nicht). Sieht mir eher nach einem zweckentfremdeten "DDR3 SODIMM" Steckplatz aus :)
Neben Panelansteuerung sehe ich hier nichts drüberlaufen, zumindest wenn es nach dem DIY Kit geht. Mit den Pins die seitlich am Modul abgehen lässt sich vermutlich der FPGA programmieren.
aufkrawall
2014-01-10, 10:59:51
seit längerem ist kein patch bei nvidia mehr nötig. die maximale pixelclock wurde, wenn ich mich recht erinnere, im mai letzten jahres erhöht. zumindest soweit, dass 120Hz bei der auflösung der koreaner kein problem mehr sind. ich zitiere mal aus dem overlord-forum:
Ah ja, stimmt. Der Patch ist nur noch für SLI nötig. Damit scheint es aber zum Glück kein Rumgespacke bei den Clock States zu geben.
man muss natürlich eine benutzerdefininierte auflösung im nvidia-tool erstellen. allerdings funktioniert das direkt über den treiber und man braucht kein extra tool wie cru mehr. bei amd ist das weiterhin nötig.
Nutze auch bei NV CRU. Ist ganz nützlich, damit Spiele die Auflösungen auch garantiert nutzen.
leider kann man im cru nur entweder die pixelclock ändern oder die refreshrate. beides zusammen geht nicht. also z.b. 30Hz und 469MHz. Mit einer Nvidia und dem evga pixelclock oc tool könnte das allerdings funktionieren. pixelclock mit dem evga tool erhöhen und im nvidia control panel eine auflösung mit niedriger frequenz anlegen. das könnte klappen. leider hab ich keine nvidia karte zur hand.
Dann ändert sich der Pixeltakt auch automatisch.
DrFreaK666
2014-01-13, 11:45:42
Sollte NV Freesync nicht unterstützen, dann wird es eben wieder eine Radeon. Aber noch gibt es ja nichts offizielles, noch Termine wann es denn soweit ist.
Mancko
2014-01-13, 12:16:51
Sollte NV Freesync nicht unterstützen, dann wird es eben wieder eine Radeon. Aber noch gibt es ja nichts offizielles, noch Termine wann es denn soweit ist.
Wieso sollten Sie Feesynch unterstützen? Wenn mit DP1.3 die Voraussetzungen gegeben sind und die Displayhersteller eine angepasste Steuerungselektronik irgendwann in ihren Monitoren bereitstellen, dann kann Nvidia den gleichen Standard jederzeit nutzen und via Treiber der GPU das beibringen. Das wird dann aber nicht Freesynch heißen :)
Mancko
2014-01-13, 12:19:53
Ich hoffe nur das Nvidia das hier nicht weiterhin so durchzieht und die Standardbemühung ignoriert das würde auch im Gegenteil zu dem stehen was sie ja angeblich wollten.
Das ist einfach Moralisch falsch zu wissen es ist ein Standard in Vorbereitung (vielleicht sogar selbst noch im Konsortium sitzen) und mit dem Messer hinter den anderen zu stehen und es ihnen reinzuramen.
Woher willst Du wissen, dass Nvidia den Modulansatz nicht zukünftig für weitere Features nutzen will? Es muss ja nicht bei dem jetztigen Feature bleiben. Nvidia möchte sich ein eigenes Ökosystem aufbauen und auch in andere Bereiche ihre Geschäfte ausweiten. Das ist legitim.
Karma_Zhong
2014-01-13, 15:42:02
Woher willst Du wissen, dass Nvidia den Modulansatz nicht zukünftig für weitere Features nutzen will? Es muss ja nicht bei dem jetztigen Feature bleiben. Nvidia möchte sich ein eigenes Ökosystem aufbauen und auch in andere Bereiche ihre Geschäfte ausweiten. Das ist legitim.
Weil G-Sync nicht rausgebracht wurde um der Welt den heiligen Gral der Synchronisation zu schenken, sondern um fehlende Alleinstellungsmerkmale auszugleichen. Es ist ein reines Marketing-Instrument, unabhängig von seiner Nützlichkeit.
Sich ein Öko-system aufzubauen ist natürlich legitim, aber dies erfordert die Mitarbeit der Hersteller und die sieht zur Zeit so aus:
Asus hat das Recht 2014 entsprechende Modelle ein halbes Jahr allein zu vermarkten. Der Markt wird jetzt teilgesättigt.
Die anderen Monitoranbieter werfen ab Juni ihre Modelle dazu, nur um festzustellen, dass der Enthusiasten-Markt nicht groß genug ist um alle satt werden zu lassen. Die niedrigen Verkaufszahlen werden zur Einstellung der Serien führen.
Die Hersteller werden sich nach einer einfacheren und vor allem billigeren Lösung umschauen.
Unter den Käufern werden sich 2 Lager rauskristallisieren:
A) findet alles toll und ist absolut begeistert , 400.- für den Monitor und 100,- für das Modul waren die beste Investition (seit letztem Jahr)
B) weiß nicht ob sie fluchen oder heulen sollen, denn bei hohen Frameraten ist der Unterschied so klein das man sich das Geld hätte sparen können, während niedrige FPS zwar besser wirken würden, aber generell verpönt und ein absolutes NoGo sind, denn die Spiele laufen dann "träge" weil die Game-Engine am Bildaufbau gekoppelt ist.
G-Sync ist an Kepler-basierte Karten und nachfolgende Modelle gekoppelt.
Wer noch mit 4xx oder 5xx unterwegs ist, soll halt aufrüsten.
Eine Dominanz von Kepler-basierenden Grafiklösungen im gesamten Markt ist nicht erkennbar, damit ist die Chance eine Lösung wie G-Sync mit Gewalt in den Markt zu pressen gleich Null.
Nachfolgemodelle von Nv liegen noch im Dunkel. Auf der CES wurde jedenfalls keine neuen Wunder angekündigt.
Die Gesamtzeit bis zur Marktdurchdringung ist zu lang und die Stückzahlen nicht erfolgversprechend.
Dieser Umstand war auch den Managern bei Nvidia klar. G-Sync hatte keine 5 Jahre Entwicklungszeit und die Herstellungskosten sind niedrig. Man kann es sich erlauben das Projekt eine Weile mitlaufen zu lassen, sofern der Absatz der aktuellen Karten und ihrer Nachfolger gesteigert wird. Man kann sich aber nicht erlauben den Absatz bei der Konkurrenz zu steigern.
Die "Feature-Liste" der Addons ist arg begrenzt, da immer modellabhängig. Ein zusätzlicher Nutzen müsste bereits jetzt beworben werden, um in einem Jahr noch eine Rolle spielen zu können. Davon ist nichts zu sehen.
Und nun die Quintessenz: Wer es hat wird es benutzen. Wer es sich verkniffen hat, wird nix vermissen. Die Revolution bleibt jedenfalls aus.
Es gibt einen handfesten wirtschaftlichen Grund warum die Monitorhersteller hier nicht ihre Gelder versenken wollen.
schreiber
2014-01-13, 21:24:09
http://www.youtube.com/watch?v=FMKpJr0KTC8&feature=youtube_gdata
Ehh... der tauscht die komplette Monitor-Elektronik aus?!
MartinB
2014-01-13, 21:30:17
Und zwar komplett, inklusive dem Power-Board X-D
Gipsel
2014-01-13, 22:56:27
Und zwar komplett, inklusive dem Power-Board X-DJa na klar. Das interne Monitornetzteil kommt raus und man benutzt danach ein externes. Der FPGA wird vermutlich etwas mehr Strom verbrauchen als die Originalelektronik, so daß der eventuell mit internem Netzteil zu warm geworden wäre. Platztechnisch hätte man es wohl reinquetschen können.
Edit:
Und den einen oder anderen Connector haben Sie im Video übrigens kaputt gemacht :freak:.
MartinB
2014-01-13, 23:09:58
Nvidia ging schon sehr großzügig um mit dem Platz auf dem Board
http://3dvision-blog.com/wp-content/uploads/2013/12/nvidia-g-sync-diy-upgrade-board-for-asus-vg248qe.jpg
Brillus
2014-01-14, 01:57:47
Ja na klar. Das interne Monitornetzteil kommt raus und man benutzt danach ein externes. Der FPGA wird vermutlich etwas mehr Strom verbrauchen als die Originalelektronik, so daß der eventuell mit internem Netzteil zu warm geworden wäre. Platztechnisch hätte man es wohl reinquetschen können.
Edit:
Und den einen oder anderen Connector haben Sie im Video übrigens kaputt gemacht :freak:.
Und von 2 HDMI und 1 DVI eingang ist auch nur noch einer übrig geblieben.
N0Thing
2014-01-14, 03:07:13
Edit:
Und den einen oder anderen Connector haben Sie im Video übrigens kaputt gemacht :freak:.
Welchen? Ist mir beim anschauen gar nicht aufgefallen.
Und von 2 HDMI und 1 DVI eingang ist auch nur noch einer übrig geblieben.
Der Display-Port bleibt übrig, weil G-Sync eh nur mit diesem Anschluß funktioniert. Vielleicht sparen sie sich so noch ein paar Lizenzkosten.
Screemer
2014-01-14, 03:46:35
zumindest die buchse für das flex-kable das er ganz am schluss ansteckt ist gebrochen: http://www.youtube.com/watch?feature=player_detailpage&v=FMKpJr0KTC8#t=795
Nightspider
2014-01-14, 03:59:43
Gebrochen sind bei dem Umbau 3 Kabelbuchsen.
Dürfte aber auch nicht stören. Garantie ist ja eh futsch.
N0Thing
2014-01-14, 04:22:10
zumindest die buchse für das flex-kable das er ganz am schluss ansteckt ist gebrochen: http://www.youtube.com/watch?feature=player_detailpage&v=FMKpJr0KTC8#t=795
Ja, da ist definitiv ein Stück Plastik vom Anschluß abgebrochen. Wäre schon schön gewesen, wenn sie das kommentiert hätten, wie das passiert ist.
Gebrochen sind bei dem Umbau 3 Kabelbuchsen.
Dürfte aber auch nicht stören. Garantie ist ja eh futsch.
Okay. Bei einer hab ich das nun auch mitbekommen. Wo finde ich die zwei anderen? :)
Gipsel
2014-01-14, 14:38:09
Gebrochen sind bei dem Umbau 3 Kabelbuchsen.
Dürfte aber auch nicht stören. Garantie ist ja eh futsch.
Ja, drei habe ich auch gesehen. Könnte nur stören, wenn die Stecker nicht mehr richtig einrasten und dann nach 2 Monaten der Kontakt flöten geht und man den Monitor noch mal aufmachen muß. Oder wenn man doch wieder die Originalelektronik einbauen will.
Ja, da ist definitiv ein Stück Plastik vom Anschluß abgebrochen. Wäre schon schön gewesen, wenn sie das kommentiert hätten, wie das passiert ist.Na die haben das zu brutal rausgezogen, was soll man da kommentieren? "Bitte paßt etwas mehr auf, wenn Ihr das macht! Dies ist zwar ein Demo-Video, um zu zeigen, wie es gehen soll, aber wenn wir ehrlich sind, haben wir es eigentlich nicht richtig hinbekommen." :rolleyes:
Okay. Bei einer hab ich das nun auch mitbekommen. Wo finde ich die zwei anderen? :)
Ist an der Originalelektronik (und man sieht auch, daß die das vorher schonmal auseinander genommen haben und das mindestens der zweite Take ist):
http://www.youtube.com/watch?feature=player_detailpage&v=FMKpJr0KTC8#t=495
Könnten aber im Prinzip noch mehr sein (oder es könnten auch ein oder zwei der Plastiklaschen abgebrochen sein, die das Gehäuse zusammenhalten), man sieht ja nicht alle Stecker in Nahaufnahme. Vielleicht hätten die sich 10 Monitore von Asus geben lassen und das mehrmals machen sollen ;).
N0Thing
2014-01-14, 14:53:02
Ah, ok. Ich dachte dich Schäden wären am G-Sync-Modul entstanden.
Das Video zeigt meiner Meinung nach sehr gut, wie dringend Nvidia schnell auf den Markt kommen wollte. Das ist wirklich eine sprichwörtliche Bastellösung. Das PCPer-DIY-Review hat sich noch ganz fluffig angehört, gute Anleitung hier, ein paar Schrauben und Klebefolien dort.
Vielleicht hätten die sich 10 Monitore von Asus geben lassen und das mehrmals machen sollen ;).
Vielleicht war das schon der Zehnte. :D
robbitop
2014-01-14, 15:03:43
Nach G-Sync kräht nächstes Jahr kein Hahn mehr, wenn dann jeder Monitor mit DP1.3 Freesync zu 0 Mehrkosten unterstützt und es ein offener Standard ist (den NV dann zähneknirschend auch implementieren wird).
ShadowXX
2014-01-14, 15:37:31
Nach G-Sync kräht nächstes Jahr kein Hahn mehr, wenn dann jeder Monitor mit DP1.3 Freesync zu 0 Mehrkosten unterstützt und es ein offener Standard ist (den NV dann zähneknirschend auch implementieren wird).
Träum weiter. Das V-Sync Blank Signal ist rein optional bei DP1.3. Du meinst doch nicht wirklich das die das jedem Monitor spendieren, wenn Sie extra Geld für spezielle Modelle die das beinhalten verdienen können....:wink:
PatkIllA
2014-01-14, 15:40:09
Träum weiter. Das V-Sync Blank Signal ist rein optional bei DP1.3. Du meinst doch nicht wirklich das die das jedem Monitor spendieren, wenn Sie extra Geld für spezielle Modelle die das beinhalten verdienen können....:wink:Irgendwann ist das im ersten BilligASIC drin und dann geht das.
Im Moment ist es doch eh so, dass die meisten Displays überhaupt kein DisplayPort haben und die, die es haben dann oft gerade mal in einer alten Version.
Gipsel
2014-01-14, 16:11:56
Nach G-Sync kräht nächstes Jahr kein Hahn mehr, wenn dann jeder Monitor mit DP1.3 Freesync zu 0 Mehrkosten unterstützt und es ein offener Standard ist (den NV dann zähneknirschend auch implementieren wird).Man braucht kein DP1.3 dafür. NVidia nutzt auch nur ein variables vblank-Intervall und das läuft ja offensichtlich auch mit alten DP-Norm ;).
Variable vblanks sind in der DP-Spezifikation als möglich erwähnt, aber kein spezifiziertes Verhalten dafür festgelegt (es ist also unklar, was der Monitor damit anfängt, anders als bei eDP). Wenn der Monitor mit einem Flag in den EDID-Daten signalisieren würde, daß er damit klarkommt, spricht nichts dagegen, das mit beliebig alten DP-Versionen zu implementieren (oder bei geeigneten Scalern per Firmware-Update freizuschalten).
Nichts Anderes macht nV im Prinzip. Wenn die da nicht künstlich einen Vendor-Lock eingebaut hätten (sehr wahrscheinlich irgendein verschlüsseltes magic packet, was die GPU in Abhängigkeit der Seriennumer des Monitors senden muß, um das freizuschalten oder irgend so etwas, da wäre mal eine entsprechende Analyse des DP-Datenverkehrs interessant), würden GSync-Monitore sehr wahrscheinlich auch problemlos mit "FreeSync"-Grafikkarten zusammenarbeiten.
fondness
2014-01-15, 22:18:49
Ist heute der 1. April?
http://www.computerbase.de/news/2014-01/g-sync-upgrade-fuer-mutige-bastler-kostet-199-dollar/
schreiber
2014-01-15, 22:28:44
Okay, damit ist die Technik gestorben. Auf zum freien Standard.
Skysnake
2014-01-15, 22:30:57
total verantwortungslos, was nVidia da macht :down:
Ich kann gar nicht so viel fressen, wie ich kotzen möchte bei dem Mist, den nVidia da macht.... :angry:
Wenns um die Gesundheit und Leben von Leuten geht, hört der "Spaß" auf.... Total verantwortungslos! Gerade Jugendliche spricht man ja mit sowas an...
Sunrise
2014-01-15, 22:37:51
Es wird schon seinen Grund haben, warum diese schnell zusammengeklatschte Bastellösung derzeit nicht nach Deutschland verkauft wird. Sagte ja schon, hauptsache erster am Markt.
Wäre trotzdem nett, wenn sich mal jemand, der in den USA lebt, das Ding genauer anschaut.
Der Monitor selbst ist dabei eher uninteressant. Aber ein paar Infos aus der Praxis wären nett.
Hugo78
2014-01-15, 22:58:13
Erst schreien alle nach einer Nachrüstoption und ist die verfügbar, sieht man ein das man zu blöd dafür ist und jammert rum, typisch. ;D :popcorn:
Sunrise
2014-01-15, 23:14:58
Erst schreien alle nach einer Nachrüstoption und ist die verfügbar, sieht man ein das man zu blöd dafür ist und jammert rum, typisch. ;D :popcorn:
Ich kenne nicht einen der sich das gewünscht hat, vor allem nicht bei nur dem einen Display, was aktuell zur Wahl steht. Aber du darfst uns gerne die Leute hier (mit den entsprechenden Beiträgen) raussuchen, die das genau so wollten. :rolleyes:
Ansonsten, lass dir dein Popcorn schmecken! :D
Hugo78
2014-01-15, 23:21:40
Oh doch, am anfang war es der große Pferdefuß bei G-Sync, dass nicht jeder Monitor nachrüstbar sei,
sondern nur der eine 24" von Asus. Und jetzt kommt man nicht klar damit, den 30W Monitor vorher 2 minuten zuentladen,
als obs ein Uralt-Röhrengerät mit > 100W wäre, wo man ach so böse Stromschläge bekommen könnte. Göttliche Heuchelei. :D
Skysnake
2014-01-15, 23:25:42
ach und da hat auch nur irgendjemand in Erwägung gezogen, das man dafür an nem 230V netzteil rumhantieren muss...
total verantwortungslos, was nVidia da macht :down:
Ich kann gar nicht so viel fressen, wie ich kotzen möchte bei dem Mist, den nVidia da macht.... :angry:
Wenns um die Gesundheit und Leben von Leuten geht, hört der "Spaß" auf.... Total verantwortungslos! Gerade Jugendliche spricht man ja mit sowas an...
Ach bitte, ich finde die Warnung reichlich übertrieben. Oder hier noch nie jemand mal einen PC gebaut? Mal eine Platine gewechselt? :rolleyes: Ich versteh das Drama in dem Text nicht.
Ich hab früher sogar mehrere Röhrenmonitor aufgemacht und repariert, obwohl ich jetzt nicht gerade der Kenner bin. Schaltplan angeschaut, Teile aus- und reingelötet, das wars. Wo ist dann das Problem bei einem lummeligen Platinenwechsel?
Update: Ah, sehe gerade, es sehen ein paar hier es genauso wie ich.
Hugo78
2014-01-15, 23:38:47
@Skysnake
Nö, aber das es eine reine Bastellösung für Praktiker sein wird, die schon mal ne Platine in der Hand hatten, ja soweit war das klar.
Denn Tom Petersen hat das einen Tag nach der ersten G-Sync Vorstellung so dargestellt, dass man G-sync zu 99% mit einem Neu-Gerät erwirbt, und Bastellösungen die Ausnahme sind.
-/\-CruNcher-/\-
2014-01-15, 23:44:43
Erst schreien alle nach einer Nachrüstoption und ist die verfügbar, sieht man ein das man zu blöd dafür ist und jammert rum, typisch. ;D :popcorn:
Trotzdem ist das arschgefährlich mit dem Internen Netzteil muss man höllisch aufpassen das ding hat noch tagelang ladung inne.
Sunrise
2014-01-15, 23:46:18
Oh doch, am anfang war es der große Pferdefuß bei G-Sync, dass nicht jeder Monitor nachrüstbar sei,
sondern nur der eine 24" von Asus. Und jetzt kommt man nicht klar damit, den 30W Monitor vorher 2 minuten zuentladen,
als obs ein Uralt-Röhrengerät mit > 100W wäre, wo man ach so böse Stromschläge bekommen könnte. Göttliche Heuchelei. :D
Naja, es gibt eben immer was zu meckern, aber mal fernab von Skysnake, an dem sich ja jetzt alle aufhängen, habe ich jedenfalls nicht den Eindruck, dass sich "alle" das so gewünscht hatten. Eher das Gegenteil, denn das war ja auch der Aufhänger an G-Sync und das war eigentlich schon seit Seite 1 im ursprünglichen Thread klar. Bin ja bei der Diskussion auch schon seit Anfang an dabei.
Wenn überhaupt, wäre es nett, wenn man seine Garantie behält und G-Sync dabei ist. Die Bastellösung fällt deshalb (für mich) raus, weil der Monitor für mich schonmal nicht meinen Ansprüchen standhält, und der Monitor ist eben Prio 1, G-Sync ist ein zusätzliches Feature, das ich gerne mitnehme.
Skysnake
2014-01-16, 00:28:47
Ach bitte, ich finde die Warnung reichlich übertrieben. Oder hier noch nie jemand mal einen PC gebaut? Mal eine Platine gewechselt? :rolleyes: Ich versteh das Drama in dem Text nicht.
Ich hab früher sogar mehrere Röhrenmonitor aufgemacht und repariert, obwohl ich jetzt nicht gerade der Kenner bin. Schaltplan angeschaut, Teile aus- und reingelötet, das wars. Wo ist dann das Problem bei einem lummeligen Platinenwechsel?
Update: Ah, sehe gerade, es sehen ein paar hier es genauso wie ich.
echt?
Gut, dann schick mir mal deine Adresse, ich komm mit dem baugleichen Primärkondensator mal bei dir vorbei und verpass dir ne volle Ladung. Ist ja deiner Meinung nach nichts dabei....
Klar, wenn man weiß was man macht, nen Schaltplan hat und das Gerät kennt, dann ist alles machbar und sogar sicher, aber was haste hier davon???
Und wieviele sind sich überhaupt de Gefahr bewusst???
Wenn das Ding nen externes 230V Netzteil hätte und intern nur noch 12V würde ich nichts sagen, aber an nem 230V netzteil spjelt man nicht so einfach rum UND VOR ALLEM! Warnt man die Leutevor den Gefahren, alles andere ist fahrlässig... Schau mal bei CB usw vorbei, da rennen genug rum, die den Monitor ausstecken wurden und dann genau wie der Depp im Video auf den Lötkontakten rumpatschen würdennn und das OHNE die Kondensatoren vorher zu entladen....
Ich schließ selbst auch den Herd an 400V an. Ich mess aber auch alles durch und weiß was ich mache und kontrollier alles zich mal. Trtzdem hab ich mir bei Reperaturen schon zwei mal an 230V eine gewischt, obwohl ich wusste, dass das Ding am Netz hängt... Im Nachhinein fassmich mir an Kopf wie das passieren konnte, aber da reicht halt mal eine Sekunde unaufmerksamkeit... Und deswegen scheis ich inzwischen drauf, das ich weiß was ich mache... Safety first. Sonst endets irgend wann mal doof...
Und genau deswegen versteh ich da auch keinen Spaß. Die meisten Leute wissen halt nicht, wie gefährlich das in dem Video gemachte sein kann.
echt?
Gut, dann schick mir mal deine Adresse, ich komm mit dem baugleichen Primärkondensator mal bei dir vorbei und verpass dir ne volle Ladung. Ist ja deiner Meinung nach nichts dabei....
Was soll denn der Mist? :rolleyes: Wer zu blöd dafür ist, soll es sein lassen, ganz einfach. :facepalm: Unsachgemäßes Wechseln von Autobatterien ist auch gefährlich, trotzdem tun das viele, oder? :rolleyes:
Wo liegt Dein Problem, vorsichtig zu sein?
eTrtzdem hab ich mir bei Reperaturen schon zwei mal an 230V eine gewischt, obwohl ich wusste, dass das Ding am Netz hängt... Im Nachhinein fassmich mir an Kopf wie das passieren konnte, aber da reicht halt mal eine Sekunde unaufmerksamkeit... Und deswegen scheis ich inzwischen drauf, das ich weiß was ich mache... Safety first. Sonst endets irgend wann mal doof..
Ok, erklärt alles. X-D Aber im Prinzip hast Du schon recht, es sollte kein DAU oder unvorsichtiger Mensch machen. Gut, ich habe wohl vergessen, daß ich eine elektrotechnische (Grund-)Ausbildung habe, und weiß, daß man diverse Geräte erst mal liegen lassen muß, oder die Kondensatoren entladen etc.
Skysnake
2014-01-16, 00:49:32
Du das weiß ich auch! Aber von der Frau angequatscht und genervt ihr geantwortet und PAFF wars passiert... Genau so passieren ja oft Sachen :(
Weist ich dacht mir noch: "Meine fresse lass mich in ruhe, da sind gerade 230V drauf... Das ist gefährlich, ich muss mich jetzt konzentrieren u d aufpassen, das ich mir keine fang... PENG!" -_-
Und jetzt überleg mal, wieviele GERADE Jugemdliche NICHT wissen wie gefährlich das sein IST wenn man keinen Plan hat...
Weist, wenn du oder ich uns eine fangen, dann sind wir selber schuld, seil wir es eigentlich wissen müssten. Aber wie viele kennen den Unterschied zwischen nem Netzteil mit 230V und nem MB/GPU mit 12/5/1,x nicht?
Das ist halt als würde ich nen Promovideo machen, wie toll Kleber/Deo schnüffeln ist.. Total bekloppt. Sorry, aber da hab ich einfach absolut keine Tolleranz für. So was ist wie gesagt verantwortungslos...
=Floi=
2014-01-16, 01:02:05
total verantwortungslos, was nVidia da macht :down:
Ich kann gar nicht so viel fressen, wie ich kotzen möchte bei dem Mist, den nVidia da macht.... :angry:
Wenns um die Gesundheit und Leben von Leuten geht, hört der "Spaß" auf.... Total verantwortungslos! Gerade Jugendliche spricht man ja mit sowas an...
es ist viel verantwortungsloser, wenn jedes wochende 1000 mal mehr jugendliche angetrunken mit dem auto nach hause fahren und nicht nur ihr leben, sondern auch das anderer gefährden.
sei endlich still, wir wollen deine geheule hier nicht hören. wir wissen dass es eine bastellösung ist und sie dir nicht gefällt.
edit
für deine eigene dummheit können wir nichts. wer den strom drauf lässt muss sich der gefahr bewusst sein.
Skysnake
2014-01-16, 01:20:21
Und wenn der Wirt davon wusste, dass die noch mit dem Auto fahren wollen, aber hacke dicht sind, macht er sich eventuell Schadenersathpflichttig und kann sogar seine Konzession verlieren...
Stichwort ist hier die Garantenpflicht, und ob der nVidia hier unterliegt, wäre durchaus interessant. Immerhin haben Sie ja ein Interesse daran, ihr Zeug zu verkaufen, und genau das wollen Sie ja durch die "Anleitung" fördern....
Und ich werde sicherlich nicht den Mund halten, wenn man Leute sehenden Auges in Gefahr begibt! Damit würde man sich moralisch mitschuldig machen, wenn jemanden etwas passiert, was durch eine simple Warnung vermeidbar gewesen wäre.
Gipsel
2014-01-16, 01:30:35
Ich bitte doch alle darum, diese Diskussion in einem angemessenen Rahmen zu halten und keine elektrotechnische Sicherheitsdiskussion einer speziellen Bastellösung draus zu machen.
Konzentrieren wir uns hier besser auf die allgemeineren Aspekte.
=============================
Eine persönliche Anmerkung von mir noch. Das Kit wird ja offenbar hierzulande nicht verkauft, kommt sehr wahrscheinlich nur in einer sehr geringen Auflage für absolute Enthusiasten auf den Markt, und mit ein wenig Verstand ist der Umbau auch nicht wirklich gefährlich. Man kann also die Kirche auch im Dorf lassen.
Eine persönliche Anmerkung von mir noch. Das Kit wird ja offenbar hierzulande nicht verkauft, kommt sehr wahrscheinlich nur in einer sehr geringen Auflage für absolute Enthusiasten auf den Markt, und mit ein wenig Verstand ist der Umbau auch nicht wirklich gefährlich. Man kann also die Kirche auch im Dorf lassen.
Klar, wenn man als Enthusiast den Kenner der Materie annimmt. Ich bin allerdings in diesem Fall Skysnakes Meinung. Vorallem wenn man als Enthusiast nicht nur jene annimmt, sondern auch mal das Spielkind dem Papi alles kauft nach was es schreit.
Dadurch, dass man die Anleitung als Youtube-Video anbietet, senkt man die Einstiegshürde noch weiter und macht es dem Laien noch zugänglicher. Ich an nVidias Stelle würde das ganze nur verkaufen mit dem Verweis, das ganze dann zum Fachhändler zu bringen und dort umbauen zu lassen. Vorallem wenn man weiß wofür bei den Amis alles Millionen an Schmerzensgelder gezahlt werden, was dann anschließend in der Bedienungsanleitung ausgeschlossen werden muss ("Die Kettensäge ist nicht in Verbindung mit den Genitalien zu verwenden" xD)
Wenn ich dann noch in die Bekanntschaft schaue, wo es einen Todesfall eines gelernten Elektrikers in Folge eines mehrere Tage zurückliegenden 230V-Schlages gab (Herzrythmusstörung), macht es die Sache natürlich auch nicht besser (ich hab mich selbst schon freiwillig zum 24h-EKG begeben, weil ich mir aus Unachtsamkeit einen verpasst habe, der direkt übers Herz ging).
Die Moderation möge verzeihen, dass ich das trotz roten Posts noch verfasst habe, aber Gipsel war ja selbst nicht besser :P Notfalls kann man das ja splitten. Ich finde jedenfalls, dass man das nicht zu sehr herunterspielen sollte.
StefanV
2014-01-16, 06:30:29
Nur zur Info, weil hier so oft von '230V Netzteil' gesprochen wird:
Ja, es hat 230VAC EIngangsspannung.
Nein, es arbeitet NICHT mit 230VAC, sofern es 'ne aktiv PFC Schaltung hat!
Dann arbeitet es in der Regel zwischen so 360-450V, normal sind 400V +/-20V...
Das müsst aber eine pulsierende Gleichspannung sein...
ezzemm
2014-01-16, 07:14:22
Sorry daß ich hier nochmehr OT werde aber wenn da grade Leute mit Ahnung anwesend sind...
Wenn ich den Netzstecker z.B. am PC ziehe, dann den PC anschalte so daß er kurz an und natürlich gleich wieder aus geht, kann ich dann davon ausgehen daß alle Kondensatoren entladen sind, oder funktioniert das so nicht?
Botcruscher
2014-01-16, 10:25:10
Da hast du bei einfachen Geräten das gröbste weg. Je nach Aufbau der Schaltung müssen die Caps aber nicht entladen sein. Wer kein Multimeter zu nachmessen nutzen kann sollte die Finger davon lassen. Ansonsten sehe ich kein Problem. Beim PC arbeitest du ja auch nicht im Netzteil. Da kommen ja nur 12v raus.
Iruwen
2014-01-16, 10:25:27
Wenn du den Netzstecker ziehst geht dein PC an? :D Nein, kannst du nicht von ausgehen. Ein Blick aufs Bauteil hilft aber um zu entscheiden obs im Zweifelsfall wehtun könnte.
Käsetoast
2014-01-16, 11:10:44
Ich kann Skysnakes Einwände da voll unterstützen. Der Vergleich im Sinne des Einbaus einer Grafikkarte & Co ist da eher unangebracht - wir reden hier eher vom Tausch eines Netzteillüfters. Auch das wird immer mal wieder gemacht und auch dafür gibt's zig Anleitungen im Netz - in der Regel aber immer mit dick und fetter Warnung samt Hinweisen zum Entladen und so weiter. Wenn das in der NVIDIA Anleitung und den Diskussionen zu dem Thema unter den Tisch fallen gelassen wird ist das schon ein ernstzunehmendes Problem, weil schlichtweg (lebens-)gefährlich...
N0Thing
2014-01-16, 12:39:24
Gibt es die Anleitung von Nvidia vielleicht auch als extra PDF? Oder gute Photos aus Reviews, wo man auch wirklich alles erkennen kann? Dann wüßte man wenigstens schon mal, wie deutlich dort auf Gefahren hingewiesen wird.
Spasstiger
2014-01-16, 14:39:23
Haha, das GSync-Board muss ich mir mal als günstige FPGA-Bezugsquelle merken. :freak:
Man spart immerhin 400€.
Vergiss nicht, die Kosten für das Reballing :)
Godmode
2014-01-16, 21:48:31
@Stromschlag: Ist das wirklich lebensgefährlich? Ich bin in meinem Leben schon mindestens 10 mal in die 220V Wechselstrom Leitung gekommen und mehr als ein unangenehmer Schlag war das nie. Gehts bei den Netzteilen jetzt um die hohen Ströme oder warum ist das eurer Meinung nach Lebensgefährlich?
@Umbaukit: G-Sync finde ich ja eine gute Sache, aber besser wäre es gewesen, wenn sie noch etwas gewartet hätten und fertige Produkte vorgestellt hätten. Ich glaube nicht, dass sich dieses Kit so viele Leute kaufen werden, weil die Nachteile einfach zu groß sind. (Kosten, Garantieverlust, Aufwand).
Skysnake
2014-01-16, 23:44:35
Na dann haste aber bisher Glück gehabt. Stromunfall gerade bei 220V Wechselstrom bedeutet normal ab ins Krankenhaus und EKG schreiben lassen. Die lassen dich normal auch nicht mehr so schnell gehen. Und das aus gutem Grund
Knuddelbearli
2014-01-16, 23:52:05
220V sind schon lebensgefährlich, auch weniger schon.
Kommt aber halt auch stark drauf an wie man reinkommt. Ob Erde Phase, zwischen Arm und Fuss oder Arm und Arm usw.
Loeschzwerg
2014-01-17, 08:12:46
@Stromschlag: Ist das wirklich lebensgefährlich? Ich bin in meinem Leben schon mindestens 10 mal in die 220V Wechselstrom Leitung gekommen und mehr als ein unangenehmer Schlag war das nie. Gehts bei den Netzteilen jetzt um die hohen Ströme oder warum ist das eurer Meinung nach Lebensgefährlich?
Wechselstrom kann wegen den 50hz deinen Herzrhythmus durcheinander bringen und es kann zu Herzkammerflimmern kommen. Daher auch die längere Nachuntersuchung durch EKG, wie Skysnake schon erwähnte. Entscheidender Faktor ist halt immer die Zeit und Stromstärke.
Den Umbau erachte ich als relativ unkritisch wenn man sich halbwegs mit der Materie auskennt. Einfach nicht gleich nach vorheriger Benutzung den Monitor zerlegen, da können die Elkos noch entsprechend Ladung haben.
Es gibt genügend Leute die Netzteile sleeven usw., diese Fraktion kommt auch mit dem G-Sync Umbau zurecht.
gnahr
2014-01-17, 08:29:26
jetzt hängt euch nicht an der voltzahl auf...
halbmoderne sicherungsgeräten sei dank (nicht nur fi) sind die zahl der tödlichen unfälle mittlerweile sehr überschaubar.
(und wer nervenkitzel braucht: bandgenerator aus dem physikunterricht der sekI anwerfen und mal 20kV durch den finger zucken lassen. machen n schüler jedes jahr voller freude.)
Loeschzwerg
2014-01-17, 08:42:30
EMV-Testcenter Fujitsu Augsburg feuerst mit bis zu 25kV auf Displays (und andere HW) :D Aber enough OT.
Spasstiger
2014-01-17, 10:57:13
Vergiss nicht, die Kosten für das Reballing :)
Braucht man nicht unbedingt, alternativ kann man auch eine Kontaktfolie* nehmen. Aber ein Board braucht man und das zu entwerfen, kostet Zeit. Fertigen lassen wären rund 50€.
* http://www.rupptronik.de/news_eintrag.php?news_id=20
Iruwen
2014-01-17, 11:00:18
Na dann haste aber bisher Glück gehabt. Stromunfall gerade bei 220V Wechselstrom bedeutet normal ab ins Krankenhaus und EKG schreiben lassen. Die lassen dich normal auch nicht mehr so schnell gehen. Und das aus gutem Grund
Quatsch. Kurz doof geguckt und weiterarbeiten :D
Skysnake
2014-01-17, 18:54:54
Braucht man nicht unbedingt, alternativ kann man auch eine Kontaktfolie* nehmen. Aber ein Board braucht man und das zu entwerfen, kostet Zeit. Fertigen lassen wären rund 50€.
* http://www.rupptronik.de/news_eintrag.php?news_id=20
Ui cooles Zeug :eek:
Aber warum sollte man überhaupt den FPGA runter nehmen wollen? Die Leiterplatte hat doch nen genormten Anschluss. Wo ist also das Problem :confused:
Spasstiger
2014-01-18, 11:53:32
Ui cooles Zeug :eek:
Ist sogar HF-tauglich für 10 GHz und mehr. Am Institut (Uni) haben wir es schon erprobt.
Aber warum sollte man überhaupt den FPGA runter nehmen wollen? Die Leiterplatte hat doch nen genormten Anschluss. Wo ist also das Problem :confused:
Eine JTAG-Schnittstelle gibts wahrscheinlich, aber wenn man die integrierten 6-Gbps-Transceiver nutzen möchte, z.B. für PCIe 2.0, dann hilft einem die GSync-Platine nicht weiter. Für andere Einsatzzwecke könnte sie aber direkt
in Frage kommen. Mir schwebt z.B. schon lange ein Mikroruckler-Messsystem vor ähnlich wie Nvidias FCAT.
Für einen FPGA der Mittelklasse sind die 200€ auf jeden Fall ein Schnäppchen.
Skysnake
2014-01-18, 12:27:03
Habt ihr nen Paper dazu geschrieben?
Wäre wirklich ganz interessant für die Verifikation usw. 10GHz sind ja kein Pappenstiel.
Ich hätte da vor allem schon nen paar coole Ideen, was man mit so nem Ding machen könnte :naughty:
Was kostet denn so nen Ding in 10x20mm bzw 20x40mm?
Und wie oft kann man denn da wirklich Verbindungen erstellen und wieder lösen?
Loeschzwerg
2014-01-18, 17:46:44
Jup, quanta costa? Würde mir ordentlich Lötarbeit ersparen :cool:
Skysnake
2014-01-18, 23:31:02
Na, sowas hat halt schon was als Alternative zu ner normalen Steckverbindung.
Muss man das Ding richtig stark festschrauben, oder reicht da nen leichter Druck von nem Klemmbügel?
Spasstiger
2014-01-19, 11:47:35
Bei uns wurde es als HF-Steckverbindung für 28-Gbps-Schnittstellen untersucht. Genauere Infos kann ich aber erst am Montag geben. Und ja, es gibt eine Thesis dazu.
boxleitnerb
2014-01-31, 06:31:53
Freesync ist ja momentan noch Vaporvare, das wird noch dauern, bis da was kommt wenn überhaupt. Es kommt halt immer drauf an, was man mit aufnehmen und was man ausblenden möchte je nach Gusto. So kann man mal den einen oder den anderen vorne sehen.
(del676)
2014-01-31, 08:33:06
Ja und?
Wenn du G-Sync als "Feature" von nvidia Karten siehst, tust du mir herzlich leid. Das ist kein "Feature", das ist einfach nur ein weiteres stinknormales Produkt welches zu extra und teuer kaufen musst. :rolleyes:
1. mit teureren Grafikkarten
2. mit verdammt teuren Monitoren, die billigste Paneltypen drin haben :lol:
y33H@
2014-01-31, 11:12:00
Oh ja, eine GTX 650 Ti Boost für 140 Euro ist sooo dermaßen teuer. Man kann es auch übertreiben ... und mei, neue Technik kostet idR am Anfang Geld.
robbitop
2014-01-31, 11:55:58
Naja Freesync ist schon der (kommerziell) bessere Ansatz. Man muss keine andere Panelsteuerung verbauen, da das Feature ab DP1.3 eh in allen Monitoren integriert ist. Und theoretisch kann man es mit allen dann verfügbaren Grafikkarten kombinieren (wenn NV sich nicht gegen diesen Standard sträubt). Das eine ist ein offener Standard, das andere eine Propreitäre Lösung.
StefanV
2014-01-31, 12:42:55
Freesync ist ja momentan noch Vaporvare, das wird noch dauern, bis da was kommt wenn überhaupt. Es kommt halt immer drauf an, was man mit aufnehmen und was man ausblenden möchte je nach Gusto. So kann man mal den einen oder den anderen vorne sehen.
Du redes Käse, in diesem Punkt. Hör endlich mit dem Bullshit auf!!
Noch mal zum MItmeißeln: Freesync/G-Sync und wie sie alle heißen, sind offizieller Bestandteil der eDP Spezifikation und werden im mobilen Bereich seit Ewigkeiten genutzt!
Das ist so neu und und speziell, dass es sogar Intel mit Bay Trail T unterstützt!, guggsu hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10010868&postcount=15). Oder wie würdest du 'Panel Self Refresh' und 'Dynamic Refresh Rate Switching' deuten?!
Entsprechend ist G-Sync einfach nur ein wirklich dummdreister Versuch, aus einer, im mobilen Bereich, allgemein verfügbaren und genutzten Technik etwas proprietäres zu machen.
Oh wait, kommt von nVidia, never mind...
Rente
2014-01-31, 13:14:55
Du redes Käse, in diesem Punkt. Hör endlich mit dem Bullshit auf!!
Noch mal zum MItmeißeln: Freesync/G-Sync und wie sie alle heißen, sind offizieller Bestandteil der eDP Spezifikation und werden im mobilen Bereich seit Ewigkeiten genutzt!
Das ist so neu und und speziell, dass es sogar Intel mit Bay Trail T unterstützt!, guggsu hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10010868&postcount=15). Oder wie würdest du 'Panel Self Refresh' und 'Dynamic Refresh Rate Switching' deuten?!
Entsprechend ist G-Sync einfach nur ein wirklich dummdreister Versuch, aus einer, im mobilen Bereich, allgemein verfügbaren und genutzten Technik etwas proprietäres zu machen.
Oh wait, kommt von nVidia, never mind...
Es wird nicht genutzt, es wäre nur theoretisch möglich es zu nutzen, bisher hat es aber kein Notebook-Hersteller entsprechend implementiert.
Die Spezifikation von eDP (und DP1.3, das noch nicht final ist) ist die eine Sache, die letztendliche Umsetzung eine andere, bisher hat nVidia da mehr vor zu weisen.
StefanV
2014-01-31, 13:30:14
bisher hat es aber kein Notebook-Hersteller
Und genau da liegt das Problem.
Das sind Features, die eher für Tablet PCs interessant sind und dort wohl auch verbreiteter sind als im PC X86 Bereich...
Blediator16
2014-04-04, 14:56:13
http://www.google.com/translate?hl=en&ie=UTF8&sl=fr&tl=en&u=http%3A%2F%2Fwww.hardware.fr%2Fnews%2F13640%2Famd-freesync-proposition-adoptee-par-vesa.html
AMD FreeSync ': proposal adopted by VESA
Tolle Sache :)
Unicous
2014-04-04, 15:30:56
Geiler Scheiß.:eek:
Geht ja doch ziemlich schnell. Dann könnte es schon in wenigen Jahren Monitore mit dem Standard geben.:rolleyes:
Tesseract
2014-04-04, 16:52:08
"since it will be optional"
ich dachte das war vorher auch schon optional nur die chips konnten es alle nicht. was hat sich dann genau geändert?
fondness
2014-04-04, 16:55:30
Vor DP1.2a wird es von der VESA nicht unterstützt, da musste man wohl irgendwelche Hacks verwenden?
Unicous
2014-04-04, 17:58:23
Übrigens, sontin (ist doch Lovesuckz oder?) lässt sich bei Anandtech über FreeSync aus:
http://forums.anandtech.com/showthread.php?t=2376703
Echt geil, wie der Typ alles und jedem einen Strick dreht.
Man bedenke: G-Sync wurde Mitte Oktober vorgestellt, Ende November wurde bei VESA der Antrag gestellt.
Da muss sich aber AMD ganz schön beeilt haben.:rolleyes: Oder sie hatten es schon in der Schublade, haben es rausgekramt und haben dann nur noch an der Formulierung gefeilt als Nvidia mit G-Sync vorangeprescht ist.
Warum kann AMD in einem Monat eigentlich eine Extension für einen Standard zusammenbasteln und Nvidia und Erfüllungsgehilfen schaffen es nicht innerhalb eines halben Jahres fertige Produkte zu liefern (geschweige denn selbst eine Extension einreichen:freak:). Das DIY-Kit ist ja auch out of stock.
Wird mal Zeit, dass Nvidia den Microsoft-Weg geht und eine Kursänderung vollführt. Intel und AMD haben es ja auch hinbekommen.
Rente
2014-04-04, 19:35:52
Bisher gibt es dafür keine Notwendigkeit, die Zahlen stimmen im Hauptsegment ja.
Ab Juni soll es dann direkt 3 neue G-Sync-Monitore geben (2xbenQ, 1xAsus), mal schauen...
Da muss sich aber AMD ganz schön beeilt haben.:rolleyes: Oder sie hatten es schon in der Schublade, haben es rausgekramt und haben dann nur noch an der Formulierung gefeilt als Nvidia mit G-Sync vorangeprescht ist.
Warum kann AMD in einem Monat eigentlich eine Extension für einen Standard zusammenbasteln
Da gab's doch nicht viel zu basteln. Es musste lediglich ein bereits existierendes Feature von embedded DP auf DP übertragen werden.
Edit: lediglich die Dynamik der Frequenzänderung ist (möglicherweise) neu. Aber das zu spezifizieren sollte ja nicht all zu aufwändig sein.
und Nvidia und Erfüllungsgehilfen schaffen es nicht innerhalb eines halben Jahres fertige Produkte zu liefern
Weil man für proprietären Kram sicherstellen muss, dass es kein anderer Hersteller unterstützen kann :D
(geschweige denn selbst eine Extension einreichen:freak:).
Siehe oben. Dann wär's ja nicht proprietär :)
Unicous
2014-04-04, 20:28:27
Wer Sarkasmus findet... weiß, dass Ironie hier nicht mehr greift.:wink:
Sunrise
2014-04-04, 20:43:34
Ich bin mal gespannt welche Bandbreite an Refreshraten da jetzt mit dem adopted VESA praktisch möglich werden. Theoretisch sollte da jetzt fast nichts mehr limitieren außer die Bildschirme selbst, oder?
occ-kh@Mirko
2014-05-05, 16:33:31
@Nvidia
G-Sync und 3d Vision:
Wir haben derzeit keine Pläne 3D Vision in Kombination mit G-Sync zu unterstützen. Die variablen Frame-Raten erlauben dies nicht.
G-Sync und SLI:
Der mit dem Bildschirm verbundene NVIDIA-Grafikprozessor verwaltet G-SYNC. SLI-Grafikprozessorkonfigurationen arbeiten nahtlos mit G-SYNC-Bildschirmen zusammen.
@CB v. 05.05.2014
kasir
2014-05-05, 17:25:30
Ich bin mal gespannt welche Bandbreite an Refreshraten da jetzt mit dem adopted VESA praktisch möglich werden. Theoretisch sollte da jetzt fast nichts mehr limitieren außer die Bildschirme selbst, oder?
Bei 4k@60Hz sollte Feierabend sein, da wird sich die Grafikkarte freuen. Das entspricht ungefähr 20Gbit/s, wenn ich mich nicht täusche.
Godmode
2014-05-05, 20:32:55
@Nvidia
G-Sync und 3d Vision:
@CB v. 05.05.2014
Sowas hab ich schon befürchtet. Eigentlich logisch, weil ich will das Bild für das linke und rechte Auge gleich lang anzeigen und nicht einmal links 20 ms und dann rechts 40 ms.
PatkIllA
2014-05-05, 21:06:30
Mit 4K könnte man ja auch auf Polfilterbrillen setzen.
Bei 4k@60Hz sollte Feierabend sein, da wird sich die Grafikkarte freuen. Das entspricht ungefähr 20Gbit/s, wenn ich mich nicht täusche.Es kommt ja demnächst DP 1.3. Dann ist noch etwas Reserve. Dann könnte man sich auch endlich mal von den Blanking-Krams aus der Analogzeit trennen.
MadManniMan
2014-05-05, 21:08:18
VR-Brillen ohne GSync? Wäre ein Eigentor. Deswegen: Polfilter sollten auch weiterhin funzen.
fondness
2014-05-12, 20:14:52
Jetzt offiziell: „Adaptive Sync“ wird Teil von DisplayPort 1.2a - Die Basis für AMDs FreeSync
http://www.computerbase.de/2014-05/adaptive-sync-vesa-displayport-1.2a-amd-freesync/
Unicous
2014-05-12, 21:39:57
Bei BSN gibts ein Q&A von AMD dazu:
http://www.brightsideofnews.com/2014/05/12/vesa-adds-adaptive-sync-displayport-1-2-standard/
Q: When can I buy a monitor compatible with Project FreeSync?
A: AMD has undertaken every necessary effort to enable Project FreeSync in the display ecosystem. Monitor vendors are now integrating the DisplayPort™ Adaptive-Sync specification and productizing compatible displays. AMD is working closely with these vendors to bring products to market, and we expect compatible monitors within 6-12 months.
6-12 Monate hört sich ja ganz ok an. Hoffen wir mal, dass das auch der der Realität entspricht. 1-6 Monate hätte mir besser gefallen.;(
Q: What AMD Radeon™ GPUs are compatible with Project FreeSync?
A: The first discrete GPUs compatible with Project FreeSync are the AMD Radeon™ R9 290X, R9 290, R7 260X and R7 260 graphics cards. Project FreeSync is also compatible with AMD APUs codenamed “Kabini,” “Temash,” “Beema,” and “Mullins.” All compatible products must be connected via DisplayPort™ to a display that supports DisplayPort™ Adaptive-Sync.
Hmm. Dafür, dass sie gesagt hatten es wäre seit mehreren Generationen integriert, sieht es eher nach GCN 1.1 aus.:rolleyes: (Oder sie sparen sich den Support für "ältere" Generationen. Ich hoffe mal, dass sie das gesamte GCN Portfolio unterstützen)
Q: What is the supported range of refresh rates with FreeSync and DisplayPort™ Adaptive-Sync?
A: AMD Radeon™ graphics cards will support a wide variety of dynamic refresh ranges with Project FreeSync. Using DisplayPort™ Adaptive-Sync, the graphics card can detect and set an appropriate maximum and minimum refresh rate based on the capabilities reported by the display. Potential ranges include 36-240Hz, 21-144Hz, 17-120Hz and 9-60Hz.
aufkrawall
2014-05-12, 22:04:10
Hoffentlich blickt man dann in drei Jahren nur noch mit einem distanzierten Grauen in die Welt von vor Freesync zurück.
Es macht ja nicht für für Spiele extrem Sinn, sondern auch für Videos. Sehr gut, dass AMD das durchgekriegt hat. Jetzt muss es nur noch halten, was es verspricht.
Unicous
2014-05-12, 22:20:19
Die Refresh Rate Range ist ja ordentlich, fällt mir gerade noch mal auf. Bei GSync ging das wohl (bei den ersten Tests) nicht.
http://techreport.com/r.x/2014_5_12_FreeSync_approved_Adaptive_Sync_added_to_DisplayPort_spec/a-sync.jpg
Man kann also nicht nur die Vorteile in Spielen etc. nutzen sondern auch z.B. auf dem Desktop. Und besonders im mobilen Bereich, wo VBLANK ja schon genutzt wird, kann man sicherlich noch Einiges an Strom sparen. Auf dem starren Desktop auf 10 Hz runtergehen ist natürlich auch schick. Mal sehen, ob GSync das in der Retailversion auch drauf hat.
Da frage ich mich auch, ob mobile GCN 1.1 Chips, bzw. ausgestattete mobile Geräte das schon nutzen könnten (wenn AMD die Treiberunterstützung dann irgendwann mal liefert:rolleyes:)
PatkIllA
2014-05-12, 22:25:05
Das ist aber jetzt nicht das Panel Self Refresh aus dem Mobilbereich oder?
Da hat das Display ja noch einen eigenen Speicher und refreshed sich aus dem und dafür schaltet dann die Graka ab.
Jetzt kommen noch mal 6 - 12 Monate bevor ich mir einen UHD Monitor kaufen kann ;)
Hoffentlich kommt das dann auch gleich mit DisplayPort 1.3 und mehr als 60 Hz.
aufkrawall
2014-05-12, 22:26:59
Man kann also nicht nur die Vorteile in Spielen etc. nutzen sondern auch z.B. auf dem Desktop.
Was soll das bei stationären PCs bringen?
Für Videos tut es auch ein Vielfaches der fps.
C.D.B.
2014-05-12, 22:28:58
Was soll das bei stationären PCs bringen?
Für Videos tut es auch ein Vielfaches der fps.
Unnütz Strom verbrauchen geht auch auf Desktop-PCs. Wenns denn nich sein muß - warum den Monitor sinnlos mit Videoframrate*n traktieren? ;)
PatkIllA
2014-05-12, 22:30:27
Für Videos tut es auch ein Vielfaches der fps.Aber auch nur ein genaues Vielfaches und es gibt ja nicht die eine fps Zahl. Mindestens was vielfaches von 23,976, 24,0, 25, 59,94 braucht es schon.
Außerdem kann man damit den Drift von Ton und Bild umgehen. Und selbst wenn die Desktoprate sehr lange fix ist kann man die Refreshrate ändern ohne dass das Bild verloren geht, wie das bei HDMI und DVI der Fall ist.
Unicous
2014-05-12, 22:32:59
Ich meinte mit Desktop zwar eigentlich z.B. den Windows Desktop, aber wie C.D.B. schon sagte, kann man ja auch hier einfach mal eins zwei Watt sparen. Das wirkt sich nicht wirklich auf die Stromechnung aus, aber wenn das irgendwann ein weltweiter Standard wird, kommt das auch Allgemeinheit zu Gute.:smile:
Und im mobilen Bereich sind die Vorteile ja nicht von der Hand zuweisen.
aufkrawall
2014-05-12, 22:40:36
Aber auch nur ein genaues Vielfaches und es gibt ja nicht die eine fps Zahl. Mindestens was vielfaches von 23,976, 24,0, 25, 59,94 braucht es schon.
Ja, das ist doch mit G-Sync kein Problem.
Außerdem kann man damit den Drift von Ton und Bild umgehen. Und selbst wenn die Desktoprate sehr lange fix ist kann man die Refreshrate ändern ohne dass das Bild verloren geht, wie das bei HDMI und DVI der Fall ist.
Will ich nicht bestreiten.
Godmode
2014-05-12, 23:39:33
Hoffentlich blickt man dann in drei Jahren nur noch mit einem distanzierten Grauen in die Welt von vor Freesync zurück.
Es macht ja nicht für für Spiele extrem Sinn, sondern auch für Videos. Sehr gut, dass AMD das durchgekriegt hat. Jetzt muss es nur noch halten, was es verspricht.
Sehe ich auch so. Hoffentlich zieht Nvidia nach und setzt ebenfalls auf diesen Standard, weil sonst wird es wieder richtig absurd. :freak:
Sunrise
2014-05-13, 09:23:24
Na endlich. Jetzt brauchen wir eigentlich nur noch ordentliche 24-32" OLEDs mit DP 1.2a oder höher und dann lohnt sich auch wieder eine größere Investition in einen ordentlichen Monitor (und der passende PC-Unterbau gleich dazu).
Mich würde mal interessieren, ob das dem Oculus zugute kommt. Sollte es ja eigentlich, da man gerade auf so einer Brille kein tearing bzw. jitter haben möchte.
kasir
2014-05-13, 09:50:46
Ich bin der Meinung irgendwo gelesen zu haben, dass man für VR eine fixe Framerate braucht und Sync ziemlich kacke wäre. Ich könnt mir vorstellen, dass das was mit der Addition der Bilder im Hirn zu tun hat. Ich guck nachher mal, ob ich das noch irgendwo finde. Kann auch sein, dass ich grad Müll erzähle :biggrin:
fondness
2014-05-13, 10:04:51
Sehe ich auch so. Hoffentlich zieht Nvidia nach und setzt ebenfalls auf diesen Standard, weil sonst wird es wieder richtig absurd. :freak:
Eine Displayport Standard nicht zu unterstützen kann sich IMO selbst NV nicht leisten. Und wenn man den Standard schon unterstützt dann nicht auch eine art Adaptive Vsync einzubauen wäre schlicht dumm.
N0Thing
2014-05-13, 10:18:05
Die Refresh Rate Range ist ja ordentlich, fällt mir gerade noch mal auf. Bei GSync ging das wohl (bei den ersten Tests) nicht.
Die Limitierung von 30Hz bei G-Sync wurde auf Grund der Panels in den Bildschirmen gewählt. Theoretisch wie auch praktisch konnten die Tester auch geringe Raten einstellen, nur konnte man dann je nach Frequenz ein Flackern am Bildschirm sehen. So lange die Panelhersteller dafür keine Verbesserung finden, wird wohl auch bei free-Sync eine Limitierung oberhalb der minimal möglichen Frequenzen kommen. Aber nichts desto trotz gut zu wissen, daß Luft nach unten vorhanden ist.
Bin gespannt wie der Markt in zwei bis drei Jahren aussehen wird. Dann steht grob das nächste GPU-Upgrade bei mir an und vielleicht ein neuer Monitor. G-Sync / Free-Sync werden dann für mich der entscheidende Punkt bei der Wahl zwischen AMD und Nvidia sein.
robbitop
2014-05-13, 10:19:06
Die adaptive Bildrate ist ab DP1.2a ja nur rein optional. Man kann den Displayport Standard also vollständig unterstützen ohne die adaptive Bildrate zu unterstützen.* Zum Teil deswegen ging die Implementierung in den DP Standard auch so schnell.
Es wird sicher eine Weile dauern, bis es Scalerchips gibt, die das unterstützen. Und dann müssen die auch noch von den Herstellern evaluiert werden. Angesichts der Aussage von 6-12 Monaten wird die Entwicklung/Erweiterung von mindestens einem Scalerchip bereits vor einiger Zeit begonnen worden sein.
Was ich nicht so optimistisch sehe, sind 4K oder IPS/VA Panels mit 120Hz. Das wird sicher lange auf sich warten lassen. Wir haben ja bis heute nicht 1x Monitor ohne TN Panel, der die höhere Refreshrate unterstützt.
Ich hätte z.B. auch gern 120 Hz im Desktopbetrieb. Sich bewegende Elemente sollten so weniger an Bildschärfe verlieren.
* ich tippe aber darauf, dass NV mittelfristig ebenfalls die adaptive Bildrate von DP unterstützen wird. Sobald der Monitormarkt dort hinschwänkt (und das werden sie, weil es billiger ist), hat G-Sync als proprietärer Standard sowieso keine Chance mehr.
Knuddelbearli
2014-05-13, 10:51:41
oder es wird sich nie durchsetzen da es nur optional ist und NV es nicht unterstützt und in 3 Jahren heisst es was hat AMD da für nen Mist verbrochen
oder es wird sich nie durchsetzen da es nur optional ist und NV es nicht unterstützt und in 3 Jahren heisst es was hat AMD da für nen Mist verbrochen
Was ist eigentlich mit Intel? Wenn der Marktführer mitmacht, kann nVidia nicht nein sagen.
robbitop
2014-05-13, 11:24:37
Naja den Scalerchip um die Fähigkeit zu erweitern soll sehr günstig sein. Das G-Sync FPGA Board zieht größere Änderungen der Monitor-HW nach sich und kostet einen dreistelligen Dollarbetrag extra.
Wenn sich FreeSync (als offener, günstiger Standard) nicht durchsetzt, wird es G-Sync erst recht nicht tun.
StefanV
2014-05-13, 11:59:54
Was ist eigentlich mit Intel? Wenn der Marktführer mitmacht, kann nVidia nicht nein sagen.
Im mobil Bereich unterstützt es Intel momentan doch auch schon. Von daher würd ich erwarten, dass sie sich dem eher nicht verweigern. Dürfte für die auch wenig bis gar nichts kosten...
robbitop
2014-05-13, 12:03:46
AMD hat IIRC ja (in diesem Zusammenhang) mal gesagt, dass die GPUs das schon seit Jahren unterstützen. Man muss es für DP1.2a nur im Treiber implementieren.
fondness
2014-05-13, 12:06:22
Also laut AMD unterstützen es offenbar nur GCN1.1 GPUs
Q: What AMD Radeon™ GPUs are compatible with Project FreeSync?
A: The first discrete GPUs compatible with Project FreeSync are the AMD Radeon™ R9 290X, R9 290, R7 260X and R7 260 graphics cards. Project FreeSync is also compatible with AMD APUs codenamed “Kabini,” “Temash,” “Beema,” and “Mullins.” All compatible products must be connected via DisplayPort™ to a display that supports DisplayPort™ Adaptive-Sync.
http://www.brightsideofnews.com/2014/05/12/vesa-adds-adaptive-sync-displayport-1-2-standard/
StefanV
2014-05-13, 12:13:05
Was mich wundert ist, dass da unter anderem Kaveri nicht dabei ist. Und auch andere Dinge...
Ist halt die Frage, ob das so bleiben wird oder ob sich das ändern werden wird...
PatkIllA
2014-05-13, 12:31:15
Ich bin der Meinung irgendwo gelesen zu haben, dass man für VR eine fixe Framerate braucht und Sync ziemlich kacke wäre. Ich könnt mir vorstellen, dass das was mit der Addition der Bilder im Hirn zu tun hat. Ich guck nachher mal, ob ich das noch irgendwo finde. Kann auch sein, dass ich grad Müll erzähle :biggrin:Das bezieht sich wohl vor allem auf Shutter. Da kann man natürlich nicht unterschiedlich lang die Bilder anzeigen.
Bei Polfilter oder einem eigenem Display(bereich) pro Auge wie bei Oculus sollte das gehen.
Flusher
2014-05-13, 13:58:47
Irgendeine Chance, dass heutige Monitore bereits damit kompatibel sind? Angeblich gehört das VBLANK ja schon seit Jahren zum DP Standard, wurde aber einfach nicht genutzt. Vielleicht haben es ja dennoch einige Hersteller implementiert. :confused:
fondness
2014-05-13, 14:19:37
Nvidia:
„So weit wir wissen, sind bisher keine Produkte auf Basis von DisplayPort 1.2a angekündigt worden“, kommentiert Nvidia die Ankündigung der VESA auf Nachfrage. „G-Sync funktioniert schon heute über DisplayPort 1.2 und benötigt kein DisplayPort 1.2a. [...] Und auch wenn der Standard keine Lizenzgebühren kostet, bringt auch DisplayPort 1.2a Kosten für die Entwicklung, die Implementierung und die Markteinführung mit sich“, heißt es weiter.
Danach gefragt, ob Nvidia ebenfalls auf den Standard setzen wird, gibt der Hersteller bekannt: „Wir unterstützen Industriestandards, aber nicht jeder Standard setzt sich durch. Am Ende unterstützen wir das, was unseren Kunden wichtig ist – und wählen zu diesem Zweck auch pragmatische Ansätze“. Ein Dementi ist das nicht.
http://www.computerbase.de/2014-05/adaptive-sync-vesa-displayport-1.2a-amd-freesync/
Also wird NV wieder mal den Teufel tun und bei der Etablierung mithelfen, sondern wie üblich weiter versuchen ihren proprietären Mist durchzusetzen.
robbitop
2014-05-13, 14:42:59
Ein wenig verständlich. Immerhin haben sie gerade richtig Ressourcen in G-Sync gebuttert. Ein billiger kostenfreier Standard könnte die Investition obsolet machen. Da wäre ich auch nicht gerade begeistert... :D
Blediator16
2014-05-13, 14:44:59
AMD hat sich auch nicht eingeschissen als "plötzlich" DX12 angekündigt wurde eher im Gegenteil.
MadManniMan
2014-05-13, 15:04:06
Mich interessiert Viel eher: gibt es irgendwelche Unterschiede in der Effektivität und Effizienz der Technologien?
N0Thing
2014-05-13, 15:09:24
Das wüßten wohl alle gern. :)
robbitop
2014-05-13, 15:15:03
AMD hat sich auch nicht eingeschissen als "plötzlich" DX12 angekündigt wurde eher im Gegenteil.
DX12 ist aber kein von NV geschaffener Standard. FreeSync zumindest z.T. schon. Außerdem ist davon auszugehen, dass lange vor der Veröffentlichung längst an DX12 gearbeitet wurde. NV, Intel und AMD sitzen da in einem Gremium und entscheiden mit MS zusammen, was in die nächste 3D Schnittstelle kommt. Das läuft also nicht ohne AMDs Wissen oder Mitarbeit. DX12 ist sicher schon eine ganze Weile in der Entwicklung. Immerhin soll es in ein paar Monaten schon Hardware geben. ;)
fondness
2014-05-13, 16:02:50
Update 13.05.2014 15:47 Uhr (Forum-Beitrag)
AMD hat mittlerweile bestätigt, dass auch „Kaveri“ Adaptive Sync bietet. Die noch recht neue APU hatte der Hersteller schlichtweg vergessen anzugeben.
http://www.computerbase.de/2014-05/adaptive-sync-vesa-displayport-1.2a-amd-freesync/
fondness
2014-05-13, 16:05:55
Ein wenig verständlich. Immerhin haben sie gerade richtig Ressourcen in G-Sync gebuttert. Ein billiger kostenfreier Standard könnte die Investition obsolet machen. Da wäre ich auch nicht gerade begeistert... :D
Alleine schon der Ansatz einen sauteuren FPGA in den Monitor rein zu stecken ist krank, gerade da auch NV wusste das der eDP-Standard bereits entsprechende Möglichkeiten bietet. Man hätte zumindest einmal auch versuchen können in etwas zu investieren von dem alle was haben, aber das war wohl wieder mal zu viel verlangt.
robbitop
2014-05-13, 16:07:13
Mich würde es nicht wundern, wenn sie es (ggf. vorerst) auf älteren GPUs nicht im Treiber implementieren, um neue Kaufanreize zu schaffen. Zumindest irgendwas muss man ja für all die Arbeit für sich herausholen. :)
Alleine schon der Ansatz einen sauteuren FPGA da rein zu stecken ist krank, gerade da auch NV wusste das der eDP-Standard bereits entsprechende Möglichkeiten bietet. Man hätte zumindest einmal auch versuchen können in etwas zu investieren von dem alle was haben, aber das war wohl wieder mal zu viel verlangt.
Ich vermute, der FPGA ist ja nur der erste Schritt um was präsentierbares schneller da zu haben. Ich denke, der nächste Schritt ist ein richtiger ASIC oder das Lizensieren der Spec an die Hersteller, so dass diese die HW selbst implementieren können.
fondness
2014-05-13, 16:11:43
Mich interessiert Viel eher: gibt es irgendwelche Unterschiede in der Effektivität und Effizienz der Technologien?
Ich würde mal behaupten hätte das Zeug von Nvidia irgend einen Vorteil hätte man das längst hinaus posaunt.
robbitop
2014-05-13, 16:16:22
Kann es sein, dass wenn der Monitor G-Sync kann, beherrscht er auch gepulstes Backlight und 120 Hz?
Nightspider
2014-05-13, 16:43:11
Was soll das Backlight damit zu tun haben?
aufkrawall
2014-05-13, 16:45:24
Ja, gab drei verschiedene Betriebsmodi. Strobing + Gsync soll aber vorerst nicht gleichzeitig nutzbar sein.
Abgesehen davon bietet etwa BenQ gesondert einen brauchbaren Strobing-Modus an.
Wenn es keine IPS-Geräte gibt, ist G-Sync für mich relativ uninteressant. Ich stell mir nicht extra für Online-Shooter einen zweiten Monitor mit Schrott-BQ hin.
Bei Freesync seh ich da mittel-, oder zumindest langfristig, mehr Chancen.
robbitop
2014-05-13, 16:48:40
Was soll das Backlight damit zu tun haben?
Das wird auch über die Panelelektronik gesteuert. All diese Features sind im FPGA drin.
Flusher
2014-05-13, 16:57:26
Ist das gepulste Backlight nicht eine Black-Frame-Insertion?
Nightspider
2014-05-13, 17:28:58
Jo nur etwas besser, weil es eben komplett dunkel ist.
Wäre natürlich super wenn jeder G-Sync Monitor quasi den Lightboost-Hack integriert hätte.
Gipsel
2014-05-13, 17:29:14
Ist das gepulste Backlight nicht eine Black-Frame-Insertion?Es hat einen ähnlichen (aber stärkeren) Effekt und ist technisch etwas anders gelöst als die klassische BFI (bei dem das eigentliche Backlight kontinuierlich leuchtet). Das Ziel ist gleich, das stimmt.
Edit: paar Sekunden zu langsam.
Wäre natürlich super wenn jeder G-Sync Monitor quasi den Lightboost-Hack integriert hätte.Ist ja im Prinzip unabhängig und mit aktivem GSYNC (oder auch die freie Variante AdaptiveSync/FreeSync) geht Lightboost (also Backlight strobing, wenn man mal den nV-Marketingbegriff wegläßt) sowieso nicht mehr.
Im Prinzip könnte man das aber stufenlos ineinander überblenden (hohe Frameraten mit Backlight strobing, niedrige Frameraten mit quasi-kontinuierlichem Backlight, dazwischen eine Kombination aus Puls und kontinuierlichem Backlight, hatte schonmal vor einiger Zeit beschrieben, wie das genau funktionieren könnte). Das benötigt dann aber zum einen hohe PWM-Regelfrequenzen für das Backlight (wäre sowieso besser, erfordert aber bessere und somit etwas teurere PWM-Regler im Monitor) und außerdem eine gute Anpassung/Kalibrierung der Elektronik auf das jeweilige Panel, weil sich sonst in Abhängigkeit von der Bildwiederholfrequenz der Bildeindruck ändern würde (Helligkeit, Kontrast usw.). Das ist also ein wenig mehr Aufwand.
Flusher
2014-05-13, 17:36:03
Es hat einen ähnlichen (aber stärkeren) Effekt und ist technisch etwas anders gelöst als die klassische BFI (bei dem das eigentliche Backlight kontinuierlich leuchtet). Das Ziel ist gleich, das stimmt.
Sowas hat der EIZO FG2421 integriert - wird marketingtechnisch als 240 Hz Monitor ausgeschlachtet. Aber man merkt den Effekt deutlich, sofern man auch 120 FPS geliefert bekommt.
Blediator16
2014-05-13, 18:01:53
Update 13.05.2014 15:47 Uhr (Forum-Beitrag)
AMD hat mittlerweile bestätigt, dass auch „Kaveri“ Adaptive Sync bietet. Die noch recht neue APU hatte der Hersteller schlichtweg vergessen anzugeben.
http://www.computerbase.de/forum/showthread.php?t=1348029&p=15696003#post15696003
Unicous
2014-05-22, 15:20:19
Robert Hallock @Thracks
@SMertSoylemez We have a prototype monitor on the floor at Computex, but the display industry still has engineering work to do. Spec is new!
https://twitter.com/thracks/status/469295108379013120
Dazu ein Interview mit Hallock von sweclockers im englischen Original.
Nicht viel Neues.
We are told you are using triple buffering. There are some obvious drawbacks to this.
– I think this is a misunderstanding derived previous comments that AMD Catalyst can force-enable triple buffering in the driver’s control panel. Let me set the record straight: Project FreeSync does not require extensive buffering, because the need for such techniques is virtually eliminated when you can match the display timings to the framerate of the GPU on the fly. Within the range of refresh rates supported by a compatible display, Project FreeSync will allow the absolute minimum input lag with single- or double-buffered rendering.
How about compatibility?
– Project FreeSync will utilize DisplayPort Adaptive-Sync protocols to enable dynamic refresh rates for video playback, gaming and power-saving scenarios. All AMD Radeon graphics cards in the AMD Radeon HD 7000, HD 8000, R7 or R9 Series will support Project FreeSync for video playback and power-saving purposes. The AMD Radeon R9 295X2, 290X, R9 290, R7 260X and R7 260 additionally feature updated display controllers that will support dynamic refresh rates during gaming.
AMD APUs codenamed Kaveri, Kabini, Temash, Beema and Mullins also feature the necessary hardware capabilities to enable dynamic refresh rates for video playback, gaming and power-saving purposes. All products must be connected to a display that supports DisplayPort Adaptive-Sync.
As far as games go, we know that some titles may for whatever reason not cooperate with dynamic refresh rates, so we’ll allow users to toggle Project FreeSync in the driver. Operating system support will initially be brought to Windows 7 and Windows 8.1.
http://www.sweclockers.com/artikel/18798-amd-om-dynamiska-uppdateringsfrekvenser-med-project-freesync/2#pagehead
M4xw0lf
2014-05-22, 16:09:00
https://twitter.com/thracks/status/469295108379013120
Dazu ein Interview mit Hallock von sweclockers im englischen Original.
Nicht viel Neues.
http://www.sweclockers.com/artikel/18798-amd-om-dynamiska-uppdateringsfrekvenser-med-project-freesync/2#pagehead
Danke, ich fands interessant.
fondness
2014-05-23, 10:00:24
http://www.computerbase.de/2014-05/adaptive-sync-auch-fuer-asus-und-iiyama-ein-thema/
Vor rund einer Woche hatten wir die ersten Herstellereinschätzungen zum Thema „Adaptive Sync“ eingeholt und erfahren, dass zumindest AOC und Philips im kommenden Jahr kompatible Monitore herausbringen wollen. Inzwischen sind Antworten weiterer Display-Hersteller eingetroffen: Sowohl Asus als auch iiyama planen mit der Technik.
Damit ist mit iiyama zumindest schon ein Hersteller im Boot der keine G-Sync Monitore anbieten wird.
robbitop
2014-05-23, 10:10:08
IMO völlig absehbar, dass das irgendwann praktisch jeder Monitor haben wird. Scalerchips werden sowieso alle paar Jahre neu entworfen. Dann wird die VBlank Unterstützung eben mit-implementiert bei der nächsten Revision. Bis das der Fall ist, wird es aber sicher noch eine Weile dauern. :)
Unicous
2014-05-23, 10:47:12
Der Enthusiasmus hält sich aber dennoch sehr in Grenzen, was ich komisch finde. Warum hüpfen die Hersteller nicht im Kreis bei der Vorstellung ein neues Buzzword auf ihre Kartons schreiben zu können (wobei, da steht ja meist nicht so viel drauf:rolleyes:) und den Preis anheben zu können.
Die Entwicklungs-/Herstellungskosten kann ich auch nicht wirklich nachvollziehen (zumal ja selbst die Hersteller zugeben das die ersten Modell in unter einem Jahr verfügbar sein könnten). Na klar muss der Scaler angepasst werden, aber ich behaupte das ist keine Raktenwissenschaft. Und da ja Asus im gleichen Zug Werbung für ihren GSync Monitor macht frage ich mich was da noch so alles im Hintergrund passiert.
Skysnake
2014-05-23, 11:19:12
Naja, die GSync Anbieter werden nicht so scharf auf FreeSync/Adaptive VSync sein, weil es dann eben jeder hat, und mit dem nVidia Brand sich halt Bauernfängerei betreiben lässt. nVidia ist halt wirklich ein sehr sehr sehr starker Brand, das sollte man wirklich nicht unterschätzen.
YfOrU
2014-05-23, 11:43:38
Der Enthusiasmus hält sich aber dennoch sehr in Grenzen, was ich komisch finde. Warum hüpfen die Hersteller nicht im Kreis bei der Vorstellung ein neues Buzzword auf ihre Kartons schreiben zu können (wobei, da steht ja meist nicht so viel drauf:rolleyes:) und den Preis anheben zu können.
Es sind gute Panels notwendig und die haben ihren Preis. TN in der Variante "Super-Schnell" zählt da genaugenommen nicht dazu. Damit der Spaß optimal funktioniert muss das Panel sowohl sehr niedrige als auch sehr hohe Frequenzen vertragen.
Unicous
2014-05-23, 11:53:36
Und was willst du mir damit sagen?
Ist doch egal, was das Panel für Specs haben muss, der Asus-Marketing Typ hat doch über den Scaler gesprochen.
Bei GSync ist es doch auch kein Problem? Du hast einen Serienmonitor baust den Scaler aus und fummelst das GSync Modul rein. Wo sollen sich da jetzt die Herstellungskosten auswirken wenn nur der Scaler angepasst wird? Ich behaupte, das sind wenn überhaupt Cent-Beträge wenn etwas an der Logik angepasst werden muss. Asus könnte genau den gleichen Monitor den sie für die GSync Edition nehmen für A-Sync modifizieren. Wo sind da die (finanziellen) Hürden?
PatkIllA
2014-05-23, 12:13:00
Die Logik muss aber in Hardware angepasst werden. Das ist etwas aufwändiger als nur Software.
Wenn die wirklich das fette FPGA von NVIDIA verbauen sollte AdaptiveSync auch damit schnell umzusetzen sein.
Unicous
2014-05-23, 12:31:35
Wer sagt denn sowas?
Das fette teure FPGA von Nvidia will doch keiner haben und funktioniert doch eh nur mit Nvidia Karten und lizenzfrei abgeben wird JHH das sicherlich nicht. Eher lässt er sich mit dem Modul begraben.
Ich behaupte, den Scaler anzupassen kostet nicht viel, außer Zeit für die Validierung und Co..
Dazu möchte ich zu bedenken geben, dass die Monitorhersteller ja auch ihre R&D Abteilung haben und an sowas auch forschen und entwickeln. Solche Scaler haben die sicherlich in der Grabbelkiste rumliegen.
PatkIllA
2014-05-23, 12:50:49
Den ASIC musst du entwerfen, valdieren in Produktion geben und dann in neue Geräte einbauen.
Angeblich hat NVIDIA ja 2 Jahre an GSync gearbeitet und in Sachen Adaptive-Sync kommt dieses Jahr auch wohl nichts mehr.
Nightspider
2014-05-23, 12:53:49
Profitiert SLI auch von G-Sync?
Ein Freund hat sich SLI zulegt und ich habe ihm von der G-Sync Technik erzählt aber war mir nicht ganz sicher ob G-Sync speziell bei SLI noch Vorteile bietet, zB. ob die Microruckler abgeschwächt werden bzw. weniger stark wahrnehmbar sind.
Unicous
2014-05-23, 12:55:24
2 Jahre an GSync gearbeitet und dann gibts zum "Start" nur ne Fummellösung mit nem teuren FPGA? Soweit ich das verstanden habe muss nur der Scaler angepasst werden, man braucht kein extra ASIC oder ein eingekauftes FPGA. Bei GSync ist das ja auch nötig weil man mit Triple Buffering arbeitet. AMDs FreeSync braucht das laut eigener Aussage nicht und arbeitet mit Single oder Double Buffering.
@Nightspider
SLI funktioniert, iirc. Nur 3D Vision nicht.
PatkIllA
2014-05-23, 12:58:27
Der Scaler ist ein ASIC oder ein Teil des ASICs für den Monitor.
Das FPGA ist doch nur verwendet worden, weil das eben dauert ein angepasstes ASIC zu entwicklen und zu produzieren. Den FPGA kann man beim Entwurf mehr oder weniger schnell umprogrammieren, um Änderungen umsetzen zu können.
Unicous
2014-05-23, 13:10:15
Ich habe das schon mitbekommen warum man einen FPGA einkaufen musste, nach zwei Jahren Entwicklungszeit.:wink:
Und was ein Scaler ist, musst du mir nicht erzählen. Den anzupassen sollte aber kein großes Problem sein. Im Bestfall können einzelne Scaler das schon ( siehe Forschung und Entwicklung bei Monitor-Herstellern) und es muss nur "aktiviert" werden. Das hört sich jetzt naiv an, ich meine es aber wirklich so. Ich kann mir nicht vorstellen, dass die Hersteller andauernd mit ihren 144Hz Monitoren rumwedeln die sonstawas für eine tolle neue Technologie spendiert bekommen haben, aber bei VBLANK/PSR, das bei eDP in Version 1.3 (also Anfang 2011) implementiert wurde gucken sie wie Schafe auf der Weide. Es ist ja nicht so, dass es dynamic refresh rate etwas völlig Neues ist und aus dem Nichts entstanden ist. Intel hatte Ähnliches schon 2010 (oder früher?) mit DRRS in die Runde geworfen.
PatkIllA
2014-05-23, 13:15:21
eDP findet sich bislang praktisch nirgends und DisplayPort 1.2 hat auch über 2 Jahre gebraucht von der Verabschiedung des Standards bis zum Angebot von Geräten.
Und vorher hat sich praktisch 10 jahre gar nichts getan. Da gab es dann VGA und DVI mit 1920x1200 oder FullHD.
Unicous
2014-05-23, 13:17:06
Und was nutzt man bei Notebooks?
Ah. LVDS habe ich vergessen.
robbitop
2014-05-23, 13:19:20
Bei GSync ist das ja auch nötig weil man mit Triple Buffering arbeitet.
Seit wann das denn und warum? Höre ich zum ersten Mal. Hast du dafür eine Quelle?
Unicous
2014-05-23, 13:26:03
Ney. Könnte sein, dass das ein brainfart von mir war. Ich hatte da was in Erinnerung aber ich glaube es wurde nur angenommen auf Grund des FPGA und den 512MB Speicher auf dem Modul.
PatkIllA
2014-05-23, 13:28:25
Ney. Könnte sein, dass das ein brainfart von mir war. Ich hatte da was in Erinnerung aber ich glaube es wurde nur angenommen auf Grund des FPGA und den 512MB Speicher auf dem Modul.Wenn du den Speicher als dritten Puffer ansehen willst, dann kann man das auch als TripleBuffer annehmen.
Die meisten Monitore haben bislang aber auch so schon einen Puffer, weil man das für gewisse Dinge wie z.B.Overdrive braucht.
Unicous
2014-05-23, 13:33:05
Und AMD behauptet, man brauche kein "extensive buffering" weil die Display Timings von der GPU vorgeschrieben werden. Bei Nvdia gibt es ja wohl eher nen handshake.
aufkrawall
2014-05-23, 13:48:03
Profitiert SLI auch von G-Sync?
Ein Freund hat sich SLI zulegt und ich habe ihm von der G-Sync Technik erzählt aber war mir nicht ganz sicher ob G-Sync speziell bei SLI noch Vorteile bietet, zB. ob die Microruckler abgeschwächt werden bzw. weniger stark wahrnehmbar sind.
Das Gegenteil wird mit AFR der Fall sein.
Gsync fungiert weniger als fps-Cap und dementsprechend ungeglättet sind die Frametimes + fallen die Mikroruckler stärker auf, wenn ohne weitere GPU die Frametimes perfekt wären.
PatkIllA
2014-05-23, 13:52:14
Das Gegenteil wird mit AFR der Fall sein.
Gsync fungiert weniger als fps-Cap und dementsprechend ungeglättet sind die Frametimes + fallen die Mikroruckler stärker auf, wenn ohne weitere GPU die Frametimes perfekt wären.
Die Frametimes sind ja auch mit Single GPU nicht perfekt, wenn man nicht gerade mit DoubleBuffering und VSYNC on dauerhaft auf die Refreshrate limitiert ist.
Warum sollte das schlimmer werden, wenn man das direkt ausgibt. Framelimiter kann man ja auch weiterhin nutzen.
Und AMD behauptet, man brauche kein "extensive buffering" weil die Display Timings von der GPU vorgeschrieben werden. Bei Nvdia gibt es ja wohl eher nen handshake.
wo sagt denn das NVIDIA was von extensive Buffering? Wenn das Bild fertig ist kann es raus solange man nicht noch das vorherige an das Display schickt.
Unicous
2014-05-23, 14:03:12
Du hast doch gerade selbst gesagt, der aufgelötete RAM könnte als Buffer dienen. Und AMD behauptet sie brauchen so einen Buffer gar nicht. Und bei Nvida funktioniert es wenn ich das richtig mitbekommen habe über einen hand shake also ständige Kommunikation zwischen ASIC/FGPA und GPU. Bei FreeSync gibt die GPU den Ton an.
PatkIllA
2014-05-23, 14:07:30
Du hast doch gerade selbst gesagt, der aufgelötete RAM könnte als Buffer dienen. Und AMD behauptet sie brauchen so einen Buffer gar nicht. Und bei Nvida funktioniert es wenn ich das richtig mitbekommen habe über einen hand shake also ständige Kommunikation zwischen ASIC/FGPA und GPU. Bei FreeSync gibt die GPU den Ton an.Für direkte Ausgabe braucht man den nicht. Der könnte auch dazu dienen das Bild zu refresehen, wenn es zu lange kein neues gibt. Das ist ja auch bei dem Panel SelfRefresh bei DisplayPort so angdacht.
Wie genau GSync arbeitet weiß doch außerhalb von NV und einigen Eingeweihten niemand. Insbesondere ist der RAM unglaublich groß.
Unicous
2014-05-23, 14:17:28
Ja und all das sind Sachen, die das GSync Modul teuer machen. Das Scaler ASIC anzupassen sehe ich nicht als finanzielle Hürde, außer dass die Monitorhersteller nicht gerne in Vorleistung gehen. Da ist ihnen anscheinend die Herangehensweise Nvidia lieber, von denen sie ein superteures Modul kaufen und dann ihre Marge draufschlagen.:rolleyes:
PatkIllA
2014-05-23, 14:21:35
Ja und all das sind Sachen, die das GSync Modul teuer machen. Das Scaler ASIC anzupassen sehe ich nicht als finanzielle Hürde, außer dass die Monitorhersteller nicht gerne in Vorleistung gehen. Da ist ihnen anscheinend die Herangehensweise Nvidia lieber, von denen sie ein superteures Modul kaufen und dann ihre Marge draufschlagen.:rolleyes:
Es gibt einen einzigen Monitor mit GSync und der praktisch kaum kaufbar.
Was soll GSync als ASIC denn jetzt soviel teurer machen? Monitor und Grafikkarte können schon seit Ewigkeiten miteinander reden. Anfangs nur um Fähigkeiten auszulesen, später dann um z.B. Helligkeit per DDC anzupassen und spätestens seit HDCP ist das zum Schlüsselaustausch zwingend.
Wo steht denn überhaupt, dass jedes Frame per Handshake ausgehandelt wird? Bei Freesync gibt der Monitor einmal den Bereich vor und dann schickt die Grafikkarte innerhalb dieser Grenzen die Daten. Das Prinzip ist bislang in Sachen Auflösung, Farbtiefen, Timings usw üblich. Warum sollte NVIDIA das soviel komplizierter sein?
Unicous
2014-05-23, 15:04:19
Sag mal, du sprichst vom RAM und ich sage, das z.B. macht das Modul teurer und du fragst daraufhin warum das das ASIC teurer machst? Ich glaube du möchtest gerne an mir vorbeireden.:confused:
Es gab bis jetzt einen Monitor dem man in einer Operation das Modul anflanschen konnte. Jetzt gibt es einen nicht lieferbaren Monitor. Aber was hat das mit der Diskussion zu tun?
Und was willst du mir mit "Monitor und Grafikkarte können schon seit Ewigkeiten miteinander reden." Möchtest du mir jetzt die Geschichte der Welt erklären?
Es geht darum ob es zwei verschiedene Herangehensweisen sind. Ob bei VESA/AMD die GPU der "Taktangeber" ist und bei Nvidia es eine ständige Kommunikation beider Komponenten gibt, oder ob es bei G-Sync genauso ist. Bis jetzt war ich der Meinung es passiert über einen hand shake.
Warum? Das frage ich dich. Denn ich weiß es nicht. Es gibt kein white paper von Nvidia dazu, aber die Sache mit dem hand shake und der konstanten Abfrage/Kommmunikation wurde in mehreren Foren und Tech-Artikeln dazu spekuliert und bei der Vorstellung von G-Sync kam es mir auch so vor als wäre es so erklärt worden, aber das liegt ja schon wieder eine Weile zurück und seitdem gab es ja nichts Neues von Nvidia dazu.
It's magic.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.