Archiv verlassen und diese Seite im Standarddesign anzeigen : G-/Free-/A-Sync: framesynchronisierter Displayrefresh per variablem vblank-Intervall
fondness
2014-12-31, 14:13:27
Naja, es ist Teil von DP1.2a, würde mich nicht wundern, wenn NVs GM204 das nicht eh schon kann.
Es war sicher mehr als genug zeit, immerhin kann es jeder AMD-Chip seit Bonaire. NV muss halt auch eine spätere Unterstützung vorgesehen haben.
dargo
2014-12-31, 14:28:45
Hoffentlich ziehen sie überhaupt nach. NV kann man es durchaus zutrauen auf ihr proprietäres Zeug zu bestehen, zumindest solange es sich nicht maßgeblich auf die Verkaufszahlen auswirkt.
Das wäre wieder Fail³. :freak: Jedenfalls für den Kunden. Dann müsste man sich schon wieder auf einen IHV festlegen bei Grakakauf. :down:
-/\-CruNcher-/\-
2014-12-31, 14:42:32
So war es vorgesehen oder was dachtest du wenn keine große Gegenwehr kommt wird Nvidia auch sicher nicht FreeSync supporten ;)
Du kannst dich für ein Ökosystem entscheiden :)
Wenn man logisch denken tut und sich die schon langsam sichtbaren Konsequenzen von AMDs Konsolen Konvergenz anschaut bin selbst ich am Überlegen mal AMD wieder eine Chance zu geben aber nicht mit der jetzigen Hardware die nächste Generation aber schon ;)
Die 285 war keine schlechte Preview ;)
aufkrawall
2014-12-31, 14:45:31
Die werden sich erstmal sträuben. Wenn die Hardware es unterstützt, werden sie aber vielleicht auch 2015 schon gar keine andere Wahl mehr haben als es ebenfalls zu unterstützen.
Ein Test wär jetzt langsam mal schön...
-/\-CruNcher-/\-
2014-12-31, 14:50:49
Die werden sich erstmal sträuben. Wenn die Hardware es unterstützt, werden sie aber vielleicht auch 2015 schon gar keine andere Wahl mehr haben als es ebenfalls zu unterstützen.
Ein Test wär jetzt langsam mal schön...
Naja ich gehe davon aus das sie kämpfen werden sie haben da immerhin einen Asic mit dem sie noch einiges machen können und overhead verschieben ist ja immer nice ;)
Mandalore
2014-12-31, 15:03:18
Es kommen ja bekanntlich 2015 UHD Monitore von Samsung. Erinnert sich noch jemand an die Folie von AMD bzgl. dazu wo zwei Monitor-Serien aufgelistet sind?
http://www.golem.de/news/lg-34um67-ultra-widescreen-monitor-mit-freesync-und-3k-vorgestellt-1412-111397.html
Folie Nr.7 bei dem obengestellten Link meine ich. Das UE590 Model ist in Rot markiert, während das UE850 Modell in Grau gehalten ist. Weiter oben steht"UHD Monitor in 2015 with AMD Freesync" ebenfalls in Rot. Könnte das bedeuten, dass das UE850 Modell kein FreeSync bekommt (Interessiert mich nämlich, da da ein 31,5" Modell gelistet ist :/)???
fondness
2014-12-31, 15:05:37
Samsung hat selbst bestätigt das alle 4K Monitore welche in 2015 erscheinen FreeSync unterstützen werden.
http://www.techspot.com/news/58899-all-samsung-ultra-hd-monitors-2015-support-freesync.html
Mandalore
2014-12-31, 15:09:04
Samsung hat selbst bestätigt das alle 4K Monitore welche in 2015 erscheinen FreeSync unterstützen werden.
http://www.techspot.com/news/58899-all-samsung-ultra-hd-monitors-2015-support-freesync.html
Ah Ok alles klar vielen Dank!!!
Kriton
2014-12-31, 15:51:34
Naja, es ist Teil von DP1.2a, würde mich nicht wundern, wenn NVs GM204 das nicht eh schon kann.
Aber nur optional, oder?
http://www.3dcenter.org/news/amds-freesync-wird-optionaler-bestandteil-von-displayport-12a
Unicous
2014-12-31, 15:55:46
Rot und grau wurde sicherlich nur gewählt um die beiden Modellreihen zu unterscheiden.
mironicus
2014-12-31, 16:08:51
Ich behaupte mal, dass ab einen bestimmten Zeitpunkt JEDER neue Monitor Freesync haben wird, das wird Standard.
Mandalore
2015-01-03, 15:50:57
Die Hardware die in diesem G-Sync Chip steckt (also die Platine) , steckt bei AMD also in der GPU?
Kartenlehrling
2015-01-03, 16:12:49
Die Hardware die in diesem G-Sync Chip steckt (also die Platine) ,
steckt bei AMD also in der GPU?
Das wird mit der Asynchronous Compute Engine (ACE) gemacht,
die HD7970 hat davon 2, die neuen Grafikkarten R9290, R9285 und APUs haben 8 stück davon.
Das wird wie bei Videostream wohl gemacht (VCE und nvenc) das Bild wird zwischengespeichert.
Und wenn noch kein volles neues Bild vorhanden ist wird das aus dem Speicher genommen.
So ähnlich wird es wohl auch bei Lucid Virtual Vsync gemacht,
nur das da nicht der Monitor die Bildwechselfrequenz ändert sondern immer konstant auf zb. 60Hz bleibt und
die Zwischenspeicherung die iGPU von Intel macht.
Nightspider
2015-01-03, 19:10:21
Mal eine Frage:
Wenn dank FreeSync eh jede Frequenz genutzt wird um das Bild aufzubauen, dann liegt es doch Nahe das auch Monitore mit Zwischenschritten kommen könnten oder?
zB. UHD Monitore mit FreeSync und 80Hz oder 90Hz? (96Hz,100Hz,..., usw.)
Kartenlehrling
2015-01-03, 19:36:52
Die CES 2015 vegas starte ja in 3 Tagen, spätes am Ende wird etwas Info durchsickern,
uns fehlt ja sowieso erstmal ein Treiber mit den Funktionen.
Unicous
2015-01-03, 19:46:32
Den Treiber gibt es schon. Der Omega-Treiber ist Freesync-ready.
Mancko
2015-01-03, 19:46:33
http://www.prweb.com/releases/2015/01/prweb12421775.htm
Unicous
2015-01-03, 19:47:47
Wäre nett wenn du nicht einfach einen Link ohne Einordnung posten würdest.
Acer XB270HU is the world’s first NVIDIA® G-SYNC™ gaming monitor equipped with IPS technology; Acer XG270HU is the world’s first gaming monitor with an edge-to-edge frameless display.
The Acer XB270HU and XG270HU monitors will be available globally and begin shipping in March 2015.
Ich habe das ungute Gefühl, dass das zu einem ekligen Grabenkampf verkommen könnte. Acer, ASUS und Co. auf G-Sync Seite und andere auf FreeSync-Seite.
edit: Komisch warum das alles erst im März passieren soll? Hat es vllt. doch mit den neuen Scalern zu tun, bzw. hat Nvidia endlich ein ASIC zusammengeschustert?
dargo
2015-01-03, 19:50:13
Mal eine Frage:
Wenn dank FreeSync eh jede Frequenz genutzt wird um das Bild aufzubauen, dann liegt es doch Nahe das auch Monitore mit Zwischenschritten kommen könnten oder?
zB. UHD Monitore mit FreeSync und 80Hz oder 90Hz? (96Hz,100Hz,..., usw.)
Denkbar wäre es. Die Frage ist bloß ob das überhaupt ein Hersteller will? Ich wäre auch dafür zb. 85Hz oder 100Hz. Es müssen nicht gleich 120Hz sein.
Unicous
2015-01-03, 19:51:56
Spinne ich, oder gab es nicht sogar schon 100Hz-Monitore?
Locuza
2015-01-03, 19:52:36
Die Hardware die in diesem G-Sync Chip steckt (also die Platine) , steckt bei AMD also in der GPU?
Die steckt im Monitor selber (verbesserte Scaler).
Dazu muss auch die Display-Engine in der GPU das ganze steuern können und dazwischen braucht man natürlich den Treiber, der das letztendlich umsetzt.
Das wird mit der Asynchronous Compute Engine (ACE) gemacht,
Darf ich diese Aussage einfach nicht glauben?
Die CES 2015 vegas starte ja in 3 Tagen, spätes am Ende wird etwas Info durchsickern,
uns fehlt ja sowieso erstmal ein Treiber mit den Funktionen.
Catalyst Omega:
http://www.tomshardware.com/news/amd-catalyst-omega-radeon-driver,28155.html
Unicous
2015-01-03, 19:55:17
Ich glaube er verwechselt das schlicht mit Downsampling.
fondness
2015-01-03, 20:14:34
http://www.prweb.com/releases/2015/01/prweb12421775.htm
Damit ist wohl offiziell bestätigt das NV auf einen offenen Standard scheißt und weiter ihr G-Sync durchdrücken will.
Sunrise
2015-01-03, 20:19:34
http://www.prweb.com/releases/2015/01/prweb12421775.htm
Das ist besonders wichtig für NV, um sich noch möglichst lange von FreeSync abzusetzen. Das Timing ist interessant. Aber gut, das belebt das Geschäft und vor allem auch die Konkurrenz. 2015 scheint das Jahr der Monitore zu werden.
edit: Komisch warum das alles erst im März passieren soll? Hat es vllt. doch mit den neuen Scalern zu tun, bzw. hat Nvidia endlich ein ASIC zusammengeschustert?
Wieso Scaler? Der ist doch im G-Sync-Modul drin. Und ein eigenes ASIC ist auch unnötig, 144Hz sind mit dem bereits genutzten Modul kein Problem. NV wird da mit ziemlicher Sicherheit kein eigenes ASIC mehr bringen, das rechnet sich einfach nichtmehr, außer man möchte noch on-top irgendwelche Zusatzfunktionen anbieten und G-Sync 2.0 etablieren, aber ob das passiert ist fraglich.
Da wurde wohl eher auf das Panel gewartet, bzw. man braucht jetzt Argumente gegen FreeSync.
Schnoesel
2015-01-03, 20:19:57
Hat jemand was anderes erwartet? Und wenn sie Geld dafür zahlen sollten, dass man ihre Technoologie verbaut, die werden das duchziehen.
Unicous
2015-01-03, 20:27:48
@Sunrise
Eine eigenes ASIC ist unnötig?:eek: Seit wann?:confused:
Das FPGA ist scheiß teuer, irgendwie muss man mal den Preis runterbekommen, ich frage mich auch, ob Nvidia das irgendwie subventioniert. Ein ASIC in keine Ahnung 65nm gefertigt kostet ein paar Dollar anstatt 10, 20, 30 whatever Dollar für das FPGA. -> Dieso Scaler? Es war eine Überlegung gemünzt auf ein hypothetisches ASIC.
Warum wurde auf das Panel gewartet? Was ist neu an einem 27" IPS Panel? was hat 144Hz damit zu tun? Das Panel wird sicherlich nur 60Hz können. Sry hatte ich überlesen.
Warum ist das Timing interessant? The Fuck. Es ist CES.
Sunrise
2015-01-03, 20:50:47
@Sunrise
Eine eigenes ASIC ist unnötig?:eek: Seit wann?:confused:
Das FPGA ist scheiß teuer, irgendwie muss man mal den Preis runterbekommen, ich frage mich auch, ob Nvidia das irgendwie subventioniert. Ein ASIC in keine Ahnung 65nm gefertigt kostet ein paar Dollar anstatt 10, 20, 30 whatever Dollar für das FPGA. -> Dieso Scaler? Es war eine Überlegung gemünzt auf ein hypothetisches ASIC.
Ein FPGA ist unnötig bezogen auf die 144Hz wie geschrieben. Und ich bin mir relativ sicher, dass da kein ASIC mehr kommt, weil ich mir nicht sicher bin, ob das flexibel genug zu programmieren wäre um das auf alle Panelarten anzupassen. Es hätte theoretisch den Vorteil, die G-Sync-Displays in Zukunft günstiger anbieten zu können, aber ob das bezogen auf die Programmierbarkeit überhaupt möglich ist, weiß ich nicht. Man weiß zuwenig über die interne Funktionsweise des Moduls um das sagen zu können.
Warum wurde auf das Panel gewartet? Was ist neu an einem 27" IPS Panel
Es ist ein 144Hz IPS mit G-Sync, steht doch alles im Text. Das ist doch das Interessante daran.
Schnoesel
2015-01-03, 20:55:31
Es ist ein 144Hz IPS 1440p Monitor. Da ich einen 1440p Moni besitze kann ich dir ziemlich genau sagen, dass du alles runterdrehen musst um an diese Framezahlen auch nur anschnuppern zu können bei der Auflösung. Wofür 144Hz wenn das Ding Gsync kann?
dargo
2015-01-03, 21:04:57
Interessant finde ich die 144Hz trotzdem. Was geht wohl maximal bei VA? 100Hz @VA. *träum*
Unicous
2015-01-03, 21:12:43
@Sunrise
Was willst du denn mit den 144Hz, das ist doch unerheblich. Es geht mir um die Kosten. Deswegen ist ein ASIC eben nicht "unnötig".
Das Ding im Prototypen
http://images.anandtech.com/doci/7582/DSC_4620.jpg
kostet im Einzelhandel mehrere hundert (700) Euro.:freak:
http://www.digikey.de/product-detail/en/0/5AGXMA3D4F31I3N-ND/4159150?quantity=1000&cref=&em1=Multiple%20of%20Minimum%20Quantity%20Not%20Met&uq=635558906696507712
Keine Ahnung was sie jetzt benutzen, aber die Dinger sind sicherlich nicht günstiger als ein ASIC für ein paar Dollar. Daher stellt sich mir weiterhin die Frage, wie teuer das ganze wirklich ist.
Nightspider
2015-01-03, 21:21:15
Spannend wird eher welche Panel benutzt werden und warum nicht schon eher 1440p IPS Monitore mit >=120Hz auf den Markt kamen.
LG soll 2015 mal Gas geben und vllt in der 2. Hälfte ein OLED Monitor als ultimatives Gerät und DP1.3 auf den Markt werfen. Das wäre doch mal 'was.
aufkrawall
2015-01-03, 21:25:41
Yey. Da mit Gsync, wird das Teil wohl auch wahlweise low persistence anbieten.
Wird ein Verkaufsschlager.
Unicous
2015-01-03, 21:26:06
@Nightspider
Acer ist ja nicht gerade Vorreiter wenn es um Panels und Monitortechnologie angeht, daher gehe ich davon aus, dass sie lediglich die ersten sind dies es "ankündigen", während andere Hersteller das Panel (u.ä.) auch nutzen werden.
(p.s. Ich verstehe den Hype um OLED nicht :sneak:)
Nightspider
2015-01-03, 21:30:33
Yey. Da mit Gsync, wird das Teil wohl auch wahlweise low persistence anbieten.
Wird ein Verkaufsschlager.
Was soll denn jetzt wieder low persistence bei einem Monitor sein?
Sunrise
2015-01-03, 21:36:50
@Sunrise
Was willst du denn mit den 144Hz, das ist doch unerheblich.
Ich will dir damit sagen, dass das aktuelle Modul, das sie wohl immernoch benutzen 144Hz problemlos kann.
Es geht mir um die Kosten. Deswegen ist ein ASIC eben nicht "unnötig".
Ich habe dir doch gerade meine Sicht erklärt. Ich denke, dass ein ASIC zu unflexibel ist, da sind die Kosten erstmal zweitrangig, weil du sicher nicht für jeden Monitor/Paneltyp ein eigenes ASIC gießen willst. Oder wie stellst du dir das vor?
Zudem könnte NV mit dem FPGA auch bestimmte neue Features einführen. Ein ASIC ist einfach zu limitiert für sowas.
Das Ding im Prototypen
...
kostet im Einzelhandel mehrere hundert (700) Euro.:freak:
Ich weiß, das Thema hatten wir doch schon vor Monaten.
Keine Ahnung was sie jetzt benutzen, aber die Dinger sind sicherlich nicht günstiger als ein ASIC für ein paar Dollar. Daher stellt sich mir weiterhin die Frage, wie teuer das ganze wirklich ist.
Sagt auch keiner, dass ein FPGA günstiger ist, deshalb bezahlt man ja einen Aufpreis für G-Sync, bzw. die Displayhersteller müssen für das Modul von NV bezahlen.
Es ist doch super, dass endlich offiziell mal IPS mit höhere Bildwiederholrate kommen, ob das jetzt G-Sync ist interessiert mich persönlich auch nur zweitrangig, weil da auch FreeSync-Varianten mit dem Panel kommen werden. Allerdings sind evtl. einige Hersteller an NV gebunden, macht mir zumindest bei Acer so den Anschein. ASUS evtl. wohl auch, weil die NV ja bei der Entwicklung geholfen haben.
aufkrawall
2015-01-03, 21:38:54
Was soll denn jetzt wieder low persistence bei einem Monitor sein?
So nennt sich das Gsync-Profil, dahinter verbirgt sich Strobing.
Geht allerdings nicht gleichzeitig mit variablem Vblank.
Unicous
2015-01-03, 21:48:32
@Sunrise
Cool, ich rede über die Kosten und du sagst es ist unnötig weil das aktuelle Modul schon 144Hz kann? Ich frage mich anfangs ob es u.a. an einem Modul mit ASIC liegen könnte, du sagst es ist unnötig weil das aktuelle Modul schon 144Hz kann.:freak:
Warum widersprichst du mir mit Argumenten die völlig unerheblich sind? Ob das Modul bis zu 233Hz steuern kann ist völlig unerheblich, wie ich es schon zum zigsten Mal gesagt habe.
Was für "neue" Features genau müssen im FPGA realisiert werden? Da müsstest du schon mal konkreter werden. Ein Feature das mir einfallen würde...wären die geringeren Kosten bei einem ASIC.:rolleyes:
Für neue "Hardware"-Features bräuchte man u.U. auch ein leistungsfähigeres FPGA... das wiederum die Kosten ansteigen lässt.
Die Kosten, die Kosten, die Kosten. Sind das größte Problem, dass Nvidia in Zukunft haben könnte. Nvidia könnte auch heimlich still und leise Adaptive Sync Scaler nutzen und es weiterhin als G-Sync vermarkten. Muss ja keiner wissen.:hammer:
Sunrise
2015-01-03, 21:58:08
...Warum widersprichst du mir mit Argumenten die völlig unerheblich sind? Ob das Modul bis zu 233Hz steuern kann ist völlig unerheblich, wie ich es schon zum zigsten Mal gesagt habe.
Für die Kostenfrage ist es unerheblich, auf die beziehe ich mich aber nicht, deshalb quote ich Teile von deinen Aussagen und erkläre dir meine Sichtweise.
Ich frage dich, wie du dir das mit dem ASIC vorstellst. Und ich habe dir erklärt, warum ein ASIC womöglich unnötig ist. Lesen und verstehen.
Dass ein ASIC günstiger ist, wissen wir jetzt, nachdem du es gefühlte 10 Mal wiederholt hast. Aber auch nur, wenn es wirklich nur ein einziges ASIC wäre, dass alle Panels ansprechen kann. Jetzt verstanden? Die Kostenfrage steht erst ganz am Schluss, wenn geklärt ist, ob das überhaupt machbar ist.
Das ist doch mitunter überhaupt der Grund, warum NV kein ASIC gebaut hat, zusätzlich war man damit schneller am Markt.
Kartenlehrling
2015-01-03, 22:05:38
Den Treiber gibt es schon. Der Omega-Treiber ist Freesync-ready.
Sollte man dann nicht irgend einen "Schalter" im Treiber finden,
wenigsten R9285 sollte doch sowas haben?
:confused:
Nightspider
2015-01-03, 22:06:50
Sunrise du hast echt bescheuerte Argumentationsversuche rausgehauen und total an den Zitaten vorbeigeschrieben. Da hat Unicous absolut Recht. Ich dachte mir auch "Was für eine Scheiße schreibt Sunrise da zusammen?"
Für die Kostenfrage ist es unerheblich, auf die beziehe ich mich aber nicht
Das du am Thema vorbeigeschrieben hast haben wir schon gemerkt.
Das ist doch mitunter überhaupt der Grund, warum NV kein ASIC gebaut hat, zusätzlich war man damit schneller am Markt.
:facepalm:
Seit wann arbeitest du bei Nvidia?
Ein ASIC braucht Zeit und das wurde von Anfang an so gesagt. Ein FPGA kann man viel schneller vermarkten, bei einem ASIC darf es keinen Fehler geben, den kann man nicht "patchen".
Dass ein ASIC günstiger ist, wissen wir jetzt, nachdem du es gefühlte 10 Mal wiederholt hast. Aber auch nur, wenn es wirklich nur ein einziges ASIC wäre, dass alle Panels ansprechen kann. Jetzt verstanden?
Man würde ja keinen ASIC auf den Markt bringen wenn er das nicht könnte. :rolleyes:
Your argument is invalid.
aufkrawall
2015-01-03, 22:10:38
Sollte man dann nicht irgend einen "Schalter" im Treiber finden,
wenigsten R9285 sollte doch sowas haben?
:confused:
Das wird wahrscheinlich erst dann zu sehen sein, wenn ein entsprechendes Gerät angeschlossen ist.
NV hat auch schon lange Gsync im Treiber unterstützt, bevor es erste Monitore gab. Hatte man auch nichts von gemerkt.
Sunrise
2015-01-03, 22:10:52
...Man würde ja keinen ASIC auf den Markt bringen wenn er das nicht könnte. :rolleyes:
Eben, deshalb gibt es ja auch keins. Was willst du mir sagen? :D
Unicous
2015-01-03, 22:13:28
@Sunrise
Was soll ich mir bei dem ASIC vorstellen? Es wird designed und dann an eine Foundry in die Produktion geschickt?
Oder man fragt bei Scaler-Herstellern an, ob man nach ihren Vorstellungen einen Scaler+Timing Controller ASIC für das Modul herstellen kann (siehe Apple, wobei das eher ein getweakter Standard-Controller ist). Auf lange Sicht ist das sicherlich billiger als ein teures FPGA von z.B. Altera.
Wenn G-Sync auf lange Sicht überleben soll muss Nvidia diesen Schritt am besten gestern schon gemacht haben bzw. hatten sie es ja Anfang letzten Jahres angekündigt. Ich verstehe auch nicht wo dein Problem bei einem ASIC liegt?:confused:
Es gibt keinen Grund sich dagegen zu sträuben. Die angebliche Flexibilität wird... du ahnst es durch die horrenden Kosten negiert. Es ist billiger ein neues ASIC für die nächste Generation zu entwicklen, anstatt teuere FPGAs einzukaufen (vorausgesetzt man verkauft genug Module).
OHOHOHO Sunrise
Es gibt also keins. BEWEISE!!! ES!!!
Soweit ich weiß gab es keinen teardown eines G-Sync Monitors und man kennt nur das alte DIY-Modul.
Kartenlehrling
2015-01-03, 22:22:30
Wofür 144Hz wenn das Ding Gsync kann?
Das ist eine Magische Marketing Zahl,
die ganzen Test haben es auch aufgedeckt ... 120Hz bzw. 100Hz in europa wurden vollkommen reichen und auch leichter realisierbar sein.
Mandalore
2015-01-03, 23:11:40
Das 144Hz IPS Panel ist doch das was vor ca. 2 Monaten von A(?) (xD) angekündigt wurde...Müssten demnach auch Monitor von Asus u.a. kommen...
Unicous
2015-01-03, 23:19:04
Stimmt, AU Optronics hatte das vor 3 Monaten geteasert, ist jedoch AHVA, das aber IPS-ähnlich ist.
AUO (als ODM) stellt ja für so gut wie alle OEMs her.
Sunrise
2015-01-03, 23:36:08
...Ich verstehe auch nicht wo dein Problem bei einem ASIC liegt?:confused:
Das steht in meiner letzten Antwort und in denen davor. Ausgehend von öffentlich zugänglichen Informationen (Reviews), das aktuell immernoch das G-Sync-Modul (ein FPGA) auch im ASUS Swift PG278Q verbaut wird.
OHOHOHO Sunrise
Es gibt also keins. BEWEISE!!! ES!!!
Soweit ich weiß gab es keinen teardown eines G-Sync Monitors und man kennt nur das alte DIY-Modul.
Dann solltest du dich eben besser informieren. Die Informationen sind frei zugänglich im Netz.
Zudem sind wir im Spekulationsforum. Setzt du die gleichen Maßstäbe eigentlich auch bei dir selbst? Wenn jeder, der hier etwas schreibt gleich alles beweisen muss, dann haben wir hier nur noch sehr wenig interessante Beiträge. Du hast auch eine Holschuld, nicht andere automatisch nur eine Bringschuld. Wenn du das gemacht hast, können wir hier gerne auch weitermachen.
Eigentlich sollte dir (selbst wenn du diese Informationen nicht hast und du mal etwas nachdenkst) schon der saftige Aufpreis der G-Sync Monitore, die momentan erhältlich sind sagen, dass dort noch das FPGA verbaut ist.
Zusätzlich würde AMD wohl kaum genau diesen Punkt als großen Nachteil von G-Sync-Monitoren der Öffentlichkeit erzählen, wenn dort ein ASIC verbaut wäre, der nur ein paar EUR kostet.
Und jetzt fangen wir im Prinzip wieder von vorne an, siehe meine erste Antwort, warum ich vermute, dass evtl. garkein ASIC mehr kommen wird. NV wird schon wissen, was sie machen.
Unicous
2015-01-03, 23:56:09
Was haben die Kosten des FPGA mit dem Endkundenpreis zu tun? (In Amiland werden/wurden die Dinger zeitweise über dem Einstiegspreis verkauft. z.B. 1200 Dollar anstatt 800 für den Swift. Liegt das auch am FPGA:rolleyes:^720°)
Die G-Sync Monitore sind weiterhin schlecht verfügbar. Sei es der Nachfrage, dem Zögern der Hersteller oder Beidem geschuldet. Die Preise bewegen sich allein deswegen schon nicht.
Ausgehend deiner Informationen.:rolleyes: Wo hast du denn die Informationen. Und warum muss ich für dich nach deinen Informationen suchen? Du stellst Tatsachenbehauptungen auf, dann beweise sie auch. "Ausgehend von meinen Informationen". Das ich nicht lache. Wenn die Informationen so frei zugänglich sind, wäre es doch ein Klacks deine müden Finger über die Tastatur gleiten zu lassen. Die 5 Sekunden kannst du doch für uns erübrigen.
Nvidia hat von Anfang an gesagt, sie würden den FPGA gegen ein ASIC austauschen, jetzt behauptest du, unnötig. Bist du also schlauer als Nvidia?
Außer unnötig kam auch leider nicht viel, da kannst du gerne noch so oft behaupten du hättest es schon erklärt.
Wie teuer das ASIC ist, ist unerheblich für den Endkundenpreis. Was AMD sagt und behauptet ist auch unerheblich. Wichtig ist, was verbaut wird. Das wüsste ich gerne von dir, ich bin nämlich viel zu doof zum Googleln.
(Ich habe übrigens keine Holschuld. Denn ich spekuliere während du fabul... vermeintliche Fakten schaffst. Es gibt einen Unterschied zwischen "könnte" und "ist". Das eine ist Konjunktiv, das andere nicht.)
Skysnake
2015-01-04, 03:21:13
Für die Kostenfrage ist es unerheblich, auf die beziehe ich mich aber nicht, deshalb quote ich Teile von deinen Aussagen und erkläre dir meine Sichtweise.
Ich frage dich, wie du dir das mit dem ASIC vorstellst. Und ich habe dir erklärt, warum ein ASIC womöglich unnötig ist. Lesen und verstehen.
Dass ein ASIC günstiger ist, wissen wir jetzt, nachdem du es gefühlte 10 Mal wiederholt hast. Aber auch nur, wenn es wirklich nur ein einziges ASIC wäre, dass alle Panels ansprechen kann. Jetzt verstanden? Die Kostenfrage steht erst ganz am Schluss, wenn geklärt ist, ob das überhaupt machbar ist.
Das ist doch mitunter überhaupt der Grund, warum NV kein ASIC gebaut hat, zusätzlich war man damit schneller am Markt.
:facepalm:
Jetzt rate mal, was ein FPGA an sich ist... Ah ja richtig, ein ASIC....
Es ist absolut kein Problem, einen ASIC mit der entsprechenden Konfigurationsfähigkeit zu bauen. Je mehr Reconfigurierbar ist, desto aufwändiger und weniger lohnend wird es halt. Aber um mehrere Displays zu unterstützen, reichen da ziemlich sicher einige Register usw. Von Grund auf gibt es ja nicht sooo viele unterschiedliche Varianten wie die angesteuert werden. Reine Parametersweeps zählen da nicht.
Und was Features anbelangt, so muss man halt wissen, was man will, aber das muss man beim FPGA auch, denn du kannst die FPGAs beim Kunden nicht einfach flashen.... Da musste sehr sehr sehr sicher das gesamte Gerät einschicken lassen, damit du dass dann selbst übernehmen kannst als Hersteller. Für den Kunden gíbt es da sehr sicher keinerlei Chance etwas am Image zu ändern.
Mancko
2015-01-04, 11:40:29
Damit ist wohl offiziell bestätigt das NV auf einen offenen Standard scheißt und weiter ihr G-Sync durchdrücken will.
So what? Woher weißt Du was Nvidia in Zukunft auf der Basis noch alles bauen will? Vielleicht ignorieren sie den Standard auch einfach, weil er ihnen zuviele Limitierungen langfristig vorgibt bzw. Erweiterungen nicht einfach mal eben so hinzugefügt werden können. Es ist halt nunmal ein Unterschied ob ich mich mit einer großen Anzahl an Unternehmen auf etwas einigen muss, von denen die meißten sich gar nicht im Gaming Sektor bewegen oder ob ich mich lediglich mit mir selber und ausgewählten LCD Herstellern abstimmen muss.
Vielleicht unterstützen sie den Adaptive Synch Standard ja auch irgendwann zusätzlich zu G-Synch. Im Endeffekt bleibts dabei. Nvidia will sein eigenes Ökosystem und mehr aus einer Hand anbieten um Kunden langfristig zu binden. Um ehrlich zu sein sehe ich darin nichts verwerfliches. Es gibt unzählige Beispiele von Unternehmen die das gleiche wollen und auch tun.
@Thema FPGA, ASIC und blah
Wartets einfach ab oder fragt doch einfach Nvidia selber. Wenn sie einen ASIC bauen wollen, dann werden sie einen bauen. Wenn nicht dann halt nicht. Vielleicht bauen sie auch einfach aktuell noch keinen und erst zukünftig. Vielelicht haben sie auch schon einen gebaut. Ich bezweifel das aber. Im Endeffekt wird sich die Entscheidung darüber daran ausrichten, wie sie mit G-Synch weiter verfahren wollen. Ich vermute sie suchen nach weiteren netten Features, vielleicht auch im Zusammenhang mit VR, 3D oder was weiß ich. Die Zeit wird es zeigen. In jedem Fall ist das Schaffen von zusätzlichen Mehrwerten zur Abgrenzung von der Konkurrenz zumeist recht weit oben auf dem Prioritätenteller bei Nvidia. Insofern kann es nur die Zeit zeigen wie es da weiter geht.
mboeller
2015-01-04, 13:35:36
:facepalm:
Jetzt rate mal, was ein FPGA an sich ist... Ah ja richtig, ein ASIC....
.
dann solltest du dein Verständnis von ASIC noch einmal überdenken.
Was ist an einem "Field Programmable Gate Array" denn ein "Application Specific Integrated Circuit"?
Affinator
2015-01-04, 13:48:30
@mboeller:
Da hat er durchaus Recht. Die Übergänge kann man da fließend sehen.
Wenn der Scheduler in deiner CPU die Daten in die Integer-ALU statt in die Fließkomma-ALU schickt, dann ist das auch eine Form von Laufzeit-Rekonfiguration. (Zumindest aus rein theoretischer Sicht. Ein FPGA ist auch nur darauf ausgerichtet ein Maximum an Konfigurierbarkeit zu bieten. Es gibt aber auch viele FPGAs bei denen schon soviel Spezialhardware verbaut ist, dass man eher von einem rekonfigurierbarem SOC sprechen kann.)
Man kann auch bei den FPGA-Herstellern Chips bestellen, die nur für eine spezifische Konfiguration geeignet sind. Das sind dann Ausschuss-Chips deren Macken in genau dieser Konfiguration zu keinen Fehlern führen. Dementsprechend gibt es große Rabatte und man könnte den FPGA auch als ASIC auffassen. (Leistungsaufnahme und Größe bleiben natürlich im Vergleich schlechter.)
Loeschzwerg
2015-01-04, 14:23:43
Es ist billiger ein neues ASIC für die nächste Generation zu entwicklen, anstatt teuere FPGAs einzukaufen (vorausgesetzt man verkauft genug Module).
Evtl. scheut NV auch einfach diesen Schritt, weil man insgeheim schon weiß, dass FreeSync das Rennen machen wird ;D
Jetzt versucht man halt noch etwas Cash zu machen, mit logischerweise sehr hohen Preisen.
:facepalm:
Jetzt rate mal, was ein FPGA an sich ist... Ah ja richtig, ein ASIC....
Schießt euch doch bitte nicht stur auf diese Begrifflichkeiten ein... in diesem Fall sollte doch klar sein was wie gemeint ist ;)
Unicous
2015-01-04, 14:55:42
Das entspricht aber nicht Nvidias Unternehmensphilosphie und geht auch konträr gegen das, was Tom Peterson gesagt hat. Der hat ja auf subtile Art und Weise immer wieder Kampfansagen gegen Adapative Sync (Es ist nur eine optionale Spec, es gibt keine Produkte, G-Sync ist auf dem Markt. Wir haben noch viel vor mit G-Sync blablabla) losgelassen.
Nvidia hat sich in das proprietäre Format verbissen und zieht das, wie so oft durch, bis es nicht mehr geht oder doch zum Erfolg führt (siehe CUDA, PhysX). Daher wäre ein ASIC mehr als logisch. Ich glaube leider nicht, dass sie davon nach knapp einem Jahr Abstand nehmen werden und einfach Adaptive Sync fähige Hardware implementieren. Sie dominieren den (AIB-Markt) und denken, sie können das durchdrücken. Man bräuchte Intel um G-Sync (als proprietäres Format) zu killen.
Ich verstehe auch nicht, wie man sich so über ein ASIC echauffieren kann. Das mit dem FPGA ist doch eine Notlösung gewesen, das hat doch Nvidia auch gesagt. Es war immer der Plan ein ASIC zu entwerfen. Und eben um gegen FreeSync zu bestehen, muss man die Preise drücken, das schafft man auch nicht mit dem billigsten FPGA. Denn die Dinger müssen auch eine entsprechende Leistung bieten. Das mit dem Lookaside-Buffer finde ich auch weiterhin mysteriös und fraglich ob der nötig ist und nicht auch eine Notlösung. Es gibt jedenfalls genug Verbesserungsmöglichkeiten (bezogen auf die Kosten ;)) und ASUS hat ja auch beim ROG Swift rumgedoktert.
Und man muss auch sehen, wie man mehr Ports zulassen kann und das OSD universell für den Hersteller anpassen lassen kann. Toll finden die das sicherlich nicht.
Loeschzwerg
2015-01-04, 15:13:13
Ja, ich hab schon noch in etwa im Hinterkopf was Tom damals in den Interviews gesagt hat, aber er ist ja nicht der letzte Entscheider in der Kette.
CUDA und PhysX stehen da in meinen Augen auch deutlich besser da als G-Sync, gerade jetzt wo fast schon mehr FreeSync Monitore angekündigt wurden als welche mit G-Sync.
Ist halt fraglich wie schnell man die Entwicklungskosten mit einem eigenen Chip wieder hereinholen könnte, da habe ich zu wenig Einblick wie lange die Validierung dauert. Diese Art von Monitoren interessiert nun einmal in erster Linie die Spieler und wenn FreeSync dann eh das gleiche Ergebnis liefert?!
Klar muss man mit dem Preis runter um gegen FreeSync Monis bestehen zu können, aber selbst dann würde ich die Sache fast schon als verloren betrachten.
Und man muss auch sehen, wie man mehr Ports zulassen kann
Ist für mich persönlich DER Negativpunkt bei G-Sync.
Unicous
2015-01-04, 15:22:41
Na wenn man nach Adaptive Sync geht, brauchen anscheinend die Scaler-Hersteller 3-6 Monate.:freak:
Spaß beiseite. So ein ASIC wäre ja ungleich einfacher zu designen als eine GPU o.ä.. Da Nvidia ja eh schon Zillionen an Investitionen getätigt hat:rolleyes: (wie Tom Peterson auch nicht müde wird zu erzählen) werden sie das Geld auch noch übrig haben.
Und ein Jahr ist jetzt vorbeigezogen, da könnte man durchaus eine neue Generation mit ASIC haben. Die CES würde sich dafür ja durchaus eignen.
Loeschzwerg
2015-01-04, 15:32:13
Und ein Jahr ist jetzt vorbeigezogen, da könnte man durchaus eine neue Generation mit ASIC haben. Die CES würde sich dafür ja durchaus eignen.
Sollte man meinen, ja :) Gegenteiliges würde mich aber auch nicht wundern. Abwarten, ist ja nicht mehr lang hin ^^
akuji13
2015-01-04, 15:34:39
Ist für mich persönlich DER Negativpunkt bei G-Sync.
Solange es generell mehr Anschlüsse gibt als nur 1 DP (wie z. B. beim BenQ XL2420G) könnte ich damit gut leben.
Sunrise
2015-01-04, 15:40:35
:facepalm:
Jetzt rate mal, was ein FPGA an sich ist... Ah ja richtig, ein ASIC....
Es ist absolut kein Problem, einen ASIC mit der entsprechenden Konfigurationsfähigkeit zu bauen. Je mehr Reconfigurierbar ist, desto aufwändiger und weniger lohnend wird es halt. Aber um mehrere Displays zu unterstützen, reichen da ziemlich sicher einige Register usw. Von Grund auf gibt es ja nicht sooo viele unterschiedliche Varianten wie die angesteuert werden. Reine Parametersweeps zählen da nicht..
Wenn es kein Problem wäre, warum gibt es dann noch keins in den Monitoren, nach über einem Jahr nach der G-Sync Vorstellung?
Jetzt wird sich hier um Begrifflichkeiten aufgeregt, aber niemand fragt sich mal die logischste aller Fragen, warum es - wenn es denn günstiger und so super einfach umzusetzen wäre - noch kein speziell dafür gegossenes ASIC gibt. Und genau hier wollte ich eigentlich ein wenig die Diskussion entfachen, aber stattdessen kommen Argumente wie Kosten. Wenn es wirklich um die Kostenfrage für NV ginge, dann hätte man schon längst einen ASIC aufgelegt. Scheinbar macht man das aber nicht, weil es dafür Gründe dagegen gibt.
Nach Unicous Aussagen verliert NV hier also bares Geld und subventioniert G-Sync weiterhin. Das erscheint mir nicht logisch, wenn man das Kostenproblem doch sofort mit dem Bau eines relativ inkomplexen ASIC auf einem älteren Fertigungsprozess lösen könnte. Das ergibt keinen Sinn für mich.
Ich lese relativ viele Reviews und stelle mir dann solche Fragen, vor allem unter dem Hintergrund, dass Petterson das vor über einem Jahr noch angekündigt hatte.
Ich habe aufgrund dessen die Vermutung geäußert, dass evtl. garkein günstiges ASIC mehr kommen wird. Möglicherweise irre ich mich, und in 2015 kommt tatsächlich nochwas, aber die obere Frage hätte ich eben gerne mal sachlich nachvollziehbar beantwortet.
TobiWahnKenobi
2015-01-04, 15:41:08
funktioniert 3DVision über DP? falls nicht würde ich auch darauf bestehen, dass kommende bildschirme weiterhin duallink-DVI mitbringen. mit geräten die nur einen eingang haben, musste ich mich bisher noch nie rumschlagen. dachte sowas seien mythen und legenden.. aber es gibt sie wirklich.
(..)
mfg
tobi
Unicous
2015-01-04, 15:42:05
Wenn es kein Problem wäre, warum gibt es dann noch keins in den Monitoren, nach über einem Jahr nach der G-Sync Vorstellung?
Beweis durch Behauptung.:rolleyes:
Übrigens wäre es nett wenn du meine Aussagen nicht verdrehen würdest. Ich habe nicht behauptet, dass Nvidia subventioniert, es war eine reine Spekulation.
Kriton
2015-01-04, 15:43:20
Wenn es kein Problem wäre, warum gibt es dann noch keins in den Monitoren, nach über einem Jahr nach der G-Sync Vorstellung?
Jetzt wird sich hier um Begrifflichkeiten aufgeregt, aber niemand fragt sich mal die logischste aller Fragen, warum es - wenn es denn günstiger und so super einfach umzusetzen wäre - noch kein speziell dafür gegossenes ASIC gibt. Und genau hier wollte ich eigentlich ein wenig die Diskussion entfachen, aber stattdessen kommen Argumente wie Kosten. Wenn es wirklich um die Kostenfrage für NV ginge, dann hätte man schon längst einen ASIC aufgelegt. Scheinbar macht man das aber nicht, weil es dafür Gründe dagegen gibt.
Nach Unicous Aussagen verliert NV hier also bares Geld und subventioniert G-Sync weiterhin. Das erscheint mir nicht logisch, wenn man das Kostenproblem doch sofort mit dem Bau eines relativ inkomplexen ASIC auf einem älteren Fertigungsprozess lösen könnte. Das ergibt keinen Sinn für mich.
Ich lese relativ viele Reviews und stelle mir dann solche Fragen, vor allem unter dem Hintergrund, dass Petterson das vor über einem Jahr noch angekündigt hatte.
ASICs werden nur dann kostengünstig wenn Du sie in der Massenfertigung einsetzen kannst, da Sie für nichts anderes als Deinen speziellen Einsatzzweck nutzen kannst. Ein FPGA hat nicht diese Einschränkung, daher kann er bei kleineren Stückzahlen wirtschaftlicher einzusetzen sein. Ggfs. ist das der Grund warum NV noch keinen ASIC aufgelegt hat.
Unicous
2015-01-04, 15:49:00
@Kriton
Das hatten wir ja eigentlich schon geklärt, der Herr möchte sich da aber gerne im Kreise drehen. Für ihn ist ein FPGA ja grundsätzlich "unnötig".
Sunrise
2015-01-04, 15:56:09
@Kriton
Das hatten wir ja eigentlich schon geklärt, der Herr möchte sich da aber gerne im Kreise drehen. Für ihn ist ein FPGA ja grundsätzlich "unnötig".
Nein, das unnötig wurde von dir bewusst oder unbewusst nur aus dem Kontext gerissen. Dass ein ASIC grundsätzlich unnötig ist habe ich nie behauptet.
Ich habe geschrieben, dass es für NV evtl. unnötig ist, aus den genannten Gründen, die Spekulation sind.
Und Kriton spricht auch genau das an, was ich mitunter vermute, und die Frage ist, ob G-Sync jemals massenfähig genug wird, damit es sich lohnt. Denn anscheinend lohnt es sich aktuell nicht.
Wenn NV sich mit aller Macht gegen FreeSync stellt und man sich da schon so sicher wäre, dann gäbe es schon längst eins.
akuji13
2015-01-04, 16:01:31
funktioniert 3DVision über DP?
Wunderbar sogar. =)
Loeschzwerg
2015-01-04, 16:06:25
Solange es generell mehr Anschlüsse gibt als nur 1 DP (wie z. B. beim BenQ XL2420G) könnte ich damit gut leben.
Der BenQ ist ein gutes Stichwort, den müsste mal jemand zerpflücken. Dann sieht man gleich ob da etwas "neues" zum Einsatz kommt oder ob hier zweigleisig gefahren wird (G-Sync Modul und weiterer "Scaler").
Unicous
2015-01-04, 16:10:52
@Sunrise
Du hast nichts dergleichen "evtl." relativiert. Du hast meine Aussagen in den falschen Hals bekommen und mit 144Hz argumentiert (völlig an meiner Aussage vorbei). Das interessiert aber niemanden. Du hast dich verrannt aber weiter gemacht und behauptest jetzt Dinge, die du nicht beweisen kannst... ach nein halt, das könnte man sich ja ganz leicht ergoogleln, aber du bist dir leider zu fein die entsprechenden "Beweise" zu verlinken.:rolleyes:
Du hast behauptet ein ASIC würde sich "nicht mehr" lohnen. Diese Aussage hast du nicht einmal erläutert. Sie macht auch keinen Sinn. Warum sollte es sich nicht "mehr" lohnen? Gerade auf lange Zeit rentiert sich ein ASIC (oder auch mehrere). Deine Argumentationskette ist so dünn sie zerfällt vor deinen Augen.
Skysnake
2015-01-04, 16:14:04
Wenn es kein Problem wäre, warum gibt es dann noch keins in den Monitoren, nach über einem Jahr nach der G-Sync Vorstellung?
Jetzt wird sich hier um Begrifflichkeiten aufgeregt, aber niemand fragt sich mal die logischste aller Fragen, warum es - wenn es denn günstiger und so super einfach umzusetzen wäre - noch kein speziell dafür gegossenes ASIC gibt. Und genau hier wollte ich eigentlich ein wenig die Diskussion entfachen, aber stattdessen kommen Argumente wie Kosten. Wenn es wirklich um die Kostenfrage für NV ginge, dann hätte man schon längst einen ASIC aufgelegt. Scheinbar macht man das aber nicht, weil es dafür Gründe dagegen gibt.
Nach Unicous Aussagen verliert NV hier also bares Geld und subventioniert G-Sync weiterhin. Das erscheint mir nicht logisch, wenn man das Kostenproblem doch sofort mit dem Bau eines relativ inkomplexen ASIC auf einem älteren Fertigungsprozess lösen könnte. Das ergibt keinen Sinn für mich.
Ich lese relativ viele Reviews und stelle mir dann solche Fragen, vor allem unter dem Hintergrund, dass Petterson das vor über einem Jahr noch angekündigt hatte.
Ich habe aufgrund dessen die Vermutung geäußert, dass evtl. garkein günstiges ASIC mehr kommen wird. Möglicherweise irre ich mich, und in 2015 kommt tatsächlich nochwas, aber die obere Frage hätte ich eben gerne mal sachlich nachvollziehbar beantwortet.
Kosten sind halt DER ausschlaggebende Grund, für pro/contra FPGA. Wenn du nicht rund 100k-1 Mio Chips verkaufst, lohnt sich nen ASIC meist einfach nicht. Das musste einfach an Chips verkaufen, damits mit dem ASIC billiger wird. Die Frage ist halt, wieviele GSync Module hat denn nVidia verkauft? 1k? 10k? Mehr glaube ich nicht wirklich. Vor allem, wenn die Adaptive Sync Chips am Ende auch für Gsync genutzt werden können, man das aber eben nicht sagen will, dann nutzt man halt als Übergangszeit den FPGA, setzt kaum etwas ab, und macht danach sein Branding. Ist dann immer noch billiger, als wenn man selbst Hand anlegt, und etwas entwickelt.
akuji13
2015-01-04, 16:18:40
Der BenQ ist ein gutes Stichwort, den müsste mal jemand zerpflücken.
Wäre er nicht so schlecht gewesen und wäre noch hier hätte ich es getan. :D
Unicous
2015-01-04, 16:20:22
@Skysnake
100k? 1 Million?
Meinst du nicht eher 3 Billiarden?:rolleyes:
Deine Zahlen sind Humbug, ich wüsste auch nicht wie du darauf kommst. Haste die Zahlen schon wieder von IBS oder was?
Ein ASIC-Design in 65/45/40nm whatever kostet nicht die Welt, das lohnt sich schon ab ein paar zehntausend Chips. Die FPGAs die Nvidia in ihren Prototypen genutzt hat wurde unter 28nm hergestellt und ist auch deswegen so teuer.
Loeschzwerg
2015-01-04, 16:21:33
Wäre er nicht so schlecht gewesen und wäre noch hier hätte ich es getan. :D
Ich hab jetzt einfach mal bei BenQ angefragt :D Evtl. kommt was zurück.
Edit: Wobei ich vermute dass hier schlichtweg beides verbaut wurde, G-Sync und ein normaler Scaler. So bewirbt es BenQ zumindest (G-Sync and Classic Mode).
Sunrise
2015-01-04, 16:21:59
@Sunrise
Du hast nichts dergleichen "evtl." relativiert. Du hast meine Aussagen in den falschen Hals bekommen und mit 144Hz argumentiert (völlig an meiner Aussage vorbei). Das interessiert aber niemanden. Du hast dich verrannt aber weiter gemacht und behauptest jetzt Dinge, die du nicht beweisen kannst... ach nein halt, das könnte man sich ja ganz leicht ergoogleln, aber du bist dir leider zu fein die entsprechenden "Beweise" zu verlinken.:rolleyes:
Meine Posts stehen und die kann jeder nachlesen. Du bist einfach nicht informiert, und holst hier von anderen Informationen ein, die ich dir nicht liefern werde, weil ich die Faulheit 5 Minuten zu erübrigen und bei Google "RoG Swift PG278Q" und "G-Sync Module" einzugeben und danach zu suchen nicht unterstütze.
Du schreibst hier permanent Texte die Zeit kosten suchst aber nicht selbst, du lässt dir das lieber liefern. Und wenn dich das nicht interessiert, dann belasse es dabei. Wenn ich hier meine Links zur Hand hätte (schreibe auf meinem iPad) könnte ich es auch posten, aber stattdessen mal selbst zu suchen scheint ein Ding der Unmöglichkeit zu sein.
Sunrise
2015-01-04, 16:30:40
Kosten sind halt DER ausschlaggebende Grund, für pro/contra FPGA. Wenn du nicht rund 100k-1 Mio Chips verkaufst, lohnt sich nen ASIC meist einfach nicht. Das musste einfach an Chips verkaufen, damits mit dem ASIC billiger wird. Die Frage ist halt, wieviele GSync Module hat denn nVidia verkauft? 1k? 10k? Mehr glaube ich nicht wirklich. Vor allem, wenn die Adaptive Sync Chips am Ende auch für Gsync genutzt werden können, man das aber eben nicht sagen will, dann nutzt man halt als Übergangszeit den FPGA, setzt kaum etwas ab, und macht danach sein Branding. Ist dann immer noch billiger, als wenn man selbst Hand anlegt, und etwas entwickelt.
Warten wir mal weitere Reviews ab. Ich bin jedenfalls weiterhin skeptisch. Dass sich G-Sync in der Masse durchsetzt ist ja eigentlich fast schon auszuschließen, eben wegen dem hohen Preis der G-Sync Monitore und natürlich, weil es nur von NV unterstützt wird. Und dann empfinde ich das FPGA-Modul als notwendiges Übel.
Der BenQ ist ein gutes Stichwort, den müsste mal jemand zerpflücken. Dann sieht man gleich ob da etwas "neues" zum Einsatz kommt oder ob hier zweigleisig gefahren wird (G-Sync Modul und weiterer "Scaler").
Stimmt, das wäre interessant.
fondness
2015-01-04, 16:34:08
...und natürlich, weil es nur von NV unterstützt wird.
Solange NV FreeSync boykottiert ist das sogar ein Vorteil, da man mehr Marktanteile hat als die Konkurrenz. Dasselbe Spiel spielt man ja auch mit OpenCL. Sobald Nv FreeSync supportet ist G-Sync natürlich tot das ist klar.
Unicous
2015-01-04, 16:34:19
@Sunrise
Wie unververschämt. Ich habe sicherlich mehr "gegooglelt" zu dem Thema als du.
Seit wann ist eigentlich der ROG Swift der einzige G-Sync Monitor am Markt. Ist das der Stromhalm an den du dich klammerst?
Was passiert wenn ich die Sachen ergoogle? Ich sage es dir. Nichts. Niemand hat einen Swift auseinandergenommen und unter den Kühlkörper geguckt. Auch nicht bei den anderen Monitoren. Denkst du ich bin wirklich zu doof zum Googleln? Und jetzt kommst du. Zeige mir Fotos oder Beweise, dass ein G-Sync Monitor auseinandergenommen wurde, man den Kühlkörper entfernt und geschaut hat, was für einen IC sie da verwandt haben.
Ich habe nichts gefunden, du kannst mir gerne auf die Sprünge helfen, deine Google-Skills scheinen ja überragend zu sein. Diese Einstellung ist übrigens mehr als peinlich. Wenn man eine Quelle für seine Behauptungen hat, dann stellt man die auch zur Verfügung und sagt nicht, guck doch selbst:P.
Deinen Müll mit "Texte schreiben und nicht liefern" kannst du dir in die Haare schmieren. Hier und in anderen Threads liefere ich andauernd Quellen für meine Behauptungen.
Der einzige der "nicht informiert" ist, bist du. Denn du lieferst... nichts.
akuji13
2015-01-04, 18:30:34
Edit: Wobei ich vermute dass hier schlichtweg beides verbaut wurde, G-Sync und ein normaler Scaler. So bewirbt es BenQ zumindest (G-Sync and Classic Mode).
Ich hatte mich auch gefragt warum es im Gegensatz zum Swift diesen Modus gibt.
Niemand hat einen Swift auseinandergenommen und unter den Kühlkörper geguckt.
Was zahlt ihr denn wenn ich es mache? :D
Unicous
2015-01-04, 18:45:44
Standard-Internetwährung: Einen Keks.
:tongue:
hasebaer
2015-01-04, 18:55:50
IPS, 144Hz, G-Sync
http://www.computerbase.de/2015-01/acer-kombiniert-erstmals-ips-mit-144-hz-und-g-sync/
akuji13
2015-01-04, 19:44:02
Standard-Internetwährung: Einen Keks.
:tongue:
Ich habe einen besseren Vorschlag: ich mache es und verrate es keinem. :D
IPS, 144Hz, G-Sync
http://www.computerbase.de/2015-01/acer-kombiniert-erstmals-ips-mit-144-hz-und-g-sync/
Ich zitiere mich mal selbst aus dem CB-Forum:
Ich bleibe skeptisch.
Erstens sind 144Hz nicht automatisch ein Garant für eine scharfe Bewegtdarstellung (mein alter NEC 20WGX² hat selbst mit 60Hz weniger Unschärfe mein Qnix bei 120Hz) weil die Kombination aus panel+Elektronik wichtig ist.
Einem langsamen panel hilft auch keine Ansteuerung bei 120Hz.
Zweitens erwarte ich keinerlei Besserung in Sachen Schwarzdarstellung und IPS glow was für mich die wichtigsten Baustellen aktueller IPS Geräte sind.
Und drittens sind meine Erfahrungen mit Acer sehr schlecht.
aufkrawall
2015-01-04, 20:40:48
Einem langsamen panel hilft auch keine Ansteuerung bei 120Hz.
Mit Strobing schon. Der 120Hz Eizo war trotz lahmem VA-Panel durchs Strobing extrem schärfer bei Bewegtbild als ein TN 144Hz ohne Strobing.
Unterschied = Text lesbar in Bewegung.
hasebaer
2015-01-04, 21:27:34
Für mich ist es überhaupt erstmal schön, dass wer den Schritt hin zu IPS, 120Hz + X, WQHD + X und G-Sync geht. Andere werden folgen.
Wichtig wäre jetzt noch, ob das Gerät wenigstens einen zweiten Eingang hat.
Dabei wäre es mir egal ob der dann nur mit fixer Refreshrate rennt oder auch per V-Blanks.
akuji13
2015-01-05, 07:42:44
Mit Strobing schon. Der 120Hz Eizo war trotz lahmem VA-Panel durchs Strobing extrem schärfer bei Bewegtbild als ein TN 144Hz ohne Strobing.
Unterschied = Text lesbar in Bewegung.
Das mag für den Text gelten, aber wie du selbst weiß nicht für alle (Spiel)Inhalte.
"The only issue really with the response times of the FG2421 were those particularly slow transitions from black to dark grey shades"
http://www.tftcentral.co.uk/reviews/content/eizo_fg2421.htm#gaming
Der Swift war/ist bei entsprechendem content auch ohne ULMB, ja selbst ohne OD dort deutlich besser.
Z. B. in Skyrim des Nachts fallen die FG2421 Mängel extrem auf, hier sieht man Unschärfe die wohl jeder hochwertige 144Hz TN besser absolviert.
Gipsel
2015-01-05, 11:47:51
Bezüglich der Diskussion mit FPGA/ASIC und G-Sync, was ist denn die kostengünstigste Variante für nV? Im Prinzip das, was Skysnake schon angedeutet hat:
NVidia nutzt mit ihren GPUs im Prinzip den A-Sync-Standard und die entsprechend kompatiblem Scaler in den Monitoren (die es aufgrund der Massenfertigung als billige ASICS gibt), bastelt dazu aber in Absprache mit ausgewählten Monitorherstellern einfach einen Vendor-Lock und nennt das dann G-Sync. :rolleyes:
Aufgrund der relativen großen Ähnlichkeit zwischen A-Sync und G-Sync sollten A-Sync kompatible Scaler das zumindest mit den neueren nV-GPUs hinbekommen, auch wenn nV vielleicht etwas an ihrem Sync-Prozedere ändern müssen (Handshake und so, der eventuell nur mit älteren GPUs nötig ist). Der Nutzer wird so eine Umstellung kaum merken. Eventuell verkaufen Sie es uns ja auch als G-Sync 2.0, was ab Maxwell unterstützt wird. :wink:
Botcruscher
2015-01-05, 12:37:04
Ein kostenneutrales Exklusivfeature. NV trau ich das zu. Fett Marketing, ein Tweakpanel und die Kundschaft frisst das...
Unicous
2015-01-05, 13:13:44
Habe gerade eine PM gefunden, die aber irgendwie nur von wenigen unbekannten Seiten veröffentlicht wurde (vllt. zu früh?)
http://www.deccanchronicle.com/150105/technology-latest/article/amd-and-technology-partners-showcase-shipping-freesync-enabled
bzw. http://www.channeltimes.com/story/amd-and-tech-partners-showcase-worlds-first-shipping-freesync-enabled-displays-at-ces/
AMD announced the expansion of the FreeSync ecosystem as technology partners including BenQ, LG Electronics, Nixeus, Samsung, and Viewsonic showcased their upcoming commercially available FreeSync, enabled displays at the 2015 International CES.
http://images.channeltimes.com/2015/01/amd_series_HTp8U.png
@Gipsel
Das hatte ich ja auch schon spekuliert.
Kartenlehrling
2015-01-05, 13:25:35
Ich kann die ersten ausführliche und unabhängige Tests nicht mehr erwarten,
aber schon bei G-sync würde zu oft nicht genug "gebohrt" .... 2-3 vorzeige Spiele reingehauen und
dann "... ja toll kein Tearing und es fühlt sich geschmeidiger an, 45fps wie 60fps :), Empfehlung: Gekauft"
- Brauch man ein 144hz Monitor oder reicht ein 60hz und wenn ja kann ich auch mit mehr als 60fps spielen bei freesync Aktiverung?
-Wieviele FPS verliere ich gegenüber Vsync OFF
-Starten alle Spiele problemlos?
-Welchen FPS bereich ist am besten
-Was ist mit dem Maus-Inputlag im CS-go, besteht das auch unter Freesync
-Funktioniert Freesync nur unter Vollbild-Spieleeinstellung
-Und was passiert wenn ich raus-TABe aufs Desktop und wieder zurück?
-Beeinfluss es das Aufnehmen über AMD-VCE?
-Kann ich freesync freie Monitor zuschalten und wenn ja auch im Eyefinity?
Sunrise
2015-01-05, 13:47:21
...NVidia nutzt mit ihren GPUs im Prinzip den A-Sync-Standard und die entsprechend kompatiblem Scaler in den Monitoren (die es aufgrund der Massenfertigung als billige ASICS gibt), bastelt dazu aber in Absprache mit ausgewählten Monitorherstellern einfach einen Vendor-Lock und nennt das dann G-Sync. :rolleyes:...
Das wäre vor allem auch ein denkbarer Grund, erstmal nur das bekannte FPGA-Modul zu verbauen, weil man im Prinzip noch auf die ASICs aus der Massenfertigung für die Monitorhersteller wartet. Dann wäre ein eigenes ASIC von NV auch vollkommen unnötig.
Im Prinzip ja das, was ich sage, NV braucht evtl. garkein ASIC mehr. Der Vendor-Lock ohne Zusatzfeatures und ohne NV-seitige Unterstützung von FreeSync wäres allerdings bitter, das schmeckt sicher den Wenigsten. Hoffentlich passiert das nicht.
Ich kann die ersten ausführliche und unabhängige Tests nicht mehr erwarten
Die Informationslage darüber ist leider ziemlich dünn, das ist aktuell wirklich wenig hilfreich, das sollte sich aber hoffentlich mit FreeSync ändern. Hätte ich einen G-Sync-Monitor zur Verfügung würde ich das Ding sprichwörtlich auseinandernehmen. Achja, und Unicous hätte dann auch noch seinen Bilderbeweis, worauf er ja so scharf ist. :D
Kartenlehrling
2015-01-05, 13:47:51
In deiner Liste sind aber alle 144Hz auch TN Monitor, bei Nixeus wird es bestimmt der 3 Jahre alte VA-Panele sein wo es schon ein Korea-Modell gibt.
Unicous
2015-01-05, 13:51:12
@Sunrise
Wait what?:eek:
Willst du mich verarschen? Das habe ich doch die ganze Zeit gesagt. Sie könnten auf ein ASIC eines Herstellers wie Parade Tech o.a. zugreifen und so G-Sync realisieren. Wozu brauchen sie dann noch ein FPGA?
Es ist doch scheiß egal, ab wann sie das machen, du hast generell ein ASIC ausgeschlossen und darauf gepocht, dass weiterhin der FPGA verwandt wird.
Tss.
edit: Kannst du mal dein peinliches Stänkern unterlassen. Du stellst Tatsachenbehauptungen auf und bringst keine Beweise wenn man es anzweifelt und trittst weiter nach ohne jeglichen Grund. Die "Bringschuld" ist weiterhin auf deiner Seite.
@Kartenlehrling
Meine Liste?
Offizielle PM von AMD
http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-newsArticle&ID=2002910
fondness
2015-01-05, 15:18:21
Too late.
Sunrise
2015-01-05, 15:19:26
@Unicous:
Es ging die ganze Zeit um den NV eigenen ASIC, der von NV bei der Einführung in Aussicht gestellt wurde:
NV wird da mit ziemlicher Sicherheit kein eigenes ASIC mehr bringen...
@Sunrise
Eine eigenes ASIC ist unnötig?:eek: Seit wann?:confused:...
Und wenn du was anderes meinst, steht das nirgends. Die Erklärung von Gipsel versteht jeder sofort auf Anhieb.
Wenn du unbedingt Beweise für das Vorhandensein eines FPGAs willst, es steht sowohl im Techreport-Review vom ASUS SWIFT drin (was an sich noch nicht 100% ist, von dir kam aber nichts, was mich vom Gegenteil überzeugt hat) und es besteht noch die Möglichkeit, einen zu zerlegen. Wir können gerne wetten und du überweist mir die Hälfte vom Geld, ich mache ihn auf, und falls ein FPGA drin ist, behalte ich ihn. Andersrum bekommst du ihn. Ist das wirklich dein Ernst? Ein Mann ein Wort.
Loeschzwerg
2015-01-05, 15:20:51
Wenn ich den Verlauf anschaue habt ihr einfach nur aneinander vorbeigeredet und die gegenseitigen Aussagen ignoriert :D
Von BenQ kam leider noch keine Aussage... :( Hat wohl noch keiner in den Twitter Kanal von denen geschaut.
http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-newsArticle&ID=2002901
Neben FreeSync für mich am interessantesten:
Also at CES, AMD will demo various embedded solutions powered by AMD Embedded processors, including Gizmo 2, an open source development board offering outstanding compute and graphics performance for embedded programmers and advanced DIYers; BioDigitalPC, a credit card-sized x86 PC designed for multiple vertical markets; and ThinLabs All-In-One POE Thin Client, ideal for digital signage and point of sale systems.
Da tut sich endlich auch etwas mehr :)
fondness
2015-01-05, 15:39:25
Hier nochmal offiziell die Liste der Displays:
http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-newsArticle&ID=2002910
http://s22.postimg.org/50jsnadtd/Unbenannt.jpg (http://postimage.org/)
Displays are expected to be available in market starting this month with additional models set to launch in early 2015.
Bis auf das BenQ-Modell und die schon bekannten Samsungs sieht das leider erst mal recht langweilig aus...
M4xw0lf
2015-01-05, 15:47:20
Dafür, dass Angebot und Vielfalt aus dem Stand mit G-Sync mindestens gleichziehen, finde ich "recht langweilig" etwas zu negativ ;)
fondness
2015-01-05, 15:49:05
BenQ XL2730Z mit FreeSync:
http://www.eteknix.com/benq-announces-wide-quad-high-definition-xl2730z-27-gaming-monitor/
http://s22.postimg.org/6kybd60z5/Ben_Q_XL2730_Z.jpg (http://postimage.org/)
Unicous
2015-01-05, 15:52:29
@Unicous:
Es ging die ganze Zeit um den NV eigenen ASIC, der von NV bei der Einführung in Aussicht gestellt wurde:
Und wenn du was anderes meinst, steht das nirgends. Die Erklärung von Gipsel versteht jeder sofort auf Anhieb.
Wenn du unbedingt Beweise für das Vorhandensein eines FPGAs willst, es steht sowohl im Techreport-Review vom ASUS SWIFT drin (was an sich noch nicht 100% ist, von dir kam aber nichts, was mich vom Gegenteil überzeugt hat) und es besteht noch die Möglichkeit, einen zu zerlegen. Wir können gerne wetten und du überweist mir die Hälfte vom Geld, ich mache ihn auf, und falls ein FPGA drin ist, behalte ich ihn. Andersrum bekommst du ihn. Ist das wirklich dein Ernst? Ein Mann ein Wort.
Du bist kein Mann. Du bist ein Avatar eines anonymen Schreiberlings. Ich kenne dich nicht, daher kann ich dich nicht beim Wort nehmen.
Ich sprach die ganze Zeit von einem ASIC. Wo der herkommt ist egal. Habe ich auch mehrfach erläutert, dass Nvidia sich den ASIC von einem der Hersteller modifizieren lassen kann... wie z.B. Apple. Steht alles in diesem Thread. Im Tech Report Artikel steht im Übrigen auch diese Perle
Well, I didn't expect to see the PG278Q running ahead of our ASIC-free reference unit.
ASIC-frei...aha. Ich mag Scott Wasson, aber das ist ein einwandfreier brain fart.
Es ist völlig unerheblich ob im ROG Swift ein FPGA ist oder nicht. Es gibt noch noch andere G-Sync fähige Monitore, falls es dir nicht aufgefallen ist. Warum hängst du dich also an dem Swift auf? Weil du ein Foto des Moduls mit dem Kühlkörper gesehen hast? Es ist auch völlig unerheblich ob in den 2014 vorgestellten G-Sync Monitoren ein FPGA drin ist. Es ging mir explizit um den Acer und andere Monitore die 2015 vorgestellt wurden. Der BenQ hat auch ewig gebraucht. Vllt. hat er ja bereits ein ASIC. Vllt. auch nicht.
Um den Teufelskreis zu nicht zu verlassen: "Nötig" wäre ein ASIC auf lange Sicht auf jeden Fall. Die Kosten.
@BenQ
Gaming Refresh-rate Optimization Management (GROM)
Say whuat?;D (Oh, das ist gar nicht neu sondern diesen tolle Namen gibt es schon eine Weile...muahahaha)
Kartenlehrling
2015-01-05, 15:55:04
Wieso kann benQ nicht in den SW2401PT freesync reinstecken?
Da würde mir auch 60-80hz reichen.
Der sieht wirklich toll aus.
http://www.legitreviews.com/wp-content/uploads/2014/12/BenQ_SW2401PT-645x362.jpg
http://www.legitreviews.com/benq-announces-new-product-lineup-2015-international-ces_155569
dargo
2015-01-05, 15:57:42
Habe gerade eine PM gefunden, die aber irgendwie nur von wenigen unbekannten Seiten veröffentlicht wurde (vllt. zu früh?)
http://www.deccanchronicle.com/150105/technology-latest/article/amd-and-technology-partners-showcase-shipping-freesync-enabled
bzw. http://www.channeltimes.com/story/amd-and-tech-partners-showcase-worlds-first-shipping-freesync-enabled-displays-at-ces/
http://images.channeltimes.com/2015/01/amd_series_HTp8U.png
@Gipsel
Das hatte ich ja auch schon spekuliert.
Huch... sehe zum ersten Mal, dass 75Hz beworben werden. VA?
Unicous
2015-01-05, 15:58:55
Gefällt mir übrigens, dass BenQ es neutral Adaptive Sync nennt. Vllt. auch um Nvidia nicht zu verärgern.:tongue:
aufkrawall
2015-01-05, 16:23:22
BenQ XL2730Z mit FreeSync:
http://www.eteknix.com/benq-announces-wide-quad-high-definition-xl2730z-27-gaming-monitor/
http://s22.postimg.org/6kybd60z5/Ben_Q_XL2730_Z.jpg (http://postimage.org/)
1ms aka TN. Also nur ein Äquivalent zum ROG, aber besser als nichts.
Hoffentlich mit Strobing.
fondness
2015-01-05, 16:25:40
1ms aka TN. Also nur ein Äquivalent zum ROG, aber besser als nichts.
Hoffentlich mit Strobing.
144Hz IPS Panels gibt es eben noch nicht, werden aber sobald verfügbar mit Sicherheit auch mit FreeSync erscheinen.
Interessant wird vor allem der Preis im Verhältnis zum ROG, der noch immer ein kleines Vermögen kostet.
akuji13
2015-01-05, 17:20:58
Dafür, dass Angebot und Vielfalt aus dem Stand mit G-Sync mindestens gleichziehen, finde ich "recht langweilig" etwas zu negativ ;)
Gefällt dir "armselig" besser? :D
Man hatte viel mehr Zeit in die Hufe zu kommen, also ist das lineup nix besonderes.
M4xw0lf
2015-01-05, 17:24:00
Wenn es keine tolleren Panels gibt, was soll dann bitte aufregendes kommen?
mboeller
2015-01-05, 18:51:24
Gefällt dir "armselig" besser? :D
Man hatte viel mehr Zeit in die Hufe zu kommen, also ist das lineup nix besonderes.
Mehr Zeit? Wieso?
Unicous
2015-01-05, 18:56:31
AMD und VESA hatten doch genug Zeit (1 Jahr) die komplette Monitor-Industrie umzukrempeln, genau wie Nvidia es ja schon geschafft hat.
...
Ach nein, stimmt ja gar nicht. Beides sind weiterhin Nischenprodukte (das eine auf dem Markt, das andere in Kürze) und nur die Freaks interessieren sich für IPS, 144Hz und Co..
Man müsste auch schon mal die Realität mit hinzuziehen bei solchen Überlegungen, akuji13.
Dennoch muss man schon sagen, dass es mir zuviel Standardkost ist. Und da AMD das lineup für die CES schon verraten hat, kommt da wohl auch nicht mehr viel.:frown:
ROFL
BenQ hatte schon Mitte Dezember den XL2730Z (mit "adaptive sync function") angekündigt, aber es nicht für nötig befunden, das auch etwas ausführlicher zu präsentieren. Ein Schelm der Böses denkt.
http://www.benq.us/news/2014/BenQ-Announces-New-Product-Lineup-for-the-2015-International-CES
aufkrawall
2015-01-05, 19:06:35
Was sollen denn jetzt die langen Mundwinkel hier?
Es sind doch nicht alles TN-Panel, oder doch?
Unicous
2015-01-05, 19:10:21
Die LG müssten IPS sein. Aber ich persönlich hätte gerne einen IPS@1080p@24" und kein TN-Schund (bzw. wenigstens etwas VA-mäßiges)
aufkrawall
2015-01-05, 19:14:43
Und die Samsung 4ks? Hab ich noch nichts zu gelesen.
Warum jetzt noch 1080p als Spiele-Monitor kaufen? Das sieht einfach nur eklig im Vergleich zu 4k (und selbst 1440p) aus und A-Sync sollte die niedrigeren fps um Einiges erträglicher machen.
Unicous
2015-01-05, 19:22:07
Ja, die Samsung sind N/A, deswegen kann man dazu nichts sagen.
Da ich wegen Nvidia und AMD wohl doch erst 2016 wieder ein richtiges Update mache, überlege ich noch hin und her. Für ordentliches 4K reicht aber momentan einfach nicht das Budget. Eine Zwischenlösung, die ich dann in die Verwandt-/Bekannschaft überführen kann erscheint mir da die beste Möglichkeit.
aufkrawall
2015-01-05, 19:29:30
Ich hätt hier noch nen Qnix stehen... :biggrin:
Muss auch erstmal ein bisschen sparen. Schätze, der 144Hz IPS wird nicht ganz billig.
Von dem erwarte ich aber auch nahe 100% sRGB, 10 Bit, <=8ms Input Lag, höchstens reale ~8ms Reaktionszeit mit brauchbarem Overdrive, Kontrast von >1000:1, PWM-frei, Schwarzwert möglichst unabhängig von Helligkeitseinstellung, möglichst alle Bildparameter frei regelbar, Glow nicht stärker als beim Qnix, kein Backlightbleeding, AH-IPS/PLS typische Blickwinkeleigenschaften oder besser & Strobing (am besten bei 144Hz).
Dann dürfens 800€ sein.
Unicous
2015-01-05, 19:34:15
Roy Taylor behauptet, der BenQ sei IPS... und da AU Optronics eine Tochter von BenQ ist, wäre es wahrscheinlich das gleiche Panel , dass auch Acer benutzt.
Also wäre Acer gar nicht die erste Firma die ein 1440p@144Hz@IPS angekündigt hätte sondern...BenQ.:freak:
https://twitter.com/amd_roy/status/552165728439111681
aufkrawall
2015-01-05, 19:36:43
IGZO, die neue Wundertechnik?
Vereinfacht dann nur "IPS"?
Unicous
2015-01-05, 19:38:47
Was meinst du?
Das geteaserte AU Optronics Panel ist AHVA, ihre Variante von IPS.
http://www.pcgameshardware.de/LCD-Hardware-154105/News/27-Zoll-IPS-1440p-144-Hertz-Panel-1135417/
Schön zu sehen auch hier:
http://geizhals.eu/?cat=monlcd19wide&xf=106_IPS+%28AHVA%29#xf_top
IPS(AHVA)
Acer hat 3 Modelle, alle 27", BenQ ihr eines Modell. Asus und Philips auch jeweils eines (Ups, verguckt, das ist ein 4K Modell...sicherlich auch von AUO). Umkehrschluss: Alle nutzen das AHVA-Panel von Au Optronics, das mE im BenQ debütierte.
aufkrawall
2015-01-05, 19:45:26
Ah, IGZO ist Sharp-only?
Ich frag mich nur, wie man auf einmal 1ms GtG mit IPS hinbekommen haben will. Die TNs mit der Angabe waren zwar real auch meist ein gutes Stück davon entfernt, aber eine Verbesserung wird es wohl gegeben haben.
Irgendwie will ich noch nicht so ganz ans neue Über-Panel glauben...
Unicous
2015-01-05, 19:50:03
Tja, es ist ja auch "nur" IPS ähnlich. Der Kontrast ist z.B. bescheiden und liegt bie 1000:1. Man schreibt aber gerne "IPS-type", IPS-ähnlich oder eben IPS(AHVA). Hat eigene Pros und Contras
http://www.tftcentral.co.uk/articles/content/panel_technologies_content.htm#ahva
Was die Response Time angeht... wage ich das noch zu bezweifeln mit welchen Kunststücken das erreicht werden soll, bzw. wie das real aussieht. Besser als die heutigen IPS-Panels wird es aber sicherlich sein, die Entwicklung bleibt ja nicht stehen.
Und ja, IGZO ist SHARP only (bzw. gibt es glaube ich Vertragsfertiger...Foxconn??? bin mir da aber nicht sicher)
horn 12
2015-01-05, 19:54:17
http://www.hardwareluxx.de/index.php/news/hardware/monitore/33803-lg-zeigt-219-widescreen-freesync.html
LG startet die Vorstellung des LG 21:9 Monitors inkl. Freesync.
Hoffe heute, speziell morgen wird noch ein wichtiger Tag fuer AMD
Unicous
2015-01-05, 20:16:02
Ich habe mal bei panellook.com gestöbert
http://www.panelook.com/modelsearch.php?pagesize=50&order=panel_id&panel_type=&product_composition=&brand_family=&panel_size_inch=31.5&resolution_pixels=38402160&brightness=-1&gray_depth=&viewing_angle_function=&lamp_type=&signal_type_category=&rohs_compliance=&button=Search
Für 31,5" und "4K" Auflösungen gibt es (fast) nur IGZO Panels von SHARP.
Samsung hat aktuell einen UHD "IPS(PLS)" Monitor im Angebot mit einem Kontrast-Verhältnis von 1000:1 (das einzige TN(ASV)-Panel kann aber nur 800:1). Es könnte also unter Umständen sein, dass Samsung IGZO-Panels zumindest bei der 31,5 Zoll Version nutzt.
Edit: Vllt. auch ein Schuss ins Blaue, laut TFTCentral produziert Samsung auch ein IPS/PLS Panel...aber dennoch zumindest PLS.
http://www.tftcentral.co.uk/articles/monitor_panel_parts.htm
edit:
Andererseits ist gibt es nur ein 23,6" 4K Panel von SHARP(IGZO) laut TFTCentral und auch bei panellook.com
http://www.panelook.com/LQ236D1JG01_SHARP_23.6_LCM_overview_23618.html
Da Samsung ja schon eine Weile Kohle in SHARP pumpt und auch an IGZO forscht, wäre das mE doch nicht so abwegig.
Screemer
2015-01-05, 20:37:02
Sollte im nixes wirklich das "alte" Samsung panle verbaut werden, dann bleibt für alle Korea-Monitor Besitzer die Hoffnung auf einen einfach nachrüstbaren Elektronik-Kit. Ich würde mich sehr freuen. Hab ja meinen Koreaner am Anfang des threads schon mal getestet und festgestellt, dass das panel, ich glaube es waren, 25Hz problemlos mitmacht.
Unicous
2015-01-05, 20:49:28
ASUS MG279Q WQHD Gaming Monitor with 120Hz IPS Panel (http://www.pcper.com/news/CES-2015-ASUS-MG279Q-WQHD-Gaming-Monitor-120Hz-IPS-Panel)
One more thing...
While officially only listing a generic "DisplayPort" input, this may actually supports DP 1.2a Plus. What does this mean? At least on paper that would indicate that this monitor would offer AdaptiveSync / FreeSync support. We could also pretty safely assume that a WQHD monitor without G-SYNC will be priced considerably lower than an ROG Swift. It's all very interesting...
Keine Ahnung ob das wirklich stimmt.
Loeschzwerg
2015-01-05, 20:51:56
Da Samsung ja schon eine Weile Kohle in SHARP pumpt und auch an IGZO forscht, wäre das mE doch nicht so abwegig.
Zu der schnellen Sorte haben die IGZO Panels bis jetzt noch nicht gezählt, aber es wäre durchaus eine Bereicherung wenn die Samsung Monitore damit kommen würden.
Unicous
2015-01-05, 20:54:11
http://www.legitreviews.com/asus-announces-new-gaming-products-ces-2015_156309
Einen neuen G-Sync Monitor gibt es auch
ROG Swift PG27AQ 4K IPS Gaming Monitor
ROG’s gaming products are forged for ultimate gaming perfection and a shining star of the ROG’s CES stand is Swift PG27AQ features stunning 3840 x 2160-pixel 4K/UHD resolution. With an in-plane switching (IPS Technology) panel for wide viewing angles, a superb 1000:1 contrast ratio and 300 cd/m² brightness for true-to-life gaming,. The 27-inch LED-backlit display features NVIDIA G-SYNC technology to synchronizes its refresh rates to the computer’s graphics-processing unit (GPU), eliminating screen tearing and minimizing stutter and input lag to deliver the smoothest gaming experience possible. Swift PG27AQ also includes an easy-to-navigate on-screen display (OSD) with a five-way navigation joystick and hotkey shortcuts, an ergonomic design with full tilt, swivel, pivot and height adjustment, and a smart cable-management system in a super narrow bezel design.
http://www.pcper.com/news/Displays/CES-2015-We-Just-Spotted-ASUS-PG27AQ-4K-60-Hz-IPS-G-Sync-Monitor
http://www.pcper.com/files/news/2015-01-05/pg27rq-1.jpg
Und weiterhin nur (ein?) DP-Port.:rolleyes:
http://www.pcper.com/files/news/2015-01-05/pg27rq-2.jpg
aufkrawall
2015-01-05, 21:03:05
Goil, die Qual der Wahl zwischen 144Hz oder 4k. =)
Tippe auf PLS und Samsung bringt einen Monitor mit dem gleichen Panel und A-Sync.
Loeschzwerg
2015-01-05, 21:34:29
Goil, die Qual der Wahl zwischen 144Hz oder 4k. =)
Tippe auf PLS und Samsung bringt einen Monitor mit dem gleichen Panel und A-Sync.
Im Hinblick auf die Performance aktueller Grafikkarten eher WQHD o.ä. und viele Hz :D
Oder aber gleich 4k für die Zukunft... ich kann mich nicht entscheiden :freak: Zefix!
aufkrawall
2015-01-05, 21:42:22
Allerdings soll es den Asus erst in H2 2015 zu kaufen geben.
Mandalore
2015-01-05, 21:44:07
Wieso kann es eigentlich net einen Monitor geben der zB bei WQHD 144Hz rausgibt und wenn man halt 4K nutzt nur 60Hz...
akuji13
2015-01-05, 22:17:32
Was sollen denn jetzt die langen Mundwinkel hier?
Es sind doch nicht alles TN-Panel, oder doch?
Das liegt wohl daran das die Gleichung IPS = geiles Bild nicht automatisch aufgeht.
Glow nicht stärker als beim Qnix
Der war gut. :D
Die Qnix sind doch Martkführer in der Disziplin, nur leider nicht im positiven Sinn.
robbitop
2015-01-05, 22:25:29
4K + IPS + G-Sync + ROG Qualität? :O Gekauft! Dazu bitte noch 2x GM200!
Für Spiele sind 144 Hz IMO nicht so wichtig, wenn man G-Sync hat, wenn man wie ich BQ Fetischist ist und sich eh < 60 fps bewegt.
aufkrawall
2015-01-05, 22:25:37
Hat langsam jeder kapiert, dass du Schrott-Blickwinkel Glow vorziehst. Such dir wen anders für deinen bescheuerten Glaubenskrieg.
Unicous
2015-01-05, 22:25:47
@akuji13
Ich habe mal deine (inzwischen) gelöschten Zitate gefixed
G-Sync gibts seit Monaten.
AMD hätte es ja auch schaffen können ihre Lösung vor G-Sync am Markt zu haben.
Die Realität führt mich zu der Frage warum AMD nicht mehr Druck/Begeisterung bei den Herstellern entfachen konnte für ihre einfachere und günstigere Lösung und sie dadurch schneller auf den Markt zu bekommen.
G-Sync gibts seit Monaten.
Nvidia hätte es ja auch schaffen können ihre Lösung am Markt zu etablieren.
Die Realität führt mich zu der Frage warum Nvidia nicht mehr Druck/Begeisterung bei den Herstellern entfachen konnte für ihre einfachere und günstigere Lösung und sie dadurch schneller auf den Markt zu bekommen.
G-Sync wurde Ende 2013 angekündigt, die Marktduchdringung ist leider weiterhin bescheiden (bei FreeSync liegt sie noch bei 0.00%), auch die Nachfrage kann zumindest in den USA nicht wirklich befriedigt werden.
Ich nenne so etwas halbherzig dahingerotzt. Warum kann Nvidia nicht bei jedem wichtigen Hersteller (besonders LG und Samsung als Marktführer) ein G-Sync Modell anbieten?
Warum ist AMD der Prügelknabe? Warum hat Nvidia nicht mit VESA zusammengearbeitet und warum mussten sie extensive Investitionen betreiben, wenn AMD einfach nur lieb gucken musste und Bitte sagen?
akuji13
2015-01-05, 22:44:41
Ich habe mal deine (inzwischen) gelöschten Zitate gefixed
Warum?
Ich wollte das Thema damit beenden weil wir auf keinen gemeinsamen Nenner kommen werden.
G-Sync wurde Ende 2013 angekündigt, die Marktduchdringung ist leider weiterhin bescheiden (bei FreeSync liegt sie noch bei 0.00%), auch die Nachfrage kann zumindest in den USA nicht wirklich befriedigt werden.
"Bescheiden" ist noch viel zu positiv, "beschissen" trifft es besser.
Und das wird sich nicht mehr ändern.
Ich nenne so etwas halbherzig dahingerotzt. Warum kann Nvidia nicht bei jedem wichtigen Hersteller (besonders LG und Samsung als Marktführer) ein G-Sync Modell anbieten?
Die wollten vermutlich gar nicht.
Die wissen doch auch das G-Sync immer eine Nische bleiben wird.
Warum ist AMD der Prügelknabe?
Weil AMD momentan immer hinterher hinkt und besser werden muss damit Bewegung in den Markt kommt.
Leistung durch Druck.
NV´s Stärke kommt ja zu großen Teilen nicht aus eigener Leistung, sondern weil AMD seit Jahren vieles verbockt und erst jetzt anfängt umzudenken.
Warum hat Nvidia nicht mit VESA zusammengearbeitet und warum mussten sie extensive Investitionen betreiben, wenn AMD einfach nur lieb gucken musste und Bitte sagen?
Wer sagt das AMD nur lieb guckt?
Niemand weiß ob nicht vielleicht auch Geld fließt.
NV ist entweder zu doof gewesen und hat nicht geglaubt das eine Änderung so einfach machbar ist oder sie machen es so, weil sie es wollen.
Um ein Zeichen zu setzen nach dem Motto "Wir können das!".
Da spielt Geld keine Rolle.
Und davon haben sich mMn genug.
Hat langsam jeder kapiert, dass du Schrott-Blickwinkel Glow vorziehst. Such dir wen anders für deinen bescheuerten Glaubenskrieg.
Deshalb habe ich hier jetzt auch einen HP Z27x stehen. :D
(Neben einem Eizo IPS, einem NEC IPS, einem Qnix IPS und nur 1 TN).
Ich ziehe Monitore vor die mir die Bildqualität eine Modells aus dem Jahre 2006 bieten können, du lässt dich lieber mit schrottigen IPS abspeisen die per features gepimpt werden. ;)
aufkrawall
2015-01-05, 22:52:50
Hab lieber nicht so eine große Klappe, wenn noch niemand auch nur einen Monitor mit besagtem AHVA-Panel gesehen hat. Könntest sonst möchtegern-elitär wirken.
akuji13
2015-01-05, 23:00:51
Man möge es mir verzeihen das mir nach fast 10 Jahren und hunderten TFT´s der Glaube fehlt das nun das panel auf den Markt kommt das die Probleme beseitigt ohne andere aufzuwerfen. ;)
Kriton
2015-01-05, 23:04:07
Weil AMD momentan immer hinterher hinkt und besser werden muss damit Bewegung in den Markt kommt.
Leistung durch Druck.
Eyefinity. TrueAudio.
Unicous
2015-01-05, 23:05:50
Jaja, der Glaube. Es wird ja auch keine (4K) IPS Panels mit Freesync geben.:rolleyes: Das geht ja gar nicht. Wo ist eigentlich PHuV wenn man ihn mal braucht?
akuji13
2015-01-05, 23:09:01
Eyefinity. TrueAudio.
Und wieviel Druck AMD damit ausübt sehen wir an der Marktverteilung. ;)
Jaja, der Glaube. Es wird ja auch keine (4K) IPS Panels mit Freesync geben.:rolleyes: Das geht ja gar nicht. Wo ist eigentlich PHuV wenn man ihn mal braucht?
Na damit kann ich nicht gemeint sein, 4K interessiert mich nämlich 0.
"Glaube" gehört in die Kirche, Fakten sind gefragt und da gibt es seitens des panels nix.
Ich würde mir ja sogar wünschen das meine Befürchtungen falsch sind.
Dann könnte ich hier ausmisten und ihr hättet eure Ruhe. :D
Kriton
2015-01-05, 23:23:24
Und wieviel Druck AMD damit ausübt sehen wir an der Marktverteilung. ;)
Der Punkt ist, dass sie nicht immer hinterher hinken. Sie setzen andere Themen als Nvidia. Und was den Druck angeht schau Dir Matrox an (mit AMD-Chips) oder Apple (mit AMD-Chips, wenn auch wohl eher wegen OpenGL).
Ja, Nvidia steht besser da, aber Dein Absolutismus "immer hinterher hinkt" ist IMHO einfach falsch. Nur darum ging es mir.
Wenn Du Druck willst, dann frage Dich ob wir dieses Jahr DX12 hätten ohne Mantle.
Unicous
2015-01-05, 23:26:06
@akuji13
Du hast den Glauben verloren...glaubst aber es besser zu wissen, weil "10 Jahre" dich eines Besseren belehrt haben.
Ich finde man sollte nicht immer glauben alles besser zu wissen aber gleichzeitig z.B. verlangen, dass sich die Industrie innerhalb eines Jahres komplett umkrempelt und wenn das nicht geschieht einen Sündenbock zu finden. Die Industrie ist träge. Es lässt sich auch nicht viel verdienen. Höhere Margen und geringere Ausfälle bekommt man bei mobilen Geräten oder fetten Fernsehern für ein paar Tausend Euro.
Die Masse kauft sich einen 100 Euro Monitor aber einen 1000 Euro Fernseher. So sieht die Realität einfach mal aus.
Man muss froh sein, dass bei der Entwicklung auch noch etwas Geld für Monitore übrig bleibt.
"Peter Nixeus" von Nixeus behauptet übrigens, dass die Freesync Demo "echt" war.
The one at Computex was a real Freesync Demo with variable refresh rates - which journalists who have seen it in person can verify that Freesync is real and working.
Und noch andere Modelle sollen kommen.
Yes, 24" 1080p 144Hz will be our first Freesync solution shipping in 2015... We are currently working on other models, too.
http://www.overclock.net/t/1534242/amd-amd-brings-the-future-of-computing-to-life-at-2015-international-ces/10#post_23367431
War das nicht auch ein 27"er bei der Computex? Der 24"er ist übrigens TN.:rolleyes:
fondness
2015-01-05, 23:47:35
Roy Taylor behauptet, der BenQ sei IPS... und da AU Optronics eine Tochter von BenQ ist, wäre es wahrscheinlich das gleiche Panel , dass auch Acer benutzt.
Also wäre Acer gar nicht die erste Firma die ein 1440p@144Hz@IPS angekündigt hätte sondern...BenQ.:freak:
https://twitter.com/amd_roy/status/552165728439111681
Nice, mit QHD, 27", 144Hz und IPS ist das Ding natürlich ein sehr geiler Monitor. Ich werde trotzdem den Samsung 4K + IPS @ 60Hz nehmen^^
Und was G-Sync betrifft: Wer Nvidia gerne noch mal 100EUR in den Arsch schieben will und auf eine tote Technik setzen will bitte. Für alle anderen ist eine FreeSync-Monitor das einzig vernünftige. Die Chance das NV über kurz oder lang umschwenkt ist nicht gerade gering. ;)
Kartenlehrling
2015-01-06, 00:30:35
"Peter Nixeus" von Nixeus behauptet übrigens, dass die Freesync Demo "echt" war.
Viel wichtiger ist wohl das der von mir schon verlinke NX-VUE27D der nur einen DP-Anschluss hat freesync "könnte" aber wohl kein update bekommt. (JAJA)
Peter Nixeus
Hardware Rep
You have a good eye! The picture you referenced is our NX-VUE27 (multi-input model) which is not the correct one.
The Computex Freesync Demo monitor is our NX-VUE27D shown here:
http://www.nixeus.com/?product=nixeus-vue-27d
We have been one of AMD's Freesync development partners since early last year.
The main reason why we never made it public before is to prevent market confusion.
We did not want existing and future customers buying the NX-VUE27D assuming we will update it to become Freesync enabled.
Also, we will not be providing an optional Freesync firmware updates for the NX-VUE27D for current and future owners of the NX-VUE27D.
We are currently developing a 2560x1440 Freesync Monitor which we will announce at a future date.
Thank-you for understanding and we appreciate your patience.
We are shipping a 24" 1080p solution first for 2015.
Unicous
2015-01-06, 00:36:56
Da steht das genaue Gegenteil. ;)
Edit. Du hast es inzwischen auch bemerkt.
Mancko
2015-01-06, 01:54:56
Nice, mit QHD, 27", 144Hz und IPS ist das Ding natürlich ein sehr geiler Monitor. Ich werde trotzdem den Samsung 4K + IPS @ 60Hz nehmen^^
Und was G-Sync betrifft: Wer Nvidia gerne noch mal 100EUR in den Arsch schieben will und auf eine tote Technik setzen will bitte. Für alle anderen ist eine FreeSync-Monitor das einzig vernünftige. Die Chance das NV über kurz oder lang umschwenkt ist nicht gerade gering. ;)
Warum? Ich glaube gar nicht, dass sie das Feature massentauglich machen wollen. Soll wohl eher für die Performance und Enthusiast Kundschaft sein. Im Endeffekt hat auch Nvidia hier alles in der Hand. Sie haben genug Geld um ihren eigenen Weg zu gehen und wenn sie Adaptive Synch nicht unterstützen, dann halt nicht. Dann bleibts bei Monitoren für AMD Grafikkarten. Bei der aktuellen Marktverteilung würde ich, wenn ich Nvidia wäre, genau diese Nummer fahren. Sie haben genug Geld, eine ordentliche Marke um die Nummer durchzuziehen. Sie wollen ihr eigenes Ökosystem und m.E. sollten sie genau daran weiter arbeiten. Das ist die beste Geschäftssicherung und Kundenbindung die man machen kann. Klares Ziel ist AMD Kunden wegzunehmen und die Kunden immer mehr dazu zu bringen auch bei Nvidia zu bleiben. Diese ganzen OpenSource und Standard und bla Träumereien sind eh was für gestern. Abgrenzen und Abhängigkeiten schaffen. Das muss das Kernziel sein. So drängt man Konkurrenz weg.
Unicous
2015-01-06, 02:36:47
Dieses "Feature" könnte jedem zur Verfügung stehen. Es könnte in jeden moderneren und nicht für den Billig-Markt produzierten Monitor implementiert werden. An stattdessen gibt es wieder eine unnötige Aufteilung des Marktes, weil Nvidia den Kuchen am liebsten alleine essen möchte und keine Mitesser duldet.
Nvidia hat nicht Beste für den Gamer im Sinn. Sie wollen einfach Geld verdienen mit ihrem vendor lock-in. Das funktioniert solange, bis es eine bessere oder zumindest günstigere Alternative gibt.
Ob das Freesync ist, kann man noch nicht sagen. Und auch AMD will am Ende nur Geld verdienen. Aber AMD ist hier den deutlich schwierigeren Weg gegangen. Sie haben mit Hilfe von VESA eine Spec erarbeitet an der alle teilhaben können. Sie sind keine knights in shining armor, aber sie haben mE einmal das Richtige getan und es auch noch durchgesetzt bekommen.
Mit so einer Trivialität Geld zu verdienen ist einfach nur perfide und sich dann als großer Erneuerer der Landschaft darzustellen.
Für mich ist G-Sync ein Statement und das lautet: Fickt euch. Wir kümmern uns nur um unsere Pfründe und ihr Gamer und gemeines Volk seid nichts weiter als Melkkühe.
AMD entwickelt seit jeher Technologien bei denen auch Nvidia profitiert. Genauso Intel. Ich wüsste nicht, dass Nvidia für GDDR5 an Joe Macri Lizenzgebühren zahlen müsste, oder für die Pionierarbeit bei HBM.
Nvidia profitiert von diesen offenen Industriestandards, warum können sie da nicht einfach mal zurückgeben (ist natürlich übertrieben, sie arbeiten auch in vielen Gremien mit). Und am Ende stellen sie sich als die alleinige Innovationskraft im Grafik/-Monitor/Mobil-Bereich da.
Dieses arrogante und janusköpfig-gönnerische Verhalten dem Kunden und der Industrie gegenüber stößt mir seit langem sauer auf und ich bin langer Nvidia-Nutzer, seit meinem ersten eigenen PC.
G-Sync ist nichts womit man Kohle machen müsste. Das könnte man den Monitorherstellern überlassen.
Nightspider
2015-01-06, 05:24:43
Warum schaffen die Hersteller es nicht mal ein Monitor mit IPS Panel und 1500er Kontrast wie zB. in den iPhones auf den Markt zu bringen? :|
akuji13
2015-01-06, 08:29:38
Wenn Du Druck willst, dann frage Dich ob wir dieses Jahr DX12 hätten ohne Mantle.
Hätten wir Free-Sync ohne G-Sync oder VSR ohne DSR?
Ich stimme dir zu das ohne Mantle kein oder erst wesentlich später DX12.
Aber: das macht AMD doch nicht freiwillig, sondern um die Karten in den benchmarks nach vorne zu bekommen.
Du hast den Glauben verloren...glaubst aber es besser zu wissen, weil "10 Jahre" dich eines Besseren belehrt haben.
Warum sollte plötzlich etwas klappen was man 10 Jahre nicht hinbekommen hat bzw. wollte?
Daran zu glauben kann man auch naiv nennen.
Die Industrie ist träge. Es lässt sich auch nicht viel verdienen. Höhere Margen und geringere Ausfälle bekommt man bei mobilen Geräten oder fetten Fernsehern für ein paar Tausend Euro.
Die Masse kauft sich einen 100 Euro Monitor aber einen 1000 Euro Fernseher. So sieht die Realität einfach mal aus.
Und weil man mit TV´s soviel verdient sind so viele Marken verschwunden. ;)
MMn kauft die Masse einen 40" TV für 369€ im MM.
Man muss froh sein, dass bei der Entwicklung auch noch etwas Geld für Monitore übrig bleibt.
Klar, ich muss Firmen dankbar sein die was an mir verdienen. ;D
Gleich kommen mir die Tränen wegen der armen Milliarden-Konzerne.
Dieses "Feature" könnte jedem zur Verfügung stehen. Es könnte in jeden moderneren und nicht für den Billig-Markt produzierten Monitor implementiert werden. An stattdessen gibt es wieder eine unnötige Aufteilung des Marktes, weil Nvidia den Kuchen am liebsten alleine essen möchte und keine Mitesser duldet.
Coca-Cola könnte sein Rezept veröffentlichen und so könnte es jedem zur Verfügung stehen. :confused:
Hat AMD damals als sie noch besser vertreten waren NV zu TruForm usw. eingeladen?
Nvidia hat nicht Beste für den Gamer im Sinn. Sie wollen einfach Geld verdienen mit ihrem vendor lock-in.
Herzlich willkommen in der Realität der Marktwirtschaft. ;)
Ob das Freesync ist, kann man noch nicht sagen. Und auch AMD will am Ende nur Geld verdienen. Aber AMD ist hier den deutlich schwierigeren Weg gegangen. Sie haben mit Hilfe von VESA eine Spec erarbeitet an der alle teilhaben können. Sie sind keine knights in shining armor, aber sie haben mE einmal das Richtige getan und es auch noch durchgesetzt bekommen.
Meine Meinung dazu:
AMD muss diesen Weg gehen weil sie kein Geld für teure Späße alá G-Sync mehr haben.
Und gleichzeitig stellt man sich wie bei Mantle als Guter hin, wohlwissend das die Gegenseite nicht darauf eingehen wird.
Das ist wie einem überlegenen Gegner den Waffenstillstand anzubieten weil einem selbst die Munition ausgeht.
Mit so einer Trivialität Geld zu verdienen ist einfach nur perfide und sich dann als großer Erneuerer der Landschaft darzustellen.
Für mich ist G-Sync ein Statement und das lautet: Fickt euch. Wir kümmern uns nur um unsere Pfründe und ihr Gamer und gemeines Volk seid nichts weiter als Melkkühe.
Erneut sage ich: herzlich willkommen in der Realität.
AMD will das man sich beim nächsten mal einen Free-Sync Monitor kauft um die Chancen zu erhöhen das dadurch zeitgleich oder später eine AMD Karte verkauft wird damit der Kunde das feature auch nutzen kann.
Das NV Free-Sync nicht unterstützen wird weil die sich dieser Schmach nicht hingeben werden wird knallhart einkalkuliert.
G-Sync ist nichts womit man Kohle machen müsste. Das könnte man den Monitorherstellern überlassen.
Man könnte auch gleich die Herstellung von Grafikchips den anderen überlassen.
Die Aufgabe eines Unternehmens ist es Geld zu verdienen um zu überleben und Aktionäre glücklich zu machen.
Wirfst du das auch Intel & Co. vor?
Ich kann deine positive Einstellung AMD gegenüber nicht teilen.
Die sind genauso schlimm wie NV, Intel, Apple, Samsung, LG usw.
Selbst wenn es da noch irgendwo einen Enthusiasten gäbe der das Beste für uns wollte würde der von den BWLer´n gemaßregelt.
Nightspider
2015-01-06, 09:00:46
Achja: Sollen die ganzen neuen 120 und 144Hz Monitore auch 3D darstellen können?
Ich hätte ja gerne auch bei AMD 3D wie bei Nvidias 3DVision bei aktuellen Monitoren. Hätten die zwei Firmen sich schon vor 5 Jahren auf ein gemeinsames Format geeignet hätte sich 3D ja vllt bei Games schon durchgesetzt.
Saftläden. -.-
fondness
2015-01-06, 09:39:18
Hätten wir Free-Sync ohne G-Sync oder VSR ohne DSR?
Zu beiden definitiv ja. Wer noch immer glaubt das FreeSync eine Reaktion auf G-Sync war, der glaubt auch an den Weihnachtsmann. In beiden Fällen hat NV maximal für eine beschleunigte Einführung gesorgt.
Alleine die Fertigung eines neuen Scalers dauert mindestens 6 Monate. Dazu muss man erst mal eine neuen DP-Standard absegnen lassen und die entsprechende Hardwareunterstützung in den Chips einbauen, jeder Chip seit Bonaire unterstützt das Feature. Entweder hat NV als sie davon Wind bekommen haben die Flucht nach vorne angetreten (einen FPGA programmiert man immerhin schnell und der erste G-Sync-Monitor sah nicht gerade gut vorbereitet aus (ich sage nur Nachrüstmodul^^)) oder es wurde schlicht parallel von beiden her entwickelt.
Ich hätte ja gerne auch bei AMD 3D wie bei Nvidias 3DVision bei aktuellen Monitoren. Hätten die zwei Firmen sich schon vor 5 Jahren auf ein gemeinsames Format geeignet hätte sich 3D ja vllt bei Games schon durchgesetzt.
Saftläden. -.-
Auch hier gab es von AMD offenen Formate aber Nvidia wollte halt nicht. Das zeigt auch sehr schön wie nvidia den Fortschritt mit ihren proprietären Kram behindert.
BTW:
Das von einem Hersteller beworbene FreeSync-Update für iiyamas ProLite B2888UHSU entpuppte sich inzwischen als Irrtum. Zumindest strich der Anbieter nach Aufforderung des Herstellers die versprochene kostenlose Aktualisierung aus der Produktbeschreibung. Ob FreeSync später einmal dennoch aufrüstbar sein wird, bleibt abzuwarten.
Und:
Neben iiyama hatte auch Asus gegenüber ComputerBase FreeSync-Monitore in Aussicht gestellt.
http://www.computerbase.de/2015-01/zehn-freesync-monitore-machen-den-anfang/
akuji13
2015-01-06, 09:59:24
Zu beiden definitiv ja. Wer noch immer glaubt das FreeSync eine Reaktion auf G-Sync war, der glaubt auch an den Weihnachtsmann. In beiden Fällen hat NV maximal für eine beschleunigte Einführung gesorgt.
Oder überhaupt für eine Einführung.
Unternehmen entwickeln oft Dinge die verworfen werden würden, käme nicht ein anderer der ein solches System auf den Markt bringt.
Bei VSR hat AMD gesehen was für ein positives Echo DSR hervorgerufen hat und war im Zugzwang.
Beweisen kann eh keiner seine Meinung dazu.
fondness
2015-01-06, 10:03:39
Beweisen kann eh keiner seine Meinung dazu.
Bei FreeSync ist es IMO aufgrund der zeitlichen Abläufe eindeutig, bei VSR hat AMD selbst mehrmals vor der Einführung von NVs DSR das Feature angekündigt, von daher war es klar das es kommt.
Schnoesel
2015-01-06, 10:14:23
Warum? Ich glaube gar nicht, dass sie das Feature massentauglich machen wollen. Soll wohl eher für die Performance und Enthusiast Kundschaft sein. Im Endeffekt hat auch Nvidia hier alles in der Hand. Sie haben genug Geld um ihren eigenen Weg zu gehen und wenn sie Adaptive Synch nicht unterstützen, dann halt nicht. Dann bleibts bei Monitoren für AMD Grafikkarten. Bei der aktuellen Marktverteilung würde ich, wenn ich Nvidia wäre, genau diese Nummer fahren. Sie haben genug Geld, eine ordentliche Marke um die Nummer durchzuziehen. Sie wollen ihr eigenes Ökosystem und m.E. sollten sie genau daran weiter arbeiten. Das ist die beste Geschäftssicherung und Kundenbindung die man machen kann. Klares Ziel ist AMD Kunden wegzunehmen und die Kunden immer mehr dazu zu bringen auch bei Nvidia zu bleiben. Diese ganzen OpenSource und Standard und bla Träumereien sind eh was für gestern. Abgrenzen und Abhängigkeiten schaffen. Das muss das Kernziel sein. So drängt man Konkurrenz weg.
Wegen einer solchen Einstellung ja schon fast Dummheit sorgt man nur für eines: Gefrustete Zocker die dem PC den Rücken kehren und wir wollen uns allen ernstes darüber beschweren, dass fast ausschließlich für Konsole entwickelt wird und die Ports entsprechend schlecht sind?
Ob dus glaubst oder nicht es gibt genügend Leute die sich nicht wegen eines Monitors auf Jahre an einen Hersteller binden möchten. Für den geneigten Nvidia Fan ist das kein Problem aber selbst die stellen nicht die Mehrheit der Gamer.
Nvidia sorgt damit für eine Spaltung des PC Marktes. Wir könnten das schönste Leben haben, wenn sich die IHVs zusammenraufen würden und gemeinsam den PC als Plattform gemeinsam nach vorne bringen würden. 3D, Physik, Sync etc. für alle aber nein was machen die Idioten streiten sich um die weniger werdenden Marktanteile im PC Bereich als dafür zu sorgen, dass die Leute zum PC zurückkehren.
Proprietärer Mist ist der Sargnagel für PC Gaming.
akuji13
2015-01-06, 10:30:20
Bei FreeSync ist es IMO aufgrund der zeitlichen Abläufe eindeutig, bei VSR hat AMD selbst mehrmals vor der Einführung von NVs DSR das Feature angekündigt, von daher war es klar das es kommt.
Wie willst du beweisen das VSR auch ohne DSR auf den Markt gekommen wäre?
Das kannst du nicht.
Features werden immer wieder angekündigt bei Produkten.
Einige erscheinen, andere nicht.
Manche Firmen reden drüber (z. B. um im Gespräch zu bleiben), andere nicht.
Nvidia sorgt damit für eine Spaltung des PC Marktes.
Vielleicht auch noch für den Untergang des Abendlandes?
Wir könnten das schönste Leben haben, wenn sich die IHVs zusammenraufen würden und gemeinsam den PC als Plattform gemeinsam nach vorne bringen würden. 3D, Physik, Sync etc. für alle aber nein was machen die Idioten streiten sich um die weniger werdenden Marktanteile im PC Bereich als dafür zu sorgen, dass die Leute zum PC zurückkehren.
Proprietärer Mist ist der Sargnagel für PC Gaming.
Dieser Ansatz gilt auch für Smartphones, TV-geräte, Autos usw.
Schnoesel
2015-01-06, 10:33:38
Hast schon mitbekommen, dass PC im Gaming Bereich Marktanteile verliert? Wieviel Verkäufe gehen an PC Gamer von diversen Spielen? 10% wenn überhaupt? Mit proprietären Zeug dass dann noch weniger potentiellen Kunden nutzen können macht mans nicht besser, im Gegenteil.
Und deinen jämmerlichen Vergleich kannst stecken lassen.
Jeder (oder fast jeder) hat ein Smartphone, TV, Auto. Kein Arsch braucht/hat nen Gaming PC. Die Marktdurchdringung kannst ja wohl schlecht vergleichen.
Loeschzwerg
2015-01-06, 10:56:24
Hast schon mitbekommen, dass PC im Gaming Bereich Marktanteile verliert? Wieviel Verkäufe gehen an PC Gamer von diversen Spielen? 10% wenn überhaupt?
Das liegt doch aber an den Raubkopierern ;D
akuji13
2015-01-06, 10:57:22
Hast schon mitbekommen, dass PC im Gaming Bereich Marktanteile verliert?
Deshalb stellt Steam auch ständig neue Rekorde auf. ;)
Wieviel Verkäufe gehen an PC Gamer von diversen Spielen? 10% wenn überhaupt? Mit proprietären Zeug dass dann noch weniger potentiellen Kunden nutzen können macht mans nicht besser, im Gegenteil.
Erklär uns doch mal mit handfesten Beweisen warum z. B. G-Sync den PC Spiele Markt schwächt.
Niemand muss das kaufen.
SLI muss sich ja auch keiner zulegen.
Ist SLI jetzt auch schlecht für PC gaming? Oder 3D Vision?
Schadet Panasonic mit ihren shutter Brillen der Entwicklung von 3D am TV oder dem Verkauf von TV´s?
Was ist mit der Rift?
Es gab schon immer Dinge die man kaufen konnte die man aber nicht braucht.
Jeder (oder fast jeder) hat ein Smartphone, TV, Auto. Kein Arsch braucht/hat nen Gaming PC. Die Marktdurchdringung kannst ja wohl schlecht vergleichen.
Smartphones braucht man auch nicht. Du willst es.
Fast jeder hat ein Auto? ;D
http://www.spiegel.de/auto/aktuell/liste-der-staedte-mit-der-groessten-autodichte-a-845878.html
In der Stadt haben ganz viele kein Auto, weil sie es sich z. B. gar nicht mehr leisten können.
Das ist da so überflüssig wie ein PC.
Mit einem "Gaming-PC" kann man übrigens auch arbeiten. ;)
Aber gut, wähle ich andere Produkte:
Warum tun sich die Konsolenhersteller nicht zusammen?
Weil ihre Produkte "in" sind und simpel zu bedienen.
Das ist der Grund für ihren Erfolg.
Das kann und wird der PC nie erreichen.
Mag sogar sein das Free-Sync irgendwann in jedem Monitor steckt, hätte ich auch kein Problem mit.
Man sollte allerdings nicht glauben das die Masse das nutzen oder sogar nur bemerken würde.
Abseits uns freaks nutzen die leute nicht mal den AF wenn er nicht im Optionsmenü des Spiels auftaucht.
Oder schalten ihn nicht ein wenn er da ist, weil sie nicht wissen was er tut.
Wacht auf, wir sind die Minderheit.
Und hört auf mit dem lächerlichen Geflenne, ich komme aus einer Zeit wo "PC-gaming" hieß das man Solitär spielt.
Da spielte der PC keine Rolle was das angeht, wer spielen wollte hatte eine Konsole.
Der PC-Spiele Markt mit den Möglichkeiten von heute ist der Beste den es je gab.
Skysnake
2015-01-06, 11:12:57
Coca-Cola könnte sein Rezept veröffentlichen und so könnte es jedem zur Verfügung stehen. :confused:
Hat AMD damals als sie noch besser vertreten waren NV zu TruForm usw. eingeladen?
Was das fürn beschissener Vergleich :facepalm:
Einmal geht es nur um die Idee an sich, bzw einen Standard, und das andere mal um eine konkrete Rezeptur, also Implementierung. Für Cola würde das eben bedeuten, das man nur die Zutaten kennt, also Wasser, Zucker, Cola-Nuss usw. und rate mal, genau das tut man auch -.-
Herzlich willkommen in der Realität der Marktwirtschaft. ;)
Meine Meinung dazu:
AMD muss diesen Weg gehen weil sie kein Geld für teure Späße alá G-Sync mehr haben.
Und gleichzeitig stellt man sich wie bei Mantle als Guter hin, wohlwissend das die Gegenseite nicht darauf eingehen wird.
Das ist wie einem überlegenen Gegner den Waffenstillstand anzubieten weil einem selbst die Munition ausgeht.
Ich frag mich echt, wie man so verschobene Hirnwindungen bekommen kann. Schau dir doch mal Intel an, oder IBM, die sind allen bei openSource stark vertreten, schau dir doch mal die OpenCompute Initiative an, oder die OpenPower, oder schau dir doch mal an, was Oracle usw alles für den Linux Kernel tut. Da werden teils dutzende Entwickler einfach abgestellt, und das Zeug kommt dann ALLEN! zugute....
Wer denkt, das man nur Sachen macht, die einem allein zum Vorteil gereichen, und sobald die Konkurrenz davon auch profitiert, der hat den Schuss nicht gehört, und ja das gilt auch für BWLer.... Da gibt es nämlich genug, die nicht weiter als bis zu ihren Zehenspitzen sehen können....
Sobald man selbst mehr profitiert als die Konkurrenz, lohnt sich so etwas immer! So etwas nennt sich Kooperation, was eine ziemliche geistige und evolutionäre Leistung darstellt. Kooperation bedeutet eben, das ich das leckere Gnu gleich fressen kann, weil wir es zusammen platt machen, statt es weiterhin nur an zu sehen.... Vor allem, wenn ich die Initiative übernehme, stört es sehr sicher nicht, wenn ich etwas mehr am Ende nehme, als der Rest. Klassische Win-Win Situation.
Genau das Gleiche gilt sehr sehr oft für die Wirtschaft. Nur nVidia ist da auf dem totalen Ego-Trip und verhält sich immer öfter völlig irrational/behindert in meinen Augen. Sowas kennt man von Tieren, die in die Enge getrieben sind, und keinen Ausweg mehr kennen. Die handeln dann auch irrational...
Schnoesel
2015-01-06, 11:13:57
Der PC-Spiele Markt mit den Möglichkeiten von heute ist der Beste den es je gab.
Irgendwann werden die Spiele nicht mehr für PC portiert weil es sich schlicht nicht lohnt.
Einen tollen PC-Spiele Markt haben wir da. Es wird immer komplizierter weil jeder sein eigenes Süppchen kocht.
Steam als Beleg für den Erfolg für PC-Games? SRSLY? Naja jedem seine Meinung.
akuji13
2015-01-06, 11:19:38
Einen tollen PC-Spiele Markt haben wir da. Es wird immer komplizierter weil jeder sein eigenes Süppchen kocht.
Und der Grund dafür ist G-Sync? ;D
Steam als Beleg für den Erfolg für PC-Games? SRSLY? Naja jedem seine Meinung.
Du bist gerne dazu aufgrufen uns mit anderen Zahlen zu erhellen. ;)
"PC-gaming" sind nicht nur AAA-Titel.
Schnoesel
2015-01-06, 11:25:30
Gsync, PhysX, 3D Vision, Freesnyc, Mantle, Eyefinity, True Audio, Gameworks etc. pp. Kein normaler Mensch weiß mehr für was er welche Hardware braucht. So erreicht man die Masse nicht aber will man wohl auch nicht wie mir scheint. PC Masterrace und so...
BTW: Wohl eines der beliebtesten PC Games darf man Umfragen glauben:
Insgesamt 1,8 Mio. Mal soll der Titel innerhalb der ersten Verkaufswoche über die Ladentheke gegangen sein. Der Großteil der verkauften Einheiten wurde für die PlayStation 4 verkauft, nämlich 1,02 Mio Stück. Darauf folgt die Xbox One-Version mit knapp einem Drittel der verkauften Einheiten (327.525 Stück) der PlayStation 4-Version. Darauf folgen die PlayStation 3-Version (191.358 Stück), die Xbox 360-Version (138.266 Stück) und die PC-Version (126.514 Stück).
http://www.ps4-magazin.de/shooter/15490-far-cry-4-1-8-mio-kopien-in-der-ersten-woche-verkauft/
Wow also das ist Marktanteil. Bei anderen Games wirds noch übler aussehen.
akuji13
2015-01-06, 11:31:22
Gähn.
Die ewig alte Leier vom Untergang des PC´s als Spieleplattform.
Habe ich schon zu oft gehört in den letzten 30 Jahren.
Schnoesel
2015-01-06, 11:33:55
Das ist deine Interpretation. Nach meiner liegt der PC als Plattform schon ziemlich am Boden. Das kaum noch ein spielbares Game für den PC zu Release erschient ist mir Beweis genug.
mboeller
2015-01-06, 11:38:58
Zu beiden definitiv ja. Wer noch immer glaubt das FreeSync eine Reaktion auf G-Sync war, der glaubt auch an den Weihnachtsmann. In beiden Fällen hat NV maximal für eine beschleunigte Einführung gesorgt.
Alleine die Fertigung eines neuen Scalers dauert mindestens 6 Monate. Dazu muss man erst mal eine neuen DP-Standard absegnen lassen und die entsprechende Hardwareunterstützung in den Chips einbauen, jeder Chip seit Bonaire unterstützt das Feature. Entweder hat NV als sie davon Wind bekommen haben die Flucht nach vorne angetreten (einen FPGA programmiert man immerhin schnell und der erste G-Sync-Monitor sah nicht gerade gut vorbereitet aus (ich sage nur Nachrüstmodul^^)) oder es wurde schlicht parallel von beiden her entwickelt.
wie schon geschrieben... nicht so unwahrscheinlich:
http://www.tomshardware.de/Industriespionage,news-248654.html
akuji13
2015-01-06, 11:48:28
Das kaum noch ein spielbares Game für den PC zu Release erschient ist mir Beweis genug.
Was schlicht mit dem immer größerem Umfang der Spiele und dem Zeitdruck seitens der Aktionäre zu tun haben könnte. ;)
Und wieder gilt: es gibt genügend Titel abseits der AAA´s.
Relic
2015-01-06, 12:55:46
BTW: Wohl eines der beliebtesten PC Games darf man Umfragen glauben:
http://www.ps4-magazin.de/shooter/15490-far-cry-4-1-8-mio-kopien-in-der-ersten-woche-verkauft/
Wow also das ist Marktanteil. Bei anderen Games wirds noch übler aussehen.
Stimmt ein verbuggten Konsolenshooter der lieblos auf den PC portiert wurde von einem Publisher, der schon lange sehr in der Kritik steht ist natürlich eine Meßlatte.
Nightspider
2015-01-06, 12:57:03
Auch hier gab es von AMD offenen Formate aber Nvidia wollte halt nicht. Das zeigt auch sehr schön wie nvidia den Fortschritt mit ihren proprietären Kram behindert.
Wie hieß denn der offene 3D-Standard? Besteht da langfristig noch Hoffnung? Eher nicht oder? :/
fondness
2015-01-06, 13:01:40
Wie hieß denn der offene 3D-Standard? Besteht da langfristig noch Hoffnung? Eher nicht oder? :/
Open Stereo 3D hieß das damals, ist allerdings mittlerweile offiziell für tot erklärt worden
http://s12.postimg.org/q00ygdzf1/ati_open_stereo_3d_initiative.jpg (http://postimage.org/)
http://s17.postimg.org/4mnah5dvz/amd_open_stereo_3d_initiative.jpg (http://postimage.org/)
Nightspider
2015-01-06, 13:04:02
ist allerdings mittlerweile offiziell für tot erklärt worden
http://4.bp.blogspot.com/_DC-d8WTt94w/TObdoukXatI/AAAAAAAAANc/8j3ji15JPCo/s320/fuuu.png
Unicous
2015-01-06, 13:13:01
@akuji13
Jaja, erzähl ruhig die Mär des stolzen Ritters der durch die Scheiße geritten ist, neben, hinter und vor sich naiive Knappen die keine Ahnung haben.
Solitär. So alt bist du? Wurde dieses nicht im 18 Jahrhundert erfunden? Oder meinst du Solitaire?
Deine peinlich-arroganten Spitzfindigkeiten (Willkommen in der Realität-Kacke) und bewusste Misinterpretationen kannst du gerne lassen. Vor allem brauchst du nicht wieder eine alles umreißende Debatte vom Zaun brechen wenn man gar nicht mit dir gesprochen hat.
Nvidia hätte das Richtige machen können und es der "Allgemeinheit" zukommen lassen. Denn sie nutzen ja auch exklusiv den offenen Standard Displayport um das überhaupt zu erreichen. Aber darin sind sie ja Könige. Man nimmt einen offenen Standard und garniert es mit proprietärer Scheiße. Weil es ist ja ein offener Standard und ich kann daher jeden Scheiß damit anfangen den ich möchte. Warum haben sie denn dafür nicht HDMI genutzt oder gar DVI? Weil es gar nicht geht. Sie sagen selbst, DP bietet all das schon und heucheln dann, wir brauchen keine Spec dafür.
Und es interessiert den allgemeinen DAU nicht, wie das Feature heißt dass ihm auf einmal eine bessere Spieleerfahrung, oder Filmerfahrung bietet. Hauptsache es gibt sie. Die Freaks interessieren sich nur dafür weil Nvidia daraus einen Grabenkampf machen musste: Wir gegen AMD Intel und den Rest der Industrie.
Wenn sie schon in so tolle Innovationen investieren, warum haben sie nicht gleich eine proprietäre Schnittstelle erfunden um es zu ermöglichen? Nvidia bereichert sich mit Technologie die für die Allgemeinheit geschaffen wurde und nennt das Innovation.
Grestorn
2015-01-06, 13:21:49
Nvidia hätte das Richtige machen können und es der "Allgemeinheit" zukommen lassen. Denn sie nutzen ja auch exklusiv den offenen Standard Displayport um das überhaupt zu erreichen.
Was hätten sie davon?
Displayport wurde nicht von nVidia (und damit mit dem Geld ihrer Kunden) entwickelt. 3DVision schon.
Wenn AMD etwas als Vorreiter entwickelt, ist es genauso proprietär wie die Entwicklungen von nVidia (AMD ist ja genauso wenig blöd wie nVidia). Nur wenn sie einer proprietären nVidia Technik etwas entgegensetzen wollen, ist es auf einmal ganz toll offen und Standard, weil man so die proprietäre Technik am besten auf dem Markt kaputt machen kann.
Das geht anders rum übrigens genau so. AMD macht das proprietäre Mantle und nVidia kontert mit dem Standard DX12 (der ja nicht von ungefähr von MS aus dem Hut gezaubert wurde, nachdem Mantle erschienen ist).
Unicous
2015-01-06, 13:29:34
3DVision? Displayport? G-Sync? FreeSync?
Hääh?
Seit wann gehört Nvidia die DX-API? AMD hat Khronos bereits die Erkenntnisse von Mantle zukommen lassen und sicherlich auch bei DX12 mitgearbeitet. Man munkelt sogar, dass DX12 nichts weiter ist als Mantle mit MS-Logo.
Übrigens ist Mantle eine bislang proprietäre Schnittstelle für AMD GPUs. G-Sync ist ein proprietäres Feature das auf einem offenen Standard aufbaut, der im letzten Jahr etwas mehr als ein halbes Jahr später als offizielle Spec Einzug fand. Warum konnte Nvidia diesen Weg nicht gehen, aber die faulen Schweine von AMD schon? Jetzt kann theoretisch jeder Adapative Sync nutzen. Intel. Qualcomm. IMG Tech. Jeder Hersteller von GPU-IP kann jetzt einen Adaptive Sync Monitor ansprechen. Warum war das sooo schwer für Nvidia. Sie setzen sich doch so starj für jeden Gamer ein. Oder doch nur für jeden Gamer der ihr Kunde ist und daher nur ein Bruchteil der Gamer weltweit. Denn der Großteil der "Gamer" nutzt Intel.:eek:
Schnoesel
2015-01-06, 13:29:50
Was hätten sie davon?
Mehr Leute die man von den Vorteilen des PCs überzeugen könnte und damit mehr potentielle neue Kunden.
Ein aktuelles Beispiel:
http://www.spiegel.de/auto/aktuell/ces-2015-toyota-gibt-patente-fuer-brennstoffzellen-technologie-frei-a-1011428.html
Die machen das auch nicht uneigenützig, aber je mehr Hersteller, desto bessere Infrastruktur (weil geteilte Kosten) desto mehr Leute die sich dafür interssieren könnten, da ein großer Minuspunkt wegfallen würde. So bringt man neue Sachen voran.
Je größer der Markt desto mehr Umsatz kann man selbst generieren, aber Nvidia liegt mehr daran in einem immer kleiner werdenden Markt immer mehr Marktanteil zu haben. Ich halte das für falsch.
nVidia kontert mit dem Standard DX12
Ahja.
Unicous
2015-01-06, 13:38:21
Tesla hat ja auch seine Patente "verschenkt". Und dennoch verkaufen sie weiterhin Autos. Die alte Autohändlerlobby hat aber Angst dass ihre Pfründe geschmälert werden und deswegen darf Tesla ihre Autos in einigen Staaten nicht verkaufen. Man darf als Hersteller nicht seine eigenen Autos verkaufen.:freak:
Grestorn
2015-01-06, 13:38:25
3DVision? Displayport? G-Sync? FreeSync?
Hääh?
Ich stelle mir gerade Deinen intelligenten Gesichtsausdruck zu diesem Ausruf vor... :)
Wie genau kann ich Dir helfen?
3D-Vison -> OpenStereo
GSync -> Freesync
Cuda -> OpenCL
Mantle -> DX12
Displayport hat in der Liste gar nichts verloren, da es weder von nV noch von AMD alleine entwickelt wurde.
Seit wann gehört Nvidia die DX-API? AMD hat Khronos bereits die Erkenntnisse von Mantle zukommen lassen und sicherlich auch bei DX12 mitgearbeitet. Man munkelt sogar, dass DX12 nichts weiter ist als Mantle mit MS-Logo.
Ja klar. AMD wird einfach mal ganz selbstlos das derzeit einzige Alleinstellungsmerkmal mit MS teilen :) Gemunkelt wird viel.
Dass sowohl AMD als auch nVidia gehörigen Einfluss auf die DX Entwicklung haben, dürfte kaum überraschen. Wenn AMD zeigt, wieviel Performance man durch eine andere Treiber-Architektur erreichen kann, dann ist das für nV ein gehöriger Grund Druck auf MS auszuüben. Und MS wird da auch nicht viel Druck gebraucht haben, angesichts der XBOne.
Mehr Leute die man von den Vorteilen des PCs überzeugen könnte und damit mehr potentielle neue Kunden.Oh Mann. So was von naiv.
Ahja.Ja, ahja. Offenbar ist der kleinste Transfer, den man nicht explizit hinschreibt, zu viel verlangt.
Außerdem finde ich es lustig, wie die AMDler mir mein Beispiel kaputt argumentieren wollen, wo ich zeige, dass auch nVidia gerne versucht, proprietäre Technik des Konkurrenten durch einen offenen Standard zu entwerten.
Gut, wenn ihr meint, dann macht nVidia das eben nicht. Sind doch die Guten, ich wusste das ja schon immer! (AMDler: das ist Ironie!)
Tesla hat ja auch seine Patente "verschenkt". Und dennoch verkaufen sie weiterhin Autos. Die alte Autohändlerlobby hat aber Angst dass ihre Pfründe geschmälert werden und deswegen darf Tesla ihre Autos in einigen Staaten nicht verkaufen. Man darf als Hersteller nicht seine eigenen Autos verkaufen.:freak:
Die Geschichte ist vollgestopft von Beispielen, wo ein Hersteller seine Innovation kostenfrei seiner Konkurrenz zur Verfügung gestellt hat! Dagegen kommt es so gut wie niemals vor, dass man versucht, seine Innovationen für sich selbst zu nutzen, denn das wäre ja selbstsüchtig!!!!
(Nochmal: Auch das ist Ironie).
Unicous
2015-01-06, 13:41:29
Ich zitiere.
Displayport wurde nicht von nVidia (und damit mit dem Geld ihrer Kunden) entwickelt. 3DVision schon.
Und dabei belasse ich es. Mein Gesichtsausdruck ist übrigens "Pegida-empört". Intelligenz kommt nämlich aus den Gesichtsmuskeln.
Schnoesel
2015-01-06, 13:46:03
So was von naiv.
Wie du meinst. Nvidia gräbt sich dadurch das eigene Wasser aber aber halte mich ruhig für naiv. Eine der größten Autofirmen der Welt ist offensichtlich auch ziemlich naiv...
Das ist im Übrigen kein Transfer sonderna ausgemachter Blödsinn. Nvidia ist also jetzt schon für DX 12 verantwortlich. Sicher ja ne is klar.
akuji13
2015-01-06, 13:47:07
Solitär. So alt bist du? Wurde dieses nicht im 18 Jahrhundert erfunden? Oder meinst du Solitaire?
Entschuldige das ich dein Lieblingsspiel nicht korrekt geschrieben habe. ;)
Deine peinlich-arroganten Spitzfindigkeiten (Willkommen in der Realität-Kacke) und bewusste Misinterpretationen kannst du gerne lassen.
Du hast angefangen mit dem Realitäts-Gequatsche.
Vor allem brauchst du nicht wieder eine alles umreißende Debatte vom Zaun brechen wenn man gar nicht mit dir gesprochen hat.
Du bestimmst jetzt was wer schreiben darf...interessant.
Ach ne, lächerlich war das Wort was ich gesucht habe. :D
Nvidia hätte das Richtige machen können und es der "Allgemeinheit" zukommen lassen. Denn sie nutzen ja auch exklusiv den offenen Standard Displayport um das überhaupt zu erreichen.
Und AMD hat den offenen Standard AGP benutzt um TruForm zu nutzen.
VW nutzt den offenen Standard Straße um ihre Techniken darauf fahren zu lassen, Panasonic nutzt den offenen TV-Standard um ihre shutter-Brillen zu nutzen, Apple die offenen Mobilfunkstandards um ihre Geräte zu verkaufen die abgeschottetes System sind.
Und es interessiert den allgemeinen DAU nicht, wie das Feature heißt dass ihm auf einmal eine bessere Spieleerfahrung, oder Filmerfahrung bietet. Hauptsache es gibt sie. Die Freaks interessieren sich nur dafür weil Nvidia daraus einen Grabenkampf machen musste: Wir gegen AMD Intel und den Rest der Industrie.
Der DAU wird wenn er es überhaupt nutzt davon eh nichts merken.
Frag mal abseits der freaks wie viele tearing oder lag kennen und bemerken.
Nvidia bereichert sich mit Technologie die für die Allgemeinheit geschaffen wurde und nennt das Innovation.
Leider hast du einen großen Denkfehler.
DP wurde nicht für die ominöse Allgemeinheit geschaffen, sondern als Vereinfachung für display-Hersteller.
Z. B. um die Kosten zu senken (wie etwa HDMI Lizengebühren oder Vereinfachung der Produktion) damit der Gewinn gesteigert werden kann.
Der 08/15 user hätte noch ewig und drei Tage mit DVI leben können.
robbitop
2015-01-06, 13:47:15
Das geht anders rum übrigens genau so. AMD macht das proprietäre Mantle und nVidia kontert mit dem Standard DX12 (der ja nicht von ungefähr von MS aus dem Hut gezaubert wurde, nachdem Mantle erschienen ist).
Wobei Mantle auch eine offene API ist und sogar Intel Interesse gezeigt hat, Treiber für ihre GPUs zu programmieren.
http://www.gamestar.de/software/news/3057274/mantle_und_intel.html
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/33368-amd-oeffnet-mantle-der-konkurrenz-von-intel-und-nvidia.html
Das Ganze ist doch IIRC quelloffen. Also damit nicht proprietär.
Grestorn
2015-01-06, 13:52:35
Ich zitiere.
Und dabei belasse ich es. Mein Gesichtsausdruck ist übrigens "Pegida-empört". Intelligenz kommt nämlich aus den Gesichtsmuskeln.
Eben. Ich habe einen GEGENSATZ dargestellt. Den Vergleich Displayport <-> 3DVision hast *DU* selbst vorher aufgebracht mit dem Satz
"Nvidia hätte das Richtige machen können und es der "Allgemeinheit" zukommen lassen. Denn sie nutzen ja auch exklusiv den offenen Standard Displayport um das überhaupt zu erreichen."
Unicous
2015-01-06, 13:54:41
@akuji13
Jaja. Ich bin doof und sitze Denkfehlern auf, du hast die Weisheit mit Löffeln gefressen. Gut is.
Deine "Beispiele" sind so hanebüchen, das geht auf keine Triceratops-Haut.
Offener TV-Standard. Straße? HILFE.HIIIIILFEEEEE.:uexplode:
Grestorn
2015-01-06, 13:55:00
Das Ganze ist doch IIRC quelloffen. Also damit nicht proprietär.
Wenn Mantle quelloffen ist, dann kann man den Source ja auch irgendwo runterladen, oder?
Natürlich hat AMD nichts dagegen, wenn man Mantle lizenziert. Und ich kann auch gut glauben, dass Intel ein Interesse daran hat. Ich kann mir sogar vorstellen, dass Intel diese Lizenz kostenfrei bekommt, weil AMD einen Vorteil davon hätte.
Genauso übrigens, wie nVidia wenig dagegen haben wird, wenn man Cuda/PhysX oder 3DV lizenziert. Nur kostenlos wird beides nicht abgehen, denn davon hätte nVidia eben KEINEN Vorteil. Die Leute sind ja nicht doof.
Offener TV-Standard. Straße? HILFE.HIIIIILFEEEEE.:uexplode:
Tja, Transferleistungen sind nicht jedermans sache. Da explodiert einem schon mal das Hirn.
akuji13
2015-01-06, 13:56:40
Wobei Mantle auch eine offene API ist und sogar Intel Interesse gezeigt hat, Treiber für ihre GPUs zu programmieren.
Und AMD weiß ganz genau das NV da nicht mitmachen wird.
Deshalb können sie es auch so offen anbieten und als guten Akt hinstellen.
Als das Marktverhältnis 50:50 war haben sie sich genau so an den assozialen Schlammschlachten mit NV beteiligt und die Kunden beim AF beschissen.
@Unicous
Ich weiß ich weiß nur deine Beispiele haben Hand und Fuß. ;)
Kopier dir doch auch so einen schicken AMD Avatar rein wie so manch anderer hier. :D
fondness
2015-01-06, 13:59:04
Wenn Mantle quelloffen ist, dann kann man den Source ja auch irgendwo runterladen, oder?
Der Quellcode wird laut AMD offen gelegt sobald die Beta-Phase vorbei ist.
Schnoesel
2015-01-06, 14:04:24
Im übrigen ohne Lizenzkosten:
http://www.hartware.de/news_62233.html
Grestorn
2015-01-06, 14:06:01
Ich glaubs wenns passiert ist.
So viel Selbstlosigkeit kenne ich sonst eigentlich nur von Google. Hüstl.
robbitop
2015-01-06, 14:09:45
Wenn Mantle quelloffen ist, dann kann man den Source ja auch irgendwo runterladen, oder?
Natürlich hat AMD nichts dagegen, wenn man Mantle lizenziert. Und ich kann auch gut glauben, dass Intel ein Interesse daran hat. Ich kann mir sogar vorstellen, dass Intel diese Lizenz kostenfrei bekommt, weil AMD einen Vorteil davon hätte.
AMD’s Public Mantle SDK is Coming Out This Year – Nvidia And Intel Are Free to Use it
According to AMD, once the public Mantle SDK is out, both Nvidia and Intel can write and release drivers that would enable the close-to-the-metal API on their hardware on all Mantle enabled games. Whether they choose to do so or not however is completely up to them. We know Intel is certainly interested in AMD’s proposition, as it had already approached the company about Mantle earlier in the year.
Read more: http://wccftech.com/amd-public-mantle-sdk-coming-year-nvidia-intel-free/#ixzz3O2wFbwWN
http://wccftech.com/amd-public-mantle-sdk-coming-year-nvidia-intel-free/
Das liest sich eher so als wenn jeder mit dem Mantle SDK tun und lassen kann was er will - auch alle anderen IHVs und jeder dafür Treiber schreiben darf.
aufkrawall
2015-01-06, 14:13:46
Wie weit muss man hier eigentlich seine Ignore-Liste ausweiten, um nicht ständig immer noch Mist lesen zu müssen, der praktisch nichts mehr mit dem Thema zu tun hat?
Grestorn
2015-01-06, 14:18:31
So lange, bis Du keinen Beitrag hier mehr lesen kannst :)
Da es keiner schafft, dem anderen auch mal was positives zuzustehen und zu gönnen. Stattdessen wird leider nur noch gehatet. Internet halt.
/me schaut in den Spiegel:
Ja auch Du. Vielleicht ist AMD ja doch der Heilsbringer und Du hast es nur nicht erkannt.
|MatMan|
2015-01-06, 15:01:20
http://wccftech.com/amd-public-mantle-sdk-coming-year-nvidia-intel-free/
Das liest sich eher so als wenn jeder mit dem Mantle SDK tun und lassen kann was er will - auch alle anderen IHVs und jeder dafür Treiber schreiben darf.
Jungs versteht doch mal den Unterschied zwischen "offen" und "open source". Klar kann, wenn das SDK raus ist, jeder einen Mantle Treiber schreiben. Oder seine eigene, neue Mantle Version.
Der springende Punkt ist, dass AMD die Kontrolle über Mantle behält. AMD allein definiert die nächste Version von Mantle. Niemand anders! Das ist nicht offen! Marketing at its best...
Genauso wenig ist DX offen, da diktiert MS die Bedingungen, zumindest aber dürfen einige andere etwas mitsprechen.
OpenGL ist offen, da es da ein Konsortium gibt, welches über neue Versionen entscheidet.
Ich glaube übrigens nicht an einen Mantle Treiber von Intel. Man unterstützt keinen proprietäre Sache eines Konkurennten, wenn es nicht unbedingt sein muss.
Kriton
2015-01-06, 15:49:04
Hätten wir Free-Sync ohne G-Sync oder VSR ohne DSR?
1. Ging es um deine Behauptung AMD würde immer hinterher hinken. da ich nicht dasselbe von Nvidia behauptet habe spielt die Frage DSR/VSR in diesem Kontext keine Rolle. wie ich schon sagte konzentrieren sich beide auf unterschiedliche Themen.
2. Free-Sync/G-Sync: Ich glaube ja. Das ist aber an anderer Stelle schon mit deutlich mehr background und Wissen in diesem Forum beschrieben worden als ich das könnte. Umes kurz zu machen. Einen VESA-Standard macht man nicht mal eben. Da wird AMD bereits dran gewesen sein als G-Sync kam.
Ich stimme dir zu das ohne Mantle kein oder erst wesentlich später DX12.
Aber: das macht AMD doch nicht freiwillig, sondern um die Karten in den benchmarks nach vorne zu bekommen.
Mein Fehler! Ich habe vergessen, dass Firmen grundsätzlich nur zugunsten der Allgemeinheit agieren (natürlich mit Ausnahme von AMD), insbesondere Nvidia... Dachte es ginge um die Aussage, dass AMD immer hinterher hinkt und nicht um die Frage der Motivation für die technischen Innovationen.
Meine Meinung dazu:
AMD muss diesen Weg gehen weil sie kein Geld für teure Späße alá G-Sync mehr haben.
Und gleichzeitig stellt man sich wie bei Mantle als Guter hin, wohlwissend das die Gegenseite nicht darauf eingehen wird.
Das ist wie einem überlegenen Gegner den Waffenstillstand anzubieten weil einem selbst die Munition ausgeht.
Erneut sage ich: herzlich willkommen in der Realität.
AMD will das man sich beim nächsten mal einen Free-Sync Monitor kauft um die Chancen zu erhöhen das dadurch zeitgleich oder später eine AMD Karte verkauft wird damit der Kunde das feature auch nutzen kann.
Das NV Free-Sync nicht unterstützen wird weil die sich dieser Schmach nicht hingeben werden wird knallhart einkalkuliert.
Also ist AMD eigentlich der Böse, weil Nvidia nicht mitspielen will. Alles klar :rolleyes:
Es ist ein himmelweiter Unterschied zwischen "Sie könnten, aber sie wollen nicht und diese Möglichkeit kalkuliere ich ein" und "Ich lasse sie nicht".
Kriton
2015-01-06, 15:58:02
BTW: Wohl eines der beliebtesten PC Games darf man Umfragen glauben:
http://www.ps4-magazin.de/shooter/15490-far-cry-4-1-8-mio-kopien-in-der-ersten-woche-verkauft/
Wow also das ist Marktanteil. Bei anderen Games wirds noch übler aussehen.
Auch wenn ich prinzipiell auf Deiner Seite stehe: Das sind nur Retail-Verkäufe. Interessant wären sicherlich Zahlen der digitalen Distribution welche IMHO beim PC stärker vertreten ist als bei Konsolen.
Skysnake
2015-01-06, 16:09:07
I
Ja klar. AMD wird einfach mal ganz selbstlos das derzeit einzige Alleinstellungsmerkmal mit MS teilen :) Gemunkelt wird viel.
Mit "selbstlos" hat das rein gar NICHTS! zu tun.... Man hat schon eine fertige Implementierung, die Konkurrenz nicht. Ergo hat man einen Vorteil für einen gewissen Zeitraum, in dem man sein Schäfchen ins trockene bringen kann. Dass die Allgemeinheit davon profitiert ist ein netter Nebeneffekt, aber nicht der Antrieb dafür.
Wie gesagt, so etwas nennt sich kooperatives Verhalten, für manche scheint das aber offenkundig zu hoch zu sein.
Dass sowohl AMD als auch nVidia gehörigen Einfluss auf die DX Entwicklung haben, dürfte kaum überraschen. Wenn AMD zeigt, wieviel Performance man durch eine andere Treiber-Architektur erreichen kann, dann ist das für nV ein gehöriger Grund Druck auf MS auszuüben. Und MS wird da auch nicht viel Druck gebraucht haben, angesichts der XBOne.
Der Druck wird wohl eher weniger von nVidia kommen als von AMD, denn Sie haben schon die Arbeit gemacht, und können bei einer Berücksichtigung in DX die Früchte ihrer Arbeit einfahren. nVidia bekommt zwar das Knowhow quasi geschenkt, muss aber erstmal viel Arbeit reinstecken, um es auch voll zu nutzen. Das dauert seine Zeit 1-x Jahre. In der Zeit freut man sich.
Außerdem finde ich es lustig, wie die AMDler mir mein Beispiel kaputt argumentieren wollen, wo ich zeige, dass auch nVidia gerne versucht, proprietäre Technik des Konkurrenten durch einen offenen Standard zu entwerten.
Gut, wenn ihr meint, dann macht nVidia das eben nicht. Sind doch die Guten, ich wusste das ja schon immer! (AMDler: das ist Ironie!)
Wo hat denn bitte nVidia jemals einen offenen Standard hervorgebracht? Und nein DX12 ist da kein Beispiel. Wenn wäre es OpenGL...
Die Geschichte ist vollgestopft von Beispielen, wo ein Hersteller seine Innovation kostenfrei seiner Konkurrenz zur Verfügung gestellt hat! Dagegen kommt es so gut wie niemals vor, dass man versucht, seine Innovationen für sich selbst zu nutzen, denn das wäre ja selbstsüchtig!!!!
(Nochmal: Auch das ist Ironie).
Na scheinbar haste weder viel Industrie-Geschichte mitbekommen, noch die Beiträge von anderen hier gelesen.
Die Geschichte ist an sich VOLL! von Beispielen, in denen etwas von einer Firma entwickelt wurde, und dann der Allgemeinheit zugänglich gemacht wurde. Infiniband ist da auch so ein Beispiel. Es gab zwei konkurrierende Ansätze, und was haben die Firmen gemacht? Richtig, ein Konsortiu gegründet und lieber zusammengearbeitet und ihr Wissen getauscht, als sich gegenseitig ans Bein zu pissen....
nVidia macht das allerdings fast nie. Wo es nur geht, hauen die ihren Vendorlock rein. Wenn man bösartig ist, könnte man ihnen vorwerfen, ihre Entwicklungen wären halt so trivial, dass das die einzige Möglichkeit ist, sich vor der Konkurrenz zu schützen. Das ist aber eben nicht innovativ, und blockiert an sich nur die Technikentwicklung.
Genauso übrigens, wie nVidia wenig dagegen haben wird, wenn man Cuda/PhysX oder 3DV lizenziert. Nur kostenlos wird beides nicht abgehen, denn davon hätte nVidia eben KEINEN Vorteil. Die Leute sind ja nicht doof.
Natürlich hätte nVidia einen Vorteil davon. Sie hätten eine deutlich stärkere Verbreitung von GPU-PhysX, was mehr Leute antreiben würde High-End zu kaufen, und Sie hätten schon Jahre Zeit gehabt, den Code auf ihre Hardware, bzw die HArdware auf ihren Code hin zu optimieren.
Wer glaubt, das AMD da binnen weniger Monate auf Augenhöhe ziehen könnte, der muss auch davon überzeugt sein, das GPU-PhysX an sich nen ziemlich trivialer Codehaufen ist.
Ich glaubs wenns passiert ist.
So viel Selbstlosigkeit kenne ich sonst eigentlich nur von Google. Hüstl.
Pft...
Den Sarkasmus kannste dir sparen. Die wollen alle nur ihren eigenen Vorteil nutzen. Nur manche sind eben auch bereit dem Gegenüber auch etwas zu gönnen, und andere verzichten lieber, anstatt dem anderen auch einen Vorteil zu gönnen im Vergleich zur aktuellen Situation.
Im Normalfall legen Menschen letzteres im Alter von, wenn ich mich recht erinnere, 4 Jahren ab, und zeigen kooperativer Verhalten. Aber gut, gibt wohl viele LEute die da noch nicht so weit sind.... :P
akuji13
2015-01-06, 16:16:29
1. Ging es um deine Behauptung AMD würde immer hinterher hinken. da ich nicht dasselbe von Nvidia behauptet habe spielt die Frage DSR/VSR in diesem Kontext keine Rolle. wie ich schon sagte konzentrieren sich beide auf unterschiedliche Themen.
Gut ich korrigiere mich: Sie hinken mir zu oft hinterher.
Und das was sie machen erscheint mir oft mehr als Zugzwang denn als Innovation, wohingegen NV ganz klar seine gute Marktposition ausnutzen kann um sich Spielchen alá G-Sync zu erlauben.
Eine Technik von der ich glaube das sie kein Geld verdient, ähnlich einer Titan.
Das sind Prestige-Produkte um zu zeigen "wir können!".
AMD weicht auf andere Bereiche aus, weil sie trotz z. B. mehr performance innerhalb einer Generation an NV Marktanteile verlieren bzw. haben.
Was mich nervt ist das NV = böse AMD = gut Szenario.
Firmen dieser Größenordnung sind grundsätzlich schlecht, AMD würde das nicht anders machen.
Wer das glaubt, glaubt auch an den Weihnachtsmann. :D
Die Geschichte ist an sich VOLL! von Beispielen, in denen etwas von einer Firma entwickelt wurde, und dann der Allgemeinheit zugänglich gemacht wurde. Infiniband ist da auch so ein Beispiel. Es gab zwei konkurrierende Ansätze, und was haben die Firmen gemacht? Richtig, ein Konsortiu gegründet und lieber zusammengearbeitet und ihr Wissen getauscht, als sich gegenseitig ans Bein zu pissen....
Und so ein Konsortium hilft dem Kunden natürlich ungemein weiter mangels Wettbewerb! ;D
Definition von Konsortiums z. B. in Wikipedia:
"eine Vereinigung mehrerer rechtlich und wirtschaftlich selbstständig bleibender Unternehmen zur Durchführung eines vereinbarten Geschäftszwecks"
Der Geschäftszweck ist Gewinnmaximierung.
"Das Konsortium verfolgt über die Risikominderung hinaus meist weitere ökonomische Ziele (Synergieeffekte, Wettbewerbsverzerrungen durch kartellähnliche Strukturen, Aufgabenzerlegung)."
Skysnake
2015-01-06, 16:37:16
Ja der Kunde/Wirtschaft hat einen gewaltigen Vorteil davon gehabt. Der Makrt ist nicht zersplittert, dadurch konnten die Kosten für alle stark gesenkt werden, man hatte keinen Vendorlock in dem Maße usw usw.
Es haben ALLE! davon profitiert.
Du solltest zudem genauer lesen. Da ist nämlich ein entscheidendes Wort in dem von dir zitierten:
"Das Konsortium verfolgt über die Risikominderung hinaus meist weitere ökonomische Ziele (Synergieeffekte, Wettbewerbsverzerrungen durch kartellähnliche Strukturen, Aufgabenzerlegung)."
Das heist aber nicht, dass das zur Definition dazugehört... Es ist nur EIN Punkt von VIELEN, und das auch nicht immer. Zumal diesem Gesichtspunkt durch die weltweiten Kartellbestimmungen auch stark entgegengewirkt wird.
Kooperativer verhalten ist viel viel viel weiter gefasst als das. Guckst du auch mal hier für einen seichten Einstieg (http://de.wikipedia.org/wiki/Kooperation#Formen_der_Wirtschaftskooperation"Das Konsortium verfolgt über die Risikominderung hinaus meist weitere ökonomische Ziele (Synergieeffekte, Wettbewerbsverzerrungen durch kartellähnliche Strukturen, Aufgabenzerlegung).").
Entscheidend ist dabei auch, was hier besonders herausgestellt wird:
Kooperation von Unternehmen ist aus ordnungspolitischer Sicht grundsätzlich zu begrüßen.
...
Soweit Kooperationen wettbewerbspolitisch negative Wirkungen haben, werden sie eingeschränkt durch das Kartellrecht, namentlich Unternehmenszusammenschlüsse zum Zwecke der Schädigung Dritter oder zum Zwecke der Wettbewerbsbeschränkung (Kartelle).
...
Also ums ganz klar zu sagen Konsortium != Kartell Ein Kartell kann aber auch ein Konsortium sein. Daraus folgt aber eben nicht, das jeder Konsortium auch ein Kartell ist...
Unicous
2015-01-06, 16:58:53
@Grestorn
Transferleistungen, wie z.B. von der römischen via patentiert von Marcus Clausius Backsteinus, brauche ich nicht zu tätigen wenn mir eben diese hanebüchene Vergleiche geliefert werden. Ich habe auch keinen Bock mit arroganten Schnöseln zu disktutieren die auch mal heuchlerisch behaupten, man solle die Emotionen mal aus dem Spiel lassen.
Ich weiß nur dass du die Meinungen anderer, soweit sich nicht der deinen entspricht, als unerheblich einstufst und trivialisiert.
Ich wüsste auch nicht wer hier "hated" oder nur Schlechtes wünscht (wem überhaupt?). Im Gegenteil wünschte ich mir, dass Nvidia, Intel und AMD über ihren Schatten springen und für den Kunden anstatt für den eigenen kurzfristigen Vorteil entwickeln würden und sich nicht als Platzhirsche aufführen würden. Durch diese Grabenkämpfe stagniert die Innovation nämlich in allen Bereichen, während die Mobil-Hersteller sie von allen Seiten überholen. Triviale Sachen wie G-Sync PhysX, Havok "DX Drölf" und Co. zeigen über die letzten Jahre fast schon Jahrzehnte wie daraus nichts "Positives" erwachsen ist. Es sind samt und sonders proprietäre Produkte, die alle nicht in der Gegenwart angekommen sind. Wir haben 4K Monitore, 3D ist nach langer Zeit ein zumindest bleibender Trend, VR ist auch irgendwie "in" aber wo das hinführt weiß man auch nicht. Aber nicht jeder darf daran teilnehmen. Nur diejenigen die dafür nochmal extra Eintritt bezahlt haben und eine Mütze mit dem Logo des Riesenradbetreibers tragen.
Was soll der Müll? Warum kann nicht das bessere Produkt bestechen, warum muss es der bessere Patentanwalt oder ein vendor lock-in sein.
Diese Ökosystemscheiße führt dazu, dass es weniger Innovationen, weniger Hersteller gibt.
Kartenlehrling
2015-01-06, 17:03:15
Können wir uns um wichtiges kümmern und zum Thema zurück kommen?
Wo sind die ersten Bewegte Bilder von Freesync und
Fotos von Omega-treiber menü von Freesync Einstellunge?
Grestorn
2015-01-06, 17:47:54
Transferleistungen, wie z.B. von der römischen via patentiert von Marcus Clausius Backsteinus, brauche ich nicht zu tätigen wenn mir eben diese hanebüchene Vergleiche geliefert werden.
Es tut mir leid, aber wenn Du den Vergleich zwischen einer Straße (die einen Standard erfüllt und es somit ermöglicht mit einem Wagen darauf zu fahren) und dem Displayport (der einen Standard erfüllt und damit ermöglicht, Monitore mit Daten zu versorgen) nicht siehst, dann ist das einfach nur eine fehlende Transferleistung.
Gehatet wird alles, was von nVidia kommt. Egal was es ist. Das ist schon echt krankhaft. Man muss sich nur diesen Thread ansehen.
Das einzig Gute an dieser fast schon religiösen Folgschaft, die AMD hinter sich weiß, ist dass sie dazu beiträgt, den Markt ausgeglichener zu halten, was AMD sonst angesichts ihrer leider begrenzten finanziellen Möglichkeiten sonst vermutlich nicht schaffen würde. Nur schade, dass man sich als nVidia Käufer schon fast als Teufelsanbeter fühlen muss.
Dass beide Firmen nur dazu da sind, Geld für ihre Aktionäre zu verdienen und nicht das Wohl des Kunden im Auge haben, will man einfach nicht wahrhaben.
tm0975
2015-01-06, 17:48:38
Was soll der Müll? Warum kann nicht das bessere Produkt bestechen, warum muss es der bessere Patentanwalt oder ein vendor lock-in sein.
Diese Ökosystemscheiße führt dazu, dass es weniger Innovationen, weniger Hersteller gibt.
deine meinung ist zu begrüßen, aber wo bleibt das konsequente handeln,was sich daraus ergeben müßte. jeder kennt doch das buch "inside intel" und wie aktuell das heute noch ist, zeigt ja die intel-bilanz, ich sage nur contra revenue. die einzige konsequenz daraus wäre das komplette boykottieren solchen firmen und deren produkten. stattdessen wird das zugs hoch und runter durch die foren als neusten-geilsten-scheiß empfohlen, den allerdings kaum jemand wirklich benötigt. bei nvidia sehe ich es etwas differenzierter. wenn die könnten, wie sie wollten, wären sie auf augenhöhe mit intel. nur haben sie bei weitem nicht die marktmacht. g-/free-sync sind genau das beispiel, woran man sowas erkent. und bevor hier noch zu 100.mal mantle erwähnt wird, muß ich sagen, dass das endlich mal wieder eine wirkliche innovation ist.
Das einzig Gute an dieser fast schon religiösen Folgschaft, die AMD hinter sich weiß, ist dass sie dazu beiträgt, den Markt ausgeglichener zu halten, was AMD sonst angesichts ihrer leider begrenzten finanziellen Möglichkeiten sonst vermutlich nicht schaffen würde.
deine meinung beruht leider nicht auf fakten der vergangenheit. ohne intels massiven wettberwerbsbetrug hätte amd ganz andere finanzielle möglichkeiten der fertigung von pc-prozessoren. die endlosen marktmanipulationen (compiler, benchmark-suites, herstellererpressungen etc.) hätten wir noch immer einen ordentlichen wettbewerb in diesem marktsegment.
Unicous
2015-01-06, 18:16:11
Es geht mir nicht um das Geschäftsgebahren von Intel, seine Konkurrenz mit unlauteren Mitteln auszustechen. Das haben sie schon gemacht bevor AMD überhaupt als Konkurrent angesehen wurde. Das bekommt man auch aus Intel nicht mehr raus.
Es geht darum, dass es entsprechende Organisationen, wie Khronos, wie JEDEC, wie VESA, wie USB-IF gibt die offene Standards (keiner redet von Open Source) entwickeln. Alle drei und der Rest der Indrustrie sind in diesen Organisationen vertreten. Selbst der Eigenbrötler Apple hat sehr richtige und wichtige Impulse gegeben (das aber durch Sachen wie FireWire/Lightning/etc. wieder zunichte gemacht).
Wenn man diese offenen Standards nutzt, sollte man auch sie auch respektieren und sie weiterentwickeln, anstatt nur die Vorteile zu nutzen und sobald es sich ergibt einen vendor lock-in vorzunehmen. Thunderbolt ist auch so eine gequirlte Scheiße. Da wird PCIe genommen und DP genommen und in ein proprietäres Format umgemünzt. Hat es sich durchgesetzt? "Das glaube ich nicht, Tim". Es ist eine teure Schnittstelle die wenn überhaupt von Apple-Usern richtig genutzt wird und selbst da sind die Preise für das Zubehör lachhaft hoch.
Intel ist auch treibende Kraft bei USB-IF. Und oh Wunder oh Wunder... ein paar Jahre nach Einführung von Thunderbolt, gibt es jetzt fast Feature-Parität zwischen den beiden Schnittstellen, nachdem u.a. AMD DockPort vorgeschlagen hat. AMD ist hier nicht Ritter in glänzender Rüstung, aber Intel ist es garantiert auch nicht.
Durch diesen Schwachsinn erreicht man gar nichts. Und vor allem keine Marktdurchdringung.
Andererseits gibt es jetzt Initiativen von allen Seiten. HDMI 2.0 (wo Intel ja auch treibende Kraft ist u.a. wegen HDCP), DP 1.3, USB 3.1 mit Type C Steckern.
Das wäre alles schon viel früher möglich gewesen, wenn die Leute an einem Strang ziehen würden. Es geht doch nicht darum, dass sich alle in den Armen liegen und Friede, Freude, Eierkuchen spielen. Man soll diese Grabenkämpfe einfach sein lassen und sich auf das Wesentliche konzentrieren: das bessere Produkt, die bessere Implementation eines Features zu haben.
Wenn man mir da Naivität unterstellt, zeigt das mMn nur Unwillen und Arroganz.
Black-Scorpion
2015-01-06, 18:33:56
Genauso übrigens, wie nVidia wenig dagegen haben wird, wenn man Cuda/PhysX oder 3DV lizenziert. Nur kostenlos wird beides nicht abgehen, denn davon hätte nVidia eben KEINEN Vorteil. Die Leute sind ja nicht doof.
Nicht wieder den Scheiß der schon tausendmal durchgekaut wurde. Du weißt ganz genau das kein anderer Hersteller was mit PhysX und Cuda anfangen kann.
Zumal man dann NV auf Gedeih und Verderb ausgeliefert ist. Den nichts davon ist offen.
Grestorn
2015-01-06, 18:37:46
Nicht wieder den Scheiß der schon tausendmal durchgekaut wurde. Du weißt ganz genau das kein anderer Hersteller was mit PhysX und Cuda anfangen kann.
Zumal man dann NV auf Gedeih und Verderb ausgeliefert ist. Den nichts davon ist offen.
Und das ist mit Mantle in welcher Hinsicht anders? Außer dass es von AMD ist und damit im Grundsatz "Gut" sein muss?
Es geht mir nicht um das Geschäftsgebahren von Intel, seine Konkurrenz mit unlauteren Mitteln auszustechen. Das haben sie schon gemacht bevor AMD überhaupt als Konkurrent angesehen wurde. Das bekommt man auch aus Intel nicht mehr raus.
Es geht darum, dass es entsprechende Organisationen, wie Khronos, wie JEDEC, wie VESA, wie USB-IF gibt die offene Standards (keiner redet von Open Source) entwickeln. Alle drei und der Rest der Indrustrie sind in diesen Organisationen vertreten. Selbst der Eigenbrötler Apple hat sehr richtige und wichtige Impulse gegeben (das aber durch Sachen wie FireWire/Lightning/etc. wieder zunichte gemacht).
Wenn man diese offenen Standards nutzt, sollte man auch sie auch respektieren und sie weiterentwickeln, anstatt nur die Vorteile zu nutzen und sobald es sich ergibt einen vendor lock-in vorzunehmen. Thunderbolt ist auch so eine gequirlte Scheiße. Da wird PCIe genommen und DP genommen und in ein proprietäres Format umgemünzt. Hat es sich durchgesetzt? "Das glaube ich nicht, Tim". Es ist eine teure Schnittstelle die wenn überhaupt von Apple-Usern richtig genutzt wird und selbst da sind die Preise für das Zubehör lachhaft hoch.
Intel ist auch treibende Kraft bei USB-IF. Und oh Wunder oh Wunder... ein paar Jahre nach Einführung von Thunderbolt, gibt es jetzt fast Feature-Parität zwischen den beiden Schnittstellen, nachdem u.a. AMD DockPort vorgeschlagen hat. AMD ist hier nicht Ritter in glänzender Rüstung, aber Intel ist es garantiert auch nicht.
Durch diesen Schwachsinn erreicht man gar nichts. Und vor allem keine Marktdurchdringung.
Andererseits gibt es jetzt Initiativen von allen Seiten. HDMI 2.0 (wo Intel ja auch treibende Kraft ist u.a. wegen HDCP), DP 1.3, USB 3.1 mit Type C Steckern.
Das wäre alles schon viel früher möglich gewesen, wenn die Leute an einem Strang ziehen würden. Es geht doch nicht darum, dass sich alle in den Armen liegen und Friede, Freude, Eierkuchen spielen. Man soll diese Grabenkämpfe einfach sein lassen und sich auf das Wesentliche konzentrieren: das bessere Produkt, die bessere Implementation eines Features zu haben.
Wenn man mir da Naivität unterstellt, zeigt das mMn nur Unwillen und Arroganz.
Alles gut und schön. Aber was haben Standards, die zur Interoperabilität von Produkten verschiedener Firmen entwickelt werden und deswegen per Definiton sinnvollerweise konzernübergreifend festgelegt werden, mit Technologien wie GSync oder 3D-Vision zu tun? Genau: Gar nichts.
Standards zur Interoperabilität werden von den Firmen gemeinsam entwickelt, weil sie sich davon einen zusätzlichen Markt erhoffen. Und das zu Recht.
Wo wäre denn der zusätzliche Markt, wenn nVidia GSync auf eigene Kosten entwickelt hätte um es dann frei allen auf dem Markt zur Verfügung zu stellen? Wieso zum Geier sollte nVidia das Geld investieren? Warum beantwortet mir niemand diese einfache Frage?
Gipsel
2015-01-06, 18:43:48
Leute, achtet bitte auf das Thema!
Danke.
Unicous
2015-01-06, 19:10:04
Und das ist mit Mantle in welcher Hinsicht anders? Außer dass es von AMD ist und damit im Grundsatz "Gut" sein muss?
Alles gut und schön. Aber was haben Standards, die zur Interoperabilität von Produkten verschiedener Firmen entwickelt werden und deswegen per Definiton sinnvollerweise konzernübergreifend festgelegt werden, mit Technologien wie GSync oder 3D-Vision zu tun? Genau: Gar nichts.
Standards zur Interoperabilität werden von den Firmen gemeinsam entwickelt, weil sie sich davon einen zusätzlichen Markt erhoffen. Und das zu Recht.
Wo wäre denn der zusätzliche Markt, wenn nVidia GSync auf eigene Kosten entwickelt hätte um es dann frei allen auf dem Markt zur Verfügung zu stellen? Wieso zum Geier sollte nVidia das Geld investieren? Warum beantwortet mir niemand diese einfache Frage?
Warum beantwortest du mir nicht die Frage, warum AMD und Co. nicht Geld verlangen für die GDDR5 Entwicklung, HBM etc.
Sie sie zu doof, das zu vermarkten? Sie sie zu doof, zu sehen, dass man damit Geld verdienen kann?
Oder denken sie sich: Das hier ist gute Technologie. Aber wir werden es nicht zur Marktreife und -durchdringung führen können, wenn es nur wenige Firmen nutzen können. Ich weiß auch nicht, was du mit "zusätzlichen" Markt meinst. Das müsstest du schon näher erläutern.
Ich wüsste nicht, dass GDDR5 zur "Interoperabilität" gebraucht wird. Ich sehe auch nicht, warum man das Konzept den VBLANK-Befehl zu nutzen als "Technologie" bezeichnen kann, als hätte Nvidia das Rad neu erfunden.
Was wäre wenn Nvidia die Bestrebungen bei der VESA gesehen hätte das u.a. auch von Intel vorgestellte Panel Self Refresh (2011!) auch im Desktop in abgewandelter Form zu nutzen. Diese Standards Bodies sind ja sowohl Fluch und Segen, jeder mischt mit hat seine Meinung und am Ende muss man sich auf einen gemeinsamen Nenner einigen. Vllt. wollte Nvidia sich nicht einigen und es auf eigene Faust durchdrücken. Warum sind AMD GPUs die nur wenige Wochen nach (e: bzw. vor, siehe R7 260X u.U auch HD 7790) G-Sync Ankündigung veröffentlicht wurden Adaptive Sync-fähig und dabei muss man bedenken, dass das Design da schon vor schätzungsweise 2 Jahren in Planung war und das Silizium dann ein Jahr später das tapeout hatte. Da gab es noch nicht einmal Anzeichen von Adaptive Sync in jeglicher Form.
Dieser Prozess dauert lange. Monate, Jahre. Warum bekommt AMD es hin innerhalb von 5 Monaten bei der VESA eine Spec durchzudrücken? Das sind ja keine Zufälle. AMD springt ja nun nicht das Glück vor die Füße und große Durchsetzungskraft im Vergleich zu Intel und Nvidia haben sie auch nicht, beide Unternehmen sitzen im Board of Directors.
Warum im Zweifel für Nvidia? Weil sie G-Sync Ende Oktober 2013 angekündigt haben und ein paar Monate schneller waren?
Grestorn
2015-01-06, 19:18:22
Warum beantwortest du mir nicht die Frage, warum AMD und Co. nicht Geld verlangen für die GDDR5 Entwicklung, HBM etc.
Diese Aussage ist mit hoher Sicherheit schon falsch. Selbstverständlich halten diese Firmen Parente und Lizenzen, die sie vermarkten.
Unicous
2015-01-06, 19:29:03
GDDR5 und HBM ist ein offener JEDEC Standard. Dass es da Patente und darausfolgend Lizenzen gibt, dürfte klar sein.
Es geht um die Nutzung des Standards. Die JEDEC bietet dahingehend Schutz, dass sie Unternehmen und eingereichte Standards von vornherein ausschließt, wenn am Ende irgendwelche Forderungen, etc., enstehen könnten. Die Mitglieder müssen dahingehend auch eine Selbstverpflichtung unterschreiben.
Die Aussage ist daher richtig. Deine Interpretation meiner Aussage schlicht falsch.
Black-Scorpion
2015-01-06, 19:35:04
Und das ist mit Mantle in welcher Hinsicht anders? Außer dass es von AMD ist und damit im Grundsatz "Gut" sein muss?
Wie immer schön ablenken von dem was du selbst geschrieben hast wenn die Argumente ausgehen.
Wo habe ich mit einem Wort Mantle erwähnt?
Grestorn
2015-01-06, 19:40:54
Wie immer schön ablenken von dem was du selbst geschrieben hast wenn die Argumente ausgehen.
Wo habe ich mit einem Wort Mantle erwähnt?
Mantle ist nur ein Gegenbeispiel. Nicht nur nVidia macht Produkte die sie zwar zur Lizenzierung "freigeben", die aber kein anderer sinnvoll nutzen kann oder will.
War dieser Transfer wirklich soooo schwer?
/edit: Unicous: Ich finde so einen Beitrag wie der von Black-Scorpion fast schon beleidigend blöd gestellt. Ich meine, das muss doch klar sein, dass wenn er sich über die mangelhafte Attraktivität einer Lizenzierung von PhysX & Co. beschwert, dass man das gleiche auch für Mantle sagen kann. Wie kann man davor die Augen verschließen?
GDDR5 und HBM ist ein offener JEDEC Standard. Dass es da Patente und darausfolgend Lizenzen gibt, dürfte klar sein.
Es geht um die Nutzung des Standards. Die JEDEC bietet dahingehend Schutz, dass sie Unternehmen und eingereichte Standards von vornherein ausschließt, wenn am Ende irgendwelche Forderungen, etc., enstehen könnten. Die Mitglieder müssen dahingehend auch eine Selbstverpflichtung unterschreiben.
Die Aussage ist daher richtig. Deine Interpretation meiner Aussage schlicht falsch.
Gehen wir davon aus, dass für GDDR5 keine Lizenzgebühren fällig werden (was ich nicht glaube und was auch nicht den JEDEC Prinzipien widerspricht, wie ich sie verstehe, aber da mag ich mich irren).
Beide Technologien machen proprietär überhaupt keinen Sinn und fallen somit genau unter das Prinzip der Interoperabilitäts-Standards. Ein Versuch so etwas proprietär zu etablieren (RAMBUS) ist ja böse gescheitert. Entsprechend hat auch nicht ein Konzern an der Entwicklung des Standards gearbeitet sondern man hat sich die Kosten geteilt. Bei diesen Technologien geht es eben explizit nicht darum, den eigenen Marktanteil zu erhöhen, sondern neue Anwendungsgebiete und Märkte zu erschließen.
Also gilt hier wieder meine vorhin ausführlich dargestellte Argumentation.
Unicous
2015-01-06, 19:43:44
Schwerer als der von Poldi zu Inter, ja.
Deine "emotionale" Arroganz bitte einfach im Stillen denken und nicht niederschreiben.
edit:
Für die Nutzung des GDDR5 Standards wird keine Lizenzgebühr fällig. Für die Herstellung oder Verwendung entsprechender Produkte, die auf Patenten fußen schon. Aber diese müssen laut JEDEC Statuten RAND sein (reasonable and non-discriminatory), man darf also keine horrenden Lizenzgebühren verlangen und jedes Unternehmen zahlt das Gleiche. Sonst wird man ausgeschlossen bzw. der Standard einfach für nichtig erklärt.
Wozu braucht Nvidia Interoperabilität mit AMD? Welche neuen Märkte und Anwendungsgebiete sollen erschlossen werden. GDDR5 wurde exakt für das entwickelt, für das es jetzt genutzt wird. Für GPUs bzw. APUs (siehe Konsolen).
Nvidia hätte daher genauso gut ihren eigenen DRAM-Standard entwickeln können, oder wo wir schon bei RAMBUS sind, eben etwas aus ihrem Portfolio. Man hat sich dann aber doch für GDDR5 entschieden. Warum. Weil sich die Speicherhersteller, die Mitglieder der JEDEC sind auch darauf geeinigt haben. Wir müssen also leider weiter bei meinem Argument bleiben. GDDR5 hat nichts mit Interoperabilität zu tun, sondern mit Marktdurchdringung.
Displayport wurde auch nicht entwickelt um in neue Märkte vorzustoßen, sondern um VGA,DVI und den ganzen alten Müll zu entsorgen. Geklappt hat das bis jetzt nicht wirklich. Das einzige was geschehen ist, dass z.B. Nvidia oder Intel kommen, den offenen Standard nehmen, ihn modifizieren... und eine "nicht interoperable" proprietäre Lösung in den Markt knallen.
Ich verstehe auch nicht warum GDDR5 proprietär keinen Sinn macht, G-Sync aber schon. Das Argument ist fadenscheinig. Beide Technologien unterscheiden sich dahingehen nicht.
fondness
2015-01-06, 20:57:53
LG brings high-speed AMD tech to its curved monitor
http://www.cnet.com/products/lg-34uc87m/
Unicous
2015-01-06, 21:09:31
Das ist wahrscheinlich Blödsinn und fußt auf der dämlichen PM die LG rumgeschickt hat.
Dargestellt ist der FreeSync-Monitor gesprochen wird aber von den Curved-Monitoren.
fondness
2015-01-06, 21:10:25
Den Link habe ich direkt von AMD, würde mich also wundern, aber möglich.
Unicous
2015-01-06, 21:20:22
Die Debatte hatten wir doch schon, als LG die PM am 31.12. rausgeschickt hat. Da haben doch viele den gleichen Fehler gemacht. cnet hat das wohl verschlafen und die PM dann zur CES rausgebracht.
Unicous
2015-01-06, 22:19:19
Wollte hier nicht jemand "Fotos" zu Freesync haben?
http://www.hardware.fr/medias/photos_news/00/46/IMG0046220_1.jpg
http://www.hardware.fr/medias/photos_news/00/46/IMG0046221_1.jpg
http://www.hardware.fr/medias/photos_news/00/46/IMG0046222_1.jpg
http://www.hardware.fr/news/14025/ces-amd-freesync-presque-la-point.html
hardware.fr behauptet, dass AMD sagt, der Iiyama ProLite B2888UHSU-B1 könnte ein firmware Update bekommen. Ich denke aber Betonung liegt auf könnte. Und laut schlechtem Schulfranzösisch und Googlish könnte der Kunde es selbst machen oder den Monitor zu Iiyama schicken *schulterzucksmiley*
Grins. Und beim Samsung U28D590D gibt es einen Unterschied zu bereits erhältlichen Modellen: die firmware. Die Säcke.
Bei dem Alienware (mit M295X) bin ich nicht sicher ob Freesync genutzt wird, aber wahrscheinlich schon
http://www.hardware.fr/medias/photos_news/00/46/IMG0046223_1.jpg
Ach Mist... die Bilder sind hotlinking-imun.
Kartenlehrling
2015-01-06, 22:29:47
Das die Hersteller so gerne Schwarzes Klavierlack verbauen, furchbar.
Von den 3 Monitor finde ich den benq am edelsten,
jetzt haben ich mir im Kopf gesetzt 25" WQHD und da will ich nicht mehr von weg rücken.
M4xw0lf
2015-01-06, 22:40:33
Also ich mag schwarzen Klavierlack immer noch...
http://i1.kym-cdn.com/photos/images/newsfeed/000/437/747/b0d.jpg
Unicous
2015-01-06, 23:35:47
Asus' MG279Q display melds IPS panel, variable refresh (http://techreport.com/news/27614/asus-mg279q-display-melds-ips-panel-variable-refresh)
While it lacks FreeSync or G-Sync branding, the MG279Q supports the DisplayPort 1.2a specification with Adaptive-Sync. Translation: it does have a variable refresh rate, despite what we initially surmised. We're told the monitor will be able to sync up its refresh rate with FreeSync-capable Radeon graphics cards. As to why it has that capability without the FreeSync label, we don't yet have a clear answer.
Da will wohl jemand Nvidia nicht verärgern.:wink:
Ich finde das nicht schlimm. Meiner Meinung nach sollten sich die Hersteller keinen FreeSync Stempel aufdrücken lassen.
Look for the MG279Q in stores late this quarter. Asus hasn't set a price yet, so stay tuned for more details.
Mancko
2015-01-07, 00:03:24
Ich kann deine positive Einstellung AMD gegenüber nicht teilen.
Die sind genauso schlimm wie NV, Intel, Apple, Samsung, LG usw.
Selbst wenn es da noch irgendwo einen Enthusiasten gäbe der das Beste für uns wollte würde der von den BWLer´n gemaßregelt.
Klar ist AMD genauso schlimm. Das kann ja keiner ernsthaft in Frage stellen. Deren Problem ist nur, dass sie für die richtige Ausführung keine Kohle mehr haben. Sie haben einfach alles was sie hatten über die letzten 10 bis 15 Jahre versenkt. Da ist nicht mehr viel Substanz da. Demzufolge machen sie auch eher einen auf Peudo Open Source. Sie können schlichtweg gar nicht mehr anders.
Mancko
2015-01-07, 00:07:12
Nvidia sorgt damit für eine Spaltung des PC Marktes. Wir könnten das schönste Leben haben, wenn sich die IHVs zusammenraufen würden und gemeinsam den PC als Plattform gemeinsam nach vorne bringen würden. 3D, Physik, Sync etc. für alle aber nein was machen die Idioten streiten sich um die weniger werdenden Marktanteile im PC Bereich als dafür zu sorgen, dass die Leute zum PC zurückkehren.
Proprietärer Mist ist der Sargnagel für PC Gaming.
Wir können es auch anders formulieren. AMD hat kein wirkliches Interesse daran den PC Markt den Konsolen zu weit enteilen zu lassen. Auf Grund der aktuellen Ausgangslage ist AMD Einheitsbrei möglichst nahe an den Konsolen am liebsten. Ich denke es ist klar, dass Nvidia genau das Gegenteil möchte.
Ich finds gut. Ich sehe das eher positiv für den PC. Enthusiasten rücken wieder mehr in den Vordergrund. Auch davon gibt es genug und es ist eine zahlungsfreudige Kundschaft. Ich habe kein Problem ein paar Tausender alle paar Jahre für einen fetten PC auszugeben und ich habe auch kein Problem damit für meine Lieblingsspiele deutlich mehr Geld als heute zu bezahlen, damit sie auf den PC getrimmt und optimiert werden. Für den ganzen Einheitsbrei ala EA Fifa das 199ste Release interessiere ich mich sowieso nicht. Das sollen die ganzen Konsolenkunden ruhig spielen. Juckt mich 0.
Mancko
2015-01-07, 00:17:44
Nicht wieder den Scheiß der schon tausendmal durchgekaut wurde. Du weißt ganz genau das kein anderer Hersteller was mit PhysX und Cuda anfangen kann.
Zumal man dann NV auf Gedeih und Verderb ausgeliefert ist. Den nichts davon ist offen.
Wie bei Mantle. Denn auch dort kann AMD jederzeit die Spielregeln wieder ändern. Genau deshalb wurde ja schon richtig festgehalten:
Offen ist, was ein Konsortium bestehend aus allen Beteiligten definiert oder halt noch halbwegs innerhalb Windows jemand als offen definiert, der nicht direkt im Marktgeschehen in dem Beispiel mit GPUs ist.
Cuda ist nicht offen, Physx und G-Synch auch nicht. Mantle aber nunmal eben auch nicht. Fadenscheinige Argumente ala "Sourceode wird bereit gestellt" lass ich nicht gelten. Wenn Ihr mir die Nachricht bringt, dass AMD alle Recht daran an ein Gremium abtritt, dann ist es offen. Bis dahin ist es closed!
Unicous
2015-01-07, 00:19:41
Hilfe. Was für ein Blödsinn.
Einheitsbrei.:freak:
Ohjeohje. AMD ist jetzt auch noch daran schuld, dass seit Jahrzehnten Einheitsbrei auf Konsole und PC hergestellt wird.
Bestes Beispiel Ubisoft. Dessen Einheitsbrei auf Konsolen ordentlich läuft, aber auf PCs mit Nvidia-GPU formidabel. AMD kann froh sein, dass die chinesischen Wanderarbeiter mit zwei linken Händen die sie für die GPU-Sparte eingestellt haben wenigstens 1 und 0 unterscheiden können.
AMD bringt bald GPUs mit HBM-Speicher heraus um noch mehr Einheitsbrei und Stagnation im GPU-Markt zu bringen.:rolleyes:
AMD. Wann kommt da eigentlich mal der Gnadenschuss zwischen die Augen. Die sind doch nur nur Ballast. Wenn die erst einmal weg sind, dann dreht Jensen so richtig auf. Dann bekommt jede Harley ein Nvidia Shield integriert und im Jahr darauf wird Nvidia Newton die 11 Zillionen FLOP-Marke überspringen mit Leichtigkeit und einem doppelten Salto.
Und danach wird mit Intel und Qualcomm aufgeräumt. One Jensen to rule them all.
edit: Gratulation zum Triple-Post.
Übrigens ich finde Richard Huddy war sehr explizit was Mantle angeht zumindest was die Khronos Group angeht.
Huddy told us AMD has done a "great deal of work" with the Khronos Group, the stewards of the OpenGL spec, on OpenGL Next. AMD has given the organization unfettered access to Mantle and told them, in so many words, "This is how we do it. If you want to take the same approach, go ahead." Khronos is free to take as many pages as it wants out of the Mantle playbook, and AMD will impose no restrictions, nor will it charge any licensing fees.
Ich finde das kommt der Definition von Open Source Standard mehr als nahe.
Kartenlehrling
2015-01-07, 00:37:30
Ich finde auch jeder der keine Nvidia Battlebox (http://www.geforce.com/whats-new/articles/nvidia-geforce-gtx-battlebox#1) zu Hause stehen hat, ist am rapiden Computersterben schuld.
hardware.fr behauptet, dass AMD sagt, der Iiyama ProLite B2888UHSU-B1 könnte ein firmware Update bekommen. Ich denke aber Betonung liegt auf könnte.Eine der typischen Fehlzuschreibungen, die danach in "aber AMD hat versprochen" enden. Das war eine Aussage von OCUK, die sie von ihrem Iiyama-Lieferanten bekommen hatten aber dann wiederriefen unter Versprechen, dass sie einen Refund anbieten, falls das Update für Leute, die es speziell deswegen gekauft haben, nicht angeboten würde.
|MatMan|
2015-01-07, 00:59:17
Ich finde das kommt der Definition von Open Source Standard mehr als nahe.
:confused: Das macht Mantle selbst auch nicht zum offenen Standard. Knapp daneben ist immernoch vorbei. Also was soll das "mehr als nahe"? Solange AMD alleinig über die Zukunft von Mantle entscheidet, kommen sie auch nicht näher an einen offenen Standard.
Trotzdem ist die Aussage natürlich zu begrüßen. OpenGL muss hier nachlegen, nachdem selbst schon MS mit DX12 nachzieht. Schöner wäre es gewesen dazu auch etwas von einem OpenGL Menschen zu hören.
Man kann jetzt argumentieren, dass es in AMDs Interesse ist, wenn OpenGL Next ähnlich zu Mantle wird - das vereinfacht ggf. die Treiberentwicklung etwas. Das haben sie sich ja auch absolut verdient.
Unicous
2015-01-07, 01:33:08
Eine der typischen Fehlzuschreibungen, die danach in "aber AMD hat versprochen" enden. Das war eine Aussage von OCUK, die sie von ihrem Iiyama-Lieferanten bekommen hatten aber dann wiederriefen unter Versprechen, dass sie einen Refund anbieten, falls das Update für Leute, die es speziell deswegen gekauft haben, nicht angeboten würde.
Ich denke, dass hardware.fr ein wenig quality time mit dem AMD-Represenanten hatte und das nicht ein nochmaliges Aufgreifen von Gerüchten ist. Könnte natürlich auch falsch sein. Könnte aber auch konkretere Aussage jetzt zur CES direkt von AMD sein. Denn zuvor war nicht die Rede davon, dass der "utilisateur" das selbst vornehmen kann. Vllt. geht es relativ einfach über den vorhanden USB-Port. *schulterzucksmiley.gif
Letztendlich muss sich Iiyama dazu bekennen, ob sie es anbieten oder nicht.
@|MatMan|
Ich glaube man sollte das wenn dann im entsprechenden Thread weiterdiskutieren. Andererseits drehen wir uns alle immer im Kreise und AMD hilft da gerne mit, indem sie monatealte Ankündigungen verstreichen lassen. Es gibt ja auch bislang kein Update seitens AMD bezüglich des Public SDK. Aber gut. Das neue Jahr ist erst ein paar Tage alt und sie sind im CES-Stress. Mal sehen, was die nächsten Tage bringen.
Locuza
2015-01-07, 11:06:59
Computerbase Update:
Offensichtlich ist AMD mit der Aussage, dass der BenQ XL2730Z auf ein IPS-Panel setzen wird, etwas über das Ziel hinaus geschossen. So hat BenQ gegenüber ComputerBase soeben bestätigt, dass der Monitor doch nur über ein TN-Panel verfügt. Anfang März soll der XL2730Z erscheinen, eine unverbindliche Preisempfehlung gibt es noch nicht.
http://www.computerbase.de/2015-01/zehn-freesync-monitore-machen-den-anfang/
N0Thing
2015-01-07, 11:42:19
Schade. Aber vielleicht entpuppt sich der Benq wenigstens als günstigere Alternative zum Asus ROG.
fondness
2015-01-07, 12:03:15
Jungs versteht doch mal den Unterschied zwischen "offen" und "open source". Klar kann, wenn das SDK raus ist, jeder einen Mantle Treiber schreiben. Oder seine eigene, neue Mantle Version.
Der springende Punkt ist, dass AMD die Kontrolle über Mantle behält. AMD allein definiert die nächste Version von Mantle. Niemand anders! Das ist nicht offen! Marketing at its best...
Genauso wenig ist DX offen, da diktiert MS die Bedingungen, zumindest aber dürfen einige andere etwas mitsprechen.
OpenGL ist offen, da es da ein Konsortium gibt, welches über neue Versionen entscheidet.
Ich glaube übrigens nicht an einen Mantle Treiber von Intel. Man unterstützt keinen proprietäre Sache eines Konkurennten, wenn es nicht unbedingt sein muss.
LOL, natürlich behält AMD die Kontrolle, das ist ja wohl das absolut Mindeste. Alleine schon das AMD Mantle Open Source machen will und jedem erlaubt ohne Lizenskosten Treiber dafür zu schreiben ist weit mehr als Nvidia jemals tun würde. Ganz davon abgesehen das AMD Mantle sowhl für die Khronos-Group als auch für MS offen gelegt hat damit diese alle Vorzge sofort sehen und es ähnlich Implementieren können. Das bringt wie auch FreeSync die gesamte Industrie nach vorne.
transstilben
2015-01-07, 12:28:25
Mal angenommen, ich habe einen G-/bzw. Free-/A-Sync fähigen Monitor und eine G-/bzw. Free-/A-Sync fähige Grafikkarte vom Hersteller meines Vertrauens (wie z.B. einen iMac Retina). Wie kann man zuverlässig quantitativ testen, ob die jeweilige Kombination aus Monitor/Karte/Software tatsächlich das tut was sie soll ?
Was mache ich, wenn ich keine Hochgeschwindigkeitskamera zur Hand habe ? :confused:
Unicous
2015-01-07, 12:48:02
Computerbase Update:
http://www.computerbase.de/2015-01/zehn-freesync-monitore-machen-den-anfang/
Roy Taylor ist ein Idiot.:facepalm:
Mal angenommen, ich habe einen G-/bzw. Free-/A-Sync fähigen Monitor und eine G-/bzw. Free-/A-Sync fähige Grafikkarte vom Hersteller meines Vertrauens (wie z.B. einen iMac Retina). Wie kann man zuverlässig quantitativ testen, ob die jeweilige Kombination aus Monitor/Karte/Software tatsächlich das tut was sie soll ?
Was mache ich, wenn ich keine Hochgeschwindigkeitskamera zur Hand habe ? :confused:
Du verlässt dich auf die Aussagen Dritter?
Kartenlehrling
2015-01-07, 12:50:30
mit 120fps aufnehmen und mit einem Videobearbeitungs program in zeitlupe abspielen lassen,
wie weit das mit Youtube geht weiss ich nicht aber da kann man auch die abspielgeschwindigkeit verändern.
Und natürlich den FCAT Farbbalken mit in die Aufnahme projektieren.
Roy Taylor ist ein Idiot
Ja, er sägt jedesmal selber an seiner Glaubwürdigkeit,
meine Oma hätte gesagt er ist ein Schaumschläger,
er hat bestimmt früher um sein Studium zu finanzieren Küchenreiben in der Fussgängerzone verkauft.
Unicous
2015-01-07, 13:11:42
http://www.pcper.com/news/Graphics-Cards/CES-2015-AMD-Talks-Technical-about-FreeSync-Monitors
Minimale und maximale Adaptive Sync Rate wird vom Panel/Display Hersteller vorgegeben (und ist auch wahrscheinlich direkt abhängig von der genutzten Technologie) Die IPS/AHVA gehen momentan von 40-60, der TN BenQ geht von 30-144Hz. Das ist aber keine Einschränkung von Adaptive Sync. In den Außenbereichen kann man normal festlegen ob VSync aktiviert wird.
8rY0ZJJJf1A
Kartenlehrling
2015-01-07, 13:41:42
Die IPS/AHVA gehen momentan von 40-60,...
Und was heiss das nun?
Mir wär egal wenn der Monitor bei 40hz stehen bleibt aber das Spiel auf 20fps runterruscht und ruckeln entsteht,
aber ich hätte schon gern 60hz Monitor aber > unbeschränkte FPS oberhalb 60fps,
weil das hat schon in Virtual Vsync wunderbar funktioniert und spielte sich wunderbar.
Botcruscher
2015-01-07, 13:46:08
70FPS auf 60 runter brechen muss tierisch stottern und kann nicht wunderbar sein. Wer das Maximum will macht Vsync aus.
Kartenlehrling
2015-01-07, 13:50:40
http://www.gamersyde.com/thqstream__virtual_sync_test_60fps-uKo04JKlVe57vX6N_en.html
virtual-sync Test 60fps
N0Thing
2015-01-07, 13:55:29
Und was heiss das nun?
Mir wär egal wenn der Monitor bei 40hz stehen bleibt aber das Spiel auf 20fps runterruscht und ruckeln entsteht,
aber ich hätte schon gern 60hz Monitor aber > unbeschränkte FPS oberhalb 60fps,
weil das hat schon in Virtual Vsync wunderbar funktioniert und spielte sich wunderbar.
Das kann man laut dem Video von PC-Perspective ja nach eigenen Wünschen einstellen. Entweder man aktiviert zu Free-Sync auch noch V-Sync, dann hat man kein Tearing ausserhalb der Free-Sync bereiche, oder man deaktiviert V-Sync und hat dann zwar Tearing, aber auch die maximal möglichen FPS ausserhalb der Bereiche von Free-Sync.
Unicous
2015-01-07, 13:59:47
Btw. die LG Monitore sind ja für 75Hz ausgelegt. Ist schon mal ein Fehler auf Seiten von Ryan Shrout.
G-Sync macht es nicht viel anders. Bei 30Hz war ja bei dem Swift (iirc) auch Schluss. (Bei G-Sync ist mE in den Außenbereichen VSync immer an... keine Ahnung ob man es ausmachen kann?)
M4xw0lf
2015-01-07, 14:02:09
Btw. die LG Monitore sind ja für 75Hz ausgelegt. Ist schon mal ein Fehler auf Seiten von Ryan Shrout.
G-Sync macht es nicht viel anders. Bei 30Hz war ja bei dem Swift (iirc) auch Schluss. (Bei G-Sync ist mE in den Außenbereichen VSync immer an... keine Ahnung ob man es ausmachen kann?)
Meiner Meinung nach ist es außerhalb immer aus ^^
Meiner Meinung nach ist es außerhalb immer aus ^^Gab es nicht üble Flackerprobleme mit GSync unterhalb gewisser Framerates bei einigen Monitoren? Würde dafür sprechen, dass es zumindest nach unten hin weiter zu synchronisieren versucht wird.
Btw. die LG Monitore sind ja für 75Hz ausgelegt. Ist schon mal ein Fehler auf Seiten von Ryan Shrout.Da bin ich nichtmal sicher. Vielleicht haben LG auf ihrem Datenblatt einfach "max. 75Hz" angegeben, was ohne Nutzer-Eingriffe à la CRU aber z.B. nur bei geringerer Auflösung als der nativen erreicht wird. Ist ja nicht unüblich.
Was mich mehr verwundert, ist der angedeutete Punkt "Judder", der mit VSync + Freesync entstehen könne. Kann mir nur vorstellen, dass das daher kommen kann, dass Triple Buffer VSync eingesetzt wird, aber das Panel @max. Refreshrate läuft. Da sehe ich dann wiederum nicht, was der Punkt von Freesync wäre in dieser Kombination. Oder aber die verbauten Panels/Elektronik bei dem betroffenen Monitor sind gar nicht so flexibel wie die Controller und haben eben doch eine fixe tatsächliche Refreshrate... Oder sonst ist die Angabe zum Judder einfach nur aus den Fingern gesogen.
Kartenlehrling
2015-01-07, 14:10:29
Meiner Meinung nach ist es außerhalb immer aus ^^
Eben nicht,
hier im Forum hat einer mit G-sync FPS Messung gemacht, weil da auch immer behaupt wird es würde "nichts Kosten" und
da war einer mit einem 4k Acer g-sync der ja nur mit 60hz läuft und da war mit 60fps schluss.
M4xw0lf
2015-01-07, 14:17:21
Cb sagt auch immer an...
http://pics.computerbase.de/5/3/8/1/7/10_m.png
aber unterhalb von 30 FPS ist das doch totaler Müll. Ist es vielleicht drüber an, drunter aus?
Nightspider
2015-01-07, 14:19:25
40-60Hz ist doch ziemlich schlecht oder? Das ist gerade mal eine Range von 20Hz.
Gerade der Bereich von 30-40fps ist doch wichtig für SP Games und für neue HighEnd Games und 4K wären sogar noch 20-30fps wichtig.
Ich dachte die 30fps waren damals nur bei G-Sync eine Grenze die es bei FreeSync nicht mehr geben würde. Verdammt.
Edit:
Kann man bei <30fps die Bilder nicht einfach doppelt hintereinander ausgeben also bei 22fps zB. 44 Bilder synchron ausgeben? Oder stelle ich mir das zu leicht vor? Dann würde es bei 15fps hinunter funktionieren.
Ich dachte die 30fps waren damals nur bei G-Sync eine Grenze die es bei FreeSync nicht mehr geben würde. Verdammt.Ist ja nicht abhängig von FreeSync, sondern vom verbauten Panel und der restlichen Elektronik.
M4xw0lf
2015-01-07, 14:20:44
Ich dachte die 30fps waren damals nur bei G-Sync eine Grenze die es bei FreeSync nicht mehr geben würde. Verdammt.
Dass das vom Panel abhängt, war zu erwarten und ist logisch.
Unicous
2015-01-07, 14:24:17
Zu Vsync an: Ryan Shrout sagt es im PcPer Podcast selbst, Tom Peterson hat es auch bei den entsprechenden Interviews gesagt.
Es könnte aber dennoch dafür sprechen, dass es verschiedene Herangehensweisen gibt. Im Endeffekt ist das Panel "schuld". Wenn sie die "Grenzen" nach unten öffnen (also bis max. 9 Hz laut Spec) wäre es ja auch kein Problem mehr. Dennoch hat G-Sync das gleiche Problem. Ob der Lookaside Buffer hilft, das auszugleichen und die tollen Algorithmen die sie sich ausgedacht haben. Ich weiß es nicht. PCPer hatte ja auch die Beobachtung mit den plötzlich abfallenden fps-Raten gemacht, die G-Sync nicht auffangen kann.
Edit:
Es gibt ja zumindest noch die konstante Refresh Rate, bei Videos zum Beispiel, wo die RR auf die fps-Rate des Videos angepasst wird.
Kartenlehrling
2015-01-07, 14:24:55
Ich dachte die 30fps waren damals nur bei G-Sync eine Grenze die es bei FreeSync nicht mehr geben würde. Verdammt.
Du kannst da nochmal 15 Hz/fps drauflegen, ich glaube ht4u war es die geschrieben haben das bei g-sync 30hz nicht reichen,
erst mit 45fps ein geschmeidiges Spiel entstand darunter es auch rucklig war.
Kann man bei <30fps die Bilder nicht einfach doppelt hintereinander ausgeben also bei 22fps zB. 44 Bilder synchron ausgeben? Oder stelle ich mir das zu leicht vor?Sowas würde ich mir erhoffen vom Treiber... Cooles Feature wäre zumindest bei fixen Rates wie bei "24"fps-Filmen, dass sowas z.B. verdoppelt oder verdreifacht wird. Sofern der Monitor an sich nicht ohnehin mit 24p umgehen kann.
Nightspider
2015-01-07, 14:30:05
Das war mir bisher nicht klar das diese Begrenzung am Panel liegt. Und ganz verstehen tue ich es immer noch nicht. Liegt es daran das die Panels zu langsam oder zu schnell sind oder wie oder was?
Kartenlehrling
2015-01-07, 14:30:57
Samm ? was willst du denn noch?
http://scr3.golem.de/screenshots/1412/Catalyst-Omega-Test/thumb620/Catalyst-Omega-05_cr.png
dargo
2015-01-07, 14:33:44
Bis 40Hz im unteren Bereich finde ich ok, weniger kann man eh nicht mehr wirklich als flüssig bezeichnen. Was ich aber total bescheuert finde ist die Obergrenze von 60Hz. Was soll das? Ich hatte mich schon auf 72-75Hz @Freesync gefreut. :(
Unicous
2015-01-07, 14:35:01
@Kartenlehrling
Er spricht sicherlich nicht von Videos.:rolleyes:
@Nighspider
Ich denke man hat es einfach nicht gemacht, weil man es nicht gebraucht hat. Das könnte sich zukünftig ändern und ist sicherlich keine Raketenwissenschaft.
@dargo
Lesen bildet.
Ich zitiere mich selbst
Minimale und maximale Adaptive Sync Rate wird vom Panel/Display Hersteller vorgegeben (und ist auch wahrscheinlich direkt abhängig von der genutzten Technologie) Die IPS/AHVA gehen momentan von 40-60, der TN BenQ geht von 30-144Hz.
Mandalore
2015-01-07, 14:35:40
40-60 ist definitiv BS. Ich meine man hat ja dann vllt. nur 1/5 der gesamten Zeit FreeSync an (für die meisten)
Wie schauts aus beim Asus 4K IPS GSync Monitor? 30-60?
Unicous
2015-01-07, 14:37:27
Leute... es ist vom Panel abhängig. Lest doch erst einmal bevor ihr schreibt.
dargo
2015-01-07, 14:37:46
@dargo
Lesen bildet.
Ich zitiere mich selbst
Verstehen auch. :rolleyes:
Wen interessiert der TN-Schrott? Ich spreche selbstverständlich von IPS/VA.
40-60 ist definitiv BS. Ich meine man hat ja dann vllt. nur 1/5 der gesamten Zeit FreeSync an (für die meisten)
Wie kommst du jetzt darauf? Wenn die Obergrenze 60Hz ist dann benutzt man selbstverständlich ein 60fps Limit.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.