PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : G-/Free-/A-Sync: framesynchronisierter Displayrefresh per variablem vblank-Intervall


Seiten : 1 2 3 [4] 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30

M4xw0lf
2014-11-13, 16:22:53
Freesync-Monitore vllt. schon im Dezember bzw. Januar (es kommt aber von Richard Huddy daher mit einer Salzbrezel verdauen:freak:)

http://youtu.be/C_3OAD-Dhs0?t=10m10s

Dazu gibt es einen Monitorhersteller dessen Monitore (oder auch nur ein Modell), Freesync mit einem Firmware Update beherrscht. (Nixeus?)

AMD wird wahrscheinlich im Dezember einen Treiber zur Verfügung stellen (hoffentlich nicht nachdem Freesync-Monitore erhältlich sind:rolleyes:)
Vorher braucht ihn doch niemand :freak:

Unicous
2014-11-13, 16:35:18
Nja, was Richard Huddy sagt mag zwar im Kern richtig sein, aber der Zeitplan hinkt bei ihm immer etwas nach. Ich würde eher auf Januar tippen für die Monitore. Und Februar für den Treiber.:tongue:

aufkrawall
2014-11-13, 16:41:46
Laut Folie Freesync-Monitore frühstens ab Sommer, oder wie darf man das verstehen?

fondness
2014-11-13, 16:48:15
Er sagt die Folie ist von Juni und mittlerweile gehen sie davon aus das erste Geräte noch im Dezember kommen.

Unicous
2014-11-13, 16:52:17
Laut Folie Freesync-Monitore frühstens ab Sommer, oder wie darf man das verstehen?

Das ist das Problem wenn man nur auf die Präsentations-slides anguckt und nie die Präsentation verfolgt.

Mandalore
2014-11-13, 17:26:21
So gesehen steckt die Hardware vom G-Sync Modul 1:1 in der GPU drin? Tja, Nvidia muss hier nachholen, weil hier wird es im Vergleich zu Mantle sehr unangenehm....

aufkrawall
2014-11-13, 17:30:35
Das ist das Problem wenn man nur auf die Präsentations-slides anguckt und nie die Präsentation verfolgt.
Chill dir mal ne base, ich hab nur nachgefragt...

Unicous
2014-11-13, 17:42:30
Warum musst du nachfragen, wenn ich es schon paraphrasiert habe?


(ps. Chill mal deine Base? Wo ist der Ausspruch denn bitte Umgangssprache? Bei hippen Lektoren?)

FlashBFE
2014-11-13, 22:22:33
Freesync-Monitore vllt. schon im Dezember bzw. Januar (es kommt aber von Richard Huddy daher mit einer Salzbrezel verdauen:freak:)

http://youtu.be/C_3OAD-Dhs0?t=10m10s
In was für einer heruntergekommenen Bruchbude hält der denn die Präsentation? Das Video ist eher Anti-Marketing. Leider wieder nichts konkretes zum Thema.

Unicous
2014-11-13, 22:33:01
Das ist alles? Du beschwerst dich, dass die PDXLAN keine fancy Eventräume hat sondern in einem x-beliebigen Hotel stattfindet?

The Fuck?

Wie kann AMD nur zu(e: ) einer der größten amerikanischen LAN-Parties gehen wo nur ungewaschene Pickelbärte rumsitzen um...zu spielen.


Oh je, oh je.

Timbaloo
2014-11-13, 23:23:20
Das ist das Problem wenn man nur auf die Präsentations-slides anguckt und nie die Präsentation verfolgt.
Das ist eigentlich in erster Linie das Problem wenn man Slides zeigt die veraltet sind. In einem professionellen Umfeld würde man dafür Haue kriegen.

Unicous
2014-11-14, 13:27:25
Hi there

Spoke to LG.

Hoping to get 29" and 34" super-wide flat IPS panels early next year with FreeSync which shall be exclusive to OcUK in UK.

So IPS and Freesync, boooooooooooooooooom!

http://forums.overclockers.co.uk/showpost.php?p=27210099&postcount=86

Gibbo arbeitet bei OcUK im Marketing. Quatsch, Einkaufsmanager. Also er sourced bei den Herstellern Produkte etc.

fondness
2014-11-14, 13:31:18
So gesehen steckt die Hardware vom G-Sync Modul 1:1 in der GPU drin? Tja, Nvidia muss hier nachholen, weil hier wird es im Vergleich zu Mantle sehr unangenehm....

AMD hat FreeSync eben lange Zeit vorbereitet, einen DP-Standard etabliert und entsprechende Hardware in die GPUs eingebaut um kaum zusätzliche Kosten für die Monitore zu verursachen. NV hat davon Wind bekommen und schnell einen FPGA programmiert und in bestehende Monitore eingebaut um vor AMD am Markt zu sein. Langfristig ist die NV-Lösung mit der Logik im Display viel zu teuer und aufwändig und wird sich IMO auch nicht durchsetzen. Nur eine Frage der zeit bis sich NV zu FreeSync bekennt, sobald man auch GPUs am Markt hat die entsprechenden Support bieten wird das wohl der Fall sein. G-Sync ist defacto eh schon tot, man hört nichts mehr von neuen Monitoren...

M4xw0lf
2014-11-14, 13:34:36
http://forums.overclockers.co.uk/showpost.php?p=27210099&postcount=86

Gibbo arbeitet bie OcUK im Marketing. Quatsch, Einkaufsmanager. Also er sourced bei den Herstellern Produkte etc.
Ui :usweet:

robbitop
2014-11-14, 13:34:40
Hm 3440x1440 34" 21:9 mit Freesync/IPS klingt auch nicht schlecht.
Allerdings keine Steigerung der Pixeldichte ggü 16:9 1440p Monitoren.

Ich hoffe, es wird auch 16:9 4K IPS Bildschirme mit G/A-Sync geben. Und hoffentlich adaptieren alle GPU Hersteller auch A-Sync.

Nightspider
2014-11-14, 13:38:42
Wenn dann 4K+FreeSync. 1440p ist oldschool und nicht mehr zeitgemäß.

robbitop
2014-11-14, 13:50:00
Wenn dann 4K+FreeSync. 1440p ist oldschool und nicht mehr zeitgemäß.
:rolleyes: Bist du der Hypetrain? *choochoo*

1440p ist absolut zeitgemäß.

Warum:

1. 4K bis dato nur ein Bruchteil des Marktes hat
2. Es keine sinnvolle Lösung für die Windows UI gibt (Matsch oder Mikroskop)
3. Nicht genug Grafikleistung vorhanden ist
4. Es gibt kaum vernünftige Monitore (IPS Panel)
5. Es gibt kein 4K + G/A-Sync edit: + IPS

Zeitgemäß ist es, wenn es

1. Mehr Modelle zu kaufen gibt
2. Es nicht mehr mittelalterliche 60 Hz sind
3. Es IPS+G/A-Sync Monitore @4K gibt
4. Genug Grafikleistung gibt

Aktueller Benchmark von Assassins Creed: Unity

4K @Ultra Details bei einer GTX980 (der derzeitig schnellsten kaufbaren GPU): 18 fps.

Da fehlt mal eben Faktor 3 an Grafikleistung. Da wird auch GM200 noch zu langsam sein. Weitere neue Spiele von 2015 werden nicht weniger fordernd sein.

1440p als nicht mehr zeitgemäß zu propagieren ist IMO etwas verfrüht.
In 2-3 Jahren vielleicht.

Unicous
2014-11-14, 13:53:00
Ich sehe das momentan ähnlich wie robbitop. 4K ist einfach noch nicht angekommen und um als early adopter zu fungieren ist mir das Geld zu schade.

Falls AMD es dann mal hinbekommt mit Downsampling und Co. überlege ich zu wechseln und mir einen Adapative Sync/Freesync Monitor zu holen. Den "G-Sync Tax" wie Huddy es nennt möchte ich einfach nicht bezahlen, auch wenn Nvidia behauptet es wäre die bessere Lösung.

HOT
2014-11-14, 14:38:41
Jo und 21:9 ist meiner Ansicht nach auch das beste Seitenverhältnis für 1st und 3rd-Person-Spiele. Höhere Auflösung ist mir eigentlich egal, hauptsache es wird weiter an AA-Techniken gefeilt.

akuji13
2014-11-14, 14:39:39
1440p ist absolut zeitgemäß.

Wenn ich es überspitze könnte ich sagen es ist vergleichbar mit dem Unterschied zwischen einem 2011 und 2011-3 System. ;)

5. Es gibt kein 4K + G/A-Sync

:confused:

http://geizhals.de/acer-predator-xb280hkbprz-um-pb0ee-005-a1120202.html

mironicus
2014-11-14, 14:49:52
1440p ist absolut zeitgemäß.

1440P ist ein Format, was die meisten überspringen werden.

Neuere 4K-Displays können sehr gut 1080P skalieren, da kannst du deine Games weiterhin mit hohen Frameraten spielen, in 1-2 Jahren dann werden die GPUs in 4K schnell genug sein.

derguru
2014-11-14, 14:57:31
nativ ist pflicht, da gibt es imo nichts dran zu rütteln, dann lieber in optionen details reduzieren.

Schnoesel
2014-11-14, 15:01:46
nativ ist pflicht, da gibt es imo nichts dran zu rütteln, dann lieber in optionen details reduzieren.

So sehe ich das auch. Downsampling erhöht die PPI auch nicht. Meinen 1440p Monitor gebe ich erst wieder für eine 4K/IPS/A-Sync Panel wieder her.

akuji13
2014-11-14, 15:01:47
Neuere 4K-Displays können sehr gut 1080P skalieren

Wenn man blind ist vielleicht. :D
Windows sieht müllig aus in 4k und dann die Spiele auch! ;D

Und vor allem: wenn ich darauf in 1080p spielen würde, worin liegt dann der Vorteil gegenüber einem 1080p
display? ;)

dann lieber in optionen details reduzieren.

Was aber manchmal selbst auf low noch zuviel Anforderung ist.

ChaosTM
2014-11-14, 15:13:04
1440P ist ein Format, was die meisten überspringen werden.

Neuere 4K-Displays können sehr gut 1080P skalieren, da kannst du deine Games weiterhin mit hohen Frameraten spielen, in 1-2 Jahren dann werden die GPUs in 4K schnell genug sein.


So isses. Wer 120fps braucht, spielt halt 1080p hochskaliert.

Und Unity bringt man mit 3 kleinen Anpassungen auf gut über 30fps. Enviroment - High, Shadows - Low, Bloom(crap) - Off -> voila!

Ich verstehe aber auch, wieso sich manche so auf 1440p versteifen. Wahrscheinlich weil sie sich erst vor kurzem einen geleistet haben...

Schlecht sind die bei Leibe nicht, nur eben kein Vergleich zu 4k.
Der imho größte Vorteil ist der fast völlige Wegfall der Notwendigkeit von AA.

1440p mit 4x AA flimmert immer noch mehr als 2160p mit Fxaa bei gleicher Framerate. Und ratet mal, was besser ausschaut..

4k -> Gaming 2.0
Und ich hör schon wieder auf... :)

Grestorn
2014-11-14, 15:14:45
nativ ist pflicht, da gibt es imo nichts dran zu rütteln, dann lieber in optionen details reduzieren.

Witzig nur dass das auf einmal bei Downsampling nicht mehr gilt...

Eine nicht-Native Auflösung ist nichts anderes als Upsampling mit genau den gleichen Nachteilen, die Downsampling mit sich bringt.

Wenn man blind ist vielleicht. :D
Windows sieht müllig aus in 4k und dann die Spiele auch! ;D

Der Windows Desktop ist auch kein Spiel. Beim Desktop möchte ich eine pixelgenaue Darstellung. Bei Spielen ist das nicht wichtig.

mironicus
2014-11-14, 15:15:25
Und vor allem: wenn ich darauf in 1080p spielen würde, worin liegt dann der Vorteil gegenüber einem 1080p
display? ;)

Auf einem 1080P-Display kannst du nicht in 4K spielen, auf einem 4K-Display geht beides. ;D

Ein Display ist normalerweise eine Investition für mehrere Jahre im Gegensatz zu einer Grafikkarte, daher wäre ich für den Kauf eines 4K-Monitors schon jetzt wenn IPS+Freesync/GSync vorhanden ist.

Den Erwerb von 3 Grafikkarten um AAA-Titel in 4K jetzt flüssig spielen zu können tue ich mir nicht an, daher warte ich lieber auf eine Single-Grafikkarte, die das alles in 1-2 Jahren nativ bietet.

akuji13
2014-11-14, 15:32:06
4k -> Gaming 2.0

Nur mit einem anständigen panel und entsprechenden fps.

Beim Desktop möchte ich eine pixelgenaue Darstellung. Bei Spielen ist das nicht wichtig.

Dir vielleicht nicht, mir sehr.

Auf einem 1080P-Display kannst du nicht in 4K spielen, auf einem 4K-Display geht beides. ;D

In beschissener Optik, da verzichte ich.

Ein Display ist normalerweise eine Investition für mehrere Jahre im Gegensatz zu einer Grafikkarte, daher wäre ich für den Kauf eines 4K-Monitors schon jetzt wenn IPS+Freesync/GSync vorhanden ist.

Beides wird bei mir idR nach 12 Monaten getauscht.
Was andere machen interessiert mich nicht die Bohne.

Zumal ich immer 2+ Monitore stehen habe,

Den Erwerb von 3 Grafikkarten um AAA-Titel in 4K jetzt flüssig spielen zu können tue ich mir nicht an, daher warte ich lieber auf eine Single-Grafikkarte, die das alles in 1-2 Jahren nativ bietet.

Komisch, aber vorher noch schön pro 4k argumentieren. ;)

Ich warte auch und überbrücke bis dahin mit 1440p.

Grestorn
2014-11-14, 15:33:15
@akuji13: D.h. DSR und Downsampling kommt für Dich auch grundsätzlich nicht in Frage?

robbitop
2014-11-14, 15:35:47
Jo und 21:9 ist meiner Ansicht nach auch das beste Seitenverhältnis für 1st und 3rd-Person-Spiele. Höhere Auflösung ist mir eigentlich egal, hauptsache es wird weiter an AA-Techniken gefeilt.
Wieso weiter? Wir hatten bis zum Einzug der DR-Engines extrem ausgereifte und toll funktionierende Verfahren. Jetzt sind wir aber wieder in der Steinzeit und freuen uns einen Kullerkeks, dass NV uns OGSSAA in Form von "DSR" bietet. :D


:confused:

http://geizhals.de/acer-predator-xb280hkbprz-um-pb0ee-005-a1120202.html

Ich meine Monitore und keine Seuche. ;)
Kleiner Spaß: ich habe das "+IPS" vergessen.



1440P ist ein Format, was die meisten überspringen werden.

Neuere 4K-Displays können sehr gut 1080P skalieren, da kannst du deine Games weiterhin mit hohen Frameraten spielen, in 1-2 Jahren dann werden die GPUs in 4K schnell genug sein.
Aha...weil....du es sagst? :D
Lass mich raten: du hast eine Marktstudie dazu?

4K kostet mal eben Faktor 4 von FullHD. 1440p kostet nur ca. Faktor 2. 1680x1050 wurde auch nicht "ausgelassen".
Und die Masse hat keine High End Karte, die immer Top aktuell ist. Bis 4x Auflösung für die breite Masse von der Performance zu vertragen ist, wird es noch eine ganze Weile dauern.

Und zur Skalierung: mag man denken, dass es so ist. Ist aber leider nicht so. Es werden leider nicht einfach nur Pixel vervierfacht, sondern es wird in Nachbarpixel mit reingepfuscht. Es gibt AFAIK derzeit kein 4K Monitor, der 1080p mit vergleichbarer Schärfe wie ein nativer 1080p Monitor darstellen kann.

TFTs betreibt man in nativer Auflösung.


4k -> Gaming 2.0
Und ich hör schon wieder auf... :)
*choochoo*

Sag mir Bescheid, wenn 45 fps in 4K @Ultra Settings in AC:U machbar sind. Vorher ist 4K = Ruckeln und miese Panels 2.0.

akuji13
2014-11-14, 15:37:03
@Grestorn
Nur als Notlösung bis AA bits ect. verfügbar sind oder zum Leistungstest wie in etwa 4k laufen würde.

Es sieht eben nicht 100% sauber aus (mMn aber besser als ein 4k@1080p) und kostet in relevanten Auflösungen um 4k herum zuviel Leistung.

Mir reichte Titan SLI@1080p schon häufiger nicht, von 3D ganz zu schweigen.

ChaosTM
2014-11-14, 15:43:30
Nur mit einem anständigen panel und entsprechenden fps.



Das Panel ist deinem iirc sehr ähnlich - nur mit doppelter Auflösung. ;)
Flicker Free und 10bit Farben sollte deiner auch haben.
Meinem fehlen eben leider V/Free-Sync und mehr als 60fps.

Die derzeit oft noch fehlenden fps macht das flimmerfreie und glasklare Bild für mich mehr als wett.
Aber das muss jeder für sich entscheiden bzw. sich von 4k Geräten fernhalten.
Einmal gesehen gibts kein zurück mehr.

robbitop
2014-11-14, 15:47:55
Der Acer hat ein billiges TN Panel mit 700:1 Kontrast (gemessen!). Meh.
Der SWIFT ist nicht viel besser (1000:1 gemessen) -> Wenn es endlich ein IPS 4K + G-Sync Gerät gibt, sind wir vielleicht ein Stückchen näher. Ich wäre der erste der das kauft (und 2x GM200 dazu - damit ich nicht bei 20 fps rumkrebsen muss)

akuji13
2014-11-14, 15:48:38
Das Panel ist deinem iirc sehr ähnlich - nur mit doppelter Auflösung. ;)
Flicker Free und 10bit Farben sollte deiner auch haben.
Meinem fehlen eben leider V/Free-Sync und mehr als 60fps.

Auch meiner ist von "Gaming 2.0" weit entfernt, alleine der Schwarzwert sorgt schon dafür.
Die restlichen Mängel kommen oben auf.
Das ist nicht einmal "Gaming 1.0", eher "Beta-Status 0.5".

Ich betrachte ihn als das kleinstmögliche Übel. :wink:

Die derzeit oft noch fehlenden fps macht das flimmerfreie und glasklare Bild für mich mehr als wett.
Aber das muss jeder für sich entscheiden bzw. sich von 4k Geräten fernhalten.
Einmal gesehen gibts kein zurück mehr.

Und da sind wir schon wieder bei der Subjektivität.
Ich sehe da sowohl Kanten als auch Flimmern.
Dafür reicht 4k einfach nicht aus.

Ein Borderlands 2 mit seinem günstigen content ist fast ruhig, ein Crysis 1 gerade mit der gemoddeten Vegetation immer noch ein Graus (für mich).

robbitop
2014-11-14, 15:52:46
Hätten wir noch 8x SGSSAA mit Narrow Tent Filter wäre das Bild glatt wie ein Babypopo und flimmerfrei.

akuji13
2014-11-14, 15:55:05
Hätten wir noch CRT´s nur in 27". ;)

Grestorn
2014-11-14, 16:03:06
@Grestorn
Nur als Notlösung bis AA bits ect. verfügbar sind oder zum Leistungstest wie in etwa 4k laufen würde.

Es sieht eben nicht 100% sauber aus (mMn aber besser als ein 4k@1080p) und kostet in relevanten Auflösungen um 4k herum zuviel Leistung.

Eine pixelgenaue Darstellung ist für Bilder (aus denen Spiele weitestgehend bestehen) nicht wichtig. Genauer: Ich WILL in Spielen gar keine Pixel und pixelfeine Linien sehen.

Im Gegenteil: pixelfeine Elemente flimmern in Bewegung. Immer. Das lässt sich nicht vermeiden, denn sobald die Szene aus einem leicht anderen Blickwinkel dargestellt wird, ist der Pixel der eben noch genau auf einem Monitor-Pixel abgebildet wurde, auf einmal genau zwischen zwei Monitor-Pixeln. Folge: Flimmern.

Eine Native-Auflösung hat den Vorteil, das Pixel 1:1 abgebildet werden. Wie gesagt, auf dem Desktop will ich es auch genau so, denn auf dem Desktop gibt es jede Menge pixelfeine Elemente.

In Spielen spielt das aber kaum eine Rolle. Deswegen ist auch objektiv ein z.B. mit 1,5x höher Auflösung berechnetes 3D-Bild und dann runtergesampeltes Bild dem native Bild immer überlegen.

ChaosTM
2014-11-14, 16:05:34
*choochoo*



Mir ist klar, das ich fast schon wie ein Verrückter klinge. :)

Aber es ist einfach sehr geil. Anders kann ich es nicht beschreiben.
Immer wenn ich von der Arbeit heimkomme und vor meinem Rechner platz nehme, erscheint ein fettes Grinsen auf meinem Gesicht.
Auf einmal ist alles knackscharf und mir flimmern keine Pixeln mehr entgegen. Eine Wohltat füs Auge.

Beim Zocken ist dieser Grinse-Effekt noch viel größer.

Diesen Enthusiasmus versuche ich halt weiterzugeben - aber wie schon so oft erwähnt.: man muss es selber sehen! :D

akuji13
2014-11-14, 16:23:20
In Spielen spielt das aber kaum eine Rolle. Deswegen ist auch objektiv ein z.B. mit 1,5x höher Auflösung berechnetes 3D-Bild und dann runtergesampeltes Bild dem native Bild immer überlegen.

Bestreite ich nicht, aber es ging hier um 1080p@4k.

Und das sieht...ganz objektiv...scheiße aus. :wink:

Grestorn
2014-11-14, 16:32:53
Bestreite ich nicht, aber es ging hier um 1080p@4k.

Und das sieht...ganz objektiv...scheiße aus. :wink:

Wenn es exakt die jeweils halbe Auflösung der Native-Auflösung in beiden Richtungen ist, dann sollte es eigentlich exakt genauso aussehen wie ein 1080p Monitor in der jeweiligen Größe.

Was zugegeben auch Scheiße aussieht, aber nicht wegen dem Upscaling, sondern weil die Pixel dann zu groß sind.

mironicus
2014-11-14, 16:37:21
Gibt es eigentlich GPU-Upscaling in Software bei dem man auch Filter zuschalten kann (wie beim Downsampling NVidia-Lösung)? Gerade im Videobereich gibt es hervorragende Möglichkeiten ein niedrig aufgelöstes Bild durch schlaue Filterung zu verbessern.

akuji13
2014-11-14, 16:40:28
Wenn es exakt die jeweils halbe Auflösung der Native-Auflösung in beiden Richtungen ist, dann sollte es eigentlich exakt genauso aussehen wie ein 1080p Monitor in der jeweiligen Größe.

http://www.prad.de/new/monitore/test/2014/test-asus-pb287q-teil8.html#Interpolation
http://www.prad.de/new/monitore/test/2014/test-dell-up3214q-teil5.html
http://www.prad.de/new/monitore/test/2013/test-asus-pq321q-teil5.html

"Das Resultat ist sehr gefällig, korreliert aber eher mit einer bilinearen Filterung. Ein einfacher Schärfefilter (neun Stufen; Neutralstellung: 12) arbeitet Objektkanten heraus und produziert damit am oberen Ende des Regelungsbereiches Doppelkonturen."

Also ich sehe da überall Unschärfe.

Was zugegeben auch Scheiße aussieht, aber nicht wegen dem Upscaling, sondern weil die Pixel dann zu groß sind.

Das zusätzlich.

Ich weiß ja nicht wie andere Ticken, aber ich betreibe keinen 4k Monitor in 1080p.
Nicht einmal, wenn das Bild dann exakt einem 1080p entsprechen würde.

Grestorn
2014-11-14, 16:45:15
http://www.prad.de/new/monitore/test/2014/test-asus-pb287q-teil8.html#Interpolation
http://www.prad.de/new/monitore/test/2014/test-dell-up3214q-teil5.html

Also ich sehe da überall Unschärfe.

Eigentlich ganz im Gegenteil. Das interpolierte Bild ist deutlich besser. Und zwar weil man die Pixelstruktur eben fast *nicht* erkennen kann. Die im interpolierten Bild dargestellte Struktur ist exakt genauso scharf, wie beim native Bild. Dadurch, dass Du die Pixel beim Native-Bild einzeln auflösen kannst, wird Dir eine Schärfe vorgegaukelt, die gar nicht da ist. Denn es geht ja nicht um die Pixel sondern um den Inhalt, der dargestellt werden soll.

akuji13
2014-11-14, 16:50:07
Eigentlich ganz im Gegenteil. Das interpolierte Bild ist deutlich besser. Und zwar weil man die Pixelstruktur eben fast *nicht* erkennen kann.

Das mag für dich besser sein, weil es weicher wirkt.

Hinweis: ich setze grundsätzlich luma sharpen ein, meistens mit Faktor 3.0 also dem Maximum.

Schärfe ist mir weitaus wichtiger als Flimmerfreiheit (Beides zusammen wäre ideal).

Deshalb hasse ich auch FXAA und TXAA wird eben nur mit luma sharpen genutzt.

Ob mir das vorgegaukelt wird oder nicht ist Wurst, es zählt was ich empfinde.
Und damit bin ich sicher nicht allein, weder bei den Personen die ich persönlich kenne noch bei den hier Anwesenden.

Oder wer von den 4k usern hier spielt in 1080p weil er das Bild als besser empfindet? :wink:

Erdbeermayonnaise
2014-11-14, 16:52:54
Ich bin ausnahmsweise mal mit Grestorn einer Meinung.
Vor kurzem habe ich selbst mal einen 4K-Monitor getestet und das von diesem interpolierte 1080p gefiel mir besser als ein natives.
Vergleichbar ist die Situation mit nearest neighbor upsampling vs bilinear. Ersteres wirkt vielleicht „schärfer“, letzteres sieht jedoch viel besser aus.
Ich würde da jetzt kein Urteil drüber fällen ohne es gesehen zu haben.

Grestorn
2014-11-14, 16:53:37
Oder wer von den 4k usern hier spielt in 1080p weil er das Bild als besser empfindet? :wink:

Das wäre ja auch absurd, wegen dem Unterschied in der Auflösung. Das hat auch nichts mit dem Scaling zu tun.


Die Aussage ist doch: Kann eine niedrigere Auflösung, die nicht native ist, aber eine spielbare Framerate liefert, nicht manchmal besser sein als die Native-Auflösung?

Ich sage: Ja, natürlich.

Bei Konsolen ist das sogar Standard. Auch weil es da - wie ich in einem anderen Thread lang und breit dargelegt habe - gar keine native Auflösung in dem Sinne gibt.

ChaosTM
2014-11-14, 16:55:41
http://www.prad.de/new/monitore/test/2014/test-asus-pb287q-teil8.html#Interpolation

Also ich sehe da Unschärfe.



VividPixel erzeugt Artefakte und sollte nur einen Wert haben -> 0
K.A. warum Prad das an hat.
Das nur am Rande..

Aber wir kommen wirklich weit weg vom Thema.

robbitop
2014-11-14, 16:57:27
Das gilt je nach Material. Für Text oder eine GUI ist das Gift. Für Filmmaterial sicherlich korrekt.

Ansonsten wir ein Bild nur besser, wenn es mit höherer Auflösung/Abtastrate gerendert und anschließend runtergerechnet wird. Krumme Faktoren führen zu (unnötiger - also keiner objektiv positiven) Unschärfe. Es sind zwar mehr Informationen im Bild, aber es sind Samples vom Nachbarpixel im Pixel.

1,5x Pro Achse ist sicher besser als nur 1x Abtastung - aber deutlich(!) besser ist 2x Abtastung. Und zwar um einen höheren Faktor als 2/1,5. ;)

Verringern der Renderauflösung unter die Native Auflösung (also Upscaling) ist mit deutlichen Verlusten belegt. Immerhin handelt es sich hier um eine Unterabtastung. Alles wird unscharf und es kommt zur Artefaktbildung.

akuji13
2014-11-14, 17:02:19
Ich würde da jetzt kein Urteil drüber fällen ohne es gesehen zu haben.

Ich habe es selbst getest an bislang 3 4k TFT´s.
Mir gefällt das nicht.

Die höhere Bildschärfe war der Grund warum ich vom CRT zum TFT gekommen bin.

Die Aussage ist doch: Kann eine niedrigere Auflösung, die nicht native ist, aber eine spielbare Framerate liefert, nicht manchmal besser sein als die Native-Auflösung?

Meine Meinung ist da nein.
TFT´s bieten nicht die Flexibilität eines CRT´s.

Entweder aufrüsten oder einen TFT mit niedriger nativer Auflösung wählen.
Gäbe es den Swift in 1080p hätte ich den genommen.

Bei Konsolen ist das sogar Standard. Auch weil es da - wie ich in einem anderen Thread lang und breit dargelegt habe - gar keine native Auflösung in dem Sinne gibt.

Und wie das endet sehe ich beinahe täglich live bei X1. :freak:

Grestorn
2014-11-14, 17:03:51
Das gilt je nach Material. Für Text oder eine GUI ist das Gift. Für Filmmaterial sicherlich korrekt.Wir reden von Spielen, speziell Spiele die auch für Konsolen optimiert sind und deswegen niemals pixelfeine Elemente enthalten.

Verringern der Renderauflösung unter die Native Auflösung (also Upscaling) ist mit deutlichen Verlusten belegt. Immerhin handelt es sich hier um eine Unterabtastung. Alles wird unscharf und es kommt zur Artefaktbildung.

Ein Verringern der Auflösung hat immer Verluste - das ist ja logisch. Da muss ich nicht drüber diskutieren. Der Punkt ist, ob der Nachteil dadurch vergrößert wird, WEIL eben skaliert werden muss. Und dazu sage ich, speziell und nur bei Spielen, eben nein. Ausnahme sind Strategiespiele etc. die durchaus pixelfeine Elemente haben.

Die höhere Bildschärfe war der Grund warum ich vom CRT zum TFT gekommen bin.Ich verstehe schon, dass das Erkennen des Pixelrasters dem Auge "gefällt", weil es knackscharf wirkt. Und wenn man diese Schärfe verliert, fehlt einem etwas. Das ist genau der Effekt, wieso so viele Leute ClearType ablehnen - diese gefühlte Schärfe fehlt. Und das obwohl mit ClearType gerenderte Texte objektiv mehr Informationen enthalten - es handelt sich ja um eine Art Downsampling. Aber der Mensch ist nicht immer rational.

Ist die Auflösung des Monitors so hoch, dass das Auge nicht mehr in der Lage ist, die Pixel aufzulösen (-> "Retina") spielt das aber keine Rolle mehr.

Meine Meinung ist da nein.
TFT´s bieten nicht die Flexibilität eines CRT´s.CRTs haben quasi *immer* interpoliert, weil es keine feste Pixelstruktur gibt.

Botcruscher
2014-11-14, 17:19:54
Euer Streit über das geringere Übel ist lustig. Die 1400er Monitore sind einfach Jahre zu spät dran. Die werden einfach von 4k überrollt. Schon die Displayproduktion der Fernseher gibt da den Ausschlag. In einem Jahr ist 4K voll im Massenmarkt.

Das Leistungsargument ist auch keines. Jenseits von einer Hand voll Toptitel gibt es Leistung satt für 4K.

akuji13
2014-11-14, 17:20:20
@Grestorn

Stimmt, aber die verschiedenen Auflösungen sahen dennoch um Längen besser aus als wenn ich sie auf einem TFT interpoliere.

Euer Streit über das geringere Übel ist lustig. Die 1400er Monitore sind einfach Jahre zu spät dran. Die werden einfach von 4k überrollt.

In x Jahren bestimmt.

Ich hatte übrigens schon vor 3 Jahren einen 1440p. ;)

Schon die Displayproduktion der Fernseher gibt da den Ausschlag. In einem Jahr ist 4K voll im Massenmarkt.

:D

Das Leistungsargument ist auch keines. Jenseits von einer Hand voll Toptitel gibt es Leistung satt für 4K.

Für dich vielleicht nicht.
Ich spiele gerne alles @max mit vernünftigen fps. ;)

Wenn du glaubst das die Titel in denen das gelingt weniger werden glaubst du auch an den Weihnachtsmann. :D

Botcruscher
2014-11-14, 17:33:46
Ich hatte übrigens schon vor 2 Jahren einen 1440p. ;)
Mit 60Hz und relativ zu teuer.



Für dich vielleicht nicht.
Ich spiele gerne alles @max mit vernünftigen fps. ;)

Wenn du glaubst das die Titel in denen das gelingt weniger werden glaubst du auch an den Weihnachtsmann. :D

Die Titel werden weniger, nur mal die letzten Jahre betrachten. Einmal haben wir die Konsolen und zum anderen Stagnation durch die Kostenexplosion beim Content. Das alles auf Ultra sein muss hat auch seinen Beigeschmack. Je nach Spiel wird dann einfach die Technik gegen den Baum gefahren und Leistung verbrannt. Texturkompression abschalten, Tesslevel unnütz hoch ziehen...

akuji13
2014-11-14, 17:38:33
Mit 60Hz und relativ zu teuer.

So wie 4k´s. ;)

Außerdem: wen interessiert die Kohle? Ist ein Hobby und dessen Sinn dabei Geld zu verschleudern.

Die Titel werden weniger, nur mal die letzten Jahre betrachten. Einmal haben wir die Konsolen und zum anderen Stagnation durch die Kostenexplosion beim Content.

Gerade sprießen diese Titel aus dem Boden, den neuen Konsolen sei dank. :wink:

Und selbst wenn es nur 5 im Jahr sind oder gar nur 1: das ist schon ein KO Kriterium für mich.
Einschränken muss ich mich im real-life genug, aber bestimmt nicht mehr beim Spielen.

Das alles auf Ultra sein muss hat auch seinen Beigeschmack

Ich spiele sogar gerne über Ultra wenn es dank Modding möglich ist.

Ob schlecht optimiert oder hohe Anfroderungen ist letztlich auch Wurst, den das Ergebnis ist identisch.

Gipsel
2014-11-14, 18:32:17
Ich verstehe schon, dass das Erkennen des Pixelrasters dem Auge "gefällt", weil es knackscharf wirkt. Und wenn man diese Schärfe verliert, fehlt einem etwas. Das ist genau der Effekt, wieso so viele Leute ClearType ablehnen - diese gefühlte Schärfe fehlt. Und das obwohl mit ClearType gerenderte Texte objektiv mehr Informationen enthalten - es handelt sich ja um eine Art Downsampling.Das wird jetzt vielleicht ein wenig OT, aber das stimmt so platt nicht.
Mit festen, am Pixelraster ausgerichteten Schriften bzw. Mustern kann man grob die doppelte Auflösung erzielen (in der Fläche also den vierfachen Informationsgehalt) als mit frei skalierbaren/positionierbaren (zumindest wenn Letztere noch halbwegs gut aussehen sollen). Das liegt im Prinzip daran, daß z.B. ein Muster mit abwechselnd 1 Pixel breiten hell-dunkel-Strukturen nur am Pixelraster ausgerichtet Sinn bzw. eine reproduzierbare Information ergibt. Verschiebt man das um einen halben Pixel, ergibt das eine einfarbige graue Fläche, skaliert man es z.B. 5% größer, sieht man ein schönes Pixel-Aliasing-Muster mit 20 Pixel Breite. Zumindest solange man mit dem Auge die Pixel noch auflösen kann und nicht von vornherein alles ein grauer Brei ist.
Auf Displays mit begrenzter Auflösung haben also pixelgenau ausgerichtete Schriften, GUIs usw. schon einen deutlichen Sinn, erlauben sie es doch, mehr echte Information mit einer begrenzten Pixelzahl darzustellen. Es erlaubt Dir so ein wenig, dem Abtasttheorem zwar nicht direkt ein Schnippchen zu schlagen, aber die Rekonstruktion der Information exakt an der theoretischen Grenze nicht nur theoretisch zu ermöglichen (praktisch nicht realisierbar) sondern es praktisch ganz einfach zu machen. ;)

Und nur als Nebenbemerkung: Das Original-Cleartype hat häßliche Farbsäume an Buchstaben produziert (das wurde noch etwas anders gerendert als heute), weswegen das auch für viele inakzeptabel war. Und Dein "Downsampling" bei den Schriften kann man im Prinzip auch in nicht-skalierbare "pixelierte" Fonts oder GUIs einbacken.

PHuV
2014-11-14, 19:16:14
Ich habe es selbst getest an bislang 3 4k TFT´s.
Mir gefällt das nicht.

Die höhere Bildschärfe war der Grund warum ich vom CRT zum TFT gekommen bin.



Meine Meinung ist da nein.
TFT´s bieten nicht die Flexibilität eines CRT´s.
Will jemand wirklich diese permanent verzerrten Dinger zurück? Ich bestimmt nicht. Das hat mich viel mehr gestört, daß eine Line oder ein Kreis nie eine Linie oder Kreis waren, selbst mit viel Rumgestelle war das für mich nie optimal.
So wie 4k´s. ;)
Hm, wenn ich mir beispielsweise den Asus UHD oder den aktuellen Acer UHD mit G-Sync ansehe, was ist da teuer mit 500-600 €? Der ROG SWIFT PG278Q für 800 €, den find ich teuer, den würde ich mir mit diesem Preis nicht kaufen. Aber sonst sind doch jetzt die TN-Monitore vom P/L-Verhältnis überhaupt nicht teuer.

Nightspider
2014-11-14, 19:42:12
Ich spiele gerne alles @max mit vernünftigen fps. ;)

4K = max. wenn du mich fragst.

Alles darunter ist eher Medium.

Der 4K Impact ist stärker als die meisten Settings zusammen zur Ultra Stufe bringen.

robbitop
2014-11-15, 10:23:04
Euer Streit über das geringere Übel ist lustig. Die 1400er Monitore sind einfach Jahre zu spät dran. Die werden einfach von 4k überrollt. Schon die Displayproduktion der Fernseher gibt da den Ausschlag. In einem Jahr ist 4K voll im Massenmarkt.

Das Leistungsargument ist auch keines. Jenseits von einer Hand voll Toptitel gibt es Leistung satt für 4K.

Die "Hand voll Titel" ist ein Ausblick darauf was ab jetzt kommen wird. Wenn man gern in der Vergangenheit lebt, ist 4K natürlich kein Problem.

ndrs
2014-11-15, 10:36:13
Passen die letzten Seiten nicht eher in den Wann-gibt-es-bessere-Monitore-Thread? Wenn ich nach "sync" suche erhalte ich auf dieser Seite nur einen Treffer im Fließtext :)

kokett
2014-11-15, 11:41:46
Ich hab eine praktische Frage zu G-Sync:

Wie genau verhält sich das im Multimonitorbetrieb ?

Ich möchte mir einen 4K G-Sync Monitor kaufen und links und rechts von dem meine alten 1080p Dinger betreiben.

Spielen will ich aber nur auf dem G-Sync Monitor in der Mitte.

Wenn ich jetzt im Nvidia Treiber G-Sync aktiviere, werden dann die Monitore ohne G-Sync schwarz ?

Muss ich die beiden alten Displays dann an meiner IGP betreiben und die GTX980 exklusiv für den G-Sync Monitor reservieren ? Weiss das jemand ?

Grestorn
2014-11-15, 12:06:59
Nein, G-Sync und Multimonitor kommen sich nicht in die Quere. Du kannst alle problemlos an Deiner nVidia Karte betreiben. Ich habe drei Monitore (den Asus Swift, einen Dell 1920x1200 und einen Acer 120Hz 1080p Monitor) an meiner GTX 980 angeschlossen.

So lange der GSync Monitor der primäre Monitor ist, kannst Du GSync auf diesem Nutzen. Wenn Du einen der anderen Monitore als primären Monitor einstellst, spielst Du auf diesen. Die Anordnung kannst Du wählen, wie Du möchtest.

Nightspider
2014-11-15, 12:15:16
Die "Hand voll Titel" ist ein Ausblick darauf was ab jetzt kommen wird. Wenn man gern in der Vergangenheit lebt, ist 4K natürlich kein Problem.

Die Leistung aktueller Karten ist auch nur ein Ausblick darauf was bald mit Big Maxwell und Fiji kommen wird. :rolleyes:

dargo
2014-11-15, 12:19:17
Die Leistung aktueller Karten ist auch nur ein Ausblick darauf was bald mit Big Maxwell und Fiji kommen wird. :rolleyes:
Naja... die +~40% eines GM200 oder Fiji auf GTX980 machen auch nicht so viel aus. Und wenn du den Preis von Big Maxwell kennst bin ich gespannt ob du das dann auch noch so locker siehst. :tongue: Ich tippe mal wieder auf ~1000€. Wir können nur hoffen, dass Fiji sehr gut und nicht zu teuer wird. Das würde NV dazu zwingen die Preise anzupassen.

Nightspider
2014-11-15, 12:22:37
Naja... die +~40% eines GM200 oder Fiji auf GTX980 machen auch nicht so viel aus. Und wenn du den Preis von Big Maxwell kennst bin ich gespannt ob du das dann auch noch so locker siehst. :tongue: Ich tippe mal wieder auf ~1000€.

Mich interessiert Big Maxwell eh nicht so sehr wie Fiji.

AMD Chips sind unter 4K oft schneller als die Nvidia Pendants bzw. holen mächtig auf unter 4K.

Mit HBM könnten es bei Fiji gut 50% Mehrleistung sein zu Hawaii. Hawaii skalierte teilweise sehr schlecht gegenüber Tahiti.
Da könnte Fiji einen ordentlichen Sprung machen. Zumal Fiji bei weitem keine 1000 Euro kosten wird.

Außerdem sind wir hier im "XYZ-Sync" Thread. Games in 4K mit 35fps + Sync fühlen sich an wie 50fps. Also perfekt für SinglePlayer Games.

robbitop
2014-11-15, 14:36:15
Die Leistung aktueller Karten ist auch nur ein Ausblick darauf was bald mit Big Maxwell und Fiji kommen wird. :rolleyes:

Oh ja Faktor 1,4-1,5 (an Mehrperformance) gleicht Faktor 2,3 - 4 an Mehrkosten wieder aus. :rolleyes:
Selbst GM200 wird in 4K in Ultra Details in AC:U nicht auf flüssige fps kommen.
GTX980: 18 fps. Da fehlt nicht Faktor 1,5 sondern Faktor 3.

Und bei der Salamitaktischrn Entwicklung der CPU Geschwindigkeit wird das dauern. Die Auflösung auf einen Schlag (und damit die benötigte Rechenleistung!) um Faktor 4 zu steigern ist halt einfach schon sehr heftig. Insbesondere in Zeiten in denen eine echte Verdopplung der Leistung 3 Jahre dauert.
Früher als es jedes Jahr eine Verdopplung gab war das noch was anderes.

samm
2014-11-15, 14:39:35
Und bei der Salamitaktischrn Entwicklung der CPU Geschwindigkeit wird das dauern. Die Auflösung auf einen Schlag (und damit die benötigte Rechenleistung!) um Faktor 4 zu steigern ist halt einfach schon sehr heftig.Die CPU dürfte durch höhere Auflösung nicht wirklich stärker gefordert sein im Gegensatz zur GPU... Oder verstehe ich grad was falsch?

Nightspider
2014-11-15, 14:40:51
Oh ja Faktor 1,4-1,5 (an Mehrperformance) gleicht Faktor 2,3 - 4 an Mehrkosten wieder aus. :rolleyes:
Selbst GM200 wird in 4K in Ultra Details in AC:U nicht auf flüssige fps kommen.
GTX980: 18 fps. Da fehlt nicht Faktor 1,5 sondern Faktor 3.

Und bei der Salamitaktischrn Entwicklung der CPU Geschwindigkeit wird das dauern. Die Auflösung auf einen Schlag (und damit die benötigte Rechenleistung!) um Faktor 4 zu steigern ist halt einfach schon sehr heftig. Insbesondere in Zeiten in denen eine echte Verdopplung der Leistung 3 Jahre dauert.
Früher als es jedes Jahr eine Verdopplung gab war das noch was anderes.

Wer faselt denn von Ausgleich? Hauptsache das Spiel läuft flüssig in 4K. Neue GPUs bringen bis zu 50% und neue Sync-Methoden gefühlt wohl ~30%.

Da gibts echt keinen Grund zu sagen das Grafikkarten zu langsam für 4K sind.

robbitop
2014-11-15, 14:42:12
Games in 4K mit 35fps + Sync fühlen sich an wie 50fps. Also perfekt für SinglePlayer Games.

eher nicht. 45-50 fps braucht man selbst mit G-Sync damit aktuelle Titel butterweich sind. Ein 144 Hz LCD erziehlt ohne VSync übrigens ähnliche Ergebnisse.
Mit 60Hz Gerät braucht man meiner Erfahrung nach eher ca 50-60 fps.

Man braucht je nach Situation 5-10 fps weniger.

robbitop
2014-11-15, 14:43:12
Wer faselt denn von Ausgleich? Hauptsache das Spiel läuft flüssig in 4K. Neue GPUs bringen bis zu 50% und neue Sync-Methoden gefühlt wohl ~30%.

Da gibts echt keinen Grund zu sagen das Grafikkarten zu langsam für 4K sind.

Du hast anscheinend kein G-Sync. G-Sync ist toll - aber es sind nie und nimmer 30 %. Es sind 5-10 fps. Man braucht also ca 45-50 fps damit es butterweich läuft.

Timbaloo
2014-11-15, 14:45:02
Also ich finde ja 60Hz schon inakzeptabel :)

Nightspider
2014-11-15, 14:47:06
Nicht jeder braucht in einem SinglePlayer Game ""butterweiche"" fps wenn man das Spiel dafür in 4K und max. Settings spielen kann.

Butterweich brauche ich im Multiplayer. In manchen SP Games habe ich die Settings so sehr hochgeschraubt das in gerade mal 30-35fps ohne Sync hatte. Und so machen es viele andere auch.

Da kannst du noch so oft du willst wiederholen das GPUs zu langsam für 4K sind. Echte wird deine Aussage dadurch nicht.

35fps + Sync dürfte für die meisten in SP Games locker ausreichen. Klar sind 70fps besser oder gar 120 aber für ein brandneues NextGen Spiel mit hammer Optik lasse ich gerne die Hosen runter und spiele mit 35fps und mit Sync wird es nochmals deutlich angenehmer laufen und weil Tearing fehlt nochmals besser aussehen.

robbitop
2014-11-15, 14:47:27
Also ich finde ja 60Hz schon inakzeptabel :)

Mit oder ohne G-Sync? Kommt auch aufs Spiel an. Es gibt Spiele mit total merkwüridgen Engines (alte NFS Teile) die auch bei 90 fps nich zu stottern scheinen. Und es gibt welche die mit 30 fps fast flüssig laufen.
Je nach dem welche Teile der Engine mit welcher Abtastrate laufen und wie gleichmäßig die FPS Verteilungist.

Nightspider
2014-11-15, 14:49:14
Du hast anscheinend kein G-Sync. G-Sync ist toll - aber es sind nie und nimmer 30 %. Es sind 5-10 fps. Man braucht also ca 45-50 fps damit es butterweich läuft.

Zumindest sagen ein paar Leute das sich 40 fps wie 55 oder 60fps anfühlen was sogar noch mehr als 30% sind.

Es ist stark subjektiv, das ist vllt das Problem.

Timbaloo
2014-11-15, 14:51:08
Mit oder ohne G-Sync?

Ohne G-Sync auf 120Hz.

War eher als dezenter Hinweis darauf dass das Thema Auflösung <-> Framerate durchaus sehr subjektiv ist. Mich interessiert 4k nicht die Bohne derzeit, und selbst um 1440p mache ich einen Bogen bis die Leistung ausreicht um 100fps+ zu erreichen.

Nightspider
2014-11-15, 14:54:38
Du findest 60Hz auf einem 120Hz Monitor inakzeptabel? :ugly:

Spielst du SinglePlayer Games oder MultiPlayer Games?

Im Multiplayer würde ich dir zustimmen aber im SinglePlayer ist mir das herzlich egal weil ich meist nur neue Spiele spiele wo dann die Grafik raufgeknüppelt wird.

Grafik >> max. Smoothness in SP Games
max. Speed >> alles in schnellen Shootern

robbitop
2014-11-15, 14:55:24
Nicht jeder braucht in einem SinglePlayer Game ""butterweiche"" fps wenn man das Spiel dafür in 4K und max. Settings spielen kann.

Butterweich brauche ich im Multiplayer. In manchen SP Games habe ich die Settings so sehr hochgeschraubt das in gerade mal 30-35fps ohne Sync hatte. Und so machen es viele andere auch.

Da kannst du noch so oft du willst wiederholen das GPUs zu langsam für 4K sind. Echte wird deine Aussage dadurch nicht.

35fps + Sync dürfte für die meisten in SP Games locker ausreichen. Klar sind 70fps besser oder gar 120 aber für ein brandneues NextGen Spiel mit hammer Optik lasse ich gerne die Hosen runter und spiele mit 35fps und mit Sync wird es nochmals deutlich angenehmer laufen und weil Tearing fehlt nochmals besser aussehen.
LOL du besitzt weder G-Sync noch 4K und hast somit keine Erfahrung und stellst meine Aussagen, die mit Praxiserfahrung und tieferem Theoriewissen hinterlegt sind als unwahr dar? Sorry aber kaufe dir bitte erstmal die Komponenten und teste und dann kannst du mitreden. Allein schon die 30% von G-Sync disqualifizieren deine Aussagen.

Zumal es lächerlich ist auf der einen Seite eine hohe Abtastung (des Screenspaces) willst und auf der anderen Seite eine niedrige Abtastung (der Zeit) tolerierst.

Auch SP Spiele machen keinen Spaß, wenn es sich zäh und unflüssig anspielt. Wenn man Anspruch auf Qualität legt, dann doch bitte konsistent.

Und wenn dir ernsthaft 35 fps reichen, dann sollte man über die optische und haptische Wahrnehmungsfähigkeit nachdenken.

Timbaloo
2014-11-15, 15:16:30
Du findest 60Hz auf einem 120Hz Monitor inakzeptabel? :ugly:

Spielst du SinglePlayer Games oder MultiPlayer Games?

Im Multiplayer würde ich dir zustimmen aber im SinglePlayer ist mir das herzlich egal weil ich meist nur neue Spiele spiele wo dann die Grafik raufgeknüppelt wird.

Grafik >> max. Smoothness in SP Games
max. Speed >> alles in schnellen Shootern
Sowohl Single als auch Multi. Wenn du man z.B. Portal2 auf 120Hz+ spielst und siehst wie smooth die Partikel der Portal gun runterfallen, dann weisst du was ich meine ;)

Bei Single hab ich aber gerne V-Sync an, da stört der (bei 120Hz ohnehin deutlich geringere) Input-Lag keine Rolle.

Nightspider
2014-11-15, 15:17:43
LOL du besitzt weder G-Sync noch 4K und hast somit keine Erfahrung und stellst meine Aussagen


Genau man braucht ja einen 4K Monitor um die 4K fps zu simulieren? ;D ;D :rolleyes:

LAuch SP Spiele machen keinen Spaß, wenn es sich zäh und unflüssig anspielt. Wenn man Anspruch auf Qualität legt, dann doch bitte konsistent.

:facepalm:

Schick mir doch mal eine Anleitung für maximalen Spielspaß! ;D ;D

Gabs heute Troll zum Frühstück?


Und wenn dir ernsthaft 35 fps reichen, dann sollte man über die optische und haptische Wahrnehmungsfähigkeit nachdenken.

;D

Zu lustig.

und stellst meine Aussagen, die mit Praxiserfahrung und tieferem Theoriewissen hinterlegt sind als unwahr dar?

Deine Aussagen sind subjektiv. Bitte sag mir jetzt nicht das ich dir das Wort erst erklären muss.

Nur weil du es so empfindest muss es nicht jeder andere genauso empfinden. Das wurde hier im Forum schon oft genug diskutiert.

Allein schon die 30% von G-Sync disqualifizieren deine Aussagen.

Ja sorry das ich andere Leute zitiere, die solche Geräte ebenfalls daheim dastehen habe. :rolleyes:

robbitop
2014-11-15, 15:22:36
Ohne eigene Erfahrungen braucht man nicht zu diskutieren. Und wenn du ernsthaft 35 fps als flüssig empfindest hast du offenbar auch keine besonders gute Wahrnehmung.

Nightspider
2014-11-15, 15:23:17
Sowohl Single als auch Multi. Wenn du man z.B. Portal2 auf 120Hz+ spielst und siehst wie smooth die Partikel der Portal gun runterfallen, dann weisst du was ich meine ;)

Selbige würden in 4K viel schöner aussehen und nicht so verpixelt. ^^

Deswegen 4K. ;)

Aber jeder wie er es mag. :)

Ohne eigene Erfahrungen braucht man nicht zu diskutieren. Und wenn du ernsthaft 35 fps als flüssig empfindest hast du offenbar auch keine besonders gute Wahrnehmung.

flüssig ist ein sehr dehnbarer Begriff du Pseudo-Experte

Davon abgesehen war meine Wortwahl "ausreichend genug" oder "flüssig genug" in anderen Posts.

Nightspider
2014-11-15, 15:30:44
LOL netter Versuch. :D

Ja leider. Objektive Wahrnehmung lässt sich nicht jedem erklären oder beibringen. ;(

basix
2014-11-15, 15:40:01
Und wenn dir ernsthaft 35 fps reichen, dann sollte man über die optische und haptische Wahrnehmungsfähigkeit nachdenken.

Nah mehr FPS sind meistens schon besser, aber manchmal reicht auch weniger. Je nach Ansprüchen und Genre natürlich ;)

Ich finde z.B. die Crytek Spiele sehr gut ausbalanciert was die geforderte Leistung pro Zeitabschnitt angeht. D.h. man hat relativ konstante FPS, welche nicht grosss schwanken. Und das fühlt sich einiges besser an, als immer zwischen 40 und 120 FPS hin und her zu schwanken und man im Durchschnitt 90 hat.

v.a. Crysis 1 hat mich damals extrem überrascht. Bei nur 35-40 FPS fühlte sich das schon sehr sehr flüssig an. Und ich war mich damals 100+FPS von UT2004 gewöhnt gewesen, welches ich dazumal am häufigsten spielte. Ok, UT2004 benötigt auch mindestens 80 FPS um flüssig zu wirken ;D

robbitop
2014-11-15, 15:44:48
Nah mehr FPS sind meistens schon besser, aber manchmal reicht auch weniger. Je nach Ansprüchen und Genre natürlich ;)

Ich finde z.B. die Crytek Spiele sehr gut ausbalanciert was die geforderte Leistung pro Zeitabschnitt angeht. D.h. man hat relativ konstante FPS, welche nicht grosss schwanken. Und das fühlt sich einiges besser an, als immer zwischen 40 und 120 FPS hin und her zu schwanken und man im Durchschnitt 90 hat.

v.a. Crysis 1 hat mich damals extrem überrascht. Bei nur 35-40 FPS fühlte sich das schon sehr sehr flüssig an. Und ich war mich damals 100+FPS von UT2004 gewöhnt gewesen, welches ich dazumal am häufigsten spielte. Ok, UT2004 benötigt auch mindestens 80 FPS um flüssig zu wirken ;D
Na entweder man hat ein konsistent hohes Qualitätsempfinden oder nicht. Je nach Spiel (Crysis 1 brauchte weniger) sind es mal mehr und mal weniger fps. Crysis 3 fühlt sich unter 45 fps selbst mit G-Sync noch etwas schwammig an. Und es geht auch aufs Aiming. Gibt natürlich Leute die das nicht stört.

Grestorn
2014-11-15, 16:56:31
Ich verstehe diesen 4k Hype nicht. 4k hat doch fast nur Nachteile. Den einen Vorteil - die hohe Auflösung - muss man mit einfach zu vielen Nachteilen erkaufen.

1440p ist für die meiste Hardware schon richtig fordernd. Mit meiner nicht gerade schwachbrüstigen Austattung kann ich 1440 gut betreiben, für 4k müsste ich wieder viel zu viele Kompromisse eingehen.

Abgesehen von den Problemen mit dem Windows Desktop, der Begrenzung auf 60 Hz und vor allem dem fehlenden 3D-Vision.

PHuV
2014-11-15, 21:51:06
Ich verstehe diesen 4k Hype nicht. 4k hat doch fast nur Nachteile.
Sehe es mal und arbeite damit, dann verstehst Du das. ;) Wenn man das sieht, will man einfach nicht mehr ohne, alles andere sieht "unscharf" aus.
Ohne eigene Erfahrungen braucht man nicht zu diskutieren. Und wenn du ernsthaft 35 fps als flüssig empfindest hast du offenbar auch keine besonders gute Wahrnehmung.
Das hängt doch von dem jeweiligen Spiel ab, und was man wie spielt. Spielt man Online, sind mehr FPS sicher wichtig und gut, im SP-Modus sind weniger durchaus verschmerzbar.

Beispielsweise ging Dead Rising 3 im SP erstaunlich gut mit 30 FPS zu spielen, sei es mit 1600p oder mit UHD, ich fand das überhaupt nicht nachteilig. Hier habe ich die höhere FPS-Zahl überhaupt nicht vermißt. Bei Far Cry 3 bekomme ich unter 40 FPS sehr wohl die Krise, und ist mit G-Sync definitiv besser zu ertragen als ohne. 21-25 FPS mit Crysis 3 sieht zwar scheiße aus, ist aber durchaus spielbar.

Ich finde Pauschaulierungen, so wie Du sie triffst, blöd, weil sie nicht die Realität treffen.

Grestorn
2014-11-15, 22:25:16
Sehe es mal und arbeite damit, dann verstehst Du das. ;) Wenn man das sieht, will man einfach nicht mehr ohne, alles andere sieht "unscharf" aus.

Mag sein. Dann will ich es lieber gar nicht sehen, bis es einen 120 Hz, 3DVision-fähigen 4k Monitor gibt... :)

Unicous
2014-11-15, 22:32:36
Die Geschmäcker sind offensichtlich verschieden und es liegt eigentlich an den Herstellern diese zu bedienen. Über Jahre wurde aber ein Status Quo gehalten, der jetzt von verschiedenen Seiten angegriffen wird.

Da muss man Apple und den anderen Mobilherstellern (Samsungs AMOLED und die ganzen IPS, IGZO und wie sie alle heißen) Referenz erweisen, denn erst Retina und Co. haben auch bei der Masse das Bedürfnis nach "mehr" geweckt. Davor gab es nur 3D (bei Fernseher) als das große neue Ding, das den Absatz in neue Höhen katapultieren sollte.

Durch diesen Boom wurden erst wieder im großen Stil Investitionen gemacht, die jetzt langsam auch bei größeren Displays ankommen.

Drogenbaron
2014-11-16, 09:32:28
Da muss man Apple und den anderen Mobilherstellern (Samsungs AMOLED und die ganzen IPS, IGZO und wie sie alle heißen) Referenz erweisen, denn erst Retina und Co. haben auch bei der Masse das Bedürfnis nach "mehr" geweckt. Davor gab es nur 3D (bei Fernseher) als das große neue Ding, das den Absatz in neue Höhen katapultieren sollte.
Mein 15" Notebook mit FullHD-Auflösung ist jetzt inzwischen über vier Jahre alt.

Es gab schon immer hoch bzw. höher auflösende Displays. Man musste sie sich nur kaufen.

Unicous
2014-11-16, 11:27:04
Und was willst du uns damit sagen?:confused:

ndrs
2014-11-16, 12:13:07
Ich glaub er wollte dich nur bestätigen :)

Drogenbaron
2014-11-16, 12:15:10
Ich glaub er wollte dich nur bestätigen :)
Nein, im Gegenteil.

Höher auflösende Displays hat schlicht nichts mit dem Mobilbereich zu tun. Die gibt und gab es auch schon im Desktop oder Notebookbereich. Man musste sie nur bezahlen.

Dass es 99% der Kunden nicht getan haben, ist doch etwas völlig Anderes, am Angebot lag es nie.

Unicous
2014-11-16, 12:31:00
Das ist eine Binsenweisheit und wenig "erhellend".

Gipsel
2014-11-16, 12:32:50
So ein Angebot will popularisiert werden. Und einige Firmen haben eben stärker als andere versucht, den Kunden die höheren Auflösungen schmackhaft zu machen und sich als Vorreiter darzustellen. Das wird man nicht leugnen können.

ChaosTM
2014-11-16, 17:40:48
Zur "ich brauch unbedingt 500fps" Thematik

Die subjektive Wahrnehmung "is a Hund" wie der Wiener zu sagen pflegt.
Ein Kollege von mir zockt Shooter mit gefühlten 15-20fps und ist glücklich damit.

Alles eine Sache der Konditionierung und Gewöhnung.
Ich erinnere mich mit schaudern zurück, als ich damals mit GTA4 auf der PS3 begonnen habe.
Damals habe ich fast nur online gespielt und war 50-60fps gewöhnt.
Am Anfang dachte ich -> unspielbar, ich hau das sinnlose Kastl gleich wieder auf den Müll!!
Ich war aber doch neugierig und nach ca. einer halben Stunde fing es dann an besser zu werden.
Als flüssig hab ich die 20-25fps nat. nie empfunden, aber nach einer gewissen Zeit hatte sich das Gehirn darauf eingestellt und als akzeptabel empfunden. Ich hab über 100h mit dieser Ruckelei verbracht und ich hab jede einzelne genossen.

Ähnlich ist es mit der Gewöhnung an 30/60/120Hz, nur das 30 NIE wirklich ruckelt, wenn die Frametimes halbwegs stimmen.
Ich hab Unity und FC4 auf 30fps gelockt und ich empfinde zumindest Unity als richtig schön flüssig.
Bei FC4 ist die Sache schon diffiziler, da das Gameplay doch deutlich schneller ist.
Die weit überlegene Optik macht die Entscheidung im Endeffekt aber dann doch wieder sehr einfach.

Würde ich ein paar Tage nur mit 60fps zocken, wäre meine Rübe auch darauf konditioniert und würde 30fps anfangs als stark ruckelig empfinden.
Nach ein paar Minuten erinnert sich das Hirn dann aber wieder daran, dass 30fps eigentlich "flüssig" sind und "gewöhnlicherweise" nicht ruckeln.

Den Versuch hab ich auch mit dem FrameCreation Mode meines Fernsehers gemacht.
Wenn man den eine Zeitlang verwendet, wirkt das normale Fernsehbild kurzzeitig extrem ruckelig. Der Effekt verschwindet aber nach ein paar Minuten; spätestens nach einer Stunde wieder.

Nicht falsch verstehen.: ich bevorzuge auch höhere Frameraten, aber die meisten (offline) Spielen laufen sehr angenehm mit 30. Bei Online Shootern müsste ich halt in den sauren Apfel 1080p beißen.
BF4 wäre so ein Fall, sollte ich es wieder installieren.
Das neue CoD lauft immerhin schon mit 50-60 fps @ Ultra.

Also: Nur weil jemand 30fps als flüssig empfindet, ist er NICHT behindert oder dämlich! ;)

(nur anders konditioniert)

Nitrojedi
2014-11-18, 11:05:21
Es geht ja nicht alleine um die "ruckeligen/geringen FPS", sondern auch den Input-lag der Steuerung. Wenn ich in Unity mit meinen 30 fps Wände hochlaufen möchte, aber Arno dann lieber schräg gegenüber auf einen Menschenhaufen springt, weil er meine Eingaben von vor 2 Sekunden noch berücksichtigt, macht das einfach keinen Spaß. Jedes Spiel, welches schnelle Bewegungen und Reaktionen erfordert, muss einen gewissen maximalen Input-lag in Form von minimalen FPS liefern.
Wenn dann noch die Frametimes relativ stabil sind, ist schonmal eine gewisse Grundsubstanz hergestellt.

robbitop
2014-11-18, 11:32:17
Es hängt vom Spiel und speziell von der Engine ab. Bei vielen Spielen wird der Input bei zu geringer Framerate zu langsam umgesetzt, so dass sich die Steuerung schwammig anfühlt.
Mit dem Gamepad fällt das weniger auf als mit der Maus.
Oder aber die Ausgabe der Frames ist nicht konstant über die Zeit verteilt, so dass man auch mehr FPS braucht für eine ordentlich flüssige Darstellung.

Mit der Maus merkt man das schon. Ich hatte hier schon einige Probanden (Freunde), die bei mir am G-Sync Monitor Crysis 3 gezockt haben. Und ich habe dann mal die Details verstellt um zu schauen, ab wann der Spieler es als wirklich smooth empfindet. Das Ergebnis lag zwischen 40 und 50 fps.
Mit 35-40 ist es schon spielbar - fühlt sich aber noch etwas zäh und schwammig an. Es hat deutlich mehr Spaß mit 40-50 fps gemacht.

Ist natürlich eine Frage der Konditionierung. Wenn man nur 30 fps gewöhnt ist (Konsole) reicht das auch. Aber ich gehe jede Wette ein, dass auch der Konditionierte sofort den Umstieg auf deutlich mehr FPS merkt und zu schätzen weiß.

Das haben auch 99 % der Leute über The Last of Us gesagt. 30 fps waren OK -> 60 fps sind aber besser.

Nur weil etwas "ok" ist, heißt es nicht, dass es nicht besser geht. Und wenn jemandem bezüglich Bildqualität ein "ok" (nichts unter 4K und max Details) nicht ausreicht, dann ist es unkonsequent, sich mit einem "ok" der Bildrate abzufinden.

Nitrojedi
2014-11-18, 11:45:12
Ja, The Last of Us ist ein gutes Beispiel, allerdings ist die Youtube-Umstellung ein noch besseres Beispiel. Viele Konsolenspieler haben durch die 60 fps Umstellung erst realisiert, wie schön 60 fps sein können.

Das mit der Engine ist auch ziemlich krass, wenn man mal Crysis 3 und BF 4 vergleicht:

http://s14.directupload.net/images/141118/sng8hn3b.png

Trotz höherer FPS ist der Inputag größer.

Und hier ein Vergleich von CS 1.6 mit CSGO, bei der die Frametimes in GO sehr variabel sind. Meine Vermutung ist, dass die clientseitige "Tick"-Berechnung viel Performance fordert, bzw. die auf einen Tick folgende Interpolation bei 64 Tick und fps_max 128 die zwei separierten Frametimes von 7 und 8,5 liefern. Somit dauert jedes zweite Bild länger und lässt das Spiel insgesamt unruhig wirken.

http://fs1.directupload.net/images/141118/2oldrb6h.png

robbitop
2014-11-18, 15:40:46
Genau. Geht die Engine möglichst verzögerungsfrei mit dein Eingaben um und bringt dann auch noch eine möglichst gleichmäßige Verteilung der FPS über der Zeit auf den Monitor, reichen oftmals deutlich weniger FPS.

Aber leider trifft man sowas nicht häufig an.

Wie gesagt: Gamepad statt Maus entschärft ersteres Problem, weil es keine so direkte Eingabemöglichkeit ist wie die Maus.

ChaosTM
2014-11-18, 16:39:44
Das eigentlich schwer bug-verseuchte Unity fühlt sich imho bei gelockten 30fps angenehm "flüssig" an währen Far Cry 4 mit ~ 35 fps recht zäh wirkt.

Deshalb spiele ich jetzt in 2880x1620 mit immerhin 45fps und da ist der Kaugummi- Effekt fast verschwunden.
1080p mit 60hz fühlt sich nur minimal besser an.

Wixi
2014-11-19, 13:58:37
Wie stellt ihr eure max fps ein? mit einem Tool oder per Konsole im jeweiligen Game?

Nitrojedi
2014-11-19, 14:41:49
Immer Spielintern. Externe Framelimiter produzieren laut dem BlurBusters-Chief InputLag (http://forums.blurbusters.com/viewtopic.php?f=10&t=895&sid=4cc2dd83bc936a514bee70abcd0f3a9c):

"There is no easy workaround other than reinventing the 3D rendering paradigm to permit easy driver/hardware-side lagless framerate capping which is otherwise not easily possible.


External framerate limiters of any kind adds lag in current 3D architectures.
Internal framerate limiters can successfully avoid this lag.


Frames should be throttled right before input reads, and BEFORE rendering, not after already rendering, which is what external framerate limiters do (e.g. NVInspector, driver capping, VSYNC ON capping, GSYNC limit hitting). You have lost the lag battle if you already rendered the frame and then is forced to wait on presenting the frame. Game developers need to allow an internal method of frame rate capping, for full control over lag, without being forced to wait by external limiters after presenting the frame.

Only the appearance of the lag at, say, fps_max 143 (during 144Hz GSYNC) can legimately be called a potential issue. It can be improved so that there is no lag penalty when you use an in-game framerate limiter closer to Hz. But once an external limit is hit -- you yield game engine control of lag -- when something outside your game forces frames to wait."

M4xw0lf
2014-11-20, 10:45:46
http://www.techspot.com/news/58899-all-samsung-ultra-hd-monitors-2015-support-freesync.html
At AMD's Future of Compute event in Singapore, Samsung announced that all of their Ultra HD monitors released in 2015 will support FreeSync. The adaptive refresh rate technology will allow gamers to achieve smoother gameplay at 4K when frame rates drop below the display's native refresh rate, making 40 FPS gaming seem just as smooth as 60 FPS.

Samsung is the first company to officially support FreeSync, which was first announced by AMD at CES 2014 as a competitor to Nvidia's similar G-Sync technology. It's a big win for AMD, who have been working to get their royalty-free and VESA-backed technology onto the market as quickly as possible, recently announcing that FreeSync will be supported by the three biggest display scaler manufacturers.

At the event, Samsung specifically announced five Ultra HD (3840 x 2160) monitors that will launch in 2015 and support FreeSync. The UE590 will be available in 23.6 and 28 inch sizes, while the UE850 will come in 23.6, 27 and 31.5 inch models. Further details for these monitors will be announced shortly.

Bäm :eek:

fondness
2014-11-20, 10:59:17
http://www.techspot.com/news/58899-all-samsung-ultra-hd-monitors-2015-support-freesync.html


Bäm :eek:

Tja, AMD bringt die Industrie voran, Nvidia bringt nur sich selbst voran. Honoriert wird das ganze von der Kundschaft trotzdem nicht.

Kartenlehrling
2014-11-20, 11:16:34
Externe Framerate Limiter jeglicher Art fügt Verzögerung bei aktuellen 3D-Architekturen.
Interne Framerate Limiter können diese Verzögerung erfolgreich vermeiden.


Ich frag mich eigentlich auch wieso man das nicht gleich in den Spielen einstellen kann, gerade die heutigen Grafikkarten hassen hohe FPS ohne Last.
Die neuen Ubisoft AAAa-Spiele zeigen gut wie man es nicht macht ....


Tja, AMD bringt die Industrie voran ...

Naja .... sie schreiben erstmal nur von Utra-HD was vermutlich ja für 4k und 21:9 WQHD Monitor spricht.

Sunrise
2014-11-20, 11:18:45
Tja, AMD bringt die Industrie voran, Nvidia bringt nur sich selbst voran. Honoriert wird das ganze von der Kundschaft trotzdem nicht.
Das wird sogar mit Sicherheit honoriert werden, wenn hier endlich auch mal Hardware (Monitore) verfügbar ist und nicht immer nur davon geredet wird. Warum sollte irgendein Käufer etwas honorieren, wenn er davon aktuell keinen Nutzen hat.

NV war eben schneller, wiedermal auch erster und mit großem Tamtam auch deutlich präsenter. Zusätzlich lässt sich mit dem G-Sync Modul bares Geld verdienen. Genau das war aber auch so geplant.

Im Endeffekt profitieren wir doch umso mehr, da es jetzt sogar eine gewisse Konkurrenzsituation gibt. Mal sehen, wie NV im kommenden Jahr reagiert.

Vor allem aber möchte ich endlich mal mehr über FreeSync wissen und ob es da ähnliche Limitierungen gibt, wie bei G-Sync.

FlashBFE
2014-11-20, 11:35:27
http://www.techspot.com/news/58899-all-samsung-ultra-hd-monitors-2015-support-freesync.html


Bäm :eek: Tolle Sache, es wurde endlich Zeit! Fast genauso bemerkenswert ist aber überhaupt der Fakt, dass in einem Jahr gleich fünf UHD-Monitore von nur einem Hersteller auf den Markt kommen werden. Wenn man sich überlegt, wie lange die 2560x1600-Monitore als HighEnd ein übersichtliches Nischendasein fristeten, geht das jetzt mit der nächsten Auflösungssteigerung richtig schnell voran.

Hoffentlich ist bei den fünf Monitoren auch ein PLS/IPS/VA-Panel dabei.

Mancko
2014-11-20, 11:41:00
Tja, AMD bringt die Industrie voran, Nvidia bringt nur sich selbst voran. Honoriert wird das ganze von der Kundschaft trotzdem nicht.

Also du scheinst die letzten Quartalszahlen verpasst zu haben würde ich sagen. Denn die zeigen genau das gegenteilige Bild. Nvidia kassiert ordentlich ab und AMD laufen die Kunden davon. In Q4 wird es ein Blutbad geben, soviel ist sicher und AMD geht langsam aber sicher das R&D aus. Hier noch der JPR Report der sich ja im Grunde mit den Quartalszahlen deckt.

http://jonpeddie.com/publications/add-in-board-report/

M4xw0lf
2014-11-20, 11:56:14
Also du scheinst die letzten Quartalszahlen verpasst zu haben würde ich sagen. Denn die zeigen genau das gegenteilige Bild. Nvidia kassiert ordentlich ab und AMD laufen die Kunden davon. In Q4 wird es ein Blutbad geben, soviel ist sicher und AMD geht langsam aber sicher das R&D aus. Hier noch der JPR Report der sich ja im Grunde mit den Quartalszahlen deckt.

http://jonpeddie.com/publications/add-in-board-report/
Sagt er doch. Du hast es falsch rum verstanden ;)

PHuV
2014-11-20, 13:03:34
http://www.techspot.com/news/58899-all-samsung-ultra-hd-monitors-2015-support-freesync.html
Da bin ich ja mal gespannt, wie die IPS-ähnlichen PLS-Panels das die erforderlichen Schaltzeiten hinbekommen wollen bzw. werden. Vielleicht hören sie auf Gipsel. ;)
Das wird sogar mit Sicherheit honoriert werden, wenn hier endlich auch mal Hardware (Monitore) verfügbar ist und nicht immer nur davon geredet wird. Warum sollte irgendein Käufer etwas honorieren, wenn er davon aktuell keinen Nutzen hat.
Sehe ich genau so. Es ist nur das interessant, was auch verfügbar ist. Von nur feuchten Wunschträumen beruhend auf Ankündigungen hat man - außer Hoffnung - gar nichts.
NV war eben schneller, wiedermal auch erster und mit großem Tamtam auch deutlich präsenter. Zusätzlich lässt sich mit dem G-Sync Modul bares Geld verdienen. Genau das war aber auch so geplant.
Und genau das ist IMHO auch gut so, so kann man es bereits nutzen und hat auch was davon.
Vor allem aber möchte ich endlich mal mehr über FreeSync wissen und ob es da ähnliche Limitierungen gibt, wie bei G-Sync.
Und hier gibt es leider nach wie vor spärliche Informationen. Hier hat meiner Meinung nach Nivida es auch besser gemacht. Angekündigt, informiert, und dann gabs zu kaufen.

Kartenlehrling
2014-11-20, 13:24:54
Da bin ich ja mal gespannt, wie die IPS-ähnlichen PLS-Panels das die erforderlichen Schaltzeiten hinbekommen wollen bzw. werden.

Die meisten Monitor werden sowieso immer noch 60hz bleiben, was ja auch nicht schlimm ist wenn die 40fps sich wie 60fps anfühlen.

Ich hoffe das so schnell wie möglich auch ein Korea-120hz-1440p-freesync für 400€ zu kaufen gibt.

PHuV
2014-11-20, 13:38:48
Wenn ich mir das Bild so ansehe, sind die angekündigten Monitoren mit TN-Panels ausgestattet:
http://img.24liveblog.com/2014/11/20/1416475824819523.jpg
Weitere Folien sind hier:
http://www.amd.com/en-us/markets/future-of-compute-malaysia

Schnoesel
2014-11-20, 13:42:51
Angekündigt, informiert, und dann gabs zu kaufen.

Ja nämlich erstmal in dieser Form:
http://www.computerbase.de/2014-01/g-sync-upgrade-fuer-mutige-bastler-kostet-199-dollar/


Alles wohl schon vergessen? Auch bei Gsync gabs lange nichts.

Es ist nur das interessant, was auch verfügbar ist.

Hust DX 12 Hust ... :biggrin:

Scheinbar ist das nicht so.

BTT:Solange keine IPS/PLS für mich nicht interessant aber leider verlieren die über den Paneltyp kein Wort. Naja kommt Zeit kommt neuer Monitor.

Dural
2014-11-20, 13:56:32
Tja, AMD bringt die Industrie voran, Nvidia bringt nur sich selbst voran. Honoriert wird das ganze von der Kundschaft trotzdem nicht.

Quatsch, Samsung haut das in seine Monitoren doch nur um NV eins auszuwischen. Seitens Samsung eine logischer Schritt.

Und ohne "NV" würden wir bis heute noch auf so was warten, nur so nebenbei erwähnt.

M4xw0lf
2014-11-20, 14:14:08
Quatsch, Samsung haut das in seine Monitoren doch nur um NV eins auszuwischen. Seitens Samsung eine logischer Schritt.
Um NV ein auszuwischen? Die wollen Kohle dafür, mit dem VESA-Standard gibts die gleiche Funktionalität für umme... logisch ist der Schritt seitens Samsung also in der Tat.

Nightspider
2014-11-20, 15:31:34
Macht euch nicht ins Hemd. Wenn Samsung sagt das alle UHD Monitore 2015 FreeSync haben werden, dann wird das auch auf PLS Neuvorstellungen zutreffen.

Und tolle ist, das die Konkurren sicherlich auch schnellstmöglich nachziehen wird.

Sunrise
2014-11-20, 15:50:48
...Weitere Folien sind hier:
http://www.amd.com/en-us/markets/future-of-compute-malaysia
Interessant, die eine Folie liefert endlich auch mal mehr Informationen zu FreeSync:
http://img.24liveblog.com/2014/11/20/1416475443498526.jpg

Supported Refresh Range: 9-240Hz (FreeSync) vs. 30-144Hz (G-Sync)

Wenn die Monitorhersteller die Panelelektronik dann auch noch optimal abstimmen, sollten auch 23.976Hz, 24Hz und 25Hz kein Problem darstellen. Das mag für Spiele nichtmehr unbedingt sinnvoll sein, für andere Anwendungsbereiche aber schon.

dargo
2014-11-20, 16:10:14
http://www.techspot.com/news/58899-all-samsung-ultra-hd-monitors-2015-support-freesync.html


Bäm :eek:
Geil. =)

Jetzt bitte sowas hier mit VA Panel...
http://geizhals.at/de/lg-electronics-34uc87-b-schwarz-a1176221.html

und ich könnte schwach werden. :D Curved ist mir völlig egal, Hauptsache höhenverstellbar. :)

Interessant, die eine Folie liefert endlich auch mal mehr Informationen zu FreeSync:
http://img.24liveblog.com/2014/11/20/1416475443498526.jpg

Was heißt eigentlich dieses "Per Frame Communication Overhead"? Dass Freesync im Gegensatz zu G-Sync keine Leistung kostet?

mironicus
2014-11-20, 16:16:28
Was heißt eigentlich dieses "Per Frame Communikation Overhead"? Dass Freesync im Gegensatz zu G-Sync keine Leistung kostet?

Geringere Latenz gegenüber G-Sync vielleicht?

Locuza
2014-11-20, 16:17:10
Was heißt eigentlich dieses "Per Frame Communikation Overhead"? Dass Freesync im Gegensatz zu G-Sync keine Leistung kostet?
AMD meint G-Sync führt einen Overhead ein, indem immer ein Frame gebuffert werden muss.
Eben die ganze Sache mit dem extra-Modul.
Nvidia meint ein lookaside buffer fügt keinen Overhead hinzu.
Gipsel meint, ein lookaside buffer muss tatsächlich keinen höheren Overhead erzeugen.
Ich meine, dass es mir bis zu den Tests egal ist.

Nightspider
2014-11-20, 16:36:53
NVidia wird sich in den Arsch beißen das es bei FreeSync jetzt so schnell geht und das man selbst FreeSync nicht (richtig?) von Maxwell unterstützt wird.

aufkrawall
2014-11-20, 16:37:33
Warum wird es das nicht?

dargo
2014-11-20, 16:50:17
NVidia wird sich in den Arsch beißen das es bei FreeSync jetzt so schnell geht und das man selbst FreeSync nicht (richtig?) von Maxwell unterstützt wird.
Ich tappe da diesbezüglich immer noch im Dunkeln. Afaik muss aber Freesync-Support auch vom Grafiktreiber kommen. Ergo wissen wir es erst wenn es die ersten Monitore zu kaufen gibt. Und wenn Maxwell kein Freesync supportet hätte ich auch kein Problem damit wieder auf AMD zu wechseln. ;) AMD muss nur was mit ordentlich Bums für guten Preis liefern. Vielleicht wirds ja was mit Fiji.

aufkrawall
2014-11-20, 16:54:57
Fiji muss für 4k aber unbedingt mehr als 4GB haben.

Nightspider
2014-11-20, 16:56:50
Warum wird es das nicht?

Frag doch Nvidia und nicht mich.

M4xw0lf
2014-11-20, 17:00:43
Fiji muss für 4k aber unbedingt mehr als 4GB haben.
bliblablubb hier stand Stuss.

Loeschzwerg
2014-11-20, 17:04:48
Ich frage mich, ob man die nötige Speichergröße nicht auch durch schiere Bandbreite verringern kann. Sprich, wenn mann schnell genug Daten in den Speicher rein- und aus dem Speicher rauswerfen kann, ist es nicht so wild, wenn weniger gleichzeitig drin liegen kann. Müsste theoretisch ja so sein - die Frage ist, ob die HBM-Bandbreite dafür schon ausreicht, und ob die nötigen Änderungen am Speichermanagement dafür trivial oder unmöglich sind.

Verstehe ich nicht, du läufst da doch in die gleichen Probleme wie mit aktueller Speichertechnik. Speicher voll, also wird ausgelagert über das normale Bussystem. Oder?

fondness
2014-11-20, 17:05:12
Und ohne "NV" würden wir bis heute noch auf so was warten, nur so nebenbei erwähnt.

Es gibt AMD-Patente von 2007 die sich mit diese Technik befassen. Davon abgesehen hat jeder AMD-Chip ab Bonaire die entsprechende Technik integriert und AMD etabliert auch sicher nicht von heute auf morgen einen neuen DP-Standard und bringt alle wesentliche Scaler-Hersteller dazu diese Technik zu integrieren. Der einzige der hier offenbar eine Husch-Pfusch-Aktion gestartet hat ist Nvidia. Von G-Sync bzw. neuen Monitoren dafür hört man im übrigen auch nichts mehr.

M4xw0lf
2014-11-20, 17:07:20
Verstehe ich nicht, du läufst da doch in die gleichen Probleme wie mit aktueller Speichertechnik. Speicher voll, also wird ausgelagert über das normale Bussystem. Oder?
Stimmt, das Bottleneck ist hier ja gar nicht zwischen GPU und VRAM. Weitermachen, ich hab nichts gesagt :redface:

aufkrawall
2014-11-20, 17:10:32
Frag doch Nvidia und nicht mich.
Etwas Konkreteres hab ich jetzt schon erwartet...
In den pcper-Interview sagt Petersen, sie haben einfach keinen Bock.
Wobei sich natürlich bei entsprechendem Angebot so etwas ganz schnell ändern kann.

Loeschzwerg
2014-11-20, 17:11:27
Es gibt AMD-Patente von 2007 die sich mit diese Technik befassen. Davon abgesehen hat jeder AMD-Chip ab Bonaire die entsprechende Technik integriert und AMD etabliert auch sicher nicht von heute auf morgen einen neuen DP-Standard und bringt alle wesentliche Scaler-Hersteller dazu diese Technik zu integrieren. Der einzige der hier offenbar eine Husch-Pfusch-Aktion gestartet hat ist Nvidia. Von G-Sync bzw. neuen Monitoren dafür hört man im übrigen auch nichts mehr.

Ok, ich akzeptiere jetzt mal das Husch-Pfusch von NV :D ABER, warum schafft es AMD nie so etwas mal zügig auf die Beine zu stellen? AMD/ATi hatten schon so oft gute Ideen, aber dann schläft man wieder ohne Ende... Die müssen da mit deutlich mehr Biss an die Sache rangehen.

fondness
2014-11-20, 17:11:48
Etwas Konkreteres hab ich jetzt schon erwartet...
In den pcper-Interview sagt Petersen, sie haben einfach keinen Bock.
Wobei sich natürlich bei entsprechendem Angebot so etwas ganz schnell ändern kann.

Wenn es entsprechend integriert ist und vorgesehen wurde. Die Specs sind offen, die Möglichkeiten dazu hatte sie also sicher. Ob, bzw. ab welchen Chip sie es auch unterstützen weiß nur NV.

PHuV
2014-11-20, 17:13:08
Der einzige der hier offenbar eine Husch-Pfusch-Aktion gestartet hat ist Nvidia. Von G-Sync bzw. neuen Monitoren dafür hört man im übrigen auch nichts mehr.
Blablabla, und blind sind wir auch noch: :rolleyes:
http://geizhals.de/?cat=monlcd19wide&xf=103_NVIDIA+G-Sync#xf_top

G-Sync kann man kaufen, und es funktioniert. Genau das ist der Unterschied zu Freesync. Warten wir doch erst mal ab, bis die ersten Geräte da sind, und dann urteilen wir.

fondness
2014-11-20, 17:13:55
Ok, ich akzeptiere jetzt mal das Husch-Pfusch von NV :D ABER, warum schafft es AMD nie so etwas mal zügig auf die Beine zu stellen? AMD/ATi hatten schon so oft gute Ideen, aber dann schläft man wieder ohne Ende... Die müssen da mit deutlich mehr Biss an die Sache rangehen.

Versuche mal in einem Gremium wie VESA mit hunderten Mitgliedern etwas zügig zu etablieren.

Blablabla, und blind sind wir auch noch: :rolleyes:
http://geizhals.de/?cat=monlcd19wide&xf=103_NVIDIA+G-Sync#xf_top

G-Sync kann man kaufen, und es funktioniert. Genau das ist der Unterschied zu Freesync. Warten wir doch erst mal ab, bis die ersten Geräte da sind, und dann urteilen wir.

Ja nett, fünf Monitoren x Monate zu spät, von denen vielleicht zwei brauchbar sind. Das ganze noch für eine saftigen Aufpreis. Im übrigen habe ich geschrieben das man von neuen G-Sync-Monitoren nichts mehr hört, nicht das es aktuell keine gibt.

Loeschzwerg
2014-11-20, 17:21:55
Versuche mal in einem Gremium wie VESA mit hunderten Mitgleitern etwas zu etablieren.

Mag im Falle von Free-Sync stimmen, aber das ist ja nur eines von vielen Beispielen. Ich habe aber den Eindruck das AMD es einfach nicht mit allen Mitteln versucht.

NV macht halt etwas eigenes und liegt damit meistens gut im Trend bzw. verdient daran.

AMD hat Ideen und entwickelt, schafft es aber nicht auf den Markt. Das liegt definitiv nicht nur an der Konkurrenz, sondern zu einem großen Teil am Unternehmen AMD selbst.

Ich erkenne da die gleichen Strukturen wie bei Siemens...

PHuV
2014-11-20, 17:23:22
Ja nett, fünf Monitoren x Monate zu spät, von denen vielleicht zwei brauchbar sind. Das ganze noch für eine saftigen Aufpreis. Im übrigen habe ich geschrieben das man von neuen G-Sync-Monitoren nichts mehr hört, nicht das es aktuell keine gibt.
Und taub auch noch? :|

Widerlegt:
http://www.pcgameshardware.de/LCD-Hardware-154105/News/Benq-XL2420G-24-Zoll-G-Sync-1131175/
https://pcmonitors.info/benq/benq-xl2420g-and-xl2720g-144hz-g-sync-monitors/

fondness
2014-11-20, 17:26:12
Und taub auch noch? :|

Widerlegt:
http://www.pcgameshardware.de/LCD-Hardware-154105/News/Benq-XL2420G-24-Zoll-G-Sync-1131175/
https://pcmonitors.info/benq/benq-xl2420g-and-xl2720g-144hz-g-sync-monitors/

Das Ding wurde schon im Januar angekündigt und ist immer noch nicht verfügbar.

PHuV
2014-11-20, 17:34:21
Meine Güte, gib doch einfach zu, daß Du hier Mist erzählt hast. :rolleyes:

Was erwartest Du den? Permanent neue Meldungen? :facepalm:

differenzdiskriminator
2014-11-20, 17:37:14
Tja, AMD bringt die Industrie voran, Nvidia bringt nur sich selbst voran. Honoriert wird das ganze von der Kundschaft trotzdem nicht.
NVIDIA bringt die ganze Industrie voran, ohne G-Sync gäbe es immer noch kein Freesync.

dargo
2014-11-20, 17:52:35
Fiji muss für 4k aber unbedingt mehr als 4GB haben.
Darum mache ich mir am wenigsten Sorgen nachdem die R9 290X bereits 8GB offiziell spendiert bekommen hat.

Sunrise
2014-11-20, 19:18:17
...In den pcper-Interview sagt Petersen, sie haben einfach keinen Bock.
Was soll er auch sonst sagen? Dass NV nun durch G-Sync am Modul gut verdient und zusätzlich den eigenen Grafikkartenverkauf fördert, und Ihnen FreeSync finanziell und strategisch nichts bringt?

Das war ja erst der Grund, warum man G-Sync relativ schnell am Markt hatte und man sich mit Asus einen Partner geangelt hat, der bereit war da relativ schnell mitzuziehen.

Dieses Projekt war kostentechnisch überschaubar und sie sind jetzt quasi Vorreiter. Zudem hat man damit wirklich gutes Marketing und zugleich ins Herz aller Spieler getroffen. Das wird man sich jetzt erstmal in Ruhe anschauen und dann evtl. irgendwann auch FreeSync unterstützen. Was sicherlich absolut kein Problem sein wird, da die Hardware (der Displayteil) nun flexibel genug ausgelegt ist und rein von der Funktionsweise her NV hier sicher nichts eigenes mehr bauen muss (Treiber).

Insofern ist die Aussage "kein Bock" eigentlich doch ganz passend, sie könnten wenn sie wollten.

Unicous
2014-11-20, 20:08:33
Jacob Hugosson

@Thracks I have one question before I'll contemplate opening up my wallet: 27"+, 4K, IPS and Freesync – when?


Robert Hallock ‏@Thracks

@JacobHugosson I can't say when (NDA), but I can say that this combo exists.
https://twitter.com/Thracks/status/535456468741652480

Tonči Jukić ‏@toncijukic

@Thracks Any IPS?

Robert Hallock ‏@Thracks

@toncijukic Yup.
https://twitter.com/Thracks/status/535471918288494592

Und:


Robert Hallock ‏@Thracks

Congratulations to Samsung for being the first of many to adopt FreeSync on 5x UHD displays. Many more to come at CES 2015!

Ich schätze auch, dass AMD u.a. Carrizo zur CES vorstellen wird und u.U. noch einiges mehr.

M4xw0lf
2014-11-20, 20:19:59
Lecker lecker. Ich warte trotzdem bis OLED :D

Unicous
2014-11-20, 20:28:34
Lass uns bitte ein Bild von deinem Grabstein zukommen.:tongue:

M4xw0lf
2014-11-20, 20:38:04
Lass uns bitte ein Bild von deinem Grabstein zukommen.:tongue:
"RIP - er wartet im Himmel weiter"?

Ich hoffe doch nicht :freak:

Unicous
2014-11-20, 20:45:08
Als der OLED-Hype vor vielen Jahren aufkam und sich einige Verrückte bilderrahmengroße Displays für teures Geld aus Fernost besorgt haben, dachte ich noch...das könnte was werden. Aber im Moment sehe ich eher Stillstand als aggressive roadmap die OLED in eins, zwei Jahren flächendeckend in die Wohnzimmer bzw. Monitore bringt. Eher sehe ich IPS/PLS/wie sie alle heißen den Markt erobern. Gibt ja auch noch andere interessante Technologien, die aber aber leider ein Schattendasein fristen.

Aber bei Monitortechnologien deren Marktdurchdringung darf man weiterhin nicht allzu viel erwarten. TN ist weiterhin king of the hill.


Zu G-Sync Overhead: AT hatte beim ersten Test (Ende 2013) von 3-5% Einbußen bei den fps berichtet (ich glaube das kam auch direkt von Nvidia). Ob das mittlerweile ausgemerzt wurde...keine Ahnung.

M4xw0lf
2014-11-20, 20:47:30
OLED ist einfach zu gut um nicht Erfolg zu haben. Es sei denn, Anorganische LEDs schaffen den Durchbruch noch vorher. ^^

samm
2014-11-20, 20:50:36
Konkreteres zu den Samsung UHD-Modellen:
Samsung Electronics Co., Ltd., plans to launch the screen synching technology around the world in March 2015, starting with the Samsung UD590 (23.6-inch and 28-inch models) and UE850 (23.6-inch, 27-inch and 31.5-inch models), and eventually across all of Samsung's UHD lineups.
Quelle: Pressemeldung (http://www.marketwired.com/press-release/amd-announces-major-technology-partnerships-at-future-of-compute-event-nyse-amd-1970174.htm)

Spekulation: Möglicherweise handelt es sich bei den "UD 590"-Modellen um teilweise bereits erhältliche: das LU28D590DS/ZA (http://www.samsung.com/us/computer/monitors/LU28D590DS/ZA) könnte dann zu AMDs Aussage passen, dass bereits Free-/Adaptive-Sync-taugliche Bildschirme verkauft werden, die aber noch auf ein Firmware-Update angewiesen wären.

M4xw0lf
2014-11-20, 20:56:59
Konkreteres zu den Samsung UHD-Modellen:

Quelle: Pressemeldung (http://www.marketwired.com/press-release/amd-announces-major-technology-partnerships-at-future-of-compute-event-nyse-amd-1970174.htm)

Spekulation: Möglicherweise handelt es sich bei den "UD 590"-Modellen um teilweise bereits erhältliche: das LU28D590DS/ZA (http://www.samsung.com/us/computer/monitors/LU28D590DS/ZA) könnte dann zu AMDs Aussage passen, dass bereits Free-/Adaptive-Sync-taugliche Bildschirme verkauft werden, die aber noch auf ein Firmware-Update angewiesen wären.

Das würde dann wohl kaum bis März dauern, ne?
Evtl gleiches Panel etc. plus neuen Scaler.

Unicous
2014-11-20, 20:59:55
Evtl gleiches Panel etc. plus neuen Scaler.

This.



(Haben sie ja bei G-Sync nicht wirklich anders gemacht ;))

Deinorius
2014-11-23, 12:21:57
OLED ist einfach zu gut um nicht Erfolg zu haben. Es sei denn, Anorganische LEDs schaffen den Durchbruch noch vorher. ^^


Anorganische LEDs existieren schon seit Jahrzehnten. Von welchem Durchbruch redest du?

Kartenlehrling
2014-11-23, 12:35:19
Ich habe eigentlich erhofft das sie auf der AMD-Messe wirklich Freesync zeigen und das ein Monitor auch vor dem Dezember "kaufbar" ist.

Jetzt werden wir wieder auf 3 Monate vertröste, ausserdem glaube nicht das gerade die Samsung Monitor das ist was ich haben will,
ich will doch nur ein 25"-2560x1440 , andere Formate will ich nicht.

Unicous
2014-11-23, 12:47:35
Sie haben ihre Freesync-Demo gezeigt. Darüber hinaus, zeigen sie auf der CES noch mehr Monitore. Doof wäre, wenn Samsung dann wirklich der einzige Hersteller wäre, der ab März Monitore anbietet.
Andererseits hatte ich ja die Nachricht von Gibbo bei OcUK verlinkt. LG sitzt auch im Boot und early next year klingt doch gar nicht so schlecht.

Ich hoffe ja persönlich auf BenQ, andererseits weiß ich noch gar nicht ob ich auf AMD umsteige. Aber den G-Sync Aufpreis werde ich sicherlich nicht bezahlen.

M4xw0lf
2014-11-23, 15:24:17
Anorganische LEDs existieren schon seit Jahrzehnten. Von welchem Durchbruch redest du?
Als Paneltechnologie. Außer Backlight-LED ist da ja nix.

fondness
2014-11-24, 18:18:54
BenQ and Viewsonic FeeSync monitors in time for holidays
http://www.fudzilla.com/home/item/36389-benq-and-viewsonic-feesync-monitors-in-time-for-holidays?utm_source=twitterfeed&utm_medium=twitter

Nightspider
2014-11-24, 18:24:38
Nochmal für die Unwissenden: Welchen Zeitraum umschließt der Begriff "holidays" in den USA in diesem Zusammenhang?

Heißt das noch im Dezember?

N0Thing
2014-11-24, 18:27:22
Einfach auf den Link klicken, schon im 2. Absatz wird es erklärt.

Unicous
2014-11-24, 18:30:07
Ersteinmal: FeeSync?:eek:

Also doch versteckte Kosten. Ich wusste es doch immer *Aluhutaufsetz*

Holiday Season war urprünglich mal Mitte/Ende Dezember (also um den heiligen Abend rum), jetzt kann man eigentlich schon die Zeit davor mitrechnen, also Thanksgiving, der ja am Donnerstag ist und Black Friday und Co.. Und da Amazon ja schon heute mit den Blue Monday Deals begonnen hat, dauert es nicht lange bis November und Oktober auch dazu zählen.:freak:

M4xw0lf
2014-11-24, 18:33:52
Ersteinmal: FeeSync?:eek:

Also doch versteckte Kosten. Ich wusste es doch immer *Aluhutaufsetz*
;D
Zu gut, wie hier ein einzelner Buchstabe die Bedeutung ins Gegenteil verkehrt :biggrin:

PHuV
2014-11-24, 23:06:18
Falls es jemanden interessiert, ich beziehe mich mal auf meinen Test 4k Monitor LG 31MU97-B 31" (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=558821).

G-Sync hat auch einen Einfluß beim Abspielen von Videos. Sieht man auf dem LG einen HD oder 4k-Film mit dem VLC (2.1.5), sieht man ab und zu ein horizontales Tearing, auf dem gleichzeitig angeschlossenen Acer mit G-Sync sieht man nichts, der Film wird einwandfrei dargestellt.

Unicous
2014-11-24, 23:17:16
Und woher weißt du, dass das explizit von G-Sync kommt?

G-Sync ist hardcapped bei 30 FPS, darunter passiert nichts mehr (vllt. springt Adaptive V-Sync oder so an? mir war so), wurde so auch von Nvidia bestätigt, ich glaube auch von Tom Peterson bei einem der Besuche bei PCPer.

Kartenlehrling
2014-11-24, 23:56:03
Interessant ist das sich Samsung das Recht genommen hat als "erster" Freesync Anbieter zu werben, obwohl andere Anbieter anscheinen sogar schneller liefern können.
Acer hätte ich gerne auch auf der Liste gelesen ... weil sie meine Wunschgrösse anbieten wollen 25" 2560x1440.

PHuV
2014-11-25, 00:03:07
Und woher weißt du, dass das explizit von G-Sync kommt?
Stimmt, ich müßte dann mal das G-Sync explizit beim Acer abschalten, und dann sehen, ob das Tearing hier auch auftritt. Werde ich mal morgen nochmal testen.

Unicous
2014-11-25, 01:33:21
Ich wäre sehr von einem Standard BenQ mit ordentlichem Schwarzwert begeistert, wenn sich die FUDzilla "Quelle" als real entpuppt und nicht nur aus Methan und Faulgasen besteht.

@PhuV

Ich denke, das wäre eine gute Idee. Wie gesagt Nvidia selbst behauptet, dass unter 30 fps G-Sync nicht mehr greift und das dürfte eine Hardwarelimitierung sein (wahrscheinlich vom FPGA). Ich hatte noch im Hinterkopf, dass unter 30 fps irgendetwas greift, aber das könnte auch Blödsinn sein.

Grestorn
2014-11-25, 07:34:23
Unter 30 fps wird einfach auf normales VSync zurückgegriffen. Die Hardwarelimitierung ist schlicht, dass die TN-Panels ihren Schaltzustand nicht länger als 1/30 tel Sekunde halten können.

PHuV
2014-11-25, 09:25:47
Ich muß mich wirklich korrigieren, es ist nicht G-Sync, es scheint am Panel zu liegen.:redface:

Mit LG Tearing, mit Acer nicht.

FlashBFE
2014-11-25, 10:22:47
Ich muß mich wirklich korrigieren, es ist nicht G-Sync, es scheint am Panel zu liegen.:redface:

Mit LG Tearing, mit Acer nicht.

Lässt du beide im Klonbetrieb laufen? Wenn ja, dann ist es normal, denn die Monitore können sich nicht untereinander VSyncen. Dann musst du den mal einzeln ansteuern. Wenn nicht, dann vergiss, was ich geschrieben habe. ;)

PHuV
2014-11-25, 10:30:45
Lässt du beide im Klonbetrieb laufen?
Yup
Wenn ja, dann ist es normal, denn die Monitore können sich nicht untereinander VSyncen. Dann musst du den mal einzeln ansteuern. Wenn nicht, dann vergiss, was ich geschrieben habe. ;)
Dann werde ich den LG noch mal separat testen.

Übrigens stimmt eines nicht ganz: Der Nvidia-Treiber sagt, daß der G-Sync-fähige Monitor als primäres Display eingerichtet sein muß. Jedoch kann ich ihn auch nachträglich reinhängen, und G-Sync funktioniert trotztdem.

differenzdiskriminator
2014-11-25, 10:33:24
Übrigens stimmt eines nicht ganz: Der Nvidia-Treiber sagt, daß der G-Sync-fähige Monitor als primäres Display eingerichtet sein muß. Jedoch kann ich ihn auch nachträglich reinhängen, und G-Sync funktioniert trotztdem.
Da G-Sync eine 1:1 Verbindung ist, würde ich wagen zu behaupten, dass du für zwei entsprechende Monitore auch zwei GPUs brauchst.

Das Tearing macht natürlich Sinn, weil dein Acer eben früher dran ist und das neue Bild anfordert - der LG aber noch nicht und muss so mitten im Bildaufbau switchen -> Tearing.

PHuV
2014-11-25, 10:55:06
Da G-Sync eine 1:1 Verbindung ist, würde ich wagen zu behaupten, dass du für zwei entsprechende Monitore auch zwei GPUs brauchst.
Warum? :confused: Wenn ich ein Signal auf 2 oder mehrere Ausgänge 1:1 klone, sollte hier ein GPU doch ausreichen. Es wird ja nur verteilt, und nicht berechnet.

differenzdiskriminator
2014-11-25, 11:02:39
Warum? :confused: Wenn ich ein Signal auf 2 oder mehrere Ausgänge 1:1 klone, sollte hier ein GPU doch ausreichen. Es wird ja nur verteilt, und nicht berechnet.
Nur hast du verschiedene Monitore mit verschiedenen Panels, die jeweils verschiedene Timings haben.

Logisch, dass der sekundäre Monitor Tearing zeigt. Kannst es ja mal umdrehen, also den LG zum primären machen und den Acer sekundär. Dann wird der Acer Tearing zeigen.

PHuV
2014-11-25, 11:58:00
Logisch, dass der sekundäre Monitor Tearing zeigt. Kannst es ja mal umdrehen, also den LG zum primären machen und den Acer sekundär. Dann wird der Acer Tearing zeigen.
Der LG ist bereits der primäre Bildschirm.

differenzdiskriminator
2014-11-25, 12:04:14
Der LG ist bereits der primäre Bildschirm.
Was passiert, wenn du die Ausgänge an der GPU tauschst?

PHuV
2014-11-25, 12:06:44
Der LG funktioniert nur am 2. und 3. DP, am ersten bekomme ich ihn nicht zum Laufen.

differenzdiskriminator
2014-11-25, 12:14:00
Also doch mal den Monitor alleine testen ;)

PHuV
2014-11-25, 23:22:07
Ihr habt recht, wenn nur ein Monitor dran ist, ist das Tearing weg. Wieder was gelernt.

Skysnake
2014-11-26, 06:52:05
Das sollte aber nicht sein.

Eventuell ein Indiz dafür, was nVidia mit ihrem GSync treibt?

FlashBFE
2014-11-26, 09:48:09
Das sollte aber nicht sein.

Eventuell ein Indiz dafür, was nVidia mit ihrem GSync treibt?
Nein, das ist ganz normal. Vielleicht ist es dir bisher nur nie aufgefallen, weil du nur den Desktop klonst oder weil deine Monitore gleich sind oder zufällig die gleichen Timings haben? Im Klonbetrieb kann sich die Grafikkarte nur mit einem Monitor VSyncen. Das Bild wird ja nicht für beide Monitore doppelt gebuffert. Auf meiner R9 290 mit Monitor und Beamer sieht man es am besten, wenn ein Video läuft. Im Klonbetrieb ist mein Monitor dann der primäre und der Beamer zeigt immer an der gleichen Stelle den Bildumbruch. Also wenn ich einen Film auf dem Beamer sehen will, muss ich den entweder als alleinige Anzeige aktivieren oder den Desktop erweitern.

Drogenbaron
2014-11-26, 11:59:10
Offensichtlich gibt der G-Sync Monitor auch als sekundärer Monitor das Timing vor. Was durchaus Sinn macht.

Und im Klonbetrieb muss sich der andere Monitor anpassen und das führt eben zu Tearing.

Godmode
2014-11-28, 13:32:01
Muss ich GSync eigentlich noch irgendwie aktivieren? Im NVCP ist es aktiviert. Stelle ich VSync dann Ingame auf aus?

robbitop
2014-11-28, 13:36:04
Im CPL G-Sync aktivieren und in 3D Settings (auch CPL) unter V-Sync (ganz unten) auf G-Sync stellen. Dann ist es völlig egal, was im Spiel eingestellt ist.

Du kannst es kontrollieren: die LED am SWIFT unten rechts leuchtet rot, wenn G-Sync aktiv ist. Wenn nicht, leuchtet sie weiß.

Godmode
2014-11-28, 13:47:01
Im CPL G-Sync aktivieren und in 3D Settings (auch CPL) unter V-Sync (ganz unten) auf G-Sync stellen. Dann ist es völlig egal, was im Spiel eingestellt ist.

Du kannst es kontrollieren: die LED am SWIFT unten rechts leuchtet rot, wenn G-Sync aktiv ist. Wenn nicht, leuchtet sie weiß.

Alles klar, danke!

dargo
2014-12-05, 13:49:23
Eine Frage zu Gsync und Freesync.

Wie schnell reagieren eigentlich die beiden Systeme? Worum es mir eigentlich geht... können beide Systeme bis zu einem gewissen Grad schlechte Frametimes einiger Spiele/Engines/Treiber so gut kompensieren, dass ich von den Rucklern nichts mehr bemerke?

Ein einfaches Beispiel - ich habe in Sekunde 1 konstante 16,666ms. Direkt danach habe ich für 1/2 Sekunde einen Spike auf 25ms und gleich danach wieder konstante 16,666ms. Schafft sowas Gsyns/Freesync komplett zu glätten unter meine Wahrnehmungsschwelle und wo ist die Grenze?

M4xw0lf
2014-12-05, 14:11:31
Eine Frage zu Gsync und Freesync.

Wie schnell reagieren eigentlich die beiden Systeme? Worum es mir eigentlich geht... können beide Systeme bis zu einem gewissen Grad schlechte Frametimes einiger Spiele/Engines/Treiber so gut kompensieren, dass ich von den Rucklern nichts mehr bemerke?

Ein einfaches Beispiel - ich habe in Sekunde 1 konstante 16,666ms. Direkt danach habe ich für 1/2 Sekunde einen Spike auf 25ms und gleich danach wieder konstante 16,666ms. Schafft sowas Gsyns/Freesync komplett zu glätten unter meine Wahrnehmungsschwelle und wo ist die Grenze?
Das Ziel von G-Sync/Freesync ist ja eigentlich, dir jeden Frame so lange zu zeigen, bis der nächste fertig ist - also könnte der Effekt ganz im Gegenteil Frametimeunterschiede deutlicher spürbar machen. :uponder:

Kartenlehrling
2014-12-05, 14:32:31
also könnte der Effekt ganz im Gegenteil Frametimeunterschiede deutlicher spürbar machen.

Nicht ohne Grund werden ja auch >45fps als minFPS empfohlen damit ein geschmeidiges Sehgefühl entsteht/bleibt.

hasebaer
2014-12-05, 14:33:26
also könnte der Effekt ganz im Gegenteil Frametimeunterschiede deutlicher spürbar machen. :uponder:

Nein, denn der Bildaufbau setzt immer an der richtigen Stelle an.
Es sind ja grade die Monitore ohne A-Sync, die Frames verlängern, wenn diese nicht in 16,6 ms (60Hz) oder 8,3ms (120Hz) passen.

Nicht ohne Grund werden ja auch >45fps als minFPS empfohlen damit ein geschmeidiges Sehgefühl entsteht/bleibt.
Falsch, 45 fps ist nur ein Worst Case für nicht - A-Sync TFTs (mit 60Hz).
Weil hier ein 22ms Frame, in zwei mal 16,6ms = 33,3ms dargestellt wird und so Frames vom Monitor weggelassen werden, die von der Grafikkarte kommen, aber der TFT noch nicht fertig ist mit seinem sturem Bildaufbau.

M4xw0lf
2014-12-05, 14:37:26
Nein, denn der Bildaufbau setzt immer an der richtigen Stelle an.
Ich halte das im Zusammenhang mit Frametimes für irrelefant; das verhindert ja nur Tearing aber macht nicht die Bildfolge gleichmäßiger.

hasebaer
2014-12-05, 14:42:24
Da muss auch nichts gleichmässiger, weil die Bildausgabe keine Frames mehr verschluckt.

Die besagten 45fps fühlen sich auf einem 120Hz TFT (ohne A-Sync) auch etwas besser an als auf einem 60Hz, weil hier nur drei mal 8,3ms (24,9ms) benötigt werden für einen 22ms Frame, statt 33,3ms auf einem 60Hz Gerät.

Unicous
2014-12-08, 22:51:00
Kann es sein, dass AMD schon 2011 über Adaptive Sync gesprochen hat oder interpretiere ich das falsch?


Nalasco told us there are several ideas for dealing with the jitter problem. As you probably know, vsync, or vertical refresh synchronization, prevents the GPU from flipping to a different source buffer (in order to show a new frame) while the display is being painted. Instead, frame buffer flips are delayed to happen between screen redraws. Many folks prefer to play games with vsync enabled to prevent the tearing artifacts caused by frame buffer flips during display updates. Nalasco noted that enabling vsync could "probably sometimes help" with micro-stuttering. However, we think the precise impact of vsync on jitter is tough to predict; it adds another layer of timing complexity on top of several other such layers. More intriguing is another possibility Nalasco mentioned: a "smarter" version of vsync that presumably controls frame flips with an eye toward ensuring a user perception of fluid motion. We think that approach has potential, but Nalasco was talking only of a future prospect, not a currently implemented technology. He admitted AMD can't say it has "a water-tight solution yet."

http://techreport.com/review/21516/inside-the-second-a-new-look-at-game-benchmarking/11

Schaffe89
2014-12-08, 23:53:26
Sie haben die Technik doch schon in die r7 260x implementiert, alias HD 7790.
Die Kam Anfang 2013 und war vermutlich 2011 schon erstes Testsilizium.
Nvidia hat G-sync von AMD´s Freesync abgekupfert.
Man erinnere sich an die gestohlenen Dokumente, wahrscheinlich hat NV so auch schneller per Treiber auf Mantle reagieren können.

Grestorn
2014-12-09, 00:09:39
Manche Leute sind einfach unglaublich...

Unicous
2014-12-09, 00:13:52
...schön?
...geistreich?
...toll?
...gut?
...schnuckelig?
...süß?

Grestorn
2014-12-09, 00:52:40
ich nehm mal "schnuckelig"...

Unicous
2014-12-09, 00:53:31
Gute Wahl.

differenzdiskriminator
2014-12-09, 08:45:06
Nvidia hat G-sync von AMD´s Freesync abgekupfert.
Man erinnere sich an die gestohlenen Dokumente, wahrscheinlich hat NV so auch schneller per Treiber auf Mantle reagieren können.
:facepalm:

Fahr doch bitte wieder zu deinem nächsten Neuschwabenlandtreffen....

Noebbie
2014-12-09, 09:00:20
Jetzt nach dem Omega Release sollte doch auch mehr Schwung und Bewegung bzgl. der Informationen um Freesync kommen. Ich las irgendwo was von Monitoren noch vor Weihnachten.

Irgendwie habe ich allgemein das Gefühl, das für Hardware dieses mal Weihnachten zu früh kommmt! Erst Broadwell, nun scheinbar Freesync! :D

samm
2014-12-09, 21:55:59
Inzwischen zeichnet sich ja schon ab, dass es in Sachen Adaptive Sync durchaus Konkurrenz unter verschiedenen Monitor-Herstellern geben wird. Gute Sache für uns Kunden, und gerade LG und BenQ erhöhen die Chancen auf mehr als TN-Displays :)
Die zum Launch der "300"er Serie und des grossen Maxwell verfügbaren Monitore mit Adaptive- und G-Sync werden mit eine Rolle spielen, was das nächste Kärtchen wird - mal eine neue Ausgangslage für die GPU-Auswahl.

Fahr doch bitte wieder zu deinem nächsten Neuschwabenlandtreffen....Relevant war das "Mitgehenlassen" allemal - ob es jedoch konkret mit G-Sync oder Mantle zu tun hatte, darf aufgrund der Jobs der Angeklagten bezweifelt werden. Wobei unter 3 (Feldstein), 200 (Desai), und 150'000 (Kociuk) vertraulichen lizenz-bezogenen, technischen Dokumenten und Computer-Images durchaus das ein oder andere dazu gewesen sein könnte.

fondness
2014-12-11, 16:10:40
FreeSync displays have entered the mass production and validation stage, AMD tells us. The first commercial offerings are now scheduled for a launch in the January-February time frame. We'll still have to wait until March for Samsung's FreeSync-enabled UHD monitors, though.

AMD says that, from the point of view of display makers, there's "not much you need to do" to support FreeSync other than comply with the DisplayPort 1.2a standard's Adaptive-Sync specification. Nonetheless, the chipmaker mentioned some "secret sauce" that we'll learn more about in January or February. Hmm.

I'm guessing we'll have at least some fresh details early next month, since AMD and its partners plan to have FreeSync monitors on display at CES. Scott will be at the show, so stay tuned.

http://techreport.com/news/27484/freesync-monitors-hit-mass-production-coming-in-jan-feb

Unicous
2014-12-11, 16:14:01
Nichts Neues. Alles schon (hier zumindest) bekannt.



Robert Hallock beantwortet in knapp zwei Stunden Fragen im THG Forum.

http://www.tomshardware.com/forum/id-2407018/official-amd-radeon-representative.html

Ich verspreche mir davon nicht viel. Erstens NDA, zweitens stellen die Leute meist dämliche Fragen.:P

PHuV
2014-12-11, 16:42:07
Jetzt nach dem Omega Release sollte doch auch mehr Schwung und Bewegung bzgl. der Informationen um Freesync kommen. Ich las irgendwo was von Monitoren noch vor Weihnachten.

Irgendwie habe ich allgemein das Gefühl, das für Hardware dieses mal Weihnachten zu früh kommmt! Erst Broadwell, nun scheinbar Freesync! :D
Du glaubst auch noch an den Weihnachstsmann? X-D

Ne, dieses Jahr kommt nichts mehr.

Blediator16
2014-12-25, 12:20:37
Iiyama ProLite B2888UHSU-B1 28" 4K 60Hz 1ms FREESYNC Gaming Widescreen LED Monitor - Black

http://www.overclockers.co.uk/showproduct.php?prodid=MO-119-IY

- Supports FREESYNC / Adaptive Sync (iiyama will offer a FREE upgrade to FREESYNC)

fondness
2014-12-25, 12:35:58
Da kann sich mal wieder jemand nicht ans NDA halten und versucht dadurch einen unfairen Verkaufsvorteil zu lukrieren...

Der Monitor selbst ist schon lange auch in D lieferbar:
http://geizhals.at/eu/iiyama-prolite-b2888uhsu-b2888uhsu-b1-a1120429.html

Testbericht von Prad.de:
http://www.prad.de/new/monitore/test/2014/test-iiyama-b2888uhsu-b1.html

aufkrawall
2014-12-25, 12:40:38
Dann müsste es ja bald einen Test geben.

fondness
2014-12-25, 12:41:31
CES kommt auf jeden Fall was.

Raff
2014-12-25, 13:12:53
Leider auch TN-Grütze. :( Aber zumindest Prad scheint ja angetan zu sein ... hmm.

MfG,
Raff

samm
2014-12-25, 13:29:53
Das Prad-Review liest sich überraschend gut für einen TN - aber die hohe Latenz wirft den Bildschrim dann wieder deutlich ausserhalb meiner Interesselage. Ausser mit Freesync funktioniert der Scaler, oder was auch immer für die Verzögerung verantwortlich ist, in einem alternativen schnelleren Modus - was ich mir nicht vorstellen kann.

dargo
2014-12-25, 13:48:15
Leider auch TN-Grütze. :(
Dass es mit dem TN-Schrott erst losgeht war doch klar, genau wie bei G-Sync. Wichtig ist, dass im besten Fall alle Bildschirmhersteller Freesync anbieten damit eine einwandfreie Konkurrenz herrscht. Dann kommen IPS/VA mit Freesync automatisch. Also Ruhe bewahren. ;)

derguru
2014-12-25, 14:03:00
jahre später bestimmt^^

mal sehen ob es nur bei Iiyama mit dem update bleibt oder ob andere mitziehen.

mironicus
2014-12-25, 14:39:05
Wahrscheinlich ist da nur ein Firmware-Update nötig und dadurch wäre wohl so gut wie jeder neue Monitor auf dem Markt einfach nachrüstbar.

fondness
2014-12-25, 14:48:10
Samsung wird sicher auch IPS/VA 4K Monitore veröffentlichen. Und nachdem jeder Samsung 4K Monitor FreeSync unterstützen soll haben wir spätestens im März IPS/4K/FreeSync. Bei anderen Herstellern wird es vermutlich nicht viel anders aussehen.

dargo
2014-12-25, 14:57:23
Samsung wird sicher auch IPS/VA 4K Monitore veröffentlichen. Und nachdem jeder Samsung 4K Monitor FreeSync unterstützen soll haben wir spätestens im März IPS/4K/FreeSync. Bei anderen Herstellern wird es vermutlich nicht viel anders aussehen.
Ob dieser wohl auch nachträglich Freesync unterstützen wird? :naughty:
http://geizhals.at/de/samsung-ls34e790c-ls34e790cns-en-a1195794.html

fondness
2014-12-25, 14:59:07
Ich befürchte die meisten Hersteller lassen sich für das Feature einen neuen Monitor bezahlen, aber mal abwarten wie viele nachrüsten.

horn 12
2014-12-25, 15:06:42
IPS Panele sollte es aber doch auch gleich zu Beginn mit der Vorstellung von Freesnc geben, Denke IPS Modelle fuer knapp 1000 Euro sind ab Anfang Jaenner zur CES 2015 lieferbar

mironicus
2014-12-25, 15:10:48
Der mit Freesync würde mir reichen.
http://geizhals.at/de/dell-ultrasharp-u3415w-a1052362.html

IPS, Curved, 34 Zoll, HDMI 2.0, 2x9 Watt-Lautsprecher, höhenverstellbar für knapp über 700 Euro, ein viel besseres Angebot als die Monitore von LG und Samsung.

aufkrawall
2014-12-25, 15:25:04
Mal angenommen, es funktioniert wirklich so gut wie Gsync, könnte das AMD mit Fiji 8GB schon enormen Auftrieb im Enthusiasten-Bereich geben. Scheint ja doch jetzt recht schnell zu gehen.
Hoffentlich bei 4k dann aber auch runter bis 20Hz und flimmerfrei.

samm
2014-12-25, 15:39:05
Der mit Freesync würde mir reichen.
http://geizhals.at/de/dell-ultrasharp-u3415w-a1052362.html

IPS, Curved, 34 Zoll, HDMI 2.0, 2x9 Watt-Lautsprecher, höhenverstellbar für knapp über 700 Euro, ein viel besseres Angebot als die Monitore von LG und Samsung.So sind die Präferenzen halt verschieden. Die Argumente Curved, 34", HDMI 2.0 und Lautsprecher wären für meine Monitorauswahl komplett irrelevant bis hinderlich, und ob IPS mir gegenüber VA zusagt, ist gemäss bisherigen Erfahrungen eine Chance von vielleicht 1:5.

Vielversprechend ist, dass für Adaptive Sync vom aktuellen Eindruck her eine grössere Vielfalt an Geräten (Hersteller, Formate, Panel-Technologie) erscheinen könnte als für GSync derzeit verfügbar ist.

Hoffentlich bei 4k dann aber auch runter bis 20Hz und flimmerfrei.Das zuvor genante Iiyama-TN-Teil scheint dies schonmal zu erfüllen: laut dem Prad-Review - ohne Freesync - werden 24Hz problemfrei wiedergegeben, womit ich deswegen auch bei Nutzung von Adaptive Sync rechnen würde, und das Backlight ist flimmerfrei.

dargo
2014-12-25, 15:54:26
Hoffentlich bei 4k dann aber auch runter bis 20Hz und flimmerfrei.
Freesync deckt den Bereich von 9-240Hz ab.
http://www.hardwarezone.com.sg/tech-news-amds-freesync-technology-almost-here-and-samsungs-leading-charge

samm
2014-12-25, 16:08:32
Was nicht heisst, dass jeder Freesync-taugliche Monitor damit umgehen können muss

dargo
2014-12-25, 16:15:14
Nach oben wird immer das Panel limitieren was logisch ist, aber nach unten?

aufkrawall
2014-12-25, 16:19:12
Nach unten fangen viele Panels an zu flimmern, fällt insbesondere bei Grau auf.
9Hz wären nicht übel als unterstes Limit. Wenn man mit avg 25fps spielt (etwa RPGs), gibts natürlich auch mal Drops auf 15fps.

PrefoX
2014-12-25, 16:31:51
Nach unten fangen viele Panels an zu flimmern, fällt insbesondere bei Grau auf.
9Hz wären nicht übel als unterstes Limit. Wenn man mit avg 25fps spielt (etwa RPGs), gibts natürlich auch mal Drops auf 15fps.
15fps lol, sowas nennt sich gamer? das ist doch eine Dia Show :D

Gsync hat auch kein limit nach unten, funktioniert nur nicht unter 30fps weil die Panels es nicht können, das gleiche Problem wird auch Freesync haben.

aufkrawall
2014-12-25, 16:33:07
"Weil die Panels es nicht können" klingt nicht besonders überzeugend. Was können sie nicht?

mironicus
2014-12-25, 16:39:45
Die Panels können es sicherlich, nur macht bei G-Sync vielleicht der NVidia-Chip im Monitor bei 30 Hz Schluss. :D

Unicous
2014-12-25, 16:52:27
@PrefoX

Auf dem Desktop braucht man keine 60 oder 120 fps.

@mironicus

Das könnte eine Softwarelimitierung (gewesen) sein. Ich habe im Hinterkopf, dass dies verändert wurde. Nvidia (Tom Peterson?) hat aber nicht gesagt wie weit runter es reicht. (Bzw. wurde ja auch anfangs behauptet, dass dann (A?)V-Sync anspringt)

aufkrawall
2014-12-25, 16:56:37
@PrefoX

Auf dem Desktop braucht man keine 60 oder 120 fps.

Auch der Desktop profitiert enorm von hohen fps, schon der Mauscursor wird deutlich präziser.
Sollte bei Notebooks mit IGP auch nicht der große Stromfresser sein.

Unicous
2014-12-25, 16:58:02
Ein (ruhender:rolleyes:) Desktop/Browser braucht keine 60/120/144 fps.

aufkrawall
2014-12-25, 17:01:48
Wie viel % der Zeit ist das Bild wirklich ruhend? Die Stromersparnis kann nicht signifikant sein.

Unicous
2014-12-25, 17:06:52
Ich weiß ja nicht was du so für Vorlieben hast, aber ich fuchtele nicht ständig mit der Maus rum, wenn ich z.B. einen Artikel lese oder auf Klo gehe.

mironicus
2014-12-25, 17:10:34
Die Stromersparnis bei "ruhendem" Display ist wohl auch eher nur für Tablets/Notebooks interessant.

aufkrawall
2014-12-25, 17:17:01
Zig Programme haben etwa animierte Trayicons.
Was soll denn da an Ersparnis übrig bleiben, im Vergleich zum Verbrauch des Backlights? Ein völliger Fliegenschiss.
Auf Websites sind auch zig Sachen gleichzeitig animiert, man hat Autoscrolling per mittlerer Maustaste an...
Da ist man ruck zuck bei einer durchschnittlichen Refreshrate, wo die Ersparnis gegenüber einer höheren kaum noch nennenswert sein dürfte.
Wenn ich aufs Klo gehe, kann ich auch das Display ebend ausschalten, wenn ich weiß, dass ich länger brauchen werde...

Es ist nicht sinnlos, so ohne Nebenwirkungen die Effizienz ein wenig zu verbessern. Aber das als ein großes Feature von variablem Vblank anzuführen, na ja. Man kann es auch übertreiben. Die Display-Elektronik wird auch bei gleichbleibender Refreshrate immer effizienter werden.

Unicous
2014-12-25, 17:39:21
Wenn alle Monitore auf der Welt Adapative Sync beherrschten, könnte man sicherlich viele Kraftwerke sparen, bei wahrscheinlichen Mehrkosten (bei der Fertigung von ein paar Cent (wenn überhaupt). Oder auch ZeroCore Power und andere Stromsparmaßnahmen. Man kann ja auch mal über den Tellerrand hinausschauen und sehen, was möglich wäre.

race to idle wird leider viel zu oft durch schlechte Software aber auch Hardware unterminiert. Wenn jeder moderne PC ein paar Watt durch einfache Maßnahmen spart wenn er nicht auf "Hochtouren" laufen muss, ist viel gewonnen. Darunter fällt auch Adapative Sync. Und wenn es nur ein paar hundert Milliwatt sind.

Panel Self Refresh könnte schon seit Ewigkeiten implementiert sein. Aber die Industrie ist daran einfach nicht interessiert. Es bräuchte politischen Druck, den es aber nicht gibt, weil gleichzeitig die Indrustrie versucht Mehrausgaben vorzubeugen indem sie Millionen an Schmier... äh lobbyist... ähm Zuwendungen um den Entscheidungsprozess "voranzubringen" ausgeben.

Es gibt zig Behörden und Vereinigungen (z.B. US-amerikanische EPA Energy Star oder das 80PLUS-Label) die Energielabels vergeben, diese Labels selbst aber sind durchsetzt von Regeln die die Industrie mitverfasst hat. Durch solch einen Blödsinn landen innovative Ideen wie PSR in der Schublade.
Die Industrie hätte schon längst eDP und Co. implementieren können, aber sie haben einfach keinen Bock drauf, bzw. der finanzielle Anreiz ist einfach nicht da.

@aufkrawall

Wie gesagt: Tellerrand. Ich z.B. "autoscrolle" nicht mit der mittleren Maustaste. (Hilfe wer macht denn sowas?)

Es ist nicht sinnlos, so ohne Nebenwirkungen die Effizienz ein wenig zu verbessern. Aber das als ein großes Feature von variablem Vblank anzuführen, na ja. Man kann es auch übertreiben. Die Display-Elektronik wird auch bei gleichbleibender Refreshrate immer effizienter werden.

Wer macht das? Muss ja ein ziemlicher Idiot sein. Ich jedenfalls hebe es nicht zum "großen" Feature heraus.

edit:
Die Display-Elektronik stagniert seit Jahren. Die großen Hersteller verkaufen immer noch den Mist, den sie vor Jahren mal auf den Markt geworfen haben. 4K ist jetzt auch nicht der große Innovationstreiber. Adaptive Sync wird da lediglich als "Pff, ok solange es uns nichts kostet können wir das ja implementieren" mitgenommen. Der Rest der Scaler und Controller für die 0815 Monitore bleibt weiterhin der Mist der seit Jahren hergestellt wird.

edit2: Dass AMD/VESA überhaupt Überzeugungsarbeit bei der Industrie leisten müssen um ein neues Feature für geringe bis gar keine Kosten implementieren zu lassen, ist doch traurig genug. LVDS und VGA wurden von AMD, Dell, Intel, Lenovo, Samsung und LG vor 4 Jahren für tot erklärt. Man sieht ja, was seitdem passiert ist. So gut wie nichts.

aufkrawall
2014-12-25, 17:52:06
edit:
Die Display-Elektronik stagniert seit Jahren. Die großen Hersteller verkaufen immer noch den Mist, den sie vor Jahren mal auf den Markt geworfen haben. 4K ist jetzt auch nicht der große Innovationstreiber. Adaptive Sync wird da lediglich als "Pff, ok solange es uns nichts kostet können wir das ja implementieren" mitgenommen. Der Rest der Scaler und Controller für die 0815 Monitore bleibt weiterhin der Mist der seit Jahren hergestellt wird.

Das gilt sicher nicht für Tablets. In 2-3 Jahren wird man auch OLED-Notebooks kaufen können.

Unicous
2014-12-25, 18:04:08
Wusste nicht, dass wir jetzt schon bei Tablets angelangt sind.:rolleyes:

Apple setzt z.B. seit längerem auf eDP (bei iPads, ich glaube aber auch bei den Laptops). Paradetech behauptet z.B. sie wären da der Exklusivzulieferer für die Elektronik und u.a. LG ist ja oft Zulieferer für die Displays.( z.B. das LP097QX1-SPA1-8M1 beim iPad 3).
Sie werden sicherlich auch so etwas ähnliches wie PSR implementiert haben.

Aber hier war ja auch Innovation nötig. Das hatte ich schon im Montor-Thread angesprochen.

Unicous
2014-12-31, 03:22:31
Boom, Boom, Pow.

LG announces a curved, 34-inch monitor that's tailor made for gamers (http://www.theverge.com/2014/12/30/7471247/lg-announces-curved-monitor-tailor-made-for-gamers)

The 34-inch UltraWide desktop monitor has been designed for gamers and integrates support for AMD’s FreeSync,[...]

LG's not new to 21:9 displays, but it's describing the new UltraWide as one of its best yet, promising unrivaled color accuracy thanks to the UltraWide's IPS panel, ability to output 99 percent of the sRGB color gamut, and 178 degrees of pristine viewing angles.

Link zur PM von LG
http://www.lg.com/au/press-release/lg-to-introduce-its-first-219-gaming-monitor-with-amd-freesync-at-ces-2015?cmpid=2014_12_MC_219GAMINGMONITOR_EA_FB_LINK_CES2015

dargo
2014-12-31, 06:43:28
:up:

Ich freue mich so sehr auf 2015. =)

y33H@
2014-12-31, 10:04:43
@ Unicous

Das zweite Zitat bezieht sich nicht auf den 34UM67 mit Freesync, sondern den gecurvten 34UC97.

EDIT
http://www.golem.de/news/lg-34um67-ultra-widescreen-monitor-mit-freesync-und-3k-vorgestellt-1412-111397.html

fondness
2014-12-31, 10:13:33
Noch im ersten Quartal 2015 wird das Angebot an FreeSync-Monitoren jenes an G-Sync-Monitoren quantitativ und qualitativ übersteigen. ;)

M4xw0lf
2014-12-31, 11:07:53
Mjam mjam mjam :love4:

Schnoesel
2014-12-31, 12:42:06
Der erste mit Freesync und IPS? Andere werden hoffentlich noch folgen. Könnte ein teures Jahr 2015 werden. Kriegskasse ist gefüllt ;-) Ich hoffe die kommenden Grakas taugen was.

aufkrawall
2014-12-31, 12:44:21
Jetzt bitte noch in 4k 16:9 oder 16:10. Die Aliasing-Klappe möchte man ja auch gleich mit schlagen.
Da wird bei einigen kommenden Modellen sicher spätestens was mit Firmware-Update gehen. =)

Unicous
2014-12-31, 12:49:10
@ Unicous

Das zweite Zitat bezieht sich nicht auf den 34UM67 mit Freesync, sondern den gecurvten 34UC97.

EDIT
http://www.golem.de/news/lg-34um67-ultra-widescreen-monitor-mit-freesync-und-3k-vorgestellt-1412-111397.html

Tja, was soll ich sagen. Den Text haben sie bei The Verge irgendwie umgemodelt, das untere Bild
https://cdn1.vox-cdn.com/thumbor/duDfxQXsJ_05fVmeB3jdCIqpCMU=/800x0/filters:no_upscale%28%29/cdn0.vox-cdn.com/uploads/chorus_asset/file/2891646/LG_UM67_Monitor_20141231085218495_.0.JPG

gab es da meines Erachtens auch noch nicht und bescheiden geschrieben ist der Artikel im Nachhinein auch (warum lässt der Autor die Bezeichnungen weg...hmmm, eigentlich zurecht. Dieses Zahlenjonglieren sollte man LG um die Ohren hauen).

y33H@
2014-12-31, 12:51:48
Ja, ich bin leider auch erst mal kräftig gestolpert ;(

Unicous
2014-12-31, 13:33:22
Nicht nur du hattest Probleme.:tongue:

@CB
Korrektur: In der ursprünglichen Fassung wurden Angaben des 34UM67 und 34UC97 vermischt. Wir bitten den Fehler zu entschuldigen.

Kartenlehrling
2014-12-31, 13:33:53
die nächsten 3 Monate werden spannend oder eine weitere grosse Enttäuschung.

Egal ... Meine Auflagen sind QHD+24/25" grössern Monitor will ich nicht und
solange nicht jedes Spiel auch ohne Mods 21:9 beherrschen fallen diese auch raus.

aufkrawall
2014-12-31, 13:49:52
Gibts von LG überhaupt noch TN-Geräte?

dargo
2014-12-31, 13:54:52
die nächsten 3 Monate werden spannend oder eine weitere grosse Enttäuschung.

Egal ... Meine Auflagen sind QHD+24/25" grössern Monitor will ich nicht und
solange nicht jedes Spiel auch ohne Mods 21:9 beherrschen fallen diese auch raus.
Bei mir ist es ähnlich. Wobei ich gegen den 34 Zöller mit 3440x1440 auch nichts hätte. Da wo die Leistung nicht reicht und/oder 21:9 nicht unterstützt wird geht man einfach auf 2560x1440 @16:9. Wichtig ist halt ein sehr guter Schwarzwert für die Balken links und rechts. :tongue:

Rente
2014-12-31, 13:55:10
Gibts von LG überhaupt noch TN-Geräte?
Natürlich: http://geizhals.de/?cat=monlcd19wide&xf=950_LG~106_TN~3311_2014#xf_top

Für mich stellt sich irgendwie die Frage wann nVidia nachzieht, noch ist es zu früh FreeSync auch anzukündigen, eventuell mit GM200?

fondness
2014-12-31, 14:04:29
Hoffentlich ziehen sie überhaupt nach. NV kann man es durchaus zutrauen auf ihr proprietäres Zeug zu bestehen, zumindest solange es sich nicht maßgeblich auf die Verkaufszahlen auswirkt. Dann wird es auch spannend welche NV-Chips FreeSync überhaupt unterstützen, das muss immerhin anders als bei G-Sync auch im Chip vorgesehen sein.

Kartenlehrling
2014-12-31, 14:06:31
Wo sollen sie nachziehen?
Mir sind die Problem die man über die G-sync Monitor lesen kann zuviel, da muss erst ein G-sync2.0 Modul kommen auch erwarte ich mehr als ein Anschluss am Monitor.

aufkrawall
2014-12-31, 14:09:20
Natürlich: http://geizhals.de/?cat=monlcd19wide&xf=950_LG~106_TN~3311_2014#xf_top

Ok, andere Frage: Werden denn 21:9 TN-Panels hergestellt?

y33H@
2014-12-31, 14:12:02
Dann wird es auch spannend welche NV-Chips FreeSync überhaupt unterstützen, das muss immerhin anders als bei G-Sync auch im Chip vorgesehen sein.Naja, es ist Teil von DP1.2a, würde mich nicht wundern, wenn NVs GM204 das nicht eh schon kann.