Archiv verlassen und diese Seite im Standarddesign anzeigen : SLI+Multimonitor+3DVision
Ich habe ein paar Fragen zu den oben genannten Themen.
Erstmals zur Ausgangssituation:
Ich habe eine 460GTX, an welcher 2 Monitore angeschlossen sind. Einer davon ist ein 120Hz Monitor und damit für 3D-Vision geeignet.
Nun schafft es die Grafikkarte teilweise nicht wirklich Spiele in 3D in der gewünschten Auflösung ruckelfrei wiederzugeben. Ich denke nun darüber nach eine 2. Grafikkarte zu kaufen um die Performance entsprechend zu erhöhen.
Nun zu den Fragen:
SLI erzeugt ja bekanntermaßen die unbeliebten "Mikroruckler". Bei 3dVision wird aber für jedes Auge ein eigenes Bild berechnet, damit sollte SLI eigentlich garantiert frei von Mikrorucklern sein oder übersehe ich da was?
Als nächstes würde ich gerne wissen mit welchen Karten ich SLI verwenden kann. Muss ich exakt die gleiche Karte verwenden, oder reicht eine beliebige 460GTX? Die 460GTX wird ja mit den unterschiedlichsten Taktraten ausgeliefert, reicht es da die Taktraten per Software anzugleichen oder müssen die Karten zwingend die gleiche Taktfrequenz haben?
Wäre es beispielsweise auch möglich eine 560GTX dazu im SLI zu betreiben?
Klarerweise müsste diese im SLI-Betrieb auf die Performance der 460GTX gedrosselt werden, aber immerhin hätte ich dann im Single-Betrieb die höhere Performance.
Jetzt frage ich mich noch wie sich das ganze im "normalen" Multimonitor-Betrieb in Windows verhält. Bekanntermaßen funktionieren die Stromsparmodi der Grafikkarten im Multimonitor-Betrieb nur unzureichend oder gar nicht.
Wenn ich jetzt jeden Monitor an eine eigene Grafikkarte anschließe, können diese dann beide die stromsparenden Taktprofile nutzen, oder würden beide ständig mit 3D-Takt laufen?
SLI erzeugt ja bekanntermaßen die unbeliebten "Mikroruckler". Bei 3dVision wird aber für jedes Auge ein eigenes Bild berechnet, damit sollte SLI eigentlich garantiert frei von Mikrorucklern sein oder übersehe ich da was?Auch bei 3dVision läuft ein SLI im normalen AFR-Modus. Also gibt's immer noch Mikroruckler und Inputlag. Zumindest die MR werden aber besser dadurch, dass bei 3dVision Vsync erzwungen wird.
Als nächstes würde ich gerne wissen mit welchen Karten ich SLI verwenden kann. Muss ich exakt die gleiche Karte verwenden, oder reicht eine beliebige 460GTX? Die 460GTX wird ja mit den unterschiedlichsten Taktraten ausgeliefert, reicht es da die Taktraten per Software anzugleichen oder müssen die Karten zwingend die gleiche Taktfrequenz haben?
Wäre es beispielsweise auch möglich eine 560GTX dazu im SLI zu betreiben?
Klarerweise müsste diese im SLI-Betrieb auf die Performance der 460GTX gedrosselt werden, aber immerhin hätte ich dann im Single-Betrieb die höhere Performance.Unterschiedliche Taktraten gehen, auch unterschiedliche Hersteller. Aber prinzipiell die gleiche GPU muss es schon sein, also nur zwei 460/560/whatever, aber keine Mischung.
Cubitus
2011-05-04, 23:57:28
Auch bei 3dVision läuft ein SLI im normalen AFR-Modus. Also gibt's immer noch Mikroruckler und Inputlag. Zumindest die MR werden aber besser dadurch, dass bei 3dVision Vsync erzwungen
Vsync ändert gar nix an den MR. MR treten unter 30 FPS auf.
Das Aliasing wird durch den 3D Modus etwas kaschiert.
MR fallen unter 3D Vision genau so auf.
Zwei 460er sollten einen ordentlichen Perfomance Sprung liefern, allerdings wird es mit zusätzlichem AA dennoch etwas knapp.
Vsync ändert gar nix an den MR. MR treten unter 30 FPS auf.Mikroruckler treten bei jeder beliebigen Framerate auf, sind ja Inkonsistenzen in den Frametimes. Ab wo man sie bemerkt hängt neben der Stärke der Kadenzvarianz auch von der persönlichen Wahrnehmung ab, manche sind halt empfindlicher.
Und natürlich ändert Vsync was an den MR, weil sich damit die Kadenz auf die vom Monitor vorgegebene Referenzkadenz einpendeln kann - was mit DB besser funzt als mit TB, weil mit DB auch die Teiler der Monitorbildrate als Referenzkadenzen wirken...
Cubitus
2011-05-05, 01:01:45
Mikroruckler treten bei jeder beliebigen Framerate auf, sind ja Inkonsistenzen in den Frametimes. Ab wo man sie bemerkt hängt neben der Stärke der Kadenzvarianz auch von der persönlichen Wahrnehmung ab, manche sind halt empfindlicher.
Und natürlich ändert Vsync was an den MR, weil sich damit die Kadenz auf die vom Monitor vorgegebene Referenzkadenz einpendeln kann - was mit DB besser funzt als mit TB, weil mit DB auch die Teiler der Monitorbildrate als Referenzkadenzen wirken...
Kannst du pauschal so auch nicht sagen, den eine Inkonsistenz ist vom Game und vor allem vom Profil abhängig. Nvidia hat seine Frametimes im SLI Modus eigentlich recht gut im Griff. Ich nutze SLI schon eine Weile und der Schwellenpunkt liegt auch beim meinem Empfinden bei den allgemeinen 30 FPS, wo man halt einfach die "Frame Sprünge" trotz gutem Profil merkt.
Zum Vsync:
Bring ein Spiel mit SLI unter 30 FPS, schalte vsync ein und beurteile das Ergebnis selbst.
Deine Aussagen mit der Kardenz und allem lesen sich zwar gut, nur im praktischem Bereich ist es dann doch ein wenig anders.
Was wirklich gegen Mikroruckler hilft ist ein Frame-Limitierer!
Sieht man z.B ganz schön an den vielen UE3 Games.
Die U3-Engine hat so einen Limitierer bereits on Board, leider verwechseln viele User diese Feature mit Vsync.
Bring ein Spiel mit SLI unter 30 FPS, schalte vsync ein und beurteile das Ergebnis selbst.Unter 30 ruckelt so oder so, selbst mit perfekten Frametimes und hochqualitativem Motion Blur.
Oder im Klartext: Selbst Kino ruckelt.
Deine Aussagen mit der Kardenz und allem lesen sich zwar gut, nur im praktischem Bereich ist es dann doch ein wenig anders.Tscha, irgendwo wird wirklich ein wenig der Wurm drinstecken, denn selbst mit Einzelkarte und aktivem Vsync wird's nicht mehr so flüssig wie früher in den Zeiten vor MultiGPU.
Was wirklich gegen Mikroruckler hilft ist ein Frame-Limitierer!Also Vsync mit DB. Durch TB kommt die regelmäßige Kadenz einfach aus dem Takt. Eben daran dürfte auch die geringere Flüssigkeit gegenüber früher kommen. Früher konnte man TB selten anschalten, heute kann man es nicht abschalten. Mist. :usad:
tombman
2011-05-05, 01:30:53
Vsync mag die FT ein bischen "glätten", aber dann hast du die input lag Seuche- und das ist 5x schlimmer. Also Vsync als Lösung: Nö.
Vsync mag die FT ein bischen "glätten", aber dann hast du die input lag Seuche- und das ist 5x schlimmer.Klar, kommt ja noch der TB-Lag auf den AFR-Lag oben drauf und eine wirklich stabile Referenzkadenz hast nur, wenn das System wirklich konstant am Vsync klebt. Nur ein kleiner Schluckauf, und die Sync zwischen Monitor und Graka muss sich wieder neu einpendeln...
Also Vsync als Lösung: Nö.In der gegenwärtigen Situation ist's sicher eine Geschmacksfrage, welches Gift man nun wählt. Ließe sich TB hingegen global deaktivieren, dann wäre Vsync weit öfter die angebrachteste Option.
tombman
2011-05-05, 03:01:45
Am besten wäre ein fps lock seitens der Hersteller....aber die haben zuviel Angst :rolleyes:
Am TV kann man zb auf 24Hz in 1080p syncen -> perfekte Verteilung, aber bei 24Hz eben auch Makroruckler ....
boxleitnerb
2011-05-05, 08:31:35
tombman, hast du inzwischen mal den FPS Limiter von nthusim ausprobiert?
Danke für die Antworten.
Kann noch jemand meine Fragen Beantworten, wie es mit mehreren Monitoren aussieht?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.