Archiv verlassen und diese Seite im Standarddesign anzeigen : Die SLI-FPS-Lüge – oder warum FPS nicht genug sind ...
Slipknot79
2008-02-25, 23:43:22
Die sind auch sicher nicht blöd, hat ja Ludi bewiesen.
Da kommen die 3dc Gurus her und es taucht das Gerücht auf, son kleines Progi würde sau viel Geld kosten (=weil lange Entwicklungszeit) um es zu entwickeln. Dann kommt ein richtiger Pro (Was ned heißen soll, die Gurus hier wären scheisse) her und macht das an einem Nachmittag.
Hvoralek
2008-02-25, 23:50:45
Was Ludi da gebaut hat, war anscheinend ein einfacher Framelimiter. Das ist natürlich keine große Sache, war aber auch keine richtige Lösung (Weil durch die schlichte Verzögerung der Bildberechnung und -ausgabe die Daten, die für die Berechnung genutzt wurden, teilweise aktuell, teilweise aber etliche ms alt waren, wurden zwar fps regelmäßig ausgegeben, dafür liefen aber Animationen etc. ungleichmäßig ab).
looking glass
2008-02-26, 00:03:00
Aber es war doch das, was hier am Anfang gewollt war - eine zeitliche Angleichung, nicht mehr und nicht weniger.
InsaneDruid
2008-02-26, 00:38:10
Mit der Folge das die FPS Balken schrumpfen. Nur das ist wichtig. ATI hat dies offen gestanden, nur die Zahlen sind wichtig, sonst ist alles egal, und nv eiert auch ganz schön rum. Im jetzigen Zustand hat sich keiner von beiden mit Ruhm bekleckert, ATI war sogar so blöd genau zuzugeben das ihnen das Feeeling am Arsch vorbei geht, solange die werberelevanten Zahlen erreicht werden. Im Klartext: selbst wenn das scheiss Game nicht mehr spielbar wäre, solange in Vergleichtests fette Zahlen abgedruckt werden können wird sich NICHTS ändern.
Mit der Folge das die FPS Balken schrumpfen. Nur das ist wichtig. ATI hat dies offen gestanden, nur die Zahlen sind wichtig, sonst ist alles egal, und nv eiert auch ganz schön rum. Im jetzigen Zustand hat sich keiner von beiden mit Ruhm bekleckert, ATI war sogar so blöd genau zuzugeben das ihnen das Feeeling am Arsch vorbei geht, solange die werberelevanten Zahlen erreicht werden. Im Klartext: selbst wenn das scheiss Game nicht mehr spielbar wäre, solange in Vergleichtests fette Zahlen abgedruckt werden können wird sich NICHTS ändern.Dann sollten wir vielleicht beginnen zu begreifen und andere Werte messen, aus denen dann die ach-so-wichtigen Balken werden. Wie wäre es mit einer Messung der Latenz? Die FPS sind doch letztlich nur ein einfach messbares Mittel um dadurch indirekt auf die Latenzen schließen zu können, welche durch ihre Höhe und Konstanz die Spielbarkeit bestimmen.
Slipknot79
2008-02-26, 03:33:37
Das Einteilen dieser Frames (bzw. der command buffer) wird zumindest unter Vista vom Kernel übernommen, das heisst dieses Verhalten kann auch über den Treiber nicht beeinflusst werden.
Und was übernimmt unter XP diese Aufgabe?
Will nicht mal jemand mit SLI unter Linux die Frametimes messen?
Hvoralek
2008-02-26, 12:16:49
Aber es war doch das, was hier am Anfang gewollt war - eine zeitliche Angleichung, nicht mehr und nicht weniger.Was nützt eine gleichmäßige Frameausgabe, wenn dafür Animationen in schwankender Geschwindigkeit ablaufen?
Was nützt eine gleichmäßige Frameausgabe, wenn dafür Animationen in schwankender Geschwindigkeit ablaufen?
Denke das der Effekt einer schwankender Animationsausgabe vom Auge nicht erfassbar ist bzw. im Gehirn als korrekt wahrgenommen wird. Wichtig ist, das wir ca. 25 Bilder/s sehen können und das gleichverteilt.
san.salvador
2008-02-27, 13:31:39
Denke das der Effekt einer schwankender Animationsausgabe vom Auge nicht erfassbar ist bzw. im Gehirn als korrekt wahrgenommen wird. Wichtig ist, das wir ca. 25 Bilder/s sehen können und das gleichverteilt.
Das stimmt so leider nicht, Eingabe und Bildausgabe passen in beiden Fällen nicht ganz zusammen. Im Prinzip läuft es aufs selbe hinaus.
Hvoralek
2008-02-27, 13:32:18
Denke das der Effekt einer schwankender Animationsausgabe vom Auge nicht erfassbar ist bzw. im Gehirn als korrekt wahrgenommen wird. Wichtig ist, das wir ca. 25 Bilder/s sehen können und das gleichverteilt.Ich stelle mir ein hochfrequentes Zucken aller Figuren auch nicht gerade angenehm vor.
Das stimmt so leider nicht, Eingabe und Bildausgabe passen in beiden Fällen nicht ganz zusammen. Im Prinzip läuft es aufs selbe hinaus.
Das ist doch wieder was anderes, oder? Das was du schilderst ist doch der Inputlag, der dadurch verursacht wird, weil 2 Bilder im Voraus berechnet werden müssen.
Das ist doch wieder was anderes, oder? Das was du schilderst ist doch der Inputlag, der dadurch verursacht wird, weil 2 Bilder im Voraus berechnet werden müssen.Jein. Das Hauptproblem ist der schwankende Lag. Auf einen konstanten Lag kann man sich einstellen und dementsprechend vorhalten.
ich seh nicht ganz wieso durch den frametime limiter die Animationen merklich verändert werden sollen.
ob die Bilder der zweiten GPU jetzt bei t = 40ms oder bei t = 60ms erscheint, macht doch kaum einen unterschied; das bild bleibt wohl das gleiche und ich glaube nicht, dass die CPU weiß, wann das bild ausgegeben werden wird und dementsprechend die Animation daran anpasst. Der Frametime-Limiter macht doch nichts anderes als die Bilder geringfügig auf der t-Achse zu verschieben; die Berechnung der Animationen wird doch wohl nicht ausgabezeitenabhängig sein.
bitte korrigiert mich, falls diese Annahme nicht stimmen sollte
Das Lag Problem ist sicher gravierender, aber für Hobby-Spieler wird das sicher auch vernachlässigbar sein.
Ja, aber das Limitieren hilft nachgewiesenermaßen der "Flüssigkeit" des Ablaufs. Macht das doch mal im 3DMark06 (30 Fps) ... ich habe den nie so flüssig gesehen.
MfG,
Raff
=Floi=
2008-03-02, 14:35:34
gibt es das tool noch zum DL?
Johnny Rico
2008-03-02, 16:13:41
http://www.pcgameshardware.de/aid,632763/Praxis/PCGH_Exklusiv_Multi-GPU_-_wenn_Mikroruckler_zu_Makrorucklern_verkommen/
Gouvernator
2008-03-02, 16:57:01
http://rapidshare.com/files/85231450/fpslimiter_0_2.rar
Spasstiger
2008-03-02, 17:04:57
Die neue PCGH mit dem Mikroruckler-Artikel ist inzwischen auch bei den Abonenten angekommen. Allerdings glaube ich nicht, dass der Artikel wirklich Leser erreicht, die vorher noch nix von der Problematik wussten. Auf dem Cover wird der Artikel nicht erwähnt und die Überschrift "Fps-Bremsen" ist imo etwas unglücklich gewählt. Da denkt jeder "schon wieder ein doofer Tuning-Artikel".
Aber hoffentlich kann man so etwas Druck auf die IHVs und Microsoft ausüben, eine baldige Lösung bereitzustellen.
Chris Lux
2008-03-02, 18:12:01
ja das thema muesste besser aufgemacht werden. da fps bremse eher auch falsch ist. wenn der limiter (auch dummes wort dafür) wenn richtig gemacht, nur max. 1fps kostet muss. es ist besser das fps equalizer zu nennen.
man sollte das tool 3D-mark-maximizer nennen. am tag drauf hätte es dann jeder, auch single card user.
san.salvador
2008-03-02, 23:00:03
Die neue PCGH mit dem Mikroruckler-Artikel ist inzwischen auch bei den Abonenten angekommen. Allerdings glaube ich nicht, dass der Artikel wirklich Leser erreicht, die vorher noch nix von der Problematik wussten. Auf dem Cover wird der Artikel nicht erwähnt und die Überschrift "Fps-Bremsen" ist imo etwas unglücklich gewählt. Da denkt jeder "schon wieder ein doofer Tuning-Artikel".
Aber hoffentlich kann man so etwas Druck auf die IHVs und Microsoft ausüben, eine baldige Lösung bereitzustellen.
"FPS-Bremse" ist nicht unglücklich, sondern schlicht die falscheste Bezeichnung die möglich ist.
Denn schließlich ist hier der einzig positive Effekt, dass die FPS steigen - "FPS-Bremse" suggeriert genau das Gegenteil.
man sollte das tool 3D-mark-maximizer nennen. am tag drauf hätte es dann jeder, auch single card user.
Ja richtig :D
Ich benutze das tool mittlerweile für viele Spiele, damit die richtig flüssig sind.
Crysis im MP regel ich auf konstante 60fps ab und hab dadurch einen ganz guten Vorteil, weil es so verdammt flüssig läuft =)
@=FLOI=: Dieses Benutzerinterface ist auch wärmstens zu empfehlen: http://www.forumdeluxx.de/forum/showpost.php?p=8248702&postcount=272
Damit lassen sich mit wenigen Klicks Verknüpfungen erstellen, einfach und praktisch.
AnarchX
2008-03-06, 14:02:43
CeBIT: NVIDIA bestätigt Mikroruckler und kündigt Lösung an (http://www.ht4u.net/news/1472_cebit_nvidia_bestaetigt_mikroruckler_und_kuendigt_loesung_an)
... und schiebt nicht MS die Schuld zu, wie ATi. ;)
Hvoralek
2008-03-06, 14:09:20
CeBIT: NVIDIA bestätigt Mikroruckler und kündigt Lösung an (http://www.ht4u.net/news/1472_cebit_nvidia_bestaetigt_mikroruckler_und_kuendigt_loesung_an)
... und schiebt nicht MS die Schuld zu, wie ATi. ;)Wenn da jetzt wirklich etwas Effektives kommt und das nicht so ein halbgares Herumgefrickel wird wie bei den Speicherproblemen, ziehe ich meinen Hut.
Mr. Lolman
2008-03-06, 14:09:20
CeBIT: NVIDIA bestätigt Mikroruckler und kündigt Lösung an (http://www.ht4u.net/news/1472_cebit_nvidia_bestaetigt_mikroruckler_und_kuendigt_loesung_an)
... und schiebt nicht MS die Schuld zu, wie ATi. ;)
Bin ernsthaft gespannt ob was daraus wird. :eek:
Oh man na endlich!
persönliches Fazit: es hat sich doch gelohnt wochenlang, abstruses Fanboygelaber von jeder Seite abzuwehren...
Ein gewisser "gast" mit gesperrtem Account wird sich wahrscheinlich in diesen Tagen auch aufhängen... Ruhe in Frieden mein Lieber.
Kennt ihr den schon?
http://www.pcgameshardware.de/aid,634496/Praxis/Mikroruckler_Untersuchungen_mit_aktueller_Forceware_und_9600-GT-SLI/
MfG,
Raff
2B-Maverick
2008-03-06, 14:57:28
Kennt ihr den schon?
http://www.pcgameshardware.de/aid,634496/Praxis/Mikroruckler_Untersuchungen_mit_aktueller_Forceware_und_9600-GT-SLI/
MfG,
Raff
neee... thx.... ich kannte den nicht.
Und ENDLICH ham die ihre Grafiken verständlicher gemacht - so daß man schnell die Frametime-Unterschiede sehen kann.
CU
Markus
Gouvernator
2008-03-06, 15:06:00
Ich sehe den Tanz schon beginnen ohne im Grunde das Problem wirklich zu lösen...
Hvoralek
2008-03-06, 15:20:57
Kennt ihr den schon?
http://www.pcgameshardware.de/aid,634496/Praxis/Mikroruckler_Untersuchungen_mit_aktueller_Forceware_und_9600-GT-SLI/Man kann Euch wirklich nicht vorwerfen, das Thema kalt werden zu lassen :wink:
Interessant wäre noch einmal ein Direktvergleich der 174er mit älteren Treibern auf einer 8800. Vlt. hat der das Ganze ja doch zumindest etwas entschärft, wobei es zumindest in Crysis eigentlich kaum noch schlimmer gewesen sein kann. Ich hoffe, dass Nvidias "Lösung" nicht so aussieht ;(
tombman
2008-03-06, 17:25:12
CeBIT: NVIDIA bestätigt Mikroruckler und kündigt Lösung an (http://www.ht4u.net/news/1472_cebit_nvidia_bestaetigt_mikroruckler_und_kuendigt_loesung_an)
... und schiebt nicht MS die Schuld zu, wie ATi. ;)
Und genau das meine ich seit Ewigkeiten mit der unterschiedlichen Philosophie wie ATi und Nvidia an Probleme der Enthusiasten herangehen. ATI ist im Herzen kein Enthusiast, Nvidia schon. HighEnd schaut bei ATI nur so aus, daß 3dmark stimmt und ne handvoll games, die auch ja gebenched werden- Rest egal. Nvidia ist da anders.
Was mich merkwürdig stimmt: es heißt, es wird eine gleichmäßige Ausgabe der Bilder angestrebt. Gleichmäßiges Berechnen ist allerdings nicht erwähnt. Wie stark wiegt der zuletzt genannte Effekt?
Das Auge
2008-03-06, 17:57:12
Die neue PCGH mit dem Mikroruckler-Artikel ist inzwischen auch bei den Abonenten angekommen. Allerdings glaube ich nicht, dass der Artikel wirklich Leser erreicht, die vorher noch nix von der Problematik wussten. Auf dem Cover wird der Artikel nicht erwähnt und die Überschrift "Fps-Bremsen" ist imo etwas unglücklich gewählt. Da denkt jeder "schon wieder ein doofer Tuning-Artikel".
Ich denke PCGH kann und will es sich nicht mit nv verscherzen, alle Testmuster zu kaufen könnte teuer werden, von Werbeeinnahmen mal ganz abgesehen.
Aber hoffentlich kann man so etwas Druck auf die IHVs und Microsoft ausüben, eine baldige Lösung bereitzustellen.
Ist zwar schön, daß sich überhaupt mal ein Printmedium den Mikrorucklern annimmt, aber großen Druck wird der Artikel wohl kaum ausüben können. Dafür müssten ähnliche Artikel in der c't, Gamestar (nicht lachen, mein ich ernst), CB, THG, anand, usw. erscheinen. Und ein netter Hinweis auf geizhals ;)
Und genau das meine ich seit Ewigkeiten mit der unterschiedlichen Philosophie wie ATi und Nvidia an Probleme der Enthusiasten herangehen. ATI ist im Herzen kein Enthusiast, Nvidia schon. HighEnd schaut bei ATI nur so aus, daß 3dmark stimmt und ne handvoll games, die auch ja gebenched werden- Rest egal. Nvidia ist da anders.
Deine Brille ist heute wohl besonders grün. Die Kernaussage stimmt zwar durchaus, aber Marketinggeblubber mussten wir schon öfter hören (idle-Modus, vram-bugfix z.B.). Erstmal abwarten ob da wirklich was kommt, noch ist es zur Freude zu früh.
Wenn der Fix wirklich kommt, wäre SLI mir evtl. sogar mal wieder ne Überlegung wert, sobald es brauchbare Phenoms gibt.
tombman
2008-03-06, 18:02:04
Und ein netter Hinweis auf geizhals ;)
Jo, DAS tut sicher weh. Könnte man zumindest bei allen GX2 und X2 Karten dazuschreiben ;)
Deine Brille ist heute wohl besonders grün. Die Kernaussage stimmt zwar durchaus, aber Marketinggeblubber mussten wir schon öfter hören (idle-Modus, vram-bugfix z.B.). Erstmal abwarten ob da wirklich was kommt, noch ist es zur Freude zu früh.
V-Ram Bug hatte ich nie und Idle Modus geht mir am AA vorbei- wie wahrscheinlich den meisten Enthusiasten auch- das sind eher mainstream Probleme ;)
Wenn der Fix wirklich kommt, wäre SLI mir evtl. sogar mal wieder ne Überlegung wert, sobald es brauchbare Phenoms gibt.
Wenn der Fix kommt, wäre SLI wieder das was es mal war- die absolute ownage und der einzige Garant für highres gaming @ high fps ;)
Btw, schau dir mal an wie Crossfire hier bei "den Russen" abnoobed:
http://www.ixbt.com/video/itogi-video/test/0801_3870x2.shtml
Die Kernaussage stimmt zwar durchaus, aber Marketinggeblubber mussten wir schon öfter hören (idle-Modus, vram-bugfix z.B.). Erstmal abwarten ob da wirklich was kommt, noch ist es zur Freude zu früh.
VRAM Bug gabs nie...es gab einen Speichermanagementbug bei den 320MB GTS Karten der behoben wurde. Ein Idle Modus wurde auch nie versprochen.
Das Auge
2008-03-06, 18:50:44
@Gast & Tombman
Ich bin erst mit dem G92 in die 8er Serie eingestiegen und hab vom vram-bug auch noch nix gemerkt - und das bei 1920x1200. Aber man konnte halt sehr viel drüber lesen und es scheint definitiv ein Problem gewesen zu sein. Und auch Käufer einer "kleinen" 320MB GTS haben das Recht auf ein einwandfreies Produkt, meint ihr nicht?
Der idle-Modus interessiert mich persönlich auch eher weniger, selbst meine CPU dampft derzeit fröhlich @maxtakt ohne CnQ vor sich hin. Mir wurscht. Aber der idle-modus wurde nunmal versprochen und er kam nicht. Außerdem frage ich mich, warum man bei ati schon seit Jahren die vcore flexibel managen kann und bei nv nicht? Das ist mMn auch ein Feature für Enthusiasten, sogar ein sehr wichtiges ;)
Jedenfalls könnte es mit dem Ludifix made bei nv doch ähnlich sein, Bla eben. Erstmal beschwichtigen, Lösung versprechen und warten bis die Diskussion abklingt.
Also schaun mer mal was kommt. Vllt. arbeitet nv in Hinblick auf die GX2 ja wirklich dran.
Das Auge
2008-03-06, 19:03:46
Wenn der Fix kommt, wäre SLI wieder das was es mal war- die absolute ownage und der einzige Garant für highres gaming @ high fps ;)
Btw, schau dir mal an wie Crossfire hier bei "den Russen" abnoobed:
http://www.ixbt.com/video/itogi-video/test/0801_3870x2.shtml
Mir egal ob die X2 da abnoobed oder owned, CF hat mich nie interessiert. Ich hab mir eigentlich nichtmal großartig Tests zu der Karte durchgelesen, weil die Leistung ja in etwa vorher klar war, zwei übertaktete 3870er eben. Selbst wenn die Mikrorucklerproblematik dort nicht auftreten würde, wär die Karte nicht interessant für mich gewesen, keine Sorge ich kauf schon keine ati.
Ich bin nämlich auch Enthusiast ;D
Hvoralek
2008-03-06, 20:31:28
Ich denke PCGH kann und will es sich nicht mit nv verscherzen, alle Testmuster zu kaufen könnte teuer werden, von Werbeeinnahmen mal ganz abgesehen.Damit riskeren sie v.a., es sich mit ATI zu verscherzen. Die werden ja anscheinend mittelfristig weiterhin auf AFR im High- End setzen.
Gast von früher mitm TH2G
2008-03-06, 20:36:21
yay yay yay
Vorausgesetzt NV hält was sie versprechen, haben sie gezeigt, dass sie sich um Probleme kümmern wenns publik wird. Ist zwar leider spät, aber immerhim besser las M$ ist schuld.
NV halt hat einfach weniger radikale Fanbois, das zwingt sie auch gewissermaßen dazu, *schätzte ich*
Gast von früher mitm TH2G
2008-03-06, 20:37:40
edit: yay tombman, danke für das aufzeigen des Problems. jetzt bist du berühmt... ;)
wird es mit dem nächsten Treiberrelease Triple oder Quad-SLI werden? :D
Gouvernator
2008-03-06, 21:03:18
Naja wenn der Raff sich bei der PCGH nicht so viel damit beschäftigt hätte...
war eher humorvoll gemeint, deswegen der smiley.
natürlich auf besten Dank an den Raff & die PCGH
puntarenas
2008-03-25, 19:35:58
Am weitesten scheint dabei Nvidia gekommen zu sein, denn dort stellt man mit einem zukünftigen Treiber eine Lösung in Sicht. Dieser soll einen Scheduler enthalten, der die fertigen Frames im richtigen Zeitabstand an den Monitor ausgeben soll. Genauere Details zur Problemlösung oder ein Erscheinungsdatum des Treibers konnten wir leider nicht in Erfahrung bringen.
ATis Ingenieure sind ebenso wenig untätig geblieben, auch wenn man genauere Details noch verschweigt beziehungsweise diese selber noch nicht kennt. So hat man Schwierigkeiten das Problem richtig anzugehen, da nach eigenen Aussagen unter Windows Vista der „Command Buffer“, der für die Verteilung der Renderbefehle zuständig ist, vom Kernel des Betriebssystems verwaltet wird und man diesen nicht manipulieren kann. Allerdings sieht man eine Möglichkeit, indem man die GPUs als „beschäftigt“ deklarieren und man so die Verteilung der Frames beeinflussen könnte. Dies soll so ohne weiteres aber nicht möglich sein, da die Rechenkerne zuerst die Mikroruckler frühzeitig erkennen müssten, bevor diese überhaupt auftreten.
ComputerBase - Die Multi-GPU-Mikroruckler: Der Stand der Dinge (http://www.computerbase.de/news/hardware/grafikkarten/2008/maerz/die_multi-gpu-mikroruckler_der_stand_dinge/)
Wenigstens arbeiten beide Hersteller offiziell an einer Lösung, das könntel doch noch was werden mit Multi-GPU-Lösungen. In Deutschland wird ja mittlerweile recht prominent berichtet (PCGH, ComputerBase, tombman ;)), hat jemand die internationalen Hardwareseiten ein wenig im Blick, wie präsent ist das Problem denn im Rest der Welt?
Sorkalm
2008-03-25, 19:38:52
Die Einschätzung von Computerbase halte ich für etwas zu optimistisch: Nur weil Nvidia verspricht, dass in einem Treiber zu korrigieren, sind die nicht unbedingt weiter gekommen. Man erinnere sich an das letzte größere Treiberversprechen...
Slipknot79
2008-03-25, 20:39:00
Naja, ich habe mich auch schon oft versprochen ^^
tombman
2008-03-25, 21:45:00
Naja, ich habe mich auch schon oft versprochen ^^
:up: :( ;)
brabe
2008-03-25, 23:37:03
Videobeweis: "Mikroruckler" zerstören den leistungssteigernden Effekt von Multi-GPU-Lösungen (http://www.pcgameshardware.de/aid,631607/Praxis/Videobeweis_Mikroruckler_zerstoeren_den_leistungssteigernden_Effekt_von_Multi-GPU-Loesungen/)
Habt ihr das schon gesehen?
Also in dem Video fällt auf das alle 4 Einstellung/Videos nur bedingt Spielbar sind, UT währe bei beiden Einstellungen richtig blöd online zu Spielen und das Spiele bei solchen Einstellungen schlieren und ruckeln ist fast normal. Nur halt das SLI einige hänger drin hat fällt auf, aber auch wenn diese hänger nicht währen ists noch zu lahm.
Ehrlich, ich bin glücklich drüber das es sowas gibt, wenigstens gibts dann doch noch Gründe schnelle Einzelkarten zu bauen und ein SLI wie von Vodoo bekommen AMD oder NVidia eh nicht hin.
Interessant währe es mal zu sehen wie den der Sprung bei SLI ist wenn die Einstellungen so gewählt sind das man AVG 40fps hat @single und bei gleichen Einstellungen dann SLI/CF.
Also in dem Video fällt auf das alle 4 Einstellung/Videos nur bedingt Spielbar sindSchön Anallysiert. Könnte aber auch sein, daß man hier den Effekt wirklich provozieren mußte, damit FRAPS sie vernünftig auffängt und man sie dann auch klar presentieren kann. Damit jeder auch wirklich sehen kann worum es geht.
Um das life "direkt aus dem Framebuffer" zu sehen braucht man solche Einstellungen nicht.
Interessant währe es mal zu sehen wie den der Sprung bei SLI ist wenn die Einstellungen so gewählt sind das man AVG 40fps hat @single und bei gleichen Einstellungen dann SLI/CF.Hast du jetzt SLI/CF oder nicht? Sonst rede hier mit Leuten die es haben oder lese den Thread. Das ist schon interessant genug.
-=CHICKEN=-
2008-03-26, 06:05:19
vorschlag: "mikroruckler-fps" direkt in benchmarks anzeigen!
hi, ich bin zwar kein sli/cf besitzer aber finde das das mikroruckler-problem trotzdem sehr ernst/wichtig zu nehmen ist!
mir ist aufgefallen das eure ganzen "beweise" immer in tabellenform vorliegen, also in aufeinanderfolgenden zahlen aufgelistet sind (z.b. 20, 40, 60, 100, 120, 160ms bzw. die differenzen 20, 40, 20, 40, 20, 40ms). das ist ja auch verständlich weil es ja ein recht "neues" phänomen ist.
an für sich sind diese zahlen ja völlig ausreichend und jeder der sich damit beschäftig, kann daraus auch sämtliche rückschlüsse ziehen. der nachteil ist halt das man immer gezielt danach schauen, es auflisten und vergleichen muß!!
und grad eben hab ich mir überlegt das man diese mikroruckler doch direkt in den benchmarks anzeigen könnte!
der vorteil wäre halt das man sofort, ohne nachzuschauen/rechnen die auswirkungen der mikroruckler sehen könnte (viel konfortabler). und ein weiterer vorteil wäre halt auch, das andere user darauf aufmerksam werden könnten, die noch nichts von mikrorucklern gehört haben --> mehr "geschrei" --> hoffentlich schnellere beseitigung des problems :biggrin:
und zwar stell ich mir das so vor:
im ergebnis eines benchmarks werden ja momentan die min-, max- und duchschnitts-fps angezeigt.
aber jetzt könnte diese angabe doch noch durch die "gefühlten werte" (mikroruckler-fps) ergänzt werden!
diese kann ja auch ganz einfach ermittelt werden:
dazu müssten ja nur die frames wie bei fraps mit den entsprechnenden zeiten gespeichert und nur der durchschnitt von den langsamen frames ausgerechnet werden.
wenn ich das richtig beobachtet habe, ist es immer die selbe graka, die "zu schnell" bzw "zu langsam" ist, also es ist immer genau jeder 2. frame der höher ausfällt. eine "umpolung", also das plötzlich die andere graka zu schnell/langsam ist, konnte ich jetzt nicht festellen. von daher wärs ein leichtes den langsameren der beiden frames zu ermitteln und dann immer nur den 2. frame in die durchschnitts-berechnung mit einzubeziehen.
hier mal ein konkretes beispiel:
ein spiele wurde gebencht und im ergebnis werden 33 fps durchschnittlich angezeigt.
die frames haben z.b. diese werte (unsere bisherige tabelle):
1. 40ms
2. 60ms
3. 100ms
4. 120ms
5. 160ms
6. 180ms
7. 220ms
8. 240ms
9. 280ms
10. 300ms
die frames liegen also so weit auseinander
1. 40ms
2. 20ms
3. 40ms
4. 20ms
5. 40ms
6. 20ms
7. 40ms
8. 20ms
9. 40ms
10. 20ms
durchschnittlich sind es ja 30 ms wodurch wir ja auf die 33 fps kommen.
aber jetzt werden noch zusätzlich die "gefühlten mikroruckler-fps" ermittelt:
die benchmarksoftware müsste nur den langsameren der ersten beiden frames ermitteln (und eventuell noch ein paar stichproben machen damit es wirklich der langsamere frame ist) und dann von diesem ausgehend immer nur jeden 2. frame in die berechnung mit einbeziehen: im oben genannten fall wären es also diese frames
1. 40ms
3. 40ms
5. 40ms
7. 40ms
9. 40ms
diese werden jetzt ganz normal adiert und dann der durchschnittswert ermittelt, was 40 ms bzw. 25 fps bedeuten würde.
natürlich könnte man auch hier den min und max fps-wert ermitteln was im obigen beispiel zwar unnötig ist aber in der praxis durchaus interessant wär.
das benchmarkergebnis würde also so aussehen:
tatsächlicher wert:
durchschnitt: 33 fps
"gefühlter wert" (mikroruckler auswertung --> jeder 2. frame):
durchschnitt: 25 fps
oder noch ein 2. benchmarkbeispiel mit min und max:
tatsächlicher wert:
min: 23 fps
durchschnitt: 36 fps
max: 48 fps
"gefühlter wert" (mikroruckler auswertung --> jeder 2. frame):
min: 16 fps
durchschnitt: 26 fps
max: 32 fps
genau so könnte es in benchmarks angezeigt werden und jeder hätte sofort einen überblick über die mikroruckler.
daraus könnte man auch gleich einige rückschlüsse ziehen: wenn der "gefühlte wert" fast an den tatsächlichen wert heran reicht, gibt es im gebenchten spiel keine mikroruckler!
so könnte man "nebenbei" beim normalen benchen feststellen welches spiel davon betroffen ist (und wie stark) und welches nicht. es wär halt sehr konfortabel und würde auch user darauf aufmerksam machen die noch nix davon wussten! (ihr wisst ja --> mehr "geschrei" --> hoffentlich schnellere problembehebung ;) )
bei den benchmarks könnte man die "gefühlten werte" z.b. auch nur anzeigen lassen, wenn ein sli/cf-system vorhanden ist, weil es bei einer einzelnen karte ja nicht auftauchen dürfte.
bei quad systemen müsste man halt mal schauen welche die langsamen frames sind und diese dann halt auch gezielt ermitteln (z.b. jeder 4. oder auch jeder 2. frame) und daraus wieder den durchschnitt ermitteln usw.
da es eigentlich kein problem (und keine große arbeit) darstellen sollte die "gefühlten werte" in benchmarks einzubauen, wäre es doch mal was feines diese werte "schnell" im nächsten update hinzu zu fügen!
was haltet ihr davon, und wär es angebracht den "gefühlten wert" fest in benchmarks zu integrieren?
EDIT:/ im prinzip muß man eigentlich nur die geraden frames (2, 4, 6, 8, 10 usw) und die ungeraden frames (1, 3, 5 ,7 ,9 usw) sepparat voneinander benchen und jeweils die min-, max- und durchschnittswerte erechnen. man könnte dann auch beide ergebnisse anzeigen. einer von beiden ist ja dann zwangsläufig der niedrige wert mit den "gefühlten fps". wenn alle 3 ergebnisse (die geraden, ungeraden und gesamten fps) fast gleich ausfallen, ist kein mikroruckler vorhanden!
Grestorn
2008-03-26, 06:58:21
Es geht auch einfacher: Man muss nur zusammen mit der Framerate die durchschnittliche Abweichung der Framezeiten innerhalb einer Sekunde angeben.
Beide Werte zusammen geben ein sehr schlüssiges Ergebnis. Die Abweichung muss möglichst klein sein, je näher an 0 desto besser.
-=CHICKEN=-
2008-03-26, 07:35:26
jo das würde eigentlich auch gehn aber wenn ich mir das richtig überlege darf es in der gebenchten szene dann nicht zu größeren fps schwankungen kommen (z.b. fps-einbrüche durch explosionen oder schnellen bewegungen) weil diese dann das ergebnis verfälschen würden. also der bench müsste relativ kurz sein und recht gleichmäßige fps-werte liefern! oder seh ich das falsch?
wenn man aber mal 10 sekunden oder noch längere zeiten mit vielen geschehnissen bzw. fps-einbrüchen benchen will, sollte man dann doch lieber die geraden und ungeraden frames sepparat voneinander auswerten.
mit dieser methode könnte man dann auch 3-fach oder quad-sli/cf benchen indem mann dann halt jeden 3. bzw 4. frame sepparat voneinander auswertet. also quasi immer die frames, die von der selben GPU berechnet werden.
man hätte dann zwar 4 bzw 5 werte aber könnte genau den "übeltäter" ausfindig machen :)
eigentlich müsste das doch in wenigen minuten in diversen benchmarks eingebaut werden können und dürfte in "guten und detailierten" benchs zukünftig auch nicht mehr fehlen ;)
Grestorn
2008-03-26, 07:47:22
jo das würde eigentlich auch gehn aber wenn ich mir das richtig überlege darf es in der gebenchten szene dann nicht zu größeren fps schwankungen kommen (z.b. fps-einbrüche durch explosionen oder schnellen bewegungen) weil diese dann das ergebnis verfälschen würden. also der bench müsste relativ kurz sein und recht gleichmäßige fps-werte liefern! oder seh ich das falsch?
Deswegen auch nur die Abweichung innerhalb der letzten Sekunde. Ab und zu wird dieser Wert nach oben ausbrechen, das stimmt. Aber generell sollte er möglichst in der nähe von 0 bleiben.
eigentlich müsste das doch in wenigen minuten in diversen benchmarks eingebaut werden können und dürfte in "guten und detailierten" benchs zukünftig auch nicht mehr fehlen ;)
Das stimmt. Kann man ja mal den üblichen Verdächtigen (FRAPS, Futurmark...) vorschlagen.
Mr. Lolman
2008-03-26, 08:40:07
Bei Farcry und Crysis gibts das eh schon. mit r_displayinfo 1 sieht man nen avg-Wert, nen min und nen max. Wenn der min-Wert stark vom avg-Wert abweicht, fühlt sich das Spiel ruckliger an, als der avg-Wert vermuten liesse...
Palpatin
2008-03-26, 11:26:41
http://www.hartware.de/news_44418.html
geht es da um die CF Microruckler?
natürlich, und die Microruckler sin im Canyion Flight WEG :)
32 FPS und ist total flüssig, entlich hat das scheisse Thema ein ende.
Mr. Lolman
2008-03-26, 13:12:54
natürlich, und die Microruckler sin im Canyion Flight WEG :)
32 FPS und ist total flüssig, entlich hat das scheisse Thema ein ende.
Klingt fast zu schön um wahr zu sein. :eek:
Mach doch mal ein paar Frametimetests...
MarcWessels
2008-03-26, 13:38:34
natürlich, und die Microruckler sin im Canyion Flight WEG :)
32 FPS und ist total flüssig, entlich hat das scheisse Thema ein ende."UPDATE: Das Problem der Mikroruckler bei Dual-VGA-Systemen (CrossFire und SLI) wird damit wohl noch nicht beseitigt."
:rolleyes:
Spasstiger
2008-03-26, 13:45:53
Es geht auch einfacher: Man muss nur zusammen mit der Framerate die durchschnittliche Abweichung der Framezeiten innerhalb einer Sekunde angeben.
Beide Werte zusammen geben ein sehr schlüssiges Ergebnis. Die Abweichung muss möglichst klein sein, je näher an 0 desto besser.
Statistisch gesehen eine Berechnung des ersten Moments und des zweiten Moments. Ich will eigentlich schon seit Monaten ein Programm schreiben, dass die Fraps-Frametimes mit verschiedenen Methoden aus der Statistik auswertet.
http://www.hartware.de/news_44418.html
geht es da um die CF Microruckler?
Sieh an, sagte ATI nicht, es liegt an Windows Kernel?
http://www.computerbase.de/news/hardware/grafikkarten/2008/maerz/die_multi-gpu-mikroruckler_der_stand_dinge/
[url]http://www.pcgameshardware.de/aid,633537/News/Multi-GPU_Mikroruckler_Erste_Statements_von_AMD_und_Nvidia/[/u
tombman
2008-03-26, 23:02:22
Die Idee finde ich äußerst GUT. Dann kann JEDER DAU sofort sehen, wie sich die fps anfühlen!
Also die normalen avg fps und daneben gleich die gefühlten fps, also der Durchschnitt der LANGSAMSTEN frames. Wenns es dann bei SLi/CF deutliche Abweichungen gibt, erkennt jeder sofort was los ist und auf SLi/CF wird mächtig Druck ausgeübt.
Es geht auch einfacher: Man muss nur zusammen mit der Framerate die durchschnittliche Abweichung der Framezeiten innerhalb einer Sekunde angeben.
Beide Werte zusammen geben ein sehr schlüssiges Ergebnis. Die Abweichung muss möglichst klein sein, je näher an 0 desto besser.
Das ist nicht DAU tauglich, ein +/- XY Wert kann keiner lesen und interpretieren. Die mächtige FPS-Zahl ist das einzige Mittel um Aufmerksamkeit zu erhaschen. (FPS = Gott) ;D
brabe
2008-03-28, 01:31:51
Statistisch gesehen eine Berechnung des ersten Moments und des zweiten Moments. Ich will eigentlich schon seit Monaten ein Programm schreiben, dass die Fraps-Frametimes mit verschiedenen Methoden aus der Statistik auswertet.
Und ich habe schon ewig darauf gewartet, dass sich hier mal ein Mathematiker meldet :biggrin:
RaVeNsClaw1989
2008-04-04, 23:14:59
HILFE
Leute, ich hab erst seit heute mein SLI System und die Mikroruckler verderben mir den ganzen Spaß an Crysis!
Das Problem: Der FPSLimiter-Link zu rapidshare, der als einziger zu finden ist, ist
DOWN!
Kann den mir jemand schicken oder re- uppen oder sowas?
Bin echt verzweifelt ;(
Slipknot79
2008-04-05, 01:22:49
In welcher Version spielst du Crysis? DX9 oder DX10? Der Limiter ist nicht für DX10 geschrieben worden.
Ihr könnt doch nicht erwarten das ich jetzt für Monate für nichts gebannt werde und soll noch den halb illigalen Link bereit halten...
Hallo zusammen
Habe seit kurzem eine Asus EN9800 GX2. Ich kann die Mikroruckler auch mit den neusten Treibern bestätigen. Der Rest "zwischen" den Mikrorucklern läuft sehr flüssig. Jedoch ist der Spielspass ziemlich im Keller dank den Rucklern. Da NVidia dieses Problem ja bestätigt hat gilt es zu hoffen, dass die neuen Treiber (mit dem besagten Scheduler) bald rauskommen.
Ash-Zayr
2008-04-29, 13:30:11
Ich habe diesen Thread und die aus diesem resultierenden, ähnlich komplexen Threads nicht verfolgt. Ist aber bekannt hier, dass die PC Games Hardware in der vorletzten Ausgabe einen Bericht zum Thema "Microruckler" hatte...UND: dass der Trubel um das Thema in der Fachwelt mit einem Thread im 3dcenter begonnen hätte?
Ash-Zayr
XtraLarge
2008-04-29, 13:38:51
Ich habe diesen Thread und die aus diesem resultierenden, ähnlich komplexen Threads nicht verfolgt. Ist aber bekannt hier, dass die PC Games Hardware in der vorletzten Ausgabe einen Bericht zum Thema "Microruckler" hatte...UND: dass der Trubel um das Thema in der Fachwelt mit einem Thread im 3dcenter begonnen hätte?
Ash-Zayr
Was glaubst du, wie die PCGH darauf gekommen ist!? :wink:
Ash-Zayr
2008-04-29, 13:45:50
Was glaubst du, wie die PCGH darauf gekommen ist!? :wink:
? Ich habe doch selbst gerade geschrieben, dass der PCGH Artikel, von der PCGH selbst offiziell eingeräumt, auf diesem Thread beruht!! Ich habe hier aber gefragt, ob das 3Dcenter, explizit Tombman, Kenntnis genommen hatte von jenem Artikel und der damit verbundenen Würdigung seiner Erkenntnisse?
Ash-Zayr
Die gelbe Eule
2008-04-29, 14:08:51
Hallo zusammen
Habe seit kurzem eine Asus EN9800 GX2. Ich kann die Mikroruckler auch mit den neusten Treibern bestätigen. Der Rest "zwischen" den Mikrorucklern läuft sehr flüssig. Jedoch ist der Spielspass ziemlich im Keller dank den Rucklern. Da NVidia dieses Problem ja bestätigt hat gilt es zu hoffen, dass die neuen Treiber (mit dem besagten Scheduler) bald rauskommen.
Sprach NV nicht vom einem HW Scheduler? Sowas gibt es ja schon im G80. Wäre natürlich ein Schlag ins Gesicht, wenns nicht per Software realisierbar wäre und könnte mir eine Klagewelle vorstellen.
tombman
2008-04-29, 23:23:37
? Ich habe doch selbst gerade geschrieben, dass der PCGH Artikel, von der PCGH selbst offiziell eingeräumt, auf diesem Thread beruht!! Ich habe hier aber gefragt, ob das 3Dcenter, explizit Tombman, Kenntnis genommen hatte von jenem Artikel und der damit verbundenen Würdigung seiner Erkenntnisse?
tombman weiß davon ;)
Weiß tombman auch davon: http://www.pcgameshardware.de/aid,641923/Test/Benchmark/3DMark_Vantage_Die_Rueckkehr_des_Mikroruckelns/? ;)
MfG,
Raff
Hvoralek
2008-05-01, 19:01:07
Weiß tombman auch davon: http://www.pcgameshardware.de/aid,641923/Test/Benchmark/3DMark_Vantage_Die_Rueckkehr_des_Mikroruckelns/?Jetzt schon :wink:
Wenn nun selbst der ja ach so wichtige 3DMark davon betroffen ist, sollte auch der letzte Depp auf das Problem aufmerksam werden. "3DMark- Punkte mit SLI/ CF wertlos!" wäre doch mal eine nette Schlagzeile :D
Sehe ich das richtig, dass die beiden Frametimeverlaufsdiagramme unterschiedlichen Werte, aber die gleiche Beschriftung aufweisen? Ist das erste Test 1 und das zweite Test 2? Wenn ja, sollte vlt. die Beschriftung ergänzt werden. Oder übersehe ich das nur?
tombman
2008-05-02, 00:04:54
Weiß tombman auch davon: http://www.pcgameshardware.de/aid,641923/Test/Benchmark/3DMark_Vantage_Die_Rueckkehr_des_Mikroruckelns/? ;)
Jetzt schon :)
Ich glaube, das Wort "Mikroruckeln" klingt zu harmlos. DAU-user könnten sich denken, daß das nur was ist was Nerds auffällt und was man sowenig sieht wie nicht vorhandenes AA und AF (:devil:)
Schaut euch doch mal allein die "Schlagzeile" an, die ich für diesen thread hier genommen habe; Begriffe wie "Lüge" usw- DAS haut rein ;)
Ich verstehe auch nicht wieso ihr nicht ein paar Euro in eine CAPTURE Karte investiert (ab 1000$ kann man digital 1080p aufnehmen) und so ein Video einfach aufzeichnet und dann per H.264 transkodiert im Netz verteilt- mit schön groß eingeblendeter FPS Zahl. Jeweils immer 30fps, selbe Szene, einmal als single Karte und einmal als SLi und Quad-SLI. Das selbe mit Crossfire/Crossfire X machen :)
Das Problem ist jetzt MINDESTENS 1 Jahr öffentlich (die kannten das schon vor meinem thread) und von Nvidia kam NIX. (auf ATI brauchen wir eh nicht hoffen, diie machen nur das Nötigste, sprich, spätestens wenn Nvidia was macht).
Sie verdienen daher einen Anzug der Daumenschrauben ;)
p.s.: in Englisch kommts auch gut :
The SLI and Crossfire Lie: how Nvidia and AMD(ATI) fool us all!
tombman
2008-05-02, 00:16:10
Ein paar € - 1000$? ;D
PCGH ist ja kein Privatmann, das ist eine Redaktion! Da sind 1000$ gar nix.
mapel110
2008-05-02, 00:20:10
PCGH ist ja kein Privatmann, das ist eine Redaktion! Da sind 1000$ gar nix.
Jo, die können sowas von der Steuer abschreiben. :) Die könnten eigentlich mal ne Sammelbestellung für 3DCenter-User machen. Wir schreiben dann auch alle brav einen Comment unter die PCGH-News. :biggrin:
tombman
2008-05-02, 00:28:49
Jo, die können sowas von der Steuer abschreiben. :) Die könnten eigentlich mal ne Sammelbestellung für 3DCenter-User machen. Wir schreiben dann auch alle brav einen Comment unter die PCGH-News. :biggrin:
Du wirst lachen, aber ich würde mich mit 10 Euro Spende beteiligen für ne Capture Karte für PCGH ;)
HD-Ronny
2008-05-02, 14:55:26
Ich auch :D
ein wichtiges thema wie ich finde.
looking glass
2008-05-02, 15:06:27
Öhm, zumindest eine HD Capture Karte bis 1080i gibt es für 250 Dollar, also nichts von wegen 1000 € - es geht auch humaner.
http://www.blackmagic-design.com/products/intensity/
futurmark sollte eine eigene sparte für rechner ohne microruckler aufmachen^^ da kommen nur die singlekarten rein. dann möchte ich die punkte sehen^^ über 20k geht wohl nicht viel^^
suicuique
2008-05-03, 20:21:13
Hi,
long time lurker first time poster hier.
Als jemand der das Problem der Mikroruckler auch tagtäglich erfährt, will ich mal paar Gedanken posten wie man dieses Problem am besten quantifizieren könnte. Und ich bin, wie Tombman der Meinung, dass man das abseits von Diagrammen am besten in einer "gefühlten" fps Angabe realisieren sollte.
Das ist fuer jeden Konsument verstaendlich, bedarf aber einer gewissen (nontrivialen) Vorarbeit wie man diese plausibel konstruiert.
Gehen wir mal vom folgenden akademischen Beispiel aus. 50 fps mit folgender zeitlicher Verteilung der Zeitintervalle zwischen den Ausgabeframes.
Fall 1) "Idealfall"
20 ms
20 ms
20 ms
20 ms
20 ms
20 ms
...
Fall 2) "AFR Fall"
10 ms
30 ms
10 ms
30 ms
10 ms
30 ms
...
Wie man leicht sehen kann werden in beiden Faellen 50 Frames in der Sekunde gerendert.
Im ersten Fall in einer gleichmaessigen Abfolge der Frames im zweiten Fall in einer stark assymetrischen.
Was man am Idealfall auch erkennen kann ist dass eine beliebige Teilfolge der Teilintervalle immer noch eine Framerate von 50 fps indiziert.
Das tut sie im zweiten Fall nicht. Wählt man als Teilfolge die Zeitintervalle die (sagen wir mal) auf die Ausgabe der GPU2 folgen, so entsteht folgendes Bild:
30 ms
30 ms
30 ms
...
Wohingegen die Teilfolge die sich aus den Zeitintervallen nach der GPU1 Ausgabe ergibt folgendermassen aussieht:
10 ms
10 ms
10 ms
...
Diese moeglichen Teilfolgen in diesem akademischen Beispiel indizieren also einen Framewert zwischen 100 fps (max) und 33 fps (min).
Man koennte es sich also leicht machen und den gefühlten fps Wert als das Minimum einer solchen beliebig ausgewählten Teilfolge definieren. Fraglich ist nur inwiefern das der menschlichen Wahrnehmung Rechnung trägt.
Ich möchte aus dem Bauch heraus zu Bedenken geben dass IMHO der gefühlte Wert noch deutlich darunter liegen kann.
Nehmen wir mal an wir haetten folgenden theoretischen Fall:
Alle 10 ms wird ein Bild ausgegeben.
Nur jeweils auf das 50te folgt das naechste Frame mit einer Verzögerung von 50 ms.
Effektiv wuerden 92 Bilder in der Sekunde ausgegeben.
Teilfolgen (wie oben beschrieben) wuerden einen maximalen Wert von 100 und einen minimalen Wert von 20 Bildern pro Sekunde indizieren.
Doch ich stell mal in den Raum dass der hoechst regelmaessige und siginfikante Framerateeinbruch alle 50 Frames das Spielerlebnis extrem negativ beeinflussen wuerde. Es wird quasi ein 2Hz Signal ueber die Wahrnehmung druebergelagert, die ganze Wahrnehmung fast schon durch diese 2 Makroruckler fragmentiert.
Ich kenn mich leider weder in der Signaltheorie noch in der Erforschung menschlicher Wahrnehmung genau aus, aber ich weiss, dass der Mensch sehr schnell und auch relativ präzise Muster wahrnehmen kann (siehe auch zb das Problem der Musterwahrnehmung von tilebasierten Texturen auf Meeresoberflächen zB).
Naja viel geschrieben und doch leider nur wenig gesagt. Was ich mit dem Beitrag sagen wollte ist prinzipiell folgendes:
1) "gefühlte Framerate" sinnvoll
2) die von Teilfolgen der Zeitintervalle indizierte Bildrate ist nur eine Näherung fuer diese Zahl. Eine obere Schranke, leider nicht zwangsläufig die kleinste.
Gruss
Summerboy1986
2008-05-03, 21:49:59
Nabend,
im PCGames Hardware Forum meinte jemand, das die Probleme mit dem 790i Chipsatz nicht mehr da wären, oder dies schon verbessert wurde. Kann da jemand Stellung zu beziehen? Denke aber auch eher das jemand meint Ahnung zu haben ;-).
Da recht wahrscheinlich mein MoBo defekt ist, denke ich an den Kauf eines SLI-fähigen Boards, und dann an die Anschaffung einer 2'ten 8800GTX, gibts ja recht günstig.
Ob wohl bald mit nem Fix zu rechnen ist? :-/.
Actionhank
2008-05-03, 22:03:16
Hi,
long time lurker first time poster hier.
Als jemand der das Problem der Mikroruckler auch tagtäglich erfährt, will ich mal paar Gedanken posten wie man dieses Problem am besten quantifizieren könnte. Und ich bin, wie Tombman der Meinung, dass man das abseits von Diagrammen am besten in einer "gefühlten" fps Angabe realisieren sollte.
Das ist fuer jeden Konsument verstaendlich, bedarf aber einer gewissen (nontrivialen) Vorarbeit wie man diese plausibel konstruiert.
Gehen wir mal vom folgenden akademischen Beispiel aus. 50 fps mit folgender zeitlicher Verteilung der Zeitintervalle zwischen den Ausgabeframes.
Fall 1) "Idealfall"
20 ms
20 ms
20 ms
20 ms
20 ms
20 ms
...
Fall 2) "AFR Fall"
10 ms
30 ms
10 ms
30 ms
10 ms
30 ms
...
Wie man leicht sehen kann werden in beiden Faellen 50 Frames in der Sekunde gerendert.
Im ersten Fall in einer gleichmaessigen Abfolge der Frames im zweiten Fall in einer stark assymetrischen.
Was man am Idealfall auch erkennen kann ist dass eine beliebige Teilfolge der Teilintervalle immer noch eine Framerate von 50 fps indiziert.
Das tut sie im zweiten Fall nicht. Wählt man als Teilfolge die Zeitintervalle die (sagen wir mal) auf die Ausgabe der GPU2 folgen, so entsteht folgendes Bild:
30 ms
30 ms
30 ms
...
Wohingegen die Teilfolge die sich aus den Zeitintervallen nach der GPU1 Ausgabe ergibt folgendermassen aussieht:
10 ms
10 ms
10 ms
...
Diese moeglichen Teilfolgen in diesem akademischen Beispiel indizieren also einen Framewert zwischen 100 fps (max) und 33 fps (min).
Man koennte es sich also leicht machen und den gefühlten fps Wert als das Minimum einer solchen beliebig ausgewählten Teilfolge definieren. Fraglich ist nur inwiefern das der menschlichen Wahrnehmung Rechnung trägt.
Gruss
Man könnte noch erwägen, inwieweit es Sinn macht, einfach nur die 33fps anzugeben. Ich weiß nicht, wie sich das im Vergleich zu gleichmässigen 33fps anfühlt, aber es würde klar zum Ausdruck bringen, dass so ein ständiger Wechsel etwas negatives ist.
RavenTS
2008-05-04, 23:56:09
Nabend,
im PCGames Hardware Forum meinte jemand, das die Probleme mit dem 790i Chipsatz nicht mehr da wären, oder dies schon verbessert wurde. Kann da jemand Stellung zu beziehen? Denke aber auch eher das jemand meint Ahnung zu haben ;-).
Da recht wahrscheinlich mein MoBo defekt ist, denke ich an den Kauf eines SLI-fähigen Boards, und dann an die Anschaffung einer 2'ten 8800GTX, gibts ja recht günstig.
Ob wohl bald mit nem Fix zu rechnen ist? :-/.
Was hat denn das MoBo mit den Mikrorucklern zu tun?! Die entstehen doch nur durch die beiden GPUs bzw deren Rendermode AFR im SLI und nicht durch irgendwelche Bandbreitenprobleme oder ähnliches aufm MoBo.?!
=Floi=
2008-05-05, 00:12:20
und tombman wäre das auch schon aufgefallen. am board liegt es sicher nicht.
brabe
2008-06-14, 21:33:47
Angeregt aus diesem Thread (http://www.planet3dnow.de/vbulletin/showthread.php?p=3635833#post3635833) würde mich folgendes interessieren
Mit der Voodoo 5 5500 und 6000 bot 3Dfx SLI mit 100%iger Skalierung, etwas wovon man heute nur träumen kann - man ist ja schon froh, wenn 60-80% erreicht werden und die Mikroruckler nicht all zu sehr stören.
Die Qualität der Kantenglättung die der VSA100 erreichte, wurde von den beiden anderen Großen erst in letzter Zeit erreicht, jahrelang war die alte V5 vollkommen konkurrenzlos.
Und das ist echt peinlich, wenn man bedenkt, dass diese Karte 6 Jahre alt ist. Ich verstehe auch nicht, warum das SLI damals besser war und warum es da keine Microruckler gab.
Kann das mal einer überprüfen? Auch das mit der Skalierung würde mich interessieren. NVidia hat doch die 3DFx Mitarbeiter übernommen. Warum machen die dann heute Fehler, welche damals nicht da waren?
AnarchX
2008-06-14, 21:40:45
SuFu!
Es wurde schon öfters erklärt weshalb Scan Line Interleave damals besser skalieren konnte, als es NVs Scalable Link Interface heute tut.
Ein wichtiges Stichwort sind da die verwendeten Rendertechniken in den Anwendungen.
Und das ist echt peinlich, wenn man bedenkt, dass diese Karte 6 Jahre alt ist. Ich verstehe auch nicht, warum das SLI damals besser war und warum es da keine Microruckler gab.
das ist vollkommen logisch, bei SFR gibt es schließlich auch keine mikroruckler.
Kann das mal einer überprüfen? Auch das mit der Skalierung würde mich interessieren. NVidia hat doch die 3DFx Mitarbeiter übernommen. Warum machen die dann heute Fehler, welche damals nicht da waren?
du kannst die damaligen rendertechniken nicht mit jenen von heute vergleichen. außerdem hat auch das 3dfx-SLI nicht immer so perfekt skaliert wie manche gerne hätten. mit 2 chips war es meistens sehr gut, mit 4 chips sieht es schon deutlich schlechter aus, die "perfekte" skalierung gab es da nur mit SSAA, wobei sicherlich viele skalierungsprobleme durch treiberarbeit die durch den aufkauf nicht mehr stattgefunden hat, behoben werden könnten.
außerdem hat auch das 3dfx-SLI nicht immer so perfekt skaliert wie manche gerne hätten.
Doch, hat es. Die V5 6000 ist in damaliger Software mit gleicher Taktung immer doppelt so schnell wie die V5 5500. Ist das nicht so, ist die Karte mal wieder CPU-limitiert. Das passiert in 1.600x1.200x32 aber selten.
Siehe auch (wie so oft):
http://www.3dcenter.org/artikel/3dfx-voodoo5-6000-review/benchmarks-heavy-metal-fakk2-forts
http://www.3dcenter.org/artikel/3dfx-voodoo5-6000-review/benchmarks-unreal-tournament-forts
http://www.3dcenter.org/artikel/3dfx-voodoo5-6000-review/benchmarks-serious-sam-second-encounter-forts
http://www.3dcenter.org/artikel/3dfx-voodoo5-6000-review/benchmarks-ultima-ix-forts
Bei neuerer Software limitieren primär die AGP-Anbindung, oft der Prozessor und der Treiber. Selten auch mal der VRAM.
MfG,
Raff
Sonyfreak
2008-06-14, 22:09:18
Im aktuellen Gamestar wird das Mikroruckler-Problem übrigens auch (soweit ich weiß) erstmals erwähnt. :)
mfg.
Sonyfreak
drmaniac
2008-06-14, 22:47:54
mal ne dumme OT Frage :D
- Setup 3 Monitore mit DVI.
- 2 GraKas (insgesamt 4x DVI).
- 1 Projektor mit 1x DVI (ist aber natürlich nur ab und zu an)
Alle DVI Ausgänge sind also "in use" mit einem Kabel belegt.
Kann ich dynamisch einfach so umswitchen
zwischen Multimonitor Betrieb und Sli? Oder muss ich Kabel umstecken und jedesmal vorher eine Änderung im Setup des Treiber vornehmen wenn ich was zocken möchte?
:)
edit: mit der jetzigen Konfig kein SLI ich weis, aber je nachdem was möglich ist (mit dem umschalten) demnächste dann mit der neuen Hardware... dann kann ich ja vielleicht doch zwei 280er kaufen ;).
Kann ich dynamisch einfach so umswitchen
zwischen Multimonitor Betrieb und Sli? Oder muss ich Kabel umstecken und jedesmal vorher eine Änderung im Setup des Treiber vornehmen wenn ich was zocken möchte?
du kannst SLI abschalten und dann die grafikkarten getrennt verwenden.
mit eingeschaltenem SLI gibt es allerdings nur 2 ausgänge.
drmaniac
2008-06-14, 23:23:33
die Frage ist halt wie aufwändig ist das...
normales arbeiten, 3 Monitore laufen. Spiel starten... und dann? Wird dann automatisch, vom Treiber oder so, umgeschaltet auf SLI wenn ich es vorher irgendwo definiert habe? Und: dumme Frage: ich muss für Sli keine Ausgänge koppeln, oder... :D
du öffnest das CP und schaltest SLI eben ein oder aus (oder nimmst dafür nhancer, dort kannst du allerdings kein multi-display konfigurieren)
du musst nur eben darauf achten jenen monitor, den du beim spielen nicht brauchst, an die 2. karte zu stecken.
AnarchX
2008-06-15, 19:11:11
Mal zwei interessante Übersichten:
http://img159.imageshack.us/img159/4075/gpuafrbe0in9.jpg (http://imageshack.us)
http://img111.imageshack.us/img111/2461/cpuafriy8pp1.jpg (http://imageshack.us)
http://www.xtremesystems.org/forums/showpost.php?p=3063865&postcount=2631
tombman
2008-06-15, 20:11:36
Was ne geile Übersicht :up:
Sollte man gleich mal an alle großen sites schicken ;)
Mr. Lolman
2008-06-16, 08:44:29
Naja, das "better than Single-GPU" bezieht sich aber nur darauf, dass NV standardmässig ein Prerenderlimit von 3 verwendet - denn mit Doublebuffering ist das Inputlag bei Single-GPU um 1 Frame geringer...
Naja, das "better than Single-GPU" bezieht sich aber nur darauf, dass NV standardmässig ein Prerenderlimit von 3 verwendet - denn mit Doublebuffering ist das Inputlag bei Single-GPU um 1 Frame geringer...
Mit doppelt so schneller GPU, ja, aber nicht verglichen mit nur einer gleichen Karte. Da kann AFR durchaus besser sein.
Mr. Lolman
2008-06-16, 11:32:52
Mit doppelt so schneller GPU, ja, aber nicht verglichen mit nur einer gleichen Karte. Da kann AFR durchaus besser sein.
Imo ist ein Versatz von 2 kurzen Frames schlimmer als von einem gleich langen.
Imo ist ein Versatz von 2 kurzen Frames schlimmer als von einem gleich langen.
Kannst du das bitte genauer ausführen. Ich weiß nicht was du mit "Versatz" meinst, außerdem kann der Lag mit einer Karte durchaus länger sein.
Demirug
2008-06-16, 21:36:23
Mal zwei interessante Übersichten:
http://img111.imageshack.us/img111/2461/cpuafriy8pp1.jpg (http://imageshack.us)
http://www.xtremesystems.org/forums/showpost.php?p=3063865&postcount=2631
Das ist aber nicht CPU limited sondern balenced.
Das ist aber nicht CPU limited sondern balenced.
wenn du cpu limitiert bist, hast du automatisch eine balance zwischen den frames, sofern das selbe gemacht wird. das sollte das bild wohl zeigen. langweilt sich die cpu, schickt sie relativ zeitig hintereinander zwei frames an die zwei gpus ab und danach wartet sie bis eine gpu fertig wird, die zweite wird entsprechend zeitnah mit dem folgeframe fertig.
oder ich verstehe das diagram falsch.
Slipknot79
2008-06-17, 23:35:49
Tja, ich habe mich nie so richtig mit dem MR Problem befasst, spürbar war es bei mir natürlich immer bei ca 30fps und weniger.
Nun habe ich im forumdeluxx gelesen, dass jemand mit FW 177.53 und einem SLI-System (8800GTS) Crysis smoother empfindet als bisher. (mod-inf für Vista 64: http://www.megaupload.com/de/?d=3BGFDO05 )
Jetzt habe ich ebenfalls FW 177.53 installed und Crysis ausprobiert und das sind hier meine frametimes bei 30fps ingame:
1, 0.000
2, 31.417
3, 63.999
4, 100.293
5, 129.681
6, 166.140
7, 197.420
8, 231.848
9, 263.409
10, 306.072
11, 342.557
12, 378.140
13, 406.847
14, 436.253
15, 464.799
16, 499.421
17, 532.167
18, 566.132
19, 598.424
20, 635.874
21, 665.879
22, 701.888
23, 736.382
24, 767.267
25, 799.622
26, 833.809
27, 866.908
28, 901.819
29, 932.986
30, 969.713
31, 1001.169
32, 1034.320
33, 1067.915
34, 1099.558
35, 1133.592
36, 1167.915
37, 1200.052
38, 1237.400
39, 1266.176
40, 1299.667
41, 1333.312
42, 1372.811
43, 1403.108
44, 1438.747
45, 1465.115
46, 1500.131
47, 1531.341
48, 1564.973
49, 1598.482
50, 1631.438
51, 1664.506
52, 1700.486
53, 1729.252
54, 1765.961
55, 1797.971
56, 1830.134
57, 1863.286
58, 1896.612
59, 1929.108
60, 1965.057
61, 2001.854
Interpretation anyone?
tombman
2008-06-17, 23:39:46
Sieht gut aus, aber war das VERY HIGH, und vorallem, welche Stelle im game? Und hast du die Maus bei der Messung bewegt, oder nicht?
Slipknot79
2008-06-17, 23:44:07
Ok, habe die Maus ned bewegt :( Habs gerade nochmal probiert, jetzt schauen die Werte nicht mehr so gut aus :redface:
Sonst war es very high ohne AA.
Bild kommt gleich+Werte
€dit:
http://img3.imagebanana.com/img/tfvxnw1i/thumb/crysis642008061723455661.jpg (http://img3.imagebanana.com/view/tfvxnw1i/crysis642008061723455661.jpg)
1, 0.000
2, 47.357
3, 68.835
4, 112.416
5, 138.764
6, 181.301
7, 198.471
8, 248.393
9, 268.431
10, 315.859
11, 335.437
12, 382.671
13, 402.113
14, 450.892
15, 469.417
16, 518.554
17, 538.180
18, 585.915
19, 605.321
20, 652.610
21, 672.238
22, 720.513
23, 738.941
24, 789.222
25, 809.052
26, 854.344
27, 873.742
28, 921.521
29, 941.227
30, 990.690
31, 1009.296
32, 1059.054
33, 1079.210
34, 1123.656
35, 1143.241
36, 1190.899
37, 1209.845
38, 1262.470
39, 1281.834
40, 1326.695
41, 1345.848
42, 1391.505
43, 1415.960
44, 1459.807
45, 1479.705
46, 1529.254
47, 1548.928
48, 1595.871
49, 1616.587
50, 1662.362
51, 1681.703
52, 1729.741
53, 1749.015
54, 1799.334
55, 1818.946
56, 1864.806
57, 1884.860
58, 1938.106
59, 1963.331
60, 2006.346
Sieht nach 20-48-20-48-20-48 aus.
Bilde mir aber auch ein, dass das Spiel ein wenig smoother ist.
Bitte Thumbnails benutzen, ich habe den Beitrag entsprechend editiert.
-punta
tombman
2008-06-18, 00:31:05
Jo, in letzter Zeit sah ich bei Nvidia SLi oft 20-40 statt der bösen 10-50. Leicht besser, aber zum Abspritzen zuwenig ;D
Slipknot79
2008-06-18, 17:21:33
Problem? Lösung:
Statt den 30fps habe ich an der Stelle jetzt 52fps *abgespritzt* :redface:
2x280GTX gehen einfach zu sehr ab :smile:
Mr. Lolman
2008-06-20, 20:14:19
Kannst du das bitte genauer ausführen. Ich weiß nicht was du mit "Versatz" meinst, außerdem kann der Lag mit einer Karte durchaus länger sein.
Mit Versatz meinte ich Lag.
Ausgehend davon, dass man optimalerweise ein Prerenderlimit von 1 bei Single-GPU eingestellt hat, und AFR aber 2 braucht, bei nem gleichzeitigen fps Zuwachs von <100%, ist der insgesamte Lag bei SLI höher als bei SingleGPU.
AMD MiR Problem gelöst ?
http://www.forumdeluxx.de/forum/showthread.php?p=9339985&posted=1#post9339985
AMD MiR Problem gelöst ?
http://www.forumdeluxx.de/forum/showthread.php?p=9339985&posted=1#post9339985
Oha, mal sehen ob sich das bewahrheitet. Wäre ein ganz dickes Plus für ATI.
pXe
Oha, mal sehen ob sich das bewahrheitet. Wäre ein ganz dickes Plus für ATI.
vor allem auch wie stark es die performance schmälert.
Chris Lux
2008-06-20, 22:13:44
vor allem auch wie stark es die performance schmälert.
theoretisch _kann_ am ende nur max. 1fps weniger stehen. also die reine performance kann gar nicht weniger werden.
theoretisch _kann_ am ende nur max. 1fps weniger stehen. also die reine performance kann gar nicht weniger werden.
du weißt nicht was sich machen um die ruckler zur verringern, das kann die skalierung schon deutlich verschlechtern.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.