Karümel
2007-11-24, 14:36:52
Ich habe mal eine Frage bezüglich der verwendeten Speichermenge einer Grafikkarte unter verschiedenen Auflösungen und anderen Einstellungen.
Kann man eigentlich grob sagen/bestimmen ob z.B. eine höhere Auflösung mehr VRam verbraucht und/oder das AF bzw. AA sich um einen bestimmten Faktor steigert?
Mal angenommen ich habe unter einem Benchmark/ einer Timedemo oder was auch auch immer einen Durschschnittswert des VRAms einer Karte bestimmt
Den gebe ich mit Faktor "1" an. Auflösung z.B. 1280 x 1024 ohne AF und AA.
Wenn ich die gleichen Vorzeichen lasse aber jetzt nur die Auflösung auf 1680 x 1050 ändere, auf was für einen Wert würde sich der Faktor 1 erhöhen?
Kann man vorhersagen berechen oder sonstwie (also ohne das messen)?
Falls ja wie wäre bei folgenden Einstellung
1280 x 1024 + 4 AF
1280 x 1024 + 2 AA
1280 x 1024 + 2 AA + 4 AF
1680 x 1050 + 4 AF
1680 x 1050 + 2 AA
1680 x 1050 +2 AA + 4 AF
Oder kann man das nicht so pauschal sagen?
Kann man eigentlich grob sagen/bestimmen ob z.B. eine höhere Auflösung mehr VRam verbraucht und/oder das AF bzw. AA sich um einen bestimmten Faktor steigert?
Mal angenommen ich habe unter einem Benchmark/ einer Timedemo oder was auch auch immer einen Durschschnittswert des VRAms einer Karte bestimmt
Den gebe ich mit Faktor "1" an. Auflösung z.B. 1280 x 1024 ohne AF und AA.
Wenn ich die gleichen Vorzeichen lasse aber jetzt nur die Auflösung auf 1680 x 1050 ändere, auf was für einen Wert würde sich der Faktor 1 erhöhen?
Kann man vorhersagen berechen oder sonstwie (also ohne das messen)?
Falls ja wie wäre bei folgenden Einstellung
1280 x 1024 + 4 AF
1280 x 1024 + 2 AA
1280 x 1024 + 2 AA + 4 AF
1680 x 1050 + 4 AF
1680 x 1050 + 2 AA
1680 x 1050 +2 AA + 4 AF
Oder kann man das nicht so pauschal sagen?