Archiv verlassen und diese Seite im Standarddesign anzeigen : 8800GTS 640 eingebaut, doch Leistung....
HockleXX
2007-06-02, 00:27:26
...lässt zu wünschen übrig.
Nabend allerseits,
Bin seit heute ein Besitzer der Karte. Mein Kaufkriterium war eigentlich LotRo. Dies lief mit der "alten" 7950GT nur mässig. Daher habe ich mir die 8800 geholt.
Doch irgendwas muss ich falsch machen, komische Nachladeruckler treten plötzlich auf, und AF scheint schlechter zu sein als bei der alten.
Frage: Ich hab lediglich den alten Treiber entfernt und den neuen installiert. Das Spiel hab ich nicht neuinstallier - Sollte ich das besser tun?
Mit wieviel AA/AF zockt ihr?
ciao
san.salvador
2007-06-02, 00:35:38
Das AF der 8800 ist sogar weitaus besser als dass der 7xxx, da musst irgendwas verdüdelt haben.
Fetza
2007-06-02, 00:45:15
Und die gts ist auch gut doppelt so schnell in den meisten spielen. Wenn du games hast, die hdr nutzen, könnte selbst ein sli system von 7950gern da nicht gegen anstinken.
Ich spiele sogar oblivion mit 1280x1024 mit 4xaa und 2xaf und es ist wirklich in 90%der fälle absolut flüssig. Und oblivion hat ganze andere anforderungen als das doch eher grafisch leicht veraltete lotro - auch wenns grafisch natürlich gelungen ist.
=Floi=
2007-06-02, 00:58:22
hast du an den einstellungen gedreht?
prozessorlimit?
welchen treiber hast du installiert?
ist vsync an oder aus?
@fetza warum 2XAF
das muß ja furchbar aussehen...
Spasstiger
2007-06-02, 01:34:39
Wenn du komisches Ruckeln hast, dann stelle änder mal in der UserPreferences.ini im Ordner "Eigene Dateien\The Lord of the Rings Online" folgende Zeile ab:
AllowFakeFullScreen=False
Mit dieser Einstellung konnte ich mit meiner Radeon X1900 AIW einwandfrei in 1280x1024 bei max. Details und 2xAA + 16:1 AF zocken. Bei 4xAA merkte man stellenweise, dass die fps runtergingen, es bleib aber sicherlich noch über 30 fps.
In den größeren Städten ist es wohl ziemlich CPU-anfordernd, zumindest hat man im Chat viele Klagen mitbekommen, dass es ruckelt wie Sau, und das waren überwiegend Leute mit einem Athlon XP. Mit meinem Core 2 Duo @ 3 GHz lief aber alles bestens.
HockleXX
2007-06-02, 08:29:40
hast du an den einstellungen gedreht?
prozessorlimit?
welchen treiber hast du installiert?
ist vsync an oder aus?
@fetza warum 2XAF
das muß ja furchbar aussehen...
Hallo Floi,
Jap hab ich, Treiber is der 158.22. VSYNC ist on...sollte dies OFF sein?
@Spasstiger
Thx, werd ich mal testen.
Power
2007-06-02, 11:49:31
Hallo Floi,
Jap hab ich, Treiber is der 158.22. VSYNC ist on...sollte dies OFF sein?
@Spasstiger
Thx, werd ich mal testen.
nimm nen neueren Treiber 158.27
Spasstiger
2007-06-02, 21:31:35
VSYNC ist on...sollte dies OFF sein?
VSync kostet natürlich spürbar fps, wenn kein Triple Buffering an ist und die fps-Rate ohne VSync unter deiner Monitorwiederholfrequenz liegt.
Evtl. ist VSync wirklich für deine Einbrüche verantwortlich.
RainingBlood
2007-06-02, 21:39:06
les dir das mal zu vsync durch: http://www.3dcenter.de/artikel/2004/03-12_a.php
ich glaube eher wieder ein Opfer der "AA Einstellungen".....
san.salvador
2007-06-02, 21:40:12
VSync kostet natürlich spürbar fps, wenn kein Triple Buffering an ist und die fps-Rate ohne VSync unter deiner Monitorwiederholfrequenz liegt.
Evtl. ist VSync wirklich für deine Einbrüche verantwortlich.
TriBuff ist mit der 8800 sowohl unter OpenGL als auch unter DX immer erzwungen. :up:
Spasstiger
2007-06-02, 22:48:47
TriBuff ist mit der 8800 sowohl unter OpenGL als auch unter DX immer erzwungen. :up:
Hm, und kann man das auch abschalten? Weil nicht jeder will den zusätzlichen Frame Verzögerung.
san.salvador
2007-06-02, 22:56:44
Hm, und kann man das auch abschalten? Weil nicht jeder will den zusätzlichen Frame Verzögerung.
Vsync off.
Kein Mensch würde Vsync ohne TriBuff wollen.
Spasstiger
2007-06-03, 11:42:33
Vsync off.
Kein Mensch würde Vsync ohne TriBuff wollen.
Ah, ok, macht Sinn. Die Leute, die möglichst keine Verzögerung bei der Bildausgabe haben wollen, verzichten sowieso auf VSync, um soviel fps wie möglich zu haben (z.B. Q3-Zocker).
Kane02
2007-06-03, 12:01:28
LotR ist aber eher CPU limitiert oder? Da reisst die Graka net soviel...
Spasstiger
2007-06-03, 12:14:26
LotR ist aber eher CPU limitiert oder? Da reisst die Graka net soviel...
Also in der aktuellen PCGH sind Benchmarks und ich bin ein wenig überrascht. Ok, bei meiner X1900 AIW war bei 1280x1024 mit 2xAA und 16:1 AF Schluss für komplett flüssiges Zocken, bei 4xAA hat man stellenweise gemerkt, dass die Puste ausgeht. Also schon eine merkliche GPU-Limitierung auch bei Standardauflösung und mäßig viel AA.
Aber die Ergebnisse in der PCGH attestieren dem Spiel sogar eine sehr starke Grafikkartenabhängigkeit:
Alle Ergebnisse in 1280x1024 mit 4xAA und 8:1 AF:
GeForce 7900 GTX - 36 fps
GeForce 8800 GTS 320 MB - 18 fps
GeForce 7950 GT 512 MB - 34 fps
Radeon X1950 XTX - 29 fps
Radeon X1950 Pro 256 MB - 10 fps
GeForce 7600 GT 256 MB - 8 fps
GeForce 6600 GT 128 MB - 2 fps
Generell scheint das Spiel dem G70 sehr gut zu schmecken, das Ergebniss des G80 dagegen ist erschreckend. Die Größe des VRAM spielt wohl eine äußerst wichtige Rolle. Kann ich aber eigentlich gar nicht nachvollziehen, denn bei den PCGH-Settings hat das Spiel bei mir 300 MB VRAM verbraucht. Die 8800 GTS 320 MB sollte demnach keine Probleme haben.
Ich muss aber dazu sagen, dass ich mit aktivem AA auch derbe fps-Einbrüche hatte bis ich in der ini-Datei die Zeile "AllowFakeFullScreen=True" auf "AllowFakeFullScreen=False" geändert habe. Einen optischen Unterschied konnte ich nicht feststellen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.