PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : The Elder Scrolls IV Oblivion wer wird vorne sein


Seiten : 1 [2]

Thanatos
2006-03-20, 11:48:13
http://www.justgamers.de/kmx/modul_cms/uploads/article/new/pc/Vergleich-2.jpg
ist da mit AF noch was zu retten?
bild wurde mit ati9800 gemacht.

Oh, ihr Götter! X-(

Was haben denn die Entwickler da verbrochen? :ugly:

Also wenn das wirklich SO im Spiel aussieht hätten sie lieber einen Mod für UT2004 machen sollen, da hätten sie zumindest schonmal ein gescheites LOD System....

:sneak:

Sowas beschissenes habe ich ja echt noch ned gesehen, erinnert mich etwas an die Volari vergleichsbilder ;D

Godmode
2006-03-20, 11:58:25
Oh, ihr Götter! X-(

Was haben denn die Entwickler da verbrochen? :ugly:

Also wenn das wirklich SO im Spiel aussieht hätten sie lieber einen Mod für UT2004 machen sollen, da hätten sie zumindest schonmal ein gescheites LOD System....

:sneak:

Sowas beschissenes habe ich ja echt noch ned gesehen, erinnert mich etwas an die Volari vergleichsbilder ;D

Versteh ich auch nicht, was ist mit den tollen Screens, die schon Wochen im Umlauf sind, alles gefaked, oder ist das nur ein blöde Szene? :confused:

Odal
2006-03-20, 12:02:25
schau dir mal das ingame video an....das sieht eigentlkich sehr gut aus..hässlich sind eben stellen wo am n von einer anhöhe auf rar gesähten wald guckt. das liegt vermutlich am lod wegen der lahmen cpu (AthlonXP 2200+)

Thanatos
2006-03-20, 12:15:11
Aber mit der Szene hat ja die CPU eigentlich nichts zu tun, da ja die Anzahl der Objekte nicht gorßartig weniger geworden ist, stattdessen hat man die Texturauflösung brutalst reduziert. :ugly:

Wenn man den Übergang wenigstens fließend gemacht hätte, aber so....X-(

Hoffentlich ist das wirklich nur ne schlechte Szene, denn sowas stört ja extrem. Da siehts fast besser aus wenn alles son matsch ist, da es dann wenigstens ein gleichmäßiger Matsch ist.

Ailuros
2006-03-20, 12:36:24
Genau so ist das. Außerdem ist Oblivion ja schon seit langer Zeit in der Entwicklung und wurde zuletzt von Weihnachten auf bald verschoben. Damals gab es die GeForce 7 längst und technologisch hat sich bei nVidia seither nichts geändert. Daher riecht so ein eiliger Treiber-Release schon ein wenig nach Panikattacke. Von neuen ATI-Treiber für Obilivion habe ich noch nix gehört.

Beide IHVs suchen nach moeglichen Treiber-Blasen wenn irgend etwas an der Leistung eines hoechsterwarteten Spiels nicht stimmt.

Von angeblicher Panik wuerde ich erst reden wenn Oblivion erstmal erhaeltlich ist.

Odal
2006-03-20, 12:36:59
Doch das hat mit der CPU sehr viel sogar zutun....wenn man das LOD runterstellt reduziert man die Objekte vor allem in der Entfernung...und somit die Sichtweite...da fällt dann schonmal die komplette Gräservegetation auf so einem Hügel weg. Man könnte sich behelfsmässig mit "Gras"Texturen den Hügel texturieren dieser ist aber sehr uneben und gewölbt. Die Texturen müssen stark verzerrt und zurechtgebogen werden. Und da in der Szene kein AF an war schaut das dann auch mal grausig matschig aus.
Übrigens dürfte Oblivion durch das unebene Gelände eins der Spiele werden wo man winkelunabhängiges AF eindeutig sieht.

Gast
2006-03-20, 12:50:16
Beide IHVs suchen nach moeglichen Treiber-Blasen wenn irgend etwas an der Leistung eines hoechsterwarteten Spiels nicht stimmt.

Von angeblicher Panik wuerde ich erst reden wenn Oblivion erstmal erhaeltlich ist.
... und da dies heute ist und auch heute der neue Treiber angekündigt wurde, liegen beide Ereignisse schon recht nah beieinander, was doch zumindest recht ungewöhnlich ist ...

miller
2006-03-20, 13:11:27
schon komisch, bei far cry damals wars ähnlich mit dem texturbrei in der entfernung.. hat es jemanden genervt? nein, natürlich nicht.

hier schreit jetz plötzlich jeder wie mies das doch aussieht...

Spasstiger
2006-03-20, 13:15:40
schon komisch, bei far cry damals wars ähnlich mit dem texturbrei in der entfernung.. hat es jemanden genervt? nein, natürlich nicht.

hier schreit jetz plötzlich jeder wie mies das doch aussieht...
Das hab ich mir auch schon gedacht und ich wundere mich auch über Kommentare wie diese:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4097864&postcount=613
Ich finde nämlich meine dort gezeigten Farcry-Screens genauso "unschön".

Thanatos
2006-03-20, 13:18:33
Naja, vielleicht liegts an der perspektive, aber bei Farcry sieht das noch besser aus, da man irgendwie mehr verschiedene Grüntöne benutzt hat, wobei das ganze dadurch etwas "rauer" wirkt.

ShadowXX
2006-03-20, 13:42:07
Das hab ich mir auch schon gedacht und ich wundere mich auch über Kommentare wie diese:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4097864&postcount=613
Ich finde nämlich meine dort gezeigten Farcry-Screens genauso "unschön".

Auf den FC-Bildern sind wenigstens noch ein paar ordentliche Bäume zu sehen (bzw. sogar mehr als nur Bäume).

Das Bild von Oblivion dagegen ist IMHO "vollschrott". Der Teil mit dem halbwegs ordentlich LOD (also links auf dem Oblivion-Bild) hat ungefähr die Quali von den FC-Screens.

Wie gesagt: Ich hoffe das das wirklich nur an der CPU/GPU liegt.....aber momentan erinnert mich das ganze an The Godfather (Der Pate) von der Grafikqualität.

Wenn den wenigstens der Rest stimmt und die Welt groß ist, kann man aber damit leben.

Wieso gibts eigentlich noch keine User-Pics aus den USA?
Auch offizielle Reviews scheint es noch keine zu geben (bis auf das im XBox Magazin, auf das ich allerdings nichts gebe, da zu "parteiisch").

Spasstiger
2006-03-20, 13:44:16
Wieso gibts eigentlich noch keine User-Pics aus den USA?
Weil die gerade erst aus ihren Betten kriechen und der Ladenverkauf dort auch erst morgen startet. Allerdings sind wohl schon die ersten Pakete unterwegs zu den Vorbestellern.

ShadowXX
2006-03-20, 13:48:14
Weil die gerade erst aus ihren Betten kriechen und der Ladenverkauf dort auch erst morgen startet. Allerdings sind wohl schon die ersten Pakete unterwegs zu den Vorbestellern.

Hieß es nicht, das es heute rauskommt?
Ich dachte auch eher an die Leute, die sich das Ding um 0:01 aus dem Wal-Markt holen.....

Zumindest die Xbox360-Version kommt wohl tatsächlich definitiv erst Morgen (zumindest lt. Amazon.com).

Bei der PC-Version steht nur, das es innerhalb von 2-3 Tagen versendet wird (ebenfalls Amazon.com).

CD-WOW hat es wohl schon da...darf es aber noch nicht verschicken/will es noch nicht verschicken (zumindest wurde der Status auf "Zur Lieferung bereitliegend" geändert, beim Versand steht aber noch "pre-release").

dildo4u
2006-03-20, 13:54:25
Auch offizielle Reviews scheint es noch keine zu geben (bis auf das im XBox Magazin, auf das ich allerdings nichts gebe, da zu "parteiisch").
Es gibt schon ein Review in der PCGamer UK.Leider sind Scans ja hier verboten.(PN ;)

(del)
2006-03-20, 13:54:37
Wenn das Spiel nicht sowohl unter der 7900er als auch der 1900er super läuft, wäre was faul. Das ind beide High End Karten und wenn es damit nicht läuft. Unabhängig ob nun ide ien oder andere 2 Frames mehr oder weniger macht.

Wesentlich interessanter ist die Performance unter etwas älteren oder kleineren Karten, denn nicht jeder kann sich alle 3 Monate ne neue High End karte leisten.Hier geht es um 6 von 60 fps, damit die eine Partei dann sagen kann: Performt auf XY doch besser. Der Chip XY hat doch klare Vorteile, wenn es um a)Geometrie oder b)Shader oder c)Vertex oder d) Füllrate geht. Und Anand dann eine Balkentabelle gezoomt auf 15 'letzten' FPS erstellt, wo man auch klar sehen kann, wie überlegen der eine IHV beim Oblivion ist. Lach einfach mit und fertig ;)

Godmode
2006-03-20, 19:02:43
schau dir mal das ingame video an....das sieht eigentlkich sehr gut aus..hässlich sind eben stellen wo am n von einer anhöhe auf rar gesähten wald guckt. das liegt vermutlich am lod wegen der lahmen cpu (AthlonXP 2200+)

Hast du einen Link?

Super Grobi
2006-03-20, 19:18:09
Kann man den Thread hier nicht dicht machen und hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4104530#post4104530

weitermachen? Finde das ziemlich dumm :|

SG

Odal
2006-03-20, 19:18:27
musst mal im Oblivion thread suchen.... bei justgamers.de war das glaub ich.

up¦²
2006-03-21, 18:00:55
Naja ... komischer post im [H]-forum, aber der vollständigkeit halber: :wink:

Ok, we got the game and we have 2 boxes here, almost identical except one has the 7900gtx512Superclock and the other has the x1900xtx.

Both systems have new clean winxp pro sp2 installs.

System 1
AMD Athlon 64 4000+ Sand Diego (2.4ghz)
ASUS A8N-SLi Premium
2GB Corsair XMS Twinx2048-PC-32000c2 (2-3-3-6 1T)
ATI Radeon X1900XTX (650/775(1550)) - Cat 6.3
Enermax Noisetaker EG701AX-VE SFMA(24P) 600W
Maxtor DiamondMax 10 6L300S0 300GB 7200rpm SATA150
Audigy 2 ZS - latest drivers and latest OpenAL driver

System2
AMD Athlon 64 4000+ Sand Diego (2.4ghz)
ASUS A8N32-SLi Deluxe
2GB Corsair XMS Twinx2048-PC-32000c2 (2-3-3-6 1T)
EVGA 7900GTX512SC (84.20)
Seasonic s12-600W
Western Digital Caviar SE16 WD2500KS 250GB SATA3.0GB
Audigy 2 - latest drivers and latest OpenAL driver

Game Settings
Ultra High Settings on both computers
AA off
HDR on
1600x1200

ATI:
Cat forced 8xHQ AF
CatAI-Standard
Mip High Quality
Vsync On

Nvidia:
HQ mode, all opts. OFF
App select AF
Trilinear forced
ClampOn
Vsync On

First off Self Shadows looks clunky on both and defaults to off in UHQ game mode.

The game runs faster on the ATI box. By maybe 10-15fps on average depending on the scene. Plus the ATI can use 8xHQAF while the 7900 can't use any forced AF.

It looks good overall on both and is definitely playable on both like this. Inside I get fps of up to 70-80, outdoors it goes at time in to the 20's at worst case.

The 7900 has a harder time keeping the fps up above 30 outside at times.

I have no loyalties, I'm just calling it like I see it. I'm interested on the how the Wed. Nvidia drivers help the 7900.
http://www.hardforum.com/showthread.php?t=1033747

Ailuros
2006-03-21, 19:16:38
Trilinear forced

Der Vergleich ist fuer die Tonne falls er die "force MIPmaps" Funktion benutzt haben sollte.

Mr. Lolman
2006-03-21, 19:23:04
Der Vergleich ist fuer die Tonne falls er die "force MIPmaps" Funktion benutzt haben sollte.

Die funktioniert ja eh nicht. (zumindest bei GTA-SA)

Ailuros
2006-03-21, 20:21:47
Die funktioniert ja eh nicht. (zumindest bei GTA-SA)

Da wo es aber funktioniert kommt es zu einem gewaltigen Leistungseinbruch.

Dieses ganze Leistungsfusel ist sowieso Quark; beide IHVs werden Oblivion angepasste Treiber haben beim launch.

Gast
2006-03-21, 20:36:28
Naja ... komischer post im [H]-forum, aber der vollständigkeit halber: :wink:


http://www.hardforum.com/showthread.php?t=1033747


AI-on vs. HQ -->nicht vergleichbar.

Spasstiger
2006-03-21, 20:37:27
Falls noch nicht gesehen:
Vegetations- und Texturdetails in der Ferne aufpeppen (http://www.elderscrolls.com/forums/index.php?showtopic=273834).

Vorher/Nachher:
http://www.sun-tracker.net/oblivion/OblivionFixedF.jpg

Ich glaube, Bethesda hat ganz bewußt die Details so zurückgeschraubt, um die Ladezeiten kurz zu halten und um die Xbox 360 Version nicht schlechter dastehen zu lassen. Durch die leicht editierbare ini-Datei hat man den PC-Zockern aber dennoch eine inoffizielle Möglichkeit gegeben, das Spiel in der ganzen Pracht zu erleben, wie es ursprünglich beworben wurde.

Coda
2006-03-21, 20:46:23
AI-on vs. HQ -->nicht vergleichbar.AI-off vs. HQ --> nicht vergleichbar.

Und jetzt?

Gast
2006-03-21, 20:55:42
AI-off vs. HQ --> nicht vergleichbar.

Und jetzt?

aber zumindest besser, da wird wenigstens trilinear gegen trilinear getestet.

Spasstiger
2006-03-21, 21:00:29
aber zumindest besser, da wird wenigstens trilinear gegen trilinear getestet.
Man kann afaik auch mit Cat. AI on Full-Tri-AF haben (ATI Tray Tools).

00-Schneider
2006-03-21, 21:00:33
Vorher/Nachher:
http://www.sun-tracker.net/oblivion/OblivionFixedF.jpg


Schön, das man da soviel erkennt... :rolleyes:
Gibt´s schon Berichte wie viel besser es auf Dual-Core im Gegensatz zu Single-Core läuft?

Coda
2006-03-21, 21:23:52
Man kann afaik auch mit Cat. AI on Full-Tri-AF haben (ATI Tray Tools).Das funktioniert angeblich nicht mehr.

Spasstiger
2006-03-21, 21:25:35
Schön, das man da soviel erkennt... :rolleyes:
Der Unterschied ist deutlich. Monitorkontrast oder Helligkeit falsch eingestellt?
Wenn du hier beide Einsen erkennen kannst, ist dein Kontrast optimal eingestellt: http://img353.imageshack.us/img353/7116/38430908fp.jpg (wenn dann dein schwarz aber nur noch grau ist, ists natürlich auch nicht gerade toll, aber dann kanns halt der Monitor nicht besser).

Gast
2006-03-21, 21:25:51
Man kann afaik auch mit Cat. AI on Full-Tri-AF haben (ATI Tray Tools).


ab R420 gibt es nurmehr brilinear außer bei dynamisch geladenen texturen und mips mit größeren unterschieden, also praktisch nur bei colored-mips ;)

Darkchylde24
2006-03-21, 21:37:50
Schau nur mal auf das Wasser und den Boden direkt vor dem Character also ich finde den Unterschied auch mehr als deutlich! Hinter dem Wasser am anderen Ufer sieht man zb. jetzt die Steintextur viel deutlicher, vorher nur grauer Matsch!

(del676)
2006-03-21, 21:42:34
Der Unterschied ist deutlich. Monitorkontrast oder Helligkeit falsch eingestellt?
Wenn du hier beide Einsen erkennen kannst, ist dein Kontrast optimal eingestellt: http://img353.imageshack.us/img353/7116/38430908fp.jpg (wenn dann dein schwarz aber nur noch grau ist, ists natürlich auch nicht gerade toll, aber dann kanns halt der Monitor nicht besser).

wo soll da ne zweite eins sein?

edit: OHA, am zweitpc mit dem 24" tft hab ich gesehen dass im schwarzen feld ebenfalls zahlen sind :eek:

Spasstiger
2006-03-21, 21:48:01
wo soll da ne zweite eins sein?
Ich seh bei meinen aktuellen Monitoreinstellungen im schwarzen Bereich auch nur die 4, und erst mit etwas Herumspielen ganz schwach die 1. Das Bild ist ein extremer Monitortest und wenn man die 1 im schwarzen Bereich nicht sieht, ist das kein Grund zur Panik. :wink:
Die 1 ist übrigens im schwarzen Bereich etwas oberhalb der Mitte des schwarzen Bereichs.

Grequaid
2006-03-21, 21:51:22
Lustig, mit dem 930BF sehe ich die beiden 1en nur mit dem Sport Profil. X-D

Gast
2006-03-21, 21:52:02
Ich seh bei meinen aktuellen Monitoreinstellungen im schwarzen Bereich auch nur die 4, und erst mit etwas Herumspielen ganz schwach die 1. Das Bild ist ein extremer Monitortest und wenn man die 1 im schwarzen Bereich nicht sieht, ist das kein Grund zur Panik. :wink:
Die 1 ist übrigens im schwarzen Bereich etwas oberhalb der Mitte des schwarzen Bereichs.

naja, wenn man genau schaut, dann sieht man es schon, aber auf den ersten blick fällt sie nicht wirklich auf, wobei ich die 1 im schwarzen auf anhieb gesehen hab und erst beim weisen genauer schauen musste.

d2kx
2006-03-21, 21:57:01
Sehe die 1en mit Standardsettings @ BenQ FP71V+ :)

Btw.: Morgen kommt der nVidia-Oblivion Wundertreiber ^^ Dann wird gebencht. Aber so toll ist die Grafik wirklich nicht!?

(del)
2006-03-22, 12:40:01
Sehe die 1en mit Standardsettings @ BenQ FP71V+ :)

Btw.: Morgen kommt der nVidia-Oblivion Wundertreiber ^^ Dann wird gebencht. Aber so toll ist die Grafik wirklich nicht!?Überlegt bitte nochmal mit welchen "Screenshots" man uns monatelang heiß machen wollte und lernt bitte endlich was für die Zukunft ;) Man müßte hier nur in den 2-3 Threads bissl zappen und manche Posts vom letzten Jahr durchlesen. Ich sags nur, wiedermal grausam verarscht :D
Ich find die auch nicht so wunderprächtig, aber die aktuellen ingame Videos sehen für mich 100% ok aus. Die Screenshots dagegen sehen bis jetzt aber nur 'urks' aus :(

p.s.:
Bin halt nur gespannt wie Gothic3 aussieht :biggrin: Im Gegensatz zu den damaligen Oblivion-Shots, sehen die Gothic3 Bilder wirklich nach ingame Action aus. Und das sieht für mich dann auch eine Generation besser aus als Oblivion. Ich hoffe ich komm hier mit der Gurke in beiden Spielen mit 1024x768 2xAA/4xAF mit Details auf high (nicht ultra high) auf mind. 30fps min. :|

Gast
2006-03-22, 12:45:38
... Ich hoffe ich komm hier mit der Gurke in beiden Spielen mit 1024x768 2xAA/4xAF mit Details auf high (nicht ultra high) auf mind. 30fps min. :|
In Innenlevels bei Oblivion locker. Außen limitiert die CPU ...

Gast
2006-03-22, 12:46:10
In Innenlevels bei Oblivion locker. Außen limitiert die CPU ...
So pauschal stimmt das nicht.


Q

Gast
2006-03-22, 12:53:58
So pauschal stimmt das nicht.


Q
Nachdem, was meine X800XL mit FRAPS so anzeigt schon ...

(del)
2006-03-22, 12:58:03
Nachdem, was meine X800XL mit FRAPS so anzeigt schon ...Wenn Du schon Oblivion spielst, dann bitte mal paar Screenshots die auch was zeigen ;) Die Frage wäre halt, ob ich mit dem 2.4 Barton und 1GB RAM auch in Außenlevels (Städte?) die 30fps halten kann.

Verhält sich das bei FarCry auch so (CPU)?

Gast
2006-03-22, 13:04:48
Wenn Du schon Oblivion spielst, dann bitte mal paar Screenshots die auch was zeigen ;) Die Frage wäre halt, ob ich mit dem 2.4 Barton und 1GB RAM auch in Außenlevels (Städte?) die 30fps halten kann.

Verhält sich das bei FarCry auch so (CPU)?

Have fun :

http://www.elderscrolls.com/forums/index.php?showforum=4

Gast
2006-03-23, 16:29:32
Werde wohl morgen mein Oblivion bekommen und nächste Woche dann meine x1600pro. Damit ersetzte ich meine 9500pro. Der Rest ist XP@2,2GHZ, 1GB Speicher@200MHZ.

Ich bin mal gespannt ob ich es einigermassen Zocken kann.

Gibt es hier schon jemanden der eine x1600pro hat und zufälligerweise Oblivion...?

#44
2006-03-23, 17:57:10
Werde wohl morgen mein Oblivion bekommen und nächste Woche dann meine x1600pro. Damit ersetzte ich meine 9500pro. Der Rest ist XP@2,2GHZ, 1GB Speicher@200MHZ.

Ich bin mal gespannt ob ich es einigermassen Zocken kann.

Gibt es hier schon jemanden der eine x1600pro hat und zufälligerweise Oblivion...?

Wenn ich mich nit irre wirst du da ein kleines problem haben:

die 9500 ist ne agp karte die X1x00 serie jedoch pci-e only...
wenn du da kein neues motherboard hast wirds essig mit der graka... wobei oblivion auch auf niedrigen details noch auf der 9500 läuft

#44
2006-03-23, 18:00:34
Bin halt nur gespannt wie Gothic3 aussieht :biggrin: Im Gegensatz zu den damaligen Oblivion-Shots, sehen die Gothic3 Bilder wirklich nach ingame Action aus. Und das sieht für mich dann auch eine Generation besser aus als Oblivion. Ich hoffe ich komm hier mit der Gurke in beiden Spielen mit 1024x768 2xAA/4xAF mit Details auf high (nicht ultra high) auf mind. 30fps min. :|

auch die oblivion shots waren sicher ingame... aber ich will nicht wissen ob die framerate schon 2 stellig war ;) und das man die grafik per .ini wieder auf ein solches niveau heben kann bezweifle ich nicht... (nur sollte man dann echt ne über-graka haben)

misterh
2006-03-23, 18:06:32
Wenn ich mich nit irre wirst du da ein kleines problem haben:

die 9500 ist ne agp karte die X1x00 serie jedoch pci-e only...
wenn du da kein neues motherboard hast wirds essig mit der graka... wobei oblivion auch auf niedrigen details noch auf der 9500 läuft

Es gibt auch X1600Pro AGP

#44
2006-03-23, 18:09:56
Es gibt auch X1600Pro AGP
ich habe mich geirrt... *AUCHHAMWILL* (ich hab nur ne 9800er)

ich werd mich mal nach erfahrungswerten / benchmarks mit der graka umguggn (nat. für oblivion) und die dann evtl der x800 vorziehen... da sm3

Odal
2006-03-23, 18:30:29
ich habe mich geirrt... *AUCHHAMWILL* (ich hab nur ne 9800er)

ich werd mich mal nach erfahrungswerten / benchmarks mit der graka umguggn (nat. für oblivion) und die dann evtl der x800 vorziehen... da sm3

+X1600 Pro ist nicht/kaum schneller als deine 9800Pro
in oblivion könnte ich mir gar vorstellen das diese wegen der wenigen pipelines (nur 4 da nur 4 TMUs) sogar langsamer als deine 9800pro ist.

alles ab X800/GTO/Pro/XT/XL ist einer x1600pro eindeutig vorzuziehen...

Mr. Lolman
2006-03-23, 18:45:31
+X1600 Pro ist nicht/kaum schneller als deine 9800Pro
in oblivion könnte ich mir gar vorstellen das diese wegen der wenigen pipelines (nur 4 da nur 4 TMUs) sogar langsamer als deine 9800pro ist.

alles ab X800/GTO/Pro/XT/XL ist einer x1600pro eindeutig vorzuziehen...

Naja bei shaderintensiven Spielen dürfte die X1600pro vorne sein. Ich glaub auch nicht, dass eine X800GT @default schon ~4000 3dmarks05 erreicht. Die 130€ ist die Karte imo allemal wert.

Gast
2006-03-23, 18:55:50
Nachdem, was meine X800XL mit FRAPS so anzeigt schon ...
Dann spielst du ganz offensichtlich nur in Settings, bei denen das der Fall ist. Zwischen einer X1900 XTX und einer GF7900 GTX ergeben sich je nach Situation z.T. beträchtliche Unterschiede. Damit kann das Spiel nicht CPU-limitiert sein, sondern höchstens bestimmte Stellen des Spiels.


Q

Gast
2006-03-23, 18:58:22
Naja bei shaderintensiven Spielen dürfte die X1600pro vorne sein. Ich glaub auch nicht, dass eine X800GT @default schon ~4000 3dmarks05 erreicht. Die 130€ ist die Karte imo allemal wert.
Im 3DMark reissen die fünf Vertexshader und der hohe Takt einiges mehr raus, als in normalen Spielen.


Q

Odal
2006-03-23, 19:25:01
Naja bei shaderintensiven Spielen dürfte die X1600pro vorne sein. Ich glaub auch nicht, dass eine X800GT @default schon ~4000 3dmarks05 erreicht. Die 130€ ist die Karte imo allemal wert.

naja ich sprach ja eher von den 12 pipes ++ X800 die sind auf jeden fall schneller als die pro....
ich glaube auch nicht das oblivion sehr shaderintensiv ist (ok in innenräumen) bei den aussenarealen wo die FPS recht einzubrechen scheinen wird wohl füllrate das A und O sein...und da hat eine X1600 mit nur 4 TMUs nunmal keine Schnitte....

btw: auf die 130 € würde ich (zumindest für pcie) auf jeden fall noch 8€ drauflegen und die x800XL kaufen.

#44
2006-03-24, 07:10:58
naja ich sprach ja eher von den 12 pipes ++ X800 die sind auf jeden fall schneller als die pro....
ich glaube auch nicht das oblivion sehr shaderintensiv ist (ok in innenräumen) bei den aussenarealen wo die FPS recht einzubrechen scheinen wird wohl füllrate das A und O sein...und da hat eine X1600 mit nur 4 TMUs nunmal keine Schnitte....

btw: auf die 130 € würde ich (zumindest für pcie) auf jeden fall noch 8€ drauflegen und die x800XL kaufen.

das ist es ja... pci-e... wie gesagt ich nutze ein 9800...
und den umstieg auf die 1600er hab ich wegen shadermodel3 machen wollen...
nunja aber bevor ich 230€ für die x800 auf agp ausgebe dan dohc lieber 60€ mehr für die 7800gs ;) dann hab ich ja auch meine shader

Gast
2006-03-24, 09:07:55
Wie gesagt, ich werde es mal mit der x1600pro testen, kann ja dann mal bescheid geben wie es läuft.

Mehr wollte ich halt nicht mehr für eine AGP-Karte ausgeben da ich mir in ca. 1 Jahr eh nen neuen Rechner kaufe.

Zudem sollte die x1600pro zumindest etwas schneller sein als meine 9500->9700..., und da ich noch recht viel mit Video mache kommt mir der AVIVO ganz recht ;)

sklave_gottes
2006-03-24, 09:35:12
btw: auf die 130 € würde ich (zumindest für pcie) auf jeden fall noch 8€ drauflegen und die x800XL kaufen.
Hier gehts um agp
Für pci-e gibt es im übringen eine x1600pro(575/500) schon ab 75€
Das ist dann fast die helfte der x800xl :-)

wobei ich Odal zustimmen muss.Von einer 9800pro auf 1600pro umzusteigen halte ich alles andere als für sinvoll.

#44
2006-03-24, 09:49:42
Wie gesagt, ich werde es mal mit der x1600pro testen, kann ja dann mal bescheid geben wie es läuft.

ja das fänd ich super! vorallem welche einstellungen man mit der x1600 fahren kann, gerade in den außenlevels (in der hauptstadt soll ja sogar mit der 9800 aa möglich sein da die getrennt von dem restlichen außenlevel geladen wird)

und ob sie trotz der vergleichsweise niedrigen geschwindigkeit der karte schon optische vorteile aus den neuen shadern hat oder das dann doch zu anspruchsvoll ist (ideal wäre wenn du 1024x765 nimmst, damit ich dann vergleichen kann)

ich kann ja auch mal nen screen meiner einstellungen und dazu die gemessenen fps reinstellen (aber frühestens am mo weil ich am we daheim bin (und mein spiel dahin geliefert wird) aber mein rechner hier in meiner unterkunft ist) wenn das gewünscht wird (9800 aiw; 3200+ A64; 2x512 Corsair ram; Msi K8T neo; onboard sound :rolleyes:)

Odal
2006-03-24, 10:28:31
das ist es ja... pci-e... wie gesagt ich nutze ein 9800...
und den umstieg auf die 1600er hab ich wegen shadermodel3 machen wollen...
nunja aber bevor ich 230€ für die x800 auf agp ausgebe dan dohc lieber 60€ mehr für die 7800gs ;) dann hab ich ja auch meine shader


dann kauf dir für 178 € die X800XL für AGP ist zwar ne stange mehr als 130€ aber das sollte es allemal wert sein.

Gast
2006-03-24, 11:59:37
Wie gesagt, ich werde es mal mit der x1600pro testen, kann ja dann mal bescheid geben wie es läuft.

Mehr wollte ich halt nicht mehr für eine AGP-Karte ausgeben da ich mir in ca. 1 Jahr eh nen neuen Rechner kaufe.

Zudem sollte die x1600pro zumindest etwas schneller sein als meine 9500->9700..., und da ich noch recht viel mit Video mache kommt mir der AVIVO ganz recht ;)
Spielbar ist es auch noch auf einer R9700 ganz gut, man muss sich halt in Sachen Details und Auflösung ein wenig bescheiden.

Q

Undertaker
2006-03-24, 12:19:46
mich würde mal interessieren, wie weit die x1900 der x1800 in oblivion überlegen ist; hat dazu jemand ein paar infos/benches? :)

Gast
2006-03-24, 13:50:31
mich würde mal interessieren, wie weit die x1900 der x1800 in oblivion überlegen ist; hat dazu jemand ein paar infos/benches? :)
Überlegen ja, aber nicht massiv.


Q

up¦²
2006-03-24, 14:28:14
Wie sieht es aus mit 256 MB « - » 512 MB karten?

Gast
2006-03-24, 15:05:08
Langsam müsste es doch benches geben ?

Undertaker
2006-03-24, 15:06:29
Langsam müsste es doch benches geben ?

das soll irgendwie aufgrund der synamischen flora recht schwierig sein...

Gast
2006-03-24, 15:08:41
das soll irgendwie aufgrund der synamischen flora recht schwierig sein...


Ja schade ein Inet test Seite könnte ja mall mit denn Augen vergleichen welche Karte am schnellsten ist..

r3ptil3
2006-03-24, 21:41:33
Hab mir vorhin Oblivion eben gekauft.
Mal ehrlich, wie läuft es bei euch so?

Habe X1900 XTX 2Gb Ram und einen X2 @ 2.6 (€: Prozessor lief auf 2.0 Ghz) Ghz und es läuft in manchen Stellen 1280x1024 6xAA oder mit HDR nicht immer flüssig!

R0d!x
2006-03-24, 21:48:24
Oh je.
Dann brauch ich das auf meinem Sys (siehe Sig) erst gar net installieren oder?

Thanatos
2006-03-24, 22:11:29
Doch, eine 9500pro ist ja schon was ganz anderes als so eine geforce FX Graka. Musst halt abstriche machen, aber laufen sollte es schon.

Gast
2006-03-24, 22:16:17
Dass eine FX5200 noch langsamer ist, ändert nichts an der Tatsache, dass die 9500pro eine lahme Krücke ist. Ich würde mir mit so einer Schrott-Graka das Spiel bestimmt nicht kaufen, da hat man keinen Spaß dran. Lieber abwarten und das Spiel kaufen, wenn man irgendwann seinen Rechner aufgerüstet hat.

XxTheBestionxX
2006-03-24, 22:29:18
Hab mir vorhin Oblivion eben gekauft.
Mal ehrlich, wie läuft es bei euch so?

Habe X1900 XTX 2Gb Ram und einen X2 @ 2.6 (€: Prozessor lief auf 2.0 Ghz) Ghz und es läuft in manchen Stellen 1280x1024 6xAA oder mit HDR nicht immer flüssig!
Seit wann geht nun doch aa+hdr ? dachte das kann man nicht zusammen aktivieren im game :confused:

Thanatos
2006-03-24, 22:31:29
Seit wann geht nun doch aa+hdr ? dachte das kann man nicht zusammen aktivieren im game :confused:

Oblivion benutzt ja kein richtiges HDR mit fp16 blending.

Rente
2006-03-24, 22:33:59
@XxTheBestionxX - Da steht etwas, dass du überlesen hast:
Hab mir vorhin Oblivion eben gekauft.
Mal ehrlich, wie läuft es bei euch so?

Habe X1900 XTX 2Gb Ram und einen X2 @ 2.6 (€: Prozessor lief auf 2.0 Ghz) Ghz und es läuft in manchen Stellen 1280x1024 6xAA oder mit HDR nicht immer flüssig!

r3ptil3
2006-03-24, 22:34:35
Seit wann geht nun doch aa+hdr ? dachte das kann man nicht zusammen aktivieren im game :confused:

Nein nein, hab geschrieben mit HDR oder AA (habe mehrmals getestet und immer im Treiber 16xAF HQ), aber nicht beides zusammen.

Die Performance ist übrigens nun @ 2.6 Ghz ziemlich gut, nur gibt es schon wenig stellen bei dem es fast unter 30 geht, durchschnittlich würde ich aber sagen ca. 40-50fps, geht aber rauf bis ca. 290, vorallem in Räumen.

Hvoralek
2006-03-26, 15:05:44
Oblivion benutzt ja kein richtiges HDR mit fp16 blending.Sondern? Wenn das FX8- "HDR" sein sollte (dann mit FP16- Texturen oder wie?), scheint das Ergebnis ja schon erstaunlich zu sein (kann es selber erst Anfang April spielen). Dann sehe ich aber nicht, warum es irgendwelche Probleme mit MSAA geben sollte. Bei FP16 kann es schon sein, dass Bethesda nicht mehr die Zeit hatte oder einfach zu faul war, das auf R5xx zu implementieren.

Gast
2006-03-26, 21:26:32
Doch, das was sich in Oblivion "HDR" nennt, ist FP16-HDR-Rendering. Anfangs wollten sie uns ja das Bloom als "HDR" verkauft, aber dann wurde nachträglich doch noch echtes HDR-Rendering eingebaut

deekey777
2006-03-27, 16:04:20
Da das Spiel seit mehreren Tagen draußen ist, mache ich den Thread dicht. Bis die ersten Tests mit verschiedenen Grafikkarten kommen, dauert es nicht lange.