Archiv verlassen und diese Seite im Standarddesign anzeigen : FX5600 vs. 4200 bei Far Cry
dasimadabei
2004-04-07, 09:22:07
Hallo,
ich spiele momentan Far Cry und habe echte Probleme mit der Grafik, ich habe folgendes System:
AMD 3000+
1024 DDR RAM PC333
Geforce5 FX5600 256 MB Ram
wenn ich das spiel auf 1024x960 spielen will und die Einstellung auf mittel habe ist es teilweise nicht zu spielen.
Ein Kumpel hat folgendes System:
Pentium4 1,8 Ghz
512 SD Ram
Geforce4 4200 128 MB Ram
und er kann es mit meiner Einsellung flüssig spielen.
Wie kann das sein?
Danke für eure Hilfe.
Jasch
2004-04-07, 10:08:45
ganz einfach du hast ne 5600 (so wie es aussieht sogar ne extra langsame,die 256er Versionen sind meinst viel niederiger getaktet)und ne 4200 ist numal schneller(war schon immer so)
Radeonator
2004-04-07, 10:44:11
So einfach ist das net...die restlichen Komponenten verheissen mo Power!
Mach mal folgendes :
Alle Systemtreiber auf den neusten Stand bringen (Graka, Sound, Mobo etc. )
Unter Anzeige Eigenschaften -> Einstellungen -> Erweitert
auf den nV Datei Reiter gehen (am besten vorher mit nV Hardpage oder einfach coolbits reg Eintrag zusätzliche einstellungen freischalten)und dort V-Sync ausmachen und schauen ob FSAA an ist ggf ausschalten
Patch v1.1 einspielen
FX und Wasser auf medium/mittel stellen
gl&hf
Wolfram
2004-04-07, 10:44:41
Möglicherweise sogar noch eine 5600XT...
Original geschrieben von Wolfram
Möglicherweise sogar noch eine 5600XT...
... welche nicht mal mit einer GF3 konkurrieren kann.
Ne FX zu haben heißt nicht, dass man es allen anderen, auch alten, Karten zeigen kann. Die GF4's, insbesondere die Ti-4600, können ohne AA/AF noch sehr gut mit FXen einschließlich der 5700 Ultra mithalten. Insofern sind die Ergebnisse IMHO garnicht so merkwürdig. Dennoch solltest du es mit dem 1.1er-Patch und nem Treiberupdate auf 56.72 probieren.
MfG,
Raff
misterh
2004-04-07, 12:25:29
also nochmal den vergleich zwischen gf fx 5600 und gf 4 ti 4200
Gf 4 Ti 4200
Speicher Interface :128Bit
Chiptakt : 250MHz
Speichertakt : 500MHz
Pipline/TMU : 4/2
Gf FX 5600
Speicher Interface :128Bit
Chiptakt : 325MHz
Speichertakt : 400MHz
Pipline/TMU : 2/2
dasimadabei
2004-04-07, 13:08:45
Welchen Chip würdet ihr mir denn empfehlen,
wenn ich z.b Far Cry ordentlich spielen möchte?
Bzw. worauf sollte ich beim Kauf achten?
Original geschrieben von dasimadabei
Welchen Chip würdet ihr mir denn empfehlen,
wenn ich z.b Far Cry ordentlich spielen möchte?
Bzw. worauf sollte ich beim Kauf achten?
Ne Radeon 9800 Pro 128MB. Sehr schnell, mit 200€ günstig für dieses Kaliber und keine Probleme mit Far Cry. Die 5900XT ist auch nett (170€), allerdings langsamer als die Radeon und zickt, wie alle FXen, bei FC etwas rum (kleinere Grafikfehler). Beide harmonieren sehr gut mit deiner starken CPU.
MfG,
Raff
backisl
2004-04-07, 16:03:40
Meiner Meinung nach ist es kein Wunder, dass die ti 4200 bei FarCry schneller ist als die fx 5600.
Da die 5600 ja DirectX 9 unterstützt und folglich auch versucht die Effekte darzustellen, obwohl die nötige Power dazu fehlt.
Die ti 4200 als DirectX 8 - Karte hingegen kann diese Effekte nicht darstellen und muss somit auch keine Rechenleistung dafür aufwenden.
Mit der FX-Karte sieht FarCry vermutlich besser aus als mit der ti 4200, hinkt geschwindigkeitsmäßig aber deutlich hnterher.
dasimadabei
2004-04-07, 16:04:50
Also sind momentan auch keine 256 MB Ram von nöten,
sonder machen die Karte evt. nur langsamer?
Loomes
2004-04-07, 16:09:52
Original geschrieben von backisl
Meiner Meinung nach ist es kein Wunder, dass die ti 4200 bei FarCry schneller ist als die fx 5600.
Da die 5600 ja DirectX 9 unterstützt und folglich auch versucht die Effekte darzustellen, obwohl die nötige Power dazu fehlt.
Die ti 4200 als DirectX 8 - Karte hingegen kann diese Effekte nicht darstellen und muss somit auch keine Rechenleistung dafür aufwenden.
Mit der FX-Karte sieht FarCry vermutlich besser aus als mit der ti 4200, hinkt geschwindigkeitsmäßig aber deutlich hnterher.
Du hast es auf den Punkt gebracht.
Ihr könnt doch nicht immer hergehen und zwei Grakas vergleichen bei einem Spiel welches eine Menge Directx NEUN Features nutzt bei entsprechnder Hardware.
Folglich sieht es bei selben Einstellungen auf der FX immer besser aus wie auf einer GF4. Natürlich ist es auf einer 5600 extrem langsam bei hohen Einstellungen.
Sicher kann ich das nicht sagen (habe das Spiel leider noch nicht, nur die Demo), aber soweit ich weiß hat das Game ne Erkennungsfunktion, die je nach Hardware die Details einstellt. Bei einer FX5200 z.B. (die ja auf dem Papier auch eine DX9-Karte ist) werden AFAIK keinerlei PS2.0 benutzt - warum wohl? Ich würde daher mal vermuten, dass Karten bis FX5600 das gleiche Schicksal ereilt. Ist natürlich nur ne Vermutung.
Aber überlegt doch mal: Allein von der Rohleistung kann die 5600 garnicht schneller sein als die GF4. Letztere hat deutlich mehr Füllrate und obendrein noch etwas mehr Bandbreite. Die FX wurde zwar intern etwas aufpoliert, aber das merkt man erst unter Verwendung von AA/AF.
Ich würde jede GF4 einer FX < 5700 Ultra vorziehen, DX9 hin oder her. Denn was bringen mir die darstellbaren Effekte, wenn das ganze in einer im Vergeich schöneren Diashow endet?
Also, dasimadabei, hol dir ne 9800 Pro, denn dann hast du beides: Viel Speed und gute Bildqualität. Sogar AA/AF ist meist drin!
MfG,
Raff
dasimadabei
2004-04-07, 16:33:08
Und wie sieht es mit einer 9700PRO aus?
Ist die besser als eine 5900XT?
Original geschrieben von dasimadabei
Also sind momentan auch keine 256 MB Ram von nöten,
sonder machen die Karte evt. nur langsamer?
Das sagten auch damals alle als es 128MB Karten gab imho bereue ich den kauf meiner 128MB Karte bis heute noch nicht.
Wolfram
2004-04-07, 20:18:29
Original geschrieben von Saro
Das sagten auch damals alle als es 128MB Karten gab imho bereue ich den kauf meiner 128MB Karte bis heute noch nicht.
Dann hast Du aber damals keine Low-End-128MB-Karte gekauft. Wer heute eine Low- oder Mid-End 256MB-Karte kauft, wird von dem zusätzlichen Speicher nichts haben.
zeckensack
2004-04-07, 21:02:57
Vergleich von 38 Grafikkarten in Far Cry (demo) und 1024x768 (http://www.digit-life.com/articles2/digest3d/0304/itogi-video-fc-wxp-1024.html) (benötigt Flash)
Original geschrieben von zeckensack
Vergleich von 38 Grafikkarten in Far Cry (demo) und 1024x768 (http://www.digit-life.com/articles2/digest3d/0304/itogi-video-fc-wxp-1024.html) (benötigt Flash) DAS ist doch mal wirklich interessant, oder ?
:???:
Die Ergebnisse differieren extrem auf den Athlon-System, wohingegen das Ganze auf Intel-Systemen wesentlich homogener aussieht.
Ein Beispiel:
- R9800p 380/680 vs FX5900 400/850 auf Intel = 43.1 zu 37.8
- R9800p 380/680 vs FX5900 400/850 auf AMD = 37.0 zu 38.0
Wirklich interessant...
Razor
Quasar
2004-04-07, 21:56:12
Das hatten wir doch schonmal diskutiert, warum bei denen der Athlon in Kombination mit der Radeon so abgeht....
Nur rausgekommen ist dabei leider nix.
Auf jeden Fall performen die Radeons deutlich besser, _bevor_ man den Partial-Precision-Patch einspielt.
Meine nV30U gewinnt durch den Patch ca. 25% und die nV35U sogar ~50% und kommt damit knapp an die R9800p heran (auf ca. 15% Rückstand).
Leider ist das mit einem Verlust an Bildqualität verbunden, den ich nicht bereit bin zu akzeptieren, also bleibt mir der Patch erstmal weg.
Original geschrieben von Quasar
Das hatten wir doch schonmal diskutiert, warum bei denen der Athlon in Kombination mit der Radeon so abgeht....
Nur rausgekommen ist dabei leider nix.Schade... hätte mich wirklich interessiert.
Original geschrieben von Quasar
Auf jeden Fall performen die Radeons deutlich besser, _bevor_ man den Partial-Precision-Patch einspielt.
Meine nV30U gewinnt durch den Patch ca. 25% und die nV35U sogar ~50% und kommt damit knapp an die R9800p heran (auf ca. 15% Rückstand).Die Radeons performen mit Patch schlechter, als ohne ?
Davon höre ich jetzt das erste mal...
:???:
Aber ging es im Digit-Life-Artikel nicht um die 2.Demo ?
Dafür gibt's doch wohl keinen Patch, oder ?
Hmmm...
Original geschrieben von Quasar
Leider ist das mit einem Verlust an Bildqualität verbunden, den ich nicht bereit bin zu akzeptieren, also bleibt mir der Patch erstmal weg. Full ACK !
Dieser Patch ist schlicht eine Frechheit...
Zwar gefiel mir die bessere 'Plastik'-Optik, aber die Nachteile bei den anderen Effekten sind intolerabel und kommen von mir ebenfalls auf den Index.
Ein eindeutiges :down: für den Patch !
Razor
ironMonkey
2004-04-07, 22:44:04
Hmm.....raff ich jetzt net ganz, normalerweise ist ATI+AMD und Intel+NVne gute kombination aber bei Farcry hängt der P4 den A64 ordentlich ab ausser bei A64+5950...........für jedes Spiel ein anderes System...:(
FX5600 ist aber wirklich lahm, hatte wohl die Ultra Version in Erinnerung.
Gruß
Konami
2004-04-08, 00:06:52
Original geschrieben von dasimadabei
Also sind momentan auch keine 256 MB Ram von nöten,
sonder machen die Karte evt. nur langsamer?da haste was falsch verstanden, 256MB is bei ansonsten gleicher graka immer schneller als 128MB, allerdings gibts auch irreführungen, bei denen ein haken bei der 256MB version ist... z.B. die radeon 9600(pro): die nonpro 256MB version läuft mit 325/300 MHz deutlich langsamer als die pro mit 400/600 MHz und "nur" 128MB...
Original geschrieben von r@e
Die Ergebnisse differieren extrem auf den Athlon-System, wohingegen das Ganze auf Intel-Systemen wesentlich homogener aussieht.
Ein Beispiel:
- R9800p 380/680 vs FX5900 400/850 auf Intel = 43.1 zu 37.8
- R9800p 380/680 vs FX5900 400/850 auf AMD = 37.0 zu 38.0lol bei deinem beispiel is doch der unterschied bei intel krass und bei AMD kaum vorhanden ;D ...aber du hast schon recht, bei Intel sind sich die karten auf dem diagramm viel ähnlicher als bei AMD... ?(
LordDeath
2004-04-08, 11:30:11
Original geschrieben von ironMonkey
Hmm.....raff ich jetzt net ganz, normalerweise ist ATI+AMD und Intel+NVne gute kombination aber bei Farcry hängt der P4 den A64 ordentlich ab ausser bei A64+5950...........für jedes Spiel ein anderes System...:(
öhm, solche "faustregeln" darf man nie ernstnehmen.
hi,
wirkt sich denn dieser patch auch negative auf die grafik aus, wenn man nur eine 4200er gforce hat, die eh nicht dx 9 tauglich ist?
mfG und danke
DaBrain
2004-04-12, 21:28:13
Eigentlich müsste es auch beim PS 1.1 (Oder ist es bei FarCry schon 1.3 ?), auch Partial Precision geben.
Besteht wirklich ein Unterschied zum PS 2.0 ?
Ich hatte die Demo und die lief ganz gut, und sah verdammt gut aus. Ich sehe jedenfalls keinen Unterschied zu den Radeon Screenshots...
Tigerchen
2004-04-13, 15:58:27
Original geschrieben von ironMonkey
Hmm.....raff ich jetzt net ganz, normalerweise ist ATI+AMD und Intel+NVne gute kombination aber bei Farcry hängt der P4 den A64 ordentlich ab ausser bei A64+5950...........für jedes Spiel ein anderes System...:(
FX5600 ist aber wirklich lahm, hatte wohl die Ultra Version in Erinnerung.
Gruß
Besonders ernst kannste den Bench sowieso nicht nehmen. In der Final komme ich in der Auflösung mit 4xAF fast überall über 35 fps. Meistens sogar deutlich mehr. Und das mit XP 2600 und R9700 Pro.
Mr. Lolman
2004-04-13, 16:00:34
Ausserdem wars die Demoversion...
Quasar
2004-04-13, 16:00:37
Original geschrieben von Gast
hi,
wirkt sich denn dieser patch auch negative auf die grafik aus, wenn man nur eine 4200er gforce hat, die eh nicht dx 9 tauglich ist?
mfG und danke
Nein, sollte keinen geben, ausser es sind Bugs mit eingepflegt worden.
Quasar
2004-04-13, 16:02:19
Original geschrieben von DaBrain
Eigentlich müsste es auch beim PS 1.1 (Oder ist es bei FarCry schon 1.3 ?), auch Partial Precision geben.
Besteht wirklich ein Unterschied zum PS 2.0 ?
Ich hatte die Demo und die lief ganz gut, und sah verdammt gut aus. Ich sehe jedenfalls keinen Unterschied zu den Radeon Screenshots...
Ja, es gibt sichtbare Unterschiede. Einige Stellen, die zum Glück nicht soo häufig sind, sind sogar ausgesprochen häßlich. Daß das Wachs auf der Haut der Söldner nun weg ist, finde ich hingegen eher positiv.
Von Partial-Precision profitieren CineFX-I Chips allerdings nur wenig.
Mr. Lolman
2004-04-13, 16:09:02
Original geschrieben von Quasar
Daß das Wachs auf der Haut der Söldner nun weg ist, finde ich hingegen eher positiv.
Da wirds doch irgendeine Möglichkeit geben, eine ini umzustellen, so dass die Leut nicht alle wegen der ganzen sonnenchreme glänzen, die Fässer aber trotzdem noch schön aussehen.
BTW: Unbedingt 'Paradise'Rendermode in Innenräumen verwenden. In dem einen Level nach control (glaub ich), wo die Kantine und die WC Schilder an manchen wänden hängen, sieht die Kantine mit Paradise Rendermode extrem geil aus, während der Standardmode, den Raum samt Lichteffekte garnicht so richtig zur Geltung kommen lässt. Dafür sind die fps auch bis zu 15% niedriger...
AYAlf
2004-04-13, 23:27:50
rein spekulativ...
kann es nicht sein, dass crytek von nvidia dazu gebracht wurde, diesen farcry 1.1 patch genau so anzulegen. wie er nun tatsaechlich erschienen ist? nur um einen besseren fps wert fuer das flagschiff fx in dem z.z. meist gekauften und diskutierten spiel zu gewaehrleisten (was auch noch von nvidia gesponsert worden ist)?
es ist doch peinlich fuer nvidia, dass die meisten, von ihnen gesponserten spiele, viel besser auf den konkurenzprodukten laeuft (ati).
dazu passen wuerde, dass der neuste 60.xx treiber, relativ viele grafikbugs, die nach dem 1.1 patch, mit den fxen aufgetreten sind, bereinigt hat.
rein spekulativ...
also wie gesagt, ich wuerde nicht unbedingt den programmierern von crytek den schwarzen peter zuschieben.
den meisten anwendern ist ein fluessiges spiel wichtiger, als eine perfekte grafik. wer die besten benchmark ergebnisse hat verkauft die meisten grakas. ;D
image ist alles ... :bäh:
ps: es wuerde mich mal interessieren, wieviele genauso denken wie ich.
Lustiger Troll
2004-04-13, 23:38:55
1. Gibts den 60.72 nicht offiziell von NV. der Letzte ist der 56.72. Der hat die Grafikbugs beseitigt.
2. Ich denke schon das die Proger von Crytek den Patch selber so verhunzt haben, es gibt viele Leute die ne NV haben, denen will man das Spiel auch verkaufen, NV kann es da eigentlich egal sein ob FC schnell ist oder nicht. Zudem wurde da sicher nicht miteinander dran gearbeitet sonst wäre das Rohr in der Researchmap nicht so komisch.
3. Würde mich mal interessieren wo steht das FC von NV gesponsort wurde.
AYAlf
2004-04-14, 00:13:48
@troll
ich denke mal, dass ich nicht falsch liege, wenn ich behaupte, dass du kein fc hast, oder?
das spiel fc (ist) soll fuer nvidia designed sein. ergo, wird wohl nvidia ein wenig kleingeld investiert haben. folglich hat nvidia das spiel fc mit gesponsert. daraus resultiert, dass nvidia ein sehr grosses interess hat, dass dieses spiel gut auf ihren karten laeuft. zumal es der shoter nr.1 z.z. ist.
richtig ist, dass der treiber 56.72 schon einige fehler beseitigt hat. aber der noch nicht ganz offizielle 60.xx treiber, wird dann den rest fixen (beta ist ja schon erschienen).
ich denke nicht, dass die veraenderungen im nvidia bereich von crytek gewollt waren. vielmehr wird nvidia den programmieren nahe gelegt haben, ihre karten etwas besser aussehen zu lassen. das geht halt nur, wenn man ein paar shader weglaesst bei den fxen. sozusagen ein fps "cheat" um den anschluss und die glaubwuerdigkeit nicht zu verlieren. denn in einem sind wir uns wohl einig. nvidia fan ist man in erster linie, weil man eine schnell karte haben moechte. auf zusaetzliche features, wie af aa kann der nvidia fan getrosst verzichten. nvidia hab ich zumindest immer nur gekauft, um eine schnelle karte zu haben. die grafikqualitaet war und ist da nur 2trangig. und genau darauf setzt nvidia.
ich glaube schon lange nicht mehr, dass nur die spielehersteller einen patch versemmeln. meist spielen da auch noch ganz andere interessen eine rolle. besonders im hart umkaempften grafikkarten markt. die logos am anfang eines jeden neuen spiels, steht da bestimmt nicht "umsonst".
Lustiger Troll
2004-04-14, 00:20:49
Doch ich habe FC, habs sogar schon 3 mal Durch :). Und die BQ ist auf den NV vor dem Patch zumindestens, auf den NVs besser. Das ist Quatsch das die NVs schneller sein sollen und ATIs dafür schöner, ist eher umgekehrt ;). Du hast mir keine Quelle genannt wo steht das FC von NV gesponsert wurde, es trägt auch nicht das TWIMTBP Logo. Wenn es auf den NV karten scheisse läuft kann das NV egal sein, die haben die Karten bereits verkauft, aber das Spiel soll sich ja noch verkaufen deshalb denke ich eher das die Proger selber daran interesiert sind das es auf NVs schneller läuft.
L. Trotzkij
2004-04-14, 00:21:36
Also, wenn ich die bisherige Spielqualität so sehe, glaube ich eher an die Unfähigkeit der Entwickler.
1. KI, die sind ja dumm wie Brot.
2. Low Grafikeinstellungen verursachen nur Probleme und Fehler.
3. Bedienung/Steuerung--> gute Nacht.
Schon wahrlich einfacher zu bedienende Leitern gesehen.
4. Wieso komme ich manchmal ins Hauptmenü, obwohl ich nichts drücke??
Grafikwahnhasser
2004-04-16, 17:58:38
Da sieht man es Gute Grafik aber mit Verlaub Scheißspiel.
Da schnappe ich mir lieber nen Supernintendo und Spiele ne Runde Zelda.
Warum sind alle schönen Spiele meiner Meinung nach scheiße keine?
Entweder sie haben endlos viele Macken (Farcry) oder andere Nervige Dinge. (Doom 3) Das dauert eh noch 200jahre....
Die Story ist eh nicht so toll aber wenn wenigstens das Gameplay stimmen würde. das PCSpiel was mir bisher am Meisten Gefiel war TIEfighter von Lucasarts...
Ja lacht nur darüber aber das hat fürmich endlose Motivation mit den neuen Spielen ist es meistens wie mit der Schnellebiegen Musik man Spielt/hört nen paar mal an und dann kein Bock mehr.
Doomi
2004-04-17, 01:26:34
patch 1.1 bringt bei mir schle chteres wasser zum vorschein.. hab ne fx 5900 ist es bei euch auch so?
@L. Trotzkij
1.Die Ki ist nicht dumm, ist die beste die ich je gesehen habe!
2.Kann sein, kann aber auch an deinem System liegen
3.Die Steurung ist perfekt, da du sie dir selber einrichten kannst. Die Leitern sind sehr einfach zu bedienen. Wahrscheinlich peilst du es nicht... ;)
4.Weil du auf ESC drückst und du es nicht merkst!
Irgendwie hast du nur schei... geschrieben.
Ich habe an FarCry wirklich nichts auszusetzen. Ok doch, die Story könnte nen bisschen besser sein. Man muss sich irgendwie die Story denken... :-(
Naja trotzdem ein geiles Spiel wo eigentlich alles Perfekt ist.
skanti
2004-04-17, 08:24:09
Original geschrieben von Lustiger Troll
Doch ich habe FC, habs sogar schon 3 mal Durch :). Und die BQ ist auf den NV vor dem Patch zumindestens, auf den NVs besser. Das ist Quatsch das die NVs schneller sein sollen und ATIs dafür schöner, ist eher umgekehrt ;). Du hast mir keine Quelle genannt wo steht das FC von NV gesponsert wurde, es trägt auch nicht das TWIMTBP Logo. Wenn es auf den NV karten scheisse läuft kann das NV egal sein, die haben die Karten bereits verkauft, aber das Spiel soll sich ja noch verkaufen deshalb denke ich eher das die Proger selber daran interesiert sind das es auf NVs schneller läuft.
naja das TWMITBP-Logo ist zumindest auf meiner Us-Packung hinten drauf ....
L. Trotzkij
2004-04-17, 12:57:57
@Kiss
1. Die KI ist dumm. Die Gegner laufen ja teilweise einfach nur total verpeilt im Level rum und suchen ja nicht mal Deckung. Man kann natürlich sagen, dass es schwer ist die Gegner zu besiegen, aber wenn man teilweise 5 Kopfschüsse benötigt, oder im Extremen 30(Mutant), ist das auch kein Wunder.
2. Das glaub ich nicht. Denn mit der Version 1.0 hatte ich diese Fehler bei gleichen Einstellungen und mit dem gleichen Treiber nicht.
3. Die Steuerung ist frei belegbar das ändert aber nichts daran, dass sie bereits bei unter 60 Fps laggt(steht auch in der Readme), und wer hat im Kampf konstant 60Fps?
Die Leitern sind einfach nur scheisse zu bedienen, meine Meinung.
4. Ich sag nur Version 1.1.
@L. Trotzkij
1. Zum teil gebe ich dir recht. Die Mutanten sind wirklich viel zu schwer. Naja 5 kopfschüsse ist etwas übertrieben. Wenn die Soldaten nen Helm auf haben brauch man ca 2 gut gezielte schüsse.
2.Also liegts an der version1.1 ;)
3.Naja du kannst das aber nicht auf die Steuerung schieben, is leider bei jedem shooter so!
4.Leider kann ich nichts zur version1.1 sagen, weil viele sagen das diese version einige bugs hinzugefügt hat anstatt sie zu beseitigen! Deshalb bleibe ich noch bei der version1.0! :)
Mfg kiss
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.