Archiv verlassen und diese Seite im Standarddesign anzeigen : GF FX 5900 erhältlich!!
mirovb
2003-06-20, 01:46:26
schaut mal bei www.snogard.de rein, die haben zwei verschiedene GF FX 5900 128 MB Grafikkarten im Sortiment...scheinen auch ziemlich günstig zu sein. Hat die schon evtl. einer gekauft und getestet ??
Gruss
Miro
Cenmocay
2003-06-20, 04:05:30
Cool langsam gehts los !
Hab grad ne 9700 nonpro ( 240 Euro),möchte aber auf jedenfall wieder zu Nvidia.
Aber es wäre Quatsch jetzt ein 5900 für 400 Euro zu holen,denn sie jetzt noch gleich schnell.
:-(
mapel110
2003-06-20, 04:45:13
msi für 399 €
pixel view 389 €
für die non ultras.
A.Wesker
2003-06-20, 09:36:24
meine fx 5900 ultra kommt montag
Richthofen
2003-06-20, 10:11:44
ich werde warten bis Leadtek und Albatron im Markt sind und dann schlage ich zu.
Schätze mal ich werde mit 350 bis 370 Euro hinkommen und dann wär das ja ungefähr so viel wie bei meiner Leadtek Ti4400 damals.
Dazu zauberhaft ocen, dann hab ich wieder die richtige Mitte gefunden.
pervert
2003-06-20, 10:13:07
Sehe ich auch so. Leadtek und Albatron werden es bringen :-)
Ich finde die Preise auch ganz nett, kosteten die 4400 damals zum Einstieg nicht sogar um die 800.-DM und waren somit sogar etwas teurer als die neue Oberklasse?
Die Albatron hat auch nen verdammt coolen und leisen(!) Kühler!
Wer die Karten irgendwo verfügbar findet, sollte es auf jeden FAll ganz schnell hier posten! :)
pervert
2003-06-20, 10:22:49
http://www.pcgames.de/?article_id=181840
Das dunkle Teil in der Mitte ist ne blaue LED :)
FLH2002
2003-06-20, 10:26:08
-----
pervert
2003-06-20, 10:28:49
Was ist für dich gut?
Verglichen mit dem Preis für meine olle 4600 finde ich das bei ca. 360 Euro jetzt (demnächst) schon gut!
Aber spätestens die 5900 "value" wirds sicher bringen und auch die Massen begeistern können. Leider soll die ja als letztes rauskommen. Das dauert bestimmt noch 2 Monate oder länger befürchte ich :(
FLH2002
2003-06-20, 10:30:37
---------
pervert
2003-06-20, 10:33:02
Die Value/Standard/Ultra sollen sich nur in den Taktraten unterscheiden. Darüber hinaus hat die Ultra noch 256MB anstelle von 128MB Ram.
Besonders der geringe Taktunterschied der Std. gegenüber der Ultra hat es wohl vielen angetan :) (Vermutlich 400/800(850) zu 450/850)
Und das bei einem Preisunterschied von ca 150 Euro hihihi :)
FLH2002
2003-06-20, 10:36:06
---------
robbitop
2003-06-20, 10:39:40
nunja heutzutage scheinen bei 4xAA die 256MB echt vorteil haft
pervert
2003-06-20, 10:50:22
Das wird sich noch zeigen, wenn es vernünftige Benchmarks gibt!
Ich glaube die meisten können angesichts des großen Preisunterschieds auch erstmal gut darauf verzichten. Das Geld stecke ich lieber in den NV40.
robbitop
2003-06-20, 10:53:24
vernünftige benchmarks gibts ende juni bei uns www.seijin.de
4xMSAA ist jedenfalls deutlich schneller, da dies bei 256 MB auch um Framebuffer durchgeführt werden kann. Aber 4xS was eigendlich sinnvoller ist (4xOGMS leicht (minimal) besser als 2xRGMS) müsste kaum unterschiede zw ultra und nunultra zeigen ;)
pervert
2003-06-20, 10:59:43
Ehrlich gesagt würde mich der Unterschied zwischen 4xS und 8xS am meisten interessieren! Auf 4xMSAA kann ich notfalls noch verzichten (jedenfalls wenn ich 150 Euro spare :))
Danke für den Hinweis auf die kommenden Benchmarks!!!
robbitop
2003-06-20, 11:04:25
4xS
2x RGMS + 2xOGSS
EER: 2x2 x 2x1 = 8
8xS
4xOGMS + 2xOGSS
EER: 2x2 x 2x1 = 8
den 8xS gibt es noch als andere Variante
ich glaube nur im atuner einstellbar
4xOGSS + 2xRGMS
EER: 2x2 + 2x2 = 16 Subpixel
bringt superbe Bildqualität zum SEHR hohen Preis, da 4x SuperSample ...somit nur 1/4 der Füllrate zur Verfügung
theoretisch sind beide gleichgut aussehend, 8xS in der Praxis leicht besser, aber wesendlich teurer in der leistung.
pervert
2003-06-20, 11:16:23
Habe mich falsch ausgedrückt!
Ich meine die Performance-Unterschiede zwischen den beiden Karten bei 4xS und 8xS !!! :)
Wie heisst die andere Variante des 8xS dann dort???
Würde das nur ungern verwechseln wollen, da der normale 8xS genau das ist was ich will.
robbitop
2003-06-20, 11:22:02
sehr hoch sicherlich genaueres später
aber nach 4xS:
1/4 Bandbreite 1/2 Füllrate
nach 8xS (der guten Version)
1/8 Bandbreite 1/4 Füllrate
wobei die Bandbreite durch die Colorcompression etwas abgefedert wird und auf der 5900 davon genug da sein sollte.
Die Füllrate jedoch macht sorgen.
Somit wird 8xS ziemlich genau 2x soviel kosten wie 4xS und sieht 2x so gut aus :D
pervert
2003-06-20, 11:29:07
Auch wenn das jetzt etwas offtopic wird, warum kann 4xMSAA nur bei 256 MB im Framebuffer durchgeführt werden? Ich kann nicht wirklich glauben, dass die 256MB-version allzu oft bedeutende Unterschiede bringen wird...
Vielleicht gibts zu dem Thema 128vs256MB schon ein wenig was im Forum? Dann bitte verlinken.
robbitop
2003-06-20, 11:32:03
der RAM wäre zu klein so dass man über den AGP auf den Hauptspeicher zugrefen müsste...das ist ätzend lahm.
Denn 4xAA braucht immerhin 2x Speicher wie 2xAA wenns im RAMDAC gemacht werden soll. Somit geht das nur bei der 5900 mit 256MB ....selbiges bei der Radeon mit 256MB
Exxtreme
2003-06-20, 11:33:13
Original geschrieben von pervert
Auch wenn das jetzt etwas offtopic wird, warum kann 4xMSAA nur bei 256 MB im Framebuffer durchgeführt werden? Ich kann nicht wirklich glauben, dass die 256MB-version allzu oft bedeutende Unterschiede bringen wird...
Naja, mit 256 MB RAM kann man die einzelnen Bilder, die für das AA nötig sind, im RAMDAC mischen und nicht mehr im RAM selbst. Dadurch spart man etliche Speicherzugriffe und die Leistung wird besser.
Bei 2x AA wird das ab der GF4 so gemacht.
robbitop
2003-06-20, 11:36:15
hätte niemand besser erklären können :)
sagmal machen die R300 und RV350 karten es auch im RAMDAC?
pervert
2003-06-20, 11:37:06
Bisher hat mir noch keiner richtig erklärt warum 128MB zu "klein" sind. Ich finde das verdammt viel! Die meisten Spiele begnügen sich doch noch völlig mit nur 64MB - reicht es nicht, wenn man davon das doppelte hat?
Und die 256er Radeon liegt selten genug deutlich vor der 128MB-Version, so dass man hier von einem echten Kaufgrund sprechen könnte finde ich (angesichts des allerdings deutlichen Aufpreises :)).
Oops, bin gerade "Glückskind" geworden, was soll denn das???
Exxtreme
2003-06-20, 11:40:35
Original geschrieben von pervert
Bisher hat mir noch keiner richtig erklärt warum 128MB zu "klein" sind. Ich finde das verdammt viel! Die meisten Spiele begnügen sich doch noch völlig mit nur 64MB.
Und die 256er Radeon liegt selten genug deutlich vor der 128MB-Version, so dass man hier von einem echten Kaufgrund sprechen könnte finde ich (angesichts des allerdings deutlichen Aufpreises :)).
Die Radeon macht auch kein RAMDAC-Downsampling deswegen bring es dort auch kaum Vorteile.
Die RAMDAC-Filterung braucht viel Speicher, bringt aber mehr Geschwindigkeit. Und damit der Speicher ausgeht werden 256 MB verbaut.
Was meinste, warum die GF4Ti so einbricht bei 4x AA im Vergleich zu 2x AA? Dort wird nämlich bei 4x AA auf das klassische Downsampling zurückgegriffen.
robbitop
2003-06-20, 11:41:14
nunja, die Texturdaten bei Games werden immer Grösser und wenn diese noch verdoppelt oder vervierfacht werden reicht der RAM eben nicht mehr
Doom3 hat in extremfällen 80MB Texturdaten...dann multiplizier mal ;)
in UT2003 reichen 128MB gerade so für 2xAA im RAMDAC
robbitop
2003-06-20, 11:43:11
die R350 habe ich gehört mach das RAMDAC Downsampling schon ...zumindist die 256MB Version...naja vieleicht lag die Quelle ja falsch??
wenn es nicht der fall ist (und ich glaube sie macht es bis 2x auch), dann kann RAMDAC sampling ja nicht viel bringen ;)
wie gross sind denn etwa die unterschiede zu erwarten? ich denke das dürften 10-20% weniger Bandbreite sein, oder?
pervert
2003-06-20, 11:46:57
NOTFALLS reicht mir 2xAA. Ich bin nicht breit, NUR für schnelleres AA eine Ultra-teure Karte zu kaufen.
Lässt man das AA jetzt mal aussen vor, sollten sich doch keine weiteren nennenswerten Unterschiede (mal abgesehen vom Takt) ergeben, oder? Ich meine Aniso und so...
Jetzt bin ich von "Glückskind" wieder zu "Goldmember" gewechselt, weiss keiner was das zu bedeuten hat :)?
robbitop
2003-06-20, 11:48:25
korrekt zumal das 4xMSAA eh für die tonne ist ;)
Exxtreme
2003-06-20, 11:50:05
Original geschrieben von pervert
NOTFALLS reicht mir 2xAA. Ich bin nicht breit, NUR für schnelleres AA eine Ultra-teure Karte zu kaufen.
Lässt man das AA jetzt mal aussen vor, sollten sich doch keine weiteren nennenswerten Unterschiede (mal abgeshene vomn takt) ergeben, oder? Ich meine Aniso und so...
Also wenn du kein AA nutzt dann bringen dir die 256MB z.Zt. nichts.
Exxtreme
2003-06-20, 11:50:54
Original geschrieben von robbitop
die R350 habe ich gehört mach das RAMDAC Downsampling schon ...zumindist die 256MB Version...naja vieleicht lag die Quelle ja falsch??
Das Downfiltering im RAMDAC ist ein 3dfx-Patent, welches sich jetzt im Besitz von NV befindet.
robbitop
2003-06-20, 11:51:12
Also Exxtreme nun antworte MIR doch auch ma :`(
pervert
2003-06-20, 11:51:33
Original geschrieben von robbitop
korrekt zumal das 4xMSAA eh für die tonne ist ;)
Da bin ich anderer Meinung! Es ist zwar nicht so schön wie ein 4x RGMSAA, glättet aber viele Winkel verdammt viel besser als das simple 2xAA! Fällt besonders bei Winkeln auf, die z. B. 45° sehr nahe kommen. Wer beide Varianten oft eingesetzt hat, dem sollte das auffallen. Natürlich steht der optische Gewinn in keinem Verhältnis zum Performanceverlust :)
robbitop
2003-06-20, 11:52:47
oh danke ....aber es scheint ja dann wohl nicht extrem in der wirkung bei 2x zu sein ...zumal heutzutage bandbreite nicht mehr das Problem sein sollte (5800 mal ausgenommen)...ATis und Nvs Midrange Karten sind auch eher Füllratenlimitiert
@Pervert
ja das meine ich auch ...4xS ist eben viel besser
ich denke 8xS wirst du nur wirklich smooth bei älteren Titeln einsetzen können
pervert
2003-06-20, 11:53:30
Original geschrieben von Exxtreme
Also wenn du kein AA nutzt dann bringen dir die 256MB z.Zt. nichts.
Das ist doch mal eine gut verwertbare Aussage :-)
Danke!
robbitop
2003-06-20, 11:55:04
wenn du kein AA nutzt kannst du auch ne LowCost karte für 40 EUR nehmen ;)
pervert
2003-06-20, 11:59:04
Ich LIEBE FSAA!!!
Es ging mir nur um die Aussage des technischen Verständnisses wegen.
Aber bisher konnte ich mich mit 2x meist zufrieden geben. Der optische Unterschied ist groß genug geg. 0xAA. Am wichtigsten ist mir eher Aniso und dabei bin ich echt happy über die Performance-Optimierungen die NV hier für die FX-Karten getätigt hat. Der "Performance-Mode" ist einfach geil! Aber das müssen wir hier nicht auch noch breitreden :)
Nochwas: 8xS/4xS macht mich deshalb so an, da sich auch das LOD verbessert und das ganze dann irgendwie wie 16xAF (oder besser?) aussieht (bei zus. eingeschaltetem 8xAF natürlich). Habe das mal mit aktivierten colormiplevels bei Jedi Outcast beobachtet.
Exxtreme
2003-06-20, 12:01:04
Naja, für 2x AA muss es keine GFFX5900 sein. Da reicht auch eine eine GFFX5800 non-Ultra.
Original geschrieben von Exxtreme
Was meinste, warum die GF4Ti so einbricht bei 4x AA im Vergleich zu 2x AA? Dort wird nämlich bei 4x AA auf das klassische Downsampling zurückgegriffen.
Nein, weil der GF4ti mangels Colorkompression einfach die Bandbreite ausgeht.
robbitop
2003-06-20, 12:08:50
ow das eine schliesst das andere nicht aus ...
Exxtreme
2003-06-20, 12:08:55
Original geschrieben von ow
Nein, weil der GF4ti mangels Colorkompression einfach die Bandbreite ausgeht.
Das schliesst meine Aussage nicht aus. :)
RAMDAC-Filterung spart nämlich Bandbreite.
Original geschrieben von Exxtreme
Das Downfiltering im RAMDAC ist ein 3dfx-Patent, welches sich jetzt im Besitz von NV befindet.
Nein. Schau mal hier:
http://www.3dconcept.ch/artikel/dithering/5.htm
und
http://www.3dconcept.ch/artikel/dithering/6.htm
pervert
2003-06-20, 12:10:00
Original geschrieben von Exxtreme
Naja, für 2x AA muss es keine GFFX5900 sein. Da reicht auch eine eine GFFX5800 non-Ultra.
Danke habe schon einen Staubsauger :-) (ja, die meisten haben nen anderen Lüfter) Ich steh trotzdem nicht auf das "Versagermodell" Ich nehm doch lieber die doppelte Banbreite zum gleichen Preis :-)
Exxtreme
2003-06-20, 12:10:21
Original geschrieben von ow
Nein. Schau mal hier:
http://www.3dconcept.ch/artikel/dithering/5.htm
und
http://www.3dconcept.ch/artikel/dithering/6.htm
Das bezieht sich aber nicht auf das AA-Downsampling sondern auf die 22Bit-Technik, welche 3dfx in den Voodoos verwendet hat.
Original geschrieben von Exxtreme
Das schliesst meine Aussage nicht aus. :)
RAMDAC-Filterung spart nämlich Bandbreite.
Ich bezweifele, dass RAMDAC Filterung irgendwelche Geschwindigkeitsvirteile bringt.
2xAA Downsampling ist auf demn GF4ti exakt genausoschnell wie 2xAA RAMDAC-Filtern (falls die GF4 denn überhaupt im RAMDAC filtern!).
Original geschrieben von Exxtreme
Das bezieht sich aber nicht auf das AA-Downsampling sondern auf die 22Bit-Technik, welche 3dfx in den Voodoos verwendet hat.
Welches Patent meinst du denn? Link?
pervert
2003-06-20, 12:12:54
Original geschrieben von ow
Nein. Schau mal hier:
http://www.3dconcept.ch/artikel/dithering/5.htm
und
http://www.3dconcept.ch/artikel/dithering/6.htm
Cool, da wird der gute alte Amiga erwähnt :)
robbitop
2003-06-20, 12:13:03
die 4Ti filtert im RAMDAC und das kann man nicht abschalten ;)
somit ist kein Vergleich machbar
Original geschrieben von robbitop
die 4Ti filtert im RAMDAC und das kann man nicht abschalten ;)
Ich bezweifele bis heute, dass die 4ti überhaupt im RAMDAC filtert. Das wird nämlich AFAIK nirgendwo offiziell bestätigt.
Ich lasse mich aber gern eines besseren belehren.
Also immer her mit den Quellen zur angeblichen RAMDAC-Filterung der GF4.
pervert
2003-06-20, 12:36:05
JO!
ATELCO hat die Leadtek Karte und das zu einem Preis der Hoffnung macht!!!!!!! 387 Euro im Versand!!! Wenn DIE diese Karte zu dem Preis haben, würde ich mich über baldige Angebote nahe den 350 Euro nicht wundern!
http://www.atelco.de/1kFN6U-9esg3mp/780/articledetail.jsp?aid=1849&agid=236&ref=12
Nachtrag:
Die Albatron Karte soll angeblich 850MHz Speichertakt haben, gegenüber anderen Karten mit nur 800MHz. Vorbildlich. Der Lüfter soll übrigens nur 25dBA "laut" sein (Standardlüfter 40dBA)!!!
http://www.albatron.com.tw/english/it/vga/exp_list.asp?gpu=21
http://www.albatron.com.tw/images/ad/5900_500_125.jpg
robbitop
2003-06-20, 13:08:10
Benchmarks geben indizien darauf und weiterhin das Problem mit dem Screenshot....
DrumDub
2003-06-20, 13:20:05
komisch ist nur, dass es bisher noch keine reviews der 5900nu gegeben hat... die 5900u wird dann wohl doch erst im juli kommen oder hat die schon jemand in de gesichtet?
mirovb
2003-06-20, 13:46:00
Also,
auch die NON Ultra 5900 FX hat einen Speichertakt von 850 Mhz (2.2 ns), wie auch die 256 MB Version. Kann das bestätigen, weil Ich seit heute morgen eine Karte hier habe (MSI GF FX5900). Der GPU Takt beläuft sich auf 400 Mhz , also 50 Mhz weniger als die Ultra Version.
Die Karte ist Superleise, man hört die Lüfter gar nicht (leiser als bei der GF4 Ti). So um ca. 25-28 dB herum ....
Miro
mirovb
2003-06-20, 13:50:20
Ach ja, gekostet hat die Card 399,90 Euro. Inklusive jede Menge Zubehör, Spiele, etc. wie von MSI eigentlich gewohnt...
Muss mir das mal genauer anschauen...
Miro
pervert
2003-06-20, 13:56:35
Original geschrieben von mirovb
Also,
auch die NON Ultra 5900 FX hat einen Speichertakt von 850 Mhz (2.2 ns), wie auch die 256 MB Version. Kann das bestätigen, weil Ich seit heute morgen eine Karte hier habe (MSI GF FX5900). Der GPU Takt beläuft sich auf 400 Mhz , also 50 Mhz weniger als die Ultra Version.
Die Karte ist Superleise, man hört die Lüfter gar nicht (leiser als bei der GF4 Ti). So um ca. 25-28 dB herum ....
Miro
Es geht aber das Gerücht um, dass einige non-ultras nur 800MHz Speichertakt haben sollen! Steht auch auf den Webseiten einiger Hersteller.
Aber gut zu wissen, dass die MSI auch 850MHz hat (steht tatsächlich auch auf deren Webseite (msi.com.tw)!
Omnicron
2003-06-20, 14:24:07
Original geschrieben von DrumDub
komisch ist nur, dass es bisher noch keine reviews der 5900nu gegeben hat... die 5900u wird dann wohl doch erst im juli kommen oder hat die schon jemand in de gesichtet?
Es gab schon Reviews der 5900nu, und reicht es nicht wenn du das in nur einen Thread reinschreibst ?
pervert
2003-06-20, 14:40:57
WO gibt es Reviews der non-ultra???????
Sag mal omnicron, ist dein "Avatar" das Cover von Alien Breed 3D ???
robbitop
2003-06-20, 14:47:42
uk gamer
Omnicron
2003-06-20, 15:23:30
Original geschrieben von pervert
Sag mal omnicron, ist dein "Avatar" das Cover von Alien Breed 3D ???
Jooo, rul0rt alles weg :jumping:
DrumDub
2003-06-20, 16:06:09
hier ist der review von uk gamer:
http://www.ukgamer.com/article.php4?id=3&page=1
hier noch einer von firing squad:
http://firingsquad.gamers.com/hardware/msi_geforce_fx5900-td128_review/default.asp
mirovb
2003-06-20, 17:35:53
Erfahrungen mit der MSI GF FX5900 128 MB
So, die Karte hat auf der Ober- und Unterseite jeweils einen Kühler. Der auf der Oberseite hat noch einen grossen Passivkühlkörper zur Ram Kühlung, der untere hat nur einen Lüfter. Dem Gewicht der Karte nach zu urteilen ist die Kühleinheit aus Kupfer...laut Beschreibung (Handbuch) kann man den grossen Kühlkörper jederzeit umbauen bzw. gegen den auf der Unterseite austauschen, je nachdem ob etwas am Mainbard "im Weg" ist, oder wenn man den ersten PCI Platz nutzen will. Die Karte ist auch im Original Zustand schön flach, und ist von der Länge her genauso "kurz" wie eine GF4 TI4600. Der Stromsteckeranschluss zeigt "Gott sei Dank" nach dem Einbau nach unten, denn zur Seite hin habe Ich weniger Platz. Aber ansonsten geht der Einbau in mein MOBO absolut ohne Platzprobleme von statten. Ein Vorteil meines ABIT NF7-S: der AGP Steckplatz liegt ziemlich weit entfernt vom ersten PCI Platz und behindert auch nicht den oberhalb liegenden Passiven Kühlkörper des NFcorce Chipsatzes.
Bei der GF FX 5800 hab Ich da schon andere Platzprobleme gehabt...
:D :D
Nun ja, muss mal auf die Performance achten. Und Ich spiele (immer noch) Splinter Cell, das werd Ich mir mal zur Brust nehmen, da es die Grafikkarten allg. mit moderaten Einstellungen mehr als fordert. Schaun mer mal...hab ne ATi Radeon 9700 Pro zum vergleich. Ich schau mir das aber nur subjektiv an....mit höchsten Qualtity Einstellungen im Spiel selber...
Treiber: Catalyst 3.4 und Deto 44.03 beide WHQL Chipsatz Treiber: NForce 2.03 WHQL CPU: AMD Athlon XP+2500 Barton 768 MB DDR RAM CL2.5 Spieleauflösung: 1280x1024 (bei mir Standard)
Miro
Asuka
2003-06-20, 18:11:17
Du solltest besser den neuen 44.65 Treiber nehmen.
mirovb
2003-06-20, 18:15:58
Ja sicher,
werde Ich auch tun....thanks....
Miro
mirovb
2003-06-20, 20:03:12
Tja,
hab Splinter Cell durch alle Modis laufen lassen.
Die GeForce Performance gefällt mir aber gar nicht. Egal welchen Treiber Ich probiere, (43.45, 44.03,44.65), in den wirklich relevaten Szenen hat die FX Probleme. Ich kann leider nicht beurteilen, ob das (anfängliche) Treiber Probleme sind, oder ob es mit der FX Struktur etwas zu tun hat. Jedenfalls hab Ich mir zu Anfangs gedacht: "400 Mhz Core und 850 Mhz Ram Takt" Wow !!, das kann ja nur besser sein...
Ich bin allerdings entäuscht !!! (Erst einmal!)
In den komplexen und sehr Grafik intensiven Szenen (wie z.B. Flammen auf der Pipeline, Anfang des China Levels, Parkhaus im Georgischen Ministerium (bsonders), Ende im Regen des FBI Levels) hat die GeForce FX ein nachsehen...das Bild ruckelt in den intensiven Lichtsequenzen bei Max. Qualtiy Einstellungen.
Ich kann sagen, das die Bildqualität in dem Spiel wirklich 1a ist, aber in den Sequenzen, wo z.B. Auto Scheinwerfer im Spiel sind oder es regnet, hat die FX ganz klar in meinem System das nachsehen.
Ganz sicher sieht man es in einer Szene: dort wo Sam Fisher durch ein "Laubendurchgang" geht, in dem es von Schatten und Lichtstrahlen nur so wimmelt. Da ist die Qualtät zwar gut, aber die Performance ist "beschissen"!!.
Vor allen Dingen sind immer noch alle Darstellungsfehler weiterhin vorhanden (keine Lichteffekte um Lampen herum, Lichtstrahlen fehlen allg.)
Habs gegengecheckt. Mit der Radeon 9700 Pro gibs diese Probs nich, im Gegegenteil, die Karte ist schneller auf "High Qualtity" Settings.
Da kann man sogar in den Grafik Einstellungen die Schatten Auflösungen einstellen.
Die FX zeigt zwar "Buffered Shadows " an (Sehr gutes BSP. Trainings Level"), doch geht dabei die Frame Rate völlig in die Knie (was soll mir das nutzen?).
Der neuste Patch von Slpinter Cell 1.2 zeigt die "Buffered Schatten" auch bei ner Radeon an...muss nur neu aufgespielt werden..
Ergo: es gibt keines, nur das Ich für Splinter Cell gar keine GF FX 5900 nutzen werde..
werde noch bis WE weiter testen !!!
Miro
robbitop
2003-06-20, 20:20:18
was sind deine Quality settings?
Omnicron
2003-06-20, 20:28:34
Wie ist denn bisher dein Eindruck zur Lautstärke ?
mirovb
2003-06-20, 20:30:28
Die Karte ist superleise, das ist wirklich klasse !!!
Die Radeon 9700 Pro ist -subjetiv- lauter.
Die Qualtity Settings sind überall auf "High". 1280x1024.
Miro
robbitop
2003-06-20, 20:31:45
ich meine Punkto AA / AF /Auflösung
und was für ein System nutzt du?
weiterhin ist es nicht empfehlenswert ohne gewissenhaftes entfernen der Treiber von ATi/NV Hardware zu testen...das kann ich aus guter Erfahrung sagen...aber das hast du sicher schon gemacht ;)
mirovb
2003-06-20, 20:36:49
@robbitop
Ich hab jweils ein völlig neues WinXP installiert, ohne irgendwelche Programme (nacktes System bis auf Treiber). Hab dann jeweils das Image mit Norton Ghost zurück gespielt.
Habs sogar mit den MSI NForce2 2.78 Treibern probiert.
Aber das hat fast dasselbe Ergebis gebracht.
Ich denke mal, das die Karte wirklich Zunkunft hat, aber die Treiber von Nvidia sind wirklich schlecht. Das kann Ich auch an OpenGL Games wie "Medal of Honor" sehen...bei manchen sequenzen (wie die See Darstellung) ist die Quali MIST !!
Miro
robbitop
2003-06-20, 20:38:35
und was nutzt du nun an AA/AF/Resulution=?
mirovb
2003-06-20, 20:45:51
robbitop
Gar nichts !! Ich hab überhaput kein AF/AA eingeschlatet bzw. aktiv Und das find Ich nun mal sehr schade an der Roh Performance.
Ist doch merkwürdig, oder ?? Ich nutze eigentlich nur 1280x1024er Auflösung , und da brauch Ich eigentlich kein AA/AF...
Da stimmt also schon die Roh Leistung irgendwie nicht...
Miro
robbitop
2003-06-20, 20:47:50
mhhh irgendwie sehr seltsam zumal ich das Game bei max Quality @1024
auf einer GF3 @270/280 durchgezockt habe...sehr flüssig....
hört sich sehr seltsam an..versuch mal ein anderes Game ;)
mirovb
2003-06-20, 21:01:01
So leid es mir tut, aber Ich habe schon geschrieben, das Ich kein Benchmark Typ bin. Ich kann nur subjektiv beurteilen. Und da "Splinter Cell" z.Z. mein Lieblingsspiel ist, kann Ich Dir leider nichts anderes dazu sagen....den Rest wirst Du wohl selber herausfinden müssen.
Sicher gibt es das eine odere andere, was besser "für ein Spiel ist", aber Ich habe das auch nirgendwo behauptet,
Lediglich die Performance unter "Splinter Cell" ist SCHEISSE!
Natürlich nur auf mein SYTEM bezogen.
Miro
P.S. Was heisst "sehr flüssig " ???
Omnicron
2003-06-20, 21:02:15
Original geschrieben von robbitop
mhhh irgendwie sehr seltsam zumal ich das Game bei max Quality @1024
auf einer GF3 @270/280 durchgezockt habe...sehr flüssig....
hört sich sehr seltsam an..versuch mal ein anderes Game ;)
Ähmm Robbitop laut deiner Sig hast du doch auch schon eine FX5900, wie geht die denn so ?
robbitop
2003-06-20, 21:02:31
tja meine 5900 kommt leider erst nächste Woche :(
schonma aus vorfreude umgeändert :D
mirovb
2003-06-20, 21:15:05
Mein erstes Fazit:
Nvidia hat eine "geile" Grafikarten Archtiktur. Die GF FX 5900 Serie ist wirklich das mass aller Dinge. Allerdings sind die Treiber wirlich unter aller Sau. Und darüber bin Ich STINKSAUER, da Ich eigentlich NV FAn bin. !!
Miro
LovesuckZ
2003-06-20, 21:19:03
Original geschrieben von mirovb
Mein erstes Fazit:
Nvidia hat eine "geile" Grafikarten Archtiktur. Die GF FX 5900 Serie ist wirklich das mass aller Dinge. Allerdings sind die Treiber wirlich unter aller Sau. Und darüber bin Ich STINKSAUER, da Ich eigentlich NV FAn bin. !!
???
/edit: Schick mir mal bitte den Spielstand von Splinter Cell von der Stelle, wo du performance Probs hast.
mirovb
2003-06-20, 21:23:55
@lovesuckz
Probleme hab Ich keine, nur die GF FX !! ??
:D
Wohin soll Ich die Spielstände schicken ?? E-Mail ??
Hast Du auch die FX 5900 ??
Miro
LovesuckZ
2003-06-20, 21:25:22
Original geschrieben von mirovb
Wohin soll Ich die Spielstände schicken ?? E-Mail ??
Hast Du auch die FX 5900 ??
Miro
jo:
520015510195-0001@t-online.de
Mr. Lolman
2003-06-20, 21:26:32
Original geschrieben von robbitop
4xS
2x RGMS + 2xOGSS
EER: 2x2 x 2x1 = 8
8xS
4xOGMS + 2xOGSS
EER: 2x2 x 2x1 = 8
den 8xS gibt es noch als andere Variante
ich glaube nur im atuner einstellbar
4xOGSS + 2xRGMS
EER: 2x2 + 2x2 = 16 Subpixel
bringt superbe Bildqualität zum SEHR hohen Preis, da 4x SuperSample ...somit nur 1/4 der Füllrate zur Verfügung
theoretisch sind beide gleichgut aussehend, 8xS in der Praxis leicht besser, aber wesendlich teurer in der leistung.
8xS (4xOGSS+2xRGMS) bringt insofern Vorteile, da auch die vertikalen Kanten 3 Farbzwischenstufen bekommen (ähnlich wie beim ATi 4xRGMSAA) und nicht nur die horizontalen Kanten wie es beim 4xS AA der Fall ist, oder meinst du den 8xS Modus mit 2xOGSS + 4xOGMS ??
@mirovb:
SPlinterCell 1.2 zeigt ernsthaft auch auf Radeons Buffered Shadows an?
LovesuckZ
2003-06-20, 21:28:30
Original geschrieben von Mr. Lolman
SPlinterCell 1.2 zeigt ernsthaft auch auf Radeons Buffered Shadows an?
Teste es mit der Beyond3d.com Splinter Cell Timedemo. Einmal mit projection und dann mit buffer. Die Unterschiede sind deutlich.
mirovb
2003-06-20, 21:29:31
@lovesuckz
gib mal ne ordentliche E-Mail Adresse, bekomme Deine nich geladen
Miro
pervert
2003-06-20, 21:35:51
Original geschrieben von Omnicron
Jooo, rul0rt alles weg :jumping:
Ja, ALIEN BREED JAAA, der Amiga JAAAAAAAA, aber Alien BReeed 3d??? Neeeeeeeeeeeee.....
mirovb
2003-06-20, 21:37:18
@lovesukcz
ist unterwegs
Miro
Lissy
2003-06-20, 21:40:10
Hmm, ich hab meine MSI FX heute morgen bekommen und vorhin eingebaut. Auf meinem P4C800 gibt es keine Probleme mit dem Lüfter auf der Rückseite. Ich bin von einer 9700 gewechselt und bis jetzt schwer begeistert : leise und Planetside läuft jetzt ohne Abstürze und wesentlich flüssiger. Das Nvidia Hand and Feel hat sich sofort wieder eingestellt und das ist gut so.
Mr. Lolman
2003-06-20, 21:44:27
Original geschrieben von LovesuckZ
Teste es mit der Beyond3d.com Splinter Cell Timedemo. Einmal mit projection und dann mit buffer. Die Unterschiede sind deutlich.
Wo find ich die Timedemo?
Hab einmal versucht,in der 'ini' Buffered Shadows zu forcen, aber sobald er versucht, die Levelgrafik zu laden, bekomm ich einen General Protection fault.
Wo stell ich die ein, wie muss die 'ini' genau aussehen?
und wie meinte mirovb: dass '...muss nur neu aufgespielt werden' Einfach Patch installieren, oder muss ich das ganze Spiel neu installieren, was ja auch unsinnig wär.
pervert
2003-06-20, 21:46:24
Also zum Thema Splinter Cell:
Wie in einigen Benchmarks zu sehen ist, gibt es hier und da wohl Schwierigkeiten mit der Unreal Engine und NV.
Darüberhinaus ist mir mit meiner 4600er aufgefallen, das insbesondere die höchste Schatteneinstellung und Auflösungen über 1024 EXTREM auf die Performance gehen.
Kann mir aber nicht vorstellen, dass das die FX5900 beeindrucken dürfte! Prüfe nochmals deine Treibereinstellungen!
Schicke mir mal deine Savegames an: (danke!)
Will das mal testen wenn ich die Karte habe.
Wäre toll, wenn Du das mal mit der Radeon und FX5900 richtig mit FPS-Anzeige testen würdest! Geht glaube ich in der console (f2) mit statfps oder timedemo 1 (kein scherz).
DANKE!
mirovb
2003-06-20, 22:02:07
Testet es Selber !!
Ich hab an @lovesuckz alle Files geschickt. In exakt den Szenen , in denen Ich glaube, wo es Probleme gibt.
Im übrigen habe Ich schon 1000mal geagt, das es eine rein subjektive Betrachtung ist !!
Miro
mirovb
2003-06-20, 22:05:58
@pervert
sind unterwegs an Dich
Miro
mirovb
2003-06-20, 22:19:14
@pervert
Du weisst ja was zu tun ist, und Du hast ja ne 5900..
Miro;D ;D
robbitop
2003-06-20, 22:51:09
@Mr LOLMAN
eine recht gute ausführung von der Erklärung hast du bereits gequotet..dazu gibt es von meiner seite nichts hinzuzufügen
mirovb
2003-06-20, 23:02:49
@lolman
nein, so habe Ich das nicht gesagt....
Lösche alle alten Spielstände !
Egal. Wenn Du unter den ATi (Karten) die "Buffered Shadows" sehen wllst, dann musst Du erst ein Level (fast) durchspielen, da es sich erst beim nächsten bemerkbar macht !! Die Schatten werden auch von der Radeon 9700 Pro dargestellt. !!! Das gilt natütlich nur für die Version 1.2 von Splinter Cell !! Die "Buffered Shadow" Technologie istzu langsam, und das sieht jeder !
Das alles gilt natürlich erst ab Splinte Cell v1.2
Miro
Original geschrieben von ow
Ich bezweifele, dass RAMDAC Filterung irgendwelche Geschwindigkeitsvirteile bringt.Ich bezweifle, dass du meine AA-Artikel gelesen hast :| "RAMDAC-Filterung" kostet Graka-RAM, den wird man nicht ohne Grund belegen.
mirovb
2003-06-20, 23:51:15
@aths
hab ihn nicht gelesen...
macht mich das zu einem bessern (??) Tester ?
....
CU
Machs bessser (ich hab kein Bock auf Spam!)
Miro
P.S.
Was macht das schon,das Du ne FX hast,jeder weiss es besser !!
Miro
robbitop
2003-06-20, 23:57:10
ich muss sagen, dass aths Artikel trotz (oder gerade wegen) des hohen Gerades an Theorie äusserst lesenswert sind. Sein verständnis von FSAA ist bemerksenswert. *vonRostocknachWismarwinkt*
doch grau ist alle Theorie...zumindist gilt das für die jenigen, die sich gern oder fast nur auf EER Werte stützen:
2xRG EER = 2x2 = 4
4xOG EER = 2x2 = 4
und doch glättet 4xOG signifikant besser als 2xRG. Es gibt zwar viele Winkel, wo dies mit 2xRG nicht zu unterscheiden ist, jedoch alle winkel die sich 45° annähern kann OG recht gut glätten. Und sowas hat man recht oft in heutigen Games. Ich muss sagen 4xRG ist um Meilen besser, doch 4xOG ist immernoch besser als 2xAA..doch leider kostet es im Verhältnis dazu zu viel.
mirovb
2003-06-21, 00:09:41
das mag ja alles sein, aber Ich bin trotzdem unzufrieden..
mir gefällt die Performance absolut nicht, tut mir leid. !!
Ich habe absolut von "Subjektivität" gesprochen..und das mir "Splinter Cell" wichtig ist..."
Aber egal...Ihr wisst schon, wie man das zereissen kann, oder ?!
Wollte nur darstellen, welche Erfahrungen Ich mit der MSI GF FX 5900 128 MB hatte ......
Letzter Kommentar:
Ich halte mich raus!
Miro
robbitop
2003-06-21, 00:13:07
hey hey so war das nicht gedacht, zumindist von meiner seite nicht...
also ich wäe sehr an deinen Erfahrungen (auch ma bitte was aderes als SC) interessiert.
schreib doch an robbbitop@seijin.de oder ICQ: 128821389
Omnicron
2003-06-21, 00:15:30
Original geschrieben von mirovb
das mag ja alles sein, aber Ich bin trotzdem unzufrieden..
mir gefällt die Performance absolut nicht, tut mir leid. !!
Ich habe absolut von "Subjektivität" gesprochen..und das mir "Splinter Cell" wichtig ist..."
Aber egal...Ihr wisst schon, wie man das zereissen kann, oder ?!
Wollte nur darstellen, welche Erfahrungen Ich mit der MSI GF FX 5900 128 MB hatte ......
Letzter Kommentar:
Ich halte mich raus!
Miro
Miro, ich glaube du hast da was falsch verstanden, die ganzen Sachen mit dem FSAA von aths, Mr. Lolman usw. sind keine Kritik an dir, das ist eine OT Diskussion, die schon vor deinem Bericht angefangen hat, und in dem Thread eigentlich nix zu suchen hat...
mirovb
2003-06-21, 00:43:53
mach Dir keine Sorgen..krieg Ich auch noch hin..
aber danke für die unterstzüung, freund !!
Miro
Fruchtzwerg
2003-06-21, 02:20:41
Original geschrieben von A.Wesker
meine fx 5900 ultra kommt montag
wo bestellt?
pervert
2003-06-21, 07:57:21
Original geschrieben von mirovb
@pervert
Du weisst ja was zu tun ist, und Du hast ja ne 5900..
Miro;D ;D
Schön wärs! Die kommt erst noch, wenn Sie sich der 360 Euro Marke nähert, bzw. die Albatron verfügbar sein wird.
Original geschrieben von aths
Ich bezweifle, dass du meine AA-Artikel gelesen hast :| "RAMDAC-Filterung" kostet Graka-RAM, den wird man nicht ohne Grund belegen.
aths, ich gehe von meinen praktischen Performance-Messungen aus, nicht irgendeiner Theorie.
Ich gehe davon aus, dass beim Rendern in ein Fenster der komplette sichtbare Desktopinhalt inkl. des Render-Windows ganz normal über den RAMDAC ausgegeben wird.
Da liegt es doch nahe, mal die AA-Performance von Vollbild- und Fensterdarstellung zu vergleichen.
Prescott
2003-06-22, 06:32:10
@mirovb
Hi,
hast Du die Karte mal ein bisschen OC's???
Wenn ja, wieviel??
Bis dann
mirovb
2003-06-22, 21:22:12
Neee...bin kein Freund von OC Massnahmen...würde das auch nicht im Ausnahmefall machen...aber so wie mitbekommen habe, soll sie sich schon auf mind. ~460 Mhz Core und ~920 Mhz Ram Takt hochbringen lassen... aber das habe Ich auch nur in einem anderen Forum gelesen...
Miro
robbitop
2003-06-22, 21:24:02
habe auch schon von 500/1000 gelesen
LovesuckZ
2003-06-22, 21:34:44
Original geschrieben von robbitop
habe auch schon von 500/1000 gelesen
Die eVGa 5900 Ultra kommt mir 500/900. Da sollte man die 100mhz auch noch schaffen.
pervert
2003-06-22, 21:38:42
Hier noch was zum Thema:
Die Leadtek ab 379 Euro:
http://cgi.ebay.de/ws/eBayISAPI.dll?ViewItem&item=2737897371&category=23885
Cenmocay
2003-06-23, 16:53:10
Mußte grad lachen;D
Auf Rivastation schrieb jemand Namens Blair das er die 5900 U für 5 Stunden getestet hat.
Und er mußte feststellen das die 9700 Pro DEUTLICH schneller ist und das in allen möglichen Games:lolaway:
Ich sag nur oh man der hats drauf:crazy:
Wenn das mal kein ATI Mitarbeiter ist
Exxtreme
2003-06-23, 16:58:22
Original geschrieben von Cenmocay
Wenn das mal kein ATI Mitarbeiter ist
Blaire ist weder ein ATi-Mitarbeiter, noch ist er biased. :)
Er hatte AFAIK selbst mal einige NV-GraKas.
mirovb
2003-06-23, 18:18:49
@Cenmocay...
Ich würde lieber nicht so schnell lachen...in den richtigen Games hat sich das bei meinem Test mit der GF FX5900 Non-Ultra bis jetzt leider auch bestätigt...die Radeon 9700 Pro war bis jetzt entweder gleichauf oder sogar schneller (wie bei mir in Splinter Cell deutlich mit bloßem Auge erkennbar !!)
aber mach ruhig Deine Eigenen Erfahrungen...
im übrigen: Ich denke mal, das Ich sehr objektiv bin, da Ich bis jetzt auch nur Nvidia Cards hatte, falls Du das anzweifeln solltest.
Miro
mirovb
2003-06-23, 19:28:26
Ja,
also Ich befürchte, das es mit der nicht so guten Leistung (im Vergleich zu einer fast 1 Jahr alten R9700Pro) eigentlich nur am Nvidia Treiber liegen kann. Die Karte ist noch relativ neu, und der Treiber mit absoluter Sicherheit nicht darauf optimiert.
Das wäre ja echt mies, wenn die Karte wirklich nicht mehr kann.
Jedoch bringt das jetzt erst mal gar nichts, darüber zu spekulieren....
...denn wenn nicht innerhalb der nächsten 2 Wochen ein "Wunder-Performance" Treiber für die neue FX5900 Reihe rauskommt, dann spricht sich das sicher schnell herum, und das in realen Spielen - im Moment noch- die FX5900 das nachsehen hat nzw. nur gleiche Leistung bringt. Für eine SO neue Karte...
Hab UT2003, Splinter Cell, Unreal2, Indiana Jones & Kaisergruft sowie GTA VC getestet...dort war jedenfalls die R9700 Pro gleichauf oder minimal schneller mit Max. Qualtiy Settings.
Und was mich richtig böse macht: es kann nicht angehen, das "Splinter Cell" bei einer so neuen Karte (Deto 44.03) mit Medium Settings in manchen "Szenen" ruckelt (wie Ich schon vorher beschrieben habe). Und mit der R9700 PRO läufts mit Max. Settings flüssig....das ist echt ätzend !!!!
.....
Nvidia....beeil er sich beim Programmieren. !!
Miro
LovesuckZ
2003-06-23, 19:41:10
@ mirovb
Da gebe ich dir recht. Es laeuft zwar alles bestens und ich kann über die Kompartibilitaet der Treiber nicht meckern, doch es fehlt irgendwie der richtige "Speed - kick". Ich erwarte mir von meiner einfachen 5800 "Ultra" keine Wunder, doch dass ich trotzdem überlegender Fillrate in den Splinter cell Demos nur auf 9700pro liege - und das in einen "Fillrate - ist - alles" bench - dann frage ich mich doch, ob nvidia nicht den anderen, den ATi weg haette gehen sollen. Erst Speed, dann Kompartibilitaet...
Quasar
2003-06-23, 19:48:48
Original geschrieben von LovesuckZ
[...]ob nvidia nicht den anderen, den ATi weg haette gehen sollen. Erst Speed, dann Performance...
Hihi....
Und was kommt danach? Höchstleistung? ;)
mirovb
2003-06-23, 19:53:15
@qusar
wär schön, wenn es (jetzt) schon so wäre...
@lovesuckz
stimmt, die Ingenieure habe meiner bescheidenen Meinung nach zuviel Zeit auf Qualtät "vertrödelt"...das ist natürlich sehr wichtig, aber die Käufer achten zuerst auf Geschwindigkeit...wird ja auch (fast) überall suggeriert...und dafür kann es dann zu spät sein.
Miro
pervert
2003-06-23, 19:54:23
@mirovb
Du hast fast ausschliesslich spiele mit der unreal engine getestet, also was erwartetst du - stark unterschiedliche ergebnisse??????
Teste mal quake engine games und staune! Wenn man einigen der im netz kursierenden benchmarks glauben würde, wäre die karte (in diesem falle eine 5900u) dort teilweise doppelt so schnell wie eine radeon!
es wird sicher die verschiedensten ergebnisse je nach engine geben die jeweils die eine ode randere karte in führung zeigen, aber wir sollten auf jeden fall mal eine gewisse treiberreife abwarten. Allerdings finde ich es schon sehr schmerzhaft, dass es hier scheinbar probleme mit der unreal engine gibt - diese wird für sehr viele zukünftige games verwendung finden. NV wird hier ganz sicher nachoptimieren (im positiven sinne)!
Nachtrag: Im INDIANA JONES-Benchmark der PCGH war die 5900u mit 4x/8x/1280 ca. 42% Schneller als eine Radeon 9800/256. Das ist doch auch was :)
Mal davon abgesehen schiele ich auch nicht nur auf die leistung der radeon, (die aus bekannten treiberqualitätsgründen niemals den weg in meinen rechner finden würden, solgane nv halbwegs brauchbare karten baut) sonder vergleiche auch gerne mal mit der Geforce4, welche sich z. Zt. in meinem Rechner findet. Und da präsentieren mir einige Benchmarks eine bis zu 4x so hohe Leistung bei 4x/8x. Das ist ein deftiges Graka update finde ich - ganz egal wie schnell eine radeon sein mag in dem ein oder anderen spiel. Übrigens bevorzuge ich oft spiele mit der quake engine (Jedi Knight 3 z. B. uvm.) - ich werde zufrieden sein :-)
mirovb
2003-06-23, 20:01:38
@pervert
Dann solltest Du doch mal darüber nachdenken, das Splinter Cell eigentlich wirklich NUR für die GF FX Reihe optimiert wurde, und trotzdem die ATi Karte hier WIRKLICH schneller ist.
Im übrigen, teste es selber...Du wirst bestimmt genauso sauer sein/werden wie Ich, besonders wenn man voller Vorfreude auf die neue Karte gewartet hat, und einem ja wirklich seitens nvidia so viel "Gutes" berichtet worden ist.
Im übrigen, sind die Spiele nun mal die, die Ich getestet habe. Die spiele Ich gerne, und nicht irgendwelche mit einer anderen "Engine". Das meine Ich doch: was nützt es mir, wenn Ich Spiele mit einer anderen "Engine" teste, diese aber nicht gut finde oder nie spielen werde ???? Ich hab doch schon geschrieben, das Ich mich ausschliesslich auf meine Games beziehe...Du kannst ja Deine Testen.
Ach ja, Quake Engine Games (Quake 3) sind bei mir nicht mehr so aktuell !! Und von einer brandneuen Karte erwarte ich mir (Engine hin oder her) mehr Leistung, als bei einem 1 Jahr alten Produkt zum Vergleich !!
Doch, was bei mir läuft, is no good ....
Miro
pervert
2003-06-23, 20:06:17
DAnn solltest Du deine Grafikkarte nach den bevorzugten Spielen auswählen oder einfach geduld haben, ob sich da treibertechnisch noch was tut. Ich bin sicher nv wird die performance so nicht stehen lassen, wenn möglich.
John Carmack hatte es vor ankündigung der fx5800 ja auch schon ein wenig durchhorchen lassen, dass die nächste nv generation schwächen haben wird, da bringt auch das jetzige "refresh" nicht so viel neue möglichkeiten. Mal sehen wie sich das nächste design, der nv40 gegen ati behaupten wird. NV kann es sich langfristig nicht leisten schrott zu verkaufen, sonst sind sie ganz schnell weg vom fenster.
Ich gebe allerdings zu, auch ein wenig enttäuscht zu sein. Die ersten benchmarks im netz versprachen tatsächlich fantastisches - jetzt sieht alles schon nicht mehr so rosig aus. Dennoch hat sich viel getan gegenüber der 4600!
mirovb
2003-06-23, 20:09:14
@pervert
Na, da wäre Ich selber drauf nicht gekommen...
;D
Im ernst, bin schon fast am zweifeln, ob die das mit den Treibern rausholen können...
Ich wart mal ab.
Miro
Razor
2003-06-23, 20:09:35
Original geschrieben von mirovb
Doch, was bei mir läuft, is no good ....
Du hättest Dich einfach vorher besser informieren sollen !
Das mit der (derzeit) schlechten SC-Performance ist doch immerhin schon seit dem ersten Review bekannt, oder ?
???
Razor
pervert
2003-06-23, 20:10:21
mirovb, hast du eigentlich ein intel oder amd system?
Seltsamerweise sah ich bisher die guten benchmarks immer auf AMD/NV systemen und die schlechten auf intel systemen :) ?
mirovb
2003-06-23, 20:13:59
@ razor
da gebe Ich Dir recht. Wollte halt einfach ne GF FX. Bin wohl selber schuld, wenn Ich mir dann SO WAS kaufe
:bäh:
Seit welchem ersten Review ist die schlechte SC Performance bekannt ??? Hab jedenfalls bei www.tomshardware.de das Gegenteil gelesen!!!
@pervert
hab ein AMD Athlox XP+2500/Noforce2 System....alles x-mal sauber installiert zum testen...und das sicherlich nicht zum ersten mal, da Ich so gut wie alle GeForce Karten mal getestet habe...
Miro
Winter[Raven]
2003-06-23, 20:24:01
Hatt einer irgend welche Gerüchte gehört wann die Albatron FX Ulras kommen sollen ?
Bei ihrem Kühlr Design, sieht einfach FETT aus, können die sicherlich 500 mhz für den chip auch Garantieren.
nggalai
2003-06-23, 20:27:46
Hi mirovb,
Original geschrieben von mirovb
Und was mich richtig böse macht: es kann nicht angehen, das "Splinter Cell" bei einer so neuen Karte (Deto 44.03) mit Medium Settings in manchen "Szenen" ruckelt (wie Ich schon vorher beschrieben habe). Und mit der R9700 PRO läufts mit Max. Settings flüssig....das ist echt ätzend !!!!Achtung bei Splinter Cell: Auf der Radeon9700 läuft's laut dem Chefprogrammierer mit Projected Shadows, auf der GFFX mit Shadow Buffers. Also immer 1:1-Vergleiche fahren.
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=77988&highlight=splinter+cell
93,
-Sascha.rb
mirovb
2003-06-23, 20:31:44
@nggalai
wie kann Ich dann auch "projected shadows" für die GF FX im Treiber aktivieren ?? Das wär echt ne grosse Hilfe..
Miro
pervert
2003-06-23, 20:34:08
Original geschrieben von nggalai
Hi mirovb,
Achtung bei Splinter Cell: Auf der Radeon9700 läuft's laut dem Chefprogrammierer mit Projected Shadows, auf der GFFX mit Shadow Buffers. Also immer 1:1-Vergleiche fahren.
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=77988&highlight=splinter+cell
93,
-Sascha.rb
Sehr guter Tipp, danke!!!
Razor
2003-06-23, 20:41:38
Original geschrieben von mirovb
@nggalai
wie kann Ich dann auch "projected shadows" für die GF FX im Treiber aktivieren ?? Das wär echt ne grosse Hilfe..
Miro
Hat nichts mit dem Treiber zu tun...
Schau mal ins Game-Verzeichnis:
Die Datei "SplinterCell.INI" muss geändert werden:
In der Sektion
[D3DDrv.D3DRenderDevice]Gibt's einen remarkten (=deaktivierten) Parameter:
;ForceShadowMode=0Dieser sollte dann wie folgt geändert werden:
ForceShadowMode=0Und schon ist der Shadow-Mode auf 'projected' fixiert.
Wenn Dieser Parameter nicht gesetzt ist, wird ein sog. 'AutoDetect' gemacht, welches zur Ungleichbehandlung der GraKa's führt. Insofern sollten beide Chips mit 'projected' gebencht werden, um einen halbwegs vernünftigen Vergleich zu erhalten. Aber selbst dann ist es noch 'unfair', da die nVidia-Karten einige Effekte mehr darstellen, die von den ATI-Karten nicht dargestellt werden. Allerdings weiß ich nicht, wie man diese auf den nVidia-Karten deaktivieren kann...
Viel Spaß beim Probieren !
Razor
Die Albatrons sollen lt. Cyberport.de enden nächste Woche verfügbat sein.
Razor
2003-06-23, 20:52:46
Original geschrieben von Shakiro
Hatt einer irgend welche Gerüchte gehört wann die Albatron FX Ulras kommen sollen ?
Bei ihrem Kühlr Design, sieht einfach FETT aus, können die sicherlich 500 mhz für den chip auch Garantieren.
DAS würde mich auch brennend interessieren !
Zwar interessiert mich die Optik recht wenig, aber die leise Kühlung (wenn dem tatsächlich so ist) würde mich schon sehr interessieren... die "Double-Quirl-mitBackup-Konstruktion" ala Albatron dann schon eher weniger... obwohl... ;-)
*willendlichalbatrontestssehen*
:D
Razor
nggalai
2003-06-23, 21:47:29
Hi Razor,
Original geschrieben von Razor
Aber selbst dann ist es noch 'unfair', da die nVidia-Karten einige Effekte mehr darstellen, die von den ATI-Karten nicht dargestellt werden. Allerdings weiß ich nicht, wie man diese auf den nVidia-Karten deaktivieren kann...
Laut Dany (auf meinen Link oben klicken) liefern im Projected Shadows-Modus alle Karten dasselbe Resultat. Also: vergleichbar.
93,
-Sascha.rb
mirovb
2003-06-23, 22:44:06
@nggalai
Tja, das mag alles zwar sein, aber mit meiner GF4 Ti4200 hatte Ich auch eine gute Spielperformance in dem Game, und diese Karte ist ja auch schon etwas älter. Und die GF4 TI Serie konnte diese "Buffered Shadwos" auch darstellen (Schatten der Schmetteerlingebzw. Motten um die Lmapen herum).
Habe also (umsonst) auf mehr gehofft bei der GeForce FX 5900. Schliesslich ist diese ja auch wesentlich teurer als ne TI4200. In 1280x1024 Auflösung ist die Leistung in etwa (subjektiv) gleich geblieben, nur mit Buffered Shadows ist die FX nur etwas schneller. Wenn es also nur an diesen "Buffered Shadows" liegt, das die Leistung so schlecht ist, dann kann Ich auf diese Effekte verzichten, wenn das so ein Ruckeln hervorruft.
Bin also (immer) noch enttäuscht !! Vor allen Dingen, wenn man das nicht ausschalten kann.
Miro
(Heul!!)
Razor
2003-06-24, 01:03:36
Original geschrieben von mirovb
@Bin also (immer) noch enttäuscht !! Vor allen Dingen, wenn man das nicht ausschalten kann
Man kann es ausschalten... hast Du meinen Post nicht gelesen ?
(bzw. den von nggalai ;-)
???
Razor
P.S.: Sie werden die Performance auch mit 'Buffered Shadows' schon noch hinbekommen... warum aber ausgerechnet in einem so dermaßen vermurksten Game gerade jetzt ?
mirovb
2003-06-24, 01:22:00
Sorry, Razor
habs überlesen.
Werd's gleich mal in ein paar Stunden (nach der Nachtschicht) testen..
Danke.
Miro
Ach ja, das Game mag zwar vermurkst sein, ist aber irre spannend und von der Atmosphäre her klasse.
;D ;D
Razor
2003-06-24, 01:31:47
Original geschrieben von mirovb
Ach ja, das Game mag zwar vermurkst sein, ist aber irre spannend und von der Atmosphäre her klasse.
Dem kann ich nur 100%'ig zustimmen !
Und zumindest läßt der 44.65 ja hoffen, da dieser das Problem mit dem AA ja irgendwie zu umgehen scheint (obwohl das ja eigentlich gar nicht möglich sein soll)...
Drücke Dir mal die Daumen, dass es klappt !
Razor
Razor
2003-06-24, 01:32:39
Original geschrieben von nggalai
Hi Razor,
Laut Dany (auf meinen Link oben klicken) liefern im Projected Shadows-Modus alle Karten dasselbe Resultat. Also: vergleichbar.
93,
-Sascha.rb
Cool !
(wenn dem so ist ;-)
Werd' ich bei Gelegenheit mal testen...
Thx for the Info.
Razor
mirovb
2003-06-24, 06:50:31
Hi, das klappt mit dem Projected Shadow Mode in SC, bin begeistert, da die Darstellung nun viel schneller abgeht. Danke Razor !! Jetzt sieht dat schon viel besser mit der FX5900 aus....
:-) :-) :-)
@nggalai
Nur, ob Ihr (Du) glaubt oder nicht: versuchsweise getestet: mit der Radeon 9700 Pro (Sorry wegen des FALSCHEN FORUMS) ;-) und erst seit dem Splinter Cell v.1.2 Patch, sehe Ich Schatten die Ich sonst eigentlich nur mit einer GeForce 4 TI/FX gesehen habe. Ich habe mal zwei Bilder angehängt und die bewegten Schatten mal markiert. Das ist in anderen Spielbereichen genauso....das sind Schatten von "Motten" o.ä. die um eine Lampe kreisen....sonst konnte Ich das nur mit einer Nvidia Karte sehen...
Ist das jetzt über die CPU simuliert oder läuft das über die Grafikkarte ?? Geht doch angeblich nicht, da nur die Karten Buffered Shadows darstellen können und das sowieso nicht in SC für andere Karten "freigeschaltet" ist.. ??!!
Geht aber wirklich erts seit der SC v1.2 und erst durch neues aufspielen des Games, d.h. löschen der alten Spielstände und Neubeginn bei mir !!
Dieser Beitrag bezieht sich auf NGGALAIS Kommentar ein paar Zeilen vorher...
Miro
Also, erst Bild 1:
mirovb
2003-06-24, 06:52:44
Jetzt Bild 2:
(den Beitrag könnt Ihr von mir aus auch in ein anderes Forum verschieben , wenn er nicht hierhin passt!)
nggalai
2003-06-24, 08:37:35
Hi mirovb,
den Schatten sollst Du ja auch sehen, im Projected Shadows Modus. ;) Von Dany:First of all, lets look at a classic scene of SC-PC. Either in the retail game or the demo #2(a/b), open the console (F2) and type "open 1_1_2tbilisi".
If you are running on a GF3/4Ti/FX card, be sure to uncomment the line ForceShadowMode=0 in splintercell.ini (SYSTEM) [ <-- also: in den Projected Shadow Modus wechseln.rb].
Notice that Sam can receive the shadow of the butterflies and the tree.
Notice that the 2 benchs near the wall, they receive the shadow of the butterflies/tree and Sam.
Notice that the the ground (BSP) receives the shadow of Sam/tree/butterflies/benchs.
Projective shadow algorithm:
Step 1:
---------
Decide how many shadow textures you are going to support per light.
SC-PC supports 3 of those per light. This mean that in SC-PC, it's impossible to have an horizontal light doing:
a) A tree casting a shadow on Sam (texture on Sam is texture #1)
b) Sam casting his shadow on a box (texture on first box is texture #2)
c) box casting its shadow on another box (texture on second box is texture #3)
d) finally the ground receiving the shadow of everything (texture on the ground is texture #4)
This would require 4 shadow textures per light. Fortunatly, this doesn't happen very often and 3 textures is enough 95% of the time. In splinter cell, even if the same is fairly flexible, the first texture is called the actor texture and is generally used to render the shadow that will be displayed on Sam. The second texture is called the static mesh texture because it is generally used for shadow pattern casted on static meshes. The last one is the BSP texture (self-explaining).
Several objects in the scene can receive the same shadow texture if they don't cast a shadow on each other.
Step 2:
---------
You need to decide what will be rendered in which texture.
For actor texture, to optimize performance, we tag objects that are always going to be displayed on Sam because Sam can't get in the way between the light and the shadow casting object. This works well for gates and such (butterflies, trees). The actor texture has severe limitations (like no distance check) and if you flag a table to cast a shadow, Sam will end up with the shadow of the table even if he is standing between the light source and the table.
The BSP texture is the easiest, it basically receive every object tagged to cast shadow. No distance check needed. BSP can't cast shadows in SC-PC "projector version" (quite restrictive) so you need to make sure your lights are matching the BSP's "contour" (~shape).
The SM texture is more complicated because there is a system to decide if Sam is going to be displayed in the SM texture base on a distance check. This is tricky because artists rarely put their object center in a consistent manner and an offset often has to be manually tuned.
Step 3:
---------
Do post filtering on the shadows
a) brightness/contrast adjustment
b) base on a per light parameter, blur the shadow, it's constant accross the whole shadow texture so it only creates "fake soft shadows" but I think they look quite nice. The brightness/contrast tuner also add a lot of control in the artist's hands to match the lightmap shadows with the dynamic shadows.
Step 4:
---------
Project the shadow texture (the right one, depending which one they should receive) on each actor/SMs/BSPs if they are meant to be receiving any.(meine Hervorhebungen.)
Im Splinter-Cell ReadMe steht noch mehr zu den Unterschieden drin.
Zur Technik der Shadow-Buffer wie in Splinter-Cell benutzt:The Shadow Buffer version of Splinter Cell is using the D3DFMT_D24 format (Render to Texture).
[...]
As for the D3DFMT_D24S8, well, yes, it's a vendor extension but like I said, NV20 is standard for DX8.
ATI unterstützt kein D3DFMT_D24 unter DX8. Man bräuchte PS1.4, um denselben Effekt hinzukriegen. Aber der 1.2er Patch unterstützt kein PS1.4. Ergo: Shadow Buffer läuft nicht auf ATI-Hardware. Das lässt sich auch nicht emulieren.
Dass Du den Schatten vorm Patch nicht gesehen hast kann einen einfachen Grund haben: Die Schatten-Auflösungseinstellungen waren nicht i.O. und wurden mitm 1.2er gepatcht. Je nach Karte und Einstellungen für die Shadow Maps wurden die falschen Settings in-game verwendet und Details nicht gerendert.
Oh. Auch wichtig bei Vergleichsbenches: Immer mit denselben Auflösungen für die Shadow Maps benchen! Gilt auch für Vergleichsscreenshots.
93,
-Sascha.rb
mirovb
2003-06-24, 08:43:57
@nggalai
Vielen Dank für Deine ausführliche Antwort, bin jetzt genaustens im Bilde.
Was das benchen angeht: habe Ich natürlich alles in derselben Schatten-Auflösung (und Monitor-Auflösung) gemacht, das sind nur Ausschnitte von den Screenshots, zudem noch stark komprimiert und verkleinert (wollte nicht zu viele Ressourcen hier fressen)
Miro
pervert
2003-06-24, 12:49:42
Eine andere Frage zum Thema Schatten:
In Unreal 2 sind die Ränder der Schatten geglättet, so dass man auch mit einer viel geringeren Schattenauflösung klarkommt und es sieht viel besser aus. Die Schatten in SC sind total pixelig, was mich dazu zwingt die Schatten-Settings in SC alle auf maximum zu stellen (und mit ner 4600 dann nur noch in 800x600 spielbar!). Kann man die Schatten nicht so aussehen lassen wie in Unreal 2?
pervert
2003-06-24, 12:50:40
Angekündigt bei Primus Online: Die Leadtek für 371 Euro:
http://www3.primustronix.de/shop/info.asp?product_group=181&service_group=&fct=addToOpenBasket&product_code=GRA741&search_str=&sid=
nggalai
2003-06-24, 13:02:13
Hi pervert,
Original geschrieben von pervert
Eine andere Frage zum Thema Schatten:
In Unreal 2 sind die Ränder der Schatten geglättet, so dass man auch mit einer viel geringeren Schattenauflösung klarkommt und es sieht viel besser aus. Die Schatten in SC sind total pixelig, was mich dazu zwingt die Schatten-Settings in SC alle auf maximum zu stellen (und mit ner 4600 dann nur noch in 800x600 spielbar!). Kann man die Schatten nicht so aussehen lassen wie in Unreal 2? Im Shadow Projector-Modus sollten (!) die Schatten bereits weichgespült sein. Im Shadow Buffer Modus nicht, da kann man dann auch nix dran drehen.
93,
-Sascha.rb
Cenmocay
2003-06-24, 14:24:39
Hat jemand mal nen Bild von der Leadtek 5900 non ultra.
Auf dem Herstellerlink gibts nur den Karton zu sehen:crazy:
Razor
2003-06-24, 15:45:00
Original geschrieben von pervert
Angekündigt bei Primus Online: Die Leadtek für 371 Euro:
http://www3.primustronix.de/shop/info.asp?product_group=181&service_group=&fct=addToOpenBasket&product_code=GRA741&search_str=&sid=
Die ham' auch 'ne Terratec FX5900ultra für € 579,-... aber immerhin verfügbar !
:D
Razor
pervert
2003-06-24, 16:22:24
Original geschrieben von nggalai
Hi pervert,
Im Shadow Projector-Modus sollten (!) die Schatten bereits weichgespült sein. Im Shadow Buffer Modus nicht, da kann man dann auch nix dran drehen.
93,
-Sascha.rb
Ist es dann nicht u. U. besser lieber im Projector Modus zu zocken? Die Pixelschatten nerven tierisch.
Ich frage mich warum die Entwickler so eine scheinbar wichtige Option wie mit dem Schattenmodus nicht im Spielmenü integriert haben, besonders bei der schlechten Performance und der schlechten Vergleichbarkeit.
Gibt es in Unreal 2 eigentlich ähnliche Unterschiede zwischen ATI und NV Darstellung, die dann auch die Performanceunterschiede erklären würden?
Kanns nochmal jemand zusammenfassen: Welche Vorteile bringt der Buffer Modus neben all den Nachteilen denn nun? Was ändert/verbessert sich an der Optik??
pervert
2003-06-24, 16:29:18
Original geschrieben von Cenmocay
Hat jemand mal nen Bild von der Leadtek 5900 non ultra.
Auf dem Herstellerlink gibts nur den Karton zu sehen:crazy:
Die Karten sollen den gleichen Kühler (TwinTurbo II) haben wie die 5800(/Ultra). Frage mich dann allerdings wie laut die sein werden...
http://www.leadtek.com.tw/graphic.shtml
http://www.leadtek.com.tw/3d_graphic/winfast_a300_ultra_td_2.jpg
pervert
2003-06-24, 17:48:44
Hier vielleicht noch eine kleine Entscheidungshilfe zum Thema 5900 oder doch lieber die 5900 ultra?
Es gibt wohl einige Situationen in denen die normale 5900 total erbärmlich absuckt! Ansonsten hält sie aber gut mit der ultra mit. Von dem Review (s.u.) wird man praktisch hin und hergerissen zwischen den beiden Karten - wirklich gelungen:
http://www.ukgamer.com/article.php4?id=5&page=17
Die Ultra führt in diesem Beispiel mit 73% vor der 5900nu!
LovesuckZ
2003-06-24, 17:50:36
Die Karte verliert, weil sie bzw. der Treiber (noch) nicht mit 128MB umgehen kann.
Das Problem ist nur, dass sich dies zur Zeit in jedem Spiel aeußert, dass vierl Speicher benoetigt oder man in hohen Aufloesungen AA dazuschaltet.
Raver
2003-06-24, 17:53:00
obwohl die 5900er OC höher getatket waren als die Ultra... Erklären können die sich das auch nicht.
Ich kann mir vorstellen das Nvidia, wie ATI jetzt die Karten runter regelt, damit man mit dem Performamce nicht so hoch kommt...
pervert
2003-06-24, 17:54:20
Das soll also ein Bug sein?
Hoffen wir das mal. Vielleicht warte ich lieber noch mit dem 5900nu kauf. Finde das nicht witzig :(
Cenmocay
2003-06-24, 17:55:25
Original geschrieben von pervert
Hier vielleicht noch eine kleine Entscheidungshilfe zum Thema 5900 oder doch lieber die 5900 ultra?
Es gibt wohl einige Situationen in denen die normale 5900 total erbärmlich absuckt! Ansonsten hält sie aber gut mit der ultra mit. Von dem Review (s.u.) wird man praktisch hin und hergerissen zwischen den beiden Karten - wirklich gelungen:
http://www.ukgamer.com/article.php4?id=5&page=17
Die Ultra führt in diesem Beispiel mit 73% vor der 5900nu!
Das ist ja totaler Quatsch der Benchmark !!!
Das einzige was die 5900 von der Ultra unterscheidet
SIND 50 Mhz mehr Chiptakt MEHR nicht ALSO ist der Benchmark toootaler MIST !!!:balla: :motz:
Raver
2003-06-24, 17:56:32
Ja bin auch am schwanken... jetzt nicht nur Marke sondern auch ob Ultra oder non Ultra...
Zumindest wollten die Jungs von ukgamer der Sache mal nach gehen. Eizig was mich sört ist das Sie die 44.03 genommen haben und nicht die 44.65.
pervert
2003-06-24, 17:56:34
Hallo??
Hast wohl ein bischen Ram vergessen, was?
Cenmocay
2003-06-24, 17:59:42
Original geschrieben von pervert
Hallo??
Hast wohl ein bischen Ram vergessen, was?
Die MSI und Leadtek hat 850 Mhz RAMtakt GENAU wie die Ultra !
WAS SAGST DU NUN ?
Einziger Unterschied ist 50 (FÜNFZIG) Mhz Chiptakt - DAS IST FAKT.
pervert
2003-06-24, 18:01:43
Sag mal bist Du schwer von Begriff oder was?
Die Ultra hat 256MB Ram und die non-ultra nur 128!
Cenmocay
2003-06-24, 18:02:00
Original geschrieben von pervert
Hier vielleicht noch eine kleine Entscheidungshilfe zum Thema 5900 oder doch lieber die 5900 ultra?
Es gibt wohl einige Situationen in denen die normale 5900 total erbärmlich absuckt! Ansonsten hält sie aber gut mit der ultra mit. Von dem Review (s.u.) wird man praktisch hin und hergerissen zwischen den beiden Karten - wirklich gelungen:
http://www.ukgamer.com/article.php4?id=5&page=17
Die Ultra führt in diesem Beispiel mit 73% vor der 5900nu!
Geh mal auf VERNÜNFTIGE Seiten !
LovesuckZ
2003-06-24, 18:02:47
Original geschrieben von Raver
Ja bin auch am schwanken... jetzt nicht nur Marke sondern auch ob Ultra oder non Ultra...
Zumindest wollten die Jungs von ukgamer der Sache mal nach gehen.
Liegt am Ram,Ram,Ram. Selbst die übertakteten karten sind kaum schneller als die Standard 5900 trotz hoeheren Takt beim Core und Speicher als die Ultra.
Eizig was mich sört ist das Sie die 44.03 genommen haben und nicht die 44.65.
44.65 ist ein beta Treiber. Zum Testen sollte man nur die offiziellen nehmen.
Omnicron
2003-06-24, 18:03:12
Original geschrieben von Cenmocay
Die MSI und Leadtek hat 850 Mhz RAMtakt GENAU wie die Ultra !
WAS SAGST DU NUN ?
Einziger Unterschied ist 50 (FÜNFZIG) Mhz Chiptakt - DAS IST FAKT.
Ich denke er meinte die 128 MB Ram, die die Ultra mehr hat....
Und BITTE NICHT SO SCHREIEN :chainsaw:
Cenmocay
2003-06-24, 18:04:39
Original geschrieben von pervert
Sag mal bist Du schwer von Begriff oder was?
Die Ultra hat 256MB Ram und die non-ultra nur 128!
Du checkst es nicht !
Schau dir mal den Unterschied zw. 9800 Pro mit 128 und mit 256 an - DAS IST REAL .
Der 5900ter Unterschied ist Q U A T S C H
Bei 1024 beträgt der Unterschied 5 FPS
und bei 1280 sind es 42 FPS das ist was falsch gelaufen
pervert
2003-06-24, 18:11:40
Tja, man kann die ATI-Karten aber nicht so genau mit den NV vergleichen. Bei der 256er Ultra soll z. B. das FSAA schneller sein (steht am Anfang des Threads!) wenn bei der 128er der Speicher knapp wird, wenn auch nicht in dem Umfang wie es der Benchmark zeigt (denke ich mal). Also vergleiche hier bitte nicht Äpfel mit Birnen!
UND MÜLL DEN THREAD NICHT ZU!
Danke!
Cenmocay
2003-06-24, 18:26:23
Beim dem Benchmark funzt ut2003 nicht richtig !
Nehmen wir Serious Sam
1280 Auflösung
Ultra 90,7 FPS
nonultra 88,5
1600 Auflösung
Ultra 68.0
nonultra 64,1
und das aufwendige Game Splinter Cell
1280 Auflösung
ultra 30 FPS
nonultra 31 FPS
das sagt mir die Ultra braucht man sich für diesen hohen Aufpreis NICHT holen !;D
pervert
2003-06-24, 18:32:11
Du kannst nicht verschiedene Games miteinander vergleichen.
Aber ich gehe hier auch mal eher von einem Bug aus und hoffe das es sich in Zukunft NICHT mit jedem modernernen speicherhungrigen Game was da noch kommen mag so verhält.
Ich tendiere auch nach wie vor zur NU, aber wer zuviel Geld hat, kann ja auch gleich auf Numemr sicher gehen :)
FAKT ist, der Performanceunterschied wird da sein (und mehr als nur die 13% Taktunterschied), wenn sich der Speicherhunger richtig breit macht. Wieviel das dann wirklich sein wird, ohne Bugs, bleibt wohl noch abzuwarten...
AlfredENeumann
2003-06-24, 20:01:34
auch wenn Cenmocay sonst viel Müll schreibt, aber diesmal schließe ich mich ihm an. Da kann was nicht stimmen.
nggalai
2003-06-24, 20:57:29
Naja, kann schon am RAM liegen, und natürlich auch am Benchmark--Suntemple braucht nicht gerade wenig Platz für Texturen (unter full quality), 1280x1024 belegt bei 4x auch anständig Speicher, Framebuffer, wenn's noch triple-buffering an hatten erst recht, und da die GFFX5900 augenscheinlich auch 4xMSAA über den "RAMDAC" erledigen kann, geht gleich nochmals RAM druff . . .
Und wenn das RAM ausgeht, müssen die Texturen halt über den AGP.
93,
-Sascha.rb
LovesuckZ
2003-06-24, 20:59:32
Original geschrieben von nggalai
Naja, kann schon am RAM liegen, [...] da die GFFX5900 augenscheinlich auch 4xMSAA über den "RAMDAC" erledigen kann, geht gleich nochmals RAM druff . . .
93,
-Sascha.rb
weißt du, ob man das per Treiber aendern koennte? Sonst sehe ich schwarz fuer die 5900 nU...
robbitop
2003-06-24, 21:12:10
wieso?
bandbreite ist genug vorhanden
LovesuckZ
2003-06-24, 21:15:52
Original geschrieben von robbitop
wieso?
bandbreite ist genug vorhanden
Was hilft ihr bandbreite, wenn der Speicher zu wenig ist?
(Siehe Test von UK Gamer, denn selbst die übertakteten 5900 sind kaum schneller als die normalen...)
nggalai
2003-06-24, 21:16:02
Hi LovesuckZ,
ich denke kaum. Allerdings ist das da oben natürlich nur Spekulation. ;) Ich weiss nicht, wie sich die GFFX verhält--ob bei 128MB-Modellen nicht 4xMSAA bei Auflösungen >1024x768 so gehandhabt wird (i.e. nur bei 256MB), und ob wir daher den Speedup durch diese "RAMDAC"-Filterung sehen, bei der Ultra, oder ob meine Speku oben zutrifft (i.e. wird immer im "RAMDAC" gefiltert -> zuwenig Platz -> AGP Texturing).
Wenn man sich die Benches unter gleichen Einstellungen und bei 1024x768 anschaut, liegen Ultra und Non-Ultra recht nahe aufeinander. Ich wüsste nicht, wieso der Treiber dann plötzlich bei einer höheren Einstellung Terror machen sollte. Ich dachte zuerst ans Seitenverhältnis (der Botmatch liefert je nach Seitenverhältnis der Auflösung verschiedene Ergebnisse), aber bei 1600x1200 sehen die Ergebnisse gleich (schlecht) aus, für die non-Ultra. Bei "Quality" gegenüber "High Performance" limitiert wohl dann langsam das AF.
Aber eben: alles Spekulation. Auf alle Fälle mehr Benchmarks und neue, offizielle Treiber abwarten, bevor man verbindliche Schlüsse zieht.
93,
-Sascha.rb
Cenmocay
2003-06-24, 21:58:28
Original geschrieben von AlfredENeumann
auch wenn Cenmocay sonst viel Müll schreibt, aber diesmal schließe ich mich ihm an. Da kann was nicht stimmen.
Werd nicht frech Fatzke:asshole:
Razor
2003-06-24, 22:06:53
Original geschrieben von Cenmocay
Werd nicht frech Fatzke:asshole:
Sorry, aber Du hst echt einen Hackenschuß... einen mächtigen sogar.
Und Dein Avatar spricht Bände...
Razor
LovesuckZ
2003-06-24, 22:12:55
Original geschrieben von pervert
http://www.ukgamer.com/article.php4?id=5&page=17
Mit dem Treiber 44.65 komme ich mit meiner 5800 "Ultra" bei 4AA/8HAF auf eine avarage von 81FPS...
dom-suntemple
Resolution Average FPS
1280x1024 81.738701
Cenmocay
2003-06-24, 22:21:26
Original geschrieben von Razor
Sorry, aber Du hst echt einen Hackenschuß... einen mächtigen sogar.
Und Dein Avatar spricht Bände...
Razor
Oh jetzt wird hier also beleidigt .
Was bist du dann ?
mirovb
2003-06-24, 22:56:53
Ich hab ja schon so ne Ahnung gehabt...Ich hoffe es wird mit neuen Treibern ein wenig besser...aber ehrlich gesagt, glaube Ich nicht so sehr daran....auch in der PC Games Harwdare hat die GF FX5900 Ultra und NonUltra nicht so gut abgeschnitten, wie Ich mir das von einer neuen GeForce mit 256 Bit Speicherbus vorgestellt habe.
Mit dem "neuen" Beta 44.65 Treiber liefs bei mir nicht besser. Siehe auch etliche Treibervergleiche im Internet.
Das sieht wirklich teilweise so aus, als wären die Karte -für momentane Games jedenfalls- nicht viel schneller als ne 5800/Ultra...was für mich soviel bedeutet, das Speicherbadbreite nun mal bei der GF FX wohl nicht das EIGENTLICHE Problem darstellt hinsichtlich Performance, sondern die GPU hier wohl das Nadelöhr darstellt. Und Nvidia rückt ja nicht mit vielen "Geheimnissen" raus.... wir werden ja sehen, was dabei rauskommt.
Was aber Deutlich positiv mit dem neuenSpeicherinterface rausgekommen ist, das die RAMs nicht mehr so heiss werden und man keine "Turbo-Flux-Komensator-Luftturbinen-Kühlmonster" mehr braucht, bei denen man sich nur die Ohren zuhalten konnte. Es arbeiten -jedenfalls bei meiner GF FX5900 von MSI- absolut leise Kühler, und die Karte ist dementsprechend kleiner.
Doch die Leistung muss natürlich für so eine Karte besser sein, als im MOment. Sonst verliert man trotz der Massnahmen weiter an Boden..
Miro
@cenmocay
Du kennst wohl nur Kraftausdrücke, aber sachlich diskutiert wird, hört und sieht man nichts mehr von Dir. Ist mir schon x-mal aufgefallen...
pervert
2003-06-25, 01:00:16
Original geschrieben von nggalai
Hi LovesuckZ,
ich denke kaum. Allerdings ist das da oben natürlich nur Spekulation. ;) Ich weiss nicht, wie sich die GFFX verhält--ob bei 128MB-Modellen nicht 4xMSAA bei Auflösungen >1024x768 so gehandhabt wird (i.e. nur bei 256MB), und ob wir daher den Speedup durch diese "RAMDAC"-Filterung sehen, bei der Ultra, oder ob meine Speku oben zutrifft (i.e. wird immer im "RAMDAC" gefiltert -> zuwenig Platz -> AGP Texturing).
Also wenn die fx5900 anstelle einer anderen fsaa methode bei speichermangel tatsächlich und dümmlich auf agp texturing ausweichen muss, wären die einbrüche des gezeigten benchmarks sicher wieder realistisch. Aber das kann ich mir einfach nicht vorstellen, dass sich das so verhält, bzw. auch in zukunft nicht besser durch den treiber gelöst werden würde...
whtjimbo
2003-06-25, 08:13:31
Original geschrieben von LovesuckZ
Mit dem Treiber 44.65 komme ich mit meiner 5800 "Ultra" bei 4AA/8HAF auf eine avarage von 81FPS...
dom-suntemple
Resolution Average FPS
1280x1024 81.738701
soll 8HAF , 8x HighPerformance AF bedeuten? hmm, dann lieber doch radeon 9800 pro :)
Exxtreme
2003-06-25, 08:53:15
Original geschrieben von Cenmocay
Werd nicht frech Fatzke:asshole:
Wo AEN recht hat, hat der recht.
60% deiner Postings sind leider sinnloses Geblubber.
Weitere 35% sind Flames gegen ATi.
Mit den restlichen 5% kann man was anfangen.
Weniger reißerisch und aggressiv posten und vor dem Posten überlegen, was man eigentlich sagen will und schon sieht die Sache besser aus.
nggalai
2003-06-25, 09:24:58
Hi pervert,
Original geschrieben von pervert
Also wenn die fx5900 anstelle einer anderen fsaa methode bei speichermangel tatsächlich und dümmlich auf agp texturing ausweichen muss, wären die einbrüche des gezeigten benchmarks sicher wieder realistisch. Aber das kann ich mir einfach nicht vorstellen, dass sich das so verhält, bzw. auch in zukunft nicht besser durch den treiber gelöst werden würde... Das Problem ist in der Hinsicht die Unreal Engine, eine der letzten modernen Engines, die auf AGP Texturing setzt. i.e. die Engine macht das eh gerne, zwischendurch, sozusagen "dynamisch" mal etwas Texturen ausm Arbeitsspeicher zu verwenden statt einfach kurz Texturen zu swappen resp. hochzuladen.
Aber eben, ich will noch mehr Resultate sehen, auch mit anderen Treibern. Zu LovesuckZ vergleich: Ich bekomm beim dm_suntemple mit einer 5800er und einem 2.7er P4 gerade mal 34fps in den Einstellungen, wo ukgamer getestet haben. Bei 800x600 ohne FSAA und AF immernoch nur knapp 45-47fps. Grund? 43.45er Treiber.
93,
-Sascha.rb
RyoHazuki
2003-06-25, 11:07:09
ich sag nur 1. Juli ....
Albatron GeForce FX5900 Ultra 256 MB
Jetzt kann DOOM3 kommen...
Genauso wie/oder :
- Final Fantasy XI
- Unreal Tournament 2003 (so hoch wie es nur geht)
- Enclave (so hoch wie es nur geht)
- Unreal 2 (so hoch wie es nur geht)
- Dark Age of Camelot (*gg* 1600x1200 @ 8xAA + 16xAF)
JUHUUUUU...
Raver
2003-06-25, 17:32:44
Wenn man AA & AF ausstellt. sollten doch die 5900nU Oc & 5900U doch halbwegs gleich sein!?
pervert
2003-06-25, 19:33:27
Die sind immer gleich bei gleichem Takt, solange der Speicherunterschied nicht zum tragen kommt. Aber das ist ja der Knackpunkt, das es scheinbar selten aber dann heftig passieren kann.
M.Ü.C.
2003-06-25, 23:43:34
Ich weiss echt nicht, wo das Problem mit diesem Benchmark liegen soll, der Unterschied zwischen FX Ultra und non Ultra ist mit Sicherheit auf die Nutzung des RamDacs zum Downsampling zurückzuführen. Steht ja auch groß und deutlich drüber: 1280*1024 bei 4*FSAA. Mit der Tatsache des Leistungsunterschiedes bei der Nutzung von 4*FSAA in höheren Auflösungen wird man wohl leben müssen. Ist doch auch irgendwie beruhigend, das es wenigstens EIN Argument für die Existenz der Ultra gibt :) . Und 1280*1024 mit 2*FSAA und 8*AF sieht mit Sicherheit auch allerleckerst aus..
pervert
2003-06-26, 00:20:46
NOCH mag das stimmen, aber ich habe echt keinen Bock in einem Jahr 4x Kantenglättung nur noch bei 640x480 fahren zu können (ohne außergewöhnliche Einbrüche) und wie sieht das erst bei 8xS usw aus???
Bin mittlerweile so sauer, das ich echt ernsthaft daran denke ins ATI-Lager zu wechseln. :bonk:
Ja lacht mich aus, auch wenn ich 5 postings vorher geschrieben habe, dass würde ich NIE tun. :)
Aber habe ich wirklich Lust auf Karten, die gerne mal um 50% einbrechen, maximal kosten und nur Standard bieten?
NV macht es einem wirklich nicht leicht sich weiterhin für deren Karten zu begeistern. Vielleicht sind die ja so toll, dass sie sie lieber für sich behalten wollen ;D ;D
pervert
2003-06-26, 00:52:25
Original geschrieben von pervert
Die Karten sollen den gleichen Kühler (TwinTurbo II) haben wie die 5800(/Ultra). Frage mich dann allerdings wie laut die sein werden...
Ein Nachtrag, hier ein Originalbild aus dem Prospekt der 5900nu:
Laut und häßlich?
Omnicron
2003-06-26, 01:16:50
Original geschrieben von pervert
Laut und häßlich?
Ich finde sie nicht hässlich und wieso soll sie laut sein ?
Cenmocay
2003-06-26, 01:36:11
Original geschrieben von Omnicron
Ich finde sie nicht hässlich und wieso soll sie laut sein ?
Ist der gleiche Kühler wie bei dem 5800 und dort wurde er als LAUT beurteilt.
Raver
2003-06-26, 07:35:28
richtig. Zumindest lauter als viele andere FX-Karten. Dazu habe ich kein bock wenn ich mal die Lüfter sauber machen will, die halbe Grafikkarte auseinander zu nehmen...
nggalai
2003-06-26, 08:40:22
Hi Pervert,
Original geschrieben von pervert
NOCH mag das stimmen, aber ich habe echt keinen Bock in einem Jahr 4x Kantenglättung nur noch bei 640x480 fahren zu können (ohne außergewöhnliche Einbrüche) und wie sieht das erst bei 8xS usw aus???
[...]
Aber habe ich wirklich Lust auf Karten, die gerne mal um 50% einbrechen, maximal kosten und nur Standard bieten?
NV macht es einem wirklich nicht leicht sich weiterhin für deren Karten zu begeistern. Vielleicht sind die ja so toll, dass sie sie lieber für sich behalten wollen ;D ;D Naaaja. Der Qualitätsunterschied zwischen NVs 2xRGMS und 4xMSAA ist in solchen Auflösungen sehr klein. Hab's selbst schon oft genug ausprobiert, und 4xMSAA bringt in den wenigsten Fällen was, wenn man Auflösungen von >1152x864 fährt. Selbst bei 1024x768 noch sind die Unterschiede zu gering, als dass der erhebliche Leistungsmehraufwand gerechtfertigt wär. Wenn ein Spiel eh schnell genug läuft, dann sicher gerne 4xMSAA, aber sonst? 2xRGMS, bitte.
8xS ist eh sehr, sehr langsam. Der Füllratenverbrauch ist enorm, das wirst Du bei aktuellen und zukünftigen Spielen eh nur bei Auflösungen <800x600 vernünftig brauchen können. Ausserdem verwendet 8xS 2x2SSAA plus 2xRGMS, i.e. die Sache mitm Downsampling im "RAMDAC" kommt nicht zum tragen, wie übrigens bei allen Mixed-Modi. Da wird "normal" gesampelt. 8xS braucht aber schon so scheissviel Speicherplatz (Framebuffer ist 4x grösser als ohne FSAA).
Und ansonsten, halt eben: dann muss die Ultra her, wenn dir 4xMSAA in hohen Auflösungen und neuen Spielen (= viel Texturspeicher-Verbrauch) so wichtig ist. Ich seh das Problem nicht. Dass ATI das bessere FSAA hat wissen wir echt schon bald ein Jahr. ;)
93,
-Sascha.rb
pervert
2003-06-26, 20:26:10
Original geschrieben von M.Ü.C.
Ich weiss echt nicht, wo das Problem mit diesem Benchmark liegen soll, der Unterschied zwischen FX Ultra und non Ultra ist mit Sicherheit auf die Nutzung des RamDacs zum Downsampling zurückzuführen. Steht ja auch groß und deutlich drüber: 1280*1024 bei 4*FSAA. Mit der Tatsache des Leistungsunterschiedes bei der Nutzung von 4*FSAA in höheren Auflösungen wird man wohl leben müssen. Ist doch auch irgendwie beruhigend, das es wenigstens EIN Argument für die Existenz der Ultra gibt :) . Und 1280*1024 mit 2*FSAA und 8*AF sieht mit Sicherheit auch allerleckerst aus..
Dumm nur, dass man dann auf eine 5900 non-ultra auch ganz verzichten kann. Wozu braucht man sonst die ultimative Speicherbandbreite und die verbesserte Farbkompressionstechnik, wenn nicht gerade für fette Kantenglättung? Und das kann man dann gerade nicht nutzen, weil der Speicher ausgeht? HAHA HIHI HOHO :bonk:
Nein danke, ich habe tatsächlich den Entschluss gefasst und werde (erstmal) das Lager wechseln, auch wenn ich mir gewisser Nachteile durchaus bewusst bin. Ist einfach das kleinere "Übel" zur Zeit. Habe genug von NV Verarsche.
Die letzten 9700 Pro gibbet für nur 290 Euro bei eBay :) Irgendwie besser als 380.- für ne FX5900 mit zu wenig Speicher, schlechter oder nicht funktionierender Kantenglättung (seit nem halben Jahr!) usw. Ich warte auch schon seit der Voodoo5/Geforce2 darauf, dass NV endlich mal ne 4x RGMSAA bietet, jetzt hole ich es mir einfach! Und 16x AF ist für einen Tiefenschärfefanatiker wie mich auch gerade richtig! Bisher konte ich sowas nur als Diashow "simulieren" mit dem lächerlich langsamen 8xS FSAA... (habe es geschafft damit Unreal 2 Situationsabhängig auf 1(!) Bild pro Sekunde zu drücken!!!)
pervert
2003-06-26, 20:37:01
Original geschrieben von nggalai
Und ansonsten, halt eben: dann muss die Ultra her, wenn dir 4xMSAA in hohen Auflösungen und neuen Spielen (= viel Texturspeicher-Verbrauch) so wichtig ist. Ich seh das Problem nicht. Dass ATI das bessere FSAA hat wissen wir echt schon bald ein Jahr. ;)
Eigentlich würde ich gerne 8xS in 1024 nutzen, um eine vergleichbare Bildqualität wie ATI zu bekommen. DUmm nur, dass ich dan ein "winziges bischen" langsamer bin (you are about to enter slideshow mode now!) und mir lieber gleich ATI kaufe.
Seit wann genau bietet ATI das eigentlich? Seit Einführung der 9700pro?
Ich gebe beschämt zu, dass mir das erst vor kurzem aufgefallen ist (NV geblendet :))
P.S. Wie findet ihr meinen neuen Avatar? Kann man das noch durchgehen lassen ? :asshole:
pervert
2003-06-26, 21:12:17
Nochmal was zum Thema!
Hier gibts ne Albatron 5900 ULTRA für unglaublich 449 Euro (statt der üblichen 520+):
http://www.prisma-ct.de
Da sollte man zuschlagen!
Mr. Anderson
2003-06-26, 22:00:47
Nimm das letzte bitte raus muß doch nicht jeder erfahren:D
Avatar: die trinkt nur Milch:bäh:
pervert
2003-06-26, 22:08:46
Original geschrieben von Mr. Anderson
Avatar: die trinkt nur Milch:bäh:
Was denn sonst?? :)
Mr. Anderson
2003-06-26, 23:45:32
So die 5900 Karten gibt es ja jetzt und wo bleiben die neuen Demos für den NV35 ???
Nvidia bietet sie immernoch nicht an:(
Bekommt man die neuen Demos ( Feuerteufel,Tankstelle) mit einer 5900 Ultra mitgeliefert ???
Asuka
2003-06-27, 00:32:08
Original geschrieben von pervert
P.S. Wie findet ihr meinen neuen Avatar? Kann man das noch durchgehen lassen ? :asshole: Ganz nett, aber sieht aus, als wenn sie einen üblen Sonnebrand im Gesicht hätte :freak:
So sollte sie normalerweise aussehen:
pervert
2003-06-27, 00:54:58
Ja, aber erst nachdem Du sie ein Jahr bei dir im Keller als Sklavin gehalten hast und sie seitdem kein Sonnenlicht mehr gesehen hat ;)
Nachtrag: okay habe sie bearbeitet. Hatte eine schlechte Tonwertkorrektur durchgeführt und das Bild wurde zu dunkel.
Jetzt siehst Du das Original.
pervert
2003-06-27, 01:05:19
Ich bin ein Sünder!
:-(
BESTRAFET MICH! :chainsaw:
Habe gerade zum heldenhaften Preis von 250.- Euro eine 9700 pro bei eBay ersteigert - nagelneu :-) Im Geschäft um die Ecke bot man mir eine für 360 an hihihi.
Das reicht erstmal zum ATI-ausprobieren :)
Schande über mich ;)
nggalai
2003-06-27, 08:32:56
Original geschrieben von pervert
Ich bin ein Sünder!
:-(
BESTRAFET MICH! :chainsaw:
Habe gerade zum heldenhaften Preis von 250.- Euro eine 9700 pro bei eBay ersteigert - nagelneu :-) Im Geschäft um die Ecke bot man mir eine für 360 an hihihi.
Das reicht erstmal zum ATI-ausprobieren :)
Schande über mich ;) Guter Preis, Pervert! Für den Preis hätt' ich mir warscheinlich auch eine Radeon9700Pro geholt statt der GFFX. Obwohl, die 5800er hab' ich nochmals ein Stück billiger erhalten . . . Naja. 250.- geht jedenfalls schwer in Ordnung. Viel Spass damit! :)
93,
-Sascha.rb
P.S. Ist der Avatar aus dieser "Got Milk?" Kampagne? -.rb
pervert
2003-06-27, 12:11:15
Naja...
Wieviel "Spass" ich damit haben werde, wird sich zeigen.
Habe gestern noch einen Thread entdeckt, wo es darum ging, dass der Treiber der ATI wohl gerne mal nicht alle Texturstages trilinear filtert (z. B. Detail-Textures in Max Payne). Wehe da fehlt das AF auch noch - dann krieg ich ne Kriese :) (Ich nehme schonmal Vorbestellungen für eine 9700pro entgegen :))
Asuka
2003-06-27, 12:30:43
Original geschrieben von pervert
Ja, aber erst nachdem Du sie ein Jahr bei dir im Keller als Sklavin gehalten hast und sie seitdem kein Sonnenlicht mehr gesehen hat ;)*eg* *eg* *eg*
Nachtrag: okay habe sie bearbeitet. Hatte eine schlechte Tonwertkorrektur durchgeführt und das Bild wurde zu dunkel.
Jetzt siehst Du das Original. Na, ist doch schon etwas besser.
Ne 9700Pro für 250 Eier ist ja schon ganz gut. Da wünsch ich dir noch viel "Spaß" mit den Ati-Treibern jetzt und mit dem "tollen" Ati-AF :D
Mr. Anderson
2003-06-27, 13:14:02
Gibts irgendwo ein gutes Review von der Albatron 5900 Ultra ?
Suche besonders Bilder von 5900Ultra- wenns geht im eingebauten Zustand.
Die Karte hat doch Led-Fans und das muß doch im Dunkel cool ausschauen:D
Winter[Raven]
2003-06-27, 13:24:10
Nop, es gibt noch keine Reviews der Karte ;) habe auch shcon heute gesucht.
Ich will ne WAku druff setzen *fg* Dann sind da paar Mhz mehr drinne *fg*
Mr. Anderson
2003-06-27, 13:44:01
Die Gaynward sieht auf den meisten Pics nicht sooo gut aus aber es gibt doch gute
DARK (http://www.hardocp.com/images/articles/1056256325LJQXMOoYLw_1_6_l.jpg)
zoom (http://www.hardocp.com/images/articles/1056256325LJQXMOoYLw_1_10_l.jpg)
Kommt echt cool
Winter[Raven]
2003-06-27, 13:46:27
Jou sieht ned so doll das der kühler, da sieht um die wahreheit zu sagen sogar der Nvidia's Referenzkühler besser aus :P
Raver
2003-06-27, 16:43:01
Mir gefällt der Kühler ganz gut.
Wenn jemand was über den Albatron FX 5900 findet, soll es mal hier posten.
pervert
2003-06-27, 16:47:55
Original geschrieben von pervert
Ich bin ein Sünder!
:-(
BESTRAFET MICH! :chainsaw:
Habe gerade zum heldenhaften Preis von 250.- Euro eine 9700 pro bei eBay ersteigert - nagelneu :-) Im Geschäft um die Ecke bot man mir eine für 360 an hihihi.
Das reicht erstmal zum ATI-ausprobieren :)
Schande über mich ;)
NACHTRAG:
Es war ein gemoddeter Fake :( Dumm gelaufen, habe das aber geklärt und sie nicht abgenommen, bzw bezahlt.
Aber das wird schon in einem anderen Thread diskutiert:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=79074&perpage=20&pagenumber=1
Mr. Lolman
2003-06-27, 18:30:48
Original geschrieben von Mr. Anderson
Die Gaynward sieht auf den meisten Pics nicht sooo gut aus aber es gibt doch gute
DARK (http://www.hardocp.com/images/articles/1056256325LJQXMOoYLw_1_6_l.jpg)
zoom (http://www.hardocp.com/images/articles/1056256325LJQXMOoYLw_1_10_l.jpg)
Kommt echt cool
Sry, ist es aber eiogentlich nicht sh1ce egal wie die GraKa aussieht. Vorallem, da der Kühler sowieso nach unten sieht, und selbst bei einem Casemod, man nicht sehen würde wie toll der Kühler der GraKa jetzt aussieht.
Original geschrieben von Mr. Lolman
Sry, ist es aber eiogentlich nicht sh1ce egal wie die GraKa aussieht. Vorallem, da der Kühler sowieso nach unten sieht, und selbst bei einem Casemod, man nicht sehen würde wie toll der Kühler der GraKa jetzt aussieht.
Laß mal die Kinnersch machen, die bauen sich doch auch blauen Zündkabel in ihren Oppel, die sieht man normaler weise auch nicht.:lol:
Gast999
2003-06-28, 13:13:29
Original geschrieben von pervert
Ein Nachtrag, hier ein Originalbild aus dem Prospekt der 5900nu:
Laut und häßlich?
Nicht lauter als meine "ehemalige" Ati 9700pro :-(
Hässlich? Kommt drauf an was du mit der Karte sonst noch anstellen willst, außer sie ins Gehäuse schieben :D
Endlich wieder Nvidia und problemlos Zocken.
Mr. Anderson
2003-06-28, 14:22:28
alle 5900 pegeln sich bei ca. 400 ein,selbst Sparkle und von denen hätte ich einen besseren Preis erwartet.
Sparkle ist doch als Preisbrecher bekannt.
Richthofen
2003-06-28, 15:10:55
Original geschrieben von Mr. Anderson
alle 5900 pegeln sich bei ca. 400 ein,selbst Sparkle und von denen hätte ich einen besseren Preis erwartet.
Sparkle ist doch als Preisbrecher bekannt.
Kann ich nich ganz nachvollziehen, es sei denn 375 sind bei dir auch 400 Euro :)
Die Prolink gibts lagernd ab 375 Euro
Die Leadtek gibts lagernd ab 372 Euro
Die MSI ebenfalls lagernd ab 388 Euro.
Alles laut geizhals.
Mr. Anderson
2003-06-28, 16:36:17
Original geschrieben von Richthofen
Kann ich nich ganz nachvollziehen, es sei denn 375 sind bei dir auch 400 Euro :)
Die Prolink gibts lagernd ab 375 Euro
Die Leadtek gibts lagernd ab 372 Euro
Die MSI ebenfalls lagernd ab 388 Euro.
Alles laut geizhals.
Weiß du was " ca. " heißt ,oh man
pervert
2003-06-29, 09:32:24
Nie wieder dummes nicht funktionierendes FSAA und all den anderen NV-Bockmist!
Hab jetzt die hier. 356 Euro!!!
JUUUUHUUUUUUUUUUU :D :D :D :D :D
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1012899#post1012899
Gohan
2003-06-29, 09:36:42
Original geschrieben von pervert
Nie wieder dummes nicht funktionierendes FSAA und all den anderen NV-Bockmist!
Hab jetzt die hier.
JUUUUHUUUUUUUUUUU :D :D :D :D :D
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1012899#post1012899
Wo funktioniert nVs AA nicht? Was ist der andere NV Bockmist? Also so nen unqualifizierten Kommentar von dir hät' ich nicht erwartet...
LovesuckZ
2003-06-29, 09:42:43
Original geschrieben von Gohan
Wo funktioniert nVs AA nicht? Was ist der andere NV Bockmist? Also so nen unqualifizierten Kommentar von dir hät' ich nicht erwartet...
GF3/4 mit dem Treiber unter 44.65. Eventuell.
Gohan
2003-06-29, 09:45:26
Original geschrieben von LovesuckZ
GF3/4 mit dem Treiber unter 44.65. Eventuell.
Bei ATi eine laaaaange Zeit unter 16 Bit nicht ;) Zumal steht da evtl. und ausserdem ist der 44.65 BETA. Das ist also wirklich kein Agrument, nVs AA als nicht funktionierend zu bezeichen im gegensatz zu ATi.
pervert
2003-06-29, 09:46:43
SEIT NEM HALBEN JAHR FUNKTIONIEREN NICHT ALLE FSAA MODI IN VIELEN SPIELEN!!! Und in letzter Zeirt wurde es imemr schlimmer!
Das weiss ja wohl fast jeder!!!
Aber nur darum gehts ja gar nicht. Ich habs hinter mir!
Gohan
2003-06-29, 09:48:12
Original geschrieben von pervert
SEIT NEM HALBEN JAHR FUNKTIONIEREN NICHT ALLE FSAA MODI IN VIELEN SPIELEN!!! Und in letzter Zeirt wurde es imemr schlimmer!
Das weiss ja wohl fast jeder!!!
Wow, tripple Post :D Nen mal die Spiele bitte, ich hab davon noch nichts gehört geschweige denn gesehen.
LovesuckZ
2003-06-29, 09:49:08
Original geschrieben von Gohan
Bei ATi eine laaaaange Zeit unter 16 Bit nicht ;) Zumal steht da evtl. und ausserdem ist der 44.65 BETA. Das ist also wirklich kein Agrument, nVs AA als nicht funktionierend zu bezeichen im gegensatz zu ATi.
Naja, Guys mit einer GF3/4 hatten mit den letzten Treibern ein paar Probs mit MSSA, seit dem 44.65 funktioniert es in jedem Game wieder.
pervert
2003-06-29, 09:50:55
Original geschrieben von Gohan
Wow, tripple Post :D Nen mal die Spiele bitte, ich hab davon noch nichts gehört geschweige denn gesehen.
Nö, brauch ich nicht, die meisten wissen bescheid (nagut zwei: Morrowind, Mafia).
Zuletzt lief nicht mal mehr OGL+FSAA (gesehen Elite Force2)mit dem 44.65 vernünftig mit fsaa (auch wenn man das mit nem anderen Treiber hätte ändern können)
Ja tripple post, ging irgendwas schief.
LovesuckZ
2003-06-29, 09:51:38
Original geschrieben von pervert
Zuletzt lief nicht mal mehr OGL+FSAA (gesehen Elite Force2)mit dem 44.65 vernünftig mit fsaa (auch wenn man das mit nem anderen Treiber hätte ändern können)
Wie hat sich das denn bemerkbar gemacht? Eventuell in stottern?
pervert
2003-06-29, 09:51:46
Original geschrieben von LovesuckZ
Naja, Guys mit einer GF3/4 hatten mit den letzten Treibern ein paar Probs mit MSSA, seit dem 44.65 funktioniert es in jedem Game wieder.
Stimmt absolut NICHT! Seit dem 44.65 funktioniert es auf meiner 4600 fast gar nicht mehr fehlerfrei!
@Love...
Nein, Modus funktioniert nicht korrekt (MS oder SS Anteile fehlten) oder unscharf verwischt und und und. Einfach lame.
Gestottert haben die meisten Spiele aber immer irgendwo. Seltsam dass sich das gerne mal von einem zum anderen Treiber änderte. Aber das ist ein anderes Thema. Mal gucken wie rund es mit ATI läuft.
ATIs 6x AA = LOVE :love2: :love2: :love2: :love2:
Von sowas werden NV-User noch die nächsten 10 Jahre träumen können, so einen Scheiss wie NV gerade mit dem FSAA treibt!
pervert
2003-06-29, 09:55:14
Original geschrieben von Gohan
Bei ATi eine laaaaange Zeit unter 16 Bit nicht ;) Zumal steht da evtl. und ausserdem ist der 44.65 BETA. Das ist also wirklich kein Agrument, nVs AA als nicht funktionierend zu bezeichen im gegensatz zu ATi.
Ja, ATI hat sehr schlechte Zeiten hinter sich. Aber langsam gehts ganz gut!!!
Razor
2003-06-29, 11:41:09
Original geschrieben von Mr. Anderson
alle 5900 pegeln sich bei ca. 400 ein,selbst Sparkle und von denen hätte ich einen besseren Preis erwartet.
Sparkle ist doch als Preisbrecher bekannt.
Original geschrieben von Mr. Anderson
Weiß du was " ca. " heißt ,oh man
Was für ein Preis wäre denn Deiner Meinung nach für Dich passend ?
Einer, der kaum noch Marge erlaubt ?
Und das kurz nach Einführung ?
???
Oh mann...
Ein bissel nachdenken tut doch nicht weh, oder ?
Klar pendeln sich die Preise auf etwa dem gleichen Level ein, wenn die Nachfrage maximal und das Angebot beschränkt ist. Aber das brauche ich doch nun wirklich nicht...
:D
Razor
Razor
2003-06-29, 11:43:11
Original geschrieben von pervert
Nie wieder dummes nicht funktionierendes FSAA und all den anderen NV-Bockmist!
Hab jetzt die hier. 356 Euro!!!
JUUUUHUUUUUUUUUUU
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1012899#post1012899
Und wieder einer, der sich besser hätte informieren sollen...
FSAA war bei den FX'en nie das Problem !
(lediglich bei gf3/4 gab's eines)
:D
Na ja, aber ich hoffe, dass Du mit Deiner Neuanschaffung glücklich wirst.
(das meine ich wirklich ernst !)
Razor
Razor
2003-06-29, 11:45:14
Original geschrieben von pervert
SEIT NEM HALBEN JAHR FUNKTIONIEREN NICHT ALLE FSAA MODI IN VIELEN SPIELEN!!! Und in letzter Zeirt wurde es imemr schlimmer!
Das weiss ja wohl fast jeder!!!
Aber nur darum gehts ja gar nicht. Ich habs hinter mir!
SCHREI BITTE NICHT SO !
Ansonsten siehe oben... bei den FX'ern nie das Problem und mit dem 44.65 auch bei gf3/4 weitestgehend beseitigt (zumal für letztgenannte der 43.45 'eh besser ist und somit einen Ausblick auf den nächsten Treiber gibt ;-).
Razor
Razor
2003-06-29, 11:46:43
Original geschrieben von pervert
Ja, ATI hat sehr schlechte Zeiten hinter sich. Aber langsam gehts ganz gut!!!
Endlich mal ein vernünftiges Kommentar von Dir !
;-)
Razor
nggalai
2003-06-29, 13:25:23
Hi pervert,
Original geschrieben von pervert
SEIT NEM HALBEN JAHR FUNKTIONIEREN NICHT ALLE FSAA MODI IN VIELEN SPIELEN!!! Und in letzter Zeirt wurde es imemr schlimmer!
Das weiss ja wohl fast jeder!!!
Aber nur darum gehts ja gar nicht. Ich habs hinter mir! Bei mir auf der GFFX tun alle Spiele spätestens seit dem 43.45er sauber, in Sachen MSAA (ist der älteste offizielle Treiber, den ich ausprobiert habe). Ausnahme: Splinter Cell--da hat's Dany (Chefentwickler der Engine) aber eh mitm Patch 1.2 wegen den vielen Multisample-Effekten auf Karten mit MSAA generell gesperrt, i.e. wenn's doch läuft ist's ein Bug oder ein nicht von Ubi-Soft sanktionierter Treiber-Hack. ;)
Ansonsten, bitte: bleib on-topic. Einmal über die Radeon freuen geht in Ordnung, aber hier den Thread mit ATI-Sachen und ziemlich grobhändigen Anti-NV-Parolen zuzutrashen geht zu weit. Dank dir. :)
93,
-Sascha.rb
Razor
2003-06-29, 16:43:35
Original geschrieben von nggalai
Ausnahme: Splinter Cell--da hat's Dany (Chefentwickler der Engine) aber eh mitm Patch 1.2 wegen den vielen Multisample-Effekten auf Karten mit MSAA generell gesperrt, i.e. wenn's doch läuft ist's ein Bug oder ein nicht von Ubi-Soft sanktionierter Treiber-Hack. ;
Interessant, dass dies der 44.65 wohl bei umbenannter EXE hinbekommen hat, oder ?
;-)
Razor
mirovb
2003-06-29, 17:22:53
hier sind noch ein paar links, in denen die GeForce FX 5900 (nonultra) eigentlich ganz gut abschneidet (unter anderem auch meine MSI GF FX 5900)
vielleicht bringt das ja ein wenig mehr objektivität...
und ganz wichtig: die Karte ist relativ neu, und der Treiber ist sicherlich auch nicht der beste, aber das jetzt schon zu zereissen, wie einige das tun, ist sicher nicht die feine Art.
Wartet mal bessere Treiber ab, dann geht die Karte sicherlich "ab wie ne Rakete"... aber schaut mal selber die Tests an.
http://www.hexus.net/review.php?review=583
http://www.hardware-mag.de/hardware.php?id=164
Miro
Mr. Anderson
2003-06-29, 17:49:40
Original geschrieben von mirovb
hier sind noch ein paar links, in denen die GeForce FX 5900 (nonultra) eigentlich ganz gut abschneidet (unter anderem auch meine MSI GF FX 5900)
vielleicht bringt das ja ein wenig mehr objektivität...
und ganz wichtig: die Karte ist relativ neu, und der Treiber ist sicherlich auch nicht der beste, aber das jetzt schon zu zereissen, wie einige das tun, ist sicher nicht die feine Art.
Wartet mal bessere Treiber ab, dann geht die Karte sicherlich "ab wie ne Rakete"... aber schaut mal selber die Tests an.
http://www.hexus.net/review.php?review=583
http://www.hardware-mag.de/hardware.php?id=164
Miro
Sollte sich jeder mal anschauen !
Und ich bekomme spätestens am Mittwoch meine MSI GF FX 5900
und die Karte wird.....
mirovb
2003-06-29, 17:54:34
@mr.anderson
kann Dich nur zum Kauf beglückwünschen, die Karte ist wirklich super..
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=78595&perpage=20&pagenumber=2
schau mal mein Comment ganz unten...
Miro
pervert
2003-06-29, 18:55:27
Mag sein, dass das FSAA bei den FXen besser funzt (m. Det. FX), das habe ich mir auch gedacht, dennoch bleibt das Problem mit dem übermäßigen Speicherkonsum und der lächerlichen Qualität geg. ATI. Und NUR auf den FXen ist eindeutig zu wenig, wenns auf den anderen Karten nicht läuft. Und ich weiss wovon ich schreibe, habe im letzten halben Jahr JEDEN Treiber ausprobiert. Nach dem 41.09 kam nur noch Schrott! Und das ist schon ne lange Zeit (Treiber stammt vom 03.12.2002).
Aber das Thema ist OT und sollte hiermit gegessen sein. Jeder weiss, dass NV bei den Qualitätsfeatures keine Schnitte hat gegen ATI und das wird auch noch lange so bleiben.
Razor
2003-06-29, 19:04:12
Also mit dem 43.45 lief selbst meine gute alte gf3 wunderbar... mal vom MSAA abgesehen... aber letzteres ist mit dem 44.65 auch passé. Keine Ahnung, was Du da für Probleme hast/hattest.
Und zum Thema AA/AF ATI vs. nVidia habe ich einfach schon genug gesagt.
Razor
Razor
2003-06-29, 19:05:57
Original geschrieben von pervert
Aber das Thema ist OT und sollte hiermit gegessen sein. Jeder weiss, dass NV bei den Qualitätsfeatures keine Schnitte hat gegen ATI und das wird auch noch lange so bleiben.
Einerseits korrekt (ist OT ;-) und andererseits völlig falsch (Quali ;-).
Wäre Dir aber sehr verbunden, wenn Du dies nicht hier erörterst, sondern in einem der Threads im allgemeinen Forum.
Razor
mirovb
2003-07-03, 00:15:36
Nur zur Info: hab heute Tomb Raider Angel of Darkness erhalten und gleich installiert..läuft bei mir auf der MSI GF FX5900 Deto 44.65 in einer 1280x1024 er Auflösung nur mit Ruckeln und mit "Schleiern" im Bild, was so aussieht wie verwaschene Stellen im Bild...habs mit ner R9700Pro gecheckt....kein Ruckeln und auch kein verwaschenes Bild...
(Beide Karten Standard Einstellungen AA & AF sowie Qualtity)
ist schon echt scheisse...
hab sämtliche Bildeinstellungen (RGB) probiert, in der 1280x1024er Auflösung ruckelts ohne ende...
des weiteren hab Ich mit der Nvidia Karte mit den Detos <44.61 keine Anzeige der Videosequenzen des Spiels..genauso wie bei Indy & Kaisergruft....
Ich find das erschreckend...
wo bleiben neue Treiber, Nvidia ????
Miro
:-( :-(
Ripley
2003-07-03, 00:57:40
Das is ja kacke
Probier mal den 44.03 aus .
Hau mal Vsync rein
Möchte auch gern wissen mit welchem Treiber es funzt !
Kann ja auch am Game liegen.
Die Vorhersage : Eine ATIler wird kommen und sagen-bei mir läufts top:bäh:
pervert
2003-07-03, 04:55:21
Das verwaschene Bild kommt warscheinlich vom nicht/fehlerhaft funktionierenden FSAA (typischer Fehler der aktuellen Treiber) wie ich das hier schon mehrfach behauptet habe. Aber das stimmt ja alles nicht was ich sage, mit dem 44.65 funktioniert ja alles!? :bonk:
Wie gut dass ich jetzt ne 9800pro hab :)
ON-TOPIC:
Terratec FX5900 für 348 Euro!!!!!!!!!!!
http://www.world-of-pc.de/product_info.php/products_id/1410/cPath/115
Razor
2003-07-03, 06:22:24
Original geschrieben von mirovb
Nur zur Info: hab heute Tomb Raider Angel of Darkness erhalten und gleich installiert..läuft bei mir auf der MSI GF FX5900 Deto 44.65 in einer 1280x1024 er Auflösung nur mit Ruckeln und mit "Schleiern" im Bild, was so aussieht wie verwaschene Stellen im Bild...habs mit ner R9700Pro gecheckt....kein Ruckeln und auch kein verwaschenes Bild...
(Beide Karten Standard Einstellungen AA & AF sowie Qualtity)
ist schon echt scheisse...
hab sämtliche Bildeinstellungen (RGB) probiert, in der 1280x1024er Auflösung ruckelts ohne ende...
des weiteren hab Ich mit der Nvidia Karte mit den Detos <44.61 keine Anzeige der Videosequenzen des Spiels..genauso wie bei Indy & Kaisergruft....
Ich find das erschreckend...
wo bleiben neue Treiber, Nvidia ????
Miro
:-( :-(
Ähm...
Mal 'ne kleine Frage...
Tritt dieses Problem ausschließlich bei 1280x1024 auf ?
Was für einen Moni benutzt Du ?
Wenn 4:3-Moni warum dann 1280x1024 ?
(soll 1,33:1 ist 1,25:1)
Versuch dann doch vielleicht mal 1280x960...
Ist ein bischen gebräuchlicher (wie 640/800/1024/1600) als dieses 'Sonderformat'.
Wenn das alles nichts hilft, ist das schon ein 'merkwürdiges' Problemchen, welches wohl nur den neuen 5900'ern auszutreten scheint (keine Prob's mit FX5200 und 43.45/44.03/44.65, allerdings auch nicht mit 1280x1024).
Ich drück mal kräftigst die Daumen !
Razor
Razor
2003-07-03, 06:24:16
Original geschrieben von pervert
Das verwaschene Bild kommt warscheinlich vom nicht/fehlerhaft funktionierenden FSAA (typischer Fehler der aktuellen Treiber)
Komisch nur, dass bei mir alles seit 43.45 funktioniert...
Mal von dem Taktverhalten >43.45 abgesehen.
:D
Razor
Raver
2003-07-03, 08:21:52
[B]
ON-TOPIC:
Terratec FX5900 für 348 Euro!!!!!!!!!!!
http://www.world-of-pc.de/product_info.php/products_id/1410/cPath/115
Das ist ein 5800er.
Razor@Work
2003-07-03, 09:12:55
Eine neue Erhältlichkeitsmeldung:
Leadtek A350U-TDH256 MyVIV GeF FX 5900 VIVO (Retail) für € 493,-
http://www.kmelektronik.de/root/shop4/auswahl.php?ArtNr=4160
Leadtek A350-TDH FX5900 MyVIVO (Retail) für € 395,-
http://www.kmelektronik.de/root/shop4/auswahl.php?ArtNr=4148
Soll keine Empfehlung sein, da ich von der Kühllösung Leadteks (TwinTurboII ;-) eigentlich nichts halte...
:D
Bis denne
Razor
Razor@Work
2003-07-03, 09:15:41
Und wo wir schon bei K&M sind...
MSI MS8929-TD128 GF FX5900 128MB DDR TV/DVI (Retail)
http://www.kmelektronik.de/root/shop4/auswahl.php?ArtNr=4154
Razor
Razor@Work
2003-07-03, 09:52:16
Und noch'e mal...
Schiwi:
Leadtek A350TDH FX5900 128MB DDRAM, TV/ DVI/ VIVO/ 8x retail für € 387,-
http://62.8.212.99/catalog/product_info.php?cPath=2_18_147&products_id=12655
(lieferbar)
Leadtek A350UTDH FX5900 256MB DDRAM, TV/ DVI/ VIVO/ 8x retail für € 499,-
(nur auf Kundenwunsch !)
Alternate:
Creative 3D Blaster 5 Ultra für € 549,-
http://www5.alternate.de/html/nodes_info/jagc01.html
(3-5 Tage Lieferzeit)
Gainward FX PowerPack! Ultra/1600 XP für € 679,-
http://www5.alternate.de/html/nodes_info/jagw03.html
(lieferbar, aber preislich eine Frechheit ;-)
MSI FX5900-TD128 für € 419,-
http://www5.alternate.de/html/nodes_info/j9gn22.html
(lieferbar)
MSI FX5900-VTD128 für € 429,-
http://www5.alternate.de/html/nodes_info/j9gn23.html
(lieferbar)
MSI FX5900Ultra-VTD für € 579,-
http://www5.alternate.de/html/nodes_info/jagn03.html
(lieferbar)
Sparkle SP8835PT Platinum (FX5900) für € 399,-
http://www5.alternate.de/html/nodes_info/j9gk25.html
(lieferbar)
Terratec Mystify 5900Ultra für € 589,-
http://www5.alternate.de/html/nodes_info/jagt03.html
(3-5 Tage Lieferzeit)
Atelco:
Leadtek Winfast A350TDH MyVivo, 128MB NVidia GeforceFX 5900 für € 387,-
http://www.atelco.de
(lieferbar)
---
Finaler weise hier mal 'ne Sammlung der 5900'er über Preistrend:
http://www.preistrend.de/suchen.php3?keyword=fx+5900&pmi=&pma=&counter=0
(mit mehr oder weniger verläßlicher Verfügbarkeitsanzeige ;-)
Oder auch der beliebte Geizhals:
128MB : http://www.geizhals.at/deutschland/?cat=gra128
256MB+: http://www.geizhals.at/deutschland/?cat=gra256
---
Ganz allgemein kann man also sagen, dass schon einige nonUltra's verfügbar sind:
MSI
ASUS
Sparkle
LeadtekUltra's sind so gut wie noch nicht verfügbar... einzige Ausnahme:
LeadtekSoderle, meiner derzeit morgentlichen Unlust ist damit genüge getan (oder auch nicht ;-), insofern soll's das hier erst einmal gewesen sein.
Bis denne
Razor
Razor@Work
2003-07-03, 11:07:47
Da hätt' ich ja glatt die Creative-Ultra vergessen...
Zum Beispiel bei komplett.de (http://www.komplett.de/k/ki.asp?action=info&p=36495&t=278&l=2&AvdID=1&CatID=24&GrpID=1&s=pl) für € 550,-
(lieferbar, 100+ im Bestand)
---
Ganz allgemein kann man also sagen, dass schon einige nonUltra's verfügbar sind:
MSI
ASUS
Sparkle
LeadtekUltra's sind noch so gut wie nicht verfügbar... Ausnahmen:
Creative
Leadtek---
Razor
Razor@Work
2003-07-03, 11:21:39
Einen hab' ich noch...
:D
Auch die MSI-Ultra ist wohl verfügbar:
MSI FX5900 Ultra-VTD 256 MB SDRAM-DDR GeForce FX 5900 Ultra für € 555,-
http://www2.mix-computer.de/cgi-bin/show_info.pl?artnr=JAGN03&tempid=MKYNYYWDXH
(lieferbar)
Ergo:
---
Ganz allgemein kann man also sagen, dass schon einige nonUltra's verfügbar sind:
MSI
ASUS
Sparkle
LeadtekUltra's sind noch so gut wie nicht verfügbar... Ausnahmen:
MSI
Creative
Leadtek---
Razor
Asuka
2003-07-03, 13:07:57
Neuer Bestpreis! :D Die Leadtek-Karte mit ViVo für nur 369,90€ bei Fair-Shop.com:
http://www.geizhals.at/deutschland/?a=57967
Sofort lieferbar, und der Shop hat auch ne gute Bewertung :D
mirovb
2003-07-03, 13:38:28
@ razor
nein, das verwaschene Bild ist in allen Auflösungsmodi vorhanden, da kannste Einstellen was Du willst. Du kannst für das Spiel sogar den RGB Modus verändern und die Farbtiefe....war runter bis auf 16 Bit, aber es wurde nicht besser....was mich richtig stinkig macht :-(
habs alles mehrmals durchprobiert, es ist keine Besserung vorhanden. Weder mit dem 44.03 noch mit dem 44.61 (only FX 5900) noch mit dem 44.65 Deto.
Hab mich so auf das Spiel gefreut und dann so ein Mist...
die verwaschenen Stellen bleiben...und das ruckeln geht erst richtig ab 800x600er Auflösung wech...wenn das nicht zum Kotzen ist ??!!
Also, wer behauptet das Nvidia bessere Treiber progarmmiert als ATi, der ist spätestens seit dem Deto 40 lange auf dem Holzweg..kann das nur bestätigen, da Ich seitdem auch dauernd irgendwelche Probleme mit der Dartsellung habe...auch mit ner GF4 TI...
Egal, hoffentlich machen die NViditoen mal langsam was daran, der 44.03 ist schon zimelicher Schrott (was Leistung und Qualität angeht)
Miro
Raver
2003-07-03, 13:46:37
Original geschrieben von Asuka
Neuer Bestpreis! :D Die Leadtek-Karte mit ViVo für nur 369,90€ bei Fair-Shop.com:
http://www.geizhals.at/deutschland/?a=57967
Sofort lieferbar, und der Shop hat auch ne gute Bewertung :D
Wenn der Kühler nicht wäre, wäre es schon interessant. :D
Ripley
2003-07-03, 14:37:09
Schaut mal HIER (http://www.nvidia.com/)
Vielleicht gibts ja dann einen neuen Treiber - nä das wird woll noch länger dauern oder ?
Aber die NV35 Demos wirds wohl dann geben
Leider nur für Nvidia Owner
:D
Den hier find ich noch schöner.
http://www.nvidia.com/docs/CP/1/SUPP/July4_HP.jpg
Na, fühlt man sich da als "Nvidia Owner" nicht zu Hause... ;D
Razor
2003-07-03, 17:02:13
Original geschrieben von Gast
Na, fühlt man sich da als "Nvidia Owner" nicht zu Hause... ;D
Und vor allem die obligatorische Ami-Fagge musste ja wieder sein...
"Dawn 'keusch' in das 'wärmende' Ami-Tüchlein gehüllt !"
:lol:
Razor
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.