Archiv verlassen und diese Seite im Standarddesign anzeigen : FX5200 64MB
Aloha,
da heute meine alte GF2MX400 im 2. Rechner (für Multimedia) den Geist aufgegeben hat habe ich mir eine XFX Pine GeForceFX 5200 mit 64MB gekauft.
TVout ist super und sie hat auch ein 128bit speicherinterface.
Nun wollte ich mal wissen ob ne Punktzahl von 69xx im 3dMark2001 (im Hauptrechner siehe sig) für die karte ok ist?
OC ist mit der Karte auch ziemlich klasse. Standard ist 250/400 und mittlerweile läuft sie mit 290/540 ohne jegliche Fehler. Ich denke mal da geht noch mehr obwohl nur 5ns Samsung verbaut ist.
LOCHFRASS
2003-08-06, 01:58:40
6900 sollten normal sein, auf jeden Fall besser als so eine MX... :D
Original geschrieben von LOCHFRASS
6900 sollten normal sein, auf jeden Fall besser als so eine MX... :D
kk, dann werd ich den mal versuchen als Lanrechner zu aktivieren bzw. erstma sehen was die Karte mit nem Duron 1.2 reißen kann :)
L. Trotzkij
2003-08-07, 00:34:16
Ich dachte die 64MB Karten haben immer nur ein 64bit Interface, wegen
der Speicherbausteinanzahl.
Wenn 4 verbaut sind, hat sie auf jeden Fall nur 64bit.
Aber damit schafft sie sicher nicht deine angegebenen 69xx Pkt.
Original geschrieben von L. Trotzkij
Ich dachte die 64MB Karten haben immer nur ein 64bit Interface, wegen
der Speicherbausteinanzahl.
Wenn 4 verbaut sind, hat sie auf jeden Fall nur 64bit.
Aber damit schafft sie sicher nicht deine angegebenen 69xx Pkt.
http://mitglied.lycos.de/d3r8is/128.JPG
Hier der AIDA Screen der besagt das sie ein 128bit Speicherinterface hat.
http://service.futuremark.com/compare?2k1=6848310 hier der Link von dem Bench.
Diesem Programm würde ich nicht unbedingt trauen. Auf 300 MHz laufen afaik nur die Ultras. Außerdem haben die Pixel- und Vertexshader vertauscht. Imo liest dieses Programm nur wenig aus, und schlägt den Rest einer Tabelle nach, die imo Fehler aufweist.
Original geschrieben von aths
Diesem Programm würde ich nicht unbedingt trauen. Auf 300 MHz laufen afaik nur die Ultras. Außerdem haben die Pixel- und Vertexshader vertauscht. Imo liest dieses Programm nur wenig aus, und schlägt den Rest einer Tabelle nach, die imo Fehler aufweist.
Tja, aber womit wäre es genau auszulesen?
Denn die Punkte im 3DMark scheinen ja auch 128bit hinzuweisen. Und die 300/540 (geht bis 310/550) werden auch von jedem OC Prog angezeigt. Und die Punkte Zahl steigt auch mit steigendem Takt.
EDIT: Im 3DMark hab ich 1303 Punkte http://service.futuremark.com/compare?2k3=1129299
Ganz einfach: Wieviele Speicherchips sind auf der Graka-Platine drauf? Kannst du das nachgucken?
Original geschrieben von aths
Ganz einfach: Wieviele Speicherchips sind auf der Graka-Platine drauf? Kannst du das nachgucken?
Klar doch, sind 4 stück drauf (senkrecht).
Sag bitte nicht das ich nur 64Bit hab :( aber warum schaff ich damit mehr Punkte im 3dmark03 als mit meiner alten GF3ti-200 @ 255/550 (1263).
Original geschrieben von bubi
Klar doch, sind 4 stück drauf (senkrecht).
Sag bitte nicht das ich nur 64Bit hab :( aber warum schaff ich damit mehr Punkte im 3dmark03 als mit meiner alten GF3ti-200 @ 255/550 (1263). Deine Karte hat einen 64-Bit-Speicherbus!!
Warum du mehr Punkte hast, kann ich nicht sagen. Ich wage zu behaupten, dass in tatsächlich vergleichbaren BQ-Settings die neue Karte in fast allen Spielen langsamer ist, als die Ti, erst recht, wenn die Ti so hoch getaktet ist.
Kannst du btw sicher auslesen (RivaTuner, oder Deto mit Coolbits) wie hoch der Chip bei dir getaktet ist? Ich glaube nämlich nicht dass es 300 MHz sind, wie das tolle Programm auf dem Screenshots da anzeigt.
Asuka
2003-08-07, 02:47:32
Kleiner Hinweis am Rande: Alle FX5200 64MB Karten haben nur einen 64bit-Bus! Die 128MB-Karten haben in der Regel einen 128bit-Bus (aber auch nicht alle, wie ich gehört hab).
Mit welcher "alten" Graka kann ich meine denn dann vergleichen? Ich meine damit in games (BF, Q3, CS, TO, usw.)
GF4MX440?
GF2Ultra?
GF3Ti200 @ Standard?
GF2MX?
GF256DDR?
Razor@Work
2003-08-07, 09:20:24
Original geschrieben von Asuka
Kleiner Hinweis am Rande: Alle FX5200 64MB Karten haben nur einen 64bit-Bus! Die 128MB-Karten haben in der Regel einen 128bit-Bus (aber auch nicht alle, wie ich gehört hab).
Nein, so einfach ist das leider nicht.
Dies hängt immer von den verwendeten Speicherbausteinen ab. Vielleicht sollte bubi einfach mal posten, was genau auf den Speicherbausteinen drauf steht, um ermitteln zu können, von welchem Typ diese sind.
AFAIK sind vielfältigste Speicherkonfigurationen mit dem NV34 möglich, auch sehr exotische. Als Fastregel kann aber gelten, dass Karten mit 4 Speicherbausteinen mit 64Bit, und Karten mit 8 Speicherbausteinen mit 128Bit angebunden sind (Ausnahmen hiervon sind schon diverse bekannt ;-).
Razor
...für ne 64Bit Karte sind die Punkte ^^ imho aber zu hoch. Meine Aopen FX5200 mit 128MB und 64Bit macht auf nem XP1700+ (ECS K7SEM SIS730 + 512MB SD-RAM) nur um die ~5000 3DMark01 Punkte im übertakteten Zustand wobei sie sich nichmal gut übertakten lässt durch ihren 5NS Speicher. :(
cu
BUG
Original geschrieben von bubi
Mit welcher "alten" Graka kann ich meine denn dann vergleichen? Ich meine damit in games (BF, Q3, CS, TO, usw.)
GF3Ti200 @ Standard
Mit der IMHO.
MfG
Raff
Original geschrieben von Raff
Mit der IMHO.
MfG
Raff
k, dann bin ich ja beruhigt.
Ich werd gleich ma noch die Bezeichnung der RAM Bausteine posten.
Die anderen auch der meinung das ich die Karte in games mit ner GF3Ti200 @ standard vergleichen kann?
Original geschrieben von BUG
...für ne 64Bit Karte sind die Punkte ^^ imho aber zu hoch. Meine Aopen FX5200 mit 128MB und 64Bit macht auf nem XP1700+ (ECS K7SEM SIS730 + 512MB SD-RAM) nur um die ~5000 3DMark01 Punkte im übertakteten Zustand wobei sie sich nichmal gut übertakten lässt durch ihren 5NS Speicher. :(
cu
BUG
Naja, en 1700er mit SD ram bringt aber auch den den Punktförderden Speicherdurchsatz wie en 2400er mit FSB 209 und DDR.
Quasar
2003-08-07, 15:29:17
Original geschrieben von aths
Diesem Programm würde ich nicht unbedingt trauen. Auf 300 MHz laufen afaik nur die Ultras. Außerdem haben die Pixel- und Vertexshader vertauscht. Imo liest dieses Programm nur wenig aus, und schlägt den Rest einer Tabelle nach, die imo Fehler aufweist.
Woraus sich die vier Vertexshader ableiten, weiß ich nicht. Der eine PS2.0 kann aber durchaus hinkommen, wie vor ein paar Wochen mal nachgemessen.
Die "ultras" laufen auf 325MHz.
Quasar
2003-08-07, 15:30:35
@Bubi:
Lade (http://home.t-online.de/home/zsack/archmark_alpha.zip) dir dieses Tool mal runter, das zeigt dir die reale Speicherbandbreite an, die erreicht wird. Daraus läßt sich dann zweifelsfrei ermitteln, ob du (bzw. deine Graka) einen 64Bit- oder 128Bit-Bus hast.
Die Werte aus welcher Result Datei soll ich denn posten?
Result.txt oder result.bb.txt?
Quasar
2003-08-07, 16:09:38
result.bb.text, die sind schon im Foren-Format, so daß das schön lesbar bleibt.
ArchMark 0.10.09alpha
Driver GeForce FX 5200 Ultra/AGP/SSE2 v1.4.0
Resolution 1024x768 @ ???Hz
Method Flush
Timer 3.000 GHz
Bandwidth
Mode RGBA8888 Z24 S8
--bandwidth-------------------------------------
----available to buffer clears------------------
All 8.243 GB/s
Color 8.721 GB/s
ZAndStencil 7.808 GB/s
Z 55.277 GB/s
Stencil 1.042 GB/s
Draw 7.154 GB/s
BurnedByRAMDAC 267.387 MB/s
Physical 7.422 GB/s
Der Teil sollte reichen. Ist bei mir von einer FX5200u.
ArchMark 0.10.09alpha
Driver GeForce FX 5200/AGP/SSE/3DNOW! v1.4.0
Resolution 1024x768 @ 56.93Hz
Method Swap
Timer 2.000 GHz
Bandwidth
Mode RGBA8888 Z24 S8
--bandwidth-------------------------------------
----available to buffer clears------------------
All 3.555 GB/s
Color 3.652 GB/s
ZAndStencil 3.187 GB/s
Z 21.052 GB/s
Stencil 1.061 MB/s
Draw 3.348 GB/s
BurnedByRAMDAC 189.031 MB/s
Physical 3.537 GB/s
OH oh, ich glaube 3.5 bandwith läuft auf 64bit hinaus :(
Tiling
Mode RGBA8888 Z24 S8
--preferred block alignment---------------------
----updating all buffers------------------------
Width 4
Height 2
----in color buffer-----------------------------
Width 4
Height 2
----in depth buffer-----------------------------
Width 2
Height 2
----in stencil buffer---------------------------
Width 2
Height 2
Fillrate
--32 bits---------------------------------------
Mode RGBA8888 Z24 S8
Color 967.900 MPix/s
Z 1.154 GPix/s
ColorAndZ 967.293 MPix/s
ZTest 371.224 MPix/s
ZCullLEqual 942.345 MPix/s
ZCullGEqual 943.758 MPix/s
ZCullEqual 4.122 GPix/s
--16 bits---------------------------------------
Mode RGBA5650 Z16 S0
Color 1.061 GPix/s
Z 984.510 MPix/s
ColorAndZ 1.136 GPix/s
ZTest 682.239 MPix/s
ZCullLEqual 1.578 GPix/s
ZCullGEqual 1.574 GPix/s
ZCullEqual 4.233 GPix/s
Texturing
Mode RGBA5650 Z0 S0
--Textured fillrate-----------------------------
----Peak----------------------------------------
1 976.541 MPix/s
2 447.555 MPix/s
3 245.061 MPix/s
4 244.857 MPix/s
----Unfiltered----------------------------------
1 1.144 GPix/s
2 579.649 MPix/s
3 211.158 MPix/s
4 242.589 MPix/s
----Bilinear filter-----------------------------
1 1.134 GPix/s
2 584.634 MPix/s
3 237.931 MPix/s
4 240.633 MPix/s
----Trilinear filter----------------------------
1 876.156 MPix/s
2 485.848 MPix/s
3 232.903 MPix/s
4 209.360 MPix/s
Geometry
Mode RGBA5650 Z0 S0
--Plain vertices--------------------------------
Fan 48.845 MTris/s
List 19.926 MTris/s
Clip 19.966 MTris/s
--Vertex shading speed--------------------------
LightD1 32.786 MVerts/s
LightP1 10.857 MVerts/s
LightP8 3.262 MVerts/s
Precision
Mode RGBA8888 Z0 S0
--fraction bits---------------------------------
AlphaTest 10
Combiner 16
Interpolator 15
Quasar
2003-08-07, 16:14:20
Jub, sieht fast so aus....
BlackArchon
2003-08-07, 20:03:41
Ich hab das Programm mal mit der Radeon 9800 Pro getestet:
ArchMark 0.10.09alpha
Driver: RADEON 9800 Pro x86/MMX/3DNow!/SSE v1.3.3842 WinXP Release
Resolution: 1024x768 @ 85.15Hz
Swapping buffers
1.995 GHz timer speed (should match your CPU clock)
Bandwidth
Mode: RGBA8888 Z24 S8
* bandwidth
o available to buffer clears
+ 534.745 MB/s all buffers
+ 267.384 MB/s color only
+ 267.371 MB/s depth and stencil
+ 200.529 MB/s depth only
+ 66.842 MB/s stencil only
o 1.041 GB/s worst case draw bandwidth
o 267.533 MB/s burned by the RAMDAC
o 1.309 GB/s estimated physical bandwidth
Wieso soll die FX 5200 Ultra die dreifache Speicherbandbreite haben?!
EDIT:
Hab mal VSync und den RefreshLock deaktiviert, jetzt habe ich schon ein besseres Ergebnis:
ArchMark 0.10.09alpha
Driver: RADEON 9800 Pro x86/MMX/3DNow!/SSE v1.3.3842 WinXP Release
1024x768 @ ???Hz (assuming 85Hz)
Swapping buffers
1.995 GHz timer speed (should match your CPU clock)
Bandwidth
Mode: RGBA8888 Z24 S8
* bandwidth
o available to buffer clears
+ 18.920 GB/s all buffers
+ 9.961 GB/s color only
+ 75.016 GB/s depth and stencil
+ 56.190 GB/s depth only
+ 2.528 GB/s stencil only
o 21.659 GB/s worst case draw bandwidth
o 267.387 MB/s burned by the RAMDAC
o 21.926 GB/s estimated physical bandwidth
Hui, ich dachte schon hier geht was nicht mit rechten Dingen zu... :)
Quasar
2003-08-07, 20:11:40
Oh ja, Bubi: Du musst noch "Swap Buffers" deaktivieren....
Humphrey
2003-08-07, 23:34:43
Original geschrieben von bubi
Aloha,
da heute meine alte GF2MX400 im 2. Rechner (für Multimedia) den Geist aufgegeben hat habe ich mir eine XFX Pine GeForceFX 5200 mit 64MB gekauft.
TVout ist super und sie hat auch ein 128bit speicherinterface.
Nun wollte ich mal wissen ob ne Punktzahl von 69xx im 3dMark2001 (im Hauptrechner siehe sig) für die karte ok ist?
OC ist mit der Karte auch ziemlich klasse. Standard ist 250/400 und mittlerweile läuft sie mit 290/540 ohne jegliche Fehler. Ich denke mal da geht noch mehr obwohl nur 5ns Samsung verbaut ist.
Das erklär mir mal einer bitte: 69xx Punkte in einem 2100er?
Meine alte Geforce 3 Ti 200 bringt ohne Übertaktung (weder CPU noch Karte) in meinem alten XP1600 auch an die 69xx Punkte.
Klärt mich mal auf: Wieso werden FX Karten rausgebracht, die nicht stärker sind als alte GF 3er, die man bei Ebay nachgeschmissen bekommt? Nur wegen DirectX 9, für das es noch gar nichts gibt? Ich verstehe NVidia nicht.
L. Trotzkij
2003-08-08, 00:32:18
Mir ist eher unerklärlich, wie die Karte so schnell sein kann, da sie nur die Hälfte der theoretischen Bandbreite der Geforce 3(ti200) besitzt.
Praktisch siehts wg. nicht vorhandenem LMA noch mieser aus, ausserdem verstehe ich nicht warum du nur 6900 Pkt. mit deinem XP1600 hast, bei futuremark gibts Leute die haben das doppelte (allerdings mit ner GeForce 3 ti500 und übertaktet).
Mal noch ne ganz andere Frage:
Habe, wie oben schon gesagt, mich mal bei Futuremark informiert wie weit ne Geforce 3ti 500 gegenüber ner annähernd gleichgetakteten Ti4200 in Pixel- und Vertexshadertests verliert.
Der Rückstand ist meist so gering, dass ich fast sagen würde die GeForce 3 ist immer noch ne konkurrenzfähige Karte.
Allerdings ist der höchste Wert ner Ti42 irgendwas bei 19000Pkt. (vielleicht 17000 im normalen Takt), bei der G3 nur um die 12000.
Somit ist die KArte dort langsamer aber was DirectX8 Tests angeht fast genauso schnell, den Sinn versteh ich nicht.
Hier mal Werte meiner GF3 Ti-200 @ Default (175/400):
ArchMark 0.10.09alpha
Driver GeForce3/AGP/SSE/3DNOW! v1.4.0
Resolution 1024x768 @ ???Hz
Method Swap
Timer 1.589 GHz
Bandwidth
Mode RGBA8888 Z24 S8
--bandwidth-------------------------------------
----available to buffer clears------------------
All 8.854 GB/s
Color 4.878 GB/s
ZAndStencil 21.184 GB/s
Z 16.084 GB/s
Stencil 5.423 GB/s
Draw 6.354 GB/s
BurnedByRAMDAC 267.387 MB/s
Physical 6.621 GB/s
Und weils so schön war, hier noch oced (@ 220/460):
ArchMark 0.10.09alpha
Driver GeForce3/AGP/SSE/3DNOW! v1.4.0
Resolution 1024x768 @ ???Hz
Method Swap
Timer 1.589 GHz
Bandwidth
Mode RGBA8888 Z24 S8
--bandwidth-------------------------------------
----available to buffer clears------------------
All 10.143 GB/s
Color 5.742 GB/s
ZAndStencil 22.879 GB/s
Z 17.331 GB/s
Stencil 5.877 GB/s
Draw 7.304 GB/s
BurnedByRAMDAC 267.387 MB/s
Physical 7.571 GB/s
MfG
Raff
Razor
2003-08-08, 06:47:31
Original geschrieben von Humphrey
Klärt mich mal auf: Wieso werden FX Karten rausgebracht, die nicht stärker sind als alte GF 3er, die man bei Ebay nachgeschmissen bekommt? Nur wegen DirectX 9, für das es noch gar nichts gibt? Ich verstehe NVidia nicht.
Ganz einfach: die gf3 war/ist die High-End-Variante der vorletzten Generaton gewesen. Die fx5200 ist hingegen die Low-End-Variante der jetzigen Generation.
Ist Dir noch nicht aufgefallen, dass eine gf2mx, obwohl neuer trotzdem langsamer, als 'ne gfddr war ? Oder dass eine gf4mx mit einer gf3 nicht mithalten konnte ? Genau so verhält es sich mit fx5200 und gf3/4...
Einer gf4mx ist die 'Kleine' (mit 128Bit ;)) auf jeden Fall weit überlegen !
:D
Razor
Demirug
2003-08-08, 11:33:02
Die FX5900 Bandbreite ist jetzt dort:
http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=86909
Humphrey
2003-08-08, 15:08:39
Original geschrieben von Razor
Ganz einfach: die gf3 war/ist die High-End-Variante der vorletzten Generaton gewesen. Die fx5200 ist hingegen die Low-End-Variante der jetzigen Generation.
Ist Dir noch nicht aufgefallen, dass eine gf2mx, obwohl neuer trotzdem langsamer, als 'ne gfddr war ? Oder dass eine gf4mx mit einer gf3 nicht mithalten konnte ? Genau so verhält es sich mit fx5200 und gf3/4...
Einer gf4mx ist die 'Kleine' (mit 128Bit ;)) auf jeden Fall weit überlegen !
:D
Razor
Ähem - und was soll das mit den "Generationen"? Worin unterscheiden sie sich? Wenn ich eine Graka kaufen möchte, schaue ich einfach nach, welche schneller ist. Wenn eine GF 3 Ti 200 schneller als eine FX5200 ist und ich die GF 3 Ti auch noch billiger bekomme - warum sollte ich dann die FX5200 kaufen? Vergiß doch einfach mal die Bezeichnungen und seh Dir nur die Leistungsfähigkeit an.
Razor
2003-08-08, 15:12:28
Vergiß Du die Performance...
Oder willst Du etwa behaupten, dass eine gf4mx schneller war, als eine gf3 ?
???
Für mich sind 'Generationen' Technologie-Level !
Du kannst doch nicht erwarten, dass eine ehemals (2,5 Jahre alte) High-End-Karte zu einem Preis von 870 Märkern nun plötzlich sehr viel langsamer ist, als eine niegel-nagel-neue Ultra-Low-End Karte für gerade mal 120 Öcken.
Sorry, aber irgendwie...
Razor
..jup, du hast damals ne Geforce3 gekauft um eine für damals "Highend" Karte zu besitzen. Du must also auch von der aktuellen Graka Generation ein Medium oder Highend Produkt kaufen um deutlich schneller zu sein. Wer damals (zu Geforce3 Zeiten) sich eine LowEnd Karte gekauft hat (Geforce2MX), für den lohnt es sich z.B. auf eine aktuelle LowEnd Karte (Geforce FX5200) "aufzurüsten" wenn Geforce3 oder 4TI nicht mehr erhältlich sind oder wenn man ne Rechnung braucht also kein eBay und ggf passiv Kühlung benötigt. ...und solche Leute ^^ gibt es zu genüge.
cu
BUG
Humphrey
2003-08-08, 15:31:23
[QUOTE][SIZE=1]Original geschrieben von L. Trotzkij
ausserdem verstehe ich nicht warum du nur 6900 Pkt. mit deinem XP1600 hast, bei futuremark gibts Leute die haben das doppelte (allerdings mit ner GeForce 3 ti500 und übertaktet).
Naja: Eine Ti500 bringt schon mehr als eine Ti200 und dann auch noch übertaktet. Und womöglich ist auch noch die CPU übertaktet...
Nene, wenn ich mir bei Toms Hardware die Benchmarkwerte ansehe, ist mein Wert von 69xx sehr gut. Denn die hatten in einer Übersicht einen XP2000 und eine Geforce Ti 200 brachte dort auch nicht mehr trotz des stärkeren Prozessors.
Check it out:
http://www.de.tomshardware.com/graphic/20020419/vgacharts-05.html
Humphrey
2003-08-08, 15:37:48
Original geschrieben von Razor
Vergiß Du die Performance...
Oder willst Du etwa behaupten, dass eine gf4mx schneller war, als eine gf3 ?
???
Für mich sind 'Generationen' Technologie-Level !
Du kannst doch nicht erwarten, dass eine ehemals (2,5 Jahre alte) High-End-Karte zu einem Preis von 870 Märkern nun plötzlich sehr viel langsamer ist, als eine niegel-nagel-neue Ultra-Low-End Karte für gerade mal 120 Öcken.
Sorry, aber irgendwie...
Razor
Natürlich ist eine GF4Mx langsamer als eine GF3. Ich wundere mich ja auch nicht erst seit den FX Karten...
Mir geht es doch einfach um folgendes: Wenn man alle Karten nach der Geschwindigkeit ordnen würde, sollte diese Ordnung auch der Preisstaffelung entsprechen, oder? Wieso für eine FX mehr bezahlen als für eine GF3, wenn die FX langsamer ist? Du sagst "Technologie Level". Und was meinst Du damit? Was hat die FX mehr, dass für sie einen höheren Preis als für die GF3 rechtfertigt, obwohl die FX langsamer ist? Was habe ich davon eine Karte der "FX" Generation zu haben, wenn sie langsamer als eine billigere GF3 ist? Was ist die Bedeutung dieser "Technologie-Level"? DirectX9? Darauf können zur Zeit wohl alle verzichten. Wenn ich doch möglichst viel Leistung für mein Geld will, spricht doch alles gegen eine FX5200/5600 und sehr viel für eine GF3/GF4, oder?
Demirug
2003-08-08, 16:46:40
Humphrey, nach preisen sortieren ist OK aber dann bitte die Preise welche am Anfang dafür verlangt wurden. Bei Auslaufprodukten bekommt man ja auch in anderen Bereichen den "Bäh Alt"-Bonus.
Humphrey
2003-08-08, 18:59:50
Original geschrieben von Demirug
Humphrey, nach preisen sortieren ist OK aber dann bitte die Preise welche am Anfang dafür verlangt wurden. Bei Auslaufprodukten bekommt man ja auch in anderen Bereichen den "Bäh Alt"-Bonus.
Doch warum sollte man "Bäh Alt!" sagen, wenn man durch das Neue zum selben Preis keinen (Geschwindigkeits)Vorteil hat? Man kann auch schlecht die Anfangspreise nehmen, denn der Preisverfall bei Computerkram betrifft ja sogar neue Produkte - Es wäre vor 3 Jahren teurer gewesen eine FX zu produzieren als es heute ist.
Oder anders gefragt: Wieso fallen die Preise für alte Grakas, die neuen Grakas überlegen sind? Wieso denken sich die Gamer nicht: Ist mir doch egal, ob es eine FX5200 gibt. Die hat eine schlechtere Performance als eine GF3. Also gebe ich mein Geld für eine GF3 aus." Eigentlich müßten GF3 Karten zu höheren Preisen bei Ebay gehandelt werden als FX5200. Denn sie sind schließlich schneller.
Diese Entwicklung mit "neuen Karten, die schlechter als alte sind" gibt es ja auch erst seit der GF4, oder? Da gab es die MX, die lahmer als eine GF3 war. Beim Übergang von GF2 zu GF3 war ja auch die kleinste GF3 (also die TI 200) immer noch schneller als die schnellste Geforce 2. Und das ist ja auch, was man als Kunde erwarten kann: Es kommt eine neue Generation von Grakas, die den alten überlegen sind. Welches Verkaufsargument sollte es sonst für die neue Karte geben?
Stellt euch vor, AMD würde eine neue Produktlinie fahren mit "Triple XP" CPUs. Ein Triple XP 2000+ würde genauso viel kosten wie ein XP 2000+ wäre aber langsamer. Absurd. Doch Nvidia macht genau das mit den Geforces.
LovesuckZ
2003-08-08, 19:46:45
Original geschrieben von Humphrey
Stellt euch vor, AMD würde eine neue Produktlinie fahren mit "Triple XP" CPUs. Ein Triple XP 2000+ würde genauso viel kosten wie ein XP 2000+ wäre aber langsamer. Absurd. Doch Nvidia macht genau das mit den Geforces.
Du kannst aber CPU's nicht so richtig mit GPU's vergleichen. Nvidia haette auch statt der 5200 eine leicht verkappte GF4TI auf den markt bringen koennen. Die waere zwar schneller gewesen, doch haette nicht über DX9 verfügt.
Fortschritt kostet immer Transistoren und die kann man sich eben im Low End Markt nicht leisten. Also muss man abschaetzen, was einem wichtiger erscheint.
Und wie man sieht, kann beides zu einer Falle werden...
Demirug
2003-08-08, 20:12:36
Original geschrieben von Humphrey
Doch warum sollte man "Bäh Alt!" sagen, wenn man durch das Neue zum selben Preis keinen (Geschwindigkeits)Vorteil hat? Man kann auch schlecht die Anfangspreise nehmen, denn der Preisverfall bei Computerkram betrifft ja sogar neue Produkte - Es wäre vor 3 Jahren teurer gewesen eine FX zu produzieren als es heute ist.
Warum kostet das neue Model eines Schuhs mehr als das Vorjahresmodel das im Regel daneben steht. Kann man damit schneller laufen? Ich glaube nicht trotzdem verkauft es sich.
Oder anders gefragt: Wieso fallen die Preise für alte Grakas, die neuen Grakas überlegen sind? Wieso denken sich die Gamer nicht: Ist mir doch egal, ob es eine FX5200 gibt. Die hat eine schlechtere Performance als eine GF3. Also gebe ich mein Geld für eine GF3 aus." Eigentlich müßten GF3 Karten zu höheren Preisen bei Ebay gehandelt werden als FX5200. Denn sie sind schließlich schneller.
Es gibt durchaus noch andere Faktoren die bei der Wahl einer Grafikkarte den Ausschlag geben als nur die Performance. Preise von alten Produkte fallen weil die Hersteller sie aus den Lagern haben wollen und sie deswegen abverkaufen.
Diese Entwicklung mit "neuen Karten, die schlechter als alte sind" gibt es ja auch erst seit der GF4, oder? Da gab es die MX, die lahmer als eine GF3 war. Beim Übergang von GF2 zu GF3 war ja auch die kleinste GF3 (also die TI 200) immer noch schneller als die schnellste Geforce 2. Und das ist ja auch, was man als Kunde erwarten kann: Es kommt eine neue Generation von Grakas, die den alten überlegen sind. Welches Verkaufsargument sollte es sonst für die neue Karte geben?
Eine GF3 TI-200 schneller als eine GF2Ultra? In der Rohleistung sicherlich nicht. Die GF3 Reihe ist IMHO ein reines Featureupdate der GF2 Rheie.
Stellt euch vor, AMD würde eine neue Produktlinie fahren mit "Triple XP" CPUs. Ein Triple XP 2000+ würde genauso viel kosten wie ein XP 2000+ wäre aber langsamer. Absurd. Doch Nvidia macht genau das mit den Geforces.
Der Tripel XP würde dann über einen anderen Mehrwert verkauft werden. Irgendeinen Befehlserweiterung die den Mehrpreis rechtfertigen soll. Darum kümmert sich die Werbung.
Razor
2003-08-08, 20:32:19
Original geschrieben von Humphrey
<...>
Was ist die Bedeutung dieser "Technologie-Level"? DirectX9? Darauf können zur Zeit wohl alle verzichten. Wenn ich doch möglichst viel Leistung für mein Geld will, spricht doch alles gegen eine FX5200/5600 und sehr viel für eine GF3/GF4, oder?
Wenn es Dir nur um Leisutng geht: ja !
Wenn es Dir um modernste Technologie geht: nein !
Mir geht es um Technologie... natürlich erwarte ich auch Leistung, nicht aber beides für einen Preis von 120 Märkern (nicht Teuro's !). Dann gebe ich mehr aus (in meinem Fall 316€) und bekomme beides... Leistung und Technologie !
Ist doch wunderbar, oder ?
Du kannst wählen... zwischen Technologie oder Leistung !
:D
Und klar reicht von der Leistung her auch 'ne gf4ti (die gf3 ist schon wirklich ein wenig in Jahre gekommen ;-). Allerdings bleiben die neuesten Dinge verweht... damit muss man dann halt leben und das nächste mal wieder 'wenig' Geld für auslaufende Technologie ausgeben...
Stell Dir mal vor, es würden alle so denken !
Hmmm...
Razor
Humphrey
2003-08-08, 20:44:11
Original geschrieben von Razor
Mir geht es um Technologie... natürlich erwarte ich auch Leistung, nicht aber beides für einen Preis von 120 Märkern (nicht Teuro's !). Dann gebe ich mehr aus (in meinem Fall 316€) und bekomme beides... Leistung und Technologie !
Und klar reicht von der Leistung her auch 'ne gf4ti (die gf3 ist schon wirklich ein wenig in Jahre gekommen ;-). Allerdings bleiben die neuesten Dinge verweht...
Razor
Was bleibt einem denn verwehrt? Bis die ersten DirectX 9 Spiele rauskommen, sind die heutigen FX Karten doch schon wieder veraltet. Und überhaupt: Was bringt einem DirectX 9 genau? Bringt es eigentlich bei DirectX8 Spielen irgendetwas? Ist es sinnvoll, es bereits heute zu installieren?
Du sagst, Du willst Technologie. Und was machst Du damit, wo es noch keine DirectX 9 Spiele gibt? Ich kaufe doch auch kein Auto mit einem zweiten Tank für einen neuartigen Treibstoff, wenn es den noch gar nicht zu kaufen gibt.
Was hast Du denn für 316 Euros gekauft? FX5900? Kostet die nicht um die 500?
Razor
2003-08-08, 20:48:03
Original geschrieben von Humphrey
Was bleibt einem denn verwehrt? Bis die ersten DirectX 9 Spiele rauskommen, sind die heutigen FX Karten doch schon wieder veraltet. Und überhaupt: Was bringt einem DirectX 9 genau? Bringt es eigentlich bei DirectX8 Spielen irgendetwas? Ist es sinnvoll, es bereits heute zu installieren?
Ja.
Einige Spiele setzen es sogar schon voraus !
(nicht den D3D-Teil ;-)
Original geschrieben von Humphrey
Du sagst, Du willst Technologie. Und was machst Du damit, wo es noch keine DirectX 9 Spiele gibt? Ich kaufe doch auch kein Auto mit einem zweiten Tank für einen neuartigen Treibstoff, wenn es den noch gar nicht zu kaufen gibt.
Es gibt noch ein wenig mehr, als nur 'Spiele'.
Und genau da setzt mein Interesse an !
Meinst Du ich wäre so an moderner Technologie interessiert, wenn es mir nur um's spielen geht ?
Da würd' mir dann vermutlich auch 'ne Konsole reichen...
Original geschrieben von Humphrey
Was hast Du denn für 316 Euros gekauft? FX5900? Kostet die nicht um die 500?
Ja, eine FX5900 und nein, keine 500...
Razor
Humphrey
2003-08-08, 20:56:13
Original geschrieben von Demirug
Warum kostet das neue Model eines Schuhs mehr als das Vorjahresmodel das im Regel daneben steht. Kann man damit schneller laufen? Ich glaube nicht trotzdem verkauft es sich.
Ich achte beim Schuhkauf vor allem darauf, wie ich in dem Ding gehe und dann noch, dass er halbwegs vernünftig aussieht. Von wann das Modell ist, ist mir vollkommen egal. Wenn ich etwas kaufe, habe ich doch bestimmte Vorstellungen.
Bei einem Schuh: Optik, Bequemlichkeit
Bei einer Graka: Performance, Anschlüsse (DVI, TV)
Von wann die Teile sind, ist doch vollkommen egal, so lange sie die Anforderungen erfüllen. Eine Sache wird ja nicht besser, nur weil sie neuer ist.
Es gibt durchaus noch andere Faktoren die bei der Wahl einer Grafikkarte den Ausschlag geben als nur die Performance.
Welche Faktoren denn noch? Soll die Graka leise sein, also passiv gekühlt, kann sie nicht viel Performance haben. Also kann man statt einer FX5200 gleich eine alte aus der 2er Reihe bei Ebay kaufen. Und die benötigten Anschlüsse (z.B. DVI) findet man auch schon bei alten Karten. Es gibt doch einfach nichts, was einem eine FX bieten kann, was die alten nicht auch haben - außer DirectX9, das zur Zeit keiner braucht. Und das finde ich einfach nur absurd. Wenn es zumindest ein einziges Spiel dafür gäbe, wäre es ja noch in Ordnung. Doch es ist doch auch unsinnig, ein neues, zukünftiges DX9 Spiel auf einer schwachbrüstigen FX5200 spielen zu wollen.
Der Tripel XP würde dann über einen anderen Mehrwert verkauft werden. Irgendeinen Befehlserweiterung die den Mehrpreis rechtfertigen soll. Darum kümmert sich die Werbung.
Genau: Die Werbung vesucht dem potentiellen Käufern einzureden, dass das neue Produkt besser als das alte ist. Doch wehe dann, wenn nach einer Woche bei den neuen schludrig produzierten Schuhen eine Naht aufgeht oder man beim benchmarken merkt, dass die alte Karte schneller war als die neue. Oder man merkt, dass die neue FX5900 ein flimmerndes Bild hat... (Ok, die ist zumindest schneller ;-))
Humphrey
2003-08-08, 20:59:40
Original geschrieben von Razor
Ja.
Einige Spiele setzen es sogar schon voraus !
(nicht den D3D-Teil ;-)
Es gibt noch ein wenig mehr, als nur 'Spiele'.
Und genau da setzt mein Interesse an !
Meinst Du ich wäre so an moderner Technologie interessiert, wenn es mir nur um's spielen geht ?
Da würd' mir dann vermutlich auch 'ne Konsole reichen...
Ja, eine FX5900 und nein, keine 500...
Razor
Na endlich wird die Sache klarer. Wozu brauchst Du denn die aufwendige Karte wenn nicht zum Spielen? Wenn ich nicht ab und an spielen würde, hätte ich eine GF2MX im Rechner.
Wie kommt es, dass manche Spiele DirectX9 brauchen, wenn sie die neuen Funktionen nicht nutzen? M$ Diktat?
Razor
2003-08-08, 21:08:44
Original geschrieben von Humphrey
Na endlich wird die Sache klarer. Wozu brauchst Du denn die aufwendige Karte wenn nicht zum Spielen? Wenn ich nicht ab und an spielen würde, hätte ich eine GF2MX im Rechner.
Wie gesagt... es gibt noch sehr viel mehr, als nur Spiele.
Weitere Erklärungen würden hier jetzt wirklich zu weit führen.
Original geschrieben von Humphrey
Wie kommt es, dass manche Spiele DirectX9 brauchen, wenn sie die neuen Funktionen nicht nutzen? M$ Diktat?
DirectX ist eine API-Sammlung, insofern die '9' die Version dieser Sammlung kennzeichnet.
Über dieses Interface wird von Programmen auf die Hard- und Software unter Windows zugegriffen. Die Grafikkarte ist nur eine mögliche Hardware-Komponente. Der 3D-Teil nur ein Aspekt der Grafikkarte, welcher sich 'Direct3D' nennt.
Wenn also im Allgemeinen von DirectX9-Grafikkarten geredet wird, meint man damit lediglich Grafikkarten, die DirectX9 in den notwendigen visuellen Funktionen (maßgeblich Direct3D 9) unterstützen.
Da gibt's aber noch eine Menge mehr... so z.Bsp.
- Direct3D
- DirectShow
- DirectSound
- DriectSound3D
- DirectPlay
etc.
All das gehört zu DirectX.
Neue DirectX-Versionen bieten meist breitere Hardware-Untestützung, wie auch bessere Funktionen, bessere Performance... was weiß ich ?
;-)
Ich hoffe, dass dies erst mal als Antwort reicht.
Razor
Demirug
2003-08-08, 21:33:11
Ich achte beim Schuhkauf vor allem darauf, wie ich in dem Ding gehe und dann noch, dass er halbwegs vernünftig aussieht. Von wann das Modell ist, ist mir vollkommen egal. Wenn ich etwas kaufe, habe ich doch bestimmte Vorstellungen.
Bei einem Schuh: Optik, Bequemlichkeit
Bei einer Graka: Performance, Anschlüsse (DVI, TV)
Von wann die Teile sind, ist doch vollkommen egal, so lange sie die Anforderungen erfüllen. Eine Sache wird ja nicht besser, nur weil sie neuer ist.
Ja es soll aber leute geben die unbedingt immer das neuste Model haben müssen. Ich finde es auch vollkommen in Ordnung wenn man diesem Weg nicht folgt. Das ist eine entscheidung die jeder selbst treffen muss.
Welche Faktoren denn noch? Soll die Graka leise sein, also passiv gekühlt, kann sie nicht viel Performance haben. Also kann man statt einer FX5200 gleich eine alte aus der 2er Reihe bei Ebay kaufen. Und die benötigten Anschlüsse (z.B. DVI) findet man auch schon bei alten Karten. Es gibt doch einfach nichts, was einem eine FX bieten kann, was die alten nicht auch haben - außer DirectX9, das zur Zeit keiner braucht. Und das finde ich einfach nur absurd. Wenn es zumindest ein einziges Spiel dafür gäbe, wäre es ja noch in Ordnung. Doch es ist doch auch unsinnig, ein neues, zukünftiges DX9 Spiel auf einer schwachbrüstigen FX5200 spielen zu wollen.
Es gibt schon Spiele welche DX9 Fähigkeiten nutzen können. Und für den einen oder anderen kleinen DX9 Effekt wird auch die 5200 noch gut sein. Die Ansprüche an Auflösung und Framerate sind auch sehr verschieden. Der typische Lowcostkäufer denkt einfach anders als du. Die Leute die jetzt eine 5200 kaufen sind die gleichen Leute die sich damals eine kleine GF4MX gekauft haben bzw. eine GF2MX.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.