Archiv verlassen und diese Seite im Standarddesign anzeigen : erste gf-fx Karten angekündigt
daflow
2002-12-18, 22:56:18
Kann ma jetz nich viel diskutieren drüber, aber ich mach ja gern Threads auf die von über 80 Leuten 'geviewt' aber nich 'gereplyt' werden *gg* (s.a.: http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=44863 da gabs aber wohl auch nix neues dazu:/)
MSI und Leadtek kündigen erste GeForce FX-Grafikkarten an
Als erste Anbieter haben Microstar International und Leadtek Research Grafikkartenmodelle auf Basis von Nvidias GeForce FX-Chip angekündigt. Die beiden haben bereits erste Muster des bisher als NV30 bekannten Grafikchips erhalten. Die ersten marktreifen Produkte werden für Ende Januar/Anfang Februar nächsten Jahres erwartet. Aufgrund der derzeit sehr geringen Anzahl verfügbarer Chips plant Nvidia offenbar, weiteren Partnern Grafikkarten von MSI als Produktionsmuster zur Verfügung zu stellen, um den Entwicklungs- und Produktionsprozess zu beschleunigen. Aufgrund der komplexeren Architektur der NV30-Grafikkarten liegen die Produktionsrisiken höher als bei bisherigen Produkten. Dem soll auf diese Art und Weise entgegengewirkt werden. Die neuen Grafikkarten-Modelle werden mit DDR-II-Speicher ausgestattet und verwenden eine sogenannte Heatpipe als Kühlsystem.
Quelle:
http://209.197.92.234/news/nachricht-20021218-1952.html
EDIT: Kerten heisst Karten :bonk:
P.s. Nein ich bin kein THG-Dauerbrowser, aber ab und an gibts interessante Infos;)
Unregistered
2002-12-19, 03:31:09
wen interessiert denn die gffx......?
ATI ist was die leute wollen!
i_Land
2002-12-19, 03:43:22
Mich würde eher die Preise interresieren, 500+ ??? ;)
Und Ende Januar/Anfangs Februar wird ein bisschen knapp, wenn derzeit noch derart geringe Anzahl von Chips vertreten sind.
Originally posted by PeTa
Kann ma jetz nich viel diskutieren drüberKann ma jetz nich viel diskutieren oder kann man jetzt nicht viel diskutieren?
daflow
2002-12-19, 10:31:39
Originally posted by aths
Kann ma jetz nich viel diskutieren oder kann man jetzt nicht viel diskutieren?
Muss da nicht ein Komma vor das oder, oder? Kann man 'Kann ma nich' noch anders deuten als 'Kann man nicht'? Aber schön das wir drüber geredet haben ;)
robbitop
2002-12-19, 10:47:23
wann kommt denn endlich ma das 1. Review mit unabhängigen Benches??
oder wann ist dieses zu erwarten??
daflow
2002-12-19, 11:30:56
^^ letzte Gerüchte basagten: mitte Dezember, bzw. war mal der 18.12 im Gepräch ;)
wenn man bedenkt, das die ersten marktreifen(!) Produkte erst für frühestens Ende Januar angeküdigt sind, kann man eigentlich auch dann erst mit Benches der Endprodukte rechnen;
AlfredENeumann
2002-12-19, 12:16:56
bzgl. Ankündigung kommt Onkel Tom aber spät.
schau mal hier (http://www4.wave-computer.de/presse_geforceFX.html).
Pressemitteilung
Linden, den 22. November 2002
Die neue High-End GPU heißt GeForce FX
Sparkle produziert NV 30 schon Ende Januar
Cinematic Computing / Studio-Quality Color am PC
Endlich - das Kind hat einen Namen. GeForce FX heißt der jüngst geborene Chipsatz aus der nVIDIA Familie – Spitzname NV30. Der taiwanesische Hersteller Sparkle kündigt nun die Verfügbarkeit seiner neuen NV3x - Karten an: Bereits ab Ende Januar können sich die Endkunden auf effektvollere und realistische 3D- Darstellungen der neuen Grafikkarten -Generation freuen.
Das gibt’s ja gar nicht! Der neue 3-D Prozessor von nVIDIA bricht alle Rekorde: 125 Millionen Transistoren und 500 MHz Speichertakt. Dazu noch der DDR2-Speicher, der eine effektive Datentransferrate von 1 Ghz erreicht – da wird der PC zum Kino. Dafür sorgt nicht zuletzt die neuartige CineFX- Engine, die aufwendige Spiele- Effekte zuläßt.
Die neuen NV3x Karten von Sparkle werden bereits Ende Januar für den Handel erhältlich sein. Die NV31 und NV34 Karten schon ab Ende März 2003.
Die Firma Sparkle ist als offizieller Nvidia-Partner sogenannter Certified Vendor und baut strikt nach Nvidia-Referenzdesign. Die Boards der Taiwanesen sind von höchster Qualität und garantieren exzellente Performance. Die Garantie aller Sparkle-Grafikkarten beträgt 3 Jahre.
Weitere Informationen unter www.sparkle.com.tw oder www.wave-computer.de
daflow
2002-12-19, 12:24:50
lol;) macht ja nix, dann sind microstar un leadtek halt die ... aeh zweiten ersten ;)
robbitop
2002-12-19, 13:47:44
mir würde ja auch ein bench eines ReferenzBoardes reichen
Unregistered
2002-12-19, 14:18:53
Originally posted by aths
Kann ma jetz nich viel diskutieren oder kann man jetzt nicht viel diskutieren? Da kamma jetz ma drüber diskutieren.
Bedenkenswert: Einer der günstigsten / billigsten Graka-Anbieter, Creative, spricht von Preisen um die 500 US-$
http://www.hardwarefusion.net/content/000116.php?page=3
Q. Prices of graphics card products are already quite high. What sort of prices can we expect to see for the Geforce FX range or future products?
A. I think I covered this one above … final pricing has not been confirmed but NVIDIA are saying target price is $499 and this becomes £449+ Inc VAT (remember all US prices are quoted excluding local state taxes)
Bei MSI und Leadtek wird man noch ein paar Euro drauflegen müssen, also unter 600 Euro werden die ersten Karten nicht erhältlich sein.
Unregistered
2002-12-19, 14:20:56
Originally posted by Unregistered
Da kamma jetz ma drüber diskutieren.Soll "kömma" heißen...
Unregistered
2002-12-19, 14:33:31
MSI nennt einen suggested retail price von 450$. Das steht auf dem Paket in der Animation
http://www.msicomputer.com/msiforms/GFFX.asp
daflow
2002-12-19, 14:35:34
Es werden halt wieder Startpreise wie immer um die 500,- Euro fuers Spitzenmodell sein, da gibts aber auch schon dicke Threads dazu
seahawk
2002-12-19, 15:18:07
Denke auch 499 Euro für die Ultra. Mehr gibt der Markt nicht her.
Oli_Immerschoen
2002-12-19, 15:23:24
Originally posted by seahawk
Denke auch 499 Euro für die Ultra. Mehr gibt der Markt nicht her.
Genau...sag "danke, ATI.."
FormatC
2002-12-19, 15:23:41
Wird es eigentlich TPCA Komponenten auf GeforceFX Platinen geben?
LovesuckZ
2002-12-19, 15:28:06
Originally posted by seahawk
Denke auch 499 Euro für die Ultra. Mehr gibt der Markt nicht her.
Noe, warum. Die Ultra wird auch 'deutlich' schneller sein als die 9700 Pro. Da 'gibt der Markt' noch mehr her.
Originally posted by LovesuckZ
Noe, warum. Die Ultra wird auch 'deutlich' schneller sein als die 9700 Pro. Da 'gibt der Markt' noch mehr her.
Genau.
Es sei denn ATi kontert mit Preissenkung.
Exxtreme
2002-12-19, 15:36:58
Originally posted by LovesuckZ
Noe, warum. Die Ultra wird auch 'deutlich' schneller sein als die 9700 Pro.
Sagte die Kristalkugel...
LovesuckZ
2002-12-19, 15:44:53
Originally posted by Exxtreme
Sagte die Kristalkugel...
Die 9700 ist mit einen 256Bit Speicherinterface im Flyby von UT zwischen 14-30% (1024*768 -->1600x1200)zur 9500pro schneller. 9700 zur Pro grad mal 5-13%. Da denke ich schon, dass ne GFFXUltra deutlich schneller sein wird.
Quelle (http://www.anandtech.com/video/showdoc.html?i=1756&p=4)
Exxtreme
2002-12-19, 15:51:23
Originally posted by LovesuckZ
Die 9700 ist mit einen 256Bit Speicherinterface im Flyby von UT zwischen 14-30% (1024*768 -->1600x1200) schneller. 9700 zur Pro grad mal 5-13%. Da denke ich schon, dass ne GFFXUltra deutlich schneller sein wird.
Quelle (http://www.anandtech.com/video/showdoc.html?i=1756&p=4)
Dir ist aber schon klar, daß selbst eine GFFXU aller Voraussicht nach weniger Speicher-Bandbreite haben wird als eine Radeon9700Pro, oder? Ausserdem wird die Schlacht mit FS(E)AA und AF geschlagen. Ohne diese Features ist es nicht mehr interessant. Und hier wird sich zeigen müssen ob die GFFXU der Radeon9700Pro das Wasser reichen kann oder nicht. Zumindest wird das FS(E)AA mit aller Voraussicht nicht der Hammer werden.
LovesuckZ
2002-12-19, 15:55:06
Originally posted by Exxtreme
Dir ist aber schon klar, daß selbst eine GFFXU aller Voraussicht nach weniger Speicher-Bandbreite haben wird als eine Radeon9700Pro
Ne 9500pro hat die haelfte der Speicherbandbreite einer 9700 und ist nur maximal 30% langsamer. Und in den AA und AF Test von Anandtech sieht es nicht besser aus fuer die 9700.
Abwarten. Alles Spekulieren hilft da nichts.
Man kann nicht von 128bittigem ATI-RAM-Interface auf die Leistung einer 128bittigen NV30 schliessen.
Exxtreme
2002-12-19, 15:58:47
Originally posted by LovesuckZ
Ne 9500pro hat die haelfte der Speicherbandbreite einer 9700 und ist nur maximal 30% langsamer. Und in den AA und AF Test von Anandtech sieht es nicht besser aus fuer die 9700.
Anand hat ja auch 'nur' in 1024x768 und 'nur mit 4x AA gebencht. Mit höherer Auflösung und Subpixelanzahl wird der Abstand meist deutlich grösser.
LovesuckZ
2002-12-19, 16:01:21
Originally posted by ow
Man kann nicht von 128bittigem ATI-RAM-Interface auf die Leistung einer 128bittigen NV30 schliessen.
Man kann aber davon ausgehen, dass das Speicherinterface des NV30 wenigsten gleichauf mit dem von ATI ist.
LovesuckZ
2002-12-19, 16:03:35
Originally posted by Exxtreme
Anand hat ja auch 'nur' in 1024x768 und 'nur mit 4x AA gebencht. Mit höherer Auflösung und Subpixelanzahl wird der Abstand meist deutlich grösser.
Hier (http://www.de.tomshardware.com/graphic/02q4/021212/radeon9500pro-09.html#4x_fsaa) ist sie auch nicht weiter entfernt.
Originally posted by LovesuckZ
Man kann aber davon ausgehen, dass das Speicherinterface des NV30 wenigsten gleichauf mit dem von ATI ist.
Das schon, aber allein aus dem Speicherinterface kann man keine Aussage über die Leistung treffen.
Richthofen
2002-12-19, 18:26:36
"
Anand hat ja auch 'nur' in 1024x768 und 'nur mit 4x AA gebencht. Mit höherer Auflösung und Subpixelanzahl wird der Abstand meist deutlich grösser.
"
Wie man in dem Link weiter unten sieht, ist es auch in 1600 mal 1200 nicht viel anders.
40 fps vs 35 fps zwischen Radeon9500pro und 9700 normal.
Alles was da drüber geht wird dann schon deshalb uninteressant, weils nicht mehr spielbar ist.
Wenn zb die 9700 zur 9500 pro bei 1600 mal 1200 und max AA + max AF 20 fps vs 5 fps macht, wird das niemanden mehr interessieren weil halt einfach nicht spielbar.
Ich denke die FX wird trotz nur 128 Bit die 9700pro doch schon schlagen können. Bei 500 MHZ Core wird sie da wohl nicht so die Probleme bekommen zumal viele immer noch gern ohne AA und AF testen und wenn dann nicht sonderlich ausgiebig.
Gerade in diesen Szenarien sollte der Vorteil doch schon recht gross sein und das wird imho letztlich entscheidend für den PReis sein.
Den Preis macht der Markt. Liegt die Karte gut über der ATI sind 500 Euro drinn.
mapel110
2002-12-19, 19:46:16
hm, ob eine geforceFX 1000 fps bei quake3 in 1024er schafft ???
nagus
2002-12-19, 20:02:54
Originally posted by mapel110
hm, ob eine geforceFX 1000 fps bei quake3 in 1024er schafft ???
mit einer 10GHz CPU sicher ;)
egdusp
2002-12-19, 20:09:30
Originally posted by mapel110
hm, ob eine geforceFX 1000 fps bei quake3 in 1024er schafft ???
Ich vermute mal, da dürfte der Ramdac nicht mitmachen, zumindest sofern diese Bilder auch tatsächlich rausgeschickt werden sollen (von einem Monitor der das schafft ganz zu schweigen).
mfg
egdusp
Originally posted by egdusp
Ich vermute mal, da dürfte der Ramdac nicht mitmachen, zumindest sofern diese Bilder auch tatsächlich rausgeschickt werden sollen (von einem Monitor der das schafft ganz zu schweigen).
mfg
egdusp
Seit wann machen fps-Junkies VSync an?
FormatC
2002-12-20, 14:33:33
Originally posted by FormatC
Wird es eigentlich TPCA Komponenten auf GeforceFX Platinen geben?
*schiebt*
Unregistered
2002-12-20, 14:47:50
Die GFX hat ja aller Voraussicht garkein gutes FSAA oder?
Daher würd ich mir sowas schonmal garnicht kaufen
Originally posted by Unregistered
Die GFX hat ja aller Voraussicht garkein gutes FSAA oder?
Daher würd ich mir sowas schonmal garnicht kaufen
Qualität liegt im Auge des Betrachters ;)
Unregistered
2002-12-20, 14:56:05
Originally posted by Xmas
Seit wann machen fps-Junkies VSync an?
Hä? Rumjammern, wenn irgendwo nur nicht genug aniso gefiltert wird und sich dann dann zwei verschiedene, verschobene Bildhälften reinziehen, ne ne ne... .
Originally posted by Unregistered
Hä? Rumjammern, wenn irgendwo nur nicht genug aniso gefiltert wird und sich dann dann zwei verschiedene, verschobene Bildhälften reinziehen, ne ne ne... .
Lieber Gast:
Erst lesen, dann verstehen, dann antworten.
Schau mal worauf sich Xmas´ Posting bezieht.
Unregistered
2002-12-20, 15:02:57
Originally posted by ow
Lieber Gast:
Erst lesen, dann verstehen, dann antworten.
Schau mal worauf sich Xmas´ Posting bezieht.
Ops, das ging ja mal schnell. Da hab ich wohl nicht richtig hingeschaut. Sorry xmas, nix für ungut ow.
robbitop
2002-12-20, 15:08:16
ich findes 4xS und alles anderen SS/MS Hybriden sehen sehr gut aus, da die Texturen noch behandelt werden in einer art, die kein AF macht..subjektiv sieht das Sahne aus..leider bei meiner Ti4200 unbrauchbar lah,m..@GF FX SAHNE
Tiamat
2002-12-20, 16:06:25
Jeah noch 1 1/2 Monate und dann ist es soweit ;D
ice cool69
2002-12-20, 16:30:30
die gf-fx braucht schon eine geradezu geniale bandbreitenausnutzung um in hohen auflösungen die r9700pro deutlich zu schlagen...
ich schätze dass sie in geringen auflösungsstufen abgeht, je wichtiger die bandbreite wird, desto geringer wird der abstand zur radeon9700pro sein.
da ich einen 22" habe und deshalb die auflösung gerne hochschiebe und gutes AA brauche ist für mich die radeon wohl die bessere wahl (besonders wenn man den preis mit einberechnet).
und 16xAF kann die gffx ja immer noch nicht (dafür hat die radeon keinen quali-modus)...
LovesuckZ
2002-12-20, 20:06:40
Originally posted by ice cool69
die gf-fx braucht schon eine geradezu geniale bandbreitenausnutzung um in hohen auflösungen die r9700pro deutlich zu schlagen...ich schätze dass sie in geringen auflösungsstufen abgeht, je wichtiger die bandbreite wird, desto geringer wird der abstand zur radeon9700pro sein.
Nein brauch sie nicht. Die 9500Pro haengt im Flyby vom UT2003 auch 'nur' 30% hinter einer 9700Pro. Und sie hat nur die haelfte der Bandbreite. Da sich Nvidia auf das 128Bit konzentiert hat, werden sie wohl eine besserer Leistungsnutzung erreichen.
und 16xAF kann die gffx ja immer noch nicht (dafür hat die radeon keinen quali-modus)...
8X der Geforce soll mindesten genauso gut aussehen, wie 16X der Radeon. Und dazu bekommt sie (GFFX) noch einen Performance Modus.
ice cool69
2002-12-20, 20:21:32
und dieser performancemodus mit 8x sieht wiederum schlechter aus als der 16x von ati.
dazu kommt dass weiters das AA auch mehr leistung verschlingt als das von ati obwohls qualitativ anscheinend nicht der überflieger is (an der ati-version kommts nicht vorbei).
dazu die geringere bandbreite (sorry aber an wunder glaube ich erst wenn ich sie sehe)...
also ich weiß nicht so recht, absolute spitzen-überflieger müssen in meinen augen durchgehend besser sein. das hat die radeon9700pro geschafft im gegensatz zur gf-fx...
Piffan
2002-12-20, 20:24:44
Originally posted by ice cool69
und dieser performancemodus mit 8x sieht wiederum schlechter aus als der 16x von ati.
dazu kommt dass weiters das AA auch mehr leistung verschlingt als das von ati obwohls qualitativ anscheinend nicht der überflieger is (an der ati-version kommts nicht vorbei).
dazu die geringere bandbreite (sorry aber an wunder glaube ich erst wenn ich sie sehe)...
also ich weiß nicht so recht, absolute spitzen-überflieger müssen in meinen augen durchgehend besser sein. das hat die radeon9700pro geschafft im gegensatz zur gf-fx...
Ja klasse, dann hol dir doch eine runter- äh- kaufe dir eine.....
LovesuckZ
2002-12-20, 20:26:17
Originally posted by ice cool69
und dieser performancemodus mit 8x sieht wiederum schlechter aus als der 16x von ati.
ATI filtert (?) auch nicht ueberall 16X. Und deswegen kann man nur Vermuten, wie Nvidia's Performanceverfahren aussieht. Und wer weiß, vielleicht sieht es auch gleichgut aus.
also ich weiß nicht so recht, absolute spitzen-überflieger müssen in meinen augen durchgehend besser sein. das hat die radeon9700pro geschafft im gegensatz zur gf-fx...
Benchmark's? Lass uns doch an deinen Quellen teilhaben.
Rampage 2
2002-12-20, 20:36:53
Also laut Tom's Hardware hat eine R9500Pro in UT2003 bei:
1600x1200x32Bit 4xAA+8xtriAF noch 27,5fps
und eine R9700 Pro hat bei der selben Einstellung 36fps - also grade
mal 30% höher. Und angesichts der Unspielbarkeit von beiden Karten auf dieser Auflösung wird dieser eh schon geringer Unterschied
niemanden dazu bringen sich 'ne R9700/Pro zu kaufen. Und bei 16xtriAF
dürfte der Unterschied noch kleiner sein, da die Füllrate auf beiden
Karten gleich ist.
Tiamat
2002-12-20, 20:57:51
Was die FanATIker wohl machen wenn die Geforce Fx selbst bei Bandbreitenlastigen Anwendungen schneller ist als die 9700 Pro ;D
Jo da steht die Welt kopf :punch:
LovesuckZ
2002-12-20, 21:00:21
Originally posted by Tiamat
Was die FanATIker wohl machen wenn die Geforce Fx selbst bei Bandbreitenlastigen Anwendungen schneller ist als die 9700 Pro ;D
Jo da steht die Welt kopf :punch:
Sie werde mit der Ausrede kommen, dass die 9700Pro nicht der Konkurent der GFFX sei, da diese ja ein halbes Jahr spaeter erst auf dem Markt kam.
Wobei, was ist, wenn die 9700Pro in Sachen Fuellrate besser sein werde:o
seahawk
2002-12-20, 21:11:09
Originally posted by LovesuckZ
Sie werde mit der Ausrede kommen, dass die 9700Pro nicht der Konkurent der GFFX sei, da diese ja ein halbes Jahr spaeter erst auf dem Markt kam.
Wobei, was ist, wenn die 9700Pro in Sachen Fuellrate besser sein werde:o
Der GFX Konkurrent ist ja auch der R350, da beide KArten fast gleichzeitig am Markt seien dürften.
Tiamat
2002-12-20, 21:12:47
Wieso die ist doch mit 4 GT/GP 1.4 GT/GP höher als bei der 9700 Pro ?
ice cool69
2002-12-20, 21:18:15
LOL das ist keine ausrede sindern eine tatsache dass die gffx gegen die r350 antreten wird.
aber ich finde es nunmal erbärmlich dass nvidias spitzenmodell in einigen bereichen mieser abschneidet als das vorgängermodell von ati.
ma ehrlich nvidia muss schon ordentlich geschütze auffahren umd das VORGÄNGERMODELL von ati aushebeln zu können, in der theorie isses sogar unterlegen.
wenn ihr mich fragt beißt die gffx(ultra) gegen den r350 ab und gegen die r300 tritt sie schon gar nicht an. so what...
LovesuckZ
2002-12-20, 21:22:38
Originally posted by ice cool69
aber ich finde es nunmal erbärmlich dass nvidias spitzenmodell in einigen bereichen mieser abschneidet als das vorgängermodell von ati.
'hust'. Schoen, dass du Argumente und Stuetzen einfach aus deiner Argumentation raus laesst. Würde ja sonst der Anschein enstehen, dass du das nicht begruenden koenntest.
ma ehrlich nvidia muss schon ordentlich geschütze auffahren umd das VORGÄNGERMODELL von ati aushebeln zu können, in der theorie isses sogar unterlegen.
Du musst dich verschrieben haben. Du meinst bestimmt, Nvidia's GFFX steht in der Theorie besser da als der r300. Wie es jedoch in der Praxis aussieht, ist noch ungewiss.
seahawk
2002-12-21, 18:11:47
Originally posted by ice cool69
LOL das ist keine ausrede sindern eine tatsache dass die gffx gegen die r350 antreten wird.
aber ich finde es nunmal erbärmlich dass nvidias spitzenmodell in einigen bereichen mieser abschneidet als das vorgängermodell von ati.
ma ehrlich nvidia muss schon ordentlich geschütze auffahren umd das VORGÄNGERMODELL von ati aushebeln zu können, in der theorie isses sogar unterlegen.
wenn ihr mich fragt beißt die gffx(ultra) gegen den r350 ab und gegen die r300 tritt sie schon gar nicht an. so what...
Ich denke es gibt noch keinen Nachweis, dass die FX der R300 unterlegen ist. Das kann zwar sein, aber ich glaube eher nicht.
Piffan
2002-12-21, 18:25:20
Originally posted by seahawk
Ich denke es gibt noch keinen Nachweis, dass die FX der R300 unterlegen ist. Das kann zwar sein, aber ich glaube eher nicht.
Außerdem ist Performance bzw. technische Überlegenheit nicht alles. So war die R7500 dem Geforce 2 ja eigentlich auch überlegen. Nur hatte der Spieler davon nüscht viel gesehen, wegen Treibermurks und schlechter Unterstützung durch die Spieleindustrie...
Bis heute ist es immer noch so, dass die Atis gerade bei Spielen gerne zicken...Egal ob es schlechte Treiber sind oder die Unterstützung durch die Spieleindustrie mangelhaft ist; diese Diskussion hilft dem ahnungslosen Käufer auch nicht wirklich...
Wenn ich allerdings in der Zukunft sehe, dass man alle Spiele mit Geduld und Fachkenntnis fehlerfrei zum Laufen bringt, werden die Radeon eine echte, sehr überlegenswerte Alternative....
Wer noch ne G3 oder ne Radeon 8500 hat, der muß ja nicht auf die Schnelle die Entscheidung treffen. Wer es ohne Not tut, soll im Frühjahr nicht jammern, falls die N30 rockt...
StefanV
2002-12-21, 18:41:52
Originally posted by seahawk
Ich denke es gibt noch keinen Nachweis, dass die FX der R300 unterlegen ist. Das kann zwar sein, aber ich glaube eher nicht.
Umgekehrt allerdings auch...
Es gibt noch keinen Nachweis, daß die GF FX besser/schlechter/gleichwertig oder sonstwas ist, man kann nur vermuten was besser sein wird.
Abwarten und Tee rauchen, bevor die GFFX beurteilt wird, gibt noch keine Unabhängigen Berichte von der NV30
ice cool69
2002-12-21, 18:42:18
wie gesagt es ist eine vermutung von mir!!!
...dass die nv30 bei benches welche nicht von der vergleichsweise geringen bandbreite ausgebremst werden absolut und ohne probleme an die gf-fx gehen sollten.
trotzdem glaube ich dass der unterschied dahinschwindet sobald AA und AF in hohen auflösungen dazukommen. soweit ich weiß ist das AA von ati qualitativ hochwertiger und schneller.
beim AF gibts zwar auch von nvidia neu einen performancemode aber die gf-fx kommt wieder einmal nicht über 8x hinaus.
wenn es anders kommt, ich lasse mich gerne überraschen aber angesichts des preisunterschiedes kommt für mich keine gf-fx in frage, besonders nicht wenn die benches dann so aussehen wie ich das vermute (ich schließe einfach mal aus den theoriebenches).
im endeffekt wäre mir ein flop der gf-fx überhaupt nicht lieb denn sollte nvidia jetzt in ein ähnliches loch fallen wie 3dfx seinerzeit dann bestimmt ati die preise und unsereins guckt in die röhre.
ati soll einfach ma ne spur besser sein wie es momentan der fall ist und so ein ausgeglicheneres marktverhältnis erzwingen.
ab dann qünsch ich mir ein kopf an kopf-rennen ohne der gefahr dass einer der beiden untergeht und schon ist die branche in absolut kundenfreundlichen regionen.
LovesuckZ
2002-12-21, 18:55:51
Originally posted by ice cool69
[quote]trotzdem glaube ich dass der unterschied dahinschwindet sobald AA und AF in hohen auflösungen dazukommen.[...]aber die gf-fx kommt wieder einmal nicht über 8x hinaus.
Guck dir Benches von der 9500pro und der 9700 an. Beim Einsatz von AA und AF ist der Unterschied kleiner als wenn man ohne den Vergleich macht. Ach und dir ist schon bewusst, dass das 8X AF der NV25 mindesten genauso aussieht wie das 16X von ATI? Und nun laesst sich streiten, wer wohl das bessere Verfahren hat. Da man bei der FX beide Methoden anbietet, spricht mehr fuer den NV30.
Piffan
2002-12-21, 19:07:20
Genau, der kundige Spieler soll selbst entscheiden dürfen, welche BQ er zu welchem Preis (Peformancedrop) wählt. Für DAUs kann man ja die Optionen hinter einem weitern Karteireiter verstecken, "Poweruser", löl)
Originally posted by ice cool69
da ich einen 22" habe und deshalb die auflösung gerne hochschiebe und gutes AA brauche ist für mich die radeon wohl die bessere wahl (besonders wenn man den preis mit einberechnet).Ja, gute Kantenglättung ist eine Stärke des R300.
Originally posted by ice cool69
und 16xAF kann die gffx ja immer noch nicht (dafür hat die radeon keinen quali-modus)... Sie hat einen Qualitäts-Modus :D Nur ist dieser bei einigen Winkeln eben nicht so gut wie das AF vom NV2x.
Originally posted by seahawk
Der GFX Konkurrent ist ja auch der R350, da beide KArten fast gleichzeitig am Markt seien dürften. Das wird sich erst noch zeigen müssen, denke ich.
Originally posted by ice cool69
LOL das ist keine ausrede sindern eine tatsache dass die gffx gegen die r350 antreten wird.Hat ATI schon konkrete Termine genannt?
Originally posted by ice cool69
aber ich finde es nunmal erbärmlich dass nvidias spitzenmodell in einigen bereichen mieser abschneidet als das vorgängermodell von ati.Das war bei GF4 vs. R8500 auch schon so :D
Aber auch die R9700 Pro hat einiges nicht, was GeForce3 schon längst hat...
Originally posted by ice cool69
ma ehrlich nvidia muss schon ordentlich geschütze auffahren umd das VORGÄNGERMODELL von ati aushebeln zu können, in der theorie isses sogar unterlegen.Teilweise ja, teilweise nein.
betasilie
2002-12-22, 02:32:36
Originally posted by aths
Das wird sich erst noch zeigen müssen, denke ich.
Ich wette das max. 6 Wochen zwischem dem Release der GFFX und dem Release der Radeon 9900Pro vergehen.
Radeonator
2002-12-22, 02:54:42
Originally posted by aths
Hat ATI schon konkrete Termine genannt?
Hat NV schon konkrete Termine genannt?
Originally posted by aths
Aber auch die R9700 Pro hat einiges nicht, was GeForce3 schon längst hat...
Welches ach so tolle GF3 Feature ists denn ???
LovesuckZ
2002-12-22, 11:06:05
Originally posted by Radeonator
Hat NV schon konkrete Termine genannt?
Nein, aber Sparkle. Und sie sprachen von ende Januar oder Anfang Februar.
robbitop
2002-12-22, 13:33:13
nicht zu vergessem MSI
Pussycat
2002-12-22, 15:21:06
Originally posted by ice cool69
im endeffekt wäre mir ein flop der gf-fx überhaupt nicht lieb denn sollte nvidia jetzt in ein ähnliches loch fallen wie 3dfx seinerzeit dann bestimmt ati die preise und unsereins guckt in die röhre.
Da NV riesige Marktanteile, einen Grosser Bekanntheitsgrad und viel Geld hat, kann es auch einen total gefloppten nv30 überstehen.
Sie könnten mit gleich Ausgaben drei Jahre überleben, ohne auch nut einen Chip zu verkaufen, oder wie war's? Also darum würde ich mir noch keine Sorgen machen.
Unregistered
2002-12-22, 15:36:01
Originally posted by Pussycat
Da NV riesige Marktanteile, einen Grosser Bekanntheitsgrad und viel Geld hat, kann es auch einen total gefloppten nv30 überstehen.
Sie könnten mit gleich Ausgaben drei Jahre überleben, ohne auch nut einen Chip zu verkaufen, oder wie war's? Also darum würde ich mir noch keine Sorgen machen.
Also das halt ich für ein Gerücht.
StefanV
2002-12-22, 16:06:05
Originally posted by Unregistered
Also das halt ich für ein Gerücht.
Ich auch.
Keine Unternehmung hält länger ohne Umsätze aus...
Auch NV nicht, zumal die Frage ist, wieviel Eigenkapital NV eigentlich noch zur Verfügung stehen und wieviel schon 'weg' ist...
Quasar
2002-12-22, 16:52:23
Originally posted by Radeonator
Welches ach so tolle GF3 Feature ists denn ???
HOS-Support für RT-Patches, FSAA-mixed-Modi, "16Bit"-FSAA, "unintelligentes" AF.
Dazu kommen sicher noch ein paar Feinheiten, die man erst bei genauerem Durchsehen der technischen Details erkennt...
StefanV
2002-12-22, 18:08:55
Originally posted by Quasar
HOS-Support für RT-Patches, FSAA-mixed-Modi, "16Bit"-FSAA, "unintelligentes" AF.
Dazu kommen sicher noch ein paar Feinheiten, die man erst bei genauerem Durchsehen der technischen Details erkennt...
RT-Patches -> gibts in aktuellen Treibern nicht mehr, sind also 'tot'
16bit FSAA -> ist der einzige Punkt, dafür bietet NV bisher nur bei 2x ein RG 'Muster', bei 4x hingegen 'dummes' OGMS.
ATI kanns aber irgendwann mit SS nachliefern...
'unintelligentes AF' -> dürfte wohl kaum einen interessieren, da der Performanceeinbruch zu stark sein dürfte...
Originally posted by Stefan Payne
'unintelligentes AF' -> dürfte wohl kaum einen interessieren, da der Performanceeinbruch zu stark sein dürfte...
Mich interessierts jedenfalls.
Quasar
2002-12-22, 18:24:24
Mich auch, solange jedenfalls, bis die Entscheidungslogik wo AF'ed wird und wo nicht, so ausgereift ist, dass wirklich keine Fehlentscheidungen mehr getroffen werden, i.e. der Unterschied nicht mehr zu sehen ist.
Razor
2002-12-22, 18:50:37
@Stefan Payne
"RT-Patches -> gibts in aktuellen Treibern nicht mehr, sind also 'tot'"
Können per 'hack' noch immer aktiviert werden, sind also derzeit nur via Treiber inaktiv, aber nicht 'tot' !
"16bit FSAA -> ist der einzige Punkt, dafür bietet NV bisher nur bei 2x ein RG 'Muster', bei 4x hingegen 'dummes' OGMS. ATI kanns aber irgendwann mit SS nachliefern..."
Könnte...
Oder auch nicht !
Vielleicht ist ja auch die R9700 viiiiiiel zu langsam für SSAA ?
(nur eine Vermutung !)
"'unintelligentes AF' -> dürfte wohl kaum einen interessieren, da der Performanceeinbruch zu stark sein dürfte..."
Bei 4xAF ca. 30% (meine gf3 angenommen)...
DAS ist mir 'perfektes' AF auch wert, wenn auch die Performance sicher noch optimiert werden könnte, aber bitte nicht auf Kosten der BQ !
Lediglich bei allerneuesten Games ist es kaum noch nutzbar...
(und wieder: bei meiner gf3 !)
-
Insbesondere der letzte Punkt ist mir sehr wichtig.
Sollte gffx kein 'perfektes' bzw. 'quality' AF bieten, werde ich sie mir sicher nicht holen !
(was ich dann mache, ist mir derzeit allerdings noch schleierhaft...)
Bis denne
Razor
Quasar
2002-12-22, 19:10:55
Wo ich grad so lese, was der Payne wieder für'n OT-Zeug gepostet hat:
Payne, die Punkte habe ich angeführt als Antwort auf Radeonators Frage:
"Welches ach so tolle GF3 Feature ists denn???"
Deine Kommentare dazu sind also vollkommen flüssiger als flüssig.
Pussycat
2002-12-22, 19:13:14
Originally posted by Unregistered
Also das halt ich für ein Gerücht.
Es gab hier mal ne genze Diskussion drüber. Manche sagten ein Jahr, andere drei. Nicht besonders interessant IMO, da's total unrealistisch ist.
Und ich habe auch nicht richtig luist mich die Jahresberichte durchzuwühlen, sicher nicht als e-techniker.
Razor
2002-12-22, 19:21:53
Originally posted by Pussycat
Es gab hier mal ne genze Diskussion drüber. Manche sagten ein Jahr, andere drei. Nicht besonders interessant IMO, da's total unrealistisch ist.
Und ich habe auch nicht richtig luist mich die Jahresberichte durchzuwühlen, sicher nicht als e-techniker.
Durch die letzte Aktion-Emission hat nVidia rund eine Milliarde (one billion ;-) auf Halde gelegt (wohlgemerkt nach dem Kauf von 3dfx). Und selbst wenn nichts von den 400mio Entwicklungskosten für den nv30 rein gekommen ist (was ich mal bezeifle, denn der Verlust lag wohl so um die 250mio ?), hätten sie noch 600mio übrig (US-Dollar wohlgemerkt und also eher 750mio ;-).
Und klar, 3 Jahr ohne jeglichen Umsatz hält KEINE Firma durch. 3 Jahre allerdings, ohne die Performance-Krone im GraKa-Sektor zu haben, mit dieser Kapital-Decke schon...
Und bitte nicht vergessen, neben dem Retail-GraKa-Markt gibt's da noch den OEM-Bereich, den kompletten Mobo-Sektor, die Spielkonsolen und noch so einiges, mit dem sich nVidia beschäftigt.
-
Also irgendwie versteh' ich diese ganzen Schwarzmaler hier nicht, denn auch denen dürfte eine solche (irrwitzige) Entwicklung nicht recht sein !
Bis denne
Razor
P.S.: dich habe damit nicht gemeint, Pussy, wollte Deinen Post nur ergänzen...
;-)
Quasar
2002-12-22, 19:42:38
Wenn man dieser Logik folgt (Firma ohne Top-Performer in einem der Segmente), dann gäbe es ATi schon seit einigen Jahren nicht mehr. ;)
Neenee, bei einer funktionierenden Geschäftsbasis mit Standbeinen in mehreren Marktsegmenten hält eine Firma ohne eigene Fab schon eine Weile durch.
StefanV
2002-12-22, 20:25:25
Originally posted by Quasar
Wenn man dieser Logik folgt (Firma ohne Top-Performer in einem der Segmente), dann gäbe es ATi schon seit einigen Jahren nicht mehr. ;)
Neenee, bei einer funktionierenden Geschäftsbasis mit Standbeinen in mehreren Marktsegmenten hält eine Firma ohne eigene Fab schon eine Weile durch.
ATI hatte auch einige Vorteile gegenüber NV, z.B. der bessere TV Out, bessere SQ und noch einige andere Dinge...
NV bietet das nicht (mehr lange)...
LovesuckZ
2002-12-22, 20:40:07
Originally posted by Stefan Payne
ATI hatte auch einige Vorteile gegenüber NV[...] bessere SQ [...]
NV bietet das nicht (mehr lange)...
Also bitte...
StefanV
2002-12-22, 20:52:36
Originally posted by LovesuckZ
Also bitte...
Ich hab von der Zeit gesprochen, als bei ATI nur EINER Karten mit ATI Chips ausgeliefert hat.
Und das waren sie selbst, die SQ der ATI/BBA Karten ist durchweg gut bis sehr gut.
Zu dieser Zeit hat Powercolor für den schlechten Ruf bei NV Karten gesorgt *eg*
LovesuckZ
2002-12-22, 21:12:03
Originally posted by Stefan Payne
Ich hab von der Zeit gesprochen, als bei ATI nur EINER Karten mit ATI Chips ausgeliefert hat.
Stimmt, und zum Glueck ist die deutsche Sprache auch so eindeutig:
ATI hatte auch einige Vorteile gegenüber NV, z.B. der bessere TV Out, bessere SQ und noch einige andere Dinge...
:D
Crazytype
2002-12-23, 00:59:21
also ich fand ATI hat immer mit mehr features geglänzt als NVIA und nicht dumme aufgüsse á la GF4 gebracht. Dual monotoring,dx8.1 usw.
ice cool69
2002-12-23, 02:22:12
kann ja sein dass nvidia 3 jahre überleben könnte ohne die performancekrone zu behalten (über aussagen wie 3 jahre ohne einen chip zu verkaufen möchte ich hier als bwl-student nicht weiter kommentieren), aber bis dahin sind sie in diesem markt noch hinter sis gefallen.
mal im ernst dieses geschäft ist so knallhart auch ein riese wie nvidia muss sich gehörig anstrengen um da mitzuhalten. und ati ist dermaßen gewachsen dass die guten alten nvidia=top zeiten absolut vorbei sind.
ich hab vor kurzem bei nem freund UT2003 in 1024x768 mit 16AF und 6xAA + trueform gesehn (lief sehr flüssig, einem quaker dürften es zu wenige frames gewesen sein, dazu muss man aber sagen dass er nur einen AXP1800+ hatte) und das hat mich vielleicht von den socken gehauen.
einfach unbeschreibbar geniale texturen, alles wahnsinnig detailliert, unglaublich.
wenn ich das hingegen mit der grafik einer gf4mx440 vergleiche ist großer lachtag angesagt.
mit ner gf4ti4600 konnte ichs noch nicht vergleichen aber dass die eine vergleichbare bildquali hinbekommt, noch dazu dermaßen flüssig, dann fress ich nen besen.
ice cool69
2002-12-23, 03:09:04
was ich noch fragen wollte:
was zur hölle ist 16bit fsaa? ich kann mich an einen 16bit bug erinnern welcher mit der gf4ti reihe ausgemerzt wurde, aber ein feature?
Richthofen
2002-12-23, 08:30:32
als Feature würd ich es auch nicht sehen.
Eher würd ich es sehen das Trueform und auch FSAA beim R300 kaputt sind.
Das AA halt zur Hälfte.
Das es in 16 bit nicht geht ist schon ziemlicher Mist.
Sollte eigentlich bei einem Produkt in der Größenordnung nicht vorkommen.
Ein bisschen unperformant sein ok das ist nicht so wild aber gar nicht funktioniert?
Bei Trueform gehts zwar aber das ist nun wirklich 100% Software und nix Hardware.
Auch nicht gerade glänzend.
Mir is dad kack Trueform ohnehin wurscht aber ATI wirbt halt damit. Dann solln sie es auch in Hardware liefern.
seahawk
2002-12-23, 09:03:14
Originally posted by ice cool69
kann ja sein dass nvidia 3 jahre überleben könnte ohne die performancekrone zu behalten (über aussagen wie 3 jahre ohne einen chip zu verkaufen möchte ich hier als bwl-student nicht weiter kommentieren), aber bis dahin sind sie in diesem markt noch hinter sis gefallen.
mal im ernst dieses geschäft ist so knallhart auch ein riese wie nvidia muss sich gehörig anstrengen um da mitzuhalten. und ati ist dermaßen gewachsen dass die guten alten nvidia=top zeiten absolut vorbei sind.
ich hab vor kurzem bei nem freund UT2003 in 1024x768 mit 16AF und 6xAA + trueform gesehn (lief sehr flüssig, einem quaker dürften es zu wenige frames gewesen sein, dazu muss man aber sagen dass er nur einen AXP1800+ hatte) und das hat mich vielleicht von den socken gehauen.
einfach unbeschreibbar geniale texturen, alles wahnsinnig detailliert, unglaublich.
wenn ich das hingegen mit der grafik einer gf4mx440 vergleiche ist großer lachtag angesagt.
mit ner gf4ti4600 konnte ichs noch nicht vergleichen aber dass die eine vergleichbare bildquali hinbekommt, noch dazu dermaßen flüssig, dann fress ich nen besen.
Es ist schon unglaublich dass eine ATI R300 (vermute mal 9700 pro) bei UT2003 besser aussieht als ne GeForce 4 MX 440. Da muss sich NV aber richtig schämen, Ihre Karte für 79 € kann die ATI Karte für 400 € nicht schlagen. Also wirklich !! Und die Direct X 7 Karte sieht nicht so gut aus wie die DirectX 9 Karte von ATI, also wenn das nicht der endgültige Beweis für den Niedergang von NV ist.
Natürlich kann den GF4 Ti 4600 auch nicht mit der R300 mithalten (zumindest mit FSAA und AA) aber vielleicht kann die FX ja die R300 schlagen.
NV ist doch nicht der totale Versager nur weil der FX verspätet ist. Wir sollten erstmal abwarten wie sich das Rennen über die nächsten 2 Generationen Chips entwickelt, bevor wir einen der beiden abschreiben.
Radeonator
2002-12-23, 09:08:25
Naja, irgendwann muss die Zeit halt weitergehen sprich: Irgendwann ist 16Bit irrelevant, genauso wie es DOS und andere Dinge irgendwann waren. Warum also wird so krampfhaft an diesen altbackenen Dingen festgehalten? Ich habe das Gefühl aus Grund zur Veranlassung...
Alle wollen neue Features, neue Highend Grafik also neue Technologien.Warum erwarten die selben Leute dann abwärtskompatiblität bis in die Anfänge von DOS ??? Leute wacht auf, es geht nach vorne nicht zurück, Evolution nicht Regression!
Wenn ihr denn unbedingt in minderer Qualität und alten Kram (Ja, 1Jahr ist alt!) benutzen möchtet, richtet euch entweder Dualboot oder einen günstigen zweit Rechner(z.B. die komplett Lösung von ECS mit einem Duron800, Sound,LAN,Graka Onboard für DOS und 16Bit dürfte das reichen ;) ) ein .
Quasar
2002-12-23, 09:14:53
Originally posted by ice cool69
mit ner gf4ti4600 konnte ichs noch nicht vergleichen aber dass die eine vergleichbare bildquali hinbekommt, noch dazu dermaßen flüssig, dann fress ich nen besen.
Naa, so flüssig wird sie's mit FSAA und AF sicher nicht schaffen, soviel ist mal sicher. Aber wenn du eine standardmäßige Installation machst und dann AF aktivierst (so wie 90% der Leute, die zumindest wissen, was AF ist), werden die Texturen auf der GF besser aussehen. ATis AF scheint einem positiven Texture-LOD >0.4 irgendwie querzuliegen, so dass es nur noch die MipMaps, aber nicht mehr die Ursprungstextur der Detailtextur gezeigt wird.
16Bit-FSAA ist wirklich kein Feature an sich, aber immerhin ein Teil eines Features, welches ATi bislang noch nicht mit der R9700 bietet, obwohl es selbst die selige Voodoo2 konnte (Edge-FSAA).
Quasar
2002-12-23, 09:20:45
Originally posted by Radeonator
Naja, irgendwann muss die Zeit halt weitergehen sprich: Irgendwann ist 16Bit irrelevant, [...]ein .
...sprach der Apologet.
Ist's so schwer mal einen Fehler einzugestehen, den deine Lieblingsfirma (s. Nick ;)) bislang nicht ausgebügelt hat?
Gerade uralt-Games mit begrenzter Textur- und Bildschirm-Auflösung können deutlich von FSAA und AF profitieren.
Turok z.B. sah beinahe so gut wie bei nV (4xS/8xAF) aus, mit 6xFSAA/16xAF auf meiner R9000Pro.
Radeonator
2002-12-23, 16:03:47
Namen sind Schall&Rauch, ich habe keine Lieblingsfirma.
Ist es den so schwer einzusehen das die Zeiten von DOS und 16Bit Anwedungen vorbei sind? Wie soll es denn funktionieren, auf einer Seite weinen alle, wenn nicht optimale Grafik mit AF/FSAA 32Bit max reality geboten wird und auf der anderen Seite wollen eben diese Leute mir erzählen das Sie in 16Bit und DOS spielen wollen? Sieht für mich doch eher nach der krampfhaften Suche nach -, denn finden von- up to date Problemen.
Quasar
2002-12-23, 16:08:36
Wieso sollte das nicht funktionieren, einerseits schöne und schnelle Bilder in neuen Games und andererseits auch alle Optionen für alte Games anzubieten?
Radeonator
2002-12-23, 16:26:03
Man hat inzwischen zig HW mit zig SW Zusammenstellungen. Warum sollten die Hersteller nun auch noch ihre Zeit mit anno dazumal verbringen?
Quasar
2002-12-23, 16:47:21
Öh...ja? Und was willst du damit sagen?
Dafür sind ja die Standards à la AGP, DX oder OGL da.
Kein 16Bit Support mehr nötig?
Wieso gibt's dann überhaupt einen 16Bit-Modus bei der R9700pro?
Nee, sorry. Aber das klingt nach einer lahmen Ausrede: Es funzt nicht und punkt.
ice cool69
2002-12-23, 17:40:45
also wenn es DAS ist was als feature so angehimmelt wurde dann kann ich ja nur lachen.
das is kein feature der geforce sondern ein bug der radeon der mich aber nicht im geringsten irgendwie zu stören vermag.
LOL es gibt wirklich kein spiel das so alt ist dass es nur 16bit farben kann was ich spiele.
und sollte es ein solches spiel geben dann isses so alt dass derjenige die auflösung auf 2048x1536 hochschalten sollte (sollte die radeon bei solchen games mit links können), jedenfalls würde ichs dann so machen.
dass das AF der radeon9700pro mit 16x schlechter sein soll als nvidias 8x will ich einfach nicht glauben. die texturqualität die die radein mit 16x filtert ist dermaßen der wahnsinn!!!
mir ist 8x nach den bildern jedenfalls zu wenig und davon dass manche winkel nur mit 8x oder 4x gefiltert werden, davon habe ich nun überhaupt nichts bemerkt.
die AF-methode von ati rulet und ist das in der praxis beste resultat bis die karten einmal schnell genug werden für durchgehend 16x AF (warum glaubt ihr bietet die geforce fx 16x durchgehend nicht an? :D)
Pussycat
2002-12-23, 18:04:30
Originally posted by Razor
Und klar, 3 Jahr ohne jeglichen Umsatz hält KEINE Firma durch.
Ruf mal bei Mirosoft an *eg*
Unregistered
2002-12-23, 18:34:07
Originally posted by ice cool69
also wenn es DAS ist was als feature so angehimmelt wurde dann kann ich ja nur lachen.
das is kein feature der geforce sondern ein bug der radeon der mich aber nicht im geringsten irgendwie zu stören vermag.
LOL es gibt wirklich kein spiel das so alt ist dass es nur 16bit farben kann was ich spiele.
und sollte es ein solches spiel geben dann isses so alt dass derjenige die auflösung auf 2048x1536 hochschalten sollte (sollte die radeon bei solchen games mit links können), jedenfalls würde ichs dann so machen.Manche (mich eingeschlossen) stört es, wenn gerade alte Spiele wie Thief (glaube auch U9) nur ohne FSAA laufen. Nicht jeder möchte oder kann die Auflösung so hoch schrauben, dass der Mangel kompensiert wird. Mein Moni schafft max. 16x12, und auch nur bei 60Hz. Nein danke. Und mal ehrlich, wir wissen praktisch nichts über die GFFX-Performance, weder über die Rohpower noch die Features noch die Treiber. Ob die GFFX noch 16Bit-FSAA schafft, ist ungewiss.
Originally posted by ice cool69
mir ist 8x nach den bildern jedenfalls zu wenig und davon dass manche winkel nur mit 8x oder 4x gefiltert werden, davon habe ich nun überhaupt nichts bemerkt.Ist aber nachweisbar.
MeLLe
2002-12-23, 19:29:27
Originally posted by ice cool69
also wenn es DAS ist was als feature so angehimmelt wurde dann kann ich ja nur lachen.
das is kein feature der geforce sondern ein bug der radeon der mich aber nicht im geringsten irgendwie zu stören vermag.
LOL es gibt wirklich kein spiel das so alt ist dass es nur 16bit farben kann was ich spiele.
Ich war mal so frei, in deinem durchaus objektiven Post subjektive Ansichten zu markieren ... :|
Originally posted by ice cool69
und sollte es ein solches spiel geben dann isses so alt dass derjenige die auflösung auf 2048x1536 hochschalten sollte (sollte die radeon bei solchen games mit links können), jedenfalls würde ichs dann so machen.
Aha. In 2048x1536x16bit auf nem 15"er ... :|
Und ich denke nicht, dass die R300 diese Auflösung selbst in einem alten Game vernünftig und schnell hinbekommt. Du weisst ja - verdoppeln der Auflösung (in x- und y-Richtung) viertelt die Fillrate.
Originally posted by ice cool69
dass das AF der radeon9700pro mit 16x schlechter sein soll als nvidias 8x will ich einfach nicht glauben. die texturqualität die die radein mit 16x filtert ist dermaßen der wahnsinn!!!
Ob Du willst oder nicht - mir ist ein durchgehend 8x gefiltertes Bild lieber als eins, wo 3% 16x, 10% 8x, 38% 4x und der Rest 2x anisotrop gefiltert sind.
Originally posted by ice cool69
mir ist 8x nach den bildern jedenfalls zu wenig und davon dass manche winkel nur mit 8x oder 4x gefiltert werden, davon habe ich nun überhaupt nichts bemerkt.
Du weisst aber schon, dass Deine R300 nur einen marginalen Anteil des sichtbaren Texturen mit 16- bzw. 8x anisotrop filtert. Demnach haben Dich die nV-8x-AF-Bilder einfach überfordert. Denn zuwenig kanns net sein im Vergleich zur R300.
Originally posted by ice cool69
die AF-methode von ati rulet und ist das in der praxis beste resultat bis die karten einmal schnell genug werden für durchgehend 16x AF (warum glaubt ihr bietet die geforce fx 16x durchgehend nicht an? :D)
Die rulet? Mag sein. Ich weiss auch warum. Weil es ATIs Methode ist. :|
Quasar
2002-12-23, 19:37:37
Originally posted by ice cool69
also wenn es DAS ist was als feature so angehimmelt wurde dann kann ich ja nur lachen.
Nein, es ist das Feature aus meiner unvollständigen Liste, welches sich einige zum draufrumpicken ausgeguckt haben, also gib nicht mir die Schuld. :)
Originally posted by ice cool69
und sollte es ein solches spiel geben dann isses so alt dass derjenige die auflösung auf 2048x1536 hochschalten sollte (sollte die radeon bei solchen games mit links können), jedenfalls würde ichs dann so machen.
Problem ist: Manche alten Games bieten diese Option gar nicht an!
Originally posted by ice cool69
dass das AF der radeon9700pro mit 16x schlechter sein soll als nvidias 8x will ich einfach nicht glauben. die texturqualität die die radein mit 16x filtert ist dermaßen der wahnsinn!!!.
Ich hab mal den relevanten Teil dieses Absatzes ein wenig hervorgehoben.....das sagt schon alles IMO.
Die Frage wäre letztlich, ob icecool glauben kann bzw. will, dass ATIs 6x AA kantenglättungstechnisch besser ist als nVidias 8x AA.
Unregistered
2002-12-23, 19:51:20
Schonmal probiert nen altes game mit nem aktuellen Deto ans laufen zu kriegen? Hab´s letztens nochmal mit Schleichfahrt und WC3 versucht, vergiss es. Von daher ist die Diskusion sowieso sinnlos.
Quasar
2002-12-23, 19:53:59
[sarkasmus: on]
Mir wäre 6x nach den Bildern jedenfalls zu wenig und davon dass manche Winkel durch OG nur equivalent 2x oder 4x geglättet werden, davon konnte ich nun überhaupt nichts bemerken.
[sarkasmus: off]
Neenee, ich bleib dabei, mehr als 2xFSAA in sehr hohen Auflösungen braucht man vorerst nicht. Zunächst sollte man sich lieber mal einer ansonsten realistischeren Spielwelt widmen, als alles daranzusetzen, auch in 10facher Vergrößerung noch immer keine erkennbaren Kanten auf den Schirm zu rendern.
Quasar
2002-12-23, 19:55:18
Originally posted by Unregistered
Schonmal probiert nen altes game mit nem aktuellen Deto ans laufen zu kriegen? Hab´s letztens nochmal mit Schleichfahrt und WC3 versucht, vergiss es. Von daher ist die Diskusion sowieso sinnlos.
Nö, hab' ich kürzlich nicht versucht. Leider behindert mein OS (win2k) einige Versuche, ältere Games zu spielen.
Wird Zeit, sich mal eine Win98-Lizenz anzuschaffen, genug alte Festplatten hab' ich ja mittlerweile.
StefanV
2002-12-23, 20:14:49
Originally posted by Quasar
Neenee, ich bleib dabei, mehr als 2xFSAA in sehr hohen Auflösungen braucht man vorerst nicht. Zunächst sollte man sich lieber mal einer ansonsten realistischeren Spielwelt widmen, als alles daranzusetzen, auch in 10facher Vergrößerung noch immer keine erkennbaren Kanten auf den Schirm zu rendern.
Selbst auf 1280x1024 hätt ich lieber 'ordentliches' FSAA anstatt die NV 4x Methode...
Auf einem TFT sieht man das halt besser...
Originally posted by Quasar
Neenee, ich bleib dabei, mehr als 2xFSAA in sehr hohen Auflösungen braucht man vorerst nicht. Zunächst sollte man sich lieber mal einer ansonsten realistischeren Spielwelt widmen, als alles daranzusetzen, auch in 10facher Vergrößerung noch immer keine erkennbaren Kanten auf den Schirm zu rendern. M.E. ist erst 4x RG gut genug.
Iceman346
2002-12-23, 21:55:12
16bit FSAA würd ich mir auch wünschen, ich spiel z.B. grade Starfleet Command 3 und das bietet kein 32bit an (obwohl es neu raus ist). Und auch für FF7 und 8 wäre das fein.
Die AF Methode kann ich nicht beurteilen, kenne das GF AF nicht, ich kann nur sagen das es mir äußerst selten auffällt das mal ne Seite nicht gefiltert ist.
ice cool69
2002-12-24, 02:07:21
vielleicht hab ich das ja nicht richtig rübergebracht aber mein posting bezieht sich absolut auf meine subjektiven einschätzungen die ich bei meinem freund seiner radeon hatte.
es sollte nie der eindruck erweckt werden dass ich das als objektiven fakt darstellen möchte, dazu war meine zeit zum austesten sowieso viel zu kurz.
weiters möchte ich sagen dass der geschätzte 3% anteil der 16xAF texturen in meinen augen ein unrealistischer wert sind. soweit ich weiß ist die winkelspanne in der 16x benutzt wird genauso groß wie die in der 8x und 4x benutzt werden.
aber hier lasse ich mich gerne eines besseren belehren. ich habe in der kurzen zeit die ich gespielt habe keine deutlich unschrferen texturen wahrgenommen, aber bei einem spiel achtet man wohl bei sowas genauer höchstens auf den boden oder irgendeiner wandtextur (90° winkel welche ja bekanntlich mit 16x gefiltert werden).
weiters möchte ich den nvidioten (ich bin ja schließlich ein fanatic :D obwohl ich ne kyro2 im rechner hab) vorwerfen dass die aussage 8x der geforce ist besser als 16x auf der radeon eine mindestens genauso unhaltbare und subjektive äußerung ist wir die meinige (welche ich wohl nicht deutlich genug als subjektive äußerung gekennzeichnet habe).
auf jeden fall ist es fakt dass die texturen welche 16x gefiltert werden besser aussehen als die 8xgefilterten auf jeglicher geforce.
die die weniger gut gefiltert werden dann natürlich schlechter, insgesamt finde ich aber dass die 16x texturen mehr "ins auge stechen" als die restlichen und angesichts des performanceunterschiedes halte ich die AAlösung der radeon sowieso für die bessere.
wie kann zb ow der radeon vorwerfen das verfahren sei "unintelligent" wenn das verfahren von nvidia mindestens genauso stupide ist (filtert einfach alles stur 8x und so geht die performance im eiltempo den bach runter).
klar atis verfahren ist erst ein ansatz, aber er bringt ein sehr gutes resultat und ist im gegensatz zu nvidias verfahren meistens auch in der praxis zu gebrauchen.
wieviele gf4ti-besitzer spielen UT2003 mit 8xAF? :D
@ aths
was ich glauben kann und will ist meine sache, ich glaube kaum dass zynissmus die richtige antwort auf meine zugegebenermaßen sehr subjektive aussage ist wenn man eine ruhige diskussion haben möchte.
egal, ich muss zugeben in der spielepraxis traue ich mir nicht zu einen großartigen unterschied zwischen 6xAA der radeon oder 8x der geforce festzustellen aber soweit ich weiß soll die methode der radeon weniger performance ziehen.
insgesamt scheint ati in meinen augen die bessere goldene mitte aus qualität und speed gefunden zu haben, sowohl bei AA als auch bei AF (die gf-fx versucht dies durch pure rohpower auszugleichen, von dieser art der vorgangsweise bin ich nicht gerade ein fan, wieso keine neuen verfahren um die erreichte rohpower besser auszunutzen? kann es sein dass nvidia sich hier auf die faule haut gelegt hat und ati nun hinterherhinkt? naja auf den performancemodus des AF bin ich schonmal sehr gespannt...)
LovesuckZ
2002-12-24, 10:58:36
Originally posted by ice cool69
[...](die gf-fx versucht dies durch pure rohpower auszugleichen, von dieser art der vorgangsweise bin ich nicht gerade ein fan, wieso keine neuen verfahren um die erreichte rohpower besser auszunutzen? kann es sein dass nvidia sich hier auf die faule haut gelegt hat und ati nun hinterherhinkt?[...])
Und was macht ATI? Sag nich, dass ihr Vorgehen besser sei als das von Nvidia!
StefanV
2002-12-24, 11:16:01
Originally posted by LovesuckZ
Und was macht ATI? Sag nich, dass ihr Vorgehen besser sei als das von Nvidia!
ATI verbreitert den BUS; NiVida taktet den Speicher sonstwie hoch...
Tja, dummerweise könnte das schlecht für NV sein, da ATI nicht soo sehr auf sehr schnellen SPeicher angewiesen ist...
Exxtreme
2002-12-24, 11:20:42
Originally posted by Stefan Payne
ATI verbreitert den BUS; NiVida taktet den Speicher sonstwie hoch...
Tja, dummerweise könnte das schlecht für NV sein, da ATI nicht soo sehr auf sehr schnellen SPeicher angewiesen ist...
Naja, schneller Speicher wird billiger werden, ein breiterer Bus nicht unbedingt. Dafür hat ATi deutlich mehr Luft nach oben wenn's hart auf hart kommen sollte.
LovesuckZ
2002-12-24, 11:24:35
Originally posted by Stefan Payne
... <auf's wichtigste gekuerzt>
Thema verfehlt, 6. Setzen!
Schoen das ATI den 'Bus' verbreite, leider ist das doch das, was Ice Cool nicht mag. Einfach nur auf Rohpower setzen.
StefanV
2002-12-24, 11:24:36
Originally posted by Exxtreme
Naja, schneller Speicher wird billiger werden, ein breiterer Bus nicht unbedingt. Dafür hat ATi deutlich mehr Luft nach oben wenn's hart auf hart kommen sollte.
1. ja, aber die Frage ist, wann der Speicher in 'normale' Preisregionen fällt.
Solange 2ns RAM zu vermutlich Astronomischen Preisen verscheuert wird, hat ATI diverse Vorteile...
Unter anderem können sie ihre 9700 Boards 'etwas' günstiger anbieten, was ATI auch machen wird, um NV zu ärgern *eg*
2. naja, kommt drauf an...
Die Geforce FX soll ja angeblich auch ein 10 Layer PCB haben.
Ich glaub nicht, daß ein 'High Frequency PCB' (500MHz+) in der Herstellung günstiger als ein 'Med Frequency PCB' (300Mhz) ist...
Demirug
2002-12-24, 11:38:12
Originally posted by Stefan Payne
1. ja, aber die Frage ist, wann der Speicher in 'normale' Preisregionen fällt.
Solange 2ns RAM zu vermutlich Astronomischen Preisen verscheuert wird, hat ATI diverse Vorteile...
Unter anderem können sie ihre 9700 Boards 'etwas' günstiger anbieten, was ATI auch machen wird, um NV zu ärgern *eg*
Hast du bei Samsung nachgefragt was die Speicherchips kosten? Beide Parteien brauchen sowieso Specialchips und laut Jedec sind DDR-II Chip im vergleich zu DDR-I Chips günstiger zu produzieren. Ohne Preislisten der Komponeten lieferanten ist das aber alles nur spekulation.
Und was das günstiger anbieten angeht. Du weist aber schon das ATI wohl nicht viel Spielraum hat. Denn wenn der Gewinn pro Karte so hoch ist wie einige hier scheinbar glauben hätte ATI im letzten Quartal deutchlich mehr Gewinn machen müssen.
2. naja, kommt drauf an...
Die Geforce FX soll ja angeblich auch ein 10 Layer PCB haben.
Ich glaub nicht, daß ein 'High Frequency PCB' (500MHz+) in der Herstellung günstiger als ein 'Med Frequency PCB' (300Mhz) ist...
Das mit den Layern ist ja bis heute noch nicht einmal bei den 9700 PCBs restloss aufgeklärt. Das Gerücht mit den 10 Layern habe ich aber durchaus auch gesehen und im nächsten Satz wurde dort auch erwähnt das man davon ausgeht das es auch mit einem 8 Layer Board zu machen sei.
Nur die Frequenzen zu betrachten ist aber etwas kurzsichtig. ATI braucht mehr Signalleitungen und höhrer Spannungen. In Summe dürfte es also nicht alzu viel ausmachen.
Quasar
2002-12-24, 11:56:20
Originally posted by ice cool69
vielleicht hab ich das ja nicht richtig rübergebracht aber mein posting bezieht sich absolut auf meine subjektiven einschätzungen die ich bei meinem freund seiner radeon hatte.
es sollte nie der eindruck erweckt werden dass ich das als objektiven fakt darstellen möchte, dazu war meine zeit zum austesten sowieso viel zu kurz.
In der Art und Weise des "Rüberbringens" liegt aber meistens ein wichtiger Unterschied zwischen Aussagen, die man ernstnimmt und solchen, die (vielleicht vorschnell) als subjektive Meinung abgetan werden.
Originally posted by ice cool69
weiters möchte ich sagen dass der geschätzte 3% anteil der 16xAF texturen in meinen augen ein unrealistischer wert sind. soweit ich weiß ist die winkelspanne in der 16x benutzt wird genauso groß wie die in der 8x und 4x benutzt werden.
aber hier lasse ich mich gerne eines besseren belehren. ich habe in der kurzen zeit die ich gespielt habe keine deutlich unschrferen texturen wahrgenommen, aber bei einem spiel achtet man wohl bei sowas genauer höchstens auf den boden oder irgendeiner wandtextur (90° winkel welche ja bekanntlich mit 16x gefiltert werden).
Schau dir mal den Xmas'schen Tunnel an, wie groß oder klein die Winkelbereiche sind, in denen an AF gespart wird. Natürlich hängt der prozentuale Anteil stark vom verwendeten Game und dessen Geometrie ab.
Der Villagemark z.B. profitiert durch seine starre Ausrichtung auf 0°-Ebenen und Vielfache von 45° mehr von 16xAF als z.B. UT2003, wo es in Aussenlevels nur recht wenige wirklich "gerade" Flächen gibt. Entsprechend drastisch ist aber auch der Unterschied im Performance-Einbruch ggü. der Rohleistung. So bricht der Villagemark bei Zuschaltung von nur 2xAF um ein Drittel ein, ein weiteres Drittel kommt hinzu, wenn man auf 16xAF geht, so dass insgesamt mehr als 50% Leistung investiert werden. UT2003 verliert sogar insgesamt nichtmal ein Drittel an Leistung bei 16xAF, trotz seiner deutlich höheren Zahl an Texturschichten.
Originally posted by ice cool69
weiters möchte ich den nvidioten (ich bin ja schließlich ein fanatic :D obwohl ich ne kyro2 im rechner hab) vorwerfen dass die aussage 8x der geforce ist besser als 16x auf der radeon eine mindestens genauso unhaltbare und subjektive äußerung ist wir die meinige (welche ich wohl nicht deutlich genug als subjektive äußerung gekennzeichnet habe).
Nun, ich habe mir schon etliche Vergleichsbilder erstellt und angeschaut, im Gegensatz zu FSAA (gell, aths? ;)) kann man die Wirkung von AF ja recht gut auf Standbildern beurteilen. Meine rein subjektive Einschätzung: In max. 5-10% der von mir angeschauten Games gab es Stellen, die von 16xAF profitierten. In weiteren 25-25% konnte man keine wertbaren Unterschiede ausmachen und im Rest der Games ist das 8xAF von nV schlichtweg überlegen, was reine Bildqualität betrifft (nicht überlesen: Es geht nicht um die erreichte Leistung!).
Originally posted by ice cool69
auf jeden fall ist es fakt dass die texturen welche 16x gefiltert werden besser aussehen als die 8xgefilterten auf jeglicher geforce.
die die weniger gut gefiltert werden dann natürlich schlechter, insgesamt finde ich aber dass die 16x texturen mehr "ins auge stechen" als die restlichen und angesichts des performanceunterschiedes halte ich die AAlösung der radeon sowieso für die bessere.
Problematisch an dieser Geschichte aber ist, dass gerade wenn man annimmt, dass die 16x-fgefilterten Texturen stark ins Auge fallen, der Kontrast zu den nur 4- oder gar nur 2fach behandelten, unmittelbar angrenzenden Texturen, die in einem "ungünstigen" Winkel stehen, noch verstärkt wird. Ähnlich einem kaputten Pixel bei einem TFT. Bei einem normalen Betrieb fällt er womöglich kaum auf, aber sobald man einen rein weissen Hintergrund hat und keine Icons aufm Desktop, sticht es sofort ins Auge.
Originally posted by ice cool69
wie kann zb ow der radeon vorwerfen das verfahren sei "unintelligent" wenn das verfahren von nvidia mindestens genauso stupide ist (filtert einfach alles stur 8x und so geht die performance im eiltempo den bach runter).
klar atis verfahren ist erst ein ansatz, aber er bringt ein sehr gutes resultat und ist im gegensatz zu nvidias verfahren meistens auch in der praxis zu gebrauchen.
Intelligenz äußert sich nicht in einem starren Schema, welches nach vorgegebenen Kriterien Filter appliziert oder eben nicht. Klar, nVidias Methode ist eine des Holzhammers, nahezu alles filtern, was irgendwie in die Pipeline bekommt. Dafür sieht es auch besser (Achtung, subjektive Meinung!) aus.
Originally posted by ice cool69
wieviele gf4ti-besitzer spielen UT2003 mit 8xAF? :D
Gegemfrage: Wieviele R9700-Besitzer spielen UT2003 mit 8xAF und merken nicht, dass sie sowohl eine fehlende (oder zumindest bis zur Unbrauchbarkeit verwaschene) Detailtextur im Nahbereich haben als auch, dass oftmals gar nicht 8xA gefiltert wird? :D
Originally posted by ice cool69
insgesamt scheint ati in meinen augen die bessere goldene mitte aus qualität und speed gefunden zu haben, sowohl bei AA als auch bei AF (die gf-fx versucht dies durch pure rohpower auszugleichen, von dieser art der vorgangsweise bin ich nicht gerade ein fan, wieso keine neuen verfahren um die erreichte rohpower besser auszunutzen?
Die Mischung bei ATi ist momentan sicherlich sehr gut gelungen, aber mit gefällt das FSAA (wenn man es denn nutzen kann) viel besser als das AF.
Wo wir gerade bei Brute Force sind:
Mal abgesehen von acht Renderpipelines, 325MHz Chiptakt, 256Bit-Speicheranbindung und Floppy-Stecker, welche IMO alles nicht gerade gegen Brute Force sprechen (was ich auch keineswegs verdamme!), finde ich die Z- und Color-Compression im R300 und im kommenden nV30 schon eine nette Weiterführung der ersten Ansätze durch Hyper-Z und LMA.
Quasar
2002-12-24, 11:58:53
Originally posted by Demirug
Nur die Frequenzen zu betrachten ist aber etwas kurzsichtig. ATI braucht mehr Signalleitungen und höhrer Spannungen. In Summe dürfte es also nicht alzu viel ausmachen.
Dazu kommt dann noch der voraussichtlich günstiger zu produzierende Chip, was sich direkt auf den Erlös der Chiphersteller auswirkt.
Auf lange Sicht nimmt sich beides nicht sehr viel. ATi geht auf 0,13µ, nV auf 256Bit Speicher und die paar Mio mehr an Transistoren könnte durch den Vorsprung an Know-How durch längeres herumprobieren seitens nV wieder aufgewogen werden.
Radeonator
2002-12-24, 12:24:08
Originally posted by Quasar
Dazu kommt dann noch der voraussichtlich günstiger zu produzierende Chip, was sich direkt auf den Erlös der Chiphersteller auswirkt.
Auf lange Sicht nimmt sich beides nicht sehr viel. ATi geht auf 0,13µ, nV auf 256Bit Speicher und die paar Mio mehr an Transistoren könnte durch den Vorsprung an Know-How durch längeres herumprobieren seitens nV wieder aufgewogen werden.
Es tut mir leid, sie sind ein NVidiot , mein Herr...da nützt es auch nichts sich mal ne ATi Karte zwischendurch zu ziehen. Der Vorsprung an KnowHow ist nach dem Layout der Samples zu urteilen eher wohl dem "Don´t know how" gewichen. Falls es bei diesem presentiertem Brotbrett mit "überkühler" bleibt, wird das "Teil" auf gar keinen Fall günstig in irgendeiner Form zu erwerben sein. Ist ATi dann wiederum schnell genug mit dem R350/RV350 wird es NVidia nochmal schwerer haben.Zeigen wird sich dies natürlich erst , wenn die Final Karten nebst reference design zur Verfügung stehen. Mit glück habe ich mich dann geirrt und NV überrascht mich mal endlich wieder positiv (GF3 war eine solche positive Überraschung)!, so dass ich mir auch mal wieder ein Stück NV in den Rechner basteln kann.
Quasar
2002-12-24, 12:30:32
Nöpe, das hat nur gaaanz wenig mit nVidiotie zu tun Radeonator.
Wer sich von Kindsbeinen an mit etwas beschäftigt, der wird von der Sache mit Sicherheit etwas mehr Ahnung haben, als jemand, der später dazukommt und die gesähten Früchte nur noch ernten will. Ist jetzt nicht bös' gemeint, macht ja auch Sinn für ATi und nV war wohl auch aufgrund ihres Designs gezwungen, 0,13µ nutzen zu müssen und hätte sicher auch lieber auf einen von anderen vollständig ausgebrüteten 0,13µ-Prozess zurückgegriffen.
BTW, definierst du als nVidiot jeden, der sich nach Ansicht der Konkurrenzprodukte nicht für ATi entscheidet, weil gewisse Dinge einfach bei nV besser zu seinen subjektiven Bedürfnissen passen?
Wenn ja, dann bin ich ein nVidiot.
Unregistered
2002-12-24, 12:31:40
"
Und was das günstiger anbieten angeht. Du weist aber schon das ATI wohl nicht viel Spielraum hat. Denn wenn der Gewinn pro Karte so hoch ist wie einige hier scheinbar glauben hätte ATI im letzten Quartal deutchlich mehr Gewinn machen müssen.
"
So siehts aus. Übrig geblieben ist so gut wie gar nix. Und auch der pessimistische Outlook von ATI sagt bereits alles. Wenn der Preisverfall einsetzt wird ATI bei allen Varianten draufzahlen.
Da wird sich dann das Fehlen einer eigenen Mainstreamvariante bemerkbar machen.
Sieht so aus als bräuchten sie ihr 0.13 Mainstream Design ziemlich bald.
Die jetztigen Varianten sind einem Preiskampf nicht gewachsen.
Radeonator
2002-12-24, 12:41:18
Originally posted by Quasar
Nöpe, das hat nur gaaanz wenig mit nVidiotie zu tun Radeonator.
Wer sich von Kindsbeinen an mit etwas beschäftigt, der wird von der Sache mit Sicherheit etwas mehr Ahnung haben, als jemand, der später dazukommt und die gesähten Früchte nur noch ernten will. Ist jetzt nicht bös' gemeint, macht ja auch Sinn für ATi und nV war wohl auch aufgrund ihres Designs gezwungen, 0,13µ nutzen zu müssen und hätte sicher auch lieber auf einen von anderen vollständig ausgebrüteten 0,13µ-Prozess zurückgegriffen.
BTW, definierst du als nVidiot jeden, der sich nach Ansicht der Konkurrenzprodukte nicht für ATi entscheidet, weil gewisse Dinge einfach bei nV besser zu seinen subjektiven Bedürfnissen passen?
Wenn ja, dann bin ich ein nVidiot.
ATi war,ist und bleibt durch ihr OEM Geschäft stark. Da kann man rumrechnen wie man will, dieses Standbein könnt ihr nicht einfach ignorieren.
Die Namensgebung meinereiner hat nichts, mit meiner Vorliebe für irgendeiner GPU zu tun (ansonsten müsstest du auch nicht ständig sachen aus dem kontext reissen ;) )
Ich halte dich für einen NVidiot, weil du alles was derzeit passiert zu ignorieren scheinst und eine Nichtworhandene HW in den Himmel lobst.
Quasar
2002-12-24, 12:49:21
??
OEM-Standbeinen? Wer will ATi die denn absprechen? Wo habe ich etwas davon geschrieben? Es ging allein um den Vergleich der Wirtschaftlichkeit von nV30 und R300, wo ich auf lange Sicht von einem Gleichstand(=! in den Himmel loben) ausgehe.
Wo reisse ich Sachen aus dem Kontext?? Wenn es denn so ist, tut's mir leid, das ist nicht beabsichtigt.
nVidiot ja/nein:
Was ignoriere ich denn??
-Dass ATi die momentan schnellste und fortschrittlichste Grafikkarte hat? Nein.
-Dass die GFFX wohl nun doch erst im nächsten Jahr auf den Markt kommt? Nein, auch wenn ich ursprünglich auf Ende Dezember gesetzt habe.
-Dass ATi DirectX-9 Treiber herausgebracht hat? Nein, ich lese ja im ATi-Forum mit.
Und wo lobe ich eine "nichtvorhandene HW in den Himmel"???
Habe ich irgendwo schonmal gesagt, dass die GFFX die R300 in den Hintern treten wird? Nein, im Gegenteil, ich habe mich bisher sehr zurückhaltend diesbezüglich geäußert. Lediglich dass mir das AF von nVidia besser gefällt (und das bezieht sich auf die Karte, die ich selber besitze!), sowie, dass mir in 1600x1200 2xRGAA langt, habe ich geschrieben.
Mir scheint, als gingen dir die Argumente aus und du versuchst, das Ganze hier in einen kleinen schmutzigen Grabenkrieg zu verwandeln.... :(
MeLLe
2002-12-24, 13:46:04
So, und nun habt's Euch endlich mal wieder lieb. Heute ist doch Weihnachten.
Reisst Euch am Schlüpfer, Männers! :naughty:
Aber bitte nicht gegenseitig...
ice cool69
2002-12-24, 15:26:34
stimmt fröhliche weihnachten an alle (außer richthofen, der sitzt sicher irgendwo und zält sein geld was er durch uns idioten gemacht hat wenn er nicht gerade in irgendeinem forum leute disst).
@ quasar
ich weiß ja nicht inwiefern du das AF von ati schon hast begutachten können aber mir ist nichts diesbezüglich aufgefallen.
im übrigen machen allein die bodentexturen (welche ja meistens gerade sind) einen sehr großen prozentsatz des bildes aus weshalb ich immer noch nicht verstehen kann wie jemand auf die idee kommt es werden nur 3% 16x gefiltert.
ist in meinen augen humbug
Razor
2002-12-24, 15:40:24
Originally posted by Unregistered
Schonmal probiert nen altes game mit nem aktuellen Deto ans laufen zu kriegen? Hab´s letztens nochmal mit Schleichfahrt und WC3 versucht, vergiss es. Von daher ist die Diskusion sowieso sinnlos.
Funzen ganz hervorragend... beide !
Sind schließlich Klassiker, gell ?
:D
Razor
Unregistered
2002-12-24, 15:47:41
Hab´s bei mir sowohl unter 98 als auch unter XP versucht =no go. Vesa und blub und bla.
Yep sind klassiker,obwohl wer kennt noch "Day of the Tentacle?" (C64) das issen klassiker :).
ice cool69
2002-12-24, 15:55:16
wc3=warcraft3=klassiker? häh?
Razor
2002-12-24, 15:56:54
Originally posted by Unregistered
Hab´s bei mir sowohl unter 98 als auch unter XP versucht =no go. Vesa und blub und bla.
Yep sind klassiker,obwohl wer kennt noch "Day of the Tentacle?" (C64) das issen klassiker :).
Wooooooooo..... !
(DotT ist noch immer genial, aber Runaway hat's auch in sich !)
:D
Gibt 'nen SciTech Display-Doctor und die Win9x-(Exklusiv-)Emu unter WinXP.
Damit funzt's...
Drück Dir mal kräftigst die Daumen !
;-)
Razor
Gohan
2002-12-24, 16:04:05
Originally posted by ice cool69
wc3=warcraft3=klassiker? häh?
WC3 = Wing Commander 3 = klassiker! Aha! :idea:
ice cool69
2002-12-24, 16:07:32
ah verstehe :D
heute etwas langsam, zu viel weichnachtslichter mich verwirren :D
Originally posted by Quasar
Nun, ich habe mir schon etliche Vergleichsbilder erstellt und angeschaut, im Gegensatz zu FSAA (gell, aths? ;)) kann man die Wirkung von AF ja recht gut auf Standbildern beurteilen. Imo kommt auch AF erst in Bewegung voll rüber (siehe "mitlaufende" MIP-Bänder bei Radeon bis 9100) und andererseits kann man mit etwas Erfahrung auch beim FSAA vom Standbild den Effekt in Bewegung versuchen abzuschätzen, aber "nackte" Bildvergleiche liefern halt Tatsachen und kein "ich glaube, Verfahren XYZ ist besser"
:)
Originally posted by Quasar
Intelligenz äußert sich nicht in einem starren Schema, welches nach vorgegebenen Kriterien Filter appliziert oder eben nicht. Klar, nVidias Methode ist eine des Holzhammers, nahezu alles filtern, was irgendwie in die Pipeline bekommt. Dafür sieht es auch besser (Achtung, subjektive Meinung!) aus.So dumm ist das Verfahren gar nicht. Es filtert (mit Ausnahme bestimmter Winkel bei der 1. MIP-Stufe bei 8x AF) alles so, wie es "muss", wenn man volle Qualtität haben will, aber eben auch nicht mehr. Letztlich sinnvoll, sofern die entsprechende Rohleistung zur Verfügung steht.
Originally posted by Quasar
BTW, definierst du als nVidiot jeden, der sich nach Ansicht der Konkurrenzprodukte nicht für ATi entscheidet, weil gewisse Dinge einfach bei nV besser zu seinen subjektiven Bedürfnissen passen?
Wenn ja, dann bin ich ein nVidiot. Nach dieser Definition wäre ja sogar ich ein nVidiot :naughty:
Quasar
2002-12-26, 01:01:33
Originally posted by ice cool69
@ quasar
ich weiß ja nicht inwiefern du das AF von ati schon hast begutachten können aber mir ist nichts diesbezüglich aufgefallen.
Seit ca. Anfang September habe ich so gut wie nur noch Radeons in meinen beiden Rechn0rn. Eine R9000Pro "hier" drin, und eine R9700pro "da" drin. Und du kannst mir glauben, dass ich mehr als einmal die AF-Bildqualität verglichen (http://www.computerbase.de/article.php?id=153&page=16#spiele_benchmarks) habe (auch und gerade zu GeForce-Karten).
Originally posted by ice cool69
im übrigen machen allein die bodentexturen (welche ja meistens gerade sind) einen sehr großen prozentsatz des bildes aus weshalb ich immer noch nicht verstehen kann wie jemand auf die idee kommt es werden nur 3% 16x gefiltert.
ist in meinen augen humbug
Das kommt, wie ich schon sagte, völlig aufs Game an. Bei manchen (vorwiegend älteren und damit meist auch detailärmeren) Games ist der Boden so, wie du beschrieben hast, recht platt, so dass "viel" 16xAF zum Einsatz kommt.
Zwei "Probleme" treten hierbei auf:
1) Das Ausgangsmaterial der Texturen ist oft nicht so hochqualitativ, dass man sehr grosse Unterschiede sehen würde und
2) Die Rohleistung der Radeon ist so gross, dass der größere Leistungseinbruch durch den höheren AF-Anteil der Bodentexturen in anderen, allgemeineneren Limitierungen quasi untergeht und sich eher schlecht isolieren läßt. (Ein gutes GEGENbeispiel ist der Villagemark, wo sowohl Qualität steigt, als auch Speed fällt).
Neuere Games, wie z.B. UT2003 haben teilweise einen so "welligen" Boden, besonders gern in Aussenlevels, dass die 16x-Winkel nur noch sehr sehr spärlich vorhanden sind, so dass trotz hoher Texturbelastung der Grafikkarte nur recht wenig Leistung verloren geht.
Sehr schön verdeutlichen kann man diesen Effekt an der Tatsache, wenn die Framerate bei atkvieren von nur 2xAF etwa im gleichen Maße absinkt, wie beim erhöhen des AF-Faktors auf 16x....
Quasar
2002-12-26, 01:08:14
Originally posted by aths
Nach dieser Definition wäre ja sogar ich ein nVidiot :naughty:
Ja, aber anders kann ich Radeonators Versuch, mich als nVidiot abzustempeln, logisch kaum erklären.
Sicher, ich übe Kritik an ATi, aber ebenso an nVidia, wenn mir persönlich etwas missfällt. Komischerweise ist noch kaum jemand auf die Idee gekommen, mich zu diesen Zeitpunkten als Fanatiker hinzustellen.
Für mich wirkt das schon sehr bezeichnend, wenn man nicht einmal öffentlich Dinge kritisieren darf, die suboptimal gelöst sind.
Piffan
2002-12-26, 01:12:50
Übertriebenes Af bringt übrigens nicht sehr viel. Denn letztlich sieht man dann nur um so deutlicher, wie unnatürlich die Texturen aussehen...Ideal ist es, wenn die Unschärfe erst in einem größeren Abstand oder bei sehr flachen Blickwinkeln auftritt und niemals "Bugwellen" in Bewegung sichtbar werden. Dann ist die Bildqualität tadelos..... Mehr Af ist imho ohne Nutzen, erfreut nur den stolzen Besitzer einer Highendgraka für kurze Zeit...
Originally posted by Piffan
Mehr Af ist imho ohne Nutzen, erfreut nur den stolzen Besitzer einer Highendgraka für kurze Zeit... Ich würde nicht unbedingt sagen, dass Stufen über 8° ohne Nutzen sind. Meiner Einschätzung nach wären 32°, gar 64° in zukünftigen Games die in hoher Auflösung laufen nicht verkehrt.
ice cool69
2002-12-26, 15:36:19
lol zuviel AF ist schlecht weil man dann die texturen zu scharf sieht? du hast schon eine sehr originelle einstellung...
"macht die texturen möglichst unscharf sonst seh ich noch wie hässlich sie sind".
sieh dir mal die in UT2003 mit 16xAF an das haut dich vom hocker wie geil die aussehen!!!
ice cool69
2002-12-26, 15:42:25
@ quasar
das leuchtet mir ein aber isses nicht so dass 16x nicht nur bei genau den 90°winkeln benutzt wird sondern bei einer bestimmten winkelspanne? ich hatte das AF so verstanden dass 2x, 4x, 8x und 16 jeweils eine gleich große winkelspanne besitzen...
abgesehn mal davon ist der boden in UT nicht dermaßen wellig wie du beschreibst.
klar, in den außenwelten gibts schon sehr welligen untergrund, hügel, abfälle etc. aber selbst hier dürfte noch ein guter anteil mit 16x gefiltert werden.
und in innenlevels welche schließlich voll mit 90°winkeln sind müsste die performance ja ziemlich absacken, tut sie aber nicht...
Quasar
2002-12-26, 15:55:34
Richtig, es besteht eine Winkelspanne, aber der Anteil des Bildes, der dann auch wirklich 16xAF gefiltert wird, ist sehr sehr klein, wenn die Flächen nicht sehr dicht um die "guten" Winkel herum gruppiert sind (jaja, mathematisch nicht 100% korrekt ausgedrückt, aber ich denke es ist verständlich).
Schau dir mal das AF-Testprogramm von Xmas an, da erkennt man gut, wie bei gleichmäßiger Verteilung von Winkeln (unrealistischer Fall, aber zur Veranschaulichung recht gut geeignet) der Anteil an 16x a-gefilterten gegeben ist.
In den Innenlevels von UT2003 schaut man z.B. auch auf eine seknrecht zum POV stehende Wand, dort greift die Optimierung von ATi natürlich auch, während nV's AF auch diese gnadenlos mitfiltert, obwohl das dort wirklich kaum nötig wäre.
Dazu spart die R300 bei Innenleveln massiv Füllrate durch Early-Z, so dass genügend Rohpower vorhanden ist, um in diesen kleineren Dimensionen ausreichend schnell AF zu filtern.
Hi ice cool69,
lol zuviel AF ist schlecht weil man dann die texturen zu scharf sieht? du hast schon eine sehr originelle einstellung...
Ich glaube der ursprüngliche Poster meinte dass bei hohen AF-Stufen die Kachelung von Boden/Decken/Wand Texturen sehr stark auffallen kann und mitunter störend wirkt. Dieses "Problem" sollte aber mit steigenden Texturauflösungen und unebenem Gelände im Stile eines UT2003 abnehmen.
Originally posted by ice cool69
sieh dir mal die in UT2003 mit 16xAF an das haut dich vom hocker wie geil die aussehen!!! Mit 8x á la NV und a-gefilterten Detailtexturen rockts auch.
Originally posted by ice cool69
ich hatte das AF so verstanden dass 2x, 4x, 8x und 16 jeweils eine gleich große winkelspanne besitzen...Hier bitte nicht "Winkel-Schräglage" mit "Rund-um-die-Uhr-Winkel" verwechseln :)
Je nach Verzerrung der Textur wird bei 16x AF 1x, 2x, 4x, 8x oder 16x anisotrop gefiltert.
So sollte es optimalerweise sein, aber bei bestimmten Winkeln, z.B. genau zwischen 0° und 45°, nutzt Radeon das Maximal-Level nicht aus, sondern filtert afaik maximal 4x. Das spart Füllrate und ist der "Trick", warum das ATI-AF schneller ist.
Quasar hat ja nachgemessen, dass in Situationen wo fast nur Winkel vorkommen die bis zur Maximalstufe gefiltert werden, auch Radeon9700 Pro mit AF noch erheblich einbricht.
Je "natürlicher" eine Spielwelt aussieht, umso weniger oft kommen diese Winkel vor (auch wenn rechte Winkel weiterhin wohl am häufigsten sind, siehe z.B. Horizont-Linie) und umso mehr wird gespart - was zulasten der Grafikqualität geht, verglichen mit nVidia-AF.
8x à la nV kann durchaus 16x AF á la R300 wegrocken. Das die Zahl alleine wenig sagt wird deutlich wenn man nVidias 8x FSAA dem 6x FSAA vom R300 gegenüber stellt (6x liefert meist bessere Kanten als 8x). Oder auch 4xS mit 6x à la Radeon8500 vergleicht (4xS liefert in der Regel ein besseres Bild als 6x auf Radeon8500.)
ice cool69
2002-12-26, 17:54:43
@ aths
gehe ich richtig in der annahme dass in der praxis das 16xAF der radeon9700 öfters nur ein bild mit 4xAF zeigt wo idealerweise 8x oder 16x richtig wären um so leistung zu sparen?
auf gut deutsch bedeutet das ja dass der 16xmodus nur ein 4xmodus der nur zb bei innenleves (viele rechte winkel) auf 16x hochgeht (hier habe ich auch die texturen angesehen).
in diesem fall muss ich natürlich recht geben dass bei games wie UT2003 in außenlevels der 8xmodus auf der geforce eine überlegene bildqualität liefert.
noch ne frage: wenn es der idealzustand ist dass je nach verzerrung unterschiedlich stark gefiltert wird, warum macht das nvidia nicht auch? würde das nicht enorm rechenpower sparen? soweit ich weiß filtern die ja auf der gf4 alles und jeden :D
LovesuckZ
2002-12-26, 18:02:06
Originally posted by ice cool69
noch ne frage: wenn es der idealzustand ist dass je nach verzerrung unterschiedlich stark gefiltert wird, warum macht das nvidia nicht auch? würde das nicht enorm rechenpower sparen? soweit ich weiß filtern die ja auf der gf4 alles und jeden :D
Das wird wahrscheinlich mit der FX von Nvidia kommen, ein 'inteligentes' Verfahren.
seahawk
2002-12-26, 18:33:06
Wer es glaubt. Die FX wird NV typisch auf rohe Rechenpower setzen und sonst nichts. SS ist ja auch nicht gerade die Erfindung des Jahres ...
Originally posted by seahawk
Wer es glaubt. Die FX wird NV typisch auf rohe Rechenpower setzen und sonst nichts. SS ist ja auch nicht gerade die Erfindung des Jahres ...
Welche Erfindung des Jahres geht deiner Meinung nach denn an ATi? Setzt ATi nicht auch typisch auf rohe Rechenpower?
ice cool69
2002-12-26, 19:14:30
zb das neue AA-verfahren der r300, trueform...
die weiterentwicklung von DX9.0 setze ich nicht unter innovation wobei ich positiv überrascht bin dass nvidia diesmal einen schritt weiter geht mit einer später erscheinenden graka.
die erweiterte programmierbarkeit rechne ich der gf-fx hoch an, ob sie in der praxis was bringt ist (wie ps1.4 der r8500) was anderes.
LovesuckZ
2002-12-26, 19:15:50
Originally posted by ice cool69
zb das AA-verfahren, trueform
Trueform gabs schon mit der R8500. Also kann das ja kein Argument fuer die 9700 sein.
ice cool69
2002-12-26, 19:19:08
aber ein argument für ATIs innovativeres vorgehen...
Mittlerweile hat ATi ja selbst sein truform-Innovation ad acta gelegt. Man hat wohl erkannt, dass man damit nicht weit kommt bzw. das Verfahren unbrauchbar ist, weil es zu grafischen Fehlern führt.
StefanV
2002-12-26, 19:26:19
Originally posted by aths
Mit 8x á la NV und a-gefilterten Detailtexturen rockts auch.
Ansichtssache...
Am besten wäre beides, das 'ATI Verfahren' per Default, Quality per REG Hack...
Das Problem beim NV Verfahren ist der enorme Leistungsverlust, wenn man es einschaltet...
LovesuckZ
2002-12-26, 19:26:55
Originally posted by ice cool69
aber ein argument für ATIs innovativeres vorgehen...
Oh, na dann. 32Bit. Ein Argument fuer Nvidia's innovatives Vorgehen. (hoffentlich reite ich mich jez nich in die Scheiße:D )
ice cool69
2002-12-26, 19:32:33
stimmt damals war 3dfx die innovationsbremse mit der voodoo3. aber die zeiten sind vorbei
Originally posted by LovesuckZ
Oh, na dann. 32Bit. Ein Argument fuer Nvidia's innovatives Vorgehen. (hoffentlich reite ich mich jez nich in die Scheiße:D )
Pech für dich;)
32(24)Bit kann sogar schon der S3Virge. NV kam als letztes mit 32Bit, mit dem TNT. Da konnten alle anderen Chip schon lange 32Bit.
LovesuckZ
2002-12-26, 19:36:06
Originally posted by ow
Pech für dich;)
32(24)Bit kann sogar schon der S3Virge. NV kam als letztes mit 32Bit, mit dem TNT. Da konnten alle anderen Chip schon lange 32Bit.
Oh, hm...:-(
/edit: 2. Versuch: Was ist mit AA der GF3? War da Nvidia wenigsten mal schneller als alle anderen?
StefanV
2002-12-26, 19:41:11
Originally posted by LovesuckZ
2. Versuch: Was ist mit AA der GF3? War da Nvidia wenigsten mal
schneller als alle anderen?
Das FSAA der Voodoo5 schaut besser aus, außerdem bietet die V5 auch 4x RGAA an, die GF3/4 nur OGAA...
FSAA wurde von 3DFX eingeführt ;)
Das einzige, was NV gemacht hat, war auf MSAA zu setzen...
Gohan
2002-12-26, 19:43:35
NV ist die Evolutionsbremese. Kein DM, aber mit Shadern pralen die noch keiner sinnvoll benutzen kann....
LovesuckZ
2002-12-26, 19:44:12
Originally posted by Stefan Payne
Das einzige, was NV gemacht hat, war auf MSAA zu setzen...
Dadrum gehts mir. Hat Nvidia dieses Verfahren als erstes verwendet?
ice cool69
2002-12-26, 19:51:28
das einzige womit sie im grafiksektor erster waren war glaube ich t&l welches zumindest in quake3 vorteile brachte.
damals hab ich mir auch die geforce256ddr gekauft. die gf2 fand ich war schon ein sehr müdes update.
gf3 machte einen größeren schritt, aber da war die r8500 einfach das innovativere produkt.
gf4 war wiederum nur ein aufguss der gf3. gf-fx dürfte wieder so ein sprung werden wie gf2 zu gf3.
aber isngesamt waren die schritte doch deutlich kleiner als radeon - radeon2 - radeon3. ati tut einfach mehr hab ich das gefühl (sie müssen sich ja auch irgendwie abheben um nicht unterzugehen, aber genau deshalb mag ich non-marktführer produkte einfach mehr).
meine theorie: je näher ati an nvidia rankommt desto mehr wird nvidia machen. die gf-fx ist da mit dem ps/vs 2.0+ ein gutes bsp.
Razor
2002-12-26, 19:52:08
Originally posted by LovesuckZ
Dadrum gehts mir. Hat Nvidia dieses Verfahren als erstes verwendet?
Ja,
nVidia hat als erstes von der Performance her 'brauchbares' AA geliefert. ATI hat dies nun auch gebracht und ist sogar noch weiter gegangen...
Bis denne
Razor
Originally posted by ice cool69
@ aths
gehe ich richtig in der annahme dass in der praxis das 16xAF der radeon9700 öfters nur ein bild mit 4xAF zeigt wo idealerweise 8x oder 16x richtig wären um so leistung zu sparen?Im Bild sind gewisse Stellen nur 4x gefiltert, wo man auch 8x oder 16x nehmen könnte, ja.
Originally posted by ice cool69
auf gut deutsch bedeutet das ja dass der 16xmodus nur ein 4xmodus der nur zb bei innenleves (viele rechte winkel) auf 16x hochgeht (hier habe ich auch die texturen angesehen).Brutal ausgedrückt - ja.
Originally posted by ice cool69
in diesem fall muss ich natürlich recht geben dass bei games wie UT2003 in außenlevels der 8xmodus auf der geforce eine überlegene bildqualität liefert.Ich weiß im Moment nicht, was das tatsächliche Minimal-Level beim R300 ist, also ob nun 4x oder sogar nur 2x (Quasar?) aber klar sollte sein, dass 2x schon mal einen Qualitätssprung bedeutet, und 4x erst recht. Das heißt, das geringstufige Filtern gewisser Bereiche ist kein Beinbruch, vor allem wenn man mit der Ur-Radeon vergleicht: Dort waren die "Löcher", wo die Stufe runter geschaltet wurde, viel größer, und auch bei 16x AF wurden gewisse Winkel gar nicht anisotrop gefiltert.
Originally posted by ice cool69
noch ne frage: wenn es der idealzustand ist dass je nach verzerrung unterschiedlich stark gefiltert wird, warum macht das nvidia nicht auch? würde das nicht enorm rechenpower sparen? soweit ich weiß filtern die ja auf der gf4 alles und jeden :D Nö. Auch nVidias Verfahren ist seit Anbeginn adaptiv. Bei 8x AF bekommt nur das 8x ab, was es auch "braucht". Wo 4x reicht, wird 4x appliziert. Da fast jede Textur irgendwie verzerrt ist, bekommt aber praktisch alles mindestens 2x AF ab. Das sorgt zwar an vielen Flächen nicht für schärfere Texturen (weil es schärfer nicht geht, ohne dass es zu Flimmern führen würde) aber "beruhigt" nebenbei das Bild.
LovesuckZ
2002-12-26, 19:53:24
Originally posted by ice cool69
aber isngesamt waren die schritte doch deutlich kleiner als radeon - radeon2 - radeon3. ati tut einfach mehr hab ich das gefühl (sie müssen sich ja auch irgendwie abheben um nicht unterzugehen, aber genau deshalb mag ich non-marktführer produkte einfach mehr).
TNT - GF1 - GF3 - GFFX.
Razor
2002-12-26, 19:56:54
Originally posted by ice cool69
das einzige womit sie im grafiksektor erster waren war glaube ich t&l welches zumindest in quake3 vorteile brachte.
damals hab ich mir auch die geforce256ddr gekauft. die gf2 fand ich war schon ein sehr müdes update.
gf3 machte einen größeren schritt, aber da war die r8500 einfach das innovativere produkt.
gf4 war wiederum nur ein aufguss der gf3. gf-fx dürfte wieder so ein sprung werden wie gf2 zu gf3.
aber isngesamt waren die schritte doch deutlich kleiner als radeon - radeon2 - radeon3. ati tut einfach mehr hab ich das gefühl (sie müssen sich ja auch irgendwie abheben um nicht unterzugehen, aber genau deshalb mag ich non-marktführer produkte einfach mehr).
meine theorie: je näher ati an nvidia rankommt desto mehr wird nvidia machen. die gf-fx ist da mit dem ps/vs 2.0+ ein gutes bsp.
Die TNT hat T&L eingeführt, mit der gf1 war es brauchbar...
Der R200 war 6 Monate zu spät, was ist daran 'innovativ' ?
Die gffx dürfte ein Schritt werden, wie seinerzeit von TNT zu gf1, oder gf1 zu gf3.
-
Insgesamt nehmen sich die beiden großen da überhaupt nichts, denn alles, was Du auf führtest sind ja wohl eher subjektive 'Klarheiten', oder ?
Razor
P.S.: In einem Punkt war ich zu langsam...
;-)
Originally posted by ow
32(24)Bit kann sogar schon der S3Virge. NV kam als letztes mit 32Bit, mit dem TNT. Da konnten alle anderen Chip schon lange 32Bit. Außer Voodoo2 und Voodoo3. 3dfx kam als letzter mit 32 Bit, erst Anno 2000 mit Voodoo5! ;)
Originally posted by aths
"Vernünftiges" AF, also über 2°, kam zuerst von ATI mit der Ur-Radeon.
Nö, kam mit der GF1, das 2xAF.
Razor
2002-12-26, 20:01:12
Originally posted by aths
"Vernünftiges" AF, also über 2°, kam zuerst von ATI mit der Ur-Radeon.
Keine Frage...
Und qualitativ hochwertiges, performance-seitig 'brauchbares' AF kam zuerst mit der gf3.
Allerdings sprach ich vom AA, nicht vom AF.
:D
Razor
Originally posted by LovesuckZ
Dadrum gehts mir. Hat Nvidia dieses Verfahren als erstes verwendet? Ja, nVidia hat mit Multisampling á la GeForce3 eine echte Innovation im Gamer-Markt vorgelegt.
Originally posted by aths
Außer Voodoo2 und Voodoo3. 3dfx kam als letzter mit 32 Bit, erst Anno 2000 mit Voodoo5! ;)
argh... die hatte ich ja ganz vergessen. *schäm*
Ok, war halt 3dfx letzer mit 32Bit und NV vorletzter (Chips wie den Intel i740/752 hab ich mal unterschlagen, die konnten auch kein 32Bit).
Originally posted by ow
Nö, kam mit der GF1, das 2xAF. Arg, ich schrieb Lötzinn (AA->AF), und du quotest das auch noch!
Originally posted by Razor
Die TNT hat T&L eingeführt, mit der gf1 war es brauchbar...... wenn man davon absieht, dass die HW T&L zumindest im 3DMark später langsamer war, als die SW-T&L-Methode... :) und starres HW-T&L auf GeForce DDR insofern wenig bringt, dass der Chip die Geometrie-Leistung schwerlich umsetzen kann, und starres T&L so hilfreich nun auch nicht ist.
Aber du meinst doch GF hat T&L eingeführt?
TNT hat keine T&L-Einheit, nur Triangle Setup. Das hat Voodoo2 allerdings auch.
Razor
2002-12-26, 20:11:50
Originally posted by aths
... wenn man davon absieht, dass die HW T&L zumindest im 3DMark später langsamer war, als die SW-T&L-Methode... :) und starres HW-T&L auf GeForce DDR insofern wenig bringt, dass der Chip die Geometrie-Leistung schwerlich umsetzen kann, und starres T&L so hilfreich nun auch nicht ist.
Aber du meinst doch GF hat T&L eingeführt?
TNT hat keine T&L-Einheit, nur Triangle Setup. Das hat Voodoo2 allerdings auch.
Arrghhh...
Irgendwie schreiben wir alle hier heute ziemlichen Mist, gell ?
:D
Razor
Originally posted by aths
... wenn man davon absieht, dass die HW T&L zumindest im 3DMark später langsamer war, als die SW-T&L-Methode... :)
Kann ich mit meiner GF2MX und XP1700 im 3DM2000 nicht nachvollziehen.
Am schnellsten ist P3 Optimierung vor Athlon Opt., dann 3DNow Opt., dann HW T&L und zum Schluss SW T&L.
Punkte: 5323/5230/5215/5049/4316
Originally posted by ow
Kann ich mit meiner GF2MX und XP1700 im 3DM2000 nicht nachvollziehen.
Am schnellsten ist P3 Optimierung vor Athlon Opt., dann 3DNow Opt., dann HW T&L und zum Schluss SW T&L.
Punkte: 5323/5230/5215/5049/4316 Ich meinte mit SW T&L auch eine prozessorspezifische Optimierung. Ist letztlich auch SW-T&L.
Razor
2002-12-26, 20:21:14
Originally posted by aths
Ich meinte mit SW T&L auch eine prozessorspezifische Optimierung. Ist letztlich auch SW-T&L.
Meinst Du dass UT2k3 mit SW-T&L 'ne gute Idee wär ?
(Botmatch, nicht Flyby !)
:D
Razor
ice cool69
2002-12-26, 21:54:26
also quake3 war unter hardware t&l deutlich schneller als mit software t&l und unter 3dmark dasselbe (im vergleich mit SSE und 3dnow)
MeLLe
2002-12-26, 22:33:02
Originally posted by ice cool69
also quake3 war unter hardware t&l deutlich schneller als mit software t&l und unter 3dmark dasselbe (im vergleich mit SSE und 3dnow)
Wie kann ich in Q3 auf einer T&L-Karte HW-T&L deaktivieren, um diesen Sachverhalt nachzumessen? :|
Lightning
2002-12-26, 22:39:23
Originally posted by MeLLe
Wie kann ich in Q3 auf einer T&L-Karte HW-T&L deaktivieren, um diesen Sachverhalt nachzumessen? :|
Ich glaube mit irgendeinem ATi-Tweaker geht das sogar (Rage 3D Tweak, Radeonator?).
ice cool69
2002-12-26, 22:58:53
keine ahnung wie das geht aber ich hab benchmarks gesehn wie besonders unter 640x480 und 800x600 die performance mit hardware t&l in die höhe geschossen ist (ab 1280x1024 isses dann sehr füllratenlimitiert worden).
MeLLe
2002-12-26, 22:59:46
Originally posted by ice cool69
keine ahnung wie das geht aber ich hab benchmarks gesehn wie besonders unter 640x480 und 800x600 die performance mit hardware t&l in die höhe geschossen ist (ab 1280x1024 isses dann sehr füllratenlimitiert worden).
Danke.
Gesehn hab ich auch schon viel. :|
StefanV
2002-12-26, 23:12:21
Originally posted by MeLLe
Danke.
Gesehn hab ich auch schon viel. :|
Schonmal 3D Analyzer Probiert ??
Originally posted by aths
Ich meinte mit SW T&L auch eine prozessorspezifische Optimierung. Ist letztlich auch SW-T&L.
Also bei 8 Lichtquellen im 2000er Matk reisst der XP wesentlich mehr als die HW T&L der GFMX, auch bei SW T&L.
Beim 2001er sind auch nur 4,1Mio zu 3,8 MIO (HW zu SW).
Bei einer LQ hat der XP1700 mit 1466 MHZ in beiden 3DMarks das Nachsehen gegenüber den 175 MHZ HWT&L meiner GF2MX.
Ich sehe den Vorteil von HWTL weniger in mehr Speed als eher in einer effektiven Entlastung der CPU von solch stupiden Aufgaben wie Vertices zu transformieren zu entlasten.
Originally posted by Razor
Meinst Du dass UT2k3 mit SW-T&L 'ne gute Idee wär ?
(Botmatch, nicht Flyby !)
:D
Razor
Hast du´s mal gebencht, HWTL vs. SWTL?
Originally posted by ice cool69
also quake3 war unter hardware t&l deutlich schneller als mit software t&l und unter 3dmark dasselbe (im vergleich mit SSE und 3dnow)
Bei Q3 musst du irren. Die Polygonlast ist IMO zu niedrig um von HW T (L wird eh nicht genutzt:D) zu profitieren.
Für GFs kenne ich keine Möglichkeit HWTL abzuschalten, bei den Radeons könnte es über Tweaker funzen (entsprechneden Reg-Eintrag unter OGL gibt es AFAIK).
Originally posted by Stefan Payne
Schonmal 3D Analyzer Probiert ??
?? Wozu soll das gut sein?
Unter OGL kann man HWTL nicht abschalten und bei D3D sind HAL und T&L-HAL eh getrennte Render-Devices (alles AFAIK).
Demirug
2002-12-27, 00:20:06
Originally posted by ow
?? Wozu soll das gut sein?
Unter OGL kann man HWTL nicht abschalten und bei D3D sind HAL und T&L-HAL eh getrennte Render-Devices (alles AFAIK).
Unter OGL könnte man es abschalten wenn man OGL DLL dazwischen schiebt welcher der Original DLL nur noch bereits komplett Transformierte Vertexdaten übergibt. Wäre aber viel Arbeit eine solche DLL zu schreiben.
Bei D3D war die Trennung von HAL und T&L HAL nur in der DX7 Version enthalten.
Bei DX8/9 gibt es jetzt:
-hardware vertex processing (entspricht in etwa DX7 T&L HAL)
-software vertex processing (entspricht in etwa DX7 HAL)
-mixed vertex processing (erlaubt dynamisches Umschalten pro Draw Primitive Call. Damit ist es zum Beispiel möglich Fixed T&L auf der Karte laufen zu lassen und die Vertex Shader durch die CPU rechnen zu lassen)
- pure Device (eine specialform von hardware vertex processing die schneller ist aber dafür ein paar einschrängungen hat)
Thx:), Demi.
Im Prinzip war mir das schon in etwa bekannt (unter D3D sieht man ja an den SDK-Samples, wie sich die 'devices' (F2:D) ändern).
Mit der Abwärtskompatibilität wird´s halt mit jedee DX-Version auch etwas komplizierter denke ich.
Demirug
2002-12-27, 00:44:00
Originally posted by ow
Thx:), Demi.
Im Prinzip war mir das schon in etwa bekannt (unter D3D sieht man ja an den SDK-Samples, wie sich die 'devices' (F2:D) ändern).
Mit der Abwärtskompatibilität wird´s halt mit jedee DX-Version auch etwas komplizierter denke ich.
So viel komplizierter wird das gar nicht. Wenn man sich mal anschaut wie DX aufgebaut ist wird das auch schnell klar. Aber das ganze würde mir hier jetzt zuviel Text werden und ohne ein paar Bilder ist das auch schwer zu erklären.
Kein Problem.:)
Wenn ich was wissen will, kann ich´s meistens auch nachlesen (demnächst hau ich mal das SDK auf meinen Rechner).
/OT:
Weder auf meiner Kyro noch GF2MX funzt Applikations-gesteuertes AA unter DX9-Apps (Kyro/GF2 bis 41.09 bietet es gar nicht an, der 41.80 mit der GF2MX gibt ne Fehlermeldung).
Da hat sich wohl auch was am d3d-device interface geändert, right?
/edit: und was ist NONMASKABLE Multisampling
StefanV
2002-12-27, 01:00:16
Originally posted by ow
Weder auf meiner Kyro noch GF2MX funzt Applikations-gesteuertes AA unter DX9-Apps (Kyro/GF2 bis 41.09 bietet es gar nicht an, der 41.80 mit der GF2MX gibt ne Fehlermeldung).
Da hat sich wohl auch was am d3d-device interface geändert, right?
Hat bei mir mit der GF4 auch noch nie gefunzt.
Bei welchen Apps kann man das eigentlich einstellen, außer 3DMurks und NWN ??
ice cool69
2002-12-27, 01:01:44
der vergleich hinkt aber auch...
ich rede ja von geforce1-zeiten, da gabs keinen AXP, sonder A mit so 600 MHz und bei mir im 3Dmark war hardware t&l nunmal deutlich schneller als software t&l, egal ob mit oder 3dnow und die gf1ddr ist ungefähr so schnell wie die gf2mx...
edit:
ich kann mich garantiert an diesen t&l-bench erinnern und mit dem t&l der geforce1 war quake3 in damals normalen auflösungen bis 1024x768 deutlich schneller als per software...
Demirug
2002-12-27, 01:12:00
Originally posted by ow
Kein Problem.:)
Wenn ich was wissen will, kann ich´s meistens auch nachlesen (demnächst hau ich mal das SDK auf meinen Rechner).
/OT:
Weder auf meiner Kyro noch GF2MX funzt Applikations-gesteuertes AA unter DX9-Apps (Kyro/GF2 bis 41.09 bietet es gar nicht an, der 41.80 mit der GF2MX gibt ne Fehlermeldung).
Da hat sich wohl auch was am d3d-device interface geändert, right?
/edit: und was ist NONMASKABLE Multisampling
SDK reicht dafür nicht. Wie die Kompatibilität gewahrt wird geht nur aus dem DDK hervor und das ist leider nicht für die öffentlichkeit bestimmt. Selbst die Beta Programme sind getrennt.(Ich habe es auch nur weil ich über die Firma zugang zu den Final DDKs habe)
Ja am AA wurde was auf Treiberebene geändert allerdings sollte des keine Probleme in Verbidnung mit alten Treiber verursachen.
Beim "NONMASKABLE Multisampling" kann der Entwickler keinerlei Annahmen über die Anzahl der Samples machen und deswegen kann man die entsprechenden Maskierungs Funktionen auch nicht benutzten. Der Sinn dieses neuen AA-Modus ist folgender. Der Treiber meldet wie viele AA-Qualitätsstufen verfügbar sind. Bei der Verwendung von "NONMASKABLE Multisampling" kann man dann zusätzlich eine solche Stufe auswählen. Im wesentlichen soll das erlauben das man für das AA einen einfachen Slider einbauen kann.
Originally posted by Demirug
SDK reicht dafür nicht. Wie die Kompatibilität gewahrt wird geht nur aus dem DDK hervor und das ist leider nicht für die öffentlichkeit bestimmt. Selbst die Beta Programme sind getrennt.(Ich habe es auch nur weil ich über die Firma zugang zu den Final DDKs habe)
Das DDK ist nicht mehr öffentlich? Zu DX7 Zeiten war es das aber noch, ich hatte es damals auf dem Rechner
Ja am AA wurde was auf Treiberebene geändert allerdings sollte des keine Probleme in Verbidnung mit alten Treiber verursachen.
Tut es scheinbar aber. Wie schon gesagt wird gar keine AA-Unterstützung gemeldet, es ist als auch nicht anwählbar.
Beim "NONMASKABLE Multisampling" kann der Entwickler keinerlei Annahmen über die Anzahl der Samples machen und deswegen kann man die entsprechenden Maskierungs Funktionen auch nicht benutzten. Der Sinn dieses neuen AA-Modus ist folgender. Der Treiber meldet wie viele AA-Qualitätsstufen verfügbar sind. Bei der Verwendung von "NONMASKABLE Multisampling" kann man dann zusätzlich eine solche Stufe auswählen. Im wesentlichen soll das erlauben das man für das AA einen einfachen Slider einbauen kann.
Vielleicht scheitert es an den Qualitätsstufen. Der 41.80 Deto meldet 3 Stufen für NONMASKABLE MS, aber keine für 2 Samples bzw. 4 Samples AA. Wenn ich in deinem N-Patch Prog, 2x/4x AA wähle, dann ist das 'quality level'-Feld einfach leer.
S. Screenshots,
a) capsviewer
Der device-Interface Dialog deines N-Patch Progs:
Originally posted by Stefan Payne
Hat bei mir mit der GF4 auch noch nie gefunzt.
Bei welchen Apps kann man das eigentlich einstellen, außer 3DMurks und NWN ??
zB. bei allen Beispielprogs des DXSDK. Ansonsten fällt mir noch die Comanche4 Demo ein. Die meisten SPiele scheinen aber (leider) auf diese Möglichkeit zu verzichten.
Demirug
2002-12-27, 11:00:49
ja ow, seit DX8 ist es irgendwie nicht mehr so richtig öffentlich, bin da wie gesagt nur über umwege rangekommen.
Also mit einer guten alten GF1 funktioniert das mit dem 41.80 ohne probleme.
Welches Betriebssystem?
Und meldet die GF1 quality level (und wieviele) bei 2&4Sample AA?
Demirug
2002-12-27, 11:11:15
Originally posted by ow
Welches Betriebssystem?
Und meldet die GF1 quality level (und wieviele) bei 2&4Sample AA?
W2k und bei den 2 und 4 Sample AA sollen ja auch keine Quality Level gemeldet werden da diese wirklich nur für NONMASKABLE MS gedacht sind.
Quasar
2002-12-27, 11:14:02
Originally posted by aths
Ich weiß im Moment nicht, was das tatsächliche Minimal-Level beim R300 ist, also ob nun 4x oder sogar nur 2x (Quasar?) aber klar sollte sein, dass 2x schon mal einen Qualitätssprung bedeutet, und 4x erst recht. Das heißt, das geringstufige Filtern gewisser Bereiche ist kein Beinbruch, vor allem wenn man mit der Ur-Radeon vergleicht: Dort waren die "Löcher", wo die Stufe runter geschaltet wurde, viel größer, und auch bei 16x AF wurden gewisse Winkel gar nicht anisotrop gefiltert.
Bei gaanz minimalen (wirklich minimal!) Ausschnitten wird sogar immer noch nicht anisotrop gefiltert. ow und ich hatten da mal in einem Thread eine endlos lange Diskussion drüber.
In den meisten Bereichen ist aber das 2xtriAF der R300-Serie dem der GeForce gleichwertig. Deswegen auch der überproportional starke Einbruch beim Zuschalten von 2xAF, während höhere Level (wo dann die sichtbare Optimierung greift) i.A. nur noch mit relativ geringem Verlust verbunden sind.
Wenn man so will, sind 2xFSAA/2xAF noch die Settings, bei denen man am ehesten die Effizienz beider Chips ablesen kann, da sich die Bildqualität nur sehr wenig voneinander unterscheidet (mit der Ausnahme der Gamma-Korrektur der Radeon).
Zur Ur-Radeon (bis 9100 ;) ) hat sich soo viel nicht geändert, was das Optimierungsverfahren angeht. Die charakteristischen Ohren sind nach wie vor vorhanden, nur sind jetzt, bedingt durch die aktive Filterung bei 45°-Winkeln, zwei kleinere Ohren pro Quadrant vorhanden.
Quasar
2002-12-27, 11:15:10
Mist, Bild nur im "preview" angehängt...
Originally posted by Demirug
W2k und bei den 2 und 4 Sample AA sollen ja auch keine Quality Level gemeldet werden da diese wirklich nur für NONMASKABLE MS gedacht sind.
achso. naja, bei mir funzt es nicht.
Hab jetzt wieder den 41.09 drauf und der meldet sich noch als DX8 Treiber (dxdiag: DDI-Version 8), AA ist nicht möglich, es wird keine Unterstützung unter DX9 gemeldet (bei DX8 Apps funzt es aber).
Radeonator
2002-12-27, 11:39:16
@ow hast du die SD-Ram Blaster Variante oder die 64Bit-DDR ? Nur interesse halber
Razor
2002-12-27, 15:35:24
Originally posted by ow
/OT:
Weder auf meiner Kyro noch GF2MX funzt Applikations-gesteuertes AA unter DX9-Apps (Kyro/GF2 bis 41.09 bietet es gar nicht an, der 41.80 mit der GF2MX gibt ne Fehlermeldung).
Habe das mal mit dem FSAATest2 (DX9) von Tommiti ausprobiert und es funzt ganz hervorragend mit dem 41.80 (vorausgesetzt im Treiber ist 'allpication controlled' eingestellt ;-).
Razor
Razor
2002-12-27, 15:51:49
Originally posted by ow
Hast du´s mal gebencht, HWTL vs. SWTL?
Jetzt ja !
:D
Leider funzt der 3DAnalyzer (1.7) nicht mit Applikationen, die Parameter für die Benchmarkfunktion benötigen...
So fallen leider z.Bsp. die ImgTech-Benches, als auch DungenSiege weg.
Aber UT/AM hat gefunzt und für'n Murks gibbet ja den 'Software D3D'-Modus...
(insbesondere der Murks war sehr interessant ;-)
Hier mal das Ergebnis für UT2003/Aquamark:
ASUS A7N8X del/gd (nForce2)
AthlonXP 1800+ @ 2100+ (133@150 FSB)
2x 256MB Corsair PC433 CL2 DDR-SDRAM (@ max Timing)
ELSA Gladiac 920 (gf3@235/265)
WindowsXP SP1
41.80 41.80 Abw. Anmerkung
SW HW
UT2003-flyby 71,4 94,9 +32,9%
-botmatch 31,2 53,9 +72,8%
Aquamark2.3 30,9 50,8 +64,4%
min 16 31 +93,8%
max 53 86 +62,3%
Tjo, insofern scheint HW T&L bzw. auch der Vertex-Shader 'ne Menge zu bringen...
Und auch der Murks spricht Bände !
(habe ich unten angehängt)
Interessant war auf jeden Fall, dass sich das Thema 'Spiegelungen' im Zusammenhang mit den Deto 41.80 und 'Software D3D' dann auch gleich miterledigte, nicht aber das LOD-Prob'. Aber das nur am Rende...
Ich würde also sagen, dass selbst bei einer 1,73GHz CPU die Geometrieleistung einer GPU noch immer der einer CPU überlegen ist. Ganz zu schweigen wenn die CPU auch noch für was anderes benötigt wird.
Bis denne
Razor
Originally posted by Razor
Jetzt ja !
:D
Leider funzt der 3DAnalyzer (1.7) nicht mit Applikationen, die Parameter für die Benchmarkfunktion benötigen...
So fallen leider z.Bsp. die ImgTech-Benches, als auch DungenSiege weg.
DOch, das tut der 3DAnalyzer. Einfach eine batch Datei mit dem Aufruf der exe. inkl. der notwendigen Parameter erstellen und starten. Ich hab so die Comanche4 demo auf der Kyro gebencht (cmdline: c4demo.exe /bench), die braucht zum Benchen auch zwingend HWTL.
Aber UT/AM hat gefunzt und für'n Murks gibbet ja den 'Software D3D'-Modus...
(insbesondere der Murks war sehr interessant ;-)
Hier mal das Ergebnis für UT2003/Aquamark:
ASUS A7N8X del/gd (nForce2)
AthlonXP 1800+ @ 2100+ (133@150 FSB)
2x 256MB Corsair PC433 CL2 DDR-SDRAM (@ max Timing)
ELSA Gladiac 920 (gf3@235/265)
WindowsXP SP1
41.80 41.80 Abw. Anmerkung
SW HW
UT2003-flyby 71,4 94,9 +32,9%
-botmatch 31,2 53,9 +72,8%
Aquamark2.3 30,9 50,8 +64,4%
min 16 31 +93,8%
max 53 86 +62,3%
Tjo, insofern scheint HW T&L bzw. auch der Vertex-Shader 'ne Menge zu bringen...
Und auch der Murks spricht Bände !
(habe ich unten angehängt)
Interessant war auf jeden Fall, dass sich das Thema 'Spiegelungen' im Zusammenhang mit den Deto 41.80 und 'Software D3D' dann auch gleich miterledigte, nicht aber das LOD-Prob'. Aber das nur am Rende...
Diese Problem zeigt meine Gf2MX mit dem 41.80 nicht, wenn ich mich nicht irre. Ich hab aber derzeit wieder den 41.09 drauf, kann´s also nicht mal eben schnell nachprüfen.
btw. ist ja schon der ersten 42er Deto für Win2k/XP aufgetaucht.:D
Das D***3 Prob des 41.80 OGL Treiber konnte ich elegnat damit umgehen, dass ich im aTuner die GF3-Emulation eingeschaltet hab. Damit startet D***3, initialisiert den NV20Pfad und läuft fehlerfrei.
Ich würde also sagen, dass selbst bei einer 1,73GHz CPU die Geometrieleistung einer GPU noch immer der einer CPU überlegen ist. Ganz zu schweigen wenn die CPU auch noch für was anderes benötigt wird.
Bis denne
Razor
Es stand schon immer ausser Frage, dass die Leistung spezialisierter Funktionseinheiten höher ist als die universell programmierbarer. Das ist nicht nur bei T&L so.
Razor
2002-12-28, 05:37:54
Originally posted by ow
DOch, das tut der 3DAnalyzer. Einfach eine batch Datei mit dem Aufruf der exe. inkl. der notwendigen Parameter erstellen und starten. Ich hab so die Comanche4 demo auf der Kyro gebencht (cmdline: c4demo.exe /bench), die braucht zum Benchen auch zwingend HWTL.
Guter Tip !
Werde das dann mal mit den Batches probieren...
Nur wie wird die App dazu gezwungen, die lokale D3D8.DLL zu benutzen ?
Ich werd's einfach probieren...
;-)
Originally posted by ow
Diese Problem zeigt meine Gf2MX mit dem 41.80 nicht, wenn ich mich nicht irre. Ich hab aber derzeit wieder den 41.09 drauf, kann´s also nicht mal eben schnell nachprüfen.
btw. ist ja schon der ersten 42er Deto für Win2k/XP aufgetaucht.:D
Das D***3 Prob des 41.80 OGL Treiber konnte ich elegnat damit umgehen, dass ich im aTuner die GF3-Emulation eingeschaltet hab. Damit startet D***3, initialisiert den NV20Pfad und läuft fehlerfrei.
GF3-Emu ?
Mit 'ner GF3 ?
Hmmm...
???
Um also <zensiert> laufen zu lassen, muss ich vorhandene Hardware emulieren lassen ?
Werde das mal ausprobieren, aber richtig gangbar ist das nicht...
Oder doch ?
Hab's grad mal ausprobiert...
Also selbst mit NV20/25/30-Emu will's net funzen.
Mit und ohne cfg's... nix zu machen !
Kann das aber erst einmal verschmerzen, bis 'nen neues Tech-Preview oder aber 'nen Fix da ist. Kann es nicht sein, dass die Treiber selbst den korrekten Start verhindern ?
*verschwörungstheorieausgrab*
;-)
Originally posted by ow
Es stand schon immer ausser Frage, dass die Leistung spezialisierter Funktionseinheiten höher ist als die universell programmierbarer. Das ist nicht nur bei T&L so.
Ich weiß...
Wollte damit nur das Argument von aths entkräften, das HW T&L etwas 'nutzloses' sei (er hat es anders formuliert) und dem ist definitiv nicht so.
Bis denne
Razor
Originally posted by Razor
Wollte damit nur das Argument von aths entkräften, das HW T&L etwas 'nutzloses' sei (er hat es anders formuliert) und dem ist definitiv nicht so. Wenn Aussagen wiedergeben werden, bitte richtig. Ich sagte, dass die T&L-Einheit alter GeForce-Karten (genauer gesagt, GeForce1) heutzutage von der CPU überholt wird.
StefanV
2002-12-28, 14:03:27
Falls es interessiert:
Die Geforce FX hat anscheinend 'nen integrierten TV Encoder.
Dann mal viel spaß mit dem Teil, solange NV nix ändert wird man am TV Out nicht viel freude haben...
Razor
2002-12-28, 14:16:17
Originally posted by aths
Wenn Aussagen wiedergeben werden, bitte richtig. Ich sagte, dass die T&L-Einheit alter GeForce-Karten (genauer gesagt, GeForce1) heutzutage von der CPU überholt wird.
Sorry, denn das kann man (fast) so stehen lassen...
Kommt halt immer darauf an, mit was die CPU sonst noch so beschäftigt ist, gell ?
;-)
Razor
Razor
2002-12-28, 14:17:17
Originally posted by Stefan Payne
Falls es interessiert:
Die Geforce FX hat anscheinend 'nen integrierten TV Encoder.
Dann mal viel spaß mit dem Teil, solange NV nix ändert wird man am TV Out nicht viel freude haben...
Abwarten...
;-)
Razor
Quasar
2002-12-28, 14:30:45
Hm, wieviele GF4MX'er der Payne wohl schon in Händen gehabt hat....?
Demirug
2002-12-28, 14:32:38
Originally posted by aths
Wenn Aussagen wiedergeben werden, bitte richtig. Ich sagte, dass die T&L-Einheit alter GeForce-Karten (genauer gesagt, GeForce1) heutzutage von der CPU überholt wird.
Natürlich wird sie das. Aber spielt das eine Rolle? Wichtiger ist doch das verhältniss zwischen der Geometrie und Pixel Power. Was nützt es wenn die CPU die Vertexdaten viel schneller rechnen kann als die Karte dann die Dreiecke rendert?
ice cool69
2002-12-28, 20:42:35
also dem software t&l meines athlon mit 600 MHz war die geometrieeinheit der gf1 jedenfalls überlegen.
@ aths
der vergleich ist aber auch ein wenig unfair. mich würde viel mehr interessieren wie die leistung aktueller grakas im vergleich zum AXP aussehen...
aber immerhin gut zu wissen dass meine kyro2 dank des AXP in sachen polygonleistung nicht hinter der gf1 ist.
Unregistered
2002-12-28, 21:09:55
ähhh...
ich störe nur ungern eure ausgesprochen interessante Unterhaltung ;) ; aber auf einem anderen Board habe ich folgendes Quote gefunden :
For the most part, GeForce4 cards are on the slow decline. When we see a GeForce FX around late Q1, the GeForce4 series cards should drop like a rock. This actually marks the 8th CPU guide in a row that we have anticipated an FX card, so with another 3 months to go the NVIDA market will feel like it is suspended animation for a while longer.
Stammt aus Anandtech's Dez-Priceguide.
http://www.anandtech.com/guides/showdoc.html?i=1762&p=5
Tja, dann müssen wir die Vorfreude auf die GFfx wohl noch ein paar Monate länger aufrecht erhalten. Late Q1 kann ja wohl nur März heißen ( in USA ). Bei uns wird's wohl mal wieder April/Mai(?) werden, bis wir die Karten hier sehen. Damit besteht die Wahrscheinlichkeit, das die R350-Karten vor den GFfx-Karten zu haben sein werden. Lustig (aber nicht für Nvidia) :(
Quasar
2002-12-28, 21:14:19
Schau'n mer mal, würd' ich sagen. =)
Wäre nicht das erste Mal, wo man Finanzquartale mit Kalenderquartalen durcheinanderwirft (genauso, wie nV30 und nV31/34...).
robbitop
2002-12-29, 16:27:08
tja ich will ja nicht den Teufel an die Wand malen aber ich glaube ATi hat wohl zu Recht bei der R3xx Serie auf 0,15µ gesetzt, weil 0,13µ bei zu komplexen Chips wohl noch etwas Zeit braucht...
es gibt nicht ohne Grund wenige Samples und deshalb keine Unabhängigen Benches...
ich finde das sehr schade, weil ich persönlich denke dass das 256bit DDR Interface nicht das Wundermittel ist und die GF FX das gegen R3xx beseisen soll. Nunja ich denke zwar dass der NV30 sich wegen des 0,13µ Prozess bereits verspätet hat, aber dies auf Folgeprodukte keinen Einfluss hat (bis dahin ist der Prozess ausgereift und der 0,13µ ist die Basis für GPUs die nächsten 2 Jahre IMO).
Die Frage ist wie schnell NV die neue Produktpallette auf besis des NV3x aufstellen können und wie die Differenzen zw den Produktionszyklen zw NV und ATi aussehen werden. (1 Chip pro Jahr erlaubt sorgfältige Optimierung im PCB/Treiber/Ferigung , verschiedene Produkte usw das ganze wird mit der Zeit günstiger und lohnt die Entwicklungskosten...der Markt wird ordendlich "gemolken"...so war es bisher....doch ATi scheint den Weg der 6Monatigen Produktionszyklen gehen zu wollen....das wäre doch deutlich schlechter für deren Gewinne...und man hätte weniger Zeit Chips zu entwickeln und zu optimieren).
Ich persönlich denke dass es letztendlich es bei 1 Chip pro Jahr bleiben wird... denn wie man sieht (aber noch nicht definitiv weiss) wird der R350 wohl nur eine übertaktete Version des R300 sein...eine art Ultra...warum aber ein anderer Name für den Core.
das war beim NV25 anders...der aber erst 1 Jahr nach dem NV20 kam.
tja was sagt ihr dazu...?
seahawk
2002-12-29, 18:15:56
Ist eine schwierige Frage ob 0,13 µ nun eine gute oder schlechte Entscheidung war. Einerseits hat NV dadurch erhebliche Verzögerungen hinnhemen müssen, andererseits habe sie ab vielleicht Mai/Juni eine komplette Produktpalette in 0,13 µ mit den daraus resultierenden Vorteilen. ATI muss erst darauf umstellen.
Ob ATI dauaerhaft an dem 6 Monatszyklus festhalten kann oder will, läst sich imo momentan nicht beurteilen, wenn ATI das tut wird NV allerdings unter eheblichen Druck kommen. Andererseits bleibt weniger Zeit für Treiberoptimierung und die spezielle Unterstützung der Hardware in Spielen. Ich glaube der 6 Monatszyklus ist auf Dauer nicht sinnvoll, weil die Schere zwischen Softwareanspruch und Hardwaremöglichkeit sonst zuweit auseinander geht. Was bringt eine Grafikkarte, deren Funktionen nicht genutzt werden ?? Diese Frage ist vielleicht für der Poweruser nicht so wichtig (weil er dann eben mit X AA und X AF spielen kann), aber der "normale" User wird von solchen Features doch nicht angesprochen.
Wenn allerdings ATI auch die LEistungsfähigkeit der Budgetkarten im 6 Monatsrythmus erhöht, sieht die Sache anders aus.
Hinsichtlich der NV30, denke ich dass die Karten ab Februar verfügbar sind. Die Ankündigungen der Boardhersteller sind da ja eindeutig. (Sparkle, Creative, MSI)
Für NV wird vieles vom Erfolg der NV30 abhängen, schlägt sie die R300 deutlich und kann mit der R350 mithalten (evtl. nach einer Takterhöhung) sieht es gut aus. Können Sie die R300 nicht schlagen hat ATI alle Trümphe in der Hand. Im Hinblick auf den Test der overclockten 9500 pro, habe ich allerdings gute Hoffnung, dass der NV30 auch mit dem 128 Bit Controller die R300 schlagen wird.
ice cool69
2002-12-30, 00:41:09
es kommt bei ati ja nur 1mal im jahr ne neue karte. nur werden sie alle 6 monate ein leichtes update rausbringen.
es ist nunmal so dass sich mit der zeit mehr MHz aus einem chip rausholen lassen, warum also weiter niedrig getaktete versionen verkaufen wenn man mit mehr MHz den konkurrent besser unter druck setzen kann?
ich sehe auch nicht warum sowas finanziell ein nachteil sein soll. das selbe produkt nach 6 monaten updaten kann sogar viel geld sparen da kostensparende veränderungen vorgenommen werden können (siehe RV350).
obs in der praxis klappt is ne andere geschichte wie man am bsp nvidia sehen kann, die hatten sowas ja auch ursprünglich vor...
ice cool69
2002-12-30, 00:47:40
@ seahawk
was hast du gegen einen 256bit speicherbus? ich kann keinen nachteil erkennen denn dieser verleiht der radeon9700pro eine höhere bandbreite als der gffx welche deutlich später rauskommt.
sollte die gffx in bandbreitenlastigen anwendungen trotzdem vorne liegen so liegt das nicht an dem ach so tollen 128bit speicherbus sondern an neueren bandbreitenschonenden verfahren.
nvidia hätte gut getan auch auf 256bit zu setzen. wäre dies der fall gewesen wäre sie performancemäßig wohl eine absolute bombe!!!
so muss man nicht unbedingt mit einer großartigen überlegenheit der gffx im vergleich zu den radeon-flaggschiffen rechnen.
Razor
2002-12-30, 01:04:39
Originally posted by ice cool69
nvidia hätte gut getan auch auf 256bit zu setzen. wäre dies der fall gewesen wäre sie performancemäßig wohl eine absolute bombe!!!
so muss man nicht unbedingt mit einer großartigen überlegenheit der gffx im vergleich zu den radeon-flaggschiffen rechnen.
Du weißt aber, das derzeitige Implementierungen von 256Bit-Bussen reichlich ineffizient zu sein scheinen ?
Der 'Verschnitt' ist einfach viel zu hoch...
Ein Vorteil der cross-bar-memeory-architektur (CBMR) ist ja das unterteilen des eigentlich großen Speicherbusses in kleinere Teile. So wird auf 128Bit dann 4x32Bit. Auch hier ist immer noch Verschnitt, der sich gegenüber 128Bit aber in Grenzen hält.
Auch ATI hat es jetzt nach fast 2 Jahren (!) geschafft, eine solche Archtektur auf die Strecke zu bringen, aber eben mit einem 256Bit breiten Speicherbus. Das bedeutet eben 4x64Bit und der 'Verschnitt' ist damit zwangsläufig größer, als bei 32Bit.
Und wenn jetzt nVidia noch zusätzliche Maßnahmen zur Bandbreitenschonung implementiert hat, kann ATI mit seinen 256Bit wohl einpacken (vorsicht: Vermutung !). Wäre auch sehr interessant, wenn nVidia mit einem 8-fach-Controller kommen würde, wenn sie einen 256Bit implementieren. Dies würde dann alles, was da von ATI kommt in Grund und Boden stampfen, wenn sie nicht gleichziehen würden (wozu sie ja jetzt 2 Jahre brauchten !).
Den Speicherbus zu verbreitern ist nicht schwer, eine neue Speicherzugriffsmethode zu implemntieren dagegen sehr...
:D
In diesem Sinne
Razor
P.S.: Eigentlich wollte ich nur sagen: Abwarten !
;-)
ice cool69
2002-12-30, 01:39:53
der vergleich r300 vs nv30 ist auch nicht ganz fair.
da es so aussieht dass der r350 ziemlich zeitgleich mit der gffx rauskommt wäre dies ein deutlich besserer vergleich und bis dahin sollte ati nochmals deutlich hochgehen mit der taktrate des speichers, gegen das ergebnis dürfte nvidias gffx dann ziemlich alt aussehen.
Razor
2002-12-30, 01:43:30
Originally posted by ice cool69
der vergleich r300 vs nv30 ist auch nicht ganz fair.
da es so aussieht dass der r350 ziemlich zeitgleich mit der gffx rauskommt wäre dies ein deutlich besserer vergleich und bis dahin sollte ati nochmals deutlich hochgehen mit der taktrate des speichers, gegen das ergebnis dürfte nvidias gffx dann ziemlich alt aussehen.
Und woher nimmst Du diese Gewißheit ?
Könnte die Verspätung der gffx nicht auch darauf zurück zu führen sein, dass sie das Produkt für den Kampf gegen den R350 klar machen ? Ist nur eine Vermutung, ich weiß...
Aber da waren doch Aussagen von ATI Mitarbeitern (im Speku-Thread zitiert) nach denen eine R350 schneller, mindestens aber ebenbürtig sein müsste.
Auch dort war man sich also gar nicht so sicher, mit welcher Leistung sie komkurrieren müssen.
Warum bist Du Dir da so sicher ?
:D
Razor
P.S.: Eines noch... was wissen wir nun schon genaueres über den R350 ? Nix ? Ohhhhh......
;-)
Quasar
2002-12-30, 01:43:52
Hm, einerseits betonst du immer, gegen Brute-Force Lösungen zu sein, aber bist gleichzeitig absoluter Verfechter eines aufwendigen 256Bit-Busses. Das kann ich nicht nachvollziehen. Letzten Endes ist das alles doch nur Mittel zum Zweck, insofern ist's mir eigentlich wurscht, wie welcher Hersteller es erreicht, dass seine Chips nicht an der Bandbreite verhungern.
Und gerade ein höherer Speichertakt wird der R350, wenn sie wirklich zeitnah zum nV30 erscheinen sollte, wesentlich weniger nutzen, als du meinst. Denn wenn die R300 eines nicht ist, dann Bandbreitenlimitiert. Einzig der 6xFSAA Modus könnte benchmarkwirksam davon profitieren, ansonsten ist die Karte einfach zu füllratenschwach, um noch etwas mit, bsw., 400MHz DDR-RAM anfangen zu können.
ice cool69
2002-12-30, 01:52:49
@ razor
das stimmt die r350 ist zur zeit noch speku aber das ist die gffx genauso, also abwarten.
dass nvidia die gffx verändert um gegen den r350 zu bestehen halte ich jedoch gelinde gesagt für absolut utopisch.
so lange wie die gebraucht haben bisher können die sich nicht noch weitere verzögerungen leisten.
@ quasar
der r350 wird ja nicht nur mehr bandbreite sondern auch mehr MHz und vielleicht die eine oder andere detailverbesserung haben. insofern wäre ich mir da nicht sicher ob sie die zusätzliche bandbreite nicht doch gebrauchen können.
im übrigen bin ich nicht gerade ein freund von stupider MHz-erhöhung, aber im prinzip gebe ich dir ja recht wenn du sagst es ist egal WIE der chip seine leistung erreicht.
mein größter feind vom prinzip her ist die P4-architektur, wäre der P4 jedoch billiger als der vergleichbare athlon würde ich mir auch eher den p4 holen.
Razor
2002-12-30, 02:05:37
Originally posted by ice cool69
das stimmt die r350 ist zur zeit noch speku aber das ist die gffx genauso, also abwarten.
dass nvidia die gffx verändert um gegen den r350 zu bestehen halte ich jedoch gelinde gesagt für absolut utopisch.
so lange wie die gebraucht haben bisher können die sich nicht noch weitere verzögerungen leisten.
Eigentlich habe ich nichts von Veränderungen erzählt...
Wie waren noch gleich die Specs vom NV30 ?
Oh, die sind gar nicht so richtig bekannt ?
Merkwürdig...
:D
Razor
seahawk
2002-12-30, 09:32:37
@ice cool
Ich finde den 256 Bit Bus der R300 gut. Das ist der Weg der Zukunft. Allerdings scheint die overclockte 9500 pro zu beweisen, dass eine 128 Bit Lösung bei heutiger Software durchaus noch konkurrenzfähig ist. Das Ergebnis der overclockten 9500 pro zeigt meiner Meinung nach, das heute immer noch die Füllrate das limitierende Element ist und ein 128 Bit Bus eine ausreichende Bandbreite zur Verfügung hat. (besonders mit effizienten Verfahren)
Hinsichtlich der R350 glaube ich, dass der Sprung nicht so groß sein wird. Ich denke die Leistung wird sich im Breich der heutigen overclockten R300 einpendeln. DDR II dürfte kaum Gewinn bringen und nur aus Marketinggründen verwendet werden. Ich schätze 400 MHZ Core + Mhz DDR II RAM. Wahrscheinlich kann ATI damit die FX schlagen, wobei ich nur an einen geringen Vorteil glaube.
robbitop
2002-12-30, 15:20:44
damals nach der Einführung von DDR Ram waren Karten ohne diesen Speicher nur noch MX Versionen und waren auch fast nur halb so schnell bei hohen Auflösungen..diesen Vorteil sehe ich eben bei der R9500pro Vs R9700Pro (also selbe Fillrate/Bandbreite) in extrem Speicherbandbreitenlimitierten Umgebungen nicht so. Ich sah bisher MAx 25-30% Vorsprung meist weniger...das lässt vermuten, dass das 256bit DDR Interface NOCH nicht ausgeschöpft wird, wie es sollte und NV hat sich sicher was dabei gedacht nicht daruf zu setzen (in einem Interview bei www.within3d.ch) stand mal dass NV ihre Karten immer mit dem schnellsten Speicher ausstattet, welche Taktfrequenzen ergibt, die sich dabei sehr gut vermarkten lassen. Die enormel Füllrate der GF FX und effiziente BAndbreitenschonung dürfte ihriges dazutun ..einzig enttäuscht bin ich vom FSAA...ich dachte mir etwas 3dfx ähnliches bis 8xRGMS ..schade..256Bit DDR würde die Karten bei den Taktraten nochmal gut 150EUR teurer machen...diesen Schritt scheinen sie sich für die nöächste Generation aufzuheben (ich wage mal zu sage bis zum NV4x...denn GDDR2 soll ja bis 800Mhz geplant sein) ..damals als Füllrate wie heute knapp war hiess es von 3dfx Fillrate is King...erst danach brachte ein Chip namens GF2 GTS wieder Hunger nach Bandbreite..
(und ich denke der GF FX wird auch bandbreitenhunger haben).
Meine Theorie:
für die Effiziente nutzung eines 256bit DDR Interfaces bedarf es bei gleichem Chip/Speichertakt 16 unabhängige Tri TMUs (denn 8x2 ist seit DX9 sehr ineffizient) ein einwandfreies Trisetup und evl sogar einen 8x XBar Controller...
doch irgendwann wird der TBR/DR auch für HighEnd kommen..denn nach 256bit 800MHz-1000 DDR2 (NV4x/R4xx) wird das Speicherbandbreitenproblem wieder vor der Türe stehen und mir wäre keine Lösung bekannt...
ice cool69
2002-12-30, 15:30:30
ich sehe das auch so:
beim r300 limitiert die füllrate
beim NV30 limitiert die bandbreite
dass die 256bit sehr wohl etwas bringen sieht man ja am deutlichen leistungsunterschied zwischen r9500pro und r9700(ohne pro) da diese die gleiche taktfrequenz vorweisen.
dass der sprung zum r350 so gering ausfällt muss nicht sein. ich kann mich noch erinnern dass ati keiner zugetraut hat den r300 in 0.15 micron auf 325MHz hochzuziehen.
ich denke beim r350 sind mit leichten veränderungen auch mehr als 400 MHz drin.
aber wir werden ja sehen, schon 400 MHz dürfte den r300 nochmal einen deutlichen geschwindigkeitsboost verleihen.
den vorteil des 256bit speicherinterfaces sehe ich darin dass man sich auch in hohen auflösungen keine gedanken mehr über die bandbreite machen muss und sich bei der treiberoptimierung auf die fillrate konzentrieren kann.
edit:
dank des totalen bandbreitenoverkills kann der r350 bzw. der r300 seine fillrate auch viel freier in leistung umsetzen als dies bei beschränkender bandbreite der fall wäre.
außerdem glaube ich schon an leichte veränderungen und verbesserungen beim r350 da er ja einen neuen codename hat. sonst würde ihn ati wohl eher r300ultra nennen oder sowas.
LovesuckZ
2002-12-30, 15:43:34
Originally posted by ice cool69
dass die 256bit sehr wohl etwas bringen sieht man ja am deutlichen leistungsunterschied zwischen r9500pro und r9700(ohne pro) da diese die gleiche taktfrequenz vorweisen.
'deutlicher Leistungsunterschied' ? Bei Anandtech (schaut euch mal die Seite anadtech.com an:D ) liegt der Vorsprung der Karte in 1600*1200 beim Flyby von UT2003 grad mal bei 30%. Da die 9500pro nur die Haelfte der Speicherbandbreite einer 9700 hat (also 100% zu 200%) ist die Leistung (100% zu 130%) nicht grad pro 256 zu sehen.
Bei AF und AA sind's es bei Tomshardware nur noch ca. 15%.
MeLLe
2002-12-30, 16:30:45
Originally posted by ice cool69
beim r300 limitiert die füllrate
Akzeptiert.
Originally posted by ice cool69
beim NV30 limitiert die bandbreite
Woher willst Du das wissen, ohne Testreihen von unabhängigen Mags/Reviewern? Vielleicht spart der nV30 doch effizienter Bandbreite, als wir uns vorstellen können? Vielleicht nicht? Deine Aussage ist IMHO wertlos, da reine Spekulation.
Originally posted by ice cool69
dass die 256bit sehr wohl etwas bringen sieht man ja am deutlichen leistungsunterschied zwischen r9500pro und r9700(ohne pro) da diese die gleiche taktfrequenz vorweisen.
<NO_COMMENT>
</NO_COMMENT>
Originally posted by ice cool69
den vorteil des 256bit speicherinterfaces sehe ich darin dass man sich auch in hohen auflösungen keine gedanken mehr über die bandbreite machen muss und sich bei der treiberoptimierung auf die fillrate konzentrieren kann.
Und andersherum? Bei Füllrate in Mengen kann man treiberseitig die Entwicklung Richtung Bandbreitenschonung optimieren. Natürlich nur gesetzt den Fall, das ist überhaupt im Treiber so einfach möglich. Das ist Jacke wie Hose.
Mir scheint, als würden Dir die 256Bit des R300 mehr als alles andere imponieren. Du verteidigst das so standhaft seit Wochen hier im Forum ... Aber jedem das seine. Nicht persönlich und v.a. net als Flame auffassen ;)
Originally posted by ice cool69
dank des totalen bandbreitenoverkills kann der r350 bzw. der r300 seine fillrate auch viel freier in leistung umsetzen als dies bei beschränkender bandbreite der fall wäre.
Und wieder gibts den Contra-Fall: wenn genug Füllrate vorhanden ist, lässt sich die Bandbreite bis ans Limit treiben. Hat auch was. Einer der beiden Faktoren wird immer limitieren, wenn es nicht die CPU tut. Dass beide gleichzeitig limitieren, ist eher unwahrscheinlich. Prinzipiell isses aber egal, ob Fillrate oder Bandbreite bremsen - wenn eins bremst, bremsts halt. Das ist nie von Vorteil.
Originally posted by ice cool69
außerdem glaube ich schon an leichte veränderungen und verbesserungen beim r350 da er ja einen neuen codename hat. sonst würde ihn ati wohl eher r300ultra nennen oder sowas.
Ahja. Gut! Dann stampft der nV35 den R350 komplett ein. Wird sich ja total vom nV30 unterscheiden... :|
robbitop
2002-12-30, 18:48:50
zitat Melle: "Ahja. Gut! Dann stampft der nV35 den R350 komplett ein. Wird sich ja total vom nV30 unterscheiden... "
hrhr der NV35 gehe ich mal fest davon aus, hat seinen Namen verdient... ^^
Razor
2002-12-30, 19:14:22
Originally posted by ice cool69
beim NV30 limitiert die bandbreite
Tatsächlich ?
Steht wo geschrieben ?
???
Originally posted by ice cool69
dass die 256bit sehr wohl etwas bringen sieht man ja am deutlichen leistungsunterschied zwischen r9500pro und r9700(ohne pro) da diese die gleiche taktfrequenz vorweisen.
Oh ha, Du kennst aber den technischen Hintergrund, oder ?
Bei der 9500pro wurde nicht nur der Speicherbus halbiert, auch muss sie mit nur 2 Memory-Controllern auskommen (i.e. 2x64 Bit). Das bedeutet schlicht, dass nicht nur 128Bit zur Verfügung stehen, sondern ebenso, dass diese Form des Speicherzugriffs theoretisch (!) ineffizienter ist, als es bei gf3+ der Fall ist (gf3/4ti haben 4x32Bit !).
Mit diesen Gendanken im Hintergrund fällt es noch schwerer, anzunehmen, dass der R300 nun extremst von dem 256Bit breiten Speicherbus profitiert, wenn der tatsächliche Leistungsunterschied von 4x64Bit zu 2x64Bit nur zwischen 15% und 30% liegt.
Sorry, aber wie man bei der gffx ja schon sagte: 256Bit sind schlicht Overkill !
(siehe auch Parhelia)
Würde mich wirklich interessieren, wie sich eine R9500 pro mit 4x32Bit machen würde...
Ob sie die 9700 dann sogar schlagen könnte ?
(reine Vermutung !)
Ist Werbewirksam, der 256Bit-Bus, aber vermutlich noch nicht notwendig...
Genaueres werden wir erfahren, wenn's endlich mal Benches der gffx gibt.
(wenn die überhaupt noch mal irgendwann kommen ;-)
Bis denne
Razor
mapel110
2002-12-30, 19:21:09
Originally posted by Razor
Tatsächlich ?
Steht wo geschrieben ?
???
Oh ha, Du kennst aber den technischen Hintergrund, oder ?
Bei der 9500pro wurde nicht nur der Speicherbus halbiert, auch muss sie mit nur 2 Memory-Controllern auskommen (i.e. 2x64 Bit). Das bedeutet schlicht, dass nicht nur 128Bit zur Verfügung stehen, sondern ebenso, dass diese Form des Speicherzugriffs theoretisch (!) ineffizienter ist, als es bei gf3+ der Fall ist (gf3/4ti haben 4x32Bit !).
Mit diesen Gendanken im Hintergrund fällt es noch schwerer, anzunehmen, dass der R300 nun extremst von dem 256Bit breiten Speicherbus profitiert, wenn der tatsächliche Leistungsunterschied von 4x64Bit zu 2x64Bit nur zwischen 15% und 30% liegt.
Sorry, aber wie man bei der gffx ja schon sagte: 256Bit sind schlicht Overkill !
(siehe auch Parhelia)
Würde mich wirklich interessieren, wie sich eine R9500 pro mit 4x32Bit machen würde...
Ob sie die 9700 dann sogar schlagen könnte ?
(reine Vermutung !)
Ist Werbewirksam, der 256Bit-Bus, aber vermutlich noch nicht notwendig...
Genaueres werden wir erfahren, wenn's endlich mal Benches der gffx gibt.
(wenn die überhaupt noch mal irgendwann kommen ;-)
Bis denne
Razor
so richtig vergleichen wirst du aber nicht können. da geforceFX 500 mhz ram takt und radeon 9700 pro 310 mhz ram takt.
ich finde, fast 200 mhz sind schon ein grosser unterschied :)
Razor
2002-12-30, 19:25:18
Originally posted by mapel110
so richtig vergleichen wirst du aber nicht können. da geforceFX 500 mhz ram takt und radeon 9700 pro 310 mhz ram takt.
ich finde, fast 200 mhz sind schon ein grosser unterschied :)
Was spricht dagegen, die gffx herunter zu takten, um einen Effizienz-Vergleich durchzuführen ?
???
Razor
ice cool69
2002-12-30, 19:27:10
blablabla
30% mehrleistung sind 30% mehrleistung und das ist bei grafikkarten der gleichen generation ein deutlicher unterschied und zeigt dass die r9500pro bandbreitenlimitiert ist.
zu den spekus der gffx sag ich jetzt ma nix nur soviel:
der r350 wird ziemlich zeitgleich mit der gffx antreten somit wäre ein vergleich mit der nv35 absolut aus der luft gegriffen. das ist das gleiche wie der vergleich r300 - gffx. einfach lächerlich.
ich vergleiche auch keine gf4ti mit der r300 weils einfach ein total unfairer vergleich ist.
Razor
2002-12-30, 19:36:12
Originally posted by ice cool69
blablabla
30% mehrleistung sind 30% mehrleistung und das ist bei grafikkarten der gleichen generation ein deutlicher unterschied und zeigt dass die r9500pro bandbreitenlimitiert ist.
zu den spekus der gffx sag ich jetzt ma nix nur soviel:
der r350 wird ziemlich zeitgleich mit der gffx antreten somit wäre ein vergleich mit der nv35 absolut aus der luft gegriffen. das ist das gleiche wie der vergleich r300 - gffx. einfach lächerlich.
ich vergleiche auch keine gf4ti mit der r300 weils einfach ein total unfairer vergleich ist.
Nimm Dir mal die Zeit und lies Deinen Post nochmal gaaaanz langsam durch.
Hoffentlich wirst Du dann auch feststellen, was Du hier für einen Müll von Dir gibst...
Ich habe Argumente gebracht und vor Dir ist nichts gekommen.
That's it !
Razor
LovesuckZ
2002-12-30, 19:40:18
Originally posted by ice cool69
blablabla
30% mehrleistung sind 30% mehrleistung und das ist bei grafikkarten der gleichen generation ein deutlicher unterschied und zeigt dass die r9500pro bandbreitenlimitiert ist.
Aus einer doppelt so hohen Bandbeite grad mal ein bisschen mehr als 1/4 Mehrleistung heraus zu hauen, ist schon ziehmlich gut... Theoretisch bedeutet das, wenn die 9500pro 3/4 der Bandbreite 9700 haette, muesste sie genauso schnell sein.
MeLLe
2002-12-30, 19:40:50
Originally posted by ice cool69
blablabla
Nette Überschrift :|
Originally posted by ice cool69
30% mehrleistung sind 30% mehrleistung und das ist bei grafikkarten der gleichen generation ein deutlicher unterschied und zeigt dass die r9500pro bandbreitenlimitiert ist.
Warum sollte das auch nicht so sein? Nochmal: Die R9500Pro wurde absichtlich, mit Absicht, quasi vorsätzlich um 128-Interfaceleitungen erleichtert, eben damit sie Performance verliert und mainstreamig verhökert werden kann. Allerdings sind dann im Gegenzug 30% Mehrleistung eines Performance-Modells (R9700) ggü. einer kastrierten Version (R9500Pro) geradezu lächerlich. Wozu hat ATI sich so angestrengt, auf 256Bit RAM-Interface zu gehen, wenn es ggü. 128Bit nur 30% schneller ist? Comprende?
Originally posted by ice cool69
zu den spekus der gffx sag ich jetzt ma nix nur soviel:
der r350 wird ziemlich zeitgleich mit der gffx antreten somit wäre ein vergleich mit der nv35 absolut aus der luft gegriffen. das ist das gleiche wie der vergleich r300 - gffx. einfach lächerlich.
Der R350 wird IMHO nicht zeitgleich mit der GfFX erscheinen. Dann hätte ATI schon was dazu an die Öffentlichkeit lassen müssen. Was Handfestes.
Der Vergleich NV30/R300 ist berechtigt, da beides die High-End-Modelle beider Unternehmen sind, und zugleich deren erste DX9-Generation.
Originally posted by ice cool69
ich vergleiche auch keine gf4ti mit der r300 weils einfach ein total unfairer vergleich ist.
Aha. Du willst also weder Gf4Ti noch GfFX mit dem R300 vergleichen? Was dann? ???
robbitop
2002-12-30, 19:51:56
ich denke seit dem ich in diesem Forum bin, dass man endlich mal unter Erwachsenen ist, die DSIKUTIEREN mittels argumenten..aber es gibt aber immer auch einige Aussnahmen (Jung- oder auch Junggebliebene Menschen).
Also bitte sollten (wer sich angesprochen fühlt ist gemeint ;-) ) diese Leute anfangen an ihrem Ton zu arbeiten und dieses lächerliche Rumgeblödel ohne Argumente lassen nur weil es eine Firma angreift..(denkt lieber an die Konkurenz und die Folgen für den Markt und die Verbraucher! ;-) ).
OK?
danke und sorry das musste mal sein
ice cool69
2002-12-30, 19:56:37
deine argumente gehen mir am a**** vorbei
LovesuckZ
2002-12-30, 19:58:00
Originally posted by ice cool69
deine argumente gehen mir am a**** vorbei
Wie konntest du mit so einer Einstellungen den Deutschkurs in der 12. Klasse bestehen...
Razor
2002-12-30, 20:01:51
Originally posted by MeLLe
Warum sollte das auch nicht so sein? Nochmal: Die R9500Pro wurde absichtlich, mit Absicht, quasi vorsätzlich um 128-Interfaceleitungen erleichtert, eben damit sie Performance verliert und mainstreamig verhökert werden kann. Allerdings sind dann im Gegenzug 30% Mehrleistung eines Performance-Modells (R9700) ggü. einer kastrierten Version (R9500Pro) geradezu lächerlich. Wozu hat ATI sich so angestrengt, auf 256Bit RAM-Interface zu gehen, wenn es ggü. 128Bit nur 30% schneller ist? Comprende?
Und wenn man jetzt noch eine 4xCBMR für 128Bit ins Kalkül ziehen würde, schrumpfen selbst die 30% nochmals merklich...
Insofern könnte man die Theorie aufstellen:
R9500pro mit 4x32Bit CBMR und Takt @ R9700pro > R9700pro
(und das ganz ohne 256Bit-Bus)
Nun ja, ich will nicht soweit gehen und sagen, dass der 256Bit-Bus nun überhaupt nichts bringt.
Aber so langsam scheint sich heraus zu kristallisieren, dass die theoretische Mehrleistung durch einen sehr viel ineffizienteren Speicherzugriff schon größtenteils aufgehoben wird.
Originally posted by MeLLe
Der R350 wird IMHO nicht zeitgleich mit der GfFX erscheinen. Dann hätte ATI schon was dazu an die Öffentlichkeit lassen müssen. Was Handfestes.
Der Vergleich NV30/R300 ist berechtigt, da beides die High-End-Modelle beider Unternehmen sind, und zugleich deren erste DX9-Generation.
Das sehe ich sogar anders...
nVidia hat den Release-Termin des R300 verpaßt.
Ob nun absichtlich oder nicht, mag mal dahin gestellt sein (persönlich vermute ich einfach, dass die Zeit für eine neue Generation noch nicht reif war und ATI hier einfach vorgeprescht ist und damit nVidia 'überrumpelt' hat). Einfach nur den R300 zu schlagen bringts rein marketingtechnisch gesehen einfach nicht, da es schlicht zu spät dafür ist. Würde nVidia aber auch das Nachfolgemodell, i.e. den R350 schlagen, wäre das was ganz anderes. Auch auf lange Sicht (mindestens ein halbes Jahr) wäre nVidia wieder unangefochtener Performance-Leader und würde ATI dann ziemlich alt aussehen lassen und weiterhin Marktanteile gewinnen (vor allem im OEM-Bereich).
Genau das dürfte auch der Grund dafür sein, warum man von den beiden Chips (NV30/R350) so wenig hört, denn würden genaue Specs veröffentlicht, könnte sich der 'Gegner' darauf einstellen. Sicher, Eckdaten sind bekannt, aber genaue Details eben noch nicht.
Bin echt mal gespannt, was uns die beiden da präsentieren werden und es würde mich nicht wundern, wenn es dann im Januar/Februar zu einem Showdown zwischen den beiden kommt.
Bis denne
Razor
MeLLe
2002-12-30, 20:04:34
Originally posted by ice cool69
deine argumente gehen mir am a**** vorbei
Schaut nach EOD aus :naughty:
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.