Archiv verlassen und diese Seite im Standarddesign anzeigen : War die erste GeForce Fx zu langsam
Spake
2003-01-02, 23:39:07
ich denke die erste Vers. der GeforceFX
war zu langsam nachdem die Radeon 9700 Pro draußen war
aufgrund der ähnlichen technologie der chips von Ati und nvidia wäre nvidia bei gleichem Takt wahrscheinlich langsamer gewesen oder "nur" gleich schnell wie die Ati ich denke Chip und Speichertakt waren ursprünglich nicht auf 500Mhz
doch nvidia braucht gewissermaßen ein prestigeobjekt wie die Fx
es könnte sein dass der ursprüngliche nv30
nur auf ca. 375/400 liegen sollte
Madox
2003-01-02, 23:48:54
Ich bezweifle aber, daß wir das jemals erfahren werden.
Ficus
2003-01-02, 23:49:23
Schau mal HIER (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=46856) ;)
Ailuros
2003-01-02, 23:57:49
Originally posted by Spake
ich denke die erste Vers. der GeforceFX
war zu langsam nachdem die Radeon 9700 Pro draußen war
aufgrund der ähnlichen technologie der chips von Ati und nvidia wäre nvidia bei gleichem Takt wahrscheinlich langsamer gewesen oder "nur" gleich schnell wie die Ati ich denke Chip und Speichertakt waren ursprünglich nicht auf 500Mhz
doch nvidia braucht gewissermaßen ein prestigeobjekt wie die Fx
es könnte sein dass der ursprüngliche nv30
nur auf ca. 375/400 liegen sollte
Ich wuerde eher sagen dass die Verspaetung nur an .13um hing. In der Zwischenzeit gab es sowieso keine einzige Karte auf dem Prozess.
Das heisst aber trotzdem nicht dass NVIDIA alle Zeit in der Welt hatte den chip leicht zu modifizieren um fuer hoehere Takte faehig zu sein.
Es gibt keinen alten und neuen NV30. Der chip war nie zuvor Marktreif; was in Laboren zwischendrin aufgebohrt wird ist normale Taktik.
Spake
2003-01-03, 00:05:07
dennoch ist es nicht unwahrscheinlich
jeder kennt doch den kühler der GeforceFX
von nvidia wird dieser sicher als vorteil gegenüber der normalen GeforceFX angepriesen werden(wozu sonst ein so toller name wie FXFlow) doch ich glaube kaum dass nvidia vorhatte die GeforceFX mit so einem nicht AGP-konformen-kühler auszustatten
die OEM-hersteller(hätten ja die letzten restbestände der GeforceFX für einen spottpreis aufkaufen könnnen)
freuts bestimmt nicht
ähnliches gillt auch für den Ati-stile-Stromstecker
die normale GeforceFX hat nicht so ein kühlmonstrum und war vielleicht die erste Geforce FX
Madox
2003-01-03, 00:13:53
@Spake
Betrachtet man das mal von einer anderen Seite. Hätte NVIDIA "nur" 375MHZ für die FX vorgesehen ... Dann bekommste diese als Midrange karte vielleicht zum "günstigen" Totto :D
Obwohl midrange wird die "kleine" FX bestimmt auch nicht :D
Ailuros
2003-01-03, 00:20:09
Originally posted by Spake
dennoch ist es nicht unwahrscheinlich
jeder kennt doch den kühler der GeforceFX
von nvidia wird dieser sicher als vorteil gegenüber der normalen GeforceFX angepriesen werden(wozu sonst ein so toller name wie FXFlow) doch ich glaube kaum dass nvidia vorhatte die GeforceFX mit so einem nicht AGP-konformen-kühler auszustatten
die OEM-hersteller(hätten ja die letzten restbestände der GeforceFX für einen spottpreis aufkaufen könnnen)
freuts bestimmt nicht
ähnliches gillt auch für den Ati-stile-Stromstecker
die normale GeforceFX hat nicht so ein kühlmonstrum und war vielleicht die erste Geforce FX
Die Meinungen sind noch geteilt ob die Ultra auch wirklich mit dem obszoenen Staubsager (*grins*) auf den Markt kommt oder nicht.
Was heisst hier "normale FX"? Wie gesagt wurde der chip (siehe Transistorenanzahl) leicht modifiziert um hoehere Taktraten zu bekommen; aber all das nur vor dem finalen tapeout; was wohl heisst dass es nie einen marktreifen "Vorgaenger" gab.
Spake
2003-01-03, 01:25:29
also um dass mal klarzustellen
so denk ich mir dass:
also Ati verkauft erste R9700Pro
nvidia sieht welche performance der neue Chip hat, ist aber bereits vertig mit dem design der Chips und kann sich keinen weiteren aufschub leisten
in ein paar punkten liegt nvidia ja hinter Ati(Ati hat 4 Vertex Shader/nvidia nur 3 und Ati hat ein interface von 256Bit/nvidia nur 128Bit)
der hohe DDR2 takt war bestimmt geplant aber der GPU takt reichte zur damaligen zeit noch nicht aus um vollends leistungssieger zu werden
dass man auch leise lüfter für so ein transistorenmonster haben kann ist durchaus kein Prob wie herkules zeigt
doch der takt war einfach noch zu niedrig und u überhaupt ein Ultra Produkt präsentieren zu können benutzte man FXFlow von welchem ich glaube dass es vorhanden sein wird auf der entgültigen GeforceFxUltra
und die normale GeforceFx von der ich rede ist die GeforceFX 5400(oder so)ohne ultra
Originally posted by Madox
Obwohl midrange wird die "kleine" FX bestimmt auch nicht :D Ein paar Monate nach dem Release... vielleicht.
Ailuros
2003-01-03, 06:56:51
Originally posted by Spake
also um dass mal klarzustellen
so denk ich mir dass:
also Ati verkauft erste R9700Pro
nvidia sieht welche performance der neue Chip hat, ist aber bereits vertig mit dem design der Chips und kann sich keinen weiteren aufschub leisten
in ein paar punkten liegt nvidia ja hinter Ati(Ati hat 4 Vertex Shader/nvidia nur 3 und Ati hat ein interface von 256Bit/nvidia nur 128Bit)
der hohe DDR2 takt war bestimmt geplant aber der GPU takt reichte zur damaligen zeit noch nicht aus um vollends leistungssieger zu werden
dass man auch leise lüfter für so ein transistorenmonster haben kann ist durchaus kein Prob wie herkules zeigt
doch der takt war einfach noch zu niedrig und u überhaupt ein Ultra Produkt präsentieren zu können benutzte man FXFlow von welchem ich glaube dass es vorhanden sein wird auf der entgültigen GeforceFxUltra
und die normale GeforceFx von der ich rede ist die GeforceFX 5400(oder so)ohne ultra
Unrecht hast Du im guten ganzen nicht, nur war der chip nie fertig, so dass man sagen kann dass es eine alte und neue FX gibt, da liegt der Unterschied. Der chip wurde waehrend der Ausreifung im Labor modifiziert, da gab es keine fertige Karte die nochmal durch einen speed bin ging.
Was den 128bit bus betrifft warte ich lieber ab wie sich dass abspielt nachdem ich unabhaengige Tests/Analysten lesen kann, was genauso fuer den einen multi array Vertex Shader mit multithreading gilt. Effizienz kommt nicht von Zahlen oder Groessen um jeden Preis.
duckofdeath
2003-01-03, 21:48:32
hab auch mal gelesen, dass die gepfortz fx
nur 6 pixelpipeline haben hätte sollen und daher ein redesign notwendig war
duckofdeath
2003-01-03, 21:51:43
arr schn wieder net eingelogt.....
Quasar
2003-01-03, 22:08:23
6 Pipelines klingt schon so.....krumm. 2,4,8 oder 16 machen IMO mehr Sinn.
Spake
2003-01-03, 23:08:08
wär aber doch nett ganz abwegig dass sie nur 6 pixelpipelines hatte
ich glaub ich hab auf tomshardware gelesen dass die finale GeforceFX nur 3 Veretex shader hat entgegen 4 bei der R300
dort wurde wohl auch nicht der doppelte wert genommen
Demirug
2003-01-03, 23:11:52
Die FX hat keine Vertex Shader sondern ein Vertex Processing Array welches etwas dem Leistungsvolumen von 3 NV25 Vertexshader entspricht.
Quasar
2003-01-03, 23:17:36
So sieht die Informationslage momentan wohl aus.
@Spake:
Ja, THG hat wohl auch so spekuliert, und 3fache Leistung als 3x den alten VS aufgefasst.
Spake
2003-01-03, 23:34:51
fordern die dx9 mindestanfordrungen nicht explicit einen Vertex Shader
dies wäre dann nämlich schon wieder eine verletzung der spizifikationen nachdem bereits keine DMapping-einheit vorhanden ist
- die eine version(sampled glaube ich) kann man ja emulieren aber die andere(kA wie die heißt) muss in HW vorhanden sein
wozu sind diese spezifikationen wenn sie sowieso niemand einhält
wie soll so ein entwickler ein spiel programmieren wenn er eigentlich gleich in OpenGL für jede GraKA einen eigenen Port programmieren kann
wozu dann dx9
Demirug
2003-01-03, 23:53:22
Hört doch endlich mit dem ständigen geschreie wegen einer "angeblichen" Spec Verletzung auf.
DM ist ein DX9 Feature. Wer es unterstützen will kann dies tun wer es nicht will läst es bleiben. Und das ist bei fast allen anderen Features genau das gleiche. Sobald man sich aber entschlossen hat das man ein Feature unterstützen will muss man es gansu nach den Vorgaben machen. Die Vorgaben enthalten aber bloss eine Angabe wie der Treiber die Daten bekommt und welches Ergebniss dabei rauskommen muss. Wie ein Hersteller das realisiert ist egal.
Zu dem Vertex Shader:
Die DX9 Spec fordert noch nicht mal fixed Hardware T&L. Wenn man aber nun einen Programmierbaren Vertex-Shader unterstützt muss man sich lediglich an die Funktionsweise halten. Wie man das ganzen in den Treiber und der Hardware realisiert ist Sache der Chipentwicklers.
Ein Vertex Processing Array ist also keine Verletzung der Spec sondern ein Implementierungsdetail das ein Entwickler eigentlich noch nicht mal kennen muss.
Quasar
2003-01-03, 23:55:56
Öhm??
Ob man nun eine Funktionseinheit als "Vertex Shader" bezeichnet, oder als "Array of Vertex Units" tut nichts zur Sache, solange DirectX dem Treiber übermitteln kann, was es gerne in Hardware erledigt haben möchte und dies dann geschieht.
Da DX eh nur "einen" Vertexshader "sieht", macht's auch keinen Unterschied für die compliance, wieviele Einheiten da nun verbaut sind, wie diese intern arbeiten und wie sie verschaltet sind.
edit:
Hätte mir denken können, dass Demirug schon am tippen ist...
Demirug
2003-01-04, 00:02:25
Quasar, viel schneller war ich ja nicht. ;) Hatte das ganze nur gerade zwischen zwei Compilerläufen gesehen.
Spake
2003-01-04, 00:05:26
@Demirug
ich finds halt scheiße wenn ein doch ganz sinnvolles feature von dem größten GraKa-verkäufer einfach ignoriert wird und nicht aufgenommen wird
der Chip ist bereits scheiß-groß und Ati obwohl sie einen kleineren Chip haben können wenigstens beide features darstellen antstattdessen werden transistoren für tolle features VS/PS 2.0+ verbraten welche nie genutzt werden weil der 2.größte Chipentwickler sie nicht unterstützt
-oder kann mir jemand mehrere spiele nennen welches Ati's Radeon8500-Shader 1.4 sinnvoll nutzt
Quasar
2003-01-04, 00:10:58
Doom3 und Derivate. Die sparen aufgrund der höheren Zahl der möglichen Texturzugriffe einen kompletten Renderingpass.
Dazu alle Spiele, die EMBM einsetzen, was AFAIK auf Geforce3 und höher auch 2 Passes benötigt (Dependant Texture Read, korrigiert mich, wenn ich Mist labere..).
Ausserdem:
Wer sagt denn, dass "ATi beides Features darstellen kann"? Was genau meinst du damit und woher nimmst du die Gewißheit, dass nVidia es nicht kann?
Originally posted by Quasar
Dazu alle Spiele, die EMBM einsetzen, was AFAIK auf Geforce3 und höher auch 2 Passes benötigt (Dependant Texture Read, korrigiert mich, wenn ich Mist labere..)
EMBM geht in einem Pass. Wenn man allerdings etwas kompliziertere DRs machen will, braucht man mehr Passes.
Spake
2003-01-04, 00:20:21
@quasar
Ati hat eben die eine variante in HW integriert und die andere version wird emuliert
diese vers kann nur die Parhelia in HW darstellen -- und heißt sampled(wenn jm weiß wies heißt soll ers bitte posten)
nvidia selbst sagt dass sie alles darstellen sollen
doch in mehreren artikeln steht eben dass sie nur die Vers(sampled?) der Parhelia emulieren können
Demirug
2003-01-04, 00:32:24
@Spake:
ATI kann derzeit nur eine der beiden DM Varianten und da wird das meiste der arbeit wohl von der CPU erledigt. Das echte DM von Matrox kann ATI überhaupt nicht.
NVIDIA hat für keines der beiden Verfahren einen direkten Hardware support ist aber in der Lage beide Verfahren in der Grafikkarte zu emulieren. Ob sie es aber in den Treiber auch freischalten und wie schnell es sein wird ist noch unbekannt.
Ansonsten ist es mit dem DX Specs immer noch so das die Specs in Absprache mit den Herstellern entwickelt werden. Und da darf jeder Hersteller Vorschläge machen. MS versucht das ganze dann immer irgendwie auf einen gemeinsamen Nenner zu bringen. Scheinbar hat jeder Hersteller für jede DX Version einen oder mehrer Joker die er dann benutzten kann wenn er ein Feature unbedingt in DX haben will aber sonst kein anderer Hersteller sich dazu bereit erklärt so etwas auch zu machen.
Matrox wollte wohl DM. ATI hat ja in DX 8.1 schon extra eine eigene Suppe mit den PS 1.4 gekocht bekommen und NVIDIA wollte wohl unbedingt die 2.0+ Versionen der VS und PS haben. GPU sind nun noch keine CPUs die absoluten gleichen Code verstehen und deswegen sind die Featuresets auch verschieden. DX macht das Leben der Entwickler aber etwas leichtert weil ein VS 1.1 Programm auf jedem Chip der VS 1.1 unterstützung hat auch läuft und man nicht für jeden Chip neue Shader schreiben muss.
Quasar
2003-01-04, 00:32:59
Ach so, die Varianten meinst du. Ich dachte schon, du sprächst von DM und VS....
Was die R300 angeht, bin ich da momentan nicht sicher, aber "sampled" in HW habe ich auch schon gehört. Was nun "the real thing" angeht, so weiss ich nicht, ob sich das emulieren lässt (wenn's so einfach geht, wird das sicher auch nV hinkriegen), aber das scheint wirklich nur Parhelia in HW zu haben.
Demirug
2003-01-04, 00:38:51
quasar, auch echte DM läst sich emulieren (man kann ja alles Emulieren s. RefRast). Matrox hat sogar eine Software DM Lib. Die Speed dürfte allerdings eher schlecht sein. Weil ja neben der bereits bekannten Tesselation auch noch das Samplen von der CPU gemacht werden muss. Und wir wissen ja wie schnell Truform beim R300 ist.
Spake
2003-01-04, 00:41:04
@demirug
jeder kocht sein eigenes süppchen
genau dass war ja dass prob bei dx8.x
in diesem Punkt hatte MS ja besserung gelobt
jetz sind zwar die gleichen shader vorhanden aber ansonsten sind die features wieder verschieden
genau hier liegt doch dass prob für die entwickler:
wieso soll man in direct3D für dx9 schreiben wenn sowieso jeder hersteller andere unterstützung hat
die specs müssen eben fester werden
so wie es jetzt aussieht war es total sinnlos DM aufzunehmen
und im übrigen stimmt mir auch quasar mit der emulierung von sampled zu
Quasar
2003-01-04, 00:44:29
Danke für die Aufklärung, Demirug, aber da ich Praktiker bin, ist für mich eigentlich nur relevant, ob diese "Emulation" von DM (egal ob jetzt sampled oder "das echte") z.B. beim nV30 oder R300 so schnell über die Vertexeinheiten erfolgen kann, dass es nicht zur Spassbremse wird. =)
edit:
Es wäre vielleicht mal gar nicht schlecht, wenn sich ein Entwicklerteam hinsetzen würde, und einen Oberknaller von Game entwickelte, welches wirklich alle sinnvollen Vorschläge von DX) für die Hardwarefeatures zum sinnvollen Spielen nötig macht, so dass die ganzen Softwareemulierer so deftig in ihren FPS-Hintern getreten würden, dass sie bei der nächsten Generation alles sinnvolle in HW machten... ;)
Spake
2003-01-04, 00:44:38
im übrigen steht auf dem geforceFX prewiew auf dieser seite dass die Geforcefx eben kein DM vollständig unterstützt und Ati
preimaged(so heißt sie nämlich) per HW und sampled per emulation
die GeforceFX eben nur sampled per emulation
Quasar
2003-01-04, 00:56:51
"preimaged" ist dabei aber die qualitativ minderwertige Variante, oder nicht?
Weiterhin steht im Preview, welches nach damaligem Kenntnisstand verfasst wurde, auch, der nV30 hätte nur einen Vertexshader (was ja so nicht mehr ganz korrekt ist), sowie, dass 16 Texturen per Pass möglich wären. (AFAIK sind's mit den DX9-Treibern beim R300 nur 8 Texturen pro Pass, die 16 beziehen sich auf die Texturzugriffe innerhalb der Pixelshader, aber nicht auf das Multitexturing an sich).
Demirug
2003-01-04, 01:01:42
ja ATI spricht bei den ganzen TruForm II Sachen immer gernen von Hardware unterstützt. Diese Unterstützung scheint aber nur sehr minimal zu sein (oder die Treiber sind müll).
Das Problem bei NVIDIA ist das sie es in der Hardware emulieren können. Das Verfahren dafür nennt sich "Render To VertexStream". Aber noch weiss keiner ob NVIDIA es im Treiber auch implemtieren wird. Deswegen die unsicherheit.
MS kann was DX angeht gar nichts gegen den willen der Chiphersteller tun. Wenn die Nein sagen dann ist das nun mal so.
Das wichtigste an DX sind aber ohne zweifel die Shader. Wer schon mal mit OpenGL Pixeleffekte programmiert hat weiss was ich meine. Jede Karte hat dafür eigene Funktionen die sich alle ganz anders verhalten. Der reinste Horror. In den Anfangszeiten der 3D Hardware hattte auch noch jeder Hersteller seine eigene API. Das war Chaos pur.
Die DX Specs sind inzwischen sehr fest. Und es ist nun mal Aufgabe der Entwickler abzufragen was die Karte kann und damit was sinnvolles anzufangen. Das ist nun mal PC-Hardware und keine Konsole.
Demirug
2003-01-04, 01:10:50
Originally posted by Quasar
"preimaged" ist dabei aber die qualitativ minderwertige Variante, oder nicht?
Weiterhin steht im Preview, welches nach damaligem Kenntnisstand verfasst wurde, auch, der nV30 hätte nur einen Vertexshader (was ja so nicht mehr ganz korrekt ist), sowie, dass 16 Texturen per Pass möglich wären. (AFAIK sind's mit den DX9-Treibern beim R300 nur 8 Texturen pro Pass, die 16 beziehen sich auf die Texturzugriffe innerhalb der Pixelshader, aber nicht auf das Multitexturing an sich).
ja "preimaged" ist irgendwie die "Wir wollen auch DM können" Version.
Mit den nur 8 Texturen pro Pass kommt daher das Multitexturing ein DX7 Feature ist und damals wurde dort ein maximum von 8 definiert. Die API könnte auch theoretisch mehr. Wobei ich aber nicht weiss in wie weit die alten DX-Runtimes probleme machen wenn der Treiber plötzlich mehr als 8 melden würde. Und die Alten spiele sollen ja weiterhin laufen.
die DX8 Pixelshader mit 4 bzw 6 Texturen waren da ja im Prinzip ein Rückschritt aber dort waren sie dann auch wirklich verfügbar und nicht wie beim DX7 MT rein von der Karte abhängig. Die DX9 PS erlaubt nun die verwendung von 16 Textursampler. Bei PS 2.0 können daraus bis zu 32 Samples gewonnen werden. Maximaler DR ist 4. Die PS 2.0+ Variante von NVIDIA kann unlimitierte DR und theoretisch bis zu 1024 Samples auslesen. Nur wären dann keine Instructionen mehr übrig um auch was damit anzufangen.
Richthofen
2003-01-04, 01:20:49
"
ich finds halt scheiße wenn ein doch ganz sinnvolles feature von dem größten GraKa-verkäufer einfach ignoriert wird und nicht aufgenommen wird
der Chip ist bereits scheiß-groß und Ati obwohl sie einen kleineren Chip haben können wenigstens beide features darstellen antstattdessen werden transistoren für tolle features VS/PS 2.0+ verbraten welche nie genutzt werden weil der 2.größte Chipentwickler sie nicht unterstützt
-oder kann mir jemand mehrere spiele nennen welches Ati's Radeon8500-Shader 1.4 sinnvoll nutzt
"
So sind die Gesetze des Marktes. Dann muss sich halt der kleinere dem größeren Anpassen.
Wenn man nicht die kritische Masse hat gewisse Standards zu setzen und durchzudrücken, dann wird das halt auch nix.
DU kanst aber getrost davon ausgehen, dass die erweiterten Möglichkeiten der NV30 VS/PS in einigen Games durchaus erscheinen werden. Extra für diesen Zweck gibt es das CG und Nvidia hat nunmal die Masse solche Dinge an den Mann zu bringen.
HALO und Stalker werden wohl nette CG Games werden die eine kleine extra Optimierung für den NV30 verpasst bekommen - nur um mal 2 Beispiele zu nennen.
Und wenn das nicht reicht, gibt es ja immer noch die "Nvidia - the way its meant to be played" Methode - sprich Geld an Softwarebude und dafür als Gegenleistung ein kleine angepasste Version und das eigene Logo im Vorspann.
Quasar
2003-01-04, 01:36:23
Danke an alle, die sich konstruktiv hier beteiligt haben. Ich habe heute zumindest eine Menge neuer Dinge gehört bzw. ältere Dinge neu verstanden! :)
Originally posted by Quasar
Dazu alle Spiele, die EMBM einsetzen, was AFAIK auf Geforce3 und höher auch 2 Passes benötigt (Dependant Texture Read, korrigiert mich, wenn ich Mist labere..). Afaik 2 Takte, aber 1 Pass.
Spake
2003-01-04, 18:03:34
hat nvidia eigentlich bei ihren VS/PS 2.0+
auch alte 3DFX ideen eingebracht
sprich: motion blur, deepth of field
bei AA ist ja alles beim alten geblieben antstatt voodoo AA zuz benutzen welches ja qualitativ über dem AA der Ati9700 liegt
Originally posted by Spake
hat nvidia eigentlich bei ihren VS/PS 2.0+
auch alte 3DFX ideen eingebracht
sprich: motion blur, deepth of fieldSowas ist auf GeForce3 im Prinzip auch schon realisierbar.
Ailuros
2003-01-05, 00:20:02
bei AA ist ja alles beim alten geblieben antstatt voodoo AA zuz benutzen welches ja qualitativ über dem AA der Ati9700 liegt.
Von Seiten EER sicher nicht.
Uebrigens Accuview hat so einiges aus den alten 3dfx-Technologie Buechern mitinbegriffen. Der Nachfolger von der V5 hatte ja sowieso Multisampling wobei der einzige Unterschied zu NV20 und dessen Nachfolgern 4xRGMS anstatt von 4xOGMS gewesen waere.
Exxtreme
2003-01-05, 00:36:39
Originally posted by Richthofen
DU kanst aber getrost davon ausgehen, dass die erweiterten Möglichkeiten der NV30 VS/PS in einigen Games durchaus erscheinen werden. Extra für diesen Zweck gibt es das CG und Nvidia hat nunmal die Masse solche Dinge an den Mann zu bringen.
HALO und Stalker werden wohl nette CG Games werden die eine kleine extra Optimierung für den NV30 verpasst bekommen - nur um mal 2 Beispiele zu nennen.
Auch NV hat nicht die Masse um Features an den Mann zu bringen, die ATi oder Matrox nicht unterstützen. Mit RT-Patches sind sie auf'm PC schon mal gescheitert. Und CG ist nur eine weitere HLSL und ich denke nicht, daß diese sich richtig durchsetzen wird. DX9 bringt nämlich eine eigene HLSL mit und ich glaube, daß eher diese genommen wird. Features zu hypen, die der Rest der Mitbewerber nicht unterstützt bringt im Endeffekt gar nichts. Das hat ATi auch erkannt.
Richthofen
2003-01-05, 02:01:10
Da aber der Großteil der Entwickler ohnehin auf der Nvidia Seite im Developer Bereich rumsurft und ohnehin schon die Mehrheit der Spiele auf NV Karten entwickelt werden kann man schon recht stark davon ausgehen, dass es für NV da eher möglich ist gewisse Dinge an den Mann zu bringen.
Das es mit den RT Patches nicht so war sagt gar nix aus. Vielleicht hat auch Nvidia selber diese Methode für nicht sinnvoll im Nachinein erachtet wer weiss.
PS 2+ und VS 2+ dürften eher an den Mann zu bringen sein. Das ist ja für den Entwickler auch kein Beinbruch. Er kann ja mit CG eine kleine extra Optimierung machen für die NV3x Reihe und alle anderen bekommen puren OGL oda DX9 Standard Code also das, was sie mit anderern Shadersprachen auch bekämen.
Stalker und Halo werden solche Games sein. Unreal2 ist für mich auch ein ähnlicher Kandidat in der ein oder anderen Richtung.
Die EA Games sowieso. Die sind doch seid Jahren absolut auf Nvidia ausgerichtet. Da bekommt man doch teilweise das gruseln, wenn man hört wieviel Probleme ATI Produkte da machen.
Razor
2003-01-05, 08:47:20
@Exxtreme
"Mit RT-Patches sind sie auf'm PC schon mal gescheitert."
Sicher ?
Auf gf3/gf4ti wurde es zumindest aus dem Featureset genommen...
Aber endgültig ?
Kann es nicht sein, dass es bald ein 'comeback' geben wird ?
;-)
"Und CG ist nur eine weitere HLSL und ich denke nicht, daß diese sich richtig durchsetzen wird. DX9 bringt nämlich eine eigene HLSL mit und ich glaube, daß eher diese genommen wird."
Falsch...
CG ist Multi-API- und Multi-Plattformfähig. Und dieser Vorteil ist nicht zu verachten. So gibt es IMHO keinen Vorteil HLSL von M$ einzusetzen, da alles auch mit CG möglich ist. Zusätzlich (!) werden noch Hilfsmittel an die Hand gegeben, nVidia Karten besser und wohl auch weitreichender zu unterstützen. Und es steht jedem frei (also auch anderen Chip-Herstellern), diese Basis weiter auszubauen.
"Features zu hypen, die der Rest der Mitbewerber nicht unterstützt bringt im Endeffekt gar nichts. Das hat ATi auch erkannt."
Bei ATI war dies oft so, bei nVidia zwar auch, aber lange nicht so oft. I.e. nVidia konnte sehr viel mehr 'Features' in den Markt drücken. Ob dies zukünftig auch möglich ist, wird sich zeigen... ich hoffe es zumindest.
Und wenn Du mit 'nem gescheiterten Feature so etwas wie Truform von ATI meinst, dann kann ich nur dazu sagen, dass es mich mich schon damals klar war, dass diese "Übergangslösung", wie auch der PS1.4 vor PS2.0 niemals eine breite Unterstützung bekommen wird.
Auch jetzt hat ATI wohl nur das absolute Minimum an DX9-Features unterstützt und hofft wohl nun, dass es nVidia nun genauso ergeht, wie damals eben ATI selbst.
Wenn sie sich da mal nicht irren...
:D
Bis denne
Razor
P.S.: Und bitte nicht wieder mit diesem "Alles ist eine Übergangslösung"-Quatsch kommen... mit Übergangslösung meine ich Dinge, die nur mit einer einzigen Chip-Generation unterstützt werden und weder auf- noch abwärtskompatibel sind. Nur um Missverständnisse zu vermeiden...
Ailuros
2003-01-05, 09:31:19
Originally posted by Richthofen
Da aber der Großteil der Entwickler ohnehin auf der Nvidia Seite im Developer Bereich rumsurft und ohnehin schon die Mehrheit der Spiele auf NV Karten entwickelt werden kann man schon recht stark davon ausgehen, dass es für NV da eher möglich ist gewisse Dinge an den Mann zu bringen.
Das es mit den RT Patches nicht so war sagt gar nix aus. Vielleicht hat auch Nvidia selber diese Methode für nicht sinnvoll im Nachinein erachtet wer weiss.
PS 2+ und VS 2+ dürften eher an den Mann zu bringen sein. Das ist ja für den Entwickler auch kein Beinbruch. Er kann ja mit CG eine kleine extra Optimierung machen für die NV3x Reihe und alle anderen bekommen puren OGL oda DX9 Standard Code also das, was sie mit anderern Shadersprachen auch bekämen.
Stalker und Halo werden solche Games sein. Unreal2 ist für mich auch ein ähnlicher Kandidat in der ein oder anderen Richtung.
Die EA Games sowieso. Die sind doch seid Jahren absolut auf Nvidia ausgerichtet. Da bekommt man doch teilweise das gruseln, wenn man hört wieviel Probleme ATI Produkte da machen.
Richthofen,
Ich bezweifle allen Ernstes dass Entwickler ein Spiel in solcher Art und Weise entwickeln, dass gewisse Hartware davon profitiert und der Rest dabei zu langsam laeuft (dabei haette ich auch gerne Demirugs Meinung als Entwickler).
Natuerlich profitiert eine Karte oder eine VGA-Familie wenn diese oder eine von denen als Entwicklungs-Platform benutzt wird, aber wenn es bei anderen Karten dann hapert, dann haben die Entwickler hoechstwahrscheinlich etwas uebersehen was andere Karten betrifft (rendering approaches die man bei solchen nicht benutzen sollte), oder es handelt sich bei den restlichen Karten entweder um "buggy" Hartware oder Treiber.
Den letzten Fall kann man leicht korrigieren, wenn aber die Hartware daran schuld ist, da wird's eher schwer.
Keine Ahnung was HALO betrifft (ich bezweifle dass die PC Version ueberhaupt was wert sein wird wenn sie endlich auf den Markt kommt), aber Stalker hat eine sehr flexible Engine. Geh mal auf deren Homesite und schau Dir die genauen Details der Engine an und auch den geplanten support fuer verschiedene Hartware.
Was nun ATI Produkte betrifft und die relative "Gruselgeschichten" (ausser man hoert auf Derek Foulmouth Smart), ATI ist heute in einer viel besseren Situation als NV in der Vergangenheit zu Zeiten 3Dfx/Glide war. Bis zur GF256 war auch nicht alles geradezu rosig. Gott sei Dank haben sich die Zeiten geaendert und es gibt sehr wenig Chancen fuer einen IHV jederartige Exclusivitaeten ala Glide durchzusetzen.
Die Entwickler haben selber und als erste sehr wenig Interesse daran. Was nun CG betrifft, da haengt es start von den Entwicklern ab, ob es ihnen das Leben erleichtert oder ob es doch besser fuer sie sein wird MS HLSL zu benutzen.
Razor,
VS3.0 wird soweit ich weiss eine sehr interessante Form von displacement mapping/on chip tesselation oder auch HOS (wie immer man es auch nennen mag) vorstellen. Wie bekannt hat VS3.0 Texturen und dabei wuerde on chip tesselation umso einiges an Bandbreite sparen. So weit sind wir gar nicht weg bevor wir es in Hartware sehen; dessen Adoption jedoch wird leider laenger dauern (siehe Vorstellung in Hartware nach H2 2003 + Implentations/Entwicklungszeit usw usw.).
Exxtreme
2003-01-05, 09:58:40
Originally posted by Richthofen
Da aber der Großteil der Entwickler ohnehin auf der Nvidia Seite im Developer Bereich rumsurft und ohnehin schon die Mehrheit der Spiele auf NV Karten entwickelt werden kann man schon recht stark davon ausgehen, dass es für NV da eher möglich ist gewisse Dinge an den Mann zu bringen.
Das es mit den RT Patches nicht so war sagt gar nix aus. Vielleicht hat auch Nvidia selber diese Methode für nicht sinnvoll im Nachinein erachtet wer weiss.
PS 2+ und VS 2+ dürften eher an den Mann zu bringen sein. Das ist ja für den Entwickler auch kein Beinbruch. Er kann ja mit CG eine kleine extra Optimierung machen für die NV3x Reihe und alle anderen bekommen puren OGL oda DX9 Standard Code also das, was sie mit anderern Shadersprachen auch bekämen.
Stalker und Halo werden solche Games sein. Unreal2 ist für mich auch ein ähnlicher Kandidat in der ein oder anderen Richtung.
Die EA Games sowieso. Die sind doch seid Jahren absolut auf Nvidia ausgerichtet. Da bekommt man doch teilweise das gruseln, wenn man hört wieviel Probleme ATI Produkte da machen.
Wäre sicherlich schön für NV aber ich denke nicht, daß irgendein Entwicklerstudio Extra-Spielchen für den NV30 machen wird. Das kostet nämlich Zeit und damit automatisch Geld... viel Geld. Mit einem einfachen CG-Compiler-Lauf ist es nämlich nicht getan. Es muss noch getestet werden usw. Kein Entwickler-Studio kann es sich leisten, daß ein Spiel auf anderer HW zu langsam läuft oder schlechter aussieht. Das kann nämlich ein negatives Image mit sich bringen und man kann durch sowas die Kunden anderer Produkte vergraulen.
Und EA ist sowieso ein Kapitel für sich. Ungepatched laufen die Spiele auf so ziemlich jeder GraKa schlecht. Aber gegen Ascaron sind die Jungs von EA noch harmlos.
Der beste Bug, der mir jemals untergekommen ist, war bei C&C Renegade. Und dagegen half kein Patch von Westwood. Auf jeden Fall konnte man das Spiel ab den 2'ten Level nicht weiterspielen weil direkt beim Levelanfang die komplette Landschaft weiss war und alle Objekte an der falschen Stelle waren. Man fiel direkt nach dem Levelanfang "ins Nichts" runter und 5 Sek. später war man tot. Ich habe das Spiel mehrmals neuinstalliert aber nur eine Sache half, die ich per Zufall herausgefunden habe. Die Lösung war, daß beim Installieren des Spiels beim Anlegen des Spiele-Verzeichnisses sich an die 8.3-Namenskonvention halten musste.
Ailuros
2003-01-05, 10:04:45
Exxtreme,
Mal ne OT Frage: wie steht's eigentlich mit F1 2002 und den neuesten Radeons derzeitlich? Obwohl die Unterschied zu F1 2001 keineswegs allzu gross sind (gleiche game-engine), war die Leistung mit R300 zwischen den beiden Spielen wie Tag und Nacht. Hat EA nen patch in der Zwischenzeit? (dabei hab ich auch wirklich keine Ahnung an was es liegen koennte).
edit:
nur zu Bestaetigung was EA Spiele betrifft...F1 2001 brauchte zwei gigantische Patches um fehlerfrei selbst auf GeForce zu laufen.
Exxtreme
2003-01-05, 10:06:39
Originally posted by Ailuros
Exxtreme,
Mal ne OT Frage: wie steht's eigentlich mit F1 2002 und den neuesten Radeons derzeitlich? Obwohl die Unterschied zu F1 2001 keineswegs allzu gross sind (gleiche game-engine), war die Leistung mit R300 zwischen den beiden Spielen wie Tag und Nacht. Hat EA nen patch in der Zwischenzeit? (dabei hab ich auch wirklich keine Ahnung an was es liegen koennte).
Keine Ahnung. Ich spiele solche Spiele nicht. Stell mal diese Frage ins ATi-Forum, da bekommst du die Antworten.
Ailuros
2003-01-05, 10:11:45
Danke fuer den Tip. Ich hab momentan keine Benchmark Nummern bereit, aber um es grob zu bezeichnen, war F1 2001 in 1024x768x32/6xAA-16Q aniso zwischen 50-70fps, wobei aber F1 2002 so um die 20-30fps mit 4xAA-16Q aniso lag.
Exxtreme
2003-01-05, 10:57:22
Originally posted by Razor
@Exxtreme
Sicher ?
Auf gf3/gf4ti wurde es zumindest aus dem Featureset genommen...
Aber endgültig ?
Kann es nicht sein, dass es bald ein 'comeback' geben wird ?
;-)
Wenn ATi und Matrox mitziehen, dann vielleicht. NV hat alleine nicht genug Marktmacht um Features im Alleingang durchzudrücken.
Originally posted by Razor
Falsch...
CG ist Multi-API- und Multi-Plattformfähig. Und dieser Vorteil ist nicht zu verachten. So gibt es IMHO keinen Vorteil HLSL von M$ einzusetzen, da alles auch mit CG möglich ist. Zusätzlich (!) werden noch Hilfsmittel an die Hand gegeben, nVidia Karten besser und wohl auch weitreichender zu unterstützen. Und es steht jedem frei (also auch anderen Chip-Herstellern), diese Basis weiter auszubauen.
Ich weiss was CG ist. Und trotzdem ist es eine weitere HLSL. Die Frage ist, ob diese gegen die DX9-eigene und gegen GLSlang ankommt. Bei NV ist man sich halt nie sicher ob die doch nicht was Proprietäres einbauen.
Originally posted by Razor
Bei ATI war dies oft so, bei nVidia zwar auch, aber lange nicht so oft. I.e. nVidia konnte sehr viel mehr 'Features' in den Markt drücken. Ob dies zukünftig auch möglich ist, wird sich zeigen... ich hoffe es zumindest.
Welche Features konnte NV in den Markt drücken, die ATi NICHT unterstützt?
Originally posted by Razor
Und wenn Du mit 'nem gescheiterten Feature so etwas wie Truform von ATI meinst, dann kann ich nur dazu sagen, dass es mich mich schon damals klar war, dass diese "Übergangslösung", wie auch der PS1.4 vor PS2.0 niemals eine breite Unterstützung bekommen wird.
Auch jetzt hat ATI wohl nur das absolute Minimum an DX9-Features unterstützt und hofft wohl nun, dass es nVidia nun genauso ergeht, wie damals eben ATI selbst.
Wenn sie sich da mal nicht irren...
:D
Bis denne
Razor
Wie schon gesagt, solange die Mitbewerber bei den Features nicht mitziehen, sind diese völlig irrelevant. Das hat NV bei den RT-Patches mitgekriegt und ATi beim Truform und beim PS1.4.
Demirug
2003-01-05, 10:58:05
Bei OpenGL muss man im Moment ja sowieso mehr oder minder für jeden Hersteller mit getrennten Renderpfaden arbeiten. Deswegen besteht dort tatsächlich die Gefahr das einzelnen Renderpfade besser optimiert sind als andere. Und das ist dann vorzugsweise der Pfad welcher primär in den Entwicklungsrechner anwendung findet.
Bei DX wird in der Regel nur ein Renderpfad benutzt welcher Aufgrund von Caps Variationsmöglichkeiten besitzt. Wenn man sich nun die Performances optimierungsvorschläge von ATI und NVIDIA anschaut so erkennt man dort sehr viele identische dinge. Was dem einen gut tut ist also für den anderen auch nicht schlecht. NVIDIA geht allerdings mehr in die Details was dazu führen kann das es einen leichten Vorteil für NVIDIA-Chips gibt. Viel mehr gibt es bei der eigentlichen Engine also nicht beachten.
Das viel komplizierte Geschäft ist das Optimieren der Assets. Hierbei besteht grosses Gefahr das einzelene Chips (Chips nicht Hersteller) plötzlich extrem profitieren. Da das Materialdesign, was dann zu den Shadern bzw Pipeline settings führt, und die Geometrie daten ja nicht von den Engine-Entwicklern kommen haben diese da auch nur minimalen Einfluss darauf. So ist es durchaus möglich das ein Chip bei einem bestimmten material bei x Pixel pro Dreickeck eine ausgelichene Pipeline hat ein anderer Chip aber bei y Pixel. Optimiert ein Designer nun die Geometrie massiv auf x Pixel kann dies bei anderen Chip probleme verursachen. Deswegen geht man ja mehr und mehr dazu über für solche Sachen Regler in den optionen vorzusehen. Aber selbst solche Stuffen neigen immer noch dazu gewisse Chips zu bevorzugen. Das ganze ist aber auch durchaus abhängig von der genauen Szene so kann es inerhalb eines Level immer wieder dazu kommen das mal ein Chip und dann wieder ein anderer einen Vorteil hat.
Spake
2003-01-05, 20:35:58
ist es den graka-entwicklern nicht auch möglich über ihre treiber ihre produkte besser an software anzupassen
man nehme als beispiel nur immer wieder gesteigerte performance besonders beim 3DMark(ist syntetisch aber auch bei games wird die perf. gesteigert)
Demirug
2003-01-05, 21:04:20
ja spake, natürlich können die Chipentwickler die Treiber auf die Software anpassen. wobei sie das natürlich nicht einseitig machen dürfen. Also nur Optimierungen von der andere Programme keine Nachteile erhalten. Diese Optimierungen entstehen zum Teil daraus das man Spiele/Engines anlaysiert, zum anderen Teil das die Programmierer den Chip immer besser verstehn und dann werden die Compiler ja auch immer besser.
Spake
2003-01-05, 21:11:11
nein ich meinte richtig drauf abstimmen
für unterschiedliche spiele unterschiedliche treiber schreiben
ich denke da an die ersten R8500-treiber und ihre optimierungen auf die datei quake.exe
muss doch auch möglich sein dies auf andere spiele zu übertragen
es gibt ja auch treiber welche alte dx8-treiber mit neuen dx9-treibern kombinieren um die beste perf zu erhalten
(bei den Catalyst treiber gibt es ja solche)
Demirug
2003-01-05, 21:17:13
ähm Spake, du weist aber schon das die Performancesgewin bei Quake damals mit Qualitäteinbusen erkauft wurde.
Ansonsten macht es nicht viel Sinn Treiber auf einzelne Anwendunge zu optimieren. Das Kosten Nutzen verhältniss ist da einfach nicht gegeben und dann hätte ich auch keine Lust bei jedem neuen Spiel erst mal auf den passended Treiber zu warten. So gross sind die Unterschiede zwischen den meisten Engines auch nicht als das sich so etwas lohne würde und wenn eine Engine schlecht programmiert ist kann man mit dem besten Treiber nichts mehr retten und auch die beste Engine mit dem besten Treiber kann aus einer Hardware nicht mehr rausholen als vorhanden ist.
Crazytype
2003-01-05, 21:20:14
leider wird ja immer der kleinste gemeinsame Nenner benutzt.Daher ist es sehr gut, dass ATI dx9 in den Mainstream gebracht hat nicht so wie die GF 4 Mx lol. Kann mir schon vorstellen,dass Nvidia ein paar Firmen sponsert(die machen ja auch derbe werbung für Obvilion lost usw.)damit sie ps 2+ usw benutzen aber dies wird nur minimal ausfallen.
Spake
2003-01-05, 21:26:15
dass mit den qualitätseinbußen weiß ich auch
es ging mir nur um die möglichkeit einzelne anwendungen per treiber zu optimieren
außerdem würde so eine optimierung weniger geld erfordern als eine "bestochung" der firmen
könnte doch sein
Demirug
2003-01-05, 21:31:58
Originally posted by Spake
dass mit den qualitätseinbußen weiß ich auch
es ging mir nur um die möglichkeit einzelne anwendungen per treiber zu optimieren
außerdem würde so eine optimierung weniger geld erfordern als eine "bestochung" der firmen
könnte doch sein
"Bestechen" währe billiger, viel billiger. Es gibt in der Softwareentwicklung nicht teurers als x verschiedene Derivate einer Software zu pflegen. An sowas sind schon ein paar Firmen kaputt gegangen weil sie für jeden Kunden spezial Änderungen gemacht haben die natürlich aber nur für diesen Kunden waren. Irgendwann steigt man da nicht mehr durch.
Spake
2003-01-05, 21:35:46
hoffentlich sehen wir dann nett so debakel wie: (UT2003) nvidia-the way its ment to be payed
Demirug
2003-01-05, 21:47:50
Originally posted by Spake
hoffentlich sehen wir dann nett so debakel wie: (UT2003) nvidia-the way its ment to be payed
In wie fern debakel? Epic hatte Werbefläche zu verkaufen und NVIDIA hat wohl am meisten dafür bezahlt. Geschäft ist Geschäft
EqualizerCS
2003-01-05, 22:03:27
@ Ailuros
Komm einfach ins www.Ati-News.de Forum. Da können wir alle dir bestimmt helfen, was F1 2002 betrifft.
EqualizerCS
Spake
2003-01-05, 22:11:31
und wenn man UT2003 mit einer R9700Pro started erfährt man gleich dass nvidia noch viellllllllll!!!!!!!!!!!1 besser ist
GRiNSER
2003-01-06, 21:10:42
Originally posted by Spake
und wenn man UT2003 mit einer R9700Pro started erfährt man gleich dass nvidia noch viellllllllll!!!!!!!!!!!1 besser ist
Also bei mir steht da NO nVIDIOT DA... bei euch nicht? :bäh: ;D
Unregistered
2003-01-06, 21:18:48
Originally posted by Demirug
ähm Spake, du weist aber schon das die Performancesgewin bei Quake damals mit Qualitäteinbusen erkauft wurde.
Ansonsten macht es nicht viel Sinn Treiber auf einzelne Anwendunge zu optimieren. Das Kosten Nutzen verhältniss ist da einfach nicht gegeben und dann hätte ich auch keine Lust bei jedem neuen Spiel erst mal auf den passended Treiber zu warten. So gross sind die Unterschiede zwischen den meisten Engines auch nicht als das sich so etwas lohne würde und wenn eine Engine schlecht programmiert ist kann man mit dem besten Treiber nichts mehr retten und auch die beste Engine mit dem besten Treiber kann aus einer Hardware nicht mehr rausholen als vorhanden ist.
Naja, bei Spielen ohne Benchmarkfunktion vielleicht nicht, aber beim z.B. 3D-Mark und VPerf. scheint es sich ja zu lohnen, wie schon mehrfach belegt wurde.
Also ganz so blauäugig braucht man dann auch nicht durch die Welt zu gehen.
Pussycat
2003-01-07, 20:31:21
Originally posted by GRiNSER
Also bei mir steht da NO nVIDIOT DA... bei euch nicht? :bäh: ;D
Bei mir auch ja... seltsam, scheint sich zu verbreiten...
Spake
2003-01-08, 16:21:34
ich persönlich weiß nur dass ein freund so ein "prob" bei UT2003 hatte
ich besitzte nämlich ein nvidia weil mir die R9500Pro zu teuer war und meißtens nett erhältlich
außerdem gibts ja fixes von fans mit dem man dann das logo von nvidia durch eins von powervr, ati etc ausgetauscht wird
Ailuros
2003-01-08, 16:33:38
Originally posted by EqualizerCS
@ Ailuros
Komm einfach ins www.Ati-News.de Forum. Da können wir alle dir bestimmt helfen, was F1 2002 betrifft.
EqualizerCS
Danke. Werde mal reinschauen. Ich hab die R300 zwar nicht mehr (nur kurz ausgeliehen), aber so wie es aussieht wird 2003 ein ATI-Jahr fuer mich sein (siehe R400).
Spake
2003-01-09, 15:56:20
R400 2003 hat Ati genügend ressourcen dafür?!
nvidia hat bei ihrem nv25 doch schon 9 monate gebraucht trotz viel mehr leuten
x-dragon
2003-01-09, 16:03:11
Originally posted by Spake
R400 2003 hat Ati genügend ressourcen dafür?!
nvidia hat bei ihrem nv25 doch schon 9 monate gebraucht trotz viel mehr leuten Anscheind ja :). Da gab doch mal so nette Interviews bei denen ATI gesagt hat das die Produktzyklen verkürzt werden und Nvida das sie verlängert werden müssen...
Spake
2003-01-09, 16:08:39
die zeit wird es zeigen
bis jetz gibt es ja nicht mal einen paper-launch der R350
kann aber auch sein dass Ati weit fortgeschritten ist und diesen launch nicht nötig hat da nvidia sowieso nicht liefern kann
x-dragon
2003-01-09, 16:16:06
Originally posted by Spake
die zeit wird es zeigen
bis jetz gibt es ja nicht mal einen paper-launch der R350
kann aber auch sein dass Ati weit fortgeschritten ist und diesen launch nicht nötig hat da nvidia sowieso nicht liefern kann Ausserdem macht es so viel mehr Spaß wenn sie kurz nach Veröffentlichung der FX damit rausrücken :D.
Spake
2003-01-09, 16:18:33
joa aber nvidia hat ja auch frühzeitig die fx gelauncht um die käufer der R300 warten zu lassen
frag mich schon wieso Ati die R350 ann zurückhält
gool wärs aber schon wenn sie kurz nach den ersten exemplaren der fx die R3500 releasen
Ailuros
2003-01-09, 16:22:00
Seit drei Generationen hat ATI bis jetzt jedes Jahr eine neue Generation geliefert. Warum sollte es so unmoeglich sein dass ein Jahr nach der R300 die eine neue Architektur liefern?
Der Design des R400 begann uebrignes schon vor einiger Zeit und nicht vor ein paar Monaten.
Was hat das sowieso mit NV25 zu tun? Ein Refresh ist ganz was anderes als eine neue Generation.
Originally posted by Ailuros
Seit drei Generationen hat ATI bis jetzt jedes Jahr eine neue Generation geliefert. Warum sollte es so unmoeglich sein dass ein Jahr nach der R300 die eine neue Architektur liefern?
Der Design des R400 begann uebrignes schon vor einiger Zeit und nicht vor ein paar Monaten.
Was hat das sowieso mit NV25 zu tun? Ein Refresh ist ganz was anderes als eine neue Generation. Ja. ATI scheint mir allerdings etwas anders vorzugehen. Sie bringen eine neue Generation und versuchen, diese in den Markt zu drücken. Später schieben sie beschnittene / heruntergetaktete Versionen nach.
nVidia führt dagegen erst eine neue Generation ein, und bringt erst mit dem Refresh sozusagen die "Haupt-Produktpalette".
Vielleicht schwenkt ATI auch in diese Richtung, vielleicht aber auch nicht. Ich kann mir auch gut vorstellen, dass ein halbes Jahr nach dem R350 der R400 folgen könnte. (Jedenfalls dann, wenn nVidia Anstalten macht, den NV35 zu bringen.)
Crushinator
2003-01-09, 17:43:23
Originally posted by Spake R400 2003 hat Ati genügend ressourcen dafür?!
nvidia hat bei ihrem nv25 doch schon 9 monate gebraucht trotz viel mehr leuten Wenn sie rechtzeitig angefangen haben, würde ich mir das an Deiner Stelle so vorstellen:
Das Teil wird in Mai seinen TapeOut hinter sich haben und in August mit wenigen Exemplaren der Presse vorgestellt. Kaufen kann man sie wahrscheinlich frühestens November/Dezember.
Dabei weise ich gerne darauf hin, daß der R300 von relativ wenigen Entwicklern aus der ehemals ArtX genannten Crew entworfen wurde.
P.S.: Wenn's anders kommt, streite ich natürlich alles ab und mache Ein' auf Tino K. ;D
Ailuros
2003-01-09, 19:48:45
Originally posted by aths
Ja. ATI scheint mir allerdings etwas anders vorzugehen. Sie bringen eine neue Generation und versuchen, diese in den Markt zu drücken. Später schieben sie beschnittene / heruntergetaktete Versionen nach.
nVidia führt dagegen erst eine neue Generation ein, und bringt erst mit dem Refresh sozusagen die "Haupt-Produktpalette".
Vielleicht schwenkt ATI auch in diese Richtung, vielleicht aber auch nicht. Ich kann mir auch gut vorstellen, dass ein halbes Jahr nach dem R350 der R400 folgen könnte. (Jedenfalls dann, wenn nVidia Anstalten macht, den NV35 zu bringen.)
Meine Logik war ein klein bisschen in eine andere Richtung:
2001: R200
2002: R300
2003: R400?
aber im Gegenteil:
2001: NV20
2002: NV20 refresh aka NV25
2003: NV30
Erstmal hat Orton schon selber angedeutet dass die Notwendigkeit der R350 auch von NV's Plaenen abhaengt, was vieles heissen kann. NV35 ist soweit ich weiss fuer Ende Sommer geplant. Dabei haette NV35 bei mir eigentlich nur Chancen wenn sie sich endlich aufkrempeln und endlich fortschrittlichere MSAA/Aniso Algorithmen bieten, der dx9/shader Krampf kann mir sowieso gestolen bleiben von allen IHV's.
Ailuros
2003-01-09, 19:51:53
Dabei weise ich gerne darauf hin, daß der R300 von relativ wenigen Entwicklern aus der ehemals ArtX genannten Crew entworfen wurde.
Zwei Design-teams, wovon eins der beiden ArtX war, stets hinter geschlossenen Tueren. Nichtmal die Software Leute haben viel Ahnung was da vorgeht LOL :D
Spake
2003-01-17, 21:52:23
schon interressant in welche richtung ein thread sich bewegen gings nicht eigentlich um die geforceFX ach scheiß drauf ;-)
richtig interressant wirds erst nachdem die fx richtig verfückbar ist und zwar im märz und Ati kurz darauf ihre R350 vorstellen
dann wirds spannend mit den lieferfähigkeiten von Ati(wenn sie so wie beim R300 liegen gibts aum probs)
denn wenn Ati die karte rechtzeitig vorstellt und auch liefern kann überträgt sich das positiv auf die R400
wichtig dafür ob Ati wirklich die R400 rechtzeitig vorstellen kann ist sowieso eher die frage wie gut Ati mit einem noch nie vorher durchgeführtem refresh zurechtkommt
genau dort liegt ja nvidias prob
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.