Archiv verlassen und diese Seite im Standarddesign anzeigen : ATi Project "Loci"
Tarkin
2003-04-28, 13:27:24
http://www.rage3d.com/board/showthread.php?s=&postid=1331917137#post1331917137
hört sich "cool" an...
...ich sehs schön, der Thread wird wieder 20 Seiten lang ;)
seahawk
2003-04-28, 13:42:25
Wenn das stimmt erlaube ich mir folgende Schlüsse :
- R390/420 sind 0,13 Varianten der R3x0 cores. R390 kommt im Herbst, R420 im Frühjahr 2004. Keine wahnsinningen Neuerungen aber mehr Mhz.
- R500 kommt frühestens Ende 2004 und wird ein ähnlich großer Schritt wie der R300 war.
Damit könnte ATI ungefähr den 6 Monats-Cycle halten.
Spekulation :
- Sollte NV den NV40 im Frühjahr 2004 haben und dieser wirklich einen erheblichen Schritt bedeuten, könnte die technologische Führerschaft 2004 bei NV liegen. Durch die Kooperation mit IBM sind sie nicht an TSMC gebunden. Sie können daher vielleicht in der Herstellung schneller neue Techniken einführen als ATI.
- ATI sollte den NV 35 bei Bedarf schnell kontern können, da R390 wahrscheinlich schnell fertig zu kriegen ist.
- Hoffentlich kommt der R420 im Frühjahr 2004, dann muss mein R300 gehen.
Demirug
2003-04-28, 13:49:59
ja Seahawk, Loci scheint das "Ersatzprojekt" für das gescheiterte R400 Projekt zu sein.
Im wesentliche erwarte ich da auch keine alzugrossen neuerungen (Featureset wohl weitgehende Identisch mit der restlichen R300-Rheie). Steigerung der Taktraten durch 0,13 dürften fast als gesichert gelten und noch ein paar Detailverbesserungen die einzelne Ausgewählte Operationen schneller machen.
seahawk
2003-04-28, 13:58:13
Ob
R390 = PS 2.0+
R420 = PS 3.0
Da ich davon ausgehe, dass der NV40 PS 3.0 haben wird. Der NV35 aber noch nicht. Könnte das die Codenummern R390 und R420 erklären ??
Demirug
2003-04-28, 14:16:51
Originally posted by seahawk
Ob
R390 = PS 2.0+
R420 = PS 3.0
Da ich davon ausgehe, dass der NV40 PS 3.0 haben wird. Der NV35 aber noch nicht. Könnte das die Codenummern R390 und R420 erklären ??
Das + beim 390 halte ich für durchaus möglich wobei ich da zu einem etwas kleineren + als bei NVIDIA tendiere.
An 3.0 Shader beim 420 mag ich aber nun gar nicht glauben. Die dafür notwenigen Designänderungen sind einafach zu gross als das sich das für den letzten Chip einer langen Rheie noch lohnen würde. Ich denke das Teil wird 420 heisen weil ATI die 300er Nummern ausgegangen sind.
Originally posted by seahawk
Ob
R390 = PS 2.0+
R420 = PS 3.0
Da ich davon ausgehe, dass der NV40 PS 3.0 haben wird. Der NV35 aber noch nicht. Könnte das die Codenummern R390 und R420 erklären ??
Anhand irgendwelcher Codenummern wuerde ich bei ATi gar nichts ableiten. Da sind die Codenummern genauso verwirrend wie die offiziellen Produktbezeichnungen.
Bei NV sind die Codenummern klar einer Produktreihe/-technologie zugeordnet (NV1x, NV2x, NV3x...)
Originally posted by Demirug
Ich denke das Teil wird 420 heisen weil ATI die 300er Nummern ausgegangen sind.
hehe... genau mein Gedanke.:D
seahawk
2003-04-28, 14:24:25
Also meint Ihr der Unterschied zwischen R390 und R420 wird ähnlich dem R300/R350 sein ? Minimale Änderungen - nur mehr Takt.
Da würden sich NV aber erhebliche Chancen bieten mit dem NV40 technisch in Führung zu gehen. (Ich denke mal der wird PS 3.0 haben)
Es ist ja wahrscheinlich, dass der NV40 im Frühjahr 2004 erscheint.
mapel110
2003-04-28, 14:32:09
Originally posted by seahawk
Also meint Ihr der Unterschied zwischen R390 und R420 wird ähnlich dem R300/R350 sein ? Minimale Änderungen - nur mehr Takt.
Da würden sich NV aber erhebliche Chancen bieten mit dem NV40 technisch in Führung zu gehen. (Ich denke mal der wird PS 3.0 haben)
Es ist ja wahrscheinlich, dass der NV40 im Frühjahr 2004 erscheint.
nv ist bereits technisch in führung.
aber es magelt immernoch an performance bei beiden herstellern. ich will mehr :D
Thomas Gräf
2003-04-28, 15:18:45
Originally posted by mapel110
aber es magelt immernoch an performance bei beiden herstellern. ich will mehr :D
...jawoll , das is'n Wort !
Ich gurke solange mit mein altes Sys rum
bis bis die endlich mal das bauen was ihre
Werbung seit Ewigkeiten verspricht.
Somit hab ich bis Ende 2004 Zeit zum
sparen...;);)
grs
Th.
Spake
2003-04-28, 16:42:12
ich weiß nicht was ihr wollt ist doch alles super:
kaum einbrüche bei höheren füllraten
fast jedes game mit AA/AF bei einem nicht allzu hohem perf drop spielbar
dual-tripple monitor(gefällt besonders mit :D)
shader welche die monitor ausgabe verbessern -> Ati
shader die von spielen noch nicht einmal genutzt werden(was würde wohl passieren wenn wir so weitermachen:
spiel haben dx10 gpus haben dx13 :D lol)
das einzige was sich irgendwie nicht verbessert ist der preis
(glaub eine voodoo 2 hat man für 400 mark gekauft und alle waren empört über eine "überteuerte" g2ultra für 1100 mark etc.)
nur bei cpus hat sich der preis verbessert?
Nochmal zur Betonung: R390 = R420!
Wenn das so stimmt werden wir wohl etwas länger auf VS/PS 3.0 bei ATI warten müssen. Aber danach kommt dann wieder ein größerer Sprung.
Tarkin
2003-04-28, 17:35:33
MuFu zu "Loci":
"...The featureset is largely identical, it's just going to be much, much faster. I suspect perhaps close-on double the clockspeed and possibly an additional TMU per pipe. Apparently it will be faster than the "old" R400 would have been in most situations..."
(kommt mit hoher Wahrscheinichkeit im Spätsommer/Herbst ... also wie letzte Jahr beim r300)
und zur neuen Radeon, die in der Zwischenzeit nVidias nv35 Paroli bieten soll:
"...It's a DDR-II board capable of 400/450Mhz+ (with a decent die)..."
(kommt wahrscheinlich im Mai/Juni)
Also für mich sieht das so aus, als ob sich das gleiche Spiel wie letztes Jahr wiederholen wird (was "Loci" betrifft)
Eusti
2003-04-28, 20:10:43
Also, wenn der R400 tatsächlich ausfällt weil ATI das nicht gebacken bekommt, dann hatten wir vor Monaten schon den richtigen Riecher. Ich quote mich mal selber aus diesen Thread: (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=725821&#post725821)Originally posted by Eusti
Hmmm... Soweit ich das mitbekommen habe, hat doch auch ATI mehrere Design-Teams. Eines davon soll ja richtig gut sein und die beiden Top-Produkte "Flipper" und "R3xx" designt haben. Wenn die Top-Leute den "R3xx" entworfen haben, dann müssten beim "R4xx" ja die dummen mal wieder drann sein. Das Top-Team müsste ja dann an dem anderen Zyklus "R5xx" abrbeiten.
Damit würde eine deutliche Verschiebung, doch realistisch erscheinen. Als das Top-Team noch den "Flipper" konstruiert hat und die dummen den ganzen PC-Bereich alleine entwickelt haben, haben die doch auch nix gebacken bekommen.
nagus
2003-04-28, 20:20:40
ati wird sich nach NV35 die krone jedenfalls wieder für den rest des jahres zurückholen. alles was darüber hinausgeht ist IMHO noch viel zu unsicher. viel wird davon abhängen, ob nvidia es schafft den NV40 "ready for xmas-season" hat oder, wie NV30, eben nicht.
Eusti
2003-04-28, 20:24:43
Originally posted by nagus
ati wird sich nach NV35 die krone jedenfalls wieder für den rest des jahres zurückholen. alles was darüber hinausgeht ist IMHO noch viel zu unsicher. viel wird davon abhängen, ob nvidia es schafft den NV40 "ready for xmas-season" hat oder, wie NV30, eben nicht. Wobei "Rest des Jahres" von dir zu definieren wäre. Wenn ATI sich Mitte Dezember die Leistungskrone zurückholt, haben Sie diese auch bis zum Rest des Jahres...
nagus
2003-04-28, 20:32:22
Originally posted by Eusti
Wobei "Rest des Jahres" von dir zu definieren wäre. Wenn ATI sich Mitte Dezember die Leistungskrone zurückholt, haben Sie diese auch bis zum Rest des Jahres...
und wieso soll das es so lange dauern?
ich denke schon, dass eine 9800PRO 256MB version @ vielleicht 425/960 DDR2 locker auf NV35 niveau oder darüber liegen dürfte.
und loci kommt dann ziehmlich genau 1 jahr nach R300, also spätsommer/herbst.
ich hab niergends was von weihnachten lesen können, du vielleicht?
Eusti
2003-04-28, 20:39:47
Originally posted by nagus
ich hab niergends was von weihnachten lesen können, du vielleicht? Ja, dieser "MuFu" hat HIER (http://www.rage3d.com/board/showthread.php?s=&postid=1331917137#post1331917145) so eine Andeutung gemacht.
Wer ist eigendlich dieser "MuFu"? Muss man den kennen?
betasilie
2003-04-28, 20:43:28
Ich quote mich auch mal aus diesem Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=63045&perpage=20&pagenumber=1)
Also ich tippe mal drauf, dass ATI mit TSMC im Spätsommer den Umstieg auf 0.13µ nimmt. Ein spekulativer R360/370 (o.ä.) wird dann einige wirkliche Verbesserungen, im Gegensatz zum R350, in der Performance bringen und die Architektur wird für den 0,13µ-Prozess von TSMC optimiert sein. Erfahrungen hat ATI ja schon mit der RV350-Architektur gemacht.
Und genau so wird es kommen. Von der Basis her ist die R300-Achrichtektur sicherlicher bis mindestens 550Mhz zu gebrauchen. Wieso sollte ATI da viel ändern, wenn das Stück so gut skaliert? Die nächste echte Genration kann imho warten, denn wer braucht schon in naher Zukunft wirklich einen PS nach 3.0?
Demirug
2003-04-28, 20:45:47
Originally posted by Eusti
Ja, dieser "MuFu" hat HIER (http://www.rage3d.com/board/showthread.php?s=&postid=1331917137#post1331917145) so eine Andeutung gemacht.
Wer ist eigendlich dieser "MuFu"? Muss man den kennen?
MuFu hat (aus welchem Grund auch immer) recht gute Einblicke in die Terminplannungen bei ATI und NVIDIA. Es gibt Vermutungen das er Beziehungen zu TSMC hat.
Exxtreme
2003-04-28, 20:45:57
Hm.... für mich klingt das Ganze wie eine FUD-Kampagne...
Salvee
2003-04-28, 20:48:15
Originally posted by Eusti
Ja, dieser "MuFu" hat HIER (http://www.rage3d.com/board/showthread.php?s=&postid=1331917137#post1331917145) so eine Andeutung gemacht.
Wer ist eigendlich dieser "MuFu"? Muss man den kennen?
MuFu hat schon einen ganz guten Draht in die ATi-Entwicklungsabteilung (oder zur Chipfoundry), scheint dort aber nicht selbst beschäftigt zu sein.
Er war damals der erste, der wusste, dass R300 8 Pipelines hat, 256Bit Speicherinterface und in 0,15µ mehr als 300MHz schafft.
Bis jetzt sind seine Voraussagen ziemlich/sehr zuverlässig.
Edit: Demi war schneller
duckofdeath
2003-04-28, 20:51:41
weiß aber irgendjemand warum der r400 ausfällt
Birdman
2003-04-28, 21:13:46
Originally posted by Eusti
Also, wenn der R400 tatsächlich ausfällt weil ATI das nicht gebacken bekommt, dann hatten wir vor Monaten schon den richtigen Riecher. Ich quote mich mal selber aus diesen Thread: (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=725821&#post725821)
hehe, genau das habe ich mir auch schon überlegt.... R100 = Flop, R200=Flop, Flipper = Top, R300 = Top
p.s. nicht falsch verstehen, R100 und vor allem der R200 sind keine wirklich schlechten Chips, konnten aber gegen die Nvidia Käfer zu deren Zeit nicht bestehen, ausser mit dem deutlich günstigeren Preis.
Demirug
2003-04-28, 21:23:19
Originally posted by duckofdeath
weiß aber irgendjemand warum der r400 ausfällt
Das weiss wohl nur ATI. Es gibt aber eigentlich nur zwei möglichkeiten.
1. TSMC ist derzeit nicht in der Lage diesen Chip mit brauchbarem Yield zu produzieren
2. Das komplett neue Design für VS und PS 3.0 hat sich als leider nicht so richtig schnell beim Einsatz von älteren Technologien herausgestellt.
oder ein bischen was von beiden
Demirug
2003-04-28, 21:24:38
Originally posted by betareverse
Ich quote mich auch mal aus diesem Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=63045&perpage=20&pagenumber=1)
Und genau so wird es kommen. Von der Basis her ist die R300-Achrichtektur sicherlicher bis mindestens 550Mhz zu gebrauchen. Wieso sollte ATI da viel ändern, wenn das Stück so gut skaliert? Die nächste echte Genration kann imho warten, denn wer braucht schon in naher Zukunft wirklich einen PS nach 3.0?
Die Entwickler weil die immer was zum spielen wollen. ;)
seahawk
2003-04-28, 22:07:19
Vor dem Herbst wird es nichts anderes als den R350 geben. Die müssen mit Loci ja bis Ende 2004 durchhalten.
Ich glaube allerdings wie Tarkin und Nagus, dass ATI den NV35 kontern können wird.
Spannend wird es Anfang 2004, wenn NV den NV40 dann bringt haben Sie Chancen weite Teile von 2004 Leistungsführer zu sein. Duch Ihre Kooperation mit IBM sollten sie bei der Fertigung einen Vorteil haben. Man muss bedenken, dass die Designteams von NV wahrscheinlich noch ziemlich in dem Rhytmus arbeiten, der ohne die Verzögerung des NV30 geplant war. Also dürfte NV40 Anfang 2004 möglich sein. (Evtl. auch Weihnachten 2003)
Ist es wirklich denkbar, dass das "schlechtere" Designteam bei ATI nicht in der Lage war einen R400 zu entwicklen, der einem geshrinktem R300 überlegen ist ?? Dürfte der R500 also wieder von den R300 Entwicklern stammen ??
Demirug
2003-04-28, 22:19:12
seahawk, ich glaube nicht das es am Designteam lag (angeblich machen die ja jetzt aus dem R400 den R500) sondern das man die Entwicklung bezüglich des möglichen bei TSMC und die Entwicklung beim RAM überschätzt hat.
Grössere Designwechsel für neue Technologien führen ja oft erstmal dazu das bei gleichem Takt weniger Leistung zu erreichen ist und das könnte ATI zum Verhängniss geworden sein.
Demirug
2003-04-28, 22:31:32
ähm nagus warum quotes du mich und vorallem diesen Posts?
nagus
2003-04-28, 22:33:36
Originally posted by Demirug
ähm nagus warum quotes du mich und vorallem diesen Posts?
das frage ich mich auch im augenblick. da hab ich mich wohl verklickst ;)
Originally posted by nagus
... oder aber ati hat gesehen, dass einfach kein R400 notwendig ist um gegen nvidias`s NV35 bestehen zu können...
ATi leistet sich ein komplett eigenes Hellseher-Team?
Nicht schlecht.:D
imo sollten die sich aber auf andere Dinge konzentrieren.
nagus
2003-04-28, 22:44:19
Originally posted by ow
ATi leistet sich ein komplett eigenes Hellseher-Team?
Nicht schlecht.:D
imo sollten die sich aber auf andere Dinge konzentrieren.
ich glaube einen umstieg auf 256bit interface und den resultierenden geschwindigkeitsgewinn kann man sich ~ ausrechnen. da brauch ich, oder ATI, kein hellseher zu sein
Originally posted by nagus
ich glaube einen umstieg auf 256bit interface und den resultierenden geschwindigkeitsgewinn kann man sich ~ ausrechnen. da brauch ich, oder ATI, kein hellseher zu sein
Der geplante R400 war aber nie als NV35-Konkurrenz gedacht.
Demirug
2003-04-28, 22:50:48
Originally posted by Xmas
Der geplante R400 war aber nie als NV35-Konkurrenz gedacht.
Ja R400 war wohl gegen NV40 gerichtet.
Der Kampf um die 3.0 Shader?!?
nagus
2003-04-28, 22:53:13
Originally posted by Xmas
Der geplante R400 war aber nie als NV35-Konkurrenz gedacht.
irgwndie schon denke ich. der zeit voraus und Nvidia kann dann mit der NV40 erst wieder viel später nach... aber das brauchen sie eben jetzt nicht unbedingt, weil LOCI auch sehr schnell ist bzw, sein kann...
vielleicht ists ja doch ne multi-chip lösung. SAU teuer, aber eben auch sau schnell... keine, ahnung abwarten und tee trinken
betasilie
2003-04-28, 22:53:25
Originally posted by Xmas
Der geplante R400 war aber nie als NV35-Konkurrenz gedacht.
Aber es schien anfangs so, als ob sie zum gleichen Zeitpunkt auf den Markt kommen.
Originally posted by betareverse
Aber es schien anfangs so, als ob sie zum gleichen Zeitpunkt auf den Markt kommen.
Also mir schien das nie so.
Unterschätzt mal nicht die Entwicklungsdauer von Chips. Der NV35 hatte sicher von vornherein keinen groß abweichenden Zeitplan als den der sich jetzt abzeichnet. IMO ist er sogar verspätet und hätte nach ursprünglicher Planung im Frühling kommen sollen. Spätestens im Sommer ist die Karte zu haben wenn alles glatt läuft. Das war für den R400 nie zu erwarten.
betasilie
2003-04-28, 23:16:42
Originally posted by Xmas
Also mir schien das nie so.
Unterschätzt mal nicht die Entwicklungsdauer von Chips. Der NV35 hatte sicher von vornherein keinen groß abweichenden Zeitplan als den der sich jetzt abzeichnet. IMO ist er sogar verspätet und hätte nach ursprünglicher Planung im Frühling kommen sollen. Spätestens im Sommer ist die Karte zu haben wenn alles glatt läuft. Das war für den R400 nie zu erwarten.
Wenn man sich anguckt wann die ersten R300-Karten ausgeliefert wurden und rechnet ein Jahr drauf, kommt man schon in die zeitlichen Regionen des NV35-Release. Hinzu kommt noch die starke Verspätung des NV30, da geht man dann nicht von aus, dass der NV35 pünktlich kommt, auch wenn die Verzögerung beim NV30 sicherlich nicht alleine NVs Schuld ist.
Der Hauptgrund meiner Einschätzung lag aber nach der Entäuschung bzgl. des NV30 darin begründet, dass NV den NV35 zwar nicht komplett redesignen muss, aber mit einem einfachem update wird es beim NV35 auch nicht getan sein. ;)
Demirug
2003-04-28, 23:28:25
Originally posted by betareverse
Der Hauptgrund meiner Einschätzung lag aber nach der Entäuschung bzgl. des NV30 darin begründet, dass NV den NV35 zwar nicht komplett redesignen muss, aber mit einem einfachem update wird es beim NV35 auch nicht getan sein. ;)
Ich könnte ja jetzt eine ganz gewagte These aufstellen und tue das auch.
Der NV30 musste verkrüppelt werden weil man Transitoren einsparen und die Leistungsaufnahme reduzieren musste. Beim NV35 wird einfach wieder auf den ursprünglichen Plan zurückgegangen.
betasilie
2003-04-28, 23:42:28
Originally posted by Demirug
Ich könnte ja jetzt eine ganz gewagte These aufstellen und tue das auch.
Der NV30 musste verkrüppelt werden weil man Transitoren einsparen und die Leistungsaufnahme reduzieren musste. Beim NV35 wird einfach wieder auf den ursprünglichen Plan zurückgegangen.
Würde mich freuen, wenn das so wäre. =) Ein schelles Stück Silizium ist glaube ich jedem hier willkommen.
Allerdings spricht gegen diese These, dass der NV30 sein Tapeout recht früh hatte.
Richthofen
2003-04-29, 01:14:04
Recht früh?
Er hatte ziemlich viele. Das konntest sogar bei den Investor Conference Calls raushören. Die hatten da des öfteren nette Ausgaben für Tape Outs durchs Jahr 2003.
Was Demi sagt ist nicht so unwahrscheinlich. Geplant waren ein gut funktionierende 0.13 Prozess und low-k.
Im Februar 2002 soll das erste Tape Out gewesen sein.
Ergebnis: nix lief.
Das Ganze zog sich bis November als dann das finale kam.
Die haben die ganze Zeit an dem Chip rumgedoktort und 0.13 ist nach wie vor beschissen und low-k nicht verfügbar.
Es ist nicht so abwegig, dass beim NV30 einiges im Argen ist, wobei ich mir nicht sicher bin ob Dinge weggelassen wurden oder aber enthalten sind und einfach deaktiviert bzw. durch weglassen weniger Transistoren verkrüppelt.
Schaun mer mal. In 3 Wochen sollte man mehr wissen.
betasilie
2003-04-29, 01:22:01
Originally posted by Richthofen
Recht früh?
Er hatte ziemlich viele. Das konntest sogar bei den Investor Conference Calls raushören. Die hatten da des öfteren nette Ausgaben für Tape Outs durchs Jahr 2003.
Was Demi sagt ist nicht so unwahrscheinlich. Geplant waren ein gut funktionierende 0.13 Prozess und low-k.
Im Februar 2002 soll das erste Tape Out gewesen sein.
Ergebnis: nix lief.
Das Ganze zog sich bis November als dann das finale kam.
Die haben die ganze Zeit an dem Chip rumgedoktort und 0.13 ist nach wie vor beschissen und low-k nicht verfügbar.
Es ist nicht so abwegig, dass beim NV30 einiges im Argen ist, wobei ich mir nicht sicher bin ob Dinge weggelassen wurden oder aber enthalten sind und einfach deaktiviert bzw. durch weglassen weniger Transistoren verkrüppelt.
Schaun mer mal. In 3 Wochen sollte man mehr wissen.
So wird´s wahrscheinlich sein, aber offiziell war das finale Tapeout im 1. Quartal 2002.
Salvee
2003-04-29, 06:04:39
Vielleicht ist neben eventuellen fertigungstechnischen Gründen auch die noch sehr junge Kooperation zwischen ATi und Cadence ( Link (http://www.eetimes.com/story/OEG20030421S0031) )
ein Grund für das Verwerfen bzw. Weiterentwickeln des R400 zum R500.
Um die Vorteile des 'flows' nutzen zu können, muss das bisherige R400 Design umgeworfen werden, und bei der Gelegenheit wird es
auch gleich aufgebohrt und für den 0,09µ Prozess optimiert.
nVidia ist bei Cadence ja schon länger im Boot, dieser Zusammenarbeit entspringt wahrscheinlich auch das modulare NV30 Design,
dass es so bislang bei ATi nicht gegeben hat.
seahawk
2003-04-29, 08:47:01
Originally posted by Demirug
Ich könnte ja jetzt eine ganz gewagte These aufstellen und tue das auch.
Der NV30 musste verkrüppelt werden weil man Transitoren einsparen und die Leistungsaufnahme reduzieren musste. Beim NV35 wird einfach wieder auf den ursprünglichen Plan zurückgegangen.
Dieser Meinung bin ich auch.
R400 gegen NV35 war auch nie zu erwarten. NV35 ist zwar verzögert, aber er sollte sicher nie im Herbst 2003 kommen.
Normal wäre gewesen :
NV30 : Herbst 2002
NV35 : Früjahr 2003
NV40 : Herbst 2003
Durch das NV30 Desaster (Fertigung etc.) sind Verschiebungen unvermeidbar gewesen. 0,13 Prozess läuft schlechter als erwartet bei TSMC. NV 30 ist mindestens 6 Monate spät und wahrscheinlich ein ziemlich verkrüppelter Chip. NV35 ist ca. 2 Monate zu spät, hauptsächlich wegen der Verzögerung beim NV30, da beide sonst zeitgleich wären.
NV40 wird spannend. Ich sehe ihn Ende 2003/Anfang 2004. Gefertigt wahrscheinlich bei IBM. Fertigunstechnisch wahrscheinlich ein Vorteil. Das Design müßt gut im Zeitplan liegen.
Ich vermute ATI hat mit dem R400 das erlebt, was auch NV mit dem NV30 passiert ist. Sie haben ein Design entwickelt, dass bestimmte Fertigungstechniken benötigt um zu funktionieren. Sie haben allerdings frühzeitig erkannt, dass diese nicht zur Verfügung stehen werden. Glücklicherweise ist im R300 Core noch soviel Wachstumspotential, dass sie auf den R400 verzichten können und direkt zum R500 springen.
IMO ist dies trotzdem die Chance von NV mit dem NV40 wieder an die Spitze zugelangen.
Die Cooperation mit IBM könnte sich als sehr wertvoll erweisen ...
Originally posted by nagus
ich glaube einen umstieg auf 256bit interface und den resultierenden geschwindigkeitsgewinn kann man sich ~ ausrechnen. da brauch ich, oder ATI, kein hellseher zu sein
ich weiss nicht, was du da ausrechnen willst. von dem R300 auf den NV3x zu schliessen wird wohl nicht so einfach hinhauen. insbesondere sind auch die Takte nicht endgueltig festgelegt.
und lt. c't ist der NV35 bei gleichen Takten (allerdings reduzierten Takten, da pre-sample, 250MHz) mehr als doppelt so schnell wie der NV30, bezogen auf 4xAA/8xAF (iirc).
ShadowXX
2003-04-29, 10:06:45
Jungs, Jungs, Jungs (falls auch Mädels anwesend sind, sorry), Ihr seid ja schon wieder im "nv ist göttlich Wahn".
Scheinbar glauben inzwischen alle das der nv35 der "Überchip" (mal wieder, siehe auch postings vor erscheinen des nv30's) wird.
Auch diesmal lassen sich die (meist hochintelligenten) Forumsmitglieder (speziell die die nv sowieso nicht abgeneigt sind, aber auch ein paar von denen die "diesmal" ATI gekauft haben) von der PR von nv einlullen....schon mal überlegt das nv (ati natürlich auch) gezielt Benches & Gerüchte in die Welt setzt, nur damit die Leute auf die nv35 warten, bzw. den nv30 vergessen (inzwischen geben Sie ja sogar offen zu das der nv30 nicht das nonplusultra war).
Und das hat nv ja nun erreicht....es geht hier im Thread um Atis's Loki und geredet wird zum grössten Teil darüber wie toll der nv35 ist, der nv30 ja eigentlich super und nur deshalb nicht so toll, weil weil nv wegen der Volltrottel bei TSMC den Chip "verschlechtern" musste....
Lasst uns erst "echtere" Test des nv35 sehen, um dann sagen zu können: ja, diesmal erzählt nv keine Märchen (bzw. sind mal dichter an der Wahrheit als sonst).
Wobei man sagen muss das auch Ati PR-Maschiene ziemlich gut geölt ist....den r350(der sehr wahrscheinlich ein r300 + 5 Transitoren ist) als die-shrink ( + 5 Transitoren mehr) nochmal als 390 und 420 zu verkaufen ist wirklich nicht schlecht. Hat was von Kühlschränken am Südpol.....
J.S.Shadow
P.S.
ich muss sagen das nv PR wirklich gut Arbeitet....eigentlich wollte ich mir erstmal nur noch Atis kaufen (nv30 debakel, wobei mich mehr die Lautsprecher-PR als die schlechte Leistung gestört hat, hatte vorher nur 3dfx bzw. nv ) aber durch die nv35 Gerüchte bin ich jetzt doch plötzlich interessiert.....mal sehen was der Chip kann....
Richthofen
2003-04-29, 10:27:51
ne um den NV35 gehts mir hier gar nicht aber ich weiger mich zu glauben, dass ATI mal eben mir nichts dir nichts DAS Design der letzten Jahre verschiebt, nach dem Motto - och für den ollen NV35 wirds schon reichen.
Sorry aber das glaub ich einfach nicht. Das mag uns ATI im Zuge der ohnehin geplanten Technologiezyklusverlängerung zu verklickern aber die Tatsache das TSMC einen absolut lausigen 0.13 Prozess nach wie vor liefert, nicht genügend Kapazitäten hat, kein low-k liefern kann und der R400 deutlich mehr als 130 Mio Transistoren haben sollte, riecht mir eher nach einem Fertigungsproblem.
Ich bin fest davon überzeugt, dass der R400 momentan schlicht und ergreifend nicht machbar ist. Ich hatte mal was von 180 Mio Transistoren gehört. Obs stimmt keine Ahnung. Aber deutlich mehr als der NV35 sollte es schon sein. War ja schliesslich aus ATIs Sicht wieder ein Neudesign.
Das ist doch sehr wahrscheinlich. Ich meine Nvidia verlegt ja seinen NV40 auch nicht so ganz ohne Grund zu einer anderen Foundry. Wenn sie confident wären, dass es bei TSMC machbar ist wären sie bei TSMC geblieben. Ich glaube die hätten ein ähnliches Problem mit dem NV40 bei TSMC.
Da sie nicht das selbe erleben wollten wie Nvidia mit dem NV30 haben sie wohl rechtzeitig das ganze gestrichen und schlachten nun das Design aus und verwenden weite Teile davon im R500.
Jetzt müssen sie allerdings mit dem R300 Core leben und diesen aufblähen. Nun das sollte machbar sein. Ob das dann reicht für die Konkurenz, ich glaube das wissen sie selber nicht aber es ist immer besser etwas zu haben, als gar nix zu haben.
Aber nur weil man jetzt durch neue Technik die Möglichkeit hat alte Dinge weiterzuverwenden und weil man den Technologiezyklus verlängert zu sagen och wir schenken uns den R400, der R300 wird reichen - sorry aber das ist mir zu einfach. So eine Entscheidung trifft vielleicht mal ein Unternehmen wie Intel mit 80% Marktanteil aber sicher nicht ein Unternehmen wie ATI mit 19 % Marktanteil und so gut wie keinen Gewinnen. Das wäre im höchsten Maße fahrlässig So blöd sind die nicht. Das ist eher der Weg wie sie es den Analysten vermitteln wollen und der Presse. Hat Nvidia ja auch gemacht bzw. machen alle Unternehmen so. Die Streichung bzw. Umlagerung auf den R500 bringt ja nicht eine Verzögerung von ein paar wenigen Monaten sondern dürfte eher im Bereich von mind. 1 Jahr liegen.
BTW hier die neue Statistik bzw. der Report von Mercury Research zu den Marktanteilen bei 3D CHips:
http://www.globeandmail.com/servlet/story/RTGAM.20030428.watii428/BNStory/Technology/
seahawk
2003-04-29, 11:09:15
Hier glaubt keiner an den Überchip NV35. Allerdings dürfte es genauso falsch sein zu glauben, dass der NV35 oder gar der NV40 unter den (allen) Problemen des NV30 leiden wird.
NV40 ist im 1Q 2004 zu erwarten. Das dürfte der erste Chip aus der Kooperation mit IBM werden. Fertigungstechnisch wahrscheinlich ein Vorteil.
Ist ist gewagt aus dem NV30 zu folgern, dass NV nicht in der Lage ist einen Chip zu bringen der ATI deutlich schlägt. (Ist ATI umgekehrt mit dem R300 ja auch gelungen)
ATI wird wahrscheinlich gezwungen sein einen großen Teil von 2004 mit Loki gegen den NV40 anzutreten.
Würden beide noch mit TSMC arbeiten würde ich sagen, dass dies kein Problem sein sollte. (Beide durch die Probleme bei TSMC gehandicapt) NV hat aber eine neue Foundry. Das ist eine Chance. Nicht mehr aber auch nicht weniger. Und wenn ATI glaubt einzuschätzen zu können, dass ein 0,13 R300 ausreicht um den NV40 zu schlagen, dannn sind sie ziemlich arrogant. (wenn NV40 bei IBM gefertigt wird)
Richthofen
2003-04-29, 15:10:52
und genau so arrogant sind sie nicht. Das sind allenfalls die Fanboys bei Rage3d aber ATI sicher nicht.
Ein Unternehmen, dass nach wie vor in rauhen Fahrwassern schwimmt und keinerlei Polster hat in der Bilanz und nach wie vor auch der Underdog ist leistet sich nicht solche Entscheidungen so mir nichts dir nichts.
Das ist einfach Blödsinn. Wenn der R400 machbar wäre und sinnvoll wäre, hätten sie ihn on schedule gelassen.
Irgendwas hat dort nicht geklappt oder ist nicht so erfreulich gewesen wie erwartet und deshalb haben sie das ganze gestrichen und Teile nun in das R500 Projekt hineinverlagert.
Aber sicher nicht, weil sie sich auf der sicheren Seite wähnen durch den R300.
So eine Strategie passt nicht in ein Unternehmen, dass sich festsetzen will und Marktanteile gewinnen möchte.
Nach dem letzte Report von Mercury ist ihnen ja auch das nicht nennenswert gelungen. Der Grund dürfte allen klar sein -> Lieferprobleme. Dieser Umstand wird auch nicht besser werden, da TSMC weder für Nvidia beim NV31 noch für ATI beim RV350 das liefern kann was benöigt wird.
In so einer Situation so ein Projekt so mir nichts dir nichts komplett streichen - ne sorry das ist mir zu billig.
robbitop
2003-04-29, 15:29:15
ATi hat ein hervoragendes Thermishces Design entwickelt. Die Leute haben es einfach drauf, Leckströme, zu "killen" ;)
Ich denke ein 0,13µ R300 dürfte sich sehr einfach mit standardkühler bis 550 wenn optimiert 600Mhz bringen lassen.
ABer nVidia scheint auf diesem Gebiet auch etwas getan zu haben....
Jedoch wird der R420, sollte er VS/PS 3.0 beherrschen auch viel Arbeit für ATi bedeuten, da man die Shadereinheiten fast komplett redesignen müsste.
BlackBirdSR
2003-04-29, 15:43:09
Originally posted by robbitop
ATi hat ein hervoragendes Thermishces Design entwickelt. Die Leute haben es einfach drauf, Leckströme, zu "killen" ;)
Ich denke ein 0,13µ R300 dürfte sich sehr einfach mit standardkühler bis 550 wenn optimiert 600Mhz bringen lassen.
ABer nVidia scheint auf diesem Gebiet auch etwas getan zu haben....
Jedoch wird der R420, sollte er VS/PS 3.0 beherrschen auch viel Arbeit für ATi bedeuten, da man die Shadereinheiten fast komplett redesignen müsste.
ich habe bis auf 3dcenter, noch nirgends im Web eine Andeutung gelesen, die R420 würde PS und VS 3.0 unterstützen. Irgendwie glaube ich nicht daran.
Wenn wir davon ausegen, dass die original R400 Shader nach Version3 genutzt hätte, warum ist sie dann verzögert worden? Kann man einfach die R300 hernehmen und sagen: so dann bauen wir die Shader eben da ein?
Ich glaube die Zeit ist noch nicht reif für nochmal erweiterte Shader. Selbst Intel ist mit SSE nicht so schnell im Neuauflegen :)
DrFreaK666
2003-04-29, 15:45:55
ATI kann die R300-reihe ja noch weiter ausbauen, oder?? Also mehr Vertex-Einheiten zum Beispiel implementieren. Das dürfte auch noch mehr Performance bringen.
Die Performance des NV35 könnten sie erreichen, aber für den NV40 wirds eng. Wenn die Performance auch nur annähernd erreichbar wäre, dann hätte Nvidia trotzdem PS & VS 3.0 als Verkaufsargument, und zwar ganz alleine. Und Nvidia wird mit dem NV40 die Performance mit AA und AF erheblich verbessern (schätze ich mal). Da reicht der R300 bestimmt nicht mehr heran.
Naja, abwarten...
robbitop
2003-04-29, 15:48:42
mehr VertexEinheiten?? Wozu?
der Geometriedatendurchsatz ist im Moment nicht limitierende Komponente. Selbst mit einem oder 2 Vertexshader scheint das kaum einen Unterschied im Endergebnis zu machen.
Wichtig ist effektive Nutzung der Füllrate/Bandbreite und steigerung dessen ;)
DrFreaK666
2003-04-29, 15:54:45
Originally posted by robbitop
mehr VertexEinheiten?? Wozu?
der Geometriedatendurchsatz ist im Moment nicht limitierende Komponente. Selbst mit einem oder 2 Vertexshader scheint das kaum einen Unterschied im Endergebnis zu machen.
Wichtig ist effektive Nutzung der Füllrate/Bandbreite und steigerung dessen ;)
Naja, kenne mich mit Harware nicht gut aus. War halt so ne Idee von mir. :D
Der R400 ist IMHO auch überhaupt nicht nötig. ATI hat mit dem R300 ein sehr schnelles Design, ein wesentlich effizienteres als NV besitzt. Jetzt gilt es dieses zu melken bis nix mehr geht. ATI überlässt NV die Technologieführung quasi kampflos. Ist die Frage: wer fährt womit besser?
Nun ja, ich denke, das liegt auf der Hand. NV stösst unweigerlich an die Grenzen des fertigungstechnisch machbaren.
Sagen wir, der R390 ist ein shrink auf 130nm und der R420 ist ein shrink auf 130 oder gar 90nm mit einer weiteren TMU pro Pipe.
Der Chip ist zwar auf DX9 minimalconfig angesiedelt, aber was solls!
Geht irgendjemand davon aus, dass PS/VS 3.0 von irgendwem komerziell genutzt werden? bestimmt net. Weder dieses noch nächstes Jahr.
Ich denke, dass der PS/VS3.0 niemals eine wirkliche Rolle spielen wird. Und zwar deshalb, weil es keine neue DX Version gibt!
Das mag jetzt unlogisch klingen, aber man verkaufte Grakas von je her nach ihrer DX Fähigkeit.
Ein R300 ist ebenso DX9 fähig wie ein NV40. Darum gehts im Endeffekt. Wenn ATI es nun schafft, wesentlich schnellere Chips auf bewährter R300 Technologie aufzubauen, als NV dies mit PS/VS3.0 Technologie schafft, so wird ATI im Markt beliebter sein. Im Endeffekt geht es nicht unbedingt um die Technologieführung, sondern um Speed, und hier ist ATI eindeutig im Vorteil, da sich NV hier mit den neuen Designs total verzettelt hat.
Wenn DX10 kommt, will ATI mit einem ganz firschen Design zur Stelle sein, ich denke, dass sie DX10 im grossen Masse mitbestimmen wollen. Somit hat ATI sein ganzes Engagement auf DX10 konzentriert und lässt die R390/420 nur refreschen. Die Entschiedung ist meiner Meinung nach sehr überlegt von ATI ;)
betasilie
2003-04-29, 17:48:03
Originally posted by HOT
Der R400 ist IMHO auch überhaupt nicht nötig. ATI hat mit dem R300 ein sehr schnelles Design, ein wesentlich effizienteres als NV besitzt. Jetzt gilt es dieses zu melken bis nix mehr geht. ATI überlässt NV die Technologieführung quasi kampflos. Ist die Frage: wer fährt womit besser?
Nun ja, ich denke, das liegt auf der Hand. NV stösst unweigerlich an die Grenzen des fertigungstechnisch machbaren.
Sagen wir, der R390 ist ein shrink auf 130nm und der R420 ist ein shrink auf 130 oder gar 90nm mit einer weiteren TMU pro Pipe.
Der Chip ist zwar auf DX9 minimalconfig angesiedelt, aber was solls!
Geht irgendjemand davon aus, dass PS/VS 3.0 von irgendwem komerziell genutzt werden? bestimmt net. Weder dieses noch nächstes Jahr.
Ich denke, dass der PS/VS3.0 niemals eine wirkliche Rolle spielen wird. Und zwar deshalb, weil es keine neue DX Version gibt!
Das mag jetzt unlogisch klingen, aber man verkaufte Grakas von je her nach ihrer DX Fähigkeit.
Ein R300 ist ebenso DX9 fähig wie ein NV40. Darum gehts im Endeffekt. Wenn ATI es nun schafft, wesentlich schnellere Chips auf bewährter R300 Technologie aufzubauen, als NV dies mit PS/VS3.0 Technologie schafft, so wird ATI im Markt beliebter sein. Im Endeffekt geht es nicht unbedingt um die Technologieführung, sondern um Speed, und hier ist ATI eindeutig im Vorteil, da sich NV hier mit den neuen Designs total verzettelt hat.
Wenn DX10 kommt, will ATI mit einem ganz firschen Design zur Stelle sein, ich denke, dass sie DX10 im grossen Masse mitbestimmen wollen. Somit hat ATI sein ganzes Engagement auf DX10 konzentriert und lässt die R390/420 nur refreschen. Die Entschiedung ist meiner Meinung nach sehr überlegt von ATI ;)
Full Ack. Allerdings muss der "R400-Nachfolger" nicht unbedingt ein DX10-Chip sein. ;)
Demirug
2003-04-29, 18:02:41
HOT, natürlich braucht kein Gamer in den nächsten 12-24 Monaten Shader 3.0 aber die Entwickler wollen es haben und wenn ATI auf lange Sicht keine entsprechende Hardware liefern wird verspielen sie wieder einiges an Reputation die sie sich gerade mühsam aufbauen.
natürlich könnte ATI schon jetzt versuchen für eine möglcihes DX10 zu planen nur müssen sie dann trozdem die 3.0 Shader unterstüzen den wenn NVIDIA diese Technologie so wie die 2.0 Shader breitflächig in den Markt setzt ist die Basis zu gross als das sie von den Entwicklern ignoriert würde.
Zudem würde NVIDIA in einem solchen Fall schon im Vorfeld versuchen die entwickler dazu zu bewegen einzelne 3.0 Effekte einzubauen die dann auf ATI Hardware lange nicht zur Anzeige komme.
Bei den vielen unbekannten ist es aber relative schwer genau vorrauszusagen was passieren wird.
micki
2003-04-29, 18:32:01
es wird wohl noch lange dauern bis dx10, deswegen sind shader 3.0 schon drinne.. und in späteren releases (9.x) werden vielleicht weitere dazu kommen, aber dx10 soll es aus microsofts sicht nicht so schnell geben.
ATI hat deswegen momentan die nase vorn, weil sie "nur" 96 bit unterstützen, und das ist auch extrem "smart" gewesen, wie ich finde. denn anstatt immer die verdoppelungslösung zu wählen (16bit reicht nicht,32bit muss her... 64bit float reicht nicht, wir müssen 128bit haben) haben sie einen kompromiss geschlosssen, der ihnen sehr viele vorteile bringt. wenn man sich überlegt, dass gerade die bereiche, die performance brauchen (shaderinstruktionen, weil die immer in einem takt ausgeführt werden sollen) sich auf kürzere latenzen freuen dürfen (weil bei den meißten operationen alle bits zusammenhängen und nicht jeder für sich abgearbeitet werden kann wie bei z.B. xor, ergibt 24bit pro float ne kürzere latenz als 32)
außerdem kann man sich zudem noch 16bit float sparen, weil es nicht superviel im vergleich zu 24 an performance bringen sollte, da die befehle eh pro takt ausgeführt werden sollten.
ich frage mich nur, wieso die r300 quasi gleich viele transistoren hat wie die NV30, sollten die nicht wegen 24mill viel weniger haben und somit viel höcher zu takten sein im 0.15 prozess?
oder verschweigt ATI das? *g*
MfG
micki
seahawk
2003-04-29, 18:48:00
Originally posted by HOT
Der R400 ist IMHO auch überhaupt nicht nötig. ATI hat mit dem R300 ein sehr schnelles Design, ein wesentlich effizienteres als NV besitzt. Jetzt gilt es dieses zu melken bis nix mehr geht. ATI überlässt NV die Technologieführung quasi kampflos. Ist die Frage: wer fährt womit besser?
Nun ja, das stimmt aber nur so lange wie NV keine Schritt nach vorne macht. Der NV30 ist ineffizient, aber ich vermute immernoch, dass der wegen thermischer Probleme stark eingeschränkt ist. Das muss mit dem NV35 nicht so sein und schon gar nicht mit dem NV40.
Das mit PS 3.0 ist kein Argument - wer braucht heute DX 9 ? Und vom Releasedatum der R300 wird man es 12-18 Monate nicht gebraucht haben.
PS 3.0 ist aber in DX9. Wie schwierig ist es PS 2.0 und 3.0 zu berücksichtigen und PS 3.0 einfach mehr Effekte darstellen zu lassen ?? Ich weiß es nicht ...
Ob NV wieder Probleme mit der neuen Fertigungstechnik hat wird man sehen. Durch den Deal mit IBM sind sie von TSMC unabhängig. Es ist also möglich, dass ATI den ersten komplexen 0,09 Chip bei TSMC fertigen läst. Vielleicht habe die dann die gleichen Probleme wie NV mit dem NV30.
Ich denke ATI hat den R400 aus technischen Gründen fallen lassen. Da auch NV die foundry gewechselt hat (IBM) vermute ich, dass der 0,13 Prozess bei TSMC noch sehr schlecht läuft. (Verfügbarkeit 5600, 9600, 5800 spricht dafür) Sie haben wahrscheinlich erkannt, das was der R400 sollte mehr Transistoren, low-k, was auch immer, nicht möglich ist. Dadurch wäre aus dem R400 möglichwerweise eine Art NV30 geworden. Das hat ATI sinniger Weise verhindert und sich auf weitere R300 Refrehvarianten verlegt. Dafür muss man sie loben.
Trotzdem ist die Chance für NV gut ATI zu überholen.
robbitop
2003-04-29, 19:09:12
auf Seijin (www.seijin.de) hab ich in den news alles zum Projekt Loci, was ich finden konnte und ein paar Kommentare unsererseits gebracht.
egdusp
2003-04-29, 23:23:20
@ Demi (und alle anderen schlauen Leute)
Müssen PS3.0 Effekte extra geschrieben werden und sind PS2.0 nicht ausführbar? Oder Evtl. nur in mehreren Passes?
Haben PS3.0 einen Geschwindigkeitsvorteil bei PS2.0 Code (z.B. weniger Passes, etc...)?
Ist in den Hochsprachen eine automatische PS2.0 - PS3.0 Konvertierung enthalten, in dem Sinne, dass der C-Code gleich aussieht, nur unterschiedlich compiliert wird. AFAIK soll ja sogar der DX8 und DX9 Code bei Cg gleich aussehen (aber da kann ich michauch täuschen).
mfg
egdusp
egdusp
2003-04-29, 23:28:27
Originally posted by robbitop
auf Seijin (www.seijin.de) hab ich in den news alles zum Projekt Loci, was ich finden konnte und ein paar Kommentare unsererseits gebracht.
Nichts für ungut, aber bei GPU Rumorwatch steht ausdrücklich, dass R390=R420 kein PS3.0 unterstützt. Evtl. steht das ja im Orginalthread auf B3D, nur leider verlinkt er mich auf die Loginseite, und ich habe keinen Benutzernamen (bzw. das zugehörige Passwort vergessen und komm da nicht rein).
Um diesen Thread geht es: http://www.beyond3d.com/forum/viewtopic.php?t=5560
mfg
egdusp
Demirug
2003-04-29, 23:42:00
Originally posted by egdusp
@ Demi (und alle anderen schlauen Leute)
Müssen PS3.0 Effekte extra geschrieben werden und sind PS2.0 nicht ausführbar? Oder Evtl. nur in mehreren Passes?
Jede Karte die PS 3.0 beherscht muss aufgrund der Shaderregelen bei DX auch PS 2.0 sowie alle PS 2.0+ Shader ausführen können. Wenn man allerdings einen speziellen PS 3.0 Effekt will muss man den natürlich auch extra programmieren. Bestimmte PS 3.0 Operationen sind mit PS 2.0 Hardware technisch (auch mit mehren Passes) nicht möglich.
Haben PS3.0 einen Geschwindigkeitsvorteil bei PS2.0 Code (z.B. weniger Passes, etc...)?
Nein, da PS 2.0 Code immer wie PS 2.0 Code ausgeführt wird. Das zusammenfassen meherer PS 2.0 passes zu einem PS 3.0 Pass ist natürlich möglich erfolgt aber nicht automatisch durch DX oder den Treiber. Das ist eine Aufgabe für die Engine, die Tools oder den Entwickler.
Ist in den Hochsprachen eine automatische PS2.0 - PS3.0 Konvertierung enthalten, in dem Sinne, dass der C-Code gleich aussieht, nur unterschiedlich compiliert wird. AFAIK soll ja sogar der DX8 und DX9 Code bei Cg gleich aussehen (aber da kann ich michauch täuschen).
mfg
egdusp
Ja ein in Hochsprache geschriebener 2.0 Shader läst sich ohne änderung auch als 3.0 Shader compilern aber auch hier gilt wieder das weder DX noch der Treiber so etwas eigenmächtig tun dürfen und multipass zu singlepass konvertierungen erfordern ebenfalls einen eingriff.
Das gleiche gilt in gewisser Weise auch für DX8 Shader welche als DX9 Shader compiliert werden sollen. Da gibt es aber gerade bei den Pixelshader ein paar Einschräkungen.
Teilweise werden diese Themen auch dort http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=68224 und dort
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=67925 behandelt
Ich hoffe mal das ich deine Fragen richtig verstanden habe und du mit den Antworten was anfangen kannst. Ansonsten nochmal nachfragem.
Demirug
2003-04-29, 23:45:24
Originally posted by egdusp
Nichts für ungut, aber bei GPU Rumorwatch steht ausdrücklich, dass R390=R420 kein PS3.0 unterstützt. Evtl. steht das ja im Orginalthread auf B3D, nur leider verlinkt er mich auf die Loginseite, und ich habe keinen Benutzernamen (bzw. das zugehörige Passwort vergessen und komm da nicht rein).
Um diesen Thread geht es: http://www.beyond3d.com/forum/viewtopic.php?t=5560
mfg
egdusp
Den Thread gibt es nicht (mehr).
betasilie
2003-04-29, 23:56:08
Originally posted by seahawk
Nun ja, das stimmt aber nur so lange wie NV keine Schritt nach vorne macht. Der NV30 ist ineffizient, aber ich vermute immernoch, dass der wegen thermischer Probleme stark eingeschränkt ist. Das muss mit dem NV35 nicht so sein und schon gar nicht mit dem NV40.
Da gebe ich dir vollkommen recht, aber wer sagt denn, dass ATI den R400 nicht bloß verschoben hat, um im richtigen Moment zu reagieren?
Ich würde an ATIs Stelle den R400 weiterentwickeln und immer ein paar fast-final-Tapeouts in der Hinterhalt halten. Falls NV was gefährliches auf den Markt bringt, bricht man die Weiterentwicklung des R400 ab und bringt das letzte fast-final-Tapeout schnell auf den finalen Stand. ... Und Zack, ATI hat zum richtigen Zeitpunkt einen Superchip in der Fab.
Demirug
2003-04-30, 00:08:50
beta, vom Tapeout bis zum Verkaufbaren chip braucht man minimum 60 Tage. Dann muss aber wirklich alles perfekt laufen. Man rechnet eher mit mehr als 100 Tage.
Und so einfach mal mitten im Chipdesign aufhören ist eigentlich auch nicht drin wenn am ende nicht der totale Schrott rauskommen soll.
betasilie
2003-04-30, 00:20:35
Originally posted by Demirug
beta, vom Tapeout bis zum Verkaufbaren chip braucht man minimum 60 Tage. Dann muss aber wirklich alles perfekt laufen. Man rechnet eher mit mehr als 100 Tage.
Also 60 Tage wären schon super. Aber lass es mal 90 sein. Wenn dieser Chip dann wirklich wieder besser wäre, als das Gegenstück von NV, wäre die Sache erfolgreich.
Originally posted by Demirug
Und so einfach mal mitten im Chipdesign aufhören ist eigentlich auch nicht drin wenn am ende nicht der totale Schrott rauskommen soll.
Deshalb schrieb ich ja auch, dass ein Vorgehen in Etappen nötig wäre, um nicht mitten in der Entwicklung abbrechen zu müssen. ... Alle 30 Tage ein fast-final Stand erreichen, um im Worstcase max. ca. 15 Tage von einem Final-Tapeout entfernt zu sein.
... Da gilt natürlich nur, wenn ATI die R400 Architektur nicht völlig verworfen hat und auf dieser lediglich weiterentwickelt bis ein Handeln erforderlich ist.
Also eins zeigt der NV30 mehr als deutlich: Er hat 4 Renderpipes und somit auch 4 Pixelshader. ATI schafft es mit 8 von seinen 2.0 Shadern weniger Transistoren und DIE Fläche zu verbraten als NV mit 4.
Wenn NV jett noch weiter geht und noch komplexere Shader in den NV40 implementiert, brauchen die noch mehr DIE Fläche und Transis. Wenn ATI nun bei den 2.0 Shadern bleibt, können sie höher takten und mehr Pipes verbauen.
@ Demi, es mag zwar sein, dass der NV40 für Entwickler interessanter ist, maximum jedoch ist in den meisten fällen der PS/VS 2.0 oder nicht? Es ist nett, dass NV Chips mehr können, aber auf dem Markt kommt das nicht an und bringt keine Vorteile.
M$ wollte doch DX 10 2005 bringen. Es ist wohl nicht unwahrscheinlich, dass es ATI wieder schafft, die minimalanforderungen für DX10 wieder vorm Release von DX10 zu erfüllen. Der R500 soll ja ende 2004/Anfang 2005 erscheinen.
Richthofen
2003-04-30, 00:36:46
da wäre ich mir mal nicht so sicher.
ATI kann eigentlich nicht zulassen, dass Nvidia sich da eine technologische Basis aufbaut und mit CG auch noch dafür sorgt das die genutzt wird.
Das käme dann für ATI Produkte nicht gut an das kanst mir glauben.
Da urteilen die Konsumenten sehr sehr schnell.
ATI kann sich auch nicht mehr darauf verlassen, dass Nvidia wie einst nur in seinem High End bis Upper Mid Range Karten aktuelles Featureset einsetzt. Mit der NV3x Reihe hat Nvidia bereits gezeigt wie schnell sie aus einem Baustein diverse andere machen, die alle auf dem gleichen Featureset aufbauen.
Die Kommentare der Nvidia Führung lassen auch nicht gerade darauf schliessen, dass man wieder zurück zu den alten MX Zeiten will.
Die werden vielmehr diese Karte knallhart ausspielen. Nicht umsonst bringen die ihre Tools und verbreiten diese. Für den NV30 alleine hätt sich das nicht gelohnt. Für die ganze NV3X Reihe und alles was danach kommt und darauf aufsetzt und vorhandenes ausbaut lohnt sich das allemal und ich kann mir ehrlich gesagt nicht vorstellen dass ATI das möchte.
Und kommt mal weg von dem Gedanken der hat 4 Pipes und der 8 und der 16 oder was weiss ich. Dieses System hat beim NV30 in weiten Teilen seine Gültigkeit verloren wie es aussieht und das wird man wohl mit Nachfolgemodellen sehen. Je flexibler die einzelnen Einheiten, desto höher kannst den Auslastungsgrad treiben. Beim NV30 sicher noch nicht optimal aber da bin ich schon zuversichtlich, dass da noch einige Überraschungen kommen.
Und wie Mufu bei rage3d hat verlauten lassen in einem der Threads versucht Nvidia gerade auf der Code Seite sehr viel in nächster Zeit rauszuholen.
Ich zitiere das mal:
"
There's something nV are doing with shader code that is pretty sneaky and gives them a massive boost. I can't go into any more detail because I'll get my balls chopped off, but I'm sure it'll come to light eventually and you die-hard ATi-types will go crazy. Couldn't care less, myself - it's not exactly "cheating", they've just taken game-specific optimisation to a new level. Anyway, we'll see what happens...
"
@Demi hast du eine Ahnung was der hier genau meint?
Riecht nach dem Deto50, der ja angeblich erheblich größer geworden sein soll vom Umfang.
Demirug
2003-04-30, 00:39:28
Originally posted by HOT
Also eins zeigt der NV30 mehr als deutlich: Er hat 4 Renderpipes und somit auch 4 Pixelshader. ATI schafft es mit 8 von seinen 2.0 Shadern weniger Transistoren und DIE Fläche zu verbraten als NV mit 4.
Wenn NV jett noch weiter geht und noch komplexere Shader in den NV40 implementiert, brauchen die noch mehr DIE Fläche und Transis. Wenn ATI nun bei den 2.0 Shadern bleibt, können sie höher takten und mehr Pipes verbauen.
naja die NV30 Pixelshader sind ja auch transitorenfresser mit den zwei IntegerALUs und einer FP-ALU. Die Anzahl der Pixelshader ist nicht wirklich ausschlaggeben. Die Anzahl der ALUs und TMUs spielt da auch noch eine sehr grosse Rolle.
Die 3.0 Vertexshader haben sie ja schon fast im NV30 drin. Da fehlt nicht mehr viel. Bei den Pixelshader ist es noch ein bischen mehr.
@ Demi, es mag zwar sein, dass der NV40 für Entwickler interessanter ist, maximum jedoch ist in den meisten fällen der PS/VS 2.0 oder nicht? Es ist nett, dass NV Chips mehr können, aber auf dem Markt kommt das nicht an und bringt keine Vorteile.
Maximum ist immer das beste was am Markt ist. Allerdings kommen hier noch gewiesse Totzeiten ins Spiel da die Technologieentscheidungen ja recht früh im Projektverlauf getroffen werden müssen. Aber da die 3.0 Shader ja als Papier schon vorliegen ergibt sich die bisher einmalige Situation das man schon für Hardware planen kann die es noch gar nicht gibt. In wie weit die Entwickler das auch ausnutzen können ist aber eine Frage des Bugets.
Viel wichtiger als das maximum ist aber immer die minimale Technologie.
Wie gesagt die Technologiekrone hat mehr etwas mit der Reputation bei den Entwicklern als mit Kundennutzen zu tun. Der Kundennutzen ist lediglich indirekt.
M$ wollte doch DX 10 2005 bringen. Es ist wohl nicht unwahrscheinlich, dass es ATI wieder schafft, die minimalanforderungen für DX10 wieder vorm Release von DX10 zu erfüllen. Der R500 soll ja ende 2004/Anfang 2005 erscheinen.
MS hat bisher lediglich festgelegt: erst Longhorn dann DX10. Termine für DX10 sind also noch sehr ungewiss.
Demirug
2003-04-30, 03:03:30
Ich habe das Thema mit den Shaderoptimierungen mal herausgesplitet: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=68433
DATA_OK
2003-04-30, 09:11:29
Ich hätte da mal ne Frage:
Wenn TSMC nen so schlechten Fertigungsprozess hat, was scheinbar an der geringen Erfahrung liegt.
Wieso geht dann z.B. Ati net mal hin und gibt TSMC den R300 Chip und lässt denn zur Übung mal in 0,13 mit low k fertigen. Und wenn se des dann gut können kriegt TSMC dann den Auftrag. Da kann man ja ne Zielquote vereinbaren. Des dürfte zwar ein paar Leute von Ati binden, aber dies sollte es Ati doch wert sein damit se nachher nen guten Prozess haben.
Und wenn se gleich dabei sind können se auch den 0,09er Prozess antesten lassen.
Und dann sollte es doch in Zukunft bei der Einführung eines möglichen R400/R500 weniger Probleme geben da TSMC dann schon etwas Erfahrung mit dem R300 und damit mit nem komplexen Chip hat.
Das hilft doch allen. Ati weil se nen Chip herstellen können und TSMC weil ihnen die Kunden (wie NV) net wegrennen.
Was denkt ihr?
Gruß
Nen besseren Fertigungsproess als TSMC werden nur Intel und AMD haben ;)
seahawk
2003-04-30, 09:43:07
und IBM ....
Richthofen
2003-04-30, 10:13:13
jo wollt ich grad sagen.
IBM stell ich mit AMD in jedem Fall auf eine Stufe. Die haben des öfteren AMD bereits geholfen.
@DATA_OK
Sowohl Nvidia als auch ATI werden sicher alles versucht haben ihre Chips auf den low-k zu bekommen aber du kanst nicht ewig rumprobieren. Irgendwann musst du was liefern und da diese beiden Firmen auch nicht Mitarbeiterressourcen ohne Ende haben streichen die dann lieber was und setzen die Leute an neue Projekte und versuchen mit dem vorhandenen über die Runden zu kommen.
zeckensack
2003-04-30, 10:52:27
Originally posted by Richthofen
jo wollt ich grad sagen.
IBM stell ich mit AMD in jedem Fall auf eine Stufe. Die haben des öfteren AMD bereits geholfen.
@DATA_OK
Sowohl Nvidia als auch ATI werden sicher alles versucht haben ihre Chips auf den low-k zu bekommen aber du kanst nicht ewig rumprobieren. Irgendwann musst du was liefern und da diese beiden Firmen auch nicht Mitarbeiterressourcen ohne Ende haben streichen die dann lieber was und setzen die Leute an neue Projekte und versuchen mit dem vorhandenen über die Runden zu kommen. Ich glaube da gab es ein paar auch für TSMC völlig unerwartete Hürden.
Der LowK-'Saft' aus dem Hause Dow Chemical soll sich angeblich so ähnlich verhalten wie eine Bananenschale im Sommer. Das hat man aber erst in der realen Anwendung festgestellt :|
(oder war das jetzt doch wieder die IBM-Fab?)
micki
2003-04-30, 10:58:30
Originally posted by zeckensack
Ich glaube da gab es ein paar auch für TSMC völlig unerwartete Hürden.
Der LowK-'Saft' aus dem Hause Dow Chemical soll sich angeblich so ähnlich verhalten wie eine Bananenschale im Sommer. Das hat man aber erst in der realen Anwendung festgestellt :|
(oder war das jetzt doch wieder die IBM-Fab?)
das hab ich auch irgendwo über TSMC gelesen... ist wohl die erfahrung die fehlte.
Mfg
micki
Demirug
2003-04-30, 11:49:47
Originally posted by zeckensack
Ich glaube da gab es ein paar auch für TSMC völlig unerwartete Hürden.
Der LowK-'Saft' aus dem Hause Dow Chemical soll sich angeblich so ähnlich verhalten wie eine Bananenschale im Sommer. Das hat man aber erst in der realen Anwendung festgestellt :|
(oder war das jetzt doch wieder die IBM-Fab?)
Das war IBM die mit Silk (so heist der "Saft" von Dow Chemical) grosse Probleme haben. Dort wurde aber auch gesagt das es zu dem Zeitpunkt als IBM das Zeug gewählt hat kein anderes LowK Material gab. Ob sich das inzwischen geändert hat ist mir aber nicht bekannt.
seahawk
2003-04-30, 11:57:07
Ich habe das verstanden das alle Probleme haben. IBM hat doch irgendetwas anders gehabt ?? Dadurch sollte low-k weniger wichtig werden.
Richthofen
2003-04-30, 12:44:45
ja IBM hat andere Materialien. Low-k wurde auch dort irgendwie gedroppt.
In diesem Sinne bin ich wirklich auf den ersten IBM fabbed NV Chip gespannt. Wird wohl der NV40 sein.
Da kann man gut mit TSMC vergleichen.
BlackBirdSR
2003-04-30, 12:49:00
Originally posted by Richthofen
ja IBM hat andere Materialien. Low-k wurde auch dort irgendwie gedroppt.
In diesem Sinne bin ich wirklich auf den ersten IBM fabbed NV Chip gespannt. Wird wohl der NV40 sein.
Da kann man gut mit TSMC vergleichen.
Inel scheint das zwar ohne größere probleme hinzubekommen (für den 90nm Prozess, wenn die Info noch stimmt), aber sie nutzen auch keine der "besseren" low-k Materialien.
Ich glaube von nem Wert um die 3.0 war die Rede, bei ca 3.6-3.9 fürs momentane Siliconglass.
Tiamat
2003-04-30, 19:18:55
Wenn ich es von der Geforce3,Geforce 4 ableite müßte der NV40 bei IBM doch eigentlich im 0.11mikron Prozess hergestellt werdem.
Nv20/25 =0.15mikron
NV30/35 =0.13mikron
Nv40/45 =0.11mikron ?
seahawk
2003-04-30, 19:35:23
0,11 ist ausgefallen. Als nächstes kommt 0,09 - im Herbst mit dem Prescott von Intel. Ist für Grakas allerdings zu früh. Ich denke NV40 wird 0,13 sein.
Tiamat
2003-04-30, 19:39:41
Vielleicht doch..
Infineon fertig ab jetzt seine 256bit Speicherchips in 0.11mikron.
0.15 mikron gabs bei CPU´s auch kaum ,außer VIA C3.
Bis Anfang nächsten Jahres bekommt es weder Nvidia noch Ati 0.09mikron hin ,Intel schon ..
Richthofen
2003-04-30, 21:06:58
hier noch was zu Nvidia und IBM.
Heute war Michael Hara VP Investor Relations von Nvidia bei Merryl Lynch bei der Technologiekonferenz.
Ich zitiere mal was ben6 bei beyon3d im Forum aus dem Webcast zitiert hat:
"
The technology conference held today was interesting. Some highlights
1.Interestingly, NVIDIA's market share #s for Q1 03 released by Mercury Research yesterday show a flat to 1% market share growth by NVIDIA.
2.To the topic, Mike was asked when they'd start utilizing IBM. he said Q2 calendar year for a unannounced desktop GPU. He did say that it was not NV35 , but whether it's the next generation or something else, he didn't want to specify
3. XBox margins are increasing
"
Ich hab ihn leider verpast heute morgen. Der Webcast wird grad archiviert und sollte zu späterer Stunde verfügbar sein.
Ich werd ihn mir dann auch mal reinziehen.
Wichtig ist Punkt 2.
Punkt 1 ist bekannt und war zu erwarten. Punkt 3 ist sehr interessant. Scheint so als konnte man die Produktionskosten nochmals senken. Ist TSMC mit den Preisen runtergegangen? :)
Unregistered
2003-05-01, 13:45:14
Also so oft in einem Thread musste ich Richthofen ja noch gar nie recht geben :)
Ich glaube auch ganz und gar nicht dass sie en R400 eingestellt haben weil sie ja grad so gut mit dem R300 core bestückt sind. Es gab Probleme mit dem Core aus unerfindleichen Gründen und man hat wohl noch rechtzeitig die Reißleine gezogen um nicht in ein gleiches Desaster zu laufen wie Nvidia. Ob dies wirklich nicht der Fall sein wird zeigt sich erst in einem dreiviertel Jahr. Wenn sie es schaffen aus dem R300 noch genug rauszuholen, damit er mit der Konkurrenz mithalten kann, war die Entscheidung auf jedenfall richtig. Andererseits gibts sonst auch ein Desaster....
nagus
2003-05-06, 09:49:56
As for R400 - here's my guess for R390/R420/Loci...
0.13u
8x2
125mill transistors
550/500MHz+
256MB GDDR2
DX9
Fall 2003.
MuFu.
robbitop
2003-05-06, 09:53:28
8x2 würde keinen Sinn machen, da lediglich AF günstiger wäre. Wenn man 2 TMUs pro pipeline nutzen möchte, darf man ALUs nachrüsten, das kostet ein paar Mio mehr an Transistoren als nur delta18Mio
in so kurzer Zeit (4 Monate für die Produktion dann müste der Chip jetzt fast fertig sein und man hat sich erst deit kurzem entschieden, den loki zu bringen), kann man kein derartiges Redesign betreiben.
meine persönliche speku: anpassung an 0,13µ und ein paar optimierungen und ein paar Massetransitoren (beim NV30 waren es 15Mio)
nagus
2003-05-06, 09:56:12
Originally posted by robbitop
8x2 würde keinen Sinn machen, da lediglich AF günstiger wäre. Wenn man 2 TMUs pro pipeline nutzen möchte, darf man ALUs nachrüsten, das kostet ein paar Mio mehr an Transistoren als nur delta18Mio
warum sollte 8x2 gegenüber 8x1 NUR bei AF besser sein? wäre der leistungsgewinn nicht ~ so wie zwischen radeon 9000 und radeon 8500 (4x1 vs. 4x2)?
robbitop
2003-05-06, 09:59:06
aber nur in non PS games ;)
und der unterschied hat sicher noch andere ursachen
und die 9000pro ist fast so schnell wie die 8500
frag mal demi
jede alu übergibt einen Farbwert...also in PS apps bringt es nix, da man nur 1 ein farbwert / takt hat
Demirug
2003-05-06, 11:10:35
Originally posted by nagus
warum sollte 8x2 gegenüber 8x1 NUR bei AF besser sein? wäre der leistungsgewinn nicht ~ so wie zwischen radeon 9000 und radeon 8500 (4x1 vs. 4x2)?
Wenn man auch noch eine ALU pro zusätzlicher TMU einbaut ja. Aber mit nur 18 Mio wird das eng. Zumal die Pipelines auch noch für einen 2 ALU betrieb zusätzlich modifiziert werden müssen. Rausbauen (8500 -> 9000) ist einfacher als reinbauen.
Um den zusammenhang zwischen ALUs umd TMUs aber etwas verständlicher zu machen hier noch eine kurze erklärung.
Eine TMU kann pro arbeitszyklus (meist gleich des Coretaktes) maximal einen Farbwert aus einer Texture liefern. Dabei spielt es primär erst mal keine Rolle ob und wie dieser Wert gefilter wurde. Also auch wenn nur Pointsampling in einem Zyklus funktioniert ist es immer noch eine TMU. Und wenn eine Einheit ein 8xAFtri sample in einem Zyklus liefert ist es immer noch eine TMU.
Eine ALU ist nun in der Lage pro Arbeitszyklus aus mehreren Eingangwerten (die Anzahl hängt vom Chip ab) einen Ausgangwert zu berechnen.
Einfaches Beispiel: 4 Texturewerte sampeln und zu einer Vertexfarbe addieren. Da immer nur 2 Werte addiert werden können benötigt man dafür 4 Additionen.
R300/350 arbeitet indirekt parrallel also 4 Takte für die Texturen und 4 Takte für das addieren die "gleichzeitig" ausgeführt werden können.
Ein R300 derivate mit 2 TMUs aber nur einer ALU könnte zwar in zwei Takten die Texturen sampeln aber bräuchte nach wie vor 4 takte für das verrechnen. Ergo nach wie vor 4 Takte für alles.
Für eine "normale" Pipeline wie sie die R3xx Chips haben gilt vereinfacht gesagt folgendes. Jeder Pixel Effekt braucht x Takte für die Texturen und y Takte für das verrechnen.
Ist das verhältniss x/y gleich dem Verhältniss TMU/ALU kann der Chip voll ausgelastet werden. Ist x/y grösser als TMU/ALU dann sind die ALUs unterfordert. Ist x/y kleiner TMU/ALU sind die TMUs nicht voll ausgelastet. Bei momentanten Spielen liegt beim verzicht auf tri und/oder af das verhältniss x/y bei etwa 1 aber eher etwas grösser. Bei Einsatz von tri/af steigt der Wert aber schnell an. So gesehen kann ein Chip natürlich schon von zusätzlichen TMUs profitieren aber wesentlich nur beim einsatz besserer Texturefilter.
Langfristig (PS >= 3.0) kann das aber so eigentlich nicht weitergehen. Aufgrund der veränderten Anforderungen an die Pixelpipeline erscheint ein zusammenlegen der TMU/ALU funktionalität sinnvoll. Das soll heisen das man Multifunktionseinheiten hat die wahlweise beides können Texturen filtern oder PS Operationen ausführen.
@robbitop: Das alles gilt auch bei Spielen die gar keine Shader benutzten da es sich um eine Beschrägung der Pipeline handelt. DX7 Multitextuere und DX8/) Pixelshader sind nur zwei wege die gleiche Hardware zu programmieren wobei die Shader natürlich mehr Funktionen der gleichen Hardware für den Entwickler zugänglich machen.
reunion
2003-05-11, 12:34:06
Originally posted by robbitop
8x2 würde keinen Sinn machen, da lediglich AF günstiger wäre. Wenn man 2 TMUs pro pipeline nutzen möchte, darf man ALUs nachrüsten, das kostet ein paar Mio mehr an Transistoren als nur delta18Mio
in so kurzer Zeit (4 Monate für die Produktion dann müste der Chip jetzt fast fertig sein und man hat sich erst deit kurzem entschieden, den loki zu bringen), kann man kein derartiges Redesign betreiben.
meine persönliche speku: anpassung an 0,13µ und ein paar optimierungen und ein paar Massetransitoren (beim NV30 waren es 15Mio)
Warum soll 8x2 keinen Sinn machen???
Überhaupt da du selbst vor einiger Zeit bei den NV40 speks
geschreiben hast das sogar 8x4(!) Sinn machen würde.
"4TMUs pro pipe sind, wenn diese vernünftig designed ist, völlig sinnvoll.
Rechnen wir mal: trilineare Filterung (ist STANDARD): sind es nur noch 8x2. Tja und da die Games ja jetzt schon und dann nochmehr Multitexturing exzersiv machen, absolut Sinnvoll."
Bin mal gespannt was dir dazu einfällt?? ;))
robbitop
2003-05-11, 13:43:53
das ist technisch SEHR anders:
beim NV3x Design hat man dank der Micro ALUs genug ALUs die Farbwerte an TMUs übergeben. Somit wirkt sich das ganze natürlich aus Performance sicht aus.
Beim R3xx ist nur eine ALU pro Pipeline vorhanden, es kann nur 1 Farbwert Pro Pipe übergeben werden....
und DAS habe ich auch schon sehr oft gesehen, also bitte keine Statements aus dem Context reissen ;)
nagus
2003-05-24, 22:03:37
ist zwar von hellbinder, aber was solls... wirs sind ja hier im speku-forum
------------
Originally posted by Hellbinder
Bk,
Technically there are 2 products. First of all there is a new tape-out and PCB design for the 9800pro to allow for Higher Clock speeds. Which now may or may not be released.
Secondly...
There is the R390 wich is more than 2x faster than a 9700pro. That is the Comming Fall part being refered to. (2.5x faster in FSAA+AF to be precice)
--------------
quelle: http://www.nvnews.net/vbulletin/showthread.php?postid=128529#post128529
robbitop
2003-05-24, 22:23:19
tja an 2. glaub ich erst wenn ichs sehe...habe schon öfter solche Sprüche vernommen...
Ailuros
2003-05-25, 03:07:16
Originally posted by robbitop
tja an 2. glaub ich erst wenn ichs sehe...habe schon öfter solche Sprüche vernommen...
Selbst wenn man die besten Insider Quellen hat, bekommt man sehr selten Leistungsnummern ueberhaupt von Produkten die immer noch unter Entwicklung stehen. Kann sein dass es ATI's Ziel ist und unmoeglich ist es theoretisch auch nicht, es bleibt nun uebrig herauszufinden ob ATI wirklich so hoch einschlagen will und ob sie das Ziel ach treffen koennen.
Um ehrlich zu sein wuerde mich persoenlich eine solche Moeglichkeit begeistern. Marginale Leistungsspruenge vom 30-40% Niveau sind dann eher langweilig, ueberhaupt im high end Bereich; alles nur rein theoretisch natuerlich ;)
egdusp
2003-05-25, 04:50:25
Originally posted by nagus
ist zwar von hellbinder, aber was solls... wirs sind ja hier im speku-forum
------------
Originally posted by Hellbinder
Bk,
Technically there are 2 products. First of all there is a new tape-out and PCB design for the 9800pro to allow for Higher Clock speeds. Which now may or may not be released.
Secondly...
There is the R390 wich is more than 2x faster than a 9700pro. That is the Comming Fall part being refered to. (2.5x faster in FSAA+AF to be precice)
--------------
quelle: http://www.nvnews.net/vbulletin/showthread.php?postid=128529#post128529
Für mch hört sich das so an, dass sie nicht sicher sind den R390 rechtzeitig fertig zu bekommen. Auf jeden Fall scheint es mehr als ein Die Shink des R350 zu sein.
Andererseits sind Aussagen wie 2,5 mal schneller mit Vorsicht zu genießen. Es wird sicher Szenarien geben, in denen das zutrifft, vor allem wenn der Vorgänger nicht darauf ausgelegt war. Ich schätzt mal, dass das 6xAA verbessert wurde, da es bisher ja recht große Performanceeinbrüche produziert hat, obwohl es durch die Kompression eigentlich nicht sein sollte. Dann noch die Auflösung so hochschrauben, dass 128 Mbyte Speicher nicht ausreichen (bei 6xAA nicht schwer) und eine 256 Mbyte Karte dagegen halten. Zusammmen mit den obligatorischen Takterhöhungen sind da 2,5 mal mehr Performance sicher drin.
mfg
egdusp
nagus
2003-05-25, 12:34:27
Originally posted by egdusp
Für mch hört sich das so an, dass sie nicht sicher sind den R390 rechtzeitig fertig zu bekommen. Auf jeden Fall scheint es mehr als ein Die Shink des R350 zu sein.
Andererseits sind Aussagen wie 2,5 mal schneller mit Vorsicht zu genießen. Es wird sicher Szenarien geben, in denen das zutrifft, vor allem wenn der Vorgänger nicht darauf ausgelegt war. Ich schätzt mal, dass das 6xAA verbessert wurde, da es bisher ja recht große Performanceeinbrüche produziert hat, obwohl es durch die Kompression eigentlich nicht sein sollte. Dann noch die Auflösung so hochschrauben, dass 128 Mbyte Speicher nicht ausreichen (bei 6xAA nicht schwer) und eine 256 Mbyte Karte dagegen halten. Zusammmen mit den obligatorischen Takterhöhungen sind da 2,5 mal mehr Performance sicher drin.
mfg
egdusp
stimmt, mit 256MB, 6xaa und 16xaf sind solche sprünge sicher drin. zumal die 256MB version der 9800PRO z.b. bei comanche 4 mit max AA und AF einstellungen fast doppelt so schnell ist wie die 128MB version.
... er schreibt aber auch, dass LOCI 2x schneller sein soll (ohne AA oder AF) ... bei doom3 vielleicht :)
Ailuros
2003-05-25, 13:16:21
... er schreibt aber auch, dass LOCI 2x schneller sein soll (ohne AA oder AF) ... bei doom3 vielleicht
Ich wuerde mich wundern wenn das nicht der Fall waere. Ich wuerde denken dass eine Erhoehung auf 16 Z/stencil pro Takt dafuer ausreichen wuerde, kombiniert mit ein paar besseren early Z Tricks.
Alle IHV's konzentrieren sich derzeit auf Doom3 Leistung, die Frage ist ob Loci sich gegen NV40 in diesem Bereich besser zeigen kann oder nicht, wenn's nicht gleich darum geht wer besser cheaten kann....ooooops *rennt um sein Leben* ;D
robbitop
2003-05-25, 14:48:39
also rein Zeitlich gesehen ist kaum Spielraum für Loci.
Sie haben sich afair im Februar/März für Loci entschieden und damit gegen den R400. Wann soll der Chip rauskommen? Tja gedacht war Fall2003. Da aber R360 geouttaped (komisches Wort :D) worden ist, glaube ich dass sie nicht im Zeitplan liegen (niemand würde innerhalb kürzester Zeit soviele Chips rausbringen...das ist aus ökonomischer Sicht aufreibend). Nun steht R360 für 2003. Ich denke Loci sehen wir in Massen 2004. Wer weiss wann. Ich tippe ganz realistisch auf Februar/März. (Wobei ich R390/420 noch nicht wirklich auseinanderhalten kann..wo ist der Unterschied? vermutlich sehr gering).
Ok also geben wir dem Loci mal von der Idee bis zur Auslieferung in Massen 1 Jahr. Davon darf man schonmal 3-4 Monate für die Produktion abziehen, wer weiss wie lang allein die Anpassung an 0,13µ und die Optimierungdes Chips/Yields dauert. ATi hat zwar mit RV350 schon know how in 0,13µ aber das ist eine ganz andere Region. Jedenfalls wird Loci auch nach hinten gerückt worden sein, mangels 0,13µ Kapazitäten. Ich schätze ca 6-8 Monate Entwicklungszeit für Loci. Das lässt kaum spielraum. Vieleicht wie ihr sagt im Stencil Beriech/FB Compresions Bereich. Nunja mal sehen wie gut ATis Plan B werden wird.
nagus
2003-05-25, 16:08:50
Originally posted by robbitop
also rein Zeitlich gesehen ist kaum Spielraum für Loci.
Sie haben sich afair im Februar/März für Loci entschieden und damit gegen den R400. Wann soll der Chip rauskommen? Tja gedacht war Fall2003. Da aber R360 geouttaped (komisches Wort :D) worden ist, glaube ich dass sie nicht im Zeitplan liegen (niemand würde innerhalb kürzester Zeit soviele Chips rausbringen...das ist aus ökonomischer Sicht aufreibend). Nun steht R360 für 2003. Ich denke Loci sehen wir in Massen 2004. Wer weiss wann. Ich tippe ganz realistisch auf Februar/März. (Wobei ich R390/420 noch nicht wirklich auseinanderhalten kann..wo ist der Unterschied? vermutlich sehr gering).
Ok also geben wir dem Loci mal von der Idee bis zur Auslieferung in Massen 1 Jahr. Davon darf man schonmal 3-4 Monate für die Produktion abziehen, wer weiss wie lang allein die Anpassung an 0,13µ und die Optimierungdes Chips/Yields dauert. ATi hat zwar mit RV350 schon know how in 0,13µ aber das ist eine ganz andere Region. Jedenfalls wird Loci auch nach hinten gerückt worden sein, mangels 0,13µ Kapazitäten. Ich schätze ca 6-8 Monate Entwicklungszeit für Loci. Das lässt kaum spielraum. Vieleicht wie ihr sagt im Stencil Beriech/FB Compresions Bereich. Nunja mal sehen wie gut ATis Plan B werden wird.
damit das jetzt ein für alle mal klar ist:
LOCI == R390 == R400(neu) == R420 ... das ist alles das gleiche
R500 == verbesserter R400(alt)
LOCI kommt etwa zeitgleich mit NV40 (vielleicht früher, kommt drauf an ob Nvidia den termin einhalten kann)
R500 kommt herbst 2004
seahawk
2003-05-25, 16:32:18
Originally posted by nagus
damit das jetzt ein für alle mal klar ist:
LOCI == R390 == R400(neu) == R420 ... das ist alles das gleiche
R500 == verbesserter R400(alt)
LOCI kommt etwa zeitgleich mit NV40 (vielleicht früher, kommt drauf an ob Nvidia den termin einhalten kann)
R500 kommt herbst 2004
Ich dacht immer Loci == R390 == R420 aber nicht gleich R400 - den die wurde gecancelt.
Aber nach den Problemen mit die NV momentan hat, mache ich mir um die Konkurrenzfähigkeit der ATI-Karten keine Sorge.
Ich denke schon der R360 macht alle platt.
Winter[Raven]
2003-05-25, 16:35:11
LOCI kommt etwa zeitgleich mit NV40 (vielleicht früher, kommt drauf an ob Nvidia den termin einhalten kann)
Du weisst aber das Mhz nicht alles bedeutet ? Wie erfogreich es sein wird hängt davon was er kann und ich tippe mal, dass NV40 wird in sachen Performence und was der unterstütz mehr drauf haben SOLLTE nicht WIRD als Locki.
Dazu bleibe ich beim R500 skeptisch das er im Herbst 2004 rauskommen soll, den sollte bei dem das selbe schiffgehen wie beim NV30 von der Komplexen Architektur dann dürfen die NV Freaks Ati genauso auslachen wie diese es zu NV30 dillema getan haben ;)
robbitop
2003-05-25, 16:45:08
ich dachte dass Loci 2 Verschiedene Chips sind R390 und danach R420...naja ok..die werfen in letzter Zeit ziemlich mit Chips um sich....finde ich gerade auch als Kunde nicht so gut. Lieber 1x im Jahr nen Chip mit ordendlich mehr performance als alle 4 Monate nen neuen...
Richthofen
2003-05-25, 17:44:58
nein sind alles die gleichen.
Das Problem ist, dass einige Seiten vom Codenamen der Marketingabteilung (420) und manche vom internen technischen Code Namen der Entwicklerabteilung (390) sprechen und andere wiederum reden nur von Loci.
Ich hoffe ich habe oben beide nicht vertauscht.
Auf jeden Fall ist das alles ein und das selbe Produkt.
"
damit das jetzt ein für alle mal klar ist:
LOCI == R390 == R400(neu) == R420 ... das ist alles das gleiche
R500 == verbesserter R400(alt)
LOCI kommt etwa zeitgleich mit NV40 (vielleicht früher, kommt drauf an ob Nvidia den termin einhalten kann)
R500 kommt herbst 2004
"
Du solltest hier eventuell in Betracht ziehen, dass es auch sein kann, dass ATI den Termin nicht halten kann. Im Prinzip können sie es bereits nicht, da es keinen R400 mehr gibt. Auch ein extra Tape-out für den R360 riecht nicht so danach, dass alles nach Plan verläuft und auch die Aussagen von Dave Orton im Reuters Interview klingen nicht toll.
Momentan haben beide einen ähnlichen Zeitfahrplan, wobei ich den NV40 für das ambitioniertere Design halte und damit auch leichte Vorteile für NV sehen. Natürlich nur wenn es keine Probleme gibt.
Eusti
2003-05-25, 18:12:22
Originally posted by Shakiro
Dazu bleibe ich beim R500 skeptisch das er im Herbst 2004 rauskommen soll, den sollte bei dem das selbe schiffgehen wie beim NV30 von der Komplexen Architektur dann dürfen die NV Freaks Ati genauso auslachen wie diese es zu NV30 dillema getan haben ;) Wobei Herbst 2004 aber schon ein recht moderates Ziel ist. Herbst 2004 haben wir auch noch im Dezember 2004 und bis dahin sind es immerhin noch 19 Monate! Da müsste schon mächtig was schief gehen, wenn ATI so einen Termin nicht mehr halten kann. Die R3x0-Serie ist dann immerhin schon 2,5 Jahre alt...
Winter[Raven]
2003-05-25, 18:18:03
Da müsste schon mächtig was schief gehen
Wer hätte gedacht das beim Nv30 was schiff gehen könnte ? ... Das design war ja seit ca 1 jahr fertig nur TMSC oder wie die auch immer heißen haben den ganzen Spaß versaut.
Deswegen würd ich auch bei TMSC vorisichtig sein.
nagus
2003-05-25, 18:54:40
Originally posted by seahawk
Ich dacht immer Loci == R390 == R420 aber nicht gleich R400 - den die wurde gecancelt.
Aber nach den Problemen mit die NV momentan hat, mache ich mir um die Konkurrenzfähigkeit der ATI-Karten keine Sorge.
Ich denke schon der R360 macht alle platt.
loci wird wohl als R400 vermarktet werden, also neu-R400
der "alte" R400 wurde nicht eingestampft sondern fließt in die entwicklung deS R500 ein.
seahawk
2003-05-25, 19:38:12
Aber grundsätzlich sehe ich das richtig - oder @ nagus ??
Unregistered
2003-05-25, 22:33:52
Originally posted by Shakiro
Wer hätte gedacht das beim Nv30 was schiff gehen könnte ? ... Das design war ja seit ca 1 jahr fertig nur TMSC oder wie die auch immer heißen haben den ganzen Spaß versaut.
Deswegen würd ich auch bei TMSC vorisichtig sein.
Die Entwicklung des Prozessordesigns und die Umstellung des Fertigungsprozesses sollten aufeinander abgestimmt sein und beeinflussen sich gegenseitig.
So haben wohl beide Fehler gemacht und ev. zuviel gewollt.
Ailuros
2003-05-26, 02:29:07
Du solltest hier eventuell in Betracht ziehen, dass es auch sein kann, dass ATI den Termin nicht halten kann. Im Prinzip können sie es bereits nicht, da es keinen R400 mehr gibt. Auch ein extra Tape-out für den R360 riecht nicht so danach, dass alles nach Plan verläuft und auch die Aussagen von Dave Orton im Reuters Interview klingen nicht toll.
Momentan haben beide einen ähnlichen Zeitfahrplan, wobei ich den NV40 für das ambitioniertere Design halte und damit auch leichte Vorteile für NV sehen. Natürlich nur wenn es keine Probleme gibt.
Ich erwarte vorerwaehnte Produkte nicht vor Fruehling 2004, wobei ich mir nicht sicher bin ob Du hier dasselbe meinst. Um genauer zu sein hoffentlich 3 high end chips, wobei es nicht unmoeglich ist, dass NV vielleicht zu einem Paperlaunch vor Ende des Jahres gezwungen wird.
Wer dann Vorteile und wo hat, warte ich lieber bis Anfang 2004 ab, bis alle Karten getestet und analysiert werden. Paperspecs (obwohl meistens vielversprechend) sagen mir persoenlich gar nichts. NV3x klang auf Papier auch imposant.
Ailuros
2003-05-26, 02:49:02
Originally posted by robbitop
also rein Zeitlich gesehen ist kaum Spielraum für Loci.
Sie haben sich afair im Februar/März für Loci entschieden und damit gegen den R400. Wann soll der Chip rauskommen? Tja gedacht war Fall2003. Da aber R360 geouttaped (komisches Wort :D) worden ist, glaube ich dass sie nicht im Zeitplan liegen (niemand würde innerhalb kürzester Zeit soviele Chips rausbringen...das ist aus ökonomischer Sicht aufreibend). Nun steht R360 für 2003. Ich denke Loci sehen wir in Massen 2004. Wer weiss wann. Ich tippe ganz realistisch auf Februar/März. (Wobei ich R390/420 noch nicht wirklich auseinanderhalten kann..wo ist der Unterschied? vermutlich sehr gering).
Ok also geben wir dem Loci mal von der Idee bis zur Auslieferung in Massen 1 Jahr. Davon darf man schonmal 3-4 Monate für die Produktion abziehen, wer weiss wie lang allein die Anpassung an 0,13µ und die Optimierungdes Chips/Yields dauert. ATi hat zwar mit RV350 schon know how in 0,13µ aber das ist eine ganz andere Region. Jedenfalls wird Loci auch nach hinten gerückt worden sein, mangels 0,13µ Kapazitäten. Ich schätze ca 6-8 Monate Entwicklungszeit für Loci. Das lässt kaum spielraum. Vieleicht wie ihr sagt im Stencil Beriech/FB Compresions Bereich. Nunja mal sehen wie gut ATis Plan B werden wird.
Mach es doch nicht immer so kompliziert ;)
Ob das Ding das ich persoenlich meine jetzt Loci, R390, R420 oder Rumpelstielzchen heisst ist wohl eigentlich egal. Mit dem Codenamen Wirrwarr den ATI in letzter Zeit (oder die "Netz-Spekulanten-Tanten" um genauer zu sein :D ) eingebrockt haben, ist es schwer mit dem ganzen mitzuhalten.
Ich weiss nur dass das Produkt dass ATI fuer Anfang naechstes Jahres plant, sehr schnell sein wird fuer das was es Gamer auch brauchen werden. Ob jetzt Shader X oder Y da sind bis zu Version A oder B ist mir persoenlich egal. Das Argument dass NV die Moeglichkeit den "Vorsprung" von 3.0 Shadern marketing-weise ausspielen wird ist schon glaubbar, aber am Ende ist es der Endverbraucher der entscheidet was er brauchen kann und was nicht.
Es sieht mir mehr so aus als ob ATI wieder auf Nummer Sicher gehen will und keine Verspaetungen einbussen und ich bin mir wirklich nicht so sicher dass 13nm und moegliche ueberhohe Chip-Komplexitaet der einzige Grund fuer die Stornierung von dem voriegen R400 waren. Irgendwo taucht da in der Geruechtekueche immer wieder Microsoft im Zusammenhang mit PS3.0 Spezifikationen auf. Kann sein dass sich da ATI ein bisschen vertueftelt hat, und voruebergehend mal die Finger davon laesst (oder irgendein anderer Grund der relevant zu M$ sein koennte, keine Ahnung). Auf jeden Fall bezweifle ich <PS/VS2.0 extended um ehrlich zu sein. Shader3.0 haben ein minimum von 512 Instruktionen soweit ich weiss; wie effektiv oder schnell Karten mit =/>512 Instruktionen, MRT's hohe interne Praezision (oder was immer auch) sein werden, bleibt abzusehen. Wie immer nur interessant fuer Entwickler.
In der Vergangenheit war die R100 auch mit mehreren Features verpackt, als die GF2 Linie. Wenn ATI's naechste "Generation" (wenn man sie auch so nennen kann) umso einiges schneller herauskommt als die Konkurrenz, dann will ich nicht raten ob es den End-Verbraucher kitzelt nutzlose extra Shader zu haben.
Ack....das was noch komplizierter als Dein voriger Post hehehe ;D
robbitop
2003-05-26, 09:07:27
tja, only time will tell, aber da es sich um einen Respin handelt glaube ich dass die Performance dieser Karte ein bisschen höher ist als ein 500/500Mhz R350..logisch oder? (realworldbenches, kein Doom3 oder 3DMark).
Ailuros
2003-05-26, 14:37:54
Kein so einfacher "respin"; denk eher an mehr Z/stencil Operationen per clock und eine Differenz in Shader-Throughput denk an NV30-->NV35 und natuerlich hoechstwahrscheinlich FP32 support. Nur meine eigene Spekulationen wirklich ;)
nagus
2003-05-26, 15:14:21
Original geschrieben von seahawk
Aber grundsätzlich sehe ich das richtig - oder @ nagus ??
grundsätzlich ja. die original R400 wurde aber nicht in dem sinne "gecancelt" sonder eigentlich nur verschoben.
Original geschrieben von Ailuros
Kein so einfacher "respin"; denk eher an mehr Z/stencil Operationen per clock und eine Differenz in Shader-Throughput denk an NV30-->NV35 und natuerlich hoechstwahrscheinlich FP32 support. Nur meine eigene Spekulationen wirklich ;)
FP32 erwarte ich bei ATI nicht vor der nächsten Generation (R500). Weder OpenGL noch D3D setzen in näherer Zukunft mehr als FP24 voraus, und nur für den absoluten "Profibereich" jetzt die ALUs und Datenpfade komplett zu überarbeiten und Transistoren zu verschwenden halte ich nicht für sinnvoll.
seahawk
2003-05-26, 18:51:33
Ich würde auch keine grossen Zugewinn an Features für die nächsten ATI-Karten erwarten.
Aber wer braucht auch mehr. Top AA , gutes AF, DX 9 ........
Alles andere braucht auch 2004 kein Spieler.
Crushinator
2003-05-26, 23:50:12
Ich wünsche mir für dieses Jahr noch 8x2 und ordentlich viel Chip/Ram-Takt, kurzum vieeeeeeeeeeeeeel mehr Rohpower. Das ganze bitte mit moderater Kühlung, gepaart mit noch besserer SQ als bisher.
egdusp
2003-05-26, 23:59:31
Original geschrieben von crushinator
Ich wünsche mir für dieses Jahr noch 8x2 und ordentlich viel Chip/Ram-Takt, kurzum vieeeeeeeeeeeeeel mehr Rohpower. Das ganze bitte mit moderater Kühlung, gepaart mit noch besserer SQ als bisher.
Und noch am Besten umsonst und von einer schönen Frau geliefert.
mfg
egdusp
Razor@Work
2003-05-27, 08:57:28
Original geschrieben von nagus
damit das jetzt ein für alle mal klar ist:
LOCI == R390 == R400(neu) == R420 ... das ist alles das gleiche
R500 == verbesserter R400(alt)
LOCI kommt etwa zeitgleich mit NV40 (vielleicht früher, kommt drauf an ob Nvidia den termin einhalten kann)
R500 kommt herbst 2004
Hmmm...
AFAIK sollte der R400 vom Entwickler-Team der R200 kommen, was aber nicht hingehauen hat (aus welchen Gründen auch immer). So wird die R300-Linie nochmals 'aufgewärmt', um die Zeit bis zu dem R500 zu überbrücken, welcher von dem R300-(ArtX-)Team entwickelt werden soll.
Insofern sollte die das Ganze so aussehen:
R300 == R350 == LOCI == R390 == R400(neu) == R420 ... das ist alles das gleiche
R500 == neu
Get what i mean ?
:D
Razor
Exxtreme
2003-05-27, 09:26:25
Original geschrieben von Razor@Work
Hmmm...
So wird die R300-Linie nochmals 'aufgewärmt', um die Zeit bis zu dem R500 zu überbrücken, welcher von dem R300-(ArtX-)Team entwickelt werden soll.
Razor
Es gibt kein ArtX-Team. :)
Die Mitarbeiter der Firma ArtX sind auf beide Teams verteilt worden.
nagus
2003-05-27, 10:41:34
Original geschrieben von Razor@Work
Hmmm...
AFAIK sollte der R400 vom Entwickler-Team der R200 kommen, was aber nicht hingehauen hat (aus welchen Gründen auch immer). So wird die R300-Linie nochmals 'aufgewärmt', um die Zeit bis zu dem R500 zu überbrücken, welcher von dem R300-(ArtX-)Team entwickelt werden soll.
Insofern sollte die das Ganze so aussehen:
R300 == R350 == LOCI == R390 == R400(neu) == R420 ... das ist alles das gleiche
R500 == neu
Get what i mean ?
:D
Razor
*hüstl*
R300 =/ R350. und LOCI =/ R300 oder R350.
in wie weit sich die chips unterscheiden... keine ahnung, jedenfalls sind sie sicher NICHT identisch.
get what I mean?
AlfredENeumann
2003-05-27, 10:47:54
Original geschrieben von Exxtreme
Es gibt kein ArtX-Team. :)
Die Mitarbeiter der Firma ArtX sind auf beide Teams verteilt worden.
Eben. Wir können ja mal bei NV draufrumreiten wegen einem 3DFx Team.
seahawk
2003-05-27, 11:19:17
Rate wer den NV30 gemacht hat.
Original geschrieben von seahawk
Rate wer den NV30 gemacht hat.
NVidia?
Lokadamus
2003-05-27, 12:10:08
mmm...
Ich glaube, er meint eher das das 3DFX-Team den NV30 gebastelt hat ;)
Original geschrieben von Lokadamus
mmm...
Ich glaube, er meint eher das das 3DFX-Team den NV30 gebastelt hat ;)
Und das wiederum glaube ich nicht, weil auch die ex-3dfx Mitarbeiter auf viele Teams verteilt wurden.
seahawk
2003-05-27, 12:31:08
War auch nur Spass.
Nur irgendwie erinnerte mich der NV30 and die letzten Voodoos.
egdusp
2003-05-27, 12:32:17
Original geschrieben von Exxtreme
Es gibt kein ArtX-Team. :)
Die Mitarbeiter der Firma ArtX sind auf beide Teams verteilt worden.
Bisher wurde doch immer vom Gegenteil ausgegangen. Woher hast du diese Informationen, bestätigte Infos dazu hab ich nämlich noch nirgends gesehen.
mfg
egdusp
Demirug
2003-05-27, 12:42:01
Original geschrieben von Exxtreme
Es gibt kein ArtX-Team. :)
Die Mitarbeiter der Firma ArtX sind auf beide Teams verteilt worden.
Sicher? Es gibt zwar kein reinen ArtX Team. Aber was das verteilen angeht bin ich mir nicht so sicher weil selbst ATI schreibt:
The RADEON 9700 is the first architecture developed by ATI's west coast development team, which includes the former ArtX team, known for developing the graphics for the NINTENDO GAMECUBE™.
http://www.ati.com/companyinfo/press/2002/4512.html
robbitop
2003-05-27, 22:18:25
naja doch beim R3xx wurden viele Grundlagen des R200 übernommen. Letztendlich ist es nicht so viel arbeit, als wenn man einen Chip komplett neu machen müsste
Exxtreme
2003-05-27, 22:28:02
Original geschrieben von Demirug
Sicher? Es gibt zwar kein reinen ArtX Team. Aber was das verteilen angeht bin ich mir nicht so sicher weil selbst ATI schreibt:
http://www.ati.com/companyinfo/press/2002/4512.html
Marketing. ;)
Der R300 ist vom West-Team entwickelt worden, hat aber mit dem Flipper an sich nicht viel zu tun und Terry sagte selber, daß die ArtX-Leute auf die beiden Teams verteilt wurden.
Quasar
2003-05-27, 22:49:59
Original geschrieben von Exxtreme
Marketing. ;)
Der R300 ist vom West-Team entwickelt worden, hat aber mit dem Flipper an sich nicht viel zu tun und Terry sagte selber, daß die ArtX-Leute auf die beiden Teams verteilt wurden.
Auch wenn das OT ist:
Meinst du nicht, dass das, was "Terry" (Makedon?) gesagt hat, viel eher Marketing ist?
Wäre doch blöde, zugeben zu müssen, dass die "eigenen" Leute (die schon jahrelang dransitzen) mal eben von einem dazugekauften Mini-Team ordentlich vorgeführt werden, oder?
Salvee
2003-05-27, 23:05:37
Original geschrieben von Quasar
Auch wenn das OT ist:
Meinst du nicht, dass das, was "Terry" (Makedon?) gesagt hat, viel eher Marketing ist?
Wäre doch blöde, zugeben zu müssen, dass die "eigenen" Leute (die schon jahrelang dransitzen) mal eben von einem dazugekauften Mini-Team ordentlich vorgeführt werden, oder?
Der Hauptgrund (neben der zweifellos hohen Kompetenz der ArtX-Mitarbeiter) für dieses 'Vorführen' ist imho folgendes:
'In this environment, ATI tacked into the wind. Unlike past cores that aimed for good-enough graphics, the R300 represented an effort to match or beat the best desktop chip Nvidia might offer. "We didn't say get the best performance at 10 x 10-mm die size. We just said get the best performance. We had to go out and capture the flag," said Orton.'
Link (http://www.eetimes.com/story/OEG20030421S0028)
Mit anderen Worten: Baut was ihr wollt, koste es was es wolle, es muss nur das Beste werden.
AlfredENeumann
2003-05-27, 23:28:24
Original geschrieben von Quasar
Auch wenn das OT ist:
Meinst du nicht, dass das, was "Terry" (Makedon?) gesagt hat, viel eher Marketing ist?
Wäre doch blöde, zugeben zu müssen, dass die "eigenen" Leute (die schon jahrelang dransitzen) mal eben von einem dazugekauften Mini-Team ordentlich vorgeführt werden, oder?
Sorry, aber sowas kann man auch drehen wie man es will. Man sagt doch auch nicht das der NV3X mit ziemlich viel 3DFX Techniken behaftet ist und NV selber nix auf die Reihe bekommen hat.
egdusp
2003-05-27, 23:31:41
Original geschrieben von Exxtreme
Marketing. ;)
Der R300 ist vom West-Team entwickelt worden, hat aber mit dem Flipper an sich nicht viel zu tun und Terry sagte selber, daß die ArtX-Leute auf die beiden Teams verteilt wurden.
Quelle?
Überlegungen:
Warum sollten Leute aus Kalifornien nach Kanada ziehen? Zum Zeitpunkt der Übernahme gab es noch den IT Boom und die hätten problemlos einen neuen Job gefunden.
Warum sollten Leute aus Kanada nach Kalifornien ziehen? ATI Mitarbeiter die nach Kalifornien wollten, hätten dies jederezeit machen können, gab damals ja noch 3dfx und NV hat auch immer eingestellt.
Ich denke nicht, dass das ArtX Team aufgeteilt wurde, sondern nur ein paar Leute zwischen Kanada und Kalifornien ausgetauscht, um die Koordination zu gewährleisten.
mfg
egdusp
Salvee
2003-05-27, 23:37:34
Original geschrieben von egdusp
Quelle?
Überlegungen:
Warum sollten Leute aus Kalifornien nach Kanada ziehen? Zum Zeitpunkt der Übernahme gab es noch den IT Boom und die hätten problemlos einen neuen Job gefunden.
Warum sollten Leute aus Kanada nach Kalifornien ziehen? ATI Mitarbeiter die nach Kalifornien wollten, hätten dies jederezeit machen können, gab damals ja noch 3dfx und NV hat auch immer eingestellt.
Ich denke nicht, dass das ArtX Team aufgeteilt wurde, sondern nur ein paar Leute zwischen Kanada und Kalifornien ausgetauscht, um die Koordination zu gewährleisten.
mfg
egdusp
ArtX bestand aus 70 Leuten. Im Silicon Valley besteht die ATi Truppe jetzt aus 175 Mann. Die meisten der 70 ArtX Jungs dürften dort 'stationiert' ;) sein.
Quelle (http://www.eetimes.com/story/OEG20030421S0028)
nagus
2003-05-28, 20:51:38
Original geschrieben von Quasar
Auch wenn das OT ist:
Meinst du nicht, dass das, was "Terry" (Makedon?) gesagt hat, viel eher Marketing ist?
Wäre doch blöde, zugeben zu müssen, dass die "eigenen" Leute (die schon jahrelang dransitzen) mal eben von einem dazugekauften Mini-Team ordentlich vorgeführt werden, oder?
warum sollte ATI die ArtX leute nicht gleichmäßig auf beide teams verteilen? wäre jedenfalls logischer und auch viel effizienter für die entwicklung neuer chips.
Eusti
2003-05-28, 21:47:37
Original geschrieben von nagus
warum sollte ATI die ArtX leute nicht gleichmäßig auf beide teams verteilen? wäre jedenfalls logischer und auch viel effizienter für die entwicklung neuer chips. Weil die meisten Leute es Scheisse finden, wenn sie Ihren Bekanntenkreis (beruflich und privat) aufgeben sollen und 4.000km umziehen sollen. Und weil ein Unternehmen vielleicht nicht unbedingt will, das die eigenen Leite Schreisse drauf sind, lassen sie sowas vielleicht. Denn, das sind Menschen, keine Maschinen...
Sunrise
2003-05-28, 22:06:39
warum sollte ATI die ArtX leute nicht gleichmäßig auf beide teams verteilen? wäre jedenfalls logischer und auch viel effizienter für die entwicklung neuer chips.
Erkläre mir mal die Logik. Wieso sollte es denn effizienter sein, ein "eingespieltes" Team zu trennen ? Das wird ganz sicher NICHT effizienter. Man reisst dann ja quasi ein Rad vom Auto ab, und sucht sich ein "Ersatzrad". Komische Logik. Das würde nur in dem Moment zutreffen, wenn alle das exakt Gleiche machen würden.
- Zu Loci:
Es gibt keinen "R400(neu)", der Chip ist Geschichte. Die ursprüngliche R400-Architektur war viel zu optimistisch, und von ATI komplett überdacht. Man wollte neue Techniken + Power, hat sich aber entschlossen, beides in einzelnen "Lines" einzuführen, das macht auch mehr Sinn, wenn man mal darüber nachdenkt. Es sollte erst einmal eine breite Basis auf PS+VS 2.0 aufgebaut werden (POWER), und danach kann es mit 3.0 (TECHNIK) weitergehen. Der Chip wäre wohl min. bei 150 - 170 Mill. Transistoren gelandet, viel zu unwirtschaftlich.
- Wir teilen auf in:
1. R390 - R420 - Loci
2. R500 aka. ein gedachter "R400"
Nr. 1 wird als absoluter Brute-Force-Chip designed, perfekt für alle, die Power bei DX9-Games benötigen (PS2+VS2). Natürlich aufbauend auf der R300/R350-Architektur, laut verschiedensten Quellen min. doppelt so schnell wie der R300. Durch 0.13µm + Low K sollte ATI genügend Zeit haben, alle Tools umzustellen, und 0.13µm zu beherrschen. Natürlich wiedermal nur, wenn TSMC auch mitzieht. Über GDDR3 wird auch gesprochen, aber wohl erst auf dem R500 eingesetzt werden.
Der R500 wurde aufgrund zu starker Veränderungen und Anpassungen an neue Fertigungstechniken und Komponenten verschoben, aber so aufgewertet, das man die Terminverschiebung mit extrem verbesserter Architektur verantworten kann, und kein wirklicher Zeitverlust entsteht. Der R500 soll eine komplett neue Architektur bekommen, von "Unified PS+VS" ist die Rede. Also praktisch die Zusammenlegung von vorher getrennten Teilen der VPU, um die Chipfläche möglichst effizient auszunutzen.
nagus
2003-05-28, 22:27:53
"Unified PS+VS" .. hört sich GEIL an ;D
... 2x schneller als R300 ist auch GEIL ;D
Demirug
2003-05-28, 22:44:56
Original geschrieben von Sunrise
von "Unified PS+VS" ist die Rede. Also praktisch die Zusammenlegung von vorher getrennten Teilen der VPU, um die Chipfläche möglichst effizient auszunutzen.
Ist das deine Interpretation von "Unified PS+VS", oder war diese Erklärung bestandteil dessen was du gehört hast?
Den Begriff "Unified PS+VS" gibt es auch in einer spekulativen DX10 Spec. Dort beschreibt er aber keinen physikalsichen Zusammenhang sonder eine Funktionale gleichstellung von Vertex und Pixelshader. Die kann muss aber nicht auch einer Physikalischen zusammenlegung entsprechen.
Original geschrieben von nagus
"Unified PS+VS" .. hört sich GEIL an ;D
Ich frag mich ob du das immer noch so GEIL findest wenn jemand anderes als ATI zuerst damit kommt ;)
mapel110
2003-05-28, 22:49:35
Original geschrieben von Xmas
Ich frag mich ob du das immer noch so GEIL findest wenn jemand anderes als ATI zuerst damit kommt ;)
kommt wohl drauf an, ob erstere integration schneller ist als bei ATI ;)
Ailuros
2003-05-28, 23:01:15
Original geschrieben von ow
Und das wiederum glaube ich nicht, weil auch die ex-3dfx Mitarbeiter auf viele Teams verteilt wurden.
*hust* Nicht alle 3dfx engineers wurden von NVIDIA eingestellt. ;)
nagus
2003-05-28, 23:03:55
Original geschrieben von Xmas
Ich frag mich ob du das immer noch so GEIL findest wenn jemand anderes als ATI zuerst damit kommt ;)
kommt drauf an wer ;) PVR vielleicht... das wär echt GEIl ;D
Ailuros
2003-05-28, 23:09:35
Alles ausser NVIDIA = Geil? hehehe....hmmmm ok :D
Spass beiseite; ich hab noch nichts von "vereinten" PS/VS was naechste Generation Produkte betrifft gehoert. Was dann R500 oder was immer fuer Q3/4 2004 von ATI geplant ist betrifft, wuerde ich eher spekulieren dass es viel zu frueh ist.
Natuerlich gibt es Spekulationen dass DX10 vielleicht vereinte PS/VS haben koennte, aber ich sehe kein DX10 selbst naechstes Jahr, ueberhaupt wenn Longhorn nur mit dx9.0L veroeffentlicht wird.
robbitop
2003-05-29, 06:27:53
@sunrise
-lowk dielectric wird mitnichten im Loci einzug halten.
-es ist ein lediglich ein eiliger Refresh...umstellung der Produktionsmasken @0,13µ (und das is schwer genug) und diverse optimierungen...sehr viel lässt die Zeit nicht zu
Erst im R500 im NexSys Fertigungsprozess von TSMC (0,09µ LowK/SOI/Strained Silicon) [wobei ich bezweifle., dassnexsys 2004 bereits auf komplexe GPUs ökonomisch anwendbar sein wird.
-BRUTEFORCE waren GPUs bis zur GF2 Serie. Der Radeon 256 und der GeForce3 leuteten mit HyperZ und LMA in diesem sektor ein neues Zeitalter ein. Wir sind also bei optimierten IMRs.
...diesen Begriff nutzen in letzter Zeit viele falsch ist mir aufgefallen ;)
-"unified VS/PS"? imho nur durch eine P10 ähnliche Architektur machbar. Hier spielen die Treiber und die Arbeit an den Treibern ganz doll rein. Es gab mal eine Folie für einen DX10 Shader (Integrated Shader). Dort soll beides vereint sein. So schnell wird dies sicherlich nicht kommen, aber Ende 2004/2005 sicherlich. Der Trend geht eben zu universalen Berechnungseinheiten zur Erhöhung der Effizienz bei der Transistorausnutzung
Razor
2003-05-29, 07:51:47
Original geschrieben von nagus
warum sollte ATI die ArtX leute nicht gleichmäßig auf beide teams verteilen? wäre jedenfalls logischer und auch viel effizienter für die entwicklung neuer chips.
Ganz im Gegenteil...
Warum ein effizientes Team auseinander reißen, wenn es darum geht den 'besten Chip um jeden Preis' zu entwicklen ? Sicher besteht dieses Team nicht zu 100% auf ArtX-Leuten... ein paar von ATI werden wohl auch dabei sein !
:D
Wie dem auch sei, diejenigen, die den R300 entwickelten, sind nun am R500 dran. Die R200'er Jungs haben sich am R400 versucht und wohl versagt... zumindest aber nicht das geschafft, was man sich für diesen Chip vorstellte.
Bis denne
Razor
Richthofen
2003-05-29, 10:17:47
umso besser. Dann wird NV vielleicht mit dem NV40 voll punkten können :)
nagus
2003-05-29, 10:24:17
Original geschrieben von Richthofen
umso besser. Dann wird NV vielleicht mit dem NV40 voll punkten können :)
ja, sicher.... "xmas season 2003" *LOL*
vor 1Q 2004 wird sich da sicher nicht viel tun. außer vielleicht ein paper-launsch ala NV30. und 4 monate später gibts das teil dann zu kaufen.
Richthofen
2003-05-29, 10:40:29
sowas ähnliches hast doch beim NV35 auch gesagt, wahrscheinlich weil es dein Vorbild Hellbiner die vorgeplappert hat :)
Damit lag er wohl völlig daneben würd ich sagen. Die 5900 beginnen nun einzutrudeln und wir haben noch Mai und wir sind hier in DT, und liegen eigentlich immer weit hinter den anderen Regionen was Termine angeht.
Scheint so als würde man Juni wohl locker halten können und damit ist man dann endgültig King of the Hill wieder und ATI 2. Sieger.
Und da kann ich nur wiederholen was ich immer sage.
9 Monate Vorsprung nicht genutzt. AMD würde alles dafür geben in der selben Situation mal wieder zu sein. Die würden ihren Marktanteil um Mindestens 50% erhöhen und dabei noch Geld einsacken. ATI hat bei beidem versagt und zwar kläglich.
Lausiges Management haben die.
Richthofen
2003-05-29, 10:43:45
Original geschrieben von nagus
ja, sicher.... "xmas season 2003" *LOL*
vor 1Q 2004 wird sich da sicher nicht viel tun. außer vielleicht ein paper-launsch ala NV30. und 4 monate später gibts das teil dann zu kaufen.
Wenn es keine Probleme gibt, wirst du diese Aussage wohl nochmal überdenken müssen.
Aber immer noch besser NV40 Q1 2004 als R400 Q4 2004 :)
nagus
2003-05-29, 11:38:31
Original geschrieben von Richthofen
1. sowas ähnliches hast doch beim NV35 auch gesagt, wahrscheinlich weil es dein Vorbild Hellbiner die vorgeplappert hat :)
Damit lag er wohl völlig daneben würd ich sagen. Die 5900 beginnen nun einzutrudeln und wir haben noch Mai und wir sind hier in DT, und liegen eigentlich immer weit hinter den anderen Regionen was Termine angeht.
2. Scheint so als würde man Juni wohl locker halten können und damit ist man dann endgültig King of the Hill wieder und ATI 2. Sieger.
Und da kann ich nur wiederholen was ich immer sage.
9 Monate Vorsprung nicht genutzt. AMD würde alles dafür geben in der selben Situation mal wieder zu sein. Die würden ihren Marktanteil um Mindestens 50% erhöhen und dabei noch Geld einsacken.
4. ATI hat bei beidem versagt und zwar kläglich.
Lausiges Management haben die.
1. auf komplett.de stehen die lieferstandsanzeiger auf 30. Juni. > erste 5900er kommen also frühestens im JULI.
2. aber nicht für lange... wenn sich die gerüchte bestätigen, hat ati mit der 9900PRO eine nette überaschung für nvidia. ( über 420Mhz chip und 800Mhz Ram... das sind ~ 50 mhz mehr core und 120Mhz mehr speichertakt. das dürfte locker reichen die 5900ultra in den meisten benchmarks zu schlagen )
3. das innherhalb von 9 monaten keine großartigen sprünge beim umsatz und gewinn gemacht werden kann, ist mir klar. das wirk sich alles erst viel später aus, wenn z.b. jetzt haufenweise notebookhersteller und motherboardhersteller (ASUS, MSI und gigabyte) anfangan produkte mit ati-chipsätze zu verkaufen... und btw, die nächsten quartalszahlen kommen bestimmt
4. mister finanz-experte spuckt wieder große töne... "nvidia ist so super, blah, blah ... ati macht alles falsch, blah, blah... hallo "hellraiserdk" ;)
nagus
2003-05-29, 12:00:29
Original geschrieben von Richthofen
Wenn es keine Probleme gibt, wirst du diese Aussage wohl nochmal überdenken müssen.
Aber immer noch besser NV40 Q1 2004 als R400 Q4 2004 :)
ich glaube du verwechselst da was. R400(LOCI/R420/R390) kommt ende 2003 (NV40 konkurrent)
und R500 kommt 3/4Q 2004.
Richthofen
2003-05-29, 12:00:51
Original geschrieben von nagus
1. auf komplett.de stehen die lieferstandsanzeiger auf 30. Juni. > erste 5900er kommen also frühestens im JULI.
Abwarten. Ich glaube die packen Juni noch. Wie ich oben sagte liegt DT hinter den anderen Nationen was Liefertermine angeht und damit hat sich das Blatt doch deutlich gewendet gegenüber August, September November etc.. was ATI Fanboys so gern verkündet haben.
2. aber nicht für lange... wenn sich die gerüchte bestätigen, hat ati mit der 9900PRO eine nette überaschung für nvidia. ( über 420Mhz chip und 800Mhz Ram... das sind ~ 50 mhz mehr core und 120Mhz mehr speichertakt. das dürfte locker reichen die 5900ultra in den meisten benchmarks zu schlagen )
Länger als die 9800pro mal auf jeden Fall :)
Damit lag Dave Orton dann vor paar Monaten mit seiner Aussage völlig falsch. Und wie gut das Nvidia ja überhaupt nicht den Takt bei Speicher und Core erhöhen kann. Ich denke die können das sehr gelassen sehen wenn ich mir so die OC Ergebnisse beim A0 Stepping ansehe :)
Die werden wahrscheinlich nichtmal einen Respin brauchen und wenn doch, dann ist der schon längst in Arbeit.
3. das innherhalb von 9 monaten keine großartigen sprünge beim umsatz und gewinn gemacht werden kann, ist mir klar. das wirk sich alles erst viel später aus, wenn z.b. jetzt haufenweise notebookhersteller und motherboardhersteller (ASUS, MSI und gigabyte) anfangan produkte mit ati-chipsätze zu verkaufen... und btw, die nächsten quartalszahlen kommen bestimmt
Da hat AMD aber was anderes bewiesen und den ihr Gegner ist noch ein völlig anderes Kaliber was Marktverbreitung und Kontrolle angeht als NV. Wieviel später soll es sich denn noch auswirken? Der Vorsprung ist dahin. So eine Gelegenheit bekommen sie so schnell nicht wieder aber sie haben es vermasselt weil sie zu blöde waren ein vernünftiges Mainstreamprodukt zu verkaufen, dass auch erhältlich ist und zwar massenweise. Kann mich da immer nur wiederholen. Ein aufgebohrter DX8.1 Chip hätte Nvidia weh getan.
Die Chance haben sie nicht genutzt und zu allem Überfluss sich ein Problem für die nächsten Monate eingehandelt mit der 9500pro. Vom Low End rede ich mal gar nicht erst. Da haben sie voll verpennt.
Und was die Notebook Hersteller angeht, hier übersiehst du eine Kleinigkeit. ATI war im Notebook immer Marktführer gewesen. Dort können sie keinen Boden gross gut machen. Sie können dort nur halten oder verlieren.
4. mister finanz-experte spuckt wieder große töne... "nvidia ist so super, blah, blah ... ati macht alles falsch, blah, blah... hallo "hellraiserdk" ;)
Zu einem anderen Urteil kann ich hier nicht kommen. Ich habe noch nie eine Firma in den letzten Jahren im Halbleiterbusiness gesehen, die aus einem derartigen Vorsprung so wenig bis gar nichts gemacht hat über so einen langen Zeitraum und 9 Monate sind in dem Geschäft viel.
Keine Profitabilität und keine Zugewinne bei den Marktanteilen kurzum nichts.
Und wenn ich mir dann Dave Ortons Aussagen so anhöre, kann ich leider auch nicht erkennen, dass das Management selber optimistisch ist was den Grafiksektor angeht - das Core Geschäft.
Man redet zwar von Wachstum und schwarzen Zahlen aber alles nur basierend auf irgendwelchen neuen Märkten und Kleinstprodukten und einem generellen Wirtschaftsaufschwung.
Das ist nicht die Story, die die Wall Street von ATI hören will ums auf den Punkt zu bringen. Für ein High Tech Unternehmen geradezu langweilig.
Das kannst auch schön am Kursverlauf nachvollziehen. 80% seit Mitte April zugelegt. ATI grad mal 15%.
Natürlich kommt der NV Kurs von einer ganz anderen Höhe wie viele andere auch. Das war die reinste Spekulationsblase aber trozdem kann man das gut vergleichen, weils der selbe Zeitraum ist - zeigt es doch, welchem Unternehmen die Investoren über die nächsten Monate mehr zutrauen nach dem brutalen Absturz an den Kapitalmärkten. Am Volume das gehandelt wurde nach den Quartalszahlen konntest richtig gut sehen, wie da fette Fische sich eingedeckt haben und dann zum richtigen Zeitpunkt Kasse machen werden.
Bei ATI wirkt es dagegen ziemlich trostlos. Die Versprühen einfach keinen rechten Optimismus und das muss ja seine Gründe haben. Das Management bäckt durchweg nur noch kleine Brötchen bei denen und das ist dann schon recht vielsagend. Sowas wie die 9700pro dürfte sich damit vorerst erledigt haben.
LovesuckZ
2003-05-29, 12:02:04
Original geschrieben von nagus
1. auf komplett.de stehen die lieferstandsanzeiger auf 30. Juni. > erste 5900er kommen also frühestens im JULI.
Auf die ist kein verlass. bevor sie die Asus 5800 hatten und noch irgendwas mit Juni nagegeben haben, haette man sie bei Alternate schon kaufen koennen. Ergo sollte man deren Angaben mit vorsicht genießen.
Richthofen
2003-05-29, 12:02:19
Original geschrieben von nagus
ich glaube du verwechselst da was. R400(LOCI/R420/R390) kommt ende 2003 (NV40 konkurrent)
und R500 kommt 3/4Q 2004.
Ne ne ich hab da nichts verwechselt. Ich hab das schon richtig gesagt. Der ursprüngliche R400 Ende 2004. So war das gemeint. Das Loki Projekt ist für mich nur noch Plan B (Schadensbegrenzung)
Derek Perez und Brian Burke wirds wohl freuen :)
Da hat die Marketing Abteilung wieder richtig zu tun.
Ailuros
2003-05-30, 00:12:18
Alle naechste Generations - (Generation koennt Ihr frei uebersetzen) Produkte werden ungefaehr zwei mal so schnell sein wie eine R350 z.B.
Ich will nur hoffen (und das geht an alle IHV's) dass es nicht darum gehen wird, wer am besten cheaten kann ;)
Dr-Ami
2003-05-30, 01:09:47
Man möchte meinen das viele ATI den Untergang gönnen um dann mit NVIDIA einen Monopolisten zu haben. Währe ja auch geil, dann kosten die High-End Karten nicht mehr 500€, sondern 1000€. Darauf freue ich mich schon. Wenn ihr mich fragt ist NVIDIA eine reine Propagandamaschine. Na ja, immerhin haben sie 3dfx schon ins Grab geholfen.
Ailuros
2003-05-30, 01:30:39
Original geschrieben von Dr-Ami
Man möchte meinen das viele ATI den Untergang gönnen um dann mit NVIDIA einen Monopolisten zu haben. Währe ja auch geil, dann kosten die High-End Karten nicht mehr 500€, sondern 1000€. Darauf freue ich mich schon. Wenn ihr mich fragt ist NVIDIA eine reine Propagandamaschine. Na ja, immerhin haben sie 3dfx schon ins Grab geholfen.
Ein bisschen zu emotionell fuer meinen Geschmack. Der 3D graphics Markt ist eben nun mal ein Dschungel und es ist auch ueberaus schwer langfristig zu ueberleben oder sich sogar auf der Spitze zu halten.
3dfx war alleine verantwortlich fuer ihren Untergang, da brauchten andere IHV's gar nicht mehr viel mithelfen.
Was jetzt die Konkurrenz betrifft; Konkurrenz ist immer besser und treibt nicht nur den technologischen Vorschritt an, sondern kann auch eventuell zu logischeren Preisen fuehren. Wie dem auch sei in Faellen wo Monopole auftreten, werden Preise von der Anfrage kontrolliert und nicht von irgenwelcher unbegrenztem Geldgier einer Firma. Klar koennte eine Firma 1000euro fuer eine Karte verlangen, Frage bleibt wieviele dann so doof sind jegliche Summen auch aufzulegen.
Zu guter letzt: so schlimm ist Propaganda von jedem IHV der sich auf der Spitze halten will nun auch wieder nicht; viel schlimmer sind jegliche Fanboys die alles was jede PR Abteilung eines IHV nach aussen gibt, blindlings wiederholen ohne wenigstens ein bisschen Logik anzuwenden und es auch ohne Zweifel spontan glauben. Denk mal dran wieviel ein Koenig ohne Untertanen wert ist ;)
Salvee
2003-05-30, 02:15:35
Original geschrieben von Ailuros
Was jetzt die Konkurrenz betrifft; Konkurrenz ist immer besser und treibt nicht nur den technologischen Vorschritt an, sondern kann auch eventuell zu logischeren Preisen fuehren. Wie dem auch sei in Faellen wo Monopole auftreten, werden Preise von der Anfrage kontrolliert und nicht von irgenwelcher unbegrenztem Geldgier einer Firma. Klar koennte eine Firma 1000euro fuer eine Karte verlangen, Frage bleibt wieviele dann so doof sind jegliche Summen auch aufzulegen.
In BWL lernt man aber in Bezug auf Preisbildung bei Monopolen etwas anderes (ja, es ist graue Theorie, die Preis-Absatz-Funktion ;) ).
Auf jeden Fall ist das Preisniveau im Monopolfall eigentlich immer höher, weil unbegrenzt geldgierig sind leider alle (gescheiten) Firmen.
Monopolisten können sich viel näher an die 'Schmerzgrenzen' der Nachfrage bzgl. des Preises herantasten.
seahawk
2003-05-30, 08:36:31
Ich verstehe die ganzen Fanboy-Debatten nicht. Zwie (oder mehr) starke Konkurrenten sind für den Abnehmer im die bessere Wahl, aber trotzdem kann man ja mal versuchen einen realisitischen Blick in die Zukunft zu werfen. Und dabei ist es nicht hilfreich zu glauben, dass ATI immer gewinnt (Nagus) oder eben NV (Richthofen).
Imo : Werden wir bis zum Ende des Jahres in etwa einen Gleichstand bei den High-End-Chips sehen. R350 liegt etwas hinter der 5900 Ultra, R360 wird vorbeikommen (wenn es ihn wirklich gibt). Allerdings dürfte NV auch noch Potential in seinem NV35 zu haben um an der Taktschraube zu drehen, so dass eine schnellere 5900 machbar ist.
Am Ende des Jahres wird es dann spannend. Auf der einen Seite habe wir Loci (R390/420) was wahrscheinlich nichts anderes als eine 0,13 Variante vom R300 ist. Mit einigen zusätzlichen Optimierungen ist eine Leistungssteigerung zu erwarten. Bis zu 1,5-2x R300 ist denkbar. Wobei ATI da schon 600MHz Coretakt brauchen wird. Wie da dann die Leistungsafunahme und Wärmeableitung aussehen bleibt abzuwarten. Für Spekulationen über den R500 ist es imo zu früh. Allerdings könnte er (Art X Team) wieder eine Überraschung werden. Wobei ich eher die Fertigungsmöglichkeiten von TSMC als limitierenden Faktor sehe.
Bei NV ist die Sache weniger klar. Vermutlich dürfte das Design des NV40 im Zeitplan liegen. Sollte der Chip mit First Silicon funktionieren, dann ist eine Einführung in diesem Jahr denkbar. Der große Unbekannte ist die Fertigung bei IBM - Vorteil oder Nachteil ?? Ich persönlich tendiere zu Vorteil, da die Fähigkeiten von IBM als sehr gut gelten.
Weiterhin wird der NV40 sicherlich PS 3.0 und VS 3.0 beherrschen. Ein rotated-grid AA ist zu erwarten. Von den Features her dürfte der Chip damit vor Loci liegen. Ob er es auch vom Speed her schafft bleibt abzuwarten.
So gesehen hat keine Firma keinen direkten Vorteil. Allerdings kann NV mit dem NV40 eine Überraschung schaffen. Im für NV besten Fall, kann der NV40 ihnen die Leistungskrone bis zum Erscheinen des R500 sichern. Dieser wird sich im für NV optimalen Fall mit dem NV45 messen müssen.
Im für ATI optimalen Fall kommt der NV40 spät (2. oder 3. Quartal 2004) und sie kontrollieren mit Loci von Herbst 2003 an den High-End-Markt. NV40 wird durch den kurze Zeit später vorgestellten R500 neutralisiert.
LovesuckZ
2003-05-30, 13:15:47
Geruechte zum R360 von
xbitlabs (http://www.xbitlabs.com/news/video/display/20030529150459.html) :
Die Karte solle eine übertaktete r300 mit leichten Verbesserungen (so wie UltraShadow der 5900) sein und koennte mit 420MHZ Core - und 800MHZ Speichertakt daher kommen. Speicher wird DDR2 sein, ob von Samsung wie beim NV30 oder von Elpida steht noch nicht fest. Die Karte mit dem Namen 9900pro sei nicht vor Ende 3. Quartel, wahrscheinlich erst 4 Quartel, zu erwarten.
Damit sollte eigentlich auch klar sein, dass wir kein r420 im handel sehen werden und ATi wohl "nur" einen paperlaunch in diesem Jahr durchfuehren wird
reunion
2003-05-30, 13:39:34
Original geschrieben von LovesuckZ
Geruechte zum R360 von
xbitlabs (http://www.xbitlabs.com/news/video/display/20030529150459.html) :
Die Karte solle eine übertaktete r300 mit leichten Verbesserungen (so wie UltraShadow der 5900) sein und koennte mit 420MHZ Core - und 800MHZ Speichertakt daher kommen. Speicher wird DDR2 sein, ob von Samsung wie beim NV30 oder von Elpida steht noch nicht fest. Die Karte mit dem Namen 9900pro sei nicht vor Ende 3. Quartel, wahrscheinlich erst 4 Quartel, zu erwarten.
Damit sollte eigentlich auch klar sein, dass wir kein r420 im handel sehen werden und ATi wohl "nur" einen paperlaunch in diesem Jahr durchfuehren wird
Das müsste dann wohl locker reichen um die 5900 ULTRA zu schlagen :)
robbitop
2003-05-30, 14:13:27
sind ca 10% Mehrleistung, da habt ihr Recht, die werden alles in Grund und Boden stampfen... also echt.
Sieht mir nach einem ziemlichen Patt aus (wenn man 2-3 FPS nicht als in den "Boden Rammen" bezeichnet).
BTW. Ich glaube kaum, dass NV seine NV35 hochtakten wird. Ich denke bei der Differenz wäre es unklug und das gerade für die Yields. Man darf nicht dem Markt dauernd mit NAchfolgerchips überschwemmen, so wird man die alten nicht los und das ist nicht gut
Exxtreme
2003-05-30, 14:20:04
Original geschrieben von seahawk
...(Art X Team)...
Nochmal,
es gibt kein ArtX-Team. :)
Richthofen
2003-05-30, 14:30:03
Original geschrieben von Dr-Ami
Man möchte meinen das viele ATI den Untergang gönnen um dann mit NVIDIA einen Monopolisten zu haben. Währe ja auch geil, dann kosten die High-End Karten nicht mehr 500€, sondern 1000€. Darauf freue ich mich schon. Wenn ihr mich fragt ist NVIDIA eine reine Propagandamaschine. Na ja, immerhin haben sie 3dfx schon ins Grab geholfen.
Gönnen tu ich es ihnen nicht. Ich möchte schon gern, dass sie überleben aber ich kritisiere knallhart diese Firma, weil sie finanziell nichts bringt bis jetzt. Ich kann so ein Gestümper nicht ab. Wie kann man mit so einer Überlegenheit über 9 Monate so wenig draus machen? Das ist die Frage, die mir das ATI Management mal beantworten soll. Betrachte ich den GEsamtmarkt, so liegt NV bei irgendwas in den hohen 30er % bei den Marktanteile und ATI bei ca 19 bis 20%.
Jetzt vergleiche ich mal Intel. Die hatten zu Slot A Zeiten also ersten Athlon Zeiten 90% Marktanteil und AMD jämmerliche 8%. Die haben im selben Zeitraum ihren Marktanteil verdoppeln können und Geld haben sie nebenbei auch noch geerntet. Und das, wo ihr Gegner mit allen Mitteln kämpft sowohl auf der Propagandafront als auch bei der Erpressung diverser Board und Chipsatzhersteller und Beeinflussung von Benchmarkentwicklern.
Das gerade du mit nem fetten Intel Logo dich über NVs Marketing aufregst, finde ich doch sehr bizarr. Gegen die Methoden von Intel sind NV, ATI und CO die wahren Weisenknaben. Nur eine Firma toppt das noch und das ist Microsoft.
Und 3dfx hat sich selber erledigt. Zum einen durch die falschen Produkte, die elendigen Verzögerungen und das zu schlecht aufgestellte Geschäftsmodell. Zu viele Kostentreiber standen zu wenig Ertrag gegenüber. In den letzten Quartalen hat 3dfx doppelt so viel Verlust wie Umsatz gemacht. Sowas ist bei Firmen in der Größe in aller Regel das Todesurteil. NV hat dann lediglich einigen 3dfx Gläubigern noch zu Geld verholfen in dem man einige nützliche Dinge einfach gekauft hat.
Die Firma selber hat man nicht übernommen.
Richthofen
2003-05-30, 14:35:56
Original geschrieben von reunion
Das müsste dann wohl locker reichen um die 5900 ULTRA zu schlagen :)
Und wie lange braucht NV um seinen NV35 nochmal hochzutakten?
Wenn ich das schon höre "locker".
Ich dachte Dave Orton hätte gesagt man bleibt 1. mit dem R350? So war doch seine Aussage. Ich würde sagen da hat er ziemlich daneben gegriffen, wenn die nun schon den R360 im 3. Quartal brauchen um den NV35 zu schlagen.
"
BTW. Ich glaube kaum, dass NV seine NV35 hochtakten wird. Ich denke bei der Differenz wäre es unklug und das gerade für die Yields. Man darf nicht dem Markt dauernd mit NAchfolgerchips überschwemmen, so wird man die alten nicht los und das ist nicht gut
"
Wäre ich mir nicht so sicher. Das wird einzig und allein davon abhängen, wie gross das Zeitfenster zwischen R360 und NV40 ist. Ist es eher klein, dann geb ich dir recht und man wird es sein lassen. Ist es noch ein paar Monate gross, dann wird man nochmal den Takt anheben nur damit ATI nicht 1. ist. Den schlechteren Yield kann man sich mit dem üblichen Prämienzuschlag bei den High End Produkten versüßen. Bis dahin ist der 0.13 auch nochmals besser geworden und insofern ist der Cost Faktor für mich hier nicht ausschlaggebend.
Die OC Ergebnisse bisher sind jedenfalls schonmal sehr gut und da wurde noch kein Respin durchgeführt. Wahrscheinlich käme man auch ohne das aus oder man macht eins. Bei letzterem wird das schon in Arbeit sein.
AlfredENeumann
2003-05-30, 15:50:41
Original geschrieben von LovesuckZ
Geruechte zum R360 von
xbitlabs (http://www.xbitlabs.com/news/video/display/20030529150459.html) :
Die Karte solle eine übertaktete r300 mit leichten Verbesserungen (so wie UltraShadow der 5900) sein und koennte mit 420MHZ Core - und 800MHZ Speichertakt daher kommen. Speicher wird DDR2 sein, ob von Samsung wie beim NV30 oder von Elpida steht noch nicht fest. Die Karte mit dem Namen 9900pro sei nicht vor Ende 3. Quartel, wahrscheinlich erst 4 Quartel, zu erwarten.
Damit sollte eigentlich auch klar sein, dass wir kein r420 im handel sehen werden und ATi wohl "nur" einen paperlaunch in diesem Jahr durchfuehren wird
Wofür braucht der Consumer in nächster Zeit DX9-Karten welche mehr als PS2.0 und VS2.0 erfüllen ?
betasilie
2003-05-30, 15:52:57
Original geschrieben von AlfredENeumann
Wofür braucht der Consumer in nächster Zeit DX9-Karten welche mehr als PS2.0 und VS2.0 erfüllen ?
Full Ack. Schnelle Karten mit PS/VS 2.0 sind imho erstmal völlig ausreichend.
LovesuckZ
2003-05-30, 15:54:10
Original geschrieben von AlfredENeumann
Wofür braucht der Consumer in nächster Zeit DX9-Karten welche mehr als PS2.0 und VS2.0 erfüllen ?
Wozu brauchte er vor fast einem Jahr ueberhaupt DX9?
Interessant, da man Nvidia vor genau einem Jahr vorgeworfen habe, die seien eine Technologiebremse...
betasilie
2003-05-30, 15:54:13
Original geschrieben von robbitop
Man darf nicht dem Markt dauernd mit NAchfolgerchips überschwemmen, so wird man die alten nicht los und das ist nicht gut
Zum einen das, zum anderen verunsichert man die Kunden, wenn die gekaufte Karte kurze Zeit später wieder ersetzt wird.
betasilie
2003-05-30, 15:55:00
Original geschrieben von LovesuckZ
Wozu brauchte er vor fast einem Jahr ueberhaupt DX9?
Garnicht.
Aber die 9700er sind ja auch unter DX8.1 nicht langsam. :D Dazu kommt, dass sie sogar alles aus DX8.1 flott unterstützen, im Gegensatz zu NV. Ich sage ja nur PS1.4.
LovesuckZ
2003-05-30, 15:59:06
Original geschrieben von betareverse
Garnicht.
Aber die 9700er sind ja auch unter DX8.1 nicht langsam. :D Dazu kommt, dass sie sogar alles aus DX8.1 flott unterstützen, im Gegensatz zu NV. Ich sage ja nur PS1.4.
Nvidia ist unter DX8.1 auch net langsam :D
Dann haette man eine verbesserte 8500 auf den markt bringen koennen, die bis auf DX9 alles der r300 haette haben sollen. Durch gesparten Transistoren haette man die Karte billiger herstellen koennen und haette sogar ne beachtliche Konkurenz zur TI4600.
AlfredENeumann
2003-05-30, 16:10:41
Original geschrieben von LovesuckZ
Wozu brauchte er vor fast einem Jahr ueberhaupt DX9?
Interessant, da man Nvidia vor genau einem Jahr vorgeworfen habe, die seien eine Technologiebremse...
Irgendwann muß es ja kommen. Außerdem war es ein mitbringsel. Das was man nutzen konnte war AA/AF mit einer Bombenspeed.
AlfredENeumann
2003-05-30, 16:12:23
Original geschrieben von LovesuckZ
Nvidia ist unter DX8.1 auch net langsam :D
Dann haette man eine verbesserte 8500 auf den markt bringen koennen, die bis auf DX9 alles der r300 haette haben sollen. Durch gesparten Transistoren haette man die Karte billiger herstellen koennen und haette sogar ne beachtliche Konkurenz zur TI4600.
Ach, du kennst die Herstellungskosten von Grafikkarten ?
LovesuckZ
2003-05-30, 16:14:48
Original geschrieben von AlfredENeumann
Ach, du kennst die Herstellungskosten von Grafikkarten ?
Mein logisches Denken sagt mir, dass ein Chip, der weniger Transistoren hat, billiger zu produzieren sei als einer der mehr hat. Oder bist du anderer Meinung, dass ein rv250 billiger herstellen zu sei als ein r200?
LovesuckZ
2003-05-30, 16:17:56
Original geschrieben von AlfredENeumann
Irgendwann muß es ja kommen. Außerdem war es ein mitbringsel. Das was man nutzen konnte war AA/AF mit einer Bombenspeed.
Wer sagt, dass dies bei Nvidia nicht passieren werde? Sollten Nvidia alle Kritikpunkte mit dem nv40 ausbessern und dazu noch ein paar neue feature dazu packen koennen, dann steht die karte dank der besseren Technologie deutlich besser dar als nen 0.13nm r300.
/edit: von GF3 zur 9700pro waren es auch nur ca. 1 1/2 jahre. Sollte Nvidia den termin mit Ende 2003 - Anfang 2004 halten koennen mit den ersten karten, waeren es auch nur 1 1/2 Jahre zwichen den Karten.
StefanV
2003-05-30, 16:19:48
Original geschrieben von LovesuckZ
Mein logisches Denken sagt mir, dass ein Chip, der weniger Transistoren hat, billiger zu produzieren sei als einer der mehr hat. Oder bist du anderer Meinung, dass ein rv250 billiger herstellen zu sei als ein r200?
Wenn ich der RV250 DDR-II Speicher mit 450MHz verpasse, dann ist logischerweise die RV250 Karte a) schneller, b) teurer...
Auch kommt der Preis aufs Package an, ein 'normales' BGA Package dürfte billiger sein als ein FC-BGA...
StefanV
2003-05-30, 16:22:50
Original geschrieben von LovesuckZ
Wer sagt, dass dies bei Nvidia nicht passieren werde? Sollten Nvidia alle Kritikpunkte mit dem nv40 ausbessern und dazu noch ein paar neue feature dazu packen koennen, dann steht die karte dank der besseren Technologie deutlich besser dar als nen 0.13nm r300.
/edit: von GF3 zur 9700pro waren es auch nur ca. 1 1/2 jahre. Sollte Nvidia den termin mit Ende 2003 - Anfang 2004 halten koennen mit den ersten karten, waeren es auch nur 1 1/2 Jahre zwichen den Karten.
Irgendwie hört sich jenes Posting wie sponsored by NV an :|
Du arbeitest nicht zufällig für NV bzw deren Marketingabteilung, oder??
LovesuckZ
2003-05-30, 16:37:18
Original geschrieben von Stefan Payne
Irgendwie hört sich jenes Posting wie sponsored by NV an :|
Du arbeitest nicht zufällig für NV bzw deren Marketingabteilung, oder??
???
Langsam nervst du mit deiner Paranoia. Du sagst Dinge zu anderen, die genauso auch auf dich passen, trotzdem denkst du, das wuerde nicht stimmen.
Vielleicht solltest erstmal aus deinen ATi fanclub austreten, bevor du anderen NV - biased vorwirfst.
betasilie
2003-05-30, 16:41:06
Original geschrieben von LovesuckZ
Nvidia ist unter DX8.1 auch net langsam :D
Dann haette man eine verbesserte 8500 auf den markt bringen koennen, die bis auf DX9 alles der r300 haette haben sollen. Durch gesparten Transistoren haette man die Karte billiger herstellen koennen und haette sogar ne beachtliche Konkurenz zur TI4600.
Du vergisst den Marketingeffekt durch DX9. ;) Der Marketingeffekt in der breiten Masse ist bei PS3.0 wesentlich geringer, denn für die meisten ist DX9 =DX9.
... Stimmt die neune Karten von NV sind unter DX8 nicht schlecht, aber leider niicht in allen belangen. Es werden Spiele kommen, die durch den PS1.4 entweder bessere Grafik oder mehr Performance haben und dann sind NV-Karten unter DX8 erheblich langsamer, als welche mit echtem PS1.4. ;)
LovesuckZ
2003-05-30, 16:45:54
Original geschrieben von betareverse
... Stimmt die neune Karten von NV sind unter DX8 nicht schlecht, aber leider niicht in allen belangen. Es werden Spiele kommen, die durch den PS1.4 entweder bessere Grafik oder mehr Performance haben und dann sind NV-Karten unter DX8 erheblich langsamer, als welche mit echtem PS1.4. ;)
Von PS1.4 werden sowieso nur alle >=PS2.0 Karten profitieren, da GF3/Gf4 keinen besitzen und r200 und Konsorten diesen nicht in deutlich mehr Leistung umsetzen koennen.
Original geschrieben von LovesuckZ
Von PS1.4 werden sowieso nur alle >=PS2.0 Karten profitieren, da GF3/Gf4 keinen besitzen und die r200 und Konsorten diesen nicht richtig umsetzen koennen.
Nicht richtig umsetzen? Bitte?
LovesuckZ
2003-05-30, 16:51:54
Original geschrieben von Xmas
Nicht richtig umsetzen? Bitte?
= Leistung. Werds mal aendern.
StefanV
2003-05-30, 16:52:47
Original geschrieben von LovesuckZ
= Leistung. Werds mal aendern.
Ich denke nicht, daß deine Aussage dadurch richtiger wird :|
Original geschrieben von Stefan Payne
Ich denke nicht, daß deine Aussage dadurch richtiger wird :|
Da stimme ich dir mal zu.
egdusp
2003-05-30, 17:09:41
Original geschrieben von Exxtreme
Nochmal,
es gibt kein ArtX-Team. :)
Ich habe von dir noch keine Quelle für deine Behauptung gehört, die offieziellen ATI Pressemiteilungen und auch etliche Argumente sprechen dagegen.
mfg
egdusp
AlfredENeumann
2003-05-30, 17:34:37
Original geschrieben von egdusp
Ich habe von dir noch keine Quelle für deine Behauptung gehört, die offieziellen ATI Pressemiteilungen und auch etliche Argumente sprechen dagegen.
mfg
egdusp
ArtX ist nun ATI. http://www.artx.com/
Die ganze Firma heißt jetzt ATI, nicht ArtX-ATI oder sonstwas. Ist doch gar nicht so schwer zu verstehen. Auch wenn vielleicht ein großteil des Designteam ehemalige ArtX Ingeneure sind, ist es jetzt alles ATI.
Wir sagen ja auch nicht das der NV3X ein aus 3DFX Patenten Zusammengeschusteter Chip ist, oder ?
Richthofen
2003-05-30, 17:51:29
Original geschrieben von betareverse
Full Ack. Schnelle Karten mit PS/VS 2.0 sind imho erstmal völlig ausreichend.
Das wird der Markt anders sehen und NV wird es ausschlachten verlass dich drauf.
Es ging noch nie daraum was der Kunde braucht und was nicht, sondern darum was er zu kaufen bekommt und wie man es ihm schmackhaft macht und da mach ich mir bei NV ehrlich gesagt wenig Sorgen, dass sie dem Kunden verklickern werden wie wichtig PS / VS 3.0 doch sind, sofern sich hier ein Vorteil auftut, weil die Konkurenz eventuell noch nicht soweit ist.
Und die großen Reviewerseiten wie Anand, Tom Hardocp und Zeitschriften wie die Gamestar werden die Aufgabe besitzen im Namen von NV das dem Kunden verkünden zu dürfen und das werden sie tun, weils die eigenen Verkaufszahlen und Pageviews fördert.
Insofern ist es ein bisschen zu einfach zu sagen och nö ATI ist eventuell noch nicht so weit also macht nix. Ich fürchte ganz so wird es wohl nicht ablaufen und wenn NV noch so dreist ist und das in irgendwelche Mainstream und Low Cost Karten verpacken sollte, dann wirds richtig böse.
seahawk
2003-05-30, 18:57:16
Ob VS 3.0 und OS 3.0 sinnvoll ist steht nicht zur Frage. Für den normalen Spieler ist es Quatsch.
Aber ich denke die Developer werden es lieben und wir werden ziemlich schnell Spiele sehen die PS / VS 2.0+ nutzen werden. Diese "Spezialeffekte" werden ATI-Karten wohl verschlossen bleiben. Soweit ich weiss hat z.B. das Stalker Team eine solche Ankündigung gemacht.
Die entscheidene Frage wird der Grundspeed des NV40 werden. Kann er unter normalen Umständen mit denr ATI Konkurrenz mithalten oder sogar schlagen, dann wird der VS/PS 3.0 eine entscheidendes Argument.
Liegen sie in der Grundgeschwindigkeit hinten, schreit kein Hahn nach diesen Features.
Wenn ich allerdings bei bei NV News die Spekuulationen von Mufu und Utttar lese, dann könnte die Karte schon überraschen.
Razor
2003-05-30, 20:13:19
Original geschrieben von Exxtreme
Nochmal,
es gibt kein ArtX-Team. :)
Steht wo ?
Und stell Dich bitte nicht dumm, denn Du weißt genau, wie das gemeint ist...
:D
Razor
Razor
2003-05-30, 20:14:05
Original geschrieben von AlfredENeumann
Wofür braucht der Consumer in nächster Zeit DX9-Karten welche mehr als PS2.0 und VS2.0 erfüllen ?
Wozu braucht der consumer überhaupt GraKa's mit technischer Innovation ?
???
Razor
Razor
2003-05-30, 20:15:24
Original geschrieben von LovesuckZ
Nvidia ist unter DX8.1 auch net langsam :D
Dann haette man eine verbesserte 8500 auf den markt bringen koennen, die bis auf DX9 alles der r300 haette haben sollen. Durch gesparten Transistoren haette man die Karte billiger herstellen koennen und haette sogar ne beachtliche Konkurenz zur TI4600.
... und vielleicht sogar Marktanteile hinzu bekommen und sogar Gewinn machen können !
:D
Razor
Razor
2003-05-30, 20:24:20
Original geschrieben von AlfredENeumann
ArtX ist nun ATI. http://www.artx.com/
Die ganze Firma heißt jetzt ATI, nicht ArtX-ATI oder sonstwas. Ist doch gar nicht so schwer zu verstehen. Auch wenn vielleicht ein großteil des Designteam ehemalige ArtX Ingeneure sind, ist es jetzt alles ATI.
Für Dich ganz exklusiv, AEN...
:lol:
Es gibt zwei Entwicklungsteams bei ATI.
Das eine hat sich an den R200 gemacht, das (komplette !) Art-X ist wohl ins 2. Team gewandert, um den R300 aus der Taufe zu heben. DAS ist der Hintergrund eines "Art-X-Teams"... nur für den Fall, das Du das nicht mitbekommen hast...
:D
Original geschrieben von AlfredENeumann
Wir sagen ja auch nicht das der NV3X ein aus 3DFX Patenten Zusammengeschusteter Chip ist, oder ?
Was ja auch völliger Dummfug wär !
Beim NV40 wär ich mir da aber nicht mehr so sicher...
;-)
Razor
Exxtreme
2003-05-30, 20:52:20
Original geschrieben von egdusp
Ich habe von dir noch keine Quelle für deine Behauptung gehört, die offieziellen ATI Pressemiteilungen und auch etliche Argumente sprechen dagegen.
mfg
egdusp
Das hat Terry Makedon(??) mal im R3D-Forum gepostet.
Razor
2003-05-30, 21:10:01
Original geschrieben von Exxtreme
Das hat Terry Makedon(??) mal im R3D-Forum gepostet.
Und ein (unbestätigter) Forums-Post wiegt mehr, als offizielle Presse-Mitteilungen ?
???
Hmmm...
Razor
StefanV
2003-05-30, 21:11:33
Original geschrieben von Razor
Und ein (unbestätigter) Forums-Post wiegt mehr, als offizielle Presse-Mitteilungen ?
???
Hmmm...
Razor
Klar, denn die PR Mitteilungen sind meist nur Heiße Luft...
Razor
2003-05-30, 21:12:59
Original geschrieben von Stefan Payne
Klar, denn die PR Mitteilungen sind meist nur Heiße Luft...
Klar... und inoffizielle, nicht durch andere Quellen belegte Forums-Posts natürlich nicht...
Oh mann, Stefan...
Razor
Exxtreme
2003-05-30, 21:22:06
Original geschrieben von Razor
Und ein (unbestätigter) Forums-Post wiegt mehr, als offizielle Presse-Mitteilungen ?
???
Hmmm...
Razor
AFAIK gab es dazu nie ein offizielles Statement.
Razor
2003-05-30, 21:25:31
Original geschrieben von Exxtreme
AFAIK gab es dazu nie ein offizielles Statement.
Dann mal eine Frage an Dich und SP:
"Warum hätte ATI ein effizientes Team auseinander reißen sollen ?"
Und hier redet niemand von einem reinen Art-X-Team... sicher werden dort auch ATI-Mitarbeiter werkeln.
:D
Razor
Exxtreme
2003-05-30, 21:28:08
Original geschrieben von Razor
Dann mal eine Frage an Dich und SP:
"Warum hätte ATI ein effizientes Team auseinander reißen sollen ?"
Und hier redet niemand von einem reinen Art-X-Team... sicher werden dort auch ATI-Mitarbeiter werkeln.
:D
Razor
Warum ausseinander reissen?
Tja, die technologischen Ansätze beider Firmen unterschieden sich AFAIK ziemlich stark. So konnte man das Know-How besser mischen.
AlfredENeumann
2003-05-30, 21:29:57
Original geschrieben von Razor
Es gibt zwei Entwicklungsteams bei ATI.
Das eine hat sich an den R200 gemacht, das (komplette !) Art-X ist wohl ins 2. Team gewandert, um den R300 aus der Taufe zu heben. DAS ist der Hintergrund eines "Art-X-Teams"... nur für den Fall, das Du das nicht mitbekommen hast...
Auch für dich Razor. Das weis ich. Dennoch: ES GIBT KEIN ARTX MEHR !!!!!!!
Razor
2003-05-30, 22:40:53
Original geschrieben von AlfredENeumann
Auch für dich Razor. Das weis ich. Dennoch: ES GIBT KEIN ARTX MEHR !!!!!!!
Klar... und die Entwickler hat man gekillt, oder was ?
Nun komm mal auf den Boden zurück, AEN...
Razor
P.S.: nimm Dir mal ein Beispiel an Exxtreme...
Razor
2003-05-30, 22:46:02
Original geschrieben von Exxtreme
Warum ausseinander reissen?
Tja, die technologischen Ansätze beider Firmen unterschieden sich AFAIK ziemlich stark. So konnte man das Know-How besser mischen.
... und damit ein gutes Teamwork vernichten ?
Dann doch schon lieber zusammen lassen und ein paar ATI-Leutz dazu gesellen, um die Kommunikation mit den anderen Entwicklern bei ATI zu gewährleisten. So könnte man ein eingespieltes Team optimal dazu nutzen, hochwertige Produkte (und der R300 ist als solches zu bezeichnen !) zu entwickeln und damit den eigenen Anspruch zu erfüllen.
Hätten Sie das anders gehandhabt, wären vermutlich sogar Verzögerungen in Kauf zu nehmen, da sich neu zusammengestellte Teams erst einmal einspielen müssen und es dabei oft zu Kommunikationsproblemen kommt.
Das haben wir nicht nur am eigenen Leib gespürt, sondern auch bei den von uns beauftragten Dienstleistern.
Wirklich Sinn hätte ein Auseinanderreißen eines eingespielten Teams nun wirklich nicht gemacht...
Razor
Ailuros
2003-05-30, 23:29:33
Wie kann man mit so einer Überlegenheit über 9 Monate so wenig draus machen? Das ist die Frage, die mir das ATI Management mal beantworten soll.
Kein Problem.
Obwohl es kein Geheimnis ist dass ATI nur fuer eine sehr kurze Zeit und sehr geringen Gewinn angeben konnte (jetzt wieder mit roten Zahlen), kannst Du mir ja sicher bereitstellen um wieviel der Gewinn ueber die letzten 9 Monate bei NVIDIA sich reduziert hat.
AlfredENeumann
2003-05-30, 23:40:40
Original geschrieben von Razor
Klar... und die Entwickler hat man gekillt, oder was ?
Nun komm mal auf den Boden zurück, AEN...
Razor
P.S.: nimm Dir mal ein Beispiel an Exxtreme...
Für dich nochmal zum Mitschreiben. Mag sein sein ein ein groß der ArtX Ingenuere alle in einem Team sind, trotzdem gibt es kein ArtX mehr. Das ist jetzt alles ATI !!! Und das jetzt seit einigen Jahren.
Quasar
2003-05-30, 23:56:26
Ist es so schwer, mal zu interpretieren, was man (in diesem Falle Razor) meint, wenn er "ArtX-Team" sagt?
Mann, mann, mann, dass man sich über sowas so lange streiten kann. :bonk:
AlfredENeumann
2003-05-31, 00:02:34
Nein ist es nicht. Es ist auch nicht das was er sagt sonder wie er es sagt. Ich sage auch nicht das 3DFX Team hat den NV3X entwickelt sondern NV, genuaso hat ATI den R300 entwickelt und nicht ArtX.
Salvee
2003-05-31, 01:47:12
Die besten Leute bei nV und ATi kommen sowieso von SGI. Das ist die einzige Firma, die alle wegr00lt :D
betasilie
2003-05-31, 07:53:17
Original geschrieben von Richthofen
Das wird der Markt anders sehen und NV wird es ausschlachten verlass dich drauf.
Es ging noch nie daraum was der Kunde braucht und was nicht, sondern darum was er zu kaufen bekommt und wie man es ihm schmackhaft macht und da mach ich mir bei NV ehrlich gesagt wenig Sorgen, dass sie dem Kunden verklickern werden wie wichtig PS / VS 3.0 doch sind, sofern sich hier ein Vorteil auftut, weil die Konkurenz eventuell noch nicht soweit ist.
Und die großen Reviewerseiten wie Anand, Tom Hardocp und Zeitschriften wie die Gamestar werden die Aufgabe besitzen im Namen von NV das dem Kunden verkünden zu dürfen und das werden sie tun, weils die eigenen Verkaufszahlen und Pageviews fördert.
Insofern ist es ein bisschen zu einfach zu sagen och nö ATI ist eventuell noch nicht so weit also macht nix. Ich fürchte ganz so wird es wohl nicht ablaufen und wenn NV noch so dreist ist und das in irgendwelche Mainstream und Low Cost Karten verpacken sollte, dann wirds richtig böse.
Viellrivht wird der n Vidia schlachten, auch wennn dir das nicht in dein neu-westliches Weltbild passt. Deutschland ist mitwerweile nicht nur vor dem großem "Freund" kuschen, sondern etwas mehr, als Du **** mitbvekommst. :lol:
Setz mal weitwr auf die Werte, die Du im BRD-TV mitbekommen hast, dann kommst Du irgendwann auch mal in der Realität an! :D
Wer mir jetzt noch den "Drunkenmaster" verwehrt, ist selber Schuld. *naserausstreck*
... Ich kann mein eigenes Porsting nivht mehr lresen;: von dahaer habt bittte Mitgefühl. ;)#
Anschlkag und ruhe. :kotz:
Razor
2003-05-31, 08:42:29
Original geschrieben von AlfredENeumann
Für dich nochmal zum Mitschreiben. Mag sein sein ein ein groß der ArtX Ingenuere alle in einem Team sind, trotzdem gibt es kein ArtX mehr. Das ist jetzt alles ATI !!! Und das jetzt seit einigen Jahren.
Danke, dass Du mich mit Deiner Weisheit erhellst, AEN, aber es dürfte hier kaum jemanden geben, der das nicht weiß. Und ja, nichts anderes wurde behauptet... alle Entwickler sind in einem Team und haben damals den R300 aus der Taufe gehoben und werkeln nun am R500.
Got it ?
:D
Razor
Razor
2003-05-31, 08:54:58
Original geschrieben von AlfredENeumann
Nein ist es nicht. Es ist auch nicht das was er sagt sonder wie er es sagt. Ich sage auch nicht das 3DFX Team hat den NV3X entwickelt sondern NV, genuaso hat ATI den R300 entwickelt und nicht ArtX.
Nur dass bei nVidia die Leutz tatsächlich aufgeteilt wurden (war ja 'eh nicht mehr das komplette Team ;-) und bei ATI ein eigenes Team mit ein paar ATI-Leutz gebildet wurde.
Insofern kann man schon sagen, dass der R300/500 von dem Team bei ATI entwickelt wurde/wird, welches zum größten Teil aus ex-ArtX-Entwicklern besteht und das Endprodukt weniger auf die Eigenleistung ATI's, denn auf die Erfahrung und Routine der ex-ArtX-Mitarbeiter zurück zu führen ist.
Got it again ?
;D
Razor
P.S.: der erste Teil Deines letzten Satzes wäre ja auch völlig falsch ... ;-)
Razor
2003-05-31, 08:57:23
@beta
Wenn Du nichts zu sagen hast, lass es einfach bleiben...
Nur ein gut gemeinter rat, denn das, was Du da verbrochen hast, kommt wohl von erheblichem Drogenkonsum (Alkohol und mehr).
Sorry, aber so etwas ist einfach 'arm' !
Razor
AlfredENeumann
2003-05-31, 14:39:28
Original geschrieben von Razor
Insofern kann man schon sagen, dass der R300/500 von dem Team bei ATI entwickelt wurde/wird, welches zum größten Teil aus ex-ArtX-Entwicklern besteht und das Endprodukt weniger auf die Eigenleistung ATI's, denn auf die Erfahrung und Routine der ex-ArtX-Mitarbeiter zurück zu führen ist.
Wer sagt das denn?
Nur weil der R300 von diesem EX-ArtX Team kommt heißt das nicht das das andere Team nix drauf hat.
Razor
2003-06-01, 11:34:33
Original geschrieben von AlfredENeumann
Wer sagt das denn?
Nur weil der R300 von diesem EX-ArtX Team kommt heißt das nicht das das andere Team nix drauf hat.
Da mir das langsam zu doof mit Dir ist, werde ich es jetzt einfach behaupten und keinesfalls belegen !
:D
Das ArtX-Team (also das Team bei ATI, welches die ex-Artx-Mitarbeiter aufgenommen hat ;-), hat den R300 entwickelt und werkelt nun am R500. Der R200 war... na ja... und der R400 ist offenbar gar nix geworden.
Das lässt IMO schon einige Rückschlüsse zu.
Und sicher muss die ArtX-Team-Leistung ATI zugeschrieben werden, aber...
:D
That's it !
Razor
Pussycat
2003-06-01, 12:28:56
Ich fand der R200 gar nicht 'naja'. Er war ca. gleich schnell wie die GF3 , und für mich der erste echt 'seriöse' ati-chip. ausserdem hat das Managment denen nicht gesagt 'macht das beste was geht' wie beim R300. Zum R400: Mit dem Fertigungprozess haben sich schon andere geirrt :). Ausserdem wissen wir nicht genau was überhaupt jetzt schlecht daran war.
Razor
2003-06-01, 12:36:43
Wie Du meinst, Pussy...
:D
Razor
seahawk
2003-06-10, 12:40:05
Originally posted by Hellbinder
The rumors are True. The R400 was officially canned several months ago.
The R400 was not renamed the R500. The R400 partially implimented some of the concepts that will be the R500. Thus is is reversed logic to say it the other way around. The R400 was canned this year because it was really origional in its approach to certain things, and there was simply not enough time to fully perfect it. It had some design issues that were not going to get solved in the time alloted.
Thus we have the the temporary solution to the problem, the R390. Which is the R300 core taken to its most extreme point. Just imagine in your head what they would have to do to the R300 core to make it yes 2.5x faster than an R300 and you will be pretty close. Along with increases in the Shader pipelines, Fragment processing, AF speed, Fill rate, Vertex throughput etc, Shadow Volume processing etc etc..
In essence the R390 is Akin to a Tricked out Harley with a V8. Or perhaps you could thik of it similar to the last V8 Interceptor shown in the origional Mad Max.
nagus
2003-06-13, 13:13:08
http://www.theinquirer.net/?article=10001
anscheinend doch PS3 und VS3 support!! *freu*
mapel110
2003-06-13, 13:14:26
Original geschrieben von nagus
http://www.theinquirer.net/?article=10001
anscheinend doch PS3 und VS3 support!! *freu*
aber nagus, sowas ist doch einen eigenen thread wert. :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=76628
robbitop
2003-06-13, 13:35:05
halte ich für unwahrscheinlich
theinquerer halt
ShadowXX
2003-06-13, 13:51:26
@robbitop
warum?? Weils kein nv Produkt ist??
Glaubst du nur David K. und Co können Shader nach 3.0 designen??
Oder zerstört es dein Weltbild das auch ATI in Quartal 1 2004 einen ps/vs3.0 Chip hat??
J.S.Shadow
robbitop
2003-06-13, 13:57:28
@Shadow
also mit diesem Niveau brauchst du von MIR keine Antwort zu erwarten
btw ich bin nicht für eine von beiden Firmen....ich mag Innovation
wenn du aber eine Antwort verlangst, dann denk nochmal bitte ein wenig nach bevor du postet, ok? ;) (war nich bös gemeint aber ich lass mich ungern so anmachen und ausserdem bin ich niemand von diesen nv/ATi Jüngern)
ShadowXX
2003-06-13, 14:07:43
@robbitop
dann triff nicht solche allgemeinen Aussagen.
Es ist ein gerücht nichts weiter...also behandeln wir es als ein Gerücht.
Inquier ist bei Gerüchten genauso zuverlässig wie jede andere quelle...
Wenn du also nicht glaubst das der r420 shader nach 3.0 hat, dann begründe es...egal womit (von mir aus: 'zu kurze Entwicklungszeit' oder auch 'traue ich ATI nicht zu' ).
Ich habe auch meine Persöhnliche Meinung dazu, aber die Verkneife ich mir , solange ich nicht zumindest eine für mich logische Erklärung dafür habe (auch wenn Sie für andere vielleicht unlogisch ist..).
Übrigens habe ich dich nicht persönlich damit angreifen wollen, sondern mehr die Art wie (leider viele) argumentieren.
Ausserdem bin ich schon zu lange in diesem Forum um gewisse Zuneigungen deinerseits zu gewissen Gfx-Chips-Herstellern ignorieren zu können.
Ich habe nicht gegen nv...auch nichts gegen ati....der bessere möge Gewinnen.
J.S.Shadow
robbitop
2003-06-13, 15:28:52
du und ich sind nicht "viele andere"
und ich werde einen Teufel tun, mich dazu herab zu lassen, denn dann werde ich von diesen Leuten geschlagen, weil sie mehr Erfahrung auf diesem Niveau haben ;)
weiterhin sage ich meine Meinung so wie ich das denke (Begündet habe ich das ausserdem schon mehrfach)..solange ich damit niemanden verletze
und ich verbitte mir, mich als NV Jünger zu bezichtigen
ich sagte ich halte es für unwahrscheinlich, nicht unmöglich
Grund:
Im März entschied sich ATi für Loci, gegen R400. Tja zieht man 3 eher 4 Monate vom Ersten TapeOut bis zur Produktion ab, dann haben wir 6 Monate fürs Design. Und da die Pipelinestruktur, die für PS3.0 nötig ist, doch im Wesendlichen neu geschaffen werden muss, ist PS3 im R3xx Aufguss einfach nicht drin. Man muss etwas neues schaffen, dafür blieb keine Zeit. Für die Gestaltung des R300 war nicht wirklich viel nötig, denn die Pipelinestruiktur war (von langer hand vorbereitet) bereits mit dem R200 verfügbar (man hat das sehr gut gemacht imho). Ihre Meisterleistung haben sie vor allem im Trisetup bewiesen und in der realisierung eines solchen Monsters in 0,15µ ALu Interconnecs bei den Taktraten im vernünftigen Yield. Keien grossartigren Leckströme.
Von PS 1.4 auf 2.0 war es recht einfach umzustellen, bei 3.0 muss man einiges neu machen...somit halte ich das für unwahrscheinlich
und theinquerer ist nicht gerade sie Seriöseste Quelle ;)
is mir vollkommen egal ob loci ps/vs 3.0 hat oder nicht, wird man sowieso nicht verwenden können außer bei ein paar grafikdemos *gähn*.
wichtig ist die AA/AF-performance und qualität denn das ist es was die spiele schöner machen wird, vielleicht wird bis dahin sogar noch eine handvol ps/vs 2.0-spiele erscheinen, dann wäre ich schon überweltigt.
sehts ein ps/vs 3.0 sind bis ende 2004 ein marketinggag für ein paar grafikdemos, man zahlt also für etwas was man nicht wirklich gebrauchen kann.
ati und nvidia sollen sich auf AF/AA konzentrieren anstatt dx 15 zu unterstützen...
Pussycat
2003-06-13, 20:39:40
Original geschrieben von ShadowXX
Ich habe nicht gegen nv...auch nichts gegen ati....der bessere möge Gewinnen.
Keiner möge gewinnen. Dann haben wir nämlich ein Monopol, was ja (siehe Intel-CPU's früher) extrem schlecht für uns ist. Manche hier hätten gerne das irgenwelcher gewinnt, aber 95% hier ist glaub ich zu vernünftig dafür.
Richthofen
2003-06-13, 20:40:51
Original geschrieben von Pussycat
Keiner möge gewinnen. Dann haben wir nämlich ein Monopol, was ja (siehe Intel-CPU's früher) extrem schlecht für uns ist. Manche hier hätten gerne das irgenwelcher gewinnt, aber 95% hier ist glaub ich zu vernünftig dafür.
was heisst früher? Also bei 80% Marktanteil kann man gesunden Gewissens sagen, dass hier nach wie vor ein Monopol vorhanden ist.
dildo4u
2003-06-13, 20:45:07
theinquirer erzählt mist ich glaub kaum das die R420 schon ne PCIExpress karte ist glaub kaum das sich extra wegen einer GK viele ein Board mit PCI Express holen werden vor allem wenns noch nicht mal von den neuen P4 Boards unterstützt wird und von de Athlon64 Board hab ick bis jetzt auch noch keins mit PCI Express gesehen und wo soll überhaupt der vorteil sein bietet der PCI Express mehr Watt oder wird man zukünftige High End karten immer mit Extra Strom versorgen müssen was meint ihr ?
Eusti
2003-06-13, 22:00:14
Original geschrieben von Gast
is mir vollkommen egal ob loci ps/vs 3.0 hat oder nicht, wird man sowieso nicht verwenden können außer bei ein paar grafikdemos *gähn*.
wichtig ist die AA/AF-performance und qualität denn das ist es was die spiele schöner machen wird, vielleicht wird bis dahin sogar noch eine handvol ps/vs 2.0-spiele erscheinen, dann wäre ich schon überweltigt.
sehts ein ps/vs 3.0 sind bis ende 2004 ein marketinggag für ein paar grafikdemos, man zahlt also für etwas was man nicht wirklich gebrauchen kann.
ati und nvidia sollen sich auf AF/AA konzentrieren anstatt dx 15 zu unterstützen... *Volle Zustimmung*
Pussycat
2003-06-14, 15:11:51
Original geschrieben von dildo4u
theinquirer erzählt mist ich glaub kaum das die R420 schon ne PCIExpress karte ist glaub kaum das sich extra wegen einer GK viele ein Board mit PCI Express holen werden vor allem wenns noch nicht mal von den neuen P4 Boards unterstützt wird und von de Athlon64 Board hab ick bis jetzt auch noch keins mit PCI Express gesehen und wo soll überhaupt der vorteil sein bietet der PCI Express mehr Watt oder wird man zukünftige High End karten immer mit Extra Strom versorgen müssen was meint ihr ?
Ich meine dass schon heutige Grafikkarten in der Lage sind Großbuchstaben, Punkte und Kommas darzustellen.
Pussycat
2003-06-14, 15:13:55
Original geschrieben von Richthofen
was heisst früher? Also bei 80% Marktanteil kann man gesunden Gewissens sagen, dass hier nach wie vor ein Monopol vorhanden ist.
Monopol heisst für mich, dass es faktisch nur einen Anbieter gibt. Da AMD-CPU's extrem konkurrenzfähig sind (obwohl der schnellste nicht so schnell wie der schnellste P4 ist) gibt's hier für mich kein Monopol.
Bei Windows kann man nur sehr schwierig umsteigen. Bei 'nem Pentium ist das kein Problem.
Richthofen
2003-06-14, 16:08:00
Na dann kannst ja bei Nvidia auch kein Problem haben.
Dann ist ATI halt im oberen Segment nicht konkurenzfähig dafür dann im Low End mit paar kleineren Abstrichen.
Das wäre ja dann nach deiner Definition kein Monopol und damit nicht weiter schlimm.
Ergo reichts ja wenn ATI nur noch FX5200 Klasse Karten anbietet.
Pussycat
2003-06-15, 14:04:06
Völlig übertrieben. Bei AMD ist halt das allerschnellste etwas langsamer als der schnellste P4, in etwa wie R9800 <-> GF5900 (oder GF5800 <-> R9800 solange 5900 nicht da ist).
Amd-cpu's als eine 5200 darzustellen ist quatsch und dass weisst du auch. Und dass immer der eine oder andere ein kleines bisschen schneller sein wird ist ja nicht zu vermeiden, was du auch weisst.
Oder würdest du eine ATI-5200 für "extrem konkurrenzfähig" halten?
Richthofen
2003-06-15, 16:45:26
Ich kann deiner Definition nichts abgewinnen.
Mit 80% ist Intel klarer Monopolist.
Ob AMD konkurenzfähige CPUs baut oder nicht ist dabei irelevant.
AMD schreibt nach wie vor tief rot und konkurenzfähig ist man erst dann, wenn man konkurenzfähige Produkte hat und schwarz schreibt und einen gewissen Marktanteil sein eigen nennt.
Eine Firma die auf dauer rot schreibt ist eben dann irgendwann die längste Zeit am Markt gewesen. So simpel und einfach ist das und die Rechnung lieber Pussycat wirst du dann bezahlen :)
Insofern bleibt mal eins festzuhalten und das ist fakt.
ATI braucht keinen großeartigen Sympathiebonus, den hat ne andere Firma siehe oben sehr viel nötiger, da sie in einer viel schlechteren Ausgangslage ist.
Deswegen kann ich nur herzlich lachen wenn viele über Nvidia jammern und wie klein doch ATI ist dann aber ne dicke P4 CPU bei sich im Rechner haben.
Typische Doppelmoral und den Leuten wünsch ich es dann wärmstens, dass AMD möglichst bald baden geht, damit sie dann richtig zur Kasse gebeten werden.
Pussycat
2003-06-15, 21:41:19
Original geschrieben von Richthofen
Ich kann deiner Definition nichts abgewinnen.
Mit 80% ist Intel klarer Monopolist.
Ob AMD konkurenzfähige CPUs baut oder nicht ist dabei irelevant.
AMD schreibt nach wie vor tief rot und konkurenzfähig ist man erst dann, wenn man konkurenzfähige Produkte hat und schwarz schreibt und einen gewissen Marktanteil sein eigen nennt.
Die CPU's sind auf kedenFall konkurrenzfähig, vielleicht das Unternehmen nicht (oder Marketing oder was auch immer), aber die CPU's wohl. Findest du die Athlons dann so schrecklich schlecht?
Original geschrieben von Richthofen
Eine Firma die auf dauer rot schreibt ist eben dann irgendwann die längste Zeit am Markt gewesen. So simpel und einfach ist das und die Rechnung lieber Pussycat wirst du dann bezahlen :)
Erkläre mal das ":)" bitte. Ich freue mich nicht darauf.
Original geschrieben von Richthofen
Insofern bleibt mal eins festzuhalten und das ist fakt.
ATI braucht keinen großeartigen Sympathiebonus, den hat ne andere Firma siehe oben sehr viel nötiger, da sie in einer viel schlechteren Ausgangslage ist.
Deswegen kann ich nur herzlich lachen wenn viele über Nvidia jammern und wie klein doch ATI ist dann aber ne dicke P4 CPU bei sich im Rechner haben.
Typische Doppelmoral und den Leuten wünsch ich es dann wärmstens, dass AMD möglichst bald baden geht, damit sie dann richtig zur Kasse gebeten werden.
Irgenwie habe ich den Eindruck dass du hier auf mich am schimpfen bist. Ich habe seit Jahren AMD und empfehle es jeden, der mich fragt. Auch rate ich Leute ungefragt wenn sie nur über "P4 2,4 oder 2,6" reden. Das ATI kein riesigen Sympathiebonus brauchst ist mir auch klar.
Wieso sollte ich was gegen AMD haben?
Richthofen
2003-06-16, 01:11:09
ich meinte nicht dich speziell.
Ich finds nur lustig. Dabei ist es eigentlich völlig egal ob man bei planet3dnow, hartware.de oder hier oder rage3d ist.
ATI ist die arme kleine Bude und Nvidia der böse Monopolist.
Lol und 50% der Leute die das behaupten haben dann Intel CPUs.
Das meinte ich damit.
Exxtreme
2003-06-16, 01:15:14
Original geschrieben von Richthofen
Lol und 50% der Leute die das behaupten haben dann Intel CPUs.
Oder Microsoft-Betriebssysteme... :lol:
Salvee
2003-06-16, 01:20:08
Original geschrieben von Exxtreme
Oder Microsoft-Betriebssysteme... :lol:
Oder 'ne X-Box :)
Richthofen
2003-06-16, 02:06:47
hehe jo obwohl ich das mit MS OS noch verstehen kann, da hier nicht wirklich sinnvolle Alternativen vorhanden sind.
NUr wie gesagt gerad bei den CPUs kann ich es dann nicht verstehen. Wer Firmen nicht abkann, weil sie zu viel Marktanteile haben und deshalb in seinen Augen zu mächtig sind, der muss um Intel eigentlich einen riesen Bogen machen.
Von daher find ich es witzig wie selektiv dann etwas bei ATI gelten soll, bei CPUs dann aber einfach nicht mehr.
nagus
2003-12-24, 20:29:00
anscheinend hat R420 doch "nur" 8 pipes!
... die frage ist jetzt nur noch was ati mit 160mio transistoren und 8 pipes alles anstellen kann :)
Quasar
2003-12-24, 20:47:00
... Anständig bilinear filtern vielleicht? ;)
*scnr*
@Topic:
Woher diese Information, nagus?
betasilie
2003-12-24, 21:48:16
hmm. Dann vielleicht wirklich vollwertige Shader3.0 Unterstützung? :gruebel:
nagus
2003-12-24, 22:06:22
Original geschrieben von Quasar
... Anständig bilinear filtern vielleicht? ;)
*scnr*
@Topic:
Woher diese Information, nagus?
quote:
--------------------------------------------------------------------------------
Originally posted by Skinner
only 8 pipes? why are specs always getting less when we're coming closer to the realeasedate?
--------------------------------------------------------------------------------
Well my point was they're not exactly going to be "normal" pipes, given the transistor count hike and tech advancements over the last couple of years. I also heard someone hint that they may be able to support VS4.0 with R420 (!), an idea which ties in with the rumours that it contains R500-esque vertex shading units.
I'm sure it will be much, much faster. Especially for D3.
MuFu.
quelle: http://www.rage3d.com/board/showthread.php?threadid=33731776&perpage=30&pagenumber=4
betasilie
2003-12-24, 22:11:30
Original geschrieben von nagus
Well my point was they're not exactly going to be "normal" pipes, given the transistor count hike and tech advancements over the last couple of years. I also heard someone hint that they may be able to support VS4.0 with R420 (!), an idea which ties in with the rumours that it contains R500-esque vertex shading units.
I'm sure it will be much, much faster. Especially for D3.
MuFu.
quelle: http://www.rage3d.com/board/showthread.php?threadid=33731776&perpage=30&pagenumber=4
Da liege ich ja fast richtig mit meiner Vermutung.
Quasar
2003-12-24, 22:49:09
Original geschrieben von nagus
[...] I also heard someone hint that they may be able to support VS4.0 with R420 (!),[...]
Danke nagus, aber:
VS4.0? AFAIK gibt es ab 4.0 nur noch "Shader"....
...und nicht mehr die Unterteilung nach Pixel- und Vertexeinheiten.
Ich glaube in diesem Falle MuFu eher nicht.
Ailuros
2003-12-25, 01:53:57
Mufu hat keine genaue Daten ueber R420 und hat bis jetzt auch noch keine bekommen. Froehlich herumraten kann jeder.
***edit: um Missverstaendnissen zu entgehen, er hat auch schon mal frueher gepostet dass R420 an die 200M Transistoren hat; dabei basierte diese Spekultation alleine auf den Synopsys ATI press release. Zukuenftiger chip kann vieles bedeuten.
VS4.0? AFAIK gibt es ab 4.0 nur noch "Shader"....
...und nicht mehr die Unterteilung nach Pixel- und Vertexeinheiten.
Schon wahr Quasar. Obwohl ich ernsthafte Zweifel habe dass sie schon so weit sind (Teufel wie will jemand Shader specs fuer DX-Next definieren wenn dieses immer noch unter Verhandlungen liegt; genau das gleiche gilt auch fuer R500), grueble ich trotz allem gerade darueber nach, was jeglichen IHV haette aufhalten koennen universale Einheiten schon so frueh zu verwenden. Gleiches gilt natuerlich auch fuer NV40.
Technisch ist es nicht unmoeglich so wie ich es sehe, aber von Shader 4.0 Komplianz kann man in keinem Fall reden; im Ideal-Fall von Shader 3.0 Komplianz mit ein paar Anteilen die zu zukuenftigen Shadern gehoeren.
Mufu's Geblubber kommt aber zum Widerspruch wenn er R500-artige VS units erwaehnt; das ist schon klar.
Ailuros
2003-12-25, 01:59:49
Original geschrieben von nagus
anscheinend hat R420 doch "nur" 8 pipes!
... die frage ist jetzt nur noch was ati mit 160mio transistoren und 8 pipes alles anstellen kann :)
Das einzige an was man sich halten sollte von dem Quark im Link, ist dass es gar keine Pipelines mehr gibt im alten Sinn in =/>PS/VS3.0 chips.
Sei froh wenn ATI ein wahres "no-pipe-design" hat; ich weiss schon gar nicht mehr wie oft so manche schon gesagt haben dass z.B. die Anzahl von ops pro Takt umso einiges wichtiger ist, als der alte Firlefanz an den wir uns gewoehnt haben.
***edit: zur Frage; genauso viel wie auf einem NV40.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.