Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia GeForce FX als SE Version?
Celeron
2003-08-14, 15:21:39
Davon liest man überall im Internet,
was ist von den SE-Versionen zuhalten und wann kommen die wohl ?
:)
Celeron
DrumDub
2003-08-14, 16:50:49
der nachfolger zur 5200 auf basis des nv35... für den oem-markt konzipiert und daher eher uninteressant für den ambitionierten gamer.
Denniss
2003-08-14, 20:01:04
Könnte dann ähnlich einer Radeon LELE sein - Kerntakt undgefähr auf Normalniveau aber grottig lahmer Speichertakt um billigen Speicher benutzen zu können
Celeron
2003-08-20, 12:53:57
.
.
.
Celeron
StefanV
2003-08-20, 12:58:31
Original geschrieben von Celeron
Davon liest man überall im Internet,
was ist von den SE-Versionen zuhalten und wann kommen die wohl ?
:)
Celeron
1. welche FX???
2. Warum freust du dich so auf 'ne Slow Edition??
Celeron
2003-08-20, 14:01:14
1. FX 5200 --> SE
2. Freue mich nicht,
aber meine ATI Radeon macht nur noch probleme von Bildfehlern bis das eine neue Windows 2000 PRO installion (Treiber) nicht mehr klappt wie bisher,kommen nur Fehlermeldungen.
Habe erstmal mein altes gutes Stück wieder eingebaut im PCI die Elsa Vitory 3 DX und es läuft einwandfrei ;D !
Deshalb mal schnell eine günstige FX 5200 SE das wäre es doch oder...?
Celeron
ShadowXX
2003-08-20, 14:08:31
Welche Radeon hast du denn....
Die 5200SE ist/wird nicht gerade ein Geschwindigkeitswunder sein...
Also wenn du eine Radeon >= 8500 hast, würde ich eher versuchen Sie wieder ins System zu bekommen.
J.S.Shadow
Celeron
2003-08-20, 14:14:33
.
.
.
Celeron
StefanV
2003-08-20, 14:15:54
Original geschrieben von Celeron
1. FX 5200 --> SE
2. Freue mich nicht,
aber meine ATI Radeon macht nur noch probleme von Bildfehlern bis das eine neue Windows 2000 PRO installion (Treiber) nicht mehr klappt wie bisher,kommen nur Fehlermeldungen.
Habe erstmal mein altes gutes Stück wieder eingebaut im PCI die Elsa Vitory 3 DX und es läuft einwandfrei ;D !
Deshalb mal schnell eine günstige FX 5200 SE das wäre es doch oder...?
Celeron
klingt irgendwie danach, daß die Karte am absterben ist...
Oder halt du hast 'nen Fehler gemacht, z.B. zu wenig Platz auf der Windows Partion (hatte ich heute morgen erst...)
StefanV
2003-08-20, 14:16:13
Original geschrieben von Celeron
.
.
.
Celeron
omg, 'ne Radeon VE...
Celeron
2003-08-20, 14:21:51
normal kein problem habe Ich schon oft gemacht aber jetzt mit der Radeon geht nichts mehr hatte die letzten Wochen immer mehr Bildfehler gemacht (bunte Klötzenstreifen und so)...
Celeron
StefanV
2003-08-20, 14:25:30
Original geschrieben von Celeron
normal kein problem habe Ich schon oft gemacht aber jetzt mit der Radeon geht nichts mehr hatte die letzten Wochen immer mehr Bildfehler gemacht (bunte Klötzenstreifen und so)...
Celeron
Na, dann ist der Fall ja glasklar: die is hin!!
Celeron
2003-08-20, 14:27:52
Wann kommt die SE den ?
Celeron
StefanV
2003-08-20, 14:30:42
Original geschrieben von Celeron
Wann kommt die SE den ?
Celeron
k/a, wanns die beschnittenen mit 64bit SDR-SDRAM Interface gibt *eg*
Celeron
2003-08-20, 14:35:00
...aber erstmal läuft alles zum Glück mit der Elsa Victory 3 DX ,
wieso ist die eigendlich so unkapputbar,glaube ist 5-6 Jahre jung ?
Celeron
StefanV
2003-08-20, 14:40:31
Original geschrieben von Celeron
...aber erstmal läuft alles zum Glück mit der Elsa Victory 3 DX ,
wieso ist die eigendlich so unkapputbar,glaube ist 5-6 Jahre jung ?
Celeron
Gaanz einfach:
-Weniger wärmeabgabe
-größere Strukturbreigen
-unempfindlicher gegenüber etwas höherer Spannung
Denniss
2003-08-21, 00:25:52
Mit Glück und gutem speicher bekommst Du die sogar auf ca 80MHz
Ich hab' noch 'ne Terminator 3D/DX mit 35ns EDO die so ca 83MHz mitmacht :D
Celeron
2003-08-21, 09:40:30
.
.
.
Celeron
Eine "5200" auf NV35-Basis und 128-Bit-Interface ist einer 5200 sicherlich vorzuziehen. Ob so eine Karte geplant ist, weiß ich aber nicht. Solange NV alleine im Low-DX9-Segment ist, brauchen sie da ja kein neues Produkt.
Razor
2003-08-31, 09:23:58
Original geschrieben von aths
Eine "5200" auf NV35-Basis und 128-Bit-Interface ist einer 5200 sicherlich vorzuziehen. Ob so eine Karte geplant ist, weiß ich aber nicht. Solange NV alleine im Low-DX9-Segment ist, brauchen sie da ja kein neues Produkt.
Warum sollte so etwas vorzuziehen sein ?
Vielleicht macht so etwas in 2 Jahren mal Sinn...
Razor
Ailuros
2003-08-31, 09:27:35
Warum sollte so etwas vorzuziehen sein ?
Weil sie theoeretisch mehr Chancen fuer Shader-Leistung haben koennte. Obwohl man sowieso nicht viel davon bei dem Preis erwarten sollte.
Razor
2003-08-31, 09:33:44
Original geschrieben von Ailuros
Weil sie theoeretisch mehr Chancen fuer Shader-Leistung haben koennte. Obwohl man sowieso nicht viel davon bei dem Preis erwarten sollte.
Und wen interessiert Shader-Leistung JETZT ?
(und um bei aths Wertung zu bleiben: unterirdisch + unterirdisch ist was ? ;-)
???
Für den derzeitigen Ultra-Low-End-Markt wäre eine solche Lösung völlig uninteressant, wenn nicht sogar kontraproduktiv.
Razor
Ailuros
2003-08-31, 09:53:41
Original geschrieben von Razor
Und wen interessiert Shader-Leistung JETZT ?
(und um bei aths Wertung zu bleiben: unterirdisch + unterirdisch ist was ? ;-)
???
Für den derzeitigen Ultra-Low-End-Markt wäre eine solche Lösung völlig uninteressant, wenn nicht sogar kontraproduktiv.
Razor
Dann frag lieber NVIDIA warum sie Tranistoren fuer dx9.0 verschwendet haben im low end und sich nicht mit dx8.1 zufrieden gestellt haben. Als einzige Karte im low end mit Multisampling haette sie sich genauso gut verkauft.
Wenn es einen refresh von der 5200 geben wuerde, was genau fuer Unterschiede wuerdest Du Dir fuer eine solche Loesung vorstellen? Nur eine hoehere Taktrate?
Original geschrieben von Razor
Warum sollte so etwas vorzuziehen sein ?
Vielleicht macht so etwas in 2 Jahren mal Sinn... NV35 hat kaum mehr Transistoren als NV30. Ein NV34 auf NV35-Basis würde also keinen deutlich größeren Core ergeben, dafür wäre die Shader-Leistung besser. Spielte Shader-Leistung gar keine Rolle, bräuchte man kein DX9-Support auf der Karte. Der Arithmetik-Teil der Pixelshader könnte ein auf NV35 basierendem Nachfolger immerhin doppelt so schnell pro Takt ausgeführt werden. Fast immer ist der Arithmetik-Teil bei 2.0-Shadern deutlich größer als der Sampling-Anteil, das würde schon was bringen.
Razor
2003-08-31, 10:13:36
Original geschrieben von aths
NV35 hat kaum mehr Transistoren als NV30. Ein NV34 auf NV35-Basis würde also keinen deutlich größeren Core ergeben, dafür wäre die Shader-Leistung besser. Spielte Shader-Leistung gar keine Rolle, bräuchte man kein DX9-Support auf der Karte. Der Arithmetik-Teil der Pixelshader könnte ein auf NV35 basierendem Nachfolger immerhin doppelt so schnell pro Takt ausgeführt werden.
Sehr schön aths... nur wozu ?
Derzeitige Games würden (so gut wie) nicht profitieren !
Ganz im Gegenteil gibt es auch Nachteile durch die NV35-Archtitektur, bezogen auf heutige (gestrige) Games.
Und was meinst Du, was für einen Ultra-Low-End Käufer wichtiger ist ?
Theoretische Shader-Performance (die auch verdoppelt noch immer nicht 'hipp' sein dürfte ;-), die heute sowieso so gut wie keiner 'braucht', oder eben praxis-relevante Performance (DX7/8 ohne PS1.4 ;-)...
Ist eine rethorische Frage.
Eine "5200" auf Basis des NV35 (in 0.15 ? ;-) wäre nicht nur wirtschaftlicher, sondern auch Marketing-technischer Unsinn. Ganz im Gegenteil, für nVidia dürfte das DIE CashCow schlechthin sein und für den Kunden das, was sie sein sollte: eine Ultra-Low-End-Karte besierend auf modernster Technologie.
Mehr 'Performance' interessiert hier Niemanden !
(erst recht, wenn es um DX9-Performance geht ;-)
Razor
Razor
2003-08-31, 10:21:33
Original geschrieben von Ailuros
Dann frag lieber NVIDIA warum sie Tranistoren fuer dx9.0 verschwendet haben im low end und sich nicht mit dx8.1 zufrieden gestellt haben. Als einzige Karte im low end mit Multisampling haette sie sich genauso gut verkauft.
Nö.
Damals wurde nVidia (zu recht) gescholten, weil sie veraltete Technologie unter neuem Namen verkauften. Auch wollen sie JETZT ihre neue Technologie pushen und eine möglichst breite Anwenderbasis dafür schaffen.
'Verschwendet' wurde hier rein gar nichts, sondern ganz im Gegenteil hat man auf die Kundenbedürfnisse reagiert und kommt den eigenen Zielen ein erhebliches Stück näher. Das ganze dann noch mit einem 40mio Trans.Chip der in einer ausgereiften Fertigungstechnologie gerfertigt wird.
Ergo: nix verschwendet.
Ganz im Gegenteil: sind derzeit einziger Anbieter mit modernster Technologie im Ultra-Low-End-Segment...
(und verdienen sich dabei dumm und dämlich ;-)
Original geschrieben von Ailuros
Wenn es einen refresh von der 5200 geben wuerde, was genau fuer Unterschiede wuerdest Du Dir fuer eine solche Loesung vorstellen? Nur eine hoehere Taktrate?
Für die 5200 wird es keinen 'Refresh' geben...
Wozu auch ?
???
Eines der wenigen 'perfekten' Produkte würde ich sagen.
(selbstverständlich aus Sicht des Herstellers ;-)
Razor
P.S.: der nächste Vertreter im Ultra-Low-End-Markt wird vermutlich erst auf Basis des NV40 kommen... wenn überhaupt...
Original geschrieben von Razor
Sehr schön aths... nur wozu ?
Derzeitige Games würden (so gut wie) nicht profitieren !
Ganz im Gegenteil gibt es auch Nachteile durch die NV35-Archtitektur, bezogen auf heutige (gestrige) Games.
Und was meinst Du, was für einen Ultra-Low-End Käufer wichtiger ist ?
Theoretische Shader-Performance (die auch verdoppelt noch immer nicht 'hipp' sein dürfte ;-), die heute sowieso so gut wie keiner 'braucht', oder eben praxis-relevante Performance (DX7/8 ohne PS1.4 ;-)...
Ist eine rethorische Frage.
Eine "5200" auf Basis des NV35 (in 0.15 ? ;-) wäre nicht nur wirtschaftlicher, sondern auch Marketing-technischer Unsinn. Ganz im Gegenteil, für nVidia dürfte das DIE CashCow schlechthin sein und für den Kunden das, was sie sein sollte: eine Ultra-Low-End-Karte besierend auf modernster Technologie.
Mehr 'Performance' interessiert hier Niemanden !
(erst recht, wenn es um DX9-Performance geht ;-)Welche Nachteile hat der NV35??
Ein neues Produkt, was nicht mehr kostet, aber gegenüber dem alten Vorteile hat, ist immer sinnvoll. NV ist vermutlich nur deshalb so still, weil sie momentan die einzigen mit dieser Ultralow-DX9-Lösung sind. Ansonsten wären sie praktisch gezwungen, ein neues Produkt zu releasen, um im Geschäft zu bleiben. Eine 5200-Ablösung ist technologisch sinnvoll, marketingmäßig erst recht, und wirschaftlich auch (durch einen dann möglichen "Refresh" der Preise.)
Eine FX 5200 kann überhaupt nicht mit einer 9600 mithalten, was zugegebenermaßen heutzutage auch noch keiner verlangt. Bemerkenswert: Die 64-Bit-9600 von SP schneidet meist besser ab als deine 5200 mit 128 Bit. Auf der 9600 basierend wird ATI vermutlich versuchen, ins DX9-Einsteigersegment vorzustoßen. Wenn Nvidia hier nicht jeden Benchmark haushoch verlieren möchte, kommen sie um eine Ablösung der 5200 gar nicht herum. Konkurrenz belebt das Geschäft, und das ist gut so. Nur solange ATI die 9600 im Midrange hält, kann NV seine 5200-Lösung behalten.
Razor
2003-08-31, 10:43:23
Original geschrieben von aths
Welche Nachteile hat der NV35??
DX8-Rohleistung...
Original geschrieben von aths
Ein neues Produkt, was nicht mehr kostet, aber gegenüber dem alten Vorteile hat, ist immer sinnvoll. NV ist vermutlich nur deshalb so still, weil sie momentan die einzigen mit dieser Ultralow-DX9-Lösung sind. Ansonsten wären sie praktisch gezwungen, ein neues Produkt zu releasen, um im Geschäft zu bleiben. Eine 5200-Ablösung ist technologisch sinnvoll, marketingmäßig erst recht, und wirschaftlich auch (durch einen dann möglichen "Refresh" der Preise.)
Ein neues Produkt ist nur dann "sinnvoll", wenn es der Firma auch was bringt.
Eine neue, bzw. bessere Fertigungstechnologie, die die Produktionskosten senkt. Oder Features beispielsweise, die neu hinzu kommen...
Mit was sollte nVidia denn ein solchen Produkt bewerben ?
"Doppelt so hohe unterirdische Shader-Performance !"
;D
Also wirklich.
Und wie soll die Fertigung in der derzietigen Situation optimiert werden ?
Schau Dir einfach die gf4mx-Linie an.
Da hat sich seit Release rein gar nichts verändert und verkaufen tun die sich, wie geschnitten Brot...
Nix, aber auch rein gar nichts musste da geändert werden.
Original geschrieben von aths
Eine FX 5200 kann überhaupt nicht mit einer 9600 mithalten, was zugegebenermaßen heutzutage auch noch keiner verlangt. Bemerkenswert: Die 64-Bit-9600 von SP schneidet meist besser ab als deine 5200 mit 128 Bit.
Wo denn das ?
???
Im ImgTech-Demo ?
:lol:
Und selbst wenn... die R9600 kostet glatt doppelt so viel und sollte eher gegen das (dem Namen und dem Markt-Segment vergleichbare) Produkt gestellt werden, welches hierfür vorgesehen und auch positioniert ist (130€ ja ?). Ergo: R9600 gegen FX5600... liegen im gleichen Segment und kosten auch das Gleiche und haben sogar vergleichbare Leistungsdaten.
Wie man hier eine Konkurrenz-Situation zur FX5200 konstruieren will, ist für mich völlig sinnfrei.
Original geschrieben von aths
Auf der 9600 basierend wird ATI vermutlich versuchen, ins DX9-Einsteigersegment vorzustoßen. Wenn Nvidia hier nicht jeden Benchmark haushoch verlieren möchte, kommen sie um eine Ablösung der 5200 gar nicht herum. Konkurrenz belebt das Geschäft, und das ist gut so. Nur solange ATI die 9600 im Midrange hält, kann NV seine 5200-Lösung behalten.
Und Du meinst tatsächlich, dass ATI im Ultra-Low-End-Segment Chips unter Preis verkauft ?
Bei 130€ könnte ich mir bei Karten auf RV350 basierend noch eine halbwegs gute Retabilität vorstellen... aber für die Hälfte ?
Sorry, aber das wäre wirtschaftlicher Unsinn par Excellence.
ATI sollte sich eher mal darum kümmern endlich mal ordentlich Gewinn einzufahren.
Wenn ATI jetzt einen Chip bringen würde, welcher noch weiter abgespeckt und nochmals günstiger herzustellen wäre, würde das Sinn machen.
So nicht...
Razor
LovesuckZ
2003-08-31, 10:52:17
Original geschrieben von aths
Eine FX 5200 kann überhaupt nicht mit einer 9600 mithalten, was zugegebenermaßen heutzutage auch noch keiner verlangt. [...] Auf der 9600 basierend wird ATI vermutlich versuchen, ins DX9-Einsteigersegment vorzustoßen.
Es ist merkwürdig, dass ATi anscheinend nur mit Mid -/ High - End Karten im Low Cost Sektor interessant wird...
Original geschrieben von aths
Eine FX 5200 kann überhaupt nicht mit einer 9600 mithalten, was zugegebenermaßen heutzutage auch noch keiner verlangt. Bemerkenswert: Die 64-Bit-9600 von SP schneidet meist besser ab als deine 5200 mit 128 Bit. Auf der 9600 basierend wird ATI vermutlich versuchen, ins DX9-Einsteigersegment vorzustoßen. Wenn Nvidia hier nicht jeden Benchmark haushoch verlieren möchte, kommen sie um eine Ablösung der 5200 gar nicht herum. Konkurrenz belebt das Geschäft, und das ist gut so. Nur solange ATI die 9600 im Midrange hält, kann NV seine 5200-Lösung behalten.
Du willst hier eine Konkurenz schaffen zwischen 2 Produkten, die niemals Konkurenten sein können.
Der Rv350 ist nicht nur teurer in der Produktion sondern kann auch nicht ausreichend geliefert werden.
Du scheinst zu vergessen, dass im Low nur der erfolgreich ist, der die ungeheuren Stückzahlen liefern kann.
Das ist mit 0.13 derzeit nach wie vor nicht drinn.
Meinst du Nvidia weiss das nicht?
Solange sie sehen, dass TSMC nicht genug Kapazitäten hat und solange sie damit einen Großteil blockieren können, solange brauchen sie sich um ATIs krampfhaften Versuch über den Preis ins Low End mit dem RV350 zu kommen keinen Kopf machen.
Was nicht lieferbar ist, kann dem eigenen Produkt auch nicht schaden :)
Die Kapazitäten sind nach wie vor begrenzt und der Bedarf lässt sich noch nichtmal im Mainstream Segment befriedigen. Da soll ATI nun die wertvollen Chips im Billigpreissegment verkaufen?
Wasn das für ne Strategie.
Ich schliesse nicht aus, dass es noch ein Update der FX5200 geben wird aber dazu muss ATI erstmal das richtige Produkt liefern. Der RV350 ist definitiv das falsche. Damit lässt sich kein Gefecht aufziehen. Und das weiss Nvidia.
Mit dem RV350 im Sub 100 wird ATI nicht verhindern können, dass Nvidia DX9 Karten im Verhältnis von ca 5 oder 6:1 verkauft.
Die NV34 Preise sind super niedrig. Das Teil muss spottbillig herzustellen sein und die Ausbeute verdammt hoch. Dazu kommt, dass der 0.15 nach wie vor wegen immenser Überkapazitäten deutlich günstiger als der 0.13er ist, von der Lieferfähigkeit mal ganz abgesehen.
Demnächst wird es von Nvidia noch ne NV35 Value geben aga FX5900SE.
Sieht nicht so aus, dass die Kapazitätsentwicklung besser wird und wie ich Nvidia kennen, werden sie den NV31 weiterproduzieren bei TSMC auch wenn ihr NV36 von IBM fertig ist und wenns nur dazu ist, den Markt mit DX9 zu fluten und ATI keine Luft bei der Herstellung zu lassen.
Aquaschaf
2003-08-31, 11:36:07
Original geschrieben von LovesuckZ
Es ist merkwürdig, dass ATi anscheinend nur mit Mid -/ High - End Karten im Low Cost Sektor interessant wird...
Was ist daran so ungewöhnlich? Wenn sie halt noch keinen DX9 Lowend Chip haben? Bei der 9500 Pro wars doch im Grunde ähnlich, ein Highend Chip durch beschnittenes Speicherinterface in den Midrange Bereich befördert, bis dann die Ablöse durch die echten Midrange Chips (9600) kam. Und für den Kunden war die 9500 Pro ja nichts schlechtes ;)
Die Lieferfähigkeit bei der 9500pro war fantastisch....
Wirklich sehr wirksam.
Original geschrieben von Razor
DX7-Rohleistung...Warum das? Weil gewisse Combiner-Ops jetzt 2 Takte brauchen? Soweit ich weiß, steckt der NV35 das einfach weg.
Original geschrieben von Razor
Ein neues Produkt ist nur dann "sinnvoll", wenn es der Firma auch was bringt.Zum Beispiel einen Preis-Refresh.
Original geschrieben von Razor
Mit was sollte nVidia denn ein solchen Produkt bewerben ?
"Doppelt so hohe unterirdische Shader-Performance !"Zum Beispiel, ja. "NVIDIA doubles the performance of it's award-winning DX9 entry solution. High-performance DX9-power at unbeatable low cost..."
Original geschrieben von Razor
Also wirklich.Jupp.
Original geschrieben von Razor
Und wie soll die Fertigung in der derzietigen Situation optimiert werden ?Was soll daran so schwierig sein?
Original geschrieben von Razor
Schau Dir einfach die gf4mx-Linie an.
Da hat sich seit Release rein gar nichts verändert und verkaufen tun die sich, wie geschnitten Brot...Doch, sie bieten die MX jetzt mit 8x AGP an. "Double bandwidth". Die MXe werden wohl früher oder später ganz durch die 5200 bzw. dessen Nachfolger ersetzt werden, schließlich wurde die 5200 extra dafür entworfen.
Original geschrieben von Razor
Nix, aber auch rein gar nichts musste da geändert werden.Das AGP-Interface... wer hätte noch 4xAGP-Karten gekauft?? Ganz ähnlich sieht es bei AIT aus: Die 9200 ist gut und billig, aber heute muss es ja unbedingt DX9 sein. Hier müssen sie reagieren, und werden reagieren.
Original geschrieben von Razor
Wo denn das ?
???
Im ImgTech-Demo ?Im 3DMark03 z.B. :naughty:
Original geschrieben von Razor
Und selbst wenn... die R9600 kostet glatt doppelt so viel und sollte eher gegen das (dem Namen und dem Markt-Segment vergleichbare) Produkt gestellt werden, welches hierfür vorgesehen und auch positioniert ist (130€ ja ?). Ergo: R9600 gegen FX5600... liegen im gleichen Segment und kosten auch das Gleiche und haben sogar vergleichbare Leistungsdaten.Die 5600 wird u. U. auch nicht mehr seeehr lange in dieser Form existieren. Wenn es der 5900 Value gelingt, die preisliche Lücke zu schließen, hat die 5600 gute Karten. Ansonsten sehe ich den Bedarf nach einer 5700, quasi ein NV31 auf NV35-Basis. Würde ich natürlich genauso begrüßen wie eine "5300". Wir wissen ja, wie es um die CineFX-1-Shaderleistung bestellt ist. Je mehr Produkte auf CineFX 2 basieren, umso besser.
Original geschrieben von Razor
Wie man hier eine Konkurrenz-Situation zur FX5200 konstruieren will, ist für mich völlig sinnfrei.Das ist für dich auch ein bestimmtes DX8.1-Feature, was nichtsdestotrotz genutzt wird. Will damit nur sagen, was für dich sinnfrei sein mag, mögen andere anders sehen. Denk mal an dein Statement Radeon 9700 vs. GF3...
Original geschrieben von Razor
Und Du meinst tatsächlich, dass ATI im Ultra-Low-End-Segment Chips unter Preis verkauft ?
Bei 130€ könnte ich mir bei Karten auf RV350 basierend noch eine halbwegs gute Retabilität vorstellen... aber für die Hälfte ?Woher weißt du, was ATI so ein Chip kostet? Der Chip ist auch nicht alles. Wegen der deutlich höheren Power der 9600-er reicht ein langsamerer Chip-Takt, langsamer RAM... und gegebenfalls ein 64-Bit-Interface (dann natürlich mit höherem Takt, aber große Zahlen sind ja gut fürs Marketing.) Ich lese gerade hier http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=91119 dass ATI vielleicht schon jetzt was in Mache hat...
Original geschrieben von Razor
Sorry, aber das wäre wirtschaftlicher Unsinn par Excellence.
ATI sollte sich eher mal darum kümmern endlich mal ordentlich Gewinn einzufahren.Eben dazu brauchen sie auch DX9-Karten, die sie so billig wie möglich anbieten können.
Original geschrieben von Razor
Wenn ATI jetzt einen Chip bringen würde, welcher noch weiter abgespeckt und nochmals günstiger herzustellen wäre, würde das Sinn machen.
So nicht...Spricht da der 3D-erfahrene Ingenieur??
Original geschrieben von Gast
Du willst hier eine Konkurenz schaffen zwischen 2 Produkten, die niemals Konkurenten sein können.
Der Rv350 ist nicht nur teurer in der Produktion sondern kann auch nicht ausreichend geliefert werden.
Du scheinst zu vergessen, dass im Low nur der erfolgreich ist, der die ungeheuren Stückzahlen liefern kann.
Das ist mit 0.13 derzeit nach wie vor nicht drinn.Wer spricht von 0.13? Der RV350 ist teurer, ja. Die aktuelle 5200-Konkurrent ist auch eher die 9200. Allerdings verkauft sich eine FX 5200 vor allem wegen DX9 so prächtig. Ich denke, ATI weiß, dass sie hier nachlegen müssen. Der Chip der noch am ehesten infrage käme, wäre der RV350.
Original geschrieben von Gast
Demnächst wird es von Nvidia noch ne NV35 Value geben aga FX5900SE.
Sieht nicht so aus, dass die Kapazitätsentwicklung besser wird und wie ich Nvidia kennen, werden sie den NV31 weiterproduzieren bei TSMC auch wenn ihr NV36 von IBM fertig ist und wenns nur dazu ist, den Markt mit DX9 zu fluten und ATI keine Luft bei der Herstellung zu lassen. NV35 wird auch als Value kaum in den Stückzahlen abgesetzt, die mit Karten à la NV34 möglich sind. Da Nvidia als erste diese superbillig-DX9-Lösung brachte, wird es für ATI schwer, dort auf vernünftige Marktanteile zu kommen. Imo werden sie es aber versuchen.
mapel110
2003-08-31, 14:07:59
was soll so schwierig daran sein, grosse stückzahlen 0.13er karten zu produzieren. laut einer meldung von vor einigen wochen war die produktion von tsmc zu iirc 95% auf 0.13 umgestellt, und umc wollte innerhalb des dritten quartals nachziehen. und spätestens im 4ten quartal wollten beide zu 100% ihre produktion umgestellt haben.
so what?!
das märchen von den 0.13 kapazitäten zog vielleicht zu nv30 zeiten, aber jetzt nicht mehr.
Ailuros
2003-08-31, 17:23:53
Nö.
Damals wurde nVidia (zu recht) gescholten, weil sie veraltete Technologie unter neuem Namen verkauften. Auch wollen sie JETZT ihre neue Technologie pushen und eine möglichst breite Anwenderbasis dafür schaffen.
Und ich war auch selber gegen die abgewaschenen DX7/4MXen; aber entwender man macht etwas richtig oder ueberhaupt nicht. Auf Papier kann jeder vieles behaupten. Die Entwickler koennen mit dieser Anwenderbasis wenig anfangen, die warten dann wohl eher bis heutige high end dx9 Produkte in den mainstream Bereich rutschen.
'Verschwendet' wurde hier rein gar nichts, sondern ganz im Gegenteil hat man auf die Kundenbedürfnisse reagiert und kommt den eigenen Zielen ein erhebliches Stück näher. Das ganze dann noch mit einem 40mio Trans.Chip der in einer ausgereiften Fertigungstechnologie gerfertigt wird.
Ja Brian ;)
Für die 5200 wird es keinen 'Refresh' geben...
Wozu auch ?
Komischerweise sah ich schon auf zwei roadmaps NV34SE; natuerlich ist es moeglich dass sie es doch nicht realisieren, aber ich bebalte mal sicherheitshalber den Link fuer spaeteren Gebrauch :P
Ein neues Produkt ist nur dann "sinnvoll", wenn es der Firma auch was bringt.
Eine neue, bzw. bessere Fertigungstechnologie, die die Produktionskosten senkt. Oder Features beispielsweise, die neu hinzu kommen...
Doppelt so hohe Shaderleistung mit minimalen Hardware-Aufwand ist ein Feature, fuer das uebrigens viele Verbraucher dummerweise bezahlt haben. Ein bisschen besser als dekorativ ist immer besser.
Bei 130€ könnte ich mir bei Karten auf RV350 basierend noch eine halbwegs gute Retabilität vorstellen... aber für die Hälfte ?
Ich denke aths meint ATI's naechsten low end Schub. In dem Fall sitzt im low end unter NV40 in absehbarer Zeit NV34SE und bei ATI wohl was? Immer noch R2xx-budget Varianten?
Wo denn das ?
Im ImgTech-Demo ?
Wohl dann eher im Dawn demo wenn's schon sein muss. ImgTec's zukuenftige Techdemos, werden wohl eine kleine Schwierigkeit haben auf allen dx9 Karten zu laufen.
Original geschrieben von mapel110
was soll so schwierig daran sein, grosse stückzahlen 0.13er karten zu produzieren. laut einer meldung von vor einigen wochen war die produktion von tsmc zu iirc 95% auf 0.13 umgestellt, und umc wollte innerhalb des dritten quartals nachziehen. und spätestens im 4ten quartal wollten beide zu 100% ihre produktion umgestellt haben.
so what?!
das märchen von den 0.13 kapazitäten zog vielleicht zu nv30 zeiten, aber jetzt nicht mehr.
So?
Na dann schau mal bei geizhals und co wie oft du siehst
"nicht lieferbar, Lieferung wird erwartet, nachbestellt usw...)
Schon komisch wenn doch so viele Kapazitäten da sein sollen.
Nvidia sagt selber, dass nicht genug da ist.
Wo soll dann bitte ATI die Kapazitäten hernehmen?
Mal eben Fab wechseln? Das können sie machen, aber das kostet Zeit.
RV350 in 0.13 wird gg. die 0.15 FX5200 nix reissen.
Wie willst du die Nachfrage da zufriedenstellen, wenn die OEMs ungeheure Mengen ordern. Ein OEM möchte zwar das beste Produkt aber wenn etwas nicht zu 100% lieferbar ist, bestellt er das schlechtere.
Hauptsache lieferbar, so dass es im Rechner landet.
BTW ist die Ausbeute bei TSMCs 0.13 nach wie vor zwischen 40 und 70%.
Wahrlich dolle und dazu noch der Premiumpreis und die schlechte Lieferfähigkeit.
Sorry aber mit 0.13 wird das vorm Ende 1. Anfang 2. Quartal nix und tjo dann dürfte Nvidia langsam den NV34 durch einen NV40 Abkömmling ersetzen und dann ist DX9 mit PS2.0 nicht mehr interessant. Dann stehen PS / VS 3.0 auf der Tagesordnung. Also dann brauch ATI nicht mehr mit nem DX9 Low End Produkt kommen.
Ailuros
2003-09-01, 03:12:09
Ich wuerde mal im voraus vorsichtig sein mit den NV4x low-end Ablegern mit PS/VS3.0. Sooo schnell ist die Lebenszeit der NV3x Linie noch nicht aus. Unter 100M Transistoren kommt selbst ein low end NV4x chip (nach Schaetzungen) selbst mit reduzierten Spezifikationen nicht leicht weg.
wieso 100 Mio?
Der Sprung von CineFX II auf PS/VS 3.0 ist nicht mehr besonders gross.
Der NV30 hatte über 120 Mio Transistoren. Der NV34 hat ca. 45 Mio.
Also etwas mehr als 1/3.
Wenn der NV40 150 Mio hat, schätze ich so 50 bis 65 Mio für die Low End Version.
Ailuros
2003-09-01, 05:27:07
Also noch ne MX Variante mit leicht hoeherer Taktrate? ;D
http://www.darkcrow.co.kr/image/Article/MSITF/23s.jpg
Falls es NV38 tatsaechlich geben wird, rechne die mal mit rein.
1H2004 NV40/NV36X/NV34se
2H2004 NV45/NV41/NV42/NV43
Uebrigens ich erinnere trotzdem noch mal dass keiner sicher ist ob und zu welchem Grad ATI PS/VS3.0 in ihren Produkten hat. Ich schaetze auch dass es nicht voll geschafft haben, aber die bringen die eine Ueberraschung nach der anderen in letzter Zeit.
mapel110
2003-09-01, 11:01:09
Original geschrieben von Gast
So?
Na dann schau mal bei geizhals und co wie oft du siehst
"nicht lieferbar, Lieferung wird erwartet, nachbestellt usw...)
Schon komisch wenn doch so viele Kapazitäten da sein sollen.
Nvidia sagt selber, dass nicht genug da ist.
Wo soll dann bitte ATI die Kapazitäten hernehmen?
Mal eben Fab wechseln? Das können sie machen, aber das kostet Zeit.
RV350 in 0.13 wird gg. die 0.15 FX5200 nix reissen.
Wie willst du die Nachfrage da zufriedenstellen, wenn die OEMs ungeheure Mengen ordern. Ein OEM möchte zwar das beste Produkt aber wenn etwas nicht zu 100% lieferbar ist, bestellt er das schlechtere.
Hauptsache lieferbar, so dass es im Rechner landet.
BTW ist die Ausbeute bei TSMCs 0.13 nach wie vor zwischen 40 und 70%.
Wahrlich dolle und dazu noch der Premiumpreis und die schlechte Lieferfähigkeit.
Sorry aber mit 0.13 wird das vorm Ende 1. Anfang 2. Quartal nix und tjo dann dürfte Nvidia langsam den NV34 durch einen NV40 Abkömmling ersetzen und dann ist DX9 mit PS2.0 nicht mehr interessant. Dann stehen PS / VS 3.0 auf der Tagesordnung. Also dann brauch ATI nicht mehr mit nem DX9 Low End Produkt kommen.
schon mal in erwägung gezogen, dass im retail markt eher grafikkarten verkauft werden, die schneller als die vorgängerprodukte sind?! und das trifft auf die 5200er ja nicht zu. ergo bleiben die händler gerade auf ihren lagerbeständen sitzen.
dann solltest du dich mal so umsehen im Mediamarkt zu was die Leute in erster Linie greifen.
Bei Bestbuy in den USA ist es beispielsweise teilweise so, wie von einigen US Bürgern bei NVNews und Rage3D berichtet, dass du vielleicht 1 bis 2 ATI Brands findest und gleich massenweise Brands mit FX5200.
Das Teil geht weg wie warme Semmeln.
Ich bleib dabei. 0.13 ist für den Low End nach wie vor ein No Go. Frühestens Ende 1. Quartal 2004 dürfte man dort soweit sein.
Wenn wir dann noch draufrechnen, wie lange es dauert bis der Verkauf in die Gänge kommt, dann ist ATI da bisserl spät. Ende der ersten Hälfte 2004 will keiner mehr PS/VS2.0 sondern 3.0.
Das muss ATI dann bieten, sonst erleben sie dann mit ihrer DX9 Low Cost Lösung das selbe wie momentan mit der 9200.
Aquaschaf
2003-09-01, 14:24:05
Ich glaube nicht das 3.0 Shader einen ähnlich großen Marketingeffekt haben werden wie DX9, ich meine Direct X 9.1 klingt doch nicht so revolutionär ;)
StefanV
2003-09-01, 14:27:57
@Gast
Den AMi Markt mit dem EU Markt zu vergleichen hinkt ganz gewaltig, da die Amis ganz andere Produkte bevorzugen als wir in D...
Besonders da in der EU die Hardwarebasis deutlich stärker ist als die der Amis und auch weil man hier mehr Technikverständnis/geilheit hat als drüben...
Razor
2003-09-01, 23:00:38
*ächts*
;-)
Original geschrieben von aths
Warum das? Weil gewisse Combiner-Ops jetzt 2 Takte brauchen? Soweit ich weiß, steckt der NV35 das einfach weg.
Hab's oben schon korrigiert...
Meinte DX8.
(hat irgendwo mal einen Vergleich zwischen FX5800 und FX5900 bei gleichem Takt erbracht)
Original geschrieben von aths
Zum Beispiel einen Preis-Refresh.
Was soll das denn sein ?
So etwas, wie es ATI mit dem R8500 machte ?
;-)
Original geschrieben von aths
Zum Beispiel, ja. "NVIDIA doubles the performance of it's award-winning DX9 entry solution. High-performance DX9-power at unbeatable low cost..."
Überflüssig...
Sonst hätten sie ja keine Phrasen mehr für die anderen Chips.
:D
Original geschrieben von aths
Was soll daran so schwierig sein?
0.15 bei 40mio Transistoren ?
Wozu optimieren ?
Besser dürfte die Ausbeute nicht werden...
Original geschrieben von aths
Doch, sie bieten die MX jetzt mit 8x AGP an. "Double bandwidth". Die MXe werden wohl früher oder später ganz durch die 5200 bzw. dessen Nachfolger ersetzt werden, schließlich wurde die 5200 extra dafür entworfen.
Vermutlich nur, weil die AIB's keine PCB's mehr ohne hatten...
;-)
Original geschrieben von aths
Das AGP-Interface... wer hätte noch 4xAGP-Karten gekauft?? Ganz ähnlich sieht es bei AIT aus: Die 9200 ist gut und billig, aber heute muss es ja unbedingt DX9 sein. Hier müssen sie reagieren, und werden reagieren.
Nein.
Für das AGP8x-Interface musste am Chip-Design aber auch rein gar nichts geändert werden.
Was die AIB's machen, um die Leutz bei Laune zu halten ist doch wurscht. Und eine gf4mx 'mutierte' trotz dieser Änderung nicht zu einer gf5, oder ?
Original geschrieben von aths
Im 3DMark03 z.B. :naughty:
So hast Du wenigstens die Lächerlichkeit des eigenen Argumentes erkannt ?
Original geschrieben von aths
Die 5600 wird u. U. auch nicht mehr seeehr lange in dieser Form existieren. Wenn es der 5900 Value gelingt, die preisliche Lücke zu schließen, hat die 5600 gute Karten. Ansonsten sehe ich den Bedarf nach einer 5700, quasi ein NV31 auf NV35-Basis. Würde ich natürlich genauso begrüßen wie eine "5300". Wir wissen ja, wie es um die CineFX-1-Shaderleistung bestellt ist. Je mehr Produkte auf CineFX 2 basieren, umso besser.
Warum ?
Im Midrange-Bereich mag das ja (vielleicht) noch Sinn machen.
Im Ultra-Low-End ist das überflüssig !
(siehe oben)
Original geschrieben von aths
Das ist für dich auch ein bestimmtes DX8.1-Feature, was nichtsdestotrotz genutzt wird. Will damit nur sagen, was für dich sinnfrei sein mag, mögen andere anders sehen. Denk mal an dein Statement Radeon 9700 vs. GF3...
Welches ich von Dir gerne rezitiert sehen würde...
Original geschrieben von aths
Woher weißt du, was ATI so ein Chip kostet? Der Chip ist auch nicht alles. Wegen der deutlich höheren Power der 9600-er reicht ein langsamerer Chip-Takt, langsamer RAM... und gegebenfalls ein 64-Bit-Interface (dann natürlich mit höherem Takt, aber große Zahlen sind ja gut fürs Marketing.) Ich lese gerade hier http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=91119 dass ATI vielleicht schon jetzt was in Mache hat...
Da schließe ich mich Love leidenschaftlich an:
"Eine Quelle ohne Quelle..."
Da ist selbst FUAD glaubwüdiger...
;-)
Zu dem Rest sag' ich lieber nichts... oder war Dir nicht klar, dass ich nur von dem (in 0.13 gefertigten) Chip sprach ?
Original geschrieben von aths
Eben dazu brauchen sie auch DX9-Karten, die sie so billig wie möglich anbieten können.
Nein.
Sie brauchen Chips, die sie so billig wie möglich herstellen können !
Original geschrieben von aths
Spricht da der 3D-erfahrene Ingenieur??
Nein. Ein 'erfahrener' Marktbeobachter...
;-)
Razor
Original geschrieben von Aquaschaf
Ich glaube nicht das 3.0 Shader einen ähnlich großen Marketingeffekt haben werden wie DX9, ich meine Direct X 9.1 klingt doch nicht so revolutionär ;)
Och das lass mal die Aufgabe der Marketingabteilung sein.
Nvidias Marketingabteilung sollte man durchaus in der Lage sehen auch aus dem größten Käse noch Geld rauszuholen.
Die sind da sogar besser als Intel.
Und dann warte mal auf Futuremark. Die haben bei NV noch einiges gut zu machen. PS/VS 3.0 sind die Gelegenheit dafür.
Wenn ATI nicht von unten bis oben rechtzeitig 3.0 bieten kann, werden sie wieder im Verhältnis 5 bzw. 6:1 bei der Technologieverbreitung ausgestochen.
Den AMi Markt mit dem EU Markt zu vergleichen hinkt ganz gewaltig, da die Amis ganz andere Produkte bevorzugen als wir in D...
Besonders da in der EU die Hardwarebasis deutlich stärker ist als die der Amis und auch weil man hier mehr Technikverständnis/geilheit hat als drüben...
Der AMI Markt ist aber nunmal der wichtigste und auch in DT kauft der Großteil bei Mediamarkt und Co und in meinem Bekanntenkreis informieren sich die wenigsten. Die gehen zu MM und kaufen. Und die meissten haben sich FX5200 und FX5600 vorzugsweise in der 256 MB Version gekauft.
Fest steht, die kleinen NV3xx Karten gehen weg wie warme Semmeln. Da hat ATI eindeutig geschlafen. Die Rechnung gibts später. So verbreitet sich eben die "richtige" Technologie. So solls sein.
Ailuros
2003-09-02, 02:19:51
Original geschrieben von Aquaschaf
Ich glaube nicht das 3.0 Shader einen ähnlich großen Marketingeffekt haben werden wie DX9, ich meine Direct X 9.1 klingt doch nicht so revolutionär ;)
Shader 3.0 sind Teil von dx9.0. Die Aussichten fuer einen dx9.1 update sind immer noch minimal und eine neue DX Version kommt nicht vor 2005.
Ailuros
2003-09-02, 02:26:11
Fest steht, die kleinen NV3xx Karten gehen weg wie warme Semmeln. Da hat ATI eindeutig geschlafen. Die Rechnung gibts später. So verbreitet sich eben die "richtige" Technologie. So solls sein.
Da sehen aber die Forecasts nun auch nicht so doll aus fuer die absehbare Zukunft, ausser dass NVIDIA tatsaechlich es schafft ATI regelrecht mit der naechsten Produktlinie in den Boden zu stampfen, was aber bis jetzt ein total unsicherer Faktor ist, ueberhaupt was ATI im guten ganzen vorhat.
Zwei von drei hochpotentionellen Consolen-deals hat ATI schon im Aermel und SONY verhandelt momentan mit beiden IHVs (wenn nicht noch mehr), und die Alternative fuer die uebrigen Resourcen die von XBox abfallen werden, werden wohl zur MediaQ/PDA-mobile Abteilung heruebergeschoben, wo jetzt erst die Entwicklung beginnt, obwohl ATI schon fertige Technologie hat.
Original geschrieben von Razor
Hab's oben schon korrigiert...
Meinte DX8.
(hat irgendwo mal einen Vergleich zwischen FX5800 und FX5900 bei gleichem Takt erbracht)Hast du da eine Quelle? Die möchte ich schon sehen. Leser vom neusten 3dcenter-Artikel wissen btw, warum das so ist. Sobald FSAA ins Spiel kommt, dürften sich diese Effekte allerdings (mehr als) egalisieren.
Original geschrieben von Razor
Was soll das denn sein ?
So etwas, wie es ATI mit dem R8500 machte ?
;-)Oder was NV mit GF2 bzw. GF3 machte... ;-)
Original geschrieben von Razor
Überflüssig...
Sonst hätten sie ja keine Phrasen mehr für die anderen Chips.
:DDie finden genug, keine Angst. Zumal es für einen DX9-Chip per se sinnvoll ist, die DX9-Leistung zu erhöhen, wenn die Kosten dafür im Rahmen bleiben. Für den Marktauftritt ist es auch wichtig, im entsprechendem Segment des öfteren neue, leistungsfähigere Produkte vorzustellen. Beispielsweise wurde seinerzeit TNT2M64 von GeForce2 MX200 abgelöst. Das Karussell dreht sich inzwischen allerdings etwas schneller.
Original geschrieben von Razor
0.15 bei 40mio Transistoren ?
Wozu optimieren ?
Besser dürfte die Ausbeute nicht werden...... und?
Original geschrieben von Razor
Vermutlich nur, weil die AIB's keine PCB's mehr ohne hatten...
;-)Nö, sondern weil 8x AGP ein Marketing-Argument ist.
Original geschrieben von Razor
Nein.
Für das AGP8x-Interface musste am Chip-Design aber auch rein gar nichts geändert werden.Woher weißt du das? Nvidia nennt die neuen MXe immerhin NV18, nicht NV17.
Original geschrieben von Razor
Was die AIB's machen, um die Leutz bei Laune zu halten ist doch wurscht. Und eine gf4mx 'mutierte' trotz dieser Änderung nicht zu einer gf5, oder ?Muss sie ja auch nicht.
Original geschrieben von Razor
So hast Du wenigstens die Lächerlichkeit des eigenen Argumentes erkannt ?Das war nicht lächerlich. Im DX9-Bench (es ließen sich auch andere finden) schneidet die 9600 mit nur 64 Bit besser ab als die FX5200 mit 128 Bit. Es steht die Möglichkeit, 4 Texturen zu sampeln oder 2 Arithmetik-Operationen auszuführen gegen die Möglichkeit, 4 Texturen zu sampeln und 4 Arithmetik-Operationen auszuführen. Baut ATI auf der RV350-Technik auf, dürfte es ein leichtes sein, den NV34 in allen relevanten Benchmarks vernichtend zu schlagen.
Original geschrieben von Razor
Warum ?
Im Midrange-Bereich mag das ja (vielleicht) noch Sinn machen.
Im Ultra-Low-End ist das überflüssig !
(siehe oben)Ist es nicht. Die FX5200 ist deutlich teurer, als eine Lösung basierend auf NV5 oder auch NV18. Für das Geld, immerhin 70-80 €, will man auch was sehen, gell? Wenn Nvidia durch die Abwandlung der CineFX2-Technik die Arithmetik-Leistung des Einsteiger-Chips verdoppeln kann, wäre das doch ok.
Original geschrieben von Razor
Welches ich von Dir gerne rezitiert sehen würde...Du meintest allen Ernstes, eine Radeon 9700 würde dir gegenüber der GF3 "keinen Mehrwert" bieten. :|
Original geschrieben von Razor
Da schließe ich mich Love leidenschaftlich an:
"Eine Quelle ohne Quelle..."ATI wird in diesem Punkte trotzdem reagieren (müssen), gell?
Original geschrieben von Razor
Zu dem Rest sag' ich lieber nichts... oder war Dir nicht klar, dass ich nur von dem (in 0.13 gefertigten) Chip sprach ?Was reitest du jetzt auf 0.13 herum? Ich spreche von einer DX9-Einsteigerlösung à la ATI, und mir ist egal, in welchem Prozess sie diesen Chip fertigen; wichtig ist, dass sie ihn fertigen.
Original geschrieben von Razor
Nein.
Sie brauchen Chips, die sie so billig wie möglich herstellen können !Sie brauchen Chips, die besser als die der Konkurrenz sind.
Original geschrieben von Razor
Nein. Ein 'erfahrener' Marktbeobachter...:| Dann müsste eigentlich die Kette: "Nv verdient viel mit 5200, ATI will auch und entwickelt einen Konkurrenzchip, Nvidia kontert mit einem neuem, aber leistungsfähigerem DX9-Einsteigerchip" einleuchten?
Original geschrieben von Ailuros
Da sehen aber die Forecasts nun auch nicht so doll aus fuer die absehbare Zukunft, ausser dass NVIDIA tatsaechlich es schafft ATI regelrecht mit der naechsten Produktlinie in den Boden zu stampfen, was aber bis jetzt ein total unsicherer Faktor ist, ueberhaupt was ATI im guten ganzen vorhat.
Zwei von drei hochpotentionellen Consolen-deals hat ATI schon im Aermel und SONY verhandelt momentan mit beiden IHVs (wenn nicht noch mehr), und die Alternative fuer die uebrigen Resourcen die von XBox abfallen werden, werden wohl zur MediaQ/PDA-mobile Abteilung heruebergeschoben, wo jetzt erst die Entwicklung beginnt, obwohl ATI schon fertige Technologie hat.
Die Consolen Deals interessieren mich hier als PC User nicht die Bohne. Davon ist hier überhaupt keine Rede.
Und überhaupt soll ich als Desktop Grafikkartenkunde das jetzt gut finden, dass ATI dort einiges an Ressourcen brauchen wird?
Also da würde ich mir als ATI User langsam mal überlegen, ob meine Desktop Graka dann noch so die Priorität geniesst bei ATI wie bisher.
Und was sollen bitte die x-box Leute in der MediaQ/PDA Abteilung? Diese wird von Nvidia vorzugsweise mit der eigenen Abteilung fusioniert. PDA Entwicklungen betreibt Nvidia schon ziemlich lange. Den größten Vorteil durch die Aquisition wird man aber im PC Mobile Bereich haben. Klugerweise wird Nvidia natürlich den größten Teil der x-box Leute für Desktop GPUs einsetzen, was schon seit langem der Fall ist, da die x-box schon seit längerem ja fertig ist.
Aber wenn du Nvidias Management wärst, und wüsstest das dein Konkurent 2 Konsolen Deals hat, wirst du natürlich aufm Desktop Space so weitermachen wie bisher? :)
Lol wie naiv sind einige hier eigentlich. Das machst du natürlich nicht. Business ist ein Schachspiel und wenn der Gegner viel zu tun hat, dann kann er in der Regel sich nicht um alles kümmern. Also wirst du zusehen im Desktop Space das Tempo anzuziehen.
Ohne x-Box und mit der ohnehin besseren Ausgangslage bei Entwicklungsressourcen sollte das wohl kein Problem darstellen und das was du nicht selber entwickeln kannst, kaufst eben einfach ein. Die 1 Mrd. Cash sollten reichen.
mapel110
2003-09-02, 10:56:26
wie soll nvidia davon ziehen, wenn m$ das tempo durch dx-versioenen bestimmt?! :|
ausserdem ist heute fast jedes game cpu limitiert. da kann ne graka nicht mehr viel reissen.
und schon garnicht bei leuten, denen 2xAA genug ist ;)
Ailuros
2003-09-02, 14:02:05
Die Consolen Deals interessieren mich hier als PC User nicht die Bohne. Davon ist hier überhaupt keine Rede.
Und überhaupt soll ich als Desktop Grafikkartenkunde das jetzt gut finden, dass ATI dort einiges an Ressourcen brauchen wird?
Also da würde ich mir als ATI User langsam mal überlegen, ob meine Desktop Graka dann noch so die Priorität geniesst bei ATI wie bisher.
Ausser NV gewinnt den PS3.0 was eher schlecht aussieht, da SONY nur IP will und NV kein IP verkaufen will, fallen die Gewinne von diesem Markt so langsam ab. Wenn Du schon von der "Rechnung" redest, dann waren von den letzten Gewinnzahlen gute 20% noch von der XBox.
Alles ist nur relevant wenn es unserer Argumentationslinie dient gell?
ATI hat heutzutage genauso viel Personal wie NVIDIA (mehr oder weniger). Der XBox2 ist nur eine IP Lizenz, falls Dir das sorgen machen sollte. Diese Console wird ja auch nicht in 6 Monaten erscheinen und ich kaufe ja sowieso nie konstant von einem IHV ein. Der Kram ist nur fuer die "die-hard" Fanboys :P
Und was sollen bitte die x-box Leute in der MediaQ/PDA Abteilung? Diese wird von Nvidia vorzugsweise mit der eigenen Abteilung fusioniert. PDA Entwicklungen betreibt Nvidia schon ziemlich lange. Den größten Vorteil durch die Aquisition wird man aber im PC Mobile Bereich haben. Klugerweise wird Nvidia natürlich den größten Teil der x-box Leute für Desktop GPUs einsetzen, was schon seit langem der Fall ist, da die x-box schon seit längerem ja fertig ist.
Ich sagte Resourcen was sehr vieles beinhaltet und eher sehr generell ist. Haette ich manpower gemeint, haette ich auch manpower geschrieben. Und hatte in keinem Fall oede 2D chips im Kopf, sondern volle 3D chips. Momentan sind die einzigen 3D mobile/PDA chips verfuegbar zur Lizenzierung von ImgTec, Bitboys, ATI und einer japanischen Firma an die ich mich nicht mehr erinnern kann.
Aber wenn du Nvidias Management wärst, und wüsstest das dein Konkurent 2 Konsolen Deals hat, wirst du natürlich aufm Desktop Space so weitermachen wie bisher?
Ich dachte vor nur zwei Paragraphen war es egal ob ATI jetzt jegliche Deals gewonnen hat oder nicht....
Haette ich gesagt dass ATI um weit bessere Eindruecke gewonnen hat als NVIDIA das letzte Jahr, waeren die Einsprueche wieder tonnenweise angerannt. Entweder kann man der Wahrheit klar ins Auge sehen oder man kann endlos um den Brei reden.
Wenn wir schon hier sind: keiner wird wohl glauben dass ATI nur einen R3xx Klassen chip fuer Xbox2 vorgeschlagen hat und NVIDIA auch keinen Nv3x chip. Die Wahl traf auf denjenigen Vorschlag der als bessere Loesung erscheinte.
Quasar
2003-09-02, 14:56:46
Apropos neuer 3DC-Artikel (nicht aufhören Demi!!!):
Anscheinend haben ihn viele nicht gründlich gelesen: Die neue FPU des nV35 könnte ja zwei INT12-Pixel auf's Mal erzeugen.
Da die nV34 sich in real-world Anwendungen, also in MT-Situationen wie ein 2x2-Design und später wie ein 1x2-Design verhält, gibt es noch eine ganz andere und für nV überaus lukrative Möglichkeit:
Die neue FX in 0,13µ bekommt nur eine einzige PS2.0-Einheit, aber eben in nV35-Manier.
Sie könnte in der Mehrzahl der Fälle (unter Berücksichtigung möglicher höherer Taktraten) das Level der FX5200 halten und in PS-Szenarien übertreffen und wäre mit geschätzten 30-35Millionen Transistoren enorm günstig herzustellen und auch (bei entsprechenden Taktungen) simpel zu kühlen.
Eine halbe CineFX II ist imo wahrscheinlicher. Die Reduzierung von 4x SIMD auf 2x SIMD spart sicherlich noch eine Menge Logik, aber die Reduzierung von 2x auf 1x nicht mehr so viel (die Steuerlogik muss ja bleiben) und 4 TMUs braucht man eh...
Original geschrieben von Ailuros
Ausser NV gewinnt den PS3.0 was eher schlecht aussieht, da SONY nur IP will und NV kein IP verkaufen will, fallen die Gewinne von diesem Markt so langsam ab. Wenn Du schon von der "Rechnung" redest, dann waren von den letzten Gewinnzahlen gute 20% noch von der XBox.
Du kannst nicht einfach ein Quartal nehmen und das dann so aussehen lassen als wären 20% der Gewinne von der x-box.
Da musst du das dann schon übers Jahr mitteln und dann wär dir auch aufgefallen, dass die Quartale davor x-box gegen 0 ging.
Aufs Jahr gesehen sind es maximal 15%.
Das Konsolengeschäft verläuft nunmal nicht über alle Quartale gleichmäßig. Das 2. und 3. sind die starken, das 4. und 1. die schwachen.
nForce hat btw. die x-box schon übertroffen und das in gerade mal einem Jahr.
Bis 2005 läuft der Vertrag. Sollte ja wohl mehr als genug Zeit sein, das Geschäft zu kompensieren.
Ich dachte vor nur zwei Paragraphen war es egal ob ATI jetzt jegliche Deals gewonnen hat oder nicht....
Für Nvidia ist es in sofern interessant, als das sie wissen das ATI ungeheure Ressourcen braucht. Die werden sie irgendwo abziehen müssen.
Und da bleibt ja nicht viel übrig ausser Mobile und Desktop.
Und in den beiden Feldern wird Nvidia jetzt Druck machen, was der Huang ja auch selber schon längst bestätigt hat.
Technologieverlängerung bzw. Zyklusverlängerung ist bei Nvidia offiziell schon zu den akten gelegt.
Ziel muss es sein 80 vom Desktop add in Markt einzusacken und vom Mobile so 40%.
Das sollte machbar sein.
Crazytype
2003-09-02, 18:14:16
Hmm ich glaube nicht, dass alle Resourcen für den Xbox2/Gamecube 2 Deal draufgehen, und wenn wirklich ein Sony Deal zustande kommt, werden Sie eh nur IP verkaufen, wie schon erwähnt wurde.
Ailuros
2003-09-03, 01:45:01
Original geschrieben von Gast
Für Nvidia ist es in sofern interessant, als das sie wissen das ATI ungeheure Ressourcen braucht. Die werden sie irgendwo abziehen müssen.
Und da bleibt ja nicht viel übrig ausser Mobile und Desktop.
Und in den beiden Feldern wird Nvidia jetzt Druck machen, was der Huang ja auch selber schon längst bestätigt hat.
Technologieverlängerung bzw. Zyklusverlängerung ist bei Nvidia offiziell schon zu den akten gelegt.
Ziel muss es sein 80 vom Desktop add in Markt einzusacken und vom Mobile so 40%.
Das sollte machbar sein.
Nur Bruchteile als dass was NV fuer XBox brauchte. Ungeheuer ist die wildeste Uebertreibung wenn man beide Situationen vergleicht. Es wird nur ein Graphik-core lizensiert fuer XBox2; bauen muss das Ding Microsoft selber oder um genauer zu sein diejenigen die sie damit beauftragen.
Du kannst nicht einfach ein Quartal nehmen und das dann so aussehen lassen als wären 20% der Gewinne von der x-box.
Da musst du das dann schon übers Jahr mitteln und dann wär dir auch aufgefallen, dass die Quartale davor x-box gegen 0 ging.
Aufs Jahr gesehen sind es maximal 15%.
Oede Haarspalterei wegen 5% ;)
Der Punkt ist eines der Gruende warum sie noch einiges vom break-even-point entfernt sind, ist das XBox Prozentual.
Letztes Jahr hiess von Euch Kerlen auch dass es unmoeglich sei das ATI den 6-Monat zyklus von NV verfolgen kann ohne dabei finanziell zu krepieren. Dabei hat sich ATI in diesem Jahr ausgezeichnet gehalten und von Verlusten kann keineswegs die Rede sein. Da muss so mancher Optimismus in den oekonimischen Amateur-Analysen gelegen haben.
NVIDIA ist keineswegs gefaehrdert, noch sehe ich einen Grund warum sie nicht in der Zukunft profitabel sein werden, aber deren Potenzial mit dem gleichen Rhythmus wie in der Vergangenheit zu wachsen, wird sich weiterhin reduzieren, bis sich beide IHVs Haar an Haar reissen muessen fuer jedes 0.01% von Marktanteil.
Und irgendwie ist es mir auch lieber so. Ich habe fundamental was gegen potentielle Monopole egal von welcher Seite. Ich wuerde es auch nicht gerne sehen wenn ATI groesser wird als je erwartet. Diejenigen die in A oder B investiert haben sind ja sowieso selten objektiv genug ;)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.