Archiv verlassen und diese Seite im Standarddesign anzeigen : NV30 mit 128 Bit Interface?
Metzger
2002-09-19, 11:15:41
Hiho!
Ich weiss jetzt nicht, ob das hier schon im Detail diskutiert wurde, aber laut einer Meldung von The Inquirer soll ja nun der NV30 "nur" mit einem 128 Bit-Interface antreten. Zwar mit extrem schnellen Speicher, aber trotzdem.
Im Vergleich zu einer ATI 9700, die mit ihrem 256 Bit Speicherinterface in FSAA und Anisotroper Filterung speziell in hohen Auflösungen große Geschwindigkeitsvorteile gegenüber Karten mit 128 Bit Speicherinterface-Karten hat, stellt sich mir nun die Frage, ob nVidia hier den richtigen Weg geht.
Sie geben ja als Argument an, dass ein 256Bit Interface sehr teuer wäre. Aber ist nicht ein 400MHz DDR2 Speicher nicht auch extrem teuer?!
Und sollte nicht die Architektur vom NV30 richtungsweisend für die folgenden Grafikchips von nVidia sein? Heisst das nun, dass der NV35 auch ein 128 Bit Interface bekommt?
Oder glaubt ihr, dass die Technologie, die nVidia von 3dfx übernommen hat, den großen Bandbreitenvorteil ausgleichen kann?
Exxtreme
2002-09-19, 11:19:19
Ich schieb's mal ins Speku-Forum.
Gruß
Alex
ice_cool69
2002-09-19, 11:51:37
also wenn der NV30 mit nur 400 MHz 128bit speicher daherkommt dann kann er gleich zuhause bleiben. gegen einen r300 und erst recht einen r350 der ein frühlingsrefresh sein soll mit DX9.1 und höherem takt reißt das teil dann nichts...
Metzger
2002-09-19, 12:34:51
Kann es eigentlich sein, dass nVidia erkannt hat, dass sie mit einem 128 Bit Speicherinterface nicht mehr die Performancekrone zurückerobern können und ein 256 Bit Interface statt dessen nachträglich einbauen? Oder ist da die Entwicklung zu weit fortgeschritten (Tapeout stand ja schon fest)?
Aber andererseits wäre es doch von Vorteil für nVidia, wenn sie - laut einer Meldung eines Mitarbeiters von Creative Labs - schon mit einem 128Bit DDR-Speicherinterfacedie Leistung des R300 erreichen. Sie müssten also hervorragende effektivitätssteigernde Tricks einsetzen, die dann bei einem Herbstrefresh des Chips (dann mit 256 Bit?) einen deutlichen Leistungssprung bringen würden?
Fragman
2002-09-19, 13:10:18
wichtig ist ja nur, was als leistung hinten rauskommt. wenn sie mit einem 128 bit interface an die leistungsfaehigkeit des r300 rankommen wuerden, waere das ne tolle leistung und damit auch keine grund, teures 256 bit zu benutzen. vielleicht will nv ja auch gar nicht den r300 ueberfluegeln, sie scheinen ja auf andere kriterien zu setzen, stichwort offline rendering, also berechnung komplexer shader erstmal technisch in hardware moeglich zu machen (fuer echtzeit wirds dann wohl zu langsam sein). aber schnell muss die karte trotzdem sein, denn jc merkte mal an, dass der nv30 die optimale loesung fuer doom3 sein soll.
ice cool69
2002-09-19, 13:37:40
also ich glaube nicht dass die nv30 mit irgendwelchen bandbreitenschonenden methoden ein 256bit speicherinterface ersetzen kann. nvidia ist gut aber zaubern können die auch nicht.
also entweder sie nehmen sündhaft teuren speicher mit sehr hohen taktraten oder ein 256bit speichersystem. das ist alles eine kostenfrage.
Purple_Stain
2002-09-19, 13:40:40
Hallo alle zusammen
Ich glaube das wenn nv ein 128 bit interface einbaut sind sie schwer im nachteil
Ati kann im frühling immer noch schnelleren ddr2 nachschieben UND auch auf 0,13 mikron umstellen.
Ich kenne mich hier (leider) nicht so aus aber würde eine umstellung des interface von 128 auf 256 nicht ein (zumindest teilweises) Redesign erfodern?
Bitte kann mich da jemand aufklären
ice cool69
2002-09-19, 14:09:03
auf jeden fall braucht das ein aufwendiges neudesign sonst würde das ja jede firma machen, einfach auf 256bit umstellen.
ich kann mir nur nicht erklären warum nvidia mit dem nv30 dazu anscheinend nicht in der lage sein soll wenn ati und sogar matrox und 3dlabs dazu in der lage sind.
entweder sie bringen ein 256bit speicherinterface (wovon ich ausgehe) oder sie sind diese generation wirklich im nachteil und müssen sich hinter ati einreihen.
und der kostenfaktor ist für mich auch keine ausrede, denn sehr hoch getakteter 128bit speicher dürfte deutlich mehr kosten als ein 256bit speicherinterface.
Lost Prophet
2002-09-19, 14:23:06
thx für die info
ich glaube, das der nv 30 zuerst für 128 bit ausgelegt war
man will ja jeden einzelnen cent (pfennig) aus der tasche der kunden, also warum solche leistungssprünge verschenken?
sie hatten meiner meinung nach nicht mit einem solchen geschoss von ati gerechnet
alls sie sahen was der r300 kann sahen sie handlungs bedarf (panik)
und versuchten das auf 256 hinzubiegen -> verspätung
ob sie's geschafft haben wird sich zeigen
cya
ice cool69
2002-09-19, 14:41:55
stimmt genau so sehe ich das auch bzw. so hört sichs doch am realistischsten an.
ich persönliche wäre aber enttäuscht von nvidia wenn sies nicht geschafft hätten, abgesehn mal davon dass es nicht besonders gut für die preisentwicklung ist wenn nvidia nicht mit ati mitziehen kann.
aber ich gehe mal davon aus dass sie es schaffen mit dem nv30 den r300 zu überflügeln. bis das gelungen ist gibts halt mit dem nv28 ne beschleunigte gf4 welche gegen die r9500 antritt. der markt der sündhaft teuren high end karten ist sowieso nicht sonderlich groß und für mich persönlich völlig uninteressant. ich hol mir die r9500 sobald sie unter 200€ gefallen ist :)
Ein RAM-Interface ist schnell umgebastelt, geht ohne grossen Aufwand.
Deshalb gibt es ja von den Radeon und TNT und GF Karten auch Versionen mit nur 64Bit Interface statt 128.
Reduzieren des IF ist zwar etwas einfacher als erweitern, aber viel wird's wohl nicht ausmachen.
Lost Prophet
2002-09-19, 15:00:14
@ow: thx
@icecold:
ich glaube für die preisentwicklung ist es insofern schlecht als das ati länger auf den hohen preisen sitzen kann
nv wird aber dann (noch) billiger werden was dann wieder positiv ist
und noch was positives
is zwar nicht preis aber entwicklung
nv wird sich insofern mehr beeilen wieder die preformance krone zurückzuholen
( da war doch mal so was ähnliches (kenn den genauen wortlaut nicht): wir relesasen/ vorstellen usw den nv 30 erst wenn es was besseres als die ti46 gibt (by nvidia)
Metzger
2002-09-19, 15:43:53
wie ist das eigentlich mit dem 0.13 Herstellungsprozess - nVidia (bzw. TSMC(?) ) scheint doch JETZT einige Probleme damit zu haben, deshalb ja auch die Verzögerung (offiziell). Bei wem lässt ATI eigentlich die Chips fertigen? Sollte das TSMC(?) sein dann hätte theoretisch doch ATI (oder jede andere Firma, die sich ihre Chips dort fertigen lässt) den Vorteil, auf das mit dem NV30 gesammelte Wissen zurückzugreifen?!
Oder ist es eher so, dass nVidia JETZT den Zeitverlust hinnimmt (da sich High-Eng-Karten eh schlecht verkaufen, ist JETZT eine Verzögerung in diesem Bereich nicht sonderlich schlimm) und dafür SPÄTER (aber immer noch vor allen anderen) bei ihren Chips eine deutlich höhere Ausbeute erreicht? Dann genau, wenn z.B. ATI den R350 in 0.13 fertigen will! Dann kämen die High-Eng Chips doch langsam in den Mainstream-Bereich und nVidia hätte dann wieder einen Vorteil.
Was meint ihr dazu?
Lost Prophet
2002-09-19, 16:03:04
natürlich macht der verkauf von high-end grakas nur einen sehr geringen teil aus wäre also zu vernachlässigen
ABER du vergisst, das sich die karten am mainstream markt haupsächlich über den namen verkaufen den man im highend sektor aufgebaut hat
Formel für otto normalverbraucher:
ti4600 =gut => nvidia = gut => gf4 mx = nvidia => gf4mx = gut
daflow
2002-09-19, 16:09:58
Die Frage ist ob jetzt schon AtiRadeon9700=gut=>ATI=gut=>ATIRadeon9000=gut zum denken der Ottonormalverbraucher geworden ist;
Lost Prophet
2002-09-19, 16:21:35
die lage hat sich für ati sicher verbessert, aber nv hat hier ein gutes image dass sie sich nicht so schnell wegnehmen lassen werden
insofern hat metzger recht das sie sich die verspätung leisten können
das hauptproblem für ati
ottos bekommen diese meinungen von irgenwoher (freund, irgenwo aufgeschnappt usw) und da die mehrheit nv hat haben in folge auch mehr ottofreunde eine nv => besseres image für nv
damit die "freunde" auf ati umsteigen würden (bzw mehrheit)
müsste der nv30 hinter der radeon liegen
sonst sieht es MEINER MEINUNG nach so aus, dass sich die lage für ati zwar weiter bessert, sie aber nie anschluss zu nv finden werden
robbitop
2002-09-19, 16:32:36
"Ein RAM-Interface ist schnell umgebastelt, geht ohne grossen Aufwand.
Deshalb gibt es ja von den Radeon und TNT und GF Karten auch Versionen mit nur 64Bit Interface statt 128.
Reduzieren des IF ist zwar etwas einfacher als erweitern, aber viel wird's wohl nicht ausmachen." by OW
Also OW das solltest du aber wissen...
reduzierung des Speicherinterfaces ist einfach, ja da dort nur weniger Datenleitungen benötigt werden.
Doch die Chips die du nanntest waren intern auf einen festen Bus konzipiert. (TNT/2 128bit GF/2/3/4 256bit (damals haben sie erst dann die GFDDR nachgeschoben so dass die GF1SDR mit Reduziertem Speicherinterface lief..denn DDR nutzt ja im Gegensatz zu SDR beide Signalflanken)). D.h die R300, P10, P512 wurden im Vorraus mit 512bus konzipiert, wobei dann zu wählen ist, wie man den Speicher anbindet (max 256bit DDR/512bit SDR...alles darunter is auch machbar).
Den internen Bus eines Chips zu verändern erfordert ein aufwendiges Redisgn des Chips, dar der ganze Chip durch ihn versorgt wird...alles müsste neu berechnet werden. Das ist wenn es funktionieren soll nicht schnell und kostengünstig machbar.
Ich denke der NV30 wird auch von vorherein auf einen 512bit Bus konzipiert werden da das design für die nächste Zeit halten muss (bis zum NV25 wurde immerhin das Grunddesign des NV10 verwendet) und reduzieren kann man das Speicherinterface immer und günstig und schnell.
Und weiterhin ist es möglich aber denke ich realistisch sehr schwer ein 128bit DDR Interface durch irgendwelche Massnahmen so extrem auszuschöpfen dass man an die Leistungswerte der Konkurrenz mit 256bit DDR rankommt.
MfG
Robbitop
Pussycat
2002-09-19, 17:38:46
Ack. Hyper-Z III ist IMO schon sehr nahe am Maximum. Ein FAA würde aber wogl extrem viel bringen (falls Matrox nicht zuviele Patente drauf hat).
robbitop
2002-09-19, 17:43:27
das Problem am FAA ist eben die Erkennung und die Durchführung, dass lässt sich IMHO nich ma eben fixen (wenn es überhaupt möglich ist).
Bitte mal ein Experte an dieser Stelle:
ATHS und DEMIRUG haut ma aufn Putz!
Isses machbar in nahliegender Zukunft ein einigermassen einwandfreies FAA hinzubekommen?
denn wenns so easy wäre, hätte MGA es mit der P512 geschafft ;-)
Pussycat
2002-09-19, 17:48:19
FAA ist schon größtenteils einwandfrei!
robbitop
2002-09-19, 18:03:12
???
ist es nicht!!!
Nur Polygonkanten und dann auch nur in bestimmten Winkeln...es gibt genug Shots die das belegen...also es ist sehr ungründlich....
schade eigendlich, denn es wäre ein AA for free (beinahe) mit atemberaubender Quallität für ein "smoothes" Spielgefühl....
Ich finde es jedenfalls nicht genaugenug...
wäre aba geil haste schon recht....wer weiss , denn Davic Kirk hat darüber mal gesprochen...er ist also angetan und versucht es sicher mal mit ner Geforce (wenn die dann noch so heissen ^^).
Nix gegen MGA aber die Designfehler sind wirklich schade, sie haben das ganze Produkt runtergezogen nur wegen Eile.
Ein Produkt mit dieses Specs hätte auf R300 Niveau liegen können.
Aber nein, die Vertexshader werden nicht richtig ausgelastet, die TMUs sind nur Bilinear, der Chip viel zu niedrig getaktet, keine Bandbreitensparenden Features, kein CBMC. PS2.0 sind mir immo total wurst, aufgrund der Spiele die zu lebzieten des Chips eh nich da sind, oder sie nich ausnutzen.
Ich hoffe dass sie die P512 mal überarbeiten und aufbohren.
Nunja was ich eigendlich sagen wollte, bei NV kommen Karten mit so schwerwiegenden Designfehlern gar nicht erst raus und deshalb sehe ich beim FAA bei NV oder ATi eben mehr zukunft, weil die die einzigen sind, bei denen die Specs zum Speed passen...der P10 als Gamervariante wird nochmal interessant, aber ich erwarte nicht wirklich was...bei den Specs wäre er auch bis zur R300 gekommen, schade...kA warum es nicht so ist...
Exxtreme
2002-09-19, 18:03:21
Originally posted by Pussycat
Ein FAA würde aber wogl extrem viel bringen (falls Matrox nicht zuviele Patente drauf hat).
Das glaube ich wiederum nicht. Die R300 wird zum Tile-Based-Renderer und die Framebuffer-Kompression arbeitet sehr effektiv wenn man das AA aktiviert. Und das schont sehr gut die RAM-Bandbreite. Mit FAA würde ich mich wohl nicht zufrieden geben, da dieses Verfahren Schnittkanten nicht berücksichtigt. Ich bin nichtmal mit MSAA richtig zufrieden.
Gruß
Alex
Demirug
2002-09-19, 18:05:42
Pussycat, ich denke das robbitop auf das fehlende Stencil und Z AA beim FAA von Matrox anspielt.
Beides ist aber technisch durchaus machbar. Wobei das beim Z-Buffer etwas mehr aufwand ist.
robbitop
2002-09-19, 18:09:26
ach so genau guckt man beim zocken nich hin da es meist zu schnell is, also wenn FAA auf MSAA kommt wäre das schon geil...
Demi is es denn möglich es so hinzubekomm?
noch ne Frage zum FSAA der R300 (smoothvision 2.0)...ist dies denn schon annähernd so schnell/effektiv wie FAA???
wie arbeitet es denn ungefähr?
Demirug
2002-09-19, 18:27:40
Ja das FAA verfahren erlaubt die gleiche Qualität wie MSAA, mann muss es halt nur entsprechenden im Chip implementieren.
Exxtreme, das Tile-Verfahren des R300 ist was die Bandbreite angeht bei weitem nicht so effektive wie es auf den ersten blick aussieht. Das Problem dort ist das die Tile alles enthält (Color, Z, Stencil) und immer komplett gelesen und geschrieben werden muss.
So braucht aber zum Beispiel die DOOM III engine die einzelnen Komponeten der Tile immer nur zum Teil.
1. Pass (Z-Only): Z-Read/Write
2. Schattenpass: Z-Read, Stencil Read/Write
3. Lightpass: Z-Read, Stencil Read, Color Read/Write
Was lernen wir daraus. Tile kompression ist OK sie sollte aber Z,Stencil,Color getrennt speichern.
Auf jeden Fall läst sich ein FAA verfahren mit einem fragmentcache vom Bandbreitenhunger relative weit runterdrücken.
robbitop
2002-09-19, 18:30:42
wenn du das weisst, warum macht das dann keiner??
mann ruf die ma an und erzähl denen das LOL
ne im Ernst, ist Aussicht auf sowas in naher Zukunft?
Demirug
2002-09-19, 18:41:25
robbitop,
das Problem bei diesen Verfahren ist das sowas heftig auf die Transitorenanzahl des Chips schlägt.
Die Aussichten das aber sowas kommt sind gar nicht mal so schlecht. Es gibt von David Kirk einen inzwischen älteren Vortrag der auch auf themen wie AF und AA eingeht. Bei dem Thema AA schreibt er dort das die Entwicklung von SSAA übder MSAA zum FAA gehen wird. Es wäre für mich also nicht unerwartet wenn der NV30 über ein FAA verfahren verfügt.
Demirug
2002-09-19, 18:41:25
doppelpost
Es kann aber auch nicht Sinn sein, die AA-Verfahren immer weiter zurückzuschrauben. Ich hätte z.B. gerne 8xS-AA für die GF4, wobei ja ein 4x SSAA-Anteil drin ist. Sinnvoll nur bis 800x600, aber es gibt ja z.B. Grafikdemos dessen Auflösung auf 640x480 fixiert ist, und hier würde 8xS sehr gut aussehen.
Zum Topic: NV30 mit 128-Bit-Interface, aber DDR-II? Warum nicht? Muss NV30 denn unbedingt R300 in allen Disziplinen übertreffen?
Lost Prophet
2002-09-19, 20:17:21
Zum Topic: NV30 mit 128-Bit-Interface, aber DDR-II? Warum nicht? Muss NV30 denn unbedingt R300 in allen Disziplinen übertreffen?
natürlich nicht
aber sagen wir mal so , es erwarten sich sehr viele, dass der nv 30
den r300 überholt. Ich halte das bei 128 für eher unwahrscheinlich
bei 256 für realistisch
aber ich glaube nicht, dass sich die verwöhnten nv-ler damit zufrieden gegen werden
Sollte er schwächer sein werden sie sich meiner meinung nach sehr beeilen die preformance krone wieder zurückzurendern
Das image das nvidia aufgebaut hat sagt einfach "wir sind die besten" und da passt es nicht wenn man nicht erster ist
wir werden sehen was kommt
robbitop
2002-09-19, 20:37:49
was heisst hier zurückschrauben???
das 16x FAA sieht sehr gut aus (dort wo es glättet) und Demi sagt selbst es ist möglich überall zu glätten..die meissten stören doch nur die Treppchen und die wären dann weg...und das MSAA der GF4Ti4200 von mir 4x bei 1024x786 is klasse...schnell und schön.
Und das der R300 mit Sicherheit auch.
Nur halt zuviel Performanceverlust...und wenn man tricksen kann um performance zu gewinnen und nicht allzuviel BildQualli einbusst is das ok, wer will schon texturen AA...die Kanten und dann den Rest mit Ani 4x oder 8x und es sieht edel aus...sicher nicht ganz so gut wie 4xS aber so gross is der Unterschied nich, dafür der Performanceverlust...
Demirug
2002-09-19, 20:38:17
Originally posted by aths
Es kann aber auch nicht Sinn sein, die AA-Verfahren immer weiter zurückzuschrauben. Ich hätte z.B. gerne 8xS-AA für die GF4, wobei ja ein 4x SSAA-Anteil drin ist. Sinnvoll nur bis 800x600, aber es gibt ja z.B. Grafikdemos dessen Auflösung auf 640x480 fixiert ist, und hier würde 8xS sehr gut aussehen.
Zum Topic: NV30 mit 128-Bit-Interface, aber DDR-II? Warum nicht? Muss NV30 denn unbedingt R300 in allen Disziplinen übertreffen?
Warum würde ein FAA verfahren ein zurückschrauben gegenüber MSAA bedeuten?. Nur weil Matrox das nicht richtig hinbekommen hat?
und eine Kombination von SSAA und FAA ist ja auch möglich.
Originally posted by Demirug
Warum würde ein FAA verfahren ein zurückschrauben gegenüber MSAA bedeuten?. Nur weil Matrox das nicht richtig hinbekommen hat?
und eine Kombination von SSAA und FAA ist ja auch möglich. Ich meine mit FAA audrücklich Matrox' Lösung mit den Polygonaußenkanten. Dass MSAA mit einem Differenzbuffer arbeiten sollte, und nicht für jedes Polygoninnenpixel entsprechend viele Buffer verwenden, sehe ich natürlich auch so. Eigentlich erwartete ich sowas schon für NV25, was bei ihm ja nun leider nicht der Fall ist.
Mal eine frage:
Ist es eigentlich möglich MSAA und FAA zu kombinieren, sodass z.B. immer 2xMSAA benutzt wird und an den kanten noch zusätzlich 4x FAA oder so. Dann würde man ja auch net so sehen wenn eine kante vergessen wird.
Wie wäre es eigentlich damit, wenn der grafikchip je nach nutzen von AA die Höhe des AAs bestimmt. z.B. an kanten wo grau in schwarz übergeht nur 2xAA aber bei nem übergang von rot zu weiss wird 6xAA verwendet. Ist das z.B. basierend auf den gamma werten möglich ???
robbitop
2002-09-19, 22:25:07
naja das wird niemand machen ganz zu schweigen vom OPerformanceverlust...ich denke dass man wie Demi sagt das FAA einwandfrei machen wird (ob nun MGA NV oder ATi (bei denen erwarte ich es am wenigsten) und dann 16xFAA...von der Qualli is das ungeschlagen..der rest benötigt kein AA..wäre ja auch totale Verschwendung für die Performance die man fü+r AF braucht denn dort kommt man trotz Trick nicht um gewaltige Performanceeinbussen herrum...
Lorien
2002-09-19, 23:42:50
hmm es gehen auch gerüchte rum das Nvidia dabei ist den NV30 zu überarbeiten da er ned schneller ist als der R300.
Inwiefern dies stimmt werden wir ja in ein paar Monaten sehen.
Bin echt mal gespannt. Werde mir jedoch trotzdem schonmal ne ATI kaufen. Soll ja jeder mal Geld von mir kriegen ;)
Metzger
2002-09-20, 10:09:28
Ich will nochmal auf's Topic zurückkommen. Da ja ATI und nVidia ihre Chips bei TSMC fertigen lassen hat doch eigentlich ATI einen Vorteil, wenn TSMC mit nVidia den 0.13 Prozess entwickelt/ausreift. TSMC könnte doch dann den 0.13 R300-Chip wesentlich schneller bauen als jetzt den NV30-Chip von nVidia?!
Oder ist da die Umstellung auf ein anderes Chipdesign derart aufwendig, dass ATI keinen Vorteil damit hätte?
robbitop
2002-09-20, 12:06:25
so gesehn hätte ATi dann vieleicht einen Vorteil, da die Jungs dann das Know How von 0,13µ ohne Grosse Ausschüsse haben und die Yields sehr gut und schnell einstellen können und dann wissen wo es hakt, trotzdem muss die Produktion dann auf R350 umgestellt werden und das dauert lang genug (ca 100Tage wenn sie es optimal beherrschen).
Nunja und diese 100Tage hat NV bereits den neuen Fertigungsprozess.
Ausserdem hat NV AFAIK einen Exklusivvertrag mit TSMC, dass sie zuerst und am meisten Produktionsressourcen bekommen, somit is ATi bis sie genügen 0,13µ Chips haben eben "On Queue" (wie wir das alle vom Esel kennen LOL). Nein sicher nicht so doll aber wie gesagt, NV hat dank des Vertrags eben Vorrecht.
Aber die Frage is was is aus 0,13µ machen...denn ATi hat aus 0,15µ auch mehr rausgeholt als NV....naja und mit nem internen 256bit Bus -> 128bit DDR brauchen sie gar nich erst gegen den R300 anzutreten...
Nunja wenn sie das Ding eben hochtakten sind sie vieleicht nah drann aber der R350 wird dann auch hohe Takte besitzen mit nem breiteren Speicherinterface und dann kann NV nix machen.
Wenn sie wirklich so engstirnig waren und ihn nicht mit 512bit Bus ausgestattet haben, können sie es kaum schaffen ihn so schnell rezudesignen, das kostet auch ne menge Kies...
Aber sie können eben den NV35 noch redesignen und ihn mit Hochdruck fertigstellen so dass er eben gegen den R350 antritt.
Aber mal ganz ehrlich, ich glaube kaum dass ATi einen Produktionszyklus von 6Monaten anstrebt, das is teuer und die werden die alten Karten nich los...das hat auch NV ab der GF3 nichmehr geschaft. (1 Jahr bis zum GF3 Refresh GF4 (mehr is der wirklich nich)).
Und so erwarte ich es von den beiden auch. Wenn sie überhaupt den R350 bringen. Damals sollte auch die R8800 und die R8500XT kommen als Refresh...was war??? nix war.....
also : Abwarten...
obwohl es sich für ATi lohnen würde auf 0,13µ umzustellen um kosten zu senken, aber wenn das soo schnell passiert glaub ich kaum an Chipinterne neuerungen, wenn dann höher getakteter Chip und Ram...
Unregistered
2002-09-20, 12:11:41
"
Da ja ATI und nVidia ihre Chips bei TSMC fertigen lassen hat doch eigentlich ATI einen Vorteil, wenn TSMC mit nVidia den 0.13 Prozess entwickelt/ausreift. TSMC könnte doch dann den 0.13 R300-Chip wesentlich schneller bauen als jetzt den NV30-Chip von nVidia?!
"
Hihi wohl eher nicht. Dann würdest du davon ausgehen, das die Firmen extrem naiv sind.
Tud mir leid aber bei Nvidias Histroy und Erfolg kann ich nicht annehmen das sie sehr naiv sind :)
Für solche Fälle haben die Firmen ihre Rechtsabteilungen und da wirds schöne Knebelverträge geben auch mit TSMC.
Will sagen eine Hand wäscht die andere.
TSMC bekommt von NV den 0.13 Prozess flott gemacht, dafür sorgt TSMC dafür, das ATI diesen in der nächsten Zeit nicht bekommt und Nvidia exclusiv NV30 und auch GF4TI's darauf herstellen kann.
Wie gesagt das ist nur eine Variante. Es gibt viele Möglichkeiten das umzusetzen aber ich weiss ganz sicher wie es nicht laufen wird.
NV macht den Prozess flott und ATI kassiert ab.
Da müssten die schon sehr dumm sein und so dumm ist keiner.
Salvee
2002-09-20, 16:27:04
@ Richth äh Unreg
Dir ist aber schon klar, dass im Falle eines Ausschlusses von ATi aus dem 0,13µ Prozess nV an TSMC eben diesen Verlust/entgangenen Gewinn aus nichtproduzierten Chips zu ersetzten hat, da ansonsten TSMC so dumm wäre "wie keiner sein kann".
Edit: Sorry, OT
Pussycat
2002-09-20, 16:48:28
Aber Salvee, die nv30 wird perfekt und dadurch gleich millionenfach verkauft, so dass tsmc nur noch für NV produzieren brauch, so dass NV die fest im griff hat, so dass TSMC schon in nächster Zeit gratis für NV produzieren wird aus Angst sie zu verlieren als Kunde. Das läuft in Endeffekt darauf hinaus, dass NV rulet!
Noch Fragen???
Richthofen
2002-09-20, 16:55:22
"
Dir ist aber schon klar, dass im Falle eines Ausschlusses von ATi aus dem 0,13µ Prozess nV an TSMC eben diesen Verlust/entgangenen Gewinn aus nichtproduzierten Chips zu ersetzten hat, da ansonsten TSMC so dumm wäre "wie keiner sein kann".
"
Du weisst aber gar nicht ob TSMC überhaupt von Anfang an genug Kapazitäten für 0.13 bieten kann.
Außerdem schrieb ich doch oben klar und deutlich das dies eine Variante von vielen wäre.
Es kann auch genauso gut sein, das Nvidia sich seine Mühe in Rabatten auf die Chipkosten zahlen lässt oder weiss der Geier war.
Die Anpassungen des R300 oder R350 auf 0.13 seitens ATI kann TSMC ATI sowieso nicht abnehmen.
Aber kein Unternehmen ist so dämlich und hilft einem anderen zb TSMC bei 0.13 damit ein anderer der lachende Dritte ist.
So dämlich sind die nicht. Da werden die sich schon ein geeignetes Modell überlegt haben damit beide Seiten zufrieden sind.
Eins wäre zb das NV weniger zahlen muss für seine Chips in 0.13 und ATI bei seinen eben mehr damit TSMC den Ausfall ausgleicht.
Ist aber auch nur ne Variante.
Geschäftsmodelle gibt es viele aber sie dienen letztlich nur dazu beide Seiten zufrieden zu stellen und Nvidia ist nunmal der Exklusivkunde. Mit dem verscherzt man es sich nicht einfach so.
Von daher werden da schon geeignete Maßnahmen getroffen worden sein.
zeckensack
2002-09-20, 17:03:00
Originally posted by Pussycat
Aber Salvee, die nv30 wird perfekt und dadurch gleich millionenfach verkauft, so dass tsmc nur noch für NV produzieren brauch, so dass NV die fest im griff hat, so dass TSMC schon in nächster Zeit gratis für NV produzieren wird aus Angst sie zu verlieren als Kunde. Das läuft in Endeffekt darauf hinaus, dass NV rulet!
Noch Fragen??? Ja.
Was hast du geraucht? Oder gar getrunken?
robbitop
2002-09-20, 17:10:36
nah das übliche Zeuch was wir hier alle trinken..
2 Gläser und dann haste FSAA 4 Free und Motion Blur ohne Ende...nur hilft AF dann auch nix mehr LOOOOOOOOOOOOOOOOOOOOOL
Pussycat
2002-09-20, 17:34:07
Originally posted by zeckensack
Ja.
Was hast du geraucht? Oder gar getrunken?
In letzter Zeit eigentlich nichts....
Salvee
2002-09-20, 18:05:53
@ Pussycat
Smilie setzen nicht vergessen ;)
@ Richthofen
Kann sein, muss aber nicht.
Es ist doch so, dass vorrangig nV angewiesen ist auf den 0,13µ Prozess, da sie es nicht gebacken gekriegt haben/nicht willens waren, einen DX9 (in etwa) Chip in 0,15µ zu designen. Der 0,13µ kommt bei sowieso TSMC früher oder später, aber nV wird die Zeche dafür zahlen müssen, um der Erste mit so einem komplexen Chip zu sein.
Sind alles nur Theorien, welche sich erst bei Erscheinen und Massenverfügbarkeit der Chips nachweisen lassen.
Richthofen
2002-09-20, 20:46:08
"
Kann sein, muss aber nicht.
Es ist doch so, dass vorrangig nV angewiesen ist auf den 0,13µ Prozess, da sie es nicht gebacken gekriegt haben/nicht willens waren, einen DX9 (in etwa) Chip in 0,15µ zu designen. Der 0,13µ kommt bei sowieso TSMC früher oder später, aber nV wird die Zeche dafür zahlen müssen, um der Erste mit so einem komplexen Chip zu sein.
Sind alles nur Theorien, welche sich erst bei Erscheinen und Massenverfügbarkeit der Chips nachweisen lassen.
"
Dann sage ich dir mal was.
TSMCs Erfolg ist zu sehr großen Teilen von NV abhängig. Wenn NV weniger ordert, ist TSMC geliefert bei den nächsten Quartalszahlen.
Was meinst du wieso NV so schön rausposaunt hat, das sie auch mit UMC liebäugeln und eventuell ein bisschen zu UMC auslagern wollen?
Das war eine nette Nachricht die als Gruss an TSMC gedacht war.
Dementsprechend werden die 2 also NV und TSMC auch ihre Verträge gestaltet haben.
Da wird keiner ne Zeche zahlen. Da werden letztlich beide was von haben.
Und wenn du dir mal NVs Plan für 2003 anschaust, dann wird TSMC alles tun damit 0.13 zur Zufriedenheit läuft. Bis Ende 2003 will NV so ziemlich alles auf 0.13 laufen haben. Nicht auszudenken, wenn dieser Großkunde der mehr als das Doppelte ordert von dem was ATI ordert, wegfallen würde.
Das kann sich TSMC nicht leissten. Die Kapitaldecke bei den Foundries ist nicht so dick das man sich solche Ausflüge leistet.
Das macht generell keiner. Sowas ist Zockerei.
Ich bleib dabei, die werden vertraglich das so ausgehandelt haben das beide sich freuen.
Purple_Stain
2002-09-20, 21:13:32
ach ihr niederes gewürm!!
preiset nVidia!
Niemand vermag ohne sie zu überleben!
nVidia ist unser Lebenserhalter!
*G*
ach ja und wehe es wagt jemand etwas gegen nVidia zu sagen,
dann... dann... dann...
ist Richthofen zur stelle!!
*MEGALOL*
Eusti
2002-09-20, 21:16:49
Wo wir schon bei 128bit und Spek-Forum sind:
Vielleicht tritt der NV30 ja mit QBM Memory an. So wie ich das auf den anderen Seiten gelesen habe, scheit das technisch gar nicht so schwehr zu sein. Und wenn der Speichercontroller das unterstützt, könnte das eine Billige Lösung sein.
Mit Standard GF4 Modulen der 4200er könnte man so QBM 1000 erreichen. Klar, man müsste die doppelte Menge Speicher wie auf der 4200 verbauen, aber 128MB brauchen die Karten sowiso. Die Timingprobleme der QBM Technologie würden die effektive Performance zwar wieder leicht senken, aber mit etwas besseren Modulen müsste ca. eine 1000MHZ 128bit Speicheranbindung möglich sein.
Vielleicht kommen daher ja die Gerüchte, der NV30 würde mit extremen Taktraten antreten.
Demirug
2002-09-20, 21:22:37
Salvee,
früher oder später muss jeder Hersteller auf die 0,13 umsteigen und dann Lehrgeld bezahlen. Und das ATi dann von den Erfahrungen von NV profitieren kann ist wunschdenken. TSMC hat mit den 0,13 schon längst keine Probleme mehr. Die Probleme die NVIDIA hat sind Chip spezifisch. Da schaltet mal ein Transitore nicht schnell genung da ist eine signallaufzeit zu gross usw. TSMC kann dabei zwar beratend zur Seite stehen aber die Arbeit haben die NV Leute die müssen den Chip so ändern das diese Probleme weg sind. Bei 0,15 kennen sowohl ATi wie auch NVIDIA das Verhalten im Bezug auf die benutzten Chiptools. Bei 0,13 ist diese Wissen aber noch unbekannt und deshalb sind auch soviele NV Leute bei TSMC um dieses Wissen zu durch Experimente zu erwerben.
Da TSMC aber 0,13 Aufträge braucht um die Kosten für das umstellen auf 0,13 wieder reinzuholen sind die sicher mehr als gewillt NV bei den Kosten für diese Experimentierphase entgegen zu kommen. TSMC gewinnt dabei möglicherweise zwar auch ein paar neue erkenntnisse aber ATi wird davon IMO nicht so sehr profitieren können um die Experimentierphase (die ATi wahrscheinlich voll bezahlen muss, wenn NV die volle 0,13 Kapazität nutzt) so weit abzukürzen um am Ende als Siger im 0,13 Poker darzustehen.
Eusti
2002-09-20, 22:02:36
Originally posted by Richthofen
TSMCs Erfolg ist zu sehr großen Teilen von NV abhängig. Wenn NV weniger ordert, ist TSMC geliefert bei den nächsten Quartalszahlen.
Das kann sich TSMC nicht leissten. Die Kapitaldecke bei den Foundries ist nicht so dick das man sich solche Ausflüge leistet.
Das macht generell keiner. Sowas ist Zockerei.Das zeugt davon, das du wirtschaftlich einfach nicht informiert bist (obwohl du in deinen Posts immer wieder so tust, als hättest du Ahnung).
TSMC ist ein GIGANT (etwa 5 mal größer als AMD) und finanziell absolut gesund. Die Eigenkapitaldicke liegt bei ca. 8 Milliarden Dollar. Die verdienen etwa halb soviel wie Intel (Q2 TSMC 270 Mio. | Q2 Intel 446 Mio.), bei Umsätzen von ca. 5 Milliarden Dollar jährlich.
Aktuell arbeitet man nahe der Kapazitätsgrenze und Nvidia macht bei dennen nicht einmal 20% des Umsatzes aus. TSMC könnte es sich sofort leisten NVidia abzuschießen, allerdings wäre jede Firma blöd, die einen (nicht den) Ihrer größten Kunden abschießt. Aber bei den Renditen die man einfährt, kannst du getrost davon ausgehen, das TSMC Nvidia bei den Chips voll abzockt. Den Zahlen nach zu urteilen verdient TSMC etwa doppelt so viel pro Chip wie Nvidia.
Also Richthofen! Erst bilden, dann losquatschen!
Demirug
2002-09-20, 22:19:43
Eusti,
70% sind aber nicht nahe an der Kapazitätsgrenze :)
http://news.com.com/2100-1001-946432.html
Eusti
2002-09-21, 07:26:32
Originally posted by Demirug
Eusti,
70% sind aber nicht nahe an der Kapazitätsgrenze :)
http://news.com.com/2100-1001-946432.html Stimmt, hast recht. Ich hatte meine Aussage (http://www.tsmc.com/uploadfile/ir/quarterly/2002/2/E/2Q02-FR.pdf) direkt von der TSMC Hompage. Deine von der Investorenkonferenz sind genauer. Im TSMC Bericht waren die Angaben zum 3 Quartal nicht mit Zahlen hinterlegt.
Zumindest die Kernaussage bleibt gleich. TSMC verdient das doppelte an den Chips wie NVidia (dafür tragen die ja auch das Risiko der Investition) und TSMC könnte es aus wirtschaftlicher Sicht noch immer ohne weiteres verkraften NVidia abzustossen.
Razor
2002-09-21, 11:32:01
@Eusti
Du wirfst anderen hier wirtschaftliche Unwissenheit vor, solltest Dich aber wohl besser selber mal informieren, oder ?
Wenn nVidia bei TMSC 20% ausmacht, TMSC also selber zu 70% ausgelastet ist, also noch 30% freie Kapazität besitzt (was im übrigen reichlich ineffizient ist), würde es bedeuten, dass durch den Verlust von nVidia dann weitere 20% (1/5'tel) der 70% Auslastung wegbrechen würden. Das bedeutet dann schlicht eine Auslastung von nur noch 56% !
Verstehst Du nun, was hier gesagt werden soll ?
70% ist schon schlecht, 56% aber noch sehr viel schlechter !
Die Prozessumstellung von TMSC will bezahlt werden und nicht jeder CHIP-Designer ist in der Lage 'mal eben' auf den neuen (kostengünstigeren) Fertigungsprozess umzustellen, wie Demirug ja nun anschaulich dargelegt hat.
Also begreif es einfach:
ATI ist zur Zeit schlicht (noch) nicht in der Lage auf den .13 Prozess umzustelgen !
nVidia wollte beim NV30 von Anfang an auf den neuen Prozess setzen und hat nun einen zeitlichen Vorteil gegenüber den anderen Herstellern. Und wenn die jetzt bald erscheinenden Produkte (NV18/28) auch schon in .13 gefertigt werden sollten, dann hat nVidia sogar gewaltig die Nase vorn. Denn so sind nicht nur höhere Takte möglich, sondern vor allem geringere Produktionskosten !
Ich möchte nicht wissen, wie der R300 von ATI kostenseitig zu Buche schlägt, denn das dürfte enorm sein. Insofern ist dieser Chip derzeit ein reines Prestige-Objekt und das Maximum, was sich mit (veralteter) Fertigungstechnik machen lässt.
In diesem Sinne
Razor
Eusti
2002-09-21, 13:27:25
Originally posted by Razor
70% ist schon schlecht, 56% aber noch sehr viel schlechter!Hey hey hey! Jetzt mal langsam. Kein Grund zur Aufregung.
Was ich mit dem Post sagen wollte, ist: TSMC ist nicht auf NVidia angewiesen. Es besteht also kein (wie von Richthofen geschildertes) Abhängigkeitsverhältnis. TSMC verdient so viel Geld, das die bereits bei ca. 45% Auslastung Ihren Break-even erreichen. Damit dürften Sie eine Ausnahmestellung in der Chip-Industrie einnehmen. Darüberhinaus haben die ein Eigenkapital von 8 Milliarden Dollar (6x soviel wie der Jahresumsatz von NVidia).
Auch mit den 56% Auslastung würde TSMC noch weiter Gewinne abwerfen. Im 2. Quartal lag man beispielsweise bei 85% Auslastung, was zu einer Umsatzrendite von über 20% (NACH STEUERN) führte. Zusammen mit der enormen Kapitaldecke die TSMC besitzt, ist Richthofens Aussage einfach FALSCH. Und da er sehr oft mit einfach FALSCHEN Zahlen/Argumenten argumentiert, musste ich einmal krass darauf hinweisen.
Was du jetzt meinst: Ganz klar, es wäre für TSMC völlig bescheuert die Kundenbeziehung zu NVidia auf´s Spiel zu setzen. Dieser Punkt steht ausser Frage. Aber es gibt KEINE lebensnotwendige Abhängigkeit seitens TSMC von NVidia.
Pussycat
2002-09-21, 13:48:15
Originally posted by Richthofen
Was meinst du wieso NV so schön rausposaunt hat, das sie auch mit UMC liebäugeln und eventuell ein bisschen zu UMC auslagern wollen?
Das war eine nette Nachricht die als Gruss an TSMC gedacht war.
War es nicht. TSMC hatte zu wenig Fertigungkapazitäten, und NV kriegte nicht genug Chips.
Sicherlich könnte es sein, dass NV so etwas druck machen wollte, aber sie kriegten schlicht und einfach zuwenig chips produziert.
Pussycat
2002-09-21, 14:18:49
Originally posted by Salvee
@ Pussycat
Smilie setzen nicht vergessen ;)
Ich meinte es aber!! Hab' in letzter Zeit fast nichts getrunken, und bin sowieso leidenschaftlicher nichtraucher.
Exxtreme
2002-09-21, 14:38:45
Originally posted by Razor
@Eusti
Ich möchte nicht wissen, wie der R300 von ATI kostenseitig zu Buche schlägt, denn das dürfte enorm sein. Insofern ist dieser Chip derzeit ein reines Prestige-Objekt und das Maximum, was sich mit (veralteter) Fertigungstechnik machen lässt.
In diesem Sinne
Razor
Razor,
überschätze bitte diesen 0.13µm-Prozess nicht. Soo viel bringt dieser auch nicht ggü. dem 0.15µm-Prozess. Ein etwas kleineres Die und etwas mehr Takt bringt sowas schon, aber längst nicht so viel wie z.B. 0.25µm auf 0.18µm seinerzeit. Und man sollte nicht vergessen, daß 0.15µm schon sehr ausgereift und erprobt ist im Gegensatz zu 0.13µm.
Gruß
Alex
robbitop
2002-09-21, 15:02:12
nochmal zu QBM...
QBM is nix anderes als DualChannel auf dem Ram selbst...ich denke dass hier ebenso ein interner 512bit Bus benötigt wird, wenn man 128bit QBM nehmen möchte (auch hier würde ich preise, verfügbarkeit und Taktraten anzweifeln)...QBM bringt einfach keine Vorteile..denn man muss genauseo wie bei 256bit DDR auch 256 Datenleitungen verlegen und das PCB wird auch nicht einfacher und der Chip muss auch auf 512bit ausgelegt sein und das is dasProblem dass wir vemuteten...wenn er nämlich nur 256bit Chip is dann bringt QBM auch nix...
ich denke es war damals mit DDR anders, es mussten genausoviele Datenleitungen wie mit SDR verlegt werden da der Unterschied eben nur in der Nutztung der Taktflanken lag..ist diesmal aber anders nämlich wie 256bit DDR...PCB wird also nich einfacher...
also is es eher unwahrscheinlich...es erschwert eher...
was die Verzögerung betrifft:
den Chip umzubaun is zu teuer und zu langwierig, die haben einfach probleme in der NV30 Produktion, der Aussschuss is zu hoch bei angestrebten Taktraten..da is noch viel Optimierung nötig, denke ich...den Hammer trifft es im Moment ja auch...
die Frage ist nur, wie Intel es schafft 0,13µ zu perfektionieren und 0,09µ schon so weit zu haben....die sind in Fertigung eben die Meister....
AlfredENeumann
2002-09-21, 15:06:46
Originally posted by Razor
ATI ist zur Zeit schlicht (noch) nicht in der Lage auf den .13 Prozess umzustelgen !
Wie soll ich das denn jetzt verstehen ?
Originally posted by Exxtreme
überschätze bitte diesen 0.13µm-Prozess nicht. Soo viel bringt dieser auch nicht ggü. dem 0.15µm-Prozess. Zustimmung. Erst von 0.09 sind neue Taktwunder zu erwarten.
Razor
2002-09-21, 15:23:52
Originally posted by Eusti
Was du jetzt meinst: Ganz klar, es wäre für TSMC völlig bescheuert die Kundenbeziehung zu NVidia auf´s Spiel zu setzen. Dieser Punkt steht ausser Frage. Aber es gibt KEINE lebensnotwendige Abhängigkeit seitens TSMC von NVidia.
Aufregen tue ich mich überhaupt nicht !
;-)
Aber da sind wir uns tatsächlich einer Meinung.
TMSC wird keinesfalls die Kundenbeziehung zu nVidia auf's Spiel setzen, zumal die 20% dann schlicht an die Konkurrenz abwandern würden. Aber auch nVidia wird kein ernsthaftes Interesse daran haben, TMSC als Chip-Hersteller zu verlieren, denn dann würde es nVidia derbst zurück werfen. Sie hätten dann kaum noch die Möglichkeit, ihre neuen Produkte rechtzeitig an Markt zu plazieren.
Vielfach wird ja schon gesagt, dass der R300 eigentlich ein bissel früh am Markt ist, da er schon fast zu viel Leistung bietet und eine API unterstützt, die noch gar nicht am Markt ist. Ergo hat nVidia noch ein bischen Zeit (vermute so 3-6 Monate), sein neues Flagschiff zu plazieren, muss im Gegenzug allerdings mit einem leichten Imageverlust leben. Allerdings können sie (wenn alles klappt ;-) diesen locker wieder wett gemacht, wenn a) das neue Flagschiff wirklich (!) gut ist (und nicht nur auf dem Papier) und b) sie einen Fertigungvorteil gegenüber der Konkurrenz haben.
-
Du hast auch angesprochen, dass nVidia sehr viel kleiner ist, als TMSC, was ich nur bedingt bestätigen kann. Schließlich sollte man bedenken, dass TMSC den Grossteil des Eigenkapitals in Fabriken stecken hat, die ohne den Betreiber recht wenig Wert sind. nVidia hingegen ist eine reine Entwickler-Firma, denn sie stellen ja eigentlich überhaupt nichts her, sondern designen nur. Was würde hier also eine fette Eigenkapital (!) Decke für einen Sinn machen ?
Wenn Du wirtschaftlich bewandert beist (was ich Dir nicht absprechen möchte), dann weisst Du um den Zusammenhang von Eigenkapital und dessen Rendite, i.e. dem Gewinn. Und ich möchte fast wetten, auch wenn ich mit die genauen Zahlen erst einmal besorgen müsste, dass die Rendite bei nVidia um einiges höher liegt, als bei TMSC. Der absolute Gewinn sollte umd müsste auch bei TMSC höher sein, damit sich das eingesetzte Kapital entsprechend rechnet, oder ?
Bis denne
Razor
Razor
2002-09-21, 15:35:14
Originally posted by Exxtreme
Razor,
überschätze bitte diesen 0.13µm-Prozess nicht. Soo viel bringt dieser auch nicht ggü. dem 0.15µm-Prozess. Ein etwas kleineres Die und etwas mehr Takt bringt sowas schon, aber längst nicht so viel wie z.B. 0.25µm auf 0.18µm seinerzeit. Und man sollte nicht vergessen, daß 0.15µm schon sehr ausgereift und erprobt ist im Gegensatz zu 0.13µm.
Gruß
Alex
Die Betonung lag eindeutig auf dem zeitlichen Vorteil, den nVidia zur Zeit erlangt und nicht unbedingt die höheren Taktmöglichkeiten. Klar, ein bissel was davon wird quasi als 'Abfallprodukt' abfallen, aber DER Hammer wird das sicher nicht, da geb' ich Dir völlig recht !
Allerdings wird der 'ausgereiftere' .15 Fertigung schon alleine dadurch kompensiert, dass die Die-Fläche eines R300 mal eben locker 1,5 mal so gross ist, wie beispielsweise der eines NV28, welcher vermutlich in .13 gefertigt wird. Insofern dürften sich der Vorteil durch den Nachteil beim R300 wieder ausgleichen.
Der .13 Prozess wird nun bei nVidia erst einmal an kleineren Prozessoren 'getestet' (zumindest würde ich es so machen ;-). Die Stückzahl pro Wafer steigt und dadurch wird eine eventuell geringere Ausbeute (die hier erst noch bewiesen werden müsste ;-) wieder kompensiert werden. Insofern man in .13 fertigen kann, ohne dadurch einen finanziellen Nachteil zu haben, dabei aber die notwendigen Erfahrungen macht, die für die Fertigung eines sehr viel komplexeren Chips dann schon zu Verfügung stehen.
Aber wie gesagt, das mit der sehr viel besseren Ausbeute beim .15 Prozess schluck' ich nocht nicht, bis mir jemand Zahlen nennen kann. Insofern bleibt abzuwaren, on a) nVidia schon bei den demnächst erschenenden NV18/28 mit .13 Fertigung aufwarten kann und b) die Ausbeute dann wirklich so schlecht ist.
Wie Du ja schon sagtest, soooo unterschiedlich sind sich die beiden Fertigungsprozesse nicht, ausser dass der .13 Prozess einen eindeutigen wirtschaftlichen Vorteil bringen dürfte (vergleichbare Ausbeute mal voraus gestezt ;-).
Bis denne
Razor
Razor
2002-09-21, 15:36:03
Originally posted by AlfredENeumann
Wie soll ich das denn jetzt verstehen ?
So, wie ich das geschrieben habe !
:D
Razor
Eusti
2002-09-21, 18:13:58
Originally posted by Razor
dann weisst Du um den Zusammenhang von Eigenkapital und dessen Rendite, i.e. dem Gewinn. Und ich möchte fast wetten, auch wenn ich mit die genauen Zahlen erst einmal besorgen müsste, dass die Rendite bei nVidia um einiges höher liegt, als bei TMSC. Der absolute Gewinn sollte umd müsste auch bei TMSC höher sein, damit sich das eingesetzte Kapital entsprechend rechnet, oder?
Bis denne
Razor Ja, ist korrekt so.
Allerdings hält NVidia viel mehr Eigenkapital als Sie tatsächlich benötigen würden. Dieses machen Sie, um einige eventuell mal verpasste Entwicklungszyklen zu überleben, somit relativiert sich das ein wenig, obwohl NVidia im Endeffekt wahrscheinlich immer noch lukrativer ist.
Aber dafür ist NVidia auch fast komplett von TSMC abhängig. Es gibt nur ganz wenige (ich glaub 2) Chipfabriken, die Fertigungskapazität in diesen Massen einen Fabless-Hersteller anbieten. TSMC hat umgekehrt aber die Möglichkeit eine ganze Menge an Kunden zu beliefern. Deshalb ist TSMC ja auch in einer so großen Machtposition und nimmt die ganzen Designer aus.
Originally posted by Razor
Die Betonung lag eindeutig auf dem zeitlichen Vorteil, den nVidia zur Zeit erlangt und nicht unbedingt die höheren TaktmöglichkeitenZurzeit erlangt nVidia keinen zeitlichen Vorteil. R300 kann man kaufen, NV30 nicht. Das ist erst mal für nV ein Nachteil. Ob später ein möglicher NV30 in möglichen 0.13 nV wieder klar vor ATI positionieren wird (so dass ATI dem nichts entgegenzusetzen hat) steht in den Sternen. Ich würde also vorsichtiger formulieren, davon, dass nVidia vielleicht mit ihrer Strategie Erfolg haben könnte.
Razor
2002-09-21, 19:16:24
@Eusti
...obwohl NVidia im Endeffekt wahrscheinlich immer noch lukrativer ist.
Na, dann liegen wir ja gar nicht soooo weit auseinander.
Und gerade das zeichnet übrigens nVidia u.a. aus, die hohe (nahezu liquide) Eigenkapitaldecke. Das gibt den Investoren Sicherheit und wenn die Rendite trotzdem gegeben ist... umso besser !
Jep, nVidia ist zur Zeit sehr lukrativ, vor allem für Neuanleger, die, wenn sie mutig sind, einen derben Reibachm achen können. Nun ja, wenn (ja wenn ;-) nVidia ein bombastisches 'ComeBack' feiert...
:D
Schaun' wir mal !
Aber dafür ist NVidia auch fast komplett von TSMC abhängig. Es gibt nur ganz wenige (ich glaub 2) Chipfabriken, die Fertigungskapazität in diesen Massen einen Fabless-Hersteller anbieten. TSMC hat umgekehrt aber die Möglichkeit eine ganze Menge an Kunden zu beliefern. Deshalb ist TSMC ja auch in einer so großen Machtposition und nimmt die ganzen Designer aus.
Nun ja, einerseits ja (nVidia ist derzeit -!- von TMSC anhängig), andererseits auch wieder nein (TMSC ist in großer Machtposition).
Habe ja schon dargelegt, dass die Auslastung von TMSC auch mit nVidia noch ziemlich mager ist. Ohne die liegt's vielleicht immer noch über dem break-even, aber eben nicht mehr viel und das wiederum wird die Investoren nicht freuen... sicher, TMSC könnte eher ohne nVidia leben, als nVidia ohne TMSC (aber nur zum jetzigen Zeitpunkt und nicht absolut!).
Was ich damit sagen wollte ?
Beide können in der derzeitigen wirtschaftlichen Situation nicht ohne den anderen...
TMSC hat sich mit den Investitionskosten für den .13 Prozess mächtig aus dem Fenster gelegt, was wiederum bedeutet, dass da auch wieder was zurück kommen muss. Und da reicht der break-even einfach nicht.
nVidia hat sich als (GPU-)Pionier auf den .13 Prozess eingelassen und musste schon dafür zahlen (Aktienkurse und Image), könnte aber durchaus auch gröbere Schnitzer überstehen. Wenn ich recht entsinne können sie einen kompletten Produktzyklus (also locker 2 Jahre) ohne die unangefochtene Technologieführerschaft überleben. Ein ganzes Jahr sogar, ohne auch nur ein einziges Produkt zu verkaufen !
Insofern könnte also auch nVidia auf TMSC verzichten und diesen einen erheblichen Schaden verursachen (sicher nicht deren Untergang damit erzwingen, aber u.U. einleiten... ;-), aber der eigene Schaden wäre zu hoch und es würde ihre Produktstrategie locker um mindetens 6 Monate zurück werfen, was den derzeitigen zeitlichen Vorteil eliminieren würde.
Was uns zu aths bringt...
;-)
Bis denne
Razor
Razor
2002-09-21, 19:29:22
Originally posted by aths
Zurzeit erlangt nVidia keinen zeitlichen Vorteil. R300 kann man kaufen, NV30 nicht. Das ist erst mal für nV ein Nachteil. Ob später ein möglicher NV30 in möglichen 0.13 nV wieder klar vor ATI positionieren wird (so dass ATI dem nichts entgegenzusetzen hat) steht in den Sternen. Ich würde also vorsichtiger formulieren, davon, dass nVidia vielleicht mit ihrer Strategie Erfolg haben könnte.
Einen zeitlichen Vorteil kann man nur über einen bestimmten Zeitraum erwerben, da wirst Du mir doch wohl hoffentlich recht geben, oder ?
Was ich damit sagen wollte, dürfte doch wohl klar sein.
Die derzeitige Verzögerung kann sich insofern direkt auf die Fertigung und damit auf günstiger herzustellende Produkte auswirklen (siehe meine Vermutung zum NV18/28). Wenn es nVidia gelingen sollte, diese - vergleichsweise einfachen - Chips in 0.13 zu fertigen, dann sind sie der Konkurrenz schon jetzt (!) technologisch und damit dann auch wirtschaftlich weit voraus (ein halbes Jahr kann im Business eine Ewigkeit sein ;-). Denn wie hier, u.a. auch von Demirug, schon dargelegt wurde, kann eine Firma mit den eigenen Produkten nicht 'mal eben' auf eine andere Fertigungstechnologie wechseln. Zumal die Meisterleistung R300 von ATI wohl direkt auf den .15 Fertigungsprozess zugeschnitten werden musste, damit es möglich ist, derartige Takte mit diesem Monster zu erreichen.
Wie dem auch sei zu deinem vielleicht kann ich nur sagen: würde, könnte, wenn ... dann !
:D
Ich denke, dass ich mich schon sehr vorsichtig ausgedrückt habe und das, gerade und obwohl wir uns im Speku-Forum befinden.
Taktik ist im heutigen Business alles !
Und wir werden bald sehen, wer der besserer Taktiker war...
Der Schnelle...
Oder der Vorausschauende...
In diesem Sinne
Razor
AlfredENeumann
2002-09-22, 00:15:07
Originally posted by Razor
So, wie ich das geschrieben habe !
:D
Razor
So wie du es geschrieben hast ist es aber eindeutig zweideutig.
RyoHazuki
2002-09-22, 15:24:31
Hallo alle,
warum bin ich hier der einzige der RICHTIG glaubt das NVIDIA gegen ATI wieder gewinnt ? habt ihr nicht mit RADEON und GF2 Ultra dazugelernt ? gut das war eigentlich nur ein taktgeschehen, genauso wie beim GF3 TI 500! allerdings hat Nvidia seit Dez 2000 etwas in der hand, das 3DFX 1 Jahr ohne einen neuen chip zu relasen an platz 1 gehalten hat! Richtig!!!!
ICH REDE HIER ÜBER S L I (Scan Line Interleave)
mal darüber nachgedacht ?? wie es aussieht nicht!
Pussycat
2002-09-22, 15:27:44
Es ist leider extrem teuer und daher nicht sehr nützlich. Und keiner hat 2 AGP-slots.
Exxtreme
2002-09-22, 15:37:22
Originally posted by RyoHazuki
ICH REDE HIER ÜBER S L I (Scan Line Interleave)
mal darüber nachgedacht ?? wie es aussieht nicht!
Kann ATi auch!!!
Auch ATi ist in der Lage Multichip-Lösungen zu basteln. Bei der R300 lassen sich bis zu 256 dieser Chips zusammenschalten.
Gruß
Alex
Das können alle Chips.
Die 'grossen' Profi-Karten von 3DLabs (zB GVX420) arbeiten auch im SLI-Betrieb.
RyoHazuki
2002-09-22, 20:17:20
OHHHHHH man nur weil er es kann heisst es noch lange nicht das es von Ati rauskommt! Ati müsste die treiber komplett umschreiben und ausserdem war es von Ati nicht geplant! Aber bei Nvidia weiss man ja nichts, wer weiss vieleicht hat Nvidia von anfang an die treiber darauf optimiert, und 2 chips auf einem grafikboard auf EINEM AGP ist glaube ich kein problem, siehe Voodoo 5 5500!
Die V5 ist nicht AGP-fähig.
Soviel zu 'kein Problem'.
robbitop
2002-09-22, 21:01:32
aber der Spectre war es und der stand extrem kurz vor der Produktion..die hatten ne schöne AGP Bridge drauf, auf diesem Chip war übrigens auch ne TNL Unit und soweit ich weiss sogar ein Vertexshader..aber diese Spekulationen von wegen TTNL (TTNL TrueTransformandlighning) Unit und für die Deluxeversion mit 2 Chips...gab es mal ein Artikel bei 3dcenter..aber kA woher diese Infos waren und wer weiss was passiert, aber seit dem Interview von David Kirk glaube ich es wird kein SLI Chip geben, das ist nicht die Strategie von NV (schade dass diese sehr exzentrischen Grakas aussterben (TBR/eDRAM/SLI) und wir nur noch fette single Chip Bruteforce Chips haben...ich denke der NV30 wird dem R300 Design wohl sehr ähnlen (zumindist die Specs)
SLI zumindist hat im Moment nur NV von 3DFx ..und das is was anderes als AFR von ATi, denn das is damals in dies Hose gegangen..das SLI von 3DFX war einfach darauf ausgerichtet mit mehreren Chips zu skallieren und laut Benchmarks klappte das sehr gut, nur müssten die Chips weniger komplex sein zB 60Mio für die GPUs und 50-60mio für die TTNL (alles wilde Speku und schon mal abgetan)...und es währe dank PCB und Chippagaing teuer, da man halt mehrere Chips produzieren muss.
Pussycat
2002-09-22, 21:09:14
ATI hat aber auch ein AGP bridge entwickelt, und mit der MAXX auch ein multichip-board (ohne diesen Bridge übrigens). Ich bin auch überzeugt dass man dort SLI entwickelt hat, weil man eben auch den Bridge gemacht hat.
ATI kann es auch und knn es auch geplant haben. Nur findet ATI es bis jetzt nicht wirtschaftlich und hat NV das bis jetzt auch so gesehen. Was wohl einen Hinweis auf den Nutzen gibt.
robbitop
2002-09-22, 21:22:19
es ist aber nicht SLI...100pro nicht..das wurde damals von 3dfx entwickelt...und ja ATI hat eine technik..aber die arbeitet anders...SLI arbeitet in dem sich die Chips die Zeilen des Bilds aufteilen Chip 1 rendert Zeile 2,4,6,8,10.... Chip2: 1,3,5,7,9...
und die Technik von ATI AFAIK haben sich die ganzen Bilder geteilt
Chip 1: Bild 1,3,5,7,....Chip2: 2,4,6,8,...
und SLI is auch ein geschützter Name..deswegen haben sie es allein schon nich ;-) so wie auch Burgerking kein BigMac hat
naja aber die Radeon sollte damals mit dieser Technik ausgestattet werden, doch es hat nur mit AGP2x funktioniert, damit gaben sie sich nich zufrieden und sie wäre dank 2 Chips, komplexerne PCB und zu schnell (hätte R200 Wasser abgegraben) sinnlos gewesen...
ist die Frage ob man es so plant...man kann diese Chips eben so jkonzipieren dass sie eben perfekt miteinander Skallieren..so entstehen keine Probleme...ich denke ATi hätte es im Multichipbereich für games schwerer, es ist möglich jeden Chip zusammen zuschalten (2xTNT2s und 2xSavage4 gab es von einer Firma mal)aber wenn er nich drauf ausgelegt ist, dann gibt es probleme und er skalliert eben nicht so gut...die Frage ist, ob das jmd machen will, denn es ist teuer..aber wenn man SLI einplant dann muss man mehrere kleine, relativ unklomplexe Chips nehmen.
Exxtreme
2002-09-22, 22:56:41
Originally posted by RyoHazuki
OHHHHHH man nur weil er es kann heisst es noch lange nicht das es von Ati rauskommt! Ati müsste die treiber komplett umschreiben und ausserdem war es von Ati nicht geplant! Aber bei Nvidia weiss man ja nichts, wer weiss vieleicht hat Nvidia von anfang an die treiber darauf optimiert, und 2 chips auf einem grafikboard auf EINEM AGP ist glaube ich kein problem, siehe Voodoo 5 5500!
Hmm, in der Registry habe ich bei ATi einen Eintrag gefunden, der "Maxx" heisst. Ich weiss leider nicht wozu er dient. :D
Für ATi dürft es kein Problem darstellen eine Multichip-Karte zu entwickeln wenn sie es wollten. Eine funktionierende AGP-Bridge haben sie auch schon lange. Nur rentieren dürfte es sich für ATi nicht.
Gruß
Alex
AlfredENeumann
2002-09-22, 22:58:51
Ich will ja nix sagen, aber ich halte die AFR-Lösung für erheblich leichter zu realisieren als ne SLI Variante.
Wie kommst du eigentlich darauf das ATI keine Multichip-Karte kann ? Erstens hatten sie schon eine, sogar eine mit 4 Chips (siehe die ominöse KArte bei Ebay). Zweitens ist im design der ATI-Chips (wie acuh in denen von Nvidia) die Multichip fähigkeit enthalten. Warum sollte man den sowas maxhen wenn man es angeblich gar nicht kann ?
Legolas
2002-09-22, 23:51:28
Originally posted by AlfredENeumann
Ich will ja nix sagen, aber ich halte die AFR-Lösung für erheblich leichter zu realisieren als ne SLI Variante.
Naja, im Gegensatz zu AFR hat SLI auch schon bei 8 Chips seine Funktionsfähigkeit unter Beweis gestellt, wenn das in der Größenordnung auch für den Consumermarkt nicht praktikabel ist.
AlfredENeumann
2002-09-23, 00:49:46
Ich meine nur das komplette Bilder von mehreren Chips leichter zu synchronisieren sind als verschiedene Zeilen. Und wer sagt dir das ATI-Chips nicht auch irgendwo parallel arbeiten ?
Originally posted by AlfredENeumann
Ich meine nur das komplette Bilder von mehreren Chips leichter zu synchronisieren sind als verschiedene Zeilen. Und wer sagt dir das ATI-Chips nicht auch irgendwo parallel arbeiten ?
??
Also bei AFR machen mehr als 2 Chips IMO keinen Sinn, weil eben die Chips nicht parallel arbeiten. Ein Chip berechnet das komplette aktuelle Frame, der 2. Chip das nächste usw.
Bei SLI kann man im Extremfall soviele Chips einsetzen wie Bildzeilen vorhanden sind. Dann berechnet jeder Chip 1 Zeile und alle Chips arbeiten parallel.
Exxtreme
2002-09-23, 11:42:59
Ack @ ow
Ausserdem hat SLI den Vorteil, daß es Grafikspeicher spart weil jeder Chip nicht das gesamte Frame vorhalten muss sondern nur die ihm zugewiesenen Zeilen.
Gruß
Alex
Demirug
2002-09-23, 12:02:31
Was dafür bei SLI aber sehr problematisch ist sind "Render To Texture" sachen wie sie beim dynamischen Enviroment Mapping oder Projektionsschatten von dynamischen Objekten gebraucht werden.
Das einzige was IMO für Multichip wirklich funktioniert ist sowas:
http://graphics.stanford.edu/projects/flashg/
Birdman
2002-09-23, 12:44:26
Originally posted by ow
Also bei AFR machen mehr als 2 Chips IMO keinen Sinn, weil eben die Chips nicht parallel arbeiten. Ein Chip berechnet das komplette aktuelle Frame, der 2. Chip das nächste usw.
Also für Spiele ganz sicher nicht, da hat man bei 2 Chips schon probleme, dass kein zu grosses lag entsteht und dies dann störend auffällt.
Für Rendersachen ist dies aber weniger entscheidend, daher kann man dort 4 chips sicher noch vernünftig einsetzen.
Birdman:
Ich seh nicht , wie das funktionieren sollte.
Bei 'alternate FR' gibt es nur 2 alternierende Frames (gerade und ungerade Frames).
Während ein Chip das Bild (Frame1) auf dem Monitor ausgibt berechnet der 2. den nächsten Frame (Frame2). Dann wird umgeschaltet.
Jeder weitere Chip bekäme gar nichts zu tun, weil das übernächste Frame (Frame3) ja wieder schon vom ersten Chip berechnet werden kann.
Egal ob Games oder Renderaufgaben.
AlfredENeumann
2002-09-23, 16:55:07
Originally posted by ow
Birdman:
Ich seh nicht , wie das funktionieren sollte.
Bei 'alternate FR' gibt es nur 2 alternierende Frames (gerade und ungerade Frames).
Während ein Chip das Bild (Frame1) auf dem Monitor ausgibt berechnet der 2. den nächsten Frame (Frame2). Dann wird umgeschaltet.
Jeder weitere Chip bekäme gar nichts zu tun, weil das übernächste Frame (Frame3) ja wieder schon vom ersten Chip berechnet werden kann.
Egal ob Games oder Renderaufgaben.
Je nachdem wie komplexx die Szenen werden kann ich da schon einen vorteil sehen. Der dritte Chip z.B. hätte natürlich was zu tun. er berechnet natürlich den nächsten frame.
Originally posted by ow
Birdman:
Ich seh nicht , wie das funktionieren sollte.
Bei 'alternate FR' gibt es nur 2 alternierende Frames (gerade und ungerade Frames).
Während ein Chip das Bild (Frame1) auf dem Monitor ausgibt berechnet der 2. den nächsten Frame (Frame2). Dann wird umgeschaltet.
Jeder weitere Chip bekäme gar nichts zu tun, weil das übernächste Frame (Frame3) ja wieder schon vom ersten Chip berechnet werden kann.
Egal ob Games oder Renderaufgaben.
2 chips könnten sich ein bild teilen, ähnlich wie bei der V5.
Originally posted by AlfredENeumann
Der dritte Chip z.B. hätte natürlich was zu tun. er berechnet natürlich den nächsten frame.
Dann liegt Chip 1 brach währenddessen.
alternierend = zwischen 2 Zuständen toggelnd. Da geht nicht mehr als 2.
Originally posted by burk23
2 chips könnten sich ein bild teilen, ähnlich wie bei der V5.
Das hat mit AFR aber nichts zu tun.
AlfredENeumann
2002-09-23, 18:49:06
Originally posted by ow
Dann liegt Chip 1 brach währenddessen.
alternierend = zwischen 2 Zuständen toggelnd. Da geht nicht mehr als 2.
Warum ?
Ich kann doch in der gleichen Zeit mit mehreren Chips viel mehr Frames berechnen !!!
Eusti
2002-09-23, 19:04:49
Originally posted by AlfredENeumann
Warum ? Ich kann doch in der gleichen Zeit mit mehreren Chips viel mehr Frames berechnen !!! Ja, aber nur für Zwischensequenzen, Render-Videos, oder Benchmarks.
In echten Games führt dieses zu einer verzögerten Darstellung. Du siehst beispielsweise einen Gegner auf dem Schirm und feuerst. In dem Moment, wo du feuerst, war der Gegner aber vielleicht schon gar nicht mehr da, da der Prozessor schon 3 Bilder weiter war und die unterschiedlichen Frames nur noch in den einzelen Chips fertig gerendert wurden.
Oder du läufst auf einen Abgrund zu und bevor du die Klippe "sehen" kannst, bist du bereits runtergefallen...
Originally posted by AlfredENeumann
Warum ?
Ich kann doch in der gleichen Zeit mit mehreren Chips viel mehr Frames berechnen !!!
Ah jetzt hab ich verstanden wie du das meinst.
IMO aber sinnlos, dazu müsste man die Parameter einer entsprechenden Anzahl von Frames ja im voraus kennen (=berechnet haben).
Birdman
2002-09-23, 19:36:22
Originally posted by ow
Ah jetzt hab ich verstanden wie du das meinst.
IMO aber sinnlos, dazu müsste man die Parameter einer entsprechenden Anzahl von Frames ja im voraus kennen (=berechnet haben).
wie ich gesagt habe, für Games untauglich, aber bei rendersachen kannste schon für mehr als nur 2 frames die daten durch die CPU vorberechnen lassen.
Ich denke mal dass dies auch die methide ist/war, welche diese ominöse 4 chip Ati karte bei Ebay verwendet hat.
Dass dann die Bezeichnung AFR nicht mehr ganz korrekt ist sollte imho kein hindernis sein, und technisch stelle ich er mir ned schwieriger vor, jedem chip nur jedes dritte (3 chips) oder vierte (4 chips) Frame zuzuteilen, denn jedes zweite.
Razor
2002-09-23, 19:49:02
Originally posted by Exxtreme
Hmm, in der Registry habe ich bei ATi einen Eintrag gefunden, der "Maxx" heisst. Ich weiss leider nicht wozu er dient. :D
Für ATi dürft es kein Problem darstellen eine Multichip-Karte zu entwickeln wenn sie es wollten. Eine funktionierende AGP-Bridge haben sie auch schon lange. Nur rentieren dürfte es sich für ATi nicht.
Gruß
Alex
Gab's da nicht mal 'ne Maxx von ATI ?
(det haben sie auch net hinbekommen)
:D
Razor
P.S.: Ich hör ja schon auf...
:-(
Exxtreme
2002-09-23, 19:52:06
Originally posted by Razor
Gab's da nicht mal 'ne Maxx von ATI ?
(det haben sie auch net hinbekommen)
:D
Razor
Doch, anscheinend hatte ATi lauffähige Muster einer Dual-R100. So eine GraKa gab es vor nicht zu langer Zeit bei eBay zu ersteigern. Leider hat es ATi nicht hingekriegt, daß diese Karte bei 4x AGP stabil lief, da die damalige AGP-Bridge nicht so ausgereift war.
Gruß
Alex
Razor
2002-09-23, 19:54:43
Ausgereift wie was ?
Haben sie mittlerer Weile etwas, was im Dual-Betrieb unter Win32 laufen kann ?
???
Razor
Thowe
2002-09-23, 20:15:58
Originally posted by Razor
Ausgereift wie was ?
Haben sie mittlerer Weile etwas, was im Dual-Betrieb unter Win32 laufen kann ?
???
Razor
Wäre mitlerweile machbar.
Exxtreme
2002-09-23, 20:21:41
Originally posted by Razor
Ausgereift wie was ?
Haben sie mittlerer Weile etwas, was im Dual-Betrieb unter Win32 laufen kann ?
???
Razor
Jupp, die damalige AGP-Bridge konnte es tatsächlich. ATi hat es damals aber nicht geschafft, daß diese AGP-Bridge mit 4x AGP stabil lief, deswegen "nicht ausgereift". 2x AGP waren AFAIK kein Problem. Und ja, durch so eine AGP-Bridge wäre der Dual-Betrieb unter Win2k kein Problem gewesen.
Gruß
Alex
Labberlippe
2002-09-23, 21:15:24
Originally posted by ow
Dann liegt Chip 1 brach währenddessen.
alternierend = zwischen 2 Zuständen toggelnd. Da geht nicht mehr als 2.
Vielleicht wäre aber der dritte Chip für Triple Buffering gut. ???
Gruss Labberlippe
StefanV
2002-09-23, 21:36:13
Originally posted by Labberlippe
Vielleicht wäre aber der dritte Chip für Triple Buffering gut. ???
Gruss Labberlippe
Denkt hier keiner an SSAA?? :)
RyoHazuki
2002-09-23, 22:03:13
schon toll wie ihr alle darüber redet wenn DAS SLI THEMA einmal erwähnt wird! *gg*
:asshole:
AlfredENeumann
2002-09-24, 00:32:33
Originally posted by Razor
Ausgereift wie was ?
Haben sie mittlerer Weile etwas, was im Dual-Betrieb unter Win32 laufen kann ?
???
Razor
Das Ding (Bridge) werkelt auf der AIW 8500
Razor
2002-09-24, 05:33:40
Originally posted by AlfredENeumann
Das Ding (Bridge) werkelt auf der AIW 8500
Aber nicht, um zwei GPU's miteinander zu verbinden...
-
Wie dem auch sei, ich fragte nach einer existierenden Lösung, meinetwegen auch im Profi-Bereich.
Und AFAIK gibt's da noch nichts, auch wenn's nach ATI theoretisch möglich wäre...
(wie damals bei der Maxx)
Bis denne
Razor
Originally posted by Razor
Wie dem auch sei, ich fragte nach einer existierenden Lösung, meinetwegen auch im Profi-Bereich.Es gibt Gerüchte, dass ATI im Labor längst an Dualchip-Lösungen bastelt, sie also schon mal ausgetestet hat. Falls das stimmt, dann doch wohl nur, um im Falle des Falles so eine Karte sofort releasen zu können. Nun, (unbestätigten) Gerüchten zufolge ist GeForce auch Dualchip-Fähig... mal sehen, was uns da blüht.
Falls die 3dfx-Leute bei NV irgendwas zu entscheiden hatten, so gehe ich davon aus, dass NV30 aller bisherigen NV-Strategie zum Trotz auch Mehrchipfähig ist.
Exxtreme
2002-09-24, 08:10:16
Originally posted by RyoHazuki
schon toll wie ihr alle darüber redet wenn DAS SLI THEMA einmal erwähnt wird! *gg*
:asshole:
Wenn man in Schriftgrösse 4 über einen Begriff rumschreit, dann sollte man damit rechnen, daß dieser Begriff Teil einer Diskussion wird.
;)
Gruß
Alex
AlfredENeumann
2002-09-24, 12:57:04
Originally posted by Razor
Aber nicht, um zwei GPU's miteinander zu verbinden...
-
Wie dem auch sei, ich fragte nach einer existierenden Lösung, meinetwegen auch im Profi-Bereich.
Und AFAIK gibt's da noch nichts, auch wenn's nach ATI theoretisch möglich wäre...
(wie damals bei der Maxx)
Bis denne
Razor
Nein. Das nicht. Aber das Prinzip ist das gleiche. Dort ist die GPU mit was weis ich verbunden. Muss mal nachschauen.
StefanV
2002-09-24, 13:57:49
Originally posted by AlfredENeumann
Nein. Das nicht. Aber das Prinzip ist das gleiche. Dort ist die GPU mit was weis ich verbunden. Muss mal nachschauen.
IEE1394 Controller Chip.
Eusti
2002-09-24, 16:26:00
Originally posted by aths
Falls die 3dfx-Leute bei NV irgendwas zu entscheiden hatten, so gehe ich davon aus, dass NV30 aller bisherigen NV-Strategie zum Trotz auch Mehrchipfähig ist. Gut, Mehrchipfähig ist ja nicht gleichbedeutend mit Mehrchip-Karten.
Aber ich könnte mir durchaus vorstellen, das man den Grafikchip in Vertexshader & Rest aufteilt. Also zwei Chips miteinander arbeiten müssen, aber ganz unterschiedliche Funktionen bearbeiten. Das würde die Chipproduktion billiger machen, da 2 kleinere Chips billiger herzustellen sind als ein riesengroßer (gut, man bräuchte 2 Chipgehäuse, usw., aber der Ausschuss auf den Wafern dürfte deutlich sinken).
zeckensack
2002-09-24, 16:40:31
Originally posted by Eusti
Gut, Mehrchipfähig ist ja nicht gleichbedeutend mit Mehrchip-Karten.
Aber ich könnte mir durchaus vorstellen, das man den Grafikchip in Vertexshader & Rest aufteilt. Also zwei Chips miteinander arbeiten müssen, aber ganz unterschiedliche Funktionen bearbeiten. Das würde die Chipproduktion billiger machen, da 2 kleinere Chips billiger herzustellen sind als ein riesengroßer (gut, man bräuchte 2 Chipgehäuse, usw., aber der Ausschuss auf den Wafern dürfte deutlich sinken). Hatten wir doch schonmal :|
http://www.forum-3dcenter.net/vbulletin/showthread.php?threadid=27580
Ehrlich gesagt halte ich es aber für extrem unwahrscheinlich daß wir sowas sehen werden.
RyoHazuki
2002-09-24, 18:10:06
Alex da muss ich dir recht geben!
;D
Demirug
2002-09-24, 19:05:23
OK das past hier nur begrennzt rein, aber einen eigenen Thread wollte ich deshalb nicht aufmachen.
Folgendes hab ich gerade in einer Chipdatenbank gefunden:
NV30
DirectX 9, 0.13µm, AGPx8, DDR-II 800/1000MHz, 8 rendering pipes)
NV31
NV30 w/ 4 rendering pipes
NV31M mobile NV31
GloomY
2002-09-24, 19:06:09
Originally posted by Stefan Payne
Denkt hier keiner an SSAA?? :) Interessante Idee.
Kann man nicht jedes Sample von einem unterschiedlichen Chip berechnen lassen und dann in den Framebuffer schreiben?
Das T&L müßte dann natürlich von einem seperatem Chip gemacht werden, der die Vertexdaten an alle Chips weitergibt. Diese besitzen einen eigenen Rasterizer, der bei jedem Chip etwas versetzt ist.
Allerdings bräuchte man pro Sample einen Chip, also für 4xSSAA auch 4 Chips. :|
Originally posted by GloomY
Interessante Idee.
Kann man nicht jedes Sample von einem unterschiedlichen Chip berechnen lassen und dann in den Framebuffer schreiben?
Das T&L müßte dann natürlich von einem seperatem Chip gemacht werden, der die Vertexdaten an alle Chips weitergibt. Diese besitzen einen eigenen Rasterizer, der bei jedem Chip etwas versetzt ist.
Allerdings bräuchte man pro Sample einen Chip, also für 4xSSAA auch 4 Chips. :|
Das funzt sooo nicht.
In den Framebuffer werden keine AA-Samples sondern Pixel geschrieben. Und diese Pixel werden aus mehrere AA-Samples berechnet.
Mit 4 Chips könnte man höchsten 4 Sample-Buffer beschreiben und müsste diese Samples dann für das endgültige Bild verrechnen (könnte zB. im RAMDAC geschehen, wenn dieser die Fähigkeit dazu hat).
zaKzaK
2002-09-24, 22:16:10
dann wäre aber 100% 4xSSAA for free
zeckensack
2002-09-24, 22:26:58
Originally posted by GloomY
Interessante Idee.
Kann man nicht jedes Sample von einem unterschiedlichen Chip berechnen lassen und dann in den Framebuffer schreiben?
Das T&L müßte dann natürlich von einem seperatem Chip gemacht werden, der die Vertexdaten an alle Chips weitergibt. Diese besitzen einen eigenen Rasterizer, der bei jedem Chip etwas versetzt ist.
Allerdings bräuchte man pro Sample einen Chip, also für 4xSSAA auch 4 Chips. :| Ist das gleiche wie SLI, inklusive aller Probleme die das mit sich bringt.
Nur daß das Bild gleich in einzelne Pixel zerlegt wird, anstatt in Streifen oder einzelne Zeilen.
Birdman
2002-09-25, 00:10:41
Originally posted by zaKzaK
dann wäre aber 100% 4xSSAA for free
oder andersrum: ohne 4xFSAA würden 3 chips brach liegen und einer arbeitet ;)
GloomY
2002-09-25, 13:02:32
Jaja, ok. War ja nur ne Überlegung ;)
Originally posted by ow
Das funzt sooo nicht.
In den Framebuffer werden keine AA-Samples sondern Pixel geschrieben. Und diese Pixel werden aus mehrere AA-Samples berechnet.
Mit 4 Chips könnte man höchsten 4 Sample-Buffer beschreiben und müsste diese Samples dann für das endgültige Bild verrechnen (könnte zB. im RAMDAC geschehen, wenn dieser die Fähigkeit dazu hat). So hatte ich das eigentlich auch gemeint.
robbitop
2002-09-25, 21:42:08
ja multichipüfähig soll der NV30 für Quantum3D werden, für Flugsimulatoren und Profibereich...ähnliches mit der R300...aber
ich denke dass man theoretisch jeden Chip zusammebnbringen kann...das wurde mit der TNT2 und dem Savage4 bewiesen...nur wenn Chips auf Multichjip ausgelegt sind skallieren sie AFAIK besser, aber ob das beim NV30 der Fall ist, weiss ich nicht, beim R300 eher nicht...da stecken sie ihn halt zusammen und die Frage ist, ob es der Markt zulassen würde...ich denke Kostennutzen werden gering sein..und ATi würde das eher nicht einsetzen für den Gamermarkt...damit würden sie sich nur selbst die Margen versauen...SLI ist nur gut machbar, wenn die Ausbeute stimmt und die Chips eher inkomplex sind und in der Entwickulung auf Multichip getrimmt worden sind...
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.