Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kommende GeForce 200 - Teil 2
deekey777
2008-12-23, 23:04:33
da cuda eine immer größere bedeutung bekommt, verschiebt sich das ALU/TU verhältnis immer weiter in richtung ALU:
G80 mit 16 SP/Cluster -> G200 mit 24 SP/Cluster -> GT21x mit 32 oder 40 SP/Cluster
in 2009 wird nvidia wohl schrittweise auf 40nm umstellen (der GT300 kommt ja frühestens Q4/09) und zwar nach dem muster:
1 Cluster mit Octo-TMU und 3-5 Vec8-ALUs.
der high-end chip bekommt 10 Cluster, Midrange 4 und Low-End 2 ...
jedenfalls so oder so ähnlich wird's aussehen ...
gibt es eigentlich schon irgend welche aussagen oder andeutungen von nvidia bzg. GDDR5 ?
So einfach ist das nicht.
Wenn man SIMD-Cluster um weitere "Cores" erweitert, bekommt man Probleme, das Ganze effizient laufen zu lassen. Das sind ja SIMDs, besser gesagt, SIMTs: Single Instruction für multiple Threads. Pro SIMD wird immer dieselbe Instruction ausgeführt. Hat man im Cluster mehrere Cores (das, was du als Vec8 bezeichnest, also eine Gruppe aus 8 SPs), so wird für alle Cores dann zB MADD ausgeführt. Aber dann läuft man mit angezogener Bremse, denn die SPs sind Dual-Issue-fähig (superscalar), sprich sie können entweder 4xMADDs+4xMULs oder 4xMADDs+1 SFU pro Warp (Gruppe aus 32 Threads, je Thread pro SP) ausführen (die Latenz ist ja wie bei den Radeons vier Takte bis zum Wechsel): Um Dual-Issue auszunutzen, wird der Dispatcher gleich für vier oder mehr Cores die passenden Warps suchen müssen. Ok, es sind ja tausende Threads, da müsste sich was finden, aber die Programmierer des Shader-Compilers werden noch mehr schwitzen müssen, schließlich muss der gleiche Shader-Code eines Spiels auf SIMDs eines G80 (zwei Cores) oder auf SIMDs eines GT200 (drei Cores) oder eines vermeintlichen GT216 mit 4 Cores je SIMD optimal laufen.
AnarchX
2008-12-23, 23:06:18
Sorry, ich hatte statt 40SPs 40TMUs gelesen.
Im Allgemein gilt aber: Ob 4 Shadercluster mit je 8 TMUs und 40 SPs oder 8 Shadercluster mit je 4 TMUs und 20 SPs, es kommt im Endeffekt dasselbe heraus, nämlich 160 SPs und 32 TMUs.
Ich halte meine Theorie, dass es pro Shadercluster 20 statt 40 Streamprozessoren sind, für die Schlüssigere. Mal schauen, ob Arun Recht behält.
Hast du überhaupt schon mal einen Architektur-Artikel bzw. das Blockdiagramm des G200 bzw. eines G8x/G9x angeschaut?:|
KonKorT
2008-12-23, 23:11:31
Bisher gab's immer 8 TMUs pro Shadercluster, ja, aber bisher gab's auch nur maximal 24 Streamprozessoren pro Shadercluster und nicht 40.
Beides würde einen kleinen "Umbau" der jetzigen Architektur bedeuten:
AnarchX
2008-12-23, 23:18:00
Bleibt nur das Problem, dass die Cluster "Cores" besitzen mit je 8SPs.
Und wie willst du da auf 20SPs kommen?
Aber wie deekey777 oben ausführt, ist das einfache Hinzufügen von weiteren Cores aus Effizienzsicht nicht wirklich optimal, sodass wohl 40 sehr hoch gegriffen und unwahrscheinlich sind.
Vielleicht eher eine Zahl die sich auf G3xx bezieht, der dann mit MIMD daherkommt...:D
KonKorT
2008-12-23, 23:29:04
Bleibt nur das Problem, dass die Cluster "Cores" besitzen mit je 8SPs.
Und wie willst du da auf 20SPs kommen?
Jup, es müssten dann 4 oder 5 Clustercores sein, um auf 20 SPs im Shadercluster zu kommen.
Ich halte meine Lösung jedoch weiterhin für die Schlüssigere, weil 40 SPs pro Shadercluster wie deekey777 bereits näher ausführte, zu Effizienzverlusten führen.
Ich muss allerdings zugeben, dass ich nicht einschätzen kann, inwiefern es Nvidia vor eine Hürde stellt, die Clustercores von 8 auf 4 oder 5 zu reduzieren.
PS: Schöne, rhetorische Frage zu den Blockdiagrammen. ;)
deekey777
2008-12-23, 23:42:16
Es bleibt bei 8 SPs je Core. Vier SPs je Core sind nicht undenkbar (und gar wünschenswert), aber das erhöht den Aufwand bei der Logik und Verwaltung.
Dazu kommt, dass CUDA aktuell (und wohl für die nächsten 12 Monate) für 8 SPs je Core gedacht (anders als bei ATi sind Warps eine feste Größe).
KonKorT
2008-12-23, 23:56:35
Halten wir einmal fest: Aruns Ansatz lässt sich nur relativ umständlich und wenn, dann nur sehr ineffizient, umsetzen.
Wie sähe es mit meinen besagten 48 TMUs und 144 SPs aus? Da wären es dann pro Shadercluster also noch (altbekannte) 24 Streamprozessoren...
Ausgehend, dass der GT212 wahrscheinlich 32 Streamprozessoren pro Shadercluster besitzen wird - des Öfteren hier in der Diskussion schon durchgesickert -, wären auch 40 TMUs bei 160 SPs für den GT216 denkbar. Mit fünf Shaderclustern hätte man genau halb so viele wie der GT200 in Vollausstattung.
GeneralHanno
2008-12-24, 00:12:39
da der G216 den G92 und G94 ersetzen soll (vermute ich mal so), gehe ich davon aus, dass nvidia es so machen wird wie immer:
die aktuelle high-end architektur (sprich G200) wird verkleinert, um einen renditebringenden mainstreamchip zu erhalten.
G200 = 10 Cluster ( a 3x8 SP + 8 TUs) + 8 REB (512bit SI)
ein typischer mainstreamchip wäre:
GT216 = 4 Cluster (a 3x8SP + 8 TUs) + 3 REB (192bit SI)
macht unterm strich 96SP + 32TUs + 12 ROPs
mit 40nm dürfte das ganze bei ~200-250mm² liegen ... für nvidia also eine sehr geringe diesize ;)
deekey777
2008-12-24, 00:13:30
Arun hält alles für möglich (GT200-SIMDs bis was ganz Neues). Er spekuliert. Das darf man nicht außer Acht lassen, insbesondere weil er sich beim RV770 etwas vertan hat.
KonKorT
2008-12-24, 00:24:32
@ deekey777
Bei TMUs und ALUs spekuliert er nach eigenen Angaben, bei Speicherinterface und damit auch ROP und Speichermenge, klingt er sehr sicher.
@ GeneralHanno
96 SPs und 32 TMUs wären aller Voraussicht nach zu wenig, um es mit dem RV740 aufzunehmen. Zudem wäre ein solcher Chip im 40-nm-Verfahren auch in unter 200 mm² zu fertigen
Die gelbe Eule
2008-12-24, 01:45:55
Wann darf man mit einer 212 GT oder 216 GT rechnen? März wäre ideal um meine 8800 GS zu tauschen.
LovesuckZ
2008-12-24, 02:19:44
mit 40nm dürfte das ganze bei ~200-250mm² liegen ... für nvidia also eine sehr geringe diesize ;)
Oder man nimmt einfach einen g92b ;)
Man sollte nicht von einem GT200 ausgehen, dieser trägt viel zu viele Lasten für einen Midrange mit. Ein geschrinkter G92(b) reicht aus, um mit AMD locker mithalten zu können - und dabei werden nichtmal 6 Cluster benötigt.
Spasstiger
2008-12-24, 05:01:49
Ich hab die verschiedenen spekulierten GT216-Varianten in mein Grafikkarten-Rating-Skript eingespeist. Die Leistung wird dabei anhand der Eckdaten (Shader-Flops, Texelfüllrate, Adressierungsrate, Pixelfüllrate, z-Füllrate, Speicherbandbreite, Speichermenge, externe Schnittstelle) abgeschätzt.
Ich gehe von 700 MHz Chiptakt, 1650 MHz Shadertakt aus, das dürfte man mit 40 nm und einem abgespeckten GT200 wohl schon erwarten können. Den Speichertakt habe ich mit 1200 MHz und das Speicherinterface mit 192 Bit Breite angesetzt, was ja als recht sicher gilt.
Hier nun die Tabelle:
Typische VRAM-Last:
http://www.abload.de/img/rating_gt216_typical_vm10c.png
Sehr hohe VRAM-Last:
http://www.abload.de/img/rating_gt216_high_vramkh9o.png
Es handelt sich dabei wie gesagt nur um eine Abschätzung, reale Ergebnisse können durchaus stark abweichen.
AnarchX
2008-12-24, 09:32:00
Hier ist jemand der uns vielleicht genauere Antworten geben könnte:
Zhenggang Cheng
Senior Signal Integrity Hardware Engineer
San Francisco Bay Area
Sr. Signal Integrity Engineer
NVIDIA
(Public Company; 1001-5000 employees; NVDA; Computer Hardware industry)
October 2006 — Present (2 years 3 months)
•Created package/board design guides and decap solutions for BR04, G84P, and G96; currently responsible for GT214.
•Did frame buffer simulation (DDR2/GDDR3/GDDR5) for various boards for G96 and GT214.
•Did loadline analysis and core power transient simulations for G96 and GT214.
http://www.linkedin.com/pub/3/255/6b3
Für GDDR5 scheint man sich also auch zu interessieren, abseits von GT212.
@Spasstiger
kannst du dein Modell in nem separaten Thread oder per PN mal darstellen?
würde mich interessieren :)
reunion
2008-12-24, 09:55:02
Oder man nimmt einfach einen g92b ;)
Man sollte nicht von einem GT200 ausgehen, dieser trägt viel zu viele Lasten für einen Midrange mit. Ein geschrinkter G92(b) reicht aus, um mit AMD locker mithalten zu können - und dabei werden nichtmal 6 Cluster benötigt.
Mit was will man mit eine geshrinkten G92 mithalten? G92 ist schon für RV770 zu schwach.
G92 ist schon für RV770 zu schwach.
mit GDDR5 dürfte der noch Einiges reißen
AnarchX
2008-12-24, 10:08:52
mit GDDR5 dürfte der noch Einiges reißen
Nur wäre er dann wohl zu groß um sinnvoll mit RV740 zu konkurrieren.
Aber ein G92 mit 850/2200/1800MHz wäre durchaus mal interessant in einem Benchmarkparkour zu sehen.
Wenn RV740 wirklich das wird, wonach es momentan aussieht 16ROPs/32TMUs/640SPs@>700MHz und 900MHz GDDR5, dann würde ich hier eher GT214 als Kokurrent sehen, der ca. 1/2 von GT212 sein müsste.
Fragt sich nur was hinter GT212 stehen wird, jedoch würde ich wegen der 2 am Ende keine High-End-Single-GPU vermuten.
Zumal man ja jetzt das Problem hat, mit der GTX 295 sich selbst die Messlate ziemlich hoch gelegt zu haben.
Aber ein G92 mit 850/2200/1800MHz wäre durchaus mal interessant in einem Benchmarkparkour zu sehen.
meine 8800GT läuft mit 800/2000 und verreckt elendig am Ramtakt von 1050 und dem Speicher von 512mb.
Bei kleinen Auflösungen und ohne AA schlägt sie sich durchaus wacker.
Ein voller G92 mit deinen Taktraten würde da nochmal 20% drauftun, also durchaus möglich das das passiert.
LovesuckZ
2008-12-24, 11:32:02
Mit was will man mit eine geshrinkten G92 mithalten? G92 ist schon für RV770 zu schwach.
Solange wie ein rv740 nicht schneller als eine 4870 wird, reicht ein G92 locker aus. So gut, ist dann der rv770 auch nicht.
Solange wie ein rv740 nicht schneller als eine 4870 wird, reicht ein G92 locker aus. So gut, ist dann der rv770 auch nicht.
Was für ein Käse! Der RV740 ist doch kein Gegner für den RV770. Das sagt ja bereits der Name.
Und was soll das Komma im 2. Satz?
deekey777
2008-12-25, 18:20:58
AMD RV740 GPU 40nm tape-out finished, Nvidia targeting GT212 for 2009, says paper (http://www.digitimes.com/news/a20081224PB202.html)
In other news, Nvidia's 40nm GT212 GPU is expected to complete its tape-out at the beginning of 2009, and mass production is scheduled for the second quarter. Nvidia's next-generation GT216 and GT300 GPUs will also transition to a 40nm process in mid or late 2009, added the paper.
Hä? GT216 gehört zur neuen Generation?
=Floi=
2008-12-25, 18:26:18
such mal nach weserker, denn der hat die 8800GTS512 mit 900/2200 hier im forum getestet.
der G92 ist oft wirklich sehr gut und leistungsstark, aber bei den grenzwertigen sachen entpuppt er sich durch eine erhöhung des taktes doch ebenfalls als luftpumpe. Das gleiche war auch bei der 3870 zu beobachten. Der g92 hat vor allem bei 8xaa und starkter last arg zu kämpfen. Das macht der karte sehr viel.
KonKorT
2008-12-25, 18:32:03
Kurz eine Zwischenfrage: Haben Quadro FX 4800 und FX 5800 schon den GT200b-Chip oder noch den GT200-Chip? Ist das inzwischen geklärt - erste Karten sind erhältlich.
Spasstiger
2008-12-25, 18:56:46
Kurz eine Zwischenfrage: Haben Quadro FX 4800 und FX 5800 schon den GT200b-Chip oder noch den GT200-Chip? Ist das inzwischen geklärt - erste Karten sind erhältlich.
Bei den TDPs kommt doch realistisch nur der GT200b in Frage.
KonKorT
2008-12-25, 21:35:20
Genau das dachte ich mir auch. Computerbase schreibt aber heute von den Karten, gibt als Quelle Pressemitteilung an, und führt sie in ihrer Tabelle mit 65 Nanometer.
Megamember
2008-12-26, 00:16:50
Ist das hier die neue?
http://www.forumdeluxx.de/forum/showthread.php?t=567685
KonKorT
2008-12-26, 01:05:13
Ja klar! Keine Speicherbausteine auf der Rückseite, blaues PCB - damit outet sie sich. :)
Der Kühler ist etwas schlanker geraten. Nach seinen Angaben beträgt die Lasttemperatur bei Call of Duty 5 70 Grad Celsius.
Die Karte auseinander zu nehmen, traut er sich nicht. Und mangels Messgerät zur Stromaufnahme wird es auch vorerst keine Verbrauchswerte geben.
Vielleicht dürfen wir uns auf Overclocking-Resultate freuen.
Ailuros
2008-12-26, 08:32:37
Ich hatte vor einiger Zeit gehoert dass der naechste Schub von NV IGPs mit 32SPs ankommen wird; wenn dieses stimmen sollte dann spricht es fuer 4*8 cluster fuer die gesamte GT21x Linie.
AnarchX,
Jeder IHV fuehrt zahllose Simulationen fuer jede Produktreihe aus. Je nach den Resultaten werden auch demenstsprechende Entscheidungen getroffen, was wohl gar nichts und alles heisst ;)
deekey777,
Es ist ein Typo. NV arbeitet an einem direkten Konkurrenten gegen AMD's ersten 40nm chip und spaeter kommt dann high end in Q2. Das Ganze ist sowieso miserabel ausgedrueckt:
Nvidia's next-generation GT216 and GT300 GPUs will also transition to a 40nm process in mid or late 2009, added the paper.
GT3xx wurde vor sehr langer Zeit fuer 40nm ausgelegt....
GeneralHanno
2008-12-26, 11:21:41
vor ein paar monaten gab es doch mal ein statement, welche GT21x produkte nvidia alles in der pipeline hat ...
edit: hier ist es
GT206 iGT206 iGT209 GT212 GT214 GT216 GT218
ich stell mir das ganze so vor:
GT21x = G200-Architektur@40nm
GT212 ~ G92 ( vll. ein leicht überarbeiteter G200b@40nm mit 8-12C)
GT214 ~ G94 ( also etwa ein halber G200@40nm mit 4-6C )
GT216 ~ G96 ( günstiger chip mit 2-4C )
GT218 ~ G98 ( lowest-end mit 1-2C )
je nachdem wie stark nvidia den RV740 einschätzt kommt zuerst der GT214 oder GT216. für high-end hat man ja erstmal den G200b und den neuen prozess kann man dann erstmal an den mainstreamprodukten ausprobieren.
in Q2 wird dann der G200b vom GT212 abgelöst. und die low-end produkte (GT218 und IGPs kommen wohl erst Q3/Q4), wenn auch schon der GT300 vor der tür steht ;)
Ronny G.
2008-12-26, 11:56:18
such mal nach weserker, denn der hat die 8800GTS512 mit 900/2200 hier im forum getestet.
der G92 ist oft wirklich sehr gut und leistungsstark, aber bei den grenzwertigen sachen entpuppt er sich durch eine erhöhung des taktes doch ebenfalls als luftpumpe. Das gleiche war auch bei der 3870 zu beobachten. Der g92 hat vor allem bei 8xaa und starkter last arg zu kämpfen. Das macht der karte sehr viel.
ich kann da auch ein paar sachen beisteuern, schließlich war meine 8800GTS G92 mit 864/2106/1150Mhz auch recht gut getaktet, hier mal als ein kleiner schmankerl nen 3dmark06 Run mit 17450 Punkten, ich habe noch mehr, muß erst suchen, vielleicht sollte ich auch mal mit meiner GTX gegen benchen. Ich bin nämlich auch der Meinung das der G92 noch mehr potential gehabt hätte, hätte man ihn nur bessere Arbeitsbedingungen gegeben.
http://www.abload.de/thumb/3dmark06p45m5z4.jpg (http://www.abload.de/image.php?img=3dmark06p45m5z4.jpg)
KonKorT
2008-12-26, 16:51:34
Ich hatte vor einiger Zeit gehoert dass der naechste Schub von NV IGPs mit 32SPs ankommen wird; wenn dieses stimmen sollte dann spricht es fuer 4*8 cluster fuer die gesamte GT21x Linie.
Womit für den GT216 wieder 40 TMUs und 160 SPs im Raum ständen. Fünf Shadercluster mit je 32 Streamprozessoren und 8 Textureinheiten.
Hätte dann vermutlich 40 Prozent der Rechenleistung eines GT212 (Flaggschiff).
=Floi=
2008-12-26, 21:22:28
währe eine größere granularität nicht besser für normale spiele und aufgaben? je komplexer die shader desto eher dürfte dann das neue design punkten, aber man ist dann wohl genau in der gleichen richtung wie ati mit ihrem alu design.
Ailuros
2008-12-27, 07:47:24
Womit für den GT216 wieder 40 TMUs und 160 SPs im Raum ständen. Fünf Shadercluster mit je 32 Streamprozessoren und 8 Textureinheiten.
Hätte dann vermutlich 40 Prozent der Rechenleistung eines GT212 (Flaggschiff).
Unter normalen Umstaenden ist jeglicher mainstream chip so ausgelegt dass er ungefaehr die Haelfte der Leistung eines high end chips erreicht.
Natuerlich koennten sie fuer den GT216 ziemlich auf die Frequenzen druecken um die theoretischen 50% zu erreichen, aber ich bezweifle dass es sich insgesamt lohnt wenn man mit so hohen ALU clock domains spielen muss.
Auf einem so neuen Herstellungsprozess ist es viel zu gewagt sich auf hoehere Frequenzen zu verlassen.
AnarchX
2008-12-27, 10:25:10
Warum sollte GT216 ~ 1/2*GT212 sein, wenn hier noch GT214 existiert?
Wenn man nach dem G9x/8x Schema geht, so dürfte dieser ja etwa 50% des GT212 erreichen.
Wenn GT216 schon 40TMUs/160SPs hat, dann müsste GT212 ja ~160TMUs/640SPs haben.:D
Ich finde das Schema gar nicht so schwer zu verstehen.
GT212 -> Ablösung G92
GT214 -> Ablösung G94
GT216 -> Ablösung G96
AnarchX
2008-12-27, 11:17:46
Und da passt doch G96(16TMUs/32SPs) auf GT216(spekuliert 40TMUs/160SPs) irgendwie nicht ganz ins Bild.
Imo sieht vielleicht eher so aus:
GT218 bzw. GeForce 200 @ IGP: 8 TMUs/32SPs
GT216: 16-24TMUs/64-96SPs, 128-192-Bit GDDR3
GT214: 48TMUs/192SPs 256-Bit GDDR3/5
GT212: 96TMUs/384SPs, 384-Bit GDDR5, der dann wieder auf einer GX2 Verwendung finden wird, schliesslich muss ja die GTX 295 geschlagen werden
Taktraten sollte doch wohl irgendwo bei ~700MHz TMUs/ROPs und ~1.5GHz ALUs für das ganze Lineup liegen.
=Floi=
2008-12-27, 11:21:52
384bit si würde ja nur auf 24 rops hindeuten und 1,5gb vram
AnarchX
2008-12-27, 11:25:49
384bit si würde ja nur auf 24 rops hindeuten und 1,5gb vram
... bzw. die ROPs werden überarbeitet, sodass man hier vielleicht auf 8 ROPs pro Partition erhöht, was dann bei 384-Bit 48ROPs wären bzw. man dreht generell an der Effizienz, denn da scheint man ja noch Aufholbedarf zu haben, wenn man sich ansieht was RV770 mit seinen 16 4Z ROPs schafft.
Aber 384-Bit mit ~2GHz GDDR5 und 1.5GiB wären für eine 2009er High-End-SKU doch eine durchaus sinnvolle Ausstattung.
GeneralHanno
2008-12-27, 11:37:03
nvidia simuliert GDDR5 für GT214:
http://hardware-infos.com/news.php?news=2609
KonKorT
2008-12-27, 11:41:27
GT216: 16-24TMUs/64-96SPs, 128-192-Bit GDDR3
GT214: 48TMUs/192SPs 256-Bit GDDR3/5
GT212: 96TMUs/384SPs, 384-Bit GDDR5
Na klar müsste es so im Bilderbuch aussehen, aber Nvidia muss auch gucken, was die Konkurrenz macht. Mit diesen Chips könnte man - ohne nähere Taktfrequenzen zu kennen - eher weniger gut gegen den RV740 konkurrieren. GT216 zu langsam, GT214 zu schnell...
Wie wäre es hiermit? Dann könnte man GT214 als Performance-Chip verstehen.
GT216: 40 TMUs, 160 SPs, 192 Bit GDDR3 ~ 100 EUR
GT214: 64 TMUs, 256 SPs, 192 Bit GDDR5 ~ 200 EUR
GT212: 96 TMUs, 384 SPs, 256 Bit GDDR5 ~ 300 EUR
GeneralHanno
2008-12-27, 11:53:05
Na klar müsste es so im Bilderbuch aussehen, aber Nvidia muss auch gucken, was die Konkurrenz macht. Mit diesen Chips könnte man - ohne nähere Taktfrequenzen zu kennen - eher weniger gut gegen den RV740 konkurrieren. GT216 zu langsam, GT214 zu schnell...
Wie wäre es hiermit? Dann könnte man GT214 als Performance-Chip verstehen.
GT216: 40 TMUs, 160 SPs, 192 Bit GDDR3 ~ 100 EUR
GT214: 64 TMUs, 256 SPs, 192 Bit GDDR5 ~ 200 EUR
GT212: 96 TMUs, 384 SPs, 256 Bit GDDR5 ~ 300 EUR
die chips liegen alle zu nah zusammen (von der diesize) und sind imo alle zu teuer.
aber ich denke die gerüchte verdichten sich, dass der GT214 den RV740 schlagen soll und nicht der GT216.
zudem wird nvidia nur die jeweils schnellste variante mit GDDR5 ausstatten (sprich "GT"), die langsameren (sprich "GS") werden aus kostengrunden wohl mit GDDR3 kommen ...
interessant wird nur noch die frage, obs denn nun 3 (=24SP) oder 4 (=32SP) Shadercore je Cluster werden ... für beide varianten gibt es gute argumente ;)
Ailuros
2008-12-27, 12:44:48
Warum sollte GT216 ~ 1/2*GT212 sein, wenn hier noch GT214 existiert?
Wenn man nach dem G9x/8x Schema geht, so dürfte dieser ja etwa 50% des GT212 erreichen.
Wenn GT216 schon 40TMUs/160SPs hat, dann müsste GT212 ja ~160TMUs/640SPs haben.:D
Kommt ganz drauf an wie man den Markt unterteilen will. IMHLO:
Budget
Mainstream
Performance
High End / Enthusiast (das letztere fuer SLi/CF)
interessant wird nur noch die frage, obs denn nun 3 (=24SP) oder 4 (=32SP) Shadercore je Cluster werden ... für beide varianten gibt es gute argumente
Wie schon mal erwaehnt es gab so manche "hints" in der Vergangenheit ueber 32SP IGPs fuer die naechste "Generation".
deekey777
2008-12-27, 13:18:13
Ich finde das Schema gar nicht so schwer zu verstehen.
GT212 -> Ablösung G92
GT214 -> Ablösung G94
GT216 -> Ablösung G96
Der GT216 soll der zweit "loweste" Chip sein (es gibt ja noch den GT218). Darum stellt sich die Frage, wessen Nachfolger er genau ist. Darunter fällt wohl G94, aber auch G92 bzw. die auf dem G92 basierenden Grafikkarten können einen Nachfolger bekommen, der auf dem GT216 basieren.
Wenn der RV740 der direkte Konkurrent des GT216 ist und er den RV770LE ersetzen soll (HD4830), so wird der GT216 die 9600GT und die 9800GT ersetzen. Auch wenn ich mit meinen SIMD-Überlegungen eher falsch liege: 8 TMUs und 32 SPs oder gar 40 SPs einfach sind gaga. Es sei denn, es sind extreme TMUs.
Ail, kennst du in etwa die Veröffentlichungsdaten?
Die gelbe Eule
2008-12-27, 14:00:25
GT218 bzw. GeForce 200 @ IGP: 8 TMUs/32SPs
GT216: 16-24TMUs/64-96SPs, 128-192-Bit GDDR3
Dies wäre ja kein Fortschritt, sondern einfach nur ein Shrink von mehr als 12 Monate alten Karten. Da ATi immer mehr Shaderpower zur Verfügung stellt, wird NV hier wohl nachziehen müssen. Ich hoffe die 216er kommen bald, mit mehr als 512MB und schönen Taktraten, dann können sie für 200€ im SLi Full HD ordentlich fahren.
GeneralHanno
2008-12-27, 14:17:00
8 TMUs und 32 SPs oder gar 40 SPs einfach sind gaga. Es sei denn, es sind extreme TMUs
im grunde hat nvidia die TMUs seit über 2 jahren nicht angetastet ;)
G80 Cluster = 8TMUs + 4TAUs + 2*8SP
G84-G98 Cluster = 8TMUs + 8TAUs + 2*8SP
G200 Cluster = 8TMUs + 8TAUs + 3*8SP
mögl. GT21x Cluster = 8TMUs + 8TAUs + 4*8SP
wenn man sich das ganze mal richtig überlegt, dann stagniert die (trilineare/anisotrop) Tex-Fillrate im vergleich zum imensen schub der theoretischen und praktischen ALU-leistung seit über 2 jahren (G80 Launch) :(
AnarchX
2008-12-27, 14:36:35
GT218 bzw. GeForce 200 @ IGP: 8 TMUs/32SPs
GT216: 16-24TMUs/64-96SPs, 128-192-Bit GDDR3
Dies wäre ja kein Fortschritt, sondern einfach nur ein Shrink von mehr als 12 Monate alten Karten.
Nein, es wäre ein vernünftiges Leistungsupgrade innerhalb bestimmter Performance-Kategorien.
GT218 löst dann halt mit ca. 2 bis 3-facher Leistung die 8400GS unter 30€ ab, während GT216 wohl bei <70€ die 9500GT wohl auch mit ca. 2-facher Leistung ablösen könnte.
Zumal immernoch nicht geklärt ist ob für die "1" hinter der "2" in den Codenamen 40nm die einzige Begründung ist, vielleicht nun doch endlich D3D10.1, wofür NV an den TMUs etwas machen muss und dann vielleicht nicht mehr so viele verbauen kann.
Warum sollten sie jetzt noch D3D10.1 bringen? Damit würden sie zugegeben, dass all ihr Inventory alte Technologie ist und es quasi unverkaufbar machen.
deekey777
2008-12-27, 14:49:26
Warum sollten sie jetzt noch D3D10.1 bringen? Damit würden sie zugegeben, dass all ihr Inventory alte Technologie ist und es quasi unverkaufbar machen.
Für CS, die D3D11 bringen wird, dafür soll Techlevel 10.1 ausreichen oder Voraussetzung.
AnarchX
2008-12-27, 15:59:43
http://img381.imageshack.us/img381/2015/nvgpu20099837871pj0.gif (http://imageshack.us)
http://vr-zone.com/articles/nvidia-40nm-desktop-gpus-line-up-for-2009/6359.html?doc=6359
:|
GT212 im Q2 obwohl man mit der GTX 295 sich nun wieder behauptet hat und die restlichen GT21x im Q3, wo RV740 vor kurzem schon sein Tapeout hatte und wohl Ende Q1/Anfang Q2 erscheinen sollte?
GeneralHanno
2008-12-27, 17:24:54
Wäre es nicht auch möglich, dass der GT212 immer schon für Q2/09 geplant war und der G200b ca. ein halbes Jahr zu spät kommt ;) und eigentlich für Q3/08 gedacht war ...
Ailuros
2008-12-27, 22:31:41
http://img381.imageshack.us/img381/2015/nvgpu20099837871pj0.gif (http://imageshack.us)
http://vr-zone.com/articles/nvidia-40nm-desktop-gpus-line-up-for-2009/6359.html?doc=6359
:|
GT212 im Q2 obwohl man mit der GTX 295 sich nun wieder behauptet hat und die restlichen GT21x im Q3, wo RV740 vor kurzem schon sein Tapeout hatte und wohl Ende Q1/Anfang Q2 erscheinen sollte?
Ich muss Arun mal ein bisschen sticheln dass er seine Spekulationen auch in netten Tabellen illustriert LOL. Der Quark basiert offensichtlich auf vr-zone's eigenen Spekulationen und jeglicher IHV mit einem Schimmer Grips geht nicht sofort mit dem Monster an den kleinsten und neuesten Prozess sondern macht ein Testrennen ala RV740.
Sorkalm
2008-12-27, 22:51:41
GT212 im Q2 obwohl man mit der GTX 295 sich nun wieder behauptet hat und die restlichen GT21x im Q3, wo RV740 vor kurzem schon sein Tapeout hatte und wohl Ende Q1/Anfang Q2 erscheinen sollte?
So kurzfristig kann man doch dann nicht mehr reagieren. Man sollte wohl davon ausgehen, dass GT200b eher geplant war. Nur die Lange Zeitdauer zwischen G92 und dem Nachfolger ist wirklich überraschend...
Ich muss Arun mal ein bisschen sticheln dass er seine Spekulationen auch in netten Tabellen illustriert LOL. Der Quark basiert offensichtlich auf vr-zone's eigenen Spekulationen und jeglicher IHV mit einem Schimmer Grips geht nicht sofort mit dem Monster an den kleinsten und neuesten Prozess sondern macht ein Testrennen ala RV740.
Naja, die Story mit den 3 Tapeouts beim GT200b würde ich im Vornhinein auch nicht erwarten. Bei Nvidia ist in diesen Tagen in der Planung so manches schiefgelaufen...
Eine Originalplanung mit zwei Grafikchips im gleichen Segment macht ja auch nicht so viel Sinn...
KonKorT
2008-12-27, 23:02:35
Ich muss Arun mal ein bisschen sticheln dass er seine Spekulationen auch in netten Tabellen illustriert LOL. Der Quark basiert offensichtlich auf vr-zone's eigenen Spekulationen und jeglicher IHV mit einem Schimmer Grips geht nicht sofort mit dem Monster an den kleinsten und neuesten Prozess sondern macht ein Testrennen ala RV740.
In der Tat. Seit dem NV30-Debakel hat Nvidia es tunlichst vermieden, einen neuen Fertigungsprozess am High-End-Produkt zu erproben.
Stände man mit dem Gesicht vor der Wand, so wäre dieser Umschwung noch erklärbar, seit der Präsentation der GTX 295, die in rund zwei Wochen am Markt sein sollte, genießt man jedoch Oberwasser in der Königsklasse - warum ausgerechnet jetzt mit Risiko spielen?
Andererseits wenn erst GT216 und co. kämen und GT212 im dritten Quartal, dann wäre das ein bisschen kurzfristig bis zum GT300-Launch im vierten Quartal.
Zwei bis drei Monate Flaggschiff tun sich nicht so gut - das Geflame in den Foren wäre dann wieder riesig. ;)
Naja, die Story mit den 3 Tapeouts beim GT200b würde ich im Vornhinein auch nicht erwarten.
Sie stimmt ja auch nicht.
Captain Future
2008-12-28, 10:26:36
http://img381.imageshack.us/img381/2015/nvgpu20099837871pj0.gif (http://imageshack.us)
http://vr-zone.com/articles/nvidia-40nm-desktop-gpus-line-up-for-2009/6359.html?doc=6359
:|
GT212 im Q2 obwohl man mit der GTX 295 sich nun wieder behauptet hat und die restlichen GT21x im Q3, wo RV740 vor kurzem schon sein Tapeout hatte und wohl Ende Q1/Anfang Q2 erscheinen sollte?
Liest Visionary etwa hier mit? (s. Post #786)...
jeglicher IHV mit einem Schimmer Grips geht nicht sofort mit dem Monster an den kleinsten und neuesten Prozess sondern macht ein Testrennen ala RV740.
Warum nicht? Finanziell ist es das einzig sinnvolle.
=Floi=
2008-12-28, 10:59:23
Es muß ja nicht funktionieren. Die neuen prozesse können auch schlechter und unausgereifter sein. (yield, leckströme )
Captain Future
2008-12-28, 11:10:25
Es muß ja nicht funktionieren. Die neuen prozesse können auch schlechter und unausgereifter sein. (yield, leckströme )
Genau das ist der Grund, den ich meine.
Da es aber wohl etwas zu kurz von mir gedacht war, zu denken, dass das offensichtlich ist, hier eine kleine Erläuterung:
Die genannten Probleme - Fertigung, Yield, Leckströme, whatever - können zweifellos auftreten. Doch wo ist das (für die Firma!) schlimmer?
a) bei einem Produkt, bei dem die Margen hoch, die Stückzahlen klein und der Kühler sowieso doppelstöckig sind und dessen Die so groß ist, dass man sowohl Redundanz einbauen kann und auch abgespeckte Versionen (GTX260) verkaufen kann oder
b) bei einem Produkt, von dem man ab Launch riesige Stückzahlen braucht, die ein strenges Power-Budget haben (eventuell hängt auch das PCB mit dran -> mit/ohne PCIe-Connector usw), bei dem die Margen schmal sind, sodass man möglichst viel Redundanz sparen muss und die Leistung eh so... naja, dass man halt keine Versionen mit weniger TCPs verkaufen kann. Und bei dem, weil es in OEM-PCs verbaut wird, auch die jeweiligen OEM-Designzyklen beim Launch getroffen werden müssen?
Für einen High-End-Chip alles mehr oder weniger wurscht, schlimmstenfalls kommt halt sowas wie die R600/GT200 raus, läuft dagegen alles gut, wird's so, wie bei der G80/RV770. Klar, die Fanboys ärgert's, aber die stückzahlenträchtigen OEM-Kunden wollen ihre Sticker-Karten mit tollem Feature-Set, die möglichst aber nichts kosten und das in 100000er-Stückzahlen.
Man darf auch nicht vergessen, dass Nvidias Philosophie aus Zeiten stammt, wo High End in anderen Preisregionen angesiedelt war. Nachdem AMD nur noch von "Performance" spricht und mit kleineren Chips ordentlich an der Preisschraube dreht, dürfte das Risiko gleich auf den kleineren Herstellungsprozess zu gehen in neuem Licht erscheinen. Mal sehen, ob Nvidia alte Herangehensweisen über Bord wirft, wobei solche Strategiewechsel ja sicher nicht von Heute auf Morgen vollzogen werden können und wer von uns weiß schon, wann man im Nvidia Headquarter erstmals den fauligen Atem vom "AF-Cheater ATI" im Nacken gespürt hat, im Moment sieht man jetzt erstmal die Rücklichter und muss in einem halsbrecherischen Preiskampf mit fetten GPUs versuchen, wieder Fahrt aufzunehmen.
Es ist noch nicht allzu lange her, da hätten hier einige ATI den Totenschein ausgestellt und sogar das geschmähte und belächelte R600-Design erstrahlt nun als solide Grundlage in einem anderen Licht, während Nvidia sich mit GT200 erstmal eine Menge Ballast für GPGPU aufs Design geladen hat. Endlich wieder Spannung, :)
KonKorT
2008-12-28, 12:25:52
a) bei einem Produkt, bei dem die Margen hoch, die Stückzahlen klein und der Kühler sowieso doppelstöckig sind und dessen Die so groß ist, dass man sowohl Redundanz einbauen kann und auch abgespeckte Versionen (GTX260) verkaufen kann oder
b) bei einem Produkt, von dem man ab Launch riesige Stückzahlen braucht, die ein strenges Power-Budget haben (eventuell hängt auch das PCB mit dran -> mit/ohne PCIe-Connector usw), bei dem die Margen schmal sind, sodass man möglichst viel Redundanz sparen muss und die Leistung eh so... naja, dass man halt keine Versionen mit weniger TCPs verkaufen kann. Und bei dem, weil es in OEM-PCs verbaut wird, auch die jeweiligen OEM-Designzyklen beim Launch getroffen werden müssen?
Netter Argumentationsansatz aber Du hast leider eines nicht bedacht:
Wenn man ein neues Fertigungsverfahren auf einen Low- oder Mainstream-Chip anwendet, ist das Risiko, dass etwas schiefgeht, sehr gering (wegen der überschaubarer Komplexität).
Wendet man ein neues Verfahren dagegen auf einem neuen Chip mit mehr Recheneinheiten an - das kann schon oft zu Problemen ohne Fertigung führen -, so ist die Gefahr deutlich höher, hiermit eine Bauchlandung hinzulegen.
=Floi=
2008-12-28, 12:50:21
man könnte aber auch das absolute highend segment ganz einfach mit teureren produkten alleine abgrasen. wenn der GT200 so taktbar wäre wie er sollte und die doppelte performance einer 8800gtx bringen würde, dann könnte man diese karte auch für 400€+ verkaufen. Im grunde kann nv auch ihre eigene strategie auf diesen kurs auslegen und genau dem preiskampf ganz geschickt aus dem weg gehen.
Die prozesse müssen gut sein. Ich erinnere hier mal an die FX5800 FX5900. Der R600 war ja auch ein rohrkrepierer und die karten mussten dann extrem billig abverkauft werden...
Ein abgespekter chip ist immer nur einkompromiss und der wird dann auch mit einem niedrigeren preis hart erkauft. siehe 8800GTS, 8800GTX und 8800ultra Da war die 8800GTX auch extrem teuer
Sorkalm
2008-12-28, 13:36:20
Sie stimmt ja auch nicht.
B3 steht aber auf den GT200b-Dice.
aylano
2008-12-28, 15:22:19
Es muß ja nicht funktionieren. Die neuen prozesse können auch schlechter und unausgereifter sein. (yield, leckströme )
....
wenn der GT200 so taktbar wäre wie er sollte und die doppelte performance einer 8800gtx bringen würde, dann könnte man diese karte auch für 400€+ verkaufen.
Und genau deshalb ist es halt nicht ganz wurscht, ob der neue Fertigungsprozess (im Gegensatz zu ATI) nicht ganz so gut läuft a la Taktrate & Yieldrate.
Der R600 war z.B. ein Extremfall für eine nichtgscheitfunktionierende Fertigung.
Viel Spielraum hat Nvidia nicht und kann wegen der starken Konkurrenz (Packdichte) unter Zugzwang auch Fehler machen, welche Aufgrund der kurzen Zeitabstände (9 Monate zwischen GT200b) 40nm-Shrinks & GT300) zu ungemütlichen Verzügerungen bei den Nachfolge-Produkten auswirken können.
----
Der RV770 war ja niht nur wegen der Packdichte so erfolgreich, sondern auch wegen ihrem Konzept a la
HD 4870 X2 ... 2xRV770 X2 (welche hingegen zu GTX295 die selben Taktraten wie 4870 hat)
HD 4870 ...... Dual-Slot
HD 4850 ...... Single Slot (bzw. Dual-Slot Passive-Kühler, so wie ich es habe)
HD 4830 ...... Restl-Verwertung
Und per GT200b zeigte Nvidia, dass dieses Konzept sehrwohl auch auswirkungen auf den GT200b hatte, wo sie per 295, 285 & 260 ungefähr auf dieses 300/150/100-Watt-Konzept hinarbeiteten.
Ich denke, ATI wird beim Shrink wieder so ein ähnliches (oder wegen dem Shrink als Übergangsphase zu den DX11 eine anderes Konzept) anwenden.
(Es kommt drauf an, wie stark der 40nm-Shrink schon beim 55nm-RV7x0-Serie berücksichtig wurde.)
So wie es aussieht, wird ATI die ersten 40nm-Prdoukte ausliefern und somit die Messlatte legen.
Beim GT200b hatte Nvidia anscheinend noch viel Zeit, weitere Revisionen durchzuführen, damit sie an ATI "in gewisser Maßen vorbeiziehen können".
Beim 40nm-Shrink hätte sie für weitere Revisionen nicht mehr die Zeit , da DX11 bald kommen soll.
Interessant wird es, wie Nvidia bei den 40nm-Shrinks auf das alte (oder sogar neue) Konzept von ATI reagieren wird.
LovesuckZ
2008-12-28, 15:27:43
Der rv770 ist nur so erfolgreich, weil er sehr billig verkauft wird. Dieses Konzept wird doch schon seit Jahren gefahren.
Der rv770 ist nur so erfolgreich, weil er sehr billig verkauft wird. Dieses Konzept wird doch schon seit Jahren gefahren.
Ja und warum? Weil er in der Herstellung nicht unsummen verschlingt
reunion
2008-12-28, 16:08:12
Der rv770 ist nur so erfolgreich, weil er sehr billig verkauft wird. Dieses Konzept wird doch schon seit Jahren gefahren.
Das nennt sich Effizienz. GT200 hat überhaupt nur deshalb eine Chance gegen RV770 weil er erheblich mehr "Material" verschlingt, was sich natürlich auch in den Fertigungskosten und damit am Verkaufspreis bemerkbar macht.
AnarchX
2008-12-28, 16:21:37
Wobei man aber auch beachten muss, dass die Entwicklungskosten ja auch abgedeckt werden müssen.
Da würde ich RV770 gar etwas teuerer sehen mit seiner stark optimierten Packdichte (der SIMDs), den GPGPU-Veränderungen für OpenCL-Unterstützung und den überarbeiteten ROPs und Speicherkontroller.
Wo hingegen G200 mit seinen 1.4Mrd. Transitoren für die eher magere Erhöhung im 3D-Teil und den "angeflanschten", wenn auch vom Funktionsumfang sehr interessanten, FP-ALUs eher etwas dilettantisch wirkt und sich die Frage stellt ob hier wirklich soviele Resourcen hineigeflossen sind.
Ob nun eine GPU $50 oder $100 in der Herstellung bei einer >$300 GraKa kostet dürfte wohl nicht so ein großes Problem sein.
aylano
2008-12-28, 16:33:43
Der rv770 ist nur so erfolgreich, weil er sehr billig verkauft wird. Dieses Konzept wird doch schon seit Jahren gefahren.
Das stimmt ja nicht.
Denn es gibt ja noch nicht so lange 300Watt-Grafikkarten.
Und 150 watt gibt es auch erst seit G80/R600, von denen es aber keine GX2/X2-Version gab.
ATI führte X2 vor einem Jahr mit Crossfire X (wieder) gscheit ein.
Dafür waren ein paar Versuche mit HD 2600 X2 und Crossfire war auch noch nicht so reif (=laut Nvidia nur 1% Marktanteil)
Und die Single-Slot xx50 und Dual-Slo xx70-Lösung macht nur ATI konsequent.
Der 260er hat afaik fast nur Dual-Slot.
Und Nvidia schaffte den 295er nur, weil sie den Takt niedrieger als den 285er halten.
Eine GPU-Die in mainstream-Größe, (welche eine Leistung von einer fast High-End-Karte hat,) mit mainstream-Preisen zu verkaufen, ist noch kein Konzept.
reunion
2008-12-28, 16:45:06
Wobei man aber auch beachten muss, dass die Entwicklungskosten ja auch abgedeckt werden müssen.
Da würde ich RV770 gar etwas teuerer sehen mit seiner stark optimierten Packdichte (der SIMDs), den GPGPU-Veränderungen für OpenCL-Unterstützung und den überarbeiteten ROPs und Speicherkontroller.
Wo hingegen G200 mit seinen 1.4Mrd. Transitoren für die eher magere Erhöhung im 3D-Teil und den "angeflanschten", wenn auch vom Funktionsumfang sehr interessanten, FP-ALUs eher etwas dilettantisch wirkt und sich die Frage stellt ob hier wirklich soviele Resourcen hineigeflossen sind.
Wenn du schon damit anfängst dann kannst du auch gleich die Millionen von $ dazurechnen, welche in die nicht gerade geringe Anzahl von Tapeouts der GT200-GPUs geflossen ist. Und so ein Monsterchip muss auch erstmal entwickelt werden.
Ob nun eine GPU $50 oder $100 in der Herstellung bei einer >$300 GraKa kostet dürfte wohl nicht so ein großes Problem sein.
Eine GTX260 bekomme ich bereits für unter $250. Und wenn dann auch noch eine entsprechend teure Platine plus VRAM und Kühlung dazukommt, und das Die alleine ohne Package und dgl. schon $100 kostet, und dann auch noch etwas Gewinn für die Partner/Händler übrig bleiben muss, dann stellt sich schon die Frage wieviel Spielraum (=Gewinn) nV da überhaupt noch hat.
Sorkalm
2008-12-28, 16:48:01
Wobei man aber auch beachten muss, dass die Entwicklungskosten ja auch abgedeckt werden müssen.
Da würde ich RV770 gar etwas teuerer sehen mit seiner stark optimierten Packdichte (der SIMDs), den GPGPU-Veränderungen für OpenCL-Unterstützung und den überarbeiteten ROPs und Speicherkontroller.
Bei den wohl deutlich höheren Stückzahlen muss man aber pro Stück nur noch eine geringen Entwicklungszuschlag erheben. ;)
Ob nun eine GPU $50 oder $100 in der Herstellung bei einer >$300 GraKa kostet dürfte wohl nicht so ein großes Problem sein.
Hmm, allerdings sind die Gesamtkosten schon interessant. Die 260 liegt ja nun nur bei $299 und da fallen neben der GPU auch schon noch andere teure Bauteile an ... die Margen dürften da schon nicht mehr so schön sein.
aylano
2008-12-28, 17:04:06
Wobei man aber auch beachten muss, dass die Entwicklungskosten ja auch abgedeckt werden müssen.
...
Ob nun eine GPU $50 oder $100 in der Herstellung bei einer >$300 GraKa kostet dürfte wohl nicht so ein großes Problem sein.
Wie viel Entwicklungskosten in den RV770 & GT200 gesteckt wurden, halte ich eher für Unwichtig. Denn die R&D-Kosten bleiben für das Unternehmen recht konstant, egal wie gut oder schlecht eine GPU wurde.
Entscheident ist ja die Produktpallete einer Architektur über einen Zeitraum. (also mit Shrinks und sontigen kleinen & größere Verbesserungen)
Denn man könnte auch z.B. extra mehr Geld in so eine Architektur stecken, sodass sie später viel billiger auf Shrinks und sonstigen Updates bzw. Veränderungen umdesignt werden können.
Ob nun eine GPU $50 oder $100 in der Herstellung bei einer >$300 GraKa kostet dürfte wohl nicht so ein großes Problem sein.
Wenn die Herstellungskosten billiger sind, dann ist auch mehr Platz für die R&D-Kosten.
Dazu muss man auch ein High-End-Desgin entwickeln, dass man dann um >$300 verkaufen kann. Und Nvidia sitzt gerade auf einem 260er-Haufen, wodurch sie die 265er dann nur mehr 260er nennen, damit man die vorigen Grafikkarten noch zu halbwegs guten Preisen verkaufen kann.
Nvidia konnte per GT200 im 3Q nur den Gewinn halten.
Also, dass die Herstellungskosten für Nvidia wohl nicht so ein großes Problem war, würde ich nicht sagen.
Hingegen konnte AMD im Grafiksektor so einen Guten Umsatz & Gewinn wie fast noch nie umsetzten. So niedrig ist der Preis des RV770 anscheinend doch nicht.
AMD/ATI hätte noch weiter die Preise senken können, wodurch sich die GT200 noch schlechter verkauft hätte.
Aber wozu. Die ATI-Ziele wurden erreicht a la +10%Marktanteil-Gewinn, sowie Umsatz & Gewinnsteigerung.
Wenn der Marktanteil weiter so geht, kann ATI (wegen der Finanzkrise nur mehr Realtive zu den Gesamtverkaufen) immer mehr Wafer ordern und je nach Verkaufslage immer noch die Preise senken/anpassen.
LovesuckZ
2008-12-28, 17:05:40
Das nennt sich Effizienz. GT200 hat überhaupt nur deshalb eine Chance gegen RV770 weil er erheblich mehr "Material" verschlingt, was sich natürlich auch in den Fertigungskosten und damit am Verkaufspreis bemerkbar macht.
Wieso redest du vom GT200, wenn ein G92 reicht um mit AMD gleichzuziehen? :rolleyes:
Hier wird immer vergessen, dass AMD drei Anläufe benötigte, um mit nVidia gleichzuschließen. Das ist nicht effizient.
Das stimmt ja nicht.
Denn es gibt ja noch nicht so lange 300Watt-Grafikkarten.
Und 150 watt gibt es auch erst seit G80/R600, von denen es aber keine GX2/X2-Version gab.
Dafür vom G71. Und da gab es auch tausend Variante von. :rolleyes:
Und Nvidia schaffte den 295er nur, weil sie den Takt niedrieger als den 285er halten.
AMD hat auch keine Karte die auf dem Niveau einer GTX285 ist. Dafür bringen sie Karten, die die Taktraten einer GTX260 haben - jedoch mit vollen Clustern.
Eine GPU-Die in mainstream-Größe, (welche eine Leistung von einer fast High-End-Karte hat,) mit mainstream-Preisen zu verkaufen, ist noch kein Konzept.
Richtig, es zeigt fehlende Konkurrenzfähigkeit. Deswegen hat AMD den Preis seit einem Jahr auch mehr als halbiert.
Nurmal soviel: Vor zwei Jahren wurde der Stromverbrauch der 8800GTX als "absolut High-End" progariert. Heutzutage soll dies Standard im Mainstream sein? Das zeigt eindrucksvoll, wie wenig es sich hier um Mainstreamkarten handeln. Es ist einzig der Preis, der sie als Mainstream einordnet. Alles andere ist weiterhin High-End.
reunion
2008-12-28, 17:07:16
Wieso redest du vom GT200, wenn ein G92 reicht um mit AMD gleichzuziehen? :rolleyes:
Hier wird immer vergessen, dass AMD drei Anläufe benötigte, um mit nVidia gleichzuschließen. Das ist nicht effizient.
Würde ein G92 reichen, dann müsste nV eine GTX260 nicht um knapp über 200€ verkaufen.
Wieso redest du vom GT200, wenn ein G92 reicht um mit AMD gleichzuziehen? :rolleyes:
Hier wird immer vergessen, dass AMD drei Anläufe benötigte, um mit nVidia gleichzuschließen. Das ist nicht effizient.
G92 = vollständiger RV770? Wohl eher nicht. Was kommt jetzt? Eine Filterungsgrundsatzdiskussion? Gabs schon lange nicht mehr.
LovesuckZ
2008-12-28, 17:20:23
Würde ein G92 reichen, dann müsste nV eine GTX260 nicht um knapp über 200€ verkaufen.
Natürlich und das ist doch die Ironie. Ihre eigenen Vorgängerprodukte sind ebenfalls sehr effizient. 270mm2 und erreicht 75% der Leistung des 570mm2 großen G200. Eine GTX260 ist nur ca. 25% schneller als eine 9800gtx. Innerhalb der Familie kann man die Karte daher nicht doppelt so teuer anbieten.
Schlammsau
2008-12-28, 17:34:16
Bis zu erscheinen des RV670 hatte nVidia die Nase meilenweit vorn. Der R600 war meineserachtens ein Flop!
Erstmals mit dem RV670 konnte ATi der Übermacht des G80 bzw. G92 so einigermassen paroli bieten. Nicht in allen belangen, aber es reichte um nVidia nicht ganz Konkurrenzlos dastehen zu lassen. Letztendlich hat ATi den Preis vorgegeben, wo nVidia wohl oder übel nachziehen musste!
Jetzt mit dem aktuellen RV770 hat es ATi endgültig geschafft einen Konkurrenzfähigen Chip zu designen, der nicht nur billiger, sondern auch gleichwertig zur Konkurrenz ist. nVidia musste zwei Karten (9800GTX und GTX260) nachträglich schneller machen, um gegen diese zu bestehen.
Wieso redest du vom GT200, wenn ein G92 reicht um mit AMD gleichzuziehen? :rolleyes:
Ein G92 reicht um mit einem RV770XT gleizuziehen? Möchte mal wissen, wo du das her hast! ;D
Ein G92 reicht um mit einem RV770XT gleizuziehen? Möchte mal wissen, wo du das her hast! ;D
Natürlich nicht mit dem Drumherum, das aktuell auf dem Markt ist, Rechenleistung hat das Teil aber genug. Viele G92-Chips vertragen einen ALU-Takt über 2,2 GHz und über 800 MHz GPU-Takt. Zusammen mit richtig fettem GDDR3- oder besser GDDR5-Speicher sehe ich da durchaus Land (wobei Letzterer wohl ein Problem wäre). Eine "9900 GTX" mit 850/2.200/2.000 MHz und 1.024 MiB würde der HD 4870 gewiss gefährlich werden.
MfG,
Raff
reunion
2008-12-28, 17:51:35
Nurmal soviel: Vor zwei Jahren wurde der Stromverbrauch der 8800GTX als "absolut High-End" progariert. Heutzutage soll dies Standard im Mainstream sein? Das zeigt eindrucksvoll, wie wenig es sich hier um Mainstreamkarten handeln. Es ist einzig der Preis, der sie als Mainstream einordnet. Alles andere ist weiterhin High-End.
Nein, es sind ganz einfach die Herstellungskosten, welcher die Karten als Mainstream einordnet.
Natürlich und das ist doch die Ironie. Ihre eigenen Vorgängerprodukte sind ebenfalls sehr effizient. 270mm2 und erreicht 75% der Leistung des 570mm2 großen G200. Eine GTX260 ist nur ca. 25% schneller als eine 9800gtx. Innerhalb der Familie kann man die Karte daher nicht doppelt so teuer anbieten.
Ihren Vorgängerprodukten fehlen aber für andere Bereiche wichtige Features.
_DrillSarge]I[
2008-12-28, 17:52:04
Natürlich nicht mit dem Drumherum, das aktuell auf dem Markt ist, Rechenleistung hat das Teil aber genug. Viele G92-Chips vertragen einen ALU-Takt über 2,2 GHz und über 800 MHz GPU-Takt. Zusammen mit richtig fettem GDDR3- oder besser GDDR5-Speicher sehe ich da durchaus Land (wobei Letzterer wohl ein Problem wäre). Eine "9900 GTX" mit 850/2.200/2.000 MHz und 1.024 MiB würde der HD 4870 gewiss gefährlich werden.
MfG,
Raff
das geht auch mit nem g80. was ist wenn ich den rv770 dann noch übertakte? ;)
keine vergleichbare situation.
LovesuckZ
2008-12-28, 17:59:02
Nein, es sind ganz einfach die Herstellungskosten, welcher die Karten als Mainstream einordnet.
Die Aussage ist doch komplett falsch - und das weißt du wahrscheinlich auch.
Herstellungskosten sagen nichts aus, in welchen Bereich ein Gut eingeordnet wird. Das wird alleinig über den Preis bestimmt. Der G71 war auch billig in der Herstellung und wurde als High-End verkauft.
Ihren Vorgängerprodukten fehlen aber für andere Bereiche wichtige Features.
Ja, für andere Bereiche. Die spielen aber auf den Gamermarkt keine Rolle. Und ein Größteil des Cudazeugs rennt genauso gut auch auf einem G92.
Captain Future
2008-12-28, 18:22:31
Netter Argumentationsansatz aber Du hast leider eines nicht bedacht:
Wenn man ein neues Fertigungsverfahren auf einen Low- oder Mainstream-Chip anwendet, ist das Risiko, dass etwas schiefgeht, sehr gering (wegen der überschaubarer Komplexität).
Wendet man ein neues Verfahren dagegen auf einem neuen Chip mit mehr Recheneinheiten an - das kann schon oft zu Problemen ohne Fertigung führen -, so ist die Gefahr deutlich höher, hiermit eine Bauchlandung hinzulegen.
Nö, Fertigungsprobleme oder Probleme mit dem neuen Prozess an sich sind von der Chipgröße unberührt. Allgemein steigt natürlich die Fehlergefahr bei der Anzahl der Variablen (Transistoren) zwar an, aber da die Blöcke of nur copy and paste sind, geht das schon.
Vor allem: Fehler beim Design hat man selbst in der Hand, Fehler beim Prozess muss die Fab ausbügeln und man kann nur hoffen. :)
derguru
2008-12-28, 18:24:52
Natürlich nicht mit dem Drumherum, das aktuell auf dem Markt ist, Rechenleistung hat das Teil aber genug. Viele G92-Chips vertragen einen ALU-Takt über 2,2 GHz und über 800 MHz GPU-Takt. Zusammen mit richtig fettem GDDR3- oder besser GDDR5-Speicher sehe ich da durchaus Land (wobei Letzterer wohl ein Problem wäre). Eine "9900 GTX" mit 850/2.200/2.000 MHz und 1.024 MiB würde der HD 4870 gewiss gefährlich werden.
MfG,
Raff
wie sinnvoll der vergleich,als ob die "9900gtx" der 260gtx nicht gefährlich nah wäre. :ass:
was für eine grüze,
wieso nicht gleich eine 8800gtx mit 800/1800/1250 takt,wer braucht schon eine 260gtx oder 4870. :ubash3:
Schlammsau
2008-12-28, 18:57:18
Natürlich nicht mit dem Drumherum, das aktuell auf dem Markt ist, Rechenleistung hat das Teil aber genug. Viele G92-Chips vertragen einen ALU-Takt über 2,2 GHz und über 800 MHz GPU-Takt. Zusammen mit richtig fettem GDDR3- oder besser GDDR5-Speicher sehe ich da durchaus Land (wobei Letzterer wohl ein Problem wäre). Eine "9900 GTX" mit 850/2.200/2.000 MHz und 1.024 MiB würde der HD 4870 gewiss gefährlich werden.
MfG,
Raff
Aber dann auch einer GTX260. Womit diese dann überflüssig wäre!
aylano
2008-12-28, 19:08:55
Dafür vom G71. Und da gab es auch tausend Variante von.
Das ist aber kein Jahrlanges Konzept, sondern per G71 nur ein einmal angewenndetes Konzept.
AMD hat auch keine Karte die auf dem Niveau einer GTX285 ist. Dafür bringen sie Karten, die die Taktraten einer GTX260 haben - jedoch mit vollen Clustern.
Schön, AMD hat auch keine Single-GPU-Karte die auf dem Niveiau einer GTX280 ist.
Trotzdem erklärt das nicht, warum Nvidia es nicht schaffte, die GTX295 mit selben Taktraten wie die 285er zu versorgen, wie AMD es zumindestens machte.
(IMO wird der Glanz von GTX295 verloren gehen, wenn es unabhängige Test mit 260, 285 & 295 geben wird. Nicht umsonst wurde nur sie alleine zuerst vorgestellt.)
Und ja, der GT200 war auch eine super GPU, bis denn der RV770 kam und den GT200 trotz höherer Performance medial in den Schatten stellte.
Richtig, es zeigt fehlende Konkurrenzfähigkeit.
Fehlende Kunkurrenzfähigkeit?
+10% Marktanteil
+ 50% Umsatz und ein Gewinn, den "ATI" vielleicht noch nie erreicht hatte.
Da bekommst du was nicht mit.
Deswegen hat AMD den Preis seit einem Jahr auch mehr als halbiert.
Entscheident ist für die beiden Aktiengesellschaften der erziehlte, aktuelle und zukünftige Profit und nicht wie sich die Preise in bestimmt ausgesuchten Zeitspannen und je nach Sichtweise entwickelt haben.
Nurmal soviel: Vor zwei Jahren wurde der Stromverbrauch der 8800GTX als "absolut High-End" progariert. Heutzutage soll dies Standard im Mainstream sein? Das zeigt eindrucksvoll, wie wenig es sich hier um Mainstreamkarten handeln.
Tja, ich schrieb ja nicht vom Stromverbrauch, sondern von der DIe-Größe;-)
Es ist einzig der Preis, der sie als Mainstream einordnet. Alles andere ist weiterhin High-End.
Und genau deshalb ist der RV770 so konkurrenzfähig. Das hört sich bei dir so an, als ob ein möglicher niedriger Preis, mitdem man noch Gewinne machen kann, was schlechtes wäre.
Natürlich nicht mit dem Drumherum, das aktuell auf dem Markt ist, Rechenleistung hat das Teil aber genug. Viele G92-Chips vertragen einen ALU-Takt über 2,2 GHz und über 800 MHz GPU-Takt. Zusammen mit richtig fettem GDDR3- oder besser GDDR5-Speicher sehe ich da durchaus Land (wobei Letzterer wohl ein Problem wäre). Eine "9900 GTX" mit 850/2.200/2.000 MHz und 1.024 MiB würde der HD 4870 gewiss gefährlich werden.
Der HD 4870 ist ein auslaufendes Produkt und deswegen wurde schon die 9800+GTX irgendwie mit wochenlanger nichtverfügbarkeit rausgebracht.
Wenn alles so einfach wäre, wie manche es hier schreiben, dann hätte Nvidia eben nicht 3 Revisionen beim GT200 gebraucht, um ihn gegen 4870 und Nachfolger rauszubringen
reunion
2008-12-28, 23:05:14
Die Aussage ist doch komplett falsch - und das weißt du wahrscheinlich auch.
Herstellungskosten sagen nichts aus, in welchen Bereich ein Gut eingeordnet wird. Das wird alleinig über den Preis bestimmt. Der G71 war auch billig in der Herstellung und wurde als High-End verkauft.
Herstellungskosten korrespondieren vielleicht nicht direkt mit dem Verkaufspreis, sind aber sicher nicht irrelevant für diesen. Man muss eben auch die entstandenen Kosten bei der Entwicklung/Fertigung plus X an Gewinn hereinbringen. Niemand wird ein Produkt mit Verlust verkaufen wenn er nicht die Kosten anderweitig herein bekommen kann wie zB bei Konsolen der Fall.
Ja, für andere Bereiche. Die spielen aber auf den Gamermarkt keine Rolle. Und ein Größteil des Cudazeugs rennt genauso gut auch auf einem G92.
Naja, die Register/Cache-Größen sind AFAIK schon auch deutlich gestiegen, was bei CUDA-Anwendungen sicher Vorteile bringen kann.
AnarchX
2008-12-28, 23:22:40
CB hat nun auf Basis der Spekus ein GTX 285 (GTX280@OC) Preview gemacht:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/vorschau_nvidia_geforce_gtx_285/#abschnitt_einleitung
derguru
2008-12-28, 23:30:52
haha die haben auch nichts zutun.
einzig interessante bei der 285gtx ist der verbrauch,temps,lautstärke,oc werte und der preis vielleicht.so ein test hätte man sich auch sparen können und einfach auf eine oc version der 280gtx hinweisen können das hätte gereicht.:rolleyes:
=Floi=
2008-12-28, 23:40:33
die haben eher kein nda unterschrieben und wohl wieder keine karte bekommen... ^^
deekey777
2008-12-28, 23:41:19
haha die haben auch nichts zutun.
einzig interessante bei der 285gtx ist der verbrauch,temps,lautstärke,oc werte und der preis vielleicht.so ein test hätte man sich auch sparen können und einfach auf eine oc version der 280gtx hinweisen können das hätte gereicht.:rolleyes:
[ ] Ich habe den Zweck des Tests verstanden.
[X] Ich tu nur so, alsob ich ihn gelesen habe.
Sorkalm
2008-12-28, 23:46:52
Ach, wenn man schon nicht mit dem GTX 295 Preview mitspielt, kann man sich das auch leisten. ;)
Aber abgesehen davon, die GTX 285 ist in meinen Augen auch die interessanteste Karte von Nvidia in diesen Tagen. Schnell, erträgliche Leistungsaufnahme und keine Multi-GPU-Problematik. :)
LovesuckZ
2008-12-28, 23:52:00
Denn Gewinn und Umsatz, den AMD im letzten Quartal erreicht hat, hat auch ATi erreicht. Blöd nur, dass es sich hier um eine Seifenblase handelt, die platzen wird, wenn die Verkäufe nachlassen.
Herstellungskosten korrespondieren vielleicht nicht direkt mit dem Verkaufspreis, sind aber sicher nicht irrelevant für diesen. Man muss eben auch die entstandenen Kosten bei der Entwicklung/Fertigung plus X an Gewinn hereinbringen. Niemand wird ein Produkt mit Verlust verkaufen wenn er nicht die Kosten anderweitig herein bekommen kann wie zB bei Konsolen der Fall.
Alleinige die Preisuntergrenze spielt eine Rolle für die Preisfindung. Das war es aber auch. Und solange wie Herstellungskosten unter 100$ liegen, solange wird dann wohl jede Karte eine Mainstreamkarte sein. :rolleyes:
reunion
2008-12-28, 23:53:49
Eine GTX280 kostet locker $200 in der Herstellung IMHO.
derguru
2008-12-28, 23:55:35
[ ] Ich habe den Zweck des Tests verstanden.
[X] Ich tu nur so, alsob ich ihn gelesen habe.
ne ich tue nicht so ich habs erst gar nicht wozu auch,absolute zeitverschwendung.
oder haste eine erkenntniss daraus gewonnen wenn ja will ich die gerne wissen.
Ronny G.
2008-12-28, 23:56:38
Eine GTX280 kostet locker $200 in der Herstellung IMHO.
denkst du das wirklich? Ich glaube wohl kaum, eher die hälfte, rein Spekulativ natürlich. Du must die ganzen Zwischenhändler, Steuern, Frachtkosten u.s.w sehen. Dazu muß die Karte schließlich noch neben den Entwicklungskosten auch noch Gewinn einfahren.
reunion
2008-12-28, 23:58:36
Bei B3D wird alleine für das Die ein Preis von $110-120 angenommen, und die Leute dort wissen normalerweise wovon sie reden. Mit dem Package, der teuren Platine/Kühlung, dem GB Speicher und sonstigen Bauteilen inkl. Montage halte ich das für durchaus realistisch. Das man so eine Karte nicht zu Mainstreampreisen wie RV770 verkaufen kann sollte klar sein. NV wollte nicht ohne Grund ursprünglich $649 für eine GTX280 haben.
deekey777
2008-12-29, 00:01:35
ne ich tue nicht so ich habs erst gar nicht wozu auch,absolute zeitverschwendung.
oder haste eine erkenntniss daraus gewonnen,wenn ja will ich die gerne wissen.
Meine Erkenntnis ist, dass es Zeitverschwendung war, deinen Beitrag zu lesen.
Ronny G.
2008-12-29, 00:02:18
Bei B3D wird alleine für das Die ein Preis von $110-120 angenommen, und die Leute dort wissen normalerweise wovon sie reden. Mit dem Package, der teuren Platine, dem GB Speicher und sonstigen Bauteilen inkl. Montage halte ich das für durchaus realistisch.
Das hätte ich echt nicht gedacht, wie sieht das dann bei den Middlerange oder Lowbudgetkarten aus? Kostet da die GPU immernoch gut 50% vom Gesamtaufwand? Gibt es da noch mehr Info´s?
derguru
2008-12-29, 00:03:15
Meine Erkenntnis ist, dass es Zeitverschwendung war, deinen Beitrag zu lesen.
welche neue erkenntnis fragte ich hast du daraus erfahren?ich bin ja sooowas von gespannt:)
oder suchste arbeit;)
Mr.Magic
2008-12-29, 00:10:02
Bei B3D wird alleine für das Die ein Preis von $110-120 angenommen, und die Leute dort wissen normalerweise wovon sie reden. Mit dem Package, der teuren Platine/Kühlung, dem GB Speicher und sonstigen Bauteilen inkl. Montage halte ich das für durchaus realistisch. Das man so eine Karte nicht zu Mainstreampreisen wie RV770 verkaufen kann sollte klar sein. NV wollte nicht ohne Grund ursprünglich $649 für eine GTX280 haben.
Ist der Preis inklusive den umgelegten R&D kosten? Dann kann das schon gut hinkommen. Bei einem niedrigeren Verkaufspreis dauert die Amortisierung länger, was u.U auch zu einem längeren Produktzyklus des (Grund)Designs führt.
LovesuckZ
2008-12-29, 00:17:03
Bei B3D wird alleine für das Die ein Preis von $110-120 angenommen, und die Leute dort wissen normalerweise wovon sie reden. Mit dem Package, der teuren Platine/Kühlung, dem GB Speicher und sonstigen Bauteilen inkl. Montage halte ich das für durchaus realistisch. Das man so eine Karte nicht zu Mainstreampreisen wie RV770 verkaufen kann sollte klar sein.
Ob die Leute in Beyond3d Forum in solchen Bereichen Ahnung haben, ist eine ziemlich gewagte Aussage. nVidia machte mal Aussagen zu den Dies beim G80. Beim GT200 hat man dort nur spekuliert.
NV wollte nicht ohne Grund ursprünglich $649 für eine GTX280 haben.
Ja, weil sie arrogrant waren. Aber ich empfand den Preis einfach nicht angebracht in der Tatsache, dass die 9800gtx+ schon für weniger als 299$ verkauft wurde und eine 9800gt schon für unter 200$.
Ist der Preis inklusive den umgelegten R&D kosten? Dann kann das schon gut hinkommen. Bei einem niedrigeren Verkaufspreis dauert die Amortisierung länger, was u.U auch zu einem längeren Produktzyklus des (Grund)Designs führt.
Diese Angabe bezug sich nur auf den Herstellungspreis eines Dies - ohne Umlagerung anderer Kosten.
Eine GTX280 kostet locker $200 in der Herstellung IMHO.
Teuer ist das Ding ohne Frage, aber 200$ halte ich für etwas übertrieben. 150 ist realistischer.
Sorkalm
2008-12-29, 00:49:21
Überschlagen wir doch mal: Ein 300mm-Wafer in einem mittelaktuellen Verfahren (55 nm kann man da wohl jetzt dazu zählen) dürfte die Unternehmen je nach Vertrag bei TSMC so um $5000 bis $5500 kosten.
Auf einen 300mm-Wafer passen theoretisch 96 GT200. Die Yield-Rate der brauchbaren Dice (wieviele davon dann komplett laufen ist noch eine andere Sache) würde ich bei so einem Monster-Chip bei 30 bis 50 Prozent erwarten. Inzwischen geht das wohl eher zu letzterem Wert, da schon einige Wafer liefen und GPUs ja auch relativ parallel angeordnet sind
Mit $5000 und 50 Prozent kommt man auf
Mit Mittelwerten käme man dann auf ($5000 / 96 ) / 0,5 ~ $104 pro GPU. Das kommt der obengenannten Summe schon recht nahe, vll. war ich bei ein paar Dingen auch schon wieder zu optimistisch.
KonKorT
2008-12-29, 01:18:35
CB hat nun auf Basis der Spekus ein GTX 285 (GTX280@OC) Preview gemacht:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/vorschau_nvidia_geforce_gtx_285/#abschnitt_einleitung
Ich habe schon im entsprechenden Forum darauf hingewiesen, dass man mit einem GT200 aufgrund des internen Taktgebers gar keine 1476 MHz Shadertakt simulieren kann.
Die simulierte GTX 285 von Computerbase lief damit aller Voraussicht nach im Test mit nur 1458 MHz.
Ich hoffe, sie schreiben es noch hin. Insgesamt deckt der Artikel aber natürlich schon das grobe Bild ab - 10% Performanceplus gegenüber der GTX 280.
WOw 30 mhz unterschied.:eek:
Der Shadertakt ist im Moment sowieso wichtiger. Da sind 200Mhz mehr schon einiges.
Schlammsau
2008-12-29, 05:59:22
Teuer ist das Ding ohne Frage, aber 200$ halte ich für etwas übertrieben. 150 ist realistischer.
Und was ist mit der GT260? Ist die so viel billiger in der Herstellung?
Ich denke die wird fast genauso teuer sein. Also ist die Gewinnspanne bei dieser wohl doch sehr mager.
Hierzulande ist sie schon für 216€ inkl. Steuern zu erwerben. Da bleibt nicht viel bzw. gar nichts bei nVidia hängen.
Evtl zahlen sie sogar noch drauf.
Und was ist mit der GT260? Ist die so viel billiger in der Herstellung?
Ich denke die wird fast genauso teuer sein. Also ist die Gewinnspanne bei dieser wohl doch sehr mager.
Hierzulande ist sie schon für 216€ inkl. Steuern zu erwerben. Da bleibt nicht viel bzw. gar nichts bei nVidia hängen.
Evtl zahlen sie sogar noch drauf.
Abgesehen vom Speicher dürfte es kaum gravierende Änderungen in den Kosten geben.
Captain Future
2008-12-29, 08:45:41
Denn Gewinn und Umsatz, den AMD im letzten Quartal erreicht hat, hat auch ATi erreicht. Blöd nur, dass es sich hier um eine Seifenblase handelt, die platzen wird, wenn die Verkäufe nachlassen.
Wasn das für eine Aussage?
Natürlich brechen Gewinne und Umsätze ein, wenn die Verkäufe nachlassen - das ist eines der Gesetze des Marktes. Bitte rücken Sie NICHT nach Klasse 6 auf. ;)
Captain Future
2008-12-29, 08:46:09
Eine GTX280 kostet locker $200 in der Herstellung IMHO.
Mit oder ohne anteilig eingerechnetem R&D?
Schlammsau
2008-12-29, 09:17:12
Abgesehen vom Speicher dürfte es kaum gravierende Änderungen in den Kosten geben.
Die GTX260 ist bis auf den verringerten Speicher und der beschnittenen GPU, eigentlich eine GTX280. Nur die 128MB weniger Speicher dürften die Fertigungskosten um 1-2% nach unten drücken.
Ich glaube nicht, dass nVidia mit der 65nm GTX260 Gewinn einfährt. Das ist mit Sicherheit ein +- 0 Geschäft. Da ist ATi mit der 4800 Generation, wohl sehr viel wirtschaftlicher und fährt (deutliche) Gewinne ein. Was auch verdammt noch mal Zeit geworden ist!
Adam D.
2008-12-29, 10:39:28
Hast du dafür irgendwelche Zahlen? Ich glaube eher nicht.
Schlammsau
2008-12-29, 10:44:19
Hast du dafür irgendwelche Zahlen? Ich glaube eher nicht.
Welche Zahlen meinst du? Absolute Kosten der GTX260, GTX280 oder HD4870? Hab ich leider nicht....und wahrscheinlich auch kein anderer hier.
Das sind nur Vermutungen, basierend auf den geschätzten DIE Kosten.
Adam D.
2008-12-29, 10:54:06
Eben, aber ich wär trotzdem vorsichtig mit solchen Schätzungen. Man weiß nie genau, was alles mit rein spielt. Dass Ati die Karten gewinnbringender verkauft, sollte klar sein, aber ob Nvidia Verlust und Gewinn pro verkaufte G200 macht, kann wohl keiner hier sagen.
LovesuckZ
2008-12-29, 10:56:15
Wenn nVidia mit der GTX260 Verlust machen würde, macht es AMD auch mit den 4830 und 4850 Karten. ;)
Wasn das für eine Aussage?
Natürlich brechen Gewinne und Umsätze ein, wenn die Verkäufe nachlassen - das ist eines der Gesetze des Marktes. Bitte rücken Sie NICHT nach Klasse 6 auf. ;)
Mal überlegt, dass die Abhängigkeit von den Verkäufen steigt, wenn die Gewinnspanne wesentlich geringer wird? ;)
Schlammsau
2008-12-29, 11:08:32
Eben, aber ich wär trotzdem vorsichtig mit solchen Schätzungen. Man weiß nie genau, was alles mit rein spielt. Dass Ati die Karten gewinnbringender verkauft, sollte klar sein, aber ob Nvidia Verlust und Gewinn pro verkaufte G200 macht, kann wohl keiner hier sagen.
Es sind nur Spekulatius...ohne Grund wird nVidia nicht die 55nm GTX260 auf dem Markt schmeissen. Diese ziehlt einzig und allein auf Gewinn bzw. höheren Gewinn.
Ich bin gespannt, wie der Markt aussieht, wenn ATi ihren überarbeiteten RV770 vorstellt. Der soll ja noch nen Tick kleiner ausfallen, und dabei deutlich schneller sein. Das wird ein heisser Frühling! :smile:
Es ist alles Spekulation, denn niemand kennt hier die Deals die ATI/AMD bzw. NV mit den Fertigern ihrer Produkte und Produktbestandteile gemacht haben.
Wenn sich z.B. AMD schon frühzeitig auf 55nm festgelegt hatte und TSMC eben nur einem Menge X an Chips in dem Prozess anbeiten konnte, so kann es auch in derem Interesse gewesen sein, dass NV mit dem GT200 erstmal in 65nm bleibt. Evtl. gab man dafür eben bessere Konditionen pro Wafer, oder NV zahlt gar nur für den funktionsfähigen Die und das Yieldrisiko liegt beim Fertiger. Alles schon da gewesen.
aylano
2008-12-29, 11:52:18
Denn Gewinn und Umsatz, den AMD im letzten Quartal erreicht hat, hat auch ATi erreicht. Blöd nur, dass es sich hier um eine Seifenblase handelt, die platzen wird, wenn die Verkäufe nachlassen.
Den Gewinn AFAIK nicht und den Umsatz hatte ATI damals wahrscheinlich nur 3x etwas überbieten können.
Genau kann man es nicht sagen, da man die Verkaufserlöse von chipsätzen & Multimedia (=Handy & Fernseher) nur im 4Q 2006 wegen (ich glaube das war) Analysten-Day herausrechnen konnte und auf die vorrigen Quartale annehmen konnte.
Es bleibt trotzdem ein Top Ergebnis.
Denn das war nur die RV770-Desktop und die restlichen GPUs waren noch alle die vorige Architektur und diese konnte ja bekanntlich nur schwer mit sehr tiefen Preisen mithalten.
Wenn die Seifenblase platzt dann auch für Nvidia;-)
Wenn nVidia mit der GTX260 Verlust machen würde, macht es AMD auch mit den 4830 und 4850 Karten.
Bei dem Gewinn-Sprung ist das auszuschließen.
Und hier gehts nicht um irgendeinen Gewinn, sondern um einen Gewinn, den ATI wahrscheinlich bisher noch nie erreicht hat.
Ich verstehe nicht, wie du kramfthaft nicht einsehen willst, dass ATI aufgrund der geringen Die-Größe eben doch Geld verdient.
Und die kleine Die-Größe bzw. hohe Packdichte wird Nvidia noch so lange beschäftigen, bis Nvidia nachzieht.
Bis dahin ist Nvidia damit unter Druck, da ATI jetzt maßgebend in der Bestimmung der Preise ist und generell mit den Preisen noch weiter runter könnte als Nvidia.
Und viel wird sich mit 40 & 55nm nicht ändern.
Bis dahin wird der Druck für Nvidia schwieriger, wenn immer Mehr Modelle im 700er-Design erscheinen.
Schlammsau
2008-12-29, 12:07:14
^^ nicht nur durch die kleinere GPU, sondern auch wegen des kleinerer SI und des daraus resultierenden preislich günstiger herzustellenden PCB´s. Diese 2 Faktoren sind der Trumph ATi´s gegen Nvidia.
Einzig allein der GDDR5 Speicher der HD4870 dürfte teurer, als der der Konkurrenz sein.
Wäre die Performance der Gtx 280 eigentlich größer,wenn man auf die gesonderten Double-Precision-Einheiten verzichtet hätte?
AnarchX
2008-12-29, 12:56:26
Wäre die Performance der Gtx 280 eigentlich größer,wenn man auf die gesonderten Double-Precision-Einheiten verzichtet hätte?
Allein der Verzicht hätte natürlich keine höhere Performance zur Folge.
Jedoch hätte man hierfür noch ein paar mehr Einheiten verbauen können und letzlich stellt sich auch die Frage ob die DP-ALUs vielleicht daran Schuld sind, dass die Shaderdomain bei G200 so niedrig taktet.
Aber 2008 ohne DP hätte sich NV nicht wirklich leisten können, immerhin hatte man im CUDA-FAQ Anfang 2007 eine DP-GPU schon für Ende 2007 angekündigt.
deekey777
2008-12-29, 13:02:32
Wäre die Performance der Gtx 280 eigentlich größer, wenn man auf die gesonderten Double-Precision-Einheiten verzichtet hätte?
Eher nicht, wenn es darum geht, ob die DP-ALUs für den niedrigen Shadertakt verantwortlich sind (das sind sie nicht). Sonst definitiv nicht.
Aber der Verzicht darauf hätte ihn günstiger gemacht.
Es wird jetzt wirklich interessant, was die kommenden GT2xx mitbringen werden. Würde mich nicht wundern, wenn DP-Fähigkeit auf den GT212 beschränkt bleibt
AnarchX
2008-12-29, 13:04:46
Eher nicht, wenn es darum geht, ob die DP-ALUs für den niedrigen Shadertakt verantwortlich sind (das sind sie nicht). Sonst definitiv nicht.
Aber der Verzicht darauf hätte ihn günstiger gemacht.
Gab es dazu irgendwo eine Aussage?
Es wird jetzt wirklich interessant, was die kommenden GT2xx mitbringen werden. Würde mich nicht wundern, wenn DP-Fähigkeit auf den GT212 beschränkt bleibt
Arun spekulierte ja auf 2 DP-ALUs pro Core bei GT212, während Performance (GT214?) dann nur ein DP-ALU pro Core wie G200 haben soll, darunter dann keine DP-ALUs.
Das NV an der GTX 260 nichts verdient glaub ich auch nicht, die Herstellungskosten sind geringer als man denkt, besonders in den Stückzahlen.
KonKorT
2008-12-29, 13:52:29
Ich bin mir sogar relativ sicher, dass DP-Einheiten ausschließlich auf dem GT212 zum Einsatz kommen werden. Und ich denke wie beim GT200 auch nur eine pro Stream Multiprozessor. Würde dann also wahrscheinlich auf 48 hinauslaufen. ;)
Im Mainstream- oder gar Low-Cost-Segment sind DP-Einheiten absolut unpassend. Bin mir zu 99% sicher, dass diese Chips (GT214, GT216, GT218) auch gänzlich ohne DP-Einheiten auskommen.
Der normale Desktop-User profitiert null von DP-Einheiten - sie werden noch nichtmals bei PhysX-Applikationen genutzt.
Sorkalm
2008-12-29, 14:39:07
Nun schreibt Digitimes auch für Q3/2009 für GT214 und GT216, berufen sich aber auf ihre Quellen bei Grafikkartenherstellern:
Nvidia plans to launch 40nm GT214 and GT216 GPUs to replace the current G94 and G96 chips for the mainstream market in the third quarter of 2009, accord to sources at graphics card makers.
http://www.digitimes.com/news/a20081229PD206.html
Kann natürlich trotzdem sein, dass VR-Zone und Digitimes da ähnliche Quellen haben.
G92 soll dann wohl auch schon durch GT212 abgelöst werden - der hats aber auch nötig...
Captain Future
2008-12-29, 15:04:14
Mal überlegt, dass die Abhängigkeit von den Verkäufen steigt, wenn die Gewinnspanne wesentlich geringer wird? ;)
Mal überlegt, dass der Umsatz natürlich sinkt, wenn die Verkäufe nachlassen? Wo ist da die Seifenblase?
LovesuckZ
2008-12-29, 15:49:25
Mal überlegt, dass der Umsatz natürlich sinkt, wenn die Verkäufe nachlassen? Wo ist da die Seifenblase?
Ach und das hat genau was mit meiner Aussage zu tun? :rolleyes:
Geringere Margen führen zwangsläufig zu höhreren Abhängigkeiten des Absatzes. Bricht dieser ein, ist dies wesentlich schwerwiegender als es bei Produkten mit besseren Margen.
KonKorT
2008-12-29, 18:34:17
Die Geforce GTX 260 216 (55 nm) auf GT206-Basis ist seit wenigen Stunden hierzulande erhältlich (http://www.hardware-infos.com/news.php?news=2619)
Bei Geizhals steht eine TDP-Angabe von 192 W. Vermutlich ein Fehler, aber wie kommen die nur auf die Angabe?
Bei Geizhals steht eine TDP-Angabe von 192 W. Vermutlich ein Fehler, aber wie kommen die nur auf die Angabe?
Einfach aus den nV Specs für die 55nm 260 abgeschrieben? Nach diversen Respins und Verzögerungen ist es nun ja keine allzu abwegige Vermutung daß da in der Produktion ganz schön was schiefgegangen sein muss...
Und die aktuell verbauten 260 55nm sind vielleicht einfach der erste Abfall der halbwegs stabil lief aber nicht für die 285 taugt...
AnarchX
2008-12-29, 19:00:38
Nein, die Jungs bei GH haben offenbar den Test bei Expreview der Zotac GTX 260 55nm gelesen, die hinter dem NT ca. 10W mehr als die 65nm Karte benötigt.
Das hat man dann nach gutdünken einfach auf die TDP der EVGA-Karte draufgerechnet, was natürlich ziemlicher Unsinn ist.
Aber mehr als einen Preisvergleich sollte man von GH halt auch nicht erwarten.
Zudem wird über die GTX 260 55nm mittlerweile hier diskutiert:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=441670
Nein, die Jungs bei GH haben offenbar den Test bei Expreview der Zotac GTX 260 55nm gelesen,
Der war gut. Als ob die Arbeitsknechte die das Zeug da reinstellen irgendwelche Reviews lesen würden, geschweige denn ihre Artikelbeschreibungen nach Reviews verfassten... ;D
AnarchX
2008-12-29, 19:10:58
Der war gut. Als ob die Arbeitsknechte die das Zeug da reinstellen irgendwelche Reviews lesen würden, geschweige denn ihre Artikelbeschreibungen nach Reviews verfassten... ;D
Spekulationen verfolgt man bei GH offenbar schon, so wurde RV770 eine Zeit lang auch mit 480SPs gelistet und eine Core 2 Duo E6200 hatte man auch schon in der DB und die nie veröffentlichten Athlon X2 GE-6000 sind auch noch gelistet:
http://geizhals.at/deutschland/a360548.html
Man sollte also die Angaben von GH nicht zu ernst nehmen, bei der EVGA GTX 260 gibt Alternate jedenfalls 182W TDP an, im Text stehen zudem auch die 55nm.
Allein der Verzicht hätte natürlich keine höhere Performance zur Folge.
Jedoch hätte man hierfür noch ein paar mehr Einheiten verbauen können und letzlich stellt sich auch die Frage ob die DP-ALUs vielleicht daran Schuld sind, dass die Shaderdomain bei G200 so niedrig taktet.
Aber 2008 ohne DP hätte sich NV nicht wirklich leisten können, immerhin hatte man im CUDA-FAQ Anfang 2007 eine DP-GPU schon für Ende 2007 angekündigt.
Aber bei Ati gibt es Double Precision ohne gesonderte Einheiten durch eine Art Emulation.Möglicherweise der bessere Weg.
LovesuckZ
2008-12-29, 23:33:35
CB hat nun auf Basis der Spekus ein GTX 285 (GTX280@OC) Preview gemacht:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/vorschau_nvidia_geforce_gtx_285/#abschnitt_einleitung
Etwas das eigentlich sehr verwundert: Sollte das Design komplett an der Speicherbandbreite hängen? Die Zuwächse liegen misten über der Erhöhung des TMU und ROPs Taktes, aber auch immer unterhalb der Recheneinheiten. Einzig die Speicherbandbreite ist mit 12% Zuwachs in der Nähe...
KonKorT
2008-12-29, 23:47:33
- 8% ROP/TMU
- 12% Memory
- 14% Shader
Da passen dann doch +10% ganz gut - ich kann aus den Ergebnissen keine Speicherbandbreitenabhängigkeit herauslesen.
LovesuckZ
2008-12-29, 23:54:35
Wenn die Zuwächse zwischen 9-11% im Durchschnitt liegen, gibt es genau welche Erklärung dafür? ;)
KonKorT
2008-12-30, 00:16:53
Der Leistungsgewinn beziffert sich logischerweise zwischen 8 und 14 Prozent. Ob das mehr oder weniger sind, hängt halt von der Anwendung ab. Zum Beispiel ist der Vorsprung unter Crysis Warhead bei 1680x1050, 1xAA / 1xAF mit 12 Prozent relativ groß - dies lässt sich über den hohen Shaderbedarf erklären. Mit AA fällt es dann wieder ein wenig, weil es da offenbar auch bandbreitenlimitiert wird. Ganz normales Verhalten.
LovesuckZ
2008-12-30, 00:36:50
Ja, es ist normal, dass der Gewinn irgendwo zwischen dem Minimum und den Maximum liegen muss... :rolleyes:
Wieso sollte er aber im Durchschnitt über dem Coretakt und unter dem Rechentakt liegen, wenn nicht die Speicherbandbreite limitiere?
Sorkalm
2008-12-30, 00:59:51
Wieso sollte er aber im Durchschnitt über dem Coretakt und unter dem Rechentakt liegen, wenn nicht die Speicherbandbreite limitiere?
Weil mal das eine und das andere limitiert.
Der_Korken
2008-12-30, 01:38:56
Weil mal das eine und das andere limitiert.
Ich finde den Gedanken von Lovesucks gar nicht mal so falsch. Schaut euch mal die GTX260-216 an, die oftmals nur 5 bis 7 Prozent schneller als die 192er Variante ist, obwohl sie 12,5% mehr Rechenleistung besitzt. Die These, dass der GT200 stark von seiner Speicherbandbreite abhängig ist, ist also nicht ganz abwägig imho. Der Speicher wird bei der GTX285 mit 2480Mhz nunmal stark am Limit getaktet - vermutlich nicht umsonst.
Frank1974
2008-12-30, 06:53:53
Ja, es ist normal, dass der Gewinn irgendwo zwischen dem Minimum und den Maximum liegen muss... :rolleyes:
Wieso sollte er aber im Durchschnitt über dem Coretakt und unter dem Rechentakt liegen, wenn nicht die Speicherbandbreite limitiere?
Das ist eine gute Idee für meinen nächsten Benchmark Test, ich werde meine GTX einmal mit 702/1458/1107MHz(GPU/Shader/Ram) und einmal mit 702/1458/1296MHz laufen lassen, ich wollte bei meiner GTX immer schon wissen bei welchen Games die Bandbreite was bringt und bei welchen nicht, ich hatte das vor kurzen schon mal mit Furmark probiert, GPU und Shader brachten was, Speicher überhaupt nix, ich habe den sogar niedriger getaktet auch das machte nix, Furmark steht nur auf Shader.
Die 2900XT von ATI war ja auch zu seiner Zeit ein Bandbreiten Monster, aber wie wir wissen hat ihr das auch nicht groß geholfen.
Ich überlege im Moment nur noch mit welchem AA-Modus ich teste, ich möchte das die Ergebnisse noch im guten Bereich liegen(nicht unter 25fps), ich werde das wohl von Spiel zu Spiel entscheiden müssen, Hauptsache es zieht an der Bandbreite, hoffe ich jedenfalls.
Ich finde das Thema mit der Bandbreite sehr interessant, wir übertakten immer alle bis zum Maximum, und dann bringt es vielleicht gar nix, oder nur minimal.
Mit Cod5, Fallout 3 und GTA4, kommen dann auch gleich 3 neue Games in meinen Test, siehe Sig für bisherige Tests.
mfg
Frank
Captain Future
2008-12-30, 09:03:58
Ach und das hat genau was mit meiner Aussage zu tun? :rolleyes:
Schon vergessen? Ist genau das gewesen, was du geschrieben hast: Denn Gewinn und Umsatz, den AMD im letzten Quartal erreicht hat, hat auch ATi erreicht. Blöd nur, dass es sich hier um eine Seifenblase handelt, die platzen wird, wenn die Verkäufe nachlassen.
Captain Future
2008-12-30, 09:07:15
Wieso sollte er aber im Durchschnitt über dem Coretakt und unter dem Rechentakt liegen, wenn nicht die Speicherbandbreite limitiere?
Weil auch der Core-Takt für einige Dinge verantwortlich ist - Setup, Rasterizer, Scheduling usw.
Spasstiger
2008-12-30, 09:19:44
Bringt NV eigentlich nochmal Produkte mit einem 384-Bit-SI und 24 ROPs? Beim GT212 mit voraussichtlich 192-Bit-SI und 12 ROPs ist die Pixelfüllrate gegenüber dem GT200 ja gleich so drastisch reduziert, was man den hybriden AA-Modi 16xS und 32xS auch deutlich merken dürfte.
AffenJack
2008-12-30, 10:10:59
Wie kommste denn bei gt212 auf 192bit? Da wurde immer von 384bit geredet. Bei gt216 ist 192bit wahrscheinlich.
Spasstiger
2008-12-30, 12:15:01
Wie kommste denn bei gt212 auf 192bit? Da wurde immer von 384bit geredet. Bei gt216 ist 192bit wahrscheinlich.
Stimmt, da hab ich mich vertan, habe den GT216 gemeint. Der GT212 kommt also mit einem 384-Bit-SI und evtl. GDDR5-RAM?
KonKorT
2008-12-30, 12:24:45
Damit wäre dann auch deine Frage zwecks AA-Modi 16xS und 32xS beantwortet.
Ein GT216 ist ein Mainstream-Chip und fällt damit sowieso aufgrund seiner prinzipiellen Rechenleistung flach für solche AA-Modis. Die ROPs sind da dann nicht mehr der einzige Flaschenhals. ;)
Sorkalm
2008-12-30, 12:40:29
Stimmt, da hab ich mich vertan, habe den GT216 gemeint. Der GT212 kommt also mit einem 384-Bit-SI und evtl. GDDR5-RAM?
Warum so hohe Bussysteme in diesen niedrigen Segmenten, wenn man auch mit GDDR5 arbeiten kann?
Wenn, wäre doch maximal der GT214 noch ein Kandidat für mehr als 128 Bit. Da der nach den letzten Aussagen auch mit GDDR5 versehen wird, würde ich aber nicht davon ausgehen, dass man da entsprechende Arbeit hereinsteckt.
Es gibt ja schon 2,5 GHz GDDR5-Speicher (bietet z. B. Qimonda neben dem 2,0 GHz Speicher an). Damit schafft man 80 GB/s an 128 Bit, oder 160 GB/s an 256 Bit. Für alles außer absolutes High-End sollte das eigentlich reichen.
Und vll. kommt ja eine 2x GT212 Karte...
GeneralHanno
2008-12-30, 12:55:43
spätestens mit dem GT300 wird sich nvidia von dem aktuellen verhältnis von ROPs zu SI wohl lösen müssen (64bit => 4ROPs)
Spasstiger
2008-12-30, 13:08:53
Warum so hohe Bussysteme in diesen niedrigen Segmenten, wenn man auch mit GDDR5 arbeiten kann?
Wenn, wäre doch maximal der GT214 noch ein Kandidat für mehr als 128 Bit. Da der nach den letzten Aussagen auch mit GDDR5 versehen wird, würde ich aber nicht davon ausgehen, dass man da entsprechende Arbeit hereinsteckt.
Es gibt ja schon 2,5 GHz GDDR5-Speicher (bietet z. B. Qimonda neben dem 2,0 GHz Speicher an). Damit schafft man 80 GB/s an 128 Bit, oder 160 GB/s an 256 Bit. Für alles außer absolutes High-End sollte das eigentlich reichen.
Und vll. kommt ja eine 2x GT212 Karte...
Der GT212 soll doch 384 SPs haben. Und bei 60-80% mehr Shaderleistung als beim GT200b wäre mehr Speicherbandbreite schon angebracht. Mit einem 384-Bit-SI und GDDR5 hätte man etwa 50% mehr Speicherbandbreite als bei der GTX 285. Die Pixelfüllrate würde mit einem 384-Bit-SI und dementsprechend 24 ROPs aber sogar geringer ausfallen als beim GT200b.
=Floi=
2008-12-30, 13:14:29
du meinst GT300.
Spasstiger
2008-12-30, 13:19:41
du meinst GT300.
Ich dachte, dass der GT212 schneller als der G200b werden soll und 2009 das High-End-Produkt seitens Nvidia darstellen soll. Bis der GT300 breit verfügbar ist, wird es ja wohl 2010 werden.
Imo:
GT212 GTX => 384 SPs, 96 TMUs, 384 Bit SI, 24 ROPs, 1536 MiB GDDR5; typischerweise 30-40% schneller als GT200b, löst im Q2 oder Q3 die GTX 285 ab, soll RV870 schlagen
GT212 GTS => 320 SPs, 80 TMUs, 320 Bit SI, 20 ROPs, 1280 MiB GDDR5; etwas schneller als GTX 285, löst GTX 260 ab
GT214 GTX => 256 SPs, 64 TMUs, 256 Bit SI, 16 ROPs, 1024 MiB GDDR5; Leistungsniveau wie GTX 260-216 -> Soll HD 4870 1024 MiB schlagen
GT214 GT => 192 SPs, 48 TMUs, 256 Bit SI, 16 ROPs, 1024 MiB GDDR3; Leistungsniveau wie 9800 GTX+ 1024 MiB
GT216 GT => 160 SPs, 40 TMUs, 192 Bit SI, 12 ROPs, 768 MiB GDDR3; Leistungsniveau zwischen 9800 GT und 9800 GTX+, Gegner des ATI RV740
GT216 GS => 128 SPs, 32 TMUs, 192 Bit SI, 12 ROPs, 768 MiB GDDR3; Leistungsniveau zwischen 9600 GT und 9800 GT
GT218 GT => 64 SPs, 16 TMUs, 64 Bit SI, 4 ROPs, 512 MiB GDDR5; Leistungsniveau wie 9500 GT oder leicht darüber
GT218 GS => 32 SPs, 8 TMUs, 64 Bit SI, 4 ROPs, 256-512 MiB DDR2/GDDR3; ersetzt 9400 GT
GT21x IGP => 32 SPs, 8 TMUs
Alle Chips werden in 40 nm gefertigt sein (mal abgesehen von der IGP-Variante).
DX11 wird imo erst im Q1 2010 mit dem GT300 und dem R(V)9xx kommen.
Ailuros
2008-12-30, 18:05:16
du meinst GT300.
Obwohl es zu noch viel zu frueh ist fuer einen GT3x0 Thread, macht es ueberhaupt keinen Sinn das Ding mit GT2x0 zu vergleichen und schon gar nicht eventuell Einheiten zu zaehlen.
Spasstiger,
Nach dem ueblichen "wenn alles nach Plan laeuft" sind beide D3D11 chips immer noch fuer Q4 2009 projeziert. So wie 40nm bis jetzt verlaeuft, gibt es noch keine Anzeichen dass sich daran etwas aendern wird. Intel hingegen hat momentan eher Chancen einen 2009 Launch nicht mehr zu schaffen.
=Floi=
2008-12-30, 18:11:00
ich habe mich da wohl leicht vertan. ich dachte aber der GT300 hat die specs vom GT212 und nv kommt als nächstes dann im herbst 09 mit dem chip. Ich kann mir nicht vorstellen, dass zuerst ein 384sp chip kommt und dann danach noch mal ein größer brummer für dx11. Mehr wie 384 sps wird dieser ja auch nicht haben. (leider)
edit
rofl da hat ja ail zum gleichen zeitpunkt geschieben wie ich^^
edit 2
naja die SPs spiegeln ungefähr die leistungsfähigkeit.
Ailuros
2008-12-30, 18:53:49
Wie ich schon sagte es hat keinen Sinn Gt3x0 mit heutigen chips zu vergleichen; es waere genauso sinnlos als wenn man G80 mit G7x vergleicht und beim G80 in quads zu zaehlen versucht.
KonKorT
2008-12-30, 18:58:26
Wie ich schon sagte es hat keinen Sinn Gt3x0 mit heutigen chips zu vergleichen; es waere genauso sinnlos als wenn man G80 mit G7x vergleicht und beim G80 in quads zu zaehlen versucht.
Sprichst Du hier die MIMD-Einheiten des GT300 an?
Spasstiger
2008-12-30, 21:00:54
ich habe mich da wohl leicht vertan. ich dachte aber der GT300 hat die specs vom GT212 und nv kommt als nächstes dann im herbst 09 mit dem chip. Ich kann mir nicht vorstellen, dass zuerst ein 384sp chip kommt und dann danach noch mal ein größer brummer für dx11. Mehr wie 384 sps wird dieser ja auch nicht haben. (leider)
Gegen den RV870 braucht NV was Stärkeres und möglichst auch Kompaketeres als den GT200(b). D.h. SI kürzen, GDDR5 einführen, Rechen- und Texturleistung steigern. Der oben genannte GT212 mit 384 SPs, 96 TMUs, 384-Bit-SI und 1,5 GiB GDDR5-RAM wäre nach meinen Schätzungen zwischen 20 und 70% schneller als ein GT200b je nach Taktraten und Speicherbedarf der Anwendung.
Der GT300 kommt zu spät für den RV870.
GeneralHanno
2008-12-30, 21:02:34
Gegen den RV870 braucht NV was Stärkeres und möglichst auch Kompaketeres als den GT200(b). D.h. SI kürzen, GDDR5 einführen, Rechen- und Texturleistung steigern.
Der GT300 kommt zu spät für den RV870.
ich dachte der RV870 soll auch erst Q4/09 (dann mit DX11) kommen, oder habe ich da was verpasst ...
Spasstiger
2008-12-30, 21:06:55
ich dachte der RV870 soll auch erst Q4/09 (dann mit DX11) kommen, oder habe ich da was verpasst ...
Das Letzte, was ich gelesen habe, war Q2.
Außerdem wäre eine ordentliche Performancesteigerung Mitte 2009 für G80-Besitzer sehr wünschenswert. Der GT212 in obiger Ausführung würde einen Wechsel attraktiv machen. Nvidia hat sich glaube ich mit dem G80 und G92 selbst ein wenig die Kundschaft für den GT200 abgegraben. ;)
AffenJack
2008-12-30, 21:09:07
dx11 kommt q4/09 so wies aussieht, ob das nun rv870 wird oder was auch immer, weiß der geier. Es wird irgendwas, wie es auch heißt kommen mit dem sich der gt212 dann messen muss. Ende des jahres hamwa dann von beiden den dx11 chip.
Spasstiger
2008-12-30, 21:22:22
So wie ich das gelesen habe, wird der RV870 einfach ein breiterer RV770 in 40 nm mit deutlich kleinere Diefläche als beim RV770 sein. D.h. dass ATI mit dem RV870 auch direkt günstige Dual-Chip-Karten bringen wird, die zu einer ähnlichen Situation führt wie bei der GTX 280 vs. die HD 4870 X2.
Die GTX 295 wird da imo nicht die einzige Versicherung sein.
D3D11 wird der RV870 wohl nicht unterstützen, dafür ist der RV9xx zuständig.
Ich denke auch, dass die D3D11-Karten zumindest bei NV erstmal eher keine großen Steigerungen in der Rohleistung bringen werden. Eher wird man die Chips noch stärker Richtung General Computing auslegen, d.h. Effizienzsteigerungen und eine komplexere Steuerlogik.
GeneralHanno
2008-12-30, 21:32:30
So wie ich das gelesen habe, wird der RV870 einfach ein breiterer RV770 in 40 nm mit deutlich kleinere Diefläche als beim RV770 sein. D.h. dass ATI mit dem RV870 auch direkt günstige Dual-Chip-Karten bringen wird, die zu einer ähnlichen Situation führt wie bei der GTX 280 vs. die HD 4870 X2.
Die GTX 295 wird da imo nicht die einzige Versicherung sein.
D3D11 wird der RV870 wohl nicht unterstützen, dafür ist der RV9xx zuständig.
imo wird der Q4-chip mit DX11 RV870 heißen und der RV770 refresh chip (~Q2) in 40nm wohl RV775 oder RV790 heißen ...
Spasstiger
2008-12-30, 21:34:13
imo wird der Q4-chip mit DX11 RV870 heißen und der RV770 refresh chip (~Q2) in 40nm wohl RV775 oder RV790 heißen ...
Gut, das kann auch sein. Auf jeden Fall bringt ATI Mitte 2009 noch was Stärkeres als den RV770 ohne D3D11. Und diesem Chip wird NV den GT212 entgegensetzen mit mehr Rechenleistung und mehr Speicherbandbreite als beim GT200 bei ähnlichem oder geringeren Flächenverbrauch. 384 SPs und 96 TMUs an einem 384-Bit-GDDR5-SI finde ich da nicht so abwegig. Deutlich mehr Rechenleistung für CUDA, etwas mehr Bumms für Zocker, wahrscheinlich nicht größer als der GT200b und geringere PCB-Kosten dank 384-Bit-SI statt 512 Bit.
Bin auch mal gespannt, was NV mit den 32 SPs pro SIMD gegenüber 24 SPs pro SIMD an Chipfläche einsparen kann (relativ gesehen). Ein Vergleich GT200 vs. G92 taugt dabei als Abschätzung nicht so viel, weil der GT200 ja auch zusätzliche Double-Precision-Einheiten besitzt.
reunion
2008-12-30, 23:07:53
imo wird der Q4-chip mit DX11 RV870 heißen und der RV770 refresh chip (~Q2) in 40nm wohl RV775 oder RV790 heißen ...
Das wurde auch bereits von AMD bestätigt. RV870 ist DX11 im zweiten Halbjahr 2009. Vorher soll aber noch im ersten Halbjahr ein Refresh kommen.
Nightspider
2009-01-01, 05:15:05
Auf der 3DC-Mainsite steht das im 2.Quartal 09 der GT212 als neuer HighEnd Chip erscheint. Stimmt das nun?
Spekuliert wurden 40nm und vermutlich mehr Shader-Einheiten?
Wie gesichert sind diese Informationen??
Beginn 2009: Neues HighEnd: GTX285/295
Mitte 2009: Neues HighEnd: G212
Ende 2009: Neues HighEnd G300
3 mal neues HighEnd-Segment in einem Jahr halt ich für ein bisschen viel. :|
Fetza
2009-01-01, 05:58:15
Auf der 3DC-Mainsite steht das im 2.Quartal 09 der GT212 als neuer HighEnd Chip erscheint. Stimmt das nun?
Spekuliert wurden 40nm und vermutlich mehr Shader-Einheiten?
Wie gesichert sind diese Informationen??
Beginn 2009: Neues HighEnd: GTX285/295
Mitte 2009: Neues HighEnd: G212
Ende 2009: Neues HighEnd G300
3 mal neues HighEnd-Segment in einem Jahr halt ich für ein bisschen viel. :|
Vorstellen kann ich es mir nicht, wofür erst großes theater um die 295 machen, wenn man fettes high-end 3-4 monate später nachschiebt, das käme beim kunden überhaupt nicht gut an.
X.Perry_Mental
2009-01-01, 13:03:34
Vorstellen kann ich es mir nicht, wofür erst großes theater um die 295 machen, wenn man fettes high-end 3-4 monate später nachschiebt, das käme beim kunden überhaupt nicht gut an.
Was wäre, wenn der 285/295 einfach wegen den Respins um Monate zu spät dran ist? Wegen der geringeren Produktionkosten in 55nm einerseits und der nicht idealen Leistung der 260/280 wäre nVidia quasi gezwungen, sich mit dem verspäteten 200b bis zum 212er über Wasser zu halten.
KonKorT
2009-01-01, 13:33:02
Der GT200 war für Ende 2007 / Anfang 2008 geplant. Der Refresh im 55-nm-Verfahren hat ja dann sogar, ehe der GT200 auf dem Markt war, sein Tape-Out gefeiert. Theoretisch hätte der GT200b schon im August/September 2008 im Handel stehen können, aufgrund diverser Probleme konnte er allerdings erst jetzt gelauncht werden.
Führt man sich das vor Augen, so klingt Q2/2009 für den GT212 nicht unwahrscheinlich, denn die Chips werden natürlich parallel entwickelt. Anmerken möchte ich jedoch, dass der GT212 aus Nvidia-Sicht, wie schon der Name suggeriert, ein Performance-Chip ist. Dies wird sich auch später deutlich in der Fertigungsgröße widerspiegeln. Gleichzeitig steht natürlich außer Frage, dass der Chip schneller rechnen wird als der GT200.
GT300 war übringens schon immer für Q4/2009 angesetzt. Hätte alles nach Nvidias Wunsch funktioniert, sähe es wahrscheinlich so aus:
Q4/2007: GT200
Q2/2008: GT200b
Q1/2009: GT212
Q4/2009: GT300
Bleibt zu hoffen, dass letzterer pünktlich kommt. Mich stimmt optimistisch, dass es schon erste Testmuster gibt.
Fetza
2009-01-01, 13:52:08
Was wäre, wenn der 285/295 einfach wegen den Respins um Monate zu spät dran ist? Wegen der geringeren Produktionkosten in 55nm einerseits und der nicht idealen Leistung der 260/280 wäre nVidia quasi gezwungen, sich mit dem verspäteten 200b bis zum 212er über Wasser zu halten.
Ich meinte das jetzt mehr aus kundensicht. Wird nvidia seine kunden nicht verärgern, wenn man so schnell jetzt neues high-end hinterherschiebt? Andererseits wird ati wohl auch im zweiten quartal nachlegen, vielleicht können sie daher nicht anders.
Der GT200 war für Ende 2007 / Anfang 2008 geplant. Der Refresh im 55-nm-Verfahren hat ja dann sogar, ehe der GT200 auf dem Markt war, sein Tape-Out gefeiert. Theoretisch hätte der GT200b schon im August/September 2008 im Handel stehen können, aufgrund diverser Probleme konnte er allerdings erst jetzt gelauncht werden.
Führt man sich das vor Augen, so klingt Q2/2009 für den GT212 nicht unwahrscheinlich, denn die Chips werden natürlich parallel entwickelt. Anmerken möchte ich jedoch, dass der GT212 aus Nvidia-Sicht, wie schon der Name suggeriert, ein Performance-Chip ist. Dies wird sich auch später deutlich in der Fertigungsgröße widerspiegeln. Gleichzeitig steht natürlich außer Frage, dass der Chip schneller rechnen wird als der GT200.
GT300 war übringens schon immer für Q4/2009 angesetzt. Hätte alles nach Nvidias Wunsch funktioniert, sähe es wahrscheinlich so aus:
Q4/2007: GT200
Q2/2008: GT200b
Q1/2009: GT212
Q4/2009: GT300
Bleibt zu hoffen, dass letzterer pünktlich kommt. Mich stimmt optimistisch, dass es schon erste Testmuster gibt.
Das was du sagst klingt sehr interessant, hat sich der gt200 wirklich so sehr verspätet? Ich dachte immer das wäre von nv so gewollt, wobei ich den vergleichsweise schwachen g92 nie verstanden habe.
Woher hast du die infos, dass es von dem gt300 schon testmuster gibt, wenn ich fragen darf?
=Floi=
2009-01-01, 13:53:53
es könnte sich aber auch der GT212 und der GT300 verspäten. Wirklich verlassen kann man sich auf diese termine nicht und nebenbei könnte man einen GT212 auch wegen der aktuellen wirtschaftlichen lage zurückhalten. Die aktuellen chip sind doch gut genug und in 55nm auch kostengünstiger.
AnarchX
2009-01-01, 14:00:32
Die aktuellen chip sind doch gut genug und in 55nm auch kostengünstiger.
Wenn ein GT212 G200B mit 300mm² Die-Size und einer TDP von <150W ablösen könnte, dann wäre das wirtschaftlich doch sehr sinnvoll.
Der_Korken
2009-01-01, 14:20:01
Kann man eigentlich davon ausgehen, dass der GT300 noch auf der G80-Architektur basiert, oder führt Nvidia mit dem womöglich was neues ein (zwecks DX11)?
AnarchX
2009-01-01, 14:24:18
Kann man eigentlich davon ausgehen, dass der GT300 noch auf der G80-Architektur basiert, oder führt Nvidia mit dem womöglich was neues ein (zwecks DX11)?
Wie du schon sagst, D3D11 und dann auch das Subset D3D10.1 wovor man sich bisher gesträubt hat, da man für Gather4 wohl die TMUs überarbeiten muss.
Ausserdem kommt mit GT300 auch CUDA 3.0 laut NV.
Weiterhin gab es ja auch Andeutungen von Ailuros, dass sich einiges ändern könnte, z.B. MIMD statt SIMD/SIMT.
Gewisse Grundlage wird man sicherlich übernehmen, aber in anderen Bereichen wird es wohl tiefgreifenden Änderungen geben.
AFAIK gab es doch auch mal ein Patent von NV, wo man die ROPs über die ALUs emuliert, vielleicht findet das auch Anwendung in GT300.
GeneralHanno
2009-01-01, 15:21:04
nvidia wird sicher viel grundlagenforschung betreiben und einiges patentieren lassen, aber nur wenig findet davon tatsächlich einzug in endprodukte ;)
dennoch wird man auch die ROPs überarbeiten müssen, oder zumindest den angeschlossenen speicherkontroler.
AnarchX
2009-01-01, 15:51:07
Hmmm....
NVIDIA_DEV.06A0.01 = "NVIDIA GT214"
NVIDIA_DEV.06B0.01 = "NVIDIA GT214 "
NVIDIA_DEV.0A00.01 = "NVIDIA GT212"
NVIDIA_DEV.0A10.01 = "NVIDIA GT212 "
NVIDIA_DEV.0A30.01 = "NVIDIA GT216"
NVIDIA_DEV.0A60.01 = "NVIDIA GT218"
NVIDIA_DEV.0A70.01 = "NVIDIA GT218 "
NVIDIA_DEV.0A7D.01 = "NVIDIA GT218 "
NVIDIA_DEV.0A7F.01 = "NVIDIA GT218 "
NVIDIA_DEV.0CA0.01 = "NVIDIA GT215"
NVIDIA_DEV.0CB0.01 = "NVIDIA GT215 "
GeneralHanno
2009-01-01, 18:23:45
GT215? ...
AnarchX
2009-01-01, 18:33:03
Vielleicht GT214@GDDR5(only)?
GT214: nur ein GDDR5-MC um Die-Size zu sparen?
GT215: GT214 @GDDR2/3?
Interessant ist jedenfalls noch ein Eintrag der eine vergleichbare Device-ID wie GT214 besitzt:
NVIDIA_DEV.06A0.01 = "NVIDIA GT214"
NVIDIA_DEV.06B0.01 = "NVIDIA GT214 "
NVIDIA_DEV.06C0.01 = "NVIDIA GF100"
Wird GT214 vielleicht als GeForce GT 1x0 vermarktet?
Spasstiger
2009-01-01, 18:33:45
Vielleicht wird ja der GT215 das, was bislang für den GT216 spekuliert wurde, d.h. 160 SPs, 40 TMUs und 192-Bit-SI @ GDDR3.
Und der GT216 schließt die Lücke zum GT218 mit z.B. 128 SPs, 32 TMUs und 128-Bit-SI. Der GT218 dürfte ja mit großer Wahrscheinlichkeit nur ein 64-Bit-SI besitzen.
aylano
2009-01-01, 21:33:21
Vorstellen kann ich es mir nicht, wofür erst großes theater um die 295 machen, wenn man fettes high-end 3-4 monate später nachschiebt, das käme beim kunden überhaupt nicht gut an.
Abwarten, es könnte ja auch noch 5(-6) Monate werden. Und der GT300 könnte dann mit dem selben Abstand daherkommen.
Nvidia wird schon wissen, warum sie jetzt noch extra den 285er (& 295er) rausbringen.
Wenn der GT212 wirklich so früh kommen wird, dann hätten sie für die 3 Monate halt die neuen Grafikkarte-Typen & den Respin erspart und stattdessen wie bisher nur die 65nm durch die 55nm für die Kostensenkung ersetzt. (Annahme: Zweiter Respin gleich bzw. etwas besser als die 65nm-Version, aber deutlich billiger)
Ich denke, Nvidia wird doch schon vor dem Respin ungefähr wissen, was sie mit einem Respin ungefähr erwarten dürfen.
Dazu kommt ja auch, dass wegen der aktuellen Kaufflaute a la "Wirtschaftskrise" der Absatz jetzt dann auch nicht gerade berauschend sein wird und daher eine neue Grafikkarte (was nicht nur für Nvidia Kosten bereitet) gerade in der Kaufflaute & only 3 Monaten auch sinnlos erscheinen würde.
Es hat sich in der Vergangenheit gezeigt, wenn es bei der Firma nicht so läuft wie geplant und die Bilanzen nicht so sind wie gewünscht, dann agierte die Firma mit Roadmaps & Co nicht mehr so kundenunfreundlich.
Tatsache ist.
Der GT200b hatte erhebliche Probleme mit 55nm, trotz vielen 55nm-Erfahrung beim 9800+GTX und trotz GT200-65nm.
(Dazu hatte ATI noch viel längere gute Erfahrungen von 55nm bei TSMC)
Und ich glaube das gabs noch nicht bei einem kleinen Shrink.
Das kann man nicht einmal mit der R600 vergleichen, weil es da keinen 90nm-R600 davor schon gab a la Architektur-Einführung
Daher würde ich gerade im Bezug auf GT2xx & 40 auch nicht allzu optimistisch sein.
Auch wenn 40nm-TSMC gut sein soll, heißt es ja noch lange nicht, dass dies auch für GT200 & Co gilt (siehe 55nm)
Somit würde ich unter (jetzigen) Normalbedingungen GT212 eher so (Mai/)Juni schätzen, wenn RV740 so um April kommt.
Ailuros
2009-01-02, 06:38:34
Wie du schon sagst, D3D11 und dann auch das Subset D3D10.1 wovor man sich bisher gesträubt hat, da man für Gather4 wohl die TMUs überarbeiten muss.
Ausserdem kommt mit GT300 auch CUDA 3.0 laut NV.
Weiterhin gab es ja auch Andeutungen von Ailuros, dass sich einiges ändern könnte, z.B. MIMD statt SIMD/SIMT.
Ueber MIMD bin ich gar nicht mehr so sicher, obwohl mich eine Architektur die dann eher in LRB Richtung gehen wuerde ueberhaupt nicht wundern wuerde (nicht so radikal natuerlich).
Gewisse Grundlage wird man sicherlich übernehmen, aber in anderen Bereichen wird es wohl tiefgreifenden Änderungen geben.
AFAIK gab es doch auch mal ein Patent von NV, wo man die ROPs über die ALUs emuliert, vielleicht findet das auch Anwendung in GT300.
Die ROPs sind schon quasi Anteil vom Speicher-controller. Eine evolutionaere Aenderung wuerde ich persoenlich hier schon erwarten, aber wohl nicht so weit dass der SC mit den ALUs verschmolzen wird.
Innovation "soll" im GT300 eher im Punkt Taktungs-Verwaltung im Zusammenhang mit der Logik kommen. Verdammt vereinfacht wenn G80 irgend eine Idee vom Pentium4 geerbt und diese weitergetragen hat, dann duerfte GT300 eher in Richtung Nehalem schielen. Es gibt natuerlich auch Stimmen die behaupten dass es besser gewesen waere wenn NV woanders investiert haette, aber IMHLO sind diese ziemlich kurzsichtig was die D3D11 Generation betrifft und was z.B. Intel auf die Beine stellen koennte.
Abwarten, es könnte ja auch noch 5(-6) Monate werden. Und der GT300 könnte dann mit dem selben Abstand daherkommen.
GT212 ist fuer ~Ende Q2 2009 angelegt. Das ist schon ein bisschen mehr als nur 3-4 Monate.
Wenn der GT212 wirklich so früh kommen wird, dann hätten sie für die 3 Monate halt die neuen Grafikkarte-Typen & den Respin erspart und stattdessen wie bisher nur die 65nm durch die 55nm für die Kostensenkung ersetzt. (Annahme: Zweiter Respin gleich bzw. etwas besser als die 65nm-Version, aber deutlich billiger)
GT21x@40nm ist kein respin.
Tatsache ist.
Der GT200b hatte erhebliche Probleme mit 55nm, trotz vielen 55nm-Erfahrung beim 9800+GTX und trotz GT200-65nm.
Weil jemand Mist gebaut hat und diese interne "Missgeschicke" haeufen sich zu stark in letzter Zeit an.
Das kann man nicht einmal mit der R600 vergleichen, weil es da keinen 90nm-R600 davor schon gab a la Architektur-Einführung
Es gibt einen kleinen Unterschied wenn man mit HW-bugs bzw. Herstellungs-Prozess Problemen zu kaempfen hat und einem Idioten der ein falsches Protokoll fuer 55nm gewaehlt hat. Das zweite kann man leider nicht so leicht verzeihen, denn es gehoert zu den total bloeden Fehlern.
Daher würde ich gerade im Bezug auf GT2xx & 40 auch nicht allzu optimistisch sein.
Auch wenn 40nm-TSMC gut sein soll, heißt es ja noch lange nicht, dass dies auch für GT200 & Co gilt (siehe 55nm)
Somit würde ich unter (jetzigen) Normalbedingungen GT212 eher so (Mai/)Juni schätzen, wenn RV740 so um April kommt.
Siehe oben. Wenn jemand Q2 sagt, sollte man auch fragen im welchen Monat des Quartals und nicht gleich auf den Anfang schaetzen. Mir persoenlich war nie bis jetzt etwas anderes "bewusst" als "Sommer 09'".
GeneralHanno
2009-01-02, 10:51:52
GT21x@40nm ist kein respin.
hmm, also 32SP je cluster + GDDR5 ;)
=Floi=
2009-01-02, 11:21:31
285er -->
http://www.hkepc.com/2178
nur 186watt und 2x6 pin stecker ;D
300€ wäre eine ansage
aylano
2009-01-02, 11:56:43
GT212 ist fuer ~Ende Q2 2009 angelegt. Das ist schon ein bisschen mehr als nur 3-4 Monate.
Genau das hatte ich ja geschätzt. Die 3-4 Monate musst du von jemand anderen aufgenommen haben.
Siehe oben. Wenn jemand Q2 sagt, sollte man auch fragen im welchen Monat des Quartals und nicht gleich auf den Anfang schaetzen.
Im Grunde wollte ich das so auch ausdrücken. Ist mir anscheinend nicht ganz gelungen.
Mir persoenlich war nie bis jetzt etwas anderes "bewusst" als "Sommer 09'".
In diesem Thread wurde schon eine Zeit (a la Wochen) lang für Anfang Jänner 2009 spekulierlt, wo 1Q quasi als sicher galt.
Weil jemand Mist gebaut hat und diese interne "Missgeschicke" haeufen sich zu stark in letzter Zeit an.
Weiß man schon warum sich diese Häufen?? AMD Druck a la verfrühter RV670 (und Nachfolger)
GT21x@40nm ist kein respin.
Ja schon, aber sie ist auch keine neue Archiktur, was dann Fehleranfälliger wäre, sondern eine Architektur mit der sie schon länger gearbeitet haben.
So meinte ich es zumindestens.
Es gibt einen kleinen Unterschied wenn man mit HW-bugs bzw. Herstellungs-Prozess Problemen zu kaempfen hat und einem Idioten der ein falsches Protokoll fuer 55nm gewaehlt hat. Das zweite kann man leider nicht so leicht verzeihen, denn es gehoert zu den total bloeden Fehlern.
Aber so ein Fehler darf nicht unterschätzt werden. Denn ein Idiot ist er sicher nicht. Menschen machen nun mal Fehler und wenn ein System das nicht berücksichtigt, dann hat das System einen Fehler.
Vorallem wenn sich die Fehler, so wie du es erwähnst, in letzter Zeit häufen.
Na dann bin ich auf die 40nm-Einführung gespannt. Vorallem den größten a la GT212 zuerst.
...falsches Protokoll fuer 55nm ...
Weiß man schon, was genau passierte???
Welches Protokoll man nahm und wann man diesen Fehler entdeckte???
Frank1974
2009-01-02, 22:50:48
Da ich unbedingt etwas mehr Grafikkarten Speed möchte, bleibt mir wohl nichts anderes übrig als SLI.
Ich möchte aber noch auf die GTX285 warten, ist es wohl möglich die zusammen mit meiner GTX280 im SLI laufen zu lassen, ist doch nur eine übertaktete oder anders gesagt eine höher getaktete GTX, sonst bleiben doch die Daten gleich, vielleicht wird die GTX285 sogar billiger und die 280 verschwindet schnell vom Markt.
Ich habe hier noch ein SLI Mainboard mit 750i Chipset, im SLI würde das nur mit 2x PCIe 2.0 x8 Modus laufen, gibt es einen Test wieviel Leistung man dadurch verliert, an einem neuen Board bin ich nämlich nicht wirklich interessiert.
mfg
Frank
Ailuros
2009-01-03, 07:05:15
In diesem Thread wurde schon eine Zeit (a la Wochen) lang für Anfang Jänner 2009 spekulierlt, wo 1Q quasi als sicher galt.
Es sollte einen 40nm chip in Q1 09' geben, nur ist dieser selbstverstaendlich nicht ein high end chip.
Weiß man schon warum sich diese Häufen?? AMD Druck a la verfrühter RV670 (und Nachfolger)
Ich bezweifle es. Meistens passiert solcher Mist bei NV wenn ein paar erfahrene Kerle sich selber eine Rente goennen. So wie die Aktien in letzter Zeit gefallen sind, wuerde es mich nicht wundern wenn ein paar Herren nicht verkauft, einkassiert haben und ihren fetten Hintern auf irgend einer tropischen Insel sonnen.
Aber so ein Fehler darf nicht unterschätzt werden. Denn ein Idiot ist er sicher nicht. Menschen machen nun mal Fehler und wenn ein System das nicht berücksichtigt, dann hat das System einen Fehler.
Wenn die These mit dem falschen DFM Zeug fuer 55nm stimmen sollte, dann liegt es unter den Fehlern die man schwer verzeihen kann.
Na dann bin ich auf die 40nm-Einführung gespannt. Vorallem den größten a la GT212 zuerst.
Eigentlich klang es etwas merkwuerdig als man hoerte dass NV gleich auf den kleinsten Herstellungsprozess steigen wird. Als ich aber hoerte dass auch GT3x0 fuer 40nm geplant ist, macht das Ganze natuerlich Sinn.
Weiß man schon, was genau passierte???
Welches Protokoll man nahm und wann man diesen Fehler entdeckte???
Siehe oben; nur eine These von Charlie/Giftspritze/INQ. Er hatte aber auch leider Recht mit den mobilen defekten chips und seine These ueber die 55nm Saga koennte Sinn machen.
Fetza
2009-01-03, 09:28:04
285er -->
http://www.hkepc.com/2178
nur 186watt und 2x6 pin stecker ;D
300€ wäre eine ansage
Bin mal gespannt ob die für die gtx 285 wirklich den 3 respin nutzen, und nicht nur den zweiten, so wie man ihn bisher bei den neuen gtx 260 sehen kann.
aylano
2009-01-03, 12:10:56
Es sollte einen 40nm chip in Q1 09' geben, nur ist dieser selbstverstaendlich nicht ein high end chip.
Wenn es diesen geben sollte, dann sieht die Sache natürlich anders aus.
Eigentlich klang es etwas merkwuerdig als man hoerte dass NV gleich auf den kleinsten Herstellungsprozess steigen wird. Als ich aber hoerte dass auch GT3x0 fuer 40nm geplant ist, macht das Ganze natuerlich Sinn.
Merkwürdig würde ich es finden, wenn der aktuell größte Chip bzw. sogar einen 50% relativgrößeren Chip als erster in 40nm hergestellt wird.
Weniger Merkwürdig würde ich es finden, wenn der GT300 auf 40nm basiert, mit dem sie schon 6 Monate Erfahrrung haben.
Nun ja, wenn es davor noch einen 40nm-Nvidia-Chip gäbe sollte, dann wäre der GT212 dann nicht mehr der erste 40nm-Chip.
Aber wenn dieser dann im 1Q (a la gleich bzw. kurz vor ATI) kommen würden, dann wäre dieser Chip für mich eine Überraschung.
Siehe oben; nur eine These von Charlie/Giftspritze/INQ. Er hatte aber auch leider Recht mit den mobilen defekten chips und seine These ueber die 55nm Saga koennte Sinn machen.
Leider kann ich mir nichts unter DFM & sonstige Geschichte vorstellen.
Ailuros
2009-01-03, 12:21:55
Wenn es diesen geben sollte, dann sieht die Sache natürlich anders aus.
Es hiess stets fuer beide IHVs erstes 40nm Q1 und high end 40nm = Q2. Falls sich nichts daran geaendert haben sollte kommt GT212 etwas spaeter als RV870 an, was ich aber auch als normal empfinde dank unterschiedlicher Chip-komplexitaet.
Nun ja, wenn es davor noch einen 40nm-Nvidia-Chip gäbe sollte, dann wäre der GT212 dann nicht mehr der erste 40nm-Chip.
Aber wenn dieser dann im 1Q (a la gleich bzw. kurz vor ATI) kommen würden, dann wäre dieser Chip für mich eine Überraschung.
Die letzte roadmap die ich sah sprach von einer "halben 212" in Q1 @40nm und Q2 dann GT212.
Leider kann ich mir nichts unter DFM & sonstige Geschichte vorstellen.
http://www.theinquirer.net/inquirer/news/801/1049801/nvidia-55nm-parts-update
deekey777
2009-01-03, 12:26:48
Alt? http://www.expreview.com/news/hard/2009-01-03/1230967847d11034.html
Kein Speicher auf der Rückseite.
AnarchX
2009-01-03, 12:32:22
Neu!
Also nun auch ein Spar-PCB für die GTX 285.
Fragt sich bei wievielen Layern es liegen wird (GTX280/260: 14, 55nm-GTX260: 10)?
Damit sind wohl Preise um die 300€ kein Problem für die AIBs, vielleicht hat ja NV gar ein Desigkit für die GTX 285 herausgegeben, womit Eigendesign möglich werden.
GeneralHanno
2009-01-03, 13:51:37
dann wird wohl ein GT214/15 in Q1 kommen und den betagten G92 ablösen ...
4-6 Cluster und 192bit@GDDR5
KonKorT
2009-01-03, 15:35:18
Merkwürdig würde ich es finden, wenn der aktuell größte Chip bzw. sogar einen 50% relativgrößeren Chip als erster in 40nm hergestellt wird.
Wie kommst Du zur Aussage, dass GT212 relativ 50% größer wird als GT200(b)? Das ist Schwachsinn!
dann wird wohl ein GT214/15 in Q1 kommen und den betagten G92 ablösen ...
4-6 Cluster und 192bit@GDDR5
Die Specs schauen gut aus, beim Launch bin ich noch skeptisch. Geplant war es aber mal, ja.
Innovation "soll" im GT300 eher im Punkt Taktungs-Verwaltung im Zusammenhang mit der Logik kommen. Verdammt vereinfacht wenn G80 irgend eine Idee vom Pentium4 geerbt und diese weitergetragen hat, dann duerfte GT300 eher in Richtung Nehalem schielen. Es gibt natuerlich auch Stimmen die behaupten dass es besser gewesen waere wenn NV woanders investiert haette, aber IMHLO sind diese ziemlich kurzsichtig was die D3D11 Generation betrifft und was z.B. Intel auf die Beine stellen koennte.
@Ailuros
Ist der Innovationssprung zwischen GT200 und GT300 mit dem G71 und G80 vergleichbar? technologisch wie auch Leistungsmäßig?
Eins versteh ich noch nicht. Wenn NV sich intern nicht schlüssig war ob sie GT200 überhaupt vorstellen oder nicht. Was hätten sie denn gelauncht wenn sie nein zum GT200 gesagt hätten?
Haben sie noch was was sie nicht vorstellen?
2008 gabs ja nur den GT200 und nix anderes. Was hätten sie denn dann gemacht?
Psychopat
2009-01-03, 16:41:53
Soweit ich mich erinnern kann war es nicht die Frage ob GT200 ja oder nein, sondern nur ob noch in 65 nm oder gleich in 55 nm. Wenn 55 nm ohne 65 nm auch solche Verspätung gehabt hätte, hat nVidia auf jeden Fall die richtige Entscheidung getroffen.
Also nun auch ein Spar-PCB für die GTX 285.
Nö die braucht ja 16 Speicher.
AnarchX
2009-01-03, 16:51:15
Nö die braucht ja 16 Speicher.
Dann schau dir nochmal genauer die Karte in DK777s Link an:
http://www.expreview.com/news/hard/2009-01-03/1230967847d11034.html
-> http://www.expreview.com/img/news/2009/01/03/285-04.jpg
Natürlich nicht das Spar-PCB der GTX 260.
Soweit ich mich erinnern kann war es nicht die Frage ob GT200 ja oder nein, sondern nur ob noch in 65 nm oder gleich in 55 nm. Wenn 55 nm ohne 65 nm auch solche Verspätung gehabt hätte, hat nVidia auf jeden Fall die richtige Entscheidung getroffen.
Das kann man wohl so sagen, wenn man auch vermuten kann das GT200 bzw. ein DP-GPU eigentlich schon für Ende 2007 geplant war, siehe CUDA-FAQ vom April 07.
Aber 65 und 55nm bleiben offenbar weit hinter den Erwartung zurück, wenn man auch an die >2GHz SD denkt, die sich NV noch Anfang 07 für den G92 ausmalte. ;D
Hier gibt es übrigens schon eine Analyse zu TSMCs 40nm Prozess von Altera:
http://www.altera.com/literature/wp/wp-01058-stratix-iv-40nm-process-node-custom-logic-devices.pdf
Die kleine Strukutrbreite erkauft man sich offenbar mit hohen Leckströmen.
Dann schau dir nochmal genauer die Karte in DK777s Link an:
http://www.expreview.com/news/hard/2009-01-03/1230967847d11034.html
-> http://www.expreview.com/img/news/2009/01/03/285-04.jpg
Natürlich nicht das Spar-PCB der GTX 260.
Ah okay.
KonKorT
2009-01-03, 17:12:49
Ist der Innovationssprung zwischen GT200 und GT300 mit dem G71 und G80 vergleichbar? technologisch wie auch Leistungsmäßig?
Du hast den Nagel auf den Kopf getroffen!
Du hast den Nagel auf den Kopf getroffen!
woher willst du das wissen?
Das was ich bis jetzt hier gelesen habe, sagt mir das der GT300 besonders "klug" seinen Taktdomäne verwalten kann. Über technologie oder performance sagt das nix aus.
Wenn ich Ailuros richtig verstanden hab, denk ich eher an sowas wie die double pumped ALU oder das Hyper Threading des Pentium4.
aylano
2009-01-03, 18:53:59
Wie kommst Du zur Aussage, dass GT212 relativ 50% größer wird als GT200(b)? Das ist Schwachsinn!
Texte gscheit lesen, hat auch mal seine Vorteile;-)
Dazu wird im diesem Thread der GT212 mit ca. 350 SP oft genug erwähnt bzw. spekuliert.
Es hiess stets fuer beide IHVs erstes 40nm Q1 und high end 40nm = Q2.
Die Frage ist nur, wann es so hieß?
Im Sommer wird von TSMC berichtet, dass die 40nm-Fertigung um 3 Monate verschoben hat.
In April (oder so) hieß es, dass 40nm im 1Q kommen soll.
KonKorT
2009-01-03, 18:55:01
woher willst du das wissen?
Ich weiß nur aus erster Hand, dass dies Nvidias Ziel war und man es auch aller Voraussicht nach erreichen wird, wenn am Ende die Taktraten stimmen.
Die ersten Testsamples laufen ja noch deutlich unter den Taktraten, die wir später im Handel sehen werden.
Seit G80 ist viel Zeit verstrichen (25 Monate). Ich denke jedem hier ist klar, dass Nvidia diese Zeit nicht gebraucht hat, um den GT200 auf die Beine zu stellen. Der war wie seinerzeit der G70 nur ein etwas größeres Update der bestehenden Architektur.
Texte gscheit lesen, hat auch mal seine Vorteile;-)
Dazu wird im diesem Thread der GT212 mit ca. 350 SP oft genug erwähnt bzw. spekuliert, auch wenn die Anzahl der Shadereinheiten sogar noch mehr als um diesen Faktor steigen wird.
Wo du mir so ganz schlau daherkommst, wirst Du sicherlich auch wissen, dass beim GT200 gerade mal ein Viertel der Fläche für die SPs verwendet wird...
Ich werde noch mal drauf zu sprechen kommen. Der GT212 wird definitiv nicht 50 Prozent größer werden, auch wenn die Anzahl der SPs sogar um einen noch größeren Faktor steigen wird.
Ich weiß nur aus erster Hand, dass dies Nvidias Ziel war und man es auch aller Voraussicht nach erreichen wird, wenn am Ende die Taktraten stimmen.
Die ersten Testsamples laufen ja noch deutlich unter den Taktraten, die wir später im Handel sehen werden.
Seit G80 ist viel Zeit verstrichen (25 Monate). Ich denke jedem hier ist klar, dass Nvidia diese Zeit nicht gebraucht hat, um den GT200 auf die Beine zu stellen. Der war wie seinerzeit der G70 nur ein etwas größeres Update der bestehenden Architektur.
Wo du mir so ganz schlau daherkommst, wirst Du sicherlich auch wissen, dass beim GT200 gerade mal ein Viertel der Fläche für die SPs verwendet wird...
Ich werde noch mal drauf zu sprechen kommen. Der GT212 wird definitiv nicht 50 Prozent größer werden.
meinst du es gibt schon Samples vom GT300?
KonKorT
2009-01-03, 19:02:49
Nicht meinen, wissen.
Ailuros
2009-01-03, 20:26:23
Nicht meinen, wissen.
Kommt ganz drauf an was man mit "samples" meint ;)
Hugo,
Wenn ich Ailuros richtig verstanden hab, denk ich eher an sowas wie die double pumped ALU oder das Hyper Threading des Pentium4.
Das ist der G80 schon. Schiel mal in Richtung Nehalem und stell Dir eine um einiges effektivere Loesung als beim letzteren vor. Mehr kann ich leider momentan nicht helfen. Nix mit hyperthreading, GPUs sind von Geburt an "multi-threaded".
Ist der Innovationssprung zwischen GT200 und GT300 mit dem G71 und G80 vergleichbar?
Ja und nein.
technologisch wie auch Leistungsmäßig?
Performance/Watt duerfte diesmal um einiges steigen; weil eben der Stromverbrauch sehr intelligent kontrolliert werden soll. Falls es nicht stimmen sollte, bitte nicht lynchen. Jeder IHV erzaehlt seine eigenen Maerchen....
aylano,
Texte gscheit lesen, hat auch mal seine Vorteile;-)
Dazu wird im diesem Thread der GT212 mit ca. 350 SP oft genug erwähnt bzw. spekuliert.
[12*(4*8)] hoechstwahrscheinlich; dieses heisst dann "nur" 96 TMUs was nur 16 mehr als beim GT200 bedeutet und ich tippe auf nicht mehr als 24 ROPs. In dem Sinn hat KonKort schon recht. Denk mal nach was hier am meisten Transistoren schluckt. Und nein >50% mehr ALUs heisst nicht unbedingt dass das Resultat um >50% groesser sein muss wenn Du die Transistoren-schwersten Einheiten gleich mal mitrechnest.
Die Frage ist nur, wann es so hieß?
Im Sommer wird von TSMC berichtet, dass die 40nm-Fertigung um 3 Monate verschoben hat.
In April (oder so) hieß es, dass 40nm im 1Q kommen soll.
High end 40nm wurde tatsaechlich verschoben. Klingt Dir der RV740 nach einem einfachem Geruecht?
KonKorT
2009-01-03, 20:37:10
ich tippe auf nicht mehr als 24 ROPs.
Würde nicht drauf wetten. ;)
AnarchX
2009-01-03, 21:43:46
NVIDIA_DEV.05FD.01 = "NVIDIA Quadro FX 5800" 512-Bit 4GiB
NVIDIA_DEV.05FE.01 = "NVIDIA Quadro FX 4800" 384-Bit 1.5GiB
NVIDIA_DEV.05FF.01 = "NVIDIA Quadro FX 3800"??
Da wird wohl G200 gar noch auf 320/256-Bit reduziert.
aylano
2009-01-04, 01:38:18
High end 40nm wurde tatsaechlich verschoben. Klingt Dir der RV740 nach einem einfachem Geruecht?
Soviel ich weiß, kommt der RV740 erst Ende 1Q/Anfang 2Q.
Den würde ich nicht unbedingt als 1Q GPU nennen.
(So wie du es letztens sagtes: Wichtig ist, in welchen Teil bzw. Monat des Quartal die GPU rauskommt.)
In dem Sinn hat KonKort schon recht.
Das war aber nicht der Sinn meines Ursprungtextes;-)
...Merkwürdig würde ich es finden, wenn der aktuell größte Chip bzw. sogar einen 50% relativgrößeren Chip als erster in 40nm hergestellt wird....
Bei dem Satz würde man sehen, dass ich es >auch< merkwürdig finde, wenn sogar nur der GT200 (=akutell schnellster Chip) als erste 40nm-Chip von Nvidia noch vor mainstream & Lowend kommen würde.
Es wäre noch merkwürdiger, wenn sogar noch ein größer kommt.
Und somit ist es mir ziehmlich egal, ob der größere dann 50% oder gar nur 30% Fläche hat.
Mir fällt da eigentlich nur der G92 alias 8800GT dazu ein, der vor performance, mainstream & Lowend in 65nm kam. Aber im Unterschied dazu, hatte ATI schon fast 6 Monate 65nm-GPUs draußen.
Und die 8800GT Einführung war ja auch nicht so toll, wo es AFAIK 1 Monate kaum Karten gab.
Dazu war die 8800GT reduziert a la 112 SP & Co. Keine Ahnung warum. Wegen Yieldrate?
Un die 9800GTX a la ganze G92 kam 5 Monate später.
[12*(4*8)] hoechstwahrscheinlich; dieses heisst dann "nur" 96 TMUs was nur 16 mehr als beim GT200 bedeutet und ich tippe auf nicht mehr als 24 ROPs.
Falls ich es richtig verstehe, soll der neue überproportional viele SP bekommen.
Warum?
Vielleicht weil sie den SP-Takt beim 65 & 55nm-GT200 nicht so hoch bekamen (wie hier öfters erwähnt) wie sie wollten?
=Floi=
2009-01-04, 05:16:16
weil die arithmetische leistung immer wichtiger wird. Immer mehr und komplexere shader müssen berechnet werden, physx, cuda und das damit verbundene GPGPU. NV muß ati wieder einholen und larrabee wird hier auch stark sein. Eigentlich wären ja beim GT200 schon mehr shadereinheiten schön gewesen... Die getrennte shaderdomain hat einen dauerhaften vorteil, aber die leistungssteigerung dadurch war quasi nur einmal vorhanden.
Ailuros
2009-01-04, 06:58:12
Und die 8800GT Einführung war ja auch nicht so toll, wo es AFAIK 1 Monate kaum Karten gab.
Dazu war die 8800GT reduziert a la 112 SP & Co. Keine Ahnung warum. Wegen Yieldrate?
Un die 9800GTX a la ganze G92 kam 5 Monate später.
Yieldrate ja. 8800GT war eigentlich fuer 6 cluster projeziert; als sie zu spaet vom RV670 Wind bekamen, entschieden sie sich das Ding mit 7 zu veroeffentlichen.
Falls ich es richtig verstehe, soll der neue überproportional viele SP bekommen.
Ueberproportional? Eigentlich nicht. Sie schieben hoechstwahrscheinlich nochmal 8 SPs in jedes cluster und erhoehen die cluster Anzahl von 10 auf 12.
Warum?
Vielleicht weil sie den SP-Takt beim 65 & 55nm-GT200 nicht so hoch bekamen (wie hier öfters erwähnt) wie sie wollten?
Floi hat Dir diesbezueglich schon geantwortet. Deine These macht nicht den geringsten Sinn. Nehmen wir mal an GT212 ist tatsaechlich ein 384SP chip und seine ALUs takten bei konservativ geschaetzten 1.7GHz:
384*3*1.70= 1958 GFLOPs
240*3*2.72= 1958 GFLOPs
Wuerde der chip nur aus ALUs bestehen waeren die hypothetischen 2.7 GHz kein besonderes Problem unter 40nm. Selbst mit einem 2,5x ALU:TMU ratio muessten hier die anderen domaine auf ~1GHz getaktet werden.
Selbst wenn all dies moeglich waere, braucht man um einiges mehr Zeit und Muehe und geht auch mehr als nur ein Risiko ein mit so einer Strategie. Einfach mehr Einheiten ist hier der einfachste und schnellste Weg.
Warum sollte man so oder so etwas daran aendern wenn sich diese Strategie schon ueber einige Zeit als erfolgreich bewiesen hat und neuestens auch fuer ATI? ;)
Spasstiger
2009-01-04, 12:15:33
Performance/Watt duerfte diesmal um einiges steigen; weil eben der Stromverbrauch sehr intelligent kontrolliert werden soll. Falls es nicht stimmen sollte, bitte nicht lynchen. Jeder IHV erzaehlt seine eigenen Maerchen....
Wird Nvidia beim GT300 die "Long Run"-Technologie einsetzen, die sie bei Transmeta eingekauft haben?
Falls ich es richtig verstehe, soll der neue überproportional viele SP bekommen.
Warum?
Vielleicht weil sie den SP-Takt beim 65 & 55nm-GT200 nicht so hoch bekamen (wie hier öfters erwähnt) wie sie wollten?
Alle GT21x-Chips werden 32 SPs pro Cluster haben während es beim GT200 noch 24 SPs pro Cluster und beim G80/G92 sogar noch 16 SPs pro Cluster waren. Je weniger Cluster, desto weniger komplex ist das Gesamtdesign. Der G80 hatte acht Cluster, der GT200 zehn Cluster, der GT212 wahrscheinlich zwölf Cluster. D.h. der Verwaltungsaufwand steigt kaum. Desweiteren dürfte ein großes Cluster etwas transistoreffizienter umsetzbar sein als zwei kleine Cluster (wobei das auf den Vergleich G80 vs. GT200 nicht zutrifft, weil beim GT200 jedes Cluster noch über eine Double-Precision-ALU verfügt).
Außerdem wird die Shaderleistung immer wichtiger, auch mit Blick auf CUDA und OpenCL.
Für Spieler wird der GT212 auch mit 384 SPs nicht den gigantischen Mehrwert gegenüber dem GT200 bringen, den man anhand von der SP-Anzahl vermutet. Man wird sich im Bereich von meist nur ~20-30% Mehrleistung bewegen, bei extremer VRAM-Last auch mal über 50% (wegen 1,5 GiB VRAM). Der Abstand zum GT200 ist also nicht so groß, dass man die GTX 295 in Gefahr bringt (zumindest nicht bei mittlerer VRAM-Last) und somit die eigene High-End-Kundschaft verärgert, aber der Abstand ist so groß, dass man neue Käufer lockt (z.B. G80-Besitzer, die im GT200 nicht genügend Mehrwert sahen).
deekey777
2009-01-04, 19:57:01
http://www.hardware-infos.com/news.php?news=2629
Alt?
Wie schon vor mehreren Wochen an dieser Stelle ebenfalls berichtet, wird der Chip ab dem zweiten Quartal dieses Jahres mit 384 Shadereinheiten an den Start gehen, die zum GT200 unangetastet geblieben sind, sprich, es können pro Takt weiterhin zwei MADD und ein MUL berechnet werden. Die theoretische ALU-Leistung steigt somit gegenüber dem GT200 um 60 Prozent - in der Praxis werden es vermutlich aufgrund des höheren ALU-Takts noch etwas mehr sein.
Ein MADD und ggf. ein MUL oder "1/4 SF".
Wird Nvidia beim GT300 die "Long Run"-Technologie einsetzen, die sie bei Transmeta eingekauft haben?
"Long Run" ist einfach nur Taktabsenkung und Spannungsreduktion. Das ist ein Trivialpatent dass sie ausgeschlachtet haben.
Für Spieler wird der GT212 auch mit 384 SPs nicht den gigantischen Mehrwert gegenüber dem GT200 bringen, den man anhand von der SP-Anzahl vermutet.
Da bin ich anderer Meinung. Wenn es den GeForces derzeit an irgendwas mangelt, dann an ALU-Leistung.
Sorkalm
2009-01-04, 20:41:18
http://www.hardware-infos.com/news.php?news=2629
Alt?
Nö, auch wenn es im Grundsatz (12 Cluster mit Quad-TMUs und 32 SPs) dem bereits hier Spekulierten entspricht. Allerdings waren hier doch viele der Meinung, dass 384 Bit kommen, und nicht, wie da klar berichtet 256 Bit. Ist außerdem doch noch etwas detaillierter, die News.#
Es reichen aber auch 256 Bit GDDR5 klar aus. So kommt das Ding dann eben auch noch als GX2-Version, wird man auch brauchen, um die 295 zu schlagen, schätze ich mal. Ist aber auch klar ein Peformance-Chip.
PS: Du nimmst es natürlich immer sehr genau, inzwischen steht da ein MADD. :tongue:
deekey777
2009-01-04, 21:39:52
Ein 256bit-SI+GDDR5 beim Nachfolger des GT200 wird schon länger (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6433967#post6433967) vermutet.
KonKorT
2009-01-04, 21:42:47
Interessant, dort wird aber beispielsweise noch von DirectX-10.1-Unterstützung gebrochen. Von der distanziert man sich im Hardware-Infos-Artikel.
Übringens war der Artikel auf April 2008 datiert. ^^
Wie Solkam aber bereits schrieb, gingen die meisten hier zuletzt eher von 384 Bit SI aus - von daher schon eine Überraschung.
Sorkalm
2009-01-04, 21:43:01
Das ist so alt, dass wusste ich dann doch nicht mehr. :tongue:
Zuletzt habe ich hier immer was von 384 Bit gelesen... ;)
dargo
2009-01-04, 22:34:24
Ein 256bit-SI+GDDR5 beim Nachfolger des GT200 wird schon länger (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6433967#post6433967) vermutet.
Sind 160GB/s (2,5Ghz GDDR5) nicht ein bissel wenig für den Nachfolger? Wobei noch geklärt werden müsste ob 2,5Ghz dann schon "massentauglich" sind. Wären da 320/384Bit@1,28/1,5GB Vram nicht sinnvoller?
KonKorT
2009-01-04, 22:40:57
Bandbreite ist genügend da, wenngleich ich nicht bestreiten würde, dass mit einem 384 Bit breitem Speicherinterface die Performance noch einmal ein Tick höher wäre. Aber es liegt offensichtlich nicht mehr im Kosten/Nutzenfaktor.
Denk mal an den G70 zurück. Die 7800 GTX kam seinerzeit mit weniger als 10% mehr Speicherbandbreite als 6800 Ultra und war durch diverse Optimierungen und mehr Pixelpipelines etc. flott unterwegs. Bei ATI lässt sich gut der RV670 ausgraben. Halb so großes Speicherinterface wie R600 und dennoch wird es bis heute nicht vermisst.
Damit dürfte auch feststehen, dass es erneut 1024 MiB Texturspeicher werden.
LovesuckZ
2009-01-04, 22:48:14
Weder der rv670 noch der G70 haben 64/80/96 Textureinheiten. Man sieht sehr schön am G92 und G94, dass Bandbreite ein sehr limitierender Faktor sein kann.
dargo
2009-01-04, 22:57:11
Bandbreite ist genügend da, wenngleich ich nicht bestreiten würde, dass mit einem 384 Bit breitem Speicherinterface die Performance noch einmal ein Tick höher wäre. Aber es liegt offensichtlich nicht mehr im Kosten/Nutzenfaktor.
Mit 160GB/s imo sicherlich nicht. Ich habe hier allerdings keine Ahnung wie weit GDDR5 ist. Wenn man da locker 3Ghz Chips anbieten kann sieht die Sache schon etwas anders aus. Aber selbst damit hätte man die Bandbreite "nur" um ~36% erhöht (192 vs. 140,8GB/s). Ich denke es werden mindestens 320Bit (eher 384) sein.
Denk mal an den G70 zurück. Die 7800 GTX kam seinerzeit mit weniger als 10% mehr Speicherbandbreite als 6800 Ultra und war durch diverse Optimierungen und mehr Pixelpipelines etc. flott unterwegs.
Man könnte aber auch andere Beispiele an Land ziehen - die Speicherbandbreite wurde beim GT200 um ~63% gegenüber dem G80 erhöht.
Sorkalm
2009-01-04, 23:03:26
Mit 160GB/s imo sicherlich nicht. Ich habe hier allerdings keine Ahnung wie weit GDDR5 ist. Wenn man da locker 3Ghz Chips anbieten kann sieht die Sache schon etwas anders aus.
160 GB/s sollten aber genug sein für einen Performance-Chip. Aktuell liegt man noch unter 80 GB/s (G92), weniger als die Hälfte. Daran sieht man auch, dass für die Ausführungseinheiten schon genug ankommt. Im Einsatzbereich High-End könnte es zwar knapper werden, wie damals wohl auch, aber für den wird man wohl eh wieder eine GX2 zusammenpappen (geht mit einem GT212 auch viel besser - bzw. kostenverträglicher - als mit einer GT206) und dann geht das auch.
Aber zu guter Letzt: 2500 MHz wird schon etwas länger angeboten, mal schauen wie das in einigen Monaten nochmal aussieht. Und man braucht ja auch nicht für alle Produkte den schnellsten Speicher.
Vergleicht man mal mit einer 9800 GT: Ein ähnliches Produkt dürfte dann wohl den 2 GHz GDDR5-Speicher bekommen. Das der Mainstream ist, sieht man an der 4870...
AffenJack
2009-01-04, 23:05:41
http://www.xtremesystems.org/forums/showthread.php?t=213276
In the second half of the year, the mobile GPUs will transition entirely to the 40 nanometer fabrication and will be based on the upcoming GT21x architecture. In the Enthusiast lineup, the top end product SKU will be a GTX card with the 40nm N10E which is based on GT212 architecture. In addition, the rest of the Enthusiast product range will be prefixed as GT, GS, and GE and will be based on GT215 architecture. Additionally, the Performance segment cards will contain the prefixes GS, NS, GE, and GLM and will be powered by the 40nm N10P based on GT216 architecture. Finally, the Mainstream segment cards will contain the prefixes GS and GE and will be powered by the 40nm N10M based on GT218 architecture.
Wenn nen notebookableger von gt212 kommen sollte, muss das ding eigentlich nen halbwegs moderaten verbrauch haben, sonst schafft mans doch selbst mit ner abgespeckten variante kaum das ding notebooktauglich zu machen
reunion
2009-01-04, 23:05:47
Weder der rv670 noch der G70 haben 64/80/96 Textureinheiten. Man sieht sehr schön am G92 und G94, dass Bandbreite ein sehr limitierender Faktor sein kann.
Man sieht aber am GT200 auch, dass mehr als die doppelte Bandbreite eines G92 bei weitem nicht die doppelte Leistung bringt. Also so sehr bandbreitenlimitiert kann ein G92 auch nicht sein.
Sorkalm
2009-01-04, 23:12:04
Wenn nen notebookableger von gt212 kommen sollte, muss das ding eigentlich nen halbwegs moderaten verbrauch haben, sonst schafft mans doch selbst mit ner abgespeckten variante kaum das ding notebooktauglich zu machen
Kann man sicher mit G92 vergleichen (wieder mal :D ), davon gibts ja auch Notebookableger.
LovesuckZ
2009-01-04, 23:14:49
Man sieht aber am GT200 auch, dass mehr als die doppelte Bandbreite eines G92 bei weitem nicht die doppelte Leistung bringt.
Gegenüber dem G94 schon. ;)
Irgendwas limitiert ziemlich im Design. Der G92 kann nicht annährend seine Leistung ausspielen (Vergleich 9600gt und 8800GTS-512).
deekey777
2009-01-05, 01:43:15
...
Da bin ich anderer Meinung. Wenn es den GeForces derzeit an irgendwas mangelt, dann an ALU-Leistung.
Wenn der Shadertakt diesmal vernünftig (hoch) ausfällt, müsste die Shaderleistung stimmen.
Annahme: Shadertakt ist 1,6 GHz. Bei 12*32*2 FLOP*1,6 GHz wären wir über 1,2 TFLOPs (MADD-Leistung).
Sind 160GB/s (2,5Ghz GDDR5) nicht ein bissel wenig für den Nachfolger? Wobei noch geklärt werden müsste ob 2,5Ghz dann schon "massentauglich" sind. Wären da 320/384Bit@1,28/1,5GB Vram nicht sinnvoller?
Erinnerst du dich, als du mir beweisen wolltest, dass der G92 nicht bandbreitenlimitiert ist, indem du Crysis auf deiner 8800GTS (?) mit deutlich niedrigem Speichertakt laufen ließ? ;)
Die Bandbreite wird in kommenden Spielen mehr und mehr in den Hintergrund rücken, wenn die Shaderlast mehr und mehr steigt. Es ist aber auch die Frage des Gleichgewichts.
Ailuros
2009-01-05, 07:04:45
Wie Solkam aber bereits schrieb, gingen die meisten hier zuletzt eher von 384 Bit SI aus - von daher schon eine Überraschung.
Weil wenige die GDDR5 Speicherpreise einschaetzen konnten; selbst bei nur einer moderaten Bandbreitensteigerung im Vergleich zu GT200 ist der benoetigte Speicher fuer 4*64 nicht gerade billig.
Ailuros
2009-01-05, 07:16:18
Wenn der Shadertakt diesmal vernünftig (hoch) ausfällt, müsste die Shaderleistung stimmen.
Annahme: Shadertakt ist 1,6 GHz. Bei 12*32*2 FLOP*1,6 GHz wären wir über 1,2 TFLOPs (MADD-Leistung).
Bzw. ~1.8 TFLOPs. Auf Radeons wird auch jeder Sch**ss mitgerechnet und wir koennen locker auf dem theoretischen Maximum bleiben, da diese Zahlen sowieso nur zur Theorie dienen.
Die Bandbreite wird in kommenden Spielen mehr und mehr in den Hintergrund rücken, wenn die Shaderlast mehr und mehr steigt. Es ist aber auch die Frage des Gleichgewichts.
Arithmetik braucht auch Bandbreite und einen sehr fetten Batzen dazu noch wenn man so gemein ist und das ganze mit Antialiasing bewundern will. Die Bandbreite skaliert nach wie vor auf GPUs, daran wird sich nichts besonderes aendern.
Dass in letzten Jahren Arithmetik am staerksten skaliert sollte klar sein, aber das heisst nicht dass Bandbreite in den Hintergrund rueckt. Es wird auch nicht langfristig bei 256-bit bleiben.
Gegenüber dem G94 schon. ;)
Irgendwas limitiert ziemlich im Design. Der G92 kann nicht annährend seine Leistung ausspielen (Vergleich 9600gt und 8800GTS-512).
Eine Performance GPU entwickelt man um Leistung X in bis zu Aufloesungen Y erreichen zu koennen. Fuer seine Zeit hatte G92 genug Bandbreite und Speicher fuer "Y" Aufloesungen. GT212 ist afaik aber nicht als Performance GPU gedacht.
reunion
2009-01-05, 10:07:35
Bzw. ~1.8 TFLOPs. Auf Radeons wird auch jeder Sch**ss mitgerechnet und wir koennen locker auf dem theoretischen Maximum bleiben, da diese Zahlen sowieso nur zur Theorie dienen.
Was wird denn auf den Radeon alles für Scheiss mitgerechnet? Es werden auch nur MADDs gezählt.
Spasstiger
2009-01-05, 10:33:36
Wenn der GT212 wirklich nur ein 256-Bit-SI haben sollte, müssen sie aber imo die ROP-Anzahl auf 32 verdoppeln. Denn wie man am G80 und am G92 sehen kann, ist die Pixelfüllrate durchaus wichtig für die Performance.
Man schaue sich z.B. die 9600 GT 512 MiB und die 8800 GTS 640 MiB (G80) an:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/24/#abschnitt_performancerating_qualitaet
Die GeForce 9600 GT ist stets um 5-10% schneller als die 8800 GTS 640 MiB.
Dabei hat die 9600 GT von den theoretischen Daten her nur in einem Punkt einen Vorteil, nämlich in der Pixelfüllrate.
9600 GT vs. 8800 GTS 640 MiB (G80)
Shaderleistung: 312 GFlops vs. 346 GFlops => 11% Vorteil für 8800 GTS
Texelfüllrate: 20,8 GTexel/s vs. 24,0 GTexel/s => 15% Vorteil für 8800 GTS
Speicherbandbreite: 57,6 GB/s vs. 64,0 GB/s => 11% Vorteil für 8800 GTS
Speichermenge: 512 MiB vs. 640 MiB => Vorteil für 8800 GTS
Pixelfüllrate: 10,4 MPixel/s vs. 10,0 MPixel/s => 4% Vorteil für 9600 GT
Computerbase-Rating: 5-10% Vorteil für 9600 GT
Dabei spielt in diesem Test nichtmal der Vorteil durch PCIe 2.0 eine Rolle, weil mit einem PCIe-1.1-Board getestet wurde.
Eine Einheitenauslegung wie bei der 9600 GT scheint also bei der gegenwärtigen NV-Architektur sehr effizient zu sein. Die 9800 GTX+ kann sich z.b. trotz mehr als doppelt soviel Shaderleistung und Texelfüllrate mit aktivem AA und AF nur um 27%-46% vor der 9600 GT platzieren: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_grafikkarten_2008/19/#abschnitt_performancerating_qualitaet.
Auch die GTX 260 kann sich nicht entsprechend ihrem Rechenleistungsvorteil (130%) von der 9600 GT absetzen, der Vorteil entspricht eher dem Pixelfüllraten- und Speicherbandbreiten-Vorteil (60% bzw. 95%, im Ranking ~80%).
Meine Abschätzung ergibt folgendes Ranking für die verschiedenen GT212-Varianten, wenn man jeweils die Taktraten der GTX 285 und 1,25 GHz (5 Gbps pro Pin) schnellen GDDR5-Speicher annimmt:
9600 GT: 35%
8800 Ultra: 64%
Radeon HD 4870 1024 MiB: 72%
GTX 280: 91%
GTX 285: 100%
GTX 295: 145%
GT212, 384 SPs, 96 TMUs, 384 Bit SI, 24 ROPs: 117%
GT212, 384 SPs, 96 TMUs, 256 Bit SI, 32 ROPs: 116%
GT212, 384 SPs, 96 TMUs, 256 Bit SI, 16 ROPs: 96%
D.h. in meinem Modell scheint ein 256-Bit-SI mit GDDR5 tatsächlich zu reichen. Aber 32 ROPs sollten es dann schon sein, um die GTX 285 zu überflügeln.
Und wenn ich eine doppelt so starke Shaderlastigkeit ansetze, ergibt sich folgendes Bild:
9600 GT: 34%
8800 Ultra: 62%
Radeon HD 4870 1024 MiB: 81%
GTX 280: 90%
GTX 285: 100%
GTX 295: 146%
GT212, 384 SPs, 96 TMUs, 384 Bit SI, 24 ROPs: 124%
GT212, 384 SPs, 96 TMUs, 256 Bit SI, 32 ROPs: 123%
GT212, 384 SPs, 96 TMUs, 256 Bit SI, 16 ROPs: 104%
Auch in diesem Fall scheint die Lösung mit einem 256-Bit-GDDR5-SI und 32 ROPs am Attraktivsten zu sein.
=Floi=
2009-01-05, 11:09:12
weil für 3d rendering die ROPs (und deren takt) zählen und davon hat die 9600GT eben 16 stück. Aktuell ist die 9600GT noch schnell, aber je mehr sie gefordert wird, desto mehr verliert sie.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_grafikkarten_2008/3/#abschnitt_3dmark_vantage
edit
würde es eine 9800GTX+ mit 768mb vram, 24 ROPs und 384 bit SI geben, dann könnten man damit wohl sogar noch eine 4870er attakieren und der G80 wäre längst enttrohnt.
edit2
der g92 geht schon noch höher
http://geizhals.at/deutschland/a349931.html
Spasstiger
2009-01-05, 11:41:09
würde es eine 9800GTX+ mit 768mb vram, 24 ROPs und 384 bit SI geben, dann könnten man damit wohl sogar noch eine 4870er attakieren und der G80 wäre längst enttrohnt.
Es gibt eine 8800-Ultra-Variante, die so hoch taktet wie die 9800 GTX. Diese dürfte einer HD 4870 und auch einer GTX 260 definitiv das Leben schwer machen:
Leadtek 8800 Ultra Leviathan (http://www.pcgameshardware.de/?article_id=605363)
War vor ein paar Wochen bei Alternate für 170€ im Angebot.
Es gibt eine 8800-Ultra-Variante, die so hoch taktet wie die 9800 GTX. Diese dürfte einer HD 4870 und auch einer GTX 260 definitiv das Leben schwer machen:
Leadtek 8800 Ultra Leviathan (http://www.pcgameshardware.de/?article_id=605363)
War vor ein paar Wochen bei Alternate für 170€ im Angebot.
Zu einer richtig schnellen 9800 GTX+ fehlt da aber noch ein bischen Takt. Die gibt es bis: Chiptakt: 792MHz, Speichertakt: 1152MHz, Shadertakt: 1970MHz.
http://geizhals.at/deutschland/a349931.html
Eine realistische 9800 GTX+ mit 24 ROPs und 384 bit SI auf 850Mhz Chip, 2000Mhz Shader und 1250Mhz Speicher würde da mal so richtig abgehen! Sie würde mit ~45% mehr Power als eine 8800GTX eine HD 4870 und eine GTX 260 (192SP) hinter sich lassen und knapp hinter einer GTX 260 (216SP) liegen!
In welchen Preisbereich wird den die heute angekündige GT212 Grafikkarte (GT215, GT216 und GT218) sein ?
http://www.3dcenter.org/news/2009-01-05
Spasstiger
2009-01-05, 16:36:43
In welchen Preisbereich wird den die heute angekündige GT212 Grafikkarte (GT215, GT216 und GT218) sein ?
http://www.3dcenter.org/news/2009-01-05
Mit knapp 300 mm² Chipfläche beim GT212 + 256-Bit-SI + 1 GiB GDDR5 könnte NV evtl. den Preisbereich um 300$ anpeilen. Aber bis zum Release von GT212-Karten kann es durchaus noch 5-6 Monate dauern, bis dahin wird auch die GTX 285 in dieser Preisregion liegen.
Ist eigentlich schon geklärt, ob NV die SI-Breite je ROP-Partition halbiert? Würde der Performance auf jeden Fall gut tun und man könnte dann auch Karten mit 224-Bit-SI und 896 MiB VRAM anbieten als Nachfolger der GTX 260.
AnarchX
2009-01-05, 16:48:34
Ob 300mm² für zusätzliche 144SPs und 16 TMUs und wohl möglich zusätzliche 18 DP ALUs reichen ist imo doch sehr fraglich.
Immerhin sollte ja GT200 @ 40nm schon bei min. 236mm² liegen, wenn man die optimale Transistordichte von 65 auf 40nm von TSCM hernimmt - 2,43.
Zudem darf wohl auch der Die nicht zu klein werden, wenn man entsprechend hohe Taktraten anzielt:
http://www.altera.com/literature/wp/wp-01058-stratix-iv-40nm-process-node-custom-logic-devices.pdf
Ist eigentlich schon geklärt, ob NV die SI-Breite je ROP-Partition halbiert? Würde der Performance auf jeden Fall gut tun und man könnte dann auch Karten mit 224-Bit-SI und 896 MiB VRAM anbieten als Nachfolger der GTX 260.
32-Bit RPs wären defininitv interessant, auch bei den kleinen Karten könnte man da doch interessant skalieren.
Aber eine Bestätigung gibt es dazu noch nicht, zumal fraglich ist ob GT212 in der maximalen Ausbaustufe wirklich nur 256-Bit hat, was nicht ganz zu NVs bisheriger SKU-Politik passt.
Weiterhin bräuchte man für GTX 28x Bandbreiten mit den teuersten GDDR5.
reunion
2009-01-05, 16:48:41
Mit knapp 300 mm² Chipfläche beim GT212 + 256-Bit-SI + 1 GiB GDDR5 könnte NV evtl. den Preisbereich um 300$ anpeilen. Aber bis zum Release von GT212-Karten kann es durchaus noch 5-6 Monate dauern, bis dahin wird auch die GTX 285 in dieser Preisregion liegen.
Den Preisbereich um $200-$300 peilt AMD mit ihren 205mm² Refresh-Chip an, aber wäre ja nicht das erste mal das NV das größere Die hat.
Ist eigentlich schon geklärt, ob NV die SI-Breite je ROP-Partition halbiert? Würde der Performance auf jeden Fall gut tun und man könnte dann auch Karten mit 224-Bit-SI und 896 MiB VRAM anbieten als Nachfolger der GTX 260.
Mehr als ein MC pro 64-bit ist IMO zu teuer für den erbrachten Nutzen. Die Unterteilung in je 64-bit hat sich etabliert. AMD hatte zwar kurzzeitig bei R5xx eine 32-bit Unterteilung, das aber mittlerweile wieder aufgegeben.
dargo
2009-01-05, 17:14:01
160 GB/s sollten aber genug sein für einen Performance-Chip.
Für einen Performance-Chip locker. Ich dachte aber deekey777 meinte hiermit:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7017721&postcount=965
den Nachfolger vom GT200, sprich einen neuen High-End Chip.
Sorkalm
2009-01-05, 17:17:17
Vll. ist da in dem Posting von deekey777 schon der GT300 gemeint (weil GT212 gar nicht der direkte Nachfolger des GT200 ist -> anderes Marktsegment). Aber das ist auch schon relativ alt, keine Ahnung wo das herkommt. ;)
dargo
2009-01-05, 17:24:52
Erinnerst du dich, als du mir beweisen wolltest, dass der G92 nicht bandbreitenlimitiert ist, indem du Crysis auf deiner 8800GTS (?) mit deutlich niedrigem Speichertakt laufen ließ? ;)
Ja, richtig. Ich würde aber eher sagen der G92 war gut ausbalanciert was Rohleistung und Speicherbandbreite angeht. Das soll nicht heißen, dass mehr Bandbreite nichts mehr bringt. Man muss halt einen guten Kompromiss zwischen Kosten und Nutzen finden.
Die Bandbreite wird in kommenden Spielen mehr und mehr in den Hintergrund rücken, wenn die Shaderlast mehr und mehr steigt. Es ist aber auch die Frage des Gleichgewichts.
Das mit der steigender Anforderung an arithmetischer Leistung in zukünftigen Games höre ich schon seit dem G80. Für mich ist die CryEngine2 nach wie vor das Maß der Dinge wo noch dringend GPU-Leistung benötigt wird. Allerdings nicht nur die arithmetische Leistung. Das Verhältnis zwischen Shaderleistung und Texturleistung Pixelfüllrate liegt bei Crysis in etwa bei 50 zu 50.
Spasstiger
2009-01-05, 17:25:02
Mehr als ein MC pro 64-bit ist IMO zu teuer für den erbrachten Nutzen. Die Unterteilung in je 64-bit hat sich etabliert. AMD hatte zwar kurzzeitig bei R5xx eine 32-bit Unterteilung, das aber mittlerweile wieder aufgegeben.
Mit GDDR5 könnte die 32-Bit-Unterteilung aber wieder attraktiv werden. Ich schätze auf einen Leistungsvorteil von 20% durch 32 statt 16 ROPs an einem 256-Bit-SI im Fall des GT212. Und 20% mehr Chipfläche werden 16 zusätzliche ROPs ganz sicher nicht kosten.
Unter 300mm² und das mit 1,8Milliarden+ Transistoren, wer glaub den noch an den Weihnachtsmann?
pervert
2009-01-05, 17:33:40
Vll. ist da in dem Posting von deekey777 schon der GT300 gemeint (weil GT212 gar nicht der direkte Nachfolger des GT200 ist -> anderes Marktsegment). Aber das ist auch schon relativ alt, keine Ahnung wo das herkommt. ;)
Ähm und welcher Chip ist dann bitte der Nachfolger des GT200? Also 256bit wären doch wirklich eine Enttäuschung. Ich kann das kaum glauben, jedenfalls nicht für den schnellsten Einzelchip bis zum GT300.
Ich hatte eigentlich immer gehofft die nächste High End Single-Karte kommt mit 384bit DDR5/1.5GB.
=Floi=
2009-01-05, 17:35:18
wenn ailurus 384bit si und 24 rops @ 96 tmus sagt, dann wird das schon passen.
Spasstiger
2009-01-05, 17:50:13
wenn ailurus 384bit si und 24 rops @ 96 tmus sagt, dann wird das schon passen.
In meiner Simulation wäre ein 256-Bit-SI @ GDDR5 mit 32 ROPs praktisch gleichschnell wie ein 384-Bit-SI @ GDDR5 mit 24 ROPs. Da klingt das 256-Bit-SI für mich realistischer.
Der Aufwand für 32 statt 16 ROPs ist deutlich geringer als der Aufwand für ein 384-Bit-SI statt einem 256-Bit-SI, gerade wenn man GDDR5-Chips verwendet.
/EDIT: Ich hab mir mal den Flächenverbrauch der einzelnen Funktionsgruppen auf einem GT200 @ 65 nm genauer angeschaut mithilfe der zwei folgenden Grafiken/Dieshots:
http://www.expreview.com/img/news/2008/05/30/gt200cjzo7.jpg
http://img260.imageshack.us/img260/6281/1044454291c8f6arx7.jpg
Diese ungefähren Flächenanteile habe ich dabei ermittelt:
240 Shader Prozessoren + 30 DP-ALUs: 39%
80 Textureinheiten: 16%
32 ROPs: 8%
Setup/Raster: 2%
Thread Scheduler: 4%
512-Bit-Speichercontroller: 15%
Rest (Interconnects, Terminierungen, Filternetzwerke etc.): 16%
Rechnet man nun um auf einen GT212 @ 65 nm ergibt sich folgendes:
384 SPs + 48 DP-ALUs: 62%
96 Textureinheiten: 19%
16/32 ROPs: 4%/8%
Setup/Raster: 2%
Thread Scheduler: 6-7%
256-Bit-Speichercontroller: 7-8%
Rest: 16-20%
Gesamt: 116-126%
Runtergerechnet auf 40 nm ergibt sich bei dem von TSCM angegebenen Faktor 2,43 eine Fläche von 48%-52% des GT200.
Also zwischen 276 mm² und 300 mm².
Abschließend nun die Eckdaten, die ich für realistisch halte:
384 SPs, 48 DP-ALUs, 96 TMUs, 32 ROPs, 256-Bit-GDDR5-SI, ~292 mm² Diefläche
KonKorT
2009-01-05, 18:31:40
Unter 300mm² und das mit 1,8Milliarden+ Transistoren, wer glaub den noch an den Weihnachtsmann?
Durch den Wechsel von 55 auf 40 nm verringert sich die theoretische Chipfläche um beinahe die Hälfte (Faktor 0,5008). Insofern sollten die 300 mm² bei 1,8 Millarden machbar sein.
Und 20% mehr Chipfläche werden 16 zusätzliche ROPs ganz sicher nicht kosten.
In der Tat. ROPs sind saugünstig. Ob 16 oder 32 ROPs würde das Transistorbudget um weniger als 5% belasten.
wenn ailurus 384bit si und 24 rops @ 96 tmus sagt, dann wird das schon passen.
Sagt Ailuros das denn immer noch? Post 978 sieht mir nicht danach aus. Aber warten wir es ab.
robbitop
2009-01-05, 19:05:21
Man könnte durch Reduktion von Redundanz und Dingen wie den DP-ALUs schon geringe DIE Sizes einfahren. Geht man von der Packdiche des G80 bei 90 nm aus und schaut auf das Verhältnis von Anzahl Ausführungseinheiten zur Transistoranzahl, könnte ein solcher GT212 (12x Cluster mit je 32 SPs und 8 TMUs, 256 bit GDDR5, aufgebohrtes Trisetup) mit 1,5 Mrd Transistoren bei ca. 240 mm^2 im Bereich des Möglichen liegen.
So kann man mit brauchbaren Margen das Midrangesegment befeuern und mit einer GX2 Karte das High End Segment.
Das versucht NV ja derzeit auch, nur brechen die Margen aufgrund der großen Kerne und SIs dabei böse ein. Im Prinzip macht man es ATI dann gleich.
Das ergibt alles für mich Sinn.
Was die ROPs angeht: Da müsste man mal genauere Untersuchungen vornehmen. Also die Dinger haben dermaßen Z Leistung, Pixelfüllrate, Stencilfüllrate, Blendingleistung, dass das schon für die Bandbreite überdimensioniert ist. Ich denke eher, dass es eine Wechselwirkung zwischen dem sehr schmalen Trisetup und den ROPs ist.
horn 12
2009-01-05, 19:15:05
Wie schnell würde dann die beste GTX 212 in etwa, ca. GTX 280 +25% Mehrleistung oder gar weit darüber..?
KonKorT
2009-01-05, 19:21:27
Ich denke, dass wird sehr anwendungsspezifisch sein, aber in shaderintensiven Anwendungen sind schon 50% Mehrleistung zu erwarten, wenn die Bandbreite nicht limitiert.
Man spekuliert ja auch mit höheren Taktraten an Chip, Shader und Speicher... schwer so früh, zu sagen. :)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.