Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kommende GeForce 200 - Teil 2
Well now, we can finally say that in Q4 Nvidia plans to ship many GT200 55nm CPUs and it looks like they will silently replace the old 65nm parts.
Most new GTX 260 with 216 Shaders and upcoming GTX 280 will be based on the new 55nm chips but it looks that Nvidia does have a plan to increase the speed on the new products. Retail products based on 55nm chips are yet to be ship but we expect them in early December.
Quelle (http://www.fudzilla.com/index.php?option=com_content&task=view&id=10473&Itemid=34)
X.Perry_Mental
2008-11-14, 14:23:16
Well now, we can finally say that in Q4 Nvidia plans to ship many GT200 55nm CPUs and it looks like they will silently replace the old 65nm parts.
Most new GTX 260 with 216 Shaders and upcoming GTX 280 will be based on the new 55nm chips but it looks that Nvidia does have a plan to increase the speed on the new products. Retail products based on 55nm chips are yet to be ship but we expect them in early December.
Dann hätte man also drei unterschiedliche 260er (192SP, 216SP und 216SP "jetzt mit noch mehr MHz") und zwei unterschiedlich getaktete 280er im Angebot. Andererseits hat man den G92 zu jedem Vollmond umbenannt. Wer ist bei nVidia eigentlich für die Produktnamen zuständig?
Also das die alten G200a nach dem G200b auslaufen dürfte ja wohl klar sein, also wird es nach wie vor 2 Modelle geben, oder drei je nach dem GX2...
und wo ist eigentlich genau das Problem bei 5 Modellen? In der CPU Welt wären 5 Verschiedene CPUs mit dem gleichen Core sogar recht wenig, da hat man meistens 20-40 Versionen und da jammert auch kein Mensch rum...
warum ein Singlekarte an einer MultiGpuKarte messen?
Weil 98,37 Prozent der zockenden Bevölkerung nur die Zahl der Fps und nicht deren Qualität interessiert. Und quantitativ liefert die X2 meist mehr als die GTX 280.
MfG,
Raff
Drei GTX260 mit unterschiedlicher Leistung finde ich schon gewöhnungsbedürftig. Der Vergleich mit den CPUs hinkt, da hier trotz gleichem Core innerhalb einer Baureihe eine eindeutige Typenbezeichnung vorhanden ist.
[fu]121Ah
2008-11-14, 16:00:24
Drei GTX260 mit unterschiedlicher Leistung finde ich schon gewöhnungsbedürftig. Der Vergleich mit den CPUs hinkt, da hier trotz gleichem Core innerhalb einer Baureihe eine eindeutige Typenbezeichnung vorhanden ist.
jop, NV leistet sich da ne menge... in anderen geschäftsbereichen würde man verklagt... eigentlich ein wunder dass noch kein ami kam der sagte: "heh, ich hab eine 260er gekauft, jetzt will ich auch die 216 shaders"
Weil 98,37 Prozent der zockenden Bevölkerung nur die Zahl der Fps und nicht deren Qualität interessiert.
Nicht schlecht, hast du schon ganz schön Arbeit geleistet. ;)
Und quantitativ liefert die X2 meist mehr als die GTX 280.
Aber nicht mehr als doppelt so viel, sondern vielleicht 50% mehr, ein großer Teil der GFLOPs wird schon dank CF ins Klo gespült.
Mit 715 GFOPs kann die GTX 260 gut mit der 4870 und deren theoretischen 1200 GFLOPs mithalten.
Daher verstehe ich nicht den Sinn, 2400 GFLOPs 1zu1 mit 933GFLOPs gleichzusetzen.
Ailuros
2008-11-14, 18:44:03
warum ein Singlekarte an einer MultiGpuKarte messen?
Weil ich auf einen Text antwortete der komischerweise 3.6TFLOPs erwaehnte? Oder glaubst Du allen ernstes dass so viel hypothetische FLOPs nur aus einem zukuenftigen AMD chip schiessen werden?
Mit 715 GFOPs kann die GTX 260 gut mit der 4870 und deren theoretischen 1200 GFLOPs mithalten.
Daher verstehe ich nicht den Sinn, 2400 GFLOPs 1zu1 mit 933GFLOPs gleichzusetzen.
Dann nochmal meine vorige Frage falls es leichter zu verstehen sein sollte:
Momentan liegt das Verhaeltnis zwischen GT200 und 4870X2 bei 933 vs. 2400 GFLOPs. Ergo muss NV einen um einiges hoeheren Anstieg als 50% anzielen. Steht es im Raum des moeglichen oder nicht?
Rein theoretisch wenn alle vorigen Thesen stimmen sollten:
384*3*1.3GHz = 1.5TFLOPs (+61% im Vergleich zu GT200)
384*3*1.5GHz = 1.7TFLOPs (+82% im Vergleich zu GT200)
Ein "worst case" und ein "best case scenario". Ergo falls die 384 SPs stimmen sollten, sieht es danach aus als ob NV mit GT21x0 in einem besseren Verhaeltnis zu RV870 stehen koennte als GT200 zu RV770. Garantiert ist es natuerlich nicht, aber bis zum GT3x0 sehe ich persoenlich kein besonderes Licht im Tunnel fuer NVIDIA (und zum letzteren will ich noch nichts sagen... :P )...
Ob man bei 1,5 GHz Shaderdomain wirklich schon von Best-Case sprechen kann? Eher von Expected-Case. ;)
Ailuros
2008-11-14, 19:19:04
Ob man bei 1,5 GHz Shaderdomain wirklich schon von Best-Case sprechen kann? Eher von Expected-Case. ;)
Glaub mir 1.296 war auch kein "expected case" fuer GT200.
Sorkalm
2008-11-14, 19:32:01
Hmm, Theo Valich hat wohl inzwischen seinen eigenen Blog aufgemacht, in dem er jetzt berichtet ... erschreckend neutral für ihn (:|) ... hmm, jedenfalls schreibt er da (http://theovalich.wordpress.com/2008/11/11/55nm-gt206-gpu-powers-both-gtx290-and-quadro-fx-5800/):
GTX 260 and 280 both came with G200-200 and G200-300 chips, while GTX270 and 290 will feature G206-202 and G206-302 chips.
The 55nm GPU consumes roughly 50% less power than it was the case with 65nm one, and this difference is more than massive. When I did quick power checks, the GTX280 at 650/1500/2200 would eat around 266W, while the default clocked GTX280 (600/1300/2200) was specc’ed at 238W.
Well, the 55nm GPU will eat around 170W at 650/1500/2200, meaning that GTX290 just got 100W of power to play with.
Besides Quadro FX 4800 and 5800, the new 55nm GPU will also power GeForce GTX 270 and 290. Essentially, we’re talking about the same parts. Quadro FX 4800 is nothing more but GTX270 with double the amount of video memory, while Quadro FX 5800 is equal to GTX290, but with four times the video memory.
Das sind ja mal gute News. Ob damit die Preissenkung (News @ CB (http://www.computerbase.de/news/wirtschaft/unternehmen/nvidia/2008/november/nvidia_preissenkung_amd/)) für die GT200 Serie zu tun hat?
Weil ich auf einen Text antwortete der komischerweise 3.6TFLOPs erwaehnte? Oder glaubst Du allen ernstes dass so viel hypothetische FLOPs nur aus einem zukuenftigen AMD chip schiessen werden?
Achso, wenn AMDs nächster Doppelpack 2x 1,8GFLOPs bringt.
Das sind 50% mehr als jetzt.
Spasstiger
2008-11-15, 03:07:23
Jetzt wo dank der Quadro FX 5800 schon absehbar ist, dass der GT200b offenbar eine deutlich geringere Leistungsaufnahme haben wird als der GT200, glaubt ihr, dass Nvidia bei der GTX 290 dann auch deutliche Takterhöhungen gegenüber der GTX 280 vornehmen wird oder dass man den Kunden eher mit einer niedrigen TDP und einer geringen Lautstärke erfreut?
Vielleicht kommt die GTX 270 aus Kostengründen ja sogar im Single-Slot-Design, wenn die TDP entsprechend niedrig wird.
Eine GTX GX2 mit zwei vollen GT200b ist imo auch gar nicht mehr so abwegig, zumindest mit mäßigen Taktraten, ähnlich der GTX 260. Für die HD 4870 X2 würde dann die Luft sehr dünn werden, sie hätte nur noch den Preisvorteil, aber nicht mehr den Prestigevorteil.
Ailuros
2008-11-15, 07:09:05
Es gibt einen guten Grund der gegen jegliche GX2 unter 55nm spricht IMHLO. 2*480mm^2.
=Floi=
2008-11-15, 07:23:58
ist da wieder der io chip in den DIE gewandert?
edit
es ist eh besser, wenn der mist mit den zwei karten endlich aufhört ;D
die kühlkonstruktionen waren eh ALLE mist und sonst ist der vergleich mit den single karten auch immer unfair gewesen.
Schlammsau
2008-11-15, 09:22:58
Jetzt wo dank der Quadro FX 5800 schon absehbar ist, dass der GT200b offenbar eine deutlich geringere Leistungsaufnahme haben wird als der GT200, glaubt ihr, dass Nvidia bei der GTX 290 dann auch deutliche Takterhöhungen gegenüber der GTX 280 vornehmen wird oder dass man den Kunden eher mit einer niedrigen TDP und einer geringen Lautstärke erfreut?
Vielleicht kommt die GTX 270 aus Kostengründen ja sogar im Single-Slot-Design, wenn die TDP entsprechend niedrig wird.
Eine GTX GX2 mit zwei vollen GT200b ist imo auch gar nicht mehr so abwegig, zumindest mit mäßigen Taktraten, ähnlich der GTX 260. Für die HD 4870 X2 würde dann die Luft sehr dünn werden, sie hätte nur noch den Preisvorteil, aber nicht mehr den Prestigevorteil.
Die Leistungsaufnahme wird nicht deutlich sinken! Das haben wir erst kürzlich beim G92b (9800GT und 9800 GTX) gesehen. Nur nVidia wird aus dem GT200b Vorteile ziehen können, nämlich seine günstigere Herstellung!
Die Takterhöhung wird sich in Grenzen halten. Wennn es dann bei Nvidia nicht reicht, drehne die etwas am Takt, e voila irgendeine Karte mit + dahinter und alles ist gut.
MFG
Gast
James Ryan
2008-11-15, 10:07:39
Die Leistungsaufnahme wird nicht deutlich sinken! Das haben wir erst kürzlich beim G92b (9800GT und 9800 GTX) gesehen. Nur nVidia wird aus dem GT200b Vorteile ziehen können, nämlich seine günstigere Herstellung!
Du ziehst aus dem Vergleich G92 zu G92b die Schlussfolgerung, dass der G200b keine gesenkte Leistungsaufnahme hat? :|
Etwas seltsam oder?
MfG :cool:
Schlammsau
2008-11-15, 10:11:00
Du ziehst aus dem Vergleich G92 zu G92b die Schlussfolgerung, dass der G200b keine gesenkte Leistungsaufnahme hat? :|
Etwas seltsam oder?
MfG :cool:
Ich habe geschrieben...."keine deutlich niedrigere Leistungsaufnahme"!
Und eine deutlich niedrigere Leistungsaufnahme braucht der GT200b wenn er irgendwann mal auf einer GX2 verbaut werden soll.
Und eine deutlich niedrigere Leistungsaufnahme braucht der GT200b wenn er irgendwann mal auf einer GX2 verbaut werden soll.
0W Ersparniss würden reichen, sogar ein G200 könnte auf eine GX2.
Du kennts ja den Verbrauch der 4870, 4870 X2 und GTX 260.
Nur wäre das Doppelpack aus 2 GTX 260 nicht in der Lage die 4870 X2 entsprechend so massiv schlagen, wie nötig.
Megamember
2008-11-15, 11:08:03
Warum, wenn die 290GTX nurnoch 170W verbraten soll liegt die 270GTX (auf der ne GX2 wohl basieren soll) nochmal deutlich drunter (140/150???). Das ist dann weniger als ne einzelne 4870.
Edit: Zu spät.
So ne SLi Graka wäre zudem selbst wenn sie nur gleichziehen würde sehr interessant, da SLi meist besser lüppt und nur die wenigsten ein passendes SLi Board haben um 2 Nvidias überhaupt nutzen zu können.
Schlammsau
2008-11-15, 11:16:56
0W Ersparniss würden reichen, sogar ein G200 könnte auf eine GX2.
Du kennts ja den Verbrauch der 4870, 4870 X2 und GTX 260.
Nur wäre das Doppelpack aus 2 GTX 260 nicht in der Lage die 4870 X2 entsprechend so massiv schlagen, wie nötig.
0W Ersparniss wären ok? :|
Mal angenommen, nVidia würde 2 vollwertige GT200b (GTX 290?) in einer GX2 verbauen, dann habe ich 2x ~180W Verlustleistung. Und 2x 180 Watt sind 360Watt! Möchte mal wissen, wie sie das kühlen wollen.
http://www.xbitlabs.com/images/video/his-hd4870x2/His4870x2_power.gif
Einzig eine GX2 basierend auf dem Verbrauch von 2 GTX260² wäre noch vernünftig kühlbar, aber dann würde allenfalls ein Gleichstand zwischen der X2 und der GX2 enstehen.
0W Ersparniss wären ok? :|
Mal angenommen, nVidia würde 2 vollwertige GT200b (GTX 290?) in einer GX2 verbauen, dann habe ich 2x ~180W Verlustleistung. Und 2x 180 Watt sind 360Watt! Möchte mal wissen, wie sie das kühlen wollen.
http://www.abload.de/img/his4870x2_powerebru.gif
Einzig eine GX2 basierend auf dem Verbrauch von 2 GTX260² wäre noch vernünftig kühlbar, aber dann würde allenfalls ein Gleichstand zwischen der X2 und der GX2 enstehen.
Mal für dich eingerahmt, wenn du schon Probleme hast zu lesen. ;)
0W Ersparniss würden reichen, sogar ein G200 könnte auf eine GX2.
Du kennts ja den Verbrauch der 4870, 4870 X2 und GTX 260.
Nur wäre das Doppelpack aus 2 GTX 260 nicht in der Lage die 4870 X2 entsprechend so massiv schlagen, wie nötig.
AnarchX
2008-11-15, 12:12:44
Bei der Tesla 1060 gibt es ja ziemlich detailierte Infos:
* Number of processor cores: 240
* Processor core clock: 1.296 GHz
* Voltage: 1.1875 V
Board power 200 W maximum (160 W typical)
The Tesla C1060 is a performance-optimized, high-end board and utilizes power from the PCI Express connector as well as external power connectors.
The board can be used in two different ways.
* One 8-pin PCI Express power connector or
* Two 6-pin PCI Express power connectors
http://www.nvidia.com/docs/IO/55026/Tesla_C1060_boardSpec_v03.pdf
0W Ersparniss wären ok? :|
Mal angenommen, nVidia würde 2 vollwertige GT200b (GTX 290?) in einer GX2 verbauen, dann habe ich 2x ~180W Verlustleistung. Und 2x 180 Watt sind 360Watt! Möchte mal wissen, wie sie das kühlen wollen.
http://www.xbitlabs.com/images/video/his-hd4870x2/His4870x2_power.gif
Einzig eine GX2 basierend auf dem Verbrauch von 2 GTX260² wäre noch vernünftig kühlbar, aber dann würde allenfalls ein Gleichstand zwischen der X2 und der GX2 enstehen.
Wieso hat eine GTX290 genauso viel Watt wie eine GTX280? Von 180 ist man da ganz schnell auf 150Watt, und bis zu 300Watt sind ja erlaubt.
Die ATI X2 Kühler ist ja auch keine Meisterleistung, da geht noch einiges mehr, heatpipes, viel mehr Kupfer, etc.
300Watt (2x 150) kann Nvidia kühlen, locker.
=Floi=
2008-11-15, 12:38:06
NV sollte jetzt schon kupfer verbauen und die ganze kühlerkonstruktion noch mehr optimieren. ich hoffe auch der heatbug wird noch gefixt.
vor allem bei sli werden die karten lauter und ich würde mich freuen, wenn nv die karten noch wesentlich leiser machen würde.
Spasstiger
2008-11-15, 13:56:56
0W Ersparniss wären ok? :|
Mal angenommen, nVidia würde 2 vollwertige GT200b (GTX 290?) in einer GX2 verbauen, dann habe ich 2x ~180W Verlustleistung. Und 2x 180 Watt sind 360Watt! Möchte mal wissen, wie sie das kühlen wollen.
http://www.xbitlabs.com/images/video/his-hd4870x2/His4870x2_power.gif
Einzig eine GX2 basierend auf dem Verbrauch von 2 GTX260² wäre noch vernünftig kühlbar, aber dann würde allenfalls ein Gleichstand zwischen der X2 und der GX2 enstehen.
Die Quadro FX 5800 (GT200b) hat trotz höherem Chip- und Shadertakt und 3 GiB mehr VRAM als bei einer GTX 280 eine um 47 Watt niedrigere TDP.
Irgendwo hab ich mal bei Samsung was von 10 Watt pro 512 MiB GDDR3-RAM @ afair 900 MHz gelesen. Zieht man also 3 GiB VRAM von der Quadro FX 5800 ab und rechnet den höheren Speichertakt der GTX 280/290 drauf, wäre man bei rund 40-50 Watt Ersparnis gegenüber der Quadro FX 5800 bei sonst gleichen Taktraten, also einer TDP von unter 150 Watt. Eine GTX 270 sollte dann auf eine TDP von rund 100 Watt zu bringen sein. Und wenn man eine GX2 mit zwei vollwertigen GT200b baut mit gesenkten Taktraten gegenüber der GTX 290, sollte man auf eine TDP von 250 Watt oder weniger kommen (eine GX2 braucht weniger als zwei einzelne Boards).
AnarchX
2008-11-15, 14:07:59
Die Quadro FX 5800 (GT200b) hat trotz höherem Chip- und Shadertakt und 3 GiB mehr VRAM als bei einer GTX 280 eine um 47 Watt niedrigere TDP.
Das ist noch nicht ganz geklärt. NV gibt zwar 52GTex/s an, aber nur 300 MTri/s was auf 600MHz hindeutet und der Boardpartner Aopen gibt auch nur 610MHz an.
Aber auf jeden Fall scheint 55nm etwas gebracht zu haben: 180W TDP bei 1.19V und GTX 280-Taktraten sind jedenfalls eine Verbesserung:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6913558&postcount=276
=Floi=
2008-11-15, 14:18:55
mit unterteilten taktdomänen würde es aber so funktionieren.
Spasstiger
2008-11-15, 14:46:36
Aber auf jeden Fall scheint 55nm etwas gebracht zu haben: 180W TDP bei 1.19V und GTX 260-Taktraten sind jedenfalls eine Verbesserung:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6913558&postcount=276
Das sieht aber nach GTX-280-Taktraten aus.
Der 4 GiB große Speicher frisst auf jeden Fall mehr als die evtl. 10% höheren Taktraten.
Für Desktopkarten kann man bei gleicher Spannung sicherlich 50 Watt abziehen. Für den höheren Speichertakt der GTX 290 (mind. 1100 MHz statt 800 MHz) muss man aber natürlich wieder ein paar Watt draufrechnen.
Wenn die GTX 290 mit GTX-280-Taktraten kommt, sollte sie eigentlich mit einer TDP von 140-150 Watt auskommen ausgehend von den Quadro-Karten.
Ich vermute aber, dass Nvidia diesen Vorteil in deutlich höhere Taktraten ummünzt ähnlich wie es bei G71 vs. G70 war. Und eine GX2 könnte man mit GTX-260-Taktraten bringen.
Schlammsau
2008-11-15, 15:49:56
Mal für dich eingerahmt, wenn du schon Probleme hast zu lesen. ;)
nein du hast Probleme mit dem lesen! ;)
Ich habe was von vollwertigen GT200b geschrieben, ergo meinte ich den stärksten Chip. Weiter unten hab dann geschrieben, dass nur ein Chip mit den Verbrauchswerten einer GTX260 für eine GX2 in Frage kommen würde. Weil sonst die Leistungsaufnahme zu hoch wäre. Also ein GT200b, der mindestens so schnell wie der alte unbeschnittene GT200 ist, aber nur die Verbrauchswerte des beschnittenen GT200 hat. Alles andere wäre nicht stark genug um die X2 zu schlagen.
Spasstiger
2008-11-15, 16:18:36
nein du hast Probleme mit dem lesen! ;)
Ich habe was von vollwertigen GT200b geschrieben, ergo meinte ich den stärksten Chip. Weiter unten hab dann geschrieben, dass nur ein Chip mit den Verbrauchswerten einer GTX260 für eine GX2 in Frage kommen würde. Weil sonst die Leistungsaufnahme zu hoch wäre. Also ein GT200b, der mindestens so schnell wie der alte unbeschnittene GT200 ist, aber nur die Verbrauchswerte des beschnittenen GT200 hat. Alles andere wäre nicht stark genug um die X2 zu schlagen.
Ich gehe davon aus, dass der GT200b in kompletter Ausführung und bei GTX-280-Taktraten weniger frisst als der GT200 auf der GTX 260. Zumindest hat die Quadro FX 5800 trotz 4 GiB RAM, 240 Shadereinheiten und höherem Chip- und Shadertakt eine ähnliche TDP wie die GTX 260 (Quadro FX 5800 = 189 Watt, GTX 260 = 183 Watt).
pervert
2008-11-15, 16:43:13
Ich frage mich ob ATi im Falle einer sicher überlegenen GX2 von NV auch nochmals mit einer X2 auf RV790 Basis kontert...? Was tun die Firmen nicht alles (sinnloses) fürs Prestige, auch wenn die Zeit bis zur nächsten Generation knapp ist.
nein du hast Probleme mit dem lesen! ;)
Ich habe was von vollwertigen GT200b geschrieben, ergo meinte ich den stärksten Chip.
Du hast das geschrieben: (das du volle GT200 meinst hast du erst später bekannt gegeben)
Und eine deutlich niedrigere Leistungsaufnahme braucht der GT200b wenn er irgendwann mal auf einer GX2 verbaut werden soll.
Wo ist das Problem in 2 zusammengeklatschten GTX 270? Mehr Leistung als 2 GTX 260 bei gleichem Verbrauch.
Doch nur das du Angst hast das Bastellösung A Bastellösung B vom Thron reisst. :cool:
Man kann übrigens auch "volle GT200b" nehmen und niedrig takten, das hat schon die 7xx0 GX2 und 9800 GX2 vorgemacht. ;)
Spasstiger
2008-11-15, 17:15:35
Wenn eine GX2 kommt, dann wird sie die vollen Chips haben. Alles andere macht aus Sicht der Leistungsaufnahme und Abwärme keinen Sinn. Denn zwei breitere Chips mit niedrigerem Takt sind sparsamer als zwei schmälere Chips mit hohen Taktraten. Und die höheren Kosten für den breiteren Chip spielen beim Enthusiast-Produkt keine große Rolle, die Gewinnspanne ist groß genug. ;)
Sorkalm
2008-11-15, 17:24:59
Wär doch eh der selbe Chip (GT206). Die defekten kriegt man schon über das kleinere Modell weg, also das ist nun kein Argument. Nur teuer sind 2x 470 mm² trotzdem.
sklave_gottes
2008-11-15, 18:29:53
Ich Persöhnlich sehe das größte Problem weder im Stromverbrauch noch in der die größe. Sondern am meisten im PCB das einen externen 1024bit bus haben muss...
mfg martin
Ich gehe davon aus, dass der GT200b in kompletter Ausführung und bei GTX-280-Taktraten weniger frisst als der GT200 auf der GTX 260. Zumindest hat die Quadro FX 5800 trotz 4 GiB RAM, 240 Shadereinheiten und höherem Chip- und Shadertakt eine ähnliche TDP wie die GTX 260 (Quadro FX 5800 = 189 Watt, GTX 260 = 183 Watt).
Die FX5800 hat keine höheren Taktraten, die 4GB RAM benötigen auch nur doppelt so viele Speicherbausteine, zumal die Taktraten und auch die Spannung der Speicherchips niedriger ist. Und die 189W TDP sind auch falsch.
Manche scheinen hier offenbar zu glauben, dass der 55nm Prozess nach sicherlich schon einer Hand voll Chips wo er kaum was gebracht hat plötzlich Wunder bewirkt. Darauf, dass bei den Quadro- oder Tesla-Produkten ganz einfach stark selektiert wird scheint noch niemand gekommen zu sein.
Spasstiger
2008-11-15, 19:00:33
Die FX5800 hat keine höheren Taktraten
Klar hat sie einen höheren Chip- und Shadertakt als eine GTX 260. Es sind mindestens 610 MHz Chiptakt (siehe AOpen) und bis zu 1440 MHz Shadertakt (siehe Tesla-Specs).
Die GTX 260 hat einen Chiptakt von 575 MHz und einen Shadertakt von 1242 MHz.
AnarchX
2008-11-15, 19:01:33
Und die 189W TDP sind auch falsch.
Und was soll sonst die TDP sein?
Die dürfte wohl eher niedriger sein:
Maximum Power Consumption 189W
http://www.nvidia.com/object/product_quadro_fx_5800_us.html
Manche scheinen hier offenbar zu glauben, dass der 55nm Prozess nach sicherlich schon einer Hand voll Chips wo er kaum was gebracht hat plötzlich Wunder bewirkt. Darauf, dass bei den Quadro- oder Tesla-Produkten ganz einfach stark selektiert wird scheint noch niemand gekommen zu sein.
Tesla C1060 (GTX 280 GPU-Taktraten, 4GiB GDDR3) hat ebenso 1.18V GPU-Spannung wie die GTX 280, aber benötigt nur 2x6Pin bzw. 1x8Pin.
Ich sehe hier kein besondere Selektion, dafür müsste ja die Spannung niedriger liegen.
Hier (http://www.hardware-infos.com/news.php?news=2514) wird mit der Grundlage des Artikels von Theo Valich spekuliert, dass die GTX 290 mit 650/1500/1100 MHz taktet. Diese würde bedeuten, dass das Shader-TMU-Verhältnis bei rund 2,3 läge.
Damit hätte man nicht ganz die eigenen Erwartungen erfüllen können, aber auch schon deutlich besser als 2,15. ;)
Psychopat
2008-11-16, 14:20:34
Manche scheinen hier offenbar zu glauben, dass der 55nm Prozess nach sicherlich schon einer Hand voll Chips wo er kaum was gebracht hat plötzlich Wunder bewirkt. Darauf, dass bei den Quadro- oder Tesla-Produkten ganz einfach stark selektiert wird scheint noch niemand gekommen zu sein.
Es kann aber auch sein, dass der G200 nicht gerade ein thermisch optimales Design war und beim Shrink auf 55nm da noch erhebliches Verbesserungspotential da war. Ähnlich wie die 65nm Phenoms.
Aber grundlegend ausschließen, dass der G200b doch viel energieeffizienter ist als entsprechende andere Shrinks würde ich nicht
AnarchX
2008-11-16, 14:53:51
GT200 = [10*(3*8)]
GT21x = [1-12(4*8)]
Ich hab schon vor einiger Zeit gehoert dass die naechste "Generation" an IGPs 32SPs haben werden.
Unter diese Perspektive ist GT21x eine genauso "neue Architektur" wie GT200 im Vergleich zu G80.
Da man hoffentlich auch GDDR5 im H2 2009 setzt, dürften ja auch noch Veränderungen an den ROP-Clustern nötig sein, zudem wäre bei so einer weiteren Verschiebung in Richtung ALU auch endlich mal eine verbessertes Tri-Setup fällig, was für die Quadros wichtig ist und dem Consumer wohl eine bessere 8xMSAA-Performance bringen sollte.
GT212 mit wohlmöglich 384SPs, 96 TMUs, "16"/32 ROPs und 256-Bit GDDR5 dürfte wenn man von GT200s-Packdichte und einer möglichen Verbesserung dieser ausgeht, wohl unter 300mm² liegen und somit wie es auch die "2" am Ende des Codenames sagt eher eine Perfomance-GPU sein.
Mit vielleicht 700/1600/2500MHz aber auch eine ziemlich starke. :D
Zudem dürfte auf dieser Basis NV es auch möglich sein eine GX2 zu bauen, die dann wohl wieder etwas konservativer taktet.
G200B-GX2 mit 2x470mm² und >256-Bit finde ich eher zweifelhaft.
Alles in allem muss man sich ja auch ab H2 2009 gegen die neue Bedrohung entsprechend stark aufstellen - Larrabee.
Sorkalm
2008-11-16, 15:05:56
Hmm, unter 300 mm² ist schon eine relativ gewagte Aussage, ich würde ja um 300 mm² sagen, das erscheint mir realistischer und heißt ja auch nicht, dass es nicht doch unter 300 mm² werden. ;)
Hängt sicher auch davon ab, was man noch so alles mit den Shadern machen muss...
Und ich würde sogar sagen unter 400 mm² :D
256 Bit-Speicherinterface glaube ich allerdings nicht, 384 Bit sind deutlich wahrscheinlicher, dann bei 24 oder 48 ROPs und 1536 MiB Texturspeicher.
Sorkalm
2008-11-16, 15:19:29
Für eine Dual-Karte sollten doch 2x 1024 MiB dann noch reichen? Immerhin kommen die gerade erst noch auf den Markt. (siehe auch 9800 GX2)
Und auch für eine Dual-Karte sind 2x 256 Bit praktischer. ;)
reunion
2008-11-16, 16:04:03
Da man hoffentlich auch GDDR5 im H2 2009 setzt, dürften ja auch noch Veränderungen an den ROP-Clustern nötig sein, zudem wäre bei so einer weiteren Verschiebung in Richtung ALU auch endlich mal eine verbessertes Tri-Setup fällig, was für die Quadros wichtig ist und dem Consumer wohl eine bessere 8xMSAA-Performance bringen sollte.
GT212 mit wohlmöglich 384SPs, 96 TMUs, "16"/32 ROPs und 256-Bit GDDR5 dürfte wenn man von GT200s-Packdichte und einer möglichen Verbesserung dieser ausgeht, wohl unter 300mm² liegen und somit wie es auch die "2" am Ende des Codenames sagt eher eine Perfomance-GPU sein.
Mit vielleicht 700/1600/2500MHz aber auch eine ziemlich starke. :D
Zudem dürfte auf dieser Basis NV es auch möglich sein eine GX2 zu bauen, die dann wohl wieder etwas konservativer taktet.
G200B-GX2 mit 2x470mm² und >256-Bit finde ich eher zweifelhaft.
Unter 300mm² halte ich für etwas übertrieben, schon ein einfacher GT200-Shrink auf 40nm käme rein rechnerisch(!) auf ~218mm² - in der Praxis wohl eher >250mm². Zumal man ja auch wieder das NVIO-Ding integrieren muss, was schon bei G92 für eine ziemliche Aufblähung sorgte. Kleinere Überarbeitungen wird es wohl auch geben.
Bleibt die Frage was RV870 bringt. RV770 ist schon in 55nm relativ klein mit 256mm². Hier gibt es also massiv Platz dank 40nm.
Alles in allem muss man sich ja auch ab H2 2009 gegen die neue Bedrohung entsprechend stark aufstellen - Larrabee.
Larrabee wird im Profi-Markt sicher interessant, im Spielermarkt muss sich erst zeigen ob es Intel gelingt konkurrenzfähige Leistung und Treiber zu liefern.
Und auch für eine Dual-Karte sind 2x 256 Bit praktischer. ;)
Warum, werden doch eh 2 PCBs.
Sorkalm
2008-11-16, 18:02:27
Warum, werden doch eh 2 PCBs.
Nur weil das Nvidia immer gemacht hat, heißt das nicht, dass sie es immer noch machen werden. ;)
Bei höheren Anbindungen muss man aber auch wieder die Kosten im Auge behalten. Irgendwann sollen die Margen ja wieder vernünftig werden.
Nur weil das Nvidia immer gemacht hat, heißt das nicht, dass sie es immer noch machen werden. ;)
Klar, aber warum sollte auf Teufel komm raus die schwierigste Lösung angestrebt werden? ;)
Bei höheren Anbindungen muss man aber auch wieder die Kosten im Auge behalten. Irgendwann sollen die Margen ja wieder vernünftig werden.
Ach wenn man eine GTX 260 für 200€ los wird, dann wird man auch eine GX2 für 400€ - 500€ los. ;)
Sorkalm
2008-11-16, 18:54:11
Klar, aber warum sollte auf Teufel komm raus die schwierigste Lösung angestrebt werden? ;)
Weil die elementare Vorteile in Sachen Kühlung und Preisreduktion mit sich bringt.
Ach wenn man eine GTX 260 für 200€ los wird, dann wird man auch eine GX2 für 400€ - 500€ los. ;)
Der Preis von 200 Euro für eine GTX 260 war sicher nicht angestrebt.
Für eine Dual-Karte sollten doch 2x 1024 MiB dann noch reichen? Immerhin kommen die gerade erst noch auf den Markt. (siehe auch 9800 GX2)
Und auch für eine Dual-Karte sind 2x 256 Bit praktischer. ;)
Den GT212 wird es doch nicht als Dual-Variante geben?! ;) Eher den GT216, hier passen dann auch die 2x 256 Bit und 2x 1 GiB bei 256 SPs und 64 TMUs.
AnarchX
2008-11-16, 20:11:56
Warum sollte GT212 keine Basis für eine GX2 sein?
GT212 und mit 384SPs/96TMUs nicht wirklich eine High-End-GPU im H2 2009, erst recht nicht wenn ATi wieder mit RV870 die Preise drücken will.
btw.
Wenn GT212 = 384SPs/96TMUs, dann wohl:
GT214: 192SPs/48TMUs (192-Bit?) $79-150
GT216: 96SPs/24 TMUs (128-Bit) $50-79
GT218: 32SPs/8 TMUs (64-Bit) <$50
MCP88/8A: 32SPs/8TMU
Hallihallo, wann kommen denn nun die neuen Karten, noch dieses Jahr?
Spasstiger
2008-11-16, 21:00:41
Hallihallo, wann kommen denn nun die neuen Karten, noch dieses Jahr?
Vermutlich, die Quadros mit den neuen Chips sind ja schon raus.
Also wie es hiernach (http://theovalich.wordpress.com/2008/11/11/55nm-gt206-gpu-powers-both-gtx290-and-quadro-fx-5800/) aussieht, wird die GTX 290 dann möglicherweise so aussehen:
240 SPs, 80 TMUs (wie gehabt)
650 MHz Chiptakt
1500 MHz Shadertakt
1100 MHz Speichertakt
1024 MiB GDDR3-RAM, 512-Bit-SI
170 Watt TDP
~400€
Für die GTX 270 könnte ich mir dann folgende Specs vorstellen:
216 SPs, 72 TMUs
575 MHz Chiptakt
1300+ MHz Shadertakt
1000 MHz Speichertakt
896 MiB GDDR3-RAM, 448-Bit-SI
130 Watt TDP
~250€
Und als günstige Single-Slot-Lösung zur eventuellen Resteverwertungkönnte ich mir dann sogar eine GTX 250 vorstellen:
192 SPs, 64 TMUs
525 MHz Chiptakt
1200+ MHz Shadertakt
800 MHz Speichertakt
768 MiB GDDR3-RAM, 384 Bit-SI
90 Watt TDP
~180€
Und die GTX ... GX2:
2*240 SPs, 2*80 TMUs
575 MHz Chiptakt
1300+ MHz Shadertakt
1000 MHz Speichertakt
2*1024 MiB GDDR3-RAM, 2*512-Bit-SI
Sandwich-Design wie bei der 9800 GX2
280 Watt TDP
~650€
Bin mal gespannt, wie gut meine Schätzungen letztendlich hinkommen.
AnarchX
2008-11-16, 21:07:02
Warum sollte NV Strom sparen wollen?
Wenn dann wird man an der Taktschraube drehen, was die aktuelle TDP von 236/183W hergibt bzw. vielleicht noch höher gehen.
Sparen tut man vielleicht eher bei G200B basierenden GTX 280/260, wo man auf ein paar Stromstecker verzichten kann und den Kühlkörper vielleicht etwas leichter macht.
Und als günstige Single-Slot-Lösung könnte ich mir dann sogar eine GTX 250 vorstellen:
192 SPs, 64 TMUs
525 MHz Chiptakt
1200+ MHz Shadertakt
800 MHz Speichertakt
768 MiB GDDR3-RAM, 384 Bit-SI
90 Watt TDP
Preis: ~180€
Da ist man doch mit der 9800 GTX+ (inkl. weiterem OC), bald vielleicht GTS 150(?), die nur ein 256-Bit PCB und einen 270mm² Die benötigt besser aufgestellt.
Zumal die Einsparungen am Speicherteil der GraKa wohl die TDP nicht so drücken werden.
Spasstiger
2008-11-16, 21:32:50
Warum sollte NV Strom sparen wollen?
Wenn dann wird man an der Taktschraube drehen, was die aktuelle TDP von 236/183W hergibt bzw. vielleicht noch höher gehen.
Sparen tut man vielleicht eher bei G200B basierenden GTX 280/260, wo man auf ein paar Stromstecker verzichten kann und den Kühlkörper vielleicht etwas leichter macht.
Nvidia steht aus Performancesicht nicht im Zugzwang, aber in Punkto TDP sind die ATI-Karten bislang überlegen. Und das könnte NV doch für sich als Vorteil verbuchen, unter Last und im idle sparsamer als die HD 4870 und dabei noch ein ganzes Stück schneller. Lässt man den gleichen Kühler wie bisher drauf, wären die Karten auch leiser als bisher, ein weiterer Vorteil.
Overclocking könnte man den Board-Partnern überlassen.
Da ist man doch mit der 9800 GTX+ (inkl. weiterem OC), bald vielleicht GTS 150(?), die nur ein 256-Bit PCB und einen 270mm² Die benötigt besser aufgestellt.
Zumal die Einsparungen am Speicherteil der GraKa wohl die TDP nicht so drücken werden.
Ich hab noch "zur eventuellen Resteverwertung" ergänzt. ;)
Natürlich wäre die von mir genannte GTX 250 kein wirtschaftlich sinnvolles Produkt für NV, wenn in großen Stückzahlen produziert werden soll, aber es wäre immer noch sinnvoller, als GPUs direkt wegzuwerfen.
Mit der 8800 GS hat NV es ja auch so gemacht.
reunion
2008-11-16, 21:41:46
Für eine GX2 ist der Chip noch immer viel zu groß. Zwei solche Chips plus NVIO und man braucht mal eben 10cm² Die-Fläche. Dazu 2 x 512 bit PCBs.
Sorkalm
2008-11-16, 21:55:28
Da ist man doch mit der 9800 GTX+ (inkl. weiterem OC), bald vielleicht GTS 150(?), die nur ein 256-Bit PCB und einen 270mm² Die benötigt besser aufgestellt.
Die GTX+ kann man maximal gegen die HD 4850 aufstellen. Und verkaufen tut sie sich trotzdem nicht gut (sei es wegen dem Ruf, sei es weil der Speicher jetzt wirklich manchmal knapp wird, sei es warum auch immer).
Die GTX 260 steht doch schon bei $299. Da kann man mit GT206 auch eine $249-Karte vertragen, gerade wenn man die GTX 270 für ein paar Dollar mehr verkaufen will (vll. $329). Die genannte 250 wäre jedenfalls noch auf Niveau was sie gegen die 4870 stellen würde.
reunion
2008-11-16, 23:03:04
Warum sollte NV Strom sparen wollen?
Wenn dann wird man an der Taktschraube drehen, was die aktuelle TDP von 236/183W hergibt bzw. vielleicht noch höher gehen.
Sparen tut man vielleicht eher bei G200B basierenden GTX 280/260, wo man auf ein paar Stromstecker verzichten kann und den Kühlkörper vielleicht etwas leichter macht.
Wer sagt das höhere Taktraten überhaupt machbar sind? Offensichtlich hat ja nV erhebliche Probleme was die Taktraten der ALUs bei GT200 betrifft, und auch bei GT200b scheint man noch nicht auf das gewünschte 1:2,5-Verhältnis zu kommen.
Taktprobleme bei den ALUs: definitiv. Das felsenfeste Nonplusultra von GTX-280-Karten sind 1.566 MHz, die meisten Karten machen schon zwischen 1.400 und 1.512 MHz dicht. Gerüchteweise hat NV beim G(T)200b einige Transen investiert, um höher takten zu können. Mehr als 1.512 MHz ab Werk sollte man da aber IMO nicht erwarten ...
Das Problem hatte doch schon der G80: Gute Exemplare schaffen 1.728 MHz, die meisten maximal 1.620 MHz; auch die A3-Ultras. G92 legte hier deutlich nach.
MfG,
Raff
Alles, was nach GTX 270 und GTX 290 kommt, empfiehlt es sich nicht, über konkrete Taktfrequenzen festzuhalten. Ich vermute für die beiden Chips:
GTX 290
240 SPs, 80 TMUs, 32 ROPs
648/1512/1107 MHz
1024 MiB GDDR3, 512-Bit-SI
189 Watt TDP
~350€
GTX 270
216 SPs, 72 TMUs
582/1358/999 MHz
896 MiB GDDR3, 448-Bit-SI
~150 Watt TDP
~200€
Fetza
2008-11-16, 23:54:16
Nvidia steht aus Performancesicht nicht im Zugzwang, aber in Punkto TDP sind die ATI-Karten bislang überlegen.
Doch tun sie, oder glaubst du ATI wird dieses jahr rv790 nicht mehr releasen? NV wird nicht den fehler machen, die niedrigere TDP nicht direkt wieder in höheren takt umzusetzen.
pervert
2008-11-17, 00:36:39
Also wenn die GTX270 nicht deutlich schneller als eine GTX260/216 wird und beide Karten nicht wesentlich günstiger als die bisherigen Preise, sehe ich kein Licht für Nvidia im Kampf gegen den RV790. Eine 4950 kann man dann wohl klar schneller als eine GTX270 vermuten und womöglich gar billiger. Und eine 4970 wird bestimmt günstiger sein als die GTX290, nur wird der Abstand bestimmt noch kleiner sein als der jetzige zw. 4870 und GTX280.
Ich fände es sehr schwach, wenn NVidia nicht wesentlich mehr Leistung aus den 55nm Chips holt. 650/1500MHz bei einer GTX290 sind doch absolut enttäuschend. Da kann man sich ja jetzt schon schnellere oder gleich schnelle GTX280er kaufen. :(
Wunder muss man von dem 55nm Shrink auch nicht erwarten. Erst mit 21X kommen echte Neuerungen. Ob die allerdings der RV8XX Serie gewachsne sind, darf bezweifelt werden.
Fetza
2008-11-17, 08:35:43
Wunder muss man von dem 55nm Shrink auch nicht erwarten. Erst mit 21X kommen echte Neuerungen. Ob die allerdings der RV8XX Serie gewachsne sind, darf bezweifelt werden.
Das sagten aber bisher auch alle über die geringere tdp des 200b/206, und da hat nv ja ganz offensichtlich doch mehr erreicht, als viele für möglich gehalten haben.
Nightspider
2008-11-17, 08:47:03
400€ für GTX 290 ?
never!
Die GTX290 kostet Nvidia weniger als eine GTX 280 und selbst die GTX 280 verkauft sich schon schlecht im Gegensatz zu HD4870.
Die Preise für die GTX 290 werden sich mit Sicherheit bei 300-350 Euro einpendeln...die GTX280 werden mit Sicherheit abverkauft werden.
Eine GTX290 GX2 würde sich auch niemals in Bereichen von 600 Euro verkaufen, geschweigedenn um 650 €.
Ailuros
2008-11-17, 10:18:10
Warum sollte GT212 keine Basis für eine GX2 sein?
GT212 und mit 384SPs/96TMUs nicht wirklich eine High-End-GPU im H2 2009, erst recht nicht wenn ATi wieder mit RV870 die Preise drücken will.
btw.
Wenn GT212 = 384SPs/96TMUs, dann wohl:
GT214: 192SPs/48TMUs (192-Bit?) $79-150
GT216: 96SPs/24 TMUs (128-Bit) $50-79
GT218: 32SPs/8 TMUs (64-Bit) <$50
MCP88/8A: 32SPs/8TMU
*hust* Nur GT212 hat GDDR5 afaik ;)
Der Grund der gegen eine GT212/GX2 spricht, ist wohl die eigentliche Existenz von GT212 selber. Die 205mm^2 des RV870 duerften stimmen. Wieviele Quadratmillimeter duerfte denn ein GT212@40nm theoretisch mit 384SPs einnehmen, wenn 240SPs@55nm an die 480mm^2 reichen?
AnarchX
2008-11-17, 10:37:12
Ausgehend hiervon:
http://img341.imageshack.us/img341/3617/diediagram4454464kq7.jpg (http://imageshack.us)
GT200 + 144SPs + 12 TMUs = 695mm² @ 65nm
Packdichte 65nm -> 40nm: 2.43
695mm² -> 287mm²
Wo wiederrum noch Potential nach unten besteht, durch die Reduzierung des SIs auf 256-Bit und eventuelle Optimierungen im Bezug auf die Packdichte des Designs.
Ailuros
2008-11-17, 10:46:40
Ausgehend hiervon:
http://img341.imageshack.us/img341/3617/diediagram4454464kq7.jpg (http://imageshack.us)
GT200 + 144SPs + 12 TMUs = 671mm² @ 65nm
Packdichte 65nm -> 40nm: 2.43
719mm² -> 276mm²
Wo wiederrum noch Potential nach unten besteht, durch die Reduzierung des SIs auf 256-Bit und eventuelle Optimierungen im Bezug auf die Packdichte des Designs.
Verdammt optimistisch ;) Mach die letztere Zahl etwas runder dann wird es vielleicht waermer. Du rechnest nicht rein zufaellig mit 24SPs/cluster oder?
AnarchX
2008-11-17, 10:53:02
Du rechnest nicht rein zufaellig mit 24SPs/cluster oder?
Schließt sich ja bei +144SPs und +12 TMUs aus. ;)
Aber was sollte NV bei einem ~300mm² Die mit 256-Bit SI hindern eine GX2 zu bauen, um RV870X2 bzw. gar RV870X4(2x MCM auf einer Karte) in die Schranken zu weisen ist diese auf jeden Fall nötig.
4x 1.5TFLOPs / 2x 1.6 TFLOPs < 2x1.2TFLOPs / 1x0.9 TFLOPs
reunion
2008-11-17, 10:56:44
Ausgehend hiervon:
http://img341.imageshack.us/img341/3617/diediagram4454464kq7.jpg (http://imageshack.us)
GT200 + 144SPs + 12 TMUs = 695mm² @ 65nm
Packdichte 65nm -> 40nm: 2.43
719mm² -> 287mm²
Wo wiederrum noch Potential nach unten besteht, durch die Reduzierung des SIs auf 256-Bit und eventuelle Optimierungen im Bezug auf die Packdichte des Designs.
Du vergisst das natürlich auch der hier als "Frambuffer" gekennzeichnete Teil mit der ALU-Anzahl wächst. Und auch der unbeschriftete Bereich in der Mitte, der wohl eine art Switch zwischen den Einheiten darstellt wird natürlich aufgebläht. Dazu sind auch kleinere Verbesserungen wahrscheinlich. Das Ding wird sicher >300mm², zumal die 2.43 eben auch nur theoretische Angaben sind die in der Praxis kaum erreicht werden.
Ailuros
2008-11-17, 11:01:53
Schließt sich ja bei +144SPs und +12 TMUs aus. ;)
Eben nicht; man klatscht nicht nur so einfach nochmal 8SPs pro cluster dazu ohne sich um die generelle Effizienz des chips zu kuemmern; ausser man will die Leistung pro FLOP auf AMD's Nivaeu degradieren.
Aber was sollte NV bei einem ~300mm² Die mit 256-Bit SI hindern eine GX2 zu bauen, um RV870X2 bzw. gar RV870X4(2x MCM auf einer Karte) in die Schranken zu weisen ist diese auf jeden Fall nötig.
4x 1.5TFLOPs / 2x 1.6 TFLOPs < 2x1.2TFLOPs / 1x0.9 TFLOPs
Erstens sagte ich nirgends dass GT212 ein 256bit SI haben wird; zweitens wuerde ich ueber mehr als nur 2*RV870 nicht so sicher sein.
****edit: jetzt mal total OT...ich verfolge schon seit einiger Zeit jegliches Nehalem Material. Etwas extremere Ideen aber auf gleicher Basis werden wir hoechstwahrscheinlich auf GT3x0 sehen ;) *rennt um sein Leben*
Nightspider
2008-11-17, 11:18:25
Wie stehen eigentlich die Chancen das der G200b GDDR5 nutzt ?
Immerhin verbaut ATI schon bei 200 Euro Karten GDDR5 und da sich die ATI Karten bestens verkaufen muss die Verfügbarkeit von GDDR5 Chips ja hoch genug sein.
AnarchX
2008-11-17, 11:24:53
40nm scheint wohl nun doch schon massenproduktionstauglich zu sein und erste Chips sind für Q1 2009 erwartet, fragt sich nur wessen:
TSMC moves 40-nm to mass production (http://eetimes.com/news/semi/showArticle.jhtml;jsessionid=WKFIO0MPANTNEQSNDLOSKHSCJUNN2JVN?articleID=21210013 9)
Eben nicht; man klatscht nicht nur so einfach nochmal 8SPs pro cluster dazu ohne sich um die generelle Effizienz des chips zu kuemmern; ausser man will die Leistung pro FLOP auf AMD's Nivaeu degradieren.
Erstens sagte ich nirgends dass GT212 ein 256bit SI haben wird; zweitens wuerde ich ueber mehr als nur 2*RV870 nicht so sicher sein.
****edit: jetzt mal total OT...ich verfolge schon seit einiger Zeit jegliches Nehalem Material. Etwas extremere Ideen aber auf gleicher Basis werden wir hoechstwahrscheinlich auf GT3x0 sehen ;) *rennt um sein Leben*
hehe, netter hint, meinst du HT? ansonsten ist die architektur ja nicht gerade "berauschend" anders als penryn...
hehe, netter hint, meinst du HT? ansonsten ist die architektur ja nicht gerade "berauschend" anders als penryn...
Ich verstehe das als Anspielung auf folgende Merkmale:
Nativer QuadCore (Penryn ist das nicht)
SMT/HT
TurboMode
dargo
2008-11-17, 12:29:31
Alles, was nach GTX 270 und GTX 290 kommt, empfiehlt es sich nicht, über konkrete Taktfrequenzen festzuhalten. Ich vermute für die beiden Chips:
GTX 290
240 SPs, 80 TMUs, 32 ROPs
648/1512/1107 MHz
1024 MiB GDDR3, 512-Bit-SI
189 Watt TDP
~350€
GTX 270
216 SPs, 72 TMUs
582/1358/999 MHz
896 MiB GDDR3, 448-Bit-SI
~150 Watt TDP
~200€
Naja, bei diesen Daten würde ich eher von 250€ bei der GTX 270 ausgehen, die GTX 290 ist ja kaum schneller.
So abwegig sind 200€ nicht, zu dem Preis gabs auch mal die EOL GTX 260. ;)
deekey777
2008-11-17, 12:47:49
Ich verstehe das als Anspielung auf folgende Merkmale:
Nativer QuadCore (Penryn ist das nicht)
SMT/HT
TurboMode
Und ich schließe alle drei Punkte aus. :biggrin:
SMT/HTT? Das können heutige Grafikchips besser (der GT200 verarbeitet aufeinmal über 30.000 Microthreads).
Larrabee bekommt die Vektor-Einheit (VPU), die eine Art SSE der kommenden Generation darstellt. Vielleicht bekommt der G300 etwas ähnliches, denn das aktuelle Konzept ist nicht gerade billig.
Aquaschaf
2008-11-17, 12:51:10
SMT/HTT? Das können heutige Grafikchips besser (der GT200 verarbeitet aufeinmal über 30.000 Microthreads).
Die Gegenüberstellung ist so unpassend dass sie sich verbietet. Threads auf der GPU sind etwas sehr anderes.
Ailuros
2008-11-17, 13:34:38
hehe, netter hint, meinst du HT? ansonsten ist die architektur ja nicht gerade "berauschend" anders als penryn...
Denk mal genau nach wie Nehalem es schaffte Leistung um X% zu erhoehen mit kleinerem Stromverbrauch. Und dazu ist Nehalem's Philosophie ziemlich konservativ in diesem Bereich.
***edit: anders...G80 wurde am Anfang als quasi eine Mischung zwischen Pentium 4 und 3DLabs Wildcat beschrieben. Man kann einen Chip um einiges genialer takten als G8x/GT2x0 ;)
Ailuros
2008-11-17, 13:38:45
40nm scheint wohl nun doch schon massenproduktionstauglich zu sein und erste Chips sind für Q1 2009 erwartet, fragt sich nur wessen:
TSMC moves 40-nm to mass production (http://eetimes.com/news/semi/showArticle.jhtml;jsessionid=WKFIO0MPANTNEQSNDLOSKHSCJUNN2JVN?articleID=21210013 9)
http://www.electronicsweekly.com/blogs/david-manners-semiconductor-blog/2008/11/parallel-processing-speeds-tim.html
150M gates duerften wenn sich der Laie hier nicht verrechnet hat um die 600M Transistoren sein. Es handelt sich aber wohl nicht ueber weder/noch ;)
AnarchX
2008-11-17, 14:15:03
***edit: anders...G80 wurde am Anfang als quasi eine Mischung zwischen Pentium 4 und 3DLabs Wildcat beschrieben. Man kann einen Chip um einiges genialer takten als G8x/GT2x0 ;)
Also beziehst du dich wohl eher auf das Powermanagment mit verschiedenen Taktdomänen und Turbo Mode.
Wohl durchaus ein wichtiger Punkt in der Zukunft, wo diverse Teile des Chips entsprechend hoch takten könnten, wenn die Energiedichte hier keinen Strich durch die Rechnung macht.
Also beziehst du dich wohl eher auf das Powermanagment mit verschiedenen Taktdomänen und Turbo Mode.
Wohl durchaus ein wichtiger Punkt in der Zukunft, wo diverse Teile des Chips entsprechend hoch takten könnten, wenn die Energiedichte hier keinen Strich durch die Rechnung macht.
hab darauf noch nicht geantwortet weil ich über nehalem nicht so gut informiert bin. aber gehe ich falsch in der annahme, dass ein massiv paralleles design wie eine gpu nicht so leicht "ähnlich" wie ein nehalem zu takten ist? ich ging immer davon aus dass es bei einer gpu viel gleichmässiger aussehen würde - wenn man z.b. mit ner infrarot kamera den DIE beobachtet...
40nm scheint wohl nun doch schon massenproduktionstauglich zu sein und erste Chips sind für Q1 2009 erwartet, fragt sich nur wessen:
TSMC moves 40-nm to mass production (http://eetimes.com/news/semi/showArticle.jhtml;jsessionid=WKFIO0MPANTNEQSNDLOSKHSCJUNN2JVN?articleID=21210013 9)
Glaubst du nV würde 55nm überspringen? Ich dachte die wären Fertigungstechnisch eher "konservativ" eingestellt?
deekey777
2008-11-17, 15:21:05
Die Gegenüberstellung ist so unpassend dass sie sich verbietet. Threads auf der GPU sind etwas sehr anderes.
Du hast unzweifelhaft Recht.
Aber schaue mal auf den Larrabee (und ich hatte diesen auch im Hinterkopf): Dessen IA-Kerne (die für die Verwaltung zuständig sind) sind SMT-fähig und können vier Threads parallel bearbeitet bzw. verwalten. Jeder dieser Threads kann wiederum bis zu 16 Microthreads beinhalten. (Microthreads = Warps bzw. Wavefronts). Wobei ich nicht ganz verstehe, ob es ein Microthread zB sechzehn Pixel bedeutet.
An sich sind heutige SMs (Zusammenschluss von 8 SPs zu einem Streaming-Multiprozessor) des G80 fähig, zwei Warps aufeinmal zu berechnen: Für einen Warp wird eine MAD-Instruction ausgeführt, für den anderen 'ne Wurzel gezogen (:D). Wenn man aber gleich vier dieser SMs in einen Cluster packt, dann wird es ein ziemlicher Aufwand, alles auszulasten.
Ailuros
2008-11-17, 16:04:53
Glaubst du nV würde 55nm überspringen? Ich dachte die wären Fertigungstechnisch eher "konservativ" eingestellt?
Jetzt= GT206@55nm
Q1 2009 = GT216@40nm (mainstream)
Q2 2009 = GT212@40nm (high end)
Also beziehst du dich wohl eher auf das Powermanagment mit verschiedenen Taktdomänen und Turbo Mode.
Wohl durchaus ein wichtiger Punkt in der Zukunft, wo diverse Teile des Chips entsprechend hoch takten könnten, wenn die Energiedichte hier keinen Strich durch die Rechnung macht.
Verschiedene Taktdomaene gibt es schon heute; es wird ein sehr durchdachte Kombination von differenzierter Logik und Frequenzen sein.
Du hast unzweifelhaft Recht.
Aber schaue mal auf den Larrabee (und ich hatte diesen auch im Hinterkopf): Dessen IA-Kerne (die für die Verwaltung zuständig sind) sind SMT-fähig und können vier Threads parallel bearbeitet bzw. verwalten. Jeder dieser Threads kann wiederum bis zu 16 Microthreads beinhalten. (Microthreads = Warps bzw. Wavefronts). Wobei ich nicht ganz verstehe, ob es ein Microthread zB sechzehn Pixel bedeutet.
Ist zwar OT aber IMHO hatte Intel keine andere Wahl als auf sw TBDR zu gehen (gut ich lass das oede "DR" offen bis zum launch). Waeren sie auf sw IMR gegangen haette es suendhaft mehr in HW gekostet. Und eben da wir in diesem Fall naive HW mit "intelligentem" Treiber haben, sind die beiden eher schlecht zu vergleichen.
An sich sind heutige SMs (Zusammenschluss von 8 SPs zu einem Streaming-Multiprozessor) des G80 fähig, zwei Warps aufeinmal zu berechnen: Für einen Warp wird eine MAD-Instruction ausgeführt, für den anderen 'ne Wurzel gezogen (:D). Wenn man aber gleich vier dieser SMs in einen Cluster packt, dann wird es ein ziemlicher Aufwand, alles auszulasten.
Es sind schon 3*8 in GT2x0. Zwar schaetze ich auch dass etwas Logik dazukommen sollte um 4*8 voll auslasten zu koennen, aber so tragisch duerfte es unter dem Strich dann auch nicht wieder sein.
Wobei "jetzt" immer noch nicht schnell genug ist... eigentlich war die Hoffnung, dass die Teile zum Nehalem Launch (heute) angekündigt werden. Und 15:00 uhr ist vorbei ;)
Edit:
Nvidia plans to do this quietly as it doesn’t plans to change the specification of the existing GTX 260 216 Shaders and GTX 280 cards. Nvidia counts on the Jack in the box effect and you might be surprised that the card you buy in December will come with a 55nm GT200 chip and likely overlclock better.
(Quelle (http://www.fudzilla.com/index.php?option=com_content&task=view&id=10499&Itemid=34))
Sieht so aus als gäbe es erstmal wenig... GTX270 und GTX290 kommen dann wohl (wenn überhaupt) im Frühjahr? Ähnliches liest man auch bei b3d (http://forum.beyond3d.com/showpost.php?p=1240091&postcount=303).
deekey777
2008-11-17, 16:45:18
...
Es sind schon 3*8 in GT2x0. Zwar schaetze ich auch dass etwas Logik dazukommen sollte um 4*8 voll auslasten zu koennen, aber so tragisch duerfte es unter dem Strich dann auch nicht wieder sein.
Es wird nicht tragisch sein, aber es wird schwer(er) eine vollständige Auslastung zu bekommen (naiv: je vier MADD-Warps und vier MUL-Warps).
Spasstiger
2008-11-17, 17:20:16
Sieht so aus als gäbe es erstmal wenig... GTX270 und GTX290 kommen dann wohl (wenn überhaupt) im Frühjahr? Ähnliches liest man auch bei b3d (http://forum.beyond3d.com/showpost.php?p=1240091&postcount=303).
Hm, also wird 55 nm noch konservativer eingeführt als ich mit meinem Taktraten weiter vorne geschätzt habe.
Bin jetzt mal gespannt, wie sich die 55-nm-Chip in Punkto Leistungsaufnahme schlagen. Auf den Quadro-Karten scheinen die 55-nm-Chips ja gute Dienste zu leisten.
reunion
2008-11-17, 17:28:07
Wobei "jetzt" immer noch nicht schnell genug ist... eigentlich war die Hoffnung, dass die Teile zum Nehalem Launch (heute) angekündigt werden. Und 15:00 uhr ist vorbei ;)
Edit:
(Quelle (http://www.fudzilla.com/index.php?option=com_content&task=view&id=10499&Itemid=34))
Sieht so aus als gäbe es erstmal wenig... GTX270 und GTX290 kommen dann wohl (wenn überhaupt) im Frühjahr? Ähnliches liest man auch bei b3d (http://forum.beyond3d.com/showpost.php?p=1240091&postcount=303).
Viel mehr hätte mich auch überrascht. Was hier für Wundermeldungen in Bezug auf einen einfachen Die-Shrink auf 55nm gemacht wurden, wo man schon bei mehreren Chips feststellen konnte, dass 55nm fast gar nichts bringt, war doch kaum Glaubwürdig. Bei den Quadro- und Tesla-Produkten wird man ganz einfach selektieren und/oder höherwertige Bauteile verwenden und fertig.
Damit geht Weihnachten an ATi.
Dabei wollte ich endlich weg von meiner 8800 GTS G92. :(
Spasstiger
2008-11-17, 17:50:51
Viel mehr hätte mich auch überrascht. Was hier für Wundermeldungen in Bezug auf einen einfachen Die-Shrink auf 55nm gemacht wurden, wo man schon bei mehreren Chips feststellen konnte, dass 55nm fast gar nichts bringt, war doch kaum Glaubwürdig. Bei den Quadro- und Tesla-Produkten wird man ganz einfach selektieren und/oder höherwertige Bauteile verwenden und fertig.
Ich kann nicht glauben, dass man trotz 3 GiB mehr VRAM (doppelte Anzahl von Speicherchips) und höherem Chip- und Shadertakt bei gleichbleibender Spannung nur durch Selektion und andere Bauteile die TDP von 236 Watt auf 189 Watt senken konnte.
Ich gehe weiterhin von deutlich sparsameren 55-nm-Chips aus, so dass NV zum Weihnachtgeschäft mit sehr interessanten Karten aufgestellt sein dürfte.
reunion
2008-11-17, 17:56:40
Ich kann nicht glauben, dass man trotz 3 GiB mehr VRAM (doppelte Anzahl von Speicherchips) und höherem Chip- und Shadertakt bei gleichbleibender Spannung nur durch Selektion und andere Bauteile die TDP von 236 Watt auf 189 Watt senken konnte.
Ich gehe weiterhin von deutlich sparsameren 55-nm-Chips aus, so dass NV zum Weihnachtgeschäft mit sehr interessanten Karten aufgestellt sein dürfte.
Doppelte Anzahl an Speicherchips, aber fast 30% weniger Takt und wohl auch weniger Spannung. Wenn nV jedenfalls bereits im Q4 70% der GT200-Chips in 55nm verkaufen will dann kannst du davon ausgehen dass diese bereits haufenweise im Handel sind. Von irgendwelchen Wundermeldungen im Bezug auf die Leistungsaufnahme fehlt allerdings jede Spur.
Spasstiger
2008-11-17, 18:02:55
Doppelte Anzahl an Speicherchips, aber fast 30% weniger Takt und wohl auch weniger Spannung. Wenn nV jedenfalls bereits im Q4 70% der GT200-Chips in 55nm verkaufen will dann kannst du davon ausgehen dass diese bereits haufenweise im Handel sind. Von irgendwelchen Wundermeldungen im Bezug auf die Leistungsaufnahme fehlt allerdings jede Spur.
Also die Überhitzungsprobleme scheinen in letzter Zeit nicht mehr aufzutreten. Vielleicht ein Indiz für 55-nm-Chips. Und wenn NV die Spannung nicht gesenkt hat, bleibt die TDP natürlich ähnlich. Man müsste mal das Undervoltingpotential von älteren und aktuellen GT200-Karten testen.
reunion
2008-11-17, 18:09:57
Hier nochmal zwecks Vollständigkeit: http://www.samsung.com/global/business/semiconductor/productList.do?fmly_id=146
(Auf den Speicher klicken und Data-Sheet öffnen)
Die auf der GTX280 verbauten K4J52324QH-HJ08 (0.83ns, 512Mbit) Chips laufen laut Samsung bei 1.1Ghz mit 2.05V (+/-0.05V). Die wohl auf der QuadroFX 5800 verbauten K4J52324QE-BC12 (1.2ns, 1024Mbit) Chips laufen bei 800Mhz mit 1.8V (+/-0.1V). Also doch ein nicht zu verachtender Unterschied. Zusammen mit dem niedrigeren Takt wurde ich hier nicht unbedingt auf sonderlich viel Mehrverbrauch durch die 4GiB VRAM schließen.
=Floi=
2008-11-17, 18:20:15
Ich denke, es werden jetzt schon sehr gute bauteile verbaut, denn man wirs sicherlich den verbrauch so niedrig wie möglich halten wollen...
Spasstiger
2008-11-17, 18:32:07
Hier nochmal zwecks Vollständigkeit: http://www.samsung.com/global/business/semiconductor/productList.do?fmly_id=146
(Auf den Speicher klicken und Data-Sheet öffnen)
Die auf der GTX280 verbauten K4J52324QH-HJ08 (0.83ns, 512Mbit) Chips laufen laut Samsung bei 1.1Ghz mit 2.05V (+/-0.05V). Die wohl auf der QuadroFX 5800 verbauten K4J52324QE-BC12 (1.2ns, 1024Mbit) Chips laufen bei 800Mhz mit 1.8V (+/-0.1V). Also doch ein nicht zu verachtender Unterschied. Zusammen mit dem niedrigeren Takt wurde ich hier nicht unbedingt auf sonderlich viel Mehrverbrauch durch die 4GiB VRAM schließen.
Ok, im Datenblatt der 512-Mbit-Chips wird unter "ABSOLUTE MAXIMUM RATINGS" eine "Power dissipation" von 4 W genannt. D.h. bei 16 Chips (1 GiB VRAM) wären das maximal 64 Watt für den Speicher.
Bei den 1024-Mbit-Chips wird leider noch keine Angabe zur max. Leistungsaufnahme gemacht, aber wenn man davon ausgeht, dass die 1 Mbit-Chips bei gleicher Datenbusbreite nicht viel mehr schlucken (alle paar ms müssen halt die Daten in allen Speicherzellen erneuert werden) und ausgehend von deinen Taktraten und Spannungen, dürfte sich der Mehrverbrauch der 4 GiB VRAM auf vielleicht nur 20% belaufen.
Ausgehend von den max. 64 Watt für 1 GiB VRAM wären das dann max. 77 Watt für die 4 GiB VRAM.
Inwieweit der max. Verbrauch von Speicherchips für die TDP einer Grafikkarte relevant ist, weiß ich auch nicht. Aber die erst von mir geschätzen 50 Watt Unterschied durch den Speicher scheinen nicht haltbar zu sein, vermutlich sind es eher 10 Watt.
Ich denke, es werden jetzt schon sehr gute bauteile verbaut, denn man wirs sicherlich den verbrauch so niedrig wie möglich halten wollen...
Der einzige Spielraum bei der Komponentenwahl liegt in den Spannungswandlern. Die Speicherchips sind Standard-Speicherchips und keine Spezialanfertigung, die GPU ist ein normaler G200b wie er auch auf Desktop-Grafikkarten eingesetzt (werden) wird. Und von 236 Watt auf 189 Watt nur durch bessere Spannungswandler? Naja, möglich ist es, aber ich glaube nicht, dass NV derartigen Pfusch bei den Desktopkarten zulässt. Ich würde einen nicht unerheblichen Teil des Unterschieds auf die 55-nm-Fertigung zurückführen.
Immerhin sind bei kleineren Strukturbreiten die Kapazitäten der Transistoren geringer und somit müssen bei den Schaltvorgängen geringere Ladungsmengen umgeladen werden. Und bei gleichem Takt bedeutet das eben weniger Ladung in gleicher Zeit. Somit sinkt auch die Leistungsaufnahme (Leckströme mal außen vor).
Der G200 konnte man schon immer extrem gut untervolten, alle Karten laufen doch Problemlos mit 1Volt anstelle der 1,15Volt und das bringt mal locker 60Watt weniger Verbrauch.
Es gibt ja sogar auch Hersteller die jetzt standard mässig die Spannung runter nehmen.
und noch was, die Quadro Karte hat übrigens nur 192SP ;)
AnarchX
2008-11-17, 21:28:28
und noch was, die Quadro Karte hat übrigens nur 192SP ;)
Das ist die Quadro CX (http://www.nvidia.com/object/product_quadro_cx_us.html)mit maximalen 150W und 1.5GiB RAM, die Quadro FX 5800 hat 240SPs.
Der G200 konnte man schon immer extrem gut untervolten, alle Karten laufen doch Problemlos mit 1Volt anstelle der 1,15Volt und das bringt mal locker 60Watt weniger Verbrauch.
Wie schon mehrmals darauf hingedeutet, die Tesla C1060 bzw. wohl auch FX 5800 hat laut NV eine Vgpu von 1.18V und somit die gleiche wie die Standard-GTX 280 und erreicht trotzdem nur maximale 200W:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6913558&postcount=276
reunion
2008-11-17, 21:42:51
Naja, das gilt nur für die Tesla, die zum einen hier nur mit 1.296Ghz ALU-Takt angegeben wird, also nicht höher taktet als eine GTX280, und zum anderen ja auch mit 200W Maximum Board Power. Durchaus möglich das die Vcore bei der Quadro niedriger liegt die ja trotz höherer Taktraten nur mit 189W Maximum Power Consumption angegeben wird. Im übrigen sind die Werte allesamt nur sehr schwer nachzuvollziehen, denn einmal heißt es TDP, einmal "Maximum Board Power" und einmal "Maximum Power Consumption". Man weiß ja gar nicht wie die Werte ermittelt werden, bzw. ob überhaupt immer das gleich gemeint ist. Um hier wirklich etwas sagen zu können müsste man alle drei Karten zur Hand haben und in der Praxis testen können.
dargo
2008-11-18, 00:08:36
So abwegig sind 200€ nicht, zu dem Preis gabs auch mal die EOL GTX 260. ;)
Zu dieser Zeit war aber der Dollar sehr schwach.
AnarchX
2008-11-18, 08:23:18
GT200 to go 55nm? Non-ref card hits early 09 (http://en.expreview.com/2008/11/18/gt200-to-go-55nm-non-ref-card-hits-early-09.html)
AnarchX
2008-11-18, 09:00:04
NVIDIA prepares 55nm GTX 260 with custom cooler from CoolerMaster (http://my.ocworkbench.com/bbs/showthread.php?p=440322#post440322)
Wohl doch ein Sparkühler wegen der niedrigeren TDP? :D
Offenbar ist Nvidias Strategie, die 55 nm GT200 Chips zunächst für eine Preissenkung zu nutzen (http://www.computerbase.de/news/wirtschaft/unternehmen/nvidia/2008/november/nvidia_preissenkung_amd/). Die Diversifizierung des Portfolios können dann die Hersteller selbst betreiben.
Wenn die wirklich die gleiche Spannung auf der GPU haben sind die Werte doch sehr überraschend!
Gibt es eigentlich einen Beweis (Foto oder so) das auf den Quadro/Tesla der G200b drauf ist?
Anarchy-HWLUXX
2008-11-18, 10:44:24
An 3000€ Karten bastelt man normalerweise nicht rum, und 08-15 Reviewseiten bekommen die auch nicht zugeschickt.
NVIDIA prepares 55nm GTX 260 with custom cooler from CoolerMaster (http://my.ocworkbench.com/bbs/showthread.php?p=440322#post440322)
Wohl doch ein Sparkühler wegen der niedrigeren TDP? :D
Och nee, jetzt darf wieder jeder sein eigenes Billo-PCB samt eigenem Billo-Kühler entwickeln, da kommen dann wieder so Krüppel wie bei den billigen 9800 GTX+.
Danke nVidia :(
Werewolf
2008-11-18, 10:46:50
Ob es tatsächlich schon im Dezember die 55er zu kaufen gibt? Gekennzeichnet werden sie wohl nicht. :|
Hey, ist doch prima, wie bei den Ü-Eiern, in jeder Schachtel eine andere Überraschung :D
deekey777
2008-11-18, 14:02:23
Hey, ist doch prima, wie bei den Ü-Eiern, in jeder Schachtel eine andere Überraschung :D
Überraschung: Jemand hofft, eine 55nm-GTX280 zu kaufen und bekommt noch die "alte" 65nm-GTX280. Tolle Überraschung.
Zumindest dürfen die Hersteller ab Januar ihr eigenes Design verwenden.
Steht auf der Packung "55nm"? :rolleyes:
Jemand hofft gratis etwas besseres zu bekommen, bekommt aber nur das, was er bezahlt hat, wie gemein.
Steht auf der Packung "55nm"? :rolleyes:
Jemand hofft gratis etwas besseres zu bekommen, bekommt aber nur das, was er bezahlt hat, wie gemein.
definiere besser/schlechter in bezug auf 65nm/55nm.
du reisst aussagen wiedermal ausm kontext.
55nm wird als Selbstverständlich und besser dargestellt.
Dann muss ja 65nm die völlige Ausnahme sein und natürlich schlecht.
55nm wird als Selbstverständlich und besser dargestellt.
Dann muss ja 65nm die völlige Ausnahme sein und natürlich schlecht.
ähm ja klar, deswegen macht z.b. der 65nm prozess bei den a64 x2 soviel aus, oder? dann erzähl mir doch wieso mein alter x2 in 90nm genau gleichviel verbrauch hatte wie der neue x2 mit 65nm. ausserdem erkläre mir wieso der kleinere fertigungsprozess besser sein soll, wenn der grössere mehr strom aushält.
anders gesagt, es ist eine frage der anschauung und ich krieg das grosse kotzen wenn man so verallgemeinert.
Es war nicht meine Idee 65nm als schlecht darzustellen, sondern der Schluss aus "der tollen Überraschung".
Es war nicht meine Idee 65nm als schlecht darzustellen, sondern der Schluss aus "der tollen Überraschung".
ah k, dann haben wir uns missvestanden.
Aus meiner Sicht bs, aber ich will es Euch nicht vorenthalten:
Nvidia's dual GT200 55nm comes in January (http://www.fudzilla.com/index.php?option=com_content&task=view&id=10521&Itemid=1)
AnarchX
2008-11-18, 17:46:29
Mal als Erinnerung:
So you just have to take it case by case and -- but we think our approach is the right approach. The best approach is to do both. If we could offer a single chip solution at 399, it certainly doesn’t preclude us from building a two-chip solution at something higher. So I think that having the right price, right product at each price point and the best-performing product at each price point is the most important thing.
http://seekingalpha.com/article/90644-nvidia-f2q09-qtr-end-7-27-08-earnings-call-transcript?page=-1
Nachdem 55nm wohl doch den Verbrauch senken konnte, wohlmöglich gar nicht mal so unrealistisch.
Wer weiß ob der 55nm Chip nicht doch mehr als ein optischer Shrink ist, denn der vermeintlich Die aus #1 soll wohl irgendetwas völlig GT2xx-fremdes in 65nm sein.
Spasstiger
2008-11-18, 18:02:41
ATI konnte ja den Flächenbedarf bei gleicher Fertigung und Transistorzahl um 20% senken, vielleicht gab es auch bei NV Bemühungen in diese Richtungen. Zusammen mit der 55-nm-Fertigung könnte man so den GT200 auf unter 60% der alten Größe schrumpfen.
Ja, vielleicht ist der Chip dabei auch noch 60% so schnell... ;)
Jungs, kommt runter. Hierbei handelt es sich um einen gewöhnlichen Die-Shrink. Die Größe steht mit 470 mm^2 mehr oder minder auch schon fest. Das entspricht einem Rückgang gegenüber GT200 von 23 Prozent.
AnarchX
2008-11-18, 22:04:21
You want to see something amazing? =)
That's supposedly GT200 die...
http://i33.tinypic.com/o794c8.jpg
http://i33.tinypic.com/o5nsbt.jpg
...But it doesn't look like GT200 die and it's size is much smaller (G80 die is different too although the size is more or less comparable).
Any ideas what this is?
Well, someone told me that it's actually the real G100 chip -- 384 SPs with 384-bit bus -- which was scraped in favor of GT200, cause it wasn't fast enough (because of 384-bit bus) and they wanted to push CUDA (it doesn't have FP64 ALUs).
Now don't shoot the messenger =)
Hmmm...
reunion
2008-11-18, 22:40:49
Hmmm...
Kaum glaubwürdig das es von einem gecancelten Chip schon Silizium gab und man dann vor allem so schnell einen Ersatz entwickelt und fertigen konnte. Zudem passen die Maße perfekt zu einem GT200-Shrink auf 55nm.
LovesuckZ
2008-11-18, 22:48:40
Abgesehen davon, wäre der Chip wesentlich schneller als die jetzigen GT200, da er über deutlich mehr Rechenleistung verfügt hätte. Und Rechenleistung ist das, was den GT200 Karten am deutigsten fehlt.
Spasstiger
2008-11-19, 01:14:56
Abgesehen davon, wäre der Chip wesentlich schneller als die jetzigen GT200, da er über deutlich mehr Rechenleistung verfügt hätte. Und Rechenleistung ist das, was den GT200 Karten am deutigsten fehlt.
Ich glaube nicht, dass dieser 384-SP-Chip mit 384 Bit SI in Spielen deutlich schneller gewesen wäre als der jetzige GT200. Bei gleichen Taktraten wäre es nur auf einen minimalen Vorteil rausgekommen.
Denn um das Transistorbudget einzuhalten, hätte man bei 384 SPs wohl 12 Cluster mit je 32 SPs und 8 TMUs gesetzt im Gegensatz zu 10 Cluster mit je 24 SPs und 8 TMUs beim jetzigen GT200.
D.h. lediglich die max. Shaderleistung wäre um mehr 60% höher. Die Texturleistung wäre nur ca. 20% höher, die Pixelfüllrate und die Speicherbandbreite aber um 25% geringer. Für eine vernünftige Menge VRAM hätte man außerdem gleich auf 1,5 GiB setzen müssen, was aus Kostengründen für den Consumermarkt nicht sehr attraktiv gewesen wäre.
/EDIT: Hab nochmal meine Berechnung nachgeprüft und meine obigen Aussagen korrigiert. Wenn eine 8800 GTX die 100%-Marke setzt, liegt die GTX 280 nach meinen Berechnungen bei 153% und eine theoretische G100-basierende GTX 280 bei 165%. Eventuelle VRAM-bedingte Unterschiede nicht eingerechnet.
Ph0b0ss
2008-11-19, 10:39:57
Für eine vernünftige Menge VRAM hätte man außerdem gleich auf 1,5 GiB setzen müssen, was aus Kostengründen für den Consumermarkt nicht sehr attraktiv gewesen wäre.
Kosten die 0,5 GiB wirklich mehr als die Ersparnis im Chip und am PCB durch 128bit weniger Speicherinterface?
AnarchX
2008-11-19, 11:52:31
NVIDIA Dual-GPU GTX260 GX2 shows up Jan 09 (http://en.expreview.com/2008/11/19/nvidia-dual-gpu-gtx260-gx2-shows-up-jan-09.html)
As informer tells, NVIDIA has decided to release GeForce GTX260 GX2 to hit back in January next year. Anyway, we know the emergence of such a product is really the way to go.
dargo
2008-11-19, 12:30:30
NVIDIA Dual-GPU GTX260 GX2 shows up Jan 09 (http://en.expreview.com/2008/11/19/nvidia-dual-gpu-gtx260-gx2-shows-up-jan-09.html)
Wurde hier nicht immer prophezeit, dass eine abgespeckte GPU keinen Sinn für die GX2 macht? :rolleyes:
AnarchX
2008-11-19, 12:32:34
Wer sagt, dass es nicht so ist?
GTX 260-216SP Leistung bei einer stromsparenderen Konfig.
Aber wenn schon wird das Teil wohl kaum "GTX 260 GX2" heißen.
reunion
2008-11-19, 12:42:05
Wurde hier nicht immer prophezeit, dass eine abgespeckte GPU keinen Sinn für die GX2 macht? :rolleyes:
Siehst du irgendwo eine abgespeckte GX2? Ich nicht. Eine abgespeckte GX2 macht keinen Sinn, aber es wäre ja nicht das erste mal das unvernünftige Lösungen verkauft werden.
AnarchX
2008-11-19, 12:45:30
Aus Gamersicht sicherlich eher Unsinn, aber manches Institut würde sich sicherlich freuen ihren 4x 9800GX2 Cluster durch 8x GT200 mit je >512MiB Speicher zu ersetzen.
Und für NV bedeutet es die marketingwirksame Rückeroberung der Single-GraKa-Krone.
robbitop@work
2008-11-19, 12:46:06
Na eine GTX260 GX2 wäre schneller als eine GTX280 und vermutlich ähnlich schnell oder schneller als die 4870X2. Und das ist gewiss das Ziel von NV.
Allerdings sollte diese in Bezug auf die Kosten nicht mithalten können. Viel breiteres SI 2x und einen größeren Kern 2x und knapp 900 MiB VRAM 2x. Das sollte preislich schon zu einem Unterschied führen aber knapp die Performancekrone holen. AMD könnte sich dann allerdings dazu entschließen, eine 4870X2+ z.B zu bringen, die dank Selektion mehr Takt und damit mehr Leistung bringt.
Ich halte GX2 Varianten mit so großen, teuren Kernen für ökonimisch ungünstig.
dargo
2008-11-19, 12:51:59
Siehst du irgendwo eine abgespeckte GX2? Ich nicht.
Was ist denn deiner Meinung nach eine GTX 260? Unabhängig ob 192 oder 216SPs. Es ist ein abgespeckter GT200.
Spasstiger
2008-11-19, 12:57:29
Wer sagt denn, dass die GTX 260 GX2 unbedingt mit einem abgespeckten GT200 kommen muss? Möglicherweise hat Nvidia zur Verringerung der Leistungsaufnahme auch einfach nur die Taktraten derart begrenzt, dass man lediglich auf 2*GTX-260-Niveau landet.
Möglicherweise ist auch nur das Speicherinterface abgespeckt, um die Komplexität des PCB/der PCBs in Grenzen zu halten.
reunion
2008-11-19, 13:02:20
Was ist denn deiner Meinung nach eine GTX 260? Unabhängig ob 192 oder 216SPs. Es ist ein abgespeckter GT200.
Und die GTX260 GX2 kann ich wo kaufen? Schreiben kann man viel.
dargo
2008-11-19, 13:07:12
Und die GTX260 GX2 kann ich wo kaufen? Schreiben kann man viel.
Oh man. Du weißt aber schon in welchem Unterforum wir hier sind? :)
Wer sagt denn, dass die GTX 260 GX2 unbedingt mit einem abgespeckten GT200 kommen muss? Möglicherweise hat Nvidia zur Verringerung der Leistungsaufnahme auch einfach nur die Taktraten derart begrenzt, dass man lediglich auf 2*GTX-260-Niveau landet.
Ok, das leuchtet ein.
Möglicherweise ist auch nur das Speicherinterface abgespeckt, um die Komplexität des PCB/der PCBs in Grenzen zu halten.
Das wiederum wäre eine Abspeckung solange man bei GDDR3 bleibt.
reunion
2008-11-19, 13:19:09
Na eine GTX260 GX2 wäre schneller als eine GTX280 und vermutlich ähnlich schnell oder schneller als die 4870X2. Und das ist gewiss das Ziel von NV.
Allerdings sollte diese in Bezug auf die Kosten nicht mithalten können. Viel breiteres SI 2x und einen größeren Kern 2x und knapp 900 MiB VRAM 2x. Das sollte preislich schon zu einem Unterschied führen aber knapp die Performancekrone holen. AMD könnte sich dann allerdings dazu entschließen, eine 4870X2+ z.B zu bringen, die dank Selektion mehr Takt und damit mehr Leistung bringt.
Ich halte GX2 Varianten mit so großen, teuren Kernen für ökonimisch ungünstig.
Eine solche Karte wäre nicht nur ökonomisch ungünstig, sondern auch ökologischer Wahnsinn. Klar machbar ist vieles, aber ob es den Aufwand wert ist wage ich zu bezweifeln. Und einen Preiskampf kann nV in der aktuellen Situation ohnehin nicht gewinnen. Selbst die Performancekrone wäre nicht eindeutig erreichbar wenn man nicht annähernd zwei Chip mit GTX280-Leistung verbaut.
Oh man. Du weißt aber schon in welchem Unterforum wir hier sind? :)
Wurde hier nicht immer prophezeit, dass eine abgespeckte GPU keinen Sinn für die GX2 macht? :rolleyes:
Dann solltest du mit solchen Aussagen vielleicht noch warten bis mehr als ein wager Verdacht bekannt ist.
Das es ein abgespeckter G200 sein muss war ja von Anfang an klar, wie will man den bitte schön eine GX2 Karte mit 1024Bit SI zu einen Vernünftigen Preis Verkaufen!?!
Ganz im Gegenteil, eine GX2 mit vollem G200 wäre Kompletter Unsinn, 260 GX2 ist da Preislich viel besser aufgestellt und man könnte super gut noch ein paar G200 GPUs Selektieren für eine Art G200 Ultra Karte.
Wieso denn 1024 SI? Nvidia hat GX2 immer aus 2 Karten im SLI Verbung gebaut, damit würde es ein 512 SI bleiben.
Soetwas darf man aus meiner Sicht von dem Chip erwarten.
GTX 260 GX2
2x 216 SPs, 2x 72 TMUs, 2x 28 ROPs, 2x 448 Bit
555/1296/900 MHz
Spasstiger
2008-11-19, 17:45:33
Anstatt SPs zu deaktivieren, wäre es sinnvoller, den Takt und die Spannung zu senken. Aber ein schmaleres SI kann ich mir durchaus vorstellen.
Wieso denn 1024 SI? Nvidia hat GX2 immer aus 2 Karten im SLI Verbung gebaut, damit würde es ein 512 SI bleiben.
Wie die Karte gebaut wird ist doch egal, kosten tut es so oder so einfach mehr, erst recht bei zwei...
dargo
2008-11-19, 22:25:34
Wieso denn 1024 SI? Nvidia hat GX2 immer aus 2 Karten im SLI Verbung gebaut, damit würde es ein 512 SI bleiben.
Er meint ja auch 2x 512bit SI.
Jetzt sind in einem asiatischen Forum angebliche Bilder einer GTX 290 aufgetaucht. Den Originallink habe ich leider nicht gefunden:
http://forums.vr-zone.com/showthread.php?t=354923
AnarchX
2008-11-20, 19:16:20
Kein 55nm Die und auch so ist der G200-300-A2 schon im Umlauf.
Für mich ist das eher eine kühlerlose GTX 280 neueren Datums.
Das ist keine 290 sondern eine normale 280 OC
XBit-Labs spekuliert dass die GTX 260-216 Kerne bereits im 55nm Prozess gefertigt sein könnten:
But why was the GPU of the older GeForce GTX 260 hotter than the GPU of the newer one?
I found the answer when I analyzed the BIOSes of the cards. The BFG card proved to have a core voltage of 1.12V under load whereas the Leadtek had a core voltage of only 1.06V. This seemingly insignificant difference affected the results. I want to also note that at the same frequencies the peak current is not higher than 53A on the Leadtek card but as high as 62A on the BFG card. I am not absolutely sure, but considering the above-mentioned facts and the new marking of the chip, it is possible that the new card’s GPU is manufactured on 55nm tech process. I will return to this topic again when I will be measuring power consumption of the cards.
http://www.xbitlabs.com/articles/video/display/radeon-hd4870-1024_7.html
James Ryan
2008-11-23, 08:17:22
Meine GTX260-216 hat unter 3D eine Spannung von 1,12 Volt.
Glaube nicht dass aktuell schon 55nm GPUs verkauft werden.
MfG :cool:
reunion
2008-11-23, 09:41:02
Die 55nm Chips werden anscheinend auch nicht mit niedrigerer Spannung betrieben, siehe Tesla-Produkte.
James Ryan
2008-11-24, 11:44:15
Die 55nm Chips werden anscheinend auch nicht mit niedrigerer Spannung betrieben, siehe Tesla-Produkte.
Dann schau ich mal wie hoch ich takten kann.
700/1404/1150 MHz laufen schonmal, eine 55nm GT200 müsste aber wohl deutlich höher gehen, oder?
MfG :cool:
Megamember
2008-11-24, 22:42:52
http://computer.t-online.de/c/16/81/65/62/16816562.html
DIe FX5800 basiert doch auf der neuen 55m Version der 280GTX, oder? Die 800MHZ Takt gefallen mir:D
"Schnittstelle" für "ALU" ist ja mal sehr kreativ.
Spasstiger
2008-11-24, 22:52:15
http://computer.t-online.de/c/16/81/65/62/16816562.html
DIe FX5800 basiert doch auf der neuen 55m Version der 280GTX, oder? Die 800MHZ Takt gefallen mir:D
Die 800 MHz sind der Speichertakt. :frown:
Die Spekulationen über den Chiptakt reichen von 600 MHz bis 650 MHz.
Megamember
2008-11-24, 22:55:01
Die 800 MHz sind der Speichertakt. :frown:
Die Spekulationen über den Chiptakt reichen von 600 MHz bis 650 MHz.
Oh Mist. Okay, vergesst was ich geschrieben hab:(
Ailuros
2008-11-25, 06:46:51
"Schnittstelle" für "ALU" ist ja mal sehr kreativ.
Sei doch nicht so streng....das Ding kann doch 240 Rechenprozesse gleichzeitig ausfuehren LOL ;D
deekey777
2008-11-25, 11:55:56
Sei doch nicht so streng....das Ding kann doch 240 Rechenprozesse gleichzeitig ausfuehren LOL ;D
Jeder SP arbeitet an einem Thread. 240 SPs gleich 240 Threads.
:biggrin:
Die Aussage stimmt.
Gibt es irgendwelche neuen Infos wann die 55nm Consumer Teile endlich im Handel auftauchen?
Geduld dich noch mal zwei Wochen.
Spasstiger
2008-11-25, 15:54:49
Gibt es irgendwelche neuen Infos wann die 55nm Consumer Teile endlich im Handel auftauchen?
Evtl. sind die Teile schon im Umlauf, siehe #402.
robbitop@work
2008-11-25, 16:26:57
Erwartet ihr euch ernsthaft etwas von diesem half-node? Hauptsächlich sichert er NV die Margen. Ich habe jedenfalls noch keine GPU gesehen, der technische Vorteile aus 55 nm ggü 65 nm gezogen hat (geschweige denn jemals welche durch Halfnodes gehabt hätte).
AnarchX
2008-11-25, 17:20:26
Ich habe jedenfalls noch keine GPU gesehen, der technische Vorteile aus 55 nm ggü 65 nm gezogen hat (geschweige denn jemals welche durch Halfnodes gehabt hätte).
NV41(130nm) -> NV42(110nm), letzerer war deutlich sparsamer und ließ sich auch höher takten.
NV41(130nm) -> NV42(110nm), letzerer war deutlich sparsamer und ließ sich auch höher takten.
War aber auch nur ein 3/4 NV41, siehe 6800GS oder die Mobile 6800 ;-)
deekey777
2008-11-25, 19:57:58
War aber auch nur ein 3/4 NV41, siehe 6800GS oder die Mobile 6800 ;-)
Das war ein voller NV41 in 110 nm.
Also ich erwarte mir weniger Abwärme und wenns nur 20W sind, OC ist mir egal. Leider hat sich nV offenbar entschlossen die Teile nicht extra kenntlich zu machen so dass keiner weiss wann und wo sie drauf sind :angry:
Das war ein voller NV41 in 110 nm.
Hmm, sry für OT, aber bist du dir da sicher?
IMHO war NV41 die native PCIe Version des NV40. Deshalb müssten beide eigentlich auch volle 16 PP (yeah Pixel-Pipelines, das Wort vermisse ich irgendwie...) haben? Aber NV42 hatte davon ganz sicher nur 12 und war dafür eben höher getaktet.
deekey777
2008-11-25, 21:28:26
Hmm, sry für OT, aber bist du dir da sicher?
IMHO war NV41 die native PCIe Version des NV40. Deshalb müssten beide eigentlich auch volle 16 PP (yeah Pixel-Pipelines, das Wort vermisse ich irgendwie...) haben? Aber NV42 hatte davon ganz sicher nur 12 und war dafür eben höher getaktet.
NV45 war die PCIe-Version des NV40. Die ersten 6800 basierten auf dem teildeaktivierten NV40 (AGP) oder NV45 (PCIe) und hatten dadurch volle 16 ROPs. Für PCIe kam irgendwann der NV41 als 6800 (12 Pipes/12 ROPs), der dann auf 110 nm geshrinkt wurde. Irgendwann kamen auch 6800 AGP, die auf dem NV42 basierten (und einen externen Bridgechip nutzten).
AnarchX
2008-11-25, 21:42:11
NV45 war die PCIe-Version des NV40. .
Genau, NV45 = NV40 + Bridge für PCIe, später kam dann noch NV48, welcher der native 16PP-NV4x-PCIe-Chip war.
Wobei mir gerade aber bei NV42 noch einfällt, dass dieser ja bei TSMC gefertigt wurde, während NV40 und NV41 bei IBM, deren 130nm Prozess nicht der beste gewesen sein soll. Vielleicht auch der Grund für das gute Halfnode-Ergebnis.
Naja, was wir über G200B wissen, ist dass er trotz 1.18V und GTX 280 Taktraten mit 200W maximaler Boardpower und somit 2x6Pin bzw. 1x8Pin auskommt.
Für einen Halfnode jedenfalls schon kein schlechtes Ergebnis.
OBR postet im XS was von ner Dualkarte und ner NV-Party/Präsentation am 12/12 in München ?
http://www.xtremesystems.org/forums/showthread.php?t=208738
deekey777
2008-11-25, 23:16:33
.
Genau, NV45 = NV40 + Bridge für PCIe, später kam dann noch NV48, welcher der native 16PP-NV4x-PCIe-Chip war.
Wobei mir gerade aber bei NV42 noch einfällt, dass dieser ja bei TSMC gefertigt wurde, während NV40 und NV41 bei IBM, deren 130nm Prozess nicht der beste gewesen sein soll. Vielleicht auch der Grund für das gute Halfnode-Ergebnis.
Naja, was wir über G200B wissen, ist dass er trotz 1.18V und GTX 280 Taktraten mit 200W maximaler Boardpower und somit 2x6Pin bzw. 1x8Pin auskommt.
Für einen Halfnode jedenfalls schon kein schlechtes Ergebnis.
Ich glaube, du irrst dich, was den NV48 angeht: Es war eine Mogelpackung, es war ein Extra-Name für den gewöhnlichen NV45, der 512 MB VRAM hatte.
robbitop@work
2008-11-26, 10:37:20
NV41(130nm) -> NV42(110nm), letzerer war deutlich sparsamer und ließ sich auch höher takten.
Äpfel vs Birnen. IBMs Prozess kannst du wohl kaum mit dem TSMC Prozess vergleichen. Zumal ganz andere Librarys und andere Floorplans zum Einsatz kamen. Apfel vs Apfel wäre R420 vs R430? TSMC 130 nm vs 110 nm. Da hatte 110nm keinen Vorteil, IIRC eher leichte Taktnachteile.
Angeblich sollten die ersten 55nm Karten doch Anfang Dezember hier bei den Händlern aufschlagen.
Wenn man die ganze Transportdauer hierher berücksichtigt dann müsste es doch längst irgendwelche Fernost-Reviews zu den neuen Karten geben...
Warum ist das nichts?
James Ryan
2008-11-30, 20:10:48
Weil die 55nm Chips für den Kunden nichts neues bieten werden, einzig NVIDIAs Margen werden besser.
MfG :cool:
Das ist keine Antwort warum es noch keine Reviews dazu gibt. Die würden sich wie die Geier auf die neuen Karten stürzen um genau das herauszufinden, ob es nämlich nichts bringt z.B. in Sachen Leistungsaufnahme oder OC-Verhalten.
reunion
2008-11-30, 20:24:24
Hauptproblem dürfte sein die neuen Karten zu identifizieren, das ist nämlich wohl nur möglich indem man den Heatspreader kappt.
AnarchX
2008-11-30, 20:31:53
Hauptproblem dürfte sein die neuen Karten zu identifizieren, das ist nämlich wohl nur möglich indem man den Heatspreader kappt.
Warum sollte man den HS entfernen müssen?
Wenn schon wird man doch hier die richtige GPU-Bezeichnung auf diesem finden und eben das "B" in der Revisionsnummer.
mictasm
2008-11-30, 20:46:42
Und auslesen lässt sich das nicht?
Sorkalm
2008-11-30, 20:56:42
Ja, was auf dem Chip steht sollte schon reichen. Vielleicht können auch Tools den Unterschied bald herauslesen.
Jedenfalls gehts nicht beim Kauf, und das dürfte Nvidias Ansehen sein.
OBR postet im XS was von ner Dualkarte und ner NV-Party/Präsentation am 12/12 in München ?
http://www.xtremesystems.org/forums/showthread.php?t=208738
Wenn das am 12. Dezember wäre, müssten schon einige Leute mehr wissen. ;)
Ob die Karte nun kommt oder nicht, ist weniger eine Frage des technisch möglichen (das ist sie durchaus), sondern ob die für Nvidia Sinn macht.
Megamember
2008-11-30, 21:15:54
Und auslesen lässt sich das nicht?
Mit GPU-Z in entsprechender Version müsste sich das schon auslesen lassen. Das steht ja auch immer das Fertigungsverfahren.
Ach, GPU-Z...
Das kann nach all der langen Zeit ja noch nichtmal den G92 vom G92b unterscheiden...
AnarchX
2008-11-30, 21:19:42
Mit GPU-Z in entsprechender Version müsste sich das schon auslesen lassen. Das steht ja auch immer das Fertigungsverfahren.
^^
Was GPU-Z macht ist anhand der Device-ID ein paar Datenbankeinträge zu laden und wenn der Hersteller versäumt die neue Device-ID ins Bios einzutragen, dann bleiben dort 65nm stehen, trotz dass ein 55nm Chip auf der Karte ist, wie bei einigen 98GTX+ geschehen.
Ich kann Euch versichern, dass die Nvidia-55-nm-Chips schon funktionstüchtig sind. Auch kann ich Euch die freudige Botschaft überbringen, dass die Verlustleistung 20-25% geringer als bei GT200 ausfällt.
Zwecks Launch: Geduldet Euch einfach noch ein bisschen. Es dauert nicht mehr lange. Zwischen Nikolaus und dem Weihnachtsmann wird's soweit sein. ;)
Sorkalm
2008-11-30, 21:45:11
Zwecks Launch: Geduldet Euch einfach noch ein bisschen. Es dauert nicht mehr lange. Zwischen Nikolaus und dem Weihnachtsmann wird's soweit sein.
Das wäre der 12.12. Aber ein "Gast" ist nun nicht gerade die seriöse Bestätigung. ;)
Nein, der 12.12 ist es nicht, wobei ein Produkt-Launch an einem Freitag auch mal eine erfrischende Abwechslung wäre. :)
Jo, so ne Kristallkugel ist schon was Feines.
Sorkalm
2008-11-30, 22:09:58
wobei ein Produkt-Launch an einem Freitag auch mal eine erfrischende Abwechslung wäre. :)
Da hast du Recht, nicht unbedingt Nvidia-typisch. Da würde ich eher von anderen Dezember-Terminen ausgehen. ;)
Man muss sie nur das ganze Jahr über gut polieren, dann spuckt sie im Gegenzug zur Weihnachtszeit auch alle Geheimnisse aus. :)
Bin mal sehr gespannt, mit hoher Wahrscheinlichkeit wirds bei mir eine GTX260 oder GTX280 der "neuen" werden.
pXe
Fetza
2008-11-30, 22:51:51
Bin mal sehr gespannt, mit hoher Wahrscheinlichkeit wirds bei mir eine GTX260 oder GTX280 der "neuen" werden.
pXe
Jup, bei mir wirds wohl auch eine der neuen gtx 260ern werden. Allerdings möchte ich vorher einen artikel bezüglich deren übertaktungsfähigkeiten lesen.
PC wird am 13.12. bestellt, meint ihr die gibts da schon?
Zitat von OBR ausm XS
Reviews of Dual Monster will be released around the world ... 1x. 12. 2008! ! Details soon!
James Ryan
2008-12-01, 13:18:02
Wird wohl wenn dann der 15.12. sein, so wegen Montagslaunch und so. ;)
MfG :cool:
Der 15.12. ist ein geschichtsträchtiges Datum. ;)
MfG,
Raff
James Ryan
2008-12-01, 13:29:49
Da wurde doch 3dfx übernommen, oder? ;)
MfG :cool:
mapel110
2008-12-01, 13:33:14
Da wurde doch 3dfx übernommen, oder? ;)
MfG :cool:
Teile davon aufgekauft, nicht übernommen. Meine Mutter hat an dem Tag Geburtstag. Auch sehr geschichtsträchtig. :biggrin:
crux2005
2008-12-01, 14:10:33
und ich habe an dem Tag ne Prüfung ;D geiles Datum
wieso habe ich nur gedacht, das es der 18. wird? :frown:
Gaestle
2008-12-01, 16:36:43
Veröffentlicht NV seine Chips nicht immer Dienstags?
crux2005
2008-12-01, 16:48:04
Release:
G200 - sicher Montag
G80 - ach, Mittwoch
GeForce 7950 GX2 - auch Montag
G71 - Dienstag oder doch Montag?
G70 - glaube Donnerstag
...
G200 - Montag
G92 - 9800 GTX - Dienstag
G92 - 9800 GX2 - Dienstag
G92 - 8800 GTS 512 - Dienstag
G80 - Mittwoch
G71 - 7950 GX2 - Montag
G71 - 7900 GTX - Dienstag
G70 - 7800 GTX 512 - Montag
G70 - 7800 GTX - Mittwoch
Alle Daten sind sorgfältig nachgeschlagen. Ob man jetzt mehr weiß? ;)
horn 12
2008-12-01, 17:04:14
Da wird glaub ich sicher nix mehr kommen seitens NV, ebenso von ATI gehe ich stark davon aus dass NUN erst mit RV870 wieder was kommt, ist ja schon der 1.te Dezember und immer noch keine Infos. Wird nun auch schon langsam knapp fürs Weihnachtsgeschäft, daher:mad:
Da hat NV wohl derbe versagt nach dem hochgepriessenen SpätSommer/ Frühherbst mit ihrem GTX 280 Refresh in 55 um!
Gaestle
2008-12-01, 17:09:54
G200 - Montag
G92 - 9800 GTX - Dienstag
G92 - 9800 GX2 - Dienstag
G92 - 8800 GTS 512 - Dienstag
G80 - Mittwoch
G71 - 7950 GX2 - Montag
G71 - 7900 GTX - Dienstag
G70 - 7800 GTX 512 - Montag
G70 - 7800 GTX - Mittwoch
Alle Daten sind sorgfältig nachgeschlagen. Ob man jetzt mehr weiß? ;)
Ja, ich weiß jetzt, dass NV nicht auf den Dienstag fixiert ist.
Ailuros
2008-12-01, 17:09:58
Teile davon aufgekauft, nicht übernommen. Meine Mutter hat an dem Tag Geburtstag. Auch sehr geschichtsträchtig. :biggrin:
Wenn Du mit "Teilen" das Personal meinst, dann stimmt es schon. Etwas ueber 100 engineers nahm NVIDIA an und der wichtigere Rest ging an Quantum3D zusammen mit dem Vertrag zwischen NV und Quantum.
Sonst wurden eigentlich nicht die Schulden uebernommen; alles andere wichtige wie Patente, Namen, Technologie und Gigapixel IP ist seither in NVIDIA's Haenden. Was soll nach all dem uebrig gewesen sein?
Der 15.12. ist ein geschichtsträchtiges Datum.
Grafik engineering Talent kann bei jedem IHV der Grafik mit voller Kraft unterstuetzt fuer sehr gute Resultate sorgen. Fuer NV4x und G80 gehen die Lorbeeren an alle engineers und da sind Kerle wie Killgariff voll aktiv am Ball. Natuerlich gab es stets Vor- als auch Nachteile. Der "texturing computer" und die gesamte multi-GPU Philosophie sind nicht das gelbe vom Ei wenn man zuruecksieht, aber man kann auch nie alles vorhersehen.
also n launch am 15.12. ist arschknapp am weihnachtsgeschäft vorbei... wenn man bedenkt dass die amis sich jetzt gegenseitig im toys r us abknallen und NICHT um den 20.12. rum.... da ist nicht mehr viel zu machen.
Was heisst Launch...
N grosses Ding will nV ja eh ned drum machen, die Teile werden still und leise einfach in der laufenden Produktion die 65nm Parts ersetzen.
Also nix mit grossem Launch oder so, für den Kunden läuft einfach alles weiter wie gehabt, nur dass dann irgendwann 55nm Teile unter dem Kühler sind aber keine Sticker auf der Box und keine Werbung und garnix.
Seit wann gibt es den eine GX2 mit G200 65nm Chips? ;)
Ich sprach von den normalen GT200 Teilen.
Sorkalm
2008-12-01, 19:47:29
Ich sprach von den normalen GT200 Teilen.
Da würde ich auch erstmal abwarten und nicht jedem Gerücht gleich vollstes Vertrauen schenken. ;)
Ri*g*g*er
2008-12-01, 19:48:45
Argh,
ich brauch endlich was richtig ordentliches um meinen 24 Zöller zu befeuern und die 8800 GT ist nun schon 1 Jahr im Rechner und ne 280 GTX wollte ich nicht kaufen, hatte vor Weihnachten mit nem Refresh spekuliert.
Und zwar Stromsparender, Kühler, Leiser und vor allemn mit DDR 5 Speicher.
Aber das wird wohl nix mehr *snüff*
Nunja da ich nen Vernuftsmensch bin geht die Kohle wohl aufs Sparbuch für den nächsten Urlaub in der Sonne.
Das wird so knapp vor Weihnachten nix mehr wenn jetzt immer noch nix im Netz bekannt ist.
Ich kann mich noch gut an letztes jahr erinnern als nur ca. 25.000 - 8800 GT vor dem Weihnachtsgeschäft eintrudelten die wurden aus den Regalen förmlich gerissen hehe
Schade, nach dem querlesen der ganzen Foren würde ich ja schon soweit gehen und behaupten die 260 GTX sind bereits in 55 gefertig, da die OC Möglichkeit immer besser und höher wird wenn man die Ergebnisse vergleicht.
Naja warten wir mal ab was am 15.12. passiert.
Eine GX2 Karte können die sich sonst wohin schieben.
Gruss
Ri*g*g*er
Da würde ich auch erstmal abwarten und nicht jedem Gerücht gleich vollstes Vertrauen schenken. ;)
Was meinst du damit, daß nV doch noch die 270 und 290 bringt? :confused:
Sorkalm
2008-12-01, 20:05:25
ich brauch endlich was richtig ordentliches um meinen 24 Zöller zu befeuern und die 8800 GT ist nun schon 1 Jahr im Rechner und ne 280 GTX wollte ich nicht kaufen, hatte vor Weihnachten mit nem Refresh spekuliert.
Und zwar Stromsparender, Kühler, Leiser und vor allemn mit DDR 5 Speicher.
Aber das wird wohl nix mehr *snüff*
Ach, Nda wird das nächstes Jahr schon einige Neuerungen bringen, die mal den Spielemarkt richtig beschleunigen. Wenn auch nicht in Kracher-Schritten, dafür in mehr kurzfristigeren Punkten. Schließlich kommt auch Larrabee irgendwann, da wollen die IHVs aufgestellt sein. ;)
Mit GDDR5-Speicher musst du aber nicht rechnen, bevor Nvidia das Speicherinterface im High-End wieder verkleinert, also nicht vor Q2/2009.
Was meinst du damit, daß nV doch noch die 270 und 290 bringt? :confused:
Wir werden sehen. :)
AnarchX
2008-12-02, 08:11:12
http://img78.imageshack.us/img78/2654/55nmgt200lc9.jpg (http://imageshack.us)
http://en.expreview.com/2008/12/02/the-worlds-first-image-of-55nm-gt200-exposed.html
Da hat wohl die B1-Revision noch nicht gereicht.
Mit ner anständigen Kühllösung ab Werk (Zalman oder Scythe z.B.) und für um 200 Euro wäre eine solche 260 ein guter Kauf.
Sorkalm
2008-12-02, 09:45:23
Da hat wohl die B1-Revision noch nicht gereicht.
Anzunehmen, denn der ursprüngliche Plan war ja mal die Karten bereits Ende des dritten Quartals zu bringen.
Expreview spricht übrigens von Januar für die neuen Karten.
The first of new GTX260 graphic cards will hit the market in January next year. The number of its stream processors will maintain as 216, and its memory frequency is unchanged as well. The reference and non-reference versions cards will be on sale at the same time. Thanks to application of new processor and the circuit designed by manufacturers themselves, the price will hopefully keep declining.
Die 55nm Teile wird es also offenbar hauptsächlich, wenn nicht sogar ausschliesslich, auf von Herstellern auf BILLIG BILLIG BILLIG selbst entwickelten Schrottboards geben. Wer noch eine gute Referenz haben will sollte also noch im Dezember zuschlagen, 65nm hin oder her.
Jeder der so eine Billig Karte kauft ist dann halt selber schuld, Referenz Karten wird es immer geben z.b. von EVGA.
reunion
2008-12-02, 15:34:45
Laut Fuad soll im Jänner tatsächlich noch eine Dual-GT200-Karte kommen: http://www.fudzilla.com/index.php?option=com_content&task=view&id=10726&Itemid=1
Bleibt die Frage ob das noch sinnvoll ist wenn spätestens im Q2 die 40nm Chips kommen.
Jeder der so eine Billig Karte kauft ist dann halt selber schuld, Referenz Karten wird es immer geben z.b. von EVGA.
Sagt wer? Bei den 9800GTX+ gibts von EVGA auch keine Referenz mehr. Wer soll die auch noch produzieren wenn sie zu teuer sind und keinen Gewinn abwerfen...
Sagt wer? Bei den 9800GTX+ gibts von EVGA auch keine Referenz mehr. Wer soll die auch noch produzieren wenn sie zu teuer sind und keinen Gewinn abwerfen...
Quelle?
Fetza
2008-12-02, 16:29:43
Laut Fuad soll im Jänner tatsächlich noch eine Dual-GT200-Karte kommen: http://www.fudzilla.com/index.php?option=com_content&task=view&id=10726&Itemid=1
Bleibt die Frage ob das noch sinnvoll ist wenn spätestens im Q2 die 40nm Chips kommen.
Ich denke mal, die wäre sogar dringend nötig, wenn man davon ausgeht, das ati rv870 im ersten quartal releast, schließlich müssten sie von januar an zwischen 4/5 monate damit überbrücken.
Edit: Mal ganz davon abgesehen, dass man sonst kampflos die performancekrone bei ati lassen würde.
James Ryan
2008-12-02, 16:31:10
Sagt wer? Bei den 9800GTX+ gibts von EVGA auch keine Referenz mehr. Wer soll die auch noch produzieren wenn sie zu teuer sind und keinen Gewinn abwerfen...
Laut Geizhals gibts nur Referenz EVGA Gf9800 GTX+ Karten.
MfG :cool:
Könnt ihr knicken, das sind alles noch alte, nicht aktualisierte Bilder. Neue 9800GTX+ Karten sind keine Referenz mehr, von keinem Hersteller.
Besseres Bild von der EVGA hab ich auf die Schnelle nicht gefunden (Post #1249)
http://www.forumdeluxx.de/forum/showthread.php?t=465687&page=42
auf der EVGA seite sind die neuen 9800GTX+ auch gelistet, mit nur einem 6-Pin Anschluss!
Doch sehr Interessant, zum Glück hab ich eine alte Ur Version der 9800GTX+ ;)
Wo ist das Problem an "nicht Referenz" im Allgemeinen?
Mehr Phasen?
Johnny Rico
2008-12-02, 18:15:09
Wieso findest Du "mehr Phasen" schlecht?(kommt natürlich auf die Nutzung an)
Kann man so allgemein nicht sagen. Klar ist daß der Grund warum "Nicht Referenz" Karten gebaut werden zuallererstmal Kosteneinsparungen sind. Die Karten stehen schliesslich in direkter Konkurrenz zu billigen ATI aber waren ursprünglich nicht so billig geplant. Also wird der Kühler eben billiger gemacht, das PCB billiger gemacht mit weniger Layern, es wird an Komponenten gespart, billigere verbaut etc.
Wenns übertrieben wird kommt dann so Dreck wie bei PNY heraus, ein lauter Kühler der schlecht kühlt und zu allem Überfluss die heisse Abluft auch noch genau nach hinten auf die Festplatten lenkt und sie regelrecht röstet statt aus dem Gehäuse raus.
LovesuckZ
2008-12-02, 18:22:04
Laut Fuad soll im Jänner tatsächlich noch eine Dual-GT200-Karte kommen: http://www.fudzilla.com/index.php?option=com_content&task=view&id=10726&Itemid=1
Bleibt die Frage ob das noch sinnvoll ist wenn spätestens im Q2 die 40nm Chips kommen.
Bei der eingesetzten Deflation auf dem Markt kauft sich doch sowieso niemand die Karte. Es handelt sich also um eine fast 100% Marketinggag, um - was anscheinend bei einigen wirklich - wieder die schnellste Slotkarte zu haben. Und sollten sich die 20% weniger Stromverbrauch Spekulationen als wahr herausstellen, könnte man auch zwei komplett funktionierende Dies verwenden.
Gast
GT200b soll doch so sparsam sein, wozu dann das fette alte überdimensionierte Brett benutzen? ;)
Was ist mit Karten wie zb Gigabytes 8800 GT Turboforce?
Die macht auf mich einen besseren Eindruck als das Referenzdesign, es ist sogar schickerer VRAM verbaut.
Oder was ist mit Karten mit mehr VRAM?
Das wiederlegt doch gerade die Behauptung nicht Referenz wäre schlecht.
Wieso findest Du "mehr Phasen" schlecht?(kommt natürlich auf die Nutzung an)
Tu ich nicht, ich wollte wissen, was an mehr Phasen schlecht ist. ;)
Sorkalm
2008-12-02, 21:08:20
Ich denke mal, die wäre sogar dringend nötig, wenn man davon ausgeht, das ati rv870 im ersten quartal releast, schließlich müssten sie von januar an zwischen 4/5 monate damit überbrücken.
Bisschen viele Annahmen drinne, hmm? ;)
Es stellt sich doch erstmal überhaupt die Frage, ob eine Grafikkarte mit einem GT212 zwei GT200b-Chips ersetzen kann. Da muss dann ja schon ordentlich mehr Power beim GT212 dahinterstehen. Da das ganze ein Performance-Chip wird, ist es doch schon ganz nett, dass Nvidia deutlich mehr Leistung gegenüber einem GT200b rausholt (OK, es ist ein Shrink dabei, aber man sollte auch beachten, wie groß selbst die 55-nm-Version des GT200 noch ist).
Man muss ja als Unternehmen auch mittelfristig denken, und bis ins zweite Quartal 2009 wollen das sogar die so verschrienen Quartals-BWLer. ;)
Natürlich gehört dazu auch die Lage gegenüber der Konkurrenz zu schecken. Aber solange da oben nichts nachkommt (und bzgl. deiner Angabe für Q1 RV870 würde ich auch erst einmal abwarten), ändert eine GTX 2x0 GX2 auch nicht so viel.
Die Technik so einer Dual-Karte ist ja nun nicht das problematische.
Das wiederlegt doch gerade die Behauptung nicht Referenz wäre schlecht.
Bei Nicht-Referenz hat man jedenfalls nicht die Sicherheit, dass sie ausführlich in den Laboren der IHVs getestet wurden sind. Denn das geschieht meist in einem viel größeren Umfang als die Tests der Hersteller.
AnarchX
2008-12-02, 21:27:18
Laut Expreview wird wohl die G200GX2 GeForce GTX 295 (http://www.expreview.com/news/hard/2008-12-03/1228240678d10681.html) heißen.
Da muss dann ja schon ordentlich mehr Power beim GT212 dahinterstehen. Da das ganze ein Performance-Chip wird, ist es doch schon ganz nett, dass Nvidia deutlich mehr Leistung gegenüber einem GT200b rausholt.
Das ist so nicht ganz richtig. Auch wenn der GT212 im Speicherinterface etwas beschnitten wird - dies gleicht dann der Einsatz von GDDR5 aus -, so steht doch eine saftige Aufstockung der wichtigsten Recheneinheiten auf der Agenda.
Es handelt sich definitiv um einen High-End-Chip, der zu Beginn auch IMHO mindestens $499 kosten wird. In Richtung Performance-Chip kann man eher auf den GT216 spekulieren.
(und bzgl. deiner Angabe für Q1 RV870 würde ich auch erst einmal abwarten)
Da hast Du vollkommen recht. Mich würde es sehr überraschen, wenn wir denn den RV870 noch tatsächlich im ersten Quartal sehen. Ich habe ihn für frühestens Mai auf der Rechnung.
http://img78.imageshack.us/img78/2654/55nmgt200lc9.jpg (http://imageshack.us)
http://en.expreview.com/2008/12/02/the-worlds-first-image-of-55nm-gt200-exposed.html
Da hat wohl die B1-Revision noch nicht gereicht.
soll nen Fake sein
Fetza
2008-12-02, 23:55:15
Bisschen viele Annahmen drinne, hmm? ;)
Ja, was soll ich sagen, irgendwie standard in einem spekulationsforum, anders läßts sich wohl kaum spekulieren, hmm? :)
Es stellt sich doch erstmal überhaupt die Frage, ob eine Grafikkarte mit einem GT212 zwei GT200b-Chips ersetzen kann. Da muss dann ja schon ordentlich mehr Power beim GT212 dahinterstehen. Da das ganze ein Performance-Chip wird, ist es doch schon ganz nett, dass Nvidia deutlich mehr Leistung gegenüber einem GT200b rausholt (OK, es ist ein Shrink dabei, aber man sollte auch beachten, wie groß selbst die 55-nm-Version des GT200 noch ist).
Man muss ja als Unternehmen auch mittelfristig denken, und bis ins zweite Quartal 2009 wollen das sogar die so verschrienen Quartals-BWLer. ;)
Natürlich gehört dazu auch die Lage gegenüber der Konkurrenz zu schecken. Aber solange da oben nichts nachkommt (und bzgl. deiner Angabe für Q1 RV870 würde ich auch erst einmal abwarten), ändert eine GTX 2x0 GX2 auch nicht so viel.
Siehste ;)
Davon abgesehen, könnte ich mir schon vorstellen, gesetzt dem fall GT212 hat wirklich 384 sps, dass er die leistung einer eventuellen gx2 erreichen wird. Bei sli ist ja immer etwas schwund und interne verbesserungen wird er bestimmt haben.
AnarchX
2008-12-03, 08:29:58
soll nen Fake sein
Bei XS gelesen? ;) Deren Argumentation ist aber Unsinn, da es sich nunmal hier um einen G200-103 für eine GTX 260-216SP handelt.
Ailuros
2008-12-03, 09:18:11
Davon abgesehen, könnte ich mir schon vorstellen, gesetzt dem fall GT212 hat wirklich 384 sps, dass er die leistung einer eventuellen gx2 erreichen wird. Bei sli ist ja immer etwas schwund und interne verbesserungen wird er bestimmt haben.
Falls es eine GX2@55nm tatsaechlich geben wird (welches so oder so eine bloede Idee IMHO ist), bin ich mir nicht so sicher dass eine theoretische GT212 mit 384SPs diese schlagen koennte. Immerhin waehren es 2*72 TMUs und 2*28 ROPs auf der GX2.
***edit: das es schon seit einiger Zeit Messungen von 2*GTX260@SLi gibt, kann man ja die Leistung einer 260/GX2 ziemlich leicht abschaetzen.
Ich hoffe die GTX 295 kommt mit einem vollen G200 dafür aber mit low Takt, die Karte wäre dann der hammer!
Beschnittene Chips kann ich überhaupt nicht leiden...
So 500MHz ROP und 1200MHz Shader würden sich doch sehr gut anhören und das mit low Spannnung von ca. 1,0Volt, würde dann wohl sogar weniger Verbrauchen als eine 4870GX2
Bei XS gelesen? ;) Deren Argumentation ist aber Unsinn, da es sich nunmal hier um einen G200-103 für eine GTX 260-216SP handelt.
wer sagt denn das das G200-103-B2 nicht einfach draufgeklatscht wurde, aber wir werden's ja bald sehen
AnarchX
2008-12-03, 12:41:04
wer sagt denn das das G200-103-B2 nicht einfach draufgeklatscht wurde, aber wir werden's ja bald sehen
Warum sollte man das tun?:| Expreview hat ja immerhin eine gewisse Reputation.
Warum sollte man das tun?:| Expreview hat ja immerhin eine gewisse Reputation.
naja, auf den Die-Pics des G200, die ich bis jetzt gesehen habe,
war die Farbe der Revision gleich der restlichen Schrift, aber um mal XS zu zitieren "Hell i don't care"
glaube kaum das von Expreview ein Fake kommt, zudem die in der vergangenheit immer sehr zuverlässig waren.
Übrigens hab ich diesen Metall Rahmen wie es die G80 Karten hatten noch nie auf einer G200 Karte gesehen?!?! Heat Bug Beseitigung dürfte das wohl sein.
Das Bild ist übrigens nicht von einer GTX 260 / 280, die Karten sehen anders aus.
Dürfte eine Quadro Karte sein?
Sehr komische Karte, rechts sieht man M14,M13,M12,M11,M10 und links oben M1 und M2, bei voller bestückung würde das ja 896MB Speicher auf der GPU-Seite bedeuten, mit Rück-Seite 1792MB so eine Karte gibt es aber gar nicht?
Sorkalm
2008-12-03, 16:12:40
Ja, was soll ich sagen, irgendwie standard in einem spekulationsforum, anders läßts sich wohl kaum spekulieren, hmm? :)
Natürlich. :)
Nur so viele Annahmen (ohne bestimmten Grund) verringern halt die Chancen, das was sinnvolles bei rauskommt. ;)
Davon abgesehen, könnte ich mir schon vorstellen, gesetzt dem fall GT212 hat wirklich 384 sps, dass er die leistung einer eventuellen gx2 erreichen wird. Bei sli ist ja immer etwas schwund und interne verbesserungen wird er bestimmt haben.
Wobei man wohl nicht davon ausgehen sollte, das GT212 auch in anderen Punkten die gleiche Steigerung wie bei den SP haben wird. 384 SP vs. 240 hört sich natürlich ganz ordentlich an, und wird sich wohl auch an manchen Punkten bemerkbar machen. Doch anderen Einheiten wachsen eben nicht so stark (wenn man z. B. von einer 1:3-Lösung wie beim GT200 auf eine 1:4-Variante geht).
Die Speicherbandbreite dürfte auch stagnieren, aber das ist wohl eher weniger ein Problem beim GT200.
Falls es eine GX2@55nm tatsaechlich geben wird (welches so oder so eine bloede Idee IMHO ist)
Da jetzt auch noch der Name GTX 295 für die Karte herumschwirrt, scheint die wohl wirklich zu kommen...
AnarchX
2008-12-03, 16:18:48
GT212 hört sich für mich nicht wirklich wie eine High-End-GPU an, wenn dann wohl wieder eine Basis für eine GX2, vielleicht diesmal mit durchdachterer MGPU-Technik.
Oder man konzentriert sich wie ATi mehr auf den $299 Markt (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=439695) und da ist GT212 die entsprechende GPU dafür, während >$499 mit 2x384SPs bedient wird.
nVidia 55nm Parts Update (HeHeHe :D )
http://www.theinquirer.net/gb/inquirer/news/2008/12/03/nvidia-55nm-parts-update
12.12: Paperlaunch
Ende Januar: Verfügbarkeit
(?)
Paperlaunch
Wann gabs zum letzten mal einen Paperlaunch bei nVidia?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.