PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Zukunftsvisionen nVidia


Shink
2009-10-08, 14:15:18
Vermutlich seltsam so eine Frage in einem 3D-GraKa-Forum zu stellen aber... wie stellt sich nVidia eigentlich ihre Zukunft vor?

Irgendwann wollte man mal selbst x86-Chips rausbringen, daraus wurde wohl nichts. Man entwickelte wohl lieber den Tegra für Geräte wie den Zune HD.

Um ION gibt es zur Zeit etwas Hype; die Frage ist was daraus werden soll jetzt da Intel im Pinetrail den GMA 500 einbaut. An eine Marktdominanz von VIA Nano-CPUs in diesem Marktsegment glaub ich eigentlich nicht.

Sowohl AMD als auch Intel wollen in ein paar Jahren die GPUs im Mainstream-Bereich in die CPU verbannen.

Mainboard-Chipsätze will man wohl aufgeben:
http://www.heise.de/newsticker/meldung/Nvidia-steigt-langsam-aus-dem-Geschaeft-mit-Mainboard-Chipsaetzen-aus-817828.html

Bleiben also allein die diskreten Grafikchips (was ja manche auch bezweifeln:freak:) für die (ich behaupte mal: schrumpfende) Gruppe der tapferen PC-Spieler denen IGPs zu lahm sind und ARM-CPUs. Ist das tatsächlich deren Perspektive mithilfe dieser Bereiche groß abzuräumen, weiß ich da etwas nicht oder sieht es so düster für nVidia aus wie es mir vorkommt?

Dural
2009-10-08, 14:23:54
Tesla/Tegra ist ihre zukunft und natürlich High-End Gaming auf dem PC und der wird es auch noch in 10 Jahren geben.

Aber gibt es nicht schon min. 2 Threads hier im Forum über das Thema?

Übrigens könnte ich die selbe Frage über AMD stellen... PC-Gaming solls ja laut einigen bald nicht mehr geben, AMD CPUs Verkaufen sich immer wie schlechter, was bleibt also noch übrig ausser der Low-Cost Markt? Den im Gegensatz zu NV bringt AMD nichts neues... Fusion mal schauen, aber wenn schon keiner die CPU von ihnen will wird das wohl auch nicht der rissen erfolg haben...

HOT
2009-10-08, 16:02:02
1.) verkaufen sich AMD-CPUs wie immer (nicht schlechter nicht besser), könnte aber erheblich besser werden, wenn GF die Fertigung soweit optimiert bekommt, dass die Fertigung billiger und flexibler als bisher laufen kann (ab 32 bzw. 28nm) und damit sehr viel grössere Stückzahlen als heute verfügbar gemacht werden.
2.) Ist PC-Gaming noch lange nicht am Ende, die Technikbasis des PC ist doch viel höher als auf den Konsolen und der Abstand wird grösser
3.) hat NV wirklich ein Problem mit dem Herstellungspreis der jetzigen Produkte (512 bzw. 448Bit Speicherinterface, 400mm²+Chips) - wenn die auch trotzdem weiter verkauft werden dürften, allerdings, wie man an der Verfügbarkeit sieht, limitiert
4.) scheint der Chipsatzausstieg Fakt zu sein und
5.) lässt sich mit Tesla kein grosser Markt füttern, an dem man auch entsprechend verdient. Wenn NV sich darauf konzentriert muss NV sich gesundschrumpfen.
6.) ist Fusion keine grosse Sache sondern nur die Integration eines IGP in die CPU. Es dient eigentlich nur dazu, anderen Herstellern den Weg für Low-End-Karten und IGPs zu verbauen, genau wie bei Intel. Da trifft Intel NV eh schon sehr hart, der AMD-Markt fällt dann aber für NV ebenfalls weg.
7.) muss man a.) abwarten ob Fermi in 3D überhaupt was taugt und b.) abwarten, inwieweit sich die evtl. Fertigungsprobleme auf die Verfügbarkeit des Produktes letztendlich auswirken, denn davon hängt es ab, wie lange NV sich mit den Dumpingkarten über Wasser halten muss.
8.) stellt sich tatsächlich die langfristige Grundsatzfrage für NV, wie es in Zukunft weitergehen soll, wenn Intel die Entwicklung der eigenen Grafiktechnologie forciert und AMD den bisherigen Weg weitergeht und demnächst sogar sehr zeitnah (Q3 2010) evtl. eine überlegene Fertigung nutzen kann. Ich sehe da eigentlich nur die Möglichkeit sich von Formosa aufkaufen zu lassen und NV mit VIA zusammenzulegen, damit ein 3. Hersteller für PC-Zeug entstehen kann, der ernstzunehmen ist.

Coda
2009-10-08, 16:07:48
5.) lässt sich mit Tesla kein grosser Markt füttern, an dem man auch entsprechend verdient. Wenn NV sich darauf konzentriert muss NV sich gesundschrumpfen.
Das könnte sich bald ändern. Für bestimmte Supercomputer-Anwendungen ist Fermi eigentlich wie geschaffen. Vor allem die Margen sind da weitaus höher als im Consumer-GPU-Bereich.

S940
2009-10-08, 16:13:55
Das könnte sich bald ändern. Für bestimmte Supercomputer-Anwendungen ist Fermi eigentlich wie geschaffen. Vor allem die Margen sind da weitaus höher als im Consumer-GPU-Bereich.
Jo, aber die Stückzahl ...
Der Rubel rollt bei den CashCows, große Stückzahl zum guten Preis; Tesla und Co sind Ministückzahl zum stolzen Preis.

Viel, in absoluten Dollars bleibt damit am Ende nicht über. Nettes Beigeschäft, aber zur Hauptgeschäft wird das so schnell nicht.

ciao

Alex

Coda
2009-10-08, 16:23:06
Jo, aber die Stückzahl ...
Große Supercomputer enthalten normalerweise so um die ~100.000 Prozessoren. Wenn man da 10 Aufträge bekommt ist das schon nicht so ohne.

Aber auch kleinere Rechencluster werden da viel über die Theke gehen. Es gibt genügend Unis und wissenschaftliche Forschungseinrichtungen die an sowas interessiert wären.

Die Grundlagen dafür haben sie erstmals mit Fermi alle. Gescheite IDE (Nexus), voller C++-Support, gute DP-Performance und ECC.

HOT
2009-10-08, 16:28:48
Da kann man trotzdem nicht von existieren.

Shink
2009-10-08, 16:29:31
2.) Ist PC-Gaming noch lange nicht am Ende, die Technikbasis des PC ist doch viel höher als auf den Konsolen und der Abstand wird grösser
Hab ich auch nicht gemeint. Wenn etwas vom PC-Gaming in einem Jahrzehnt am Ende ist dann imo das Konzept des dedizierten Grafikchips auf einer dedizierten Grafikkarte. Was ich andererseits zugegebenermaßen vor 10 Jahren auch schon prophezeit hab.:freak:
PC-Gaming ala MMORPG ist z.B. ganz sicher nicht am Ende aber was benötigt man dafür schon an Grafikleistung?

3.) hat NV wirklich ein Problem mit dem Herstellungspreis der jetzigen Produkte (512 bzw. 448Bit Speicherinterface, 400mm²+Chips) - wenn die auch trotzdem weiter verkauft werden dürften, allerdings, wie man an der Verfügbarkeit sieht, limitiert
So etwas gab es immer schon. (Man denke an die "gute" alte 5800 Ultra)

6.) ist Fusion keine grosse Sache sondern nur die Integration eines IGP in die CPU. Es dient eigentlich nur dazu, anderen Herstellern den Weg für Low-End-Karten und IGPs zu verbauen, genau wie bei Intel. Da trifft Intel NV eh schon sehr hart, der AMD-Markt fällt dann aber für NV ebenfalls weg. Für den Kunden ist das im Prinzip völlig egal. AMDs nächster Wurf kann nur der BD sein und eine konsequente Weiterentwicklung der jetzigen Grafikchiplinie.
Nö, große Sache ist es nicht. Nur heißt es eben dass nVidia nichtmal die Chance hat z.B. in ein Netbook, ULV-Notebook oder stromsparendes Mainstream-System verbaut zu werden.

Das könnte sich bald ändern. Für bestimmte Supercomputer-Anwendungen ist Fermi eigentlich wie geschaffen. Vor allem die Margen sind da weitaus höher als im Consumer-GPU-Bereich.
Nun ja; vielleicht ist das ja die Zukunft von nVidia. Trotzdem wird man wohl umstrukturieren müssen bzw. möglicherweise in der PC-Welt auf nVidia verzichten.

Gast
2009-10-08, 16:37:09
Da kann man trotzdem nicht von existieren.
Wenn der PC als Spieleplattform stagniert oder untergeht, geht Nvidia mit unter. Nichts ist für eine Aktiengesellschaft tödlicher als Stagnation und fehlende Wachstumsperspektiven. Umgekehrt kannst du rote Zahlen schreiben bis der Arzt kommt, wenn nur genügend Investoren an eine große Zukunft glauben, egal ob als eigenständiges Unternehmen oder als schmackhafter Übernahmekandidat für einen richtig großen Technologiekonzern.

Gilt natürlich mit veränderten Vorzeichen auch für AMD, vielleicht birgt die Übernahme von ATI Vorteile und mit Fusion tut sich eine Zukunft auf, andererseits könnte man auch sagen, die haben gleich zwei mäßig erfolgversprechende Unternehmenssparten. So oder so, das Weihnachtsgeschäft 2009 ist weder AMDs langfristige Rettung noch Nvidias Anfang vom Ende.

fdk
2009-10-08, 16:57:50
Da kann man trotzdem nicht von existieren.
Ach wirklich (http://www.abload.de/img/agdssg9v2.png)?

Das kann man sehr wohl, vor allem wenn man seine R&D-Kosten über den Konsumermarkt reinholt - wie bei NV geschehen - ist ein Quereinstieg auf den HPC-Markt sehr wohl möglich. Sagt ja niemand das das Nvidias einziges Standbein bleiben muss. Wer weiß was die Zukunft bringt - gerade im mobile- oder embeddedmarkt sind die Teilnehmer nicht in Stein gemeißelt. Auch gerade im Hinblick wie AMD hier wieder dabei ist die chance auf ein neues Geschäftsfeld vollends zu verpennen. (Als ob man den Saudis nicht noch $300m hätte zusätzlich aus der Tasche labern können).

Sven77
2009-10-08, 16:59:47
Wenn der PC als Spieleplattform stagniert oder untergeht, geht Nvidia mit unter. Nichts ist für eine Aktiengesellschaft tödlicher als Stagnation und fehlende Wachstumsperspektiven. Umgekehrt kannst du rote Zahlen schreiben bis der Arzt kommt, wenn nur genügend Investoren an eine große Zukunft glauben, egal ob als eigenständiges Unternehmen oder als schmackhafter Übernahmekandidat für einen richtig großen Technologiekonzern.

Aber gerade mit den Teslas hat Nvidia etwas für die Zukunft in der Hand. Ganze Branchen warten nur lechzend darauf, das sich hier endlich etwas bewegt, gemessen an der Leistung sind Teslas spottbillig, und trotzdem wirtschaftlich für Nvidia.

Gouvernator
2009-10-08, 17:05:58
nVIDIA steht meistens alleine da es gibt bei denen keinen grossen Bruder der sich um sie kümmert. Bei AMD handelt es sich ja faktisch um eine IBM Niederlassung mit IBM Personal und IBMs KnowHow. Intel ist eine Lokomotive für sich... Nur Nvidia, die haben ihre Grafikchips und Profi-Grafikchips das war's. Zur Zeit machen sie verzweifelt Versuche sich in den Super Computer Geschäft mit Number Crunchern zu retten. Ob das gut geht steht in den Sternen. Es werden immer weniger Leute für fast die gleiche Leistung wie von der Konkurrenz fast das doppelte an Geld zu bezahlen bereit sein. Weil jemand bei NV die Transistoren ständig in wissentschaftliches Zeug "verpulvert". Das man gute physikalische Effekte auch ohne >PhysX< und dem dahinter liegenden Aufwand seitens Nvidia, auch auf ALLEN Grafikkarten hinbekommt , das werden immer mehr Leute merken --> schlecht für Nvidia.

Gast
2009-10-08, 17:10:18
Aber gerade mit den Teslas hat Nvidia etwas für die Zukunft in der Hand.
So war es natürlich auch gemeint, vielleicht etwas unglücklich formuliert. Fermi ist der ernsthafte Versuch, neue Perspektiven zu eröffnen und der ist durchaus vielversprechend. Ob und wann man aus dem Geschäft mit Spielegrafikkarten aussteigt, wird die Zukunft zeigen, wohin AMD sich orientiert ebenfalls. :)

Dural
2009-10-08, 17:15:06
1.) verkaufen sich AMD-CPUs wie immer (nicht schlechter nicht besser), könnte aber erheblich besser werden, wenn GF die Fertigung soweit optimiert bekommt, dass die Fertigung billiger und flexibler als bisher laufen kann (ab 32 bzw. 28nm) und damit sehr viel grössere Stückzahlen als heute verfügbar gemacht werden.
2.) Ist PC-Gaming noch lange nicht am Ende, die Technikbasis des PC ist doch viel höher als auf den Konsolen und der Abstand wird grösser
3.) hat NV wirklich ein Problem mit dem Herstellungspreis der jetzigen Produkte (512 bzw. 448Bit Speicherinterface, 400mm²+Chips) - wenn die auch trotzdem weiter verkauft werden dürften, allerdings, wie man an der Verfügbarkeit sieht, limitiert
4.) scheint der Chipsatzausstieg Fakt zu sein und
5.) lässt sich mit Tesla kein grosser Markt füttern, an dem man auch entsprechend verdient. Wenn NV sich darauf konzentriert muss NV sich gesundschrumpfen.
6.) ist Fusion keine grosse Sache sondern nur die Integration eines IGP in die CPU. Es dient eigentlich nur dazu, anderen Herstellern den Weg für Low-End-Karten und IGPs zu verbauen, genau wie bei Intel. Da trifft Intel NV eh schon sehr hart, der AMD-Markt fällt dann aber für NV ebenfalls weg.
7.) muss man a.) abwarten ob Fermi in 3D überhaupt was taugt und b.) abwarten, inwieweit sich die evtl. Fertigungsprobleme auf die Verfügbarkeit des Produktes letztendlich auswirken, denn davon hängt es ab, wie lange NV sich mit den Dumpingkarten über Wasser halten muss.
8.) stellt sich tatsächlich die langfristige Grundsatzfrage für NV, wie es in Zukunft weitergehen soll, wenn Intel die Entwicklung der eigenen Grafiktechnologie forciert und AMD den bisherigen Weg weitergeht und demnächst sogar sehr zeitnah (Q3 2010) evtl. eine überlegene Fertigung nutzen kann. Ich sehe da eigentlich nur die Möglichkeit sich von Formosa aufkaufen zu lassen und NV mit VIA zusammenzulegen, damit ein 3. Hersteller für PC-Zeug entstehen kann, der ernstzunehmen ist.

1.)
Intel dominiert den CPU-Markt
"hat Intel im CPU-Bereich den höchsten Marktanteil seit 4 Jahren erreicht"
http://www.hartware.net/news_47631.html

und jetzt fängt es mit dem LGA1156 erst so richtig an...

2.)
jep

3.)
512Bit? Fermin hat 384Bit und wie man an einer schätzung die vor kurzem im umlauf war sehen kann ist der Preis unterschid beim PCB gerade mal 2-3Doller zwischen 256-512Bit und wenn man GDDR5 verwenden muss statt billigen GDDR3 kommt am ende sicher nicht wirklich viel dabei raus!

Und der GT200 ist kein konkurenz Produkt zum RV870, da dreffen sich alte und neue Generation halt für wenige Monate, das ändert an der Zukunft aber rein gar nichts.

4.)
jep

5.)
Tesla wird sehr wohl viel Geld bringen, das ist nur eine frage derzeit. Siehe auch neuen Super-Computer mit GF100 Chips

6.)
Bringt Intel am 7.Januar in 32nm auf dem Markt, wo bleibt den AMD... und gross ändert wird sich da nichts, das zeug wird keine vernänftige Leistung haben und nur für Desktop was taugen, wie es bei den IGP halt auch schon immer der fall war.

7.)
jep, aber zweifellt da jemand wirklich ernsthaft daran?

8.)
AMD bald mit einer überlegen Fertigung? der blödsinn hört man schon seit x Jahren... Intel hat 32nm Marktreif und kann bald Liefern! Und wer sagt den das NV nicht auch bald bei AMD herstellen lässt? Da gab es schon zahlreiche Gerüchte...

Und es gibt keinen Vorteil wenn man eine Komplett Platform liefern kann, der besste Beweis ist ja AMD selber, AMD hat trotz ATI sogar Marktanteile verlohren! so und wo soll jetzt der Vorteil sein? Die fakten sprechen da eine ganz deutliche sprache!

AMD hat nur ein Glück und das ist der umstand das Intel AMD braucht, sonst wären die schon längst weg vom fenster! Intel könnte Preise verlangen wo AMD einfach nur noch mit Verlust herstellen müsste... ist doch eine tatsache!

Coda
2009-10-08, 17:24:56
Da kann man trotzdem nicht von existieren.
Wer sagt das NVIDIA das muss?

Bei AMD handelt es sich ja faktisch um eine IBM Niederlassung mit IBM Personal und IBMs KnowHow.
Erm. Nein. Nur die Prozesse werden gemeinsam entwickelt und bei der Chipentwicklung hat IBM gar nichts zu sagen.

Weil jemand bei NV die Transistoren ständig in wissentschaftliches Zeug "verpulvert".
Ständig? Nur weil GT200 jetzt mal eine deutlich schlechtere Perf/mm² in 3D-Anwendungen als die Konkurrenz hatte? Wir reden in nem halben Jahr nochmal.

Gast
2009-10-08, 17:25:06
6.) ist Fusion keine grosse Sache sondern nur die Integration eines IGP in die CPU. Es dient eigentlich nur dazu, anderen Herstellern den Weg für Low-End-Karten und IGPs zu verbauen, genau wie bei Intel. Da trifft Intel NV eh schon sehr hart, der AMD-Markt fällt dann aber für NV ebenfalls weg.
deswegen auch teilweise der Ausstieg aus dem Mainboardmarkt.

HOT
2009-10-08, 19:18:08
[...]
AMD bald mit einer überlegen Fertigung? der blödsinn hört man schon seit x Jahren... Intel hat 32nm Marktreif und kann bald Liefern! Und wer sagt den das NV nicht auch bald bei AMD herstellen lässt? Da gab es schon zahlreiche Gerüchte...

Lesen -> Verstehen. AMD hat mit GF recht zeitnah 28nm parat, schneller und günstiger als NV das mit TSMC je hätte. Das hat mit Intel genau garnichts zu tun, da Intel seine Grafikchips vorerst eh nur in 32nm fertigen kann.

Und es gibt keinen Vorteil wenn man eine Komplett Platform liefern kann, der besste Beweis ist ja AMD selber, AMD hat trotz ATI sogar Marktanteile verlohren! so und wo soll jetzt der Vorteil sein? Die fakten sprechen da eine ganz deutliche sprache!

Also irgendwie ist da einfach kein Zusammenhang, da sowohl GPU als auch CPU-Technik im Prinzip immernoch getrennt sind. Nur die Chipsätze profitierten von der Firmen-Fusion merklich bisher. AMD hat die Plattformen bisher immer offen gehalten, das ändert sich mit Fusion.

AMD hat nur ein Glück und das ist der umstand das Intel AMD braucht, sonst wären die schon längst weg vom fenster! Intel könnte Preise verlangen wo AMD einfach nur noch mit Verlust herstellen müsste... ist doch eine tatsache!
Wenn du meinst :freak:

Undertaker
2009-10-08, 19:29:30
Bei einem eigenständigen Auftragsfertiger wie Globalfoundries kann Nvidia genauso Aufträge fertigen lassen, wie AMD oder ATI dies tun wird. Warum sollte sich hier ein Nachteil ergeben? :confused: GF wird es sich nicht leisten können, einzelne Auftraggeber zu bevor- oder benachteiligen, dass würde schnell sehr geschäftsschädigende Publicity schaffen.

Dural
2009-10-08, 19:30:55
ich sehe weit und breit keine 28nm fertigung... sie haben ja noch nicht einmal 32nm... und noch einmal, was soll NV hindern auch bei GF zufertigen?

Es wird ja immer behauptet das NV eine eigene Plattform in der Zukunft haben müsste um ihre Produkte loszuwerden, das ist schlicht und einfach nicht der fall... klar Chipsatz Markt ist nicht mehr so wie es früher mal war, aber da lässt sich eh kein geld verdienen und dafür haben sie ja jetzt auch Tegra/Tesla am Start.

Intel hat in der regel die kleiner DIE und 5x grössere Stückzahlen als AMD, AMD hätte null möglichkeiten da in irgend welcher form mit den Preisen mit zu halten...

Shink
2009-10-09, 10:02:26
Intel braucht nunmal AMD und irgendwann werden sie auch wieder etwas Ordentliches abliefern.
Man denke an Intels selige Pentium-Zeiten zurück, da war man absolut allein auf weiter Flur. AMD K5 und Cyrix 6x86 kam erst nach dem Pentium Pro raus und konnten in Spielen nicht ansatzweise mit der FPU-Leistung des damals schon "alten" Pentium mithalten.
Nun ja, und während der gesamten P4-Generation hat sich Intel mehr oder weniger mit Dumping und der Marktführerrolle über Wasser gehalten.

Zu NV: Sie brauchen natürlich keine eigene Plattform aber ich glaube eben nicht daran dass "Pro-Gamer" als Zielgruppe allzu viel abwirft aber naja, warum soll daraus nicht eine SuperComputer-Firma werden?
So wie sich GPU und CPU annähern müssen sie doch eigentlich zusammenwachsen; das hat mein bei AMD (kauf von ATI) und Intel wohl schon verstanden.

Werewolf
2009-10-09, 10:09:16
Nvidia wird wohl kaum aus dem Spielegeschäft aussteigen. Spätestens wenn die neuen Konsolen antanzen und Ports deutlich mehr abverlangen als jetzt.

Wobei sich natürlich erst herausstellen muss ob die nächsten Konsolen wieder (für ihre Zeit) hochgezüchtet sein werden.

Shink
2009-10-09, 10:19:37
Wieso glaubst du dass man bei der neuen Generation auf NV setzt?

Werewolf
2009-10-09, 10:47:58
Ich rede von Ports. Gegenwärtig läuft das allermeiste in sehr hoher Auflösung + AA oder DargoSampling + AA. Das dürfte mit der neuen Generation, sollte sie tatsächlich mit entsprechender Power daherkommen, nicht mehr der Fall sein. Hängt natürlich auch von den Anforderungen der Spiele ab. Noch bessere Grafik kostet ja noch mehr Geld und ob's vorerst große grafische Sprünge geben wird bei dem Investitionsrisiko? Wohl erst einmal nur bei den ganz großen Entwicklern (Ubisoft/EA) bzw. Vorzeigespielen.

Shink
2009-10-09, 10:53:51
Noch bessere Grafik kostet ja noch mehr Geld und ob's vorerst große grafische Sprünge geben wird bei dem Investitionsrisiko?
Das frag ich micht auch. Man könnte ja bei den genannten Studios mal auf die Idee kommen sich mit Nintendo oder Blizzard zu vergleichen - bezüglich Aufwand für bessere Grafik und inwiefern er sich bei den Einnahmen wiederspiegelt.

=Floi=
2009-10-09, 22:37:31
amd hat ja ordentliche prozessoren, nur sind sie eben nicht ander spitze und nicht so gut bei der perf./clock. Ansonsten ist der Phenom2 schon ganz nett.

NV ist doch im moment eh sehr gut aufgestellt.
die GF100 reihe bringt gleich doppelt geld und man kann das finazielle risiko erheblich mindern! bei den mobilen und kleinen sachen ist man auch gut aufgestellt und im grunde fällt nur der low end bereich unten raus. warm nicht? im grunde erhällt man aishc dafür die guten mid und highend bereiche. die stückzahlen dürften auch seit jahren gestiehen sein und im gesamten gesehen hat eine erichtige grafikkarte dank den aktuellen features mehr zukunft den je.
im laptop markt gibt es mitlerweile auch einen hang zu teureren grafiklösungen und hier wird NV ebenso noch weiter wachsen.
Es haben sich die anforderungen und produkte verändert. Ich sehe nv aber trotzdem noch in einer guten position überleben und wachsen zu können.

Gast
2009-10-09, 22:50:46
Vermutlich seltsam so eine Frage in einem 3D-GraKa-Forum zu stellen aber... wie stellt sich nVidia eigentlich ihre Zukunft vor?

Irgendwann wollte man mal selbst x86-Chips rausbringen, daraus wurde wohl nichts. Man entwickelte wohl lieber den Tegra für Geräte wie den Zune HD.

Um ION gibt es zur Zeit etwas Hype; die Frage ist was daraus werden soll jetzt da Intel im Pinetrail den GMA 500 einbaut. An eine Marktdominanz von VIA Nano-CPUs in diesem Marktsegment glaub ich eigentlich nicht.

Sowohl AMD als auch Intel wollen in ein paar Jahren die GPUs im Mainstream-Bereich in die CPU verbannen.

Mainboard-Chipsätze will man wohl aufgeben:
http://www.heise.de/newsticker/meldung/Nvidia-steigt-langsam-aus-dem-Geschaeft-mit-Mainboard-Chipsaetzen-aus-817828.html

Bleiben also allein die diskreten Grafikchips (was ja manche auch bezweifeln:freak:) für die (ich behaupte mal: schrumpfende) Gruppe der tapferen PC-Spieler denen IGPs zu lahm sind und ARM-CPUs. Ist das tatsächlich deren Perspektive mithilfe dieser Bereiche groß abzuräumen, weiß ich da etwas nicht oder sieht es so düster für nVidia aus wie es mir vorkommt?

Jo, Nvidia ist tot. Grafikkartenperformance hinkt, Chipsatzmarkt ist im Ars. etc.

Aber gabs da nicht schon einen Thread zu? Apple könnte NV kaufen. Apple hat Kohle ohne Gnade. Oder vielleicht IBM? Stay tuned.

Gast
2009-10-10, 01:20:37
Da kann man trotzdem nicht von existieren.
10 Supercomputer-Großaufträge á 100k Units * 4k US-Dollar für eine High-End-Tesla.

Das ist Gesamt-AMDs Jahresumsatz circa.

Gast
2009-10-10, 01:22:51
Wieso glaubst du dass man bei der neuen Generation auf NV setzt?
Wegen Fermi. Da brauchst du quasi keine anderen Chips mehr.

Gipsel
2009-10-10, 01:45:20
Wegen Fermi. Da brauchst du quasi keine anderen Chips mehr.
Genau! Und Kaffee kochen kann er auch noch ;D

Gast
2009-10-10, 01:59:43
Genau! Und Kaffee kochen kann er auch noch ;D
Was kann eine Cell-SPU, was ein Fermi-Core nicht kann?

svenw
2009-10-10, 09:56:11
Nvida wird sich nicht aus dem Consumer Markt zurückziehen, denn dort wird das Geld erwirtschaftet für die Forschung. Nvida bekommt seinen Ships für die Business Karten praktisch umsonst, denn es sind die gleichen die sie auch im normalen Graka Markt verkaufen. Ohne den Consumer Markt müsste die Business Sparte die Entwicklung ganz allein tragen und b sich das rechnet...

Gipsel
2009-10-10, 12:56:51
Genau! Und Kaffee kochen kann er auch noch ;D
Was kann eine Cell-SPU, was ein Fermi-Core nicht kann?

Das Thema hatten wir schon! ;D
PowerXCell 8i ist im Vergleich zu anderen Desktop CPU verdammt schnell,wenn die Anwendnung passt sonst würde die CPU nicht im ersten TF Cluster sitzen.ATI DX11 Karte passt imo nicht in den Vergleich,weil man lange nicht so viele Freiheiten wie bei Cell bzw Fermi hat.
Wenn die Anwendung paßt, läßt eine moderne GPU jeden Cell-Chip sowas von stehen. ;)

Stell Dir einen Cell mal lieber nicht als CPU vor. Die integrierten PowerPC-Kerne sind schon nicht die schnellsten. Und wenn man für die SPEs programmiert (da kommt ja die Leistung her), kann man es eigentlich oft auch für eine GPU machen :rolleyes:
Cell kann aber mher als jede aktuelle GPU.Im Vergleich kann Fermi da dann endlich mithalten?
Was kann Cell denn mehr?
Also die letzten Vergleiche, die ich gesehen habe, attestieren den Cells z.B. geringere Kompatibilität zu den IEEE-754 Normen als beide, RV870 und Fermi.

Und frage mal einen Playstation-Programmierer, wie das mit Cell so geht ;)

Tarkin
2009-10-10, 14:15:50
10 Supercomputer-Großaufträge á 100k Units * 4k US-Dollar für eine High-End-Tesla.

Das ist Gesamt-AMDs Jahresumsatz circa.

100.000 x 4.000 = 400.000.000 (400Mio)

Jaresumsatz von AMD liegt bei etwa 5Mrd USD (5.000.000.000)

Ich weiß nicht wovon du träumst... wärme nVidia Eislutscher vielleicht? :freak:

davon abgesenen kauft wohl KAUM jemand 100k stück Tesla Karten um 4k das Stück

Nur mal so nebenbei... (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1255098583)

"Nach der am 5. Oktober abgeschlossenen Umrüstung auf 16.000 "Istanbul"-Prozessoren mit jeweils sechs Kernen und einem Takt von 2,6 GHz würde der "Kraken" im Top500-Ranking der Supercomputer vom sechsten auf den dritten Platz vorrücken,"

und jetzt möchte ich von dir wissen wer ZUM HENKER 100.000 Tesla Karten kaufen soll? das wäre absluter OVERKILL!!!! Völlig idiotische Zahl.

10 Supercomputer mit 100.000 Tesla Karten - also ganz ehrlich, das ist einfach nur an den Haare herbeigezogen. MEGALOL!

Und über dan Umsatz von AMD hast du auch keine Ahnung... vielleicht solltest du besser http://www.ab-server.de/foren/attachment.php?attachmentid=6468&uploadtime=2163

Tesseract
2009-10-10, 14:35:59
ich denke nvidia hat enorm schiss davor, dass AMD und intel irgendwann in den nächsten jahren CPU und GPU soweit zusammen legen, dass es für sie ohne eigene x86-CPU quasi keinen markt mehr gibt.
bei ihrer chipsatzsparte ist ähnliches ja bereits passiert.

daher wohl diese offensive nach vorne mit fermi, cuda, starker unterstützung für entwickler usw. um mehr gewicht in die waage zu bekommen bevor die anderen wirklich loslegen können.

Ailuros
2009-10-10, 14:45:41
Dieses "zusammenlegen" von CPU und GPU muss mir jemand erstmal erklaeren, denn ich lese es viel zu oft. Es gibt einen Unterschied zwischen einem SoC (system on chip) wo man getrennte CPU und GPU Einheiten hat und eine komplette Verschmelzung auf einem einzigen core von CPU und GPU Aufgaben.

Das erste passt durchaus in meinen Kopf und kann langfristig seitens Intel und AMD die heutigen IGPs locker redundant machen. Von dem Punkt ab aber befinden sich heutzutage immer noch Lichtjahre dass eine CPU den verdammt hohen Parallelismus einer GPU errreichen kann oder andersrum dass eine GPU die verdammt hohe Effizienz einer CPU mit sehr wenigen oder nur einer Aufgabe erreichen kann (jetzt mal sehr vereinfacht).

Ein hw engineer wenn er sich hinsetzt und eine neue Architektur auf die Kreidetafel kritzelt wird schon wissen ob er eine CPU oder eine GPU konzipiert. Es gibt keine Zwischenwege momentan, nur das eine oder das andere.

Und ja natuerlich wenn Intel und AMD mit ihren zukuenftigen SoCs antanzen, hat NVIDIA keine besondere Chance mehr gegen diese zu konkurrieren. Man koennte sich eventuell irgendwelche Ideen ausdenken dass NVIDIA wie auch mit Tegra ganze SoCs selber baut und auch fuer PC SoCs ARM IP lizenziert. Klingt aber verdammt umstaendlich momentan und ich kann mir nicht vorstellen dass es finanziell ueberhaupt der Rede Wert ist.

Tesseract
2009-10-10, 14:52:25
Das erste passt durchaus in meinen Kopf und kann langfristig seitens Intel und AMD die heutigen IGPs locker redundant machen. Von dem Punkt ab aber befinden sich heutzutage immer noch Lichtjahre dass eine CPU den verdammt hohen Parallelismus einer GPU errreichen kann oder andersrum dass eine GPU die verdammt hohe Effizienz einer CPU mit sehr wenigen oder nur einer Aufgabe erreichen kann (jetzt mal sehr vereinfacht).

es ist auch nicht gemeint, dass die CPU die GPU ersetzen wird, sondern, dass sich die systeme eher in richtung cell entwickeln: verschiedene kerne mit verschiedenen stärken. also im prinzip CPU und GPU auf einem stück silizium, nur halt um balast und redundanz (protokolle, platzeinteilung usw.) erleichtert und optimiert.

Ailuros
2009-10-10, 15:11:26
es ist auch nicht gemeint, dass die CPU die GPU ersetzen wird, sondern, dass sich die systeme eher in richtung cell entwickeln: verschiedene kerne mit verschiedenen stärken. also im prinzip CPU und GPU auf einem stück silizium, nur halt um balast und redundanz (protokolle, platzeinteilung usw.) erleichtert und optimiert.

Was heisst in Richtung Cell genau? Wer sagt dass selbst eine zukuenftige Variante von Cell leistungsfaehige CPU und GPU Funktionen gleichzeitig aufnehmen koennte? Wenn Dir natuerlich die Leistung egal ist und fuer die GPU Funktionen z.B. auch seconds per frame gut genug sind dann ist es ein anderes Kapitel.

Es gibt heute erhaeltiche SoCs mit CPU und GPU Anteil und nach der Logik werden sich die ersten Intel SoCs bewegen sowohl auch AMD's Fusion. Zum zweiten gab es sogar ein paar Marketingfolien wo angezeigt wird wie man je nach Anwendungsgebiet die Anzahl der CPU oder GPU cores in einem SoC variieren kann.

Sven77
2009-10-10, 15:18:50
[Fanboygeblubber]

Autsch.. wenn ich schon allein daran denke, wieviel Renderblades die Firmen bei denen ich arbeite in den letzten 2 Jahren gekauft, kommt da ne Zahl von minimum 120 zusammen. Da kostet eine ca. ein Drittel mehr als eine Tesla, die die 4-5fache Power hergibt. Und ich bin noch nicht viel rumgekommen, allein in den USA dürften 90% der Renderfarmen auf Tesla umsteigen. Die Supercomputer werden da zahlenmässig eher eine Randnotiz bleiben.

Tesseract
2009-10-10, 15:23:18
Was heisst in Richtung Cell genau?
ein paar flexibkle, klassische kerne und daneben einen haufen numbercruncher.

z.B. werden wir sicher früher oder später einen nehalem(-nachfolger) erweitert um einen haufen larrabee(-nachfolger-)kerne auf einem einzigen stück silizium sehen.

vielleicht noch nicht die nächste generation aber irgendwann auf jeden fall.

Sorkalm
2009-10-10, 15:23:29
100.000 x 4.000 = 400.000.000 (400Mio)

Nach dem Zitat noch x10 für 10 Aufträge, sind dann 4 Mrd. USD. ;)

Aber das halt ich doch für schon relativ viel..

Ailuros
2009-10-10, 15:26:53
ein paar flexibkle, klassische kerne und daneben einen haufen numbercruncher.

Klingt nach einer netten zukuenftigen CPU die besser mit GPUs unter OpenCL und co zusammenarbeiten koennten.

z.B. werden wir sicher früher oder später einen nehalem(-nachfolger) erweitert um einen haufen larrabee(-nachfolger-)kernen auf einem einzigen stück silizium sehen.

Das ist aber gerade das was ich die ganze Zeit meine. Wo reden wir uns gegenseitig genau daneben?

Gipsel
2009-10-10, 15:29:06
ein paar flexibkle, klassische kerne und daneben einen haufen numbercruncher.

z.B. werden wir sicher früher oder später einen nehalem(-nachfolger) erweitert um einen haufen larrabee(-nachfolger-)kerne auf einem einzigen stück silizium sehen.

vielleicht noch nicht die nächste generation aber irgendwann auf jeden fall.
Die werden sicherlich nicht 300-500mm² des Dies für den Kram aufwenden, nur um den richtigen GPUs das Wasser abzugraben :rolleyes:
IGPs und die kleinen Einsteigerkarten okay, aber alles darüber lohnt sich außer für spezielle Anwendungsfälle nicht direkt in die CPU zu verfrachten. Zumindest nicht die nächsten 10 Jahre. Du kannst mich in 10 Jahren damit zitieren.

Gast
2009-10-10, 15:30:51
100.000 x 4.000 = 400.000.000 (400Mio)
... blubblub....

100.000 x 4.000 x 10 = 4.000.000.000 (4Mrd)

Es gibt zu denken, das den Post des Gastes nicht zu lesen im Stande warst/sein wolltes.

Tesla spült erhebliche $ Mengen Richtung Nvidia, das ist nunmal so, die Frage ist wie viel. 100.000 Stück sind keine große Sache.
Ob du es willst oder nicht, Nvidia ist nicht einzig auf Tesla konzentriert.

HOT
2009-10-10, 15:31:25
es ist auch nicht gemeint, dass die CPU die GPU ersetzen wird, sondern, dass sich die systeme eher in richtung cell entwickeln: verschiedene kerne mit verschiedenen stärken. also im prinzip CPU und GPU auf einem stück silizium, nur halt um balast und redundanz (protokolle, platzeinteilung usw.) erleichtert und optimiert.
Das ist so nicht korrekt. Cell ist was anderes als das, was AMD mit Fusion vorhat in 22nm. AMD will die GPU in die CPU integrieren, also in deren Recheneinheiten unterbringen. Cell ist ein grosser Core mit vielen kleinen Cores, das ist absolut nicht vergleichbar.
Natürlich werden diese GPU-integrierten Produkte keine dedizierte Grafik ersetzen können, darum gehts aber auch nicht, denn auch NV verdient das Geld nicht mit starken Grafikchips sondern mit billigen Consumerchips. Und genau diese werden mit Integration der GPU in die CPU überflüssig. Es gibt hier einige Faktoren die sehr wichtig für diese Entwicklung sind:
1.) die IGPs werden immer stärker, sodass sie teilweise über den kleinsten dedizierten Lösungen agieren
2.) durch die Stärke der IGPs wird immer mehr der low-End bis untere Mainstream durch IGPs abgedeckt, welche vorher mit dedizierten lower-Mainstream-Karten abgedeckt werden mussten
3.) Intel wies immer eine grosse Schwäche durch die IGPs aus, sodass eine dedizierte Grafikkarte bei vielen Desktop-Lösungen auf Intel-Basis pflicht waren, um Multimediafähigkeiten zu bieten - ab Clarkdale leisten das aber auch Intel-IGPs, so dass dieser Ersatzmarkt, der fast ausschließlich durch NV abgedeckt war, ersatzlos entfällt.

Was Supercomputer angeht: Die Hersteller dieser Maschinen werden jetzt nicht sämtlich alle zu NV überlaufen, das ist absoluter Nonsens. NV wird mit dem Fermi 2-3 Supercomputer füttern wenn sie Glück haben in nächster Zeit, also ein paar 1000 Chips dafür absetzen, das ist ein Tropfen auf den heissen Stein. Die Zukunft der Supercomputer sieht eher so aus, als würde man immer mehr CPUs und GPUs eines Herstellers kombinieren wollen. Da hat NV aber leider nichts zu bieten...

Undertaker
2009-10-10, 15:46:23
Ich kann nicht erkennen, dass eine heutige IGP näher an aktuellen High-End Grafikkarten ist, als dies z.B. zu Zeiten des Nforce 2 der Fall war (integrierte Geforce 4 MX oder was das war). Eher ganz im Gegenteil... :confused:

Ailuros
2009-10-10, 15:48:32
Bei einem jeglichen bisherigen SoC leidet die GPU an fehlender Bandbreite weil sie eben konstant sich mit der CPU die vorhandene Bandbreite teilen muss.

Man kann hier natuerlich dementieren dass in der Zukunft durch Loesung X die vorhandene Bandbreite in einem SoCs steigen wird, aber dieses gilt dann auch fuer standalone GPUs und diese werden nach wie vor ihre eigene (nicht geteilte) Bandbreite haben.

TBDRs ala PowerVR haben es hier um einiges leichter wo immer man externe Speicherzugriffe vermeiden kann.

AnarchX
2009-10-10, 15:50:22
Heutige IGPs können wohl besser Basisansprüche an 3D-Gaming befriedigen als IGPs früherer Zeiten.
Rein von der Relation ist der Abstand zu High-End natürlich ziemlich gewaltig: ein 790GX hat ~3% der Rechenleistung einer HD 5800.
Aber auf letzteren wird die Leistung eben primär in hohe Auflösung und BQ-Features gesteckt, was dem Durchschnittsspieler wohl nicht so sehr auffällt. In der Vergangenheit brauchte hier High-End um überhaupt spielbare Frames in niedrigen Auflösungen zu erreichen.

Tesseract
2009-10-10, 16:40:55
Bei einem jeglichen bisherigen SoC leidet die GPU an fehlender Bandbreite weil sie eben konstant sich mit der CPU die vorhandene Bandbreite teilen muss.

Man kann hier natuerlich dementieren dass in der Zukunft durch Loesung X die vorhandene Bandbreite in einem SoCs steigen wird, aber dieses gilt dann auch fuer standalone GPUs und diese werden nach wie vor ihre eigene (nicht geteilte) Bandbreite haben.

du musst aber bedenken, dass durch das wegfallen der graka die restliche infrastruktur auch bedeutend teurer ausfallen darf, als es momentan der fall ist. wenn ein paar hundert € "frei werden" kann man damit schon einiges bzgl. des boardlayouts (multichanneling usw.) machen.
vielleicht lebt ja sogar der CPU-slot wieder in irgendeiner form auf.

=Floi=
2009-10-10, 17:11:03
zitat
Die Zukunft der Supercomputer sieht eher so aus, als würde man immer mehr CPUs und GPUs eines Herstellers kombinieren wollen.

das ist mal wieder deine rote meinung. spar dir doch soetwas einfach mal. dank OCL und anderen schnittstellen ist es egal welche hardware da arbeitet. intel hat ja noch nicht einmal eine grafikkarte. ;D

nebenbei sehe ich schon einen anreiz auch noch starke GPUs in die "supercomputer" zu verbauen.

Wenn die software flächendeckend und ohne gigantische mehrkosten besser GPGPU-orientiert ist, wird hier sicherlich noch ein rutsch stattfinden. darin sehe ich sehr viel potential und vorteile. es gibt ja ein paar richtige killerapplikationen wie webserver oder photoshop, wo man diese rechenleistung in geld umsetzten kann.

Tarkin
2009-10-10, 18:33:42
100.000 x 4.000 x 10 = 4.000.000.000 (4Mrd)

Es gibt zu denken, das den Post des Gastes nicht zu lesen im Stande warst/sein wolltes.

Tesla spült erhebliche $ Mengen Richtung Nvidia, das ist nunmal so, die Frage ist wie viel. 100.000 Stück sind keine große Sache.
Ob du es willst oder nicht, Nvidia ist nicht einzig auf Tesla konzentriert.

okay, sorry... hatte ich falsch verstanden bzw übersehen. Nichts desto trotz ist das eine idiotisch hohe Anzahl. 1Mio Tesla "Geräte" a USD4.000 pro Jahr... wie viele einzelne Chips bzw Karten wären das? 3, 4 Mio? Nicht mal im Traum daran denken.

bzw. "Tesla spühlt erhebliche Mengen $ Richtung nVIdia" - tja, leider weit gefehlt (http://www.statesman.com/business/content/business/stories/other/04/27/0427plugged.html).

"Analyst Patrick Newton with Stifel, Nicolaus & Co. estimates that Tesla could account for $100 million in Nvidia's revenue in the current fiscal year."

Wahnsinnig viel... das sind gerade mal etwa 2-3% des Gesamtumsatzes.

Hast du eine Ahnung was das Chipsatz-Business in nVidias Kassen spühlt?

ca. das ZEHNFACHE! - und das Geschäft ist mittelfristig praktisch so gut wie weg!

nVidis muss also schaun in den nächsten zwei Jahren das Tesla-Geschäft zu vervielfachen um den Verlust bei den Chipsätzen auszugleichen.

Zusätzlich müssen sie darauf achten das Kerngeschäft nicht zu vernachlässigen bzw. nicht zu viel Marktanteile zu verlieren... was 2010 so gut wie sicher ist.

Und keiner kann momentan sagen wie und wann Fermi wirklich einschlagen wird.

Gast
2009-10-10, 19:11:35
nVidis muss also schaun in den nächsten zwei Jahren das Tesla-Geschäft zu vervielfachen

Das Tesla Geschäft ist gerade erst angelaufen und wird schnell anwachsen.
Ein 6 Monate alter Link bringt uns in diesem Punkt kein Stück weiter.

Die Sache mit den Chipsätzen, das musst du nicht 1zu1 mit irgend etwas anderem aufrechen.
Am Ende muss die Zahl stimmen. Geforce Mobile + Geforce Desktop + Tesla + Quadro + ION + Tegra + nForce + 3DVision.
Du machst es dir zu einfach, um Nvidia schlecht darzustellen.


Man kanns natürlich auch wie AMD machen, den ION Markt ignorieren obwohl man dort gute Chancen mit dem eigenen Paket samt CPU hätte.

Gipsel
2009-10-10, 21:15:22
leider weit gefehlt (http://www.statesman.com/business/content/business/stories/other/04/27/0427plugged.html).

"Analyst Patrick Newton with Stifel, Nicolaus & Co. estimates ..."
Ist das ein Künstlername? ;D

Sven77
2009-10-10, 21:30:47
VRay GPU Rendering:

http://www.youtube.com/watch?v=Soyr1sQmro4&feature=related

Mental Images iRay:

http://www.mentalimages.com/products/iray

Alles in der Pipeline.. warum sollte man sich in Zukunft eine Dell Renderblade für 5000$ kaufen, wenn eine Tesla für 4000$ das 10fache an Leistung bringt.. Renderfarmen werden mindesten alle 2-3 Jahre erneuert, weil das alte Zeugs Schrottwert hat.

Ailuros
2009-10-11, 08:17:06
du musst aber bedenken, dass durch das wegfallen der graka die restliche infrastruktur auch bedeutend teurer ausfallen darf, als es momentan der fall ist. wenn ein paar hundert € "frei werden" kann man damit schon einiges bzgl. des boardlayouts (multichanneling usw.) machen.
vielleicht lebt ja sogar der CPU-slot wieder in irgendeiner form auf.

Das dumme ist aber dass der GPU Anteil keineswegs ausfallen wird und das aus gutem Grund. Die Fusion slides zeigten eben dass wenn man z.B. ein SoC fuer hauptsaechlich CPU power und etwas GPU multimedia Schnickschnack haben will hat man eventuell 4 CPU cores und 1 GPU core und wenn die Konzentration eher auf 3D (stets im budget 3D Bereich) haben will dann eben anders rum.

Je mehr Durchbruch GPGPU schaffen wird durch OpenCL und co wage ich sogar zu behaupten dass die intensivere Skalierung von GPU cores in einem SoC fuer den Normalverbraucher mehr Sinn macht als mit den CPU cores.

MasterElwood
2009-10-11, 10:16:53
Nicht vergessen: Konsolen. Ein deal mit einer Konsole und ich hab für 5 Jahre eine solide Grundlage. Ein deal mit 2 Konsolen und mir geht es die nächsten Jahre richtig gut...

Gouvernator
2009-10-11, 10:29:15
Nicht vergessen: Konsolen. Ein deal mit einer Konsole und ich hab für 5 Jahre eine solide Grundlage. Ein deal mit 2 Konsolen und mir geht es die nächsten Jahre richtig gut...

Naja, was Sony angeht dann haben sie NV geholt weil sie Schwierigkeiten mit ihrem Cell hatten. Momentan beliefert ja ATI die beiden Konsolenhersteller M$ und Nintendo.

HOT
2009-10-11, 11:07:21
[...]

das ist mal wieder deine rote meinung. spar dir doch soetwas einfach mal. dank OCL und anderen schnittstellen ist es egal welche hardware da arbeitet. intel hat ja noch nicht einmal eine grafikkarte. ;D

nebenbei sehe ich schon einen anreiz auch noch starke GPUs in die "supercomputer" zu verbauen.

Wenn die software flächendeckend und ohne gigantische mehrkosten besser GPGPU-orientiert ist, wird hier sicherlich noch ein rutsch stattfinden. darin sehe ich sehr viel potential und vorteile. es gibt ja ein paar richtige killerapplikationen wie webserver oder photoshop, wo man diese rechenleistung in geld umsetzten kann.

Also schlimmer geht nimmer ;). Nein, ich werde mir meine "rote Meinung" ganz sicher nicht sparen, denn GPU sind auch mit Fermi immer noch keine CPUs ;) - vor allem dann nicht wenn dir nichtmal der Unterschied CPU - GPU bekannt zu sein scheint. Man kann nunmal einen Supercomputer nur aus GPUs bauen, man braucht entsprechend CPUs dafür. Reine GPU-Supercomputer sind garnicht möglich, weil auch Fermi keine CPU ist. Es werden also in der Tat Mischlinge den Supercomputermarkt dominieren und da ist mir nur eine Firma bekannt, die das leisten kann und eine, die es in Zukunft leisten werden. NVidia gehört nicht dazu - es mangelt einfach an der CPU.

Gast
2009-10-11, 11:07:22
Nicht vergessen: Konsolen. Ein deal mit einer Konsole und ich hab für 5 Jahre eine solide Grundlage. Ein deal mit 2 Konsolen und mir geht es die nächsten Jahre richtig gut...

Zumal das auch nicht stimmt. Was glaubst Du, wie wenig man an diesen Grafikchips verdient? Das sind Deals zwischen billig und fast nachgeschmissen.

tomvos
2009-10-11, 11:21:28
Man kann nunmal einen Supercomputer nur aus GPUs bauen, man braucht entsprechend CPUs dafür. Reine GPU-Supercomputer sind garnicht möglich, weil auch Fermi keine CPU ist. Es werden also in der Tat Mischlinge den Supercomputermarkt dominieren und da ist mir nur eine Firma bekannt, die das leisten kann und eine, die es in Zukunft leisten werden. NVidia gehört nicht dazu - es mangelt einfach an der CPU.

Üblicherweise werden ein paar Standard-CPUs (AMD, Intel) eingesetzt, um die Workunits zu verwalten und zu verteilen. Die Berechnung übernehmen dann aber die GPUs oder irgendwelche anderen Vector-CPU.

=Floi=
2009-10-11, 14:40:03
zitat
auch noch starke GPUs in die "supercomputer" zu verbauen.

darin meinte ich zusätzlich und nicht nur GPUS! mir ist klar, dass die cpu der gpu das futter vorbereiten muß. (Folding@H)

wenn der preis nicht zählt, dann werden eher spezielle (ibm) oder teure cpus verbaut. bei intel bekomme ich zz eben auch noch 4-6 threads zusätzlich pro cpu.
der pc kommt von einer firma (cray) und diese verbaut dann die getesteten komponenten. es ist egal von wem die teile kommen.
Aktuell dürfte wohl von der reinen rechenleistung eine intel cpu und eine ati DX11 gpu die beste kombination sein. warum nicht?!

Coda
2009-10-11, 15:53:58
Naja, was Sony angeht dann haben sie NV geholt weil sie Schwierigkeiten mit ihrem Cell hatten. Momentan beliefert ja ATI die beiden Konsolenhersteller M$ und Nintendo.
Wobei sie wohl an der Xbox wesentlich mehr verdienen. Das Wii-Design war ja zum Launch schon nicht mehr der Rede wert.

Ailuros
2009-10-11, 16:09:40
Wobei sie wohl an der Xbox wesentlich mehr verdienen. Das Wii-Design war ja zum Launch schon nicht mehr der Rede wert.

Es gibt keine Garantie fuer jeglichen Konsolen-Hersteller dass er vom gleichen IHV lizenzieren wird wie in der Vergangenheit. Zwar hatte AMD praktisch nichts zu bieten fuer handheld Konsolen, aber ich kann auch nicht ausschliessen dass NV's Tegra IP deal nicht NINTENDO auch fuer zukuenftige high end deals beinflussen koennte.

desert
2009-10-11, 21:13:18
Ich glaube man sollte den markt nich unterschätzen. Bis jetzt kosten supercomputer die vergleichbare leistungen bringen ein schweinegeld, deswegen ist der Markt ja momentan noch so klein.

Ich denke diverse universitäten und institue lecken sich wahrscheinlich schon die Finger nach so einem numbercruncher und dann für so wenig geld, im vergleich zu supercomputern.

Und Rechenleistung kann man nie genug haben, sobald sie da ist, wird sie auch genutzt werden.

Kein langes warten mehr auf rechenzeit an einem supercomputer, sondern einfach ein paar fermi zusammenschliessen und man hat die selbe leistung zum einem bruchteil des preises.

Das könnte einen richtigen schub auslösen.

MasterElwood
2009-10-12, 09:35:26
Zumal das auch nicht stimmt. Was glaubst Du, wie wenig man an diesen Grafikchips verdient? Das sind Deals zwischen billig und fast nachgeschmissen.

Dafür machts die Masse. Wir reden hier von 150 - 200 Mill. Stück.

Nebenbei: Keinen anderen GrafikChip kannst du 10 Jahre lang verkaufen. Da hast du eine Traumauslese und Witz Entwicklingskosten im Vergleich zum GraKa markt wo du alle paar Jahre ein neues Design brauchst...

ME

Gast
2009-10-13, 15:27:34
Jegliche Art von Ausrichtung auf den Konsolenmarkt, wird die allgmeine Entwicklung von Grafikkarten bremsen. Für die Konsole mag das Geschäft sicher gut Geld abwerfen, schließlich ist es nur eine feste Einheit, die sich über Jahre kaum mehr ändert. Am PC muss man verschiedene Segmente bedienen und zudem schreitet der Techlevel schneller voran.
Solange man bei NV meint, mit Teslas+Konsolen verdienen wir unsere zukünftiges Geld, wird die PC Entwicklung stark verlangsamt, so lange kein neuer Spieler in den Markt kommt.

Ailuros
2009-10-14, 07:14:16
Es gibt keine Garantie fuer jeglichen Konsolen-Hersteller dass er vom gleichen IHV lizenzieren wird wie in der Vergangenheit. Zwar hatte AMD praktisch nichts zu bieten fuer handheld Konsolen, aber ich kann auch nicht ausschliessen dass NV's Tegra IP deal nicht NINTENDO auch fuer zukuenftige high end deals beinflussen koennte.

http://www.brightsideofnews.com/news/2009/10/13/nvidia-tegra-wins-contract-for-next-gen-nintendo-ds.aspx

No surprise.

mapel110
2009-10-14, 08:20:05
http://www.anandtech.com/video/showdoc.aspx?i=3659
und der Anand-Artikel passt hier auch gut rein.

Is NVIDIA in trouble? In the short term there are clearly causes to worry. AMD’s Eric Demers often tells me that the best way to lose a fight is by not showing up. NVIDIA effectively didn’t show up to the first DX11 battles, that’s going to hurt. But as I said in the things get better next year section, they do get better next year.

Gast
2009-10-18, 11:39:06
3DGameMan Q&A: Is NVIDIA Dying?

http://www.youtube.com/watch?v=Ye5T4v_UX80

Gast
2009-10-18, 12:07:36
3DGameMan Q&A: Is NVIDIA Dying?

Mehr ist in dem Video auch nicht enthalten. Die Frage wird hundertmal wiederholt, er jammert, dass Nvidia nicht auf seine Mails antwortet und überhaupt hätte er gern mal Testsamples. Antwort oder wenigstens eine irgendwie fundierte Einschätzung und Abwägung gibt es keine. -> substanzlos, Ringelpietz

Gast
2009-10-18, 16:17:28
AMD / NVIDIA verdienen doch nichts mehr an den aktuellen Konsolen GPUs. Da werden doch meistens das gesamte GPU Design abgekauft und wird dann im Auftrag von MS und Co Hergestellt.

Tesseract
2009-10-18, 16:30:20
3DGameMan Q&A: Is NVIDIA Dying?

http://www.youtube.com/watch?v=Ye5T4v_UX80

vielleicht sollte der typ mal die möglichkeit in betracht ziehen, dass nvidia ihm deswegen nicht antwortet und keine testsamples schickt, weil seine reviews a) schlecht sind und b) zu wenige leute ansprechen.

wenn DER "3dgameman" eine mail schreibt klingelt bei anderen firmen sicher das rote telefon des CEO. :D

aths
2009-10-18, 18:24:58
Große Supercomputer enthalten normalerweise so um die ~100.000 Prozessoren. Wenn man da 10 Aufträge bekommt ist das schon nicht so ohne.

Aber auch kleinere Rechencluster werden da viel über die Theke gehen. Es gibt genügend Unis und wissenschaftliche Forschungseinrichtungen die an sowas interessiert wären.

Die Grundlagen dafür haben sie erstmals mit Fermi alle. Gescheite IDE (Nexus), voller C++-Support, gute DP-Performance und ECC.Ja, die Forschungseinrichtungen haben genug zu rechnen. Wenn man zum Beispiel ein Modell hat mit gerade mal sieben Parametern pro Zelle, und die Zellendichte verdoppelt und dann noch mal verdoppelt, benötigt man wieder krass mehr Rechenleistung. Oft wird viel Aufwand betrieben, bei mathermatischer Modellierung die Zellendichte zu senken, das würde mit den neuen Prozessoren überflüssig.

Hugo
2009-11-05, 14:58:03
http://www.xbitlabs.com/news/cpu/display/20091103152326_Nvidia_Hires_Former_Transmeta_Engineers_to_Develop_x86_Microproce ssor_Analyst.html

Gast
2009-11-05, 15:36:48
Nvidia macht wegen dem Lucid-Chip Stress.

http://www.gamestar.de/hardware/news/mainboards/2310296/msi_big_bang.html

Gast
2009-11-05, 15:39:02
Die News ist wieder von SemiAccurate :rolleyes:

http://www.semiaccurate.com/2009/11/04/nvidia-crushes-msis-lucid-based-board/

Ob das stimmt!? ;)

Gast
2009-11-05, 15:41:13
Genausogut kann man würfeln. Ups nein, dann kommt man sogar im Durschnitt zu bessere Ergebnissen als wenn Charlie die Karten austeilt.

mapel110
2009-11-05, 15:42:37
Bestimmt nur halb richtig. ^^ Glaub nicht, dass nvidia dafür verantwortlich ist und sie sich mit Intel anlegen. Ich würd da eher Probleme (Vielleicht Treiber-seitig) bei Intel vermuten.

AnarchX
2009-11-05, 16:05:24
Das ist der richtige Thread dazu: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=424996&page=7
... da sieht es eher danach aus, als ob diese Vapor Ware sich eher selbst torpediert.

LovesuckZ
2009-12-06, 19:58:48
Apple is the company that is known for always going on their own way and now it seems that the divide between Apple and Intel is wider than ever. According to sources close to the heart of the matter, Apple allegedly refused to adopt Intel's Arrandale and the Calpella platform in its default form. In order for Apple to implement Calpella design with their next refresh of Mac mini / MacBook / MacBook Pro lines, Intel will have to provide Apple with the 32nm version without the integrated graphics part. Again, we cannot confirm the information about the replacement CPU, we only know that Apple rejected Arrandale.

Also worth noting is that according to available information, nVidia scored massive 80% of Calpella design wins with their 40nm based DirectX 10.1 parts[...].
But it turns out that OEMs were much more interested in Hybrid Graphics mode and allegedly nVidia hardware performs much better in that switching function than ATI-based GPUs. Given that AMD has its own vision for notebooks, we're not entirely surprised at this chain of events.
http://www.brightsideofnews.com/news/2009/12/5/apple-ditches-32nm-arrandale2c-wont-use-intel-graphics.aspx