PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : IBM - Power 8: 12 Kerne, 96 Threads, 96 MB eDRAM L3-Cache


fondness
2013-08-27, 20:36:11
http://img10.imageshack.us/img10/4079/jgg1.png (http://imageshack.us/photo/my-images/10/jgg1.png/)

http://img21.imageshack.us/img21/9568/b2u7.png (http://imageshack.us/photo/my-images/21/b2u7.png/)

Uploaded with ImageShack.us (http://imageshack.us)

Dabei drängt sich er Eindruck auf, IBM wolle der ganzen Branche mal wieder zeigen, wo der Hammer hängt: Jeder der 12 Rechenkerne hat 512 KByte L2-Cache. Weitere 96 MByte L3-Cache teilen sich die Kerne. Noch einmal 128 MByte eDRAM dienen als L4-Cache. Sie sitzen allerdings nicht auf dem Prozessor selbst, sondern in den acht sogenannte Memory-Buffer-Chips.

Jeder von diesen puffert mit seinen 16 MByte Cache die Zugriffe auf bis zu vier Speicherriegel. Verwendet man 32-GByte-Module aus DDR3-1600-Chips, sind bis zu 1 TByte Arbeitsspeicher drin – wohlgemerkt pro CPU-Fassung. Die theoretische Spitzen-Transferrate liegt damit bei 410 GByte/s. Allerdings erreichen laut IBM davon maximal 230 GByte/s kontinuierlich den Power8.

Hergestellt wird der 650 Quadratmillimeter große Power8 mit 22-nm-Strukturen auf SOI-Wafern und soll ab 2014 in IBM-Servern zum Einsatz kommen.

http://www.heise.de/newsticker/meldung/Hot-Chips-Power-Geschuetz-von-IBM-1943751.html

Botcruscher
2013-08-27, 21:29:41
Ich wünsche viel Erfolg. Intel geht es einfach zu gut.

Godmode
2013-08-27, 21:36:25
Mächtiges Teil. Abseits von Super-Computern wird man diese CPU aber nicht sehen, oder täusche ich mich?

RLZ
2013-08-27, 21:47:23
Ich würde eher denken, dass auch diesmal die Oracle und SAP Kundschaft eine der Hauptzielgruppen ist.

Godmode
2013-08-27, 21:48:42
Ich würde eher denken, dass auch diesmal die Oracle und SAP Kundschaft eine der Hauptzielgruppen ist.

Das würde die fetten Caches erklären, weil DBs diese IIRC lieben?

Ganon
2013-08-27, 21:54:00
Ja, die Teile findet man hauptsächlich in fetten Datenbankservern.

Für den "Einsatz im Kleinen" sind die Teile aber viel zu teuer. Für einen Server mit einem solchen Prozessor kriegt man einen ganzen Raum voller x86-Server.

Abseits von der Rechenleistung haben die aber noch mehr "Features", gerade was Hochverfügbarkeit und Virtualisierung angeht.

Iterator
2013-08-27, 22:21:59
650 mm² und das noch bei 22nm Fertigungsgröße, das ist immer noch ein ganz großes Monster.
Der Preis dürfte auch exorbitant sein. Da kommen immer noch Erinnerungen an die früheren
handtellergroßen Power Multi-Chip-Module, zum Preis eines Einfamilienhaus hoch.

MSABK
2013-08-27, 23:35:50
Über wie viel € redet man da pro chip?

Skysnake
2013-08-28, 05:55:55
650 mm² und das noch bei 22nm Fertigungsgröße, das ist immer noch ein ganz großes Monster.
Der Preis dürfte auch exorbitant sein. Da kommen immer noch Erinnerungen an die früheren
handtellergroßen Power Multi-Chip-Module, zum Preis eines Einfamilienhaus hoch.
noch? :freak:

Alter verwalter, dass sollte der Chip mit dem größten Transistorcount überhaupt sein :eek:

Alter verwalter! 650mm², das liefert TSMC nichtmal, wenn du Ihnen so viel Geld in den Arsch bläst wie du willst. Dazu noch 22nm.

Das ist krank! Das ist mal wieder richtiges BigIron. Ich bin echt auf die Leistungsdaten gespannt, und ob das Ding auch in HPC kommt. Der Punkt mit dem cohärenten Acceleratorinterface ist nämlich ganz interessant. Mal schauen was da noch kommt.

Iterator
2013-08-28, 20:21:41
@MSABK

Laut einer Preisliste (2012) kannst Du ungefähr von diesen Preisen ausgehen.

http://abload.de/img/ibmpricelistxmu9q.png

Jene verstehen sich selbstverständlich ohne Steuern. In den meisten Fällen wird wieso nur für die benötigte Leistung bezahlt (Power On Demand) und man erwirbt von IBM die dafür nötigen Lizenzen, für die Leistung und den Support für das entsprechende System. Damit macht ja IBM die hauptsächliche Kohle mit.

S940
2013-08-29, 16:09:31
Alter verwalter! 650mm², das liefert TSMC nichtmal, wenn du Ihnen so viel Geld in den Arsch bläst wie du willst. Dazu noch 22nm.
Die 15 Metall-Lagen sind auch nicht ohne. Wieviel haben da Intel/AMD z.Zt? So 10-12? Hab gerade gesucht, aber da kommen nur lauter C2-Chipset-Treffer--

Thunder99
2013-08-29, 18:16:53
Hier sieht man wieder das maximal technisch machbare oder? :D Nvidia machts ja mit seinen großen GPU´s bei TSMC vor und IBM sowie Intel bei ihren dicksten Server CPU´s (bei Intel meine ich die Itanium was ja auch Monster-Chips sind)

Skysnake
2013-08-29, 19:50:51
itaniums sind zwar groß, aber veraltete Technik

Acid-Beatz
2013-08-29, 19:52:06
@MSABK

Laut einer Preisliste (2012) kannst Du ungefähr von diesen Preisen ausgehen.

http://abload.de/img/ibmpricelistxmu9q.png

Jene verstehen sich selbstverständlich ohne Steuern. In den meisten Fällen wird wieso nur für die benötigte Leistung bezahlt (Power On Demand) und man erwirbt von IBM die dafür nötigen Lizenzen, für die Leistung und den Support für das entsprechende System. Damit macht ja IBM die hauptsächliche Kohle mit.

Ich würde trotzdem mal sagen: relativ billig, ich kann mich noch an bereits erwähnte Power4-Zeiten erinnern, da hatte der einzelne Chip bereits einen Preiswert von 300000.
Letztlich ist der Einsatzbereich solcher Chips aber eher in Bereichen, wo Zero-Downtime gefordert wird, DAS lassen sie sich in Verbindung mit der Leistung vergolden, Datenbanken und exotische Anwendungen, die einfach immer laufen MÜSSEN.

Oracle/Sun hat auch gleich was nachgeschossen:
Sparc M6 (http://www.heise.de/newsticker/meldung/Hot-Chips-Oracles-SPARC-M6-als-Datenbankmonster-1945360.html)


Greez

Edit:

itaniums sind zwar groß, aber veraltete Technik
Sie konnten schon einiges, sind aber vom Markt nie angenommen worden und deswegen hats auch an optimierter Software gefehlt, was quasi der Hauptgrund fürs Scheitern des Itaniums war/ist.

Ronny145
2013-08-29, 20:05:40
Ivy Bridge-EX mit 15 Kernen oder spätestens Haswell-EX mit 18 Kernen sollte auf eine vergleichbare Größe kommen.

Skysnake
2013-08-29, 20:19:00
Sie konnten schon einiges, sind aber vom Markt nie angenommen worden und deswegen hats auch an optimierter Software gefehlt, was quasi der Hauptgrund fürs Scheitern des Itaniums war/ist.

ich rede von heute, nicht von irgendwann mal.

Acid-Beatz
2013-08-30, 14:53:16
ich rede von heute, nicht von irgendwann mal.
Mag sein, trotzdem hat Intel diesen "Rückschlag" sicher irgendwie zu verwerten gewusst - war auch eher als Anmerkung gedacht ;)


Greez

RavenTS
2013-08-31, 15:24:54
noch? :freak:

Alter verwalter, dass sollte der Chip mit dem größten Transistorcount überhaupt sein :eek:

Alter verwalter! 650mm², das liefert TSMC nichtmal, wenn du Ihnen so viel Geld in den Arsch bläst wie du willst. Dazu noch 22nm.

Das ist krank! Das ist mal wieder richtiges BigIron. Ich bin echt auf die Leistungsdaten gespannt, und ob das Ding auch in HPC kommt. Der Punkt mit dem cohärenten Acceleratorinterface ist nämlich ganz interessant. Mal schauen was da noch kommt.

Naja TSMC liefert doch schon lange 550mm² DIEs für nVIDIA, soviel kleiner ist das ja nun auch nicht und der Power8 soll ja auch erst 2014 geliefert werden!

Skysnake
2013-08-31, 15:48:31
650mm² ist aber gewaltig was anderes als die ~570 von nVidia...

Geh mal zu TSMC und frag die ob die dir nen 650mm² DIE machen. Du wirst sehr sicher die Antwort bekommen: Nö, so groß können wir schlicht nicht.

Knuddelbearli
2013-08-31, 16:36:29
TSMC limit ist wenn ich mich recht erinnere 560mm²

Sonyfreak
2013-08-31, 17:39:42
TSMC limit ist wenn ich mich recht erinnere 560mm²G200 hatte 576mm² und jener ist - soweit ich weiß - Nvidias größter Chip bisher.

mfg.

Sonyfreak

Knuddelbearli
2013-08-31, 18:38:55
und den gab es für unter 200€ ... ^^

=Floi=
2013-08-31, 22:30:43
nur leider bleiben die kosten pro transistor bei einem shrink in etwar gleich teuer und somit funktionieren leider solche preise nicht mehr.

an wem werden denn solche chips eigentlich verkauft? warum baut man da nicht etwas kleines und deckt damit dann auch mehr kunden ab? bei den großen servern kann man ja weiterhin 4 davon dann auf ein package pappen.
andere jammern, weil sie keine 5 mio davon verkaufen können und hier wird ein neuer chip für 100000stück aufgelegt.
kauft da die nsa so viel? eine bankt oder ein unternehmen wird maximal zwei davon haben wollen bei den preisen bekommt man auch etwas normaleres. 100% uptime kann ich heute auch anders erreichen und mehrere server verteile auch die last besser.

VanRamme
2013-08-31, 22:52:08
Ich will für die Diskussion ein paar Dinge in den Raum werfen:

"Zero downtime", Stichwort gut gemerkt aber falsche Plattform. Es geht hier nicht um "immer laufen". Für solche Zwecke bietet IBM die Mainframe Systeme der System z Reihe. Systeme aus der Gruppe der Power Systems zielen auf, nunja nomen est omen, allein auf rechenintensive Anwendungen. Außerdem werden hier GPUs, RISC Systeme und CISC Systeme etwas durcheinander gewürfelt...

Was für viele interessanter sein dürfte: Die Preislage ist etwas einseitig dargestellt. IBM Power Systeme können durchaus für niedrige fünfstellige Beträge erworben werden (System, nicht CPU), der Preis skaliert mit der freigeschalteten Leistung was Iterator übrigens völlig zurecht als hauptsächlichen Margenbringer für IBM bezeichnet. Die Prozessoren werden freigeschaltet (aka MES). Ein Beispiel für diesen Preisbereich sind die p710 Express Systeme, hier sind unter 20k€ möglich. Als Daumenwert nur um ein Gefühl zu bekommen: Ein einzelnes, typisches Midrange System p730 liegt vielleicht >50k€ und <100k€. Bewegen wir uns nach oben (und nehmen PowerHA etc. in die Betrachtung) liegen wir für eine p770 rund um die 500k€. Das obere Ende an Leistung und Preis markiert dann die p795. Seit Power 7 ist die Zahl der Anwendungsfälle für Highend Power Systeme übrigens merklich zurückgegangen, vereinfacht lässt sich sagen: Highend Power 6 Systeme lassen sich durchaus mit Power 7 Systemen ablösen (auch wenn Marketingmenschen dem p570 Kunden gerne eine p780 andichten möchten). Das war bei den vorigen Wechseln nur begrenzt der Fall. Power 8 wird diesbezüglich sicher auch sehr spannend.

Auch interessant: RLZ nennt die SAP Kundschaft. Vor dem Hintergrund der SAP RTDP (HANA) und der Spekulation um HANA auf IBM Power dürfte ein besonderes Licht auf die Power Plattform fallen. Ohne HANA auf Power wird früher oder später der typische SAP Kunde auf eine x86 Plattform umziehen.

Skysnake
2013-08-31, 22:55:14
Den Datendurchsatz, und die RAS-Features usw usw usw usw bekommste aber nicht mit normalen Servern hin.

Das Ding ist einfach auf Durchsatz ausgelegt, und "Geld" spielt da eben fast keine Rolle. Das Ding muss 100% sicher laufen, denn Sekunden an Ausfall können da schon Millionen kosten...

Und dann gibt es eben auch noch alte Software, die halt laufen muss, und neue Software entwickeln wäre zu teuer.

Zumal "kleiner" auch nicht wirklich angedacht ist Man pappt ja dennoch mehr Dinger teils auf ein Package ;) IBM geht da einfach immer an die Grenze des machbaren. Schau dir doch auch mal den DIE an. Das sind handoptimierte IP-Blöcke. Das ist einfach richtig schön gemachte Technik.

=Floi=
2013-09-01, 00:44:52
ja, aber warum solche technik für 5 leute, wenn ich auch 100 bedienen kann?!

wäre so, als würde nv die großen gpus aus dem massenmarkt nehmen.

Elkinator
2013-09-01, 05:53:15
ja, aber warum solche technik für 5 leute, wenn ich auch 100 bedienen kann?!
was willst du damit sagen?

IBM wäre sehr dumm wenn sie solche server CPUs nicht mehr herstellen würden, damit macht man ordentlich gewinn.

Skysnake
2013-09-01, 07:12:55
ja, aber warum solche technik für 5 leute, wenn ich auch 100 bedienen kann?!

wäre so, als würde nv die großen gpus aus dem massenmarkt nehmen.
Weil Sie damit noch immer genug Gewinn machen und Hardware hier Software und Support verkauft?

Zudem haben die Kunden sehr sehr genaue Vorstellungen, was Sie denn haben möchten. Da kommste mit was mainstreamigerem gar nicht erst an.

Für viele ist es auch absolut klar, dass Sie nen Sparc oder ne IBM Monster haben wollen. Das sind da auch idiologische Dinge, die eben mit der verwendeten Software zusammen hängen, und der Paranoia vor neuen ungetesteten Dingen.

Wie gesagt, wenn dich ne Sekunde ausfall Millionen kostet, dann fängst du an ganz ganz anders zu denken und ganz andere Maßstäbe zu setzen.

pittiplatsch
2013-10-10, 19:56:18
Der alte Traum von der Rückkehr zur CPU only, mmh vielleicht mit 14nm (eher noch kleiner) und 3Ms 3D-Stacked Ram, soll ja bis zur 1000fachen CPU-Power gehen via übereinander mit Adhäsivkleber aufgetürmten CPU-Layern (DDR4), wär was für ne NextnextGen Konsole. Da bräuchts auch keine Grafik-CPU=GPU mehr. :D

Sonys Cellchip und Intels Larrabee sollten ja schon sowas verwirklichen, scheiterten jedoch an der vorhandenen Möglichkeit, und den Parametern für den Massenmarkt, noch, aber das wird wiederkommen, CPU-Power ist eben universell, GPGPU ist nichts anderes, als GPUs die CPU-Power besitzen, und mit abarbeiten können.

Skysnake
2013-10-11, 08:47:00
Bullshit...

Larrabee ist gescheitert, weil es eine beschissene Idee war mit Software gegen FixedFunctionUnits antreten zu wollen...

CPUs und GPUs sind grundlegend andere Architekturen. CPUs können gar nicht so Energieeffizient sein in Problemen die GPUs liegen, einfach weil Sie viel aufwändiger sind. Das führt zwangsläufig zu höherem Stromverbrauch. Da beist die Maus kein Faden ab.

Und wenn man eben wie heute Powerlimited ist, wird man mit reinen CPUs am Ende eben immer langsamer sein.

pittiplatsch
2013-10-12, 00:14:32
Sie sind wie alt?

FixedFunctions (vielen Dank für die Bestätigung) sind Shader, die speziell für grafische Darstellung konzipiert wurden, allerdings auch statisch, also eine Grafiktapete herstellen, GPGPU soll das ändern, allerdings geht dies nur sehr begrenzt vorran, CPU-Power ist universell, sie kann jeglichen Input verarbeiten, was ihre Steigerung wesentlich schwieriger gestaltet, als Starre Funktionen, verdammt kapieren sie doch, GPUs sind Grafikbeschleuniger, das wars. :cool:

Lassen sie die Anglizismen, das kann man auf deutsch erklären, und qualifiziert sie nicht. Und sich wundern über den nativen Flaschenhals, der seit GPU-Einführung zwischen CPU und GPU existiert, was wiederum Speicherprobleme mit sich führte, statt sich mit der möglichen CPU-Kraftsteigerung zu befassen, aber das war ja ein neues Geschäftsfeld, Idioten, für Pseudonotwendigkeiten zu begeistern, die seit 20 Jahren prinzipiell gelöst sind, wenn man wollte, toll. :rolleyes:

Coda
2013-10-12, 00:43:34
GPUs sind Vector-Prozessoren. Die gibt es schon seit mehr als 20 Jahren im Supercomputer-Umfeld.

Es sieht im Moment nicht sehr danach aus, dass große Out-Of-Order-Kerne die Effizienz von massiv paralleln Chips erreichen können, deshalb halte ich es für unwahrscheinlich, dass GPUs verschwinden werden.

pittiplatsch
2013-10-12, 00:49:29
Was ist das eine Latinoanglizisme oder was?

Gut, übersetzt ein Beschleunigungsüberträger von Grafikdaten, mmh bin "begeistert", großes Kino, oh "Out of Order" oder "Frei wählbare Ausführunganordnungen" werdet erwachsen. :rolleyes:

Coda
2013-10-12, 00:58:07
Hast du auch was zum Thema beizutragen oder willst du nur Fische ertrollen?

pittiplatsch
2013-10-12, 01:15:17
Fische ertrollen? Was soll das, behalt deine Klicks, geschenkt, für mich unwichtig, uninteressant, wenns das ist, ich vermache dir offiziell alle Klicks die ich kriege, geht mir am Ar.... vorbei.

Mann ich will kapiert werden. :cool:

StefanV
2013-10-12, 01:26:07
FixedFunctions (vielen Dank für die Bestätigung) sind Shader, die speziell für grafische Darstellung konzipiert wurden, allerdings auch statisch, also eine Grafiktapete herstellen, GPGPU soll das ändern, allerdings geht dies nur sehr begrenzt vorran, CPU-Power ist universell, sie kann jeglichen Input verarbeiten, was ihre Steigerung wesentlich schwieriger gestaltet, als Starre Funktionen, verdammt kapieren sie doch, GPUs sind Grafikbeschleuniger, das wars. :cool:
Was ein Blödsinn...

Ich hab zwar nicht soo viel Plan von GPUs wie manch anderer hier, nur was du hier zu 'Fixed Function' und Shadern sagst, ist einfach falsch.

Zum MItmeißeln: Fixedfunction = Ein Hardwareteil, was nur eine bestimmten, sehr beschränkten Aufgabenbereich erfüllt. Das aber sehr gut (bzw schnell). Zum Beispiel die TMUs und ROPs fallen darunter. Die Shader sind aber keine 'Fixed Function' Einheiten. Wie kommst du darauf, dass dem so wäre?!

Und wenn ich das recht im Hirn hab, dann war beim Larrabee auch niemals die Rechenleistung das Problem sondern eher das Texturing und Filterung. Da hat Intel irgendwas komisches mit den TMUs/ROPs machen wollen, was in der Praxis als Grafikkarte nicht soo eine tolle Idee war.

Entsprechend gibts die Larrabee (Knights Corner) auch nicht als Grafikkarte zu kaufen...

StefanV
2013-10-12, 01:31:40
Gut, übersetzt ein Beschleunigungsüberträger von Grafikdaten, mmh bin "begeistert", großes Kino, oh "Out of Order" oder "Frei wählbare Ausführunganordnungen" werdet erwachsen. :rolleyes:
1. Wenn du kein Englisch kannst, solltest du es mal lernen.
2. Wenn du Begriffe nicht kannst, solltest du entweder nachfragen, was diese bedeuten oder aber mal google bemühen.

3. Entsorg mal die 'Grafikdaten' aus in Verbindung mit Grafikkarte als Recheneinheit aus deinem Hirn. Weil das ist einfach mal völlig falsch. Es sind immer noch Rechenoperationen, die ausgeführt werden.

4. Es gibt viele unterschiedliche Probleme, die andere Prozessoren erfordern bzw für bestimmte Prozessoren besonders geeignet sind.
Und kommen wir jetzt mal zu GPU vs. CPU:
Beides sind Prozessoren! Das eine ist ein massivst Paralleler Rechner, das andere (eher) ein Serieller Rechner.
Der eine (GPU) ist sehr speziell, der andere universell.

Wenn du jetzt behauptest, dass 'ne CPU immer und in jeder Lage besser wäre, muss man dir einfach mal völlige Unwissenheit unterstellen!
Denn es gibt Aufgaben, die kann eine GPU um ein vielfaches schneller/besser berechnen, eben weil man bei modernen GPUs fast 3000 Rechenkerne hat. Während man bei CPUs momentan maximal 8 (bzw bei speziellen Server Prozessoren auch schon 16) Kerne/Threads hat.

pittiplatsch
2013-10-12, 01:40:07
Merkst du (also Sie haben ja das Du bemüht) eigentlich, das du mich komplett bestätigst? "Shader sind keine FixedFunctions", soso interessant.

Arg, nein ich lass es, ihr habt schon lange fertig, das ist mir jetzt klar geworden, aber erst der Hunger, also der Antiglucos wird euch erleuchten, und der wird kommen. :freak:

Brillus
2013-10-12, 04:17:37
Merkst du (also Sie haben ja das Du bemüht) eigentlich, das du mich komplett bestätigst? "Shader sind keine FixedFunctions", soso interessant.

Arg, nein ich lass es, ihr habt schon lange fertig, das ist mir jetzt klar geworden, aber erst der Hunger, also der Antiglucos wird euch erleuchten, und der wird kommen. :freak:
Wie konnte man nochmals leute ignoriern ich finds gerade einfach nicht

StefanV
2013-10-12, 05:57:27
"Shader sind keine FixedFunctions", soso interessant.
Richtig. Shader nennt man die Programme, die in den Shadern (=Recheneinheiten) der GPUs ausgeführt werden.

Kurz: das beschreibt den Programmierbaren Teil der Grafikkarte.

=Floi=
2013-10-12, 06:40:27
was willst du damit sagen?

IBM wäre sehr dumm wenn sie solche server CPUs nicht mehr herstellen würden, damit macht man ordentlich gewinn.


ginge ja auch zwei nummern kleiner, quasi als dual core und das ganze dann über die sockel oder über das package skalierbar machen.
ibm könnte ja auch einen normalen quad bringen.

ich frage mich aber schon wie die unterm strich damit geld verdienen wollen, weil die entwicklung dieser monster cpu sicherlich viel geld gekostet hat. je mehr leute solche hardware haben, desto mehr mehr kann man auch damit verdienen.

RavenTS
2013-10-12, 10:14:53
ginge ja auch zwei nummern kleiner, quasi als dual core und das ganze dann über die sockel oder über das package skalierbar machen.
ibm könnte ja auch einen normalen quad bringen.

ich frage mich aber schon wie die unterm strich damit geld verdienen wollen, weil die entwicklung dieser monster cpu sicherlich viel geld gekostet hat. je mehr leute solche hardware haben, desto mehr mehr kann man auch damit verdienen.

Bei den Preisen für solche CPUs sieht das sicherlich nicht ganz so schlecht aus und ich denke da geht es auch v.a. darum entsprechende Gesamt- und Softwaresysteme mit den CPUs zu verkaufen..!

Shink
2013-10-12, 17:37:37
ich frage mich aber schon wie die unterm strich damit geld verdienen wollen
Öhm... so wie die letzten Jahrzehnte auch?
Im Cloud-Computing-Zeitalter benötigt irgendjemand auch jede Menge fette "Brawny Cores".
Wer hingegen unbedingt Dual Core-CPUs der Power-Architektur braucht, ist mir jetzt nicht klar. Sollen die denn dann im Preiskampf gegenüber Intel bestehen oder wie?

S940
2013-10-12, 18:44:22
Öhm... so wie die letzten Jahrzehnte auch?
Im Cloud-Computing-Zeitalter benötigt irgendjemand auch jede Menge fette "Brawny Cores".
Ne die Cloud zeichnet sich eigentlich dadurch aus, dass simple ARM-Kerne in ihr stecken. Rechenleistung brauchts da weniger, wichtig ist eher RAM-Kapazität, damit möglichst viele VMs laufen können.

Ich will nicht ausschließen, dass irgendjemand fette Power-Kerne braucht, aber der Markt wird schrumpfen. Alles was sich parallelisieren läßt, wird auf GPUs ausgelagert werden. Keine Ahnung was dann übrig bleibt, vielleicht die Datenbanknische, wobei es da keine so fetten FPUs bräuchte, da könnte man auch abspecken, notfalls halt nen DSP dazu.

Undertaker
2013-10-12, 20:02:00
Ne die Cloud zeichnet sich eigentlich dadurch aus, dass simple ARM-Kerne in ihr stecken. Rechenleistung brauchts da weniger, wichtig ist eher RAM-Kapazität, damit möglichst viele VMs laufen können.

Das kann man kaum so pauschalisiert sagen, ohne zu wissen, was genau für Aufgaben bearbeitet werden sollen. In einer VM steht nun einmal auch nicht mehr Single-Thread-Leistung zur Verfügung als die zugrundeliegenden Kerne bieten können. ARM oder low-power x86-Kerne haben ihren Markt, sind aber ganz sicher nicht die Wundertüte für jeden beliebigen Zweck – auch nicht mit Einschränkung auf den höchst schwammigen Begriff "Cloud".

fondness
2014-04-23, 21:46:11
Mal wieder was neues, in kürze Verfügbar: http://www.golem.de/news/ibm-power8-mit-96-threads-pro-sockel-gegen-intels-uebermacht-1404-106027.html

Akkarin
2014-04-23, 21:52:51
Juni 2014 für solche Monsterchips in 22nm ist relativ früh, oder ? Benutz GloFo den Prozess auch bzw. kann AMD drauf zugreifen ?

fondness
2014-04-23, 21:56:20
Leider nein, GF nutzt die IBM-Prozesse nicht mehr seit dem Verkauf. Man hat nur irgend einen 20nm low-power Prozess, keinen 22nm SOI super-high-performance mehr.

Tressa
2014-04-24, 13:12:43
Ein paar Fragen:

Welchen Einsatzzweck haben diese Prozessoren? Oder anderes gefragt, warum sollten Kunden nicht einfach mehr aber billigere Xeons/Opterons kaufen?

Warum produziert IBM nichts im Consumersegment, obwohl sie doch technologisch auf der Höhe der Zeit zu sein scheinen (22nm 2013)?

Und ein bißchen off-topic: Wie hoch ist die Wahrscheinlichkeit das ein neuer CPU-Anbieter auftaucht? So wie früher zB Cyrix. Oder ein von Neelie Kroes vorgeschlagenes europäisches 'Airbus of Chips'?

Tressa

Deinorius
2014-04-24, 17:37:50
Wenn IBM bald 22 nm liefern kann, wieso bieten sie diese Fertigung nicht auch anderen Herstellern an? Im Grunde sind sie doch die zweiten direkt hinter Intel.
Hat es damit zu tun, dass sie dafür erstmal Kapazitäten schaffen müssten, was wiederum große Investitionen erfordert?

fondness
2014-04-24, 18:48:06
IBMs "Fertigung" ist hauptsächlich eine Forschungseinrichtung, man hat nur wenig Fab-Kapazität und diese will man auch verkaufen.

S940
2014-04-24, 21:35:07
Und ein bißchen off-topic: Wie hoch ist die Wahrscheinlichkeit das ein neuer CPU-Anbieter auftaucht? So wie früher zB Cyrix. Oder ein von Neelie Kroes vorgeschlagenes europäisches 'Airbus of Chips'?

Geht gegen Null, für nen guten Chip braucht man Know-How. Nichtmal AMD schafft es mit Intel IPC-mäßig gleichzuziehen, also wieso sollte es ein Startup schaffen?

Davon abgesehen hat sich ARM weit genung herangerobbt, spätestens mit den 64bittern werden sie zur ernsthaften Konkurrenz für Intel, trotz Inkompatibilität.

Deinorius
2014-04-25, 00:06:43
IBMs "Fertigung" ist hauptsächlich eine Forschungseinrichtung, man hat nur wenig Fab-Kapazität und diese will man auch verkaufen.


Eine Forschungseinrichtung, die technologisch gut voran kommt, wie es scheint. Da wäre man doch blöd, wenn man das nicht irgendwie vermarkten würde.

disap.ed
2014-04-25, 07:33:31
Und ein bißchen off-topic: Wie hoch ist die Wahrscheinlichkeit das ein neuer CPU-Anbieter auftaucht? So wie früher zB Cyrix. Oder ein von Neelie Kroes vorgeschlagenes europäisches 'Airbus of Chips'?


Ein ganz neuer Player ist extrem unwahrscheinlich, aber wenn du so willst könnte man ARM als europäisches "Airbus of Chip" sehen.

Thunder99
2014-04-25, 09:50:31
Global Fountry hat ja ein neues Kooperationsabkommen mit IBM abgeschlossen. Evt will ja IBM bei GF fertigen? Aber zumindest profitiert da AMD/GF davon

YfOrU
2014-04-25, 10:15:55
Davon abgesehen hat sich ARM weit genung herangerobbt, spätestens mit den 64bittern werden sie zur ernsthaften Konkurrenz für Intel, trotz Inkompatibilität.

In dem Kontext würde ich mich auf die ISA beschränken. Am Ende zählt Time to Market und da sehe ich ARM (eigene) IP Cores gegenüber Intel deutlich im Nachteil. Das positive Gegenbeispiel auf Basis der ARM ISA wäre natürlich Apple. Es geht aber wie so oft ist das Maximum DIY in Kombination mit den notwendigen Ressourcen.

Avalox
2014-04-29, 21:03:44
Google hat ein Power8 Mainboard vorgestellt.
Das Board ist eine Eigenentwicklung von Google für die offene Power Architektur.

http://www.golem.de/1404/sp_106137-77803-i_rc.jpg

http://www.golem.de/news/openpower-google-zeigt-sein-power8-mainboard-1404-106137.html

fondness
2014-04-29, 21:40:18
Global Fountry hat ja ein neues Kooperationsabkommen mit IBM abgeschlossen. Evt will ja IBM bei GF fertigen? Aber zumindest profitiert da AMD/GF davon

Umgekehrt, GF will die IBM Fertigung.

robbitop
2014-04-30, 09:32:18
Hü. Hopp?

fondness
2015-05-08, 15:32:10
Netter Showdown, 24 Power8 Kerne reichen in der Regel locker um 36 Haswell-Kerne zu schlagen:
http://www.anandtech.com/show/9193/the-xeon-e78800-v3-review

Im HPC-Bereich ist das 8-fach SMT von IBM mit den extrem breiten Kernen und riesigen Caches wohl kaum zu schlagen.

AnarchX
2015-05-08, 17:55:23
Das bildet sich aber wohl im Preis der Power8-Systeme ab und im Single-Thread-Vergleich verliert man einiges an Performance. HMC wird Intel wohl auch seinen Server-CPUs verpassen, mal sehen ob Intel auch den Sprung auf >4-Way-SMT wagt, mit AVX3 böte sich das wohl eventuell an.

Aber eine Power9-Volta-APU unter einem Architektur-unabhängigen Win11 mit passender SW wäre wohl auch nicht so verkehrt. :D

Coda
2015-05-08, 17:59:46
Was hat SMT mit AVX3 zu tun?

Naitsabes
2015-05-08, 18:43:20
Wenn die FPU eh mit 512bit arbeiten können muss, dann will man das doch auch für nicht-avx fähige Programme nutzen können, indem die FPU "bulldozerlike" von den einzelnen Threads genutzt werden kann.
Das ist jedenfalls meine Laienmeinung

Coda
2015-05-08, 18:49:51
Nö, kann sie nicht. Dafür braucht man mehr Execution-Ports, was den ganzen Scheduler komplexer macht.

AnarchX
2015-05-08, 18:55:57
Knights Landung hat aber auch 4-way-SMT Silvermont Cores. Vielleicht in Cannonlake-EP/EX.

Coda
2015-05-08, 19:00:21
Aber? Aber was? Das hat trotzdem nichts mit AVX3 zu tun.

Skysnake
2015-05-08, 19:07:31
Nö, kann sie nicht. Dafür braucht man mehr Execution-Ports, was den ganzen Scheduler komplexer macht.
Genau das.

Das eine hat mit dem anderen erstmal nicht viel zu tun.

Naitsabes
2015-05-08, 21:43:19
Okay, das sehe ich ein.

Leider bleibt dann doch dieses Aber:
Sollten also keine weiteren Ports angeflanscht werden (was man nicht so mal nebenbei macht), dann würde die sehr breite FPU wirklich nur für AVX3 Vorteile bringen? Ist es dann (zur Zeit) überhaupt sinnvoll die FPU so sehr zu vergrößern, wenn man nur in Spezialfällen davon profitiert?
Klar, das ist bei den meisten Instruktionssätzen so, doch stelle ich mir den Sprung von 256 auf 512bit vom Aufwand her ziemlich heftig vor. Lassen sich solch parallelen Aufgaben mittlerweile nicht besser auf den iGPUs umsetzen?
Ihr habt diesbezüglich deutlich mehr Wissen als ich, drum würde ich mich über eine fachkundigere Antwort freuen ;)

Ganon
2015-05-13, 16:05:16
Lassen sich solch parallelen Aufgaben mittlerweile nicht besser auf den iGPUs umsetzen?

Solange der Compiler nicht aus normalen C/C++/Whatever Code mal eben GPU-Code macht, dann nicht. Es gibt zwar schon hier und da Ansätze die dies verfolgen (OpenAAC, OpenMP 4.x), aber ich habe bisher noch kein realistisches Beispiel gefunden. Von SSE/AVX profitiert man unter Umständen bereits einfach durch ein neukompilieren der Anwendung. Handoptimierung ist zwar immer noch besser, aber immerhin. Es ist halt nicht jeder Algorithmus GPU-freundlich und wenn nur ein Teil des Algorithmus GPU-freundlich wäre, dann kommt AVX ins Spiel.

Ganon
2015-05-13, 16:36:53
Aber eine Power9-Volta-APU unter einem Architektur-unabhängigen Win11 mit passender SW wäre wohl auch nicht so verkehrt. :D

Ich hab da so meine Bedenken. Auch wenn man mal bei Linux bleibt.

Die PowerPC/POWER Nutzer unter Linux ist doch arg gering geworden, seitdem Apple PowerPC den Rücken gekehrt hat. Viele Sachen die ein x86/ARM Linux so bietet muss IBM hier selbst in den Kernel packen, weil es kein anderer tut. Mal als Beispiel KVM/QEMU Support auf POWER musste IBM halt selbst machen, ebenso LLVMpipe Support für POWER in Mesa.

Es ist ja auch nicht gerade leicht/erschwinglich so ein POWER8 System zu bekommen und ich glaube IBM hat auch gar kein Interesse daran, nachdem man allen Desktop Kram verkauft hat.

Und so hat man dann zwar eine schnelle CPU, aber "Wald und Wiesen"-Software nutzt diese nicht gut. Das gleiche Problem hatte ja auch Apple damals. Der x86-Part des Algorithmus bestand als handoptimierten Assembler und unter PowerPC musste man sich mit der C-Variate zufrieden geben.

Skysnake
2015-05-13, 20:48:51
PowerPC ist in meinen Augen tot, also abgesehen von irgendwelchen Settop Boxen und so einem geraffel.