PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : OpenPower-Konsortium - mit Nvidia und Google - Power-Architektur-Lizenz


Hugo
2013-08-07, 18:59:24
IBM, Google, NVIDIA, Mellanox gründen Konsortium um die Power-Architektur weiter zu entwickeln
http://www.heise.de/ix/meldung/IBM-sucht-neue-Kunden-fuer-Power-Prozessoren-1930604.html

passt nicht ganz in den Tegra Thread, müßte man eher einen neuen öffnen oder?
Was meint ihr, hat das Sinn an der Power Architektur weiter fest zu halten?

Hugo78
2013-08-07, 19:31:36
@Hugo

Passt (auch) ins Denver Thema:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=500216

AnarchX
2013-08-07, 19:34:58
Eine Absicherung falls Intel irgendwann mal auf die Idee kommen sollte, dass man Leistungsstarke Xeon-CPUs nur noch mit Xeon Phi koppeln kann.

Hugo
2013-08-07, 19:45:19
interessant ist es schon XBOX360 und PS3 haben doch Power Architektur oder?
Für Server bestimmt eine Überlegung wert. PowerPC SOC mit Nvidia GPU

Skysnake
2013-08-07, 21:33:19
@Hugo

Passt (auch) ins Denver Thema:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=500216
Nein, das hat mit Denver gar nichts zu tun apriori

Botcruscher
2013-08-07, 21:45:59
Marktpolitisch passt es dann schon. NV kommt mit ARM im Servermarkt einfach nicht weit.

Leonidas
2013-08-07, 22:17:53
Heise stellt richtig - es handelt sich um die Power-Architektur, nicht um die PowerPC-Architektur:
http://www.heise.de/newsticker/meldung/IBM-sucht-neue-Kunden-fuer-Power-Prozessoren-1930604.html

Skysnake
2013-08-07, 23:18:59
Wobei das eigentlich "nur" ein Detail ist, welcher sich ziemlich sicher einfach durch den angedachten Einsatzbereich ergibt. Für google usw passt Power halt besser als PowerPC.

StefanV
2013-08-07, 23:30:51
Wo ist denn der Unterschied zwischen der Power und der PowerPC Architektur?

So ausm Bauch raus würd ich sagen, dass ersteres eher für Low Power Anwendungen gedacht ist, letzteres eher auf Performance geht...

Aber was ist jetzt der Unterschied??

S940
2013-08-08, 00:22:15
Wo ist denn der Unterschied zwischen der Power und der PowerPC Architektur?
Steht doch im Update bei heise:

Die Power-Prozessoren (http://www-03.ibm.com/systems/power/) werden manchmal mit den schwächeren und weiter verbreiteten PowerPC (https://www-01.ibm.com/chips/techlib/techlib.nsf/products/PowerPC)-(PPC-)Kernen verwechselt. Letztere setzt IBM etwa in den Blue Gene (http://www.heise.de/newsticker/meldung/Supercomputer-Rechen-Beschleuniger-effizienter-als-IBMs-BlueGene-1751146.html)-Supercomputern (/L, /P, /Q (http://www.heise.de/newsticker/meldung/IBM-BlueGene-Q-Express-und-Fertigloesungen-fuer-Technical-Computing-1886553.html)) ein, aber nicht in Allzweck-Servern. PowerPC-Kerne stecken auch in einigen SoCs, darunter welchen von Freescale (http://www.freescale.com/webapp/sps/site/homepage.jsp?code=PCPPCP) (Ex-Motorola), und sie trieben bis 2006 Apple-Rechner an.

Das sie gleich die Dickschiff-Arch. mit dem nagelneuen Power8 freigeben ist schon bemerkenswert.

Ein paar Linuxianer würden sich da sicherlich über ne Workstation mit nem Dual-Core Power8 mit 8 Threads freuen ;)

Wobei das wohl wieder ne Preisfrage sein wird. Kein Massenmarkt -> zu teuer für Desktops. Der Markt schrumpft ja auch sowieso. Ergo wird sowas gar nicht auf den Markt kommen.

sloth9
2013-08-08, 04:05:11
Wo ist denn der Unterschied zwischen der Power und der PowerPC Architektur?

So ausm Bauch raus würd ich sagen, dass ersteres eher für Low Power Anwendungen gedacht ist, letzteres eher auf Performance geht...

Aber was ist jetzt der Unterschied??

http://de.wikipedia.org/wiki/IBM_Power
http://de.wikipedia.org/wiki/PowerPC

Hugo78
2013-08-08, 04:17:54
Nein, das hat mit Denver gar nichts zu tun apriori

Denver steht für den Schritt hin zu Hochleistungs APUs/SoCs, wo man neben mobilen Geräten, auch Desktop und Serverregionen bedienen kann
und das bekommt man mit IBM Power schneller, als mit ARM.

Skysnake
2013-08-08, 09:04:57
Project Denver ist eine Kooperation/Forschung bzgl SOC zusammen mit dem Barcelona Supercomputercenter, wobei man auf ARM gesetzt hat.

Das hier kannst du NICHT! mit Project Denver vergleichen. Wir wissen noch nicht mal, ob es überhaupt ein SOC werden wird, wovon ich aber ausgehen würde. Die Power-Architektur ist aber fundamental unterschiedlich zu ARM. Du verfolgst da komplett andere Ziele/Wege um etwas zu erreichen.

Hugo78
2013-08-08, 09:27:57
Bei Denver geht es doch nicht nur um die Tegra basierte Low Power Geschichte vom Barcelona Supercomputercenter.
Denver ist der Schritt hin zu High End auch auf der CPU Seite. Angekündigt seiner Zeit als ARM basierend, klar.
Aber wenn IBM Power jetzt verfügbar ist, warum soll Nvidia jetzt ein ARM Design auf Höchstleistung hochprügeln,
wenn IBMs Design schon viel weiter ist und eine bessere Basis darstellt?!

Und es wird ein SoC oder zumindest eine APU, weil man ansonst nicht die benötigte Perf./W hinbekommt.
Und Linux ist es egal ob da ARM RISC oder IBM Power RISC drinsteckt.

Skysnake
2013-08-08, 10:21:32
...

Nochmal, Project Denver ist GANZ eng ne Sache zwischen nVidia und Barcelona. Da gehts nicht nur um Software, sondern auch um Interconnect und Software. Das kannst du nicht in einen Topf schmeisen. Glaubs mir bitte einfach. Ich habe meine Gründe dafür das so deutlich zu sagen...

Und bzgl IBM und der "besseren/viel weiteren" Power-Architektur/Basis:
Das kannst du so gar nicht sagen. Power ist ANDERS! als PowerPC oder x86. Aber "besser/viel weiter" ist immer so eine Sache. Du kannst das einfach nicht direkt miteinander vergleichen. Es ist einfach ANDERS. Ob "besser" ist dann immer die Frage, was du am Ende wirklich machen willst, und für viele wäre es eben nicht "besser"....

Es hat schon seine Gründe, warum Google da mit drin ist. Das wird die treibende Kraft dahinter sein, wie bei so vielem... Google ist aber ein Sonderling, genau wie Facebook und Amazon mit ihren Cloudediensten.

Wenn du ERNSTHAFT! daran interessiert bist, könnte ich jetzt ne WOT loslassen, die das alles auseinander dröselt, aber 1. habe ich jetzt keine Lust auf 1h+ schreiben, und 2. habe ich meine Zweifel ob du dahingend wirklich so im Detail interessiert bist, und auch bereit bist manches einfach so hin zu nehmen, denn das würdest du ohne darüber hinaus noch sehr sehr sehr viel mit Hardwaredesign im Allgemeinen auseinander zu setzen.

Hugo
2013-08-08, 10:24:59
das einzige Problem ist halt, dass man mit IBMs Power (oder auch ARM) keinen Fuß in den Desktopmarkt bekommen wird.
Nur für Server ist das vielleicht nicht wirtschaftlich???

Hugo78
2013-08-08, 10:54:32
Mit ARM hat man im Desktop per se die gleichen Probleme.
Natürlich wird ARM auch weiterhin im mobilen Bereich die größere Rolle spielen.
Allein die Softwareunterstützung ist hier viel größer. (edit: und man kann IBM Power auch sicher nicht so schnell herunterbrechen, logisch)

Ob sich IBM Power im "nur Serverbereich" bezahlt macht? Nun man fängt ja nicht bei Null an.
Im Gegenteil, IBM Power 7 hat 4-Way SMT, damit sollte man grade im Serverbereich den GPU Teil besser auslasten,
als alles was man sich auf ARM Basis zusammenschustert.
Schneller am Markt wäre man damit sowieso und mit Platz 5-10 der Green 500 ist IBM Power der letzte Vertreter der CPU only Supercomputer.
Mit GPU Unterstützung steigt diese Perf./W nochmal ...

Skysnake
2013-08-08, 11:09:04
BlueGene/X ist die PowerPC Architektur, nicht Power...

Die ZSeries usw ist Power Architektur.

Das ist ja das was ich meine, Power <-> PowerPC sind beides Hochleistungsarchitekturen, die aber komplett andere Zielsetzungen haben. Man kann es am ehesten noch mit x86<->Itanium vergleichen würde ich sagen.

Hugo78
2013-08-08, 11:30:29
Ok, aber auch hier muss sich auf der einen Seite IBM bewegen, denn PowerPC allein ohne GPU wird den Anschluss verlieren und "Power" als Großrechner auf die tausende von Nutzer gleichzeitig zugreifen, braucht die GPU sowieso.

Skysnake
2013-08-08, 11:57:36
Nein weder das Eine noch das Andere.

IBM ist IBM ist IBM. Vergleiche das bitte mit nichts anderem. Wenn du damit anfängst, dann haste eigentlich schon verloren. Die machen immer ihr eigenes Ding, und gerade bei der Power-Architektur ist klar, dass das für Google nur interessant ist, weil es halt eine high-IO Architektur ist. IBMs Mainframes sind aber zu teuer, da Redundanz usw usw enthalten ist. Das kann sich Google sparen, da totaler Overkill.

Und damit ist das Thema für mich eigentlich auch durch, denn entweder wir packen das jetzt richtig an, oder wir lassens, denn so wischiwaschi hab ich keinen bock drauf. Denn eigentlich ist es ziemlich klar, was da wohl ablaufen wird, auch wenn es etwas verwundert, das google so zweigleisig mit Microserver und dem jetzt fährt, aber ok, google ist groß. Die wollen sicherlich noch ein zweites Standbein, und die Öffnung von IBM kam sicherlich auch recht überraschend. Bei denen bricht halt so langsam auch der Markt weg, bzw Sie bekommen halt immer mehr Probleme.

Cyphermaster
2013-08-08, 14:16:07
Vielleicht ist die Power-Architektur trotzdem für Google interessant, obwohl bzw. grade weil sie sich von ihrer Struktur her von Googles normalem Bedarf unterscheidet? Folgender spekulativer Gedankengang:

So weit ich das laienhaft einschätzen kann, wären IBM-Power-Techologie-Rechner doch vorrangig für eine Anwendung in "hochintensiven" Umgebungen interessant. Also Netzen von Hochleistungsrechnern, die entweder eine hohe Anzahl von (evtl. auch verschlüsselten) Kommunikationskanälen und ihren Daten verarbeiten, bzw. Simulationen oder Analysen durchführen, da ist Redundanz als Sicherung ebenfalls ein wichtiger Punkt. Das Potential liegt da also bei Wissenschaft, Militär und Geheimdiensten, wobei die Letzteren die sind, die das große Budget haben. Wenn das so stimmt, wäre das natürlich ein Markt, auf dem Google mit seinen Kernkompetenzen auf lukrative staatliche Aufträge hoffen könnte. Ein zusätzlich durch die Architektur von anderen abgeschottetes Ökosystem zu haben, wäre da nicht verkehrt.

Skysnake
2013-08-08, 15:33:10
Klammer Wissenschaft aus. Es hat absolut seine Gründe, warum niemand (fast niemand?) auf die Idee kommt die Power Architektur im wissenschaftlichen Umfeld ein zu setzen. PowerPC wird aus gutem Grund im BlueGene verwendet.

Überleg dir einfach noch mal, was Google macht, und was HPC macht, und wo da eigentlich die Unterschiede liegen.

Wenn du das getan hast, denk mal nach, warum Warenhäuser, Banken usw Mainframes einsetzen. Gibt eigentlich 2 bzw 3 Gründe dafür.

Wenn du das hast, dann überleg dir mal, ob da wirklich alle für z.B. google auch zutreffen, und wenn nicht, warum das dann dazu führt, das man bisher eben keine Power Architektur verwendet hat, sondern Serverfarmen aus "Standard"rechnern.

So und wenn wir das alles haben, dann überlegen wir uns mal, warum es für google neben Serverfarmen aus Microservern doch sehr spannend sein kann die Power Architektur zu verwenden, OHNE! auf IBMs Mainframes etc angewiesen zu sein (Stichwort man braucht nicht alles<->Kosten).

Ich geb mal noch einen Tip. Das hängt mit nem tollen buzz word zusammen. Fängt mit "Big" an und hört mit "Data" auf. Einfach mal überlegen, was das ist, wie man eigentlich damit arbeitet, und welche analogie zum Warenhaus/Banken-/Versicherungssektor das Ganze hat.

Hugo78
2013-08-08, 17:48:57
Nein weder das Eine noch das Andere.

Dann erleuchte uns.
Wenn IBM, CUDA GPUs nicht braucht, wozu wollen sie sie dann doch?
Insbesondere wollen demnach IBM und Nvidia die "Ökosysteme" von CUDA-GPUs und POWER vereinen.
- Zitat Heise.de ^^

mrt
2013-08-08, 18:24:47
Klammer Wissenschaft aus. Es hat absolut seine Gründe, warum niemand (fast niemand?) auf die Idee kommt die Power Architektur im wissenschaftlichen Umfeld ein zu setzen. PowerPC wird aus gutem Grund im BlueGene verwendet.
Der Grund ist, dass IBM das nicht will bzw wollte. Das hat keine technischen Gründe, IBM könnte problemlos günstige Dual-Chip MCM und Boards anbieten.

Skysnake
2013-08-08, 23:43:23
Dann erleuchte uns.
Wenn IBM, CUDA GPUs nicht braucht, wozu wollen sie sie dann doch?

PowerPC ist eine einfache Architektur, die auf Flops/W getrimmt ist, und mit relativ regulären Programmcode gut umgehen können soll. PowerPC ist auch eine In-Order Architektur, aber eben mit 4 fach SMT, was ihn dann doch wieder verträglicher mit irregulärem Code macht.

Ansonsten taktet die PowerPC Architektur recht niedrig, deswegen kommt er auch mit relativ wenig Speicher von 1GB/Core aus. Ansonsten ist am gesamten BlueGene/Q noch das Interconnect ein sehr sehr sehr wichtiger Punkt. Hier wurde sehr viel knowhow verwendet, und eben in PowerPC integriert. Man hat zwar ein shared Memory System, aber bzgl Cohärenz hält man sich zurück, soweit ich das richtig im Kopf habe.
Ausfallsicherheit (RAS-Features) sind enthalten und wichtig, aber mehr Mittel zum Zweck, weil man einfach so abartig große Systeme hat, das eigentlich immer irgendwas hops geht.

Bei der Power Architektur gehst du komplett anders vor.
Du hast hier ein sehr sehr sehr sehr großen Fokus auf I/O und auf RAS. Das sind eigentlich die zwei fundamentalen Sachen, um die alles andere rum gebaut wird.

Power ist auf große Datensätze mit vielen verteilten Zugriffen -> große Caches und eben absolut keiner Tolleranz für Ausfälle. Zudem legt man deutlich mehr Wert auf GB-RAM/Core. Die ZSeries liegt im Bereich 30GB/Core, PowerPC nur im Bereich von GB/Core. Dazu kommt eben noch, das man bei der Power Architektur den Fokus auf MIPS und eben wie gesagt I/O-Ops. Deswegen sind die Power Architekturen auch hochtaktenden Out-of-Order Corse. Man will einfach eine gegebene Aufgabe so schnell nur irgendmöglich erledigen, wobei die Kommunikation zwischen den einzelnen Tasks sehr sehr sehr wichtig ist innerhalb der Maschine. Wenn man diese verlässt, sieht wieder komplett anders aus. Die Skalierbarkeit sieht hier ganz anders aus. Das sieht man auch an den I/O Interfaces, und daran wie man das Netzwerk aufbaut usw usw.

Es sind halt zwei fundamental unterschiedliche Einsatzbereiche, die man mit jeweils sehr spezialisierten und optimierten Architekturen angeht.

ZSeries mit ihrer Power Architektur eignet sich sehr viel besser für Datenbankanwendungen und allgemein BigData. ZSeries würde aber google nie einsetzen, da ist man mit einem Cluster einfach viel billiger und besser aufgehoben.

Wenn man aber die Power Architektur lizensieren kann, dann kann man viel von dem Krempel, der die ZSeries so teuer und aufwändig macht wegschmeisen, hat aber noch immer ein Grundgerüst, welches sehr gut mit den typischen Anforderungen von Datenbanken/BigData zurechtkommt. Besser als PowerPC auf jeden Fall.

Die GPU ist hier ein Punkt, den man sich noch anschauen muss, denn eigentlich braucht es diese nicht. Woran google aber interessiert sein könnte ist die Möglichkeit die GPU Architektur zum Sortieren großer Datenbanken zu nutzen, und dabei Energie zu sparen, oder eben für so Sachen wie real-time Video-/Sprach-/Textanalyse. Hier wäre eine GPU ziemlich interessant, weil sich solche Probleme nicht soooo gut mit Power vertragen. Man hätte also am liebsten einen ziemlich fetten SOC. Die Frage ist halt, inwieweit IBM mit ihrer Power-Architekur da nicht doch in der Lage ist zu konkurrieren, bzw was es eben kosten würde... Das ist wohl eher der Knackpunkt. IBM dürfte daran ganz gelegen sein, das man für solche Tasks eine GPU-Architektur nutzt, da man sich ansonsten zu viel Konkurrenz wieder im eigenen Haus machen würde, was ziemlich unglücklich wäre.

IBM hat mit Google jemand, der ziemlich genaue Vorstellungen hat, was ER (google) will, viel Volumen bringt, und gleichzeitig nicht das Kerngeschäft der Mainframes usw tangiert.

Wie gesagt, wie gut da ne GPU rein passt muss sich noch zeigen. Eventuell packt IBM auch wieder mal nen Hammer aus, und kloppt irgendwas großes in Hardware, was genau auf Googles Anforderungen passt. Das ist aber mehr eine Frage des Preises denn des Könnens von IBM.


- Zitat Heise.de ^^
Was darunter genau zu verstehen ist, muss sich erst noch zeigen. Ich gehe mal von einem SOC aus, weil alles andere nicht wirklich Sinn machen würde in meinen Augen, aber nVidia muss sich da auch durchaus lang machen und sich auch mal an ihre Versprechungen halten.

Also nochmals um es klar zu machen. Das da ne nVidia GPU rein kommt wird an den Wünschen googles liegen, die Eigenschaften von Power (High-IO, MIPS usw) mit einer hohen Flops/W Leistung zu bündeln. Man kombiniert halt zwei sehr sehr sehr unterschiedliche Architekturen, um für spezielle Aufgaben Synnergieeffekte zu nutzen. Und das ist eben BigData, bzw allgemeiner Datenbanken.

Im Prinzip eignet sich solch eine kombinierte Architektur halt für das Sammeln von Video/Sprach/Text Daten usw. die man on the fly analysiert, bewertet und direkt in großen Datenbanken wieder anfängt zu klassifizieren. BigData halt.

Eigentlich alles ziemlich einfach und leicht nachvollziehbar, was man hier auf dem Schirm hat, wenn man sich mit den ganzen unterschiedlichen Architekturen, ihrer Entstehung und Motivation eingehend beschäftigt hat. Das wirste im Normalfall aber nicht machen. Über den Themenkomplex habe ich sogar rein zufällig ne Vorlesung gehört, die viele der von mir genannten Aspekte bereits beleutet hat. Ohne eigenes Interesse an der ZSeries würden mir aber dennoch einige wichtige Aspekte fehlen. Da muss ich sagen haben mir einige längere Gespräche mit einigen IBM´lern, auch aus Böblingen, sehr geholfen so manches zu verstehen.

Das kannste aber nicht so einfach mal nachvollziehen, daher solltet ihr auch lieber selbst versuchen so manches zu Begründen und euch Gedanken drüber zu machen, was denn da die tiefergehenden Gründe sind. Ohne die richtigen Fragen macht das alles auf den ersten Blick keinen Unterschied und wirkt ziemlich willkürlich. Das ist es aber NICHT! Man muss nur die Puzzelteile richtig zusammensetzen, dann ergibt sich schnell ein sehr klares Bild, welche ich hier mal ganz ganz vorsichtig angekratzt habe. Das kannste nochmals viel viel viel detaillierter machen, aber dann füllen wir mal rein mit dem Thema Kommunikation zwischen den Cores locker >20 Seiten, und das kannste einfach knicken. Das sind einfach viel zu viele Sachen die da zusammenspielen.

Skysnake
2013-08-08, 23:46:17
Der Grund ist, dass IBM das nicht will bzw wollte. Das hat keine technischen Gründe, IBM könnte problemlos günstige Dual-Chip MCM und Boards anbieten.
Nein es hat auch technische Gründe...

Die Power Architektur macht einfach keinen Sinn für HPC. Das wäre einfach "Perlen für die Säue". PowerPC macht da einfach viel viel viel mehr Sinn. Es "passt" einfach viel besser auf die Art der Probleme als die Power tun würde.

Wenn man Power dahingehend anpassen würde, das es eben die Anforderungen besser treffen würde, wäre man schon wieder so nahe an der PowerPC Architektur, das es keinen Sinn mehr machen würde.

Es sind einfach zwei Unterschiedliche Architekturen für zwei unterschiedliche Einsatzbereiche.

S940
2013-08-09, 12:24:48
Es sind einfach zwei Unterschiedliche Architekturen für zwei unterschiedliche Einsatzbereiche.
Aber ob das in Zukunft so bleibt? Da gabs schon 2011 nen recht steilen Pfeil von den POWERs nach oben:

http://www.abload.de/img/ibm-roadmap0iqp3.png
http://www.alcf.anl.gov/sites/www.alcf.anl.gov/files/IBM_BGQ_Architecture_0.pdf

(Gute PDF da oben, da wird der PPC-Chip auch im Detail beschrieben).

IBM könnte da eventuell auf die APU-Schiene umschwenken, letztens kamen sie ja in der Green500 unter Druck:
http://www.heise.de/ct/meldung/Supercomputer-Rechen-Beschleuniger-effizienter-als-IBMs-BlueGene-1751146.html

Aktuell sieht noch etwas schlechter aus:
http://www.green500.org/news/green500-list-june-2013?q=lists/green201306

Da sind überall GPU-Systeme vorn. Denke wohl, dass IBM jetzt dahin will, dass die GPUs anstatt den Intel Sandys wenigstens mit POWER-CPUs kombiniert werden.

PPC scheint damit wohl gestrichen zu werden. Teilweise auch verständlich, gegen die GPUs, die Ihre Entwicklungskosten auch noch auf dem Gamingmarkt hereinspielen können, kann die PPC-Arch schlecht konkurrieren.

Skysnake
2013-08-09, 14:53:17
Ja, dein erster Link ist gut ;)

Das PDF hatte ich auch nochmal vorgekramt. ;D

Das Problem dabei ist halt, das Ding schon wieder in die Jahre gekommen ist, und man bei IBM auch nicht so ganz weiß, was bei denen abgeht. Die drehen teilweise ziemlich am Rad.... Dazu kann ich aber nicht mehr sagen.

Wenn IBM da auch von Power Architektur hin zu Exascale redet dann muss man da auch immer! aufpassen, wie man das zu verstehen hat. Da soll nicht 1:1 irgendwas übernommen werden, sondern wenn dann nur einzelne Schlüsseltechnologien. Das kann man dann aber nicht mehr wirklich am Ende einfach gleich setzen. IBM macht einfach "BigIron", in das Sie alles mögliche an Technologie rein ballern was halt geht. Das sind eigentlich immer Spezialchips. Sowas baut außer Ihnen eigentlich niemand. Deswegen kann man IBM auch nicht wirklich mit irgend jemand anderem vergleichen, das macht Sie aber auch so spannend ;)

Wie du auf der Folie siehst, hat man BlueGene zu Exascale weiter gezogen. Das macht auch Sinn, denn in BlueGene steckt VERDAMMT! viel KnowHow für den Interconnect drin. IBM hat da richtig geklotzt! Das wird man weiter nutzen. In den Top500 mit Linpack siehst du den Vorteil von dem geilen Interconnect aber nicht, oder nicht wirklich. Das ist ja einer der Gründe, warum Linpack durchaus auch stark in der Kritik steht als alleiniger Gradmesser. Jetzt soll es ja auch noch einen zweiten Benchmark geben der als Grundlage für die Top500 dient.

Linpack lässt sich halt auf viele Probleme übertragen, aber eben NICHT! auf alle. Der K-Computer z.B. ist für ein paar ganz spezielle Aufgaben designt, zieht aber null nutzen daraus für Linpack... Deswegen sind die BlueGene Systeme auch durchaus sehr gefragt bei manchen Anwendungen. Sie sind sehr sehr flexibel. Das zeigt auch die hohe Effizienz bzgl Max Flops und theoretischen Flops.

Das ist halt alles! nicht so einfach, und es wird auch IMMER! schwieriger, weil die Probleme immer spezieller werden, und da die Luft immer dünner wird, man auch immer spezialisiertere Systeme bauen muss, um die Kosten und den Stromverbrauch nicht explodieren zu lassen.

Es hat schon seine Gründe, warum heerscharen an Experten sich über Exascale den Kopf zerbrechen... An Zettascale will da noch gar niemand denken! Ich seh da auch absolut schwarz. Die Physik wird uns da wohl einfach das Genick brechen :(

mrt
2013-08-09, 17:21:19
Die Power Architektur macht einfach keinen Sinn für HPC. Das wäre einfach "Perlen für die Säue". PowerPC macht da einfach viel viel viel mehr Sinn. Es "passt" einfach viel besser auf die Art der Probleme als die Power tun würde.
Der POWER7+, so wie er ist, wär hirnrissig, das schrieb ich nicht. An den Kernen gibts nicht viel auszusetzen.
PS: PowerPC ist tot und auch nicht mehr konkurrenzfähig.
PPS: Überleg mal was für ein breiter Anwendungsbereich HPC ist, du musst mir schon mit guten Argumenten komman damit ich dich ernst nehmen kann.

Skysnake
2013-08-09, 19:29:04
PowerPC ist sicherlich nicht tot. Das hat seine Einsatzbereiche genau wie der Rest auch. Weiterentwickeln muss es sich natürlich dennoch. Gerade in die Richtung KI und Simulation von Neuronen kann ich mir die BlueGenes mit konsequent weiterentwickelten PowerPC sehr gut vorstellen.

mrt
2013-08-11, 13:10:52
Mit POWER 2.03 zumindest im traditionellen Sinne tot. Man wird früher oder später auf die selber Kernarchitektur zurückgreifen müssen, alleine schon aus wirtschaftlichen Gründen.

Skysnake
2013-08-11, 13:20:06
Man wird Sachen von Power einbinden, ist ja so auch schon meines Wissens nach teilweise geschehen in der Vergangenheit, die Chips werden sich am Ende aber schon grundlegend unterscheiden.

Wie nen x86 (EX) und nen Itanium, würde ich sagen.

mrt
2013-08-11, 13:29:01
Es gibt seit mindestens 3 Jahren nur noch eine ISA (ab POWER 2.03), es gibt nichts mehr exklusives. Wenn dann höchstens wie Sandy zu Vishera und auch das bezweifle ich mittel- bis langfristig.

Skysnake
2013-08-11, 13:43:55
Man muss aber nicht alle Sachen in vollem Umfang einbauen. S1150 IB ist auch was total anderes als S2011 IB.

Die Chips sind halt für unterschiedliche Anforderungen angepasst. So wirds da auch bleiben.

mrt
2013-08-11, 15:48:04
Das ist eigentlich genau das was ich die ganze Zeit schreibe. :confused:

S940
2013-08-12, 11:11:01
Wie nen x86 (EX) und nen Itanium, würde ich sagen.Naja, da passts mit den Befehlssätzen nicht wirklich, wieso nimmst Du nicht einfach Atom gegen Sandy-EX? Das passt doch vom Vergleich ganz gut, Atom (zumindest bisher) ist auch InOrder, hat SMT, taktet niedrig etc. pp.

Die Frage die sich in Zukunft jetzt stellt, ist die, ob man vom InO weg will, da OoO sich wg. weiterer Shrinks immer besser rechnet.

Konkret spekuliert: POWER-Kerne + PPC-IO gefabbt in 20nm FD-SOI mit 2-3 Ghz (je nachdem wieviel Kerne pro Die/Chipmodul)? IBM ist bei der FDSOI-Forschung ja auch mit dabei.

Dagegen spräche wohl der ganze Mainfraim-Balast, den POWER so mitschleppt, die Decimalunits braucht man wohl kaum im HPC-Bereich.

Stickwort KI/Neuronensim: Geht das nicht noch besser mit GPUs, wär dann also nicht ne APU 1. Wahl? Bilde mir ein da vor ~5 Jahren in den GPGPU-Anfängen mal was aufgeschnappt zu haben.

Skysnake
2013-08-12, 11:27:05
Nein, GPUs sind da total fürn Arsch. Man arbeitet da sogar an Spezialchips. Gibt dazu auch ein großes Multimillionen € Forschungsprojekt der EU, in welches die Chipentwicklung in Heidelberg auch eingebunden ist. Daher kenn ich mich da ein bischen, also ganz ganz wenig ;D, mit aus.

Für solche Sachen seh ich die "dummen" inOrder Kerne mit relativ viel Cache und hohem SMT Count als sinniger an. Da gehts halt um Durchsatz und Kommunikation.

Aber du sagst es richitg. Power7+ usw schleppt viel Ballast mit sich rum, was aus energetischer Sicht (Exascale=Powerlimit) einfach völlig inakzeptabel ist. Deswegen auch mein Vergleich EX<->Itanium. Inzwischen sehr ähnlich, was das "Featureset" anbelangt, aber doch komplett anders wie es umgesetz wird.

Für HPC, und auch das was Google damit machen will, brauchst du vieles aus Power7+ nicht, oder eben in einer extrem abgespeckten Form. Die ganzen Verschlüsselungssachen usw kannste dir z.B. sparen, und den Failover zu guten teilen.

Das mag auf den ersten Blick wenig wirken führt aber zu grundlegend unterschiedlichen Designs am Ende, und genau darum gehts mir die ganze Zeit.

S940
2013-08-12, 11:46:09
Lol ok, dann war die "Erinnerung" falsch, in dem Bereich trau ich Dir da schon, keine Angst ^^
Dann ne naive Zusatzfrage: Könnte man GPUs durch irgendwas tunen, damit sie besser für KI etc. geeignet wären? Oder ist das wirklich total die falsche Architektur?

Apropos dummer InOrder-Kerne: Mir fiel gerade wieder Larrabee und Nachfolger ein, die sind doch ziemlich PPC ähnlich: InO, viele, viele Kerne, Quad-SMT ... im Vergleich dazu dann SandyEX. Beidemale der selbe Befehlssatz, aber 2 grundverschiedene Chips.

Itanium mit der VLIW-Architektur würde ich nicht mit x86 (egal welcher Chip) in einen Topf werfen wollen.

Wenn man jetzt PPC mit Lrb gleichsetzt, dann ist der einzige Unterschied wohl nur der, dass Intel sich das Luxusprojekt leisten kann und will, da sie was gegen die GPUs setzen wollen, während IBM sich das nicht (mehr) leisten kann bzw. will.

Skysnake
2013-08-12, 12:11:36
Der Vergleich PPC/Lrb würde ich nicht zwingend bringe, da es schon was grundsätzlich anderes bzgl Cacheaufbau usw ist.

Wenn sollte man Lrb als kleinen BlueGene on Chip ansehen, wobei das auch wieder etwas an den Haaren herbeigezogen ist und hinkt, weil der BlueGene Interconnect wieder komplett ne andere Liga ist...

Aber vom Prinzip her will Lrb halt nen Cluster auf nen Chip packen, und das ist auch etwas das Konzept hinter APUs, wobei da eher nicht "cluster" gemeint ist, sondern eben CPU+Accelerator/Coprocessor.

Kurz um, man will die Integrationsdichte steigern, um die mittlere Leitungslänge zu verkürzen. Allein das hilft schon bei der Effizienz verdammt viel.

S940
2013-08-12, 14:01:59
Naja, hinken tuts im jedem Fall, für mich ist ne andere ISA in dem Beispielfall der schlimmere Pferdefuß, denn die lenkt von der grundlegenden Architekturunterschieden ab. Das 2 Architekturen mit anderen ISAs anders ausschauen ist ne ziemliche Binsenweisheit, aber bei PPC gegen POWER gehts ja um was anderes. Aber ist jetzt eigentlich egal, jetzt sollte jeder wissen, was gemeint ist ;-)

Nochmal zu den Neuronensim, wenn Du schon nah dran bist: Hättest Du dazu ein paar Papers / Links? Sollte über meine Uni auch an Kostenpflichtiges rankommen (hoff ich ^^). Antwort gerne auch per PM.

Skysnake
2013-08-16, 09:58:56
So ich hab jetzt mal doch Zeit gefunden kurz drauf zu schauen, hat doch nur paar Sekunden gedauert die Sachen zu finden, die ich im Kopf hatte ;D

Hier mal ein "paar" Links so zum einlesen :up::tongue:

Grobübersicht als Einstieg:http://www.uni-heidelberg.de/presse/ruca/ruca07-1/vorbild.html
hier in Form einer Presse blabla: https://www.wallstreet-online.de/nachricht/5055114-analoger-chip-spikey-simuliert-gehirn

Hauptseite des Forschungsprojekts: http://brainscales.kip.uni-heidelberg.de/

Diplomarbeiten usw:
http://www.kip.uni-heidelberg.de/Veroeffentlichungen/download.php/4635/ps/HD-KIP_07-08.pdf
http://www.kip.uni-heidelberg.de/Veroeffentlichungen/download.php/4375/ps/gruebl-diplom.pdf
http://www.kip.uni-heidelberg.de/Veroeffentlichungen/details.php?id=2721

Ich glaub das langst "erstmal" als Einstieg ;D Das ist schon fancy shit was die da machen :biggrin: