PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : IBM - z6 - Mainframe-CPU mit 991M Transitoren


AnarchX
2007-10-17, 21:50:10
http://img144.imageshack.us/img144/5228/pages2bfrom2bibmz6mainfjl0.jpg (http://img144.imageshack.us/img144/408/pages2bfrom2bibmz6mainfkw1.jpg)
(für Vollansicht auf Bild klicken)

Gast
2007-10-17, 22:06:25
http://img144.imageshack.us/img144/5228/pages2bfrom2bibmz6mainfjl0.jpg (http://img144.imageshack.us/img144/408/pages2bfrom2bibmz6mainfkw1.jpg)
(für Vollansicht auf Bild klicken)
Die Auflösung ist auch dann immer noch viel zu klein! Ich konnte nicht mal annähernd 991000000 Transistoren zählen. :mad:

=Floi=
2007-10-17, 22:30:18
für welches gebiet ist der prozessor bestimmt?
warum nicht mal ein prozessor mit wenig cache und dafür mit mehr kernen?! in welcher strukturgröße wird der chip denn gefertigt?

Spasstiger
2007-10-17, 22:51:26
für welches gebiet ist der prozessor bestimmt?
Mainframe, z-Servers von IBM. Das sind Systeme für den Businessbereich, die z.B. in sicherheitskritischen Anwendungen laufen und höchste Ausfallsicherheit gewährleisten.

davidzo
2007-10-25, 15:19:12
naja, ich denke nicht dass die ausfallsicherheit hier das wichtigste war.

Mir fällt auf, dass die Speicherbandbreite am knappsten ist, während die SMP und IO-Bandbreite das bei weitem übersteigt.
Das ist genau umgekehrt wie in heutigen Desktop CPUs. Wie ich IBM kenne sind außerdem die Latenzen vom SMPhub und Memoryhub verdammt gering.

Sinn dieser MonsterCPU ist es nicht enrome Rohpower an den Tag zu legen, die Cores sind vermutlich einfache inOrder Power6 CPU mit eher beschränkter IPC.
Nein IBM hat diese CPU für enrome Clustergrößen ausgelegt.
Schon bei Opterons - und das sind die lowlatency CPUs der Wahl zu diesen Tagen - hört die Skalierung mit den Cores irgendwann auf, weil es ab einem bestimmten Punkt aufwändiger ist den Thread über ein Cluster von X Cores zu schieben als ihn auf einer zig Knoten näher liegenden Core zu berechnen. Die praktische Leistung nimmt also ab einer bestimmten CoreAnzahl ab, besonders bei kurzen einfachen Threads und das obwohl die theoretische Leistung mit der Anzahl der Cores steigt.
Daher ist die Verbindung der Cores von enormer Wichtigkeit. Das Cluster innerhalb des Dies ist perfekt, die Latenzen bleiben enrom niedrig. Hypertransport ist auch eine Supersache, da es besonders hoch taktet. Für richtige mainframes benötigt AMD allerdings eigentlich mindestens HT3.0 und ein paar mehr HTlinks die als shortroutes zwischen weit entwfernten Knoten benutzt werden können.

IBM reicht die vergleichsweise niedrige bandbreite von 13 GB/s pro Core locker aus, viel wichtiger ist, dass die CPU als Knotenpunkt schnell ist und schnell daten zum nächsten CPUknoten scheffeln kann. Offensichtlich scheint der I/O Bereich auch enorm wichtig zu sein. Wir können also entweder mit exorbitanten Mengen an Magnetspeicher pro Chip rechnen, die alle schnell genug angebunden werden wollen oder IBM hält sich hier eine kleine Reserve für GPGPU oder ähnliche spezialisierte Coprozessoren die über die I/O ports angebunden werden.

Von der puren rechenleistung bezweifle ich dass sie iun unseren Anwendungen schneller ist als eine 100e conroe CPU. Eher denke ich dass sie in speziellen Fällen 10x oder 100x kürzere Latenzen hat, was bei massive SMP enorme Vorteile bringen wird.

Zool
2007-10-26, 08:52:29
991Mill. Transistoren, sind doch eigentlich noch nichts gegenüber den Dualcore -Itanium2 Monstern mit 24MB Cache, die es auf 1.7Mrd schaffen.

gross2
2007-10-26, 20:05:35
Sinn dieser MonsterCPU ist es nicht enrome Rohpower an den Tag zu legen, die Cores sind vermutlich einfache inOrder Power6 CPU mit eher beschränkter IPC.

Stimme groesstenteils zu.
Der Hauptzweck der Mainframes ist wirklich schon lange nicht mehr ueberragende Rechenleistung zu liefern.
Die heutige Daseinsberechtigung liegt eigentlich im Namen selber. Syztem z, wobei das z bekanntlich fuer Zero Downtime steht...

Wiedersprechen muss ich allerdings bei der zitierten Vermutung. Der z6 basiert bestimmt nicht auf Power6 Cores. Beide basieren natuerlich auf den gleichen Designkonzepten wodurch Funktionseinheiten, Register, SRAMs... sich bestimmt in etlichen Punkten zum verwechseln aehnlich sind. Welch Wunder wenn etliche der Designer an beiden CPUs beteiligt waren. ;-)

Aber unterm Strich handelt es sich um 2 foellig unterschiedliche Architekturen. Power6 die RISC CPU und z6 eben CISC, wie beim Mainframe nunmal ueblich. So aehnlich sich die Cores also an manchen stellen auch sehen moegen, es handelt sich doch um komplett unterschiedliche ISAs!

Gast
2007-10-26, 20:20:29
Grüß Gott zusammen,

Hauptargument bei der Wahl einer z-Series Maschine ist die Ausfallsicherheit. Die ist im Wettbewerb unerreicht. Klar hat die z auch andere charmante Eigenschaften, aber niemand kauft eine z nur wegen der Power, denn die gibt es auch woanders. Wie gesagt: Der vergleichsweise hohe Preis wird durch Verfügbarkeit gerechtfertigt.

Wer mir das nicht abnimmt: Der Name sagt schon alles. Das "z" steht für "zero downtime"...

Mstrmnd
2007-10-27, 01:18:54
Was macht IBM denn mit dem z anders als andere Hersteller, dass so eine super tolle Verfügbarkeit erreicht wird?

Gast
2007-10-27, 02:05:46
Was überlegt ihr so wahnsinnig stark hier? Es sind zero downtime SERVER. Seit wann müßen sich Server mit Numbercrunchern messen? Die Kunden interesiseren MIPS nicht die Bohne. LAMP und Transaktionen sind wichtig. Und die Verfügbarkeit.

Hier das komplette Dokument http://www2.hursley.ibm.com/decimal/IBM-z6-mainframe-microprocessor-Webb.pdf

Danke an Ajax für den Link :uclap:

Bokill
2007-10-27, 22:13:15
... Aber unterm Strich handelt es sich um 2 voellig unterschiedliche Architekturen. Power6 die RISC CPU und z6 eben CISC, wie beim Mainframe nunmal ueblich. So aehnlich sich die Cores also an manchen stellen auch sehen moegen, es handelt sich doch um komplett unterschiedliche ISAs! ISA bedeutet einen anderen Instruktionssatz.

Ein Instruktionssatz bedingt heutzutage aber nicht mehr automatisch die Unterscheidung in CISC- und RISC-CPU-Architektur.

Die Kenndaten sind konzeptionell vom Power6, wenngleich die Menge der Instruktionen von knapp 900 (http://blogs.cnet.com/8300-13512_1-23-0.html?keyword=Victoria+Falls&tag=keyword) ziemlich viel erscheint.

MFG Bobo(2007)

sun-man
2007-10-28, 00:10:33
Ach komm, mit unseren SF12/15/20/25Ks können wir auch 99,9x% leisten, garkein größeres Problem. Ich bin geradezu erschlagen von den Ausführungen seitens davidzo - solch massives Wissen kann ich bei unseren UltraSparcs nicht vorweisen, brauch es aber auch nicht ;).

Die Downtimes sind und waren nie ein wirklich starkes Problem. Der schönste Prozessor nützt nix wenn die Hardware drumherum schlapp macht. Dann ist es nur wichtig das das OS und die software mit DR umgehen können - wenn da 20Gig Speicher auf dem Bord mit dem auszutauschenden Speicher liegen muß das irgendwo übernommen werden. Hier scheitert viele Software die das simpel und einfach nicht kann. Kritische schwachhstellen und Security Warnungen können auch nicht zu 100% im laufenden System eingebunden werden, zumindest nicht in solaris ;).

MFG

Spasstiger
2007-10-28, 03:06:25
Was macht IBM denn mit dem z anders als andere Hersteller, dass so eine super tolle Verfügbarkeit erreicht wird?
Sowohl hardwareseitig als auch softwareseitig ist alles auf zero downtime ausgelegt.
Die CPUs werden z.B. erstmal bei 140°C ordentlich gegrillt, bevor sie auf einen z-Series-Rechner losgelassen werden. Damit macht man sich das Prinzip der Badewannekurve zunutze, nachdem die Ausfallrate technischer Geräte zu Beginn besonders hoch ist, mit zunehmender Lebensdauer sinkt und erst zu Ende der Lebensdauer wieder stark ansteigt.
Die CPUs werden im Betrieb auch ständig überwacht (dazu verfügen diese über spezielle Schaltungen) und bei Anomalien wird der Fehler an einen IBM-Techniker übermittelt, welcher die betroffene CPU gegebenenfalls austauscht. Durch die große Redundanz der Hardware stört die Fehlfunktion einer einzelnen CPU aber auch gar nicht.
Der überwachende Rechner ist ebenfalls redundant ausgelegt, sollte dieser ausfallen, steht noch ein zweiter Rechner zur Überwachung zur Verfügung.
Mit z/VM steht ein Betriebssystem zur Verfügung, das Programmabläufe ausschließlich in virtualisierten Umgebungen erlaubt.
Es gibt sicherlich noch viel mehr Aspekte, die einem z-Series zu der besonderen Ausfallsicherheit verhelfen, einiges davon wird sicherlich auch Firmengeheimnis sein.

Gast
2007-10-28, 04:27:21
Hallo
schon mal gesehen wie oft bankrechner oder andere server eine downtime haben, damit sie upgegradet oder gewartet werden können?
Ich sehe das ganze dadurch auch ein bischen relativer, denn nur in den wenigsten fällen wird zero downtime benötigt!

Spasstiger
2007-10-28, 04:31:18
Hallo
schon mal gesehen wie oft bankrechner oder andere server eine downtime haben, damit sie upgegradet oder gewartet werden können?
Ich sehe das ganze dadurch auch ein bischen relativer, denn nur in den wenigsten fällen wird zero downtime benötigt!
Was hat denn das eine mit dem anderen zu tun? Der Großrechner soll nie unplanmäßig ausfallen, das heißt zero downtime. Egal ob Softwareupdates eingespielt werden, Hardwarekomponenten ausgetauscht werden oder die Kiste unter maximaler Auslastung steht.

sun-man
2007-10-28, 10:10:20
Was er sollte und was er tut sind trotzdem zwei völlig verschiedenen Sachen.
99,999% Uptime kann auch so ausgelegt werden weil geplante Patchaktionen eben keine Downtime sind - nicht offiziell. Den Rechner auf die reine CPU zu beschränken ist ja auch schonmal ein Fehler, auch wenn es sicherlich nicht so gemeint war.
Ein Beispiel: Es fällt andauernd ein einziger Lüfter aus. Der Lüfter ist jedoch in Ordnung, defekt ist die Backplane des Lüfters (einzeln überwacht). An diese Backplane kommst Du ohne Downtime nicht ran da die Kabel zusätzlich auf die Backplane der CPU Bords gehen.....diese Backplane ist nie dafür vorgesehen das sie kaputt geht und auch die verbauten Chips sind robust und sollten halten - tun sie aber nicht und es muß getauscht werden. Die komplette Maschie ist redundant? Glaub ich nicht. Wenn das Backplane/Fireplane einen defekt aufweist ist es aus mit der Uptime.
Ich hab 13 von solchen Main/HighEndservern rumstehen und denke beurteilen zu können was Theorie und was Praxis ist. Fehler passieren eben. Nichtsdestotrotz ist so eine Hochverfügbarkeitsgarantie relativ problemlos zu erreichen - nur evtl nicht so wie man sich das vielleicht vorstellt (mal ja und mal nein)

Wenn der angeschlossenen Storage ausfällt oder SAN Pfade/Platten (was auch immer) erneuert werden um Bottlenecks auszugleichen dann ist manchmal auch ne Downtime erfodlerlich - für die kann aber die Maschine nichts und schon bleibt die Hochverfügbarkeit.

Update: Wenn ich mir wiki durchlesen KÖNNTE IBM genau das zusichern was ich geschrieben habe....man acte auf den letzten Satz:
Im Parallel Sysplex Verbund, einem nahe gekoppeltem Cluster aus IBM-Großrechnern, übertrifft z/OS noch die für die Vorgänger-Generation OS/390 angegebene Verfügbarkeitsrate von 99,999 % (sog. five-nines, was einer Downtime von fünf Minuten pro Jahr entspricht): Das z im Namen steht für zero downtime. Nach Definition der IBM ist eine Downtime immer eine geplante Downtime.

"Geplante Downtime" wird nicht von der Hochverfügbarkeit abgezogen.....

MFG

Spasstiger
2007-10-28, 11:20:02
Zumindest auf finanzieller Seite ist man bei IBM abgesicherten, wenn unplanmäßige Downzeiten den zugestandenen Rahmen überschreiten (zero downtime heißt auch nur 99,999% Verfügbarkeit oder so ähnlich).

Köppchen
2007-10-28, 14:47:42
Das sehe ich aber anders. In einer geplanten Downtime ist das System nicht verfügbar.
Während das eine System Down ist (z.B. Systemwartung) muss halt ein weiteres übernehmen. Gerade so etwas macht das ganze natürlich sauteuer.
Wen so etwas interessiert, der kann z.B. mal etwas über Datasharing bei DB2 lesen. Ist schon spannend über 2 Systeme auf ein und dieselben Datenbankinhalte zuzugreifen.

Gruß Markus

sun-man
2007-10-28, 18:32:23
Nunja, wie sag ich es am besten.....so wie Du das siehst ist es eine Definition deinerseits. Wenn IBM Dir einen solchen Vertrag anbietet ist es OK. Ich glaubs aber nicht da man auch dort nur mit Wasser kocht.

Ich kenne die IBM Unterlagen nicht und auch nicht die Vertragsinhalte. Was ist wenn Du auf der Kiste ein Linux laufen hast - heute kommt ein irre wichtiger Kernelpatch raus der verhindert das ein Ping die Kiste panicen läßt und ssh ohne Password funzt (was bisher keiner wusste). IMHO muß man für den Kernelpatch rebooten...die Kiste selber hat weiterhin 99,99% Verfügbarkeit denn die Hardware ist ja in Ordnung. Verträge lesen und dergleichen ist da Pflicht und wenn Du das anders siehst als IBM gibt es keinen 2 Mio Vertrag - glaubst Du IBM stört das?

Generell sollte man bei Hochverfügbarkeit zwei Maschinen da stehen haben - also auch zwei SF15Ks oder eben 25Ks oder was auch immer. Ausfallen kann immer irgendetwas an das man nicht glaubt.

MFG

Bokill
2007-10-28, 19:25:15
Nach diesem kleinen Disput hier sollte klar sein, dass selbst solche Kisten auch eine gewisse "Downtime" haben.

Was derartige Enterprise-Server auszeichnet, dass ist die hohe Redundanz. Die Z-Server haben in der Regel da MCM-Sockel, die mehrere Prozessorsockel sehr schnell untereinander verbinden.

Die Z-Serie hat dazu noch dezidierte dediziert Ausfall- und Ersatzprozessoren neben vielfach abgesicherten Datenverkehr mit ECC-L2/L3-Cache.

MFG Bobo(2007)

Gast
2007-10-28, 19:59:01
Wozu sollen entschiedene, energische Redundanzeinheiten gut sein? Bist du sicher, dass du nicht dediziert meinst?

Gast
2007-10-28, 21:48:41
Nunja, wie sag ich es am besten.....so wie Du das siehst ist es eine Definition deinerseits. Wenn IBM Dir einen solchen Vertrag anbietet ist es OK. Ich glaubs aber nicht da man auch dort nur mit Wasser kocht.

Ich kenne die IBM Unterlagen nicht und auch nicht die Vertragsinhalte. Was ist wenn Du auf der Kiste ein Linux laufen hast - heute kommt ein irre wichtiger Kernelpatch raus der verhindert das ein Ping die Kiste panicen läßt und ssh ohne Password funzt (was bisher keiner wusste). IMHO muß man für den Kernelpatch rebooten...die Kiste selber hat weiterhin 99,99% Verfügbarkeit denn die Hardware ist ja in Ordnung. Verträge lesen und dergleichen ist da Pflicht und wenn Du das anders siehst als IBM gibt es keinen 2 Mio Vertrag - glaubst Du IBM stört das?

Generell sollte man bei Hochverfügbarkeit zwei Maschinen da stehen haben - also auch zwei SF15Ks oder eben 25Ks oder was auch immer. Ausfallen kann immer irgendetwas an das man nicht glaubt.ich denke nicht dass du n mainframe mitm ping oder ssh ansprichst :P

aus erfahrung kann ich sagen das weder ein hardwaredefekt noch tausch/patch oder was auch immer zu ner downtime führt (ob geplant oder ungeplant) und da sind ibm`s mainframes anderen plattfomen schlicht überlegen

sun-man
2007-10-28, 22:17:15
Ja? echt?
Eine suche bei Google......

http://www-1.ibm.com/support/docview.wss?rs=463&context=SSKTMJ&dc=DB520&dc=DB560&uid=swg21240478&loc=en_US&cs=UTF-8&lang=en&rss=ct463lotus

Cause
The server crashes due to an error in the code where low memory availability causes a handle to be zero.

The server crashes......muß ich mehr sagen? sieht für mich nach ner klassichen Panic aus...nicht mehr und nicht weniger.

führt auch zu folgenden Task
The console log for a Lotus Domino server for Linux on zSeries displays multiple out of memory errors, and the server panics in HTTP - Null handle with the following output in the diagnostic file (NSD):

Schlicht überlegen also? Hmmm, OK. Warum auch nicht. Ich seh nur Wasser, stinknormales einfaches Wasser.....

MFG

gross2
2007-10-29, 07:31:10
ISA bedeutet einen anderen Instruktionssatz.

Ein Instruktionssatz bedingt heutzutage aber nicht mehr automatisch die Unterscheidung in CISC- und RISC-CPU-Architektur.

Die Kenndaten sind konzeptionell vom Power6, wenngleich die Menge der Instruktionen von knapp 900 (http://blogs.cnet.com/8300-13512_1-23-0.html?keyword=Victoria+Falls&tag=keyword) ziemlich viel erscheint.

MFG Bobo(2007)

Ja genau das bedeutet es. Und damit auch das der z6 nicht die Bohne mit dem Instructionset der Power(PC) CPUs anfangen kann.

Sagen wirs andersrum und wir sind uns einig. Power6 und z6 basieren auf dem gleichen Konzept. Angepasst auf die Power(PC) ISA ist der POWER6 draus geworden und fuer die Mainframe ISA eben ein z6.
Oder haettest du umgekeht beim POWER6 argumentiert das dort z6-Cores verwendet werden, wenn IBM z6 vor POWER6 released haette?

Im Prinzip sind wir uns doch einig. Gleiches Konzept, nur eben angepasst fuer 2 verschiedene Instruction Sets. ;-)

Zu Unterschieden und Gemeinsamkeiten ist in der, inzwischen ja auch verlinkten, Originalpraesentation auch ein Slide, das sollte eigentlich alles klaeren...

Bokill
2007-10-29, 10:25:02
... Sagen wirs andersrum und wir sind uns einig. Power6 und z6 basieren auf dem gleichen Konzept. Angepasst auf die Power(PC) ISA ist der POWER6 draus geworden und fuer die Mainframe ISA eben ein z6.
...
Im Prinzip sind wir uns doch einig. Gleiches Konzept, nur eben angepasst fuer 2 verschiedene Instruction Sets. ;-)
=)

Ich hab bei Orthy eine alte Meldung nachgearbeitet, so dass am Ende ein Report: "IBMs z6 Mainframe-Prozessor (http://www.orthy.de/index.php?option=com_content&task=view&id=5079&Itemid=85)" herauskam. Ich denke mein Tenor lautet da ebenso. Konzeptionell dem Power6 ähnlich, aber mit einer deutlich anderen ISA (z/OS) und mit vielen weiteren kleineren Eigenheiten.

Unser Partner Operating-System.org kann in Sachen Betriebssysteme firmenneutral kompakt darüber berichten z/OS (http://www.operating-system.org/betriebssystem/_german/bs-mvs.htm). Schon erstaunlich, dass derartige Fossilien immer noch leben und anscheinend ihren Markt haben, ja sogar immer wieder im Instruktions-Set ergänzt werden.

MFG Bobo(2007)

gross2
2007-10-29, 20:03:55
Ja? echt?
Eine suche bei Google......

http://www-1.ibm.com/support/docview.wss?rs=463&context=SSKTMJ&dc=DB520&dc=DB560&uid=swg21240478&loc=en_US&cs=UTF-8&lang=en&rss=ct463lotus



The server crashes......muß ich mehr sagen? sieht für mich nach ner klassichen Panic aus...nicht mehr und nicht weniger.

führt auch zu folgenden Task


Schlicht überlegen also? Hmmm, OK. Warum auch nicht. Ich seh nur Wasser, stinknormales einfaches Wasser.....

MFG

Bravo, schoenes Beispiel gefunden!

Und woran liegts? Ist Linux ein Mainframe Os? Nein, nur eine Portierung auf System z, fuer diejenigen die auch unbedingt aufm Mainframe damit spielen wollen...

Unterm Strich ist hier der gesamte Mainframe Gedanke voellig verwaessert.
Wenn das Error-Handling bei einem OS im Minicomputer-Bereich (also eben auch Linux) wie folgt aussieht:
Problem -> Panic

Wen wunderts da das SW-Bugs eine derartige Auswirkung haben?

Ein richtiges Mainframe-OS, z/OS z.B. und hierfuer entwickelte Software wird auf eine Fehlerbedingung mit Recovery Routinen reagieren!
Das macht den Mainframe ja so besonders, wenn ein Fehler auftritt wird nicht sicherheitshalber mit einer Panic und einem Dump reagiert um ja nicht mit verfaelschten Daten weiterzuarbeiten...

Beim Mainframe wird Hardware und Software derart entwickelt und mit allen denkbaren Routinen vollgestopft (auch und gerade eben auf Kosten der Performance) das es moeglich wird moeglichst alle Fehler die irgendwie auftreten koennen, sei es HW- oder SW-seitig, zu korrigieren!

Und dein Cluster-Ansatz ist ja lobenswert. Ist ja fuer die Minicomputer auch notwendig um die Hardwarezuverlaessigkeit zu gewaehrleisten. Aber bei einem Softwarfehler wird der 2. (3. und nte) Clusternode mit genau der gleichen Panic und nem Dump reagieren, wo der Mainframe diesen (hoffentlich) abfangen wird. ;-)

sun-man
2007-10-29, 20:34:49
Entschuldige, da sind mir zuviele "könnte" "wäre" "sollte" und dergleichen eingebaut. Ich möchte weder IBM schlechtreden oder was weiß ich wen niedermachen.

Ein richtiges Mainframe-OS, z/OS z.B. und hierfuer entwickelte Software
Tja, wenn ich mir die Cases seitens IBM mit Panic in den Z-Geraffel anschaue bleibt das wohl Wunschdenken. Letztendlich will ich nichts anderes sagen das 99,XXX% Uptime immer eine Frage der Definition UND des Geldes bleiben. Ich kenne werde Preise noch Definitionen von IBM und werde auch einen Teufel tun und mich da nicht lesen.

Die Frage die ich mir als Kunde stellen müsste ist:
Was ist mir lieber. 99,999% Uptime in einer fest definierten Umgebung bei der ich schon bei kleinen Abweichungen meinen Support verliere oder reele Zahlen zu Uptimes und trotzdem 99,0% Uptime mit meinen Vorstellungen einer Uptime.

Schlußenendlich bleibt wohl zu sagen das es in den wenigsten Fällen an der Hardware hängt....ein Backplane/Centerplane/Fireplane tauscht auch bei Firma XY keiner aus wenn die Kiste weiterläuft...Redundanz hin oder her.

Unterm Strich ist hier der gesamte Mainframe Gedanke voellig verwaessert.
Nur durch wenn? Durch die überflüssigen Kunden die doch tatsächlich mal was anderes ausprobieren wollen? Oder durch hüftsteife Hersteller?
Ein Freund hat einen Linuxcluster für ein wirklich großes Unternehmen aufgebaut und ist als Admin da tätig (vermutllich kommen die meisten mind. einmal die woche damit in Berührung). Der ist nur am fluchen. Linux (namen sag ich nicht, kein solaris) und professionelle Hardware a'la HDS, Storagetek und Co beissen sich laufend selber. Das funzt nur sehr sehr schwer und umständlich. Hier haben andere Hersteller, sei es IBM oder SUN/HP/wawweißich enorme Vorteile. Anschließen, einschalten, installieren - geht, ist performant und gut dokumentiert. Meistens zumindest ;).


MFG

Don Vito
2007-10-29, 23:35:41
Was kosten eigentlich solche Systeme?
CPU Motherbaord usw...?
wäre mal interessant zu wissen;D

gross2
2007-10-30, 06:15:26
Entschuldige, da sind mir zuviele "könnte" "wäre" "sollte" und dergleichen eingebaut...

Wuerde jede Marketingabteilund sicher anders sehen/formulieren, aber ich werde den Teufel tun und von fehlerfreier Software oder Hardware sprechen. Sowas existiert schlichtweg nicht! Egal wie viel Aufwand reingesteckt wird...

Tja, wenn ich mir die Cases seitens IBM mit Panic in den Z-Geraffel anschaue bleibt das wohl Wunschdenken...

Hier sind wir wieder beim "verwaesserten" Mainframe Gedanken!
Ja sowas passiert mit Linux auf der z. Linux ist eben KEIN Mainframe-OS!
Es ist nur eine portierung auf die Hardwarebasis, funktioniert aber weiterhin nach den gleichen Prinzipien wie auf jeder anderen Plattform.
Fehler -> Panic! ;-)

Ein echtes Mainframe-OS würde hier wie gesagt mit recovery Routinen auftrumpfen...

Die Frage die ich mir als Kunde stellen müsste ist:
Was ist mir lieber. 99,999% Uptime in einer fest definierten Umgebung bei der ich schon bei kleinen Abweichungen meinen Support verliere oder reele Zahlen zu Uptimes und trotzdem 99,0% Uptime mit meinen Vorstellungen einer Uptime.

Die eigentliche Frage stellt sich, wie fest ich die Umgebung defieniert haben will. Ich gestehe die SUN nicht zu kennen, kann mir aber nicht vorstellen das es wesentlich anders aussieht. Wenn man den Support nicht verlieren will ist man doch sicher auch auf zertifizierte HW- und SW- festgelegt?
Und um Schuld-PingPong im Fehlerfall zu minimieren darf man sich doch sowieso wieder nur für Systeme entscheiden die der ISV der Wahl auch explizit freigegeben hat. ;-)

Unterm Strich bleibt, je genauer ich bereit bin meine Umgebung zu definieren um so mehr 9en kann ich in der Uptime zugesichert bekommen.
Es wird sich halt niemals ein IHV finder der dir sagt "Mach was du willst ich garantiere dir dafür einfach mal pauschal eine Uptime von 100%" ;-)

Das funzt nur sehr sehr schwer und umständlich. Hier haben andere Hersteller, sei es IBM oder SUN/HP/wawweißich enorme Vorteile. Anschließen, einschalten, installieren - geht, ist performant und gut dokumentiert. Meistens zumindest ;).

Wo wir das Hauptproblem von Linux hätten. Die Community ist nicht "greifbar".
IHVs arbeiten zusammen, es gibt ein gemeinsames Interesse die Interoperabilität zu gewährleisten und vor ollem definierte Ansprechpartner beim Gegenüber. Was bleibt bei Linux? Die grossen Distributionen. Das Ergebnis ist, es wird mit RedHat und Novel (Suse) zusammengearbeitet und hierfür freigegeben. Die beiden müssen dann über deren eigene Entwickler und den Einfluss auf die Comunity die Linuxentwicklung entsprechend steuern, oder es zumindest versuchen... ;-)

gross2
2007-10-30, 06:32:57
Was kosten eigentlich solche Systeme?
CPU Motherbaord usw...?
wäre mal interessant zu wissen;D

Hier mal Listpreise (wer die zahlt ist eh selber schuld...) zu einem absoluten einstiegs z9:

2096-R07 IBM System z9 Business Class 1 N/C
0089 SE-Ethernet Switch 1 720,72
0114 Cargo Cage Airflow Cd 30 2.702,70
0155 Orbit CEC 1 N/C
0160 Fan-out Card 2 3.602,00
0161 MBA Fan-out Airflow 6 N/C
0323 STI-A8 Card Mother 1 2.702,00
0325 STI-MP Card Daughter 2 7.206,00
1115 Model R07 1 N/C
1502 2 GB Memory Card 4 N/C
2699 Memory Airflow 4 54,04
2901 8GB LICCC Enabled Memory 1 72.072,00
3067 Support Element w/ Dual E 2 10.450,00
3323 FICON Express4 2C 4 KM LX 1 11.711,00
4901 1-Way Processor A01 1 31.104,00
5801 A01 Capacity Marker 1 N/C
7840 CP-A 1 N/C
8988 14 ft Hi/Lo V 3 Ph (WT) 1 N/C
9967 Site Tool Kit 1 N/C

Total 142.324,46 EUR

Viel Spass damit. ;-)

Spasstiger
2007-10-30, 06:38:55
Hier mal Listpreise (wer die zahlt ist eh selber schuld...) zu einem absoluten einstiegs z9:

2096-R07 IBM System z9 Business Class 1 N/C
0089 SE-Ethernet Switch 1 720,72
0114 Cargo Cage Airflow Cd 30 2.702,70
0155 Orbit CEC 1 N/C
0160 Fan-out Card 2 3.602,00
0161 MBA Fan-out Airflow 6 N/C
0323 STI-A8 Card Mother 1 2.702,00
0325 STI-MP Card Daughter 2 7.206,00
1115 Model R07 1 N/C
1502 2 GB Memory Card 4 N/C
2699 Memory Airflow 4 54,04
2901 8GB LICCC Enabled Memory 1 72.072,00
3067 Support Element w/ Dual E 2 10.450,00
3323 FICON Express4 2C 4 KM LX 1 11.711,00
4901 1-Way Processor A01 1 31.104,00
5801 A01 Capacity Marker 1 N/C
7840 CP-A 1 N/C
8988 14 ft Hi/Lo V 3 Ph (WT) 1 N/C
9967 Site Tool Kit 1 N/C

Total 142.324,46 EUR

Viel Spass damit. ;-)
Man kann afaik auch nur Rechenzeit auf den Teilen mieten, wenn man die Anschaffungskosten scheut.

sun-man
2007-10-30, 07:47:54
ie eigentliche Frage stellt sich, wie fest ich die Umgebung defieniert haben will. Ich gestehe die SUN nicht zu kennen, kann mir aber nicht vorstellen das es wesentlich anders aussieht. Wenn man den Support nicht verlieren will ist man doch sicher auch auf zertifizierte HW- und SW- festgelegt?
Naja, Du bekommst komplett alles aus einer Hand, sicherllich nicht zum Discounterpreis aber man bekommt es. Mir ist beispielweise nicht eine einzige Sparc-Maschine bekannt auf der Linux oder gar Windows läuft, ich hab jetzt schon tausende verwaltet/gewartet und dergleichen. Dafür läuft Solaris einfach viel zu gut und funktioniert in den meisten Fällen auch sofort und rechht problemlos. 4GB HBAs ? Einbauen und läuft, 4x1GB Netzwerk? Karte einbauen...läuft.
Da ich nichts verkaufe muß ich nicht.....unwahr sprechen. wenn ich sage das ich nicht dafür garantieren kann das der Wechsel gut geht (Hardware) dann ist das so - beschwert hat sich deswegen bei mir noch niemand, auch nicht mit garantierter Uptime. Dann arbeite ich eben samstag Nacht um 3 um einen HBA zu tauschen, wenn genau dann keine Last auf der Kiste ist dann ist das so. Hauptsache der Kunde ich zufrieden.

Für ne 25k ist man schnell mal >1Mio los. 72 Prozessoren, hunderte GB Ram, 12 Netzteile, die externen Bootplatten in Jbods und natürlich alle Steckkarten die man sich selber wählen kann (z.B. 19x4GB PCIx HBA, 19xQuad Gigabit Ethernetkarten, 19 Gigaswiftkarten für das Bootstorage).

MFG

Spasstiger
2007-10-30, 08:06:17
Wenns nur um Rechenpower zu einem möglichst günstigen Preis geht:
http://www.deltacomputer.de/produkte/cluster/angebot_xeon.shtml

Z.B. 2304 Core-2-Kerne @ 2 GHz, 2304 GiB RAM, 72 TB Festplatte und alle Knoten verbunden per 2*20-GBit/s-Infiband für 880.000€ ohne MwSt.

sun-man
2007-10-30, 08:10:08
Geil :D :D :D

100kw sind ja auch mal ne Meßlatte, bei den ganzen Cores aber nicht wirklich verwunderlich.
Heieieiei....einmal RICHTIG Geld haben und auf so ner Büchse 3 wochen lang stumpf Simap oder dergleichen crunshen lassen *schwelgt in träumen*

gross2
2007-10-30, 11:49:37
Naja, Du bekommst komplett alles aus einer Hand, sicherllich nicht zum Discounterpreis aber man bekommt es. Mir ist beispielweise nicht eine einzige Sparc-Maschine bekannt auf der Linux oder gar Windows läuft, ich hab jetzt schon tausende verwaltet/gewartet und dergleichen. Dafür läuft Solaris einfach viel zu gut und funktioniert in den meisten Fällen auch sofort und rechht problemlos. 4GB HBAs ? Einbauen und läuft, 4x1GB Netzwerk? Karte einbauen...läuft.
Da ich nichts verkaufe muß ich nicht.....unwahr sprechen. wenn ich sage das ich nicht dafür garantieren kann das der Wechsel gut geht (Hardware) dann ist das so - beschwert hat sich deswegen bei mir noch niemand, auch nicht mit garantierter Uptime. Dann arbeite ich eben samstag Nacht um 3 um einen HBA zu tauschen, wenn genau dann keine Last auf der Kiste ist dann ist das so. Hauptsache der Kunde ich zufrieden.

Für ne 25k ist man schnell mal >1Mio los. 72 Prozessoren, hunderte GB Ram, 12 Netzteile, die externen Bootplatten in Jbods und natürlich alle Steckkarten die man sich selber wählen kann (z.B. 19x4GB PCIx HBA, 19xQuad Gigabit Ethernetkarten, 19 Gigaswiftkarten für das Bootstorage).

MFG

Also auch nicht anders als bei der IBM, man bekommt alles wichtige aus einer Hand.
Wobei gegen Sparc/Solaris eben das eigene gezücht POWER/AIX steht und nicht der Mainframe.

Die Frage hatte aber in eine Andere Richtung geziehlt, als HBAs. Nehmen wir z.B. Storage. Mit den grössen im Markt EMC, IBM, HDS, usw. gibts sicher keine Probleme. Ist alles zertifiziert und wird supportet. Aber wie siehts mit Infortrend, Promise oder weiss Gott was aus?
Könnte wetten die sind bei SUN genauso wenig freigegeben wie z.B. bei der IBM.

sun-man
2007-10-30, 12:01:00
Warum sollte die irgendjemand einbauen wollen? Wenn ich Profihardware habe baue ich keinen LowCoast NoName sonstwas ein - ist und wäre bei uns natürlich auch nicht supported. Hab ich allerdings auch noch nie gesehen.