Archiv verlassen und diese Seite im Standarddesign anzeigen : Redundanz von Dualcore-Prozessoren
In der letzten Unterrichtseinheit von VSDB (verteilte systeme und datenbanken) kam ich mit dem lehrer ins gespräch über bereits exestierende redundanz welche schon in hardware "gegossen" ist.
Wie sieht es hierbei eigentlich mit den DC prozessoren aus?
Beim Prozessor von Intel müsste es doch dadurch dass sich bei cpus den fsb teilen doch möchglich sein nach eine neustart mit nur einem prozessor weiterzuarbeiten(theoretisch)?
Bei amds hypertransport weis ich nicht ob es gehen würde, ich hoffe hierbei wisst ihr mehr.
Wie meinst du das? Wenn einer ausfällt oder wie? :|
Sicher kann man beim DC-K8 einen Core abschalten.
Nur was soll das bringen? Redundante Schaltkreise sind in beiden Cores enthalten. Daher sollten beide Cores genug Reserven bieten ohne gleich die ganze CPU wegzuschmeissen.
Oder meinst dass DC-CPUs als SC verkauft werden wenn ein Core nicht geht? IMO wird das nicht so schnell geschehen.
btw Hypertransport hat nichts mit DC Fähigkeiten zu tun.
Oder meinst du ganz was anderes?
FeuerHoden
2005-09-13, 10:08:47
Ich denke er meint was passiert wenn einer der beiden Cores kaputt geht, warum auch immer.
Ice =A=
2005-09-13, 10:30:04
Redundanz is ja nur sinnvoll, wenn man
a) sicher das Versagen einer Komponente feststellen kann und
b) die dann auch im laufenden Betrieb austauschen kann.
Ersteres wird schon schwer, denn wenn ein Core nur z.B. Rechenfehler macht, wie willst Du das nachweisen? Da bräuchte man schon 3 CPUs für ein 2-aus-3-Verfahren. Beim Totalausfall isses natürlich einfacher.
Und wenn man das System zum Abschalten eines Kerns sowieso neu starten muss, kann man doch auch gleich eine neue CPU reinsetzen. Natürlich nur, wenn zumindest einer mit technischem Sachverstand in der Nähe is. :)
Technisch isses sicher probölemlos möglich, einen core zu deaktivieren. Aber ob das die Hardware (v.a. das Mainboard) auch unterstützt bzw. konkret anbietet, das is ne andere Frage und Du wirst da sicher keine konkrete Aussage dazu von einem der Hersteller kriegen können.
Übrigens kann man Windows per Befehl in der boot.ini dazu bringen, nur einen Core zu nutzen. Wie hardwarenah das is, kan ich allerdings nich sagen.
stav0815
2005-09-13, 13:13:48
Redundanz is ja nur sinnvoll, wenn man
a) sicher das Versagen einer Komponente feststellen kann und
b) die dann auch im laufenden Betrieb austauschen kann.
Ersteres wird schon schwer, denn wenn ein Core nur z.B. Rechenfehler macht, wie willst Du das nachweisen? Da bräuchte man schon 3 CPUs für ein 2-aus-3-Verfahren. Beim Totalausfall isses natürlich einfacher.
Und wenn man das System zum Abschalten eines Kerns sowieso neu starten muss, kann man doch auch gleich eine neue CPU reinsetzen. Natürlich nur, wenn zumindest einer mit technischem Sachverstand in der Nähe is. :)
Technisch isses sicher probölemlos möglich, einen core zu deaktivieren. Aber ob das die Hardware (v.a. das Mainboard) auch unterstützt bzw. konkret anbietet, das is ne andere Frage und Du wirst da sicher keine konkrete Aussage dazu von einem der Hersteller kriegen können.
Übrigens kann man Windows per Befehl in der boot.ini dazu bringen, nur einen Core zu nutzen. Wie hardwarenah das is, kan ich allerdings nich sagen.
dazu solltest du aber eine Passende CPU haben und die kostet extra...
alpha-centauri
2005-09-13, 15:26:14
[QUOTE=ESAD]In der letzten Unterrichtseinheit von VSDB (verteilte systeme und datenbanken) kam ich mit dem lehrer ins gespräch über bereits exestierende redundanz welche schon in hardware "gegossen" ist.
http://de.wikipedia.org/wiki/Redundanz
wenn wir davon ausgehen: festplatten mit reservesektoren.
was cpus angeht: redundante bereiche: da hab ich mal was gelesen... weiss aber nicht mehr wo genau. werden halt markiert und weg ist der defekte transistor.
wenns der cache ist, wirds halt nen duron oder celeron.
wirds bei ner GPU,d ann halt weniger pipes, usw..
Beim Prozessor von Intel müsste es doch dadurch dass sich bei cpus den fsb teilen doch möchglich sein nach eine neustart mit nur einem prozessor weiterzuarbeiten(theoretisch)?
bezweifle ich. die haben siche rauch sowas wie ne crossbar wie bei amd, zum synce der zwei cpus.
zur sinnfrage:
der sinn dahinter ist das zwar das system abstürtz danach aber automatisch neu bootet und dann mit einem prozessor zwar langsamer aber dennoch seine arbeit wieder aufnimmt
Bei hochverfügbarkeits systemen mit 99,9% verfügbarkeit und mehr würde das helfen ohen wirkliche kostenerhöhung eine größere verfügbarkeit zu garantieren
Demirug
2005-09-15, 20:06:54
Theoretisch ist das möglich. Müsste aber aktiv vom BIOS und dem Betriebssystem unterstützt werden.
bezweifle ich. die haben siche rauch sowas wie ne crossbar wie bei amd, zum synce der zwei cpus.Haben sie nicht.
BlackBirdSR
2005-09-15, 20:46:03
zur sinnfrage:
der sinn dahinter ist das zwar das system abstürtz danach aber automatisch neu bootet und dann mit einem prozessor zwar langsamer aber dennoch seine arbeit wieder aufnimmt
Bei hochverfügbarkeits systemen mit 99,9% verfügbarkeit und mehr würde das helfen ohen wirkliche kostenerhöhung eine größere verfügbarkeit zu garantieren
die Wahrscheinlichkeit, dass einer der Kerne nicht mehr funktioniert ist extrem gering - zu gering-
Sobald sie mal in Betrieb sind und den Burn-In überstanden haben, dürfte nichts mehr passieren.
Argumente wie: Doppelte Anzahl an Transistoren = höhere Wahrscheinlichkeit für Ausfall, verlieren ihre Bedeutung, wenn man sich Prescott ansieht oder gleich Montecito mit 1.7 Milliarden Transistoren.
die Wahrscheinlichkeit, dass einer der Kerne nicht mehr funktioniert ist extrem gering - zu gering-
Sobald sie mal in Betrieb sind und den Burn-In überstanden haben, dürfte nichts mehr passieren.Was ist in diesem Kontext mit "Burn-in" gemeint?
BlackBirdSR
2005-09-15, 21:47:25
Was ist in diesem Kontext mit "Burn-in" gemeint?
Nach Allem was ich weiss sieht das so aus:
Verhält sich ähnlich wie beim Belastungstest von mechanischen Teilen.
Die meisten kritischen Teile und Bereiche versagen bei normaler bzw erhöhter Belastung entweder gleich zu Beginn oder gegen Ende ihrer vorhergesagten Lebens/Bleastungsdauer. Nur ein sehr geringer Teil versagt in der Zeit dazwischen.
Überlebt ein Chip also z.B bei 10% höherer Spannung (wurde mal im Zusammenhang mit Tests bei Intel erwähnt) den Belastungstest, so kann man davon ausgehen, dass er innerhalb der Spezifikationen arbeitet, und das für die angestrebte Zeit.
Weist ein Chip Schwächen auf, so fällt er in den überwiegenden Fällen gleich hier aus und kann aussortiert werden.
GloomY
2005-09-16, 12:51:48
zur sinnfrage:
der sinn dahinter ist das zwar das system abstürtz danach aber automatisch neu bootet und dann mit einem prozessor zwar langsamer aber dennoch seine arbeit wieder aufnimmtDas ist imho keine Alternative. Man hat dann trotzdem eine Down-Zeit für die Dauer des Bootvorgangs.
Viel wichtiger ist für hochverfügbare Systeme imho, dass der Kernel einzelne CPUs abschalten kann, wenn Fehler festgestellt wurden (z.B. per Maschine Check Architecture bei x86) und diese CPUs dann im laufenden Betrieb ausgetauscht werden können.
Das ist z.B. mit NUMA-Architekturen meist nicht möglich.
Übrigens kann man Windows per Befehl in der boot.ini dazu bringen, nur einen Core zu nutzen. Wie hardwarenah das is, kan ich allerdings nich sagen.Bis zum BIOS ist immer nur eine CPU aktiv. Die anderen müssen dann jedesmal vom Betriebssystem während des Boot-Prozesses explizit aktiviert werden. Das unterlässt man in diesem Falle einfach. :)
aus der sicht der kosten nutzen rechnung ist es schon eine art alternative
bei diensten die wirklich eine hohe verfügbarkeit ereichen wollen laufen sowieso mehrer server parallel so sind es bei der a1 seite 3 frontendserver die sich die last aufteilen und bei ausfällen füreinander einspringen(und nebenbei durch große caches sogar den ausfall des grids für einge zeit verschleiern können)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.