Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum gibts keine Festplatten mit mehreren Schreib/Leseköpfen?
blackbox
2008-07-13, 20:01:28
Moin!
Gerade beim Kopieren und gleichzeitigem Öffnen eines Programms ist mir mal wieder aufgefallen, dass Festplatten immer noch das Nadelöhr sind beim PC.
Durch einen Gedankenblitz ;D kam mir folgende Idee auf: Eine Festplatte mit mindestens 2 Schreib/Leseköpfen. Warum gibts die eigentlich nicht? Statt die Festplatte mit immer höheren RPM drehen zu lassen, lässt sich doch sicher eine Festplatte mit zwei oder mehr solcher Schreib/Leseköpfen konstruieren. Damit ließen sich Daten viel schneller schreiben und lesen, weil das gleichzeitig von zwei Einheiten erledigt wird. Im Grunde genommen ist es ähnlich wie ein RAID 0, nur eben in einer Festplatte.
Was haltet ihr von der Idee?
Klar, so eine Festplatte ist teurer, aber für den Performanceuser sicher eine sinnvolle Gelegenheit.
Das müsste doch technisch machbar sein?
Moin!
Gerade beim Kopieren und gleichzeitigem Öffnen eines Programms ist mir mal wieder aufgefallen, dass Festplatten immer noch das Nadelöhr sind beim PC.
Durch einen Gedankenblitz ;D kam mir folgende Idee auf: Eine Festplatte mit mindestens 2 Schreib/Leseköpfen. Warum gibts die eigentlich nicht? Statt die Festplatte mit immer höheren RPM drehen zu lassen, lässt sich doch sicher eine Festplatte mit zwei oder mehr solcher Schreib/Leseköpfen konstruieren. Damit ließen sich Daten viel schneller schreiben und lesen, weil das gleichzeitig von zwei Einheiten erledigt wird. Im Grunde genommen ist es ähnlich wie ein RAID 0, nur eben in einer Festplatte.
Was haltet ihr von der Idee?
Klar, so eine Festplatte ist teurer, aber für den Performanceuser sicher eine sinnvolle Gelegenheit.
Das müsste doch technisch machbar sein?
AFAIR hat unser Prof erzählt das es soetwas bereits gab und welche technischen Probleme man dadurch hatte. Weiss leider nichts genaues mehr.
http://www.seagate.com/docs/pdf/de-DE/datasheet/disc/ds_barracuda_7200_11.pdf
Hmm also dort steht zB. bei der 1 TB Platte Köpfe/Scheiben 8/4
http://www.seagate.com/docs/pdf/de-DE/datasheet/disc/ds_barracuda_7200_11.pdf
Hmm also dort steht zB. bei der 1 TB Platte Köpfe/Scheiben 8/4
Die Formulierung ist wohl etwas ungeschickt. Ich denke er meint 2 unabhängige Kämme mit Schreib und Leseköpfen!
Das in aktuellen Platten je Platter eine entsprechende Anzahl an Köpfen vorhanden ist sollte klar sein.
Wie genau arbeiten Festplatten intern?
Rein theoretisch gesehen kann man doch bei zB. der 1 TB Platte von den 8 "Köpfen" gleichzeitig schreiben oder gleichzeitig lesen.
Also die Daten halt noch geschickt in der Reihe anordnen das es so funktioniert.
Würd mich aber wundern wenn noch keiner auf die Idee gekommen ist auf die Art Festplatten schneller zu machen oder ist vielleicht doch ned so einfach zu implementieren, wie es sich anhört.
Spasstiger
2008-07-13, 20:23:21
Western Digital wollte doch solche Platten als Raptor-Alternative mit 7200 U/min bis Ende des Jahres anbieten oder irre ich mich da?
Berni
2008-07-14, 01:06:04
Im Prinzip wäre das dann wie ein internes Raid. Aber offensichtlich nutzen Festplatten vorhandene Köpfe nicht gleichzeitig denn sonst wären ja Festplatten mit mehren Plattern automatisch schneller als die kleineren Modelle (nur linear, nicht die Zugriffszeit). Ein Geschwindigkeitsvorteil zwischen Platten unterschiedlicher Größe ist aber nicht festzustellen solange die Datendichte bei den einzelnen Modellen dieselbe ist. Was da genau dagegenspricht weiß ich nicht, evtl. Probleme mit der komplizierteren Elektronik. Mechanisch gäbs da wohl wenig Zusatzaufwand.
Definitiv komplizierter wäre es, mehrere Köpfe auf einem Platter anzubringen weil das mechanisch erhebliche Probleme ergibt wenn sie wirklich unabhängig bewegbar sein sollen. Auch wenn man pro Platter eine unabhängige Kopfsteuerung wollte würde das sehr viel zusätzliche Mechanik brauchen weil man bisher ja nur einen einzigen Positionierungsmechanismus für alle Platter hat. Beides könnte aber die Zugriffszeiten senken wenn ne gute Steuerelektronik dahintersteht..
Wenn sie nicht unabhängig sein sollen (also im Prinzip ein verbreiteter Kopf, würde wieder nur bei der linearen Rate helfen) könnte es zu Problemen hinsichtlich verstärkter Headcrash-Gefährdung (Parken schwieriger, mehr "Drag") führen und außerdem könnten sich die Köpfe gegenseitig zu stark beeinflussen so dass ein zuverlässiges Lesen/Schreiben nicht mehr möglich ist (müsste dann ein sehr breiter Kopf sein).
Letztlich wirds wohl so sein, dass es einfach bislang zu teuer ist und mit "normalen" RAIDs oder Erhöhung der Geschwindigkeit kostengünstiger geht. Vielleicht kommts aber noch als Mittel gegen die SSDs...
Anarchy-HWLUXX
2008-07-14, 02:05:18
Dazu bräuchte man zwei Aktuatoren - also mechanische Lesearme - was natürlich die anfälligkeit massiv erhöhen würde. Nebenbei passt sowas nicht in ein standard HDD gehäuse wenn man nicht gerade Platter einer 2.5" Disk benutzt.
dr_mordio
2008-07-14, 02:14:50
sowas in dem ansatz gab es ende der 90er auch mal als CD-Rom von Kennwod.
da gab es das true-X welches eine geschwindigkeit von 72x schaffte.
aber nicht durch hoher rotation (das hätte die CD zerfetzt) sondern der lese kopf hatte einen multibeam laser, welcher gleich 7 spuren! gleichzeitig lesen konnte.
daber wegen des hohen preises hat sich sowas nie durgesetzt.
und da plattenköpfe sich viel schneller bewegen und auch schreiben und nicht nur lesen, wird das sicher zu aufwändig das alles zu koordinieren ohne dabei zu große latenzen zu entwickeln.
eine möglichkeit es simpel zu halten wäre 2arme pro platte.
auf einem sind nur die schreibköpfe wie bisher und auf dem anderen nur leseköpfe.
da muß nicht soviel koordiniert werden und denoch ist es möglich gleichzeitig zu schreiben und zu lesen, was in extremfällen bis zu 50% performance bringen sollte, da der arm nicht mehr springen muß.
gerade beim defragmentieren müßte man einen enormen zeitgewinn spüren.
MfG
Alex
Sugger
2008-07-14, 17:09:58
True-X war richtig, richtig klasse. :))
Sehr schade das da nix weiter draus wurde.
blackbox
2008-07-14, 17:21:55
Schade, dass wir keinen Experten hier haben. Oder gibts doch einen im Forum?
Die Nachteile, die hier aufgezählt wurden, kann ich nicht nachvollziehen:
- mehrere Köpfe würden die Ausfallquote erhöhen > wie schon erwähnt gibt es bereits HDs mit mehreren Köpfen
- Größe: es gibt heute HDs in allen möglichen Größen, außerdem: Wozu gibt es 5,25' Schächte?
- der Controller, der das ganze steuert, kann doch nicht so schwer zu programmieren sein? Schließlich gibt es ja schon das RAID
- Preis: Kann doch nicht viel teurer, schließlich gibt es ja schon Platten mit mehreren Köpfen
Wo wir gerade dabei sind: Warum ist so eine RAID-Logik nicht bereits in Platten integriert, die mindesten über zwei Plattern verfügen?
mapel110
2008-07-14, 17:47:04
Prinzipiell macht man das schon. Es sind ja mehrere Platten übereinander. Der Lese/schreibkopf bewegt sich über alle gleichzeitig hinweg.
PatkIllA
2008-07-14, 17:48:28
Prinzippiell macht man das schon. Es sind ja mehrere Platten übereinander. Der Lese/schreibkopf bewegt sich über alle gleichzeitig hinweg.Aber nur einer ist aktiv.
Dass die Köpfe an einem nicht parallel areiten liegt wohl daran, dass drch Fliehkräfte und Temperaturunterschiede die Spuren auf den Scheiben leicht varieren.
Und mit einem Arm kann man halt nur jeweils einer Spur folgen.
Nasenbaer
2008-07-14, 17:48:40
Schade, dass wir keinen Experten hier haben. Oder gibts doch einen im Forum?
Die Nachteile, die hier aufgezählt wurden, kann ich nicht nachvollziehen:
- mehrere Köpfe würden die Ausfallquote erhöhen > wie schon erwähnt gibt es bereits HDs mit mehreren Köpfen
- Größe: es gibt heute HDs in allen möglichen Größen, außerdem: Wozu gibt es 5,25' Schächte?
- der Controller, der das ganze steuert, kann doch nicht so schwer zu programmieren sein? Schließlich gibt es ja schon das RAID
- Preis: Kann doch nicht viel teurer, schließlich gibt es ja schon Platten mit mehreren Köpfen
Wo wir gerade dabei sind: Warum ist so eine RAID-Logik nicht bereits in Platten integriert, die mindesten über zwei Plattern verfügen?
Weil RAID primär keine Technologie zur Erhöhung der Geschwindigkeit ist. BTW Raid heißt "redundant array of independant discs" - das dürfte schon klären warum.
Und das man pro Platter Vorder- und Rückseite je einen Schreib-/Lesekopf braucht war denke ich schon immer so. Will man aber 2 unabhängige Arme mit den Köpfen haben so braucht man doppelt soviele wie bisher.
Weiterhin weiß jeder, der bereits eine 3,5" Platte offen gesehen hat, dass da kaum Platz ist. Man müsste es also komplett neu strukturieren, nicht unmöglich aber vielleicht rechtfertigt der zu erwartende Vorteil nicht den Aufwand.
Man müsste es also komplett neu strukturieren, nicht unmöglich aber vielleicht rechtfertigt der zu erwartende Vorteil nicht den Aufwand.
So siehts aus, zumal ein bessere Technik schon sehr lange verfügbar ist: Flash. Das kommt gänzlich ohne mechanische Teile aus...
Bei Millionen/Milliarden verkaufter Festplatten machen ein paar $ mehr je Platte schon einiges am Umsatz aus. Von den zusätzlichen Problemen (Hitzeentwicklung, Headcrash, höhere ausfallwahrscheinlichkeiten) ganz zu schweigen.
Man darf auch nicht vergessen, dass sich trotzdem immer noch nur eine (oder mehrer zusammen) Scheibe dreht. Daher ist es schwierig, mit mehrern Köpfen pro Scheibe direkt die Geschwindigkeit zu erhöhen, denn wer sagt denn, dass z.B. beim Schreiben gerade bei beiden Köpfen auch freie Stellen zum Schreiben sind. Im Normalfall wird dann doch nur einer schreiben können. Allerdings könnte man natürlich die Zugriffszeit verkürzen, aber das wäre dann wahrscheinlich zu viel Aufwand für zu wenig Nutzen.
Nasenbaer
2008-07-14, 19:56:27
Man darf auch nicht vergessen, dass sich trotzdem immer noch nur eine (oder mehrer zusammen) Scheibe dreht. Daher ist es schwierig, mit mehrern Köpfen pro Scheibe direkt die Geschwindigkeit zu erhöhen, denn wer sagt denn, dass z.B. beim Schreiben gerade bei beiden Köpfen auch freie Stellen zum Schreiben sind. Im Normalfall wird dann doch nur einer schreiben können. Allerdings könnte man natürlich die Zugriffszeit verkürzen, aber das wäre dann wahrscheinlich zu viel Aufwand für zu wenig Nutzen.
Nein es war ja so angedacht, dass zwei Arme verbaut werden und somit jeder unabhängig positioniert werden kann.
das ganze bringt wohl zu wenig Nutzen bei zuviel Aufwand, das hat hier ja noch keiner gesagt.
Nein es war ja so angedacht, dass zwei Arme verbaut werden und somit jeder unabhängig positioniert werden kann.
Das hat ja nichts mit dem Problem zu tun. Wenn man Sektor X lesen möchte, dann fährt ja nicht der Kopf zu Sektor X, sondern zur Spur, auf der er liegt und muss warten, bis der Sektor vorbei kommt. Der Kopf kann sich nur auf einer Linie bewegen.
Habe mal ein Bild zur Verdeutlichung gemalt:
http://img295.imageshack.us/img295/2583/festplattesm6.png (http://imageshack.us)
Der eine Lesekopf liest gerade den roten Punkt. Auch wenn der andere Lesekopf unabhängig ist, kann er zur gleichen Zeit nicht den grünen Punkt lesen, weil er einfach nicht unter dem Lesekopf ist.
Yavion
2008-07-15, 16:40:35
Allerdings ist die Plattendrehung nicht der Geschwindigkeitsbestimmende Schritt beim Zugriff. Jeder Sektor fliegt ca jede Millisekunde am SL-Kopf vorbei.
Ich nehme an, dass es eine ganz normale Kosten-Nutzenrechnung ist: Man kann vermutlich einen ähnlichen Effekt mit einem ausreichend großen Cache-Speicher für einen Bruchteil des Preises realisieren.
PatkIllA
2008-07-15, 16:45:06
Allerdings ist die Plattendrehung nicht der Geschwindigkeitsbestimmende Schritt beim Zugriff. Jeder Sektor fliegt ca jede Millisekunde am SL-Kopf vorbei.
Bei einer 7200UPM Platte dauert eine Umdrehung 8,3 ms und das ist sehr wohl ein bestimmender Faktor.
Yavion
2008-07-15, 16:50:17
Ups. Du hast Recht. Hatte die Umrechnung von Minute in Sekunde verpeilt. ;)
blackbox
2008-07-15, 16:58:40
Ich würde mal sagen, diese Diskussion verläuft typisch deutsch?
Statt sich die Chancen anzusehen, werden erst mal die Bedenken vorgetragen.
Klar ist doch, eine solche Festplatte wäre nicht für den Massenmarkt geeignet. Und solche Festplatten gibt es zu genüge. Siehe Festplatten mit 15000RPM.
Mir schweben zwei Ideen vor:
1. Eine Festplatte mit einem Platter und 2 Köpfen, die gegenüber liegen. Klar, braucht mehr Platz, dürfte in einem Gehäuse wohl kein Problem darstellen. Optische Laufwerke sind auch verschieden lang.
2. Eine Festplatte mit zwei Plattern und je einem Kopf. Die gibt es schon. Aber hier werden die Zwei Plattern gleichzeitig genutzt, wie in einem RAID 0.
Zu 2: Warum gibt es das zurzeit nicht?
PatkIllA
2008-07-15, 17:24:07
bei 2) müsstest du die Arme getrennt steuern können und das geht so wohl nicht. Dann eher zwei komplett getrennte Einheiten wie in 1)
Sugger
2008-07-15, 22:00:16
Mir schweben zwei Ideen vor:
Man stelle sich vor:
Ein Platter (rund).
An beiden Seiten beginnend auf 9 & 3 Uhr einen "Arm" der senkrecht nach oben bis zum äußersten Rand der Scheibe läuft.
Nun eine Verbindung vom linken Arm zum rechten Arm (90°).
Diese Verbindung (Brücke) wird mit Lese.-Schreibköpfen bepflastert und wird auf den seitlichen Armen hoch & runter (in der waagerechten - vor & zurück)bewegt.
*justmy2cents*
Wolfram
2008-07-15, 22:50:28
Aber nur einer ist aktiv.
Dass die Köpfe an einem nicht parallel areiten liegt wohl daran, dass drch Fliehkräfte und Temperaturunterschiede die Spuren auf den Scheiben leicht varieren.
Und mit einem Arm kann man halt nur jeweils einer Spur folgen.
Vor allem Dingen kann doch nur geschrieben/gelesen werden, wenn der Kopf gerade an der richtigen Position ist. Da müßte schon zufällig irgendeiner der anderen Köpfe auch gerade an der richtigen Position sein. Das wird so gut wie nie passieren. Bei zwei Aktuatoren wäre die Situation im Grunde die gleiche: Um mit beiden Armen gleichzeitig zu lesen/zu schreiben, müßten beide gleichzeitig an eine zufällig gerade passende Stelle zu bewegen sein. Auch das wird so gut wie nie passieren. Plus der Koordinierungsaufwand, plus das Problem, daß man das nicht mehr in ein 3,5-Zoll-Gehäuse bekommt, plus der Kostenfaktor (vor allem in der Entwicklung) bei schon theoretisch zu vernachlässigenden Performancevorteilen- dann ist doch schon klar, warum es so etwas nicht gibt. Die Ingenieure sind doch auch nicht alle doof...
Drehrumbumm
2008-07-16, 01:32:17
Man stelle sich vor:
Ein Platter (rund).
An beiden Seiten beginnend auf 9 & 3 Uhr einen "Arm" der senkrecht nach oben bis zum äußersten Rand der Scheibe läuft.
Nun eine Verbindung vom linken Arm zum rechten Arm (90°).
Diese Verbindung (Brücke) wird mit Lese.-Schreibköpfen bepflastert und wird auf den seitlichen Armen hoch & runter (in der waagerechten - vor & zurück)bewegt.
*justmy2cents*
hä? ^^
Das wird so gut wie nie passieren.
Also bei Kopiervorgängen auf der HDD hast du definitiv Vorteile. Schon allein weil die Neupositionierung wegfällt.
Aber selbst hier sinds nur xx%. Und das im Szenario das am besten geeignet ist.
blackbox
2008-07-16, 20:15:12
Nicht nur beim Kopieren, insbesondere, wenn 2 Programme gleichzeitig auf die Platte zugreifen. (Nicht nur bezogen auf den Beitrag vom Gast.)
Wolfram
2008-07-16, 20:43:52
Ich muß gestehen, daß ich schlicht nicht weiß, wie die Firmware in solchen Fällen agiert. Aber so simpel, daß daß eine Programm den einen Aktuator und das andere den anderen benutzt, wird es nicht sein können.
Das nicht aber man kann ja die NCQ Befehlswarteschlange mit 2 Aktuatoren schneller abarbeiten, indem ein Lesekopf die inneren Positionen abfährt und der Andere die äußeren.
RavenTS
2008-07-17, 10:58:07
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=315014&highlight=Festplatte+%2AK%F6pfe
Hier wurde schonmal etwas drüber diskutiert, glaube es gab auch noch einen anderen Thread konnte das aber nimmer finden, im wesentlichen wurden dort aber die gleichen Fragen diskutiert... :)
blackbox
2008-07-17, 11:26:21
Schon interessant, dass man schon vor zwei Jahren auf die sogenannten SSDs setzte. Und heute sind die Dinger immer noch nicht angekommen. Das wird wohl noch mindestens 4 Jahre dauern, bis sie mit den Kapazitäten und Preisen mit HDDs nachgezogen haben.
Wolfram
2008-07-17, 11:47:58
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=315014&highlight=Festplatte+%2AK%F6pfe
Hier wurde schonmal etwas drüber diskutiert, glaube es gab auch noch einen anderen Thread konnte das aber nimmer finden, im wesentlichen wurden dort aber die gleichen Fragen diskutiert... :)
Danke für den Hinweis! Vielleicht sollten wir das mal zusammenziehen...
Ich habe unterdessen mal jemanden, der sich ein bißchen mit Festplatten auskennt, gefragt. Er sagt er sei noch nicht auf die Idee gekommen, ad hoc fiele ihm aber folgendes ein:
Moderne Platten haben NCQ, damit sind sie in der Lage die Zugriffsanforderungen des Chipsatzes so zu sortieren, das die Bewegungen der Köpfe möglichst minimiert werden um die mittlere Zugriffszeit zu verringern. Daher würde ein zweiter Satz Köpfe nicht genug Geschwindigkeitszuwachs (von Spezialfällen abgesehen) bieten um sich zu lohnen. Ausserdem passt so etwas, wie schon im Tread erwähnt, nicht in ein Standardgehäuse und wäre aufgrund der aufwändigeren Mechanik teuerer und anfälliger für Störungen. Desweiteren würde das zweite Kopfarray zusätzlich Energie verbrauchen, wodurch die Platte aktiv gekühlt werden oder mindestens Kühlrippen haben müsste.
Aber mal davon abgesehen, die Idee mit Zwei unabhängigen Schreib-/Lesekopfarrays würde theoretisch folgendes bringen:
1. Die angeforderten Sektoren sind zufällig auf der Platte verteilt. Die reine Seektime könnte bestenfalls halbiert werden wenn der eine Kopf jeweils zum nächsten geforderten Track bewegt wird, wenn der andere auf dem passenden Track für den aktullen Zugriff ist. Die Zeit, in der der Kopf auf dem Track auf den passenden Sektor wartet bleibt aber im Mittel gleich. Die mittlere Zugriffszeit würde maximal um zwei bis drei Millisekunden geringer werden.
2. Die angeforderten Sektoren liegen hintereinander auf einem Track. Man gewinnt keine Zeit, denn wenn ein Kopf schon in Position ist, kann er die Sektoren nacheinander lesen.
3. Die angeforderten Sektoren liegen in zwei Bereichen der Platte und dort jeweils hintereinander.
Hier würde am meisten Zeit gewonnen, denn je ein Kopfarray wäre jeweils auf dem passenden Track. Die mittlere Seektime von 4 bis 5 Millisekunden würde also entfallen. Die Wartezeit auf den passenden Sektor bliebe aber erhalten.
Unterm Strich also: Der Aufwand lohnt angesichts der Ertrages nicht.
blackbox
2008-07-17, 12:03:58
Ich würde den gleichzeitigen Zugriff auf die Festplatte durch verschiedene Programme nicht als Spezialfall ansehen. ;)
Ein Festplatte fragmentiert sich mit der Zeit, somit hängen die Daten nicht immer hintereinander.
Wer defragmentiert seine Festplatte denn regelmäßig?
Aber wie du siehst, ist das wohl die entscheidende Antwort: Er sei noch nicht auf die Idee gekommen. ;)
PatkIllA
2008-07-17, 12:06:54
Ausserdem passt so etwas, wie schon im Tread erwähnt, nicht in ein Standardgehäuse Man muss in ein 3.5" Gehäuse ja keine 3.5" Scheiben einbauen. Mit kleineren Plattern ist auch Platz für zwei Arme.
Man muss in ein 3.5" Gehäuse ja keine 3.5" Scheiben einbauen. Mit kleineren Plattern ist auch Platz für zwei Arme.
oder man führt einfach wieder 5.25" Gehäuse wieder ein.
Gabs ja schließlich auch mal für Festplatten.
Für den Massenmarkt wird es so schnell eh nicht interessant sein Festplatten mit 2 Armen zu bauen.
Wolfram
2008-07-17, 12:17:09
Man muss in ein 3.5" Gehäuse ja keine 3.5" Scheiben einbauen. Mit kleineren Plattern ist auch Platz für zwei Arme.
Ja. Aber das ändert ja alles nichts daran, daß es sich nicht rechnen wird: Zusätzliche Mechanik, die auch noch auf zusätzliche Kräfte reagieren muß (Bewegung des jeweils anderen Arms, zusätzliche Luftverwirbelungen), zusätzliche Hitze, komplette Neuentwicklung der Firmware notwendig. Und das alles für einen wahrscheinlich zu vernachlässigenden Performancevorteil, den man vermutlich viel schneller erreichen kann, indem man die geballte Ingenieurskraft auf eine Steigerung der Datendichte verwendet. Und eine Verbesserung der Zugriffsstrategien.
PatkIllA
2008-07-17, 12:21:27
Die Datendichte steigern nützt ja für die seit Jahren stagnierende Zugriffszeit nichts.
Abgesehen von Speziallfällen mit massiv vielen Zugriffen erwarte ich aber auch keine Wunder.
Wolfram
2008-07-17, 12:33:11
Die Datendichte steigern nützt ja für die seit Jahren stagnierende Zugriffszeit nichts.
Ja. Aber die Platten sind dennoch fühlbar schneller geworden. Gerade weil die Rotationsgeschwindigkeit und die Zugriffszeit gleich geblieben sind, kann das doch nur an höherer Datendichte und verbesserten Caching- und Zugriffsstrategien liegen. Oder?
RavenTS
2008-07-21, 01:11:18
...
Für den Massenmarkt wird es so schnell eh nicht interessant sein Festplatten mit 2 Armen zu bauen.
Es wird wohl auch nicht mehr interessant werden, denn langsam kommen SSDs doch nun wirklich (zumindest als "Zweitplatte" fürs OS/Programme), es wird also wohl kaum noch vier Jahre dauern bis deren Siegeszug im Massenmarkt beginnt...
Warum mit 2 "Fächer-Armen" handieren, wenn es doch noch um einiges besser geht:
Der Arm schwingt ja nur um die einzelnen Spuren zu Lesen/Schreiben. Wie wäre es aber mit einer statischen Brücke die von Innen bis Außen alle Bereiche komplett abdeckt. Sprich ich habe einen Träger der 80 Lese/Schreibköpfe montiert hat und diese sind so dicht/versetzt angebracht um alle 80 Spuren des Platter zu lesen.
Mit so einer Konsruktion wären dann hohe Drehzahlen sekundär, da nie mehr als eine Drehung der Scheibe nötig wäre (mit anderen Worten, eine einzige 360° Drehung des Platter würde die Platte im ganzen ausgelesen haben)
Die Frage ist nur, welches Interface und welche Steerlogik könnte einen solch aufwendige Lese/Schreibvorrichtung steuern?
peanball
2008-07-28, 14:07:02
Hat eine Platte etwa nur 80 Spuren?
ich denke doch dass es mehr als 80 sein werden. außerdem denke ich dass eine lesekopf mit 80 köpfen pro plattenseite wohl sehr teuer käme und die köpfe außerdem wohl zu groß sind um sie eng genug packen zu können
Wolfram
2008-07-29, 09:18:15
Warum mit 2 "Fächer-Armen" handieren, wenn es doch noch um einiges besser geht:
Der Arm schwingt ja nur um die einzelnen Spuren zu Lesen/Schreiben. Wie wäre es aber mit einer statischen Brücke die von Innen bis Außen alle Bereiche komplett abdeckt. Sprich ich habe einen Träger der 80 Lese/Schreibköpfe montiert hat und diese sind so dicht/versetzt angebracht um alle 80 Spuren des Platter zu lesen.
Mit so einer Konsruktion wären dann hohe Drehzahlen sekundär, da nie mehr als eine Drehung der Scheibe nötig wäre (mit anderen Worten, eine einzige 360° Drehung des Platter würde die Platte im ganzen ausgelesen haben)
Die Frage ist nur, welches Interface und welche Steerlogik könnte einen solch aufwendige Lese/Schreibvorrichtung steuern?
Wie viele Spuren eine heutige Festplatte hat, ist eine interessante Frage. Es werden aber eher zehn- bis hunderttausende sein. Eine statische Kopfmontage kommt schon deswegen nicht in Betracht, außerdem wird die Spurlage andauernd nachjustiert.
Low Rider
2008-07-29, 16:20:32
Könnte es sein, dass sich mehrere Schreib-/Leseköpfe einfach zu sehr gegenseitig magnetisch beeinflussen?
RavenTS
2008-07-29, 17:41:40
Könnte es sein, dass sich mehrere Schreib-/Leseköpfe einfach zu sehr gegenseitig magnetisch beeinflussen?
Das sollte ja eher nicht sein, sonst würde der Kopf ja auch auf der Platte die Spur nicht sauber bearbeiten können bzw. benachbarte Spuren beeinträchtigen...
Ok, ich habe noch mal gegoogelt:
Bei der Hitachi Deskstar 7K500 beträgt die Anzahl der Spuren pro Zoll (tpi) z. B. 135.000, während die Bitdichte in der Spur (bpi) 872.000 beträgt.
Quelle: Wiki
Somit ist die Idee mit jede Spur einen eigenen Kopf wohl so schnell nicht durchführbar. Außerdem habe ich nebenbei gelesen, dass es mit den Arm noch einen anderen Grund hat. Man nutzt den Bodeneffekt, durch die schnelle Drehung des Platter schwebt der Kopf ca. 20nm über diesen.
80 Tracks sind bei 3,5 " Disks standard
Wolfram
2008-07-31, 14:52:19
Ok, ich habe noch mal gegoogelt:
Bei der Hitachi Deskstar 7K500 beträgt die Anzahl der Spuren pro Zoll (tpi) z. B. 135.000, während die Bitdichte in der Spur (bpi) 872.000 beträgt.
Quelle: Wiki
Danke. Hier ist noch der Link: http://de.wikipedia.org/wiki/Festplatte
Hab nochmal gesucht... die Daten zu Hitachi-Festplatten findet man unter http://www.hitachigst.com/tech/techlib.nsf/pages/main. Dort ein Modell auswählen, aus der auftauchenden Dokumentenliste "Specification" auswählen (gibt es offenbar nicht für alle Modelle, aber zB 7500 und 7K1000) und dort unter 4.2 nachschauen.
moloch
2008-08-02, 17:39:16
Ich würde den gleichzeitigen Zugriff auf die Festplatte durch verschiedene Programme nicht als Spezialfall ansehen. ;)
Ein Festplatte fragmentiert sich mit der Zeit, somit hängen die Daten nicht immer hintereinander.
Wer defragmentiert seine Festplatte denn regelmäßig?
Aber wie du siehst, ist das wohl die entscheidende Antwort: Er sei noch nicht auf die Idee gekommen. ;)
Sorry aber die Wahrscheinlichkeit, dass Du der Erste bist der, in der >50 jährigen Geschichte der HD, auf die Idee kommt mehrere Arme einzusetzen, ist ziemlich klein.
seeigel
2008-10-07, 22:47:26
und wird auch nicht mehr auftauchen den wie bereits erwähnt gibt es andere Speichermedien die schneller als eine normale Platte sind
alpha-centauri
2008-10-08, 12:21:22
Das hatte hier im Forum mal jemand schön erklärt. Hauptsächlich geht die Synchronisierugn der Köpfe nicht so einfach.
Ich denk, wo ein Wille ist ,ist ein Weg. Aber mit SSD und Co ist das Thema doch eh egal geworden.
Hallo,
möchte mal was aufklären zur Nutzung heutiger Lese/Schreibköpfe.
Alle Platten nutzen alle Köpfe gleichzeitig. Egal wieviel Scheiben (Platter genannt) verbaut sind. Es wird also nicht eine Scheibe von außen nach innen gelesen oder geschrieben und dann mit der nächsten wieder von außen nach innen fortgesetzt. Nein. Sondern komplett von außen nach innen über alle Scheiben. Das ist auch nicht so schwer nachvollziehbar, wenn man sich einmal das Treppenprofil eines Lese- bzw- Schreibbenchmarks anschaut.
Das Treppenprofil geht immer bei allen Platten konstant bergab.
Wenn alle Platterseiten einzeln gelesen/beschrieben würden, dann würde es immer je Seite flankenartig wieder ansteigen um dann wieder zu fallen usw.
Die Idee mit mehreren "Kämmen" ist nicht neu. Aber im Aufwand viel zu hoch. Außerdem steigt die Gefahr eines Headchrashs immens an. Das möchte niemand.
RavenTS
2008-10-09, 10:55:38
Hallo,
möchte mal was aufklären zur Nutzung heutiger Lese/Schreibköpfe.
Alle Platten nutzen alle Köpfe gleichzeitig. Egal wieviel Scheiben (Platter genannt) verbaut sind. Es wird also nicht eine Scheibe von außen nach innen gelesen oder geschrieben und dann mit der nächsten wieder von außen nach innen fortgesetzt. Nein. Sondern komplett von außen nach innen über alle Scheiben. Das ist auch nicht so schwer nachvollziehbar, wenn man sich einmal das Treppenprofil eines Lese- bzw- Schreibbenchmarks anschaut.
Das Treppenprofil geht immer bei allen Platten konstant bergab.
Wenn alle Platterseiten einzeln gelesen/beschrieben würden, dann würde es immer je Seite flankenartig wieder ansteigen um dann wieder zu fallen usw.
Die Idee mit mehreren "Kämmen" ist nicht neu. Aber im Aufwand viel zu hoch. Außerdem steigt die Gefahr eines Headchrashs immens an. Das möchte niemand.
...daher oder deswegen ja auch die Aufteilung in Zylinder oder.?!
Das ergibt aber keinen Sinn, weil dann die Transferrate abhängig von der Platteranzahl wäre was sie ja nicht ist, oder?
BlueI
2008-10-09, 12:09:54
Das Thema hatten wir schonmal. Ergebnis war, dass es zwar prinzipiell so ist wie der Gast geschrieben hat, aber der Lesearm immer nur auf einer einzelnen Platte die Spur halten kann. Gleichzeitiges Lesen/Schreiben von mehreren Platten ist nicht drin.
€dit: Gut, hat zwar auch keine Quelle dazu, klingt aber logisch. Klick (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4680760&postcount=25)
thacrazze
2008-10-09, 15:01:49
Ich denke mal die SSD würd die Lösung aller Probleme sein. Was meint ihr?
Hallo,
das mit der Aufteilung in Zylinder usw. hat was mit der internen Verwaltung zu tun. Damit kenne ich mich nicht aus.
Okay, hatte mich vielleicht falsch bzw. dümmlich ausgedrückt. Es wird zuerst zum Bsp. die äußere Spur der einen Scheibe gelesen, dann die äußere Spur der nächsten Scheibe usw. bis dann die Köpfe immer weiter nach innen "wandern". Daraus ergibt sich die typische Treppenkurve die unabhängig von der Anzahl der verbauten Platter sind.
sloth9
2008-12-30, 19:11:40
Das ergibt aber keinen Sinn, weil dann die Transferrate abhängig von der Platteranzahl wäre was sie ja nicht ist, oder?
Ist ja auch so. Eine HDD mit 1 Platter (320 GB) liefert 320 GB Daten langsamer aus als eine mit 3 Plattern (1 TB), weil erstere bereits den langsameren Innenbereich erreicht, während letztere sich noch im 1/3 der Platter arbeitet.
Ist ja auch so. Eine HDD mit 1 Platter (320 GB) liefert 320 GB Daten langsamer aus als eine mit 3 Plattern (1 TB), weil erstere bereits den langsameren Innenbereich erreicht, während letztere sich noch im 1/3 der Platter arbeitet.
Das ist aber nicht wesentlich in diesem Zusammenhang. Die Transferrate steigt jedenfalls nicht linear mit der Anzahl der Platter.
=Floi=
2008-12-30, 19:23:32
interessannte denkweise. bei seagate war aber auch die 250gb platte bei der 7000.10 serie so schnell wie die großen. Bei der .09 war wohl die firmware der 750gb platte besser
Tesseract
2008-12-30, 19:36:12
Das müsste doch technisch machbar sein?
das problem ist wohl weniger die technische machbarkeit sondern ob es sich rechnet.
wenn du sowas entwickelst, baust und verkaufst muss ein markt dafür da sein.
die frage ist jetzt: wer soll das kaufen?
im massenmarkt zählt platz/preis. und da sind einzelarmplatten überlegen.
im servermarkt zählt zugriffszeit und ausfallsicherheit. die zugriffszeit von mehr-arm-platten könnte die von 15k-rpm-platten wohl erreichen. bei der ausfallsicherheit bezweifle ich das aber sehr stark. da ist eine mehrarmplatte absolutes schlusslicht weil viel mehr mechanische teile rumwerken.
bleiben die enthusiasten, die sich wohl darauf stürzen würden. nur sind das zu wenige um den aufwand zu rechtfertigen. für die gibt es die raptor auch nur deswegen, weil WD da im prinzip für den servermarkt gleich mitentwickelt.
Wolfram
2008-12-30, 20:44:11
Ist ja auch so. Eine HDD mit 1 Platter (320 GB) liefert 320 GB Daten langsamer aus als eine mit 3 Plattern (1 TB), weil erstere bereits den langsameren Innenbereich erreicht, während letztere sich noch im 1/3 der Platter arbeitet.
Das kann man aber nicht vergleichen. Wenn die Platten aus Deinem Beispiel zum gleichen Prozentsatz gefüllt sind, sind sie auch gleich schnell.
Das ist aber nicht wesentlich in diesem Zusammenhang. Die Transferrate steigt jedenfalls nicht linear mit der Anzahl der Platter.
Genau. Die Transferrate ist vielmehr praktisch identisch.
Die Transferrate einer Festplatte steigt mit der Speicherdichte pro Platter, der Umdrehungsgeschwindigkeit und hin und wieder auch mal mit dem Interface wenn neue Betriebsmodi wie DMA, UDMA, NCQ usw. hinzukommen. Eine deutliche Erhöhung der Speicherdichte in Verbindung mit einer erhöhten Trasferrate hat Perpendicular Recording gebracht, das war sogar so ein Erfolg dass von der Entwicklung der Technologie, bis zu Markteinführung und letztendlich zum Nobelpreis für den Erfinder nicht mehr als 2 Jahre vergingen was schon einen Rekord darstellt. Der rasante Anstieg an Speicherplatz von den 500 GiB Platten bis hin zu den 1,5 Tib und darüber hinaus ist maßgeblich auf die Entwicklung von Perpendicular Recording zurückzuführen.
Dafür gab's keinen Nobelpreis, der war für den GMR-Effekt:
http://www.heise.de/newsticker/CPP-GMR-Koepfe-sollen-Festplatten-mit-4-TByte-ermoeglichen--/meldung/97370
Da gab's schon 1998 Festplatten die das verwendet haben ;)
Etwas was hier ebenfalls noch nicht berücksichtigt wurde in der Diskussion.
Die Datendichte der einzelnen Spuren ist ja bekanntlich unterschiedlich.
Somit würde ein immenser Aufwand zu betreiben sein um die asynchronität der Lesegeschwindigkeiten zu erreichen.
Aus der "Normalen" NCQ-steuerung holt man sich ja auch nicht einen großen Datenburst sondern das Jeweilige kompletierte Datenpaket.
Somit würde der Zugewinn max 10-20% in der Latenzzeit sein da beinahe immer ein Lesekopf auf den anderen Warten muß bei unverhältnissmässig großen Auwand.
Noch dazukommt das sich das nur dann realisieren lässt würde jeder Kopf immer nur einen Datensatz lesen/schreiben um nicht gigantische Cacheroutinen mit Latenzüberbrückungen zu realisieren.
Womit sich das ganze auch wieder nur bei Linearen Daten gut verwirklichen läst die Idealerweise dicht beieinander liegen würde.
Vom Aufwand hierzu den Zugriffsmomentausgleich noch irgendwie hinzubekommen mal gar nicht zu sprechen.
Festplattendaten sind mittlerweile dermassen dicht gepackt das selbst die Erdrotation bereits Auswirkungen auf die Kopfbewegung hat und ausgeglichen werden müssen.
Alleine die Schreib/Lese Positionsinfos und Verwaltung würden eine Wissenschaft für sich sein.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.