|
|
Festplatte
Eine Festplatte (engl. hard disk drive= HDD) ist ein ferro-magnetisches
Speichermedium der Computertechnik welches die Daten binär, mittels
magnetischer Umpolung, auf einer remanenten, rotiernden Scheibe durch
Ummagnetisieren schreibt. Die hoch suszeptible Magnetschicht ist auf
starren, rotierenden Scheiben aufgebracht, im Gegensatz zur Diskette,
deren Scheibe aus einem flexiblen, suszebtiblen Material besteht. Die
Bezeichnung für diese Speichermedien ist direct access storage device/DASD),
da die Daten nicht, wie bei einem Magnetband oder Lochstreifen linear
gelesen werden müssen, sondern direkten Zugriff haben.
Auf einer Festplatte können beliebige Dateien, z. B. die, des
Betriebssystems, der Anwendungsprogramme oder persönlicher Daten
(Dokumente, Videos, Musik, Bilder) dauerhaft, mittels der binären NORD-
SÜD-Ummagnetisierung (binär = 0 / 1) gespeichert werden.
Die erste kommerziell erhältliche Festplatte, die IBM 350, wurde von IBM
1956 als Teil des IBM 350 RAMAC-Rechners („Random Access Method of
Accounting and Control“) angekündigt. 1973 startete ebenfalls IBM das „Winchester“-Projekt,
welches das erste Laufwerk mit einer versiegelten Einheit aus Platten,
Zugriffsmechanik und Schreib-/Leseköpfen (IBM 3340) hervorbrachte. Diese
Technologie setzte sich in den folgenden Jahren durch und bis in die
1990er Jahre war deshalb für Festplatten die Bezeichnung
Winchester-Laufwerk gebräuchlich.
|
|
|
Allgemeine
technische Daten
Speicherkapazität
Das Fassungsvermögen einer Festplatte wird heute üblicherweise in
Gigabyte (GB) angegeben.
Vor allem Festplattenhersteller definieren bei der Angabe der Kapazität
ein Gigabyte als 10003 Byte = 109 Byte = 1.000.000.000 Byte, während
Computerprogramme ein Gigabyte meist als 10243 Byte = 230 Byte =
1.073.741.824 Byte behandeln. Mit den Binärpräfixen (Mebibyte, Gibibyte)
versucht man, diese Doppeldeutigkeit zu vermeiden.
Im April 2006 kündigte Seagate die neue Modellreihe Seagate Barracuda
7200.10 an. Deren größtes Modell besitzt eine Kapazität von 750 GB
(698,6 GiB) und stellt damit die größte momentan erhältliche Festplatte
dar (Stand Mai 2006). |
|
|
Baugrößen
Die physikalische Größe von Festplatten wird traditionell in Zoll
angegeben und ist keine exakte Größenangabe, sondern ein Formfaktor. So
sind beispielsweise 3,5″-Festplatten exakt 100 mm breit, was knapp 4
Zoll entspricht. Die Größe der Scheiben in diesem 100 mm breiten Gehäuse
liegt aber um die 3,5 Zoll, wobei Serverplatten häufig etwas kleiner
sind.
Die zur Zeit verwendeten Formfaktoren reichen von 5,25″ bis 0,85″, wobei
der Trend zu kleineren Festplatten geht. Der 3,5″-Formfaktor ist im
Desktop-Bereich der am weitesten verbreitete, in Laptops findet man
meist 2,5″-Festplatten, in noch kleineren portablen Geräten (z. B.
MP3-Player) häufig 1,8″-Festplatten.
Die ersten Festplatten hatten Baugrößen von 24″ (IBM 350, 1956). Im
Laufe der Zeit verringerten sich diese Größen.
5,25″-Baugrößen sind die 1980 von Seagate eingeführten Baugrößen der
PC-Festplatten, jedoch ist diese Gattung aber seit 1996/97 ausgestorben.
Einige SCSI-Server-Platten, sowie die LowCost-IDE-Platte BigFoot von
Quantum waren die letzten Vertreter dieser Spezies. Man unterscheidet
Geräte mit voller Bauhöhe (3,5″ bzw. ca. 88 mm), die zwei Steckplätze
belegen und halber Bauhöhe (1,75″ bzw. ca. 44 mm). Die Breite beträgt
146 mm, die Tiefe ist variabel und sollte nicht wesentlich oberhalb von
200 mm liegen.
3,5″-Baugrößen wurden um ca. 1990 eingeführt und werden derzeitig in
Desktop-Computern und Servern verwendet, die meisten Platten haben halbe
Bauhöhe (1″ bzw. ca. 25 mm). Im Serverbereich gibt es auch Platten bis
1,8″ Höhe (1,8″ bzw. ca. 44 mm). Die Breite beträgt 100 mm, die Tiefe
ist variabel und sollte nicht wesentlich oberhalb von 150 mm liegen.
2,5″-Baugrößen finden Verwendung in Notebooks oder Spezialrechnern. Die
traditionelle Bauhöhe war 0,5″ (12,7 mm), mittlerweile gibt es mit
0,375″ (9,5 mm) und 0,25″ (6,35 mm) flachere Festplatten und auch
Notebooks, die diese flachen Varianten benötigen. Die Breite beträgt 68
mm, die Tiefe beträgt 100 mm. Der Anschluss ist gegenüber den größeren
Bauformen modifiziert, bei IDE wird z.B. ein 44-poliger Anschluss
verwendet, der gleichzeitig die Betriebsspannung von +5 Volt zuführt
(Pin 1 ist meist auf der Seite der Jumper). Im Gegensatz zu den größeren
Platten kommen diese Platten auch mit nur einer Betriebsspannung aus.
1,8″-Baugrößen werden seit 2003 bei Sub-Notebooks sowie diversen
Industrieanwendungen verwendet
1″-Baugrößen sind seit 2002 unter dem Name MicroDrives im Einsatz. Die
meisten MicroDrives wurden bis Mitte 2004 als „verkleidete“
CompactFlash-Typ-II-Speichereinheiten für digitale Kameras eingesetzt.
Hauptnachteil ist die mechanische Empfindlichkeit außerhalb von Geräten
und der hohe Stromverbrauch.
0,85″-Baugrößen sind derzeit (Januar 2005) nur in begrenzten Mengen über
die Firma Toshiba verfügbar, welche diese Baugröße im März 2004 mit
einer Kapazität von 4 GigaByte (3,73 GiB) zum ersten Mal vorgestellt
hat. Ob diese kleinen Bauformen jemals Bestand haben werden, ist
fraglich. Flash-Speicher ist in diesem Bereich schon verfügbar und auf
Wachstumskurs. Derzeitig ist Flash-Speicher noch teurer, aber wesentlich
robuster und sparsamer im Energieverbrauch.
|
|
|
Überblick über die Speicherkapazitäten
der verschiedenen Baugrößen
Jahr |
5,25″ |
3,5″ |
2,5″ |
1,8″ |
1,0″ |
0,85″ |
typ. Modell(e) mit
hoher Kapazität |
Quelle |
1983 |
20 MByte |
- |
- |
- |
- |
- |
20 MB Festplatte im IBM PC XT |
|
1989 |
80 MByte |
40 MB |
- |
- |
- |
- |
Seagate ST4096,
NEC
D3142 |
|
1995 |
4096 MByte |
850 MByte |
- |
- |
- |
- |
Western Digital mit 850 MB |
|
1997 |
12 GByte |
9 GByte |
2 GByte |
- |
- |
- |
Quantum Bigfoot (12 GB,
5,25″), Nov. 1997 |
[1] |
2000 |
# |
>75 GByte ? |
? GByte |
- |
- |
- |
? |
|
2005 |
# |
500 GByte |
120 GByte |
60 GByte |
8 GByte |
6 GByte |
Hitachi Deskstar 7K500 (500
GB, 3,5″), Juli 2005 |
[2] |
2006 |
# |
750 GByte * |
200 GByte * |
60 GByte |
8 GByte |
6 GByte |
Western Digital WD5000KS,
Seagate Barracuda 7200.10 750GB, u.a. |
[3] |
Anmerkungen:
- Angaben beziehen sich immer auf
die zum jeweiligen Jahr größte käuflich erhältliche
Festplatte, unabhängig von ihrer Drehzahl oder Schnittstelle.
- Kapazitäten sind
Herstellerangaben, d. h. ein Gigabyte ist definiert als
10003Byte = 109Byte
= 1.000.000.000Byte, ein Megabyte als
10002Byte = 106Byte
- Mit Fragezeichen markierte
Einträge bitte verifizieren/ergänzen
- - noch nicht verfügbar
- * unter Verwendung von senkrechter
Aufzeichnung
- # Baugröße veraltet; nicht mehr in
Gebrauch
|
|
|
Physikalischer Aufbau
Eine Festplatte besteht aus folgenden Bauelementen:
* einer oder mehreren drehbar gelagerten Scheiben (auch Platter genannt
(eng.: Platters))
* einem Elektromotor als Antrieb für die Scheibe(n)
* bewegliche Schreib-/Leseköpfe (Heads)
* jeweils ein Lager (i.d.R. Flüssigkeitslager) für Platter sowie für die
Schreib-/Leseköpfe
* einem Antrieb für die Schreib-/Leseköpfe
* der Steuerelektronik für Motor- und Kopfsteuerung
* Hochleistungs-DSP für die Schreib/Leseköpfe.
* der Schnittstelle zur Verbindung mit dem Festplattenkontroler (auf der
Hauptplatine)
* einem Festplattencache von 2 bis 16MB Größe
Festplatten, welche in Arbeitsplatzrechnern oder in PCs für den privaten
Gebrauch verwendet werden – momentan zum größten Teil Platten mit ATA-
oder SATA-Schnittstelle – rotieren mit Geschwindigkeiten von 5.400 bis
10.000 Umdrehungen pro Minute. Vor der Zeit der ATA-Festplatten und im
Bereich der Hochleistungsrechner und Server wurden bzw. werden meistens
Festplatten mit der technisch überlegenen SCSI-Schnittstelle verwendet,
die inzwischen in der Regel 10.000 oder 15.000 Umdrehungen pro Minute
erreichen. Bei den 2,5-Zoll-Festplatten, die hauptsächlich in Notebooks
zum Einsatz kommen, liegen die Geschwindigkeiten im Bereich von 4.200
bis 7.200 Umdrehungen pro Minute.
In dem Festplattengehäuse befinden sich ein oder mehrere übereinander
liegende rotierende Scheiben. Verbaut worden sind bisher 1 bis 12
Scheiben, üblich sind 1 bis 4. Allerdings geht eine höhere
Scheibenanzahl in der Regel mit einem höheren Energieverbrauch und einer
größeren Geräuschentwicklung einher. Manchmal werden aus Platzgründen
nicht alle Scheibenoberflächen genutzt, sodass Festplatten mit ungerader
Schreib-/Lesekopfanzahl entstehen. Um die Nachfrage nach
Festplattenmodellen mit kleinerer Kapazität zu befriedigen, können die
Hersteller ebenfalls auf diese Weise die Kapazität künstlich
beschränken.
Die Achsen der Scheiben früherer Festplatten (bis 2000) waren
kugelgelagert; heute (2006) werden überwiegend Flüssigkeitslager (engl.
„fluid dynamic bearing“ – FDB) verwendet. Diese zeichnen sich durch eine
höhere Lebensdauer und geringere Geräuschentwicklung aus.
Die Scheiben bestehen meistens aus oberflächenbehandelten
Aluminium-Legierungen, vereinzelt auch aus Glas. Sie müssen formstabil
sein und eine geringe elektrische Leitfähigkeit aufweisen um die Größe
der Wirbelströme gering zu halten.
In älteren Desktopfestplatten von IBM (Deskstar 75GXP/40GV DTLA-30xxxx,
Deskstar 60GXP/120GXP IC35Lxxxx) aus den Jahren 2000 bis 2002 kam Glas
zum Einsatz. Neuere Modelle der Festplattensparte von IBM (2003
übernommen durch Hitachi) verwenden jedoch wieder Aluminium, mit
Ausnahme der Festplatten für den Serverbereich.
Da diese Materialien selbst jedoch keine magnetischen Eigenschaften
besitzen, wird eine Eisenoxid- oder Kobaltschicht von ungefähr einem
Mikrometer Stärke aufgetragen. Diese wird zusätzlich von einer
Schutzhülle aus Graphit ummantelt, um mechanische Beschädigungen zu
vermeiden.
Die Schreib-/Leseköpfe schweben durch ein durch die Rotation der Platten
erzeugtes Luftpolster über der Plattenoberfläche. Die Flughöhe liegt
jedoch heutzutage (2006) nur im Bereich von etwa 20 Nanometern, sodass
die Luft innerhalb des Festplattengehäuses keinerlei Verunreinigungen
beinhalten darf. Die Herstellung von Festplatten erfolgt deshalb wie die
von Halbleitern in Reinräumen. Wird eine Festplatte in normaler,
verunreinigter Luft geöffnet, so sorgen bereits kleinste
Staub-/Rauchpartikel, Fingerabdrücke, etc für wahrscheinlich irreparable
Beschädigungen der Plattenoberfläche und der Schreib-/Leseköpfe. Zum
Vergleich: Ein Haar ist 0,05 mm = 50 Mikrometer = 50 000 nm dick!
Zum Schutz der für Daten benutzten Oberflächen vor dem Aufsetzen der
Schreib-/Leseköpfe fahren diese, noch bevor sich beim Ausschalten der
Festplatten die Umdrehungsgeschwindigkeit merklich verringert hat, in
die sogenannte „Landezone“ („landing zone“), in der sie fixiert werden.
Diese Parkposition kann sich außerhalb der Scheiben befinden oder im
Innenbereich der Platten. Die Fixierung geschieht z.B. über einen
kleinen Magneten, der den Lesekopf festhält. Bei älteren Festplatten
mussten die Köpfe explizit vor dem Ausschalten per Befehl vom
Betriebssystem geparkt werden.
Das Parken erhöht auch die Stoßfestigkeit der Festplatten für einen
Transport oder Umbau. Bei modernen Laptops sorgt ein
Beschleunigungssensor für das Parken der Festplatte noch während eines
eventuellen freien Falls, um so den Schaden beim Sturz eines Rechners zu
begrenzen.
Das Gehäuse der Festplatte ist staubdicht, aber nicht luftdicht
abgeschlossen: Durch eine kleine Öffnung mit einem Filter kann bei
Temperaturänderungen die Luft eindringen oder austreten. Diese Öffnung
darf in der Regel nicht verschlossen werden. Da der Luftdruck im Gehäuse
mit zunehmender Höhe über dem Meeresspiegel abnimmt, zum Betrieb aber
ein Mindestdruck erforderlich ist, dürfen Festplatten nur bis zu einer
bestimmten, maximalen Höhe betrieben werden. Diese ist in der Regel im
zugehörigen Datenblatt vermerkt. |
|
|
Speichern und Lesen von Daten
Das Speichern der Daten auf einer Festplatte erfolgt durch die gezielte
Magnetisierung kleinster - vom Schreibfinger angesteuerter - Flächen der
permeablen Schicht ferromagnetischen Materials, die entsprechend ihrer
Polarität (NORD / SÜD) den binär interpretierten Wert 0 oder 1 annehmen.
Durch Lesen der jeweiligen Sequenzen von 0 und 1 Werten, werden die
Informationen an das System übergeben und vom Prozessor ausgewertet und
weiterverarbeitet. Entsprechend geht das Schreiben der Daten vonstatten.
Der Schreib-/Lesekopf (Magnetkopf) des Schreibfingers, im Prinzip ein
winziger Elektromagnet, polarisiert die einzelnen Sektoren
unterschiedlich und speichert so die Daten permanent.
Vor dem Schreiben der Daten werden diese in speziellen Verfahren wie den
früher üblichen Verfahren GCR, MFM, RLL und heute üblicherweise mit PRML
oder EPRML kodiert. Ein logisches Bit steht daher nicht mehr
physikalisch als magnetisierte oder nicht magnetisierte Einheit auf der
Plattenoberfläche. Durch die Schreibverfahren wird auch eine Kompression
erreicht, so dass die Datendichte steigt.
Sowohl beim Schreiben als auch beim Lesen muss vor dem Zugriff auf einen
bestimmten Block der Schreib/Lesekopf der Platte bewegt und anschließend
abgewartet werden, bis durch die Rotation der Platte der Block unter dem
Kopf vorbeigeführt wird. Diese mechanisch bedingten Verzögerungen liegen
heutzutage bei ca. 5–10 ms, was nach Maßstäben anderer Computerhardware
eine kleine Ewigkeit ist. Daraus ergibt sich die extrem hohe Latenzzeit
von Festplatten im Vergleich mit RAM, die noch auf der Ebene der
Softwareentwicklung und der Algorithmik berücksichtigt werden muss. Um
eine hohe Performance zu erreichen, muss eine Festplatte soweit wie
möglich immer große Mengen von Daten in aufeinander folgenden Blöcken
lesen oder schreiben, weil dabei der Schreib/Lesekopf nicht neu
positioniert werden muss. Dies erreicht man, indem man möglichst viele
Operationen im RAM durchführt und auf der Platte die Positionierung der
Daten auf die Zugriffsmuster abstimmt.
Das Auslesen der Daten wurde bis ca. 1994 durch Induktion des
Magnetfelds der magnetisierten Fläche in der Spule des
Schreib-/Lesekopfes erreicht. Über die Jahre wurden jedoch die Flächen,
auf denen einzelne Bits gespeichert werden, immer kleiner – die
Datendichte wurde erhöht.
Um diese Daten auszulesen, werden kleinere und empfindlichere Leseköpfe
benötigt. Diese wurden nach 1994 entwickelt: MR-Leseköpfe sowie einige
Jahre später GMR-Leseköpfe (Riesenmagnetowiderstand). Der GMR-Lesekopf
ist eine Anwendung der Spintronik.
Zusätzlich wurde die Steigerung der Datendichte durch besseres
Trägermaterial sowie durch die Optimierung der Schreibverfahren
erreicht.
Eine neuere Entwicklung (seit 2004) ist das Perpendicular Recording, das
zur Zeit u. a. von Toshiba und Hitachi entwickelt wird, um die
Datendichte weiter zu steigern.
Um die Lautstärke der Laufwerke beim Zugriff auf Daten zu verringern,
unterstützen die meisten IDE- und SATA-Festplatten, die für den
Desktop-Einsatz gedacht sind, „Automatic Acoustics Management“ (AAM).
Wird die Festplatte in einem leisen Modus betrieben, werden die Schreib-
und Leseköpfe weniger stark beschleunigt, sodass die Zugriffe leiser
sind. Das Laufgeräusch des Plattenstapels wird davon nicht verändert,
ebenso bleibt die Dauertransferrate von AAM unberührt; jedoch verlängert
sich die Zugriffszeit. |
|
|
Logischer Aufbau
Die magnetische Schicht der Scheiben ist der eigentliche Träger der
Informationen. Sie wird auf zylindrischen Spuren magnetisch aufgeprägt,
während die Scheibe rotiert. Eine Scheibe enthält typischerweise einige
tausend solcher Spuren, meist auch auf beiden Seiten. Die Gesamtheit
aller identischen Spuren der einzelnen Platten(oberflächen) nennt man
Zylinder. Jede Spur ist in kleine logische Einheiten unterteilt, die man
Blöcke nennt. Ein typischer Block enthält 512 Byte an Information. Jeder
Block verfügt dabei über Kontrollinformationen (Prüfsummen), über die
sichergestellt wird, dass die Information auch korrekt geschrieben oder
gelesen wurde. Die Gesamtheit aller Blöcke, die die gleichen
Winkelkoordinaten auf den Platten haben, nennt man Sektor. Leider wird
der Begriff Sektor häufig fälschlicherweise auch synonym für Block
verwendet.
Bei modernen Festplatten ist es normalerweise so, dass die wahre
Geometrie, also die Anzahl von Sektoren, Köpfen und Zylindern, die vom
im Festplattengehäuse integrierten Controller (im Folgenden
„Festplatten-Intelligenz“ genannt) verwaltet werden, nach außen nicht
mehr sichtbar ist. Der Computer, der die Festplatte benutzt, arbeitet
dann mit einer virtuellen Festplatte, die völlig andere Geometriedaten
aufweist. Dies erklärt, warum z.B. eine Festplatte, die real nur vier
Köpfe aufweist, vom Computer mit 255 Köpfen gesehen wird. Ein Grund für
solch ein virtuelles Konzept ist, dass man Begrenzungen von
PC-kompatibler Hardware überwinden wollte. Weiterhin kann die
Festplatten-Intelligenz durch dieses virtuelle Konzept defekte Blöcke
ausblenden, um dann einen Block aus einer Reserve-Spur einzublenden. Für
den Computer sieht es immer so aus, als wären alle Blöcke defektfrei und
nutzbar. Es wird vermutet, dass besagte Reserve-Spuren ca. 10–20 % des
auf der Festplatte angegebenen Speicherplatzes ausmachen. Dieser
Speicherplatz lässt sich durch spezielle Firmware-Versionen nutzen, was
dann aber logischerweise die Lebensdauer der Festplatte (bzw. die
Datensicherheit) reduzieren kann. Heute übliche Festplatten teilen
weiterhin die Platten in Zonen auf, wobei eine Zone mehrere Spuren mit
jeweils gleicher Anzahl an Blöcken enthält. Weitere Zonen können eine
andere Anzahl von Blöcken pro Spur besitzen.
Aus Sicht des Betriebssystems können Festplatten durch Partitionen in
mehrere Bereiche unterteilt werden. Man kann sich diese als logische
Festplatten vorstellen, die durch den Festplattentreiber dem
Betriebssystem (und damit evtl. dem Benutzer) gegenüber als getrennte
Geräte dargestellt werden. Es ist dabei im Verhalten (von zeitlichen
Effekten abgesehen) nicht erkennbar, ob es sich tatsächlich jeweils um
eine physikalisch getrennte Festplatte handelt oder lediglich um ein
logisches Laufwerk auf einer gemeinsamen Festplatte.
Jede Partition wird vom Betriebssystem gewöhnlich mit einem Dateisystem
formatiert. Unter Umständen werden, je nach benutztem Dateisystem,
mehrere Blöcke zu Clustern zusammengefasst, die dann die kleinste
logische Einheit für Daten sind, die auf die Platte geschrieben werden.
Das Dateisystem sorgt dafür, dass Daten in Form von Dateien auf die
Platte abgelegt werden können. Ein Inhaltsverzeichnis im Dateisystem
sorgt dafür, dass Dateien wieder gefunden werden und hierarchisch
organisiert abgelegt werden können. In einer File Allocation Table
werden die belegten, verfügbaren und defekten Cluster registriert.
MS-DOS und Windows 9x konnten nur FAT-Dateisysteme verwenden. |
|
|
Schnittstellen
Als Schnittstelle der Festplatte zu Laufwerks Computer-Komponenten
werden hauptsächlich die parallelen Schnittstellen ATA (IDE, EIDE)
(überwiegend bei Personal Computern) oder SCSI (bei Servern,
Workstations und höherwertigen Personal Computern) verwendet. Die
Mainboards an denen die Festplatten angeschlossen werden können, waren
bisher mit zwei IDE-Schnittstellen versehen, werden aber zunehmend - in
der Übergangszeit - mit SATA (S-ATA) Schnittstellen zusätzlich versehen
und zukünftig von diesem SATA-Bus System abgelöst werden.
[Bearbeiten]
Master-Festplatte des Primary IDE-Buses
Die als Master gejumperte Festplatte und die zweite Slave-Festplatte
kann am gleichen Primary-Bus (1. IDE-Bus) des Mainboardes angeschlossen
werden. An jedem dieser IDE-Stränge (primary + secondary) können maximal
2 Festplatten angeschlossen werden. Dazu werden sie mit einem Jumper an
der Festplatte (oder anderes Laufwerk), als Master oder Slave
elektronisch bestimmt (gejumpert). Daher können insgesamt bis zu 4
Festplatten am 1. und 2. IDE-Bus des Mainboards angeschlossen werden.
Formal: 4 Festplatten = 1. IDE-Bus => 1x Master- + 1x Slave-Festplatte
und 2. IDE-Bus => 1x Master- + 1x Slave-Festplatte
[Bearbeiten]
S-ATA (SATA) löst den IDE-Bus ab
Seit 2002 gewinnt das neue Verfahren Serial ATA (S-ATA oder SATA) an
Bedeutung. Die Vorteile gegenüber ATA (zur Abgrenzung nun vermehrt S-ATA
oder SATA genannt) sind der höhere mögliche Datendurchsatz und die
einfachere Verkabelung. 2005 wurden erste Festplatten mit Serial
Attached SCSI (SAS) als potentieller Nachfolger von SCSI für den Server-
und Storagebereich vorgestellt, über zwei Anschlüsse kann der
Datenaustausch hier theoretisch mit bis zu 600 MByte/s erfolgen. Von
Vorteil ist, dass die Serial ATA Schnittstelle nicht mehr 40-polig ist,
sondern, als serielle Datentransfer-Möglichkeit, nur noch 7-adrig ist.
[Bearbeiten]
Queeing im SCSI und S-ATA Datentransfer
Vor allem bei SCSI-Platten und auch bei neueren S-ATA Festplatten werden
sogenannte Queues (Warteschlangen) eingesetzt. Diese reihen die Anfragen
an den Datenträger in eine Liste und sortieren sie entsprechend der
physikalischen Position auf der Scheibe, um so möglichst viele Daten mit
möglichst wenigen Umdrehungen zu lesen. Der festplatteneigene Cache
spielt hierbei eine große Rolle, da die Queues in diesem abgelegt werden
(Siehe auch: Tagged Command Queuing, Native Command Queuing).
[Bearbeiten]
USB als externe Festplatten-Schnittstelle
Es werden universelle Schnittstellen wie FireWire oder USB für den
Anschluss von externen Festplatten verwendet, hierbei sind jedoch die
eingebauten Festplatten selbst mit herkömmlichen (meist ATA oder S-SATA)
Schnittstellen ausgestattet, die Signale werden mittels eines speziellen
Chipsatzes, der auf einer Wandlerplatine in dem USB-Gehäuse sitzt von
ATA in USB-Signale transferiert und über die USB Schnittstelle nach
aussen geführt. Eine reine USB Festplatte d.h. mit USB-Schnittstelle
wird von keinem Hersteller verbaut, selbst CD-Laufwerke gibt es nicht
mit USB-Schnittstelle, obwohl der USB-Anschluss dieses vortäuscht.
[Bearbeiten]
Glasfaser-Anschluss als Interface
Die Kommunikation via Fibre-Channel-Interface, ist noch leistungsfähiger
und in der Glasfaser-basierten Form vor allem für die Verwendung in
Speichernetzwerken (Storage Area Network, SAN) konzipiert. Da die
Festplatten hier ebenfalls nicht direkt angesprochen werden, sondern
über einen Controller, können alle Arten von Festplattenschnittstellen
verwendet werden, von FC-AL über SCSI bis hin zu Serial ATA. Einen
konkurrierenden Ansatz verfolgt iSCSI, jedoch unter Verwendung von
IP-Netzen.
[Bearbeiten]
Vorläufer der seriellen high speed-Schnittstellen
Die ersten verbreiteten seriellen Schnittstellen für Festplatten waren
SSA (Serial Storage Architecture, von IBM entwickelt) und Fibre-Channel
in der Variante FC-AL (Fibre Channel-Arbitrated Loop). SSA-Festplatten
werden heute praktisch nicht mehr hergestellt, aber Fibre
Channel-Festplatten werden weiterhin für den Einsatz in großen
Speichersystemen gebaut. Trotz ihres Namens haben sie keine optische,
sondern eine elektrische Schnittstelle. |
|
|
Datensicherheit
Ausfallrisiken und Lebensdauer
Zu den typischen Ausfallrisiken gehören:
* Die Anfälligkeit von Festplatten ist besonders bei den neuen, sehr
schnell drehenden Systemen vorwiegend auf thermische Probleme
zurückzuführen.
* Beim mechanischen Aufsetzen des Schreib-Lesekopfes (Head-Crash) kann
die Festplatte beschädigt werden. Der Kopf schwebt im Betrieb über der
Platte und wird durch ein Luftpolster, das durch von der drehenden
Scheibe mitgerissene Luft entsteht, am Aufsetzen gehindert. Bei
laufendem Betrieb sollte der Computer daher möglichst nicht bewegt
werden oder Erschütterungen ausgesetzt sein.
* Äußere Magnetfelder können die Sektorierung der Festplatte
irreversibel zerstören. Eine Löschung mit einem magnetischen Wechselfeld
macht neuere Festplatten unbrauchbar. Diese Wirkung geht auch von
statischen Magnetfeldern (z.B. von Permanentmagneten) aus, wenn sie auf
die rotierende Festplatte wirken.
* Fehler in der Steuerelektronik oder allgemeine Abnutzung führen zu
Ausfällen.
Die durchschnittliche Anzahl an Betriebsstunden, bevor eine Festplatte
ausfällt, wird bei irreparablen Platten als MTTF (Mean Time To Failure)
bezeichnet. Bei Festplatten, die repariert werden können, wird ein
MTBF-Wert (Mean Time Between Failure) angegeben.
Die Lebensdauer einer Festplatte kann nicht konkret vorhergesagt werden,
denn diese hängt von vielen Faktoren ab:
* eine gute Kühlung erhöht die statistische Lebensdauer, da Mechanik und
Elektronik weniger schnell altern und beansprucht werden.
* Anzahl der Zugriffe (Lesekopfbewegungen): Durch häufige Zugriffe
verschleißt die Mechanik schneller, als wenn die Platte nicht genutzt
wird und sich nur der Plattenstapel dreht.
* Vibrationen und Stöße: Starke Erschütterungen können zu einem
vorzeitigen (Lager-) Verschleiß führen und sollten daher vermieden
werden.
* Unterschiede zwischen verschiedenen Modellreihen eines Herstellers:
Abhängig vom jeweiligen Modell lassen sich bestimmte Baureihen
ausmachen, die als besonders zuverlässig oder fehleranfällig gelten. Um
statistisch genau Angaben zu der Zuverlässigkeit machen zu können, sind
allerdings eine große Anzahl von baugleichen Platten notwendig, die
unter ähnlichen Bedingungen betrieben werden. Systemadministratoren, die
viele Systeme betreuen, können so im Laufe der Jahre durchaus einige
Erfahrungen sammeln, welche Festplatten eher zu auffälligen Verhalten
und damit vorzeitigen Ausfall neigen.
Allgemein sind schnelldrehende Server-Festplatten für eine höhere MTTF
als typische Desktop-Festplatten ausgelegt, sodass sie theoretisch eine
höhere Lebensdauer erwarten lassen. Dauerbetrieb und häufige Zugriffe
können jedoch dazu führen, dass sich dies relativiert und die
Festplatten nach wenigen Jahren ausgetauscht werden müssen.
Notebook-Festplatten werden durch die häufigen Transporte besonders
beansprucht und sind dementsprechend trotz robusterer Bauart mit einer
kleineren MTTF als Desktop-Festplatten spezifiziert.
Vorbeugende Maßnahmen
Als vorbeugende Maßnahmen gegen Datenverlust werden daher häufig
folgende Maßnahmen ergriffen:
* Von wichtigen Daten sollte immer eine Sicherungskopie (Backup) auf
einem anderen Datenträger existieren.
* Systeme, die zwingend hochverfügbar sein müssen und bei denen ein
Festplattenfehler keine Betriebsunterbrechung verursachen darf, verfügen
meistens über ein RAID. Eine Konfiguration ist z.B. das Mirrorset (RAID
1), bei dem die Daten auf zwei Festplatten gespiegelt werden und sich
somit die Ausfallsicherheit erhöht. Effizientere Konfigurationen sind
RAID 5 und höher. Ein Stripeset (RAID 0) aus zwei Festplatten erhöht
zwar die Geschwindigkeit, verdoppelt jedoch das Ausfallrisiko. RAID 0
ist deshalb keine sinnvolle Maßnahme, um Datenverlust zu verhindern.
* ATA-Festplatten verfügen seit Einführung von ATA-3 im Jahr 1996 über
S.M.A.R.T., eine interne Überwachung der Festplatte auf Zuverlässigkeit.
Der Status kann von außen abgefragt werden. Ein Nachteil ist, dass
S.M.A.R.T. kein Standard ist. Jeder Hersteller definiert seine
Fehlertoleranz selbst, d.h. S.M.A.R.T. ist nur als allgemeines
Richtmittel anzusehen. Außerdem gibt es Festplatten, deren S.M.A.R.T.
Funktionalität selbst dann noch nicht vor Problemen warnt, wenn diese
sich bereits im Betrieb durch nicht mehr lesbare Blöcke bemerkbar
gemacht haben. Man sollte sich also nicht auf S.M.A.R.T. verlassen.
* Um durch Überhitzung der Festplatte bedingte Ausfälle zu verhindern,
muss diese entsprechend ihrer maximal erlaubten Betriebstemperatur
gekühlt werden. In Servern kommen dazu mit Lüftern versehene
Wechselrahmen und Backplanes zum Einsatz.
Datenschutz
Soll eine Datei gelöscht werden, wird üblicherweise lediglich im
Dateisystem vermerkt, dass der entsprechende Datenbereich nun frei ist.
Die Daten selbst verbleiben jedoch physisch auf der Festplatte, bis der
entsprechende Bereich mit neuen Daten überschrieben wird. Mit
Datenrettungsprogrammen können gelöschte Daten daher oft zumindest zum
Teil wiederhergestellt werden. Das wird auch häufig in der
Beweissicherung z.B. bei den Ermittlungsbehörden (Polizei etc.)
eingesetzt.
Auch beim Partitionieren oder gewöhnlichen Formatieren wird der
Datenbereich nicht überschrieben, sondern lediglich die
Partitionstabelle oder die Beschreibungsstruktur des Dateisystems. Bei
einer Low-Level-Formatierung dagegen wird der gesamte adressierbare
Bereich einer Festplatte überschrieben.
Um ein sicheres Löschen von sensiblen Daten zu garantieren, bieten
verschiedene Hersteller Software an, die beim Löschen den Datenbereich
überschreibt. Meistens kann aber auf eine (fast) beliebige und
kostenlose Unix-Distribution zurückgegriffen werden, wie zum Beispiel
Knoppix oder FreeSBIE, die praktischerweise direkt von CD gestartet
werden kann. Des weiteren gibt es verschiedene Opensource-Programme, die
dies ebenfalls erledigen (siehe Weblinks). Wurde die Datei bereits
gelöscht, ohne die Daten zu überschreiben, kann auch der komplette freie
Speicher der Festplatte überschrieben werden.
Verschiedene Festplatten bieten die Möglichkeit an, den kompletten
Festplatteninhalt per Passwort direkt auf Hardwareebene zu schützen. Da
diese im Grunde nützliche Eigenschaft jedoch kaum bekannt ist und die
meisten BIOSe die Funktion zum Setzen des Passworts nicht selbsttätig
ausschalten, besteht rein theoretisch für Schadprogramme wie Viren die
Chance, dem Benutzer durch Setzen dieses Passworts auf einen unbekannten
Wert massiv zu schaden, besteht danach doch keine Möglichkeit mehr, noch
auf Inhalte der Festplatte zuzugreifen. Für weitere Infos bzgl.
ATA-Festplatten siehe Passwortschutz unter ATA. |
|
|
Geschichte
Vorläufer der Festplatte war die Magnettrommel ab 1958 (Zuse Z22). Die
Entwicklung wurde anfangs von IBM bestimmt (Siehe engl. Artikel Early
IBM diskstorage). Diese Systeme bestanden aus bis zu 50 Scheiben mit bis
zu 14 Zoll Größe bei Speichergrößen im Megabyte-Bereich.
Chronologische Übersicht
- 1956: IBM stellt das erste
magnetische Festplattenlaufwerk vor. Auf 50 Speicherplatten von 61
cm Durchmesser wurde eine Kapazität von 5 Megabyte (MB) erreicht.
- 1973: IBM startet das „Winchester“-Projekt,
das sich damit befasste, einen rotierenden Speicher mit einem fest
montierten Medium zu entwickeln (IBM 3340, 30 MB Speicherkapazität,
30 ms Zugriffszeit). Beim Starten und Stoppen des Mediums sollten
die Köpfe auf dem Medium aufliegen, was einen Lademechanismus
überflüssig machte. Namensgeber war das Winchester-Gewehr 3030.
- 1979: Vorstellung der ersten 8″-Winchester-Laufwerke.
Diese waren jedoch sehr schwer und teuer (5 MB kosteten mehr als
10.000 DM (ca. 5000 Euro); trotzdem stieg der Absatz kontinuierlich.
- 1980: Verkauf der ersten 5-1/4″-Winchester-Laufwerke
durch die Firma Seagate Technology mit der Modellbezeichnung ST506
(6 Megabyte Kapazität). Diese Modellbezeichnung (ST506) wurde auch
über viele Jahre hinaus der Name für diese neue angewendete
Schnittstelle, welche alle anderen Firmen als neuen Standard im
PC-Bereich übernommen hatten. Zur gleichen Zeit kam neben den
bereits bestehenden Apple-Microcomputern der erste PC von IBM auf
den Markt, dadurch stieg die Nachfrage nach diesen – im Vergleich zu
den Winchester-Laufwerken kompakten – Festplatten rasant an.
- 1986: Spezifikation von SCSI,
eines der ersten standardisierten Protokolle für eine
Festplattenschnittstelle.
- 1997: Erster Einsatz des
Riesen-Magnetowiderstands (englisch Giant Magnetoresistive Effect
(GMR)) bei Festplatten, dadurch konnte die Speicherkapazität
stark gesteigert werden. Eine der ersten Festplatten mit
GMR-Leseköpfen war die IBM Deskstar 16GP (3,5″, November
1997) mit einer Kapazität von 16,8 GB.
- 2004: 18. November 400
GB-Festplatte (3,5″) von Hitachi. Erste Festplatten mit Native
Command Queuing von
Seagate.
- 2005: 500 GB-Festplatte (3,5″) von
Hitachi.
- 2006: Erste 2,5-Zoll
Notebook-Festplatte (160 GB, „Momentus 5400.3“) von Seagate mit
senkrechter Aufzeichnungstechnik (Perpendicular Recording)
- 2006: April: Ankündigung der
ersten 750 GB-Festplatte („Barracuda-7200.10“) von Seagate mit
senkrechter Aufzeichnungstechnik (Perpendicular Recording) zum
Verkauf Ende Mai 2006
- Ende 2006/Anfang 2007:
Samsung plant eine Hybrid-Festplatte für den Markt. Einen Prototypen
gab es bereits auf der 2005
WinHEC.
Die 2,5-Zoll-Hybrid-Festplatte besteht aus einem
magnetisch-mechanischen Teil und einem zusätzlichen
NAND-Flash-Speicher der als Puffer für die Daten dient. Erst wenn
der Puffer voll ist werden die Daten aus dem Puffer auf das
Magnetmedium der Festplatte geschrieben.
|
|
|
|