- Werbung -

Wer schon länger mit Computern arbeitet, hat sicher schon mehrere Sorten von Festplatten kennen gelernt. Hier soll einmal ein kleiner Rückblick gegeben, und zum anderen die neuesten Festplattetechnologien angesprochen werden.

Vor den Festplatten

Wahrscheinlich haben die meisten von uns schon mit Disketten als Speichermedium gearbeitet. (Die davor üblichen Compact-Kassetten lassen wir einmal aus dem Spiel). Es gab - in den für den Heimbetrieb üblichen 5-¼- und 3-½"-Größen - SD-Disketten (Single Density) mit 125 kbit/s Übertragungsrate. Dazu kamen DD-Disketten (Double-Density) mit 250 kbit/s und später HD-Disketten (High-Density) mit 500 kbit/s. Das waren alles theoretische Werte, die Praxiswerte lagen weit darunter.
Floppy-KabelFloppy-Controller-Steckkarte für 4 LaufwerkeDer Bedarf an Massenspeichern - schließlich schloss man an den Apple ][ auch oft 2 Floppy-Laufwerke an - führte zu interessanten Konstruktionen wie dieser (links abgebildeten) Steckkarte mit einem Floppy-Controller für 4 Laufwerke. Die passenden Kabel dazu sahen aus wie das Bild rechts. Die "Pfostenstecker" waren für die Haupt-Platine und die damals neueren 3,5"-Laufwerke. Die großen Stecker dienten zum Anschluss von 5-¼"-Laufwerken, bei denen die Anschlüsse als verlängertes Platinenstück realisert waren.

Die ersten Festplatten und Controller

Von Seagate gab es 1982 die für 5 ¼“-Festplatten entworfene Schnittstelle ST506, erste Platten nach dieser Norm waren die ST 506 mit 5 MB sowie die ST 412 mit 10 MB.
Erste Controller übernahmen die Adressierung der Daten über drei Parameter: Kopf, Spur und Sektor. Die Daten waren auf zwei verschiedene Arten kodiert: nach dem MFM-Verfahren mit 17 Sektoren pro Spur, später dann nach dem RLL-Verfahren mit gewöhnlich 26 Sektoren pro Spur. Diese Kodierung musste sowohl im Controller wie auch in der Platte umgesetzt werden.
Die 
Übertragungsraten betrugen bei MFM 5MBit/s, beim RLL-Verfahren 7,5 MBit/s - immer in der Theorie.

         Twin MFM ST-506

Das Bild (Wikipedia, J.Nixdorf) zeigt eine ST-506 MFM mit Twin-Kabel

Erster Standard: IDE und Erweiterung: ESDI

Der amerikanische Festplattenhersteller Western Digital wurde 1984 von Compaq beauftragt, einen Festplattencontroller zu entwickeln. Eine Vorgabe war, dass die Elektronik nun auf der Platte sein sollte. Die Kommunikation sollte über ein einziges 40-poliges Flachbandkabel erfolgen. Nach Abschluss der Entwicklungen (1986) nannte WD sie Integrated Drive Electronics (IDE).
IBM leitete davon eine eigene Schnittstelle namens ESDI (Enhanced ...) ab, die aber nur mechanisch kompatibel war. Mit 34 Sektoren pro Spur (gegenüber 17 oder 26) ließen sich sowohl die Kapazität als auch die Datenrate erhöhen.

ATA/ATAPI

Advanced Technology Attachment (also ATA, die Erinnerung an den AT, sprich 286er war gewolt!) ist ein Standard für den parallelen Datentransfer zwischen Speichermedien und der Schnittstelle eines Computers.
Advanced Technology Attachment with Packet Interface (also ATAPI) basiert auf ATA und erweitert das Protokoll so, dass gekapselte SCSI-Pakete übertragen werden können.
Die nun möglichen SCSI-Befehle erweitern (prinzipiell!) den Einsatzbereich von ATA über den ursprünglich reinen Festplattenbetrieb hinaus.  So können ab jetzt mit ATAPI zusätzlich auch Geräte wie Wechselplatten, optische Laufwerke und Bandlaufwerke verwendet werden, an den selben Schnittstellen und Kabeln.

40poliges Festplatten-KabelATA/ATAPI-Geräte werden mit einem Flachbandkabel an die 40-polige Schnittstelle des Hosts (=Schnittstelle(nkarte) im PC) angeschlossen (ATA-40, siehe Bild). Dabei sind zwei Geräte pro Anschluss möglich, diese werden dabei als Device 0 (auch Master, MA) bzw. Device 1 (auch Slave, SL) bezeichnet. Die Einstellung des Device-0- bzw. -1-Status erfolgt meist über Jumper (=kleine Steckbrücken). Heute bezeichnet man dieses erste ATA auch als P-ATA (siehe unten).

In der Folgezeit wurde das Paar ATA/ATAPI immer näher spezifiziert und besser ausgenutzt. So entstanden viele Unterformate:

ATA-1 (1989-1999)

ATA-1 erlaubt die gleichzeitige Ansteuerung von maximal zwei Festplatten mit bis zu 8,3 MB/s. ATA-1 arbeitet hierbei asynchron. Die Übertragung wird durch mehrere PIO-Modi und DMA-Varianten durchgeführt:
Im PIO-Modus 0 mit 3,3 MB/s; im PIO-Modus 1 mit 5,2 MB/s und im PIO-Modus 2 mit 8,3 MB/s.
Im Single Word DMA Modus 0 mit 2,1 MB/s, im Modus DMA Single 1 mit 4,2 MB/s und im Modus DMA Single 2 mit 8,3 MB/s. Schließlich gab es noch den Multi Word DMA Modus 0 mit 4,2 MB/s.

ATA-2 (1994-2001)

Während das asynchrone ATA-1 Übertragungsraten bis zu 8.3MB/s erlaubte, führte der Übergang zu dem synchronen ATA-2 zu höheren Werten. Insgesamt stieg die Leistungsfähigkeit auf bis zu 16,6 MB/s. Zusätzlich wurden neue Modi eingeführt; Block Transfers sowie Logical Block Addressing (LBA).
Genauer gesagt waren möglich: Im PIO-Modus 3: 11,1 MB/s und im PIO-Modus 4 16,6 MB/s. Weiterhin mit dem DMA-Modus 1 13,3 MB/s und dem Modus 2 (DMA 2) 16,6 MB/s (hier im Multi-Word-Mode). Andere Bezeichnungen waren auch Fast ATA: Fast ATA umfasst ATA-2, PIO 3 mit DMA 1 und Fast ATA-2 umfasst ATA-2, PIO 4 sowie DMA 2.

ATA-3 (1996-2002)

Dieser neue Standard brachte hauptsächlich zwei neue Funktionen: S.M.A.R.T. und Security Feature Set (BIOS-Passwort-System).
SMART-ToolS.M.A.R.T. steht für Self-Monitoring, Analysis and Reporting Technology und muss im BIOS für jedes Device einzeln aktiviert werden, es erlaubt das Auslesen von Platten-Parametern per Software. Zu den auslesbaren Parametern gehören auch festgestellte Fehler verschiedener Arten, so dass es möglich ist, ein baldiges "Sterben" der Festplatte quasi voraus zu sehen. Hierzu gibt es verschiedene Tools - eines davon ist zum Beispiel Speedfan, von dessen S.M.A.R.T.-Anzeige Sie hier rechts ein Bildschirmfoto sehen.
Die Leistungsfähigkeit und die Übertragungsmodi haben sich im neuen Standard gegenüber ATA-2 nicht verändert.

ATA/ATAPI-4 (1997-2008)

Eine ganz wichtige Änderung wird vorgenommen: Nun werden CD-ROM-Laufwerke und CD-Brenner erstmals in den Standard eingebunden und werden so an die gleichen Kabelarten angeschlossen wie Festplatten. (Können Sie sich noch daran erinnern, dass CD-ROM-Laufwerke eine eigene Karte mitbrachten?)
ATAPI-4 ist zu den bisher verwendeten Modi PIO und DMA kompatibel.
Neu aber ist: Es gibt einen Ultra DMA Mode 0 mit 16,7 MB/s, sowie einen UDMA Mode 1 mit 25,0 MB/s und einen UDMA Mode 2 mit 33,3 MB/s.
Ultra ATA/33 ist ab jetzt eine verbreitete Abkürzung von ATA-4 mit UDMA 2

ATA/ATAPI-5 (seit 1999)

Festplatten-Kabel mit 80 AdernAnschlüsse für ATA-Festplatten-KabelEs wird ein neuer Modus eingeführt: Ultra DMA 4. Die Leistungsfähigkeit beträgt jetzt 66,6 MB/s, deshalb wird dies auch bald UDMA-66 genannt. Ebenso neu ist UDMA 3 mit 44,4 MB/s, das aber in der Praxis eigentlich keine große Rolle spielte. Für den ATA-5-Standard ist allerdings ein spezielles 80-adriges Kabel erforderlich (siehe Bild links). Die "alten" Stecker bleiben die selben, es ist nur so, dass jede Ader nun eine eigene Masseader bekommt.
Auf den Mainboards gibt es nun oft zwei verschieden-farbige Steckplätze für ATA-Kabel - Der Anschluss "IDE1" ist meist für die schnelleren Übertragungsraten ausgeführt (s. Bild rechts).

ATA/ATAPI-6 (seit 2000)

Mit ATA-6 und dem Modus Ultra-DMA-100 (UDMA 5) sind Datenraten bis 100 MB/s möglich (ATA/100). Neue Befehle erlauben 48 Bit große Sektoradressen (LBA-48), das heißt, dass Festplatten nun größer als 128 GB sein können.. Außerdem wird ein Acoustic-Management implementiert, das den besonders leisen Betrieb von Festplatten erlaubt.

ATA/ATAPI-7 (seit 2001)

Ab ATAPI7 wird erstmals zwischen paralleler und serieller Übertragung unterschieden. Der Vorteil eines seriellen Anschlusses ist, das er mit weniger Adern in der Kabeln auskommt. Der bisherige Standard wird ab sofort PATA (Parallel ATA) genannt, die serielle Version SATA (Serial ATA). Am Standard ändert sich dadurch erst man nichts.
Mit dem neuen PATA-Modus Ultra-DMA-133 (UDMA 6) sind allerdings Datenraten bis 133 MB/s möglich. (ATA/133). Dies ist dann das "Ende der Fahnenstange" für P-ATA.

S-ATA

S-ATA-KabelWurde im Jahr 2000 von Intel aus dem älteren ATA-Standard entwickelt und trat quasi sofort seinen Siegeszug an. Heute (September 2015) sind eigentlich keine Boards mit P-ATA-Anschlüssen mehr im Handel
Für S-ATA (Kabel siehe im Bild rechts) wurden verschiedene Modi definiert:
Serial-ATA 1,5 Gbit/s (auch SATA I genannt),
Serial-ATA 3.0 Gbit/s (SATA II, SATA-300, in der Rev. 2.x entstanden),
Serial-ATA 6.0 Gbit/s (SATA III, SATA-600, aus der Rev. 3.x vom Mai 2009).

Die Geschwindigkeit, mit der die Daten geliefert werden können, hängt vom Chipsatz und der darin verwendeten Technologie ab. Für S-ATA- Anschlüsse auf Mainboards (von der "Southbridge") ist etwa hier Schluss. Aber:

Weiter geht's!

Aber natürlich versucht die Industrie, auch hier weiter zu entwickeln. Einer der ersten Schritte war SATA Express - auch SATAe genannt. Dieses Seitenlinie entsteht aufgrund des Standards SATA Revision 3.2. Zumindest der Stecker von SATAe ist abwärtskompatibel, der Datentransport selbst geht aber nicht über den üblichen SATA-Mechanismus, sondern über PCI-Express(!). Theoretisch lassen sich bei PCI-Ex 3.0 mit 1-4 Lanes 1-4 GByte/s(!) übertragen. Man hat sich - quasi als Norm - bisher auf 8,0 bzw. 16,0 Gbit/s geeinigt. Das wäre immerhin fast 3x schell wie bei SATA III!
Zur Zeit findet man in der Praxis Anbindungen an PCIex 2x, mit 2 Lanes, also mit einer Datenübertragungsrate von 1GByte/s. Bei diesen Geschwindigkeiten kommen die heute verfügbaren Festplatten an die Grenze ihrer Leistungsfähigkeit - aber auch hier gibt es ja einen Ausweg: SSDs. Für sie sind diese neuen Schnittstellen super geeignet.

SSD

Die Abkürzung SSD steht für Solid-State-Drive, also Halbleiter-Laufwerk. SSDs haben keine sich drehenden Platten in sich, sondern Speicher. Die SSDs wurden von Storage Tek 1978(!) entwickelt, und von Msystems 1996 auf dem Markt eingeführt. Vater war hier - wie so oft - die Rüstungsindustrie mit ihren Anforderungen an enorme Robustheit.
Die Vorteile der SSDs sind also: ihre mechanische Robustheit, sehr kurze Zugriffszeiten und keine Geräuschentwicklung aufgrund (fehlender) beweglicher Bauteile.

Technik

Die bei den SSDs verwendete Speicherart ist NAND-Speicher.Dies ist ein Typ von "nicht-volatilem" Speicher, der zur Aufbewahrung von Daten keinen Strom benötigt. Meist ist dies "Flash"-Speicher, bekannt von den USB-Sticks und Speicherkarten. Tedchnologisch unterscheidet man mehrere Unterarten: SLC = Single-Level-Cell kann 1 Bit/Speicherstelle ablegen, MLC = Multi-Level-Cell: Hier sind es zum Beispiel 4 Bits /Speicherzelle (oder auch mehr) durch Benutzung verschiedener Spannungen. Insbesonders wird auch die TLC = Triple-Level-Cell–Technik verwendet, die 3 Spannungslevel benutzt.

Lebensdauer

NAND-Flashspeicher leben auch nicht ewig! Nach einer bestimmten Anzahl von Schreibvorgängen können Speicherzellen ausfallen - eine gewisse Reserve davon ist aber vorhanden. Laut Wikipedia gelten etwa folgende Werte (Schreibvorgänge je Zelle): 1.000 (TLC in 21-nm-Fertigung); 3.000 (MLC in 25-nm-Fertigung); 5.000 (MLC in 34-nm-Fertigung); 10.000 (MLC in 50-nm-Fertigung); 100.000 (SLC in 50-nm-Fertigung) und bis zu 5 Mio. für selektierte SLC-Chips.

Preise (Stand: August 2014)

Hierbei sind die SSDs immer als Immer als 2,5“-Laufwerk realisiert. 128 GB bekommt man ab ca. 50,- €; 256 GB ab ca. 95,- € und 480 GB ab ca. 190,- €. (Normale Festplatten kosten momentan ca. 50,- € pro 1 TB.)
Für schnellere Platten (SATA 600) gelten folgende Datenübertragungsraten: Lesen: bis zu 550 MB/s und Schreiben: bis zu 520 MB/s.

msata-ssdNeue Anschlussnorm: M.2

Nichts hält ewig: Es gibt eine neue Anschlussnorm, die besonders in Laptops in Verwendung ist: M.2 - eine Art Karteneinschub. Besonders SSDs werden so als eine kleine Steckplatine realisiert. Die technologische Basis ist der mSATA-Standard (=mini-SATA). Ein Herstellerbild für eine solche mSATA-SSD sehen Sie rechts.

Weiterführend

Wie oben dargestellt, ist SATA - von der Übertragungsgeschwindigkeit her - quasi ausgereizt und neue, auf PCIex (3.0 ) basierende Alternativen sind schon auf dem Markt. Wie geschildert besteht der Vorteil in einer höheren Übertragungsrate, was durch mehrere gebündelte Lanes erreicht wird. Existierende Devices arbeiten zum Beispiel mit PCIex 2.0.und erzielen Datenraten beim Lesen von 825 MB/s und beim Schreiben von 800 MB/s. Eine solche 960 GB große SSD kostet etwa 690,- €

Hybrid-Technologie

Nicht nur vom Auto bekannt, gibt es diese Technologie auch hier. Gemeint ist eine Kombination von SSDs mit normalen Festplatten. Als Beispiel soll ein Modell von WD dienen: Hier wird eine 1 TB-Festplatte mit einer 120 GB-SSD kombiniert, also in ein Gerät gepackt. Dies kostet dann so etwa 190,- €. Ansätze für eine solche Technologie gibt es schon seit langer Zeit: Festplatten-Cache heißt das Zauberwort und moderne Platten haben davon sowieso schon ca. 64 MB eingebaut. Man kann also nicht wählen, wo die Daten abgelegt werden (auf der SSD oder der HS), sondern das System verwaltet dies dahingehend, dass häufig benötigte Daten auf der SSD vorgehalten und so rasend schnell für den Zugriff bereit gestellt werden.

Hybrid - nachgerüstet

Muss es denn immer gleich der komplette Umbau des Systems sein? Nein, wenn Sie einen Windows 7 oder 8-Rechner haben, gibt es eine kostengünstige Möglichkeit, einen Festplatten-Hybrid-Betrieb nachzurüsten. Voraussetzung dafür ist ein freier SATA-Anschluss - am Besten einen 6G-Anschluss, 3G geht aber auch. Die Lösung besteht aus einer zusätzlichen kleinen SSD mit spezieller Software, die dann als Cache arbeitet. Ein Beispiel dafür ist SanDisk ReadyCache, eine SSD mit 32GB. Einen UM-online-Artikel dazu gibt es auch.

PC-Aufrüsten

Möchte man seinen PC durch eine SSD "schneller" machen, hat man grundsätzlich mehrere Möglichkeiten, die alle ihre Vor- und Nachteile haben und gut überlegt sein wollen. Allen gemeinsam ist wohl, dass die Boot-Platte durch eine SSD ersetzt wird. (Im BIOS sollte man dann auch - wenn möglich - als Device-Typ SSD einstellen.)

Dann gibt es mehrere Möglichkeiten:

  • Ist die neue Platte groß genug, lässt sich die alte Festplatte einfach auf die neue SSD kopieren (klonen). Der Vorteil dieser Methode ist, dass man wenig Arbeit hat. Der Nachteil besteht darin, dass man dazu viel (teuren) (SSD)-Plattenplatz benötigt.
  • Eine weitere Möglichkeit besteht darin, in diesem Fall ein Backup anzulegen und auf eine SSD zurück zu spielen. Vorteil: Alles wird garantiert weiter funktionieren wie bisher und man benötigt noch nicht mal einen freien SATA-Anschluss. Nachteil (wie oben): Diese Methode benötigt viel SSD-Platz.
  • Vieles – zum Beispiel die Programme - lässt sich „woanders“ hin legen. Allerdings bedeutet dies jeweils erst eine De- und dann eine Neuinstallation. Der Rest des Betriebssystems passt dann auf eine kleinere SSD als die Festplatte/Partition vorher. Dazu muss man das Restsystem klonen - so wie vorher beschrieben. Der Vorteil dieser Vorgehensweise ist, dass es billiger wird als die oben beschriebenen Methoden - der Nachteil: ein bisschen mehr Arbeit.
  • Eine weitergehende Alternativen besteht darin, die "Eigenen Dateien" - also die Benutzerordner - zu verschieben. Microsoft warnt ein bisschen davor, das zu tun, aber es ist möglich und es gibt immer wieder Patches, die dafür gedacht sind, solche System weiter benutzen zu können. Noch weitergehend, können Sie so das Betriebssystem und die Programme (z.B. wie oben beschrieben) Programme trennen. Danach geht es weiter wie beschrieben.
  • Die letzte Variante ist eine Neuinstallation des Betriebssystem auf der neuen SSD. Sicher einer der besseren Wege. Der eindeutige Vorteil besteht darin, anschließend eine neue, saubere Installation vor sich zu haben. Der eindeutige Nachteil wiederum besteht darin, dass das Ganze sehr zeitaufwändig ist, da alle Software neu installiert werden muss - Im Zeitalter der Downloads manchmal ein gar nicht so einfaches Unterfangen.

Gleichgültig, welchen Weg Sie gehen - belohnt werden Sie mit einem System, das äußerst schnell "antwortet", sprich Dateien öffnet oder Programme startet, und in flottem Tempo hochfährt. Das Arbeiten mit dem PC macht garantiert viel mehr Spaß als vorher.

Kommentare

M5543, Schriftführer und Leiter der RG600 im AUGE e.V.