Klassisches RAID am Ende?
Leserfrage: Ein TByte, zwei TByte, demnächst wird es Laufwerke mit drei, vier oder mehr TByte Speicherplatz geben. Schon heute dauert die Wiederherstellung einer ausgefallenen Festplatte unter RAID 5 oder RAID 6 zwischen einem und zwei Tagen. Da sich die Schnittstellen auf absehbare Zeit nicht ändern werden – wie sollen wir in Zukunft mit drei oder vier Tagen Wiederherstellungszeit umgehen? Die »klassischen« RAID-Lösungen können hier doch nicht mehr helfen, oder?
Antwort Doc Storage:
Das ist prinzipiell richtig. Noch in diesem Jahr erwarten wir Platten mit weit mehr als zwei TByte Fassungsvermögen. Solange diese mit der herkömmlichen SATA-Schnittstelle der zweiten Generation, also mit drei Gbit/s Bandbreite, ausgestattet sind, vervielfachen sich die Wiederherstellungszeiten. Erst mit der SATA-Schnittstelle der dritten Generation und den dann in Aussicht stehenden sechs Gbit/s können die Transferzeiten wieder etwas eingedämmt werden.
Aber was können wir in der Zwischenzeit tun? Nun, zunächst einmal die Ruhe bewahren. RAID 6 wurde eingeführt, um den doppelten Plattenausfall in einer RAID-Gruppe abzufangen. Weil die SATA-Laufwerke seit ihrer Einführung allerdings wesentlich zuverlässiger geworden sind und damit die Wahrscheinlichkeit eines doppelten Ausfalles auf das Niveau von FC-Platten gesunken ist, können wir uns heute deutlich längere Wiederherstellungszeiten unter Eingehen desselben Risikos leisten. Leider gibt es heute keine valide Alternative.
Natürlich könnten die Hersteller ein Triple-Parity-RAID einführen, bei dem nun drei Platten parallel ausfallen könnten. Aber wie wahrscheinlich ist das wirklich? In den allermeisten Fällen handelt es sich bereits bei dem doppelten Ausfallszenario nicht mehr um Fertigungsfehler der Disk-Hersteller oder »wackelige« Drives, sondern um Stromversorgungs- oder Schnittstellenfehler der Array-Produzenten. Da hilft dann in den meisten Fällen auch kein Anlegen von noch so vielen Paritäten, da muss schlichtweg das Speichersystem ausgetauscht werden.
Auch das Verteilen von doppelt geschriebenen Daten über das gesamte System, also quasi ein »Super-RAID 10«, hat sich in der Praxis als gefährlich erwiesen. Sollten hier zwei Platten irgendwo im Array ausfallen, die zufällig jede eine Kopie desselben Tracks speichern, ist dieser unwiederbringlich verloren.
Fazit: Momentan heißt es auf die immer noch wachsende Qualität der SATA-Platten zu vertrauen und auf die Schnittstellen der nächsten Generation zu hoffen. Diese werden uns zumindest die Wiederherstellungszeiten deutlich verkürzen. Und noch eine Technologie lauert im Hintergrund, die wir alle momentan noch nicht auf dem Schirm haben. SSDs werden von Tag zu Tag billiger und von Quartal zu Quartal preiswerter. In zwei bis drei Jahren dürfte sich dann auch der Endanwender oder Betreiber kleinerer Arrays erstmals die Frage stellen, ob er überhaupt noch Festplatten einsetzen soll. Die Wiederherstellungszeit bei SSDs dürfte sich dann nur noch bei Fragmenten der heutigen Wartezeit einpendeln.
Gruß
Doc Storage