Sind Storage-Funktionen nicht mittlerweile bei allen gleich?
Antwort Doc Storage:
Auch auf die Gefahr hin, es mir jetzt mit allen »Software-defined Storage«-Herstellern zu verderben: Mitnichten war, ist oder wird der Hersteller eines Speichersystems nebensächlich sein. Natürlich betrachten all diejenigen, die mit der Woge der immer mehr wachsenden Datenflut an die Front gespült wurden und den Bedarf nach immer mehr Speicher mit trivialen Systemen mit möglichst funktionsreichen Betriebssystemen zu befriedigen versuchen, die spezialisierten Arrays als »Dinosaurier«, die bald aussterben werden (wie übrigens die richtige EDV auch, die stirbt ja schon seit zwanzig Jahren). Natürlich kann man jede Standard-Hardware mit einem einigermaßen brauchbaren Controller, ein paar Festplatten und ein wenig Hauptspeicher als Cache mit einem entsprechenden Microcode zu einem Speichersystem-Darsteller hochjazzen. Ebenso natürlich wird diese Standard-Hardware im Zeitalter von 3-GHz-Prozessoren, was-weiß-ich-wieviel GByte an Hauptspeicher, PCI-Flash und 10-Gigabit-Netzen auch brauchbare Leistungswerte bringen.
Und jetzt kommen die »aber‘s«: Unternehmensspeicher wie von EMC, Hitachi oder IBM sind nicht ohne Grund völlig anders aufgebaut als solche Standard-Hardware. Der Cache hat über Jahre, wenn nicht Jahrzehnte gewachsene Algorithmen, deren Prefetching-Leistungen durch nichts erreicht werden können, was mal eben in einen Controller eines Kleinrechners hineingeschossen wurde. Hier sind nicht zwei oder vier, sondern 32 oder mehr Kanäle zu den Platten bei der Arbeit, jeder einzelne mit der Leistung eines Cache-Controllers in der trivialen Welt. Alle Komponenten sind mehrfach redundant aufgebaut, selbst der Ausfall mehrerer Prozessoren, Cache-Boards oder Netzwerkadapter kann dem Gesamtsystem und damit dem Datenbestand nichts anhaben.
Die Systeme lassen sich über alle denkbaren Arten anschließen, sei es nun Fibre-Channel, Ficon, SAS oder Ethernet. Aber das Beste: Diese Systeme sind darauf ausgelegt, einmal eingeschaltet zu werden und immer im Betrieb zu bleiben, und anders als Open-Systems oder anderweitig basierte Arrays laufen sie sogar bei und nach Betriebssystem-Updates weiter, ohne dass der Benutzer oder die dort laufenden Anwendungen irgendetwas davon mitbekommen.
Ich weiß genau, was jetzt kommt. Zu groß, zu unflexibel, und vor allem, zu teuer. Erstens gibt es bei den heutigen Datenmengen »zu groß« gar nicht mehr, zweitens sind alle flexiblen Lösungen beliebig komplex und damit ebenso beliebig fehleranfällig, und drittens kommt es nicht darauf an, was ein Gerät in der Anschaffung kostet. Sondern wie teuer es wird, wenn nach dem Ausfall des Speichers die Daten nicht zur Verfügung stehen, im schlimmsten Falle für Stunden oder sogar Tage. Es gibt nicht einen DV-Leiter, der sich für seine großartigen Einsparungen im Speicherbereich hat feiern lassen, und dann sein Waterloo mit ungeeigneten Systemen erlebte.
Mein Ausbilder hat immer gesagt: Für jede Arbeit das richtige Werkzeug. Und Software allein ist hierfür kein Werkzeug, höchstens eine täuschend preiswerte Versuchung.
Gruß
Doc Storage