Anzeige

Klassifizieren von Daten ist nötig

Bessere Ausnutzung der Speicherkapazitäten, einfachere Verwaltung und geringere Kosten – mit diesen Argumenten lockt die Speicher-Virtualisierung. In der Extremform »Storage as a Service« sind aber im Unternehmenseinsatz einige Aspekte zu beachten.

EMC »CLARiiON CX4«
EMC »CLARiiON CX4«
Die Ausgangssituation ändert sich kaum: Das jährliche Speicherwachstum liegt weltweit bei ungefähr  30 Prozent. Und dabei ist der Anteil der unstrukturierten, dateibasierten Daten enorm. Diese Anforderungen bereiten den Speicherverantwortlichen im Unternehmen massives Kopfzerbrechen. Oftmals favorisieren sie als Lösung, einfach zusätzliche Speichersysteme zu kaufen. Und wer dabei auf Tier-1-Systeme setzt, der hört von seinen Anwendern auch selten Klagen, wenn es um die Performance der Speicherzugriffe geht. Doch dieses Modell skaliert nicht in dem Maße, wie es das Wachstum verlangt.

Tier-1-Speicher sprengt IT-Budgets

Das erste Problem in diesem Kontext trägt das Etikett kostenintensiv: Das Vorhalten von teurem Tier-1-Speicher sprengt die IT-Budgets, die ja schon seit mehreren Jahren nicht mehr großartig steigen. Dabei bringt selbst der Rückgang des Preises pro GByte nur wenig Linderung. Denn das Verwalten der Kapazitäten und die zugehörigen Aufgaben – wie etwa das Sichern der Informationen – etablieren sich mittlerweile als Kostentreiber.

Die Tier-1-Speichersysteme werden üblicherweise regelmäßig gesichert – zumeist mindestens täglich. Doch mit steigender Tier-1-Kapazität werden auch die zugehörigen Backup-Fenster immer kleiner. Wenn man aktuellen Untersuchungen Glauben schenkt, sind 80 Prozent aller  Daten eines Unternehmens nicht so kritisch, dass man sie hochverfügbar halten müsste. Resultat: Hier wird viel Geld sinnlos ausgegeben, denn diese 80 Prozent der Daten könnte man auf »niedrigerwertigen« Speicher auslagern.

Optimale Speicherauslastung berechnen

Ein weiterer Aspekt ist die generelle Ausnutzung der Speichersysteme. In traditionellen Konzepten gelangt die Speichernutzung einer Applikation an einen bestimmten Schwellenwert – dann läuten die Alarmglocken und es muss zusätzlicher Speicher bereitgestellt werden. Oder im zweiten Szenario hat ein Unternehmen eine neue Applikation in Betrieb zu nehmen. Dann gilt es eine Abschätzung zu treffen, wie viel Speicher für diesen neuen Service nötig sein wird. Hier kommen in vielen Fällen Schätzwerte zum Einsatz, die meist noch mit einem Sicherheitsfaktor arbeiten.

Wenn kein »Thin Provisioning« der Speicher-Ressourcen erfolgt, lautet die Konsequenz: Es wird deutlich mehr reserviert und zugeteilt als benötigt. Und das Reduzieren von zu großen Volumes im laufenden Betrieb – mit all seinen Gefährdungen – wollen die meisten Administratoren lieber vermeiden. Wer vor einem derartigen Hintergrund mehr als 50 Prozent seiner Speicherkapazitäten ausnutzt, der liegt schon im guten Bereich.

Hier setzt nun die Speicher-Virtualisierung an. Sie legt eine zusätzliche Abstraktionsebene über den Storage – mit dem Ziel, den physischen Speicher effizienter zu nutzen. Wo die Daten letztendlich physisch liegen, ist für die Anwendung und die Benutzer nicht mehr von Bedeutung. Sie greifen über einen »globalen Namespace« auf die logischen Pfadnamen zu den Speicher-Ressourcen zu. Damit lassen sich dann auch Konzepte aus dem Bereich des Cloud-Computings, wie etwa »Storage as a Service«, in die unternehmensweite Speicherarchitektur integrieren.

Welche Daten über welches Konzept anbinden

Doch es muss eine klare Trennlinie gezogen werden, welche Daten über welches Konzept anzubinden sind. Die blockbasierten Daten – in der Regel unternehmenskritische Informationen, die in Datenbanken liegen – stellen andere Anforderungen in Bezug auf Zugriffszeiten, Verfügbarkeit und Ausfallsicherheit als die meisten unstrukturierten Daten, die in Dateiform vorliegen. Bei ihnen muss eine Entscheidung getroffen werden, wie wichtig diese Informationen sind und ob sie unbedingt auf einem hochverfügbaren Speicher liegen müssen. Diese Klassifizierung der Daten sollte von einem System erfolgen, das verschiedene Parameter für diese Bewertung heranziehen kann. Wurde auf eine Datei schon seit längerer Zeit nicht mehr zugegriffen, wird sie weniger wichtig sein und kann auf billigeren Speicher ausgelagert werden – so könnte eine Richtlinie lauten. Es sind aber auch Klassifizierungen auf Grund von Dateitypen denkbar – aber generell gilt, dass bei den dateibasierten Inhalten die Metainformationen der Datei herangezogen werden können.

Zieht ein Speicherverantwortlicher in Betracht, für bestimmte Bereiche das Modell Storage-as-a-Service einzuführen, muss er einige Faktoren beachten. Zunächst ist ein »globaler Namespace« nötig. Wenn Daten ausgelagert – beliebig verteilt werden – müsste der Anwender jedes Mal eine andere Sichtweise, sprich Pfadnamen, auf seine Daten bekommen. Eine Applikation hätte dazu unter Umständen sogar einen Neustart nötig. Vor allem im Umfeld der Server-Virtualisierung ist das eine wichtige Sache, denn beim Verschieben von virtuellen Maschinen, etwa innerhalb einer Serverfarm, kann dieses virtuelle System im laufenden Betrieb einen anderen physischen Speicher zugewiesen bekommen.

Vorsicht vor den Kostenfallen

Für Siegfried Betke, Director Central Europe bei DataCore Software, muss ein Unternehmen, das Storage-as-a-Service beziehen möchte, aufpassen: »Man darf dabei nicht in eine Kostenfalle geraten. Nicht jedes Konzept, das sich anfangs gut anhört, ist auf Dauer finanzierbar.« Kosten könnten im Verlauf der Zeit schnell steigen, etwa wenn es zunächst hohe Preisnachlässe gab, der Preis bei Erweiterungen aber nicht verbessert oder zumindest gehalten werden kann. »Die realen Preise für Kapazitäten halbieren sich alle anderthalb Jahre«, erklärt Betke. »Ein Konzept muss sicherstellen, dass ein Kunde dieser Entwicklung bei unterschiedlichen Anbietern folgen kann.«

»Wenn es um die Nutzung einer IT-Leistung als Produkt oder Service geht, dann sollte sichergestellt sein, dass die internen, meist operationalen Voraussetzungen gegeben sind«, so lautet das Credo von Oliver Leisering, Practice Leader Information Management & Storage Solutions bei Computacenter. Das betreffe beispielsweise sehr stark die Bereiche Servicemanagement und Datensicherheit bzw. Datenschutz. »Transparenz in diesen Bereichen ist eine Grundvoraussetzung für Cloud-Lösungen. Im Bereich Servicemanagement bedeutet das zum Beispiel, dass Kostenstrukturen und Prozesse bekannt sein müssen, um eine verbrauchsabhängige Leistungsverrechnung einführen zu können.« Zudem empfiehlt der Experte, dass auch grundlegende Prozesse in Bereichen wie Bestellung, Zuordnung, Rückgabe oder Änderung existieren sollten. »Nicht zuletzt funktioniert Storage-as-a-Service nur dann effizient, wenn die vereinbarten SLAs überwacht und gegebenenfalls angepasst werden können.«

Anzeige