Anzeige

Im Interview: IBM Deutschland

Wenn es um unstrukturierte Daten geht, dann sind NAS-Systeme die erste Wahl. Denn auf NAS-Systemen läuft ein Filesystem. Und das ist der elementare Unterschied zwischen reinen Disksystemen, die nach wie vor erste Wahl für Performance-kritische Anwendungen sind. Administratoren sollten sich aber trotzdem darauf einstellen, dass zusehends die Unterscheidung zwischen Primär- und Sekundär-Speicher verwischt – Hybrid-Speicher oder Unified-Storage-Systeme finden ihren Platz im Rechenzentrum.Wir sprachen darüber mit Ralf Colbus, Storage Platform Certified Professional bei IBM Deutschland.

Was sind derzeit die Kriterien, wenn sich ein Unternehmen für ein NAS-System entscheidet?

Anzeige

 Ralf Colbus
Ralf Colbus
Colbus: Auf NAS-Systemen konventioneller Bauart werden nach wie vor hauptsächlich unstrukturierte Daten abgespeichert – hauptsächlich Files, die der User im Zugriff hat. Sie dienen sehr oft als Ersatz für Windows-Fileserver. In diesem unstrukturierten Datenbereich, der neben Files auch zum Beispiel E-Mails oder Digital-Content umfasst, ist nach wie vor das größte Datenwachstum zu sehen. NAS-Systeme mit neueren Architekturen (mit einem Globalen Namespace, linearer Skalierbarkeit, Datenverlagerung nach Wertigkeit) sind heute so leistungsfähig, dass sie auch als primärer Speicher eingesetzt werden können.

Können NAS-Systeme der Einstiegsklasse – also zum Beispiel mit zwei bis acht Festplatten – bereits zu einer Senkung der Betriebskosten beitragen? Oder geht es hier eher nur darum, einen PC-basierten Server beim Storage zu entlasten?

Colbus: Beide Faktoren kommen hier zum Tragen. Einstiegssysteme können durch einfachere Nutzung, erhöhte Betriebssicherheit (Virenanfälligkeit, Datenspiegelung) oder schnelleres Backup/Restore die Betriebskosten reduzieren.

NAS-Systeme werden bei vielen Unternehmen eher als Sekundär-Speicher eingesetzt. Bei welchen Einsatzszenarien lässt es sich als Primär-Speicher verwenden? Und auf welche Punkte sollten IT-Administratoren bei der Auswahl eines NAS-Systems achten, wenn sie mit einem Einsatz als Primär-Speicher liebäugeln?

Colbus: Die Unterscheidung zwischen Primär- und Sekundär-Speicher verwischt – was sind die Kriterien? Performance, Verfügbarkeit, Funktionen, Skalierbarkeit? Ob ein NAS-System als Primär- oder Sekundär-System eingesetzt wird, hängt von der Wichtigkeit der Daten und den Applikationen ab. So arbeiten zum Beispiel Konstruktionsbüros und Verlage sehr gerne auf NAS-Systemen – steht hier doch einfaches Datensharen im Vordergrund. Die dort eingesetzten NAS-Systeme müssen als Primär-Speicher angesehen werden, da diese Daten sehr wichtig sind – sind sie doch die »Kernkompetenz« des Unternehmens! Auf NAS-Systemen läuft ein Filesystem, das ist der elementare Unterschied zwischen reinen Disksystemen, die nach wie vor erste Wahl für Performance-kritische Anwendungen sind (Datenbanken, große E-Mail-Syteme, ERP, Vmware etc). Als IBM sind wir in der Lage, Kunden das System zu empfehlen, das am Besten passt – wir sind kein »One box only«-Hersteller. Die Fragen, die sich ein Administrator beim Einsatz des NAS als Primary-System stellen sollte, sind Backup/Restore (vor allem, wenn sehr viele Files gespeichert werden), Disk-Utilisierung des Systems, Software-Kosten, lineare Performance über den Lebenszyklus und – sehr wichtig – können Daten einfach gelöscht oder verlagert werden? Diese Frage ist wichtig, da erfahrungsgemäß ein NAS-System als »Digitale Müllkippe« angesehen wird, das heißt dort gespeicherte Daten nie wieder gelöscht werden. Deduplizierung kann hier helfen, das Datenwachstum zu verringern, diese sollte jedoch nicht zugunsten der Performance gehen – wir wollen ja NAS als primäres System!

Was sind aus Ihrer Sicht die strategischen Vorteile für ein NAS-System mit Windows-Betriebssystem, mit Linux-Betriebssystem oder mit einem vom NAS-Hersteller selbst geschriebenen NAS-Betriebssystem?

Colbus: Für Windows und Linux sprechen sehr oft der Anschaffungspreis und die freie Ausbaubarkeit. Für ein eigenständiges Betriebssystem steht die »Robustheit« und der einfache Umgang einer solchen Appliance.

Bei Unternehmen im Enterprise-Segment liegen unstrukturierte Daten oftmals auf NAS-Systemen, die strukturierten Daten (Datenbanken, SAP-Systeme etc.) eher im SAN-Umfeld. Was sollten Ihrer Meinung nach IT-Administratoren bei solchen kombinierten SAN-NAS-Umgebungen beachten?

Colbus: Diese Aufteilung kommt nicht von ungefähr – sie hat sich schlicht bewährt und ist nach wie vor »best practise«. Idealerweise kann man beide Welten kombinieren, das heißt die schnelle, skalierbare SAN-Umbgebung mit den Disksystemen als Grundlage verwenden, auf die dann als »Service-Layer« ein NAS oder zum Beispiel auch eine VTL (Virtual Tape Library) davorgeschaltet werden. Diese Systeme verwenden dann die Ressourcen, die im SAN bereits vorhanden sind.

Etablieren sich solche kombinierte SAN-NAS-Umgebungen im Enterprise-Segment als Trend? Oder ist es nur eine vorübergehende Erscheinung, um der aktuell überbordenden Datenflut Herr zu werden?

Colbus: Diese »best of both worlds«, das heißt NAS und SAN parallel zu betreiben, ist kein Trend mehr, es ist schlicht »gesetzt«.

Wenn NAS-Systeme in virtualisierte IT-Umgebungen integriert werden sollen, auf was sollten dann IT-Administratoren besonders achten?

Colbus: Konsistentes Backup/Restore des Gesamtsystems, das heißt auch die Clients im virtuellen System müssen gesichert werden. Des Weiteren einfaches Management des Systems – idealerweise End-to-End.

Auf welche technologischen Entwicklungen sollten sich IT-Leiter/Administratoren bei NAS-Systemen in den kommenden zwei bis drei Jahren einstellen?

Colbus: Virtuell, linear skalierbare Systeme, die über einen Global-Namespace/Single-Namespace verbunden sind sowie integrierte ILM/HSM-Funktionen besitzen. Zukünftige Systeme, die NAS als auch SAN in einer Architektur verbinden, müssen performant genug sein, um beiden Welten gerecht zu werden. Des Weiteren werden solche System sehr einfach und effizient für Standardaufgaben zu automatisieren sein.

Anzeige