Anzeige

Im Interview: Hitachi Data Systems

Wenn es um unstrukturierte Daten geht, dann sind NAS-Systeme die erste Wahl. Denn auf NAS-Systemen läuft ein Filesystem. Und das ist der elementare Unterschied zwischen reinen Disksystemen, die nach wie vor erste Wahl für Performance-kritische Anwendungen sind. Administratoren sollten sich aber trotzdem darauf einstellen, dass zusehends die Unterscheidung zwischen Primär- und Sekundär-Speicher verwischt – Hybrid-Speicher oder Unified-Storage-Systeme finden ihren Platz im Rechenzentrum.Wir sprachen darüber mit Uwe Angst, NAS Business Manager bei Hitachi Data Systems.

Was sind derzeit die Kriterien, wenn sich ein Unternehmen für ein NAS-System entscheidet?

Anzeige

 Uwe Angst
Uwe Angst
Angst: Im Enterprise-Umfeld ist die Leistungsfähigkeit an erster Stelle zu nennen, gefolgt vom Feature Set, einer einfachen Handhabung und dem Preis. Im Midrange-Bereich finden wir zwar die gleichen Kriterien, aber in der Gewichtung rangiert der Preis an erster Stelle. Ihm folgen die Handhabung, das Feature-Set sowie die Leistungsfähigkeit.

Können NAS-Systeme der Einstiegsklasse – also zum Beispiel mit zwei bis acht Festplatten – bereits zu einer Senkung der Betriebskosten beitragen? Oder geht es hier eher nur darum, einen PC-basierten Server beim Storage zu entlasten?

Angst: Diese so genannten Branch- oder Satellite-Lösungen machen nur Sinn, sofern eine zentrale NAS-Infrastruktur gegeben ist, zu welcher repliziert werden kann. Kompatibilitätsprobleme lassen sich vermeiden, indem ein Betriebssystem zentrale Faktoren wie Replikation, Backup etc. abdeckt. Für so genannte Standalone-Systeme ohne eine zentrale Infrastruktur sind derartige Einstiegslösungen nicht empfehlenswert. ROI und TCO können zum Beispiel im Vergleich zu Microsofts WSS/WUDSS-Systemen nicht mithalten, da diese Systeme bis zu 10 TByte oder höher skalieren können.

NAS-Systeme werden bei vielen Unternehmen eher als Sekundär-Speicher eingesetzt. Bei welchen Einsatzszenarien lässt es sich als Primär-Speicher verwenden? Und auf welche Punkte sollten IT-Administratoren bei der Auswahl eines NAS-Systems achten, wenn sie mit einem Einsatz als Primär-Speicher liebäugeln?

Angst: Viele Kunden deklarieren ihre kritischen Applikationen wie E-Mail oder Datenbanken als Primärapplikationen. Diese werden traditionell auf SAN-Speicher abgelegt. Der Trend geht jedoch immer mehr in Richtung NAS-Systeme. Diese sind einfacher zu implementieren, flexibler zu handhaben und kosteneffizienter, weil bestehende Infrastrukturen wie das vorhandene Ethernet verwendet werden kann.

Was sind aus Ihrer Sicht die strategischen Vorteile für ein NAS-System mit Windows-Betriebssystem, mit Linux-Betriebssystem oder mit einem vom NAS-Hersteller selbst geschriebenen NAS-Betriebssystem?

Angst: Proprietäre NAS-Systeme kommen vor allem in Großunternehmen zum Einsatz, da diese Lösungen wenig virenanfällig sind. Zudem skalieren sie besser, sind leistungsfähiger und effizienter. Der Mittelstand hat in den letzten Jahren massiv in proprietäre NAS-Systeme investiert, da die Hersteller nun auch Funktionen aus dem Enterprise-Bereich zu einem annehmbaren Preis in die Mittelklasse gebracht haben.

Bei Unternehmen im Enterprise-Segment liegen unstrukturierte Daten oftmals auf NAS-Systemen, die strukturierten Daten (Datenbanken, SAP-Systeme etc.) eher im SAN-Umfeld. Was sollten Ihrer Meinung nach IT-Administratoren bei solchen kombinierten SAN-NAS-Umgebungen beachten?

Angst: Administratoren sollten unbedingt und ausnahmslos verhindern, so genannte Insellösungen zu schaffen. Diese Silos sind nicht in der Lage zu skalieren. Der Management-Overhead für solche Systeme wächst zudem rapide an, was die Kosten in die Höhe treibt. Zentrale Systeme für SAN und NAS, in denen so genannte NAS-Gateways eingesetzt werden, ermöglichen eine größtmögliche Flexibilität und Skalierbarkeit. Ein weiterer wichtiger Punkt ist das Management-Framework, das eine zentrale Verwaltung von SAN und NAS ermöglichen sollte. Von Emulationen ist ebenfalls abzuraten: Lösungen, in denen etwa NAS-Systeme als Block-Devices genutzt werden, indem einzelne Dateien als iSCSI LUNs nach außen bereit gestellt werden, sind aus den bereits genannten Gründen nicht optimal.

Etablieren sich solche kombinierte SAN-NAS-Umgebungen im Enterprise-Segment als Trend? Oder ist es nur eine vorübergehende Erscheinung, um der aktuell überbordenden Datenflut Herr zu werden?

Angst: Unstrukturierte Daten verursachen etwa 80 Prozent des Datenwachstums im Enterprise-Umfeld, wohingegen strukturierte Daten wie Datenbanken kontrolliert wachsen. Analysten prognostizieren, dass das Datenvolumen auf Grund der unstrukturierten Daten weiter exponentiell zunehmen wird, und diese Daten werden auf NAS-Systemen gespeichert. Der Trend geht eindeutig in Richtung Gateways. Selbst im Mittelstand etablieren sich Begriffe wie »Unified Storage« oder »Multi Purpose Storage«.

Wenn NAS-Systeme in virtualisierte IT-Umgebungen integriert werden sollen, auf was sollten dann IT-Administratoren besonders achten?

Angst: 2010 ist Virtualisierung eines der Hauptthemen, sei es im SAN- oder NAS-Umfeld. Hintergrund ist der Schutz getätigter Investitionen. Nur wenige Hersteller unterstützen Systeme von Drittanbietern. Allerdings sollten Administratoren darauf achten, dass die entsprechenden Systeme für das jeweilige Umfeld zum Einsatz kommen: Viele Systeme scheitern etwa an der Skalierbarkeit. Außerdem sollten keine PC-Hardware-Systeme samt der zugehörigen Software genutzt werden, um Virtualisierungsarchitekturen zu schaffen – geschäftskritische Daten haben auf Home-Lösungen nichts zu suchen.

Anzeige