Anzeige

Im Interview: Fujitsu

Wenn es um unstrukturierte Daten geht, dann sind NAS-Systeme die erste Wahl. Denn auf NAS-Systemen läuft ein Filesystem. Und das ist der elementare Unterschied zwischen reinen Disksystemen, die nach wie vor erste Wahl für Performance-kritische Anwendungen sind. Administratoren sollten sich aber trotzdem darauf einstellen, dass zusehends die Unterscheidung zwischen Primär- und Sekundär-Speicher verwischt – Hybrid-Speicher oder Unified-Storage-Systeme finden ihren Platz im Rechenzentrum.Wir sprachen darüber mit Robert Guzek, Produkt Marketing Manager Eternus, Center of Excellence Storage & Network Solutions bei Fujitsu.

Was sind derzeit die Kriterien, wenn sich ein Unternehmen für ein NAS-System entscheidet?

Anzeige

 Robert Guzek
Robert Guzek
Guzek: File basierte Daten (keine Datenbanken), große Volumen unstrukturierter Daten, einfaches Handling (da mit logischen Bezügen gearbeitet wird) und die Daten stehen im gesamten Netzwerk zur Verfügung.

Können NAS-Systeme der Einstiegsklasse – also zum Beispiel mit zwei bis acht Festplatten – bereits zu einer Senkung der Betriebskosten beitragen? Oder geht es hier eher nur darum, einen PC-basierten Server beim Storage zu entlasten?

Guzek: Die Entlastung eines Servers, um ihn für andere Aufgaben frei zu machen, kann ein Grund sein. Darüber hinaus gibt es noch weitere Gründe wie: Backup, Security, Performance, Volumen, Flexibilität, Energie, Managability, Maintenance, Trennung der Daten vom Server für einfachere zukünftige Konsolidierungen etc.

NAS-Systeme werden bei vielen Unternehmen eher als Sekundär-Speicher eingesetzt. Bei welchen Einsatzszenarien lässt es sich als Primär-Speicher verwenden? Und auf welche Punkte sollten IT-Administratoren bei der Auswahl eines NAS-Systems achten, wenn sie mit einem Einsatz als Primär-Speicher liebäugeln?

Guzek: Oftmals wird angenommen, dass es bei NAS-Speicher um Speicher für weniger relevante Daten geht. Das ist natürlich nur bedingt richtig. Wenn der neue und teure Entwurf des Designers im TIF-Format auf einem NAS-Speicher verloren geht, ist das genau so schmerzhaft und kostspielig, als ginge er auf einem SAN-Device verloren. Network-Attached-Storage ist wesentlich breiter als hochverfügbarer Speicher im Einsatz, als üblicherweise angenommen wird. Um den Anforderungen einer erhöhten Sicherheit Rechnung zu tragen, bieten viele Systeme ein RAID-6 an. Zudem verschwinden zunehmend die Grenzen zu Consumer-Produkten, so dass NAS-Systeme hier einen neuen Markt hinzugewinnen.

Was sind aus Ihrer Sicht die strategischen Vorteile für ein NAS-System mit Windows-Betriebssystem, mit Linux-Betriebssystem oder mit einem vom NAS-Hersteller selbst geschriebenen NAS-Betriebssystem?

Guzek: Der wesentliche Unterschied liegt darin, dass die Filesysteme von NAS-Herstellern im Subsystem liegen und damit in der Regel eine deutlich höhere Performance erzielt wird, und dass die Verantwortung beim Hersteller liegt.

Bei Unternehmen im Enterprise-Segment liegen unstrukturierte Daten oftmals auf NAS-Systemen, die strukturierten Daten (Datenbanken, SAP-Systeme etc.) eher im SAN-Umfeld. Was sollten Ihrer Meinung nach IT-Administratoren bei solchen kombinierten SAN-NAS-Umgebungen beachten?

Guzek: Für Umgebungen mit beiden Welten muss klar sein, welche Daten wo am wirtschaftlichsten gelagert und bearbeitet werden. Dazu ist es erforderlich, seine Daten nach Eigenschaften zu gruppieren, bzw. zu strukturieren. Allem voran steht natürlich die richtig Wahl der Storage-Systeme. Die meisten Anwender haben weder für die eine noch für die andere Lösung hinreichend Daten. Für diese Gruppe sind Universalsysteme zu empfehlen. Seit geraumer Zeit gibt es Systeme, die zu erschwinglichen Preisen Speichersubsysteme für den Hybrideinsatz (Direct, SAN, NAS, iSCSI) anbieten.

Etablieren sich solche kombinierte SAN-NAS-Umgebungen im Enterprise-Segment als Trend? Oder ist es nur eine vorübergehende Erscheinung, um der aktuell überbordenden Datenflut Herr zu werden?

Guzek: Um der Datenflut Herr zu werden, werden reine NAS-Systeme zunehmend ausgebaut und vor allem für sehr große Volumen mit Filesystemen ausgestattet, die den Exabyte-Bereich erschließen. Im darunter liegenden Segment werden die am Markt befindlichen Systeme – gerne auch als »Unified Storage« bezeichnet – weiter wachsen. Im Entry-Bereich bleibt auch der serverbasierte Fileserver wirtschaftlich.

Wenn NAS-Systeme in virtualisierte IT-Umgebungen integriert werden sollen, auf was sollten dann IT-Administratoren besonders achten?

Guzek: Wenn es um Servervirtualisierung geht sind hier immer die anfallenden Hausaufgaben zu machen: Dimensionierung, Backup/Recovery, Betrieb, Überwachung und Service. Darüber hinaus sind NAS-Systeme eher die einfache Speicherarchitektur, da sie ohnehin mit logischen Vermittlern wie NTFS und CIFS arbeitet. Hier spielt es keine Rolle, welche physikalische Ressource tatsächlich dahinter steckt. Das ist bereits eine vorteilhafte Virtualisierungsebene. Restriktionen wie Bandbreiten, Volumina, Verfügbarkeit etc. waren und bleiben bestimmend für den Betrieb.

Auf welche technologischen Entwicklungen sollten sich IT-Leiter/Administratoren bei NAS-Systemen in den kommenden zwei bis drei Jahren einstellen?

Guzek: Im Laufe der Jahre sind wesentliche Komponenten außerhalb der eigentlichen Systeme hinzugekommen. Es sind zunächst die käuflichen Services, Volumina und Abläufe, die den IT-Leiter interessieren müssen. Unter Kosten-Nutzen-Aspekten kann die Auslagerung wenig frequentierter Daten zu einem Dienstleister sehr wirtschaftlich sein. In den kommenden NAS-Systemen sind Scale-out-Systeme zu erwarten, dieses bedeutet Skalierbarkeit in Volumina und Performance.

Anzeige