Anzeige

Im Interview: SNIA

Wenn es um unstrukturierte Daten geht, dann sind NAS-Systeme die erste Wahl. Denn auf NAS-Systemen läuft ein Filesystem. Und das ist der elementare Unterschied zwischen reinen Disksystemen, die nach wie vor erste Wahl für Performance-kritische Anwendungen sind. Administratoren sollten sich aber trotzdem darauf einstellen, dass zusehends die Unterscheidung zwischen Primär- und Sekundär-Speicher verwischt – Hybrid-Speicher oder Unified-Storage-Systeme finden ihren Platz im Rechenzentrum.Wir sprachen darüber mit Alex McDonald, SNIA ESF NSF SIG Co-Chairman und Netapp-Manager.*

Was sind derzeit die Kriterien, wenn sich ein Unternehmen für ein NAS-System entscheidet?

Anzeige

 Alex McDonald
Alex McDonald
McDonald: NAS-Systeme sind für eine Reihe von Anwendungsszenarien gut geeignet. Dazu gehören Home-Directories ebenso wie virtuelle Desktopinfrastruktur, Datenbanken und Geschäftsapplikationen. NAS-Systeme eigen sich aber auch zum Beispiel für das Speichern riesiger Mengen an seismischen Daten. Sie bieten das Windows-CIFS-Protokoll (SMB) oder NFS oder beides und skalieren von einigen wenigen Festplatten bis hin zu einigen PByte an Speicherplatz. Kunden geht es darum, wie gut die Systeme zu ihren Geschäftsanforderungen passen, in Hinblick auf Speicherkapazität, Geschwindigkeit, Preis, Zuverlässigkeit und Verfügbarkeit. Angesichts der global angespannten wirtschaftlichen Situation spielt der »Return on Investment«, also der unmittelbare wirtschaftliche Nutzen, oft eine große Rolle, und der muss messbar sein. Am besten über Kenngrößen wie die Kosten pro TByte, Preis pro Geschwindigkeitseinheit, die Erweiterungsmöglichkeiten oder die Kosten, die das Management des Systems verursacht. Weil NAS-Systeme hier hervorragend abschneiden, haben sie gerade in diesen wirtschaftlich schwierigen Zeiten Marktanteile gewonnen. Ins Gewicht fällt hier die starke Standardisierung bei NAS-Systemen, zum Beispiel in der Unterstützung der gängigen NAS-Interfaces oder auch dass NAS-Systeme mittlerweile in so ziemlich jedes Rack passen.

Können NAS-Systeme der Einstiegsklasse – also zum Beispiel mit zwei bis acht Festplatten – bereits zu einer Senkung der Betriebskosten beitragen? Oder geht es hier eher nur darum, einen PC-basierten Server beim Storage zu entlasten?

McDonald: Beides trifft zu. NAS-Einsteigersysteme dienen der Kostensenkung und bieten im Vergleich zu PC-basierten Servern bessere Systemleistung, einfacheres Management und höhere Datensicherheit. Aber den echten Unterschied machen Zusatzfunktionalitäten wie Snapshots oder Kompressionsmechanismen. Eine PC-basierte Lösung bietet keine – oder keine praxisnahen – Alternativen.

NAS-Systeme werden bei vielen Unternehmen eher als Sekundär-Speicher eingesetzt. Bei welchen Einsatzszenarien lässt es sich als Primär-Speicher verwenden? Und auf welche Punkte sollten IT-Administratoren bei der Auswahl eines NAS-Systems achten, wenn sie mit einem Einsatz als Primär-Speicher liebäugeln?

McDonald: In vielen Einsatzszenarien sind NAS-Systeme im Allgemeinen und NFS-fähige im Speziellen sehr gut als Primärspeicher für Datenbanken, virtuelle Desktop-Infrastrukturen und Web-2.0-Anwendungen geeignet. Häufig sind Implementierung und Management einfacher und die Kosten geringer als für ein SAN. IT-Administratoren sollten bei der Beschaffung von NAS-Systemen die gleichen Entscheidungskriterien zugrunde legen wie auch bei der Beschaffung von SAN-Systemen: Ist es schnell genug? Schützt es meine Daten in angemessener Weise? Kann ich es hinreichend erweitern, wenn meine Daten wachsen? Und unterstützt der Hersteller der Applikation den Einsatz von NAS-Speichersystemen?

Was sind aus Ihrer Sicht die strategischen Vorteile für ein NAS-System mit Windows-Betriebssystem, mit Linux-Betriebssystem oder mit einem vom NAS-Hersteller selbst geschriebenen NAS-Betriebssystem?

McDonald: Aus Anwendersicht spricht wenig für oder gegen ein freies beziehungsweise proprietäres Betriebssystem. Entscheidend sind die darauf aufsetzenden Storage-Funktionalitäten. Snapshots auf File-Ebene, Deduplizierung, Datenkomprimierung, Clustering, ein großer Namespace, Unterstützung von Protokollen wie NFS und CIFS, Sicherheit und Caching sind die wichtigen Stichworte. Sie beeinflussen die Kaufentscheidung weit mehr als das oft transparent erscheinende Betriebssystem.

Bei Unternehmen im Enterprise-Segment liegen unstrukturierte Daten oftmals auf NAS-Systemen, die strukturierten Daten (Datenbanken, SAP-Systeme etc.) eher im SAN-Umfeld. Was sollten Ihrer Meinung nach IT-Administratoren bei solchen kombinierten SAN-NAS-Umgebungen beachten?

McDonald: Wenn man sowohl SAN als auch NAS einsetzen möchte, sollte man über Monitoring- und Management-Software verfügen, die ein konsistentes Bild der gesamten Speicherlandschaft bereitstellen kann. So erspart man sich ausufernde Kosten für das Speichermanagement. Wichtig ist es auch darauf zu achten, dass Backup/Restores für gleichartige Datenklassen in gleicher Weise durchgeführt werden, unabhängig davon, ob die Daten auf NAS- oder SAN-Systemen gespeichert sind.

Etablieren sich solche kombinierte SAN-NAS-Umgebungen im Enterprise-Segment als Trend? Oder ist es nur eine vorübergehende Erscheinung, um der aktuell überbordenden Datenflut Herr zu werden?

McDonald: Ohne Zweifel gehört kombinierten NAS/SAN-Infrastrukturen die Zukunft. Sie bieten viel mehr Flexibilität und setzen dem aufwändigen Netzwerk-Parallelbetrieb ein Ende. Die Plattenkapazitäten können viel besser genutzt werden, wenn SAN- und NAS-Zugriff in einem System verwirklich sind und somit auf einen gemeinsamen Plattenpool zugegriffen wird. Auch die Performance von solchen kombinierten Systemen ist heute kein Problem mehr. Da beim kombinierten Einsatz dem System mehr Festplattenspindeln zur Verfügung stehen, kann unter Umständen sogar eine höhere Geschwindigkeit als bei einem SAN-System erreicht werden. Die Zeit der unflexiblen Storage-Silos ist vorbei.

Wenn NAS-Systeme in virtualisierte IT-Umgebungen integriert werden sollen, auf was sollten dann IT-Administratoren besonders achten?

McDonald: Allgemein gilt: Auf Grund des integrierten Filesystems weisen NAS-Lösungen im Vergleich zu SAN einen höheren Virtualisierungsgrad auf. Flexibilität und Anwenderfreundlichkeit in virtualisierten Umgebungen profitieren davon. Aber der tatsächliche Integrationsaufwand bzw. lösungsspezifische Stolperstellen hängen von der Installation im Einzelfall ab. Wichtigste Maßnahme ist, dass sich IT-Administratoren streng an die Best-Practice-Vorgaben der Storage- und Hypervisor-Hersteller halten, um Risiken in diesem Umfeld zu minimieren.

Auf welche technologischen Entwicklungen sollten sich IT-Leiter/Administratoren bei NAS-Systemen in den kommenden zwei bis drei Jahren einstellen?

McDonald: Den stärksten Einfluss auf die Weiterentwicklung der NAS-Technologie werden die Trends zu noch mehr Virtualisierung und noch deutlich stärkerer Skalierbarkeit haben. Auch in Sachen Anschlusstechnik tut sich einiges: 10-GbE wird immer günstiger und ist bis hinunter zu den Client-Motherboards verfügbar. Gepaart mit Link-Aggregation für vier 10-GbE-Ports ermöglicht das Übertragungsraten von bis zu 5 GByte/s. 40-GbE-Switches und Storage-Systeme mit NFSv4.1 inklusive pNFS sorgen für bisher ungeahnte Skalierbarkeit. Auf dieser Technologiestufe werden Funktionalitäten wie die Kommunikationsmanagementstruktur nativ in Filesystem-Informationen eingebettet. Dazu gehört die Überwachung des Dateistatus und die Speicherung von Metadaten-Attributen. Und Funktionalitäten wie Snapshots, Datenreplikation und Deduplizierung integrieren sich viel besser als heute mit virtuellen Servern. Fazit: Diese Entwicklungen machen NAS zu einer außerordentlich guten Basis für die Cloud und virtualisierte Serverumgebungen.


* Interview-Antworten erfolgten unter Mitwirkung der SNIA Ethernet Storage Forum NFS Special Interest Group (Don Grabski, NFS SIG Co-Chair, Panasas; Dave Dale, Chair of ESF, Netapp) sowie Marcus Schneider, Director Product Segment Data Protection, Fujitsu.

Anzeige