Anzeige

Im Interview: Netapp

Wenn es um unstrukturierte Daten geht, dann sind NAS-Systeme die erste Wahl. Denn auf NAS-Systemen läuft ein Filesystem. Und das ist der elementare Unterschied zwischen reinen Disksystemen, die nach wie vor erste Wahl für Performance-kritische Anwendungen sind. Administratoren sollten sich aber trotzdem darauf einstellen, dass zusehends die Unterscheidung zwischen Primär- und Sekundär-Speicher verwischt – Hybrid-Speicher oder Unified-Storage-Systeme finden ihren Platz im Rechenzentrum.Wir sprachen darüber mit Herbert Bild, Solutions Marketing Manager bei Netapp.

Was sind derzeit die Kriterien, wenn sich ein Unternehmen für ein NAS-System entscheidet?

 Herbert Bild
Herbert Bild
Bild: Im Vordergrund stehen Optimierung von Datenzugriff und Datensicherheit, vereinfachtes Datenmanagement, verbesserte Storage-Auslastung, Effizienz und die Reduzierung von Kosten und Komplexitäten. Aber auch die Zentralisierung und Konsolidierung des Storage sind nach wie vor Grund genug, klassische Fileserver durch NAS zu ersetzen.

NAS-Systeme werden bei vielen Unternehmen eher als Sekundär-Speicher eingesetzt. Bei welchen Einsatzszenarien lässt es sich als Primär-Speicher verwenden? Und auf welche Punkte sollten IT-Administratoren bei der Auswahl eines NAS-Systems achten, wenn sie mit einem Einsatz als Primär-Speicher liebäugeln?

Bild: Das würde ich so nicht sagen. Unstrukturierte Daten wie der Fileservice, aber auch zahlreiche Applikationen, die auf Shared-Storage angewiesen sind, wie zum Beispiel CAD, CAE oder technische Applikationen wie »ClearCase«, werden vorrangig über NAS bedient. Auch hat sich NAS als Primärspeicher für Datenbanken und virtuelle Umgebungen mit Anbindung über das sehr leistungsfähige NFS-Protokoll bewährt. IT-Administratoren sollten bei der Systemauswahl darauf achten, dass der Storage schnell und einfach skalierbar ist und Datenmanagement und Monitoringfunktionen integriert. Wünschenswert sind zeitgemäße Effizienzfeatures wie Deduplizierung, integrierte Datensicherheit über Snapshots und Replikation sowie Backup-Optionen.

Bei Unternehmen im Enterprise-Segment liegen unstrukturierte Daten oftmals auf NAS-Systemen, die strukturierten Daten (Datenbanken, SAP-Systeme etc.) eher im SAN-Umfeld. Was sollten Ihrer Meinung nach IT-Administratoren bei solchen kombinierten SAN-NAS-Umgebungen beachten?

Bild: Am sinnvollsten sind hier Unified-Storage-Architekturen, die sich aus einem Ressourcenpool bedienen. Leistungsfähigkeit, Skalierbarkeit und hohe Verfügbarkeit sowie zentrales, einfaches Management und Service-Sicherungsmethoden – so genannte Priorisierungsmechanismen – sollten vorhanden sein.

Etablieren sich solche kombinierten SAN-NAS-Umgebungen im Enterprise-Segment als Trend? Oder ist es nur eine vorübergehende Erscheinung, um der aktuell überbordenden Datenflut Herr zu werden?

Bild: Unified-Storage und Shared-Plattform-Architekturen liegen berechtigt im Trend, da ihre Leistungsfähigkeit höchsten Ansprüchen gerecht wird. Darüber hinaus führt das einheitliche Daten- und Systemmanagement dieser Lösungen zu einem vereinfachten, sichereren und effizienteren Betrieb, sodass sie auch in Zukunft Bestand haben werden.

Wenn NAS-Systeme in virtualisierte IT-Umgebungen integriert werden sollen, auf was sollten dann IT-Administratoren besonders achten?

Bild: Neben der allgemeinen Leistungsfähigkeit (IP, NFS) sollten die Systeme über Effizienzmechanismen verfügen, um die hohe Duplettendichte zu verringern. Die Virtualisierungsseite sollte mit Datenmanagement- und Disaster-Recovery-Methoden auf der Storage-Seite integriert sein, damit in den hoch konzentrierten Umgebungen Prozesse wie Provisionieren, Sichern oder Klonen automatisierbar sind.

Auf welche technologischen Entwicklungen sollten sich IT-Leiter/Administratoren bei NAS-Systemen in den kommenden zwei bis drei Jahren einstellen?

Bild: Scale-Out, also horizontale Skalierbarkeit, ist bei NAS-Lösungen im Kommen. Das bedeutet auch, dass Protokolle wie pNFS, NFSv4/4.1 und CIFS2.0/2.1 immer wichtiger werden. Hinzu kommen leistungsfähige SATA/SSD-Caching-Architekturen, 10-GbE und Mandantenfähigkeit. Bei der Datensicherheit wird es verstärkt um Integration gehen.

Anzeige