Hans Schramm, Field Product Manager Enterprise, Dell
Disk-Backup-Lösungen sind ideal für die tägliche Datensicherung geeignet, denn diese Backup-Architektur bietet wesentliche Geschwindigkeitsvorteile gegenüber Tape-Lösungen. Trotzdem sollten Administratoren eine kombinierte Lösung – also zuerst Disk, dann Tape-Laufwerk (D2D2T) – nicht außen vor lassen; sie macht Sinn, wenn beispielsweise kostengünstige Langzeitspeicherung gefragt ist. Eine weitere ergänzende Technologie, mit der sich Administratoren wohl befassen müssen, ist Deduplizierung; sie passt aber nicht für alle Daten.
Wir sprachen mit Hans Schramm, Field Product Manager Enterprise beim Computerunternehmen Dell
Was treibt die Nachfrage nach Disk-Backup derzeit stärker: Das einfachere Handling der Backup-Daten oder eher die Möglichkeit, ein Recovery schneller und einfacher vorzunehmen?
Schramm: Das ist abhängig von den jeweiligen SLAs der Firma. Ist es für ein Unternehmen wichtig, im Ernstfall sehr schnell wieder »einsatzbereit« zu sein, so ist eine schnelle Rückführung der Daten ein Muss. Trifft dies auf ein Unternehmen nicht zu, so kommt ein einfaches Handling der Daten eher in Frage. Ein klarer Vorteil in beiden Fällen ist die Möglichkeit, schnell und sicher einzelne Files zurückzusichern. Es muss ja nicht immer gleich der komplette IT-Datenbestand verloren gehen, oft haben einzelne Anwender kleine, aber wichtige Daten »verloren« und diese müssen schnell wiederhergestellt werden.
Welche Punkte sollten Unternehmen, vor allem KMUs beachten, wenn sie vor der Auswahl eines Disk-Backup-Systems stehen? Wie sieht ein typisches Szenario aus?
Schramm: Wichtig ist, dass die Lösung Flexibilität bietet, das heißt, man muss das Datenwachstum bei der Wahl der Arrays mit einkalkulieren. Speziell bei KMUs müssen B2D-Systeme schnell und ohne Aufwand erweitert werden können. Natürlich müssen die Arrays auch mit der jeweils verwendeten Backup-Software harmonieren, was bei Markenprodukten in der Regel aber der Fall ist. Speziell für KMUs bieten wir beispielsweise komplett vorgefertigte Backup-Systeme wie die »PowerVault DL2100« an, das heißt, Server und Storage-Lösungen, auf denen die Backup-Software schon vorinstalliert ist.
Was sind die Features, auf die Ihrer Meinung nach eher die Unternehmen im Enterprise-Segment bei Disk-Backup-Systemen Wert legen?
Schramm: Vor allem auf die nahtlose Integration in virtuelle Umgebungen, wobei das heute für alle Unternehmen gelten sollte. Damit meinen wir ein möglichst einfaches Handling in Bezug auf virtuelle und physikalische Server sowie die Integration von speziellen Verfahren, die das Sichern heute flexibel und einfach gestalten – wie zum Beispiel die jeweiligen Snap-Technologien.
Hat sich Deduplizierung bereits als Standardfunktion in Disk-Backup-Systemen etabliert? Wie sehen Sie die Nachfrage nach dieser Funktion? Was sind die typischen Deduplizierungsraten, die sich in der Praxis erreichen lassen?
Schramm: In Bezug auf Deduplizierung dürfte noch etwas an »Missionarstätigkeit« zu leisten sein. Die Nachfrage und das Interesse sind recht groß, die Zahl der Kunden, die Deduplizierung konkret einsetzen, ist jedoch noch nicht so hoch. Betrachtet man eine wirklich effektive Deduplizierung, so sind einige Dinge zu beachten: zum Beispiel die Art (File-Level, Block-Level oder Subblock-Level) und der »Ort« (auf dem Media-Server oder bereits auf der Applikationsseite). Oder auch, ob es sich um eine Software-Lösung innerhalb der Backup-Software oder um ein eigenes Deduplizierungs-Target handelt, also ein Gerät, das dedupliziert und gleichzeitig auch das Speicher-Array ist, was im Hinblick auf die Installation eine einfache und effektive Lösung darstellt. Die Deduplizierungsrate kann unterschiedlich sein, Spezialisten betonen, dass Werte von 10-fach bis 15-fach »immer drin sind«. Geht man davon aus, dass ein Kunde mehrere zeitlich unterschiedliche Backups auf dem System vorhalten will, so gehen die Raten dann sehr schnell in den hohen zweistelligen Bereich, was dann noch erheblich effektiver ist.
Viele Disk-Backup-Systeme emulieren zugleich eine Virtual-Tape-Library (VTL). Wie stark wird dieses Feature nachgefragt? Eignet sich eine VTL mehr für KMUs oder eher für Enterprise-Umgebungen?
Schramm: Das ist schwer zu sagen und auch abhängig von der Backup-Software. Die Software sieht nach wie vor die gewohnte Library, speichert aber auf einem schnellen und flexiblen Array. Das ist wichtig für Kunden, die keine Änderungen an einer vorhandenen Backup-Software vornehmen wollen.
Für das längerfristige Backup sind aus ökonomischen Gründen nach wie vor Bandlaufwerke am besten geeignet. Offerieren Sie bei Ihren Lösungen eine automatisierte Datenmigration auf andere Speichermedien (ähnlich wie ILM)? Also eine Art D2D2T (Disk-to-Disk-to-Tape)?
Schramm: Ja, so schön B2D-Systeme auch sind, der Datenbestand muss auf jeden Fall an einem anderen Platz aufbewahrt werden als das Original, ansonsten ist es kein Backup. Um das zu gewährleisten, bleibt nur die Spiegelung des Arrays auf einen anderen Platz oder ein B2D2T. Allerdings werden hier sehr oft die Themen Backup und Archivierung miteinander vermischt.
Was muss ein Anwender beachten, wenn er Disk-Backup-Systeme in virtualisierte IT-Umgebungen integriert?
Schramm: Wie zu Beginn erwähnt, muss die Integration lückenlos gewährleistet sein und das Storage-System muss alle Eigenschaften und Funktionen des Virtualisierungs-Layers erfüllen. Unsere Systeme beinhalten standardmäßig eine große Anzahl von Tools und Hilfsprogrammen, die einem IT-Administrator das Leben in virtuellen Umgebungen erleichtern. Außerdem basieren unsere Equallogic-Systeme auf Ethernet, also die gleiche Technologie, die bei den Servern zur Anwendung kommt. Hilfreich können natürlich auch Dienstleistungsangebote sein, die dem Kunden bei den unterschiedlichsten Belangen »unter die Arme« greifen.
Mit welcher technischen Entwicklung dürfen IT-Leiter/Administratoren bei Disk-Backup und Deduplizierung in den kommenden zwei bis drei Jahren rechnen?
Schramm: Es werden immer mehr Automatismen greifen, Deduplizierung ist momentan quasi eine Lösung in Form von Hardware oder Software oder beidem. Zukünftig könnte man sich Deduplizierungs-Funktionen auch in Filesystemen oder Betriebssystemen vorstellen. Ein anderer »Automatismus« kann aber auch ein automatisiertes Storage-Tiering sein, bei dem die Daten abhängig von ihrer »Wichtigkeit« automatisch auf geeignete Laufwerke gelegt werden. »Wichtige« Daten auf schnelle Platten, weniger wichtige Daten auf eher langsame Platten.