Robert Guzek, Produkt Marketing Manager Eternus, Center of Excellence Storage & Network Solutions, Fujitsu
Disk-Backup-Lösungen sind ideal für die tägliche Datensicherung geeignet, denn diese Backup-Architektur bietet wesentliche Geschwindigkeitsvorteile gegenüber Tape-Lösungen. Trotzdem sollten Administratoren eine kombinierte Lösung – also zuerst Disk, dann Tape-Laufwerk (D2D2T) – nicht außen vor lassen; sie macht Sinn, wenn beispielsweise kostengünstige Langzeitspeicherung gefragt ist. Eine weitere ergänzende Technologie, mit der sich Administratoren wohl befassen müssen, ist Deduplizierung; sie passt aber nicht für alle Daten.
Wir sprachen mit Robert Guzek, Produkt Marketing Manager Eternus, Center of Excellence Storage & Network Solutions bei Fujitsu Technology Solutions
Was treibt die Nachfrage nach Disk-Backup derzeit stärker: Das einfachere Handling der Backup-Date oder eher die Möglichkeit, ein Recovery schneller und einfacher vorzunehmen?
Guzek: Oft wird argumentiert, dass ein Recovery von Disk schneller ist. Dies ist aber nur bedingt richtig; historisch gesehen sind Disk-Librarys entstanden, um die Lücke zu den zu schnell gewordenen LTO-Laufwerken zu schließen und den damit verbundenen Start/Stop-Betrieb zu verhindern. Die Frage ist, für welche Kunden ist ein Disk-Backup sinnvoll und wirtschaftlich. In vielen Fällen stellt Tape immer noch die günstigere Alternative dar. Fakt ist: Deduplizierung erweitert den Bereich, wo ein Disk-Backup wirtschaftlich sinnvoll werden kann. Berücksichtigen sollte der Anwender, dass Disk-Librarys ohne Deduplizierung einen erhöhten Hardwarebedarf und Mehrkosten besitzen. Viele Kunden sehen einen Mehrwert im einfachen Handling und in der Schnelligkeit einzelne Dateien wiederherzustellen.
Welche Punkte sollten Unternehmen, vor allem KMUs beachten, wenn sie vor der Auswahl eines Disk-Backup-Systems stehen? Wie sieht ein typisches Szenario aus?
Guzek: Die Kunden sollten ihre Anforderungen und Datenzusammensetzung kennen, in der Regel lassen sich die nachfolgenden Herausforderungen ableiten. Das prozentuale Wachstum der Primärdaten ist rasant, die Balance zwischen Aufbewahrungsrichtlinien und Kosten sollte stimmen, die Backup-Methode (sie kann ein Vielfaches der Online Daten verursachen) ist zu beachten und das Backup-Fenster ist bedeutend (mehr und mehr Daten müssen im gleichen Zeitraum gesichert werden). Außerdem sind SLAs für Wiederherstellungspunkt und -zeit (RPO/RTO) zu beachten, denn es geht um möglichst viele und auch weit zurückliegende Wiederherstellungspunkte (RPO) und möglichst rasche Wiederherstellung (RTO). Wenn es um Datensicherungskonzepte für Filialen geht, müssen eine eingeschränkte Bandbreite und die Sicherheit berücksichtigt werden.
Was sind die Features, auf die Ihrer Meinung nach eher die Unternehmen im Enterprise-Segment bei Disk-Backup-Systemen Wert legen?
Guzek: Im Enterprise-Bereich sind Disk Backup nur additiv sinnvoll. Natürlich können alle Tapes durch Disks ersetzen werden. Dies beansprucht jedoch viel Platz und erhöht den Energieverbrauch, sowie die erforderliche Kühlung. Im Enterprise-Bereich ist ein VTL wie zum Beispiel »ETERNUS CS 1000-5000« mit Tape eine höchst sinnvolle Alternative, wenn Disk zum Einsatz kommen soll. Klassische Anforderungen des Enterprise-Bereiches sind, Zuverlässigkeit, Servicefreundlichkeit, Skalierbarkeit und Wirtschaftlichkeit.
Hat sich Deduplizierung bereits als Standardfunktion in Disk-Backup-Systemen etabliert? Wie sehen Sie die Nachfrage nach dieser Funktion? Was sind die typischen Deduplizierungsraten, die sich in der Praxis erreichen lassen?
Guzek: Deduplizierung senkt den Bedarf an Festplattenkapazität. Bei herkömmlichen Backups auf Disk sind die Speicherkapazitäten rasch ausgeschöpft. Ältere Daten müssen in einem solchen Fall migriert oder gelöscht werden, alternativ müsste die Hardware erweitert werden und es würden zusätzliche Kosten entstehen.
Unsere »ETERNUS CS800«-Data-Protection-Appliance beispielsweise ist speziell als Disk-Backup-Lösung konzipiert, um gleichzeitig innovative Deduplizierungstechnologie sowohl kostengünstig als auch sehr einfach einsetzen zu können. Mit Deduplizierung ersetzt die CS800 redundante Datenblöcke in den Backup-Datensätzen durch Verweise, um den Bedarf an Festplattenkapazität zu senken.
Bei den Deduplikationsfaktoren muss zwischen dem ersten Backup und einem langfristigen Mittelwert unterschieden werden. Ein Deduplikationswert für das erste Backup kann durchaus zwischen 2:1 bis 4:1 liegen, ein langfristiger Mittelwert für die CS800 liegt bei 10:1, der aber datenabhängig ist; bei Datenbanken können durchaus höhere Werte bis zu 25:1 erzielt werden. Ab einen Depuplikationsfaktor von 10:1 liegen die Disk-Einsparungen im prozentualen Bereich.
Letztendlich entscheidend für den Deduplikationsfaktor ist die Datenzusammensetzung. Neben dem Deduplikationsfaktor beim Backup, wird bei der CS800 gleichfalls der typische Bedarf an Bandbreite für die Replikation über das Unternehmensnetzwerk um mehr als den Faktor 20 gesenkt.
Für das längerfristige Backup sind aus ökonomischen Gründen nach wie vor Bandlaufwerke am besten geeignet. Offerieren Sie bei Ihren Lösungen eine automatisierte Datenmigration auf andere Speichermedien (ähnlich wie ILM)? Also eine Art D2D2T (Disk-to-Disk-to-Tape)?
Guzek: Ja, mit der Eternus-CS-Familie. Diese stellt eine Dual-Target-Speicherlösung dar, es erfolgt eine Automatisierung der Sicherungsdaten auf unterschiedlichste Speichermedien, wie zum Beispiel Festplatten und/oder Tapes.
Die Eternus CS erfüllt die Anforderungen von ILM (Information-Lifecycle-Management) und flexibilisiert unterschiedliche Service-Leve-Agreements (SLA). Die Systeme bieten FC-, NAS- und Mainframe-Konnektivität und somit eine hervorragende Anschlussvielfalt. Die übergreifenden Einsatzmöglichkeiten von ILM werden ebenfalls ausgespielt und ermöglichen eine nachhaltige Senkung der Hardware- und Betriebskosten. Durchsatz und Kapazität sind durch die verwendete Grid-Architektur preiswert und flexibel ohne Betriebsunterbrechung erweiterbar. Es werden gängige Backup-Anwendungen und auch Deduplikationen unterstützt. Eternus CS gibt es für alle drei Marktsegmente: Entry, Midmarket und dem Enterprise-Bereich. Das gesicherte Datenvolumen übersteigt 260 PByte.
Was muss ein Anwender beachten, wenn er Disk-Backup-Systeme in virtualisierte IT-Umgebungen integriert?
Guzek: Die Datensicherung für virtuelle Umgebungen stellt eine besondere Herausforderung dar, weil die Größe des Backup-Volumens aufgrund der vielen virtuellen Betriebssysteme und redundanten Anwendungsdaten besonders ansteigt. Die CS800 reduziert mit Datendeduplizierung den Bedarf an Festplattenspeicher für das Backup von virtuellen Umgebungen erheblich – typisch sind Einsparungen bis zu 95 Prozent.
Mit welcher technischen Entwicklung dürfen IT-Leiter/Administratoren bei Disk-Backup und Deduplizierung in den kommenden zwei bis drei Jahren rechnen?
Guzek: Zu erwarten sind weiter Bandbreitenerhöhung und Kapazitätserhöhung, übergreifende Lösungen von Source (Quelle) und Target (Ziel): S2T-Deduplizierung. Darunter wäre zu verstehen: Mit der Deduplizierung am Primär-Storage zu beginnen und die Dedup-Vorteile bei der Übertragung zu den Sekundär-Storage zu bewahren, inklusive eines Backups. Ein einmaliger Deduplizierungsaufwand würde dann zu mehrfachem Nutzen führen. Weiter ist eine verstärkte Umsetzung von Datensicherung in Cloud-Landschaften mit Unterstützung von Deduplizierung zu erwarten.