Andreas Bechter, Senior Regional Product Manager IMG (Information Management Group) EMEA, Symantec
Disk-Backup-Lösungen sind ideal für die tägliche Datensicherung geeignet, denn diese Backup-Architektur bietet wesentliche Geschwindigkeitsvorteile gegenüber Tape-Lösungen. Trotzdem sollten Administratoren eine kombinierte Lösung – also zuerst Disk, dann Tape-Laufwerk (D2D2T) – nicht außen vor allen; sie macht Sinn, wenn beispielsweise kostengünstige Langzeitspeicherung gefragt ist. Eine weitere ergänzende Technologie, mit der sich Administratoren wohl befassen müssen, ist Deduplizierung; sie passt aber nicht für alle Daten.
Wir sprachen mit Andreas Bechter, Senior Regional Product Manager IMG (Information Management Group) EMEA bei Symantec
Was treibt die Nachfrage nach Disk-Backup derzeit stärker: Das einfachere Handling der Backup-Daten oder eher die Möglichkeit, ein Recovery schneller und einfacher vorzunehmen?
Bechter: Hauptsächlich sind es die zusätzlichen Möglichkeiten, die das Medium Disk bietet. Als Random-Access-Device sind die Zugriffszeiten für die Wiederherstellung einer einzelnen Datei sehr kurz, da auf jeden Bereich der Disk rasch zugegriffen werden kann. Diese Eigenschaften in Verbindung mit dem über die Jahre gefallenen Preis für Festplatten ermöglichen erst neue intelligente Backup-Verfahren. Ein Beispiel dafür ist Deduplizierung, mit der sich Daten logisch verketten lassen, anstatt dieselbe Information immer wieder in neuen Kopien zu schreiben. Dies spart enorm viel Speicherplatz. Die Daten der Unternehmen wachsen ohnehin bereits rasant, da muss das Backup nicht noch zusätzliche Speicherplatz-Ressourcen verschwenden.
Welche Punkte sollten Unternehmen, vor allem KMUs beachten, wenn sie vor der Auswahl eines Disk-Backup-Systems stehen? Wie sieht ein typisches Szenario aus?
Bechter: Grundsätzlich steht am Anfang immer die Frage, welche Daten und Datentypen zu sichern sind. Schließlich hat jedes Unternehmen unterschiedliche Backup-Anforderungen. Die Wahl der Backup-Software sollte im Entscheidungsprozess erst dann erfolgen, wenn die Anforderungen definiert sind.
Natürlich gibt es auf dem Markt mehr als einen Backup-Anbieter, der Disk-basiertes Backup offeriert. Dadurch können sich Kunden mit der Auswahl gegebenenfalls überfordert fühlen. Dies ist jedoch nicht notwendig, denn mit der genauen Kenntnis der eigenen Anforderungen und des verfügbaren Budgets trennt sich schnell die Spreu vom Weizen. Die Erfahrung zeigt, dass flexibel erweiterbare Lösungen zwar in der Anschaffung meist etwas teurer sind, sich längerfristig jedoch als die beste Option erweisen indem das Unternehmen das individuell auf seine Bedürfnisse abgestimmte Backup Produkt erhält.
Was sind die Features, auf die Ihrer Meinung nach eher die Unternehmen im Enterprise-Segment bei Disk-Backup-Systemen Wert legen?
Bechter: Ein solches Feature ist vor allem die Hochverfügbarkeit mit redundanten Anbindungen, die über mehrere Backup-Systeme hinweg skalieren und eingebaute Fehlertoleranzen bieten. Im Enterprise-Segment ist besonders der unterbrechungsfreie, Rund-um-die-Uhr-Betrieb ein Hauptaugenmerk. Störungen, zum Beispiel durch Wartungsarbeiten, müssen im laufenden Betrieb ohne spürbare Unterbrechungen behoben werden können. Daneben wäre noch die Erweiterbarkeit im laufenden Betrieb zu nennen und eine möglichst lineare Skalierung der Performance. All diese Anforderungen erfordern Investitionen in leistungsfähigere Systeme, um Single-Points-of-Failure zu verhindern.
Hat sich Deduplizierung bereits als Standardfunktion in Disk-Backup-Systemen etabliert? Wie sehen Sie die Nachfrage nach dieser Funktion? Was sind die typischen Deduplizierungsraten, die sich in der Praxis erreichen lassen?
Bechter: De facto hat sich Deduplizierung im Markt etabliert. Bedingt durch das hohe Medieninteresse und die vielen Publikationen aller Hersteller ist die Nachfrage nach Deduplizierung als Funktion in der Backup-Software immens. Derzeit ist diese in der Backup-Software noch eine Option, die jedoch in Zukunft an Wichtigkeit gewinnen wird. Allerdings ist Deduplizierung kein Allheilmittel und wird andere Backup-Möglichkeiten nicht verdrängen,
Deduplizierung funktioniert wunderbar für 90 Prozent der Unternehmen. Es gibt aber eben auch Daten, die von Haus aus nicht deduplizierbar sind. Denken Sie zum Beispiel an das Digitalisieren von Büchern in Bibliotheken oder eine Firma, die per Luftaufnahmen Landschaften kartografiert.
Deduplikation ist aber längst einige Schritte weiter gegangen und optimiert die Datensicherung bis auf die Blockebene und für die Übertragung der Daten bereits ab dem Client. Statt die Daten nur im Einlagerungsort zu optimieren, hat sich der Mehrwert längst bis auf den Client ausgedehnt und ermöglicht beispielsweise schnellere Datenübertragungen bei geringeren Bandbreiten. Gerade diese neuen Möglichkeiten machen Deduplizierung so attraktiv, weil trotz wachsenden Datenmengen eben keine dedizierte Backup-Netzwerk-Infrastruktur angeschafft werden muss und 10-Gbit-Ethernet ab Client graduell eingeführt werden kann.
Die typische Deduplizierungsrate, die global für alle Kunden und Daten gilt, gibt es per se nicht. Herstellerangaben basieren meist auf vergleichbaren Merkmalen und Erfahrungen mit ähnlichen Kundendaten, hängen aber maßgeblich von den Faktoren wie Häufigkeit und Umfang der Änderungen ab. Wir haben aus diesem Grund ein Dedup-Assessment-Tool entwickelt, das die Kundendaten wie bei einem echten Backup verarbeitet. Dabei werden aber keine Daten übertragen, sondern nur die Statistikinformationen gesammelt. Somit bekommt der Kunde die Deduplikationswerte seiner Umgebung und kann auch reale Laufzeiten beobachten.
Viele Disk-Backup-Systeme emulieren zugleich eine Virtual-Tape-Libray (VTL). Wie stark wird dieses Feature nachgefragt? Eignet sich eine VTL mehr für KMUs oder eher für Enterprise-Umgebungen?
Bechter: Meiner Beobachtung zufolge sind die klassischen VTLs stark rückläufig. VTLs, die sich mittels Open-Storage an unsere Backup-Produkte anbinden lassen, sind deutlich länger im Einsatz. Grund hierfür ist die zusätzliche Kommunikation, die über die Open-Storage-Schnittstelle erfolgt. Dadurch können sich die VTL und die Backup-Software über die Verwaltung der Backup-Kopien austauschen.
Die reine VTL-Unterstützung wird inzwischen nur noch äußerst selten angefragt. Alle größeren VTL-Hersteller bieten heute die Open-Storage-Unterstützung an – meist jedoch als Zusatzmöglichkeit neben der nativen Disk-Device-Option mit Open-Storage-Unterstützung. Auch hier gilt, dass Geräte, die die Unterstützung beider Varianten ermöglichen, eine größere Flexibilität für kommende Anwendungsfälle bieten. Das ist zum Beispiel der Fall, wenn Daten noch auf physikalische Bänder ausgelagert werden sollen.
Für das längerfristige Backup sind aus ökonomischen Gründen nach wie vor Bandlaufwerke am besten geeignet. Offerieren Sie bei Ihren Lösungen eine automatisierte Datenmigration auf andere Speichermedien (ähnlich wie ILM)? Also eine Art D2D2T (Disk-to-Disk-to-Tape)?
Bechter: Sowohl »Backup Exec« als auch »NetBackup« verfügen über ein Disk-to-Disk-to-Tape-Konzept. Der Ansatz wird häufig benutzt, um die Backup-Daten über die Zeit zu »altern«, das heißt gemäß ihrer Zugriffswahrscheinlichkeit und relativen Wichtigkeit von teurem Online-Disk-Speicher auf die günstigeren Tapes zu verlagern. Um auf die aktuellsten Daten möglichst schnell zugreifen und diese wiederherstellen zu können, erfolgt hierbei der Restore vom Disk-Speicher. Nach einigen Tagen oder Wochen reicht es dann, den Restore vom etwas langsameren aber dafür kostengünstigeren Tape durchzuführen. Da manche Daten mit relativ geringen Durchsatzraten angeliefert werden, spielt das Disk-to-Disk-to-Tape seine volle Leistungsstärke bei der Sicherung großer Filesysteme mit Millionen Objekten aus.
Die Logik, die hinter der »automatisierten Datenmigration« steckt, ist bei Backup Exec ein Multistaging-Backup und wird über die Policys definiert. Bei Netbackup erfolgt dies über die Storage-Lifecycle-Policys, die zusätzliche Intelligenz mitbringen und einen hohen Grad an Automatisierung erlauben. Storage-Lifecycle-Policys legen ein Regelwerk fest, wie die Backup-Daten klassifiziert und behandelt werden sollen.
Unsere Lösungen unterstützen hierbei natürlich auch die Kombination mit Deduplizierung. So gibt es die Möglichkeit, die lokalen beziehungsweise im Netzwerk angeschlossenen Speicher in Deduplikations-Storage zu verwandeln. In Kombination mit Partnern kann aber auch eine Dedup-Appliances eingesetzt werden.
Was muss ein Anwender beachten, wenn er Disk-Backup-Systeme in virtualisierte IT-Umgebungen integriert?
Bechter: In jedem Fall, dass die virtualisierten Systeme dedupliziert gespeichert werden können. Dank der hohen Redundanz bieten gerade virtualisierte Systeme hohes Potenzial für die Optimierung beim Backup an. Zusätzlich gibt es aber noch ein Reihe anderer Aspekte: Eine optimale Backup-Lösung unterstützt physikalische wie virtuelle Systeme gleichermaßen und bietet eine breite Abdeckung an Plattformen und Betriebssystemen. Lösungen zur Servervirtualisierung werden heute von zahlreichen Herstellern angeboten und der Markt boomt mit ständig neuen Möglichkeiten und Erweiterungen. Die Unterstützung der Herstellerschnittstellen wie »vSphere« durch die Backup-Software ergibt sich daher von selbst. Vor diesem Hintergrund benötigen Backup-Administratoren vor allem Lösungen mit einer breiten Abdeckung an Möglichkeiten wie Disk, Tape, Dedup und granulare Wiederherstellung.
Mit welcher technischen Entwicklung dürfen IT-Leiter/Administratoren bei Disk-Backup und Deduplizierung in den kommenden zwei bis drei Jahren rechnen?
Bechter: Das ist keine leicht zu beantwortende Frage. Technische Neuerungen entwickeln sich inzwischen so rasant, dass es schwer ist, die Entwicklungen für die nächsten zwei bis drei Jahre abzuschätzen. Zudem ist der Markt heiß umkämpft und kein Hersteller möchte Konkurrenten frühzeitig auf Ideen bringen. Aus unserer Sicht wird die Wichtigkeit der Archivierung alter Daten in den nächsten Jahren zunehmen. Der Grund hierfür ist das stetige Datenwachstum in den Unternehmen. Auf Basis der aktuellen Cloud-Entwicklungen gehen wir zudem von neuen Lösungen auf dem Markt aus, mit denen Unternehmen die Datensicherung als Dienstleistung aus dem Netz konsumieren.