Robert Hasenstab, Product Marketing Manager, Netapp
Disk-Backup hat mittlerweile Bandmedien im Bereich der Datensicherung in vielen Umgebungen abgelöst. Administratoren schätzen die Verfügbarkeit, Skalierbarkeit, Flexibilität und Funktionalitäten, die ihnen damit zur Verfügung stehen. Zu den wichtigsten Funktionen der letzten Jahre gehören Deduplizierung, Continuous-Data-Protection und synchrone Replikation. Diese sollen die immer wieder auftretenden Probleme wie Datenwildwuchs und zu kleine Backup-Fenster beheben sowie zuverlässige Desaster-Recovery-Strategien garantieren. Ein gutes Backup ist letztlich die Grundvoraussetzung für ein erfolgreiches Restore.
Wir sprachen dazu mit Robert Hasenstab, Product Marketing Manager bei Netapp.
Backups sind der strategisch lebenswichtige Punkt für Unternehmensdaten. Welche Probleme hat der Anwender heute im Backup-Umfeld?
Hasenstab: Verschiedene Primärspeicher-Plattformen erfordern unterschiedliche Backup-Szenarien, so dass meist auch verschiedene Backup-Software-Lösungen genutzt werden. Unübersichtlichkeit ist damit vorprogrammiert. Darüber hinaus kann der fürs Backup zuständige Administrator generell nicht sicher sein, ob sein Backup auch wirklich funktioniert hat und ob die Zeitfenster reichen. Ebenso ist nicht gewiss, ob sich mittelfristige bis langfristige Backup-Strategien wie Tape, Disk, VTL oder Spiegelung als wirklich kosteneffizient erweisen. Fraglich ist zudem, ob das Recovery funktioniert und ob die Tapes noch unbeschädigt sind.
Wie bewältigt er diese Schwierigkeiten?
Hasenstab: Backup-Administratoren sollten die »Ist«-Situation mit immer wieder aktualisierten »Soll«-Zuständen vor dem Hintergrund Kosten, Investitionen und Arbeitsaufwand beleuchten. Informationsveranstaltungen von Herstellern, Hilfe von Beratern und Backupspezialisten können da helfen. Die eigene Fortbildung ist essentiell. Probleme im Backup-Umfeld sind zudem mit sauberen Katastrophen-Fall-Strategien (K-Fall) zu betrachten.
Welche Funktionen muss ein Backup auf jeden Fall umfassen?
Hasenstab: Backups müssen grundsätzlich stabil, sicher, schnell, einfach und gegebenenfalls auch komprimierbar und deduplizierbar sein. In erster Linie müssen sie an die individuellen Anforderungen des jeweiligen Unternehmens angepasst sein. Auf proprietäre Protokolle und Insellösungen sollte soweit wie möglich verzichtet werden. Compliance-Gesichtspunkte sind zudem zu beachten. Unter Umständen kann es sinnvoll sein, Backups zu verschlüsseln, wie es beispielsweise mit unserem »Datafort« –auch in Verbindung mit VTL-Systemen – möglich ist.
Welche Vorteile hat eine CDP-Sicherung und in welchen Einsatzszenarien ist dieses Verfahren unerlässlich?
Hasenstab: Für manche Anwendungen reicht es nicht aus, die Daten nur einmal täglich zu sichern. CDP-Sicherungen erfordern zwar einen erheblichen Aufwand und sind für Privatanwender sowie viele Firmen nicht unbedingt praktikabel. Bei Flugbuchungssystemen beispielsweise sind CDP-Sicherungen unabdingbar, um Daten im K-Fall lückenlos wiederherstellen zu können. Ideal wäre es in solchen Szenarien, wenn jede Datei unmittelbar nach jeder Änderung gesichert und alle »Schnappschüsse« aufbewahrt würden.
VTL und Deduplizierung gehen oft einher. Ab wann sollte eine solche Backup-Lösung eingesetzt werden?
Hasenstab: Eine VTL bietet sich an, wenn Tape-Umgebungen vorhanden sind und weiterhin genutzt werden sollen. Restore- und Backupzeiten lassen sich dann signifikant verbessern. Deduplizierung sollte in einer VTL nicht zwingend für alle Backup-Jobs verwendet werden, sondern gezielt dort, wo großes Einsparpotenzial besteht, zum Beispiel bei »Oracle«- und »SAP«-Datenbanken. Im »Tivoli Storage Manager« (TSM)-Umfeld ist eine umfassende Deduplizierung auf Grund der Eigenheiten der Backup-Software weniger sinnvoll als beispielsweise in Backup-Umgebungen mit »NetBackup« oder BakBone.
Was muss der Anwender beachten, wenn er virtualisierte Serverumgebungen ins Backup integriert?
Hasenstab: Die Herausforderungen beim Backup von virtualisierten Umgebungen werden oftmals unterschätzt. Häufig wird noch ein traditionelles Backup mit Backup-Agenten in virtuellen Maschinen geplant. Schnell treten dann aber Probleme bei der Auslastung der Server auf, da zeitgleich mehrere Agenten auf einem physischen System laufen müssen. Auch bei der Einhaltung der Backup-Fenster kann es zu Schwierigkeiten kommen. Snapshot-Technologien, die funktionale zeitpunktbezogene Datenkopien erstellen, schaffen hier Abhilfe, denn Daten können so fast ohne Performance-Verlust und bei nur minimaler Speicherbelegung gesichert werden. Mit unserem »SnapManager« für virtuelle Infrastrukturen können Backups zudem automatisiert werden. Diese Lösung ermöglicht außerdem die konsistente Replikation virtueller Maschinen, z.B. auf Sekundärstorage in einem Disaster-Recovery-Rechenzentrum.
Welche Rolle spielen Bandmedien noch beim Backup? Ist hier der Paradigmenwechsel abgeschlossen und das Band in den Archivbereich verbannt?
Hasenstab: Sicherlich nicht. Tapes haben nach wie vor ihren festen Platz beim Backup. Neue Standards wie LTO-4 unterstreichen dies. Es gibt immer noch viele Unternehmen, die zum Beispiel aus rechtlichen Gründen gezwungen sind, ihre Backups auf Bändern zu sichern, um sie dann revisionssicher auslagern zu können.
Gibt es einen Trend im Backup-Umfeld?
Hasenstab: Das Thema VTL ist ganz klar ein Trend, denn gerade in Verbindung mit Deduplizierung bieten VTLs enorme Kosteneinsparpotenziale. Schnelle Restore- und Backup-Zeiten sind zudem starke Argumente. Dass VTLs jedoch pauschal die optimale Lösung für jedes Unternehmen sind, würde ich nicht behaupten. Vielmehr müssen immer Umgebung und individuelle Anforderungen betrachtet und evaluiert werden, bevor man sich für ein bestimmtes Backup-Szenario entscheidet. Das kundenspezifische Optimum zu finden ist hier das Ziel.
Was können Online-Backup-Dienste wirklich leisten? Ist das ein absehbarer Trend?
Hasenstab: Für große Enterprise-Umgebungen ist dies fragwürdig. Nutzer müssen lokal eine Client-Software installieren, die zu sichernden Daten auswählen und einen Zeitplan definieren. Auch das Wiederherstellen gesicherter Daten wird über diesen Client vom Nutzer selbst durchgeführt. Sie brauchen also ein funktionstüchtiges Windows-System mit installiertem Client. Die Sicherung und Speicherung erfolgt verschlüsselt auf Servern in einem externen Rechenzentrum. Neben der Speicherkapazität zählt, wie viele Daten insgesamt hoch- und heruntergeladen werden dürfen. Bisweilen ist das Transfervolumen begrenzt. Inwiefern die Verfügbarkeit der Daten gewährleistet ist, falls es auf dem Inhouse-Speichersystem/Server tatsächlich zum Crash kommt, sollte in den Nutzungsbedingungen nachgelesen werden.