Frank Herold, Manager Presales Central & Eastern Europe, Quantum
Disk-Backup hat mittlerweile Bandmedien im Bereich der Datensicherung in vielen Umgebungen abgelöst. Administratoren schätzen die Verfügbarkeit, Skalierbarkeit, Flexibilität und Funktionalitäten, die ihnen damit zur Verfügung stehen. Zu den wichtigsten Funktionen der letzten Jahre gehören Deduplizierung, Continuous-Data-Protection und synchrone Replikation. Diese sollen die immer wieder auftretenden Probleme wie Datenwildwuchs und zu kleine Backup-Fenster beheben sowie zuverlässige Desaster-Recovery-Strategien garantieren. Ein gutes Backup ist letztlich die Grundvoraussetzung für ein erfolgreiches Restore.
Wir sprachen dazu mit Frank Herold, Manager Presales Central & Eastern Europe bei Quantum.
Backups sind der strategisch lebenswichtige Punkt für Unternehmensdaten. Welche Probleme hat der Anwender heute im Backup-Umfeld?
Herold: Das wohl größte Problem für Anwender ist das unaufhaltsame Datenwachstum, das Backup-Zeitfenster immer größer und die Datensicherung unsicher werden lässt. Insbesondere Unternehmen mit mehreren Standorten oder virtualisierter Serverlandschaft stehen vor der Herausforderung, alle Daten in eine umfassende Backup-Strategie meist mit mehreren Speicherschichten zu integrieren. Hinzu kommt eine stetig ansteigende Zahl an gesetzlichen wie unternehmensinternen Vorgaben im Hinblick auf Compliance, Datensicherheit und Green IT.
Wie bewältigt er diese Schwierigkeiten?
Herold: Grundsätzlich sollten Backup-Administratoren für jede Datenklasse die genauen Anforderungen in Bezug auf Recovery-Time-Objective und Recovery-Point-Objective kennen sowie einen Überblick über die aktuellen Backup-Technologien haben. Je nachdem, wo die größten Schmerzpunkte beim Backup liegen, werden dann verschiedene Strategien gefahren. Um den wachsenden Datenmengen und den steigenden Backup-Zeiten Herr zu werden, setzen viele Unternehmen auf eine Kombination aus Tape und Disk mit Deduplizierungstechnologie – mit unterschiedlichen Kapazitäten, so dass sich auch der Einsatz in Niederlassungen rechnet. Die Backup-Daten vor Ort können gegebenenfalls verschlüsselt an das Rechenzentrum übertragen werden, so dass eine standortübergreifende Datensicherung möglich wird.
Welche Funktionen muss ein Backup auf jeden Fall umfassen?
Herold: Zum einen muss das Backup mit den steigenden Datenmengen zurechtkommen und Daten innerhalb vernünftiger Zeitfenster sichern, andererseits müssen die Backup-Daten im Recovery-Fall schnell wiederhergestellt werden können. Hierbei sind die unterschiedlichen Aufbewahrungsfristen einerseits, als auch die dafür in Frage kommenden Speicherebenen andererseits von Bedeutung. Kostengünstiges Tape ist ideal für die langfristige Datenaufbewahrung, während Disk-Speicher mit Deduplizierung für die kurz- bis mittelfristige Datenaufbewahrung und die schnelle Wiederherstellung kleinerer Dateien geeignet ist. Datendeduplizierung, entweder direkt bei der Einspeisung oder nachgelagert, kann je nach Datenart bis zu 90 Prozent Speicherplatz und Bandbreite sparen. Nicht zuletzt müssen natürlich auch die Kosten für Anschaffung und Betrieb der Backup-Lösung stimmen.
VTL und Deduplizierung gehen oft einher. Ab wann sollte eine solche Backup-Lösung eingesetzt werden?
Herold: VTL und Deduplizierung werden oft synonym verwendet und sind sicherlich der einfachste Weg, eine bestehende physikalische Library durch eine diskbasierte Lösung abzulösen. Allerdings nutzen viele Unternehmen ein NAS-Interface ebenfalls mit Deduplizierung, oftmals auch in Ergänzung zur VTL. Disk als Speicherebene ist heute in fast allen Unternehmen in der Diskussion. Ob jedoch Deduplizierung erfolgreich eingesetzt werden kann, hängt im Wesentlichen von folgenden Faktoren ab: Aufbewahrungszeit, Veränderungsrate der Daten, Backup-Strategie – Full oder Incremental-Backup, Compression, Multiplexing, Encryption – sowie Menge und Art der Daten.
Was muss der Anwender beachten, wenn er virtualisierte Serverumgebungen ins Backup integriert?
Herold: Da ist einerseits die Physik des »ESX«-Servers, die zwar viele virtuelle Maschinen beherbergen kann, jedoch nur eine bestimmte Bandbreite an Fibre-Channel, Netzwerk, CPU oder Disk-I/O zur Verfügung hat. Darüber hinaus muss man beachten, dass der Snapshot einer Virtual-Machine eine sehr große Datei ist, die entsprechenden Bedarf an Backup-Kapazität verursacht. Die Snapshots halten den jeweiligen Stand fest – mit manchmal nur sehr wenigen Abweichungen. Auch hier ist Deduplizierung das Stichwort, um Engpässe zu vermeiden. Oft wird vergessen, dass in einer virtualisierten Serverumgebung neben den eigentlichen Daten auch die Virtualisierungsschicht gesichert werden muss. Dazu gehören etwa die Konfigurationsdateien – wiederum mit vielen Redundanzen zwischen den VMs. Ohne Backup dieser Informationen könnte die manuelle Neukonfiguration eines virtuellen Netzes und des dazugehörigen Speichers etliche Stunden dauern. Außerdem sollte die gesamte Datensicherungsumgebung von einer zentralen Umgebung aus gesichert werden, die alle Ebenen der Backup-Infrastruktur komplett sichtbar macht.
Bei vielen Unternehmen hat sich eine stufenweise Implementierung der virtualisierten Umgebung bezahlt gemacht, da gerade in der Anfangsphase das Hauptaugenmerk auf der Lauffähigkeit der virtualisierten Umgebung liegt. Hier sollten möglichst wenige Veränderungen in der Backup-Struktur stattfinden. Nach und nach können dann die virtualisierten Server in die flexible Multi-Tier-Umgebung eingebunden werden.
Welche Rolle spielen Bandmedien noch beim Backup? Ist hier der Paradigmenwechsel abgeschlossen und das Band in den Archivbereich verbannt?
Herold: Viele Unternehmen haben Bänder nach wie vor beim Backup im Einsatz. In punkto Energieverbrauch, CO2-Ausstoß und Kühlungsbedarf sind sie Disk-Speichern nach wie vor voraus. Auch durch ihre niedrigen Kosten pro TByte, ihre Langlebigkeit und Portabilität bleiben sie weiterhin attraktiv. Es zeichnet sich jedoch ab, dass sich der Einsatz von Bändern immer mehr in die Langzeitarchivierung verlagert – ein Prozess, der allerdings noch einige Zeit dauern wird.
Gibt es einen Trend im Backup-Umfeld?
Herold: Im Kommen ist, was Geld und Platz spart. Die jährlich steigenden Datenmengen – die Enterprise Strategy Group geht von 50 bis 60 Prozent aus – lassen Effizienz-Technologien wie Deduplizierung immer beliebter werden. Ebenfalls Trend sind Solid-State-Disks, die zwar weniger Energie verbrauchen als konventionelle Disk-Speicher, sich dafür aber noch im oberen Preisniveau befinden.
Was können Online-Backup-Dienste wirklich leisten? Ist das ein absehbarer Trend?
Herold: Auf den ersten Blick haben diese Dienste eine hohe Attraktivität: keine Investitions- und Betriebskosten, die Bezahlung erfolgt nach Bedarf. Doch auf Grund von Sicherheitsbedenken zögern viele Unternehmen noch, ihre Daten vollständig oder teilweise einem externen Dienstleister anzuvertrauen. Ob man über einen wirklichen Trend sprechen kann, muss sich erst noch zeigen.