Backup-Strategien: Der Wandel in den Rechenzentren
Virtualisierung, Cloud, Software-defined Storage verändern die Rechenzentren. Die Umwälzungen sind durchaus schleichend, aber deshalb nicht weniger spektakulär: Der Wandel beeinflusst Märkte, komplette Ökosysteme, oder zumindest jahrzehntelang erprobte Vorgehensweisen wie beispielsweise das Backup.
Von Engelbert Hörmannsdorfer
Sowohl unter technischen als auch unter wirtschaftlichen Aspekten stoßen althergebrachte hardwareorientierte Speicherarchitekturen neuerdings an ihre Grenzen. Alleine, wenn man sich nur das Backup und Disaster-Recovery anschaut, muss man schon konstatieren: Backup-Fenster – was ist das? Das war einmal…
»Früher war es etwas einfacher. Da hieß Backup, Daten von einem Server auf Tape zu sichern«, bekundet Frank Herold, Manager Presales & Consulting bei Storage-Spezialisten Quantum, in einem Video-Interview mit speicherguide.de. »Heute haben wir zusätzlich schon Backup-to-Disk, und neuerdings immer mehr Cloud-Backup.«
Backup und Virtualisierung: »Das ist mit klassischen Backup-Szenarien nicht mehr zu greifen«
Nach Herolds Meinung hat bereits Virtualisierung extrem viel geändert: »Da wird Backup von anderen Teams gefahren. Das ist mit klassischen Backup-Szenarien nicht mehr zu greifen.« Administratoren müssten sich letztendlich überlegen, die unterschiedlichen Datenströme wieder zusammenzubekommen, und daraus Synergien zu schaffen. »Gerade auch unter dem Aspekt des Kostendrucks«, erklärt Herold, »den auch die IT-Abteilung immer stärker spürt.«
Klassische Backup-Szenarien hätten zwar nach Ansicht von Herold durchaus noch ihre Daseinsberechtigung bei Unternehmen, bei denen es hauptsächlich um strukturierte Daten geht. »Aber wenn man sich ansieht, wo das starke Datenwachstum bei den meisten Unternehmen herkommt, dann sind das ja die unstrukturierten Daten«, erläutert der Quantum-Manager. Er empfiehlt in diesem Zusammenhang den Unternehmen, auf Storage-Tiering zu setzen: »Es muss ja nicht gleich alles ins Backup kommen – vieles lässt sich auch gleich in die Archivierung verschieben.«
Neue Storage-Hardware steht an? Befassen Sie sich mal mit Software-defined Storage!
Stefan von Dreusche, Director Central Europe, Datacore SoftwareVor allem Software-defined Storage (SDS) stellt einen zukunftsorientierten konzeptuellen Ansatz dar, der sowohl für kleine und mittelständische als auch große Unternehmen gleichermaßen interessant ist. Sich eingehender mit SDS auseinanderzusetzen ist vor allem lohnenswert, sobald die Anschaffung neuer Speicher-Hardware, der Einsatz von Flash/SSDs oder Server- und Desktopvirtualisierungsprojekte auf der Agenda stehen. Dies gilt ebenso, wenn Business-Continuity ein zentrales Thema ist und eine ausfallsichere, performante sowie hochverfügbare IT-Infrastruktur die Grundlage für den unterbrechungsfreien Ablauf von Geschäftsprozessen stellen muss.
Im Rahmen einer SDS-Architektur lässt sich Standard-Hardware, gleich welcher Couleur, für die Zwecke des Anwenderunternehmens nutzen, und es lässt sich der gesamten Storage über Software darüber steuern. »So lassen sich vorhandene traditionelle Festplattenspeicher mit Flash-Medien und Hybridsysteme in einer auf ihre individuellen Anforderungen zugeschnittenen Speicherarchitektur verbinden«, argumentiert beispielsweise Stefan von Dreusche, Director Central Europe beim Storage-Softwarehaus Datacore Software (»SANsymphony-V«). »Damit steht der Weg offen, bestehende Insellösungen abzulösen und vom parallelen Betrieb blockorientierter SAN-, dateibasierter NAS- sowie separater Backup- und Disaster-Recovery-Systeme verschiedener Hypervisoren oder Flash- Lösungen endgültig Abschied zu nehmen.«
»Software-defined Storage wird 2015 zum Mainstream«
Datacore-CEO George Teixeira legt sich ergänzend sogar konkret fest, und formuliert die grundlegende These: »Software-defined Storage wird 2015 zum Mainstream.« Als Gründe nennt er dafür einmal die Notwendigkeit, Flash kosteneffizient ins Rechenzentrum zu integrieren, dazu Microsofts Hypervisor-Offensive, den Trend zu hybriden Clouds sowie die voranschreitende Integration von Standardkomponenten im Speicherbereich.
Tarkan Maner, CEO, NexentaDass der Boom bei SDS einen fundamentalen Wandel in der IT-Infrastruktur nach sich ziehen wird, davon ist auch Tarkan Maner, Chairman und CEO, beim Storage-Software-Anbieter Nexenta (»NexentaStor«) überzeugt: »Sobald IT-Manager verstehen, dass sie sowohl die beste Software als auch die beste Hardware einsetzen können, werden sich auf beiden Seiten nur noch die besten Lösungen halten können. Damit verschiebt sich auch die Verhandlungsgrundlage zwischen Kunde und Hersteller. Jedes Mal, wenn neue Kapazität gebraucht wird, kann neu verhandelt werden, was den CAPEX optimiert, ohne den OPEX zu beeinflussen. Die Grundlage für die Herstellerbindung ist somit entzogen, und der Kunde erhält die volle Kontrolle zurück.«
Einfluss von hochskalierbaren Scale-Out-Shared-Nothing-Architekturen auf x86-Standardserver
Einfluss hat Software in Form von SDS auch auf neue hyperkonvergente Infrastrukturen, die Networking, Storage und Computing miteinander verbindet. Hyperkonvergente Lösungen, beispielsweise mit VMware Virtual SAN mit EVO:Rail sind dabei eine kritische Komponente bereits von etlichen führenden Hardware-Herstellern. »Diese Lösungen bieten für spezifische Workloads wie VDI sehr einfach einzusetzende und zu verwaltende Möglichkeiten«, argumentiert Maner. »Vmware macht es für Software-Partner möglich, noch weiter zu gehen: Virtual SAN und EVO:Rail können eingebunden und von Anbietern als einfaches Add-on angeboten werden.«
Der Nexenta-CEO ist überzeugt, dass SDS darüber hinaus eine Schlüsselrolle bei der Entwicklung der nächsten Generation von Cloud- und Big-Data-Infrastrukturen spielt: »OpenStack-Clouds werden selten auf Speicher-Hardware von Legacy-Herstellern aufgebaut. Stattdessen bevorzugen Kunden hochskalierte Scale-Out-Shared-Nothing-Architekturen auf x86-Standardservern mit einer Mischung aus günstigen SSDs und Festplatten für Object-, Block- und File-Services.« Und diese hochskalierten Scale-Out-Architekturen dürften die Backup-Architekturen erneut durcheinander bringen.
Nicht mehr aufzuhalten: Backup-as-a-Service
Wenn es um Backup-Strategien geht, sollten sich Anwender auch mit Backup-as-a-Service-Konzepten (BaaS) befassen. Anbieter wie Acronis haben bereits ihr Funktionsspektrum erweitert, vor allem für kleine und mittelständische Unternehmen (KMU). Basierend auf der »AnyData«-Engine stuft Acronis ihre Backup-Offerten mittlerweile in drei Konfigurationen: Zum einen als »Acronis Hosted«, was eine komplette Lösung darstellt, die in einem Acronis-Datenzentrum gehostet wird. Zum anderen ist ein hybrides Modell wählbar, bei dem eine von Acronis gehostete Managementkonsole mit dem Storage des Service-Providers verbunden wird. Nicht zuletzt ist zudem eine Installation möglich, die vollständig vom ausgewählten Service-Provider verwaltet wird, der auch die Daten speichert.
Die BaaS-Lösung von Acronis ist mehrstufig und mandantenfähig, offeriert lokales und hybrides Storage, und unterstützt Workstations, Windows-, Linux-, physische und virtuelle Server (Vmware, Hyper-V, Red Hat, Linux KVM, Citrix XenServer und Oracle VM). Für die Sicherheit gibt es eine 2048-Bit-SSL-Verschlüsselung beim Transfer sowie eine AES256-Verschlüsselung für die gespeicherten Informationen. Um das seit 2010 bestehende Cloud-Backup-Angebot auch weltweit und Compliance-gerecht anbieten zu können, verfügt Acronis über Rechenzentren nicht nur in den USA, sondern auch in Deutschland, Japan, Frankreich, Russland und Singapur.
Reseller können zum Cloud-Storage-Provider avancieren
Neue Backup-Strategien in Richtung Backup-as-a-Service empfiehlt man auch bei NetApp. »In Deutschland arbeiten wir beispielsweise für Backup-as-a-Service mit Partnern zusammen, deren Cloud-Lösungen nach allen Richtlinien der Datensicherheit abgenommen sind«, erläutert Manfred Reitner, Senior Vice President und General Manager EMEA bei Netapp. »Erst dann können sie diese Lösungen verkaufen.«
Dieter Schmitt, Director Channel Sales EMEA, NetappFür das Umsetzen von Backup-as-a-Service-Lösungen mit Partnern ist bei Netapp Dieter Schmitt, Director Channel Sales EMEA zuständig. »Wir haben extra für Partner ein Backup-as-a-Service-Paket definiert«, sagt Schmitt. »Es ist vor allem für Partner aus der Reselling-Welt konzipiert. Denn wir verhelfen Resellern damit zu einem Cloud-Offering.«
Letztendlich würden laut Schmitt Virtualisierung, Cloud und Software-defined Storage nicht nur die Rechenzentren verändern, sondern eben auch das Geschäft im Channel: »Wir ermöglichen Partnern, ihre Geschäftsmodelle zu überdenken, indem wir zum Beispiel eine BaaS-Autorisierung anbieten, die auf Netapp-Technologie basiert.« Man helfe Resellern damit, sich eventuel zum Cloud-Storage-Provider zu transformieren.
Benötigt das Backup neue Spielregeln?
- Software-Defined Storage: Einer der Top-10-Trends von speicherguide.de für das Jahr 2014
- speicherguide.de-Video-Interview mit Quantum-Manager Frank Herold über Backup/Recovery im Cloud-Zeitalter
- speicherguide.de-Advertorial mit Datacore: So steigt man kostengünstig in Software-defined Storage (SDS) ein
- »NexentaConnect for VMware Virtual SAN« ist jetzt erhältlich
- Netapp »Cloud Ontap« und Amazon AWS ist jetzt einsatzfähig
- Acronis stellt Backup-as-a-Service in die Cloud vor
- speicherguide.de-Interview mit Quantum-Manager Mark O'Malley über Backup, Security, Cloud und Verschlüssung
- Mehr über Backup&Recovery im speicherguide.de-Schwerpunkt