Anzeige

Software-defined Storage sorgt für Flexibilität

Weg von proprietären Speichersystemen hin zu offenen Lösungen, die allein durch Software definiert werden – Software-defined ist DER Trend in den Rechenzentren. Die Trennung von Standard-Hardware und dem darüber liegenden Software-Layer soll Unternehmen mehr Funktionalität und Flexibilität geben.

Auf dem Weg zum Software-defined Rechenzentrum oder Software-defined Data Center (SDDC) ist der Software-defined Storage (SDS) ein wichtiger Meilenstein. Flexibel einsetzbare, skalierbare und auf Standard-Hardware aufsetzende Software kann durchaus helfen, das Rechenzentrum agiler und freier zu gestalten. Allerdings wird der Begriff derzeit wie jede andere Marketing-Sau durchs Dorf getrieben und bei der Definition sind sich die jeweiligen Hersteller auch nicht ganz einig. Alleskönner sollen diese Software-getriebenen Umgebungen sein, aber die eierlegende Wollmilchsau wird man auch in ihnen nicht finden.

Anzeige

Software-defined heißt Virtualisieren

Im Grunde genommen geht es darum, die Infrastruktur – in diesem Falle Speicher – zu virtualisieren und als Service zur Verfügung zu stellen. SDS ist also nichts anderes als Software, die den Speicher definiert, also dessen Funktionalität, Skalierbarkeit und Agilität bestimmt. Dabei sollte die darunter liegende Hardware unerheblich sein und aus Standard-Komponenten bestehen. Diese Software kann auch auf so genannten Converged Infrastrukturen operieren, beispielsweise in einem SAN mit unterschiedlichen Speichermodellen und Switchen. Nur dann kann von einem echten Software-definierten Storage die Rede sein. Speichersysteme, die von Haus aus mit einer proprietären Software ausgeliefert werden, sind sicher Modelle, die von der Software definiert werden, aber keine wirklichen SDS. Noch fehlen aber die Standards, da die Hersteller natürlich in erster Linie Interesse daran haben, ihr eigenes Produktportfolio an die Anwender zu bringen und nicht mit Software-Paketen neue und eventuell bestehende – also nicht die eigene – Hardware nützlicher und effizienter zu machen.

Datacore bietet Virtualisierungs-Software für Speicherumgebungen.
Datacore bietet Virtualisierungs-Software für Speicherumgebungen.

Da es einheitliche Standards nicht wirklich gibt in Sachen Hardware, fallen also derzeit Systeme mit Software und (mehr oder weniger) Hardware-unabhängige Software unter den Begriff des SDS. Bei SDS gelten Software und Hardware als getrennte Instanzen. Die Datensicherung erhält einen Abstraktionslayer, mit dem Funktionen und Management vom reinen Blech getrennt werden. Aus der Hardware wird ein Ressourcen-Pool, der unabhängig vom jeweiligen Hyper-Visor betrachtet wird. Dies lässt sich in einem Storage-Area-Network (SAN) umsetzen, aber auch im Direct-Attached-Storage (DAS)-Umfeld und auch für Flash-Speicher im Server. Vor ein paar Jahren hieß dies noch banal Speichervirtualisierung, aber SDS geht hier einen Schritt weiter. Denn diese Speichersysteme der neuen, Software-definierten Generation sollen über mehrere Server und Storage-Systeme hinweg hochskalierbar und leistungsfähig sein, um hohe Transaktionslasten abzuarbeiten und großen Speicherbedarf zu bedienen. SDS soll optimiert auf die jeweilige Betriebsumgebung konfigurierbar und entsprechend funktionell sein. Die SNIA bastelt derzeit an einem branchenübergreifenden Standard, den gibt es derzeit aber nur als Entwurf.

Getrieben wird der Trend zum Software-definierten Storage durch andere Neuentwicklungen in der IT und somit in den Rechenzentren. Cloud-Computing bzw. -Storage gehört ebenso dazu wie Server-Virtualisierung, Bring-your-own-Device-Strategien oder neue Sicherungskonzepte wie Replikationen und automatisches Failover zur steten Aufrechterhaltung der IT und somit des Geschäftes. Darüber hinaus erfordern Service Level Agreements (SLA) und interne Abrechnungsmodelle Flexibilität und Funktionalität, welche die üblichen Speicherstrukturen oft nicht erfüllen können. Auch hier kann SDS Abhilfe schaffen.

Vorteile von SDS

Der größte Vorteil einer Software-definierten Speicherumgebung ist die Flexibilität der Umgebung selbst und die Konfigurationsfreiheit. Der Administrator kann Standard-Hardware verwenden – sozusagen Black Boxes. Dabei kann es sich um Festplattensysteme handeln, die bereits vorhanden sind oder neu erworbene. Der Hersteller spielt hierbei keine Rolle. Mit SDS könnte sich letztlich der Traum von einem wirklich heterogenen, offenen Speicherumfeld verwirklichen. Zudem lassen sich aktuelle Technologien hinzufügen und effizient nutzen wie zum Beispiel Flash-Medien, sei es als PCIe-Steckkarte oder als Speichermedium.

Eine Erweiterung soll mittels SDS schnell und unkompliziert vonstattengehen. Erforderliche Kapazitäten sind dabei dem Ressourcenpool ebenso so zügig hinzugefügt wie Cache oder Schnittstellen oder Prozessoren. Dabei ist es unerheblich, ob dies mittels gesamter Speichereinheiten oder einzelner Komponenten geschieht.

Die Verwaltung der gesamten Speicherumgebung erfolgt zentralisiert. Der IT-Verantwortliche kann den zentralisierten Storage-Pool dann entsprechend den Anforderungen einzelnen Abteilungen zuteilen. Funktionen wie Deduplikation, Thin Provisioning oder Tiering helfen, die Ressourcen effizient zu nutzen. Wer darüber hinaus vermehrt Flash im SDS einsetzt, erreicht ein höheres Skalierungspotenzial in Sachen Transaktionlast und geringe Latenzen.

Insgesamt können die Kosten der Speicherumgebung mit SDS gesenkt werden. Da die Software die Funktionalitäten bestimmt und große Flexibilität bei der Erweiterung schafft, lassen sich Hardware-Bestände länger nutzen. Das wiederum spart Serverraum und Kühlungsbedarf. Das Gleiche gilt für den Wartungsaufwand und den Stromverbrauch. Mit erfüllten SLAs lassen sich dann auch genauere Abrechnungsmodelle umsetzen, was der Kosten-Nutzen-Rechnung ebenso zugutekommt.

Anbieter von SDS-Lösungen

Wie bei jedem Trend schießen auch für SDS die Lösungen quasi aus dem Boden. Verschiedene Anbieter offerieren unterschiedliche Lösungen. Beim Kauf bzw. bei der Auswahl sollten IT-Manager nicht nur auf den Preis, sondern auch auf die Supportleistungen achten, die bei einem Fehler oder beim Versagen der Software wichtig werden, weil dann gleich eine größere Menge an Hardware, Services und Funktionen betroffen sein kann.

Hersteller DataCore ist einer der Pioniere in der Speichervirtualisierung und auch im SDS-Umfeld. Die »SANsymphony«-Software lässt sich in heterogenen Umgebungen hoch skalieren und bringt umfassende Funktionen mit. EMC bedient das Segment mit einer »ViPR«-Lösung, die der Anbieter selbst als Software-Defined Storage-Plattform bezeichnet. Sie verfügt über eine integrierte SAN-Verwaltung von Brocade. IT-Riese HP offeriert seine »irtual Storage Appliance« (VSA) als »StoreVirtual VSA« oder »StorOnce VSA« an. Die Software »Data ONTAP Edge« ist NetApps Antwort auf SDS. Wer sich nicht bei den Platzhirschen der Branche umschauen möchte, der kann auf Unternehmen wie Nexenta und der deren Produkt »NexentaStor« zurückgreifen. Die ZFS-basierte Lösung ist eine reine Software-NAS/SAN-Plattform. Und auch VMware spielt bei SDS mit und präsentiert drei Angebote: »vCenter Site Recovery Manager«, »Virsto« und »Virtual SAN«, wobei letzeres noch im Beta-Modus ist.

Wer braucht SDS und warum

SDS ist schwer zu fassen und kommt in vielen Facetten. Deswegen fällt es den Anbieter auch leicht, zu sagen, dass quasi jeder, der mehr als nur ein Stück an Storage-Hardware sein eigen nennt, Software-defined Storage gebrauchen kann. Das beginnt bei moderat gewachsenen SANs, geht über geclusterte NAS-Architekturen hin zu heterogen gewachsenen konvergenten Infrastrukturen und Big-Data-Projekten.

Mal abgesehen von den oben genannten Vorteilen würde dieser Abstraktions- bzw. Virtualisierungslayer eine weitere Stufe der Konsolidierung bringen. Manche Anwender könnten auf teure Backup-Lizenzen verzichten, da das Backup aus der SDS-Umgebung erfolgt. Andere wiederum benötigten schlichtweg weniger Hardware, da durch die Funktionalität der Software Appliances oder Erweiterungen zunächst wegfallen. Migrationen würde der Schrecken genommen, da eine Software sowohl den Altbestand als auch das neue Equipment verwalten und die Daten innerhalb beider Welten verschieben könnte.

Performance-Ansprüche würden durch SDS Applikations-abhängig bedient und den vorhandenen Speicher – inklusive Flash-Ressourcen – so optimal nutzen, dass auch hier Abschreibungen nervenschonend und Neuinvestitionen langfristig absehbar wären.

Der Konjunktiv ist gewollt. Denn derzeit sind die Anwenderbeispiele, in denen ein Stück Software wirklich die gesamte Speicherwelt eines Rechenzentrums beherrscht, sind wohl eher rar. Sicher ist es von Vorteil, nur einen Händler/Partner/Hersteller im Falle eines Fehlers oder Ausfalles anbrüllen zu müssen, aber in den wenigsten Fällen ist dieser Zustand realisierbar. Hier wird eher die Frage wichtig, wie sieht es mit der Interoperabilität von unterschiedlicher Software aus, die in meiner Speicherumgebung laufen soll? Behindert sie sich, rauben sie sich gegenseitig Ressourcen, ist das Management völlig getrennt voneinander oder lässt es sich verbinden? Das sind nur einige Fragen, die hinsichtlich eines SDS wichtig werden, wenn es sich nicht über nur eine Instanz umsetzen lässt. Und dann sind wir sehr wohl bei einem alten Problem aus der guten alten Hardware-dominierten Zeit: Interoperabilität. Und in diesen Fällen war es bislang noch so, dass es einen vorrangigen Anbieter im RZ gibt, dem sich andere unterordnen. Es wird sich hier erst noch zeigen müssen, wer wirklich die völlige Trennung von der Hardware umfassend, stabil, performant und sicher bieten kann. Diese Hersteller sind dann die wirklichen Trendsetter des SDS.

Gewinner werden diejenigen sein, die einen reibungslosen, migrationsfähigen, ausbaufähigen und jederzeit verfügbaren Datenbestand vorhalten können. Denn genau das allein interessiert den Anwender, die Verfügbarkeit seiner Daten, unabhängig davon, ob der Bestand wächst und mehr Ressourcen braucht. Das Technische in Form von Hardware muss zur Nebensache gerieren.

Software bestimmt das Rechenzentrum

Software-defined Storage ist eigentlich Software, wie bei Datacore
Software-defined Storage ist eigentlich Software, wie bei Datacore

SDS ist nur ein Bauteil des Software-defined Data Center (SDDC), dem nächsten Schritt der IT-Evolution. Zu dieser voll virtualisierten und hoch flexiblen Infrastruktur gehört dann auch Software-defined Network dazu (SDN). Brocade und Juniper bieten hier ebenso Produkte wie HP oder IBM. Ein solches Rechenzentrum soll seine Ressourcen zu einem Höchstmaß nutzen und beliebig skalieren können. Technologien wie Flash könnten hier beitragen, Flaschenhälse vollständig zu eliminieren.

Wie schon bei SDS stehen hier Flexibilität und Konfigurationsfreiheit im Mittelpunkt, die auf Standardkomponenten aufbauen kann. Die Hardware wird zur Commodity, Erweiterungen und Migrationen gehen schneller und stressfreier vonstatten. SDDC ist sicher der Traum eines jeden Rechenzentrumleiters. Allerdings bleibt abzuwarten, inwiefern sich die Hersteller wirklich von ihren proprietären Lösungen verabschieden wollen. Letztlich werden hier immer die Bestrebungen bleiben, das Blech entsprechend zur Software mitzuverkaufen.

Anzeige