Speichereffizienz - oder mit weniger mehr erreichen |
|
Die allgegenwärtige Abhängigkeit von digitalen Geschäftsprozessen, der Trend zur Zentralisierung in der IT und steigende Datenmengen haben Storage zu einer der
wichtigsten Komponenten im Rechenzentrum befördert. Storage ist heute deutlich mehr als nur ein Stapel Festplatten, der 0 und 1 abbildet.
Storage ist eine kritische Variable mit direktem Einfluss auf Datenwachstum, SLAs, Budgets, Kosten und Ressourcen.
Die Art und Weise, wie ein Unternehmen seine Daten speichert, sollte daher möglichst durchdacht sein.
|
|
von Alexander Wallner, Netapp |
|
IT-Leiter stehen nicht nur vor einer Herausforderung: Trotz Budget-Kürzungen muss hohe Performance, ständige Verfügbarkeit und zuverlässige Ausfallsicherheit der Speicherinfrastruktur sicher gestellt sein - und das bei kontinuierlich steigenden Speicheranforderungen und rapide wachsenden Datenbeständen. Nach Expertenschätzungen nimmt das Datenvolumen in Unternehmen Jahr für Jahr um mehr als 50 Prozent zu. Als eine der Hauptursachen gilt die fortschreitende Digitalisierung von Dokumenten und Akten aller Art, um betriebliche Abläufe effizienter zu gestalten und darüber hinaus rechtliche Anforderungen zu erfüllen. Bild- und Videoformate mit hoher Auflösung tragen ebenso zu erhöhtem Speicherbedarf bei.
|
|
Auf diese Anforderungen reagierten IT-Abteilungen bisher mit dem Zukauf neuer Speicherkapazitäten, was sich heute auf Grund der angespannten Budget-Situation gegenüber dem Management kaum mehr durchsetzen lässt. Außerdem löst das simple Hinzufügen weiterer Festplatten nicht das Kernproblem. Denn in vielen Unternehmen ist der Speicherplatz nur schwach ausgelastet, es werden bis zu 75 Prozent verschwendet. Ungenutzter Speicher benötigt dennoch Ressourcen wie Energie und Administrationsaufwand, ohne Zusatznutzen zu erbringen. Der unnötige Stromverbrauch für Betrieb und Kühlung ist nicht nur teuer, sondern läuft auch einem derzeit wichtigen Trend entgegen - einer umweltfreundlichen und ressourcenschonenden IT.
|
|
Qualität statt Quantität - mit effizientem Storage mehr erreichen |
|
Anstatt einfach neue Festplatten hinzuzukaufen, ist es sinnvoller, durch optimale Auslastung bestehender Kapazitäten maximalen Nutzen zu ziehen, sprich: die Speichereffizienz zu erhöhen. Dies ist jedoch leichter gesagt als getan. Denn in vielen Rechenzentren herrschen heterogene Infrastrukturen: Oft sind Speichersilos in Form von Direct-Attached-Storage dedizierten Servern, Datenbanken und Applikationen zugewiesen, sie lassen sich somit nicht für andere Aufgaben nutzen. Auch sind vielerorts Systeme unterschiedlicher Hersteller im Einsatz, was die Interoperabilität behindert und die Administration zusätzlich erschwert. Der richtige Weg ist hier eine umfassende Konsolidierung vorhandener Ressourcen, etwa mittels Virtualisierung.
|
|
Gerade für heterogene Umgebungen bietet sich eine controllerbasierte Virtualisierung an. Ein virtueller Storage-Controller bildet eine eigene Instanz des Servers mit allen nötigen Daten und zugehörigen Attributen wie Rechten und Security-Merkmalen. Während eine statische virtuelle Maschine (VM) auf partitionierter Hardware aufsetzt, ist der virtuelle Storage-Controller dynamisch und weist keinen direkten Bezug zu den Festplatten auf. Bestehende Arrays, NAS- oder SAN-Systeme unterschiedlicher Hersteller lassen sich mit Hilfe einer Virtualisierungs-Engine als logische Einheit präsentieren.
Mit der »V-Series« von NetApp beispielsweise können Speichersysteme verschiedener Anbieter wie 3PAR, EMC, HDS, HP oder IBM als einheitliches Image virtualisiert werden. Gleichzeitig lässt sich das gesamte Portfolio der Datenmanagementfunktionen darauf anwenden. Dies vereinfacht nicht nur die Administration deutlich, sondern spart dank Verwendung vorhandener Kapazitäten von Drittanbietern auch Kosten. So lässt sich die Investition in neuen Speicher vermeiden und die Komplexität im Rechenzentrum verringern.
|
|
Mit Deduplizierung noch mehr sparen |
|
Auf Optimierung ausgerichtetes Datenmanagement kommt um Deduplizierung nicht herum. Das Grundprinzip besteht darin, identische Datenblöcke oder Dateien anhand ausgefeilter Algorithmen zu finden und redundante Daten zu reduzieren, wobei der logische Bezug erhalten bleibt, um jederzeit ein komplettes Exemplar einer Datei abbilden zu können. Diese extrem platzsparende Form der Datenhaltung ist eine Form der Storage-Virtualisierung, die Netapp soweit perfektioniert hat, dass sie sich auf beliebige Daten und Applikationen anwenden lässt. Für Backup und Archivierung ist Deduplizierung seit längerem eine gängige Methode, um Datenmengen und Ressourcen-Verbrauch einzudämmen und gleichzeitig die Prozesse zu beschleunigen. Das Einzigartige an der Netapp-Implementierung von Deduplizierung ist die Anwendbarkeit auf Produktivsysteme.
|
|
Der Vorteil der Netapp-Deduplizierung liegt darin, dass sie Redundanzen auf Blockbasis statt auf Ebene vollständiger Dateien reduziert und damit applikationsunabhängig ist. Zu welcher Applikation die Blöcke gehören, spielt keine Rolle. Netapp macht sich hier Charakteristiken seines Storage-Betriebssystems
»Data ONTAP« und des Netapp-Filesystems »WAFL« zunutze, dessen kleinste Grundeinheit Datenblöcke von vier KByte Größe sind. Der digitale Fingerabdruck jedes dieser Blöcke ist die Basis der Deduplizierung, die bei Netapp eng in die Architektur der Systeme integriert ist. Es ist kein Add-on wie bei anderen Anbietern - und erklärt dadurch die hohen Erfolgsraten.
|
|
Mit Deduplizierung lassen sich im Allgemeinen enorme Speicherkapazitäten einsparen. Beim Backup etwa ist ein Einsparpotenzial von 5:1 bis 20:1 realistisch. Bei Primär- und Archivdaten sind zwischen 1,25:1 und 1,75:1 möglich, was 20 bis 40 Prozent. entspricht.
Für »VMware ESX VI3« sind es typischerweise zwischen 40 und 60 Prozent. Diese Angaben beziehen sich auf die Deduplizierung der kompletten Vmware-Storage-Umgebung einschließlich der Applikationsdaten und nicht nur der Betriebssysteme. In VDI-Umgebungen beläuft sich der Deduplizierungseffekt laut Kundenerfahrung auf bis zu 90 Prozent.
|
|
Wo setzt Storage-Effizienz an? |
|
Ob nun ein kostengünstiger, risikoarmer Ansatz wie Speicher- und Server-Konsolidierung oder ein radikalerer Schritt wie die Überholung des Rechenzentrums gewählt wird - für eine verbesserte Speicherauslastung sind neue Technologien und eine bereichsübergreifende Zusammenarbeit im Unternehmen wichtig.
|
|
Hier bieten sich zahlreiche Optionen an wie etwa Software-Technologien, die sich problemlos mit alten Speichersystemen einsetzen lassen, so dass sich neue Investitionen in die Infrastruktur erübrigen. In Frage kommen Virtualisierungs-Software wie Deduplizierung, Thin-Provisioning, Snapshots oder virtuelles Klonen. Wichtig ist es allerdings immer, im Vorfeld festzustellen, welche Technologie dem eigenen Bedarf entspricht. Wird der Speicher auf das tatsächlich benötigte Volumen reduziert, ergeben sich automatisch sofort signifikante Einsparungen bei Speicherplatz, Betrieb, Kühlung und Kosten.
|
|
Bei der Einführung neuer Projekte und Lösungen zur Verbesserung der Effizienz sollte zudem immer eine umfassende Analyse der IT-Infrastruktur im Vorfeld durchgeführt werden, um dediziert auf die individuellen Bedürfnisse des Unternehmens und der IT eingehen zu können. Neben der konkret berechneten Rentabilität sollten dabei auch alle versteckten Kosten wie etwa erforderliche Schulungen einkalkuliert werden. Die hierfür aufgewendete Zeit - eventuell nötige neue Planstellen - und die konkret entstehenden Kosten müssen in diese Kosten-Nutzen-Analyse eingehen. Um Kunden die Evaluierung und Analyse ihrer Speicherumgebungen zu erleichtern, hat Netapp einen Storage-Effizienz-Rechner geschaffen. Anhand wichtiger Business-Applikationen und bestimmter Kernkomponenten lässt sich das Einsparpotenzial ausrechnen.
|
|
Effizienter Speicher sorgt nicht zuletzt für eine grüne IT |
|
Nach Berechnungen des Berliner Borderstep Instituts für Innovation und Nachhaltigkeit lag der Stromverbrauch von Servern und Rechenzentren in Deutschland 2008 bei 10,1 TWh, also 10,1 Milliarden Kilowattstunden. Die damit verbundenen Kosten beliefen sich auf rund 1,1 Milliarden Euro. Der Stromverbrauch entspricht einem Anteil am Gesamtverbrauch in Deutschland von rund 1,8 Prozent. Das heißt: Vier mittelgroße Kohlekraftwerke dienen ausschließlich der Versorgung von Servern und Rechenzentren. Dem Institut zufolge kann sich dieser Verbrauch bis zum Jahre 2013 um etwa 47 Prozent auf bis zu 14,85 TWh erhöhen. Angesichts solcher Zahlen und immer schneller wachsender Datenberge müssen CIOs Strategien entwickeln, um dieses Problem zu lösen, bevor die Versorgung mit dem Bedarf nicht mehr Schritt halten kann. So gesehen ist der Einsatz neuer Technologien geradezu zwingend. Speichereffizienz und die verbesserte Auslastung der bestehenden Infrastruktur sind die Kernelemente einer zukunftsweisenden Strategie. Dann lässt sich auch die Maxime
»Mehr mit weniger erreichen« optimal erfüllen.
|
|
|