Anzeige

Effizientes Storage-Management

Eine moderne Infrastruktur sollte skalierbar und transparent sein. Wie die Hardware, darf aber auch die Software keine Einbahnstraße darstellen. Speichermanagement-Funktionen sollten daher auch mit austauschbarer Hardware realisierbar sein. Hauptbaustein dieser Strategie: die Storage-Virtualisierung.

Physische und virtuelle Server (Grafik: Datacore)
Physische und virtuelle Server (Grafik: Datacore)
Heutige IT-Landschaften können es sich im Prinzip nicht mehr erlauben ineffizient zu sein. Auf kurzfristige Anforderungen des Managements gilt es zeitgerecht zu reagieren. Trotzdem lässt sich speziell in Punkto Storage-Verwaltung immer etwas verbessern, gleichzeitig herrscht nicht allzu oft Nachbesserungsbedarf.

»Storage-Management ist mehr als die Summe der Einzelteile«, sagt Guy Berlo, Vice President Central European Sales & Operations bei FalconStor. »Nur ein vollständiges Konzept mit hochverfügbarem Ansatz, integriertem Continuous-Data-Protection (CDP), geglätteten Lastspitzen, das sich nach Service-Level regeln lässt, ist nach heutiger Sicht effizient. Als Beispiel nennt Berlo die Deduplitzierung. Durch den geschickten Einsatz von Snapshot-Technologie mit einer CDP-Lösung und Ansteuerung über die Applikationen, lassen sich von vorneherein Duplikate aber vermeiden. Es werden nur inkrementelle Änderungen der Applikationsdaten gespeichert und gleichzeitig ist der Restore von konsistenten Daten sofort und flexibler möglich.

»Anstelle die Daten einer kompletten Applikation auf Solid-State-Disks (SSDs) zu verlagern, kann man mit speziellen Funktionen die SSD-Technologie dynamisch mit ausgesuchten Blöcken vieler Applikationen gleichzeitig belegen«, ergänzt Berlo. »Dies ermöglicht einen kostenoptimierten Einsatz und Performance-Steigerung vieler Applikationen gleichzeitig.«

Anzeige

Virtualisierung Basis für effiziente Verwaltung

Heterogene Speicher an zwei Standorten (Grafik: Datacore)
Heterogene Speicher an zwei Standorten (Grafik: Datacore)
»Die Basis eines effizienten Speichermanagements ist die Virtualisierung der Ressourcen«, sagt Siegfried Betke, Director Sales Central Europe bei DataCore Software. »Erst durch diese logische Zwischenschicht lässt sich die Verwaltung über Hardware-Beschränkungen hinweg zentralisieren und effizient gestalten. Beim Speichermanagement geht es um die Verwaltung der Kapazität und Performance sowie des Disaster-Recovery.« Dies kann beispielsweis von einer zentralen Speichervirtualisierungs-Software unabhängig von der genutzten Hardware komplett abgebildet werden. Datacore verweist hier auf das hauseigene Produkt »SANsymphony-V«.

Speichererweiterungen sind unter der zentralen Virtualisierungsschicht nach Bedarf im laufenden Betrieb möglich. Thin-Provisioning sorgt für eine höhere Auslastung der Ressourcen und virtuelle Kapazitäten lassen sich mit wenigen Mausklicks dynamisch bereit stellen. »Ein intelligentes Caching der Virtualisierungsserver beschleunigt den Zugriff auf Daten und Anwendungen«, konstatiert Betke. »Aufbauend auf einer zentralen Speichervirtualisierungs-Plattform bieten sich zahlreiche Funktionalitäten und Technologien an, die die Effizienz der Storage-Nutzung erhöhen.«

Auto-Tiering sei dabei ein gutes Beispiel. Mit einem Mix aus unterschiedlichsten Speichermedien von SSD zu SAS und SATA lassen sich Daten effizienter je nach Anforderung an Verfügbarkeit und Performance speichern. Optimal können Unternehmen die Technologie jedoch nur nutzen, wenn ein Mischbetrieb neuer und alter Hardware unterschiedlichster Hersteller möglich ist.

Speicherverwaltung: Fallbeispiele

Die Vielseitigkeit des Speichermanagements kann mit praktischen Beispielen belegt werden. Die Kreissparkasse Birkenfeld betreibt unter anderem eine hochverfügbare VDI-Infrastruktur mit 350 virtuellen Desktops unter Citrix »XenDesktop« mit der Speichervirtualisierung von Datacore. »40 Geschäftsstellen mit rund 350 PC-Arbeitsplätzen können dadurch schneller als zuvor auf Anwendungen und Daten zugreifen«, erläutert Datacore-Manager Betke. »Die IT-Abteilung senkt die Kosten und vereinfacht die Administration der zentralen Dienste.«

Die HARTING Technologiegruppe melde mit Datacore-Software und kostengünstiger Midrange-Systeme bis zu 30 Prozent kürzere Antwortzeiten ihrer SAP-Umgebung. Ebenso konnte TOX PRESSOTECHNIK dank der virtualisierten IT-Umgebung auf Basis von Fujitsu-Systemen sowie Datacore und VMware den Administrationsaufwand deutlich senken und gleichzeitig einen vielversprechenden Performance-Zuwachs verzeichnen: Im SAP-Umfeld sei man jetzt um mehr als 50 Prozent schneller.

Bild: Dethleffs
Bild: Dethleffs
Der Reisemobilhersteller Dethleffs betreibt sein ERP-System »ABAS« auf einer hochleistungsfähigen IT-Infrastruktur. Durch den Einsatz der Virtualisierung der Speicher-Hardware mittels Datacore-Software wird nicht nur Hochverfügbarkeit gewährleistet, sie ermöglicht auch die Einbindung von SSD-Speicher und damit die geforderte Performance (lesen Sie mehr im Advertorial »Virtualisierte Standard-Hardware mit SSDs« auf virtualisierungs-guide.de).

Rentabel ist die Speichervirtualisierung aber auch in mittleren und kleineren Systemumgebungen. Die Kliniken an der Paar in Aichach und Friedberg haben mittels Datacore-Virtualisierung eine hochverfügbare, hardwareunabhängige und flexible IT-Infrastruktur mit Einsparpotenzial eingerichtet. Neben dem Einsatz kostengünstigerer Speicher-Hardware rechnen die Verantwortlichen durch die Reduzierung von 20 auf fünf Server allein bei Strom und Klimatisierung mit einer Einsparung von über 12.000 Euro jährlich. Die Investition soll sich innerhalb von zwei bis drei Jahren amortisieren.

Storage-Management in der Praxis

Virtuelle Storage-Umgebung mit Ausfall-RZ (Grafik: Datacore)
Virtuelle Storage-Umgebung mit Ausfall-RZ (Grafik: Datacore)
»In Zukunft wird die Hardware auch im Storage-Umfeld austauschbares Verbrauchsmaterial«, erwartet Datacore-Manager Betke. »Speichermanagement muss daher als Software-Strategie verstanden werden. Gerade die Ausbreitung von virtuellen Servern und virtuellen Desktops verändert die Anforderungen an das Speichermanagement und lässt sich eigentlich nur noch durch virtuellen Storage abbilden.« Kapazitäten müssen dynamisch und reversibel zugeordnet werden, der Storage muss die Performance-Spitzen einer VDI abdecken, oftmals verlangen dutzende virtuelle Maschinen Hochverfügbarkeit und Sicherung. Mit den herkömmlichen, statischen SAN-Hardware-Lösungen, die sich oftmals jeder Kompatibilität verweigern, sei diese Dynamik und damit Effizienz nicht zu erreichen. Dadurch wird Storage häufig auch zu einem Virtualisierungskiller, die Storage-Kosten fressen die Ersparnisse durch die Konsolidierung wieder auf.

»Zur Effizienz trägt entscheidend die Automation des Speichermanagements bei, gerade in schnell wachsenden dynamischen virtuellen Infrastrukturen«, meint Betke. »Neben erleichternden automatisierten Verwaltungsfunktionen stellen wir im Feld häufig fest, dass die Anwender große Probleme haben, etwas sehr zentrales und elementares einzurichten: Den automatischen Failover und ein Autofailback zwischen Speichersystemen. Hardware-Lösungen sind meist zu unflexibel bzw. kaum erschwinglich. Hier kommen wir häufig ins Spiel.« So nutzt beispielsweise der Messgerätehersteller VEGA Grieshaber die Sansymphony in seinen Rechenzentren für einen transparenten Failover zwischen IBM »XIV« für Exchange, SQL, SAP-Datenbanken und Vmware-Umgebungen mit hohem Random I/O.

Zudem sei laut Betke zu berücksichtigen, dass die Virtualisierung längst auch den Mittelstand erfasst. Dort müsse der Speicher oder auch der Shared-Storage einfacher und schneller zu handhaben sein. Das Entwicklungsziel sei daher ganz klar die Benutzerführung zu vereinfachen: »Jeder der Windows bedienen kann, muss auch virtuelle Speichervolumes einrichten und zuweisen können.«

Die eigenen Management-Anforderungen kennen

Für Unternehmen gilt es sich in erster Linie über die Service-Level auf Applikationsebene klar zu werden.« Das heißt:

  • Ist die E-Mail-Landschaft kritisch?
  • Ist ein RPO von vier Stunden für die Datenbankapplikation tragbar?
  • Ist die ERP-Applikation schnell genug oder gibt es Lastspitzen?
  • Wer übernimmt die Speicherverwaltung, wenn der Hauptamtliche nicht zur Verfügung steht?

»Wer all diese Themen beleuchtet, hat sicherlich ein anderes Bild von seinen Anforderungen an den Storage und dessen Management«, erklärt Falconstor-Manager Berlo. »Oft entscheiden primär monetäre Parameter darüber, welcher Storage angeschafft wird. Dass dieser völlig anders zu managen ist als der bereits vorhandene, eine kostspielige Migration nötig ist, die Erweiterung doppelt so teuer ist und die Anpassung von vorhandenen Scripten an das neue System kostbare und nicht eingeplante Arbeitszeit in Anspruch nimmt, fällt leider oft erst hinterher auf. «Eine Vollkostenrechnung die nach zwei Jahren Betrieb all diese Faktoren einbezieht, wird in der Praxis relativ selten erstellt. Wäre aber sinnvoll!

Weiterlesen »

Anzeige