Anzeige

Stolpersteine auf dem Weg zur Storage-Virtualisierung

Kurt-Jürgen Jacobs, Geschäftsführer, qSkills

Virtualisierungstechnologien bieten nach Ansicht von Experten eine gute Möglichkeit, um die Performance der eigenen IT-Infrastruktur zu steigern und gleichzeitig einen effizienteren Ressourceneinsatz zu erzielen. Damit der Weg zum virtuellen Rechenzentrum sowie zu optimalen IT- und Geschäftsprozessen nicht in einer Sackgasse endet, müssen Firmen einige Wegweiser beachten. Welche?
Darüber sprach virtualisierungs-guide.de mit Kurt-Jürgen Jacobs, Geschäftsführer des IT-Trainingsanbieters qSkills aus Nürnberg.

Welche Möglichkeiten und Mehrwerte bietet eine Storage-Virtualisierung für den Anwender?

Kurt-Jürgen Jacobs
Jacobs: Ein professionell eingesetztes Storage-Management unterstützt die IT- und Geschäftsprozesse merklich. Sei es in puncto Verfügbarkeit der eigenen Informationen oder der Zunahme der Flexibilität aufgrund einer zusätzlichen Schicht zwischen physikalischem Storage und Nutzerdaten. Zusätzlich hilft es, Verschnitt beziehungsweise ungenutzte Storage-Bereiche zu nutzen. Das Ziel ist ein virtuelles Rechenzentrum mit hoher Sicherheit der eigenen IT-Infrastruktur und eine gewisse Unabhängigkeit von physikalischen Storage-Systemen.

Und was soll unterm Strich für den Anwender herauskommen?

Jacobs: Unter dem Strich sollten nach Einführung einer Storage-Virtualisierung merklich flexiblere IT-Prozesse für die eigene Organisation zu Verfügung stehen. Kürzere Änderungs- und Reaktionszeiten sollten sich zudem einstellen. Mit dem technologischen Ansatz, vorhandene Speicherkapazitäten virtuell zu nutzen und einzelnen Serversystemen flexibel Speicher zuzuweisen, wird auch den steigenden Leistungsdaten der Storage-Systeme Rechnung getragen. Es ist quasi ein Branchentrend entstanden. Unterschiede bestehen allerdings bei der Einbindung der einzelnen Speicherlösungen.

Welche Unterschiede sehen Sie bei den aktuellen Storage-Lösungen?

Jacobs: Zwei fundierte Ansätze im Speichermanagement bieten unter anderem FalconStor mit dem Network Storage Server, also NSS, und NetApp mit seiner V-Series Produktfamilie und den Möglichkeiten von Multistore. Während NSS virtuelle Speicherkapazitäten via Fibre-Channel, FCoE und iSCSI durch eine zusätzliche Software-Schicht und getrennt vom Storage-System zur Verfügung stellt, setzt Netapp mit Multistore und V-Series auf Shared-Infrastructures und der Nutzung der ONTAP-Funktionalitäten auf Fremd-Systemen. Falconstor bietet mit der NSS-Technologie eine offene Storage-Architektur sowie gute Disaster-Recovery- und Data-Protection-Möglichkeiten. Weitere NSS-Vorteile liegen unter anderem in der Any2Any-Migration und den bandbreitenschonenden Replikationen, auch für Storage-Systeme, die diese Funktionalität nicht bieten.

Können Sie noch etwas mehr zu Netapps ONTAP-Funktionalitäten auf Fremd-Systemen sagen?

Jacobs: Netapp bietet hier eine einheitliche ONTAP-Umgebung mit seinen Multistore-Möglichkeiten, deren Features in Kombination mit der V-Series auch auf Fremdprodukten genutzt werden können. Im Speziellen bietet die V-Series einen einfachen Strategie-Schwenk auf Netapp-Systeme und integriert Bestands-Systeme/Bestandsinvestitionen in das neue Storage-Konzept basierend auf Netapp-Technologie. Die Multistor-Lösung erlaubt einem ein physikalisches Speichersystem bedarfsgerecht in virtuelle Systeme aufzuteilen, diese virtuellen Systeme separat zu administrieren, als auch ein einfaches und schnelles Recovery. Trotz der Unterschiede der Lösungen zu Falconstor und deren Anwendungsfälle gibt es aber auch Gemeinsamkeiten. So sind beide Lösungen hoch skalierbar, mandantenfähig und eignen sich für den Einsatz in großen wie mittelständischen Unternehmen. Somit lassen sich die Lösungen bedarfsgerecht an die jeweilige Unternehmensgröße anpassen.

Welche Knackpunkte können bei der Einführung einer virtualisierten IT-Umgebung entstehen?

Jacobs: Mögliche Stolpersteine liegen bereits vor der Integration einer Storage-Lösung auf dem Weg. Und diese sollte man nicht unterschätzen. In diesem Zusammenhang ist es wichtig, dass im Vorfeld eine Bestandsanalyse in der eigenen Organisation erfolgt. Dies ist wichtig, um die internen Bedürfnisse mit den Möglichkeiten der unterschiedlichen Technologien und Lösungen abzugleichen. Dies setzt ein fundiertes Wissen über technische Entwicklungen sowie deren Einbindung und Vernetzung im eigenen RZ-Betrieb voraus. Im Klartext: Nur wer als Kunde über die notwendige Expertise im eigenen Haus verfügt, kann die unterschiedlichen Systeme richtig bewerten, eine Storage-Virtualisierung zielführend initiieren, einführen und die Potenziale heben. Und an dieser Stelle haben gerade viele mittelständische und kleinere Unternehmen nicht das notwenige Know-how im eigenen Haus, um eine solide Storage-Virtualisierung aufzubauen. Ein weiterer Aspekt: Mithilfe einer virtualisierten Speicherumgebung wird eine weitere Schicht zwischen dem physikalischen Storage und dem auf die Daten zugreifenden System eingefügt. Dies erhöht die Komplexität der Systeme sowie Abstraktion und stellt hohe Anforderungen an die sichere Trennung der einzelnen virtuellen Umgebungen. Wenn an diesen Stellschrauben Fehler gemacht werden, kann das aufgrund der Konzentration große Folgen für das Unternehmen haben. Angefangen bei nicht eingehaltenen Compliance-Richtlinien über finanzielle Einbußen und Informationsabfluss bis hin zum Vertrauensverlust und Imageschäden, die meist viel mehr ins Gewicht fallen und nur schwer auszugleichen sind.

Wie lässt sich ihrer Meinung nach die immer stärker werdende Komplexität der technischen Virtualisierungs-Möglichkeiten beherrschen?

Jacobs: Um eine solide technische Ausstattung an die jeweiligen Bedürfnisse des Unternehmens anzupassen, ist das Wissen um die Vernetzung und Einbindung einer virtualisierten Storage-Lösung in die eigene IT-Infrastruktur unerlässlich. Denn mit zunehmender technologischer Tiefe der Lösungen steigt der Bedarf an gut ausgebildeten Mitarbeitern. Anders ausgedrückt. Nur wer die unterschiedlichen Herausforderungen sowie die potenziellen Fallstricke bei der Integration einer Storagelösung kennt, kann Fehler im Vorfeld vermeiden und eine optimal funktionierende virtuelle Storage-Umgebung aufbauen. Dies setzt wiederum praxisnahe Trainings voraus – auch im Vorfeld einer Entscheidung für eine Lösung und deren Implementierung. Das heißt: In Kombination mit theoretischem Wissen werden neben der Einbindung und Vernetzung virtueller Speicherlösungen auch Anforderungs- und Lösungs-Szenarien nachgestellt. Diese Versuche fördern den Praxisbezug bei den Teilnehmern unter reellen Bedingungen. Bei gleichzeitigem Anwenden der neu erlernten Kenntnisse.

Können Sie mal ein Beispiel erläutern?

Jacobs: Als Beispiel aus unserem Trainingsbereich kann ich auf das Falconstor-Training NSS-Administration samt Einbindung der NSS-Produktfamilie in ein bestehendes SAN oder das Training »ST200 Netapp ONTAP-Fundamentals-Administration« und »ST224 Data ONTAP und Windows Active Directory« mit den Möglichkeiten von Multistore verweisen. Der Vorteil dieser integrierten IT-Trainings liegt auf der Hand: Fehler machen und daraus lernen. Und das unter der Aufsicht von erfahrenen Trainern, die von ihren langjährigen Projekterfahrungen profitieren und dieses Wissen in ihren Schulungen weitergeben können.

Fehler machen und daraus lernen – ein ungewöhnlicher Ansatz…

Jacobs: Wir von qSkills setzen bei unseren Storage-Trainings bewusst auf diesen Lerneffekt. Denn Fehler, die bei uns in den Schulungen gemacht werden, bleiben ohne Folgen. Anders wäre das im realen IT-Betrieb. Und daraus lernen die Teilnehmer. Hinzu kommen immer kürzere Produktzyklen, technologische Neuerungen und Applikationen. Dies macht einen professionellen Wissenstransfer zwischen den einzelnen IT-Bereichen und Schnittstellen unerlässlich und wird in Zukunft immer wichtiger. Oder anders ausgedrückt: Die Qualität der Trainings wird immer wichtiger.

Qskills im Überblick
.
Anzeige