Anzeige

Digitalisierung fordert Storage-Infrastruktur

Für die einen ist die Digitalisierung das Trendthema schlechthin, für andere einfach nur eine Weiterentwicklung der IT. Sicher ist, die Anforderungen ändern sich immer schneller und entsprechend verkürzen sich die Update-Zyklen. Dafür benötigen Firmen und Rechenzentren die passende Storage-Infrastruktur. Experten sehen die Zukunft in Software-definierten Strukturen. Das gute alte SAN hat allerdings noch längst nicht ausgedient.

Die digitale Transformation fordert viel von der IT, auch von der Storage-Infrastruktur. Daher ist für IT-Abteilungen weniger die Digitalisierung das Hype-Thema, sondern vielmehr die Frage nach dem passsenden Unterbau. Das jährliche Datenwachstum liegt bei 30 bis 40 Prozent, dem müssen Firmen gerecht werden. Immerhin soll das weltweite Datenvolumen bis 2020 auf über 50 ZByte ansteigen. Im Zuge dessen ist, für Dr. Carlo Velten, CEO des IT-Research- und Beratungsunternehmens Crisp Research, die Verfügbarkeit das Hauptthema für IT-Abteilungen: »Es wird ein intelligenter Storage-Mix benötigt, der den verschiedenen Verfügbarkeitsklassen sowie den Performance-Anforderungen unterschiedlicher Anwendungskategorien Rechnung trägt.«

Christian Winterfeldt, Dell EMC: »Wenn es um kompromisslose Verfügbarkeit und Performance geht, hat das Storage-Array dem SDS noch einige Jahre Entwicklung voraus.«Christian Winterfeldt, Dell EMC: »Wenn es um kompromisslose Verfügbarkeit und Performance geht, hat das Storage-Array dem SDS noch einige Jahre Entwicklung voraus.«So sieht es auch Christian Winterfeldt, Director Sales Modern Datacenter bei Dell EMC: »Ein einzelnes Storage-System wird weder heute, noch in Zukunft alle Anforderungen der Kunden bedienen. Um die aufgrund der fortschreitenden Digitalisierung der Geschäftsmodelle immer größer werdenden Anforderungen in puncto Performance, Verfügbarkeit, Skalierung, Datenservices, Art der Daten und natürlich auch Preis bedienen zu können, braucht es einen Mix aus verschiedenen Systemen.«

Für maximale Performance und Verfügbarkeit ohne Kompromisse bei der Nutzung von Daten-Services sei die klassische 3-Tier-Architektur mit Highend-Storage immer noch am besten geeignet. Diese Anforderungen sind meist bei großen, monolithischen Anwendungen gegeben, bei konsolidierten Datenbanken, Bare-Metal-Umgebungen, Unix- und Mainframe-Systemen, Core-Billing-Anwendungen, und wenn auf dem Host große CPU-Last bei gleichzeitig hoher IO-Last erzeugt wird. Je nach Business-Kritikalität lassen sich diese Anforderungen aber auch schon von Midrange-Speichern abbilden.

Anzeige

Software-defined Storage als flexibler Unterbau

Ein unverkennbarer Trend geht Experten zufolge in Richtung Software-defined Storage (SDS). »Für den User ändert sich kaum was, weil die Benutzung des Storage transparent ist«, erklärt Wolfgang Stief, Senior Storage Solutions Architect für Boston Server & Storage Solutions. »Der Administrator kann aber flexibler agieren und schneller auf Anforderungen im Markt reagieren. Der Unterbau muss diese Flexibilität bieten und stabil gewährleisten.«

Stefan von Dreusche, Datacore: »Eine ausgereifte SDS-Plattform hilft, Barrieren zwischen unterschiedlichen Strukturen zu überwinden.«Stefan von Dreusche, Datacore: »Eine ausgereifte SDS-Plattform hilft, Barrieren zwischen unterschiedlichen Strukturen zu überwinden.«Vor allem Automation und Migrationsdienste sind laut Stefan von Dreusche, Vice President Central Europe bei DataCore Software, eine elementare Voraussetzung für die digitale Transformation: »Hier sollte eine ausgereifte SDS-Plattform helfen, Barrieren zwischen unterschiedlichen Ansätzen zu überwinden. Sowohl der Wechsel zwischen Speicherarchitekturen als auch die Datenmigration innerhalb einer Architektur sollten möglich sein. Im Idealfall unterstützt eine SDS-Plattform diverse Architekturen wie On-Premise- und Server-SAN, Cloud, Hyper- sowie und Hybrid-Converged. Letzteres beschreibt eine Architektur, in der externe Hosts auf Storage-Ressourcen in einem hyperkonvergenten System zugreifen. Durch diese Flexibilität kann der IT-Manager, je nach Anforderung, entweder mit vorhandenen Ressourcen oder Zusatzanschaffungen, Erweiterungen an den Systemen vornehmen. Applikationen wird so der optimale Speicherplatz in puncto Performance und Ausfallsicherheit zur Verfügung gestellt, sowie alles über eine zentrale Oberfläche verwaltet.«

Software-defined gehört die Zukunft

Frank Reichart, Fujitsu: »Das Datenvolumen wird in den kommenden drei Jahren etwa um den Faktor 10 steigen.«Frank Reichart, Fujitsu: »Das Datenvolumen wird in den kommenden drei Jahren etwa um den Faktor 10 steigen.«»Eine SDS-Infrastruktur umfasst x86-Server, ein Netzwerk, das die Server (Knoten) verbindet sowie eine Storage-Software«, sagt Frank Reichart, Senior Director Global Product Marketing Storage bei Fujitsu. »Damit lässt sich eine robuste und sicher verteilte Storage-Infrastruktur einrichten. Sie eignet sich vor allem für 2nd-Tier-Storage-Umgebungen, in denen vorzugsweise unstrukturierte Daten abgelegt werden.« Positiv auf die Kosten schlägt sich nieder, dass sich SDS mithilfe von Standard-Servern und Open-Source-Software wie Ceph einrichten lässt. Allerdings erfordert der Aufbau eines SDSStorage-Clusters einiges an Integrationsarbeit sowie umfangreiche Tests. Auch die Verwaltung der Netzwerkkomponenten sowie die Abstimmung von Soft- und Hardware-Updates ist in der Praxis nicht immer trivial. »Wer daher SDS implementieren möchte, benötigt Fachleute, deren Wissen über das eines typischen Storage-Administrators hinausgeht «, meint Reichart.

Auch Dell EMC geht davon aus, dass es künftig nicht ohne »Software-defined Everything« gehen wird. Grund dafür sei die Forderung nach Flexibilität, Sicherheit und Geschwindigkeit bei der Bereitstellung und gegebenenfalls Dekommissionierung von IT-Ressourcen. »Dennoch wird es noch einige Zeit dauern, bis Software-defined den gleichen Level an Verfügbarkeit und Performance erreicht wie die über Jahrzehnte verbesserte 3-Tier-Architektur«, schränkt Winterfeldt ein.

SAN-Strukturen haben noch eine Zukunft

Kontrovers wird die Zukunft der bisher etablierten SAN-Strukturen betrachtet. Für Datacore hat das klassische, Hardware-fixierte SAN bereits weitestgehend ausgedient. »Zumindest dort, wo sich Speicheranforderungen permanent verändern und Flexibilität gefordert ist«, sagt von Dreusche.

Wolfgang Bauer, Technischer Leiter bei EUROstor, sieht für die kommenden Jahre definitiv noch Bedarf: »Nicht immer wird man alles in einem kompakten (hyperkonvergenten) System zusammenfassen, oder einfach alles in die Cloud schieben wollen. In der Praxis wird man auch weiterhin Server und Storage-Systeme unterschiedlicher Hersteller nutzen, die über ein SAN relativ unkompliziert und performant zusammengeführt werden können.« Der Fibre-Channel-Anteil nehme zwar ab, wenn auch wegen bestehender Infrastrukturen langsamer als noch vor einigen Jahren erwartet, aber iSCSI-SANs haben für Bauer noch eine Zukunft.

»SAN-Strukturen sind in der Regel integraler Bestandteil des RZ-Betriebs und der darin laufenden Anwendungen«, ergänzt Boston-Consultant Stief. »Sie herauszulösen und durch modernes, objektbasiertes Storage zu ersetzen würde bedeuten, dass auch Änderungen an der Infrastruktur oder sogar in der Applikation erforderlich sind. Das Argument `SLA´ hingegen spielt im Vergleich SAN zu SDS eine immer geringere Rolle. Mit moderner Ethernet-Technologie und darauf aufsetzenden Protokollen sind ebensolche SLAs möglich, wie sie SANs versprechen.

Spätestens mit einem Wechsel oder Update der Applikation ist es aber erlaubt, auch die darunterliegende Storage-Infrastruktur zu erneuern. SAN wird mehr und mehr zu einem Nischenmarkt.« Zudem seien Fachkräfte schwer zu bekommen und entsprechend teuer. Die Investition in eine gänzlich neue Storage-Architektur könnte sich schnell amortisieren.

Update-Zyklen beschleunigen sich

Auf die Frage, wie sich der Storage-Markt entwickelt, antwortet Eurostor-Manager Bauer relativ pragmatisch: »Digitalisierung ist doch wirklich ein typischer Hype-Begriff, wir digitalisieren seit mindestens 80 Jahren. Also sieht die Zukunft so aus wie schon immer: Mehr Speicher, mehr Rechenleistung, bessere Infrastruktur und möglichst übersichtlich zu verwalten. Sonst bleibe eigentlich alles beim Alten…« Mit dieser Meinung steht Bauer nicht alleine, viele Administratoren sehen es ähnlich, »die Anforderungen steigen seit Anbeginn des IT-Zeitalters«. Künftig könnten sich die Zyklen aber noch einmal deutlich beschleunigen: »Die IT wird sich noch schneller als bisher up-to-date halten müssen«, meint Crisp-Analyst Dr. Velten. Mit steigendem Digitalisierungsgrad könne heute nicht seriös vorhergesagt werden, wie sich die Anforderungen der Endkunden, die von außen auf die Systeme zugreifen, in ein oder zwei Jahren entwickeln.

Dazu trägt auch der Umgang mit den Daten bei. Jede Abteilung glaubt, Zugriff auf bestimmte Daten haben zu müssen. Früher wurden dafür die Genehmigungen von zwei Hierarchieebenen benötigt, nun im Always-On-Zeitalter wird vieles als selbstverständlich vorausgesetzt. Dem müssen ITler und Systemverantwortliche heute Rechnung tragen. »Daher darf Storage und die IT kein Flaschenhals sein«, mahnt Dr. Velten, »sondern der Enabler der Digitalisierung.«


Anzeige