Anzeige

Treibende Kräfte der Transformation im Storage-Markt

Der Speichermarkt erlebt derzeit eine von äußeren Kräften getriebene Transformation: Der Umgang mit Ransomware, der Trend zu Containern bei der Anwendungsentwicklung und der Wunsch, Daten stärker als bisher verteilt vorzuhalten und zu verarbeiten, zwingen dazu, den Umgang mit Daten zu überdenken. Angebote dafür gibt es genug.
Treibende Kräfte der Transformation im Storage-Markt (Bild: speicherguide.de via Canva pro)

Lange Jahre hat sich der Speichermarkt aus sich heraus weiterentwickelt: Größere, schnellere Festplatten, neue, leistungsfähigere Speichermedien, neue, leistungsfähigere Protokolle und vor allem immer größere oder zumindest ausbaufähigere Systeme, die die rasch wachsende Datenmenge in Unternehmen aufnehmen sollten. Seit einiger Zeit ist jedoch zu beobachten, dass externe Einflussfaktoren an Bedeutung gewinnen. Im Verlauf der Pandemie sind die womöglich noch schneller in den Vordergrund gerückt, als es ihnen unter normalen Bedingungen gelungen wäre.

Das sind vor allem neue Abwehrstrategien für Ransomware, die Nutzung von mehreren Cloud-Diensten und damit auch die Nutzung von Containern mit ihren speziellen Storage-Anforderungen sowie die zunehmend dezentrale Datenspeicherung im sogenannten »Edge« oder in Multi-Cloud-Szenarien. Alle drei Entwicklungen stellen traditionelle Storage-Ansätze vor erhebliche Probleme.

Marco Becker, IDCMarco Becker, IDC

Das macht sich in anderen Segmenten bemerkbar. »Die Nachfrage nach Software-defined Storage (SDS) ist weiterhin stark steigend und kannibalisiert Investitionen in klassische SAN- und NAS-Systeme«, berichtet Marco Becker, Senior Consultant bei IDC. »Insbesondere die SDS-Ausgaben für File- und Object-Storage, der besonders häufig für Cloud-Einsatzszenarien genutzt wird, wachsen deutlich.«

Der Einfluss von Ransomware auf den Storage-Markt

Sascha Uhl, CloudianSascha Uhl, Cloudian Nach Ansicht von Sascha Uhl, Object Storage Technologist bei Cloudian, hat die »deutliche und industrieübergreifende Zunahme an Ransomware-Angriffen im letzten Jahr Unternehmen deutlich vor Augen geführt, dass entsprechende Sicherheitsmaßnahmen unabdingbar sind – und sei es nur um die Anforderungen der Versicherer zu erfüllen.« Auch Nevzat Bucioglo, Country Manager Deutschland von Infinidat, sieht, »dass Unternehmen einen starken Schwerpunkt auf Cyber-Resilienz legen und nach Speicherlösungen suchen, die ihnen einen starken Datenschutz und die Fähigkeit zur schnellen Wiederherstellung nach einem Systemausfall bieten. Insbesondere sorgen sich Unternehmen um die Folgen von Ransomware-Angriffen.«

Andreas Hellriegel, ArcserveAndreas Hellriegel, Arcserve Andreas Hellriegel, VP Sales EMEA South bei Arcserve, spricht nicht von Cyber-Resilienz, sondern von Business Continuity – meint aber damit letztlich dasselbe: »Gerade Business-Continuity kann mit klassischem Storage häufig nicht gewährleistet werden. Selbst wenn sich die Daten schnell wiederherstellen lassen (hohe RTO), sind dennoch wichtige Daten verloren gegangen, falls das letzte Backup schon weiter zurück liegt (niedrige RPO).« Als Ausweg biete sich der unveränderliche Objektspeicher an, der in regelmäßigen, kurzen Abständen Snapshots erstellt.

So reagieren Storage-Anbieter auf die Gefahr durch Ransomware

Uhl zufolge reagieren Storage-Anbieter auf den neu entstandenen Bedarf im Bereich Object-Storage beispielsweise mit Object-Lock-Lösungen, »einer WORM Applikation, die es Nutzern erlaubt, ihre Daten für eine gesetzte Zeit unveränderlich zu machen, sagt Uhl. Cloudian selbst unterbreitet ein entsprechendes Angebot bereits seit Anfang 2020. Es war damit einer der ersten Anbieter mit einer umfassend zertifizierten Lösung am Markt (Common Criteria, FIPS Zertifizierung und die deutsche IDW-PS-880-Zertifizierung).

Pascal Brunner, CohesityPascal Brunner, CohesityNicht zuletzt durch die größere Angriffsfläche im Home-Office nimmt die Zahl der Ransomware-Attacken deutlich zu. »Daher muss jede Komponente im Gesamtsystem so sicher wie möglich sein«, betont Pascal Brunner, Field Technical Director EMEA bei Cohesity. »Dies schließt natürlich Backups ein. Denn im Falle einer erfolgreichen Attacke ist man auf eine gute aktuelle Sicherungskopie angewiesen, um die Daten und IT-Dienste möglichst innerhalb von Sekunden wieder zur Verfügung zu stellen.«

Eine Backup-Lösung sollte laut Brunner die gesicherten Daten sowohl gegenüber internen als externen Angriffen schützen. WORM-Funktionen seien dabei ein adäquates Mittel. »Zudem können aktuelle Lösungen mit Hilfe von Machine-Learning automatisch Unregelmäßigkeiten und Anomalien erkennen sowie Alarmmeldungen ausgeben«, ergänzt Brunner. »Dabei bieten sie die Möglichkeit, betroffene Systeme innerhalb kürzester Zeit wiederherzustellen.«

Einen anhaltenden Trend zu »Immutable Storage« sieht angesichts der zunehmenden Gefahren Arcserve-Experte Hellriegel: »Der unveränderliche Objektspeicher unterstützt beispielsweise das bewährte 3-2-1 Backup-Konzept, indem in einem festgelegten Zeitraum ein unveränderlicher Snapshot von den Daten erstellt wird. Der Backup-Trend geht sogar in die Richtung 3-2-1-1 Backup«. Arcserve bietet in dem Bereich seine Produktreihe StorageCraft OneXafe an.

Storage muss »Container-ready« werden

Neue Entwicklungen in der IT werden oft so dargestellt, als ob bisherige Ansätze damit nun völlig überholt sind. Den Eindruck bekommt man auch bei einer ersten Beschäftigung mit der Container-Technologie. Treibende Kräfte sind hier DevOps, Microservices und Cloud-Nutzung. Gerade bei der Cloud-Nutzung haben die pandemiebedingten Strukturveränderungen noch einmal einen Schub gebracht. Allerdings ist das Zusammenspiel von Container-Technologie und Storage noch nicht reibungslos – und oft kompliziert.

»In einer Standard-Unternehmensumgebung, in der Daten vornehmlich auf herkömmliche Weise generiert werden, sind klassische Storage-Ansätze noch immer vollkommen ausreichend«, beruhigt Uhl. Der Cloudian-Manager fügt aber auch hinzu: »Eine Herausforderung, der diese jedoch nicht mehr gewachsen sind, ist die wachsende Datenmenge im Edge-Bereich. Hier beobachten wir eine Wachstumsrate, die mit herkömmlichen Public- und auch Private-Cloud-Storage-Lösungen nicht mehr kosteneffizient zu bewältigen ist.« Seiner Ansicht nach müssen hier neue Architekturen entwickelt werden – und dabei sieht Cloudian großes Potenzial in der Containerisierung.

Kostenaspekte als Transformationskraft

»Der klassische Ansatz mit großen Vorabinvestitionen in Speicher-Hardware ist durchgängig nicht mehr praktikabel«, fällt Infinidat-Manager Bucioglo ein hartes Urteil. »Das Datenwachstum ist rasant und Unternehmen benötigen immer mehr Speicherplatz.« Public-Cloud-Storage würde in den meisten Fällen schnell zu teuer. »Unternehmen brauchen die Flexibilität der Public-Cloud im eigenen Rechenzentrum, basierend auf einer leistungsstarken Technologie und zu einem niedrigeren Preis pro Petabyte als in der Public Cloud«, konstatiert Bucioglo. Er sieht zudem einen Bedarf nach flexiblen – oder wie Infinidat es nennt – »elastischen« Preismodellen, um die erforderlichen Eigenschaften in einer Private Cloud zu realisieren.

Beim Blick auf den Markt stellt IDC-Consultant Becker fest: »Storage IaaS ist wegen seiner Flexibilität und Skalierbarkeit fester Bestandteil der meisten Storage-Landschaften geworden – wozu unter anderem auch COVID-19 beigetragen hat. Auf Subscriptions oder pay-as-you-go basierende Bereitstellungsmodelle haben Unternehmen dabei geholfen, ihre Storage-Anforderungen schnell an die neuen Bedürfnisse anzupassen. « Viele Unternehmen sicherten sich durch Storage IaaS zudem den schnellen Zugriff auf neue Storage-Features und -Technologien.

Sascha Oehl, HuaweiSascha Oehl, HuaweiAus seiner Erfahrung hält Sascha Oehl, Director PreSales Cloud & AI bei Huawei aktuell die Laufzeit vieler bestehender Systeme für problematisch: »Obwohl die Anforderungen steigen, sind viele Kunden noch in starren und veraltetet Lösungen anderer Anbieter gefangen.« Huawei-Kunden hätten es da einfacher, da Flexibilität schon in den Produkten berücksichtigt sei und sich beispielsweise Medienupgrades leicht durchführen ließen. Dabei gehe es nicht nur um die Umstellung von HDDs aus SSDs, sondern auch um kürzere Latenzzeiten für agile Applikationen und damit Technologien wie Non-Volatile Memory Express (NVMe) und NVMe over Fabric (NVMe-oF)

Was technisch möglich ist, wird auch erwartet

Oehl sieht dringenden Handlungsbedarf für die anstehende Transformation.:»Eigentlich reichen die klassischen Ansätze bei fast allen Anwendungen nicht mehr aus, denn die Anforderungen sind in den letzten Monaten sehr stark gestiegen.« Die Anwendungen und Erwartungen hätten sich dabei schnell an die Möglichkeiten angepasst. Das beginne bei Primärspeichern, wo Latenzen minimiert und NVMe-Flash als Standard akzeptiert worden sei, um moderne Applikationen und Anforderungen zu unterstützen. Es gelte aber auch für Sekundärspeicher: »Selbst bei zum Beispiel Backup-Storage sind Flash und Disk mittlerweile Standard«, erklärt Oehl.

Arcserve-Manager Hellriegel, gibt dagegen teilweise Entwarnung: »Klassische Storage-Lösungen sind hinsichtlich der Speicherkapazitäten für kleinere Unternehmen und Selbstständige meist noch ausreichend.« Gegen sie spricht seiner Auffassung jedoch, wenn es hohe Anforderungen in Bezug auf die Sicherheit oder bei der Skalierbarkeit gibt.

Datensilos nicht in die Cloud hieven

Die verstärkte Cloud-Nutzung sollte aber noch aus einem anderen Grund zu einer Transformation der Storage-Architekturen führen. Meist haben sich in Unternehmen aufgrund historisch gewachsener Infrastrukturen und Anwendungen, deren Architektur auf siloartigen Strukturen aufgebaut ist, mehrere Datenpools entwickelt. »Obwohl die Virtualisierung den Betrieb komplexer IT-Umgebungen stark vereinfacht hat, ist dies noch nicht bis in die Anwendungsebene durchgedrungen«, beschreibt Brunner aus seiner Sicht bei Cohesity, den Status Quo. Backend-Systeme wie Datenbanken über Middleware bis zu Frontend-Systemen wie Webserver verwendeten daher häufig ihre eigenen Datensilos.

Werden die bei der Migration in die Cloud übernommen, stehen Unternehmen vor der Aufgabe, vom Außenstandort über die eigenen Rechenzentren bis zu den Cloud-Hyperscalern unabhängige Datensilos zu verwalten, warnt Brunner. »In diesem Fall sollten sie in einem iterativen Prozess ihre Infrastrukturen konsolidieren. Hier sind Tools einzusetzen, die alte und neue Workloads bewältigen können, ob On-Premises oder in der Cloud, um einen einheitlichen Datenpool zu schaffen, der umfassende und zuverlässige Informationen liefert«, empfiehlt Brunner.

Bei den Kunden von Cloudian trifft Uhl auf viele, die gerade ihre Storage-Architektur optimieren. Eine beliebte Aufteilung sei dabei schneller Block-Storage für die virtualisierte Infrastruktur und Scale-Out-NAS und Object-Storage für die Ablage der unstrukturierten Daten. »Insgesamt können wir ein wachsendes Bewusstsein um die Bedeutsamkeit einer nachhaltigen Storage-Strategie erkennen. Der wunde Punkt hierbei ist jedoch nicht nur die wachsende Menge an Daten, sondern auch die sich verändernden Prozesse, also die Frage wo wir Daten verarbeiten«, warnt Uhl. Unternehmen, die im Moment ein aktuelles und funktionierendes System besitzen, merkten vielleicht in drei oder fünf Jahren, dass ihr Konzept nicht flexibel und langfristig genug angelegt war.

Flexibilität wird Trumpf

Der Spagat zwischen der alten und der neuen Welt, sei ebenso wie der Austausch veralteter Technologie meist mit großen Kosten und Aufwand verbunden. Es sei jedoch der »deutlich nachhaltigere Schritt«. Laut Uhl sollten Unternehmen dabei darauf achten, flexible Speicherlösungen mit wenigen Abhängigkeiten einzusetzen, »beispielsweise disaggregierte Systeme, bei denen Software herstellerunabhängig mit frei gewählter Standardhardware kombiniert werden kann. Hoch-kompatible Speicherprotokoll, die zum Beispiel S3 sprechen, ermöglichen wiederum einen problemlosen Zugriff auf andere S3 basierte Applikationen.«

Auch Bucioglo plädiert für Flexibilität – und legt Firmen sogar nahe, sich von der intensiven Betrachtung der technischen Grundlagen zu lösen und die Frage stärker in den Vordergrund zu rücken, was Storage überhaupt leisten soll: »Unternehmen müssen auf die besten Gesamtbetriebskosten bei hoher Performance achten. Technisch sind Faktoren wie Skalierbarkeit, Geschwindigkeit und hundertprozentige Datenverfügbarkeit von zentraler Bedeutung. Wie diese im Einzelnen technisch erzielt werden, sollte für Unternehmen letztlich sekundär sein. «

In eine ähnliche Richtung argumentiert auch Brunner: »Für ein effizientes Datenmanagement müssen Unternehmen ihre Silos auflösen und eine übergreifende Plattform nutzen, die sich auf ihre individuellen Bedürfnisse granular anpassen und laufend optimieren lässt.« Im ersten Schritt könnten sie dafür eine Lösung einsetzen, die File Services mit offenen Protokollen unterstützt sowie Backups mit geschützten Snapshots erstellt. Im zweiten Schritt ließen sich die Daten dann mit Zusatzinformationen anreichern, um Mehrwert zu schaffen und detaillierte Analysen zu ermöglichen.

Insgesamt müssen Unternehmen als neben der technischen Weiterentwicklung heute auch Infrastrukturveränderungen, weiter wachsende Datenmengen und die »Cloudifizierung« der IT bewältigen. Klassische Storage-Technologien stoßen dabei immer öfter an ihre Grenzen – vor allem in Unternehmen, die wirklich »datengetrieben« sein wollen und daran denken, ihre Geschäftsmodelle diesbezüglich umzubauen.

Im Rahmen der einstündigen IDC Digital Connections Storage Transformation erfahren Vertreter von Anwenderunternehmen kompakt und auf den Punkt gebracht wie sie die aktuell größten Herausforderungen angehen und wie die nächsten Schritte aussehen sollten, damit Storage als Daten-Enabler zu einem echten Wettbewerbsvorteil für Ihr Unternehmen wird.

Anzeige