Anzeige

Datenwachstum: Unternehmen sollten auf neue Technologien setzen

Das Datenwachstum übersteigt die prognostizierten Werte. IDC rechnet bis 2024 mit einem jährlichen Plus von 26 Prozent. »Wer sich nicht bewegt, wird von den Datenmassen schlicht erschlagen«, meint IDC-Analyst Marco Becker, im Gespräch mit speicherguide.de. Zu schnell zu viel investieren sollte trotzdem niemand. Besser sind Tests neuer Technologien als Cloud-Service.

Marco Becker, IDCMarco Becker, IDCDie Datenmengen wachsen ungebremst weiter, und zwar so schnell, dass sie sogar die schon sehr großzügigen Prognosen überholen. »Wir hatten für 2020 40 ZByte neue Daten vorhergesagt, doch dieser Wert wurde schon 2019 mit 43 ZByte überschritten«, sagt Marco Becker, Senior Consultant bei IDC, im Interview des speicherguide.de-Online-Kongresses. »Für 2024 rechnen wir jetzt mit 143 ZByte, das ist ein jährliches Plus 26 Prozent.«

Die Trends, die dies bewirken, sind sattsam bekannt: IoT und IIoT (Internet-of-Things und Industrial-Internet-of-Things), soziale Medien intern und extern, E-Commerce, Entertainment und Datenanalyse. Noch immer macht Unterhaltung, also Streaming-Dienste wie Netflix, Gaming oder die gute alte Mediathek, einen großen Teil aus und wächst mit 25 Prozent jährlich.

Firmendaten wachsen sehr stark

Das stärkste Wachstum kommt jedoch von Produktivitäts- und Embedded-Daten, worunter etwa ERP (Enterprise-Resource-Planning), alle Embedded- und (I)IoT-Systeme fallen. 40 Prozent mehr davon gibt es Jahr um Jahr. Die meisten davon entstehen im Zusammenhang mit Produktions- oder Logistikprozessen in Unternehmen. Dazu kommen weitere Non-Entertainment-Daten, etwa aus der Sicherheitsüberwachung. Hier allerdings ist das Wachstum mit jährlich 19 Prozent schwächer.

Die meisten Daten erzeugen Endgeräte

Die Daten entstehen überwiegend an den Endgeräten, nämlich zu 58 Prozent: »Weil Unternehmen wissen wollen, was dort los ist und generiert wird, brauchen sie dazu Metadaten«, sagt Becker. In den Edge-Niederlassungen großer Rechenzentren entstehen in Zukunft 16 Prozent der Daten, im Core 26 Prozent. »All die peripheren Daten müssen transportiert, analysiert und die Reaktionen auf die Daten wieder zurück zum Endgerät gebracht werden. Das erzeugt großen Druck auf die Infrastrukturen«, warnt Becker.

Das Problem verstärkt sich durch die anwachsende Flut an Echtzeitdaten – 2019 waren es 19 Prozent, 2024 sollen es bereits 24 Prozent sein. Sie müssen sofort bearbeitet werden, denn unter Umständen erfordern die gemeldeten Zustände eine schnelle Reaktion, beispielsweise, wenn es um Defekte an Maschinen und Anlagen geht.

Dabei ist es egal, ob die Bearbeitung in einer Cloud oder On-Premises erfolgt. Und die Cloud ist nicht für alle Anwender eine Option, beispielsweise wenn geleakte Daten Compliance-Probleme hervorrufen oder geistiges Eigentum an die Konkurrenz verraten könnten.

Datenspeicherung: On-Premises bleibt wichtig

Daraus folgt, dass neben all dem Cloud-Business On-Premises oder Private-Cloud wichtig bleiben. Private-Clouds haben dabei den Vorteil, mit der gleichen Technik wie ihre On-Premises-Pendants zu arbeiten. Applikationen und Daten im Rahmen der zur Zeit zum Standard werdenden Hybrid-Cloud-Infrastrukturen lassen sich verhältnismäßig leicht zwischen ihnen verschieben. Eine detaillierte Analyse von Workloads und Daten ist ohnehin unverzichtbar, wenn es um die richtige Aufteilung von Apps und Daten auf die unterschiedlichen Trägersysteme geht.

Erst recht sollen neben Cloud-Diensten wie Glacier auch On-Prem-Archivierungslösungen in Band- oder HDD-Technik relevant bleiben. Immerhin gibt es einen Lichtblick beim unverzichtbaren Ausbau der Speicherinfrastruktur: Nur ein Bruchteil der erzeugten Daten, nämlich zehn Prozent, wird laut IDC gespeichert. Den Rest konsumieren Applikationen und verschwinden gleich darauf im großen Daten-Nirwana. Streaming ist dafür das beste Beispiel.

Speichermedien: Flash wächst stark, alle übrigen Medien bleiben

Das Thema Speichermedien wird geprägt durch das rasante Aufholen von Flash-Technologien, deren Anteil am Speichermarkt sich bis 2024 von heute 12 Prozent auf 24 Prozent verdoppeln soll. Hinzukommen neuen und schnelleren Protokolle sowie Schnittstellen. Gleichzeitig verdreifacht sich das Datenvolumens. Daran haben alle Flash-Varianten (NVM, SSD und All-Flash) ihren Anteil.

Das starke Wachstum der Daten bedeutet, dass auch für alle übrigen Speichermedien und Technologien längst noch nicht das Totenglöcklein klingelt. »Besonders für Rechenzentrumsbetreiber sind große, günstige Speicherplatten mit Lebensdauer- und Zuverlässigkeitsgarantien und für Unternehmen Tape-Archive noch immer ein unverzichtbares Speichermedium«, sagt Becker. Natürlich erhöhe sich der Druck auf diese Medien, da Flash immer billiger werde.

Software-definierte Architekturen dominieren das Management

Im Speichermanagement werden die etablierten Vernetzungsarchitekturen SAN und NAS ergänzt durch die Software-definieren Varianten SDI (Software-defined Infrastructure) und die kleine Schwester HCI (Hyper-converged Infrastructure). Erstere bindet große, leistungsstarke Systemkomponenten zu einem gemeinsam gemanagten, auf die spezifischen Leistungsanforderungen zugeschnittenen System zusammen, letztere kommt in kleinen, horizontal skalierbaren Infrastruktur-Block mit gemeinsamem Hypervisor und Management.

Daneben gibt es noch SDS (Software-defined Storage): Mit ihr lassen sich mehr oder wenige alle im Unternehmen vorhandenen Storage-Ressourcen zu einem großen Pool verbinden. Alle drei Varianten verbreiten sich, haben jedoch SAN und NAS noch nicht abgelöst.

Datenformate: Object-Storage könnte die Zukunft gehören

Bei den Datenformaten zeigen sich mehr und mehr die Vorteile Objekt-Speicherung gegenüber Block und File. »Object-Storage hat den Vorteil, dass sie ortsunabhängig und nicht hierarchisch arbeitet, sondern mit Dateimerkmalen«, erklärt Becker. Die Daten werden als Objekte gespeichert, die man nach ihren Merkmalen übergreifend im gesamten Speicherraum suchen kann. »Das ist schneller und flexibler, verlangt aber viel Performance von den Systemen«, sagt Becker.

Schließlich entstehen neben den großen, in den letzten Jahren entwickelten und implementierten Big-Data-Umgebungen auch immer mehr Streaming-Umgebungen. Hier laufen die Daten, etwa aus Mess- und Steuersystemen in Echtzeit ein, müssen sofort verarbeitet werden und lösen dann eine Reaktion aus – etwa eine Anfrage am Lager bei einer Online-Bestellung.

Unternehmen müssen aufpassen, nicht unter Druck zu geraten

Sind die Unternehmen bereits auf all das vorbereitet? Nicht unbedingt, meint Becker. Zudem müsse man zwischen den individuellen Geschäftsmodellen unterscheiden. Wer noch stark im physischen Geschäft stecke, müsse sich umstellen. Turbinenhersteller etwa verarbeiten heute allein wegen der vielen Tests schon TBytes an Daten. Insgesamt sei es Unternehmen anzuraten, neue Technologien nicht zu verschlafen, aber auch nicht gleich zu viel zu investieren. »Es lohnt sich, neue Technologien zuerst als Public-Cloud-Service auszuprobieren und zu sehen, was man mit Erweiterungen der bestehenden Infrastruktur erreichen kann, bevor man massiv in neue Systeme On-Premises investiert«, rät Becker.

Anzeige