Anzeige

Deutsche Großunternehmen fürchten Daten-Sintflut

Eine deutliche Mehrheit deutscher Großunternehmen fühlt sich von der Menge der zu verwaltenden Daten überfordert. Einer Umfrage von Hitachi Vantara zufolge, fürchten 63 Prozent, dass ihre aktuelle Infrastruktur künftige Anforderungen nicht erfüllen kann. Teil des Problems: riesige Mengen an »Dark Data«.

In der Bibel schickt Gott einen starken Regen, der die Erde überflutet, weil ihm die Menschen zu böse geworden waren. Nur einer war gut und wurde daher verschont: Noah durfte sich, seine Familie und die Tiere retten. Heute drohen Unternehmen in einer Datenflut unterzugehen, warnt Hitachi Vantara in einer aktuellen Studie: Rund 73 Prozent der deutschen Unternehmen fühlen sich demnach schon jetzt mit der Menge der von ihnen verwalteten Daten überfordert. Dennoch speichern 75 Prozent aller Befragten weltweit alle Daten, derer sie habhaft werden können – weil man ja nie weiß, ob man sie nicht doch einmal gebrauchen kann.

Anzeige

Datenschützer und Privacy-Befürworter würden das wohl als gerechte Strafe sehen. Allerdings geht es bei den Datensammlungen in Unternehmen ja längst nicht nur um personenbezogene Daten. Von Sensordaten aus der Produktion und der Logistik bis zu Video- und Bilddateien aus der Qualitätssicherung, Lieferscheinen, Dokumentationen, Konformitätsnachweisen von Lieferanten bis zu Log-Dateien und Datensätzen für Maschinenlernen und KI oder aus regulatorischen Gründen aufzubewahrende Konstruktionszeichnungen reicht das Spektrum der Daten du Dateien, die Unternehmen vorhalten müssen. Die Datenflut ist im Gegensatz zur Sintflut also nicht komplett selbst verschuldet.

Datenaufkommen: Verdopplung in zwei Jahren erwartet

Dark-Data: Die Hälfte der gespeicherten Daten werden nicht genutzt (Grafik: Hitachi Vantara).
Dark-Data: Die Hälfte der gespeicherten Daten werden nicht genutzt (Grafik: Hitachi Vantara).

Sich mit einem Boot und den Haustieren abzusetzen, ist allerdings auch keine Lösung. Datensparsamkeit ist ebenfalls ein Ansatz, der aber nicht immer durchführbar ist. Obwohl 63 Prozent der Befragten schon jetzt befürchten, dass ihre aktuelle Infrastruktur künftige Anforderungen nicht erfüllen kann. Das liegt auch daran, dass Hitachi Vantara zufolge »durchschnittliche Großunternehmen davon ausgehen, dass sich ihr Datenaufkommen in den nächsten zwei Jahren nahezu verdoppeln wird.«

Die für die Studie befragten »durchschnittlichen Großunternehmen« sind allerdings auch ziemlich groß bzw. sind intensive Datennutzer. Zum Beispiel schätzen die Befragten, dass sie jeweils bis zu 17 PByte an »Dark Data« mit sich herumschleppen – also Daten, die zwar gesammelt, verarbeitet und gespeichert wurden, aber nie genutzt werden.

Wertvolle Daten, die keiner kennt oder findet

Ein Grund dafür ist, dass Nutzer oft gar nicht wissen, dass die Daten, die sie benötigen, bereits im Unternehmen vorgehalten werden. Das ist bei 25 Prozent der befragten gelegentlich der Fall. Besonders häufig tritt das Problem in den Branchen Retail (37 Prozent) und in Technologiefirmen (36 Prozent) auf.

Selbst wenn Benutzer wissen, dass Daten vorhanden sind, machen es mehrere getrennte Systeme schwierig, sie zu finden und zu nutzen. 80 Prozent der Befragten Entscheider räumen ein, dass bei ihnen Benutzer nicht einfach auf die Daten zugreifen können, die sie benötigen.

Bei 39 Prozent ist der Grund dafür, dass weniger als die Hälfte der Daten mit den Systemen verknüpft ist, in denen sie benötigt werden. Bei einem Viertel ließen sich die Daten nicht nutzen, weil sie nicht im richtigen (also dem für die Benutzer zugänglichen) System verfügbar war. Hier zeigen sich die Problem, die aus der herkömmlichen Datenhaltung in Silos und einer Häufung mehrerer Silos entstehen. Solche Patchwork-Systeme führen in 29 Prozent der Firmen dazu, dass Nutzer nicht auf benötigte Daten zugreifen können, weil sie nur in einem System verfügbar sind.

»Ein Teil des Problems ist, dass viele Unternehmen Daten ohne die richtige Strategie oder die richtigen Dateninfrastruktur-Tools speichern«, sagt Bharti Patel, Senior Vice President, Product Engineering, bei Hitachi Vantara. »Tatsächlich gaben 73 Prozent der deutschen Unternehmen an, dass sie alle Daten für den Fall der Fälle gespeichert haben, wobei etwa die Hälfte ihrer Daten 'dark data' sind oder nie genutzt werden.«

Hybrid-Cloud als Ausweg?

Die in der Studie befragten Firmen sehen einen Ausweg darin, sich Hybrid-Cloud-Szenarien zuzuwenden – sowohl um Kapazitätsengpässe zu vermeiden, als auch Ausfallsicherheit ihrer Infrastruktur hoch zu halten. Neben Verfügbarkeit und Speicherplatz drücken die Befragten aber auch noch weitere Sorgen. 74 Prozent befürchten, dass sie eine Datenschutzverletzung nicht rechtzeitig erkennen können und 66 Prozent sind, besorgt, dass die Dateninfrastruktur ihres Unternehmens nicht stabil genug ist, um Daten nach Ransomware-Angriffen wiederherzustellen.

Dieser Sorgen sind nicht aus der Luft gegriffen: 20 Prozent räumen ein, dass in ihrem Unternehmen nach einem Vorfall bemerkt wurde, dass wichtige Daten nicht gesichert waren. Weitere 21 Prozent mussten schon feststellen, dass Daten nach Speicherausfällen nicht mehr zugänglich waren. Dass sind bei den Befragten in absoluten Zahlen erhebliche Datenmengen.

Wie schon gesagt, halten die befragten, »durchschnittlichen Großunternehmen« um die 35 PByte an Daten vor und erwarten, dass sich diese Datenmenge bis 2025 nahezu verdoppelt (auf über 65 PByte). Sie versprechen sich davon bessere Entscheidungen (32 Prozent), Verbesserungen bei ihren Produkten oder Services (31 Prozent) und schnellere Identifizierung von IT-Security-Problemen (31 Prozent). Das lassen sie sic auch etwas kosten: Sie schätzen, dass 50 Prozent des IT-Budgets für die Daten-Infrastruktur aufgewendet werden.

Hybrid-Cloud löst nicht alle Probleme

Die Ergebnisse korrespondieren mit der kürzlich veröffentlichten fünfen Auflage des Enterprise Cloud Index (ECI) von Nutanix. Demnach sind die Hauptsorge von Firmen, die gemischte Cloud-Umgebungen nutzen (jeweils 43 Prozent, Mehrfachnennungen möglich), die »Kosten der Datenspeicherung« und der Bereich »Daten-Analyse und -Orchestrierung«– also die Verwaltung der Datenmengen.

Auch Zahlen von IDC deuten in diese Richtung. Dem »Worldwide Enterprise Infrastructure Workloads Forecast« der Analysten zufolge ist und bleibt »Data Management« der größte, einzelne Kostenblock im IT-Budget der Firmen. IDC fasst bei seiner Betrachtung 19 detaillierte, sich nicht überlappende Kategorien in sieben größeren »Workload-Kategorien« zusammen. Data Management kommt hier allerdings »nur« auf knapp ein Drittel es Gesamtbudgets, nicht wie bei Hitachi Vanatara auf die Hälfte.

Hybrid Cloud kann der Nutanix-Studie zufolge durchaus helfen, die in der Hitachi-Vantara-Umfrage angestrebten Vorteile – Kapazitätsengpässe abzufangen oder durch unterschiedliche Speicherorte Risiken zu minimieren – zu erreichen. Entscheider sollten sich aber auch bewusst sein, dass die Datenverwaltung dadurch eher noch komplexer wird – und auf keinen Fall automatisch einfacher.

Allerdings wurde das Problem der Hitachi-Vantara-Umfrage zufolge erkannt: Entscheider, die sich aktiv auf die Nutzung einer Hybrid-Cloud vorbereiten wissen, dass sie eine bessere Integration der externen und internen Daten-Infrastruktur benötigen (sagen 66 Prozent). Bei Befragten der öffentlichen Hand sind es sogar 81 Prozent, die so denken.

Weiterführende Links:

Anzeige