Anzeige

Prognose: Diese acht Trends beeinflussen 2017 die Storage-Szene

2016 war ein richtungsweisendes Jahr für IBM, in dem der Weg mit Fokus auf Cognitive und Cloud-Computing geebnet wurde. Diese Neuorientierung stellt auch eine riesige Chance für den Bereich Storage dar. Die Wachstumsfelder Cognitive sowie Cloud-Computing drehen sich immer mehr um Daten und ihre sinnvolle Speicherung. Für Wachstum in diesen Bereichen haben tatsächlich viele IBM-Ankündigungen aus dem vergangenen Jahr die Basis gebildet. Von diesen 2016er Entwicklungen ausgehend wagt IBM einen Ausblick auf trendsetzende Storage-Entwicklungen in 2017.

IBM-Mitarbeiterin Susan Sullivan arbeitet mit dem User-Interface »Hyper-Scale Manager« für das neue FlashSystem A9000/A9000R (Bild: Jared Lazarus/Feature Photo Service for IBM)IBM-Mitarbeiterin Susan Sullivan arbeitet mit dem User-Interface »Hyper-Scale Manager« für das neue FlashSystem A9000/A9000R (Bild: Jared Lazarus/Feature Photo Service for IBM)1) Die Flash-basierte Datenspeicherung wird sich weiter ausweiten. Im Jahr 2017 wird die Nutzung von Flash exponentiell zunehmen. Während sich diese Form der Datenspeicherung bisher weitgehend auf geschäftskritische Daten gestützt hat, wird sie in alle Speicherbereichen Einzug halten, um die Agilität eines Unternehmens voranzutreiben. Darüber hinaus erwarten wir immer mehr Einführungen von OpenCAPI- und NVMe-Technologien, um die Latenzzeit enorm zu reduzieren, und auf diese Weise Nutzer bei der Verwaltung größerer Datenmengen in Rekordgeschwindigkeit zu unterstützen.

Anzeige

2) Analytics wird im Jahr 2017 eine Revolution erleben. In der Vergangenheit handelten Gespräche über Big Data immer von Hadoop (HDFS). Die Branche ist jedoch heute mit ihren Einschränkungen an eine Grenze gestoßen, Big Data zu sichern und zu managen. Infolgedessen wurde Big Data zu einem schwarzen Loch im HDSFS-Cluster, ohne dass sich jemand darum kümmert, wie man diese Daten sinnnvoll verwaltet. Im Jahr 2017 dürfte das Spark-Betriebsmodell durch »in memory analytics« eine gute Möglichkeit für die Big-Data-Analytik werden aufgrund der Fähigkeit, die Datenbewegung deutlich zu reduzieren sowie Analytics im Prozess viel früher und schneller ablaufen zu lassen.

3) Der Markt für kognitive Lösungen wird weiter ausgebaut werden. Die bedeutend höhere Performance von Flash im Vergleich zur drehenden Disk wird die Bedeutung von Storage für kognitive Unternehmen aufzeigen. Eine bleibende Herausforderung bestand jedoch innerhalb des gesamten I/O-Stacks, das heißt Applikation-Server-Infrastruktur-Storage. Anders als die Prozessorleistung, die in der Größenordnung zuvorgekommen ist, hat die Storage-Latenzzeit keine ähnlichen Fortschritte gemacht. Die Proliferation des NVMe-Protokolls wird die Engpässe im I/O-Stack erheblich reduzieren und einen Pfad für einen zuverlässig schnellen Zugriff auf Daten freimachen.

4) Software-defined Storage (SDS) wird sich mit der Cloud kombinieren lassen. SDS wird derzeit mit implementierter Software im eigenen Cluster selektioniert. Im Jahr 2017 wird die Nachfrage nach einer Verbindung dieser Cluster exponentiell wachsen, indem SDS und Hybrid-Cloud miteinander verbunden werden. SDS wird reif genug sein, um Software-Stack sowohl On-premise als auch in der Cloud laufen zu lassen, während mithilfe eines Control-Panels die Software miteinander verbunden wird. Mit der Möglichkeit, Datendienste On-premise und in der Cloud auszuführen, können Unternehmen DevOps und Dec-Test in der Cloud durchführen. Dies ermöglicht Nutzern, eine Kopie der Daten abzuspalten und diese in verschiedene Cluster des SDS zu legen, eine Momentaufnahme der Daten zu nehmen und wo nötig zu verteilen.

5) Die kombinierte Nutzung von Objektspeichern, Cloud-Plattformen und Cognitive wird sich etablieren. Mit einem Gesamtinhalt von 44 ZByte bis 2020, wobei 80 Prozent davon unstrukturiert sind, bietet dieser Inhalt eine große Chance, die durch das Trio von Objektspeicher, Cloud-Plattform und Cognitive realisiert wird. Diese werden eingesetzt, um Innovation und Fortschritt in einem breiten Spektrum an Branchen, wie beispielsweise Versicherungen, Banken, Biowissenschaft, Medien/Unterhaltung, Energie, Spielindustrie, Virtual-Reality oder Handel voranzutreiben.

6) Neben File- und Block-Speicher werden sich damit Objektspeicher zur dritten Plattform entwickeln. Es wird prognostiziert, dass diese in den nächsten Jahren den größten Markt darstellen. Mehr und mehr Kunden werden ihre eigenen Objekt-Storage-Repositories installieren und beginnen, diese als Private-Cloud zu betreiben − also quasi die »Public Cloud like«, um Funktionen im Rechenzentrum abzubilden.

7) Rechenzentren werden von Hochleistungsrechenzentren lernen. Neue Workloads benötigen eine neue, integrierte Architektur − 1.000 Cores, 200 TByte Speicher, Image-Deployment, Workload-Scheduling − mit einem Klick! Das geht weit über klassische hyperkonvergente Systeme hinaus. Es geht um Webscale und End-to-End-Ressourcenmanagement.

8) Tape ist da, aber Sie sehen es nicht! »Cold Storage« ist das neue Paradigma in der Cloud, weil erzeugte Daten auf eine effizientere, noch sicherere und weniger energieintensive Weise gespeichert werden müssen.

.
Anzeige