Anzeige

IDC: Technology-Refresh treibt Datacenter-Verantwortliche um

IT-Verantwortliche und Storage-Administratoren kämpfen gerade an neuen Fronten. Ungezähmtes Datenwachstum ist eines der Probleme, das allerdings durch neue Storage-Ansätze wie Software-defined Storage und Object-Storage gebremst werden oder zumindest kostengünstiger gestaltet werden könnte. Ein Nachbericht von der »IDC Directions: Storage Transformation 2016« letzte Woche in Frankfurt.

Die Datacenter-Herausforderungen 2016: Unter anderem der Technology-Refresh treibt die IT-Verantwortlichen um (Bild/Quelle: IDC)Die Datacenter-Herausforderungen 2016: Unter anderem der Technology-Refresh treibt die IT-Verantwortlichen um (Bild/Quelle: IDC)Die Masse der Herausforderungen für Storage-Verantwortliche wird immer größer. Neue Technologien wie beispielsweise Flash, OpenStack oder Hyperkonvergenz drängen ins neue Datacenter. Auch Cloud-Storage wird immer beliebter, ob als Public-Cloud-Service für Backup, Archivierung und Disaster-Recovery, oder als Teil einer Private-Cloud oder hybriden Cloud-Umgebung.

»Und wenn man sich für Public-Cloud-Services oder Hybrid-Cloud entscheidet, sollte man Information-Governance miteinbeziehen«, erläuterte IDC-Analystin Carla Arendt auf der »IDC Directions: Storage Transformation 2016« letzte Woche in Frankfurt. »Wobei allerdings die Entscheidung für Private-Cloud eher die Wahl zwischen Do-it-yourself-Integration, integrierten Systemen oder Hyperconverged-Systemen beinhaltet.«

Arendt hatte mit der »2016 IDC European Datacenter Survey« eine aktuelle Studie mit im Gepäck. Für die Untersuchung konnten teilweise über 900 Antworten ausgewertet werden, die Studie gilt also als sehr repräsentativ für Europa. »Security ist eine konstante starke Herausforderung fürs Datacenter«, bekundete Arendt. »Aber was jetzt die Verantwortlichen zusätzlich umtreibt, ist dieser enorme Technology-Refresh.«

Deutschland investiert noch etwas zögerlich bei Flash – aber vermutlich nicht mehr lange

Die Storage-Herausforderungen 2016: Das Management der Storage-Infrastruktur wird immer komplexer (Bild/Quelle: IDC)Die Storage-Herausforderungen 2016: Das Management der Storage-Infrastruktur wird immer komplexer (Bild/Quelle: IDC)Vor allem die Neuheiten-Zyklen bei Flash und bei Cloud macht den Administratoren Kopfzerbrechen. In Deutschland werde in Flash noch etwas weniger investiert als im Rest von Europa oder in den USA. Allerdings erwartet die IDC-Analystin, dass diese Investitionslücke wohl bald aufgefüllt werde – die Vorteile dieser deutlich performanteren Speichertechnologie gegenüber Festplatten seien zu augenfällig.

Cloud-Storage scheint wohl bald ein intensiveres Thema mit dem deutlich anziehenden Anfall von Datenmengen aus dem Internet der Dinge (IoT, Internet of Things) zu werden. »IoT-Daten sind regelrecht prädestiniert für die Cloud, und mit Object-Storage können sie kostengünstig gleich in der Cloud abgelegt werden«, meinte Arendt. Auch für die Daten aus Big-Data-Applikationen sei Object-Storage und die Cloud eine in Betracht zu ziehende Technologie: »Big-Data-Leute löschen nur sehr sehr ungern – denn vielleicht braucht man die Daten ja noch.«

EU-Datenschutz-Grundverordnung (DSGVO) bringt ILM und Information-Governance zurück

Von den Besuchern sehr interessiert verfolgt wurden auch Arendts Ausführungen über die neue EU-Datenschutz-Grundverordnung (EU-DSGVO, oder auch »General Data Protection Regulation«, GDPR). da diese erst im Mai Gesetz wurde. Es ist das erste EU-Gesetz, das sich mit Datenschutz befasst. Die Strafen bei Verstößen sind drakonisch: bis zu vier Prozent eines Unternehmensjahresumsatzes.

»Früher waren die Strafen eher kleinere Strafzettel, da lohnte es sich nicht, deswegen in neue Technologien zu investieren«, meinte Arendt. Aber das sei nun anders: Vier Prozent vom Umsatz – da lohne sich ein Investment in neue Technologien. »Es ist auch für Unternehmen die Chance, sich nun endlich strategisch neu aufzustellen«, erklärte Arendt. In diesem Zusammenhang erwartet sie eine Renaissance von Disziplinen wir Information-Lifecycle-Management (ILM) und Information-Governance.


Über alle diese Themen sprachen wir auch im Vorfeld der Veranstaltung in Frankfurt mit Carla Arendt in einem Podcast. Hören Sie sich hier den sehr informativen speicherguide.de-Podcast mit IDC-Analystin Carla Arend über die durch die Digitale Transformation ausgelösten Veränderungen im Datacenter an.

HPE: All-Flash ist Kernstück einer Digitalen Transformation

Besser, performanter, preiswerter: Vergleich Anschaffungspreis und Betriebskosten All-Flash-Array und Festplattensystem: das All-Flash-Array bietet entscheidende Vorteile (Quelle: HPE; Bild: speicherguide.de)Besser, performanter, preiswerter: Vergleich Anschaffungspreis und Betriebskosten All-Flash-Array und Festplattensystem: das All-Flash-Array bietet entscheidende Vorteile (Quelle: HPE; Bild: speicherguide.de)Was den Flash-Einsatz, vor allem im Deutschland, anbelangt, ging Guido Klenner, Category Manager Storage bei Hewlett Packard Enterprise (HPE) nicht so ganz konform mit der IDC-Einschätzung. Seiner Meinung sind deutsche Unternehmen schon viel weiter, und können sich auch international vergleichen. »Bei HPE gehen bereits 40 Prozent der All-Flash-Absätze in den deutschen Mittelstand«, verriet Klenner in seiner Präsentation auf dem IDC-Event.

Der HPE-Manager hält All-Flash-Lösungen als Kernstück einer Digitalen Transformation: »All-Flash-Arrays haben 21 mal mehr Performance als Festplatten-Arrays, und eine zehnmal bessere Latenz – das ist Performance im Überfluss.« Klenner führte aus, dass All-Flash-Arrays kaum noch teurer sind als vergleichbare Festplattensysteme. Und wenn ein Administrator in die TCO-Kostenbetrachtung einsteige, dann seien die »Einsparungen bei den Stromkosten und beim Platzbedarf über einen Zeitraum von fünf Jahren beträchtlich.«

Fujitsu: Digitale Transformation wirkt sich aufs Backup aus

Im Bereich Object-Storage kann Fujitsu bereits das erprobte System »Eternus CD10000« vorweisen (Bild: Fujitsu)Im Bereich Object-Storage kann Fujitsu bereits das erprobte System »Eternus CD10000« vorweisen (Bild: Fujitsu)Was das rasante Datenwachstum anbelangt, war sich auch Marcus Schneider, Senior Director, Head of Product Management & Development Storage bei Fujitsu, sicher, dass die Unternehmen nun an einem Scheideweg stehen: »Wenn etwas kippt, dann beschleunigt es sich rasant. Und die Digitalisierung treibt nun rasant die Erzeugung von Daten.« Das wirke sich alleine schon auf das klassische Backup aus: »Skalierbarkeit im Backend wegen der Zunahme der Backup-Daten ist jetzt bereits bei vielen Unternehmen ein Thema.«

Schneider rät Unternehmen, sich unter anderem mit Object-Storage zu befassen: »Alleine wegen der Hyperskalierbarkeit werden hier viele einsteigen müssen.« Und das Thema effizientes Copy-Data-Management werde nun drängender. »Viele Unternehmen haben von einer Datei bestimmt fünf Kopieren, evtl. sogar zehn oder 15«, erläuterte Schneider. Beim Copy-Data-Management arbeitet Fujitsu mit CommVault zusammen, beim Snapshot-Management pocht man auf die eigene Lösung »Fujitsu ESM« (Enterprise Snapshot Management).

Datacore: Parallel-I/O-Technologie lässt Server abheben

Das Problem heutiger Mehrkern-Prozessoren: für das I/O-Handling ist nur eine VM zuständig, die sich alle anderen VMs teilen müssen (Bild: Datacore Software)Das Problem heutiger Mehrkern-Prozessoren: für das I/O-Handling ist nur eine VM zuständig, die sich alle anderen VMs teilen müssen (Bild: Datacore Software)Alexander Best, Director Technical Business Development von DataCore Software, hob in seiner Präsentation natürlich auf der Ende letzten Jahres erstmals vorgestellten neuen Parallel-I/O-Technologie ab. Sie ist jetzt in der aktuellen Version von Datacores »SANsymphonie« enthalten, und voraussichtlich im Laufe des Juli wird sie auch als eigenständiges Produkt namens »DataCore Parallel Server« gelauncht.

Mit der Parallel-I/O-Technologie lässt sich der I/O-Durchsatz von Server endlich richtig beschleunigen. Hintergrund ist, dass bisher bei vielen Servern mit beispielsweise zehn VMs (Virtuelle Maschinen) nur eine VM für das I/O-Handling zuständig war, den sich die anderen VMs teilen mussten. »Dieses serielle I/O war der Flaschenhals«, erläuterte Best. »Viele Unternehmen umgingen dies, in dem sie mehr ESX-Server installierten, um die I/O-Last zu verteilen.« Doch letztendlich ist es eine Notlösung, die überdies ziemlich teuer ist. Mit der Parallel-I/O-Technologie wird nun das I/O-Handling parallelisiert. Best zeigte anhand von Benchmarks auf, dass bereits Midrange-Server zusammen mit dem Datacore-Paket sogar deutlich teurere Systeme locker übertrumpften.

Tintri: so spricht Storage die Virtualisierungs-Sprache

Von 17 TByte bis 10 PByte braucht es nur einen Storage-Administrator beim Einsatz von Tintri-Storage-Systemen (Bild: Tintri)Von 17 TByte bis 10 PByte braucht es nur einen Storage-Administrator beim Einsatz von Tintri-Storage-Systemen (Bild: Tintri)Lars Münzner, Regional Sales Manager bei Tintri, führte in seinem Vortrag aus, dass mit dem Virtualisierungstrend in den Rechenzentren der Storage eigentlich nicht die Virtualisierungs-Sprache spricht. Und so entwickelten die Tintri-Gründer, die allesamt von VMware kamen, ein File-System, das ganz speziell für virtualisierte Vmware-Umgebungen geschrieben wurde. VM-aware Storage nennt sich das im Tintri-Slang.

Wesentlicher Effekt dabei ist laut Münzner, dass sich Administratoren nur noch um ihre VMs kümmern müssen, das klassische Storage-Management falle bei Tintri komplett weg: »VM-Administratoren sind automatisch dann auch die Storage-Administratoren, aber ohne die Komplexität. Wir brauchen keine LUNs mehr als Abstraktonsschicht, sondern kümmern uns nur noch um die VMs.« Tintri-Storage-Systeme seien aus VM-Sicht nur ein großer Data-Store.

Nimble schwört auf Flash-optimiertes File-System CASL

Vorteil des »Sequential Layout« der Nimble-Architektur: Skaliert wird mit mehr CPUs, und aus Festplatten werden enorme IOPS-Raten herausgekitzelt (Bild: Nimble Storage)Vorteil des »Sequential Layout« der Nimble-Architektur: Skaliert wird mit mehr CPUs, und aus Festplatten werden enorme IOPS-Raten herausgekitzelt (Bild: Nimble Storage)Einen neuen Ansatz bei Storage-Arrays fährt auch Nimble Storage. Bei seinem Vortrag stellte Thomas Becker, Account Executive bei Nimble die Architektur heraus, die mit der CPU-Performance skaliert, und nicht mit der Anzahl der Festplatten oder SSDs: »Bei uns erreicht eine normale SATA-Festplatte bis zu 10.000 IOPS, wohingegen bei einem traditionellen Array-Layout eine Festplatte nur auf rund 100 IOPS kommt.« Hintergrund ist ein extrem effizienter Cache-Einsatz des Flash-optimierten File-Systems CASL (Cache-Accelerated Sequential Layout) von Nimble. »Adaptive Flash« nennen sich deshalb die Nimble-Lösungen.

Eine weitere Besonderheit von Nimble ist die Predictive-Flash-Plattform »InfoSight«. Dieses Analyse-Tool beherrscht neue Überwachungsfähigkeiten auf VM-Ebene, wodurch das proaktive Lösen von Ressourcenkonflikten ermöglicht wird. Infosight sammelt von allen Nimble-Systemen draußen im Feld Sensordaten, und erkennt mit diesem Big-Data-Datenanfall zeitnah, wo sich ein Problem ergeben könnte. »Wir brauchen deshalb keinen Level-1- und -2-Support mehr«, betonte Becker. In den USA würden erste Kunden kein Backup mehr machen, sondern sich mit Nimble voll auf die Snapshots verlassen.

.
Anzeige