Anzeige

HDS HSP-400-Serie ist Hyperkonvergenz-Plattform für Big Data

HSP: neue Hyper-Scale-Out-Plattform (Bild: Hitachi Data Systems)HSP: neue Hyper-Scale-Out-Plattform (Bild: Hitachi Data Systems)Langsam kristallisiert sich heraus, was Hitachi Data Systems (HDS) mit der Übernahme von Pentaho vor fast genau einem Jahr bezweckte. Dass man damit eine neue Big-Data-Analytics-Plattform schaffen wollte, war klar. Aber mit der jetzt angekündigten HSP-Appliance (HSP steht hierbei für Hyper-Scale-Out-Plattform) zeigt sich, dass man noch einen Schritt weiter gehen kann: da die neue HSP-400-Serie Rechen-, Speicher- und Virtualisierungskapazitäten in einer nahtlosen Infrastruktur vereint, ist der Begriff einer neuen hyperkonvergenten Plattform für Big Data nicht so weit hergeholt.

Die zugrunde liegende HSP-Scale-Out-Architektur bietet laut HDS eine vereinfachte, skalierbare und auf Unternehmensanforderungen zugeschnittene Infrastruktur für Big Data. Sie erlaubt Kunden, unterschiedliche Big-Data- und Analytics-Workloads zu konsolidieren. Die Architektur beinhaltet auch eine zentrale Benutzeroberfläche, um die Einrichtung und Verwaltung virtualisierter Umgebungen für führende Open-Source-Frameworks für Big Data zu automatisieren; zu den Frameworks gehören unter anderem Apache Hadoop, Apache Spark und kommerzielle Open-Source-Stacks wie die Hortonworks Data Platform (HDP).

Durch die native Integration mit der Pentaho-Enterprise-Plattform sollen Kunden die vollständige Kontrolle über die analytische Daten-Pipeline behalten. Und außerdem erhalten sie Funktionen auf Enterprise-Niveau, etwa zur Herkunft von Big Data, Lifecycle-Management und verbesserte Informationssicherheit.

Anzeige

Zielmärkte für die HSP-Neuheit

HSP 400 empfiehlt sich als Hyperkonvergenz-Lösung für Big Data (Bild: Hitachi Data Systems)HSP 400 empfiehlt sich als Hyperkonvergenz-Lösung für Big Data (Bild: Hitachi Data Systems)Die HSP-Hyperkonvergenz-Neuheit zielt auf Unternehmen, die in wachsendem Maße darauf angewiesen sind, das gewaltige Datenaufkommen aus Informationstechnologie (IT), Betriebstechnik (OT), dem Internet der Dinge (IoT) und maschinell erzeugten Daten in den jeweiligen Umgebungen gewinnbringend zu nutzen. Mit der Software-definierten Architektur der HSP lassen sich diese großen Datenbestände zentral speichern und verarbeiten – hoch verfügbar, mit einer einfachen Verwaltung und erweiterbar nach dem Grundsatz »Pay-As-You-Grow«.

Die HSP-Plattform wird als vollständig konfigurierte und schlüsselfertige Anwendung geliefert. Die Einrichtung und Unterstützung produktiver Workloads nimmt laut HDS nur wenige Stunden anstatt Monate in Anspruch. Darüber hinaus werde der Aufbau einer flexiblen Datensammlung (»Elastic Data Lake«) erleichtert, damit Kunden auf einfache Weise verteilte Datensätze integrieren und anspruchsvolle analytische Workloads starten können.

Neue HSP erhöht Nutzwert von Big-Data-Deployments

Christian Dornacher, Director Storage & Analytics Solutions, HDS EMEAChristian Dornacher, Director Storage & Analytics Solutions, HDS EMEA»Durch die Verbindung von IT- und OT-Umgebungen machen Unternehmen Ihre Investitionen zukunftssicher. HSP stellt eine perfekte Lösung zur schnelleren und einfacheren IT-/OT-Integration dar und erhöht so die Geschwindigkeit und den Nutzwert von Big-Data-Deployments«, sagt Christian Dornacher, Director Storage & Analytics Solutions bei Hitachi Data Systems EMEA. »Die HSP-Pentaho-Appliance bietet Unternehmen eine kostengünstige Option, all ihre unterschiedlichen Datensätze und Workloads – einschließlich Legacy-Anwendungen und Data-Warehouses – über eine moderne, skalierbare und hyperkonvergente Plattform zu vereinheitlichen und gleichzeitig Komplexität auszuschalten. Wir freuen uns, gemeinsam mit Pentaho eine vereinfachte ‚All-In-The-Box’-Lösung zu liefern, die Rechen-, Analyse- und Datenmanagement-Funktionen in einer Plug-and-Play-Architektur kombiniert. Die Hitachi Hyper-Scale-Out-Plattform 400 stellt einen großartigen ersten Schritt zur Vereinfachung des gesamten Analyseprozesses dar.«

.
Anzeige