Anzeige
Anzeige

HDS fokussiert ganz stark auf »Software-Defined Infrastructure«

HDS positioniert sich auf der »Hitachi Connect 2015« deutlich gegen EMC, IBM und Netapp (Bild: HDS)HDS positioniert sich auf der »Hitachi Connect 2015« deutlich gegen EMC, IBM und Netapp (Bild: HDS)Auf ihrer Hausmesse »Hitachi Connect 2015« in Las Vegas hat Hitachi Data Systems (HDS) eine Reihe neuer Produkte und Produktplattformen vorgestellt, die unter der Flagge »Software-Defined Infrastructure« (SDI) segeln. HDS will damit den Weg zu weitgehender Automatisierung bis hin zu ITaaS aufbereiten. Die ein oder andere Lösung auf dem Markt wird zwar durchaus schon von IT-Unternehmen als Software-Defined Infrastructure gelabelt, aber in der Breite an Storage-Lösungen, wie es von HDS vorgestellt wurde, gibt es nichts Vergleichbares.

Software-Defined Infrastructure ist übrigens in diesem Zusammenhang der Oberbegriff für konvergente, hyper-konvergente und Scale-Out-Plattformen, die natürlich neueste Technologien wie Virtualisierung und Flash verwenden. Heraus kommen – vereinfacht gesagt – umfassende Infrastruktur-Automatisierungslösungen, um IT zu vereinfachen und analysegesteuerte Workloads zu unterstützen.

Anzeige

Ganz kurz angerissen, die von HDS vorgestellte Neuheiten:

► Das vor einem Jahr vorgestellte »Hitachi Storage Virtualization Operating System« (SVOS) wurde auf eine erweiterte »Hitachi Virtual Storage Platform«-Familie (VSP) ausgeweitet.
► Erweitert wurde auch die »Hitachi Unified Compute Platform«-Familie (UCP), um sowohl Kern- als auch nachgeordnete Peripherie-Workloads oder von kleinen bis zu großen konvergenten und hyper-konvergenten Infrastruktur-Modellen alles abzudecken.
► Die Hyper-Scale-Out-Platform (HSP) ist ganz neu, und wird für schnell wachsende Datenanalyse-Workloads positioniert.
► Außerdem gibt es neue Software-Pakete, die die Provisionierung und den Schutz von Anwendungsumgebungen automatisieren sollen.

Etwas ausführlicher: die erweiterte VSP-Familie von HDS

Die VSP-Familie wurde um die Mitglieder G200, G400 und G600 erweitert, und demnächst soll noch eine G800-Version dazu stoßen. Damit ist HDS der einzige IT-Anbieter, dessen primäre Storage-Produktreihe über sein gesamtes Portfolio hinweg die gleichen Funktionen anbietet vom kleinsten System bis zum größten. Mit ihren leistungsstarken Software-Funktionen, die im Hitachi-Betriebssystem »Storage Virtualization Operating-System« (SVOS) integriert sind, bietet die ganze VSP-Familie native, heterogene Speichervirtualisierung und an mehreren Standorten aktiven Storage.

Dazu gehört auch voll kompatible Datenmigration, -replikation und -management. Kunden haben jetzt die Möglichkeit, Systeme auf der Grundlage der erforderlichen Kapazität, der Leistung und des Preises auszuwählen, um ihre Unternehmensziele zu erreichen, und nicht aufgrund eines funktionalen Unterschieds.

Erweitertes UCP-Portfolio

Mit dem erweiterten UCP-Portfolio ist sich HDS sicher, nun die besten konvergenten Plattformen für jeden Workload parat zu haben. Zu den neuesten Ergänzungen der UCP-Familie gehören die hyperkonvergente »Hitachi UCP 1000« für »VMware EVO:Rail« und die konvergente »Hitachi UCP 2000«. Beide verwenden neue Rack-Server, und sind besonders geeignet für Umgebungen in kleinen bis mittleren Unternehmen (KMU) oder in Zweigstellen. Das konvergente UCP-6000-Modell integriert den kürzlich auf den Markt gebrachten »Hitachi CB 2500«-Blade-Server.

Hyper-Scale-Out-Platform (HSP) für den Data Lake

Bei der neuen Hyper-Scale-Out-Platform (HSP) soll die hyperkonvergente Architektur für kostengünstige Rechenleistung und On-Demand-Kapazität sorgen. Mit Hilfe der Hitachi-File-System-Technologie mit Open-Source-Management und Virtualisierungssoftware sei »elastisches Datenwachstum« möglich.

HSP wird von HDS überdies als »die ideale Scale-Out-Plattform« für Hadoop-Umgebungen positioniert. Sie ermöglicht es Benutzern, Daten an Ort und Stelle zu analysieren, und beseitige damit die Notwendigkeit, für Big-Data-Analysen große Datenmengen bewegen zu müssen. HDS verwendet dafür den neuen Begriff des aktiven Data Lake, also dem großen Datensee, aus dem mit Big-Data-Analytics-Tools erst noch die wertvollen Informationen herausgefiltert werden müssen. (Auch EMC strapazierte kürzlich bei einer Neuvorstellung den Begriff Data Lake.)

Neue Softwarewerkzeuge von HDS

► »Hitachi Automation Director« ist, eine neue Anwendung, die mit der Hitachi-Command-Suite-Management-Infrastruktur arbeitet. Sie bietet konfigurierbare Best-Practice-basierte Servicevorlagen für die einfache, anwendungsspezifische Bereitstellung von Speicher-Ressourcen an Datenbanken, Anwendungen und VDI-Umgebungen.
► »Hitachi Infrastructure Director« ist eine Ergänzung zur Hitachi-Command-Suite, konzipiert zur Konfiguration und zum Management von Storage. Das Tool nutzt, angeleitet von einer eingebauten Recommendation-Engine, die neuen APIs des VSP-Systems für eine intuitive Verwaltung bei Umgebungen, in denen Einfachheit wichtiger als die mögliche manuelle Steuerung jedes Details ist.
► »Hitachi Data Instance Director« ist in der Lage, Datenschutz zu automatisieren und eine granulare Kontrolle speicherbasierter Kopien zu liefern. Durch die Automatisierung und Orchestrierung von Snapshots auf Basis von Hitachi-Storage, Klon- und Replikationstechnologien vereinfacht er den Datenschutz. Zudem bietet er Live-Backup, konstanten Datenschutz und Archivierungsfunktionen innerhalb einer einzigen Plattform.


HDS erklärt in 2 min »Software Defined Infrastructure«

.
Anzeige