Anzeige

Im Interview: Hitachi Data Systems

Da sich die Anforderungen an Disk-Subsysteme im Zeitalter von Cloud-Computing, Scale-Out-Architekturen und Virtualisierung verändern, verzahnen Hersteller ihre Systeme immer enger mit Management-Software. Auch bei der Integration von SSDs gibt es kleine, aber feine Unterschiede.
Wir sprachen mit Dr. Georgios Rimikis, Manager Solutions Strategy bei Hitachi Data Systems (HDS), auf welche Besonderheiten und Trends sich Administratoren einstellen sollten.

Was sind heute die primären Kriterien beim Kauf eines Disk-Subsystems? Nur der Preis in Verbindung mit Kapazität, bzw. wie haben sich die Anforderungen der Kunden in den letzten Jahren verändert?

Anzeige

 Georgios Rimikis
Georgios Rimikis
Rimikis: Die Anforderungen, die Unternehmen an ein Speichersystem stellen, ändern sich kaum. Egal ob Enterprise-System oder Einsteiger-RAID: Leistung, Qualität, Zuverlässigkeit und Zukunftstauglichkeit stehen ganz oben auf der Liste, woran sich in absehbarer Zeit auch nichts ändern wird. Das Preis-Leistungs-Verhältnis bleibt der entscheidende Faktor. Und gerade was die Leistungsfähigkeit anbelangt, wird die Erwartungshaltung – in Relation zum technisch Möglichen – immer höher. Neben der effizienten Nutzung der Speicherressourcen, die mit Methoden wie Thin-Provisioning und Dynamic-Tiering optimiert werden können, spielen außerdem auch der Energieverbrauch und der Platzbedarf eine immer größere Rolle bei der Entscheidung für oder gegen ein System. Ein weiterer wichtiger Parameter ist die Verwaltung dieser Systeme, denn sie treibt die Speicherkosten in die Höhe. In einer immer virtualisierter werdenden IT-Welt ist Integration, insbesondere mit der Servervirtualisierung eine weitere wichtige Anforderung.

Wie stark haben SSDs die Architektur bzw. die Konfiguration eines Disk-Subsystems verändert? Viele Disk-Subsysteme nutzen mittlerweile SSDs als vorgelagerten Cache-Speicher…

Rimikis: SSDs spielen aufgrund ihrer Leistungsvorteile mit Sicherheit eine immer wichtigere Rolle bei der Datenspeicherung und werden bei performance-kritischen Anwendungen berücksichtigt. Wesentlicher Nachteil ist die große preisliche Lücke zwischen SSDs und klassischen Platten, die auch die nächsten Jahre so bleiben wird. Proportional zum Wachstum des Datenvolumens, das derzeit bei zirka 50 Prozent im Jahr liegt, steigt natürlich auch der Bedarf an Speichermedien. Auf der anderen Seite sollen Unternehmen ihre Kosten reduzieren. Den gordischen Knoten können Methoden lösen, die dafür sorgen, dass die auf den SSDs gespeicherten Daten automatisch auf SAS- oder SATA-Festplatten migriert werden, um dieses wertvolle Medium effizient zu nutzen. Dynamic-Tiering ist eine Schlüsselfunktionalität, die unterstützt, um das beste Preis-Leistungs-Verhältnis mit der ausgewählten Konfiguration zu erzielen.

Das Management von Disk-Subsystemen ist heute meist erheblich flexibler als früher. Welche neuen Anforderungen kommen auf das Management dieser Systeme im Zeitalter von Cloud-Computing, Scale-Out-Architekturen und Virtualisierung zu?

Rimikis: Automatisierung wird immer mehr an Bedeutung gewinnen, denn sie unterstützt dabei, die Kosten erheblich zu reduzieren, was eines der wesentlichen Ziele der Virtualisierung und des Cloud-Computings sind. Interoperabilität ist ein weiterer Parameter der hilft, die Soft- und Hardware-Elemente des IT-Puzzles zusammenzubinden. Des Weiteren ist es ratsam für Unternehmen, auf standardisierte Schnittstellen zu setzen. Unsere Speichermanagement-Familie »Command Suite« basiert auf offenen Industriestandards, und mit der » Content Platform« haben wir eine Methode entwickelt, die Files in Standard-File-Formate speichert und mehrere Protokolle unterstützt.

Gibt es Features, die Sie in Ihren Disk-Subsystemen als Alleinstellungsmerkmal anbieten können? Und: Hilft das bei der Argumentation gegenüber dem Kunden? Oder wird letztendlich nur auf das Preis-Leistungs-Verhältnis der Standard-Features geschaut?

Rimikis: Ein Alleinstellungsmerkmal unserer der Storage-Produkte ist deren Universalität und Vielfältigkeit. File-, Content- oder Block-basierte Daten können damit gespeichert werden und mittels Virtualisierung in einen einzigen, gemeinsamen Pool gebracht werden. Man kann die Daten dort nicht nur speichern, sondern sie mit den entsprechenden Methoden suchen und finden, wenn man sie braucht, egal ob sie Content- oder File-basiert sind. Das Management erfolgt über eine zentrale Stelle, egal ob Midrange, Enterprise, Archivierung, Fileservices oder inhaltsbasierte Daten. Wir können mit unserer Virtualisierungsmethode auch Mainframe-Daten berücksichtigen und Thin-Provisioning unterstützen, was ebenfalls einmalig in der Speicherwelt ist. Methoden wie Thin-Provisioning und Dynamic-Tiering, die die Effizienz eines Systems wesentlich erhöhen, werden nicht nur im Speichersystem unterstützt, sondern greifen mittels Virtualisierung auf extern angeschlossene Systeme zu. Als einzige Speicherlösung der Industrie liefert die »Virtual Storage Platform« (VSP) darüber hinaus eine komplette VAAI-Unterstützung (»VMware vStorage-APIs for Array-Integration«; speicherguide.de berichtete), die über die Grenzen des Speichersystems hinausgeht und heterogene Speicherumgebungen berücksichtigt. Wir bieten eine solide Vmware-Integration auf allen Ebenen. Das sind Instrumente, die »im Zeitalter von Cloud-Computing, Scale-Out-Architekturen und Virtualisierung« essentiell sind.

Sind Disk-Subsysteme mittlerweile nicht fast zu einem Commodity verkommen, das erst durch entsprechende Software richtig funktional und nutzbringend wird?

Rimikis: Dass beide Komponenten einer Storage-Umgebung parallel existieren müssen und erst in Kombination wirksam werden, ist und bleibt unumstößlicher Fakt. Die Hardware als Fundament und die Software als Intelligenz, mit deren Hilfe die Daten effizient verwaltet werden. Und selbst wenn das Fundament zur »Commodity« wird, werden die Anforderungen an dieser »Commodity« nicht weniger, denn es ist die Basis für die intelligente Architektur, die Stabilität, Leistung, Unterbrechungsfreiheit und Flexibilität des gesamten Systems. Diese Architektur erlaubt uns, einen großen Teil der Intelligenz, die die Software liefert, in unsere Hardware zu »gießen«. Virtualisierung, Thin-Provisioning, Dynamic-Tiering, Erstellung von virtuellen und physikalischen Kopien sind nur einige der Software-Instrumente, die in dem Microcode bereits implementiert sind und bei Bedarf freigeschaltet werden können. Ein Speichersystem ist heute nicht nur Hardware. Die Software ist in dieses System so stark verzahnt, dass man das eine von dem anderen nicht trennen kann – und das ist gut so. Wichtig ist nur, dass wir mit diesem intelligenten und mit Software bestückten Instrument die extremen Anforderungen der Unternehmen erfüllen können.

Oftmals gibt es speziell für den Mittelstand vorkonfigurierte Lösungspakete. Welche Konfigurationspakete haben sich aus Ihrer Sicht als besonders anwenderfreundlich und praktikabel herausgestellt?

Rimikis: Vorkonfektionierte Lösungspakete können kurz- und mittelfristig durchaus finanzielle und administrative Vorteile bringen. Je nach Größe, Branche, Internationalisierungsgrad oder geografische Verteilung des mittelständischen Unternehmens sollte jedoch immer individuell ermittelt werden, wie die IT die Geschäftsprozesse optimal unterstützen kann. Wer auf möglichst individuell angepasste Lösungen setzen möchte, sollte flexible, bedarfsorientierte und offene Methoden bzw. Instrumente verwenden, die an aktuelle und zukünftige Anforderungen des Unternehmens angepasst werden können. Maßgeschneiderte Lösungen von der Stange gibt es leider nicht.

Anzeige