Mario Vosschmidt, Alliance Manager, LSI
Anwender haben die Qual der Wahl, wenn es um Disk-Subsysteme geht. Allerdings bietet die breite Auswahl ein hohes Maß an Funktionalität, die es zuvor nur in Enterprise-Lösungen gab. Neue Technologien machen die Systeme zudem leistungsfähiger und sicherer. Für die Wahl des richtigen Geräts muss der IT-Verantwortliche nach wie vor auf mehr als nur den Preis achten, IT-Umgebung und Einsatzszenarien spielen hier eine wichtige Rolle.
Wir sprachen dazu mit Mario Vosschmidt, Alliance Manager bei LSI.
Die Anzahl der Disk-Array-Anbieter ist immer noch nahezu unüberschaubar. Gibt es noch Alleinstellungsmerkmale oder ist es für den Anwender quasi unerheblich, bei wem er seine Lösung erwirbt?
Vosschmidt: Wie in vielen anderen Lebensbereichen auch, gibt es Discounter und Gourmet-Anbieter. Wichtig ist in diesem Zusammenhang, dass das eingesetzte Speichersystem den Aufgaben gerecht wird, und genau diese Qualität ist wichtig. Billig ist eben nicht immer auch preiswert. Entscheidend dürfte die Gesamtschau aller Faktoren sein: Leistung, Service-Umfang, Verfügbarkeit – auch garantierte Reparaturzeiten –, Administrationskosten und Preis. Im Übrigen sehen wir auch in diesem Markt eine stetige Konsolidierung von Anbietern.
Die Software ist eigentlich das Entscheidende, was den »dummen« Plattenstapel zur intelligenten Systemlösung werden lässt. Bietet es sich da nicht an, reine Software-Lösungen zu kaufen? Wo liegen die Vorteile vorkonfigurierter Appliances?
Vosschmidt: Software-Lösungen zeichnen sich im Allgemeinen durch eine höhere Antwortzeit, also geringere Performance und Fehleranfälligkeit aus. Daher setzen wir auf eine vollständig gekapselte Implementierung mit einem hohen Maß an in Hardware gegossener Funktionalität. Manche Funktionen, wie zum Beispiel RAID 6, sind ohne Hardware-Unterstützung meist nicht ausreichend performant.
Die Preise der Flash-Technologie fallen weiter. Wie verändern Solid-State-Disks die Architektur von Disk-Arrays? Welche Vorteile kann der Anwender erwarten und vor allem zu welchen Preisen? Lohnt sich der Einsatz dieser Technik in Subsystemen?
Vosschmidt: Wir erleben den Vormarsch von SSD-Technologien auch in Speichersystemen, die Vorteile sind einfach überzeugend. Große Festplattenhersteller steigen massiv in diese Technik ein, und dementsprechend werden die Preise fallen. Wichtig ist natürlich, dass die Datenverteilungsmechanismen, nicht nur des Speichersystems sondern auch der Applikationen, Kenntnis über die besonderen Eigenschaften von SSDs haben. Leider existieren an dieser Stelle kaum Automatismen, so dass die Daten- und Speicheradministratoren hier zusätzliche Aufgaben bewältigen müssen.
Ein weiterer Paradigmenwechsel zeigt sich bei der FC-Technologie, die auf lange Sicht an ihre technischen Grenzen gerät. Kommt als Nachfolger nur SAS in Frage oder zeichnen sich andere Alternativen ab?
Vosschmidt: An dieser Stelle gibt es gleich drei Verbindungen, die separater Betrachtung bedürfen. Für die Verbindung zwischen Host und Speichersystem gibt es ab einer gewissen Größenordnung (Rechenzentrum vs. Serverraum) keine ernsthafte Alternative. Das schließt natürlich nicht aus, dass in Zukunft als physische Verbindung Ethernet- statt FC-Verkabelung zum Einsatz kommt. Das ist nicht zu verwechseln mit iSCSI, dieses Verfahren hat deutliche Skalierungsgrenzen. Im Gegensatz zu iSCSI hat Fibre-Channel-over-Ethernet jedoch Data-Center-Qualität und auf Grund der einheitlichen Kabel-Infrastruktur klare Vorteile. Allerdings müssen dann eben auch die Ethernet-Switches über FCoE-Fähigkeit verfügen. Bei den meisten heute verfügbaren Ethernet-Produkten ist das nicht der Fall, so dass für FCoE größere Neuinvestitionen anfallen.
Innerhalb der Speichersysteme hat sich als Verbindung zwischen den Komponenten, also Controllern und Drive-Trays, Fibre-Channel ebenfalls bewährt. SAS ist hier bedingt geeignet, weil nur eine Kupferverkabelung möglich ist und die Kabellängen beschränkt sind.
Die Schnittstelle zu den Festplatten selbst wird sich sicherlich hin zu SAS entwickeln, weil es sich ja »nur« um die Verbindung zwischen Drive-Gehäuse und der Drives selbst handelt, also ein »lokales« Problem beschreibt. Hier überwiegen die Kostenvorteile von SAS gegen FC deutlich. Im Übrigen haben alle Festplattenhersteller bisher gesagt, dass sie acht Gbit/s-FC nicht mehr adaptieren wollen.
Welche Rolle spielt die Sicherheit beziehungsweise Sicherheitsfunktionen bei Disk-Arrays? Gibt es hier Integrationen oder hängt der Sicherheitsgrad von der bestehenden IT-Umgebung ab?
Vosschmidt: Wir unterscheiden hier zwei Bereiche, zum einen ruhende Daten und Daten im Transport. Für beide gibt es bereits Konzepte und auch schon fertige Lösungen. Für »Data-at-Rest« bietet sich die von Seagate, IBM und uns gemeinsam entwickelte Datenverschlüsselung auf den Festplatten an, genannt »FDE«. Für die Sicherung des Transportweges zur Vermeidung von Datenverfälschungen eignen sich die Entwicklungen des T10-(SCSI) Komitees, unter »Data Integrity Initiative« (T10-DIF, bzw DII). Oracle und Emulex haben bereits DII-Lösungen vorgestellt, Speichersystemanbieter werden folgen.
Welche Funktionen gehören mittlerweile zum Pflichtprogramm eines Disk-Subsystems?
Vosschmidt: Die Feature-Liste von Speichersystemen ist noch länger als die Liste der Anbieter solcher Systeme. Wichtig ist zunächst einmal die Datenintegrität und deren ständige Verfügbarkeit, also RAID-Schutz und Systemredundanz. Das schließt selbstverständlich die Erweiterung und Wartung im laufenden Betrieb ein und zwar sowohl der physischen als auch der logischen Konfiguration. Da Datenwachstum nur eingeschränkt planbar ist, sind LUN-Expansion und Re-Konfiguration quasi täglich anfallende Arbeiten, die keine Betriebsunterbrechung hervorrufen dürfen.
Die Manipulation von Daten, also standortübergreifende Spiegelung, Snapshots und Cloning sind ebenfalls wichtige Eigenschaften, die in vielen Fällen jedoch auch Host-seitig erledigt werden können. Vor dem Hintergrund eines unvorhergesehenen Datenwachstums erscheint Thin-Provisioning eine interessante Lösung, die schon seit 20 Jahren im Markt existiert, aber kaum Anwendung findet.
Gibt es einen deutlichen Trend bei Disk-Arrays oder folgen die Systeme einfach dem Funktionsweg der Enterprise-Lösungen, natürlich mit zeitlichem Versatz und deutlichem Preisunterschied?
Vosschmidt: Die Trennung von Midrange und Enterprise ist willkürlich. Im Allgemeinen werden Enterprise-Systeme so charakterisiert, dass sie einen hohen Funktionsumfang aufweisen, meist verbunden mit der Möglichkeit, Mainframes anzuschließen. Midrange-Technologie erreicht mittlerweile eine Leistungsgrößenordnung, die nur noch durch die Anzahl der verbaubaren Festplatten beschränkt ist. Funktional haben viele Midrange-Anbieter in irgendeiner Form Virtualisierungslösungen im Angebot, um die vielfältigen Funktionsmerkmale, die es früher nur in Highend-Lösungen gab, abzubilden. Über alles gerechnet dürfte sich dann jedoch der Preisunterschied nicht mehr so drastisch darstellen. Die Entscheidung modular versus monolithisch hängt im Wesentlichen von der Dynamik der IT-Anforderungen beim Anwender ab.