Anzeige

Datacore empfiehlt: »Aufpassen auf die Knoten-Architektur!«

Converged- und Hyperconverged-Lösungen werden vermehrt in Rechenzentren eingesetzt. Doch was sind die Besonderheiten der verschiedenen Lösungen? Der Storage-Systemehersteller N-Tec will hier auf seiner N-Tec Workshop-Tour nächste Woche (13. bis 15. Oktober) intensiver darauf eingehen. Wir sprachen im Vorfeld mit Robert Thurnhofer, Marketing Manager Central Europe bei Datacore Software, über das Thema. Datacore ist einer der strategischen Partner von N-Tec.

  Wie genau definiert sich der Unterschied zwischen Converged- und Hyperconverged-Storage?

Anzeige

Robert Thurnhofer, Marketing Manager Central Europe, Dacacore SoftwareRobert Thurnhofer, Marketing Manager Central Europe, Datacore SoftwareThurnhofer: Bei konvergenten Systemen werden Anwendungen auf Server-Systemen in einem Rack ausgeführt, und zwar mit separatem, externem SAN für einen gemeinsam genutzten Speicher. Beispiele wären hier »vBlock« von VCE oder »Flexpod« von Cisco/Netapp. Bei hyperkonvergenten Systemen werden die Anwendungen auf Knoten ausgeführt, die sowohl die Rechenleistung als auch einen gemeinsam genutzten Speicher liefern. Hierbei gibt es kein externes SAN.

  Welche Lösung eignet sich für wen? Welche Entscheidungskriterien sollten IT-Entscheider berücksichtigen?

Thurnhofer: Der erste Teil der Frage bezieht sich eigentlich auf die Vorteile aus der nächsten Frage. Ohne Zielsetzung ist das so einfach nicht zu beantworten. Bei hyperkonvergenten Systemen sollten die typischen Vorteile zumindest Hardware-Unabhängigkeit, Hypervisor-Unabhängigkeit, extreme Skalierbarkeit und einfache Integration in bestehende Umgebungen/SANs sein – Flash sollte optional und nicht Pflicht sein, und mehr als zwei Knoten sollten für Hochverfügbarkeit optional und nicht Voraussetzung sein.
Subsummierend kann man generell zwei wesentliche Anforderungen nennen, die Unternehmen beim Aufbau einer hyperkonvergenten Infrastruktur im Auge haben sollten: Zum einen muss eine Kombination aus Infrastrukturkomponenten und -diensten ausgewählt werden, die den Anforderungen der jeweiligen Arbeitslasten optimal entspricht. Und zum anderen muss eine Entscheidung für ein hyperkonvergentes Modell getroffen werden, das bei sich ändernden Speicherbedürfnissen angepasst und skaliert werden kann, ohne das zur Verfügung stehende Budget zu sprengen.

  Aber die Befürworter einer hyperkonvergenten Infrastruktur greifen diesen Gedanken doch typischerweise auf, oder nicht?

Thurnhofer: Stimmt im Prinzip schon, aber sie verknüpfen den Gedanken lediglich mit Konzepten einer Architektur aus verteilten Hochleistungsrechnern, wie etwa einem Cluster aus Serverknoten. Ziel ist hier die Erschaffung eines hyperkonvergenten Modells mit vereinfachter Skalierbarkeit (durch Hinzufügen weiterer Server-Knoten), einer Verbesserung der Verfügbarkeit (durch Datenreplikation ist ein Failover möglich) und einer Senkung der Infrastrukturkosten (durch Austausch schwer zu verwaltender SANs und monolithischer Speichereinheiten durch eher generische Speicherkomponenten, die direkt an die Server angeschlossen werden). Ein solcher Aufbau reicht jedoch noch nicht aus, um eine allgemeine Definition bzw. eine gemeinsame Architektur für eine zeitgemäße hyperkonvergente Infrastruktur zu ermöglichen.

  Und wie sieht dann der Ansatz von DataCore aus?

Thurnhofer: Bei uns geht es um ein Modell mit flexibler Hardware-Auswahl, wobei eine Arbeitsverteilung mit mehreren Hypervisoren bzw. auch ohne Server-Virtualisierung unterstützt wird. Unser Lösungsmodell bietet also Speichermöglichkeiten sowohl für eine virtualisierte als auch für eine nicht virtualisierte Arbeitsverteilung. Dies ist insbesondere für Unternehmen wichtig, die mehrere Hypervisoren einsetzen und gleichzeitig nicht virtualisierte Anwendungen betreiben, wie etwa Hochleistungsdatenbanken zur Transaktionsabwicklung. Führende Analysten gehen davon aus, dass diese Mischung aus virtualisierter und nicht virtualisierter Arbeitsverteilung in manchen Unternehmen bis mindestens zum Ende des Jahrzehnts zum Einsatz kommen wird. Im Rahmen von Planungen sollte dieser Punkt unbedingt berücksichtigt werden, da sich hieraus unmittelbare Auswirkungen auf die kurz- und langfristige technische Eignung der gewählten hyperkonvergenten Lösung wie auch deren Investitionserträge ergeben.

  Ein wesentliches Kriterium einer hyperkonvergenten Infrastruktur ist die Mehrfachknoten-Architektur. Was gibt es hier zu beachten?

Thurnhofer: Hier kann man den Anwendern nur empfehlen, wirklich auf die Knoten-Architektur aufzupassen. Denn einige namhafte Anbieter von Server-Hypervisoren bieten hyperkonvergente Speichermodelle an, die bereits in der Grundausstattung mindestens drei (oder sogar mehr) Cluster-Knoten benötigen. Ein Knoten benötigt üblicherweise einen physischen Server, eine Lizenz für die Speichersoftware, Cluster-Software (ob als Teil eines Hypervisor-Software-Pakets, des Betriebssystems oder einer spezialisierten Drittanbieter-Software), Flash-Speichergeräte sowie eine Speichereinheit oder ein JBOD-System. Gemäß einem kürzlich veröffentlichten Bericht belaufen sich die Kosten pro Knoten für die hyperkonvergente Software eines führenden Hypervisor-Anbieters (auch bekannt unter der Produktbezeichnung »vSAN«) auf 8.000 bis 11.000 US-Dollar für die Software-Lizenzen und auf 8.000 bis 14.000 US-Dollar für die Server- und Speicher-Hardware. Diese Zahlen sind dann mit der Anzahl der Knoten zu multiplizieren, die für den Aufbau einer hyperkonvergenten Infrastruktur erforderlich sind. Im Mindestfall sind dies drei Knoten, aber aus Gründen der Verfügbarkeit und der Leistung werden vier Knoten empfohlen. Darauf wollen wir auch nächste Woche auf der N-Tec Workshop-Tour deutlich hinweisen.
Im Gegensatz dazu erfordern hyperkonvergente Server-Speicher-Systeme von Datacore in der Grundausstattung lediglich zwei physische Knoten und ermöglichen zudem die Nutzung weniger kostenintensiver Hardware (beispielsweise SATA- statt SAS-Festplatten). Außerdem ist Flash bei uns eine Option als hochperformanter Primärspeicher, aber nicht zwingend erforderlich. Stattdessen nutzen wir ohnehin vorhandenen DRAM für das Caching, was erheblich schneller ist und die Anfangsinvestition in die Gesamtlösung deutlich senkt, ohne einen Wachstumspfad für Flash zu verbauen.

  In wie weit können hyperkonvergente Speicher ein zentrales SAN unterstützen? Welche Vorteile ergeben sich dadurch für Unternehmen?

Thurnhofer: Hyperkonvergente Speicher eignen sich auch für Remote-Offices, speziell wenn kein IT-Know-how vorhanden ist. Außerdem kann man dieselben Vorteile eines SANs nutzen, ohne in ein solches investieren zu müssen. Man kann auch klein starten, und später wachsen, wobei sich unsere »Virtual SAN«-Lösung bis hin zu einem klassischen SAN skalieren lässt. Weitere Vorteile sind Investitionsschutz, längere Investitionszyklen (vier oder fünf statt typischerweise drei Jahre), sowie deutliche Kosteneinsparungen, da hier kein Highend-Equipment nötig ist. (Anm.d.Red.: Auf die deutlichen Einsparungsmöglichkeiten verwies auch N-Tec-Geschäftsführer Sven Meyerhofer in einem vorangegangenen Interview.)

  Software-defined Storage verspricht spürbare Kosteneinsparungen. Gibt es ein Rechenbeispiel bzw. Erfahrungsberichte für Mittelständler?

Thurnhofer: Genau zu diesen Punkten haben wir Datacore-Kunden befragt, sowohl im Rahmen einer eigenen Befragung als auch extern durch TechValidate. Datacore-Kunden berichten also im Durchschnitt von bis zu 75 Prozent geringeren Speicherkosten, bis zu zehnmal mehr Leistung, bis zu viermal besserer Kapazitätsauslastung, bis zu 100 Prozent weniger speicherbezogene Ausfälle sowie bis zu 90 Prozent weniger Zeitaufwand für speicherbezogene Routineaufgaben.

.
Anzeige