Anzeige

Interview mit Datacore: Wir vereinen isolierte Speicher-Inseln

Nahezu jede größere Firma im Storage-Bereich offeriert derzeit Software-defined Storage (SDS). Doch wo sind die Unterschiede der Angebote? Und was bringt es dem Administrator wirklich? Im speicherguide.de-Interview verriet uns Datacore-CEO George Teixeira ein paar interessante Aspekte.

  Fast die gesamte Storage-Branche ruft seit einiger Zeit: »Wir können Software-defined Storage (SDS).« Trügt uns das Gefühl, oder können Sie das schon länger?

George Teixeira, CEO, Datacore SoftwareGeorge Teixeira, CEO, Datacore SoftwareTeixeira: Das ist wirklich eine kuriose Situation. Eigentlich haben wir 1998 DataCore Software mit genau diesem Ziel gegründet. Unser Mission-Statement lautete damals »Software-driven Storage Architecture«. Wer weiß – hätten wir es »Software-defined« genannt, dann hätte es die Branche vielleicht gerade extra »Software-driven« genannt. Sei’s drum – wir sind unserem Unternehmensziel immer treu geblieben, und haben jetzt Tausende von glücklichen Kunden, während die anderen damit jetzt erst anfangen.

Anzeige

  Und wie wirkt sich dieser Marktvorsprung aus?

Teixeira: Unsere aktuelle Version von »SANsymphony V10« kommt mittlerweile auf sechs Millionen Code-Zeilen. Zunächst forcierten wir Themen wie Hochverfügbarkeit (High Availability), Thin-Provisioning, Caching, Auto-Tiering und Snap-Shooting. Wir mussten es gar nicht Software-defined Storage nennen, obwohl wir hier über ein Jahrzehnt eigentlich der einzige Anbieter waren. Aber diese Themen kamen besser an. Vor allem Hochverfügbarkeit, das kam interessanterweise in Deutschland sehr gut an.

  Wenn wir den Markt für Software-Defined Storage anschauen, wer sind dann Ihre Hauptwettbewerber?

Teixeira: In erster Linie konkurrieren wir mit den Anbietern von klassischen, Hardware-basierten Storage-Arrays. Reine Software-basierte SDS-Lösungen sind am Markt dagegen eher rar. Dort müsste ich eigentlich Nexenta nennen, jedoch begegnen wir ihnen selten im Unternehmensumfeld. Es ist eine Open-Source-Variante, die wir am ehesten im Bildungswesen oder bei Universitäten sehen.
Anbieter wie IBM mit dem »SAN Volume Controller« oder EMC mit ViPR vermarkten Lösungen, die sie als Software-defined Storage bezeichnen. Diese beschränken die Kunden aber auf spezifische Server- oder Storage-Hardware, und sind damit eigentlich vorkonfigurierte Software-/Hardware-Plattformen. Wir haben als Alternative zur reinen Software mit der »DataCore Storage Virtualization Appliance« beispielsweise eine Komplettlösung, die wir gemeinsam mit Fujitsu auf deren hoch performanten Servern entwickelt haben. Dennoch bleiben wir dabei ein transportables Stück Software.

  Und was ist neben EMC und IBM mit HP und Hitachi Data Systems (HDS) & Co?

Teixeira: Natürlich sagen die, sie machen Software-defined Storage. Aber lässt sich deren Software herunterladen, und mit einem anderen Storage-System verwenden? Natürlich nicht. Es braucht auf jeden Fall auch die Hardware des entsprechenden Herstellers. Allerdings verbindet uns mit diesen Unternehmen eine Art »Coopetition«; heißt: Im Prinzip sind wir Konkurrenten, aber viele Kunden setzen unsere Software mit genau diesen Hardware-Systemen ein, eben weil sie dadurch Vorteile erreichen, und aus der Hardware mehr herausholen können.

  Abgesehen davon öffnen diese Unternehmen doch auch den Markt für Software-Defined Storage, und damit auch für Sie – oder nicht?

Teixeira: Das stimmt schon. Wir haben lange auch die Begriffe »Storage-Virtualisierung« oder »Storage-Hypervisor« geprägt. Vor allem der Storage-Hypervisor kam gut an, weil den die Administratoren von der Server-Virtualisierung her bereits kannten. Damit war es eigentlich selbsterklärend, dass auch beim Storage eine neue Software-Schicht eingezogen wird, die die darunter liegende Storage-Hardware abstrahiert, und letztendlich unabhängig von der Hardware macht. Die Intelligenz ist in der Software – und nicht mehr, wie früher, in der Storage-Hardware. Da half uns eigentlich EMC sehr gut, als sie als größter Storage-Anbieter Anfang des Jahres mit ihrem ViPR sagten: die Zukunft des Storage ist Software, plus Commodity-Hardware. Und dann kam auch noch VMware mit ihrem Virtual-SAN, das ebenfalls einen puren Software-Ansatz hat. Und nachdem diese beiden großen Unternehmen dies sagten, mussten wir nicht mehr evangelisieren.

  Und wie wirkt sich das auf Ihr Geschäft aus?

Teixeira: Urplötzlich stiegen bis uns die Anfragen um über 50 Prozent. Denn alle Interessenten, die sich ViPR und VSAN anschauten, suchen natürlich auch ständig nach Alternativen nach dem Motto: Was gibt es sonst noch auf dem Markt? Und sie wurden bei uns fündig.

  Ihre Software kann ja nicht nur unterschiedliche Hersteller einbinden, sondern auch unterschiedliche Speichermedien, wie beispielsweise Flash. Wo sind hier die Unterschiede zur Konkurrenz?

Teixeira: Kurz gesagt: im Software-Stack. Als Flash aufkam, haben wir es sofort in unserer Software berücksichtigt. Wir arbeiten auch schon länger mit Flash-Anbietern eng zusammen, wie beispielsweise mit Fusion-io oder Violin Memory. Wir haben also schon längst einen erprobten Software-Stack für Flash, von der einfachen SSD-Karte übers Highend-Flash bis zum Komplettsystem geräte- und herstellerübergreifend. Alle anderen kreieren jetzt erst mit ihrem Software-defined-Storage-Einstieg ihre Software-Stacks, und die meisten sind sogar noch Disk-basierend – können also die Vorteile von Flash noch nicht mal richtig adressieren.

  Schauen wir uns auch mal VSAN von Vmware an. Deren neues Virtual-SAN-Cluster kommt immerhin auf zwei Millionen IOPS. Das ist doch schon mal eine Hausnummer….

Teixeira: Ja, aber schauen wir auch mal genauer hin: VSAN benötigt dafür ein Cluster von 32 Nodes. In einem Cluster mit 32 Servern skaliert unser Datacore-Virtual-SAN auf über 50 Millionen IOPS. Und VSAN arbeitet nur in einer Vmware-Umgebung. Wir arbeiten in mehreren Umgebungen, eben auch in der Microsoft-Welt, und können bei Bedarf nicht nur den lokalen Speicher an diesen Appliaktionsservern virtualisieren, sondern auch physischen SAN-Speicher integrieren. Damit ist das Datacore-Virtual-SAN eines der leistungsfähigsten Produkte am Markt mit weiter Skalierung, und nicht nur auf Abteilungen oder kleine Unternehmen beschränkt.

  Wenn es um Software-defined Storage geht, dann sind auch Newcomer wie Nutanix, Nimble oder Tintri sehr aktiv. Wie grenzen Sie sich hier ab?

Teixeira: Diese Unternehmen picken sich mit ihren Hybrid-Systemen ein enges, aber nichtsdestoweniger attraktives Marktsegment heraus. Außerdem läuft auch ihre Software nur auf ihrer Hardware. Den hybriden Ansatz setzen sie aber ganz gut um. Aber die reale Welt beim Administrator und seinem Rechenzentrum ist doch nicht ein Container aus Server und Storage, sondern die: Es gibt virtuelle und hybride SANs, Unix-, Hyper-V- und Vmware-Umgebungen, SAS- und SATA-basierende Storage-Systeme kämpfen mit immer preiswerter werdendem Flash, und Low-Cost-Cloud-Lösungen kämpfen mit der Enterprise-Cloud. Hier hilft nur eine echte Software-defined-Storage-Lösung, und die haben wir…

  Sie sagten ja bereits, dass sie früher auch den Begriff Storage-Tiering ritten. Lassen Sie den jetzt fallen?

Teixeira: Nein, das werden wir weiterhin propagieren. Denn die meisten, die jetzt Software-defined Storage anbieten, arbeiten meist nur mit zwei Storage-Tiers, nämlich Disk oder Flash. Wir arbeiten dagegen mit bis zu 15 Tiers von Disk-, über Flash- bis hin zu Cloud-Storage, die in sich wiederum unterschiedliche Qualitätslevel (Highend bis Low-Cost) aufweisen.
Bei uns kann es der Administrator selbst festlegen, wie viele Tiers er einziehen möchte. Und ich wage die Prognose: Nächstes Jahr werden wir wegen dem Preisverfall bei DRAM die ersten Hybrid-Systeme aus DRAM und Flash sehen. Wenn das kommt, tut sich ein Administrator mit unserer Software ganz leicht damit. Die anderen werden erst wieder ihre Software-Stacks umschreiben müssen. Wir haben ja jetzt schon einzelne Anwender, die definieren fünf bis sechs Flash-Layer, weil es innerhalb von Flash Geschwindigkeitsunterschiede gibt. Wir brauchen also im realen Leben eine Infrastruktur, die die vermehrt auftauchenden Geschwindigkeits-Levels der verschiedenen Medien managen kann. Mit unserer Software stellen Administratoren immer öfters fest: Mit nur ein wenig mehr DRAM im Server – aber richtig gemanaged – dreht eine Applikation bei der Geschwindigkeit richtig auf. Dort kommt unser High-Speed-Caching voll zum Tragen; und dort schließt sich auch der Kreis zu unserer Historie, in der wir vor 15 Jahren vor allem als Experten für das Caching starteten.

  Wie sieht Ihre langfristige Strategie aus?

Teixeira: Unsere langfristige Vision nennen wir »Data anywhere«. Administratoren sollen mit unserer Sansymphony-Lösung die Daten vom virtuellen SAN am Applikationsserver ins virtualisierte SAN, in die Cloud und wieder zurück bewegen können. Und wir glauben, dass es weiterhin viele neue Storage-Typen geben wird – also eine Art breites Spektrum von Flash über die Festplatte bis hin zum Cloud-Speicher. Und die Anwender werden alle diese verschiedenen Typen auch wirklich benutzen. Davon gehen wir aus. Wenn wir uns die reale Welt draußen anschauen, dann spricht jeder Anbieter von Konvergenz, aber sie verkaufen Divergenz in Form von isolierten Speicher-Inseln. Und so lautet unsere ganz einfache Strategie seit unserer Gründung: Wir wollen mit Software diese isolierten Speicher-Inseln wieder vereinen.

.
Anzeige