Mit dem Storage-Hypervisor »SANsymphony-V« und dem Systembuilder-Programm hat Datacore Software echte Volltreffer gelandet. Das bedeutete: 30 Prozent Umsatzwachstum in 2012, und Deutschland avancierte zum größeren Markt für Datacore als die USA. Anlass genug für ein Hintergrundgespräch mit George Teixeira, Präsident und CEO des Storage-Softwarehauses, über die 2013er Trends. Unter anderem erfuhren wir: Vom Big-Data-Hype hält Teixeira überhaupt nichts.
Auf Ihrer letzte Woche abgehaltenen Partnerkonferenz in München sprachen Sie von beeindruckenden Zahlen: 30 Prozent Umsatzwachstum in 2012. Und Deutschland ist jetzt ein größerer Markt für Datacore als die USA. Was beflügelt Datacore derzeit so stark?
George Teixeira, President und CEO, Datacore Software
Teixeira: Wir sind die letzten vier Jahre jedes Mal um mehr als 25 Prozent gewachsen. Und das sogar trotz Rezession in 2008. Der große Trend meiner Meinung nach: Anwender wollen ihre Applikationen endlich richtig beschleunigen. Und sie stellen immer mehr fest: Das geht mit Flash und Software-definiertem Storage für Tier-1-Applikationen. Das verändert derzeit das Rechenzentrum. Und das wird einer der Megatrends in diesem Jahr. Der Anwender merkt: Bloß neue Storage-Boxen dazukaufen hilft nichts mehr.
Aber es gibt doch auch einen Trend zu Big Data, der die Anwender drückt?
Teixeira: Anwender, die in Storage-Hardware denken, merken früher oder später: Es ist alles over-provisioned und over-sized – einfach überdimensioniert. Lediglich die nächste Hardware »draufzupacken« ist nicht mehr akzeptabel, auch nicht bei Tier-1-Applikationen. Und bei Big Data trifft es die Anwender somit doppelt. Sie sind es jetzt müde, dieses Spiel mit neuen Storage-Boxen immer wieder mitzuspielen.
Aber irgendwo muss die Datenflut doch gespeichert werden?
Teixeira: So ganz kann ich diesen Hype um Big Data nicht nachvollziehen. Ich denke, dass hier zu viel Marketing von interessierten Unternehmen im Spiel ist. Wenn ich mir unsere Anwender anschaue, dann drückt das Gros der Schuh bei diesen Applikationen:
SAP, SQL sowie
Microsoft-Exchange und -Sharepoint. Und das heißt nicht Big Data, sondern Big Data Exchange. Es sind transaktionsorientierte Applikationen, und hier schnellen derzeit die I/O-Anforderungen in die Höhe. Und das ist nur mit Flash möglichst nahe oder im Server zu bewältigen. Flash ist deshalb einer meiner weiteren Megatrends in 2013.
Warum wird Flash einer der Megatrends?
Teixeira: Die Virtualisierung der Tier-1-Applikationen und die Ausbreitung von SSD-/Flash-Technologien gehen Hand in Hand. Der Grund ist einfach: Disks sind nicht so schnell wie der elektronische Memory. Flash-Speicher gibt es natürlich seit Jahren, und lange war er zu teuer für den Einsatz im Rechenzentrum. Erst der massenhafte Gebrauch in Tablets und Mobiltelefonen hat den Preis gedrückt, so dass Unternehmen ihn trotz der begrenzten Lebensspanne in ihre IT-architektonischen Planungen einbeziehen können. Der ökonomische Druck sorgt dafür, dass vermehrt Speicherklassen eingerichtet werden, die schnellen Flash-Speicher und günstigere Disks nutzen.
Mehr Speicherklassen – das bedeutet doch auch neue Herausforderungen beim Storage-Management?
Teixeira: Als Folge wird Autotiering-Software zur Optimierung von Kosten und Performance unabdingbar. Der Bedarf an Speicherkapazität wächst konstant um jährlich über 50 Prozent. Dieser Bedarf ist nicht mehr allein durch zusätzliche Hardware zu stillen. Vielmehr verlangen Unternehmen nach mehr Automation, Skalierbarkeit, Performance sowie nach größtmöglicher Ausfallsicherheit und Geschäftskontinuität. Wie ihre Frage richtigerweise schon andeutete: Die dafür notwendige Vereinfachung des Speichermanagements braucht clevere Software-Lösungen.
Und was sehen Sie als Lösung kommen?
Teixeira: Software-definierter Storage wird 2013 und darüber hinaus ein essentielles Element im Rechenzentrum. Innerhalb virtueller Infrastrukturen wird die Storage-Hardware austauschbar. Wenn man in ein Rechenzentrum hineinschaut, was sieht man? Die Infrastruktur besteht aus den Ebenen Server, Netzwerk und Storage. Auf allen drei Ebenen treten nun Hardware-Entscheidungen zugunsten der Software in den Hintergrund. Im Mittelpunkt stehen Applikationen, die Dynamik und Performance fordern. Der Erfolg von
VMware und Microsoft Hyper-V veranschaulicht den Mehrwert durch die Servervirtualisierung. Und genauso wird die Speichervirtualisierung ein wesentlicher Bestandteil im Rechenzentrum der Zukunft werden.
Aber praktisch jeder Hersteller von Storage-Systemen propagiert doch bereits Speichervirtualisierung?
Teixeira: Das stimmt schon. Aber wenn man es sich genau anschaut: Es ist alles schon noch ziemlich eng mit der Hardware des jeweiligen Herstellers verknüpft. Aber wir gehen mit »SANsymphony-V« mehr zum Server. Den gleichen Weg geht beispielsweise auch
Fusion-io mit ihren Flash-PCIe-Boards. Mit unserer Lösung kann Shared-Storage umgesetzt werden – und damit auch mit Fusion-io. Und schon wird eine Installation mit teuren Fusion-io-Boards wieder kosteneffektiv.
Wenn Sie schon so viel von Fusion-io sprechen – wie definieren Sie dann die Storage-Tiers, die Sansymphony-V anspricht?
Teixeira: Die Storage-Tiers sehen für uns so aus: Reines Memory, Flash-Karten, Disks und die Cloud. Es geht bei der letzten Storage-Tier darum, die Daten, die man vermutlich nicht mehr braucht, langfristig wegzuspeichern. Flash-Karten sehen wir wie eine verdammt schnelle Disk. Die Disk-Arrays, die in Kombination mit so einer Flash-Karte eingesetzt werden, müssen nicht mehr besonders schnell sein.
Wenn Sie das so sehen, das wird aber einigen Herstellern von Storage-Systemen nicht gut gefallen…
Teixeira: Es ist aber nun mal eine Tatsache, dass Festplatten im Vergleich zur CPU und zum Memory einfach sehr langsam sind. Wie schon gesagt: Wir gehen mehr zum Server, und Fusion-io geht den gleichen Weg. Und für die Applikationen sehen damit zwei Tiers – Memory und Flash – fast wie eine einzige Storage-Tier aus. Das Problem, das viele transaktionsorientierte Applikationen oftmals ausbremst, ist das Umschalten von einer Storage-Tier auf eine andere. Dieses Tier-Switching dauert einfach, und bringt erhebliche Latenzzeiten mit sich.
Wenn der Trend zum »Software-Speicher« anhält, dann scheinen Sie mit Ihrem Storage-Hypervisor gut positioniert zu sein…
Teixeira: Ein Storage-Hypervisor hat zunächst die Aufgabe, Ressourcen zu virtualisieren und Beweglichkeit, Effizienz und Flexibilität zu schaffen. Ich bin davon überzeugt: 2013 beginnen wir Storage anders zu denken, zu kaufen und zu nutzen. Durch die Virtualisierung haben sich Serverumgebungen und Applikationen verändert, während die Speicherwelt noch größtenteils von proprietärer Hardware dominiert ist. Das ändert sich durch Storage-Hypervisor. Unternehmen werden Storage als Service mit unternehmensweiten Features für Applikationen wahrnehmen.
.