Frank Bunn, Senior Solution Marketing Manager EMEA, Symantec
In mittleren und großen Unternehmen stehen die Verantwortlichen vor der Aufgabe, die Speicherinfrastruktur sinnvoll zu verwalten, die Sicherheit der Daten zu gewährleisten und die Datenhaltung selbst so effizient wie möglich zu gestalten. Die übergreifende Lösung lautet Storage-Management.
Wir sprachen mit Frank Bunn, Senior Solution Marketing Manager EMEA bei Symantec, über die aktuelle Entwicklung und Trends.
Wie sehen Sie aktuell den Markt für Storage-Management? Welchen Wandel hat das Segment in den letzten rund zwei Jahren vollzogen? Damals wurde eine Marktbereinigung vermutet, was wurde daraus?
Bunn: Der Bereich Storage-Management ist noch immer sehr in Bewegung und im Wandel, was nicht verwundert, da aufgrund des nach wie vor ungebremsten Datenwachstums stets neue Anforderungen und Lösungsideen entstehen. In vielen Bereichen hat schon eine Marktbereinigung stattgefunden – viele kleinere Firmen, die sich beispielsweise auf Storage-Resource-Management spezialisiert haben, befinden sich heute unter den Fittichen der größeren Anbieter, die so ihr Angebot abgerundet haben. Den gleichen Trend sehen wir im Moment bei Continuous-Data-Protection (CDP). Bis auf wenige Ausnahmen, wo die großen Backup-Unternehmen eigene CDP-Lösungen entwickelt haben, sind viele kleine spezialisierte Hersteller von den großen übernommen worden. Und ein weiterer Trend, den Symantec und Veritas von zwei Jahren begonnen haben, wird sich verstärkt im Storage-Management-Markt vorsetzen – die Symbiose von Storage und Sicherheit hin zu Storage-Security, Information-Security und Compliance.
Mittlerweile vereint sich vieles unter dem Oberbegriff Storage-Management. Welches ist aus Ihrer Sicht der wichtigste Aspekt von Storage-Management? Worauf sollten IT-Verantwortliche bzw. Unternehmen auf jeden Fall achten?
Bunn: Vor zwei Jahren hätte ich noch einfach gesagt, der Anwender erwartet von Storage-Management die Bereitstellung ausreichender Kapazitäten, Leistungsfähigkeit und Ausfallsicherheit für seine Speichersysteme und Daten – natürlich immer unter dem Gesichtspunkt der angemessenen Kosten. Heute würde ich hier noch unbedingt den Aspekt der Sicherheit hinzufügen. Allen voran sind hier die Funktionen Verschlüsselung, beispielsweise bei der Auslagerung von Daten, und Zugriffskontrolle zu nennen. Eine weitere Anforderung ist die Verwaltung und Optimierung der im Speichernetz vorhandenen Ressourcen wie durch die Virtualisierung von Servern. Zentrale Aspekte des Storage-Managements sind auch Backup, die schnelle Wiederherstellung von Daten und die langfristige Archivierung. In diesen Bereichen muss gesteuert werden, welche Daten wohin fließen und wie lange sie dort vorgehalten werden müssen. IT-Administratoren sollten bei der Auswahl einer Lösung vor allem auf die Unterstützung für verschiedene Plattformen achten. Plattformübergreifender Support ist einer der Erfolgsfaktoren für Storage-Management, da Flexibilität im Rechenzentrum immer wichtiger wird.
Befassen sich KMUs (kleine und mittleren Unternehmen) Ihrer Ansicht nach ausreichend mit Storage-Management oder handelt es sich nach wie vor um ein Thema für Großkonzerne? Wo sehen Sie hier die größte Problematik? Wo drückt die Unternehmen in der Praxis der Schuh?
Bunn: Inzwischen ist das Thema Datenverwaltung mit Hilfe von Datensicherung viel besser verstanden worden und hier werden zunehmend modernere Lösungen wie Backup-to-Disk und auch CDP eingesetzt. Eine Datensicherung, die sich nicht mehr so einfach über Nacht bewältigen lässt, ist eben ein unausweichlicher Indikator dafür, dass hier unbedingt etwas geschehen musste.
Beim reinen Speichermanagement dagegen liegt aus meiner Sicht noch einiges im Argen. Ein Grund dafür ist der Preisverfall der Festplattensysteme – einerseits positiv, aber er hat wahrscheinlich nur bedingt dazu beigetragen, dass man der effizienten Verwaltung von Daten aufgeschlossen gegenübersteht. Das Problem wird vor sich her geschoben, indem man bei Kapazitätsengpässen immer weitere Platten hinzukauft. Dabei könnte sinnvolles Storage-Resource-Management kombiniert mit Archivierung das Problem umfassender und langfristig günstiger angehen. Überflüssige Daten werden eliminiert und verstopfen nicht den Speicherplatz, die wichtigsten Informationen werden in einer sicheren Umgebung archiviert und schnell über intelligente Suchmechanismen wieder hervorgeholt.
Experten vertreten die These, Storage-Software muss sich anpassen oder verschwinden. Nur Standards können die Kosten der Storage-Verwaltung senken. Wie sehen Sie die aktuellen Standardisierungs-Bemühungen und mit welcher Entwicklung ist zu rechnen?
Bunn: Alles was sich nicht anpasst, wird in diesem dynamischen Markt verschwinden. Dazu braucht man kein Experte zu sein. So sind beispielsweise Firmen, die anfänglich nicht der SMI-S Initiative der SNIA (Storage Networking Industry Association) gefolgt sind, mittlerweile auch auf diese Linie geschwenkt. Die SNIA hat aber auch erkannt, dass es mit reinen Speicherschnittstellen alleine nicht getan ist. Wichtig ist ebenfalls ein standardisiertes Applikationsverhalten, wo es beispielsweise darum geht, genormte Metadaten aus den Anwendungen zu erzeugen. Diese Metadaten sind dann eine wichtige Voraussetzung für die Klassifizierung und somit eine wichtige Grundlage für ein applikations- und speicherübergreifendes ILM-Konzept.
Wie schätzen Sie das Thema Deduplizierung ein? Der Ansatz klingt sinnvoll, doch wird es dafür aber auch einen Markt geben?
Bunn: Unbedingt – ein ganz wichtiges und zukunftsweisendes Thema. Deduplizierung wird heute schon in vielen Variationen betrieben. Nehmen wir einfach als Beispiel die E-Mail-Archivierung. Die dort verwendete Single-Instance-Technologie, die gleiche Nachrichten oder Attachments nur einmal speichert, ist auch nichts anderes als Deduplizierung und Eliminierung redundanter Informationen. Auch aus der Datensicherung wird Deduplizierung bald nicht mehr wegzudenken sein. Gerade bei der Sicherung von Daten in entfernten Niederlassungen ergeben sich enorme Einsparungen bei der Übertragungskapazität und der Netzbandbreite, wenn nicht doppelt und dreifach abgespeichert wird. Wenn Datendeduplizierung schon vor der Übertragung eingesetzt wird, ermöglicht es oftmals überhaupt erst, dass die entfernten Standorte wirkungsvoll in ein zentrales Backup-Konzept eingebunden werden können. Deduplizierung ist also nichts anderes als die Vermeidung von unnötig belegtem Speicher. Wenn dies einfach und kostengünstig umgesetzt wird, gibt es auch einen Markt dafür. Die Erfahrung von Symantec hat gezeigt, dass bis zu 30 Prozent Einsparung bei redundanter Datenhaltung, wie sie in den meisten Unternehmen betrieben wird, möglich ist.
Inwieweit sollten die Archivierung elektronischer Daten und ILM in das Storage-Management miteinbezogen werden?
Bunn: Bei der Umfrage, die Symantec unter Storage-Experten auf der Storage Networking World 2006 durchgeführt hat, zeichnet sich ILM als ein wichtiges Thema ab. Steigende Datenmengen, gesetzliche Anforderungen und die Notwendigkeit der Gewährleistung von Verfügbarkeit, ohne die Datenmenge über Gebühr wachsen zu lassen, sorgen dafür, dass ILM-Konzepte für Unternehmen zunehmend interessanter werden. Dabei ist für 2007 eine Steigerung in diesem Bereich zu erwarten, denn die Technologie scheint langsam die Umsetzungsphase zu erreichen: 60 Prozent der befragten Storage-Experten schätzten, dass ILM für Unternehmen in Zukunft wichtiger wird. Ein Grund dafür ist sicherlich die Möglichkeit, den eigenen Speicherbedarf durch Datenklassifizierung auf ein erträgliches Niveau zu reduzieren. ILM wird durch diese Entwicklungen für einen breiten Markt interessant. Nach Einschätzung der Experton Group hat rund die Hälfte der deutschen Unternehmen auf der technologischen Seite bereits einen Teil der Grundlagen für ILM geschaffen. Bei diesen Grundlagen überwiegen allerdings in den meisten Fällen noch die produktorientierten Ansätze – punktuelles ILM ist bis heute der Vorreiter. Dennoch schätzt Experton, dass bereits fünf bis zehn Prozent der Storage-Investitionen ILM-relevant sind.