Kurzübersicht: Flash-Technologien in Storage-Systemen
Flash steht hoch im Trend und das bereits seit einigen Jahren. Allerdings lassen sich unterschiedliche Technologien an verschiedenen Stellen einsetzen und entsprechend nutzen. Gerade die großen Storage-Hersteller entdecken, dass Flash nicht einfach nur ein Speichermedium sein muss.
Einer der größten Speicherhersteller, EMC, hat Laufwerke in Flash-Technologie vor vier Jahren ins Programm genommen und damit den Trend für alle großen Produzenten definiert. Alle Arrays, die zur Enterprise-Klasse zählen, haben heute Laufwerke dieser Art im Programm. Aber Solid-State-Drives (SSDs) allein genügen schon lange nicht mehr, um leistungshungrige Kunden zufriedenzustellen. Daher stehen Flash-Laufwerke im Server, Flash-Appliances und andere Lösungen hoch im Kurs. Die Silberrücken im Markt können hier beweisen, wie innovativ sie tatsächlich sind und wie sie ein für den Kunden lohnenswertes Verhältnis zwischen Mehrleistung und höheren Anschaffungskosten herstellen.
Der kleine Unterschied: SLC und MLC
In den Anfangsjahren setzten die Hersteller im Enterprise-Segment ausschließlich SLC-NAND-Laufwerke (SLC = Single Level Cell, ein Zelle speichert ein Bit) in ihren Flash-Lösungen ein. Zunächst wurde dies mit der höheren Haltbarkeit und Zuverlässigkeit dieser Medien begründet. Allerdings holten die MLC-NAND-Laufwerke (MLC = Multi-Level-Cell, eine Zelle speichert zwei oder gar vier Bit) vor allem in den letzten zwei Jahren sehr stark auf und bieten heute dieselbe Zuverlässigkeit wie ihre SLC-Brüder. Beide Typen halten aktuell zwischen 1,7 und 2 Millionen Stunden durch. Durch immer weiter verbesserte Technologie hat auch die Geschwindigkeit der MLC-Medien schneller zugenommen als diejenige der SLC-Speicher, so dass heute nur noch ein marginaler Unterschied zwischen beiden Lösungen besteht. Andererseits ermöglicht die MLC-Technologie höhere Informationsdichten, so dass physikalisch gleich große Medien höhere Kapazitäten erreichen. Daher fangen alle Enterprise-Hersteller an, die ursprünglich ausschließlich SLC-bestückten SSD-Arrays nun auch mit MLC-Laufwerken auszurüsten.
EMC: Mit Blitz und Donner
Die Bostoner führten vor über vier Jahren die ersten Enterprise-Flash-Laufwerke damals noch in ihren »Symmetrix DMX4«-Arrays ein. Die SLC-Medien mit anfänglich 73 und 146 GByte Kapazität vom Hersteller STEC waren eigentlich 100- bzw. 200-GByte-Medien, allerdings traute man anfänglich der Haltbarkeit der Speicher noch nicht gänzlich und nutzte die überschüssige Kapazität von 27 und 54 GByte, um eventuell ausgefallene Zellen zu ersetzen. Man erhoffte sich dadurch eine Verlängerung der Lebensdauer. Im Laufe der Zeit ersetzten 100er, 200er und 400er SSDs die anfänglichen Typen, wobei die beiden kleineren eigentlich keine Neuerungen waren, sondern lediglich die bereits bekannten Medien ohne einen Puffer von Ersatzzellen. Mit Einführung der »Symmetrix VMAX 10k«, »20k« und »40k« wagt sich EMC erstmals auf das Gebiet der MLC-Speicher und bietet diese zunächst als 100-GByte-Laufwerk an. Laut Auskunft des Herstellers wird man sich im Laufe der kommenden Jahre gänzlich von den teuren SLC-Lösungen verabschieden und das gesamte Programm auf MLC-Platten umstellen.
Mit Erscheinen der ersten SSD-Laufwerke führte EMC auch eine Multitiering-Lösung namens »FAST« (Fully Automated Storage Tiering) ein, die im Backend die Häufigkeit der Nutzung bestimmter Datenabschnitte untersucht und diese regelbasierend automatisch auf den jeweils am besten geeigneten Speicher verschiebt, im Falle der Symmetrix also SSD, FC oder SATA. Anfänglich konnte das Betriebssystem nur ganze LUNs verschieben, was unnötig Zeit und natürlich auch wertvolle Kapazitäten auf den teuren Medien kostete. Seit der Einführung von »FAST VP« (Fully Automated Storage Tiering for Virtual Provisioning) betrachtet und verschiebt die Maschine nur noch Abschnitte von 768 kByte Größe. Damit integriert der Hersteller die schnellen Laufwerke transparent in die Architektur des Gesamtsystems. Diese werden ohne Änderung genauso konfiguriert und genutzt wie die beiden anderen verfügbaren Typen FC und SATA auch.
Allerdings können die Flash-Laufwerke noch so schnell sein - einen entscheidenden Grund für Latenzen im Zusammenspiel mit Servern können diese nicht beseitigen. Das SAN selbst, also der Strang vom HBA des Servers über Aktivkomponenten wie Direktoren oder Switche bis hin zum Front-End-Port des Speichersystems, kostet jeden I/O zwischen 0,3 und 0,9 ms. Um diese Verzögerung zu eliminieren, führte EMC Mitte 2011 »VFCache« ein, zunächst als »Project Lightning« bekannt. Hierfür setzte der Hersteller ein Flash-Medium mit 300 GByte Kapazität direkt als Speicherkarte auf den PCIe-Bus des Servers und versah das Betriebssystem mit einem entsprechenden Treiber. Diese Software beurteilt jeden I/O und bedient die Anfrage aus dem Flash-Medium, falls dieser dort bereits gespeichert sein sollte. Falls nicht, werden die Informationen über den HBA vom Speichersystem geholt und gleichzeitig der Anwendung zur Verfügung gestellt sowie im Flash-Medium abgelegt. Schreiboperationen gehen immer gleichzeitig auf den Flash-Speicher und über den HBA an das angeschlossene Speichersystem. Damit ist einerseits garantiert, dass die Informationen auch bei Ausfall des lokalen Flash-Speichers sicher abgelegt sind, andererseits stehen sie zum lokalen Abruf für die Anwendungen zur Verfügung.
Eine weitere Lösung der Amerikaner im Flash-Bereich ist »Project Thunder«. Hierbei handelt es sich um eine Appliance, die momentan 20 TByte an Cache bzw. 2,5 Millionen IOPS verarbeiten kann.
Das Herz von »Thunder« stellen die bereits von VFCache bekannten PCIe-Flash-Memory-Karten dar. Das Flash-System lässt sich als DAS (Direct Attached Storage), als reiner Cache oder als doppelt aktiver Cluster beispielsweise in Oracle-Umgebungen nutzen. Als Anschlüsse sind leistungsstarke Ports wie 40-Gbit/s-Ethernet oder InfinBand vorgesehen. Technologisch ist Thunder« damit eine verteilbare und skalierbare Erweiterung des Vfcache-Ansatzes, die sich auch als »Cache-Area-Network« bezeichnen ließe. War Vfcache zuvor an einen einzelnen Server gebunden, wird dies mit Thunder aufgehoben. Die Appliance weist gegenüber einem Standard-SAN wesentlich geringe Latenzen auf und verteilt den Cache leistungsstark sowohl für Read- als auch Write-Operationen. Dafür ist sie mit einem optimierten RDMA-Host-Datenpfad ausgestattet. Die Integration mit Vfcache erfolgt mittels Software und erlaubt die Bündelung der PCIe-Karten sowie deren Verteilung.
Server, die bereits VFCache-Software besitzen, können »Thunder« ansprechen und nutzen. Mit diesem verteilten Cache will man dem Kunden den Zwang nehmen, einzelner Server mit individuellen Flash-Karten ausstatten zu müssen. Darüber hinaus eliminiert die Lösung die Limits herkömmlicher SANs und umgeht bekannte Netzwerk-Flaschenhälse. Die Appliance soll später skalierbar sein und in die FAST-Tiering-Technologie eingebunden werden. Damit ließen sich dann Daten und deren Arbeitslasten zwischen Thunder und Symmetrix verschieben.
Derzeit wird Thunder von einigen Pre-Beta-Kunden erprobt, die eigentliche Beta-Phase wird gegen Ende des dritten Quartales 2012 anlaufen. EMC rechnet damit, Anfang 2013 mit Thunder in Serie gehen zu können.
Dell: Flash mit Götter-Image
Das Unternehmen Dell hat sich in den letzten Jahren mehrere Speicherhersteller einverleibt. Da ist zunächst EqualLogic, die allerdings bis heute auch bei ihren leistungsstärksten Arrays keine SSD-Laufwerke anbieten. Später kam Compellent zu Dell, die Flash-Medien mit 200 und 400 GByte Kapazität in ihren SAS-Arrays nutzen.
Richtig in Schwung kam das Thema Flash bei Dell allerdings erst später. Von der Speicherwelt weitgehend unbemerkt akquirierte Dell im Sommer 2011 die Firma RNA Networks. Dieses Unternehmen verband zahlreiche Standard-Intel-Server miteinander und verteilte auf diese große Rechnerinstanz verschiedene Arbeitslasten. Vor kurzem eröffnete Dell auf seinem Storage Forum in Boston, was mit der gekauften Technologie geschehen wird. Hinter dem Projektnamen »Hermes« verbirgt sich eine Flash-Cache-Lösung, die ähnlich dem Projekt Thunder von EMC massive Cache-Leistung zur Verfügung stellt und damit Speicher-I/Os drastisch schneller machen soll.
Prinzipiell geht es um die Verclusterung vieler PCIe-SSDs, mit welcher dann extrem hohe I/O-Anforderungen bedient werden sollen. Daneben lassen sich Flash-Kapazitäten in einzelnen x86-Rechnern zu einem großen, wiederum verteilbaren Speicherpool zusammenfassen. Dell will diese Funktionalitäten kombinieren, um eine hohe I/O-Leistung zu erreichen. Dabei werden zwei Arten generiert: read/write Memory-Cache und read/write Flash-Cache. Technisch geschieht dies durch den Einsatz von PCIe-SSDs, die in »Poweredge 12G«-Servern des Unternehmens verbaut sind.
Mindestens 32 dieser Rechner (mit einer Limitierung von 1.024 CPU-Kernen) lassen sich so zu einem einzigen Cluster zusammenschließen. Das reicht aus ein System zu generieren, welches 48 TByte RAM und 75 TByte Flash zur Verfügung stellt. Dieser Hauptspeicher könnte beispielsweise von »In-Memory«-Anwendungen wie SAP »HANA« genutzt werden, daneben aber auch als Cache für SAN-Arrays. Damit wären viele Software-Pakete nicht mehr an dedizierte Lösungen wie Oracles »Exadata« gebunden. Die RNA-Technologie prüft und schützt zudem die Kohärenz zwischen Knoten im Cluster und ist redundant gestaltet, um Ausfälle mehrerer Knoten abzusichern.
Käme »Hermes« schnell auf den Markt, wäre Dell den Konkurrenten einen entscheidenden Schritt voraus. Diese, namentlich EMC, HP oder IBM, bieten zwar auch Flash-Cache in verschiedenen Formen an, können diesen aber nicht über verschiedene Knoten verteilen, was dort wiederum dessen Nutzung auf reines Read-Caching beschränkt.
Netapp & Fusion-io
Vor kurzem haben der Flash-Spezialist Fusion-io und NetApp eine intensivere Zusammenarbeit angekündigt. Gemeinsam wollen beide Unternehmen Server-Flash-Lösungen entwickeln, die Caching-Software-Produkte zusammen mit virtuellen Storage-Tier-Technologien von Netapp verwenden. Die Lösung zeichnet sich durch eine im Vergleich zu herkömmlichen Speicherlösungen deutlich geringere Latenz aus, während die Fusion-io-Plattform mit dem Netapp-Betriebssystem »Data Ontap« sowie Netapp-Caching-Lösungen einschließlich »Flash Cache«, »Flash Pool« und der Caching-Software von Fusion-io kompatibel ist.
Die Kooperation von Fusion-io mit Netapp findet vor dem Hintergrund statt, dass der Erfolg von Shared-IT-Infrastrukturen und der steigende Bedarf an stets verfügbaren (»always-on«) Anwendungen zu einem Umdenken hinsichtlich automatisierten Storage-Tiering-Modellen führen. Die Verbreitung unterschiedlicher Speichermedientechnologien (SATA, Fibre-Channel, SAS und Flash) erschwert in diesem Umfeld zunehmend die Entscheidungen darüber, wie die richtigen Daten zum richtigen Zeitpunkt an den richtigen Ort gelangen - und vor allem, wo überhaupt der richtige Ort ist.
Die virtuelle Storage-Ebene der Netapp-Plattform bietet den Ansatz zum automatisierten Storage-Tiering, das Daten einer spezifischenSpeichertechnologie zuweist, die am besten mit den Zielvorgaben bezüglich Lebenszyklus und Leistunganforderung der Daten übereinstimmt. Hier fügen sich die Lösungen von Fusion-io ein. Diese konzentrieren sich auf die serverseitige Beschleunigung von Anwendungen, um die Speicherleistung bei extrem niedriger Latenz vor allem in virtuellen Umgebungen, Cloud- und Big-Data-Anwendungen zu erhöhen.
Als einziges Unternehmen der Enterprise-Hersteller verfolgt Netapp dabei weiterhin die Philosophie, dass Flash kein weiteres Storage-Tier-Level (»Tier-0«) sei, sondern lediglich ein Festplatten-Cache. Allerdings würde sich, wohl überlegt eingesetzt und natürlich in hauseigene Betriebssystem »Data Ontap« integriert, damit eine bis zu 90-prozentige Verringerung der Anwendungs- und Server-Latenzzeiten ergeben.
Um die Fusion-io-Flash-Drives, genauso wie die von anderen SSD-Herstellern wie LSI, Micron, SanDisk, Stec und Virident zu unterstützen, führt Netapp das API »Flash Accel« im Rahmen ihrer »Virtual Storage Tiering«-Strategie (VST) ein. Die Schnittstelle wird vom Hersteller kostenlos zur Verfügung gestellt und integriert sich in das Netapp-Array-Betriebssystem.
Netapp erklärt seine vor allem von der EMC-Doktrin abweichende Flash-Strategie damit, dass das Medium letztendlich zu teuer sei, um Daten darauf über längere Zeiten abzulegen. Wenn Flash als weiterer Storage-Tier-Level in einer Speicherarchitektur angelegt ist, wäre dies tatsächlich der Fall. Netapps Strategie ist es deshalb, eine Art End-to-End-Caching zu ermöglichen, wobei Flash dann auf der Serverstufe einbezogen wird. Hier werden die I/O-intensiven »heißen« Daten im Flash-Speicher abgearbeitet. Neben der 90-prozentigen Reduzierung bei den Latenzzeiten verspricht Netapp überdies, dass sich die IOPS-Raten um rund 80 Prozent erhöhen würden. Letztendlich ähnelt dieser Ansatz aber demjenigen des VFCache von EMC, der dieselben mit denselben Technologien und Argumenten arbeitet. Mit Fusion-io wurde offiziell ein Technology-Reseller-Abkommen unterzeichnet. Netapp vertreibt demzufolge die Fusion-io-Produkte »ioMemory«, »ioTurbine« und »Direct Cache«.
IBM: Neue Produkte mittels Akquisition
Big Blue bietet schon seit längerer Zeit in den Arrays der »DS«-Baureihe SSD-Medien mit 300, 400 und 600 GByte Kapazität an. Zwar bietet IBM für diese Baureihe mit »Easy Tier« auch eine automatisierte Tiering-Lösung, allerdings umfaßt diese lediglich die Festplatten- und nicht die SSD-Medien. Die Verlegung der leistungshungrigen Daten muss derzeit noch per Hand über eine grafische Benutzeroberfläche erfolgen und ist nicht automatisiert wie bei den anderen Anbietern. Die Integration in »Easy Tier« hat der Hersteller für eine der kommenden Betriebssystem-Versionen angekündigt.
Ergänzend zu seiner Flash-Strategie hat IBM vor wenigen Wochen den Flash-only-Hersteller Texas Memory Systems (TMS) akquiriert und damit seine Expertise im Bereich Hochleistungs-Flash-Speicher deutlich erhöht. Bekannt ist der kleine amerikanische Hersteller vor allem für seine »RamSan«-Lösungen. Die SSD-basierten Systeme sind auf Leistungen von bis zu einer Million IOPS optimiert. In 3U hohen Arrays stellt TMS dabei Kapazitäten von bis zu zehn TByte zur Verfügung. Erst Ende Juli wurde eine überarbeitete Version der PCIe-SSD-Karte »RamSan-70« vorgestellt. Es gibt diese nun mit SLC-Flash-Kapazitäten von 450 bis zu 900 GByte, bei 1,5 Millionen IOPS, bis zu 2,5 GByte/s Bandbreite und 30 bis 60 ms Latenz.
Nach eigenen Angaben will IBM weiter in die TMS-Produkte investieren und den Support dafür übernehmen. Gleichzeitig sollen die TMS-Technologien zukünftig in die Storage- und Server-Produktfamilien von Big Blue integriert werden.
Hitachi Data Systems: Flash auf allen Ebenen
HDS hat jüngst eine komplett überarbeitete »Strategie für Flash-Integration« vorgestellt. Für diese sollen Flash-Medien im gesamten Portfolio integriert werden. Hinzu sollen Systeme mit im eigenen Haus entwickelten Flash-Speichern kommen. All diese Lösungen werden laut HDS eine größere Leistung, Skalierbarkeit und Kapazität bieten als die bislang am Markt bekannten. Das Enterprise-Array »VSP« beispielsweise soll mit Flash-Technologie mehr als eine Million random-read IOPS bieten, also die dreifache Leistung im Vergleich zum bisherigen Spitzenmodell.
Die HDS-Roadmap schließt Server, Speichersysteme und Appliances ein. Die Basis aller Entwicklungen soll ein von eigenen Entwicklern hervorgebrachtes, neues Flash-Medium darstellen, das vor allem mit wesentlich höheren Schreibleistungen und Zuverlässigkeit als bisherige SSDs ausgestattet sein wird. Die Durchsätze sollen vervierfacht, die Zuverlässigkeit im Enterprise-Umfeld auf fünf Jahre oder länger ausgebaut werden. Darüber hinaus sollen die neuen Datenträger über eine Inline-Kompression und eine sichere Löschfunktion verfügen.
Die zur Unterstützung der neuen Medien notwendige Software soll in den VSP-Arrays unterbrechungsfrei über einen einfachen Lizenzschlüssel freizuschalten sein. Allerdings muß hierzu natürlich erst das Betriebssystem auf den neuesten Stand gebracht werden.
Im Laufe des Jahres will HDS noch weitere, SSD-basierte Technologien herausbringen, zu denen sich der Hersteller allerdings noch nicht näher eingelassen hat. Aber man ist sich schon heute sicher, preiswerter und schneller zu sein als alle anderen Produkte im Flash-Markt.
Fazit: Noch ist EMC dem Markt voraus
Es gibt keinen aufgeregteren, aber auch aufregenderen Markt im Speicherbereich als den der Flash-Technologie. Die vier Großen – EMC, Netapp, IBM und HDS – überbieten sich einiger Zeit mit Ankündigungen, Einschätzungen und Leistungszusagen. Hat der eine ein Produkt vorgelegt, kann man sich sicher sein, daß die drei anderen in den kommenden Wochen mit einem ähnlichen, aber natürlich wesentlich besseren aus der Deckung kommen.
Aber wie sieht der Markt tatsächlich aus? EMC hat seine lange Erfahrung einmal mehr ausgespielt und Flash an jedem Ort der Datenverarbeitung platziert – im Rechner, im SAN und als Appliance. Alle Vorgänge sind automatisiert, und die Integration der Produkte schreitet weiter voran. Soeben wurde die neue Version von Vfcache eingeführt, die ihre Metadaten auch mit »FAST VP« austauschen und so eine Homogenität zwischen Rechner- und Array-Flash herstellt. Dabei setzt EMC weiterhin auf Standardbauteile, die überall am Markt in Masse zu bekommen sind. Damit bleibt man auch weiter unabhängig von den möglichen Nickeligkeiten bestimmter Lieferanten.
Alle anderen Hersteller können dem nur hinterherlaufen und krampfhaft nach Alleinstellungsmerkmalen suchen. IBM scheint noch nichts von der Wichtigkeit von SSD gehört zu haben und schwimmt behäbig im Strom mit, aber eben nur hinterher. Die nötigen Schritte werden wie immer nicht in Eigenregie, sondern durch Zukauf von TMS erledigt. Hier muß man abwarten, wie die bemerkenswerten Produkte in ins IBM-Portfolio integriert werden. Man gönnt ihnen ein besseres Schicksal als weiland XIV. Netapp tut sich in einer Art Panikreaktion mit Fusion-io zusammen und bringt Produkte, die bei allem Marketing-Gerede über die Unterschiede zur EMC-Lösung diesen bei näherer Betrachtung doch verdächtig ähneln. Und HDS schließlich ist nach eineinhalb Jahren Vfcache und einem halben Jahr Projekt Thunder verschreckt aufgewacht und ergeht sich erst einmal in einem Ankündigungsfeuerwerk. Auch hier wird erst die nähere Zukunft zeigen, was hier Wunsch und was Wirklichkeit ist.