Anzeige

Platten, Hybrid, All-Flash - Welche Architektur wofür

Komplexer werdende Anwendungen, steigende Anzahl an Mobilgeräten, Cloud-Strategien und Echtzeitanforderungen verlangen nach nutzbringenden Speicherstrukturen. Hier hat der IT-Manager erquicklich Auswahl und Produktvielfalt. Wofür eignen sich nun aber Festplatten-, Hybrid- oder All-Flash-Arrays wirklich.

Der Streit ist nicht neu. Hersteller traditioneller Plattensysteme nehmen für sich in Anspruch, dass die von ihnen verwendeten preiswerten Platten in Kombination mit schnellem Cache die kostengünstigste Art des Speicherns darstellen. All-Flash-Produzenten rechnen mit der neuen Formel »Kosten pro I/O« und versuchen damit, alles bisher da gewesene in die veraltete Ecke zu stellen. Und die Hybrid-Systeme mit ihrer Kombination aus Festplatten, Cache und Flash-Speichern holen sich aus jeder Welt das Beste und wollen so sowohl Platten- als auch Flash-Arrays in ihre Schranken weisen. Aber welche Versprechungen stimmen nun wirklich, welche Systeme bringen dem Anwender den höchsten Gebrauchsnutzen in der Welt außerhalb der Marketingversprechungen?

Die Ansprüche im RZ steigen

Höhere Anforderungen durch neue Anwendungen benötigen SSD-Power wie von Toshiba
Höhere Anforderungen durch neue Anwendungen benötigen SSD-Power wie von Toshiba
Ganz entgegen der aktuellen Diskussion hat das schiere Volumen der zu speichernden und zu verarbeitenden Daten in den letzten 15 Jahren nicht so schnell zugenommen wie die Bandbreiten der Netze, die Volumen der Speichergeräte oder die Rechenleistung der Mainstream-Prozessoren. Das Einzige, was zugenommen hat, sind die Ansprüche der Nutzer, mit welchen noch so abstrusen Anwendungen Daten in mannigfaltigen Formaten an noch so abgelegenen Orten der Welt erfasst, gespeichert, geändert oder ausgegeben werden sollen. Der erste, dritte und vierte Punkt stellt kein Problem dar, da der jeweilige Vorgang am Klientengerät, also einem Terminal, einem Tischrechner oder im schlimmsten Falle einem mobilen System stattfindet und lediglich dessen Kapazitäten und die Netzwerkverbindung belastet.


Die Speicherung der Ergebnisse allerdings wird spätestens dann zum Problem – oder zur Herausforderung - wenn die Daten dezentral erfasst, allerdings zentral gespeichert, gesichert und archiviert werden sollen (zwischen diesen dreien besteht durchaus ein Unterschied, auch wenn dieser heute nicht mehr beachtet wird). Und genau an diesem Punkt streiten sich nun die Hersteller von Platten-, Hybrid- und Flash-Arrays, wessen Lösung die beste, leistungsfähigste und preiswerteste ist. Dieser Wettbewerb zwischen den Marketing- und PR-Abteilungen geht allerdings in den meisten Fällen an den Bedürfnissen der EDV in der richtigen Welt vorbei. Was nutzen einem RZ-Leiter bunte Torten- und Säulendiagramme und blumige Analystenkommentare, wenn er mit dem angepriesenen System nicht das erreichen kann, was er nach Vorgabe seiner Geschäftsführung zu erreichen hat? Es geht eben nicht nur darum, was das blanke Gigabyte an Kapazität kostet, was das System an Energie aufnimmt oder an Wärme abgibt. Es geht nicht nur darum, ob der Speicherplatz durch Deduplikation oder Kompression vorgeblich besser ausgenutzt wird oder mit wievielen Repliken sich der Hauptspeicher zupflastern lässt. Nein, in der heutigen DV geht es vor allem darum, wieviele Dinge man zusätzlich tun kann, weil die verwendeten Systeme leistungsfähig genug sind, genügend Kapazitäten zur Verfügung stellen und vor allem zuverlässig genug sind.

Die Frage in den meisten Umgebungen ist nicht mehr, was der Speicherplatz kostet, sondern was ich mit besseren Systemen verdienen kann. Und natürlich, was der Ausfall der Systeme kosten würde. Vor diesem Hintergrund betrachten wir hier die drei Mainstream-Architekturen.


Traditionelle Festplattensysteme

Herkömmliche integrierte gecachete Disk-Arrays befinden sich seit ungefähr 25 Jahren am  Markt. Ursprünglich durch EMC mit der Symmetrix eingeführt und über die Jahrzehnte von zahlreichen Herstellern im Enterprise- und Midrange-Segment nachgeahmt, wurden die vormals monolithischen Architekturen immer mehr hin zu modularen, Scale-up- und Scale-Out-fähigen Systemen weiterentwickelt. Heutige Angebote kommen mit der Fähigkeit daher, mehrere PByte an Speicherplatz auf mehreren tausend einzelnen Spindeln mit einem oder mehr TByte an Cache zu betreiben. Die Microcodes sind mit so vielen Fähigkeiten wie Replikation, Fernspiegelung, Deduplikation, Kompression und anderen versehen, dass sie in ihrem Umfang und ihrer Komplexität modernen Rechnerbetriebssystemen in nichts nachstehen. Aber die schiere Größe der Systeme begründet auch deren leidigstes Problem.

EtablierteSysteme z.B. wie von IBM kommen bei IOPS oft an ihre Grenzen.
HDD-Systeme z.B. wie von IBM kommen an ihre Grenzen.
Zwar haben sich die Kapazitäten der verwendeten Laufwerke in den letzten Jahren verdreifacht, die Bandbreite der verwendeten Schnittstellen, ob nun Fibre Channel, SATA oder SAS, hat jedoch nicht Schritt gehalten. Während FC bei 4 Gbit/s verharrt und nicht weiterentwickelt wird, steht ein systemischer Wechsel zu 12 Gbit/s bei beiden anderen immer noch aus. Prinzipiell bedeutet dies, dass bei immer weiter zunehmender Anzahl an Laufwerken und immer höherer Einzelkapazität die Leistungsfähigkeit der Gesamtarchitektur dramatisch abnimmt. Da bieten auch noch so ausgeklügelte Cache-Algorithmen und noch so große Zwischenspeicher keine Abhilfe. Verschärft wird dieses Problem noch durch den Irrglauben, die billigste aller Systemkomponenten, nämlich den physikalischen Plattenspeicher, durch einen ungeheuer großen Rechen- und Verwaltungsaufwand einsparen und effizienter nutzen zu wollen, nämlich durch Deduplikation. Reine Plattensysteme werden hierdurch noch weiter an den Rand der Brauchbarkeit für den Online-Speicherbereich geführt, müssen sie sich nicht mehr nur mit den Front- und Backend-I/Os, sondern auch noch mit den internen Verwaltungs-, Ausdünnungs- und Verweisarbeiten herumplagen. Ganz abgesehen von den weiteren Einbrüchen bei Leistung und Verfügbarkeit, wenn riesige Laufwerke mit 4 oder gar 6 TByte in einer RAID-Gruppe ausfallen und zurückgerechnet werden müssen.


Festplatten für Backup und Archiv

Die Spindeln werden bald fest für Backup und Archiv genutzt. Quelle: Seagate
Die Spindeln werden bald fest für Backup und Archiv genutzt. Quelle: Seagate
All diese Kriterien, zusammen mit den heute selbst mit 2,5-Zoll-Medien unzumutbaren Leistungsaufnahmen und Wärmeabgaben, verdammen reine Plattenarchitekturen heute zusehends in Bereiche, wo zwar großes Speichervolumen, aber weder höchste Leistung noch vielfache parallele Zugriffe zu erwarten sind. Als Backup-Ziele sind sie mit Deduplikation ideal, genauso wie in NAS-Umgebungen, in denen durch iSCSI-, Ethernet- oder FCoE-Anbindung sowieso keine Höchstleistungen zu erwarten sind. Im Archiv werden diese Systeme allmählich ebenso heimisch, jedoch beharrt eine erzkonservative Mehrheit der Betreiber immer noch beim Band für diese Aufgaben. Aber auch dort sind die Grenzen des Machbaren langsam erreicht und die Ansprüche der Nutzer gehen immer mehr über das Gewohnte hinaus. Irgendwann in nächster Zukunft wird damit das Glöckchen für Tape-Systeme geläutet und diese endgültig durch Festplatten ersetzt.


Hybrid-Systeme mit Festplatten und SSDs

Vor einigen Jahren versuchte EMC als einer der ersten Hersteller, seine Symmetrix-Arrays mit Solid-State-Laufwerken (SSD) nachzurüsten und die Lebensdauer der Architektur mit deren Hilfe noch einmal um einige Jahre zu verlängern. Auch hier liefen alle anderen Hersteller in trauter Einigkeit hinterher, und heute gibt es kein Enterprise- oder Midrange-System mehr, in dem nicht auch oder sogar ausschließlich SSDs angeboten würden. Allerdings führen diese 10-12mal schnelleren Laufwerke die Architekturen noch schneller an ihre Grenzen als die übergroßen Festplatten. Hier ist es nicht die schiere Masse an Daten, über die vermittels herkömmlicher Schnittstellen zugegriffen werden muss, sondern die theoretisch möglichen Operationen jedes einzelnen Mediums. Alle Enterprise- und Midrange-Arrays, die heute am Markt sind, entstammen in ihren Ursprüngen einer Zeit, in denen niemand über den Einsatz von SSDs auch nur nachgedacht hat. Und so kämpfen die Hersteller nicht nur mit den mangelhaften Durchsätzen ihrer Backends, sondern ebenso mit dem Problem, dass die Laufwerke ebenso schnell oder sogar schneller sind als der zwischengeschaltete Cache.

Hybride-Systeme stehen hoch im Kurs, das von Nimble laut Analysten-Ranking auf Platz 1.
Hybride-Systeme stehen hoch im Kurs, das von Nimble laut Analysten-Ranking auf Platz 1.
Zwar lassen sich allzu heiße Stellen im Backend durch den Ersatz einiger Festplatten-RAID-Gruppen durch SSDs abkühlen und so die gesamte Maschine deutlich entlasten. Außerdem besteht hierdurch eine gute Chance, ein Array für gewisse Zeit sogar wesentlich schneller zu machen als nur mit herkömmlichen Laufwerken. Aber zu welchem Preis? Erstens lassen sich die Hersteller die SSDs mit einem Preis-pro-Kapazität-Faktor von mindestens drei gegenüber Standardplatten vergolden, zweitens sind die Schnittstellen wie SATA oder SAS überhaupt nicht für die Bewältigung der zehntausenden von I/Os ausgelegt, die moderne SSDs zu leisten in der Lage sind. Und drittens wird die theoretisch erreichbare Leistung der neuen Komponenten durch verwaltungstechnischen Overhead wie z.B. Deduplizierung teilweise oder sogar gänzlich zunichte gemacht.


Hier versuchen die Hersteller nun, mit automatisierten Multi-Tiering-Lösungen gegenzusteuern. Die Arrays analysieren ständig die Zugriffe auf die gespeicherten Daten und verschieben diejenigen mit den meisten Zugriffen auf die schnellsten Laufwerke, sprich auf die SSDs. Die Idee dahinter ist nicht schlecht, allerdings überfrachtet eine solche Technik im schlimmsten Falle eine jahrealte Architektur mit ihren wenigen Prozessorkernen so sehr, dass zusätzliche CPUs, mehr Cache und breitere interne Kanäle eingesetzt werden müssen. Außerdem liegt auf der Hand, dass der ständige Backend-Datenverkehr nicht gerade zu einer Steigerung der Gesamtleistung des Systems beiträgt. Start-ups wie Nimble Storage haben ihre Systeme  von vornherein auf den Hybrid-Betrieb konzeptioniert und versprechen hier bessere Leistungswerte als die alteingesessenen Hersteller.

Hybrid nur als mittelfristige Lösung

Im Wesentlichen gelten für kombinierte Systeme mit herkömmlichen Laufwerken und SSDs dieselben Kriterien und damit dieselben Prognosen wie für reine Plattenlösungen. Der Einsatz von SSDs war gerechtfertigt, um bestehende Architekturen im Enterprise- und Midrange-Bereich für einige wenige Jahre weiter vernünftig nutzbar zu machen. Allerdings treiben die Festkörperspeicher diese Systeme noch schneller an ihre Leistungsgrenzen, so dass auch und gerade bei Einsatz zusätzlicher Eigenschaften wie Deduplikation das Ende der sinnvollen Nutzung noch schneller ansteht. Viele der Anwender, denen diese Arrays heute noch gute Dienste leisten, werden sich für ihre Produktionslösungen wegen der immer weiter zunehmenden Last durch Datenbank- und Analysewerkzeuge innerhalb kurzer Zeit in Richtung All-Flash bewegen. Da sich SSDs für den Einsatz als Backup- oder gar Archivziel auch in den kommenden Jahren allein preislich und kapazitiv nicht eignen werden, wird den Hybrid-Systemen heutiger Prägung kaum eine lange Verweildauer auf dem Markt beschert sein.

All-Flash-Systeme

All-Flash-Arrays kommen nicht nur von Start-Ups wie Pure Storage
All-Flash-Arrays kommen nicht nur von Start-Ups wie Pure Storage.
2013 war das große Jahr der Einführung von All-Flash-Systemen. Zur Definition sei hier gesagt, dass ein All-Flash-System kein SATA- oder SAS-Array ist, in dem zufällig nur SSDs verbaut sind. Dies sind und bleiben Hybrid-Lösungen, denen eben nur die konventionellen Festplatten fehlen und kranken wie diese an den unzureichend leistungsfähigen Plattenkanälen. Nein, All-Flash-Arrays binden ihre Medien über wesentlich leistungsfähigere Wege an, nämlich beispielsweise über PCIe, also mit bis zu 32 GByte/s (zum Vergleich: SAS mit 12 Gbit/s bewegt brutto gerade einmal 1,5 GByte/s, also über 20 mal weniger). Die meisten echten All-Flash-Lösungen verzichten auf Cache außerhalb des eigentlichen Mediums und bieten damit Zugriffszeiten von unter 100 Nanosekunden (zum Vergleich: Standard-SSD-Arrays haben Zugriffszeiten von 500 Nanosekunden oder mehr).


Zwar bieten die aktuellen Angebote nur in wenigen Fällen interne Fähigkeiten wie Replikation, Fernspiegelung oder Deduplikation, sind dadurch auf der anderen Seite aber kompromißlos schnell. In Kombination mit einer Virtualisierungslösung, idealerweise mit integrierter, Array-übergreifender Multi-Tiering-Funktion und einem separaten Standard-Plattensystem für Massendaten, stellen diese Geräte die heute schnellste und effiziente Speicherlösung dar. Allerdings muss der Anwender bei der Kostenfrage einen Perspektivwechsel durchführen. Nicht mehr die Kosten pro Kapazität sind ausschlaggebend für den Gebrauchsnutzen dieser Systeme, sondern die Kosten pro I/O. Und diese sind bei Leistungen von 600.000 und mehr I/Os in kleinen Systemen mit kaum 50 TByte Kapazität zigfach niedriger als in herkömmlichen Architekturen.

All-Flash als optimale Kosten-Nutzen-Lösung

All-Flash-Systeme ohne den Hemmschuh schmaler Festplattenkanäle sind heute der einzige Weg, Höchstleistungsspeicher mit optimal vielen I/Os zu vergleichsweise geringen Anschaffungs- und Betriebskosten zu bekommen. Infrastrukturen, bestehend aus reinen Flash- und reinen Plattensystemen mit übergeordneten Virtualisierungs- und Multi-Tiering-Appliances, werden in den kommenden Jahren Standard und die Rechenzentren nachhaltig erobern. Wer heute neue Anschaffungen für den Online-Speicher plant, kommt um dieses Konzept nicht herum und wird bis auf weiteres auch kein besseres finden.

Alternativen

Wie bei allen anderen technischen Herausforderungen auch, so bringt das Bedürfnis nach schnellstem Speicher zum günstigsten Preis auch mehr oder weniger brauchbare Speziallösungen hervor. Es handelt sich hier im Flash-Bereich vor allem um die Nutzung von PCI-Steckkarten direkt im Server oder aber um die Kannibalisierung des rechnereigenen Hauptspeichers, vor allem im Datenbankbereich.

Alternativen wie PCM werden bald All-Flash-Pionieren wie Violin Memory Konkurrenz machen.
Alternativen wie PCM werden bald All-Flash-Pionieren wie Violin Memory Konkurrenz machen.
Beide Ansätze bringen zwar den heute schnellsten Massenspeicher hervor, haben allerdings neben dem horrend schlechten Preis-Leistungs-Verhältnis einige weitere fatale Nachteile. So lassen sich die Kapazitäten auf PCI-Steckkarten kaum oder nur mit einem erheblichen programmiertechnischen Aufwand logisch oder physikalisch gegen Ausfall und Datenverlust schützen. Der Ansatz einiger Hersteller, diese ins Multi-Tiering einzubinden und die schreibenden Operationen sowohl auf die interne Speicherkarte als auch auf ein extern angeschlossenes Speichersystem durchzuführen, sind kontraproduktiv und berauben die Architektur in diesem Bereich jeglicher Vorteile. Alle Betriebssysteme müssen für den Einsatz solcher Karten mit zusätzlichen Treibern versehen werden, die im Nachgang das Gesamtsystem anfälliger und die Wartung über Jahre komplexer gestalten.


Die Nutzung von Teilen des Hauptspeichers für Massenspeicheraufgaben ist weder neu noch elegant. Erstens wird die teuerste Komponente heutiger Server hierzu geschmälert, und zweitens ist der logische oder physikalische Datenschutz hier noch weniger möglich als bei PCI-Steckkarten. Der Vorteil der Beschleunigung vor allem von Datenbank- und Analysevorgängen wird durch die wesentlich höheren Anfangsinvestitionen mehr als aufgefressen.

Es gibt noch weitere Ansätze, schnelle Speichermedien vor allem in bestehende Enterprise-Architekturen zu integrieren. Manche Hersteller betreiben beispielsweise Experimente mit separater Flash-Anbindung über Infiniband oder andere Hochleistungskanäle an die bestehenden Controller. Allerdings handelt es sich hier durchgehend um Notlösungen, die die Lebens- und Nutzungsdauer bestehender Architekturen künstlich verlängern, ohne einen gesteigerten Gebrauchsnutzen zu erzeugen.

Bessere Anbindungen bedingen besseren Speicher

Die nahe Zukunft der Online-Speichersysteme liegt wie schon beschrieben in einer Kombination aus hochleistungsfähigen All-Flash-Systemen, hochkapazitiven Plattenarrays und einer entsprechenden Softwareschicht. Allerdings wird sich diese Gewichtung in spätestens drei bis vier Jahren weiter verschieben. Bis dahin werden Flash-Medien die Kapazitäten heutiger Festplatten erreichen und sogar überschreiten, während der Preis pro Kapazität gleich oder darunter liegt. Das wird den Tod der Festplatte in Online-Umgebungen bedeuten. Gleichzeitig werden neue, noch wesentlich leistungsfähigere Medien in den Markt drängen, allen voran Millepede und Racetrack. In dieser Zeit wird Flash den Weg nach unten in der Speicherhierarchie antreten und den Platz der heutigen Festplatten einnehmen, während diese, wenn überhaupt, nur noch in Backup- und Archivumgebungen zu finden sein werden. Bis dahin werden auch wesentlich leistungsfähigere Anbindungen an die Speichermedien verfügbar sein, so dass deren Leistung auch vollständig zur Geltung kommen kann.

Anzeige