3D-Flash: Balance zwischen Performance, Kapazität und Kosten
Mit dem Einzug der 3D-Architektur hat sich die Nachfrage nach professionellen SSDs für Storage-Systeme und Rechenzentren noch einmal erheblich erhöht. Im Moment kann die Industrie den Bedarf nur schwer abdecken – auch, weil Flash-Speicher ein hohes Einsparpotenzial bieten. Thomas Arenz, Director Marcom + Strategic Business Development bei Samsung Semiconductor Europe, gibt uns einen Einblick über die Trends und den Entwicklungsstand bei 3D-V-NAND-SSDs.
2015 wurden dreimal so viele SSDs verkauft, wie im Vorjahr. Im ersten Quartal 2016 war schon abzusehen, dass es in diesem Tempo weitergeht. Wie sehen Sie aktuell die Nachfrage nach SSDs und speziell für Datacenter?
Thomas Arenz, SamsungArenz: Der Trend ist ungebrochen, wir kommen mit dem produzieren nicht hinterher. Flash ist im Datacenter definitiv angekommen. Dies gilt sowohl für Performance- als auch Capacity-Tiers und ist im wesentlichem dem 3D TLC V-NAND geschuldet. Diese bauen die perfekte Balance auf zwischen Kapazität (bis zu 16 TByte im 2,5-Zoll-Formfaktor) und Performance – zu einem vertretbaren Preispunkt. Diese Kombination ist ein richtiggehender Türöffner und führt zu dieser massiven Nachfrage. Sowohl bei SAS als auch SATA, aber vor allem bei NVMe-SSDs.
Mit welchen Anforderungen sehen Sie sich derzeit aus den Rechenzentren konfrontiert?
Arenz: Das Datenaufkommen ist sicher die größte Herausforderung. Mit einem Smartphone werden durchschnittlich 30 MByte pro Tag erzeugt, mit einem PC 90 MByte. Wenn wir etwas weiter nach vorne schauen, bei einem autonomen Auto rechnet man mit 40 GByte pro Tag an Daten, die gespeichert werden und verbleiben. Diese Schätzung ist wahrscheinlich sogar noch relativ konservativ, denn alleine die Datenkommunikation, die so ein Auto mit seinem Umfeld unterhält, soll bei einem GByte/s liegen. Noch viel mehr fällt beispielsweise bei Connected-Plane an. Ein vollvernetztes Flugzeug kommt mit allem Drum und Dran auf 50 TByte pro Tag. Die Liste, »wo kommen ZByte an Daten her?«, lässt sich endlos fortführen.
Flash folgt hier der Wachstumskurve der Produktion von Daten. Dies gilt für die Kapazität und Geschwindigkeit. Das Paradigma ändert sich ganz deutlich vom CPU-zentrischen, zum Daten-zentrischen und Flash ist das Element, dass für die Umwandlung von Daten in Geld steht. Daten sind die Währung von morgen. Damit das aber richtig funktioniert, müssen drei Sachen gewährleistet sein: Kapazität auf Produktionsseite, Performance und Partnerschaften über das gesamte Ökosystem »compute & storage« hinweg mit dem Ziel, sowohl technologisch performante als auch wirtschaftlich vorteilhafte neue Lösungen bereitzustellen.
Flash wird nicht alle anderen Speichermedien ablösen. Schon alleine aus dem einfachen Grund, dass die Produktionskapazitäten gar nicht hoch genug sind. Aber zumindest der Performance-Tier bis zum ersten Capacity-Tier wird von Flash abgedeckt. Daher investieren wir, wie auch die gesamte Industrie, in neue Technologien und neue Fertigungslinien, um der Nachfrage gerecht zu werden.
Bei der Performance ist es eine Sache, die Daten schnell zu finden, sie sollen aber auch schnell verändert und zur Verfügung gestellt werden. Nur so lassen sich neue Business-Modelle unterstützen, die beispielsweise auf Daten- und Echtzeitanalysen aufsetzen, damit wir als Konsumenten möglichst bequem und ohne Wartezeiten irgendwelche Services bestellen können.
Samsung setzt auf Partner und Referenzlösungen
Sie sprechen es mit Partnerschaften bereits an, Samsung scheint nun auch mehr den Bereich Lösungen zu adressieren?
Arenz: Partnerschaften und Ökosysteme sehen wir als extrem wichtigen Baustein. Es bringt nichts, im stillen Kämmerlein vor sich hinzuentwickeln. Wir arbeiten hier mit ganz unterschiedlichen Firmen zusammen, das sind auch nicht immer nur die großen Player, sondern auch mit einer Reihe an Startups. Einige bewegen sich noch im Stealth-Modus, entwickeln aber Lösungen der nächsten Generation. Die ersten neuen Technologien werden vermutlich im kommenden Jahr vorgestellt. Vorher dürfen wir leider nicht genauer darauf eingehen.
Im Moment können wir bereits Referenzlösungen für die Bereiche Red Hat, Ceph, Redislabs und OpenStack bereitstellen. Und für alle, die noch nicht komplett in ein All-Flash-System investieren möchten, bieten wir die Caching-Lösung AutoCache an.
Die Verfügbarkeit von SSDs könnte derzeit besser sein. Auch die Preise haben sich stabilisiert und tendieren wieder nach oben. Wie lange wird dies so bleiben und welchen Ausblick können Sie uns geben?
Arenz: Weltweit wurden laut Trendfocus im Q2/2016 über 33,7 Millionen SSDs mit über 12,1 EByte verkauft. Der Markt ist insgesamt »short« und daher sind die Preise ungewohnt stabil. Aber sobald die neuen Produktionskapazitäten stehen, wird sich das auch wieder normalisieren. Allerdings wird dies vermutlich noch bis zur zweiten Jahreshälfte 2017 dauern.
Die Produktion von 3D-Technologien zu erhöhen ist nicht ganz so einfach. Wir sind nicht nur dabei, die dritte V-NAND Generation als Unterbau für unsere Datacenter- und Enterprise-SSDs zu verwenden, sondern setzen parallel nun schon auf die vierte Generation für Client-SSDs. Während ein V-NAND der dritten Generation 48 Layer besitzt, kommt die vierte Generation mit 64 Layern. Gleichzeitig verdoppelt sich die Speicherdichte auf 512 Gbit, womit nun in einem Chip ein TByte möglich sind.
Damit werden zuerst Client-Systeme bestückt und im zweiten Halbjahr 2017 rechnen wir mit den ersten Enterprise-SSDs mit 64 Layern. Rückblickend können wir sagen, wie haben bisher über 30 Millionen V-NAND-SSDs verkauft und sind damit auch Marktführer bei Enterprise-SSDs.
Die V-NAND- und NVMe-Technologie
Was zeichnet diese V-NAND-Technologie aus und wie unterscheidet sie sich von herkömmlichen Flash-Speichern?
Arenz: Mit den bisher in Flash und SSDs eingesetzten Planar-NANDs lässt sich kaum noch eine höhere Datendichte erreichen. Dazu rücken die horizontal angeordneten Speicherzellen immer näher zusammen. Und damit steigt die Gefahr, dass sich die Zellen gegenseitig beeinflussen und Daten verändert oder verloren gehen könnten.
Wir setzen daher auf die 3D-V-NAND-Technologie. Gegenüber planaren, zweidimensionalen NANDs sind die Speicherzellen übereinander angeordnet und vertikal miteinander verbunden. Die bisher aus einem leitenden Material bestehende Datenschicht wird in V-NANDs durch einen Isolator ersetzt. Durch die vertikale Anordnung der Zellen ergibt sich eine physisch breitere Bitleitung, die direkt dazu beiträgt, Interferenzen zwischen den Zellen zu unterbinden.
Die Erhöhung der Datendichte von zwei auf drei Bit schafft die Möglichkeit, mehr Speicherkapazität auf einem Chip unterzubringen. Im Datacenter arbeiten wir hier aktuell mit gängigen Kapazitäten von bis zu 16 TByte und im Client-Bereich bieten wir bezahlbare SSD mit bis zu vier TByte an. Zu betonen ist auch, dass trotz der verbesserten Leistung und zusätzlicher Features, wie der Stromersparnis, die SSDs nicht mehr kosten.
Welche Rolle spielt dabei NVMe?
Arenz: NVMe ist letztendlich die Schnittstelle, auf die wir alle gewartet haben. Damit können SSDs ihre Leistungsfähigkeit viel besser ausspielen. Nach dem Motto: Was nutzt der tollste Sportwagen, wenn er von einem Esel gezogen wird? Mit NVMe kann man den Esel abspannen und den Boliden richtig fahren lassen.
Gegenüber AHCI, wie es SATA bisher verwendet, verarbeitet NVMe mehrere Befehle gleichzeitig und erreicht damit vier- bis fünfmal höhere Performance-Werte als SATA-SSDs. In der Praxis ergeben sich Übertragungsgeschwindigkeiten von 1,5 GByte/s beim Schreiben sequenzieller Daten bzw. 2,5 GByte/s beim Lesen. Workloads lassen sich mit bis zu 300.000 IOPS verarbeiten. Mit herkömmlichen SATA-III-SSDs sind dagegen nur Datenraten von maximal 600 MByte/s und 100.000 IOPS möglich. Unser Flaggschiff, die PM1725, bietet bis zu 6,4 TByte Kapazität, eine Bandbreite von drei GByte/s und eine Million IOPS – damit lässt sich serverseitig schon eine Menge Workload abpuffern, bevor überhaupt Daten mit dem Storage-Netzwerk ausgetauscht werden müssen.
Für welche Einsatzszenarien empfehlen sich Enterprise-SSDs?
Arenz: Im Prinzip profitieren alle Anwendungen von den Geschwindigkeitsvorteilen. Zunächst wurden SSDs als Boot-Drive anstelle von HDDs und später als Cache zwischen Server und Storage eingesetzt. Mittlerweile interagieren Server mit kompletten All-Flash-Arrays sowie mit Tiered-Storage-Systemen mit integrierten SSDs.
Unsere Partner Dell/EMC oder Netapp reduzieren beispielsweise mit unseren 16 TByte SAS-SSDs die Systemgröße von vorher zwei Racks auf ein 4U-Array. Unternehmen können so die Stellfläche reduzieren bzw. auf gleicher Fläche im RZ mehr Datenvolumina unterbringen. Gleichzeitig muss aber nicht die gesamte Infrastruktur erneuert werden. Mit Flash können Firmen nach und nach umstellen und agieren damit relativ kostengünstig.
Ausblick auf die Entwicklung bei Flash und SSDs
Welchen Ausblick können Sie uns geben?
Arenz: In einem Jahr werden wir 32-TByte-SSDs im 2,5-Zoll-Formfaktor (PM1643) sehen. Wichtig mit Blick auf die Performance und Verfügbarkeit, ist auch die neue NVMe-SSD PM1725A. Diese kommt im ersten Halbjahr als 2.5-Zoll-U.2-Formfaktor und wird mit einem Dual-Port ausgestattet sein. Das erlaubt uns, die Performance im Server um den Faktor 4 zu steigern.
Das nächste größere Thema wird NVMe over Fabric (NVMe OF) sein, wenn es um mehr Flexibilität und Performance-Steigerung geht. Damit bringen wir Capacity- und Performance-Tiers näher aneinander. Wie bei Software-defined wird physische und logische Struktur entkoppelt. Das heißt, »es ist egal, wo das Blech steht«, als virtuelles Volume ist es da verfügbar, wo es gebraucht wird. In der Kommunikation zwischen den physischen Volumina schlummern noch einige Geschwindigkeitsreserven. Dies ist nicht nur ein Networking-Thema, sondern auch die Art und Weise, wie die Geräte miteinander verschaltet sind. Ziel ist es, die SSD remote direkt über NVMe anzusprechen, mit Latenzzeiten im Bereich 10uS und maximaler Bandbreite wie bei einem lokal über PCIe und NVMe angeschlossenem Laufwerk. Und das Ganze selbstverständlich auf Basis offener Standardprotokolle, die industrieweit eingesetzt werden.
Interessant ist dies vor allem für Unternehmen, die im Hyperscaling-Umfeld unterwegs sind. Diese fordern eine flexible Kapazitätserweiterung ohne großen Aufwand. Aber auch hier müssen wir uns noch bis kommendes Jahr gedulden.
Neben der direkten technologischen Weiterentwicklung scheint auch das Flash-Tuning im mehr zum Thema zu werden. Stichwort Multi-Streaming. Wie sehen Sie hier die Entwicklung?
Arenz: Wenn man der SSD unter die »Haube« schaut, wie Datenflüsse optimiert werden, ist noch einiges an Potential vorhanden. Netapp nutzt beispielsweise das Multi-Streaming sehr intensiv. Hier werden in der SSD Daten geclustert. Es wird analysiert, was sind heiße und eher kalte Daten, man bildet verschiedene Cluster und legt die Daten entsprechend ab. Also was sonst in den Storage-Tiers passiert, macht die SSD sozusagen im Kleinen. Mit etwas »Firmware-Magie« und zusätzlicher Intelligenz, zum Beispiel von Netapp, verbessert sich die Lebensdauer des Flash-Speichers, die Latenzzeiten verringern sich und die Bandbreite erhöht sich fast um den Faktor 9.
Dies ist vielleicht auch eine übergeordnete Message: Flash ist noch lange nicht am Ende. Das Flash-Tuning steht erst am Anfang. Das Umfeld entwickelt sich erst und beginnt damit, die Kapazität und Leistung von Flash andersartig zu nutzen. Dies gibt uns als Hersteller neue Impulse die Chips weiter zu optimieren.
Obwohl sich Flash-Preise wieder etwas nach oben bewegen, Kosten sind kein Thema mehr bei der Anschaffung?
Arenz: Hersteller wie HPE 3PAR bringen zum Beispiel mit unseren SAS-SSDs 20 PByte Storage-Kapazität in einem einzigen Rack unter. Dafür wurden früher acht Schränke benötigt. Dass ein Rack günstiger ist als acht, muss man selbst bei All-Flash keinem groß vorrechnen. Aber man muss auch sagen, obwohl TCO ein großes Thema ist, schauen viele IT-Entscheider vor allem auf den Kaufpreis und wie dieser in das aktuelle Budget passt. Die Budgets sind nun mal meist nicht auf 48 Monate ausgelegt, sondern auf zwölf und da muss das System hineinpassen. Idealerweise soll aber trotzdem noch etwas gespart werden. Mit 3D-V-NANDs und NVMe können wir diesen Ansatz aber unterstützen.
Diese Flash-Generation ermöglicht eine Balance zwischen Kapazität, Performance und einem betriebswirtschaftlichen interessanten Preispunkt sowie den Kosten im Betrieb. Die nachfolgenden Flash-Generationen werden das Verhältnis hier noch verbessern. Daher sehen wir sowohl im Performance-Umfeld als auch im ersten Kapazitäts-Tier die Tage der drehenden Platte als gezählt.
Datacenter: Hohes Einsparpotenzial durch 3D bei DRAM und Flash - Interview mit Thomas Arenz, Samsung
All-Flash & SSDs auf speicherguide.de