Enterprise-SSDs: Upgrades anstelle Neukauf
Auch wenn NVMe die Schlagzeilen gehören, SATA ist nach wie vor die führende Technologie in Servern und Speichern. Enterprise-SSDs stellen mittlerweile bis zu 8 TByte an Kapazität zur Verfügung, zu überschaubaren Kosten. Wir sprachen mit Christian Marhöfer, Geschäftsführer bei Kingston Technology, über die Vorteile von Upgrades anstelle von Neuanschaffungen und warum uns SATA-SSDs noch lange begleiten werden.
? Mit SATA-SDDs noch Upgrades zu machen, erscheint auf den ersten Blick nicht mehr zeitgerecht, denn eigentlich war die Technologie bereits abgekündigt.
Marhöfer: Und auch wieder angekündigt. Wir sind nicht überrascht, dass SATA tatsächlich zurückgekommen ist. Natürlich stellt NVMe die Zukunft dar und es wird ständig versucht die Technologie nach vorne zu schieben, zuerst im Client-Bereich. Allerdings im Zusammenhang mit neuen Systemen.
Bei Storage-Systemen ist dies nicht anders. NVMe steht für eine hohe Bandbreite und Geschwindigkeit, nur muss auch die Infrastruktur dafür bereitstehen. Für Unternehmen geht dies mit hohen Investitionen einher, egal ob für Server oder Storage-Subsysteme.
Daher sehen wir SATA immer noch als eine existierende und weit verbreitete Variante. Viele Unternehmen haben SATA-basierende Systeme im Einsatz, deren Lebenszyklus auf einige Jahre angelegt ist. Kommen diese vorher an ihre Leistungsgrenzen, hat man zwei Möglichkeiten: alles austauschen oder optimieren. Und da bieten sich SATA-SSDs als gute Alternative an, um bestehende Systeme zu optimieren und die alten Geräte nochmal in der Geschwindigkeit und in der Auslegung weiterzubringen. Diese lassen sich damit weiter nutzen, bis der eigentlich angedachte Lebenszyklus erreicht wird oder man verlängert diesen sogar.
? Und dies kommt in der Praxis wahrscheinlich häufiger vor, als man denkt?
Marhöfer: Tatsächlich sehen wir mittlerweile recht häufig, dass Unternehmen SATA-SSDs zusätzlich integrieren und dadurch das System komplett optimieren. Es geht nicht immer darum, Flash-Arrays komplett mit SATA auszustatten, sondern gezielt SSDs zur bestehenden Hard-Drive-Infrastruktur hinzuzuinstallieren.
? Um dann als Cache zu dienen oder um zum Beispiel ein ganzes Volume zu ersetzen?
Marhöfer: Hängt von den Anwendungen ab. Grundsätzlich bringt Caching immer dann Vorteile, wenn vor allem Daten abgerufen werden. Zum Beispiel, wenn bei Webservern zu bestimmten Zeiten die Zugriffe sprunghaft ansteigen. Datenbanksysteme profitieren in der Regel immer, aber auch beim Streaming hilft Caching oftmals sehr stark. Die niedrigen Latenzen einer SSD beschleunigen generell den Datenverkehr. Im Gegensatz dazu arbeiten Festplatten mit relativ hohen Latenzen, wodurch Verzögerungen auftreten. Hier ergibt sich mit Caching durch SSDs immer ein Vorteil.
Die Methode ist mittlerweile weit verbreitet und wird auch von den Systemherstellern oft mit eigenen Caching-Implementierungen unterstützt. Diese können IT-Administrator relativ einfach nutzen.
? Sollte ein SSD-Cache nicht standardmäßig implementiert sein?
Marhöfer: Es ist ja nach wie vor eine Kostenfrage und bei Systemen, die schon einige Jahre laufen, ist es wahrscheinlich, dass zum damaligen Zeitpunkt noch keine Notwendigkeit bestand. Zudem haben sich in den vergangenen Jahre die Kapazitäten der SATA-SSDs auch im Enterprise-Bereich massiv weiterentwickelt.
Unsere DC600M-SSDs sind mit bis zu 7,68 TByte erhältlich. Damit ergibt sich heute die Möglichkeit, einen deutlich größeren Cache zu installieren. Und dies zu Kosten, die früher so nicht möglich waren.
? Wo liegen Enterprise-SSDs aktuell preislich?
Marhöfer: Wenn wir unsere DC600M nehmen, dann liegen wir bei rund 90 Euro für die 480-GByte-Variante. Ein 4-TByte-Modell kostet in etwa 310 Euro und 7,68 TByte zirka 660 Euro. Angesichts der mittlerweile doch hohen Kapazitäten, die zur Verfügung stehen, halte ich das für vernünftige Preise.
? Wir erinnern uns an Zeiten, als eine 1-TByte-SSD bei rund 800 Euro lag.
Marhöfer: Wenn wir uns den Preis pro GByte betrachtet, ist dieser mittlerweile stark gefallen. Durch neue Technologien wie 3D-TLC-Speicherzellen (Triple-Level-Cell) hat sich die Speicherdichte bei SATA-SSDs deutlich erhöht. Und mit der Herstellung hoher Kapazitäten lässt sich auch ein Preisvorteil erzielen.
? Wann sehen wir die ersten zweistelligen Kapazitäten im SATA-Bereich?
Marhöfer: Das ist schwer vorherzusagen. Die Technologien schreiten rasant voran. Als nächstes rechnen wir mit zweistelligen TByte-Kapazitäten bei NVMe. Bei SATA muss man tatsächlich abwarten und schauen, ob es dann auch Sinn macht. Einerseits muss sich die Chip-Technologie weiterentwickeln, andererseits müssen die SSDs auch weiterhin stabil funktionieren.
Bei NVMe haben wir mehr Möglichkeiten, da sich hier die Controller-Technologie schneller entwickelt. Und bei SATA besteht einfach auch eine Limitierung durch das Interface.
? Zusammengefasst bringen Upgrades viele Vorteile und es muss immer direkt ein neues Systeme sein.
Marhöfer: Upgrades liegen in der DNA von Kingston. Da kommen wir her, beginnend bei Arbeitsspeichern für die ältere PCs und Server. Der große Vorteil ist natürlich immer darin zu sehen, dass man bestehende Systeme länger benutzen kann, und eine längere Benutzung bedeutet Investitionssicherheit. Das heißt, der Return-on-Investment (ROI) steigt und die Total-Cost-of-Ownership (TCO) sinken.
Die Kosten für ein Upgrade sind oftmals überschaubar im Vergleich zu den Investitionen in eine komplett neue Hardware. Dass irgendwann die Umstellung kommt, ist selbstverständlich. Server und Speicher lassen sich heute aber oft über Zeiträume von fünf Jahren verwenden, das war früher fast unvorstellbar. Die Nutzungsdauer der Systeme hat sich generell erhöht und durch ein Upgrade lässt sie sich eben oft nochmals etwas strecken.
? Das würde auch als Überbrückung Sinn ergeben. Bis sich die IT-Abteilung für neue Storage-Systeme entschieden hat und diese in Betrieb gehen, vergehen ja doch oft mehrere Monate. In dem Fall bringt eine Enterprise-SSD einige sofortige Verbesserung, zu überschaubaren Kosten.
Marhöfer: Ganz genau, zumal man ja permanent gezwungen ist, in seine IT-Infrastruktur zu investieren, die Systeme zu optimieren und sie für neue Anforderungen fit zu halten. Die Home-Office-Initiativen sind hierfür ein gutes Beispiel: Viele Unternehmen, uns eingeschlossen, mussten in Security-Tools investieren, die nun permanent im Hintergrund laufen. Diese Anforderungen bzw. zusätzliche Belastung der Server waren in der Planungs- und Beschaffungsphase vermutlich meist nicht vorgesehen. Mit einem SSD-Upgrade sind die Geräte wieder Up-to-Date und eine Neuanschaffung noch nicht notwendig.
? Vielleicht noch ein paar Sätze zu den neuen Technologie und hohen Kapazitäten. Was sollten IT-Manager hierzu wissen?
Marhöfer: Da sprechen wir zunächst von NVMe. Die Technologie ist Markt etabliert und vor allem von Systemherstellern vorangetrieben. Hauptvorteil sind die hohe Bandbreite, mit der sich mehr Performance erzielen lässt. Das liegt im Bereich von SATA bei einem Faktor von drei bis vier und auch die IOPS für Lesen/Schreiben sind spürbar schneller.
Das heißt, man kann dann in Zukunft auch mit weniger SSD-Laufwerken ein eindeutig schnelleres System aufsetzen. Im SATA-Bereich sorgt vor allem die Anzahl der Laufwerke für zusätzliche Geschwindigkeiten. Mit schnelleren NVMe-SSDs lassen sich mit weniger Laufwerken schon deutliche Fortschritte erzielen. Hinzu kommen künftig noch höhere Kapazitäten.
Man muss allerdings auch sagen, dass es natürlich von den Anwendungen abhängt, ob die überhaupt diesen hohen Daten Durchsatz benötigen. Nicht jede Anwendung braucht das. Es gibt auch Limitationen, dass die Anwendung nicht mehr mitkommt. Im SATA-Umfeld wird normalerweise jede Anwendung beschleunigt, was bei NVMe nicht immer der Fall ist. Künftige Anwendungen werden aber sicherlich dahingehend programmiert, sich diesen Speed-Vorteil zu Nutze zu machen.
? Was wären typische Beispiele?
Marhöfer: Grundsätzlich alle Anwendungen, die mit hohen Datenvolumen arbeiten. Zu nennen sind unter anderem Artificial-Intelligence (AI) und IT-Sicherheit sowie digitale Zwillinge. Hier passiert ständig etwas im Hintergrund und es laufen permanent Aktionen, parallel zu den eigentlichen Aufgaben.
Das mag heute noch kein Mainstream sein, wir gehen aber davon aus, dass auch mittelständische Unternehmen künftig eine Art von künstliche Intelligenz einsetzen. Zum Beispiel, wenn Maschinenbauer das Thema digitale Twins nutzen, um ihre Maschinen zu verbessern und weiterzuentwickeln.
Das Internet der Dinge benötigt beispielsweise einen schnellen Datendurchsatz und sehr kurze Latenzen. Edge-Computing bedeutet, kleine, aber leistungsstarke Server, um schnell reagieren zu können. Hier sehen wir künftig auf jeden Fall einen hohen Bedarf an schnelleren Geschwindigkeiten. Aber auch hier gilt es abzuwägen, wird tatsächlich schon NVMe benötigt oder hilft mir noch SATA.
? Abschließend nochmal, was leisten Enterprise-SSDs, im Vergleich zu herkömmlichen Client-SSDs?
Marhöfer: Kunden versuchen immer wieder ganz gerne mit einer Client-SSD im Server-Umfeld zu überleben. Das geht vielleicht gerade noch eben, wenn man tatsächlich nur Daten liest. Generell ist aber nicht zu empfehlen. Insgesamt sind fünf Punkte zu nennen, warum man auf Enterprise-SSDs setzen sollte:
1. Haltbarkeit: Das heißt, wie oft kann man eine SSD beschreiben, bevor sie ihr Lebensende erreicht und sich nicht mehr beschreiben lässt? Eine Enterprise-SSD kann im Garantiezeitraum mindestens einmal pro Tag mit der gesamten Kapazität beschrieben werden. Bei Client-SSDs würden die sogenannten Drives Writes Per Day (DWPD) relativ schnell erreicht werden und die Laufwerke wären dann nicht mehr nutzbar und fallen wesentlich früher aus als eine Enterprise-SSD.
2. Power fail: Sollte der Strom verloren gehen, schreibt die SSD die Daten zu Ende. Dies sorgt für Datenintegrität und schützt vor Datenverlust.
3. Service-Qualität: Damit stellen wir sicher, dass die SSD im laufenden Betrieb zuverlässig funktioniert. Dies ist wichtig, um gewisse Service-Level-Agreements (SLAs) zu erfüllen. Systemanbieter benötigen zum Beispiel die Sicherheit, dass die SSDs den gehobenen Anforderungen im Server-Umfeld auch gerecht werden.
4. Kapazitäten: Derzeit sind mit Enterprise-SSDs 7,68 TByte möglich. Im Client-Umfeld sind aktuell 4 TByte das Maximum.
5. Konstanz: Eine konstante IOPS-Rate gehört mit zu den wichtigsten Argumenten für Enterprise-SSDs. Bei Client-SSDs hat man oftmals den Effekt, dass die maximalen IOPS nur kurz erreicht werden und dann abfallen, um auf einen niedrigeren Niveau weiterzuarbeiten. In diesem Fall geht der Vorteil, den eine Enterprise SSD bieten soll, verloren.
? Wie setzt Ihr das um?
Marhöfer: Dies wird über den Controller und die Firmware umgesetzt. Damit stellen wir sicher, dass die SSDs auf einem gleichbleibenden Niveau, lesend zirka 94.000 erreichen und schreibend bis zu 78.000 IOPS, je nach Kapazität.
Das sind aus meiner Sicht die fünf wichtigsten Punkte. Zusätzlich bietet sich die SMART-Analyse an, mit der man die Leistungsdaten und den der SSDs feststellt.
Zudem sollten sich Anwender und IT-Manager im Klaren sein, welche Arbeitslasten (Workloads) von den genutzten Anwendungen bzw. Systemen ausgeübt werden. Dies sollten Administratoren vorher messen und analysieren, damit vorab feststeht, inwieweit beispielsweise schreibintensive Anwendungen die SSDs strapazieren.
? Das heißt letztendlich, SATA ist nach wie vor der Standard und wird dies auch noch eine Zeitlang bleiben.
Marhöfer: Davon gehen wir aus. Die installierte Basis ist signifikant und wird es vorerst auch bleiben. Ich kann mir gut vorstellen, sollten wir uns in einiger Zeit noch einmal unterhalten, wird NVMe natürlich Anteile hinzugewonnen haben, aber SATA auch immer noch nachgefragt werden.
Weiterführende Links: