IBM stellt Storage Scale System 6000 für KI-Workloads vor
IBM präsentiert mit dem Storage Scale System 6000 eine neue Speicherlösung für die KI-Ära. Mit doppeltem Durchsatz im Vergleich zu Vorgängermodellen soll der Hochleistungs-Speicher die Anforderungen anspruchsvollster KI- und kapazitätsintensiver Workloads erfüllen. Bis zu sieben Millionen I/O-Operationen pro Sekunde bewältigt das System.
IBM bringt mit dem Storage Scale System 6000 eine neue Storage-Scale-Appliance auf den Markt, die den doppelten Durchsatz des aktuellen High-End-Geräts ESS 3500 bieten soll. Gedacht ist der Cloud-basierte Hochleistungs-Speicher für unstrukturierte Daten und für anspruchsvollste KI- und kapazitätsintensive Workloads. Sie sammelt Daten aus diversen Clouds und auch aus Hardware anderer Hersteller.
Das SSS-6000-System leistet bis zu sieben Millionen I/O-Operationen und bis zu 256 GByte/s für schreibgeschützte Workloads pro System bei einem Platzbedarf von vier Höheneinheiten. IBM startet mit Konfigurationen ab 96 TByte, und skaliert (Scale-out) laut Selbstaussage auf über tausend Knoten und YByte 633 (Yottabyte) in einem einzigen Cluster. Behauptet »Big Blue«.
Wem es, ob der zu Grunde liegenden theoretischen Mathematik hilft: Nach Tera- folgen Peta- , Exa-, Zetta- und dann eben Yottabyte. Ein Yottabyte entspricht zwei hoch 80 Byte, also gerundet 1,1 Billionen Terabyte. 633 davon sind also unschwer vorstellbar: ziemlich viel.
Ein Chassis lässt sich mit bis zu 48 Laufwerken mit NVMe-Flash von je 3,84 bis 30 TByte bestücken. Alternativ können laut Hersteller ab dem ersten Quartal 2024 IBM-proprietäre Flashcore Modular-Laufwerke (FCM) mit einer Kapazität von 19 TByte oder 38 TByte verwendet werden. Damit kann das 4U-Chassis auf 5,4 PByte Nutzkapazität mit Online-Komprimierung skalieren.
Das 6000-er basiert auf dem PCIe-Gen-5-Bus und ist doppelt so schnell wie die PCIe-Gen-4-Verbindung des ESS 3500. Es unterstützt 200 GbE im Vergleich zu den 100-GbE-Verbindungen des ESS 3500 sowie 400-Gbit-InfiniBand-Verbindungen im Vergleich zu den 200-Gbit-Infiniband-Links des 3500-er-Systems. Im Verbund mit neueren CPUs und mehr Controller-DRAM steigt die maximale Datenübertragungsrate pro Gehäuse von 126 auf 256 Gbit/s.
Die Rahmendaten der SSS 6000 (im Vergleich zum Vorgänger ESS 3500):
- Vier Rack-Einheiten (4U) mit bis zu 48 Laufwerken (ESS 3500: 2U mit 24 Bays)
- Dualer Active-Active Controller AMD EPYC Genoa (zuvor EPYC Milan)
- DRAM bis zu 1.536 GByte (zuvor 512 GByte)
- 256 GByte/s pro Chassis (zuvor: 128 GByte/s)
- 400-Gbit-Infiniband (zuvor: 200-Gbit-HDR)
- 7.000.000 IOPS (zuvor 1.200.000)
- Bis zu 30 TByte FCM (zuvor: 15,36)
- 16-mal 200 GbE- und PCIe 5-Konnektoren (zuvor 8-Fach 100 GbE und PCIe 4)
Größere Dateneffizienz durch IBM Flashcore
Laut IBM sollen die neuen FCM-Module ab dem ersten Quartal 2024 verfügbar werden und offenbar auf QLC-Technologie (Quad Level Cell) basiert. Erst dann bietet das SSS 6000 das 2,5-fache Datenvolumen auf derselben Grundfläche wie das System der Vorgänger. Damit einher gehen, laut Hersteller, 70 Prozent niedrige Kosten und 53 Prozent weniger Energieverbrauch (pro TByte) zu vorherigen Flash-Laufwerken von IBM. FCM solle dann auch Hardware-beschleunigte Datenkomprimierung und -verschlüsselung integrieren. Sprich: Bis zum Q1 sind die annoncierten Daten eigentlich noch Zukunftsmusik.
»Das Potenzial der neuen KI-Ära von heute lässt sich meiner Meinung nach nur voll ausschöpfen, wenn Unternehmen eine Strategie haben, Daten aus mehreren Quellen nahezu in Echtzeit zusammenzuführen, ohne zahlreiche Kopien von Daten zu erstellen und konstante Iterationen der Datenaufnahme zu durchlaufen«, sagt Denis Kennelly, General Manager bei IBM Storage. »IBM Storage Scale System 6000 bietet Kunden die Möglichkeit, genau das zu tun es bringt Daten aus Kern, Edge und Cloud auf einer einzigen Plattform mit optimierter Leistung für GPU-Workloads zusammen.«
Storage Scale mit Nvidia: Antwort auf wachsende GPU-Workloads
Die Storage-Scale-Software soll eine globale Datenplattform für unstrukturierte Daten bilden und Daten mit einem offenen Ökosystem aus Speicheroptionen verschiedener Anbieter, einschließlich AWS, Azure, IBM Cloud und anderen öffentlichen Clouds zusätzlich zu IBM Storage Tape bilden. Allerdings möchte das System auch Daten aus Hardware-Systemen der Wettbewerber sammeln. Die dazugehörige Plattform für die Operationalisierung von KI-Workloads nennt sich IBM watsonx.
Laut IBM böte sich mit 6000-er die Möglichkeit, eine Informationslieferkette von einer NVIDIA-KI-Lösung zu anderen KI-Workloads zu erstellen, unabhängig davon, wo sie sich befinden. Diese neue »NVMe-oF-Turbo-Schicht« von IBM wurde für kleine Dateien entwickelt, beispielsweise für Dateien, die von fernen Geräten erfasst wurden, oder für den Zugriff auf kleinere Transaktionen wie Data Lake- oder Lakehouse-Analysen, sodass sie in eine NVIDIA-Lösung integriert werden können. Dafür unterstützt das SSS 6000 unter anderem Magnum IOTM GPUDirect Storage und ConnectX-7-Nics von NVIDIA.
Zu den bestehenden Anbietern von GPU-Direct-Support gehören Dell PowerScale F600, DDN AI400, Vast Data Ceres, NetApp EF600, und insbesondere Huawei mit seiner A310-Produktserie, die zumindest bislang die Lesebandbreite nicht per Node, aber pro Rack der IBM ESS 3500 übertraf. Auch Pure Storage FlashArray, WekaIO und andere dynamische Unternehmen tummeln sich in diesem High-Performance-Markt-Segment unterhalb des Supercomputing.
Weitere Informationen: