Bei Dell EMC kann es nur ein Filesystem geben: OneFS
Filesysteme müssen absehbarer Weise bald PByte und mehr an Dateien verwalten. Wie kann man Filesysteme schneller machen, damit Anwender und Anwendungen nicht ewig auf Ergebnisse warten müssen?
Benjamin Krebs, Dell EMCKrebs: Die Performance beim Zugriff auf Filesysteme ist, unabhängig von der Größe, von diversen Faktoren abhängig. Dabei spielen u.a. das physikalische Filesystem-Layout, Protection-Level und -Mechanismen, Zugriffs-Protokolle, Locking-Mechanismen, Netzwerkanbindung, Parallelisierung von Zugriffen, Load-Balancing und Caching eine Rolle. Wir bieten mit der 6. Generation unserer Isilon-Hardware-Architektur auf Basis des Scale-out-Filesystems OneFS 8.1 eine Lösung, die auch im zweistelligen PByte-Bereich einen schnellen Zugriff auf die Daten ermöglicht. Insbesondere das All-Flash-System F800 arbeitet aufgrund seines SSD-Backends mit niedrigen Latenzen, so dass auch die Anforderungen performance-kritischer Anwendungen erfüllt werden können.
Erste distributed Filesysteme verwalten Dateien auf privaten und öffentlichen Clouds. Wie schaffen es solche Global-Name-Spaces, dass manuelle oder automatische Kopieraktionen von Dateien konsistent für das Dateisystem erfolgen?
Krebs: Um die Konsistenz in verteilten globalen Dateisystemen sicherzustellen, sind grundsätzlich – also unabhängig von On-Premise- oder hybriden Cloud-Infrastrukturen – entsprechende Locking-Mechanismen im Dateisystem notwendig. Für die Verdrängung von Dateien in die Cloud sind diverse Technologien im Markt verfügbar. Wir bieten mit Isilon CloudPools eine integrierte Software-Funktionalität, mit der zum Beispiel das bestehende zentrale Dateisystem im Rechenzentrum um einen nahezu unbegrenzten Speicherraum in der eigenen On-Premise-Cloud oder bei verschiedenen öffentlichen Cloud-Anbietern (Amazon, Azure, Google, Virtustream) erweitert werden kann. Die Übertragung der Daten erfolgt hierbei regelbasiert unter Kontrolle und Management des Isilon-Systems, das auch beim Zugriff auf verdrängte Dateien die Konsistenz sicherstellt.
Welche Fähigkeiten von globalen Dateisystemen für eine Multi-Cloud-Umgebung sind zukünftig unverzichtbar, oder wird die einzelne Datei hinter einer Objektspeicherung versteckt werden?
Krebs: Für den Einsatz von globalen Dateisystemen in einer Multi-Cloud-Umgebung sind, wie bereits erwähnt, effiziente Locking-Mechanismen unverzichtbar, um die Konsistenz der Dateien zu gewährleisten. Unter Performance-Gesichtspunkten sind vor allem eine optimale Nutzung der Lokalität der Dateien, verbessertes Caching und niedrige Latenzen wichtig.
brauchen wir künstliche Intelligenz im Dateisystem?
Krebs: Je größer Dateisysteme werden, umso wichtiger sind intelligente Such- und Analysemöglichkeiten. Die Anwendung von Big-Data-Analytics ist deshalb in Multi-Petabyte-Umgebungen zukünftig nicht nur hilfreich, sondern ein klares Muss, wenn man Ordnung in seine unstrukturierte Datenwelt bringen will. Ein Beispiel wäre die Indizierung, um eine schnelle Volltextanalyse zu ermöglichen. Der Einsatz von Künstlicher Intelligenz oder selbstlernenden Systemen als eine Weiterentwicklung von modernen Analyseverfahren ist gerade im Hinblick auf die Verwaltung und das Monitoring von PByte-Filesystemen sinnvoll. Eine Überwachung von sehr großen und schnell wachsenden Dateisystemen ist zukünftig nur noch mit einem hohen Maß an Automation möglich, die etwa in Form künstlicher Intelligenz realisiert werden kann.
Objektdaten sind eigentlich nur mit Metadaten angereicherte Filedaten. Doch ansonsten gibt es viele Unterschiede. Wie bringt man das wieder zusammen?
Krebs: Im Zeitalter der Digitalen Transformation spielen neben unstrukturierten Daten auf Basis von PByte-Filesystemen besonders objektbasierte Daten, etwa aus IoT-Umgebungen, sowie moderne Analyseverfahren zur Nutzung dieser Daten eine entscheidende Rolle. In der Diskussion um moderne Filesysteme sollte daher immer auch hinterfragt werden, inwieweit Technologien den Austausch von Informationen zwischen File- und Objekt-Technologien unterstützen und eine effiziente und schnelle Analyse (Big Data) dieser Daten ermöglichen.