Anzeige

Was ist Multitenancy?

Leserfrage: Der ein oder andere Hersteller, wie zum Beispiel MPstor, erklärt, dass ihre Flash-Systeme »multitenancy«-fähig sind. Da stellt sich die Frage, was versteht man darunter? Und was ist das Besondere an einer möglichen Lösung?

Antwort Doc Storage:

Als Multitenancy wird bezeichnet, wenn eine einzige Software-Instanz mehreren oder vielen Nutzern zur Verfügung gestellt wird. Hiermit sollen zunächst niedrigere Preise für einschlägige Dienste erreicht werden, indem mehr als ein Kunde die Hardware eines Rechners nutzen kann – meist lastet ein einziger Abnehmer diese nämlich nur zum Teil aus. Außerdem skalieren diese Modelle besser, können mehreren Kunden so eine beliebige Anzahl von Prozessorkernen, ein variabler Anteil am Hauptspeicher und ähnliches zugeteilt und bei Bedarf dynamisch erweitert werden. Der Flexibilität und den niedrigeren Kosten stehen allerdings einige Probleme entgegen.

Anzeige

Die Kosten sind zwar für den Betrieb niedrig, allerdings wird bei den Berechnungen durch die Anbieter immer vergessen, dass die Daten, mit denen gearbeitet werden soll, auch erst einmal von der heimischen Plattform in diesen neuen Dienst gebracht werden müssen. Diese Bewegung – und vielleicht auch Konvertierung und Anpassung – ist niemals kurzfristig und ohne großen Aufwand zu stemmen, so dass die Personal- und anderen verwandten Kosten hier gegengerechnet werden müssen. Häufig stellt sich dann heraus, dass das Geld, welches durch den billigeren Dienst eingespart wurde, vorher schon für diese Arbeiten ausgegeben wurde. Leider werden diese Kosten oft als »eh da« angesehen, da das hierfür benötigte Personal und die Ausrüstung sowieso im Hause vorhanden sind.

Der Aspekt der Sicherheit der Daten und der Ausrüstung wird meist von den Anbietern der externen Dienste als derselbe verkauft wie beim lokalen Betrieb. Allerdings wird hier gern verschwiegen, dass die eigenen Mitarbeiter auf die firmeneigenen Sicherheitsrichtlinien eingeschworen sind und damit meist anderen Paradigmen folgen als diejenigen des Dienstebetreibers. Natürlich kann es hier wie dort passieren, dass falsche Rechte verteilt oder versehentlich Maschinen heruntergefahren werden. Allerdings betrifft dies bei lokalem Betrieb »nur« jeweils eigene Installationen, während beim Dienstleister sofort viele Kunden nicht mehr oder fehlerbehaftet arbeiten können. Im schlimmsten Fall können unterschiedliche Kunden auf die Daten der anderen zugreifen – und nein, dass ist bisher nicht nur einmal passiert. Sollte sich ein Krimineller Zugang zum Hosting-System verschaffen, hat er meist nicht nur Zugriff auf die Daten eines, sondern von Dutzenden oder Hunderten von Kunden.

Manchmal kann auch der Speicherort der Daten zum Problem werden. In Deutschland beispielsweise fordert die GDPdU die Ablage bestimmter Dateien und Inhalte im Lande. Dies können verteilt arbeitende Hoster oft nicht garantieren, womit der Kunde dann in ein rechtliches Problem läuft. Wieder andere Hoster beschränken sich auf bestimmte Datenbankformate, unterstützen beispielsweise nur SQL oder eben überhaupt nicht. Auch das Bewegen der Daten vom einen zum anderen Anbieter gestaltet sich manchmal schwierig oder mindestens langwierig, da ad hoc keine entsprechend breiten Verbindungen für eine schnelle Migration beschafft werden können.

Welche Probleme dieses Konzeptes der genannte Hersteller gelöst haben will, steht hier leider nicht in der Frage. Allerdings kann ich mir kaum vorstellen, dass gerade ein Speicherhersteller die genannten Herausforderungen aus dem Weg räumen kann.

Gruß
Doc Storage

Anzeige