Software-defined Storage oder doch proprietär?
Leserfrage: Flash-Speicher erobern sich gerade in großen Stil den Primärspeicherbereich, was zu zahlreichen Lösungsangeboten führt. Nun wird seit Jahren Software-defined Storage als das Allheilmittel angepriesen, mit dem sich sämtliche Ressourcen – so auch Flash-Storage – optimiert und flexibler nutzen lassen soll. Trotzdem bringen viele SDS-Anbieter ihre doch so unabhängige Software im Bundle mit eigenen Hardware-Appliances auf den Markt, da die im Zusammenspiel besser abgestimmt sind. Was sollte man nun wählen? Und wie kann man unter den SDS-Gesichtspunkten neue Lösungen wie DSSD von EMC evaluieren, die ja nun wieder mit proprietärer Firmware an den Start gehen und noch bessere Performance und Nutzung versprechen?
Antwort Doc Storage:
Auch wenn mich jetzt die Hälfte der Speichergemeinde an die Wand stellt: Ich war gerade froh, dass die »Software-defined-Sau« mit Höchstgeschwindigkeit durchs Dorf gelaufen ist und schon wieder neue durch dasselbe getrieben werden.
Natürlich lassen sich alle Ressourcen einer Infrastruktur besser nutzen, wenn man sie unter eine gemeinsame Verwaltung zwingt und aus einer Zentrale heraus entscheidet, welche Prozesse und Anwendungen wo am besten laufen.
Natürlich ist es schmerzfreier für die Mitarbeiter im Rechenzentrum, sich nur mehr mit einer oder wenigen Verwaltungsoberflächen herumprügeln zu müssen als mit jeweils einer für jedes proprietäre Gerät.
Natürlich lassen sich die Hersteller zu besseren Preisen zwingen, wenn man ihnen klarmacht, dass man nicht mehr auf ihren überteuerten Krimskrams angewiesen ist, sondern die anstehende Arbeit genauso gut mit 08/15-Hardware gemacht bekommt. Und so weiter und sofort…
Und jetzt kommen die Abers, die ich schon ich weiß nicht wie oft aufgeführt habe, deshalb hier nur die drei wichtigsten.
Aber eine auf die jeweils laufende Software abgestimmte Hardware läuft eben doch noch einen Tucken schneller und zuverlässiger als Barebone-Systeme mit General-Purpose-Codes.
Aber EIN Service von EINEM Hersteller ist eben doch besser und zuverlässiger als von mehreren. Dies wird mir jeder bestätigen, der schon einmal ein schwerwiegendes Problem hatte, bei dem die beteiligten Hersteller nichts Besseres zu tun hatten, als sich erst einmal diverse schwarze Peter zuzuschieben.
Aber ein Rechenzentrum mit einer möglichst homogenen Hard- und Software-Umgebung ist wesentlich besser zu betreiben als ein zusammengewürfelter Haufen des jeweils billigsten Zeugs, von dem man ja zum Glück nichts sehen muss, weil man die verharmlosende Soße des Software-defined darüber gegossen hat.
Was nun schwerer wiegt, muss jeder Betreiber selbst entscheiden. Erfahrungsgemäß sollte man aber primär nicht damit kalkulieren, was ein Produkt kostet. Auch nicht dessen Betrieb oder Wartung. Sondern was es kostet, und zwar das gesamte Unternehmen mit allen Mitarbeitern und Prozessen, wenn das Zeug einmal nicht funktioniert. Und vor allem was es kostet, in einer heterogenen Landschaft den Fehler zu lokalisieren und dann auch noch zu beheben. Ich zumindest wüsste, wofür ich mich zu entscheiden hätte…
Gruß
Doc Storage