Anzeige

Hat der Mainframe wirklich ausgedient?

Leserfrage: Der Streit um die Daseinsberechtigung des Mainframe kommt seit Jahren nicht zur Ruhe. Nach Cloud, Big Data und SDS stellt sich erneut die Frage, ob der Mainframe noch up-to-date ist und wo seine Funktionalitäten noch Vorteile gegenüber anderen Lösungen bieten. In welchen Unternehmen lohnt sich noch ein solches System und können dessen Funktionen nicht durch andere Lösungen ersetzt werden? Bei all den innovativen Angeboten, ist doch das Nischendasein des Mainframe vorprogrammiert, oder?

Antwort Doc Storage:

Die Frage ist nicht, ob der Mainframe »noch« das richtige Konzept ist, sondern ob alle neuen Lösungen, die samt und sonders aus dem Open-Systems-Bereich, also Windows, Linux oder Unix, stammen, »schon« für Massendatenverarbeitung geeignet sind. Das Problem für die Open-Systems-Fraktion stammt bereits aus der Anfangszeit der persönlichen Kleinrechner. Niemand hat diese jemals für Datenverarbeitung, sondern nur und ausschließlich für deren Erfassung und Anzeige entworfen.

Da vor sich allem die x86-Hardware seitdem einem jeglichen echten Fortschritt hemmenden Kompatibilitätsgebot unterwirft, hat sie keine echte Chance im Vergleich zu den nur für diesen einen Zweck entworfenen Großrechner. Man schaue sich nur einmal an, welche Fluchten an Hardware die offene Fraktion in die Rechenzentren stellen muss, um dieselbe Transaktionsleistung wie die angeblichen Dinosaurier zu erreichen.

Da ist auch das scheinheilige Vorrechnen von Energie- und Klimawerten nicht zielführend, genauso wie das Aufrechnen der Lizenz- und Wartungskosten. Betrachtet man ein reines Open-Systems-Rechenzentrum mit einem Großrechnerbetrieb derselben Transaktionsleistung, so liegen bei ersterem die Gesamtkosten, also inklusive Verwaltung, Personal, Energie, Klima und Standplatz immer höher als beim Mainframe. Ganz abgesehen vom unerhörten Aufwand, die offene und nicht für den 24x7x365,25-Betrieb geschaffenen Hardware ständig verfügbar zu halten. Cluster, Failover-Konzepte und geteilte Dateisysteme sind tatsächlich nicht weniger komplex als die im Großrechner bereits standardmäßig vorhandenen Schutzmaßnahmen. Im Gegenteil. Die angeblich so viel modernen Systeme bieten in den allermeisten Fällen lediglich Hochverfügbarkeit und keine Fehlertoleranz. Die wirklich wichtigen Installationen können sich keinen Betrieb von lediglich »Five Nines« leisten – bedeutet dies doch auch noch einen Ausfall von mehreren Minuten im Jahr.

Zwar ist es bisher wenigen Mainframe-Anwendern gelungen, sich von ihrem Legacy-System zu befreien. Allerdings zu welchem Preis, bei welchem Aufwand und über welchen Zeitraum? Wie viele Mannjahre, wenn nicht Mannjahrzehnte waren nötig, um den Großrechner abzulösen? All diese »Eh da«-Kosten werden gern ignoriert, wenn man sich die offene Welt schönrechnen will.

Vom Aspekt der Sicherheit wollen wir gar nicht reden – es ist bisher kein Fall bekannt, wo es einem Eindringling gelungen wäre, Sicherheitssysteme auf dem Großrechner zu umgehen oder zu überlisten. Der Mainframe ist keine Nische, sondern der Ursprung, die Inspiration sämtlicher heute als modern gepriesenen Lösungen im Open-Systems-Umfeld.

Virtualisierung für Hauptspeicher und Platten, ständige Verfügbarkeit, Mobilität von Rechenlasten über Hardware-Grenzen hinaus, all das und vieles mehr entstammen nicht den Federn moderner Ingenieure, sondern haben ihre Wurzeln in den sechziger und siebziger Jahren des letzten Jahrhunderts.

Der Mainframe ist die einzige Systemkategorie, die bereits vor vierzig Jahren für nichts anderes entworfen wurde und locker mit dem zurechtkam, womit heutige Offene Installationen schwer zu kämpfen haben: Big Data.

Gruß
Doc Storage

Anzeige