Anzeige

Sind Big Data und Cloud das Ende von Mainframes?

Leserfrage: Die NASA hat gerade ihren letzten Großrechner abgeschaltet; mittlerweile gibt es sogar Banken, die auf Mainframe oder andere proprietäre Rechnersysteme verzichten. Eigentlich waren diese für große Transaktionslasten und Datenbestände konzipiert. Müssen diese Konzepte nun grundsätzlich überdacht werden? Sind Mainframe und Co schlichtweg nicht für das Konzept Big Data und Cloud geeignet?
Anzeige

Antwort Doc Storage:

Big Data und Cloud läuten nicht das Ende einer Rechner-Ära ein. Ganz im Gegenteil - wenn eine Rechnerklasse zur Bewältigung größter Datenmengen geeignet war und ist, so ist das die der Großrechner, egal ob IBM, Siemens oder andere, längst in Vergessenheit geratene Typen. Nur sie sind von Anfang an für diese Art von Aufgabe entworfen worden. Sie sind die einzige Rechnerklasse zur Datenverarbeitung überhaupt, abgesehen vielleicht einmal von den vielen leider erfolglosen Ansätzen der mittleren Datentechnik.

Wenn man auf die Anfänge aller anderen Rechnertypen zurückschaut, waren diese, egal ob nun Windows, Unix oder Linux, nur zur Datendarstellung und Datensammlung, nicht jedoch zu deren späterer Verarbeitung gedacht. Und so mussten die Hersteller bzw. Anwender dieser Kleinrechner sportlichste Klimmzüge wie Multiprozessortechnik, Clustering und anderes erdenken, um in ihrer Leistung überhaupt in die Nähe der Großrechner zu kommen.

Allerdings haben sie zwei Punkte nie erreichen können: Einerseits die Sicherheit der Großrechnerumgebungen. Die Security-Layer von zOS, VSE, VM, BS/2000 und den anderen Großrechner-Betriebssystemen gelten nach wie vor als unüberwindbar, selbsternannte und so genannte Hacker machen sich noch nicht einmal die Mühe, RACF, ACF2 und die anderen Wächter anzugreifen. Und Viren sowie andere Schadprogramme hat es hier ebenfalls noch nie gegeben. Andererseits sind Großrechner so verfügbar wie keine andere Rechnerklasse.

Ebenso existieren einige Mythen über Großrechner, die viel zu ihrer Unbeliebtheit und daraus folgend auch zur Stagnation ihrer Zahl beitragen. Der erste: Großrechner sind teuer. Nunja, das mag bei der Anschaffung pauschal so aussehen. Allerdings belehrt uns der Vergleich mit entsprechend leistungsfähigen Rechnern für Windows, Linux oder Unix eines besseren. Wollte man einen Cluster der sich selbst gern so betitelnden »Offenen Welt« so verfügbar und gleichzeitig so leistungsfähig machen wie einen vergleichbaren Großrechner, ist gerne auch mal eine höhere Summe fällig.

Der zweite: Großrechner sind kompliziert. Wenn man ein IT-Team hat, dessen Mitglieder seit ihrer Geburt nichts anderes gekannt haben als Atari, Amiga und PC, dann mag das vielleicht stimmen. Windows ist heute in der Rechenzentrums-DV nur deswegen so beliebt, weil die Bedienung des Servers weitestgehend der des Vista, XP oder Windows 7 zuhause entspricht und das Personal bequemerweise kaum aktiv geschult werden muss. Die Technik eines Großrechners ist in keiner Weise komplizierter als die eines anderen Rechners. Alles heißt nur etwas anders und muss anders bedient werden, das ist alles. Und jeder darf auch nicht alles und es gibt auch keine externen Werkzeuge, nach deren Herunterladen man sich einfach irgendwelche Funktionen erschleichen kann - wie unbequem...

»Migrationen vom Großrechner in die Offene Welt sind machbar«, auch beliebt in der Form »Wir schaffen den Großrechner ab«, gerne auch kombiniert mit einer Aussage wie »in den nächsten drei Jahren« oder »bis spätestens Ende…« und dann kommt ein Phantasiejahr. Nein, niemand schafft den Großrechner mal so eben ab. Niemand migriert irgendeine Legacy-Anwendung mal eben bis Ende 20xx in die so genannte »Offene Welt«. Nur diejenigen Banken, Versicherungen oder anderen großen Anwender, die eine Anwendung von Anfang an für die offene Welt geschrieben haben, sind vielleicht in der Lage, einen Datenbestand aus dem Großrechner heraus zu portieren. Die Anwendung selbst allerdings »mitzunehmen« ist bisher in allen Projekten spektakulär gescheitert. Die einzigen Banken, die tatsächlich ihre gesamte EDV auf Systemen der offenen Welt implementiert haben, sind solche, die es schlichtweg erst seit einigen Jahren gibt.

»Großrechner & Co«, wie Sie es nennen, sind die native Lösung für große Datenbestände. Leider hieß das zu ihrer Zeit noch nicht Big Data und Cloud, aber nichts anderes machen IBM, Siemens und Co mit ihren Lösungen. Und im Gegensatz zu den Basteleien im Umfeld der offenen Systeme gab es dort schon virtuelle Maschinen, als alle anderen Rechnerklassen sich noch an mehr als vier Farben auf dem Monitor versuchten.

Das Abschalten des NASA-Rechners kann ich mir nur so erklären: entweder wurde die Software für den Frame zu teuer, die neuen Projekte nach Auslaufen des Space-Shuttle-Programmes laufen allesamt auf Systemen der offenen Welt oder - die wahrscheinlichste Variante - Frau Cureton gehört mit ihren 53 Lenzen bereits der bedauernswerten Generation an, die der Überzeugung ist, mit x86 tatsächlich alle Probleme lösen zu können, wenn man nur ausreichend viele davon zusammenstellt...

Gruß
Doc Storage

Anzeige