Anzeige

In-Memory beschleunigt Datenbankanalysen

Spätestens seit SAPs HANA erwarten Anwender und Branchenkenner eine Revolution im BI-Segment. Basis dafür ist die In-Memory-Technologie, die Echtzeitanalysen im Hauptspeicher ermöglicht.

Bei Big Data geht es um die schnelle Verarbeitung und Analyse von unstrukturierten und strukturierten Daten in heterogenen Umgebungen, gern auch in der Cloud. Erste Lösungen sind hier bereits vorhanden. Aber auch im Datenbankumfeld will man mehr und schneller analysieren können. Das soll vor allem Business Intelligence (BI) voranbringen. Zum besseren Verständnis: BI bezeichnet Verfahren und Prozesse zur systematischen Analyse von Daten in elektronischer Form. Daraus sollen Erkenntnisse gewonnen werden, die wiederum bessere operative oder strategische Entscheidungen für das Erreichen der Unternehmensziele ermöglichen. Die gewonnenen Informationen machen Unternehmen und ihre Geschäftsprozesse einträglicher, kosteneffizienter und weniger risikoreich. Natürlich gab es bereits Software bzw. IT-Systeme, die Daten über das eigene Unternehmen, die Mitbewerber oder die Marktentwicklung im Hinblick auf den gewünschten Erkenntnisgewinn auswerten. Allerdings mussten diese umständlich gesichert und dann analysiert werden, was meist einen längeren Zeitraum in Anspruch nahm. Hier soll nun die In-Memory-Technologie greifen, die das BI-Segment revolutionieren soll.

Funktionsweise der In-Memory-Technologie

Mittels der In-Memory-Technologie sollen Datenbanken quasi überflüssig werden. Dabei verlagert das In-Memory-Verfahren die Schreib- und Lesevorgänge in den Hauptspeicher, als sie wie bislang üblich erst über einen Speicherkanal von internen oder externen Medien hin und her zu transferieren. Zudem erfolgt eine Zusammenlegung von Transaktions- und Analysedaten. Die Technologie arbeitet hierbei mit einer Kombination aus Spalten- und Zeilenorientierung, die Funktionalitäten des Hauptspeichers wandern in den CPU-Cache, die des Plattenspeichers in den Hauptspeicher. Dadurch verspricht man sich schon auf der Hardware-Seite Beschleunigungen auf das bis zu 1.000fache der bisherigen Zugriffszeiten. Warten war Gestern, Heute ist eine Echtzeitanalyse großer Datenbestände zum Greifen nah. Anwender könnten damit den eigenen Geschäftsablauf jederzeit auf Basis immer aktueller Daten auswerten, da das System kontinuierlich mit Informationen aus den operativen Systemen wie beispielsweise dem ERP gefüttert wird. Allerdings setzt das enorm große und leistungsfähige Hauptspeicher voraus. Dann sind sehr viel schnellere Geschäftsentscheidungen möglich -  bei weniger Aufwand für die Hardware sowie deren Betrieb und Wartung. Das Hasso-Plattner-Institut für Softwaresystemtechnik, das unter anderem auch an der In-Memory-Technologie mitentwickelte, führt ein Beispiel an, bei dem sich der Zeitbedarf für die Analyse von 280 Millionen Aufträgen im Rahmen eines Mahnlaufs von 20 Minuten auf eine Sekunde verringert.

HANA setzt Maßstäbe

Neben der Oracle-Lösung »Exalytics« rief vor allem die SAP-Appliance »HANA« (High Performance Analytic Appliance) regelrechte Begeisterungsstürme hervor. Das liegt vor allem an der enormen Geschwindigkeit, die die Appliance bereits demonstrierte. Bei einer öffentlichen Präsentation der Lösung durchsuchte der »SAP BusinessObjects Explorer« 366 Millionen Datensätze in 15 Millisekunden. Darüber hinaus ist natürlich die bestehende Kundenliste SAP eine gute Basis, HANA an den Mann zu bringen. Bereits jetzt setzen Organisationen wie die Charité, Einzelhandelsunternehmen oder auch Trinkwasserhersteller das SAP-Produkt ein.

HANA ist klare Konkurrenz zu Oracle und hat laut Branchenkenner das Zeug zur zukunftstauglichen Plattform und das nicht nur weil es Lösungen von IBM oder Oracle ablösen kann. Vielmehr macht der Hersteller seine Produkte Cloud-tauglich, denn Massendaten können schnellstmöglich verarbeitet werden und generieren zahlreiche Nutzwerte. SAP hat bereits angekündigt, alle weiteren Entwicklungen HANA-tauglich machen zu wollen. Damit es den Kunden leichter fällt, sich für SAP zu entscheiden, wurde ein spezielles Lizenzprogramm aufgelegt. HANA – von Insidern auch liebevoll die Lady genannt – will es dem Wettbewerb also so schwer wie möglich machen.

In-Memory ist nicht für jeden »in«

Es gibt allerdings noch ein paar Probleme, die den Siegeszug der In-Memory-Technologie verlangsamen. Zum einen sind die größten Hauptspeicher derzeit nur zwei TByte groß, zum anderen fehlt es noch an zahlungskräftiger und Analyse-bedürftiger Klientel.

Wer also mit mehr als zwei TByte Daten hantiert – nur ein Beispiel: Facebook sammelt täglich 15 TByte – und diese sammeln und analysieren will, muss wieder auf interne oder externe Speichermedien ausweichen. Des Weiteren ist es nicht ganz so einfach, auf Lösungen wie HANA umzusteigen. Hier muss der EDV-Verantwortliche noch einiges beachten. So ist es beispielsweise nicht einfach mit dem Verlagern der Datenbestände in den Arbeitsspeicher, beispielsweise bei HANA, getan. Um den vollen Nutzen auszuschöpfen, gilt es beispielsweise schon im Vorfeld zu überlegen, wie die Daten auch effektiv extrahiert und modelliert werden können. Eine weitere Herausforderung sind die sogenannten »Stored Procedures«. Sie sorgen dafür, dass häufig verwendete Abläufe durch einen einzigen Call- oder Execute-Befehl direkt im Datenbanksystem selbst aktiviert werden. Das bedeutet in vielen Fällen, die Logik in eine zentrale Datenbank zu verschieben – was wiederum eine veränderte Architektur voraussetzt. Die Konzepte für Anwendungs- und Datenbank-Layer sowie das Data Warehouse sind ebenfalls anzupassen, denn bei SAP HANA verschmelzen diese Schichten.

Es gibt aber auch positive Effekte. So muss der Anwender nicht gleich all seine BI-Tools über Bord werfen. Zahlreiche Tools und Oberflächen lassen sich weiterhin nutzen. Mit HANA können parallel auch andere Systeme zum Einsatz kommen. Eine solche Redundanz würde Ausfall- und Verlustrisiken minimieren. Vollständig in das SAP-HANA-System integriert werden lediglich spezielle Anwendungen mit einem hohen Datenvolumen oder solche, bei denen die Performance des Altsystems nicht mehr ausreicht. Generell lassen sich in SAP HANA auch Non-SAP-Daten einbinden. Der Aufwand dafür bleibt mit den zur Verfügung stehenden Tools überschaubar.

Noch lohnt sich eine Umstellung auf In-Memory nur für große und zahlungsbereite Unternehmen. Mittelständler sollen mit kommenden SAP-Produkten bedient werden. Einen generellen Nutzen kann jede Firma aus einer solchen Lösung ziehen, zumindest jede Firma, die auch nur ansatzweise Daten sammelt und dann nach vorgegebenen Kriterien auswerten möchte. Wer auf Nummer sicher gehen will, der kann beispielsweise im SAP-HANA-Democenter praktische Einsatzszenarien testen, sogar übers Internet. Beratung und ein »Proof of Concept« sollten auf jeden Fall erfolgen, damit der IT-Interessierte genau weiß, was er mit In-Memory für sein Geschäft erreichen kann.

In-Memory kommt vor Big Data und Cloud

Ein großes Einsatzgebiet zeichnet sich bereits jetzt sehr deutlich ab: Big Data- und Cloud-Umgebungen. Nirgendwo anders werden mehr Daten anfallen, die das jeweilige Unternehmen nicht nur als totes Gepäck auf irgendwelchen Speichersystemen liegen haben möchte. Vielmehr wird es diese Firmen sehr wohl interessieren, wie es seine Geschäftsabläufe, sein Angebot oder seine SLAs anpassen muss, um weitere Kunden zu gewinnen oder bestehende zu binden.

In diesem Sinne kann In-Memory nur ein erster Schritt sein, um nützliche Informationen aus Big-Data-Szenarien oder Cloud-Anwendungen zu ziehen. Solche Lösungen stehen dann quasi vor dem Superspeicher oder der Riesen-Cloud und prozessieren die hier anfallenden analytischen Abfragen. Als erste Schritte zeichnen sich bereits jetzt ab, dass auch Speicherhersteller die Brücke zu Lösungen wie HANA schlagen. In Zukunft werden hier mit Sicherheit konkrete Lösungen zu erwarten sein.

Anzeige