Hasso-Plattner-Institut
Hasso-Plattner-Institut
  
Login
 

20.06.2013

Prof. Hasso Plattner bei seinem Vortrag auf dem HPI Future SOC Symposium. (Foto: HPI/K. Herschelmann)

Rund 100 Informatik-Forscher aus der ganzen Welt haben zum Auftakt des jährlichen Symposiums „Future Trends in Service-Oriented Computing“ am Hasso-Plattner-Institut in Potsdam den Hauptvortrag von Institutsstifter und SAP-Mitgründer Prof. Hasso Plattner verfolgt.

Im Zentrum seiner Ausführungen stand die Hauptspeicher-Datenbanktechnologie (In-Memory Data Management). Seit 2006 wird sie am Hasso Plattner Institut intensiv erforscht und dabei werden – dies zeichnet die Arbeitsweise des HPI grundsätzlich aus – praktische Anwendungsmöglichkeiten in den Blick genommen.

"Eine Welt ohne Aggregate"

Hasso Plattner zeichnete nach, wie die ersten, auf einem Whiteboard seines Fachgebiets skizzierten Konzeptionen scheinbar unerfüllbare Anforderungen an datenbankbasierte Systeme erbrachten („Wir aggregieren die Daten nicht mehr monatsweise, sondern tageweise“), und wie – oft durch Anregung der Studenten – die Ziele immer weiter nach oben verschoben werden konnten („Wir aggregieren gar nicht mehr, wir arbeiten ausschließlich mit rohen Transaktionsdaten“). Plattner: „Und seither betrachten wir eine Welt ohne Aggregation.“

Notwendige Voraussetzung für den Erfolg des Konzepts war die intelligente Nutzung der immer schnelleren und günstiger werdenden Rechentechnologie, beispielsweise die Ausnutzung von parallel arbeitenden Mehrkern-Prozessoren und eine intelligente, Wörterbuch-basierte Datenkompression.

Aus dem Labor ins Produktportfolio

Plattner zeichnete stolz nach, wie die neue Technologie es aus dem Labor des HPI ins Produkt-Portfolio des Softwarekonzerns SAP geschafft hat. Dort trägt die Lösung den Namen HANA. Vor drei Jahren hätten die Walldorfer begonnen, die neue Technologie zu adaptieren. Aus Sicht des Firmengründers eine weitreichende Entscheidung: „Damit ändert SAP zwanzig Jahre alte Arbeitsweisen.“ Derzeit würden praktisch alle SAP-Anwendungen auf die Nutzung von HANA angepasst – was die Beschäftigung mit gigantischen 400 Millionen Zeilen Softwarecode erfordere.

Mittlerweile habe sich die neue Datenmanagement-Technologie zu einer ernsthaften Plattform für Innovationen entwickelt, die weltweit neue und erweiterte Geschäftsmodelle ermöglicht, betonte Plattner. Vor allem auch Start-ups sollen die neue Technologie intensiv nutzen, um innovative, völlig neuartige Anwendungsbeispiele zu liefern. Mittlerweile arbeiteten schon 400 junge Unternehmen mit der Technologie, so Plattner. Diese hätten erheblichen Einfluss auf die weitere Entwicklung: „Die Inspirationen für HANA kommen heute häufig von den Start-ups“, sagt Plattner.

Datenanalysen in Echtzeit

Als wichtigste Anforderung an die neue Technologie bezeichnete Plattner die Antwortgeschwindigkeit. Basis dafür sei zunächst, dass alle genutzten Daten im Hauptspeicher der Datenbank vorgehalten würden. Dort sorgten zwei intelligent verbundene Level – ein Deltapuffer für eingehende Daten und der eigentliche Hauptspeicher – für blitzschnelle Analysen. In Verbindung mit der Möglichkeit, bereits berechnete Zwischenergebnisse zu speichern, ergebe sich so für den Anwender zum ersten Mal die Möglichkeit, analytische Berechnungen praktisch in Echtzeit durchzuführen.

Den Beweis lieferte Plattner umgehend: Gemeinsam mit seinen Studenten zeigte er Anwendungen der neuen Technologie, deren Leistung im Vergleich zu bisheriger Unternehmenssoftware revolutionär anmutet.

Auf Basis von vier Milliarden Einträgen aus den Kassendaten eines Lebensmittel-Einzelhandelskonzerns – echte Daten, vom Unternehmen zur Verfügung gestellt – zeigte Doktorand David Schwalb, wie Analysen über Jahresumsätze einzelner Produkte und deren verbundene Verkäufe in Sekunden möglich sind. Auch Gewinn- und Verlustrechnungen sind mit einem solchen Tool praktisch in Echtzeit möglich.

Dass sich die enormen Fähigkeiten nicht auf Zahlen beschränken, zeigte zum Abschluss noch Student Phillipp Berger: In dem System „BlogIntelligence“ wertet er mehr als 600 Millionen Einträge in deutschsprachigen Blogs auf spontane Fragestellungen hin aus. Die Suche liefert nicht nur grafisch aufbereitete Beziehungen in Sekundenbruchteilen, der Anwender kann auch im Verlauf der Abfrage noch die Suchparameter nach eigenen Wünschen ändern.

Auf den Punkt brachte es der HPI-Stifter gegen Ende seines Vortrages. Mit Blick auf mögliche Anwender-Firmen, die in den kommenden Monaten und Jahren die neue Technologie einsetzen werden, sagte Hasso Plattner: „Die Unternehmen werden Erfahrungen machen, die sie noch nie gemacht haben.“

Wie es mit In-Memory weitergehen wird

Im Anschluss an Plattners Hauptvortrag berichtete Rafael Kolleß von SAP, wie der Walldorfer Konzern derzeit die Weiterentwicklung der In-Memory Datenbank HANA betreibt. Einen Einsatzbereich der In-Memory Datenmanagementtechnologie, der über den Unternehmensführungsbereich hinausgeht, präsentierte Emanuel Ziegler von SAP. Im medizinischen Bereich sind, beispielsweise bei der Unterstützung personalisierter Medizin, gigantische Datenmengen zu verarbeiten. Allein das menschliche Genom, so erinnerte er, besteht aus 3,2 Milliarden Basenpaaren. 22.500 Gene produzieren etwa 20.000 Proteine. Der Einsatz der am HPI erforschten und zusammen mit SAP entwickelten Hauptspeicher-Datenmanagementtechnologie reduziert die bisherigen Analysezeiten bei der Suche nach Verbindungen zwischen Erkrankungen und Mutationen im Erbgut um bis zum 600fachen.

Nicht-flüchtige Speicher und sicherere Betriebssysteme

Werner Haas vom Elektronikkonzern Intel gab einen Ausblick auf die zukünftige Entwicklung von nicht-flüchtigem Speicher („Non Volatile Memory“). Dieser ist nicht nur durch schnellere Zugriffszeiten dazu geeignet, herkömmliche Speicherbausteine zu ersetzen, sondern erhöht durch intelligentere Anbindung an den Hauptprozessor die Leistung eines Computers.

Ein Wiedersehen gab es mit Dr. Alexander Schmidt – der heutige Microsoft-Mitarbeiter ist selbst ein erfolgreicher Absolvent der HPI Research School. Er zeigte exemplarisch am Beispiel der Malware „Flame“, welche Architektur der Betriebssystem-Marktführer aufbietet, um die Nutzer vor den Folgen von Angriffen zu schützen. Schmidt machte dabei aber auch die Herausforderungen für den Konzern aus Redmond deutlich: „Jede Weiterentwicklung der Computer ermöglicht ausgefeiltere Bedrohungen.“

Modelle für schnellen Datenzugriff aller Hilfsdienste im Gesundheitsbereich

Eine neue Perspektive auf eine Herausforderung im IT-Bereich brachte Prof. Uwe Nestmann von der Technischen Universität in Berlin ein. Er forscht am Thema „Dynamic Coalitions“. Solche dynamischen Koalitionen, also kurzfristige Zusammenschlüsse von Menschen oder Organisationen zur Verfolgung eines gemeinsamen Ziels, treten unter anderem bei Katastrophensituationen oder im Gesundheitsbereich auf. Nestmann entwickelt Modelle um sicherzustellen, dass beispielsweise im Falle eines Herzinfarkts alle beteiligten Helfer Zugriff auf die benötigten Informationen haben und gleichwohl die Datenschutzbelange des Patienten respektiert werden. 

Telemedizin senkt Sterberisiko bei Patienten auf dem Lande

Besonders praktisch wurde es bei Robert Downes, der mit seinem Teltower Unternehmen GETEMED Forschungs- und Entwicklungspartner des HPI und Innovationspreisträger 2013 in Berlin/Brandenburg ist. Er demonstrierte den Teilnehmern des Forschungskollegsymposiums am HPI Anwendungen der Telemedizin. Dabei können beispielsweise EKG-Daten zur Auswertung von einer Praxis oder auch der Patientenwohnung zu einem spezialisierten Arzt übertragen werden können. Dies erleichtert nicht zuletzt das Leben und Überleben von Risikopatienten im ländlichen Raum, wo es nur wenige Fachärzte in schnell erreichbarer Nähe gibt. 

ARD fügt Speichern täglich 1 Terabyte digitales Sendematerial hinzu

Dr. Georg Greten, CEO vom IVZ, dem Informations-Verarbeitungs-Zentrum der öffentlich-rechtlichen Rundfunkanstalten, stellte das ZEDAT-Projekt vor. Dabei werden die digitalen Daten archiviert, die im Sendebetrieb von mehreren ARD-Stationen anfallen. Allein eine Sekunde sendefähigen Materials benötigen dabei 15 MB Speicherplatz. Jeden Tag kommt so ein Terabyte neuer Daten hinzu. Und das ist noch nicht alles: 60 Jahre deutscher Fernsehgeschichte auf herkömmlichen Kassetten warten noch auf ihre Digitalisierung. Dazu setzt das IVZ sogar Industrieroboter ein, welche die Kassetten wechseln und reinigen - übrigens eine Aufgabe für die nächsten zehn Jahre.

Geschäftsprozessmanagement in der Cloud

Den Abschluss des ersten Symposiums-Tages machte Dr. Gero Decker. Sein von ihm mitgegründetes Unternehmen Signavio war das erste, welches Business Process-Lösungen in der Cloud anbot. Heute vertrauen 400 Kunden weltweit der Lösung, die damit im Wettbewerb mit Global Playern wie IBM steht. Ferner stellte Decker sein neues Produkt Effektif vor – damit bietet er auch kleinen und mittleren Unternehmen einen einfacheren Start in die Thematik Prozess-Automatisierung an. Decker ist Absolvent des HPI aus dem Jahr 2009; heute agiert er in Berlin auch als Mentor für andere Startups.

Zweiter Tag: Ergebnisse aus Potsdam, Kapstadt und Haifa

Zu den Forschern, die am zweiten Tag des Symposiums vortrugen, gehörten unter anderem Prof. Felix Naumann, Leiter des HPI-Fachgebiets Informationssysteme, Dr. Harald Sack, Senior Researcher im HPI-Fachgebiet Internet-Technologien und -Systeme, sowie Forschungskolleg-Doktorand Fahad Khalid. Naumann ging beim Thema „Data Profiling Revisited“ auf jüngste Forschungsergebnisse rund um erhöhte Datenqualität und effizientere Datenbereinigung ein. Sack stellte neuste Technologien der semantischen Multimedia-Analyse und -Suche vor. Khalid präsentierte, wie Software strukturiert werden kann, um in Hochleistungsrechnern effizient ausgeführt zu werden.

Der israelische Informatikprofessor Roy Friedmann von der HPI Research School at Technion präsentierte auf dem Symposium am Freitag aktuelle Forschungsergebnisse zu Algorithmen, welche zum Beispiel die Zwischenspeicherung von Daten in Peer-to-Peer-Netzwerken effizienter machen können. Für die HPI Research School at University of Cape Town stellte Dr. Anne Kayem neuste Forschungsergebnisse rund um Informations- und Telekommunikationslösungen, welche die Entwicklung von Ländern beschleunigen sollen. Dort geht es zum Beispiel um die Nutzung von Sensor-Funknetzen und Mobiltelefonen für Wetter- und Klimaprognosen und neue IT-Lösungen, die bei der Vermittlung von Arbeitslosen und Tagelöhnern.

Aufzeichnungen der Vorträge werden in Kürze unter www.tele-task.de zu finden sein.

Weitere Informationen: