Auf der Basis von Erdvermessungsdaten können physikalische Phänomene mit
wachsender Genauigkeit in Echtzeit beobachtet werden. Dadurch gewinnen Wissenschaftler ein immer
detaillierteres und umfangreiches Verständnis dieser Phänomene. Für das effektive Management von
Ressourcen sind diese Erkenntnisse von großer Bedeutung: So ist zum Beispiel das Verständnis der
momentanen Wetterlage und deren weiteren Entwicklung wichtig, um effizient alternative Energien in
die Energieversorgung mit einzubeziehen. Ebenso erlauben es Echtzeitanalysen im Fall von
Katastrophen den Entscheidungsträgern, angemessen zu reagieren und somit die negativen Auswirkungen
einer Naturkatastrophe deutlich zu reduzieren.
Dabei ist es entscheidend, einerseits möglichst viele Messungen in die
Analysemodelle zu integrieren und diese andererseits zeitnah zu verarbeiten. Diese gigantischen
Datenmengen bringen heutige IT-Infrastrukturen an die Grenzen ihrer Leistungsfähigkeit.
Dies gilt umso mehr, wenn in naher Zukunft umfangreiche Datenströmen aus
Billionen von Sensorquellen zur Verfügung stehen werden. Diese umfassen Informationen aus
Satteliten, Sensoren in Wetterstationen, dediziert ausgebrachten Sensornetzen, und mobilen
Endgeräten. Sogar Informationen über Gegenstände des alltäglichen Lebens können mit Hilfe von RFID
Technologie in die Datenanalyse mit einbezogen werden.
Um Entscheidungsträgern den effizienten Zugriff auf Analysedaten zu ermöglichen,
werden im Rahmen des Projekts „CEP in the Large“ insbesondere die Kommunikationswege bei der
Übertragung der Daten mit betrachtet. Dabei werden Berechnungen zur Datenanalyse über viele
weltweit verteilte Rechner hinweg durchgeführt, wodurch die anfallende Datenlast insgesamt besser
bewältigt werden kann. Die Entscheidung, wo Berechnungen durchgeführt werden, kann dabei dynamisch
an das Datenvolumen, an die verfügbaren Quellen sowie an die Anforderungen und Anzahl der
Entscheidungsträger angepasst werden. So erfordert beispielsweise die Beobachtung eines
Wetterphänomens, das seine Lage über die Zeit verändert, die Einbindung sich stetig ändernder
Sensorquellen.
Im Rahmen des Projektes wird daher erforscht, wie eine zuverlässige Datenanalyse
unter hoher Dynamik und partiellem Ausfall der zugrundeliegenden Infrastruktur bewerkstelligt
werden kann. Weiterhin untersuchen die Wissenschaftler, wie unter Einbeziehen vieler Quellen und
Entscheidungsträgern die Datenanbieter Kontrolle darüber behalten, wer auf ihre Daten Zugriff
erhält.
An dem Projekt sind seitens der Universität Stuttgart das Institut für Parallele
und Verteilte Systeme (Lehrstuhl Verteilte Systeme, Leiter Prof. Kurt Rothermel) und seitens
des Georgia Institute of Technology die Forschungsgruppe von Prof. Umakishore Ramachandran
beteiligt.
Weitere Informationen am Institut für Parallele und Verteilte Systeme der
Universität Stuttgart, Prof. Kurt Rothermel, Tel. 0711/685-88434, e-mail:
Kurt.Rothermel@ipvs.uni-stuttgart.de oder
Dr. Boris Koldehofe,
Tel. 0711/7816 88357, e-mail
boris.koldehofe@ipvs.uni-stuttgart.de