Complex Event Processing für die Umweltbeobachtung mittels Geosensoren
Im Rahmen dieses Promotionsvorhabens wurde eine Architektur für die Beobachtung kontinuierlicher Prozesse über Sensor-Datenströmen konzipiert. Ein besondere Fokus lag auf der Nutzung von Methoden der Geostatistik.Beschreibung
Das Monitoring kontinuierlicher Phänomene wie Temperatur, Verteilung von Luftschadstoffen, Niederschlag, Bodenfeuchte etc. gewinnt zunehmend an Bedeutung. Bei sinkenden Kosten für Sensoren und Kommunikationsinfrastruktur nimmt die Verfügbarkeit von entsprechenden Messdaten stetig zu. Eine unmittelbare Nutzung dieser Messdaten ist jedoch nur selten möglich; für viele Analysen müssen sie interpoliert werden, um einen Bereich räumlich und/oder zeitlich lückenlos abzudecken. So besteht die Aufgabe eines Monitorings im weiteren Sinne auch darin, die beobachtete Variable in einer solchen lückenlosen Form bereitzustellen.
Trotz stetigem Fortschritt der Informations- und Kommunikationstechnologie bleibt ein Monitoring stets begrenzten Ressourcen unterworfen: Anzahl der Sensoren und Beobachtungen, Rechenleistung, Zeit, Datenraten und Speicherplatz. Für eine bestmögliche Nutzung der jeweils verfügbaren Ressourcen sollte stets eine hohe Effizienz bezüglich der Sensorik, der Hardware, der Algorithmen und zugehöriger Parameter sowie der Speicherformate angestrebt werden.
In Bezug auf diese Problemstellung wurden verschiedene Lösungsansätze erarbeitet und evaluiert. Synthetische kontinuierliche Zufallsfelder dienen dabei als Referenz, um die Qualität und Effizienz des darauf simulierten Monitorings exakt quantifizieren zu können. Es wurde ein Generator entwickelt, der Zufallsfelder beliebiger Dynamik und Auflösung erzeugt. Für eine möglichst effiziente Messanordnung wurde ein Schätzer für die minimale Beobachtungsdichte aus der Ausdehnung und Dynamik des beobachteten Feldes abgeleitet. Für eine gute Adaption der Interpolation an die durch die Beobachtungen gegebenen statistischen Eigenschaften wurde ein generischer Algorithmus zur Parameterschätzung des Kriging-Interpolators vorgestellt. Ein sequentieller Algorithmus zur Verschmelzung mehrerer Interpolationsergebnisse eines Bereichs kann den Berechnungsaufwand reduzieren und kann außerdem verwendet werden, um in einem Datenstromsystem kontinuierlich und nahtlos neue Beobachtungen in ein Echtzeit-Modell zu integrieren. Zur effizienteren Nutzung von Speicherplatz wurde ein Kompressionsverfahren entwickelt. Es nutzt die spezifischen Eigenschaften der Beobachtungsdaten von kontinuierlichen Phänomenen und unterstützt eine progressive Dekompression.
Die erwähnten Werkzeuge bieten prinzipiell eine unbegrenzte Vielfalt an Parametern und somit Konfigurationsmöglichkeiten. Um diese hierarchisch zu organisieren sowie systematisch zu variieren und zu evaluieren, wurde ein entsprechendes Softwaremodul entwickelt und angewendet. Dabei wurde neben dem Root Mean Square Error (RMSE) als zentraler Qualitätsindikator auch der Berechnungsaufwand in einer Weise quantifiziert, die eine Abschätzung der Ausführungsdauer eines Arbeitspakets für verschiedene parallele Rechnerkonfigurationen erlaubt.
Insgesamt wurde ein umfassendes Framework für das Monitoring kontinuierlicher Phänomene entwickelt. Mittels integrierter Erweiterungen zur systematischen Variation und Evaluation wird damit eine kontinuierliche Effizienzsteigerung der Prozesse ermöglicht.