„Big Data from Space“: Wie umgehen mit Datenbergen?

Geschätzte Lesezeit: 7 Minuten

Rettungskräfte können heute im Fall von Katastropen wie Überschwemmungen oder Erdbeben auf Karten mit aktuellen Satellitendaten zugreifen. Doch diese Informationen türmen große Datenberge auf. In findet dazu nun eine Konferenz statt.

Erdbeobachtungssatelliten liefern uns wichtige Daten, um zum Beispiel Veränderungen in Umwelt und schnell zu erfassen oder Gletscherbewegungen oder -schwund zu erkennen. Die Satelliten des europäischen Copernicus-Programms zählen zu den größten Datenproduzenten weltweit. Sie erzeugen mit ihren hochauflösenden Instrumenten aktuell bereits ein tägliches Volumen von rund 20 Terabyte. Das entspricht etwa einem anderthalb Jahre langen Film in HD. Hinzu kommen die Datenschätze von nationalen Missionen wie TerraSAR-X und TanDEM-X sowie zunehmend auch von anderen Quellen wie Internet oder Messstationen.

„Big Data“: Maschinenlernen für Datenberge

Verarbeitung und Analyse dieser riesigen und heterogenen Datenmengen stehen als „Big Data“-Aufgaben stellvertretend für zukünftige Herausforderung unserer digitalen Gesellschaft. Um diese zu lösen, treffen sich circa 650 Experten auf der Konferenz „Big Data from Space“, die vom 19. bis 21. Februar 2019 vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) in ausgerichtet wird und gemeinsam mit der Europäischen ESA, dem Satellitenzentrum der Europäischen Union sowie dem Joint Research Center organisiert wurde. Unterstützt wird die Konferenz von den Unternehmen European Space Imaging, OHB, GAF AG und Quantum.

„Eine immer größere Anzahl von Satelliten, aber auch der Einsatz von neuen Sensoren mit höherer Auflösung liefern uns große Datenmengen – die Auswertung dieser Datenschätze wird zunehmend zu einer technologischen Herausforderung“, sagt Prof. Hansjörg Dittus, DLR-Vorstand für Raumfahrtforschung und -technologie. „Daher forscht das DLR verstärkt an effizienten Methoden und Verfahren wie dem maschinellen Lernen, um so aussagekräftige Analysen und Handlungsempfehlungen zur Urbanisierung, zu Veränderungen der Atmosphäre oder auch zur globalen Erwärmung liefern zu können. Zudem plant das DLR, mit einer High Performance Data Analytics Plattform die informationstechnologische Infrastruktur dafür zu schaffen.“

Politik und Wirtschaft schauen auf die Daten

„Für Analysen dieser großen Datenmengen ist ein effizienter Zugriff entscheidend, etwa über Online-Plattformen. Die Entwicklung solcher Zugriffsmöglichkeiten und entsprechender Verarbeitungsmodelle wird daher vom DLR Raumfahrtmanagement gefördert. Neben innovativen wissenschaftlichen Anwendungen ermöglicht dies auch die Entwicklung neuer Geschäftsmodelle im wachsenden Downstream-Sektor innerhalb der Erdbeobachtung“, erklärt Dr. Walther Pelzer, DLR-Vorstand zuständig für das Raumfahrtmanagement.

Beim Empfang in der Münchner Residenz betont Bayerns Wirtschaftsminister Hubert Aiwanger: „Es ist bemerkenswert, wie sehr Raumfahrtechnik auch unseren Alltag prägt: Navigation, Head-up-Display oder der gesamte Bereich der Assistenzrobotik sind nur drei Beispiele von vielen. Heute stehen die Themen Klimawandel und Umweltschutz auf der politischen Agenda ganz oben – nicht nur in Bayern. Beides sind globale Themen – und für beides brauchen wir modernste Technik. Die Erforschung des Klimasystems, der Atmosphäre, der tropischen Regenwälder, der Ozeane oder Pole – für all diese Bereiche kann die Raumfahrt wichtige Daten liefern, um Ökosysteme besser zu verstehen und zu bewahren…“

Künstliche Intelligenz steuert Datenauswahl

Um die Datenberge weiterzuverarbeiten und in Informationen umwandeln zu können, braucht man neue Ideen und Konzepte. Dabei spielt Künstliche Intelligenz eine große Rolle, da diese Verfahren gerade bei großen Datenmengen sehr leistungsfähig sind. So erforscht DLR-Wissenschaftlerin Prof. Zhu an der TU München zum Beispiel den Einsatz solcher Methoden. Zusammen mit ihrem Team entwickelt Zhu explorative Algorithmen aus Signalverarbeitung und der künstlichen Intelligenz (KI), speziell dem maschinellen Lernen, um die Gewinnung globaler Geoinformationen aus Satellitendaten wesentlich zu verbessern und um Durchbrüche in Geo- und Umweltwissenschaften zu erzielen.

Einen Schritt weiter geht die Fusion von Petabytes komplementärer georelevanter Datenquellen, von Erdbeobachtungssatelliten bis sozialen Netzwerken, die durch neuartige Data-Science-Algorithmen ermöglicht wird. Die Ergebnisse haben das Potential, bisher nicht lösbare große Herausforderungen anzugehen, wie die Erfassung und Kartierung der weltweiten Urbanisierung – eines der wichtigsten Megatrends des globalen Wandels.

Doch nicht nur die Satellitenfernerkundung ist mit dieser Herausforderung konfrontiert. Auch der umgekehrte Blick von der ins All liefert riesige Datenmengen: Teleskope wie zum Beispiel das Square Kilometer Array (SKA) in und Australien oder auch weltraumgebundene ESA-Teleskope wie GAIA und EUCLID liefern riesige Datenmengen. Die systematische Analyse von Archivdaten durch selbstlernende KI-Programme bekommt daher auch in der astronomischen Arbeit einen immer höheren Stellenwert.

Intelligente Suchportale liefern gewünschte Informationen

Erdbeobachtungssatelliten und Teleskope zeigen, dass Methoden aus den Datenwissenschaften und der Künstliche Intelligenz unverzichtbar sind. Um diese Massen an Daten handhaben und auswerten zu können, braucht man geeignete Speicher- und geschickte Zugriffsmöglichkeiten. Für interessierte Nutzer ist letztlich nur der Zugang entscheidend – heutzutage meist in Form eines Online-Portals wie zum Beispiel der Plattform CODE-DE (Copernicus Data and Exploitation Platform – Deutschland) des DLR Raumfahrtmanagements. Sie können dort auf alle Daten zugreifen und direkt vor Ort weiterverarbeiten. Es steht somit online eine komfortable Arbeitsumgebung für die Satellitendaten, die im Copernicus-Programm kostenfrei bereitgestellt werden, zur Verfügung. Das spart lokalen Speicherplatz und Rechnerkapazitäten bei den Anwendern.

Aber auch die Datenportale selbst sind Gegenstand der Forschung. Wie sieht die ideale Plattform aus und welche Suchoptionen sollten dem Nutzer zur Verfügung stehen? Nach dem Vorbild von Internetsuchmaschinen sollen Bilder entfernter Planeten oder von der Erdoberfläche ganz einfach anhand von Informationen gefunden werden: „Auf welchem Himmelskörper ist wahrscheinlich Wasser vorhanden?“oder „Welche Gebiete sind in im Sommer besonders von Dürre betroffen?“

Solche Suchanfragen sollen modernen Portalen die richtigen Datensätze als Antwort liefern. Von hoher Bedeutung ist auch der langfristige Bestand dieser globalen Informationen. Ähnlich einer Bibliothek muss sichergestellt werden, dass Satellitendaten über einen langen Zeitraum erhalten bleiben, gefunden werden können und abrufbar sind. Das geschieht etwa im Deutschen Satellitendatenarchiv (D-SDA) des Earth Observation Centers am DLR in .

Zeitreihen – Fluch und Segen zugleich

Ein großer Vorteil der modernen Erdbeobachtung sind Zeitreihen. Vergleicht man zum Beispiel die globale Gletscherdynamik, lassen sich wertvolle Informationen zum Klimawandel, zur Veränderung des Meerwasserspiegels und für den regionalen Wasserhaushalt gewinnen. Doch die umfangreichen Zeitreihen gehen mit riesigen Datenmengen einher, die sich kaum mehr bewegen und verarbeiten lassen. Produkte des DLR wie der World Settlement Footprint (WFS Evolution), eine globale hochauflösende Kartierung des Städtewachstums über die letzten 30 Jahre, lassen sich nur mehr durch sehr leistungsstarke Rechenzentren und automatisierte Auswertungsverfahren realisieren. Vor wenigen Jahren undenkbar, zeigt dieses Beispiel das Potential, dass die heute verfügbaren großen Datenmengen in Kombination mit maschinellen Verfahren bieten.

Außerdem arbeiten Wissenschaftler an einem Werkzeug, das die Informationen aus Zeitreihenmessungen automatisch abgleicht und so diesen „Flaschenhals“ umgeht. So können Zeit und Speicherplatz bei der Auswertung eingespart werden. Doch nicht nur Erdbeobachtungsexperten sollen Satelliteninformationen künftig zur Verfügung stehen. Auch Laien sollen in den Genuss dieser Produkte kommen. Das ist momentan allerdings noch sehr schwierig, da bislang weitgehend unbearbeitete Daten zur Verfügung stehen. IT-Experten wollen das nun ändern und analysefertige Daten und Services bereitstellen.

Satellitenbilder zum Atmosphärengeschehen

Global Footprint Region München: Ziel des Projektes Global Urban Footprint (GUF) ist die weltweite Kartierung besiedelter Flächen in bislang einzigartiger räumlicher Auflösung. Zu sehen sind hier die Siedlungsmuster im Raum München; Schwefeldioxid-Karte – Vulkanausbruch auf : Der Copernicus Sentinel-5P-Satellit erfasste am 27. November 2017 die Asche- und Gaswolke vom Ausbruch des Vulkans Gunung Agung auf in Indonesien. Wie die Karte zeigt, werden bei der Mission nicht nur verschiedene Luftschadstoffe, sondern auch Aerosole gemessen. Die Darstellung enthält modifizierte Copernicus-Sentinel-Daten 2017, prozessiert durch DLR/ESA.

Keine Tags zu diesem Beitrag.

Verwandte Artikel

- Anzeige -
Vorheriger ArtikelChina Southern verbindet Wien mit Ürümqi und Guangzhou
Nächster ArtikelCessna Citation erneut meistverkaufter Business Jet