Einsatzkräfte von humanitären Hilfsorganisationen müssen im Katastrophenfall möglichst schnell – am besten in Echtzeit – wissen, wie groß beispielsweise die Schäden an Gebäudestrukturen in der betroffenen Region sind und wo Verkehrswege zum Einsatzort hin genutzt werden können. Hilfsgüter müssen schnell und effektiv in unzugängliche Regionen gebracht werden. Für eben diese Anforderungen entwickeln und erproben Wissenschaftlerinnen und Wissenschaftler des Deutschen Zentrums für Luft– und Raumfahrt (DLR) im Projekt „Drones4Good“ neuartige KI-Technologien, die eine drohnenbasierte Analyse ermöglichen. Dabei arbeitet das interdisziplinäre DLR-Team aus der Sicherheits-, Luft– und Raumfahrtforschung eng mit dem World Food Programme (WFP) der Vereinten Nationen, dem Technischen Hilfswerk THW, der Hilfsorganisation I.S.A.R. Germany und der internationalen Vereinigung Wings For Aid zusammen.
„Die Hilfsorganisationen haben ganz konkrete Anwendungen, für die das DLR wiederum die Technologien entwickelt“, sagt Thomas Kraft, DLR-Projektleiter für „Drones4Good“. „Im Projekt untersuchen wir so dicht wie möglich an der Praxis, wie unsere Technologien bei internationalen Hilfsmissionen bei humanitären Krisen oder nach Naturkatastrophen unterstützen können.“
Projekt „Drones4Good“: Ein Projekt, zwei Ziele
Das auf zwei Jahre ausgelegte Projekt verfolgt zwei Ziele: Einerseits soll während eines Flugs mit einer Geschwindigkeit von 80 bis 140 Stundenkilometern eine in einer Drohne installierte Kamera einen größeren Bereich aufnehmen und deren Bilddaten in Echtzeit und noch an Bord der Drohne verarbeitet werden. Die humanitären Helfer am Boden erhalten so über eine Funkstrecke zum Boden noch während des Drohnenflugs aufbereitete Informationen über Schäden an Gebäuden, Versorgungswege und hilfsbedürftige Menschen, die von ihrer Umgebung abgeschnitten sind. Diese extrahierten Geo-Informationen werden über vorhandene und etablierte Workflows der Vereinten Nationen verteilt. Damit soll sichergestellt werden, dass die entwickelten Tools und Technologien des DLR gemeinsam mit den beteiligten Hilfsorganisationen bewertet werden können.
Simuliert werden soll dieses Szenario im Herbst 2021 am Nationalen Erprobungszentrum für unbemannte Luftfahrtsysteme des DLR in Cochstedt. Dort werden dann zum Beispiel Schaufensterpuppen und Container auf dem Testgelände von der ausgestatteten Drohne überflogen und ein Lagebild in Echtzeit an die Einsatzkräfte am Boden geliefert.
Andererseits – und das ist die zweite wichtige Projektaufgabe – soll der sichere Abwurf von Hilfsgütern von Drohnen aus ohne Gefährdung von Menschen und Infrastruktur erprobt werden. Erkennt die Liefer-Drohne durch die entwickelten KI-Technologien zum Beispiel selbständig Menschen am Boden, werden Fern-Pilot und Drohne mit diesen Informationen in die Lage versetzt, die Sicherheit des Abwurfs zu beurteilen und die rund 20 Kilogramm schweren Versorgungspakete nur dann abzuwerfen, wenn die Abwurfstelle frei von Personen ist.
Für die kooperierenden humanitären Hilfsorganisationen wäre der Transfer der DLR-Technologien in die operationelle Arbeit im Katastrophenfall hilfreich: Für „Wings for Aid“ ist die Verbesserung der Routenplanung und der automatisierte Zugang zu betroffenen Gebieten entscheidend, um die Lieferungen mit Transportdrohnen zu verbessern. Vor allem die Durchführung außerhalb der Sichtweite sei wichtig für den Erfolg und eine große Herausforderung, so die Organisation. Für das World Food Programme ist der Zeitgewinn zwischen einem Katastrophenfall und dem Erhalt von Informationen über die Lage im Einsatzgebiet im Projekt „Drones4Good“ ein großer Vorteil. Bei den Zyklonen Idai und Kenneth in Mosambik seien 72 bis 120 Stunden für die Verarbeitung von Bilddaten erforderlich gewesen. Die entwickelten DLR-Technologien würden eine schnellere und effektivere Versorgung von Hilfsbedürftigen ermöglichen.
Zusammenarbeit der DLR-Institute
Im Projekt „Drones4Good“ bringen vier DLR-Institute und Einrichtungen ihre Kompetenzen ein: das Institut für Optische Sensorsysteme, für Methodik der Fernerkundung, für Flugsystemtechnik sowie das Nationale Erprobungszentrum für unbemannte Luftfahrtsysteme. Mit dem vom Institut für Optische Sensorsysteme entwickelten Luftbildkamerasystem MACS (Modular Aerial Camera Systems) ist es bereits heute möglich, Luftbildausschnitte von kommerziellen Drohnen aus in Echtzeit zum Boden zu übertragen. Dort werden diese Bildausschnitte zu einem zusammenhängendem Bildmosaik fusioniert und als Überlagerung in einer digitalen Lagekarte dargestellt. Somit lässt sich die aktuelle Situation am Boden in einer digitalen Karte (wie z.B. Google Maps oder OpenStreetMap) beurteilen.
Das Institut für Methodik der Fernerkundung steuert seine Forschung an KI-Technologien für die schnelle Auswertung von Luft- und Satellitenbildaufnahmen bei. Diese Fähigkeiten sollen für die drohnengestützte optische Aufklärung nutzbar gemacht werden: Die Drohne wird so zum Satelliten für die Hosentasche. Die entwickelten KI-Technologien helfen dabei, Luftbildinformationen auszuwerten. Im Fokus steht die Identifizierung von Menschen, Gebäudeschäden und Straßen. Innerhalb kürzester Zeit wird aus den überflogenen Bereichen der Drohne ein digitales Lagebild generiert, das den Einsatzkräften im Krisengebiet unmittelbar zur Verfügung steht. Zusammen mit den Kooperationspartnern soll bewertet werden, inwieweit diese Technologien und Lagebildinformationen internationale Hilfsmissionen unterstützen können. „Für uns ist das direkte Feedback unserer Partner sehr wertvoll, um unsere Methoden anwendungsnah weiterzuentwickeln“, sagt Nina Merkle, zuständig für das Projekt „Drones4Good“ im DLR-Institut für Methodik der Fernerkundung.
Die KI zur Erkennung von Personen anhand von Luftbildinformationen ist auch für den drohnengestützten Abwurf von Hilfsgütern von besonderem Interesse, da der Abwurf selbst eine besondere Gefahr für Personen am Boden darstellt. Das Institut für Flugsystemtechnik hat für dieses Problem bereits in der Dominikanischen Republik erste Test-Einsätze absolviert. „Drohnen haben das Potential, Aufgaben schneller und zielgerichteter zu absolvieren als ihre Alternativen. Wir müssen gleichzeitig aber insbesondere die Sicherheit garantieren und das Vertrauen in die Technik festigen“, erläutert Johann Dauer, Leiter der Abteilung „Unbemannte Luftfahrzeuge“ im Institut. Im Projekt „Drones4Good“ wird eine spezielle Version des DLR-Luftbildkamerasystems MACS in den DLR-Forschungshubschrauber superARTIS integriert. Durch geeignete Hard- und Software-Erweiterungen soll untersucht werden, inwieweit die Erkennung von Personen anhand von Luftbildaufnahmen in Echtzeit möglich ist und ob damit ein sicherer Abwurf von Hilfsgütern realisiert werden kann.
„Wenn wir die verschiedenen Technologien für die drohnenbasierte Aufklärung und den sicheren Abwurf von Hilfsgütern unter diesen Bedingungen erfolgreich erprobt habe, soll im nächsten Schritt ein Test im Rahmen von internationalen Übungen der Kooperationspartner erfolgen“, sagt DLR-Projektleiter Thomas Kraft. Die Erkenntnisse des Projekts Drones4Good fließen auch in die Arbeit von OPTSAL (Optical Technologies for Situational Awareness Lab) ein, dem Helmholtz Innovation Lab unter Leitung des DLR, das geeignete Forschungsergebnisse der optischen Technologien zur Situationserfassung direkt für Endanwender aus dem Zivil- und Katastrophenschutz nutzbar macht.