Mitmach-Exponate geben auf der MS Wissenschaft in Heidelberg vom 28. August bis 1. September Einblicke in die Entwicklung und Anwendung Künstlicher Intelligenz (KI). Mit auf dem zu einer schwimmenden Ausstellung umgebauten ehemalige Kohlefrachter ist auch ein Exponat des Heidelberg Institute for Geoinformation Technology (HeiGIT) an der Universität Heidelberg, gefördert von der Klaus Tschira Stiftung. Das Institut unterstützt den Wissens- und Technologietransfer aus der Geoinformatik-Grundlagenforschung in die Praxis, vor allem in den Bereichen Humanitäre Hilfe, Smart Mobility und Big Spatial Data Analytics.
Mensch und Maschine – Forschung im Team
Für die Ausstellung hat das HeiGIT daher gemeinsam mit dem Alfred-Wegener-Institut für Polar- und Meeresforschung in Potsdam ein Exponat für die Ausstellung entwickelt, an dem die Gäste Satellitenbilder interpretieren können. Es stehen zwei Aufgaben zur Auswahl: Die Kartierung von Gebäuden oder das Erkennen von arktischen Frostmusterböden. Die Bildauswertung erfolgt in kleinen, einfachen Aufgaben (sogenannten „Mirco-Tasks“). Diese können an den beiden Touchscreens von den Besucherinnen und Besucher auf der MS Wissenschaft in wenigen Sekunden gelöst werden.
Die gesammelten Informationen dienen als Datengrundlage für das „Training“ eines KI-Algorithmus, um Objekte wie Häuser automatisch zu erfassen. So wird die menschliche Fähigkeit, Satellitenbilder zu interpretieren, mit dem Vorteil der KI, große Datenmengen automatisch zu verarbeiten, vereint. Die gewonnenen Geoinformationen sind unter anderem nützlich für gesellschaftsrelevante Anwendungsfelder. Zum Beispiel um nach Naturkatastrophen zerstörte Gebäude zu kartiert oder Veränderungen des empfindlichen arktischen Ökosystems im Kontext des Klimawandels zu erkennen.
Das Exponat selbst ist keine KI, stellt aber eine Methode dar, wie Datensätze erhoben werde können, um KI-Modelle zu trainieren. Denn die rasant wachsende Zahl an verfügbaren Satellitenbildern ermöglicht es uns aus einer einzigartigen Perspektive ein besseres Verständnis unserer Erde zu erlangen. Automatisierte Verfahren stoßen bei der Interpretation dieser Aufnahmen aus dem All jedoch an ihre Grenzen. Aus diesem Grund wird erforscht, wie das Zusammenspiel zwischen Mensch und KI zu einer verbesserten Bildauswertung führen kann.
Weiterführende Information zum „Micro-Mapping” + KI:
Porto de Albuquerque, J., B. Herfort, M. Eckle (2016): The Tasks of the Crowd: A Typology of Tasks in Geographic Information Crowdsourcing and a Case Study in Humanitarian Mapping. Remote Sensing. 2016, 8(10), 859; doi:10.3390/rs8100859.
Herfort, B., Höfle, B. & Klonner, C. (2018): 3D micro-mapping: Towards assessing the quality of crowdsourcing to support 3D point cloud analysis. ISPRS Journal of Photogrammetry and Remote Sensing. Vol. 137, pp. 73 -83.
Chen, J., Y. Zhou, A. Zipf and H. Fan (2018): Deep Learning from Multiple Crowds: A Case Study of Humanitarian Mapping. IEEE Transactions on Geoscience and Remote Sensing (TGRS). 1-10. https://doi.org/10.1109/TGRS.2018.2868748