Big Spatial Data Analytics
Was wir machen
Wir leben in einem Zeitalter in dem fortlaufend große Datenmengen mit Raumbezug entstehen, die entweder von technischen Sensoren oder von Social-Media-Nutzenden und per Crowdsourcing generiert werden. Die Auswertung dieser Datensätze ist aufgrund ihrer Größe und semantischen Komplexität nicht immer einfach zu bewältigen. Wir helfen, diese Datensätze für Ihre Anwendung sinnvoll zu nutzen und berücksichtigen dabei den räumlichen Kontext. Durch unsere langjährige Expertise aus zahlreichen Forschungsprojekten bieten wir Schnittstellenfunktionen zwischen Technologie und deren Anwendung. Wir entwickeln gemäß Ihrer Bedürfnisse Verfahren und Werkzeuge zur Qualitätsbewertung und Anreicherung heterogener Daten aus dem Web 2.0 unter Nutzung innovativer Methoden aus Spatial Data Mining und Deep Learning.
ohsome Plattform
OpenStreetMap-Daten werden fortlaufend erweitert, aktualisiert und ggf. korrigiert. Alle Veränderungen werden dabei gespeichert und sind nachvollziehbar. Die ohsome Plattform ermöglicht einen einfachen Zugriff auf die vollständige Historie von OpenStreetMap – weltweit und in sekündlicher Auflösung. So können alle je dagewesenen (historischen) OpenStreetMap-Elemente rekonstruiert und analysiert werden. Ein wichtiges Ziel ist es dabei die Qualität und Nutzbarkeit von OpenStreetMap für Ihre Anwendung besser bewerten zu können.

Big-Data-Technologie
Wir setzen auf Big-Data-Technologie und Cluster Computing und ermöglichen so parallele Datenverarbeitung auf einem skalierbaren Server-Cluster.
Integration durch API
Unsere Programmierschnittstellen können in verschiedene Systeme eingebunden werden. Auch die Implementierung eigener, benutzerdefinierter Analysen basierend auf der OpenStreetMap-Historie ist so möglich.
Intrinsische Qualitätsbewertung
Auf Grundlage der ohsome Plattform stellen wir intrinsische Qualitätsindikatoren bereit, welche die Bewertung der Datenqualität für verschiedene Anwendungen effektiv unterstützen.
DeepVGI
Deep VGI (Deep Learning mit Volunteered Geographic Information) schlägt die Brücke zwischen nutzergenerierten Geodaten und maschinellem Lernen. Lernende Algorithmen finden bereits erfolgreich Anwendung in der Geoinformatik-Welt – die dafür benötigen Trainingsdaten sind in ländlichen Gebieten oder Entwicklungsländern jedoch oftmals Mangelware. Hier kommen die von Freiwilligen erhobenen Daten ins Spiel, mit denen wir zum Beispiel das maschinelle Erkennen von Gebäuden aus Satellitenbildern optimieren.

Informationsfülle
Aufgrund der Reichhaltigkeit verwenden wir OpenStreetMap und MapSwipe-Daten um die Genauigkeit von maschinellen Lernalgorithmen zu verbessern. So extrahieren wir die relevanten Informationen und lernen räumliche Strukturen und Prozesse besser zu verstehen.
Crowd und Maschine
Analyseaufgaben bei denen automatisiert Informationen erfasst werden können, entlasten Nutzende und helfen menschliche Analysefähigkeiten dort einzusetzen wo keine Automatisierung möglich ist. Besonders hilfreich ist dies in zeitkritischen Anwendungsbereichen, wie beispielsweise der Kartierung von zerstörter Infrastruktur nach Katastrophenereignissen.
Datenqualität verbessern
Maschinelles Lernen stellt eine weitere Möglichkeit zur Analyse der Qualität von Geodaten bereit. Die automatisch generierten Erkenntnisse helfen uns nutzergenerierte Geodaten zu verbessern und Gebiete mit „guten“ und „schlechten“ Daten schnell und zuverlässig zu identifizieren.
Projekte
– effiziente Speicherung und Zugriff auf die full-history Daten von OpenStreetMap | |
– räumlich-zeitliche Erkundung von OSM-Daten auf globaler Ebene | |
– Extraktion und Analyse der Datenhistorie von OpenStreetMap über HTTP-Anfragen | |
– Qualität von OSM-Daten für spezifische Regionen und Anwendungsfälle | |
– Statistiken über die historische Entwicklung von OpenStreetMap-Daten | |
– Statistiken und Diagramme über Kartierungen in OpenStreetMap für humanitäre Zwecke |
Kooperationsprojekte mit Unterstützung durch HeiGIT
– Information Discovery from Big Earth Observation Data Archives by Learning from Volunteered Geographic Information | |
– Karte über Landnutzungsinformationen basierend auf OpenStreetMap | |
– Klimahandeln fundiert gestalten – Fallstudie Baden-Württemberg/Kalifornien |
Abgeschlossene Projekte
– globaler Datensatz zur Katastrophenvorsorge | |
– Datenqualität im Sektor Gesundheitsenrichtungen in OpenStreetMap | |
– Daten für Zeitreihenkarten der historischen Entwicklung von OpenStreetMap | |
– historische OpenStreetMap-Objekte als Trainingsmuster für Maschinelles Lernen | |
– ein Python-Client für die ohsome-API |
Abgeschlossene Kooperationsprojekte mit Unterstützung durch HeiGIT
– Bedeutung der kognitiven Kohärenz bei der kollektiven Entscheidungsfindung | |
– sozialen und kulturelle Aspekte von Datenpraktiken um Gemeinden nachhaltiger und hochwasserresistenter zu gestalten | |
– Repository für OSM-Datenqualitätsmaßnahmen | |
– Ein Bürger*innenobservatorium und Innovationsmarktplatz für die Überwachung von Landnutzung und Landbedeckung (EU Horizon 2020) | |
– räumliche Verortung und Abrufung von Informationen zu den Themen Energiewende und Nachhaltigkeit | |
– Ein Rahmenwerk zur Messung der Gebrauchstauglichkeit von OpenStreetMap-Daten basierend auf intrinsischen Qualitätsindikatoren |
Weitere Services
Publikationen
Hier gelangen Sie zu einer Übersicht aller wissenschaftlichen Veröffentlichungen: Publikationen Big Spatial Data Analytics.