Big Spatial Data Analytics

Was wir machen

Wir leben in einem Zeitalter in dem fortlaufend große Datenmengen mit Raumbezug entstehen, die entweder von technischen Sensoren oder von Social-Media-Nutzern und per Crowdsourcing generiert werden. Die Auswertung dieser Datensätze ist aufgrund ihrer Größe und semantischen Komplexität nicht immer einfach zu bewältigen. Wir helfen, diese Datensätze für Ihre Anwendung sinnvoll zu nutzen und berücksichtigen dabei den räumlichen Kontext. Durch unsere langjährige Expertise aus zahlreichen Forschungsprojekten bieten wir Schnittstellenfunktionen zwischen Technologie und deren Anwendung. Wir entwickeln gemäß Ihrer Bedürfnisse Verfahren und Werkzeuge zur Qualitätsbewertung und Anreicherung heterogener Daten aus dem Web 2.0 unter Nutzung innovativer Methoden aus Spatial Data Mining und Deep Learning.

ohsome.org

OpenStreetMap-Daten werden fortlaufend erweitert, aktualisiert und ggf. korrigiert. Alle Veränderungen werden dabei gespeichert und sind nachvollziehbar. Die ohsome Analyse-Plattform ermöglicht einen einfachen Zugriff auf die vollständige Historie von OpenStreetMap – weltweit und in sekündlicher Auflösung. So können alle je dagewesenen (historischen) OpenStreetMap-Elemente rekonstruiert und analysiert werden. Ein wichtiges Ziel ist es dabei die Qualität und Nutzbarkeit von OSM für Ihre Anwendung besser bewerten zu können.

Big-Data-Technologie

Wir setzen auf Big-Data-Technologie und Cluster Computing und ermöglichen so parallele Datenverarbeitung auf einem skalierbaren Server-Cluster.

Integration durch API

Unsere Programmierschnittstellen können in verschiedene Systeme eingebunden werden. Auch die Implementierung eigener, benutzerdefinierter Analysen basierend auf der OpenStreetMap-Historie ist so möglich.

Intrinsische Qualitätsbewertung

Auf Grundlage der ohsome Plattform stellen wir intrinsische Qualitätsindikatoren bereit, welche die Bewertung der Datenqualität für verschiedene Anwendungen effektiv unterstützen.

DeepVGI

Deep VGI (Deep Learning mit Volunteered Geographic Information) schlägt die Brücke zwischen nutzergenerierten Geodaten und maschinellem Lernen. Lernende Algorithmen finden bereits erfolgreich Anwendung in der Geoinformatik-Welt – die dafür benötigen Trainingsdaten sind in ländlichen Gebieten oder Entwicklungsländern jedoch oftmals Mangelware. Hier kommen die von Freiwilligen erhobenen Daten ins Spiel, mit denen wir zum Beispiel das maschinelle Erkennen von Gebäuden aus Satellitenbildern optimieren.

Informationsfülle

Aufgrund der Reichhaltigkeit verwenden wir OpenStreetMap und MapSwipe-Daten um die Genauigkeit von maschinellen Lernalgorithmen zu verbessern. So extrahieren wir die relevanten Informationen und lernen räumliche Strukturen und Prozesse besser zu verstehen.

Crowd und Maschine

Analyseaufgaben bei denen automatisiert Informationen erfasst werden können, entlasten Nutzer und helfen menschliche Analysefähigkeiten dort einzusetzen wo keine Automatisierung möglich ist. Besonders hilfreich ist dies in zeitkritischen Anwendungsbereichen, wie beispielsweise der Kartierung von zerstörter Infrastruktur nach Katastrophenereignissen.

Datenqualität verbessern

Maschinelles Lernen stellt eine weitere Möglichkeit zur Analyse der Qualität von Geodaten bereit. Die automatisch generierten Erkenntnisse helfen uns nutzergenerierte Geodaten zu verbessern und Gebiete mit „guten“ und „schlechten“ Daten schnell und zuverlässig zu identifizieren.

Weitere Services

Das Team

Michael Auer

Wissenschaftlicher Angestellter

Sascha Fendrich

PostDoc Wissenschaftler

Fabian Kowatsch

Wissenschaftlicher Angestellter

Lukas Loos

Wissenschaftlicher Angestellter

Martin Raifer

Wissenschaftlicher Angestellter

Rafael Troilo

Wissenschaftlicher Angestellter / System-Administration