dcsimg
Resilienz

Katastrophenanalyse: Die Suche nach der Nadel im Heuhaufen

Das Center for Disaster Management and Risk Reduction Technology (CEDIM) hat mit der Forensischen Katastrophenanalyse einen neuen Typ interdisziplinärer Forschung begonnen. Topics Geo sprach mit Projektleiter Stefan Hinz über Möglichkeiten und Grenzen des Mobile Crowdsourcing bei der Analyse von Naturkatastrophen.

06.03.2015

Das Center for Disaster Management and Risk Reduction Technology (CEDIM) hat mit der Forensischen Katastrophenanalyse eine neue interdisziplinäre Forschung begonnen.
Dr. Stefan Hinz
Dr. Stefan Hinz ist seit 2008 Professor für Photogrammetrie und Fernerkundung am Karlsruher Institut für Technologie (KIT), dem Zusammenschluss der Universität Karlsruhe mit dem Forschungszentrum Karlsruhe. Seine Forschungsschwerpunkte liegen auf der Methodenentwicklung für die automatische Bild- und Datenanalyse, unter anderem für Anwendungen in der Geoinformatik. Innerhalb des CEDIM ist er Projektleiter für Forschungsarbeiten im Bereich Crowdsourcing.
Wann hat das CEDIM zum ersten Mal in großem Stil Crowdsourcing betrieben?

The phenomenon of mobile crowdsourcing first appeared just over ten years ago. That was when the first smartphones came onto the market, enabling every user to record specific data and provide them immediately in digital format. At CEDIM we have been using crowdsourcing to analyse natural disasters for around two years. We have been very impressed with the results, especially in terms of the speed of information provision. We can currently localise many disasters worldwide within the first three minutes after people are affected.

Worin liegen die größten Probleme bei der praktischen Nutzung?

Man muss unterscheiden zwischen rein technologischen und wissenschaftlichen Herausforderungen. Auf der Technologieseite geht es zunächst darum, vernünftige und einheitliche Schnittstellen zu definieren. Die Schwierigkeit dabei ist, dass je nach Betriebssystem des Smartphones oder nach verwendeter App die Daten und Attribute sehr heterogen oder unterschiedlich definiert sein können. Hier Lösungen zu finden erfordert in der Praxis viel Aufwand, geht es doch darum, Millionen einzelner Daten zu erfassen und zu verarbeiten. Wissenschaftlich besteht die Herausforderung darin, die Relevanz einer Information zu extrahieren und richtig einzuschätzen. Die allermeisten Nutzer stellen ja einen Tweet oder ein Bild nicht mit der Motivation ins Netz, uns bei der Auswertung von katastrophenrelevanten Daten zu unterstützen. Aus einer Fülle an unstrukturierten Informationen müssen wir also diejenigen herausfiltern, die für unsere Analysen am nützlichsten sind. Dies kann der Suche nach der Nadel im Heuhaufen gleichkommen.


Wir müssen uns zwangsläufig auf bestimmte Anwendungen konzentrieren, weil sonst unsere Ressourcen gar nicht ausreichen würden. Zu unseren Favoriten zählt der Kurznachrichtendienst Twitter. Er kommt weltweit zum Einsatz, und die Nutzer reagieren sehr rasch auf Entwicklungen. Daneben gibt es noch spezielle Apps oder Dienste wie Ushahidi oder Google Crisis Response, die bei Naturkatastrophen zum Einsatz kommen. Diese haben den Vorteil, dass man Informationen bekommt, die gezielt zur Verfügung gestellt wurden – allerdings nur in beschränktem Umfang. Denn Voraussetzung ist ja, dass gerade jemand vor Ort bei dem speziellen Dienst angemeldet ist und passende Informationen absetzt.

Wie gehen Sie bei der Analyse der Datenfülle vor?

Weil wir nicht alle abgesetzten Informationen beobachten können, schränken wir die Datenauswahl zunächst regional ein. Dies geschieht durch automatische Algorithmen, in die zum Beispiel Hintergrundinformationen wie die Bevölkerungsdichte einfließen. Bewährt hat sich der Ansatz, über einen längeren Zeitraum Statistiken zu erstellen, wie viele Meldungen gewöhnlich zu bestimmten Themen auftauchen. Wenn man diese Art von Grundrauschen als Normalzustand definiert, fallen Besonderheiten leicht auf. Dann kann man mit Methoden der Textanalyse feststellen, ob ein Wort häufiger als sonst vorkommt, zum Beispiel „Sturm“. Im zweiten Schritt muss man dann herausfinden, ob diese Anomalie mit einem Naturereignis in Verbindung steht oder ob eine andere Ursache dafür verantwortlich ist.

Wie viele unterschiedliche Begriffe analysieren Sie regelmäßig?

Je nach Sprache kommen wir auf eine Größenordnung von 20 bis 50 Wörtern, nach denen gezielt gesucht wird. Das hängt natürlich auch vom Spezialisierungsgrad ab, also davon, ob man etwa bei Unwettern auch einen Begriff wie Hagelschlag mit auf die Liste nimmt. Zu groß darf die Auswahl nicht werden, da sonst die Auswertung immer komplexer wird. Außerdem dient unser Dienst beim CEDIM nicht ausschließlich dem Monitoring aktueller Ereignisse. Im Rahmen unserer Forschungsarbeit versuchen wir, die Analyse weiterzuentwickeln und neue Versionen aufzusetzen, die Mängel der Vergangenheit beheben.

Welche Schritte unternehmen Sie, wenn Sie für eine bestimmte Region eine Anomalie festgestellt haben?

Sobald wir nach Analyse der Onlinedaten sicher sind, dass wir es mit einem schwerwiegenden Ereignis zu tun haben, ist unsere Arbeit eigentlich abgeschlossen. Dann erfolgt ein automatischer E-Mail-Alarm an die Kooperationspartner. Was vor Ort passiert, bestimmen die dortigen Behörden und Hilfsorganisationen. Das ist nicht unser Part. Wir haben es uns allerdings auch zur Aufgabe gemacht, rückblickend den Verlauf einer Naturkatastrophe zu untersuchen. Wir wollen bestimmte Kausalitäten ermitteln. Zum Beispiel: Wie hat ein Erdrutsch die Energieversorgung in einem Gebiet beeinträchtigt und welche Rückwirkungen hatte das wiederum auf das Verkehrssystem? Wenn wir erkennen, wie unterschiedliche Faktoren bei einer Katastrophe ineinandergreifen, können wir uns auf künftige Ereignisse besser vorbereiten.

Manche Krisenmanager stehen dem Thema Crowdsourcing im Hinblick auf die Datenqualität kritisch gegenüber. Bieten Big Data und Crowdsourcing wirklich die versprochenen Potenziale im Krisenmanagement?

Es ist sehr schwer, einen absoluten Qualitätsmaßstab anzulegen, weil die Referenz dazu fehlt. Wie definiert man bei Crowdsourcing 100 Prozent Trefferquote? Das muss aber auch nicht entscheidend sein. Der Mehrwert liegt darin, im Katastrophenfall schneller an wichtige Informationen zu gelangen. Umso wichtiger ist es, dass die Algorithmen Qualitäts- und Vertrauensmaße über die ermittelte Information mitliefern. Insgesamt hat sich Crowdsourcing in jedem Fall mehr als bewährt, weil man eben von vielen unterschiedlichen Quellen Daten erhält, nicht nur von einem einzigen oder wenigen Messpunkten.

Wie könnte man eine Vereinheitlichung von Normen und Standards erreichen, um das Potenzial von Big Data zu vergrößern?

Das muss man ganz realistisch sehen: Die Hersteller von Smartphones und die Entwickler von Social-Media-Plattformen haben kommerzielle Ziele. Crowdsourcing zu humanitären Zwecken steht bei ihnen nicht sehr weit oben auf der Agenda. Insofern müssen wir versuchen, bestmöglich das zu nutzen, was uns der Markt bietet.

Wie sieht es mit der Zusammenarbeit unterschiedlicher Crowdsourcing-Plattformen aus?

Im wissenschaftlichen Bereich gibt es derartige Ansätze. Auf operationeller Ebene sind die Bemühungen noch in einem sehr frühen Stadium. Nach unserer Erfahrung sind Hilfsorganisationen froh, wenn sie überhaupt an Informationen gelangen, die über Crowdsourcing gewonnen wurden. Ein Bedarf an mehr aktiver Zusammenarbeit ist auf alle Fälle da.

Das Thema Datenschutz ist verstärkt ins Bewusstsein der Öffentlichkeit gerückt. Wie kann man die Nutzer bei Crowdsourcing vor Datenmissbrauch schützen?

Das ist ein Thema, das sich nicht nur auf Crowdsourcing beschränkt. Viele Apps zwingen den Nutzer, die Verwendung bestimmter Daten wie den Standort oder das Telefonbuchverzeichnis freizugeben, auch wenn sie für die Nutzung der App gar nicht notwendig sind. Jeder sollte die volle Kontrolle über seine Privatsphäre behalten. Die Realität sieht anders aus: Wer durchblickt schon, welche Rechte er dem Betreiber einer App eingeräumt hat? Ich denke, da ist die Politik gefragt. Sie muss ähnlich wie beim Roaming in Europa auf einheitliche Bestimmungen drängen. Mehr Transparenz wäre für Crowdsourcing sicherlich von Vorteil. Denn wenn ich als Nutzer genau weiß, wer Einsicht in welche Daten haben möchte, kann ich bewusst eine Wahl treffen.

Wenn Sie einen Blick nach vorn wagen: Wie wird sich Crowdsourcing in den kommenden Jahren entwickeln?

Wenn man sich vor Augen führt, mit welch ausgeklügelten Algorithmen Online-Einzelhändler oder Werbevermarkter heute bereits das Kundenverhalten analysieren, ist mit großen Fortschritten zu rechnen. Weitet man diese technologischen Möglichkeiten auf Crowdsourcing im Bereich Naturkatastrophen aus, könnte man vor allem die Qualität der Informationsselektion erheblich verbessern. Es kann natürlich sein, dass die Politik aus Datenschutzgründen dem Ganzen einen Riegel vorschiebt. Dann wird die Entwicklung sicherlich weniger dynamisch verlaufen.
Wir verwenden Cookies um Ihr Internet-Nutzungserlebnis zu verbessern und unsere Websites zu optimieren.

Mit der weiteren Nutzung unserer Website stimmen Sie der Verwendung von Cookies dieser Website zu. Weitere Informationen zu Cookies und dazu, wie Sie die Cookie-Einstellungen in Ihren Browsereinstellungen anpassen können, finden Sie in unsereren Cookie-Richtlinien.
Sie können Cookies deaktivieren, aber bitte beachten Sie, dass das Deaktivieren, Löschen oder das Verhindern von Cookies Ihre Internet-Nutzung beeinflussen wird.