Feuerwehr löscht mit Datenflut

Veröffentlicht am 03.02.2014

Das menschliche Gehirn tut sich schwer, abstrakte Formate zu verstehen. Deswegen können wir uns etwa die Anzahl der existierenden Sterne und die Weite des Universums nicht wirklich vorstellen. In ähnlich abstrakten Dimensionen bewegen sich die heutzutage vorhandenen Datenmengen – und unsere Vorstellungskraft versagt auch hier. Davon abgesehen, dass wir nicht immer im Einzelnen wissen, welche Daten genau von wem erfasst werden, fällt es uns schwer, das Ausmaß von Yottabytes, die derzeit höchste Maßeinheit zur Speicherung von Daten, zu begreifen. Ab einer gewissen Menge versteht das menschliche Gehirn nur noch: Es ist ein wirklich großer Haufen Daten. Daher hat sich für die verwertbaren, aus verschiedenen Quellen gesammelten Datensätze der Begriff Big Data durchgesetzt, auch wenn noch keine klare Definition über Größe und Komplexität besteht.

 Daten für die Feuerwehr

Viele Daten können jedenfalls viel helfen, wenn sie zu diesem Zweck verwendet werden. Zwar sind nicht alle Daten ausnahmslos hilfreich, doch in den USA hat man Ideen entwickelt, um die Daten, die regelmäßig aus Routine erhoben werden, in positiver Weise für die Gesellschaft zu nutzen. In New York haben Behörden etwa 60 Faktoren identifiziert, die ein Gebäude statistisch betrachtet besonders anfällig für den Ausbruch eines Feuers machen. Daraus wurde ein Algorithmus erstellt, welches den 330.000 inspizierbaren Gebäuden eine Risikopunktzahl zuordnet. Feuerwehrleute erhalten auf dieser Grundlage eine nach Risikofaktor sortierte Liste von Orten, die sie bei ihren wöchentlichen Inspektionen zuerst besuchen sollten.

Zu den Faktoren, die ein Feuer vermuten lassen, gehören beispielsweise leer stehende oder unbewachte Gebäude und tendenziell eher ärmere Gegenden. Auch Anzahl und Platzierung der Sprinklersysteme oder Fahrstühle spielen eine Rolle bei der Berechnung einer Feuerwahrscheinlichkeit. All diese Daten und noch mehr müssen berücksichtigt werden, damit eine realistische Einschätzung für die Feuerwehr erfolgen kann.

Mit Mathematik gegen das Verbrechen

Ein ähnliches Konzept hat die Polizei in Los Angeles und Santa Cruz im US-Staat Kalifornien bereits Anfang 2010 in Angriff genommen. Um dem Traum aller Ermittler ein Stück näher zu rücken und Verbrechen vorhersagen zu können, wird dort unter Einsatz von Statistik mit der Methode „Predictive Policing“ experimentiert. Das Programm wurde mit Daten über Verbrecher und Straftaten der letzten acht Jahre gefüttert und versucht auf dieser Basis sich wiederholende Muster zu erkennen. Täglich werden die Datensätze aktualisiert. Es wurden auch tatsächlich schon Verhaftungen vorgenommen: Ein Computerprogramm hatte den Polizisten den Weg in eine Parkgarage gezeigt, wo nach statistischer Berechnung Autoeinbrüche an dem Tag sehr wahrscheinlich seien. Vor dem Antritt ihrer Streife erhalten die Polizisten durch das Programm eine Liste der zehn „Hotspots des Tages“, die sie kontrollieren sollen, wenn sie gerade nicht einem spezifischen Einsatz nachgehen.

Die Befürworter der Big Data-Nutzung haben es allerdings schwer, schließlich muss man den Erfolg dieser Vorgehensweise meist damit belegen, dass etwas nicht passiert ist: Kein Feuer ist ausgebrochen, weil es vorher verhindert wurde und keine Person wurde überfallen, weil die Polizei Präsenz zeigte. Möglicherweise wird ein Verbrechen damit aber auch nur verlagert. Auch diese Frage lässt sich vermutlich irgendwann statistisch auswerten, wenn die entsprechenden Datensätze genutzt werden können. Bis dahin jedenfalls gilt: Viele Daten können – richtig genutzt – auch viel helfen.

Schlagworte

Empfehlung der Redaktion