4D-Matrix :: Zukunftsmanifestationen aus Big Data Analysen

Vom Einfluss von Big Data und den Analysen von riesigen, verknüpften Datenmengen war hier schon öfter die Rede, heute geht es im Kern um rechtsstaatliche Aspekte, es geht darum, wie Big Data Analysen rechtsstaatskonform Verbrechen verhindern können.

Der Einsatz von Big Data gegen zukünftige Verbrechen ist dabei mindestens so revolutionär wie es die Einführung der Fingerabdruckspurensuche ab Mitte der 1880er Jahre war (in Deutschland ab 1903 in Dresden). Die Analyse der Fingerabdrücke ermöglicht eine mathematisch korrekte Zuordnung von Personen bzw. deren Papillarlinien zu Tatorten. Über Big Data Analysen wird es möglich werden, eine Matrix der Zukunft zu erstellen und in dieser Matrix exakte Angaben über einen Tatort machen zu können. Je nach Quantität und Qualität der Verwendung findenden Daten sind Aussagen über Ort, Zeit, Eigenschaften des Tatortes, Opfer usw. möglich. Unter Einschluss aller möglichen Variablen sagt die Big Data Analyse nicht eine sondern die Zukunft voraus, eine Zukunft, die man verändern kann oder nicht. Und der Clou an der Sache: man wird die Veränderung der Zukunft bereits in der Gegenwart (also aus Sicht der Zukunft der Vergangenheit) messen können.

Zur Veranschaulichung stelle man sich folgende Szenarien vor:

  1. Der Bergwald
    Bergwald
    Die Bäume des Bergwaldes sind nicht von Menschenhand gepflanzt worden. Aber warum stehen die Bäume dort, wo sie stehen und nicht drei Meter mehr links oder etwas tiefer? Wie lässt sich allgemein gültig erklären, wo sich der Samen eines Baumes zu einem richtigen Baum entwickeln wird?
  2. Ausbreitung von Wellen auf der Wasseroberfläche
    Wellen
    Regentropfen treffen auf die Wasseroberfläche, Wellen breiten sich aus. Aus Erfahrung wissen wir, dass sich die Wellen kreisförmig um den Einschlagspunkt herum ausbreiten, aber wie genau? Was müssen wir wissen, damit wir eine Formel ableiten können, mit der wir Ausbreitung der Wellen genau berechnen können, bevor der Regentropfen auf die Wasseroberfläche trifft?
  3. Erdbeben
    Erdbeben
    Ein Erdbeben hat stattgefunden. Wo, an genau welchem Ort, werden die Nachbeben sein?

Die drei Beispiele, so verschieden sie zunächst erscheinen mögen, vereint etwas: jeweils nach einem auslösenden Ereignis ereigneten sich weitere Ereignisse die nicht denkbar wären ohne das initiale Ereignis.  So gesehen löst das initiale Ereignis einen Zeitstrahl in die Zukunft aus, der die Erschütterungen der Vergangenheit in die Zukunft transportiert und dort modelliert. Einzige physikalische Voraussetzung für diesen Vorgang ist die Existenz von Zeit; wir wollen der Einfachheit halber annehmen, es gäbe so etwas wie Zeit.

Erste Erkenntnis: Die Zukunft ist unmittelbar abhängig von Ereignissen der Vergangenheit.

Um nun vorher zu sagen, an welcher Stelle es zum Beispiel ein Nachbeben geben wird, benötigt man ein mathematisches Modell, mit welchem man die Wahrscheinlichkeit von Ort, Zeit und Intensität des Nachbebens möglichst genau vorhersagen kann.  In dem Modell müssen alle relevanten Daten Berücksichtigung finden: Daten über ehemalige Erdbeben, Vulkanismus, Landabsenkungen, Boden- und Gesteinsstruktur weltweit, Temperaturentwicklungen, Punktdaten,  z.B. durch chemische Analysen von Proben oder geophysikalische Messungen an einzelnen Lokationen als auch Flächen- und Liniendaten, die bestimmte Sachverhalte wie beispielsweise geologische oder bodenkundliche Einheiten repräsentieren (Quelle: BGR) usw. Anhand dieser großen Datenmengen lässt sich ein Muster (engl. pattern) entwickeln, das die Vorhersage der Nachbeben, also ein Blick in die Zukunft, zulässt. Je perfekter die Datenbasis, je genauer die Vorhersage.

Ähnlich wie bei Nachbeben oder Wellen gilt:

.menschliches Verhalten ist vorhersagbar

.es folgt Mustern

(vgl. Prof. Geoffrey Brentingham, University of California, Prof. George Mohler, University of Santa Clara, USA)

Der Umstand, dass menschliches Verhalten vorhersehbar ist und Mustern folgt, ist Kern aller Big Data Analysen, die im sozialen oder kommerziellen Bereich betrieben werden. Werbung nach einer erfolgten Big Data Analyse ist ungleich treffsicherer als konventionelle Werbung. Gleiches gilt übrigens für Wahlwerbung und dass ist ein Argument dafür, Big Data in ein Spannungsverhältnis zu Demokratie und Freiheitsrechten zu setzen.

Ein Verbrechen ist menschliches Verhalten. Habe ich genug Daten und ein Muster, aus dem ich eine Formel entwickeln kann, kann ich die Zukunft exakt vorhersagen, Tatorte und Tatzeiten vorhersehen und einiges andere mehr.

Warum wurde das nicht schon früher gemacht? Wirklich große Datenmengen fallen erst seit dem Jahr 2010 an:
2010: 1227 Exabit weltweit
2012: 2837 Exabit weltweit
Prognosen:
2015: 8591 Exabit weltweit
2020: 40026 Exabit weltweit
(Datenvolumen verdoppelt sich alle zwei Jahre
1 Exabit = 909494 Terrabit oder 931.322.574,6154785 Gigabit )
Erst seit wenigen Jahren steht eine ausreichend große Datenmenge für Big Data Analysen zur Verfügung.

Zweite Erkenntnis: riesige Datenmengen (Big Data) sind zur Vorhersage menschlichen Verhaltens geeignet und seit kurzem vorhanden.

Benutzt man das mathematische Modell, welches für die Vorhersage von Erdbeben entwickelt wurde und legt sein Muster auf reale Verbrechensdaten, stellt man verblüfft folgendes fest: es handelt sich um das gleiche Clustermuster. Einem starken Erdbeben folgen Nachbeben in der Nähe, Verbrechen lösen Nachbeben, besser: Aftershocks in der Nachbarschaft aus.

Es ist also realistisch und praktikabel, vorhandene Daten, zum Beispiel die Tatort-, Tatzeit- und Deliktdaten der letzten Jahrzehnte der Polizei für zukunftssichere Voraussagen heranzuziehen.

Zugang zu großen Datenmengen bedeutet Macht.

Über Big Data Analysen könnte der Staat seinem Bürger Straftaten nachweisen, die er noch nicht begangen hat. Dabei handelt es sich ausdrücklich nicht um nebulöse Wahrscheinlichkeiten oder Vermutungen sondern durch aus um eine mathematisch belegbare „an Sicherheit grenzende Wahrscheinlichkeit“. Eine „an Sicherheit grenzende Wahrscheinlichkeit“ definiert bereits seit Jahrzehnten die Grenze zwischen Freispruch und Verurteilung. 100%ige Sicherheit in seinem Urteil muss der Richter bereits heute nicht in sein Urteil legen, um den Delinquenten zu bestrafen.

Werden riesige Datenmengen untereinander verknüpft, ist es problemlos möglich, einen Tatortfilm zu drehen, dessen Tatereignis in der Zukunft liegt und ohne Eingriff durch die Polizei stattfinden wird. Benötigt werden Daten, die heute bereits vorliegen:  Daten über Tatorte, Infrastrukturdaten, Wetter- und Klimadaten, Daten über Personen in der Umgebung, Daten über Baustellen, Verbrauchsdaten von Gas, Wasser, Strom, Konsumverhalten der Nachbarschaft usw. Simplifiziert gibt es dann nur zwei Möglichkeiten: die Polizei greift ein und verändert die Zukunft (Folge: kein Verbrechen) oder sie greift nicht ein und das Verbrechen geschieht. In einem Rechtsstaat wäre die letzte Variante selbstredend unzulässig.

Zwingt Big Data den Rechtsstaat zum Handeln?

Die Frage ist vermutlich verfrüht:

  1. einerseits müsste man sich zunächst vergegenwärtigen, wie, mit welcher mathematischen Formel man in die Zukunft künftiger verbrechen blicken kann und
  2. betreibt der Staat noch kein spezielles data mining für Zwecke der Big Data Anwendung, mit der Folge, dass die Qualität der Daten derzeit noch kein nahezu 100%iges Ergebnis liefern wird.

 Wie kann „Big Data Crime“ funktionieren?

Berechnet werden soll die Verbrechensrate in Raum und Zeit.  Diese Verbrechensrate wollen wir Λ (Lambda) nennen.

Die in Raum und Zeit ablaufende Kriminalität, also die Verbrechen, die schon geschehen sind und gegenwärtige in einem definierten Raum begangen werden nennen wir µ (Mü).

Und dann brauchen wir noch jene Verbrechen, die dem „großen Beben“ folgen: g

Wir beziehen unsere Gleichung also nur auf echte Verbrechensdaten, keine Strukturdaten, Daten aus anderen Quellen usw. Eine Auswertung zu Zwecken der Verbrechensbekämpfung dürfte dem Staat erlaubt sein, zumal die Daten exakt zu diesem Zweck, der Verbrechensbekämpfung erhoben worden sind. Ein Nachteil an dieser Methode ist zweifellos, dass Tatorte nur mit geschätzt ca. 25%iger Genauigkeit vorhergesagt werden können. Für exaktere Betrachtungen der Zukunft bräuchte man mehr Big Data, zB Strukturdaten (siehe weiter oben).

Eine 4-dimensionale Verbrechensmatrix, die sich aus Daten aus der bisherigen Verbrechensbekämpfung beschränkt, könnte analog zur Erdbebenforschung so aussehen:

Λ (t) = µ + ∑ g (t-t)
t < t

wobei der zweite Teil der Formel die Erkenntnisse im vorhandenen Datensatz widerspiegelt. Anhand der Formel lassen sich Crime Hotspots bestimmen. Während man heute bei der Festlegung kriminalitätsbelasteter Orte davon ausgeht, dass morgen das gleiche geschieht wie heute, weiß man über Big Data Analysen, das diese Vermutung, wenn man genau hinsieht, falsch ist. Mit Big Data Analysen kann man zukünftige Tatorte zunächst mit wesentlich höherer Wahrscheinlichkeit bestimmen.

In den USA wird in mehreren Städten das Prinzip bereits bei der Polizei angewandt, die Zahlen von Seriendelikten wie Einbruch gehen dort drastisch zurück. Der Personaleinsatz dürfte sich effizienter gestalten: der Funkwagen fährt erst  los, kurz bevor eine Tat begangen wird. Bayern plant seit ein paar Monaten ein ähnliches Projekt.

Dritte Erkenntnis: Es ist nicht untertrieben, von Signaturtatorten zu reden (vgl. diesen BLOG: Signaturangriffe von US-Drohnen).  Aus einem virtuell erschaffenen Signaturtatort wird je nach Datenqualität mit an Sicherheit grenzender Wahrscheinlichkeit ein realer Tatort, mit nicht selten tödlichen Folgen. Der zukünftige reale Tatort ließe sich bereits jetzt wie ein 3D-Spielfilm visualisieren.

Der Computer schickt einen Streifenwagen, der die Tat verhindert. Ein Szenario, welches auf den ersten Blick nur Gutes verspricht.

Aus demokratischer Sicht und aus der Perspektive des Rechtsstaates stellen sich Fragen:

  • soll die Executive Computern unterstellt werden?
  • welche Daten sollen bzw. dürfen zu Big Data Crime Auswertungen verarbeitet werden?
  • Ersetzt Big Data langfristig das Legalitätsprinzip? Ermessenspielraum des Menschen gegen „totale Gewissheit“ des Computers?
  • Wie wird strafrechtlich mit Menschen umgegangen von denen wir aufgrund von Big Data Analysen mit „an Sicherheit grenzender Wahrscheinlichkeit“ wissen, dass sie ein bestimmtes Verbrechen zu einer bestimmten, zukünftigen Zeit begehen werden?

Eine Erkenntnis bleibt: die Big Data Problematik berührt die Kernbereiche unseres Gemeinwesens: Menschenrechte, Demokratie, Freiheitrechte und Privatsphäre.