Alle Beiträge von Polizei_Wiss

Predictive policing – eine Gefahr für die Freiheit?

Autor des Beitrags: wegecon
Predictive policing heißt so viel wie „vorbeugende Überwachung“. Behörden wollen sich in die Lage versetzen, den Verbrechensort vor der Tat zu erkennen und den Verbrechern so zuvorkommen – mit Hilfe von Daten,  Technik und Algorithmen.

„Jeden Tag produzieren wir 2,5 Trillionen Bytes an Daten. Nutzen Sie die Chancen von Big Data“, warb IBM mit einer Banner-Kampagne für sein Webanalyseprodukt. Mithilfe von Big Data lasse sich die Relevanz von Online-Marketingmaßnahmen erhöhen, und Werbebudgets effizienter einsetzen da man das Kundenverhalten voraussagen könne. Wisse man vorher, wie sich Kunden orientieren, könne man dieser besser bedienen, besser im Sinne den eignen Produktes beeinflussen. Doch gilt ähnliches für predictive policing? Welche Daten bräuchte man?

Daten, die der Staat speichert, erhält dieser oftmals aufgrund eines Gesetzes, das heißt, der Bürger kann sich der Herausgabe der Daten und deren Speicherung nicht entziehen. Unter anderem aus diesem Grund dürfen Daten nur zu den Zwecken verwendet werden, zu denen sie erhoben worden sind. Gleiches gilt für die Verknüpfungen von Daten: Daten, die beispielsweise für Mautzwecke erhoben worden sind, dürfen nicht mit Daten aus der Verbrechensbekämpfung verknüpft werden.

In Teilen der Tagespresse und in Fachpublikationen erscheinen mittlerweile täglich Artikel zu Thema predictive policing. Aufgrund welcher Datenbasis die Entwickler von predictive policing Software ihre Voraussagen treffen, ist unterschiedlich. Generell scheinen Entwickler und Anwender jedoch der Meinung zu sein: viele Daten führen zu genaueren Vorhersagen. Genannt werden unter anderem:

  • Wetterdaten
  • Daten von ausländischen Prepaid SIM Cards
  • polizeiliche Falldaten der letzten sieben Jahre
  • Daten über Kundenverhalten im Distrikt (Kreditwürdigkeit, Schulden)
  • Sozialstruktur
  • Wohnorte bekannter, verurteilter Täter
  • Fahrzeugbewegungen aufgrund eigener „Maut“geräte

Es braucht nicht viel Phantasie oder Fachwissen um festzustellen, dass eine Überwachung der Bevölkerung mit den genannten Daten beziehungsweise eine Verknüpfung der Daten zu einer totalen Kontrolle der Bevölkerung führt.

Verknüpft der Staat die genannten Daten, ist folgender Satz richtig: predictive policing unterstützt Re-Anonymisierung und Personalisierung.

Obwohl predictive policing „vorbeugende Überwachung“ heißt, liegt die Kunst der Umsetzung der Idee des predictive policing darin, die Bevölkerung eben nicht zu überwachen. Ein Widerspruch? Nein, denn das geforderte Umdenken muss sich ebenfalls auf die Technik, die Mathematik, die angewandten algorithmischen Strategien beziehen. Der wegeconBLOG hat nachgewiesen, das nur sehr wenige Daten nötig sind, um zukünftige Tatorte errechnen zu können. Die Einbeziehung der Koordinaten der Tatorte der letzten Wochen in kriminalpolizeiliche Analysen ist nicht nur unbedenklich sondern schon immer Tagesgeschäft der Ermittler.

Ergo gilt:

  1. kein datengetriebenes predictive policing
  2. keine demokratiegefährdende Überwachung
  3. keine Re-Anonymisierung, keine Personalisierung
  4. keine Stigmatisierung einzelner Gebiete

Predictive policing kann gelingen, sofern intelligenzgetriebene Analysesysteme große Datenmengen entbehrlich machen.


Vielen Dank an wegecon für seine Gedanken!

Kompletter Beitrag verfügbar unter wegecon.de

Führung in der Polizei – Anspruch und Wirklichkeit

Handlungsbedarf in Aus- und Fortbildung

Autor des Beitrags: Kai Seidensticker

Führung als soziales Phänomen im zwischenmenschlichen Interaktionsprozess von Unternehmen hat bis heute nicht an Aktualität verloren. Führung stellt einen kritischen Erfolgsfaktor für den unternehmerischen Erfolg dar (vgl. Mohn 2011). Deutlich wird dies insbesondere im Kontext der Polizeiorganisation: Ein attestiertes Motivationsproblem, resultierend aus starken hierarchischen Strukturen und fehlender (positiver) Rückmeldung, macht Führung zu einem wichtigen Instrument erfolgreicher Arbeit. Eine Studie des Instituts GALLUP von 2011 kommt zu dem Schluss, dass aufgrund von fehlender Motivation, unter anderem verursacht durch schlechte Führung, 23% der Arbeitnehmer in Deutschland bereits innerlich gekündigt haben. 63% machen nur noch „Dienst nach Vorschrift“. Auf die Polizei übertragen könnte dieser Wert ähnlich, vielleicht sogar höher ausfallen. Eine im Jahr 2014 durchgeführte empirische Untersuchung innerhalb der Polizei zeigte teilweise starke Abweichungen von Selbst- und Fremdwahrnehmung der Führungskräfte auf. Auch wurden große Unterschiede in der Umsetzung des erlernten Kooperativen Führungssystems (KFS) deutlich (vgl. Seidensticker 2014).

Das KFS vor dem Hintergrund aktueller Führungsforschung

Betrachtet man die Zeit, welche seit der Einführung des Kooperativen Führungssystems durch Altmann und Berndt vergangen ist, so ist es nicht verwunderlich, dass die Forschung im Bereich der Führung von Menschen und Unternehmen aber auch im Bereich der Organisationsforschung neue Erkenntnisse hervorgebracht hat, welche über das Grundprinzip des KFS hinausgehen.

Als Führungskonzept entworfen und mit dem Ziel einer zum einen vereinfachten Abbildung der Komplexität  von Führungswirklichkeit und zum anderen dem Anspruch eine erfolgsgarantierenden Führungsleitlinie für Führungskräfte der Polizei darzustellen, war das KFS nicht auf einen fortlaufenden Wandel ausgerichtet, der Schritt hält mit den Trends der Führungsforschung. Die Zementierung dieses Führungssystems durch Leitlinien und Polizeidienstvorschriften war der Legitimation innerhalb der Behörde sicher zuträglich, verschloss in gleichem Maße aber die Tür zu einer wissenschaftlichen Weiterentwicklung und somit auch Angleichung an sich verändernde Führungsrealitäten.

In dem Maße, in welchem sich die Organisationen im Laufe der Zeit einem Wandlungsprozess unterzogen haben und weiterhin unterziehen werden, so verändern sich auch die Anforderungen an die Führung innerhalb dieser Organisationen. Dies wird spätestens dann zu einem Problem, wenn ein Konzept auf einer Organisationsform aufbaut, welche in dieser Form nicht mehr existent ist.

Dem Kooperativen Führungssystem muss ein Erfolg auf Ebene der Wahrnehmung der Mitarbeiter bescheinigt werden, da durch die Verankerung eines zeitgemäßen und auf bürgerliche Grundrechte bezogenen Menschenbildes die Mitarbeiter nicht mehr nur als Objekt, sondern unmissverständlich als Subjekt im Geflecht der Organisation der Polizei wahrgenommen werden. Abweichend von bloßen Befehlsempfängern des autoritären Führungshandelns wird hier der Grundstein für ein faires Miteinander gelegt, was zum einen die Verantwortung der Organisation gegenüber jedem Mitarbeiter betont und zum anderen durch Wertschätzung zusätzliches Potenzial der Beschäftigten für die Organisation erschließt. Jedoch muss dem KFS der gleiche Vorwurf gemacht werden, wie den weiteren eindimensionalen Führungsstilen und -philosophien: Führungshandeln wird zu stark auf die Position der Führenden vereinfacht und verliert dabei die eigentliche Komplexität menschlichen Handelns aus den Augen. Die Führungskraft bestimmt eben nicht in jeder Form mit allen notwendigen Informationen allein über die jeweilige Situation, sondern ist vielmehr abhängig von einer Vielzahl von dynamischen Ereignissen und Interaktionsprozessen. In dieser komplexen Ausprägung einer Führungssituation muss insbesondere die Rolle der Mitarbeiter als Machtakteur anerkannt werden.

Erkannter Handlungsbedarf

Die Schulung der geführten Mitarbeiter tritt regelmäßig in den Hintergrund und findet wenn überhaupt nur wenig Beachtung. Ein Schulungskonzept in diesem Bereich bietet jedoch großes Potenzial. Dies gilt es insbesondere vor dem Hintergrund der Einführung der zweigeteilten Laufbahn in einigen Bundesländern und somit der Erfordernis eines Studiums als Einstiegsvoraussetzung für den Polizeidienst zu beachten. Die seit dieser Reform steigende Anzahl von Absolventen innerhalb der Polizeiorganisation kann positiv zu einem tiefgreifenden Interesse der Polizeibediensteten an der komplexen Thematik der Führung beitragen. Die durchdie Politik fokussierte sowie durch die Öffentlichkeit erwartete kritische Auseinandersetzung der angehenden Polizeibeamten mit Themen wie Führung, Gehorsam und Verantwortung im Dienst, führt über kurz oder lang nahezu automatisch zu einem „neuen Typ“ von Polizisten. Nicht bloß blindes Folgen, sondern ein kritisches Reflektieren soll vermittelt werden. Ein „denkender“ Beamter, welcher durch das Studium hervorgebracht werden soll, kann mit einem Grundstock an Wissen über Führungskompetenzen sowie -situationen ausgerüstet werden, was zu einem Gewinn auch für die jeweiligen Vorgesetzten werden kann. Eine Evaluation der Curricula der polizeilichen Hochschulen in Bund und Ländern zeigt, dass Grundlagen der kooperativen Führung in 17 der 19 Curricula verankert sind (vgl. Thielmann 2010). Jedoch sagt dies noch nichts über die tatsächlichen Lehrinhalte, die im Vergleich sehr heterogen erscheinen, sowie die Art der didaktischen Vermittlung, welches es gesondert zu betrachten gilt. Weiterhin gilt es zu beachten, dass eine einmalige Vermittlung des Wissens an die Mitarbeiter innerhalb des Studiums nicht ausreichen wird, um die geführten Personen zu einem kompetenten Partner im Führungsprozess zu qualifizieren. Mitarbeiter und Führungskräfte sollten gleichsam geschult werden, um zum einen den Dialog zwischen den beiden Interaktionsparteien auf hohem Niveau zu halten. Zum anderen trägt eine frühe und konstante Schulung der Mitarbeiter dazu bei, die „Führungskräfte der nächsten Generation“ herauszubilden, da diese von Beginn an in der Führungsthematik geschult werden. Dazu ist jedoch ein wiederkehrendes Befassen mit dieser Thematik auch über die Grenzen des Studiums hinaus vonnöten. Konzepte der Weiterbildung sollten auch in der beruflichen Praxis bzw. in Fortbildungskonzepten zum Führungsbereich speziell für Mitarbeiter Einzug finden.

Schon in der Ausbildung müssen Grundlagen in Bezug auf ein tiefgreifendes Führungsverständnis sowie eine ebenfalls – wenn auch nur in Grundzügen herausgebildete – kritische Führungskompetenz erworben werden. Dazu ist der bisherige Anteil der Führungsthematik am Gesamtworkload von unter einem Prozent deutlich zu erhöhen. Darüber hinaus muss die Methodik der Lehre beachtet werden: Hier geht es nicht um die bloße Vermittlung von Grundlagenwissen, sondern schon früh um die Herausbildung von Führungskompetenz, welche durch eine kritische Auseinandersetzung mit der Führungsforschung, den vorhandenen Führungsrichtlinien des KFS sowie mit alternativen Lösungsstrategien für konfliktbehaftete Führungssituationen gelingen kann. Die in der Ausbildung erworbenen Kenntnisse müssen, werden sie nicht durchgehend selbst angewendet, fortlaufend aufgefrischt und mit dem Stand der sich weiterentwickelnden Führungsforschung in Einklang gebracht werden. Hier ist ein breites Fortbildungsangebot für den Polizeibeamten notwendig, welches Themen der Führung sowie die kritische Auseinandersetzung mit Führungskräften, Führungssituationen sowie dem Führungssystem selbst präsent hält. Dies ermöglicht einen fortlaufenden Diskurs der polizeilichen Führungskultur innerhalb der Polizei. Gleichzeitig benötigen die Führungskräfte intensive Schulungen, in welchen auch die Reflexion des eigenen Führungsverhaltens thematisiert werden muss.

Das Masterstudium an der DHPol vermittelt tiefgreifende Kenntnisse aus dem Bereich der Führungsforschung. Jedoch sind die Inhalte stark auf die Grundlagen des KFS beschränkt und bilden auch die Umweltbedingungen der Führung zur Zeit der Entstehung des KFS ab. Hier ist es notwendig sich inhaltlich an der Entwicklung der Führungsforschung, aber auch an der Führungswirklichkeit zu orientieren und einen Bezug zu diesen Erkenntnissen herzustellen. Nachholbedarf besteht in Bezug auf die Rolle der Mitarbeiter im Führungsprozess. Notwendig ist die Wahrnehmung dieser als kompetente und kritische, individuelle Partner der Führungskraft im Führungsprozess. Dazu ist es notwendig diesen als Interaktionsprozess zu verstehen. Es kommt hier auf die wechselseitigen Beziehungen zwischen Führungskraft und Mitarbeiter an, welche im Curriculum nur geringe Beachtung finden. Ansätze einer kritischen Diskussion der polizeilichen Führungskultur sind an der DHPol jedoch erkennbar (vgl. hier die Arbeiten von Barthel, Thielmann/Weibler etc.) und sollten intensiviert und auf die Führungslehre ausgedehnt werden.


Vielen Dank an Kai Seidensticker für seine Gedanken!

Kompletter Beitrag verfügbar in: Polizei und Wissenschaft, Ausgabe 3/2015, Verlag für Polizeiwissenschaft

Mathematische Methoden in der Kriminalistik

Predictive Policing – Prognosen durch Quantenphysik?

Autor des Beitrags: wegecon

Die Zukunft ist unmittelbar abhängig von Ereignissen der Vergangenheit.

Warum ist das so? Einfach zu erklären sind Phänomene, die sich auf Dominoeffekte (Abfolge meist ähnlicher Ereignisse, von denen jedes einzelne zugleich Ursache des folgenden ist und die alle auf ein einzelnes Anfangsereignis zurückgehen) oder Kettenreaktionen beziehen.  Komplizierter wird es, wenn singuläre, zufällige, von einander unabhängige Ereignisse zusammenzuhängen scheinen. Hier gilt nicht: A -> B, B -> C, C -> D, usw. Trotzdem lassen sich auch solche Ereignisse im Voraus berechnen.

Nehmen wir an, Du bist Besitzer eines Restaurants. Nehmen wir weiter an, am gestrigen Tage speisten 35 Gäste in Deinem Restaurant. Jetzt stellt Dir Deine Servicechefin die Frage, für wie viele Gäste sie die Tische für morgen vorsorglich eindecken soll. Vermutlich werden Dir sofort die Zahlen „35“ und „34“ als Antwort einfallen, weniger wirst Du an „1“ oder „1769“ denken und damit hast Du nichts anderes getan, als die Poissonverteilung angewandt. Man kann mathematisch determiniert Ereignisse berechnen, die nicht unmittelbar zusammenhängen.

Bei Einbrüchen, die man mit predictive policing (engl., vorausschauende Überwachung) verhindern will, verhält es sich ähnlich. Der Einbruch wird betrachtet als singuläres, von anderen Ereignissen unabhängiges Ereignis. Allein der Umstand, dass sich in einem bestimmten Gebiet ein Einbruch ereignet hat, lässt die Wahrscheinlichkeit empor schnellen, dass sich in der Nähe in Kürze ein weiterer Einbruch ereignen wird und zwar völlig unabhängig von der Person des Opfers, des Täters oder der Tatumstände. Jedes Einbruchsereignis ist eine von anderen Einbrüchen unabhängige, zufällige Tat. Anhand der Daten über das Einbruchsereignis lässt sich ein Muster (engl. pattern) entwickeln, das die Vorhersage der folgenden, in der Zukunft stattfindenden Einbrüche, also einen Blick in die Zukunft, zulässt. Eine solche Analyse macht sich den Umstand zu nutze, dass menschliches Verhalten vorhersehbar ist und Mustern folgt, was übrigens der Kern aller Big Data Analysen ist.

Bei Einbrüchen scheint es so zu sein, dass ein vorangegangener Einbruch ein initiales Ereignis in der Zukunft auslöst, das die Erschütterungen der Vergangenheit in die Zukunft transportiert und dort modelliert. Der Vorgang „Einbruch löst Einbruch aus“ scheint  nur wenige physikalische Voraussetzungen zu benötigen, eine weitere ist dem menschlichen Erfahrungshorizont und seiner Einbildungskraft geschuldet und deshalb wollen wir der Einfachheit halber annehmen, es gäbe so etwas wie Zeit.

Ein Ansatz, sich der Vorhersage zukünftiger Einbrüche zu nähern, ist die Bestimmung der Verbrechensrate in Raum und Zeit:

verbrechensrate-in-raum-und-zeit

Der in einem bestimmten Zeitintervall ablaufende Verbrechensrate aller Einbrüche setzt sich zusammen aus den bisher geschehenen Einbrüchen und den momentan verübten Einbrüchen. Eine Analyse sämtlicher Informationen zu der bisher stattgefundenen Verbrechensrate erlaubt uns, einen Algorithmus zu schaffen, der die erkannten Muster abfängt, abbildet und Richtung Zukunft transportiert. In der Praxis berechnet man die Wahrscheinlichkeit, für welches Gebiet in Zukunft, in ein oder zwei Tagen, ein wesentlich höheres Risiko für einen Einbruch besteht.

In Hinblick auf das Ergebnis der Wahrscheinlichkeitsberechnung ist es nicht übertrieben, von Signaturtatorten zu reden. Vom zukünftigen Tatort sind die berechneten, aus der Vergangenheit geerbten Attribute Ort und Zeit bekannt.

Was aber weder die Mathematik noch eine Big Data Analyse in der Lage sind zu erklären ist die Frage nach dem „Warum“. Zur Klärung des „Warum“ verabschieden wir uns zunächst von der 11. Dimension, der Zeit, und betrachten einen zweidimensionalen Raum:

verbrechensrate-im-raum

Wir haben jetzt bereits nicht mehr das physikalische Abbild einer Wohnung bzw. eines Wohnungseinbruchs in unserer Formel beschrieben sondern geben nur noch Auskunft über deren Lage in einem x|y Koordinatensystem, genauer: wir stellen die Information über den Ort des Einbruchs bereit, sonst nichts. Wenn wir das tun, ist es zulässig, konsequent zu sein und folgendes Postulat aufzustellen:

verbrechensrate-information

Auf Deutsch: die im Raum existente Verbrechensrate Lambda setzt sich zusammen aus den in müh zusammengefassten Informationen über Wohnungseinbrüche im Raum und aus den Informationen über die zum Zeitpunkt der Messung erfassten Orte x|y im Referenzraum.

Physikalisch gesehen ist eine Information weder Materie noch Energie. Ähnlich der Materie kann aber eine Information (vom Sender zum Empfänger) transportiert werden und sie kann, ähnlich wie Energie, eine materielose Wirkung auf den Empfänger ausüben. Zu vergleichen wäre die Information physikalisch am ehestem mit Licht, welches sich in seinem Welle-Teilchen-Dualismus ähnlich verhält. Nichtsdestotrotz ist “Information” ein Grundbegriff, eine Grundsäule unseres Weltbildes.

entstehung-raum-zeit

Im eben beschriebenen Einbruch-Informations-Modell (Burglary-Information-Model BIM) können wir den Ort für alle Einbrüche mit x genau angeben. In der Theorie erhöht der Umstand, dass ein Einbruch stattgefunden hat, die Wahrscheinlichkeit dafür, dass ein weiterer Einbruch in der Nähe stattfindet, signifikant. Vom ersten Einbruch kann ein Impuls p für einen Near-Repeat ausgehen. Welche Streuungs-Relationen bestehen? Die Unschärfe des Ortes x und des Impulses  wird jeweils durch deren statistische Streuung σx und σp definiert. Die Unschärferelation besagt in diesem Fall

\sigma_x\sigma_p\ge\frac{\hbar}{2}\,, \qquad\qquad (1),

wobei \hbar = h/2\pi und \pi die Kreiszahl ist. In unserem Spezialfall ist x natürlich bekannt. In einer Verallgemeinerung der Heisenbergschen Unschärferelation wenden wir darauf  Ungleichungen bezüglich unterschiedlicher Impulskomponenten zwischen Energie und Impuls oder auch Ort und Energie an.

Der Einbruch gehorcht in diesem Modell den Gesetzten der Quantenmechanik. Die Quantentheorie hat nicht nur die Physik revolutioniert. Sie warf auch ein neues Licht auf eine Vielzahl von Phänomenen in der Chemie und der Biologie und entfachte heftige Debatten in den Geisteswissenschaften. Immer wieder folgten daraus neue, interdisziplinäre Ansätze. Das jüngste Beispiel dürfte die Quanteninformatik sein, ein Fachgebiet, in dem sich Mathematiker, Physiker, Chemiker und Informatiker mit der Informationsverarbeitung und der Datenübertragung auf der Grundlage der Quantentheorie befassen. (2)

Insofern ist die Übereignung von „Information/Einbruch“ an die Quantentheorie nur ein weiteres zu untersuchendes Phänomen, naturwissenschaftlich basierend nicht auf Begriffen wie Welle oder Elektron sondern auf dem der Information. Die Quantentheorie scheint sich in besonderem Maße zur Prognose von Informationsverteilungen zu eignen. In der klassischen Physik ist selbstverständlich, dass bei Wiederholung eines Experiments unter genau denselben Bedingungen sich wieder dasselbe Ergebnis einstellt (Kausalität). In der Quantenphysik aber hat ein Experiment in der Regel mehr als ein mögliches Ergebnis. Welches Ergebnis konkret eintritt, also Realität wird, ist völlig zufällig, hat auch keine Ursache und ist prinzipiell nicht vorhersagbar (keine Kausalität mehr). An die Stelle einer genauen Vorhersage tritt die Berechnung einer Wahrscheinlichkeit. Bei vielen Wiederholungen desselben Experiments (mit gleichartig präparierten Quanten) erhält man eine reproduzierbare Verteilung der Ergebnisse, die durch die Wahrscheinlichkeitsverteilung P = |y|2 quantitativ beschrieben wird. (Born’sche Wahrscheinlichkeitsdeutung). Diese Wahrscheinlichkeitsverteilung ist bei gleichen Bedingungen (Präparation) eindeutig festgelegt und berechenbar. (3)

Informationen als solche, die den reversiblen Gesetzen der Quantenmechanik gehorchen, eignen sich für reversible Operationen über die logische Verknüpfungen erzeugt werden können. Die Eigenschaft der Reversibilität besagt, das man -im Gegensatz zur klassischen Welt- von der Ausgabe auf die Eingabe schließen kann (von der rechten Seite der Gleichung auf die linke Seite schließen kann).

Quelle:
(1) W. Heisenberg: Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik. In: Zeitschrift für Physik. 43, Nr. 3, 1927, S. 172–198, doi:10.1007/BF01397280
(2) Quanteninformatik, Max Rauner, Weinheim
(3) Wesenszüge der Quantenphysik


 Vielen Dank an wegecon für seine Gedanken!

kompletter Beitrag nachzulesen unter: wegecon.de

4D-Matrix :: Zukunftsmanifestationen aus Big Data Analysen

Autor des Beitrags: wegecon

Vom Einfluss von Big Data und den Analysen von riesigen, verknüpften Datenmengen war schon öfter die Rede, heute geht es im Kern um rechtsstaatliche Aspekte, es geht darum, wie Big Data Analysen rechtsstaatskonform Verbrechen verhindern können.

Der Einsatz von Big Data gegen zukünftige Verbrechen ist dabei mindestens so revolutionär wie es die Einführung der Fingerabdruckspurensuche ab Mitte der 1880er Jahre war (in Deutschland ab 1903 in Dresden). Die Analyse der Fingerabdrücke ermöglicht eine mathematisch korrekte Zuordnung von Personen bzw. deren Papillarlinien zu Tatorten. Über Big Data Analysen wird es möglich werden, eine Matrix der Zukunft zu erstellen und in dieser Matrix exakte Angaben über einen Tatort machen zu können. Je nach Quantität und Qualität der Verwendung findenden Daten sind Aussagen über Ort, Zeit, Eigenschaften des Tatortes, Opfer usw. möglich. Unter Einschluss aller möglichen Variablen sagt die Big Data Analyse nicht eine sondern die Zukunft voraus, eine Zukunft, die man verändern kann oder nicht. Und der Clou an der Sache: man wird die Veränderung der Zukunft bereits in der Gegenwart (also aus Sicht der Zukunft der Vergangenheit) messen können.

Erste Erkenntnis: Die Zukunft ist unmittelbar abhängig von Ereignissen der Vergangenheit.

Um beispielsweise in der Erdbebenforschung  vorher zu sagen, an welcher Stelle es ein Nachbeben geben wird, benötigt man ein mathematisches Modell, mit welchem man die Wahrscheinlichkeit von Ort, Zeit und Intensität des Nachbebens möglichst genau vorhersagen kann.  In dem Modell müssen alle relevanten Daten Berücksichtigung finden: Daten über ehemalige Erdbeben, Vulkanismus, Landabsenkungen, Boden- und Gesteinsstruktur weltweit, Temperaturentwicklungen, Punktdaten,  z.B. durch chemische Analysen von Proben oder geophysikalische Messungen an einzelnen Lokationen als auch Flächen- und Liniendaten, die bestimmte Sachverhalte wie beispielsweise geologische oder bodenkundliche Einheiten repräsentieren (Quelle: BGR) usw. Anhand dieser großen Datenmengen lässt sich ein Muster (engl. pattern) entwickeln, das die Vorhersage der Nachbeben, also ein Blick in die Zukunft, zulässt. Je perfekter die Datenbasis, je genauer die Vorhersage.

Ähnlich wie bei Nachbeben oder Wellen gilt:

.menschliches Verhalten ist vorhersagbar

.es folgt Mustern

(vgl. Prof. Geoffrey Brentingham, University of California, Prof. George Mohler, University of Santa Clara, USA)

Der Umstand, dass menschliches Verhalten vorhersehbar ist und Mustern folgt, ist Kern aller Big Data Analysen, die im sozialen oder kommerziellen Bereich betrieben werden. Werbung nach einer erfolgten Big Data Analyse ist ungleich treffsicherer als konventionelle Werbung. Gleiches gilt übrigens für Wahlwerbung und dass ist ein Argument dafür, Big Data in ein Spannungsverhältnis zu Demokratie und Freiheitsrechten zu setzen.

Ein Verbrechen ist menschliches Verhalten. Habe ich genug Daten und ein Muster, aus dem ich eine Formel entwickeln kann, kann ich die Zukunft exakt vorhersagen, Tatorte und Tatzeiten vorhersehen und einiges andere mehr.

Warum wurde das nicht schon früher gemacht? Wirklich große Datenmengen fallen erst seit dem Jahr 2010 an:
2010: 1227 Exabit weltweit
2012: 2837 Exabit weltweit
Prognosen:
2015: 8591 Exabit weltweit
2020: 40026 Exabit weltweit
(Datenvolumen verdoppelt sich alle zwei Jahre
1 Exabit = 909494 Terrabit oder 931.322.574,6154785 Gigabit )
Erst seit wenigen Jahren steht eine ausreichend große Datenmenge für Big Data Analysen zur Verfügung.

Zweite Erkenntnis: riesige Datenmengen (Big Data) sind zur Vorhersage menschlichen Verhaltens geeignet und seit kurzem vorhanden.

Benutzt man das mathematische Modell, welches für die Vorhersage von Erdbeben entwickelt wurde und legt sein Muster auf reale Verbrechensdaten, stellt man verblüfft folgendes fest: es handelt sich um das gleiche Clustermuster. Einem starken Erdbeben folgen Nachbeben in der Nähe, Verbrechen lösen Nachbeben, besser: Aftershocks in der Nachbarschaft aus.

Es ist also realistisch und praktikabel, vorhandene Daten, zum Beispiel die Tatort-, Tatzeit- und Deliktdaten der letzten Jahrzehnte der Polizei für zukunftssichere Voraussagen heranzuziehen.

Zugang zu großen Datenmengen bedeutet Macht.

Über Big Data Analysen könnte der Staat seinem Bürger Straftaten nachweisen, die er noch nicht begangen hat. Dabei handelt es sich ausdrücklich nicht um nebulöse Wahrscheinlichkeiten oder Vermutungen sondern durch aus um eine mathematisch belegbare „an Sicherheit grenzende Wahrscheinlichkeit“. Eine „an Sicherheit grenzende Wahrscheinlichkeit“ definiert bereits seit Jahrzehnten die Grenze zwischen Freispruch und Verurteilung. 100%ige Sicherheit in seinem Urteil muss der Richter bereits heute nicht in sein Urteil legen, um den Delinquenten zu bestrafen.

Werden riesige Datenmengen untereinander verknüpft, ist es problemlos möglich, einen Tatortfilm zu drehen, dessen Tatereignis in der Zukunft liegt und ohne Eingriff durch die Polizei stattfinden wird. Benötigt werden Daten, die heute bereits vorliegen:  Daten über Tatorte, Infrastrukturdaten, Wetter- und Klimadaten, Daten über Personen in der Umgebung, Daten über Baustellen, Verbrauchsdaten von Gas, Wasser, Strom, Konsumverhalten der Nachbarschaft usw. Simplifiziert gibt es dann nur zwei Möglichkeiten: die Polizei greift ein und verändert die Zukunft (Folge: kein Verbrechen) oder sie greift nicht ein und das Verbrechen geschieht. In einem Rechtsstaat wäre die letzte Variante selbstredend unzulässig.

Zwingt Big Data den Rechtsstaat zum Handeln?

Die Frage ist vermutlich verfrüht:

  1. einerseits müsste man sich zunächst vergegenwärtigen, wie, mit welcher mathematischen Formel man in die Zukunft künftiger verbrechen blicken kann und
  2. betreibt der Staat noch kein spezielles data mining für Zwecke der Big Data Anwendung, mit der Folge, dass die Qualität der Daten derzeit noch kein nahezu 100%iges Ergebnis liefern wird.

Wie kann „Big Data Crime“ funktionieren?

Berechnet werden soll die Verbrechensrate in Raum und Zeit.  Diese Verbrechensrate wollen wir Λ (Lambda) nennen. Die in Raum und Zeit ablaufende Kriminalität, also die Verbrechen, die schon geschehen sind und gegenwärtige in einem definierten Raum begangen werden nennen wir µ (Mü). Und dann brauchen wir noch jene Verbrechen, die dem „großen Beben“ folgen: g

Wir beziehen unsere Gleichung also nur auf echte Verbrechensdaten, keine Strukturdaten, Daten aus anderen Quellen usw. Eine Auswertung zu Zwecken der Verbrechensbekämpfung dürfte dem Staat erlaubt sein, zumal die Daten exakt zu diesem Zweck, der Verbrechensbekämpfung erhoben worden sind. Ein Nachteil an dieser Methode ist zweifellos, dass Tatorte nur mit geschätzt ca. 25%iger Genauigkeit vorhergesagt werden können. Für exaktere Betrachtungen der Zukunft bräuchte man mehr Big Data, zB Strukturdaten (siehe weiter oben).

Eine 4-dimensionale Verbrechensmatrix, die sich aus Daten aus der bisherigen Verbrechensbekämpfung beschränkt, könnte analog zur Erdbebenforschung so aussehen:

Λ (t) = µ + ∑ g (t-t)
t < t

wobei der zweite Teil der Formel die Erkenntnisse im vorhandenen Datensatz widerspiegelt. Anhand der Formel lassen sich Crime Hotspots bestimmen. Während man heute bei der Festlegung kriminalitätsbelasteter Orte davon ausgeht, dass morgen das gleiche geschieht wie heute, weiß man über Big Data Analysen, das diese Vermutung, wenn man genau hinsieht, falsch ist. Mit Big Data Analysen kann man zukünftige Tatorte zunächst mit wesentlich höherer Wahrscheinlichkeit bestimmen.

In den USA wird in mehreren Städten das Prinzip bereits bei der Polizei angewandt, die Zahlen von Seriendelikten wie Einbruch gehen dort drastisch zurück. Der Personaleinsatz dürfte sich effizienter gestalten: der Funkwagen fährt erst  los, kurz bevor eine Tat begangen wird. Bayern plant seit ein paar Monaten ein ähnliches Projekt.

Dritte Erkenntnis: Es ist nicht untertrieben, von Signaturtatorten zu reden (vgl. diesen BLOG: Signaturangriffe von US-Drohnen).  Aus einem virtuell erschaffenen Signaturtatort wird je nach Datenqualität mit an Sicherheit grenzender Wahrscheinlichkeit ein realer Tatort, mit nicht selten tödlichen Folgen. Der zukünftige reale Tatort ließe sich bereits jetzt wie ein 3D-Spielfilm visualisieren.

Der Computer schickt einen Streifenwagen, der die Tat verhindert. Ein Szenario, welches auf den ersten Blick nur Gutes verspricht.

Aus demokratischer Sicht und aus der Perspektive des Rechtsstaates stellen sich folgende Fragen:

  • soll die Executive Computern unterstellt werden?
  • welche Daten sollen bzw. dürfen zu Big Data Crime Auswertungen verarbeitet werden?
  • Ersetzt Big Data langfristig das Legalitätsprinzip? Ermessenspielraum des Menschen gegen „totale Gewissheit“ des Computers?
  • Wie wird strafrechtlich mit Menschen umgegangen von denen wir aufgrund von Big Data Analysen mit „an Sicherheit grenzender Wahrscheinlichkeit“ wissen, dass sie ein bestimmtes Verbrechen zu einer bestimmten, zukünftigen Zeit begehen werden?

Eine Erkenntnis bleibt: die Big Data Problematik berührt die Kernbereiche unseres Gemeinwesens: Menschenrechte, Demokratie, Freiheitrechte und Privatsphäre.


Vielen Dank an wegecon für seine Gedanken!

kompletter Beitrag nachzulesen unter: wegecon.de

Das „Forum Polizeiwissenschaft“ geht an den Start!

Ihr beschäftigt euch mit Themen aus dem Bereich der Polizeiwissenschaft? Ihr möchtet eure Gedanken aus, für und über die Polizei und die weiteren Akteure der inneren Sicherheit mit der polizeiwissenschaftlichen Community teilen, zur Diskussion stellen und somit einen Beitrag zur weiteren Etablierung der Polizeiwissenschaft leisten? Das „Forum Polizeiwissenschaft“ bietet euch diese Möglichkeit! Gemeinsam mit Euch wollen wir dazu beitragen, dass der wissenschaftliche Diskurs weiter intensiviert wird!

Schickt uns eure ausformulierten Gedanken und Beiträge und wir stellen sie mit eurem Einverständnis auf dieser Plattform der polizeiwissenschaftlich interessierten Öffentlichkeit vor.

Dieses Angebot richtet sich an Studierende polizeilicher Ausbildungsinstitute sowie Studentinnen und Studenten anderer Fachbereiche, Dozentinnen und Dozenten, Sicherheits- und Polizeipraktiker, Wissenschaftler/innen und alle anderen Personen, welche sich dem Gebiet der Polizeiwissenschaft verbunden fühlen.

Angenommen werden unter anderem:

  • (Kurz-)Artikel und Hinweise auf erschienenen Zeitschriftenartikel
  • Kommentare
  • Essays
  • Thesenpapiere
  • (Buch-) Rezensionen
  • Empfehlungen/Hinweise zu veröffentlichende Texten etc.
  • Kurzbeiträge und andere Ausarbeitungen sowie
  • Veranstaltungshinweise

Ihr leistet einen Beitrag zur polizeiwissenschaftlichen Diskussion und erhaltet gleichzeitig interessante Kommentare und Beiträge zu eurem Themenkomplex.

Zusätzlich wird über den Twitter-Account @Polizei_Wiss auf eure Beiträge hingewiesen, um so eine noch größere Anzahl von Interessenten zu erreichen.

Eingesendete Beiträge bleiben das geistige Eigentum des Verfassers.